原创 AUC這個指標說明的含義是什麼

AUC的本質含義反映的是對於任意一對正負例樣本,模型將正樣本預測爲正例的可能性 大於 將負例預測爲正例的可能性的 概率

原创 機器翻譯中對於OOV一般咋處理

1.直接copy,從源端直接copy到目標端 2.使用bpe子詞技術

原创 如何從零建立一個詞表

背景:當我們拿到一份語料,但是卻沒有分詞的詞表,我們如何找到一個最佳的詞表,能夠對這份語料是最匹配和適應的呢? 解決方案: 首先,我認爲詞的定義是指,對語料能做語義上最合理的劃分。 這裏會有一種矛盾,如果詞數量越多,那麼在統計ngram文

原创 語言模型在大詞彙表上 softmax 計算的改進方法

  參考文 獻:https://nndl.github.io/old-chap/chap-%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E4%B8%8E%E8%AF%8D%E5%B5%8C%E5%85%

原创 git push總是提交失敗

git push 結果提示如下 hint: Updates were rejected because a pushed branch tip is behind its remote hint: counterpart. Ch

原创 詞向量的維數

詞向量的維數d1一般取20~500之間

原创 英文n元語言模型的 困惑度範圍

一般而言,對於英語文本,n元語言模型的 困惑度範圍一般爲50 ∼ 1000之間。

原创 github優秀代碼錦集

https://github.com/keon/awesome-nlp https://github.com/glample/tagger https://github.com/guoguibing/librec     優秀推薦系統代碼

原创 LSTM一般最多堆疊多少層

在大規模翻譯任務的經驗中,簡單的堆疊LSTM層最多可以工作4層,很少工作6層,超過8層就很差了。 Redisual connection有助於梯度的反向傳播,能夠幫助lstm堆疊更多層,實現更深層的訓練,但是一般也就是最多到8層。 參考

原创 常見的圖模型

原创 lstm是怎麼解決梯度消失問題的

https://www.quora.com/How-does-LSTM-help-prevent-the-vanishing-and-exploding-gradient-problem-in-a-recurrent-neural-net