原创 AUC這個指標說明的含義是什麼
AUC的本質含義反映的是對於任意一對正負例樣本,模型將正樣本預測爲正例的可能性 大於 將負例預測爲正例的可能性的 概率
原创 機器翻譯中對於OOV一般咋處理
1.直接copy,從源端直接copy到目標端 2.使用bpe子詞技術
原创 如何從零建立一個詞表
背景:當我們拿到一份語料,但是卻沒有分詞的詞表,我們如何找到一個最佳的詞表,能夠對這份語料是最匹配和適應的呢? 解決方案: 首先,我認爲詞的定義是指,對語料能做語義上最合理的劃分。 這裏會有一種矛盾,如果詞數量越多,那麼在統計ngram文
原创 語言模型在大詞彙表上 softmax 計算的改進方法
參考文 獻:https://nndl.github.io/old-chap/chap-%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E4%B8%8E%E8%AF%8D%E5%B5%8C%E5%85%
原创 git push總是提交失敗
git push 結果提示如下 hint: Updates were rejected because a pushed branch tip is behind its remote hint: counterpart. Ch
原创 詞向量的維數
詞向量的維數d1一般取20~500之間
原创 英文n元語言模型的 困惑度範圍
一般而言,對於英語文本,n元語言模型的 困惑度範圍一般爲50 ∼ 1000之間。
原创 github優秀代碼錦集
https://github.com/keon/awesome-nlp https://github.com/glample/tagger https://github.com/guoguibing/librec 優秀推薦系統代碼
原创 LSTM一般最多堆疊多少層
在大規模翻譯任務的經驗中,簡單的堆疊LSTM層最多可以工作4層,很少工作6層,超過8層就很差了。 Redisual connection有助於梯度的反向傳播,能夠幫助lstm堆疊更多層,實現更深層的訓練,但是一般也就是最多到8層。 參考
原创 lstm是怎麼解決梯度消失問題的
https://www.quora.com/How-does-LSTM-help-prevent-the-vanishing-and-exploding-gradient-problem-in-a-recurrent-neural-net