機器學習中轉載的文章目錄

LDA https://blog.csdn.net/tsyccnh/article/details/79163834

交叉熵 相對熵(KL散度)https://blog.csdn.net/tsyccnh/article/details/79163834

sklearn中有關樸素貝葉斯的內容 https://www.cnblogs.com/pinard/p/6074222.html

NCE 負採樣損失函數
該損失函數計算上下文與目標單詞之間的點積,採集每一個正樣本的同時採集k個負樣本。公式的第一項最小化正樣本的損失,第二項最大化負樣本的損失。現在如果將負樣本作爲第一項的變量輸入,則損失函數結果應該很大。
Jθ=wV(logP(y=1x)+i=1klogP(y=0x(w(i))))J_\theta = - \sum\limits_{w \in V} {\left( {\log P\left( {y = 1|x} \right) + \sum\limits_{i = 1}^k {\log P\left( {y = 0|x^{\left( {w^{\left( i \right)} } \right)} } \right)} } \right)}

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章