机器学习中转载的文章目录

LDA https://blog.csdn.net/tsyccnh/article/details/79163834

交叉熵 相对熵(KL散度)https://blog.csdn.net/tsyccnh/article/details/79163834

sklearn中有关朴素贝叶斯的内容 https://www.cnblogs.com/pinard/p/6074222.html

NCE 负采样损失函数
该损失函数计算上下文与目标单词之间的点积,采集每一个正样本的同时采集k个负样本。公式的第一项最小化正样本的损失,第二项最大化负样本的损失。现在如果将负样本作为第一项的变量输入,则损失函数结果应该很大。
Jθ=wV(logP(y=1x)+i=1klogP(y=0x(w(i))))J_\theta = - \sum\limits_{w \in V} {\left( {\log P\left( {y = 1|x} \right) + \sum\limits_{i = 1}^k {\log P\left( {y = 0|x^{\left( {w^{\left( i \right)} } \right)} } \right)} } \right)}

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章