word2vec淺析

本文是參考神經網絡語言模型、word2vec相關論文和網上博客等資料整理的學習筆記,僅記錄

自己的學習歷程,歡迎拍磚。

     word2vec是2013年google提出的一種神經網絡的語言模型,通過神經網絡來學習詞語的聯合概率分佈,

同時可以得到詞向量,有了詞向量可以做很多NLP相關的事情。其實,早在2000年初就有學者在用神經網絡

來學習語言模型了,通過多年的改進、演變,得到我們現在知道的word2vec,word2vec其實並沒有用多層的

神經網絡,近些年來DL方法也在NLP領域有越來越多的研究進展。








參考文獻

 https://code.google.com/p/word2vec/

lMikolov,Tomas, et al. "Efficient estimation of word representations in vectorspace." arXiv preprint arXiv:1301.3781 (2013).    

 Mikolov,Tomas, et al. "Distributed representations of words and phrases and theircompositionality." Advances in Neural Information ProcessingSystems. 2013. 

lBengio,Yoshua, et al. "Neural probabilistic language models." Innovationsin Machine Learning. Springer Berlin Heidelberg, 2006. 137-186.  

lhttp://blog.csdn.net/itplus/article/category/1686185 

http://licstar.net/archives/328

http://blog.csdn.net/mytestmy/article/category/1465487  



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章