摘要
看論文,學姿勢 233333
持續更新中。。。。
乾貨WIKI
有大量的優秀NLP + DL文獻
http://blog.csdn.net/xiangz_csdn/article/details/53349241
文獻列表
- Word2Vec
Mikilov 2015 年發佈的兩篇原作:
《Efficient Estimation of Word Representations in Vector Space 》
《Distributed Representations of Words and Phrases and their Compositionality》
分佈式詞表達的祖師爺NNLM:
http://www.jmlr.org/papers/volume3/bengio03a/bengio03a.pdf
中文的講解:
http://blog.csdn.net/a635661820/article/details/44130285
相關技術:
(1) 《LDA》
(2) 《Attention Model》
- Seq2Seq
暫時看到的都是RNN的,使用RNN+LSTM實現序列生成,RNN生來就是做序列的啊 23333 :D
(1) 《使用機器學習進行語言翻譯:神經網絡和seq2seq爲何效果非凡?》
(2) 《Seq2Seq》
(3) 《理解 LSTM 網絡 (Understanding LSTM Networks by colah)》
(4) 《機器翻譯中的深度學習技術:CNN,Seq2Seq,SGAN,Dual Learning》
(5) 《Seq2Seq非常好的代碼(機器翻譯、對話生成等):漫談四種神經網絡序列解碼模型》
- 正則化