原创 Recurrent Models學習筆記

主要是自己學習Recurrent Neural Network過程中的知識梳理。涉及到的資料來源:CS224n: Natural Language Processing with Deep Learning (Lecture 8, Lec

原创 【論文】Match-LSTM 機器閱讀理解

《Machine Comprehension Using Match-LSTM and Answer Pointer》這篇論文介紹了一種端到端解決機器閱讀理解問答任務的方法,結合了Match-LSTM和Pointer Net。該文是第

原创 斯坦福cs224課程筆記

CS224N: Natural Language Processing with Deep Learning課程主頁:CS224n: Natural Language Processing with Deep Learninghttp:/

原创 KBQA 知識庫問答領域研究綜述(未完待續。。)

論文終於提交了,心情非常激動。。從去年9月開始做知識庫問答到現在,總算是可以告一段落了。從前期的調研,到11月份艱難地復現別人的論文,12月1月看論文調模型,中間幾近放棄。。3.9又重新開始跑模型,3.19開始寫論文,到今天全部完成,深刻

原创 【深度學習】各種梯度下降優化方法總結

斯坦福CS231 Lecture7梯度下降優化算法綜述一文看懂各種神經網絡優化算法:從梯度下降到Adam方法梯度下降法是最小化目標函數J(θ)J(θ)的一種方法,其中,θ∈Rdθ∈Rd爲模型參數,梯度下降法利用目標函數關於參數的梯度∇θJ

原创 【深度學習】Batch Normalization理解

參考資料: - 深度學習中 Batch Normalization爲什麼效果好? - 斯坦福CS231 Lecture6 - Batch Normalization 學習筆記 各種講解深度學習的課程、博客中都會強

原创 斯坦福CS231課程筆記(上)

CS231n: Convolutional Neural Networks for Visual Recognition課程主頁:http://cs231n.github.io/convolutional-networks/筆記中文翻譯:

原创 【深度學習】Attention機制理解與總結

深度學習中Attention Mechanism詳細介紹:原理、分類及應用 目前主流的attention方法都有哪些? Attention Mechanism可以幫助模型對輸入的X每個部分賦予不同的權重,抽取出更加關鍵及重要的信息,

原创 機器學習中距離和相似性度量方法

http://www.cnblogs.com/daniel-D/p/3244718.html http://blog.csdn.net/pi9nc/article/details/9068359

原创 各類QA問答系統的總結與技術實現(持續更新)

問答系統是近幾年大火的nlp應用之一,很多公司不論大小都一窩蜂地研發問答機器人、智能客服。不論是搜狗機器人汪仔在《一戰到底》中戰勝人類選手,還是前陣子火爆的直播答題類軟件,都加速了問答系統走入大衆的視野。但是不得不說,即使問答系統前景如

原创 mysql導入csv文件,與python連接

csv文件導入mysql數據庫表中:load data infile 'F:/eclipse2/tianchi_fresh_comp_train_user.csv' into table `shopping_records_origin

原创 Tensorflow常用函數整理

相關資料: 待讀:tensorflow筆記:多層LSTM代碼分析 極客學院 MNIST例子 官方文檔 函數定義 矩陣生成 tf.clip_by_value tf.ones(shape, type=tf.float32, name=

原创 斯坦福cs231課程筆記(下)

Lecture 8:    Deep Learning SoftwareLecture 9:    CNN ArchitecturesAlexNetVGGNetGoogLeNet    - 22 total layers with wei

原创 【論文】文本建模框架 conv-RNN

《A Hybrid Framework for Text Modeling with Convolutional RNN》這篇論文是對深度學習語義建模的研究,文中提出了一種新的文本語義編碼算法 conv-RNN,該模型在參考了較爲常用的文