原创 dialog如何利用context知識
對話裏面,有些模型是用了完整的context,有些模型是隻用了上一句(我沒有做完整統計), 1.到底哪一種更好呢? 2.如果採用第一種,能不能用好呢? Do Neural Dialog Systems Use the Conve
原创 Memory4Dialog系列學習
記得上半年看GLMP,當時還跟別人討論說memory都是騙人的,但是現在心態變正常了,能抓老鼠的都是好貓。下面對於這一系列的文章進行講解。 1)LEARNING END-TO-END GOAL-ORIENTED DIALOG
原创 multi-teacher學習
多老師學習: 1.Learning from Multiple Teacher Networks 1)不同example 輸入到網絡會有不同的輸出,(x1,x2,x3)得到(p1,p2,p3),(q1,q2,q3),怎麼保證||q
原创 問答系統概要
Question Answering: 發現幾位專家的看法,QA可以做的範圍廣,但是dialog的難度確實大,目前沒什麼大進展。對於VQA有很多方向可以發展。 Inferential Machine Comprehension: Answ
原创 torch常用損失函數
https://www.cnblogs.com/marsggbo/p/10401215.html 總是記不住.....也是絕了.....
原创 qa論文精讀目錄——大佬推薦
1) Qingyu Zhou, Nan Yang, Furu Wei, Chuanqi Tan,Hangbo Bao, and Ming Zhou. 2017. Neural ques-tion generati
原创 文本糾錯學習
主要針對: https://mp.weixin.qq.com/s/Pff9yYGch-noVq_cUcY5CA 當前由於用戶輸入隨意及手寫輸入法易出錯等原因,錯誤串在輸入文本中佔比高達10%-15%,這也使得中文文本糾錯模塊必要性
原创 emnlp新paper
Counterfactual Story Reasoning and Generation Neural Text Generation with Unlikelihood Training Real-Time Open-Doma
原创 DDQ升級版
Switch-based Active Deep Dyna-Q: Efficient Adaptive Planning for Task-Completion Dialogue Policy Learning ?world
原创 調研ESIM-以及FAQ匹配模型
ESIM模型: 借鑑https://zhuanlan.zhihu.com/p/77898069 之前看過這篇文章,當時沒有很大的感覺,可能因爲那邊博文不夠和我口味,而且看文章模型似乎非常複雜,也不靈巧,但是最近發現它在很多比賽上都
原创 context系列
Memory Consolidation for Contextual Spoken Language Understanding with Dialogue Logistic Inference 主要是加上DLI,memor
原创 閒記
零散問題: 1)編輯距離 def minEditDist(sm,sn): m,n = len(sm)+1,len(sn)+1 # create a matrix (m*n) matrix = [[0]*n
原创 【轉載】nn.BiLinear功能
我們都知道在pytorch中的nn.Linear表示線性變換,官方文檔給出的數學計算公式是 y = xA^T + b,其中x是輸入,A是權值,b是偏置,y是輸出,卷積神經網絡中的全連接層需要調用nn.Linear就可以實現。而
原创 fewshot意圖識別
Few-Shot Text Classification with Induction Network 在test的時候怎麼進行, meta learning: 每一個training episode,在training set中
原创 sequicity後續文章
(1)Domain Adaptive Dialog Generation via Meta Learning (2)Incorporating the Structure of the Belief State in End-to