原创 dialog如何利用context知識

對話裏面,有些模型是用了完整的context,有些模型是隻用了上一句(我沒有做完整統計), 1.到底哪一種更好呢? 2.如果採用第一種,能不能用好呢? Do Neural Dialog Systems Use the Conve

原创 Memory4Dialog系列學習

記得上半年看GLMP,當時還跟別人討論說memory都是騙人的,但是現在心態變正常了,能抓老鼠的都是好貓。下面對於這一系列的文章進行講解。 1)LEARNING END-TO-END GOAL-ORIENTED DIALOG

原创 multi-teacher學習

多老師學習: 1.Learning from Multiple Teacher Networks 1)不同example 輸入到網絡會有不同的輸出,(x1,x2,x3)得到(p1,p2,p3),(q1,q2,q3),怎麼保證||q

原创 問答系統概要

Question Answering: 發現幾位專家的看法,QA可以做的範圍廣,但是dialog的難度確實大,目前沒什麼大進展。對於VQA有很多方向可以發展。 Inferential Machine Comprehension: Answ

原创 torch常用損失函數

https://www.cnblogs.com/marsggbo/p/10401215.html 總是記不住.....也是絕了.....

原创 qa論文精讀目錄——大佬推薦

  1) Qingyu  Zhou,  Nan  Yang,  Furu  Wei,  Chuanqi  Tan,Hangbo Bao, and Ming Zhou. 2017.   Neural ques-tion  generati

原创 文本糾錯學習

主要針對: https://mp.weixin.qq.com/s/Pff9yYGch-noVq_cUcY5CA 當前由於用戶輸入隨意及手寫輸入法易出錯等原因,錯誤串在輸入文本中佔比高達10%-15%,這也使得中文文本糾錯模塊必要性

原创 emnlp新paper

Counterfactual Story Reasoning and Generation Neural Text Generation with Unlikelihood Training Real-Time Open-Doma

原创 DDQ升級版

Switch-based Active Deep Dyna-Q: Efficient Adaptive Planning for Task-Completion Dialogue Policy Learning ?world

原创 調研ESIM-以及FAQ匹配模型

ESIM模型: 借鑑https://zhuanlan.zhihu.com/p/77898069 之前看過這篇文章,當時沒有很大的感覺,可能因爲那邊博文不夠和我口味,而且看文章模型似乎非常複雜,也不靈巧,但是最近發現它在很多比賽上都

原创 context系列

Memory Consolidation for Contextual Spoken Language Understanding with Dialogue Logistic Inference 主要是加上DLI,memor

原创 閒記

零散問題: 1)編輯距離 def minEditDist(sm,sn): m,n = len(sm)+1,len(sn)+1 # create a matrix (m*n) matrix = [[0]*n

原创 【轉載】nn.BiLinear功能

我們都知道在pytorch中的nn.Linear表示線性變換,官方文檔給出的數學計算公式是 y = xA^T + b,其中x是輸入,A是權值,b是偏置,y是輸出,卷積神經網絡中的全連接層需要調用nn.Linear就可以實現。而

原创 fewshot意圖識別

Few-Shot Text Classification with Induction Network 在test的時候怎麼進行, meta learning: 每一個training episode,在training set中

原创 sequicity後續文章

(1)Domain Adaptive Dialog Generation via Meta Learning (2)Incorporating the Structure of the Belief State in End-to