EMNLP 2018去年十一月開完會了,又出了很多文章。根據自己的興趣點選了一些,平常慢慢讀,持續更新到這篇博文。這篇博文記錄下這些文章的簡要筆記,好的文章會標上“TO BE CONTINUED”,之後會再開單獨的博文來做筆記。列表如下:
名稱 | 類型 | 時間 | 閱讀價值 | 筆記 |
---|---|---|---|---|
Improving Neural Abstractive Document Summarization with Explicit Information Selection Modeling | long paper | 2018 | 3 | 做摘要的文章,選這篇主要是explicit information selection,直接看1789頁的gated global information filtering即可,主要是利用sigmoid函數來構建一個0-1的實數來做權重,達到過濾目的。 |
Is it Time to Swish ? Comparing Deep Learning Activation Functions Across NLP tasks | long paper | 2018 | 4 | 在三類任務上對激活函數做測試,MLP-句子分類、CNN-document分類、RNN-序列標註,對各類激活函數有簡要的介紹,雖然任務類型還是有侷限性,不過還是可以用來了解各類激活函數。 |
Topic Memory Networks for Short Text Classification | long paper | 2018 | 4 | 這篇文章的分類標準是話題,通過VAE和attention來分別找話題(隱變量z)和重點。文章寫得不錯,相關工作可以參考寫法。 |
Joint Learning for Emotion Classification and Emotion Cause Detection | short paper | 2018 | 3 | 針對情感分類和情感證據檢測兩個任務聯合建模,具體方法是通過兩個神經網絡分別對兩個任務進行獨立分類,網絡之間有着信息的交互。跟之前看過的multi-task模型風格很像,不過是通過不同層次的特徵拼接來交互,而不是共享層。 |
A Hierarchical Neural Attention-based Text Classifier | short paper | 2018 | 2 | label帶有層級關係的multi-class分類 |
Phrase-level Self-Attention Networks for Universal Sentence Encoding | long paper | 2018 | 3 | 之前有見過把文本分層次爲“doc-sentence-clause-word”,而這篇是在短語級別做self-attention,根據dependency parsing來識別短語,短語切分的質量決定了模型的上限。可想而知,在句子變長、結構複雜、表達噪音較多時,這種方法在切分上就已經引入了很多誤差。只有當句子長度短、句式單一、表達規整時,纔可能嘗試這種做法,普適性不強 |
Hybrid Neural Attention for Agreement / Disagreement Inference in Online Debates | short paper | 2018 | 2.5 | 在線辯論場景下,針對quote和response兩者,構建self-attention和co-attention,來進行分類。模型圖畫的不錯 |
– | – | – | – | – |
持續補充…