論文閱讀:Few-shot Natural Language Generation for Task-Oriented Dialog

paper:https://arxiv.org/abs/2002.12328

code/data/demo:http://scgpt.westus2.azurecontainer.io/

目前任務導向型對話存在的問題,要麼依賴固定對話生成的模型,要麼只能在一些具體領域的基於一些有限標註數據集進行訓練。本文提出了一個基於”預訓練-預訓練-微調”的模型,目的是提高任務導向型對話生成的文本的流暢性和準確度;

流程是首先在通用語料上預訓練,然後在大量對話數據集上預訓練,最後再使用具體領域的數據集進行微調,能極大地提高所生成回覆的質量。

 

SC-GPT和兩個基線模型(SC-LSTM、GPT-2)的實驗結果:可以看到,在所有7個領域,SC-GPT生成的文本既更流暢(BLEU更大),而且也更準確(ERR更小),超越幅度也非常大。

          

 

paper note:https://zhuanlan.zhihu.com/p/110164562

針對Few-shot 的應用場景,可以借鑑作者的基於”預訓練-預訓練-微調”的方法,並且代碼也以及開源;

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章