CH4-NLG研究、現狀和未來的思考

1. NLG現狀

  1. 在NLG過程中引入離散隱變量。可能對故事生成、任務型對話有幫助。
  2. 不再是從左到右的順序生成了。對於長文本生成的問題,在並行化生成、迭代優化和自頂向下生成上都有了新的研究。
  3. 訓練過程也不再只是最大似然的優化函數了,出現了更多句子粒度的目標函數。

2. NLG研究:我們現在在哪兒?以後要去哪裏?

直到5年前,NLP+DL都是探索期;2019年的現在,好像有點進展了,但是NLG仍然是最待開發的大草原!

3. NLG更爲成熟

  1. NLP+DL早期,主要還是嘗試把已經非常成熟的NMT方法往NLG任務上搬
  2. 而現在,NLG已經有了更多新的算法,而且已經擺脫了NMT的相關算法配置
  3. NLG領域(特別是開放式NLG)的研討會和比賽也日益增多
  4. 以上也都有助於研討會更多更好更標準
  5. 最大的絆腳石就是評價!

4. 從事NLG工作讓講師學到的8件事

  1. 越是開放式的NLG任務,難度就越大,這個時候可以引入一些限制條件。
  2. 不要想着一次優化全部生成效果,可以進行分體拆解,逐個擊破
  3. 如果使用LM進行NLG,如果能提高LM表現(比如困惑度perplexity可能很大程度上就提高了整體的生成效果。當然,這絕不是唯一一個有助於提高生成質量的方法。
  4. 多康康你生成了什麼玩意兒!
  5. 就算自動評價效果不好,你也需要有一套,甚至幾套!
  6. 如果真的要進行人工評價,把標準定得儘可能詳盡
  7. NLP+DL現在最大的問題是不能復現,所以把你的生成結果和使用的方法感覺發表出來
  8. 這個過程是非常令人沮喪的,當然也是很有趣的。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章