【強化學習筆記】關於一篇對話系統文獻綜述的讀後感

本文由@ray 出品,轉載請註明出處。
文章鏈接:
http://blog.csdn.net/wz22881916/article/details/78620147


上週導師安排了一個任務——讀一下這篇文章

出處:A Survey on Dialogue Systems: Recent Advances and New Frontiers
文章地址: https://arxiv.org/abs/1711.01731v1
作者: Hongshen Chen, Xiaorui Liu, Dawei Yin, Jiliang Tang

筆者之前都是搞圖像處理啊、單片機啊、軟件開發啊這些的,沒有接觸過自然語言處理,對話系統這些。

通過閱讀這篇文章,筆者對對話系統有了初步的瞭解,併產生了一些想法。

首先放出讀了這篇文章後的思維導圖:
這裏寫圖片描述

一、概述

這篇文章主要概述了對話系統,尤其是對話系統在深度學習方面的進展;還討論了可能的研究方向

二、分類

對話系統根據其應用可以分爲面向任務型和非面向任務型。

2.1 面向任務型

2.1.1 目的

面向任務型對話系統的目的是幫助用戶完成某些任務,比如說查找產品、預定住宿等。

2.1.2 方法

面向任務型的方法可以分爲三種:

①流水線

流水線方法中包含4個模塊:

  • 自然語言理解(NLU):又可分爲語義槽、意圖檢測和槽填充三個部分。

  • 對話狀態跟隨器(Dialogue State Tracking):確保對話系統健壯性的核心組成部分。它會在每一次對話中估計用戶的目標。傳統方法是用手工定製規則,新方法引入了信念追蹤的深度學習。

  • 對話策略學習(Policy learning):以從狀態跟隨器獲得的狀態表示作爲條件,策略學習將產生下個可用的系統動作。

  • 自然語言生成(NLG):將抽象的對話動作轉化爲淺層的自然語言表達

流水線方法的缺點有兩個:

  • 分數分配問題,最終用戶的反饋很難回傳到上游模塊
  • 處理相互依賴(模塊間)

②深度學習

③端到端(end-end):一個模塊,可以與結構化的外部數據進行交互

2.1.3 特點

面向任務型的特點是通常需要在外部知識庫上進行查詢。

2.2 非面向任務型

2.2.1 目的

非面向任務型的目的是在與人類交互過程中,提供合理的反應和娛樂;其主要專注於在開放域與人交談。

2.2.2 方法

非面向任務型的方法主要有兩個:

①生成方法:神經生成模型,可在對話過程中產生適當的回覆。

序列到序列(seq2seq)模型是神經生成模型的基礎。

目前神經生成模型的熱門研究課題大概有如下幾個:

  • 對話上下文
  • 回覆多樣性
  • 主題和個性
  • 外部知識庫
  • 交互式對話學習
  • 評價

②檢索方法:從數據庫中選擇當前對話的回覆。這有可以分爲單輪迴復匹配、多輪迴復匹配和混合方法。

三、結論

目前對話系統的發展特點有如下兩個:

  • 深度學習變成了對話系統的基礎技術,應用於傳統面向任務的對話系統的不同模塊

  • 充分利用大數據,結合端到端的訓練和強化學習。

四、一些思考

  1. 語義槽(Semantic Slots)是什麼?

    答:

    語義槽類似於元數據,描述數據的數據。

    語義槽允許用戶去詳細描述說法的變量值部分。

    在下面的說法案例中{到達城市}和{旅行日期}就是語義槽:
    我想去{到達城市}
    預定一次{出發日期}的行程;
    計劃一個到{到達城市}的假期;

  2. 引言中提到大多對話系統,仍然使用人工特徵或人工編寫的規則來處理狀態和動作空間表示、意圖檢測和槽填充。這裏的人工特徵和人工編寫的規則是指的什麼?

  3. 微軟小娜和蘋果siri是什麼型的系統?

  4. 真的存在一個評價標準來評價回覆的質量嗎?

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章