RNN的集中應用場景

完全圖解RNN、RNN變體、Seq2Seq、Attention機制
https://zhuanlan.zhihu.com/p/28054589

N vs M

原始的N vs N RNN要求序列等長,然而我們遇到的大部分問題序列都是不等長的,如機器翻譯中,源語言和目標語言的句子往往並沒有相同的長度。
爲此,Encoder-Decoder結構先將輸入數據編碼成一個上下文向量c:
得到c有多種方式,最簡單的方法就是把Encoder的最後一個隱狀態賦值給c,還可以對最後的隱狀態做一個變換得到c,也可以對所有的隱狀態做變換。
拿到c之後,就用另一個RNN網絡對其進行解碼,這部分RNN網絡被稱爲Decoder。具體做法就是將c當做之前的初始狀態h0輸入到Decoder中:
在這裏插入圖片描述
在這裏插入圖片描述
還有一種做法是把c作爲每一步的輸入
在這裏插入圖片描述
由於這種Encoder-Decoder結構不限制輸入和輸出的序列長度,因此應用的範圍非常廣泛,比如:

機器翻譯。Encoder-Decoder的最經典應用,事實上這一結構就是在機器翻譯領域最先提出的
文本摘要。輸入是一段文本序列,輸出是這段文本序列的摘要序列。
閱讀理解。將輸入的文章和問題分別編碼,再對其進行解碼得到問題的答案。
語音識別。輸入是語音信號序列,輸出是文字序列。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章