聲學模型學習筆記(七) advanced deep models

multitask and transfer learning

multitask learning:不同的任務網絡,可以共享一部分網絡結構(比如說某個隱層)
transfer learning:遷移學習

SHL-MDNN

這裏寫圖片描述
shared-hidden-layer multilingual DNN,用於訓練不同語言的模型,所有的模型共享同一個隱層,輸出層跟語言有關。
共用的隱層可以認爲是一個特徵提取器,最後的輸出層爲分類器。
SHL-MDNN需要多個語言同時進行訓練,一個mini-batch包括多個語言的訓練語料。
試驗表明多語言訓練出來的SHL-MDNN相比單語言訓練出來的DNN性能有提升,共享的隱層訓練在一定程度上面減弱了overfitting問題。
隱層作爲特徵提取器,可以把它對音素的區分性遷移到其他語言上面。
- 如果需要增加一種語言,只需要增加一個輸出層,還是複用前面訓練好的隱層,訓練是固定隱層,只需要訓練最後一層的參數即可
- 如果新增語言的訓練數據比較充足,整體重新訓練效果更好。
- 可以由英語遷移到中文,依然有效

RNN

RNN
LSTM

參考

《automatic speech recognition a deep learning approach》 chapter 12-15

發佈了132 篇原創文章 · 獲贊 94 · 訪問量 62萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章