RNN不同於前饋神經網絡,被認爲具有記憶能力。其輸入被看作一個序列,形如
這裏
和前饋神經網絡一樣,RNN也可以通過Backpropagation算法進行訓練即BPTT算法。其目標函數所有時間點上的成本函數的和:
對W求倒數:
以此類推:
將(6)代入(3)就得到:
這裏很容易得到:
推導完成。
上面BPTT算法會遇到導數逐漸消失或趨於無窮大的問題,LSTM是很好的解決方案 。
RNN不同於前饋神經網絡,被認爲具有記憶能力。其輸入被看作一個序列,形如
這裏
和前饋神經網絡一樣,RNN也可以通過Backpropagation算法進行訓練即BPTT算法。其目標函數所有時間點上的成本函數的和:
對W求倒數:
以此類推:
將(6)代入(3)就得到:
這裏很容易得到:
推導完成。
上面BPTT算法會遇到導數逐漸消失或趨於無窮大的問題,LSTM是很好的解決方案 。