Adam算法是Momentum和RMSprop結合在一起得到的。使用Adam算法,首先要初始化。在第t次迭代中,要計算微分,用當前的mini-batch計算,一般會用mini-batch梯度下降法,接下來計算momentum指數加權平均數:接着用RMSprop進行更新一般使用Adam算法的時候,要計算偏差修正:最後更新權重所以Adam算法結合了Momentum和RMSprop梯度下降法,並且是一種及其常見的學習算法,被證明能有效適用於不同的神經網絡。該算法有很多很重要的超參數,超參數學習率很重要,也經常需要調試,可以嘗試一系列值,然後看哪個有效。常用的缺省值爲0.9,這是的移動平均數,也就是的加權平均數,這是Momentum涉及的項。至於超參數,Adam算法的發明者推薦使用0.999,這是在計算以及的移動加權平均值。關於的選擇其實沒有很重要,Adam論文的作者建議爲。
改善深層神經網絡:超參數調整、正則化以及優化——2.8 Adam算法(Adaptive Moment Estimation)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
吳恩達深度學習筆記02——改善深層神經網絡3超參數調試
阿尔基亚
2020-07-07 22:37:47
吳恩達深度學習筆記02——改善深層神經網絡1深度學習的實用層面
阿尔基亚
2020-07-07 22:37:47
吳恩達第四課第一週編程作業
ccccchelsea
2020-07-02 21:49:04
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第八節 激活函數的導數
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第十一節 隨機初始化
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第三節 計算神經網絡的輸出
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第四節 多個例子中的向量化
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第六節 激活函數
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第二節 神經網絡表示
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第五節 向量化實現的解釋
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第九節 神經網絡的梯度下降法
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第七節 我們爲什麼需要非線性激活函數?
__Sugar__
2020-06-17 03:20:26
【吳恩達深度學習】【神經網絡和深度學習】 第三章 第一節 神經網絡概覽
__Sugar__
2020-06-17 03:20:26
吳恩達第二課第一週編程作業
鏈接:https://pan.baidu.com/s/1qd3ocbfnmXdXUx-TjhlM3A 提取碼:93cz
ccccchelsea
2020-06-06 15:07:25