Adam算法是Momentum和RMSprop结合在一起得到的。使用Adam算法,首先要初始化。在第t次迭代中,要计算微分,用当前的mini-batch计算,一般会用mini-batch梯度下降法,接下来计算momentum指数加权平均数:接着用RMSprop进行更新一般使用Adam算法的时候,要计算偏差修正:最后更新权重所以Adam算法结合了Momentum和RMSprop梯度下降法,并且是一种及其常见的学习算法,被证明能有效适用于不同的神经网络。该算法有很多很重要的超参数,超参数学习率很重要,也经常需要调试,可以尝试一系列值,然后看哪个有效。常用的缺省值为0.9,这是的移动平均数,也就是的加权平均数,这是Momentum涉及的项。至于超参数,Adam算法的发明者推荐使用0.999,这是在计算以及的移动加权平均值。关于的选择其实没有很重要,Adam论文的作者建议为。
改善深层神经网络:超参数调整、正则化以及优化——2.8 Adam算法(Adaptive Moment Estimation)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
吴恩达深度学习笔记02——改善深层神经网络3超参数调试
阿尔基亚
2020-07-07 22:37:47
吴恩达深度学习笔记02——改善深层神经网络1深度学习的实用层面
阿尔基亚
2020-07-07 22:37:47
吴恩达第四课第一周编程作业
ccccchelsea
2020-07-02 21:49:04
【吴恩达深度学习】【神经网络和深度学习】 第三章 第八节 激活函数的导数
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第十一节 随机初始化
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第三节 计算神经网络的输出
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第四节 多个例子中的向量化
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第六节 激活函数
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第二节 神经网络表示
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第五节 向量化实现的解释
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第九节 神经网络的梯度下降法
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第七节 我们为什么需要非线性激活函数?
__Sugar__
2020-06-17 03:20:26
【吴恩达深度学习】【神经网络和深度学习】 第三章 第一节 神经网络概览
__Sugar__
2020-06-17 03:20:26
吴恩达第二课第一周编程作业
鏈接:https://pan.baidu.com/s/1qd3ocbfnmXdXUx-TjhlM3A 提取碼:93cz
ccccchelsea
2020-06-06 15:07:25