2020-5-27 吴恩达-改善深层NN-w1 深度学习的实用层面(1.14 关于梯度检验实现的注意事项)

1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c
2.详细笔记网站(中文):http://www.ai-start.com/dl2017/
3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai

本节将介绍一些关于如何在NN实施梯度检验的实用技巧和注意事项。

1.不要在训练中使用梯度检验,它只用于调试。

前面已经介绍过,梯度检验是对比 dθapprox[i]d\theta_{approx}[i]dθd\theta
计算所有ii值的 dθapprox[i]d\theta_{approx}[i] 是一个非常漫长的计算过程。
为了实施梯度下降,你必须使用反向传播backprop来计算 dθd\theta 和导数。

所以只有调试的时候,你才计算dθapprox[i]d\theta_{approx}[i],来确认数值是否接近dθd\theta
完成后,你会关闭梯度检验,梯度检验的每一个迭代过程都不执行它,因为它太慢了。

2.如果算法的梯度检验失败,要检查每一项,并试着找出bug。

如果dθapprox[i]d\theta_{approx}[i]dθ[i]d\theta[i] 的值相差很大,我们要做的就是查找不同的ii值,看看是哪个导致值相差很大。

例如,某些层或者某一层的对应θ\theta或者说dθd\thetadb[l]db^{[l]}的值相差很大,但是dW[l]dW^{[l]}的各项非常接近。注意:θ\theta的各项与W和b的各项都是一一对应的。这时,你可能会发现,在计算参数b的导数dbdb的过程中存在bug。

对于dWdW的情况也是一样的。你可能会发现所有这些项目都来自于dWdW或某层的dWdW,这可能帮你定位bug的位置。

虽然有可能未必能够帮你准确定位bug的位置,但它可以帮助你估测需要在哪些地方追踪bug。

3.在实施梯度检验时,如果使用正则化,请注意正则项。

我们已经学习过使用L2正则的代价函数J公式
J(θ)=1mi=1mL(y^(i),y(i))+λ2mi=1mW[l]F2J(\theta)=\frac 1m\sum_{i=1}^mL(\hat y^{(i)},y^{(i)})+\frac{\lambda}{2m}\sum_{i=1}^m||W^{[l]}||_F^2

dθd\thetaθ\theta关于函数J的梯度,包含正则项。一定不要忘记正则项。

4.梯度检验不能与dropout同时使用

dropout是化代价函数的一种方法。

每次迭代过程中,dropout会随机消除隐藏层单元的不同子集,难以计算dropout在梯度下降上的代价函数J。代价函数J被定义为对所有指数极大的节点子集求和,在任何迭代过程中,这些节点都有可能被消除,所以很难计算代价函数J。

使用dropout,你只是对成本函数做抽样,每次随机消除不同的子集,所以很难用梯度检验来双重检验dropout的计算。

建议关闭dropout,用梯度检验进行检查,确保在没有dropout的情况下,你的算法至少是正确的,然后再打开dropout。

5.随机初始化,可能需要反复训练网络,再运行梯度检验

这一点比较微妙,现实中几乎不会出现这种情况。

当随机初始化开始时候,w和b接近0(随机初始化的值要小,原因参见链接),梯度下降的实施是正确的。但是梯度下降运行一段时间后,w和b变得更大。

可能只有在w和b接近0时,反向传播backprop的实施才是正确的。但是当w和b变大时,它会变得越来越不准确。你需要做一件事,我不经常这么做,就是在随机初始化过程中,运行梯度检验,然后再训练网络,w和b会有一段时间远离0,如果随机初始化值比较小,反复训练网络之后,再重新运行梯度检验。

意思就是w和b变大,就检查一下梯度检验,没有问题,再训练。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章