详解 误差反向传播算法推导

误差反向传播算法误差

反向传播算法(back propagation,简称BP模型)是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是目前应用最广泛的神经网络。

误差反向传播算法系统的解决了多层神经网络隐含层连接权学习问题,人们把采用这种算法进行误差校正的多层前馈网络称为BP网。BP神经网络具有任意复杂的模式分类能力和优良的多维函数映射能力,解决了简单感知器不能解决的异或(Exclusive OR,XOR)和一些其他问题。

从结构上讲,BP网络具有输入层、隐藏层和输出层;
从本质上讲,BP算法就是以网络误差平方为目标函数、采用梯度下降法来计算目标函数的最小值。

因此学习误差反向传播算法对于深度学习的深造起到非常重要的作用,这也是本篇博客的主题。

由于梯度下降法需要求解相邻层的梯度,这就要求网络中需要处处可导,也就是需要激活函数也必须支持可导性。M-P模型中使用step函数作为激活函数,只能输出0或1,不连续所以不可导。为了使误差能够顺利传播,科学家们提出了可导函数sigmoid作为激活函数f(u)f(u),但是在后期的使用中发现sigmoid函数也存在一定的问题(梯度饱和问题),于是发展出了ReLU函数及其变形激活函数,想深入了解激活函数的小伙伴可以查看下这篇博客:https://blog.csdn.net/ViatorSun/article/details/82418578

1) 以单层感知器入

反向传播算法便于大家理解,下面先解释下单层感知器的梯度下降法。由复合函数求导法则可以知道,误差函数求导如下所示:

Ewi=Eyywi\frac{\partial E}{\partial w_i} = \frac{\partial E}{\partial y}\frac{\partial y}{\partial w_i}

y=f(u)y=f(u),求误差函数 EEwiw_i 的导数为:

Ewi=(ry)ywi=(ry)f(u)wi\frac{\partial E}{\partial w_i} = -(r-y)\frac{\partial y}{\partial w_i} = -(r-y)\frac{\partial f(u)}{\partial w_i}

f(u)f(u)的导数就是对复合函数求导

Ewi=(ry)f(u)uuwi\frac{\partial E}{\partial w_i} = -(r-y)\frac{\partial f(u)}{\partial u} \frac{\partial u}{\partial w_i}

uuwiw_i求导的结果只和xix_i相关:uwi=xi\frac{\partial u}{\partial w_i} = x_i 整理下上面两个式子,得到:

Ewi=(ry)xif(u)u\frac{\partial E}{\partial w_i} = -(r-y)x_i\frac{\partial f(u)}{\partial u}

在此,我们对激活函数SigmoidSigmoidσ(x)=11+ex\sigma(x) = \frac {1}{1+e^{-x}}函数求导:

σ(x)x=ex(1+ex)2 \frac{\partial \sigma(x)}{\partial x} = \frac {e^{-x}}{(1+e^{-x})^2}

ex=ue^{-x} = u 则导函数为:

f(u)u=f(u)(1f(u))\frac{\partial f(u)}{\partial u} = f(u)(1-f(u))

将激活函数的导数代入上面整理结果得到:

Ewi=(ry)xif(u)(1f(u))\frac{\partial E}{\partial w_i} = -(r-y)x_i f(u)(1-f(u))

由于输出结果y=f(u)y=f(u),所以单层感知器的权重调整值为(其中η\eta为学习率):

Δwi=ηEwi=η(ry)y(1y)xi\Delta w_i = - \eta\frac{\partial E}{\partial w_i} = \eta(r-y)y(1-y)x_i

至此,这就是单层感知器权重的调节量。


2)多层感知器的反传传播算法

接下来,我们再分析下多层感知器。多层感知器的误差函数EE等于个输出单元的误差总和。E=12j=1q(rjyj)2E = \frac{1}{2} \sum_{j=1}^q (r_j - y_j)^2

对误差函数求导得:

Ewij=Eyjyjwij\frac{\partial E}{\partial w_{ij}} = \frac{\partial E}{\partial y_j} \frac{\partial y_j}{\partial w_{ij}}

其中,wijw_{ij}代表xix_iyjy_j之间的连接权重,对EE求导的结果只和yjy_j相关,如下所示:

Ewij=(rjyj)yjwij\frac{\partial E}{\partial w_{ij}} = -(r_j - y_j) \frac{\partial y_j}{\partial w_{ij}}

与单层感知相同,对上式展开后对复合函数求导:

Ewij=(rjyj)yjujujwij\frac{\partial E}{\partial w_{ij}} = -(r_j - y_j) \frac{\partial y_j}{\partial u_j} \frac{\partial u_j}{\partial w_{ij}}

下面与单层感知器一样,对误差函数求导得:

Ewij=(rjyj)yj(1yj)xi\frac{\partial E}{\partial w_{ij}} = -(r_j - y_j) y_j (1-y_j)x_i

则权重的调节值为(其中η\eta为学习率):

Δwij=η(rjyj)yj(1yj)xi\Delta w_{ij} = \eta(r_j - y_j )y_j (1-y_j)x_i

由此可见,多层感知器中,只需要使用与连接权重wijw_{ij}相关的输入xix_i和输出yjy_j,即可计算出连接权重的调节值。

将神经网络分解开可以更清晰的分析,再将最后一列各变量之间的偏导数累成就是整个链式法则的体现。


3) 带中间层的多层感知器的反向传播算法

最后我们再解释下带中间层的多层感知器的梯度下降法。由于中间层的加入,层之间的权重下标我们增加到三个,其中ii表示输入层单元,jj表示中间层单元,kk表示输出层单元 。如下图所

首先考虑输出层与中间层之间的连接权重w2jkw_{2jk}的调整。对权重w2jkw_{2jk}求导:

Ew2jk=Eykyku2ku2kw2jk\frac{\partial E}{\partial w_{2jk}} = \frac{\partial E}{\partial y_k} \frac{\partial y_k}{\partial u_{2k}} \frac{\partial u_{2k}}{\partial w_{2jk}}

经过误差函数EE对输出yky_k求导,输出yky_k求导,输出yky_k对激活值u2ku_{2k}求导,激活值u2ku_{2k}对连接权重w2jkw_{2jk}求导之后,得到:

Ew2jk=(rkyk)yk(1yk)zj\frac{\partial E}{\partial w_{2jk}} = -(r_k - y_k) y_k ( 1-y_k) z_j

所以,即便是输出层有多个单元,只要对每个输出单元分别求导后,也能得到误差函数对中间层权重的偏导数接下来计算输入层和中间层之间的连接权重w1ijw_{1ij}的偏导数:

Ew1ij=k=1q[Eykyku2ku2kw1ij]\frac{\partial E}{\partial w_{1ij}} = \sum_{k=1}^q[ \frac{\partial E}{\partial y_k} \frac{\partial y_k}{\partial u_{2k}} \frac{\partial u_{2k}}{\partial w_{1ij}}]

中间层的单元jj和输出层的所有单元相连,所以如上式所示,误差函数EE对连接权重W1ijW_{1ij}求偏导,就是对所有输出单元的导数进行加权和,实际使用的是所有输出单元连接权重的总和。将sigmoidsigmoid函数的导数和误差函数代入到上式,得:

Ew1ij=k=1q[(rkyk)yk(1yk)u2kw1ij]\frac{\partial E}{\partial w_{1ij}} = -\sum_{k=1}^q[ (r_k - y_k)y_k(1-y_k) \frac{\partial u_{2k}}{\partial w_{1ij}}]

由于连接权重w1ijw_{1ij}只对中间层zjz_j的状态产生影响,所以上式中剩余部分求导后的结果如下:

u2kw1ij=u2kzjzjw1ij\frac{\partial u_{2k}}{\partial w_{1ij}} = \frac{\partial u_{2k}}{\partial z_j } \frac{\partial z_j}{\partial w_{1ij}}

激活值u2ku_{2k}zjz_j求导得到连接权重w2jkw_{2jk},结合下式就可以求出输入层与中间层之间的连接权重w1ijw_{1ij}的调整值:

zjw1ij=zju1ju1jw1ij=zj(1zj)xi\frac{\partial z_j}{\partial w_{1ij}} = \frac{\partial z_j}{\partial u_{1j}} \frac{\partial u_{1j}}{\partial w_{1ij}} = z_j ( 1- z_j) x_i Δw1ij=ηk=1q[(rkyk)yk(1yk)w2jk]zj(1zj)xi\Delta w_{1ij} = \eta \sum_{k=1}^q [ (r_k - y_k) y_k ( 1- y_k) w_{2jk} ] z_j (1-z_j) x_i

具体推导过程可以参考下列公式

在此需要注意zj=f(uj)z_j=f(u_j),输入层与中间层之间的权重调整值是相关单元在中间层与输出层之间的权重调整值的总和。

4)小结

至此,误差反向传播算法的讲解就全部结束了,其中包含了大量的公式,理解起来可能会有一些难度,但是这是必过的槛。如果实在不理解过程的话,只记住最后那张图也可以,那张图便是整个算法的精髓所在。除此之外,在实际应用过程中可能还会遇到一个问题,那就是激活函数使用SigmoidSigmoid或者tanhtanh函数的时候,如果xx趋向正负无穷的时候,会出现偏导数为零的情况,见下图,左侧为SigmoidSigmoid函数图像,右侧为其导函数的图像。这时候,由于权重调整值趋近于0,所以无法调整连接权重,权重所在的单元也就不再起作用。

这就是误差反向传播算法中的梯度消失导致无法调整连接权重的问题,对于这个问题,需要在训练的过程中合理地调整学习率η\eta,以防止梯度消失。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章