單層連續感知器網絡,做一個R類線性分類器,前向通道表示如下
o=Γ[WY]
Y=Γ[WX]其中W=⎣⎢⎢⎢⎡w11w12⋯w1nw21w22⋯w2n⋮⋮ ⋱⋮wm1wm2⋯wmn⎦⎥⎥⎥⎤非線性對角算子Γ[⋅]=⎣⎢⎢⎢⎡f(⋅) 0 ⋯00 f(⋅)⋯ 0⋮⋮ ⋱⋮00⋯f(⋅)⎦⎥⎥⎥⎤
計算單個權調節
Δwkj=η∂wkj∂E對於任意k節點netk=j=1∑Jwkjyj神經元輸出ok=f(netk)由第k個神經元產生的誤差信號δok=−∂(netk)∂E從此我們可以寫出∂wkj∂E=∂(netk)∂E⋅∂wkj∂(netk)輸入處有∂wkj∂(netk)=yj我們得到∂wkj∂E=δokyj和Δwkj=ηδokyj
對於δok
δok=−∂ok∂E⋅∂(netk)∂ok又因爲∂ok∂E=−(dk−ok)∂(netk)∂ok=f−1(netk)綜上Δwkj=η(dk−ok)f′(netk)yiwkj=wkj=Δwkj其中f′(net)=o(1−o)
沒錯。。就是上一章公式的推廣
廣義的Delta學習規則
兩層神經網絡
也人有稱其三層神經網絡(考慮是否將輸入層也算作網絡之一)
結點i向結點j的權
對於隱含層,負梯度下降公式爲
Δvji=−η∂vji∂E
Δwkj=ηf′(netk)zik=1∑Kδokwkj