關於神經網絡的需要注意的概念總結

之前接觸並瞭解過神經網絡的相關概念,但是並沒有做過任何系統的總結,這一段時間藉此總結一下相關的概念;
對於神經網絡的入門概念來說最重要的是一些相關的理解性概念:反向傳播、激活函數、正則化以及BatchNomalizim等。

一、反向傳播:
其實反向傳播歸根結底就是一個每一次訓練的動態更新的的過程,其遵循的原理是數學中的求導以及鏈式法則;理解了反向傳播,也就能夠理解梯度消失等相關的情況以及概念;
如下,我們給出一個簡單的神經網絡:
clipboard.png
對於這個網絡,輸出層爲o1和o2,反向傳播的目的也就是根據求導來更新每一個w值,從而使得新的輸出結果o1和o2能夠更加接近我們所給定的值,這也就是訓練過程。

這裏也牽扯到一個損失的概念,也就是loss。我們所給出的loss就是生成的結果和所想要得到的結果的誤差值,通常來說是差的平方;而所謂的梯度下降法等相關的優化函數,目的也就是通過反向傳播,使得w值進行更新,使得新的輸出更接近期望值,從而使得loss下降;

因此,對於一個網絡,最核心的步驟就是如何通過數學推導,構造一個loss函數,在通過使得loss函數最小的步驟中,對網絡中的參數進行調整,使得網絡能夠在測試階段達到我們預期的分類或者是預測,甚至生成結果。這一點在後續的GAN網絡總結中會進行系統的闡述;

由此可見,理解反向傳播,對於後續的各個環節的理解很有好處;
對於上述的網絡示例,我們可以通過對其的各個w更新推導,來進行反向傳播的理解;
如果對網絡參數w和b進行賦初值:

clipboard.png

當我們進行首次前向傳播時:
各個層的輸出值如下所示:

clipboard.png

clipboard.png

clipboard.png

clipboard.png

clipboard.png
至此,我們就得到了相應的o1 o2初始值,從而可以根據和期望值進行loss計算。此時loss值就是我們期望通過反向傳播(也可以理解成梯度下降裏的一步操作)來進行減小處理的值。

對於反向傳播來說,最主要的就是鏈式推導和求導過程構成的反向傳播:

如果我們對w5感興趣,希望知道他對於整體的誤差產生了多大的影響,就對他進行求偏導,根據鏈式法則,則有:
clipboard.png

所以,對於w5的更新就有如下的式子,其中,η爲學習速率;
clipboard.png

對於其他參數,也有相同的計算流程;
當全部計算完成後,就可以進行loss計算,在正常狀態下,loss會越來越小,相應的,每一步都會進行反向傳播計算來更新相應的參數值;

所以從上述推到可以基本得知,本質上反向傳播就是一個逐個參數求偏導,繼而更新使得loss下降的循環過程;
詳細的數學推導後續在加強數學基礎之後會給出;

二、激活函數:
之前一直對激活函數模棱兩可,但是後續經過相關的檢索才詳細的知道激活函數的詳細意義是什麼;
激活函數的用處,主要和線性非線性分類有關;
例如我們常說的一個二分類問題,在二維平面上給出一些點,然後利用機器學習找出一條直線,將兩種的點完全分開,如果線性可分,就可以稱其爲二分類問題。

但是對於某些情況下,並不是線性可分的,例如下圖所示:

clipboard.png
其實這裏也牽扯到神經網絡中節點輸入輸出的一些相關的線性方程理解;
對於如下神經元:
clipboard.png
我們可以基本上觀察出來,本質上神經元的輸出就是線性方程,對應到圖片上就是一條直線,y就是其預測值;

對於多神經元來說:

clipboard.png
可以認爲是多個線性方程組,所以最終我們得到的還是線性方程,而不是非線性方程;

對於非線性分類,我們也可以採用多個線性方程進行擬合,但是終究會存在很大的誤差;
因此,激活函數的目的就是爲了將線性方程變爲非線性的;
如下圖所示:

clipboard.png
clipboard.png
此時,線性分類通過引入非線性因素就變成了非線性分類,解決了線性分類所不能夠解決的問題;

三、BatchNormalize
個人感覺BatchNormalize的根本操作就是歸一化,區別不同的就是BatchNormalize操作可以加持在隱藏層;
之所以進行BatchNormalize操作的目的可以很好理解。
對於一個輸入,如果經過神經元計算得到的結果需要經過sigmod激活函數,可能出現如下情況:
如果一個x1=90 x2=60,且之間還用數據分佈;
由於sigmod的性質,可以知道,x1,x2都無限趨緊於1。此時,就可以發現該激勵函數並不能很好的表達出數據分佈的性質;
如果採用BatchNormalize操作,將所有數據重新分佈在0-1區間,就可以將每個數據經過sigmod之後的值完美的映射在0-1區間內,從而保存了數據分佈的特點;
當然BatchNormalize還加了兩個參數,如下所示:

clipboard.png
推導也會在後續的借鑑中給出;

相關的借鑑和參考博客:
反向傳播的推導1
反向傳播推導2

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章