機器學習複習(2)——神經網絡

神經網絡概述(BP推導)&CNN

神經網絡

神經元模型

基本結構:

TIM圖片20181123171006

BP網絡

三層神經網絡的推導

  • 標準的推導

    • 符號說明:

      • WlW^{l}表示lll+1l+1的權重矩陣,維數爲:l+1l+1的節點數×l\times l的節點數
      • ff表示激活函數
      • zlz^l表示的是ll層的輸入ala^l表示ll的輸出(即經過了激活函數)
      • 輸入爲一個樣本(bb個屬性)
    • 前向計算(以三層網絡爲例):

      • z(2)=W(1)x+b(1)z^{(2)}=W^{(1)}x+b^{(1)}

      • a(2)=f(z(2))a^{(2)}=f(z^{(2)})

      • z(3)=W(2)x+b(2)z^{(3)}=W^{(2)}x+b^{(2)}

      • 更加普遍的:
        z(l+1)=W(l)a(l)+b(l)a(l+1)=f(z(l+1)) z^{(l+1)}=W^{(l)}a^{(l)}+b^{(l)}\\ a^{(l+1)}=f(z^{(l+1)})

      • 假設損失函數爲JJ

    • 反向(梯度計算:矩陣形式):

      • 每一層的梯度:δ(l)=(W(l))Tδ(l+1)f(z(l))\delta^{(l)}=(W^{(l)})^T\delta^{(l+1)}\bigodot f'(z^{(l)})
      • 每一層的權重的梯度:W(l)=δ(l+1)(a(l))T\bigtriangledown_{W^{(l)}}=\delta^{(l+1)}(a^{(l)})^T
      • 每一層的偏置的梯度:b(l)=δ(l+1)\bigtriangledown_{b^{(l)}}=\delta^{(l+1)}
    • 一些說明:

      • 最外層(包括損失函數的要單獨處理)

      • \bigodot之對應元素相乘

      • ff如果是對於每一個元素的操作,則對於內部的求導最終得到的矩陣維數不變。

        f([z1,z2,z3])=[f(z1),f(z2),f(z3)]f^{'}([z^1,z^2,z^3])=[f^{'}(z^1),f^{'}(z^2),f^{'}(z^3)]

      • 如果原本前向計算的時候是:z(l+1)=(W(l))Ta(l)+b(l)z^{(l+1)}=(W^{(l)})^Ta^{(l)}+b^{(l)}此時維數與開始相比是轉置關係,同時最終求導得到的結果應該是整體轉置。

    • 一些推導(根據單個元素的計算)

      • 對於ll層的ii個節點:δi(l)=(j=1sl+1Wji(l)δj(l+1))f(zj(l))\delta_i^{(l)}=(\sum_{j=1}^{s_{l+1}}W_{ji}^{(l)}\delta_j^{(l+1)})f'(z_j^{(l)})
      • JWij(l)=δi(l+1)aj(l)\frac{\partial J}{\partial W_{ij}^{(l)}}=\delta_i^{(l+1)}a_j^{(l)}由此寫出矩陣形式就是c.ii

學習算法流程:

在這裏插入圖片描述

卷積神經網絡

基本結構

  • 卷積
  • 池化
  • 全連接

在這裏插入圖片描述

卷積神經網絡的計算

0?wx_fmt=gif

  • 上面的動圖展示了一個3×33 \times 3的核是如何操作的,實際上就是對應元素相乘再求和

  • 一些理解:

    • 實際上這裏的濾波可以類比簡單信號的高頻低頻濾波,實際上都是對某一特定的信號有較高/較低的輸出。(同神經網絡的激活)

    • 一層一層的卷積實際上也是前面的實現低階的特徵,後面越來越高

    • 在圖像中

      • rgb圖中:width*height*depth(channel =3 some times)
      • 因爲需要圖像保持不變性(一個圖片中的特質出現在上面或者下面應該都能夠識別)-卷積神經網絡能夠不同位置共享權重(如下圖)
        在這
        2
  • 對於邊緣的處理(希望能夠保持和原本的圖像數據一致):zero padding 操作:即在卷積之前先進行以0填充周圍一圈。

    • 計算說明:原尺寸n×nn \times n卷積核f×ff \times f 如果不進行填充,卷積後:nf+1×nf+1n-f+1 \times n-f+1 若先填充pp層則,卷積後 n+2pf+1×n+2pf+1n+2p-f+1 \times n+2p-f+1只需滿足p=f12p=\frac{f-1}{2}即可使前後尺寸不變

    • valid卷積是不填充,same是填充(具體實現中)

    • 多個filters時:提取多個特徵(輸出不再是depth=1)

    • pooling:

在這裏插入圖片描述


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章