deep_learning(吳恩達) 第三週 –淺層神經網絡_01

這兩天輕鬆的很啊~
詳細: 吳恩達《神經網絡與深度學習》課程筆記(4)– 淺層神經網絡
下面內容是上面鏈接的簡單摘要


淺層神經網絡和神經網絡基礎很相似。
還是那幾步。

  1. 確定層數,弄清維度。(弄不清也沒事,下一章會發現規律)
  2. 初始化參數。(這次*不能全部是零*。因爲全是零,貌似會導致隱藏層計算過程都一樣)
  3. 向前傳播
  4. 計算損失函數
  5. 反向傳播
  6. 更新參數
  7. 重複3~6,至損失函數減小幅度很小。(多次迭代)
  8. 此時的參數,是損失函數最小的時候,所對應的參數。
  9. 用這個參數,可以用來進行測試和判斷。

整體的應用過程如下圖 :隱藏層得出的結果,作爲第二層的輸入
在這裏插入圖片描述

3-向前傳播

(1)Z[1]=W1X+b[1]Z^{[1]}=W^{1}X+b^{[1]}\tag{1}
(2)A[1]=σ(Z[1])A^{[1]}=\sigma{(Z^{[1]})}\tag{2}
(3)Z[2]=W2A[1]+b[2]Z^{[2]}=W^{2}A^{[1]}+b^{[2]}\tag{3}
(4)A[2]=σ(Z[2])A^{[2]}=\sigma{(Z^{[2]})}\tag{4}

4-計算損失函數

(5)L=YlogA+(1Y)log(1A)L=Y\log{A} + (1-Y)\log{(1-A)}\tag{5}
(6)J=LmJ=-\frac{\sum{L}}{m}\tag{6}

5-反向傳播

(截個圖,寫公式麻煩,嘿嘿)
在這裏插入圖片描述
最後,詳細的實現過程在作業中。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章