這兩天輕鬆的很啊~
詳細: 吳恩達《神經網絡與深度學習》課程筆記(4)– 淺層神經網絡
下面內容是上面鏈接的簡單摘要
淺層神經網絡和神經網絡基礎很相似。
還是那幾步。
- 確定層數,弄清維度。(弄不清也沒事,下一章會發現規律)
- 初始化參數。(這次*不能全部是零*。因爲全是零,貌似會導致隱藏層計算過程都一樣)
- 向前傳播
- 計算損失函數
- 反向傳播
- 更新參數
- 重複3~6,至損失函數減小幅度很小。(多次迭代)
- 此時的參數,是損失函數最小的時候,所對應的參數。
- 用這個參數,可以用來進行測試和判斷。
整體的應用過程如下圖 :隱藏層得出的結果,作爲第二層的輸入
3-向前傳播
Z[1]=W1X+b[1](1)
A[1]=σ(Z[1])(2)
Z[2]=W2A[1]+b[2](3)
A[2]=σ(Z[2])(4)
4-計算損失函數
L=YlogA+(1−Y)log(1−A)(5)
J=−m∑L(6)
5-反向傳播
(截個圖,寫公式麻煩,嘿嘿)
最後,詳細的實現過程在作業中。