1.視頻網站:mooc慕課https://mooc.study.163.com/university/deeplearning_ai#/c
2.詳細筆記網站(中文):http://www.ai-start.com/dl2017/
3.github課件+作業+答案:https://github.com/stormstone/deeplearning.ai
3.1 神經網絡概覽 Neural Networks Overview
上週我們討論了邏輯迴歸。我們瞭解了這個模型(如下圖)如何與下面公式建立聯繫。
公式
你需要輸入特徵x,參數w和b,通過這些你就可以計算出z。
接下來使用z就可以計算出,。
最後可以計算出損失函數。
神經網絡NN看起來是如下這個樣子
你可以把許多sigmoid單元堆疊起來形成一個神經網絡。
我們已經知道,本節第一個圖中介紹的邏輯迴歸模型中的節點包含2個計算步驟
- 首先計算出z
- 然後通過計算出
而現在NN網絡的每個節點也是類似的計算出z和。
符號約定
我們使用新的符號上標[1]來表示第一列節點相關的量,並稱之爲“層”。
同理,在上圖中符號上標[2]來表示第二列節點相關的量,這是NN網絡的另外一層。
這裏使用方括號上標,是爲了區分表示單個訓練樣本的圓括號。
例
- x(i)表示第i個訓練樣本
- 上標[1]表示NN網絡第一層, 上標[2]表示NN網絡第二層
然後類似邏輯迴歸一樣使用線性方程去計算z[1],再使用計算。
接下來使用線性方程去計算z[2],再使用計算。
是整個NN的最終輸出。損失函數。
你可以發現,NN網絡需要反覆多次計算z和,最後計算損失函數。
在上週學習中還介紹過反向計算,用來計算da和dz。
在NN網絡中,同樣有類似的反向計算。計算da[2]和dz[2],然後計算出dW[2],db[2],按照這個次序從右向左反向計算,即紅色箭頭方向。
總結:
在本節中我們對NN有了瞭解。基本上就是邏輯迴歸重複了2次。