1.視頻網站:mooc慕課https://mooc.study.163.com/university/deeplearning_ai#/c
2.詳細筆記網站(中文):http://www.ai-start.com/dl2017/
3.github課件+作業+答案:https://github.com/stormstone/deeplearning.ai
第三週 淺層神經網絡 One hidden layer Neural Network
- 3.1 神經網絡概覽 Neural Networks Overview
- 3.2 神經網絡表示 Neural Network Representation
- 3.3 計算神經網絡的輸出 Computing a Neural Network’s Output
- 3.4 多樣本向量化 Vectorizing across multiple examples
- 3.5 向量化實現的解釋 Explanation for vectorized implementation
- 3.6 激活函數 Activation functions
- 3.7 爲什麼需要非線性激活函數?Why do you need non linear activation functions?
- 3.8 激活函數的導數 Derivatives of activation functions
- 3.9 神經網絡的梯度下降法 Gradient descent for neural networks
- 3.10 (選修)直觀理解反向傳播 Backpropagation intuition (Optional)
- 3.11 隨機初始化 Random Initialization
學習使用前向傳播和反向傳播搭建出有一個隱藏層的神經網絡。包含
- 如何設立單隱藏層NN
- 初始化參數
- 用正向傳播計算預測值
- 計算導數,使用梯度下降進行反向傳播
3.1 神經網絡概覽 Neural Networks Overview
2020-5-6 吳恩達-NN&DL-w3 淺層NN(3.1 神經網絡概覽)
3.2 神經網絡表示 Neural Network Representation
2020-5-7 吳恩達-NN&DL-w3 淺層NN(3.3 計算神經網絡的輸出,3.4 多樣本向量化)
3.3 計算神經網絡的輸出 Computing a Neural Network’s Output
2020-5-7 吳恩達-NN&DL-w3 淺層NN(3.3 計算神經網絡的輸出,3.4 多樣本向量化)
3.4 多樣本向量化 Vectorizing across multiple examples
2020-5-7 吳恩達-NN&DL-w3 淺層NN(3.3 計算神經網絡的輸出)
3.5 向量化實現的解釋 Explanation for vectorized implementation
2020-5-8 吳恩達-NN&DL-w3 淺層NN(3.5 向量化實現的解釋(含算法總結),3.6 激活函數-3種)
3.6 激活函數 Activation functions
2020-5-8 吳恩達-NN&DL-w3 淺層NN(3.5 向量化實現的解釋(含算法總結),3.6 激活函數-3種)
3.7 爲什麼需要非線性激活函數?Why do you need non linear activation functions?
2020-5-9 吳恩達-NN&DL-w3 淺層NN(3.7 爲什麼需要非線性激活函數)
3.8 激活函數的導數 Derivatives of activation functions
2020-5-9 吳恩達-NN&DL-w3 淺層NN(3.8 激活函數的導數,3.9 神經網絡的梯度下降法)
3.9 神經網絡的梯度下降法 Gradient descent for neural networks
2020-5-9 吳恩達-NN&DL-w3 淺層NN(3.8 激活函數的導數,3.9 神經網絡的梯度下降法)
3.10 (選修)直觀理解反向傳播 Backpropagation intuition (Optional)
2020-5-10 吳恩達-NN&DL-w3 淺層NN(3.10 (選修)直觀理解反向傳播)