2020-5-6 吳恩達DL學習-神經網絡和深度學習Neural Network and Deep Learning-第三週 淺層神經網絡

1.視頻網站:mooc慕課https://mooc.study.163.com/university/deeplearning_ai#/c
2.詳細筆記網站(中文):http://www.ai-start.com/dl2017/
3.github課件+作業+答案:https://github.com/stormstone/deeplearning.ai

學習使用前向傳播和反向傳播搭建出有一個隱藏層的神經網絡。包含

  • 如何設立單隱藏層NN
  • 初始化參數
  • 用正向傳播計算預測值
  • 計算導數,使用梯度下降進行反向傳播

3.1 神經網絡概覽 Neural Networks Overview

2020-5-6 吳恩達-NN&DL-w3 淺層NN(3.1 神經網絡概覽)

3.2 神經網絡表示 Neural Network Representation

2020-5-7 吳恩達-NN&DL-w3 淺層NN(3.3 計算神經網絡的輸出,3.4 多樣本向量化)

3.3 計算神經網絡的輸出 Computing a Neural Network’s Output

2020-5-7 吳恩達-NN&DL-w3 淺層NN(3.3 計算神經網絡的輸出,3.4 多樣本向量化)

3.4 多樣本向量化 Vectorizing across multiple examples

2020-5-7 吳恩達-NN&DL-w3 淺層NN(3.3 計算神經網絡的輸出)

3.5 向量化實現的解釋 Explanation for vectorized implementation

2020-5-8 吳恩達-NN&DL-w3 淺層NN(3.5 向量化實現的解釋(含算法總結),3.6 激活函數-3種)

3.6 激活函數 Activation functions

2020-5-8 吳恩達-NN&DL-w3 淺層NN(3.5 向量化實現的解釋(含算法總結),3.6 激活函數-3種)

3.7 爲什麼需要非線性激活函數?Why do you need non linear activation functions?

2020-5-9 吳恩達-NN&DL-w3 淺層NN(3.7 爲什麼需要非線性激活函數)

3.8 激活函數的導數 Derivatives of activation functions

2020-5-9 吳恩達-NN&DL-w3 淺層NN(3.8 激活函數的導數,3.9 神經網絡的梯度下降法)

3.9 神經網絡的梯度下降法 Gradient descent for neural networks

2020-5-9 吳恩達-NN&DL-w3 淺層NN(3.8 激活函數的導數,3.9 神經網絡的梯度下降法)

3.10 (選修)直觀理解反向傳播 Backpropagation intuition (Optional)

2020-5-10 吳恩達-NN&DL-w3 淺層NN(3.10 (選修)直觀理解反向傳播)

3.11 隨機初始化 Random Initialization

2020-5-10 吳恩達-NN&DL-w3 淺層NN(3.11 隨機初始化-否則完全對稱,多個隱藏單元沒有意義)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章