【Neural Networks and Deep Learning2019吳恩達最新Coursera課程學習】——第四周—Deep Neural Networks

時間過得好快,夜幕就要降臨,轉眼就來到了第四周,加油!消化!

1. Deep L-Layer neural network——2019-07-04

本週的課程主要就是對之前三週的東西進行總結,而且本週的編程任務要重一點!
加油鴨!本週作業的目的:加深你對神經網絡的理解並能的一個讓你引以爲豪的深度學習模型!

  • 深度神經網絡:層數要多的(注意說神經網絡的層數的時候是不包括輸入層的!只計算隱藏層和輸出層)
  • 第一章主要講了這些記錄的符號,用L表示層,用n表示個數等等
    在這裏插入圖片描述

2. Forward Propagation in a Deep Network——2019-07-04

  • 自己寫代碼的時候都會非常注意每一層的維度之間的關係,可以大大減少代碼的錯誤!
  • 這一章主要就是說明了了一個多層的神經網絡其實就是不斷的重複一個通項公式,而且這裏就是用的for循環進行的,前面的課程講過要儘量避免for循環而應該優先使用向量化。但是這裏的for循環是唯一不能被替換的!
    總結起來就下面一張圖,還是關於表示和推廣的!
    在這裏插入圖片描述

3. Getting your matrix dimensions right——2019-07-04

  • 檢查矩陣的維度可以使你更容易的使用深度網絡,更容易的去Debug
    比如說給定一個這樣的神經網絡:
    在這裏插入圖片描述

  • 關於矩陣和Bias的維度,不是一般性的,具有以下規律:
    在這裏插入圖片描述

  • 當我們進行反向傳播的時候,dW 和db的 維度也是和W和b的維度一樣的,不是一般性的爲:
    在這裏插入圖片描述

  • 網絡中的Z和A就基本沒啥要說的了關於維度的事情,因爲他倆維度就是一樣的,和給定的網絡結構圖一樣!

  • 但是在矢量化的過程中,維度會發生一點點的變化,參數其實還好還是一樣的!但是主要發生變化的就是Z和A的維度了
    但是要注意的是A和Z他倆永遠是保持同一個維度的,要變的知識第二個維度,從之前的[n,1]變成了[n,m],這裏的n指的就是每一層的神經單元數量,m指的就是總的訓練樣例,相當於把一個一個的訓練樣例堆疊在了一起,對於Z或者A來說,一列就是一個新的訓練樣例的結果!行數還是代表的是神經單元的數量,並不發生改變!b就會利用Python的廣播機制自動給列從1維補成m維,這是不影響的!W的話還是以前的維度!因爲輸入的第一個維度並沒有變化,還是神經元單元的個數!

4. Why deep representations?——2019-07-04

老說deep deep deep的那到底爲啥deep就能有比較好的效果呢在那麼多的任務上?

  • 深度學習的深度神經網絡原指有很多的隱藏層的網絡,但是現在深度學習已經是一個很大的包羅萬象的概念了
  • 從淺層學習邊角信息,深層學習語義信息的概念大概講了一下有效性
  • 也從電路的門大概講了一些有效性!
    基本就是這個樣子啦!

5. Building blocks of deep neural networks——2019-07-04

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章