2.12 總結-深度學習第四課《卷積神經網絡》-Stanford吳恩達教授

總結

習題

第 111 題

在典型的卷積神經網絡中,隨着網絡的深度增加,你能看到的現象是?

A. nHn_HnWn_W 增加,同時 ncn_c 減少

B. nHn_HnWn_W 減少,同時 ncn_c 也減少

C. nHn_HnWn_W 增加,同時 ncn_c 也增加

D. nHn_HnWn_W 減少,同時 ncn_c 增加

第 112 題

在典型的卷積神經網絡中,你能看到的是?

A.多個卷積層後面跟着的是一個池化層

B.多個池化層後面跟着的是一個卷積層

C.全連接層(FC)位於最後的幾層

D.全連接層(FC)位於開始的幾層

第 113 題

爲了構建一個非常深的網絡,我們經常在卷積層使用“valid”的填充,只使用池化層來縮小激活值的寬/高度,否則的話就會使得輸入迅速的變小。

A.對

B.不對

第 114 題

訓練更深層的網絡(例如,在網絡中添加額外的層)可以使網絡適應更復雜的功能,因此幾乎總是會導致更低的訓練錯誤。對於這個問題,假設是指“普通”網絡

A.對 B.不對

第 115 題

下面計算殘差(ResNet)塊的公式中,橫線上應該分別填什麼?

a[l+2]=g(W[l+2]g(W[l+1]+b[l+1])+b[l+2]+_?_)+_?_)a^{[l+2]}=g(W^{[l+2]}g(W^{[l+1]}+b^{[l+1]})+b^{[l+2]}+\_?\_)+\_?\_)

A.分別是 0 與 z[l+1]z^{[l+1]}
B.分別是 a[l]a^{[l]} 與 0
C.分別是 z[l]z^{[l]}a[l]a^{[l]}
D.分別是 0 與 a[l]a^{[l]}

第 116 題

關於殘差網絡下面哪個(些)說法是正確的?

A.使用跳越連接能夠對反向傳播的梯度下降有益,且能夠幫你對更深的網絡進行訓練

B.跳躍連接計算輸入的複雜的非線性函數以傳遞到網絡中的更深層

C.有L層的殘差網絡一共有 L2L^2 種跳躍連接的順序

D.跳躍連接能夠使得網絡輕鬆地學習殘差塊類的輸入輸出間的身份映射

第 117 題

假設你的輸入的維度爲64x64x16,單個1x1的卷積過濾器含有多少個參數(包括偏差)?

A.2

B.17

C.4097

D.1

第 118 題

假設你有一個維度爲 nHnWncn_H*n_W*n_c 的卷積輸入,下面哪個說法是正確的(假設卷積層爲1x1,步長爲1,padding爲0)?

A.你能夠使用1x1的卷積層來減少 ncn_c ,但是不能減少 nH,nWn_H,n_W
B.你可以使用池化層減少 nH,nWn_H,n_W ,但是不能減少 ncn_c
C.你可以使用一個1x1的卷積層來減少 nH,nWn_H,n_Wncn_c
D.你可以使用池化層減少 nH,nWn_H,n_Wncn_c

第 119 題

關於 Inception 網絡下面哪些說法是正確的

A.Inception 網絡包含了各種網絡的體系結構(類似於隨機刪除節點模式,它會在每一步中隨機選擇網絡的結構),因此它具有隨機刪除節點的正則化效應。

B.Inception 塊通常使用1x1的卷積來減少輸入卷積的大小,然後再使用3x3和5x5的卷積。

C.一個inception 塊允許網絡使用1x1, 3x3, 5x5 的和卷積個池化層的組合。

D.通過疊加inception塊的方式讓inception網絡更深,不會損害訓練集的表現。

第 120 題

下面哪些是使用卷積網絡的開源實現(包含模型/權值)的常見原因?

A.爲一個計算機視覺任務訓練的模型通常可以用來數據擴充,即使對於不同的計算機視覺任務也是如此。

B.爲一個計算機視覺任務訓練的參數通常對其他計算機視覺任務的預訓練是有用的。

C.使用獲得計算機視覺競賽獎項的相同的技術,廣泛應用於實際部署。

D.使用開源實現可以很簡單的來實現複雜的卷積結構。

111-120題 答案

111.D 112.AC 113.B 114.B 115.B 116.BD 117.B 118.AB 119.BC 120.BCD

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章