記VGG16

1.

上面這張圖解釋了我很久的困惑,就是下面這個圖和最早學習深度學習是看到的那些結點結構的圖,比如最早輸入224*224*3的照片,接下來經過64個卷積核(卷積核爲3個3*3的 )的兩次卷積,,這樣明顯就是向前慢慢擴展了。

那些結點連線是最早便於介紹神經網絡是一維的時候就很好理解了。但是現在這樣寫法,因爲卷積其實也就是在進行權重加和,一個3*3的卷積核加到圖片上去不就是相當於那對應位置相乘再進行求和嘛。

第一層到第二層的權重個數就是((3*3*3)* 64)了呀。

 

2.

最後是經歷了兩個全連接層的。

全連接層的每個結點都與上一層所有的結點相連接,用於來將前面提取到的特徵綜合起來,所以全連接層的參數也就是最多的。

我們可以看到第一個全連接層有4096個節點,上一層pooling之後是7*7*512=25088個節點,所以在這兩層之間將會有25088*4096個參數權重(這個還不算bias值,bias還有4096個呢)。

--------------------------------------------------------------------------------------------------------------

之後又是4096*4096(1*1的卷積核)

--------------------------------------------------------------------------------------------------------------

又是4096*1000(也是1*1的卷積核)

3.

卷積和全連接是有區別的,可以認爲卷積就是稀疏連接。

  1. 提升了計算的效率,並且減少了內存的消耗
  2. 不會限制我們的的輸入圖片的大小。

4.

有三個全連接層(看到網上一個解釋)

一個全連接層中的一層相當於一個多項式,我們使用許多的神經元去擬合這裏的數據分佈,如果只有一層那就很難解決非線性的問題了。

CNN網絡中前幾層的卷積層參數量佔比小,計算量佔比大;而後面的全連接層正好相反,大部分CNN網絡都具有這個特點。因此我們在進行計算加速優化時,重點放在卷積層;進行參數優化、權值裁剪時,重點放在全連接層。

5.

實現代碼(記錄兩個鏈接吧)

代碼1(連貫)

代碼2(分步介紹)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章