計算機視覺面試考點(9)全連接層

計算機視覺工程師在面試過程中主要考察三個內容:圖像處理、機器學習、深度學習。然而,各類資料紛繁複雜,或是簡單的知識點羅列,或是有着詳細數學推導令人望而生畏的大部頭。爲了督促自己學習,也爲了方便後人,決心將常考必會的知識點以通俗易懂的方式設立專欄進行講解,努力做到長期更新。此專欄不求甚解,只追求應付一般面試。希望該專欄羽翼漸豐之日,可以爲大家免去尋找資料的勞累。每篇介紹一個知識點,沒有先後順序。想了解什麼知識點可以私信或者評論,如果重要而且恰巧我也能學會,會盡快更新。最後,每一個知識點我會參考很多資料。考慮到簡潔性,就不引用了。如有冒犯之處,聯繫我進行刪除或者補加引用。在此先提前致歉了!

全連接層大家都比較瞭解
這篇博客以問答形式作爲查缺補漏和進一步理解

全連接層的位置?
神經網絡的最後幾層
全連接層的輸出會使用激活函數進行激活
通常會有多個全連接層相連

全連接層的作用?
轉換特徵維度
如2048個神經元的全連接層與1000個神經元的全連接層相連
就將2048維的特徵轉換爲了1000維的特徵

在CNN中將特徵圖轉換爲向量

在CNN中將特徵圖位置關係打破
不受圖像空間位置影響,對空間變化具有魯棒性
不過這也導致無法進行圖像分割

多個全連接層相連,實現了特徵的組合
換句話說,下一個全連接層將上一個全連接層的輸出(特徵)進行組合
形成了更具有表徵意義的特徵
這也是進一步增強非線性、提升模型解決複雜問題能力的體現

實現分類
比如1000分類
全連接層將特徵轉換爲1000x1的向量
1000x1的向量經過softmax就可以輸出每一個類別的概率

全連接層的計算?
以下分析暫時不考慮激活函數
3維全連接層x–>2維全連接層y:
y1=w11*x1+w21*x2+w31*x3+b1
y2=w12*x1+w22*x2+w32*x3+b2

卷積層–>全連接層:
在這裏插入圖片描述

全連接層的參數?

寬度:每個全連接層的神經元個數
深度:全連接層的層數

兩者變大
提升模型複雜度,增強非線性
訓練成本增加,容易過擬合

兩者變小
模型能力下降

全連接層參數量巨大
神經網絡的大部分訓練參數都是全連接層的
結合這個,想象一下4096維到1000維的全連接層的參數量:
3維全連接層x–>2維全連接層y:
y1=w11*x1+w21*x2+w31*x3+b1
y2=w12*x1+w22*x2+w32*x3+b2


歡迎討論 歡迎吐槽

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章