[深度學習]經典網絡結構(四)——NIN

#本文意爲總結自己學習的網絡模型,以留作筆記使用,如有錯誤,歡迎在下方評論

一、簡介

NIN改進了傳統的CNN,採用了少量參數就取得了超過AlexNet的性能,AlexNet網絡參數大小是230M,NIN只需要29M

二、網絡結構

NIN文章使用的網絡架構如圖(總計4層):3mlpconv + 1global_average_pooling

改進:

1、傳統CNN使用的通用線性模型(generalized linear model ,GLM) [藍框部分] 被替換爲 多層感知機(MLP,多層全連接層和非線性函數的組合) [綠框部分] :

           
以前的卷積層,局部感受野運算僅僅是是一個單層的神經網絡(線性濾波器對圖像進行內積運算,在跟着一個非線性激活函數),mlpconv層可以看成局部感受野上進行conv運算之前,還進行mlp運算,而MLP網絡中,常見的使用三層的全連接結構,等效於普通卷積後在連接1:1的卷積和Relu函數

優點:1. 提供了網絡層間映射的一種新可能;2. 增加了網絡卷積層的非線性能力。

2、先前CNN中的 全連接層 被替換爲了 全局池化層 (global average pooling)

傳統的卷積網絡用卷積提取特徵,然後得到的特徵再用FC+softmax邏輯迴歸分類層進行分類。
使用全局平均池化層,每個特徵圖作爲一個輸出。這樣參數量大大減小,並且每一個特徵圖相當於一個輸出特徵(表示輸出類的特徵)。

參考:NIN 論文筆記

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章