[深度學習]經典網絡結構(二)——Alexnet(2012)

#本文意爲總結自己學習的網絡模型,以留作筆記使用,如有錯誤,歡迎在下方評論

一、簡介

AlexNet可以說是現代深度CNN的奠基之作,它可以算是LeNet5的一種更深更寬的版本。

二、網絡結構

AlexNet網絡的輸入尺寸爲224*224*3,不計算輸入層,池化層和LRN層,共有8層(5conv+3fc)

三、網絡結構詳解
([1conv+1LRN+1MP]*2 + 2conv + [1conv+1MP]*1 + 2Fc + 1output  )

輸入圖像規格爲224*224*3,實際上會經過預處理變爲227*227*3

網絡特點:
(1)數據增強(平移、仿射、光照顏色變換),隨機地從256*256的原始圖像中截取224*224大小的區域(以及水平翻轉的鏡像)
(2)將AlexNet分佈在兩個GPU上,在每個GPU的顯存中儲存一半的神經元的參數
(3)RELU激活函數,ReLU(Wx+b) = max(Wx+b,0)
(4)AlexNet全部使用最大池化,避免平均池化的模糊化效果。
(5)標準化[LRN]:對局部神經元的活動創建競爭機制,使得其中響應比較大的值變得相對更大,並抑制其他反饋較小的神經元,增強了模型的泛化能力
(6)【Dropout】AlexNet在後面的三個全連接層中使用Dropout,隨機忽略一部分神經元,以避免模型過擬合

四、使用注意

論文中指出,如果去掉任何一個卷積層,都會使網絡的分類性能大幅下降

參考:
  卷積神經網絡常見架構AlexNet、ZFNet、VGGNet、GoogleNet和ResNet模型
【深度學習】AlexNet原理解析及TensorFlow實現

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章