[深度學習]經典網絡結構(三)——ZFNet(2013)

#本文意爲總結自己學習的網絡模型,以留作筆記使用,如有錯誤,歡迎在下方評論

一、簡介

ZFNet的網絡結構,是在AlexNet上進行了微調,其主要貢獻在於通過使用可視化技術揭示了神經網絡各層到底在幹什麼,起到了什麼作用

二、網絡結構

在AlexNe上改進:
(1)AlexNet是用兩塊GPU的稀疏連接結構,而ZFNet只用了一塊GPU的稠密鏈接結構
(2)改變了AleNet的第一層,將過濾器的大小由11*11變成7*7,並且將步長由4變成2,使用更小的卷積核和步長,保留更多特徵
(3)將3,4,5conv層變成了全連接層
(4)使用Relu函數和交叉熵損失函數

三、貢獻

反捲積的具體過程:

Unpooling:在卷積神經網絡中,最大池化是不可逆的,作者採用近似的實現,使用一組轉換變量switch 記錄每個池化區域最大值的位置。在反池化的時候,將最大值返回到其所應該在的位置,其他位置用0補充。
Rectification:反捲積的時候也同樣利用ReLU激活函數
Filtering:解卷積網絡中利用卷積網絡中相同的filter的轉置應用到Rectified Unpooled Maps。也就是對filter進行水平方向和垂直方向的翻轉。

一些詳細的概念:https://blog.csdn.net/chenyuping333/article/details/82178769
論文總結:https://blog.csdn.net/cdknight_happy/article/details/78855172

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章