圖像分類 AlexNet GoogleNet VGG ResNet學習

Lenet,1986年
Alexnet,2012年
GoogleNet,2014年
VGG,2014年
Deep Residual Learning,2015年
 

AlexNet更強調了全連接層的作用,它用了兩個全連接層,那麼爲了減少權重的數目,才引出了dropout這個概念

輸入尺寸:227*227像素(因爲競賽的需要)
卷積層:好多(因爲輸入尺寸的需要)
降採樣層:好多(因爲輸入尺寸的需要)
標準化層:這個反正就是一個公式
輸出:1000個類別(因爲競賽的需要)

AlexNet的結構圖,是由八個模塊組成的。
https://www.jianshu.com/p/58168fec534d

googlenet,14年比賽冠軍的model,這個model證明了一件事:用更多的卷積,更深的層次可以得到更好的結構。

VGG有很多個版本,也算是比較穩定和經典的model。它的特點也是連續conv多,計算量巨大(比前面幾個都大很多)。
http://www.sohu.com/a/134347664_642762
 

VGGNet  2014年
牛津大學計算機視覺組(Visual Geometry Group)
通過反覆堆疊3*3的小型卷積核和2*2的最大池化層,VGGNet成功地構築了16~19層深的卷積神經網絡。
每次池化後剛好縮小一半,信道數目不斷增加一倍。


ResNet殘差網絡
https://blog.csdn.net/linolzhang/article/details/71380668
 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章