CNN經典結構(Lenet,AlexNet,VGG,GoogleNet,ResNet, Resnext, Densenet, Senet, BAM,mobilenet)及其pytorch實現_人工智能_xu_fu_yong的專欄-CSDN博客
https://blog.csdn.net/xu_fu_yong/article/details/92848502?depth_1-
(22條消息)深度學習----CNN幾種常見網絡結構及區別_網絡_櫻花落瓣-CSDN博客
https://blog.csdn.net/Sakura55/article/details/81559881
我將從Lenet 開始,以時間線爲維度,從各大經典網絡裏抽取 每一個網絡 提出的各種經典的網絡結構,方法做個彙總,講解,也當作一個自己的知識梳理。
- LeNet-5
- AlexNet
- VGG-16
- Inception-v1
- Inception-v3
- ResNet-50
- Xception
- Inception-v4
- Inception-ResNets
- ResNeXt-50
1、LeNet-5
2、AlexNet
3、VGG-16(19)
特點:網絡的層次都更深了。但是參數是Alexnet的三倍
NIN層 和 全局平均池化層 (Global Average Pooling)GAP
GAP 另外一個很好解釋的圖
GAP能減少參數量的解釋圖,最右邊那個應該是 4*4 = 16.
4、GoogleNet:2014年的ILSVRC的冠軍模型
https://zhuanlan.zhihu.com/p/104671625
特點:網絡的層次都更深了。
雖然深度有22層,但是參數卻是Alexnet的1/12。性能更加優越,碾壓VGG。
Inception-v1
特色: 引入了多尺度的方法,增加多尺度對於輸入特徵圖信息的提取,同時參數也維持腳底水平。
設計一個稀疏網絡結構,但是怎麼產生稠密的數據呢。就用這個!CNN中常見的三種卷積核,和池化操作堆疊在一起,一方面增加了網絡的寬度,另一方面也加強了網絡對尺度的是影響。但是這個原始的版本思路是好的,但是計算量太大了,因此作者對3x3和5x5的卷積層之前用了1x1的縮小圖片的channel數量,因此V1是這個樣子: