1. AlexNet模型
2012年,Alex等人在多倫多大學Geoff Hinton的實驗室設計出了一個深層的卷積神經網絡AlexNet,原始的AlexNet v1主要由5個卷積層和3個全連接層組成, AlexNet v2去掉了localNorm層,並在最後3層中使用了卷積層代替全連接層,構造了全卷積結構。
2. VGG模型
2014年,牛津大學的研究人員提出了VGG模型,旨在提供比AlexNet更深的模型以提升圖像分類精度,VGG模型大量採用了3*3卷積核,常用的是VGG16模型和VGG19模型,由於最後採用了3個全連接層來融合多通道分類圖,使得模型參數量增加,模型變大,規模達到500M以上。
3.Inception 模型
爲了更好的融合多尺度模型,同時避免採用過多的全連接層,Google公司的研究團隊提出了Inception模型及其變種。
Inception v1在3*3和5*5的卷積核前採用1*1的卷積核降維以減少計算量。
Inception v2將 5*5的卷積核前變成2個3*3的卷積核,降低了計算量。
4.Resnet 模型
2015年,微軟亞洲研究院的何愷明等人提出了Resnet。Resnet model用於學習輸入和輸出之間的殘差。每個Resnet modele的輸出數據都由輸入數據和殘差共同構成。由於model中的輸入和輸出之間出現了直連通道,梯度傳播更加容易,模型可以達到的深度遠超Alexnet,VGG和Inception模型。
常用的幾種CNN模型總結:
網絡名稱 |
主要設計思想 |
計算 複雜度 |
模型大小(MB) |
AlexNet |
1)首次採用多層深度CNN模型做圖像識別; 2)採用 Relu激活函數避免梯度消失; 3)提出Dropout防止模型過擬合 |
低 |
240 |
VGG |
爲了降低計算量,全部採用3*3的卷積核,通過連續的3*3卷積模擬5*5和7*7等更大的卷積核 |
高 |
550 |
Inception |
爲了融合多種感受野大小下的特徵圖,提出了Inception模塊,該模塊包含了1*1,3*3,5*5的卷積層,在3*3和5*5的卷積核前採用1*1的卷積核降低特徵通道數,減少計算量 |
中 |
50~163 |
ResNet |
提出了Resnet model,用於學習輸入和輸出之間的殘差,使得深層網絡更容易訓練。 |
較高 |
90~214 |
Inception- ResNet |
將殘差模塊的設計思想融入到Inception架構中 |
較高 |
200 |