tensorflow 學習(三 ) - 常用的CNN模型

1. AlexNet模型

    2012年,Alex等人在多倫多大學Geoff Hinton的實驗室設計出了一個深層的卷積神經網絡AlexNet,原始的AlexNet v1主要由5個卷積層和3個全連接層組成, AlexNet v2去掉了localNorm層,並在最後3層中使用了卷積層代替全連接層,構造了全卷積結構。

2. VGG模型

    2014年,牛津大學的研究人員提出了VGG模型,旨在提供比AlexNet更深的模型以提升圖像分類精度,VGG模型大量採用了3*3卷積核,常用的是VGG16模型和VGG19模型,由於最後採用了3個全連接層來融合多通道分類圖,使得模型參數量增加,模型變大,規模達到500M以上。

 

3.Inception 模型

    爲了更好的融合多尺度模型,同時避免採用過多的全連接層,Google公司的研究團隊提出了Inception模型及其變種。
Inception v13*35*5的卷積核前採用1*1的卷積核降維以減少計算量。


Inception v2 5*5的卷積核前變成23*3的卷積核,降低了計算量。

 

 

4.Resnet 模型

2015年,微軟亞洲研究院的何愷明等人提出了Resnet。Resnet model用於學習輸入和輸出之間的殘差。每個Resnet modele的輸出數據都由輸入數據和殘差共同構成。由於model中的輸入和輸出之間出現了直連通道,梯度傳播更加容易,模型可以達到的深度遠超Alexnet,VGG和Inception模型。

常用的幾種CNN模型總結:

網絡名稱

主要設計思想

計算

複雜度

模型大小(MB

AlexNet

1)首次採用多層深度CNN模型做圖像識別;

2)採用 Relu激活函數避免梯度消失;

3)提出Dropout防止模型過擬合

240

VGG

爲了降低計算量,全部採用3*3的卷積核,通過連續的3*3卷積模擬5*5和7*7等更大的卷積核

550

Inception

爲了融合多種感受野大小下的特徵圖,提出了Inception模塊,該模塊包含了1*1,3*3,5*5的卷積層,在3*3和5*5的卷積核前採用1*1的卷積核降低特徵通道數,減少計算量

50~163

ResNet

提出了Resnet model,用於學習輸入和輸出之間的殘差,使得深層網絡更容易訓練。

較高

90~214

Inception- ResNet

將殘差模塊的設計思想融入到Inception架構中

較高

200

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章