?(1409.CVPR)VGG【論文原文】
以下:GoogLeNet: inception V1、V2、V3、V4 、Inception-ResNet V1、V2:【詳解參考】
?(1409.CVPR) inception V1:Going Deeper with Convolutions【 論文原文】
上圖所示:GoogLeNet有 9 個線性堆疊的 Inception 模塊。它有 22 層(包括池化層的話是 27 層)。該模型在最後一個 inception 模塊處使用全局平均池化。引入了兩個輔助分類器(上圖紫色框)。它們對其中兩個 Inception 模塊的輸出執行 softmax 操作,然後在同樣的標籤上計算輔助損失。總損失即輔助損失和真實損失的加權和。該論文中對每個輔助損失使用的權重值是 0.3。(只在訓練過程中用)
?(1512.CVPR) inception V2、V3:Rethinking the Inception Architecture for Computer Vision【 論文原文】
inception V2
inception V3
- Inception Net v3 整合了前面 Inception v2 中提到的所有升級,還使用了:
- RMSProp 優化器;
- Factorized 7x7 卷積;
- 輔助分類器使用了 BatchNorm;
- 標籤平滑(添加到損失公式的一種正則化項,旨在阻止網絡對某一類別過分自信,即阻止過擬合)。
?(1602.CVPR) inception V4、Inception-ResNet:Inception-ResNet and the Impact of Residual Connections on Learning【 論文原文】
Inception V4和Inception-ResNet總體框架:
- 由stem、inception、reduction block三個模塊堆積木一樣組合而成。
Inception v4 和 Inception-ResNet 的網絡完整架構如下所示:
上圖:左部是 Inception v4 的架構。右部是 Inception-ResNet 的架構
一、stem:
上圖:圖左部是 Inception-ResNet v1 的 stem。圖右部是 Inception v4 和 Inception-ResNet v2 的 stem
1.1、inception V4的Inception模塊,稱爲 A、B 和 C
上圖:(左起)在 Inception v4 中使用的 Inception 模塊 A、B、C
1.2、inception V4的reduction block模塊,稱爲 A、B
上圖:縮減塊 A(從 35x35 到 17x17 的尺寸縮減)和縮減塊 B(從 17x17 到 8x8 的尺寸縮減)。
Inception-ResNet V1、V2:
2.1、Inception-ResNet V1的Inception模塊,稱爲 A、B 、C
上圖:(左起)Inception ResNet 中的 Inception 模塊 A、B、C。
1.2、Inception ResNet的reduction block模塊,稱爲 A、B 。
?(1512.CVPR) ResNet:Deep Residual Learning for Image Recognition【 論文原文】
?(16.02.CVPR) SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size【 論文原文】