神經網絡基礎模型VGG、GoogLeNet(inception)、ResNet、dense Net、SqueezeNet、Xception的網絡結構

?(1409.CVPR)VGG論文原文

以下:GoogLeNet: inception V1、V2、V3、V4 、Inception-ResNet V1、V2:【詳解參考

?(1409.CVPR) inception V1:Going Deeper with Convolutions論文原文

在這裏插入圖片描述

上圖所示:GoogLeNet9 個線性堆疊的 Inception 模塊。它有 22 層(包括池化層的話是 27 層)。該模型在最後一個 inception 模塊處使用全局平均池化。引入了兩個輔助分類器(上圖紫色框)。它們對其中兩個 Inception 模塊的輸出執行 softmax 操作,然後在同樣的標籤上計算輔助損失。總損失即輔助損失和真實損失的加權和。該論文中對每個輔助損失使用的權重值是 0.3。(只在訓練過程中用)

?(1512.CVPR) inception V2、V3:Rethinking the Inception Architecture for Computer Vision論文原文

inception V2

在這裏插入圖片描述

inception V3

  • Inception Net v3 整合了前面 Inception v2 中提到的所有升級,還使用了:
  • RMSProp 優化器;
  • Factorized 7x7 卷積;
  • 輔助分類器使用了 BatchNorm;
  • 標籤平滑(添加到損失公式的一種正則化項,旨在阻止網絡對某一類別過分自信,即阻止過擬合)。

?(1602.CVPR) inception V4、Inception-ResNet:Inception-ResNet and the Impact of Residual Connections on Learning論文原文

Inception V4和Inception-ResNet總體框架

  • steminceptionreduction block三個模塊堆積木一樣組合而成。

Inception v4 和 Inception-ResNet 的網絡完整架構如下所示:

在這裏插入圖片描述
上圖:左部是 Inception v4 的架構。右部是 Inception-ResNet 的架構

一、stem

在這裏插入圖片描述
上圖:圖左部是 Inception-ResNet v1 的 stem。圖右部是 Inception v4 和 Inception-ResNet v2 的 stem

1.1、inception V4的Inception模塊,稱爲 A、B 和 C

在這裏插入圖片描述
上圖:(左起)在 Inception v4 中使用的 Inception 模塊 A、B、C

1.2、inception V4的reduction block模塊,稱爲 A、B

在這裏插入圖片描述
上圖:縮減塊 A(從 35x35 到 17x17 的尺寸縮減)和縮減塊 B(從 17x17 到 8x8 的尺寸縮減)。

Inception-ResNet V1、V2:

2.1、Inception-ResNet V1的Inception模塊,稱爲 A、B 、C

在這裏插入圖片描述
上圖:(左起)Inception ResNet 中的 Inception 模塊 A、B、C。

1.2、Inception ResNet的reduction block模塊,稱爲 A、B 。

在這裏插入圖片描述

?(1512.CVPR) ResNet:Deep Residual Learning for Image Recognition論文原文

?(16.02.CVPR) SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size論文原文

在這裏插入圖片描述
在這裏插入圖片描述

?(16.08.CVPR) DenseNet: Densely Connected Convolutional Networks論文原文

?(16.10.CVPR) Xception: Deep Learning with Depthwise Separable Convolutions論文原文

Xception 的框架結構基於 ResNet,但是將其中的卷積層換成了Separable Convolution
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章