圖像卷積網絡裏的概念彙總(持續更新)

https://www.baidu.com/s?wd=10%E5%A4%A7CNN%E7%BD%91%E7%BB%9C%E6%9E%B6%E6%9E%84%E4%BA%A7%E7%94%9F%E5%8E%86%E5%8F%B2%E9%A1%BA%E5%BA%8F%E5%9B%BE&ie=UTF-8

CNN經典結構(Lenet,AlexNet,VGG,GoogleNet,ResNet, Resnext, Densenet, Senet, BAM,mobilenet)及其pytorch實現_人工智能_xu_fu_yong的專欄-CSDN博客
https://blog.csdn.net/xu_fu_yong/article/details/92848502?depth_1-

(22條消息)深度學習----CNN幾種常見網絡結構及區別_網絡_櫻花落瓣-CSDN博客
https://blog.csdn.net/Sakura55/article/details/81559881

我將從Lenet 開始,以時間線爲維度,從各大經典網絡裏抽取 每一個網絡 提出的各種經典的網絡結構,方法做個彙總,講解,也當作一個自己的知識梳理。

 

  1. LeNet-5  
  2. AlexNet
  3. VGG-16
  4. Inception-v1
  5. Inception-v3
  6. ResNet-50
  7. Xception
  8. Inception-v4
  9. Inception-ResNets
  10. ResNeXt-50

 

1、LeNet-5  

 

2、AlexNet

 

3、VGG-16(19)

特點:網絡的層次都更深了。但是參數是Alexnet的三倍

NIN層  和  全局平均池化層 (Global Average Pooling)GAP

 

GAP 另外一個很好解釋的圖

GAP能減少參數量的解釋圖,最右邊那個應該是 4*4 = 16.

 

4、GoogleNet:2014年的ILSVRC的冠軍模型

https://zhuanlan.zhihu.com/p/104671625

特點:網絡的層次都更深了。

雖然深度有22層,但是參數卻是Alexnet的1/12。性能更加優越,碾壓VGG。

Inception-v1

特色: 引入了多尺度的方法,增加多尺度對於輸入特徵圖信息的提取,同時參數也維持腳底水平。

設計一個稀疏網絡結構,但是怎麼產生稠密的數據呢。就用這個!CNN中常見的三種卷積核,和池化操作堆疊在一起,一方面增加了網絡的寬度,另一方面也加強了網絡對尺度的是影響。但是這個原始的版本思路是好的,但是計算量太大了,因此作者對3x3和5x5的卷積層之前用了1x1的縮小圖片的channel數量,因此V1是這個樣子:

 

 

Inception-v3

5、ResNet-50

Xception

Inception-v4

Inception-ResNets

ResNeXt-50

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章