paper:Xception: Deep Learning with Depthwise Separable Convolutions
URL:https://arxiv.org/abs/1610.02357
2017年的經典paper,作者在Inception的基礎上引入DW卷積提出了Xception。
由於引入DW卷積,但作者的目的不是爲了減少flops。所以增加了網絡的寬度,所以可以認爲是一個flop和width的balance。
Xception模塊
一般來說,卷積核需要同時學習空間上的相關性和通道間的相關性。InceptionV3,將空間和通道的信息顯示的分開處理。Inception模塊首先使用1x1的卷積核將,這是在學習通道間的相關性;然後通過常規的3x3或5x5的卷積,同時學習空間上的相關性和通道間的相關性。
Inception如下圖所示
不考慮5x5和平均池化,可以有如下的簡化的inception
將所有1x1的卷積進行拼接,並且3x3中,將通道分離處理
作者又繼續思考,如果有很多個呢。繼而提出了extreme的inception模塊,這就是Xception的基本模塊了
paper借鑑了DW的思想,和DW的區別爲:
- 1x1卷積的先後順序不同。其實這塊mbnv2也先做了一個1x1升維
- ReLU non-linearity 應用的不同
Architecture
Xception的結構圖
Experiment
ImageNet上的結果
JFT上實驗結果
和Inception相比
參數量變少了,但是速度沒有慢很多。