Xception,Inception-ResNet

一,Xception

Xception是在InceptionV3基礎上修改的,主要引入了深度可分離卷積,將空間和通道的操作進行解耦合。

與“extreme” Inception兩個區別:

1,1×1卷積的順序,Xcption用於3×3之後,而Inception用於之前

2,Xception在1×1和3×3之後都沒用relu,而Inception都用了。

3*3做空間相關性,1×1做通道相關性。

       

用Relu會損失一部分信息。

二,Inception-ResNet

證明了Residual learning並非深度網絡走向更深的必需條件,其只是可以使得深度網絡的訓練速度加快而已。爲了表明這一點,他們更是造出了更爲複雜、精巧的Inception v4網絡,在不使用residual learning的情況下也達到了與Inception-Resnet v2近似的精度。

如果通道數超過1000,那麼Inception-resnet等網絡都會開始變得不穩定,並且過早的就“死掉了”,即在迭代幾萬次之後,平均池化的前面一層就會生成很多的0值。作者們通過調低學習率,增加BN都沒有任何改善。實驗發現如果對inception-resnet網絡中的residual模塊的輸出進行scaling(如乘以0.1-0.3),那麼可以讓它的整個訓練過程更加地穩定。如下圖爲scaling的具體做法示意。

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章