【論文筆記】【cnn】ResNeXt詳解

ResNeXt解決的問題:

傳統的要提高模型的準確率,都是加深或加寬網絡,但是隨着超參數數量的增加(channels,filter size等),網絡設計的難度和計算開銷也會增加。本文提出的ResNeXt結構可以在不增加參數複雜度的情況下提高準確率,同時還減少了超參數的數量。

ResNeXt乍一看很像inception,作者也在論文中提到了vgg相關。VGG和resnet主要採用堆疊網絡來實現,inception系列的策略是,split-transform-merge,但是inception系列網絡有個問題:網絡的超參數設定的針對性強,當應用在別的數據集上時需要修改許多參數,因此可擴展性一般。

ResNeXt同時採用了VGG的堆疊思想和inception的split-transform-merge思想,但是可擴展性強了,可以認爲是在增加準確率的同時基本不改變或降低模型的複雜度。論文中提到個cardinality,指的是右邊圖裏,支路(sub-branch)的數量,相比於Inception,這裏的每個支路都是一樣的,這樣可以減輕設計負擔(其實應該也可以用NAS搜,搜索空間應該會比搜個Darts的cell小很多)。右邊是cardinality=32。文章說增加cardinality比增加深度和寬度更有效。

論文中共提出了三種結構:

最後模型也是由這些結構堆疊起來的:

ResNeXt爲什麼效果比Resnet好:

可以看到,ResNeXt相比Resnet,只是在每個block中添加的多個sub-branch。

1. 相當於引入組卷積。不同的組之間是不同的subspace,可以學到更加diverse的表示。

2. 分組操作可能會起到正則化的作用。增加一個cardinality維度之後,會使得卷積核學到的關係更加稀疏。

原諒我還是覺得是暴力堆疊再解釋,原諒我的境界不夠。。。

參考:https://blog.csdn.net/hejin_some/article/details/80743818

https://www.zhihu.com/question/323424817?sort=created

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章