論文閱讀練習(7)

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》(ICML2019)

重新考慮卷積網絡的模型尺度

作者:Mingxing Tan   Quoc V. Le(谷歌大腦)

摘要:

卷積網絡通常在固定預算資源上開發,如果有更多資源可依賴就可以獲得更好的精確度。此篇文章中系統研究了模型尺度並且確認平衡好網絡深度、寬度和分辨率可以得到更好的性能。基於這個觀察,提出一個新的縮放方法,此方法使用簡單高效的複合係數均勻的縮放深度、寬度、分辨率的所有尺寸。證明了這種方法在擴展MobileNets和ResNet方面的有效性。

進一步,使用神經網絡結構搜索設計一個新的baseline network,並通過縮放得到一組模型,稱爲EfficientNets,這些模型比之前的ConvNets得到了更好的精確度和有效性。特殊的,EfficientNet-B7在ImageNet上精確度top-1上達到84.4%,top-5達到97.1%,推斷時比最好現存的ConvNet更小(8.4xsmaller)、更快(6.1xfaster)。EfficientNets遷移效果好,在CIFAR-100上精確度爲91.7%,Flowers爲98.8%,和其他3個遷移數據集,參數量少了一個數量級。

source code:https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet.

問題:

提高卷積網絡的性能

方法:

考慮網絡模型尺度的影響,提出一個新的縮放方法,此方法使用簡單高效的複合係數均勻的縮放深度、寬度、分辨率的所有尺寸。

效果:

EfficientNet-B7在ImageNet上精確度top-1上達到84.4%,top-5達到97.1%;

推斷時比最好現存的ConvNet更小(8.4xsmaller)、更快(6.1xfaster);

EfficientNets遷移效果好,在CIFAR-100上精確度爲91.7%,Flowers爲98.8%,和其他3個遷移數據集,參數量少了一個數量級。

內容:

很好平衡網絡的深度、寬度、分辨率可以提高網絡性能,並且可以通過一個常數比完成簡單縮放實現平衡,基於觀察提出簡單高效的複合縮放方法。此方法用一組固定的縮放係數統一地縮放網絡寬度,深度和分辨率。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章