拼圖預訓練(Jigsaw pre-training)

用於目標檢測的簡單粗暴的預訓練加載方法

實驗表明,與ImageNet 預訓練相比,使用拼圖預訓練的模型能夠實現同等甚至更好的檢測性能。

作者團隊:悉尼大學(歐陽萬里等)&中科院&商湯

PS:其實這個方法和4月剛開源的YOLOv4裏的Mosaic數據增廣有點類似

在本文中,我們提出了一種用於目標檢測的通用且有效的預訓練範式,即拼圖預訓練(Jigsaw pre-training)。與廣泛採用的ImageNet預訓練相比,拼圖預訓練僅需要目標檢測數據集,而僅佔用1/4的計算資源。爲了構建這種有效的範式,我們通過從原始圖像中仔細提取有用的樣本,以拼圖的方式組裝樣本作爲輸入,並使用支持ERF的密集分類策略進行模型預訓練來減少潛在的冗餘。這些設計不僅包括改善空間利用率的新輸入模式,而且還包括擴展預訓練模型的有效接受範圍的新穎學習目標。通過在MS-COCO數據集上進行的大量實驗驗證了拼圖預訓練的效率和優越性,結果表明,與ImageNet 預訓練相比,使用拼圖預訓練的模型能夠實現同等甚至更好的檢測性能。 《Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection》

論文下載鏈接:https://arxiv.org/abs/2004.12178

 關鍵詞:#論文速遞# #目標檢測# #數據增廣#

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章