用於目標檢測的簡單粗暴的預訓練加載方法
實驗表明,與ImageNet 預訓練相比,使用拼圖預訓練的模型能夠實現同等甚至更好的檢測性能。
作者團隊:悉尼大學(歐陽萬里等)&中科院&商湯
PS:其實這個方法和4月剛開源的YOLOv4裏的Mosaic數據增廣有點類似
在本文中,我們提出了一種用於目標檢測的通用且有效的預訓練範式,即拼圖預訓練(Jigsaw pre-training)。與廣泛採用的ImageNet預訓練相比,拼圖預訓練僅需要目標檢測數據集,而僅佔用1/4的計算資源。爲了構建這種有效的範式,我們通過從原始圖像中仔細提取有用的樣本,以拼圖的方式組裝樣本作爲輸入,並使用支持ERF的密集分類策略進行模型預訓練來減少潛在的冗餘。這些設計不僅包括改善空間利用率的新輸入模式,而且還包括擴展預訓練模型的有效接受範圍的新穎學習目標。通過在MS-COCO數據集上進行的大量實驗驗證了拼圖預訓練的效率和優越性,結果表明,與ImageNet 預訓練相比,使用拼圖預訓練的模型能夠實現同等甚至更好的檢測性能。 《Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection》
論文下載鏈接:https://arxiv.org/abs/2004.12178
關鍵詞:#論文速遞# #目標檢測# #數據增廣#