拼图预训练(Jigsaw pre-training)

用于目标检测的简单粗暴的预训练加载方法

实验表明,与ImageNet 预训练相比,使用拼图预训练的模型能够实现同等甚至更好的检测性能。

作者团队:悉尼大学(欧阳万里等)&中科院&商汤

PS:其实这个方法和4月刚开源的YOLOv4里的Mosaic数据增广有点类似

在本文中,我们提出了一种用于目标检测的通用且有效的预训练范式,即拼图预训练(Jigsaw pre-training)。与广泛采用的ImageNet预训练相比,拼图预训练仅需要目标检测数据集,而仅占用1/4的计算资源。为了构建这种有效的范式,我们通过从原始图像中仔细提取有用的样本,以拼图的方式组装样本作为输入,并使用支持ERF的密集分类策略进行模型预训练来减少潜在的冗余。这些设计不仅包括改善空间利用率的新输入模式,而且还包括扩展预训练模型的有效接受范围的新颖学习目标。通过在MS-COCO数据集上进行的大量实验验证了拼图预训练的效率和优越性,结果表明,与ImageNet 预训练相比,使用拼图预训练的模型能够实现同等甚至更好的检测性能。 《Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection》

论文下载链接:https://arxiv.org/abs/2004.12178

 关键词:#论文速递# #目标检测# #数据增广#

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章