用于目标检测的简单粗暴的预训练加载方法
实验表明,与ImageNet 预训练相比,使用拼图预训练的模型能够实现同等甚至更好的检测性能。
作者团队:悉尼大学(欧阳万里等)&中科院&商汤
PS:其实这个方法和4月刚开源的YOLOv4里的Mosaic数据增广有点类似
在本文中,我们提出了一种用于目标检测的通用且有效的预训练范式,即拼图预训练(Jigsaw pre-training)。与广泛采用的ImageNet预训练相比,拼图预训练仅需要目标检测数据集,而仅占用1/4的计算资源。为了构建这种有效的范式,我们通过从原始图像中仔细提取有用的样本,以拼图的方式组装样本作为输入,并使用支持ERF的密集分类策略进行模型预训练来减少潜在的冗余。这些设计不仅包括改善空间利用率的新输入模式,而且还包括扩展预训练模型的有效接受范围的新颖学习目标。通过在MS-COCO数据集上进行的大量实验验证了拼图预训练的效率和优越性,结果表明,与ImageNet 预训练相比,使用拼图预训练的模型能够实现同等甚至更好的检测性能。 《Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection》
论文下载链接:https://arxiv.org/abs/2004.12178
关键词:#论文速递# #目标检测# #数据增广#