【论文笔记】:Object detection with location-aware deformable convolution and backward attention filtering

&Title

在这里插入图片描述

&Summary

本文提出了location-aware deformable convolution以及backward attention filtering模块以提高自动驾驶中多类别多尺度目标检测的性能。

  • 其中location-aware deformable convolution能够自适应提取不均匀分布的上下文特征,与标准卷积特征结合以搭建为复杂场景中检测目标的健壮的、更具表征力的特征。
  • Backward attention filtering模型利用深层卷积层中的高级语义特征以增强有信息的高分辨率特征同时抑制分散特征,提高了性能同时减少了需要的RoIs。

通过在前向-后向网络中结合两个方法,在KITTI以及PASCAL VOC数据集中速度和性能均达到顶尖水准。

contribution:

  • 提出location-aware可变形卷积来提取没有固定几何分布的上下文特征,提取的特征被用于增强标准卷积特征,从而提高检测性能;
  • 提出backward attention filtering模型使用深层特征过滤浅层特征,强调informative特征同时抑制分散特征,使得RPN能够更容易生成合理的RoIs,因此减少了需要的RoI的数量从而提升模型速度;
  • 将两个方法结合到forward-backward网络中,在KITTI以及PASCAL VOC数据集中性能和速度均达到顶尖水准。

&Research Objective

本文主要关注两个方面:上下文信息以及空间信息的精炼。分别使用位置感知的可变形卷积以及注意力机制,均是增强特征方面的操作

&Problem Statement

  • 上下文信息
  • 高分辨率

上下文信息以及高分辨率特征在多尺度目标检测中有着重要的作用,但是上下文信息分布不均匀,高分辨率特征图中也包含distractive低级特征。

先前的研究表明,在复杂场景的多尺度目标检测中,上下文信息以及高分辨率特征至关重要。最常用的提取上下文特征的方法是通过卷积层增大感受野,从而能够看到较大的区域;然而,上下文信息的分布并不均匀,同时也不是固定的。为了捕获上下文信息,不仅需要较大的感受野,还需要对输入的自适应的几何结构。标准卷积固定输入采样的网格,不能灵活处理上下文分布的多样性。可变形卷积引入位置偏移能够自适应地提取上下文特征。
在街景中CNN浅层的高分辨率特征往往是模糊且受干扰的,为了使检测器集中在目标上,需要强调有信息的特征,同时抑制噪音。使用卷积高层语义特征作为attention map以过滤高分辨率特征图是一个好的解决方案。

&Method(s)

在这里插入图片描述
从backbone中提取出c1-c6,从c3开始使用location-aware deformable convolution以增强上下文信息,之后使用横向连接以及将上层特征作为注意力整合特征,显示信息较为丰富的区域,同时抑制噪声。之后使用skip pooling来整合特征进行预测。

Location-aware deformable convolution
在这里插入图片描述
一般的可变形卷积,只有一个基于标准卷积相同感受野的卷积层来预测所有的offset。可是使用相同感受野以及卷积层对每个输入样本进行offset预测可能无法获得最优的结果;此外,感受野太小在offset预测时不能查看周围的特征,也使其不能捕获有用的上下文信息。因此提出location-aware deformable convolution:
在这里插入图片描述
其中I为输入特征,O为输出特征,D为膨胀率,pn为相对于中心的位置变化,如(-1, -1);

如上图所示,首先使用1×1的卷积来压缩通道至64,减少通道大小在维持计算开销上是必要的;然后膨胀卷积来扩大感受野,在每个卷积的位置上使用不同的卷积核以预测每个位置的偏移;之后由于预测的偏移通常是小数,使用插值以获得对应的特征值,最后计算加权和得到最终输出。
在这里插入图片描述
Location-aware deformable convolution的目的是为了获得更丰富的上下文信息,得到的结果需要与标准卷积的结果一起处理,将两者concatenate起来,然后使用1×1卷积压缩到原来的通道数组成最终的输出特征。

这里没有进行消融实验,看不出来这个方法对整体效果的提升有多大,同时我想要了解只使用location-aware deformable convolution,不加上standard convolution的结果会有什么效果。

Backward attention filtering
在这里插入图片描述
这里的注意力机制的使用很常规,直接将上层语义信息使用3×3卷积后进行sigmoid,作为注意力,然后上采样到对应大小与当前层特征相乘:
在这里插入图片描述
Skip pooling
在这里插入图片描述
Skip pooling可以参考ION: Inside-Outside Net: Detecting Objects in Context with Skip pooling and recurrent neural networks一文中提出的skip pooling方法的使用。将池化扩展到多层中,需要考虑到维度以及幅度的问题:在ImageNet上的预训练表明,保存现有层的shape相当重要,因此最终的结果也应该为512×7×7;同时,为了匹配原始的shape,必须匹配原始的激活幅度。

首先将多层特征中的每一层使用RoI pool到512×7×7的大小,然后按通道进行拼接,使用1×1卷积压缩通道;为适应原始幅度,使用L2正则化,同时将rescale到需要的scale。

&Evaluation

  • 对比+消融:使用相同backbone与faster R-CNN间的效果对比,以及模块间的消融实验结果。使用两个backbone,本文的方法效果对比Faster R-CNN均有较大的提高,最高分别提升2.9与3.4个点。每个模块的使用也都有相应的提升。
    其中: ( a )为仅使用location-aware deformable convolution, ( b )仅使用backward
    attention filtering, ( c )同时使用两个模块
    在这里插入图片描述
  • 对比+消融:Location-aware deformable convolution模块与一般的convolution以及deformable convolution间的对比,同时对比了不同膨胀率的结果。可见,最优的结果是使用膨胀率为2的膨胀卷积,使用标准卷积进行offset预测。
    在这里插入图片描述
  • 对比实验:与其他使用attention机制的方法的对比。可见,本文提出的backward attention filtering的效果最佳。
    在这里插入图片描述
  • 对比实验:本文结果与其他方法的对比。可见,本文提出的虽不至于在效果上达到最优,但是均衡了速度与性能。
    在这里插入图片描述
    在这里插入图片描述

&Thinks

  • 注意力 + 残差的形式可以拿来用一用,效果应该不错。
  • 位置感知的可变形卷积和可变形卷积的区别,其实也不大好像??差别在于前者感受野不相同,后者感受野相同。硬件允许的话,可以研究研究。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章