IOU、NMS、soft-NMS

目录

评价指标

非极大值抑制(Non-Maximum Suppression,NMS)

Soft-NMS:


评价指标

IOU:

 

Precison:描述查找一个目标的精准率。

Recall:描述查找一个目标的漏检率。

将被正确识别的目标,称为True positives(TP)。将被正确识别的背景称为True negatives(TN)。(正确识别为背景即没有框)。定义被错误识别为目标的背景为False positives(FP)。被错误识别为背景的目标称为False negatives(FN)

Precision=TP/(TP+FP)   所有识别为目标的框中,正确框的概率

Recall=TP/(TP+FN)   所有目标(ground truth)中被正确识别的概率

Accuracy=(TP+TN)/(TP+FN+TN+FT)  所有检测中,正确识别目标及背景的概率

mAP:

AP:

F1:
 

非极大值抑制(Non-Maximum Suppression,NMS)

1 绝大部分目标检测器的核心是分类器,即给定一个尺寸固定图片,分类器判断是不是目标;

2将分类器进化为检测器的关键是:在原始图像上从多个尺度产生窗口,并resize到固定尺寸,然后送给分类器做判断

最常用的方法是滑动窗口-》非极大值抑制NMS,抑制冗余框-》一个object保留一个最优的

1将所有框的得分排序,选中最高分及其对应的

2遍历其余的框,如果和当前最高分框的重叠面积(IOU)大于一定阈值,我们就将框删除。

3从未处理的框中继续选一个得分最高的,重复上述过程。

Soft-NMS:

适用于同类别互相遮挡、重合的情况,其实非常简单。

NMS公式如下:

NMS缺点:

显而易见,NMS容易将被遮挡的同类别物体抑制掉。图中两匹马,但是预测得到的两个框重合度比较大,即IOU较大,在NMS算法下,绿色框的置信度被置0,从而被抑制掉。

Soft-NMS公式如下:

线性:

Soft-NMS根据两个框的IOU值来减小重叠框的置信度,而不是直接置0(就是再给他一个机会咯,不一棒子打死)。

上面公式是分段函数,在Nt时会发生突变,导致置信度有断层,因此作者又提出用高斯函数,平滑置信度变化。就是下面这个公式。

实验结果:(然并卵,两个公式基本没有差异)

Soft-NMS在two-stage方法如RCNN系列中的提升较大,在One-stage方法如YOLO,SSD 中提升较小(作者论文中提到对于SSD,YOLOv2仅提升0.5左右)。因为two-stage中产生大量region proposal,soft-nms有较大的提升空间。

将Soft-nms用在YOLOv3中进行测试(待续)

 

 

 

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章