IOU、NMS、soft-NMS

目錄

評價指標

非極大值抑制(Non-Maximum Suppression,NMS)

Soft-NMS:


評價指標

IOU:

 

Precison:描述查找一個目標的精準率。

Recall:描述查找一個目標的漏檢率。

將被正確識別的目標,稱爲True positives(TP)。將被正確識別的背景稱爲True negatives(TN)。(正確識別爲背景即沒有框)。定義被錯誤識別爲目標的背景爲False positives(FP)。被錯誤識別爲背景的目標稱爲False negatives(FN)

Precision=TP/(TP+FP)   所有識別爲目標的框中,正確框的概率

Recall=TP/(TP+FN)   所有目標(ground truth)中被正確識別的概率

Accuracy=(TP+TN)/(TP+FN+TN+FT)  所有檢測中,正確識別目標及背景的概率

mAP:

AP:

F1:
 

非極大值抑制(Non-Maximum Suppression,NMS)

1 絕大部分目標檢測器的核心是分類器,即給定一個尺寸固定圖片,分類器判斷是不是目標;

2將分類器進化爲檢測器的關鍵是:在原始圖像上從多個尺度產生窗口,並resize到固定尺寸,然後送給分類器做判斷

最常用的方法是滑動窗口-》非極大值抑制NMS,抑制冗餘框-》一個object保留一個最優的

1將所有框的得分排序,選中最高分及其對應的

2遍歷其餘的框,如果和當前最高分框的重疊面積(IOU)大於一定閾值,我們就將框刪除。

3從未處理的框中繼續選一個得分最高的,重複上述過程。

Soft-NMS:

適用於同類別互相遮擋、重合的情況,其實非常簡單。

NMS公式如下:

NMS缺點:

顯而易見,NMS容易將被遮擋的同類別物體抑制掉。圖中兩匹馬,但是預測得到的兩個框重合度比較大,即IOU較大,在NMS算法下,綠色框的置信度被置0,從而被抑制掉。

Soft-NMS公式如下:

線性:

Soft-NMS根據兩個框的IOU值來減小重疊框的置信度,而不是直接置0(就是再給他一個機會咯,不一棒子打死)。

上面公式是分段函數,在Nt時會發生突變,導致置信度有斷層,因此作者又提出用高斯函數,平滑置信度變化。就是下面這個公式。

實驗結果:(然並卵,兩個公式基本沒有差異)

Soft-NMS在two-stage方法如RCNN系列中的提升較大,在One-stage方法如YOLO,SSD 中提升較小(作者論文中提到對於SSD,YOLOv2僅提升0.5左右)。因爲two-stage中產生大量region proposal,soft-nms有較大的提升空間。

將Soft-nms用在YOLOv3中進行測試(待續)

 

 

 

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章