目錄
非極大值抑制(Non-Maximum Suppression,NMS)
評價指標
IOU:
Precison:描述查找一個目標的精準率。
Recall:描述查找一個目標的漏檢率。
將被正確識別的目標,稱爲True positives(TP)。將被正確識別的背景稱爲True negatives(TN)。(正確識別爲背景即沒有框)。定義被錯誤識別爲目標的背景爲False positives(FP)。被錯誤識別爲背景的目標稱爲False negatives(FN)
Precision=TP/(TP+FP) 所有識別爲目標的框中,正確框的概率
Recall=TP/(TP+FN) 所有目標(ground truth)中被正確識別的概率
Accuracy=(TP+TN)/(TP+FN+TN+FT) 所有檢測中,正確識別目標及背景的概率
mAP:
AP:
F1:
非極大值抑制(Non-Maximum Suppression,NMS)
(1) 絕大部分目標檢測器的核心是分類器,即給定一個尺寸固定圖片,分類器判斷是不是目標;
(2)將分類器進化爲檢測器的關鍵是:在原始圖像上從多個尺度產生窗口,並resize到固定尺寸,然後送給分類器做判斷。
最常用的方法是滑動窗口-》非極大值抑制NMS,抑制冗餘框-》一個object只保留一個最優的框
(1)將所有框的得分排序,選中最高分及其對應的框
(2)遍歷其餘的框,如果和當前最高分框的重疊面積(IOU)大於一定閾值,我們就將框刪除。
(3)從未處理的框中繼續選一個得分最高的,重複上述過程。
Soft-NMS:
適用於同類別互相遮擋、重合的情況,其實非常簡單。
NMS公式如下:
NMS缺點:
顯而易見,NMS容易將被遮擋的同類別物體抑制掉。圖中兩匹馬,但是預測得到的兩個框重合度比較大,即IOU較大,在NMS算法下,綠色框的置信度被置0,從而被抑制掉。
Soft-NMS公式如下:
線性:
Soft-NMS根據兩個框的IOU值來減小重疊框的置信度,而不是直接置0(就是再給他一個機會咯,不一棒子打死)。
上面公式是分段函數,在Nt時會發生突變,導致置信度有斷層,因此作者又提出用高斯函數,平滑置信度變化。就是下面這個公式。
實驗結果:(然並卵,兩個公式基本沒有差異)
Soft-NMS在two-stage方法如RCNN系列中的提升較大,在One-stage方法如YOLO,SSD 中提升較小(作者論文中提到對於SSD,YOLOv2僅提升0.5左右)。因爲two-stage中產生大量region proposal,soft-nms有較大的提升空間。
將Soft-nms用在YOLOv3中進行測試(待續)