論文解讀CutPaste: Self-Supervised Learning for Anomaly Detection and Localization

本文想解決是單分類問題,通過對正常樣本的學習,檢測出未知類型的異常,更傾向於缺陷檢測。方法整體流程分爲兩步,首先基於自監督學習方法學習樣本表徵,繼而通過一個單分類器對錶徵進行分類。通過文中提出的CutPaste實現對於正常樣本的表徵學習及分類。CutPaste是一種數據增強方法,從圖像中裁剪出一塊矩形區域粘貼到任意位置。

目前單分類異常檢測算法主要思路是訓練一個能表徵正常樣本的模型,並且假設這個模型不能很好的表徵異常樣本。但是基於像素級的重建損失一般無法獲得高級語義信息。
本文采用了一種自監督學習中pretext task的思路,在(a)自監督學習表徵階段,對正樣本採用cutpaste生成圖像,訓練一個二分類CNN,識別正常樣本,及添加cutpaste後的圖像。在(b)異常檢測及定位階段,CNN用來提取特徵,高斯概率密度估計(GDE)使用CNN提取的特徵計算異常分數,圖像級別的異常檢測可以使用GradCAM大致定位異常區域,patch級別的異常定位,對原圖分割成若干patch,分別送到CNN--GDE計算異常分數,得出更細粒度異常熱力圖。


文章中使用的數據增強方法cutpaste和cutpaste(scar)試有cutout和scar啓發而來,scar是添加舉行細長線。實際自監督學習實驗看作三分類問題,正常樣本,添加cutpaste的樣本,添加cutpaste(scar)的樣本。


對於MVTec AD dataset,或者實際的缺陷檢測任務,缺陷一般含有拉伸變形,特殊的紋理構造。作者對正常樣本使用cutpaste的目的是希望在正常樣本的表徵學習中,能夠通過cutpaste模擬異常樣本,作者使用可視化技術發現,添加cutpaste後的正樣本與原始正樣本距離較大,但是與真實的異常樣本接近度較小,說明仍需要更好的數據增強方法。


實驗對比,AUC


實驗對比,缺陷定位



不同數據增強方法的消融實驗



在語義異常檢測數據集上的實驗
作者將cifar10數據集的異常檢測定義爲Semantic Outlier Detection,其需要識別車與狗這種語義級別的差異,而MVTec AD dataset代表的缺陷異常檢測識別的是細微處的差異。在cifar10上取得69.4 的AUC,高於 Cutout (60:2).但是低於使用旋轉預測方法 (91:3 AUC)

(Learning and evaluating representations fordeep one-class classification.自監督學習階段,對圖像旋轉不同角度當作不同類別,)
作者認爲,對於不同類型的數據集,結合不同數據增強方法的pretext task影響是很大的。對於語義級的數據集,旋轉更優,對於細節缺陷檢測,本文cutpaste性能更優。需要根據異常的特點,針對性的設計數據增強方法,以在正樣本中豐富出與正樣本差異較大的樣本,最好是能夠表現出異常樣本的特點。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章