數據增強:裁剪 》 flip 》 erasing(緩解遮擋)

https://zhuanlan.zhihu.com/p/103267422

論文閱讀】random erasing data augmentation code

論文說明

論文爲CNN訓練提出了一種新的數據增強方法。Random Erasing,在一張圖片中隨機的選擇一個矩形框,在隨機的位置上使用隨機的值來擦除圖片原來的像素。通過該方法能夠給圖片加入不同程度的遮擋,通過這樣的訓練數據,可以減少模型過擬合的風險同時對遮擋具有一定的魯棒性。隨機擦除和random cropping,random flipping一樣可以作爲數據增強的方法,在分類,檢測和行人重識別領域能夠取得不錯的效果。

論文算法

作爲圖片預處理方法,思想比較簡單,主要算法如上圖,輸入圖片 [公式] ,擦除的概率 [公式] ,擦除區域比例範圍從 [公式] ,以及長寬比概率範圍從 [公式] 。

首先根據概率 [公式] 確定一張圖片是否需要擦除:

[公式]

[公式] 則不對圖片進行處理,反之,則需要擦除。

根據輸入圖片 [公式] 可以得到圖片的長寬 [公式] ,繼而可以得到面積 [公式] 。根據 [公式] 得到擦除的面積 [公式] ,擦除面積的長寬根據下式得到:

[公式]

再根據 [公式] 得到在原圖中擦除的左上角位置 [公式] 。加上長寬 [公式] 便可以得到擦除區域的位置。考慮到 [公式] 的情況,一旦是該情況便重複該算法,直到滿足 [公式] 。實際上隨機的區域限定在一個範圍就好,沒必要做重複的操作。具體的擦除代碼

論文實驗

論文提出的數據增強法法簡潔實用,做的一些實驗很值得我們以後利用,這也是之前一直只是用該方法卻沒有看該論文的遺憾,其實論文做了很多實驗,分析了一些有用的東西。

image classification

作者參數設置爲 [公式] 分類實驗都是在加了random cropping 和flipping基礎上做的,

可以看到基本上加上random erasing對實驗結果都是有提升的

比較數據增強方法:

通過實驗可以發現效果最好的是random cropping方法,其次是random flipping ,最後纔是random erasing。但是三種一起使用確實能得到最好的效果。

Person re-identification

行人重識別參數設置爲 [公式] ,作者的實驗總結了一個我不久前才知道的一個事情。當每個ID下數據較多時,像market1501和duke數據集,使用softmax方法的效果要優於三元組的方法,而當每個ID下數據較少時,也就是每個類別缺乏足夠的訓練樣本,使用三元組的效果要優於softmax。當數據量大的時候需要考慮下該情況

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章