Utilizing the Instability in Weakly Supervised Object Detection (CVPR2019) 解讀

本文主要貢獻:

通過分析檢測器多示例學習(MIL)的不穩定性,提出了

  1. An end-to-end framework
  2. An online fusion strategy

0 檢測器多示例學習(MIL)的不穩定性

0.1 不同初始化參數的方法會很大程度上影響proposal的置信度如下圖前三列,代表不同初始化參數的MIL-based Detector,可以看出不同分類器所給出的proposal不同,紅色的表示negative,綠色的表示positive。

博主有話說:這裏同一個分類器每個圖的框應該是當前score最高的proposal(文中沒有說);具體如何訓練的detector也沒有說(網絡框架?迭代次數?參數初始化?等)

在這裏插入圖片描述

0.2 爲更好分析不穩定性,作者進行了定量分析,提出了IDR(Inconsistent Detection Rate)
在這裏插入圖片描述
本實驗是通過對WSDDN不同參數初始化進行十次,隨機選取兩個檢測器的結果根據以上公式進行定量分析,可視化如下圖:
在這裏插入圖片描述

博主有話說:不是很懂這裏。

0.3 通過對不同初始化參數的檢測器多示例學習的結果分析,作者發現很容易陷入局部最優解,如下圖
在這裏插入圖片描述

1 An end-to-end framework

在這裏插入圖片描述

博主有話說:其實就是基於WSDDN框架,把對於proposal的分類的softmax分支進行了擴充,最終還是採用對類的softmax和對proposal的softmax分支相乘,做普通的交叉熵損失。
其中,每個分支初始化不同,本文只說了採用另一篇文章的“Orthogonal Initialization”(正交初始化)的方法進行參數初始化,但是好像沒有說明白具體怎麼初始化,後文針對這個初始化和高斯初始化進行了對比,高斯初始化參數好像沒有在文中詳細說明,目前(2019.7.2)論文代碼好像木有開源。

2 An online fusion strategy

在這裏插入圖片描述

博主有話說:簡單的說,這個策略就是把每個分支檢測的top-N拿出來,對這些proposal進行篩選,目前不太清楚上圖第10行的 “is surrounded by”,到底是怎麼surrounded的。如果是surrounded,那麼去除這個proposal,最後對剩下的proposal作值域爲0.1的NMS產生最終的proposal。個人感覺這裏說的比較模糊,詳細還是得看代碼。

3 實驗

最後就是實驗部分了,在voc2007和voc2012數據集上進行了測試,都取得了好的結果。此外,作者還對分支的數量進行了實驗(爲3的時候最好)。
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述


本人拙見,請各位讀者指教!
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章