論文閱讀筆記:Object Detection Networks on Convolutional Feature Maps

這是CVPR 2015的一篇 關於深度學習和目標檢測的文章,作者是MSRA的Shaoqing Ren, Kaiming He等。文章下載鏈接:http://yunpan.cn/cQS7v5ruHFKek 提取碼 179e

閱讀總結如下(思想重要,實驗暫略):

1. 當前的目標檢測方法

  • 總體框架是 feature extractor + object classifier。
  • 傳統方法:HOG/SIFT/LBP + SVM/boosted/DPM 。
  • 當前方法又細分爲三個流派。
  • 第一種 fine-tuned ConvNet + MLP,以R-CNN爲代表。
  • 第二種是想把deep ConvNet 和 traditional detector做一個結合。把傳統的 feature extractor 升級爲 pre-trained deep ConvNet,但是用傳統的分類器,即 pre-trained ConvNet +DPM/boosted, 稱爲Hybrid派。
  • 第三種方法介於R-CNN和Hybrid之間,pre-trained ConvNet + fine-tuned MLP,以SPPnet爲代表。 從性能上來說,R-CNN還是佔統治地位,SPPnet和R-CNN接近,Hybrid方法一般要比前兩者差點。

2. 問題的提出

  • 當前方法主流是 deep ConvNet (pre-trained 或者 fine-tuned ) + fine-tuned MLP。
  • 問題:(1) 有沒有比 MLP 更好的 region classifier ? (2) fine tuning 有多重要?

3. 方法:

  • 先用一個fixed, pre-trained ConvNet對輸入的圖像得到卷積的 feature maps
  • 在得到的feature map上再訓練網絡做分類,該網絡作者稱爲NoCs ,即Network on Convolutional feature maps)。這裏就不侷限於MLP了,可以是各種網絡。
  • 作者嘗試了三種網絡:各種深度的MLP, 各種深度的 ConvNet, ConvNet with maxout.這是回答問題(1)。
  • 在訓練網絡時,每種網絡又分隨機初始化,和來自 pre-trained 兩種初始化策略,回答問題(2)。

4. 結論

  • 在相同的網絡下,pre-training + fine-tuning work的最好。
  • 精心設計的網絡獲得的性能提升要比 pre-training + fine-tuning 獲得的性能提升大,作者的三種網絡中,ConvNet with maxout 最好。
  • HOG + NoC > HOG + DPM/boosted,說明NoC的發現具有可推廣性。
  • R-CNN 比 Hybrid 效果好,主要是由於其classfier佔優勢。
發佈了34 篇原創文章 · 獲贊 63 · 訪問量 30萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章