用PyTorch從零開始實現Faster RCNN

作者:Prakashjay. 貢獻: Suraj Amonkar, Sachin Chandra, Rajneesh Kumar 和 Vikash Challa.

多謝您的閱讀,學習愉快。

原標題 :Guide to build Faster RCNN in PyTorch

作者 | Machine-Vision Research Group

原文鏈接:https://medium.com/@fractaldle/guide-to-build-faster-rcnn-in-pytorch-95b10c273439

引言

Faster R-CNN是首次完全採用Deep Learning的學習框架之一。Faster R-CNN是基於Fast RCNN的思路,然而Fast RCNN卻繼承自RCNN,SPP-Net的思路(譯者注:此處理清楚先後關係)。雖然我們在構建Faster RCNN框架時引入了一些Fast RCNN的思想,但是我們不會詳細討論這些框架。其中一個原因是,Faster R-CNN表現得非常好,它沒有使用傳統的計算機視覺技術,如選擇性搜索等。在非常高的層次上,Fast RCNN和Faster RCNN的工作原理如下面的流程圖所示。

Fast RCNN和Faster RCNN

我們寫過一篇關於目標檢測框架的詳細的博客,可以作爲獨自編碼理解Faster RCNN的指導。

上圖可以看到唯一的區別是Faster RCNN中將selective search替換爲RPN(Region Proposal Network),selective search算法採用SIFT和HOG描述子來生成目標候選,在CPU上2秒/張圖像。這一過程代價高,Fast RCNN在一張圖像上總共耗費2.3秒產生預測,Faster RCNN速度爲5 FPS(

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章