行人檢測論文筆記彙總(含代碼地址)

論文標題:Bi-box Regression for Pedestrian Detection and Occlusion Estimation

論文下載地址:

http://openaccess.thecvf.com/content_ECCV_2018/papers/CHUNLUAN_ZHOU_Bi-box_Regression_for_ECCV_2018_paper.pdf

代碼下載地址: https://github.com/rainofmine/Bi-box_Regression

論文簡介:與通用目標檢測相比,遮擋情況在行人檢測中更爲普遍,爲此也是行人檢測領域最廣爲關注的問題之一,對於遮擋情況下的行人檢測,主要有兩種思路:一是對目標候選框分成不同part逐一處理、區別對待再加以特徵融合;二是從loss的角度使得目標候選框對相互遮擋的情況更具判別性,目前主流的行人檢測算法大多基於兩階段的檢測器框架,本文也不例外,但另闢蹊徑,通過讓網絡同時輸出目標候選框的可見部分,指導網絡在學習的過程中對遮擋情況下的行人目標更具有判別力,實驗表明該思路對嚴重遮擋情況下的行人檢測十分有效。

論文貢獻:本文方法遵循Fast R-CNN檢測框架。爲了處理遮擋問題,本文提出利用一個網絡同時進行行人檢測和遮擋估計,具體而言就是讓網絡並行兩個分支,分別輸出兩個bounding box,一個是完整的行人框,另一個時行人的可見部分。如下圖所示,前者爲紅色框後者爲藍色框,對於沒有行人目標的候選框而言,則可見部分分支的輸出要儘量逼近候選框的中心。整個方法基於Fast R-CNN檢測框架,首先產生目標候選框,將圖像和目標候選框輸入卷積神經網絡,然後通過RoI pooling提取每個目標候選框的特徵,對這些特徵進行分類和迴歸,分別得到兩個box。

本文的貢獻包括三個方面:(1)提出了一種bi-box regression方法,通過學習由兩個分支組成的深層CNN(一個用於全身估計,另一個用於可見部分)來實現行人檢測和遮擋的同時估計。(2)提出了一種訓練策略,以改善兩個分支之間的互補性,以便可以融合其輸出以提高行人檢測性能;(3)預測行人框的可見部分是可行的,並可以帶來整體行人檢測的性能提升;訓練時,結合遮擋程度來定義高質量的正樣本,可以爲訓練帶來幫助,不失爲一種非常經濟有效的提升性能的trick。

論文指標: 本文方法在Caltech、CityPerson數據集上使用False Positive Per Image(FPPI)作爲評估指標,Reasonable、Partial、Heavy Occlusion狀態下FPPI指標分別是最好的7.4%、13.3%、44.4%,在CityPerson數據集上的Reasonable、Heavy、All狀態下FPPI指標分別是的11.24%、44.15%,43.41%

 

論文標題:High-level Semantic Feature Detection: A New Perspective for Pedestrian Detection

論文下載地址:https://arxiv.org/abs/1904.02948

代碼下載地址: https://github.com/liuwei16/CSP

https://github.com/lw396285v/CSP-pedestrian-detection-in-pytorch

論文簡介:目標檢測通常需要傳統的滑動窗口分類器或現代深度學習方法中基於錨框的預測。但是,這些方法中的任何一種都需要在boxes中進行繁瑣的配置。在本文中,作者提供了一個新的視角,即將檢測對象作爲高級語義特徵檢測任務來激發。像邊緣,拐角,斑點和其他特徵檢測器一樣,建議的檢測器在整個圖像上掃描特徵點,因此自然適合進行卷積。但是,與這些傳統的低級功能不同,建議的檢測器需要更高級別的抽象,也就是說,作者正在尋找存在對象的中心點,並且現代深度模型已經能夠實現這種高級語義抽象。此外,像斑點檢測一樣,作者還可以預測中心點的尺度,這也是一個簡單的卷積。因此,在本文中,通過卷積將行人和麪部檢測簡化爲直接的中心和規模預測任務。這樣,所提出的方法享box-free設置。儘管結構簡單,但它在包括行人檢測和人臉檢測在內的幾個具有挑戰性的基準上都具有競爭優勢。此外,執行了跨數據集評估,證明了所提出方法的出色泛化能力。

論文貢獻:本文提出了一個新的解決行人檢測的視角,將目標檢測理解爲高級語言特徵檢測任務,像邊緣,拐角,斑點和其他特徵檢測器一樣,建議的檢測器在整個圖像上掃描特徵點,因此自然適合進行卷積。但是,與這些傳統的低級特徵檢測器不同,建議的檢測器用於更高級別的抽象,也就是說,正在尋找存在對象的中心點。此外,類似於斑點檢測,還預測了中心點的尺度。然而,考慮到它的強大功能,但是不像傳統的斑點檢測那樣處理圖像金字塔來確定比例,而是通過在全卷積網絡(FCN)上進行一次直接卷積來預測對象比例。結果,行人和麪部檢測通過卷積被簡單地表述爲簡單的中心和比例預測任務。所提出的方法的總體流程,表示爲基於中心和規模預測(CSP)的檢測器。這項工作的主要貢獻如下:(1)展示了一種新的可能性,即行人和人臉檢測可以通過卷積簡化爲直接的中心和尺度預測任務,從而繞開了基於錨框的探測器的侷限性,並且 擺脫了基於最近的關鍵點配對的檢測器的複雜後處理。 (2)擬議的CSP檢測器在兩個具有挑戰性的行人檢測基準(CityPersons [55]和Caltech [8])上達到了最新的最新性能,並且在最受歡迎的人臉檢測基準之一上也達到了競爭性能。(3)進行跨數據集評估時,建議的CSP檢測器具有良好的泛化能力

論文指標:作者在行人數據集Caltech, Cityperson數據集上做了實驗,使用False Positive Per Image(FPPI)作爲評估指標。CSP方法在Caltech數據集上的Reasonable、All、Heavy Occlusion狀態下FPPI指標分別是最好的3.8%、54.4%、36.5%,在CityPerson數據集上的Reasonable、Heavy Occlusion狀態下FPPI指標分別是的11.1%、49.3%,

 

論文標題:Scale Match for Tiny Person Detection

論文下載地址:https://arxiv.org/abs/1912.10664

代碼下載地址: https://github.com/ucas-vg/TinyBenchmark

論文簡介:論文提出了一個新的benchmark, TinyPerson, 其中包含了很多小的人體目標,另外,作者通過實驗發現,在檢測任務中,pre-training和detector訓練數據之間的mismatch會導致檢測器性能下降,因此提出了一種Scale Match手段來align兩部分的數據集以提升檢測器性能。

論文貢獻:爲了檢測微小的人,作者提出了一種簡單而有效的方法,稱爲“規模匹配”。本文方法的直覺是對齊用於預訓練的數據集的對象比例和用於檢測器訓練的對象比例。規模匹配的本質是它可以更好地研究和利用微小規模的信息,並使卷積神經網絡(CNN)對於微小對象表示更爲複雜。本文工作的主要貢獻包括:1.在海上快速救援的背景下,作者引入了TinyPerson,並對野外微小物體檢測提出了巨大挑戰。據所知,這是具有遠距離背景的遠距離人檢測的第一個基準。Train/val註釋將公開發布,並將建立在線基準以進行算法評估。 2.作者全面分析了有關小人物的挑戰,並提出了尺度匹配方法,目的是使網絡預訓練數據集和檢測器學習數據集之間的特徵分佈保持一致。 3.提出的比例匹配方法提升了最先進的檢測器(FPN)5%的性能。

論文指標:本文提出的方法在MSCOCO上相比其他方法取得了最好的表現AP50爲29.21

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章