航拍圖像下的目標檢測 論文閱讀總結

        從網上搜了些論文來看(Keywordsvehicle detection/feature extraction  aerial images

      1、《Vehicle detection on Aerial Images by Extracting Corner Features for Rotational Invariant Shape Matching》發表在2011 11th IEEE International Conference on Computer and Information Technology  作者:Sheng Wang School of Computing and Communications University of Technology, Sydney。

 

                        

                  

        文章框架如左圖。首先使用shadow detection 快速定位潛在目標,代替了掃窗的方法,同時還減少了計算量。接着使用Harris Corner Response MapHCRM)提取特徵點(HCRM如右圖,在文章中,作者還對比了HCRMEdgeMap)。再通過當前點的梯度方向與其他點的角度關聯測量得到的Corner Feature Sample Points,這樣得到的樣本點具有旋轉不變性。

        檢測結果如下圖,明顯的缺點是,在陰影下的車輛完全檢測不到。應該是在第一步shadow detection的時候就被去掉了。所以這個方法還是很有侷限性的。

 

 

 

     2、《Vehicle Detection Using Partial Least Squares》發表在PAMI, VOL. 33, NO. 6, JUNE 2011作者Aniruddha Kembhavi, David Harwood, Member, IEEE, and Larry S. Davis, Fellow, IEEE

     在Feature Extraction 時使用三種特徵疊加。Color Probability Maps(CPM)提取顏色概率。HOG提取邊緣方向的空間分佈。Pairs of Pixels(POPs)提取目標的結構屬性。這樣得到的特徵有大約70,000維。但是訓練集中的樣本數量很小(大約200正例、1500反例),所以使用Partial Least Squares,具體實現方法是NIPALS。爲了降低高維數特徵下的計算,文章還進行了Feature Selection,可以去掉冗餘數據。具體實施方法使用Ordered Predictors Selection和Multistage Multi-resolution Analysis.

       下圖爲實驗結果

 


 

 

          3、《Vehicle Detection from Aerial Images Using Local Shape InformationSpringer-Verlag Berlin Heidelberg 2009 作者:Jae-Young Choi and Young-Kyu Yang 

         文章先使用Mean-Shift clustering算法提取候選帶有汽車形狀對稱屬性的Blob,再用log-polar形狀描述子檢測相似性。從Blob的中的方向和距離構成空間直方圖可以得到輪廓信息,得到shape context。後處理對Blob進行融合。

 


 

        缺點:對帶有對稱性的建築或公路標誌容易誤檢。Shape description 由固定vehicle模型獲得,所以使得算法不夠靈活。而且一旦鏡頭進行上下角度偏移,則模型產生錯誤很大。同時使用Mean-Shift進行Blob Detection無法處理鏡頭移動和複雜背景。

 

 

 

       4、《Vehicle Detection in Aerial Surveillance Using Dynamic Bayesian Networks》發表在IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 21, NO. 4, APRIL 2012。作者:Hsu-Yung Cheng, Member, IEEE, Chih-Chia Weng, and Yi-Ying Chen

 

      方法框架分成兩部分training phase detection phase 。在訓練時,特徵提取包括使用Harris corner detector得到角特徵和使用canny edges detector得到局部邊緣,這兩者可以有效提高命中率。Vehicle的顏色轉換後分類可以訓練一個動態貝葉斯網絡。在檢測部分,先進行背景顏色去除(有效去除False Positives),具體方法是使用顏色直方圖,去掉最突出的幾個Bin。特徵提取中,是基於像素加區域的方法。具體方法爲:

        先進行顏色轉換,利用《Vehicle detection using normalized color and edge map》的顏色空間轉換,將RGB轉爲UV

 

         其中Z爲(R+B+G/3。實驗證明在UV空間中vehicle pixels non-vehicle pixelsoverlap較小,所以可以再使用SVM對其進行分類。

對單個像素P進行特徵提取。考慮p附件的N*N鄰域。提取五種特徵類型:S,C,E,A and Z。 

         SSVM分類後被分爲vehicle color的像素個數佔鄰域總個數的百分比。

 

           同理,CE分別表示被Harris corner detector 檢測爲corner的像素數和canny edges detector檢測爲edge的像素數佔鄰域像素總數的百分比。A表示p所在vehicle-color region的寬高比,Z表示p都在區域的像素總數。如下圖,即爲region1的像素總數。

 

             得到這些特徵後再用Dynamic Bayesian Networks進行分類。

 

          t表示視頻中的time sliceVt表示觀察節點。後處理中用形態學來對像素進行聯合組件標籤得到目標。文章中還對DBNsBNs進行對比實驗。實驗證明DBN性能更好。這是因爲在視頻中,DBN還具有時間上的比較

發佈了32 篇原創文章 · 獲贊 8 · 訪問量 10萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章