【ACF學習】ACF訓練檢測模型

ACF在行人檢測取得了不錯的成績,適合剛性目標或者準剛性目標的訓練

1,數據量說明

本文準備了12W+正樣本,以豎直手掌爲主,有部分樣本存在輕微的旋轉

負樣本7k+(不夠,訓練一級分類器就停止了,後面增加到2W+)

2,熟悉acfTrain

輸入 opts=acfTrain returns all default options

opts = 
      pPyramid: [1x1 struct]
       filters: []
       modelDs: [100 41]
    modelDsPad: [128 64]
          pNms: [1x1 struct]
        stride: 4
       cascThr: -1
       cascCal: 0.0050
         nWeak: 128
        pBoost: [1x1 struct]
          seed: 0
          name: ''
      posGtDir: ''
     posImgDir: ''
     negImgDir: ''
     posWinDir: ''
     negWinDir: ''
       imreadf: @imread
       imreadp: {}
         pLoad: [1x1 struct]
          nPos: Inf
          nNeg: 5000
       nPerNeg: 25
       nAccNeg: 10000
       pJitter: {}
      winsSave: 0

在acfTrain的註釋中說明參數的含義

1)pPyramid指定通道特徵,詳細查看chnsCompute.m and chnsPyramid.m。

通道可能被一系列filters的卷積,用於去除局部關聯(查看NIPS14 on LDCF),用於提高精度但是降低速度
如果filters=[wFilter, nFilter],這些都是自動計算的
模型維度modelDs(默認爲[100, 41])定義窗口的高度和寬度,padded維度modelDsPad(默認爲[128, 64])確定圍繞目標邊緣拓展的維度,這樣有利於分類。
例如對於100個像素高的行人,128像素高的區域用於決策
pNms控制極大值抑制(bbNms.m),stride控制窗口步長,cascThr和cascCal是constant soft cascades的閾值和標度
通常cascThr設置爲-1,調整cascCal直到達到期望的召回率
訓練在採樣bootstrapping和分類Adaboost Classifier之間切換
nWeak決定訓練級數和每級中tree的個數,例如nWeak=[32 128 512 2048]確定四級,最後一級有2048棵樹
pBoost指定Adaboost的參數,pBoost.pTree是決策樹的參數(參考adaBoostTrain.m)
seed是隨機種子使得訓練結果reproducible,name指定detector和log文件的路徑


2)訓練數據可以是多種形式的,正樣本可以使用預先裁剪的窗口目錄(posWinDir)或者整幅圖像(posImgDir)+Groundtruth目錄(posGtDir)

負樣本可以使用預先裁剪的窗口目錄(negWinDir)或者使用整幅並不包含任何正樣本的圖像目錄(negImgDir)

如果沒有指定negWinDir也沒有指定negImgDir的話,負樣本使用posImgDir中採集
對於預先裁剪的圖像,尺寸最小爲modelDsPad(默認爲[128, 64]),目標位於裁剪圖像中心不小於modelDs(默認爲[100, 41])
imreadf用於指定加載圖像的常規函數(默認爲imread函數),imreadp爲imreadf的額外參數
當從整幅圖像採集時,pLoad指定groundtruth是如何被加載的,並且將正樣本集合進行轉換(查看bbGt>bbLoad)
nPos控制訓練時總正樣本(如果nPos=inf,正樣本數量受限於訓練集,默認nPos=inf)
nNeg控制總負樣本數量(默認爲5000),nPerNeg(默認爲25)限制每個圖像上採集的負樣本數量,nAccNeg(默認10000)控制最大負樣本總數,在bootstrapping過程中累計計數
pJitter用於擾動正樣本,這樣可以增加正樣本數量(默認flip=1)
winsSave如果爲true的話,裁剪的窗口以mat文件形式保存到disk中(默認爲0)



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章