行人檢測SVM樣本訓練詳解(附代碼)

 在2005年CVPR上,來自法國的研究人員Navneet Dalal 和Bill Triggs提出利用Hog進行特徵提取,利用線性SVM作爲分類器,從而實現行人檢測。而這兩位也通過大量的測試發現,Hog+SVM是速度和效果綜合平衡性能較好的一種行人檢測方法。後來,雖然很多研究人員也提出了很多改進的行人檢測算法,但基本都以該算法爲基礎框架。因此,Hog+SVM也成爲一個里程錶式的算法被寫入到OpenCV中。在OpenCV2.0之後的版本,都有Hog特徵描述算子的API,而至於SVM,早在OpenCV1.0版本就已經集成進去了;OpenCV雖然提供了Hog和SVM的API,也提供了行人檢測的sample,遺憾的是,OpenCV並沒有提供樣本訓練的sample。這也就意味着,很多人只能用OpenCV自帶的已經訓練好的分類器來進行行人檢測。然而,OpenCV自帶的分類器是利用Navneet Dalal和Bill Triggs提供的樣本進行訓練的,不見得能適用於你的應用場合。因此,針對你的特定應用場景,很有必要進行重新訓練得到適合你的分類器。本文的目的,正在於此。

重新訓練行人檢測的流程:

(1)準備訓練樣本集合;包括正樣本集和負樣本集;根據機器學習的基礎知識我們知道,要利用機器學習算法進行樣本訓練,從而得到一個性能優良的分類器,訓練樣本應該是無限多的,而且訓練樣本應該覆蓋實際應用過程中可能發生的各種情況。(很多朋友,用10來個正樣本,10來個負樣本進行訓練,之後,就進行測試,發現效果沒有想象中的那麼好,就開始發牢騷,抱怨。。。對於這些人,我只能抱歉的說,對於機器學習、模式識別的認識,你還處於沒有入門的階段);實際應用過程中,訓練樣本不可能無限多,但無論如何,三五千個正樣本,三五千個負樣本,應該不是什麼難事吧?(如果連這個都做不到,建議你別搞機器學習,模式識別了;訓練素材都沒有,怎麼讓機器學習到足夠的信息呢?)

(2)收集到足夠的訓練樣本之後,你需要手動裁剪樣本。例如,你想用Hog+SVM來對商業步行街的監控畫面中進行行人檢測,那麼,你就應該用收集到的訓練樣本集合,手動裁剪畫面中的行人(可以寫個簡單程序,只需要鼠標框選一下,就將框選區域保存下來)。

(3)裁剪得到訓練樣本之後,將所有正樣本放在一個文件夾中;將所有負樣本放在另一個文件夾中;並將所有訓練樣本縮放到同樣的尺寸大小。OpenCV自帶的例子在訓練時,就是將樣本縮放爲64*128進行訓練的;

(4)提取所有正樣本的Hog特徵;

(5)提取所有負樣本的Hog特徵;

(6)對所有正負樣本賦予樣本標籤;例如,所有正樣本標記爲1,所有負樣本標記爲0;

(7)將正負樣本的Hog特徵,正負樣本的標籤,都輸入到SVM中進行訓練;Dalal在論文中考慮到速度問題,建議採用線性SVM進行訓練。這裏,不妨也採用線性SVM;

(8)SVM訓練之後,將結果保存爲文本文件。

(9)線性SVM進行訓練之後得到的文本文件裏面,有一個數組,叫做support vector,還有一個數組,叫做alpha,有一個浮點數,叫做rho;將alpha矩陣同support vector相乘,注意,alpha*supportVector,將得到一個列向量。之後,再該列向量的最後添加一個元素rho。如此,變得到了一個分類器,利用該分類器,直接替換opencv中行人檢測默認的那個分類器(cv::HOGDescriptor::setSVMDetector()),就可以利用你的訓練樣本訓練出來的分類器進行行人檢測了。

下面給出樣本訓練的參考代碼:

class Mysvm: public CvSVM  
{  
public:  
    int get_alpha_count()  
    {  
        return this->sv_total;  
    }  
  
    int get_sv_dim()  
    {  
        return this->var_all;  
    }  
  
    int get_sv_count()  
    {  
        return this->decision_func->sv_count;  
    }  
  
    double* get_alpha()  
    {  
        return this->decision_func->alpha;  
    }  
  
    float** get_sv()  
    {  
        return this->sv;  
    }  
  
    float get_rho()  
    {  
        return this->decision_func->rho;  
    }  
};  
  
void Train()  
{  
    char classifierSavePath[256] = "c:/pedestrianDetect-peopleFlow.txt";  
  
    string positivePath = "E:\\pictures\\train1\\pos\\";  
    string negativePath = "E:\\pictures\\train1\\neg\\";  
  
    int positiveSampleCount = 4900;  
    int negativeSampleCount = 6192;  
    int totalSampleCount = positiveSampleCount + negativeSampleCount;  
  
    cout<<"//////////////////////////////////////////////////////////////////"<<endl;  
    cout<<"totalSampleCount: "<<totalSampleCount<<endl;  
    cout<<"positiveSampleCount: "<<positiveSampleCount<<endl;  
    cout<<"negativeSampleCount: "<<negativeSampleCount<<endl;  
  
    CvMat *sampleFeaturesMat = cvCreateMat(totalSampleCount , 1764, CV_32FC1);  
    //64*128的訓練樣本,該矩陣將是totalSample*3780,64*64的訓練樣本,該矩陣將是totalSample*1764  
    cvSetZero(sampleFeaturesMat);    
    CvMat *sampleLabelMat = cvCreateMat(totalSampleCount, 1, CV_32FC1);//樣本標識    
    cvSetZero(sampleLabelMat);    
  
    cout<<"************************************************************"<<endl;  
    cout<<"start to training positive samples..."<<endl;  
  
    char positiveImgName[256];  
    string path;  
    for(int i=0; i<positiveSampleCount; i++)    
    {    
        memset(positiveImgName, '\0', 256*sizeof(char));  
        sprintf(positiveImgName, "%d.jpg", i);  
        int len = strlen(positiveImgName);  
        string tempStr = positiveImgName;  
        path = positivePath + tempStr;  
  
        cv::Mat img = cv::imread(path);  
        if( img.data == NULL )  
        {  
            cout<<"positive image sample load error: "<<i<<" "<<path<<endl;  
            system("pause");  
            continue;  
        }  
  
        cv::HOGDescriptor hog(cv::Size(64,64), cv::Size(16,16), cv::Size(8,8), cv::Size(8,8), 9);  
        vector<float> featureVec;   
  
        hog.compute(img, featureVec, cv::Size(8,8));    
        int featureVecSize = featureVec.size();  
  
        for (int j=0; j<featureVecSize; j++)    
        {         
            CV_MAT_ELEM( *sampleFeaturesMat, float, i, j ) = featureVec[j];   
        }    
        sampleLabelMat->data.fl[i] = 1;  
    }  
    cout<<"end of training for positive samples..."<<endl;  
  
    cout<<"*********************************************************"<<endl;  
    cout<<"start to train negative samples..."<<endl;  
  
    char negativeImgName[256];  
    for (int i=0; i<negativeSampleCount; i++)  
    {    
        memset(negativeImgName, '\0', 256*sizeof(char));  
        sprintf(negativeImgName, "%d.jpg", i);  
        path = negativePath + negativeImgName;  
        cv::Mat img = cv::imread(path);  
        if(img.data == NULL)  
        {  
            cout<<"negative image sample load error: "<<path<<endl;  
            continue;  
        }  
  
        cv::HOGDescriptor hog(cv::Size(64,64), cv::Size(16,16), cv::Size(8,8), cv::Size(8,8), 9);    
        vector<float> featureVec;   
  
        hog.compute(img,featureVec,cv::Size(8,8));//計算HOG特徵  
        int featureVecSize = featureVec.size();    
  
        for ( int j=0; j<featureVecSize; j ++)    
        {    
            CV_MAT_ELEM( *sampleFeaturesMat, float, i + positiveSampleCount, j ) = featureVec[ j ];  
        }    
  
        sampleLabelMat->data.fl[ i + positiveSampleCount ] = -1;  
    }    
  
    cout<<"end of training for negative samples..."<<endl;  
    cout<<"********************************************************"<<endl;  
    cout<<"start to train for SVM classifier..."<<endl;  
  
    CvSVMParams params;    
    params.svm_type = CvSVM::C_SVC;    
    params.kernel_type = CvSVM::LINEAR;    
    params.term_crit = cvTermCriteria(CV_TERMCRIT_ITER, 1000, FLT_EPSILON);  
    params.C = 0.01;  
  
    Mysvm svm;  
    svm.train( sampleFeaturesMat, sampleLabelMat, NULL, NULL, params ); //用SVM線性分類器訓練  
    svm.save(classifierSavePath);  
  
    cvReleaseMat(&sampleFeaturesMat);  
    cvReleaseMat(&sampleLabelMat);  
  
    int supportVectorSize = svm.get_support_vector_count();  
    cout<<"support vector size of SVM:"<<supportVectorSize<<endl;  
    cout<<"************************ end of training for SVM ******************"<<endl;  
  
    CvMat *sv,*alp,*re;//所有樣本特徵向量   
    sv  = cvCreateMat(supportVectorSize , 1764, CV_32FC1);  
    alp = cvCreateMat(1 , supportVectorSize, CV_32FC1);  
    re  = cvCreateMat(1 , 1764, CV_32FC1);  
    CvMat *res  = cvCreateMat(1 , 1, CV_32FC1);  
  
    cvSetZero(sv);  
    cvSetZero(re);  
    
    for(int i=0; i<supportVectorSize; i++)  
    {  
        memcpy( (float*)(sv->data.fl+i*1764), svm.get_support_vector(i), 1764*sizeof(float));      
    }  
  
    double* alphaArr = svm.get_alpha();  
    int alphaCount = svm.get_alpha_count();  
  
    for(int i=0; i<supportVectorSize; i++)  
    {  
        alp->data.fl[i] = alphaArr[i];  
    }  
    cvMatMul(alp, sv, re);  
  
    int posCount = 0;  
    for (int i=0; i<1764; i++)  
    {  
        re->data.fl[i] *= -1;  
    }  
  
    FILE* fp = fopen("c:/hogSVMDetector-peopleFlow.txt","wb");  
    if( NULL == fp )  
    {  
        return 1;  
    }  
    for(int i=0; i<1764; i++)  
    {  
        fprintf(fp,"%f \n",re->data.fl[i]);  
    }  
    float rho = svm.get_rho();  
    fprintf(fp, "%f", rho);  
    cout<<"c:/hogSVMDetector.txt 保存完畢"<<endl;//保存HOG能識別的分類器  
    fclose(fp);  
  
    return 1;  
}  

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章