#include <stdio.h>
#include <cv.h>
#include <cxcore.h>
#include <highgui.h>
int main( int argc, char** argv )
{
//聲明IplImage指針,IplImage指針在之後的攝像頭圖像傳遞,圖像處理,圖像顯示中都作爲主要處理的參數。按照說明書,成員主要有:大小,版本,通道數,位深數,顏色通道(是否交叉存取),頂/底左結構,寬像素,高像素,圖像感興趣區域,圖像數據大小,指向排列,排列圖像行大小;而被opencv忽略、或者置空的成員有alphaChannel,colorModel[4]等。
IplImage* pFrame = NULL;
IplImage* pFrImg = NULL;
IplImage* pBkImg = NULL;
//聲明CvMat指針。根據本程序,初步理解是CvMat主要用在圖像處理中,可由cvConvert(src,dst)完成同IplImage同CvMat的相互轉換。CvMat的成員包括:類型,行數據長度,數據引用計數,行列信息(幾個union),看來比較類似圖像的矩陣模型,按理解是便於進行數學計算的,按一份資料的說法,是初學者需要熟練應用的。資料如下:CvMat的用法詳解及實例
CvMat* pFrameMat = NULL;
CvMat* pFrMat = NULL;
CvMat* pBkMat = NULL;
//CvCapture沒有公共接口,只能視爲視頻獲取的一個參數
CvCapture* pCapture = NULL;
int nFrmNum = 0;
//創建窗口,原型:int cvNameWindow (const char *name,int flag=CV_WINDOW_AUTOSIZE)
cvNamedWindow("video", 1);
cvNamedWindow("background",1);
cvNamedWindow("foreground",1);
//使窗口有序排列
cvMoveWindow("video", 30, 0);
cvMoveWindow("background", 360, 0);
cvMoveWindow("foreground", 690, 0);
if( argc > 2 )
{
fprintf(stderr, "Usage: bkgrd [video_file_name]\n");
return -1;
}
//打開攝像頭,原型:IplImage* cvQueryFrame( CvCapture* capture );函數cvQueryFrame從攝像頭或者文件中抓取一幀,然後解壓並返回這一幀。這個函數僅僅是函數cvGrabFrame和函數cvRetrieveFrame在一起調用的組合。返回的圖像不可以被用戶釋放或者修改。
if (argc ==1)
if( !(pCapture = cvCaptureFromCAM(-1)))
{
fprintf(stderr, "Can not open camera.\n");
return -2;
}
//打開視頻文件
if(argc == 2)
if( !(pCapture = cvCaptureFromFile(argv[1])))
{
fprintf(stderr, "Can not open video file %s\n", argv[1]);
return -2;
}
//逐幀讀取視頻
while(pFrame = cvQueryFrame(
pCapture ))
{
nFrmNum++;
//如果是第一幀,需要申請內存,並初始化,初始化需要的是(cvSize(寬高),深度,交叉存取)
if(nFrmNum == 1)
{
pBkImg = cvCreateImage(cvSize(pFrame->width, pFrame->height), IPL_DEPTH_8U,1);
pFrImg = cvCreateImage(cvSize(pFrame->width, pFrame->height), IPL_DEPTH_8U,1);
pBkMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1); //初始化矩陣
pFrMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1);
pFrameMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1);
//其中圖像處理的函數不多說啦,才入門麼
//轉化成單通道圖像再處理
cvCvtColor(pFrame,
pBkImg, CV_BGR2GRAY);
cvCvtColor(pFrame,
pFrImg, CV_BGR2GRAY);
cvConvert(pFrImg,
pFrameMat);
cvConvert(pFrImg, pFrMat);
cvConvert(pFrImg,
pBkMat);
}
else
{
cvCvtColor(pFrame, pFrImg, CV_BGR2GRAY);
cvConvert(pFrImg,
pFrameMat);
//高斯濾波先,以平滑圖像
//cvSmooth(pFrameMat, pFrameMat, CV_GAUSSIAN, 3, 0, 0);
//當前幀跟背景圖相減
cvAbsDiff(pFrameMat, pBkMat, pFrMat);
//二值化前景圖
cvThreshold(pFrMat, pFrImg, 60, 255.0, CV_THRESH_BINARY);
//進行形態學濾波,去掉噪音
//cvErode(pFrImg, pFrImg, 0, 1);
//cvDilate(pFrImg, pFrImg, 0, 1);
//更新背景
cvRunningAvg(pFrameMat, pBkMat, 0.003, 0);
//將背景轉化爲圖像格式,用以顯示
cvConvert(pBkMat, pBkImg);
//顯示圖像
cvShowImage("video", pFrame);
cvShowImage("background",
pBkImg);
cvShowImage("foreground",
pFrImg);
//如果有按鍵事件,則跳出循環
//此等待也爲cvShowImage函數提供時間完成顯示
//等待時間可以根據CPU速度調整
if( cvWaitKey(2) >= 0 )
break;
}
}
//銷燬窗口
cvDestroyWindow("video");
cvDestroyWindow("background");
cvDestroyWindow("foreground");
//釋放圖像和矩陣
cvReleaseImage(&pFrImg);
cvReleaseImage(&pBkImg);
cvReleaseMat(&pFrameMat);
cvReleaseMat(&pFrMat);
cvReleaseMat(&pBkMat);
cvReleaseCapture(&pCapture);
return 0;
}
總結一下這個程序的所得吧,這個程序標註主要精力用在了圖像獲取及顯示上,而沒有注意是如何處理的。攝像頭通過CvCapture * cvCaptureFromCAM(int index)將實時圖像信息傳遞給IplImage,最後將處理好IplImage由cvShowImage(窗口, IplImage *)函數顯示。而CvMat只侷限於圖像處理中,和輸入輸出無關。
後面是一些筆記
每個元素(像素)通道號.可以是 1, 2, 3 或 4.通道是交叉存取的,例如通常的彩色圖像數據排列是:b0 g0 r0 b1 g1 r1 ... 雖然通常 IPL 圖象格式可以存貯非交叉存取的圖像,並且一些OpenCV 也能處理他, 但是這個函數只能創建交叉存取圖像.
http://baike.baidu.com/view/3440672.htm
HighGUI參考手冊
http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_highgui.cn.htm#decl_cvReleaseCapture
很經典,竟然是自動化所fsa的於仕琪,張兆翔前輩譯的。
cvCvtColor
http://baike.baidu.com/view/2816025.htm
cvConvert
地位低精度向高位高精度轉化
http://hi.baidu.com/megachan/blog/item/8b166dc520f1f1bb8226acbc.html
cvConvert(src,dst)執行兩個操作:將src圖像數據類型改變爲dst圖像數據類型;將src的數據賦值到dst
void cvAbsDiff( const CvArr* src1, const CvArr* src2, CvArr* dst );
dst(I)c = abs(src1(I)c - src2(I)c).
所有數組必須有相同的數據類型相同的大小(或ROI大小)
轉自:http://www.cnblogs.com/mlv5/archive/2011/02/11/emy_yu.html