3、 Canny算法的實現流程
由於本文主要目的在於學習和實現算法,而對於圖像讀取、視頻獲取等內容不進行闡述。因此選用OpenCV算法庫作爲其他功能的實現途徑(關於OpenCV的使用,作者將另文表述)。首先展現本文將要處理的彩色圖片。
圖2 待處理的圖像
3.1 圖像讀取和灰度化
編程時採用上文所描述的第二種方法來實現圖像的灰度化。其中ptr數組中保存的灰度化後的圖像數據。具體的灰度化後的效果如圖3所示。
- IplImage* ColorImage = cvLoadImage( "12.jpg", -1 ); //讀入圖像,獲取彩圖指針
- IplImage* OpenCvGrayImage; //定義變換後的灰度圖指針
- unsigned char* ptr; //指向圖像的數據首地址
- if (ColorImage == NULL)
- return;
- int i = ColorImage->width * ColorImage->height;
- BYTE data1; //中間過程變量
- BYTE data2;
- BYTE data3;
- ptr = new unsigned char[i];
- for(intj=0; j<ColorImage->height; j++) //對RGB加權平均,權值參考OpenCV
- {
- for(intx=0; x<ColorImage->width; x++)
- {
- data1 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3]; //B分量
- data2 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3 + 1]; //G分量
- data3 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3 + 2]; //R分量
- ptr[j*ColorImage->width+x]=(BYTE)(0.072169*data1 + 0.715160*data2 + 0.212671*data3);
- }
- }
- OpenCvGrayImage=cvCreateImageHeader(cvGetSize(ColorImage), ColorImage->depth, 1);
- cvSetData(GrayImage,ptr, GrayImage->widthStep); //根據數據生成灰度圖
- cvNamedWindow("GrayImage",CV_WINDOW_AUTOSIZE);
- cvShowImage("GrayImage",OpenCvGrayImage); //顯示灰度圖
- cvWaitKey(0);
- cvDestroyWindow("GrayImage");
圖3 灰度化後的圖像
3.2 圖像的高斯濾波
根據上面所講的邊緣檢測過程,下一個步驟就是對圖像進行高斯濾波。可根據之前博文描述的方法獲取一維或者二維的高斯濾波核。因此進行圖像高斯濾波可有兩種實現方式,以下具體進行介紹。
首先定義該部分的通用變量:
- double nSigma = 0.4; //定義高斯函數的標準差
- int nWidowSize = 1+2*ceil(3*nSigma); //定義濾波窗口的大小
- int nCenter = (nWidowSize)/2; //定義濾波窗口中心的索引
兩種方法都需要用到的變量:
- int nWidth = OpenCvGrayImage->width; //獲取圖像的像素寬度
- int nHeight = OpenCvGrayImage->height; //獲取圖像的像素高度
- unsigned char* nImageData = new unsigned char[nWidth*nHeight]; //暫時保存圖像中的數據
- unsigned char*pCanny = new unsigned char[nWidth*nHeight]; //爲平滑後的圖像數據分配內存
- double* nData = new double[nWidth*nHeight]; //兩次平滑的中間數據
- for(int j=0; j<nHeight; j++) //獲取數據
- {
- for(i=0; i<nWidth; i++)
- nImageData[j*nWidth+i] = (unsigned char)OpenCvGrayImage->imageData[j*nWidth+i];
- }
3.2.1 根據一維高斯核進行兩次濾波
1)生成一維高斯濾波係數
- //////////////////////生成一維高斯濾波係數/////////////////////////////
- double* pdKernal_1 = new double[nWidowSize]; //定義一維高斯核數組
- double dSum_1 = 0.0; //求和,用於進行歸一化
- ////////////////////////一維高斯函數公式//////////////////////////////
- //// x*x /////////////////
- //// -1*---------------- /////////////////
- //// 1 2*Sigma*Sigma /////////////////
- //// ------------ e /////////////////
- //// /////////////////
- //// \/2*pi*Sigma /////////////////
- //////////////////////////////////////////////////////////////////////
- for(int i=0; i<nWidowSize; i++)
- {
- double nDis = (double)(i-nCenter);
- pdKernal_1[i] = exp(-(0.5)*nDis*nDis/(nSigma*nSigma))/(sqrt(2*3.14159)*nSigma);
- dSum_1 += pdKernal_1[i];
- }
- for(i=0; i<nWidowSize; i++)
- {
- pdKernal_1[i] /= dSum_1; //進行歸一化
- }
2)分別進行x向和y向的一維加權濾波,濾波後的數據保存在矩陣pCanny中
- for(i=0; i<nHeight; i++) //進行x向的高斯濾波(加權平均)
- {
- for(j=0; j<nWidth; j++)
- {
- double dSum = 0;
- double dFilter=0; //濾波中間值
- for(int nLimit=(-nCenter); nLimit<=nCenter; nLimit++)
- {
- if((j+nLimit)>=0 && (j+nLimit) < nWidth ) //圖像不能超出邊界
- {
- dFilter += (double)nImageData[i*nWidth+j+nLimit] * pdKernal_1[nCenter+nLimit];
- dSum += pdKernal_1[nCenter+nLimit];
- }
- }
- nData[i*nWidth+j] = dFilter/dSum;
- }
- }
- for(i=0; i<nWidth; i++) //進行y向的高斯濾波(加權平均)
- {
- for(j=0; j<nHeight; j++)
- {
- double dSum = 0.0;
- double dFilter=0;
- for(int nLimit=(-nCenter); nLimit<=nCenter; nLimit++)
- {
- if((j+nLimit)>=0 && (j+nLimit) < nHeight) //圖像不能超出邊界
- {
- dFilter += (double)nData[(j+nLimit)*nWidth+i] * pdKernal_1[nCenter+nLimit];
- dSum += pdKernal_1[nCenter+nLimit];
- }
- }
- pCanny[j*nWidth+i] = (unsigned char)(int)dFilter/dSum;
- }
- }
3.2.2 根據二維高斯核進行濾波
1)生成二維高斯濾波係數
- //////////////////////生成一維高斯濾波係數//////////////////////////////////
- double* pdKernal_2 = new double[nWidowSize*nWidowSize]; //定義一維高斯核數組
- double dSum_2 = 0.0; //求和,進行歸一化
- ///////////////////////二維高斯函數公式////////////////////////////////////
- //// x*x+y*y ///////////////
- //// -1*-------------- ///////////////
- //// 1 2*Sigma*Sigma ///////////////
- //// ---------------- e ///////////////
- //// 2*pi*Sigma*Sigma ///////////////
- ///////////////////////////////////////////////////////////////////////////
- for(i=0; i<nWidowSize; i++)
- {
- for(int j=0; j<nWidowSize; j++)
- {
- int nDis_x = i-nCenter;
- int nDis_y = j-nCenter;
- pdKernal_2[i+j*nWidowSize]=exp(-(1/2)*(nDis_x*nDis_x+nDis_y*nDis_y)
- /(nSigma*nSigma))/(2*3.1415926*nSigma*nSigma);
- dSum_2 += pdKernal_2[i+j*nWidowSize];
- }
- }
- for(i=0; i<nWidowSize; i++)
- {
- for(int j=0; j<nWidowSize; j++) //進行歸一化
- {
- pdKernal_2[i+j*nWidowSize] /= dSum_2;
- }
- }
2)採用高斯核進行高斯濾波,濾波後的數據保存在矩陣pCanny中
- int x;
- int y;
- for(i=0; i<nHeight; i++)
- {
- for(j=0; j<nWidth; j++)
- {
- double dFilter=0.0;
- double dSum = 0.0;
- for(x=(-nCenter); x<=nCenter; x++) //行
- {
- for(y=(-nCenter); y<=nCenter; y++) //列
- {
- if( (j+x)>=0 && (j+x)<nWidth && (i+y)>=0 && (i+y)<nHeight) //判斷邊緣
- {
- dFilter += (double)nImageData [(i+y)*nWidth + (j+x)]
- * pdKernal_2[(y+nCenter)*nWidowSize+(x+nCenter)];
- dSum += pdKernal_2[(y+nCenter)*nWidowSize+(x+nCenter)];
- }
- }
- }
- pCanny[i*nWidth+j] = (unsigned char)dFilter/dSum;
- }
- }
3.3 圖像增強——計算圖像梯度及其方向
- //////////////////同樣可以用不同的檢測器/////////////////////////
- ///// P[i,j]=(S[i,j+1]-S[i,j]+S[i+1,j+1]-S[i+1,j])/2 /////
- ///// Q[i,j]=(S[i,j]-S[i+1,j]+S[i,j+1]-S[i+1,j+1])/2 /////
- /////////////////////////////////////////////////////////////////
- double* P = new double[nWidth*nHeight]; //x向偏導數
- double* Q = new double[nWidth*nHeight]; //y向偏導數
- int* M = new int[nWidth*nHeight]; //梯度幅值
- double* Theta = new double[nWidth*nHeight]; //梯度方向
- //計算x,y方向的偏導數
- for(i=0; i<(nHeight-1); i++)
- {
- for(j=0; j<(nWidth-1); j++)
- {
- P[i*nWidth+j] = (double)(pCanny[i*nWidth + min(j+1, nWidth-1)] - pCanny[i*nWidth+j] + pCanny[min(i+1, nHeight-1)*nWidth+min(j+1, nWidth-1)] - pCanny[min(i+1, nHeight-1)*nWidth+j])/2;
- Q[i*nWidth+j] = (double)(pCanny[i*nWidth+j] - pCanny[min(i+1, nHeight-1)*nWidth+j] + pCanny[i*nWidth+min(j+1, nWidth-1)] - pCanny[min(i+1, nHeight-1)*nWidth+min(j+1, nWidth-1)])/2;
- }
- }
- //計算梯度幅值和梯度的方向
- for(i=0; i<nHeight; i++)
- {
- for(j=0; j<nWidth; j++)
- {
- M[i*nWidth+j] = (int)(sqrt(P[i*nWidth+j]*P[i*nWidth+j] + Q[i*nWidth+j]*Q[i*nWidth+j])+0.5);
- Theta[i*nWidth+j] = atan2(Q[i*nWidth+j], P[i*nWidth+j]) * 57.3;
- if(Theta[i*nWidth+j] < 0)
- Theta[i*nWidth+j] += 360; //將這個角度轉換到0~360範圍
- }
- }
3.4 非極大值抑制
根據上文所述的工作原理,這部分首先需要求解每個像素點在其鄰域內的梯度方向的兩個灰度值,然後判斷是否爲潛在的邊緣,如果不是則將該點灰度值設置爲0.
首先定義相關的參數如下:
- unsigned char* N = new unsigned char[nWidth*nHeight]; //非極大值抑制結果
- int g1=0, g2=0, g3=0, g4=0; //用於進行插值,得到亞像素點座標值
- double dTmp1=0.0, dTmp2=0.0; //保存兩個亞像素點插值得到的灰度數據
- double dWeight=0.0; //插值的權重
- for(i=0; i<nWidth; i++)
- {
- N[i] = 0;
- N[(nHeight-1)*nWidth+i] = 0;
- }
- for(j=0; j<nHeight; j++)
- {
- N[j*nWidth] = 0;
- N[j*nWidth+(nWidth-1)] = 0;
- }
- for(i=1; i<(nWidth-1); i++)
- {
- for(j=1; j<(nHeight-1); j++)
- {
- int nPointIdx = i+j*nWidth; //當前點在圖像數組中的索引值
- if(M[nPointIdx] == 0)
- N[nPointIdx] = 0; //如果當前梯度幅值爲0,則不是局部最大對該點賦爲0
- else
- {
- ////////首先判斷屬於那種情況,然後根據情況插值///////
- ////////////////////第一種情況///////////////////////
- ///////// g1 g2 /////////////
- ///////// C /////////////
- ///////// g3 g4 /////////////
- /////////////////////////////////////////////////////
- if( ((Theta[nPointIdx]>=90)&&(Theta[nPointIdx]<135)) ||
- ((Theta[nPointIdx]>=270)&&(Theta[nPointIdx]<315)))
- {
- //////根據斜率和四個中間值進行插值求解
- g1 = M[nPointIdx-nWidth-1];
- g2 = M[nPointIdx-nWidth];
- g3 = M[nPointIdx+nWidth];
- g4 = M[nPointIdx+nWidth+1];
- dWeight = fabs(P[nPointIdx])/fabs(Q[nPointIdx]); //反正切
- dTmp1 = g1*dWeight+g2*(1-dWeight);
- dTmp2 = g4*dWeight+g3*(1-dWeight);
- }
- ////////////////////第二種情況///////////////////////
- ///////// g1 /////////////
- ///////// g2 C g3 /////////////
- ///////// g4 /////////////
- /////////////////////////////////////////////////////
- else if( ((Theta[nPointIdx]>=135)&&(Theta[nPointIdx]<180)) ||
- ((Theta[nPointIdx]>=315)&&(Theta[nPointIdx]<360)))
- {
- g1 = M[nPointIdx-nWidth-1];
- g2 = M[nPointIdx-1];
- g3 = M[nPointIdx+1];
- g4 = M[nPointIdx+nWidth+1];
- dWeight = fabs(Q[nPointIdx])/fabs(P[nPointIdx]); //正切
- dTmp1 = g2*dWeight+g1*(1-dWeight);
- dTmp2 = g4*dWeight+g3*(1-dWeight);
- }
- ////////////////////第三種情況///////////////////////
- ///////// g1 g2 /////////////
- ///////// C /////////////
- ///////// g4 g3 /////////////
- /////////////////////////////////////////////////////
- else if( ((Theta[nPointIdx]>=45)&&(Theta[nPointIdx]<90)) ||
- ((Theta[nPointIdx]>=225)&&(Theta[nPointIdx]<270)))
- {
- g1 = M[nPointIdx-nWidth];
- g2 = M[nPointIdx-nWidth+1];
- g3 = M[nPointIdx+nWidth];
- g4 = M[nPointIdx+nWidth-1];
- dWeight = fabs(P[nPointIdx])/fabs(Q[nPointIdx]); //反正切
- dTmp1 = g2*dWeight+g1*(1-dWeight);
- dTmp2 = g3*dWeight+g4*(1-dWeight);
- }
- ////////////////////第四種情況///////////////////////
- ///////// g1 /////////////
- ///////// g4 C g2 /////////////
- ///////// g3 /////////////
- /////////////////////////////////////////////////////
- else if( ((Theta[nPointIdx]>=0)&&(Theta[nPointIdx]<45)) ||
- ((Theta[nPointIdx]>=180)&&(Theta[nPointIdx]<225)))
- {
- g1 = M[nPointIdx-nWidth+1];
- g2 = M[nPointIdx+1];
- g3 = M[nPointIdx+nWidth-1];
- g4 = M[nPointIdx-1];
- dWeight = fabs(Q[nPointIdx])/fabs(P[nPointIdx]); //正切
- dTmp1 = g1*dWeight+g2*(1-dWeight);
- dTmp2 = g3*dWeight+g4*(1-dWeight);
- }
- }
- //////////進行局部最大值判斷,並寫入檢測結果////////////////
- if((M[nPointIdx]>=dTmp1) && (M[nPointIdx]>=dTmp2))
- N[nPointIdx] = 128;
- else
- N[nPointIdx] = 0;
- }
- }
3.5雙閾值檢測實現
1)定義相應參數如下
- int nHist[1024];
- int nEdgeNum; //可能邊界數
- int nMaxMag = 0; //最大梯度數
- int nHighCount;
2)構造灰度圖的統計直方圖,根據上文梯度幅值的計算公式可知,最大的梯度幅值爲:
- for(i=0;i<1024;i++)
- nHist[i] = 0;
- for(i=0; i<nHeight; i++)
- {
- for(j=0; j<nWidth; j++)
- {
- if(N[i*nWidth+j]==128)
- nHist[M[i*nWidth+j]]++;
- }
- }
3)獲取最大梯度幅值及潛在邊緣點個數
- nEdgeNum = nHist[0];
- nMaxMag = 0; //獲取最大的梯度值
- for(i=1; i<1024; i++) //統計經過“非最大值抑制”後有多少像素
- {
- if(nHist[i] != 0) //梯度爲0的點是不可能爲邊界點的
- {
- nMaxMag = i;
- }
- nEdgeNum += nHist[i]; //經過non-maximum suppression後有多少像素
- }
4)計算兩個閾值
- double dRatHigh = 0.79;
- double dThrHigh;
- double dThrLow;
- double dRatLow = 0.5;
- nHighCount = (int)(dRatHigh * nEdgeNum + 0.5);
- j=1;
- nEdgeNum = nHist[1];
- while((j<(nMaxMag-1)) && (nEdgeNum < nHighCount))
- {
- j++;
- nEdgeNum += nHist[j];
- }
- dThrHigh = j; //高閾值
- dThrLow = (int)((dThrHigh) * dRatLow + 0.5); //低閾值
這段代碼的意思是,按照灰度值從低到高的順序,選取前79%個灰度值中的最大的灰度值爲高閾值,低閾值大約爲高閾值的一半。這是根據經驗數據的來的,至於更好地參數選取方法,作者後面會另文研究。
5)進行邊緣檢測
- SIZE sz;
- sz.cx = nWidth;
- sz.cy = nHeight;
- for(i=0; i<nHeight; i++)
- {
- for(j=0; j<nWidth; j++)
- {
- if((N[i*nWidth+j]==128) && (M[i*nWidth+j] >= dThrHigh))
- {
- N[i*nWidth+j] = 255;
- TraceEdge(i, j, dThrLow, N, M, sz);
- }
- }
- }
- //將還沒有設置爲邊界的點設置爲非邊界點
- for(i=0; i<nHeight; i++)
- {
- for(j=0; j<nWidth; j++)
- {
- if(N[i*nWidth+j] != 255)
- {
- N[i*nWidth+j] = 0 ; // 設置爲非邊界點
- }
- }
- }
其中TraceEdge函數爲一個嵌套函數,用於在每個像素點的鄰域內尋找滿足條件的點。其實現代碼如下:
- void TraceEdge(int y, int x, int nThrLow, LPBYTE pResult, int *pMag, SIZE sz)
- {
- //對8鄰域像素進行查詢
- int xNum[8] = {1,1,0,-1,-1,-1,0,1};
- int yNum[8] = {0,1,1,1,0,-1,-1,-1};
- LONG yy,xx,k;
- for(k=0;k<8;k++)
- {
- yy = y+yNum[k];
- xx = x+xNum[k];
- if(pResult[yy*sz.cx+xx]==128 && pMag[yy*sz.cx+xx]>=nThrLow )
- {
- //該點設爲邊界點
- pResult[yy*sz.cx+xx] = 255;
- //以該點爲中心再進行跟蹤
- TraceEdge(yy,xx,nThrLow,pResult,pMag,sz);
- }
- }
- }
以上就從原理上實現了整個Canny算法。其檢測效果如圖4所示。注意:以上代碼僅爲作者理解所爲,目的是驗證本人對算法的理解,暫時沒有考慮到代碼的執行效率的問題。
4、擴展
對比圖4和圖5可以發現,作者自己實現的邊緣檢測效果沒有OpenCV的好,具體體現在:1)丟失了一些真的邊緣;2)增加了一些假的邊緣。
經過對整個算法的來回檢查,初步推斷主要的問題可能在於在進行灰度矩陣梯度幅值計算式所採用的模板算子性能不是太好,還有就是關於兩個閾值的選取方法。關於這兩個方面的改進研究,後文闡述。5、總結
本文是過去一段時間,對圖像邊緣檢測方法學習的總結。主要闡述了Canny算法的工作原理,實現過程,在此基礎上基於VC6.0實現了該算法,並給出了效果圖。最後,通過對比發現本文的實現方法雖然能夠實現邊緣檢測,但效果還不是很理想,今後將在閾值選取原則和梯度幅值算子兩個方面進行改進。