Opencv圖像識別從零到精通(14)-----線性濾波和非線性濾波

    一,噪聲的介紹和卷積

   二、各個濾波函數的解讀,定義與源代碼

   三、綜合所有的濾波,加滑動條控制核大小來blur

   四、Matlab 輔助表達  

    一,噪聲的介紹

    圖像噪聲是圖像在攝取或傳輸時所受的隨機信號干擾,是圖像中各種妨礙人們對其信息接受的因素。很多時候將圖像噪聲看成是多維隨機過程,因而描述噪聲的方法完全可以借用隨機過程的描述,即用其概率分佈函數和概率密度分佈函數。我們常看到的就是淑豔噪聲 salt&pepper,這裏對噪聲有理論的介紹http://blog.csdn.net/qq_20823641/article/details/51513567,可以學習一下。

二、各個濾波函數的解讀,定義與源代碼

      這裏通說噪聲分爲線性和非線性,官方中給了BoxBlur,Blur,GaussianBlur,medianBlur,bilateralBlur,其中方框濾波和均值濾波有相同有不同,準備說均值濾波是方框濾波的特殊,從函數BoxBlur與Blur也可以看出,下面的圖也是一種解釋


濾波器:可以說濾波器是一個包含加權係數的窗口,當使用這個濾波器平滑處理圖像時,就把這個窗口放到圖像上,透過這個窗口來看圖像,有時候也叫做核函數 kernel,相信經常看見這個詞語。

其中在看到這個窗口的時候我建議大家看看卷積的概念,http://baike.baidu.com/link?url=lQxRSr-C41IoYNqYyOwXE1FfsufcuptxFhBE2AJexoL9bdhSVOaRppD7f4r8T8C5DAR8ggGgQVXrgMmHr-PfJq

      

<span style="font-size:18px;">C++: void boxFilter(InputArray src,OutputArray dst, int ddepth, Size ksize, Point anchor=Point(-1,-1), boolnormalize=true, int borderType=BORDER_DEFAULT )  </span>

  • 第一個參數,InputArray類型的src,輸入圖像,即源圖像,填Mat類的對象即可。該函數對通道是獨立處理的,且可以處理任意通道數的圖片,但需要注意,待處理的圖片深度應該爲CV_8U, CV_16U, CV_16S, CV_32F 以及 CV_64F之一。
  • 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。
  • 第三個參數,int類型的ddepth,輸出圖像的深度,-1代表使用原圖深度,即src.depth()。
  • 第四個參數,Size類型(對Size類型稍後有講解)的ksize,內核的大小。一般這樣寫Size( w,h )來表示內核的大小( 其中,w 爲像素寬度, h爲像素高度)。Size(3,3)就表示3x3的核大小,Size(5,5)就表示5x5的核大小
  • 第五個參數,Point類型的anchor,表示錨點(即被平滑的那個點),注意他有默認值Point(-1,-1)。如果這個點座標是負值的話,就表示取核的中心爲錨點,所以默認值Point(-1,-1)表示這個錨點在覈的中心。
  • 第六個參數,bool類型的normalize,默認值爲true,一個標識符,表示內核是否被其區域歸一化(normalized)了。
  • 第七個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。有默認值BORDER_DEFAULT,我們一般不去管它
看到上面的方框濾波的時候,不用太多想,因爲我們一般用的是均值濾波,方框濾波是一個過度,同時看下面的均值濾波的時候,還會看到它是調用了boFilter的
<span style="font-size:18px;">void cv::blur( InputArray src, OutputArray dst,  
           Size ksize, Point anchor, int borderType )  
{  
    boxFilter( src, dst, -1, ksize, anchor, true, borderType );  
}  </span>
  • 第一個參數,InputArray類型的src,輸入圖像,即源圖像,填Mat類的對象即可。該函數對通道是獨立處理的,且可以處理任意通道數的圖片,但需要注意,待處理的圖片深度應該爲CV_8U, CV_16U, CV_16S, CV_32F 以及 CV_64F之一。
  • 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。比如可以用Mat::Clone,以源圖片爲模板,來初始化得到如假包換的目標圖。
  • 第三個參數,Size類型(對Size類型稍後有講解)的ksize,內核的大小。一般這樣寫Size( w,h )來表示內核的大小( 其中,w 爲像素寬度, h爲像素高度)。Size(3,3)就表示3x3的核大小,Size(5,5)就表示5x5的核大小
  • 第四個參數,Point類型的anchor,表示錨點(即被平滑的那個點),注意他有默認值Point(-1,-1)。如果這個點座標是負值的話,就表示取核的中心爲錨點,所以默認值Point(-1,-1)表示這個錨點在覈的中心。
  • 第五個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。有默認值BORDER_DEFAULT,我們一般不去管它。

<span style="font-size:18px;">cv::Ptr<cv::FilterEngine> cv::createBoxFilter( int srcType, int dstType, Size ksize,  
                    Point anchor, bool normalize, int borderType )  
{  
    int sdepth = CV_MAT_DEPTH(srcType);  
    int cn = CV_MAT_CN(srcType), sumType = CV_64F;  
    if( sdepth <= CV_32S && (!normalize ||  
        ksize.width*ksize.height <= (sdepth == CV_8U ? (1<<23) :  
            sdepth == CV_16U ? (1 << 15) : (1 << 16))) )  
        sumType = CV_32S;  
    sumType = CV_MAKETYPE( sumType, cn );  
    Ptr<BaseRowFilter> rowFilter = getRowSumFilter(srcType, sumType, ksize.width, anchor.x );  
    Ptr<BaseColumnFilter> columnFilter = getColumnSumFilter(sumType,  
        dstType, ksize.height, anchor.y, normalize ? 1./(ksize.width*ksize.height) : 1);  
  
    return Ptr<FilterEngine>(new FilterEngine(Ptr<BaseFilter>(0), rowFilter, columnFilter,  
           srcType, dstType, sumType, borderType ));  
}</span>
高斯函數主要就是看下面這個函數,高斯函數,我只是想說它可能是圖像處理一輩子離不開的函數,因爲他太好用,在以後的頻域學習也會那麼好用

<span style="font-size:18px;">C++: void GaussianBlur(InputArray src,OutputArray dst, Size ksize, double sigmaX, double sigmaY=0, intborderType=BORDER_DEFAULT )  </span>

  • 第一個參數,InputArray類型的src,輸入圖像,即源圖像,填Mat類的對象即可。它可以是單獨的任意通道數的圖片,但需要注意,圖片深度應該爲CV_8U,CV_16U, CV_16S, CV_32F 以及 CV_64F之一。
  • 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。比如可以用Mat::Clone,以源圖片爲模板,來初始化得到如假包換的目標圖。
  • 第三個參數,Size類型的ksize高斯內核的大小。其中ksize.width和ksize.height可以不同,但他們都必須爲正數和奇數。或者,它們可以是零的,它們都是由sigma計算而來。
  • 第四個參數,double類型的sigmaX,表示高斯核函數在X方向的的標準偏差。
  • 第五個參數,double類型的sigmaY,表示高斯核函數在Y方向的的標準偏差。若sigmaY爲零,就將它設爲sigmaX,如果sigmaX和sigmaY都是0,那麼就由ksize.width和ksize.height計算出來。
  • 爲了結果的正確性着想,最好是把第三個參數Size,第四個參數sigmaX和第五個參數sigmaY全部指定到。
  • 第六個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。有默認值BORDER_DEFAULT,我們一般不去管它
高斯的源代碼還是很長的,因爲後面還有很多的東西,所以這裏不展示,想看的可以到這裏去http://blog.csdn.net/xiaowei_cqu/article/details/7785365
<span style="font-size:18px;">C++: void medianBlur(InputArray src,OutputArray dst, int ksize)  </span>

  • 第一個參數,InputArray類型的src,函數的輸入參數,填1、3或者4通道的Mat類型的圖像;當ksize爲3或者5的時候,圖像深度需爲CV_8U,CV_16U,或CV_32F其中之一,而對於較大孔徑尺寸的圖片,它只能是CV_8U。
  • 第二個參數,OutputArray類型的dst,即目標圖像,函數的輸出參數,需要和源圖片有一樣的尺寸和類型。我們可以用Mat::Clone,以源圖片爲模板,來初始化得到如假包換的目標圖。
  • 第三個參數,int類型的ksize,孔徑的線性尺寸(aperture linear size),注意這個參數必須是大於1的奇數,比如:3,5,7,9 ...
源代碼可以到這裏看,也可以到\opencv\sources\modules\imgproc\src\smooth.cpp的第1653行開始,不過看了也沒用,精華沒有在源代碼裏面寫出來,還要再深入,有興趣的可以看看http://blog.csdn.net/poem_qianmo/article/details/23184547
雙邊濾波我是很喜歡的,因爲我們都知道smoothing的時候很blur,同時丟失了很多的細節,特別是邊緣,那這個以後我對提取邊緣輪廓的時候就會感到很不好,但是雙邊濾波同時達到了要求,這裏是有關i他的理論介紹http://blog.csdn.net/qq_20823641/article/details/51533420
<span style="font-size:18px;">C++: void bilateralFilter(InputArray src, OutputArraydst, int d, double sigmaColor, double sigmaSpace, int borderType=BORDER_DEFAULT)  </span>

  • 第一個參數,InputArray類型的src,輸入圖像,即源圖像,需要爲8位或者浮點型單通道、三通道的圖像。
  • 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。
  • 第三個參數,int類型的d,表示在過濾過程中每個像素鄰域的直徑。如果這個值我們設其爲非正數,那麼OpenCV會從第五個參數sigmaSpace來計算出它來。
  • 第四個參數,double類型的sigmaColor,顏色空間濾波器的sigma值。這個參數的值越大,就表明該像素鄰域內有更寬廣的顏色會被混合到一起,產生較大的半相等顏色區域。
  • 第五個參數,double類型的sigmaSpace座標空間中濾波器的sigma值,座標空間的標註方差。他的數值越大,意味着越遠的像素會相互影響,從而使更大的區域足夠相似的顏色獲取相同的顏色。當d>0,d指定了鄰域大小且與sigmaSpace無關。否則,d正比於sigmaSpace。
  • 第六個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。注意它有默認值BORDER_DEFAULT。
三、綜合所有的濾波,加滑動條控制核大小來blur
<span style="font-size:18px;">#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <iostream>
using namespace std;
using namespace cv;
Mat g_srcImage,g_dstImage1,g_dstImage2,g_dstImage3,g_dstImage4,g_dstImage5;
int g_nBoxFilterValue=6;  //方框濾波內核值
int g_nMeanBlurValue=10;  //均值濾波內核值
int g_nGaussianBlurValue=6;  //高斯濾波內核值
int g_nMedianBlurValue=10;  //中值濾波參數值
int g_nBilateralFilterValue=10;  //雙邊濾波參數值
static void on_BoxFilter(int, void *);		//方框濾波
static void on_MeanBlur(int, void *);		//均值塊濾波器
static void on_GaussianBlur(int, void *);			//高斯濾波器
static void on_MedianBlur(int, void *);			//中值濾波器
static void on_BilateralFilter(int, void *);			//雙邊濾波器
int main(   )
{
	g_srcImage = imread( "lena.jpg", 1 );
	g_dstImage1 = g_srcImage.clone( );
	g_dstImage2 = g_srcImage.clone( );
	g_dstImage3 = g_srcImage.clone( );
	g_dstImage4 = g_srcImage.clone( );
	g_dstImage5 = g_srcImage.clone( );
	namedWindow("【<0>原圖窗口】", 1);
	imshow("【<0>原圖窗口】",g_srcImage);
	namedWindow("【<1>方框濾波】", 1);
	createTrackbar("內核值:", "【<1>方框濾波】",&g_nBoxFilterValue, 50,on_BoxFilter );
	on_MeanBlur(g_nBoxFilterValue,0);
	imshow("【<1>方框濾波】", g_dstImage1);
	namedWindow("【<2>均值濾波】", 1);
	createTrackbar("內核值:", "【<2>均值濾波】",&g_nMeanBlurValue, 50,on_MeanBlur );
	on_MeanBlur(g_nMeanBlurValue,0);</span>

<span style="font-size:18px;">	namedWindow("【<3>高斯濾波】", 1);
	createTrackbar("內核值:", "【<3>高斯濾波】",&g_nGaussianBlurValue, 50,on_GaussianBlur );
	on_GaussianBlur(g_nGaussianBlurValue,0);
	namedWindow("【<4>中值濾波】", 1);
	createTrackbar("參數值:", "【<4>中值濾波】",&g_nMedianBlurValue, 50,on_MedianBlur );
	on_MedianBlur(g_nMedianBlurValue,0);
	namedWindow("【<5>雙邊濾波】", 1);
	createTrackbar("參數值:", "【<5>雙邊濾波】",&g_nBilateralFilterValue, 50,on_BilateralFilter);
	on_BilateralFilter(g_nBilateralFilterValue,0);
	return 0;
}
static void on_BoxFilter(int, void *)
{
       boxFilter( g_srcImage, g_dstImage1, -1,Size( g_nBoxFilterValue+1, g_nBoxFilterValue+1));
       imshow("【<1>方框濾波】", g_dstImage1);
}

static void on_MeanBlur(int, void *)
{
	blur( g_srcImage, g_dstImage2, Size( g_nMeanBlurValue+1, g_nMeanBlurValue+1), Point(-1,-1));
	imshow("【<2>均值濾波】", g_dstImage2);

}

static void on_GaussianBlur(int, void *)
{
	GaussianBlur( g_srcImage, g_dstImage3, Size( g_nGaussianBlurValue*2+1, g_nGaussianBlurValue*2+1 ), 0, 0);
	imshow("【<3>高斯濾波】", g_dstImage3);
}

static void on_MedianBlur(int, void *)
{
	medianBlur ( g_srcImage, g_dstImage4, g_nMedianBlurValue*2+1 );
	imshow("【<4>中值濾波】", g_dstImage4);
}

static void on_BilateralFilter(int, void *)
{
	bilateralFilter ( g_srcImage, g_dstImage5, g_nBilateralFilterValue, g_nBilateralFilterValue*2, g_nBilateralFilterValue/2 );
	imshow("【<5>雙邊濾波】", g_dstImage5);
}



</span>


四、matlab輔助
<span style="font-size:18px;">h=imread('d:\lena.jpg'); 
A=fspecial('average',3); 
output1 = imfilter(h, A, 'conv', 'replicate');
A=fspecial('gaussian',3); 
output2 = imfilter(h, A, 'conv', 'replicate');
output3 = medfilt2(h, [3, 3]);</span>

clear all;
close all;
clc;

img=imread('lena.jpg');
img=mat2gray(img);
[m n]=size(img);
imshow(img);

r=10;        
imgn=zeros(m+2*r+1,n+2*r+1);
imgn(r+1:m+r,r+1:n+r)=img;
imgn(1:r,r+1:n+r)=img(1:r,1:n);                
imgn(1:m+r,n+r+1:n+2*r+1)=imgn(1:m+r,n:n+r);    
imgn(m+r+1:m+2*r+1,r+1:n+2*r+1)=imgn(m:m+r,r+1:n+2*r+1);    
imgn(1:m+2*r+1,1:r)=imgn(1:m+2*r+1,r+1:2*r);      
sigma_d=2;
sigma_r=0.1;
[x,y] = meshgrid(-r:r,-r:r);
w1=exp(-(x.^2+y.^2)/(2*sigma_d^2));     
for i=r+1:m+r
    for j=r+1:n+r        
        w2=exp(-(imgn(i-r:i+r,j-r:j+r)-imgn(i,j)).^2/(2*sigma_r^2)); 
        w=w1.*w2;
 
        s=imgn(i-r:i+r,j-r:j+r).*w;
        imgn(i,j)=sum(sum(s))/sum(sum(w));
    end 
end
figure;
imshow(mat2gray(imgn(r+1:m+r,r+1:n+r)));

還有另外一個函數調用的方法可以參考這裏http://blog.csdn.net/abcjennifer/article/details/7616663

圖像識別算法交流 QQ羣:145076161,歡迎圖像識別與圖像算法,共同學習與交流
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章