一,噪聲的介紹和卷積
二、各個濾波函數的解讀,定義與源代碼
三、綜合所有的濾波,加滑動條控制核大小來blur
四、Matlab 輔助表達
一,噪聲的介紹
圖像噪聲是圖像在攝取或傳輸時所受的隨機信號干擾,是圖像中各種妨礙人們對其信息接受的因素。很多時候將圖像噪聲看成是多維隨機過程,因而描述噪聲的方法完全可以借用隨機過程的描述,即用其概率分佈函數和概率密度分佈函數。我們常看到的就是淑豔噪聲 salt&pepper,這裏對噪聲有理論的介紹http://blog.csdn.net/qq_20823641/article/details/51513567,可以學習一下。
二、各個濾波函數的解讀,定義與源代碼
這裏通說噪聲分爲線性和非線性,官方中給了BoxBlur,Blur,GaussianBlur,medianBlur,bilateralBlur,其中方框濾波和均值濾波有相同有不同,準備說均值濾波是方框濾波的特殊,從函數BoxBlur與Blur也可以看出,下面的圖也是一種解釋
濾波器:可以說濾波器是一個包含加權係數的窗口,當使用這個濾波器平滑處理圖像時,就把這個窗口放到圖像上,透過這個窗口來看圖像,有時候也叫做核函數 kernel,相信經常看見這個詞語。
其中在看到這個窗口的時候我建議大家看看卷積的概念,http://baike.baidu.com/link?url=lQxRSr-C41IoYNqYyOwXE1FfsufcuptxFhBE2AJexoL9bdhSVOaRppD7f4r8T8C5DAR8ggGgQVXrgMmHr-PfJq
<span style="font-size:18px;">C++: void boxFilter(InputArray src,OutputArray dst, int ddepth, Size ksize, Point anchor=Point(-1,-1), boolnormalize=true, int borderType=BORDER_DEFAULT ) </span>
- 第一個參數,InputArray類型的src,輸入圖像,即源圖像,填Mat類的對象即可。該函數對通道是獨立處理的,且可以處理任意通道數的圖片,但需要注意,待處理的圖片深度應該爲CV_8U, CV_16U, CV_16S, CV_32F 以及 CV_64F之一。
- 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。
- 第三個參數,int類型的ddepth,輸出圖像的深度,-1代表使用原圖深度,即src.depth()。
- 第四個參數,Size類型(對Size類型稍後有講解)的ksize,內核的大小。一般這樣寫Size( w,h )來表示內核的大小( 其中,w 爲像素寬度, h爲像素高度)。Size(3,3)就表示3x3的核大小,Size(5,5)就表示5x5的核大小
- 第五個參數,Point類型的anchor,表示錨點(即被平滑的那個點),注意他有默認值Point(-1,-1)。如果這個點座標是負值的話,就表示取核的中心爲錨點,所以默認值Point(-1,-1)表示這個錨點在覈的中心。
- 第六個參數,bool類型的normalize,默認值爲true,一個標識符,表示內核是否被其區域歸一化(normalized)了。
- 第七個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。有默認值BORDER_DEFAULT,我們一般不去管它
<span style="font-size:18px;">void cv::blur( InputArray src, OutputArray dst,
Size ksize, Point anchor, int borderType )
{
boxFilter( src, dst, -1, ksize, anchor, true, borderType );
} </span>
- 第一個參數,InputArray類型的src,輸入圖像,即源圖像,填Mat類的對象即可。該函數對通道是獨立處理的,且可以處理任意通道數的圖片,但需要注意,待處理的圖片深度應該爲CV_8U, CV_16U, CV_16S, CV_32F 以及 CV_64F之一。
- 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。比如可以用Mat::Clone,以源圖片爲模板,來初始化得到如假包換的目標圖。
- 第三個參數,Size類型(對Size類型稍後有講解)的ksize,內核的大小。一般這樣寫Size( w,h )來表示內核的大小( 其中,w 爲像素寬度, h爲像素高度)。Size(3,3)就表示3x3的核大小,Size(5,5)就表示5x5的核大小
- 第四個參數,Point類型的anchor,表示錨點(即被平滑的那個點),注意他有默認值Point(-1,-1)。如果這個點座標是負值的話,就表示取核的中心爲錨點,所以默認值Point(-1,-1)表示這個錨點在覈的中心。
- 第五個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。有默認值BORDER_DEFAULT,我們一般不去管它。
<span style="font-size:18px;">cv::Ptr<cv::FilterEngine> cv::createBoxFilter( int srcType, int dstType, Size ksize,
Point anchor, bool normalize, int borderType )
{
int sdepth = CV_MAT_DEPTH(srcType);
int cn = CV_MAT_CN(srcType), sumType = CV_64F;
if( sdepth <= CV_32S && (!normalize ||
ksize.width*ksize.height <= (sdepth == CV_8U ? (1<<23) :
sdepth == CV_16U ? (1 << 15) : (1 << 16))) )
sumType = CV_32S;
sumType = CV_MAKETYPE( sumType, cn );
Ptr<BaseRowFilter> rowFilter = getRowSumFilter(srcType, sumType, ksize.width, anchor.x );
Ptr<BaseColumnFilter> columnFilter = getColumnSumFilter(sumType,
dstType, ksize.height, anchor.y, normalize ? 1./(ksize.width*ksize.height) : 1);
return Ptr<FilterEngine>(new FilterEngine(Ptr<BaseFilter>(0), rowFilter, columnFilter,
srcType, dstType, sumType, borderType ));
}</span>
<span style="font-size:18px;">C++: void GaussianBlur(InputArray src,OutputArray dst, Size ksize, double sigmaX, double sigmaY=0, intborderType=BORDER_DEFAULT ) </span>
- 第一個參數,InputArray類型的src,輸入圖像,即源圖像,填Mat類的對象即可。它可以是單獨的任意通道數的圖片,但需要注意,圖片深度應該爲CV_8U,CV_16U, CV_16S, CV_32F 以及 CV_64F之一。
- 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。比如可以用Mat::Clone,以源圖片爲模板,來初始化得到如假包換的目標圖。
- 第三個參數,Size類型的ksize高斯內核的大小。其中ksize.width和ksize.height可以不同,但他們都必須爲正數和奇數。或者,它們可以是零的,它們都是由sigma計算而來。
- 第四個參數,double類型的sigmaX,表示高斯核函數在X方向的的標準偏差。
- 第五個參數,double類型的sigmaY,表示高斯核函數在Y方向的的標準偏差。若sigmaY爲零,就將它設爲sigmaX,如果sigmaX和sigmaY都是0,那麼就由ksize.width和ksize.height計算出來。
- 爲了結果的正確性着想,最好是把第三個參數Size,第四個參數sigmaX和第五個參數sigmaY全部指定到。
- 第六個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。有默認值BORDER_DEFAULT,我們一般不去管它
<span style="font-size:18px;">C++: void medianBlur(InputArray src,OutputArray dst, int ksize) </span>
- 第一個參數,InputArray類型的src,函數的輸入參數,填1、3或者4通道的Mat類型的圖像;當ksize爲3或者5的時候,圖像深度需爲CV_8U,CV_16U,或CV_32F其中之一,而對於較大孔徑尺寸的圖片,它只能是CV_8U。
- 第二個參數,OutputArray類型的dst,即目標圖像,函數的輸出參數,需要和源圖片有一樣的尺寸和類型。我們可以用Mat::Clone,以源圖片爲模板,來初始化得到如假包換的目標圖。
- 第三個參數,int類型的ksize,孔徑的線性尺寸(aperture linear size),注意這個參數必須是大於1的奇數,比如:3,5,7,9 ...
<span style="font-size:18px;">C++: void bilateralFilter(InputArray src, OutputArraydst, int d, double sigmaColor, double sigmaSpace, int borderType=BORDER_DEFAULT) </span>
- 第一個參數,InputArray類型的src,輸入圖像,即源圖像,需要爲8位或者浮點型單通道、三通道的圖像。
- 第二個參數,OutputArray類型的dst,即目標圖像,需要和源圖片有一樣的尺寸和類型。
- 第三個參數,int類型的d,表示在過濾過程中每個像素鄰域的直徑。如果這個值我們設其爲非正數,那麼OpenCV會從第五個參數sigmaSpace來計算出它來。
- 第四個參數,double類型的sigmaColor,顏色空間濾波器的sigma值。這個參數的值越大,就表明該像素鄰域內有更寬廣的顏色會被混合到一起,產生較大的半相等顏色區域。
- 第五個參數,double類型的sigmaSpace座標空間中濾波器的sigma值,座標空間的標註方差。他的數值越大,意味着越遠的像素會相互影響,從而使更大的區域足夠相似的顏色獲取相同的顏色。當d>0,d指定了鄰域大小且與sigmaSpace無關。否則,d正比於sigmaSpace。
- 第六個參數,int類型的borderType,用於推斷圖像外部像素的某種邊界模式。注意它有默認值BORDER_DEFAULT。
<span style="font-size:18px;">#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <iostream>
using namespace std;
using namespace cv;
Mat g_srcImage,g_dstImage1,g_dstImage2,g_dstImage3,g_dstImage4,g_dstImage5;
int g_nBoxFilterValue=6; //方框濾波內核值
int g_nMeanBlurValue=10; //均值濾波內核值
int g_nGaussianBlurValue=6; //高斯濾波內核值
int g_nMedianBlurValue=10; //中值濾波參數值
int g_nBilateralFilterValue=10; //雙邊濾波參數值
static void on_BoxFilter(int, void *); //方框濾波
static void on_MeanBlur(int, void *); //均值塊濾波器
static void on_GaussianBlur(int, void *); //高斯濾波器
static void on_MedianBlur(int, void *); //中值濾波器
static void on_BilateralFilter(int, void *); //雙邊濾波器
int main( )
{
g_srcImage = imread( "lena.jpg", 1 );
g_dstImage1 = g_srcImage.clone( );
g_dstImage2 = g_srcImage.clone( );
g_dstImage3 = g_srcImage.clone( );
g_dstImage4 = g_srcImage.clone( );
g_dstImage5 = g_srcImage.clone( );
namedWindow("【<0>原圖窗口】", 1);
imshow("【<0>原圖窗口】",g_srcImage);
namedWindow("【<1>方框濾波】", 1);
createTrackbar("內核值:", "【<1>方框濾波】",&g_nBoxFilterValue, 50,on_BoxFilter );
on_MeanBlur(g_nBoxFilterValue,0);
imshow("【<1>方框濾波】", g_dstImage1);
namedWindow("【<2>均值濾波】", 1);
createTrackbar("內核值:", "【<2>均值濾波】",&g_nMeanBlurValue, 50,on_MeanBlur );
on_MeanBlur(g_nMeanBlurValue,0);</span>
<span style="font-size:18px;"> namedWindow("【<3>高斯濾波】", 1);
createTrackbar("內核值:", "【<3>高斯濾波】",&g_nGaussianBlurValue, 50,on_GaussianBlur );
on_GaussianBlur(g_nGaussianBlurValue,0);
namedWindow("【<4>中值濾波】", 1);
createTrackbar("參數值:", "【<4>中值濾波】",&g_nMedianBlurValue, 50,on_MedianBlur );
on_MedianBlur(g_nMedianBlurValue,0);
namedWindow("【<5>雙邊濾波】", 1);
createTrackbar("參數值:", "【<5>雙邊濾波】",&g_nBilateralFilterValue, 50,on_BilateralFilter);
on_BilateralFilter(g_nBilateralFilterValue,0);
return 0;
}
static void on_BoxFilter(int, void *)
{
boxFilter( g_srcImage, g_dstImage1, -1,Size( g_nBoxFilterValue+1, g_nBoxFilterValue+1));
imshow("【<1>方框濾波】", g_dstImage1);
}
static void on_MeanBlur(int, void *)
{
blur( g_srcImage, g_dstImage2, Size( g_nMeanBlurValue+1, g_nMeanBlurValue+1), Point(-1,-1));
imshow("【<2>均值濾波】", g_dstImage2);
}
static void on_GaussianBlur(int, void *)
{
GaussianBlur( g_srcImage, g_dstImage3, Size( g_nGaussianBlurValue*2+1, g_nGaussianBlurValue*2+1 ), 0, 0);
imshow("【<3>高斯濾波】", g_dstImage3);
}
static void on_MedianBlur(int, void *)
{
medianBlur ( g_srcImage, g_dstImage4, g_nMedianBlurValue*2+1 );
imshow("【<4>中值濾波】", g_dstImage4);
}
static void on_BilateralFilter(int, void *)
{
bilateralFilter ( g_srcImage, g_dstImage5, g_nBilateralFilterValue, g_nBilateralFilterValue*2, g_nBilateralFilterValue/2 );
imshow("【<5>雙邊濾波】", g_dstImage5);
}
</span>
<span style="font-size:18px;">h=imread('d:\lena.jpg');
A=fspecial('average',3);
output1 = imfilter(h, A, 'conv', 'replicate');
A=fspecial('gaussian',3);
output2 = imfilter(h, A, 'conv', 'replicate');
output3 = medfilt2(h, [3, 3]);</span>
clear all;
close all;
clc;
img=imread('lena.jpg');
img=mat2gray(img);
[m n]=size(img);
imshow(img);
r=10;
imgn=zeros(m+2*r+1,n+2*r+1);
imgn(r+1:m+r,r+1:n+r)=img;
imgn(1:r,r+1:n+r)=img(1:r,1:n);
imgn(1:m+r,n+r+1:n+2*r+1)=imgn(1:m+r,n:n+r);
imgn(m+r+1:m+2*r+1,r+1:n+2*r+1)=imgn(m:m+r,r+1:n+2*r+1);
imgn(1:m+2*r+1,1:r)=imgn(1:m+2*r+1,r+1:2*r);
sigma_d=2;
sigma_r=0.1;
[x,y] = meshgrid(-r:r,-r:r);
w1=exp(-(x.^2+y.^2)/(2*sigma_d^2));
for i=r+1:m+r
for j=r+1:n+r
w2=exp(-(imgn(i-r:i+r,j-r:j+r)-imgn(i,j)).^2/(2*sigma_r^2));
w=w1.*w2;
s=imgn(i-r:i+r,j-r:j+r).*w;
imgn(i,j)=sum(sum(s))/sum(sum(w));
end
end
figure;
imshow(mat2gray(imgn(r+1:m+r,r+1:n+r)));
還有另外一個函數調用的方法可以參考這裏http://blog.csdn.net/abcjennifer/article/details/7616663