若該文爲原創文章,未經允許不得轉載
原博主博客地址:https://blog.csdn.net/qq21497936
原博主博客導航:https://blog.csdn.net/qq21497936/article/details/102478062
本文章博客地址:https://blog.csdn.net/qq21497936/article/details/104811545
各位讀者,知識無窮而人力有窮,要麼改需求,要麼找專業人士,要麼自己研究
目錄
OpenCV開發專欄
《OpenCV開發筆記(〇):使用mingw530_32編譯openCV3.4.1源碼,搭建Qt5.9.3的openCV開發環境》
《OpenCV開發筆記(三):OpenCV圖像的概念和基本操作》
《OpenCV開發筆記(四):OpenCV圖片和視頻數據的讀取與存儲》
《OpenCV開發筆記(五):OpenCV讀取與操作攝像頭》
《OpenCV開發筆記(六):OpenCV基礎數據結構、顏色轉換函數和顏色空間》
《OpenCV開發筆記(八):OpenCV常用操作之計時、縮放、旋轉、鏡像》
《OpenCV開發筆記(九):OpenCV區域圖像(ROI)和整體、局部圖像混合》
《OpenCV開發筆記(十):OpenCV圖像顏色通道分離和圖像顏色多通道混合》
《OpenCV開發筆記(十一):OpenCV編譯支持Gpu(cuda) 加速開發之win-qt-mingw32編譯》
《OpenCV開發筆記(十二):OpenCV編譯支持Gpu(cuda) 加速開發之win-qt-msvc2015編譯(opencv3.4.0、cuda9.0、VS2015)》
《OpenCV開發筆記(十三):OpenCV圖像對比度、亮度的調整》
《OpenCV開發筆記(十四):算法基礎之線性濾波-方框濾波》
《OpenCV開發筆記(十五):算法基礎之線性濾波-均值濾波》
《OpenCV開發筆記(十六):算法基礎之線性濾波-高斯濾波》
《OpenCV開發筆記(十七):算法基礎之線性濾波對比-方框、均值、高斯濾波》
《OpenCV開發筆記(十八):算法基礎之非線性濾波-中值濾波》
《OpenCV開發筆記(十九):算法基礎之非線性濾波-雙邊濾波》
《OpenCV開發筆記(二十):算法基礎之非線性濾波對比-中值、雙邊濾波》
《OpenCV開發筆記(二十一):算法基礎之形態學濾波-膨脹》
《OpenCV開發筆記(二十二):算法基礎之形態學濾波-腐蝕》
《OpenCV開發筆記(二十三):算法基礎之形態學濾波-開運算》
《OpenCV開發筆記(二十四):算法基礎之形態學濾波-閉運算》
《OpenCV開發筆記(二十五):算法基礎之形態學濾波-形態學梯度》
《OpenCV開發筆記(二十六):算法基礎之形態學濾波-頂帽(禮帽)》
《OpenCV開發筆記(二十七):算法基礎之形態學濾波-黑帽》
《OpenCV開發筆記(二十八):帶你學習圖像識別之閾值化》
《OpenCV開發筆記(二十九):帶你學習圖像識別之自適應閾值》
《OpenCV開發筆記(三十):帶你學習圖像識別之經典OTSU算法閾值化》
《OpenCV開發筆記(三十一):帶你學習圖像識別之雙閾值化》
《OpenCV開發筆記(三十二):帶你學習圖像識別之半閾值化》
持續補充中…
OpenCV開發筆記(二十九):帶你學習圖像識別之自適應閾值化
前言
上一篇中講解了閾值化(固定閾值化),對應的還有自適應閾值化。
Demo
自適應閾值化
概述
自適應閾值化是相對於固定閾值化的叫法,之前通過固定閾值化的篇章《OpenCV開發筆記(二十八):帶你學習圖像識別之閾值化》可以從Demo上看出可以分割的效果。但是在實際的場景用,目標和背景區域通常是依存的圖像塊中,於是可以通過圖像像素領域塊的分佈特徵 來自適應確定區域的二值化閾值。
自適應閾值化就是根據圖像中亮度變化明顯的區域(亮或暗),自適應閾值通常會,進而保證圖像中各個像素的閾值會隨着周圍領域塊的變化而變化。
也就是說,沒有固定閾值了,完全是通過周圍色差對比來進行閾值化,這樣便於背景與物體本身差距有點大的圖片分割,也就能得到更好的分割效果。
自適應閾值化函數原型
void adaptiveThreshold( InputArray src,
OutputArray dst,
double maxValue,
int adaptiveMethod,
int thresholdType,
int blockSize,
double C );
- 參數一:InputArray類型,一般是cv::Mat,只能處理單通道的8位圖像。
- 參數二;OutputArray類型,輸出的目標圖像,需要和原圖片有一樣的尺寸和類型。
- 參數三:double類型的maxval,分配給滿足條件的像素的最大值非零值。
- 參數四:int類型的adaptiveMethod,adaptiveMethod要使用的自適應閾值算法,使用#BORDER_REPLICATE或#BORDER_ISOLATED來處理邊界。、
- 參數五:int類型的thresholdType,閾值類型必須是#THRESH_BINARY或#THRESH_BINARY_INV。
- 參數六:int類型的blockSize,塊大小像素鄰域的大小,用於計算像素:3、5、7等。
- 參數七:double類型的C,C從平均值或加權平均值中減去的常數(見下面的詳細信息)。一般來說是正的,但也可以是零或負的。
顏色空間轉換函數原型
void cvtColor( InputArray src,
OutputArray dst,
int code,
int dstCn = 0 );
- 參數一:InputArray類型,一般是cv::Mat,8位無符號,16位無符號(CV_16UC…)或單精度浮點,主要與code對顏色空間的轉換一一對應。
- 參數二;OutputArray類型,輸出的目標圖像,主要與code對顏色空間的轉換一一對應(通道數),與輸入圖像的尺寸大小和深度是一樣的,當參數四dstCn不等於0時,則依據設置生成。
- 參數三:int類型的code,代碼顏色空間轉換代碼(請參見ColorConversionCodes枚舉)。
- 參數四:int類型的dstCn,目標圖像中的通道數;如果參數爲0,則通道是從src和代碼自動派生的。
Demo源碼
void OpenCVManager::testAdaptiveThreshold()
{
QString fileName1 = "E:/qtProject/openCVDemo/openCVDemo/modules/openCVManager/images/4.jpg";
cv::Mat srcMat = cv::imread(fileName1.toStdString());
cv::Mat thresh1Mat = cv::imread("E:/qtProject/openCVDemo/openCVDemo/modules/openCVManager/images/thresh1.png");
cv::Mat thresh2Mat = cv::imread("E:/qtProject/openCVDemo/openCVDemo/modules/openCVManager/images/thresh2.png");
cv::resize(thresh1Mat, thresh1Mat, cv::Size(160, 80));
cv::resize(thresh2Mat, thresh2Mat, cv::Size(160, 80));
int width = 200;
int height = 160;
cv::resize(srcMat, srcMat, cv::Size(width, height));
cv::String windowName = _windowTitle.toStdString();
cvui::init(windowName);
if(!srcMat.data)
{
qDebug() << __FILE__ << __LINE__
<< "Failed to load image:" << fileName1;
return;
}
qDebug() << __FILE__ << __LINE__
<< "Succeed to load image, type =" << srcMat.type()
<< "channels = " << srcMat.channels();
cv::Mat dstMat;
dstMat = cv::Mat::zeros(srcMat.size(), srcMat.type());
cv::Mat windowMat = cv::Mat(cv::Size(dstMat.cols * 4, dstMat.rows * 3),
srcMat.type());
int maxValue = 255;
int blockSize = 1;
int c = 0;
while(true)
{
windowMat = cv::Scalar(0, 0, 0);
// 原圖先copy到左邊
cv::Mat leftMat = windowMat(cv::Range(0, srcMat.rows),
cv::Range(0, srcMat.cols));
cv::addWeighted(leftMat, 1.0f, srcMat, 1.0f, 0.0f, leftMat);
// 調整閾值化的參數maxValue
cvui::printf(windowMat, width * 2 + 100, 0 + height * 0, "maxValue");
cvui::trackbar(windowMat, width * 2 + 100, 10 + height * 0, 250, &maxValue, 0, 255);
// 調整閾值化的參數blockSize
cvui::printf(windowMat, width * 2 + 100, 45 + height * 0, "blockSize");
cvui::trackbar(windowMat, width * 2 + 100, 55 + height * 0, 250, &blockSize, 1, 25);
// 調整閾值化的參數c
cvui::printf(windowMat, width * 2 + 100, 90 + height * 0, "c");
cvui::trackbar(windowMat, width * 2 + 100, 100 + height * 0, 250, &c, -100, 100);
cv::Mat tempMat;
cvui::printf(windowMat, width * 0 + 0, 0 + height * 1, "ADAPTIVE_THRESH_MEAN_C");
cvui::printf(windowMat, width * 0 + 0, 15 + height * 1, "THRESH_BINARY");
cvui::printf(windowMat, width * 0 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 0 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 0 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 0 + 20, srcMat.cols * 1 - 20));
cv::addWeighted(tempMat, 0.0f, thresh1Mat, 1.0f, 0.0f, tempMat);
cvui::printf(windowMat, width * 1 + 0, 0 + height * 1, "ADAPTIVE_THRESH_MEAN_C");
cvui::printf(windowMat, width * 1 + 0, 15 + height * 1, "THRESH_BINARY_INV");
cvui::printf(windowMat, width * 1 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 1 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 1 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 1 + 20, srcMat.cols * 2 - 20));
cv::addWeighted(tempMat, 0.0f, thresh2Mat, 1.0f, 0.0f, tempMat);
cvui::printf(windowMat, width * 2 + 0, 0 + height * 1, "ADAPTIVE_THRESH_GAUSSIAN_C");
cvui::printf(windowMat, width * 2 + 0, 15 + height * 1, "THRESH_BINARY");
cvui::printf(windowMat, width * 2 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 2 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 2 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 2 + 20, srcMat.cols * 3 - 20));
cv::addWeighted(tempMat, 0.0f, thresh1Mat, 1.0f, 0.0f, tempMat);
cvui::printf(windowMat, width * 3 + 0, 0 + height * 1, "ADAPTIVE_THRESH_GAUSSIAN_C");
cvui::printf(windowMat, width * 3 + 0, 15 + height * 1, "THRESH_BINARY_INV");
cvui::printf(windowMat, width * 3 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 3 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 3 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 3 + 20, srcMat.cols * 4 - 20));
cv::addWeighted(tempMat, 0.0f, thresh2Mat, 1.0f, 0.0f, tempMat);
// 轉換成灰度圖像
cv::Mat grayMat; // 多通道
cv::Mat grayMat2; // 單通道
#if 1
// CV_XXXX 與 cv::COLOR_BGR2GRAY 實際並沒有區別 是高低版本表現形式的問題
cv::cvtColor(srcMat, grayMat2, CV_BGR2GRAY);
cv::cvtColor(grayMat2, grayMat, CV_GRAY2BGR);
#else
cv::cvtColor(srcMat, grayMat2, cv::COLOR_BGR2GRAY);
cv::cvtColor(grayMat2, grayMat, cv::COLOR_GRAY2BGR);
#endif
// 效果圖copy
cv::Mat rightMat = windowMat(cv::Range(srcMat.rows * 0, srcMat.rows * 1),
cv::Range(srcMat.cols * 1, srcMat.cols * 2));
cv::addWeighted(rightMat, 0.0f, grayMat, 1.0f, 0.0f, rightMat);
{
// 自適應閾值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_MEAN_C,
cv::THRESH_BINARY,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果圖copy
cv::Mat center = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 0, srcMat.cols * 1));
cv::addWeighted(center, 0.0f, dstMat, 1.0f, 0.0f, center);
// 自適應閾值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_MEAN_C,
cv::THRESH_BINARY_INV,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果圖copy
cv::Mat center2 = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 1, srcMat.cols * 2));
cv::addWeighted(center2, 0.0f, dstMat, 1.0f, 0.0f, center2);
// 自適應閾值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_GAUSSIAN_C,
cv::THRESH_BINARY,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果圖copy
cv::Mat center3 = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 2, srcMat.cols * 3));
cv::addWeighted(center3, 0.0f, dstMat, 1.0f, 0.0f, center3);
// 自適應閾值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_GAUSSIAN_C,
cv::THRESH_BINARY_INV,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果圖copy
cv::Mat center4 = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 3, srcMat.cols * 4));
cv::addWeighted(center4, 0.0f, dstMat, 1.0f, 0.0f, center4);
}
// 更新
cvui::update();
// 顯示
cv::imshow(windowName, windowMat);
// esc鍵退出
if(cv::waitKey(25) == 27)
{
break;
}
}
}
工程模板:對應版本號v1.24.0
對應版本號v1.24.0
原博主博客地址:https://blog.csdn.net/qq21497936
原博主博客導航:https://blog.csdn.net/qq21497936/article/details/102478062
本文章博客地址:https://blog.csdn.net/qq21497936/article/details/104811545