Python+Opencv實現模板匹配

一、模板匹配簡介

  所謂的模板匹配,即在給定的圖片中查找和模板最相似的區域,該算法的輸入包括模板和測試圖片,整個任務的思路就是按照滑窗的思路不斷的移動模板圖片,計算其與圖像中對應區域的匹配度,最終將匹配度最高的區域選擇爲最終的結果。下圖展示了一個樣例,左邊是對應的模板,右邊是在測試圖片中檢測的結果。
在這裏插入圖片描述

二、傳統模板匹配算法不足之處

  Opencv中集成了一個模板匹配算法,用戶調用cv2.matchtemplate函數就可以實現該功能。下面展示了一個該函數的使用樣例,該樣例的模板是一枚硬幣,cv2.matchtemplate函數可以準確的在測試圖片中檢測到所有的硬幣。

import cv2
import numpy as np
from matplotlib import pyplot as plt

img_rgb = cv2.imread('mario.png')
img_gray = cv2.cvtColor(img_rgb, cv2.COLOR_BGR2GRAY)
template = cv2.imread('mario_coin.png',0)
w, h = template.shape[::-1]

res = cv2.matchTemplate(img_gray,template,cv2.TM_CCOEFF_NORMED)
threshold = 0.8
loc = np.where( res >= threshold)
for pt in zip(*loc[::-1]):
    cv2.rectangle(img_rgb, pt, (pt[0] + w, pt[1] + h), (0,0,255), 2)

cv2.imwrite('res.png',img_rgb)

在這裏插入圖片描述
  下圖展示了另外一個案例,匹配的模板如左圖所示,匹配的結果如右圖所示,通過觀察該圖我們可以發現cv2.matchtemplate函數並沒有輸出準確的結果,它僅僅輸出了一部分區域,主要的原因是因爲模板的大小和測試圖片中的目標的大小之間存在着較大的差異,而使用滑窗思路在測試圖片中只能獲得對應大小的一塊區域,本文的重點就是針對這個問題提出一個多尺度的模板匹配算法。
在這裏插入圖片描述

三、多尺度模板匹配實現步驟

  • 步驟1-讀取模板圖片,並依次執行灰度化和邊緣檢測處理;
  • 步驟2-讀取測試圖片,遍歷整個尺度空間,進行圖片裁剪;
  • 步驟3-依次執行邊緣檢測和模板匹配,獲取到外接矩形;
  • 步驟4-根據結果對測試圖片中模板所在的位置進行更新;
  • 步驟5-首先進行位置轉換,然後繪製矩形框,最後顯示結果。

四、多尺度模板匹配實現代碼

# coding=utf-8
# 導入python包
import numpy as np
import argparse
import imutils
import glob
import cv2

# 構建並解析參數
ap = argparse.ArgumentParser()
ap.add_argument("-t", "--template", required=True, help="Path to template image")
ap.add_argument("-i", "--images", required=True, help="Path to images where template will be matched")
ap.add_argument("-v", "--visualize", help="Flag indicating whether or not to visualize each iteration")
args = vars(ap.parse_args())

# 讀取模板圖片
template = cv2.imread(args["template"])
# 轉換爲灰度圖片
template = cv2.cvtColor(template, cv2.COLOR_BGR2GRAY)
# 執行邊緣檢測
template = cv2.Canny(template, 50, 200)
(tH, tW) = template.shape[:2]
# 顯示模板
cv2.imshow("Template", template)

# 遍歷所有的圖片尋找模板
for imagePath in glob.glob(args["images"] + "/*.jpg"):
	# 讀取測試圖片並將其轉化爲灰度圖片
	image = cv2.imread(imagePath)
	gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
	found = None

	# 循環遍歷不同的尺度
	for scale in np.linspace(0.2, 1.0, 20)[::-1]:
		# 根據尺度大小對輸入圖片進行裁剪
		resized = imutils.resize(gray, width = int(gray.shape[1] * scale))
		r = gray.shape[1] / float(resized.shape[1])

		# 如果裁剪之後的圖片小於模板的大小直接退出
		if resized.shape[0] < tH or resized.shape[1] < tW:
			break

		# 首先進行邊緣檢測,然後執行模板檢測,接着獲取最小外接矩形
		edged = cv2.Canny(resized, 50, 200)
		result = cv2.matchTemplate(edged, template, cv2.TM_CCOEFF)
		(_, maxVal, _, maxLoc) = cv2.minMaxLoc(result)

		# 結果可視化
		if args.get("visualize", False):
			# 繪製矩形框並顯示結果
			clone = np.dstack([edged, edged, edged])
			cv2.rectangle(clone, (maxLoc[0], maxLoc[1]), (maxLoc[0] + tW, maxLoc[1] + tH), (0, 0, 255), 2)
			cv2.imshow("Visualize", clone)
			cv2.waitKey(0)

		# 如果發現一個新的關聯值則進行更新
		if found is None or maxVal > found[0]:
			found = (maxVal, maxLoc, r)

	# 計算測試圖片中模板所在的具體位置,即左上角和右下角的座標值,並乘上對應的裁剪因子
	(_, maxLoc, r) = found
	(startX, startY) = (int(maxLoc[0] * r), int(maxLoc[1] * r))
	(endX, endY) = (int((maxLoc[0] + tW) * r), int((maxLoc[1] + tH) * r))

	# 繪製並顯示結果
	cv2.rectangle(image, (startX, startY), (endX, endY), (0, 0, 255), 2)
	cv2.imshow("Image", image)
	cv2.waitKey(0)

五、多尺度模板匹配效果展示和分析

在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
  上圖展示了改進後的多尺度模板匹配算法的效果。我們可以發現改進後的算法可以準確的在測試圖片中檢測出和模板大小不相同的區域,和改進之前的效果相比,具有很大的性能提升。尺度問題是現實生活中經常會遇到的一個問題,因而解決這個問題具有重要的研究意義。下面對整個多尺度處理的過程進行展示和分析。
在這裏插入圖片描述
  上圖展示了改進後的多尺度模板匹配的過程,即通過在不同的尺度中進行模板的匹配,最終從多個尺度中選擇匹配度最高的結果進行輸出即可。

六、思維擴展

  儘管改進後的多尺度模板匹配算法可以很好的解決尺度問題,但是該算法對物體旋轉和非仿射性變換的匹配效果並不魯棒,聰明的你肯定想到了一個解決方案,那就是使用關鍵點匹配法,比較經典的關鍵點檢測算法包括SIFT和SURF等,主要的思路是首先通過關鍵點檢測算法獲取模板和測試圖片中的關鍵點;然後使用關鍵點匹配算法處理即可,這些關鍵點可以很好的處理尺度變化、視角變換、旋轉變化、光照變化等,具有很好的不變性。

參考資料

[1] 參考鏈接1
[2] 參考鏈接2

注意事項

[1] 該博客是本人原創博客,如果您對該博客感興趣,想要轉載該博客,請與我聯繫(qq郵箱:[email protected]),我會在第一時間回覆大家,謝謝大家的關注.
[2] 由於個人能力有限,該博客可能存在很多的問題,希望大家能夠提出改進意見。
[3] 如果您在閱讀本博客時遇到不理解的地方,希望您可以聯繫我,我會及時的回覆您,和您交流想法和意見,謝謝。
[4] 本文測試的圖片可以通過該鏈接進行下載。網盤鏈接- 提取碼:a2xc。
[5] 本人業餘時間承接各種本科畢設設計和各種小項目,包括圖像處理(數據挖掘、機器學習、深度學習等)、matlab仿真、python算法及仿真等,有需要的請加QQ:1575262785詳聊!!!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章