【翻譯:OpenCV-Python教程】特徵匹配加單應性找出物體

⚠️這篇是按4.1.0翻譯的,你懂得。

⚠️除了版本之外,其他還是照舊,Feature Matching + Homography to find Objects,原文

目標

在這一章

  • 我們將融合特徵匹配的知識,通過 calib3d 模塊找出單應性來在一個複雜的圖像中找出已知的物體對象。

基礎

在上一期裏我們做了什麼?我們使用一個搜索圖像,找到了一些它裏面的特徵點,然後我們取另外一張訓練圖像,也找出其中的特徵點,然後在找出兩者之間最佳的匹配。簡單的說,我們在另一張雜亂的圖像中找到了一個物體的某些部分的位置。而這篇介紹的信息足以準確地在訓練圖像上找到目標對象。

爲此,我們可以使用calib3d模塊中的函數。比如 cv.findHomography()。如果我們從兩張圖像傳入點的集合,它會算出那個物體的透視變換。然後我們可以使用 cv.perspectiveTransform() 來找到這個物體。它需要至少四個正確的點來計算變換。

我們已經看到,在匹配過程中可能會出現一些可能影響結果的錯誤。爲了解決這個問題,算法使用RANSAC或LEAST_MEDIAN(可以由標誌決定)。因此,提供正確估算結果的良好匹配稱爲inliers(內點、樣本點),其餘的稱爲outliers(外點、極端點、異常點、離羣點)。cv.findHomography() 返回一個遮罩層,該遮罩層區分了內點和外點。

開搞!

代碼

首先,和往常一樣,讓我們在圖像中找出SIFT特徵,然後應用比率檢定找出最佳匹配。

import numpy as np
import cv2 as cv
from matplotlib import pyplot as plt
MIN_MATCH_COUNT = 10
img1 = cv.imread('box.png',0)          # queryImage
img2 = cv.imread('box_in_scene.png',0) # trainImage
# Initiate SIFT detector
sift = cv.xfeatures2d.SIFT_create()
# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
FLANN_INDEX_KDTREE = 1
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks = 50)
flann = cv.FlannBasedMatcher(index_params, search_params)
matches = flann.knnMatch(des1,des2,k=2)
# store all the good matches as per Lowe's ratio test.
good = []
for m,n in matches:
    if m.distance < 0.7*n.distance:
        good.append(m)

現在我們設置了一個條件,即至少需要有有10個匹配項(由MIN_MATCH_COUNT定義)在其中用於查找對象。否則,只顯示一條消息,說明沒有足夠的匹配項。

如果我們找到了足夠的匹配項,我們提取了兩個圖像中匹配關鍵點的位置。它們被傳入用於算出透視變換。一旦我們得到這個3x3變換矩陣,我們使用它轉換查詢圖像中的角點,然後畫出它來。

if len(good)>MIN_MATCH_COUNT:
    src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)
    dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)
    M, mask = cv.findHomography(src_pts, dst_pts, cv.RANSAC,5.0)
    matchesMask = mask.ravel().tolist()
    h,w,d = img1.shape
    pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)
    dst = cv.perspectiveTransform(pts,M)
    img2 = cv.polylines(img2,[np.int32(dst)],True,255,3, cv.LINE_AA)
else:
    print( "Not enough matches are found - {}/{}".format(len(good), MIN_MATCH_COUNT) )
    matchesMask = None

最終我們畫出了我們的內點(如果成功的找到了對象的話)或者匹配的關鍵點(如果沒有找到對象的話)。

draw_params = dict(matchColor = (0,255,0), # draw matches in green color
                   singlePointColor = None,
                   matchesMask = matchesMask, # draw only inliers
                   flags = 2)
img3 = cv.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params)
plt.imshow(img3, 'gray'),plt.show()

參見下面的結果。對象在雜亂的圖像中以白色標記。

homography_findobj.jpg

額外資源

練習


上篇:【翻譯:OpenCV-Python教程】特徵匹配

下篇:【翻譯:OpenCV-Python教程】圖像金字塔

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章