SIFI和ORB在尺度缩放、旋转、仿射上的特征点不变实验代码,并比较SIFI和ORB提取特征点的速度

一、SIFI算法

1.验证旋转不变性

import numpy as np
import time
import cv2
from matplotlib import pyplot as plt

sift = cv2.xfeatures2d.SIFT_create()
# FLANN 参数设计
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks=50)
flann = cv2.FlannBasedMatcher(index_params,search_params)

img1 = cv2.imread('1.jpg')
img2 = cv2.imread('2.jpg')
#使用cv2.imread()接口读图像,读进来的是BGR格式以及[0~255]。所以要将img转换为RGB格式,不然后面显示会有色差
img1 = cv2.cvtColor(img1,cv2.COLOR_BGR2RGB)
gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) #灰度处理图像
#使用cv2.imread()接口读图像,读进来的是BGR格式以及[0~255]。所以要将img转换为RGB格式,不然后面显示会有色差
img2 = cv2.cvtColor(img2,cv2.COLOR_BGR2RGB)
gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)

start11 = time.time()
kp1, des1 = sift.detectAndCompute(img1,None)#des是描述符
kp2, des2 = sift.detectAndCompute(img2,None)
end11 = time.time()

print (des1.shape) #描述符数组维度 
print(len(kp1))   #关键点个数
print (des2.shape) #描述符数组维度 
print(len(kp2))   #关键点个数

print(img1.shape)
print(img2.shape)
hmerge = np.hstack((img1, img2)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('original')
plt.axis('off')
plt.show()

hmerge = np.hstack((gray1, gray2)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge,cmap='gray')
plt.title('gray')
plt.axis('off')
plt.show()

img3 = cv2.drawKeypoints(img1,kp1,img1,color=(255,0,255))
img4 = cv2.drawKeypoints(img2,kp2,img2,color=(255,0,255))

hmerge = np.hstack((img3, img4)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('keypoint')
plt.axis('off')
plt.show()

matches = flann.knnMatch(des1,des2,k=2)
matchesMask = [[0,0] for i in range(len(matches))]

good = []
for m,n in matches:
    if m.distance < 0.7*n.distance:
        
        good.append([m])

img5 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,good,None,flags=2)

plt.figure(num=1,figsize=(16,16))
plt.imshow(img5)
plt.title('SIFT_rotation')
plt.axis('off')
plt.show()
(1085, 128)
1085
(1089, 128)
1089
(400, 600, 3)
(400, 600, 3)

在这里插入图片描述

2.验证尺度不变性

img1 = cv2.imread("1.jpg")
img2 = cv2.imread("3.jpg")
img1 = cv2.cvtColor(img1,cv2.COLOR_BGR2RGB)
img2 = cv2.cvtColor(img2,cv2.COLOR_BGR2RGB)
print(img1.shape)
print(img2.shape)
plt.figure(num=1,figsize=(12,12))
plt.imshow(img1,cmap='gray')
plt.title('original_img1')
plt.axis('off')
plt.show()
plt.figure(num=1,figsize=(12,12))
plt.imshow(img2,cmap='gray')
plt.title('original_img2')
plt.axis('off')
plt.show()

#灰度化处理,打印描述符数组维度和关键点个数
gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)

start12 = time.time()
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
end12 = time.time()

print (des1.shape) #描述符数组维度 
print(len(kp1))   #关键点个数
print (des1.shape) #描述符数组维度 
print(len(kp2))   #关键点个数

plt.figure(num=1,figsize=(12,12))
plt.imshow(gray1,cmap='gray')
plt.title('gray1')
plt.axis('off')
plt.show()
plt.figure(num=1,figsize=(12,12))
plt.imshow(gray2,cmap='gray')
plt.title('gray2')
plt.axis('off')
plt.show()

img3 = cv2.drawKeypoints(img1,kp1,img1,color=(255,0,255))
img4 = cv2.drawKeypoints(img2,kp2,img2,color=(255,0,255))

plt.figure(num=1,figsize=(12,12))
plt.imshow(img3)
plt.title('keypoint_img3')
plt.axis('off')
plt.show()
plt.figure(num=1,figsize=(12,12))
plt.imshow(img4)
plt.title('keypoint_img4')
plt.axis('off')
plt.show()

matches = flann.knnMatch(des1,des2,k=2)
matchesMask = [[0,0] for i in range(len(matches))]

good = []
for m,n in matches:
    if m.distance < 0.7*n.distance:
        good.append([m])

img5 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,good,None,flags=2)

plt.figure(num=1,figsize=(16,16))
plt.imshow(img5)
plt.title('SIFT_size')
plt.axis('off')
plt.show()

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.验证仿射不变性 对原图进行仿射变换并输出

img = cv2.imread('1.jpg')
img = cv2.cvtColor(img,cv2.COLOR_BGR2RGB)
rows, cols, ch = img.shape
 
pts1 = np.float32([[0, 0], [cols - 1, 0], [0, rows - 1]])
pts2 = np.float32([[cols * 0.2, rows * 0.1], [cols * 0.9, rows * 0.2], [cols * 0.1, rows * 0.9]])
 
M = cv2.getAffineTransform(pts1, pts2)
dst = cv2.warpAffine(img, M, (cols, rows))
plt.figure(num=1,figsize=(16,16))
plt.imshow(dst)
plt.title('affine_img')
plt.axis('off')
plt.show()

print(img.shape)
print(dst.shape)
hmerge = np.hstack((img, dst))  # 两张图片横向合并(便于对比显示)
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('original')
plt.axis('off')
plt.show()

gray1 = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) #灰度处理图像
gray2 = cv2.cvtColor(dst, cv2.COLOR_BGR2GRAY) #灰度处理图像

start13 = time.time()
kp1, des1 = sift.detectAndCompute(img,None)#des是描述符
kp2, des2 = sift.detectAndCompute(dst,None)#des是描述符
end13 = time.time()

print (des1.shape) #描述符数组维度 
print(len(kp1))   #关键点个数
print (des2.shape) #描述符数组维度 
print(len(kp2))   #关键点个数

hmerge = np.hstack((gray1, gray2))  # 两张图片横向合并(便于对比显示)
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge,cmap='gray')
plt.title('gray')
plt.axis('off')
plt.show()

img3 = cv2.drawKeypoints(img,kp1,img,color=(255,0,255))
img4 = cv2.drawKeypoints(dst,kp2,dst,color=(255,0,255))

hmerge = np.hstack((img3, img4)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('keypoint')
plt.axis('off')
plt.show()

matches = flann.knnMatch(des1,des2,k=2)
matchesMask = [[0,0] for i in range(len(matches))]

good = []
for m,n in matches:
    if m.distance < 0.7*n.distance:
        good.append([m])

img5 = cv2.drawMatchesKnn(img,kp1,dst,kp2,good,None,flags=2)

plt.figure(num=1,figsize=(16,16))
plt.imshow(img5)
plt.title('SIFT_affine')
plt.axis('off')
plt.show()

在这里插入图片描述

二、ORB算法

1.验证旋转不变性

import numpy as np
import cv2
from matplotlib import pyplot as plt

orb=cv2.ORB_create()
# FLANN 参数设计
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks=50)
flann = cv2.FlannBasedMatcher(index_params,search_params)

img1 = cv2.imread('1.jpg')
#使用cv2.imread()接口读图像,读进来的是BGR格式以及[0~255]。所以要将img转换为RGB格式,不然后面显示会有色差
img1 = cv2.cvtColor(img1,cv2.COLOR_BGR2RGB)
gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) #灰度处理图像

img2 = cv2.imread('2.jpg')
#使用cv2.imread()接口读图像,读进来的是BGR格式以及[0~255]。所以要将img转换为RGB格式,不然后面显示会有色差
img2 = cv2.cvtColor(img2,cv2.COLOR_BGR2RGB)
gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)

start21 = time.time()
kp1, des1 = orb.detectAndCompute(img1,None)#des是描述符
kp2, des2 = orb.detectAndCompute(img2,None)
end21 = time.time()


print (des1.shape) #描述符数组维度 
print(len(kp1))   #关键点个数
print (des2.shape) #描述符数组维度 
print(len(kp2))   #关键点个数

print(img1.shape)
print(img2.shape)
hmerge = np.hstack((img1, img2)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('original')
plt.axis('off')
plt.show()

hmerge = np.hstack((gray1, gray2)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge,cmap='gray')
plt.title('gray')
plt.axis('off')
plt.show()

img3 = cv2.drawKeypoints(img1,kp1,img1,color=(255,0,255))
img4 = cv2.drawKeypoints(img2,kp2,img2,color=(255,0,255))

hmerge = np.hstack((img3, img4)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('keypoint')
plt.axis('off')
plt.show()

# 获得一个暴力匹配器的对象
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
# 利用匹配器 匹配两个描述符的相近成都
maches = bf.match(des1,des2)
# 按照相近程度 进行排序
maches = sorted(maches, key=lambda x: x.distance)
# 画出匹配项
img5 = cv2.drawMatches(img1,kp1,img2,kp2, maches[:], None, flags=2)

plt.figure(num=1,figsize=(16,16))
plt.imshow(img5)
plt.title('ORB_rotation')
plt.axis('off')
plt.show()

运行结果:
在这里插入图片描述

2.验证尺度不变性

img1 = cv2.imread("1.jpg")
img2 = cv2.imread("3.jpg")
img1 = cv2.cvtColor(img1,cv2.COLOR_BGR2RGB)
img2 = cv2.cvtColor(img2,cv2.COLOR_BGR2RGB)
print(img1.shape)
print(img2.shape)
plt.figure(num=1,figsize=(12,12))
plt.imshow(img1,cmap='gray')
plt.title('original_img1')
plt.axis('off')
plt.show()
plt.figure(num=1,figsize=(12,12))
plt.imshow(img2,cmap='gray')
plt.title('original_img2')
plt.axis('off')
plt.show()

gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)



gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)

start22 = time.time()
kp1, des1 = orb.detectAndCompute(img1,None)
kp2, des2 = orb.detectAndCompute(img2,None)
end22 = time.time()

print (des1.shape) #描述符数组维度 
print(len(kp1))   #关键点个数
print (des1.shape) #描述符数组维度 
print(len(kp2))   #关键点个数

plt.figure(num=1,figsize=(12,12))
plt.imshow(gray1,cmap='gray')
plt.title('gray1')
plt.axis('off')
plt.show()
plt.figure(num=1,figsize=(12,12))
plt.imshow(gray2,cmap='gray')
plt.title('gray2')
plt.axis('off')
plt.show()

img3 = cv2.drawKeypoints(img1,kp1,img1,color=(255,0,255))
img4 = cv2.drawKeypoints(img2,kp2,img2,color=(255,0,255))

plt.figure(num=1,figsize=(12,12))
plt.imshow(img3)
plt.title('keypoint_img3')
plt.axis('off')
plt.show()
plt.figure(num=1,figsize=(12,12))
plt.imshow(img4)
plt.title('keypoint_img4')
plt.axis('off')
plt.show()

# 获得一个暴力匹配器的对象
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
# 利用匹配器 匹配两个描述符的相近成都
maches = bf.match(des1,des2)
# 按照相近程度 进行排序
maches = sorted(maches, key=lambda x: x.distance)
# 画出匹配项
img5 = cv2.drawMatches(img1,kp1,img2,kp2, maches[: 30], None, flags=2)

plt.figure(num=1,figsize=(16,16))
plt.imshow(img5)
plt.title('ORB_size')
plt.axis('off')
plt.show()

运行结果:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.验证仿射不变性 对原图进行仿射变换并输出

img = cv2.imread('1.jpg')
img = cv2.cvtColor(img,cv2.COLOR_BGR2RGB)
rows, cols, ch = img.shape
 
pts1 = np.float32([[0, 0], [cols - 1, 0], [0, rows - 1]])
pts2 = np.float32([[cols * 0.2, rows * 0.1], [cols * 0.9, rows * 0.2], [cols * 0.1, rows * 0.9]])
 
M = cv2.getAffineTransform(pts1, pts2)
dst = cv2.warpAffine(img, M, (cols, rows))
plt.figure(num=1,figsize=(16,16))
plt.imshow(dst)
plt.title('affine_img')
plt.axis('off')
plt.show()

print(img.shape)
print(dst.shape)
hmerge = np.hstack((img, dst))  # 两张图片横向合并(便于对比显示)
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('original')
plt.axis('off')
plt.show()

gray1 = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) #灰度处理图像
gray2 = cv2.cvtColor(dst, cv2.COLOR_BGR2GRAY) #灰度处理图像

start23 = time.time()
kp1, des1 = orb.detectAndCompute(img,None)#des是描述符
kp2, des2 = orb.detectAndCompute(dst,None)#des是描述符
end23 = time.time()

print (des1.shape) #描述符数组维度 
print(len(kp1))   #关键点个数
print (des2.shape) #描述符数组维度 
print(len(kp2))   #关键点个数

hmerge = np.hstack((gray1, gray2))  # 两张图片横向合并(便于对比显示)
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge,cmap='gray')
plt.title('gray')
plt.axis('off')
plt.show()

img3 = cv2.drawKeypoints(img,kp1,img,color=(255,0,255))
img4 = cv2.drawKeypoints(dst,kp2,dst,color=(255,0,255))

hmerge = np.hstack((img3, img4)) #水平拼接
plt.figure(num=1,figsize=(16,16))
plt.imshow(hmerge)
plt.title('keypoint')
plt.axis('off')
plt.show()

# 获得一个暴力匹配器的对象
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
# 利用匹配器 匹配两个描述符的相近成都
maches = bf.match(des1,des2)
# 按照相近程度 进行排序
maches = sorted(maches, key=lambda x: x.distance)
# 画出匹配项
img5 = cv2.drawMatches(img,kp1,dst,kp2, maches[:], None, flags=2)

plt.figure(num=1,figsize=(16,16))
plt.imshow(img5)
plt.title('ORB_affine')
plt.axis('off')
plt.show()

运行结果:
在这里插入图片描述

三、比较SIFT和ORB的尺度旋转,缩放,仿射上运行时间

print("SIFI的旋转的体征点提取速度",end11-start11)
print("SIFI的缩放的体征点提取速度",end12-start12)
print("SIFI的仿射的体征点提取速度",end13-start13)

print("ORB的旋转的体征点提取速度",end21-start21)
print("ORB的缩放的体征点提取速度",end22-start22)
print("ORB的仿射的体征点提取速度",end23-start23)
SIFI的旋转的体征点提取速度 0.09574317932128906
SIFI的缩放的体征点提取速度 0.06183433532714844
SIFI的仿射的体征点提取速度 0.09873533248901367
ORB的旋转的体征点提取速度 0.012612581253051758
ORB的缩放的体征点提取速度 0.008951902389526367
ORB的仿射的体征点提取速度 0.011967182159423828

由此可见,ORB提取特征点的速度比SIFI好

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章