ORB在图像边缘附近找不到关键点,我不明白为什么。更糟糕的是,我和SIFT和SURF的预期正好相反
如果我理解正确,那么SIFT/SURF在测试点周围分别使用16x16和20x20方形块,这样我希望他们不会从边缘找到8和10像素的关键点。FAST/ORB在测试点周围使用了一个直径为7的圆,因此我希望它能找到更靠近边缘的关键点,可能接近4个像素(尽管我认为描述关键点的相关算法,简而言之,使用了一个更大的窗口,这样可以删除一些关键点)
一个实验使我的预言毫无意义。在我的实验中,离边缘的最小距离随正方形的大小和间距而变化,但示例如下
有人能解释为什么吗
我使用的代码如下。我画了一个正方形网格,并应用了高斯模糊。我希望算法能够锁定角落,但他们找到了正方形的中心和一些瑕疵
import numpy as np
import cv2
size = 501; border = 51; step = 10
image = np.zeros( (size,size), np.uint8 )
# fill with disjoint squares
def drawsquare(img,i,j):
restsize = step//5
cv2.rectangle(img,(i-restsize,j-restsize),(i+restsize,j+restsize),255,-1)
for i in range(0,size,step):
for j in range(0,size,step):
drawsquare(image,i,j)
# blank out the middle
image[border:size-border,border:size-border] = 0
# and blur
image = cv2.GaussianBlur(image,(5,5),0)
imgcopy = image.copy()
descriptor = cv2.xfeatures2d.SIFT_create(nfeatures=2000)
kps = descriptor.detect(image)
minpt = min([p for k in kps for p in k.pt ])
print("#{} SIFT keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,0,255))
cv2.imshow( "SIFT(red)", imgcopy )
cv2.waitKey()
descriptor = cv2.xfeatures2d.SURF_create()
kps, descs = descriptor.detectAndCompute(image,None)
minpt = min([p for k in kps for p in k.pt ])
print("#{} SURF keypoints , min coord is {}".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,255,255))
cv2.imshow( "SIFT(red)+SURF(yellow)", imgcopy )
cv2.waitKey()
descriptor = cv2.ORB_create(nfeatures=800)
kps = descriptor.detect(image)
minpt = min([p for k in kps for p in k.pt ])
print("#{} ORB keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(0,255,0))
cv2.imshow( "SIFT(red)+SURF(yellow)+ORB-detect(green)", imgcopy )
cv2.waitKey()
kps, descs = descriptor.compute(image,kps)
minpt = min([k.pt[0] for k in kps]+[k.pt[1] for k in kps])
print("#{} ORB described keypoints, min coord is {} ".format(len(kps),minpt))
imgcopy = cv2.drawKeypoints(imgcopy,kps,imgcopy,(255,0,0))
cv2.imshow( "SIFT(red)+SURF(yelow)+ORB-compute(blue)", imgcopy )
cv2.waitKey()
cv2.imwrite("/tmp/grid-with-keypoints.png",imgcopy)
程序输出为
#2000 SIFT keypoints, min coord is 5.140756607055664
#1780 SURF keypoints , min coord is 15.0
#592 ORB keypoints, min coord is 39.60000228881836
#592 ORB described keypoints, min coord is 39.60000228881836
图像是
附录
Grillteller回答了我的问题,并在ORB探测器的创建代码中给了我一个额外的参数。如果我写
descriptor = cv2.ORB_create(nfeatures=800,edgeThreshold=0)
然后我得到输出
#950 ORB keypoints, min coord is 9.953282356262207
通常,图像边缘的关键点对于大多数应用程序都不有用。例如,考虑飞行器或飞机的空中图像。图像边框上的点在下一帧中通常不可见。在计算对象的三维重建时,大多数情况下,感兴趣的对象位于图像的中心。另外,您提到的事实是,大多数特征检测器与像素周围的感兴趣区域一起工作非常重要,因为这些区域可能会在图像边界处产生不必要的效果
进入OpenCVORB(848-849)的源代码,使用一个带有
edgeThreshold
的函数,该函数可以使用cv::ORB::create()
定义,并设置为31像素的默认值。“这是未检测到功能的边框大小。它应大致与patchSize参数匹配。”该功能定义为:
并使用
keypoints.erase()
删除靠近边缘的关键点对于SIFT,可在here找到相关行(92-93):
我假设SURF使用类似的参数(=15?),但据我所知,SIFT和SURF中的这些参数不能简单地在ORB之类的函数调用中更改
相关问题 更多 >
编程相关推荐