我正在使用Python中的ORB检测图像中的特征,以便将新图像与一组参考图像进行匹配(特征匹配和单应性)。新图像具有未知背景下感兴趣的子图像
我发现,在某些情况下,许多关键点被检测到,而感兴趣的关键点被排除在外。以以下为例:
如果我请求(默认)500个关键点,它们都不在感兴趣的区域中。图像中的文字实际上是我试图匹配的“背景”,即在较浅背景下的大子图像。如果我请求(很多)更多的关键点,我开始在感兴趣的区域中获取一些关键点,但现在一切都相应地运行得更慢:检测和匹配
在这种情况下,查找较大的特征或从整个图像中选择的特征会有所帮助。我可以为cv2.ORB_create()提供什么参数来实现这一点?或者这是不可能的
我想我可以对图像进行分区,并对每个单元应用特征检测和匹配,但这似乎远不如全局方法有效
我遇到了非最大抑制算法(https://github.com/BAILOOL/ANMS-Codes)的概念,乍一看似乎是一致地找到关键点。但我肯定遗漏了什么,因为它是对检测到的特征进行后处理的
还有一个更大的问题(我对计算机视觉很陌生):人们有没有尝试过一些启发式方法来帮助将用户拍摄的快照(在手机上)中某处的对象与背景中的未知对象进行匹配
谢谢你的帮助
目前没有回答
相关问题 更多 >
编程相关推荐