北京航空航天大学周忠获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京航空航天大学申请的专利一种基于多特征融合的视觉定位方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116843754B 。
龙图腾网通过国家知识产权局官网在2026-01-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310815607.4,技术领域涉及:G06T7/73;该发明授权一种基于多特征融合的视觉定位方法及系统是由周忠;王静茹;熊源设计研发完成,并于2023-07-05向国家知识产权局提交的专利申请。
本一种基于多特征融合的视觉定位方法及系统在说明书摘要公布了:本发明公开了一种基于多特征融合的视觉定位方法及系统。所述方法:采集场景照片,进行三维重建、数据标注与图片渲染,得到带标注的数据集;使用带标注的数据集进行语义分割与法向量估计;对图片的语义分割结果、法向量估计结果进行多特征提取与融合,得到图片的融合全局向量;检索得到查询图的候选图;对查询图进行置信度估计;对查询图和每张候选图进行局部特征匹配,得到多个2D‑3D匹配对;使用置信度对2D‑3D匹配对筛选,剔除数值低于置信度阈值的匹配对;对剩下的2D‑3D匹配对进行RANSACPnP计算,得到相机位姿结果。本发明增强了视觉定位方法的鲁棒性,使其在面对外界环境变化时仍能具备精确、稳定的位姿计算结果。
本发明授权一种基于多特征融合的视觉定位方法及系统在权利要求书中公布了:1.一种基于多特征融合的视觉定位方法,其特征在于,该方法包括基于多特征融合的图像检索和基于置信度估计的位姿计算两个部分,基于多特征融合的图像检索步骤为: S1、通过无人机预先获取场景中的RGB图像,使用三维重建技术构建场景的三维模型,对三维模型进行语义标注与法向量计算,使用快照渲染生成带标注的图像数据集; S2、使用带标注的图像数据集对语义分割网络、法向量估计网络与多特征提取与融合网络进行训练,并生成对应的融合特征数据库; S3、将查询图输入语义分割网络、法向量估计网络与多特征提取与融合网络进行计算,得到查询图的融合特征; S4、对融合特征数据库中的每个特征和查询图的融合特征进行欧氏距离计算,对距离结果进行大小排序,选取距离最小的向量所对应的图片作为候选图; 基于置信度估计的位姿计算步骤为: S5、使用所述带标注的图像数据集进行置信度估计网络的训练,训练完成后存储网络参数; S6、对查询图进行置信度估计,获得图片中像素级的置信度数值,作为判断该像素位置的特征点质量的量化参考; S7、对查询图和其对应的带位姿的候选图进行逐个的二维特征匹配,根据候选图的深度信息对其特征点进行三维坐标映射,并据此建立查询图和三维场景之间的2D-3D匹配对; S8、使用置信度图对2D-3D匹配对进行过滤,剔除对应置信度数值低于置信度阈值的2D-3D匹配对; S9、对剩下的2D-3D匹配对进行随机采样一致性算法RANSACPnP计算,最终得到相机的位姿计算结果,实现视觉定位。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励