南京师范大学印嘉阳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京师范大学申请的专利一种基于特征跟踪和匹配的视觉定位与建图方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120279102B 。
龙图腾网通过国家知识产权局官网在2025-08-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510766605.X,技术领域涉及:G06T7/73;该发明授权一种基于特征跟踪和匹配的视觉定位与建图方法是由印嘉阳;谢非;周正亚;马嘉庆;吕宗儒;王嘉琦;马宝萍;李传赞;戴骏;高斌设计研发完成,并于2025-06-10向国家知识产权局提交的专利申请。
本一种基于特征跟踪和匹配的视觉定位与建图方法在说明书摘要公布了:本发明公开了一种基于特征跟踪和匹配的视觉定位与建图方法,包括:对相机采集到的图像进行光照和纹理强度两方面的量化,得到光照量化结果和纹理量化结果;将得到的光照量化结果和纹理量化结果通过MobileNetV4得到直接法可信度和特征点法可信度;将直接法可信度和特征点法可信度输入到融合模块中,得到直接法和特征点法运行的结果权重占比;将直接法和特征点法运行的结果权重占比输入到状态估计模块中,进行状态估计。本发明充分考虑弱光弱纹理环境对算法性能的影响,通过MobileNetV4建立环境因素与算法性能的关系,并利用特征描述子实现闭环检测,从而提高系统整体性能,具有轨迹精度高,鲁棒性好的优点。
本发明授权一种基于特征跟踪和匹配的视觉定位与建图方法在权利要求书中公布了:1.一种基于特征跟踪和匹配的视觉定位与建图方法,其特征在于,包括如下步骤: S1:对相机采集到的图像进行光照和纹理强度两方面的量化计算,得到光照量化结果和纹理量化结果; S2:将得到的光照量化结果和纹理量化结果通过MobileNetV4得到直接法可信度和特征点法可信度; S3:将直接法可信度和特征点法可信度输入到融合模块中,得到直接法和特征点法运行的结果权重占比; S4:将直接法和特征点法运行的结果权重占比输入到状态估计模块中,进行状态估计; 步骤S3具体包括: B1:分析直接法可信度: 在正常的相邻帧Ii和Ii+1中,分别有根据直接法获得特征点匹配的特征与改变Ii+1帧的亮度或模糊程度得到对应帧使用Di对中特征进行匹配,得到新的匹配特征其中Di+1与因为环境因素的改变而不完全相同,计算Di+1与中对应特征的梯度差并求算数平均RD; B2:分析特征点法的可信度: 在正常的相邻帧Ii和Ii+1中,分别有匹配的特征与改变Ii+1帧的亮度或模糊程度得到对应帧使用Fi对中特征进行匹配,得到新的匹配特征其中Fi+1与因为环境因素的改变而不完全相同,计算Fi+1与中对应特征的像素位置差并求算数平均RF; B3:直接法和特征点法运行的结果权重占比ωd和ωf按以下方式定义: 步骤S4具体包括: C1:对于相邻节点的帧间相对位姿,通过下式计算得到: 其中,是第i+1帧相对于第i帧,在第i帧坐标系下的位置,通过世界坐标系下两帧的位置以及第i帧的旋转矩阵变换得到;与分别是两帧的姿态相关量,两者差值得到相对姿态 C2:发生回环后,对位于回环帧之间的关键帧位姿建立如下约束: 其中,ei,j是误差项,包含位置误差和姿态误差两部分,i和j表示不同的帧序号;是第i帧旋转阵逆阵,用于将世界坐标系下位置变换到第i帧坐标系下与相对位置Pi,i+1计算位置误差;姿态误差由回环帧间姿态差值计算; 步骤C2中位姿图优化的目标为: 其中,S是所有连续帧构成的集合,L是所有被闭环帧构成的集合,P代表待优化的变量集合,ρ是核函数,是误差项ei,j的二范数平方。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京师范大学,其通讯地址为:210024 江苏省南京市鼓楼区宁海路122号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。