中国科学院国家空间科学中心韩鹏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国科学院国家空间科学中心申请的专利一种动态场景下语义信息指导的红外/可见光融合全天时自主定位方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119313732B 。
龙图腾网通过国家知识产权局官网在2025-07-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411367500.9,技术领域涉及:G06T7/73;该发明授权一种动态场景下语义信息指导的红外/可见光融合全天时自主定位方法及系统是由韩鹏;徐子洋;高东;冯宇设计研发完成,并于2024-09-29向国家知识产权局提交的专利申请。
本一种动态场景下语义信息指导的红外/可见光融合全天时自主定位方法及系统在说明书摘要公布了:本申请提供了一种动态场景下语义信息指导的红外可见光融合全天时自主定位方法及系统,该方法包括:将可见光图像和红外图像送入训练好的由语义信息指导的融合模型,得到融合图像;对融合图像进行特征点提取;将融合图像与IMU数据再进行融合,基于IMU和RGB‑D相机的双阈值剔除法剔除融合图像的动态特征点;利用剩余的特征点估计相机位姿;对估计的相机位姿进行优化。本申请的优势在于:在传统视觉里程计的基础上利用语义信息指导的生成对抗网络融合红外和可见光图像,并利用基于IMU和RGB‑D相机的双阈值动态目标特征点剔除策略,有效规避了动态物体对视觉定位精度的影响,提升了全天时,尤其是夜间环境下自主定位的准确性。
本发明授权一种动态场景下语义信息指导的红外/可见光融合全天时自主定位方法及系统在权利要求书中公布了:1.一种动态场景下语义信息指导的红外可见光融合全天时自主定位方法,包括: 步骤1:将可见光图像和红外图像送入训练好的由语义信息指导的融合模型,得到融合图像; 步骤2:对融合图像进行特征点提取; 步骤3:将融合图像与IMU数据再进行融合,基于IMU和RGB-D相机的双阈值剔除法剔除融合图像的动态特征点; 步骤4:利用剩余的特征点估计相机位姿; 步骤5:对估计的相机位姿进行优化; 所述将融合图像与IMU数据再进行融合,还包括对IMU数据进行预积分处理,预积分模型为: 其中,Pwbj表示j时刻的IMU数据在世界坐标系下的位置;Pwbi表示i时刻IMU数据在世界坐标系下的位置;表示i时刻IMU数据在世界坐标系下的速度;表示j时刻IMU数据在世界坐标系下的速度;Δt表示i时刻和j时刻之间的时间差;gw表示世界坐标系下的重力加速度;qwbi表示i时刻IMU数据在本体坐标系转到世界坐标系的姿态四元数;qwbj表示j时刻IMU数据在本体坐标系转到世界坐标系的姿态四元数;表示姿态变化的预积分量;表示t时刻IMU数据在本体坐标系下的加速度;表示IMU数据在本体坐标系下的角速度;表示四元数的乘法; 位移变化、速度变化、姿态变化的预积分量为: 其中,表示位移变化的预积分量;表示速度变化的预积分量; 所述IMU和RGB-D相机的双阈值剔除法,包括: 利用RGB-D相机的数据计算当前帧特征点p2在相机坐标系I2下的坐标 其中,u2,v2表示p2的相机坐标系坐标;d2表示当前帧相机得到的深度;fx、fy分别表示相机在x方向和y方向的焦距; 上一帧匹配的特征点p1在相机坐标系I1下的坐标 其中,u1,v1表示p1的相机坐标系坐标;d1表示上一帧相机得到的深度; 将相机和IMU的联合标定参数以及IMU预积分量带入运动学公式得到从上一帧到这一帧的旋转和平移矩阵R21,t21,计算出上一帧特征点p1在相机坐标系I2下的坐标P1 cam2: P1 cam2=R21P1 cam1+t21 在相机坐标系I2下计算两个三维点的切比雪夫距离ψ: 其中,表示上一帧特征点p1在相机坐标系I2下的x坐标;Y1 cam2表示上一帧特征点p1在相机坐标系I2下的y坐标;表示上一帧特征点p1在相机坐标系I2下的z坐标; 当切比雪夫距离ψ距离大于第一设定阈值时则判断该特征点为动态特征点; 当一个目标内动态特征点的数量大于第二设定阈值时,判断该目标为动态目标,剔除该目标中的所有特征点。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院国家空间科学中心,其通讯地址为:100190 北京市海淀区中关村南二条1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。