电子科技大学阎波获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉电子科技大学申请的专利一种基于无监督学习的视觉惯性里程计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116721165B 。
龙图腾网通过国家知识产权局官网在2025-08-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310676553.8,技术领域涉及:G06T7/80;该发明授权一种基于无监督学习的视觉惯性里程计方法是由阎波;田蕴祺;李若绮;杨智文;高洪俊;肖卓凌设计研发完成,并于2023-06-08向国家知识产权局提交的专利申请。
本一种基于无监督学习的视觉惯性里程计方法在说明书摘要公布了:本发明公开了一种基于无监督学习的视觉惯性里程计方法,其包括以下步骤:S1:采集输入数据,将图像数据和IMU数据进行预处理,使图像数据和IMU数据同步;S2:进行特征提取,得到图像数据的图像特征和IMU数据的惯导特征;S3:将图像特征和惯导特征输入位姿计算网络中,输出六自由度的位姿计算结果;S4:根据深度图和源图像之间的差异进行无监督训练,输出训练结果,得到训练好的深度网络;S5:采集新的图像数据输入训练好的深度网络,输出定位结果。本发明采用深度学习的方式,避免了传统方法中传感器的复杂标定和建模,同时采用无监督的训练方式解决了数据集的限制,整个方法能够充分利用图像与惯导的互补信息,实现高精度的定位。
本发明授权一种基于无监督学习的视觉惯性里程计方法在权利要求书中公布了:1.一种基于无监督学习的视觉惯性里程计方法,其特征在于,包括以下步骤: S1:采集输入数据,输入数据包括图像数据和IMU数据,将图像数据和IMU数据进行预处理,使图像数据和IMU数据同步; S2:将同步后的图像数据和IMU数据进行特征提取,得到图像数据的图像特征和IMU数据的惯导特征; S3:将图像特征和惯导特征输入位姿计算网络中,输出六自由度的位姿计算结果; S4:利用位姿计算结果输入无监督模块中,构建深度网络框架,根据深度图和源图像之间的差异进行无监督训练,输出训练结果,得到训练好的深度网络; S5:采集新的图像数据输入训练好的深度网络,输出定位结果; 所述步骤S4包括: S41:构建一个深度网络,深度网络的网络框架为编码器-解码器结构,当摄影机在场景中移动时,相邻图像中的对象可以形成几何约束,相邻图像分别表示源图像I s和目标图像的两个相邻帧,利用深度图和运动变换矩阵构建几何一致性: 其中,D s、D t分别为相邻帧图像的深度图,p s,p t分别为相邻帧的深度图上的像素点,K为相机的内参矩阵,为位姿计算结果中的位姿变换矩阵; S42:利用计算源图像I s在目标图像的投影I t,通过对比目标图像和投影I t的外观相似性构建光度一致性约束,形成无监督模块,无监督模块的损失函数为: 其中,L p为结构相似性损失,s为目标图像的编号,t为源图像的编号,F v和F i分别为图像特征和惯导特征,为沿通道方向的拼接过程; S43:引入平滑度损失函数来弥补无纹理区域的光度一致性误差: ; 其中,L s为平滑度损失,为二维微分算子,、分别为深度图、源图像上的像素,为取元素的绝对值; S44:根据无监督模块的损失函数和平滑度损失函数建立总损失函数: ; 其中,为加权因子; S45:根据无监督模块的总损失函数进行无监督训练,输出输出训练结果,得到训练好的深度网络。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新区(西区)西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。