北京理工大学张磊获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学申请的专利一种基于深度学习的移动机器人视觉里程计流式控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115797801B 。
龙图腾网通过国家知识产权局官网在2025-08-15发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211326233.1,技术领域涉及:G06V20/17;该发明授权一种基于深度学习的移动机器人视觉里程计流式控制方法是由张磊;王佳慧设计研发完成,并于2022-10-27向国家知识产权局提交的专利申请。
本一种基于深度学习的移动机器人视觉里程计流式控制方法在说明书摘要公布了:本发明涉及一种基于深度学习的移动机器人视觉里程计流式控制方法,属于计算机视觉与定位控制技术领域。首先获取场景的RGB图像和Depth图像并配准。通过语义分割和目标检测相结合的方法识别场景中的移动目标,生成mask掩膜。之后,使用视觉里程计估计深度相机位姿,使用预测方法得到深度相机预测位姿并连续输出。然后将系统设置为线程并行执行,线程之间共用的信息设置为共享变量。最后,计算系统的流性能,进行流式评估。根据评估结果,对视觉导航系统进行优化控制。本方法能够得到连续稳定的深度相机位姿输出,达到视觉里程计流式处理控制要求,且在考虑算法时间延迟的基础上,获得相较于非实时的视觉里程计更好的流性能。
本发明授权一种基于深度学习的移动机器人视觉里程计流式控制方法在权利要求书中公布了:1.一种基于深度学习的移动机器人视觉里程计流式处理方法,其特征在于,包括以下步骤: 步骤1:获取场景的RGB图像和Depth图像,并进行配准; 步骤2:识别场景图像中的动态目标,生成mask掩膜; 步骤3:使用视觉里程计,估计深度相机的位姿; 步骤4:根据深度相机的历史位姿,预测深度相机的当前位姿; 根据步骤3得到的深度相机位姿中距离当前最近的两次位姿,计算深度相机的速度矩阵Velocity,表示为: Velocity=Tnl=Tnw×Twl 其中,Twl是前一次相机位姿,Tnw是后一次相机位姿,Tnl是相机运动的速度矩阵; 根据速度矩阵Velocity,预测当前的相机位姿Tfw,表示为: 其中,Δt为待预测的图像帧序号与后一次相机位姿Tnw处理的图像帧序号的差值; 步骤5:连续输出深度相机位姿; 步骤6:将系统设置为多线程并行模式; 根据步骤1、步骤4和步骤5,将场景图像输入、深度相机位姿预测以及深度相机位姿的连续输出合并为主线程; 根据步骤2,将语义分割作为一个单独的mask线程; 根据步骤3,将视觉里程计作为一个单独的track线程; 将主线程、mask线程和track线程设置为并行执行,线程之间共享所需信息; 步骤7:对系统进行流式评估; 根据步骤1输入的深度相机真实位姿和输入时间戳,表示为: 其中,gti是输入的深度相机真实位姿,ti是输入时间戳,i是输入帧序号,M是输入帧的数量; 根据步骤5输出的深度相机预测位姿和输出时间戳,表示为: 其中,opj是输出的深度相机预测位姿,sj是输出时间戳,j是输出结果序号,N是输出位姿的数量,且N<M; 对于每一帧输入i,都找到一个输出结果与之对应,使得输入时间戳和输出时间戳满足流式评估的要求,表示为: 其中,μi表示评估的起始帧序号,是与第i帧输入对应的第j个输出结果序号;最终,计算流性能τ表示为: 其中,loss是计算真实位姿和预测位姿的损失函数;表示与第i帧输入对应的输出结果;M是输入帧的数量; 根据评估结果,对视觉导航系统进行优化控制,开展移动机器人的自主定位与路径导航。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。