西安电子科技大学王搏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西安电子科技大学申请的专利基于视觉信息的动态环境导航方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115900710B 。
龙图腾网通过国家知识产权局官网在2025-08-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211366835.X,技术领域涉及:G01C21/20;该发明授权基于视觉信息的动态环境导航方法是由王搏;程曦娜;张亦弛;焦李成;焦建斌设计研发完成,并于2022-11-01向国家知识产权局提交的专利申请。
本基于视觉信息的动态环境导航方法在说明书摘要公布了:本发明提出了一种基于视觉信息的动态环境导航方法,主要解决现有技术对室内动态目标处理及自动导航定位差的问题,其方案为:建立人类动态模型,并对其进行参数化;使用DeeplabV3+神经网络对室内的场景图像进行区域分割获取场景分割模型;基于神经网络训练好的场景分割模型进行多视图几何操作;将多视图几何操作后的图像回归ORBSLAM系统,利用该系统中的视觉里程计VIO模块进行相机的位姿估计;使用回环检测优化位姿并输出一个全局位姿,根据全局位姿重建3D网格;利用重建好的3D网格生成3D点云,在3D点云上构建全局地图,机器人利用全局地图在室内拥挤的动态环境中自主导航,本发明提高了导航性能,可用于室内定位。
本发明授权基于视觉信息的动态环境导航方法在权利要求书中公布了:1.一种基于视觉信息的动态环境导航方法,其特证在于,包括如下步骤: 1建立动态对象模型: 1a基于优化的方法先将3D网格匹配到2D图像关键点,再基于深度学习的方法匹配语义图像关键点与2D图像关键点,建立语义图像像素点到3D网格的联系; 1b据语义图像像素点到3D网格的联系,对皮肤多人线性模型SMPL进行参数化,通过其紧凑的姿态和形状描述,获得具有6890个顶点和23个关节的3D人体网格模型; 2采用双目相机拍摄的图像和RBG-D相机拍摄的深度图像作为输入,使用DeeplabV3+神经网络对室内的场景图像进行区域分割,得到场景分割模型; 3基于DeeplabV3+神经网络的场景分割模型分割图片帧,基于分割后的结果去除潜在动态区域内部和周围像素,再将静态区域的特征点投影到图片帧中,并最小化重投影误差,实现多视图几何操作; 4于现有的ORBSLAM系统,输入单双目图像、RGB-D深度图像,融合DeeplabV3+神经分割网络和人体3DSMPL模型,并利用步骤2中区域分割的初结果对场景的图片帧进行多视图几何操作,再将几何操作后的图像回归到ORBSLAM系统进行基于视觉的相机位姿估计; 5获取相机与室内环境相对的全局位姿: 5a于ORBSLAM系统中的视觉里程计VIO模块,利用惯性测量IMU数据计算局部相机位姿估计值,并使用现有的非线性优化方法对该相机局部位姿估计值和步骤4中的视觉位姿估计值进行综合,得到优化后的局部相机位姿估计值; 5b利用回环检测法对由多次跟踪所造成优化局部相机位姿估计值的累计漂移进行消除,输出相机与室内环境相对的全局位姿; 6重建3D网格: 6a利用得到的全局位姿,不断调整机器人的跟踪轨迹,在相机跟踪过程中的关键帧上获取图像上2D特征点,并在该特征点上进行Delaunay三角剖分,形成帧图像上的2D三角网格; 6b对2D三角网格做反向投影操作,生成一个3D网格; 7语义建图: 7a使用基于体素TSDF算法去除重建好的3D网格噪声并提取该全局3D网格,再将步骤1的3D人体模型网格加入到该全局3D网格中; 7b对加入3D人体模型网格后的全局3D网格使用稠密双目立体算法获得来自于当前双目图片对应的3D点云; 7c对已经获取的包含人体模型的3D点云地图使用捆集光线投射方法,构建一个全局地图,机器人根据全局地图在室内动态的环境中进行导航。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安电子科技大学,其通讯地址为:710071 陕西省西安市太白南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。