北京工业大学于乃功获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京工业大学申请的专利一种基于亚特兰大世界和语义信息的室内SLAM方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119762662B 。
龙图腾网通过国家知识产权局官网在2025-12-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411585324.6,技术领域涉及:G06T17/00;该发明授权一种基于亚特兰大世界和语义信息的室内SLAM方法是由于乃功;程启明;闫金涵;付一凡;谢秋生设计研发完成,并于2024-11-07向国家知识产权局提交的专利申请。
本一种基于亚特兰大世界和语义信息的室内SLAM方法在说明书摘要公布了:一种基于亚特兰大世界和语义信息的室内SLAM方法属于同时定位与建图技术领域。该方法结合了改进后的语义分割网络,生成带有语义信息的平面实例掩膜,并通过PCA主成分分析方法提取平面参数;匀速跟踪模型与平面参数完成平面匹配,并且使用重力方向将不符合亚特兰大结构的平面剔除掉;最后,检测亚特兰大坐标系并通过平面匹配的结果完成对亚特兰大坐标系的匹配,使用匹配的结果进行位姿估计,并对亚特兰大坐标系进行校正。该方法能够应用到实际物理环境中,减少弱纹理环境下累积误差对视觉里程计位姿估计的影响,提供鲁棒、高精度的定位信息。
本发明授权一种基于亚特兰大世界和语义信息的室内SLAM方法在权利要求书中公布了:1.一种基于亚特兰大世界和语义信息的室内SLAM方法,其特征在于,包括如下几个步骤: 步骤1,利用RGB-D深度相机采集标准室内图像,获取连续RGB图像和深度图像序列; 步骤2,对于步骤1采集的RGB图像,使用基于改进的Yolov8平面实例分割网络分割出具有曼哈顿结构的平面语义图像; 步骤3,将步骤2获取的平面图像与步骤1获得的深度图像结合,使用PCA主成分分析方法获得平面参数; 步骤4,基于匀速跟踪模型与平面参数完成平面匹配; 步骤5,根据语义信息与匹配平面的参数获取重力方向,使用重力方向将不符合亚特兰大结构的曼哈顿平面剔除; 步骤6,将平面进行正交检测,检测所有的亚特兰大坐标系,使用当前帧的亚特兰大坐标系与地图中的亚特兰大坐标系匹配,匹配到关键帧; 步骤7,基于当前帧匹配到的关键帧,进行位姿估计、局部建图; 步骤2具体步骤如下: 将RGB图像传入Yolov8-seg实例分割网络的骨干网络进行特征提取,将提取到的特征传入多尺度特征融合模块,将融合后的特征进行注意力增强,通过通道注意力模块与空间注意力模块获得平面的目标检测框,最后传入多尺度实例分割模块,产生平面实例分割掩膜和平面语义信息,使用平面语义信息筛选平面后提取出具有曼哈顿结构的平面; 步骤4具体如下: 根据匀速跟踪模型粗略估计当前帧的位姿,记匀速跟踪模型估计的当前帧的位姿为当前帧的位移为D,步骤2得到平面在当前帧的中心点坐标为Mc,平面在当前帧的法向量为nc,计算平面在初始坐标系下的参数表示,如公式4所示: =M+D4 计算当前平面与地图平面的角度差与平面距离差,其中nmap为地图平面的法向量,dmap为世界原点到地图平面的垂直距离,如公式5所示: △angle=n·nmap △d=dmap+n·M5 当角度差低于阈值0.05时且平面距离差低于0.03米,则认为平面匹配成功。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100124 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励