太原理工大学续欣莹获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉太原理工大学申请的专利基于实例分割与三维重建的动态环境单目多物体SLAM方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116310128B 。
龙图腾网通过国家知识产权局官网在2025-11-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310303642.8,技术领域涉及:G06T17/00;该发明授权基于实例分割与三维重建的动态环境单目多物体SLAM方法是由续欣莹;冯洲;齐稷;郑宇轩;张喆设计研发完成,并于2023-03-27向国家知识产权局提交的专利申请。
本基于实例分割与三维重建的动态环境单目多物体SLAM方法在说明书摘要公布了:本发明涉及自动驾驶和计算机视觉技术领域,尤其涉及一种基于实例分割与三维重建的动态环境单目多物体SLAM方法,该方法包括:获取自动驾驶车辆行驶过程中采集的图像帧序列;对每一帧图像上进行特征提取,对关键帧图像上利用实例分割网络获取图像中的动态物体与静态物体,对动态特征点进行标记与剔除影响,利用贝叶斯概率传播得到当前帧动态特征点,并剔除;对提取的多静态物体获取其掩膜、边界框与稀疏3D点云,利用PCA获取其初始位姿;在多帧观测、数据充足后,利用三维重建网络获取其外形隐式编码与优化后位姿,并对其进行三维重建。本发明能减少传统SLAM方法在动态环境下的绝对轨迹误差,提高了系统位姿估计准确性与鲁棒性,提升了地图的语义程度。
本发明授权基于实例分割与三维重建的动态环境单目多物体SLAM方法在权利要求书中公布了:1.基于实例分割与三维重建的动态环境单目多物体SLAM方法,其特征在于,包括如下步骤: 步骤1、获取自动驾驶车辆行驶过程中采集的图像帧序列,对每一帧图像进行特征提取并对其进行分类,分为关键帧和普通帧; 步骤2、使用实例分割网络获取动静态物体掩膜,并对动态物体内特征点标记与剔除,子步骤如下: 步骤2.1、利用训练好的SparseInst实例分割网络对关键帧进行实例分割,得到先验语义掩膜合集,大小为n×h×w,包含对应训练分数n×1; 步骤2.2、先验语义掩膜合集中包括先验动态物体的掩膜和预先设定的静态物体掩膜,先验动态物体的掩膜即大小为a×h×w的动态物体掩膜,将动态物体掩膜合集合并为h×w大小的动态物体掩膜;预先设定的静态物体掩膜即大小为b×h×w的动态物体掩膜,根据SparseInst实例分割网络输出的b×1的分数,选取动态物体掩膜中对应分数阈值大于α的物体掩膜共c个,即选取c×h×w大小的静态物体掩膜,并利用OPENCV算法计算每个静态物体掩膜对应的二维边界框,得到的二维边界框合集为c×h×w; 步骤2.3、提取关键帧图像中的特征点,标记当前关键帧图像中动态物体掩膜内的特征点的初始移动概率,更新为belx0,其余静态特征点的初始移动概率更新为1-belx0,剔除掉关键帧图像匹配特征点合集中的动态特征点; 步骤3、利用贝叶斯概率传播将关键帧图像中的动态物体掩膜内的动态特征点传播到普通帧当中,子步骤如下: 步骤3.1、提取新一帧图像中的ORB特征并计算描述子,当前帧I与上一帧已剔除动态特征点的图像帧F进行特征匹配,上一帧若为关键帧则直接利用已经剔除动态特征点的关键帧进行特征匹配; 步骤3.2、两帧图像匹配后得到两帧相机位姿变化R和t,将上一帧图像中静态特征点与动态特征点投影到当前相机帧当中,计算所有特征点匹配像素误差d; 步骤3.3、根据特征点匹配像素差d更新对应特征点的移动概率,即利用下式进行特征点移动概率更新: 1, 其中,d1、d2为本方法设定的特征点匹配像素差两个上下限阈值,根据d1、d2与特征点匹配像素差d确定特征点的移动概率,zt为当前帧观测到特征点的状态,mt为当前帧特征点实际的状态,即是动态或静态; 步骤3.4、对所有特征点进行状态更新,根据关键帧图像中的初始移动概率belx0与当前图像帧中测量概率,其中测量概率为公式1所示的移动概率更新,将移动概率状态更新表示为贝叶斯滤波器: 2, 其中,belmt为当前帧图像单个特征点移动状态概率,z1:t为第一帧到当前帧图像特征点的观测状态,z1:t-1为第一帧图像到上一帧图像特征点的观测状态,m0为特征点初始化状态; 根据贝叶斯规则与条件独立性可知,当前帧观测zt仅依赖于当前状态mt,η为归一化常数,其中状态预测由公式3得到: 3, 其中状态转移概率PMt∣mt-1=0.95,即动态特征点在下一帧后状态改变的概率,同理静态特征点也相同,belmt-1为对应特征点在上一帧图像中的移动状态概率最终特征点状态利用公式4更新,依靠阈值和来判断单个特征点是动态还是静态: 4, 其中,Pmt为2式所求出的特征点状态belmt,θd为本方法设定动态特征点的下限值,高于该值的为动态特征点;θs为本方法设定静态特征点的上限值,低于该值的为静态特征点;中间范围的设定为位置状态;判断完成后,在当前图像帧中标记动态特征点,并剔除掉动态特征点在相邻帧特征匹配中产生的影响,处理之后的当前图像帧又与下一帧图进行图像匹配; 步骤4、创建物体对象,子步骤如下: 步骤4.1、获取关键帧图像中分割的c个静态物体对象,并计算得到每一个静态物体对应的三维稀疏点云P,检测对应物体是否已经创建,若已经创建,则将当前关键帧中静态物体对应的三维稀疏点云更新到已创建的静态物体中,若未创建,则创建静态物体对象;其中,创建静态物体对象的过程为:利用当前静态物体掩膜M和与其对应的二维边界框B、三维稀疏点云P、初始位姿Tco,0进行实例化,创建静态物体对象In: 5 其中,当静态物体上三维稀疏点云P的数量满足设定值时,使用PCA算法利用公式5计算当前静态物体的初始位姿Tco,0: 6; 其中,s为相机尺度;Rco为静态物体当前帧图像的旋转矩阵,tco为静态物体当前帧图像的平移向量,Sim3为根据匹配点来求解相似变换,即求解两个坐标系之间的旋转矩阵、平移向量和尺度;当静态物体上三维稀疏点云P的数量不满足设定值时,则转至下一静态物体; 步骤4.2、依次循环检测当关键帧图像中的c个静态物体对象,根据步骤4.1实例化过程创建多个静态物体; 步骤5、多静态物体三维重建,子步骤如下: 步骤5.1、使用ShapeNet点云数据集对DeepSDF三维重建网络进行预训练,此时训练的物体为预先定义的静态物体,训练得到32维或64维的训练模型,具体维数与预先设定的维数相同即可; 步骤5.2、处理每一关键帧图像时,通过SparseInst实例分割网络检测到多个静态物体,根据步骤4.1和4.2更新每个静态物体上的三维稀疏点云P与初始位姿Tco,0; 步骤5.3、在单个静态物体观测帧数量达到γ且三维稀疏点云P的数量满足设定值时,将当前静态物体掩膜M和与其对应的二维边界框B、三维稀疏点云P、初始位姿Tco,0传入DeepSDF三维重建网络当中; 步骤5.4、使用32维或64维的训练模型推理每一个静态物体的32维或64维隐式编码Z与优化后物体位姿Tco; 步骤5.5、利用Pangolin可视化绘图库,使用静态物体隐式编码Z对每一静态物体进行三维重建,以此得到多个静态物体的三维重建结果,即构建多物体语义地图。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人太原理工大学,其通讯地址为:030024 山西省太原市迎泽西大街79号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励