广东工业大学曾碧获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉广东工业大学申请的专利一种基于物体语义的视觉重定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115830126B 。
龙图腾网通过国家知识产权局官网在2025-08-29发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211695350.5,技术领域涉及:G06T7/73;该发明授权一种基于物体语义的视觉重定位方法是由曾碧;林中文;江明设计研发完成,并于2022-12-28向国家知识产权局提交的专利申请。
本一种基于物体语义的视觉重定位方法在说明书摘要公布了:本发明公开了一种基于物体语义的视觉重定位方法,在SLAM建图的同时,使用YOLOv5算法得到图像中各个物体的检测结果;估计物体的三维椭球表示和在三维空间中的6‑Dof位姿,同时记录对象的共视关系,提取检测到的物体bbox内图像的特征点构建词袋数据库;在需要重定位时,根据丢失帧检测到的物体,生成BOW向量与数据库做比对找出各个物体对应的候选对象;通过构建椭球和bbox之间的约束迭代多次计算,选择代价最低的为初始位姿,最后通过当前帧特征点和历史点云地图以及物体位姿求解ICP问题获得最后的精确定位。该方法该方法有效的提升了视觉重定位的速度、精度、鲁棒性和适用范围,在大视差环境下相比基于视点特征的方法有着刚好的表现。
本发明授权一种基于物体语义的视觉重定位方法在权利要求书中公布了:1.一种基于物体语义的视觉重定位方法,其特征在于,包括: 通过搭载于机器人上的RGB-D相机获取环境的图像,通过目标检测算法对图像进行处理,得到图像中各个物体的检测结果;通过对多帧图像中检测到的同一物体的检测框进行对象建模,得到对象的三维椭球表示和在三维空间中的6-Dof位姿; 为每一个对象构建词袋数据库以及构建一个所有对象的共视邻接表; 当机器人需要重定位时,首先结合丢失帧图像的目标检测结果,通过查询词袋数据库和共视关系表,确定丢失帧观测到物体的对应候选对象,从而得到丢失帧图像中对象和检测框的对应关系; 利用所述对象和检测框的对应关系,通过检测框和对应物体椭球估计相机初始位姿; 在得到初始的位姿估计之后,使用迭代最近点配准算法优化位姿,从而实现机器人的全局重定位; 所述为每一个对象构建词袋数据库以及构建一个所有对象的共视邻接表,包括: 对于每一个初始化成功的对象建立一个BOW向量库,该向量库是一个存储BOW向量的集合,在对象初始化成功时建立,初始时为一个空集合;计算出本帧图像检测到的检测框bbox和这些检测框bbox对应的对象,对于每个检测到的检测框bbox,通过orb特征点提取算法提取检测框bbox中的图像特征点;对具体的一个检测框bbox中所有的特征点,通过DBoW算法生成对应BOW向量;将获取到的BOW向量与检测框bbox对应对象的BOW向量库里的所有BOW向量进行匹配,如果匹配分数低于阈值,则将该BOW向量加入该对象的BOW向量库; 对象a与对象b如果在一帧图像中同时观测到,则认为对象a与对象b共视;对于当前帧观测到的所有对象,视为这些对象之间具有共视关系,将这些共视关系以邻接表的形式存储起来;共视邻接表是一个n*n的矩阵,其中n为初始化成功的对象个数,矩阵中的第i行第j列元素为1表示对象i和对象j是共视的。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人广东工业大学,其通讯地址为:510062 广东省广州市越秀区东风东路729号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。