Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 四川大学刘艳丽获国家专利权

四川大学刘艳丽获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉四川大学申请的专利一种结合图注意力和区域分类的视觉重定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119399550B

龙图腾网通过国家知识产权局官网在2025-10-31发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411713084.3,技术领域涉及:G06V10/764;该发明授权一种结合图注意力和区域分类的视觉重定位方法是由刘艳丽;王宜宁;邢冠宇设计研发完成,并于2024-11-27向国家知识产权局提交的专利申请。

一种结合图注意力和区域分类的视觉重定位方法在说明书摘要公布了:本发明公开了一种结合图注意力和区域分类的视觉重定位方法,涉及计算机视觉中视觉重定位领域。该方法采取场景区域分类的方法,对空间场景进行建模与层次分类,对数据进行重标注,采用层次化的场景坐标区域回归与相对坐标预测的做法,将重定位问题由粗到细地将重定位问题前置转换为一个分类问题,最终将定位集中在一个小型区域内,有助于改善大场景规模下的重定位问题;运用图注意力机制,结合分类结果,使得图像中的像素点更好地获取与其处于同一个区域内的其他像素点的信息,产生更为优秀的特征表示。本发明能够解决真实场景下的视觉重定位问题。

本发明授权一种结合图注意力和区域分类的视觉重定位方法在权利要求书中公布了:1.一种结合图注意力和区域分类的视觉重定位方法,其特征在于: 1包括以下步骤: a.对数据集处理建模,将场景区域分割为多层级的子区域空间,将数据集图像中的像素点重标注多层级的子区域标签; b.利用训练数据对于网络模型进行训练,得到该场景下对应的网络参数数据; c.根据已有网络模型,输入图像,得到该输入图像中每个像素点对应的空间坐标关系; d.通过基于RANSAC的PnP算法计算输入图像对应6-DoF的位姿; 2所述网络模型包括: a.一个特征提取模块,由若干卷积层组成,将输入图像表示为一个特征图; b.一个场景区域回归模块,将输入图像中的每个有效像素点预测到其在每个层级所属区域; c.一个相对坐标回归模块,将输入图像利用上述区域预测信息进行同类别间像素点的图注意力机制运算,结合卷积运算,最终生成图像中有效像素点对应的三维空间坐标; 3所述对数据集的处理建模与场景区域分割包括: a.对已有数据,利用其图像信息,相机参数,位姿参数信息,通过重投影方式对应图像中的有效像素点投射到三维空间,生成该场景的点云模型; b.利用选中的分类算法,对于点云空间分割为多个子区域,然后在每个子区域中重复分割步骤,以生成层次化的场景划分,记录每个划分中心点的坐标; c.对于每张图像的每个有效像素点,利用3a中所述重投影方法,寻找每个层级中与其最为接近的区域划分中心,标注该像素点在此层级下的类别为该区域,存储该重标注结果; 4网络模型中的相对坐标回归模块包括以下步骤: a.得到输入该模块的输入特征向量其中:H和W分别为图像的高度和宽度,C1表示通道数量; b.通过数个卷积层,进一步提取特征,得到输出特征向量其中:C2表示通道数量; c.将x2送入多层次的区域标签回归网络,在每一层,得到图像中每个像素点在该层次区域划分中所属的区域,以独热码表示为YLm∈{0,1}H×W×K,其中,K表示在该层次,将其所属上一层区域分类的块数,在最高层次即表示将整个场景分类的块数;在多层次的网络架构中,对于非最高层次之外的每层,通过基于FiLM的调节层,将上级网络架构的输出引入下层,根据fx,w=γw⊙x+βw对原特征向量进行调节,其中:x为当前层输入特征图,⊙表示哈达玛积,γw与βw在网络训练过程中一同被训练; d.经过上述每一层后,对于输入图像中的每一个像素点,可以对应到一个对应场景中与该网络层次对应的子区域,完成最后一层后,对于输入图像中的每一个像素点,在由粗到细的区域划分的每一层中,有一个对应的类别; e.根据上述步骤,结合每一层网络输出的图像像素区域标签,确定输入图像中每个像素点的区域类别标签后,根据其所述类别,将同类别的像素点分为一组,根据场景区域层次划分时的参数设定以及输入图像的尺寸,决定一个阈值Kmin,统计分组后每一组的像素点的个数,保留个数≥Kmin的组别,表示为: f.设定图注意力机制层数L,利用下式执行图注意力机制运算: 其中,即表示整个图注意力运算过程,表示步骤4e中同一组所有像素点对应的特征表示,表示图注意力机制的每一层; 对于4e中筛选后的每一组,对于所述每一组的每一个像素点,按层次地进行图注意力机制运算,表示如下: 其中,表示中所有像素点的特征描述符的对于点i的聚合消息结果,[.||.]表示拼接操作,在不同的图注意力层中的并不相同,通过下式所述方法进行计算: 其中,注意力权重αij为经过Softmax的key-query相似度,通过下式所述方法进行计算: 其中,q,k,v即图注意力机制运算中的query,key,value,通过下式所述方法进行计算: 在不同的图注意力层中,系数并不相同; h.待所有组执行上述运算后,汇总全部有效像素点特征,得到特征向量表示其中,C3表示通道数量,通过多层卷积,最终为每一有效特征点输出一个预测的三维坐标; 5网络训练过程中使用的损失函数包括: L=λ1Lc+λ2Lr+λ3Lrep Lc表示分类损失,具体表示如下: i指图像中每个有效像素点; Lr表示坐标回归损失,具体表示如下: i指图像中每个有效像素点; Lrep表示重投影损失,具体表示如下: i指图像中每个有效像素点,R指真实的位姿中的旋转矩阵,t指真实的位姿中的平移矩阵,π.指将世界坐标中的点映射到图像坐标系,u指该像素点在图像坐标系中的真实坐标; 其中,λ1,λ2,λ3,λc-r,λc-s,λrce,λce为参数,在训练过程的前期,偏向于Lc,在中期和后期过程中,逐步增加Lr与Lrep的比重。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人四川大学,其通讯地址为:610065 四川省成都市武侯区一环路南一段24号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。