Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 湖南大学余洪山获国家专利权

湖南大学余洪山获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉湖南大学申请的专利一种基于端到端特征优化模型的无人系统视觉自定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115659836B

龙图腾网通过国家知识产权局官网在2025-09-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211411175.2,技术领域涉及:G06F30/27;该发明授权一种基于端到端特征优化模型的无人系统视觉自定位方法是由余洪山;王静文设计研发完成,并于2022-11-10向国家知识产权局提交的专利申请。

一种基于端到端特征优化模型的无人系统视觉自定位方法在说明书摘要公布了:本发明公开了一种基于端到端特征优化模型的无人系统视觉自定位方法,步骤一、构造模型;构造端到端预测全局位姿的深度神经网络模型,即Re‑PoseNet网络,或称Re‑PoseNet模型;步骤二、模型训练;针对某一特定场景,对Re‑PoseNet模型进行训练;步骤三、模型应用;将在所述的特定场景处采集的图像输入到Re‑PoseNet模型中,返回端到端的位姿估计结果。该基于端到端特征优化模型的无人系统视觉自定位方法具有精度高、实时性好、鲁棒性强、存储空间占用小、适用于室内外多种场景等优点。

本发明授权一种基于端到端特征优化模型的无人系统视觉自定位方法在权利要求书中公布了:1.一种基于端到端特征优化模型的无人系统视觉自定位方法,其特征在于,包括以下步骤: 步骤一、构造模型 构造端到端预测全局位姿的深度神经网络模型,即Re-PoseNet网络,或称Re-PoseNet模型; 步骤二、模型训练 针对某一特定场景,对Re-PoseNet模型进行训练; 步骤三、模型应用 将在所述的特定场景处采集的图像输入到Re-PoseNet模型中,返回端到端的位姿估计结果; Re-PoseNet模型包括特征提取器、特征优化模块和位姿回归器,特征提取器是基于残差网络ResNet34的特征提取器,特征优化模块由两个交叉注意力模块和四方向的长短期记忆模块组成,位姿回归器由全连接层构成; 步骤二中的训练所用到的训练集的获取方式为: 使用装载视觉传感器的移动机器人随机遍历某一场景,采集一组图像及其全局位姿作为训练数据集T,用于构建该场景的隐式地图模型,其中每帧图像对应的全局位姿作为后续网络训练的真值标签,记为其中表示位置信息,是用四元数表示的旋转信息; 训练过程为: 步骤1:对训练数据集T中的所有图像Ii进行预处理,生成尺寸为256×256、像素强度介于-1和1之间的训练图像 步骤2:将一组训练图像及其位姿标签按照批量大小batch_size=64输入Re-PoseNet,通过位姿回归器得到预测位姿[p,q],同时构建联合损失函数计算预测位姿[p,q]与其对应真值之间的损失; 步骤3:设置超参数初始学习率为5×10-5,迭代次数为1000,使用Adam优化器训练Re-PoseNet网络,通过迭代使得损失函数不断收敛减小,更新网络参数直至达到迭代次数,选取损失函数取得最小值时对应的一组模型参数,作为该场景最优的隐式地图模型; 步骤三中,移动机器人在该场景内以任意运动状态进行作业,对其在任意时刻采集的位姿未知的图像It进行预处理,生成尺寸为256×256、像素强度介于-1和1之间的图像并作为查询图像输入训练好的具有最优权重的Re-PoseNet模型中; 通过特征提取器得到查询图像的特征图再经由注意力模块和长短期记忆单元得到经过优化的特征向量最后由位姿回归器分别输出预测的位置信息与旋转信息获得端到端的位姿估计结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410000 湖南省长沙市岳麓区麓山南路麓山门;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。