Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 浙江大学李基拓获国家专利权

浙江大学李基拓获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉浙江大学申请的专利一种融合时空语义信息的端到端单目视觉里程计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120088332B

龙图腾网通过国家知识产权局官网在2025-08-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510578595.7,技术领域涉及:G06T7/73;该发明授权一种融合时空语义信息的端到端单目视觉里程计方法是由李基拓;孙顺旺;张佳路;薛庭熙;胡锦瑶;邹雨哲;陆国栋设计研发完成,并于2025-05-07向国家知识产权局提交的专利申请。

一种融合时空语义信息的端到端单目视觉里程计方法在说明书摘要公布了:本发明公开了一种融合时空语义信息的端到端单目视觉里程计方法。此方法通过彩色单目相机采集连续图像序列帧,构建了多信息融合的端到端深度学习框架;还采用异构训练域集合多种数据集课程共享参数融合训练,并通过输入连续图像序列,所述端到端深度学习框架动态耦合历史输出的隐状态特征向量,形成时序感知的特征映射关系,实现对场景中静态背景要素与动态实体对象的可解释特征解耦。经迭代式特征融合后,系统输出符合场景几何约束的稀疏深度及相机运动位姿,从而构建了一个在复杂环境下具有高鲁棒性和强泛化能力的相机轨迹估计模型。该方法显著提升了单目视觉里程计的定位精度和稳定性。

本发明授权一种融合时空语义信息的端到端单目视觉里程计方法在权利要求书中公布了:1.一种融合时空语义信息的端到端单目视觉里程计方法,其特征在于,包括以下步骤: 1通过彩色单目相机采集连续图像序列,获取图像帧序列It、It+1、It+2…It+n,其中t表示当前帧的帧序数; 2构建端到端深度学习定位Transformer框架,所述框架包括:光流估计网络、多尺度光流特征提取网络、光流内参编码器、深度语义特征编码器、多模态时空特征融合解码器和相机位姿预测层; 3利用多源异构数据集与自主构建的动态模糊数据集进行课程共享参数学习,其中使用带权重衰减的自适应矩估计优化器结合基于Lambda函数的学习率调整器学习率分段衰减策略对网络权重学习和训练; 4对彩色单目相机采集得到的连续图像序列It与It+1输入到此构建的端到端深度学习定位Transformer框架中,获得图像帧之间的稀疏深度和相机相对位姿变换信息,具体为:通过以下迭代式时空特征融合机制实现相机运动轨迹估计: 4.1光流特征生成阶段:将连续输入帧It与It+1输入SEA-RAFT光流估计网络,输出像素级光流场Ft→t+1; 4.2多模态特征编码阶段:将光流场Ft→t+1和相机内参层K拼接输入光流内参编码器,生成多尺度光流内参编码特征向量Eflow_intrin;随后,将当前帧It输入DepthAnythingv2模型,同步提取多层级语义特征Esem和深度特征图Di,并通过多层感知机MLP将Esem与Di维度转换一致进行加权求和,生成增强的深度语义特征Edepth_sem; 4.3跨模态注意力融合阶段:在多模态时空特征融合解码器中,将Eflow_intrin、Edepth_sem与历史隐藏特征Hi-1输入,通过时序自注意力融合时序信息,可变形注意力模块实现自适应光流空间特征聚合,交叉注意力模块实现深度语义信息融合; 4.4时序递归优化阶段:将当前多模态时空特征融合解码器末层输出特征Hi输入相机位姿预测层,输出当前帧间相机的六自由度相对位姿;与此同时,通过全连接神经网络滤波器生成稀疏参考点的深度图;并且在下一时序步骤处理It+1与It+2时,将Hi作为时序自注意力模块的一部分输入,构建跨帧特征关联,如此随着时间的推移,各个时间帧都融入了上一帧的潜在特征; 4.5通过渐进式课程学习机制使递归特征传递过程在复杂场景下保持稳定收敛,最终形成时序链式依赖的轨迹优化结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310058 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。