Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 大连理工大学王栋获国家专利权

大连理工大学王栋获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉大连理工大学申请的专利一种面向智能机器人的可交互目标识别与跟踪算法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120526427B

龙图腾网通过国家知识产权局官网在2025-09-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511013001.4,技术领域涉及:G06V20/70;该发明授权一种面向智能机器人的可交互目标识别与跟踪算法是由王栋;袁永胜;赵洁;刘洋;卢湖川设计研发完成,并于2025-07-23向国家知识产权局提交的专利申请。

一种面向智能机器人的可交互目标识别与跟踪算法在说明书摘要公布了:本发明属于机器学习、可交互视频目标识别、单目标视觉跟踪技术领域,提出了一种面向智能机器人的可交互目标识别与跟踪算法。所述方法以人工在初始帧中单点点击为起点,通过Transformer结构提取图像与空间位置提示的深层特征,结合门控专家网络实现多模态信息的动态融合,预测目标初始边界框。在此基础上,构建多模态参考提示,包括视觉提示和空间位置提示,实现边界框的逐步精细优化。优化后的边界框可作为初始条件使用跟踪器实现目标在视频序列中的传播。该方法具备初始化成本低、标注精度高、网络结构轻量、泛化性强等优点,适用于真实环境下智能机器人交互等场景,有效提升了可交互跟踪系统的实用性与扩展能力。

本发明授权一种面向智能机器人的可交互目标识别与跟踪算法在权利要求书中公布了:1.一种面向智能机器人的可交互目标识别与跟踪算法,其特征在于,步骤如下: 步骤1:人工点击初始化与输入预处理; 以人工在视频初始帧中的单点点击为起点;在视频初始帧上点击目标上任意一点,该点坐标记为,随后将其归一化至区间,表示为点击坐标;与此同时,视频初始帧被缩放至固定尺寸320×320,记为图像;图像与点击坐标作为联合输入,为人工点击初始化提供一个目标提示; 步骤2:使用多任务统一模型进行目标粗定位; 步骤3:构建多模态提示优化阶段的输入信息; 步骤4:基于多模态提示优化的边界框精确定位; 步骤5:使用基于Transformer的视觉跟踪网络OSTrack实现视频目标跟踪; 步骤2的具体实现过程如下: 多任务统一模型主要由图像编码器、坐标编码器、特征编码器、门控专家网络和预测网络组成; 图像编码器由一层卷积网络组成,卷积步长为16×16,用于将图像转化为深度特征表示; 坐标编码器由双层线性前馈网络构成,用于将点击坐标转化为深度特征表示; 特征编码器采用视觉跟踪网络OSTrack的骨干网络,由N层带有门控专家网络的Transformer结构堆叠组成; Transformer结构由注意力机制和线性前馈层组成,其中Transformer结构中的注意力机制定义如下: ; 其中,Q、K、V分别表示输入特征向量的查询、键、值,表示特征向量的维度; 带有门控专家网络的Transformer结构先后由注意力机制、门控专家网络和线性前馈层组成;深度特征表示、深度特征表示在通过特征编码器中带有门控专家网络的Transformer结构时,首先经过注意力机制,深度特征表示中的位置信息和深度特征表示中的图像信息相互融合;深度特征表示、深度特征表示接着通过门控专家网络;门控专家网络由3个专家子网络和一个门控模块组成,每个专家子网络由双层线性前馈网络构成,门控模块根据深度特征表示、深度特征表示的内容动态分配计算路径,仅激活部分专家参与推理;深度特征表示、深度特征表示最后通过线性前馈层; 预测网络由三个预测头组成,分别用于预测点击目标中心点坐标概率分布图、点击目标中心点坐标偏移量与点击目标尺寸;由三个预测头的输出得到点击目标的粗略边界框,即点击坐标在图像中所对应目标的大致空间位置;其中,、分别表示点击目标中心坐标,、分别表示点击目标的宽度与高度。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116024 辽宁省大连市甘井子区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。