Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中南大学邓宏贵获国家专利权

中南大学邓宏贵获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中南大学申请的专利一种无锚视觉目标追踪网络的训练方法和目标追踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115205331B

龙图腾网通过国家知识产权局官网在2025-07-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210718971.4,技术领域涉及:G06T7/246;该发明授权一种无锚视觉目标追踪网络的训练方法和目标追踪方法是由邓宏贵;徐齐国设计研发完成,并于2022-06-23向国家知识产权局提交的专利申请。

一种无锚视觉目标追踪网络的训练方法和目标追踪方法在说明书摘要公布了:本发明提供一种无锚视觉目标追踪网络的训练方法以及基于此网络的目标追踪方法,该方法中的无锚视觉目标追踪网络基于无锚设计,框架结构简单,通过特征融合网络提高目标在多层特征中的联合响应增强网络鉴别跟踪目标和相似目标的能力,分类任务中基于欧氏距离的中心置信度分支来抑制低质量预测框,网络将特征图中的每一点映射回原图感受野区域作为预选框,通过回归预测计算该点与目标框四边距离,从而对宽高进行预测,从而实现更简洁的网络架构和更高的实时追踪性能。

本发明授权一种无锚视觉目标追踪网络的训练方法和目标追踪方法在权利要求书中公布了:1.一种无锚视觉目标追踪网络的训练方法,其特征在于:所述无锚视觉目标追踪网络包括:特征提取主干网络,特征融合网络,多分支预测网络;所述训练方法包括: 步骤101:对数据集进行预处理,所述数据集包括多个原始图像,每个原始图像对应一个真实目标框,所述真实目标框标识出所述原始图像中追踪目标所处的矩形位置范围; 所述原始图像经预处理后形成对应的图像对,所述图像对包括一个模板图像和对应的一个搜索图像,其中所述搜索图像的尺寸大于所述模板图像,所述追踪目标处于所述搜索图像和所述模板图像中的中心位置; 步骤102:将所述图像对的模板图像和搜索图像分别输入到所述特征提取主干网络,得到输出的所述图像对对应的图像特征图; 其中,所述特征提取主干网络为全卷积网络,由1个Stem模块,和4个Stage模块串联组成,其中所述Stem模块对输入的所述模板图像和所述搜索图像进行下采样,第一个Stage模块用于对所述Stem模块的输出进行下采样,后3个Stage模块依次扩充通道数,网络总步长为8; 步骤103:将所述图像特征图输入到特征融合网络,得到输出的所述图像对对应的融合特征图; 步骤104:将所述融合特征图输入到多分支预测网络,得到输出的分类得分图Rclc、中心置信度得分图Rcen和距离信息图Rreg; 其中,Rreg为4通道,其任一位置的值Rregi,j为l,t,r,b,代表位置i,j映射回所述原始图像后分别到所述真实目标框左边、上边、右边、下边的预测距离; 步骤105:计算总损失值L,并根据L来训练所述无锚视觉目标追踪网络的网络参数; 其中,L=Lcls+λ1Lcen+λ2Lreg,Lclc为分类损失值,Lcen为中心置信度损失值,Lreg为回归损失值,λ1和λ2为预设参数; 其中,所述中心置信度损失值 Lableclci,j表示任一位置i,j的样本归属,如果i,j位置的l,t,r,b与所述真实目标框的偏差在预设范围内,则i,j位置属于正样本Lableclci,j=1,如果所述偏差不在所述预设范围内,则i,j位置属于负样本Lableclci,j=0;Rceni,j为所述中心置信度得分图在i,j位置的值; Cceni,j为位置i,j的真实中心度,代表位置i,j映射回所述原始图像后到真实目标中心的距离归一化值,

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中南大学,其通讯地址为:410083 湖南省长沙市岳麓区麓山南路932号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。