Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 厦门理工学院陈思获国家专利权

厦门理工学院陈思获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉厦门理工学院申请的专利基于多阶段自适应网络的鲁棒目标跟踪方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114092521B

龙图腾网通过国家知识产权局官网在2025-08-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111425943.5,技术领域涉及:G06T7/246;该发明授权基于多阶段自适应网络的鲁棒目标跟踪方法及系统是由陈思;王立波;王大寒;朱顺痣;吴芸设计研发完成,并于2021-11-26向国家知识产权局提交的专利申请。

基于多阶段自适应网络的鲁棒目标跟踪方法及系统在说明书摘要公布了:本发明涉及一种基于多阶段自适应网络的鲁棒目标跟踪方法及系统,该方法包括以下步骤:S1、构建离线训练数据集;S2、使用元学习的多步梯度下降训练方法对离线训练数据集进行训练,得到元学习模型;S3、构建多阶段自适应网络,包括领域自适应子网、特征自适应子网和位置自适应子网三个不同自适应子网络,S4、将测试视频中仅已知目标位置的第一帧输入到领域自适应子网,对构建的多阶段自适应网络进行初始化训练;S5、将测试视频中第二帧开始的后续帧依次输入到特征自适应子网中,利用多阶段自适应网络对测试视频进行跟踪。该方法及系统有利于获得更加稳定、鲁棒、准确的跟踪结果。

本发明授权基于多阶段自适应网络的鲁棒目标跟踪方法及系统在权利要求书中公布了:1.一种基于多阶段自适应网络的鲁棒目标跟踪方法,其特征在于,包括以下步骤: S1、从视频序列数据集中随机抽取两帧图片,第一帧作为支撑集,第二帧作为查询集,重复此操作得到多对支撑集与查询集,以此构建离线训练数据集; S2、使用元学习的多步梯度下降训练方法对离线训练数据集进行训练,得到元学习模型; S3、构建多阶段自适应网络,包括领域自适应子网、特征自适应子网和位置自适应子网三个不同自适应子网络,领域自适应子网利用元学习训练加强跟踪模型对新视频序列的泛化能力,特征自适应子网利用多层多尺度元分类器模块和对抗注意力掩码模块捕获鲁棒和判别特征信息来更新跟踪模型,位置自适应子网对初步结果进行边界框细化以增加跟踪准确度; S4、对构建的多阶段自适应网络进行初始化训练;将测试视频中仅已知目标位置的第一帧输入到领域自适应子网,通过随机梯度下降算法对第一帧和离线训练得到的元学习模型找到适应当前视频序列的最佳参数θ’,用于更新元特征提取器,然后将第一帧的目标特征向量输入对抗注意力掩码模块,利用生成的注意力掩码捕获原始特征中鲁棒特征,生成元对抗特征,其生成的损失反向传播用于更新元特征提取器; S5、利用多阶段自适应网络对测试视频进行跟踪;从第二帧开始,将测试视频的当前帧输入特征自适应子网中的多层多尺度元分类器模块获得多个候选目标样本的分类得分,取平均值作为目标置信分数;如果置信分数不大于0,则认为跟踪不成功,执行重采样操作,即扩大采样的搜索区域范围,以之前跟踪成功的目标位置作为当前帧目标中心,并重新采集正负样本;如果置信分数大于0,则将分值最大的候选样本作为目标位置并采集正负样本;然后,执行边界框回归操作,将回归后的结果作为位置自适应子网的输入,通过与第一帧的特征融合操作得到最终的目标跟踪结果;跟踪过程中,每隔设定帧执行一次长时更新,将跟踪结果的特征向量输入对抗注意力掩码模块,通过对抗判别训练得到元对抗特征来计算交叉熵损失;而短时更新在置信分数不大于0时执行,其不执行对抗注意力判别模块,而是利用重新采集的正负样本直接计算交叉熵损失; 所述步骤S2中,在支撑集上计算每一步损失,获得每一步更新后的参数,进而用更新后参数计算对应查询集上的每一步损失,将查询集上的损失求和进行总的梯度下降,从而找到模型可泛化的初始化参数θ*; 所述步骤S3中,所述领域自适应子网由元学习模型和元特征提取器组成,输入为仅已知目标位置的第一帧图片,输出为第一帧目标的特征向量;所述特征自适应子网由多层多尺度元分类器模块和对抗注意力掩码模块组成,其中多层多尺度元分类器模块由特征预测网络构成,输入为第二帧开始的后续帧,输出为该帧的目标置信分数;对抗注意力掩码模块由元对抗特征生成器构成,输入为目标跟踪结果的特征向量,输出为元对抗特征;位置自适应子网由边界框回归和特征融合操作组成,输入为经过边界框回归之后的初步结果,输出为自适应后精确的目标跟踪结果; 所述领域自适应子网中,跟踪模型根据输入第一帧图片,对其提取正负样本特征,通过softmax函数计算出置信分数,然后利用交叉熵损失函数计算出损失,进而求得梯度,通过随机梯度下降算法找到当前视频序列的最佳参数θ’,然后用于更新元特征提取器,所提取的特征用于对抗注意力掩码模块中进行对抗训练;利用元学习训练得到的初始化模型进行域适应以减少网络的过度拟合,并更新网络的卷积层参数以快速适应当前序列;通过域适应提高离线训练元学习模型的泛化能力,使模型自适应地根据给定目标调整学习率,然后找到最佳参数;当前视频序列的最佳参数通过以下公式求得: 其中,DS是来自视频序列第一帧的训练数据,表示参数为θ*的元学习模型,α是学习率,是根据第一帧损失L对θ*计算得到的梯度值;表示第一帧训练数据DS经过元学习模型得到预测值并利用交叉熵损失计算出相应损失,进而求导得到相应梯度; 所述特征自适应子网中,对抗注意力掩码模块的输入是目标结果的特征向量,利用对抗学习生成的注意力掩码和所提取特征进行Dropout操作,输出元对抗特征;其中对抗注意力掩码模块采用高阶代价敏感损失函数来计算损失,用于更新网络模型参数;多层多尺度元分类器模块的输入是第二帧开始的后续帧图片,利用权重共享的元特征提取器对后续帧图片提取特征,并对不同卷积层输出的特征大小进行特征融合操作,然后通过全连接层输出相应分数;具体方法为:构建多层多尺度元分类器模块,将不同层和不同尺度的特征进行融合,以适应尺度变化和形变等复杂跟踪场景;如果多层多尺度元分类器模块输出的候选样本的置信分数大于0,则将得分最高的候选样本作为位置自适应子网的输入;如果置信分数不大于0则执行短时更新;跟踪过程中,长时更新每隔十帧执行一次,通过生成器和判别器的迭代训练,利用对抗注意力掩码模块产生基于对抗学习的掩码,选择使判别器损失最大的掩码作为最新掩码;引入位置注意力机制,用来获得更有效的注意力掩码,捕获鲁棒特征以保持目标外观的变化;短时更新时执行重采样操作,即扩大搜索区域,重新采集样本,避免目标不在搜索区域内的情况;所述对抗注意力掩码模块采用的损失函数为: Lq,c=-c·1-q·logq+1-c·q·log1-q 其中c为类标签,取值0或1,q是目标对象的预测概率; 所述位置自适应子网中,输入为经过边界框回归之后的初步结果,然后和第一帧标签进行特征融合,最终输出细化之后的精确结果;其具体方法为:首先通过多层多尺度元分类器模块得出的置信分数以确定预测结果是否可靠;如果置信分数大于0,则认为跟踪可靠,否则认为跟踪不可靠;所述位置自适应子网采用边界框回归处理跟踪可靠的帧,该网络将回归后的结果经过特征融合来细化边界框,以处理尺度变化和部分遮挡;经过细化后的边界框作为最终的跟踪结果,然后将获得的元对抗特征用于对抗掩码模块中的输入;其中边界框回归方式如下所示: fz,v=Gx′,Gy′,G′w,Gh′≈Gx,Gy,Gw,Gh 其中z为参数,v为输入特征向量,f为映射函数,x,y,w,h为边界框坐标,G代表标签,G’为预测值。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人厦门理工学院,其通讯地址为:361024 福建省厦门市集美区理工路600号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。