买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
摘要:本发明提供一种视觉跟踪方法及跟踪装置,方法包括:实时获取包含目标人物的待测视频;构建跟踪网络并用采集的行人视频数据集训练所述跟踪网络,所述跟踪网络基于对比学习结构使用特征池结构更新模板特征;用训练好的跟踪网络确定所述待测视频中的目标人物的目标人物框,得到跟踪结果。通过增加特征池结构,优化模板分支的特征,特征池能够在低时间复杂度动态更新模板,更好地匹配后续帧特征,有效降低累计误差,缓解跟踪框漂移问题;特征池结构能够让跟踪网络模型在长时序列跟踪保持稳定,提高跟踪方法的鲁棒性。
主权项:1.一种视觉跟踪方法,其特征在于,包括如下步骤:S1:实时获取包含目标人物的待测视频;S2:构建跟踪网络并用采集的行人视频数据集训练所述跟踪网络,所述跟踪网络基于对比学习结构使用特征池结构更新模板特征;S3:用训练好的跟踪网络确定所述待测视频中的目标人物的目标人物框,得到跟踪结果;采集的行人视频数据集使用整体跟踪损失函数LT训练所述跟踪网络;所述整体跟踪损失函数表达式为由头轨迹约束损失LH和密集损失LC两部分组成:LT=βLH+1-βLC其中,β为超参数;其中,所述头约束损失LH的表达式为: 其中,γ1、γ2为超参数,l为标注的头框和全身框中心点距离,L为标注的全身框对角线长度,θ为l与L的夹角,为从对应预测结果中得到的值;所述密集损失函数LC的表达式为:Lc=Lcls+λ1Lreg+λ2Lcent其中,Lcls是分类损失,Lreg是回归损失,Lcent是中心测度损失,λ1和λ2为权重参数;所述分类损失和中心测度损失均交叉熵损失形式表示,表达式为: 其中,a是cls或cent,La是分类损失或中心测度损失,j是第j帧样本,yaj是第j帧的标签,paj是第j帧分类分支或中心测度分支的预测置信度;所述中心测度分支的预测置信度表达式为: 其中,l*、r*、t*、b*分别是预测的中心点到全身标签框左边界、右边界、上边界、下边界的距离;回归损失表达式为:Lrep=LGIOU+α1Lagg-α2Lrep其中,LGIOU是泛化交并比损失,Lagg是聚合损失,Lrep是排斥损失,α1、α2为权重参数;所述泛化交并比损失函数表达式为:LGIOU=1-GIOUgt,bj所述泛化交并比表达式为: 其中,gt是全身标签框,bj是全身预测框,C是能够包住gt和bj的最小框;所述聚合损失函数表达式为: 其中,gtj是第j帧目标人物的全身标签框,pi是归属于第j帧标签框的全身预测框,|pj+|是第j帧预测为正样本的候选框数目;所述smoothl1函数表达式为: 所述排斥损失函数表达式为: 其中,bi是全身预测框,gj是同该帧全身标签框交并比最大的预测为背景的框,|pj+|是第j帧预测为正样本的候选框数目,IOG是bi和gj的交并比;所述smoothln函数表达式为: 其中,σ∈[0,1表示平滑参数。
全文数据:
权利要求:
百度查询: 清华大学深圳国际研究生院 一种视觉跟踪方法及跟踪装置
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。