Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于Transformer并行融合多尺度CNN的车辆重识别方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:大连交通大学

摘要:本发明公开了一种基于Transformer并行融合多尺度CNN的车辆重识别方法,基于多尺度局部注意力模块和双阶段特征融合模块实现,其中多尺度局部注意力模块与Resnet501‑3Layer共同组成CNN分支,专注于提取车辆不同尺度下的局部特征,提升了模型对关键细节的感知能力;所述双阶段特征融合模块,将Transformer分支提取的长期依赖关系特征与CNN分支提取的多尺度局部特征进行一次融合,并利用反向残差前馈网络进一步提取一次融合特征,之后与Transformer提取的整体语义特征再次融合,有效地整合了来自不同层次更具区分力的特征信息提升了模型兼顾全局和局部特征的能力,进而提升了车辆重识别的准确性。

主权项:1.一种基于Transformer并行融合多尺度CNN的车辆重识别方法,其特征在于,包括下述步骤:步骤1、构建VisionTransformer作为主干网络,提取车辆的的整体语义特征并捕获车辆特征的长程依赖关系,同时保留两部分特征,一部分是在XCls上提取的特征命名为Cls,另一部分是在上提取的特征命名为Featuremap;步骤2、构建Resnet501-3Layer初步提取局部特征;步骤3、构建多尺度局部注意力机制模块MultiscaleLocalAttentionmodule,MLA提取重要的多尺度局部空间特征;步骤4、构建双阶段特征融合模块包括Fusion-1和Fusion-2以融合两个分支提取的特征;步骤5、构建多损失函数,优化模型的训练过程;步骤6、构建批次图像,将批次图像同时输入到VisionTransformer中得到两部分图像特征,输出特征同时保留Cls和Fraturemap;步骤7、将构建的批次图像输入到Resnet501-3Layer中,初步得到局部细节特征;步骤8、将步骤7初步得到的局部细节特征,输入到MLA模块中,进一步提取多尺度局部特征;步骤9、将Cls和Fraturemap和多尺度局部特征,同时输入双阶段特征融合模块中,得到融合特征;步骤10、基于融合特征计算三元组损失、中心损失、和交叉熵损失,并按比例相加;步骤11、根据总体损失函数的梯度值更新网络权重,完成训练后保存当前网络的权重;步骤12、计算查询图像特征图像库图像特征之间的欧氏距离,基于欧氏距离排序后的图像即为重识别结果。

全文数据:

权利要求:

百度查询: 大连交通大学 基于Transformer并行融合多尺度CNN的车辆重识别方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。