恭喜宁波大学陈友明获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜宁波大学申请的专利一种构造鲁棒辅助模态的视频换装行人重识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119380249B 。
龙图腾网通过国家知识产权局官网在2025-04-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411949557.X,技术领域涉及:G06V20/40;该发明授权一种构造鲁棒辅助模态的视频换装行人重识别方法是由陈友明;郭立君;张荣设计研发完成,并于2024-12-27向国家知识产权局提交的专利申请。
本一种构造鲁棒辅助模态的视频换装行人重识别方法在说明书摘要公布了:本发明公开了一种构造鲁棒辅助模态的视频换装行人重识别方法,旨在提升监控视频中换装后行人的识别精度,该方法包括:选取视频换装数据集构建训练集;构建轮廓姿态融合辅助增强模型,通过预处理、编码、行人服装无关特征挖掘阶段提取与服装无关的特征;训练模型获得预测ID概率向量;将测试视频序列输入模型进行行人重识别;该方法通过构造抵抗服装信息干扰和换装影响的辅助模态,实现更鲁棒的行人识别。
本发明授权一种构造鲁棒辅助模态的视频换装行人重识别方法在权利要求书中公布了:1.一种构造鲁棒辅助模态的视频换装行人重识别方法,其特征在于包括以下步骤:步骤1:选取一个视频换装数据集;然后根据视频换装数据集,构建一个训练集,训练集中有多个训练视频序列,每个训练视频序列包含T帧具有同一行人的视频帧;步骤2:构建一个轮廓姿态融合辅助增强模型,包括预处理阶段、编码阶段、行人服装无关特征挖掘阶段;在预处理阶段,将训练视频序列中的每帧视频帧通过图像缩放模块缩放成统一尺寸的规范原图,将训练视频序列中的每帧视频帧通过语义分割模型分割得到对应的轮廓图,将训练视频序列中的每帧视频帧通过姿态估计模型得到对应的姿态热图;在编码阶段,将每张规范原图输入到第一编码器中,获得对应的原图特征;将每张轮廓图输入到第二编码器中,获得对应的轮廓图特征;将每张姿态热图输入到第三编码器中,获得对应的姿态热图特征;其中,原图特征、轮廓图特征、姿态热图特征的大小均为C1×H1×W1,C1为通道数,H1为高,W1为宽;在行人服装无关特征挖掘阶段,将T个原图特征、T个轮廓图特征和T个姿态热图特征输入到用于提取空间层面的与行人服装无关特征的空间分支中,获得训练视频序列对应的空间表征特征;将T个轮廓图特征和T个姿态热图特征输入到用于提取行人时序动作层面的与行人服装无关特征的时序分支中,获得训练视频序列对应的行人时序动作特征;将训练视频序列对应的空间表征特征和行人时序动作特征拼接后得到训练视频序列对应的时间空间融合特征;将训练视频序列对应的时间空间融合特征输入到全连接层中,获得训练视频序列对应的预测ID概率向量;所述空间分支由自适应空间特征融合模块和空间特征引导模块组成;将每个轮廓图特征和相对应的一个姿态热图特征一起输入到自适应空间特征融合模块中,对轮廓图特征和姿态热图特征进行互补融合,获得对应的轮廓姿态细粒度融合特征,轮廓姿态细粒度融合特征的大小为C1×M,M=H1×W1;然后将每个原图特征和相对应的一个轮廓姿态细粒度融合特征一起输入到空间特征引导模块中,获得对应的轮廓引导特征,轮廓引导特征的大小为C1×M;接着将训练视频序列对应的T个轮廓引导特征分别经过空间最大池化操作,再将空间最大池化操作后的T个结果在通道维度上经过时间平均池化操作,得到训练视频序列对应的空间表征特征,空间表征特征的大小为C1;所述自适应空间特征融合模块包括三个层归一化、六个MLP、两个交叉注意力、一个前馈网络,两个交叉注意力的权重独立;所述自适应空间特征融合模块的实施过程为:将轮廓图特征的宽高合并后得到的特征输入到第1个层归一化中,将第1个层归一化输出的特征分别输入到其中三个MLP中,这三个MLP将第1个层归一化输出的特征映射成形状不变的三个特征,分别作为轮廓图特征对应的查询信息、键信息、值信息;将姿态热图特征的宽高合并后得到的特征输入到第2个层归一化中,将第2个层归一化输出的特征分别输入到另外三个MLP中,这三个MLP将第2个层归一化输出的特征映射成形状不变的三个特征,分别作为姿态热图特征对应的查询信息、键信息、值信息;将轮廓图特征对应的查询信息以及姿态热图特征对应的键信息和值信息输入到第1个交叉注意力中,获得第一注意力特征;将姿态热图特征对应的查询信息以及轮廓图特征对应的键信息和值信息输入到第2个交叉注意力中,获得第二注意力特征;将第一注意力特征与第1个层归一化输出的特征进行相加,将第二注意力特征与第2个层归一化输出的特征进行相加,再将两个相加结果在通道维度上拼接后得到的特征输入到第3个层归一化中,将第3个层归一化输出的特征输入到前馈网络中,将前馈网络输出的特征与第3个层归一化输出的特征进行相加得到对应的轮廓姿态细粒度融合特征;所述空间特征引导模块包括三个层归一化、三个MLP、一个交叉注意力、一个前馈网络;所述空间特征引导模块的实施过程为:将原图特征的宽高合并后得到的特征输入到第1个层归一化中,将第1个层归一化输出的特征输入到第1个MLP中,第1个MLP将第1个层归一化输出的特征映射成形状不变的映射特征,作为原图特征对应的查询信息;将轮廓姿态细粒度融合特征输入到第2个层归一化中,将第2个层归一化输出的特征分别输入到第2个和第3个MLP中,第2个MLP将第2个层归一化输出的特征映射成形状不变的映射特征,作为轮廓姿态细粒度融合特征对应的键信息,第3个MLP将第2个层归一化输出的特征映射成形状不变的映射特征,作为轮廓姿态细粒度融合特征对应的值信息;将原图特征对应的查询信息以及轮廓姿态细粒度融合特征对应的键信息和值信息输入到交叉注意力中,获得注意力特征;将注意力特征与第1个层归一化输出的特征进行相加,将相加的结果输入到第3个层归一化中,将第3个层归一化输出的特征输入到前馈网络中,将前馈网络输出的特征与第3个层归一化输出的特征进行相加得到对应的轮廓引导特征;所述时序分支由自适应动作特征增强模块组成;将T个轮廓图特征在通道维度上经过时间平均池化操作后,再经过空间维度的合并操作后得到第一时序特征,第一时序特征的大小为C1×M;将T个姿态热图特征在通道维度上经过时间平均池化操作后,再经过空间维度的合并操作后得到第二时序特征,第二时序特征的大小为C1×M;然后将第一时序特征和第二时序特征一起输入到自适应动作特征增强模块中,得到训练视频序列对应的时序融合增强特征,时序融合增强特征的大小为C1×M1,其中,M1=2×M;再将时序融合增强特征经过空间最大池化操作,得到训练视频序列对应的行人时序动作特征,行人时序动作特征的大小为C1;所述自适应动作特征增强模块包括四个层归一化、六个MLP、两个交叉注意力、两个前馈网络,两个交叉注意力的权重独立;所述自适应动作特征增强模块的实施过程为:将第一时序特征输入到第1个层归一化中,将第1个层归一化输出的特征分别输入到其中三个MLP中,这三个MLP将第1个层归一化输出的特征映射成形状不变的三个特征,分别作为第一时序特征对应的查询信息、键信息、值信息;将第二时序特征输入到第2个层归一化中,将第2个层归一化输出的特征分别输入到另外三个MLP中,这三个MLP将第2个层归一化输出的特征映射成形状不变的三个特征,分别作为第二时序特征对应的查询信息、键信息、值信息;将第一时序特征对应的查询信息以及第二时序特征对应的键信息和值信息输入到第1个交叉注意力中,获得第一注意力特征;将第二时序特征对应的查询信息以及第一时序特征对应的键信息和值信息输入到第2个交叉注意力中,获得第二注意力特征;将第一注意力特征与第1个层归一化输出的特征进行相加,将相加的结果输入到第3个层归一化中,将第3个层归一化输出的特征输入到第1个前馈网络中,将第1个前馈网络输出的特征与第3个层归一化输出的特征进行相加得到第一时序增强特征;将第二注意力特征与第2个层归一化输出的特征进行相加,将相加的结果输入到第4个层归一化中,将第4个层归一化输出的特征输入到第2个前馈网络中,将第2个前馈网络输出的特征与第4个层归一化输出的特征进行相加得到第二时序增强特征;将第一时序增强特征和第二时序增强特征在通道维度上拼接后得到训练视频序列对应的时序融合增强特征;步骤3:基于训练集,对轮廓姿态融合辅助增强模型进行训练,训练结束后得到训练好的轮廓姿态融合辅助增强模型;步骤4:任意选取一个行人视频序列;然后根据该行人视频序列,获取一个包含T帧行人视频帧的测试视频序列;再将测试视频序列输入到训练好的轮廓姿态融合辅助增强模型中,得到测试视频序列对应的时间空间融合特征,进而根据时间空间融合特征达到测试视频序列中的行人重识别的目的。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人宁波大学,其通讯地址为:315211 浙江省宁波市江北区风华路818号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。