恭喜西北工业大学韩军伟获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜西北工业大学申请的专利一种用于时序动作定位的结构化注意力合成方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115240097B 。
龙图腾网通过国家知识产权局官网在2025-05-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210500127.4,技术领域涉及:G06V20/40;该发明授权一种用于时序动作定位的结构化注意力合成方法是由韩军伟;孙佳欣;李磊;张鼎文;韩龙飞设计研发完成,并于2022-05-06向国家知识产权局提交的专利申请。
本一种用于时序动作定位的结构化注意力合成方法在说明书摘要公布了:本发明涉及一种用于时序动作定位的结构化注意力合成方法,构建了一个新颖的结构化注意力合成模块。通过将模态注意力和帧注意力之间的关系转化为注意力分配过程,该模块可以学习帧‑模态结构的编码,并根据最优传输理论,利用它分别对帧注意力和模态注意力进行正则化。最终的帧‑模态注意力由两个单独的注意力合成得到。本发明提出的结构化注意力合成模块可以作为即插即用模块部署到已有的动作定位框架中,具有更高的定位准确度,并且在处理不同场景的视频数据时表现出更好的鲁棒性。
本发明授权一种用于时序动作定位的结构化注意力合成方法在权利要求书中公布了:1.一种用于时序动作定位的结构化注意力合成方法,其特征在于步骤如下:步骤1、提取视频特征:对于一个未剪辑过的视频,其外观特征是运动特征是其中D表示特征纬度,T表示特征序列的长度;首先将Fa和Fm分别输入两个卷积层,输出结果分别为ΘaFa和ΘmFm,将输出结果拼接得到视频特征步骤2、推断帧-模态注意力:步骤a:计算FV中每一个特征向量的欧氏范数,按范数大小的降序对特征向量进行重新排序,并获得排序索引设置比率k,抽取FV中范数最大的前Nk个特征向量,其中表示向下取整,抽取排序索引χv的前Nk项构成新的索引χ=χv[1:Nk];对从FV中抽取得到的Nk个特征向量执行平均池化,得到动作-感知特征其中是按照欧式范数的大小重新排序后,索引为t的特征向量在原视频特征FV中的索引;将fw输入一个带有Softmax激活的卷积层,获得模态注意力步骤b:将视频特征FV输入一个带有Sigmoid激活的时序卷积层,获得帧注意力步骤c:对模态注意力am和帧注意力af做矩阵乘法,得到帧-模态注意力A=am×af,步骤3、基于最优传输理论评估注意力分配结果:定义两个2×T的矩阵Ψ和S,ψm,t和sm,t分别表示Ψ和S中第m行第t列的元素,其中矩阵S可被称为结构矩阵;给定模态注意力am和帧注意力af,对结构矩阵S进行初始化并将其输入一个卷积层,然后利用MarcoCuturi在2013年的工作Sinkhorndistances:Lightspeedcomputationofoptimaltransport中提出的Sinkhorn-Knopp算法,计算dual-Sinkhorn散度优化以下问题: m∈[1,2],t∈[1,2,...,T],得到最优解Ψ*和其中将作为损失函数,以迭代的方式对结构矩阵S进行优化,进而优化模态注意力am和帧注意力af;步骤4、损失函数:步骤a:对结构矩阵按列执行最大池化操作,得到结构向量然后计算相邻差分向量d,其中元素设置比率η,抽取相邻差分向量d中数值最小的前Nη项元素,其中然后计算这Nη项元素的平均值qd: 进而定义损失函数步骤b:为了防止结构矩阵S出现零解,定义损失函数步骤c:计算其中λs和λF是均衡系数;将作为损失函数用于结构化注意力合成模块的训练,获得帧-模态注意力A;步骤5:分别将ΘaFa和ΘmFm与帧-模态注意力A计算点乘,得到经过注意力调节的视频特征Ha和Hm,作为结构化注意力合成模块整体的输出结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西北工业大学,其通讯地址为:710072 陕西省西安市友谊西路127号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。