恭喜西安理工大学李秀秀获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜西安理工大学申请的专利人体动作相似性度量方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114627550B 。
龙图腾网通过国家知识产权局官网在2025-04-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210142018.X,技术领域涉及:G06V40/20;该发明授权人体动作相似性度量方法是由李秀秀;武圣君;卓威;刘旭峰;王超贤;王秀超;王荣超设计研发完成,并于2022-02-16向国家知识产权局提交的专利申请。
本人体动作相似性度量方法在说明书摘要公布了:本发明公开一种人体动作相似性度量方法,包括以下步骤:步骤1,对待测试视频进行关键动作帧和动作区间的提取,得到数据集;步骤2,采用骨骼坐标信息对数据集进行规整划处理得到骨骼图数据集;步骤3,搭建孪生神经网络模型,步骤4,设置待测试模板T和参考模板R,采用对训练好的孪生神经网络模型对测试模板T内和参考模板R内单帧图片进行相似性度量,得到单帧图片的不相似度;步骤5,采用DTW算法对步骤3得到的单帧图片的不相似度进行计算,得到最终的相似性度量结果。本发明解决了现有技术中基于骨骼之间距离、夹角等特征计算的相似度过于线性、缺乏“动作”概念导致的相似性度量准确性不高的问题。
本发明授权人体动作相似性度量方法在权利要求书中公布了:1.人体动作相似性度量方法,其特征在于,包括以下步骤:步骤1,对待测试视频进行关键动作帧和动作区间的提取,得到数据集;步骤2,采用骨骼坐标信息对数据集进行规整划处理得到骨骼图数据集;步骤3,搭建孪生神经网络模型,采用孪生神经网络模型对骨骼图片数据集进行训练;孪生神经网络模型为包括依次连接的三层卷积层和三层线性层的孪生神经网络模型;采用ConstractiveLoss函数作为孪生神经网络模型的损失函数,公式为: (8)其中表示特征向量的维数,为表示两个样本是否匹配的标签,其中Y=1表示两个样本相似或者匹配,Y=0则表示不相似或者不匹配;margin为预设定的阈值,N表示样本的个数,为的缩写,代表两个样本特征向量和的欧式距离;步骤4,设置待测试模板T和参考模板R,采用对训练好的孪生神经网络模型对测试模板T内和参考模板R内单帧图片进行相似性度量,得到单帧图片的不相似度;参考模板R与测试模板T定义为: (10) (11)其中m为训练动作帧的时序标号,m=1为起点动作帧,m=M为终点动作帧,M为该模板所包含的动作帧数,参考模板R即为经过关键帧提取以及动作区间提取的标准动作帧的集合;采用训练好的孪生神经网络模型对参考模板R与测试模板T进行运算即可得到单帧图片的不相似度,记为,即测试模板T的第n帧动作与参考模板R的第m动作的不相似度;步骤5,采用DTW算法对步骤3得到的单帧图片的不相似度进行计算,得到最终的相似性度量结果,具体为:分别将测试T和参考R分别沿横纵与纵轴进行二维展开,将平面平分为N*M个网格,在网格(n,m)处记录着两个值,一个为测试和参考帧的距离,即权值,搜索另一个为从起点到网格(n,m)处的最小累积距离,即累积权值,计算公式为: D[n,m]=d[Tn,Rm]+min{Dn-1,m,Dn-1,m-1,Dn,m-1}(14)根据满足公式(14)的路径记为累计权值最小路径,D[n,m]即为待测试动作序列的不相似性,到这就完成了人体动作相似性的度量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安理工大学,其通讯地址为:710048 陕西省西安市碑林区金花南路5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。