Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜重庆邮电大学路永乐获国家专利权

恭喜重庆邮电大学路永乐获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜重庆邮电大学申请的专利一种基于自注意力机制和Bi-GRU的人体动作识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115690906B

龙图腾网通过国家知识产权局官网在2025-05-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211304941.5,技术领域涉及:G06V40/20;该发明授权一种基于自注意力机制和Bi-GRU的人体动作识别方法是由路永乐;修蔚然;韩亮;杨杰;孙旗;罗毅;彭慧;刘宇设计研发完成,并于2022-10-24向国家知识产权局提交的专利申请。

一种基于自注意力机制和Bi-GRU的人体动作识别方法在说明书摘要公布了:本发明请求保护一种基于自注意力机制和Bi‑GRU的人体动作识别方法。包括以下步骤,S1:记录人体动作的惯性传感器数据,并通过滑动窗口截取数据和数据对应的动作类别标签;S2:将数据输入Encoder中进行编码,通过其中的多头自注意力层提取输入数据之间的时间关联特征,再与原始输入数据进行拼接;S3:将Encoder的输出数据,输入Bi‑GRU进行进一步时间顺序特征提取;S4:将Bi‑GRU的输出特征,输入全连接层得到一个输出向量;S5:根据样本数据对模型进行训练,再将未知分类标签的惯性传感器数据输入已训练好的模型,得到其人体动作类别。本发明解决目前人体动作识别难以提取有效的时序特征和识别精度低的问题。

本发明授权一种基于自注意力机制和Bi-GRU的人体动作识别方法在权利要求书中公布了:1.一种基于自注意力机制和Bi-GRU的人体动作识别方法,其特征在于,包括以下步骤:S1:记录人体动作的惯性传感器数据,并通过滑动窗口截取数据和数据对应的动作类别标签;S2:构建一个Encoder-Decoder模型;所述Encoder-Decoder模型包括Encoder和Decoder,将数据输入Encoder编码器中进行编码,通过Encoder编码器中的多头自注意力层提取输入数据之间的时间关联特征,再与原始输入数据进行拼接;S3:Decoder解码:Decoder解码器包括双向门控循环单元Bi-GRU、全连接层、Softmax层,将Encoder的输出数据,输入双向门控循环单元Bi-GRU进行进一步时间顺序特征提取;全连接层将特征整合为向量,Softmax层将全连接层输出转化为概率分布;S4:将Bi-GRU的输出特征,输入全连接层得到一个输出向量,该输出向量维度为分类标签总数,向量第N维数值为输入惯性传感器数据对应的动作为第N种动作的可能性;S5:根据样本数据对模型进行训练,再将未知分类标签的惯性传感器数据输入已训练好的模型,得到其人体动作类别;所述S2中的多头自注意力层包含三个全连接层:query查询、key键、value值,输入数据通过这三个全连接层分别得到Q、K、V矩阵,然后通过进一步计算得到Attention-Score注意力得分矩阵,为保证Bi-GRU能学习到原始数据的时域特征,将Attention-Score矩阵与原始数据在最后一维上拼接,得到Encoder的输出;所述Attention-Score矩阵计算公式为: 其中Head_size代表Multi-Head每个head的维度大小,Softmax代表Softmax函数,对矩阵的每一行进行计算,Softmax公式如下: 其中ya表示Attention-Score矩阵某行第a列的值,yb表示矩阵某行第b列的值,w表示矩阵列数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆邮电大学,其通讯地址为:400065 重庆市南岸区南山街道崇文路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。