天翼视讯传媒有限公司宫苏辉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉天翼视讯传媒有限公司申请的专利一种基于神经网络的人体姿态识别跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115578787B 。
龙图腾网通过国家知识产权局官网在2026-03-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211106000.0,技术领域涉及:G06V40/20;该发明授权一种基于神经网络的人体姿态识别跟踪方法是由宫苏辉;庄之骏;冯振华设计研发完成,并于2022-09-09向国家知识产权局提交的专利申请。
本一种基于神经网络的人体姿态识别跟踪方法在说明书摘要公布了:本发明属于信息技术领域,具体公开了一种基于神经网络的人体姿态识别跟踪方法,本发明主要先设置预设场景参数,再通过摄像头或者视频文件获取包含人体动作的视频图像数据,对视频图像数据使用BlazePose卷积神经网络框架进行计算,提取人体姿态关键点数据,使用自定义场景算法来判断结果数据是否符合场景预设,对关键点数据使用基于场景参数算法进行过滤,排除不符合预设场景的数据来稳定人体姿态的识别结果,使用SavitzkyGolay对输出结果进行平滑过滤,通过SavitzkyGolay滤波将存在抖动的骨架关节点数据进行平滑,经过处理后的人体姿态数据可以流畅且平滑地驱动虚拟人物模型。
本发明授权一种基于神经网络的人体姿态识别跟踪方法在权利要求书中公布了:1.一种基于神经网络的人体姿态识别跟踪方法,其特征在于:包括如下步骤: S1、系统初始化时,设置预设场景参数,所述场景参数包括人物个数、骨架关键点运动速度、关键点运动范围、各关键点距离比例; S2、通过摄像头或者视频文件获取包含人体动作的视频图像数据; S3、对视频图像数据使用BlazePose卷积神经网络框架进行计算,提取人体姿态关键点数据; S4、对关键点数据使用基于场景参数算法进行过滤,主要包括计算关键点在图像中范围是否超过预设范围之外,关键点运动速度是否超过预设范围,关键点位置相对其它关键点是否符合逻辑; 所述场景参数算法是根据预设场景参数通过场景算法处理模块对输出结果进行过滤,排除不符合预设场景条件的结果,所述场景算法处理模块的具体处理流程如下: A1、模块初始化时,获取预设的场景参数,包括人物个数、骨架关键点运动速度、关键点运动范围、各关键点距离比例; A2、获取姿态识别模块输出的关键点数据; A3、计算每个关键点位置是否超出场景参数预设范围; A4、根据关键点之前位置和当前位置,计算每个关键点移动速度,判断是否超出场景参数预设范围; A5、计算各关键点与其它关键点距离,判断各距离的比例是否在场景参数预设范围; A6、排除不符合场景参数的结果,输出符合的结果到后续平滑滤波模块; 所述场景算法处理模块对每帧图像输出的人体骨架关键点进行计算,参照预设场景参数对关键点进行过滤,排除不符合预设场景条件的关键点数据,如当前帧关键点数据被判定为不符合场景参数,则丢弃此帧数据,保持目标人体骨架位置为上帧位置; 所述关键点位置相对其它关键点是否符合逻辑的判断方法是计算每个关键点的x、y坐标是否在设置范围内,假设预置范围为rx0,ry0,rx1,ry1,检测关键点坐标为px,py是否满足rx0=px=rx1amp;amp;ry0=py=ry1,其中计算每个关键点的x、y坐标前需先定义左右肩正中心为整个人体骨架的中心点; 关键点在图像中范围是否超过预设范围是以左右两肩的距离为单位,计算每个关键点到中心点的距离与左右两肩关键点距离的比,定为关键点距离比值,判断比值是否超过预设最大值; 关键点运动速度是否超过预设范围是计算前后N帧的骨架中心点距离变化,并以此为单位计算每个关键点前后N帧的位置变化与单位的比值,定义为关键点移动速度,判断此速度是否超过预设值; S5、使用SavitzkyGolay对输出结果进行平滑过滤,用于后续驱动虚拟人物模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人天翼视讯传媒有限公司,其通讯地址为:201208 上海市浦东新区中国(上海)自由贸易试验区新金桥路27号5号楼4楼;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励