Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于课堂密集场景的双阶段人员行为识别方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:武汉纺织大学

摘要:本发明公开了一种基于课堂密集场景的双阶段人员行为识别方法,包括以下步骤:S1:采集视频数据,人工筛选出课堂密集场景的人员图像数据和特定行为片段,制作相应的数据集;S2:设计基于课堂密集场景的人员检测网络;S3:设计基于课堂密集场景的人员行为识别网络;S4:设计基于课堂密集场景的双阶段人员行为识别网络的损失函数;S5:对人员检测网络和人员行为识别网络进行训练;S6:部署训练好的人员检测和行为识别模型,实时识别课堂密集场景下的人员行为。本发明通过设计基于课堂密集场景的人员检测网络、人员行为识别网络和损失函数,对课堂场景的实时视频流进行实时监测,提高了密集场景下行为的识别准确性。

主权项:1.一种基于课堂密集场景的双阶段人员行为识别方法,其特征在于,所述方法包括以下步骤:S1:采集视频数据,人工筛选出课堂密集场景的人员图像数据和特定行为片段,制作相应的数据集,所述数据集包括人员检测图像数据集和行为识别视频数据集;S2:设计基于课堂密集场景的人员检测网络,所述人员检测网络由第一阶段、第二阶段、第三阶段组成,包括多个特征提取模块、多尺度特征提取模块、多尺度特征融合模块以及一系列卷积、上采样、下采样、特征拼接操作,所述人员检测网络用于检测课堂场景中的人员并输出人员检测框和置信度;S3:设计基于课堂密集场景的人员行为识别网络,所述人员行为识别网络用于接收所述人员检测网络输出的人员检测框和置信度并对视频中对应的人员进行行为分类;S4:设计并优化基于课堂密集场景的双阶段人员行为识别网络的损失函数,所述双阶段人员行为识别网络包括人员检测网络和人员行为识别网络;S5:利用所述损失函数和制作的数据集对设计好的人员检测网络和人员行为识别网络进行训练,得到训练好的人员检测和行为识别模型;S6:部署训练好的人员检测和行为识别模型,实时识别课堂密集场景下的人员行为;所述步骤S4中损失函数计算公式如下: 其中,表示人员检测网络损失函数,用于评估人员检测的准确性,表示人员行为识别网络损失函数,用于评估人员身份识别的准确性,是可学习的超参数,平衡两个任务之间的关系,并在训练过程中引导模型参数的更新;所述人员检测网络损失函数计算公式如下: 其中,是检测的目标数量,是第个目标人员的预测框与实际目标框之间的交并比,衡量预测边界框与真实边界框之间重叠程度,是模型对第个目标人员的预测置信度,是超参数,用于调整未检测到目标的损失权重;所述人员行为识别网络损失函数计算公式如下: 其中,是检测的目标数量,是行为类别的数量,是一个映射函数,表示当第个样本属于类别时为1,否则为0,表示当第个样本属于类别的概率,是正则化参数,用于控制正则化项的权重,用于惩罚模型参数的大小,其中是模型参数的数量,表示模型的第个参数。

全文数据:

权利要求:

百度查询: 武汉纺织大学 一种基于课堂密集场景的双阶段人员行为识别方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术