郑州轻工业大学李祖贺获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉郑州轻工业大学申请的专利基于模态表示空间和叠加自注意力的多模态情感分析方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115205759B 。
龙图腾网通过国家知识产权局官网在2025-08-29发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210917467.7,技术领域涉及:G06V20/40;该发明授权基于模态表示空间和叠加自注意力的多模态情感分析方法是由李祖贺;郭青冰;支俊;王延峰;张亚洲;庾骏;刘伟华;陈辉;卜祥洲;朱寒雪设计研发完成,并于2022-08-01向国家知识产权局提交的专利申请。
本基于模态表示空间和叠加自注意力的多模态情感分析方法在说明书摘要公布了:本发明提出了一种基于模态表示空间和叠加自注意力的多模态情感分析方法,用以解决现有方法在处理多模态数据时所面临的语义鸿沟等技术性问题;其步骤为:首先,从原始视频数据中分别提取文本、语音和图像三个模态的特征向量;并利用模态表示空间分割方法分别将三个模态的特征向量映射到情感表示空间和噪声表示空间,获取模态情感表示和模态噪声表示;其次,将获取到的模态情感表示传入叠加自注意力机制中,挖掘模态情感表示之间的关联信息并进行拼接;最后,在联合损失约束下将拼接后的模态情感表示传入情感预测分类层进行分类预测,输出最优情感预测值。本发明能够在进行多模态情感分析时跨越语义鸿沟,得到更加可靠的情感预测结果。
本发明授权基于模态表示空间和叠加自注意力的多模态情感分析方法在权利要求书中公布了:1.一种基于模态表示空间和叠加自注意力的多模态情感分析方法,其特征在于,其步骤如下: 步骤一:从原始视频数据中分别提取文本、语音和图像三个模态的特征向量; 步骤二:利用模态表示空间分割方法分别将文本、语音和图像三个模态的特征向量映射到情感表示空间和噪声表示空间,获取模态情感表示和模态噪声表示; 步骤三:将获取到的模态情感表示传入叠加自注意力机制中,挖掘模态情感表示之间的关联信息,并将蕴含关联信息的模态情感表示进行拼接; 步骤四:将模态情感表示损失、模态噪声表示损失和分类损失作为联合损失约束,在联合损失约束下将拼接后的模态情感表示传入情感预测分类层进行分类预测,输出最优情感预测值; 在步骤二中,具体实现方法为: S21、借助情感编码器分别将文本特征向量Ut、语音特征向量Ua和图像特征向量Uv传入情感表示空间,得到尺寸大小均为1*d的文本情感表示St、语音情感表示Sa和图像情感表示Sv,具体计算公式为: Sm=EsUm;θs; 其中,m∈{t,a,v};Es表示情感编码器,θs是情感编码器的参数; S22、借助文本噪声编码器将文本特征向量Ut传入文本噪声空间,得到尺寸大小为1*d的文本噪声表示Pt,具体计算公式为: 其中,表示文本噪声编码器,是文本噪声编码器的参数; S23、借助语音噪声编码器将语音特征向量Ua传入语音噪声空间,得到尺寸大小为1*d的语音噪声表示Pa,具体计算公式为: 其中,表示语音噪声编码器,是语音噪声编码器的参数; S24、借助图像噪声编码器将图像特征向量Uv传入图像噪声空间,得到尺寸大小为1*d的图像噪声表示Pv,具体计算公式为: 其中,表示图像噪声编码器,是独属于图像噪声编码器的参数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人郑州轻工业大学,其通讯地址为:450000 河南省郑州市高新技术产业开发区科学大道136号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。