恭喜大连理工大学王塔娜获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜大连理工大学申请的专利一种基于迁移学习和注意力机制的跨语料库情感识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN113065344B 。
龙图腾网通过国家知识产权局官网在2025-05-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202110330443.7,技术领域涉及:G06F40/279;该发明授权一种基于迁移学习和注意力机制的跨语料库情感识别方法是由王塔娜;张强;王鹏飞;候亚庆设计研发完成,并于2021-03-24向国家知识产权局提交的专利申请。
本一种基于迁移学习和注意力机制的跨语料库情感识别方法在说明书摘要公布了:本发明属于迁移学习、情感计算等技术领域,涉及一种基于迁移学习和注意力机制的跨语料库情感识别方法。本发明方法中使用编码‑解码在源语料库上进行训练,并通过循环卷积神经网络RNN提取上下文中的情感依赖和传递情况,将编码和上下文情感依赖等特征参数迁移到目标语料库的训练中,通过训练将迁移损失控制在一定范围内进而完成知识迁移,在目标语料库上借助迁移学习的知识进行编码‑上下文特征参数提取‑分类的操作,最终完成目标语料库上说话人情感状态判定的任务,能够有效解决小样本训练不充分的问题。
本发明授权一种基于迁移学习和注意力机制的跨语料库情感识别方法在权利要求书中公布了:1.一种基于迁移学习和注意力机制的跨语料库情感识别方法,其特征在于,具体步骤如下:S1:将源语料库中对话部分划分为T条的语句X=[x1,x2,…,xi…,xT],选取对话中所有说话人的文本数据;S2:使用编码解码器架构进行建模;编码解码器使用三个顺序组件以分层方式对会话进行构建循环神经网络模型:编码器循环神经网络用于句子编码,上下文循环神经网络用于语句级对话上下文进行建模,解码器循环神经网络用于生成响应句子;将步骤S1划分好的每条语句送入循环神经网络模型进行编码-上下文建模-解码操作:编码操作:首先,将步骤S1划分好的每条语句送入编码器循环神经网络进行编码,并通过注意力机制获得编码过程中情感相关的隐藏层向量,在某一时刻t进行如下公式所示的计算: 其中,表示编码器在t时刻的状态输出,fes表示源任务编码器循环神经网络函数,Attention表示进行注意力机制计算;上下文建模:将编码操作中得到的送入到上下文循环神经网络进行对话上下文建模,将得到t时间点的隐藏层状态 其中,fcs表示源任务上下文循环神经网络函数;解码操作:使用解码器循环神经网络用于生成响应句子xm: 其中,fds表示源任务解码器循环神经网络函数;编码解码器架构通过最大似然估计目标argmaxθ∑ilogpXi将语料库中的对话进行整体训练;S3:对目标任务的目标语料库中每条语句送入循环神经网络模型进行编码-上下文建模操作;S4:通过定义空间注意力图将注意力信息从源语料库转移到目标语料库的训练网络中,完成知识迁移;定义循环神经网络的激活张量其中由C个通道组成,空间维度为H×W,映射函数F将A作为输入和输出,则空间注意力图计算如下: 对于空间注意力图,由于隐藏神经元激活的绝对值表示神经元相对于特定输入的重要性,在跨通道维度计算隐藏神经元激活的绝对值的统计信息,并构建以下空间注意力映射: 其中,m∈{1,2,…,H}和j∈{1,2,…,W},p表示在特定卷积层的源域和目标域的激活映射进行所有卷积响应通道上的lp-范数池化计算;给定源任务的空间注意力图,目标是训练目标任务不仅能做出正确的预测,而且还能拥有与源任务类似的注意力图;S5:在完成步骤S4的知识迁移并在目标任务语料库上进行编码建模训练后,使用softmax分类器对目标语句进行情感分类并得到各类情感的识别率;最终结果输出目标语句的情感分类矩阵,从而能够判断每个句子说话人所处的情感状态。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116024 辽宁省大连市甘井子区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。