Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京理工大学费伟伦获国家专利权

北京理工大学费伟伦获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京理工大学申请的专利一种基于掩码机制的篇章级神经机器翻译方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115719072B

龙图腾网通过国家知识产权局官网在2025-08-29发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211331167.7,技术领域涉及:G06F40/58;该发明授权一种基于掩码机制的篇章级神经机器翻译方法及系统是由费伟伦;鉴萍;朱晓光设计研发完成,并于2022-10-28向国家知识产权局提交的专利申请。

一种基于掩码机制的篇章级神经机器翻译方法及系统在说明书摘要公布了:本发明公开了一种基于掩码机制的篇章级神经机器翻译方法及系统,属于自然语言处理和语言翻译技术领域。本方法利用掩码机制对待翻译句子中的部分信息进行掩码,使模型在翻译句子时,对上下文信息的依赖程度更高。本方法主要针对训练策略做出改进,采用了二阶段训练过程,更好地使编码器还原编码信息,有效提升了篇章级神经机器翻译的效果。系统部分包括数据处理模块、源语言编码器模块、源语言自编码解码器模块、目标语言解码器模块和生成器模块。对比现有技术,本方法在训练策略上采取掩码和自编码的策略,训练了一个在编码时更依赖于上下文的篇章级翻译模型,充分利用上下文信息,进一步提升了篇章级机器翻译效果和质量。

本发明授权一种基于掩码机制的篇章级神经机器翻译方法及系统在权利要求书中公布了:1.一种基于掩码机制的篇章级神经机器翻译方法,其特征在于,包括以下步骤: 步骤1:输入源语言句子,通过随机掩码方式,编码生成具备上下文的编码信息EncX; 步骤1.1:待翻译句子Xcurr中的每个单词,以概率p被掩码符号所替换; 步骤1.2:选定待翻译句子的前文Xprev作为上下文,并将经掩码处理后的待翻译句子与上下文进行拼接,得到输入序列Xinput; 步骤1.3:输入序列Xinput经过编码器的嵌入层,被逐词映射为词向量,嵌入层输出由词向量组成的序列EmbX; 步骤1.4:将序列EmbX送入编码器中进行编码,获得具备上下文的编码序列EncX; 序列EmbX通过编码器的多头自注意力层和线性层进行编码,将该过程重复N次,最后得到EncX; 步骤2:将经过编码器得到的编码序列EncX送入结构与编码器一致的降噪自编码解码器中,得到降噪自编码输出序列DecEncEncX; 步骤3:利用编码器输出和解码器输入,输出解码序列DecY; 步骤3.1:根据前文Xprev的长度和待翻译句子Xcurr的长度,对步骤1.4中具备上下文的编码表示EncX做切割,获取上下文编码序列EncXprev和待翻译句子的编码序列EncXcurr; 步骤3.2:选取步骤1.1中待翻译句子Xcurr所对应的目标语言句子Ytok,送入编码器的嵌入层,逐词映射为词向量,嵌入层输出由词向量组成的目标语言序列EmbY; 步骤3.3:利用解码器对目标语言序列EmbY进行解码,得到解码序列DecY; 目标语言序列表示EmbY通过解码器的自注意力层,利用多头注意力层和上下文编码序列EncXprev以及待翻译句子Xcurr的编码序列EncXcurr进行融合,再经过解码器的线性层;该过程重复N次,最终得到解码序列DecY; 步骤4:将步骤2的降噪自编码输出序列DecEncEncX与步骤1.3的拼接序列EmbX作比较,将解码序列DecY与目标语言参考编码序列RefY作比较,将差值加权相加,作为模型损失L1; 步骤5:根据模型损失使用梯度下降方法,重复步骤1至步骤4,直至模型收敛,得到翻译模型M; 步骤6:在步骤5得到的翻译模型M上,继续使用现有数据,在不做掩码的基础上进行训练; 步骤6.1:选定待翻译句子Xcurr的前文Xprev作为上下文,并将待翻译句子Xcurr与上下文进行拼接,得到输入序列Xinput'; 步骤6.2:输入序列Xinput'经过编码器的嵌入层,被逐词映射为词向量,嵌入层输出由词向量组成的序列EmbX'; 步骤6.3:将序列EmbX'送进编码器中,经过编码获得具备上下文的编码序列EncX'; 序列EmbX'通过编码器的多头自注意力层和线性层进行编码,该过程重复N次,最后得到EncX'; 步骤7:与步骤3过程相同,编码器输出来自步骤6.3的EncX',输出解码序列DecY'; 步骤8:将步骤7的解码序列DecY'与目标语言参考编码序列RefY作比较,将差值作为模型损失L2; 步骤9:根据模型损失L2使用梯度下降方法,重复步骤6至步骤8,直至模型收敛,得到翻译模型M'; 步骤10:将非训练集的源语言句子Xt、源语言句子的前文Xt-1,送入翻译模型M',得到最终翻译的译文。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。