恭喜哈尔滨理工大学陈海龙获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜哈尔滨理工大学申请的专利一种基于Transformer模型优化的神经机器翻译方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114722843B 。
龙图腾网通过国家知识产权局官网在2025-04-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111592088.7,技术领域涉及:G06F40/58;该发明授权一种基于Transformer模型优化的神经机器翻译方法是由陈海龙;郑鑫;王青;马玉群设计研发完成,并于2021-12-23向国家知识产权局提交的专利申请。
本一种基于Transformer模型优化的神经机器翻译方法在说明书摘要公布了:本发明提出了一种基于Transformer模型优化的神经机器翻译方法,建立翻译模型,获得WMT17中的NewsCommentaryv12中的中英数据集,并对数据进行归一化处理;在翻译模型中引入句子结构信息,获取词向量,得到新的输入序列;利用融合位置信息和句法信息的序列对翻译模型进行训练,采用adam优化器进行优化迭代得到神经机器翻译模型;将测试集输入步骤S3优化的神经机器翻译模型,得到翻译结果;对翻译结果进行评价,结束翻译;使用BLEU值作为翻译模型的评判标准。该方法能够改善中英神经机器翻译的翻译准确率,提高翻译性能。
本发明授权一种基于Transformer模型优化的神经机器翻译方法在权利要求书中公布了:1.一种基于Transformer模型优化的神经机器翻译方法,其特征在于:所述方法具体包括以下步骤:步骤S1,建立翻译模型,获得WMT17中的NewsCommentaryv12中的中英数据集,并对数据进行归一化处理;步骤S2,在翻译模型中引入句子结构信息,获取词向量,得到新的输入序列;步骤S201,采用StanfordCoreNLP工具包获取每个句子的依存句法树,引入依存关系矩阵,抽取源语言句子结构信息并融合到翻译模型中;步骤S202,采用CBOW模型根据依存关系词和上下文词预测目标词获得词向量;步骤S203,使用StanfordCoreNLP工具包将源语言句子转化为依存句法树形式,转化为相应的依存关系矩阵;计算公式为: Di,j与步骤S202获得的词向量相乘得到新的输入序列;其中i为当前节点下标,j为其他节点下标,wj为其他节点,wi为当前节点;步骤S204,使用LSTM替换原Transformer模型获取位置编码的方式,获取LSTM每个时间步的输出作为每个词的位置信息;步骤S3,利用融合位置信息和句法信息的序列对翻译模型进行训练,采用adam优化器进行优化迭代得到神经机器翻译模型;步骤S4,将测试集输入步骤S3优化的神经机器翻译模型,得到翻译结果;步骤S5,对翻译结果进行评价,结束翻译。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨理工大学,其通讯地址为:150080 黑龙江省哈尔滨市南岗区学府路52号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。