首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于自监督的三阶段故事阅读理解训练方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:辽宁大学

摘要:一种基于自监督的三阶段故事阅读理解训练方法,包括以下步骤:1使用语言模型在开放域语料库上进行预训练;2采用语言模型LM或者掩码语言模型MLM的自我监督学习目标继续在无监督、同领域的ROCStories日常故事语料上进行预训练;3对目标SCT任务上的结果模型进行训练。本发明引入在ROCStories故事无监督语料上的预训练步骤,提高了预训练语言模型在故事完形填空SCT任务的准确率。

主权项:1.一种基于自监督的三阶段故事阅读理解训练方法,其特征在于,包括以下步骤:1使用语言模型在开放域语料库上进行预训练;2采用语言模型LM或者掩码语言模型MLM的自我监督学习目标继续在无监督、同领域的ROCStories日常故事语料上进行预训练;2.1调整BERT和任务特定参数,在无监督的ROCStories上执行自监督任务:随机将ROCStories分成80%的训练集和20%开发集两部分,接着使用自我监督任务MLM和下一个句子预测NSP目标来预训练BERT;在MLM任务中,遵循BERT的程序,随机掩蔽15%经过Wordpiece分词之后、每个序列中的所有词项,使用模型预测掩蔽词项;使用的每条训练样例是一条5句话的故事;2.2为了理解故事,重新设计了用于ROCStories的变体NSP任务:随机选择每个故事中的前句作为sent.A,当为每个训练集选择sent.B时,50%的B是A之后的实际下一个句子,50%的B是故事中的随机句子;正样本与IsNext一起标记,负样本标记为NotNext;最终生成的模型在ROCStories开发集上的NSP任务中;2.3为了完成SCT任务,在BERT模型中,引入多项选择头作为模型的决策层:[CLS]词表示形式Ci∈RH作为BERT模型中编码器的输出,其中H是Transformer的隐藏层大小,i代表第i个选项;引入了任务特定的参数——向量V∈RH,与每个选项i的[CLS]词表示做点积,得到的分数;分母是N个选项的点积和,分数比上分母就是概率分布值; Ci=BERTsent.A,sent.B#2其中:N是SCT任务中选项的数量;3对目标SCT任务上的结果模型进行训练。

全文数据:

权利要求:

百度查询: 辽宁大学 一种基于自监督的三阶段故事阅读理解训练方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。