中国科学院信息工程研究所曹亚男获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国科学院信息工程研究所申请的专利一种基于分层迭代的长文本抽取式摘要生成方法和装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118332101B 。
龙图腾网通过国家知识产权局官网在2025-05-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410400400.5,技术领域涉及:G06F16/34;该发明授权一种基于分层迭代的长文本抽取式摘要生成方法和装置是由曹亚男;王晗炜;方芳;尚燕敏;尹鹏飞;刘燕兵设计研发完成,并于2024-04-03向国家知识产权局提交的专利申请。
本一种基于分层迭代的长文本抽取式摘要生成方法和装置在说明书摘要公布了:本发明属于文本信息抽取领域,涉及一种基于分层迭代的长文本抽取式摘要生成方法和装置。该方法包括:获取文本中字符的词向量、位置向量以及结构子标题向量,将其相加作为语义编码的输入,采用长文本预训练语言模型作为语义编码器,进行语义编码;将语义编码之后的向量送入各个层级编码器中,将语义信息沿着文本结构路线由句子层级至文档层级进行分层传递,然后从文档层级至句子层级再次进行分层传递,实现迭代更新,得到各个层级的隐层表示;通过融合各个层级的隐层表示全面地对每个句子进行评价,选出最优的摘要句。本发明能够克服现有抽取式摘要面向长文本时计算资源消耗大,存在语义损失以及长文本结构建模缺失的问题。
本发明授权一种基于分层迭代的长文本抽取式摘要生成方法和装置在权利要求书中公布了:1.一种基于分层迭代的长文本抽取式摘要生成方法,其特征在于,包括以下步骤:对文本的层次结构进行定义,将一篇文章的最小层级结构设定为句子S,最大层级结构设定为文章D,在这之间包含若干层结构L={L1,L2,...,Ln},对于第i层的文本段落有其中表示第j个段落中的第m个子段;获取文本中字符的词向量、位置向量以及结构子标题向量;采用以下方式获取所述位置向量:将字符作为一个序列计算得到位置向量PEword,将每个层级的结构分别作为序列并计算得到位置向量PEL,对于处于中的字符均有相同的i层位置向量最后的位置向量PE由各个层级的位置向量加和得到;将词向量、位置向量以及结构子标题向量相加作为语义编码的输入,采用长文本预训练语言模型作为语义编码器,进行语义编码;将语义编码之后的向量送入各个层级编码器中,将语义信息沿着文本结构路线由句子层级至文档层级进行分层传递,然后从文档层级至句子层级再次进行分层传递,实现迭代更新,得到各个层级的隐层表示;通过融合各个层级的隐层表示全面地对每个句子进行评价,选出最优的摘要句;所述长文本预训练语言模型为Longformer模型,所述Longformer模型的注意力机制包括局部注意力和全局注意力;序列中的每个单词均进行两种注意力机制的计算,首先每个单词对预设的窗口大小的单词进行完整的自注意力计算,即为局部注意力,之后序列中的每个单词对特殊字符进行注意力计算,即为全局注意力,最后结合这两种注意力机制的结果得到单词的最终表示;所述各个层级编码器由BiLSTM搭建,针对第i层第j个段落中的隐层表示,使用Bi-LSTM作为层级编码器来捕获其间的依赖关系,随后将隐层表示进行均值池化并通过一个前向神经网络得到对应的第i层第j个段落的隐层表示,低至高层级的隐层表示均被建模成一个序列,按照各层的编码器对信息从底至顶分层传递,直至得到文档的向量表示;所述从文档层级至句子层级再次进行分层传递,实现迭代更新,包括:引入注意力机制,对于第k次迭代的第i层级编码器,使用k-1轮第i层对应的隐层向量表示作为查询值,k-1轮的得到的第i-1层对应的隐层向量表示作为键值,计算得到BiLSTM的初始状态向量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院信息工程研究所,其通讯地址为:100085 北京市海淀区树村路19号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。