山东浪潮科学研究院有限公司杨彤获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉山东浪潮科学研究院有限公司申请的专利一种基于因果关系感知的大语言模型微调方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119443182B 。
龙图腾网通过国家知识产权局官网在2025-07-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510025727.3,技术领域涉及:G06N3/08;该发明授权一种基于因果关系感知的大语言模型微调方法及装置是由杨彤;李雪;姜凯;李锐设计研发完成,并于2025-01-08向国家知识产权局提交的专利申请。
本一种基于因果关系感知的大语言模型微调方法及装置在说明书摘要公布了:本发明公开一种基于因果关系感知的大语言模型微调方法及装置,涉及自然语言处理技术领域;针对古文理解的应用场景,对大语言模型进行微调,包括:步骤1:准备数据:构建繁体古文数据集,步骤2:准备预训练基础模型,步骤3:根据繁体古文数据集,形成微调数据集,并对微调数据集的数据进行扩展与处理,步骤4:加载预训练模型,根据微调数据集对预训练后的中文LLama模型基于因果关系进行微调,步骤5:对迭代微调后中文LLama模型进行评估优化,获得模型的性能指标,步骤6:根据模型的性能指标选择最佳模型,本发明通过因果分析识别训练数据中的因果关系,并以此为依据指导模型参数的高效更新。
本发明授权一种基于因果关系感知的大语言模型微调方法及装置在权利要求书中公布了:1.一种基于因果关系感知的大语言模型微调方法,其特征是针对古文理解的应用场景,对大语言模型进行微调,包括: 步骤1:准备数据:构建繁体古文数据集, 步骤2:准备预训练基础模型:使用中文LLama模型作为预训练基础模型,根据繁体古文的特点调整中文LLama模型的分词策略,增量训练中文LLama模型, 步骤3:根据繁体古文数据集,形成微调数据集,并对微调数据集的数据进行扩展与处理, 步骤4:加载预训练模型,根据微调数据集对预训练后的中文LLama模型基于因果关系进行微调: 步骤41:建立因果关系模型,通过因果关系模型进行繁体古文句子因果分析和前后句子时间序列分析,其中包括: 步骤411:通过因果关系模型进行繁体古文句子因果分析,捕捉句子中的因果性或文本生成中的依赖关系, 步骤412:通过因果关系模型进行时间序列分析,通过分析前后句子的逻辑关系,推断出事件发生的顺序,进而推测出因果关系, 步骤42:构建结构方程模型SEM,利用结构方程模型SEM确定多个特征之间的因果关系, 步骤43:构建因果关系网络,通过因果关系网络实现繁体古文成分的输入变量和现代中文译文的输出变量之间的因果路径, 步骤44:利用因果关系模型、结构方程模型SEM识别微调数据集中数据间因果关系,提取微调数据集的因果特征,根据因果关系的强度调节因果特征权重,进而调节中文LLama模型中涉及因果特征的参数的权重, 步骤45:选择中文LLama模型中的层进行微调:优先更新因果特征强化层的参数,并设置参数更新策略, 不调节中文LLama模型中因果性弱或无关的层, 步骤46:建立自适应微调策略:动态调整参数更新策略,进行多轮迭代优化微调, 步骤5:对迭代微调后中文LLama模型进行评估优化,获得模型的性能指标, 步骤6:根据模型的性能指标选择最佳模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人山东浪潮科学研究院有限公司,其通讯地址为:250000 山东省济南市高新区浪潮路1036号S02号楼;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。