买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:浙江大学;浙大城市学院
摘要:本发明涉及一种基于无参注意力模块的LoRA微调方法,包括:获取预训练模型以及模型参数,并在预训练模型的每层设置参数微调模块,参数微调模块为具有无参注意力模块的LoRA模型;获取微调数据集;加载并冻结预训练模型的参数,并初始化所述参数微调模块的参数;基于微调数据集对参数微调模块的参数进行微调,得到微调后的大语言模型。本发明的有益效果是:本发明训练的参数只有LoRA的模块,无需对扩散模型进行全参数微调,并且,本发明在LoRA的基础上进行修改,在LoRA参数前增加了一个无参数注意力模块,使得LoRA在学习中更好的获取自然语言的语义信息,具有更佳的效果。
主权项:1.一种基于无参注意力模块的LoRA微调方法,其特征在于,包括:S1、获取预训练模型以及模型参数,并在预训练模型的每层设置参数微调模块,得到待微调的模型;所述参数微调模块为具有无参注意力模块的LoRA模型;S2、获取微调数据集,并对所述微调数据集进行预处理;S3、加载并冻结预训练模型的参数,并初始化所述参数微调模块的参数;S4、基于微调数据集对参数微调模块的参数进行微调,得到微调后的大语言模型。
全文数据:
权利要求:
百度查询: 浙江大学 浙大城市学院 一种基于无参注意力模块的LoRA微调方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。