首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于相互知识转移的联邦学习优化方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:湘江实验室

摘要:本发明实施例中提供了一种基于相互知识转移的联邦学习优化方法,属于计算技术领域,具体包括:存储大模型对应的数据集;在中央服务器通过知识蒸馏将大模型的知识迁移至蒸馏后的学生模型上;将学生模型下发给联邦系统的本地客户端;得到本轮训练后的一代本地模型;通过相互知识转移技术得到该本地客户端本轮训练的二代本地模型;服务器将本地客户端上传的模型进行模型聚合,得到本轮训练的全局模型;将上一轮训练后的全局模型再次下发给联邦系统的各个本地客户端,本地客户端再次利用本地数据集训练本轮的本地模型,进行迭代训练,直至最后一轮训练完成后的全局模型收敛,结束训练过程。通过本发明的方案,提高了模型性能、泛化能力和安全性。

主权项:1.一种基于相互知识转移的联邦学习优化方法,其特征在于,包括:步骤1,根据接收到的任务方的需求选择对应的大模型部署在联邦学习系统的中央服务器上,并存储大模型对应的数据集;步骤2,将大模型作为教师模型,在中央服务器通过知识蒸馏将大模型的知识迁移至蒸馏后的学生模型上;步骤3,将学生模型作为联邦学习系统的初始模型,并下发给联邦系统的本地客户端;步骤4,本地客户端根据下发的初始模型,将其复制作为学生模型保存在本地,然后各个本地客户端根据自己的本地数据集作为模型的输入,训练初始模型并更新模型参数,得到本轮训练后的一代本地模型;步骤5,将使用本地数据集训练后的一代本地模型通过相互知识转移技术继续学习学生模型的知识,得到该本地客户端本轮训练的二代本地模型;步骤6,在一轮训练中,每个本地客户端将自己的二代本地模型上传至服务器,服务器将本地客户端上传的模型进行模型聚合,得到本轮训练的全局模型;步骤7,将上一轮训练后的全局模型再次下发给联邦系统的各个本地客户端,本地客户端再次利用本地数据集训练本轮的本地模型,然后重复步骤5和步骤6进行迭代训练,直至最后一轮训练完成后的全局模型收敛,结束训练过程。

全文数据:

权利要求:

百度查询: 湘江实验室 一种基于相互知识转移的联邦学习优化方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。