首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于相互知识转移的联邦学习优化方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:湘江实验室

摘要:本发明实施例中提供了一种基于相互知识转移的联邦学习优化方法,属于计算技术领域,具体包括:存储大模型对应的数据集;在中央服务器通过知识蒸馏将大模型的知识迁移至蒸馏后的学生模型上;将学生模型下发给联邦系统的本地客户端;得到本轮训练后的一代本地模型;通过相互知识转移技术得到该本地客户端本轮训练的二代本地模型;服务器将本地客户端上传的模型进行模型聚合,得到本轮训练的全局模型;将上一轮训练后的全局模型再次下发给联邦系统的各个本地客户端,本地客户端再次利用本地数据集训练本轮的本地模型,进行迭代训练,直至最后一轮训练完成后的全局模型收敛,结束训练过程。通过本发明的方案,提高了模型性能、泛化能力和安全性。

主权项:1.一种基于相互知识转移的联邦学习优化方法,其特征在于,包括:步骤1,根据接收到的任务方的需求选择对应的大模型部署在联邦学习系统的中央服务器上,并存储大模型对应的数据集;步骤2,将大模型作为教师模型,在中央服务器通过知识蒸馏将大模型的知识迁移至蒸馏后的学生模型上;步骤3,将学生模型作为联邦学习系统的初始模型,并下发给联邦系统的本地客户端;步骤4,本地客户端根据下发的初始模型,将其复制作为学生模型保存在本地,然后各个本地客户端根据自己的本地数据集作为初始模型的输入,训练初始模型并更新初始模型参数,得到本轮训练后的一代本地模型;步骤5,将使用本地数据集训练后的一代本地模型通过相互知识转移技术继续学习学生模型的知识,得到该本地客户端本轮训练的二代本地模型;所述步骤5具体包括:步骤5.1,将本地客户端的数据集分成L个小批,大小为,记为;步骤5.2,将使用本地数据集训练后的一代本地模型通过最小化给定的损失函数来模仿学生模型的输出,遍历本地客户端的本地数据集的小批量,并最小化损失函数,更新一代本地模型,得到第个本地客户端在第t轮训练中得到的二代本地模型;所述最小化给定的损失函数的表达式为 其中,为中数据样本的真标签集,是中的第z个样本的真实标签,是第k个本地客户端在第t轮训练中利用本地私有数据训练得到的一代本地模型,是全局模型产生的软预测,是学生模型产生的软预测: 其中和是两个长度为C的向量,表示在小批量中的第z个数据样本的软预测,是大模型知识蒸馏后的学生网络; 表示真标签与软预测之间的交叉熵误差 其中是单热向量,中的所有元素都是零,除了第个元素是1,损失函数中的第二项为量化两个网络软预测匹配的KL发散,表达式为: ;所述二代本地模型的表达式为 其中,为相互知识转移的学习速率;步骤6,在一轮训练中,每个本地客户端将自己的二代本地模型上传至服务器,服务器将本地客户端上传的二代本地模型进行模型聚合,得到本轮训练的全局模型;步骤7,将上一轮训练后的全局模型再次下发给联邦系统的各个本地客户端,本地客户端再次利用本地数据集训练本轮的本地模型,然后重复步骤5和步骤6进行迭代训练,直至最后一轮训练完成后的全局模型收敛,结束训练过程。

全文数据:

权利要求:

百度查询: 湘江实验室 一种基于相互知识转移的联邦学习优化方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术