买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:广东工业大学
摘要:本发明公开了一种拆分联邦学习的成本优化方法,包括:S1:构建拆分联邦学习系统模型,该模型包括一个服务器与若干个客户端,每个客户端拥有自己的本地数据集;S2:计算所有客户端数据计算与通信的时延和能耗;S3:利用客户端数据计算与通信的时延和能耗,以模型拆分层与带宽为决策变量,分析目标函数与相关约束,建立拆分联邦学习系统成本优化问题;S4:求解优化问题,得到模型拆分和带宽分配策略;S5:基于得到的模型拆分和带宽分配策略组织所有客户端配合服务器对给定的完整模型进行训练,得到训练后的完整模型。本发明计算最优模型拆分和带宽分配策略,使所有客户端在拆分联邦学习过程中总时间与总能耗加权和最小,降低了时间与能耗的成本。
主权项:1.一种拆分联邦学习的成本优化方法,其特征在于,包括以下步骤:S1:构建拆分联邦学习系统模型,该模型包括一个服务器与若干个个客户端,每个客户端拥有自己的本地数据集;S2:计算所有客户端数据的计算时延、计算能耗、通信时延和通信能耗;S3:利用所述客户端数据的计算时延、计算能耗、通信时延和通信能耗,以模型拆分层与带宽为决策变量,根据目标函数与约束条件,建立最小化拆分联邦学习系统成本的优化目标;S4:求解优化问题,得到模型拆分和带宽分配策略;S5:在拆分联邦学习系统中,基于得到的模型拆分和带宽分配策略组织所有客户端配合服务器对给定的完整模型进行训练,得到训练后的完整模型;步骤S2所述计算所有客户端数据的计算时延、计算能耗、通信时延和通信能耗,首先计算客户端本地的计算能耗和计算时延,然后计算拆分联邦学习系统客户端的通信能耗和通信时延;所述计算客户端本地的计算能耗和计算时延的具体过程如下:客户端i进行单位数据客户端子模型训练的本地计算负载为: 其中,γclientC表示模型在拆分点为C处客户端单个样本进行前向计算的所需要的操作数;ξclientC表示模型在拆分点为C处客户端单个样本进行前向计算的所需要的操作数;单位为FLOPs,C表示客户端子模型包含的层数;同理,对应需要服务器协同的计算负载客户端本地计算能耗计算时延Ticomp分别为 其中,客户端i计算频率为fi,单位为cycles,ki为客户端i计算强度,单位为FLOPscycle,则定义客户端的计算速度为φi=fi×ki,单位为FLOPS;客户端计算能耗系数为εi,单位为JFLOPs;Di为客户端i拥有的本地数据集;服务器协同客户端i的计算速度为ψ。
全文数据:
权利要求:
百度查询: 广东工业大学 一种拆分联邦学习的成本优化方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。