买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:中国电信股份有限公司技术创新中心;中国电信股份有限公司
摘要:本公开提供了一种面向弱算力终端参与的联邦学习方法及相关设备,涉及分布式机器学习技术领域。该方法包括:对待训练全局模型进行拆分得到多个待训练本地子模型,将多个待训练本地子模型部署至各个算力受限终端和各个算力受限终端对应的辅助计算节点;接收各个算力受限终端发送的本地模型,本地模型由各个算力受限终端采用对应的辅助计算节点根据本地数据对多个待训练本地子模型进行训练得到的;对各个算力受限终端的本地模型进行模型聚合,若满足预设训练停止条件,则得到全局模型,将全局模型发送至各个算力受限终端,从而可以使算力受限终端参与联邦学习的模型训练,提升模型训练效率。
主权项:1.一种面向弱算力终端参与的联邦学习方法,其特征在于,应用于学习服务管控功能,所述方法包括:以模型损耗最小为目标,对待训练全局模型进行拆分得到多个待训练本地子模型,将所述多个待训练本地子模型部署至各个算力受限终端和所述各个算力受限终端对应的辅助计算节点;接收所述各个算力受限终端发送的本地模型,所述本地模型由所述各个算力受限终端采用对应的辅助计算节点根据本地数据对所述多个待训练本地子模型进行训练得到的;对各个算力受限终端的本地模型进行模型聚合,若满足预设训练停止条件,则得到全局模型,将所述全局模型发送至所述各个算力受限终端;其中,在所述将所述多个待训练本地子模型部署至各个算力受限终端和各个算力受限终端对应的辅助计算节点之前,所述方法还包括:获取各个终端发送的节点信息;若一个终端的节点信息满足预设条件,则确定所述一个终端为算力受限终端,根据所述算力受限终端的计算能力分配至少一个辅助计算节点;所述方法还包括:确定边缘聚合终端,将所述各个算力受限终端分配至对应的边缘聚合终端,得到多个以各个边缘聚合终端为中心的训练组;接收各个边缘聚合终端发送的边缘模型,所述边缘模型由各个边缘聚合终端对训练组内各个算力受限终端的本地模型进行模型聚合得到的;对各个边缘聚合终端发送的边缘模型进行模型聚合,若满足所述预设训练停止条件,则得到所述全局模型。
全文数据:
权利要求:
百度查询: 中国电信股份有限公司技术创新中心 中国电信股份有限公司 面向弱算力终端参与的联邦学习方法及相关设备
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。