买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:中山大学
摘要:本发明涉及一种隐私保护下的去中心化数据建模方法。包括:S1.初始化与本地模型训练:从服务器处获取模型,参与方利用本地数据输入模型进行训练,进而得到本地的模型参数;S2.模型参数加密发送与回传:参与方在本地完成模型参数加密后进行参数发送,服务器将聚合后的模型参数返还给参与方,各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;S3.迭代停止:重复上述步骤直到全局模型参数[W]收敛。本发明解决了当前机器学习领域存在的数据孤岛和隐私泄露等问题;充分发挥各参与方数据的优势,降低数据中心化存储的风险,降低参与方数据隐私泄露的可能性,提升多方机器学习的安全性。
主权项:1.一种联邦学习下去中心化数据建模的隐私保护方法,其特征在于,包括以下步骤:S1.初始化与本地模型训练:从服务器处获取模型,参与方利用本地数据输入模型进行训练,进而得到本地的模型参数;所述的步骤S1具体包括:S11.服务器S向参与方发送初始模型W0,每个参与方都有一个本地数据集,数据集的样本数量为Ni,i是参与方的序号;S12.每个参与方用本地数据集进行模型训练;S13.t时刻的模型用梯度下降法对反向传播算法进行优化,并计算本地数据集的平均梯度每个参与方用其本地学习率η和平均梯度进行模型更新;因此参与方Pi在t+1时刻的本地模型参数为S14.参与方利用其本地数据集不断进行训练,直至达到子模型的评价指标时,停止训练,得到最终的本地模型参数Wi;S2.模型参数加密发送与回传:参与方在本地完成模型参数加密后进行参数发送,服务器将聚合后的模型参数返还给参与方,各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;所述的步骤S2具体包括:S21.各参与方将本地模型参数Wi进行全同态加密生成[Wi]并发送给服务器;S22.服务器接收到各参与方的加密模型后,在不解密的情况下进行参数聚合[W]=[W1]+[W2]+…+[Wi],得到加密后的全局模型参数[W];S23.服务器将聚合后的全局模型参数[W]回传给各个参与方;S24.各参与方用新的模型参数基于全同态加密运算和本地数据,开始新一轮的训练;S3.迭代停止:重复步骤S1、S2直到全局模型参数[W]收敛。
全文数据:
权利要求:
百度查询: 中山大学 一种联邦学习下去中心化数据建模的隐私保护方法及系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。