河海大学章振宇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉河海大学申请的专利一种基于1bit压缩感知的无线联邦学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN113962400B 。
龙图腾网通过国家知识产权局官网在2025-05-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111136679.3,技术领域涉及:H04W28/06;该发明授权一种基于1bit压缩感知的无线联邦学习方法是由章振宇;谭国平;周思源设计研发完成,并于2021-09-27向国家知识产权局提交的专利申请。
本一种基于1bit压缩感知的无线联邦学习方法在说明书摘要公布了:本发明公开了一种基于1bit压缩感知的无线联邦学习方法,包括:基站下发全局模型给各个用户端;用户端在本地提供数据进行训练;用户端将本地模型与下发的全局模型进行对比;用户端记录本轮本地模型更新的幅度和更新的趋势;用户端根据本地模型更新的幅度,动态选定稀疏度以及用于稀疏化的阈值;用户端根据阈值对本地模型更新的趋势进行稀疏化;用户端通过1‑bit压缩感知的方法进行压缩;基站通过BIHT算法和接收到的稀疏度将观测信号重构;基站通过接收到的阈值和重构的更新的稀疏趋势恢复用户端的本地模型;基站更新全局模型;基站下发新的全局模型给各个用户端进行一轮新的训练直到达到收敛。本发明降低了用户端的传输能耗。
本发明授权一种基于1bit压缩感知的无线联邦学习方法在权利要求书中公布了:1.一种基于1bit压缩感知的无线联邦学习方法,其特征在于,包括以下步骤:步骤1、初始化迭代次数t=1,基站初始化全局模型为Gω0,并下发Gω0给各个用户端;步骤2、基站将第t-1次学习训练得到的全局模型Gωt-1发给各个用户端,各个用户端在本地利用本地数据进行第t次学习训练,得到更新后的本地模型;步骤3、第t次学习训练时,各个用户端将更新后的本地模型Giωt表示为一维列向量的形式;步骤4、第t次学习训练时,每个参与训练的用户端对比Gωt-1和Giωt,获得第t次学习训练时第i个用户端的本地模型更新的幅度Diωt、第t次学习训练时第i个用户端的本地模型更新的趋势Siωt;步骤5、第t次学习训练时,第i个用户端动态选定对Siωt进行稀疏化的稀疏度Ki,t以及阈值thi,t;步骤6、第t次学习训练时,第i个用户端根据选定的阈值thi,t对本地模型更新的趋势Siωt进行稀疏化,得到本地模型更新的稀疏趋势步骤7、第t次学习训练时,各个用户端选择高斯随机测量矩阵A作为传感矩阵,通过1bit压缩感知方法压缩得到观测信号yiωt;步骤8、第t次学习训练时,各个用户端将观测信号yiωt、稀疏度Ki,t和阈值thi,t发送给基站;步骤9、第t次学习训练时,基站根据接收到的观测信号yiωt、选择传感矩阵A和稀疏度Ki,t,使用BIHT算法对观测信号yiωt进行信号重构,得到重构的本地模型更新的稀疏趋势基站与用户端共享矩阵A;步骤10、第t次学习训练时,基站根据重构的本地模型更新的稀疏趋势Gωt-1和阈值thi,t恢复用户端第t次学习训练后的本地模型,得到恢复后的本地模型G′iωt;步骤11、第t次学习训练时,基站得到所有用户端的恢复后的本地模型G′iωt之后,将这些恢复后的本地模型取平均,得到第t次学习训练的全局模型Gωt;步骤12、基站将新的全局模型Gωt下发给用户端进行一轮新的学习训练,令t=t+1,返回步骤2,直到学习训练过程达到收敛;步骤5的方法如下:设置参数αt∈0.4,0.8,将稀疏化参数分别设置为第一稀疏化参数p1∈4%,6%,第二稀疏化参数p2∈9%,11%,记Diωt中含有N个数据,则令第t次学习训练时的第一稀疏度第二稀疏度记录Diωt内N个数据中数值大小为第大的数值为数值大小为第大的数值为若设置阈值稀疏度否则设置阈值为稀疏度其中[·]表示取整;步骤10中,恢复方法如下:读取中的每一个数值,如果中的第n个数值为1,则将Gωt-1中的第n个数值加上thi,t;如果中的第n个数值为-1,则将Gωt-1中的第n个数值减上thi,t;如果中的第n个数值为0,则不对Gωt-1中的第n个数值进行操作。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人河海大学,其通讯地址为:211100 江苏省南京市江宁开发区佛城西路8号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。