同济大学尤鸣宇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉同济大学申请的专利一种基于分布式优化的多FPGA协同训练神经网络方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116842998B 。
龙图腾网通过国家知识产权局官网在2025-11-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310598533.3,技术领域涉及:G06N3/0464;该发明授权一种基于分布式优化的多FPGA协同训练神经网络方法是由尤鸣宇;任柏宇;周洪钧;何斌设计研发完成,并于2023-05-25向国家知识产权局提交的专利申请。
本一种基于分布式优化的多FPGA协同训练神经网络方法在说明书摘要公布了:本发明提出一种基于分布式优化的多FPGA协同训练神经网络方法,以上位机作为核心控制模块,利用以太网与FPGA通信,分配训练数据,最后回收训练参数;通过在单台FPGA上搭建卷积神经网络的训练单元,其包括神经网络基础单元的计算模块、控制运算的指令模块、以RAM作为缓存区的DDR‑RAM存储模块和以交叉熵函数为损失函数,建立目标协同优化全局目标函数,通过BP算法用梯度下降法更新训练参数的神经网络训练模块;在不同FPGA之间通过UART串口建立通信连接,传输必要的训练开始和结束的握手信号。通过对多台FPGA进行协同控制,并基于分布式优化算法进行卷积神经网络的训练,充分发挥了FPGA底层并行计算和低功耗的优势,并且兼容性较好,有利于推动CNN加速器技术的应用与进步。
本发明授权一种基于分布式优化的多FPGA协同训练神经网络方法在权利要求书中公布了:1.一种基于分布式优化的多FPGA协同训练神经网络方法,其特征在于,包括以下步骤: 步骤1:在单台FPGA上搭建卷积神经网络的训练单元,即卷积,池化,全连接,激活函数层以及数据缓存模块的搭建; 步骤1.1:利用指令模块根据所需的卷积,池化,全连接,激活函数计算需求及对应的初始存储地址进行编码操作,模型信息编码后发送给FPGA端进行解码操作,进而获取进行包括计算的种类和存储的地址信息; 步骤1.2:开发FPGA片上的乘法器和加法器组成一个计算基本模块; 步骤1.3:针对神经网络加速器中庞大的数据计算和存储需求,整合FPGA片上的RAM和DDR资源搭建一个数据缓存器; 步骤1.4:利用分布式随机梯度下降算法优化网络; 步骤2:利用以太网与PC机通信,上位机作为核心调度处理,分配数据,最后回收训练参数; 步骤3:多台FPGA间建立通信拓扑关系; 在步骤3中,包括以下步骤: 步骤3.1:在不同FPGA之间通过UART串口建立通信连接传输必要的训练开始和结束的握手信号,确保其同步进行每一阶段的训练; 步骤3.2:根据通信拓扑关系设置卷积训练参数的权重值; 在步骤3.2中,星型网络中心节点与每个节点都有连接,所以权重设为1um_user,其余相连接的节点只与中心节点相连接,权重设为1-1um_user;环型网络通信默认为双向,将对应的有相互连接的节点位置Pm,n权重设置为13;完全型网络因为每一个节点都与其他节点相联,所以在n*n矩阵中Pm,n权重设均置为1umuser。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励