Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 重庆邮电大学王巍获国家专利权

重庆邮电大学王巍获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉重庆邮电大学申请的专利一种基于FPGA的CNN_LSTM算法的神经网络加速器获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115423081B

龙图腾网通过国家知识产权局官网在2025-12-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211150640.1,技术领域涉及:G06N3/0442;该发明授权一种基于FPGA的CNN_LSTM算法的神经网络加速器是由王巍;夏旭;赵汝法;丁辉;刘斌政;稅绍林设计研发完成,并于2022-09-21向国家知识产权局提交的专利申请。

一种基于FPGA的CNN_LSTM算法的神经网络加速器在说明书摘要公布了:本发明请求保护一种基于FPGA的CNN_LSTM算法的神经网络加速器,CNN硬件实现部分包括数据输入行缓存模块,卷积计算模块,Relu激活函数模块,中间结果缓存模块,池化计算模块;LSTM硬件实现部分包括LSTM控制模块,门函数计算模块,Sigmoid激活函数线性近似模块;FC硬件实现部分包括FC控制模块,全连接层计算模块,Relu激活函数模块,数据输出缓存。本发明目的在于能够结合具体的应用场景设计出高性能、低功耗、灵活性强的CNN_LSTM神经网络加速器。创新点在于相比较传统的神经网络加速器,本发明使用并行流水的设计方法实现了CNN‑LSTM算法的神经网络加速器,对提高神经网络加速器的低功耗与数据吞吐率有着显著的效果,而且利用FPGA的并行处理能力使得算法有更快的运行速度。

本发明授权一种基于FPGA的CNN_LSTM算法的神经网络加速器在权利要求书中公布了:1.一种基于FPGA的CNN_LSTM算法的神经网络加速器,其特征在于,包括: CPU:用于将输入数据通过传输数据总线发送到输入缓存模块,将权重、偏置参数发送给参数RAM模块中; 总线:包括数据总线和控制总线,数据总线负责CPU与FPGA之间的数据传输;控制总线负责CPU与FPGA之间控制信号指令的传输; 输入输出缓存:用于通过数据总线缓存CPU传送给FPGA的待处理数据和FPGA传送给CPU的处理完成的数据; CNN卷积运算模块:负责对输入缓存模块输入的数据与CNN权重偏置RAM的数据进行卷积、激活、池化逻辑运算; LSTM运算模块:负责对CNN卷积运算模块输出的数据与LSTM权重偏置RAM的数据进行乘累加逻辑运算; FC运算模块:负责对LSTM运算模块输出的数据与FC权重偏置RAM的数据进行乘累加逻辑运算; 为了实现卷积计算的全并行设计,实现加速器的高性能、高并发性,运用移位寄存器设计了输入输出缓存模块;输入缓存模块引脚包括时钟信号clk、复位信号rst_n、数据开始接收有效信号i_vaild、1个14bit数据输入data_in,6个14bit数据输出data_output和输出有效信号o_vaild;当系统CPU发送一个chip_en指令给神经网络加速器时,输入缓存模块开始数据接收,i_vaild信号开始有效,当输入缓存存满时,开始向卷积运算模块传递数据,这个时候i_vaild无效,o_vaild开始有效,将缓存好的数据按顺序输出给第一个卷积运算模块进行卷积运算。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆邮电大学,其通讯地址为:400065 重庆市南岸区南山街道崇文路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。