上海大学杨梅领获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉上海大学申请的专利基于CPU/NPU协同计算的卷积神经网络编译方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119938057B 。
龙图腾网通过国家知识产权局官网在2025-12-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510014346.5,技术领域涉及:G06F8/41;该发明授权基于CPU/NPU协同计算的卷积神经网络编译方法是由杨梅领;刘银涛;曹姗;姜之源设计研发完成,并于2025-01-06向国家知识产权局提交的专利申请。
本基于CPU/NPU协同计算的卷积神经网络编译方法在说明书摘要公布了:一种基于CPUNPU协同计算的卷积神经网络编译方法,将各种CNN模型在不同网络框架下经过模型量化和压缩,以ONNX文件格式导出;通过ONNX‑MLIR工具链与NPU编译器的融合完成ONNX文件编译过程并分别生成分配到CPU和NPU的任务列表后,在CPU端,ONNX‑MLIR为CPU任务生成有效的RISC‑V指令,支持高效调度,在NPU端,定制的NPU编译器完成NPU任务在算法与硬件上的匹配并将算子高效映射到NPU平台。本发明通过功能函数并优化核心阶段,解决CNN在异构架构RISC‑VCPUNPU上无法有效运行的问题,实现计算性能的显著提升。
本发明授权基于CPU/NPU协同计算的卷积神经网络编译方法在权利要求书中公布了:1.一种基于CPUNPU协同计算的卷积神经网络编译方法,其特征在于,包括: 步骤1、将各种CNN模型在不同网络框架下经过模型量化和压缩,以ONNX文件格式导出; 步骤2、通过ONNX-MLIR工具链与NPU编译器的融合完成ONNX文件编译过程并分别生成分配到CPU和NPU的任务列表,具体包括: 2.1在ONNXdialect阶段,通过任务调度函数和三种不同模式,根据用户的具体需求在CPU和NPU之间分配操作; 所述的三种不同模式包括:全CPU模式、用户定义模式和默认模式; 2.2在MLIRdialect阶段,通过算子打包技术实现封装任务调度函数划分好的属于CPU任务的CNN算子,将多个算子组合为更高效的执行单元以显著减少CPU和NPU之间操作切换的开销; 2.3在LLVMdialect阶段,通过内存管理函数统一异构平台的内存管理并通过内存优化压缩内存空间,确保数据交互的正确性, 步骤3、通过RISC-V指令扩展实现CPU与NPU的深度融合,具体为:在CPU端,ONNX-MLIR为CPU任务生成有效的RISC-V指令,支持高效调度,在NPU端,定制的NPU编译器完成NPU任务在算法与硬件上的匹配并将算子高效映射到NPU平台; 所述的全CPU模式是指:强制所有任务都在CPU上执行;所述的用户定义模式是指:高级用户提供手动控制任务分配的能力;所述的默认模式是指:根据NPU的能力自动分配任务,即调度器检查每个操作是否满足NPU的限制条件,若满足,则将其分配到NPU,否则分配到CPU。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人上海大学,其通讯地址为:200444 上海市宝山区上大路99号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励