Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中南大学邓晓衡获国家专利权

中南大学邓晓衡获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中南大学申请的专利一种多压缩版本的云边端DNN协同推理加速方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116663644B

龙图腾网通过国家知识产权局官网在2025-12-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310675653.9,技术领域涉及:G06N3/082;该发明授权一种多压缩版本的云边端DNN协同推理加速方法是由邓晓衡;任芳设计研发完成,并于2023-06-08向国家知识产权局提交的专利申请。

一种多压缩版本的云边端DNN协同推理加速方法在说明书摘要公布了:本公开实施例中提供了一种多压缩版本的云边端DNN协同推理加速方法,属于计算技术领域,具体包括:步骤1,利用已有数据集对深度神经网络进行多个尺度的压缩,得到多个不同大小版本的DNN模型,对多个版本的DNN模型分类准确率、各层的输出特征图大小以及计算开销进行量化表示,从而计算出在选择分割点后本地和边缘端分别需要的计算总开销,构建量化模型;步骤2,根据量化模型建立计算卸载和资源分配模型;步骤3,利用深度强化学习算法对计算卸载和资源分配模型进行优化,根据任务的服务需求对延迟和准确率进行均衡。通过本公开的方案,提高了推理效率、精准度、适应性和安全性。

本发明授权一种多压缩版本的云边端DNN协同推理加速方法在权利要求书中公布了:1.一种多压缩版本的云边端DNN协同推理加速方法,其特征在于,包括: 步骤1,利用已有数据集对深度神经网络进行多个尺度的压缩,得到多个不同大小版本的DNN模型,对多个版本的DNN模型分类准确率、各层的输出特征图大小以及计算开销进行量化表示,从而计算出在选择分割点后本地和边缘端分别需要的计算总开销,构建量化模型; 步骤2,根据量化模型建立计算卸载和资源分配模型; 所述步骤2具体包括: 步骤2.1,当移动设备接收到推理任务,对推理任务进行模型选择和模型分区,形成联合决策结果; 步骤2.2,根据联合决策结果进行本地推理计算,得到本地执行延迟; 步骤2.3,在分割点将中间特征图数据传输至边缘服务器,并计算网络传输延迟; 步骤2.4,当边缘服务器收到第i个移动设备上传的中间数据时,利用分配的计算资源来完成任务的剩余推理,根据边缘服务器的总计算资源F、分配给第i个移动设备的资源比例fi以及边缘服务器执行推理任务的预期计算开销计算边缘推理任务延迟; 步骤2.5,根据本地执行延迟、网络传输延迟和边缘推理任务延迟计算总时延; 步骤2.6,根据模型压缩率计算每个移动设备在推理任务中的模型准确率; 步骤2.7,根据总时延和模型准确率建立计算卸载和资源分配模型; 步骤3,利用深度强化学习算法对计算卸载和资源分配模型进行优化,根据任务的服务需求对延迟和准确率进行均衡。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中南大学,其通讯地址为:410000 湖南省长沙市岳麓区麓山南路932号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。