电子科技大学李宏亮获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉电子科技大学申请的专利一种基于参数门限补偿和保持的图像识别神经网络参数量优化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117292238B 。
龙图腾网通过国家知识产权局官网在2026-01-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311246001.X,技术领域涉及:G06V10/82;该发明授权一种基于参数门限补偿和保持的图像识别神经网络参数量优化方法是由李宏亮;郝昕鹏;唐世渊;矫健;龚传阳设计研发完成,并于2023-09-25向国家知识产权局提交的专利申请。
本一种基于参数门限补偿和保持的图像识别神经网络参数量优化方法在说明书摘要公布了:该发明公开了一种基于参数门限补偿和保持的图像识别神经网络参数量优化方法,属于深度学习、计算机视觉、神经网络修剪领域。通过合理设置参数门限和参数循环补偿方案,在不引入任何额外训练开销的前提下,有效缓解了初始化修剪中的层塌陷现象,提升了神经网络初始化修剪方法的性能。同时,本发明通过设计参数保持模块对参数净流出的网络层加强约束,进一步提升本发明所提出方法的鲁棒性。
本发明授权一种基于参数门限补偿和保持的图像识别神经网络参数量优化方法在权利要求书中公布了:1.一种基于参数门限补偿和保持的图像识别神经网络参数量优化方法,该方法包括: 步骤1:对输入图像进行预处理; 对输入图像进行归一化、等比例缩放、水平和垂直翻转、随机裁切操作,得到预处理后的图像; 步骤2:对已经训练好的神经网络模型中各网络层参数的参数重要性进行计算; 步骤3:根据如下约束,设置修剪网络的参数门限,参数门限表示神经网络模型中各网络层保留参数数量的下限; 约束1:设置的参数门限不大于已经训练好的神经网络模型中任意网络层的参数数量; 约束2:神经网络模型保留的参数数量满足模型整体的修剪率要求; 约束3:神经网络模型中各网络层保留参数的数量不完全相同; 设神经网络模型预期的修剪后参数保留比例为,网络层个数为,各网络层的参数量为,其中,参数门限系数为;根据约束1和约束2选取已经训练好的神经网络模型中参数数量最少的网络层的参数数量作为参数门限设置的基准,得到参数门限的关系式如下式所示; ; 根据约束1和约束2对上式的约束,得到如下所示的一组关于参数门限的约束关系,其中第一项不等式对应约束1,第二项不等式对应约束2; ; 根据上式得到关于参数门限系数的约束关系如下式所示; ; 定义运算,该运算的含义为按照当前数字的最高位有效位向下取整,得到关于参数门限系数的完整约束关系如下式所示; ; 最后选取参数门限系数为完整约束关系的上界,代入参数门限的关系式得到参数门限设置方式如下式所示; ; 步骤4:根据步骤2得到的参数重要性对已经训练好的神经网络模型进行预修剪,得到预修剪后各网络层的参数数量为,预修剪后各网络层参数数量的平均值为; 步骤5:以预修剪后各网络层参数数量的平均值作为允许有参数净流出的网络层拥有参数数量的下限,参数数量低于的网络层不会被进一步修剪,的计算方式如下式所示; ; 根据修剪神经网络模型时参数的流动情况,网络层分为参数净流入层、无操作层、参数净流出层;定义对应的网络层为: ; 步骤6:根据步骤5对各层网络的定义,对预修剪后的网络进行调整; 步骤6.1:定义参数净流入层是对该层网络的当前网络参数进行增加,定义参数净流出层是对该层网络当前网络参数进行减少;根据该层神经网络的定义进行对应的处理; 步骤6.2:根据步骤3的约束,对处理后的各层神经网络进行校验,满足约束的认为匹配完成进入步骤6.3,不满足约束的进行强制匹配;强制匹配的方法为:按照确定的参数门限和参数重要性强制该网络层保留的参数门限,对各层神经网络进行调整; 步骤6.3:循环步骤6.1和步骤6.2直到所有网络层均匹配完成; 步骤7:对步骤6得到的神经网络采用步骤1预处理后的图像进行训练。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新区(西区)西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励