成都博智维讯信息技术股份有限公司张远鑫获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉成都博智维讯信息技术股份有限公司申请的专利一种面向制造工艺的大规模数据挖掘方法、系统及储存介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119806095B 。
龙图腾网通过国家知识产权局官网在2025-07-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510287308.7,技术领域涉及:G05B19/418;该发明授权一种面向制造工艺的大规模数据挖掘方法、系统及储存介质是由张远鑫;赵帅;曹毅;王洲设计研发完成,并于2025-03-12向国家知识产权局提交的专利申请。
本一种面向制造工艺的大规模数据挖掘方法、系统及储存介质在说明书摘要公布了:本发明公开了一种面向制造工艺的大规模数据挖掘方法、系统及储存介质,采用了基于梯度累积补偿的神经网络算法,能够有效避免传统神经网络在大规模工艺数据训练中遇到的梯度爆炸和梯度消失问题,通过梯度累积和动态补偿,模型能够稳定更新参数,且加速了复杂工艺数据的收敛过程,具备更强的适应性和鲁棒性。
本发明授权一种面向制造工艺的大规模数据挖掘方法、系统及储存介质在权利要求书中公布了:1.一种面向制造工艺的大规模数据挖掘方法,其特征在于,包括: 数据采集,其中,所述数据为制造工艺中获取的数据; 提取所述数据中的特征,其中,利用基于梯度累积补偿的神经网络算法作为特征提取模型; 其中,所述基于梯度累积补偿的神经网络算法的训练方法包括: 神经网络的参数初始化,其中,通过随机正态分布的方式对所述神经网络的参数进行初始化,并将梯度累积的初始值置为零;所述神经网络参数包括神经网络的权重和偏置参数; 在每次训练的反向传播过程中,采用梯度累积策略,将当前梯度与历史梯度进行相加累积,并通过动态补偿因子来平滑更新;所述梯度累积策略计算方式表示为: 式中,为第m次迭代的梯度累积,为第m-1次迭代的梯度累积,m为正整数,βpe为梯度累积衰减因子,为神经网络的损失函数对参数θp的梯度,为第m个训练样本;为第m个训练样本的标签;L·,·为神经网络的损失函数;为针对第m次迭代的局部梯度偏移量;θp为神经网络参数;其中,所述局部梯度偏移量的计算方式表示为:式中,αp为样本加权系数,||||为L2范数,为当前梯度的范数,λpev是正则化增益因子;为第m个训练样本的特征均值;σpev为样本的标准差超参数; 局部梯度偏移量计算,所述局部梯度偏移量的计算通过样本加权系数来对重要样本进行加权处理; 利用神经网络的损失函数更新神经网络参数梯度; 在所述神经网络的前馈计算时,对激活函数进行动态调整,使得激活输出结合当前累积梯度信息,以及输入样本特征的规模信息; 根据训练过程中的梯度变化情况对学习率进行动态调控; 对神经网络参数进行全局更新; 重复迭代上述步骤,若损失函数的连续变化幅度小于给定阈值则止训练; 根据所述特征对所述数据进行分类,其中,利用机器学习算法建立分类模型,识别所述数据;其中,所述分类模型结构基于支持向量机算法,所述支持向量机算法训练包括: 处理训练数据中的冗余特征,其中,基于信息熵的冗余消除机制,通过计算特征之间的相关性以及冗余度,动态调整数据集的特征空间; 利用冗余消除损失函数自动识别并删除冗余的特征; 存储和管理分类完成的所述数据; 将所述数据可视化处理。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人成都博智维讯信息技术股份有限公司,其通讯地址为:610000 四川省成都市自由贸易试验区成都高新区天府大道中段1366号2栋12层1-6号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。