Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京工业大学李文静获国家专利权

北京工业大学李文静获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京工业大学申请的专利一种基于快速多层前馈小世界神经网络出水氨氮浓度预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116741299B

龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310334337.5,技术领域涉及:G16C20/30;该发明授权一种基于快速多层前馈小世界神经网络出水氨氮浓度预测方法是由李文静;李治港;乔俊飞设计研发完成,并于2023-03-30向国家知识产权局提交的专利申请。

一种基于快速多层前馈小世界神经网络出水氨氮浓度预测方法在说明书摘要公布了:一种基于快速多层前馈小世界神经网络的出水氨氮预测方法实现出水氨氮浓度的准确预测是先进制造技术领域的重要分支,既属于控制领域,又属于水处理领域。本发明通过设计快速多层前馈小世界神经网络,根据污水处理过程采集的数据实现了出水氨氮浓度的准确预测,解决了污水处理过程出水氨氮浓度难以实时测量的问题,提高了城市污水处理厂水质质量实时监控水平与决策的灵活性。

本发明授权一种基于快速多层前馈小世界神经网络出水氨氮浓度预测方法在权利要求书中公布了:1.一种基于快速多层前馈小世界神经网络的出水氨氮浓度预测方法,此方法包括以下步骤: 步骤1:选取出水氨氮浓度历史数据,数据预处理; 首先,对出水氨氮浓度历史数据按照公式1归一化至[0,1], 其中,y是由出水氨氮浓度历史数据组成的时间序列,yt是t时刻的出水氨氮浓度,miny和maxy分别表示序列y中的最小值和最大值; 其次,选取前τ时刻的出水氨氮浓度yt-τ~yt作为网络输入,τ取[3,8],预测下一时刻的出水氨氮浓度yt+1,即模型的输入为yt-τ~yt,yt+1作为模型的期望输出; 步骤2:设计快速多层前馈小世界神经网络模型的拓扑结构; 步骤2.1:设计快速多层前馈小世界神经网络模型布线方式; 随机断开多层前馈神经网络中的规则连接,按照优先长距离连接的重连规则来构造前馈小世界神经网络;具体构造过程如下:构建一个规则连接的L层前馈神经网络,随机选择相邻层之间的一个连接,然后断开;假设该连接是从第l层的神经元i到第l+1层的神经元j,其权值被设置为零;其次,以一定概率引入一个跨层连接即从第l层中的神经元i到第s层中的神经元c的连接,该概率值计算方式如下, 其中,当l=1时D等于L-1,否则D等于L,s是跨层连接出现的层数,是s所有可能值的累加和,ps随s增大而增大; 重复上述步骤,直到重新布线的跨层连接数达到设定值Vmax,取[10,100]; 步骤2.2:设计快速多层前馈小世界神经网络的神经元激活函数; 设计的前馈小世界神经网络拓扑结构共有L层,包含输入层、隐含层、输出层;各层的神经元激活函数设计如下: ①输入层:该层共有n个神经元,代表n个输入,表示为x=[x1,x2,x3…xn]T,其中xn代表输入层的第n个输入变量,该层神经元激活函数设置为线性的,则输入层神经元i的输出为, 其中,xi代表输入层的第i个输入变量; ②隐含层:该层具有多层,并通过其非线性激活函数实现非线性映射,第l层的神经元j的输出为, 其中,ns代表神经网络第s层的神经元个数,代表神经网络第s层的神经元i与第l层的神经元j之间的连接权值,是第s层的神经元i的输出,f·是Sigmoid函数; ③输出层:输出层包含一个神经元,激活函数为线性,则其输出为, 其中,ns代表神经网络第s层的神经元个数,代表神经网络第s层的神经元i与输出层神经元之间的连接权值,是第s层的神经元i的输出; 步骤3:初始化快速多层前馈小世界神经网络的权值; 步骤3.1:初始化隐含层神经元的连接权值; 使用岭回归算法初始化隐含层神经元的连接权值,确保隐含层神经元处于激活状态; 使用岭回归初始化神经元连接权值,定义损失函数为, 其中,是表示与l层中的神经元j连接的所有神经元的权重的向量,H是存储这些神经元的输出矩阵,μ1是正则化因子,μ1取[0.01,001],t是在[-4.36,4.36]的激活区间内以均匀分布采样的向量;计算方式如下, 其中,I是单位矩阵,H是存储这些神经元的输出矩阵,HT是H的转置矩阵,t是在[-4.36,4.36]的激活区间内以均匀分布采样的向量,μ1是正则化因子,μ1取[0.01,001]; 重复以上方法,直至所有隐含层神经元的连接权值被初始化; 步骤3.2:初始化输出层神经元的连接权值; 输出层神经元的激活函数为线性,不存在激活死区,所以其连接权值在区间[-1,1]内均匀采样; 步骤4:设计快速多层前馈小世界神经网络的训练算法; 基于神经元激活函数特性,快速多层前馈小世界神经网络可以被视为两个子网络的级联,即由输入层和隐藏层组成的深度子网络和由输出层和与其直接连接的神经元组成的宽度子网络;宽度子网络的权值连接为线性的,采用岭回归法训练;深度子网络的权值连接是非线性的,随后采用梯度下降法训练;具体细节描述如下: 步骤4.1:岭回归训练宽度子网络; 快速多层前馈小世界神经网络的输出层是对其输入进行线性求和,因此使用岭回归方法来学习其输出权值wout;损失函数定义为, L1wout=||Howout-yd||2+||μ2wout||28 则t+1时刻的wout计算方式如下, 其中,t是迭代次数,Hot是存储连接到输出层的神经元t时刻输出的矩阵,是Hot的转置矩阵,yd是网络的期望输出,I是单位矩阵,μ2是正则化因子,μ2取[0.1×10-3,0.1×10-5]; 步骤4.2:梯度下降训练深度子网络; 在获得输出权值wout之后,然后使用梯度下降训练深度子网络;首先,定义损失函数为, 其中,yd是网络的期望输出,yL是网络的实际输出向量,则t+1时刻的网络实际输出向量yLt+1为, 其中,是存储连接到输出层的神经元t时刻输出的转置矩阵,然后,通过公式12更新深度子网络的权值, Wt+1=Wt+△Wt12 其中,Wt是t时刻的权值矩阵,Wt+1是t+1时刻的权值矩阵,△Wt是t时刻权值变化矩阵,其元素计算方式如下, 其中,表示t时刻第l层神经元i和第s层神经元j之间连接权值的变化量,L2W是损失函数,是t时刻第l层神经元i和第s层神经元j之间连接权值,λ是学习率,是t时刻第l层神经元i的输出,是t时刻第s层神经元j的误差,其计算方式如下, 其中,nd是第d层的神经元个数,是t时刻第s层神经元j和第d层神经元c之间连接权值,是t时刻第d层神经元c的误差,是t+1时刻第s层神经元j和输出层神经元的连接权值,是t时刻第s层神经元j的输出,δLt+1是网络的输出误差,计算方式如下, 其中,M是样本总量,是t+1时刻第m个样本点对应的网络真实输出,是第m个样本点对应的期望输出; 步骤4.3:计算训练RMSE,如果满足RMSE小于期望的训练RMSE或者迭代次数达到最大迭代次数时停止计算,最大迭代次数取值范围为[5000,10000],否则跳至步骤4.1,RMSE定义如公式16所示; 其中,M是样本总量,是第m个样本点对应的网络真实输出,是第m个样本点对应的期望输出; 步骤5:出水氨氮预测; 将测试样本数据作为训练好的快速多层前馈小世界神经网络的输入,得到神经网络的输出后将其反归一化,得到出水氨氮浓度的预测值。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100124 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。