北京工业大学蒙西获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京工业大学申请的专利一种生活垃圾收集过程臭气智能监测预警方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116882446B 。
龙图腾网通过国家知识产权局官网在2026-01-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310657368.4,技术领域涉及:G06N3/043;该发明授权一种生活垃圾收集过程臭气智能监测预警方法是由蒙西;王岩;孙子健;韩红桂设计研发完成,并于2023-06-05向国家知识产权局提交的专利申请。
本一种生活垃圾收集过程臭气智能监测预警方法在说明书摘要公布了:本发明涉及一种生活垃圾收集过程臭气智能监测预警方法,实现了臭气浓度的预测,并确定预警级别,实现臭气智能监测预警,包括以下步骤:首先,采集数据并对数据进行预处理;确定模型的输入变量和输出变量;然后,采用模块化神经网络建立臭气浓度预测模型;最后,参考《恶臭污染物排放标准GB14554‑93》及《室内空气质量标准GBT18883‑2002》,设置硫化氢H22S、氨气NH33浓度预警阈值,拟定臭气预警级别,实现臭气监测预警。本发明有效地实现了臭气浓度的准确预测以及监测预警,具有重要的理论意义和应用价值。
本发明授权一种生活垃圾收集过程臭气智能监测预警方法在权利要求书中公布了:1.一种生活垃圾收集过程臭气智能监测预警方法,其特征在于,包括以下步骤: 步骤1、采集现场数据; 通过安装在生活垃圾分类驿站的设备实时采集、存储硫化氢H2S、氨气NH3浓度数据,采样间隔时间为30秒; 步骤2、确定预测模型输入、输出变量; 预测模型的输入变量表示为x=x1,x2,x3,x4T,分别代表t-3、t-2、t-1以及t时刻的H2S、NH3浓度,模型的输出变量y为t+2时刻的H2S、NH3浓度; 步骤3、设计模块化神经网络,建立预测模型,实现H2S、NH3浓度预测; 步骤4、设置H2S、NH3浓度预警阈值,拟定臭气预警级别,实现臭气预警; 步骤3中,设计模块化神经网络,建立预测模型的方法如下:首先,基于注意力机制实现模块化分区;其次,基于自组织模糊神经网络构建子网络;最后,基于注意力机制整合各个子网络的输出,得到最终预测结果,具体如下: 1基于注意力机制的模块化分区方法如下: 模块化指标MQ由模块内的密集程度和模块间的稀疏程度组成,其中,模块内的密集程度计算如下: 其中,JC为模块内的密集程度,P为当前网络中模块的数量,Nl为分配给第l个模块的样本数,xi为第i个训练样本的输入向量,hl和rl分别表示第l个模块的核心节点和作用范围; 模块间的稀疏程度基于欧式距离进行计算: 其中,JS为模块间的稀疏程度,dhl,hs代表第l个模块核心节点和第s个模块核心节点间的距离,根据模块内的密集程度JC和模块间的稀疏程度JS,提出模块化指标衡量方式如下: MQ的值越大,该网络的模块化程度越高,基于注意力机制的模块化分区方法如下:首先,根据点密度的思想确定各初始子模块的核心节点;其次,基于注意机制向各个子模块分配样本;然后,通过寻求网络的最大“模块化”来确定现有模块的新核心节点;最后,通过合并距离最近的核心节点并寻求网络的最大“模块化”来确定网络中的最佳模块数; ①确定各初始子模块的中心 数据集不能明确地描述样本点分布情况,引入点密度思想即样本点分布的密度,若样本点周围的点越多,则在该样本点处的样本分布密度就越大,该样本越有可能成为模块化分区的核心节点;因此,提出一种点密度函数作为初始子模块核心节点的选取方法; 对于每个训练样本的输入向量x,其点密度函数的表达式定义如下: dij=||xi-xj||5 其中,dij表示两个训练样本输入向量xi和xj间的距离;若xi周围的点越多,则Zi的值越大; 计算各个样本的点密度,将点密度最大的前n个训练样本的输入向量作为初始子模块的核心节点,具体设置如下: 其中,hi和ri分别表示第i个初始子模块的核心节点和作用范围;xZi为第i个点密度最大的训练样本输入向量;dmax为训练样本输入向量xi和xj间的最大距离; ②基于注意力机制分配样本 T时刻,当第T个训练样本xT进入网络时,计算各个子模块对xT的注意力值Attention: 其中,Attentiond为第d个子模块对xT的注意力值,Qd为第d个子模块的核心节点,Qdi为第d个子模块核心节点的第i个分量,K、V为输入样本xT,如式10所示,Ki、Vi为样本xT的第i个分量;Si为相关性值,如式11所得; K=V=xT=[x1,…,xi,…,xk]10 子模块d对样本xT注意力值的具体计算步骤如下: a根据Qd和K计算二者的相关性,计算公式为: Si=|Qdi-Ki|11 b对Si值进行softmax归一化处理得到ai值; c根据步骤b中得到的ai值计算1-ai值; d根据得到的1-ai值对V进行加权求和,得到注意力值Attentiond,完成子模块d对xT的注意力值计算; 若第d个子模块对xT的注意力值大于阈值λ,即Attention≥λ,则将xT分配到该模块,λ取0.5; ③优化模块 为了使网络具有最优的“模块化”程度,根据公式3,分别计算在新增样本和原有模块核心节点分别作为子模块核心节点的情况下整个网络的模块化指标值MQt和MQlmin: 若MQlminMQt,选用当前新增样本作为核心节点的网络模块化程度更高,用该样本替换原模块核心节点成为新的模块核心节点,初始参数设置如下: ht=xt12 其中,ht为模块的新核心节点,xt为新增样本的输入向量,rt为模块的作用范围,Nlmin为分到该模块的样本数; 若MQlminMQt,当前模块核心节点保持不变,只需要调整该模块的作用范围: 其中,rlmin为模块的作用范围,Nlmin为分到该模块的样本数; 当所有训练样本都比较完毕后,样本被分配到了不同的子模块; ④合并模块 若T时刻,存在两个或两个以上的模块,计算各个模块核心节点之间的欧式距离,当核心节点ci到cj的距离最小,则将两个模块合成一个新的模块,初始参数设置如下: 其中,cnew为合并后模块的核心节点,Zci和Zcj分别为核心节点ci和cj的点密度; 根据公式3,分别计算合并模块前和合并模块后整个网络的模块化指标值MQ,并找到MQ值最大时的模块数,此时,网络的模块化程度是最大的,模块化分区形成; 2采用自组织模糊神经网络来构建每个模块对应的子网络,子网络的设计包括三个部分:网络结构增长、网络结构修剪和网络参数调整; ①网络结构增长 当第一个训练样本进入网络后,将该样本作为第一个RBF神经元的中心、宽度以及到输出层的连接权值: c1=x116 σ1=117 w1=yd118 其中,c1为第一个神经元的中心,x1为第一个训练样本的输入向量,σ1为第一个神经元的宽度,w1为规则化层神经元到输出层神经元的连接权值,yd1为第一个训练样本的输出值; 在时间ts时刻,训练误差向量ets由下式获得: 其中,yf是第f个训练样本的期望输出值,是第f个样本在时刻ts的网络输出值; 寻找期望输出值和网络输出值相差最大的样本 新增一个规则对第个样本进行学习,补偿当前最大误差;新增规则的中心向量和输出权值设置如下所示: ct=xl22 wt=ydl23 其中,ct为新增神经元的中心,xl为第l个训练样本的输入向量,wt为规则化层神经元到输出层神经元的连接权值,ydl为第l个训练样本的输出值; 每新增一个规则后,计算该规则与已有规则间的欧式距离并寻找最小距离dmin: dmin=min{distct,cj≠t}24 基于该最小距离,将新增神经元的宽度σt设置为: σt=0.7dmin25 每次新增规则时,网络参数通过二阶学习算法进行调整;当达到预设最大结构Jmax或期望训练精度E0,网络结构增长过程结束;实验过程中Jmax=10,E0=0.0001,采用误差平方和SSE来衡量网络的训练精度,计算如下: 其中,yi和分别为第i个训练样本的期望输出值以及网络输出值,Ns为子模块s中的样本数; ②网络结构修剪 为避免网络结构出现冗余,因此提出了基于RBF层神经元激活强度的度量值: 其中,Φj为第j个RBF神经元的输出,Jmins为RBF层激活强度最小的神经元; 因此,删除激活强度最小的规则,并通过二阶学习算法调整参数,将删除该规则后的均方根误差值SSE_1与未删除该规则时的均方根误差值SSE_0进行比较;如果SSE_1≤SSE_0,可以在不牺牲网络学习能力的情况下对所选规则进行修剪,然后,重复上述过程,相反,无法删除选定的规则;此时,网络结构修剪过程结束,子网络构建完成;每次删减神经元时,使用二阶学习算法调整参数; ③网络参数调整 改进二阶学习算法如下所示: Δt+1=Δt-Qt+μtI-1gt28 其中,Δt+1为调整后的参数,Δt为调整前的参数,包括中心、宽度和连接权值;Qt为类海森矩阵;gt为梯度向量;I为单位矩阵;μt为学习率参数,取0.01; 为了减少雅可比矩阵计算过程中的空间复杂度和时间复杂度,将类Hessian矩阵Qt和梯度向量gt的计算转化为子类Hessian矩阵求和和子梯度向量求和: qz为子类Hessian矩阵、ηz为子梯度向量,均可由下式计算得到: 其中,ez为第z个样本的期望输出值yz与网络预测输出值的差值,jz为雅克比向量,计算如下: 根据链式求导法则,式34中雅克比向量中的每个分量计算如下: 其中cj,σj,wj分别为第j个神经元的中心、宽度和到输出层的连接权值,xz是第z个训练样本的输入向量; 3基于注意力机制的整合策略方法如下: 将测试数据作为模型的输入,模型的输出为t+2时刻的H2S、NH3浓度预测值: T时刻,当第T个测试样本进入模型后,计算各个子模块对xT的注意力值Attention,当Attention≥λ时,激活相应的子模块对输入样本进行计算; 当各子模块对样本进行计算后,输出整合层对各激活子模块的输出进行加权整合: 其中,yr为第r个子网络的输出值,εr为第r个子网络到输出层的权重系数,其根据子网络对输入样本的注意力程度进行确定,计算公式如下: 其中,Attentionr为第r个被激活的子网络对输入样本xT的注意力值;R为被激活的子网络总数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100124 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励