Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 国家电网有限公司西南分部;西华大学谭洪恩获国家专利权

国家电网有限公司西南分部;西华大学谭洪恩获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉国家电网有限公司西南分部;西华大学申请的专利一种确定带电作业人员进入等电位路径的改进DQN方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119312999B

龙图腾网通过国家知识产权局官网在2025-09-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411352858.4,技术领域涉及:G06Q10/047;该发明授权一种确定带电作业人员进入等电位路径的改进DQN方法是由谭洪恩;周林;张亚迪;张彼德;孙文成;彭宇辉;陈钊;任成君;袁星;邱杰设计研发完成,并于2024-09-26向国家知识产权局提交的专利申请。

一种确定带电作业人员进入等电位路径的改进DQN方法在说明书摘要公布了:本发明提供一种确定带电作业人员进入等电位路径的改进DQN方法,对吊蓝法带电作业进行仿真建模,计算吊蓝法带电作业进入等电位时所可能经过的各空间位置处作业人员的体表场强和放电危险率;针对带电作业的实际情况,对DQN的奖励函数进行重新设计,采用改进的动态贪婪策略,并对样本重要程度进行了区分,最终得到带电作业人员进入等电位的最优路径。本发明使用强化学习对带电作业等电位路径进行优化,提高作业人员进入等电位的安全性与舒适性;设计了DQN算法的奖励函数、动作规则和时变的动态贪婪策略,实现了自主学习进入等电位路径。

本发明授权一种确定带电作业人员进入等电位路径的改进DQN方法在权利要求书中公布了:1.一种确定带电作业人员进入等电位路径的改进DQN方法,其特征在于,包括以下过程: 首先对吊蓝法带电作业进行仿真建模,计算吊蓝法带电作业进入等电位时所可能经过的各空间位置处作业人员的体表场强和放电危险率; 针对带电作业的实际情况,对DQN的奖励函数进行重新设计,采用改进的动态贪婪策略,并对样本重要程度进行了区分,最终得到带电作业人员进入等电位的最优路径; 包括以下步骤: 步骤一、仿真建模; 利用有限元软件建立仿真模型,将吊篮法运动范围细致地等间距划分为N行M列,共计N×M个计算节点,分别计算各节点的放电危险率以及人体体表所受的电场强度; 1计算体表场强 在有限元软件中采用静电物理场与电荷传输物理场耦合方式建立直流特高压输电线路带电作业有限元仿真模型;两极导线分别施加相应的正负电位,其表面场强值由式1计算得出: 式中m为导线表面粗糙系数;δ为空气相对密度;r为分裂子导线半径;作业人员模型参考GB10000-88建立; 结合有限元仿真模型进行体表场强的计算,分别计算出每个坐标下的体表场强值,最后统计出N×M个体表场强值; 2计算各个点的组合间隙与放电危险率 组合间隙是指在进入等电位过程中,作业人员处于中间电位时距离等电位与地电位的最小距离之和;利用杆塔、导线所围成的区域结构,建立坐标系,然后根据人体在此区域的位置,计算得出组合间隙;最后利用计算脚本统计出N×M个组合间隙值; 带电作业中将间隙绝缘破坏的概率称为放电危险率,放电危险率Ro的计算方法如下: 式中,P0U为操作过电压幅值的概率密度函数;PdU空气间隙在过电压幅值为U时击穿的概率分布函数; 步骤二、数据预处理; 使用最大值归一化将体表场强和放电危险率映射到同一量级之中,并采用基于作业人员离导线距离动态加权的体表场强与间隙放电危险率融合方法; 数据预处理表达式如式7所示; 式中di、Ei、Ri分别代表当前位置离终点的距离、当前位置作业人员体表场强和当前位置的放电危险率,dmax表示起点与终点的距离,Emax、Rmax分别表示作业人员可运动范围内的最大体表场强和最大放电危险率,Fi表示当前位置的体表场强和放电危险率的融合值; 其中为体表场强的权重,为放电危险率的权重;在进入范围初期,着重考虑体表场强,减缓强电场对作业人员产生的不适感,随着作业人员逐渐靠近导线,放电危险率的权重逐渐增大,体表场强的权重逐渐减小,以减少作业人员在进入等电位时的危险性; 步骤三、基于改进DQN算法的带电作业路径规划; 1基于带电作业真实情况的奖励函数设计; 奖励设置如下: 终点奖励、探索奖励和启发奖励设置为正值,越界惩罚则为一个极大的负值; 具体的奖励设置如下: 2改进的贪婪策略; 探索因子ε决定了是进行随机动作还是利用网络来进行动作,动态探索因子在学习的前期探索因子下降较慢,鼓励算法更多的去执行随机动作更多的去探索,从而积累更加全面的学习样本,在学习的后期探索因子下降较快,则更多的鼓励智能体根据之前的学习效果选择动作执行,具体表达示如式11所示: 式中t表示当前迭代次数,tmax表示设置的ε到0时的最大迭代次数; 3回放经验池信息重要程度的区分; 强化学习算法需要从回放经验池中抽取数据进行学习,将回放经验池划分为重要信息和正常信息;重要信息存储越界或者到达终点时的信息,在进行抽样时,按照一定的比例从重要信息和正常信息中抽样,加快DQN的收敛速度和路径规划的成功率; 4动作规则的设计; 基于吊篮法进入等电位,考虑到吊篮法的实操性,智能体的动作空间设计为3个,其动作方向分别为向下、向右和向右下三个方向; 5Q网络的设计; Q网络为多层感知机,其输入层神经元个数为2,输入为智能体当前的坐标,输出层神经元个数为3,对应动作空间的取值,隐藏层神经元个数为128,隐藏层层数为2,激活函数为ReLU函数; 6模型的训练。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人国家电网有限公司西南分部;西华大学,其通讯地址为:610041 四川省成都市高新区蜀绣西路299号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。