首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种面向多智能体任务规划的复杂优化方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:中国人民解放军96901部队

摘要:本发明属于智能体任务规划优化技术领域,特别涉及一种面向多智能体任务规划的复杂优化方法。该方法基于马尔可夫决策和博弈论理论实现,包括多目标任务分配和多智能体路径规划;多目标任务分配采用双向竞标,即由智能体竞标目标任务和由目标任务竞标智能体的循环竞标策略;多智能体交互模块包括依次连接的相关性排序单元和循环交互单元;相关性排序单元用于进行相关性排序,循环交互单元采用循环递推结构对所述相关性排序单元输出的状态量进行降维,获得数据维度与智能体数量无关的交互信息。本发明能够在多对多任务规划的高维空间获得更优的局部最优解。

主权项:1.一种面向多智能体任务规划的复杂优化方法,其特征在于,所述多智能体任务规划基于马尔可夫决策和博弈论理论实现,包括多目标任务分配和多智能体路径规划;通过任务分配模块进行子任务的划分;路径规划模块接收到多智能体状态信息和任务分配情况后,完成各智能体的路径规划任务;而后各智能体再执行规划得出的结果,进而与环境发生新一轮的交互;所述多目标任务分配采用双向竞标,即由智能体竞标目标任务和由目标任务竞标智能体的循环竞标策略;记所有智能体的状态量为全局状态量,所述多智能体路径规划是采用多智能体交互模块对所述全局状态量进行降维,降维后的状态量经动作决策,得到最优动作集合,即最优路径规划结果;其中,为第m个智能体在t时刻的状态量,,其任务规划结果是获得最优动作;所述多智能体交互模块包括依次连接的相关性排序单元和循环交互单元;所述相关性排序单元用于进行相关性排序,所述循环交互单元采用循环递推结构对所述相关性排序单元输出的状态量进行降维,所述循环交互单元的输出记为,与的拼接记为紧凑全局状态量;任意给定输入和,输出,所述智能体m循环交互单元的循环递推结构的表达式为: 1 2 3其中,为逐元素的乘积,是sigmoid函数,分别为权值方阵,记为循环交互单元参数,i为所述循环交互单元的循环次数索引;所述多目标任务分配具体步骤包括:S11:环境建模以数字化地图构建所述多智能体任务规划的环境,描述环境中要素的坐标位置,所述要素至少包括智能体、目标点、障碍物,将智能体和目标点抽象为质点,环境中的障碍物抽象为几何区域;设智能体个数为M,目标任务个数为N,且M≥N;n记为目标任务的索引,所述多目标任务分配的总价值P最大化为约束条件;S12:智能体竞标目标任务选择总价值最大的方案X为智能体竞标目标任务的最优任务分配方案,X为矩阵,记为正向分配方案; (4)其中,vn是目标任务n的执行收益,kmn为第m个智能体对目标任务n的匹配系数,qmn为智能体m对目标任务n成功完成的概率,其取值范围为[0,1],xmn代表竞标方案矩阵X的元素,定义为: (5) x mn =1时,表示智能体m执行目标任务n;xmn=0时,表示智能体m不执行目标任务n;S13:目标任务竞标智能体选择总价值最大化的方案Y为目标任务竞标智能体的最优任务分配方案,记为反向分配方案; (6)其中,um是智能体m对目标任务的执行收益,gnm为第n个目标任务对智能体m的匹配系数,qnm为目标任务n采用智能体m成功完成的概率,且qnm=qmn,ynm代表竞标方案矩阵Y的元素,定义为: (7) y mn =1时,表示目标任务n选择智能体m执行任务;ymn=0时,表示目标任务n不采用智能体m执行任务;S14:将方案X和方案Y的转置矩阵进行逐元素比对,若对应位置的元素取值相同,则取该位置对应的智能体和目标任务作为分配结果;若对应位置的元素取值不一致,则对方案X的不一致元素记录相应的值,对方案Y的不一致元素记录相应的值;将所有记录的值按取值大小确定未分配智能体或目标任务的优先级,取值越大的对应的智能体与目标任务分配结果越优先被采纳,直至所有目标任务均分配了智能体;所述多智能体路径规划具体步骤包括:S21:初始化设置在t=0阶段,观测全局状态量;设定t的上限值;遍历所有智能体,完成所有智能体的初始化,具体方法是:对于智能体m,采用随机初始化的方式,随机生成动作策略的参数,并设置的最优参数,随机生成评判策略的参数,并设置的最优参数;随机初始化循环交互单元的所有参数;S22:设置从第m=0个智能体开始,逐个智能体执行步骤S23-S29;S23:计算多智能体交互信息将多智能体的全局状态量输入相关性排序单元进行相关性排序,相关性排序单元的输出是除智能体m的状态量之外的,且经排序后的其他智能体的状态量,将相关性排序单元的输出按照大至小的顺序依次输入循环交互单元按照公式(1)-(3)进行迭代,得到循环交互单元输出;智能体m每完成一次任务规划,将其循环交互单元参数共享给下一个智能体m+1的循环交互单元,循环交互单元参数通过共享更新,即 (8)式中,的取值范围为[0.05,0.5];S24:生成最优动作;基于动作策略生成最优动作为: (9)其中,为随机噪声,表示参数为时的动作策略;S25:评估路径规划结果依据最优动作,智能体m完成一次任务规划,评估此时智能体和目标任务所产生的奖励,以及其下一时刻达到的状态;S26:获取多智能体路径规划参数优化的数据包存储t时刻的到由紧凑全局状态量、最优动作和奖励构成的任务规划历史数据库,采用随机取样方式,从历史数据库中抽取一批数据,构成多智能体路径规划参数优化数据包,数据包包含K组样本,k为样本索引,,第k组样本包括某一时刻的紧凑全局状态量、最优动作、奖励及其下一时刻的紧凑全局状态量;S27:根据K个样本逐一计算智能体m的总奖励期望的目标值 10其中,表示以当前最优动作策略参数计算的最优动作,表示当前奖励的期望以最优的评价策略参数计算,,为相邻两次多智能体路径规划奖励的权重系数;S28:智能体m,动作策略、评判策略和循环交互单元参数通过最小化损失函数值L来优化 11其中,;则评判策略参数更新为,动作策略的参数更新为,更新为,;S29:更新智能体m的动作策略和评判策略的最优模型参数 12其中,为更新权重,;所有智能体完成步骤S23-S29后,在t的上限值范围内,通过不断重复S22-S29,实现动作策略的最优模型参数的逐步优化,并以最终的为动作策略的最优动作,即最优路径规划结果。

全文数据:

权利要求:

百度查询: 中国人民解放军96901部队 一种面向多智能体任务规划的复杂优化方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。