Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于动态心理博弈论的水声传感网络攻防对抗策略生成方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:厦门大学

摘要:基于动态心理博弈论的水声传感网络攻防对抗策略生成方法,涉及水下通信攻防对抗策略。先确定UASNs攻防场景及博弈对象,待传输信息的信息重要度,预定传输路由;其次构建基于动态心理博弈论模型;UASNs方需最小化总传输时延和被窃听风险,敌方需在有能量限制的条件下尽可能延长UASNs的传输时延,博弈双方根据主要目标定义心理期望效用函数,利用虚拟遗憾最小化算法进行平均策略的训练,最终得到博弈双方在预定路由下的行动策略。通过建立基于动态心理博弈论的网络攻防模型,得出水声传感网络攻防对抗场景中的最优对抗策略,可提高水声传感网络的传输安全性。

主权项:1.基于动态心理博弈论的水声传感网络攻防对抗策略生成方法,其特征在于包括以下步骤:1)确定水声传感网络UASNs中的攻防场景,博弈双方包括UASNs方及敌方;UASNs方包括N个传输节点、J个方水下机器人、1个水面基站;敌方包含:M个窃听节点、I个敌方水下机器人;确定预定的数据传输路由R,包含X跳,为每次通信传输的阶段跳数,;水声数据的信息重要度分为五级,即,级别越高代表信息越重要;2)构建基于动态心理博弈论的攻防模型,其中,P为博弈用户集合,包括UASNs方和敌方,H为每个博弈用户在到达某个时间阶段之前所采取的行动序列记录,Z代表博弈用户到达终点后每个阶段采取的行动序列记录,I代表每个决策点上的信息集,和分别代表UASNs方和敌方的心理期望效用函数;UASNs方在每个阶段的行动集,其中,表示UASNs方利用节点多跳方式进行数据中继传输,表示UASNs方利用AUV辅助进行数据中继传输;敌方在每个阶段的行动集,其中,表示敌方将发射干扰信号,表示敌方不向周围发射干扰信号;3)UASNs方最小化总传输时延和被窃听风险,敌方在有能量限制的条件下尽可能延长UASNs的传输时延;定义UASNs方和敌方的心理期望效用函数如下: ; ;其中,和分别代表UASNs方和敌方的心理期望效用函数,为UASNs方基于一阶信念的物质回报,为敌方基于一阶信念的物质回报;即UASNs方采取策略,预测敌方行动为的概率,即敌方采取策略,预测UASNs方行动为的概率;为水声数据的信息重要度;表示到达终点时每个阶段的行动序列;Z代表博弈用户到达终点后每个阶段采取的行动序列记录;分别表示UASNs方一阶信念、UASNs方二阶信念;分别表示敌方一阶信念、敌方二阶信念;和分别代表UASNs方和敌方基于二阶信念行动对对方产生的心理挫败鼓舞的效果,定义为预期的物质回报和实际物质回报间的差距,和分别表示UASNs方和敌方对挫败对方信念的意愿,其中敌方对UASNs方的挫败与UASNs传输的信息重要度有关,信息重要度越高,其被干扰拦截时,对UASNs方的打击程度越高;4)博弈双方利用虚拟遗憾最小化算法进行平均策略的训练,得到博弈双方在预定路由下的行动策略,具体方法为:初始化训练次数K,训练开始博弈双方随机选取各自的一阶信念和二阶信念,并根据其一阶信念决定当前迭代k下所采取的行动,得出UASNs方和敌方的虚拟价值: ; ;其中,、分别表示UASNs方和敌方的虚拟价值;表示到达终点时每个阶段的行动序列,Z代表博弈用户到达终点后每个阶段采取的行动序列记录;表示UASNs方采取策略;表示敌方采取策略;、分别表示UASNs方和敌方在当前迭代k下的心理期望效用函数值;计算到达终点时每个阶段的行动序列下博弈双方分别采取UASNs方在每个阶段的行动集、敌方在每个阶段的行动集中的行动所得到的虚拟遗憾值,UASNs方和敌方分别为: ; ;其中,、分别表示到达终点时每个阶段的行动序列下博弈双方分别在行动集、的虚拟遗憾值,、分别表示UASNs方和敌方的虚拟价值,表示到达终点时每个阶段的行动序列;表示UASNs方在每个阶段的行动集,表示敌方在每个阶段的行动集;和表示行动;在第K轮次迭代下,UASNs方和敌方采取行动的遗憾值分别为: ; ;其中,、分别表示在第K轮次迭代下博弈双方采取行动集、的遗憾值;表示初始化训练次数,k表示迭代次数,I代表每个决策点上的信息集,Z代表博弈用户到达终点后每个阶段采取的行动序列记录;表示UASNs方在每个阶段的行动集,表示敌方在每个阶段的行动集;遗憾值为负时,记为零,即,;表示在第k+1次迭代时UASNs方采取行动集的遗憾值,表示在第k+1次迭代时敌方采取行动集的遗憾值;在每次迭代下,根据遗憾值对博弈双方的策略进行更新,博弈用户的博弈行动概率分布与正遗憾值成正比,UASNs在k+1次迭代时选择动作的概率定义为: ;其中,表示UASNs方在k+1次迭代时选择动作的遗憾值,表示在第k+1次迭代时UASNs方采取行动集的遗憾值,表示初始化训练次数,k表示迭代次数,I代表每个决策点上的信息集,表示动作,表示UASNs方在每个阶段的行动集,表示敌方在每个阶段的行动集;表示行动集中的行动数量;同理,敌方在k+1次迭代时选择动作的概率定义为: ;其中,表示敌方在k+1次迭代时选择动作的遗憾值,表示在第k+1次迭代时敌方采取行动集的遗憾值,表示初始化训练次数,k表示迭代次数,I代表每个决策点上的信息集,表示动作,表示UASNs方在每个阶段的行动集,表示敌方在每个阶段的行动集;表示行动集中的行动数量;重复选取一阶信念、二阶信念及行动,并更新遗憾值,直至迭代次数达到K为止,获得博弈双方的优化博弈策略。

全文数据:

权利要求:

百度查询: 厦门大学 基于动态心理博弈论的水声传感网络攻防对抗策略生成方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。