Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 江苏海洋大学;蓝湾海洋资源开发技术创新中心张恒获国家专利权

江苏海洋大学;蓝湾海洋资源开发技术创新中心张恒获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉江苏海洋大学;蓝湾海洋资源开发技术创新中心申请的专利一种基于可重构智能反射面与人工噪声的无人机双模式安全通信方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118368596B

龙图腾网通过国家知识产权局官网在2025-04-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410619186.2,技术领域涉及:H04W4/42;该发明授权一种基于可重构智能反射面与人工噪声的无人机双模式安全通信方法是由张恒;孙哲民;臧奇颜;张键;李宏然;袁冬青设计研发完成,并于2024-05-18向国家知识产权局提交的专利申请。

一种基于可重构智能反射面与人工噪声的无人机双模式安全通信方法在说明书摘要公布了:本发明涉及无人机安全通信技术领域,公开了一种基于可重构智能反射面与人工噪声的无人机辅助安全通信方法,该方法整合人工噪声与RIS技术,优化无人机通信系统,以增强合法通信并干扰非法窃听。采用基于双延迟深度确定性策略梯度TD3的双模式联合优化框架,同步优化无人机的运动轨迹、RIS的相移配置和人工噪声的干扰功率。以最大化合法用户与潜在窃听者之间的信道容量差,从而增强物理层通信安全性。与现有技术相比,本发明利用人工噪声与RIS的协同优势,提升了通信的效率和可靠性,增强了系统的适应性和灵活性,有效应对复杂多变的通信环境。

本发明授权一种基于可重构智能反射面与人工噪声的无人机双模式安全通信方法在权利要求书中公布了:1.一种基于可重构智能反射面与人工噪声的无人机辅助安全通信方法,其特征在于,具体包含以下步骤:S1:无人机获取基站与用户间各传输信道的信道状态信息与自身位置信息;S2:无人机依据当前信道状态信息选取并切换至最佳工作模式;S3:针对无人机各工作模式,将无人机与信道状态信息转化为马尔可夫决策过程元组;马尔可夫决策过程建模的步骤如下:S3-1:为模式1定义状态空间smode1n={Q[n],hbr[n],hrk[n],hbk[n]},为模式2定义状态空间smode2n={Q[n],hbk[n]},其中,Q[n]为无人机在第n时间区间中的坐标;S3-2:为模式1定义动作空间为模式2定义动作空间S3-3:奖励设计为rn=R[n]-ξV[n],其中,为当前时隙的保密率,V为违反约束条件的惩罚,ξ为惩罚系数;S4:利用深度强化学习方法选取最佳的干扰发射功率或相移配置;基于深度强化学习的方法具体使用了一种深度学习网络架构,该架构包括以下内容:原Actor网络、原Critic网络与目标Actor网络、目标Critic网络均由三层全连接网络所构成,Actor网络的前两层网络分别具有256与128个神经元,采用LeakyReLu函数作为激活函数;输出层的神经元数量等同于当前工作模式下动作空间的维度,在critic网络中,激活函数用于控制神经元的输出特征,引入非线性以便模型学习更复杂的模式,在前两层中,第一层配置了128个神经元并采用Tanh激活函数,以适应输入的平滑转换;第二层配置了64个神经元并采用LeakyReLU激活函数,以便学习复杂的特征模式,而在输出层,由于需要输出一个连续的Q值,因此选择不使用激活函数,直接输出网络计算结果;输出层维度为1,不使用激活函数,经验回放池为两个大小为1000000的独立池Bmode1与Bmode2,智能体的互动环境包括主环境E与两个主环境副本E1与E2;基于深度强化学习的方法具体包括以下训练步骤:S4-1:初始化主环境E,与两个主环境的副本E1与E2;S4-2:使用随机参数为模式1和模式2分别初始化Critic网络使用随机参数为模式1与模式2分别初始化Actor网络πmode1与πmode2;S4-3:使用随机参数为模式1和模式2分别初始化目标Critic网络使用随机参数为模式1与模式2分别初始化目标Actor网络π'mode1和π'mode2;S4-4:为模式1与模式2分别初始化各自经验回放池Bmode1与Bmode2;S4-5:将主环境E同步至E1与E2;S4-6:在主环境E中观测得到各模式状态smode1n与smode2n;S4-7:根据各模式状态,通过an=clipπsn,φ+∈,amin,amax分别为各模式选择动作amode1n与amode2n,其中φ为actor网络参数,∈为具有0均值与0.1方差的高斯随机变量,amin与amax分别为动作的最小与最大取值,clip函数将其限制到合法范围中;S4-8:在环境E1中执行模式1的动作amode1n并得到模式1的奖励rmode1n与次状态smode1n+1,在环境E2中执行模式2的动作amode2n并得到模式2的奖励rmode2n与次状态smode2n+1;S4-9:将取得更高奖励的环境复制至主环境E中;S4-10:将模式1与模式2的经验元组smode1n,amode1n,rmode1n,smode1n+1与smode2n,amode2n,rmode2n,smode2n+1分别存入各自经验回放池Bmode1与Bmode2;S4-11:通过计算各模式的目标Q值;S4-12:通过更新各模式所属的Critic网络,其中Nb为采样大小,θi为第i个critic网络的参数;S4-13:若当前训练轮数为偶数,则通过计算更新各模式的Actor网络所需的策略梯度,其中J为策略期望回报;S4-14:若当前训练轮数为偶数,则通过θi′←τθi+1-τθi′,i=1,2与φ′←τφ+1-τφ′分别更新各模式的目标Actor网络与模板Critic网络参数,其中θ'与φ'分别为目标Critic网络与目标Actor网络的参数,τ为神经网络更新系数;S4-15:若已达预先设置的训练次数,则完成训练,否则重复步骤S4-5至步骤S4-14;S5:当基站与用户间的信道状态信息发生改变则回到步骤S1。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人江苏海洋大学;蓝湾海洋资源开发技术创新中心,其通讯地址为:222000 江苏省连云港市连云区中华路48号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。