吉林大学温泉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉吉林大学申请的专利一种基于联邦学习的车联网任务卸载方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119277450B 。
龙图腾网通过国家知识产权局官网在2025-10-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411396773.6,技术领域涉及:H04W28/08;该发明授权一种基于联邦学习的车联网任务卸载方法是由温泉;霍寅虎;栾星;胡兴军设计研发完成,并于2024-10-08向国家知识产权局提交的专利申请。
本一种基于联邦学习的车联网任务卸载方法在说明书摘要公布了:本发明涉及一种基于联邦学习的车联网任务卸载方法,属于信息技术领域。本发明针对在车联网动态环境下,如何作出最佳卸载决策问题,构建基于边缘智能系统框架,建立车联网与边缘服务器之间的通信及计算模型,并设计了一种基于联邦学习的计算卸载策略,将车联网与联邦学习相融合,实现最小化车辆计算任务的处理时延,基于此发明车联网能够将计算任务卸载给边缘服务器处理,通过仿真实验证明本方法在一定程度上降低了时延,提高了车辆任务卸载效率。
本发明授权一种基于联邦学习的车联网任务卸载方法在权利要求书中公布了:1.一种基于联邦学习的车联网任务卸载方法,其特征在于,包括下列步骤: 1、建立车联网与边缘服务器之间的通信及计算模型; 分析车联网信息传送信道模型,将卸载过程产生的时延分成传输时延和计算时延,建立车联网与服务器通信模型,构造卸载总时延,建立优化目标和约束条件; 具体方法如下: 卸载过程产生的时延包括传输时延和计算时延,其中传输时延又分为任务数据上传的时间和结果回传的时间,忽略边缘服务器将计算结果发送到车辆端的时延,定义车辆,边缘服务器传输的信道增益表示为: ; 其中——信道增益参考值; ——边缘服务器和车辆间的距离; 根据香农公式,数据上行传输速率,表示为: ; 其中: ——信道带宽; ——数据传输时的高斯白噪声; ——信道增益; ——车辆与边缘服务器之间的干扰功率; ——车辆到边缘服务器的传输功率; ——车辆与边缘服务器之间是否存在遮挡的标志; 使用表示第时隙内车辆卸载到边缘服务器上的任务量占比,任务的传输时延表示为: ; 其中:—— 时刻任务量; ——信道上行传输速率; 车辆的计算任务由车辆本身处理或者卸载到边缘服务器来进行计算,当计算任务由车辆本身计算时,此时卸载决策,表示第时隙内车辆卸载到边缘服务器上的任务量比例,表示单位任务需要的资源量,表示车辆的计算能力,则表示车辆在本地进行计算时的任务量比例,本地计算时延表示为: ;当任务需要卸载给边缘服务器计算时,卸载时延取决于卸载决策,假设当个任务卸载到同一服务器时,每个服务器的计算资源平均分配给各个任务,边缘服务器的计算能力表示为,则计算时延表示为: ; 当任务卸载给边缘服务器计算时,总延时为任务的传输时延和计算时延的总和,总时延为: ; 优化目标是最小化所有车辆所有任务的总时延,表示车辆到边缘服务器的卸载决策,其为一个二进制变量,表示本地计算车辆数,,以下为优化目标和约束条件: ; ; ; ; ; 2、引入深度学习; 使用Double Deep Q Network算法DDQN能够动态地适应车联网环境,且具有复杂度低、收敛速度快的优势,以进行任务卸载决策; 3、引入联邦学习的车联网任务卸载算法; 选择客户端‑服务器架构,在联邦学习中包括两种参与方:参与者车辆与服务器,根据联邦学习算法,所有参与者将配备自身数据集,参与者会依托私人数据集训练本地深度学习模型,并将本地模型参数发送至中心服务器,在收到参与者的信息后,中心服务器汇总所有模型参数,全局聚合模型参数并生成全局模型参数,再将全局模型参数下发至各个参与者,重复上述过程,直至模型达到收敛,完成卸载过程; 具体方法如下: 引入联邦学习设计一个保护用户数据隐私安全的任务卸载决策算法,假定联邦学习有𝑁个客户端参与,联邦学习问题概述为: ; ,;其中表示第个客户端的权重,假设第个客户端拥有条训练数据: ,本地目标函数的定义如下: ; 其中 是损失函数,它根据模型参数和对应训练数据得出; 联邦平均算法将经过聚合的新的全局模型同时分发给所有客户端,客户端在接收到之后立刻进行本地训练获得局部模型,那么对于在第轮的联邦学习训练过程中,客户端将会进行下面的操作: ; 是联邦学习学习率,是第轮从客户端训练数据中抽取到的一条数据,将这些数据收集起来得到新模型: ; 联邦学习算法解决任务卸载问题的具体步骤如下:步骤一:输入客户端、即车辆的初始状态参数; 步骤二:初始化算法两个神经网络参数和; 步骤三:初始化算法经验池B; 步骤四:训练轮次k=1,2,…,K; 步骤五:观测状态值; 步骤六:将状态值输入至网络,基于输出动作的值选择; 步骤七:执行动作,得到奖励和下一时刻状态和; 步骤八:将参数, 放入经验池B; 步骤九:采集足够数量的样本,从经验池中随机抽取一定数量小批量样本训练各个网络 ; 步骤十:设置; 步骤十一:误差反向传播更新与; 步骤十二:目标网络满足更新; 步骤十三:将Q网络与目标网络训练参数上传至中心服务器进行联邦聚合; 步骤十四:中心服务器接受训练参数,使用联邦平均算法进行模型聚合;步骤十五:中心服务器聚合后下发模型参数; 重复以上过程,直至模型收敛,即完成模型的训练。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人吉林大学,其通讯地址为:130012 吉林省长春市前进大街2699号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。
请提出您的宝贵建议,有机会获取IP积分或其他奖励