Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 福州大学陈哲毅获国家专利权

福州大学陈哲毅获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉福州大学申请的专利多边缘系统中基于个性化联邦图学习Transformer的时空负载预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119892661B

龙图腾网通过国家知识产权局官网在2025-11-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510039429.X,技术领域涉及:H04L41/147;该发明授权多边缘系统中基于个性化联邦图学习Transformer的时空负载预测方法是由陈哲毅;江庆南;施晓薇;卢恬英;钟璐英设计研发完成,并于2025-01-10向国家知识产权局提交的专利申请。

多边缘系统中基于个性化联邦图学习Transformer的时空负载预测方法在说明书摘要公布了:本发明提供了多边缘系统中基于个性化联邦图学习Transformer的时空负载预测方法,包括以下步骤:步骤1:构建多变量序列反转Transformer作为边缘节点的负载预测模型;步骤2:设计PFG,通过超网络和图神经网络GNN为每个边缘节点生成个性化模型参数和空间特征;更新参数并将其传送至FL服务器以计算预测模型的参数变化,FL服务器按照客户端返回的参数更新全局模型的其余参数、超网络参数和节点特征向量;步骤3:结合MIT与PFG进而形成PFGformer,为每个边缘节点生成个性化的负载进行预测。本技术方案使用编码块与多层感知处理预测任务,摒弃了繁杂的解码块,其提升了预测精度也缩减了模型参数量。

本发明授权多边缘系统中基于个性化联邦图学习Transformer的时空负载预测方法在权利要求书中公布了:1.多边缘系统中基于个性化联邦图学习Transformer的时空负载预测方法,其特征在于,包括以下步骤: 步骤1:构建多变量序列反转Transformer,MIT,作为边缘节点的本地负载预测模型; 步骤2:设计PFG,通过超网络和图神经网络GNN为每个边缘节点生成个性化模型参数和空间特征;更新参数并将其传送至FL服务器以计算预测模型的参数变化,FL服务器按照客户端返回的参数更新全局模型的其余参数、超网络参数和节点特征向量; 步骤3:结合MIT与PFG进而形成PFGformer,为每个边缘节点生成个性化的负载进行预测; MIT由嵌入层、编码器层和输出层组成; 所述嵌入层由序列反转和静态内容感知层组成;所述序列反转具体沿节点维度来对时间序列进行划分,表示为 其中,permuteXt,[1,3,2]表示将原始张量Xt的第二和第三维交换位置以此实现时间和节点维度的互换; 所提出的序列反转在利用自注意力机制提取不同特征之间关联的同时与SALayer相结合,从而将多维特征融入时序动态特征当中;MIT利用前馈神经网络高效提取序列中的时间特征,进而与空间特征相结合形成时空信息以支持精确的边缘负载预测; 静态内容感知层使用SALayer和自注意力机制来提取不同特征之间的潜在关联;SALayer用于结合静态上下文与动态负载序列数据,并将高维跨域数据作为额外静态内容;SALayer采用交叉注意力,根据当前序列选择最有效的静态内容进行整合,其输入包括负载序列和静态特征数据Ρt;首先,连接反转的负载序列与时间戳,作为时序动态特征,其定义为 接着,SALayer所包含的详细信息表示为 αt=softmax-1Qt V=Linaer2Pt 其中,softmax-1表示对Qt的最后一维进行softmax,Linear1和Linear2表示不同的线性层,Norm表示层归一化; 通过整合负载序列与静态特征,SALayer学习边缘节点的静态内容和其固有属性,过滤高维数据中的冗余信息;同时,预测模型的通道数和参数量也会随之降低; 编码层用于提取时空相关性和高维静态特征,编码层包含前馈神经网络、自注意力层模块;采用前馈神经网络来捕捉时间点之间的关系并摒弃解码块;前馈神经网络定义为: 其中,表示第l-1的隐藏层状态,Wl表示权重矩阵,bl是偏置向量,gelu·是激活函数; 自注意力层用于捕捉多变量的相关性,其融合经过SALayer提取的高维静态特征;具体而言,自注意力层将输入序列中的每个元素转换成查询Q、键K和值V向量,并计算具有所有键的查询的点积;过程被定义为 此外,多头注意力机制由多个自注意力层组成,关注来自不同位置的表示子空间信息;具体地,采用多个平行注意力层并嵌入了Transformer编码器,其被定义为 Hl=MultiHeadQ,K,V=Concathead1,...,headnWO11 其中,MultiHead·表示多头注意力机制,l={0,…,L}表示编码层索引,headn表示第n个平行注意力层,是参数矩阵; PFGformer的目标函数被定义为 其中,li表示第i个客户端的损失函数;θi是第i个客户端的本地模型参数,Di是第i个客户端的样本数量,D是所有客户端的样本总数量; 在PFGformer中,FL服务器将学习一个超网络,为每个客户端生成个性化自注意力矩阵参数和线性层参数; 将MIT的模型参数θi拆分为Wi、κi和ξi,分别表示自注意力矩阵参数、线性层参数以及其他层参数;输入序列Xt的长度记为T,在序列经过嵌入层之后,输入自注意力层被转换成嵌入矩阵自注意力机制的查询、键和值分别表示为和其中Wi=[WiQ,WiK,WiV]; 超网络记为Hnetφ,zi,其中φ表示超网络的参数,zi∈Rdmodel表示客户端i的特征向量;令FL服务器自学习zi,其将通过Embedding层自动生成;超网络采用n层全连接层实现,其中前n-1层由所有客户端的Transformer编码块共享,最后一层对于每个编码块是唯一的;通过引入超网络来学习自注意力矩阵参数和线性层参数{Wi,κi=Hnetφ,zi},实现个性化的基于MIT的预测模型;该预测模型及其损失函数被定义为 在每轮本地epoch中,使用随机梯度下降更新本地模型参数,其被定义为 其中,Bi是从Di中采样的一个批次,α表示客户端学习率; 根据链式法则,φ和zi的梯度被计算为 其中,C表示总通信轮次,ΔWi=WiJ-Wi0,Δκi=κiJ-κi0代表J个本地训练轮次后自注意力矩阵参数和线性层参数的变化; 在每一轮通信轮次后,使用梯度和来更新超网络的参数φ和客户端嵌入zi,其被定义为 其中,β表示FL服务器的学习率,上标c表示第c轮通信轮次。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人福州大学,其通讯地址为:350108 福建省福州市闽侯县福州大学城乌龙江北大道2号福州大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。