买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:南京工业大学
摘要:本发明涉及雷达系统的关键组件故障诊断技术领域,解决了传统方法无法利用未标记数据来提升故障识别率的技术问题,尤其涉及一种基于伪标签引导Transformer学习的雷达收发器故障诊断方法,包括:构建Transformer模型;伪标签生成与置信水平计算;开普勒优化算法KOA优化配置参数;伪标签引导离线训练;在线故障诊断。本发明能够在有限标记样本情况下,通过Transformer模型生成伪标签,从而扩充训练数据集,并通过优化Transformer模型的网络配置参数,提升雷达收发器故障诊断模型的准确性。
主权项:1.一种基于伪标签引导Transformer学习的雷达收发器故障诊断方法,其特征在于,该方法包括以下步骤:S1、基于Transformer网络构建Transformer模型,具体过程包括以下步骤:S11、使用sine和cosine函数来定义序列的位置信息,由下式得到: 其中,t是输入序列中对象的位置;u是在所属向量中的位置;d表示Transformer模型输出嵌入空间的维度;S12、将位置信息添加到原始输入上,构成Transformer模型的多头注意力初始输入,由下式得到: 其中,指第i个标记样本作为输入;PEi指输入对应的位置编码;S13、用多头注意力计算特征之间的关系得到各个子头注意力的输出,其中单个子头注意力的输出由下式得到: 其中,Attention·指子头注意力的映射函数;Hl-1指第l-1层编码器的输出;是Transformer模型中对于第l层各个子头注意力模块的三个随机初始化的权重矩阵;L为Transformer模型中编码器堆叠的层数;S14、对各个子头的输出进行拼接合并,由下式得到:MultiHeadHl-1=[head1;head2;···;headh]WO其中,MultiHead·为多头注意力的映射函数;WO为多头注意力的权重矩阵;headh为第h个注意力头;S15、经过前馈层变换得到Transformer模型中最后一层编码器的最终输出HL,即:HL=FFNMultiHeadHL-1=ReLUMultiHeadHL-1W1+b1W2+b2其中,FFN·为前馈层的映射函数;ReLU·为前馈层内置的ReLU激活函数的映射函数;W1,W2为线性层的权重矩阵;b1,b2为线性层的偏置项;S16、根据最终输出HL计算全连接层的原始输出o,最后一层编码器的输出通过一个全连接层变换,则全连接层的原始输出o计算如下:o=W3HL+b3其中,K为健康状态类别的个数;W3为全连接层的权重矩阵;b3为全连接层的偏置项;S17、使用softmax激活函数将全连接层的原始输出o转换为概率分布得到Transformer模型,概率分布由下式得到: 其中,K为健康状态类别的个数;是概率分布中第i个类别的概率;eoi是指数函数作用在全连接层输出的第i个元素上;求和项确保所有类别的概率之和为1;S2、将未标记标签作为Transformer模型的输入生成未标记样本的伪标签,并计算伪标签的置信水平;S3、采用开普勒优化算法KOA优化Transformer模型的配置参数;S4、通过伪标签引导对优化配置参数后的Transformer模型进行离线训练得到优化后的Transformer模型;S5、在线对雷达收发器进行故障诊断。
全文数据:
权利要求:
百度查询: 南京工业大学 一种基于伪标签引导Transformer学习的雷达收发器故障诊断方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。