Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

提高深度神经网络系统鲁棒性的引导对抗训练方法及系统 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:浙江科技大学

摘要:本发明属于神经网络技术领域,公开了一种提高深度神经网络系统鲁棒性的引导对抗训练方法及系统,包括:S1,通过干净训练得到一个专家模型,通过最小化成员模型和专家模型的输出来增强决策边界和干净样本的相似性;S2,通过扩大正确标签的logit值和非正确标签的logit值差异来提高干净精度,通过控制干净样本的margin来调整决策边界;S3,将两个损失以正则项的形式加入到初始损失中;S4,采用GAT通过集成优化该损失的成员模型来提升模型的鲁棒性和干净精度。本发明提出了一种名为GAT的新型权重集成方法。该方法通过两种引导方法——自我指导和专家指导,减轻了成员模型之间的相互作用对提高精度的负面影响。

主权项:1.一种提高深度神经网络系统鲁棒性的引导对抗训练方法,其特征在于,针对单个模型,通过集成每次优化器优化后的权重,增强对模型权重历史状态的记忆,以防止模型发生灾难性遗忘;利用自我指导和专家指导,以引导成员模型学习正确的决策边界,使模型能够更快地收敛,提高模型的准确性和鲁棒性;包括:S1,通过干净训练得到一个专家模型,通过最小化成员模型和专家模型的输出来增强决策边界和干净决策边界的相似性;S2,通过扩大正确标签的logit值和非正确标签的logit值差异来提高干净精度,通过控制干净样本的margin来调整决策边界;S3,将两个损失以正则项的形式加入到初始损失中;S4,采用GAT通过集成优化该损失的成员模型来提升模型的鲁棒性和干净精度;S1具体包括: 其中,是干净样本的概率分布.然而,单纯使用这个损失会影响决策边界的多样性;因此,从成员模型自身出发,对干净样本的输出进行调整;S2具体包括:定义Self-Guidenceloss 其中,y是干净样本x'的真实标签,是Fθ·对x'的预测标签;参数η是平滑系数,η∈0,1];较小的η值会使logit分布的模型更加平滑;相反,η越大,对应于正确标签的logit值和与错误标签相关的logit值之间的区别就越明显;最小化这一损失会增加正确标签的logit值,而减少其他标签的logit值,从而迫使模型准确地对干净的例子进行分类;S3具体包括: 其中,是交叉熵损失,γ是self-guidence和expert-guidence的权衡参数;在面部识别技术中,对抗攻击可能导致安全性问题,如非法访问受保护的资源;应用该引导对抗训练方法可以提高面部识别系统的鲁棒性;1专家模型训练:首先,使用大规模的面部图像数据集训练一个专家面部识别模型,该模型能够精准捕获人脸特征和身份信息;2成员模型训练:随后,对成员模型应用引导对抗训练方法,其中,通过最小化成员模型和专家模型输出的差异性,提高对干净样本的分类精度,并调整决策边界以增强对抗攻击的鲁棒性;3部署与评估:完成训练后,将优化后的面部识别系统部署于入口安全监控系统中,以防止通过对抗样本的非法访问,同时保持对真实用户高效精准的识别能力。

全文数据:

权利要求:

百度查询: 浙江科技大学 提高深度神经网络系统鲁棒性的引导对抗训练方法及系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。