首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种对抗性双分类器深度隐写分析网络训练方法及装置 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:北京印刷学院

摘要:本发明公开一种对抗性双分类器深度隐写分析网络训练方法及装置,将双分类器对抗学习引入隐写分析以解决CSM发生时性能下降问题的工作。利用Mixup生成用于训练的中间域,增加样本的多样性并提高检测精度。采用非均匀训练策略,即两个分类器C1和C2在训练期间经历不同的处理,并在分类器的预测上引入了F‑范数。对于C1最小化其F‑范数以缩小决策边界,促进学习域不变特征;对于C2最大化其F‑范数以扩展决策边界,确保目标样本预测的高确定性。最后,在优化特征提取器的过程中引入两个域之间的梯度相似性来评估预测的准确性。本发明通过梯度相似性的应用,确保了预测的准确性,实现模型对目标样本进行精确分类。

主权项:1.一种对抗性双分类器深度隐写分析网络训练方法,其特征在于:采用的一种对抗性双分类器深度隐写分析网络包括中间域生成模块、特征生成器G、第一分类器C1、第二分类器C2;中间域生成模块接收源域集合和目标域集合并采用Mixup来生成中间域集合特征生成器G对中间域的特征进行特征提取得到第一特征;第一特征分别输入至第一分类器C1和第二分类器C2;采用非均匀的训练方式进行对抗训练,第一分类器C1和特征生成器G进行对抗,使得特征生成器学习域不变特征,第二分类器C2用于保留特定于目标的决策边界;具体训练步骤如下:步骤1,接收源域图像和目标域图像,构建隐写训练数据集;步骤2,隐写训练数据集按批次成对送入对抗性双分类器深度隐写分析网络进行第一次优化训练,分别计算第一分类器和第二分类器的监督损失Lcls、l1-距离Ll1和中间域的交叉熵损失Lmix;步骤3,利用监督损失Lcls、l1-距离Ll1和交叉熵损失Lmix对特征生成器G的更新参数θG、第一分类器C1的更新参数和第二分类器C2的更新参数进行第一次优化更新;第一次优化更新的目标表达式如下: 其中,表示源域图像集合,表示源域标签集合,Ns表示源域图像数量;表示目标域图像集合,Nt表示目标域图像数量;表示中间域图像集合,表示中间域标签集合,Nm表示中间域图像数量;LCE表示标准交叉熵损失,表示第nn∈{1,2}个分类器针对源域样本的Softmax输出概率;表示第n个分类器针对目标域样本的Softmax输出概率;表示第nn∈{1,2}个分类器针对中间域样本的Softmax输出概率;K表示源域和目标域的类别数量本发明中固定K=2,|.|表示绝对值,α和β为两个平衡参数;步骤4,保持第一次优化更新后的特征生成器G的更新参数θG不变,将隐写训练数据集按批次成对送入对抗性双分类器深度隐写分析网络进行第二次优化训练,分别计算第一分类器C1和第二分类器C2的监督损失Lcls和F-范数LF; 其中,表示第n个分类器针对目标域样本的Softmax输出概率,是第k个元素的值;步骤5,利用监督损失Lcls和F-范数LF对第一分类器C1的更新参数和第二分类器C2的更新参数进行第二次优化更新,第二次优化更新的目标表达式如下: 其中,γ是与LF对应的平衡参数;步骤6,保持第二次优化更新后的第一分类器C1的更新参数和第二分类器C2的更新参数不变,将隐写训练数据集按批次成对送入对抗性双分类器深度隐写分析网络进行第二次优化训练,计算第一分类器的梯度差异损失LGD和F-范数LF; 其中,T表示转置运算,‖.‖2表示l2-范数运算;gs和gt分别表示源和目标样本上的期望梯度,对应的表达式如下: 其中,E表示标准信息熵;表示分类器的梯度;Lmix是有权重的交叉熵;步骤7,利用梯度差异损失LGD和F-范数LF对特征生成器G的更新参数θG进行第三次优化更新,第三次优化更新的目标表达式如下:

全文数据:

权利要求:

百度查询: 北京印刷学院 一种对抗性双分类器深度隐写分析网络训练方法及装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术