Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于模仿学习的Deepfake检测方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:浙江工业大学

摘要:本发明公开了一种基于模仿学习的Deepfake检测方法,包括:1采集样本数据,将样本数据进行预处理后划分为专家样本S和测试样本T;2对专家样本S和测试样本T中数据的类别进行one‑hot编码,获取对应的类别标签序列;3构建策略模型Actor和判别器D,将专家样本S的状态‑动作对输入到策略模型Actor中进行训练,并通过判别器D输出的置信度反向传播梯度求导更新策略模型Actor的模型参数,直到损失函数收敛;4策略模型Actor的训练结束,用测试样本进行测试,计算出策略模型Actor的决策准确率;5将策略模型Actor应用于Deepfake视频的真假判别。利用本发明,使得模型的训练过程相对简单,不需要设计复杂的框架结构,应用场景更加全面。

主权项:1.一种基于模仿学习的Deepfake检测方法,其特征在于,包括以下步骤:1采集样本数据,将样本数据进行预处理后划分为专家样本S和测试样本T;预处理具体为:对于视频MP4格式的样本数据,用opencv每5帧提取一张图片,再用dlib工具提取图片中的人脸,并进行人脸对齐;2对专家样本S和测试样本T中数据的类别进行one-hot编码,获取对应的类别标签序列;构建专家样本S和测试样本T的状态-动作对,其中,状态对应样本图片,动作对对应样本图片的类别标签;3构建策略模型Actor和判别器D,将专家样本S的状态-动作对si,ai输入到策略模型Actor中进行训练,并通过判别器D输出的置信度δ反向传播梯度求导更新策略模型Actor的模型参数θi,直到损失函数收敛;具体过程为:3-1专家样本S的状态-动作对si,ai输入到策略模型Actor中,策略模型Actor输出的状态-动作对为si,a′i;3-2将专家样本S的状态-动作对si,ai以及策略模型Actor输出的状态-动作对si,a′i输入到判别器D中,对于每一个输入的状态-动作对,判别器D会输出一个置信度δ;开始训练时,对于专家样本S输入的状态-动作对si,ai,判别器D会输出一个较大的置信度δi;对于策略模型Actor输出的状态-动作对si,a′i,判别器D会输出一个较小的置信度δ′i;3-3判别器D作为模仿学习的reward函数,用判别器D输出的置信度δ反向传播梯度求导更新策略模型Actor的模型参数θi,策略模型Actor输出的状态-动作对si,a′i中的动作值a′i会发生改变,更加接近专家样本S的状态-动作对si,ai中的动作值ai,判别器D输出的置信度δ′i也会更加接近置信度δi,不断迭代这个过程,直到损失函数收敛;4策略模型Actor的训练结束,将测试样本T的状态-动作对输入到策略模型Actor中,通过策略模型Actor输出的类别标签对比测试样本的类别标签,计算出策略模型Actor的决策准确率;5将策略模型Actor应用于Deepfake视频的真假判别。

全文数据:

权利要求:

百度查询: 浙江工业大学 一种基于模仿学习的Deepfake检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。