中国科学技术大学王上飞获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国科学技术大学申请的专利两阶段多尺度自适应的低分辨率人脸识别方法及应用获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115588220B 。
龙图腾网通过国家知识产权局官网在2025-09-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211223115.8,技术领域涉及:G06V40/16;该发明授权两阶段多尺度自适应的低分辨率人脸识别方法及应用是由王上飞;王海涵设计研发完成,并于2022-10-08向国家知识产权局提交的专利申请。
本两阶段多尺度自适应的低分辨率人脸识别方法及应用在说明书摘要公布了:本发明公开了一种两阶段多尺度自适应的低分辨率人脸识别方法及应用,其步骤包括:1、对高分辨率人脸数据库和真实的低分辨率人脸图像数据库分别进行预处理;2、构建高、低分辨率表征学习网络和动量网络;3、预训练高分辨率表征学习网络;4、使用两阶段的方式训练构建的网络模型,并利用训练好的模型对待测的低分辨率人脸图像进行表征提取。本发明能自适应的接受多种分辨率图像的输入,在真实的低分辨率场景中有着更好的人脸识别效果。
本发明授权两阶段多尺度自适应的低分辨率人脸识别方法及应用在权利要求书中公布了:1.一种两阶段多尺度自适应的低分辨率人脸识别方法,其特征是按如下步骤进行:步骤1、对高分辨率人脸数据库和真实的低分辨率人脸图像数据库分别进行预处理: 步骤1.1、对于高分辨率人脸数据库的预处理: 使用MTCNN神经网络算法对所述高分辨率人脸数据库中的张高分辨率人脸图像进行人脸检测与矫正,并将尺寸裁剪到输入尺寸,从而得到归一化后的高分辨率人脸图像数据库; 将归一化后的高分辨率人脸图像数据库中的任意一个高分辨率样本记为,其标签的类别记为,且,表示总的类别数,通过双三次插值法对进行下采样,得到四种低分辨率样本后上采样回到原始输入尺寸,从而得到合成的四种低分辨率样本;由构成一组合成的人脸图像,从而得到合成的人脸数据库; 步骤1.2、对于真实的低分辨率人脸图像数据库的预处理: 通过双三次插值法将真实的低分辨率人脸图像数据库中的张图像尺寸裁剪到输入尺寸,并裁剪后的任意一个低分辨率样本记为,其标签的类别为,由构成一组真实的低分辨率人脸图像,从而得到真实的低分辨率人脸图像数据库; 步骤2、基于ResNet-50网络构建高分辨率表征学习网络,低分辨率表征学习网络和动量网络; 所述ResNet-50网络包括输入层、个堆叠块和输出层,其中,输入层包括卷积层、实例正则化层、ReLU激活函数、最大池化层,个堆叠块均由连接的个残差块构成,每个残差块由卷积层、实例正则化层、ReLU激活函数组成,输出层包括平均池化层和全连接层; 令高分辨率表征学习网络中的所有卷积层、全连接层均使用高斯分布进行权值初始化; 步骤3、预训练高分辨率表征学习网络: 步骤3.1、所述合成的人脸数据库中任意一个高分辨率样本输入到高分辨率表征学习网络中进行处理,得到对应的高分辨率表征; 利用式1建立针对高分辨率样本基于加性角边距的人脸识别损失函数: 1 式1中,表示和类别为对应的最后一个全连接层的权值之间的角度;是类别附加的角间隔;表示和类别为对应的最后一个全连接层的权值之间的角度;表示对于所述合成的人脸数据库中所有高分辨率表征计算损失函数并求和; 步骤3.2、使用SGD方法对高分辨率表征学习网络进行预训练,并计算所述损失函数用于更新网络参数,当训练迭代次数达到设定的次数或损失误差达小于所设定的阈值时,训练停止,从而得到训练后的高分辨率表征学习网络及其最优参数; 利用训练后的高分辨率表征学习网络的最优参数对低分辨率表征学习网络的网络参数进行初始化; 步骤4、使用两阶段的方式训练初始化后的低分辨率表征学习网络,并利用第二阶训练后的低分辨率表征学习网络对待测的低分辨率人脸图像进行表征提取: 步骤4.1、多尺度的蒸馏阶段: 步骤4.1.1、所述合成的人脸数据库中任意一个高分辨率样本输入到训练后的高分辨率表征学习网络中,并分别从个堆叠块的个输出和输出层的输出中取出特征,相应得到个尺度的高分辨率特征图和训练后的高分辨率表征;表示第个堆叠块输出的第个尺度的高分辨率特征图; 将对应的合成的4种低分辨率样本分别输入初始化后的低分辨率表征学习网络中,并分别从个堆叠块的个输出和输出层的输出中取出特征,相应得到四种个尺度的低分辨率特征图和四种低分辨率表征,并将其中一种个尺度的低分辨率特征图和一种低分辨率表征分别记为和;表示第个堆叠块输出的一种第个尺度的低分辨率特征图; 步骤4.1.2、利用式2建立针对低分辨率样本的基于加性角边距的人脸识别损失函数: 2 式2中,表示和类别为对应的最后一个全连接层的权值之间的角度;表示和类别为对应的最后一个全连接层的权值之间的角度;表示对于合成的人脸数据库中所有低分辨率表征计算损失函数并求和; 步骤4.1.3、利用式3建立像素值误差的损失函数: 3 式3中,表示遍历所有的高、低分辨率的个尺度的特征图进行求和,表示遍历所有的高、低分辨率的表征进行求和,表示L2范数; 步骤4.1.4、将高分辨率和四种低分辨率下的特征图中的任意一个特征图经过重塑操作后,得到一个二维向量;分别表示特征图的高度、宽度和通道维度; 利用式4建立亲和矩阵: 4 式4中,是softmax函数,矩阵乘法,是矩阵的转置; 利用式5建立亲和矩阵蒸馏的损失函数: 5 式5中,表示L1范数; 步骤4.1.5、所述训练后的高分辨率表征所对应的高分辨率样本所在的一个小批量数据中,将相同类别的低分辨率表征记为,不同类别的低分辨率表征为,并构成正匹配代表联合分布中的样本,构成负匹配代表边际分布中的样本; 利用式6建立互信息最大化的损失函数: 6 式6中,代表softplus操作;表示期望; 步骤4.1.6、利用式7构建第一阶段的总的目标函数: 7 式7中,,和均为权重因子; 步骤4.1.7、使用SGD方法对初始化后的低分辨率表征学习网络进行第一阶段训练,并计算所述损失函数,当训练迭代次数达到设定的次数或损失误差达小于所设定的阈值时,训练停止,从而得到第一阶段训练后的低分辨率表征学习网络及其最优参数; 步骤4.2、多分辨率的聚类阶段:步骤4.2.1、利用第一阶段训练后的低分辨率表征学习网络的最优参数对所述动量网络进行参数初始化; 利用式8建立一个用于保存四种低分辨率的表征的键存储器和一个用于保存相应标签的类别存储器: 8 式8中,是存储库的长度;分别表示键存储器中第个四种低分辨率的表征,表示类别存储器中第个标签; 所述合成的人脸数据库中随机抽取个样本,其中任意样本的四种低分辨率样本输入到第一阶段训练后的低分辨率表征学习网络,相应得到第一阶段训练后的低分辨率表征学习网络输出的四种低分辨率表征,将四种低分辨率表征存入键存储器中,将表征对于的标签存入类别存储器中; 步骤4.2.2、所述个样本中样本的四种低分辨率样本分别输入到第一阶段训练后的低分辨率表征学习网络和初始化后的动量网络中,相应得到第一阶段训练后的低分辨率表征学习网络输出的四种低分辨率表征和动量网络输出的四种低分辨率表征,依次将中任意一个表征当作锚点,令锚点的正对是动量网络输出的不同分辨率下的表征和键存储器中相同类别的四种低分辨率下的表征;其中,表示动量网络输出的除外的任意一个表征,锚点的负对是键存储器中不同类别的四种低分辨率下的表征; 利用式9-式11建立多分辨率损失函数: 9 10 11 式9-式11中,表示合成的低分辨率表征,表示合成的低分辨率人脸图像表征集,包含四种低分辨率表征;是温度参数;表示键存储器中第个的第种分辨率的表征,是动量网络输出的第种分辨率表征,表示键存储器中第个的第种分辨率的表征;表示和是否相同,若相同,则令,否则,令;表示和是否相同,若相同,则令,否则,令;表示和是否相同,若相同,则令,否则,令;表示锚点和所有正对和负对的低分辨率表征计算相似度的和; 步骤4.2.3、使用SGD方法对第一阶段训练后的低分辨率表征学习网络进行第二阶段训练,并计算所述损失函数,当训练迭代次数达到设定的次数或损失误差达小于所设定的阈值时,训练停止,从而得到第二阶段训练后的低分辨率表征学习网络; 步骤4.2.4、将动量网络输出的四种分辨率的表征和标签的类别分别存入键存储器和类别存储器中以更新动态队列; 利用式12更新初始化后的动量网络的网络参数,得到更新后的网络参数: 12 式12中,是第二阶段训练后的低分辨率表征学习网络的参数,是动量系数; 步骤4.3、对于真实的低分辨率人脸图像的微调: 步骤4.3.1、所述真实的低分辨率人脸图像数据库中任意一个低分辨率样本输入到第二阶段训练后的低分辨率表征学习网络中,得到低分辨率表征,并在新的键存储器中保存,在新的类别存储器保存标签的类别,其中,表示键存储器中第个低分辨率的表征;表示类别存储器中第个标签,将表征当作新的锚点,令的正对为,的负对为; 利用式13建立真实低分辨率的对比损失函数: 13 式13中,表示真实的低分辨率表征,表示真实的低分辨率人脸图像表征集;表示键存储器中第个低分辨率的表征; 步骤4.3.2、使用SGD方法对第二阶段训练后的低分辨率表征学习网络进行微调,并计算所述损失函数,当训练迭代次数达到设定的次数或损失误差达小于所设定的阈值时,训练停止,从而得到最优低分辨率表征学习网络; 步骤4.4、利用最优低分辨率表征学习网络对待测试的低分辨率人脸图像进行处理,得到低分辨率人脸图像的表征,并与成对的人脸图像进行特征匹配以实现人脸验证,或者将待测试的低分辨率人脸图像与数据库的人脸图像进行特征匹配,以实现人脸识别。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学技术大学,其通讯地址为:230026 安徽省合肥市包河区金寨路96号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。
请提出您的宝贵建议,有机会获取IP积分或其他奖励