杭州电子科技大学崔一鸣获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利一种基于随机上下文一致性推理的目标检测域适应方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119313866B 。
龙图腾网通过国家知识产权局官网在2025-10-31发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411159473.6,技术领域涉及:G06V10/25;该发明授权一种基于随机上下文一致性推理的目标检测域适应方法是由崔一鸣;颜成钢;李亮;殷俊;高宇涵;赵祉钤;张哲东设计研发完成,并于2024-08-22向国家知识产权局提交的专利申请。
本一种基于随机上下文一致性推理的目标检测域适应方法在说明书摘要公布了:本发明公开了一种基于随机上下文一致性推理的目标检测域适应方法。采用半监督学习的师生模型框架,通过教师模型的指数移动平均来进行缓慢更新,使得模型能够从学生模型习得的主要知识中获取信息,从而实现自监督效果。通过引入随机互补掩码模块掩码掉网络严重依赖的部分局部视觉特征,从而鼓励网络利用上下文中的其他视觉线索。此外,通过内部上下文一致性推理模块避免了大多数自训练框架中严重依赖伪标签的现象,通过构建学生模型的自监督训练范式来提高学生模型自身的上下文推理能力。最后,通过外部上下文一致性推理模块构建了基于师生模型的自训练框架,利用教师模型具有全局先验知识的伪标签鼓励学生模型对于被掩码区域做出正确的预测。
本发明授权一种基于随机上下文一致性推理的目标检测域适应方法在权利要求书中公布了:1.一种基于随机上下文一致性推理的目标检测域适应方法,其特征在于,具体的步骤如下: 步骤1:采用在ImageNet上预训练的ResNet50作为学生模型与教师模型的主干网络,用于提取图像特征,检测器采用Faster-RCNN,训练开始即将学生模型复制给教师模型; 步骤2:将训练集中有标签的源域数据Is,ys输入学生模型,将输出的检测结果y's与标签ys计算有监督损失Lsup,进行有监督训练;同时将无标签的目标域数据It,none输入教师模型,对输出结果进行判定:当预测的结果存在置信度大于δ的目标则将其筛选出来充当伪标签并进行步骤3,否则继续进行步骤2; 步骤3:进行随机上下文一致性推理过程:随机互补掩码模块首先生成一个从均匀分布中采样的掩码矩阵M,然后使用全一矩阵减去M,以此获得互补的掩码矩阵通过与输入的目标图像It计算克达玛积来获得一对互补的掩码图像,即生成一对互补掩码视图{V1,V2}; 步骤4:通过内部上下文一致性推理模块引导学生模型从互补和不对称的互补掩码视图{V1,V2}中推理上下文相关信息,其中包括分类和回归一致性推理;具体来说,首先将互补掩码视图{V1,V2}输入步骤2训练好的学生模型以生成相应的预测;随后,对互补掩码视图的预测计算内部上下文一致性推理损失具体分为:分类一致性推理损失和回归一致性推理损失 步骤5:外部上下文一致性推理模块利用教师模型生成的伪标签与学生模型对于互补掩码视图{V1,V2}的预测计算外部上下文一致性推理损失具体来说,利用教师模型生成的伪标签计算分类一致性推理损失和回归一致性推理损失 步骤6:综合有监督损失、内部上下文一致性推理损失和外部上下文一致性推理损失对学生模型和教师模型进行迭代训练更新,提高师生模型的跨域适应能力; 经过步骤2到5即完成了一次迭代训练,重复迭代训练直至到达设定的迭代次数,在每次迭代中,通过计算Isup、以及进行梯度反向传播来更新学生模型,接着再通过指数移动平均来更新教师模型;有监督损失Lsup增强了学生模型在源域的基准能力;利用学生模型构建了一个自监督范式,有效降低了模型对于伪标签的依赖;通过教师模型的伪标签鼓励学生模型对于掩码区域的预测,以此增强了学生模型对于目标域中特定细节的捕获能力,并增强了学生模型的特征表征能力,从而提高域特定特征的表达;这些损失函数相互配合,在增强提取域不变特征的前提下充分表征目标域中域特定特征,从而提高师生模型的跨域适应能力。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市下沙高教园区2号大街;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励