华南理工大学李波获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利基于前景目标密集特征强化的自监督视频目标分割方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118447429B 。
龙图腾网通过国家知识产权局官网在2025-09-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410465287.9,技术领域涉及:G06V20/40;该发明授权基于前景目标密集特征强化的自监督视频目标分割方法及系统是由李波;张天起;林佳灵;刘春龙;周智恒;曾德炉设计研发完成,并于2024-04-18向国家知识产权局提交的专利申请。
本基于前景目标密集特征强化的自监督视频目标分割方法及系统在说明书摘要公布了:本发明公开了一种基于前景目标密集特征强化的自监督视频目标分割方法及系统,该方法包括下述步骤:获取视频目标分割数据集,将视频目标分割数据集划分为数据集A和数据集B,基于数据集A对ResNet‑18进行预训练,提取样本对的前景目标密集特征图,并输入至密集投影头得到密集特征向量;基于HuberLoss和Mask‑IoULoss构建像素引导损失函数;基于数据集B进行帧间关系训练,最小化像素引导损失函数的计算结果以训练ResNet‑18,根据前一帧图像重构出下一帧图像;将前一帧图像的分割结果输入训练后的ResNet‑18,得到下一帧图像的分割结果。本发明能够提升模型视频目标分割的性能。
本发明授权基于前景目标密集特征强化的自监督视频目标分割方法及系统在权利要求书中公布了:1.一种基于前景目标密集特征强化的自监督视频目标分割方法,其特征在于,包括下述步骤: 获取视频目标分割数据集,将视频目标分割数据集划分为数据集A和数据集B,其中,数据集A为随机选取的两帧图像集,用于细粒度特征预训练,数据集B为相邻的两帧图像集,用于帧间关系学习; 将数据集A中属于同一视频下的两帧图像视为正样本对,而不同视频下的任意两帧视为负样本对,将数据集A中的正样本对或负样本对输入到骨干网络ResNet‑18中进行预训练,从中提取样本对的前景目标密集特征图,将前景目标密集特征图输入至密集投影头,输出密集特征向量; 使用平滑L1损失Huber Loss和掩膜交并比损失Mask‑IoU Loss组合作为监督信号,构建像素引导损失函数,具体表示为: 其中,L表示像素引导损失函数,表示平滑L1损失Huber Loss,表示掩膜交并比损失Mask‑IoU Loss,λ表示权衡参数,k表示平滑L1损失Huber Loss中预测偏差的阈值,Ω表示真实下一帧图像中的所有像素的集合,θΩ是用于引导Huber Loss的最困难区域的函数,具体地,最困难区域为相邻帧像素差异排在前40%的像素点区域,表示重构得到的下一帧图像,表示真实的下一帧图像; 对两帧图像进行逐像素的相似度计算,对相似度进行排名,选取设定排名比例的像素,进行平滑L1损失Huber Loss计算,使用掩膜交并比损失Mask‑IoULoss优化像素级变化; 基于像素引导损失函数计算相邻帧图像之间的特征差异,基于数据集B进行帧间关系训练,最小化像素引导损失函数的计算结果以训练骨干网络ResNet‑18,根据前一帧图像重构出下一帧图像,具体包括: 取两个连续帧图像It‑1和It作为输入,使用编码器£I,θ从It‑1和It中提取特征,分别表示为Xt‑1,Xt∈RH×W×C,特征Xt‑1和特征Xt之间的配对差异用作重构特征,用于表示两个帧图像之间的空间差异; 将特征Xt‑1中与特征Xt中相同位置像素i周围的区域定义为像素i的响应区域Z,基于特征Xt‑1与特征Xt的所有像素生成亲和矩阵具体表示为: 其中,t表示帧在视频中的索引,H和W分别表示帧的高度和宽度,c表示通道数,·,· 表示两个向量的点积操作,i是前一帧图像特征的像素点,j是在Z区域中后一帧图像特征的像素点,分别表示在前一帧图像特征的像素点、Z区域中后一帧图像特征的像素点位置中沿通道方向的纵向切片向量特征; 获取前一帧图像的分割结果,将前一帧图像的分割结果输入训练后的骨干网络ResNet‑18,得到下一帧图像的分割结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励