电子科技大学;成都电科智讯科技发展有限公司唐樟春获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉电子科技大学;成都电科智讯科技发展有限公司申请的专利一种基于数据增强的高速移动目标识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116597275B 。
龙图腾网通过国家知识产权局官网在2026-01-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310573773.8,技术领域涉及:G06V10/82;该发明授权一种基于数据增强的高速移动目标识别方法是由唐樟春;潘阳红;夏艳君;李子谦;谷正阳;詹贤达;周雄峰;廖龙伟设计研发完成,并于2023-05-19向国家知识产权局提交的专利申请。
本一种基于数据增强的高速移动目标识别方法在说明书摘要公布了:本发明公开了一种基于数据增强的高速移动目标识别方法,属于目标识别领域。本发明引入高速移动目标背景数据集,将经过可微生成对抗网络生成的伪目标经过分类网络得到伪目标的置信度,将置信度大于设定阈值的目标和初始数据集中的目标实例分割对象一同增强到高速移动目标背景数据集中,解决了样本不足的问题和高速移动目标训练背景和工作环境不一致的问题。在对可微生成对抗网络生成的伪目标进行训练时,将伪目标的置信度与正样本边界框和真实框的CIoU值进行加权求和,形成新的YOLOv7目标检测算法中的置信度损失函数,改进的损失函数能够更加准确的衡量目标的真实性。本方法能够在小样本下,实现对特定类型的高速移动目标的准确识别。
本发明授权一种基于数据增强的高速移动目标识别方法在权利要求书中公布了:1.一种基于数据增强的高速移动目标识别方法,该方法包括: 步骤1:利用特定类型的高速移动目标和与目标类型相似的其余对象一同构建初始数据集,对初始数据集中的图像进行标注,得到带有标注文件的初始数据集; 步骤2:收集特定类型的高速移动目标的工作环境图片,构成高速移动目标的背景数据集; 步骤3:根据初始数据集的标注文件裁剪出初始数据集中每一张图像目标的实例分割对象,形成初始crop数据集; 步骤4:使用可微生成对抗网络对步骤3得到的初始crop数据集进行训练,得到增强crop数据集,所述可微生成对抗网络包括可微鉴别器网络D和可微生成器网络G,具体步骤如下: 步骤4.1:构建可微鉴别器网络D; 步骤4.2:构建可微生成器网络G,G的输入来自隐空间的随机变量z,生成特定目标类型的高速移动目标; 步骤4.3:随机噪声经过可微生成器网络G不断生成目标类型的伪样本,组成增强crop数据集,达到扩充数据集的目的; 步骤4.4:对可微鉴别器网络D的损失LD和可微生成器网络G的损失LG进行交替循环优化;LG和LD公式分别如下所示: 其中,表示数学期望,x代表真实图像,z表示随机变量,pdatax代表真实样本分布,pzz代表生成的样本分布,Gz是随机变量z经过生成器G之后生成的高速移动目标伪图像,D·是图像经过可微鉴别器网络G得到的概率,它是一个0~1范围的实数,T·代表一种可微的数据增强手段,fD,fG分别为可微鉴别器D和可微生成器G对应使用的损失函数; 步骤5:基于LeNet,训练一个分类网络,筛选经过步骤4得到的增强crop数据集;具体步骤如下: 步骤5.1:将步骤3得到的初始crop数据集按8:2分为训练集和验证集; 步骤5.2:将训练集输入到分类网络进行训练,共训练100轮,使用验证集得到的准确率作为评价指标,保存准确率最高的模型; 步骤5.3:使用保存的分类网络模型对增强crop数据集中的伪图片进行测试,保存置信度大于或等于设定阈值conf的图片,置信度作为可微生成对抗网络产生的伪图片和真实图片之间的相似度衡量的标准,存储该图片对应的置信度,小于阈值conf的图片从增强crop数据集中移除; 步骤6:将步骤3得到的初始crop数据集和步骤5得到的增强crop数据集中的图片增强到背景数据集中,获得工作数据集; 步骤7:对步骤1获得的初始数据集中的每一张图像以概率p做如下的数据增强技术:图像旋转、图像缩放、随机裁剪、色彩变换、仿射变换、运动模糊,获得初始增强数据集; 步骤8:整合步骤1得到的初始数据集、步骤6得到的工作数据集和步骤7得到的初始增强数据集形成用于目标识别的高速移动目标数据集; 步骤9:将高速移动目标数据集按8:1:1分为训练集、验证集和测试集; 步骤10:构建YOLOv7网络模型; 步骤11:设置置信度损失函数Lconf,分类损失函数Lclass,位置损失函数Lloc,总损失函数Loss,计算方法分别如下所示: 置信度损失函数Lconf计算方法如下: 其中,表示第i个网格的第j个边界框内是否存在目标,如果存在,则为1,否则为0;表示第i个网格的第j个边界框内的目标是否来自步骤5得到的增强crop数据集,如果是,则为1,否则为0;表示第i个网格的第j个边界框内是否是背景,如果是,则为1,否则为0;C表示真实目标的置信度;表示预测目标的置信度;Cgan表示经过步骤5得到的伪图像的置信度;λobj表示目标置信度正则化系数;λnoobj表示背景置信度正则化系数,因为不包含目标中心位置的边界框数量远多于包含目标中心位置的边界框数量,这里取λnoobj=0.4;s表示图片最终被划分成的单元格总数;B表示每个单元格产生的边界框数量; 分类损失函数Lclass计算方法如下: 其中,λclass表示类别正则化系数;表示第i个网格内是否存在目标,如果存在,则为1,否则为0;pic表示第i个网格中实际存在类别c的概率;表示第i个网格中预测为类别c的概率; 位置损失函数Lloc计算方法如下: 其中,λiou为正则化系数;LCIoU计算公式如下: 其中,bgt表示真实框的中心点坐标,b表示边界框的中心点坐标,表示边界框与真实框之间的欧氏距离;c表示覆盖边界框和真实框的最小矩形框的对角线长度;IoU表示边界框和真实框的重叠程度;v用于度量长宽比一致性;α为一个权重系数,计算公式分别如下: 其中,A和B分别表示预测框和真实框;w和h分别表示预测框的宽和高;wgt和hgt分别表示真实框的宽和高; 总损失函数Loss计算方法如下: Loss=Lconf+Lclass+Lloc 步骤12:使用训练集对YOLOv7网络进行训练,使用验证集对模型进行评估,以mAP作为评价指标,保存mAP值最大的模型; 步骤13:使用测试集对保存的YOLOv7模型进行测试。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学;成都电科智讯科技发展有限公司,其通讯地址为:611731 四川省成都市高新区(西区)西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励