Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京航空航天大学余凌霄获国家专利权

南京航空航天大学余凌霄获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京航空航天大学申请的专利一种注意力机制下基于无锚框的遥感图像旋转目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118379617B

龙图腾网通过国家知识产权局官网在2025-09-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410414258.X,技术领域涉及:G06V20/10;该发明授权一种注意力机制下基于无锚框的遥感图像旋转目标检测方法是由余凌霄;郝洁设计研发完成,并于2024-04-08向国家知识产权局提交的专利申请。

一种注意力机制下基于无锚框的遥感图像旋转目标检测方法在说明书摘要公布了:本发明公开了一种注意力机制下基于无锚框的遥感图像旋转目标检测方法,属于遥感图像目标检测技术。该方法首先是对于获得的遥感图像集划分训练集和测试集,然后基于FasterRcnn遥感图像检测网络模型进行改进,包括融合注意力机制以提高网络的特征提取能力,通过在颈部网络后添加掩码注意力模块来增强特征的表达能力;还包括基于FCOS的无锚框检测头网络思想设计AFOrpn网络提取高质量proposals。其次,模型将输入图像经过主干网络和颈部网络提取到多层特征图输入到SMAM模块通过注意力机制得到融合特征图并通过放缩操作将融合特征与原始特征进行相加,用于提高原始特征表达能力,并输入AFOrpn进行proposals的筛选,将proposals通过Rcnn检测头网络输出最终的检测结果,并根据所设计的损失函数,更新模型参数,完成模型的训练。最后利用所述训练完成的目标检测模型进行遥感图像目标检测。

本发明授权一种注意力机制下基于无锚框的遥感图像旋转目标检测方法在权利要求书中公布了:1.一种注意力机制下基于无锚框的遥感图像旋转目标检测方法,其特征在于,包括如下步骤: S1、获得遥感图像集,划分训练集和测试集; S2、构建遥感图像检测网络模型,所述遥感图像检测网络模型基于Faster Rcnn改进,包括融合注意力机制以提高网络的特征提取能力,通过在颈部网络后添加掩码注意力模块来增强特征的表达能力; 所述遥感图像检测网络模型是基于Faster Rcnn增加监督掩码注意力以及无锚框设计实现的; SMAM包括特征融合、空间注意力以及监督掩码增强阶段三个阶段: 特征融合通过上采样操作将不同分辨率的特征图统一至相同大小,通过将来自不同层级的特征图进行拼接,并采用通道注意力的思想自适应调整特征通道以及深层与浅层特征的权重进行相加融合,以综合利用多层次的特征信息; 空间注意力采用自注意力的思想自适应的整合局部特征和全局依赖消除融合带来的混叠效应; 监督掩码增强阶段采用伪掩码引导网络保留图像特征,过滤噪声信息; 所述的无锚框设计是针对AFOrpn网络执行如下: 1中心点偏移预测对于一个检测框OBBXctr,Yctr,W,H,θ,其中Xctr,Yctr表示中心点坐标,W、H表示检测框的宽、高,θ∈[‑π2,π2表示检测框与x轴之间的锐角,对应于检测框的长边W,将检测框表示为Xctr,Yctr,w,h,α,β,其中w、h表示OBB最小外接矩形的宽高,α,β是相对于检测框最小外接矩形顶边和右边中点的偏移值,那么对于位于特征图上的一个样本点,其AFOrpn预测回归值的编码计算公式如下: 其中,x,y对应于特征点在原图下的坐标,l、t、r和b表示从该点到检测框外接矩形的的左、上、右和下侧的垂直距离,tα tβ均表示中心点偏移距离与外接矩形框宽高的比例; 2损失函数设计AFOrpn网络的损失由分类损失和回归损失构成; 分类损失采用QualityFocalLoss用于计算,其中QualityFocalLoss在Focal Loss的基础上结合目标检测中的目标质量信息,将目标的定位质量融合到分类损失中,形成一个联合表示,公式如下: y=RotatedIOUA,GQFLσ=‑|y‑σ|β1‑ylog1‑σ+ylogσ其中A表示预测的旋转框,G表示实例框,y表示预测框与实际框的IOU值,σ表示预测的分类置信度;QualityFocalLoss能够充分利用目标的质量信息,对不同质量的目标进行加权处理,更加精细地调节模型对不同目标的关注度,从而提高检测性能; 对于回归损失,将其划分为距离损失以及中心点偏移损失如下: 在该方法中,对于距离损失采用CLOU_LOSS作为损失函数; 对于中心点偏移角度损失,采用SmoothL1 Loss,其计算公式如下: 其中x表示预测值与目标值的差值; Rcnn检测头网络网络的损失由分类损失和回归损失构成,沿用原来Faster Rcnn的损失函数; 分类损失计算如下: Lclspt=1‑ptγlogpt其中p为正样本的概率,其中label表示预测类别,label*表示对应真值标签; 回归损失计算如下: 其中,smoothL1损失函数如上述所述,为真实框所在的坐标向量,t=tx,ty,tw,th,tα,tβ是预测框所在的坐标向量; S3、设计目标检测AFOrpn网络,将经过遥感图像检测网络模型处理得到的特征图作为AFOrpn网络的输入,AFOrpn网络用于检测特征图中像素点的类别和检测框的回归处置,并通过分类置信度以及非极大值抑制操作进行检测框的筛选获取提议框; 提议框通过RotatedRoiAlign池化层进行特征提取并输入到后续的全连接层,最后通过softmax层进行分类以及回归损失层进行提议框细化; S4、设计损失函数,包括AFOrpn网络损失,Rcnn损失以及监督掩码损失; 其中AFOrpn网络损失由分类损失和回归损失构成,且AFOrpn网络的回归损失拆分成距离损失和中心偏移损失; Rcnn损失由分类损失和回归损失设计构成,且沿用Faster Rcnn检测网络原有的损失; S5、更新遥感图像旋转目标检测模型参数,完成模型的训练,然后利用所述训练完成的目标检测模型进行遥感图像目标检测。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京航空航天大学,其通讯地址为:210016 江苏省南京市秦淮区御道街29号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。