恭喜北京理工大学傅雄军获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京理工大学申请的专利一种基于密度聚类和幅度-距离特征联合的目标识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114755636B 。
龙图腾网通过国家知识产权局官网在2025-06-20发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210272140.9,技术领域涉及:G01S7/36;该发明授权一种基于密度聚类和幅度-距离特征联合的目标识别方法是由傅雄军;管姝妍;郎平;冯程;谢民;王勇设计研发完成,并于2022-03-18向国家知识产权局提交的专利申请。
本一种基于密度聚类和幅度-距离特征联合的目标识别方法在说明书摘要公布了:本发明涉及一种基于密度聚类和幅度‑距离特征联合的目标识别方法,属于雷达干扰识别及目标识别技术领域。所述目标识别方法,包括:S1:对每一帧数据进行帧内的非相参积累,得到该帧非相参积累后的数据;S2:将S1得到的非相参积累后的数据进行CFAR检测,得到CFAR检测后过门限的点,并保存;S3:对S2输出的CFAR检测后过门限的点逐帧进行密度聚类,得到聚类结果;S4:对S3输出的聚类结果逐帧进行目标和干扰的识别。所述方法能对任意形状数据进行聚类且针对一维数据聚类效果更好;不需预先设置初始值,故没有初始值对聚类结果的影响;充分利用了数据的帧内和帧间信息,目标识别准确率更高。
本发明授权一种基于密度聚类和幅度-距离特征联合的目标识别方法在权利要求书中公布了:1.一种基于密度聚类和幅度-距离特征联合的目标识别方法,其特征在于:包括: S1:对每一帧数据进行帧内的非相参积累,得到该帧非相参积累后的数据; S2:将S1得到的非相参积累后的数据进行CFAR检测,得到CFAR检测后过门限的点并保存; S3:对S2输出的CFAR检测后过门限的点逐帧进行密度聚类,得到聚类结果; S4:对S3输出的聚类结果逐帧进行目标和干扰的识别,具体包括如下几个子步骤: S41、根据S3输出的每帧数据的聚类进行帧内判断,得到类型识别结果,具体为:计算一帧数据中每一类的幅度熵,幅度熵最大的类认为是舰船目标类,幅度熵最小的类认为是干扰类; S42、判断S41的类型识别结果是否正确,如果类型识别正确则保存分类识别结果和目标信息,否则,若类型识别错误跳至S43; S43、利用数据的帧间信息进行二次判断,得到分类识别结果,具体为:分别计算当前帧下各类的距离与前五帧舰船类距离的方差,认为方差最小的类为舰船。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。