西北工业大学张兆祥获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西北工业大学申请的专利一种基于识别-规划联合优化的非合作目标搜索方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120747797B 。
龙图腾网通过国家知识产权局官网在2025-11-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511144173.5,技术领域涉及:G06V20/17;该发明授权一种基于识别-规划联合优化的非合作目标搜索方法是由张兆祥;许悦雷;郭继唐;刘闯;万齐通;寇全彪设计研发完成,并于2025-08-15向国家知识产权局提交的专利申请。
本一种基于识别-规划联合优化的非合作目标搜索方法在说明书摘要公布了:本发明公开了一种基于识别‑规划联合优化的非合作目标搜索方法,属于无人机技术领域。通过构建地形感知多模式混合滤波器对目标脱离视野后的轨迹进行精确预测,结合细粒度特征解耦与动态融合机制实现目标的高可靠重识别,并采用识别‑规划联合优化的自适应搜索方法生成最优搜索路径,解决了复杂环境中非合作目标的长时间跟踪与重识别难题,显著提高了无人机监视系统的持续工作能力。
本发明授权一种基于识别-规划联合优化的非合作目标搜索方法在权利要求书中公布了:1.一种基于识别-规划联合优化的非合作目标搜索方法,其特征在于,包括如下步骤: 步骤1:地形感知的多模式混合滤波预测; 步骤1-1:地形语义分割与环境建模; 步骤1-1-1:基于无人机获取的高分辨率地形图像,使用UNet++语义分割网络将环境划分为不同类别:S={s1,s2,...,skr},i=1…kr,kr表示地形类别总数,si表示不同地形类型;S表示地形类别集合; 步骤1-1-2:构建地形邻接图G=V,E,其中顶点V表示区域,边E表示区域间连接关系; 步骤1-1-3:提取关键节点:N={n1,n2,...,njr},n1,n2,...,njr分别表示第1个到第jr个关键节点,jr表示关键节点总数; 步骤1-1-4:定义每类地形的通行特性函数:fpasssi=[vmin,vmax,αi],其中vmin、vmax分别表示每类地形的最小和最大通行速度,αi表示速度衰减系数; 步骤1-2:多模式运动模型构建; 步骤1-2-1:定义三种基本运动模型; 1恒速直线运动模型CV:xk=Fcv·xk-1+wcv,xk表示k时刻的状态向量,Fcv表示恒速模型状态转移矩阵,xk-1表示k-1时刻的状态向量,wcv表示恒速模型过程噪声; 2恒加速运动模型CA:xk=Fca·xk-1+wca,Fca表示恒加速模型状态转移矩阵,wca表示恒加速模型过程噪声; 3转向运动模型CT:xk=Fctxk-1+wct,Fct表示转向模型非线性状态转移函数,wct表示转向模型过程噪声; 步骤1-2-2:每种运动模型分别为: Fct为非线性函数,包含角速度参数; 其中,Δt为时间步长; 步骤1-3:地形约束模型融合; 步骤1-3-1:构建地形约束下的状态转移函数: xk=Fxk-1,si=Fj·xk-1·γsi+w; 其中γsi为地形影响因子,根据地形类型si调整状态转移;w表示过程噪声向量,Fj表示运动模型的状态转移矩阵,F.表示地形约束状态转移函数; 步骤1-3-2:位置约束; 确保预测位置位于可通行区域: 其中pxk表示从状态向量xk提取位置,Spass为可通行区域集合,proj.为投影函数;Cpos.表示位置约束函数; 步骤1-3-3:速度约束; 根据地形类型调整速度范围: 其中vx表示从状态向量x提取速度,adjust.为速度调整函数;Cvel.表示速度约束函数,vmin.表示地形类型的最小通行速度函数,vmax.表示地形类型的最大通行速度函数; 步骤1-4:交互多模型时空鲁棒滤波; 步骤1-4-1:构建交互多模型IMM架构,包含滤波器组合:Φ={φcv,φca,φct},φcv,φca,φct分别表示恒速、恒加速、转向运动模型的滤波器; 步骤1-4-2:定义模型转移概率矩阵:Π=[πqg],其中πqg表示从模型q转移到模型g的概率; 步骤1-4-3:模型概率更新: 其中为时刻k时模型g的概率,为模型g的似然函数,z为观测数据;表示时刻k-1时刻模型g的概率,表示时刻k-1时模型q的概率,r表示模型总数; 步骤1-4-4:状态融合预测; 其中为模型g的状态预测; 步骤1-5:多路径假设生成; 步骤1-5-1:考虑目标可能选择的多条路径,构建路径假设集合H={h1,h2,...,hl},h1,h2,...,hl分别表示第1条到第l条路径假设,l表示路径假设总数; 步骤1-5-2:对每条路径假设hu,u=1…l,计算其概率:Phu|X=fhisthu,X·fterrhu,S其中fhist.表示与历史轨迹的一致性,fterr.表示与地形的兼容性;X表示历史状态轨迹数据; 步骤1-5-3:沿每条假设路径进行预测,生成可能的出现位置; pu=PredictX,hu,ΔT; 其中ΔT为预测时间窗口;Predict.表示轨迹预测函数; 步骤1-5-4:为每个位置分配概率权重; wu=Phu|X·exp-λ·ΔT; 其中λ=0.1为时间衰减因子; 步骤1-5-5:输出位置集合:P={p1,w1,p2,w2,...,pl,wl}; 步骤2:细粒度特征解耦与动态融合的目标重识别; 步骤2-1:特征解耦表示学习; 步骤2-1-1:设计三路特征提取网络,分别提取不同维度的特征; 外观特征网络φapp:采用ResNet50-IBN骨干网络,提取目标视觉外观特征; 运动特征网络φmot:采用时空图卷积网络ST-GCN,提取目标运动模式特征; 上下文特征网络φctx:采用Transformer编码器,提取目标与环境交互的上下文特征; 步骤2-1-2:对原目标构建多维特征表示; fapp=φappIorg:256维外观特征向量; fmot=φmotTorg:128维运动特征向量; fctx=φctxCorg:192维上下文特征向量; 其中,Iorg、Torg、Corg分别表示原目标的图像序列、轨迹数据和上下文数据; 步骤2-2:候选目标检测与特征提取; 步骤2-2-1:使用YOLOv5对象检测器在搜索区域视频中检测候选目标:Ocand=DetectVsearch;Detect.表示目标检测函数,Vsearch表示搜索区域视频; 步骤2-2-2:对每个候选目标提取多维特征: 其中,表示第io个候选目标的外观特征向量,表示第io个候选目标的运动特征向量,表示第io个候选目标的上下文特征向量,表示第io个候选目标的图像序列,表示第io个候选目标的轨迹数据,表示第io个候选目标的上下文数据;io=1…n,n表示候选目标总数; 步骤2-2-3:构建候选目标特征集; 步骤2-3:时空条件下的特征可靠性评估; 步骤2-3-1:设计特征可靠性评估函数,根据时间间隔和环境变化度量各维度特征的可靠性: rappt,e=exp-αapp·t-βapp·e; rmott,e=exp-αmot·t-βmot·e; rctxt,e=exp-αctx·t-βctx·e; 其中,t为目标丢失时长,e为环境变化度量,αapp、αmot、αctx、βapp、βmot、βctx均为权重参数;rapp.表示外观特征可靠性评估函数,rmot.表示运动特征可靠性评估函数,rctx.表示上下文特征可靠性评估函数; 步骤2-3-2:确定特征融合权重; 其中,wapp表示外观特征融合权重、wmot表示运动特征融合权重、wctx表示上下文特征融合权重、rapp、rmot、rctx、rik分别表示外观特征可靠性值、运动特征可靠性值、上下文特征可靠性值、各维度特征可靠性值; 步骤2-4:自适应特征融合匹配; 步骤2-4-1:多维度相似度计算; 其中,cos.表示余弦相似度函数,sapp.表示外观特征相似度函数,smot.表示运动特征相似度函数,sctx.表示上下文特征相似度函数; 步骤2-4-2:动态融合相似度: fusedio=wapp·sappio+wmot·smotio+wctx·sctxio; 步骤2-4-3:位置先验增强; 根据候选目标与预测位置的距离,进一步调整相似度: 其中dpio,ppred表示候选目标位置pio与预测位置ppred的距离,γ=0.3为位置先验权重,σ=100m为距离衰减参数;sfinal.表示最终相似度函数; 步骤2-5:跨域一致性验证与决策; 步骤2-5-1:设计自适应阈值函数; τt=τ0+Δτ·1-exp-λr·t; 其中τ0=0.75为基础阈值,Δτ=0.15为最大增量,λr=0.02为时间系数; 步骤2-5-2:初步筛选满足sfinalioτt的候选目标; 步骤2-5-3:对初筛结果进行跨域一致性验证: 1多角度观测验证:获取不同视角下的匹配得分; 2时序一致性验证:短时跟踪验证运动模式一致性; 步骤2-5-4:最终决策; 1当存在满足条件的候选目标时,选择得分最高者: 2否则,判定为“未找到目标”; 3输出重识别结果:R={id,conf=sfinalid},conf表示重识别置信度; 步骤3:识别-规划联合优化的自适应搜索; 步骤3-1:搜索资源建模与约束定义; 步骤3-1-1:无人机资源约束建模; 1能源约束:Efuel≤Emax,其中Efuel为搜索任务所需能源,Emax为可用能源; 2时间约束:Tsearch≤Tmax,其中Tsearch为搜索总时间,Tmax为最大允许时间; 步骤3-1-2:定义无人机运动消耗模型; 1能源消耗:ΔEpsr,ptr=kE·dpsr,ptr+Ehoverptr,其中dpsr、ptr为距离,Ehover.为悬停观测消耗;kE表示能源消耗系数;psr、ptr分别表示第sr个和第tr个目标搜索点; 2时间消耗:其中vavg为平均速度,Tobs.为观测时间; 步骤3-2:识别置信度驱动的搜索策略: 步骤3-2-1:根据重识别置信度conf,定义三种搜索模式: 1高置信模式即conf0.85; 2中置信模式即0.65conf≤0.85; 3低置信模式即conf≤0.65或无候选目标; 步骤3-2-2:为每种模式设计不同的搜索参数; 1高置信模式:rsearch=200m,tobs=30s; 2中置信模式:rsearch=500m,tobs=20s; 3低置信模式:rsearch=1000m,tobs=15s; 其中,rsearch表示搜索半径,tobs表示单点观测时间; 步骤3-3:候选点聚类与分层表示; 步骤3-3-1:根据位置聚集度使用密度聚类算法DBSCAN对预测位置进行聚类:CT={c1,c2,...,clt},CT表示聚类结果集合,c1,c2,...,clt分别表示第1个到第lt个聚类; 步骤3-3-2:计算每个聚类的综合权重:iw=1…lt; 步骤3-3-3:构建分层表示; 1热点区域即高权重聚类:H={ciw|Wciwτh}; 2次要区域即中权重聚类:M={ciw|τmWciw≤τh}; 3低概率区域即低权重聚类:L={ciw|Wciw≤τm} 其中τh=0.25,τm=0.1为聚类权重阈值; 步骤3-4:识别-规划联合优化目标函数:; 步骤3-4-1:定义基础搜索点效用函数; Ubasepin=win·Vobspin; 其中Vobspin为在点pin处的观测覆盖价值;win表示权重; 步骤3-4-2:融合重识别反馈,增强效用函数: Ureidpin=Ubasepin·1+δ·conf·Icandpin; 其中δ=0.5为识别增强系数,Icand.为候选目标位置指示函数;Ureid.表示融合重识别反馈的效用函数; 步骤3-4-3:定义搜索路径代价函数: 其中,psn表示搜索路径中第sn个搜索点,psn+1表示搜索路径中第sn+1个搜索点;Γ表示搜索路径,Nk表示搜索路径中搜索点总数; 步骤3-4-4:定义搜索路径时间函数; 步骤3-4-5:构建识别-规划联合优化目标函数: 其中λc=0.4,λt=0.6为平衡参数; 步骤3-5:分层次搜索策略生成; 步骤3-5-1:基于识别置信度调整搜索策略: 1高置信模式:采用深度优先搜索策略,优先探索目标周围环境; 2中置信模式:采用平衡型搜索策略,兼顾深度和广度; 3低置信模式:采用广度优先搜索策略,覆盖多个可能区域; 步骤3-5-2:构建搜索优化问题: 约束条件:CostΓ≤EmaxTimeΓ≤Tmax; 其中,Emax表示最大可用能源,Tmax表示最大允许搜索时间; 步骤3-5-3:采用改进的分支定界算法求解; 1初始化:基于识别模式选择起始搜索区域; 2分支策略:根据识别置信度调整分支倾向性; 3剪枝策略:当路径违反能源或时间约束时剪枝; 步骤3-5-4:输出最优搜索路径。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西北工业大学,其通讯地址为:710072 陕西省西安市碑林区友谊西路127号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励