兰州大学焦继宗获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉兰州大学申请的专利一种基于深度学习的单遥感影像超分辨率方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116342392B 。
龙图腾网通过国家知识产权局官网在2025-05-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310344467.7,技术领域涉及:G06T3/4053;该发明授权一种基于深度学习的单遥感影像超分辨率方法是由焦继宗;裴修侗;刘佳敏设计研发完成,并于2023-04-03向国家知识产权局提交的专利申请。
本一种基于深度学习的单遥感影像超分辨率方法在说明书摘要公布了:本发明公开了一种基于深度学习的单遥感影像超分辨率方法SingleRemoteSensingImageSuper‑Resolution,SRSISR,相比于传统方法和基于卷积神经网络的方法,该方法能显著提高遥感影像的分辨率,在基于像素的损失函数基础上,加入了更接近感知相似性的损失函数,使得结果更加接近人眼感知效果,显著提升了模型重建效果。基于深度学习的单遥感影像超分辨率SRSISR提高了低分辨率卫星图像的空间分辨率,为图像处理和去噪等应用提供了有效的解决方案。由此可见,利用深度学习进行遥感影像超分辨率重建具有重要研究意义。
本发明授权一种基于深度学习的单遥感影像超分辨率方法在权利要求书中公布了:1.一种基于深度学习的单遥感影像超分辨率方法,包括以下步骤:A、将高分辨率遥感样本影像使用双三次核函数进行降采样,生成对应的低分辨率影像,原始高分辨率影像作为对应的标签影像,将高低分辨率遥感影像对作为训练数据;B、高低分辨率影像对按比例划分训练集和验证集,并对训练集进行数据增强;C、将训练集投入基于深度学习的超分辨率模型中进行训练,并使用验证集对快速检测模型进行评价,得到最优网络参数模型;网络基础模型选择SRResNet超分辨率模型,选择MSE作为基本损失函数;在网络中加入对抗生成网络结构,并用多级残差块代替单一残差块,提升模型生成器重建效果;使用预训练的19层VGG网络进行特征提取,捕获高级感知差异,将VGG损失定义重建图像GnetLR和参考图像HR的特征表示之间的欧氏距离,以此来作为感知损失;其中MSE损失函数公式如下: 其中,HRi,j,c代表参考高分辨率影像,i,j,c分别代表影像中像元的长、宽、高在影像中的位置,LR代表低分辨率影像,Gnet表示生成器网络,GnetLRi,j,c代表低分辨率影像经过生成器网络模型处理后输出的的高分辨率影像,H表示低分辨率影像的高,W表示低分辨率影像的宽,num_channel表示低分辨率的通道数值,R表示倍率;对抗损失函数如下: 其中,Dnet表示鉴别器网络,DnetHR,GnetLR表示真实数据相对于假的生成的数据更真实的概率,DnetGnetLR,HR表示假的生成数据相对于真实数据更假的概率,表示N表示样本数;感知损失函数如下: 其中,Enet表示特征提取器网络,EnetHR表示特征提取器网络在高分辨率HR分支的输出,EnetGnetLR表示特征提取器网络在超分辨SR分支的输出,Hnp,q,Wnp,q和Cnp,q分别表示高级特征网络中第n层高级特征图的高度、宽度和通道数,所述第n层为19层VGG网络中第n个最大池化层之前第q个卷积层获得的特征图;总损失函数如下:loss=loss_MSE+loss_adv+loss_perD、将测试集的遥感影像输入训练好的最优网络参数模型,得到最终结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人兰州大学,其通讯地址为:730000 甘肃省兰州市城关区天水南路222号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。