杭州电子科技大学白根宝获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利一种基于改进DeepLabV3+网络的遥感图像语义分割方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115035418B 。
龙图腾网通过国家知识产权局官网在2025-07-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210677113.X,技术领域涉及:G06V20/70;该发明授权一种基于改进DeepLabV3+网络的遥感图像语义分割方法及系统是由白根宝;徐欣;姚英彪;杨阿锋;刘晴;姜显扬设计研发完成,并于2022-06-15向国家知识产权局提交的专利申请。
本一种基于改进DeepLabV3+网络的遥感图像语义分割方法及系统在说明书摘要公布了:本发明公开了一种基于改进DeepLabV3+网络的遥感图像语义分割方法及系统,方法包括以下步骤:S1.获取遥感道路数据集并进行预处理,数据集中的数据分为训练数据、验证数据和测试数据;S2.搭建基于Pytorch环境的改进DeepLabV3+语义分割网络模型;S3.利用步骤S1得到的训练数据、验证数据对改进DeepLabV3+语义分割网络模型进行训练;S4.将步骤S1得到的测试数据输入到步骤S3的改进DeepLabV3+语义分割网络模型,得到遥感道路图像语义分割结果。相较于基于传统的DeepLabV3+网络模型的方法,本发明采用了R‑Drop正则化方法,可以对训练中每个数据样本从dropout中随机抽取的两个子模型的输出进行正则化,本发明不仅可以降低网络模型参数的自由度,还可以缓解训练和推理阶段之间的不一致性,增强了泛化能力。
本发明授权一种基于改进DeepLabV3+网络的遥感图像语义分割方法及系统在权利要求书中公布了:1.一种基于改进DeepLabV3+网络的遥感图像语义分割方法,其特征在于,包括以下步骤: S1.获取遥感道路数据集并进行预处理,数据集中的数据分为训练数据、验证数据和测试数据; S2.搭建基于Pytorch环境的改进DeepLabV3+语义分割网络模型; S3.利用步骤S1得到的训练数据、验证数据对改进DeepLabV3+语义分割网络模型进行训练; S4.将步骤S1得到的测试数据输入到步骤S3的改进DeepLabV3+语义分割网络模型,得到遥感道路图像语义分割结果; 步骤S2具体包括以下步骤: S21.改进DeepLabV3+语义分割网络模型分为编码器模块和解码器模块; S22.编码器模块中,采用MobileNetV2作为主干网络对遥感图像进行浅层特征和深层特征的提取; S23.采用空间金字塔池化模块对S21得到的深层特征进行进一步的特征提取操作;空间金字塔池化模块由一个1×1的卷积,三个膨胀率分别为6、12、18的膨胀卷积以及一个ImagePooling模块组成,三个膨胀卷积用来捕获不同尺度的感受野信息并捕获不同尺度的特征信息,ImagePooling模块和1×1卷积层被用于提取特征; S24.采用concatenate特征融合方法对步骤S23得到的具有不同感受野的特征层进行堆叠处理,此时输入通道数是原始输入通道数的5倍,通过1×1卷积层将通道数降低至原始值得到深层特征; S25.解码器模块中采用1×1卷积对步骤S22得到的浅层特征进行通道数的调整后,再与步骤S24得到的深层特征层经过4倍上采样之后的结果进行concatenate特征融合; S26.采用两个3×3的卷积层对步骤S25得到的特征融合结果进行细化,然后进行四倍的上采样即可得到分割预测图; 步骤S3具体包括以下步骤: S31.设定训练模型的初始参数如下: 初始学习率,即learningrate:0.014; 权值衰减,即weightdecay:0.0005; 动量,即momentum:0.9; S32.在训练过程中,采用R-Drop正则化方法,即:在每个小批量训练中,每个数据样本经过两次前向传递,每次传递由不同的子模型通过随机删除一些隐藏单元来处理;具体如下:训练数据为训练的目标是学习一个模型Pwyi|xi,其中n是训练样本的数量,xi,yi是标记数据对,xi是输入数据,yi是标签,每个样本的loss为交叉熵: Li=-logPwyi|xi 在使用R-Drop正则化方法的情况下,认为样本通过了两个略有不同的模型,分别记为和模型最终的loss分为两部分,一部分是常规的交叉熵: 另一部分则是两个模型之间的对称KL散度: 网络模型最终的loss即为上述两个loss的加权和: 其中α为辅助损失的权重,设置为1,损失函数采用交叉信息熵; S33.根据步骤S32得到的损失函数计算出梯度,采用随机梯度下降方法作为优化器更新神经网络的权重值、偏置值; S34.引入像素准确率PA以及平均交并比MIoU对模型的性能进行评估,PA表示预测类别正确的像素数占总像素数的比例,MIoU表示网络模型分割图像的精度,MIoU值越高则表示图像分割效果越好;计算方法分别为: 式中,TP代表模型预测正确,即模型预测与实际均为正例;FP代表模型预测错误,即模型预测该类别为正例,但实际该类别为反例;FN代表模型预测错误,即模型预测该类别为反例,实际该类别为正例;TN代表模型预测正确,意为模型预测与实际均为反例;N代表类别数,下标i代表第i类; S35.重复步骤S32—S34的训练过程,每轮训练完后使用验证数据对网络模型进行评估,按照MIoU最优结果进行模型的保存,直至迭代次数达到设定值后停止训练,保存训练好的模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市杭州经济技术开发区白杨街道2号大街1158号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。