买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:西安理工大学
摘要:本发明公开了基于未标记医学图像自监督信息的预训练方法,具体为:搭建Trans‑Inf‑Net分割网络,将医学CT图像x0放入到分割网络中进行病灶的分割,得到病灶图xs,作为自监督信息;搭建孪生神经网络,并将医学CT图像x0和病灶图xs作为孪生神经网络的两个输入,进行信息提取,得到权重图W;使用高斯金字塔分解对权重图W进行转换,并将权重图W与医学CT图像x0和病灶图xs进行融合,强化医学图像的特征,并保留医学图像原始信息。本发明首次研究了预训练模型的自监督信息,以有效克服医学图像上的人工标记负担,使用简单的孪生网络提取未标记图像的自身特征,提高医学图像的处理效果。
主权项:1.基于未标记医学图像自监督信息的预训练方法,其特征在于,具体按照以下步骤实施:步骤1、搭建Trans-Inf-Net分割网络,将医学CT图像x0放入到分割网络中进行病灶的分割,得到病灶图xs,作为自监督信息;具体为:步骤1.1、Trans-Inf-Net分割网络是在Inf-Net分割网络的基础之上,加入了transformer模块提高边缘表示,具体的网络框架为:医学CT图像首先被送入两层卷积层提取低层次的特征,然后将低层次特征f2被送入到三层卷积层提取高层次特征,利用一个平行部分解码器聚合这些特征并且得到一个全局图Sg,将高层次特征和低层次特征f2结合在Sg的指导下输入到反向注意力模块,最终最后一个RA的输出输入到一个Sigmoid激活函数用于医学CT图像的感染预测;步骤1.2、将50张标注的医学CT图像和1600张未标注的医学CT图像作为训练集;将48张标注的医学CT图像作为测试集,并将所有图像的大小缩放为352×352;步骤1.3、首先使用标记数据对网络进行训练,使用不同的缩放比例{0.75,1,1.25}对训练集图像进行重新采样,然后使用重新采样的图像对Trans-Inf-Net分割网络进行训练,网络使用Adam优化器进行训练,将学习率设置为1e-4,最后,保存训练好的模型;步骤1.4、使用训练好的Trans-Inf-Net分割网络为未标注的医学CT图像生成伪标签;图像的数量设置为5,即K=5,构成K张伪标签数据,将伪标签图片作为训练图片扩充到标记数据集中进行网络的训练,然后将这K张图片从未标注的医学CT图像的数据集中移除,直到未标注的医学CT图像数据集为空;步骤1.5,保存训练好的模型,将数据集COVID-HSS中的医学CT图像x0放入到训练好的模型中进行病灶分割,得到病灶图xs;步骤2、搭建孪生神经网络,并将医学CT图像x0和病灶图xs作为孪生神经网络的两个输入,进行信息提取,得到权重图W;具体为:将医学CT图像x0和病灶图xs作为孪生神经网络的两个输入,两个图像被编码器网络f处理,编码器网络f由主干的MLP和投影的MLP头组成;编码器网络f在两个图像之间共享权重;预测MLP头h,改变图像的输出,并且将这个输出和另一个图像的输出进行匹配;将两个输出向量分别表示为和并最小化负余弦相似性,如式1所示: 其中,∥·∥2表示l2-norm,为归一化向量l2的均方误差,尺度为2;对称损失,如式2所示: 将式1修改为式3: 将式2修改为式4: 孪生网络输出一个密集的预测图,为了得到和原图相同大小的权值图,将输出的每个patch的预测值平铺到这个patch内所有像素,作为这个patch的权值,并对像素重叠的部分进行平均,最后得到和原图大小相同的权重图W;步骤3,使用高斯金字塔分解对步骤2获得权重图W进行转换,并将将转换获得的G{W}与医学CT图像x0和病灶图xs进行融合,强化医学图像的特征,并保留医学图像原始信息。
全文数据:
权利要求:
百度查询: 西安理工大学 基于未标记医学图像自监督信息的预训练方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。