买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:大连理工大学
摘要:本发明涉及一种集成FDK和深度学习的单视角CT重建方法,属于计算机视觉与深度学习领域。为了使用FDK算法完成精确的2D到3D映射,本发明方法提出两阶段的深度学习框架,在第一阶段通过全视角生成网络,将单视角重建病态问题转化为一般性CT重建问题。在第二阶段通过FDK算法实现2D投影到3D体积的精确映射,再搭建CT微调网络对反投影所得的CT体积进行微调,提高断层图像质量。
主权项:1.一种集成FDK和深度学习的单视角CT重建方法,其特征在于,包括以下步骤:步骤1、数据获取及预处理数据集包含X射线体正位投影图像及其1°间隔的360°全视角投影图像,以及CT体积;其中X射线体正位投影图像及其对应的全视角投影为第一阶段全视角生成网络训练数据,CT体积为第二阶段CT微调网络的监督数据;在训练中所有使用的数据通过先分别求取均值μ和方差σ,然后进行标准化x-μσ的方式处理,其中x表示待标准化的训练数据;将数据集划分为训练集和测试集分别用于网络的训练和测试;步骤2、搭建全视角生成网络所述全视角生成网络由特征编解码器、残差模块和特征跳跃级联结构组成;特征编解码器由一个连续下采样的卷积神经网络,以及在其最底层获得编码特征后连接的一个连续上采样卷积神经网络组成;残差模块为加深卷积神经网络的组件,通过引入一个短连接将输入特征接到非线性层的输出上,使得网络获得更强拟合高维函数的能力;特征跳跃级联结构是将编解码器中相同尺度的编码特征与解码特征进行级联,实现了特征融合;首先全视角生成网络对输入的X射线体正位投影图像使用残差模块提取特征,然后将其送入编解码器进行编码,在解码时采用特征跳跃级联结构实现特征融合最终生成全视角投影图像;步骤3、训练全视角生成网络使用X射线体正位投影图像作为输入,对应的全视角投影作为监督,使用一致性损失函数作为优化目标,使用梯度下降算法进行深度学习,对所搭建的全视角生成网络进行训练;采用一致性损失函数L1范数进行训练: pf为1°间隔360°全视角投影真值,为网络预测的全视角投影;使用Adam优化器对神经网络进行梯度下降迭代训练,完成训练后在测试集上计算生成投影与真值间的误差,验证全视角生成网络的有效性;步骤4、生成预测的粗CT体积数据使用步骤3所训练的全视角生成网络,输入数据集中的X射线体正位投影图像,获得预测的全视角投影并对其执行FDK算法;FDK算法通过加权滤波反投影步骤获得CT体积数据;步骤5、搭建CT微调网络所述CT微调网络由特征编解码器、残差模块与特征跳跃级联结构组成,其结构如步骤2所述;首先CT微调网络对输入的粗CT体积使用残差模块提取特征,然后将其送入编解码器进行编码,在解码时采用特征跳跃级联结构实现特征融合实现对粗CT体积的微调,去除粗CT体积中存在的伪影,输出更为精确的CT体积;步骤6、训练CT微调网络使用步骤4所得的反投影粗CT体积作为输入,CT体积真值作为监督,使用一致性损失函数作为优化目标,使用梯度下降算法进行深度学习,对所搭建的CT微调网络进行训练,完成对粗CT体积的微调,最终生成清晰无伪影的CT体积重建图像;采用L1范数对CT微调网络进行训练: 为CT微调网络预测的CT体积,Vct为CT体积真值;经过深度学习,CT微调网络能够完成对粗CT体积的微调,生成了无伪影的CT体积结果,将测试集的粗CT体积送入CT微调神经网络,验证微调网络的有效性。
全文数据:
权利要求:
百度查询: 大连理工大学 集成FDK和深度学习的单视角CT重建方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。