Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 河南师范大学刘尚旺获国家专利权

河南师范大学刘尚旺获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉河南师范大学申请的专利基于自适应对抗生成网络的PET-MRI图像融合方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115457359B

龙图腾网通过国家知识产权局官网在2025-11-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211094448.5,技术领域涉及:G06V10/80;该发明授权基于自适应对抗生成网络的PET-MRI图像融合方法是由刘尚旺;杨荔涵;刘国奇;申华磊;张新明;张非;李文凤设计研发完成,并于2022-09-08向国家知识产权局提交的专利申请。

基于自适应对抗生成网络的PET-MRI图像融合方法在说明书摘要公布了:本发明通过构造自适应的残差密集生成对抗网络并结合基于YCbCr的颜色空间方法,提出了一种基于自适应对抗生成网络的PET‑MRI图像融合方法,该方法主要采用区域残差学习模块与输出级联加深生成网络,避免特征丢失,并通过自适应判决块动态引导生成器产生与源图像分布相同的融合图像,在融合图像梯度图与输入图像联合梯度图之间进行对抗性博弈来高效训练生成器与鉴别器,从而得到细节丰富且纹理清晰的融合图像;该方法具端对端和无监督两特性,无需人工干预,也不需要真实数据作为标签,可在不引入传统框架的情况下融合不同分辨率的图像;在哈佛医学院MRIPET数据集的测试中峰值信噪比和结构相似度分别达到55.2124和0.4697,均优于目前最先进的算法,更有助于临床应用诊断。

本发明授权基于自适应对抗生成网络的PET-MRI图像融合方法在权利要求书中公布了:1.一种基于自适应对抗生成网络的PET-MRI图像融合方法,其特征在于,包括如下步骤: a、将PET图像从RGB空间映射至YCbCr空间并提取Y分量;变换方程如式1所示,逆变换方程如式2所示: 1 2 b、将PET图像Y分量与MRI图像输入生成器;所述生成器是一个双分支融合网络,其输入分别为PET图像的Y分量与MRI灰度图像;所述双分支融合网络框架分别使用一组3×3卷积层进行特征提取;随后加深网络进行特征处理;最终再使用一组1×1卷积层进行重构;加深网络进行特征处理过程中采用了区域残差学习模块LRLP,该模块在不同的网络分支先通过c次不同的卷积得到不同的图像特征,然后将卷积后的特征进行权重拼接,最后使用ELU进行激活,所述过程如式3所示: 3 其中,Fc为第c个卷积层的输出;Hconcat代表了特征图的拼接函数;W是一组代表了拼接时各卷积层权重的联合函数;Hactive表示对拼接后的数据进行ELU激活;在LRLP块中,前面每一层的输出都作为下一层的输入;第一卷积层通过式4提取浅特征: 4 其中,Hconv表示浅特征提取层中卷积核为5×5的卷积运算,随后将提取出的浅特征送入下一层中,第二层输出通过式5得到: 5 其中,HLRLP是LRLP层运算的复合函数;在随后的卷积层中,输入都是之前所有层以及LRLP模块的输出级联;同时,在两条路径之间也设置了参数共享;第三层输出,如式6所示: 6 其中,HRL代表残差连接;λ为残差融合时的权重;第四层与第三层同理,第四层的输入基于前三层的输出级联,第四层输出,如式7所示: 7 随后输出的各层特征被拼接并使用3×3卷积融合特征,输出公式如式8所示: 8 其中,Hconcat代表特征图拼接运算,提取模块最后一层被设置为特征图拼接后加入1×1的卷积,W为融合提取模块前四层的权重矩阵;之后两条路径的输出Fext,1,Fext,2进入融合模块,经过融合运算后,得到融合图像,如式9所示: 9 其中,Hfuse代表融合模块的复合运算; c、使用拉普拉斯算子分别提取步骤b得到的融合图像、步骤a中真实输入的PET图像Y分量和MRI的梯度图,将提取到的PET图像Y分量和MRI的梯度图经过决策块处理,决策块处理结果如式10所示; 10 其中,abs表示绝对值函数;maximum代表了最大化函数,决策块处理过程包括:输入PET_y分量Y和MRI图像M,通过拉普拉斯算子提取其拉普拉斯梯度图,然后逐像素比较像素值大小取两图各像素中像素值大的作为融合后的梯度像素,最终计算得到联合梯度图; d、将步骤c提取到的融合图像的梯度图和计算得到的联合梯度图输入鉴别器并使真实输入标签概率为0.7-1.2,生成结果输入标签概率为0-0.3;所述鉴别器由四个卷积层与一个线性层组成,卷积层的卷积核大小均设置为3×3,步长设置为4,使用ELU作为激活函数,最后一层是线性层,用来计算概率,从而判断生成数据的真假; e、基于对抗生成策略训练生成网络和判别网络,鉴别器会将联合梯度图定义为真实数据,与被定义为伪数据的融合图像的梯度图进行持续性的对抗学习,GAN的目标函数定义如式11所示: 11 生成器的损失函数如式12所示: 12 其中,是来自生成器-鉴别器网络的对抗性损失;是利用筛选图优化的像素级欧几里得损失;表示基于梯度图的纹理损失;和分别是像素级损失和纹理损失的权重,用来保证三种损失函数重要性相同; 13 其中,M是训练期间一个batch的图像数量;c是鉴别器鉴定真假图像的改率标签;▽表示使用拉普拉斯算子来进行梯度图的计算;M,Y表示输入的MRI图像与PET图像Y通道; 14 其中,h,w表示第h行第w列的像素值;H,W分别是图像的高度与宽度;Map1,Map2代表了判决块基于两个输入图像所产生的筛选图; 15 鉴别器的损失函数为式16所示: 16 其中,a为“假数据”的标签,设置为0-0.3;“假数据”是融合图像的梯度图,公式化为式17: 17 b为“真数据”的标签,设置为0.7-1.2;“真数据”来自MRI与PET_y通过决策块构造的联合梯度图,公式化为式10; f、采用Adam优化器进行优化; g、得到训练后的对抗生成网络模型; h、使用网络模型预测。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人河南师范大学,其通讯地址为:453007 河南省新乡市建设东路46号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。