恭喜山东科技大学曾庆田获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜山东科技大学申请的专利一种基于双分支混合模型的医学图像分割方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118864867B 。
龙图腾网通过国家知识产权局官网在2025-04-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411347828.4,技术领域涉及:G06V10/26;该发明授权一种基于双分支混合模型的医学图像分割方法是由曾庆田;马鸿霄;宋戈;滕露;曲祥雯;张铭洋;耿新利;邵秋霞设计研发完成,并于2024-09-26向国家知识产权局提交的专利申请。
本一种基于双分支混合模型的医学图像分割方法在说明书摘要公布了:本发明公开了一种基于双分支混合模型的医学图像分割方法,属于医学图像分割领域,包括如下步骤:步骤1、从公开网站上获取现有数据集,将现有数据集预处理成npz格式文件,并将npz格式文件按比例划分为训练集和测试集;步骤2、构建双分支混合模型;双分支混合模型包括编码器、双分支交叉融合模块、解码器;步骤3、采用训练集对模型进行训练,采用测试集对模型进行测试;步骤4、获取当前待分割图像,基于训练完成的双分支混合模型进行图像分割。本发明实现了医学图像的高精度分割。
本发明授权一种基于双分支混合模型的医学图像分割方法在权利要求书中公布了:1.一种基于双分支混合模型的医学图像分割方法,其特征在于,包括如下步骤:步骤1、从公开网站上获取现有数据集,将现有数据集预处理成npz格式文件,并将npz格式文件按比例划分为训练集和测试集;步骤2、构建双分支混合模型;双分支混合模型包括编码器、双分支交叉融合模块、解码器;具体过程为:步骤2.1、构建由卷积神经网络分支和多注意力Transformer分支构成的编码器;卷积神经网络分支包括三个层级的卷积模块;多注意力Transformer分支包括三个层级的多注意力Transformer模块;卷积模块的输出通过跳跃连接输入到多注意力Transformer模块;具体过程为:步骤2.1.1、搭建卷积神经网络分支;根据现有的卷积神经网络模型,选择ResNet50作为卷积神经网络模型的主干;三个层级的卷积模块分支均由RestNet50的各阶段组成;步骤2.1.2、搭建跳跃连接结构;跳跃连接结构包括依次连接的1×1卷积、3×3深度卷积层、SE注意力机制、1×1卷积;卷积模块的输出依次通过1×1卷积、3×3深度卷积层、SE注意力机制、1×1卷积后,输入多注意力Transformer模块;步骤2.1.3、在SwinTransformer模块的基础上引入交叉协方差注意力机制和外部注意力机制,构建多注意力Transformer模块;将多层级的多注意力Transformer模块作为Transformer分支;每个多注意力Transformer模块包含两个级联在一起的子模块,两个子模块分别为第一子模块、第二子模块;构建三个层级的多注意力Transformer模块时,每个层级分别含有2、2、6个多注意力Transformer模块,并且每个层级之间通过补丁合并层连接作为Transformer分支;第一子模块与第二子模块具有相同的归一化层和多层感知机层,第一子模块的输出为第二子模块的输入;步骤2.2、构建双分支交叉融合模块用于融合两个分支不同分辨率的图像;双分支交叉融合模块的工作过程为:将xlarge和xsmall作为输入,先分别融合一个类令牌,然后分别进行位置编码,再然后分别经线性投影及多个ViT模块处理后得到两个分支的输出,将两个分支的输出结果通过交叉注意力机制进行信息融合,最后通过卷积前反馈神经网络模块代替传统的前反馈神经网络来聚合信息,最后对应得到两个不同分辨率的特征图,分辨率分别是H4,W4和H16,W16;步骤2.3、构建由保持卷积层、第一上采样卷积层、第二上采样卷积层和分割头组成的解码器;步骤3、采用训练集对模型进行训练,采用测试集对模型进行测试;步骤4、获取当前待分割图像,基于训练完成的双分支混合模型进行图像分割。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人山东科技大学,其通讯地址为:266590 山东省青岛市黄岛区前湾港路579号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。