Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 安徽理工大学苏树智获国家专利权

安徽理工大学苏树智获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉安徽理工大学申请的专利多尺度并行双通道的尘肺病病变分级识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119785085B

龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411837577.8,技术领域涉及:G06V10/764;该发明授权多尺度并行双通道的尘肺病病变分级识别方法是由苏树智;赵晨琦;于泽宽;戴勇;朱彦敏设计研发完成,并于2024-12-13向国家知识产权局提交的专利申请。

多尺度并行双通道的尘肺病病变分级识别方法在说明书摘要公布了:本发明公开了一种多尺度并行双通道的尘肺病病变分级识别方法,具体实现过程为:对于采集到的原始X射线尘肺病图像数据进行分期标记;利用多尺度注意力机制进行特征分组和并行卷积操作,以增强模型感受野并生成相应的注意力权重图;利用并行卷积提取到的特征图,进而结合残差结构的细节编码器来捕获细节性纹理特征信息;为了进一步掌握特征图中的隐形特征,构建并行双通道网络模块,从而有效嵌入隐式局部和全局信息,协同捕捉高频分量中的像素级语义信息;最后利用迁移学习和多尺度卷积将特征图中的不同通道信息进行融合,并分别输入到细节编码器和Transformer层堆栈中,对尘肺病的病变分级进行识别。实验结果表明,本方法具有更高的识别度。

本发明授权多尺度并行双通道的尘肺病病变分级识别方法在权利要求书中公布了:1.多尺度并行双通道的尘肺病病变分级识别方法,包括如下步骤: 1利用多尺度注意力机制进行特征分组和构造注意力权重图,包括如下步骤: 1a利用并行卷积操作进行特征分组 将不同通道设计为批量维度,进行1×1、3×3的并行卷积操作,并且将通道维度进行分组分为多个子特征,对于给定的输入特征映射X∈RC×H×W,将特征图在通道维度上划分为G个子特征,组内样式为X=[X0,Xi,...,XG-1],Xi=RCG×H×W,其中,C为特征图通道数,H为特征图的高,W为特征图的宽; 1b利用2D全局平均池化构造注意力权重图 将全局空间信息编码在1×1分支的输出中,而最小分支的输出将在通道特征联合激活机制前,直接被转换为所需的维度形状,即通过并行路径的卷积输出与矩阵点积运算相乘,便得到了权重注意力图;2D全局平均池化综合公式如下: 其中,Zc为特征注意力权重图,H为特征图的高,W为特征图的宽; 2引入细节编码器捕获图像细节性纹理特征信息,包括如下步骤: 利用逆神经网络构建残差纹理编码器,以提取尘肺病的专有特征,确保每个类别的独特特征得到保留,同时又能捕捉到多个类别间的共性纹理特征;这种机制不仅增强了模型对病灶特征的表达能力,而且提高了识别结果的可靠性和泛化性,将给定输入的特征表示为I∈RH×W和V∈R3×H×W,该编码器提取的特征表示的综合公式表达为: 其中,ED·表示细节编码器,Y为纹理热力图,S为共享编码,H为特征图的高,W为特征图的宽; 3使用Transformer层堆栈实现全局与局部特征信息的融合并引入迁移学习,包括如下步骤: 3a对于给定的输入变量X∈RC×H×W,首先应用一个n×n的标准卷积层编码局部空间信息,随后使用逐点卷积层以生成输出变量X∈RH×W×d;为了能够充分捕获包含空间归纳偏差的全局特征信息,将输入X分解为N个不重叠的平面块XU∈RP×N×d,P是面片的个数,H≤N和W≤N分别是平面块的高度和宽度;对于每个面片p∈{1,...,P},通过应用Transformer层堆栈对面片间的关系进行编码,1展开,2矩阵乘法以学习局部表示,3折叠回输出形式进行分类,以获得融合特征表示XG∈Rd×P×N: XGP=TransformerXUp,1≤p≤P; 3b利用常见肺部疾病数据集在该模型上进行测试训练,并保存最优结果的模型权重系数,根据迁移学习的特点进行权重微调迁移到尘肺病等级划分的数据集上进行尘肺病病变级别的识别。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人安徽理工大学,其通讯地址为:232000 安徽省淮南市泰丰大街168号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。