华南师范大学刘云刚获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南师范大学申请的专利基于机器阅读理解的小样本多标签文本分类方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120123506B 。
龙图腾网通过国家知识产权局官网在2025-12-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510124764.X,技术领域涉及:G06F16/35;该发明授权基于机器阅读理解的小样本多标签文本分类方法是由刘云刚;彭家浩;黄燕;谭章智设计研发完成,并于2025-01-26向国家知识产权局提交的专利申请。
本基于机器阅读理解的小样本多标签文本分类方法在说明书摘要公布了:本发明涉及多标签文本分类技术领域,且公开了一种基于机器阅读理解的小样本多标签文本分类方法,包括以下步骤:首先,对多标签文本数据集进行预处理,统一格式并标注标签。接着,基于标签设计辅助问题并与文本实例结合,形成输入数据。使用RoBERTa模型作为联合编码器主干,学习文本与问题的语义相关性,并构建表征标签关系的标签图。通过特征融合,训练模型以最小化损失函数,并使用验证集进行超参数调优。最终,在测试集上评估模型性能,并与传统方法对比,验证其优势和组件贡献。通过将多标签文本分类向机器阅读理解的任务转化,有助于更好地捕捉文本与标签之间的语义相关性,显著提高了多标签文本分类的准确性。
本发明授权基于机器阅读理解的小样本多标签文本分类方法在权利要求书中公布了:1.一种基于机器阅读理解的小样本多标签文本分类方法,其特征在于,包括以下步骤: 步骤一、数据预处理:将标准MLTC数据集表示为S,对S中样本进行数据预处理,清洗数据以统一文本格式;创建标签名称集合yname,用于后续辅助问题的构建; 步骤二、构建辅助问题-文本实例联合编码器:设计伪问题、完整问题和专家问题三种类型的辅助问题Qj,并为每个标签生成对应的辅助问题Qj,将生成的辅助问题Qj与原始文本实例结合起来,形成新的增广输入数据; 选择类BERT预训练语言模型作为联合编码器的主干,构建联合编码器,将文本实例Xi和辅助问题Qj作为输入,使用类BERT预训练语言模型聚合输入句子对的语义特征,利用标注好的数据集训练模型,通过学习文本实例与辅助问题间的语义相关性来构建特定于标签的文本表示,引入早停机制,以防止过拟合; 步骤三、构建表征标签间关系的标签图:基于多头图注意力Multi-HeadGAT神经网络建立表征标签关系的标签图生成用于与联合编码器输出相关语义特征Hs相融合的相关性标签特征以建立同一文本实例各标签预测间的标签关联; 步骤四、特征融合:从联合编码器中提取文本实例的表示特征和标签关系的表示特征,将联合编码器输出的文本实例相关语义特征Hs与相关性标签关系表示特征Hgat进行融合; 步骤五、训练模型:使用训练集数据对模型进行训练,调整模型参数以最小化模型训练损失,使用验证集数据对模型进行验证,并根据性能指标进行超参数调优; 步骤六、实验分析:在测试集上评估模型的性能,使用Micro-F1、Macro-F1或HammingLoss指标,将基于机器阅读理解的小样本多标签文本分类方法与传统的机器学习方法及当前任务中现有最先进的深度学习方法进行对比,分析性能差异和优势,通过消融实验分析各个组件对模型性能的贡献,此外,探讨了所提出方法在小样本和标签数据不均衡场景下的有效性。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南师范大学,其通讯地址为:510630 广东省广州市中山大道西55号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励