北京邮电大学徐梦炜获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京邮电大学申请的专利面向自然语言模型的联邦小样本学习方法、系统及设备获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116127018B 。
龙图腾网通过国家知识产权局官网在2026-01-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310208694.7,技术领域涉及:G06F16/334;该发明授权面向自然语言模型的联邦小样本学习方法、系统及设备是由徐梦炜;蔡栋琪;周傲;马骁;王尚广设计研发完成,并于2023-03-07向国家知识产权局提交的专利申请。
本面向自然语言模型的联邦小样本学习方法、系统及设备在说明书摘要公布了:本申请实施例公开了一种面向自然语言模型的联邦小样本学习方法、系统及设备,在对自然语言模型进行微调时,由云端服务器控制多个端侧设备,采用渐进式数据增强协同方式进行,即采用基于伪标签方式及提示学习方式进行融合的联邦小样本学习方式与联邦学习方式协同进行,且在微调过程中不断更新最优的增强策略,从而使得各个端侧设备采用的训练数据包含少量的有标签的样本就可以微调得到精确率高的自然语言模型。因此,本申请实施例可以采用少量的有标签的训练数据微调一个精确率高的自然语言模型,提高微调后的自然语言模型的精确率。
本发明授权面向自然语言模型的联邦小样本学习方法、系统及设备在权利要求书中公布了:1.一种面向自然语言模型的联邦小样本学习方法,其特征在于,所述方法包括: a、云端服务器选择一增强策略; b、云端服务器基于所述增强策略,将自然语言模型发送给两个端侧设备集群,以使所述两个端侧设备集群分别采用联邦学习方式及采用预设的联邦小样本学习方式,对所述自然语言模型进行当前迭代轮的协同微调,得到下一迭代轮的所述自然语言模型; c、云端服务器基于所述增强策略,将所述下一迭代轮的所述自然语言模型作为当前迭代轮的所述自然语言模型,发送给所述两个端侧设备集群,以使所述两个端侧设备集群分别采用联邦学习方式及采用预设的联邦小样本学习方式,对所述当前迭代轮的所述自然语言模型进行协同微调,得到下一迭代轮的所述自然语言模型; d、云端服务器确定经过所述协同微调的迭代轮数量是否小于设定的迭代轮阈值,如果是,返回步骤c执行,如果否,执行步骤e; e、云端服务器计算所述下一迭代轮的所述自然语言模型的目标结果精确率是否小于预设的精确率阈值,如果是,将所述下一迭代轮的所述自然语言模型作为微调后的所述自然语言模型,如果否,返回步骤a继续执行。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励