中国电子科技集团公司第十五研究所李子园获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国电子科技集团公司第十五研究所申请的专利基于反馈强化学习的单元测试用例生成大模型微调方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120407426B 。
龙图腾网通过国家知识产权局官网在2025-09-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510913668.3,技术领域涉及:G06F11/3668;该发明授权基于反馈强化学习的单元测试用例生成大模型微调方法是由李子园;王志;崔灿;秦煜林;党琛颢设计研发完成,并于2025-07-03向国家知识产权局提交的专利申请。
本基于反馈强化学习的单元测试用例生成大模型微调方法在说明书摘要公布了:本发明涉及软件测试技术领域,公开了基于反馈强化学习的单元测试用例生成大模型微调方法,包括:构建基于需求驱动的单元测试微调数据集;构建Actor模型,并通过需求驱动的单元测试微调数据集进行优化;构建Critic模型,并通过需求驱动的单元测试微调数据集进行优化;基于优化后的Actor模型生成单元测试用例,基于优化后的Critic模型将单元测试用例映射为单一即时奖励,通过强化学习得到基于单元测试用例生成的大模型。本发明构建了一个能够自动生成高质量、需求对齐、风格一致的单元测试用例生成方法,显著提升了测试效率与质量,打破了传统测试生成在人工依赖、覆盖深度和需求一致性上的瓶颈。
本发明授权基于反馈强化学习的单元测试用例生成大模型微调方法在权利要求书中公布了:1.基于反馈强化学习的单元测试用例生成大模型微调方法,其特征在于,包括: 构建基于需求驱动的单元测试微调数据集; 构建Actor模型,并通过需求驱动的单元测试微调数据集进行优化; 构建Critic模型,并通过需求驱动的单元测试微调数据集进行优化; 基于优化后的Actor模型生成单元测试用例,基于优化后的Critic模型将单元测试用例映射为单一即时奖励,通过强化学习得到基于单元测试用例生成的大模型,包括: 将Prompt作为初始状态,并通过优化后的Actor模型自回归生成单元测试用例; 将单元测试用例输入至优化后的Critic模型,对完整测试用例中每个token进行打分,并融合为单一即时奖励: rT=αRA+βRB+γRC其中,RA,RB,RC为三路得分,rT为单一即时奖励,α、β、γ表示权重系数; 基于单一即时奖励计算折扣累计回报: 其中,Qt为折扣累计回报,t指当前时间步或token位置,1≤t≤T,T指一次完整生成过程的终止时间步,rk是指在时间步k获得的单一即时奖励,γ表示折扣因子; 基于折扣累计回报计算优势函数: δt=Qt‑VψSt其中,VψSt是优化后的Critic模型对状态St的标量估计,δt是优势函数; 基于优势函数指导参数更新,并通过PPO对优化后的Actor模型做策略更新,使用A2C对优化后的Critic模型做价值估计更新,同时加入KL惩罚约束策略,迭代上述过程直到目标指标收敛,得到基于单元测试用例生成的大模型; 基于单元测试用例生成的大模型联合损失函数为: 其中,表示联合损失函数,表示Policy损失,表示价值损失,表示KL惩罚约束,λv表示的权重,λKL表示的权重; 其中,πθat|st表示本轮迭代在状态St产生动作at的概率,πθoldat|st表示上一轮迭代中在状态St产生动作at的概率,rtθ代表重要性采样比,δt代表优势函数,ε代表clip宽度,限制策略漂移,cliprtθ,1‑ε,1+ε表示将重要性采样比截断在区间1‑ε,1+ε中,Et表示对时间步t上按当前策略采样得到的一批st,at进行平均; 其中,Vψ代表优化后的Critic模型当前的预测值,代表上次迭代的预测值,Qt代表折扣累计回报,clip表示截断函数; 其中,πref表示ReferenceModel,β表示权重系数,DKL表示度量两分布距离的非对称指标。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国电子科技集团公司第十五研究所,其通讯地址为:100083 北京市海淀区北四环中路211号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励