首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

模型和样本存储资源联合优化的持续进化学习方法与系统 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:西北工业大学

摘要:本发明公开了模型和样本存储资源联合优化的持续进化学习方法与系统,涉及图像持续识别技术领域,包括如下步骤:采集若干连续图像构建样本数据集;对模型可学习参数的更新;对模型可学习参数的掩码梯度的更新;样本学习权重的更新并保存样本。本发明经过可学习参数微调快速将模型适应于下游任务,通过可学习参数掩码的更新动态调整模型参数,通过样本权重的更新动态调整各个样本对模型的贡献度,用双层优化将这三部分的更新统领在一起,使得各个部分的更新更加合理,同时实现了动态平衡模型内存空间和保存样本所需的内存空间,打破以往单一考虑模型内存空间优化或样本内存空间优化的局限,能更进一步提高内存空间的利用率。

主权项:1.模型和样本存储资源联合优化的持续进化学习方法,其特征在于,包括以下步骤:采集若干连续图像构建图像的样本数据集;将所述样本数据集中的第一批次图像输入神经网络模型中,通过打开神经网络模型的可学习参数的梯度,并关闭掩码梯度和样本权重梯度,计算神经网络模型的加权损失,并通过加权损失反传更新可学习参数的梯度;将所述样本数据集中的第二批次图像输入神经网络模型中,通过打开神经网络模型的可学习参数的梯度、掩码梯度和样本权重梯度,计算神经网络模型的不加权损失,并通过不加权损失反传保存所有参数的梯度;在计算加权损失和不加权损失时选择关闭可学习参数的梯度,打开掩码梯度和样本权重梯度,更新加权损失和不加权损失,并通过更新后的加权损失和不加权损失分别反传并保存各自的神经网络模型反传梯度;通过计算所述所有参数的梯度与更新后的加权损失反传并保存的神经网络模型反传梯度间的哈达玛乘积,更新神经网络模型可学习参数的掩码梯度;将更新不加权损失后反传获得的神经网络模型反传梯度进行点乘,更新神经网络模型最终的样本权重梯度;通过更新后的掩码梯度获得掩码变化量,通过掩码变化量计算需保存的样本数量,并根据最终的样本权重梯度和样本至类中心的距离挑选出样本进行存储;所述通过更新后的加权损失和不加权损失分别反传并保存各自的神经网络模型反传梯度,其中更新后的加权损失具体表达式为: 其中,是打开神经网络模型的掩码和样本权重的加权损失,yj是第j个样本的真实标签对应的独热向量中,真实标签对应的下标,表示模型把第j个样本预测得分进行softmax函数处理后,真实类别上对应的概率,wj是简单记号,实际采用的是样本权重的绝对值经过Sigmoid函数激活后的值,即Sigmoidabswj,Nin为第一批次图像数据的数量;将第二批次图像输入神经网络模型中,关闭神经网络模型的可学习参数的梯度,打开神经网络模型可学习参数的掩码和样本权重的梯度,计算不加权损失。

全文数据:

权利要求:

百度查询: 西北工业大学 模型和样本存储资源联合优化的持续进化学习方法与系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。