Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

应用于分布式训练的自适应模型分区方法及系统 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

摘要:本发明公开了应用于分布式训练的自适应模型分区方法及系统,属于深度学习技术领域,要解决的技术问题为对于分布式训练、如何结合深度强化学习和贝叶斯优化算法实现模型的分布式训练。包括如下步骤:基于深度神经网络构建Q网络,定义状态信息、动作以及奖励函数,状态信息包括切片模型的特征向量以及通过分布式计算节点对切片模型进行分布式训练时的训练时间、资源利用率以及节点间通信开销,动作为智能体在当前状态信息下采取的分片策略,奖励函数R用于评估当前分片策略的效果,Q网络以状态信息为输入、预测输出智能体可能采取的每个动作的Q值;对深度强化自适应模型进行多次迭代训练,得到最终的分片策略以及Q网络的参数。

主权项:1.一种应用于分布式训练的自适应模型分区方法,其特征在于,基于深度强化学习选择分布式训练模型的分片策略,将基于分片策略获得多个切片模型并行应用于分布式计算节点进行模型训练,所述方法包括如下步骤:特征提取:对于具有K层的分布式训练模型,定义特征类型,并通过独热编码方式对各种类型特征进行编码,得到每层的特征向量;构建深度强化自适应模型:基于深度神经网络构建Q网络,定义状态信息、动作以及奖励函数,状态信息包括切片模型的特征向量以及通过分布式计算节点对切片模型进行分布式训练时的训练时间、资源利用率以及节点间通信开销,动作为智能体在当前状态信息下采取的分片策略,奖励函数R用于评估当前分片策略的效果,Q网络以状态信息为输入、预测输出智能体可能采取的每个动作的Q值;模型及参数初始化:初始化Q网络的参数和经验回放池,并初始化分片策略X0,将基于分片策略X0获得的切片模型并行应用于分布式计算节点,每个计算节点基于本地训练集对分配的切片模型进行分布式模型训练,并获取初次分布式模型训练对应的训练时间t0、资源利用率e0以及节点间通信开销c0,得到初始状态信息s0;迭代训练计算:对深度强化自适应模型进行多次迭代训练,得到最终的分片策略以及Q网络的参数,迭代训练时,根据当前状态信息、通过Q网络输出每个可能动作的Q值,智能体基于∈-贪婪策略选择最大Q值对应的动作执行,得到下一刻状态和当前动作的奖励值,将当前状态信息、当前状态对应的动作以及动作的奖励值、以及下一刻的动作作为先验知识返回经验池,从经验池中抽取先验知识进行训练、更新Q网络的参数,直到智能体收敛到最优的分片策略。

全文数据:

权利要求:

百度查询: 山东浪潮科学研究院有限公司 应用于分布式训练的自适应模型分区方法及系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。