Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜广东工业大学邵长城获国家专利权

恭喜广东工业大学邵长城获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜广东工业大学申请的专利一种用于分布式深度学习的增量迭代方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115509512B

龙图腾网通过国家知识产权局官网在2025-05-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211210718.4,技术领域涉及:G06F8/35;该发明授权一种用于分布式深度学习的增量迭代方法是由邵长城设计研发完成,并于2022-09-30向国家知识产权局提交的专利申请。

一种用于分布式深度学习的增量迭代方法在说明书摘要公布了:本发明涉及到数据处理领域,提出了一种用于分布式深度学习的增量迭代方法,步骤包括:步骤1:构造DAG;步骤2:过滤RDD数据集;步骤3:将过滤后的RDD数据集转换为GPU可以处理的数据类型,存入GPU全局显存中;步骤4进行迭代计算;步骤5:进行增量迭代计算。在本发明中,打破了传统数据处理方法不能有效利用异构多样的内存,以及对增量数据的数据处理效率慢的问题,提出一种用于分布式深度学习的增量迭代方法,有效利用GPU中的多级存储结构进行增量迭代学习,提升了深度学习数据处理效率。

本发明授权一种用于分布式深度学习的增量迭代方法在权利要求书中公布了:1.一种用于分布式深度学习的增量迭代方法,其特征在于,包括以下步骤:S1、构造DAG;S1.1、输入样本数据,遍历所有RDD函数操作,获取所有输入RDD、依赖关系、输出RDD构成的三元组t:t=Rh⊕r⊕Rt其中Rh是输入RDDID,r是依赖关系,Rt是输出RDDID;同时,将无法构成三元组关系的RDD丢弃;S1.2、读取所有三元组t,构建DAG;S2、过滤RDD数据集;S2.1、判断当前内存的存储量是否达到阈值,如达到,则继续一下步骤;S2.2、计算RDD权重;该过程的公式定义如下: ;其中,w表示RDD分区的权重值,表示该RDD的计算代价,表示该RDD的使用次数,表示该分区的大小,表示该RDD的生命周期,表示计算该RDD输入RDD的位置;是常数,分别是的权重值,权重值的选取由用户的具体任务Task需求决定;S3、将过滤后的RDD数据集转换为GPU处理的数据类型,存入GPU全局显存中;S4、进行迭代计算;S4.1、在全局显存中为每个线程块分配一个自己的数据集放在共享内存中;S4.2、线程块中的每个线程依次读取全局显存中的待计算数据,并进行迭代计算;S4.3、以步骤S4.2迭代计算后的数据集对共享内存中存储的数据集进行更新;S4.4、当共享内存达到一定阈值时,将每次迭代中本地访问频率低的数据转存至全局显存中;S5、进行增量迭代计算;S5.1、当数据集发生增量变化时,即由于流数据动态变化而产生新的迭代数据时,共享内存从全局显存中读取增量数据;S5.2、进行增量迭代计算,得到增量迭代计算后的数据集;其中,增量迭代为根据增量数据和原始迭代结果获得新的迭代结果的迭代方法,所述增量数据为由于业务增长而产生的新的迭代数据;S5.3、以上述步骤S5.2增量迭代计算后的数据集对共享内存中的数据集进行更新;其中,将判断为收敛的数据存在全局内存中,后续迭代继续用,不进行更新,以达到增量控制的目的;S5.4、当共享内存到达一定阈值后,将不被频繁访问的数据移到全局显存。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人广东工业大学,其通讯地址为:510000 广东省广州市东风东路72号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。