CN114756385A - 一种深度学习场景下的弹性分布式训练方法 - Google Patents

一种深度学习场景下的弹性分布式训练方法 Download PDF

Info

Publication number
CN114756385A
CN114756385A CN202210677057.XA CN202210677057A CN114756385A CN 114756385 A CN114756385 A CN 114756385A CN 202210677057 A CN202210677057 A CN 202210677057A CN 114756385 A CN114756385 A CN 114756385A
Authority
CN
China
Prior art keywords
elastic
training
copies
node
distributed training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210677057.XA
Other languages
English (en)
Other versions
CN114756385B (zh
Inventor
王景祥
朱建
常峰
肖玉
汪守法
刘海峰
王子磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Zhongke Leinao Intelligent Technology Co ltd
Original Assignee
Hefei Zhongke Leinao Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Zhongke Leinao Intelligent Technology Co ltd filed Critical Hefei Zhongke Leinao Intelligent Technology Co ltd
Priority to CN202210677057.XA priority Critical patent/CN114756385B/zh
Publication of CN114756385A publication Critical patent/CN114756385A/zh
Application granted granted Critical
Publication of CN114756385B publication Critical patent/CN114756385B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17306Intercommunication techniques
    • G06F15/17318Parallel communications techniques, e.g. gather, scatter, reduce, roadcast, multicast, all to all
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17356Indirect interconnection networks
    • G06F15/17368Indirect interconnection networks non hierarchical topologies
    • G06F15/17375One dimensional, e.g. linear array, ring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5021Priority
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/508Monitor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种深度学习场景下的弹性分布式训练方法,属于分布式训练技术领域。本发明当集群资源空闲较多时,使用弹性分布式训练相比使用传统的分布式训练作业,任务的等待时间会被大幅的缩短,整体的训练时间也会有效的减少,而训练的模型精度基本不会产生损失,整体产生的训练费用也会比传统任务更少;当集群资源空闲很少时,使用弹性分布式训练会释放出部分资源,保证最小资源,从而可以容纳更多的作业,而弹性分布式作业的训练不会被中断;从而使得集群整体的资源利用率会有所提高。

Description

一种深度学习场景下的弹性分布式训练方法
技术领域
本发明涉及分布式训练技术领域,具体涉及一种深度学习场景下的弹性分布式训练方法。
背景技术
深度学***台支持分布式训练模式,即使用多台设备,每台设备上可以设置多个GPU(图形处理器,Graphics Processing Unit),深度学习模型在各台设备中的GPU上并行化地进行训练。
现有的分布式训练方案多采用Parameter Server(参数服务器和节点组成的树形通信拓扑)和Ring All-Reduce(所有节点对等组成的环形通信拓扑)两种拓扑结构,Parameter Server方案中存在一个参数服务器负责每个节点的参数收集和平均值计算,然后再下发给每个节点,当参数服务器启动失败或异常退出都会使得训练过程中断,而且参数服务器的通信量受节点的数量增加而增加,所以Parameter Server不适合大规模的分布式训练作业;而Ring All-Reduce方案由于采用Ring Allreduce算法,可以有效的减少每个节点通信量,每个节点的通信量不会随着参数节点的增加而增加,可以实现接近线性的加速比,成为目前主流的分布式训练方案,但是该方案由于采用环状的通信方式,任意节点的退出都会使得训练过程中断,需要通过重启训练任务来解决。
TensorFlow(一种深度学习框架)集群中的节点被分为两类:参数服务器(parameter server)和工作服务器(worker)。参数服务器存放模型的参数,而工作服务器负责计算参数的梯度,给工作服务器配置GPU。在每个迭代过程,工作服务器从参数服务器中获得参数,然后将计算的梯度返回给参数服务器,参数服务器聚合从工作服务器传回的梯度,然后更新参数,并将新的参数广播给工作服务器。
Pytorch(一种深度学习框架)集群中的节点只有一类:节点(worker),所有的节点构成一下环形,每一个节点即向环上下一个节点发送数据同时接受环上上一个节点传输的数据。当收到所有节点的数据后在每个节点上即获取到了本轮需要更新的参数。
现有的弹性分布式训练方式主要针对tensorflow深度学习框架进行适配,主要用于支持Parmeter Server分布式训练模式,不支持RingAllReduce通信拓扑。为此,提出一种深度学习场景下的弹性分布式训练方法。
发明内容
本发明所要解决的技术问题在于:如何解决优化弹性伸缩调度策略,提高集群整体的资源利用率,提供了一种深度学习场景下的弹性分布式训练方法,本发明采用RingAllReduce通信拓扑,有效减少了参数传递量,可以充分利用各个节点的带宽,加速分布式训练过程;以及支持训练节点加入和退出动态感知,自动重建新的训练拓扑。
本发明是通过以下技术方案解决上述技术问题的,本发明包括以下步骤:
步骤S1:弹性分布式训练作业创建
集成深度学***台发送的训练任务对应的参数,创建一个弹性分布式训练作业;
步骤S2:根据弹性分布式训练作业参数创建弹性伸缩作业;
步骤S3:监控集群资源,计算弹性伸缩资源量;
步骤S4:计算弹性伸缩资源占用比例,根据配置的弹性伸缩阈值确定是进行弹性扩张、收缩、维持;
步骤S5:根据弹性伸缩结果下发更新Volcano Job,进而更新弹性分布式训练作业。
更进一步地,在所述步骤S1中,深度学习平台集成过程如下:
S11:构建基于Horovod、Pytorch以及Tensorflow的运行镜像文件;
S12:通过前端传递弹性分布式训练作业的启动参数,启动参数包括弹性分布式训练作业的最小副本数,最大副本数,以及作业依赖的镜像以及启动训练程序的命令行和每个训练节点所需的资源大小;
S13:通过Volcano Job适配Horovod弹性分布式训练作业,Volcano分布式训练作业创建之后,所有节点的域名均被记录到作业域名文件中,该文件以挂载的方式挂载到所有训练节点中,在使用域名通信时,域名则经过Kubernetes的DNS解析服务解析为具体的IP;并且所有节点之间均挂载相同的SSH密钥文件来实现节点之间免密登录;
S14:编写分布式训练作业节点感知程序,该程序通过查询作业域名文件获取所有节点的域名以及通过SSH密钥免密依次登录各个节点查询训练容器挂载的GPU卡数量,生成Horovod所需的弹性分布式训练作业的训练节点配置文件
S15:当有节点加入或退出时,节点内的作业域名文件更新,当作业域名文件更新之后,节点感知工具自动获取当前所有的在线节点,生成新的训练作业节点列表配置文件,节点列表配置文件记录了训练节点域名与训练节点分配的GPU卡数的映射关系。
更进一步地,在所述步骤S1中,训练任务对应的参数包括镜像、最小副本数、最大副本数、启动命令以及每个副本所需的资源,其中,镜像为基于Tensorflow、Pytorch和Horovod构建的镜像;最小副本数为启动该弹性分布式训练作业需要满足的最小副本数,记为n1;最大副本数为该弹性分布式训练作业可以扩张的最大副本数,记为n2,最大副本数应大于等于最小副本数;启动命令为用户需要执行的训练脚本。
更进一步地,在所述步骤S2中,创建的弹性伸缩作业即基于Volcano创建一个VolcanoJob,弹性伸缩作业创建后每个节点均能感知到该任务下所有副本的IP,用于进行分布式训练作业的启动。
更进一步地,所述步骤S3具体包括以下子步骤:
S31:获取集群总资源记为A,统计集群已使用的资源记为a;
S32:通过配置参数获取弹性伸缩资源比例记为p;
S33:通过公式计算出可用于弹性伸缩扩张的资源量为(A-a)*p,记为m。
更进一步地,在所述步骤S4中,弹性伸缩阈值包括弹性伸缩扩张阈值记为et、弹性伸缩收缩阈值记为st、弹性伸缩中间阈值为(et+st)/2,记为mt,统计所有弹性伸缩作业总占用的资源记为eu,计算出当前弹性伸缩资源量中已使用资源占用的比例为eu/m,记为t,比较t与et和st的大小,如果t<et,则进行弹性扩张,如果t>st则进行弹性收缩,如果et≤t≤st则进行弹性维持。
更进一步地,当t<et时,则进行弹性扩张,首先计算可用于弹性扩张资源量为(mt-t)*m,记为em,然后获取所有弹性伸缩作业,任务当前运行中的副本数记为n0,任务单个副本所需的资源记为r1,筛选出当前运行中的副本未达到最大副本数的任务,即n0<n2,筛选出来的任务记为tt,根据任务的优先级、上次弹性扩张的时间和弹性扩张次数进行排序,循环遍历任务,判断条件为em-r1≥0,则将任务的当前运行中的副本数进行加1,即将n0设置为n0+1,循环的结束条件为tt中所有任务都满足n0等于n2,或者em-r1小于0,即判断条件为n0==n2或者em-r1<0。
更进一步地,当t>et时,则进行弹性收缩,首先计算可用于弹性收缩资源量为(t-mt)*m,记为em,然后获取所有弹性伸缩作业,任务当前运行中的副本数记为n0,任务单个副本所需的资源记为r1,筛选出当前运行中的副本大于最小副本数的任务,即n0>n1,筛选出来的任务记为tt,根据任务的优先级、上次弹性收缩的时间和弹性收缩次数进行排序,循环遍历任务,判断条件为em-r1≥0,则将任务的当前运行中的副本数进行减1,即将n0设置为n0-1,循环的结束条件为tt中所有任务都满足n0等于n2,或者em-r1小于0,即判断条件为n0==n1或者em-r1<0。
更进一步地,当et≤t≤st时,则进行弹性维持,不进行任何的操作。
更进一步地,在所述步骤S5中,将所有弹性扩张或收缩的结果进行下发,通过KubernetesApiserver API更新VolcanoJob的副本数,VolcanoJob则尝试启动期望的副本数个数的副本;在弹性伸缩作业动态增加或删除副本时,所有副本均能感知到新加入和退出的副本的IP;当存在故障节点时,弹性分布式训练作业自动剔除离线节点继续训练,Volcano尝试创建一个新的训练节点并启动,由深度学习平台感知到新加入的训练节点。
本发明相比现有技术具有以下优点:该深度学习场景下的弹性分布式训练方法,当集群资源空闲较多时,使用弹性分布式训练相比使用传统的分布式训练作业,任务的等待时间会被大幅的缩短,整体的训练时间也会有效的减少,而训练的模型精度基本不会产生损失,整体产生的训练费用也会比传统任务更少;当集群资源空闲很少时,使用弹性分布式训练会释放出部分资源,保证最小资源,从而可以容纳更多的作业,而弹性分布式作业的训练不会被中断;从而使得集群整体的资源利用率会有所提高。
附图说明
图1是本发明实施例中深度学习场景下的弹性分布式训练方法的流程示意图;
图2是本发明实施例中集群总资源各部分比例示意图;
图3是本发明实施例中弹性伸缩阈值的位置示意图;
图4是本发明实施例中弹性扩张示意图;
图5是本发明实施例中弹性收缩示意图;
图6是本发明实施例中弹性维持示意图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
在本实施例中,首先进行深度学习平台(Horovod)的集成,具体集成过程如下:
1、构建基于Horovod、Pytorch以及Tensorflow的运行镜像文件;
2、通过前端传递弹性分布式训练作业的启动参数,启动参数包括弹性分布式训练作业的最小副本数,最大副本数,以及作业依赖的镜像以及启动训练程序的命令行和每个训练节点所需的资源大小;
此处的前端表示:用户提交弹性分布式训练作业的页面;
3、通过VolcanoJob适配Horovod弹性分布式训练作业,Volcano分布式训练作业创建之后,所有节点的域名都会被记录到作业域名文件(job_hosts文件)中,该文件会以挂载的方式挂载到所有训练节点中,在使用域名通信时,域名则经过Kubernetes的DNS解析服务解析为具体的IP;并且所有节点之间都会挂载相同的SSH密钥文件来实现节点之间免密登录;
4、编写分布式训练作业节点自动感知的程序,该程序通过查询作业域名文件获取所有节点的域名以及通过SSH密钥免密依次登录各个节点查询训练容器挂载的GPU卡数量,最终生成Horovod所需的弹性分布式训练作业的训练节点配置文件,该配置文件中每条记录以“节点域名:GPU卡数量”的格式生成。
5、当有节点加入或退出时,节点内的作业域名文件都会更新,当作业域名文件更新之后,节点感知工具自动获取当前所有的在线节点,生成新的训练作业节点列表配置文件。节点列表配置文件记录了训练节点域名与训练节点分配的GPU卡数的映射关系。
如图1所示,本实施例中深度学习场景下的弹性分布式训练方法的具体过程如下:
1、获取深度学习平台发送的训练作业对应的参数,创建一个弹性分布式训练作业;
在本步骤中,作业参数包含镜像、最小副本数、最大副本数以及启动命令、以及每个副本所需的资源,其中,镜像为基于Tensorflow、Pytorch和Horovod构建出来的镜像;最小副本数为启动该弹性分布式训练作业需要满足的最小副本数,记为n1;最大副本数为该弹性分布式训练作业可以扩张的最大副本数,记为n2,最大副本数应大于等于最小副本数;启动命令为用户需要执行的训练脚本。
需要说明的是,作业:一个弹性分布式训练的作业,包含若干个任务;任务:一个弹性分布式训练作业通常包含一个Master任务,一个Worker任务,每个任务又包含若干节点;节点:一个任务中的一个容器/Pod称为一个节点,节点又根据任务类型的不同分为训练节点(Worker任务下的节点)和管理节点,弹性伸缩也指的是针对worker任务的节点数量进行伸缩;副本:表示的是节点内的启动的任务进程,通常一个节点内只会启动一个训练进程,也就是节点数量和副本数量是相同的,可以将副本理解为节点。
2、根据弹性分布式训练作业参数创建弹性伸缩作业;
在本步骤中,创建的弹性伸缩作业即基于Volcano创建一个VolcanoJob,但不限于Volcano,可以用其他开源方案替代,如Frameworkcontroller,KubeFlow training-operator等,对分布式训练性能没有影响;VolcanoJob主要针对于批处理作业,分布式训练作业就属于批处理作业的一种。
在本步骤中,弹性伸缩作业创建后每个参与训练的节点都可以感知到该作业下所有参与训练的节点的域名/IP,用于进行分布式训练作业的启动。
3、监控集群资源,计算弹性伸缩资源量;
在本步骤中,首先获取集群总资源记为A,统计集群已使用的资源记为a,配置文件以yaml格式编写,即下面的示例配置文件,以文件的方式挂载到弹性伸缩服务容器内,通过解析配置文件获取配置参数,通过配置参数获取弹性伸缩资源比例记为p,然后通过公式计算出可用于弹性伸缩扩张的资源量为(A-a)*p,记为m,如图2所示。
配置文件示例如下:
elasticConfig:
elasticProportion: 0.3 #弹性伸缩资源比例[a]
expandThreshold: 0.3 #弹性扩张阈值[et]
expandPolicy: fail #弹性扩张策略
scalingThreshold: 0.9 #弹性收缩阈值[st]
scalingPolicy: priority #弹性收缩策略
hpaCheckMinutes: 5 #弹性伸缩调度周期(分钟)
4、计算弹性伸缩资源占用比例,根据配置的弹性伸缩阈值确定是进行弹性扩张、收缩、维持;
在步骤中,如图3所示,首先通过配置参数获取弹性伸缩扩张阈值记为et,弹性伸缩收缩阈值记为st,计算出弹性伸缩中间阈值为(et+st)/2,记为mt;然后统计所有弹性伸缩作业总占用的资源记为eu,计算出当前弹性伸缩资源量中已使用资源占用的比例为eu/m,记为t,比较t与et和st的大小,如果t<et,则进行弹性扩张,如果t>st则进行弹性收缩,如果et≤t≤st则进行弹性维持;
作为更具体的,如图4所示,当t<et时,则进行弹性扩张,首先计算可用于弹性扩张资源量(如图4中阴影部分所示)为(mt-t)*m,记为em,然后获取所有弹性伸缩作业,任务当前运行中的副本数记为n0,任务单个副本所需的资源记为r1,筛选出当前运行中的副本未达到最大副本数的任务即n0<n2,筛选出来的任务记为tt,根据任务的优先级、上次弹性扩张的时间和弹性扩张次数进行排序,将高优先级,扩张次数少,上次扩张时间早的任务排名提前,循环遍历任务,判断条件em-r1≥0,则将任务的当前运行中的副本数进行加1,即将n0设置为n0+1,循环的结束条件为tt中所有任务都满足n0等于n2,或者em-r1小于0,即判断条件为n0==n2或者em-r1<0。
作为更具体的,如图5所示,当t>et时,则进行弹性收缩,首先计算可用于弹性收缩资源量为(t-mt)*m,记为em,然后获取所有弹性伸缩作业,任务当前运行中的副本数记为n0,任务单个副本所需的资源记为r1,筛选出当前运行中的副本大于最小副本数的任务即n0>n1,筛选出来的任务记为tt,根据任务的优先级、上次弹性收缩的时间和弹性收缩次数进行排序,将低优先级,收缩次数少,上次收缩时间早的任务排名提前,循环遍历任务,判断条件em-r1≥0,则将任务的当前运行中的副本数进行减1,即将n0设置为n0-1,循环的结束条件为tt中所有任务都满足n0等于n2,或者em-r1小于0,即判断条件为n0==n1或者em-r1<0。
作为更具体的,如图6所示,当et≤t≤st时,则进行弹性维持,不进行任何的操作;
5、根据弹性伸缩结果下发更新弹性伸缩作业,即Volcano Job(Volcano Job即弹性分布式训练作业的实现层名词),更新弹性分布式训练作业。
在本步骤中,将所有弹性扩张或收缩的结果进行下发,通过Kubernetes(用于自动部署,扩展和管理容器化应用程序的开源***)ApiserverAPI更新VolcanoJob的副本数,VolcanoJob在收到副本更新请求时,会尝试将副本维持在期望状态,Volcano会维持Pod的顺序,如扩张情况副本数增加,则VolcanoJob会启动新的Pod,该Pod会采用上一个Pod相同命名前缀,并将Pod的索引加1作为命名,如上一个Pod命名为Job0-Worker0-1,则新的Pod命名为Job0-Worker0-2,该Pod启动后将作为训练节点加入弹性伸缩作业;在收缩情况,Volcano Job会将最后一个Pod删除掉,当节点下线后训练节点检测程序则会将其剔除训练作业。
需要说明的是,在弹性伸缩作业动态增加或删除副本时,所有副本都可以感知到新加入和退出的副本的IP,然后基于Horovod的弹性分布式训练作业的特性实现无感的弹性扩缩容。
需要说明的是,当存在故障节点时,Horovod弹性分布式训练作业会自动剔除离线节点继续训练,Volcano会尝试创建一个新的训练节点并启动,随后Horovod就会感知到新加入的训练节点。
综上所述,上述实施例的深度学习场景下的弹性分布式训练方法,当集群资源空闲较多时,使用弹性分布式训练相比使用传统的分布式训练作业,任务的等待时间会被大幅的缩短,整体的训练时间也会有效的减少,而训练的模型精度基本不会产生损失,整体产生的训练费用也会比传统任务更少;当集群资源空闲很少时,使用弹性分布式训练会释放出部分资源,保证最小资源,从而可以容纳更多的作业,而弹性分布式作业的训练不会被中断;从而使得集群整体的资源利用率会有所提高,值得被推广使用。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种深度学习场景下的弹性分布式训练方法,其特征在于,包括以下步骤:
步骤S1:弹性分布式训练作业创建
集成深度学***台发送的训练任务对应的参数,创建一个弹性分布式训练作业;
步骤S2:根据弹性分布式训练作业参数创建弹性伸缩作业;
步骤S3:监控集群资源,计算弹性伸缩资源量;
步骤S4:计算弹性伸缩资源占用比例,根据配置的弹性伸缩阈值确定是进行弹性扩张、收缩、维持;
步骤S5:根据弹性伸缩结果下发更新Volcano Job,进而更新弹性分布式训练作业。
2.根据权利要求1所述的一种深度学***台集成过程如下:
S11:构建基于Horovod、Pytorch以及Tensorflow的运行镜像文件;
S12:通过前端传递弹性分布式训练作业的启动参数,启动参数包括弹性分布式训练作业的最小副本数,最大副本数,以及作业依赖的镜像以及启动训练程序的命令行和每个训练节点所需的资源大小;
S13:通过Volcano Job适配Horovod弹性分布式训练作业,Volcano分布式训练作业创建之后,所有节点的域名均被记录到作业域名文件中,该文件以挂载的方式挂载到所有训练节点中,在使用域名通信时,域名则经过Kubernetes的DNS解析服务解析为具体的IP;并且所有节点之间均挂载相同的SSH密钥文件来实现节点之间免密登录;
S14:编写分布式训练作业节点感知程序,该程序通过查询作业域名文件获取所有节点的域名以及通过SSH密钥免密依次登录各个节点查询训练容器挂载的GPU卡数量,生成Horovod所需的弹性分布式训练作业的训练节点配置文件;
S15:当有节点加入或退出时,节点内的作业域名文件更新,当作业域名文件更新之后,节点感知工具自动获取当前所有的在线节点,生成新的训练作业节点列表配置文件,节点列表配置文件记录了训练节点域名与训练节点分配的GPU卡数的映射关系。
3.根据权利要求2所述的一种深度学习场景下的弹性分布式训练方法,其特征在于:在所述步骤S1中,训练任务对应的参数包括镜像、最小副本数、最大副本数、启动命令以及每个副本所需的资源,其中,镜像为基于Tensorflow、Pytorch和Horovod构建的镜像;最小副本数为启动该弹性分布式训练作业需要满足的最小副本数,记为n1;最大副本数为该弹性分布式训练作业可以扩张的最大副本数,记为n2,最大副本数应大于等于最小副本数;启动命令为用户需要执行的训练脚本。
4.根据权利要求3所述的一种深度学习场景下的弹性分布式训练方法,其特征在于:在所述步骤S2中,创建的弹性伸缩作业即基于Volcano创建一个VolcanoJob,弹性伸缩作业创建后每个节点均能感知到该任务下所有副本的IP,用于进行分布式训练作业的启动。
5.根据权利要求4所述的一种深度学习场景下的弹性分布式训练方法,其特征在于:所述步骤S3具体包括以下子步骤:
S31:获取集群总资源记为A,统计集群已使用的资源记为a;
S32:通过配置参数获取弹性伸缩资源比例记为p;
S33:通过公式计算出可用于弹性伸缩扩张的资源量为(A-a)*p,记为m。
6.根据权利要求5所述的一种深度学习场景下的弹性分布式训练方法,其特征在于:在所述步骤S4中,弹性伸缩阈值包括弹性伸缩扩张阈值记为et、弹性伸缩收缩阈值记为st、弹性伸缩中间阈值为(et+st)/2,记为mt,统计所有弹性伸缩作业总占用的资源记为eu,计算出当前弹性伸缩资源量中已使用资源占用的比例为eu/m,记为t,比较t与et和st的大小,如果t<et,则进行弹性扩张,如果t>st则进行弹性收缩,如果et≤t≤st则进行弹性维持。
7.根据权利要求6所述的一种深度学习场景下的弹性分布式训练方法,其特征在于:当t<et时,则进行弹性扩张,首先计算可用于弹性扩张资源量为(mt-t)*m,记为em,然后获取所有弹性伸缩作业,任务当前运行中的副本数记为n0,任务单个副本所需的资源记为r1,筛选出当前运行中的副本未达到最大副本数的任务,即n0<n2,筛选出来的任务记为tt,根据任务的优先级、上次弹性扩张的时间和弹性扩张次数进行排序,循环遍历任务,判断条件为em-r1≥0,则将任务的当前运行中的副本数进行加1,即将n0设置为n0+1,循环的结束条件为tt中所有任务都满足n0等于n2,或者em-r1小于0,即判断条件为n0==n2或者em-r1<0。
8.根据权利要求6所述的一种深度学习场景下的弹性分布式训练方法,其特征在于:当t>et时,则进行弹性收缩,首先计算可用于弹性收缩资源量为(t-mt)*m,记为em,然后获取所有弹性伸缩作业,任务当前运行中的副本数记为n0,任务单个副本所需的资源记为r1,筛选出当前运行中的副本大于最小副本数的任务,即n0>n1,筛选出来的任务记为tt,根据任务的优先级、上次弹性收缩的时间和弹性收缩次数进行排序,循环遍历任务,判断条件为em-r1≥0,则将任务的当前运行中的副本数进行减1,即将n0设置为n0-1,循环的结束条件为tt中所有任务都满足n0等于n2,或者em-r1小于0,即判断条件为n0==n1或者em-r1<0。
9.根据权利要求6所述的一种深度学习场景下的弹性分布式训练方法,其特征在于:当et≤t≤st时,则进行弹性维持,不进行任何的操作。
10.根据权利要求1所述的一种深度学***台感知到新加入的训练节点。
CN202210677057.XA 2022-06-16 2022-06-16 一种深度学习场景下的弹性分布式训练方法 Active CN114756385B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210677057.XA CN114756385B (zh) 2022-06-16 2022-06-16 一种深度学习场景下的弹性分布式训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210677057.XA CN114756385B (zh) 2022-06-16 2022-06-16 一种深度学习场景下的弹性分布式训练方法

Publications (2)

Publication Number Publication Date
CN114756385A true CN114756385A (zh) 2022-07-15
CN114756385B CN114756385B (zh) 2022-09-02

Family

ID=82336149

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210677057.XA Active CN114756385B (zh) 2022-06-16 2022-06-16 一种深度学习场景下的弹性分布式训练方法

Country Status (1)

Country Link
CN (1) CN114756385B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116628508A (zh) * 2023-07-20 2023-08-22 科大讯飞股份有限公司 模型训练过程异常检测方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160182614A1 (en) * 2014-12-23 2016-06-23 Cisco Technology, Inc. Elastic scale out policy service
CN107908642A (zh) * 2017-09-29 2018-04-13 江苏华通晟云科技有限公司 基于分布式平台的行业文本实体提取方法
CN108268638A (zh) * 2018-01-18 2018-07-10 浙江工业大学 一种基于Spark框架的生成对抗网络分布式实现方法
US20200159589A1 (en) * 2018-11-21 2020-05-21 Samsung Electronics Co., Ltd. System and method for dynamic scheduling of distributed deep learning training jobs
CN112148471A (zh) * 2019-06-29 2020-12-29 华为技术服务有限公司 分布式计算***中资源调度的方法和装置
WO2022033024A1 (zh) * 2020-08-12 2022-02-17 ***股份有限公司 深度学习模型的分布式训练方法以及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160182614A1 (en) * 2014-12-23 2016-06-23 Cisco Technology, Inc. Elastic scale out policy service
CN107908642A (zh) * 2017-09-29 2018-04-13 江苏华通晟云科技有限公司 基于分布式平台的行业文本实体提取方法
CN108268638A (zh) * 2018-01-18 2018-07-10 浙江工业大学 一种基于Spark框架的生成对抗网络分布式实现方法
US20200159589A1 (en) * 2018-11-21 2020-05-21 Samsung Electronics Co., Ltd. System and method for dynamic scheduling of distributed deep learning training jobs
CN112148471A (zh) * 2019-06-29 2020-12-29 华为技术服务有限公司 分布式计算***中资源调度的方法和装置
WO2022033024A1 (zh) * 2020-08-12 2022-02-17 ***股份有限公司 深度学习模型的分布式训练方法以及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116628508A (zh) * 2023-07-20 2023-08-22 科大讯飞股份有限公司 模型训练过程异常检测方法、装置、设备及存储介质
CN116628508B (zh) * 2023-07-20 2023-12-01 科大讯飞股份有限公司 模型训练过程异常检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN114756385B (zh) 2022-09-02

Similar Documents

Publication Publication Date Title
US7360208B2 (en) Rolling upgrade of distributed software with automatic completion
CN108564164B (zh) 一种基于spark平台的并行化深度学习方法
EP3575968A1 (en) Method and device for synchronizing active transaction lists
CN101771723A (zh) 数据同步方法
JP6405255B2 (ja) 通信システム、キュー管理サーバ、及び、通信方法
US10972296B2 (en) Messaging to enforce operation serialization for consistency of a distributed data structure
CN114756385B (zh) 一种深度学习场景下的弹性分布式训练方法
CN103561055A (zh) 基于会话的云计算环境下Web应用自动弹性扩展方法
CN109739684B (zh) 基于向量时钟的分布式键值数据库的副本修复方法与装置
CN111291062B (zh) 数据同步写入方法、装置、计算机设备及存储介质
CN104301990A (zh) 一种数据同步的方法及装置
CN113805816B (zh) 一种磁盘空间管理方法、装置、设备及存储介质
CN101778131A (zh) 数据同步***
CN108062225B (zh) 一种多模板组合发布应用集群的方法
US10614055B2 (en) Method and system for tree management of trees under multi-version concurrency control
CN113055448B (zh) 一种元数据管理方法及装置
CN115189931A (zh) 一种分布式密钥管理方法、装置、设备、存储介质
CN113254271A (zh) 一种数据序列恢复方法、装置、设备及存储介质
CN108376104B (zh) 节点调度方法及装置、计算机可读存储介质
CN105791350B (zh) 项目数据处理方法和***
CN109995854B (zh) 调度方法、装置、电子设备和存储介质
US7007028B2 (en) Smart poller for optical network management systems
CN110650033B (zh) 分布式应用配置管理的方法和分布式计算***
CN113297327A (zh) 生成分布式id的***和方法
CN108234173B (zh) 节点副本更新方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant