CN111274036B - 一种基于速度预测的深度学习任务的调度方法 - Google Patents
一种基于速度预测的深度学习任务的调度方法 Download PDFInfo
- Publication number
- CN111274036B CN111274036B CN202010068852.XA CN202010068852A CN111274036B CN 111274036 B CN111274036 B CN 111274036B CN 202010068852 A CN202010068852 A CN 202010068852A CN 111274036 B CN111274036 B CN 111274036B
- Authority
- CN
- China
- Prior art keywords
- task
- speed
- training
- tasks
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013135 deep learning Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 68
- 238000013468 resource allocation Methods 0.000 claims abstract description 23
- 238000002922 simulated annealing Methods 0.000 claims abstract description 14
- 238000010276 construction Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 230000036541 health Effects 0.000 claims description 2
- 235000003642 hunger Nutrition 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000037351 starvation Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims description 2
- 239000013598 vector Substances 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 4
- 230000008901 benefit Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- PFFIDZXUXFLSSR-UHFFFAOYSA-N 1-methyl-N-[2-(4-methylpentan-2-yl)-3-thienyl]-3-(trifluoromethyl)pyrazole-4-carboxamide Chemical compound S1C=CC(NC(=O)C=2C(=NN(C)C=2)C(F)(F)F)=C1C(C)CC(C)C PFFIDZXUXFLSSR-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Neurology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于速度预测的深度学习任务的调度方法,包括速度模型构建和任务调度两部分。速度模型构建部分是构建一个神经网络模型来预测每一个任务在集群中运行时处理图片的速度,包括训练阶段和预测阶段:训练阶段首先对每个任务进行profiling,即收集每个任务在集群中不同分布式配置下的训练速度,构造数据集;采集每个任务在集群中训练的特征,构建速度模型并使用前一步构造的数据集训练这个速度模型。预测阶段集成到任务调度部分。任务调度部分利用速度模型预测任务在不同配置下的训练速度,使用定制化的模拟退火算法来决定集群的资源分配,从而达到有效利用集群资源的目的。
Description
技术领域
本发明涉及一种基于速度预测的深度学习任务的调度方法,具体是一种结合资源分配和任务放置的分布式深度学习训练任务的调度方法。
背景技术
深度学习技术是一种模拟人类神经网络来完成一系列复杂决策或预测的技术,而随着深度学习应用场景越来越多样,神经网络模型也越来越复杂,同时训练一个复杂的模型所需要的数据集也越来越大,传统的单GPU训练已经难以满足复杂模型的训练。分布式深度学习(DDL)致力于提升复杂模型的训练效率,利用多个GPU加速训练过程使得复杂模型也能在较短时间内完成训练并开始服务。然而在一个GPU集群中,会存在多个DDL训练任务,不合理的资源分配会导致每个任务都不能以最快的速度完成训练,从而影响任务的训练效率。因此,研究如何调度DDL任务使得集群资源能有效利用具有很重要的意义。
参数服务器架构
在分布式深度学习中,参数服务器架构是一种负责在多个工作节点之间进行参数同步的架构,分为参数服务器节点(PS)和计算节点(Worker)两种类型的节点:PS负责存储全局模型参数,接受各个Worker推送过来的梯度,更新梯度并允许各个Worker拉取更新之后的参数;每个Worker本地会存一个分全局参数的副本,负责处理数据集并将计算的梯度推送到PS上,待PS完成参数更新之后将更新之后的参数拉取到本地并开始下一轮迭代。参数服务器架构是在2010年提出的,并在2014年由李沐将参数服务器带到大众的视野,参数服务器架构在底层实现了各个节点之间的通信,向用户提供一个透明的使用接口,用户只需要按照接口编写PS端和Worker端的代码并给定全局配置就能很方便的开始利用多机多GPU进行分布式训练,从而提高复杂模型的训练效率。
集群调度器
集群调度器主要是负责集群资源管理、任务放置、监控任务的执行状态等,而在传统的调度器中,是没有针对深度学***均完成时间为目标的调度器,在其调度方法里面,拟合了一个数学模型用来预测参数服务器架构下的DDL任务的训练速度,同时拟合一个模型用来预测任务距离完成训练所剩余的epoch数目;然后在任务调度的时候,通过速度模型和剩余epoch预测模型来计算为每个任务分配一个PS或者Worker,哪个带来的收益更高(即该任务训练时间减少的更多),从而以一种贪心的方式为所有任务分配PS或者Worker,直到增加PS或者Worker不会再带来收益或者集群的资源被耗尽。腾讯开源的Gaia调度器,利用GPU点对点通信的机制,通过探测GPU之间点对点通信时的PCIe连接类型(SYS、PIX等),保证DDL任务在一个高带宽、低延迟的条件下进行训练。但是这些方法都没有考虑到任务放置对于资源分配的影响,实际上前者对后者由很大的影响。比如说一个任务分配了两个Worker,那么这两个Worker放在同一个节点上和不同节点上任务的训练效果是不一样的。所以在调度方法中将资源分配和任务放置结合考虑是非常有必要的。
发明内容
发明目的:现有调度方法中在对DDL任务进行资源分配的时候缺乏对任务放置带来的影响的考虑,普遍的做法是先基于一些启发式规则或者基于某个模型为DDL任务分配资源,然后同样基于一些启发式规则(比如考虑节点负载均衡、考虑装箱更紧密等)将分配之后的资源放置到各个节点上去。这些方法都选择以一种启发式规则来代替任务放置对资源分配的影响,在实际场景中很难达到一个最佳的调度效果。本发明针对现有调度方法的不足,提出一种基于速度预测的深度学习任务的调度方法,该方法具有速度预测准确、资源分配效率高、任务训练完成快等优势。
技术方案:一种基于速度预测的深度学习任务的调度方法,包括速度模型构建阶段和任务调度阶段两部分:
速度模型构建阶段
(1)速度模型数据集构建:利用任务在集群中训练的状态,获取任务训练速度,作为数据集,为训练速度模型做准备;
(2)速度模型的实现:建立基于深度学习的速度模型的训练器,训练器的输入数据为前一步构造的数据集,输出为任务的训练速度(即处理图片的速度);
任务调度阶段
(1)资源分配与任务放置:调度器将资源分配和任务放置结合考虑,通过速度模型预测每个任务在不同配置(即不同资源分配量和放置节点)下的训练速度,来为每个任务决定最佳的配置,从而达到有效利用集群资源的目的;
(2)任务运行:调度器为每个任务计算好配置后,将任务调度到集群中运行,同时监控任务运行状态。
速度模型构建阶段的速度模型数据集构建的实现中:任务在集群中运行会有不同的配置,其训练速度也会不同;根据任务在集群中所有可能的运行配置,采样得到不同配置下任务的训练速度,从而构造数据集。
有益效果:与现有技术相比,本发明提供的基于速度预测的深度学习任务的调度方法,利用速度模型将资源分配和任务放置结合进行调度,使得每个任务都能以较快的速度完成训练。本发明相较传统DDL任务调度方法具有准确率高、资源分配更合理、任务运行的干扰更少等优点,可以应用于深度学习集群的调度方法之中。具体有如下优势:
(1)解决多任务环境下资源的分配问题。
在集群中,多任务调度一直是一个重点研究方向,能否最大化集群的资源利用率关系到使用者投入的成本的高低。在深度学习中,GPU普遍被用来作为训练的计算资源,而GPU带来的成本是非常高昂的,对于使用者来说最大化GPU资源的利用率能解约很多成本。本发明提出的方法能很好地进行多任务GPU调度,提升GPU的利用率,解决GPU资源的分配问题。
(2)速度预测准确率高
本发明构建了一个神经网络模型来预测DDL任务的训练速度,在这个速度模型的特征中,添加了对任务在不同放置条件下的特征,使得我们可以预测在不同放置条件下DDL任务的训练速度,而且准确率高。
(3)任务运行的干扰更少
因为速度模型中的有个特征是运行在每个节点上任务的个数,通过这个特征就可以反映出其他任务对这个任务的影响和干扰,因此能减少任务运行时其他任务带来的干扰。
(4)可移植性强
本发明架构在Kubernetes资源管理器上,以Docker作为任务的运行时。同时速度模型可以使用多种开源深度学习框架(MXNet/TensorFlow/PyTorch),通过CPU即可进行计算,亦可使用GPU进行计算。
附图说明
图1为本发明方法的方案流程图;
图2为速度预测深度神经网络模型图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
如图1所示,基于速度预测的深度学习任务的调度方法,使用定制化的模拟退火算法将资源分配和任务放置结合考虑来做调度,模拟退火过程中以所有任务的速度之和为评价函数,搜索得到一个较好的配置,从而达到有效利用集群资源的目的。包括速度模型构建阶段和任务调度阶段两部分:
■速度模型构建阶段
1、速度模型数据集构建
基于任务在集群中运行的不同配置,得到速度模型的特征,作为速度模型训练器的输入特征;本发明采用的分布式深度学习的参数同步架构是参数服务器架构,速度模型的特征包含参数服务器(PS)的个数、计算节点(Worker)的个数、任务使用的模型类型、batch_size、Worker在节点上的放置以及节点上已运行的其他任务的数目。根据速度模型的特征,从任务在集群中训练的所有可能情况中采样得到数据集。
2、速度模型的实现
建立基于深度学***在预期范围内,从而完成深度学习的训练过程。
■任务调度阶段
1、资源分配与任务放置
调度器将资源分配和任务放置结合考虑,通过速度模型预测每个任务在不同配置(即不同资源分配量和放置节点)下的训练速度,来为每个任务决定最佳的配置,从而达到有效利用集群资源的目的。整个过程包括:(1)构造任务队列,用户提交的任务都置于任务队列中等待调度;(2)每个调度周期开始时,调度器从调度队列中取出所有任务,并为它们生成初始配置,包括为每个任务分配PS和Worker,以及将分配好的任务生成一组初始放置节点;(3)调度器开始调整每个任务的配置,使用定制化的模拟退火算法将每个任务的配置调整到较好的配置,使得每个任务都能以较快的速度进行训练,目标是使得所有任务的平均完成时间越短越好,而且集群的资源利用率也在一个较高的水平。
在生成初始配置时,初始的时候为每一个任务分配一个PS和一个Worker,每个PS和Worker会占用一定数量的CPU、GPU和内存资源,直到所有任务都分配到一个PS和一个Worker,或者集群中剩余的资源数目不足为止。这种均匀的资源分配方案有利于任务配置调整阶段收敛到一个较好的配置。在初始配置设置完后,使用定制化的模拟退火算法,即首先通过初始配置得到一个当前解,然后通过产生邻域来生成一组新的解,比较当前解和新的解的评价函数,如果满足评价函数则选择接受该解;如果不满足则以一定概率选择接受该解;定制化的模拟退火算法包括提出三种生成邻域的方式,即Worker的分配、Worker的交换、Worker的转移,通过生成邻域调整任务的配置,从而得到一个较好的配置。PS的分配与放置不在模拟退火算法的搜索空间内,默认将PS的数目定为比Worker数目稍大,并且将PS均匀放置在含有Worker的节点上;如果集群资源不足,尝试减少PS的数目,同时保证每个任务PS与Worker的数目差异不大于一个给定值。在三种邻域生成中,Worker的分配指的是从集群剩余资源中划分一个Worker给任务;Worker的交换指的是对两个不同的任务,交换它们各自的某个Worker所放置的节点,探索不同放置情况下任务预测的训练效果;Worker的转移指的是将某个任务的一个Worker转移给另一个任务。调度器探索各个邻域,以所有任务的预测速度之和为评价函数,当模拟退火的温度降到一定的值后结束搜索过程并得到一组较好的配置。同时,为了避免本身训练速度就慢的任务长期处于饥饿的状态,本发明为每个任务设置了一个等待时间阈值,如果任务等待时间超过这个阈值,则为该任务至少分配一个PS和一个Worker。
2、任务运行
当每个任务的配置计算好之后,调度器将这些任务部署到集群中,采用Kubernetes作为集群资源管理器,以容器的形式运行每个任务,将具有有效配置的任务(即分配了PS和Worker的任务)提交到Kubernetes集群中开始训练,并为每个任务设置暂存点用以保存任务训练的模型参数;任务启动之后,调度器负责周期性的检查每个任务的健康状况,如果有任务崩溃了则负责重启该任务;如果有新的任务加入到队列中或者有任务训练完成,则开启一轮新的调度,保证每个任务顺利的完成训练。
综上所述,本发明可以运用于深度学习集群资源调度上,对于提高资源利用率和节约成本有很大的作用。由于该方法能准确的预测任务在不同配置下的训练速度,所以在做调度决策的时候可以更可靠的得到一个准确的结果。本技术基于Kubernetes集群资源管理器,用户可以很方便的复现,不需要考虑底层环境带来的诸多不便因素,易于部署,易于维护。同时,速度预测模型可以用多种深度学习框架实现,用户可以选择自己擅长的框架。因此,本技术具有较高的应用价值。
Claims (8)
1. 一种基于速度预测的深度学习任务的调度方法,其特征在于,包括速度模型构建阶段和任务调度阶段两部分:
速度模型构建阶段
(1)速度模型数据集构建:利用任务在集群中训练的状态,获取任务训练速度,为训练速度模型做准备;
(2)速度模型的实现:建立基于深度学习的速度模型的训练器,训练器的输入数据为前一步构造的数据集,输出为任务的训练速度;
采用Tensorflow Keras深度学***在预期范围内,从而完成深度学习的训练过程;该模型的输入为数据集中每一个样本,样本特征以一组向量的形式输入,模型的标签为任务的训练速度;
任务调度阶段
(1)资源分配与任务放置:调度器将资源分配和任务放置结合考虑,通过速度模型预测每个任务在不同配置下的训练速度,来为每个任务决定最佳的配置,从而达到有效利用集群资源的目的;其中不同配置即不同资源分配量和放置节点;
(2)任务运行:调度器为每个任务计算好配置后,将任务调度到集群中运行,同时监控任务运行状态。
2.如权利要求1所述的基于速度预测的深度学习任务的调度方法,其特征在于,速度模型构建阶段的速度模型数据集构建的实现中:任务在集群中运行会有不同的配置,其训练速度也会不同;根据任务在集群中所有可能的运行配置,采样得到不同配置下任务的训练速度,从而构造数据集。
3. 如权利要求1所述的基于速度预测的深度学习任务的调度方法,其特征在于,基于任务在集群中运行的不同配置,得到速度模型的特征,作为速度模型训练器的输入特征;该方法采用的分布式深度学习的参数同步架构是参数服务器架构,速度模型的特征包含参数服务器(PS)的个数、计算节点(Worker)的个数、任务使用的模型类型、batch size、Worker在节点上的放置以及节点上已运行的其他任务的数目;速度模型基于深度学习,构造两层全连接网络来预测任务的训练速度。
4.如权利要求1所述的基于速度预测的深度学***均完成时间越短越好。
5.如权利要求4所述的基于速度预测的深度学习任务的调度方法,其特征在于,初始配置的生成的实现中:初始的时候为每一个任务分配一个PS和一个Worker,每个PS和Worker会占用CPU、GPU和内存资源,直到所有任务都分配到一个PS和一个Worker,或者集群中剩余的资源数目不足为止。
6.如权利要求4所述的基于速度预测的深度学习任务的调度方法,其特征在于,任务配置的调整的实现中:使用定制化的模拟退火算法,即首先通过初始配置得到一个当前解,然后通过产生邻域来生成一组新的解,比较当前解和新的解的评价函数,如果满足评价函数则选择接受该解;如果不满足则以预设概率选择接受该解;定制化的模拟退火算法包括三种生成邻域的方式,即Worker的分配、Worker的交换、Worker的转移,通过生成邻域调整任务的配置,从而得到一个较好的配置;PS的分配与放置不在模拟退火算法的搜索空间内,默认将PS的数目定为比Worker数目大,并且将PS均匀放置在含有Worker的节点上;如果集群资源不足,减少PS的数目,同时保证每个任务PS与Worker的数目差异不大于一个给定值。
7.如权利要求6所述的基于速度预测的深度学习任务的调度方法,其特征在于,模拟退火算法的三种邻域生成中,Worker的分配指的是从集群剩余资源中划分一个Worker给任务;Worker的交换指的是对两个不同的任务,交换它们各自的某个Worker所放置的节点,探索不同放置情况下任务预测的训练效果;Worker的转移指的是将某个任务的一个Worker转移给另一个任务;调度器探索各个邻域,以所有任务的预测速度之和为评价函数,当模拟退火的温度降到预设的值后结束搜索过程并得到一组较好的配置;同时,为了避免本身训练速度就慢的任务长期处于饥饿的状态,为每个任务设置了一个等待时间阈值,如果任务等待时间超过这个阈值,则为该任务至少分配一个PS和一个Worker。
8.如权利要求1所述的基于速度预测的深度学习任务的调度方法,其特征在于,任务调度阶段的任务运行的实现中:当每个任务的配置计算好之后,调度器将这些任务部署到集群中,采用Kubernetes作为集群资源管理器,以容器的形式运行每个任务,将具有有效配置的任务提交到Kubernetes集群中开始训练,并为每个任务设置暂存点用以保存任务训练的模型参数;任务启动之后,调度器负责周期性的检查每个任务的健康状况,如果有任务崩溃了则负责重启该任务;如果有新的任务加入到队列中或者有任务训练完成,则开启一轮新的调度,保证每个任务顺利的完成训练;有效配置的任务即分配了PS和Worker的任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010068852.XA CN111274036B (zh) | 2020-01-21 | 2020-01-21 | 一种基于速度预测的深度学习任务的调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010068852.XA CN111274036B (zh) | 2020-01-21 | 2020-01-21 | 一种基于速度预测的深度学习任务的调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111274036A CN111274036A (zh) | 2020-06-12 |
CN111274036B true CN111274036B (zh) | 2023-11-07 |
Family
ID=70997634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010068852.XA Active CN111274036B (zh) | 2020-01-21 | 2020-01-21 | 一种基于速度预测的深度学习任务的调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111274036B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101536A (zh) * | 2020-08-30 | 2020-12-18 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 轻量级分布式多任务协同框架 |
CN114154641A (zh) * | 2020-09-07 | 2022-03-08 | 华为云计算技术有限公司 | Ai模型的训练方法、装置、计算设备和存储介质 |
CN112433819B (zh) * | 2020-11-30 | 2024-04-19 | 中国科学院深圳先进技术研究院 | 异构集群调度的模拟方法、装置、计算机设备及存储介质 |
CN112463340A (zh) * | 2020-12-10 | 2021-03-09 | 武汉工程大学 | 基于tensorflow的多任务弹性调度方法及*** |
CN112667591A (zh) * | 2021-01-12 | 2021-04-16 | 北京工业大学 | 一种基于海量日志的数据中心任务干扰预测方法 |
CN113033098B (zh) * | 2021-03-26 | 2022-05-17 | 山东科技大学 | 一种基于AdaRW算法的海洋目标检测深度学习模型训练方法 |
CN113282411B (zh) * | 2021-05-19 | 2022-03-22 | 复旦大学 | 一种基于边缘设备的分布式神经网络训练*** |
CN114610465A (zh) * | 2022-03-21 | 2022-06-10 | 阿里巴巴(中国)有限公司 | 任务处理方法、装置及存储介质 |
CN116812427B (zh) * | 2023-08-28 | 2023-11-14 | 河北因朵科技有限公司 | 一种无人库房自动取档与归档控制***及方法 |
CN117349775B (zh) * | 2023-10-30 | 2024-04-26 | 浙江大学 | 一种面向集群计算的异常子任务识别方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105446816A (zh) * | 2015-11-11 | 2016-03-30 | 华南理工大学 | 一种面向异构平台的能耗优化调度方法 |
CN106529682A (zh) * | 2016-10-28 | 2017-03-22 | 北京奇虎科技有限公司 | 一种在大数据集群中处理深度学习任务的方法和装置 |
CN107888669A (zh) * | 2017-10-31 | 2018-04-06 | 武汉理工大学 | 一种基于深度学习神经网络的大规模资源调度***及方法 |
CN108694090A (zh) * | 2018-04-16 | 2018-10-23 | 江苏润和软件股份有限公司 | 一种面向分布式机器学习的云计算资源调度方法 |
CN108920259A (zh) * | 2018-03-30 | 2018-11-30 | 华为技术有限公司 | 深度学习作业调度方法、***和相关设备 |
CN109710406A (zh) * | 2018-12-21 | 2019-05-03 | 腾讯科技(深圳)有限公司 | 数据分配及其模型训练方法、装置、及计算集群 |
CN110413391A (zh) * | 2019-07-24 | 2019-11-05 | 上海交通大学 | 基于容器集群的深度学习任务服务质量保证方法和*** |
WO2019226652A1 (en) * | 2018-05-22 | 2019-11-28 | Pure Storage, Inc. | Auto-scaling a software application |
CN110533183A (zh) * | 2019-08-30 | 2019-12-03 | 东南大学 | 一种流水线分布式深度学习中异构网络感知的模型划分与任务放置方法 |
-
2020
- 2020-01-21 CN CN202010068852.XA patent/CN111274036B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105446816A (zh) * | 2015-11-11 | 2016-03-30 | 华南理工大学 | 一种面向异构平台的能耗优化调度方法 |
CN106529682A (zh) * | 2016-10-28 | 2017-03-22 | 北京奇虎科技有限公司 | 一种在大数据集群中处理深度学习任务的方法和装置 |
CN107888669A (zh) * | 2017-10-31 | 2018-04-06 | 武汉理工大学 | 一种基于深度学习神经网络的大规模资源调度***及方法 |
CN108920259A (zh) * | 2018-03-30 | 2018-11-30 | 华为技术有限公司 | 深度学习作业调度方法、***和相关设备 |
CN108694090A (zh) * | 2018-04-16 | 2018-10-23 | 江苏润和软件股份有限公司 | 一种面向分布式机器学习的云计算资源调度方法 |
WO2019226652A1 (en) * | 2018-05-22 | 2019-11-28 | Pure Storage, Inc. | Auto-scaling a software application |
CN109710406A (zh) * | 2018-12-21 | 2019-05-03 | 腾讯科技(深圳)有限公司 | 数据分配及其模型训练方法、装置、及计算集群 |
CN110413391A (zh) * | 2019-07-24 | 2019-11-05 | 上海交通大学 | 基于容器集群的深度学习任务服务质量保证方法和*** |
CN110533183A (zh) * | 2019-08-30 | 2019-12-03 | 东南大学 | 一种流水线分布式深度学习中异构网络感知的模型划分与任务放置方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111274036A (zh) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111274036B (zh) | 一种基于速度预测的深度学习任务的调度方法 | |
Wang et al. | Distributed machine learning with a serverless architecture | |
CN110737529B (zh) | 一种面向短时多变大数据作业集群调度自适应性配置方法 | |
CN108958916B (zh) | 一种移动边缘环境下工作流卸载优化方法 | |
CN109271015B (zh) | 一种降低大规模分布式机器学习***能耗的方法 | |
CN109324875B (zh) | 一种基于强化学习的数据中心服务器功耗管理与优化方法 | |
Kolodziej et al. | Genetic algorithms for energy-aware scheduling in computational grids | |
CN110389816B (zh) | 用于资源调度的方法、装置以及计算机可读介质 | |
CN111966484A (zh) | 一种基于深度强化学习的集群资源管理和任务调度方法及*** | |
CN113794748B (zh) | 一种性能感知的服务功能链智能部署方法及装置 | |
CN112685153A (zh) | 微服务调度方法、装置以及电子设备 | |
CN105607952B (zh) | 一种虚拟化资源的调度方法及装置 | |
Li et al. | Intermediate data placement and cache replacement strategy under Spark platform | |
CN115237581A (zh) | 一种面向异构算力的多策略智能调度方法和装置 | |
Zhang et al. | Learning-driven interference-aware workload parallelization for streaming applications in heterogeneous cluster | |
CN115543626A (zh) | 采用异构计算资源负载均衡调度的电力缺陷图像仿真方法 | |
CN117349026B (zh) | 一种用于aigc模型训练的分布式算力调度*** | |
Xie et al. | Multi-objective optimization of data deployment and scheduling based on the minimum cost in geo-distributed cloud | |
CN108270833A (zh) | 渲染云资源的自动调度方法、装置及*** | |
CN116389255A (zh) | 一种改进双深度q网络的服务功能链部署方法 | |
Yang et al. | Deep reinforcement agent for failure-aware job scheduling in high-performance computing | |
Esmaili et al. | Energy-aware scheduling of jobs in heterogeneous cluster systems using deep reinforcement learning | |
CN108053026A (zh) | 一种移动应用后台请求自适应调度算法 | |
CN114003121B (zh) | 数据中心服务器能效优化方法与装置、电子设备及存储介质 | |
Wang et al. | Online scheduling of coflows by attention-empowered scalable deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |