CN109936604A - 一种资源调度方法、装置和*** - Google Patents

一种资源调度方法、装置和*** Download PDF

Info

Publication number
CN109936604A
CN109936604A CN201711362963.6A CN201711362963A CN109936604A CN 109936604 A CN109936604 A CN 109936604A CN 201711362963 A CN201711362963 A CN 201711362963A CN 109936604 A CN109936604 A CN 109936604A
Authority
CN
China
Prior art keywords
gpu
resource
task
host
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711362963.6A
Other languages
English (en)
Other versions
CN109936604B (zh
Inventor
张皓天
苏磊
靳江明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tusimple Technology Co Ltd
Original Assignee
Beijing Tusimple Future Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Tusimple Future Technology Co Ltd filed Critical Beijing Tusimple Future Technology Co Ltd
Priority to CN201711362963.6A priority Critical patent/CN109936604B/zh
Publication of CN109936604A publication Critical patent/CN109936604A/zh
Application granted granted Critical
Publication of CN109936604B publication Critical patent/CN109936604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Multi Processors (AREA)

Abstract

本发明公开一种资源调度方法、装置和***,以解决现有技术中GPU资源利用率较低的技术问题。方法包括:监控每个宿主机中各GPU的可分配资源;在接收到新任务时,确定新任务对应的需求资源;根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU所在的宿主机。采用本发明技术方案,不仅提高GPU资源利用率,而且提高任务执行效率和速度。

Description

一种资源调度方法、装置和***
技术领域
本发明涉及计算机领域,特别涉及一种资源调度方法、一种资源调度装置和一种资源调度***。
背景技术
目前,基于master-worker模式的分布式计算集群***运用越来越广泛(例如docker容器集群),基于master-worker模式的分布式计算集群***包括master端服务器和多个worker端宿主机。master端服务器用于接收新任务、给新任务分配资源和给worker宿主机分配任务等;worker宿主机用于接收新任务,并执行所述新任务。
分布式计算集群***中,master端服务器在给新任务分配资源时,将worker宿主机中的一整块或多块GPU(Graphics Processing Unit,图形处理器)的全部资源分配给同一个任务,即一个任务占用一整块或多块GPU的全部资源。
Master端服务器在接收到新任务时,判断worker端宿主机上是否存在未分配给任何一个任务的整块GPU,若不存在则等待执行中任务执行完毕后再给新任务分配一个或多个整块GPU资源。但是,在实际使用中,一个任务往往并不是时时刻刻100%的使用已分配的整块GPU资源,例如可能会在很长一段时间内该任务仅使用了整块GPU中的30%或50%的资源,该GPU中的其他资源处于空闲状态。因此,现有的资源分配方式并不能充分、合理的利用整块GPU的资源,GPU资源利用率较低。
发明内容
鉴于上述问题,本发明提供一种资源调度方法、装置和***,以解决现有技术中GPU资源利用率较低的技术问题。
本发明实施例,第一方面提供一种资源调度方法,所述方法应用于master-worker模式的分布式计算集群中的master端服务器,该方法包括:
监控每个宿主机中各GPU的可分配资源;
在接收到新任务时,确定新任务对应的需求资源;
根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;
从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU所在的宿主机。
本发明实施例中,第二方面提供一种资源调度方法,该方法适用于master-worker模式的分布式计算集群中的worker端宿主机,方法包括:
确定宿主机中各GPU中的可分配资源;
将各GPU的可分配资源发送给master端服务器;
执行所述master端服务器分配的任务。
本发明实施例中,第三方面提供一种资源调度装置,该装置设置在master-worker模式的分布式计算集群中的master端服务器,装置包括:
监控单元,用于监控每个宿主机中各GPU的可分配资源;
解析单元,用于在接收到新任务时,确定新任务对应的需求资源;
确定单元,用于根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;
分配单元,用于从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU对应的宿主机。
本发明实施例中,第四方面提供一种资源调度装置,该装置设置在master-worker模式的分布式计算集群中的worker端宿主机中,装置包括:
资源确定单元,用于确定宿主机中各GPU中的可分配资源;
通信单元,用于将各GPU的可分配资源发送给master端服务器;
执行单元,用于执行所述master端服务器分配的任务。
本发明实施例中,第五方面提供一种资源调度***,包括master端服务器和分别与所述master端服务器连接的多个worker端宿主机,其中:
master端服务器,用于监控每个宿主机中各GPU的可分配资源;在接收到新任务时,确定新任务对应的需求资源;根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU对应的宿主机;
宿主机,用于确定宿主机中GPU的可分配资源,并将可分配资源发送给master端服务器,以及执行所述master端服务器分配的任务。
本发明实施例中,针对master-worker模式的分布式计算集群,master端服务器监控每个宿主机中各GPU的可分配资源;在接收到的新任务时,并不是直接将GPU的整块资源全部分配给新任务,而是按照新任务的需求资源从GPU的可分配资源中分配与需求资源相应大小的资源量。采用本发明技术方案,同一块GPU资源分配给执行中任务之后若还有剩余的可分配资源时,还能将该GPU的可分配资源分配给其他任务使用,从而能够实现多个任务共用同一块GPU的资源,充分利用GPU资源,解决现有技术中一个任务独占整块GPU资源而导致GPU资源利用率低的问题;并且,由于采用本发明技术方案使得与现有技术具有相同的GPU资源量的情况下可以供更多的任务使用,接收到新任务时能够及时为新任务分配资源,整体能够提高任务执行速度和效率。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明实施例中资源调度***的结构示意图;
图2为本发明实施例中设置在master端服务器中的资源调度装置的结构示意图之一;
图3为本发明实施例中在资源池中记录的各GPU的可分配资源量的示意图;
图4为本发明实施例中设置在master端服务器中的资源调度装置的结构示意图之二;
图5为本发明实施例中在任务信息维护单元中维护的宿主机对应的任务信息的示意图;
图6为对图5中的任务信息进行更新后的示意图;
图7为本发明实施例中确定单元的结构示意图之一;
图8为本发明实施例中确定单元的结构示意图之二;
图9为本发明实施例中确定单元的结构示意图之三;
图10为本发明实施例中设置在worker端宿主机中的资源调度装置的结构示意图;
图11为本发明实施例中设置在master端服务器中的资源调度方法的流程图;
图12为实现图11中的步骤103的流程图之一;
图13为实现图11中的步骤103的流程图之二;
图14为实现图11中的步骤103的流程图之三;
图15为实现图11中的步骤103的流程图之四;
图16为实现图11中的步骤103的流程图之五;
图17为本发明实施例中设置在worker端宿主机中的资源调度方法的流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明技术方案适用于所有mster-worker模式的分布式计算集群,例如docker容器集群、引擎计算集群等。本申请对于具体的分布式计算集群不做严格限定。
实施例一
如图1所示为资源调度***的结构示意图,在资源调度***为mster-worker模式的分布式计算集群,在分布式计算集群包括master服务器和多个分别与master服务器通信连接的worker端宿主机。
Master服务器可通过设置在该master服务器上的master程序实现以下功能:实时或周期性地监控每个宿主机中各GPU的可分配资源;接收新任务,并解析新任务对应的任务参数得到新任务对应的需求资源;根据各宿主机中的各GPU的可分配资源,确定出可分配资源满足所述新任务的需求资源的目标GPU;从目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU所在的宿主机,以便由该目标GPU所在的宿主机调用相应的worker程序执行所述新任务。
每个worker端宿主机可通过设置在宿主机上的worker程序实现以下功能:实时或周期性地确定该worker程序所在的宿主机上的各GPU的可分配资源,并将各GPU的可分配资源发送给master端服务器,以及执行master服务器分配给该宿主机的任务。
本发明实施例中,宿主机将该宿主机上的各GPU对应的可分配资源发送给master端服务器的机制有多种,本申请不做严格限定。例如,worker程序周期性地主动将其所在的宿主机上的各GPU的可分配资源同步给master端服务器;还例如,master端服务器周期性地向各个宿主机发送资源获取请求,各宿主机中的worker程序根据接收到的资源获取请求将其所在宿主机上的各GPU的可分配资源发送给master端服务器;还例如,master端服务器可以周期性地轮询各个宿主机,worker程序在master端服务器轮询到其所在的宿主机时,将该宿主机上的各GPU的可分配资源发送给master端服务器。
为便于本领域技术人员进一步理解本发明技术方案,下面分别从master端服务器和worker端宿主机对本发明技术方案进行详细的描述。
实施例二
master端服务器中的master程序可通过该master的子程序scheduler(即资源调度装置)实现前述功能,该资源调度装置的结构如图2所示,可包括监控单元11、解析单元12、确定单元13和分配单元14,其中:
监控单元11,用于监控每个宿主机中各GPU的可分配资源。
解析单元12,用于在接收到新任务时,确定新任务对应的需求资源。
本发明实施例中,解析单元12接收到新任务时,通过预置的解析规则解析新任务对应的任务参数,以得到新任务对应的需求资源,例如任务参数中包含新任务的身份信息(如名称或ID等)、新任务需要的GPU资源信息(GPU资源信息包括GPU张数、占用每张GPU的资源量)。
确定单元13,用于根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU。
分配单元14,用于从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU对应的宿主机。
本发明实施例中,监控单元11监控每个宿主机中各GPU的可分配资源可通过但不仅限于以下方式实现:
监控单元11建立资源池(即resource pool),在该资源池中动态记录每个宿主机中各GPU的可分配资源量,如图3所示,宿主机(用H1表示)包含3张GPU(分别用H1G1、H1G2、H1G3表示),H1G1、H1G2、H1G3分别对应的可分配资源量为N11、N12、N13。监控单元11在从宿主机中接收该宿主机上各GPU对应的可分配资源时,根据接收到的各GPU对应的可分配资源更新资源池中相应GPU对应的可分配资源量。
当然本领域技术人员还可以通过其他方式监控每个宿主机中各GPU的可分配资源,例如通过建立动态列表,在该动态列表中记录每个宿主机中各个GPU的可分配资源量的信息,实时或周期性的维护该动态列表中的信息。
本发明实施例中,确定单元13从监控单元11中获取各宿主机中的各GPU的可分配资源,以确定出可分配资源满足所述新任务对应的需求资源的目标GPU。
优选地,为及时更新资源池中的各GPU对应的可分配资源量,分配单元14在从目标GPU的可分配资源中为新任务分配资源后,将目标GPU及其分配给新任务的资源量同步给监控单元11,由监控单元11及时更新该目标GPU的可分配资源量。以图3所示H1G1为目标GPU为例,在从该H1G1的可分配资源中为新任务分配资源之前H1G1的可分配资源量为N11,当分配单元14从目标GPU的可分配资源中为新任务分配量为M1的资源之后,则该目标GPU的可分配资源变为N11-M1。
优选地,为进一步及时获知各宿主机中的任务信息,所述资源调度装置还可进一步包括任务信息维护单元15,如图4所示,其中:
任务信息维护单元15,用于记录各宿主机对应的任务信息,其中任务信息包括宿主机上所有的执行中任务、分配给每个执行中任务的GPU资源信息,GPU资源信息包括:执行中任务对应的GPU以及占用每张GPU的资源量。
如图5所示,宿主机H1中包含3张GPU(分别用H1G1、H1G2、H1G3表示),宿主机H1中包含两个任务(分别用任务A1和任务A2表示),其中:任务A1对应H1G1、H1G2,H1G1分配给任务A1的资源量为M11,H1G2分配给任务A1的资源量为M12;任务A2对应H1G3,H1G3分配给任务A2的资源量为M21。
优选地,为及时更新各宿主机对应的任务信息,本发明实施例中,分配单元14在从目标GPU的可分配资源中为新任务分配资源后,将目标GPU及其分配给新任务的资源量同步给任务信息维护单元15,以便任务信息维护单元15及时更新目标GPU所在宿主机对应的任务信息。以图5所示的H1G2的为目标GPU为例,新任务用任务3表示,新任务则宿主机H1对应的任务信息如图6所示,新增任务3,任务3对应H1G2,H1G2为任务3分配的资源量为M31。
优选地,本发明实施例中,各宿主机在执行完某一任务之后,释放该任务对应的资源,并将该任务执行完毕的状态信息和该任务占用的资源信息同步给监控单元11和任务信息维护单元15,以便监控单元11、任务信息维护单元15更新信息。
本发明实施例中,GPU的可分配资源可以是GPU中的空闲资源,也可以是GPU中的可共享资源,还可以是GPU中的空闲资源和可共享资源。GPU的空闲资源是指GPU中未分配给执行中任务的资源,GPU的可共享资源是指GPU中已分配给执行中任务的资源中的预测在一段时间内未被执行中任务利用的部分资源。例如,以图5所示的H1G1为例,假设H1G1的资源总量为N1,H1G1目前包含任务A1和任务A2,其中H1G1分配给任务A1的资源量为M11,分配给任务A2的资源量为M12,其中任务A1在一段时间内仅占用M11’的资源量,任务A2在一段时间内仅占用M12’的资源量,则H1G1中的空闲资源为N1-M11-M12,H1G1中的可共享资源包括(M11-M11’)和(M12-M12’)。下面分别以示例1、示例2和示例3进行描述。
示例1
在示例1中,GPU的可分配资源为GPU中的空闲资源,确定单元13的结构如图7所示,包括判断子单元131和确定子单元132,其中:
判断子单元131,用于判断宿主机中的各GPU中是否存在可分配资源大于等于所述需求资源的候选GPU,若存在候选GPU则触发确定子单元132;
确定子单元132,用于从所述候选GPU中选取其中一个GPU作为目标GPU。
确定子单元132可以从候选GPU中随机选取一个GPU作为目标GPU,也可以从候选GPU中选取可分配资源最少的GPU作为目标GPU,本申请不作严格限定。
优选地,判断子单元131确定不存在候选GPU时,若新任务的优先级较高,为确保高优先级任务能够及时执行,前述判断子单元131进一步用于:若不存在候选GPU时,判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务,则从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机。若不存在可抢占任务,则将新任务放入预置的阻塞池中等待分配资源。
示例2
在示例2中,GPU的可分配资源为GPU中的可共享资源。确定单元13的结构可参见图7所示,包括判断子单元131和确定子单元132,其中判断子单元131和确定子单元132的具体功能可参见示例1,在此不再赘述。
优选地,由于GPU的可共享资源为该GPU中已经分配给一个执行中任务的资源中的一部分,该执行中任务可能在一段时间之后需要的资源量有所增加,为确保该执行中任务能够顺利执行完毕,本发明实施例中,设定GPU的可共享资源只能分配给优先级比该GPU中任意一个执行中任务都低的新任务,因此,在示例2中,确定子单元132从候选GPU选取一个GPU作为目标GPU,具体为:从所述候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
优选地,判断子单元131确定不存在候选GPU时,若新任务的优先级较高,为确保高优先级任务能够及时执行,前述判断子单元131进一步用于:若判断不存在候选GPU时,判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务,则从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机。若不存在可抢占任务,则将新任务放入预置的阻塞池中等待分配资源。
本发明实施例中,master程序可以周期性地从阻塞池中选取优先级最高或者放置在阻塞池中时间最长的任务,将选取的任务作为新任务发送给分析单元12。
示例3
在示例3中,GPU的可分配资源为GPU中的空闲资源和可共享资源,所述确定单元13的结构如图8所示,包括第一判断子单元133、第一确定子单元134、第二判断子单元135和第二确定子单元136,其中:
第一判断子单元133,用于判断宿主机的各GPU中是否存在空闲资源大于等于所述需求资源的第一候选GPU,若存在第一候选GPU则触发第一确定子单元134,若不存在第一候选GPU则触发第二判断子单元135;
第一确定子单元134,用于从所述第一候选GPU中选取一个GPU作为目标GPU;
第二判断子单元135,用于判断宿主机的各GPU中是否存在可共享资源大于等于所述需求资源的第二候选GPU;若存在第二候选GPU时触发第二确定子单元136;
第二确定子单元136,用于从所述第二候选GPU中选取一个GPU作为目标GPU。
优选地,第二确定子单元136具体用于:从所述第二候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
优选地,在第一判断子单元133确定不存在第一候选GPU时,若新任务的优先级较高,为确保高优先级任务能够及时执行,前述第一判断子单元133进一步用于:判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务,则从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机;若不存在可抢占任务,则触发第二判断子单元135。
优选地,为确保新任务能够及时被执行,前述图7所示的确定单元13还可进一步包括第三判断子单元137和第三确定子单元138,如图9所示,其中:
所述第二判断子单元135进一步用于:若不存在第二候选GPU时触发第三判断子单元137;
第三判断子单元137,用于判断宿主机的各GPU中是否存在空闲资源与可共享资源的总和大于等于所述需求资源的第三候选GPU,若存在第三候选GPU则触发第三确定子单元138,若不存在第三候选GPU则将新任务放入预置的阻塞池中等待分配资源;
第三确定子单元138,用于从所述第三候选GPU中选取一个GPU作为目标GPU。
优选地,本发明实施例中,第三确定子单元138具体用于:从所述第二候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
实施例三
本发明实施例三中,worker端宿主机中的worker程序可通过如图10所示的资源调度装置实现,该资源调度装置包括资源确定单元21、通信单元22和执行单元23,其中:
资源确定单元21,用于确定宿主机中各GPU中的可分配资源。
通信单元22,用于将各GPU的可分配资源发送给master端服务器。
执行单元23,用于执行master端服务器分配给所述宿主机的任务。
优选地,本发明实施例三中,GPU的可分配资源可以是GPU的空闲资源,也可以是GPU的可共享资源,还可以是GPU的空闲资源和可共享资源。
在一个实例中,GPU的可分配资源为GPU的空闲资源,则资源确定单元21具体用于:监控宿主机中各GPU中未分配给执行中任务的空闲资源,并将空闲资源作为可分配资源。
在另一个实例中,GPU的可分配资源为GPU的可共享资源,则资源确定单元21具体用于:预测宿主机中各GPU中已分配给执行中任务的资源中在一段时间内未被执行中任务利用的可共享资源,并将可共享资源作为可分配资源。
在又一个实例中,GPU的可分配资源为GPU的空闲资源和可共享资源,则资源确定单元21具体用于:监控宿主机中各GPU中未分配给执行中任务的空闲资源,以及预测宿主机中各GPU中已分配给执行中任务的资源中在一段时间内未被执行中任务利用的可共享资源,并将所述空闲资源和可共享资源作为可分配资源。
本发明实施例中,资源确定单元21预测宿主机中各GPU中已分配给执行中任务的资源中在一段时间内未被执行中任务利用的可共享资源,具体实现可如下:通过监测各GPU中各执行中任务在历史时间段内的资源利用率,预测未来一段时间内该GPU内各执行中任务的资源利用率,将预测未来一段时间内未使用的那部分资源作为可共享资源。例如某一GPU中包含一个执行中任务A,分配给任务A的GPU资源量为M,监控得到该任务A在一段时间T内的资源利用率一直低于50%,则可以预测在下一时间段内该任务A的资源利用率仍然不超付50%,此时,将任务A的GPU资源量M中的50%确认为未来一时间段的可共享资源。
优选地,所述执行单元23具体用于:在接收到使用目标GPU的空闲资源执行新任务的第一指令时,利用所述目标GPU的空闲资源执行所述新任务;以及,在接收到使用目标GPU的可共享资源执行新任务的第二指令时,利用所述目标GPU的可共享资源执行所述新任务。
优选地,执行单元23进一步用于:当检测到GPU中的高优先级任务需要使用更多资源时,停止运行所述GPU中的低优先级任务,并将分配给低优先级任务的可共享资源分配给所述高优先级任务。
实施例四
基于前述实施例二所示的资源调度装置,本发明实施例四提供一种资源调度方法,所述方法应用于master-worker模式的分布式计算集群中的master端服务器,方法的流程图如图11所示,包括:
步骤101、监控每个宿主机中各GPU的可分配资源;
步骤102、在接收到新任务时,确定新任务对应的需求资源;
步骤103、根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;
步骤104、从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU所在的宿主机。
在一个具体实例中,所述可分配资源为GPU中的空闲资源,或者可分配资源为GPU中的可共享资源,所述步骤103具体实现可如图12所示,包括:
步骤A1、判断宿主机中的各GPU中是否存在可分配资源大于等于所述需求资源的候选GPU;若存在候选GPU则执行步骤A2;
步骤A2、从所述候选GPU中选取其中一个GPU作为目标GPU。
优选地,若所述可分配资源为GPU中的可共享资源时,所述步骤A2具体包括:从所述候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
优选地,图11所示的流程图中的步骤A1中进一步包括以下步骤:若不存在候选GPU时执行步骤A3~步骤A5,如图13所示:
步骤A3、判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务则执行步骤A4,若不存在可抢占任务则执行步骤A5;
步骤A4、从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机。
步骤A5、将新任务放入预置的阻塞池中等待分配资源。
在另一个实例中,可分配资源包括GPU中的空闲资源和可共享资源,所述步骤103具体实现可如图14所示,包括:
步骤B1、判断宿主机的各GPU中是否存在空闲资源大于等于所述需求资源的第一候选GPU;若存在第一候选GPU则执行步骤B2,若不存在第一候选GPU则执行步骤B3;
步骤B2、从所述第一候选GPU中选取一个GPU作为目标GPU;
步骤B3、判断宿主机的各GPU中是否存在可共享资源大于等于所述需求资源的第二候选GPU;若存在第二候选GPU则执行步骤B4;
步骤B4、从所述第二候选GPU中选取一个GPU作为目标GPU。
步骤B4具体用于:从所述第二候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
优选地,为确保高优先级的任务能够及时执行,在执行图14所示流程的步骤B3之前,可进一步包括步骤B5~步骤B6,如图15所示:
步骤B5、判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务则执行步骤B6,若不存在可抢占任务则执行步骤B3;
步骤B6、从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机。
优选地,在前述图14、图15所示的流程中,若不存在第二候选GPU,还可进一步包括步骤B7~B8,如图16所示在图15中还进一步包括步骤B7~B8;
步骤B7、判断宿主机的各GPU中是否存在空闲资源与可共享资源的总和大于等于所述需求资源的第三候选GPU;若存在第三候选GPU,则执行步骤B8,若不存在第三候选GPU则将新任务放入阻塞池中等待分配资源;
步骤B8、从所述第三候选GPU中选取一个GPU作为目标GPU。
优选地,步骤B8具体用于:从所述第三候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
实施例五
基于前述实施例三提供的一种资源调度装置的相同构思,本发明实施例五提供一种资源调度方法,该方法适用于master-worker模式的分布式计算集群中的worker端宿主机,如图17所示,该方法包括:
步骤201、确定宿主机中各GPU中的可分配资源;
步骤202、将各GPU的可分配资源发送给master端服务器;
步骤203、执行master端服务器分配给所述宿主机的任务。
在一个实例中,GPU的可分配资源为GPU中的空闲资源,所述步骤201具体实现如下:监控宿主机中各GPU中未分配给执行中任务的空闲资源,并将空闲资源作为可分配资源。
在另一个实例中,GPU的可分配资源为GPU中的可共享资源,所述步骤201具体实现可如下:预测宿主机中各GPU中已分配给执行中任务的资源中的在一段时间内未被执行中任务利用的可共享资源,并将可共享资源作为可分配资源。
又一个实例中,GPU的可分配资源为GPU中的空闲资源和可共享资源,所述步骤201具体实现可如下:监控宿主机中各GPU中未分配给执行中任务的空闲资源,以及,预测宿主机中各GPU中已分配给执行中任务的资源中的在一段时间内未被执行中任务利用的可共享资源,并将所述空闲资源和可共享资源作为可分配资源。
优选地,所述步骤203具体包括:当接收到使用目标GPU的空闲资源执行新任务的第一指令时,利用所述目标GPU的空闲资源执行所述新任务;当接收到使用目标GPU的可共享资源执行新任务的第二指令时,利用所述目标GPU的可共享资源执行所述新任务。
优选地,所述步骤203进一步包括以下步骤:当检测到GPU中的高优先级任务需要使用更多资源时,停止运行所述GPU中的低优先级任务,并将分配给低优先级任务的可共享资源分配给所述高优先级任务。
以上结合具体实施例描述了本发明的基本原理,但是,需要指出的是,对本领域普通技术人员而言,能够理解本发明的方法和装置的全部或者任何步骤或者部件可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件固件、软件或者他们的组合加以实现,这是本领域普通技术人员在阅读了本发明的说明的情况下运用它们的基本编程技能就能实现的。
本领域普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的上述实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括上述实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (25)

1.一种资源调度方法,其特征在于,所述方法应用于master-worker模式的分布式计算集群中的master端服务器,方法包括:
监控每个宿主机中各图形处理器GPU的可分配资源;
在接收到新任务时,确定新任务对应的需求资源;
根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;
从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU所在的宿主机。
2.根据权利要求1所述的方法,其特征在于,可分配资源为GPU中的空闲资源,或者可分配资源为GPU中的可共享资源;
根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU,具体包括:
判断宿主机中的各GPU中是否存在可分配资源大于等于所述需求资源的候选GPU;
若存在候选GPU,则从所述候选GPU中选取其中一个GPU作为目标GPU。
3.根据权利要求2所述的方法,其特征在于,若所述可分配资源为GPU中的可共享资源时,从所述候选GPU中选取其中一个GPU作为目标GPU,具体包括:
从所述候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
4.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
若不存在候选GPU,则:判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务,则从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机。
5.根据权利要求1所述的方法,其特征在于,可分配资源包括GPU中的空闲资源和可共享资源;
根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU,具体包括:
判断宿主机的各GPU中是否存在空闲资源大于等于所述需求资源的第一候选GPU;
若存在第一候选GPU,则从所述第一候选GPU中选取一个GPU作为目标GPU;
若不存在第一候选GPU,则判断宿主机的各GPU中是否存在可共享资源大于等于所述需求资源的第二候选GPU;
若存在第二候选GPU,则从所述第二候选GPU中选取一个GPU作为目标GPU。
6.根据权利要求5所述的方法,其特征在于,在判断宿主机的各GPU中是否存在可共享资源大于等于所述需求资源的第二候选GPU之前,还包括:
判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;
若存在可抢占任务,则从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机;
若不存在可抢占任务,则执行所述判断宿主机的各GPU中是否存在可共享资源大于等于所述需求资源的第二候选GPU的步骤。
7.根据权利要求5或6所述的方法,其特征在于,还包括:
若不存在第二候选GPU,则:判断宿主机的各GPU中是否存在空闲资源与可共享资源的总和大于等于所述需求资源的第三候选GPU;若存在第三候选GPU,则从所述第三候选GPU中选取一个GPU作为目标GPU。
8.根据权利要求5或6所述的方法,其特征在于,从所述第二候选GPU中选取一个GPU作为目标GPU,具体包括:从所述第二候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU;
和/或,从所述第三候选GPU中选取一个GPU作为目标GPU,具体包括:从所述第三候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
9.一种资源调度方法,其特征在于,该方法适用于master-worker模式的分布式计算集群中的worker端宿主机,方法包括:
确定宿主机中各图像处理器GPU中的可分配资源;
将各GPU的可分配资源发送给master端服务器;
执行master端服务器分配给所述宿主机的任务。
10.根据权利要求9所述的方法,其特征在于,所述确定宿主机中各GPU中的可分配资源,具体包括:
监控宿主机中各GPU中未分配给执行中任务的空闲资源,并将空闲资源作为可分配资源;
和/或,预测宿主机中各GPU中已分配给执行中任务的资源中的在一段时间内未被执行中任务使用的可共享资源,并将可共享资源作为可分配资源。
11.根据权利要求10所述的方法,其特征在于,执行master端服务器分配给所述宿主机的任务,具体包括:
当接收到使用目标GPU的空闲资源执行新任务的第一指令时,利用所述目标GPU的空闲资源执行所述新任务;
当接收到使用目标GPU的可共享资源执行新任务的第二指令时,利用所述目标GPU的可共享资源执行所述新任务。
12.根据权利要求11所述的方法,其特征在于,所述方法还包括:
当检测到GPU中的高优先级任务需要使用更多资源时,停止运行所述GPU中的低优先级任务,并将分配给低优先级任务的可共享资源分配给所述高优先级任务。
13.一种资源调度装置,其特征在于,所述装置设置在master-worker模式的分布式计算集群中的master端服务器,装置包括:
监控单元,用于监控每个宿主机中各图形处理器GPU的可分配资源;
解析单元,用于在接收到新任务时,确定新任务对应的需求资源;
确定单元,用于根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;
分配单元,用于从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU对应的宿主机。
14.根据权利要求13所述的装置,其特征在于,可分配资源为GPU中的空闲资源或者可分配资源为GPU中的可共享资源;
所述确定单元具体包括:
判断子单元,用于判断宿主机中的各GPU中是否存在可分配资源大于等于所述需求资源的候选GPU,若存在候选GPU则触发确定子单元;
确定子单元,用于从所述候选GPU中选取其中一个GPU作为目标GPU。
15.根据权利要求14所述的装置,其特征在于,若所述可分配资源为GPU中的可共享资源时,所述确定子单元具体用于:从所述候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
16.根据权利要求14或15所述的装置,其特征在于,所述判断子单元进一步用于:若不存在候选GPU时,判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务,则从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机。
17.根据权利要求13所述的装置,其特征在于,可分配资源包括GPU中的空闲资源和可共享资源;
所述确定单元具体包括:
第一判断子单元,用于判断宿主机的各GPU中是否存在空闲资源大于等于所述需求资源的第一候选GPU,若存在第一候选GPU则触发第一确定子单元,若不存在第一候选GPU则触发第二判断子单元;
第一确定子单元,用于从所述第一候选GPU中选取一个GPU作为目标GPU;
第二判断子单元,用于判断宿主机的各GPU中是否存在可共享资源大于等于所述需求资源的第二候选GPU;若存在第二候选GPU时触发第二确定子单元;
第二确定子单元,用于从所述第二候选GPU中选取一个GPU作为目标GPU。
18.根据权利要求17所述的装置,其特征在于,第一判断子单元在触发第二判断子单元之前,进一步用于:判断宿主机中是否存在优先级低于所述新任务、且分配的资源大于等于所述需求资源的可抢占任务;若存在可抢占任务,则从所述可抢占任务中选取一个目标任务,将所述目标任务的资源分配给所述新任务,并将所述新任务分配给所述目标任务所在的宿主机;若不存在可抢占任务,则触发第二判断子单元。
19.根据权利要求17或18所述的装置,其特征在于,所述确定单元还包括第三判断子单元和第三确定子单元,所述第二判断子单元进一步用于:若不存在第二候选GPU时触发第三判断子单元;
第三判断子单元,用于判断宿主机的各GPU中是否存在空闲资源与可共享资源的总和大于等于所述需求资源的第三候选GPU,若存在第三候选GPU则触发第三确定子单元;
第三确定子单元,用于从所述第三候选GPU中选取一个GPU作为目标GPU。
20.根据权利要求17或18所述的装置,其特征在于,第二确定子单元具体用于:从所述第二候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU;
和/或,第三确定子单元具体用于:从所述第三候选GPU中选取一个包含的执行中任务的优先级均高于新任务的GPU作为目标GPU。
21.一种资源调度装置,其特征在于,该装置设置在master-worker模式的分布式计算集群中的worker端宿主机中,装置包括:
资源确定单元,用于确定宿主机中各图像处理器GPU中的可分配资源;
通信单元,用于将各GPU的可分配资源发送给master端服务器;
执行单元,用于执行master端服务器分配给所述宿主机的任务。
22.根据权利要求21所述的装置,其特征在于,所述资源确定单元,具体用于:
监控宿主机中各GPU中未分配给执行中任务的空闲资源,并将空闲资源作为可分配资源;
和/或,预测宿主机中各GPU中已分配给执行中任务的资源中在一段时间内未被执行中任务使用的可共享资源,并将可共享资源作为可分配资源。
23.根据权利要求21所述的装置,其特征在于,所述执行单元具体用于:
在接收到使用目标GPU的空闲资源执行新任务的第一指令时,利用所述目标GPU的空闲资源执行所述新任务;
以及,在接收到使用目标GPU的可共享资源执行新任务的第二指令时,利用所述目标GPU的可共享资源执行所述新任务。
24.根据权利要求23所述的装置,其特征在于,所述执行单元进一步用于:当检测到GPU中的高优先级任务需要使用更多资源时,停止运行所述GPU中的低优先级任务,并将分配给低优先级任务的可共享资源分配给所述高优先级任务。
25.一种资源调度***,其特征在于,包括master端服务器和分别与所述master端服务器连接的多个worker端宿主机:
master端服务器,用于监控每个宿主机中各GPU的可分配资源;在接收到新任务时,确定新任务对应的需求资源;根据宿主机中的各GPU的可分配资源,确定出可分配资源满足所述需求资源的目标GPU;从所述目标GPU的可分配资源中为所述新任务分配资源,并将所述新任务分配给所述目标GPU所在的宿主机;
宿主机,用于确定宿主机中各GPU的可分配资源,并将可分配资源发送给master端服务器,以及执行所述master端服务器分配的任务。
CN201711362963.6A 2017-12-18 2017-12-18 一种资源调度方法、装置和*** Active CN109936604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711362963.6A CN109936604B (zh) 2017-12-18 2017-12-18 一种资源调度方法、装置和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711362963.6A CN109936604B (zh) 2017-12-18 2017-12-18 一种资源调度方法、装置和***

Publications (2)

Publication Number Publication Date
CN109936604A true CN109936604A (zh) 2019-06-25
CN109936604B CN109936604B (zh) 2022-07-26

Family

ID=66982307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711362963.6A Active CN109936604B (zh) 2017-12-18 2017-12-18 一种资源调度方法、装置和***

Country Status (1)

Country Link
CN (1) CN109936604B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110362407A (zh) * 2019-07-19 2019-10-22 中国工商银行股份有限公司 计算资源调度方法及装置
CN110399222A (zh) * 2019-07-25 2019-11-01 北京邮电大学 Gpu集群深度学习任务并行化方法、装置及电子设备
CN110413393A (zh) * 2019-07-26 2019-11-05 广州虎牙科技有限公司 集群资源管理方法、装置、计算机集群及可读存储介质
CN110688223A (zh) * 2019-09-11 2020-01-14 深圳云天励飞技术有限公司 数据处理方法及相关产品
CN110688218A (zh) * 2019-09-05 2020-01-14 广东浪潮大数据研究有限公司 资源调度方法及装置
CN110795249A (zh) * 2019-10-30 2020-02-14 亚信科技(中国)有限公司 基于mesos容器化平台的gpu资源调度方法及装置
CN111143060A (zh) * 2019-12-18 2020-05-12 重庆紫光华山智安科技有限公司 Gpu资源调度方法、装置及gpu
CN111190712A (zh) * 2019-12-25 2020-05-22 北京推想科技有限公司 一种任务调度方法、装置、设备及介质
CN111752706A (zh) * 2020-05-29 2020-10-09 北京沃东天骏信息技术有限公司 资源配置方法、装置及存储介质
CN111767134A (zh) * 2020-05-18 2020-10-13 鹏城实验室 一种多任务动态资源调度方法
CN112035220A (zh) * 2020-09-30 2020-12-04 北京百度网讯科技有限公司 开发机操作任务的处理方法、装置、设备以及存储介质
CN112148468A (zh) * 2019-06-28 2020-12-29 杭州海康威视数字技术股份有限公司 一种资源调度方法、装置、电子设备及存储介质
CN112751694A (zh) * 2019-10-30 2021-05-04 北京金山云网络技术有限公司 专属宿主机的管理方法、装置以及电子设备
CN112866321A (zh) * 2019-11-28 2021-05-28 中兴通讯股份有限公司 一种资源调度方法、装置和***
WO2023226205A1 (zh) * 2022-05-26 2023-11-30 深圳前海环融联易信息科技服务有限公司 基于kubernetes的GPU共享方法、装置、设备及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080214200A1 (en) * 2005-07-04 2008-09-04 Motorola, Inc. Apparatus and Method For Resource Sharing Between a Plurality of Communication Networks
CN104951358A (zh) * 2014-03-27 2015-09-30 英特尔公司 基于优先级的上下文抢占
US9419773B2 (en) * 2009-11-17 2016-08-16 Sony Corporation Resource management method and system thereof
CN106155811A (zh) * 2015-04-28 2016-11-23 阿里巴巴集团控股有限公司 图形处理装置、资源服务装置、资源调度方法和装置
CN106293950A (zh) * 2016-08-23 2017-01-04 成都卡莱博尔信息技术股份有限公司 一种面向集群***的资源优化管理方法
CN107040479A (zh) * 2016-02-04 2017-08-11 华为软件技术有限公司 一种云计算资源调节的方法和装置
US20170293994A1 (en) * 2016-04-08 2017-10-12 International Business Machines Corporation Dynamically provisioning and scaling graphic processing units for data analytic workloads in a hardware cloud
CN107291545A (zh) * 2017-08-07 2017-10-24 星环信息科技(上海)有限公司 计算集群中多用户的任务调度方法及设备
CN107357661A (zh) * 2017-07-12 2017-11-17 北京航空航天大学 一种针对混合负载的细粒度gpu资源管理方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080214200A1 (en) * 2005-07-04 2008-09-04 Motorola, Inc. Apparatus and Method For Resource Sharing Between a Plurality of Communication Networks
US9419773B2 (en) * 2009-11-17 2016-08-16 Sony Corporation Resource management method and system thereof
CN104951358A (zh) * 2014-03-27 2015-09-30 英特尔公司 基于优先级的上下文抢占
CN106155811A (zh) * 2015-04-28 2016-11-23 阿里巴巴集团控股有限公司 图形处理装置、资源服务装置、资源调度方法和装置
CN107040479A (zh) * 2016-02-04 2017-08-11 华为软件技术有限公司 一种云计算资源调节的方法和装置
US20170293994A1 (en) * 2016-04-08 2017-10-12 International Business Machines Corporation Dynamically provisioning and scaling graphic processing units for data analytic workloads in a hardware cloud
CN106293950A (zh) * 2016-08-23 2017-01-04 成都卡莱博尔信息技术股份有限公司 一种面向集群***的资源优化管理方法
CN107357661A (zh) * 2017-07-12 2017-11-17 北京航空航天大学 一种针对混合负载的细粒度gpu资源管理方法
CN107291545A (zh) * 2017-08-07 2017-10-24 星环信息科技(上海)有限公司 计算集群中多用户的任务调度方法及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DONG LI等: ""Priority-based cache allocation in throughput processors"", 《2015 IEEE 21ST INTERNATIONAL SYMPOSIUM ON HIGH PERFORMANCE COMPUTER ARCHITECTURE (HPCA)》 *
黄大勇: ""面向不同优先级网格作业资源重分配问题的专业技术支持"", 《万方》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148468A (zh) * 2019-06-28 2020-12-29 杭州海康威视数字技术股份有限公司 一种资源调度方法、装置、电子设备及存储介质
CN112148468B (zh) * 2019-06-28 2023-10-10 杭州海康威视数字技术股份有限公司 一种资源调度方法、装置、电子设备及存储介质
CN110362407A (zh) * 2019-07-19 2019-10-22 中国工商银行股份有限公司 计算资源调度方法及装置
CN110399222A (zh) * 2019-07-25 2019-11-01 北京邮电大学 Gpu集群深度学习任务并行化方法、装置及电子设备
CN110413393A (zh) * 2019-07-26 2019-11-05 广州虎牙科技有限公司 集群资源管理方法、装置、计算机集群及可读存储介质
CN110413393B (zh) * 2019-07-26 2022-02-01 广州虎牙科技有限公司 集群资源管理方法、装置、计算机集群及可读存储介质
CN110688218B (zh) * 2019-09-05 2022-11-04 广东浪潮大数据研究有限公司 资源调度方法及装置
CN110688218A (zh) * 2019-09-05 2020-01-14 广东浪潮大数据研究有限公司 资源调度方法及装置
CN110688223A (zh) * 2019-09-11 2020-01-14 深圳云天励飞技术有限公司 数据处理方法及相关产品
CN110795249A (zh) * 2019-10-30 2020-02-14 亚信科技(中国)有限公司 基于mesos容器化平台的gpu资源调度方法及装置
CN112751694A (zh) * 2019-10-30 2021-05-04 北京金山云网络技术有限公司 专属宿主机的管理方法、装置以及电子设备
CN112866321B (zh) * 2019-11-28 2024-06-18 中兴通讯股份有限公司 一种资源调度方法、装置和***
CN112866321A (zh) * 2019-11-28 2021-05-28 中兴通讯股份有限公司 一种资源调度方法、装置和***
WO2021104033A1 (zh) * 2019-11-28 2021-06-03 中兴通讯股份有限公司 一种资源调度方法、装置和***
CN111143060A (zh) * 2019-12-18 2020-05-12 重庆紫光华山智安科技有限公司 Gpu资源调度方法、装置及gpu
CN111143060B (zh) * 2019-12-18 2021-01-26 重庆紫光华山智安科技有限公司 Gpu资源调度方法、装置及gpu
CN111190712A (zh) * 2019-12-25 2020-05-22 北京推想科技有限公司 一种任务调度方法、装置、设备及介质
CN111767134A (zh) * 2020-05-18 2020-10-13 鹏城实验室 一种多任务动态资源调度方法
CN111767134B (zh) * 2020-05-18 2024-07-23 鹏城实验室 一种多任务动态资源调度方法
CN111752706A (zh) * 2020-05-29 2020-10-09 北京沃东天骏信息技术有限公司 资源配置方法、装置及存储介质
CN111752706B (zh) * 2020-05-29 2024-05-17 北京沃东天骏信息技术有限公司 资源配置方法、装置及存储介质
US20210191780A1 (en) * 2020-09-30 2021-06-24 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for processing development machine operation task, device and storage medium
CN112035220A (zh) * 2020-09-30 2020-12-04 北京百度网讯科技有限公司 开发机操作任务的处理方法、装置、设备以及存储介质
WO2023226205A1 (zh) * 2022-05-26 2023-11-30 深圳前海环融联易信息科技服务有限公司 基于kubernetes的GPU共享方法、装置、设备及介质

Also Published As

Publication number Publication date
CN109936604B (zh) 2022-07-26

Similar Documents

Publication Publication Date Title
CN109936604A (zh) 一种资源调度方法、装置和***
CN103870314B (zh) 一种单节点同时运行不同类型虚拟机的方法及***
Hermenier et al. Bin repacking scheduling in virtualized datacenters
CN104750543B (zh) 线程创建方法、业务请求处理方法及相关设备
CN103729248B (zh) 一种基于缓存感知的确定待迁移任务的方法和装置
EP3253027B1 (en) Resource allocation method and apparatus for virtual machines
CN104063279B (zh) 任务调度方法、装置和终端
CN113454614A (zh) 用于分布式计算中的资源划分的***和方法
CN108268317A (zh) 一种资源分配方法及装置
DE112012000946T5 (de) Versehsagbares Rechnen in virtualisierten verteilten Computersystemen basierend auf der Partitionierung von Rechenleistung und Kommunikationsleistung
Keller et al. An analysis of first fit heuristics for the virtual machine relocation problem
US8352950B2 (en) Algorithm to share physical processors to maximize processor cache usage and topologies
CN101595456A (zh) 用于事务资源控制的方法和***
CA3027996A1 (en) Systems and methods for scheduling tasks and managing computing resource allocation for closed loop control systems
CN108123980A (zh) 一种资源调度方法及***
CN109564528A (zh) 分布式计算中计算资源分配的***和方法
CN102508717B (zh) 一种应用于多核处理器的内存调度方法及装置
CN109522090A (zh) 资源调度方法及装置
CN114356543A (zh) 一种基于Kubernetes的多租户机器学习任务资源调度方法
WO2016018321A1 (en) Network resource allocation proposals
CN106790332A (zh) 一种资源调度方法、***及主节点
US20170075713A1 (en) Dispatching the Processing of a Computer Process Amongst a Plurality of Virtual Machines
CN100388183C (zh) 一种实现加权最小连接分配的服务器负载均衡方法
JP5178778B2 (ja) 仮想計算機およびcpu割り当て方法
CN113391914A (zh) 任务调度方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200327

Address after: 101300, No. two, 1 road, Shunyi Park, Zhongguancun science and Technology Park, Beijing, Shunyi District

Applicant after: BEIJING TUSEN ZHITU TECHNOLOGY Co.,Ltd.

Address before: 101300, No. two, 1 road, Shunyi Park, Zhongguancun science and Technology Park, Beijing, Shunyi District

Applicant before: BEIJING TUSEN WEILAI TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant