CN107193650A - 一种在分布式集群中调度显卡资源的方法和装置 - Google Patents
一种在分布式集群中调度显卡资源的方法和装置 Download PDFInfo
- Publication number
- CN107193650A CN107193650A CN201710250265.0A CN201710250265A CN107193650A CN 107193650 A CN107193650 A CN 107193650A CN 201710250265 A CN201710250265 A CN 201710250265A CN 107193650 A CN107193650 A CN 107193650A
- Authority
- CN
- China
- Prior art keywords
- video card
- pci
- buses
- resource
- job request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5021—Priority
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种在分布式集群中调度显卡资源的方法和装置。其中方法包括:获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI‑E总线上的可用显卡数量;接收提交的作业,所述作业中包含该作业申请的显卡数量;查找所述显卡资源调度表,当一个PCI‑E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI‑E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。该技术方案能够尽可能地保证每个提交的作业都利用不需要跨PCI‑E总线进行通信的显卡来执行,避免了因跨PCI‑E总线通信导致的低效率,对于深度学习作业等对显卡资源要求很高的作业类型有着较大的效率提升,调度粒度很细,符合分布式集群的需求。
Description
技术领域
本发明涉及计算机技术领域,具体涉及一种在分布式集群中调度显卡资源的方法和装置。
背景技术
目前分布式集群中的资源管理器或者说资源调度器已经有很多种,例如k8s,mesos,yarn等。但是它们并不能很好的调度显卡资源,而对于深度学习等对显卡资源的需求较高的计算任务而言,被分配到的显卡资源的优劣将大大影响计算任务的执行效率。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的在分布式集群中调度显卡资源的方法和装置。
依据本发明的一个方面,提供了一种在分布式集群中调度显卡资源的方法,包括:
获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量;
接收提交的作业,所述作业中包含该作业申请的显卡数量;
查找所述显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
可选地,所述获取分布式集群中的显卡资源包括:
从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
可选地,所述在显卡资源调度表中记录各PCI-E总线上的可用显卡数量包括:
在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
可选地,所述排序为升序,所述查找所述显卡资源调度表包括:
通过深度优先算法遍历所述开链表,判断各PCI-E总线上的可用显卡数量是否满足该作业申请的显卡数量。
可选地,当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时,通过深度优先算法重新遍历所述开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
可选地,通过深度优先算法重新遍历所述开链表,所述从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源包括:
将查找到的首个PCI-E总线上的所有可用显卡分配给该作业,判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量,若满足则从该PCI-E总线中选取与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源,若不满足则将该PCI-E总线上的所有可用显卡分配给该作业,并判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量直至该作业申请的剩余显卡数量被满足。
可选地,该方法还包括:
将为该作业分配的所有可用显卡从所述开链表中删除,并重新对所述开链表进行排序;
和/或,
根据释放的显卡资源修改所述开链表,并重新对所述开链表进行排序。
依据本发明的另一方面,提供了一种在分布式集群中调度显卡资源的装置,包括:
记录单元,适于获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量;
调度单元,适于接收提交的作业,所述作业中包含该作业申请的显卡数量,查找所述显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
可选地,所述记录单元,适于从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
可选地,所述记录单元,适于在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
可选地,所述记录单元在开链表中进行升序排序;
所述调度单元,适于通过深度优先算法遍历所述开链表,判断各PCI-E总线上的可用显卡数量是否满足该作业申请的显卡数量。
可选地,所述调度单元,还适于当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时,通过深度优先算法重新遍历所述开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
可选地,所述调度单元,适于将查找到的首个PCI-E总线上的所有可用显卡分配给该作业,判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量,若满足则从该PCI-E总线中选取与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源,若不满足则将该PCI-E总线上的所有可用显卡分配给该作业,并判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量直至该作业申请的剩余显卡数量被满足。
可选地,所述记录单元,适于将为该作业分配的所有可用显卡从所述开链表中删除,并重新对所述开链表进行排序;和/或,适于根据释放的显卡资源修改所述开链表,并重新对所述开链表进行排序。
由上述可知,本发明的技术方案,在获取到分布式集群中的显卡资源后,在一张显卡资源调度表中记录各PCI-E总线上的可用显卡数量,当接收到包含申请的显卡数量的作业时,查找显卡资源调度表,从中选择可以满足该作业申请的显卡数量的PCI-E总线,从该总线上分配相应数量的显卡给该作业。该技术方案能够尽可能地保证每个提交的作业都利用不需要跨PCI-E总线进行通信的显卡来执行,避免了因跨PCI-E总线通信导致的低效率,对于深度学习作业等对显卡资源要求很高的作业类型有着较大的效率提升,调度粒度很细,符合分布式集群的需求。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的一种在分布式集群中调度显卡资源的方法的流程示意图;
图2示出了根据本发明一个实施例的一种在分布式集群中调度显卡资源的装置的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的一种在分布式集群中调度显卡资源的方法的流程示意图,如图1所示,该方法包括:
步骤S110,获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量。
PCI-E(PCI-Express)总线是目前较新的总线协议,目前大多数计算设备中,显卡、网卡等设备都连接在PCI-E总线上。
步骤S120,接收提交的作业,作业中包含该作业申请的显卡数量。
步骤S130,查找显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
在实践中发现,如果一个作业被分配到的多个显卡需要跨PCI-E总线通信,那么效率将会变得特别低,而如果多个显卡连接在同一个PCI-E总线上效率则相对高。为避免跨总线通信的情况提出了本实施例。
可见,图1所示的方法,在获取到分布式集群中的显卡资源后,在一张显卡资源调度表中记录各PCI-E总线上的可用显卡数量,当接收到包含申请的显卡数量的作业时,查找显卡资源调度表,从中选择可以满足该作业申请的显卡数量的PCI-E总线,从该总线上分配相应数量的显卡给该作业。该技术方案能够尽可能地保证每个提交的作业都利用不需要跨PCI-E总线进行通信的显卡来执行,避免了因跨PCI-E总线通信导致的低效率,对于深度学习作业等对显卡资源要求很高的作业类型有着较大的效率提升,调度粒度很细,符合分布式集群的需求。
在本发明的一个实施例中,上述方法中,获取分布式集群中的显卡资源包括:从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
举例而言,通过lspci命令查看PCI-E总线上的所有设备,在从中筛选出显卡资源。
在本发明的一个实施例中,上述方法中,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量包括:在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
例如:PCI-E 0[GPU0,GPU1],PCI-E 1[GPU2,GPU3]……同一PCI-E总线上的显卡亲和度高,例如GPU0与GPU1。这样就得到了一张显卡资源调度表。接下来的工作就是如何实现为作业分配亲和度高的显卡。在本发明的一个实施例中,上述方法中,排序为升序,查找显卡资源调度表包括:通过深度优先算法遍历开链表,判断各PCI-E总线上的可用显卡数量是否满足该作业申请的显卡数量。
上面的方法中,如果作业需要1张显卡,那么显然PCI-E 0,PCI-E 1上的显卡都可以满足条件,以上面的顺序为例,先查找到的PCI-E 0上线的GPU 0就可以被分配给该作业。
而如果是下例:PCI-E 0[GPU0],PCI-E 1[GPU1,GPU2,GPU3],作业需要2张显卡,那么PCI-E 0上的显卡并不会分配给该作业,PCI-E 1上的GPU1,GPU2会被分配给该作业。深度优先算法可以节约时间,快速调度到满足作业需求的显卡。那么问题在于,上述方法可以满足显卡需求数量较少的作业,当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时就无法处理了。
因而在本发明的一个实施例中,上述方法中,当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时,通过深度优先算法重新遍历开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。这样就解决了该问题。
然而,第二次遍历也会带来新的问题。举例来说,当一个作业需要4块显卡,而目前的PCI-E 0上可用的显卡为GPU0,PCI-E 1上可用的显卡为GPU1,PCI-E 2上可用的显卡为GPU2、GPU3,PCI-E 3上可用的显卡为GPU4、GPU5。那么这时候,是选择PCI-E 2、PCI-E 3的组合方式更好,还是选择PCI-E 0、PCI-E 1、PCI-E 2的组合方式更好是值得探究的。
由于上述两种方式都需要显卡的跨总线通信,那么为了使得残留的碎片更少,我们选择PCI-E 0、PCI-E 1、PCI-E 2的组合方式。那么为了实现这一的选择,在本发明的一个实施例中,上述方法中,通过深度优先算法重新遍历开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源包括:将查找到的首个PCI-E总线上的所有可用显卡分配给该作业,判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量,若满足则从该PCI-E总线中选取与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源,若不满足则将该PCI-E总线上的所有可用显卡分配给该作业,并判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量直至该作业申请的剩余显卡数量被满足。
为了保证调度的准确性,在本发明的一个实施例中,上述方法中,将为该作业分配的所有可用显卡从开链表中删除,并重新对开链表进行排序;和/或,根据释放的显卡资源修改开链表,并重新对开链表进行排序。这样就确保了上述调度算法的正确实施。
图2示出了根据本发明一个实施例的一种在分布式集群中调度显卡资源的装置的结构示意图,如图2所示,在分布式集群中调度显卡资源的装置200包括:
记录单元210,适于获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量。
调度单元220,适于接收提交的作业,作业中包含该作业申请的显卡数量,查找显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
在实践中发现,如果一个作业被分配到的多个显卡需要跨PCI-E总线通信,那么效率将会变得特别低,而如果多个显卡连接在同一个PCI-E总线上效率则相对高。为避免跨总线通信的情况提出了本实施例。
可见,图2所示的装置,通过各单元的相互配合,在获取到分布式集群中的显卡资源后,在一张显卡资源调度表中记录各PCI-E总线上的可用显卡数量,当接收到包含申请的显卡数量的作业时,查找显卡资源调度表,从中选择可以满足该作业申请的显卡数量的PCI-E总线,从该总线上分配相应数量的显卡给该作业。该技术方案能够尽可能地保证每个提交的作业都利用不需要跨PCI-E总线进行通信的显卡来执行,避免了因跨PCI-E总线通信导致的低效率,对于深度学习作业等对显卡资源要求很高的作业类型有着较大的效率提升,调度粒度很细,符合分布式集群的需求。
在本发明的一个实施例中,上述装置中,记录单元210,适于从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
举例而言,通过lspci命令查看PCI-E总线上的所有设备,在从中筛选出显卡资源。
在本发明的一个实施例中,上述装置中,记录单元210,适于在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
例如:PCI-E 0[GPU0,GPU1],PCI-E 1[GPU2,GPU3]……同一PCI-E总线上的显卡亲和度高,例如GPU0与GPU1。这样就得到了一张显卡资源调度表。接下来的工作就是如何实现为作业分配亲和度高的显卡。在本发明的一个实施例中,上述装置中,记录单元210在开链表中进行升序排序;调度单元220,适于通过深度优先算法遍历开链表,判断各PCI-E总线上的可用显卡数量是否满足该作业申请的显卡数量。
上面的例子中,如果作业需要1张显卡,那么显然PCI-E 0,PCI-E 1上的显卡都可以满足条件,以上面的顺序为例,先查找到的PCI-E 0上线的GPU 0就可以被分配给该作业。
而如果是下例:PCI-E 0[GPU0],PCI-E 1[GPU1,GPU2,GPU3],作业需要2张显卡,那么PCI-E 0上的显卡并不会分配给该作业,PCI-E 1上的GPU1,GPU2会被分配给该作业。深度优先算法可以节约时间,快速调度到满足作业需求的显卡。那么问题在于,上述方法可以满足显卡需求数量较少的作业,当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时就无法处理了。
因而在本发明的一个实施例中,上述装置中,调度单元220,还适于当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时,通过深度优先算法重新遍历开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
然而,第二次遍历也会带来新的问题。举例来说,当一个作业需要4块显卡,而目前的PCI-E 0上可用的显卡为GPU0,PCI-E 1上可用的显卡为GPU1,PCI-E 2上可用的显卡为GPU2、GPU3,PCI-E 3上可用的显卡为GPU4、GPU5。那么这时候,是选择PCI-E 2、PCI-E 3的组合方式更好,还是选择PCI-E 0、PCI-E 1、PCI-E 2的组合方式更好是值得探究的。
由于上述两种方式都需要显卡的跨总线通信,那么为了使得残留的碎片更少,我们选择PCI-E 0、PCI-E 1、PCI-E 2的组合方式。那么为了实现这一的选择,在本发明的一个实施例中,上述装置中,调度单元220,适于将查找到的首个PCI-E总线上的所有可用显卡分配给该作业,判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量,若满足则从该PCI-E总线中选取与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源,若不满足则将该PCI-E总线上的所有可用显卡分配给该作业,并判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量直至该作业申请的剩余显卡数量被满足。
为了保证调度的准确性,在本发明的一个实施例中,上述装置中,记录单元210,适于将为该作业分配的所有可用显卡从开链表中删除,并重新对开链表进行排序;和/或,适于根据释放的显卡资源修改开链表,并重新对开链表进行排序。这样就确保了上述调度算法的正确实施。
综上所述,本发明的技术方案,在获取到分布式集群中的显卡资源后,在一张显卡资源调度表中记录各PCI-E总线上的可用显卡数量,当接收到包含申请的显卡数量的作业时,查找显卡资源调度表,从中选择可以满足该作业申请的显卡数量的PCI-E总线,从该总线上分配相应数量的显卡给该作业。该技术方案能够尽可能地保证每个提交的作业都利用不需要跨PCI-E总线进行通信的显卡来执行,避免了因跨PCI-E总线通信导致的低效率,对于深度学习作业等对显卡资源要求很高的作业类型有着较大的效率提升,调度粒度很细,符合分布式集群的需求。
需要说明的是:
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的在分布式集群中调度显卡资源的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
本发明的实施例公开了A1、一种在分布式集群中调度显卡资源的方法,其中,该方法包括:
获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量;
接收提交的作业,所述作业中包含该作业申请的显卡数量;
查找所述显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
A2、如A1所述的方法,其中,所述获取分布式集群中的显卡资源包括:
从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
A3、如A1所述的方法,其中,所述在显卡资源调度表中记录各PCI-E总线上的可用显卡数量包括:
在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
A4、如A3所述的方法,其中,所述排序为升序,所述查找所述显卡资源调度表包括:
通过深度优先算法遍历所述开链表,判断各PCI-E总线上的可用显卡数量是否满足该作业申请的显卡数量。
A5、如A4所述的方法,其中,当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时,通过深度优先算法重新遍历所述开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
A6、如A5所述的方法,其中,通过深度优先算法重新遍历所述开链表,所述从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源包括:
将查找到的首个PCI-E总线上的所有可用显卡分配给该作业,判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量,若满足则从该PCI-E总线中选取与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源,若不满足则将该PCI-E总线上的所有可用显卡分配给该作业,并判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量直至该作业申请的剩余显卡数量被满足。
A7、如A3所述的方法,其中,该方法还包括:
将为该作业分配的所有可用显卡从所述开链表中删除,并重新对所述开链表进行排序;
和/或,
根据释放的显卡资源修改所述开链表,并重新对所述开链表进行排序。
本发明的实施例还公开了B8、一种在分布式集群中调度显卡资源的装置,其中,该装置包括:
记录单元,适于获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量;
调度单元,适于接收提交的作业,所述作业中包含该作业申请的显卡数量,查找所述显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
B9、如B8所述的装置,其中,
所述记录单元,适于从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
B10、如B8所述的装置,其中,
所述记录单元,适于在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
B11、如B10所述的装置,其中,
所述记录单元在开链表中进行升序排序;
所述调度单元,适于通过深度优先算法遍历所述开链表,判断各PCI-E总线上的可用显卡数量是否满足该作业申请的显卡数量。
B12、如B11所述的装置,其中,
所述调度单元,还适于当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时,通过深度优先算法重新遍历所述开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
B13、如B12所述的装置,其中,
所述调度单元,适于将查找到的首个PCI-E总线上的所有可用显卡分配给该作业,判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量,若满足则从该PCI-E总线中选取与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源,若不满足则将该PCI-E总线上的所有可用显卡分配给该作业,并判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量直至该作业申请的剩余显卡数量被满足。
B14、如B10所述的装置,其中,
所述记录单元,适于将为该作业分配的所有可用显卡从所述开链表中删除,并重新对所述开链表进行排序;和/或,适于根据释放的显卡资源修改所述开链表,并重新对所述开链表进行排序。
Claims (10)
1.一种在分布式集群中调度显卡资源的方法,其中,该方法包括:
获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量;
接收提交的作业,所述作业中包含该作业申请的显卡数量;
查找所述显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
2.如权利要求1所述的方法,其中,所述获取分布式集群中的显卡资源包括:
从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
3.如权利要求1所述的方法,其中,所述在显卡资源调度表中记录各PCI-E总线上的可用显卡数量包括:
在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
4.如权利要求3所述的方法,其中,所述排序为升序,所述查找所述显卡资源调度表包括:
通过深度优先算法遍历所述开链表,判断各PCI-E总线上的可用显卡数量是否满足该作业申请的显卡数量。
5.如权利要求4所述的方法,其中,当所有PCI-E总线上的可用显卡数量均不满足该作业申请的显卡数量时,通过深度优先算法重新遍历所述开链表,从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
6.如权利要求5所述的方法,其中,通过深度优先算法重新遍历所述开链表,所述从多个PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源包括:
将查找到的首个PCI-E总线上的所有可用显卡分配给该作业,判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量,若满足则从该PCI-E总线中选取与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源,若不满足则将该PCI-E总线上的所有可用显卡分配给该作业,并判断下一个PCI-E总线上的可用显卡数量是否满足该作业申请的剩余显卡数量直至该作业申请的剩余显卡数量被满足。
7.如权利要求3所述的方法,其中,该方法还包括:
将为该作业分配的所有可用显卡从所述开链表中删除,并重新对所述开链表进行排序;
和/或,
根据释放的显卡资源修改所述开链表,并重新对所述开链表进行排序。
8.一种在分布式集群中调度显卡资源的装置,其中,该装置包括:
记录单元,适于获取分布式集群中的显卡资源,在显卡资源调度表中记录各PCI-E总线上的可用显卡数量;
调度单元,适于接收提交的作业,所述作业中包含该作业申请的显卡数量,查找所述显卡资源调度表,当一个PCI-E总线上的可用显卡数量满足该作业申请的显卡数量时,从该PCI-E总线上选择与该作业申请的显卡数量匹配的数量的显卡作为分配给该作业的显卡资源。
9.如权利要求8所述的装置,其中,
所述记录单元,适于从分布式集群中部署的各计算设备的PCI-E总线中读取该计算设备上的显卡资源。
10.如权利要求8所述的装置,其中,
所述记录单元,适于在开链表中记录各PCI-E总线上的可用显卡ID,并按各PCI-E总线上的可用显卡数量进行排序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710250265.0A CN107193650B (zh) | 2017-04-17 | 2017-04-17 | 一种在分布式集群中调度显卡资源的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710250265.0A CN107193650B (zh) | 2017-04-17 | 2017-04-17 | 一种在分布式集群中调度显卡资源的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107193650A true CN107193650A (zh) | 2017-09-22 |
CN107193650B CN107193650B (zh) | 2021-01-19 |
Family
ID=59871030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710250265.0A Active CN107193650B (zh) | 2017-04-17 | 2017-04-17 | 一种在分布式集群中调度显卡资源的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107193650B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109144578A (zh) * | 2018-06-28 | 2019-01-04 | 中国船舶重工集团公司第七0九研究所 | 一种基于龙芯计算机的显卡资源配置方法及装置 |
CN115129483A (zh) * | 2022-09-01 | 2022-09-30 | 武汉凌久微电子有限公司 | 一种基于显示区域划分的多显卡协同显示方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6421755B1 (en) * | 1999-05-26 | 2002-07-16 | Dell Usa, L.P. | System resource assignment for a hot inserted device |
US20060195675A1 (en) * | 2005-02-25 | 2006-08-31 | International Business Machines Corporation | Association of host translations that are associated to an access control level on a PCI bridge that supports virtualization |
CN101387993A (zh) * | 2007-09-14 | 2009-03-18 | 凹凸科技(中国)有限公司 | 对计算机***中的设备进行动态资源配置的方法及*** |
US20100007668A1 (en) * | 2008-07-08 | 2010-01-14 | Casparian Mark A | Systems and methods for providing scalable parallel graphics rendering capability for information handling systems |
US20100036995A1 (en) * | 2008-08-05 | 2010-02-11 | Hitachi, Ltd. | Computer system and bus assignment method |
CN101916209A (zh) * | 2010-08-06 | 2010-12-15 | 华东交通大学 | 一种多核处理器集群任务资源分配方法 |
US20110157193A1 (en) * | 2009-12-29 | 2011-06-30 | Nvidia Corporation | Load balancing in a system with multi-graphics processors and multi-display systems |
CN102609978A (zh) * | 2012-01-13 | 2012-07-25 | 中国人民解放军信息工程大学 | 基于cuda架构的gpu加速锥束ct图像重建的方法 |
CN102902589A (zh) * | 2012-08-31 | 2013-01-30 | 浪潮电子信息产业股份有限公司 | 一种集群mic作业的管理及调度方法 |
US20130091500A1 (en) * | 2011-10-10 | 2013-04-11 | William J. Earl | Paravirtualized virtual gpu |
CN103105895A (zh) * | 2011-11-15 | 2013-05-15 | 辉达公司 | 计算机***及其显示卡及该***进行图形处理的方法 |
CN103248659A (zh) * | 2012-02-13 | 2013-08-14 | 北京华胜天成科技股份有限公司 | 一种云计算资源调度方法和*** |
CN104954400A (zh) * | 2014-03-27 | 2015-09-30 | 中国电信股份有限公司 | 云计算***及其实现方法 |
CN105718316A (zh) * | 2014-12-01 | 2016-06-29 | ***通信集团公司 | 一种作业调度的方法及装置 |
CN106557366A (zh) * | 2015-09-28 | 2017-04-05 | 阿里巴巴集团控股有限公司 | 任务分发方法、装置及*** |
-
2017
- 2017-04-17 CN CN201710250265.0A patent/CN107193650B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6421755B1 (en) * | 1999-05-26 | 2002-07-16 | Dell Usa, L.P. | System resource assignment for a hot inserted device |
US20060195675A1 (en) * | 2005-02-25 | 2006-08-31 | International Business Machines Corporation | Association of host translations that are associated to an access control level on a PCI bridge that supports virtualization |
CN101387993A (zh) * | 2007-09-14 | 2009-03-18 | 凹凸科技(中国)有限公司 | 对计算机***中的设备进行动态资源配置的方法及*** |
US20100007668A1 (en) * | 2008-07-08 | 2010-01-14 | Casparian Mark A | Systems and methods for providing scalable parallel graphics rendering capability for information handling systems |
US20100036995A1 (en) * | 2008-08-05 | 2010-02-11 | Hitachi, Ltd. | Computer system and bus assignment method |
US20110157193A1 (en) * | 2009-12-29 | 2011-06-30 | Nvidia Corporation | Load balancing in a system with multi-graphics processors and multi-display systems |
CN101916209A (zh) * | 2010-08-06 | 2010-12-15 | 华东交通大学 | 一种多核处理器集群任务资源分配方法 |
US20130091500A1 (en) * | 2011-10-10 | 2013-04-11 | William J. Earl | Paravirtualized virtual gpu |
CN103105895A (zh) * | 2011-11-15 | 2013-05-15 | 辉达公司 | 计算机***及其显示卡及该***进行图形处理的方法 |
CN102609978A (zh) * | 2012-01-13 | 2012-07-25 | 中国人民解放军信息工程大学 | 基于cuda架构的gpu加速锥束ct图像重建的方法 |
CN103248659A (zh) * | 2012-02-13 | 2013-08-14 | 北京华胜天成科技股份有限公司 | 一种云计算资源调度方法和*** |
CN102902589A (zh) * | 2012-08-31 | 2013-01-30 | 浪潮电子信息产业股份有限公司 | 一种集群mic作业的管理及调度方法 |
CN104954400A (zh) * | 2014-03-27 | 2015-09-30 | 中国电信股份有限公司 | 云计算***及其实现方法 |
CN105718316A (zh) * | 2014-12-01 | 2016-06-29 | ***通信集团公司 | 一种作业调度的方法及装置 |
CN106557366A (zh) * | 2015-09-28 | 2017-04-05 | 阿里巴巴集团控股有限公司 | 任务分发方法、装置及*** |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109144578A (zh) * | 2018-06-28 | 2019-01-04 | 中国船舶重工集团公司第七0九研究所 | 一种基于龙芯计算机的显卡资源配置方法及装置 |
CN109144578B (zh) * | 2018-06-28 | 2021-09-03 | 中国船舶重工集团公司第七0九研究所 | 一种基于龙芯计算机的显卡资源配置方法及装置 |
CN115129483A (zh) * | 2022-09-01 | 2022-09-30 | 武汉凌久微电子有限公司 | 一种基于显示区域划分的多显卡协同显示方法 |
CN115129483B (zh) * | 2022-09-01 | 2022-12-02 | 武汉凌久微电子有限公司 | 一种基于显示区域划分的多显卡协同显示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107193650B (zh) | 2021-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106648664A (zh) | 自助终端业务流程的更新方法及装置 | |
CN108829469A (zh) | 一种应用程序页面展示方法及装置 | |
US8839197B2 (en) | Automated analysis of composite applications | |
CN103995908A (zh) | 一种数据导入方法及装置 | |
CN106357738A (zh) | 一种服务器集群的自动化部署方法、装置和*** | |
CN109685301A (zh) | 资源管理方法、装置、设备及可读存储介质 | |
CN112306661B (zh) | 任务调度方法、装置、电子设备及可读存储介质 | |
CN108734561A (zh) | 电子装置、订单数据处理方法和计算机可读存储介质 | |
CN108900434A (zh) | 数据收集分发方法及装置 | |
CN111984426A (zh) | 任务调度方法、装置、电子设备及存储介质 | |
CN107193650A (zh) | 一种在分布式集群中调度显卡资源的方法和装置 | |
CN106648823A (zh) | 代码发布的方法及装置 | |
CN111612387A (zh) | 一种流向分配方法、装置、设备和存储介质 | |
CN112541688B (zh) | 业务数据校验方法、装置、电子设备及计算机存储介质 | |
CN104506636B (zh) | 一种数据同步方法及装置 | |
CN109657240A (zh) | 确定故障类型的方法、装置、设备和介质 | |
CN109241042A (zh) | 数据处理方法、装置以及电子设备 | |
CN109408092A (zh) | 前端版本发布的方法及装置、存储介质及电子设备 | |
CN108255875A (zh) | 将消息存储至分布式文件***的方法和装置 | |
CN104572921B (zh) | 一种跨数据中心的数据同步方法和装置 | |
CN104199689B (zh) | 综合前端***的安装方法及装置 | |
Nakao et al. | Using agile software development methods to support human-centered design | |
CN110515604A (zh) | 验证环境的可执行程序文件的获取方法及装置 | |
CN108205470A (zh) | 一种分布式广告数据计算任务管理***及方法 | |
CN110865817B (zh) | 一种云计算平台资源计量方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |