CN113127192B - 一种多个服务共享同一个gpu的方法、***、设备及介质 - Google Patents
一种多个服务共享同一个gpu的方法、***、设备及介质 Download PDFInfo
- Publication number
- CN113127192B CN113127192B CN202110271407.8A CN202110271407A CN113127192B CN 113127192 B CN113127192 B CN 113127192B CN 202110271407 A CN202110271407 A CN 202110271407A CN 113127192 B CN113127192 B CN 113127192B
- Authority
- CN
- China
- Prior art keywords
- gpu
- pods
- kubernets
- time slice
- video memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000004364 calculation method Methods 0.000 claims abstract description 49
- 230000004044 response Effects 0.000 claims abstract description 33
- 238000004590 computer program Methods 0.000 claims description 7
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/503—Resource availability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/509—Offload
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种多个服务共享同一个GPU的方法、***、设备和存储介质,方法包括:响应于接收到创建GPU服务的请求,根据请求创建对应的GPU服务,根据GPU服务创建对应数量的GPU Pods,将GPU服务与GPU Pods进行关联;根据GPU Pods的配置创建Kubernetes Pods,将Kubernetes Pods与GPU Pods进行关联;响应于接收到计算请求,根据计算请求确定需要申请的GPU显存或GPU时间片的规格并与GPU服务规定的阈值比对;响应于GPU显存或时间片的规格小于阈值,读取GPU Pods和Kubernetes Pods的当前资源剩余量并与GPU显存或时间片的规格比对;响应于GPU显存或时间片的规格小于GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率调度GPU Pods和Kubernetes Pods进行计算。本发明的方案可以实现根据计算请求合理分配资源。
Description
技术领域
本发明涉及深度学习领域,更具体地,特别是指一种多个服务共享同一个GPU的方法、***、计算机设备及可读介质。
背景技术
在机器学习和深度学习中使用GPU(Graphics Processing Unit,图形处理器)提供算力已经非常普遍,典型的场景是在数据中心中,依托Kubernetes(一个开源的容器编排引擎,用来对容器化应用进行自动化部署、扩缩和管理)作为容器编排环境,构建出一个云环境集群来部署机器学习和深度学习服务,集群中的节点(服务器)分为不同的类型,配备有GPU的节点称为GPU节点,其他节点为CPU节点,GPU节点负责具体的机器学习和深度学习任务,CPU节点负责集群管理、服务调度等内容。然而,由于单个GPU提供的显存、寄存器、线程等资源是很充足的,通常一个Kubernetes Pod(Kubernetes的最小单元)并不能完全利用单个GPU的显存、寄存器、线程等资源,所以需要一种技术来实现将多个服务的多个Pod调度到同一个GPU上,从而达到GPU高利用率的目的。
发明内容
有鉴于此,本发明实施例的目的在于提出一种多个服务共享同一个GPU的方法、***、计算机设备及计算机可读存储介质,采用Kubernetes的自定义资源、自定义注解等功能实现虚拟服务的注册和调度,采用CUDA劫持的方式来实现GPU显存申请限制和GPU时间片占用控制,从而根据计算请求合理分配资源。
基于上述目的,本发明实施例的一方面提供了一种多个服务共享同一个GPU的方法,包括如下步骤:响应于接收到创建GPU服务的请求,根据所述请求创建对应的GPU服务,并根据所述GPU服务创建对应数量的GPU Pods,将所述GPU服务与所述GPU Pods进行关联;根据GPU Pods的配置创建Kubernetes Pods,并将所述Kubernetes Pods与所述GPU Pods进行关联;响应于接收到计算请求,根据所述计算请求确定需要申请的GPU显存或GPU时间片的规格并与所述GPU服务规定的阈值比对;响应于所述GPU显存或时间片的规格小于所述GPU服务规定的阈值,读取所述GPU Pods和Kubernetes Pods的当前资源剩余量并与所述GPU显存或时间片的规格比对;以及响应于所述GPU显存或时间片的规格小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率调度所述GPU Pods和Kubernetes Pods进行计算。
在一些实施方式中,还包括:响应于所述GPU显存或时间片的规格不小于所述GPU服务规定的阈值,根据所述GPU显存或时间片的规格生成新的创建GPU服务的请求。
在一些实施方式中,还包括:响应于所述GPU显存或时间片的规格不小于所述GPUPods和Kubernetes Pods的当前资源剩余量的总和,将失败次数加一并每隔预设时间再次判断所述GPU显存或时间片的规格是否小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和。
在一些实施方式中,还包括:判断失败次数是否达到第二阈值,响应于失败次数达到第二阈值,增加所述预设时间的大小。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将计算任务分配给每个GPU Pods和Kubernetes Pods以使得所述GPUPods和Kubernetes Pods在进行计算时资源使用率相同。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将GPU Pods按照算力从大到小进行排序,将计算任务按照顺序分给GPUPods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将GPU Pods按照当前资源使用率从小到大进行排序,将计算任务按照顺序分给GPU Pods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
本发明实施例的另一方面,提供了一种多个服务共享同一个GPU的***,包括:第一关联模块,配置用于响应于接收到创建GPU服务的请求,根据所述请求创建对应的GPU服务,并根据所述GPU服务创建对应数量的GPU Pods,将所述GPU服务与所述GPU Pods进行关联;第二关联模块,配置用于根据GPU Pods的配置创建Kubernetes Pods,并将所述Kubernetes Pods与所述GPU Pods进行关联;计算模块,配置用于响应于接收到计算请求,根据所述计算请求确定需要申请的GPU显存或GPU时间片的规格并与所述GPU服务规定的阈值比对;第一判断模块,配置用于响应于所述GPU显存或时间片的规格小于所述GPU服务规定的阈值,读取所述GPU Pods和Kubernetes Pods的当前资源剩余量并与所述GPU显存或时间片的规格比对;以及第二判断模块,配置用于响应于所述GPU显存或时间片的规格小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率调度所述GPU Pods和Kubernetes Pods进行计算。
本发明实施例的又一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现如上方法的步骤。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
本发明具有以下有益技术效果:采用Kubernetes的自定义资源、自定义注解等功能实现虚拟服务的注册和调度,采用CUDA劫持的方式来实现GPU显存申请限制和GPU时间片占用控制,从而根据计算请求合理分配资源。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明提供的多个服务共享同一个GPU的方法的实施例的示意图;
图2为本发明提供的多个服务共享同一个GPU的方法的实施例的流程图;
图3为本发明提供的多个服务共享同一个GPU的计算机设备的实施例的硬件结构示意图;
图4为本发明提供的多个服务共享同一个GPU的计算机存储介质的实施例的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种多个服务共享同一个GPU的方法的实施例。图1示出的是本发明提供的多个服务共享同一个GPU的方法的实施例的示意图。如图1所示,本发明实施例包括如下步骤:
S1、响应于接收到创建GPU服务的请求,根据请求创建对应的GPU服务,并根据GPU服务创建对应数量的GPU Pods,将GPU服务与GPU Pods进行关联;
S2、根据GPU Pods的配置创建Kubernetes Pods,并将Kubernetes Pods与GPUPods进行关联;
S3、响应于接收到计算请求,根据计算请求确定需要申请的GPU显存或GPU时间片的规格并与所述GPU服务规定的阈值比对;
S4、响应于GPU显存或时间片的规格小于GPU服务规定的阈值,读取GPU Pods和Kubernetes Pods的当前资源剩余量并与所述GPU显存或时间片的规格比对;以及
S5、响应于GPU显存或时间片的规格小于GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率调度GPU Pods和Kubernetes Pods进行计算。
Kubernetes集群的主节点中部署了GPU服务控制器、GPU Pod调度器和GPU Pod控制器。其中,GPU服务控制器负责创建GPU Pods,GPU Pod调度器负责调度GPU Pods,GPU Pod控制器负责根据GPU Pods的配置创建Kubernetes Pods。Kubernetes集群的GPU节点中部署了GPU节点代理模块和用户创建的GPU服务。GPU节点代理模块负责从GPU服务处接收GPU显存申请、GPU时间片申请请求,GPU节点代理根据GPU服务的资源申请配额计算出本次申请是否允许,如果申请不允许,那么将返回失败给GPU服务,如果申请允许,那么将返回成功给GPU服务,GPU服务模块负责向GPU节点代理发送GPU显存申请、GPU时间片申请请求,执行计算和返回结果。
图2为本发明提供的多个服务共享同一个GPU的方法的实施例的流程图。如图2所示,用户向GPU服务控制器发送创建GPU服务请求,GPU服务控制器创建GPU Pods,GPU Pods调度器调度GPU Pods;GPU POD控制器根据GPU Pods创建Kubernetes Pods。用户向GPU服务发送计算请求,GPU服务向GPU节点代理发送显存申请、GPU时间片申请检查,检查通过则GPU服务进行计算并向用户返回计算结果。
响应于接收到创建GPU服务的请求,根据请求创建对应的GPU服务,并根据GPU服务创建对应数量的GPU Pods,将GPU服务与GPU Pods进行关联。用户发起创建GPU服务的HTTP(Hyper Text Transfer Protocol,超文本传输协议)请求,Kubernetes创建GPU服务自定义资源;GPU服务控制器检测到GPU服务自定义资源,创建GPU Pods,并将GPU服务与GPU Pods进行关联。
根据GPU Pods的配置创建Kubernetes Pods,并将Kubernetes Pods与GPU Pods进行关联。GPU Pod调度器检测到GPU Pods,根据GPU Pods的配置创建Kubernetes Pods,并将GPU Pods和Kubernetes Pods关联起来,至此,GPU服务、GPU Pods、Kubernetes Pods三者关联在一起。
响应于接收到计算请求,根据计算请求确定需要申请的GPU显存或GPU时间片的规格。当用户发送计算请求给GPU服务的时候,GPU服务会根据计算请求向GPU节点代理发送HTTP请求来申请GPU显存或者GPU时间片。
判断GPU显存或时间片的规格是否小于GPU服务规定的阈值,响应于GPU显存或时间片的规格小于GPU服务规定的阈值,读取GPU Pods和Kubernetes Pods的当前资源剩余量。
在一些实施方式中,还包括:响应于所述GPU显存或时间片的规格不小于所述GPU服务规定的阈值,根据所述GPU显存或时间片的规格生成新的创建GPU服务的请求。例如,GPU服务规定的阈值为10G,而GPU显存或时间片的规格为20G,则需要根据GPU显存或时间片的规格生成新的创建GPU服务的请求。
判断GPU显存或时间片的规格是否小于GPU Pods和Kubernetes Pods的当前资源剩余量的总和,响应于GPU显存或时间片的规格小于GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率调度GPU Pods和Kubernetes Pods进行计算。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将计算任务分配给每个GPU Pods和Kubernetes Pods以使得所述GPUPods和Kubernetes Pods在进行计算时资源使用率相同。例如,GPU Pods的当前资源使用率分别为10%、30%和50%,每个GPU Pods对应的Kubernetes Pods均为60%,就可以将计算任务分配给GPU Pods和Kubernetes Pods使得GPU Pods和Kubernetes Pods的资源使用率相同,例如均为70%。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将GPU Pods按照算力从大到小进行排序,将计算任务按照顺序分给GPUPods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。例如,将GPU Pods按照算力从大到小进行排序分别为GPU Pods1、GPU Pods2和GPU Pods3,首先将计算任务分配给GPU Pods1,当GPU Pods1的资源使用率达到第三阈值(例如80%)后再将任务分到GPU Pods2。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将GPU Pods按照当前资源使用率从小到大进行排序,将计算任务按照顺序分给GPU Pods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。例如,将GPU Pods按照当前资源使用率从小到大进行排序分别为GPU Pods2、GPU Pods3和GPU Pods1,首先将计算任务分配给GPU Pods2,当GPU Pods2的资源使用率达到第三阈值(例如80%)后再将任务分到GPU Pods3。
在一些实施方式中,还包括:响应于所述GPU显存或时间片的规格不小于所述GPUPods和Kubernetes Pods的当前资源剩余量的总和,将失败次数加一并每隔预设时间再次判断所述GPU显存或时间片的规格是否小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和。
在一些实施方式中,还包括:判断失败次数是否达到第二阈值,响应于失败次数达到第二阈值,增加所述预设时间的大小。
需要特别指出的是,上述多个服务共享同一个GPU的方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于多个服务共享同一个GPU的方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
基于上述目的,本发明实施例的第二个方面,提出了一种多个服务共享同一个GPU的***,包括:第一关联模块,配置用于响应于接收到创建GPU服务的请求,根据所述请求创建对应的GPU服务,并根据所述GPU服务创建对应数量的GPU Pods,将所述GPU服务与所述GPU Pods进行关联;第二关联模块,配置用于根据GPU Pods的配置创建Kubernetes Pods,并将所述Kubernetes Pods与所述GPU Pods进行关联;计算模块,配置用于响应于接收到计算请求,根据所述计算请求确定需要申请的GPU显存或GPU时间片的规格并与所述GPU服务规定的阈值比对;第一判断模块,配置用于响应于所述GPU显存或时间片的规格小于所述GPU服务规定的阈值,读取所述GPU Pods和Kubernetes Pods的当前资源剩余量并与所述GPU显存或时间片的规格比对;以及第二判断模块,配置用于响应于所述GPU显存或时间片的规格小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率调度所述GPU Pods和Kubernetes Pods进行计算。
在一些实施方式中,***还包括创建模块,配置用于:响应于所述GPU显存或时间片的规格不小于所述GPU服务规定的阈值,根据所述GPU显存或时间片的规格生成新的创建GPU服务的请求。
在一些实施方式中,***还包括检测模块,配置用于:响应于所述GPU显存或时间片的规格不小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,将失败次数加一并每隔预设时间再次判断所述GPU显存或时间片的规格是否小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和。
在一些实施方式中,***还包括第三判断模块,配置用于:判断失败次数是否达到第二阈值,响应于失败次数达到第二阈值,增加所述预设时间的大小。
在一些实施方式中,所述第二判断模块配置用于:将计算任务分配给每个GPUPods和Kubernetes Pods以使得所述GPU Pods和Kubernetes Pods在进行计算时资源使用率相同。
在一些实施方式中,所述第二判断模块配置用于:将GPU Pods按照算力从大到小进行排序,将计算任务按照顺序分给GPU Pods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
在一些实施方式中,所述第二判断模块配置用于:将GPU Pods按照当前资源使用率从小到大进行排序,将计算任务按照顺序分给GPU Pods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
基于上述目的,本发明实施例的第三个方面,提出了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行以实现如下步骤:S1、响应于接收到创建GPU服务的请求,根据请求创建对应的GPU服务,并根据GPU服务创建对应数量的GPU Pods,将GPU服务与GPU Pods进行关联;S2、根据GPUPods的配置创建Kubernetes Pods,并将Kubernetes Pods与GPU Pods进行关联;S3、响应于接收到计算请求,根据计算请求确定需要申请的GPU显存或GPU时间片的规格并与所述GPU服务规定的阈值比对;S4、响应于GPU显存或时间片的规格小于GPU服务规定的阈值,读取GPU Pods和Kubernetes Pods的当前资源剩余量并与所述GPU显存或时间片的规格比对;以及S5、响应于GPU显存或时间片的规格小于GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率调度GPU Pods和Kubernetes Pods进行计算。
在一些实施方式中,步骤还包括:响应于所述GPU显存或时间片的规格不小于所述GPU服务规定的阈值,根据所述GPU显存或时间片的规格生成新的创建GPU服务的请求。
在一些实施方式中,步骤还包括:响应于所述GPU显存或时间片的规格不小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,将失败次数加一并每隔预设时间再次判断所述GPU显存或时间片的规格是否小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和。
在一些实施方式中,步骤还包括:判断失败次数是否达到第二阈值,响应于失败次数达到第二阈值,增加所述预设时间的大小。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将计算任务分配给每个GPU Pods和Kubernetes Pods以使得所述GPUPods和Kubernetes Pods在进行计算时资源使用率相同。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将GPU Pods按照算力从大到小进行排序,将计算任务按照顺序分给GPUPods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
在一些实施方式中,所述根据当前资源使用率调度所述GPU Pods和KubernetesPods进行计算包括:将GPU Pods按照当前资源使用率从小到大进行排序,将计算任务按照顺序分给GPU Pods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
如图3所示,为本发明提供的上述多个服务共享同一个GPU的计算机设备的一个实施例的硬件结构示意图。
以如图3所示的装置为例,在该装置中包括一个处理器201以及一个存储器202,并还可以包括:输入装置203和输出装置204。
处理器201、存储器202、输入装置203和输出装置204可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器202作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的多个服务共享同一个GPU的方法对应的程序指令/模块。处理器201通过运行存储在存储器202中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的多个服务共享同一个GPU的方法。
存储器202可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据多个服务共享同一个GPU的方法的使用所创建的数据等。此外,存储器202可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器202可选包括相对于处理器201远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置203可接收输入的用户名和密码等信息。输出装置204可包括显示屏等显示设备。
多个服务共享同一个GPU的方法对应的程序指令/模块存储在存储器202中,当被处理器201执行时,执行上述任意方法实施例中的多个服务共享同一个GPU的方法。
执行上述多个服务共享同一个GPU的方法的计算机设备的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时执行如上方法的计算机程序。
如图4所示,为本发明提供的上述多个服务共享同一个GPU的计算机存储介质的一个实施例的示意图。以如图4所示的计算机存储介质为例,计算机可读存储介质3存储有被处理器执行时执行如上方法的计算机程序31。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,多个服务共享同一个GPU的方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (9)
1.一种多个服务共享同一个GPU的方法,其特征在于,包括以下步骤:
响应于接收到创建GPU服务的请求,根据所述请求创建对应的GPU服务,并根据所述GPU服务创建对应数量的GPU Pods,将所述GPU服务与所述GPU Pods进行关联;
根据GPU Pods的配置创建Kubernetes Pods,并将所述Kubernetes Pods与所述GPUPods进行关联;
响应于接收到计算请求,根据所述计算请求确定需要申请的GPU显存或GPU时间片的规格并与所述GPU服务规定的阈值比对;
响应于所述GPU显存或时间片的规格不小于所述GPU服务规定的阈值,根据所述GPU显存或时间片的规格生成新的创建GPU服务的请求;
响应于所述GPU显存或时间片的规格小于所述GPU服务规定的阈值,读取所述GPU Pods和Kubernetes Pods的当前资源剩余量并与所述GPU显存或时间片的规格比对;以及
响应于所述GPU显存或时间片的规格小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率和/或算力调度所述GPU Pods和Kubernetes Pods进行计算。
2.根据权利要求1所述的方法,其特征在于,还包括:
响应于所述GPU显存或时间片的规格不小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,将失败次数加一并每隔预设时间再次判断所述GPU显存或时间片的规格是否小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和。
3.根据权利要求2所述的方法,其特征在于,还包括:
判断失败次数是否达到第二阈值,响应于失败次数达到第二阈值,增加所述预设时间的大小。
4.根据权利要求1所述的方法,其特征在于,所述根据当前资源使用率调度所述GPUPods和Kubernetes Pods进行计算包括:
将计算任务分配给每个GPU Pods和Kubernetes Pods以使得所述GPU Pods和Kubernetes Pods在进行计算时资源使用率相同。
5.根据权利要求1所述的方法,其特征在于,所述根据当前资源使用率调度所述GPUPods和Kubernetes Pods进行计算包括:
将GPU Pods按照算力从大到小进行排序,将计算任务按照顺序分给GPU Pods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
6.根据权利要求1所述的方法,其特征在于,所述根据当前资源使用率调度所述GPUPods和Kubernetes Pods进行计算包括:
将GPU Pods按照当前资源使用率从小到大进行排序,将计算任务按照顺序分给GPUPods,以使得当前GPU Pods的资源使用率达到第三阈值后再将剩余的计算任务分配给后一个GPU Pods。
7.一种多个服务共享同一个GPU的***,其特征在于,包括:
第一关联模块,配置用于响应于接收到创建GPU服务的请求,根据所述请求创建对应的GPU服务,并根据所述GPU服务创建对应数量的GPU Pods,将所述GPU服务与所述GPU Pods进行关联;
第二关联模块,配置用于根据GPU Pods的配置创建Kubernetes Pods,并将所述Kubernetes Pods与所述GPU Pods进行关联;
计算模块,配置用于响应于接收到计算请求,根据所述计算请求确定需要申请的GPU显存或GPU时间片的规格并与所述GPU服务规定的阈值比对;
第一判断模块,配置用于响应于所述GPU显存或时间片的规格不小于所述GPU服务规定的阈值,根据所述GPU显存或时间片的规格生成新的创建GPU服务的请求;
所述第一判断模块,还配置用于响应于所述GPU显存或时间片的规格小于所述GPU服务规定的阈值,读取所述GPU Pods和Kubernetes Pods的当前资源剩余量并与所述GPU显存或时间片的规格比对;以及
第二判断模块,配置用于响应于所述GPU显存或时间片的规格小于所述GPU Pods和Kubernetes Pods的当前资源剩余量的总和,根据当前资源使用率和/或算力调度所述GPUPods和Kubernetes Pods进行计算。
8.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现权利要求1-6任意一项所述方法的步骤。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6任意一项所述方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110271407.8A CN113127192B (zh) | 2021-03-12 | 2021-03-12 | 一种多个服务共享同一个gpu的方法、***、设备及介质 |
EP22766105.5A EP4235426A4 (en) | 2021-03-12 | 2022-01-28 | METHOD AND SYSTEM FOR MULTIPLE SERVICES TO SHARE THE SAME GPU, DEVICE AND MEDIUM |
PCT/CN2022/074621 WO2022188578A1 (zh) | 2021-03-12 | 2022-01-28 | 一种多个服务共享同一个gpu的方法、***、设备及介质 |
US18/038,694 US20240095082A1 (en) | 2021-03-12 | 2022-01-28 | Method and system for multiple services to share same gpu, and device and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110271407.8A CN113127192B (zh) | 2021-03-12 | 2021-03-12 | 一种多个服务共享同一个gpu的方法、***、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113127192A CN113127192A (zh) | 2021-07-16 |
CN113127192B true CN113127192B (zh) | 2023-02-28 |
Family
ID=76773076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110271407.8A Active CN113127192B (zh) | 2021-03-12 | 2021-03-12 | 一种多个服务共享同一个gpu的方法、***、设备及介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240095082A1 (zh) |
EP (1) | EP4235426A4 (zh) |
CN (1) | CN113127192B (zh) |
WO (1) | WO2022188578A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113127192B (zh) * | 2021-03-12 | 2023-02-28 | 山东英信计算机技术有限公司 | 一种多个服务共享同一个gpu的方法、***、设备及介质 |
CN114217977B (zh) * | 2021-12-23 | 2023-01-10 | 北京百度网讯科技有限公司 | 资源分配方法、装置、设备以及存储介质 |
CN115373859B (zh) * | 2022-10-26 | 2023-03-24 | 小米汽车科技有限公司 | 基于Kubernetes集群的模型服务容量调整方法及其装置 |
CN118012599A (zh) * | 2022-11-10 | 2024-05-10 | 超聚变数字技术有限公司 | 资源配置方法、服务器集群和服务器节点 |
CN115562878B (zh) * | 2022-12-06 | 2023-06-02 | 苏州浪潮智能科技有限公司 | Gpu计算资源的管理方法、装置、电子设备及可读存储介质 |
CN117421123B (zh) * | 2023-11-03 | 2024-04-19 | 摩尔线程智能科技(上海)有限责任公司 | 一种gpu资源调整方法及***、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111858045A (zh) * | 2020-07-13 | 2020-10-30 | 苏州浪潮智能科技有限公司 | 一种多任务gpu资源调度方法、装置、设备及可读介质 |
CN112187864A (zh) * | 2020-09-02 | 2021-01-05 | 深圳市欢太科技有限公司 | 负载均衡方法、装置、存储介质及电子设备 |
CN112463375A (zh) * | 2020-11-26 | 2021-03-09 | 广州橙行智动汽车科技有限公司 | 一种数据处理的方法和装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6572330B2 (ja) * | 2018-01-26 | 2019-09-04 | 株式会社インテック | ロボットアプリケーション管理装置、システム、方法及びプログラム |
US11151682B2 (en) * | 2019-07-22 | 2021-10-19 | Verizon Patent And Licensing Inc. | System and methods for distributed GPU using multi-access edge compute services |
CN111506404A (zh) * | 2020-04-07 | 2020-08-07 | 上海德拓信息技术股份有限公司 | 一种基于Kubernetes的共享GPU调度方法 |
CN111475303B (zh) * | 2020-04-08 | 2022-11-25 | 苏州浪潮智能科技有限公司 | 一种gpu共享调度、单机多卡方法、***及装置 |
CN112231049A (zh) * | 2020-09-28 | 2021-01-15 | 苏州浪潮智能科技有限公司 | 基于kubernetes的计算设备共享方法、装置、设备及存储介质 |
CN113127192B (zh) * | 2021-03-12 | 2023-02-28 | 山东英信计算机技术有限公司 | 一种多个服务共享同一个gpu的方法、***、设备及介质 |
-
2021
- 2021-03-12 CN CN202110271407.8A patent/CN113127192B/zh active Active
-
2022
- 2022-01-28 US US18/038,694 patent/US20240095082A1/en active Pending
- 2022-01-28 WO PCT/CN2022/074621 patent/WO2022188578A1/zh active Application Filing
- 2022-01-28 EP EP22766105.5A patent/EP4235426A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111858045A (zh) * | 2020-07-13 | 2020-10-30 | 苏州浪潮智能科技有限公司 | 一种多任务gpu资源调度方法、装置、设备及可读介质 |
CN112187864A (zh) * | 2020-09-02 | 2021-01-05 | 深圳市欢太科技有限公司 | 负载均衡方法、装置、存储介质及电子设备 |
CN112463375A (zh) * | 2020-11-26 | 2021-03-09 | 广州橙行智动汽车科技有限公司 | 一种数据处理的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP4235426A4 (en) | 2024-03-13 |
CN113127192A (zh) | 2021-07-16 |
US20240095082A1 (en) | 2024-03-21 |
WO2022188578A1 (zh) | 2022-09-15 |
EP4235426A1 (en) | 2023-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113127192B (zh) | 一种多个服务共享同一个gpu的方法、***、设备及介质 | |
CN115328663B (zh) | 基于PaaS平台进行资源调度的方法、装置、设备和存储介质 | |
Kliazovich et al. | CA-DAG: Modeling communication-aware applications for scheduling in cloud computing | |
CN108399101B (zh) | 资源调度的方法、装置和*** | |
CN105979009A (zh) | 一种针对云应用容器的增加负载自动均衡方法 | |
CN111880936B (zh) | 资源调度方法、装置、容器集群、计算机设备和存储介质 | |
CN105159775A (zh) | 基于负载均衡器的云计算数据中心的管理***和管理方法 | |
Ilkhechi et al. | Network-aware virtual machine placement in cloud data centers with multiple traffic-intensive components | |
CN105335229A (zh) | 一种业务资源的调度方法和装置 | |
CN108021400B (zh) | 数据处理方法及装置、计算机存储介质及设备 | |
CN103051564A (zh) | 资源动态调配的方法和装置 | |
CN108933829A (zh) | 一种负载均衡方法及装置 | |
CN111858054A (zh) | 一种异构环境下基于边缘计算的资源调度***及方法 | |
CN112579622A (zh) | 业务数据的处理方法、装置及设备 | |
CN114615340B (zh) | 一种请求处理方法、装置、计算机设备和存储装置 | |
CN111800441B (zh) | 数据处理方法、***、装置、用户端服务器、用户端及管控服务器 | |
WO2020114608A1 (en) | Method and apparatus for mapping network slices onto network infrastructures with sla guarantee | |
CN111447143A (zh) | 业务服务数据传输方法、装置、计算机设备和存储介质 | |
CN113382077A (zh) | 微服务调度方法、装置、计算机设备和存储介质 | |
CN103677983A (zh) | 应用的调度方法及装置 | |
Kundroo et al. | Node-based horizontal pod autoscaler in kubeedge-based edge computing infrastructure | |
CN112261125B (zh) | 集中单元的云化部署方法、装置及*** | |
EP3672203A1 (en) | Distribution method for distributed data computing, device, server and storage medium | |
US11595471B1 (en) | Method and system for electing a master in a cloud based distributed system using a serverless framework | |
CN111338750A (zh) | 执行节点的压力调节方法、装置、服务器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |