CN105045670A - 中央处理器和图形处理器负载均衡的方法和*** - Google Patents

中央处理器和图形处理器负载均衡的方法和*** Download PDF

Info

Publication number
CN105045670A
CN105045670A CN201510552837.1A CN201510552837A CN105045670A CN 105045670 A CN105045670 A CN 105045670A CN 201510552837 A CN201510552837 A CN 201510552837A CN 105045670 A CN105045670 A CN 105045670A
Authority
CN
China
Prior art keywords
equipment
gpu
cpu
task
device packets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510552837.1A
Other languages
English (en)
Inventor
张广勇
王明清
高永虎
卢晓伟
王娅娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inspur Beijing Electronic Information Industry Co Ltd
Original Assignee
Inspur Beijing Electronic Information Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inspur Beijing Electronic Information Industry Co Ltd filed Critical Inspur Beijing Electronic Information Industry Co Ltd
Priority to CN201510552837.1A priority Critical patent/CN105045670A/zh
Publication of CN105045670A publication Critical patent/CN105045670A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种中央处理器和负载均衡的方法和***,通过对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,再根据计算每个任务所需要的内存空间,将所述CPU设备和所述GPU设备按照编号顺序进行分组,然后将每个任务划分给一个CPU设备分组或一个GPU设备分组来完成每个任务的计算,由于一个组内的CPU设备或GPU设备都相同,即具有相同的内存空间,因此都具有相同的计算能力,将划分的任务数据分配给组内每个CPU设备或者每个GPU设备,使得他们可以同时处理相同的任务数据,从而完成所有任务的计算,进而优化了CPU与GPU设备间负载均衡。

Description

中央处理器和图形处理器负载均衡的方法和***
技术领域
本发明涉及计算机技术,尤指一种中央处理器(CentralProcessingUnit,简称:CPU)和图形处理器(GraphicsProcessingUnit,简称:GPU)负载均衡的方法和***。
背景技术
目前,随着高性能计算应用软件的发展,应用对计算性能的需求越来越高,越来越多的高性能计算应用软件采用的是CPU与GPU异构协同计算的计算模式,即在传统的多核CPU架构基础上扩展GPU架构处理器,组成CPU和GPU混合的架构平台,基于该架构平台设计相应的软件解决方案,使得CPU与GPU能够有效的进行协同计算。其中,CPU与GPU的负载均衡问题是关系到CPU与GPU混合架构平台的计算性能能否发挥到极致的重要因素。
现有技术中,将CPU与GPU异构协同计算集群划分为多个计算节点,节点间采用分布式的计算方法,计算节点内采用CPU与GPU异构并行计算,而对于设备内采用的是共享存储器模型,设计负载均衡时,只需要保证设备之间的负载均衡即可。
但是,采用现有技术,对于CPU与GPU协同计算,由于CPU和GPU计算能力相差很大,如果给CPU设备和GPU设备划分相同的任务或者数据量,则会增加CPU设备与GPU设备间负载均衡的难度。
发明内容
为了解决上述技术问题,本发明提供了一种中央处理器和图形处理器负载均衡的方法和***,能够对CPU设备和GPU设备进行分组来完成任务计算,从而优化了CPU设备与GPU设备间的负载均衡。
第一方面,本发明提供的中央处理器和图形处理器负载均衡的方法,应用于包含多个计算节点的CPU与GPU异构协同计算集群中,包括:
对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,其中,每个计算节点的所有CPU作为一个CPU设备,每个计算节点的一块GPU作为一个GPU设备;
根据计算每个任务需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组;
将每个任务分别划分给一个CPU设备分组或一个GPU设备分组计算。
第二方面,本发明提供的中央处理器和图形处理器负载均衡的***,应用于包含多个计算节点的CPU与GPU异构协同计算集群中,包括:编号单元、分组单元和计算单元;
所述编号单元,用于对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,其中,每个计算节点的所有CPU作为一个CPU设备,每个计算节点的一块GPU作为一个GPU设备;
所述分组单元,用于根据计算每个任务需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组;
所述计算单元,用于将每个任务分别划分给一个CPU设备分组或一个GPU设备分组计算。
与现有技术相比,本发明提供的中央处理器和图形处理器负载均衡的方法和***,应用于包含多个计算节点的CPU与GPU异构协同计算集群中,通过对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,再根据计算每个任务所需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组,然后将每个任务划分给一个CPU设备分组或一个GPU设备分组来完成每个任务的计算,由于一个组内的CPU设备或GPU设备都相同,即具有相同的内存空间,因此都具有相同的计算能力,将划分的任务数据分配给组内每个CPU设备或者每个GPU设备,使得他们可以同时处理相同的任务数据,从而完成所有任务的计算,进而优化了CPU与GPU设备间负载均衡。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本发明技术方案的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本发明的技术方案,并不构成对本发明技术方案的限制。
图1为本发明实施例提供的中央处理器和图形处理器负载均衡的方法实施例一的流程图;
图2本发明实施例提供的中央处理器和图形处理器协同计算任务划分示意图;
图3为本发明实施例提供的中央处理器和图形处理器负载均衡的***结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下文中将结合附图对本发明的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本发明的实施例可应用于包含多个计算节点的CPU和GPU异构协同计算集群的平台上,其中CPU为相同的多核处理器,主要用于程序的逻辑控制、数据的IO操作、网络通信、部分核心计算等;GPU相同的为众核处理器,主要用于核心任务的计算,但并不以此为限。
本发明实施例涉及的方法,旨在解决现有技术中由于CPU和GPU计算能力相差很大,如果在给CPU设备和GPU设备划分相同的任务或者数据量时,则增加CPU与GPU设备间负载均衡的难度的技术问题。
图1为本发明实施例提供的中央处理器和图形处理器负载均衡的方法实施例一的流程图;图2为本发明实施例提供的中央处理器和图形处理器协同计算任务划分示意图;如图1-图2所示,包括:
S101、对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,其中,每个计算节点的所有CPU作为一个CPU设备,每个计算节点的一块GPU卡作为一个GPU设备。
具体的,CPU与GPU异构协同计算集群中包含一个或多个相同的CPU和一个或多个相同的GPU,其中,每个计算节点上的所有CPU可以看作一个设备,每块GPU卡可以看作一个设备,对所有CPU设备和GPU设备分别编号,为了更好的说明本方案,特举例说明,假设N个节点上共有N个CPU,则N个节点上共有N个CPU设备,每个节点上有M块GPU卡,则N个节点上共有M*N个GPU设备,给每个CPU设备编号,可以为1,2,…,N;给每个GPU设备编号,可以为1,2,…,M*N,还可以采用字母或者其他的编码,只需要保证可以每个CPU设备和GPU设备有可以被识别的编号即可,但并不限于此。
S102、根据计算每个任务需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组。
具体的,每个任务的数据结构成员包括任务大小、任务总时间、单位任务平均时间、相对性能加速比指数等,其中有些任务不能细分,一个CPU设备或者一个GPU设备上可用的内存空间不满足其计算的内存要求,就需要多个CPU设备或者GPU设备对任务进行共同计算,此时根据计算每个任务需要的内存空间的大小,可以将多个计算节点内的CPU设备按照编号顺序划分为一个CPU设备分组,例如,如果设置4个CPU设备分为一个CPU设备分组,按照编号顺序可以1-4号的CPU设备分到一个CPU设备分组,5-8号的CPU设备分到一个CPU设备分组,由于所有的CPU设备相同,即具有相同的内存空间,这样组内的CPU设备的计算能力一致,从而可以同时处理相同的任务,同样可以根据计算每个任务需要的内存空间的大小,可以将多个计算节点内的相同的GPU设备划分为一个GPU设备分组,由于所有的GPU设备相同,即具有相同的内存空间,这样组内的GPU设备的计算能力一致,从而可以同时处理相同的任务,这样的分组可以有效利用所有的CPU设备和GPU设备的计算能力,避免了现有技术中在CPU与GPU异构协同计算集群中一个计算节点内采用CPU与GPU异构并行计算而导致的任务完成效率低的技术问题。
S103、将每个任务分别划分给一个CPU设备分组或一个GPU设备分组计算。
具体的,可以采用是多点接口(MultiPointInterface,简称:MPI)通信模块对每个任务进行动态划分,可以由主进程根据每个CPU设备分组或GPU设备分组已有的任务作为参考信息,在***运行过程中,根据每个CPU设备分组或GPU设备分组的负载状态,随时调整任务的分配,分别划分给一个CPU设备分组或一个GPU设备分组进行计算,使得各计算节点尽可能保持负载的平衡。
本发明实施例提供的中央处理器和图形处理器负载均衡的方法,应用于包含多个计算节点的CPU与GPU异构协同计算集群中,通过对至少一个相同的CPU与至少一个相同的GPU设备分别进行编号,再根据计算每个任务所需要的内存空间,对所述CPU设备和所述GPU设备分别按照编号顺序进行分组,然后将每个任务划分给一个CPU设备分组或一个GPU设备分组来完成每个任务的计算,由于每个组内的CPU设备或GPU设备都相同,即具有相同的的内存空间,因此都具有相同的计算能力,将划分的任务数据分配给组内每个CPU设备或者每个GPU设备,使得他们可以同时处理相同的任务数据,从而完成所有任务的计算,进而优化了CPU与GPU设备间负载均衡。
进一步地,在上述实施例的基础上,上述步骤102,包括:根据所述CPU设备的内存空间以及计算每个任务需要的内存空间的大小,计算得到每个任务需要的所述CPU设备的数目;
将一个任务需要的CPU设备作为一个CPU设备分组,按照计算出的CPU设备数目和总的CPU设备的数目,得到CPU设备的分组数目,按照所述分组数目将所述CPU设备按照编号顺序分组。
具体的,根据所述CPU设备的内存空间以及每个任务需要的内存空间的大小,可以假设计算得到每个任务需要的所述CPU设备的数目为GC,按照以下公式:GC=(Mcom+MemC-1)/MemC,其中,一个计算节点的内存空间的大小为MemC,每个任务需要的内存空间的大小为Mcom,所述每个任务所需要的内存空间是相同的,则可以计算出每个CPU设备分组的CPU设备的数目,如果有N个计算节点,每个计算节点有一个CPU设备,则所有的CPU设备可以分为N/GC个组,每个CPU设备分组计算同一个任务时,可以再对每个CPU设备划分该任务数据,由于组内的CPU设备相同,即具有相同的内存空间,此时组内的CPU设备的计算能力一致,可以采用静态的划分,计算速度更快。
进一步地,在上述实施例的基础上,上述步骤102,包括:根据GPU的内存空间以及每个任务需要的内存空间的大小,计算得到每个任务需要的所述GPU设备的数目;
将一个任务需要的GPU设备作为一个GPU设备分组,按照计算出的GPU设备数目和总GPU设备的数目,得到GPU设备的分组数目;按照所述分组数目将所述GPU设备按照编号顺序分组。
具体的,根据所述GPU设备的内存空间以及每个任务需要的内存的空间大小,可以假设计算得到每个任务计算需要的所述GPU设备的数目为GG,则可以按照以下公式:GG=(Mcom+MemG-1)/MemG,其中,一个计算节点的内存大小为MemG,每个任务需要的内存空间的大小为Mcom,所述每个任务所需要的内存空间是相同的,则可以计算出每个GPU设备分组的GPU设备的数目,如果有N个计算节点,每个计算节点内有M个GPU设备,则所有的GPU设备可以分为M*N/GC个组,每个GPU设备分组计算同一个任务,可以再对每个GPU设备划分该任务数据,由于组内的GPU设备相同,此时组内的GPU设备的计算能力一致,可以采用静态的划分,计算速度更快。
进一步地,在上述实施例的基础上,上述步骤103,包括:将每个任务的编号通知给所划分到的CPU设备分组或GPU设备分组的组长,组长再把划分到本分组的任务编号广播给分组中每个组员,收到相同任务编号的所述CPU设备或者所述GPU设备完成相应任务的计算。
具体为,给每个任务进行编号,具体可以是数字编号或者字母编号,只要有唯一识别的信息即可,然后在每个CPU设备分组或GPU设备分组里设置一个组长,一般选择组内编号最小的设备为组长,由主进程将每个任务的编号划分给每个CPU设备分组或GPU设备分组的组长,由组长把每个任务的编号广播给每个组员,该广播信息可以包括任务编号信息、任务需要的空间等信息,当收到相同任务编号的CPU设备或者GPU设备则同时计算该任务,直至完成任务后可以立即向主进程请求下一个任务,直至将所有任务处理完毕为止。
图3为本发明实施例提供的中央处理器和图形处理器负载均衡的***结构框图,如图3所示,应用于包含多个计算节点的CPU与GPU异构协同计算集群(未示出)中,中央处理器和图形处理器负载均衡的***,包括:编号单元10、分组单元20和计算单元30;
其中,编号单元10,用于对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,其中,每个计算节点的所有CPU作为一个CPU设备,每个计算节点的一块GPU作为一个GPU设备;
分组单元20,用于根据计算每个任务需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组;
计算单元30,用于将每个任务划分给一个CPU设备分组或一个GPU设备分组。
本发明实施例提供的中央处理器和图形处理器负载均衡的***,应用于包含多个计算节点的CPU与GPU异构协同计算集群中,包括:编号单元、分组单元和计算单元,通过编号单元对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,分组单元根据计算每个任务所需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组,然后计算单元将每个任务分辨划分给一个CPU设备分组或一个GPU设备分组完成每个任务的计算,由于每个组内的CPU设备和GPU设备都相同,即具有相同的内存空间,因此具有相同的计算能力,将划分的任务数据分配给组内每个CPU设备或者每个GPU设备,使得他们可以同时处理相同的任务数据,从而完成所有任务的计算,进而优化了CPU与GPU设备间负载均衡。
进一步地,上述分组单元20还包括:CPU设备分组单元210;
所述CPU设备分组单元210:用于根据所述CPU设备的内存空间以及计算每个任务需要的内存空间的大小,计算得到每个任务需要的所述CPU设备的数目;
将一个任务需要的CPU设备作为一个CPU设备分组,按照计算出的数目和总的CPU设备的数目,得到CPU设备的分组数目,按照所述分组数目将所述CPU设备按照编号顺序分组。
本发明实施例提供的中央处理器和图形处理器负载均衡的***,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
进一步地,上述分组单元20还包括:GPU设备分组单元220;
所述GPU设备分组单元220:用于根据所述GPU设备的内存空间以及计算每个任务需要的内存空间的大小,计算得到每个任务需要的所述GPU设备的数目;
将一个任务需要的GPU设备作为一个GPU设备分组,按照计算出的GPU设备数目和总GPU设备的数目,得到GPU设备的分组数目,按照所述分组数目将所述GPU设备按照编号顺序分组。
本发明实施例提供的中央处理器和图形处理器负载均衡的***,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
进一步地,所述计算单元30用于将每个任务分别划分给一个CPU设备分组或一个GPU设备分组具体包括:
将每个任务的编号通知给所划分到的CPU设备分组或GPU设备分组的组长,组长再把划分到本分组的任务编号广播给分组中的每个组员,收到相同任务编号的所述CPU设备或者所述GPU设备完成相应任务的计算。
本发明实施例提供的中央处理器和图形处理器负载均衡的***,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
虽然本发明所揭露的实施方式如上,但所述的内容仅为便于理解本发明而采用的实施方式,并非用以限定本发明。任何本发明所属领域内的技术人员,在不脱离本发明所揭露的精神和范围的前提下,可以在实施的形式及细节上进行任何的修改与变化,但本发明的专利保护范围,仍须以所附的权利要求书所界定的范围为准。

Claims (8)

1.一种中央处理器和图形处理器负载均衡的方法,其特征在于,应用于包含多个计算节点的CPU与GPU异构协同计算集群中,包括:
对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,其中,每个计算节点的所有CPU作为一个CPU设备,每个计算节点的一块GPU作为一个GPU设备;
根据计算每个任务需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组;
将每个任务分别划分给一个CPU设备分组或一个GPU设备分组计算。
2.根据权利要求1所述的中央处理器和图形处理器负载均衡的方法,其特征在于,所述根据计算每个任务需要的内存空间,将所述CPU设备按照编号顺序分组,包括:
根据所述CPU设备的内存空间以及计算每个任务需要的内存空间的大小,计算得到每个任务需要的所述CPU设备的数目;
将一个任务需要的CPU设备作为一个CPU设备分组,按照计算出的CPU设备数目和总的CPU设备的数目,得到CPU设备的分组数目,按照所述分组数目将所述CPU设备按照编号顺序分组。
3.根据权利要求1所述的中央处理器和图形处理器负载均衡的方法,其特征在于,所述根据计算每个任务需要的内存空间,将所述GPU设备按照编号顺序分组,包括:
根据所述GPU设备的内存空间以及计算每个任务需要的内存空间的大小,计算得到每个任务需要的所述GPU设备的数目;
将一个任务需要的GPU设备作为一个GPU设备分组,按照计算出的GPU设备数目和总GPU设备的数目,得到GPU设备的分组数目;按照所述分组数目将所述GPU设备按照编号顺序分组。
4.根据权利要求1所述所述的中央处理器和图形处理器负载均衡的方法,其特征在于,所述将每个任务分别划分给一个CPU设备分组或一个GPU设备分组计算,包括:
将每个任务的编号通知给所划分到的CPU设备分组或GPU设备分组的组长,组长再把划分到本分组的任务编号广播给分组中每个组员,收到相同任务编号的所述CPU设备或者所述GPU设备完成相应任务的计算。
5.一种中央处理器和图形处理器负载均衡的***,其特征在于,应用于包含多个计算节点的CPU与GPU异构协同计算集群中,包括:编号单元、分组单元和计算单元;
所述编号单元,用于对至少一个相同的CPU设备和至少一个相同的GPU设备分别进行编号,其中,每个计算节点的所有CPU作为一个CPU设备,每个计算节点的一块GPU作为一个GPU设备;
所述分组单元,用于根据计算每个任务需要的内存空间,将所述CPU设备和所述GPU设备分别按照编号顺序进行分组;
所述计算单元,用于将每个任务分别划分给一个CPU设备分组或一个GPU设备分组计算。
6.根据权利要求5所述的中央处理器和图形处理器负载均衡的***,其特征在于,所述分组单元还包括:CPU设备分组单元;
所述CPU设备分组单元:用于根据所述CPU设备的内存空间以及计算每个任务需要的内存空间的大小,计算得到每个任务需要的所述CPU设备的数目;
将一个任务需要的CPU设备作为一个CPU设备分组,按照计算出的数目和总的CPU设备的数目,得到CPU设备的分组数目,按照所述分组数目将所述CPU设备按照编号顺序分组。
7.根据权利要求5所述的中央处理器和图形处理器负载均衡的***,其特征在于,所述分组单元还包括:GPU设备分组单元;
所述GPU设备分组单元:用于根据所述GPU设备的内存空间以及计算每个任务需要的内存空间的大小,计算得到每个任务需要的所述GPU设备的数目;
将一个任务需要的GPU设备作为一个GPU设备分组,按照计算出的GPU设备数目和总GPU设备的数目,得到GPU设备的分组数目,按照所述分组数目将所述GPU设备按照编号顺序分组。
8.根据权利要求7所述的中央处理器和图形处理器负载均衡的***,其特征在于,所述计算单元用于将每个任务分别划分给一个CPU设备分组或一个GPU设备分组计算具体包括:
将每个任务的编号通知给所划分到的CPU设备分组或GPU设备分组的组长,组长再把划分到本分组的任务编号广播给分组中的每个组员,收到相同任务编号的所述CPU设备或者所述GPU设备完成相应任务的计算。
CN201510552837.1A 2015-09-01 2015-09-01 中央处理器和图形处理器负载均衡的方法和*** Pending CN105045670A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510552837.1A CN105045670A (zh) 2015-09-01 2015-09-01 中央处理器和图形处理器负载均衡的方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510552837.1A CN105045670A (zh) 2015-09-01 2015-09-01 中央处理器和图形处理器负载均衡的方法和***

Publications (1)

Publication Number Publication Date
CN105045670A true CN105045670A (zh) 2015-11-11

Family

ID=54452234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510552837.1A Pending CN105045670A (zh) 2015-09-01 2015-09-01 中央处理器和图形处理器负载均衡的方法和***

Country Status (1)

Country Link
CN (1) CN105045670A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017148246A1 (zh) * 2016-03-01 2017-09-08 中兴通讯股份有限公司 一种数据配置方法和装置
CN109871848A (zh) * 2017-12-01 2019-06-11 北京搜狗科技发展有限公司 一种移动终端的文字识别方法及装置
CN109933433A (zh) * 2019-03-19 2019-06-25 合肥中科类脑智能技术有限公司 一种gpu资源调度***及其调度方法
CN110275771A (zh) * 2018-03-15 2019-09-24 ***通信集团有限公司 一种业务处理方法、物联网计费基础设施***及存储介质
CN112733401A (zh) * 2020-12-30 2021-04-30 杭州电子科技大学 面向反应堆堆芯组件数值模拟的有限元撕裂对接法及***
WO2023159568A1 (zh) * 2022-02-28 2023-08-31 华为技术有限公司 一种任务调度方法、npu、芯片、电子设备和可读介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8239524B2 (en) * 2008-12-16 2012-08-07 International Business Machines Corporation Techniques for dynamically assigning jobs to processors in a cluster based on processor workload
CN103870322A (zh) * 2012-12-17 2014-06-18 联发科技股份有限公司 控制任务转移的方法、非暂时性计算机可读介质、异构多核***
CN104156271A (zh) * 2014-08-01 2014-11-19 浪潮(北京)电子信息产业有限公司 一种协同计算集群负载均衡的方法及***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8239524B2 (en) * 2008-12-16 2012-08-07 International Business Machines Corporation Techniques for dynamically assigning jobs to processors in a cluster based on processor workload
CN103870322A (zh) * 2012-12-17 2014-06-18 联发科技股份有限公司 控制任务转移的方法、非暂时性计算机可读介质、异构多核***
CN104156271A (zh) * 2014-08-01 2014-11-19 浪潮(北京)电子信息产业有限公司 一种协同计算集群负载均衡的方法及***

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017148246A1 (zh) * 2016-03-01 2017-09-08 中兴通讯股份有限公司 一种数据配置方法和装置
CN109871848A (zh) * 2017-12-01 2019-06-11 北京搜狗科技发展有限公司 一种移动终端的文字识别方法及装置
CN110275771A (zh) * 2018-03-15 2019-09-24 ***通信集团有限公司 一种业务处理方法、物联网计费基础设施***及存储介质
CN109933433A (zh) * 2019-03-19 2019-06-25 合肥中科类脑智能技术有限公司 一种gpu资源调度***及其调度方法
CN109933433B (zh) * 2019-03-19 2021-06-25 合肥中科类脑智能技术有限公司 一种gpu资源调度***及其调度方法
CN112733401A (zh) * 2020-12-30 2021-04-30 杭州电子科技大学 面向反应堆堆芯组件数值模拟的有限元撕裂对接法及***
CN112733401B (zh) * 2020-12-30 2024-03-12 杭州电子科技大学 面向反应堆堆芯组件数值模拟的有限元撕裂对接法及***
WO2023159568A1 (zh) * 2022-02-28 2023-08-31 华为技术有限公司 一种任务调度方法、npu、芯片、电子设备和可读介质

Similar Documents

Publication Publication Date Title
CN105045670A (zh) 中央处理器和图形处理器负载均衡的方法和***
US8631410B2 (en) Scheduling jobs in a cluster having multiple computing nodes by constructing multiple sub-cluster based on entry and exit rules
CN104714850B (zh) 一种基于opencl的异构共同计算均衡方法
CN102567080B (zh) 一种云计算环境中的面向负载均衡的虚拟机择位***
CN103761215B (zh) 基于图形处理器的矩阵转置优化方法
US9354826B2 (en) Capacity expansion method and device
CN109191287B (zh) 一种区块链智能合约的分片方法、装置及电子设备
CN103207774A (zh) 用于解决线程发散的方法和***
CN104166594A (zh) 负载均衡控制方法及相关装置
KR20190025746A (ko) 계산 작업을 처리하기 위한 컴퓨터 클러스터 장치 및 이를 작동시키기 위한 방법
WO2017000645A1 (zh) 一种分配宿主机资源的方法和装置
CN105912386A (zh) 线程管理方法及***
CN103425534A (zh) 在许多应用之间共享的图形处理单元
KR20140080795A (ko) 가상화 환경 내 하둡 맵리듀스의 부하 분산 방법 및 시스템
CN104156271B (zh) 一种协同计算集群负载均衡的方法及***
CN111083189B (zh) 用于在运行时处理数据倾斜的***和方法
Sasi et al. Straggler mitigation with tiered gradient codes
Wu et al. Using hybrid MPI and OpenMP programming to optimize communications in parallel loop self-scheduling schemes for multicore PC clusters
CN110764824A (zh) 一种gpu上的图计算数据划分方法
CN104615584A (zh) 面向gpdsp的大规模三角线性方程组求解向量化计算的方法
KR102193747B1 (ko) 매니코어 시스템의 하이퍼바이저에서 스케줄링 하는 방법
US10013393B2 (en) Parallel computer system, parallel computing method, and program storage medium
JP2014167713A (ja) 情報処理装置、情報処理システム、情報処理装置管理プログラム及び情報処理装置管理方法
Liu et al. BSPCloud: A hybrid distributed-memory and shared-memory programming model
Khan et al. Static Approach for Efficient Task Allocation in Distributed Environment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20151111