CN115391053B - 基于cpu和gpu混合计算的在线服务方法及装置 - Google Patents

基于cpu和gpu混合计算的在线服务方法及装置 Download PDF

Info

Publication number
CN115391053B
CN115391053B CN202211315013.9A CN202211315013A CN115391053B CN 115391053 B CN115391053 B CN 115391053B CN 202211315013 A CN202211315013 A CN 202211315013A CN 115391053 B CN115391053 B CN 115391053B
Authority
CN
China
Prior art keywords
online service
gpu
service request
cpu
computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211315013.9A
Other languages
English (en)
Other versions
CN115391053A (zh
Inventor
曲昱汇
张献涛
支涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yunji Technology Co Ltd
Original Assignee
Beijing Yunji Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yunji Technology Co Ltd filed Critical Beijing Yunji Technology Co Ltd
Priority to CN202211315013.9A priority Critical patent/CN115391053B/zh
Publication of CN115391053A publication Critical patent/CN115391053A/zh
Application granted granted Critical
Publication of CN115391053B publication Critical patent/CN115391053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本申请提供一种基于CPU和GPU混合计算的在线服务方法及装置。该方法包括:将接收到的在线业务请求添加到缓存队列中;根据定时任务或者触发事件,选择计算组件对缓存队列中的在线业务请求进行异步处理,其中,计算组件包括CPU和GPU;在调用计算组件对在线业务请求进行异步处理过程中,依据缓存队列中的在线业务请求的数量以及计算组件的平均计算耗时,确定每个计算组件对应的权重;依据每个计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将在线业务请求对应的业务结果存储到业务结果集合中,业务结果集合中包含在线业务请求的标识信息以及与标识信息对应的业务结果信息。本申请提升了在线计算服务的计算效率,提高了硬件资源的利用率。

Description

基于CPU和GPU混合计算的在线服务方法及装置
技术领域
本申请涉及计算机技术领域,尤其涉及一种基于CPU和GPU混合计算的在线服务方法及装置。
背景技术
当前的GPU(Graphic Processing Unit,图形处理单元)具有很好的并行处理能力,在很多领域和应用场景中可以进行加速计算。特别是可以并行或批量的一次性处理若干计算任务。传统的CPU主要是单任务的计算,配套的在线服务接口和调用方式也比较简单。当前环境下的很多在线服务,需要融合GPU的功能进行改造,以便达到加速的效果。
现有的涉及CPU和GPU的在线计算服务中,一种方法是通过在每个机器人中安装算法SDK(Software Development Kit,软件开发工具包)进行识别计算,由于硬件限制,识别效率缓慢,不能达到实时返回结果的效果,而且安装多次造成一定的资源浪费。另一种方法是进行云端请求,将图片上传到云端服务,得到识别的结果,但是当前云端的在线服务一般不能进行批量请求的物品图片识别,每次只能发送一张图片请求,吞吐量低且浪费计算资源。因此,现有的在线计算服务方法中存在计算效率低,硬件资源浪费严重的问题。
发明内容
有鉴于此,本申请实施例提供了一种基于CPU和GPU混合计算的在线服务方法及装置,以解决现有技术存在的计算效率低,硬件资源浪费严重的问题。
本申请实施例的第一方面,提供了一种基于CPU和GPU混合计算的在线服务方法,包括:接收在线业务请求,将在线业务请求添加到缓存队列中;根据预设的定时任务或者触发事件,选择一个计算组件对缓存队列中的在线业务请求进行异步处理,其中,计算组件包括CPU和GPU;在调用计算组件对在线业务请求进行异步处理过程中,依据缓存队列中的在线业务请求的数量以及计算组件的平均计算耗时,确定每个计算组件对应的权重;依据每个计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将在线业务请求对应的业务结果存储到业务结果集合中,其中,业务结果集合中包含在线业务请求的标识信息以及与标识信息对应的业务结果信息。
本申请实施例的第二方面,提供了一种基于CPU和GPU混合计算的在线服务装置,包括:接收模块,被配置为接收在线业务请求,将在线业务请求添加到缓存队列中;处理模块,被配置为根据预设的定时任务或者触发事件,选择一个计算组件对缓存队列中的在线业务请求进行异步处理,其中,计算组件包括CPU和GPU;计算模块,被配置为在调用计算组件对在线业务请求进行异步处理过程中,依据缓存队列中的在线业务请求的数量以及计算组件的平均计算耗时,确定每个计算组件对应的权重;调用模块,被配置为依据每个计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将在线业务请求对应的业务结果存储到业务结果集合中,其中,业务结果集合中包含在线业务请求的标识信息以及与标识信息对应的业务结果信息。
本申请实施例的第三方面,提供了一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:
通过接收在线业务请求,将在线业务请求添加到缓存队列中;根据预设的定时任务或者触发事件,选择一个计算组件对缓存队列中的在线业务请求进行异步处理,其中,计算组件包括CPU和GPU;在调用计算组件对在线业务请求进行异步处理过程中,依据缓存队列中的在线业务请求的数量以及计算组件的平均计算耗时,确定每个计算组件对应的权重;依据每个计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将在线业务请求对应的业务结果存储到业务结果集合中,其中,业务结果集合中包含在线业务请求的标识信息以及与标识信息对应的业务结果信息。本申请提升了在线计算服务的计算效率,提高了硬件资源的利用率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例在实际场景中涉及到的请求处理流程示意图;
图2是本申请实施例提供的基于CPU和GPU混合计算的在线服务方法的流程示意图;
图3是本申请实施例提供的基于CPU和GPU混合计算的在线服务装置的结构示意图;
图4是本申请实施例提供的电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
如背景技术所述内容,当前的GPU(Graphic Processing Unit,图形处理单元)具有很好的并行处理能力,在很多领域和应用场景中可以进行加速计算。特别是可以并行或批量的一次性处理若干计算任务,具有明显优势。传统的CPU主要是单任务的计算,配套的在线服务接口和调用方式也比较简单。当前环境下的很多在线服务,需要融合GPU的功能进行改造,以便达到加速的效果。下面以机器人对于图像物品识别的计算服务方法举例,对现有的计算服务方法存在的问题进行详细说明。
现有的针对图像物品识别的计算服务方法主要包括以下两种方式:第一种方式是通过在每个机器人中安装算法SDK(Software Development Kit,软件开发工具包)进行图像识别计算,但是由于硬件限制,识别效率缓慢,不能达到实时返回结果的效果,而且安装多次造成一定的资源浪费。另外一种方式是进行云端的请求,将图片上传到云端服务,得到识别的结果,但是当前云端的在线服务一般不能进行批量请求的物品图片识别,每次只能发送一张图片请求,吞吐量低且浪费计算资源。
鉴于现有技术中存在的问题,本申请实施例提供一种能够提高计算效率以及硬件资源利用率的融合CPU和GPU混合计算环境下的在线服务方法,图1是本申请实施例在实际场景中涉及到的请求处理流程示意图,如图1所示,其中,请求消息发送给队列缓存,中间层基于定时任务或者触发事件对缓存队列中的在线业务请求进行异步处理,在对在线业务请求进行处理之后,将查询结果进行缓存,并利用DLL算法包调用加锁单线程,根据调度算法在不同情况调用CPU/GPU批处理计算结果,最后将处理结果存储到结果存储集合中,等待定时查询数据库的处理,并返回查询结果。
图2是本申请实施例提供的基于CPU和GPU混合计算的在线服务方法的流程示意图。图2的基于CPU和GPU混合计算的在线服务方法可以由在线服务器执行。如图2所示,该基于CPU和GPU混合计算的在线服务方法具体可以包括:
S201,接收在线业务请求,将在线业务请求添加到缓存队列中;
S202,根据预设的定时任务或者触发事件,选择一个计算组件对缓存队列中的在线业务请求进行异步处理,其中,计算组件包括CPU和GPU;
S203,在调用计算组件对在线业务请求进行异步处理过程中,依据缓存队列中的在线业务请求的数量以及计算组件的平均计算耗时,确定每个计算组件对应的权重;
S204,依据每个计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将在线业务请求对应的业务结果存储到业务结果集合中,其中,业务结果集合中包含在线业务请求的标识信息以及与标识信息对应的业务结果信息。
具体地,本申请实施例是以机器人的图片物品识别作为在线服务场景为例进行展开描述的,因此,在线业务请求可以认为是机器人拍摄物品图片后,将物品图片上传给***平台,由***平台根据物品图片生成的用于图像物品识别的在线业务请求,生成的在线业务请求将发送给在线服务器进行识别处理。
进一步地,本申请实施例的计算组件包括CPU组件和GPU组件,其中,GPU(GraphicProcessing Unit,图形处理单元)具有很好的并行处理能力,能同时一次性批量处理若干计算任务,相比CPU,GPU具有更好的并行处理能力,能够提高混合计算环境下的吞吐量。另外,本申请实施例的机器人包括但不限于:智能移动机器人、送物机器人、酒店服务机器人、迎宾机器人等。
在一些实施例中,接收在线业务请求,将在线业务请求添加到缓存队列中,包括:接收云平台发送的原始图片数据对应的字符串,根据字符串生成在线业务请求,并将在线业务请求按照时间顺序加入到缓存队列中去;其中,字符串为机器人根据机器人舱内接收到的物品生成原始图片数据,并将原始图片数据发送至云平台,以使云平台对原始图片数据进行编码处理得到的字符串。
具体地,以送物机器人为例,机器人将舱内接收到的物品拍摄成图像后发送给云平台,由云平台调用接口(比如restful等类型接口)对原始图像进行编码处理(比如采用Base64编码)得到字符串,并根据原始图像对应的字符串生成在线业务请求,再将在线业务请求依次发送给在线服务器,当在线服务器接收到云平台发送的在线业务请求之后,将在线业务请求按照接收时间的前后顺序依次加入到缓存队列中去,等待图片识别的定时任务调用。
其中,原始图像的Base64编码可以认为是将一张图片数据编码成一串字符串,使用该字符串代替图像地址URL,例如:经常使用的方法是基于Base64模块来实现原始图像数据的编码处理,之后进行传输,在服务器端收到数据流后对原始数据进行解码还原。
在一些实施例中,根据定时任务选择一个计算组件对缓存队列中的在线业务请求进行异步处理,包括:按照预设的定时任务执行时间间隔,将定时任务执行时间间隔内添加到缓存队列中的在线业务请求发送给GPU进行批量执行,或者将在线业务请求依次发送给CPU进行循环执行。
具体地,对于存储在缓存队列中的在线业务请求,存在以下两种调用方式:第一种是基于定时任务的异步执行,第二种是基于触发事件的异步执行;下面结合具体实施例分别对这两种调用方式的实现过程进行详细说明。
进一步地,在基于定时任务的在线业务请求的异步执行过程中,首先定时任务的执行时间根据实际单位时间内的请求量来确定,定时任务的执行时间可以认为是一种时间间隔,每当定时任务达到预设的定时任务执行的时间间隔之后,就将缓存队列中的所有在线业务请求发送给GPU批量执行,或者采用CPU依次循环执行缓存队列中的所有在线业务请求。
在一些实施例中,根据触发事件选择一个计算组件对缓存队列中的在线业务请求进行异步处理,包括:当缓存队列中的在线业务请求对应的请求数量达到数量阈值时,将缓存队列中的在线业务请求发送给GPU进行批量执行,或者将在线业务请求依次发送给CPU进行循环执行;或者,当CPU和GPU中的任意一个计算组件处于空间状态时,将缓存队列中的在线业务请求发送给空间状态的计算组件进行执行。
具体地,相比基于定时任务的异步执行机制,基于触发事件的异步执行机制则是根据在线业务请求的请求数量进行异步执行,当判断缓存队列中的在线业务请求的数量达到数量阈值时,可以采用以下执行方式中的任意一种来处理在线业务请求,例如包括:
(1)将缓存队列中的在线业务请求发送给GPU进行批量执行;
(2)将缓存队列中的在线业务请求发送给CPU进行依次循环执行;
(3)当CPU和GPU中的任意一个计算组件处于空间状态时,将缓存队列中的在线业务请求发送给空间状态的计算组件进行执行。
进一步地,由于一台机器的CPU和GPU性能有所差异,对于不同型号、不同性能的CPU以及GPU,在实际调用时的调用率也不同,这取决于缓存队列中的请求数量以及两种计算速度的差异,当缓存队列中的请求数量到达一个限定值时会选择特定的计算方式。当CPU或者GPU被占用计算时,优先选择空闲的计算单元进行计算。当两者都空闲时,可以依据本申请实施例提出的权重计算方法,进行选择计算。
在一些实施例中,当CPU和GPU均处于空间状态时,采用以下公式对每个所述计算组件对应的权重进行计算:
Figure DEST_PATH_IMAGE001
其中,
Figure 538868DEST_PATH_IMAGE002
表示CPU对应的权重,/>
Figure DEST_PATH_IMAGE003
表示GPU对应的权重,/>
Figure 479142DEST_PATH_IMAGE004
表示缓存队列中的在线业务请求,/>
Figure DEST_PATH_IMAGE005
表示当前GPU并行计算的任务能力,/>
Figure 205790DEST_PATH_IMAGE006
表示CPU在过去时间段内平均执行一次在线业务请求的计算耗时,/>
Figure DEST_PATH_IMAGE007
表示GPU在过去时间段内平均执行一次在线业务请求的计算耗时。
在实际应用中,可以将当前缓存队列中的请求记作request,当前缓存队列中包含了k个请求,分别记为
Figure 835966DEST_PATH_IMAGE008
。上述过去时间段可以选用过去一个小时来计算CPU和GPU的平均耗时。
具体地,根据缓存队列中在线业务请求的数量,当前GPU并行计算的任务能力,过去时间段内CPU平均执行一次在线业务请求的计算耗时,以及过去时间段内GPU平均执行一次在线业务请求的计算耗时,分别对每个计算组件的权重进行计算,由于以上影响权重计算的因素是实时变化的,因此计算组件对应的权重也是动态的权重,依据权重计算结果选择合适的计算组件来执行在线业务请求。
在一些实施例中,依据每个计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,包括:当在线业务请求的请求数量低于预设阈值时,选择调用平均计算耗时低的计算组件执行在线业务请求;当在线业务请求的请求数量高于当前GPU并行计算的任务能力时,选择调用GPU执行在线业务请求;当CPU的平均计算耗时低于GPU的平均计算耗时,缓存队列中的在线业务请求的请求数量低于预设阈值,且CPU当前处于空闲状态时,选择调用CPU执行在线业务请求;当缓存队列中的在线业务请求使用CPU进行循环执行时的预计耗时大于使用GPU进行批量执行时的预计耗时,选择调用GPU执行在线业务请求。
具体地,在一个可选示例中,当缓存队列中在线业务请求的数量较低时,比如设定数量阈值为10,当在线业务请求的数量低于10个时,优先选择平均计算耗时低的计算组件来执行缓存队列中在线业务请求,当在线业务请求的数量高于10个时,优先选择GPU组件来并行执行缓存队列中在线业务请求,达到高吞吐的目的。也就是说对于GPU性能比较高的机器,每次任务执行,优先走GPU计算,当GPU被占用时,使用CPU执行单个请求,并在下一次请求时检查GPU的占用状态。
进一步地,对于CPU性能较高,GPU性能较差的机器,当请求队列(即缓存队列)中有较少的请求且CPU当前处于空闲状态时,优先考虑使用CPU循环计算,当请求队列中所有请求使用CPU循环执行结束后的时间> GPU执行时间时,采用GPU执行。
在一些实施例中,将在线业务请求对应的业务结果存储到业务结果集合中,包括:当在线业务请求执行完成之后,将在线业务请求对应的标识信息以及业务结果信息缓存到业务结果集合中,当接收到具有相同标识信息的在线业务请求之后,将业务结果集合中预先缓存的标识信息对应的业务结果信息发送给在线服务器。
具体地,将每个在线业务请求对应的识别结果存储到业务结果集合中,并等待查询结果任务查询返回,需要说明的是,每个在线业务请求具有唯一的标识信息,以便对应每个在线业务请求的业务结果信息;将每个在线业务请求的标识信息以及识别结果(业务结果信息)缓存起来,以便当在线服务器接收相同物品图像的在线业务请求是,能够通过查询业务结果集合迅速获取对应的业务结果信息发送给在线服务器。
进一步地,本申请实施例还提供了异步调用结果存储服务,以便将在线业务请求信息以及识别结果(业务结果信息)存储到数据库中,数据库采用分表存储,存储信息包括但不限于以下信息:在线业务请求信息、业务结果信息、服务器信息、CPU执行信息和GPU执行信息,通过存储上述信息,方便后续统计各个服务器以及CPU和GPU的执行效率。
根据本申请实施例提供的技术方案,本申请实施例提供了基于CPU和GPU混合调用算法的可持续服务流程,本申请为了能够对诸如图片识别算法等需要CPU和GPU混合计算的算法提供一个可持续的服务,由中间层做并发控制,请求队列存储,CPU和GPU调度等工作,极大提高计算效率以及硬件资源利用率。本申请开发涉及后台服务来接收所有请求,使用队列进行请求缓存和分发,定时任务进行CPU/GPU混合调用,以及查询结果,收到识别结果后,异步请求存储服务存储请求信息以及识别结果,并返回结果。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图3是本申请实施例提供的基于CPU和GPU混合计算的在线服务装置的结构示意图。如图3所示,该基于CPU和GPU混合计算的在线服务装置包括:
接收模块301,被配置为接收在线业务请求,将在线业务请求添加到缓存队列中;
处理模块302,被配置为根据预设的定时任务或者触发事件,选择一个计算组件对缓存队列中的在线业务请求进行异步处理,其中,计算组件包括CPU和GPU;
计算模块303,被配置为在调用计算组件对在线业务请求进行异步处理过程中,依据缓存队列中的在线业务请求的数量以及计算组件的平均计算耗时,确定每个计算组件对应的权重;
调用模块304,被配置为依据每个计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将在线业务请求对应的业务结果存储到业务结果集合中,其中,业务结果集合中包含在线业务请求的标识信息以及与标识信息对应的业务结果信息。
在一些实施例中,图3的接收模块301接收云平台发送的原始图片数据对应的字符串,根据字符串生成在线业务请求,并将在线业务请求按照时间顺序加入到缓存队列中去;其中,字符串为机器人根据机器人舱内接收到的物品生成原始图片数据,并将原始图片数据发送至云平台,以使云平台对原始图片数据进行编码处理得到的字符串。
在一些实施例中,图3的处理模块302按照预设的定时任务执行时间间隔,将定时任务执行时间间隔内添加到缓存队列中的在线业务请求发送给GPU进行批量执行,或者将在线业务请求依次发送给CPU进行循环执行。
在一些实施例中,图3的处理模块302当缓存队列中的在线业务请求对应的请求数量达到数量阈值时,将缓存队列中的在线业务请求发送给GPU进行批量执行,或者将在线业务请求依次发送给CPU进行循环执行;或者,当CPU和GPU中的任意一个计算组件处于空间状态时,将缓存队列中的在线业务请求发送给空间状态的计算组件进行执行。
在一些实施例中,图3的调用模块304当在线业务请求的请求数量低于预设阈值时,选择调用平均计算耗时低的计算组件执行在线业务请求;当在线业务请求的请求数量高于当前GPU并行计算的任务能力时,选择调用GPU执行在线业务请求;当CPU的平均计算耗时低于GPU的平均计算耗时,缓存队列中的在线业务请求的请求数量低于预设阈值,且CPU当前处于空闲状态时,选择调用CPU执行在线业务请求;当缓存队列中的在线业务请求使用CPU进行循环执行时的预计耗时大于使用GPU进行批量执行时的预计耗时,选择调用GPU执行在线业务请求。
在一些实施例中,图3的调用模块304当在线业务请求执行完成之后,将在线业务请求对应的标识信息以及业务结果信息缓存到业务结果集合中,当接收到具有相同标识信息的在线业务请求之后,将业务结果集合中预先缓存的标识信息对应的业务结果信息发送给在线服务器。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图4是本申请实施例提供的电子设备4的结构示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可以在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
示例性地,计算机程序403可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器402中,并由处理器401执行,以完成本申请。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序403在电子设备4中的执行过程。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,电子设备还可以包括输入输出设备、网络接入设备、总线等。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。存储器402还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (9)

1.一种基于CPU和GPU混合计算的在线服务方法,其特征在于,包括:
接收在线业务请求,将所述在线业务请求添加到缓存队列中;
根据预设的定时任务或者触发事件,选择一个计算组件对所述缓存队列中的在线业务请求进行异步处理,其中,所述计算组件包括CPU和GPU;
在调用所述计算组件对所述在线业务请求进行异步处理过程中,依据所述缓存队列中的在线业务请求的数量以及所述计算组件的平均计算耗时,确定每个所述计算组件对应的权重;
依据每个所述计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将所述在线业务请求对应的业务结果存储到业务结果集合中,其中,所述业务结果集合中包含所述在线业务请求的标识信息以及与所述标识信息对应的业务结果信息;
其中,根据所述缓存队列中在线业务请求的数量,当前GPU并行计算的任务能力,过去时间段内CPU平均执行一次在线业务请求的计算耗时,以及过去时间段内GPU平均执行一次在线业务请求的计算耗时,分别对每个所述计算组件的权重进行计算;
当CPU和GPU均处于空闲状态时,采用以下公式对每个所述计算组件对应的权重进行计算:
Figure 83695DEST_PATH_IMAGE001
其中,
Figure 296502DEST_PATH_IMAGE002
表示CPU对应的权重,
Figure 939973DEST_PATH_IMAGE003
表示GPU对应的权重,
Figure 275139DEST_PATH_IMAGE004
表示缓存队列中的在线业务请求,
Figure 941744DEST_PATH_IMAGE005
表示当前GPU并行计算的任务能力,
Figure 20559DEST_PATH_IMAGE006
表示CPU在过去时间段内平均执行一次在线业务请求的计算耗时,
Figure 456219DEST_PATH_IMAGE007
表示GPU在过去时间段内平均执行一次在线业务请求的计算耗时。
2.根据权利要求1所述的方法,其特征在于,所述接收在线业务请求,将所述在线业务请求添加到缓存队列中,包括:
接收云平台发送的原始图片数据对应的字符串,根据所述字符串生成所述在线业务请求,并将所述在线业务请求按照时间顺序加入到所述缓存队列中去;
其中,所述字符串为机器人根据机器人舱内接收到的物品生成原始图片数据,并将所述原始图片数据发送至所述云平台,以使所述云平台对所述原始图片数据进行编码处理得到的字符串。
3.根据权利要求1所述的方法,其特征在于,根据定时任务选择一个计算组件对所述缓存队列中的在线业务请求进行异步处理,包括:
按照预设的定时任务执行时间间隔,将所述定时任务执行时间间隔内添加到所述缓存队列中的所述在线业务请求发送给GPU进行批量执行,或者将所述在线业务请求依次发送给CPU进行循环执行。
4.根据权利要求1所述的方法,其特征在于,根据触发事件选择一个计算组件对所述缓存队列中的在线业务请求进行异步处理,包括:
当所述缓存队列中的在线业务请求对应的请求数量达到数量阈值时,将所述缓存队列中的所述在线业务请求发送给GPU进行批量执行,或者将所述在线业务请求依次发送给CPU进行循环执行;
或者,当CPU和GPU中的任意一个计算组件处于空闲状态时,将所述缓存队列中的所述在线业务请求发送给所述空闲状态的计算组件进行执行。
5.根据权利要求1所述的方法,其特征在于,依据每个所述计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,包括:
当所述在线业务请求的请求数量低于预设阈值时,选择调用平均计算耗时低的计算组件执行所述在线业务请求;
当所述在线业务请求的请求数量高于所述当前GPU并行计算的任务能力时,选择调用GPU执行所述在线业务请求;
当CPU的平均计算耗时低于GPU的平均计算耗时,所述缓存队列中的在线业务请求的请求数量低于预设阈值,且CPU当前处于空闲状态时,选择调用CPU执行所述在线业务请求;
当所述缓存队列中的在线业务请求使用CPU进行循环执行时的预计耗时大于使用GPU进行批量执行时的预计耗时,选择调用GPU执行所述在线业务请求。
6.根据权利要求1所述的方法,其特征在于,所述将所述在线业务请求对应的业务结果存储到业务结果集合中,包括:
当所述在线业务请求执行完成之后,将所述在线业务请求对应的标识信息以及业务结果信息缓存到所述业务结果集合中,当接收到具有相同标识信息的在线业务请求之后,将所述业务结果集合中预先缓存的所述标识信息对应的业务结果信息发送给在线服务器。
7.一种基于CPU和GPU混合计算的在线服务装置,其特征在于,包括:
接收模块,被配置为接收在线业务请求,将所述在线业务请求添加到缓存队列中;
处理模块,被配置为根据预设的定时任务或者触发事件,选择一个计算组件对所述缓存队列中的在线业务请求进行异步处理,其中,所述计算组件包括CPU和GPU;
计算模块,被配置为在调用所述计算组件对所述在线业务请求进行异步处理过程中,依据所述缓存队列中的在线业务请求的数量以及所述计算组件的平均计算耗时,确定每个所述计算组件对应的权重;
调用模块,被配置为依据每个所述计算组件对应的权重,动态调用CPU或者GPU执行在线业务请求,并将所述在线业务请求对应的业务结果存储到业务结果集合中,其中,所述业务结果集合中包含所述在线业务请求的标识信息以及与所述标识信息对应的业务结果信息;
其中,所述计算模块还用于根据所述缓存队列中在线业务请求的数量,当前GPU并行计算的任务能力,过去时间段内CPU平均执行一次在线业务请求的计算耗时,以及过去时间段内GPU平均执行一次在线业务请求的计算耗时,分别对每个所述计算组件的权重进行计算;
所述计算模块还用于当CPU和GPU均处于空闲状态时,采用以下公式对每个所述计算组件对应的权重进行计算:
Figure 227866DEST_PATH_IMAGE001
其中,
Figure 119117DEST_PATH_IMAGE002
表示CPU对应的权重,
Figure 1623DEST_PATH_IMAGE003
表示GPU对应的权重,
Figure 291790DEST_PATH_IMAGE004
表示缓存队列中的在线业务请求,
Figure 968759DEST_PATH_IMAGE005
表示当前GPU并行计算的任务能力,
Figure 406693DEST_PATH_IMAGE006
表示CPU在过去时间段内平均执行一次在线业务请求的计算耗时,
Figure 30573DEST_PATH_IMAGE007
表示GPU在过去时间段内平均执行一次在线业务请求的计算耗时。
8.一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1至6中任一项所述的方法。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的方法。
CN202211315013.9A 2022-10-26 2022-10-26 基于cpu和gpu混合计算的在线服务方法及装置 Active CN115391053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211315013.9A CN115391053B (zh) 2022-10-26 2022-10-26 基于cpu和gpu混合计算的在线服务方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211315013.9A CN115391053B (zh) 2022-10-26 2022-10-26 基于cpu和gpu混合计算的在线服务方法及装置

Publications (2)

Publication Number Publication Date
CN115391053A CN115391053A (zh) 2022-11-25
CN115391053B true CN115391053B (zh) 2023-03-24

Family

ID=84127879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211315013.9A Active CN115391053B (zh) 2022-10-26 2022-10-26 基于cpu和gpu混合计算的在线服务方法及装置

Country Status (1)

Country Link
CN (1) CN115391053B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117032999B (zh) * 2023-10-09 2024-01-30 之江实验室 一种基于异步运行时的cpu-gpu协同调度方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10186007B2 (en) * 2014-08-25 2019-01-22 Intel Corporation Adaptive scheduling for task assignment among heterogeneous processor cores
WO2020062086A1 (zh) * 2018-09-28 2020-04-02 华为技术有限公司 选择处理器的方法和装置
US11221876B2 (en) * 2018-12-30 2022-01-11 Paypal, Inc. Scheduling applications in CPU and GPU hybrid environments

Also Published As

Publication number Publication date
CN115391053A (zh) 2022-11-25

Similar Documents

Publication Publication Date Title
Kliazovich et al. CA-DAG: Modeling communication-aware applications for scheduling in cloud computing
CN111078436B (zh) 数据处理的方法、装置、设备及存储介质
US20200285508A1 (en) Method and Apparatus for Assigning Computing Task
CN111506434B (zh) 一种任务处理方法、装置及计算机可读存储介质
CN108829512A (zh) 一种云中心硬件加速计算力的分配方法、***和云中心
CN112888005B (zh) 一种面向mec的分布式业务调度方法
CN115391053B (zh) 基于cpu和gpu混合计算的在线服务方法及装置
CN113495779A (zh) 一种任务调度方法和装置、任务执行***
CN114675964A (zh) 基于联邦决策树模型训练的分布式调度方法、***及介质
CN113918356A (zh) 基于cuda数据快速同步方法、装置、计算机设备及存储介质
CN116521096B (zh) 存储器访问电路及存储器访问方法、集成电路和电子设备
CN110955461B (zh) 计算任务的处理方法、装置、***、服务器和存储介质
CN112561301A (zh) 工单分配方法、装置、设备和计算机可读介质
CN112068965A (zh) 数据处理方法、装置、电子设备和可读存储介质
CN110825342B (zh) 存储调度器件和用于处理信息的***、方法及装置
US9137276B2 (en) Managing message distribution in a networked environment
CN113626221A (zh) 一种消息入队方法及装置
CN114567520B (zh) 实现集合通信的方法、计算机设备和通信***
CN116680086B (zh) 一种基于离线渲染引擎的调度管理***
WO2022088074A1 (zh) 基于多指令引擎的指令处理方法及处理器
CN116521097B (zh) 存储器访问电路及存储器访问方法、集成电路和电子设备
Liu et al. Resource management in cloud based on deep reinforcement learning
WO2021128079A1 (zh) 数据处理及图像识别方法、处理服务器、***及电子设备
CN117768470A (zh) 视频渲染方法、***、装置及存储介质
CN118295826A (zh) 消息队列配置方法和相关方法、设备、***和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant