CN111865644A - 一种计算资源的推荐方法、装置、电子设备及存储介质 - Google Patents
一种计算资源的推荐方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111865644A CN111865644A CN201911228948.1A CN201911228948A CN111865644A CN 111865644 A CN111865644 A CN 111865644A CN 201911228948 A CN201911228948 A CN 201911228948A CN 111865644 A CN111865644 A CN 111865644A
- Authority
- CN
- China
- Prior art keywords
- candidate
- resource
- model
- determining
- computing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5041—Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5041—Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
- H04L41/5051—Service on demand, e.g. definition and deployment of services in real time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5041—Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
- H04L41/5054—Automatic deployment of services triggered by the service manager, e.g. service implementation by automatic configuration of network components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/51—Discovery or management thereof, e.g. service location protocol [SLP] or web services
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Environmental & Geological Engineering (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种计算资源的推荐方法、装置、电子设备及存储介质。本申请通过获取待计算任务对应的模型文件和输入模型的数据量,进而根据模型文件中表征模型复杂度的模型参数和输入模型的数据量,分别对多个计算资源进行压力测试,并根据得到的多个测试结果,可以确定出基于每个计算资源运行待计算任务对应的第一性能指标,即得到每个资源处理待处理任务的性能指标,进而,基于多个计算资源对应的第一性能指标,以及用户给出的业务需求对应的第二性能指标,可以确定向用户端推荐的适用于处理待计算任务合理的资源配置方案,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
Description
技术领域
本申请涉及计算资源服务技术领域,尤其涉及一种计算资源的推荐方法、装置、电子设备及存储介质。
背景技术
计算任务可以理解为使用训练好的模型对输入数据做计算,比如,用人脸识别模型对输入的人脸图像做人脸识别计算,计算任务的执行需要一定的计算资源来进行计算,计算资源一般指计算机程序运行时所需的中央处理器资源(central processing unit,CPU)、图像处理器资源(Graphics Processing Unit,GPU)、硬盘资源和网络资源等。
选择何种类型的计算资源取决于计算任务本身的计算复杂度和客户愿意付出的成本,通常,用户会根据自身经验来选取处理计算任务的计算资源,但这种方式对用户的经验和能力要求较高,如果用户经验不足,很难将业务需求和算力需求进行很好地匹配,选取计算资源需要花费大量的时间,导致计算资源的选取效率较低。
发明内容
有鉴于此,本申请实施例的目的在于提供一种计算资源的推荐方法、装置、电子设备及存储介质,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
本申请主要包括以下几个方面:
第一方面,本申请实施例提供一种计算资源的推荐方法,所述计算资源的推荐方法包括:
获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数;
根据所述模型参数和所述输入模型的数据量,分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标;
基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
在一种可能的实施方式中,所述推荐方法还包括根据以下步骤确定出所述模型参数:
根据所述用户端输入的模型名称和模型使用的深度学习框架的名称,对所述模型文件进行解析,确定出所述模型参数。
在一种可能的实施方式中,若模型为图像识别模型,则所述输入模型的数据量包括以下数据中的至少一种:
输入至模型的图像的大小、输入至模型的图像的通道数、输入至模型的图像的数量。
在一种可能的实施方式中,所述根据所述模型参数和所述输入模型的数据量分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标,包括:
针对所述多个计算资源中的每个计算资源,对每个计算资源发送多个服务请求;
计算每个计算资源在单位时间内处理的所述服务请求的平均数量,以及每个计算资源处理各个所述服务请求的平均延迟时长;
根据每个计算资源对应的所述平均数量和所述平均延迟时长,确定出每个计算资源对应的所述第一性能指标。
在一种可能的实施方式中,所述基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案,包括:
从所述多个计算资源中,选取满足预设条件的至少一个候选资源;所述预设条件每个候选资源对应的性能满足要求以及对应的虚拟机可用;
基于所述至少一个候选资源中每个候选资源的第一性能指标,以及所述第二性能指标,确定向所述用户端推荐的资源配置方案。
在一种可能的实施方式中,所述第一性能指标包括第一延迟时长,所述第二性能指标包括第二延迟时长;所述从所述多个计算资源中,选取满足预设条件的至少一个候选资源,包括:
从所述多个计算资源中,选取所述第一延迟时长小于或等于所述第二延迟时长的多个待选资源;
从所述多个待选资源中,选取对应的虚拟机可用的所述至少一个候选资源。
在一种可能的实施方式中,所述第一性能指标包括第一吞吐量,所述第二性能指标包括第二吞吐量;所述基于所述至少一个候选资源中每个计算资源的第一性能指标以及所述第二性能指标,确定向所述用户端推荐的资源配置方案,包括:
根据所述第二吞吐量和所述至少一个候选资源中每个候选资源的第一吞吐量,确定多个候选配置方案;每个候选配置方案中包括至少一个候选资源,以及每个候选资源对应的虚拟机的数量;
从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案。
在一种可能的实施方式中,所述从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案,包括:
根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本;
根据所述多个候选配置方案中的每个候选配置方案的使用成本,从所述多个候选配置方案中,确定使用成本最低的候选配置方案为所述资源配置方案。
在一种可能的实施方式中,若每个候选配置方案中只包括一个候选资源,所述推荐方法还包括根据以下步骤确定每个候选资源对应的虚拟机的数量:
根据所述第二吞吐量除以每个候选资源的第一吞吐量得到的第一数值,确定每个候选资源对应的虚拟机的数量。
在一种可能的实施方式中,若每个候选配置方案中包括至少两个候选资源,所述推荐方法还包括根据以下步骤确定每个候选资源对应的虚拟机的数量:
确定所述至少一个候选资源中至少两个候选资源的第一吞吐量相加得到的第二数值;
根据所述第二吞吐量除以所述第二数值得到的第三数值,确定所述至少两个候选资源中每个候选资源对应的虚拟机的数量。
在一种可能的实施方式中,所述根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本,包括:
针对所述多个候选配置方案中的每个候选配置方案,将每个候选配置方案中每个候选资源对应的虚拟机的数量与对应的算力成本相乘,得到至少一个乘积值;
将所述至少一个乘积值中的各个乘积值相加得到第四数值,并将所述第四数值确定为每个候选配置方案的使用成本。
第二方面,本申请实施例还提供一种计算资源的推荐装置,所述推荐装置包括:
获取模块,用于获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数;
第一确定模块,用于根据所述模型参数和所述输入模型的数据量,分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标;
第二确定模块,用于基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
在一种可能的实施方式中,所述推荐装置还包括:
第三确定模块,用于根据所述用户端输入的模型名称和模型使用的深度学习框架的名称,对所述模型文件进行解析,确定出所述模型参数。
在一种可能的实施方式中,若模型为图像识别模型,则所述输入模型的数据量包括以下数据中的至少一种:
输入至模型的图像的大小、输入至模型的图像的通道数、输入至模型的图像的数量。
在一种可能的实施方式中,所述第一确定模块包括:
发送单元,用于针对所述多个计算资源中的每个计算资源,对每个计算资源发送多个服务请求;
计算单元,用于计算每个计算资源在单位时间内处理的所述服务请求的平均数量,以及每个计算资源处理各个所述服务请求的平均延迟时长;
第一确定单元,用于根据每个计算资源对应的所述平均数量和所述平均延迟时长,确定出每个计算资源对应的所述第一性能指标。
在一种可能的实施方式中,所述第二确定模块包括:
选取单元,用于从所述多个计算资源中,选取满足预设条件的至少一个候选资源;所述预设条件每个候选资源对应的性能满足要求以及对应的虚拟机可用;
第二确定单元,用于基于所述至少一个候选资源中每个候选资源的第一性能指标,以及所述第二性能指标,确定向所述用户端推荐的资源配置方案。
在一种可能的实施方式中,所述第一性能指标包括第一延迟时长,所述第二性能指标包括第二延迟时长;所述选取单元,用于根据以下步骤选取所述至少一个候选资源:
从所述多个计算资源中,选取所述第一延迟时长小于或等于所述第二延迟时长的多个待选资源;
从所述多个待选资源中,选取对应的虚拟机可用的所述至少一个候选资源。
在一种可能的实施方式中,所述第一性能指标包括第一吞吐量,所述第二性能指标包括第二吞吐量;所述第二确定单元,用于根据以下步骤确定向所述用户端推荐的资源配置方案:
根据所述第二吞吐量和所述至少一个候选资源中每个候选资源的第一吞吐量,确定多个候选配置方案;每个候选配置方案中包括至少一个候选资源,以及每个候选资源对应的虚拟机的数量;
从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案。
在一种可能的实施方式中,所述第二确定单元,具体用于根据以下步骤确定所述资源配置方案:
根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本;
根据所述多个候选配置方案中的每个候选配置方案的使用成本,从所述多个候选配置方案中,确定使用成本最低的候选配置方案为所述资源配置方案。
在一种可能的实施方式中,若每个候选配置方案中只包括一个候选资源,所述第二确定单元,还用于:
根据所述第二吞吐量除以每个候选资源的第一吞吐量得到的第一数值,确定每个候选资源对应的虚拟机的数量。
在一种可能的实施方式中,若每个候选配置方案中包括至少两个候选资源,所述第二确定单元,还用于:
确定所述至少一个候选资源中至少两个候选资源的第一吞吐量相加得到的第二数值;
根据所述第二吞吐量除以所述第二数值得到的第三数值,确定所述至少两个候选资源中每个候选资源对应的虚拟机的数量。
在一种可能的实施方式中,所述第二确定单元,还用于根据以下步骤确定每个候选配置方案的使用成本:
针对所述多个候选配置方案中的每个候选配置方案,将每个候选配置方案中每个候选资源对应的虚拟机的数量与对应的算力成本相乘,得到至少一个乘积值;
将所述至少一个乘积值中的各个乘积值相加得到第四数值,并将所述第四数值确定为每个候选配置方案的使用成本。
第三方面,本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过所述总线进行通信,所述机器可读指令被所述处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中所述的计算资源的推荐方法的步骤。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中所述的计算资源的推荐方法的步骤。
本申请实施例中,通过获取待计算任务对应的模型文件和输入模型的数据量,进而根据模型文件中表征模型复杂度的模型参数和输入模型的数据量,分别对多个计算资源进行压力测试,并根据得到的多个测试结果,可以确定出每个计算资源运行待计算任务对应的第一性能指标,即得到每个资源处理待处理任务的性能指标,进而,基于多个计算资源对应的第一性能指标,以及用户给出的业务需求对应的第二性能指标,可以确定向用户端推荐的适用于处理待计算任务合理的资源配置方案,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种计算资源的推荐方法的流程图;
图2示出了本申请实施例所提供的另一种计算资源的推荐方法的流程图;
图3示出了本申请实施例所提供的一种计算资源的推荐装置的功能模块图之一;
图4示出了本申请实施例所提供的一种计算资源的推荐装置的功能模块图之二;
图5示出了图3中的第一确定模块的功能模块图;
图6示出了图3中的第二确定模块的功能模块图;
图7示出了本申请实施例所提供的一种电子设备的结构示意图。
主要元件符号说明:
图中:300-计算资源的推荐装置;310-获取模块;320-第一确定模块;322-发送单元;324-计算单元;326-第一确定单元;330-第二确定模块;332-选取单元;334-第二确定单元;340-第三确定模块;700-电子设备;710-处理器;720-存储器;730-总线。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中的附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应当理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的全部其他实施例,都属于本申请保护的范围。
为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“对提供待计算任务的用户端推荐资源配置方案”,给出以下实施方式,对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。
本申请实施例下述方法、装置、电子设备或计算机可读存储介质可以应用于任何需要进行计算资源的推荐的场景,本申请实施例并不对具体的应用场景作限制,任何使用本申请实施例提供的计算资源的推荐方法及装置的方案均在本申请保护范围内。
值得注意的是,在本申请提出之前,现有方案中,用户会根据自身经验来选取处理计算任务的计算资源,但这种方式对用户的经验和能力要求较高,如果用户经验不足,很难将业务需求和算力需求进行很好地匹配,选取计算资源需要花费大量的时间,导致计算资源的选取效率较低。具体地,用户要运行一个人脸识别的程序(待处理任务),用户设置需要的资源配置为8核CPU、16GB内存、1卡MLU100云端推理芯片,用户将这些配置传给K8S,K8S调度一台配置MLU100卡的虚拟机,并在虚拟机上创建1台8核CPU、16GB内存、1卡MLU100、200GB存储空间的容器,用户在这台容器上配置好运行环境后,即可执行人脸识别的计算任务。
针对上述问题,本申请实施例中,通过获取待计算任务对应的模型文件和输入模型的数据量,进而根据模型文件中表征模型复杂度的模型参数和输入模型的数据量,分别对多个计算资源进行压力测试,并根据得到的多个测试结果,可以确定出每个计算资源运行待计算任务对应的第一性能指标,即得到每个资源处理待处理任务的性能指标,进而,基于多个计算资源对应的第一性能指标,以及用户给出的业务需求对应的第二性能指标,可以确定向用户端推荐的适用于处理待计算任务合理的资源配置方案,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
需要说明的是,容器服务(Kubernetes,K8S),是一个应用容器集群的管理工具,用于管理云平台中多个主机上的容器化的应用,应用简单并且高效,并提供了应用部署。
为便于对本申请进行理解,下面结合具体实施例对本申请提供的技术方案进行详细说明。
图1为本申请实施例所提供的一种计算资源的推荐方法的流程图。如图1所示,本申请实施例提供的计算资源的推荐方法,包括以下步骤:
S101:获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数。
在具体实施中,在接收到用户上传的待计算任务对应的模型文件和输入模型的数据量之后,从模型文件中提取出模型参数,这里,模型参数可以表征出模型复杂度,模型复杂度通常指模型结构的深度和宽度,比如,神经网络模型,模型的层数越多、每一层的节点数越多,模型就越复杂;输入模型的数据量,比如,模型为图像识别模型,输入图像识别模型的数据为图像,故输入模型的数据量即为输入图像识别模型的图像的数量、每张图像的大小等;比如,模型为文字识别模型,输入文字识别模型的数据为文本文档,故输入模型的数据量即为输入文字识别模型的文本文档的数量、每个文档的大小等。
这里,计算资源一般指计算机程序运行时所需的CPU、GPU、硬盘资源和网络资源等,GPU比如推理加速器Nvidia Tesla P4、Nvidia Tesla T4,处理器比如人工智能处理器Cambricon MLU100、AI芯片Ascend 910。
需要说明的是,待计算任务是用户想要通过计算资源进行计算的任务,计算任务可以理解为使用训练好的模型对输入数据做计算,比如,模型为人脸识别模型,计算任务可以为通过利用计算资源来对输入人脸识别模型的人脸图像做人脸识别计算的任务;模型为文字识别模型,计算可以为通过利用计算资源来对输入文字识别模型的文本文档做文字识别计算的任务。
进一步地,推荐方法还包括根据以下步骤确定出所述模型参数:
根据所述用户端输入的模型名称和模型使用的深度学习框架的名称,对所述模型文件进行解析,确定出所述模型参数。
在具体实施中,在接收到用户端提供的模型文件之后,需要对模型文件进行解析,以获取模型文件中模型的各项模型参数,具体地,可以根据用户端提供的模型名称和用户端在训练模型时使用的深度学习框架的名称,来对模型文件进行解析,得到模型参数。
这里,模型比如神经网络模型,则模型名称为深度残差网络(Residual Networks,ResNet);神经网络模型一般包括训练和测试两大阶段,训练就是把训练数据和神经网络模型(AlexNet、RNN等神经网络训练框架,比如卷积神经网络框架等)用CPU或GPU提炼出模型参数的过程,测试就是把测试数据用训练好的模型(神经网络模型+模型参数)运行后查看结果,而卷积神经网络框架(Convolutional Architecture for Fast FeatureEmbedding,caffe)、keras、tensorflow就是把训练过程所涉及的环节数据统一抽象,形成可使用框架。
进一步地,若模型为图像识别模型,则所述输入模型的数据量包括以下数据中的至少一种:
输入至模型的图像的大小、输入至模型的图像的通道数、输入至模型的图像的数量。
在具体实施中,待计算任务对应的模型可以为各种类型的模型,比如图像识别模型、文字识别模型等,若模型为图像识别模型,则输入模型的数据为多张图像,输入模型的数据量包括输入至模型的图像的大小、输入至模型的图像的通道数、输入至模型的图像的数量。
一示例中,待计算任务为人脸识别的任务、模型为人脸识别模型,输入模型的数据量为100张图像,图像为彩色图像,图像的通道数为3(包括通道R、通道G、通道B),每张图像的大小为244*244像素。
S102:根据所述模型参数和所述输入模型的数据量,分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标。
在具体实施中,在确定出输入模型的数据量之后,自动获取与该数据量一致的数据,比如,输入模型的为图像,则获取与该数据量一致的多张图像,以及根据表征模型复杂度的模型参数来生成对应的模型,进而,使用每个计算资源对待计算任务(通过模型对输入的数据进行计算)进行模拟计算,即对每个计算资源进行压力测试,可以得到每个计算资源对应的测试结果,根据测试结果可以确定出每个计算资源运行待计算任务的第一性能指标。
需要说明的是,压力测试,是给计算资源不断加压,强制其在极限的情况下运行,观察它可以运行到何种程度,从而发现性能缺陷,是通过搭建与实际环境相似的测试环境,通过测试程序在同一时间内或某一段时间内,向***发送预期数量的服务请求、测试计算资源在不同压力情况下的效率状况,以及计算资源可以承受的压力情况,然后根据测试结果,确定计算资源的性能指标,这里,性能指标比如吞吐量和延迟,吞吐量为单位时间内能够处理的服务请求的数量,延迟为服务请求提交的时刻与接收到针对该服务请求反馈回来的服务结果的时刻之间的时长。
这里,计算资源的第一性能指标与模型复杂性和输入模型的数据量是强相关的,故,可以根据模型参数和输入模型的数据量对每个计算资源进行压力测试,进而确定出每个计算资源运行待计算任务对应的第一性能指标,这样,可以根据用户提供的业务需求对应的第二性能指标,从多个计算资源中选取出符合用户需求的计算资源推荐给用户,无需用户来选取处理待计算任务的计算资源,可以为用户节省选取计算资源所花费的时间,还可以提升计算资源的选取效率。
S103:基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
在具体实施中,在确定出多个计算资源中每个计算资源的第一性能指标后,通过获取到的用户端输入的业务需求对应的第二性能指标,确定向用户端推荐的资源配置方案,这里,资源配置方案中包括至少一个计算资源,以及每个计算资源对应至少一台虚拟机,也就是说,推荐给用户端对待计算任务进行计算的方案中,可能是需要多个计算资源来共同配合处理,而且可能需要每个计算资源对应的多个虚拟机来共同处理完成。
需要说明的是,用户在对资源配置方案进行确认后,K8S可以调度资源配置方案中的计算资源来对待处理任务进行计算。
一示例中,计算资源Nvidia Tesla P4对应的性能指标为10QPS、80ms延迟,计算资源Nvidia Tesla T4对应的性能指标为30QPS,40ms延迟,业务需求为30QPS、100ms延迟,则可选用3张Nvidia Tesla P4卡,或选用1张Nvidia Tesla T4卡,作为向用户推荐的资源配置方案。
在本申请实施例中,通过获取待计算任务对应的模型文件和输入模型的数据量,进而根据模型文件中表征模型复杂度的模型参数和输入模型的数据量,分别对多个计算资源进行压力测试,并根据得到的多个测试结果,可以确定出每个计算资源运行待计算任务对应的第一性能指标,即得到每个资源处理待处理任务的性能指标,进而,基于多个计算资源对应的第一性能指标,以及用户给出的业务需求对应的第二性能指标,可以确定向用户端推荐的适用于处理待计算任务合理的资源配置方案,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
图2为本申请实施例所提供的另一种计算资源的推荐方法的流程图。如图2所示,本申请实施例提供的计算资源的推荐方法,包括以下步骤:
S201:获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数。
其中,S201的描述可以参照S101的描述,并且能达到相同的技术效果,对此不做赘述。
S202:针对所述多个计算资源中的每个计算资源,对每个计算资源发送多个服务请求。
在具体实施中,针对多个计算资源中的每个计算资源的压力测试,是给计算资源不断加压,强制其在极限的情况下运行,观察它可以运行到何种程度,这里,压力测试是每个计算资源不断发送服务请求,具体地,可以先在单位时间内发送少量数量的服务请求,之后不断增加在单位时间内发送的服务请求的数量,直至达到每个计算资源的计算极限为止。
S203:计算每个计算资源在单位时间内处理的所述服务请求的平均数量,以及每个计算资源处理各个所述服务请求的平均延迟时长。
在具体实施中,在对每个计算资源进行压力测试时,统计每个计算资源在每个单位时间内处理的服务请求的数量,以及,统计对每个计算资源在接收到服务请求的时刻和处理完该服务请求的时刻之间的时长,作为延时,在压力测试结束后,计算出每个计算资源在每个单位时间内处理的服务请求的平均数量,以及计算出每个计算资源处理各个服务请求的平均延时时长。
S204:根据每个计算资源对应的所述平均数量和所述平均延迟时长,确定出每个计算资源对应的所述第一性能指标。
在具体实施中,对于多个计算资源中的每个计算资源,每个计算资源在单位时间内处理的服务请求的平均数量,即为该计算资源对应的吞吐量,以及每个计算资源处理各个服务请求的平均延长时长,即为该计算资源对应的延时,而延时和吞吐量可以反映出每个计算资源的性能,即将每个计算资源对应的平均数量和平均延长时长,作为每个计算资源对应的第一性能指标。
这里,本申请通过对每个计算资源进行压力测试,可以确定出每个计算资源处理待计算资源对应的第一性能指标,进而,根据第一性能指标和用户的业务需求,为用户推荐出资源配置方案。这样,无需用户来选取处理待计算任务的计算资源,可以为用户节省选取计算资源所花费的时间,还可以提升计算资源的选取效率。
S205:基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
其中,S205的描述可以参照S103的描述,并且能达到相同的技术效果,对此不做赘述。
进一步地,步骤S205中基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案,包括以下步骤:
步骤a:从所述多个计算资源中,选取满足预设条件的至少一个候选资源;所述预设条件每个候选资源对应的性能满足要求以及对应的虚拟机可用。
在具体实施中,在对多个计算资源中的每个计算资源进行压力测试后,可以确定出每个计算资源对应的第一性能指标,进而,可以根据每个计算资源的第一性能指标和用户给出的业务需求的第二性能指标,来确定多个计算资源中哪些计算资源的第一性能指标可以满足性能要求,并将这些满足性能要求的计算资源中选取对应的虚拟机可用的计算资源为候选资源。这里,虚拟机可用,是指接入K8S平台上的计算资源对应的虚拟机没有被占用,即没有计算其他计算任务。
进一步地,所述第一性能指标包括第一延迟时长,所述第二性能指标包括第二延迟时长;步骤a中从所述多个计算资源中,选取满足预设条件的至少一个候选资源,包括以下步骤:
从所述多个计算资源中,选取所述第一延迟时长小于或等于所述第二延迟时长的多个待选资源;从所述多个待选资源中,选取对应的虚拟机可用的所述至少一个候选资源。
在具体实施中,对于多个计算资源中的每个计算资源,将对应的第一延迟时长小于或等于第二延迟时长的计算资源确定为满足性能要求的待选资源,进一步地,从多个待选资源中,选取出对应的虚拟机可用的待选资源确定为候选资源。
一示例中,计算资源Nvidia Tesla P4对应的第一延迟时长为80ms、计算资源Nvidia Tesla T4对应的第一延迟时长为40ms,用户给出的业务需求中的第二延迟时长为60ms,40ms≤60ms≤80ms,则计算资源Nvidia Tesla T4满足性能需求,计算资源NvidiaTesla P4不满足性能需求。
步骤b:基于所述至少一个候选资源中每个候选资源的第一性能指标,以及所述第二性能指标,确定向所述用户端推荐的资源配置方案。
在具体实施中,在从多个计算资源中选取出满足预设条件的候选资源之后,可以根据每个候选资源的第一性能指标和第二性能指标,来确定出向用户端推荐的资源配置方案中包括哪些候选资源,以及包括的每个候选资源对应的虚拟机的数量。
进一步地,所述第一性能指标包括第一吞吐量,所述第二性能指标包括第二吞吐量;步骤b中所述基于所述至少一个候选资源中每个计算资源的第一性能指标以及所述第二性能指标,确定向所述用户端推荐的资源配置方案,包括以下步骤:
步骤(1):根据所述第二吞吐量和所述至少一个候选资源中每个候选资源的第一吞吐量,确定多个候选配置方案;每个候选配置方案中包括至少一个候选资源,以及每个候选资源对应的虚拟机的数量。
在具体实施中,可以根据每个候选资源的第一吞吐量和第二吞吐量,来确定出向用户端推荐的资源配置方案中包括哪些候选资源,以及包括的每个候选资源对应的虚拟机的数量。
进一步地,若每个候选配置方案中只包括一个候选资源,所述推荐方法还包括根据以下步骤确定每个候选资源对应的虚拟机的数量:根据所述第二吞吐量除以每个候选资源的第一吞吐量得到的第一数值,确定每个候选资源对应的虚拟机的数量。
在具体实施中,每个候选配置方案中只包括一个候选资源,可以直接将第二吞吐量除以该候选资源对应的第一吞吐量,进而,根据得到的第一数值,来确定每个候选资源对应的虚拟机的数量。
需要说明的是,若得到的第一数值不为整数,则选取第一数值加1之后的整数为对应的虚拟机的数量,比如,第一数值为3.5,则对应的虚拟机的数量为4。
一示例中,候选配置方案中只包括一个候选资源Nvidia Tesla P4,该候选资源Nvidia Tesla P4对应的第一吞吐量为10QPS,若用户给出的业务需求对应的第二吞吐量为20QPS,这样,将20÷10=2,则候选资源Nvidia Tesla P4对应的虚拟机的数量为2个。
进一步地,若每个候选配置方案中包括至少两个候选资源,所述推荐方法还包括根据以下步骤确定每个候选资源对应的虚拟机的数量:
确定所述至少一个候选资源中至少两个候选资源的第一吞吐量相加得到的第二数值;根据所述第二吞吐量除以所述第二数值得到的第三数值,确定所述至少两个候选资源中每个候选资源对应的虚拟机的数量。
在具体实施中,每个候选配置方案中包括至少两个候选资源时,可以直接将至少两个候选资源的第一吞吐量相加得到的第二数值,并将第二吞吐量除以第二数值,得到第三数值,进而,根据得到的第三数值,来确定每个候选资源对应的虚拟机的数量。
需要说明的是,若得到的第三数值不为整数,则选取第三数值加1之后的整数为对应的虚拟机的数量,比如,第三数值为2.6,则对应的虚拟机的数量为3。
需要说明的是,候选配置方案中包括的候选资源对应的虚拟机的数量可以不同。
一示例中,候选配置方案中包括候选资源Nvidia Tesla P4、Nvidia Tesla T4、MLU100,Nvidia Tesla P4对应的第一吞吐量为10QPS,Nvidia Tesla T4对应的第一吞吐量为30QPS,MLU100对应的第一吞吐量为20QPS,若用户给出的业务需求对应的第二吞吐量为60QPS,这样,将60÷(10+30+20)=1,则候选资源Nvidia Tesla P4、Nvidia Tesla T4、MLU100,Nvidia Tesla P4中每个候选资源对应的虚拟机的数量均为1个。
步骤(2):从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案。
在具体实施中,对于提供的满足业务需求的多个候选配置方案中,选取性价比相对较高的候选配置方案为资源配置方案。这里,用户使用计算资源是需要付费的,不同的计算资源的费用不同,故,可以为用户推荐出使用成本相对便宜的候选配置方案为资源配置方案。
进一步地,步骤(2)中从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案,包括以下步骤:
根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本;根据所述多个候选配置方案中的每个候选配置方案的使用成本,从所述多个候选配置方案中,确定使用成本最低的候选配置方案为所述资源配置方案。
在具体实施中,在确定出每个候选配置方案中包括哪些候选资源,以及包括的每个候选资源对应的虚拟机的数量,以及每个候选资源的算力成本之后,可以确定出每个候选配置方案的使用成本,进而,从多个候选配置方案中,确定使用成本最低的候选配置方案为资源配置方案。
进一步地,所述根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本,包括:
针对所述多个候选配置方案中的每个候选配置方案,将每个候选配置方案中每个候选资源对应的虚拟机的数量与对应的算力成本相乘,得到至少一个乘积值;将所述至少一个乘积值中的各个乘积值相加得到第四数值,并将所述第四数值确定为每个候选配置方案的使用成本。
在具体实施中,将每个候选配置方案中的各个候选资源对应的虚拟机的数量与对应虚拟机的算力成本相乘,得到至少一个乘积值,并将至少一个乘积值中的各个乘积值相加得到第四数值,并将第四数值确定为每个候选配置方案的使用成本。
一示例中,若候选配置方案中包括候选资源Nvidia Tesla T4和MLU100,其中,Nvidia Tesla T4对应2台虚拟机,MLU100对应1台虚拟机,Nvidia Tesla T4的费用为5元/小时,MLU100的费用为3元/小时,则候选配置方案的使用成本为5*2+1*3=13元。
在本申请实施中,通过获取待计算任务对应的模型文件和输入模型的数据量,进而根据模型文件中表征模型复杂度的模型参数和输入模型的数据量,分别对多个计算资源进行压力测试,并根据得到的多个测试结果,可以确定出每个计算资源运行待计算任务对应的第一性能指标,即得到每个资源处理待处理任务的性能指标,进而,基于多个计算资源对应的第一性能指标,以及用户给出的业务需求对应的第二性能指标,可以确定向用户端推荐的适用于处理待计算任务合理的资源配置方案,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
基于同一申请构思,本申请实施例中还提供了与上述提供的计算资源的推荐方法对应的计算资源的推荐装置,由于本申请实施例中的装置解决问题的原理与本申请上述实施例的计算资源的推荐方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参见图3至图6所示,图3为本申请实施例提供的一种计算资源的推荐装置300的功能模块图之一;图4为本申请实施例提供的一种计算资源的推荐装置300的功能模块图之二;图5示出了图3中的第一确定模块320的功能模块图;图6示出了图3中的第二确定模块330的功能模块图。
如图3和图4所示,计算资源的推荐装置300包括:
获取模块310,用于获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数;
第一确定模块320,用于根据所述模型参数和所述输入模型的数据量,分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标;
第二确定模块330,用于基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
在一种可能的实施方式中,如图4所示,所述计算资源的推荐装置300还包括:
第三确定模块340,用于根据所述用户端输入的模型名称和模型使用的深度学习框架的名称,对所述模型文件进行解析,确定出所述模型参数。
在一种可能的实施方式中,若模型为图像识别模型,则所述输入模型的数据量包括以下数据中的至少一种:
输入至模型的图像的大小、输入至模型的图像的通道数、输入至模型的图像的数量。
在一种可能的实施方式中,如图5所示,所述第一确定模块320包括:
发送单元322,用于针对所述多个计算资源中的每个计算资源,对每个计算资源发送多个服务请求;
计算单元324,用于计算每个计算资源在单位时间内处理的所述服务请求的平均数量,以及每个计算资源处理各个所述服务请求的平均延迟时长;
第一确定单元326,用于根据每个计算资源对应的所述平均数量和所述平均延迟时长,确定出每个计算资源对应的所述第一性能指标。
在一种可能的实施方式中,如图6所示,所述第二确定模块330包括:
选取单元332,用于从所述多个计算资源中,选取满足预设条件的至少一个候选资源;所述预设条件每个候选资源对应的性能满足要求以及对应的虚拟机可用;
第二确定单元334,用于基于所述至少一个候选资源中每个候选资源的第一性能指标,以及所述第二性能指标,确定向所述用户端推荐的资源配置方案。
在一种可能的实施方式中,如图6所示,所述第一性能指标包括第一延迟时长,所述第二性能指标包括第二延迟时长;所述选取单元332,用于根据以下步骤选取所述至少一个候选资源:
从所述多个计算资源中,选取所述第一延迟时长小于或等于所述第二延迟时长的多个待选资源;
从所述多个待选资源中,选取对应的虚拟机可用的所述至少一个候选资源。
在一种可能的实施方式中,如图6所示,所述第一性能指标包括第一吞吐量,所述第二性能指标包括第二吞吐量;所述第二确定单元334,用于根据以下步骤确定向所述用户端推荐的资源配置方案:
根据所述第二吞吐量和所述至少一个候选资源中每个候选资源的第一吞吐量,确定多个候选配置方案;每个候选配置方案中包括至少一个候选资源,以及每个候选资源对应的虚拟机的数量;
从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案。
在一种可能的实施方式中,如图6所示,所述第二确定单元334,具体用于根据以下步骤确定所述资源配置方案:
根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本;
根据所述多个候选配置方案中的每个候选配置方案的使用成本,从所述多个候选配置方案中,确定使用成本最低的候选配置方案为所述资源配置方案。
在一种可能的实施方式中,如图6所示,若每个候选配置方案中只包括一个候选资源,所述第二确定单元334,还用于:
根据所述第二吞吐量除以每个候选资源的第一吞吐量得到的第一数值,确定每个候选资源对应的虚拟机的数量。
在一种可能的实施方式中,如图6所示,若每个候选配置方案中包括至少两个候选资源,所述第二确定单元334,还用于:
确定所述至少一个候选资源中至少两个候选资源的第一吞吐量相加得到的第二数值;
根据所述第二吞吐量除以所述第二数值得到的第三数值,确定所述至少两个候选资源中每个候选资源对应的虚拟机的数量。
在一种可能的实施方式中,如图6所示,所述第二确定单元334,还用于根据以下步骤确定每个候选配置方案的使用成本:
针对所述多个候选配置方案中的每个候选配置方案,将每个候选配置方案中每个候选资源对应的虚拟机的数量与对应的算力成本相乘,得到至少一个乘积值;
将所述至少一个乘积值中的各个乘积值相加得到第四数值,并将所述第四数值确定为每个候选配置方案的使用成本。
在本申请的实施例中,通过获取模块310获取待计算任务对应的模型文件和输入模型的数据量,进而根据模型文件中表征模型复杂度的模型参数和输入模型的数据量,分别对多个计算资源进行压力测试,并根据得到的多个测试结果,可以通过第一确定模块320确定出每个计算资源运行待计算任务对应的第一性能指标,即得到每个资源处理待处理任务的性能指标,进而,基于多个计算资源对应的第一性能指标,以及用户给出的业务需求对应的第二性能指标,可以通过第二确定模块330确定向用户端推荐的适用于处理待计算任务合理的资源配置方案,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
基于同一申请构思,参见图7所示,为本申请实施例提供的一种电子设备700的结构示意图,包括:处理器710、存储器720和总线730,所述存储器720存储有所述处理器710可执行的机器可读指令,当电子设备700运行时,所述处理器710与所述存储器720之间通过所述总线730进行通信,所述机器可读指令被所述处理器710运行时执行如上述实施例任一所述的计算资源的推荐方法的步骤。
具体地,所述机器可读指令被所述处理器710执行时可以执行如下处理:
获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数;
根据所述模型参数和所述输入模型的数据量,分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标;
基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
本申请实施例中,通过获取待计算任务对应的模型文件和输入模型的数据量,进而根据模型文件中表征模型复杂度的模型参数和输入模型的数据量,分别对多个计算资源进行压力测试,并根据得到的多个测试结果,可以确定出每个计算资源运行待计算任务对应的第一性能指标,即得到每个资源处理待处理任务的性能指标,进而,基于多个计算资源对应的第一性能指标,以及用户给出的业务需求对应的第二性能指标,可以确定向用户端推荐的适用于处理待计算任务合理的资源配置方案,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
基于同一申请构思,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述实施例提供的计算资源的推荐方法的步骤。
具体地,所述存储介质能够为通用的存储介质,如移动磁盘、硬盘等,所述存储介质上的计算机程序被运行时,能够执行上述计算资源的推荐方法,可以在提升对计算资源进行选取的效率的同时,实现对用户的业务需求和计算资源的性能指标很好地进行匹配。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应所述理解到,所揭露的***、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者所述技术方案的部分可以以软件产品的形式体现出来,所述计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (24)
1.一种计算资源的推荐方法,其特征在于,所述推荐方法包括:
获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数;
根据所述模型参数和所述输入模型的数据量,分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标;
基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
2.根据权利要求1所述的推荐方法,其特征在于,所述推荐方法还包括根据以下步骤确定出所述模型参数:
根据所述用户端输入的模型名称和模型使用的深度学习框架的名称,对所述模型文件进行解析,确定出所述模型参数。
3.根据权利要求1所述的推荐方法,其特征在于,若模型为图像识别模型,则所述输入模型的数据量包括以下数据中的至少一种:
输入至模型的图像的大小、输入至模型的图像的通道数、输入至模型的图像的数量。
4.根据权利要求1所述的推荐方法,其特征在于,所述根据所述模型参数和所述输入模型的数据量分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标,包括:
针对所述多个计算资源中的每个计算资源,对每个计算资源发送多个服务请求;
计算每个计算资源在单位时间内处理的所述服务请求的平均数量,以及每个计算资源处理各个所述服务请求的平均延迟时长;
根据每个计算资源对应的所述平均数量和所述平均延迟时长,确定出每个计算资源对应的所述第一性能指标。
5.根据权利要求1所述的推荐方法,其特征在于,所述基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案,包括:
从所述多个计算资源中,选取满足预设条件的至少一个候选资源;所述预设条件每个候选资源对应的性能满足要求以及对应的虚拟机可用;
基于所述至少一个候选资源中每个候选资源的第一性能指标,以及所述第二性能指标,确定向所述用户端推荐的资源配置方案。
6.根据权利要求5所述的推荐方法,其特征在于,所述第一性能指标包括第一延迟时长,所述第二性能指标包括第二延迟时长;所述从所述多个计算资源中,选取满足预设条件的至少一个候选资源,包括:
从所述多个计算资源中,选取所述第一延迟时长小于或等于所述第二延迟时长的多个待选资源;
从所述多个待选资源中,选取对应的虚拟机可用的所述至少一个候选资源。
7.根据权利要求5所述的推荐方法,其特征在于,所述第一性能指标包括第一吞吐量,所述第二性能指标包括第二吞吐量;所述基于所述至少一个候选资源中每个计算资源的第一性能指标以及所述第二性能指标,确定向所述用户端推荐的资源配置方案,包括:
根据所述第二吞吐量和所述至少一个候选资源中每个候选资源的第一吞吐量,确定多个候选配置方案;每个候选配置方案中包括至少一个候选资源,以及每个候选资源对应的虚拟机的数量;
从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案。
8.根据权利要求7所述的推荐方法,其特征在于,所述从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案,包括:
根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本;
根据所述多个候选配置方案中的每个候选配置方案的使用成本,从所述多个候选配置方案中,确定使用成本最低的候选配置方案为所述资源配置方案。
9.根据权利要求7所述的推荐方法,其特征在于,若每个候选配置方案中只包括一个候选资源,所述推荐方法还包括根据以下步骤确定每个候选资源对应的虚拟机的数量:
根据所述第二吞吐量除以每个候选资源的第一吞吐量得到的第一数值,确定每个候选资源对应的虚拟机的数量。
10.根据权利要求7所述的推荐方法,其特征在于,若每个候选配置方案中包括至少两个候选资源,所述推荐方法还包括根据以下步骤确定每个候选资源对应的虚拟机的数量:
确定所述至少一个候选资源中至少两个候选资源的第一吞吐量相加得到的第二数值;
根据所述第二吞吐量除以所述第二数值得到的第三数值,确定所述至少两个候选资源中每个候选资源对应的虚拟机的数量。
11.根据权利要求8所述的推荐方法,其特征在于,所述根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本,包括:
针对所述多个候选配置方案中的每个候选配置方案,将每个候选配置方案中每个候选资源对应的虚拟机的数量与对应的算力成本相乘,得到至少一个乘积值;
将所述至少一个乘积值中的各个乘积值相加得到第四数值,并将所述第四数值确定为每个候选配置方案的使用成本。
12.一种计算资源的推荐装置,其特征在于,所述推荐装置包括:
获取模块,用于获取待计算任务对应的模型文件和输入模型的数据量;所述模型文件中包括表征模型复杂度的模型参数;
第一确定模块,用于根据所述模型参数和所述输入模型的数据量,分别对多个计算资源进行压力测试,得到多个测试结果,并根据所述多个测试结果,确定出基于每个计算资源运行所述待计算任务对应的第一性能指标;
第二确定模块,用于基于所述多个计算资源中每个计算资源的第一性能指标,以及用户端输入的第二性能指标,确定向所述用户端推荐的用于对所述待计算任务进行计算的资源配置方案。
13.根据权利要求12所述的推荐装置,其特征在于,所述推荐装置还包括:
第三确定模块,用于根据所述用户端输入的模型名称和模型使用的深度学习框架的名称,对所述模型文件进行解析,确定出所述模型参数。
14.根据权利要求12所述的推荐装置,其特征在于,若模型为图像识别模型,则所述输入模型的数据量包括以下数据中的至少一种:
输入至模型的图像的大小、输入至模型的图像的通道数、输入至模型的图像的数量。
15.根据权利要求12所述的推荐装置,其特征在于,所述第一确定模块包括:
发送单元,用于针对所述多个计算资源中的每个计算资源,对每个计算资源发送多个服务请求;
计算单元,用于计算每个计算资源在单位时间内处理的所述服务请求的平均数量,以及每个计算资源处理各个所述服务请求的平均延迟时长;
第一确定单元,用于根据每个计算资源对应的所述平均数量和所述平均延迟时长,确定出每个计算资源对应的所述第一性能指标。
16.根据权利要求12所述的推荐装置,其特征在于,所述第二确定模块包括:
选取单元,用于从所述多个计算资源中,选取满足预设条件的至少一个候选资源;所述预设条件每个候选资源对应的性能满足要求以及对应的虚拟机可用;
第二确定单元,用于基于所述至少一个候选资源中每个候选资源的第一性能指标,以及所述第二性能指标,确定向所述用户端推荐的资源配置方案。
17.根据权利要求16所述的推荐装置,其特征在于,所述第一性能指标包括第一延迟时长,所述第二性能指标包括第二延迟时长;所述选取单元,用于根据以下步骤选取所述至少一个候选资源:
从所述多个计算资源中,选取所述第一延迟时长小于或等于所述第二延迟时长的多个待选资源;
从所述多个待选资源中,选取对应的虚拟机可用的所述至少一个候选资源。
18.根据权利要求16所述的推荐装置,其特征在于,所述第一性能指标包括第一吞吐量,所述第二性能指标包括第二吞吐量;所述第二确定单元,用于根据以下步骤确定向所述用户端推荐的资源配置方案:
根据所述第二吞吐量和所述至少一个候选资源中每个候选资源的第一吞吐量,确定多个候选配置方案;每个候选配置方案中包括至少一个候选资源,以及每个候选资源对应的虚拟机的数量;
从所述多个候选配置方案中,确定满足使用成本要求的候选配置方案为所述资源配置方案。
19.根据权利要求18所述的推荐装置,其特征在于,所述第二确定单元,具体用于根据以下步骤确定所述资源配置方案:
根据所述至少一个候选资源中每个候选资源的算力成本,确定所述多个候选配置方案中每个候选配置方案的使用成本;
根据所述多个候选配置方案中的每个候选配置方案的使用成本,从所述多个候选配置方案中,确定使用成本最低的候选配置方案为所述资源配置方案。
20.根据权利要求18所述的推荐装置,其特征在于,若每个候选配置方案中只包括一个候选资源,所述第二确定单元,还用于:
根据所述第二吞吐量除以每个候选资源的第一吞吐量得到的第一数值,确定每个候选资源对应的虚拟机的数量。
21.根据权利要求18所述的推荐装置,其特征在于,若每个候选配置方案中包括至少两个候选资源,所述第二确定单元,还用于:
确定所述至少一个候选资源中至少两个候选资源的第一吞吐量相加得到的第二数值;
根据所述第二吞吐量除以所述第二数值得到的第三数值,确定所述至少两个候选资源中每个候选资源对应的虚拟机的数量。
22.根据权利要求19所述的推荐装置,其特征在于,所述第二确定单元,还用于根据以下步骤确定每个候选配置方案的使用成本:
针对所述多个候选配置方案中的每个候选配置方案,将每个候选配置方案中每个候选资源对应的虚拟机的数量与对应的算力成本相乘,得到至少一个乘积值;
将所述至少一个乘积值中的各个乘积值相加得到第四数值,并将所述第四数值确定为每个候选配置方案的使用成本。
23.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当所述电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器运行时执行如权利要求1至11中任一项所述的计算资源的推荐方法的步骤。
24.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至11中任一项所述的计算资源的推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911228948.1A CN111865644B (zh) | 2019-12-04 | 2019-12-04 | 一种计算资源的推荐方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911228948.1A CN111865644B (zh) | 2019-12-04 | 2019-12-04 | 一种计算资源的推荐方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111865644A true CN111865644A (zh) | 2020-10-30 |
CN111865644B CN111865644B (zh) | 2023-04-07 |
Family
ID=72970691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911228948.1A Active CN111865644B (zh) | 2019-12-04 | 2019-12-04 | 一种计算资源的推荐方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111865644B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114896061A (zh) * | 2022-05-07 | 2022-08-12 | 百度在线网络技术(北京)有限公司 | 计算资源控制模型的训练方法、计算资源控制方法及装置 |
CN115118784A (zh) * | 2022-06-30 | 2022-09-27 | 中国电信股份有限公司 | 算力资源的调度方法、装置及*** |
WO2023098585A1 (zh) * | 2021-11-30 | 2023-06-08 | 维沃移动通信有限公司 | 信息传输方法、装置及通信设备 |
CN116994380A (zh) * | 2023-09-21 | 2023-11-03 | 浙江口碑网络技术有限公司 | 一种信息交互方法和装置 |
CN118095495A (zh) * | 2024-04-23 | 2024-05-28 | 一网互通(北京)科技有限公司 | 模型训练硬件配置推荐方法、装置及电子设备 |
CN118245229A (zh) * | 2024-05-23 | 2024-06-25 | 南京掌控网络科技有限公司 | 一种集群智能伸缩成本优化方法及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108763090A (zh) * | 2018-05-31 | 2018-11-06 | 上海陆家嘴国际金融资产交易市场股份有限公司 | 测试环境部署方法、装置、计算机设备和存储介质 |
CN109213597A (zh) * | 2018-08-01 | 2019-01-15 | 平安科技(深圳)有限公司 | 资源分配方法、装置、计算机设备及计算机可读存储介质 |
CN109408399A (zh) * | 2018-12-14 | 2019-03-01 | 武汉斗鱼鱼乐网络科技有限公司 | 一种算力估计方法、装置、设备和存储介质 |
US10229356B1 (en) * | 2014-12-23 | 2019-03-12 | Amazon Technologies, Inc. | Error tolerant neural network model compression |
CN109783221A (zh) * | 2017-11-14 | 2019-05-21 | ***通信有限公司研究院 | 一种虚拟机资源分配方法、装置及资源服务器 |
CN109857633A (zh) * | 2018-12-14 | 2019-06-07 | 武汉斗鱼鱼乐网络科技有限公司 | 一种任务算力估计方法、装置和存储介质 |
US20190319868A1 (en) * | 2019-06-25 | 2019-10-17 | Intel Corporation | Link performance prediction technologies |
-
2019
- 2019-12-04 CN CN201911228948.1A patent/CN111865644B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10229356B1 (en) * | 2014-12-23 | 2019-03-12 | Amazon Technologies, Inc. | Error tolerant neural network model compression |
CN109783221A (zh) * | 2017-11-14 | 2019-05-21 | ***通信有限公司研究院 | 一种虚拟机资源分配方法、装置及资源服务器 |
CN108763090A (zh) * | 2018-05-31 | 2018-11-06 | 上海陆家嘴国际金融资产交易市场股份有限公司 | 测试环境部署方法、装置、计算机设备和存储介质 |
CN109213597A (zh) * | 2018-08-01 | 2019-01-15 | 平安科技(深圳)有限公司 | 资源分配方法、装置、计算机设备及计算机可读存储介质 |
CN109408399A (zh) * | 2018-12-14 | 2019-03-01 | 武汉斗鱼鱼乐网络科技有限公司 | 一种算力估计方法、装置、设备和存储介质 |
CN109857633A (zh) * | 2018-12-14 | 2019-06-07 | 武汉斗鱼鱼乐网络科技有限公司 | 一种任务算力估计方法、装置和存储介质 |
US20190319868A1 (en) * | 2019-06-25 | 2019-10-17 | Intel Corporation | Link performance prediction technologies |
Non-Patent Citations (1)
Title |
---|
郭健,刘红杰,张欣: "全景智测平台的设计及应用", 《2017全国无线及移动通信学术大会论文集》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023098585A1 (zh) * | 2021-11-30 | 2023-06-08 | 维沃移动通信有限公司 | 信息传输方法、装置及通信设备 |
CN114896061A (zh) * | 2022-05-07 | 2022-08-12 | 百度在线网络技术(北京)有限公司 | 计算资源控制模型的训练方法、计算资源控制方法及装置 |
CN115118784A (zh) * | 2022-06-30 | 2022-09-27 | 中国电信股份有限公司 | 算力资源的调度方法、装置及*** |
CN116994380A (zh) * | 2023-09-21 | 2023-11-03 | 浙江口碑网络技术有限公司 | 一种信息交互方法和装置 |
CN116994380B (zh) * | 2023-09-21 | 2024-01-02 | 浙江口碑网络技术有限公司 | 一种信息交互方法和装置 |
CN118095495A (zh) * | 2024-04-23 | 2024-05-28 | 一网互通(北京)科技有限公司 | 模型训练硬件配置推荐方法、装置及电子设备 |
CN118095495B (zh) * | 2024-04-23 | 2024-07-16 | 一网互通(北京)科技有限公司 | 模型训练硬件配置推荐方法、装置及电子设备 |
CN118245229A (zh) * | 2024-05-23 | 2024-06-25 | 南京掌控网络科技有限公司 | 一种集群智能伸缩成本优化方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN111865644B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111865644B (zh) | 一种计算资源的推荐方法、装置、电子设备及存储介质 | |
CN111709533B (zh) | 机器学习模型的分布式训练方法、装置以及计算机设备 | |
KR102204887B1 (ko) | 연산 그래프 수정 | |
KR102076257B1 (ko) | 계산 그래프들 프로세싱 | |
US9852050B2 (en) | Selecting computing resources | |
CN113885956B (zh) | 服务部署方法及装置、电子设备和存储介质 | |
CN114896068A (zh) | 资源分配方法、资源分配装置、电子设备及存储介质 | |
US20200050924A1 (en) | Data Processing Method and Apparatus for Neural Network | |
CN115292046A (zh) | 算力分配方法、装置、存储介质及电子设备 | |
CN111106960B (zh) | 一种虚拟网络的映射方法、映射装置及可读存储介质 | |
CN114564374A (zh) | 算子性能评估方法、装置、电子设备及存储介质 | |
CN116991560A (zh) | 针对语言模型的并行调度方法、装置、设备及存储介质 | |
CN114819084A (zh) | 模型推理方法、装置、设备及存储介质 | |
CN117149665B (zh) | 持续集成方法、控制设备、持续集成***及存储介质 | |
CN110837421B (zh) | 一种任务分配方法及装置 | |
CN112596879A (zh) | 用于量子云计算平台任务调度的方法 | |
US9529688B2 (en) | Performance evaluation device and performance evaluation method | |
CN111782774B (zh) | 一种问题推荐的方法及装置 | |
CN113138847A (zh) | 基于联邦学习的计算机资源分配调度方法和装置 | |
CN107483559A (zh) | Sdk服务的提供方法及装置 | |
CN115879455A (zh) | 词语情感极性预测方法及其装置、电子设备及存储介质 | |
CN115344786A (zh) | 一种云资源推荐***、方法、设备及存储介质 | |
CN113157586B (zh) | 一种金融市场单元测试案例生成方法及装置 | |
CN112365189A (zh) | 案件分配方法及装置 | |
CN113051178A (zh) | 测试数据构造方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |