CN110058936B - 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 - Google Patents
用于确定专用处理资源的资源量的方法、设备和计算机程序产品 Download PDFInfo
- Publication number
- CN110058936B CN110058936B CN201810048693.XA CN201810048693A CN110058936B CN 110058936 B CN110058936 B CN 110058936B CN 201810048693 A CN201810048693 A CN 201810048693A CN 110058936 B CN110058936 B CN 110058936B
- Authority
- CN
- China
- Prior art keywords
- structural representation
- neural network
- amount
- resources
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Neurology (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开的实施例涉及用于确定专用处理资源的资源量的方法、设备和计算机程序产品。该方法包括获取用于深度学习处理的神经网络的结构表示,该结构表示与可用于该深度学习处理的该专用处理资源相关联;以及基于该结构表示,确定该深度学习处理所需的该专用处理资源的该资源量。以此方式,可以更好地估计深度学习处理所需的专用处理资源的资源量,以提高专用处理资源调度的性能和资源利用率。
Description
技术领域
本公开的实施例总体涉及资源量确定,具体涉及确定专用处理资源的资源量的方法、设备和计算机程序产品。
背景技术
近年来,高性能计算、机器学习、深度学习和人工智能等新兴技术快速发展。在当前的数据中心或云中,除了为这些新兴技术的工作负载提供中央处理单元(CPU)、存储装置等资源,还提供了诸如图形处理单元(GPU)、现场可编程门阵列(FPGA)等的专用处理资源,以满足这些新兴技术对于专用处理的需求。然而,为了更好地服务于这些新兴技术,还需要更好地估计执行这些新兴技术时所需的专用处理资源的资源量,从而改进用于调度专用处理资源的技术。
发明内容
本公开的实施例提供了用于确定专用处理资源的资源量的方法、设备和计算机程序产品。
在本公开的第一方面,提供了一种用于确定专用处理资源的资源量的方法。该方法包括:获取用于深度学习处理的神经网络的结构表示,该结构表示指示该神经网络中的与专用处理资源相关联的层属性;以及基于该结构表示,确定该深度学习处理所需的该专用处理资源的该资源量。
在本公开的第二方面,提供了一种用于确定专用处理资源的资源量的设备。该设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:获取用于深度学习处理的神经网络的结构表示,该结构表示指示该神经网络中的与专用处理资源相关联的层属性;以及基于该结构表示,确定该深度学习处理所需的该专用处理资源的该资源量。
在本公开的第三方面,提供了一种计算机程序产品。计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器实现根据本公开的第一方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了根据本公开的实施例的专用处理资源调度***的示意图;
图2示出了根据本公开的实施例的用于确定专用处理资源的资源量的方法的流程图;
图3示出了根据本公开的实施例的用于深度学习处理的神经网络的特定结构表示的示例的示意图;
图4示出了根据本公开的实施例的用于深度学习处理的神经网络的规范化结构表示的示例的示意图;以及
图5示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
使用高性能计算、机器学习、深度学习和人工智能等新兴技术的处理在较长时间段上需要大量专用处理资源。例如使用这些新兴技术的处理在数小时、数天、甚至数周的时间段上对于专用处理资源的计算能力(通常以每秒浮点运算(Floating Point OperationsPer Second,FLOPS)表示)和存储能力(专用处理资源上的存储器)具有极大需求。因此在执行使用这些新兴技术的处理之前,正确地估计这些处理所需的专用处理资源的资源量,对于提高专用处理资源的利用率和降低成本非常重要。
然而,传统上,为了估计在针对这些新兴技术的应用/框架中执行这些处理所需的专用处理资源的资源量,要么需要大量先验知识,要么依赖于针对这些新兴技术的应用/框架本身。然而,一方面,由于执行这些处理的用户通常并非这些应用/框架的构建者,因此缺乏关于这些应用/框架的知识。或者,即使用户构建了这些应用,用户也很可能缺乏关于这些应用/框架的底层架构的知识。因此,在实践上,要求用户具有大量先验知识来手动估计执行使用这些新兴技术的处理所需的专用处理资源的资源量是不可行的。
另一方面,在依赖针对这些新兴技术的应用/框架本身来估计执行这些处理所需的专用处理资源的资源量的情况下,这些应用/框架通常将过度估计其所需的资源量以预留大量专用处理资源。在极端情况下,这些应用/框架甚至将占用全部可用专用处理资源,而不管实际所需的资源量为何。这将显著降低专用处理资源的利用率。
为了至少部分地解决上述问题以及其他潜在问题中的一个或者多个问题,本公开的示例实施例提出了一种用于确定专用处理资源的资源量的方案。该方案通过在执行深度学习处理之前,获取用于深度学习处理的神经网络的结构表示,以及基于该结构表示来确定深度学习处理所需的专用处理资源的资源量。以此方式,可以在不依赖于大量先验知识和应用/框架的情况下,利用用于深度学习处理的神经网络的结构来快速、准确和有效地预测所需的专用处理资源的资源量。由此,可以根据准确的所需资源量调度专用处理资源,从而提高专用处理资源调度***的性能和资源利用率。
注意,虽然在本文中仅以深度学习作为示例进行了讨论,然而应当理解,本发明的实施例可以同样适用于高性能计算、机器学习和人工智能等新兴技术。
图1示出了根据本公开的实施例的专用处理资源调度***100的示意图。应当理解,如图1所示的专用处理资源调度***100仅用于示例的目的,而不暗示对于本公开的范围的任何限制。本公开的实施例可以被体现在不同的结构中。
如图1所示,专用处理资源调度***100包括一组专用处理资源服务器1101-110N(在下文中统称为专用处理资源服务器110),其中N为大于1的自然数。专用处理资源服务器1101-110N可以分别包括专用处理资源1151-115N(在下文中统称为专用处理资源115)。为了简化的目的,图中仅示出了一个专用处理资源服务器110包括一个专用处理资源115,然而应当理解,一个专用处理资源服务器110可以包括多个专用处理资源115。
注意,虽然在图1中示出了单独的专用处理资源服务器1101-110N及其上的专用处理资源1151-115N,然而专用处理资源服务器1101-110N和专用处理资源1151-115N可以被视为池化的和虚拟的可管理资源(如图1中的虚线框所示)。此外,专用处理资源服务器1101-110N可以具有不同配置。因此,与传统技术相比,包括多个专用处理资源服务器1101-110N的这样的专用处理资源集群是动态和共享的。
在某些实施例中,专用处理资源服务器1101-110N分别还可以包括服务器控制模块1171-117N(在下文中统称为服务器控制模块117)。服务器控制模块117可以管理针对专用处理资源服务器110中的专用处理资源115的调度请求。
专用处理资源调度***100还包括客户端120。例如,客户端120可以是执行深度学习处理的深度学习应用/框架。在某些实施例中,客户端120可以包括客户端控制模块125。例如,该客户端控制模块125可以以插件的形式存在于客户端120中。
由于在已知用于深度学习处理的神经网络的结构的情况下,深度学习处理所需的专用处理资源的资源量是可预测的,因此该客户端控制模块125可以在客户端120执行深度学习处理之前,获取用于深度学习处理的神经网络的结构表示,并且基于该结构表示确定深度学习处理所需的专用处理资源115的资源量,从而根据所确定的资源量请求专用处理资源115。此外,专用处理资源调度***100还包括调度模块130。调度模块130可以基于客户端130所请求的专用处理资源115的资源量和***中的可用专用处理资源来为客户端130分配专用处理资源115。然后,客户端130可以向专用处理资源服务器110请求所分配的专用处理资源115。
以此方式,专用处理资源调度***100可以在执行深度学习处理之前,通过借助于用于深度学习处理的神经网络的结构,来快速、准确和有效地估计深度学习处理所需的专用处理资源的资源量。由此,专用处理资源调度***100可以根据准确的所需资源量调度专用处理资源,从而提高专用处理资源调度***100的性能和资源利用率。
在下文中将结合图2-4来描述客户端控制模块135确定深度学习处理所需的专用处理资源115的资源量的示例操作。
图2示出了根据本公开的实施例的用于确定专用处理资源115的资源量的方法200的流程图。例如,方法200可以由如图1所示的客户端控制模块125来执行。应当理解的是,该方法还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。
在210,客户端控制模块125获取用于深度学习处理的神经网络的结构表示。。结构表示可以包括与用于深度学习处理的神经网络有关的各种数据。例如,结构表示可以包括与神经网络的神经网络层有关的层属性、所有输入数据通过神经网络的轮数(epochnumber)、迭代次数(iteration number)、一次迭代所使用的数据量(batch size)、梯度优化方法等。
在某些实施例中,客户端控制模块125可以在执行深度学习处理之前,获取用于该深度学习处理的神经网络的结构表示。备选地,客户端控制模块125可以在已经开始执行深度学习处理之后,但是尚未执行深度学习处理中使用专用处理资源115的任务之前,获取用于该深度学习处理的与专用处理资源115有关的神经网络的结构表示。以此方式,可以更为动态地确定深度学习处理所需的专用处理资源115的资源量,从而进一步提高资源量确定的准确性。
客户端控制模块125可以从执行深度学习处理的深度学习应用获取该结构表示。在某些实施例中,深度学习应用具有存储该结构表示的单独的文件。在此情况下,客户端控制模块125可以获取包含该结构表示的文件,并且解析该文件以获取结构表示。
备选地,客户端控制模块125可以向深度学习应用请求该结构表示,并且响应于接收到来自深度学习应用的响应,从该响应获取结构表示。例如,客户端控制模块125可以通过深度学习应用提供的应用编程接口(API)来向深度学习应用请求结构表示。
图3示出了根据本公开的实施例的用于深度学习处理的神经网络的特定结构表示300的示例的示意图。由于执行深度学习处理的深度学习应用不同,从该深度学习应用获取的神经网络的结构表示通常也不同。因此,结构表示300仅是用于深度学习处理的神经网络的结构表示的一种具体实现方式,并且用于深度学习处理的神经网络的结构表示不限于此。例如,用于深度学习处理的神经网络的结构表示还可以具有计算机程序代码的表示形式。
结构表示300包括多个框310-330。框310-330分别对应于神经网络的多个神经网络层,并且包含于相应神经网络层有关的数据。如图3所示,框310指示与其对应的神经网络层的名称为CONV2D_1_INPUT,类型为输入层,输入数据为1通道×宽28像素×高28像素的黑白图像,并且输出数据为1通道×宽28像素×高28像素的黑白图像。框320-330具有类似含义,在此省略其描述。
此外,结构表示300根据框之间的连接顺序,还可以指示神经网络层之间的关系。例如,框310所对应的输入层为框320所对应的卷积层的上游神经网络层,并且框330所对应的输入层为框320所对应的卷积层的下游神经网络层。上游神经网络层表示从其获取输入数据的层,而下游神经网络层表示向其输出数据的层。
另外,结构表示300还可以包含关于神经网络的结构的隐含数据。客户端控制模块125通过分析该结构表示300,可以获得这些隐含数据。例如,由于框320对应的卷积层的输入为(1,28,28),而其输出为(32,26,26),从1通道变为32通道,因此客户端控制模块125通过分析结构表示300,可以确定该卷积层的数目为32。
虽然客户端控制模块125可以直接从诸如结构表示300的特定结构表示直接获取与用于深度学习的神经网络的结构有关的数据,然而如上所述,由于执行深度学习处理的深度学习应用不同,从该深度学习应用获取的神经网络的结构表示通常也不同。因此,为了进一步改进确定专用处理资源的资源量的过程,客户端控制模块125可以将针对深度学习应用具有特定表示形式的诸如结构表示300的结构表示规范化为经规范化的结构表示。客户端控制模块125还可以通过比较和分析针对不同深度学习应用的经规范化的结构表示,以用于模式提取、变化跟踪、应用分类等。
在某些实施例中,为了将特定结构表示规范化,客户端控制模块125可以基于特定结构表示,确定与神经网络的神经网络层有关的层属性。层属性可以包括神经网络层的标识符、神经网络层的类型、神经网络层的上游神经网络层、以及神经网络层的下游神经网络层。
例如,神经网络层的标识符可以指示神经网络层的名称或可以标识神经网络层的其他标识数据。神经网络层的类型可以指示神经网络层为数据类型层(例如输入层等)、计算类型层(例如卷积层、全连接层等)还是控制层(例如采样层等)。此外,神经网络层的上游神经网络层和下游神经网络层可以指示针对该神经网络层的一个或多个输入神经网络层和输出神经网络层。
可选地,层属性还可以包括神经网络层的可配置属性。例如,可配置属性可以指示神经网络层的输入数据形状、输入数据大小、步长(stride)、填充(padding)、卷积核大小等。
例如,客户端控制模块125可以通过分析结构表示300确定层属性。以框310为例,客户端控制模块125可以确定框310的标识符为CONV2D_1_INPUT,类型为输入层,不存在上游神经网络层,下游神经网络层为与框320对应的CONV2D_1层,可配置属性为输入数据为1通道×宽28像素×高28像素的黑白图像并且输出数据为1通道×宽28像素×高28像素的黑白图像。
客户端控制模块125可以基于所确定的层属性,将特定结构表示转换为规范化结构表示。图4示出了根据本公开的实施例的用于深度学习处理的神经网络的规范化结构表示400的示例的示意图。结构表示400仅是用于深度学习处理的神经网络的规范化结构表示的一种具体实现方式,并且规范化结构表示可以具有任何适当的表示形式。
具体地,图4示出了与特定结构表示300中的框310对应的规范化结构表示。框320-340具有类似规范化结构表示,在此省略其描述。
如图4所示,结构表示400可以被组织为键值对的形式,其中键410指示神经网络的神经网络层的层属性,并且值420指示层属性的值。例如,键410可以包括标识符、类型、上游神经网络层、下游神经网络层和可配置属性。相应地,与这些键对应的值420分别指示标识符为CONV2D_1_INPUT,类型为输入层,不存在上游神经网络层,下游神经网络层为CONV2D_1层,可配置属性为输入数据为1通道×宽28像素×高28像素的黑白图像以及输出数据为1通道×宽28像素×高28像素的黑白图像。
在某些实施例中,这些键值对可以被组织为图的形式。图中的节点可以表示神经网络层,并且图形的边可以标识该神经网络层的输入和输出数据。
返回参考图2,在220,客户端控制模块125可以基于所获取的结构表示(诸如结构表示300和结构表示400),确定深度学习处理所需的专用处理资源的资源量。在确定所需的专用处理资源的资源量时,最值得关注的两种资源量是存储器资源量和计算资源量。
深度学习处理所需的存储器资源量取决于神经网络的每个神经网络层的层存储器资源量。在某些实施例中,客户端控制模块125可以基于结构表示,确定针对神经网络的每个神经网络层的层存储器资源量。在此,层存储器资源量指示相应神经网络层所需的专用处理资源的存储器的资源量。
以下将描述确定常见类型的神经网络层的存储器资源量的方式。例如,针对输入层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、通道数、高度和宽度等参数来确定输入层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算输入层的层存储器资源量:输入层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×通道数×高度×宽度。
针对卷积层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、卷积输出通道数、卷积输出高度和卷积输出宽度等参数来确定卷积层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算卷积层的层存储器资源量:卷积层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×卷积输出通道数×卷积输出高度×卷积输出宽度。
针对采样层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、卷积输出通道数、卷积输出高度、卷积输出宽度和采样步长等参数来确定输入层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算采样层的层存储器资源量:采样层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×卷积输出通道数×(卷积输出高度/采样步长)×(卷积输出宽度/采样步长)。
针对全连接层,客户端控制模块125可以基于诸如浮点数大小、一次迭代所使用的数据量、全连接输出等参数来确定全连接层的层存储器资源量。例如,客户端控制模块125可以基于以下等式来计算全连接层的层存储器资源量:全连接层的层存储器资源量=浮点数大小×一次迭代所使用的数据量×全连接输出。然后,客户端控制模块125可以基于层存储器资源量,来确定所需的存储器资源量。在某些实施例中,深度学习处理所需的存储器资源量可以由神经网络的每个神经网络层的层存储器资源量累加获得。在此情况下,客户端控制模块125可以基于层存储器资源量之和,确定存储器资源量。
以上描述了确定在前向传播中神经网络所需的存储器资源量的过程。应理解,所需的存储器资源量还取决于其他因素,例如在后向传播中神经网络的数据和参数(诸如梯度)所需的存储器资源量,以及在使用快速傅里叶变换(FFT)时所需的存储器资源量。因此,在某些实施例中,客户端控制模块125可以基于所有所需的存储器资源量之和来确定最终的存储器资源量。
此外,深度学习处理所需的计算资源量取决于神经网络的每个神经网络层的层计算资源量。在某些实施例中,客户端控制模块125可以基于结构表示,确定针对神经网络的每个神经网络层的层计算资源量。在此,层计算资源量指示相应神经网络层所需的专用处理资源的计算能力。
针对常见类型的神经网络层,确定层计算资源量的方式可以参照上文所述的确定层存储器资源量的方式,而不考虑浮点数大小。例如,客户端控制模块125可以基于诸如一次迭代所使用的数据量、卷积输出通道数、卷积输出高度和卷积输出宽度等参数来确定卷积层的层计算资源量。例如,客户端控制模块125可以基于以下等式来计算卷积层的层计算资源量:卷积层的层存储器资源量=一次迭代所使用的数据量×卷积输出通道数×卷积输出高度×卷积输出宽度。确定其他常见类型的神经网络层的层计算资源量的方式与输入层类似,并且在此省略其描述。
然后,客户端控制模块125可以基于层计算资源量,来确定所需的计算资源量。在某些实施例中,客户端控制模块125可以从层计算资源量中选择所需的计算能力大于预定阈值的目标层计算资源量,以及基于目标层计算资源量,确定所需的计算资源量。例如,由于在给定时间内,仅一个神经网络层能够在专用处理资源中运行,因此深度学习处理所需的计算资源量取决于神经网络的每个神经网络层的最大层存计算资源量。通常,卷积层和全连接层所需的存计算资源量最大。
然后,客户端控制模块125可以根据所确定的资源量请求专用处理资源115。在某些实施例中,客户端控制模块125可以根据所确定的资源量向调度模块130发送调度请求以请求专用处理资源115。例如,调度请求可以指示请求的客户端120、所需的总存储器资源量和所需的最大计算资源量。
调度模块130在接收到来自客户端控制模块125的调度请求时,可以基于客户端130所请求的专用处理资源115的资源量和***中的可用专用处理资源来为客户端130分配专用处理资源115。然后,客户端130可以向专用处理资源服务器110请求所分配的专用处理资源115。
以此方式,客户端控制模块125可以快速、准确和有效地估计所需的专用处理资源的资源量。由此,客户端控制模块125可以根据所确定的、相对准确的资源量请求专用处理资源,从而提高专用处理资源调度***100的性能和资源利用率。
图5示出了可以用来实施本公开内容的实施例的示例设备500的示意性框图。例如,如图1所示的调度模块130可以由设备500来实施。如图所示,设备500包括中央处理单元(CPU)510,其可以根据存储在只读存储器(ROM)520中的计算机程序指令或者从存储单元580加载到随机访问存储器(RAM)530中的计算机程序指令,来执行各种适当的动作和处理。在RAM 530中,还可存储设备500操作所需的各种程序和数据。CPU 510、ROM 520以及RAM530通过总线540彼此相连。输入/输出(I/O)接口550也连接至总线540。
设备500中的多个部件连接至I/O接口550,包括:输入单元560,例如键盘、鼠标等;输出单元570,例如各种类型的显示器、扬声器等;存储单元580,例如磁盘、光盘等;以及通信单元590,例如网卡、调制解调器、无线通信收发机等。通信单元590允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200,可由处理单元510执行。例如,在一些实施例中,方法200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元580。在一些实施例中,计算机程序的部分或者全部可以经由ROM 520和/或通信单元590而被载入和/或安装到设备500上。当计算机程序被加载到RAM 530并由CPU 510执行时,可以执行上文描述的方法200的一个或多个动作。
本公开可以是方法、装置、***和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (19)
1.一种用于确定专用处理资源的资源量的方法,包括:
获取用于深度学习处理的神经网络的结构表示,所述结构表示指示所述神经网络中的与专用处理资源相关联的层属性;以及
基于所述结构表示,确定所述深度学习处理所需的所述专用处理资源的所述资源量。
2.根据权利要求1所述的方法,其中获取所述结构表示包括:
获取所述神经网络的特定结构表示,所述特定结构表示针对执行所述深度学习处理的深度学习应用具有特定表示形式;以及
将所述特定结构表示规范化为所述结构表示。
3.根据权利要求2所述的方法,其中将所述特定结构表示规范化为所述结构表示包括:
基于所述特定结构表示,确定与所述神经网络的神经网络层有关的层属性;以及
基于所述层属性,将所述特定结构表示规范化为所述结构表示。
4.根据权利要求3所述的方法,其中确定所述层属性包括:
确定以下中的至少一项:
所述神经网络层的标识符;
所述神经网络层的类型;
所述神经网络层的上游神经网络层;
所述神经网络层的下游神经网络层;以及
所述神经网络层的可配置属性。
5.根据权利要求1所述的方法,其中获取所述结构表示包括:
获取包含所述结构表示的文件;以及
解析所述文件以获取所述结构表示。
6.根据权利要求1所述的方法,其中获取所述结构表示包括:
向执行所述深度学习处理的深度学习应用请求所述结构表示;以及
响应于接收到来自所述深度学习应用的响应,从所述响应获取所述结构表示。
7.根据权利要求1所述的方法,其中确定所述资源量包括:
确定所述深度学习处理所需的所述专用处理资源的存储器资源量和计算资源量中的至少一个。
8.根据权利要求7所述的方法,其中确定所述存储器资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层存储器资源量,所述层存储器资源量指示相应神经网络层所需的所述专用处理资源的存储器;以及
基于所述层存储器资源量之和,确定所述存储器资源量。
9.根据权利要求7所述的方法,其中确定所述计算资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层计算资源量,所述层计算资源量指示相应神经网络层所需的所述专用处理资源的计算能力;
从所述层计算资源量中选择所需的计算能力大于预定阈值的目标层计算资源量;以及
基于所述目标层计算资源量,确定所述计算资源量。
10.一种用于确定专用处理资源的资源量的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
获取用于深度学习处理的神经网络的结构表示,所述结构表示指示所述神经网络中的与专用处理资源相关联的层属性;以及
基于所述结构表示,确定所述深度学习处理所需的所述专用处理资源的所述资源量。
11.根据权利要求10所述的设备,其中获取所述结构表示包括:
获取所述神经网络的特定结构表示,所述特定结构表示针对执行所述深度学习处理的深度学习应用具有特定表示形式;以及
将所述特定结构表示规范化为所述结构表示。
12.根据权利要求11所述的设备,其中将所述特定结构表示规范化为所述结构表示包括:
基于所述特定结构表示,确定与所述神经网络的神经网络层有关的层属性;以及
基于所述层属性,将所述特定结构表示规范化为所述结构表示。
13.根据权利要求12所述的设备,其中确定所述层属性包括:
确定以下中的至少一项:
所述神经网络层的标识符;
所述神经网络层的类型;
所述神经网络层的上游神经网络层;
所述神经网络层的下游神经网络层;以及
所述神经网络层的可配置属性。
14.根据权利要求10所述的设备,其中获取所述结构表示包括:
获取包含所述结构表示的文件;以及
解析所述文件以获取所述结构表示。
15.根据权利要求10所述的设备,其中获取所述结构表示包括:
向执行所述深度学习处理的深度学习应用请求所述结构表示;以及
响应于接收到来自所述深度学习应用的响应,从所述响应获取所述结构表示。
16.根据权利要求10所述的设备,其中确定所述资源量包括:
确定所述深度学习处理所需的所述专用处理资源的存储器资源量和计算资源量中的至少一个。
17.根据权利要求16所述的设备,其中确定所述存储器资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层存储器资源量,所述层存储器资源量指示相应神经网络层所需的所述专用处理资源的存储器;以及
基于所述层存储器资源量之和,确定所述存储器资源量。
18.根据权利要求16所述的设备,其中确定所述计算资源量包括:
基于所述结构表示,确定针对所述神经网络的每个神经网络层的层计算资源量,所述层计算资源量指示相应神经网络层所需的所述专用处理资源的计算能力;
从所述层计算资源量中选择所需的计算能力大于预定阈值的目标层计算资源量;以及
基于所述目标层计算资源量,确定所述计算资源量。
19.一种用于存储机器可执行指令的计算机可读介质,所述机器可执行指令在被执行时使机器执行根据权利要求1至9任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810048693.XA CN110058936B (zh) | 2018-01-18 | 2018-01-18 | 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 |
US16/239,803 US11442779B2 (en) | 2018-01-18 | 2019-01-04 | Method, device and computer program product for determining resource amount for dedicated processing resources |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810048693.XA CN110058936B (zh) | 2018-01-18 | 2018-01-18 | 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110058936A CN110058936A (zh) | 2019-07-26 |
CN110058936B true CN110058936B (zh) | 2023-04-18 |
Family
ID=67213958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810048693.XA Active CN110058936B (zh) | 2018-01-18 | 2018-01-18 | 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11442779B2 (zh) |
CN (1) | CN110058936B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3652681A4 (en) * | 2017-08-08 | 2020-07-29 | Samsung Electronics Co., Ltd. | PROCESS AND APPARATUS FOR DETERMINING MEMORY REQUIREMENTS IN A NETWORK |
CN110390387B (zh) * | 2018-04-20 | 2023-07-18 | 伊姆西Ip控股有限责任公司 | 对深度学习应用所用资源进行评估 |
US11880762B2 (en) * | 2018-06-26 | 2024-01-23 | International Business Machines Corporation | Choosing execution mode of a neural network based on total memory usage |
CN110554923B (zh) * | 2019-09-09 | 2020-05-22 | 北京人民在线网络有限公司 | 一种用于云计算的分布链式计算资源的优化方法及*** |
CN113590275A (zh) * | 2020-04-30 | 2021-11-02 | 伊姆西Ip控股有限责任公司 | 用于处理数据的方法、电子设备和计算机程序产品 |
CN112052083A (zh) * | 2020-09-15 | 2020-12-08 | 浙江智慧视频安防创新中心有限公司 | 云端gpu的显存调度方法、装置、电子设备及存储介质 |
EP4357916A4 (en) * | 2021-06-30 | 2024-04-24 | Huawei Technologies Co., Ltd. | ORDER PROCESSING METHOD AND DEVICE, COMPUTER DEVICE AND STORAGE MEDIUM |
CN113900734B (zh) * | 2021-10-11 | 2023-09-22 | 北京百度网讯科技有限公司 | 一种应用程序文件配置方法、装置、设备及存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008067676A1 (en) * | 2006-12-08 | 2008-06-12 | Medhat Moussa | Architecture, system and method for artificial neural network implementation |
CN101841862B (zh) * | 2009-03-18 | 2013-05-15 | 电信科学技术研究院 | 一种资源分配方法及装置 |
CN103001749B (zh) * | 2011-09-13 | 2016-03-30 | 华为技术有限公司 | 传输数据的方法、物联网设备和网络侧设备 |
CN102594927A (zh) * | 2012-04-05 | 2012-07-18 | 高汉中 | 基于神经网络的云端服务器结构 |
CN104732274A (zh) * | 2015-03-10 | 2015-06-24 | 华南理工大学 | 一种智能计算机 |
US9378044B1 (en) * | 2015-03-28 | 2016-06-28 | Vmware, Inc. | Method and system that anticipates deleterious virtual-machine state changes within a virtualization layer |
US20170286861A1 (en) * | 2016-04-01 | 2017-10-05 | Damian Kelly | Structured machine learning framework |
US11055063B2 (en) * | 2016-05-02 | 2021-07-06 | Marvell Asia Pte, Ltd. | Systems and methods for deep learning processor |
GB2554711B (en) * | 2016-10-06 | 2020-11-25 | Imagination Tech Ltd | Buffer addressing for a convolutional neural network |
CN106846071A (zh) * | 2017-02-23 | 2017-06-13 | 北京小度信息科技有限公司 | 数据处理方法及装置 |
CN107343023B (zh) * | 2017-05-25 | 2020-01-10 | 北京奇艺世纪科技有限公司 | 一种Mesos管理集群中的资源分配方法、装置及电子设备 |
US11321604B2 (en) * | 2017-06-21 | 2022-05-03 | Arm Ltd. | Systems and devices for compressing neural network parameters |
CN107368372B (zh) * | 2017-07-25 | 2021-02-23 | 苏州浪潮智能科技有限公司 | 一种基于云海os平台的资源展示方法与装置 |
CN109976903B (zh) * | 2019-02-22 | 2021-06-29 | 华中科技大学 | 一种基于层宽内存分配的深度学习异构计算方法和*** |
WO2022059024A1 (en) * | 2020-09-17 | 2022-03-24 | Lightmetrics Technologies Pvt. Ltd. | Methods and systems for unstructured pruning of a neural network |
-
2018
- 2018-01-18 CN CN201810048693.XA patent/CN110058936B/zh active Active
-
2019
- 2019-01-04 US US16/239,803 patent/US11442779B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11442779B2 (en) | 2022-09-13 |
CN110058936A (zh) | 2019-07-26 |
US20190220316A1 (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110058936B (zh) | 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 | |
US11836576B2 (en) | Distributed machine learning at edge nodes | |
US20190325307A1 (en) | Estimation of resources utilized by deep learning applications | |
US11144828B2 (en) | Training task optimization system, training task optimization method and non-transitory computer readable medium for operating the same | |
CN108229419B (zh) | 用于聚类图像的方法和装置 | |
CN109033001B (zh) | 用于分配gpu的方法和装置 | |
US11455322B2 (en) | Classification of time series data | |
CN110288625B (zh) | 用于处理图像的方法和装置 | |
CN113627536B (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
US20220391253A1 (en) | Method of resource management of virtualized system, electronic device and computer program product | |
US20160380839A1 (en) | Efficient parallel processing of a network with conflict constraints between nodes | |
JP2014164425A (ja) | 情報処理装置、リソース制御方法及びプログラム | |
US11824731B2 (en) | Allocation of processing resources to processing nodes | |
CN114266937A (zh) | 模型训练、图像处理方法,装置,设备以及存储介质 | |
CN114240506A (zh) | 多任务模型的建模方法、推广内容处理方法及相关装置 | |
CN114020469A (zh) | 基于边缘节点的多任务学习方法、装置、介质与设备 | |
US11935271B2 (en) | Neural network model compression with selective structured weight unification | |
US20220188620A1 (en) | Time estimator for deep learning architecture | |
US11410023B2 (en) | Lexicographic deep reinforcement learning using state constraints and conditional policies | |
CN115412401B (zh) | 训练虚拟网络嵌入模型及虚拟网络嵌入的方法和装置 | |
CN115186738B (zh) | 模型训练方法、装置和存储介质 | |
CN110610450A (zh) | 数据处理方法、电子设备和计算机可读存储介质 | |
CN116701091A (zh) | 用于导出日志的方法、电子设备和计算机程序产品 | |
US20210232891A1 (en) | Neural network model compression with structured weight unification | |
CN113792869A (zh) | 基于神经网络芯片的视频处理方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |