CN111027689B - 配置方法、装置及计算*** - Google Patents

配置方法、装置及计算*** Download PDF

Info

Publication number
CN111027689B
CN111027689B CN201911138955.2A CN201911138955A CN111027689B CN 111027689 B CN111027689 B CN 111027689B CN 201911138955 A CN201911138955 A CN 201911138955A CN 111027689 B CN111027689 B CN 111027689B
Authority
CN
China
Prior art keywords
target
computing
computing unit
algorithm
computing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911138955.2A
Other languages
English (en)
Other versions
CN111027689A (zh
Inventor
刘飞阳
白林亭
程陶然
王中华
郭鹏
文鹏程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Aeronautics Computing Technique Research Institute of AVIC
Original Assignee
Xian Aeronautics Computing Technique Research Institute of AVIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Aeronautics Computing Technique Research Institute of AVIC filed Critical Xian Aeronautics Computing Technique Research Institute of AVIC
Priority to CN201911138955.2A priority Critical patent/CN111027689B/zh
Publication of CN111027689A publication Critical patent/CN111027689A/zh
Application granted granted Critical
Publication of CN111027689B publication Critical patent/CN111027689B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files
    • G06F9/4451User profiles; Roaming
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Stored Programmes (AREA)

Abstract

本发明提供一种配置方法、装置及计算***,属于嵌入式计算领域。其中计算***的每个计算单元内包含至少两类算子;方法包括:接收待配置的目标算法;解析目标算法所包含的计算类型和每个计算类型对应的数量;根据目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子;根据目标算法,以及每个目标计算单元对应的目标算子,确定全部目标计算单元组成的网络结构;根据每个目标计算单元对应的目标算子,以及全部目标计算单元组成的网络结构,生成计算***用于实现目标算法的配置文件。通过同一计算***实现不同类型的算法,提高计算***的并行处理能力和硬件资源利用率。

Description

配置方法、装置及计算***
技术领域
本发明属于嵌入式计算领域,涉及一种配置方法、装置及计算***。
背景技术
近年来随着嵌入式计算***对图像/语音信号的目标识别,以及***自主决策等智能化任务能力的需求日益增加,智能计算成为嵌入式计算***发展的一个重要方向。广泛应用于高性能服务器环境的深度神经网络类智能算法,存在着网络结构复杂、算法模型多变、计算复杂度高、参数存储需求大等难点,现有的计算***提供单一类型的算法,算法适应性和配置灵活性较差。
可见,现有的计算***存在算法适应性和配置灵活性较差的技术问题。
发明内容
为了解决上述背景中提及的问题,本发明提供了一种配置方法、装置及计算***,具体如下:
第一方面,本发明实施例提供了一种配置方法,应用于计算***,所述计算***包括至少两个计算单元,每个计算单元内包含至少两类算子;
所述方法包括:
接收待配置的目标算法;
解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列。
可选的,所述根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子的步骤之前,所述方法还包括:
接收待计算的目标数据集的数据类型参数;
所述根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子的步骤,包括:
根据所述目标算法所包含的计算类型和每个计算类型对应数量,以及所述目标数据集的数据类型参数,为每个目标计算单元配置目标算子。
可选的,所述根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件的步骤之前,所述方法包括:
根据所述网络结构,确定每个目标计算单元的交互次数;其中,每个目标计算单元的交互次数为在所述网络结构中的每个目标计算单元与其他目标计算单元数据交互的次数;
根据每个目标计算单元的交互次数,以及所述网络结构,得到所述计算***的单元布局方案;
所述根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件的步骤,包括:
根据每个所述目标计算单元对应的目标算子,以及所述计算***的单元布局方案,生成所述计算***用于实现所述目标算法的配置文件。
可选的,所述根据每个所述目标计算单元对应的目标算子,以及所述计算***的单元布局方案,生成所述计算***用于实现所述目标算法的配置文件的步骤之前,所述方法还包括:
获取所述目标数据集的数据格式和数据分布信息;
根据接收待计算的目标数据集的数据类型参数,以及每个目标计算单元的目标算子,为每个所述目标计算单元分配对应的存储空间。
可选的,所述解析所述目标算法所包含的计算类型和每个计算类型对应的数量的步骤,包括:
利用Tensor Flow或者Caffe,解析所述目标算法所包含的计算类型和每个计算类型对应的数量。
可选的,每个计算单元可配置的算法包括:卷积算子、池化算子或者激活函数;和/或,
所述数据类型参数包括数据类型、数据位宽或者数据分布。
第二方面,本发明实施例还提供了一种配置装置,应用于计算***,所述计算***包括至少两个计算单元,每个计算单元内包含至少两类算子;
所述装置包括:
接收模块,用于接收待配置的目标算法;
解析模块,用于解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
配置模块,用于根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
确定模块,用于根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
生成模块,用于根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列。
可选的,所述接收模块还用于:
接收待计算的目标数据集的数据类型参数;
所述配置模块用于:
根据所述目标算法所包含的计算类型和每个计算类型对应数量,以及所述目标数据集的数据类型参数,为每个所述计算单元配置目标算子。
第三方面,本发明实施例还提供了一种计算***,包括:
至少两个计算单元,每个所述计算单元内包含至少两类算子;以及,
处理器,所述处理器用于:
接收待配置的目标算法;
解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列。
上述本发明实施例提供的计算***的配置方案,通过解析待配置的目标函数,确定所包含的计算类型和每个计算类型对应的数量,为计算***的每个目标计算单元配置目标算子,并确定全部目标计算单元所组成的网络结构。这样,即可生成用于实现该目标算法的配置文件,用于配置该计算***的计算单元阵列。本实施例提供的方案,可以根据不同算法,自动为计算***的各个计算单元配置对应的算子和组成的网络结构,用于实现不同的算法,算法适应性更强,且有效提高了计算***的并行处理能力和硬件资源利用率。
附图说明
图1为本发明实施例提供的一种配置方法的流程示意图;
图2为本发明实施例提供的计算***的架构示意图;
图3为本发明实施例提供的配置方法的另一种流程示意图。
具体实施方式
以下结合附图对本发明进行详述。
参见图1,为本发明实施例提供的一种配置方法的流程示意图。所提供的配置方法应用于计算***,如图2所示,所述计算包括至少两个计算单元,每个计算单元内包含至少两类算法。如图1所示,所述配置方法主要包括:
S101,接收待配置的目标算法;
S102,解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
本实施例提供的配置方法,可以应用于计算***,针对所接收的不同种类的算法进行配置,将当前待配置的目标算法定义为目标算法。计算***内设有至少两个计算单元,至少两个计算单元组成可配置的智能计算单元阵列。其中,每个计算单元是实现智能计算的硬件载体,能够实现多种深度神经网络算法模型通用的基本算子,例如,卷积算子、池化算子、激活函数等。当然也可以包括特定算法的专用算子。计算单元可采用在线配置或离线配置,配置方式可以包括硬件电路配置和软件配置,计算单元通过内部互联网络进行数据交互,内部互联网络可以包括总线、片上网络等。此外,如图2所示,计算***还可以包括控制器、存储器、***互联网络、***接口等。所述控制器用于执行本计算***所要执行的处理和计算步骤,实现计算***的任务分配、数据调度管理等。存储器用于存储计算***所需要的深度神经网络算法模型的参数,以及计算单元在计算***运行过程中的计算结果。***互连网络可以实现***内部可配置计算单元阵列、控制器、存储器、***接口之间的高速数据交互和数据存取。***接口则可以用于***供电、调试、***与外部***之间的数据通信等。
计算***在接收到待配置的目标算法之后,即可解析目标算法所包含的计算类型和每个计算类型对应的数量。即对所需深度神经网络算法模型进行解析,获取算法模型的网络分层、数据通道、运算类型等信息。
可选的,可利用Tensor Flow或者Caffe,解析所述目标算法所包含的计算类型和每个计算类型对应的数量。
S103,根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子;其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
具体的,计算***再解析获得所述目标算法所需要的计算类型和每个计算类型的数量后,即可从全部计算单元中选择出能够组合实现目标算法的目标计算单元,并为每个目标计算单元配置对应的目标算子。具体实施时,可以结合最优化算法,选择确定最优数量的可执行不同运算类型的对应数据格式的目标计算单元。
目标计算单元的选择以计算单元IP库为基础。其中,该计算单元IP库包含多种深度神经网络算法模型的通用算子,也包含特定智能算法模型的专用算子。智能计算单元IP库中的同类智能计算单元包括多种数据类型、数据位宽的实例;智能计算单元IP库可运行在***的控制器中,或者外部计算***,支持智能计算单元的更新、扩充。
S104,根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
在确定所选择的目标计算单元及匹配的目标算子之后,可以根据目标算法确定各目标计算单元之间的连接关系,选额确定最优的网络结构和通信方式。其中,网络结构可选用总线式或者不同拓扑结构的片上网络,通信方式可以支持点对点、点对多点等方式。
S105,根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件。其中,所述配置文件用于配置所述计算***的计算单元阵列。
计算***在依据上述多步骤确定每个目标算子的目标计算单元及多目标计算单元组成的网络结构之后,即可生成用于实现目标算法的配置文件。将配置到计算***的计算单元阵列,即可实现该目标算法。
如图3所示,为本发明实施例提供的另一种配置方法的流程示意图。本实施方式与上述实施例的区别在于,增设了结合待处理的目标数据集的数据类型参数来进一步优化配置过程的方案。其中,所述数据类型参数可以包括数据类型、数据位宽或者数据分布。
具体的,所述根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子的步骤之前,所述方法还可以包括:
接收待计算的目标数据集的数据类型参数;
所述根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子的步骤,包括:
根据所述目标算法所包含的计算类型和每个计算类型对应数量,以及所述目标数据集的数据类型参数,为每个目标计算单元配置目标算子。
增设根据待处理的目标数据集的数据位宽等数据类型参数,进一步确定更适用的计算单元和目标算子,配置效果更好。
在另一种具体实施方式中,所述根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件的步骤之前,所述方法还可以包括:
根据所述网络结构,确定每个目标计算单元的交互次数;其中,每个目标计算单元的交互次数为在所述网络结构中的每个目标计算单元与其他目标计算单元数据交互的次数;
根据每个目标计算单元的交互次数,以及所述网络结构,得到所述计算***的单元布局方案;
所述根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件的步骤,包括:
根据每个所述目标计算单元对应的目标算子,以及所述计算***的单元布局方案,生成所述计算***用于实现所述目标算法的配置文件。
计算***根据所述网络结构选择所确定的目标计算单元及每个目标计算单元与其他目标计算单元的交互次数,针对不同类型的智能计算单元在可配置的计算单元阵列中的物理布局进行优化,确定各计算单元的物理位置。优化原则可以为:将数据交互需求大即交互次数较多的计算单元在物理上就近部署,降低网络的数据带宽需求,降低网络拥塞。
此外,如图3所示,增设了分配存储的过程。所述根据每个所述目标计算单元对应的目标算子,以及所述计算***的单元布局方案,生成所述计算***用于实现所述目标算法的配置文件的步骤之前,所述方法还可以包括:
获取所述目标数据集的数据格式和数据分布信息;
根据接收待计算的目标数据集的数据类型参数,以及每个目标计算单元的目标算子,为每个所述目标计算单元分配对应的存储空间。
计算***根据所述数据分析所获取的数据格式和数据分布信息,以及选择所确定数量和类型的计算单元,为计算单元分配用于存储参数和中间计算结果的存储空间。之后,计算***即可根据所述单元布局优化所确定的计算单元的物理位置和所述存储空间分配所确定的计算单元存储空间,生成配置文件,配置文件用于配置计算单元阵列。
此外,存储空间分配还支持存储空间优化,通过对智能计算单元进行稀疏存储,降低深度神经网络算法模型需要存储大量参数带来的超大存储空间需求。
上述本公开实施例提供的配置方法,面向嵌入式***智能任务场景灵活多变的应用需求,提供一种硬件可配置的嵌入式智能计算***及方法,该***通过可配置的智能计算***硬件架构,支持深度神经网络等不同智能算法模型在嵌入式环境的加速处理,该方法针对特定深度神经网络模型的特性,实现硬件资源最优配置。
此外,本发明实施例还提供了一种配置装置,用于实现上述实施例提供的配置方法。所述配置装置应用于计算***,所述计算***包括至少两个计算单元,每个计算单元内包含至少两类算子;
所述装置可以包括:
接收模块,用于接收待配置的目标算法;
解析模块,用于解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
配置模块,用于根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
确定模块,用于根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
生成模块,用于根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列。
可选的,所述接收模块还用于:
接收待计算的目标数据集的数据类型参数;
所述配置模块用于:
根据所述目标算法所包含的计算类型和每个计算类型对应数量,以及所述目标数据集的数据类型参数,为每个所述计算单元配置目标算子。
继续参见图3,本发明实施例还提供了一种计算***,包括:
至少两个计算单元,每个所述计算单元内包含至少两类算子;以及,
处理器,所述处理器用于:
接收待配置的目标算法;
解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列。
上述本公开实施例提供的计算***,面向嵌入式***智能任务场景灵活多变的应用需求,提供一种硬件可配置的嵌入式智能计算***及方法,该***通过可配置的智能计算***硬件架构,支持深度神经网络等不同智能算法模型在嵌入式环境的加速处理,该方法针对特定深度神经网络模型的特性,实现硬件资源最优配置。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,未公开的保护范围应以权利要求的保护范围为主。

Claims (5)

1.一种配置方法,其特征在于,应用于计算***,所述计算***包括至少两个计算单元,每个计算单元内包含至少两类算子;
所述方法包括:
接收待配置的目标算法;
解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列;
根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子的步骤之前,所述方法还包括:
接收待计算的目标数据集的数据类型参数;
所述根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子的步骤,包括:
根据所述目标算法所包含的计算类型和每个计算类型对应数量,以及所述目标数据集的数据类型参数,为每个目标计算单元配置目标算子;
根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件的步骤之前,所述方法包括:
根据所述网络结构,确定每个目标计算单元的交互次数;其中,每个目标计算单元的交互次数为在所述网络结构中的每个目标计算单元与其他目标计算单元数据交互的次数;
根据每个目标计算单元的交互次数,以及所述网络结构,得到所述计算***的单元布局方案;
所述根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件的步骤,包括:
根据每个所述目标计算单元对应的目标算子,以及所述计算***的单元布局方案,生成所述计算***用于实现所述目标算法的配置文件;
根据每个所述目标计算单元对应的目标算子,以及所述计算***的单元布局方案,生成所述计算***用于实现所述目标算法的配置文件的步骤之前,所述方法还包括:
获取所述目标数据集的数据格式和数据分布信息;
根据接收待计算的目标数据集的数据类型参数,以及每个目标计算单元的目标算子,为每个所述目标计算单元分配对应的存储空间;
解析所述目标算法所包含的计算类型和每个计算类型对应的数量的步骤,包括:
利用Tensor Flow或者Caffe,解析所述目标算法所包含的计算类型和每个计算类型对应的数量。
2.根据权利要求1所述的方法,其特征在于,每个计算单元可配置的算法包括:卷积算子、池化算子或者激活函数;和/或,
所述数据类型参数包括数据类型、数据位宽或者数据分布。
3.实现权利要求1所述的配置方法的一种配置装置,其特征在于,应用于计算***,所述计算***包括至少两个计算单元,每个计算单元内包含至少两类算子;
所述装置包括:
接收模块,用于接收待配置的目标算法;
解析模块,用于解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
配置模块,用于根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
确定模块,用于根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
生成模块,用于根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列。
4.根据权利要求3所述的装置,其特征在于,所述接收模块还用于:
接收待计算的目标数据集的数据类型参数;
所述配置模块用于:
根据所述目标算法所包含的计算类型和每个计算类型对应数量,以及所述目标数据集的数据类型参数,为每个所述计算单元配置目标算子。
5.实现权利要求1所述的配置方法的一种计算***,其特征在于,包括:
至少两个计算单元,每个所述计算单元内包含至少两类算子;以及,
处理器,所述处理器用于:
接收待配置的目标算法;
解析所述目标算法所包含的计算类型和每个计算类型对应的数量;
根据所述目标算法所包含的计算类型和每个计算类型对应的数量,为每个目标计算单元配置目标算子,其中,所述目标计算单元为所述至少两个计算单元的任一计算单元;
根据所述目标算法,以及每个所述目标计算单元对应的目标算子,确定全部所述目标计算单元组成的网络结构;
根据每个所述目标计算单元对应的目标算子,以及全部所述目标计算单元组成的网络结构,生成所述计算***用于实现所述目标算法的配置文件,所述配置文件用于配置所述计算***的计算单元阵列。
CN201911138955.2A 2019-11-20 2019-11-20 配置方法、装置及计算*** Active CN111027689B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911138955.2A CN111027689B (zh) 2019-11-20 2019-11-20 配置方法、装置及计算***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911138955.2A CN111027689B (zh) 2019-11-20 2019-11-20 配置方法、装置及计算***

Publications (2)

Publication Number Publication Date
CN111027689A CN111027689A (zh) 2020-04-17
CN111027689B true CN111027689B (zh) 2024-03-22

Family

ID=70201656

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911138955.2A Active CN111027689B (zh) 2019-11-20 2019-11-20 配置方法、装置及计算***

Country Status (1)

Country Link
CN (1) CN111027689B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112783614A (zh) * 2021-01-20 2021-05-11 北京百度网讯科技有限公司 对象处理方法、装置、设备、存储介质以及程序产品

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103261988A (zh) * 2010-12-28 2013-08-21 国际商业机器公司 用于确定***情况的方法、计算机程序和计算机
CN103795804A (zh) * 2014-02-24 2014-05-14 华为技术有限公司 存储资源调度方法及存储计算***
CN104331325A (zh) * 2014-11-25 2015-02-04 深圳市信义科技有限公司 一种基于资源探测分析的多元智能视频资源调度***以及调度方法
CN108255497A (zh) * 2018-01-12 2018-07-06 新华三大数据技术有限公司 一种应用的部署方法及装置
CN109325900A (zh) * 2018-09-19 2019-02-12 北京润科通用技术有限公司 一种算法的部署方法和***
CN109669717A (zh) * 2018-09-25 2019-04-23 深圳壹账通智能科技有限公司 基于部署平台的数据处理方法、装置、设备及存储介质
CN109934336A (zh) * 2019-03-08 2019-06-25 江南大学 基于最优结构搜索的神经网络动态加速平台设计方法及神经网络动态加速平台
CN110308910A (zh) * 2019-05-30 2019-10-08 苏宁金融服务(上海)有限公司 算法模型部署以及风险监控的方法、装置和计算机设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2013MU04061A (zh) * 2013-12-26 2015-07-31 Tata Consultancy Services Ltd
US20160357886A1 (en) * 2015-06-04 2016-12-08 Intel Corporation System for analytic model development

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103261988A (zh) * 2010-12-28 2013-08-21 国际商业机器公司 用于确定***情况的方法、计算机程序和计算机
CN103795804A (zh) * 2014-02-24 2014-05-14 华为技术有限公司 存储资源调度方法及存储计算***
CN104331325A (zh) * 2014-11-25 2015-02-04 深圳市信义科技有限公司 一种基于资源探测分析的多元智能视频资源调度***以及调度方法
CN108255497A (zh) * 2018-01-12 2018-07-06 新华三大数据技术有限公司 一种应用的部署方法及装置
CN109325900A (zh) * 2018-09-19 2019-02-12 北京润科通用技术有限公司 一种算法的部署方法和***
CN109669717A (zh) * 2018-09-25 2019-04-23 深圳壹账通智能科技有限公司 基于部署平台的数据处理方法、装置、设备及存储介质
CN109934336A (zh) * 2019-03-08 2019-06-25 江南大学 基于最优结构搜索的神经网络动态加速平台设计方法及神经网络动态加速平台
CN110308910A (zh) * 2019-05-30 2019-10-08 苏宁金融服务(上海)有限公司 算法模型部署以及风险监控的方法、装置和计算机设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于Zookeeper分布式搜索引擎***的配置文件自动更新方法、装置及***;陆小慧等;《广东通信技术》;20150515;第35卷(第5期);全文 *
机载智能化网络化微***芯片架构研究;刘飞阳等;《航空计算技术》;20181031;第48卷(第5期);全文 *

Also Published As

Publication number Publication date
CN111027689A (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
CN115269717B (zh) 存储设备、分布式存储***以及数据处理方法
CN112529169B (zh) 数据处理方法、模型优化装置和模型执行装置
CN116501683A (zh) 用于协调解聚的加速器装置资源的技术
CN103109271B (zh) 一种平台间迁移应用的实现方法及***
CN105049268A (zh) 分布式计算资源分配***和任务处理方法
CN102694861B (zh) 一种基于云技术的终端应用软件分类方法、装置及***
CN110069341B (zh) 边缘计算中结合功能按需配置的有依赖关系任务的调度方法
CN105808328A (zh) 任务调度的方法、装置和***
CN112068957B (zh) 资源分配方法、装置、计算机设备及存储介质
CN110430068B (zh) 一种特征工程编排方法及装置
CN112465146A (zh) 一种量子与经典混合云平台以及任务执行方法
CN111373372B (zh) 在分布式计算环境中对应用分配优先级以进行对角缩放
CN103853618A (zh) 基于截止日期驱动的云***代价最小化资源分配方法
CN111178646A (zh) 用于多个清洁装置的任务区域分配方法以及其***
CN114282682A (zh) 使用协同过滤的预测性分析模型管理
KR20160121380A (ko) 토러스 네트워크를 이용하는 분산 파일 시스템 및 토러스 네트워크를 이용하는 분산 파일 시스템의 구성 및 운영 방법
CN111027689B (zh) 配置方法、装置及计算***
CN115756822A (zh) 高性能计算应用性能调优的方法及***
CN111813517A (zh) 任务队列的分配方法、装置、计算机设备及介质
CN105045873A (zh) 一种数据文件的推送方法、装置及***
CN115002215A (zh) 面向云上政企的资源分配模型训练方法以及资源分配方法
TW202315360A (zh) 微服務分配方法、電子設備及儲存介質
US20210103830A1 (en) Machine learning based clustering and patterning system and method for network traffic data and its application
KR102183274B1 (ko) 분산 처리 시스템 및 그 방법, 그리고 이에 적용되는 장치
CN116610268B (zh) 一种提高存取速度的数据处理方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant