CN111753997A - 分布式训练方法、***、设备及存储介质 - Google Patents

分布式训练方法、***、设备及存储介质 Download PDF

Info

Publication number
CN111753997A
CN111753997A CN202010599075.1A CN202010599075A CN111753997A CN 111753997 A CN111753997 A CN 111753997A CN 202010599075 A CN202010599075 A CN 202010599075A CN 111753997 A CN111753997 A CN 111753997A
Authority
CN
China
Prior art keywords
server
training
data
task information
distributed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010599075.1A
Other languages
English (en)
Other versions
CN111753997B (zh
Inventor
董大祥
巩伟宝
刘毅
于佃海
马艳军
王海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010599075.1A priority Critical patent/CN111753997B/zh
Publication of CN111753997A publication Critical patent/CN111753997A/zh
Priority to JP2020192957A priority patent/JP7138150B2/ja
Priority to KR1020200164799A priority patent/KR20220001008A/ko
Priority to EP21150081.4A priority patent/EP3929825A1/en
Priority to US17/142,822 priority patent/US20210406767A1/en
Application granted granted Critical
Publication of CN111753997B publication Critical patent/CN111753997B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/485Task life-cycle, e.g. stopping, restarting, resuming execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Debugging And Monitoring (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

本申请公开了一种分布式训练方法、***、设备及存储介质,涉及人工智能技术领域,具体涉及深度学习和云计算技术领域。所述方法包括:任务信息服务器向多个数据服务器中的至少第一数据服务器发送第一训练请求和可用的第一计算服务器信息;第一数据服务器根据所述第一训练请求向所述第一计算服务器发送第一批训练数据;第一计算服务器根据所述第一批训练数据进行模型训练,并在训练完成后将模型参数发送给所述第一数据服务器进行保存,以及将所述第一批训练数据的标识信息发送给所述任务信息服务器进行记录;其中,在各个计算服务器上不存储模型参数。利用本申请实施例能够实现计算资源弹性变化的高效率训练过程。

Description

分布式训练方法、***、设备及存储介质
技术领域
本申请涉及人工智能技术领域,具体涉及深度学习和云计算技术领域,更具体地,涉及一种分布式训练方法、***、设备及存储介质。
背景技术
通常,在大数据场景下,深度学习模型的训练可采用分布式的训练方式,可提升训练速度,已有的大多数深度学习框架采用固定的集群资源做并行训练,直至模型收敛。然而,在云上训练的场景中,训练资源的配额通常会因为整体集群的调度而动态变化,常规的深度学习框架无法在动态计算资源的条件下正常训练,拖累了训练效率。
发明内容
本申请提供了一种分布式训练方法、***、设备及存储介质。
根据本申请的第一方面,提供了一种分布式训练方法,所述方法基于分布式训练***,其中,所述分布式训练***用于根据训练数据进行模型训练,所述分布式训练***包括:任务信息服务器、数据服务器和计算服务器,其中所述数据服务器的数目为多个,所述计算服务器的数目是可变的;所述分布式训练方法包括:所述任务信息服务器向多个数据服务器中的至少第一数据服务器发送第一训练请求和可用的第一计算服务器信息;所述第一数据服务器根据所述第一训练请求向所述第一计算服务器发送第一批训练数据;所述第一计算服务器根据所述第一批训练数据进行模型训练,并在训练完成后将模型参数发送给所述第一数据服务器进行保存,以及将所述第一批训练数据的标识信息发送给所述任务信息服务器进行记录;其中,在各个计算服务器上不存储模型参数。
根据本申请的第二方面,提供了一种分布式训练***,包括:任务信息服务器、数据服务器和计算服务器,其中所述数据服务器的数目为多个,所述计算服务器的数目是可变的,所述分布式训练***用于根据训练数据进行模型训练;其中,所述任务信息服务器用于向各个数据服务器发送训练请求和可用计算服务器信息;所述数据服务器用于根据接收到的训练请求向可用计算服务器发送训练数据;所述计算服务器用于根据接收到的训练数据进行模型训练,并在训练完成后将模型参数发送给所述数据服务器进行保存,以及将训练完成的所述训练数据的标识信息发送给所述任务信息服务器进行记录;其中,各个计算服务器不用于存储模型参数。
根据本申请的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上的分布式训练方法。
根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如上所述的分布式训练方法。
本申请实施例提供的分布式训练***通过对任务信息服务器、数据服务器和计算服务器各自的功能进行合理设置,对它们相互之间的配合方式进行合理设计,能够实现弹性分布式训练***对计算节点的及时快速的伸缩调节,使***整体算力趋于最优。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例的分布式训练方法的流程框图;
图2是根据本申请实施例的分布式训练***的结构框图;
图3是根据本申请另一实施例的分布式训练***的架构图;
图4是实现本申请实施例的弹性分布式训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了本申请实施例提供的分布式训练方法的流程框图,该方法基于分布式训练***,该分布式训练***用于根据训练数据进行模型训练,该分布式训练***包括:任务信息服务器、数据服务器和计算服务器,其中该数据服务器的数目为多个,该计算服务器的数目是可变的;该分布式训练方法包括:
S101,该任务信息服务器向多个数据服务器中的至少第一数据服务器发送第一训练请求和可用的第一计算服务器信息;
S102,该第一数据服务器根据该第一训练请求向该第一计算服务器发送第一批训练数据;
S103,该第一计算服务器根据该第一批训练数据进行模型训练,并在训练完成后将模型参数发送给该第一数据服务器进行保存,以及将该第一批训练数据的标识信息发送给该任务信息服务器进行记录;其中,在各个计算服务器上不存储模型参数。
根据本申请的实施例,任务信息服务器向数据服务器发送训练请求和可用的计算服务器信息,例如可用计算服务器的网际互连协议IP地址和/或端口信息,数据服务器向计算服务器发送训练数据,由计算服务器完成训练过程,并且,各个计算服务器上不存储模型参数,而是将模型参数发送给数据服务器进行保存,使得计算节点尽可能的轻量化,在退出或加入***时对***整体影响较小,并且,在各个计算服务器上不存储模型参数,占用资源少,使得计算资源能够用于模型训练,提高计算资源的算力,此外,计算服务器还将训练数据的标识信息发送给任务信息服务器进行记录,也就是由任务信息服务器记录训练的进度,从而能够向***中各计算节点配置训练任务,实现分布式训练***的整体高效运行。
本申请实施例提供的分布式训练方法通过对任务信息服务器、数据服务器和计算服务器各自的处理以及它们相互之间的配合方式进行合理设计,能够实现分布式训练过程中对计算节点的快速调节,使***算力集中在模型训练中,提高***整体的训练效率。
图2示出了本申请实施例的分布式训练***的结构框图,其包括:任务信息服务器100、数据服务器200和计算服务器300,其中该数据服务器200的数目为多个,该计算服务器300的数目是可变的,该分布式训练***用于根据训练数据进行模型训练;其中,
该任务信息服务器100用于向各个数据服务器200发送训练请求和可用计算服务器信息;
该数据服务器200用于根据接收到的训练请求向可用计算服务器300发送训练数据;
该计算服务器300用于根据接收到的训练数据进行模型训练,并在训练完成后将模型参数发送给该数据服务器200进行保存,以及将训练完成的该训练数据的标识信息发送给该任务信息服务器100进行记录;其中,各个计算服务器300不用于存储模型参数。
本申请实施例的分布式训练***中,任务信息服务器、数据服务器和计算服务器各自的功能设置合理,对它们相互之间的配合方式进行合理设计,能够实现分布式训练过程中对计算节点的快速调节,使***算力趋于最优。
图3示出了本申请具体实施例的分布式训练***的架构图,图中示意性地描述了任务信息服务器、数据服务器和计算服务器等的逻辑连接关系。图3中包括3个静态节点,每个静态节点包括数据服务和参数服务,图3还包括4个弹性节点,对应为计算节点(即计算服务器)。
以下将结合各图,对本申请实施例的多种实现方式进行详细描述。
在本申请的实施例中,在***开始训练之前,各个数据服务器从分布式文件***下载训练数据和待训练的模型的信息。
这样处理的好处在于,由数据服务器下载并保存训练数据和待训练的模型的信息,可免去计算服务器保存训练数据,计算服务器仅从数据服务器接收训练所需的数据并进行训练,训练完毕后再将模型参数返回给数据服务器保存,既能够保持模型参数更新,又能够降低计算节点退出/加入时对***的影响。
在本申请的实施例中,该各个数据服务器包括一参数服务器;在该第一计算服务器将训练后的模型参数发送给该第一数据服务器之后,该方法还包括:将该训练后的模型参数保存在该第一数据服务器中的第一参数服务器中。
也就是说,将训练后的模型参数保存在参数服务器中,数据服务器负责训练数据的发送和训练结果的回收,处理高效。
在本申请的实施例中,该任务信息服务器对***中的各个计算服务器进行探活检测,如果***中可用计算服务器的数量不变,则令各个数据服务器中的参数服务器保存最新的模型参数。
通过任务信息服务器的探活检测,不仅能够对***中可用节点的数量进行探活和更新,还能够在探活检测时确定***当前的模型参数是否对全部计算节点有效,其中,如果节点数未发生变化,说明***可继续平稳训练,这时将当前最新的模型参数保存参数服务中,可为后续***的节点变化时提供回退基础。
在本申请的实施例中,该任务信息服务器对***中的各个计算服务器进行探活检测,如果***中可用计算服务器的数量发生变化,则更新可用计算服务器列表,并且令各个数据服务器中的参数服务器重新加载上一次探活检测时的模型参数。
通过任务信息服务器的探活检测,如果节点数发生了变化,说明探活检测之前的***数据信息已失效,这时,令各个数据服务器中的参数服务器重新加载上一次探活检测时的模型参数,也就是退回到上一次探活检测时的数据版本,确保训练过程无误。
在本申请的实施例中,在该任务信息服务器进行探活检测时,***暂停训练处理,在完成探活检测后,该任务信息服务器根据当前的模型参数以及记录的已完成训练的训练数据的标识信息,向各个数据服务器发送新的训练请求。
在任务信息服务器进行探活检测时暂停训练处理,等待模型参数更新完毕,再继续新的训练任务,确保训练过程平稳、快速。
在本申请的实施例中,各个计算服务器之间不存在信息交互,各个计算节点均从参数服务器获取训练数据,能够最大限度将计算资源上用于模型训练。
在本申请的实施例中,该任务信息服务器为静态节点。
由于任务信息服务器负责对***中的计算节点的定时探活,维护可用计算服务器列表,并且能够使参数服务器中的模型参数保持有效,因此任务信息服务器是分布式***的中央节点,其应为静态节点,可理解为处于不能被终止或者说被杀死的计算节点上,使任务信息服务器具备高可用性,确保***稳定。
本申请实施例的弹性分布式训练方法可用于对各类机器学习模型的训练学习过程,例如对神经网络深度学习框架,能够在资源弹性变化的云端进行高效率的训练,确保计算服务器的轻量化,可快速动态调节的能力,具有重要的应用意义和价值。
以上通过多个实施例从不同角度描述了本申请实施例的具体设置和实现方式。本申请实施例的弹性分布式训练方法基于前述的分布式***,该方法的处理过程可以参见上述实施例中的对应描述,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。如图4所示,是根据本申请实施例的弹性分布式训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图4所示,该电子设备包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图4中以一个处理器1001为例。
存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的弹性分布式训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的弹性分布式训练方法。
存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的弹性分布式训练方法对应的程序指令/模块。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的弹性分布式训练方法。
存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据搜索结果的分析处理电子设备的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至搜索结果的分析处理电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例的弹性分布式训练方法对应的电子设备还可以包括:输入装置1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,本申请图4实施例中以通过总线连接为例。
输入装置1003可接收输入的数字或字符信息,以及产生与搜索结果的分析处理电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(Liquid Crystal Display,LCD)、发光二极管(Light EmittingDiode,LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用集成电路(Application Specific Integrated Circuits,ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(programmable logic device,PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode Ray Tube,阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (18)

1.一种分布式训练方法,所述方法基于分布式训练***,其中,
所述分布式训练***用于根据训练数据进行模型训练,所述分布式训练***包括:任务信息服务器、数据服务器和计算服务器,其中所述数据服务器的数目为多个,所述计算服务器的数目是可变的;
所述分布式训练方法包括:
所述任务信息服务器向多个数据服务器中的至少第一数据服务器发送第一训练请求和可用的第一计算服务器信息;
所述第一数据服务器根据所述第一训练请求向所述第一计算服务器发送第一批训练数据;
所述第一计算服务器根据所述第一批训练数据进行模型训练,并在训练完成后将模型参数发送给所述第一数据服务器进行保存,以及将所述第一批训练数据的标识信息发送给所述任务信息服务器进行记录;
其中,在各个计算服务器上不存储模型参数。
2.根据权利要求1所述的方法,还包括:
在开始训练之前,各个数据服务器从分布式文件***下载训练数据和待训练的模型的信息。
3.根据权利要求1所述的方法,其中,所述各个数据服务器包括一参数服务器;
在所述第一计算服务器将训练后的模型参数发送给所述第一数据服务器之后,所述方法还包括:将所述训练后的模型参数保存在所述第一数据服务器中的第一参数服务器中。
4.根据权利要求1所述的方法,还包括:
所述任务信息服务器对***中的各个计算服务器进行探活检测,如果***中可用计算服务器的数量不变,则令各个数据服务器中的参数服务器保存最新的模型参数。
5.根据权利要求1所述的方法,还包括:
所述任务信息服务器对***中的各个计算服务器进行探活检测,如果***中可用计算服务器的数量发生变化,则更新可用计算服务器列表,并且令各个数据服务器中的参数服务器重新加载上一次探活检测时的模型参数。
6.根据权利要求4或5所述的方法,还包括:
在所述任务信息服务器进行探活检测时,***暂停训练处理,在完成探活检测后,所述任务信息服务器根据当前的模型参数以及记录的已完成训练的训练数据的标识信息,向各个数据服务器发送新的训练请求。
7.根据权利要求1所述的方法,其中,所述各个计算服务器之间不存在信息交互。
8.根据权利要求1所述的方法,其中,所述任务信息服务器为静态节点。
9.一种分布式训练***,包括:任务信息服务器、数据服务器和计算服务器,其中所述数据服务器的数目为多个,所述计算服务器的数目是可变的,所述分布式训练***用于根据训练数据进行模型训练;其中,
所述任务信息服务器用于向各个数据服务器发送训练请求和可用计算服务器信息;
所述数据服务器用于根据接收到的训练请求向可用计算服务器发送训练数据;
所述计算服务器用于根据接收到的训练数据进行模型训练,并在训练完成后将模型参数发送给所述数据服务器进行保存,以及将训练完成的所述训练数据的标识信息发送给所述任务信息服务器进行记录;
其中,各个计算服务器不用于存储模型参数。
10.根据权利要求9所述的分布式训练***,其中,
所述各个数据服务器还用于在***开始训练之前从分布式文件***下载训练数据和待训练的模型的信息。
11.根据权利要求9所述的分布式训练***,其中,所述各个数据服务器包括一参数服务器,所述参数服务器用于保存所述训练后的模型参数。
12.根据权利要求9所述的分布式训练***,其中,
所述任务信息服务器还用于对***中的各个计算服务器进行探活检测,如果***中可用计算服务器的数量不变,所述任务信息服务器令各个数据服务器中的参数服务器保存最新的模型参数。
13.根据权利要求9所述的分布式训练***,其中,
所述任务信息服务器还用于对***中的各个计算服务器进行探活检测,如果***中可用计算服务器的数量发生变化,所述任务信息服务器更新可用计算服务器列表,并且令各个数据服务器中的参数服务器重新加载上一次探活检测时的模型参数。
14.根据权利要求12或13所述的分布式训练***,其中,在所述任务信息服务器进行探活检测时,***暂停训练处理;
所述任务信息服务器还用于在完成探活检测后,根据当前的模型参数以及记录的已完成训练的训练数据的标识信息,向各个数据服务器发送新的训练请求。
15.根据权利要求9所述的分布式训练***,其中,所述各个计算服务器之间不存在信息交互。
16.根据权利要求9所述的分布式训练***,其中,所述任务信息服务器为静态节点。
17.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1至8中任一项所述的方法。
CN202010599075.1A 2020-06-28 2020-06-28 分布式训练方法、***、设备及存储介质 Active CN111753997B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010599075.1A CN111753997B (zh) 2020-06-28 2020-06-28 分布式训练方法、***、设备及存储介质
JP2020192957A JP7138150B2 (ja) 2020-06-28 2020-11-20 分散型トレーニング方法、システム、デバイス、記憶媒体、及びプログラム
KR1020200164799A KR20220001008A (ko) 2020-06-28 2020-11-30 분산 훈련 방법, 시스템, 기기, 저장 매체 및 프로그램
EP21150081.4A EP3929825A1 (en) 2020-06-28 2021-01-04 Distributed training method and system, device and storage medium
US17/142,822 US20210406767A1 (en) 2020-06-28 2021-01-06 Distributed Training Method and System, Device and Storage Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010599075.1A CN111753997B (zh) 2020-06-28 2020-06-28 分布式训练方法、***、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111753997A true CN111753997A (zh) 2020-10-09
CN111753997B CN111753997B (zh) 2021-08-27

Family

ID=72677681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010599075.1A Active CN111753997B (zh) 2020-06-28 2020-06-28 分布式训练方法、***、设备及存储介质

Country Status (5)

Country Link
US (1) US20210406767A1 (zh)
EP (1) EP3929825A1 (zh)
JP (1) JP7138150B2 (zh)
KR (1) KR20220001008A (zh)
CN (1) CN111753997B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434337A (zh) * 2020-11-30 2021-03-02 上海天旦网络科技发展有限公司 分布式训练生成模型的方法、***及介质
CN112508191A (zh) * 2020-12-14 2021-03-16 北京地平线信息技术有限公司 训练深度学习模型的方法及装置、电子设备及存储介质
CN112561078A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 分布式的模型训练方法、相关装置及计算机程序产品
CN112615937A (zh) * 2020-12-28 2021-04-06 南方电网深圳数字电网研究院有限公司 数据传输、数据训练方法、服务器、电子设备及存储介质
CN113448730A (zh) * 2021-06-29 2021-09-28 京东科技控股股份有限公司 服务的处理方法、装置、计算机设备及存储介质
CN113485784A (zh) * 2021-06-08 2021-10-08 中国联合网络通信集团有限公司 一种模型训练方法及装置
WO2022134809A1 (zh) * 2020-12-24 2022-06-30 深圳壹账通智能科技有限公司 模型训练处理方法、装置、计算机设备及介质
CN114723045A (zh) * 2022-04-06 2022-07-08 北京百度网讯科技有限公司 模型训练方法、装置、***、设备、介质及程序产品
CN114792125A (zh) * 2022-04-15 2022-07-26 北京百度网讯科技有限公司 基于分布式训练的数据处理方法、装置、电子设备和介质
CN114862655A (zh) * 2022-05-18 2022-08-05 北京百度网讯科技有限公司 用于模型训练的运行控制方法、装置和电子设备
CN115131171A (zh) * 2022-01-18 2022-09-30 杭州安脉盛智能技术有限公司 储能电站运行监测模型的训练方法及储能电站的监控***

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461290B (zh) * 2020-03-11 2023-09-22 北京百度网讯科技有限公司 模型参数更新方法及装置
CN114338398B (zh) * 2021-12-30 2024-06-07 北京市商汤科技开发有限公司 数据传输方法、装置、电子设备及存储介质
CN114979141B (zh) * 2022-05-13 2024-04-26 北京百度网讯科技有限公司 一种任务处理方法、装置、设备以及存储介质
CN114860346B (zh) * 2022-06-02 2024-06-04 北京百度网讯科技有限公司 建模任务的管理方法和建模任务的运行方法
CN117744826A (zh) * 2022-09-14 2024-03-22 抖音视界有限公司 模型训练方法、装置以及***和存储介质

Citations (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760240A (zh) * 2014-12-16 2016-07-13 航天信息股份有限公司 分布式任务处理方法及装置
CN105956021A (zh) * 2016-04-22 2016-09-21 华中科技大学 一种适用于分布式机器学习的自动化任务并行的方法及其***
CN106022521A (zh) * 2016-05-19 2016-10-12 四川大学 基于Hadoop架构的分布式BP神经网络的短期负荷预测方法
CN106169094A (zh) * 2016-07-07 2016-11-30 江苏大学 一种基于分布式神经元的rnnlm***及其设计方法
CN106529673A (zh) * 2016-11-17 2017-03-22 北京百度网讯科技有限公司 基于人工智能的深度学习网络训练方法及装置
CN106529682A (zh) * 2016-10-28 2017-03-22 北京奇虎科技有限公司 一种在大数据集群中处理深度学习任务的方法和装置
CN106708624A (zh) * 2016-11-25 2017-05-24 国电南瑞科技股份有限公司 一种多工作域计算资源的自适应调整方法
CN107578094A (zh) * 2017-10-25 2018-01-12 济南浪潮高新科技投资发展有限公司 基于参数服务器和fpga实现神经网络分布式训练的方法
CN107885762A (zh) * 2017-09-19 2018-04-06 北京百度网讯科技有限公司 智能大数据***、提供智能大数据服务的方法和设备
CN108681777A (zh) * 2018-05-07 2018-10-19 北京京东尚科信息技术有限公司 一种基于分布式***的机器学习程序运行的方法和装置
CN108734293A (zh) * 2017-04-13 2018-11-02 北京京东尚科信息技术有限公司 任务管理***、方法和装置
CN108763299A (zh) * 2018-04-19 2018-11-06 贵州师范大学 一种大规模数据处理计算加速***
CN108880928A (zh) * 2018-05-22 2018-11-23 国网山东省电力公司电力科学研究院 基于网格计算的分布式输电线路监控图像识别方法与***
CN109062700A (zh) * 2018-08-21 2018-12-21 郑州云海信息技术有限公司 一种基于分布式***的资源管理方法及服务器
CN109102075A (zh) * 2018-07-26 2018-12-28 联想(北京)有限公司 一种分布式训练中的梯度更新方法及相关设备
CN109815002A (zh) * 2017-11-21 2019-05-28 中国电力科学研究院有限公司 一种基于在线仿真的分布式并行计算平台及其方法
CN110033095A (zh) * 2019-03-04 2019-07-19 北京大学 一种高可用分布式机器学习计算框架的容错方法和***
CN110221913A (zh) * 2019-04-26 2019-09-10 深圳市致宸信息科技有限公司 监控服务器的云算力的方法、终端、设备及存储介质
CN110457176A (zh) * 2019-07-12 2019-11-15 平安普惠企业管理有限公司 用于分布式***的监控方法、装置、存储介质及电子设备
CN110619388A (zh) * 2019-09-20 2019-12-27 北京金山数字娱乐科技有限公司 一种分布式训练中梯度同步方法及装置
CN110704630A (zh) * 2019-04-15 2020-01-17 中国石油大学(华东) 一种标识化关联图谱自优化机制
CN110850956A (zh) * 2019-10-28 2020-02-28 西安交通大学 一种基于数据覆盖集的分布式运算集群动态能耗管理方法
CN110928689A (zh) * 2019-12-05 2020-03-27 中国人民解放军军事科学院国防科技创新研究院 面向分布式强化学习训练的自适应资源管理方法及装置
US20200111030A1 (en) * 2018-10-05 2020-04-09 Cisco Technology, Inc. Distributed random forest training with a predictor trained to balance tasks
CN111030861A (zh) * 2019-12-11 2020-04-17 中移物联网有限公司 一种边缘计算分布式模型训练方法、终端和网络侧设备
CN111027708A (zh) * 2019-11-29 2020-04-17 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 一种面向分布式机器学习的参数通信优化方法
CN111079921A (zh) * 2019-11-29 2020-04-28 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 一种基于异构分布式***的高效神经网络训练调度方法
CN111079942A (zh) * 2017-08-30 2020-04-28 第四范式(北京)技术有限公司 执行机器学习的分布式***及其方法
CN111126604A (zh) * 2019-12-31 2020-05-08 北京奇艺世纪科技有限公司 模型训练方法、装置、服务器及存储介质
CN111147541A (zh) * 2019-11-18 2020-05-12 广州文远知行科技有限公司 基于参数服务器的节点处理方法、装置、设备及存储介质
CN111160531A (zh) * 2019-12-30 2020-05-15 北京迈格威科技有限公司 神经网络模型的分布式训练方法、装置及电子设备
CN111221646A (zh) * 2019-12-16 2020-06-02 清华大学 分布式机器学习的参数同步方法及装置
CN111240901A (zh) * 2020-01-13 2020-06-05 苏州浪潮智能科技有限公司 分布式块存储***的节点动态扩展***、方法及设备
CN111259917A (zh) * 2020-02-20 2020-06-09 西北工业大学 一种基于局部近邻成分分析的图像特征提取方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5584914B2 (ja) * 2010-07-15 2014-09-10 株式会社日立製作所 分散計算システム
ES2705708T3 (es) * 2014-07-01 2019-03-26 Sas Inst Inc Sistemas y procedimientos para comunicaciones tolerantes a fallos
CN107025205B (zh) * 2016-01-30 2021-06-22 华为技术有限公司 一种分布式***中的训练模型的方法及设备
US20180144244A1 (en) * 2016-11-23 2018-05-24 Vital Images, Inc. Distributed clinical workflow training of deep learning neural networks
US10649806B2 (en) * 2017-04-12 2020-05-12 Petuum, Inc. Elastic management of machine learning computing
CN107733977B (zh) * 2017-08-31 2020-11-03 北京百度网讯科技有限公司 一种基于Docker的集群管理方法及装置
US10140184B1 (en) * 2018-03-14 2018-11-27 Capital One Services, Llc Node recovery in static distributed networks
US10776164B2 (en) * 2018-11-30 2020-09-15 EMC IP Holding Company LLC Dynamic composition of data pipeline in accelerator-as-a-service computing environment

Patent Citations (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760240A (zh) * 2014-12-16 2016-07-13 航天信息股份有限公司 分布式任务处理方法及装置
CN105956021A (zh) * 2016-04-22 2016-09-21 华中科技大学 一种适用于分布式机器学习的自动化任务并行的方法及其***
CN106022521A (zh) * 2016-05-19 2016-10-12 四川大学 基于Hadoop架构的分布式BP神经网络的短期负荷预测方法
CN106169094A (zh) * 2016-07-07 2016-11-30 江苏大学 一种基于分布式神经元的rnnlm***及其设计方法
CN106529682A (zh) * 2016-10-28 2017-03-22 北京奇虎科技有限公司 一种在大数据集群中处理深度学习任务的方法和装置
CN106529673A (zh) * 2016-11-17 2017-03-22 北京百度网讯科技有限公司 基于人工智能的深度学习网络训练方法及装置
CN106708624A (zh) * 2016-11-25 2017-05-24 国电南瑞科技股份有限公司 一种多工作域计算资源的自适应调整方法
CN108734293A (zh) * 2017-04-13 2018-11-02 北京京东尚科信息技术有限公司 任务管理***、方法和装置
CN111079942A (zh) * 2017-08-30 2020-04-28 第四范式(北京)技术有限公司 执行机器学习的分布式***及其方法
CN107885762A (zh) * 2017-09-19 2018-04-06 北京百度网讯科技有限公司 智能大数据***、提供智能大数据服务的方法和设备
CN107578094A (zh) * 2017-10-25 2018-01-12 济南浪潮高新科技投资发展有限公司 基于参数服务器和fpga实现神经网络分布式训练的方法
CN109815002A (zh) * 2017-11-21 2019-05-28 中国电力科学研究院有限公司 一种基于在线仿真的分布式并行计算平台及其方法
CN108763299A (zh) * 2018-04-19 2018-11-06 贵州师范大学 一种大规模数据处理计算加速***
CN108681777A (zh) * 2018-05-07 2018-10-19 北京京东尚科信息技术有限公司 一种基于分布式***的机器学习程序运行的方法和装置
CN108880928A (zh) * 2018-05-22 2018-11-23 国网山东省电力公司电力科学研究院 基于网格计算的分布式输电线路监控图像识别方法与***
CN109102075A (zh) * 2018-07-26 2018-12-28 联想(北京)有限公司 一种分布式训练中的梯度更新方法及相关设备
CN109062700A (zh) * 2018-08-21 2018-12-21 郑州云海信息技术有限公司 一种基于分布式***的资源管理方法及服务器
US20200111030A1 (en) * 2018-10-05 2020-04-09 Cisco Technology, Inc. Distributed random forest training with a predictor trained to balance tasks
CN110033095A (zh) * 2019-03-04 2019-07-19 北京大学 一种高可用分布式机器学习计算框架的容错方法和***
CN110704630A (zh) * 2019-04-15 2020-01-17 中国石油大学(华东) 一种标识化关联图谱自优化机制
CN110221913A (zh) * 2019-04-26 2019-09-10 深圳市致宸信息科技有限公司 监控服务器的云算力的方法、终端、设备及存储介质
CN110457176A (zh) * 2019-07-12 2019-11-15 平安普惠企业管理有限公司 用于分布式***的监控方法、装置、存储介质及电子设备
CN110619388A (zh) * 2019-09-20 2019-12-27 北京金山数字娱乐科技有限公司 一种分布式训练中梯度同步方法及装置
CN110850956A (zh) * 2019-10-28 2020-02-28 西安交通大学 一种基于数据覆盖集的分布式运算集群动态能耗管理方法
CN111147541A (zh) * 2019-11-18 2020-05-12 广州文远知行科技有限公司 基于参数服务器的节点处理方法、装置、设备及存储介质
CN111027708A (zh) * 2019-11-29 2020-04-17 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 一种面向分布式机器学习的参数通信优化方法
CN111079921A (zh) * 2019-11-29 2020-04-28 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 一种基于异构分布式***的高效神经网络训练调度方法
CN110928689A (zh) * 2019-12-05 2020-03-27 中国人民解放军军事科学院国防科技创新研究院 面向分布式强化学习训练的自适应资源管理方法及装置
CN111030861A (zh) * 2019-12-11 2020-04-17 中移物联网有限公司 一种边缘计算分布式模型训练方法、终端和网络侧设备
CN111221646A (zh) * 2019-12-16 2020-06-02 清华大学 分布式机器学习的参数同步方法及装置
CN111160531A (zh) * 2019-12-30 2020-05-15 北京迈格威科技有限公司 神经网络模型的分布式训练方法、装置及电子设备
CN111126604A (zh) * 2019-12-31 2020-05-08 北京奇艺世纪科技有限公司 模型训练方法、装置、服务器及存储介质
CN111240901A (zh) * 2020-01-13 2020-06-05 苏州浪潮智能科技有限公司 分布式块存储***的节点动态扩展***、方法及设备
CN111259917A (zh) * 2020-02-20 2020-06-09 西北工业大学 一种基于局部近邻成分分析的图像特征提取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
PENG Y等: "Optimus: an efficient dynamic resource scheduler for deep learning clusters", 《PROCEEDINGS OF THE THIRTEENTH EUROSYS CONFERENCE》 *
ZHAO X等: "Dynamic stale synchronous parallel distributed training for deep learning", 《2019 IEEE 39TH INTERNATIONAL CONFERENCE ON DISTRIBUTED COMPUTING SYSTEMS (ICDCS)》 *
张孝慈: "递归神经网络模型的若干关键问题研究", 《中国优秀博硕士学位论文全文数据库(博士) 信息科技辑》 *
汪楠: "基于OpenStack云平台的计算资源动态调度及管理", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434337A (zh) * 2020-11-30 2021-03-02 上海天旦网络科技发展有限公司 分布式训练生成模型的方法、***及介质
CN112508191A (zh) * 2020-12-14 2021-03-16 北京地平线信息技术有限公司 训练深度学习模型的方法及装置、电子设备及存储介质
CN112561078B (zh) * 2020-12-18 2021-12-28 北京百度网讯科技有限公司 分布式的模型训练方法及相关装置
CN112561078A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 分布式的模型训练方法、相关装置及计算机程序产品
WO2022134809A1 (zh) * 2020-12-24 2022-06-30 深圳壹账通智能科技有限公司 模型训练处理方法、装置、计算机设备及介质
CN112615937A (zh) * 2020-12-28 2021-04-06 南方电网深圳数字电网研究院有限公司 数据传输、数据训练方法、服务器、电子设备及存储介质
CN113485784A (zh) * 2021-06-08 2021-10-08 中国联合网络通信集团有限公司 一种模型训练方法及装置
CN113448730A (zh) * 2021-06-29 2021-09-28 京东科技控股股份有限公司 服务的处理方法、装置、计算机设备及存储介质
CN115131171A (zh) * 2022-01-18 2022-09-30 杭州安脉盛智能技术有限公司 储能电站运行监测模型的训练方法及储能电站的监控***
CN114723045A (zh) * 2022-04-06 2022-07-08 北京百度网讯科技有限公司 模型训练方法、装置、***、设备、介质及程序产品
CN114792125A (zh) * 2022-04-15 2022-07-26 北京百度网讯科技有限公司 基于分布式训练的数据处理方法、装置、电子设备和介质
CN114862655A (zh) * 2022-05-18 2022-08-05 北京百度网讯科技有限公司 用于模型训练的运行控制方法、装置和电子设备
CN114862655B (zh) * 2022-05-18 2023-03-10 北京百度网讯科技有限公司 用于模型训练的运行控制方法、装置和电子设备

Also Published As

Publication number Publication date
US20210406767A1 (en) 2021-12-30
JP7138150B2 (ja) 2022-09-15
KR20220001008A (ko) 2022-01-04
CN111753997B (zh) 2021-08-27
EP3929825A1 (en) 2021-12-29
JP2022008781A (ja) 2022-01-14

Similar Documents

Publication Publication Date Title
CN111753997B (zh) 分布式训练方法、***、设备及存储介质
CN111694646A (zh) 资源调度方法、装置、电子设备及计算机可读存储介质
CN112235417B (zh) 调试指令的发送方法、装置
CN112925651A (zh) 应用资源部署方法、装置、电子设备和介质
CN112540914A (zh) 单元测试的执行方法、执行装置、服务器和存储介质
CN111782147A (zh) 用于集群扩缩容的方法和装置
CN112925652A (zh) 应用资源部署方法、装置、电子设备和介质
CN111770176B (zh) 流量调度方法及装置
CN110765075A (zh) 自动驾驶数据的存储方法和设备
CN111865720A (zh) 用于处理请求的方法、装置、设备以及存储介质
CN111885114A (zh) 网关中的应用程序接口模块的升级方法、设备及存储介质
CN112817992B (zh) 执行更改任务的方法、装置、电子设备以及可读存储介质
CN114091672A (zh) 分布式模型推理方法及装置、电子设备和介质
CN112486644A (zh) 用于生成信息的方法、装置、设备以及存储介质
CN112329919A (zh) 模型训练方法及装置
CN110750419A (zh) 离线任务的处理方法、装置、电子设备及存储介质
CN111160552A (zh) 负采样处理方法、装置、设备和计算机存储介质
CN112508093B (zh) 一种自训练方法、装置、电子设备和可读存储介质
CN111597026B (zh) 用于获取信息的方法及装置
CN114661274A (zh) 用于生成智能合约的方法和装置
CN112346512A (zh) 时间同步方法和装置
CN111582480A (zh) 用于对模型剪枝的方法和装置
CN111767989A (zh) 神经网络的训练方法和装置
CN112749193A (zh) 工作流的处理方法及装置、存储介质、电子设备
CN112527368B (zh) 集群内核版本更新方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant