CN110472747A - 用于执行多机器学习任务的分布式***及其方法 - Google Patents

用于执行多机器学习任务的分布式***及其方法 Download PDF

Info

Publication number
CN110472747A
CN110472747A CN201910759163.0A CN201910759163A CN110472747A CN 110472747 A CN110472747 A CN 110472747A CN 201910759163 A CN201910759163 A CN 201910759163A CN 110472747 A CN110472747 A CN 110472747A
Authority
CN
China
Prior art keywords
machine learning
computing device
task
parameter
multiple machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910759163.0A
Other languages
English (en)
Other versions
CN110472747B (zh
Inventor
郑淇木
焦英翔
石光川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
4Paradigm Beijing Technology Co Ltd
Original Assignee
4Paradigm Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 4Paradigm Beijing Technology Co Ltd filed Critical 4Paradigm Beijing Technology Co Ltd
Priority to CN201910759163.0A priority Critical patent/CN110472747B/zh
Priority to CN202210960020.8A priority patent/CN115345318A/zh
Publication of CN110472747A publication Critical patent/CN110472747A/zh
Application granted granted Critical
Publication of CN110472747B publication Critical patent/CN110472747B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Debugging And Monitoring (AREA)
  • Computer And Data Communications (AREA)

Abstract

提供了一种用于执行多机器学习任务的分布式***及其方法。所述分布式***包括:多个计算装置,被配置为分别获取指定数据集的不同部分数据,并共同执行多个机器学习任务;其中,每个计算装置被配置为:基于自身所获取的部分数据并行地执行所述多个机器学习任务,其中,所述多个机器学习任务为多个模型训练任务或多个模型预测任务。根据所述分布式***及其方法,能够有效缩短完成多个机器学习任务所需的时间。

Description

用于执行多机器学习任务的分布式***及其方法
技术领域
本发明总体说来涉及人工智能领域,更具体地讲,涉及一种用于执行多机器学习任务的分布式***及其方法。
背景技术
一个机器学习训练任务的执行结果通常由大量的(例如,数十项)配置参数(即,超参数)的取值所决定。在自动机器学习等场景中,为了评估不同配置下机器学习训练任务的执行结果,常常需要对配置参数的取值进行不同尝试及不同组合,并对不同配置下的机器学习训练任务进行计算及评估。
在探索最佳的机器学习模型的过程中,所需执行的机器学习训练任务的数量,关于配置参数的数目及每项配置参数可能的取值数目呈指数增长,例如,对于一个仅有10项配置参数需要配置的机器学习训练任务,若每项配置参数存在3种可能的取值,则这10项配置参数将产生共计59049种可能的组合,将对应于59049个机器学习训练任务。
现有技术通常分别对不同配置下的机器学习训练任务进行独立执行,但存在显著的任务执行效率问题,这使得自动机器学习任务及其他需要对多个机器学习模型进行训练的任务常常无法在合理的时间内完成。
发明内容
本发明的示例性实施例在于提供一种用于执行多机器学习任务的分布式***及其方法,其能够解决现有技术存在的多机器学习任务无法在合理的时间内完成的问题。
根据本发明的示例性实施例,提供一种用于执行多机器学习任务的分布式***,包括:多个计算装置,被配置为分别获取指定数据集的不同部分数据,并共同执行多个机器学习任务;其中,每个计算装置被配置为:基于自身所获取的部分数据并行地执行所述多个机器学习任务,其中,所述多个机器学习任务为多个模型训练任务或多个模型预测任务。
可选地,每个计算装置被配置为:一方面从数据源请求所述指定数据集中的数据,并对请求到的数据进行预处理后保存在本地,另一方面读取本地保存的数据,并基于读取的数据执行所述多个机器学习任务。
可选地,每个计算装置被配置为:基于读取的每一条数据,并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
可选地,每个计算装置被配置为:基于读取的每一条数据,使用向量化指令并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
可选地,所述分布式***还包括:参数服务器,被配置为维护所述多个机器学习任务所涉及的多个机器学习模型的参数,其中,机器学习模型的参数具有键值对的形式,其中,参数服务器被配置为:按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并后保存,或者,按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并,并对合并后的结果按照第一压缩方式进行压缩后保存。
可选地,当所述多个机器学习任务为所述多个模型训练任务时,每个计算装置被配置为:将被合并了的训练所述多个机器学习模型所得到的结果提供给参数服务器,或者,将被合并且被按照第二压缩方式压缩了的训练所述多个机器学习模型所得到的结果提供给参数服务器,以使参数服务器更新所述多个机器学习模型的参数,其中,所述结果按照单个键对应于多个值的形式被合并。
可选地,参数服务器被配置为:将被合并了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置,或者,将被合并且被按照第三压缩方式压缩了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置。
可选地,当所述多个机器学习任务为所述多个模型训练任务时,参数服务器被配置为:在每个计算装置执行所述多个机器学习任务的过程中,对计算装置训练一个机器学习模型时产生的能够用于其他机器学习模型的中间计算结果进行保存,以将所述中间计算结果用于所述其他机器学习模型。
可选地,所述一个机器学习模型和所述其他机器学习模型所对应的超参数中仅训练轮数不同,其中,所述一个机器学习模型所对应的训练轮数大于所述其他机器学习模型所对应的训练轮数,其中,参数服务器被配置为:将计算装置在训练所述一个机器学习模型的过程中,训练轮数达到所述其他机器学习模型所对应的训练轮数时所得到的所述一个机器学习模型的参数,作为所述其他机器学习模型的参数。
可选地,每个计算装置被配置为:设置所述多个机器学习任务所使用的网络配置;和/或,参数服务器被配置为:设置针对所述多个机器学习任务的网络配置。
可选地,每个计算装置被配置为:针对所述多个机器学习任务使用零拷贝技术进行网络传输;和/或,针对所述多个机器学习任务设置网络传输中最大传输单元的大小;和/或,参数服务器被配置为:针对所述多个机器学习任务使用零拷贝技术进行网络传输;和/或,针对所述多个机器学习任务设置网络传输中最大传输单元的大小。
可选地,每个计算装置被配置为:配置所述多个机器学习任务所使用的内存;和/或,参数服务器被配置为:配置针对所述多个机器学习任务的内存。
可选地,每个计算装置被配置为:将所述多个机器学习任务与一组中央处理器CPU绑定,以使所述一组CPU使用与其邻近的内存来执行所述多个机器学习任务;和/或,针对所述多个机器学习任务配置内存管理单位,以使计算装置的操作***和CPU以配置的内存管理单位来对所述多个机器学习任务所使用的内存进行管理;和/或,参数服务器被配置为:针对所述多个机器学习任务配置内存管理单位,以使参数服务器的操作***和CPU以配置的内存管理单位来对与所述多个机器学习任务相关的任务所使用的内存进行管理;和/或,将与所述多个机器学习任务相关的任务与一组中央处理器CPU绑定,以使所述一组CPU使用与其邻近的内存来执行与所述多个机器学习任务相关的任务。
根据本发明的另一示例性实施例,提供一种利用分布式***来执行多机器学习任务的方法,其中,所述分布式***包括多个计算装置,其中,所述方法包括:所述多个计算装置分别获取指定数据集的不同部分数据;所述多个计算装置基于所获取的部分数据,共同执行多个机器学习任务,其中,每个计算装置基于自身所获取的部分数据并行地执行所述多个机器学习任务,其中,所述多个机器学习任务为多个模型训练任务或多个模型预测任务。
可选地,所述多个计算装置分别获取指定数据集的不同部分数据的步骤包括:每个计算装置从数据源请求所述指定数据集中的数据;每个计算装置对请求到的数据进行预处理后保存在本地,其中,每个计算装置基于自身所获取的部分数据并行地执行所述多个机器学习任务的步骤包括:每个计算装置读取本地保存的数据,并基于读取的数据执行所述多个机器学习任务。
可选地,每个计算装置基于读取的数据执行所述多个机器学习任务的步骤包括:每个计算装置基于读取的每一条数据,并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
可选地,每个计算装置基于读取的数据执行所述多个机器学习任务的步骤包括:每个计算装置基于读取的每一条数据,使用向量化指令并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
可选地,所述分布式***还包括参数服务器,其中,所述方法还包括:参数服务器维护所述多个机器学习任务所涉及的多个机器学习模型的参数,其中,机器学习模型的参数具有键值对的形式,其中,参数服务器按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并后保存,或者,参数服务器按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并,并对合并后的结果按照第一压缩方式进行压缩后保存。
可选地,所述方法还包括:当所述多个机器学习任务为所述多个模型训练任务时,每个计算装置将被合并了的训练所述多个机器学习模型所得到的结果提供给参数服务器,或者,每个计算装置将被合并且被按照第二压缩方式压缩了的训练所述多个机器学习模型所得到的结果提供给参数服务器,以使参数服务器更新所述多个机器学习模型的参数,其中,所述结果按照单个键对应于多个值的形式被合并。
可选地,所述方法还包括:参数服务器将被合并了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置,或者,参数服务器将被合并且被按照第三压缩方式压缩了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置。
可选地,所述方法还包括:当所述多个机器学习任务为所述多个模型训练任务时,参数服务器在每个计算装置执行所述多个机器学习任务的过程中,对计算装置训练一个机器学习模型时产生的能够用于其他机器学习模型的中间计算结果进行保存,以将所述中间计算结果用于所述其他机器学习模型。
可选地,所述一个机器学习模型和所述其他机器学习模型所对应的超参数中仅训练轮数不同,其中,所述一个机器学习模型所对应的训练轮数大于所述其他机器学习模型所对应的训练轮数,其中,参数服务器将计算装置在训练所述一个机器学习模型的过程中,训练轮数达到所述其他机器学习模型所对应的训练轮数时所得到的所述一个机器学习模型的参数,作为所述其他机器学习模型的参数。
可选地,所述方法还包括:每个计算装置设置所述多个机器学习任务所使用的网络配置;和/或,参数服务器设置针对所述多个机器学习任务的网络配置。
可选地,每个计算装置设置所述多个机器学习任务所使用的网络配置的步骤包括:每个计算装置针对所述多个机器学习任务使用零拷贝技术进行网络传输;和/或,针对所述多个机器学习任务设置网络传输中最大传输单元的大小;其中,参数服务器设置针对所述多个机器学习任务的网络配置的步骤包括:参数服务器针对所述多个机器学习任务使用零拷贝技术进行网络传输;和/或,针对所述多个机器学习任务设置网络传输中最大传输单元的大小。
可选地,所述方法还包括:每个计算装置配置所述多个机器学习任务所使用的内存;和/或,参数服务器配置针对所述多个机器学习任务的内存。
可选地,每个计算装置配置所述多个机器学习任务所使用的内存的步骤包括:每个计算装置将所述多个机器学习任务与一组中央处理器CPU绑定,以使所述一组CPU使用与其邻近的内存来执行所述多个机器学习任务;和/或,针对所述多个机器学习任务配置内存管理单位,以使计算装置的操作***和CPU以配置的内存管理单位来对所述多个机器学习任务所使用的内存进行管理;其中,参数服务器配置针对所述多个机器学习任务的内存的步骤包括:参数服务器针对所述多个机器学习任务配置内存管理单位,以使参数服务器的操作***和CPU以配置的内存管理单位来对与所述多个机器学习任务相关的任务所使用的内存进行管理;和/或,参数服务器将与所述多个机器学习任务相关的任务与一组中央处理器CPU绑定,以使所述一组CPU使用与其邻近的内存来执行与所述多个机器学习任务相关的任务。
根据本发明示例性实施例的用于执行多机器学习任务的分布式***及其方法,能够有效缩短完成多机器学习任务所需的时间,使得多机器学习任务能够在合理的时间内完成。
将在接下来的描述中部分阐述本发明总体构思另外的方面和/或优点,还有一部分通过描述将是清楚的,或者可以经过本发明总体构思的实施而得知。
附图说明
通过下面结合示例性地示出实施例的附图进行的描述,本发明示例性实施例的上述和其他目的和特点将会变得更加清楚,其中:
图1示出根据本发明示例性实施例的用于执行多机器学习任务的分布式***的框图;
图2示出根据本发明示例性实施例的分布式***执行多机器学习任务的示例;
图3示出根据本发明的另一示例性实施例的用于执行多机器学习任务的分布式***的框图;
图4示出根据本发明示例性实施例的参数服务器存储多个机器学习模型的参数的示例;
图5示出根据本发明示例性实施例的多机器学习模型的参数的传输示例;
图6示出根据本发明示例性实施例的并行执行多机器学习任务的示例;
图7示出根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法的流程图。
具体实施方式
现将详细参照本发明的实施例,所述实施例的示例在附图中示出,其中,相同的标号始终指的是相同的部件。以下将通过参照附图来说明所述实施例,以便解释本发明。
图1示出根据本发明示例性实施例的用于执行多机器学习任务的分布式***的框图。如图1所示,根据本发明示例性实施例的用于执行多机器学习任务的分布式***包括多个计算装置1000(例如,1000-1、1000-2、…、1000-n(其中,n为大于1的整数))。
具体说来,多个计算装置1000被配置为分别获取指定数据集的不同部分数据,并共同执行多个机器学习任务,其中,每个计算装置1000被配置为:基于自身所获取的部分数据并行地执行所述多个机器学习任务。换言之,不同的计算装置1000针对不同的数据共同地执行相同的多个机器学习任务,且同一计算装置1000并行地执行这多个机器学习任务。
这里,所述多个机器学习任务为多个模型训练任务或多个模型预测任务。模型训练任务即用于训练机器学习模型的任务,计算装置1000可通过执行模型训练任务来更新对应的机器学习模型的参数;模型预测任务即用于使用机器学习模型进行预测的任务,计算装置1000可通过执行模型预测任务来使用对应的机器学习模型得到预测结果。
作为示例,所述多个模型训练任务可为:多个使用相同的机器学习算法但训练配置(例如,超参数配置)不同的模型训练任务;或者,多个使用不同机器学习算法的模型训练任务,所述不同机器学习算法可为属于同一类型的不同机器学习算法(例如,同属于神经网络类型但具体结构(例如,神经网络的深浅等)不同的机器学习算法),也可为属于不同类型的不同机器学习算法。例如,机器学习算法的类型可包括但不限于:线性回归算法、神经网络算法、FM算法。换言之,所述多个模型训练任务所分别训练的多个机器学习模型可为同一类型且同一结构的机器学习模型,或者,可为同一类型但结构不同的机器学习模型,或者,可为不同类型的机器学习模型。
每个计算装置1000被配置为获取所述指定数据集的一部分数据,不同计算装置1000获取的数据无交集,且不同计算装置1000获取的数据的合集正好是所述指定数据集。作为示例,每个计算装置1000可被配置为:一方面从数据源请求所述指定数据集中的数据,并对请求到的数据进行预处理后保存在本地,另一方面读取本地保存的数据,并基于读取的数据执行所述多个机器学习任务。
在现有技术中,每个计算装置通常独立执行一个机器学习任务,当多个计算装置同时执行多个机器学习任务,且这多个机器学习任务共同使用同一个数据集时,每个计算装置都需要分别读取整个数据集,即,整个数据集将会被读取多次。而根据本发明的示例性实施例,每个计算装置1000仅需读取数据集的一部分而非全部,并且,数据集中的每条数据仅会被读取一次,不会被重复读取,这大大节省了计算装置1000从数据源读取数据及后续对读取的数据进行预处理的时间。
作为示例,在每个计算装置1000中,从数据源请求数据的任务和所述多个机器学习任务可由两个(或两组)线程来分别执行,即,从数据源请求数据的任务所使用的线程与所述多个机器学习任务所使用的线程不同。
作为示例,数据源在接收到每个计算装置1000的请求时,可为其分配指定数据集中的数据(例如,每次可分配一条数据或包含多条数据的一个数据块),直至指定数据集中的数据全部分配完毕。这样指定数据集中的每条数据只会被一个计算装置1000读取,即每条数据只会被读取一次。例如,各计算装置1000可通过争抢的方式来获取指定数据集中的数据,处理能力越强的计算装置1000获取的数据越多。
图2示出根据本发明示例性实施例的分布式***执行多机器学习任务的示例。如图2所示,当根据本发明示例性实施例的分布式***包括4个计算装置1000(即,1000-1、1000-2、1000-3、1000-4)时,4个计算装置1000分别从数据源(例如,数据仓库)获取数据集D的一部分数据,例如,4个计算装置1000分别获取数据集D的1/4,且4个计算装置1000分别获取的数据之和为整个数据集D,即,D1+D2+D3+D4=D。并且,4个计算装置1000基于从数据源获取的数据共同执行多个模型训练任务(即,训练机器学习模型A、训练机器学习模型B及训练机器学习模型C),具体地,每个计算装置1000基于自身获取的1/4个数据集D并行地训练模型A、模型B和模型C。换言之,针对每个模型(例如,模型A)的训练,4个计算装置1000都基于自身获取的数据参与了,且每个计算装置1000基于自身获取的数据并行地训练了多个机器学习模型。
作为示例,所述多个机器学习任务所使用的本地保存的数据可完全相同,也可部分相同。
作为示例,每个计算装置1000可被配置为:基于读取的每一条数据,并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。当所述多个机器学习任务所使用的本地保存的数据完全相同时,针对读取的每一条数据,并行地执行所述多个机器学习任务。例如,当所述多个机器学习任务为多个模型训练任务,且所述多个模型训练任务需要使用相同的数据集来训练各自的机器学习模型时,可针对读取的每一条数据,并行地训练多个机器学习模型。根据本发明的示例性实施例,一方面,一次从本地读取的一条数据可用于多个机器学习任务,避免了数据的重复读取,提高了数据读取的效率;另一方面,针对同一条数据并行执行多个机器学习任务,能够有效缩短多机器学习任务的执行时间。
作为示例,每个计算装置1000可被配置为:基于读取的每一条数据,使用向量化指令并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。例如,当所述多个机器学习任务为多个模型训练任务时,可基于读取的每一条数据,使用同一条向量化指令来计算多个机器学习模型的更新量,从而既减少了计算量,也缩短了多个机器学习模型的更新量的计算时间。
这里,向量化(SIMD,Single Instruction Multiple Data)指令可指:中央处理器中存在的能够通过单一指令同时操作多项数据的指令,这种指令相比于普通指令能够在相同的时间内完成更多的计算。
此外,应该理解,也可通过其他适当的方式来实现基于读取的每一条数据,并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务,以加快多机器学习任务的执行。作为示例,可使用多个或多组线程(或硬件超线程)来并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务,即,不同的机器学习任务使用不同的线程。此外,还可通过使用计算装置1000中的并行度更高的处理器(例如,图形处理器(GPU)或现场可编程门阵列(FPGA))来并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务,以取得更好的并行执行效果,加快多机器学习任务的执行。
图3示出根据本发明的另一示例性实施例的用于执行多机器学习任务的分布式***的框图。如图3所示,根据本发明的另一示例性实施例的用于执行多机器学习任务的分布式***可由多个计算装置1000和参数服务器2000组成。
具体说来,参数服务器2000被配置为维护所述多个机器学习任务所涉及的多个机器学习模型的参数,其中,机器学习模型的参数具有键值对(key-value)的形式。
应注意,计算装置1000和/或参数服务器2000均由其所执行的处理或所实现的功能来限定,既可指示物理实体,也可指示虚拟实体,例如,计算装置1000可指示实际的计算机器,也可指示部署在该计算机器上的逻辑实体,同样,参数服务器2000既可指示实际的计算机器,也可作为一个或多个逻辑实体而与计算装置1000部署在同样和/或不同的计算机器上。作为示例,参数服务器2000可部署在单个计算机器上;或者,参数服务器2000可同时部署在多个计算机器上。
作为示例,参数服务器2000可被配置为:可按照单个键对应于多个值的形式来保存所述多个机器学习模型的参数中具有相同键的多个键值对,以避免参数服务器2000中存储大量的重复信息。
进一步地,作为示例,参数服务器2000可被配置为:按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并,并对合并后的结果按照第一压缩方式进行压缩后保存。即,对相同键合并之后的所述多个机器学习模型的参数再进行压缩,换言之,对所述多个机器学习模型的参数中的重复信息进行合并,并对非重复信息进行压缩,以进一步减小参数服务器2000的存储开销。
图4示出根据本发明示例性实施例的参数服务器存储多个机器学习模型的参数的示例。如图4所示,每一个机器学习模型会对应一套键值对,在这套键值对中,不同键值对的键各不相同,每个键对应各自的值,例如,机器学习模型1对应的一套键值对至少包括键k1、k2、k3、…、km,分别对应值vm1,1、vm1,2、vm1,3、…、vm1,m;机器学习模型2对应另一套键值对,其中至少包括键k1、k2、k3、…、km,分别对应值vm2,1、vm2,2、vm2,3、…、vm2,m,其中,m为大于1的整数,可以看出,两套键值对之中的至少一部分键值对具有完全相同的键,根据本发明的示例性实施例,参数服务器2000在保存多个机器学习模型的参数时,将具有相同键的对应于不同机器学习模型的键值对合并保存为单个键对应于多个值的形式,例如,保存为键k1对应于值vm1,1、vm2,1、vm3,1、…、vmn,1的形式,在此基础上,还可进一步对合并处理后的参数进行压缩,例如,使用h压缩函数,从而避免了在同时存储多个机器学习模型的参数时存储开销呈线性增长的情况。
作为示例,参数服务器2000可被配置为将每个计算装置1000为了执行所述多个模型训练任务而需要读取的多个机器学习模型的参数提供给每个计算装置1000,以使每个计算装置1000利用读取的参数来训练所述多个机器学习模型,并且,参数服务器2000根据每个计算装置1000训练所述多个机器学习模型所得到的结果(例如,模型更新量)来更新所述多个机器学习模型的参数;或者,参数服务器2000可将每个计算装置1000为了执行所述多个模型预测任务而需要读取的多个机器学习模型的参数提供给每个计算装置1000,以使每个计算装置1000利用读取的参数来使用所述多个机器学习模型进行预测。
作为示例,当所述多个机器学习任务为:所述多个模型训练任务时,每个计算装置1000可被配置为:将训练所述多个机器学习模型所得到的结果按照单个键对应于多个值的形式提供给参数服务器2000,以使参数服务器2000更新所述多个机器学习模型的参数。在此基础上,还可进一步对相同键合并后的训练所述多个机器学习模型所得到的结果按照第二压缩方式进行压缩后提供给参数服务器2000,即,将被合并和压缩了的训练所述多个机器学习模型所得到的结果提供给参数服务器2000。从而能够有效避免重复信息的传输,减少计算装置1000与参数服务器2000之间需要传输的数据量,有效减少计算装置1000与参数服务器2000之间的网络开销。
作为示例,参数服务器2000可被配置为:将每个计算装置1000所需的所述多个机器学习模型的参数中的具有相同键的多个键值对按照单个键对应于多个值的形式提供给每个计算装置1000。此外,还可将被合并且被按照第三压缩方式压缩了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置。
应该理解,第一压缩方式、第二压缩方式、以及第三压缩方式相互之间可相同,也可不同。例如,第一压缩方式和第三压缩方式可相同或不同,当第一压缩方式和第三压缩方式不同时,参数服务器2000在向计算装置1000发送其所需的所述多个机器学习模型的参数时,可先对参数服务器2000中保存的已按照第一压缩方式被压缩了的这些参数进行解压缩,再按照第三压缩方式重新进行压缩后发送到计算装置1000;或者,参数服务器2000可对其中保存的已按照第一压缩方式被压缩了的这些参数按照第三压缩方式再次压缩后发送到计算装置1000,从而减少计算装置1000与参数服务器2000之间的网络开销。
图5示出根据本发明示例性实施例的多机器学习模型的参数的传输示例。如图5所示,参数服务器2000在向计算装置1000提供多个机器学习模型的参数(例如,关于键k1的键值对)时,可按照单个键对应于多个值的形式将多个机器学习模型的参数(例如,k1:[vm1,1、vm2,1、vm3,1、…、vmn,1])提供给计算装置1000,并且还可进一步对相同键合并后的参数进行压缩后(例如,f(k1,[vm1,1、vm2,1、vm3,1、…、vmn,1]))提供给计算装置1000,即,将被合并和压缩了的计算装置1000所需的所述多个机器学习模型的参数提供给计算装置1000,如图5所示,f函数为压缩函数,应该理解,h函数和f函数可为同一压缩函数,也可为不同的压缩函数。根据本发明的示例性实施例,通过对需要传输的数据中的重复信息进行合并,并对非重复信息进行压缩,来有效减小计算装置1000与参数服务器2000之间的网络传输开销,降低传输代价。
图6示出根据本发明示例性实施例的并行执行多机器学习任务的示例。在现有技术中,需要针对每个机器学习模型分别使用对应的指令来获取模型更新量(即,模型训练结果),而根据本发明的示例性实施例,可针对多个机器学习模型使用同一条向量化指令来获取多个机器学习模型的模型更新量。进一步地,作为示例,计算装置1000可将被合并和压缩了的模型训练结果(例如,所述多个机器学习模型的至少一个参数(例如,与键k1对应的参数)的变动量)上传到参数服务器2000,当参数服务器2000接收到计算装置1000上传的被合并和压缩了的模型训练结果时,可对接收到的模型训练结果进行解压缩,对参数服务器2000已存储的所述多个机器学习模型的该参数进行解压缩,并基于解压后的按照单个键对应于多个值的形式的变动量(k1:[△m1,1、△m2,1、△m3,1、…、△mn,1]),对解压后得到的参数k1:[vm1,1、vm2,1、vm3,1、…、vmn,1]进行更新,然后再对更新后的所述多个机器学习模型的该参数进行压缩保存。
作为示例,当所述多个机器学习任务为:所述多个模型训练任务时,参数服务器2000可被配置为:在每个计算装置1000执行所述多个机器学习任务的过程中,对计算装置1000训练一个机器学习模型时产生的能够用于其他机器学习模型的中间计算结果进行保存,以将所述中间计算结果用于所述其他机器学习模型。从而避免多个机器学习任务重复计算可重用的信息,提高计算资源的使用效率。
作为示例,所述一个机器学习模型和所述其他机器学习模型所对应的超参数中仅训练轮数不同,其中,所述一个机器学习模型所对应的训练轮数大于所述其他机器学习模型所对应的训练轮数,其中,参数服务器2000可被配置为:将计算装置1000在训练所述一个机器学习模型的过程中,训练轮数达到所述其他机器学习模型所对应的训练轮数时所得到的所述一个机器学习模型的参数,作为所述其他机器学习模型的参数。例如,如果模型训练任务1、模型训练任务2、和模型训练任务3对应的超参数中仅训练轮数不同,其他超参数均相同,其中,模型训练任务1的训练轮数为30轮,模型训练任务2的训练轮数为20轮,模型训练任务3的训练轮数为10轮,则可将模型训练任务1的训练轮数达到10轮时得到的机器学习模型的参数作为模型训练任务3对应的机器学习模型的参数;并将模型训练任务1的训练轮数达到20轮时得到的机器学习模型的参数作为模型训练任务2对应的机器学习模型的参数。
考虑到在本发明的示例性实施例中,计算装置1000与参数服务器2000之间进行传输时,需用同时传输多个机器学习模型的相关信息,这使得单次传输的消息的体积显著大于各机器学习任务彼此独立地执行时的消息体积,因此,根据本发明的示例性实施例,可针对多机器学习任务并行执行时特有的网络传输需求,对网络配置根据任务类型进行自适应配置,具体地,可针对所述多个机器学习任务,自动调整网络传输参数,使得网络能够更高效地对大体积消息进行传输,提高了网络利用率及任务完成效率。
作为示例,每个计算装置1000可被配置为:设置所述多个机器学习任务所使用的网络配置。
作为示例,每个计算装置1000可被配置为:针对所述多个机器学习任务使用零拷贝(zero-copy)技术进行网络传输。零拷贝技术可使得网络硬件(例如,网卡)能够直接对内存中的数据进行传输,而无需将数据从内存拷贝至网络硬件的缓存中,再进行传输。这种传输方式对于单个数据包更大的多机器学习任务场景具有更好的传输加速效果。
作为示例,每个计算装置1000在针对所述多个机器学习任务从参数服务器2000接收数据或向参数服务器2000发送数据时,均可自动使用零拷贝技术。
作为另一示例,每个计算装置1000可被配置为:针对所述多个机器学习任务设置网络传输中最大传输单元(MTU,Maximum Transmission Unit)的大小。即通过设置更大的MTU,能够在网络层将大的数据包拆分为数量更少、体积更大的网络传输包,使得网络能以更高的传输速率进行数据传输。
作为示例,参数服务器2000可被配置为:设置针对所述多个机器学习任务的网络配置。
作为示例,参数服务器2000可被配置为:针对所述多个机器学习任务使用零拷贝技术进行网络传输;和/或,针对所述多个机器学习任务设置网络传输中最大传输单元的大小。
考虑到在本发明的示例性实施例中,在执行多机器学习任务的过程中,需要同时存储多个机器学习模型的相关信息,相比于各机器学习任务彼此独立地执行,尽管因模型信息合并及压缩使得信息总体所需的内存更少,但单次分配所需的内存体积更大。因此,根据本发明的示例性实施例,可针对多机器学习任务并行执行时特有的内存管理需求,对内存根据任务类型进行自适应配置。具体地,可针对所述多个机器学习任务,自动调整内存分配参数,以提高内存分配效率及内存使用效率。
作为示例,每个计算装置1000可被配置为:配置所述多个机器学习任务所使用的内存。
考虑到在多路中央处理器CPU的架构下,CPU对内存进行分配及访问的速度与内存所在的具体物理位置相关。在多机器学习任务并行执行的场景下,程序单次访问量更高,对跨CPU进行内存访问的带宽需求更高。
作为示例,每个计算装置1000可被配置为:将所述多个机器学习任务与其内的一组CPU绑定,以使所述一组CPU使用与其邻近的内存来执行所述多个机器学习任务。从而实现内存的就近分配及访问,提高了内存的分配及访问效率。例如,可使用非统一内存访问架构(NUMA,Non Uniform Memory Access Architecture)来实现将所述多个机器学习任务与一组CPU绑定(即,绑定于计算装置1000的特定的NUMA区域中)。
作为另一示例,每个计算装置1000可被配置为:针对所述多个机器学习任务配置内存管理单位,以使计算装置1000的操作***和CPU以配置的内存管理单位来对所述多个机器学习任务所使用的内存进行管理。即通过设置更大的内存管理单位(即,page)对所述多个机器学习任务所使用的内存进行管理,使得内存分配器能够更高效地分配少量大块内存,从而使得操作***和CPU所需管理的page更少,管理效率更高。
作为示例,参数服务器2000可被配置为:配置针对所述多个机器学习任务的内存。
作为示例,参数服务器2000可被配置为:将与所述多个机器学习任务相关的任务与一组中央处理器CPU绑定,以使所述一组CPU使用与其邻近的内存来执行与所述多个机器学习任务相关的任务。
作为示例,参数服务器2000可被配置为:针对所述多个机器学习任务配置内存管理单位,以使参数服务器2000的操作***和CPU以配置的内存管理单位来对与所述多个机器学习任务相关的任务所使用的内存进行管理。
图7示出根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法的流程图。所述分布式***包括多个计算装置。
如图7所示,在步骤S10,所述多个计算装置分别获取指定数据集的不同部分数据。
作为示例,每个计算装置可从数据源请求所述指定数据集中的数据,并对请求到的数据进行预处理后保存在本地。
在步骤S20,所述多个计算装置基于所获取的部分数据,共同执行多个机器学习任务,其中,每个计算装置基于自身所获取的部分数据并行地执行所述多个机器学习任务,其中,所述多个机器学习任务为多个模型训练任务或多个模型预测任务。
作为示例,每个计算装置可读取本地保存的数据,并基于读取的数据执行所述多个机器学习任务。
作为示例,可先执行步骤S10,再执行步骤S20,即,在计算装置将所对应的指定数据集的部分数据全部保存在本地之后才开始执行多个机器学习任务;作为另一示例,可同时执行步骤S10和步骤S20,即,计算装置可一边获取数据保存在本地,一边基于本地已保存的数据执行多个机器学习任务。
作为示例,每个计算装置可基于读取的每一条数据,并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
作为示例,每个计算装置可基于读取的每一条数据,使用向量化指令并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
作为示例,所述分布式***还可包括参数服务器,其中,根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法还可包括:参数服务器维护所述多个机器学习任务所涉及的多个机器学习模型的参数,其中,机器学习模型的参数具有键值对的形式,其中,参数服务器按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并后保存,或者,参数服务器按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并,并对合并后的结果按照第一压缩方式进行压缩后保存。
作为示例,根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法还可包括:当所述多个机器学习任务为所述多个模型训练任务时,每个计算装置将被合并了的训练所述多个机器学习模型所得到的结果提供给参数服务器,或者,每个计算装置将被合并且被按照第二压缩方式压缩了的训练所述多个机器学习模型所得到的结果提供给参数服务器,以使参数服务器更新所述多个机器学习模型的参数,其中,所述结果按照单个键对应于多个值的形式被合并。
作为示例,根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法还可包括:参数服务器将被合并了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置,或者,参数服务器将被合并且被按照第三压缩方式压缩了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置。
作为示例,根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法还可包括:当所述多个机器学习任务为所述多个模型训练任务时,参数服务器在每个计算装置执行所述多个机器学习任务的过程中,对计算装置训练一个机器学习模型时产生的能够用于其他机器学习模型的中间计算结果进行保存,以将所述中间计算结果用于所述其他机器学习模型。
作为示例,所述一个机器学习模型和所述其他机器学习模型所对应的超参数中仅训练轮数不同,其中,所述一个机器学习模型所对应的训练轮数大于所述其他机器学习模型所对应的训练轮数,其中,参数服务器可将计算装置在训练所述一个机器学习模型的过程中,训练轮数达到所述其他机器学习模型所对应的训练轮数时所得到的所述一个机器学习模型的参数,作为所述其他机器学习模型的参数。
作为示例,根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法还可包括:每个计算装置设置所述多个机器学习任务所使用的网络配置;和/或,参数服务器设置针对所述多个机器学习任务的网络配置。
作为示例,每个计算装置可针对所述多个机器学习任务使用零拷贝技术进行网络传输;和/或,针对所述多个机器学习任务设置网络传输中最大传输单元的大小。
作为示例,参数服务器可针对所述多个机器学习任务使用零拷贝技术进行网络传输;和/或,针对所述多个机器学习任务设置网络传输中最大传输单元的大小。
作为示例,根据本发明示例性实施例的利用分布式***来执行多机器学习任务的方法还可包括:每个计算装置配置所述多个机器学习任务所使用的内存;和/或,参数服务器配置针对所述多个机器学习任务的内存。
作为示例,每个计算装置可将所述多个机器学习任务与一组中央处理器CPU绑定,以使所述一组CPU使用与其邻近的内存来执行所述多个机器学习任务;和/或,针对所述多个机器学习任务配置内存管理单位,以使计算装置的操作***和CPU以配置的内存管理单位来对所述多个机器学习任务所使用的内存进行管理。
作为示例,参数服务器可针对所述多个机器学习任务配置内存管理单位,以使参数服务器的操作***和CPU以配置的内存管理单位来对与所述多个机器学习任务相关的任务所使用的内存进行管理;和/或,将与所述多个机器学习任务相关的任务与一组中央处理器CPU绑定,以使所述一组CPU使用与其邻近的内存来执行与所述多个机器学习任务相关的任务。
应该理解,上述方法涉及的步骤可由之前描述的分布式***中的计算装置1000和/或参数服务器2000来执行,上述步骤所涉及的操作已经参照图1至图6进行了详细描述,这里将不再赘述相关细节。
应理解,根据本发明示例性实施例的分布式***中的参数服务器、计算装置或组成它们的装置或单元等组成部分可被分别配置为执行特定功能的软件、硬件、固件或上述项的任意组合。例如,这些组成部分可对应于专用的集成电路,也可对应于纯粹的软件代码,还可对应于软件与硬件相结合的模块。当它们以软件、固件、中间件或微代码实现时,用于执行相应操作的程序代码或者代码段可以存储在诸如存储介质的计算机可读介质中,使得处理器可通过读取并运行相应的程序代码或者代码段来执行相应的操作。此外,这些组成部分所实现的一个或多个功能也可由物理实体设备(例如,计算机器等)中的组件来统一执行。
应注意,根据本发明示例性实施例的分布式***可完全依赖计算机程序的运行来实现相应的功能,即,各个组成部分在计算机程序的功能架构中与各步骤相应,使得整个***通过专门的软件包(例如,lib库)而被调用,以实现相应的功能。
以上描述了本发明的各示例性实施例,应理解,上述描述仅是示例性的,并非穷尽性的,本发明不限于所披露的各示例性实施例。在不偏离本发明的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。因此,本发明的保护范围应该以权利要求的范围为准。

Claims (10)

1.一种用于执行多机器学习任务的分布式***,包括:
多个计算装置,被配置为分别获取指定数据集的不同部分数据,并共同执行多个机器学习任务;
其中,每个计算装置被配置为:基于自身所获取的部分数据并行地执行所述多个机器学习任务,其中,所述多个机器学习任务为多个模型训练任务或多个模型预测任务。
2.如权利要求1所述的分布式***,其中,
每个计算装置被配置为:一方面从数据源请求所述指定数据集中的数据,并对请求到的数据进行预处理后保存在本地,另一方面读取本地保存的数据,并基于读取的数据执行所述多个机器学习任务。
3.如权利要求2所述的分布式***,其中,
每个计算装置被配置为:基于读取的每一条数据,并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
4.如权利要求3所述的分布式***,其中,
每个计算装置被配置为:基于读取的每一条数据,使用向量化指令并行地执行所述多个机器学习任务中需要使用该条数据的机器学习任务。
5.如权利要求1所述的分布式***,还包括:
参数服务器,被配置为维护所述多个机器学习任务所涉及的多个机器学习模型的参数,其中,机器学习模型的参数具有键值对的形式,
其中,参数服务器被配置为:按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并后保存,或者,按照单个键对应于多个值的形式对所述多个机器学习模型的参数进行相同键合并,并对合并后的结果按照第一压缩方式进行压缩后保存。
6.如权利要求5所述的分布式***,其中,当所述多个机器学习任务为所述多个模型训练任务时,
每个计算装置被配置为:将被合并了的训练所述多个机器学习模型所得到的结果提供给参数服务器,或者,将被合并且被按照第二压缩方式压缩了的训练所述多个机器学习模型所得到的结果提供给参数服务器,以使参数服务器更新所述多个机器学习模型的参数,
其中,所述结果按照单个键对应于多个值的形式被合并。
7.如权利要求5所述的分布式***,其中,
参数服务器被配置为:将被合并了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置,或者,将被合并且被按照第三压缩方式压缩了的每个计算装置所需的所述多个机器学习模型的参数提供给每个计算装置。
8.如权利要求5所述的分布式***,其中,当所述多个机器学习任务为所述多个模型训练任务时,
参数服务器被配置为:在每个计算装置执行所述多个机器学习任务的过程中,对计算装置训练一个机器学习模型时产生的能够用于其他机器学习模型的中间计算结果进行保存,以将所述中间计算结果用于所述其他机器学习模型。
9.如权利要求8所述的分布式***,其中,所述一个机器学习模型和所述其他机器学习模型所对应的超参数中仅训练轮数不同,其中,所述一个机器学习模型所对应的训练轮数大于所述其他机器学习模型所对应的训练轮数,
其中,参数服务器被配置为:将计算装置在训练所述一个机器学习模型的过程中,训练轮数达到所述其他机器学习模型所对应的训练轮数时所得到的所述一个机器学习模型的参数,作为所述其他机器学习模型的参数。
10.一种利用分布式***来执行多机器学习任务的方法,其中,所述分布式***包括多个计算装置,其中,所述方法包括:
所述多个计算装置分别获取指定数据集的不同部分数据;
所述多个计算装置基于所获取的部分数据,共同执行多个机器学习任务,其中,每个计算装置基于自身所获取的部分数据并行地执行所述多个机器学习任务,
其中,所述多个机器学习任务为多个模型训练任务或多个模型预测任务。
CN201910759163.0A 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法 Active CN110472747B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910759163.0A CN110472747B (zh) 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法
CN202210960020.8A CN115345318A (zh) 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910759163.0A CN110472747B (zh) 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202210960020.8A Division CN115345318A (zh) 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法

Publications (2)

Publication Number Publication Date
CN110472747A true CN110472747A (zh) 2019-11-19
CN110472747B CN110472747B (zh) 2022-07-05

Family

ID=68510974

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210960020.8A Pending CN115345318A (zh) 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法
CN201910759163.0A Active CN110472747B (zh) 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202210960020.8A Pending CN115345318A (zh) 2019-08-16 2019-08-16 用于执行多机器学习任务的分布式***及其方法

Country Status (1)

Country Link
CN (2) CN115345318A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340240A (zh) * 2020-03-25 2020-06-26 第四范式(北京)技术有限公司 实现自动机器学习的方法及装置
CN111339553A (zh) * 2020-02-14 2020-06-26 云从科技集团股份有限公司 一种任务处理方法、***、设备及介质
CN112257874A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 分布式机器学习***的机器学习方法、装置、***
CN112988366A (zh) * 2019-12-12 2021-06-18 中科寒武纪科技股份有限公司 参数服务器、主从客户机、权值参数的处理方法及***
WO2021203918A1 (zh) * 2020-04-08 2021-10-14 北京字节跳动网络技术有限公司 用于处理模型参数的方法和装置
CN113741868A (zh) * 2020-05-29 2021-12-03 腾讯科技(深圳)有限公司 业务计算任务处理方法、装置、计算机设备和存储介质
CN114385256A (zh) * 2020-10-22 2022-04-22 华为云计算技术有限公司 ***参数的配置方法和配置装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508643A (zh) * 2011-11-16 2012-06-20 刘大可 一种多核并行数字信号处理器及并行指令集的运行方法
CN105550374A (zh) * 2016-01-29 2016-05-04 湖南大学 Spark云服务环境下面向大数据的随机森林并行机器学习方法
CN106527968A (zh) * 2016-09-21 2017-03-22 苏州市广播电视总台 一种基于文件直通技术的文件传输方法
CN106650786A (zh) * 2016-11-14 2017-05-10 沈阳工业大学 基于多列卷积神经网络模糊评判的图像识别方法
CN107025205A (zh) * 2016-01-30 2017-08-08 华为技术有限公司 一种分布式***中的训练模型的方法及设备
CN107169513A (zh) * 2017-05-05 2017-09-15 第四范式(北京)技术有限公司 控制数据使用顺序的分布式机器学习***及其方法
CN107609652A (zh) * 2017-08-30 2018-01-19 第四范式(北京)技术有限公司 执行机器学习的分布式***及其方法
CN109447274A (zh) * 2017-08-30 2019-03-08 第四范式(北京)技术有限公司 用于执行机器学习的分布式***及其方法
US20190102675A1 (en) * 2017-09-29 2019-04-04 Coupa Software Incorporated Generating and training machine learning systems using stored training datasets
US20190138628A1 (en) * 2017-11-06 2019-05-09 Google Llc Duplicative data detection
US20190188584A1 (en) * 2017-12-19 2019-06-20 Aspen Technology, Inc. Computer System And Method For Building And Deploying Models Predicting Plant Asset Failure

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508643A (zh) * 2011-11-16 2012-06-20 刘大可 一种多核并行数字信号处理器及并行指令集的运行方法
CN105550374A (zh) * 2016-01-29 2016-05-04 湖南大学 Spark云服务环境下面向大数据的随机森林并行机器学习方法
CN107025205A (zh) * 2016-01-30 2017-08-08 华为技术有限公司 一种分布式***中的训练模型的方法及设备
CN106527968A (zh) * 2016-09-21 2017-03-22 苏州市广播电视总台 一种基于文件直通技术的文件传输方法
CN106650786A (zh) * 2016-11-14 2017-05-10 沈阳工业大学 基于多列卷积神经网络模糊评判的图像识别方法
CN107169513A (zh) * 2017-05-05 2017-09-15 第四范式(北京)技术有限公司 控制数据使用顺序的分布式机器学习***及其方法
CN107609652A (zh) * 2017-08-30 2018-01-19 第四范式(北京)技术有限公司 执行机器学习的分布式***及其方法
CN109447274A (zh) * 2017-08-30 2019-03-08 第四范式(北京)技术有限公司 用于执行机器学习的分布式***及其方法
US20190102675A1 (en) * 2017-09-29 2019-04-04 Coupa Software Incorporated Generating and training machine learning systems using stored training datasets
US20190138628A1 (en) * 2017-11-06 2019-05-09 Google Llc Duplicative data detection
US20190188584A1 (en) * 2017-12-19 2019-06-20 Aspen Technology, Inc. Computer System And Method For Building And Deploying Models Predicting Plant Asset Failure

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
XINGHAO PAN: "Parallel machine learning using concurrency control", 《TECHNICAL REPORTS》 *
董守斌等: "《网络信息检索》", 30 April 2010 *
蔡幸等: "《广西投资前言报告》", 31 December 2017 *
钱利强: "无监督学习框架下学习分类器***聚类与主干网提取方法研究", 《中国优秀博硕士学位论文全文数据库(博士) 信息科技辑》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112988366A (zh) * 2019-12-12 2021-06-18 中科寒武纪科技股份有限公司 参数服务器、主从客户机、权值参数的处理方法及***
CN111339553A (zh) * 2020-02-14 2020-06-26 云从科技集团股份有限公司 一种任务处理方法、***、设备及介质
WO2021159685A1 (zh) * 2020-02-14 2021-08-19 云从科技集团股份有限公司 一种任务处理方法、***、设备及介质
CN111340240A (zh) * 2020-03-25 2020-06-26 第四范式(北京)技术有限公司 实现自动机器学习的方法及装置
WO2021190379A1 (zh) * 2020-03-25 2021-09-30 第四范式(北京)技术有限公司 实现自动机器学习的方法及装置
WO2021203918A1 (zh) * 2020-04-08 2021-10-14 北京字节跳动网络技术有限公司 用于处理模型参数的方法和装置
US11809429B2 (en) 2020-04-08 2023-11-07 Beijing Bytedance Network Technology Co., Ltd. Method for processing model parameters, and apparatus
CN113741868A (zh) * 2020-05-29 2021-12-03 腾讯科技(深圳)有限公司 业务计算任务处理方法、装置、计算机设备和存储介质
CN113741868B (zh) * 2020-05-29 2024-05-24 腾讯科技(深圳)有限公司 业务计算任务处理方法、装置、计算机设备和存储介质
CN114385256A (zh) * 2020-10-22 2022-04-22 华为云计算技术有限公司 ***参数的配置方法和配置装置
CN114385256B (zh) * 2020-10-22 2024-06-11 华为云计算技术有限公司 ***参数的配置方法和配置装置
CN112257874A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 分布式机器学习***的机器学习方法、装置、***

Also Published As

Publication number Publication date
CN115345318A (zh) 2022-11-15
CN110472747B (zh) 2022-07-05

Similar Documents

Publication Publication Date Title
CN110472747A (zh) 用于执行多机器学习任务的分布式***及其方法
CN107609652B (zh) 执行机器学习的分布式***及其方法
Gounaris et al. A methodology for spark parameter tuning
CN106056529B (zh) 一种对用于图片识别的卷积神经网络训练的方法与设备
CN107918794A (zh) 基于计算阵列的神经网络处理器
CN111553484A (zh) 联邦学习的方法、装置及***
CN108573304A (zh) 硬件中转置神经网络矩阵
CN107622310B (zh) 用于执行机器学习的分布式***及其方法
CN102890625B (zh) 运算和控制单元、运算和控制方法、与并行处理器
CN107679625B (zh) 针对数据记录执行机器学习的分布式***及其方法
CN108416436A (zh) 使用多核心处理模块进行神经网络划分的方法及其***
TW202414280A (zh) 用於執行類神經網路層之計算的方法、系統及非暫時性電腦可讀儲存媒體
CN108459995A (zh) 在矩阵矢量处理器中置换
US20230350684A1 (en) Method and Apparatus for Configuring a Reduced Instruction Set Computer Processor Architecture to Execute a Fully Homomorphic Encryption Algorithm
CN108073977A (zh) 卷积运算装置及卷积运算方法
CN110262901A (zh) 一种数据处理方法及数据处理***
GB2588719A (en) Parallel computational architecture with reconfigurable core-level and vector-level parallelism
CN101673391A (zh) 流水线化的图像处理引擎
CN107169513A (zh) 控制数据使用顺序的分布式机器学习***及其方法
CN106779057A (zh) 基于gpu的计算二值神经网络卷积的方法及装置
CN113037800B (zh) 作业调度方法以及作业调度装置
KR102163209B1 (ko) 컨볼루션 신경망 훈련의 다차원 병렬화 방법과 이를 수행하는 장치 사이의 재구성 가능한 연결 구조
CN104937544A (zh) 计算回归模型
CN112906825A (zh) 实现机器学习模型的分布式训练的方法和计算节点
CN108416438A (zh) 一种卷积神经网络硬件模块部署方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant