JP2022008781A - 分散型トレーニング方法、システム、デバイス、記憶媒体、及びプログラム - Google Patents
分散型トレーニング方法、システム、デバイス、記憶媒体、及びプログラム Download PDFInfo
- Publication number
- JP2022008781A JP2022008781A JP2020192957A JP2020192957A JP2022008781A JP 2022008781 A JP2022008781 A JP 2022008781A JP 2020192957 A JP2020192957 A JP 2020192957A JP 2020192957 A JP2020192957 A JP 2020192957A JP 2022008781 A JP2022008781 A JP 2022008781A
- Authority
- JP
- Japan
- Prior art keywords
- training
- server
- data
- computing
- servers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 185
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000015654 memory Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 12
- 230000001052 transient effect Effects 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/182—Distributed file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/485—Task life-cycle, e.g. stopping, restarting, resuming execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Debugging And Monitoring (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
Abstract
【解決手段】分散型トレーニング方法は、タスク情報サーバが、複数のデータサーバのうち少なくとも第1データサーバに、第1トレーニングリクエスト及び利用可能な第1コンピューティングサーバの情報を送信することと、第1データサーバが、第1バッチトレーニングデータを第1コンピューティングサーバに送信することと、第1コンピューティングサーバが、モデルをトレーニングし、トレーニングが完了した後にモデルパラメーターを第1データサーバに送信して保存するとともに、第1バッチトレーニングデータの識別情報をタスク情報サーバに送信して記録することと、を含む。
【選択図】図1
Description
Claims (19)
- トレーニングデータによってモデルをトレーニングするための分散型トレーニングシステムに基づく分散型トレーニング方法であって、
前記分散型トレーニングシステムは、
タスク情報サーバと、
データサーバと、
コンピューティングサーバと、を備え、
前記データサーバの数は複数であり、
前記コンピューティングサーバの数は可変であり、
前記分散型トレーニング方法は、
前記タスク情報サーバが、複数のデータサーバのうち少なくとも第1データサーバに、第1トレーニングリクエスト及び利用可能な第1コンピューティングサーバの情報を送信することと、
前記第1データサーバが、前記第1トレーニングリクエストに従って、第1バッチトレーニングデータを前記第1コンピューティングサーバに送信することと、
前記第1コンピューティングサーバが、前記第1バッチトレーニングデータによってモデルをトレーニングし、トレーニングが完了した後にモデルパラメーターを前記第1データサーバに送信して保存するとともに、前記第1バッチトレーニングデータの識別情報を前記タスク情報サーバに送信して記録することと、を含み、
各コンピューティングサーバには、モデルパラメーターが保存されていない、
ことを特徴とする分散型トレーニング方法。 - 前記分散型トレーニング方法は、
トレーニングを開始する前に、各データサーバが、分散型ファイルシステムからトレーニングデータ及びトレーニングされるべきモデルの情報をダウンロードすること、をさらに含む、
ことを特徴とする請求項1に記載の分散型トレーニング方法。 - 前記各データサーバは、パラメーターサーバを含み、
前記分散型トレーニング方法は、
前記第1コンピューティングサーバがトレーニング後のモデルパラメーターを前記第1データサーバに送信した後に、前記トレーニング後のモデルパラメーターを前記第1データサーバのうちの第1パラメーターサーバに保存すること、をさらに含む、
ことを特徴とする請求項1に記載の分散型トレーニング方法。 - 前記タスク情報サーバは、
システム内の各コンピューティングサーバに対して死活チェックを行い、
システム内の利用可能なコンピューティングサーバの数が変化しない場合に、各データサーバ内のパラメーターサーバに最新のモデルパラメーターを保存させること、をさらに含む、
ことを特徴とする請求項1に記載の分散型トレーニング方法。 - 前記タスク情報サーバは、
システム内の各コンピューティングサーバに対して死活チェックを行い、
システム内の利用可能なコンピューティングサーバの数が変化すると、利用可能なコンピューティングサーバのリストを更新し、各データサーバ内のパラメーターサーバに前回の死活チェック時のモデルパラメーターを再ロードさせること、をさらに含む、
ことを特徴とする請求項1に記載の分散型トレーニング方法。 - 前記分散型トレーニングシステムは、
前記タスク情報サーバが死活チェックを行う際に、トレーニング処理を一時停止し、
前記タスク情報サーバは、
死活チェックが完了した後に、現在のモデルパラメーター及び記録されたトレーニングが完了したトレーニングデータの識別情報に基づいて、各データサーバに新たなトレーニングリクエストを送信すること、をさらに含む、
ことを特徴とする請求項4又は5に記載の分散型トレーニング方法。 - 前記各コンピューティングサーバ間にて情報のやり取りは行わない、
ことを特徴とする請求項1に記載の分散型トレーニング方法。 - 前記タスク情報サーバは、静的ノードである、
ことを特徴とする請求項1に記載の分散型トレーニング方法。 - トレーニングデータによってモデルをトレーニングするための分散型トレーニングシステムであって、
タスク情報サーバと、
データサーバと、
コンピューティングサーバと、を備え、
前記データサーバの数は複数であり、
前記コンピューティングサーバの数は可変であり、
前記タスク情報サーバは、
前記各データサーバにトレーニングリクエスト及び利用可能なコンピューティングサーバの情報を送信することに用いられ、
前記データサーバは、
受信されたトレーニングリクエストに従って、トレーニングデータを利用可能なコンピューティングサーバに送信することに用いられ、
前記コンピューティングサーバは、
受信されたトレーニングデータによってモデルをトレーニングし、トレーニングが完了した後にモデルパラメーターを前記データサーバに送信して保存するとともに、トレーニングが完了したトレーニングデータの識別情報を前記タスク情報サーバに送信して記録することに用いられ、
各コンピューティングサーバには、モデルパラメーターが保存されていない、
ことを特徴とする分散型トレーニングシステム。 - 前記各データサーバは、
トレーニングを開始する前に、分散型ファイルシステムからトレーニングデータ及びトレーニングされるべきモデルの情報をダウンロードすることにさらに用いられる、
ことを特徴とする請求項9に記載の分散型トレーニングシステム。 - 前記各データサーバは、
トレーニング後のモデルパラメーターを保存するためのパラメーターサーバを含む、
ことを特徴とする請求項9に記載の分散型トレーニングシステム。 - 前記タスク情報サーバは、
システム内の各コンピューティングサーバに対して死活チェックを行い、
システム内の利用可能なコンピューティングサーバの数が変化しない場合に、各データサーバ内のパラメーターサーバに最新のモデルパラメーターを保存させることにさらに用いられる、
ことを特徴とする請求項9に記載の分散型トレーニングシステム。 - 前記タスク情報サーバは、
システム内の各コンピューティングサーバに対して死活チェックを行い、
システム内の利用可能な計算サーバの数が変化すると、利用可能なコンピューティングサーバのリストを更新し、各データサーバ内のパラメーターサーバに前回の死活チェック時のモデルパラメーターを再ロードさせることにさらに用いられる、
ことを特徴とする請求項9に記載の分散型トレーニングシステム。 - 前記分散型トレーニングシステムは、
前記タスク情報サーバが死活チェックを行う際に、トレーニング処理を一時停止し、
前記タスク情報サーバは、
死活チェックが完了した後に、現在のモデルパラメーター及び記録されたトレーニングが完了したトレーニングデータの識別情報に基づいて、各データサーバに新たなトレーニングリクエストを送信することにさらに用いられる、
ことを特徴とする請求項12又は13に記載の分散型トレーニングシステム。 - 前記各コンピューティングサーバ間にて情報のやり取りは行わない、
ことを特徴とする請求項9に記載の分散型トレーニングシステム。 - 前記タスク情報サーバは、静的ノードである、
ことを特徴とする請求項9に記載の分散型トレーニングシステム。 - 少なくとも1つのプロセッサと、
少なくとも1つのプロセッサに通信接続するメモリと、を備え、
前記メモリは、前記少なくとも1つのプロセッサに実行される命令を記憶し、上記命令は、前記少なくとも1つのプロセッサに実行される場合、前記少なくとも1つのプロセッサに請求項1~8のいずれか一項に記載の分散型トレーニング方法を実行させる、
ことを特徴とする電子デバイス。 - コンピュータ命令を記憶している非一過性のコンピュータ可読記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~8のいずれか一項に記載の分散型トレーニング方法を実行させる、
ことを特徴とする非一過性のコンピュータ可読記憶媒体。 - コンピュータにおいて、プロセッサにより実行される場合、請求項1~8のいずれか一項に記載の分散型トレーニング方法を実現することを特徴とするプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010599075.1 | 2020-06-28 | ||
CN202010599075.1A CN111753997B (zh) | 2020-06-28 | 2020-06-28 | 分布式训练方法、***、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022008781A true JP2022008781A (ja) | 2022-01-14 |
JP7138150B2 JP7138150B2 (ja) | 2022-09-15 |
Family
ID=72677681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020192957A Active JP7138150B2 (ja) | 2020-06-28 | 2020-11-20 | 分散型トレーニング方法、システム、デバイス、記憶媒体、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210406767A1 (ja) |
EP (1) | EP3929825A1 (ja) |
JP (1) | JP7138150B2 (ja) |
KR (1) | KR20220001008A (ja) |
CN (1) | CN111753997B (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461290B (zh) * | 2020-03-11 | 2023-09-22 | 北京百度网讯科技有限公司 | 模型参数更新方法及装置 |
CN112434337A (zh) * | 2020-11-30 | 2021-03-02 | 上海天旦网络科技发展有限公司 | 分布式训练生成模型的方法、***及介质 |
CN112508191A (zh) * | 2020-12-14 | 2021-03-16 | 北京地平线信息技术有限公司 | 训练深度学习模型的方法及装置、电子设备及存储介质 |
CN112561078B (zh) * | 2020-12-18 | 2021-12-28 | 北京百度网讯科技有限公司 | 分布式的模型训练方法及相关装置 |
CN112598135A (zh) * | 2020-12-24 | 2021-04-02 | 深圳壹账通智能科技有限公司 | 模型训练处理方法、装置、计算机设备及介质 |
CN112615937A (zh) * | 2020-12-28 | 2021-04-06 | 南方电网深圳数字电网研究院有限公司 | 数据传输、数据训练方法、服务器、电子设备及存储介质 |
CN113485784A (zh) * | 2021-06-08 | 2021-10-08 | 中国联合网络通信集团有限公司 | 一种模型训练方法及装置 |
CN113448730A (zh) * | 2021-06-29 | 2021-09-28 | 京东科技控股股份有限公司 | 服务的处理方法、装置、计算机设备及存储介质 |
CN114338398B (zh) * | 2021-12-30 | 2024-06-07 | 北京市商汤科技开发有限公司 | 数据传输方法、装置、电子设备及存储介质 |
CN114493919A (zh) * | 2022-01-18 | 2022-05-13 | 杭州安脉盛智能技术有限公司 | 储能电站运行监测模型的训练方法及储能电站的监控*** |
CN114723045B (zh) * | 2022-04-06 | 2022-12-20 | 北京百度网讯科技有限公司 | 模型训练方法、装置、***、设备、介质及程序产品 |
CN114792125B (zh) * | 2022-04-15 | 2023-06-23 | 北京百度网讯科技有限公司 | 基于分布式训练的数据处理方法、装置、电子设备和介质 |
CN114979141B (zh) * | 2022-05-13 | 2024-04-26 | 北京百度网讯科技有限公司 | 一种任务处理方法、装置、设备以及存储介质 |
CN114862655B (zh) * | 2022-05-18 | 2023-03-10 | 北京百度网讯科技有限公司 | 用于模型训练的运行控制方法、装置和电子设备 |
CN114860346B (zh) * | 2022-06-02 | 2024-06-04 | 北京百度网讯科技有限公司 | 建模任务的管理方法和建模任务的运行方法 |
CN117744826A (zh) * | 2022-09-14 | 2024-03-22 | 抖音视界有限公司 | 模型训练方法、装置以及***和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022558A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
CN106529682A (zh) * | 2016-10-28 | 2017-03-22 | 北京奇虎科技有限公司 | 一种在大数据集群中处理深度学习任务的方法和装置 |
JP2020513615A (ja) * | 2016-11-23 | 2020-05-14 | ヴァイタル イメージズ,インコーポレイテッド | 深層学習ニューラルネットワークの分散化された診断ワークフロー訓練 |
US20200174840A1 (en) * | 2018-11-30 | 2020-06-04 | EMC IP Holding Company LLC | Dynamic composition of data pipeline in accelerator-as-a-service computing environment |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106462612A (zh) * | 2014-07-01 | 2017-02-22 | 萨思学会有限公司 | 用于容错通信的***和方法 |
CN105760240A (zh) * | 2014-12-16 | 2016-07-13 | 航天信息股份有限公司 | 分布式任务处理方法及装置 |
CN107025205B (zh) * | 2016-01-30 | 2021-06-22 | 华为技术有限公司 | 一种分布式***中的训练模型的方法及设备 |
CN105956021B (zh) * | 2016-04-22 | 2019-05-21 | 华中科技大学 | 一种适用于分布式机器学习的自动化任务并行的方法及其*** |
CN106022521B (zh) * | 2016-05-19 | 2020-05-19 | 四川大学 | 基于Hadoop架构的分布式BP神经网络的短期负荷预测方法 |
CN106169094A (zh) * | 2016-07-07 | 2016-11-30 | 江苏大学 | 一种基于分布式神经元的rnnlm***及其设计方法 |
CN106529673B (zh) * | 2016-11-17 | 2019-05-03 | 北京百度网讯科技有限公司 | 基于人工智能的深度学习网络训练方法及装置 |
CN106708624B (zh) * | 2016-11-25 | 2020-08-11 | 国电南瑞科技股份有限公司 | 一种多工作域计算资源的自适应调整方法 |
US10649806B2 (en) * | 2017-04-12 | 2020-05-12 | Petuum, Inc. | Elastic management of machine learning computing |
CN108734293B (zh) * | 2017-04-13 | 2023-05-02 | 北京京东尚科信息技术有限公司 | 任务管理***、方法和装置 |
CN107609652B (zh) * | 2017-08-30 | 2019-10-25 | 第四范式(北京)技术有限公司 | 执行机器学习的分布式***及其方法 |
CN107733977B (zh) * | 2017-08-31 | 2020-11-03 | 北京百度网讯科技有限公司 | 一种基于Docker的集群管理方法及装置 |
CN107885762B (zh) * | 2017-09-19 | 2021-06-11 | 北京百度网讯科技有限公司 | 智能大数据***、提供智能大数据服务的方法和设备 |
CN107578094A (zh) * | 2017-10-25 | 2018-01-12 | 济南浪潮高新科技投资发展有限公司 | 基于参数服务器和fpga实现神经网络分布式训练的方法 |
CN109815002A (zh) * | 2017-11-21 | 2019-05-28 | 中国电力科学研究院有限公司 | 一种基于在线仿真的分布式并行计算平台及其方法 |
US10140184B1 (en) * | 2018-03-14 | 2018-11-27 | Capital One Services, Llc | Node recovery in static distributed networks |
CN108763299A (zh) * | 2018-04-19 | 2018-11-06 | 贵州师范大学 | 一种大规模数据处理计算加速*** |
CN108681777B (zh) * | 2018-05-07 | 2021-07-20 | 北京京东尚科信息技术有限公司 | 一种基于分布式***的机器学习程序运行的方法和装置 |
CN108880928A (zh) * | 2018-05-22 | 2018-11-23 | 国网山东省电力公司电力科学研究院 | 基于网格计算的分布式输电线路监控图像识别方法与*** |
CN109102075A (zh) * | 2018-07-26 | 2018-12-28 | 联想(北京)有限公司 | 一种分布式训练中的梯度更新方法及相关设备 |
CN109062700A (zh) * | 2018-08-21 | 2018-12-21 | 郑州云海信息技术有限公司 | 一种基于分布式***的资源管理方法及服务器 |
US11625640B2 (en) * | 2018-10-05 | 2023-04-11 | Cisco Technology, Inc. | Distributed random forest training with a predictor trained to balance tasks |
CN110033095A (zh) * | 2019-03-04 | 2019-07-19 | 北京大学 | 一种高可用分布式机器学习计算框架的容错方法和*** |
CN110704630A (zh) * | 2019-04-15 | 2020-01-17 | 中国石油大学(华东) | 一种标识化关联图谱自优化机制 |
CN110221913A (zh) * | 2019-04-26 | 2019-09-10 | 深圳市致宸信息科技有限公司 | 监控服务器的云算力的方法、终端、设备及存储介质 |
CN110457176B (zh) * | 2019-07-12 | 2022-09-27 | 平安普惠企业管理有限公司 | 用于分布式***的监控方法、装置、存储介质及电子设备 |
CN110619388B (zh) * | 2019-09-20 | 2024-04-02 | 北京金山数字娱乐科技有限公司 | 一种分布式训练中梯度同步方法及装置 |
CN110850956B (zh) * | 2019-10-28 | 2021-11-19 | 西安交通大学 | 一种基于数据覆盖集的分布式运算集群动态能耗管理方法 |
CN111147541B (zh) * | 2019-11-18 | 2022-11-15 | 广州文远知行科技有限公司 | 基于参数服务器的节点处理方法、装置、设备及存储介质 |
CN111027708A (zh) * | 2019-11-29 | 2020-04-17 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种面向分布式机器学习的参数通信优化方法 |
CN111079921A (zh) * | 2019-11-29 | 2020-04-28 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种基于异构分布式***的高效神经网络训练调度方法 |
CN110928689B (zh) * | 2019-12-05 | 2020-08-25 | 中国人民解放军军事科学院国防科技创新研究院 | 面向分布式强化学习训练的自适应资源管理方法及装置 |
CN111030861B (zh) * | 2019-12-11 | 2022-05-31 | 中移物联网有限公司 | 一种边缘计算分布式模型训练方法、终端和网络侧设备 |
CN111221646A (zh) * | 2019-12-16 | 2020-06-02 | 清华大学 | 分布式机器学习的参数同步方法及装置 |
CN111160531B (zh) * | 2019-12-30 | 2023-09-22 | 北京迈格威科技有限公司 | 神经网络模型的分布式训练方法、装置及电子设备 |
CN111126604B (zh) * | 2019-12-31 | 2024-02-02 | 北京奇艺世纪科技有限公司 | 模型训练方法、装置、服务器及存储介质 |
CN111240901B (zh) * | 2020-01-13 | 2023-01-10 | 苏州浪潮智能科技有限公司 | 分布式块存储***的节点动态扩展***、方法及设备 |
CN111259917B (zh) * | 2020-02-20 | 2022-06-07 | 西北工业大学 | 一种基于局部近邻成分分析的图像特征提取方法 |
-
2020
- 2020-06-28 CN CN202010599075.1A patent/CN111753997B/zh active Active
- 2020-11-20 JP JP2020192957A patent/JP7138150B2/ja active Active
- 2020-11-30 KR KR1020200164799A patent/KR20220001008A/ko not_active Application Discontinuation
-
2021
- 2021-01-04 EP EP21150081.4A patent/EP3929825A1/en active Pending
- 2021-01-06 US US17/142,822 patent/US20210406767A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022558A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
CN106529682A (zh) * | 2016-10-28 | 2017-03-22 | 北京奇虎科技有限公司 | 一种在大数据集群中处理深度学习任务的方法和装置 |
JP2020513615A (ja) * | 2016-11-23 | 2020-05-14 | ヴァイタル イメージズ,インコーポレイテッド | 深層学習ニューラルネットワークの分散化された診断ワークフロー訓練 |
US20200174840A1 (en) * | 2018-11-30 | 2020-06-04 | EMC IP Holding Company LLC | Dynamic composition of data pipeline in accelerator-as-a-service computing environment |
Also Published As
Publication number | Publication date |
---|---|
US20210406767A1 (en) | 2021-12-30 |
JP7138150B2 (ja) | 2022-09-15 |
CN111753997A (zh) | 2020-10-09 |
EP3929825A1 (en) | 2021-12-29 |
KR20220001008A (ko) | 2022-01-04 |
CN111753997B (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022008781A (ja) | 分散型トレーニング方法、システム、デバイス、記憶媒体、及びプログラム | |
US10956148B2 (en) | Concurrent I/O enclosure firmware/field-programmable gate array (FPGA) update in a multi-node environment | |
US10387179B1 (en) | Environment aware scheduling | |
US9880827B2 (en) | Managing software version upgrades in a multiple computer system environment | |
US20180349128A1 (en) | Containerized upgrade in operating system level virtualization | |
CN110795503A (zh) | 分布式存储***的多集群数据同步方法及相关装置 | |
US10725890B1 (en) | Program testing service | |
US10341181B2 (en) | Method and apparatus to allow dynamic changes of a replica network configuration in distributed systems | |
CN112559143A (zh) | 任务调度方法、***及计算设备 | |
US8977752B2 (en) | Event-based dynamic resource provisioning | |
JP2022117451A (ja) | 変更タスクを実行する方法、装置、電子機器、及び読み取り可能な記憶媒体 | |
US20150067097A1 (en) | Managing data distribution to networked client computing devices | |
EP3479256B1 (en) | Fabric encapsulated resilient storage | |
JP2021119461A (ja) | バックアップ管理方法、システム、電子機器、及び媒体 | |
US9557984B2 (en) | Performing code load operations on managed components in a system | |
US11422842B2 (en) | Virtual machine operation management in computing devices | |
US9836315B1 (en) | De-referenced package execution | |
US11190565B2 (en) | Operator to processing element assignment in an active stream processing job | |
CN112527368B (zh) | 集群内核版本更新方法、装置、电子设备和存储介质 | |
US10884832B2 (en) | Aggregation messaging within an integration environment | |
US20230195534A1 (en) | Snapshot based pool of virtual resources for efficient development and test of hyper-converged infrastructure environments | |
WO2021002970A1 (en) | Distributed system that promotes task-machine affinity | |
Dumitru et al. | AUTOMATED FPGA FIRMWARE MANAGEMENT IN HPC CLUSTERS. | |
CN117742891A (zh) | 带vDPA设备的虚拟机的创建方法、装置、设备及存储介质 | |
WO2021191655A1 (en) | Grouping together multiple functions accessing the same data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |