JP6699891B2 - Electronic device, method and information processing system - Google Patents
Electronic device, method and information processing system Download PDFInfo
- Publication number
- JP6699891B2 JP6699891B2 JP2016168189A JP2016168189A JP6699891B2 JP 6699891 B2 JP6699891 B2 JP 6699891B2 JP 2016168189 A JP2016168189 A JP 2016168189A JP 2016168189 A JP2016168189 A JP 2016168189A JP 6699891 B2 JP6699891 B2 JP 6699891B2
- Authority
- JP
- Japan
- Prior art keywords
- gradients
- client
- sum
- learning
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明の実施形態は、並列分散学習のための技術に関する。 Embodiments of the present invention relate to techniques for parallel distributed learning.
近年、機械学習の一つであるディープラーニングによるデータの有効活用が期待されている。ディープラーニングにおいて、大規模なデータを用いた学習結果をより高速に得るためには、複数のコンピュータ(プロセッサ)による学習の並列処理を実行し、各コンピュータによる学習経過を共有する並列分散学習処理が求められる。このような並列分散学習処理では、コンピュータ間での通信によって学習経過を示すデータが共有される。 In recent years, effective use of data by deep learning, which is one of machine learning, is expected. In deep learning, in order to obtain a learning result using large-scale data at higher speed, parallel distributed learning processing that executes parallel processing of learning by multiple computers (processors) and shares learning progress by each computer is required. Desired. In such parallel distributed learning processing, data indicating learning progress is shared by communication between computers.
しかし、ディープラーニングにおける並列分散学習処理ではコンピュータ間で共有されるデータ量が大きく、したがって、通信コストが高くなる場合がある。そのため、通信コストを低減しながら並列分散学習処理を効率的に実行できる新たな技術の実現が要求される。 However, in parallel distributed learning processing in deep learning, the amount of data shared between computers is large, and therefore communication costs may increase. Therefore, realization of a new technique that can efficiently execute parallel distributed learning processing while reducing communication costs is required.
本発明の一形態は、通信コストを低減しながら並列分散学習処理を効率的に実行できる電子装置、方法及び情報処理システムを提供することを目的とする。 An aspect of the present invention is to provide an electronic device, a method, and an information processing system that can efficiently execute parallel distributed learning processing while reducing communication costs.
実施形態によれば、電子装置は、受信手段と処理手段とを具備する。前記受信手段は、前記電子装置と少なくとも一つの他の電子装置とによって目的関数を基準とする並列分散処理が実行される場合に、前記少なくとも一つの他の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信する。前記処理手段は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する。 According to an embodiment, the electronic device comprises a receiving means and a processing means. When the parallel distributed processing is performed with the objective function as a reference by the electronic device and the at least one other electronic device, the receiving unit is configured to operate from the first electronic device of the at least one other electronic device. , A sum of a plurality of gradients calculated for updating the first weighting coefficient of the objective function by the first electronic device, and information capable of specifying the number of the plurality of gradients. The processing means updates the second weighting coefficient of the objective function using the sum of the plurality of gradients and the information capable of specifying the number of the plurality of gradients.
以下、実施の形態について図面を参照して説明する。
(第1実施形態)
まず、図1を参照して、第1実施形態に係る情報処理システムの構成を説明する。この情報処理システム1は、ネットワーク50等を介して相互に接続されたサーバコンピュータ(以下、サーバとも称する)10と複数のクライアントコンピュータ(以下、クライアントとも称する)20,30,40とによって構成されるサーバ−クライアント型のシステムである。ネットワーク50は、例えば、イーサネット(登録商標)であるが、これに限るものではない。情報処理システム1内のサーバ10及びクライアント20,30,40は、例えば、大規模なデータを扱うディープラーニングにおいて目的関数を基準とする並列分散学習処理を実行する。この目的関数を基準とする並列分散学習処理とは、目的関数を学習結果のフィードバック(評価値)として用いて、複数の処理主体で学習されるものであればどのようなものであってもよく、例えば、目的関数を最適化するための並列分散学習処理である。なお、図1では、情報処理システム1に3台のクライアント20,30,40が設けられる例を示したが、クライアントの数は2台であってもよいし、4台以上であってもよい。
Hereinafter, embodiments will be described with reference to the drawings.
(First embodiment)
First, the configuration of the information processing system according to the first embodiment will be described with reference to FIG. The information processing system 1 is composed of a server computer (hereinafter, also referred to as a server) 10 and a plurality of client computers (hereinafter, also referred to as clients) 20, 30, and 40 that are mutually connected via a
図1に示すように、この並列分散学習処理では、クライアント20,30,40は、各々に割り当てられた学習データ21A,31A,41Aを用いて目的関数のパラメータ(例えば、重み係数)を更新し、その際の学習経過を示すデータをサーバ10に送信する。そして、サーバ10は、その学習経過を示すデータを利用して、サーバ10に格納されている目的関数のパラメータを更新し、更新されたパラメータをクライアント20,30,40に送信する。
As shown in FIG. 1, in this parallel distributed learning process, the
より具体的には、サーバ10は、例えば、クライアント20から送信された学習経過を示すデータを用いて、サーバ10上の目的関数のパラメータを更新し、その更新されたパラメータをクライアント20,30,40に送信する。また、サーバ10は、例えば、クライアント20から送信された学習経過を示すデータとクライアント30から送信された学習経過を示すデータとを用いて、サーバ10上の目的関数のパラメータを更新し、その更新されたパラメータをクライアント20,30,40に送信する。
More specifically, the
これにより、各クライアントの学習経過が、情報処理システム1内の別のクライアントでも共有されることになるので、情報処理システム1全体での目的関数の最適化を効率的に進めることができる。 As a result, the learning progress of each client is shared by the other clients in the information processing system 1, so that the optimization of the objective function in the entire information processing system 1 can be efficiently advanced.
ところで、ディープラーニングでは、目的関数を最適化する手法として、例えば、確率的勾配降下法(stochastic gradient descent: SGD)が用いられる。このSGDでは、勾配ベクトルと称される最適解方向へのベクトルを用いて、目的関数の重み係数(以下、重みベクトルとも称する)が更新される。SGDにおける現在の状態を示す重みベクトル、勾配ベクトル及び学習係数をそれぞれW(t)、∇W(t)、ε(t)とすると、更新後の重みベクトルW(t+1)は、以下の式(1)で表される。なお、以下では、重みべクトル、勾配ベクトルのそれぞれを、単に、重み、勾配とも称する。
W(t+1)=W(t)−ε(t)∇W(t) 式(1)
更新幅を決定する学習係数ε(t)は学習の進度に応じて適応的に決定され、例えば、学習の進度に応じて減衰する。近年では、SGDの最適化アルゴリズムとして、Adagrad、Adadelta、Adam等に代表される学習係数自動減衰アルゴリズムが用いられるケースが増加している。これらの学習係数自動減衰アルゴリズムでは、学習係数ε(t)は、勾配ベクトル∇W(t)に依存して減衰する。
By the way, in deep learning, for example, a stochastic gradient descent (SGD) is used as a method for optimizing an objective function. In this SGD, the weighting coefficient of the objective function (hereinafter, also referred to as weighting vector) is updated using a vector in the optimum solution direction called a gradient vector. If the weight vector indicating the current state in SGD, the gradient vector, and the learning coefficient are W (t) , ∇W (t) , and ε (t) , respectively, the updated weight vector W (t+1) is It is represented by formula (1). In the following, each of the weight vector and the gradient vector will be simply referred to as a weight and a gradient.
W (t+1) = W (t) −ε (t) ∇W (t) Equation (1)
The learning coefficient ε (t) that determines the update width is adaptively determined according to the progress of learning, and is attenuated according to the progress of learning, for example. In recent years, as a SGD optimization algorithm, cases in which a learning coefficient automatic attenuation algorithm represented by Adgrad, Adadelta, Adam, etc. are used are increasing. In these learning coefficient automatic decay algorithms, the learning coefficient ε (t) decays depending on the gradient vector ∇W (t) .
また、SGDによる目的関数の最適化を並列分散化した場合には、情報処理システム1内で共有される学習経過として勾配ベクトルが用いられることがある。このような並列分散学習の一例として、次の参考文献が挙げられる。
参考文献:Jeffrey Dean, Greg S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao, Marc’Aurelio Ranzato, Andrew Senior, Paul Tucker, Ke Yang, and Andrew Y. Ng, “Large Scale Distributed Deep Networks,” Advances in Neural Information Processing Systems 25, 2012.
When the optimization of the objective function by SGD is distributed in parallel, a gradient vector may be used as the learning process shared in the information processing system 1. As an example of such parallel distributed learning, there are the following references.
References: Jeffrey Dean, Greg S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao, Marc'Aurelio Ranzato, Andrew Senior, Paul Tucker, Ke Yang, and Andrew Y. Ng, “Large Scale Distributed Deep Networks,” Advances in Neural Information Processing Systems 25, 2012.
一般にディープラーニングにおける勾配ベクトルは非常に大きな次元(例えば、数百万)を有するので、情報処理システム1内で勾配ベクトルを共有するための通信コストも非常に高くなる。通信コストを抑制するために、例えば、クライアント20が目的関数の重み係数を複数回更新する間に、各々の更新で用いられた勾配をその複数回分足し合わせた勾配の和∇Wtransferを算出し、この勾配の和∇Wtransferをサーバ10に送信することによって、複数回の更新に対応する学習経過を一度に共有することが考えられる。その場合、サーバ10は、以下の式(2)に従って、勾配の和∇Wtransferを用いて、別のクライアント30,40の重み係数Wを更新する。
なお、サーバ10によって処理される、複数のクライアント20,30,40に対応する複数の重み係数Wは同一のものであってもよい。その場合、サーバ10は、複数のクライアント20,30,40に共通の重み係数W(マスタパラメータ)を保持し、各クライアント20,30,40による学習経過(勾配の和∇Wtransfer)を用いて、この共通の重み係数を更新する。サーバ10は、更新された重み係数Wをクライアント20,30,40に送信する。各クライアント20,30,40は、サーバから受信した重み係数Wで、そのクライアントで用いられる重み係数Wを上書きする。これにより、クライアント20,30,40は、各クライアント20,30,40による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。
Note that the plurality of weighting factors W corresponding to the plurality of
しかし、クライアント20が複数の勾配∇Wの各々を用いて重み係数Wを更新するのに対して、サーバ10は勾配の和∇Wtransferを用いて重み係数Wを更新するので、クライアント20上で更新される重み係数Wとサーバ10上で更新される重み係数Wとでは、処理工程(処理ステップ数)の差が生じることになる。
However, while the
図2は、重み係数の更新に用いられる勾配の一例を示す。この例では、あるクライアント(例えば、第1クライアント20)からサーバ10に、当該クライアントで算出された複数の勾配511,512,513,514の和52が送信される。そして、サーバ10は、この勾配の和52を用いて、別のクライアント(例えば、第2クライアント30)の重み係数を更新する。
FIG. 2 shows an example of the gradient used for updating the weighting factor. In this example, the
図2に示す例では、送信側のクライアントが四つの勾配511,512,513,514を用いて重み係数を更新するのに対して、サーバ10は一つの勾配(勾配の和)52を用いて、別のクライアントの重み係数を更新する。換言すると、送信側のクライアントが式(1)に基づく重み係数の更新処理を4回実行しているのに対して、サーバ10は式(2)に基づく重み係数の更新処理を1回実行している。式(1)及び式(2)に含まれる学習係数εは、上述したように学習の進度に応じて適応的に決定される(例えば、勾配に依存して減衰する)。したがって、四つの勾配511,512,513,514を用いた重み係数の更新処理と、一つの勾配(勾配の和)52を用いた重み係数の更新処理とでは、処理工程に差が生じることになる。これによって、送信側のクライアントによる学習経過が、サーバ10での別のクライアントの重み係数の更新に十分に反映されない、すなわち、情報処理システム1内で学習経過が十分に共有されない可能性がある。
In the example shown in FIG. 2, the client on the transmitting side uses four
このような処理工程の差を低減するために、本実施形態では、各クライアント20,30,40からサーバ10に、複数の勾配の和だけでなく、この複数の勾配の和の算出に用いられた複数の勾配の数を特定可能な情報も送信する。この複数の勾配の数は、複数の勾配の和が算出される間に重み係数が更新された回数に対応する。なお、複数の勾配の数を特定可能な情報は、複数の勾配の数を特定できればどのような情報であってもよく、例えば数値(例:“4”)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。
In order to reduce such a difference in processing steps, in the present embodiment, the
図3は、本実施形態で重み係数の更新に用いられる勾配の一例を示す。この例では、あるクライアント(例えば、第1クライアント20)からサーバ10に、当該クライアントで算出された複数の勾配511,512,513,514の和52と、これら複数の勾配511,512,513,514の数N(ここでは、N=4)とが送信される。サーバ10は、この勾配の和52を勾配の数Nで除して得られたN個の勾配551,552,553,554を用いて、別のクライアント(例えば、第2クライアント30)の重み係数を更新する。
FIG. 3 shows an example of the gradient used for updating the weighting coefficient in this embodiment. In this example, from a certain client (for example, the first client 20) to the
図3に示す例では、送信側のクライアントが四つの勾配511,512,513,514を用いて重み係数を更新しているのと同様に、サーバ10も四つの勾配551,552,553,554を用いて、別のクライアントの重み係数を更新している。より具体的には、サーバ10は、次の式(3)を用いて別のクライアントの重み係数を更新する。
サーバ10は、送信側のクライアントによる四つの勾配511,512,513,514を用いた重み係数の更新を、四つの勾配551,552,553,554を用いた重み係数の更新で擬似的に再現することによって、処理工程の差を低減している。これにより、送信側のクライアントによる学習経過が、サーバ10での別のクライアントの重み係数の更新に十分に反映でき、したがって、情報処理システム1内で学習経過を十分に共有することができる。
The
また、勾配の数Nはスカラー量であるので、勾配の数Nを特定可能な情報は、非常に大きな次元(例えば、数百万)を有する勾配(勾配ベクトル)のデータに対して十分に小さなメタデータである。そのため、勾配の数Nをさらに送信することによって、通信コストにほとんど影響を与えることなく、送信側のクライアントとサーバ10とによる重み係数更新の処理工程の差を低減することができる。
Also, since the number N of gradients is a scalar quantity, the information that can identify the number N of gradients is sufficiently small for data of a gradient (gradient vector) having a very large dimension (for example, millions). It is metadata. Therefore, by further transmitting the number N of gradients, it is possible to reduce the difference in the processing steps for updating the weighting factor between the client on the transmission side and the
図4は、情報処理システム1内のサーバ10とクライアント20,30,40とによって、目的関数を基準とする並列分散学習処理で学習経過が共有される例を示す。
FIG. 4 shows an example in which the learning progress is shared by the
まず、第1クライアント20、第2クライアント30及び第3クライアント40は、サーバ10によって割り当てられた学習データを受信する(S11)。そして、各クライアント20,30,40は、受信した学習データを用いて、目的関数の重み係数WをN回(ここでは、3回)更新する(S12)。
First, the
次いで、各クライアント20,30,40は、それらN回の更新毎に算出されたN個の勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(S13)。サーバ10には、各クライアント20,30,40から送信された勾配の和∇Wtransferと勾配の数Nとを利用して、各クライアント20,30,40で用いられる目的関数の重み係数Wを更新する。そして、各クライアント20,30,40は、サーバ10から、更新された重み係数Wを受信する(S14)。
Next, each of the
同様にして、各クライアント20,30,40は、学習データを用いて、目的関数の重み係数WをN回更新し(S15)、勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(S16)。そして、各クライアント20,30,40は、サーバ10から、更新された重み係数Wを受信する(S17)。
Similarly, each of the
このように、各クライアント20,30,40は、例えば、予め規定された同期タイミングで(例えば、3回の更新毎に)、勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信し、サーバ10から更新された重み係数Wを受信する。これにより、情報処理システム1内で、各クライアント20,30,40による学習経過が共有され、情報処理システム1全体での目的関数の最適化を効率的に進めることができる。なお、この同期タイミングは、更新回数に限らず、例えば、前回、勾配の和∇Wtransferと勾配の数Nとを送信してからの経過時間に基づいて決定されてもよい。また、クライアント20,30,40は、別々のタイミングで、勾配の和∇Wtransferと勾配の数Nとを送信するようにしてもよい。
In this way, each of the
次いで、図5は、サーバ10のシステム構成の例を示す。サーバ10は、CPU101、システムコントローラ102、主メモリ103、BIOS−ROM104、不揮発性メモリ105、通信デバイス106、エンベデッドコントローラ(EC)107、等を備える。
Next, FIG. 5 shows an example of the system configuration of the
CPU101は、サーバ10内の様々なコンポーネントの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ105から主メモリ103にロードされる様々なプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)201、及び様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、並列分散学習サーバプログラム202が含まれている。この並列分散学習サーバプログラム202は、例えば、クライアント20,30,40に学習データを割り当てる機能、クライアント20,30,40から学習経過を受信する機能、学習経過を用いて更新された目的関数のパラメータをクライアント20,30,40に送信する機能、等を有している。
The
また、CPU101は、BIOS−ROM104に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
The
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。
The
通信デバイス106は、有線又は無線による通信を実行するように構成されたデバイスである。通信デバイス106は、信号を送信する送信部と、信号を受信する受信部とを含む。EC107は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC107は、ユーザによるパワーボタンの操作に応じてサーバ10を電源オン又は電源オフする機能を有している。
The
また、図6は、クライアント20,30,40のシステム構成の例を示す。クライアント20,30,40は、CPU301、システムコントローラ302、主メモリ303、BIOS−ROM304、不揮発性メモリ305、通信デバイス306、エンベデッドコントローラ(EC)307、等を備える。
Further, FIG. 6 shows an example of a system configuration of the
CPU301は、クライアント20,30,40内の様々なコンポーネントの動作を制御するプロセッサである。CPU301は、ストレージデバイスである不揮発性メモリ305から主メモリ303にロードされる様々なプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)401、及び様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、並列分散学習クライアントプログラム402が含まれている。この並列分散学習クライアントプログラム402は、例えば、目的関数のパラメータを更新する機能、学習経過をサーバ10に送信する機能、サーバ10によって更新された目的関数のパラメータを受信する機能、等を有している。
The
また、CPU301は、BIOS−ROM304に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
The
システムコントローラ302は、CPU301のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ302には、主メモリ303をアクセス制御するメモリコントローラも内蔵されている。
The
通信デバイス306は、有線又は無線による通信を実行するように構成されたデバイスである。通信デバイス306は、信号を送信する送信部と、信号を受信する受信部とを含む。EC307は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC307は、ユーザによるパワーボタンの操作に応じてクライアント20,30,40を電源オン又は電源オフする機能を有している。
The
図7は、サーバ10によって実行される並列分散学習サーバプログラム202と、クライアント20,30,40によって実行される並列分散学習クライアントプログラム402との機能構成の一例を示す。サーバ10とクライアント20,30,40とは、例えば、ディープラーニングによる目的関数を基準とする並列分散学習処理を実行する。ここでは、説明を分かりやすくするために、情報処理システム1において、第1クライアント20が学習経過を示すデータをサーバ10に送信し、サーバ10がこのデータを用いて第2クライアント30の重み係数を更新し、その更新された重み係数を第2クライアント30に送信する場合を主に例示する。
FIG. 7 shows an example of the functional configuration of the parallel distributed learning
サーバ10上で実行される並列分散学習サーバプログラム202は、例えば、データ割当部12、送信制御部13、受信制御部14、及び算出部15を備える。また、サーバ10は、情報処理システム1内で用いられる学習データ11Aが格納される記憶媒体11(例えば、不揮発性メモリ105)を有している。
The parallel distributed learning
データ割当部12は、学習データ11Aの内、各クライアント20,30,40に割り当てられるデータを決定する。データ割当部12は、例えば、学習データ11Aを3つに分割し、分割されたデータのそれぞれを割り当てるクライアント20,30,40を決定する。
The
送信制御部13及び受信制御部14は、通信デバイス106を介して、各クライアント20,30,40との間でデータを送受信する機能を有する。送信制御部13は、データ割当部12によって割り当てられたデータを、各クライアント20,30,40に送信する。
The
受信制御部14は、各クライアント20,30,40から、各々のクライアント上での学習経過を示す複数の勾配の和とそれら複数の勾配の数を特定可能な情報とを受信する。受信制御部14は、例えば、第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bとそれら複数の勾配の数29Cを特定可能な情報とを受信する。
The
算出部15は、あるクライアントから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、別のクライアントに関連付けられた重み係数を更新する。送信制御部13は、算出部15によって更新された重み係数を、その重み係数が関連付けられたクライアントに送信する。より具体的には、例えば、算出部15は、受信制御部14を介して、第1クライアント20から複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを受信した場合、この複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて、第2クライアント30に関連付けられた重み係数19A(第2重み係数)を更新する。算出部15は、例えば、上述した式(3)に従って、複数の勾配の和29Bを複数の勾配の数29Cで除した値に、学習係数を掛けた値を用いて、第2クライアント30に関連付けられた重み係数19Aを更新する。なお、この学習係数は、例えば、複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて決定される。そして、送信制御部13は、更新された重み係数19Aを第2クライアント30に送信する。
The
また、第1クライアント20上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部22、算出部23及び送信制御部24を備える。受信制御部22及び送信制御部24は、通信デバイス306を介して、サーバ10との間でデータを送受信する機能を有する。
The parallel distributed learning
受信制御部22は、サーバ10によって割り当てられた学習データ21Aを受信し、この受信した学習データ21Aを記憶媒体21(例えば、不揮発性メモリ305)に格納する。
The
算出部23は、学習データ21Aを用いて、目的関数の重み係数29Aを更新する処理を繰り返し実行する。算出部23は、第1期間において、重み係数29Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和29Bを算出すると共に、積算された勾配の数29Cをカウントする。なお、この第1期間は、例えば、時間で規定されてもよいし、重み係数29Aが更新される回数で規定されてもよい。
The
送信制御部24は、第1期間が経過した場合、第1クライアント20による学習経過を示すデータをサーバ10に送信する。送信制御部24は、例えば、算出された勾配の和29Bと、カウントされた勾配の数29Cを特定可能な情報とをサーバ10に送信する。
When the first period has elapsed, the
また、第2クライアント30上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部32、算出部33及び送信制御部34を備える。受信制御部32及び送信制御部34は、通信デバイス306を介して、サーバ10との間でデータを送受信する機能を有する。
The parallel distributed learning
受信制御部32は、サーバ10によって割り当てられた学習データ31Aを受信し、この受信した学習データ31Aを記憶媒体31(例えば、不揮発性メモリ305)に格納する。
The
算出部33は、学習データ31Aを用いて、目的関数の重み係数39Aを更新する処理を繰り返し実行する。
The
また、受信制御部32は、サーバ10によって更新された重み係数19Aを受信する。この受信される重み係数19Aは、上述したように、第1クライアント20から送信された勾配の和29Bと勾配の数29Cとを用いて更新された重み係数19Aである。受信制御部32は、例えば、受信した重み係数19Aで、作業メモリ39に格納された重み係数39Aを置き換える。これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数39Aを用いて、並列分散学習処理を効率的に進めることができる。
Further, the
なお、算出部33は、第1期間において、重み係数39Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和39Bを算出すると共に、積算された勾配の数39Cをカウントしてもよい。
Note that the
また、送信制御部34は、第1期間が経過した場合、第2クライアント30による学習経過を示すデータをサーバ10に送信してもよい。送信制御部34は、例えば、算出された勾配の和39Bと、カウントされた勾配の数39Cを特定可能な情報とをサーバ10に送信してもよい。
Further, the
その場合、サーバ10の算出部15及び送信制御部13は、これら勾配の和39Bと勾配の数39Cとを用いて、第1クライアント20に関連付けられた重み係数を更新し、更新された重み係数を第1クライアント20に送信することもできる。第1クライアント20の受信制御部22は、サーバ10によって更新された重み係数を受信する。受信制御部22は、例えば、受信した重み係数で、作業メモリ29に格納された重み係数29Aを置き換える。これにより、第1クライアント20は、第2クライアント30による学習経過が反映された重み係数29Aを用いて、並列分散学習処理を効率的に進めることができる。
In that case, the
なお、情報処理システム1では、サーバ10上に保持され、全てのクライアント20,30,40で共通した重み係数W(マスタパラメータ)を用いることもできる。その場合、サーバ10の算出部15は、クライアント20,30,40の少なくともいずれか1つから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、上述した方法で、サーバ10上の重み係数W(マスタパラメータ)を更新する。そして、送信制御部13は、更新された重み係数Wを各クライアント20,30,40に送信する。例えば、第1クライアントの受信制御部22は、サーバ10によって更新された重み係数Wを受信し、受信した重み係数Wで作業メモリ29に格納された重み係数29Aを置き換える。同様に、第2クライアント30の受信制御部32は、サーバ10によって更新された重み係数Wを受信し、受信した重み係数Wで作業メモリ39に格納された重み係数39Aを置き換える。これにより、第1クライアント20及び第2クライアント30は、クライアント20,30,40による学習経過が反映された重み係数29A,39Aを用いて、並列分散学習処理を効率的に進めることができる。
In the information processing system 1, the weighting coefficient W (master parameter) held on the
情報処理システム1には、第1クライアント20及び第2クライアント30に限らず、3台以上のクライアントを設けることができ、各クライアントは、上述した第1クライアント20及び第2クライアント30と同様の構成を有する。したがって、情報処理システム1では、あるクライアントによる学習経過を別の複数のクライアントの重み係数の更新に反映することができ、また複数のクライアントによる複数の学習経過を別の一つのクライアントの重み係数の更新に反映することもできる。
The information processing system 1 is not limited to the
なお、上述した構成では、複数の勾配の和だけでなく複数の勾配の数Nを特定可能な情報もクライアント20からサーバ10に送信される例を示したが、この勾配の数Nの代わりに、クライアント20で算出された複数の勾配(勾配ベクトル)の大小関係を特定可能な情報がサーバ10に送信されるようにしてもよい。この複数の勾配の大小関係を特定可能な情報は、複数の勾配の大小関係を特定できればどのような情報であってもよく、例えば、数値(例えば、複数の勾配の各々の大きさの比を表すN次元のベクトル)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。
In the above-described configuration, an example in which not only the sum of a plurality of gradients but also information capable of specifying the number N of a plurality of gradients is transmitted from the
例えば、目的関数が凸関数である場合、SGDにより最適化を進めることにより得られる勾配ベクトルの大きさは徐々に小さくなる。そのため、クライアント20は、勾配の数Nに代わるメタデータとして、N個の勾配(勾配ベクトル)の各々の大きさの比を表すN次元のベクトルを送信することもできる。また、N次元のベクトルも、勾配ベクトルが有する非常に大きな次元(例えば、数百万)と比較すると十分に小さいと云える。
For example, when the objective function is a convex function, the magnitude of the gradient vector obtained by advancing the optimization by SGD gradually decreases. Therefore, the
サーバ10の受信制御部14は、例えば、第1クライアント20から、複数の勾配の和29Bと、これら複数の勾配の大小関係を特定可能な情報とを受信する。そして、算出部15は、複数の勾配の和29Bと、複数の勾配の大小関係を特定可能な情報とを用いて、例えば、勾配の和29Bが、複数の勾配の大小関係(例えば、N次元ベクトルによって表される大きさの比)に基づいて分割された複数の勾配を算出する。算出部15は、算出された複数の勾配を用いて、例えば、第2クライアント30に関連付けられた重み係数19Aを更新する。そして、送信制御部13は、更新された重み係数19Aを第2クライアント30に送信する。これにより、送信側の第1クライアント20による学習経過を第2クライアント30の重み係数の更新に、より反映させることができる。
The
次いで、図8から図11のフローチャートを参照して、並列分散学習処理の手順の例を示す。図8及び図9のフローチャートが、勾配の和だけが送受信される場合の処理を示すのに対して、図10及び図11のフローチャートは、勾配の和と勾配の数とが送受信される本実施形態の処理を示している。以下では、目的関数の最適化に用いられる学習データが、サーバからクライアントに対して既に割り当てられている場合を例示する。 Next, an example of the procedure of parallel distributed learning processing will be described with reference to the flowcharts of FIGS. The flowcharts of FIGS. 8 and 9 show the processing when only the sum of the gradients is transmitted and received, whereas the flowcharts of FIGS. 10 and 11 show that the sum of the gradients and the number of the gradients are transmitted and received. The processing of form is shown. Below, the case where the learning data used for the optimization of the objective function is already allocated from the server to the client is illustrated.
まず、図8のフローチャートは、勾配の和を送信するクライアントによって実行される処理の手順を示す。
クライアントのCPUは、勾配の和を送信するための∇Wtransferを初期化する(ブロックB11)、すなわち、∇Wtransferに0を設定する。CPUは、送信される勾配の数Nに応じて、N回、ブロックB13からブロックB14までの手順を実行する(ブロックB12)。より具体的には、CPUは、目的関数の重みWを更新する(ブロックB13)。そして、CPUは、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB14)。
First, the flowchart of FIG. 8 shows the procedure of the process executed by the client that transmits the sum of gradients.
The CPU of the client initializes ∇W transfer for transmitting the gradient sum (block B11), that is, sets ∇W transfer to 0. The CPU executes the procedure from block B13 to block B14 N times according to the number N of gradients transmitted (block B12). More specifically, the CPU updates the weight W of the objective function (block B13). Then, the CPU adds the gradient ∇W calculated when updating the weight W to the gradient sum ∇W transfer (block B14).
勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPUは勾配の和∇Wtransferをサーバに送信する(ブロックB15)。また、CPUは、他のクライアントによる学習経過を示す勾配の和∇Wtransferを用いて更新された重みWをサーバ10から受信する(ブロックB16)。そして、CPU301は、受信した重みWで、第1クライアント20で用いられる目的関数の重みWを上書きする(ブロックB17)。
After the gradient ∇W is added N times to the gradient sum ∇W transfer , that is, after the weight W is updated N times, the CPU transmits the gradient sum ∇W transfer to the server (block B15). Further, the CPU receives the weight W updated using the sum ∇W transfer of the gradients indicating the learning progress by other clients from the server 10 (block B16). Then, the
図9のフローチャートは、勾配の和を受信するサーバによって実行される処理の手順を示す。
まず、サーバのCPUは、クライアントから勾配の和∇Wtransferを受信したか否かを判定する(ブロックB21)。クライアントから勾配の和∇Wtransferを受信していない場合(ブロックB21のNO)、ブロックB22の手順に戻る。
The flowchart of FIG. 9 shows a procedure of processing executed by the server which receives the sum of gradients.
First, the server CPU determines whether or not the gradient sum ∇W transfer has been received from the client (block B21). When the sum of gradients ∇W transfer is not received from the client (NO in block B21), the procedure returns to block B22.
クライアントから勾配の和∇Wtransferを受信した場合(ブロックB21のYES)、CPUは、この勾配の和∇Wtransferを送信したクライアント以外のクライアントの内、重みWを更新する対象のクライアントを選択する(ブロックB22)。そして、CPUは、対象のクライアントに関連付けられた重みW(すなわち、対象のクライアント上で更新された重みW)を、受信した勾配の和∇Wtransferを用いて更新し(ブロックB23)、その更新された重みWをその対象のクライアントに送信する(ブロックB24)。 When the sum of gradients ∇W transfer is received from the client (YES in block B21), the CPU selects the client whose weight W is to be updated among the clients other than the client that transmitted the sum of gradients ∇W transfer. (Block B22). Then, the CPU updates the weight W associated with the target client (that is, the weight W updated on the target client) using the received gradient sum ∇W transfer (block B23), and the update. The calculated weight W is transmitted to the target client (block B24).
次いで、CPUは、重みWを更新すべき別のクライアントがあるか否かを判定する(ブロックB25)。別のクライアントがある場合(ブロックB25のYES)、ブロックB22に戻り、その別のクライアントに関連付けられた重みWを更新するための手順が実行される。別のクライアントがない場合(ブロックB25のNO)、ブロックB21の手順に戻る。 Then, the CPU determines whether there is another client whose weight W should be updated (block B25). If there is another client (YES in block B25), return to block B22 and the procedure for updating the weight W associated with that other client is performed. If there is no other client (NO in block B25), the process returns to block B21.
次いで、図10のフローチャートを参照して、勾配の和と勾配の数とを送信する第1クライアント20によって実行される処理の手順を説明する。
まず、第1クライアント20のCPU301は、勾配の和を送信するための∇Wtransferを初期化する(ブロックB31)、すなわち、∇Wtransferに0を設定する。CPU301は、送信される勾配の数Nに応じて、N回、ブロックB33からブロックB34までの手順を実行する(ブロックB32)。より具体的には、CPU301は、学習データ21Aを用いて目的関数の重みWを更新する(ブロックB33)。そして、CPU301は、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB34)。
Next, a procedure of processing executed by the
First, the
勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPU301は勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(ブロックB35)。また、CPU301は、クライアント20,30,40による学習経過を示す勾配の和∇Wtransferと勾配の数Nとを用いて更新された重みWをサーバ10から受信する(ブロックB36)。そして、CPU301は、受信した重みWで、第1クライアント20で用いられる目的関数の重みWを上書きする(ブロックB37)。
After the gradient ∇W is added N times to the gradient sum ∇W transfer , that is, after the weight W is updated N times, the
また、図11のフローチャートを参照して、勾配の和と勾配の数とを受信するサーバ10によって実行される処理の手順を説明する。
まず、サーバ10のCPU101は、クライアント20,30,40の少なくともいずれかから勾配の和∇Wtransferと勾配の数Nとを受信したか否かを判定する(ブロックB401)。いずれのクライアント20,30,40からも勾配の和∇Wtransferと勾配の数Nとを受信していない場合(ブロックB401のNO)、ブロックB401の手順に戻る。
The procedure of the process executed by the
First, the
クライアント20,30,40の少なくともいずれかから勾配の和∇Wtransferと勾配の数Nとを受信した場合(ブロックB401のYES)、CPU101は、これら勾配の和∇Wtransferと勾配の数Nの送信元のクライアント以外のクライアントから、重みWを更新する対象のクライアントを選択する(ブロックB402)。CPU101は、例えば、第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信した場合、第2クライアント30と第3クライアント40のいずれか一方を、重みWを更新する対象のクライアントとして選択する。
When the gradient sum ∇W transfer and the gradient number N are received from at least one of the
次いで、CPU101は、更新のための勾配∇Wupdateを初期化する(ブロックB403)、すなわち、∇Wupdateに0を設定する。また、CPU101は、ブロックB405からブロックB408までの繰り返し処理に用いられる変数iに1を設定する(ブロックB404)。CPU101は、変数iが勾配の数N以下である間、ブロックB406からブロックB408までの手順を繰り返す(ブロックB405)。より具体的には、CPU101は学習係数εiを算出する(ブロックB406)。CPU101は、例えば、学習の進度に対応する変数iと、勾配の和∇Wtransferを勾配の数Nで除した値である勾配の平均値∇Wtransfer/Nとを用いて、学習係数εiを算出する。CPU101は、更新のための勾配∇Wupdateに、学習係数εiと∇Wtransfer/Nとを乗じた値を加算する(ブロックB407)。CPU101は、変数iに1を加算する(ブロックB409)。そして、変数iがN以下であるならば、ブロックB406の手順に戻る。
Next, the
一方、変数iがNより大きいならば、CPU101は、対象のクライアントに関連付けられた重みWを、更新のための勾配∇Wupdateを用いて更新する(ブロックB409)。CPU101は、通信デバイス106を介して、その更新された重みWを対象のクライアントに送信する(ブロックB410)。
On the other hand, if the variable i is larger than N, the
次いで、CPU101は、重みWを更新すべき別のクライアントがあるか否かを判定する(ブロックB411)。別のクライアントがある場合(ブロックB411のYES)、ブロックB402に戻り、その別のクライアントに関連付けられた重みWを更新するための手順が実行される。別のクライアントがない場合(ブロックB411のNO)、ブロックB401の手順に戻る。
Next, the
なお、上述したように、情報処理システム1では、サーバ10上に保持され、全てのクライアント20,30,40で共通した重み係数W(マスタパラメータ)を用いることもできる。その場合、CPU101は、クライアント20,30,40の少なくともいずれか1つから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、ブロックB402の手順で重みWを更新する対象のクライアントを選択することなく、ブロックB403からブロックB409の手順において、サーバ10上の重み係数W(マスタパラメータ)を更新する。そして、CPU101は、ブロックB410において、更新された重み係数Wを各クライアント20,30,40に送信する。
As described above, in the information processing system 1, the weighting coefficient W (master parameter) held on the
また、CPU101は、複数のクライアントから受信した複数の勾配の和∇Wtransferと複数の勾配の数Nとを用いて、それら複数のクライアント以外のクライアントに関連付けられた重みWを更新してもよい。例えば、CPU101は、第1クライアント20から受信した勾配の和∇Wtransfer及び勾配の数Nと、第2クライアント30から受信した勾配の和∇Wtransfer及び勾配の数Nとを用いて、第3クライアント40に関連付けられた重みWを更新するようにしてもよい。その場合、CPU101は、第1クライアント20から受信した勾配の和∇Wtransferと、第2クライアント30から受信した勾配の和∇Wtransferとの総和を、勾配の和∇Wtransferとし、第1クライアント20から受信した勾配の数Nと第2クライアント30から受信した勾配の数Nとの和を、勾配の数Nとして、ブロックB403以降の手順を実行する。
Further, the
以上説明したように、本実施形態によれば、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。サーバ10の受信制御部14は、サーバ10及びクライアント20,30,40によって、ディープラーニングによる目的関数を基準とする並列分散学習処理が実行される場合に、第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを受信する。サーバ10の算出部15は、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて、目的関数の重み係数19A(第2重み係数)を更新する。
As described above, according to this embodiment, it is possible to efficiently execute parallel distributed learning processing while reducing communication costs. When the
これにより、第1クライアント20から受信した複数の勾配の和29Bだけでなく、通信コストが小さい複数の勾配の数29Cも用いて、目的関数の重み係数19Aが更新されるので、第1クライアント20による学習経過を十分に反映して重み係数19Aを更新することができる。したがって、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。
As a result, not only the
(第2実施形態)
図12を参照して、第2実施形態に係る情報処理システムの構成を説明する。この情報処理システム5は、ネットワーク50等を介して相互に接続された複数のクライアントコンピュータ(以下、クライアントとも称する)20,30,40によって構成される。情報処理システム5内のクライアント20,30,40は、例えば、大規模なデータを扱うディープラーニングにおいて目的関数を基準とする並列分散学習処理を実行する。この目的関数を基準とする並列分散学習処理とは、目的関数を学習結果のフィードバック(評価値)として用いて、複数の処理主体で学習されるものであればどのようなものであってもよく、例えば、目的関数を最適化するための並列分散学習処理である。クライアント20,30,40は、第1実施形態において図6を参照して上述したシステム構成を有する。図12では、情報処理システム5に3台のクライアント20,30,40が設けられる例を示したが、クライアントの数は2台であってもよいし、4台以上であってもよい。
(Second embodiment)
The configuration of the information processing system according to the second embodiment will be described with reference to FIG. The
図12に示すように、この並列分散学習処理では、クライアント20,30,40は、各々に割り当てられた学習データ21A,31A,41Aを用いて目的関数のパラメータ(例えば、重み係数)を更新し、その際の学習経過を示すデータを相互に送受信し得る。各クライアント20,30,40は、受信した学習経過を示すデータを利用して、各クライアント20,30,40の目的関数のパラメータをさらに更新する。
As shown in FIG. 12, in this parallel distributed learning process, the
より具体的には、例えば、クライアント20は、クライアント30から送信された学習経過を示すデータを用いて、クライアント20の目的関数のパラメータをさらに更新する。また、例えば、クライアント30は、クライアント20から送信された学習経過を示すデータと、クライアント40から送信された学習経過を示すデータとを用いて、クライアント30の目的関数のパラメータをさらに更新する。
More specifically, for example, the
これにより、各クライアントの学習経過が、情報処理システム5内の別のクライアントでも共有されることになるので、情報処理システム5全体での目的関数の最適化を効率的に進めることができる。
As a result, the learning progress of each client is shared by the other clients in the
第1実施形態でも述べたように、ディープラーニングでは、目的関数を最適化する手法として、例えば、確率的勾配降下法(SGD)が用いられる。このSGDでは、勾配ベクトルと称される最適解方向へのベクトルを用いて、目的関数の重み係数(重みベクトル)が更新される。SGDにおける現在の状態を示す重みベクトル、勾配ベクトル及び学習係数をそれぞれW(t)、∇W(t)、ε(t)とすると、更新後の重みベクトルW(t+1)は、以下の式(4)で表される。
W(t+1)=W(t)−ε(t)∇W(t) 式(4)
更新幅を決定する学習係数ε(t)は学習の進度に応じて適応的に決定され、例えば、学習の進度に応じて減衰する。近年では、SGDの最適化アルゴリズムとして、Adagrad、Adadelta、Adam等に代表される学習係数自動減衰アルゴリズムが用いられるケースが増加している。これらの学習係数自動減衰アルゴリズムでは、学習係数ε(t)は、勾配∇W(t)に依存して減衰する。
As described in the first embodiment, in deep learning, for example, the stochastic gradient descent method (SGD) is used as a method of optimizing the objective function. In this SGD, the weight coefficient (weight vector) of the objective function is updated using a vector in the optimal solution direction called a gradient vector. If the weight vector indicating the current state in SGD, the gradient vector, and the learning coefficient are W (t) , ∇W (t) , and ε (t) , respectively, the updated weight vector W (t+1) is It is expressed by equation (4).
W (t+1) = W (t) −ε (t) ∇W (t) Equation (4)
The learning coefficient ε (t) that determines the update width is adaptively determined according to the progress of learning, and is attenuated according to the progress of learning, for example. In recent years, as a SGD optimization algorithm, cases in which a learning coefficient automatic attenuation algorithm represented by Adgrad, Adadelta, Adam, etc. are used are increasing. In these learning coefficient automatic decay algorithms, the learning coefficient ε (t) decays depending on the gradient ∇W (t) .
また、SGDによる目的関数の最適化を並列分散化した場合には、情報処理システム5内で共有される学習経過として勾配ベクトルが用いられることがある。
When the optimization of the objective function by SGD is distributed in parallel, a gradient vector may be used as a learning process shared in the
しかし、一般にディープラーニングにおける勾配ベクトルは非常に大きな次元(例えば、数百万)を有するので、情報処理システム5内で勾配ベクトルを共有するための通信コストも非常に高くなる。通信コストを減少させるために、例えば、第1クライアント20が目的関数の重み係数を複数回更新する間に、各々の更新で用いられた勾配を複数回分足し合わせた勾配の和∇Wtransferを算出し、この勾配の和∇Wtransferを第2クライアント30に送信することが考えられる。その場合、第2クライアント30は、以下の式(5)に従って、受信した勾配の和∇Wtransferと、第2クライアント30上で算出された勾配∇Wlocalとを用いて、重み係数Wを更新する。
これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。
As a result, the
しかし、第1クライアント20が複数の勾配∇Wの各々を用いて重み係数Wを更新するのに対して、第2クライアント30は、受信した勾配の和∇Wtransferを用いて重み係数Wを更新するので、第1クライアント20上で更新される重み係数Wと第2クライアント30上で更新される重み係数Wとでは、処理工程(処理ステップ数)の差が生じることになる。
However, while the
図13は、重み係数の更新に用いられる勾配の一例を示す。この例では、第1クライアント20から第2クライアント30に、第1クライアント20で算出された複数の勾配511,512,513,514の和52が送信される。そして、第2クライアント30は、この勾配の和52と第2クライアント30で算出された勾配53との和(すなわち、勾配の和52と勾配53との合成ベクトル)54を用いて、重み係数を更新する。
FIG. 13 shows an example of the gradient used for updating the weighting factor. In this example, the
図13に示す例では、第1クライアント20が四つの勾配511,512,513,514を用いて重み係数を更新しているのに対して、第2クライアント30は一つの勾配(勾配の和)54を用いて重み係数を更新している。換言すると、第1クライアント20が式(4)に基づく重み係数の更新処理を4回実行しているのに対して、サーバ10は式(5)に基づく重み係数の更新処理を1回実行している。式(4)及び式(5)に含まれる学習係数εは、学習の進度に応じて適応的に決定される(例えば、勾配に依存して減衰する)。したがって、四つの勾配511,512,513,514を用いた重み係数の更新処理と、一つの勾配(勾配の和)54を用いた重み係数の更新処理とでは、処理工程の差が生じることになる。これによって、送信側の第1クライアント20による学習経過が、第2クライアント30での重み係数の更新に十分に反映されない、すなわち、情報処理システム5内で学習経過が十分に共有されない可能性がある。
In the example shown in FIG. 13, the
このような処理工程の差を低減するために、本実施形態では、各クライアント20,30,40間で、複数の勾配の和だけでなく、この複数の勾配の和の算出に用いられた複数の勾配の数を特定可能な情報も送信するこの複数の勾配の数を特定可能な情報は、複数の勾配の数を特定できればどのような情報であってもよく、例えば数値(例:“4”)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。
In order to reduce such a difference in processing steps, in the present embodiment, not only the sum of a plurality of gradients among the
図14は、本実施形態で重み係数の更新に用いられる勾配の一例を示す。この例では、第1クライアント20から第2クライアント30に、第1クライアント20で算出された複数の勾配511,512,513,514の和52と、これら複数の勾配511,512,513,514の数N(ここでは、N=4)とが送信される。第2クライアント30は、この第2クライアント30自体で算出された勾配53だけでなく、受信した勾配の和52を勾配の数Nで除して得られたN個の勾配551,552,553,554も用いて、第2クライアント30の重み係数を更新する。
FIG. 14 shows an example of the gradient used for updating the weighting coefficient in this embodiment. In this example, the
図14に示す例では、第1クライアント20が四つの勾配511,512,513,514を用いて重み係数を更新しているのに対して、第2クライアント30は、四つの勾配551,552,553,554と、この第2クライアント30自体で算出された勾配53とを用いて重み係数を更新している。より具体的には、第2クライアント30は、次の式(6)を用いて第2クライアント30の重み係数を更新する。
第2クライアント30は、送信側の第1クライアント20による四つの勾配511,512,513,514を用いた重み係数の更新を、四つの勾配551,552,553,554を用いた重み係数の更新で擬似的に再現することによって、処理工程の差を低減している。これにより、送信側の第1クライアント20による学習経過が、第2クライアント30での重み係数の更新に十分に反映でき、したがって、情報処理システム5内で学習経過を十分に共有することができる。
The
また、勾配の数Nはスカラー量であるので、勾配の数Nを特定可能な情報は、非常に大きな次元(例えば、数百万)を有する勾配(勾配ベクトル)のデータに対して十分に小さなメタデータである。そのため、勾配の数Nをさらに送信することによって、通信コストにほとんど影響を与えることなく、クライアント20,30,40間での重み係数更新の処理工程の差を低減することができる。
Also, since the number N of gradients is a scalar quantity, information that can identify the number N of gradients is sufficiently small for data of a gradient (gradient vector) having a very large dimension (for example, millions). It is metadata. Therefore, by further transmitting the number N of gradients, it is possible to reduce the difference in the processing steps of updating the weighting factors among the
図15は、情報処理システム5内のクライアント20,30,40によって、目的関数を基準とする並列分散学習処理で学習経過が共有される例を示す。以下では、各クライアント20,30,40に学習データ21A,31A,41Aが既に割り当てられている場合を想定する。各クライアント20,30,40は、割り当てられた学習データを用いて、目的関数の重み係数Wを繰り返し更新する。
FIG. 15 shows an example in which the learning progress is shared by the parallel distributed learning processing using the objective function as a reference by the
図15に示す例では、第1クライアント20は、割り当てられた学習データ21Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和∇Wtransferを算出する(S21)。そして、第1クライアント20は、算出された勾配の和∇Wtransferと勾配の数とを示すデータ(∇Wtransfer, 4)を第2クライアント30に送信する(S22)。
In the example illustrated in FIG. 15, the
次いで、第2クライアント30は、このデータ(∇Wtransfer, 4)を受信し、勾配の和∇Wtransfer及び勾配の数と、第2クライアント30上で算出された勾配∇Wlocalとを用いて、第2クライアント30の重み係数Wを更新する(S23)。
Then, the
同様にして、各クライアント20,30,40は、学習データを用いて、目的関数の重み係数WをN回更新し、勾配の和∇Wtransferと勾配の数Nとを示すデータを別のクライアント20,30,40に送信することができる。そして、各クライアント20,30,40は、別のクライアント20,30,40から受信した勾配の和∇Wtransfer及び勾配の数Nと、そのクライアント自体で算出した勾配∇Wlocalとを用いて、重み係数Wを更新することができる。
Similarly, each of the
このように、各クライアント20,30,40は、例えば、予め規定されたタイミングで(例えば、4回の更新毎に)、勾配の和∇Wtransferと勾配の数Nとを、予め規定された別のクライアント20,30,40に送信し得る。これにより、情報処理システム5内で、各クライアント20,30,40による学習経過が共有され、情報処理システム5全体での目的関数の最適化を効率的に進めることができる。なお、この送信タイミングは、更新回数に限らず、例えば、前回、勾配の和∇Wtransferと勾配の数Nとが送信されてからの経過時間に基づいて決定されてもよい。
In this way, each
また、図16は、情報処理システム5内のクライアント20,30,40によって、目的関数を基準とする並列分散学習処理で学習経過が共有される別の例を示す。各クライアント20,30,40は、割り当てられた学習データ21A,31A,41Aを用いて、目的関数の重み係数Wを繰り返し更新する。
16 shows another example in which the learning progress is shared by the parallel distributed learning processing using the objective function as a reference by the
図16に示す例では、第3クライアント40は、割り当てられた学習データ41Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和∇Wt1を算出する(S31)。そして、第3クライアント40は、算出された勾配の和∇Wt1と勾配の数とを示すデータ(∇Wt1, 4)を第1クライアント30に送信する(S32)。第1クライアント20は、第3クライアント40によって送信されたデータ(∇Wt1, 4)を受信する。
In the example shown in FIG. 16, the
また、第1クライアント20は、割り当てられた学習データ21Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和を算出している(S33)。第1クライアント20は、この算出した勾配の和と第3クライアント40から受信した勾配の和∇Wt1との総和∇Wt2を算出し、さらに、受信した勾配の数(=4)と、第1クライアント20上で算出した勾配の数(=4)との和(=8)を算出し、算出された勾配の総和と勾配の数の和とを示すデータ(∇Wt2, 8)を第2クライアント30に送信する(S34)。第2クライアント30は、第1クライアント20によって送信されたデータ(∇Wt2, 8)を受信する。なお、第1クライアント20は、第3クライアント40から受信したデータ(∇Wt1, 4)と、第1クライアント20上で、例えば直前に算出された勾配とを用いて、上述した式(6)に従って、第1クライアント20の重み係数Wを更新するようにしてもよい。
Further, the
また、第2クライアント30は、割り当てられた学習データ31Aを用いて、重み係数Wを6回更新し、その6回の更新毎に算出された6個の勾配の和を算出している(S35)。第2クライアント30は、この算出した勾配の和と第1クライアント20から受信した勾配の和∇Wt2との総和∇Wt3を算出し、さらに、受信した勾配の数(=8)と、第2クライアント30上で算出した勾配の数(=6)との和(=14)を算出し、算出された勾配の総和と勾配の数の和とを示すデータ(∇Wt3, 14)を第3クライアント40に送信する(S36)。第3クライアント40は、第2クライアント30によって送信されたデータ(∇Wt3, 14)を受信する。なお、第2クライアント30は、第1クライアント20から受信したデータ(∇Wt2, 8)と、第2クライアント30上で、例えば直前に算出された勾配とを用いて、上述した式(6)に従って、第2クライアント30の重み係数Wを更新するようにしてもよい。
Further, the
次いで、第3クライアント40は、第2クライアント30から受信したデータ(∇Wt3, 14)と、第3クライアント40上で、例えば直前に算出された勾配∇Wlocalとを用いて、第3クライアント40の重み係数Wを更新する(S37)。より具体的には、第3クライアント40は、受信したデータ(∇Wt3, 14)と、S31においてこの第3クライアント40上で算出されたデータ(∇Wt1, 4)とを用いて、第3クライアント40で共有すべき勾配の和と勾配の数とを算出する。すなわち、第3クライアント40は、受信した勾配の総和∇Wt3から、第3クライアント40自体で算出された勾配の和∇Wt1を引いた値(∇Wt3−∇Wt1)を第3クライアント40で共有すべき勾配の和として算出する。また、第3クライアント40は、受信した勾配の数(=14)から、第3クライアント40自体で算出された勾配の数(=4)を引いた値(=10)を第3クライアント40で共有すべき勾配の数として算出する。第3クライアント40は、算出された勾配の和(∇Wt3−∇Wt1)と勾配の数(=10)と、第3クライアント40上で直前に算出された勾配∇Wlocalとを用いて、上述した式(6)に従って第3クライアント40の重み係数Wを更新する。
Then, the
このように、各クライアント20,30,40は、別のクライアントから受信した勾配の和と勾配の数とに、そのクライアント自体で算出した勾配の和と勾配の数とをそれぞれ加算し、加算結果である勾配の総和と勾配の数の和とをさらに別のクライアントに送信することができる。各クライアント20,30,40は、受信した勾配の総和と勾配の数の和と、そのクライアント自体で算出した勾配∇Wlocalとを用いて、重み係数Wを更新することができる。なお、各クライアント20,30,40は、受信した勾配の総和と勾配の数の和とに、そのクライアント自体で算出した勾配の和と勾配の数とがそれぞれ含まれている場合には、それらを引いた値を用いて、重み係数Wを更新することができる。
In this way, each
図17は、第1クライアント20と第2クライアント30とによってそれぞれ実行される並列分散学習クライアントプログラム402の機能構成の一例を示す。第1クライアント20と第2クライアント30とは、例えば、ディープラーニングによる目的関数を基準とする並列分散学習処理を実行する。ここでは、説明を分かりやすくするために、情報処理システム5において、第1クライアント20が学習経過を示すデータを第2クライアント30に送信し、第2クライアント30がこの学習経過を用いて重み係数を更新する場合を主に例示する。
FIG. 17 shows an example of the functional configuration of the parallel distributed learning
第1クライアント20上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部22、算出部23及び送信制御部24を備える。第1クライアント20に設けられた記憶媒体21(例えば、不揮発性メモリ305)には、第1クライアント20に割り当てられた学習データ21Aが格納されている。
The parallel distributed learning
算出部23は、学習データ21Aを用いて、目的関数の重み係数29A(第1重み係数)を更新する処理を繰り返し実行する。算出部23は、第1期間において、重み係数29Aが更新される毎に、その更新時に算出された勾配を積算することによって、複数の勾配の和29Bを算出すると共に、積算された複数の勾配の数29Cをカウントする。なお、第1期間は、例えば、時間で規定されてもよいし、重み係数29Aが更新される回数で規定されてもよい。
The
受信制御部22及び送信制御部24は、通信デバイス306を介して、第2クライアント30との間でデータを送受信する機能を有する。
The
送信制御部24は、第1期間が経過した場合、第1クライアント20による学習経過を示すデータを第2クライアント30に送信する。送信制御部24は、例えば、算出された複数の勾配の和29Bと、カウントされた複数の勾配の数29Cを特定可能な情報とを第2クライアント30に送信する。
When the first period has elapsed, the
また、第2クライアント30上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部32、算出部33及び送信制御部34を備える。第2クライアント30に設けられた記憶媒体31(例えば、不揮発性メモリ305)には、第2クライアント30に割り当てられた学習データ31Aが格納されている。
The parallel distributed learning
算出部33は、学習データ31Aを用いて、目的関数の重み係数39Aを更新する処理を繰り返し実行する。
The
受信制御部32及び送信制御部34は、通信デバイス306を介して、第1クライアント20との間でデータを送受信する機能を有する。
The
受信制御部32は、第1クライアント20から、学習経過を示す複数の勾配の和29Bと、それら複数の勾配の数29Cを特定可能な情報とを受信する。
The
算出部33は、第1クライアント20から受信した複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて、第2クライアント30の重み係数39Aを更新する。算出部33は、例えば、上述した式(6)に従って、複数の勾配の和29Bを複数の勾配の数29Cで除した値に、学習係数を掛けた値を用いて、第2クライアント30の重み係数39Aを更新する。なお、この学習係数は、例えば、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて決定される。これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数39Aを用いて、並列分散学習処理を効率的に進めることができる。
The
なお、算出部33は、第1期間において、重み係数39Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和39Bを算出すると共に、積算された勾配の数39Cをカウントしてもよい。
Note that the
また、送信制御部34は、第1期間が経過した場合、第2クライアント30による学習経過を示すデータを第1クライアント20に送信してもよい。送信制御部34は、例えば、算出された勾配の和39Bと、カウントされた勾配の数39Cを特定可能な情報とを第1クライアント20に送信してもよい。
Further, the
その場合、第1クライアント20の算出部23は、これら勾配の和39Bと勾配の数39Cとを用いて、第1クライアント20の重み係数29Aを更新することができる。これにより、第1クライアント20は、第2クライアント30による学習経過が反映された重み係数29Aを用いて、並列分散学習処理を効率的に進めることができる。
In that case, the
なお、上述した構成では、勾配の和だけでなく勾配の数Nも含む学習経過が第1クライアント20から第2クライアント30に送信される例を示したが、この勾配の数Nの代わりに、第1クライアント20で算出されたN個の勾配(勾配ベクトル)の大きさの比を表すN次元のベクトルが第2クライアント30に送信されるようにしてもよい。
In the above-described configuration, the example in which the learning progress including not only the sum of the gradients but also the number N of gradients is transmitted from the
第2クライアント30の受信制御部32は、例えば、第1クライアント20から、複数の勾配の和29Bと、これら複数の勾配の各々の大きさの比を表すベクトルとを受信する。そして、算出部33は、複数の勾配の和29Bと、複数の勾配の各々の大きさの比を表すベクトルとを用いて、例えば、勾配の和29Bが、ベクトルによって表される大きさの比に基づいて分割された複数の勾配を算出する。算出部33は、算出された複数の勾配を用いて重み係数39Aを更新する。これにより、送信側の第1クライアント20による学習経過を第2クライアント30の重み係数39Aの更新に、より反映させることができる。
The
また、情報処理システム5には、第1クライアント20及び第2クライアント30に限らず、3台以上のクライアントを設けることができ、各クライアントは、上述した第1クライアント20及び第2クライアント30と同様の構成を有する。したがって、情報処理システム5では、あるクライアントによる学習経過を別の複数のクライアントの重み係数の更新に反映することができる。
The
さらに、情報処理システム5では、複数のクライアントによる複数の学習経過を別の一つのクライアントの重み係数の更新に反映することもできる。
Further, in the
例えば、第1クライアント20が、第3クライアント40から、この第3クライアント40によって目的関数の重み係数(第3重み係数)を更新するために算出された複数の第1の勾配の和と、複数の第1の勾配の数を特定可能な情報とを受信した場合を想定する。この場合、第1クライアント20の送信制御部24は、複数の第1の勾配の和と、算出部23によって重み係数29A(第1重み係数)を更新するために算出された複数の第2の勾配の和29Bとの総和と、複数の第1の勾配の数と複数の第2の勾配の数29Cとの和を特定可能な情報とを、第2クライアント30に送信する。
For example, the
第2クライアント30の受信制御部32は、複数の第1の勾配の和と複数の第2の勾配の和29Bとの総和と、複数の第1の勾配の数と複数の第2の勾配の数29Cとの和を特定可能な情報とを受信する。そして、算出部33は、これら総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて、重み係数39A(第2重み係数)を更新する。
The
このように、第3クライアント40と第1クライアント20とを経由して得られた複数の学習経過を、別の第2クライアント30の重み係数39Aの更新に反映することもできる。
In this way, a plurality of learning progresses obtained via the
図18のフローチャートを参照して、勾配の和と勾配の数とを送信する第1クライアント20によって実行される処理の手順を説明する。以下では、目的関数の最適化に用いられる学習データが、クライアント20,30,40に対して既に割り当てられている場合を想定する。
The procedure of the process executed by the
まず、第1クライアント20のCPU301は、勾配の和を送信するための∇Wtransferを初期化する(ブロックB31)、すなわち、∇Wtransferに0を設定する。CPU301は、送信される勾配の数Nに応じて、N回、ブロックB53及びブロックB54の手順を実行する(ブロックB52)。より具体的には、CPU301は、学習データ21Aを用いて目的関数の重みWを更新する(ブロックB53)。そして、CPU301は、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB54)。
First, the
勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPU301は勾配の和∇Wtransferと勾配の数Nとを別のクライアント(例えば、第2クライアント30)に送信する(ブロックB55)。
After the gradient ∇W has been added N times to the gradient sum ∇W transfer , that is, after the weight W has been updated N times, the
次いで、図19のフローチャートを参照して、勾配の和と勾配の数とを受信する第2クライアント30によって実行される処理の手順を説明する。
Next, the procedure of the process executed by the
まず、第2クライアント30のCPU301は、学習データ31Aを用いて重みWを更新する(ブロックB61)。そして、CPU301は、第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信したか否かを判定する(ブロックB62)。第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信していない場合(ブロックB62のNO)、ブロックB61の手順に戻る。
First, the
第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信した場合(ブロックB62のYES)、CPU301は、更新のための勾配∇Wupdateを初期化する(ブロックB63)、すなわち、∇Wupdateに0を設定する。また、CPU301は、ブロックB65からブロックB68までの繰り返し処理に用いられる変数iに1を設定する(ブロックB64)。CPU301は、iが勾配の数N以下である間、ブロックB66からブロックB68までの手順を繰り返す(ブロックB65)。より具体的には、CPU301は学習係数εiを算出する(ブロックB66)。CPU301は、例えば、学習の進度に対応するiと、勾配の和∇Wtransferを勾配の数Nで除した勾配の平均∇Wtransfer/Nとを用いて、学習係数εiを算出する。CPU301は、更新のための勾配∇Wupdateに、学習係数εiと勾配の平均∇Wtransfer/Nとを乗じた値を加算する(ブロックB67)。そして、CPU301は、変数iに1を加算する(ブロックB68)。
When the sum of gradients ∇W transfer and the number of gradients N are received from the first client 20 (YES in block B62), the
変数iがNより大きいならば、CPU301は、ブロックB61で更新された重みWを、更新のための勾配の和∇Wupdateを用いてさらに更新する(ブロックB69)。
If the variable i is larger than N, the
なお、第2クライアント30のCPU301は、第1クライアント20が第3クライアント40から、第3クライアント40によって目的関数の重みWを更新するために算出された複数の第1の勾配の和∇Wtransferと第1の勾配の数Nとを受信した場合に、第1クライアント20から、
(1)複数の第1の勾配の和∇Wtransferと、第1クライアント20によって目的関数の重みWを更新するために算出された複数の第2の勾配の和∇Wtransferとの総和、及び
(2)複数の第1の勾配の数Nと複数の第2の勾配の数Nとの和
を受信してもよい。その場合、CPU301は、複数の第1の勾配の和∇Wtransferと複数の第2の勾配の和∇Wtransferとの総和と、複数の第1の勾配の数Nと複数の第2の勾配の数Nとの和とを用いて、ブロックB63以降の手順を実行することによって、第2クライアント30の重みWを更新する。
Incidentally,
(1) Sum of a plurality of first gradient sums ∇W transfer and a plurality of second gradient sums ∇W transfer calculated for updating the weight W of the objective function by the
(2) Sum of the number N of the plurality of first gradients and the number N of the plurality of second gradients
May be received. In that case,
また、CPU301は、第1クライアント20と第3クライアント40の各々から、勾配の和∇Wtransferと勾配の数Nとを受信してもよい。その場合、CPU301は、第1クライアント20から受信した勾配の和∇Wtransferと、第3クライアント40から受信した勾配の和∇Wtransferとの総和を、勾配の和∇Wtransferとし、第1クライアント20から受信した勾配の数Nと第3クライアント40から受信した勾配の数Nとの和を、勾配の数Nとして、ブロックB63以降の手順を実行することによって、第2クライアント30の重みWを更新する。
Further, the
次いで、図20は、本実施形態の複数のクライアント20,30,40による並列分散学習の効果を示す。図20に示す例では、目的関数を基準とする並列分散学習処理における学習時間と認識精度との関係が、処理が1台のクライアントで実行された場合の折れ線グラフ61と、処理が3台のクライアントで実行された場合の折れ線グラフ62とで示されている。これら折れ線グラフ61,62から、処理が3台のクライアントで実行された場合の方が、より早く最適解に収束し、より早く一定水準の認識精度(例えば、0.8)に到達していることが分かる。
Next, FIG. 20 shows the effect of parallel distributed learning by the plurality of
また、図21は、勾配の和だけでなく勾配の数も用いることによる並列分散学習の効果を示す。図21に示す例では、目的関数を基準とする並列分散学習処理における学習時間と認識精度との関係が、勾配の和だけを用いて処理が実行された場合の折れ線グラフ71と、勾配の和と勾配の数とを用いて処理が実行された場合の折れ線グラフ72とで示されている。勾配の和だけを用いて処理が実行された場合の折れ線グラフ71では、勾配の和だけが用いられることによる処理工程の差に起因して、認識精度の変動がクライアントによって大きく異なる箇所がある。つまり、この折れ線グラフ71は、最適解への収束に関して、クライアント間で異なる挙動が生じていることを示している。
21 shows the effect of parallel distributed learning by using not only the sum of gradients but also the number of gradients. In the example shown in FIG. 21, the relationship between the learning time and the recognition accuracy in the parallel distributed learning processing with the objective function as the reference is the
これに対して、勾配の和と勾配の数とを用いて処理が実行された場合の折れ線グラフ72では、処理工程の差が低減されたことによって、各クライアントの認識精度の変動がほぼ同様になっている。つまり、この折れ線グラフ72は、最適解への収束に関して、クライアント間で同様の挙動が生じていることを示している。したがって、勾配の和だけでなく勾配の数も用いることによって、クライアント間で学習経過が十分に共有され、並列分散学習が効率的に進められていることが分かる。
On the other hand, in the
以上説明したように、本実施形態によれば、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。第2クライアント30と少なくとも一つの他のクライアント20,40とによって目的関数を基準とする並列分散処理が実行される場合に、第2クライアント30の受信制御部32は、少なくとも一つの他のクライアント20,40の内の第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを受信する。第2クライアント20の算出部33は、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて、目的関数の重み係数39A(第2重み係数)を更新する。
As described above, according to the present embodiment, it is possible to efficiently execute the parallel distributed learning process while reducing the communication cost. When the
これにより、第1クライアント20から受信した複数の勾配の和29Bだけでなく、通信コストが小さい複数の勾配の数29Cも用いて、目的関数の重み係数39Aが更新されるので、第1クライアント20による学習経過を十分に反映して重み係数39Aを更新することができる。したがって、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。
As a result, the
また、本発明のいくつかの実施形態に記載された様々な機能の各々は、回路(処理回路)によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたコンピュータプログラム(命令群)を実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含まれる。これら実施形態に記載されたCPU以外の他のコンポーネントの各々もまた処理回路によって実現されてもよい。 Further, each of the various functions described in some embodiments of the present invention may be realized by a circuit (processing circuit). Examples of processing circuits include programmed processors, such as central processing units (CPUs). The processor executes each of the functions described by executing a computer program (instruction group) stored in the memory. The processor may be a microprocessor containing electrical circuits. Examples of processing circuits also include digital signal processors (DSPs), application specific integrated circuits (ASICs), microcontrollers, controllers, and other electrical circuit components. Each of the components other than the CPU described in these embodiments may also be realized by the processing circuit.
また、本発明のいくつかの実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、これら実施形態と同様の効果を容易に実現することができる。 Further, since various processes of some embodiments of the present invention can be realized by a computer program, it suffices to install and execute the computer program on a computer through a computer-readable storage medium storing the computer program. The same effects as those of these embodiments can be easily realized.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.
1…情報処理システム、10…サーバ、20,30,40…クライアント、21A,31A,41A…学習データ、101…CPU、102…システムコントローラ、103…主メモリ、104…BIOS−ROM、105…不揮発性メモリ、106…通信デバイス、107…EC、201…OS、202…並列分散学習サーバプログラム、301…CPU、302…システムコントローラ、303…主メモリ、304…BIOS−ROM、305…不揮発性メモリ、306…通信デバイス、307…EC、401…OS、402…並列分散学習クライアントプログラム。 1... Information processing system, 10... Server, 20, 30, 40... Client, 21A, 31A, 41A... Learning data, 101... CPU, 102... System controller, 103... Main memory, 104... BIOS-ROM, 105... Nonvolatile Memory, 106... Communication device, 107... EC, 201... OS, 202... Parallel distributed learning server program, 301... CPU, 302... System controller, 303... Main memory, 304... BIOS-ROM, 305... Nonvolatile memory, 306... Communication device, 307... EC, 401... OS, 402... Parallel distributed learning client program.
Claims (11)
前記電子装置と少なくとも一つの他の電子装置とによって目的関数を基準とする並列分散処理が実行される場合に、前記少なくとも一つの他の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信する受信手段と、
前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する処理手段とを具備する電子装置。 An electronic device,
When parallel distributed processing based on an objective function is executed by the electronic device and at least one other electronic device, the first electronic device from the first electronic device among the at least one other electronic device Receiving means for receiving a sum of a plurality of gradients calculated by the device for updating the first weighting coefficient of the objective function, and information capable of specifying the number of the plurality of gradients;
An electronic device comprising: a processing unit that updates the second weighting coefficient of the objective function using the sum of the plurality of gradients and information that can specify the number of the plurality of gradients.
前記処理手段は、さらに、前記複数の勾配の和と前記複数の勾配の大小関係を特定可能な情報とを用いて前記第2重み係数を更新する請求項1記載の電子装置。 The receiving means receives, from the first electronic device, information capable of specifying the magnitude relationship of the plurality of gradients,
The electronic device according to claim 1, wherein the processing unit further updates the second weighting factor using a sum of the plurality of gradients and information capable of specifying a magnitude relationship between the plurality of gradients.
前記処理手段は、さらに、前記総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて前記第2重み係数を更新する請求項1記載の電子装置。 The receiving means may further comprise the first electronic device updating a third weighting factor of the objective function by the second electronic device from a second electronic device among the at least one other electronic device. The sum of the plurality of first slopes is received from the first electronic device when the calculated sum of the first slopes and the information capable of specifying the number of the plurality of first slopes are received. And a sum of a plurality of second gradients calculated for updating the first weighting coefficient by the first electronic device, the number of the plurality of first gradients, and the plurality of second gradients. Receives information that can identify the sum of the number of gradients and
The processing means further updates the second weighting factor using the total sum and information capable of specifying the sum of the number of the plurality of first gradients and the number of the plurality of second gradients. The electronic device according to claim 1.
前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する方法。 When parallel distribution processing based on an objective function is executed by a plurality of electronic devices, a first weighting coefficient of the objective function is calculated by the first electronic device from a first electronic device among the plurality of electronic devices. Receiving a sum of a plurality of gradients calculated for updating and information capable of specifying the number of the plurality of gradients,
A method of updating the second weighting coefficient of the objective function using the sum of the plurality of gradients and information capable of specifying the number of the plurality of gradients.
前記複数の勾配の和と前記複数の勾配の大小関係を特定可能な情報とを用いて前記第2重み係数を更新することを含む請求項6記載の方法。 Receiving information capable of specifying a magnitude relationship of the plurality of gradients from the first electronic device,
7. The method according to claim 6, further comprising updating the second weighting factor using the sum of the plurality of gradients and the information capable of identifying a magnitude relationship between the plurality of gradients.
前記更新することは、前記総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて前記第2重み係数を更新することをさらに含む請求項6記載の方法。 The receiving is performed by the first electronic device from a second electronic device of the plurality of electronic devices, and the second electronic device calculates the third weighting factor of the objective function by the plurality of electronic devices. Of the first gradient and the information capable of specifying the number of the plurality of first gradients are received from the first electronic device by the first gradient sum and the first electron. A sum of a plurality of second gradients calculated by the device for updating the first weighting factor, and a sum of the plurality of first gradients and the plurality of second gradients. Further comprising receiving information identifiable to
The updating includes updating the second weighting factor using the total sum and information capable of specifying the sum of the number of the plurality of first gradients and the number of the plurality of second gradients. The method of claim 6, further comprising:
前記第1クライアント装置は、
前記情報処理システムにおいて目的関数を基準とする並列分散処理が実行される場合に、前記目的関数の第1重み係数を更新し、
前記第1重み係数の更新のために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを前記サーバ装置に送信し、
前記サーバ装置は、
前記送信された複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新し、
前記更新された第2重み係数を前記第2クライアント装置に送信する情報処理システム。 An information processing system including a server device, a first client device, and a second client device,
The first client device is
Updating a first weighting coefficient of the objective function when parallel distributed processing based on the objective function is executed in the information processing system;
Transmitting a sum of a plurality of gradients calculated for updating the first weighting factor and information capable of specifying the number of the plurality of gradients to the server device,
The server device is
Updating the second weighting factor of the objective function using the transmitted sum of the plurality of gradients and information capable of specifying the number of the plurality of gradients,
An information processing system for transmitting the updated second weighting factor to the second client device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016168189A JP6699891B2 (en) | 2016-08-30 | 2016-08-30 | Electronic device, method and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016168189A JP6699891B2 (en) | 2016-08-30 | 2016-08-30 | Electronic device, method and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018036779A JP2018036779A (en) | 2018-03-08 |
JP6699891B2 true JP6699891B2 (en) | 2020-05-27 |
Family
ID=61566340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016168189A Active JP6699891B2 (en) | 2016-08-30 | 2016-08-30 | Electronic device, method and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6699891B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2572537A (en) * | 2018-03-27 | 2019-10-09 | Nokia Technologies Oy | Generating or obtaining an updated neural network |
JP7001004B2 (en) * | 2018-06-25 | 2022-01-19 | 日本電信電話株式会社 | Distributed deep learning system, distributed deep learning method, and computing interconnect device |
JP7181585B2 (en) * | 2018-10-18 | 2022-12-01 | 国立大学法人神戸大学 | LEARNING SYSTEMS, LEARNING METHODS AND PROGRAMS |
US11521067B2 (en) * | 2018-11-30 | 2022-12-06 | International Business Machines Corporation | Decentralized distributed deep learning |
CN109919313B (en) * | 2019-01-31 | 2021-06-08 | 华为技术有限公司 | Gradient transmission method and distributed training system |
JP7171477B2 (en) * | 2019-03-14 | 2022-11-15 | ヤフー株式会社 | Information processing device, information processing method and information processing program |
WO2020240844A1 (en) * | 2019-05-31 | 2020-12-03 | 日本電信電話株式会社 | Distributed deep learning system |
JP7192984B2 (en) * | 2019-06-03 | 2022-12-20 | 日本電信電話株式会社 | Distributed processing system and distributed processing method |
JP7070531B2 (en) * | 2019-11-15 | 2022-05-18 | 株式会社豊田中央研究所 | Urban structure design equipment and urban structure design program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5584914B2 (en) * | 2010-07-15 | 2014-09-10 | 株式会社日立製作所 | Distributed computing system |
US20150324686A1 (en) * | 2014-05-12 | 2015-11-12 | Qualcomm Incorporated | Distributed model learning |
JP2018018451A (en) * | 2016-07-29 | 2018-02-01 | 富士通株式会社 | Machine learning method, machine learning program and information processing device |
-
2016
- 2016-08-30 JP JP2016168189A patent/JP6699891B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018036779A (en) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6699891B2 (en) | Electronic device, method and information processing system | |
CN108009016B (en) | Resource load balancing control method and cluster scheduler | |
US20130097321A1 (en) | Method and system for work load balancing | |
JP2017054514A5 (en) | ||
US20200219028A1 (en) | Systems, methods, and media for distributing database queries across a metered virtual network | |
CN107688492B (en) | Resource control method and device and cluster resource management system | |
CN106529682A (en) | Method and apparatus for processing deep learning task in big-data cluster | |
WO2012158718A1 (en) | Extensible centralized dynamic resource distribution in a clustered data grid | |
US8943348B2 (en) | Method and system for offloading a computation to other computing units in the same device or to a server on a network based upon a computing time and a power consumption of each of the computing units and the server | |
CN111813523A (en) | Duration pre-estimation model generation method, system resource scheduling method, device, electronic equipment and storage medium | |
TW201447763A (en) | System and method for controlling virtual machine | |
CN110969362A (en) | Multi-target task scheduling method and system under cloud computing system | |
JP6877393B2 (en) | Systems, programs and methods | |
CN103988179A (en) | Optimization mechanisms for latency reduction and elasticity improvement in geographically distributed datacenters | |
CN104281495A (en) | Method for task scheduling of shared cache of multi-core processor | |
CN113452788B (en) | Adaptation optimization method based on service migration in dynamic network | |
CN117331668A (en) | Job scheduling method, device, equipment and storage medium | |
US8683477B2 (en) | Performance degradation based at least on computing application priority and in a relative manner that is known and predictable beforehand | |
CN116932220A (en) | Resource adjustment method and device for service cluster, electronic equipment and storage medium | |
CN110196879B (en) | Data processing method, device, computing equipment and storage medium | |
CN111475297A (en) | Flexible operation configuration method | |
CN110941497B (en) | Data sending method and device | |
CN103399789A (en) | Dynamic overload control method capable of being constructed in distributed-type stream computing system | |
JP2021105772A (en) | Prediction management system of resource usage amount, and prediction management method of resource usage amount | |
CN112619129A (en) | Cloud game running method, server and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6699891 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |