JP6699891B2 - Electronic device, method and information processing system - Google Patents

Electronic device, method and information processing system Download PDF

Info

Publication number
JP6699891B2
JP6699891B2 JP2016168189A JP2016168189A JP6699891B2 JP 6699891 B2 JP6699891 B2 JP 6699891B2 JP 2016168189 A JP2016168189 A JP 2016168189A JP 2016168189 A JP2016168189 A JP 2016168189A JP 6699891 B2 JP6699891 B2 JP 6699891B2
Authority
JP
Japan
Prior art keywords
gradients
client
sum
learning
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016168189A
Other languages
Japanese (ja)
Other versions
JP2018036779A (en
Inventor
武 戸田
武 戸田
光宏 木村
光宏 木村
耕祐 春木
耕祐 春木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016168189A priority Critical patent/JP6699891B2/en
Publication of JP2018036779A publication Critical patent/JP2018036779A/en
Application granted granted Critical
Publication of JP6699891B2 publication Critical patent/JP6699891B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、並列分散学習のための技術に関する。   Embodiments of the present invention relate to techniques for parallel distributed learning.

近年、機械学習の一つであるディープラーニングによるデータの有効活用が期待されている。ディープラーニングにおいて、大規模なデータを用いた学習結果をより高速に得るためには、複数のコンピュータ(プロセッサ)による学習の並列処理を実行し、各コンピュータによる学習経過を共有する並列分散学習処理が求められる。このような並列分散学習処理では、コンピュータ間での通信によって学習経過を示すデータが共有される。   In recent years, effective use of data by deep learning, which is one of machine learning, is expected. In deep learning, in order to obtain a learning result using large-scale data at higher speed, parallel distributed learning processing that executes parallel processing of learning by multiple computers (processors) and shares learning progress by each computer is required. Desired. In such parallel distributed learning processing, data indicating learning progress is shared by communication between computers.

国際公開第2014/020959号International Publication No. 2014/020959

しかし、ディープラーニングにおける並列分散学習処理ではコンピュータ間で共有されるデータ量が大きく、したがって、通信コストが高くなる場合がある。そのため、通信コストを低減しながら並列分散学習処理を効率的に実行できる新たな技術の実現が要求される。   However, in parallel distributed learning processing in deep learning, the amount of data shared between computers is large, and therefore communication costs may increase. Therefore, realization of a new technique that can efficiently execute parallel distributed learning processing while reducing communication costs is required.

本発明の一形態は、通信コストを低減しながら並列分散学習処理を効率的に実行できる電子装置、方法及び情報処理システムを提供することを目的とする。   An aspect of the present invention is to provide an electronic device, a method, and an information processing system that can efficiently execute parallel distributed learning processing while reducing communication costs.

実施形態によれば、電子装置は、受信手段と処理手段とを具備する。前記受信手段は、前記電子装置と少なくとも一つの他の電子装置とによって目的関数を基準とする並列分散処理が実行される場合に、前記少なくとも一つの他の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信する。前記処理手段は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する。   According to an embodiment, the electronic device comprises a receiving means and a processing means. When the parallel distributed processing is performed with the objective function as a reference by the electronic device and the at least one other electronic device, the receiving unit is configured to operate from the first electronic device of the at least one other electronic device. , A sum of a plurality of gradients calculated for updating the first weighting coefficient of the objective function by the first electronic device, and information capable of specifying the number of the plurality of gradients. The processing means updates the second weighting coefficient of the objective function using the sum of the plurality of gradients and the information capable of specifying the number of the plurality of gradients.

第1実施形態に係る情報処理システムの構成の例を示すブロック図。FIG. 3 is a block diagram showing an example of the configuration of an information processing system according to the first embodiment. 目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の例を説明するための図。The figure for demonstrating the example of the gradient used for the update of a weighting coefficient in the parallel distributed learning process on the basis of an objective function. 図1の情報処理システムにおいて、目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の例を説明するための図。The figure for demonstrating the example of the gradient used for the update of a weighting factor in the parallel distributed learning process which made the objective function the reference in the information processing system of FIG. 図1の情報処理システムによる目的関数を基準とする並列分散学習処理で学習経過が共有される例を説明するための図。The figure for demonstrating the example in which learning progress is shared by the parallel distributed learning process based on the objective function by the information processing system of FIG. 図1の情報処理システム内のサーバのシステム構成を示すブロック図。FIG. 2 is a block diagram showing the system configuration of a server in the information processing system of FIG. 1. 図1の情報処理システム内のクライアントのシステム構成を示すブロック図。FIG. 2 is a block diagram showing the system configuration of a client in the information processing system of FIG. 1. 図1の情報処理システム内のサーバ及びクライアントの機能構成の例を示すブロック図。2 is a block diagram showing an example of functional configurations of a server and a client in the information processing system of FIG. 1. FIG. 勾配の和を送信するクライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。The flowchart which shows the example of the procedure of the parallel distributed learning process performed by the client which transmits the sum of gradients. 勾配の和を受信するサーバによって実行される並列分散学習処理の手順の例を示すフローチャート。The flowchart which shows the example of the procedure of the parallel distributed learning process performed by the server which receives the sum of gradients. 図7のクライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。9 is a flowchart showing an example of a procedure of parallel distributed learning processing executed by the client of FIG. 7. 図7のサーバによって実行される並列分散学習処理の手順の例を示すフローチャート。9 is a flowchart showing an example of a procedure of parallel distributed learning processing executed by the server of FIG. 7. 第2実施形態に係る情報処理システムの構成の例を示すブロック図。The block diagram which shows the example of a structure of the information processing system which concerns on 2nd Embodiment. 目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の別の例を説明するための図。The figure for demonstrating another example of the gradient used for the update of a weighting coefficient in the parallel distributed learning process which makes an objective function the standard. 図12の情報処理システムにおいて、目的関数を基準とする並列分散学習処理で重み係数の更新に用いられる勾配の例を説明するための図。FIG. 13 is a diagram for explaining an example of a gradient used for updating weighting factors in the parallel distributed learning process using the objective function as a reference in the information processing system of FIG. 図12の情報処理システムによる目的関数を基準とする並列分散学習処理で学習経過が共有される例を説明するための図。The figure for demonstrating the example in which learning progress is shared by the parallel distributed learning process which made the objective function the reference by the information processing system of FIG. 図12の情報処理システムによる目的関数を基準とする並列分散学習処理で学習経過が共有される別の例を説明するための図。The figure for demonstrating another example in which learning progress is shared by the parallel distributed learning process based on the objective function by the information processing system of FIG. 図12の情報処理システム内の第1クライアント及び第2クライアントの機能構成の例を示すブロック図。FIG. 13 is a block diagram showing an example of the functional configuration of a first client and a second client in the information processing system of FIG. 12. 図17の第1クライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。18 is a flowchart showing an example of a procedure of parallel distributed learning processing executed by the first client of FIG. 図17の第2クライアントによって実行される並列分散学習処理の手順の例を示すフローチャート。18 is a flowchart showing an example of a procedure of parallel distributed learning processing executed by the second client of FIG. 図12の情報処理システムにおいて、複数のクライアントによる並列分散学習の効果を説明するための図。The figure for demonstrating the effect of the parallel distributed learning by several clients in the information processing system of FIG. 図12の情報処理システムにおいて、勾配の和だけでなく勾配の数も用いることによる並列分散学習の効果を説明するための図。The figure for demonstrating the effect of parallel distributed learning by using not only the sum of gradient but the number of gradients in the information processing system of FIG.

以下、実施の形態について図面を参照して説明する。
(第1実施形態)
まず、図1を参照して、第1実施形態に係る情報処理システムの構成を説明する。この情報処理システム1は、ネットワーク50等を介して相互に接続されたサーバコンピュータ(以下、サーバとも称する)10と複数のクライアントコンピュータ(以下、クライアントとも称する)20,30,40とによって構成されるサーバ−クライアント型のシステムである。ネットワーク50は、例えば、イーサネット(登録商標)であるが、これに限るものではない。情報処理システム1内のサーバ10及びクライアント20,30,40は、例えば、大規模なデータを扱うディープラーニングにおいて目的関数を基準とする並列分散学習処理を実行する。この目的関数を基準とする並列分散学習処理とは、目的関数を学習結果のフィードバック(評価値)として用いて、複数の処理主体で学習されるものであればどのようなものであってもよく、例えば、目的関数を最適化するための並列分散学習処理である。なお、図1では、情報処理システム1に3台のクライアント20,30,40が設けられる例を示したが、クライアントの数は2台であってもよいし、4台以上であってもよい。
Hereinafter, embodiments will be described with reference to the drawings.
(First embodiment)
First, the configuration of the information processing system according to the first embodiment will be described with reference to FIG. The information processing system 1 is composed of a server computer (hereinafter, also referred to as a server) 10 and a plurality of client computers (hereinafter, also referred to as clients) 20, 30, and 40 that are mutually connected via a network 50 or the like. A server-client type system. The network 50 is, for example, Ethernet (registered trademark), but is not limited to this. The server 10 and the clients 20, 30 and 40 in the information processing system 1 execute parallel distributed learning processing with an objective function as a reference in deep learning that handles large-scale data, for example. The parallel distributed learning process based on the objective function may be any process as long as it is learned by a plurality of processing subjects by using the objective function as feedback (evaluation value) of the learning result. , Parallel distributed learning processing for optimizing the objective function. Although FIG. 1 shows an example in which the information processing system 1 is provided with three clients 20, 30, and 40, the number of clients may be two, or four or more. .

図1に示すように、この並列分散学習処理では、クライアント20,30,40は、各々に割り当てられた学習データ21A,31A,41Aを用いて目的関数のパラメータ(例えば、重み係数)を更新し、その際の学習経過を示すデータをサーバ10に送信する。そして、サーバ10は、その学習経過を示すデータを利用して、サーバ10に格納されている目的関数のパラメータを更新し、更新されたパラメータをクライアント20,30,40に送信する。   As shown in FIG. 1, in this parallel distributed learning process, the clients 20, 30, 40 update the parameters (for example, weighting factors) of the objective function using the learning data 21A, 31A, 41A assigned to each. , Data indicating the learning progress at that time is transmitted to the server 10. Then, the server 10 updates the parameters of the objective function stored in the server 10 by using the data indicating the learning progress, and sends the updated parameters to the clients 20, 30, 40.

より具体的には、サーバ10は、例えば、クライアント20から送信された学習経過を示すデータを用いて、サーバ10上の目的関数のパラメータを更新し、その更新されたパラメータをクライアント20,30,40に送信する。また、サーバ10は、例えば、クライアント20から送信された学習経過を示すデータとクライアント30から送信された学習経過を示すデータとを用いて、サーバ10上の目的関数のパラメータを更新し、その更新されたパラメータをクライアント20,30,40に送信する。   More specifically, the server 10 updates the parameters of the objective function on the server 10 using the data indicating the learning progress sent from the client 20, and updates the updated parameters to the clients 20, 30,. Send to 40. Further, the server 10 updates the parameters of the objective function on the server 10 by using, for example, the data indicating the learning progress transmitted from the client 20 and the data indicating the learning progress transmitted from the client 30, and updating the parameter. The set parameters are transmitted to the clients 20, 30, 40.

これにより、各クライアントの学習経過が、情報処理システム1内の別のクライアントでも共有されることになるので、情報処理システム1全体での目的関数の最適化を効率的に進めることができる。   As a result, the learning progress of each client is shared by the other clients in the information processing system 1, so that the optimization of the objective function in the entire information processing system 1 can be efficiently advanced.

ところで、ディープラーニングでは、目的関数を最適化する手法として、例えば、確率的勾配降下法(stochastic gradient descent: SGD)が用いられる。このSGDでは、勾配ベクトルと称される最適解方向へのベクトルを用いて、目的関数の重み係数(以下、重みベクトルとも称する)が更新される。SGDにおける現在の状態を示す重みベクトル、勾配ベクトル及び学習係数をそれぞれW(t)、∇W(t)、ε(t)とすると、更新後の重みベクトルW(t+1)は、以下の式(1)で表される。なお、以下では、重みべクトル、勾配ベクトルのそれぞれを、単に、重み、勾配とも称する。
W(t+1)=W(t)−ε(t)∇W(t) 式(1)
更新幅を決定する学習係数ε(t)は学習の進度に応じて適応的に決定され、例えば、学習の進度に応じて減衰する。近年では、SGDの最適化アルゴリズムとして、Adagrad、Adadelta、Adam等に代表される学習係数自動減衰アルゴリズムが用いられるケースが増加している。これらの学習係数自動減衰アルゴリズムでは、学習係数ε(t)は、勾配ベクトル∇W(t)に依存して減衰する。
By the way, in deep learning, for example, a stochastic gradient descent (SGD) is used as a method for optimizing an objective function. In this SGD, the weighting coefficient of the objective function (hereinafter, also referred to as weighting vector) is updated using a vector in the optimum solution direction called a gradient vector. If the weight vector indicating the current state in SGD, the gradient vector, and the learning coefficient are W (t) , ∇W (t) , and ε (t) , respectively, the updated weight vector W (t+1) is It is represented by formula (1). In the following, each of the weight vector and the gradient vector will be simply referred to as a weight and a gradient.
W (t+1) = W (t) −ε (t) ∇W (t) Equation (1)
The learning coefficient ε (t) that determines the update width is adaptively determined according to the progress of learning, and is attenuated according to the progress of learning, for example. In recent years, as a SGD optimization algorithm, cases in which a learning coefficient automatic attenuation algorithm represented by Adgrad, Adadelta, Adam, etc. are used are increasing. In these learning coefficient automatic decay algorithms, the learning coefficient ε (t) decays depending on the gradient vector ∇W (t) .

また、SGDによる目的関数の最適化を並列分散化した場合には、情報処理システム1内で共有される学習経過として勾配ベクトルが用いられることがある。このような並列分散学習の一例として、次の参考文献が挙げられる。
参考文献:Jeffrey Dean, Greg S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao, Marc’Aurelio Ranzato, Andrew Senior, Paul Tucker, Ke Yang, and Andrew Y. Ng, “Large Scale Distributed Deep Networks,” Advances in Neural Information Processing Systems 25, 2012.
When the optimization of the objective function by SGD is distributed in parallel, a gradient vector may be used as the learning process shared in the information processing system 1. As an example of such parallel distributed learning, there are the following references.
References: Jeffrey Dean, Greg S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao, Marc'Aurelio Ranzato, Andrew Senior, Paul Tucker, Ke Yang, and Andrew Y. Ng, “Large Scale Distributed Deep Networks,” Advances in Neural Information Processing Systems 25, 2012.

一般にディープラーニングにおける勾配ベクトルは非常に大きな次元(例えば、数百万)を有するので、情報処理システム1内で勾配ベクトルを共有するための通信コストも非常に高くなる。通信コストを抑制するために、例えば、クライアント20が目的関数の重み係数を複数回更新する間に、各々の更新で用いられた勾配をその複数回分足し合わせた勾配の和∇Wtransferを算出し、この勾配の和∇Wtransferをサーバ10に送信することによって、複数回の更新に対応する学習経過を一度に共有することが考えられる。その場合、サーバ10は、以下の式(2)に従って、勾配の和∇Wtransferを用いて、別のクライアント30,40の重み係数Wを更新する。

Figure 0006699891
サーバ10は、この更新された重み係数Wをクライアント30,40に送信する。これにより、クライアント30,40は、クライアント20による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。 Generally, the gradient vector in deep learning has a very large dimension (for example, several millions), so that the communication cost for sharing the gradient vector in the information processing system 1 also becomes very high. In order to reduce the communication cost, for example, while the client 20 updates the weighting coefficient of the objective function a plurality of times, the gradient ∇ W transfer calculated by adding the gradients used in each update a plurality of times is calculated. It is conceivable to share the learning progress corresponding to a plurality of updates at once by transmitting the sum ∇W transfer of this gradient to the server 10. In that case, the server 10 updates the weighting factor W of the other clients 30 and 40 by using the gradient sum ∇W transfer according to the following equation (2).
Figure 0006699891
The server 10 transmits the updated weight coefficient W to the clients 30 and 40. As a result, the clients 30 and 40 can efficiently proceed with the optimization of the objective function by using the weighting coefficient W that reflects the learning progress of the client 20.

なお、サーバ10によって処理される、複数のクライアント20,30,40に対応する複数の重み係数Wは同一のものであってもよい。その場合、サーバ10は、複数のクライアント20,30,40に共通の重み係数W(マスタパラメータ)を保持し、各クライアント20,30,40による学習経過(勾配の和∇Wtransfer)を用いて、この共通の重み係数を更新する。サーバ10は、更新された重み係数Wをクライアント20,30,40に送信する。各クライアント20,30,40は、サーバから受信した重み係数Wで、そのクライアントで用いられる重み係数Wを上書きする。これにより、クライアント20,30,40は、各クライアント20,30,40による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。 Note that the plurality of weighting factors W corresponding to the plurality of clients 20, 30, 40 processed by the server 10 may be the same. In that case, the server 10 holds the weighting factor W (master parameter) common to the plurality of clients 20, 30, 40, and uses the learning progress (sum of gradients ∇ W transfer ) by each client 20, 30, 40. , Update this common weighting factor. The server 10 transmits the updated weight coefficient W to the clients 20, 30, 40. Each of the clients 20, 30, 40 overwrites the weighting factor W used by the client with the weighting factor W received from the server. As a result, the clients 20, 30, 40 can efficiently proceed with the optimization of the objective function by using the weighting coefficient W that reflects the learning progress of each client 20, 30, 40.

しかし、クライアント20が複数の勾配∇Wの各々を用いて重み係数Wを更新するのに対して、サーバ10は勾配の和∇Wtransferを用いて重み係数Wを更新するので、クライアント20上で更新される重み係数Wとサーバ10上で更新される重み係数Wとでは、処理工程(処理ステップ数)の差が生じることになる。 However, while the client 20 updates the weighting coefficient W using each of the plurality of gradients ∇W, the server 10 updates the weighting coefficient W using the sum of gradients ∇W transfer. There is a difference in the processing steps (the number of processing steps) between the updated weighting coefficient W and the weighting coefficient W updated on the server 10.

図2は、重み係数の更新に用いられる勾配の一例を示す。この例では、あるクライアント(例えば、第1クライアント20)からサーバ10に、当該クライアントで算出された複数の勾配511,512,513,514の和52が送信される。そして、サーバ10は、この勾配の和52を用いて、別のクライアント(例えば、第2クライアント30)の重み係数を更新する。   FIG. 2 shows an example of the gradient used for updating the weighting factor. In this example, the sum 52 of the plurality of gradients 511, 512, 513, 514 calculated by the client is transmitted from a certain client (for example, the first client 20) to the server 10. Then, the server 10 updates the weight coefficient of another client (for example, the second client 30) by using the sum 52 of the gradients.

図2に示す例では、送信側のクライアントが四つの勾配511,512,513,514を用いて重み係数を更新するのに対して、サーバ10は一つの勾配(勾配の和)52を用いて、別のクライアントの重み係数を更新する。換言すると、送信側のクライアントが式(1)に基づく重み係数の更新処理を4回実行しているのに対して、サーバ10は式(2)に基づく重み係数の更新処理を1回実行している。式(1)及び式(2)に含まれる学習係数εは、上述したように学習の進度に応じて適応的に決定される(例えば、勾配に依存して減衰する)。したがって、四つの勾配511,512,513,514を用いた重み係数の更新処理と、一つの勾配(勾配の和)52を用いた重み係数の更新処理とでは、処理工程に差が生じることになる。これによって、送信側のクライアントによる学習経過が、サーバ10での別のクライアントの重み係数の更新に十分に反映されない、すなわち、情報処理システム1内で学習経過が十分に共有されない可能性がある。   In the example shown in FIG. 2, the client on the transmitting side uses four gradients 511, 512, 513, and 514 to update the weighting factors, while the server 10 uses one gradient (sum of gradients) 52. , Update the weighting factor of another client. In other words, the client on the transmitting side executes the updating process of the weighting factor based on the formula (1) four times, while the server 10 executes the updating process of the weighting factor based on the formula (2) once. ing. The learning coefficient ε included in the equations (1) and (2) is adaptively determined according to the progress of learning as described above (for example, attenuates depending on the gradient). Therefore, there is a difference in the processing steps between the weight coefficient update processing using the four gradients 511, 512, 513, and 514 and the weight coefficient update processing using one gradient (sum of gradients) 52. Become. As a result, the learning progress by the client on the transmission side may not be sufficiently reflected in the update of the weighting coefficient of another client in the server 10, that is, the learning progress may not be sufficiently shared in the information processing system 1.

このような処理工程の差を低減するために、本実施形態では、各クライアント20,30,40からサーバ10に、複数の勾配の和だけでなく、この複数の勾配の和の算出に用いられた複数の勾配の数を特定可能な情報も送信する。この複数の勾配の数は、複数の勾配の和が算出される間に重み係数が更新された回数に対応する。なお、複数の勾配の数を特定可能な情報は、複数の勾配の数を特定できればどのような情報であってもよく、例えば数値(例:“4”)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。   In order to reduce such a difference in processing steps, in the present embodiment, the client 20, 30, 40 is used by the server 10 to calculate not only the sum of a plurality of gradients but also the sum of a plurality of gradients. Also, information that can specify the number of the plurality of gradients is transmitted. The number of the plurality of gradients corresponds to the number of times the weighting factor is updated while the sum of the plurality of gradients is calculated. The information capable of specifying the number of the plurality of gradients may be any information as long as the number of the plurality of gradients can be specified, and may be information directly indicating a numerical value (eg, “4”). The information may be indirectly guided by a numerical value.

図3は、本実施形態で重み係数の更新に用いられる勾配の一例を示す。この例では、あるクライアント(例えば、第1クライアント20)からサーバ10に、当該クライアントで算出された複数の勾配511,512,513,514の和52と、これら複数の勾配511,512,513,514の数N(ここでは、N=4)とが送信される。サーバ10は、この勾配の和52を勾配の数Nで除して得られたN個の勾配551,552,553,554を用いて、別のクライアント(例えば、第2クライアント30)の重み係数を更新する。   FIG. 3 shows an example of the gradient used for updating the weighting coefficient in this embodiment. In this example, from a certain client (for example, the first client 20) to the server 10, the sum 52 of the plurality of gradients 511, 512, 513, 514 calculated by the client and the plurality of gradients 511, 512, 513, 513. The number N of 514 (here N=4) is transmitted. The server 10 uses the N slopes 551, 552, 553, 554 obtained by dividing the sum 52 of the slopes by the number N of slopes, and uses the weighting coefficient of another client (for example, the second client 30). To update.

図3に示す例では、送信側のクライアントが四つの勾配511,512,513,514を用いて重み係数を更新しているのと同様に、サーバ10も四つの勾配551,552,553,554を用いて、別のクライアントの重み係数を更新している。より具体的には、サーバ10は、次の式(3)を用いて別のクライアントの重み係数を更新する。

Figure 0006699891
In the example shown in FIG. 3, the server 10 updates the weighting factors using the four gradients 511, 512, 513, 514, and the server 10 also has four gradients 551, 552, 553, 554. Is used to update the weighting factor of another client. More specifically, the server 10 updates the weighting coefficient of another client using the following equation (3).
Figure 0006699891

サーバ10は、送信側のクライアントによる四つの勾配511,512,513,514を用いた重み係数の更新を、四つの勾配551,552,553,554を用いた重み係数の更新で擬似的に再現することによって、処理工程の差を低減している。これにより、送信側のクライアントによる学習経過が、サーバ10での別のクライアントの重み係数の更新に十分に反映でき、したがって、情報処理システム1内で学習経過を十分に共有することができる。   The server 10 reproduces the update of the weighting factor using the four gradients 511, 512, 513, 514 by the client on the transmitting side by updating the weighting factor using the four gradients 551, 552, 553, 554 in a pseudo manner. By doing so, the difference in processing steps is reduced. Accordingly, the learning progress by the client on the transmitting side can be sufficiently reflected in the update of the weighting coefficient of another client in the server 10, and thus the learning progress can be sufficiently shared in the information processing system 1.

また、勾配の数Nはスカラー量であるので、勾配の数Nを特定可能な情報は、非常に大きな次元(例えば、数百万)を有する勾配(勾配ベクトル)のデータに対して十分に小さなメタデータである。そのため、勾配の数Nをさらに送信することによって、通信コストにほとんど影響を与えることなく、送信側のクライアントとサーバ10とによる重み係数更新の処理工程の差を低減することができる。   Also, since the number N of gradients is a scalar quantity, the information that can identify the number N of gradients is sufficiently small for data of a gradient (gradient vector) having a very large dimension (for example, millions). It is metadata. Therefore, by further transmitting the number N of gradients, it is possible to reduce the difference in the processing steps for updating the weighting factor between the client on the transmission side and the server 10 with little influence on the communication cost.

図4は、情報処理システム1内のサーバ10とクライアント20,30,40とによって、目的関数を基準とする並列分散学習処理で学習経過が共有される例を示す。   FIG. 4 shows an example in which the learning progress is shared by the server 10 and the clients 20, 30, 40 in the information processing system 1 in the parallel distributed learning process using the objective function as a reference.

まず、第1クライアント20、第2クライアント30及び第3クライアント40は、サーバ10によって割り当てられた学習データを受信する(S11)。そして、各クライアント20,30,40は、受信した学習データを用いて、目的関数の重み係数WをN回(ここでは、3回)更新する(S12)。   First, the first client 20, the second client 30, and the third client 40 receive the learning data assigned by the server 10 (S11). Then, each client 20, 30, 40 updates the weighting coefficient W of the objective function N times (here, three times) using the received learning data (S12).

次いで、各クライアント20,30,40は、それらN回の更新毎に算出されたN個の勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(S13)。サーバ10には、各クライアント20,30,40から送信された勾配の和∇Wtransferと勾配の数Nとを利用して、各クライアント20,30,40で用いられる目的関数の重み係数Wを更新する。そして、各クライアント20,30,40は、サーバ10から、更新された重み係数Wを受信する(S14)。 Next, each of the clients 20, 30, and 40 transmits to the server 10 the sum ∇W transfer of the N gradients calculated for each of the N updates and the number N of gradients (S13). The server 10 uses the sum of gradients ∇W transfer and the number N of gradients transmitted from each client 20, 30, 40 to determine the weighting factor W of the objective function used by each client 20, 30, 40. Update. Then, each of the clients 20, 30, 40 receives the updated weighting factor W from the server 10 (S14).

同様にして、各クライアント20,30,40は、学習データを用いて、目的関数の重み係数WをN回更新し(S15)、勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(S16)。そして、各クライアント20,30,40は、サーバ10から、更新された重み係数Wを受信する(S17)。 Similarly, each of the clients 20, 30 and 40 updates the weighting coefficient W of the objective function N times using the learning data (S15), and the sum ∇ W transfer of gradients and the number N of gradients are sent to the server 10. It is transmitted (S16). Then, each of the clients 20, 30, 40 receives the updated weighting factor W from the server 10 (S17).

このように、各クライアント20,30,40は、例えば、予め規定された同期タイミングで(例えば、3回の更新毎に)、勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信し、サーバ10から更新された重み係数Wを受信する。これにより、情報処理システム1内で、各クライアント20,30,40による学習経過が共有され、情報処理システム1全体での目的関数の最適化を効率的に進めることができる。なお、この同期タイミングは、更新回数に限らず、例えば、前回、勾配の和∇Wtransferと勾配の数Nとを送信してからの経過時間に基づいて決定されてもよい。また、クライアント20,30,40は、別々のタイミングで、勾配の和∇Wtransferと勾配の数Nとを送信するようにしてもよい。 In this way, each of the clients 20, 30, and 40 transmits the sum of gradients ∇W transfer and the number N of gradients to the server 10 at a predetermined synchronization timing (for example, every three updates), for example. Then, the updated weight coefficient W is received from the server 10. As a result, the learning progress by the clients 20, 30, 40 is shared in the information processing system 1, and the optimization of the objective function in the entire information processing system 1 can be efficiently advanced. Note that this synchronization timing is not limited to the number of updates, but may be determined based on the elapsed time from the transmission of the gradient sum ∇W transfer and the gradient number N last time, for example. Further, the clients 20, 30, 40 may transmit the gradient sum ∇W transfer and the gradient number N at different timings.

次いで、図5は、サーバ10のシステム構成の例を示す。サーバ10は、CPU101、システムコントローラ102、主メモリ103、BIOS−ROM104、不揮発性メモリ105、通信デバイス106、エンベデッドコントローラ(EC)107、等を備える。   Next, FIG. 5 shows an example of the system configuration of the server 10. The server 10 includes a CPU 101, a system controller 102, a main memory 103, a BIOS-ROM 104, a non-volatile memory 105, a communication device 106, an embedded controller (EC) 107, and the like.

CPU101は、サーバ10内の様々なコンポーネントの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ105から主メモリ103にロードされる様々なプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)201、及び様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、並列分散学習サーバプログラム202が含まれている。この並列分散学習サーバプログラム202は、例えば、クライアント20,30,40に学習データを割り当てる機能、クライアント20,30,40から学習経過を受信する機能、学習経過を用いて更新された目的関数のパラメータをクライアント20,30,40に送信する機能、等を有している。   The CPU 101 is a processor that controls the operation of various components in the server 10. The CPU 101 executes various programs loaded from the nonvolatile memory 105, which is a storage device, into the main memory 103. These programs include an operating system (OS) 201 and various application programs. The application program includes the parallel distributed learning server program 202. The parallel distributed learning server program 202 has, for example, a function of allocating learning data to the clients 20, 30, 40, a function of receiving a learning progress from the clients 20, 30, 40, a parameter of an objective function updated using the learning progress. To a client 20, 30, 40, and the like.

また、CPU101は、BIOS−ROM104に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 101 also executes a basic input/output system (BIOS) stored in the BIOS-ROM 104. The BIOS is a program for controlling hardware.

システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。   The system controller 102 is a device that connects the local bus of the CPU 101 and various components. The system controller 102 also has a built-in memory controller that controls access to the main memory 103.

通信デバイス106は、有線又は無線による通信を実行するように構成されたデバイスである。通信デバイス106は、信号を送信する送信部と、信号を受信する受信部とを含む。EC107は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC107は、ユーザによるパワーボタンの操作に応じてサーバ10を電源オン又は電源オフする機能を有している。   The communication device 106 is a device configured to perform wired or wireless communication. The communication device 106 includes a transmitter that transmits a signal and a receiver that receives the signal. The EC 107 is a one-chip microcomputer that includes an embedded controller for power management. The EC 107 has a function of powering on or off the server 10 according to the operation of the power button by the user.

また、図6は、クライアント20,30,40のシステム構成の例を示す。クライアント20,30,40は、CPU301、システムコントローラ302、主メモリ303、BIOS−ROM304、不揮発性メモリ305、通信デバイス306、エンベデッドコントローラ(EC)307、等を備える。   Further, FIG. 6 shows an example of a system configuration of the clients 20, 30, 40. The clients 20, 30, 40 include a CPU 301, a system controller 302, a main memory 303, a BIOS-ROM 304, a non-volatile memory 305, a communication device 306, an embedded controller (EC) 307, and the like.

CPU301は、クライアント20,30,40内の様々なコンポーネントの動作を制御するプロセッサである。CPU301は、ストレージデバイスである不揮発性メモリ305から主メモリ303にロードされる様々なプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)401、及び様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、並列分散学習クライアントプログラム402が含まれている。この並列分散学習クライアントプログラム402は、例えば、目的関数のパラメータを更新する機能、学習経過をサーバ10に送信する機能、サーバ10によって更新された目的関数のパラメータを受信する機能、等を有している。   The CPU 301 is a processor that controls the operation of various components in the clients 20, 30, and 40. The CPU 301 executes various programs loaded from the nonvolatile memory 305, which is a storage device, into the main memory 303. These programs include an operating system (OS) 401 and various application programs. The application program includes a parallel distributed learning client program 402. The parallel distributed learning client program 402 has, for example, a function of updating the parameters of the objective function, a function of transmitting the learning progress to the server 10, a function of receiving the parameters of the objective function updated by the server 10, and the like. There is.

また、CPU301は、BIOS−ROM304に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 301 also executes a basic input/output system (BIOS) stored in the BIOS-ROM 304. The BIOS is a program for controlling hardware.

システムコントローラ302は、CPU301のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ302には、主メモリ303をアクセス制御するメモリコントローラも内蔵されている。   The system controller 302 is a device that connects the local bus of the CPU 301 and various components. The system controller 302 also has a built-in memory controller that controls access to the main memory 303.

通信デバイス306は、有線又は無線による通信を実行するように構成されたデバイスである。通信デバイス306は、信号を送信する送信部と、信号を受信する受信部とを含む。EC307は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC307は、ユーザによるパワーボタンの操作に応じてクライアント20,30,40を電源オン又は電源オフする機能を有している。   The communication device 306 is a device configured to perform wired or wireless communication. The communication device 306 includes a transmitter that transmits a signal and a receiver that receives the signal. The EC307 is a one-chip microcomputer that includes an embedded controller for power management. The EC 307 has a function of powering on or powering off the clients 20, 30, 40 according to the operation of the power button by the user.

図7は、サーバ10によって実行される並列分散学習サーバプログラム202と、クライアント20,30,40によって実行される並列分散学習クライアントプログラム402との機能構成の一例を示す。サーバ10とクライアント20,30,40とは、例えば、ディープラーニングによる目的関数を基準とする並列分散学習処理を実行する。ここでは、説明を分かりやすくするために、情報処理システム1において、第1クライアント20が学習経過を示すデータをサーバ10に送信し、サーバ10がこのデータを用いて第2クライアント30の重み係数を更新し、その更新された重み係数を第2クライアント30に送信する場合を主に例示する。   FIG. 7 shows an example of the functional configuration of the parallel distributed learning server program 202 executed by the server 10 and the parallel distributed learning client program 402 executed by the clients 20, 30, 40. The server 10 and the clients 20, 30, 40 execute, for example, parallel distributed learning processing based on an objective function by deep learning. Here, in order to make the explanation easy to understand, in the information processing system 1, the first client 20 transmits data indicating the learning progress to the server 10, and the server 10 uses this data to determine the weighting factor of the second client 30. The case of updating and transmitting the updated weighting coefficient to the second client 30 will be mainly illustrated.

サーバ10上で実行される並列分散学習サーバプログラム202は、例えば、データ割当部12、送信制御部13、受信制御部14、及び算出部15を備える。また、サーバ10は、情報処理システム1内で用いられる学習データ11Aが格納される記憶媒体11(例えば、不揮発性メモリ105)を有している。   The parallel distributed learning server program 202 executed on the server 10 includes, for example, a data allocation unit 12, a transmission control unit 13, a reception control unit 14, and a calculation unit 15. The server 10 also has a storage medium 11 (for example, a non-volatile memory 105) in which learning data 11A used in the information processing system 1 is stored.

データ割当部12は、学習データ11Aの内、各クライアント20,30,40に割り当てられるデータを決定する。データ割当部12は、例えば、学習データ11Aを3つに分割し、分割されたデータのそれぞれを割り当てるクライアント20,30,40を決定する。   The data allocation unit 12 determines the data allocated to each of the clients 20, 30, 40 among the learning data 11A. The data allocation unit 12 divides the learning data 11A into three, for example, and determines the clients 20, 30, and 40 to which each of the divided data is allocated.

送信制御部13及び受信制御部14は、通信デバイス106を介して、各クライアント20,30,40との間でデータを送受信する機能を有する。送信制御部13は、データ割当部12によって割り当てられたデータを、各クライアント20,30,40に送信する。   The transmission control unit 13 and the reception control unit 14 have a function of transmitting/receiving data to/from each of the clients 20, 30, and 40 via the communication device 106. The transmission control unit 13 transmits the data allocated by the data allocation unit 12 to each of the clients 20, 30, 40.

受信制御部14は、各クライアント20,30,40から、各々のクライアント上での学習経過を示す複数の勾配の和とそれら複数の勾配の数を特定可能な情報とを受信する。受信制御部14は、例えば、第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bとそれら複数の勾配の数29Cを特定可能な情報とを受信する。   The reception control unit 14 receives from each of the clients 20, 30 and 40 the sum of a plurality of gradients indicating the learning progress on each client and information capable of specifying the number of these plurality of gradients. The reception control unit 14, for example, from the first client 20, the sum 29B of the plurality of gradients calculated for updating the weighting coefficient 29A (first weighting coefficient) of the objective function by the first client 20 and the plurality of gradients 29B. Information that can identify the number 29 C of gradients is received.

算出部15は、あるクライアントから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、別のクライアントに関連付けられた重み係数を更新する。送信制御部13は、算出部15によって更新された重み係数を、その重み係数が関連付けられたクライアントに送信する。より具体的には、例えば、算出部15は、受信制御部14を介して、第1クライアント20から複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを受信した場合、この複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて、第2クライアント30に関連付けられた重み係数19A(第2重み係数)を更新する。算出部15は、例えば、上述した式(3)に従って、複数の勾配の和29Bを複数の勾配の数29Cで除した値に、学習係数を掛けた値を用いて、第2クライアント30に関連付けられた重み係数19Aを更新する。なお、この学習係数は、例えば、複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて決定される。そして、送信制御部13は、更新された重み係数19Aを第2クライアント30に送信する。   The calculation unit 15 updates the weighting factor associated with another client using the sum of the plurality of gradients received from a certain client and the information capable of specifying the number of the plurality of gradients. The transmission control unit 13 transmits the weight coefficient updated by the calculation unit 15 to the client associated with the weight coefficient. More specifically, for example, when the calculation unit 15 receives, via the reception control unit 14, information capable of specifying the sum 29B of a plurality of slopes and the number 29C of a plurality of slopes from the first client 20, The weight coefficient 19A (second weight coefficient) associated with the second client 30 is updated using the sum 29B of the plurality of gradients and the information capable of specifying the number 29C of the plurality of gradients. The calculation unit 15 associates the sum 29B of the plurality of gradients by the number 29C of the plurality of gradients with a learning coefficient, and associates the second client 30 with the second client 30 according to the above-described equation (3). The calculated weighting coefficient 19A is updated. The learning coefficient is determined using, for example, the sum 29B of the plurality of gradients and the information 29C capable of specifying the number 29C of the plurality of gradients. Then, the transmission control unit 13 transmits the updated weighting coefficient 19A to the second client 30.

また、第1クライアント20上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部22、算出部23及び送信制御部24を備える。受信制御部22及び送信制御部24は、通信デバイス306を介して、サーバ10との間でデータを送受信する機能を有する。   The parallel distributed learning client program 402 executed on the first client 20 includes, for example, the reception control unit 22, the calculation unit 23, and the transmission control unit 24. The reception control unit 22 and the transmission control unit 24 have a function of transmitting and receiving data to and from the server 10 via the communication device 306.

受信制御部22は、サーバ10によって割り当てられた学習データ21Aを受信し、この受信した学習データ21Aを記憶媒体21(例えば、不揮発性メモリ305)に格納する。   The reception control unit 22 receives the learning data 21A assigned by the server 10, and stores the received learning data 21A in the storage medium 21 (for example, the nonvolatile memory 305).

算出部23は、学習データ21Aを用いて、目的関数の重み係数29Aを更新する処理を繰り返し実行する。算出部23は、第1期間において、重み係数29Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和29Bを算出すると共に、積算された勾配の数29Cをカウントする。なお、この第1期間は、例えば、時間で規定されてもよいし、重み係数29Aが更新される回数で規定されてもよい。   The calculation unit 23 repeatedly executes the process of updating the weighting coefficient 29A of the objective function using the learning data 21A. Every time the weighting factor 29A is updated, the calculating unit 23 integrates the gradients calculated at the time of updating, thereby calculating the sum 29B of the gradients and calculating the number 29C of the integrated gradients. To count. The first period may be defined by time or the number of times the weighting factor 29A is updated.

送信制御部24は、第1期間が経過した場合、第1クライアント20による学習経過を示すデータをサーバ10に送信する。送信制御部24は、例えば、算出された勾配の和29Bと、カウントされた勾配の数29Cを特定可能な情報とをサーバ10に送信する。   When the first period has elapsed, the transmission control unit 24 transmits data indicating the progress of learning by the first client 20 to the server 10. The transmission control unit 24 transmits, for example, the calculated sum 29B of gradients and information capable of specifying the counted number 29C of gradients to the server 10.

また、第2クライアント30上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部32、算出部33及び送信制御部34を備える。受信制御部32及び送信制御部34は、通信デバイス306を介して、サーバ10との間でデータを送受信する機能を有する。   The parallel distributed learning client program 402 executed on the second client 30 includes, for example, a reception control unit 32, a calculation unit 33, and a transmission control unit 34. The reception control unit 32 and the transmission control unit 34 have a function of transmitting and receiving data to and from the server 10 via the communication device 306.

受信制御部32は、サーバ10によって割り当てられた学習データ31Aを受信し、この受信した学習データ31Aを記憶媒体31(例えば、不揮発性メモリ305)に格納する。   The reception control unit 32 receives the learning data 31A assigned by the server 10, and stores the received learning data 31A in the storage medium 31 (for example, the nonvolatile memory 305).

算出部33は、学習データ31Aを用いて、目的関数の重み係数39Aを更新する処理を繰り返し実行する。   The calculation unit 33 repeatedly executes the process of updating the weighting coefficient 39A of the objective function using the learning data 31A.

また、受信制御部32は、サーバ10によって更新された重み係数19Aを受信する。この受信される重み係数19Aは、上述したように、第1クライアント20から送信された勾配の和29Bと勾配の数29Cとを用いて更新された重み係数19Aである。受信制御部32は、例えば、受信した重み係数19Aで、作業メモリ39に格納された重み係数39Aを置き換える。これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数39Aを用いて、並列分散学習処理を効率的に進めることができる。   Further, the reception control unit 32 receives the weighting coefficient 19A updated by the server 10. As described above, the received weighting coefficient 19A is the weighting coefficient 19A updated using the sum 29B of gradients and the number 29C of gradients transmitted from the first client 20. The reception control unit 32 replaces the weighting factor 39A stored in the working memory 39 with the received weighting factor 19A, for example. As a result, the second client 30 can efficiently proceed the parallel distributed learning process by using the weighting coefficient 39A in which the learning progress of the first client 20 is reflected.

なお、算出部33は、第1期間において、重み係数39Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和39Bを算出すると共に、積算された勾配の数39Cをカウントしてもよい。   Note that the calculation unit 33 calculates the sum 39B of gradients by adding up the gradients calculated at the time of each update of the weighting factor 39A in the first period, and at the same time, calculates the number of integrated gradients. 39C may be counted.

また、送信制御部34は、第1期間が経過した場合、第2クライアント30による学習経過を示すデータをサーバ10に送信してもよい。送信制御部34は、例えば、算出された勾配の和39Bと、カウントされた勾配の数39Cを特定可能な情報とをサーバ10に送信してもよい。   Further, the transmission control unit 34 may transmit the data indicating the learning progress by the second client 30 to the server 10 when the first period has elapsed. The transmission control unit 34 may transmit, for example, the calculated sum 39B of gradients and information capable of specifying the counted number 39C of gradients to the server 10.

その場合、サーバ10の算出部15及び送信制御部13は、これら勾配の和39Bと勾配の数39Cとを用いて、第1クライアント20に関連付けられた重み係数を更新し、更新された重み係数を第1クライアント20に送信することもできる。第1クライアント20の受信制御部22は、サーバ10によって更新された重み係数を受信する。受信制御部22は、例えば、受信した重み係数で、作業メモリ29に格納された重み係数29Aを置き換える。これにより、第1クライアント20は、第2クライアント30による学習経過が反映された重み係数29Aを用いて、並列分散学習処理を効率的に進めることができる。   In that case, the calculation unit 15 and the transmission control unit 13 of the server 10 update the weighting factor associated with the first client 20 by using the sum 39B of the gradients and the number 39C of the gradients, and the updated weighting factor. Can also be sent to the first client 20. The reception control unit 22 of the first client 20 receives the weighting factor updated by the server 10. The reception control unit 22 replaces the weighting coefficient 29A stored in the working memory 29 with the received weighting coefficient, for example. As a result, the first client 20 can efficiently proceed the parallel distributed learning process by using the weighting coefficient 29A that reflects the learning progress of the second client 30.

なお、情報処理システム1では、サーバ10上に保持され、全てのクライアント20,30,40で共通した重み係数W(マスタパラメータ)を用いることもできる。その場合、サーバ10の算出部15は、クライアント20,30,40の少なくともいずれか1つから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、上述した方法で、サーバ10上の重み係数W(マスタパラメータ)を更新する。そして、送信制御部13は、更新された重み係数Wを各クライアント20,30,40に送信する。例えば、第1クライアントの受信制御部22は、サーバ10によって更新された重み係数Wを受信し、受信した重み係数Wで作業メモリ29に格納された重み係数29Aを置き換える。同様に、第2クライアント30の受信制御部32は、サーバ10によって更新された重み係数Wを受信し、受信した重み係数Wで作業メモリ39に格納された重み係数39Aを置き換える。これにより、第1クライアント20及び第2クライアント30は、クライアント20,30,40による学習経過が反映された重み係数29A,39Aを用いて、並列分散学習処理を効率的に進めることができる。   In the information processing system 1, the weighting coefficient W (master parameter) held on the server 10 and common to all the clients 20, 30, 40 can be used. In that case, the calculation unit 15 of the server 10 uses the above-described method by using the sum of the plurality of gradients and the information capable of specifying the number of the plurality of gradients received from at least one of the clients 20, 30, and 40. Then, the weight coefficient W (master parameter) on the server 10 is updated. Then, the transmission control unit 13 transmits the updated weight coefficient W to each of the clients 20, 30, 40. For example, the reception control unit 22 of the first client receives the weighting factor W updated by the server 10, and replaces the weighting factor 29A stored in the working memory 29 with the received weighting factor W. Similarly, the reception control unit 32 of the second client 30 receives the weight coefficient W updated by the server 10, and replaces the weight coefficient 39A stored in the working memory 39 with the received weight coefficient W. As a result, the first client 20 and the second client 30 can efficiently proceed the parallel distributed learning process by using the weighting factors 29A and 39A that reflect the learning progress of the clients 20, 30, and 40.

情報処理システム1には、第1クライアント20及び第2クライアント30に限らず、3台以上のクライアントを設けることができ、各クライアントは、上述した第1クライアント20及び第2クライアント30と同様の構成を有する。したがって、情報処理システム1では、あるクライアントによる学習経過を別の複数のクライアントの重み係数の更新に反映することができ、また複数のクライアントによる複数の学習経過を別の一つのクライアントの重み係数の更新に反映することもできる。   The information processing system 1 is not limited to the first client 20 and the second client 30, and can be provided with three or more clients, and each client has the same configuration as the first client 20 and the second client 30 described above. Have. Therefore, in the information processing system 1, the learning progress by a certain client can be reflected in the update of the weighting coefficient of another plurality of clients, and the plurality of learning progresses by a plurality of clients can be reflected in the weighting coefficient of another one client. It can also be reflected in the update.

なお、上述した構成では、複数の勾配の和だけでなく複数の勾配の数Nを特定可能な情報もクライアント20からサーバ10に送信される例を示したが、この勾配の数Nの代わりに、クライアント20で算出された複数の勾配(勾配ベクトル)の大小関係を特定可能な情報がサーバ10に送信されるようにしてもよい。この複数の勾配の大小関係を特定可能な情報は、複数の勾配の大小関係を特定できればどのような情報であってもよく、例えば、数値(例えば、複数の勾配の各々の大きさの比を表すN次元のベクトル)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。   In the above-described configuration, an example in which not only the sum of a plurality of gradients but also information capable of specifying the number N of a plurality of gradients is transmitted from the client 20 to the server 10 is shown. Information capable of specifying the magnitude relationship of the plurality of gradients (gradient vectors) calculated by the client 20 may be transmitted to the server 10. The information capable of specifying the magnitude relationship of the plurality of gradients may be any information as long as the magnitude relationship of the plurality of gradients can be specified. For example, a numerical value (for example, a ratio of the magnitudes of the plurality of gradients can be calculated). The information may be information that directly indicates the (N-dimensional vector that represents) or information that numerically guides the numerical value.

例えば、目的関数が凸関数である場合、SGDにより最適化を進めることにより得られる勾配ベクトルの大きさは徐々に小さくなる。そのため、クライアント20は、勾配の数Nに代わるメタデータとして、N個の勾配(勾配ベクトル)の各々の大きさの比を表すN次元のベクトルを送信することもできる。また、N次元のベクトルも、勾配ベクトルが有する非常に大きな次元(例えば、数百万)と比較すると十分に小さいと云える。   For example, when the objective function is a convex function, the magnitude of the gradient vector obtained by advancing the optimization by SGD gradually decreases. Therefore, the client 20 can also transmit an N-dimensional vector representing the ratio of the magnitudes of the N gradients (gradient vectors) as metadata in place of the number N of gradients. Also, it can be said that the N-dimensional vector is sufficiently small as compared with the very large dimension (for example, several millions) that the gradient vector has.

サーバ10の受信制御部14は、例えば、第1クライアント20から、複数の勾配の和29Bと、これら複数の勾配の大小関係を特定可能な情報とを受信する。そして、算出部15は、複数の勾配の和29Bと、複数の勾配の大小関係を特定可能な情報とを用いて、例えば、勾配の和29Bが、複数の勾配の大小関係(例えば、N次元ベクトルによって表される大きさの比)に基づいて分割された複数の勾配を算出する。算出部15は、算出された複数の勾配を用いて、例えば、第2クライアント30に関連付けられた重み係数19Aを更新する。そして、送信制御部13は、更新された重み係数19Aを第2クライアント30に送信する。これにより、送信側の第1クライアント20による学習経過を第2クライアント30の重み係数の更新に、より反映させることができる。   The reception control unit 14 of the server 10 receives, for example, the sum 29B of a plurality of gradients and information capable of specifying the magnitude relationship of the plurality of gradients from the first client 20. Then, the calculating unit 15 uses the sum 29B of the plurality of gradients and the information capable of specifying the magnitude relationship of the plurality of gradients, and for example, the sum 29B of the gradients determines the magnitude relationship of the plurality of gradients (for example, N dimensions). A plurality of divided gradients is calculated based on the ratio of the magnitudes represented by the vectors). The calculation unit 15 updates the weighting coefficient 19A associated with the second client 30, for example, using the calculated plurality of gradients. Then, the transmission control unit 13 transmits the updated weighting coefficient 19A to the second client 30. Thereby, the learning progress by the first client 20 on the transmission side can be more reflected in the update of the weighting coefficient of the second client 30.

次いで、図8から図11のフローチャートを参照して、並列分散学習処理の手順の例を示す。図8及び図9のフローチャートが、勾配の和だけが送受信される場合の処理を示すのに対して、図10及び図11のフローチャートは、勾配の和と勾配の数とが送受信される本実施形態の処理を示している。以下では、目的関数の最適化に用いられる学習データが、サーバからクライアントに対して既に割り当てられている場合を例示する。   Next, an example of the procedure of parallel distributed learning processing will be described with reference to the flowcharts of FIGS. The flowcharts of FIGS. 8 and 9 show the processing when only the sum of the gradients is transmitted and received, whereas the flowcharts of FIGS. 10 and 11 show that the sum of the gradients and the number of the gradients are transmitted and received. The processing of form is shown. Below, the case where the learning data used for the optimization of the objective function is already allocated from the server to the client is illustrated.

まず、図8のフローチャートは、勾配の和を送信するクライアントによって実行される処理の手順を示す。
クライアントのCPUは、勾配の和を送信するための∇Wtransferを初期化する(ブロックB11)、すなわち、∇Wtransferに0を設定する。CPUは、送信される勾配の数Nに応じて、N回、ブロックB13からブロックB14までの手順を実行する(ブロックB12)。より具体的には、CPUは、目的関数の重みWを更新する(ブロックB13)。そして、CPUは、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB14)。
First, the flowchart of FIG. 8 shows the procedure of the process executed by the client that transmits the sum of gradients.
The CPU of the client initializes ∇W transfer for transmitting the gradient sum (block B11), that is, sets ∇W transfer to 0. The CPU executes the procedure from block B13 to block B14 N times according to the number N of gradients transmitted (block B12). More specifically, the CPU updates the weight W of the objective function (block B13). Then, the CPU adds the gradient ∇W calculated when updating the weight W to the gradient sum ∇W transfer (block B14).

勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPUは勾配の和∇Wtransferをサーバに送信する(ブロックB15)。また、CPUは、他のクライアントによる学習経過を示す勾配の和∇Wtransferを用いて更新された重みWをサーバ10から受信する(ブロックB16)。そして、CPU301は、受信した重みWで、第1クライアント20で用いられる目的関数の重みWを上書きする(ブロックB17)。 After the gradient ∇W is added N times to the gradient sum ∇W transfer , that is, after the weight W is updated N times, the CPU transmits the gradient sum ∇W transfer to the server (block B15). Further, the CPU receives the weight W updated using the sum ∇W transfer of the gradients indicating the learning progress by other clients from the server 10 (block B16). Then, the CPU 301 overwrites the weight W of the objective function used in the first client 20 with the received weight W (block B17).

図9のフローチャートは、勾配の和を受信するサーバによって実行される処理の手順を示す。
まず、サーバのCPUは、クライアントから勾配の和∇Wtransferを受信したか否かを判定する(ブロックB21)。クライアントから勾配の和∇Wtransferを受信していない場合(ブロックB21のNO)、ブロックB22の手順に戻る。
The flowchart of FIG. 9 shows a procedure of processing executed by the server which receives the sum of gradients.
First, the server CPU determines whether or not the gradient sum ∇W transfer has been received from the client (block B21). When the sum of gradients ∇W transfer is not received from the client (NO in block B21), the procedure returns to block B22.

クライアントから勾配の和∇Wtransferを受信した場合(ブロックB21のYES)、CPUは、この勾配の和∇Wtransferを送信したクライアント以外のクライアントの内、重みWを更新する対象のクライアントを選択する(ブロックB22)。そして、CPUは、対象のクライアントに関連付けられた重みW(すなわち、対象のクライアント上で更新された重みW)を、受信した勾配の和∇Wtransferを用いて更新し(ブロックB23)、その更新された重みWをその対象のクライアントに送信する(ブロックB24)。 When the sum of gradients ∇W transfer is received from the client (YES in block B21), the CPU selects the client whose weight W is to be updated among the clients other than the client that transmitted the sum of gradients ∇W transfer. (Block B22). Then, the CPU updates the weight W associated with the target client (that is, the weight W updated on the target client) using the received gradient sum ∇W transfer (block B23), and the update. The calculated weight W is transmitted to the target client (block B24).

次いで、CPUは、重みWを更新すべき別のクライアントがあるか否かを判定する(ブロックB25)。別のクライアントがある場合(ブロックB25のYES)、ブロックB22に戻り、その別のクライアントに関連付けられた重みWを更新するための手順が実行される。別のクライアントがない場合(ブロックB25のNO)、ブロックB21の手順に戻る。   Then, the CPU determines whether there is another client whose weight W should be updated (block B25). If there is another client (YES in block B25), return to block B22 and the procedure for updating the weight W associated with that other client is performed. If there is no other client (NO in block B25), the process returns to block B21.

次いで、図10のフローチャートを参照して、勾配の和と勾配の数とを送信する第1クライアント20によって実行される処理の手順を説明する。
まず、第1クライアント20のCPU301は、勾配の和を送信するための∇Wtransferを初期化する(ブロックB31)、すなわち、∇Wtransferに0を設定する。CPU301は、送信される勾配の数Nに応じて、N回、ブロックB33からブロックB34までの手順を実行する(ブロックB32)。より具体的には、CPU301は、学習データ21Aを用いて目的関数の重みWを更新する(ブロックB33)。そして、CPU301は、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB34)。
Next, a procedure of processing executed by the first client 20 that transmits the sum of gradients and the number of gradients will be described with reference to the flowchart of FIG. 10.
First, the CPU 301 of the first client 20 initializes ∇W transfer for transmitting the sum of gradients (block B31), that is, sets ∇W transfer to 0. The CPU 301 executes the procedure from block B33 to block B34 N times according to the number N of gradients transmitted (block B32). More specifically, the CPU 301 updates the weight W of the objective function using the learning data 21A (block B33). Then, the CPU 301 adds the gradient ∇W calculated when updating the weight W to the gradient sum ∇W transfer (block B34).

勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPU301は勾配の和∇Wtransferと勾配の数Nとをサーバ10に送信する(ブロックB35)。また、CPU301は、クライアント20,30,40による学習経過を示す勾配の和∇Wtransferと勾配の数Nとを用いて更新された重みWをサーバ10から受信する(ブロックB36)。そして、CPU301は、受信した重みWで、第1クライアント20で用いられる目的関数の重みWを上書きする(ブロックB37)。 After the gradient ∇W is added N times to the gradient sum ∇W transfer , that is, after the weight W is updated N times, the CPU 301 sends the gradient sum ∇W transfer and the number N of gradients to the server 10. It is transmitted (block B35). Further, the CPU 301 receives from the server 10 the weight W updated using the gradient sum ∇W transfer indicating the learning progress by the clients 20, 30, 40 and the number N of gradients (block B36). Then, the CPU 301 overwrites the weight W of the objective function used in the first client 20 with the received weight W (block B37).

また、図11のフローチャートを参照して、勾配の和と勾配の数とを受信するサーバ10によって実行される処理の手順を説明する。
まず、サーバ10のCPU101は、クライアント20,30,40の少なくともいずれかから勾配の和∇Wtransferと勾配の数Nとを受信したか否かを判定する(ブロックB401)。いずれのクライアント20,30,40からも勾配の和∇Wtransferと勾配の数Nとを受信していない場合(ブロックB401のNO)、ブロックB401の手順に戻る。
The procedure of the process executed by the server 10 that receives the sum of gradients and the number of gradients will be described with reference to the flowchart of FIG.
First, the CPU 101 of the server 10 determines whether or not the sum of gradients ∇W transfer and the number N of gradients have been received from at least one of the clients 20, 30, and 40 (block B401). When the sum of gradients ∇W transfer and the number N of gradients have not been received from any of the clients 20, 30, 40 (NO in block B401), the procedure returns to block B401.

クライアント20,30,40の少なくともいずれかから勾配の和∇Wtransferと勾配の数Nとを受信した場合(ブロックB401のYES)、CPU101は、これら勾配の和∇Wtransferと勾配の数Nの送信元のクライアント以外のクライアントから、重みWを更新する対象のクライアントを選択する(ブロックB402)。CPU101は、例えば、第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信した場合、第2クライアント30と第3クライアント40のいずれか一方を、重みWを更新する対象のクライアントとして選択する。 When the gradient sum ∇W transfer and the gradient number N are received from at least one of the clients 20, 30, and 40 (YES in block B401), the CPU 101 determines whether the gradient sum ∇W transfer and the gradient number N are A client whose weight W is to be updated is selected from clients other than the transmission source client (block B402). For example, when the CPU 101 receives the sum of gradients ∇W transfer and the number of gradients N from the first client 20, one of the second client 30 and the third client 40 is a target client for updating the weight W. To choose as.

次いで、CPU101は、更新のための勾配∇Wupdateを初期化する(ブロックB403)、すなわち、∇Wupdateに0を設定する。また、CPU101は、ブロックB405からブロックB408までの繰り返し処理に用いられる変数iに1を設定する(ブロックB404)。CPU101は、変数iが勾配の数N以下である間、ブロックB406からブロックB408までの手順を繰り返す(ブロックB405)。より具体的には、CPU101は学習係数εiを算出する(ブロックB406)。CPU101は、例えば、学習の進度に対応する変数iと、勾配の和∇Wtransferを勾配の数Nで除した値である勾配の平均値∇Wtransfer/Nとを用いて、学習係数εiを算出する。CPU101は、更新のための勾配∇Wupdateに、学習係数εiと∇Wtransfer/Nとを乗じた値を加算する(ブロックB407)。CPU101は、変数iに1を加算する(ブロックB409)。そして、変数iがN以下であるならば、ブロックB406の手順に戻る。 Next, the CPU 101 initializes the gradient ∇W update for updating (block B403), that is, sets ∇W update to 0. Further, the CPU 101 sets 1 to the variable i used in the iterative processing of the blocks B405 to B408 (block B404). The CPU 101 repeats the procedure from block B406 to block B408 while the variable i is the number N of gradients or less (block B405). More specifically, the CPU 101 calculates the learning coefficient ε i (block B406). The CPU 101 uses, for example, the learning coefficient ε i by using the variable i corresponding to the learning progress and the average value ∇W transfer /N of the gradient, which is a value obtained by dividing the sum ∇W transfer of the gradient by the number N of gradients. To calculate. The CPU 101 adds a value obtained by multiplying the gradient ∇W update for updating by the learning coefficient ε i and ∇W transfer /N (block B407). The CPU 101 adds 1 to the variable i (block B409). Then, if the variable i is equal to or less than N, the procedure returns to the block B406.

一方、変数iがNより大きいならば、CPU101は、対象のクライアントに関連付けられた重みWを、更新のための勾配∇Wupdateを用いて更新する(ブロックB409)。CPU101は、通信デバイス106を介して、その更新された重みWを対象のクライアントに送信する(ブロックB410)。 On the other hand, if the variable i is larger than N, the CPU 101 updates the weight W associated with the target client using the gradient ∇W update for updating (block B409). The CPU 101 transmits the updated weight W to the target client via the communication device 106 (block B410).

次いで、CPU101は、重みWを更新すべき別のクライアントがあるか否かを判定する(ブロックB411)。別のクライアントがある場合(ブロックB411のYES)、ブロックB402に戻り、その別のクライアントに関連付けられた重みWを更新するための手順が実行される。別のクライアントがない場合(ブロックB411のNO)、ブロックB401の手順に戻る。   Next, the CPU 101 determines whether there is another client whose weight W should be updated (block B411). If there is another client (YES in block B411), return to block B402 and the procedure for updating the weight W associated with that other client is performed. If there is no other client (NO in block B411), the procedure returns to block B401.

なお、上述したように、情報処理システム1では、サーバ10上に保持され、全てのクライアント20,30,40で共通した重み係数W(マスタパラメータ)を用いることもできる。その場合、CPU101は、クライアント20,30,40の少なくともいずれか1つから受信した複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、ブロックB402の手順で重みWを更新する対象のクライアントを選択することなく、ブロックB403からブロックB409の手順において、サーバ10上の重み係数W(マスタパラメータ)を更新する。そして、CPU101は、ブロックB410において、更新された重み係数Wを各クライアント20,30,40に送信する。   As described above, in the information processing system 1, the weighting coefficient W (master parameter) held on the server 10 and common to all the clients 20, 30, 40 can be used. In that case, the CPU 101 uses the sum of the plurality of gradients received from at least one of the clients 20, 30, and 40 and the information capable of specifying the number of the plurality of gradients to determine the weight W in the procedure of block B402. The weighting factor W (master parameter) on the server 10 is updated in the procedure from block B403 to block B409 without selecting the client to be updated. Then, the CPU 101 transmits the updated weighting factor W to each of the clients 20, 30, 40 in block B410.

また、CPU101は、複数のクライアントから受信した複数の勾配の和∇Wtransferと複数の勾配の数Nとを用いて、それら複数のクライアント以外のクライアントに関連付けられた重みWを更新してもよい。例えば、CPU101は、第1クライアント20から受信した勾配の和∇Wtransfer及び勾配の数Nと、第2クライアント30から受信した勾配の和∇Wtransfer及び勾配の数Nとを用いて、第3クライアント40に関連付けられた重みWを更新するようにしてもよい。その場合、CPU101は、第1クライアント20から受信した勾配の和∇Wtransferと、第2クライアント30から受信した勾配の和∇Wtransferとの総和を、勾配の和∇Wtransferとし、第1クライアント20から受信した勾配の数Nと第2クライアント30から受信した勾配の数Nとの和を、勾配の数Nとして、ブロックB403以降の手順を実行する。 Further, the CPU 101 may update the weight W associated with a client other than the plurality of clients by using the sum ∇W transfer of the plurality of gradients received from the plurality of clients and the number N of the plurality of gradients. . For example, CPU 101 may use the number N of the sum ∇W transfer and gradient slope received from the first client 20, and the number N of the sum ∇W transfer and gradient slope received from the second client 30, the third The weight W associated with the client 40 may be updated. In that case, CPU 101 is a sum ∇W transfer gradient received from the first client 20, the sum of the sum ∇W transfer gradient received from the second client 30, and the sum ∇W transfer gradient, the first client The number of gradients N received from 20 and the number of gradients N received from the second client 30 are set as the number of gradients N, and the procedure from block B403 is executed.

以上説明したように、本実施形態によれば、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。サーバ10の受信制御部14は、サーバ10及びクライアント20,30,40によって、ディープラーニングによる目的関数を基準とする並列分散学習処理が実行される場合に、第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを受信する。サーバ10の算出部15は、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて、目的関数の重み係数19A(第2重み係数)を更新する。   As described above, according to this embodiment, it is possible to efficiently execute parallel distributed learning processing while reducing communication costs. When the server 10 and the clients 20, 30, 40 execute parallel distributed learning processing with the objective function based on deep learning as a reference, the reception control unit 14 of the server 10 changes the first client 20 to the first client 20. 20 receives the sum 29B of the plurality of gradients calculated for updating the weighting coefficient 29A (first weighting coefficient) of the objective function and the information capable of specifying the number 29C of the plurality of gradients. The calculating unit 15 of the server 10 updates the weighting coefficient 19A (second weighting coefficient) of the objective function using the sum 29B of the plurality of gradients and the information capable of specifying the number 29C of the plurality of gradients.

これにより、第1クライアント20から受信した複数の勾配の和29Bだけでなく、通信コストが小さい複数の勾配の数29Cも用いて、目的関数の重み係数19Aが更新されるので、第1クライアント20による学習経過を十分に反映して重み係数19Aを更新することができる。したがって、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。   As a result, not only the sum 29B of the plurality of gradients received from the first client 20 but also the number 29C of the plurality of gradients having a small communication cost is used to update the weighting coefficient 19A of the objective function. It is possible to update the weighting coefficient 19A by sufficiently reflecting the learning progress due to. Therefore, the parallel distributed learning process can be efficiently executed while reducing the communication cost.

(第2実施形態)
図12を参照して、第2実施形態に係る情報処理システムの構成を説明する。この情報処理システム5は、ネットワーク50等を介して相互に接続された複数のクライアントコンピュータ(以下、クライアントとも称する)20,30,40によって構成される。情報処理システム5内のクライアント20,30,40は、例えば、大規模なデータを扱うディープラーニングにおいて目的関数を基準とする並列分散学習処理を実行する。この目的関数を基準とする並列分散学習処理とは、目的関数を学習結果のフィードバック(評価値)として用いて、複数の処理主体で学習されるものであればどのようなものであってもよく、例えば、目的関数を最適化するための並列分散学習処理である。クライアント20,30,40は、第1実施形態において図6を参照して上述したシステム構成を有する。図12では、情報処理システム5に3台のクライアント20,30,40が設けられる例を示したが、クライアントの数は2台であってもよいし、4台以上であってもよい。
(Second embodiment)
The configuration of the information processing system according to the second embodiment will be described with reference to FIG. The information processing system 5 is composed of a plurality of client computers (hereinafter, also referred to as clients) 20, 30, 40 that are mutually connected via a network 50 or the like. The clients 20, 30, and 40 in the information processing system 5 execute parallel distributed learning processing with an objective function as a reference in deep learning that handles large-scale data, for example. The parallel distributed learning process based on the objective function may be any process as long as it is learned by a plurality of processing subjects by using the objective function as feedback (evaluation value) of the learning result. , Parallel distributed learning processing for optimizing the objective function. The clients 20, 30, 40 have the system configuration described above with reference to FIG. 6 in the first embodiment. Although FIG. 12 shows an example in which the information processing system 5 is provided with three clients 20, 30, and 40, the number of clients may be two, or four or more.

図12に示すように、この並列分散学習処理では、クライアント20,30,40は、各々に割り当てられた学習データ21A,31A,41Aを用いて目的関数のパラメータ(例えば、重み係数)を更新し、その際の学習経過を示すデータを相互に送受信し得る。各クライアント20,30,40は、受信した学習経過を示すデータを利用して、各クライアント20,30,40の目的関数のパラメータをさらに更新する。   As shown in FIG. 12, in this parallel distributed learning process, the clients 20, 30, 40 update the parameters (for example, weighting coefficient) of the objective function using the learning data 21A, 31A, 41A assigned to each. , And data showing the learning progress at that time can be mutually transmitted and received. Each client 20, 30, 40 further updates the parameters of the objective function of each client 20, 30, 40 by using the received data showing the learning progress.

より具体的には、例えば、クライアント20は、クライアント30から送信された学習経過を示すデータを用いて、クライアント20の目的関数のパラメータをさらに更新する。また、例えば、クライアント30は、クライアント20から送信された学習経過を示すデータと、クライアント40から送信された学習経過を示すデータとを用いて、クライアント30の目的関数のパラメータをさらに更新する。   More specifically, for example, the client 20 further updates the parameters of the objective function of the client 20 using the data indicating the learning progress transmitted from the client 30. Further, for example, the client 30 further updates the parameters of the objective function of the client 30 using the data indicating the learning progress transmitted from the client 20 and the data indicating the learning progress transmitted from the client 40.

これにより、各クライアントの学習経過が、情報処理システム5内の別のクライアントでも共有されることになるので、情報処理システム5全体での目的関数の最適化を効率的に進めることができる。   As a result, the learning progress of each client is shared by the other clients in the information processing system 5, so that the optimization of the objective function in the entire information processing system 5 can be efficiently advanced.

第1実施形態でも述べたように、ディープラーニングでは、目的関数を最適化する手法として、例えば、確率的勾配降下法(SGD)が用いられる。このSGDでは、勾配ベクトルと称される最適解方向へのベクトルを用いて、目的関数の重み係数(重みベクトル)が更新される。SGDにおける現在の状態を示す重みベクトル、勾配ベクトル及び学習係数をそれぞれW(t)、∇W(t)、ε(t)とすると、更新後の重みベクトルW(t+1)は、以下の式(4)で表される。
W(t+1)=W(t)−ε(t)∇W(t) 式(4)
更新幅を決定する学習係数ε(t)は学習の進度に応じて適応的に決定され、例えば、学習の進度に応じて減衰する。近年では、SGDの最適化アルゴリズムとして、Adagrad、Adadelta、Adam等に代表される学習係数自動減衰アルゴリズムが用いられるケースが増加している。これらの学習係数自動減衰アルゴリズムでは、学習係数ε(t)は、勾配∇W(t)に依存して減衰する。
As described in the first embodiment, in deep learning, for example, the stochastic gradient descent method (SGD) is used as a method of optimizing the objective function. In this SGD, the weight coefficient (weight vector) of the objective function is updated using a vector in the optimal solution direction called a gradient vector. If the weight vector indicating the current state in SGD, the gradient vector, and the learning coefficient are W (t) , ∇W (t) , and ε (t) , respectively, the updated weight vector W (t+1) is It is expressed by equation (4).
W (t+1) = W (t) −ε (t) ∇W (t) Equation (4)
The learning coefficient ε (t) that determines the update width is adaptively determined according to the progress of learning, and is attenuated according to the progress of learning, for example. In recent years, as a SGD optimization algorithm, cases in which a learning coefficient automatic attenuation algorithm represented by Adgrad, Adadelta, Adam, etc. are used are increasing. In these learning coefficient automatic decay algorithms, the learning coefficient ε (t) decays depending on the gradient ∇W (t) .

また、SGDによる目的関数の最適化を並列分散化した場合には、情報処理システム5内で共有される学習経過として勾配ベクトルが用いられることがある。   When the optimization of the objective function by SGD is distributed in parallel, a gradient vector may be used as a learning process shared in the information processing system 5.

しかし、一般にディープラーニングにおける勾配ベクトルは非常に大きな次元(例えば、数百万)を有するので、情報処理システム5内で勾配ベクトルを共有するための通信コストも非常に高くなる。通信コストを減少させるために、例えば、第1クライアント20が目的関数の重み係数を複数回更新する間に、各々の更新で用いられた勾配を複数回分足し合わせた勾配の和∇Wtransferを算出し、この勾配の和∇Wtransferを第2クライアント30に送信することが考えられる。その場合、第2クライアント30は、以下の式(5)に従って、受信した勾配の和∇Wtransferと、第2クライアント30上で算出された勾配∇Wlocalとを用いて、重み係数Wを更新する。

Figure 0006699891
However, since the gradient vector in deep learning generally has a very large dimension (for example, several millions), the communication cost for sharing the gradient vector in the information processing system 5 also becomes very high. In order to reduce the communication cost, for example, while the first client 20 updates the weighting coefficient of the objective function a plurality of times, the gradient sum ∇ W transfer obtained by adding the gradients used in each update a plurality of times is calculated. However, it is conceivable to transmit the sum ∇W transfer of this gradient to the second client 30. In that case, the second client 30 updates the weighting factor W using the sum of gradients ∇W transfer received and the gradient ∇W local calculated on the second client 30 according to the following equation (5). To do.
Figure 0006699891

これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数Wを用いて、効率的に目的関数の最適化を進めることができる。   As a result, the second client 30 can efficiently proceed with the optimization of the objective function by using the weighting coefficient W that reflects the learning progress of the first client 20.

しかし、第1クライアント20が複数の勾配∇Wの各々を用いて重み係数Wを更新するのに対して、第2クライアント30は、受信した勾配の和∇Wtransferを用いて重み係数Wを更新するので、第1クライアント20上で更新される重み係数Wと第2クライアント30上で更新される重み係数Wとでは、処理工程(処理ステップ数)の差が生じることになる。 However, while the first client 20 updates the weighting coefficient W using each of the plurality of gradients ∇W, the second client 30 updates the weighting coefficient W using the sum of the received gradients ∇W transfer. Therefore, the weighting coefficient W updated on the first client 20 and the weighting coefficient W updated on the second client 30 have a difference in processing steps (the number of processing steps).

図13は、重み係数の更新に用いられる勾配の一例を示す。この例では、第1クライアント20から第2クライアント30に、第1クライアント20で算出された複数の勾配511,512,513,514の和52が送信される。そして、第2クライアント30は、この勾配の和52と第2クライアント30で算出された勾配53との和(すなわち、勾配の和52と勾配53との合成ベクトル)54を用いて、重み係数を更新する。   FIG. 13 shows an example of the gradient used for updating the weighting factor. In this example, the sum 52 of the plurality of gradients 511, 512, 513, 514 calculated by the first client 20 is transmitted from the first client 20 to the second client 30. Then, the second client 30 uses the sum 52 of the gradients 52 and the gradient 53 calculated by the second client 30 (that is, the combined vector of the gradient sum 52 and the gradient 53) 54 to determine the weighting factor. Update.

図13に示す例では、第1クライアント20が四つの勾配511,512,513,514を用いて重み係数を更新しているのに対して、第2クライアント30は一つの勾配(勾配の和)54を用いて重み係数を更新している。換言すると、第1クライアント20が式(4)に基づく重み係数の更新処理を4回実行しているのに対して、サーバ10は式(5)に基づく重み係数の更新処理を1回実行している。式(4)及び式(5)に含まれる学習係数εは、学習の進度に応じて適応的に決定される(例えば、勾配に依存して減衰する)。したがって、四つの勾配511,512,513,514を用いた重み係数の更新処理と、一つの勾配(勾配の和)54を用いた重み係数の更新処理とでは、処理工程の差が生じることになる。これによって、送信側の第1クライアント20による学習経過が、第2クライアント30での重み係数の更新に十分に反映されない、すなわち、情報処理システム5内で学習経過が十分に共有されない可能性がある。   In the example shown in FIG. 13, the first client 20 updates the weighting factor using the four gradients 511, 512, 513, 514, while the second client 30 updates one weighting gradient (sum of gradients). 54 is used to update the weighting factor. In other words, the first client 20 executes the weight coefficient updating process based on the equation (4) four times, while the server 10 executes the weight coefficient updating process based on the equation (5) once. ing. The learning coefficient ε included in the equations (4) and (5) is adaptively determined according to the progress of learning (for example, attenuates depending on the gradient). Therefore, there is a difference in processing steps between the weight coefficient update process using the four gradients 511, 512, 513, and 514 and the weight coefficient update process using one gradient (sum of gradients) 54. Become. As a result, the learning progress by the first client 20 on the transmission side may not be sufficiently reflected in the update of the weighting factor by the second client 30, that is, the learning progress may not be sufficiently shared in the information processing system 5. .

このような処理工程の差を低減するために、本実施形態では、各クライアント20,30,40間で、複数の勾配の和だけでなく、この複数の勾配の和の算出に用いられた複数の勾配の数を特定可能な情報も送信するこの複数の勾配の数を特定可能な情報は、複数の勾配の数を特定できればどのような情報であってもよく、例えば数値(例:“4”)を直接示す情報であってもよく、間接的に数値が導かれる情報であってもよい。   In order to reduce such a difference in processing steps, in the present embodiment, not only the sum of a plurality of gradients among the clients 20, 30, 40, but also a plurality of sums used for calculating the sum of the plurality of gradients are used. The information capable of specifying the number of the plurality of gradients may be any information as long as the number of the plurality of gradients can be specified. For example, a numerical value (for example, “4 )) may be directly indicated information, or the numerical value may be indirectly derived.

図14は、本実施形態で重み係数の更新に用いられる勾配の一例を示す。この例では、第1クライアント20から第2クライアント30に、第1クライアント20で算出された複数の勾配511,512,513,514の和52と、これら複数の勾配511,512,513,514の数N(ここでは、N=4)とが送信される。第2クライアント30は、この第2クライアント30自体で算出された勾配53だけでなく、受信した勾配の和52を勾配の数Nで除して得られたN個の勾配551,552,553,554も用いて、第2クライアント30の重み係数を更新する。   FIG. 14 shows an example of the gradient used for updating the weighting coefficient in this embodiment. In this example, the sum 52 of the plurality of gradients 511, 512, 513, 514 calculated by the first client 20 and the plurality of gradients 511, 512, 513, 514 are calculated from the first client 20 to the second client 30. The number N (here N=4) is transmitted. The second client 30 includes not only the gradient 53 calculated by the second client 30 itself but also N gradients 551, 552, 553 obtained by dividing the received gradient sum 52 by the number N of gradients. 554 is also used to update the weighting factor of the second client 30.

図14に示す例では、第1クライアント20が四つの勾配511,512,513,514を用いて重み係数を更新しているのに対して、第2クライアント30は、四つの勾配551,552,553,554と、この第2クライアント30自体で算出された勾配53とを用いて重み係数を更新している。より具体的には、第2クライアント30は、次の式(6)を用いて第2クライアント30の重み係数を更新する。

Figure 0006699891
In the example shown in FIG. 14, the first client 20 updates the weighting factor using the four gradients 511, 512, 513, 514, while the second client 30 updates the four gradients 551, 552. The weighting coefficient is updated using 553 and 554 and the gradient 53 calculated by the second client 30 itself. More specifically, the second client 30 updates the weighting factor of the second client 30 using the following equation (6).
Figure 0006699891

第2クライアント30は、送信側の第1クライアント20による四つの勾配511,512,513,514を用いた重み係数の更新を、四つの勾配551,552,553,554を用いた重み係数の更新で擬似的に再現することによって、処理工程の差を低減している。これにより、送信側の第1クライアント20による学習経過が、第2クライアント30での重み係数の更新に十分に反映でき、したがって、情報処理システム5内で学習経過を十分に共有することができる。   The second client 30 updates the weight coefficient using the four gradients 511, 512, 513, 514 by the first client 20 on the transmission side, and updates the weight coefficient using the four gradients 551, 552, 553, 554. The difference in the processing steps is reduced by pseudo-reproducing. Thereby, the learning progress by the first client 20 on the transmission side can be sufficiently reflected in the update of the weighting coefficient in the second client 30, and thus the learning progress can be sufficiently shared in the information processing system 5.

また、勾配の数Nはスカラー量であるので、勾配の数Nを特定可能な情報は、非常に大きな次元(例えば、数百万)を有する勾配(勾配ベクトル)のデータに対して十分に小さなメタデータである。そのため、勾配の数Nをさらに送信することによって、通信コストにほとんど影響を与えることなく、クライアント20,30,40間での重み係数更新の処理工程の差を低減することができる。   Also, since the number N of gradients is a scalar quantity, information that can identify the number N of gradients is sufficiently small for data of a gradient (gradient vector) having a very large dimension (for example, millions). It is metadata. Therefore, by further transmitting the number N of gradients, it is possible to reduce the difference in the processing steps of updating the weighting factors among the clients 20, 30, and 40, with little influence on the communication cost.

図15は、情報処理システム5内のクライアント20,30,40によって、目的関数を基準とする並列分散学習処理で学習経過が共有される例を示す。以下では、各クライアント20,30,40に学習データ21A,31A,41Aが既に割り当てられている場合を想定する。各クライアント20,30,40は、割り当てられた学習データを用いて、目的関数の重み係数Wを繰り返し更新する。   FIG. 15 shows an example in which the learning progress is shared by the parallel distributed learning processing using the objective function as a reference by the clients 20, 30, 40 in the information processing system 5. In the following, it is assumed that the learning data 21A, 31A, 41A are already assigned to the clients 20, 30, 40. Each client 20, 30, 40 repeatedly updates the weighting coefficient W of the objective function using the assigned learning data.

図15に示す例では、第1クライアント20は、割り当てられた学習データ21Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和∇Wtransferを算出する(S21)。そして、第1クライアント20は、算出された勾配の和∇Wtransferと勾配の数とを示すデータ(∇Wtransfer, 4)を第2クライアント30に送信する(S22)。 In the example illustrated in FIG. 15, the first client 20 updates the weighting factor W four times using the assigned learning data 21A, and the sum ∇W of the four gradients calculated for each of the four updates. Transfer is calculated (S21). Then, the first client 20 transmits data (∇W transfer , 4) indicating the calculated sum of gradients ∇W transfer and the number of gradients to the second client 30 (S22).

次いで、第2クライアント30は、このデータ(∇Wtransfer, 4)を受信し、勾配の和∇Wtransfer及び勾配の数と、第2クライアント30上で算出された勾配∇Wlocalとを用いて、第2クライアント30の重み係数Wを更新する(S23)。 Then, the second client 30 receives this data (∇W transfer , 4) and uses the sum of gradients ∇W transfer and the number of gradients and the gradient ∇W local calculated on the second client 30. , And updates the weighting factor W of the second client 30 (S23).

同様にして、各クライアント20,30,40は、学習データを用いて、目的関数の重み係数WをN回更新し、勾配の和∇Wtransferと勾配の数Nとを示すデータを別のクライアント20,30,40に送信することができる。そして、各クライアント20,30,40は、別のクライアント20,30,40から受信した勾配の和∇Wtransfer及び勾配の数Nと、そのクライアント自体で算出した勾配∇Wlocalとを用いて、重み係数Wを更新することができる。 Similarly, each of the clients 20, 30 and 40 updates the weighting coefficient W of the objective function N times by using the learning data and obtains data indicating the sum ∇ W transfer of gradients and the number N of gradients from another client. It can be sent to 20, 30, 40. Then, each client 20, 30, 40 uses the sum ∇W transfer of gradients and the number N of gradients received from another client 20, 30, 40, and the gradient ∇W local calculated by the client itself, The weighting factor W can be updated.

このように、各クライアント20,30,40は、例えば、予め規定されたタイミングで(例えば、4回の更新毎に)、勾配の和∇Wtransferと勾配の数Nとを、予め規定された別のクライアント20,30,40に送信し得る。これにより、情報処理システム5内で、各クライアント20,30,40による学習経過が共有され、情報処理システム5全体での目的関数の最適化を効率的に進めることができる。なお、この送信タイミングは、更新回数に限らず、例えば、前回、勾配の和∇Wtransferと勾配の数Nとが送信されてからの経過時間に基づいて決定されてもよい。 In this way, each client 20, 30, 40 defines the sum of gradients ∇W transfer and the number N of gradients in advance at predetermined timings (for example, every four updates). It may be sent to another client 20, 30, 40. As a result, the learning progress by the clients 20, 30, 40 is shared in the information processing system 5, and the optimization of the objective function in the entire information processing system 5 can be efficiently advanced. Note that this transmission timing is not limited to the number of updates, but may be determined based on the elapsed time from the transmission of the gradient sum ∇W transfer and the gradient number N last time, for example.

また、図16は、情報処理システム5内のクライアント20,30,40によって、目的関数を基準とする並列分散学習処理で学習経過が共有される別の例を示す。各クライアント20,30,40は、割り当てられた学習データ21A,31A,41Aを用いて、目的関数の重み係数Wを繰り返し更新する。   16 shows another example in which the learning progress is shared by the parallel distributed learning processing using the objective function as a reference by the clients 20, 30, 40 in the information processing system 5. Each of the clients 20, 30, 40 repeatedly updates the weighting coefficient W of the objective function using the assigned learning data 21A, 31A, 41A.

図16に示す例では、第3クライアント40は、割り当てられた学習データ41Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和∇Wt1を算出する(S31)。そして、第3クライアント40は、算出された勾配の和∇Wt1と勾配の数とを示すデータ(∇Wt1, 4)を第1クライアント30に送信する(S32)。第1クライアント20は、第3クライアント40によって送信されたデータ(∇Wt1, 4)を受信する。 In the example shown in FIG. 16, the third client 40 updates the weighting factor W four times using the assigned learning data 41A, and the sum ∇W of the four gradients calculated for each of the four updates. Calculate t1 (S31). Then, the third client 40 transmits data (∇W t1 , 4) indicating the calculated sum of gradients ∇W t1 and the number of gradients to the first client 30 (S32). The first client 20 receives the data (∇W t1 , 4) transmitted by the third client 40.

また、第1クライアント20は、割り当てられた学習データ21Aを用いて、重み係数Wを4回更新し、その4回の更新毎に算出された4個の勾配の和を算出している(S33)。第1クライアント20は、この算出した勾配の和と第3クライアント40から受信した勾配の和∇Wt1との総和∇Wt2を算出し、さらに、受信した勾配の数(=4)と、第1クライアント20上で算出した勾配の数(=4)との和(=8)を算出し、算出された勾配の総和と勾配の数の和とを示すデータ(∇Wt2, 8)を第2クライアント30に送信する(S34)。第2クライアント30は、第1クライアント20によって送信されたデータ(∇Wt2, 8)を受信する。なお、第1クライアント20は、第3クライアント40から受信したデータ(∇Wt1, 4)と、第1クライアント20上で、例えば直前に算出された勾配とを用いて、上述した式(6)に従って、第1クライアント20の重み係数Wを更新するようにしてもよい。 Further, the first client 20 updates the weighting factor W four times using the assigned learning data 21A, and calculates the sum of the four gradients calculated for each of the four updates (S33). ). The first client 20 calculates the sum ∇W t2 of the calculated sum of the gradients and the sum ∇W t1 of the gradients received from the third client 40, and further calculates the number of the received gradients (=4) and the Calculate the sum (=8) with the number of gradients (=4) calculated on one client 20, and calculate the data (∇W t2 , 8) indicating the total of the calculated gradients and the sum of the number of gradients. 2 Send to the client 30 (S34). The second client 30 receives the data (∇W t2 , 8) transmitted by the first client 20. The first client 20 uses the data (∇W t1 , 4) received from the third client 40 and the gradient calculated on the first client 20, for example, immediately before, and uses the above equation (6). Accordingly, the weighting factor W of the first client 20 may be updated.

また、第2クライアント30は、割り当てられた学習データ31Aを用いて、重み係数Wを6回更新し、その6回の更新毎に算出された6個の勾配の和を算出している(S35)。第2クライアント30は、この算出した勾配の和と第1クライアント20から受信した勾配の和∇Wt2との総和∇Wt3を算出し、さらに、受信した勾配の数(=8)と、第2クライアント30上で算出した勾配の数(=6)との和(=14)を算出し、算出された勾配の総和と勾配の数の和とを示すデータ(∇Wt3, 14)を第3クライアント40に送信する(S36)。第3クライアント40は、第2クライアント30によって送信されたデータ(∇Wt3, 14)を受信する。なお、第2クライアント30は、第1クライアント20から受信したデータ(∇Wt2, 8)と、第2クライアント30上で、例えば直前に算出された勾配とを用いて、上述した式(6)に従って、第2クライアント30の重み係数Wを更新するようにしてもよい。 Further, the second client 30 updates the weighting factor W six times using the assigned learning data 31A, and calculates the sum of the six gradients calculated for each of the six updates (S35). ). The second client 30 calculates the sum ∇W t3 of the calculated sum of the gradients and the sum ∇W t2 of the gradients received from the first client 20, and further calculates the number of the received gradients (=8) and the 2 Calculate the sum (=14) with the number of gradients (=6) calculated on the client 30, and calculate the data (∇W t3 , 14) indicating the sum of the calculated gradients and the number of gradients. 3 to the client 40 (S36). The third client 40 receives the data (∇W t3 , 14) transmitted by the second client 30. The second client 30 uses the data (∇W t2 , 8) received from the first client 20 and the gradient calculated immediately before on the second client 30, for example, to obtain the above equation (6). Accordingly, the weighting factor W of the second client 30 may be updated.

次いで、第3クライアント40は、第2クライアント30から受信したデータ(∇Wt3, 14)と、第3クライアント40上で、例えば直前に算出された勾配∇Wlocalとを用いて、第3クライアント40の重み係数Wを更新する(S37)。より具体的には、第3クライアント40は、受信したデータ(∇Wt3, 14)と、S31においてこの第3クライアント40上で算出されたデータ(∇Wt1, 4)とを用いて、第3クライアント40で共有すべき勾配の和と勾配の数とを算出する。すなわち、第3クライアント40は、受信した勾配の総和∇Wt3から、第3クライアント40自体で算出された勾配の和∇Wt1を引いた値(∇Wt3−∇Wt1)を第3クライアント40で共有すべき勾配の和として算出する。また、第3クライアント40は、受信した勾配の数(=14)から、第3クライアント40自体で算出された勾配の数(=4)を引いた値(=10)を第3クライアント40で共有すべき勾配の数として算出する。第3クライアント40は、算出された勾配の和(∇Wt3−∇Wt1)と勾配の数(=10)と、第3クライアント40上で直前に算出された勾配∇Wlocalとを用いて、上述した式(6)に従って第3クライアント40の重み係数Wを更新する。 Then, the third client 40 uses the data (∇W t3 , 14) received from the second client 30 and the gradient ∇W local calculated on the third client 40, for example, immediately before the third client 40. The weighting factor W of 40 is updated (S37). More specifically, the third client 40 uses the received data (∇W t3 , 14) and the data (∇W t1 , 4) calculated on the third client 40 in S31, The sum of gradients and the number of gradients to be shared by the three clients 40 are calculated. That is, the third client 40 subtracts a value (∇W t3 −∇W t1 ) obtained by subtracting the sum ∇W t1 of the gradients calculated by the third client 40 itself from the total sum ∇W t3 of the received gradients. Calculated as the sum of the gradients to be shared by 40. The third client 40 shares a value (=10) obtained by subtracting the number of gradients (=4) calculated by the third client 40 itself from the number of received gradients (=14) with the third client 40. Calculate as the number of gradients to be made. The third client 40 uses the calculated sum of gradients (∇W t3 −∇W t1 ), the number of gradients (=10), and the gradient ∇W local calculated immediately before on the third client 40. The weighting factor W of the third client 40 is updated according to the above equation (6).

このように、各クライアント20,30,40は、別のクライアントから受信した勾配の和と勾配の数とに、そのクライアント自体で算出した勾配の和と勾配の数とをそれぞれ加算し、加算結果である勾配の総和と勾配の数の和とをさらに別のクライアントに送信することができる。各クライアント20,30,40は、受信した勾配の総和と勾配の数の和と、そのクライアント自体で算出した勾配∇Wlocalとを用いて、重み係数Wを更新することができる。なお、各クライアント20,30,40は、受信した勾配の総和と勾配の数の和とに、そのクライアント自体で算出した勾配の和と勾配の数とがそれぞれ含まれている場合には、それらを引いた値を用いて、重み係数Wを更新することができる。 In this way, each client 20, 30, 40 adds the sum of gradients and the number of gradients calculated by the client itself to the sum of gradients and the number of gradients received from another client, and the addition result The sum of the gradients and the sum of the number of gradients can be sent to yet another client. Each of the clients 20, 30, 40 can update the weighting factor W using the sum of the received gradients and the sum of the number of gradients and the gradient ∇W local calculated by the client itself. Note that each of the clients 20, 30 and 40 receives the sum of gradients and the number of gradients, if the sum of the gradients and the number of gradients calculated by the client itself are included in the sum. The weighting factor W can be updated using a value obtained by subtracting.

図17は、第1クライアント20と第2クライアント30とによってそれぞれ実行される並列分散学習クライアントプログラム402の機能構成の一例を示す。第1クライアント20と第2クライアント30とは、例えば、ディープラーニングによる目的関数を基準とする並列分散学習処理を実行する。ここでは、説明を分かりやすくするために、情報処理システム5において、第1クライアント20が学習経過を示すデータを第2クライアント30に送信し、第2クライアント30がこの学習経過を用いて重み係数を更新する場合を主に例示する。   FIG. 17 shows an example of the functional configuration of the parallel distributed learning client program 402 executed by the first client 20 and the second client 30, respectively. The first client 20 and the second client 30 execute, for example, parallel distributed learning processing based on an objective function by deep learning. Here, in order to make the explanation easier to understand, in the information processing system 5, the first client 20 transmits data indicating the learning progress to the second client 30, and the second client 30 uses the learning progress to determine the weighting factor. The case of updating is mainly illustrated.

第1クライアント20上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部22、算出部23及び送信制御部24を備える。第1クライアント20に設けられた記憶媒体21(例えば、不揮発性メモリ305)には、第1クライアント20に割り当てられた学習データ21Aが格納されている。   The parallel distributed learning client program 402 executed on the first client 20 includes, for example, a reception control unit 22, a calculation unit 23, and a transmission control unit 24. The learning data 21A assigned to the first client 20 is stored in the storage medium 21 (for example, the non-volatile memory 305) provided in the first client 20.

算出部23は、学習データ21Aを用いて、目的関数の重み係数29A(第1重み係数)を更新する処理を繰り返し実行する。算出部23は、第1期間において、重み係数29Aが更新される毎に、その更新時に算出された勾配を積算することによって、複数の勾配の和29Bを算出すると共に、積算された複数の勾配の数29Cをカウントする。なお、第1期間は、例えば、時間で規定されてもよいし、重み係数29Aが更新される回数で規定されてもよい。   The calculation unit 23 repeatedly executes the process of updating the weighting coefficient 29A (first weighting coefficient) of the objective function using the learning data 21A. Every time the weighting factor 29A is updated, the calculating unit 23 integrates the gradients calculated at the time of updating to calculate the sum 29B of the plurality of gradients, and the plurality of integrated gradients. The number 29C is counted. The first period may be defined by time or the number of times the weighting coefficient 29A is updated, for example.

受信制御部22及び送信制御部24は、通信デバイス306を介して、第2クライアント30との間でデータを送受信する機能を有する。   The reception control unit 22 and the transmission control unit 24 have a function of transmitting and receiving data to and from the second client 30 via the communication device 306.

送信制御部24は、第1期間が経過した場合、第1クライアント20による学習経過を示すデータを第2クライアント30に送信する。送信制御部24は、例えば、算出された複数の勾配の和29Bと、カウントされた複数の勾配の数29Cを特定可能な情報とを第2クライアント30に送信する。   When the first period has elapsed, the transmission control unit 24 transmits the data indicating the learning progress of the first client 20 to the second client 30. The transmission control unit 24 transmits, for example, the sum 29B of the calculated plurality of gradients and the information capable of specifying the counted number 29C of the plurality of gradients to the second client 30.

また、第2クライアント30上で実行される並列分散学習クライアントプログラム402は、例えば、受信制御部32、算出部33及び送信制御部34を備える。第2クライアント30に設けられた記憶媒体31(例えば、不揮発性メモリ305)には、第2クライアント30に割り当てられた学習データ31Aが格納されている。   The parallel distributed learning client program 402 executed on the second client 30 includes, for example, a reception control unit 32, a calculation unit 33, and a transmission control unit 34. The learning data 31A assigned to the second client 30 is stored in the storage medium 31 (for example, the non-volatile memory 305) provided in the second client 30.

算出部33は、学習データ31Aを用いて、目的関数の重み係数39Aを更新する処理を繰り返し実行する。   The calculation unit 33 repeatedly executes the process of updating the weighting coefficient 39A of the objective function using the learning data 31A.

受信制御部32及び送信制御部34は、通信デバイス306を介して、第1クライアント20との間でデータを送受信する機能を有する。   The reception control unit 32 and the transmission control unit 34 have a function of transmitting and receiving data to and from the first client 20 via the communication device 306.

受信制御部32は、第1クライアント20から、学習経過を示す複数の勾配の和29Bと、それら複数の勾配の数29Cを特定可能な情報とを受信する。   The reception control unit 32 receives from the first client 20 the sum 29B of a plurality of gradients indicating the learning progress and the information capable of specifying the number 29C of the plurality of gradients.

算出部33は、第1クライアント20から受信した複数の勾配の和29Bと複数の勾配の数29Cを特定可能な情報とを用いて、第2クライアント30の重み係数39Aを更新する。算出部33は、例えば、上述した式(6)に従って、複数の勾配の和29Bを複数の勾配の数29Cで除した値に、学習係数を掛けた値を用いて、第2クライアント30の重み係数39Aを更新する。なお、この学習係数は、例えば、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて決定される。これにより、第2クライアント30は、第1クライアント20による学習経過が反映された重み係数39Aを用いて、並列分散学習処理を効率的に進めることができる。   The calculation unit 33 updates the weighting factor 39A of the second client 30 using the sum 29B of the plurality of gradients received from the first client 20 and the information capable of specifying the number 29C of the plurality of gradients. The calculation unit 33 uses the value obtained by multiplying the learning coefficient by a value obtained by dividing the sum 29B of the plurality of gradients by the number 29C of the plurality of gradients, for example, according to the above-described formula (6), and uses the value of the second client 30. The coefficient 39A is updated. The learning coefficient is determined using, for example, the sum 29B of the plurality of gradients and the information capable of specifying the number 29C of the plurality of gradients. As a result, the second client 30 can efficiently proceed the parallel distributed learning process by using the weighting coefficient 39A in which the learning progress of the first client 20 is reflected.

なお、算出部33は、第1期間において、重み係数39Aが更新される毎に、その更新時に算出された勾配を積算することによって、勾配の和39Bを算出すると共に、積算された勾配の数39Cをカウントしてもよい。   Note that the calculation unit 33 calculates the sum 39B of gradients by adding up the gradients calculated at the time of each update of the weighting factor 39A in the first period, and at the same time, calculates the number of integrated gradients. 39C may be counted.

また、送信制御部34は、第1期間が経過した場合、第2クライアント30による学習経過を示すデータを第1クライアント20に送信してもよい。送信制御部34は、例えば、算出された勾配の和39Bと、カウントされた勾配の数39Cを特定可能な情報とを第1クライアント20に送信してもよい。   Further, the transmission control unit 34 may transmit data indicating the learning progress of the second client 30 to the first client 20 when the first period has elapsed. The transmission control unit 34 may transmit, for example, the calculated sum 39B of gradients and information capable of specifying the counted number 39C of gradients to the first client 20.

その場合、第1クライアント20の算出部23は、これら勾配の和39Bと勾配の数39Cとを用いて、第1クライアント20の重み係数29Aを更新することができる。これにより、第1クライアント20は、第2クライアント30による学習経過が反映された重み係数29Aを用いて、並列分散学習処理を効率的に進めることができる。   In that case, the calculation unit 23 of the first client 20 can update the weighting factor 29A of the first client 20 using the sum 39B of these gradients and the number 39C of gradients. As a result, the first client 20 can efficiently proceed the parallel distributed learning process by using the weighting coefficient 29A that reflects the learning progress of the second client 30.

なお、上述した構成では、勾配の和だけでなく勾配の数Nも含む学習経過が第1クライアント20から第2クライアント30に送信される例を示したが、この勾配の数Nの代わりに、第1クライアント20で算出されたN個の勾配(勾配ベクトル)の大きさの比を表すN次元のベクトルが第2クライアント30に送信されるようにしてもよい。   In the above-described configuration, the example in which the learning progress including not only the sum of the gradients but also the number N of gradients is transmitted from the first client 20 to the second client 30 is shown. However, instead of the number N of gradients, An N-dimensional vector representing the size ratio of the N gradients (gradient vectors) calculated by the first client 20 may be transmitted to the second client 30.

第2クライアント30の受信制御部32は、例えば、第1クライアント20から、複数の勾配の和29Bと、これら複数の勾配の各々の大きさの比を表すベクトルとを受信する。そして、算出部33は、複数の勾配の和29Bと、複数の勾配の各々の大きさの比を表すベクトルとを用いて、例えば、勾配の和29Bが、ベクトルによって表される大きさの比に基づいて分割された複数の勾配を算出する。算出部33は、算出された複数の勾配を用いて重み係数39Aを更新する。これにより、送信側の第1クライアント20による学習経過を第2クライアント30の重み係数39Aの更新に、より反映させることができる。   The reception control unit 32 of the second client 30 receives, for example, the sum 29B of the plurality of gradients and the vector indicating the ratio of the magnitudes of the plurality of gradients from the first client 20. Then, the calculation unit 33 uses the sum 29B of the plurality of gradients and the vector representing the ratio of the magnitudes of the plurality of gradients, for example, the sum 29B of the gradients is the ratio of the magnitudes represented by the vectors. A plurality of gradients divided based on is calculated. The calculation unit 33 updates the weighting factor 39A using the calculated plurality of gradients. As a result, the learning progress by the first client 20 on the transmission side can be more reflected in the update of the weighting factor 39A of the second client 30.

また、情報処理システム5には、第1クライアント20及び第2クライアント30に限らず、3台以上のクライアントを設けることができ、各クライアントは、上述した第1クライアント20及び第2クライアント30と同様の構成を有する。したがって、情報処理システム5では、あるクライアントによる学習経過を別の複数のクライアントの重み係数の更新に反映することができる。   The information processing system 5 is not limited to the first client 20 and the second client 30 and can be provided with three or more clients, and each client is the same as the first client 20 and the second client 30 described above. It has the configuration of. Therefore, in the information processing system 5, the learning progress by a certain client can be reflected in the update of the weighting factor of another plurality of clients.

さらに、情報処理システム5では、複数のクライアントによる複数の学習経過を別の一つのクライアントの重み係数の更新に反映することもできる。   Further, in the information processing system 5, a plurality of learning progresses by a plurality of clients can be reflected in the update of the weighting coefficient of another one client.

例えば、第1クライアント20が、第3クライアント40から、この第3クライアント40によって目的関数の重み係数(第3重み係数)を更新するために算出された複数の第1の勾配の和と、複数の第1の勾配の数を特定可能な情報とを受信した場合を想定する。この場合、第1クライアント20の送信制御部24は、複数の第1の勾配の和と、算出部23によって重み係数29A(第1重み係数)を更新するために算出された複数の第2の勾配の和29Bとの総和と、複数の第1の勾配の数と複数の第2の勾配の数29Cとの和を特定可能な情報とを、第2クライアント30に送信する。   For example, the first client 20 may add a plurality of first gradients calculated from the third client 40 to update the weighting coefficient (third weighting coefficient) of the objective function by the third client 40, and Suppose that the information capable of specifying the number of the first gradients of is received. In this case, the transmission control unit 24 of the first client 20 calculates the sum of the plurality of first gradients and the plurality of second calculation values calculated by the calculation unit 23 to update the weight coefficient 29A (first weight coefficient). The total sum of the gradient sum 29B and the information capable of specifying the sum of the plurality of first gradient numbers and the plurality of second gradient numbers 29C are transmitted to the second client 30.

第2クライアント30の受信制御部32は、複数の第1の勾配の和と複数の第2の勾配の和29Bとの総和と、複数の第1の勾配の数と複数の第2の勾配の数29Cとの和を特定可能な情報とを受信する。そして、算出部33は、これら総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて、重み係数39A(第2重み係数)を更新する。   The reception control unit 32 of the second client 30 determines the sum of the sum of the plurality of first gradients and the sum of the plurality of second gradients 29B, the number of the plurality of first gradients, and the plurality of the second gradients. Information that can specify the sum of the number 29C and the number 29C is received. Then, the calculation unit 33 uses the total sum and the information capable of specifying the sum of the number of the plurality of first gradients and the number of the plurality of second gradients, and the weighting factor 39A (second weight). Coefficient) is updated.

このように、第3クライアント40と第1クライアント20とを経由して得られた複数の学習経過を、別の第2クライアント30の重み係数39Aの更新に反映することもできる。   In this way, a plurality of learning progresses obtained via the third client 40 and the first client 20 can be reflected in the update of the weighting factor 39A of another second client 30.

図18のフローチャートを参照して、勾配の和と勾配の数とを送信する第1クライアント20によって実行される処理の手順を説明する。以下では、目的関数の最適化に用いられる学習データが、クライアント20,30,40に対して既に割り当てられている場合を想定する。   The procedure of the process executed by the first client 20 that transmits the sum of gradients and the number of gradients will be described with reference to the flowchart of FIG. In the following, it is assumed that the learning data used for the optimization of the objective function is already assigned to the clients 20, 30, 40.

まず、第1クライアント20のCPU301は、勾配の和を送信するための∇Wtransferを初期化する(ブロックB31)、すなわち、∇Wtransferに0を設定する。CPU301は、送信される勾配の数Nに応じて、N回、ブロックB53及びブロックB54の手順を実行する(ブロックB52)。より具体的には、CPU301は、学習データ21Aを用いて目的関数の重みWを更新する(ブロックB53)。そして、CPU301は、重みWを更新する際に算出された勾配∇Wを、勾配の和∇Wtransferに加算する(ブロックB54)。 First, the CPU 301 of the first client 20 initializes ∇W transfer for transmitting the sum of gradients (block B31), that is, sets ∇W transfer to 0. The CPU 301 executes the procedure of block B53 and block B54 N times according to the number N of gradients transmitted (block B52). More specifically, the CPU 301 updates the weight W of the objective function using the learning data 21A (block B53). Then, the CPU 301 adds the gradient ∇W calculated when updating the weight W to the gradient sum ∇W transfer (block B54).

勾配∇Wが勾配の和∇WtransferにN回加算された後、すなわち、重みWの更新がN回行われた後、CPU301は勾配の和∇Wtransferと勾配の数Nとを別のクライアント(例えば、第2クライアント30)に送信する(ブロックB55)。 After the gradient ∇W has been added N times to the gradient sum ∇W transfer , that is, after the weight W has been updated N times, the CPU 301 determines the gradient sum ∇W transfer and the number N of gradients by another client. (For example, the second client 30) (block B55).

次いで、図19のフローチャートを参照して、勾配の和と勾配の数とを受信する第2クライアント30によって実行される処理の手順を説明する。   Next, the procedure of the process executed by the second client 30 that receives the sum of gradients and the number of gradients will be described with reference to the flowchart in FIG.

まず、第2クライアント30のCPU301は、学習データ31Aを用いて重みWを更新する(ブロックB61)。そして、CPU301は、第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信したか否かを判定する(ブロックB62)。第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信していない場合(ブロックB62のNO)、ブロックB61の手順に戻る。 First, the CPU 301 of the second client 30 updates the weight W using the learning data 31A (block B61). Then, the CPU 301 determines whether or not the sum of gradients ∇W transfer and the number N of gradients have been received from the first client 20 (block B62). If the sum of gradients ∇W transfer and the number N of gradients have not been received from the first client 20 (NO in block B62), the process returns to block B61.

第1クライアント20から勾配の和∇Wtransferと勾配の数Nとを受信した場合(ブロックB62のYES)、CPU301は、更新のための勾配∇Wupdateを初期化する(ブロックB63)、すなわち、∇Wupdateに0を設定する。また、CPU301は、ブロックB65からブロックB68までの繰り返し処理に用いられる変数iに1を設定する(ブロックB64)。CPU301は、iが勾配の数N以下である間、ブロックB66からブロックB68までの手順を繰り返す(ブロックB65)。より具体的には、CPU301は学習係数εiを算出する(ブロックB66)。CPU301は、例えば、学習の進度に対応するiと、勾配の和∇Wtransferを勾配の数Nで除した勾配の平均∇Wtransfer/Nとを用いて、学習係数εiを算出する。CPU301は、更新のための勾配∇Wupdateに、学習係数εiと勾配の平均∇Wtransfer/Nとを乗じた値を加算する(ブロックB67)。そして、CPU301は、変数iに1を加算する(ブロックB68)。 When the sum of gradients ∇W transfer and the number of gradients N are received from the first client 20 (YES in block B62), the CPU 301 initializes the gradient ∇W update for updating (block B63), that is, ∇ Set W update to 0. Further, the CPU 301 sets 1 to the variable i used in the iterative processing of the blocks B65 to B68 (block B64). The CPU 301 repeats the procedure from block B66 to block B68 while i is the number N of gradients or less (block B65). More specifically, the CPU 301 calculates the learning coefficient ε i (block B66). For example, the CPU 301 calculates the learning coefficient ε i using i corresponding to the progress of learning and the average ∇W transfer /N of the gradients obtained by dividing the sum ∇W transfer of the gradients by the number N of gradients. The CPU 301 adds a value obtained by multiplying the gradient ∇W update for updating by the learning coefficient ε i and the average ∇W transfer /N of the gradient (block B67). Then, the CPU 301 adds 1 to the variable i (block B68).

変数iがNより大きいならば、CPU301は、ブロックB61で更新された重みWを、更新のための勾配の和∇Wupdateを用いてさらに更新する(ブロックB69)。 If the variable i is larger than N, the CPU 301 further updates the weight W updated in block B61 by using the sum of gradients for update ∇W update (block B69).

なお、第2クライアント30のCPU301は、第1クライアント20が第3クライアント40から、第3クライアント40によって目的関数の重みWを更新するために算出された複数の第1の勾配の和∇Wtransferと第1の勾配の数Nとを受信した場合に、第1クライアント20から、
(1)複数の第1の勾配の和∇Wtransferと、第1クライアント20によって目的関数の重みWを更新するために算出された複数の第2の勾配の和∇Wtransferとの総和、及び
(2)複数の第1の勾配の数Nと複数の第2の勾配の数Nとの和
を受信してもよい。その場合、CPU301は、複数の第1の勾配の和∇Wtransferと複数の第2の勾配の和∇Wtransferとの総和と、複数の第1の勾配の数Nと複数の第2の勾配の数Nとの和とを用いて、ブロックB63以降の手順を実行することによって、第2クライアント30の重みWを更新する。
Incidentally, CPU 301 of the second client 30, the first client 20 and the third client 40, the sum ∇W of the plurality of first slope calculated for the third client 40 updates the weight W of the objective function transfer And the first gradient number N is received from the first client 20,
(1) Sum of a plurality of first gradient sums ∇W transfer and a plurality of second gradient sums ∇W transfer calculated for updating the weight W of the objective function by the first client 20, and
(2) Sum of the number N of the plurality of first gradients and the number N of the plurality of second gradients
May be received. In that case, CPU 301 is the sum of the sum ∇W transfer sum ∇W transfer a plurality of second gradient of the plurality of first slope, the number N and a plurality of second gradient of the plurality of first slope The weight W of the second client 30 is updated by executing the procedure from block B63 onward using the sum of the number N and the number N.

また、CPU301は、第1クライアント20と第3クライアント40の各々から、勾配の和∇Wtransferと勾配の数Nとを受信してもよい。その場合、CPU301は、第1クライアント20から受信した勾配の和∇Wtransferと、第3クライアント40から受信した勾配の和∇Wtransferとの総和を、勾配の和∇Wtransferとし、第1クライアント20から受信した勾配の数Nと第3クライアント40から受信した勾配の数Nとの和を、勾配の数Nとして、ブロックB63以降の手順を実行することによって、第2クライアント30の重みWを更新する。 Further, the CPU 301 may receive the sum of gradients ∇W transfer and the number of gradients N from each of the first client 20 and the third client 40. In that case, CPU 301 is a sum ∇W transfer gradient received from the first client 20, the sum of the sum ∇W transfer gradient received from the third client 40, and the sum ∇W transfer gradient, the first client The number W of gradients received from 20 and the number N of gradients received from the third client 40 are set as the number N of gradients, and the weight W of the second client 30 is set by executing the procedure from block B63. Update.

次いで、図20は、本実施形態の複数のクライアント20,30,40による並列分散学習の効果を示す。図20に示す例では、目的関数を基準とする並列分散学習処理における学習時間と認識精度との関係が、処理が1台のクライアントで実行された場合の折れ線グラフ61と、処理が3台のクライアントで実行された場合の折れ線グラフ62とで示されている。これら折れ線グラフ61,62から、処理が3台のクライアントで実行された場合の方が、より早く最適解に収束し、より早く一定水準の認識精度(例えば、0.8)に到達していることが分かる。   Next, FIG. 20 shows the effect of parallel distributed learning by the plurality of clients 20, 30, 40 of this embodiment. In the example illustrated in FIG. 20, the relationship between the learning time and the recognition accuracy in the parallel distributed learning process with the objective function as a reference is the line graph 61 when the process is executed by one client, and the relationship between the process of three processes. It is shown as a line graph 62 when executed on the client. From these line graphs 61 and 62, when the processing is executed by three clients, the optimal solution converges faster and the recognition accuracy of a certain level (for example, 0.8) is reached earlier. I understand.

また、図21は、勾配の和だけでなく勾配の数も用いることによる並列分散学習の効果を示す。図21に示す例では、目的関数を基準とする並列分散学習処理における学習時間と認識精度との関係が、勾配の和だけを用いて処理が実行された場合の折れ線グラフ71と、勾配の和と勾配の数とを用いて処理が実行された場合の折れ線グラフ72とで示されている。勾配の和だけを用いて処理が実行された場合の折れ線グラフ71では、勾配の和だけが用いられることによる処理工程の差に起因して、認識精度の変動がクライアントによって大きく異なる箇所がある。つまり、この折れ線グラフ71は、最適解への収束に関して、クライアント間で異なる挙動が生じていることを示している。   21 shows the effect of parallel distributed learning by using not only the sum of gradients but also the number of gradients. In the example shown in FIG. 21, the relationship between the learning time and the recognition accuracy in the parallel distributed learning processing with the objective function as the reference is the line graph 71 when the processing is executed using only the sum of the gradients, and the sum of the gradients. And a line graph 72 when the process is executed using the number of gradients. In the line graph 71 in the case where the process is executed using only the sum of gradients, there is a portion where the variation in the recognition accuracy greatly differs depending on the client due to the difference in the processing steps due to the use of only the sum of the gradients. In other words, this line graph 71 indicates that different behaviors are occurring between clients regarding the convergence to the optimum solution.

これに対して、勾配の和と勾配の数とを用いて処理が実行された場合の折れ線グラフ72では、処理工程の差が低減されたことによって、各クライアントの認識精度の変動がほぼ同様になっている。つまり、この折れ線グラフ72は、最適解への収束に関して、クライアント間で同様の挙動が生じていることを示している。したがって、勾配の和だけでなく勾配の数も用いることによって、クライアント間で学習経過が十分に共有され、並列分散学習が効率的に進められていることが分かる。   On the other hand, in the line graph 72 when the process is executed using the sum of the gradients and the number of the gradients, the variation in the recognition accuracy of each client is almost the same because the difference in the processing steps is reduced. Is becoming That is, this line graph 72 indicates that similar behavior occurs between the clients regarding the convergence to the optimum solution. Therefore, by using not only the sum of gradients but also the number of gradients, it can be seen that the learning progress is sufficiently shared between the clients and the parallel distributed learning is efficiently advanced.

以上説明したように、本実施形態によれば、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。第2クライアント30と少なくとも一つの他のクライアント20,40とによって目的関数を基準とする並列分散処理が実行される場合に、第2クライアント30の受信制御部32は、少なくとも一つの他のクライアント20,40の内の第1クライアント20から、この第1クライアント20によって目的関数の重み係数29A(第1重み係数)を更新するために算出された複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを受信する。第2クライアント20の算出部33は、複数の勾配の和29Bと、複数の勾配の数29Cを特定可能な情報とを用いて、目的関数の重み係数39A(第2重み係数)を更新する。   As described above, according to the present embodiment, it is possible to efficiently execute the parallel distributed learning process while reducing the communication cost. When the second client 30 and at least one of the other clients 20 and 40 perform parallel distributed processing with the objective function as a reference, the reception control unit 32 of the second client 30 may include at least one of the other clients 20 and 40. , 40 from the first client 20, the sum 29B of the plurality of gradients calculated by the first client 20 to update the weighting coefficient 29A (first weighting coefficient) of the objective function, and the number of the plurality of gradients. 29C and information capable of specifying 29C. The calculation unit 33 of the second client 20 updates the weighting coefficient 39A (second weighting coefficient) of the objective function using the sum 29B of the plurality of gradients and the information capable of specifying the number 29C of the plurality of gradients.

これにより、第1クライアント20から受信した複数の勾配の和29Bだけでなく、通信コストが小さい複数の勾配の数29Cも用いて、目的関数の重み係数39Aが更新されるので、第1クライアント20による学習経過を十分に反映して重み係数39Aを更新することができる。したがって、通信コストを低減しながら並列分散学習処理を効率的に実行することができる。   As a result, the weighting factor 39A of the objective function is updated using not only the sum 29B of the plurality of gradients received from the first client 20 but also the number 29C of the plurality of gradients having a low communication cost. It is possible to update the weighting factor 39A by sufficiently reflecting the learning progress due to. Therefore, the parallel distributed learning process can be efficiently executed while reducing the communication cost.

また、本発明のいくつかの実施形態に記載された様々な機能の各々は、回路(処理回路)によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたコンピュータプログラム(命令群)を実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含まれる。これら実施形態に記載されたCPU以外の他のコンポーネントの各々もまた処理回路によって実現されてもよい。   Further, each of the various functions described in some embodiments of the present invention may be realized by a circuit (processing circuit). Examples of processing circuits include programmed processors, such as central processing units (CPUs). The processor executes each of the functions described by executing a computer program (instruction group) stored in the memory. The processor may be a microprocessor containing electrical circuits. Examples of processing circuits also include digital signal processors (DSPs), application specific integrated circuits (ASICs), microcontrollers, controllers, and other electrical circuit components. Each of the components other than the CPU described in these embodiments may also be realized by the processing circuit.

また、本発明のいくつかの実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、これら実施形態と同様の効果を容易に実現することができる。   Further, since various processes of some embodiments of the present invention can be realized by a computer program, it suffices to install and execute the computer program on a computer through a computer-readable storage medium storing the computer program. The same effects as those of these embodiments can be easily realized.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.

1…情報処理システム、10…サーバ、20,30,40…クライアント、21A,31A,41A…学習データ、101…CPU、102…システムコントローラ、103…主メモリ、104…BIOS−ROM、105…不揮発性メモリ、106…通信デバイス、107…EC、201…OS、202…並列分散学習サーバプログラム、301…CPU、302…システムコントローラ、303…主メモリ、304…BIOS−ROM、305…不揮発性メモリ、306…通信デバイス、307…EC、401…OS、402…並列分散学習クライアントプログラム。   1... Information processing system, 10... Server, 20, 30, 40... Client, 21A, 31A, 41A... Learning data, 101... CPU, 102... System controller, 103... Main memory, 104... BIOS-ROM, 105... Nonvolatile Memory, 106... Communication device, 107... EC, 201... OS, 202... Parallel distributed learning server program, 301... CPU, 302... System controller, 303... Main memory, 304... BIOS-ROM, 305... Nonvolatile memory, 306... Communication device, 307... EC, 401... OS, 402... Parallel distributed learning client program.

Claims (11)

電子装置であって、
前記電子装置と少なくとも一つの他の電子装置とによって目的関数を基準とする並列分散処理が実行される場合に、前記少なくとも一つの他の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信する受信手段と、
前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する処理手段とを具備する電子装置。
An electronic device,
When parallel distributed processing based on an objective function is executed by the electronic device and at least one other electronic device, the first electronic device from the first electronic device among the at least one other electronic device Receiving means for receiving a sum of a plurality of gradients calculated by the device for updating the first weighting coefficient of the objective function, and information capable of specifying the number of the plurality of gradients;
An electronic device comprising: a processing unit that updates the second weighting coefficient of the objective function using the sum of the plurality of gradients and information that can specify the number of the plurality of gradients.
前記受信手段は、前記第1電子装置から、前記複数の勾配の大小関係を特定可能な情報を受信し、
前記処理手段は、さらに、前記複数の勾配の和と前記複数の勾配の大小関係を特定可能な情報とを用いて前記第2重み係数を更新する請求項1記載の電子装置。
The receiving means receives, from the first electronic device, information capable of specifying the magnitude relationship of the plurality of gradients,
The electronic device according to claim 1, wherein the processing unit further updates the second weighting factor using a sum of the plurality of gradients and information capable of specifying a magnitude relationship between the plurality of gradients.
前記処理手段は、前記複数の勾配の和を前記複数の勾配の数で除した値に、学習係数を掛けた値を用いて、前記第2重み係数を更新する請求項1記載の電子装置。   The electronic device according to claim 1, wherein the processing unit updates the second weighting factor using a value obtained by multiplying a learning coefficient by a value obtained by dividing the sum of the plurality of gradients by the number of the plurality of gradients. 前記学習係数は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて決定される請求項3記載の電子装置。   The electronic device according to claim 3, wherein the learning coefficient is determined using a sum of the plurality of gradients and information capable of specifying the number of the plurality of gradients. 前記受信手段は、さらに、前記第1電子装置が、前記少なくとも一つの他の電子装置の内の第2電子装置から、前記第2電子装置によって前記目的関数の第3重み係数を更新するために算出された複数の第1の勾配の和と、前記複数の第1の勾配の数を特定可能な情報とを受信した場合に、前記第1電子装置から、前記複数の第1の勾配の和と、前記第1電子装置によって前記第1重み係数を更新するために算出された複数の第2の勾配の和との総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを受信し、
前記処理手段は、さらに、前記総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて前記第2重み係数を更新する請求項1記載の電子装置。
The receiving means may further comprise the first electronic device updating a third weighting factor of the objective function by the second electronic device from a second electronic device among the at least one other electronic device. The sum of the plurality of first slopes is received from the first electronic device when the calculated sum of the first slopes and the information capable of specifying the number of the plurality of first slopes are received. And a sum of a plurality of second gradients calculated for updating the first weighting coefficient by the first electronic device, the number of the plurality of first gradients, and the plurality of second gradients. Receives information that can identify the sum of the number of gradients and
The processing means further updates the second weighting factor using the total sum and information capable of specifying the sum of the number of the plurality of first gradients and the number of the plurality of second gradients. The electronic device according to claim 1.
複数の電子装置によって目的関数を基準とする並列分散処理が実行される場合に、前記複数の電子装置の内の第1電子装置から、前記第1電子装置によって前記目的関数の第1重み係数を更新するために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを受信し、
前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新する方法。
When parallel distribution processing based on an objective function is executed by a plurality of electronic devices, a first weighting coefficient of the objective function is calculated by the first electronic device from a first electronic device among the plurality of electronic devices. Receiving a sum of a plurality of gradients calculated for updating and information capable of specifying the number of the plurality of gradients,
A method of updating the second weighting coefficient of the objective function using the sum of the plurality of gradients and information capable of specifying the number of the plurality of gradients.
前記第1電子装置から、前記複数の勾配の大小関係を特定可能な情報を受信することを含み、
前記複数の勾配の和と前記複数の勾配の大小関係を特定可能な情報とを用いて前記第2重み係数を更新することを含む請求項6記載の方法。
Receiving information capable of specifying a magnitude relationship of the plurality of gradients from the first electronic device,
7. The method according to claim 6, further comprising updating the second weighting factor using the sum of the plurality of gradients and the information capable of identifying a magnitude relationship between the plurality of gradients.
前記複数の勾配の和を前記複数の勾配の数で除した値に、学習係数を掛けた値を用いて、前記第2重み係数を更新することを含む請求項6記載の方法。   7. The method of claim 6, comprising updating the second weighting factor with a value obtained by multiplying a value obtained by dividing the sum of the plurality of gradients by the number of the plurality of gradients by a learning coefficient. 前記学習係数は、前記複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを用いて決定される請求項8記載の方法。   9. The method according to claim 8, wherein the learning coefficient is determined using a sum of the plurality of gradients and information capable of specifying the number of the plurality of gradients. 前記受信することは、前記第1電子装置が、前記複数の電子装置の内の第2電子装置から、前記第2電子装置によって前記目的関数の第3重み係数を更新するために算出された複数の第1の勾配の和と、前記複数の第1の勾配の数を特定可能な情報とを受信した場合に、前記第1電子装置から、前記第1の勾配の和と、前記第1電子装置によって前記第1重み係数を更新するために算出された複数の第2の勾配の和との総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを受信することをさらに含み、
前記更新することは、前記総和と、前記複数の第1の勾配の数と前記複数の第2の勾配の数との和を特定可能な情報とを用いて前記第2重み係数を更新することをさらに含む請求項6記載の方法。
The receiving is performed by the first electronic device from a second electronic device of the plurality of electronic devices, and the second electronic device calculates the third weighting factor of the objective function by the plurality of electronic devices. Of the first gradient and the information capable of specifying the number of the plurality of first gradients are received from the first electronic device by the first gradient sum and the first electron. A sum of a plurality of second gradients calculated by the device for updating the first weighting factor, and a sum of the plurality of first gradients and the plurality of second gradients. Further comprising receiving information identifiable to
The updating includes updating the second weighting factor using the total sum and information capable of specifying the sum of the number of the plurality of first gradients and the number of the plurality of second gradients. The method of claim 6, further comprising:
サーバ装置と第1クライアント装置と第2クライアント装置とによって構成される情報処理システムであって、
前記第1クライアント装置は、
前記情報処理システムにおいて目的関数を基準とする並列分散処理が実行される場合に、前記目的関数の第1重み係数を更新し、
前記第1重み係数の更新のために算出された複数の勾配の和と、前記複数の勾配の数を特定可能な情報とを前記サーバ装置に送信し、
前記サーバ装置は、
前記送信された複数の勾配の和と複数の勾配の数を特定可能な情報とを用いて、前記目的関数の第2重み係数を更新し、
前記更新された第2重み係数を前記第2クライアント装置に送信する情報処理システム。
An information processing system including a server device, a first client device, and a second client device,
The first client device is
Updating a first weighting coefficient of the objective function when parallel distributed processing based on the objective function is executed in the information processing system;
Transmitting a sum of a plurality of gradients calculated for updating the first weighting factor and information capable of specifying the number of the plurality of gradients to the server device,
The server device is
Updating the second weighting factor of the objective function using the transmitted sum of the plurality of gradients and information capable of specifying the number of the plurality of gradients,
An information processing system for transmitting the updated second weighting factor to the second client device.
JP2016168189A 2016-08-30 2016-08-30 Electronic device, method and information processing system Active JP6699891B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016168189A JP6699891B2 (en) 2016-08-30 2016-08-30 Electronic device, method and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016168189A JP6699891B2 (en) 2016-08-30 2016-08-30 Electronic device, method and information processing system

Publications (2)

Publication Number Publication Date
JP2018036779A JP2018036779A (en) 2018-03-08
JP6699891B2 true JP6699891B2 (en) 2020-05-27

Family

ID=61566340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168189A Active JP6699891B2 (en) 2016-08-30 2016-08-30 Electronic device, method and information processing system

Country Status (1)

Country Link
JP (1) JP6699891B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2572537A (en) * 2018-03-27 2019-10-09 Nokia Technologies Oy Generating or obtaining an updated neural network
JP7001004B2 (en) * 2018-06-25 2022-01-19 日本電信電話株式会社 Distributed deep learning system, distributed deep learning method, and computing interconnect device
JP7181585B2 (en) * 2018-10-18 2022-12-01 国立大学法人神戸大学 LEARNING SYSTEMS, LEARNING METHODS AND PROGRAMS
US11521067B2 (en) * 2018-11-30 2022-12-06 International Business Machines Corporation Decentralized distributed deep learning
CN109919313B (en) * 2019-01-31 2021-06-08 华为技术有限公司 Gradient transmission method and distributed training system
JP7171477B2 (en) * 2019-03-14 2022-11-15 ヤフー株式会社 Information processing device, information processing method and information processing program
WO2020240844A1 (en) * 2019-05-31 2020-12-03 日本電信電話株式会社 Distributed deep learning system
JP7192984B2 (en) * 2019-06-03 2022-12-20 日本電信電話株式会社 Distributed processing system and distributed processing method
JP7070531B2 (en) * 2019-11-15 2022-05-18 株式会社豊田中央研究所 Urban structure design equipment and urban structure design program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5584914B2 (en) * 2010-07-15 2014-09-10 株式会社日立製作所 Distributed computing system
US20150324686A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Distributed model learning
JP2018018451A (en) * 2016-07-29 2018-02-01 富士通株式会社 Machine learning method, machine learning program and information processing device

Also Published As

Publication number Publication date
JP2018036779A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP6699891B2 (en) Electronic device, method and information processing system
CN108009016B (en) Resource load balancing control method and cluster scheduler
US20130097321A1 (en) Method and system for work load balancing
JP2017054514A5 (en)
US20200219028A1 (en) Systems, methods, and media for distributing database queries across a metered virtual network
CN107688492B (en) Resource control method and device and cluster resource management system
CN106529682A (en) Method and apparatus for processing deep learning task in big-data cluster
WO2012158718A1 (en) Extensible centralized dynamic resource distribution in a clustered data grid
US8943348B2 (en) Method and system for offloading a computation to other computing units in the same device or to a server on a network based upon a computing time and a power consumption of each of the computing units and the server
CN111813523A (en) Duration pre-estimation model generation method, system resource scheduling method, device, electronic equipment and storage medium
TW201447763A (en) System and method for controlling virtual machine
CN110969362A (en) Multi-target task scheduling method and system under cloud computing system
JP6877393B2 (en) Systems, programs and methods
CN103988179A (en) Optimization mechanisms for latency reduction and elasticity improvement in geographically distributed datacenters
CN104281495A (en) Method for task scheduling of shared cache of multi-core processor
CN113452788B (en) Adaptation optimization method based on service migration in dynamic network
CN117331668A (en) Job scheduling method, device, equipment and storage medium
US8683477B2 (en) Performance degradation based at least on computing application priority and in a relative manner that is known and predictable beforehand
CN116932220A (en) Resource adjustment method and device for service cluster, electronic equipment and storage medium
CN110196879B (en) Data processing method, device, computing equipment and storage medium
CN111475297A (en) Flexible operation configuration method
CN110941497B (en) Data sending method and device
CN103399789A (en) Dynamic overload control method capable of being constructed in distributed-type stream computing system
JP2021105772A (en) Prediction management system of resource usage amount, and prediction management method of resource usage amount
CN112619129A (en) Cloud game running method, server and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200424

R150 Certificate of patent or registration of utility model

Ref document number: 6699891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150