JP6615946B1 - Distributed machine learning system - Google Patents

Distributed machine learning system Download PDF

Info

Publication number
JP6615946B1
JP6615946B1 JP2018110761A JP2018110761A JP6615946B1 JP 6615946 B1 JP6615946 B1 JP 6615946B1 JP 2018110761 A JP2018110761 A JP 2018110761A JP 2018110761 A JP2018110761 A JP 2018110761A JP 6615946 B1 JP6615946 B1 JP 6615946B1
Authority
JP
Japan
Prior art keywords
terminal
teacher data
processing
machine learning
management terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018110761A
Other languages
Japanese (ja)
Other versions
JP2019212248A (en
Inventor
周平 小松
周平 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ALI Technologies Inc
Original Assignee
ALI Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ALI Technologies Inc filed Critical ALI Technologies Inc
Priority to JP2018110761A priority Critical patent/JP6615946B1/en
Application granted granted Critical
Publication of JP6615946B1 publication Critical patent/JP6615946B1/en
Publication of JP2019212248A publication Critical patent/JP2019212248A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ブロックチェーンネットワークを維持するリソースの効率的な稼働を行う。【解決手段】本発明による分散型機械学習システム100は、教師データ供給端末2と、教師データ供給端末から教師データの提供を受けて所定のアルゴリズムの最適化処理タスクを生成する学習管理端末1と、最適化処理タスクを学習管理端末から受信する処理プール管理端末3と、処理プール管理端末からの指示を受けて最適化処理タスクを実行する処理端末とを含んでいる。【選択図】図1An object of the present invention is to efficiently operate resources for maintaining a blockchain network. A distributed machine learning system according to the present invention includes a teacher data supply terminal, a learning management terminal that receives teacher data from the teacher data supply terminal and generates an optimization processing task for a predetermined algorithm. The processing pool management terminal 3 that receives the optimization processing task from the learning management terminal and the processing terminal that receives the instruction from the processing pool management terminal and executes the optimization processing task. [Selection] Figure 1

Description

本発明は分散型機械学習システムに関し、特に、マイニングプールに利用されている既システムのリソースを利用(兼用)可能なシステムに関する。   The present invention relates to a distributed machine learning system, and more particularly, to a system that can use (concurrently) resources of an existing system used for a mining pool.

近年、ビットコイン(登録商標)等の暗号通貨(Crypt Currency)の取引のためにP2P型のシステムが利用されている(例えば、特許文献1参照)。   In recent years, P2P type systems have been used for transactions of cryptocurrencies such as Bitcoin (registered trademark) (see, for example, Patent Document 1).

特に、最近では、ブロックチェーンネットワークにおけるマイニングのプール管理者を報酬の受領者とし、参加するマイナーに同じブロックをマイニングさせ、マイニングに成功した際にプール管理者に支払われた報酬をマイニングの仕事量に応じて、参加者で分配する仕組みも提案されている。   In particular, recently, the mining pool manager in the blockchain network is the recipient of the reward, the participating miners mine the same block, and the reward paid to the pool manager when the mining is successful is the mining workload. In response to this, a mechanism for distributing the contents among participants has also been proposed.

特許第6326173号公報Japanese Patent No. 6326173

Arvind Narayanan, 仮想通貨の教科書, 日経BP社, 229ページArvind Narayanan, Virtual Currency Textbook, Nikkei Business Publications, 229 pages

上記のようなブロックチェーンネットワークの維持に必要な計算量(例えば、GPUによるハッシュパワー)は、膨大な計算を行う能力があるにもかかわらず、マイニングしか行っていないことから、効率的に稼働しているとは言えない。   The amount of computation required to maintain the blockchain network as described above (for example, hash power by GPU) operates efficiently because it has only the ability to perform a huge amount of computation, but only performs mining. I can't say that.

そこで、本発明は、ブロックチェーンネットワークを維持するリソースの効率的な稼働を行うことを目的とする。   Accordingly, an object of the present invention is to efficiently operate resources that maintain a blockchain network.

自動運転車で使用されるような最近のディーニューラルネットワークでは、膨大な量のコンピューティング能力が要求される。特に、最近のニューラルネットワークに必要なコンピューティング能力とトレーニングに必要なデータセットサイズを考慮に入れると、所謂スーパーコンピューターであっても十分でないのが現状である。 Recent de-neural networks such as those used in autonomous vehicles require a huge amount of computing power. In particular, the so-called supercomputer is not sufficient in consideration of the computing ability necessary for recent neural networks and the data set size necessary for training.

例えば、自動運転車のように、安全が極めて重要で、検出精度要件がインターネット業界よりもはるかに高いシステムでは、天候条件、視野、路面の状態にかかわらず、不具合なく動作することが求められる。このレベルの認識精度を達成するため、発生しうる運転操作、天候、状況の条件すべての実例などからなるサンプルデータセットで、ニューラルネットワークをトレーニングする必要がある。本発明はかかる状況に鑑み、発案されたものである。   For example, systems such as self-driving cars, where safety is extremely important and detection accuracy requirements are much higher than in the Internet industry, are required to operate without problems regardless of weather conditions, field of view, and road conditions. In order to achieve this level of recognition accuracy, the neural network needs to be trained with a sample data set consisting of examples of all possible driving maneuvers, weather and situation conditions. The present invention has been made in view of such a situation.

即ち、本発明によれば
教師データ供給端末と、
前記教師データ供給端末から教師データの提供を受けて所定のアルゴリズムの最適化処理タスクを生成する学習管理端末と、
前記最適化処理タスクを前記学習管理端末から受信する処理プール管理端末と、
前記処理プール管理端末からの指示を受けて前記最適化処理タスクを実行する処理端末とを含む、
分散型機械学習システムが得られる。
That is, according to the present invention, a teacher data supply terminal,
A learning management terminal which receives provision of teacher data from the teacher data supply terminal and generates an optimization processing task of a predetermined algorithm;
A processing pool management terminal that receives the optimization processing task from the learning management terminal;
A processing terminal that receives the instruction from the processing pool management terminal and executes the optimization processing task,
A distributed machine learning system is obtained.

本発明によれば、ブロックチェーンネットワークを維持するリソースの効率的な稼働を行うことができる。   According to the present invention, it is possible to efficiently operate resources that maintain a blockchain network.

本発明の実施の形態によるシステムの構成例を示す図である。It is a figure which shows the structural example of the system by embodiment of this invention. 図1の管理サーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the management server of FIG. 図1のユーザ端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the user terminal of FIG. 本実施の形態によるシステムの処理の流れを示す図である。It is a figure which shows the flow of a process of the system by this Embodiment. 本実施の形態にタスクブロックのデータイメージ図である。It is a data image figure of a task block in this embodiment. 図5のタスクブロックの構造例を示すテーブルである。6 is a table showing an example of the structure of the task block in FIG. 5.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態によるコンテンツ・プラットフォームシステムは、以下のような構成を備える。
[項目1]
教師データ供給端末と、
前記教師データ供給端末から教師データの提供を受けて所定のアルゴリズムの最適化処理タスクを生成する学習管理端末と、
前記最適化処理タスクを前記学習管理端末から受信する処理プール管理端末と、
前記処理プール管理端末からの指示を受けて前記最適化処理タスクを実行する処理端末とを含む、
分散型機械学習システム
[項目2]
請求項1に記載の分散型機械学習システムであって、
前記教師データ供給端末は、前記アルゴリズムに従って制御される制御部を有しており、
前記学習管理端末は、前記処理プール管理端末及び処理端末の協働によって最適化された前記アルゴリズムを前記教師データ供給端末にフィードバックする、
分散型機械学習システム。
[項目3]
請求項2に記載の分散型機械学習システムであって、
前記教師データ供給端末は、自動車に搭載される端末であり、前記所定のアルゴリズムに従って当該自動車の運転を制御し、前記教師データとして当該自動車の少なくとも走行情報を前記学習管理端末に提供する、
分散型機械学習システム。
The contents of the embodiment of the present invention will be listed and described. The content platform system according to the embodiment of the present invention has the following configuration.
[Item 1]
A teacher data supply terminal;
A learning management terminal which receives provision of teacher data from the teacher data supply terminal and generates an optimization processing task of a predetermined algorithm;
A processing pool management terminal that receives the optimization processing task from the learning management terminal;
A processing terminal that receives the instruction from the processing pool management terminal and executes the optimization processing task,
Distributed machine learning system [Item 2]
The distributed machine learning system according to claim 1,
The teacher data supply terminal has a control unit controlled according to the algorithm,
The learning management terminal feeds back the algorithm optimized by the cooperation of the processing pool management terminal and the processing terminal to the teacher data supply terminal;
Distributed machine learning system.
[Item 3]
The distributed machine learning system according to claim 2,
The teacher data supply terminal is a terminal mounted on a vehicle, controls driving of the vehicle according to the predetermined algorithm, and provides at least travel information of the vehicle as the teacher data to the learning management terminal.
Distributed machine learning system.

<実施の形態の詳細>
以下、本発明の実施の形態による分散型機械学習システム(以下「システム」という)について、図面を参照しながら説明する。
<Details of the embodiment>
Hereinafter, a distributed machine learning system (hereinafter referred to as “system”) according to an embodiment of the present invention will be described with reference to the drawings.

<概要>
本発明の実施の形態によるシステムは、機械学習等のアルゴリズムの計算(例えば、教師データを読み込みアルゴリズムを最適化させる処理等)をマイニングプールを構成する複数の計算機によって生み出される計算能力を利用又は兼用することによって効率的に行うものである。
<Overview>
The system according to the embodiment of the present invention uses or combines the calculation capability generated by a plurality of computers constituting the mining pool for algorithm calculation such as machine learning (for example, processing for reading the teacher data and optimizing the algorithm). By doing so, it is done efficiently.

<構成>
図1に示されるように、本システム100は、管理サーバ1と、ユーザ端末2(2a〜2d)と、プール管理サーバ3(3a〜3c)とがネットワーク(インターネット等であり、ブロックチェーンネットワークを含む)50を介して接続される。
<Configuration>
As shown in FIG. 1, in the present system 100, a management server 1, user terminals 2 (2a to 2d), and pool management servers 3 (3a to 3c) are a network (the Internet or the like), Connected) 50.

本実施の形態において、少なくとも管理サーバ1及びプール管理サーバ3は、ブロックチェーンネットワークにおいて共同管理される台帳(ブロックチェーン)にアクセス・参照・追加可能に接続されている。   In the present embodiment, at least the management server 1 and the pool management server 3 are connected to a ledger (block chain) that is jointly managed in the block chain network so as to be able to access, reference, and add.

なお、後述するように、本実施の形態によるユーザ端末2は、例えば、自動車2a、鉄道2b、工場内のロボット2c、バス2d等、自動制御し得る対象であればどのようなものであってもよい。   As will be described later, the user terminal 2 according to the present embodiment is any object that can be automatically controlled, such as an automobile 2a, a railway 2b, a robot 2c in a factory, a bus 2d, and the like. Also good.

<ハードウェア構成>
図2及び図3に示されるように、本実施の形態による管理サーバ1とユーザ端末2とは、以下のようなハードウェア構成を有する。なお、以下の構成は一例であり、これ以外の構成を有していても良い。また、各機能ブロックは、それぞれの端末内に存在していてもよいし、クラウドサービス等を通じて利用可能されている等、論理的に構成されていてもよい。
<Hardware configuration>
As shown in FIGS. 2 and 3, the management server 1 and the user terminal 2 according to the present embodiment have the following hardware configuration. The following configuration is an example, and other configurations may be used. In addition, each functional block may exist in each terminal, or may be logically configured such that it can be used through a cloud service or the like.

<管理サーバ1>
図2に示されるように、管理サーバ1は、ユーザ端末2とプール管理端末3と通信を介して情報処理を実行することにより、システムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
<Management server 1>
As shown in FIG. 2, the management server 1 constitutes a part of the system by executing information processing via communication with the user terminal 2 and the pool management terminal 3. The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。   The management server 1 includes at least a processor 10, a memory 11, a storage 12, a transmission / reception unit 13, an input / output unit 14, and the like, which are electrically connected to each other through a bus 15.

プロセッサ10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。   The processor 10 is an arithmetic device that controls the operation of the entire management server 1 and performs control of data transmission / reception between elements and information processing necessary for executing an application. For example, the processor 10 is a CPU (Central Processing Unit), and executes each information process by executing a program stored in the storage 12 and expanded in the memory 11.

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。   The memory 11 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory composed of a non-volatile storage device such as a flash memory or an HDD (Hard Disc Drive). . The memory 11 is used as a work area of the processor 10 and stores a BIOS (Basic Input / Output System) executed when the management server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム、及びブロックチェーンネットワークに対する認証プログラムや機械学習に利用されるアルゴリズム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ22に構築されていてもよい。   The storage 12 stores various programs such as an application program, an authentication program for the block chain network, and an algorithm used for machine learning. A database storing data used for each process may be constructed in the storage 22.

送受信部13は、管理サーバ1をネットワーク3に接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。   The transmission / reception unit 13 connects the management server 1 to the network 3. The transmission / reception unit 13 may include a Bluetooth (registered trademark) and a BLE (Bluetooth Low Energy) short-range communication interface.

入出力部14は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。   The input / output unit 14 is an information input device such as a keyboard / mouse used as necessary, and an output device such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。   The bus 15 is commonly connected to the above-described elements, and transmits, for example, an address signal, a data signal, and various control signals.

<ユーザ端末2a及び2b>
図3に示されるように、ユーザ端末2は、上述した自動車2a、鉄道2b、工場内のロボット2c、バス2d内に備え付けられる又は一体に構成される端末である。ユーザ端末2は、管理サーバ1と通信を介して情報処理を実行することにより、システムの一部を構成する。ユーザ端末2は、例えば自動車の制御システムを制御する端末がその機能を発揮するように構成されていてもよい。
<User terminals 2a and 2b>
As shown in FIG. 3, the user terminal 2 is a terminal that is provided in or integrated with the above-described automobile 2a, railway 2b, factory robot 2c, and bus 2d. The user terminal 2 configures a part of the system by executing information processing via communication with the management server 1. The user terminal 2 may be configured such that, for example, a terminal that controls a vehicle control system exhibits its function.

図視されるように、ユーザ端末2は、少なくとも、プロセッサ20、メモリ21、ストレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。これらの機能は、自動車等の制御システムと共用であってもよい。   As shown in the figure, the user terminal 2 includes at least a processor 20, a memory 21, a storage 22, a transmission / reception unit 23, an input / output unit 24, and the like, and these are electrically connected to each other through a bus 25. These functions may be shared with a control system such as an automobile.

上述した管理サーバ1と同様に、プロセッサ20は、ユーザ端末2全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ20はCPU(Central Processing Unit)であり、ストレージ22に格納されメモリ21に展開されたプログラム等を実行して各情報処理を実施する。   Similar to the management server 1 described above, the processor 20 is an arithmetic device that controls the operation of the entire user terminal 2 and performs control of data transmission / reception between elements, information processing necessary for execution of applications, and the like. For example, the processor 20 is a CPU (Central Processing Unit), and executes each information process by executing a program stored in the storage 22 and expanded in the memory 21.

メモリ21は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ21は、プロセッサ20のワークエリア等として使用され、また、ユーザ端末2の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。   The memory 21 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory composed of a nonvolatile storage device such as a flash memory or an HDD (Hard Disc Drive). . The memory 21 is used as a work area of the processor 20 and stores BIOS (Basic Input / Output System) executed when the user terminal 2 is started up, various setting information, and the like.

ストレージ22は、アプリケーション・プログラム、及びブロックチェーンネットワークに対する認証プログラムや、自動車等の制御のためのアルゴリズム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ22に構築されていてもよい。   The storage 22 stores various programs such as an application program, an authentication program for the block chain network, and an algorithm for controlling a car or the like. A database storing data used for each process may be constructed in the storage 22.

送受信部23は、ユーザ端末2をネットワーク3に接続する。なお、送受信部23は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。   The transmission / reception unit 23 connects the user terminal 2 to the network 3. The transmission / reception unit 23 may include a Bluetooth (registered trademark) and a BLE (Bluetooth Low Energy) short-range communication interface.

入出力部24は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。   The input / output unit 24 is an information input device such as a keyboard / mouse used as necessary, and an output device such as a display.

バス25は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。   The bus 25 is commonly connected to the above-described elements, and transmits, for example, an address signal, a data signal, and various control signals.

<処理の流れ>
続いて、図4を参照して、図1に示される各要素の動作とやりとりされる情報について説明する。
<Process flow>
Next, information exchanged with the operation of each element shown in FIG. 1 will be described with reference to FIG.

図4に示されるように、ユーザ端末2(自動車2a)は、自身の走行データを教師データとして管理サーバ1に送信する(SQ101)。走行データは、例えば、自動車自体の挙動・制御データや自動車に取り付けられたセンサから取得されたデータ(車外の映像等)が含まれるがこれに限られない。   As shown in FIG. 4, the user terminal 2 (automobile 2a) transmits its travel data to the management server 1 as teacher data (SQ101). The travel data includes, for example, behavior / control data of the automobile itself and data (such as an image outside the car) acquired from a sensor attached to the automobile, but is not limited thereto.

自動車2aは、所定のアルゴリズムによって、「認知」、「判断」、「操作」の3つの処理を連動して行っている。例えば、衝突予防システム、先行車両との車間を調整するシステム、車線からの逸脱を防止するシステムなどが挙げられるが、周囲の自動車や周囲の状況に応じて適切な判断を行い、目的地まで移動する高度なものも含まれる。アルゴリズムは、管理サーバ1から提供され、常に更新されることによって最新の状態に維持される。   The automobile 2a performs three processes of “recognition”, “determination”, and “operation” in conjunction with each other by a predetermined algorithm. For example, a collision prevention system, a system that adjusts the distance from the preceding vehicle, a system that prevents deviation from the lane, etc., but makes an appropriate decision according to the surrounding car and the surrounding situation, and moves to the destination The advanced thing to do is also included. The algorithm is provided from the management server 1 and is kept updated by being constantly updated.

管理サーバ1は、ユーザ端末2から得た教師データに基づいてアルゴリズム(例えば、ニューラルネットワークのパラメータ等)を更新し最適化する。しかしながら、上述したように教師データの特徴量の抽出からアルゴリズムを最適化するまでの処理には膨大な計算量を有することが多く、ユーザ端末2の台数が増えることによりその計算不可も指数関数的に上昇する。   The management server 1 updates and optimizes an algorithm (for example, a parameter of a neural network) based on the teacher data obtained from the user terminal 2. However, as described above, the processing from the extraction of the feature amount of the teacher data to the optimization of the algorithm often has an enormous amount of calculation, and the increase in the number of user terminals 2 makes the calculation impossible as an exponential function. To rise.

そこで、管理サーバ1は、提供された教師データからアルゴリズムを最適化するためのタスクを生成する(SQ102)。当該タスクは、単に教師データ単体としてもよいし、教師データに一次加工を施したものとしてもよいし、読み込まれれば即計算を開始できるようにバッチ化されたものであってもよい。   Therefore, the management server 1 generates a task for optimizing the algorithm from the provided teacher data (SQ102). The task may be simply the teacher data alone, may be the teacher data subjected to primary processing, or may be batched so that the calculation can be started immediately if read.

管理サーバ1は、当該タスクをプール管理サーバ3にブロードキャストし、タスクを処理させる(SQ103)。本実施の形態によるタスクは、あたかもブロックチェーンネットワークにおけるハッシュ値(ナンス:nonce)の探索と同様の計算をマイニングプールに行わせているものである。この結果、アルゴリズムの更新(最適化)を最も早く行った者に所定の報酬が付与される。即ち、本発明による分散型機械学習システムは、ブロックチェーンにおけるマイニングの作業を機械学習アルゴリズムの更新作業に置き換えて構成されているものである。   The management server 1 broadcasts the task to the pool management server 3 to process the task (SQ103). The task according to the present embodiment causes the mining pool to perform a calculation similar to the search for a hash value (nonce) in the block chain network. As a result, a predetermined reward is given to the person who has updated (optimized) the algorithm the earliest. That is, the distributed machine learning system according to the present invention is configured by replacing the mining work in the block chain with the machine learning algorithm update work.

図5は、本発明をブロックチェーンネットワークに載せた場合のブロックの情報である。ブロックチェーン上にタスク情報が載せられており、当該タスクを処理した処理端末の情報等も記録されることとなる。ここで、各タスクは、それぞれ提供された由来となるユーザ端末が紐づけられている。   FIG. 5 shows block information when the present invention is mounted on a block chain network. Task information is placed on the block chain, and information on the processing terminal that processed the task is also recorded. Here, each task is associated with a user terminal that has been provided.

また、図6に示されるように、各タスクの構造は、例えば、データ全体のサイズ(block size)、ヘッダー情報(Header)、タスクの数(task counter)、処理されるべきタスクの情報(task)を少なくとも含んでいる。   Further, as shown in FIG. 6, the structure of each task includes, for example, the size of the entire data (block size), header information (Header), the number of tasks (task counter), and information on tasks to be processed (task). ) At least.

ブロー管理サーバ3は、プールに接続している処理端末(ブロックチェーンネットワークにおける「マイナー:miner」)に当該タスクの実行を割り当て、計算を行わせる(SQ104)。割り当てはランダムであってもよいし、接続されている処理端末の端から順番に割り当ててもよい。   The blow management server 3 assigns execution of the task to a processing terminal connected to the pool (“minor: miner” in the block chain network) and performs calculation (SQ104). The assignment may be random or may be assigned in order from the end of the connected processing terminal.

いずれかの処理端末がアルゴリズムの更新に成功した場合、当該結果情報は、プール管理サーバ3を経由して管理サーバ1に送信される(SQ105)。管理サーバ1は、結果情報に基づいてアルゴリズムを更新し(SQ106)、ユーザ端末2に提供する(SQ107)。   When any of the processing terminals succeeds in updating the algorithm, the result information is transmitted to the management server 1 via the pool management server 3 (SQ105). The management server 1 updates the algorithm based on the result information (SQ106) and provides it to the user terminal 2 (SQ107).

以上説明したシステムによれば、さまざまなユーザ端末から得られた教師データに基づいて効率的に機械学習を行うことが可能となる。   According to the system described above, machine learning can be efficiently performed based on teacher data obtained from various user terminals.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1 管理サーバ(学習管理端末)
2、2a〜2d ユーザ端末(教師データ供給端末)
3、3a〜3c プール管理端末(処理プール管理端末)
30 処理プール
50 ネットワーク
100 システム(分散型機械学習システム)
1 management server (learning management terminal)
2, 2a-2d User terminal (teacher data supply terminal)
3, 3a-3c Pool management terminal (processing pool management terminal)
30 processing pool 50 network 100 system (distributed machine learning system)

Claims (3)

教師データ供給端末と、
前記教師データ供給端末から教師データの提供を受けて所定のアルゴリズムの最適化処理タスクを生成する学習管理端末と、
前記最適化処理タスクを前記学習管理端末から受信する処理プール管理端末と、
前記処理プール管理端末からの指示を受けて前記最適化処理タスクを実行する処理端末とを含む、
分散型機械学習システム
A teacher data supply terminal;
A learning management terminal which receives provision of teacher data from the teacher data supply terminal and generates an optimization processing task of a predetermined algorithm;
A processing pool management terminal that receives the optimization processing task from the learning management terminal;
A processing terminal that receives the instruction from the processing pool management terminal and executes the optimization processing task,
Distributed machine learning system
請求項1に記載の分散型機械学習システムであって、
前記教師データ供給端末は、前記アルゴリズムに従って制御される制御部を有しており、
前記学習管理端末は、前記処理プール管理端末及び処理端末の協働によって最適化された前記アルゴリズムを前記教師データ供給端末にフィードバックする、
分散型機械学習システム。
The distributed machine learning system according to claim 1,
The teacher data supply terminal has a control unit controlled according to the algorithm,
The learning management terminal feeds back the algorithm optimized by the cooperation of the processing pool management terminal and the processing terminal to the teacher data supply terminal;
Distributed machine learning system.
請求項2に記載の分散型機械学習システムであって、
前記教師データ供給端末は、自動車に搭載される端末であり、前記所定のアルゴリズムに従って当該自動車の運転を制御し、前記教師データとして当該自動車の少なくとも走行情報を前記学習管理端末に提供する、
分散型機械学習システム。

The distributed machine learning system according to claim 2,
The teacher data supply terminal is a terminal mounted on a vehicle, controls driving of the vehicle according to the predetermined algorithm, and provides at least travel information of the vehicle as the teacher data to the learning management terminal.
Distributed machine learning system.

JP2018110761A 2018-06-09 2018-06-09 Distributed machine learning system Active JP6615946B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018110761A JP6615946B1 (en) 2018-06-09 2018-06-09 Distributed machine learning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110761A JP6615946B1 (en) 2018-06-09 2018-06-09 Distributed machine learning system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019201356A Division JP2020030852A (en) 2019-11-06 2019-11-06 Distributed machine learning system

Publications (2)

Publication Number Publication Date
JP6615946B1 true JP6615946B1 (en) 2019-12-04
JP2019212248A JP2019212248A (en) 2019-12-12

Family

ID=68763387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110761A Active JP6615946B1 (en) 2018-06-09 2018-06-09 Distributed machine learning system

Country Status (1)

Country Link
JP (1) JP6615946B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220148436A (en) 2021-04-29 2022-11-07 유순기 Electric Vehicle Power Transmission
KR20220148433A (en) 2021-04-29 2022-11-07 유순기 Electric Vehicle Power Transmission

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061700A (en) * 2011-09-12 2013-04-04 Sony Corp Information processor, information processing method, recording medium, and information processing system
JP6752457B2 (en) * 2016-06-02 2020-09-09 株式会社マーズスピリット Machine learning system, equipment and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220148436A (en) 2021-04-29 2022-11-07 유순기 Electric Vehicle Power Transmission
KR20220148433A (en) 2021-04-29 2022-11-07 유순기 Electric Vehicle Power Transmission

Also Published As

Publication number Publication date
JP2019212248A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
EP3167368B1 (en) Dynamic shard allocation adjustment
WO2019133523A1 (en) Optimizing transportation requests
JP6615946B1 (en) Distributed machine learning system
WO2016057885A1 (en) System and methods for generating interactive virtual environments
CN103765379A (en) Cloud-based build service
CN101632073A (en) Private sheets in shared spreadsheets
US11017297B2 (en) System and methods to provide seamless information exchange between certified and uncertified applications
US20210303371A1 (en) Container framework for user-defined functions
CN104123236A (en) Method and system of high throughput hardware acceleration using pre-staging buffers
US20170339021A1 (en) Model deployment based on benchmarked devices
CN110782000A (en) Mimic learning by action shaping with antagonistic reinforcement learning
US20210139052A1 (en) Task scheduling method, apparatus, device, and computer readable storage medium
CN105491003A (en) System and method for prioritizing on access scan and on demand scan tasks
KR102553877B1 (en) A method and system for efficiently processing the high transaction throughput required by DApps in the blockchain
JP2020030852A (en) Distributed machine learning system
KR20170030517A (en) Control in initiating atomic tasks on a server platform
JP2020144614A (en) Task decentralization processing system
US10608903B1 (en) System and method for serverless monitoring
US20170039069A1 (en) Adaptive core grouping
WO2021226585A1 (en) Method and apparatus for implementing a ui modernization application module
Punia et al. An Improved Scheduling Algorithm for Grey Wolf Fitness Task Enrichment with Cloud
JP2022023414A (en) Processing unit management system and processing space management system
Penkler Technology and Business Challenges of Big Data in the Digital Economy: Big Data (Ubiquity symposium)
US20240160197A1 (en) Hybrid working mode on industrial floor
US12017646B2 (en) Risk sensitive approach to strategic decision making with many agents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190124

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250