JP7461763B2 - 分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム - Google Patents

分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム Download PDF

Info

Publication number
JP7461763B2
JP7461763B2 JP2020047232A JP2020047232A JP7461763B2 JP 7461763 B2 JP7461763 B2 JP 7461763B2 JP 2020047232 A JP2020047232 A JP 2020047232A JP 2020047232 A JP2020047232 A JP 2020047232A JP 7461763 B2 JP7461763 B2 JP 7461763B2
Authority
JP
Japan
Prior art keywords
terminal
model
machine learning
models
common
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020047232A
Other languages
English (en)
Other versions
JP2021149370A (ja
Inventor
椋平 香川
拓真 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2020047232A priority Critical patent/JP7461763B2/ja
Publication of JP2021149370A publication Critical patent/JP2021149370A/ja
Application granted granted Critical
Publication of JP7461763B2 publication Critical patent/JP7461763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

特許法第30条第2項適用 2019年10月21日にComputer Security Symposium 2019 予稿集 第1497頁~第1503頁において、セコム株式会社が、香川椋平及び西村拓真が発明した「分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム」について公開した。
本発明は、分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システムに関する。
利用者の生活に伴う活動データ(電力使用量データ等)をサービス提供者のサーバ等に集約し、機械学習によって利用者の多様な生活パターンの変化を高精度に検知することができる学習モデルを生成する技術が知られている。しかしながら、生活パターンを示す生の活動データをサーバ等に収集することはプライバシーの観点からユーザに抵抗感を与えるおそれがある。
そこで、近年、ユーザ端末において学習モデル(端末モデル)を学習させ、学習された端末モデルをサーバによって収集し、収集された端末モデルの中からランダムに選択した端末モデルを平均化処理して学習モデル(共通モデル)を生成する分散機械学習が注目されている。
McMahan, H. Brendan, et al. "Communication-efficient learning of deep networks from decentralized data." arXiv preprint arXiv:1602.05629 (2016).
ところで、各ユーザの生活パターンの分布には偏りがある。例えば、「夜間活動する」パターンのユーザよりも、「昼間活動する」パターンのユーザの方が多数派である。この場合、各端末から収集される端末モデルも、多数派パターンのモデルが多くなり、少数派パターンのモデルが少なくなる。したがって、従来技術においては、共通モデルには少数派パターンの端末モデルが反映されにくく、少数派パターンに属するユーザの活動パターンの特徴がうまく抽出できない共通モデルとなるおそれがあった。本発明は上記問題を鑑みてなされたものであり、プライバシーに配慮しつつ少数派の特徴を反映した処理タスクを行うことが可能な共通モデルを学習できる分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システムを提供することを目的とする。
本発明の1つの態様は、入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と通信し、前記端末装置において前記共通モデルに対して学習データを用いて機械学習させることによって生成された端末モデルを受信し、受信した複数の前記端末モデルを平均化処理して前記共通モデルを生成し、前記端末装置に送信する分散機械学習装置であって、受信した前記端末モデル間における類似度を求める類似度算出手段と、前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう前記平均化処理を実行するモデル生成手段と、を備える分散機械学習装置である。
本発明の別の態様は、入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と通信し、前記端末装置において前記共通モデルに対して学習データを用いて機械学習させることによって生成された端末モデルを受信し、受信した複数の前記端末モデルを平均化処理して前記共通モデルを生成し、前記端末装置に送信する分散機械学習方法であって、受信した前記端末モデル間における類似度を求める類似度算出ステップと、前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう前記平均化処理を実行するモデル生成ステップと、を備える分散機械学習方法である。
本発明の別の態様は、コンピュータを、入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と通信し、前記端末装置において前記共通モデルに対して学習データを用いて機械学習させることによって生成された端末モデルを受信し、受信した複数の前記端末モデルを平均化処理して前記共通モデルを生成し、前記端末装置に送信する分散機械学習装置として機能させる分散機械学習プログラムであって、前記コンピュータを、受信した前記端末モデル間における類似度を求める類似度算出手段と、前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう前記平均化処理を実行するモデル生成手段と、として機能させる分散機械学習プログラムである。
本発明の別の態様は、入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と、複数の前記端末装置と通信して当該端末装置の前記共通モデルを生成する分散機械学習装置と、からなるデータ処理システムであって、前記複数の端末装置の各々は、前記共通モデルに対して所定の学習データを機械学習することによって端末モデルを生成して前記分散機械学習装置に送信し、前記分散機械学習装置は、前記端末装置から受信した前記端末モデル間における類似度を求める類似度算出手段と、前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう平均化処理を行うことで前記共通モデルを生成するモデル生成手段と、を備えることを特徴とするデータ処理システムである。
ここで、前記モデル生成手段は、全ての前記端末モデルの中から前記類似端末モデル数の多い前記端末モデルほど選択され難くいよう前記端末モデルを選択し、該選択された前記端末モデルを用いて前記平均化処理を実行することが好適である。
また、前記モデル生成手段は、前記類似端末モデル数の少ない前記端末モデルほど前記平均化処理において前記共通モデルに反映され易くなるように重み値を設定し、前記端末モデル毎との前記重み値及び当該端末モデルを用いて前記平均化処理を実行することが好適である。
また、前記モデル生成手段は、前記機械学習するのに利用された学習データ数が大きいほど、前記平均化処理において前記共通モデルに反映され易くなるように前記重み値を設定することが好適である。
また、前記学習データは、前記端末装置が対象とするユーザの活動を示す活動データであり、前記共通モデルは、前記活動データの特徴を示す特徴ベクトルを出力する機械学習モデルであることが好適である。
本発明によれば、プライバシーに配慮しつつ少数派の特徴を反映した処理タスクを行うことが可能な共通モデルを学習できる分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システムを提供することができる。
本発明の実施の形態におけるデータ処理システムの構成概略図である。 本発明の実施の形態における端末装置の構成ブロック図である。 本発明の実施の形態におけるオートエンコーダの構成例を示す図である。 本発明の実施の形態におけるニューロンモデルを説明する図である。 本発明の実施の形態におけるサーバ装置の構成ブロック図である。 本発明の実施の形態における特徴量データベースの例を示す図である。 本発明の実施の形態における類似度データベースの例を示す図である。 本発明の実施の形態における学習フェーズの処理を示すフローチャートである。 本発明の実施の形態における学習フェーズにおけるサーバ装置での処理を示すフローチャートである。 本発明の実施の形態における検知フェーズの処理を示すフローチャートである。 本発明の実施の形態における検知フェーズにおけるサーバ装置での処理を示すフローチャートである。
本実施の形態におけるデータ処理システム100は、図1に示すように、端末装置102、センサ104及びサーバ装置106を含んで構成される。端末装置102は、各種のセンサ104に接続され、設置場所における利用者(ユーザ)の生活に伴う活動データを取得する。また、端末装置102の各々は、インターネット等の情報通信網108を介してサーバ装置106と情報伝達可能に接続される。サーバ装置106は、利用者の生活の活動パターンの変化を検知して通知等を行うサービスを提供する。サーバ装置106は、例えば、当該サービスの提供者の施設に設置される。
端末装置102は、店舗、オフィス、マンション、倉庫、家屋等の利用者が活動する物件に設置された警備装置などのコンピュータである。
端末装置102は、データ処理システム100において共通に用いられる機械学習モデルである共通モデルをサーバ装置106から受信する。端末装置102は、複数のセンサ104で検知された各種のデータを用いて、当該共通モデルに基づいてさらに機械学習させた学習モデルである端末モデルを生成する。本実施の形態では、共通モデル及び端末モデルは、センサ104から取得したデータを入力として、利用者の活動パターンの特徴を示す特徴量を生成するエンコーダを含む学習モデルとする。すなわち、共通モデル及び端末モデルを適用することによって、複数のセンサ104から得られたデータの性質を保持したまま、より低次元の特徴量空間における特徴量で表現できる次元圧縮を行うことが可能になる。
端末装置102は、図2に示すように、制御部10、記憶部12、センサ通信部14及び通信部16を含んで構成される。
制御部10は、端末モデル生成手段10a及び特徴量抽出手段10bを含んで構成される。
端末モデル生成手段10aは、センサ104から取得したセンサデータ12cを用いてサーバ装置106から受信した共通モデル12bをさらに機械学習させることによって端末モデル12aを生成する端末モデル生成処理を行う。端末モデル生成処理は、後述する「学習フェーズ」において実施される。
本実施の形態では、端末モデル生成処理において利用される学習アルゴリズムとして、オートエンコーダを適用することができる。オートエンコーダは、図3に示すように、ニューラルネットワークを用いた次元圧縮のための学習アルゴリズムである。オートエンコーダは、高次元のセンサデータ12cを低次元の特徴量へ圧縮するエンコーダと、低次元の特徴量を高次元のセンサデータ12cへ復元するデコーダに分けられる。エンコーダ及びデコーダは、ともに図4に示すようなニューロンモデルを単層又は多層に複数組み合わせたニューラルネットワークによって構成される。ニューロンモデルは、数式(1)に示すように、複数の入力信号xに対してそれぞれ重み係数wを乗算して得られる乗算値にバイアスbを加算した値を足し合わせて活性化関数fを適用した演算値yを出力する。オートエンコーダの学習では教師データを利用せず、入力データであるセンサデータ12cをエンコーダにて圧縮処理した特徴量をデコーダにて復元したデータが元のセンサデータ12cと同じになるようにエンコーダ及びデコーダのニューラルネットワークのモデルパラメータ(重み係数wとバイアスb)を学習する。すなわち、本実施形態における学習モデル(共通モデル12b及び端末モデル12a)は、学習前にあらかじめ設定され学習によって変更されないエンコーダ及びデコーダのニューラルネットワークのネットワーク構造(モデル構造)と、学習によって変更される重み係数wとバイアスbなどのモデルパラメータとからなる。端末装置102は、後述する「学習フェーズ」における一連の学習によって得られた共通モデル12bのエンコーダを利用することで、高次元データのセンサデータ12cを、低次元データの潜在変数である特徴量に次元圧縮する。
なお、本実施の形態では、共通モデル12b及び端末モデル12aのエンコーダとデコーダが連結されたモデルでモデル化したが、これに限定されるものではなく、他のモデルを適用してもよい。例えば、センサデータ12cを入力とし当該センサデータ12cに対応する利用者の状態(異常行動として検知する活動パターン、利用者の病歴等)を出力とする畳み込みニューラルネットワークでモデル化してもよい。
特徴量抽出手段10bは、センサデータ12cから利用者の活動パターンを表す特徴量を抽出する特徴量抽出処理を行う。特徴量抽出手段10bは、いわゆる特徴量抽出器である。特徴量抽出処理は、後述する「検知フェーズ」において実施される。
本実施形態の特徴量抽出手段10bは、共通モデル12bのエンコーダにセンサデータ12cを入力して、高次元のセンサデータ12cを低次元の特徴量に圧縮する。そして、求められた低次元の特徴量を端末装置102の識別子に対応付けてサーバ装置106に送信する。なお、特徴量の次元は、上記オートエンコーダの潜在変数の次元数となる。例えば、潜在変数空間が2次元の場合、特徴量も2次元となる。
記憶部12は、半導体メモリ、磁気ディスク(HDD)、又はCD-ROM、DVD-RAMなどの光ディスクドライブ及びその記録媒体で構成される記憶手段である。記憶部12は、端末モデル12a、共通モデル12b、センサデータ12c及び学習データ数12dを記憶する。
端末モデル12aは、端末モデル生成手段10aによって生成された学習モデルである。記憶部12には、端末モデル12aとしてエンコーダ及びデコーダのモデル構造と、モデルパラメータが記憶される。
共通モデル12bは、サーバ装置106から受信した学習モデルである。記憶部12には、共通モデル12bとしてエンコーダ及びデコーダのモデル構造と、サーバ装置106から受信したモデルパラメータが記憶される。
センサデータ12cは、センサ104から取得したデータを時系列に記録した情報である。センサデータ12cは、センサ104の各々を特定するセンサID、センサ104からデータを取得した検知日時及びセンサ値が関連付けて記憶される。学習データ数12dは、「学習フェーズ」において学習に利用したセンサデータ12cのデータ数である。すなわち、本実施形態では、データ数が大きいほど長期間に渡って記録したセンサデータ12cであることを意味する。
センサ通信部14は、センサ104の各々において検知されたデータを取得するためのインターフェースである。センサ通信部14を介して取得されたデータは、記憶部12にセンサデータ12cとして記憶される。
なお、センサ104には、例えば、電気使用量を取得できるスマートメータ、ドアの開閉を検知するセンサ、居住者の存否を検知する赤外線センサなどの、利用者の行動を把 握できるセンサとすることができる。また、端末装置102が警備装置である場合、利用者の在室状況を把握するために、当該警備装置の警備情報(セット/解除情報)をセンサデータ12cとして検知するセンサ104としてもよい。
通信部16は、外部装置と情報を送受信するためのインターフェースである。通信部16は、情報通信網108を介してサーバ装置106と情報伝達可能に接続される。通信部16を介して、端末装置102からサーバ装置106へ送信されるデータは、機械学習によって更新された端末モデル12aの重み係数wとバイアスb、機械学習に用いられた学習データ数12d、共通モデル12bを用いて生成された特徴量等である。通信部16を介して、サーバ装置106から受信するデータは、サーバ装置106で生成された共通モデル12bの重み係数wとバイアスbや「検知フェーズ」で検知された結果の情報等である。
サーバ装置106は、サービス提供者の施設等に設置されるコンピュータである。
サーバ装置106は、各端末装置102から端末モデル12aを受信する。サーバ装置106は、各端末装置102における学習により得られた端末モデル12aを用いて、当該共通モデル22bを生成する。すなわち、サーバ装置106は、各端末装置102から端末モデル12aを受信して共通モデル22bを更新する分散機械学習装置として機能する。また、サーバ装置106は、各端末装置102で取得されたセンサデータ12cを共通モデル22bに入力して得られた特徴量を受信し、当該特徴量に基づいて端末装置102の利用者の生活に伴う活動パターンの変化を検知する。
サーバ装置106は、図5に示すように、制御部20、記憶部22、入力部24、出力部26及び通信部28を含んで構成される。
まず、記憶部22について説明する。記憶部22は、端末モデルデータベース(端末モデルDB)22a、共通モデル22b、特徴量データベース(特徴量DB)22c、類似度データベース(類似度DB)22d及び変化検知結果22eを記憶する。
端末モデルDB22aは、各端末装置102から受信した端末モデル12aに関する情報を記憶するデータベースである。端末モデルDB22aには、端末装置102に固有に割り当てられた端末IDに、各端末装置102から受信した端末モデル12aのモデルパラメータ、機械学習に用いられた学習データ数12dが関連付けて記憶される。
共通モデル22bは、後述する共通モデル生成手段20cによって、複数の端末装置102から受信した端末モデル12aを統合して生成された共通モデル22bに関する情報を示す。共通モデル22bとして、エンコーダ及びデコーダのモデル構造とモデルパラメータが記憶される。
特徴量DB22cは、各端末装置102から受信した特徴量に関する情報を記憶するデータベースである。特徴量DB22cには、図6に示すように、端末IDに対して、当該端末IDで特定される端末装置102から受信した特徴量、当該特徴量を抽出した日時が関連付けて記憶される。
類似度DB22dは、後述する類似度算出手段20aで算出された類似度に関する情報を記憶するデータベースである。類似度は、異なる端末装置102で生成された端末モデル12aの間の類似性を示す値である。類似度DB22dには、図7に示すように、端末装置102の端末IDの組み合わせ毎にそれらの端末装置102で生成された端末モデル12aの類似度を関連付けて記憶される。本実施の形態では、類似度は、0~1の範囲において、1に近いほど端末モデル12aが類似していることを示す。類似度の初期値は0とする。
変化検知結果22eは、後述する変化検知手段20dにおいて検知された検知結果である。本実施の形態では、検知結果は、各端末装置102から受信した特徴量に基づいて端末装置102を利用する利用者の活動パターンの変化の度合いを示す変化検知スコアとする。変化検知結果22eは、端末IDに対して、変化の検知を行った日時及び変化検知スコアが関連付けて記憶される。
制御部20は、類似度算出手段20a、選択手段20b、共通モデル生成手段20c及び変化検知手段20dを含んで構成される。
類似度算出手段20aは、各端末装置102から受信した端末モデル12aのモデルパラメータについて各端末装置102の端末モデル12aの間の類似度を計算する。本実施形態では、数式(2)に基づいて、コサイン類似度を用いて類似度を計算する。計算された端末装置102の端末モデル12aの類似度は類似度DB22dに記録される。ここで、sjkは、端末IDがjの端末装置102の端末モデルと端末IDがkの端末装置102の端末モデル12aとの間の類似度(端末モデル類似度)である。wijは、端末IDがjの端末装置102の端末モデル12aのi番目のモデルパラメータ(端末モデル12aにおけるニューロンモデルの重み係数)である。wikは、端末IDがkの端末装置102の端末モデル12aのi番目のモデルパラメータ(端末モデル12aにおけるニューロンモデルの重み係数)である。
選択手段20bは、類似度DB22dを参照し、共通モデル22bの生成に利用する端末モデル12aを選択する選択処理を実行する。選択手段20bは、まず、数式(3)に基づいて、すべての端末装置102の中から端末選択割合Cに応じて共通モデル22bの生成に利用する端末モデル12aの数Mを算出する。ここで、Kは端末装置102から受信した端末モデル数、Cは端末選択割合である。端末選択割合Cは、0~1の値をとり、0の場合には1つの端末モデル12aのみが選択され、1の場合にはすべての端末モデル12aが選択される。
次に、端末モデル数Mに応じて端末装置の端末モデルを選択する。以下、選択手段20bによって選択された端末装置102を「選択端末」、選択端末の端末モデルを「選択モデル」と称する。この際、端末装置の端末モデル間の類似度が高い端末モデルが多いほど、その端末モデルが選択されにくいように選択処理を行う。
具体的には、類似度DBに記録されている類似度のうち、端末iの端末モデルが関係する類似度が所定の基準値を超える端末モデルの総数を類似端末モデル数Sとして求める。そして、端末iの端末モデルの重みを1/Sとして、非復元抽出による重み付き選択を用いて端末モデル数Mに該当する数の端末モデルを選択する。
ここで、非復元抽出とは、選択したものを戻さずに次の選択を行う方法である。非復元抽出による重み付き選択は、重みが大きいものほど選択される可能性を高くして非復元抽出を行う方法である。この非復元抽出による重み付き選択法は、例えば、参考文献Wong, C. K. and M. C. Easton. An Efficient Method for Weighted Sampling Without Replacement. SIAM Journal of Computing 9(1), pp. 111-113, 1980に記載されている。
例えば、S=30の端末iとS=10の端末jを考える。端末iの重みは1/30であり、端末jの重みは1/10となる。この場合、端末iは端末jに比べて選択され易さが1/3となる。このように、高類似度の端末モデルの数が多いほど選択のための重みは小さくされ、共通モデルの学習に使用される端末モデルとして選択され難くなる。
したがって、各端末装置において機械学習された端末モデルにおいて多数派の集合と少数派の集合があった場合であっても、多数派と少数派に対して大きな偏りなく端末モデルを選択することが可能となる。
また、上記の非復元抽出による重み付き選択法を適用することなく、他の選択方法を適用してもよい。例えば、端末モデル間の類似度に応じて階層型クラスタリングを適用して、類似端末モデル数が多い端末モデルほど選択され難いように選択端末を選択してもよい。例えば、類似度に基づく階層型クラスタリングによって端末モデルをM個のクラスタ(類似端末モデルの集まり)に分けて、各クラスタから1つずつ選択することによっても、多数派と少数派に対して大きな偏りなく端末モデルを選択できる。
また、端末装置102の各々において端末モデルの学習に用いられた学習データの数をサーバ装置106における端末モデルの選択に適用してもよい。例えば、類似端末数が等しい端末モデルが複数存在する場合、学習データの数が多かった端末モデルを優先的に選択するようにしてもよい。また、学習データの数に応じて端末装置102の端末モデルの各々に対して算出される上記重みを補正するようにしてもよい。すなわち、学習データの数が多いほど、各端末モデルに対する重みの値が大きくなるように補正をし、当該補正された重みを用いて端末モデルを選択するようにしてもよい。
共通モデル生成手段20cは、選択手段20bで選択された端末モデルを統合して共通モデル22bを生成する処理を行う。共通モデル生成処理は、「学習フェーズ」において各端末装置102からの端末モデルの受信を完了する度に実行され、「学習フェーズ」の終了条件が満たされるまで繰り返し実行されるようにすればよい。
本実施の形態では、数式(4)及び数式(5)を用いて、選択モデルの各モデルパラメータを各端末モデルの更新に用いられた学習データ数に基づいて定めた重み値Rを用いて重み付平均する平均化処理によって共通モデル22bの各モデルパラメータを算出する。すなわち、共通モデル22bの各モデルパラメータは、選択モデルのうち学習データ数が多い端末モデルであるほど当該端末モデルのモデルパラメータが共通モデル22bに反映され易くなるようにして算出される。これによって、学習データ数の多い端末モデルを重視して共通モデル22bを生成することができる。
:共通モデル22bのモデルパラメータのi番目
ij:端末jの端末モデル12aのモデルパラメータのi番目
M:共通モデル22bの学習に用いられる端末モデル12aの数
:端末jの端末モデル12aの学習に用いられた学習データの数
N:端末モデル12aの学習に用いられた学習データの数の平均値
:端末jの端末モデル12aに対する重み値
なお、上記の重み付き平均を適用せず、数式(6)に示す単純平均を適用してもよい。ただし、学習データ数12dを考慮しないため、共通モデル22bの学習精度が低下する虞がある。
また、端末装置102の全数が少ない場合、選択手段20bにおいて選択モデルを選択せず、すべての端末装置102の端末モデル12aを使って共通モデル22bを生成してもよい。すなわち、C=1としてもよい。
この場合、端末モデル類似度Sjkによる重み付き平均により共通モデル22bを生成する。すなわち、数式(7)に示すように、重み付き平均において用いる学習端末jの重みとして、端末モデルの更新に用いられた学習データ数から算出された重みと、他の端末装置102の端末モデルとの類似度から算出された重みとを掛け合わせた値を適用する。これによって、少数派の端末モデルを重視した共通モデル22bを構築することが可能となる。
このとき、他の端末装置102の端末モデルとの類似度から算出された重みは、端末jの関係する類似度の合計とすべての端末装置102間における類似度の合計値との比を用いることが好適である。これにより、他端末のモデルと違いが大きいモデルは重みが大きくなるため、少数派を重視して学習を行うことができる。
jk:類似度DB22dに記録されている端末jと端末kの端末モデル12aの類似度
lk:類似度DB22dに記録されている端末lと端末jの端末モデル12aの類似度
変化検知手段20dは、各端末装置102から受信した特徴量に基づいて各端末装置102が設置された物件における利用者の活動パターンの変化を検知する変化検知処理を実行する。
変化検知処理では、端末装置102から新たに受信した特徴量と、特徴量DB22cに記憶されている過去に受信した特徴量との比較に基づき変化検知スコアを算出する。具体的には、直近から遡って一定期間に受信した特徴量とそれ以前の所定期間の特徴量の分布から確率密度を推定し、それらの比の値を変化検知スコアとして算出する。変化検知スコアが閾値以上となった場合に、利用者の活動パターンに変化が生じたととみなす。
なお、利用者の活動パターンの変化の検出方法、当該密度比推定方法に限定されず、学習データの性質によって以下に記す他の手法により変化を検知してもよい。例えば、受信した最新の特徴量と過去に受信した特徴量との距離計算を行い、当該距離を変化検知スコアとする。また、例えば、one class SVMによって、過去に受信した特徴量の領域推定を行う。そして、新たに受信した特徴量とその領域の距離計算を行い、当該距離を変化検知スコアとする。また、例えば、複数の端末装置102の特徴量をクラスタリングし、変化検知の対象とした端末装置102の特徴量が過去に属したクラスタから移動した場合に活動パターンに変化が生じたとみなす。この際の変化検知スコアは、クラスタからの移動なしの場合には偽値(例えば0)、移動した場合には真値(例えば1)とすればよい。
入力部24は、サーバ装置106に対して情報や指示を入力するための入力手段である。入力部24は、例えば、キーボード等の文字入力手段、マウス等のポインティングデバイス等とすることができる。出力部26は、サーバ装置106で用いられる情報を利用者に呈示するための出力手段である。出力部26は、例えば、ディスプレイ等の情報表示装置、プリンタ等の印刷装置とすることができる。また、出力部26は、変化検知手段20dで利用者の活動パターンに変化が検知された場合にサービス提供を行う会社のスタッフに報知するようにしてもよい。
通信部28は、外部装置と情報を送受信するためのインターフェースである。通信部28は、情報通信網108を介して端末装置102の各々と情報伝達可能に接続される。通信部28を介して、サーバ装置106から端末装置102へ送信されるデータは、サーバ装置106で生成された共通モデル22bのモデルパラメータや変化検知処理で検知された結果の情報等である。また、通信部28を介して、端末装置102からサーバ装置106が受信するデータは、端末装置102の各々において機械学習によって更新された端末モデル12aのモデルパラメータ、学習データ数12d、特徴量等である。
また、通信部28は、端末装置102の利用者の家族等の関係者が使用する情報端末に情報伝達可能に接続できるようにしてもよい。これによって、変化検知処理で検知された結果の情報を当該関係者に通知することができる。
以下、本実施の形態における「学習フェーズ」及び「検知フェーズ」について説明する。まず、図8及び図9を参照して「学習フェーズ」について説明する。
図8に示すように、学習フェーズでは、端末装置102の各々における端末モデル12aの学習とサーバ装置106における共通モデルの学習とが繰り返し行われる。まず、ステップS10にて、サーバ装置106から初期状態の共通モデルの情報が端末装置102の各々に送信される。ステップS12では、サーバ装置106から受信された共通モデルに基づいて、端末装置102の各々において取得されたセンサデータ12cを用いて端末モデル12aの学習が行われる。ステップS14では、端末装置102の各々からサーバ装置106へ端末モデル12aの情報が送信される。ステップS16では、サーバ装置106が受信した端末モデル12aに基づいて、共通モデルの生成処理が行われる。ステップS18では、サーバ装置106から生成された共通モデルの情報が端末装置102の各々に送信される。このように、端末装置102における端末モデル12aの学習とサーバ装置106における共通モデルの生成とを繰り返す。
図9は、学習フェーズにおけるサーバ装置106での処理を示す。学習フェーズでは、サーバ装置106において、共通モデルの生成が行われ、当該共通モデルを端末装置102へ送信する処理が行われる。
最初に、初期状態の共通モデルの生成が行われる(ステップS20)。共通モデルのモデル構造が決定され、モデルパラメータが設定される。モデルパラメータの初期値は、乱数を用いた初期化処理やサーバ装置106に予め設定されたテストデータセットを用いた事前学習によって設定することができる。テストデータセットは、実験環境等で収集されたデータであり、端末装置102において取得されるセンサデータ12cと同じデータ構造をもつことが好適である。また、テストデータの値も端末装置102において取得されるセンサデータ12cに近いことが好適である。
次に、生成された初期状態の共通モデルの情報を端末装置102の各々に送信する(ステップS22)。端末装置102の各々では、センサデータ12cを用いて共通モデルに基づいた端末モデル12aの学習が行われる。サーバ装置106は、端末装置102の各々から端末モデル12aの情報を受信する(ステップS24)。サーバ装置106は、ステップS22又は後述するステップS34において共通モデルを送信した端末装置102から端末モデル12aを受信し終えるまで待機する。
端末装置102から端末モデル12aの情報を受信すると、複数の端末装置102の端末モデル12aの間の類似度を算出する類似度算出処理を行う(ステップS26)。算出された類似度は、端末装置102の端末IDの組み合わせに関連付けて類似度DB22dに記憶される。この際、前回の選択処理において選択されなかった端末モデル12aに対応する端末装置102に関する類似度は算出せず、類似度DB22dの値も更新しないものとする。
類似度の算出処理が終了すると、類似度DB22dを参照して、選択モデルを選択する選択処理を行う(ステップS28)。そして、選択モデルのモデルパラメータを用いて共通モデルの生成処理を行う(ステップS30)。共通モデルの生成を終了する条件が満たされればステップS36に処理を移行させ、条件が満たされなければステップS34に処理を移行させる(ステップS32)。
ステップS34に処理を移行させた場合、ステップS28の選択モデルに対応する端末装置102へ生成された共通モデルを送信する(ステップS34)。なお、すべての端末装置102へ共通モデルを送信してもよい。この場合、ステップS24において、すべての端末装置102から端末モデル12aを受信し、当該受信した端末モデル12aに基づいてステップS26の類似度算出処理にて類似度DB22dを更新する。
ステップS36に処理を移行させた場合、各端末装置102へ共通モデルのモデルパラメータの送信が行われる(ステップS36)。そして、各端末装置102に対して「学習フェーズ」から「検知フェーズ」への切り換えを行う指示を通知する(ステップS38)。
次ぎに、図10及び図11を参照して「検知フェーズ」について説明する。
図10に示すように、検知フェーズでは、センサデータ12cに基づく端末装置102における特徴量の抽出処理と、特徴量に基づくサーバ装置106における変化検知処理とが行われる。まず、ステップS40にて、端末装置102の各々において、サーバ装置106から受信したモデルパラメータを適用した共通モデルに対してセンサ104から取得したセンサデータ12cを入力して、当該センサデータ12cに対応する特徴量を抽出する。ステップS42では、端末装置102で抽出された特徴量がサーバ装置106へ送信される。ステップS44では、端末装置102から受信された特徴量に基づいて利用者の活動パターンに変化が生じたか否かの変化検知処理が行われる。そして、ステップS46では、検知結果が出力される。
図10は、サーバ装置106における特徴量に基づく活動パターンの変化の検知処理を示す。検知処理では、端末装置102の各々において抽出された特徴量から利用者の活動パターンの変化が検知される。
まず、サーバ装置106は、端末装置102の各々から特徴量を受信する(ステップS50)。サーバ装置106は、すべての端末装置102から特徴量を受信するまで待機するようにしてもよい。例えば、端末装置102は、所定期間分(例えば1週間分)のセンサデータ12cを共通モデルに入力して、当該期間における利用者の活動パターンを示す特徴量を抽出して、当該特徴量をサーバ装置106へ送信する。
サーバ装置106は、受信した特徴量に基づいて利用者の活動パターンの変化検知処理を行う(ステップS52)。端末装置102の各々から受信した特徴量と、特徴量DB22cに記憶されている過去に受信した特徴量とを比較して変化検知スコアを算出して変化検知結果22eとして記録する。
変化検知結果22eが所定の閾値以上である場合(ステップS54にて「はい」の場合)には、活動パターンに変化が生じたことを示す通知を出力する(ステップS56)。変化検知結果22eが所定の閾値未満である場合(ステップS54にて「いいえ」の場合)には、活動パターンに変化が生じたことを示す通知を出力しない(ステップS58へ移行)。
変化検知処理を終了する条件が満たされた場合には処理を終了し、条件が満たされていない場合にはステップS50から処理を繰り返す(ステップS58)。変化検知処理を終了する条件は、特に限定されるものではないが、例えば入力部24から処理を終了する指示が入力された場合や変化検知処理を開始してから所定の時間が経過した場合等とすることができる。
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
10 制御部、10a 端末モデル生成手段、10b 特徴量抽出手段、12 記憶部、12a 端末モデル、12b 共通モデル、12c センサデータ、12d 学習データ数、14 センサ通信部、16 通信部、20 制御部、20a 類似度算出手段、20b 選択手段、20c 共通モデル生成手段、20d 変化検知手段、22 記憶部、22a 端末モデルデータベース、22b 共通モデル、22c 特徴量データベース、22d 類似度データベース、22e 変化検知結果、24 入力部、26 出力部、28 通信部、100 データ処理システム、102 端末装置、104 センサ、106 サーバ装置、108 情報通信網。

Claims (8)

  1. 入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と通信し、前記端末装置において前記共通モデルに対して学習データを用いて機械学習させることによって生成された端末モデルを受信し、受信した複数の前記端末モデルを平均化処理して前記共通モデルを生成し、前記端末装置に送信する分散機械学習装置であって、
    受信した前記端末モデル間における類似度を求める類似度算出手段と、
    前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう前記平均化処理を実行するモデル生成手段と、
    を備える分散機械学習装置。
  2. 前記モデル生成手段は、全ての前記端末モデルの中から前記類似端末モデル数の多い前記端末モデルほど選択され難くいよう前記端末モデルを選択し、該選択された前記端末モデルを用いて前記平均化処理を実行する請求項1に記載の分散機械学習装置。
  3. 前記モデル生成手段は、前記類似端末モデル数の少ない前記端末モデルほど前記平均化処理において前記共通モデルに反映され易くなるように重み値を設定し、前記端末モデル毎との前記重み値及び当該端末モデルを用いて前記平均化処理を実行する請求項1又は2に記載の分散機械学習装置。
  4. 前記モデル生成手段は、前記機械学習するのに利用された学習データ数が大きいほど、前記平均化処理において前記共通モデルに反映され易くなるように前記重み値を設定する請求項3に記載の分散機械学習装置。
  5. 前記学習データは、前記端末装置が対象とするユーザの活動を示す活動データであり、
    前記共通モデルは、前記活動データの特徴を示す特徴ベクトルを出力する機械学習モデルであることを特徴とする請求項1~4のいずれか1項に記載の分散機械学習装置。
  6. 入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と、複数の前記端末装置と通信して当該端末装置の前記共通モデルを生成する分散機械学習装置と、からなるデータ処理システムであって、
    前記複数の端末装置の各々は、前記共通モデルに対して所定の学習データを機械学習することによって端末モデルを生成して前記分散機械学習装置に送信し、
    前記分散機械学習装置は、
    前記端末装置から受信した前記端末モデル間における類似度を求める類似度算出手段と、
    前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう平均化処理を行うことで前記共通モデルを生成するモデル生成手段と、
    を備えることを特徴とするデータ処理システム。
  7. 入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と通信し、前記端末装置において前記共通モデルに対して学習データを用いて機械学習させることによって生成された端末モデルを受信し、受信した複数の前記端末モデルを平均化処理して前記共通モデルを生成し、前記端末装置に送信する分散機械学習方法であって、
    受信した前記端末モデル間における類似度を求める類似度算出ステップと、
    前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう前記平均化処理を実行するモデル生成ステップと、
    を備える分散機械学習方法。
  8. コンピュータを、入力データに対して所定のデータ処理タスクを行うための学習モデルである共通モデルを備えた複数の端末装置と通信し、前記端末装置において前記共通モデルに対して学習データを用いて機械学習させることによって生成された端末モデルを受信し、受信した複数の前記端末モデルを平均化処理して前記共通モデルを生成し、前記端末装置に送信する分散機械学習装置として機能させる分散機械学習プログラムであって、
    前記コンピュータを、
    受信した前記端末モデル間における類似度を求める類似度算出手段と、
    前記類似度に基づいて類似する前記端末モデルの数である類似端末モデル数が多い前記端末モデルほど前記共通モデルに反映され難くなるよう前記平均化処理を実行するモデル生成手段と、
    として機能させる分散機械学習プログラム。
JP2020047232A 2020-03-18 2020-03-18 分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム Active JP7461763B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020047232A JP7461763B2 (ja) 2020-03-18 2020-03-18 分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047232A JP7461763B2 (ja) 2020-03-18 2020-03-18 分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム

Publications (2)

Publication Number Publication Date
JP2021149370A JP2021149370A (ja) 2021-09-27
JP7461763B2 true JP7461763B2 (ja) 2024-04-04

Family

ID=77848848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047232A Active JP7461763B2 (ja) 2020-03-18 2020-03-18 分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム

Country Status (1)

Country Link
JP (1) JP7461763B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023177487A (ja) * 2022-06-02 2023-12-14 株式会社日立製作所 連合学習システム、連合学習方法および連合学習プログラム
WO2024069957A1 (ja) * 2022-09-30 2024-04-04 日本電気株式会社 学習装置、学習システム、学習方法、およびコンピュータ可読媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6573269B1 (ja) 2019-03-22 2019-09-11 livepass株式会社 カスタマイズされたコンテンツ配信のためのサーバ装置、プログラム
JP2019526851A (ja) 2016-07-18 2019-09-19 ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC 分散型機械学習システム、装置、および方法
JP2020038699A (ja) 2017-12-26 2020-03-12 株式会社エイシング 汎用学習済モデルの生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019526851A (ja) 2016-07-18 2019-09-19 ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC 分散型機械学習システム、装置、および方法
JP2020038699A (ja) 2017-12-26 2020-03-12 株式会社エイシング 汎用学習済モデルの生成方法
JP6573269B1 (ja) 2019-03-22 2019-09-11 livepass株式会社 カスタマイズされたコンテンツ配信のためのサーバ装置、プログラム

Also Published As

Publication number Publication date
JP2021149370A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
Fong et al. Finding an accurate early forecasting model from small dataset: A case of 2019-ncov novel coronavirus outbreak
Jiang et al. Ensemble Prediction Algorithm of Anomaly Monitoring Based on Big Data Analysis Platform of Open‐Pit Mine Slope
US20200401939A1 (en) Systems and methods for preparing data for use by machine learning algorithms
Darban et al. Deep learning for time series anomaly detection: A survey
JP7461763B2 (ja) 分散機械学習装置、分散機械学習方法、分散機械学習プログラム及びデータ処理システム
Mohanty et al. Web-services classification using intelligent techniques
Yu et al. Meta-ADD: A meta-learning based pre-trained model for concept drift active detection
CA3184439A1 (en) Neural network architecture for transaction data processing
Wang et al. Online reliability time series prediction via convolutional neural network and long short term memory for service-oriented systems
KR20190101327A (ko) 구독 제품 가격 산정 방법 및 가격 산정 장치
Elwell et al. Incremental learning in nonstationary environments with controlled forgetting
Gao Network intrusion detection method combining CNN and BiLSTM in cloud computing environment
Amayri et al. Estimating occupancy using interactive learning with a sensor environment: Real-time experiments
JP7409080B2 (ja) 学習データ生成方法、学習データ生成プログラムおよび情報処理装置
JP2020080021A (ja) 学習プログラム、学習方法および学習装置
Fong et al. Gesture recognition from data streams of human motion sensor using accelerated PSO swarm search feature selection algorithm
Inacio et al. Fault diagnosis with evolving fuzzy classifier based on clustering algorithm and drift detection
CN114037182A (zh) 建筑物负荷预测模型训练方法、装置及非易失性存储介质
US20230169336A1 (en) Device and method with state transition linearization
CN115700850A (zh) 一种基于无监督神经网络lbri的动作识别方法及***
US11966927B2 (en) Multi-task deep learning of customer demand
Zander Predicting taxi passenger demand using artificial neural networks
CN117763492B (zh) 基于时序空间特征和偏好波动的网络安全工具智能推荐方法及装置
Wang et al. Quantum particle swarm optimization based network intrusion feature selection and detection
CN113032625B (zh) 一种视频分享方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7461763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150