JP7434073B2 - モデル運用支援システム及び方法 - Google Patents

モデル運用支援システム及び方法 Download PDF

Info

Publication number
JP7434073B2
JP7434073B2 JP2020103530A JP2020103530A JP7434073B2 JP 7434073 B2 JP7434073 B2 JP 7434073B2 JP 2020103530 A JP2020103530 A JP 2020103530A JP 2020103530 A JP2020103530 A JP 2020103530A JP 7434073 B2 JP7434073 B2 JP 7434073B2
Authority
JP
Japan
Prior art keywords
data
period
model
training data
candidates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020103530A
Other languages
English (en)
Other versions
JP2021196921A (ja
Inventor
慶行 但馬
大祐 稲葉
義則 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020103530A priority Critical patent/JP7434073B2/ja
Priority to PCT/JP2021/019404 priority patent/WO2021256171A1/ja
Priority to US17/919,757 priority patent/US20230144809A1/en
Publication of JP2021196921A publication Critical patent/JP2021196921A/ja
Application granted granted Critical
Publication of JP7434073B2 publication Critical patent/JP7434073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、概して、学習モデルの運用支援のためのコンピュータ技術に関する。
近年、機械学習を用いたシステム及びサービスの導入が進んでいる。そのようなシステム及びサービスでは、通常、所定の対象について収集されたデータを入力とし当該データに基づく推定を表すデータを出力とする学習モデルが使用される。学習モデルの作成は、一般に、上記所定の対象は時間に依存するもののモデルの入出力は独立同分布であるという仮定、又は、上記所定の対象の時間依存性は短期間であるという仮定の下で行われる。しかし、実際には、コンセプトドリフトが生じ(すなわち、時間が経つにつれ上記所定の対象の傾向が変化し)、結果として、上述の仮定が崩れるため、学習モデルが劣化する(例えば、学習モデルの精度又は正解率が大きく低下する)。学習モデルの劣化前に学習モデルの再学習を行うといったメンテナンスが必要である。
特許文献1は、コンセプトドリフトの検出を検出しポストドリフトプロセスデータを用いて学習モデルを再学習する方法を開示している。
特表2018-513490号公報
特許文献1は、再学習に使用する訓練データをポストドリフトプロセスデータとすることを開示している。
しかし、機械学習を用いたシステム及びサービスでは、学習モデルの対象について頻繁にデータが収集され、結果として、大量のデータが蓄積され得る。このため、ポストドリフトプロセスデータが大量に存在し得る。大量のポストドリフトプロセスデータの全てを訓練データとすると、再学習に長い時間を要する。また、ポストドリフトプロセスデータの全てが訓練データとして適切であるとは限らない。
システムが、第1の期間の終了時刻から機械学習の学習モデルの再学習タイミングまでの期間である全体期間のうちの一つ以上の第2の期間の各々について、対象データとベースデータとの分布間距離を算出する。各第2の期間について、対象データは、全体データのうちの当該第2の期間分のデータである。全体データは、全体期間分のデータであって学習モデルに関わるデータである。ベースデータは、第1の期間分のデータであって学習モデルの作成に関わったデータである。システムが、各第2の期間について、算出された分布間距離が第1の閾値以上であるか否かを判定し、当該判定の結果が真の場合に当該第2の期間に従う時刻を変動点として特定する。システムが、一つ以上の変動点に基づいて全体データの一部又は全部から一つ以上の訓練データ候補を決定し、当該一つ以上の訓練データ候補又はそれのメタ情報を学習モデルの再学習のために出力する。
本発明によれば、学習モデルの再学習に適切な一つ以上の訓練データ候補を決定し当該一つ以上の訓練データ候補又はそれのメタ情報を出力できる。
実施形態の概要を示す。 実施形態に係るモデル運用支援システムを含むシステム全体の構成例を示す。 対象データの特定から分布間距離の算出までの処理の流れの一例を示す。 疑似ラベルの生成の一例を模式的に示す。 分布間距離の算出の一例を模式的に示す。 分布間距離を算出する処理の詳細の流れの一例を示す。 再学習タイミングが検出された場合に行われる処理の流れの一例を示す。 運用支援UIの一例を示す。 運用支援UIにおけるメタ情報リストの変形例を示す。
以下の説明では、「インターフェース装置」は、一つ以上のインターフェースデバイスでよい。当該一つ以上のインターフェースデバイスは、下記のうちの少なくとも一つでよい。
・一つ以上のI/O(Input/Output)インターフェースデバイス。I/O(Input/Output)インターフェースデバイスは、I/Oデバイスと遠隔の表示用計算機とのうちの少なくとも一つに対するインターフェースデバイスである。表示用計算機に対するI/Oインターフェースデバイスは、通信インターフェースデバイスでよい。少なくとも一つのI/Oデバイスは、ユーザインターフェースデバイス、例えば、キーボード及びポインティングデバイスのような入力デバイスと、表示デバイスのような出力デバイスとのうちのいずれでもよい。
・一つ以上の通信インターフェースデバイス。一つ以上の通信インターフェースデバイスは、一つ以上の同種の通信インターフェースデバイス(例えば一つ以上のNIC(Network Interface Card))であってもよいし二つ以上の異種の通信インターフェースデバイス(例えばNICとHBA(Host Bus Adapter))であってもよい。
また、以下の説明では、「メモリ」は、一つ以上の記憶デバイスの一例である一つ以上のメモリデバイスであり、典型的には主記憶デバイスでよい。メモリにおける少なくとも一つのメモリデバイスは、揮発性メモリデバイスであってもよいし不揮発性メモリデバイスであってもよい。
また、以下の説明では、「永続記憶装置」は、一つ以上の記憶デバイスの一例である一つ以上の永続記憶デバイスでよい。永続記憶デバイスは、典型的には、不揮発性の記憶デバイス(例えば補助記憶デバイス)でよく、具体的には、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、NVME(Non-Volatile Memory Express)ドライブ、又は、SCM(Storage Class Memory)でよい。
また、以下の説明では、「記憶装置」は、メモリと永続記憶装置の少なくともメモリでよい。
また、以下の説明では、「プロセッサ」は、一つ以上のプロセッサデバイスでよい。少なくとも一つのプロセッサデバイスは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサデバイスでよいが、GPU(Graphics Processing Unit)のような他種のプロセッサデバイスでもよい。少なくとも一つのプロセッサデバイスは、シングルコアでもよいしマルチコアでもよい。少なくとも一つのプロセッサデバイスは、プロセッサコアでもよい。少なくとも一つのプロセッサデバイスは、処理の一部又は全部を行うハードウェア記述言語によりゲートアレイの集合体である回路(例えばFPGA(Field-Programmable Gate Array)、CPLD(Complex Programmable Logic Device)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサデバイスでもよい。
また、以下の説明では、「yyy部」の表現にて機能を説明することがあるが、機能は、一つ以上のコンピュータプログラムがプロセッサによって実行されることで実現されてもよいし、一つ以上のハードウェア回路(例えばFPGA又はASIC)によって実現されてもよいし、それらの組合せによって実現されてもよい。プログラムがプロセッサによって実行されることで機能が実現される場合、定められた処理が、適宜に記憶装置及び/又はインターフェース装等を用いながら行われるため、機能はプロセッサの少なくとも一部とされてもよい。機能を主語として説明された処理は、プロセッサあるいはそのプロセッサを有する装置が行う処理としてもよい。プログラムは、プログラムソースからインストールされてもよい。プログラムソースは、例えば、プログラム配布計算機又は計算機が読み取り可能な記録媒体(例えば非一時的な記録媒体)であってもよい。各機能の説明は一例であり、複数の機能が一つの機能にまとめられたり、一つの機能が複数の機能に分割されたりしてもよい。
また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムを主語として説明された処理は、プロセッサあるいはそのプロセッサを有する装置が行う処理としてもよい。また、二つ以上のプログラムが一つのプログラムとして実現されてもよいし、一つのプログラムが二つ以上のプログラムとして実現されてもよい。
また、以下の説明では、同種の要素を区別しないで説明する場合には、参照符号のうちの共通符号を使用し、同種の要素を区別する場合は、参照符号を使用することがある。
また、以下の説明では、「モデル運用支援システム」は、一つ以上の物理的な計算機で構成されたシステムでもよいし、物理的な計算リソース群(例えば、クラウド基盤)上に実現されたシステム(例えば、クラウドコンピューティングシステム)でもよい。モデル運用支援システムが表示用情報を「表示する」ことは、計算機が有する表示デバイスに表示用情報を表示することであってもよいし、計算機が表示用計算機に表示用情報を送信することであってもよい(後者の場合は表示用計算機によって表示用情報が表示される)。
また、以下の実施形態では、「分布間距離」の一例として、輸送理論に基づくSliced Wasserstein Distanceが採用される。以下、「分布間距離」を、Sliced Wasserstein Distanceを略して「SWD」と表記する。
図1は、実施形態の概要を示す。なお、以下の説明では、「UI」は、User Interfaceの略であるが、典型的にはGUI(Graphical User Interface)である。
モデル運用支援システム100が、データストア131と、SWD算出部261と、変動点特定部262と、候補決定部263と、結果出力部264とを備える。
データストア131には、データが格納される。データは、構造化データでも非構造化データでもよい。データストア131に格納されるデータとして、例えば、学習モデルに関わるデータがある。「学習モデルに関わるデータ」の例として、学習モデルの入力変数(入力データ)、潜在変数、出力変数(出力データ)、及び評価(例えば、精度、正解率)のうちのいずれも採用可能である。学習モデルは、例えばニューラルネットワークである。
学習モデルに関わるデータに含まれるデータの一例としては、学習モデルの対象について収集されたデータがある。当該収集されたデータは、時刻を表す情報と一つ以上の入力変数としての情報とを含む。
また、学習モデルに関わるデータに含まれるデータの一例としては、ベースデータがある。ベースデータは、第1の期間分のデータであって学習モデルの作成に関わったデータ(例えば、学習モデルの作成において入力された入力変数、出力された出力変数、及び、得られた評価、のうちの少なくとも一つを含んだデータ)である。第1の期間は、1年、半年又は1か月といった任意の期間でよい。
また、学習モデルに関わるデータに含まれるデータの一例としては、一つ以上の第2の期間の各々について対象データがある。一つ以上の第2の期間は、第1の期間の終了時刻から機械学習の学習モデルの再学習タイミングまでの期間である全体期間のうちの期間である。各第2の期間について、対象データは、データストア131内の全体データ(全体期間分のデータであって学習モデルに関わるデータ)のうちの当該第2の期間分のデータである。いずれの第2の期間も、第1の期間より将来の期間であるため、対象データは、学習モデルの作成に関わるベースデータよりも後に得られたデータである。一つ以上の第2の期間は、同じ長さの期間であってもよいし異なる長さの期間であってもよい。また、第2の期間は、第1の期間と同じ長さであってもよいし異なる長さであってもよい。典型的には、第2の期間は、第1の期間より短くてよい。例えば、ベースデータが、一年分のデータであって、対象データが、一か月分のデータでよい。
ベースデータも、各第2の期間の対象データも、複数の時刻(典型的には多数の時刻)にそれぞれ対応した複数のデータ要素(典型的には多数のデータ要素)の集合である。訓練データ候補をデータ要素の単位で決定し出力(例えば提示)することは困難である。
そこで、SWD算出部261が、ベースデータと一つ以上の第2の期間の各々についての対象データとをデータストア131から取得し、一つ以上の第2の期間の各々について、対象データとベースデータとのSWDを算出する。SWD算出部261は、定期的に又は不定期的に(例えば、新たな第2の期間についての対象データがデータストア131に追加された場合に)、対象データとベースデータとのSWDを算出してよい。
変動点特定部262が、一つ以上の第2の期間の各々について、算出されたSWDが第1の閾値以上であるか否かを判定し、当該判定の結果が真の場合に当該第2の期間に従う時刻を変動点として特定する。候補決定部263は、データストア131内の全体データの一部又は全部から、上述の全体期間のうちの一つ以上の期間にそれぞれ対応した一つ以上の訓練データ候補を一つ以上の変動点に基づいて決定する。結果出力部264は、決定された一つ以上の訓練データ候補又はそれのメタ情報を学習モデルの再学習のために出力する。
このように、本実施形態では、第2の期間毎の部分データがベースデータと比較されることで第2の期間毎のSWDが算出される。例えば連続した複数の第2の期間について、SWDが線形的に大きくなるとは限らない。SWDの傾向は、学習モデルの対象に依存する。SWDが第1の閾値以上である第2の期間に属する時刻が変動点として特定される。特定された複数(又は一つ)の変動点を基に、一つ以上の訓練データ候補が決定される。例えば、連続した全体期間分の全体データが複数(又は一つ)の変動点を境界として一つ又は複数のデータ集合に離散化されてよく、各訓練データ候補は、離散化された二つ以上のデータ集合の組合せでもよいし、一つのデータ集合から分割された複数のデータ集合のいずれかでもよい。このようにして、学習モデルの再学習に適切な一つ以上の訓練データ候補を決定し当該一つ以上の訓練データ候補又はそれのメタ情報を出力できる。一つの訓練データ候補は、一つ又は複数の対象データの集合でよい。当該訓練データ候補とベースデータとのSWDが、当該訓練データ候補の要素である一つ又は複数の対象データの各々について算出されたSWDに基づいてよい。
学習モデルの再学習のための出力の例として、図1が例示するように、決定された一つ以上の訓練データ候補又はそれのメタ情報を表示したUIである運用支援UI110を提供することがある。運用支援UI110は、一つ以上の訓練データ候補の各々の期間を提示するチャートを表示する。そのチャートは、時間軸を有し、複数の特定された変動点(複数の破線矢印)と、現在時刻(再学習タイミングの一例)から過去の期間のうちの一つ以上の訓練データ候補にそれぞれ対応した一つ以上の期間とを表す。期間を[p,q](pは開始時刻、qは終了時刻)と表現すると次の通りである。すなわち、図1が示す例によれば、訓練データ候補として、D1~D4があり、D1に[t4,t5]が対応し、D2に[t3,t5]が対応し、D3に[t2,t5]が対応し、D4に[t1,t5]が対応する。このように訓練データ候補に対応した期間の基点は、現在時刻寄りの時刻(又は現在時刻と同一時刻)とされる。現在時刻に近いデータ程、学習モデルの対象の最新の傾向を表していることが期待されるからである。訓練データ候補に対応した期間の終了時刻は、必ずしもt5でなくてもよい。例えば、D2に対応した期間は、[t3,t4]でもよい。
なお、チャートにおける“TEST”は、再学習後の学習モデルのテスト(評価チェック)に関わるテストデータである。テストデータに対応した期間を「テスト期間」と言う。図1が示す例によれば、時刻t5は、現在時刻からテスト期間分過去の時刻である。テスト期間よりも過去の期間分のデータから訓練データ候補が決定される技術的意義は後述する。
また、後述するように、結果出力部264は、決定された一つ以上の訓練データ候補を学習モデルの再学習のために出力し、マニュアルでの指示に応答して又はマニュアルでの指示無しに、推論モデルを学習モデルから再学習後の学習モデルに差し替えることであるモデルデプロイを行う。このように、本実施形態では、一つ以上の訓練データ候補又はそれのメタ情報に代えて又は加えて、一つ以上の訓練データ候補を用いた再学習後の学習モデルのモデルデプロイが行われる。このため、利便性が高い。
以下、本実施形態を詳細に説明する。
図2は、モデル運用支援システム100を含むシステム全体の構成例を示す。
モデル運用支援システム100は、ネットワーク200(例えば、インターネット)を介して、ユーザ端末230及び一つ又は複数の収集装置210(例えば、二つの収集装置210A及び210B)と通信する。収集装置210は、一つ以上の対象装置220からデータを収集する。例えば、収集装置210Aは、一つの対象装置220Aからデータを収集し、収集装置210Bは、二つの対象装置220B1及び220B2からデータを収集する。例えば、モデル運用支援システム100が、コアシステムの一例でよく、収集装置210が、エッジシステムの一例でよい。
ユーザ端末230は、ユーザの情報処理端末(例えば、パーソナルコンピュータ又はスマートフォン)である。「ユーザ」は、学習モデルの管理及び運用の少なくとも一つを行う者でよく、モデル運用支援システム100の管理者でもよいし、モデル運用支援システム100が提供するモデル運用支援サービスを利用する者でもよい。ユーザ端末230に、モデル運用支援システム100が提供する上述のUIが表示される。
対象装置220は、学習モデルの対象としての装置である。収集装置210は、対象装置220についてのデータを収集し、収集されたデータをモデル運用支援システム100に送信する。例えば、学習モデルが、アナログメータが指す値の検出のためのモデルである場合、対象装置220は、アナログメータでよく、収集装置210は、アナログメータを撮影するカメラ又は当該カメラから撮影画像を収集する装置でよく、収集されたデータは、アナログメータの撮影画像データでよい。
モデル運用支援システム100が、インターフェース装置251、記憶装置252及びそれらに接続されたプロセッサ253を有する。インターフェース装置251を通じて、収集装置210からデータを受信したり、ユーザ端末230にUIが提供されたりする。記憶装置252が、データストア131の基である。データストア131に格納されたデータは、記憶装置252に格納される。また、記憶装置252には、コンピュータプログラムが格納される。
コンピュータプログラムがプロセッサ253により実行されることで、SWD算出部261、変動点特定部262、候補決定部263、結果出力部264、モデル学習部265、モデル推論部266、疑似ラベル生成部267、モデル監視部268、データ収集部269、ユーザ入力部270及びテスト期間決定部271が実現される。これらの機能261~271のうちの少なくとも一部の機能、例えば、モデル学習部265及びモデル推論部266が、エッジシステムの一例である収集装置210に備えられてもよい。
機能261~264については上述した通りである。モデル学習部265は、学習モデルの生成(学習)と再学習を行う。モデル推論部266は、学習モデルを用いた推論を行う。疑似ラベル生成部267は、疑似ラベルを生成する。モデル監視部268は、推論モデルを用いた推論を監視する。データ収集部269は、収集装置210からデータを収集し収集されたデータをデータストア131に格納する。ユーザ入力部270は、入力UIをユーザ端末230に提供し、入力UIを介して入力を受け付ける。テスト期間決定部271は、テスト期間を決定する。これらの機能261~271の詳細は後述する。なお、「ラベル」は、データ要素における入力変数に対応した出力変数としての狭義のラベルでもよいが、本実施形態において、「ラベル」は、そのような狭義のラベルをカバーするラベル、すなわち、何らかの分類を表す概念としての広義のラベルである。例えば、二つのデータ要素がそれぞれ異なる二つの狭義のラベルを含んでいて、本実施形態におけるラベルが、それら二つの狭義のラベルをカバーする場合(例えば、二つの狭義のラベルが“2”及び“4”という整数であって本実施形態におけるラベルが“偶数”の場合)、それら二つのデータ要素は一つのラベルに属してよい。また逆に同じ狭義のラベルの属するデータ要素が広義のラベルに属してもよい。データ要素には、狭義のラベルに代えて又は加えて広義のラベルが関連付けられてよい。「疑似ラベル」は、本実施形態におけるラベルの疑似的なラベルである。
図3は、対象データの特定からSWDの算出までの処理の流れの一例を示す。なお、以下の説明におけるベースデータ及び対象データは、データストア131から取得される。また、モデル学習部265が学習モデルを作成し、モデル推論部266が当該学習モデルを推論モデルとして使用しているとする。例えば、対象装置220について収集されたデータを収集装置210からデータ収集部269が受信し当該データをデータストア131に格納し、モデル推論部266が当該データにおける入力変数を推論モデルに入力することで出力変数を得るとする。
図3が例示する処理は、定期的に(又は不定期的に)行われる。例えば、現在がSWDの算出のタイミングの場合にこの処理が行われる。「算出タイミング」は、前回SWDが算出されてから一定期間経過したときでもよいし、SWDが算出されていない対象データがデータストア131から検出されたタイミングでもよい。
SWD算出部261が、SWDが算出されていない対象データを特定する(S301)。ラベルが関連付けられていないデータ要素が対象データにある場合、疑似ラベル生成部267が、ベースデータに対してクラスタリングした結果を疑似ラベルとし、ベースデータに対する疑似ラベルの関係をk近傍法などの識別モデルを学習しておくことで当該データ要素に付与する疑似ラベルを生成し(S302)、生成されたラベルを、データストア131内の当該データ要素に含める。SWD算出部261が、ベースデータとS302で選択された対象データとのSWDを算出し(S303)、当該算出された対象データを、対象データのメタ情報の少なくとも一部としてデータストア131に格納する。
この処理により、各第2の期間について、対象データとベースデータのSWDが算出される。
なお、本実施形態では、対象データとベースデータ間のSWDは、入力変数間のSWDでよいが、入力変数間のSWDに代えて又は加えて、潜在変数間のSWD、出力変数間のSWD、及び、評価(例えば、精度、正解率)間のSWD、のうちの少なくとも一つに基づいてよい。
図4は、疑似ラベルの生成の一例を模式的に示す。
入力変数を含むデータ要素にラベルが無いケースの一例として、学習モデルが教師データ無しの学習モデルであるケースがある。このようなケースでは、疑似ラベルの生成及び付与が有効である。ラベル別に、推論の監視が行われたり、当該ラベルを含むデータ要素の集合を訓練データ候補とするか否かが判定されたりしてよい。
疑似ラベルの生成は、例えば次のように行われてよい。すなわち、疑似ラベル生成部267が、学習モデルの作成に使用されたベースデータにおける複数のデータ要素を複数のデータ集合にクラスタ化し、各データ集合にクラスを割り当てる。疑似ラベル生成部267が、データ集合別に割り当てられたクラスを疑似ラベルとしたモデル(例えば、ニューラルネットワーク)を作成し、当該モデルである疑似ラベル生成モデルに自己教示学習をさせる。疑似ラベル生成部267は、学習された疑似ラベル生成モデルに、ラベルの無いデータ要素の入力変数を入力することで、当該入力変数に対応した出力変数を疑似ラベルとして取得する。疑似ラベル生成部267は、取得された疑似ラベルと、データ要素との関連付けを行う。例えば、疑似ラベル生成部267は、疑似ラベルを、データストア131内の当該データ要素に含める。このように、ベースデータを用いて学習モデルを作成するときに疑似ラベル生成モデルを作成し、学習モデルの再学習において、疑似ラベル生成モデルを利用することができる。
疑似ラベルを生成することで、データ要素にラベルが関連付けられていなくても、ラベル別にSWDを算出したりラベル別に訓練データ候補を決定したりといった部分的データの活用が可能となる。
図5は、SWDの算出の一例を模式的に示す。
本実施形態において、SWDの算出には、SWD(Sliced Wasserstein Distance)を利用した方法が採用される。SWDは、ワッサースタイン計量(輸送理論)の考え方に基づくSWDの一つである。SWDについては、1次元のWD(Wasserstein Distance)がクローズドフォームであるという特性があること、及び、ラドン変換との組み合わせることで学習無しでSWDを算出することができることが知られている。また、SWDについては、Kullback-Leibler divergenceに比べると、分布の変化に対して緩やかに変化すること(例えば、ニューラルネットワークの学習に用いると勾配消失対策になること)が知られている。
SWDの特性として、例えば以下の特性がある。
・1次元離散分布の場合、二つのサンプルA及びBに関し、それぞれがソートされ、element-wiseな差の絶対値の和が、SWDである。
・同じ分布からサンプリングされたサンプルのSWDの大きさは、サンプルサイズ(集合における要素の数)に依存する。例えば、輸送される必要がある要素が多ければ、SWDは大きい。
・分布のばらつき具合にSWDの大きさは依存する。例えば、輸送距離が長ければ、SWDは大きい。
図5が示す例は、ベースデータと或る対象データとのSWDを説明する。ベースデータは、五つの白色ブロックであり、対象データは、五つの灰色ブロックである。各ブロックは、サンプル(データ要素の集合)である。五つの白色ブロックを五つの灰色ブロックの位置に移動するのに必要な合計移動距離の最小値である“6”が、輸送距離(SWD)である。
図6は、SWDを算出する処理の詳細の流れの一例を示す。
図6(及び図5)によれば、本実施形態では、対象データ毎に、対象データ要素がラベル別に分けられ、サンプリングサイズが、固定であり、対象データ及びベースデータ間で、サンプリングサイズは同じである。また、ラベル間でも、サンプリングサイズは同じである。ラベル間で輸送距離のスケールがばらつかないようにするためである。一方、サンプル数は大きければ大きいほどSWDの算出精度が向上するが、本実施形態ではすべて同じ値を用いる。或る対象データ(或る第2の期間)を例に取り、図6を詳細に説明する。
SWD算出部261が、無効ラベルの有無を判定する。無効ラベルがあれば、SWD算出部261が、複数のラベルから無効ラベルを除外する(S601)。残ったラベルが有効ラベルである。少なくとも一つの有効ラベル(又は無効ラベル)は、例えばユーザ入力部270が提供する入力UI経由で手動選択されてもよい。ここで、「無効ラベル」とは、対象データ要素(対象データにおけるデータ要素)の数が予め定めた値L未満(Lは自然数)であるラベルである。データ要素が少なすぎるとノイズの影響を大きく受けるなどSWD自体の信頼性に欠けるため、無効ラベルが除外される。
SWD算出部261が、有効ラベル毎に、S602~S604を行う。一つの有効ラベルを例に取る。なお、対象データとベースデータ間で複数の有効ラベルが一致していない場合、共通の一つ以上の有効ラベルの各々について、S602~S604が行われる。具体的には、例えば、或るラベルについて、対象データでもベースデータでも有効ラベルとなっている場合、S602以降の処理が行われる。言い換えれば、当該或るラベルについて、対象データ及びベースデータの一方又は両方で無効となっている場合には、当該或るラベルについてS602以降は行われない。
SWD算出部261が、K回(Kは自然数)、S602及びS603の組を行う。S602では、SWD算出部261が、ベースデータと対象データの各々について、有効ラベルに関連付いている複数のデータ要素から、サンプルサイズNのサンプル(データ要素の集合)を抽出する。S603では、SWD算出部261が、S602で抽出したサンプル間の輸送距離を算出し、算出された輸送距離を表す情報をデータストア131に格納する。このようなS602及びS603がK回行われるため、ベースデータ及び対象データの各々からKのサンプルが抽出され、有効ラベルについてKの輸送距離が得られることになる。
その後、SWD算出部261が、Kの輸送距離の平均値を算出する(S604)。S604で算出された平均値が、有効ラベルについて算出された輸送距離である。Kの輸送距離の平均値に代えて、Kの輸送距離に基づく他種の値、例えば、重み付き平均、最大値又は最小値が得られてもよい。
以上のS602~S604が、有効ラベル毎に行われるため、有効ラベル毎に輸送距離が得られる。SWD算出部261が、二つ以上の有効ラベルにそれぞれ対応した二つ以上の輸送距離の平均値を算出する(S605)。S605で算出された平均値が、対象データについて算出された輸送距離である。二つ以上の輸送距離の平均値に代えて、二つ以上の輸送距離に基づく他種の値、例えば、重み付き平均、最大値又は最小値が得られてもよい。SWD算出部261が、データストア131内の対象データに、S605で算出された輸送距離(SWD)を関連付ける。これにより、当該対象データについて算出済の輸送距離をデータストア131から特定することが可能である。
図5及び図6を参照した説明によれば、例えば次の通りである。すなわち、SWD算出部261は、一つ以上の第2の期間の各々について、複数の対象データ要素の複数のラベルのうち二つ以上の有効ラベルの各々について、K(Kは自然数)のサブ対象集合とKのサブベース集合とのそれぞれの輸送距離であるKの輸送距離(KのサブSWDの一例)を算出し、Kの輸送距離を基に当該ラベルについて輸送距離を算出する。SWD算出部261は、二つ以上のラベルにそれぞれ対応した二つ以上の輸送距離を基に、対象データとベースデータとのSWDを算出する。各有効ラベルについて、Kのサブ対象集合は、当該有効ラベルが関連付いた対象データ要素の集合から抽出されたKのサンプルであり、Kのサブベース集合は、当該有効ラベルが関連付いたベースデータ要素の集合から抽出されたKのサンプルである。また、各有効ラベルについて、サブ対象集合毎の対象データ要素の数と、サブベース集合毎のベースデータ要素の数は、同数(同一のサンプルサイズ)である。このようにして、複数の対象データ要素の集合である対象データと複数のベースデータ要素の集合であるベースデータ間のSWDを適切に算出することができる。
図7は、再学習タイミングが検出された場合に行われる処理の流れの一例を示す。
現在が学習モデルの再学習タイミングであることが検出された場合、この処理が行われる。例えば、モデル監視部268が、推論モデルへの入力と推論モデルからの出力とを含む推論の傾向の変化度合が一定度合以上になったか否かを監視してよい。再学習タイミングは、当該変化度合が一定度合以上であることが検出されたタイミングでよい。これにより、推論の傾向の変化度合が一定度合以上になったことを契機に自動的に適切な訓練データ候補を決定し学習モデルを再学習することができる。なお、「推論の傾向の変化度合」とは、推論において入力される入力変数の変化度合、推論において出力される出力変数の変化度合、及び、推論モデルの評価、のうちの少なくとも一つの変化度合でよい。また、「一定度合」は、コンセプトドリフトの検出のための値でよく、その値は、変動点の特定のためにSWDと比較される上述の第1の閾値と同じでもよいが、典型的には、第1の値より高い値でよい。本実施形態では、対象データについて算出されたSWDが、そのような一定度合よりも低い第1の閾値以上の場合に、当該対象データに対応した第2の期間に属する時刻が変動点として特定されてよい。すなわち、変動点は、コンセプトドリフト程に高い変動ではないがコンセプトドリフトの予兆と推定される時刻と言うことができる。
現在が学習モデルの再学習タイミングであることが検出された場合、変動点特定部262が、変動点を特定する(S701)。具体的には、例えば、変動点特定部262が、全体期間における第2の期間毎に(データストア131内の対象データ毎に)、算出済のSWDを特定し、当該SWDが第1の閾値以上か否かを判定する。第1の閾値以上のSWDが算出された第2の期間に属する時刻が、変動点として特定される。
テスト期間決定部271が、テスト期間を決定することでデータストア131からテストデータを選定する(S702)。テストデータは、学習モデルに関わるデータのうち、テスト期間分のデータである。
テスト期間は、再学習タイミングを終了時刻とする過去の期間でよい。テスト期間の長さは、第1の期間の終了時刻(例えば、学習モデルの生成又は直前回の再学習の終了時刻)から再学習タイミングまでの期間である全体期間に基づき決定されてよい(例えば、全体期間の所定割合分の長さでよい)。
テスト期間の決定に代えて又は加えて、テストデータに含まれるデータが、ユーザ入力部270が提供する入力UIを介して指定されてもよい。例えば、推論において必ず入力される入力変数と同じ入力変数を含んだデータが入力UIを介し指定されてよい。
候補決定部263が、除外期間を決定する(S703)。具体的には、例えば、候補決定部263は、或る連続した二つ以上の第2の期間にそれぞれ対応した二つ以上のSWDの各々が、第1の閾値未満であるが第2の閾値以上であれば、当該連続した二つ以上の第2の期間の開始時刻から終了時刻までを、除外期間に決定する。このような期間は、対象装置220の整備、保守又はキャリブレーション中の期間である可能性が高く、このような期間中に収集されたデータは、対象装置220の傾向を表すデータではない。除外期間以外の期間分のデータから訓練データ候補が決定されるので、訓練データとして不適切なデータが訓練データ候補として決定されることを避けることができる。
候補決定部263が、全体期間のうちのテスト期間以外の期間に属する一つ以上の変動点(S701で特定された変動点)を基に、一つ以上の訓練データ候補を決定する(S704)。
各訓練データ候補に対応した期間の開始時刻及び終了時刻の少なくとも一つは、いずれかの変動点である。但し、一部の変動点が除外期間に含まれている場合、或る訓練データ候補に対応した期間の開始時刻及び終了時刻の一方は、除外期間の開始時刻又は終了時刻でよい。
また、決定された一つ以上の訓練データ候補は、ラベル別に異なる期間の訓練データ候補でよい。つまり、同一期間分のデータから、ラベル別に、訓練データ候補とするか否かが決定されてよい。これにより、或るラベルについては、一か月分のデータが訓練データ候補とされ、別のラベルについては、二か月分のデータが訓練データ候補とされるといったことがあり得る。ラベルは、入力変数に対する出力変数それ自体又は当該出力変数に対応するため、ラベル別の訓練データ候補決定は、訓練データ候補の適切性の向上に寄与し得る。
結果出力部264が、S704で決定された一つ以上の訓練データ候補を再学習のために出力する。具体的には、結果出力部264が、モデル学習部265に対して、S704で決定された一つ以上の訓練データ候補を出力し、モデル学習部265が、当該一つ以上の訓練データ候補を用いて学習モデルを再学習する(S705)。
候補決定部263が、訓練データ候補の再決定を行うか否かを判定する(S706)。
S706の判定の結果が偽のケースは、例えば次のケース、すなわち、テスト期間の終了時刻のような基点から、過去へと、基点(又は変動点)から次の変動点間の期間の単位で、期間(除外期間を除く)が追加され、期間追加後の期間分のデータが訓練データ候補の一つとされるケースである。この場合、S706:NOとなり、処理がS707へ進む。
S706の判定の結果が真のケースは、例えば次のケース、すなわち、再学習後の学習モデルの評価が所定の評価(例えば、後述の第1の評価)に満たないケースである。具体的には、例えば、結果出力部264が、出力された一つ以上の訓練データ候補を用いた再学習後の学習モデルを評価する。当該評価が所定の評価未満の場合、S706:YESとなり、処理がS704に戻る。候補決定部263が、直前回のS704で決定された一つ以上の訓練データ候補の少なくとも一つの訓練データ候補に対応した期間を当該期間の次の変動点まで延ばす又は縮めることで、新たな一つ以上の訓練データ候補を決定する。期間を延ばす例によれば、期間が、[t3,t4]から[t3,t5]になる。期間を縮める例によれば、期間が、[t3,t5]から[t3,t4]になる。このケースでは、最初に訓練データ候補はランダムに決定されてよい。このように、訓練データ候補の決定、再学習及び評価が繰り返されることで、最適な学習モデルが再学習後の学習モデルとして得られる訓練データ候補の決定が期待できる。
結果出力部264が、再学習後の学習モデルを自動デプロイするか否かを判定する(S707)。具体的には、例えば、下記の通りである。
・S707の判定結果が真でるか偽であるかは、自動デプロイすることが予め設定されているか否かでよい。
・S707の判定結果が真でるか偽であるかは、再学習後の学習モデルの評価が、第2の評価以上であるか、或いは、第1の評価以上であるが第2の評価未満であるかでよい。
S707の判定の結果が偽の場合(S707:NO)、例えば、再学習後の学習モデルの評価が、第1の評価以上であるが第2の評価未満である場合、結果出力部264が、S704で決定された一つ以上の訓練データ候補又はそれのメタ情報を表示した運用支援UI110を提供する(S708)。
一方、S707の判定の結果が真の場合(S707:YES)、例えば、再学習後の学習モデルの評価が、第2の評価以上である場合、結果出力部264が、運用支援UI110を提示すること無しに、推論モデルを学習モデルから再学習後の学習モデルに差し替えることであるモデルデプロイを行う(S709)。例えば、再学習後の学習モデルの評価が第2の評価以上であるという高評価の場合に自動で(バックグラウンドで)モデルデプロイが行われるので、利便性が高い。S709が行われた場合、結果出力部264が、自動デプロイの結果の参考情報(例えば、自動デプロイ後の推論の結果を表す情報)を表示したUIを提供する(S710)。なお、S709は、S708で提示した運用支援UI110に対してユーザがデプロイの指示を入力した場合に行われてもよい。
図8は、運用支援UI110の一例を示す。
運用支援UI110は、候補提示チャート111とメタ情報リスト112とのうちの少なくとも一つを表示する。運用支援UI111は、評価情報113を表示してよい。
候補提示チャート111は、一つ以上の訓練データ候補の各々の期間を提示するチャートである。候補提示チャート111は、時間軸を有し、複数の特定された変動点(複数の破線矢印)と、現在時刻(再学習タイミングの一例)から過去の期間のうちの一つ以上の訓練データ候補にそれぞれ対応した一つ以上の期間とを表す。
候補提示チャート111における“TEST”は、再学習後の学習モデルのテストに関わるテストデータである。図8が示す例によれば、時刻t5は、現在時刻からテスト期間分過去の時刻である。図8が示す例によれば、訓練データ候補は、テスト期間より過去の期間に対応したデータから決定される。テストデータよりも将来の訓練データ候補があると、当該訓練データ候補が、テストデータにおける入力変数と当該入力変数に対する正解としての出力変数とを含んでいる可能性がある。全体期間に対応した全体データが時系列データである場合には、その可能性が高い。そのような訓練データ候補を用いて学習モデルの再学習が行われると、再学習後の学習モデルは、テストデータにおける入力変数に対して正解の出力変数が出力される学習モデルとなり、結果として、テストデータを用いたテストの意義が低下するおそれがある。本実施形態によれば、テスト期間は現在時刻を起点とした過去の期間とされ、訓練データ候補に対応した期間は、当該過去の期間(テスト期間)の開始時刻より過去の期間である。このため、テストデータよりも将来のデータが訓練データ候補として決定されることが無い。
メタ情報リスト112は、訓練データ候補のメタ情報のリストである。例えば、メタ情報リスト112は、訓練データ候補毎に、候補のID、当該候補に対応した期間の開始時刻、当該期間の終了時刻、当該候補についてのSWD、及び、当該期間中の除外期間を表す。
訓練データ候補毎のSWDの例は、次の通りでよい。すなわち、訓練データ候補に対応した期間が、いずれかの第2の期間に該当する場合、当該訓練データ候補についてのSWDは、当該第2の期間に対応したSWDでよい。訓練データ候補に対応した期間が、連続した二つ以上の第2の期間に該当する場合、当該訓練データ候補についてのSWDは、当該二つ以上の第2の期間に対応した二つ以上のSWDに基づくSWDでよい。
また、候補ID“D4”に対応した除外期間“[t1.3,t1.5]は、変動点t1と変動点t2の間の期間である。候補提示チャート111によれば、D4は、期間[t1,t5]分のデータであるが、メタ情報リスト112によれば、D4は、当該期間[t1,t5]分のデータから除外期間“[t1.3,t1.5]分のデータが除かれたデータである。
評価情報113は、訓練データ候補毎に、当該候補を用いた再学習後の学習モデルの評価(例えば、精度や正解率)を表す情報でよい。
以上のような運用支援UI110から、ユーザは、現在時刻(再学習タイミングの一例と訓練データ候補毎の期間とテスト期間との関係を俯瞰しつつ、各訓練データ候補のメタ情報を確認できる。
以上、一実施形態を説明したが、これは本発明の説明のための例示であって、本発明の範囲をこの実施形態にのみ限定する趣旨ではない。本発明は、他の種々の形態でも実行することが可能である。
例えば、テスト期間及び除外期間のうちの少なくとも一つが無くてもよい。
また、運用支援UI110では、図8が示したメタ情報リスト112に代えて、図9が示すメタ情報リスト900が採用されてもよい。図9が示す例によれば、各訓練データ候補について、ラベル別に、開始時刻、終了時刻及びSWDを含んだメタ情報が表示される。
100:モデル運用支援システム

Claims (13)

  1. 第1の期間の終了時刻から機械学習の学習モデルの再学習タイミングまでの期間である全体期間のうちの一つ以上の第2の期間の各々について、対象データとベースデータとの分布間距離を算出する分布間距離算出部と、
    前記一つ以上の第2の期間の各々について、前記対象データは、全体データのうちの当該第2の期間分のデータであり、
    前記全体データは、前記全体期間分のデータであって前記学習モデルに関わるデータであり、
    前記ベースデータは、前記第1の期間分のデータであって前記学習モデルの作成に関わったデータであり、
    前記一つ以上の第2の期間の各々について、前記算出された分布間距離が第1の閾値以上であるか否かを判定し、当該判定の結果が真の場合に当該第2の期間に従う時刻を変動点として特定する変動点特定部と、
    前記全体データの一部又は全部から前記全体期間のうちの一つ以上の期間にそれぞれ対応した一つ以上の訓練データ候補を一つ以上の変動点に基づいて決定する候補決定部と、
    前記決定された一つ以上の訓練データ候補又はそれのメタ情報を前記学習モデルの再学習のために出力する結果出力部と
    を備えるモデル運用支援システム。
  2. 前記結果出力部は、前記決定された一つ以上の訓練データ候補又はそれのメタ情報を表示したユーザインターフェースを提供し、
    前記メタ情報は、前記決定された一つ以上の訓練データ候補の各々について、当該訓練データ候補に対応した期間の開始時刻及び終了時刻を表す情報を含み、
    前記決定された一つ以上の訓練データ候補の各々について、当該訓練データ候補に対応した期間の開始時刻及び終了時刻のうちの少なくとも一方が、いずれかの変動点である、
    請求項1に記載のモデル運用支援システム。
  3. 前記分布間距離算出部は、前記一つ以上の第2の期間の各々について、前記対象データのうちの複数のサブ対象データ集合と、前記ベースデータのうちの複数のサブベースデータ集合とのそれぞれの分布間距離を基に、前記対象データと前記ベースデータとの分布間距離を算出し、
    前記候補決定部が、分布間距離が連続的に第1の閾値未満第2の閾値以上である期間があれば、前記全体期間から当該期間を除いた期間分のデータから、訓練データ候補を決定する、
    請求項1に記載のモデル運用支援システム。
  4. 前記一つ以上の第2の期間の各々について、前記対象データは、当該第2の期間に属する複数の対象データ要素の集合であり、
    前記ベースデータは、複数のベースデータ要素の集合であり、
    前記分布間距離算出部は、前記一つ以上の第2の期間の各々について、
    前記複数の対象データ要素の複数のラベルのうち二つ以上のラベルの各々について、K(Kは自然数)のサブ対象集合とKのサブベース集合とのそれぞれの分布間距離であるKのサブ分布間距離を算出し、Kのサブ分布間距離を基に当該ラベルについて分布間距離を算出し、
    前記二つ以上のラベルにそれぞれ対応した二つ以上の分布間距離を基に、前記対象データと前記ベースデータとの分布間距離を算出し、
    前記複数のラベルの各々について、
    Kのサブ対象集合は、当該ラベルが関連付いた対象データ要素の集合におけるKの集合であり、
    Kのサブベース集合は、当該ラベルが関連付いたベースデータ要素の集合におけるKの集合であり、
    サブ対象集合毎の対象データ要素の数と、サブベース集合毎のベースデータ要素の数は、同数である、
    請求項1に記載のモデル運用支援システム。
  5. 一つ以上の無効ラベルがあれば、前記二つ以上のラベルは、前記複数のラベルのうちの前記一つ以上の無効ラベル以外のラベルである二つ以上の有効ラベルであり、
    各無効ラベルは、対象データ要素の数が所定数未満であるラベルである、
    請求項4に記載のモデル運用支援システム。
  6. 推論モデルへの入力と推論モデルからの出力とを含む推論の傾向の変化度合が一定度合以上になったか否かを監視するモデル監視部、
    を更に備え、
    前記再学習タイミングは、前記変化度合が前記一定度合以上であることが検出されたタイミングであり、
    前記変化度合が前記一定度合以上になったことが検出された場合、前記一つ以上の変動点の特定、及び、前記一つ以上の訓練データ候補の決定が行われる、
    請求項1に記載のモデル運用支援システム。
  7. 前記再学習タイミングが検出された場合、
    前記結果出力部が、前記決定された一つ以上の訓練データ候補を前記学習モデルの再学習のために出力し、
    前記結果出力部が、当該再学習後の学習モデルの評価を行い、
    当該評価が第1の評価以上であり第2の評価未満の場合、前記結果出力部が、前記決定された一つ以上の訓練データ候補又はそれのメタ情報を提示し、
    当該評価が前記第2の評価以上の場合、前記決定された一つ以上の訓練データ候補又はそれのメタ情報を提示すること無しに、前記結果出力部が、推論モデルを前記学習モデルから前記再学習後の学習モデルに差し替えることであるモデルデプロイを行う、
    請求項1に記載のモデル運用支援システム。
  8. 前記一つ以上の訓練データ候補は、ラベル別に異なる期間の訓練データ候補である、
    請求項1に記載のモデル運用支援システム。
  9. ラベルの無い対象データ要素がある場合、当該対象データ要素に対する疑似ラベルを生成する疑似ラベル生成部、
    を更に備える請求項4に記載のモデル運用支援システム。
  10. 前記結果出力部が、一つ以上の訓練データ候補が決定された場合、当該一つ以上の訓練データ候補を前記学習モデルの再学習のために出力して、当該再学習後の学習モデルの評価を行い、
    当該評価が所定の評価未満の場合、前記候補決定部が、前記一つ以上の訓練データ候補の少なくとも一つの訓練データ候補に対応した期間を当該期間の次の変動点まで延ばす又は縮めることで、新たな一つ以上の訓練データ候補を決定する、
    請求項1に記載のモデル運用支援システム。
  11. 前記結果出力部が、
    前記一つ以上の訓練データ候補を前記学習モデルの再学習のために出力し、
    マニュアルでの指示に応答して又はマニュアルでの指示無しに、推論モデルを前記学習モデルから前記再学習後の学習モデルに差し替えることであるモデルデプロイを行う、
    請求項1に記載のモデル運用支援システム。
  12. 前記再学習タイミングを終了時刻とする過去の期間をテスト期間とするテスト期間決定部、
    を更に備え、
    前記候補決定部は、前記テスト期間の開始時刻から当該開始時刻より過去の一つ又は複数の変動点を基に、前記全体期間のうちの前記テスト期間以外の期間分のデータから一つ以上の訓練データ候補を決定し、
    当該一つ以上の訓練データ候補の各々について、当該訓練データ候補に対応した期間の開始時刻及び終了時刻の少なくとも一つは、いずれかの変動点である、
    請求項1に記載のモデル運用支援システム。
  13. コンピュータが、第1の期間の終了時刻から機械学習の学習モデルの再学習タイミングまでの期間である全体期間のうちの一つ以上の第2の期間の各々について、対象データとベースデータとの分布間距離を算出し、
    前記一つ以上の第2の期間の各々について、前記対象データは、全体データのうちの当該第2の期間分のデータであり、
    前記全体データは、前記全体期間分のデータであって前記学習モデルに関わるデータであり、
    前記ベースデータは、前記第1の期間分のデータであって前記学習モデルの作成に関わったデータであり、
    コンピュータが、前記一つ以上の第2の期間の各々について、前記算出された分布間距離が閾値以上であるか否かを判定し、当該判定の結果が真の場合に当該第2の期間に従う時刻を変動点として特定し、
    コンピュータが、前記全体データの一部又は全部から前記全体期間のうちの一つ以上の期間にそれぞれ対応した一つ以上の訓練データ候補を一つ以上の変動点に基づいて決定し、
    コンピュータが、前記決定された一つ以上の訓練データ候補又はそれのメタ情報を前記学習モデルの再学習のために出力する、
    モデル運用支援方法。
JP2020103530A 2020-06-16 2020-06-16 モデル運用支援システム及び方法 Active JP7434073B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020103530A JP7434073B2 (ja) 2020-06-16 2020-06-16 モデル運用支援システム及び方法
PCT/JP2021/019404 WO2021256171A1 (ja) 2020-06-16 2021-05-21 モデル運用支援システム及び方法
US17/919,757 US20230144809A1 (en) 2020-06-16 2021-05-21 Model operation support system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020103530A JP7434073B2 (ja) 2020-06-16 2020-06-16 モデル運用支援システム及び方法

Publications (2)

Publication Number Publication Date
JP2021196921A JP2021196921A (ja) 2021-12-27
JP7434073B2 true JP7434073B2 (ja) 2024-02-20

Family

ID=79195644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020103530A Active JP7434073B2 (ja) 2020-06-16 2020-06-16 モデル運用支援システム及び方法

Country Status (3)

Country Link
US (1) US20230144809A1 (ja)
JP (1) JP7434073B2 (ja)
WO (1) WO2021256171A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023058433A1 (ja) * 2021-10-06 2023-04-13
JP7176656B1 (ja) * 2022-05-19 2022-11-22 富士電機株式会社 予測モデル再学習装置、予測モデル再学習方法及びプログラム
KR102616968B1 (ko) * 2023-07-13 2023-12-27 주식회사 마키나락스 이상 탐지 모델의 추가 학습 여부 및 학습 데이터 적절성 판단 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130100A (ja) 2016-01-21 2017-07-27 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2018513490A (ja) 2015-04-16 2018-05-24 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 自動化システムを動作させる方法及び装置
JP2019169011A (ja) 2018-03-25 2019-10-03 株式会社知能フレームワーク研究所 予兆検知システムおよびプログラム
US20200074369A1 (en) 2018-08-31 2020-03-05 Orthogonal Networks, Inc. Systems and methods for optimizing automated modelling of resource allocation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018513490A (ja) 2015-04-16 2018-05-24 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 自動化システムを動作させる方法及び装置
JP2017130100A (ja) 2016-01-21 2017-07-27 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2019169011A (ja) 2018-03-25 2019-10-03 株式会社知能フレームワーク研究所 予兆検知システムおよびプログラム
US20200074369A1 (en) 2018-08-31 2020-03-05 Orthogonal Networks, Inc. Systems and methods for optimizing automated modelling of resource allocation

Also Published As

Publication number Publication date
JP2021196921A (ja) 2021-12-27
US20230144809A1 (en) 2023-05-11
WO2021256171A1 (ja) 2021-12-23

Similar Documents

Publication Publication Date Title
JP7434073B2 (ja) モデル運用支援システム及び方法
US9753801B2 (en) Detection method and information processing device
US10572512B2 (en) Detection method and information processing device
KR101711936B1 (ko) 머신 상태 모니터링에서 결함 진단을 위한 일반화된 패턴 인식
US20180174062A1 (en) Root cause analysis for sequences of datacenter states
KR101968200B1 (ko) 진단명, 수술명 및 치료명에 기초한 의료정보 추천시스템
US9122995B2 (en) Classification of stream-based data using machine learning
JP6521096B2 (ja) 表示方法、表示装置、および、プログラム
US20220253725A1 (en) Machine learning model for entity resolution
US11429899B2 (en) Data model processing in machine learning using a reduced set of features
JPWO2019026134A1 (ja) 情報処理装置および情報処理方法
US20190064789A1 (en) System analyzing device, system analyzing method, and computer-readable recording medium
US11593700B1 (en) Network-accessible service for exploration of machine learning models and results
JP7355299B2 (ja) 学習用データセット生成システム、学習サーバ、及び学習用データセット生成プログラム
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
Siddalingappa et al. Anomaly detection on medical images using autoencoder and convolutional neural network
WO2022266745A1 (en) Visualizing feature variation effects on computer model prediction
US20220198274A1 (en) Method and system for unstructured information analysis using a pipeline of ml algorithms
WO2021106028A1 (ja) 機械学習装置、機械学習方法、及び、機械学習プログラムが格納された記録媒体
KR102230559B1 (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
US20230153980A1 (en) Clustering Images for Anomaly Detection
WO2020167156A1 (ru) Способ отладки обученной рекуррентной нейронной сети
US20220129792A1 (en) Method and apparatus for presenting determination result
JP2022060512A (ja) 運用支援システム及び方法
KR20210031444A (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7434073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150