JPWO2019176087A1 - 学習装置および学習方法 - Google Patents

学習装置および学習方法 Download PDF

Info

Publication number
JPWO2019176087A1
JPWO2019176087A1 JP2020506078A JP2020506078A JPWO2019176087A1 JP WO2019176087 A1 JPWO2019176087 A1 JP WO2019176087A1 JP 2020506078 A JP2020506078 A JP 2020506078A JP 2020506078 A JP2020506078 A JP 2020506078A JP WO2019176087 A1 JPWO2019176087 A1 JP WO2019176087A1
Authority
JP
Japan
Prior art keywords
learning
neural network
data
unit
reference label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020506078A
Other languages
English (en)
Other versions
JP6701467B2 (ja
Inventor
友也 藤野
友也 藤野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6701467B2 publication Critical patent/JP6701467B2/ja
Publication of JPWO2019176087A1 publication Critical patent/JPWO2019176087A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

学習部(10)が、学習用データの要素ごとにOKラベルとNGラベルを割り当てた学習基準ラベルに基づいて、学習用データの要素を入力としてニューラルネットワークを学習し、NG判定グループに属するデータの少なくとも一つをNGと判定する識別器を出力する。動的更新部(11)は、学習部(10)によるニューラルネットワークの学習の途中で学習基準ラベルを動的に更新する。

Description

この発明は、ニューラルネットワークを用いた識別器を学習する学習装置および学習方法に関する。
異常検知を行うために使用される学習用画像データは、一般に画像単位で正常(以下、OKと記載する)か、異常(以下、NGと記載する)かが判定されていることが多い。
一方、NGと判定された学習用画像データにおいて、NG要素のある画像領域は局所的であることが多く、大半の領域は、OKと判定された学習用画像データと局所的には変わらない。
従来から、複数の要素から構成された学習用データについて要素ごとにOKまたはNGが判定された学習用データを使用する機械学習がある。
例えば、特許文献1には、入力画像を複数の画像領域に分割し、分割した画像領域ごとに前景と背景とを区別するラベルを付与する技術が記載されている。この技術では、前景または背景が確定しているラベルが付与された画像領域からの連続性に基づいて、不確定のラベルが付与されたピクセルが前景であるか背景であるかが推定される。
特開2012−208913号公報
画像、動画または多次元データについて機械学習によってOKとNGを識別する場合、学習用データには、人手によってOKまたはNGが判定されたデータが提供されることが多い。ただし、学習用データを構成する全ての要素がNGであることは少なく、不特定の要素のみからNGと判定されている場合が多い。このような学習用データを用いると、本来はOKである要素をNGと誤って学習することになり、学習結果の識別器の識別精度が低下するという課題があった。
この発明は上記課題を解決するものであり、高精度の識別を行う識別器を提供することができる学習装置および学習方法を得ることを目的とする。
この発明に係る学習装置は、学習部および動的更新部を備える。学習部は、複数の要素から構成された学習用データと、グループに属するデータの少なくとも一つがNGと判定されることが定義されたグループ情報とを入力し、学習用データの要素ごとにOKラベルまたはNGラベルが割り当てられた学習基準ラベルを用いて、学習用データの複数の要素を入力としてニューラルネットワークを学習することにより、学習結果のニューラルネットワークを用いてグループに属するデータの少なくとも一つをNGと判定する識別器を出力する。動的更新部は、学習部によるニューラルネットワークの学習の途中で学習基準ラベルを動的に更新する。この構成において、学習部は、学習用データおよびグループ情報を用いて学習用データの要素ごとの学習基準ラベルの初期値を生成し、学習基準ラベルの初期値から動的更新部によって更新された学習基準ラベルを逐次用いてニューラルネットワークを反復して学習し、学習の反復ごとのニューラルネットワークの出力値を用いて、学習用データの要素がNGとなり得るNG指標値を算出する。動的更新部は、学習の反復回数の推移ごとに得られたNG指標値の変化傾向を統計的に検定した結果に基づいて学習基準ラベルを更新する。
この発明によれば、学習装置は、グループに属するデータの少なくとも一つをNGと判定することにより高精度の識別を行う識別器を提供することができる。
この発明の実施の形態1に係る学習装置の構成を示すブロック図である。 実施の形態1に係る学習装置の詳細な構成を示すブロック図である。 学習用データDBの内容の一例を示す図である。 NG判定グループDBの内容の一例を示す図である。 学習基準ラベルバッファの内容の一例を示す図である。 ニューラルネットワークの構成の一例を示す図である。 NG指標値バッファの内容の一例を示す図である。 履歴バッファの内容の一例を示す図である。 NG候補バッファの内容の一例を示す図である。 図10Aは、実施の形態1に係る学習装置の機能を実現するハードウェア構成を示すブロック図である。図10Bは、実施の形態1に係る学習装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 実施の形態1に係る学習方法を示すフローチャートである。 学習基準ラベル生成処理を示すフローチャートである。 ニューラルネットワーク管理処理を示すフローチャートである。 NG指標値の履歴管理処理を示すフローチャートである。 NG指標値の統計的検定処理を示すフローチャートである。 学習基準ラベル更新処理を示すフローチャートである。 ニューラルネットワークパラメータ更新処理を示すフローチャートである。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る学習装置1の構成を示すブロック図である。
学習装置1は、学習用データデータベース(以下、学習用データDBと記載する)2から入力した学習用データとNG判定グループデータベース(以下、NG判定グループDBと記載する)3から入力したNG判定グループ情報とを用いて、ニューラルネットワーク初期パラメータを更新していくことにより、学習結果の識別器を与えるニューラルネットワークパラメータを生成する。
学習用データDB2に格納された学習用データは、複数の要素から構成されたデータである。例えば、学習用データが画像データである場合、この画像データが示す画像を複数に分割した個々の画像領域が要素である。NG判定グループDB3に格納されたNG判定グループ情報は、NG判定グループに属するデータの少なくとも一つがNGと判定されることが定義された情報である。
学習装置1は、学習部10および動的更新部11を備える。学習部10は、学習用データDB2から学習用データを入力し、NG判定グループDB3からNG判定グループ情報を入力し、学習用データの要素ごとの学習基準ラベルを用いて、学習用データの複数の要素を入力として、ニューラルネットワークを学習する。学習基準ラベルは、学習用データの要素ごとにOKラベルまたはNGラベルが割り当てられた情報である。学習部10は、NG判定グループに属するデータの少なくとも一つをNGと判定する識別器を与えるニューラルネットワークパラメータを出力する。
また、学習部10は、学習用データおよびNG判定グループ情報を用いて学習用データの要素ごとの学習基準ラベルの初期値を生成し、学習基準ラベルの初期値から、動的更新部11によって動的に更新された学習基準ラベルを逐次用いてニューラルネットワークを反復して学習する。学習の反復ごとのニューラルネットワークの出力値を用いて、学習部10は、学習用データの要素がNGとなり得る指標値(以下、NG指標値と記載する)を算出する。
動的更新部11は、学習部10によるニューラルネットワークの学習の途中で学習基準ラベルを動的に更新する。具体的には、動的更新部11は、学習の反復回数の推移ごとに得られたNG指標値の変化傾向を統計的に検定して、統計的検定結果に基づいて学習基準ラベルを更新する。動的更新部11は、NG指標値の変化傾向の統計的検定結果を用いることにより、学習基準ラベルにおいて本来はOKである要素に割り当てられたNGラベルをOKラベルに更新する。
図2は、実施の形態1に係る学習装置1の詳細な構成を示すブロック図である。図2に示すように、学習部10は、学習基準ラベルバッファ10a、学習基準ラベル生成部10b、ニューラルネットワーク管理部10c、ニューラルネットワーク更新部10dおよびNG指標値バッファ10eを備える。動的更新部11は、履歴バッファ11a、NG候補バッファ11b、履歴管理部11c、検定部11dおよび学習基準ラベル更新部11eを備える。
ニューラルネットワーク初期パラメータは、ニューラルネットワークの初期状態を定義するパラメータである。例えば、ニューラルネットワーク初期パラメータには、ニューラルネットワークにおける隠れユニットのノード数、ノード間に付与された重みパラメータ、バイアスパラメータおよび学習率パラメータの初期値が含まれる。これらのパラメータは、下記の参考文献1に記載されたパラメータである。学習装置1は、ニューラルネットワーク初期パラメータを更新することで、NG判定グループに属するデータの少なくとも一つを異常と判定する識別器を与えるニューラルネットワークパラメータが生成される。
(参考文献1)C.M.ビショップ, 元田浩(監訳), “パターン認識と機械学習 上”, 丸善出版, pp. 225−247.
学習用データDB2には、複数の要素から構成された学習用データが格納されている。図3は、学習用データDB2の内容の一例を示す図である。図3において、学習用データは、“データID”で識別される複数の要素から構成されており、複数の要素のそれぞれは、“データ値系列”から構成されている。例えば、図3には、ある学習用データを構成するデータIDがD0001の要素、データIDがD0002の要素、データIDがD0003の要素、データIDがD0004の要素、・・・が記載されている。
NG判定グループDB3には、NG判定グループの識別情報と、NG判定グループに属する学習用データの要素の識別情報とから構成されたNG判定グループ情報が格納されている。図4は、NG判定グループDB3の内容の一例を示す図である。学習用データを構成する複数の要素のそれぞれは、図3と同様に、“データID”で識別される。NG判定グループは、“NG判定グループID”で識別される。例えば、データIDがD0001の要素、データIDがD0002の要素、データIDがD0004の要素は、NG判定グループIDがG001のNG判定グループに属しており、これらの要素の少なくとも一つがNGと判定される。
学習基準ラベルバッファ10aには、学習用データの要素ごとの学習基準ラベルが格納されている。図5は、学習基準ラベルバッファ10aの内容の一例を示す図である。学習基準ラベル情報は、図5に示すように、学習用データの要素のデータID、OKフラグおよびNGフラグを有している。学習用データを構成する複数の要素のそれぞれは、図3と同様に、“データID”で識別される。OKラベルが割り当てられた要素では、この要素に対応するOKフラグに値1が設定され、この要素に対応するNGフラグに値0が設定される。反対に、NGラベルが割り当てられた要素では、この要素に対応するOKフラグに値0が設定され、この要素に対応するNGフラグに値1が設定される。
学習基準ラベル生成部10bは、学習用データが、NG判定グループに属するか否かの判定結果に基づいて、学習基準ラベルの初期値を生成する。例えば、学習基準ラベル生成部10bは、学習用データDB2に登録されている要素のデータIDのうち、NG判定グループDB3におけるNG判定グループに属する要素と同じデータIDが存在するか否かを判定する。NG判定グループに属する要素と同じデータIDであると判定した場合に、学習基準ラベル生成部10bは、この要素に対応するOKフラグに値0を設定し、NGフラグに値1を設定した学習基準ラベルを生成して、学習基準ラベルバッファ10aに格納する。
ニューラルネットワーク管理部10cは、学習用データDB2に格納されたデータIDに対応する要素を、学習基準ラベルバッファ10aにおける、上記データIDに対応するOKフラグおよびNGフラグのうち、値が1のフラグに対応するクラス(OKクラスまたはNGクラス)に振り分けるニューラルネットワークの学習を管理する。
図6は、ニューラルネットワークの構成の一例を示す図である。図6に示すように、ニューラルネットワークは、入力層、隠れ層および出力層から構成される。学習用データの要素を構成するデータ値系列x,x,・・・,xが入力層に入力されると、入力層のノードと隠れ層のノードとの間の重みパラメータとx,x,・・・,xとの乗算和を非線形変換したz,z,・・・,zが算出される。続いて、隠れ層のノードと出力層のノードとの間の重みパラメータとz,z,・・・,zとの乗算和を非線形変換したy,yが出力層から出力される。
出力値y,yは、クラスごとのNG評価値であり、出力値yは、要素がOKクラスに属する度合いを表し、出力値yは、要素がNGクラスに属する度合いを表している。ニューラルネットワークに入力された要素(データ値系列)は、y>yであるとき、OKクラスに属すると判定され、y≦yであるときに、NGクラスに属すると判定される。NG指標値は、分母が0にならないように補正したyとyとの比率であってもよいが、以下では、y−yをNG指標値とする。
なお、図6において、隠れ層が1層のニューラルネットワークを示したが、ニューラルネットワーク管理部10cによって管理されるニューラルネットワークは、隠れ層が複数層のニューラルネットワークであってもよい。
ニューラルネットワーク更新部10dは、ニューラルネットワーク管理部10cにより得られたNG指標値に基づいて、ニューラルネットワークパラメータを更新することで、学習結果の識別器を与えるニューラルネットワークパラメータを出力する。例えば、ニューラルネットワーク更新部10dは、参考文献1に記載されたパラメータ最適化方法を用いて、ニューラルネットワークパラメータを更新する。ニューラルネットワーク更新部10dは、学習の反復回数が閾値に到達したか、あるいは学習の終了条件が満たされた場合に、その段階で最適化して更新されたニューラルネットワークパラメータを学習装置1の外部に出力する。
NG指標値バッファ10eには、ニューラルネットワークの学習反復の過程で得られた学習用データの要素ごとのNG指標値が格納されている。図7は、NG指標値バッファ10eの内容の一例を示す図である。NG指標値バッファ10eには、学習用データの要素のデータIDと、この要素のNG指標値のうち、ニューラルネットワーク管理部10cによって算出された時点のNG指標値が設定される。
履歴バッファ11aには、学習の反復回数およびこれに対応するNG指標値が、学習用データの要素ごとに格納されている。図8は、履歴バッファ11aの内容の一例を示す図である。履歴バッファ11aには、学習反復回数が1回、100回および200回であるときのNG指標値が設定されている。例えば、データIDがD0001の要素では、学習反復回数が1回であるときに得られたNG指標値が0.55であり、学習反復回数が100回であるときに得られたNG指標値が0.35であり、学習反復回数が200回であるときに得られたNG指標値が0.12である。
NG候補バッファ11bには、学習反復回数、NG候補レベル、OK確定フラグおよびNG確定フラグが学習用データの要素ごとに格納されている。図9は、NG候補バッファ11bの内容の一例を示す図である。NG候補バッファ11bには、図9に示すように、学習用データの要素のデータID、NG候補レベル、OK確定フラグおよびNG確定フラグが設定される。NG候補レベルは、NG指標値が過去にとった値に応じて変化する。
NG候補は、学習基準ラベルでNGラベルが割り当てられた要素であり、NG候補レベルは、NG候補の要素に対応するNG指標値に応じたレベルとなる。
OK確定フラグは、要素がOKに確定されたことを示すフラグである。例えば、OK確定フラグに値0が設定されていれば、このOK確定フラグに対応する要素がOKに確定されていないことを示しており、値1が設定された場合、このOK確定フラグに対応する要素がOKに確定されたことを示している。一方、NG確定フラグは、要素がNGに確定されたことを示すフラグである。例えば、NG確定フラグに値0が設定されていれば、このNG確定フラグに対応する要素がNGに確定されていないことを示しており、値1が設定された場合、このNG確定フラグに対応する要素がNGに確定されたことを示している。
履歴管理部11cは、学習の反復ごとに得られた学習用データの要素ごとのNG指標値を履歴バッファ11aに格納する。例えば、履歴管理部11cは、NG指標値バッファ10eに格納されたNG指標値を、その時点での学習反復回数とともに履歴バッファ11aに格納する。これにより、履歴バッファ11aには、事前に設定された学習反復回数(図8の例では1回、100回、200回)で得られたNG指標値が格納される。
検定部11dは、履歴バッファ11aに格納されたNG指標値の変化傾向を統計的に検定し、この統計的検定結果に基づいて、NG候補バッファ11bの内容を学習用データの要素ごとに更新する。例えば、検定部11dは、履歴バッファ11aから、処理対象の要素に対応する、学習反復回数の推移ごとのNG指標値の時系列を抽出する。次に、検定部11dは、履歴バッファ11aから抽出したNG指標値の時系列を統計的に検定して、NG指標値の変化傾向を確認する。
検定部11dは、NG指標値の時系列について無規則性の検体を行う。無規則性の検定によってNG指標値の変化に規則性がないと確認された場合、検定部11dは、この要素をNG候補のままとする。規則性があると確認された場合、検定部11dは、NG指標値の時系列について傾向性の検定を行う。傾向性の検定によってNG指標値が上昇傾向であると確認されると、検定部11dは、この要素をNG候補のままとする。
検定部11dは、NG指標値の時系列に規則性があり、かつ上昇傾向が確認されると、この要素をNG確定と判断して、NG候補バッファ11bにおける、この要素に対応するNG確定フラグに値1を設定する。一方、検定部11dは、NG指標値の時系列に規則性があり、かつ下降傾向が確認されると、この要素をOK確定と判断して、NG候補バッファ11bにおける、この要素に対応するOK確定フラグに値1を設定する。
無規則性の検定および傾向性の検定の方法として、下記の参考文献2に記載された検定方法を使用してもよい。
(参考文献2)武藤眞介著,“統計解析ハンドブック”, 朝倉書店, pp. 398−399, 402−403.
学習基準ラベル更新部11eは、検定部11dによってOKに確定された学習用データの要素の学習基準ラベルを、NGラベルからOKラベルに更新する。例えば、学習基準ラベル更新部11eは、学習用データの要素が検定部11dによってOK確定された場合、この要素に対応する学習基準ラベルにおけるOKフラグに値1を設定し、NGフラグに値0を設定する。
学習装置1における学習部10および動的更新部11の機能は、処理回路によって実現される。すなわち、学習装置1は、後述する図11におけるステップST1からステップST5までの処理を実行するための処理回路を備えている。この処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
図10Aは、学習装置1の機能を実現するハードウェア構成を示すブロック図である。図10Bは、学習装置1の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図10Aおよび図10Bにおいて、情報入力インタフェース100は、図示しない外部装置から、図1および図2に示した学習装置1への情報の入力を中継するインタフェースである。例えば、図2に示したニューラルネットワーク管理部10cは、情報入力インタフェース100を介して、ニューラルネットワーク初期パラメータを外部装置から入力する。外部装置は、学習装置1とは独立して設けられた記憶装置であってもよい。例えば、学習装置1は、クラウド上に存在する記憶装置を利用してもよい。
DB入出力インタフェース101は、学習装置1とデータベース102との間のデータのやり取りを中継するインタフェースである。データベース102は、図1および図2に示した学習用データDB2およびNG判定グループDB3である。例えば、学習部10が備える学習基準ラベル生成部10bは、DB入出力インタフェース101を介して、学習用データDB2およびNG判定グループDB3からデータを入力する。なお、データベース102は、学習装置1とは独立して設けられた記憶装置に構築されてもよい。例えば、学習装置1は、DB入出力インタフェース101を介して、クラウドに存在する記憶装置に構築されたデータベース102からデータを入力する。
図2に示した学習基準ラベルバッファ10a、NG指標値バッファ10e、履歴バッファ11aおよびNG候補バッファ11bは、図10Aに示す処理回路104に内蔵されたメモリに構築されるか、あるいは、図10Bに示すメモリ106に構築される。情報出力インタフェース103は、学習装置1から図示しない外部装置への情報の出力を中継するインタフェースである。例えば、図2に示したニューラルネットワーク更新部10dは、情報出力インタフェース103を介して、ニューラルネットワークパラメータを外部装置へ出力する。外部装置は、例えば、ニューラルネットワークパラメータが与える識別器を利用する異常検知装置が挙げられる。
上記処理回路が図10Aに示す専用のハードウェアの処理回路104である場合、処理回路104は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。学習装置1における学習部10および動的更新部11の機能を別々の処理回路で実現してもよく、これらの機能をまとめて1つの処理回路で実現してもよい。
上記処理回路が図10Bに示すプロセッサ105である場合、学習装置1における学習部10および動的更新部11の機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ106に記憶される。
プロセッサ105は、メモリ106に記憶されたプログラムを読み出して実行することにより、学習装置1における学習部10および動的更新部11の機能を実現する。
すなわち、学習装置1は、プロセッサ105によって実行されるときに、図11に示すステップST1からステップST5までの処理が結果的に実行されるプログラムを記憶するためのメモリ106を備える。これらのプログラムは、学習部10および動的更新部11の手順または方法をコンピュータに実行させる。メモリ106は、コンピュータを、学習部10および動的更新部11として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
メモリ106には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically−EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
学習部10および動的更新部11の機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、学習部10は、専用のハードウェアである処理回路で機能を実現し、動的更新部11は、プロセッサ105がメモリ106に記憶されたプログラムを読み出して実行することによって機能を実現する。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより上記機能を実現することができる。
次に動作について説明する。
図11は、実施の形態1に係る学習方法を示すフローチャートである。
ステップST1において、学習基準ラベル生成部10bが、学習用データの複数の要素のうち、NG判定グループに属する要素に対応するOKフラグに値0を設定し、NGフラグに値1を設定することにより、学習用データの要素ごとの学習基準ラベルを生成する。また、ニューラルネットワーク管理部10cは、ニューラルネットワーク初期パラメータを用いて、初期状態のニューラルネットワークを構築する。
ステップST2において、ニューラルネットワーク管理部10cは、ニューラルネットワークに学習用データの要素を入力し、ニューラルネットワークの出力結果に基づいて、要素ごとのNG指標値を算出する。次に、ニューラルネットワーク管理部10cは、NG指標値に基づいて、対象の要素がOKクラスおよびNGクラスのいずれに属するかを判定する。続いて、ニューラルネットワーク管理部10cは、対象の要素に対応する学習基準ラベルの初期値および動的更新部11によって更新された学習基準ラベルと、判定したクラスとを、誤差関数を用いて誤差評価する。誤差関数には、参考文献1に記載された関数を用いてもよい。また、履歴管理部11cは、学習が反復するたびに得られたNG指標値を履歴バッファ11aに格納する。
ステップST3において、検定部11dは、履歴バッファ11aに格納されたNG指標値の変化傾向を統計的に検定した結果に基づいて、NG候補の要素について、OKまたはNGに確定すべきか評価する。学習基準ラベル更新部11eは、検定部11dによる評価結果に基づいて、学習基準ラベルを更新する。例えば、学習基準ラベル更新部11eは、検定部11dによってOKに確定された要素に対応する学習基準ラベルをNGラベルからOKラベルに更新する。
ステップST4において、ニューラルネットワーク更新部10dは、ニューラルネットワーク管理部10cにより得られたNG指標値に基づいて、ニューラルネットワークパラメータを更新する。ステップST2からステップST4までの一連の学習処理は、学習用データを構成する複数の要素のそれぞれについて反復して行われる。
学習の反復が終了すると、ニューラルネットワーク更新部10dは、前述した一連の学習で更新したニューラルネットワークパラメータを、学習結果として出力する(ステップST5)。
次に、学習基準ラベル生成処理について詳細に説明する。
図12は、学習基準ラベル生成処理を示すフローチャートであって、学習基準ラベルの初期値を生成する処理を示している。
学習基準ラベル生成部10bは、学習用データDB2に登録されている学習用データの要素ごとのデータIDを順次読み出して以降の処理を実行する。
学習基準ラベル生成部10bは、学習用データDB2から読み出した要素のデータIDのうち、NG判定グループDB3に登録されているNG判定グループに属する要素のデータIDと同じデータIDがあるか否かを判定する(ステップST1a)。
対象の要素のデータIDがNG判定グループに属する要素のデータIDと同じであると判定した場合(ステップST1a;YES)、学習基準ラベル生成部10bは、対象の要素に対応するOKフラグに値0を設定し、NGフラグには値1を設定する(ステップST2a)。一方、対象の要素のデータIDがNG判定グループに属する要素のデータIDとは異なると判定した場合(ステップST1a;NO)、学習基準ラベル生成部10bは、対象の要素に対応するOKフラグに値1を設定し、NGフラグには値0を設定する(ステップST3a)。
学習基準ラベル生成部10bは、対象の要素に対応するOKフラグおよびNGフラグに値を設定すると、対象の要素のデータIDとOKフラグおよびNGフラグの値とを、学習基準ラベルバッファ10aに格納する(ステップST4a)。
学習基準ラベル生成部10bは、ステップST1aからステップST4aまでの一連の処理を、学習用データDB2に登録されている学習用データの全ての要素について繰り返し実行する。この処理により学習基準ラベルの初期値が生成される。
次に、ニューラルネットワーク管理処理について詳細に説明する。
図13は、ニューラルネットワーク管理処理を示すフローチャートであり、要素ごとのNG指標値を算出する処理を示している。
初回処理において、ニューラルネットワーク管理部10cは、ニューラルネットワーク初期パラメータに基づいて、初期状態のニューラルネットワークを構築する(ステップST1b)。
次に、ニューラルネットワーク管理部10cは、学習用データDB2から読み出された学習用データの要素(データ値系列D)をニューラルネットワークに入力して、出力層で算出される出力値y1_iおよびy2_iを得る(ステップST2b)。出力値y1_iは、前述したように、要素がOKクラスに属する度合いを表し、出力値y2_iは、要素がNGクラスに属する度合いを表している。ニューラルネットワークに入力された要素(データ値系列D)は、y1_i>y2_iであるとき、OKクラスに属すると判定され、y1_i≦y2_iであるときに、NGクラスに属すると判定される。ニューラルネットワーク管理部10cは、判定したクラスと学習基準ラベルとを誤差評価する。
ステップST3bにおいて、ニューラルネットワーク管理部10cは、NG指標値NGEとしてy2_i−y1_iを算出し、算出したNG指標値NGEを、これに対応する要素のデータIDとともにNG指標値バッファ10eに格納する。
なお、y2_i−y1_iをNGEとしたが、y1_iおよびy2_iの比率をNGEとしてもよく、y1_iおよびy2_iの分布を考慮した距離をNGEとしてもよい。
ニューラルネットワーク管理部10cは、ステップST2bからステップST3bまでの一連の処理を、学習用データDB2に登録されている学習用データの全ての要素について繰り返し実行する。
次に、NG指標値の履歴管理処理について詳細に説明する。
図14は、NG指標値の履歴管理処理を示すフローチャートである。
まず、履歴管理部11cは、学習反復回数が一定数(例えば、100)で割り切れるか否かを判定する(ステップST1c)。学習反復回数は、図11に示したステップST2からステップST4までの学習部10による一連の処理が繰り返し行われる回数である。
学習反復回数が一定数で割り切れると判定した場合(ステップST1c;YES)、履歴管理部11cは、NG指標値バッファ10eからデータIDおよびこれに対応する要素のNG指標値の系列を抽出する(ステップST2c)。
次に、履歴管理部11cは、抽出したデータIDおよびNG指標値の系列に対して現在の学習反復回数を追加して履歴バッファ11aに格納する(ステップST3c)。
この後、履歴管理部11cは図14の処理を終了し、検定部11dの処理に移行する。
一方、学習反復回数が一定数で割り切れないと判定した場合(ステップST1c;NO)、履歴管理部11cは図14の処理を終了し、ニューラルネットワーク更新部10dの処理に移行する。
次に、NG指標値の統計的検定処理について詳細に説明する。
図15は、NG指標値の統計的検定処理を示すフローチャートである。
検定部11dは、履歴バッファ11aから、第j番目の要素(対象の要素)のデータIDに対応する、学習反復回数ごとのNG指標値の系列Vを抽出し、抽出したNG指標値の系列Vを、NG候補レベルの系列Lに換算する(ステップST1d)。系列Lは、系列Vが過去にとった値の範囲を一定数で等分割した何番目の範囲に、現在のNG指標値が属しているかによって決定される。
例えば、NG指標値の系列Vが過去にとった値の範囲を5分割した場合、図9に示すように、NG候補レベルの割り当てを、−2,−1,0,+1,+2とする。
NG候補レベル0は、NG指標値が過去にとった中間の範囲に対応する。NG候補レベル+1は、中間の範囲よりもNG指標値が大きい範囲に対応し、NG候補レベル+2は、NG候補レベル+1に対応する範囲よりもNG指標値が大きい範囲に対応する。NG候補レベル−1は、中間の範囲よりもNG指標値が小さい範囲に対応し、NG候補レベル−2は、NG候補レベル−1に対応する範囲よりもNG指標値が小さい範囲に対応する。
なお、初回はNG指標値が1つしかないため、系列Vが過去にとった値の範囲は0である。このときのNG候補レベルを0とする。
検定部11dは、対象の要素(NG候補)が属するNG判定グループに属している要素のうち、対象の要素以外の全ての要素に対応するOK確定フラグに値1が設定されているか否かを判定する(ステップST2d)。このとき、いずれかの要素に対応するOK確定フラグに値0が設定されていた場合(ステップST2d;NO)、検定部11dは、NG候補バッファ11bを参照して、対象の要素に対応するNG確定フラグとOK確定フラグのいずれにも値0が設定されているか否かを判定する(ステップST3d)。
NG確定フラグまたはOK確定フラグに値1が設定されていた場合(ステップST3d;NO)、検定部11dは、NG候補バッファ11bにおける、対象の要素に対応するデータを、現在の学習反復回数、対象の要素の現在のNG候補レベル、対象の要素の現在のOK確定フラグおよびNG確定フラグの値で更新する(ステップST4d)。
この後、検定部11dは、履歴バッファ11aから、引き続き、第j+1番目の要素のデータIDに対応するNG指標値の系列Vj+1を抽出してステップST1dからの処理を繰り返す。
対象の要素が属するNG判定グループに属している要素のうち、対象の要素以外の全ての要素に対応するOK確定フラグに値1が設定されていた場合(ステップST2d;YES)、検定部11dは、対象の要素に対応するNG確定フラグに設定すべき値を“1”に決定する(ステップST5d)。この後、ステップST4dの処理に移行して、検定部11dは、NG候補バッファ11bにおける、対象の要素に対応するNG確定フラグに値1を設定して更新する。
対象の要素に対応するNG確定フラグとOK確定フラグのいずれにも値0が設定されていた場合(ステップST3d;YES)、検定部11dは、NG候補レベルの系列Lに対して一定の信頼係数(例えば、0.95)に基づいた無規則性の検定を行う(ステップST6d)。検定部11dは、NG候補レベルの系列Lに対する無規則性の検定結果に基づいて、NG候補レベルの系列Lに規則性があるか否かを判定する(ステップST7d)。
NG候補レベルの系列Lに規則性が確認されず、学習が反復されるたびにNG指標値の変化傾向がランダムに変化していると判定した場合(ステップST7d;NO)、検定部11dは、対象の要素をOK確定せず、NG確定もしない。この後、ステップST4dの処理に移行する。
NG候補レベルの系列Lに規則性が確認されて学習が反復されるたびにNG指標値の変化傾向が規則的であると判定した場合(ステップST7d;YES)、検定部11dは、NG候補レベルの系列Lに対して上昇方向の傾向性の検定を行う(ステップST8d)。検定部11dは、NG候補レベルの系列Lに対する傾向性の検定結果に基づいて、NG候補レベルの系列Lに上昇傾向があるか否かを判定する(ステップST9d)。
NG候補レベルの系列Lに上昇傾向がある場合(ステップST9d;YES)、検定部11dは、学習が反復されるたびにNG指標値が大きくなると判断して、ステップST5dの処理に移行する。これにより、対象の要素に対応するNG確定フラグに設定すべき値が“1”に決定され、NGが確定される。
一方、NG候補レベルの系列Lに上昇傾向が確認されなかった場合(ステップST9d;NO)、検定部11dは、NG候補レベルの系列Lに対して、下降方向の傾向性の検定を行う(ステップST10d)。検定部11dは、NG候補レベルの系列Lに対する上記傾向性の検定結果に基づいて、NG候補レベルの系列Lに下降傾向があるか否かを判定する(ステップST11d)。
NG候補レベルの系列Lに下降傾向も確認されなかった場合(ステップST11d;NO)、検定部11dは、ステップST4dの処理に移行し、系列Lの値を現在のNG候補レベルに決定して、NG候補バッファ11bに反映させる。
NG候補レベルの系列Lに下降傾向が確認された場合(ステップST11d;YES)、検定部11dは、学習が反復されるたびにNG指標値が小さくなると判断して、対象の要素に対応するOK確定フラグに設定すべき値を“1”に決定する(ステップST12d)。この後、ステップST4dの処理に移行して、検定部11dは、NG候補バッファ11bにおける、対象の要素に対応するOK確定フラグに値1を設定して更新する。
次に、学習基準ラベルの更新処理について詳細に説明する。
図16は、学習基準ラベル更新処理を示すフローチャートである。
学習基準ラベル更新部11eは、NG候補バッファ11bから、OK確定フラグに値1が設定されている要素のデータIDを、重複のない系列Uとして抽出する(ステップST1e)。系列Uには、OK確定フラグに値1が設定されている要素のデータIDが含まれている。
次に、学習基準ラベル更新部11eは、学習基準ラベルバッファ10aのうち、系列Uに含まれるデータIDと同じデータIDのレコードを特定し、特定したレコードにおけるOKフラグが値1、NGフラグが値0となるように学習基準ラベルを更新する(ステップST2e)。この処理は、学習部10によるニューラルネットワークの学習の途中で実行されるので、学習基準ラベルは動的に更新される。
次に、ニューラルネットワークパラメータの更新処理について詳細に説明する。
図17は、ニューラルネットワークパラメータ更新処理を示すフローチャートである。
ニューラルネットワーク更新部10dは、NG指標値バッファ10eから、ニューラルネットワーク管理部10cによって、現時点のニューラルネットワークパラメータで構築されたニューラルネットワークの出力結果から算出されたNG指標値を抽出する。
NG指標値バッファ10eから抽出したNG指標値に基づいて、ニューラルネットワーク更新部10dは、ニューラルネットワークパラメータを最適化する(ステップST1f)。例えば、ニューラルネットワーク更新部10dは、NG指標値バッファ10eから抽出したNG指標値に基づいて、参考文献1に記載された勾配降下最適法を用いて、現時点のニューラルネットワークパラメータを最適化する。この最適化は、学習を反復するたびに逐次的に行われる。
続いて、ニューラルネットワーク更新部10dは、学習反復回数が既定値(例えば、10000)以上になったか否かを判定する(ステップST2f)。
学習反復回数が既定値未満である場合(ステップST2f;NO)、ニューラルネットワーク更新部10dは、図17の処理を終了し、ニューラルネットワーク管理部10cによる図11のステップST2からの処理に移行する。
一方、学習反復回数が既定値以上であった場合(ステップST2f;YES)、ニューラルネットワーク更新部10dは、その時点でのニューラルネットワークパラメータを、学習結果として出力する(ステップST3f)。学習結果のニューラルネットワークパラメータを用いて構築されたニューラルネットワークは、NG判定グループに属するデータの少なくとも一つをNGと判定する識別器として機能する。
次に、実施の形態1に係る学習装置1によって得られる識別器について説明する。
ここで、グループ(事例群)全体に対してNGと判定された履歴はあるが、グループ内のどの要素がNGであるかがわからない状況、例えば、3つのグループがあり、そのうちの2つのグループの全体に対してNGと判定され、残りの1つのグループの全体に対してOKと判定された状況を考える。NGと判定されたグループの1つを、NG判定グループ(1){E11(OK),E12(NG),E13(OK)}とし、もう1つを、NG判定グループ(2){E21(NG),E22(OK),E23(OK)}とする。OKと判定されたグループを、OK判定グループ(3){E31(OK),E32(OK),E33(OK)}とする。
NG判定グループ(1)は2番目の要素のみがNGであり、残りの要素はOKである。また、NG判定グループ(2)は1番目の要素のみがNGであり、残りの要素はOKである。ただし、これらのグループはNGの要素を含むため、グループ全体としてNGと判定されている。要素Eの()内に要素単位のOKまたはNGを示したが、3つのグループが学習用データとして扱われる段階では、要素ごとのOKおよびNGは不明である。
識別器の学習段階では、グループ全体に対するOKまたはNGの判定結果のみが既知であるため、要素ごとにOKとNGとを識別する場合、E11(OK)、E12(NG)、E13(OK)、E21(NG)、E22(OK)、E23(OK)の6つの要素の全てがNGとみなされて学習される。すなわち、これらのうちの4つの要素は、本来はOKであるが、NGとして誤って学習される。これにより、学習結果の識別器の識別精度は低下する。
例えば、グループ(4){E41(OK),E42(OK),E43(OK)}と、グループ(5){E51(OK),E52(OK),E53(NG)}とのOKおよびNGを判定する場合、従来の識別器では、本来はOKである要素がNGと誤って学習されるため、グループ(4)に属する要素のいずれかをNGと判定する可能性がある。グループ(4)に属する要素のいずれかがNGと判定されると、グループ(4)全体もNGと判定されてしまう。このように、従来の識別器は、要素単位の識別精度が低く、グループ単位の識別精度も低い。
これに対して、実施の形態1に係る学習装置1では、NG指標値の変化傾向を統計的に検定した結果に基づいて、要素ごとにOKラベルまたはNGラベルを割り当てた学習基準ラベルを更新する。これにより、学習部10は、本来はOKである要素をNGと誤って学習することがほとんどなく、高精度の識別を行う識別器を学習することができる。
また、学習結果の識別器は、NG判定グループに属するデータの少なくとも一つをNGと判定するので、グループ(5)がNG判定グループであれば、グループ(5)は適切にNGと判定され、グループ(4)はOKと判定される。
以上のように、実施の形態1に係る学習装置1は、学習部10および動的更新部11を備える。学習部10は、学習基準ラベルを用いて、学習用データの複数の要素を入力としてニューラルネットワークを学習することにより、学習結果のニューラルネットワークを用いて、グループに属するデータの少なくとも一つをNGと判定する識別器を出力する。動的更新部11は、学習部10によるニューラルネットワークの学習の途中で学習基準ラベルを動的に更新する。この構成において、学習部10は、学習基準ラベルの初期値から動的更新部11によって更新された学習基準ラベルを逐次用いてニューラルネットワークを反復して学習し、学習の反復ごとのニューラルネットワークの出力値を用いて、学習用データの要素に対応するNG指標値を算出する。動的更新部11は、学習の反復回数の推移ごとに得られたNG指標値の変化傾向を統計的に検定した結果に基づいて、学習基準ラベルを更新する。学習結果の識別器が、グループに属するデータの少なくとも一つをNGと判定するので、学習装置1は、高精度の識別を行う識別器を提供することができる。
なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態の任意の構成要素の変形もしくは実施の形態の任意の構成要素の省略が可能である。
この発明に係る学習装置は、高精度の識別を行う識別器を提供することができるので、例えば、異常検知システムに利用可能である。
1 学習装置、2 学習用データDB、3 NG判定グループDB、10 学習部、10a 学習基準ラベルバッファ、10b 学習基準ラベル生成部、10c ニューラルネットワーク管理部、10d ニューラルネットワーク更新部、10e NG指標値バッファ、11 動的更新部、11a 履歴バッファ、11b NG候補バッファ、11c 履歴管理部、11d 検定部、11e 学習基準ラベル更新部、100 情報入力インタフェース、101 DB入出力インタフェース、102 データベース、103 情報出力インタフェース、104 処理回路、105 プロセッサ、106 メモリ。
検定部11dは、NG指標値の時系列について無規則性の検定を行う。無規則性の検定によってNG指標値の変化に規則性がないと確認された場合、検定部11dは、この要素をNG候補のままとする。規則性があると確認された場合、検定部11dは、NG指標値の時系列について傾向性の検定を行う。傾向性の検定によってNG指標値が上昇傾向であると確認されると、検定部11dは、この要素をNG候補のままとする。

Claims (4)

  1. 複数の要素から構成された学習用データと、グループに属するデータの少なくとも一つがNGと判定されることが定義されたグループ情報とを入力し、前記学習用データの要素ごとにOKラベルまたはNGラベルが割り当てられた学習基準ラベルを用いて、前記学習用データの複数の要素を入力としてニューラルネットワークを学習することにより、学習結果のニューラルネットワークを用いて前記グループに属するデータの少なくとも一つをNGと判定する識別器を出力する学習部と、
    前記学習部によるニューラルネットワークの学習の途中で前記学習基準ラベルを動的に更新する動的更新部とを備え、
    前記学習部は、
    前記学習用データおよび前記グループ情報を用いて前記学習用データの要素ごとの前記学習基準ラベルの初期値を生成し、
    前記学習基準ラベルの初期値から前記動的更新部によって更新された前記学習基準ラベルを逐次用いてニューラルネットワークを反復して学習し、
    学習の反復ごとのニューラルネットワークの出力値を用いて、前記学習用データの要素がNGとなり得るNG指標値を算出し、
    前記動的更新部は、
    学習の反復回数の推移ごとに得られたNG指標値の変化傾向を統計的に検定した結果に基づいて、前記学習基準ラベルを更新すること
    を特徴とする学習装置。
  2. 前記学習部は、
    前記学習用データの要素ごとの前記学習基準ラベルが格納された学習基準ラベルバッファと、
    前記学習用データの要素が前記グループに属さない場合にOKラベルを割り当て、前記グループに属する場合にNGラベルを割り当てた前記学習基準ラベルの初期値を生成する学習基準ラベル生成部と、
    ニューラルネットワークの出力値を用いて前記学習用データの要素のNG指標値を算出し、OKクラスおよびNGクラスのうち、NG指標値に基づいて前記学習用データの要素が属するクラスを判定し、前記学習基準ラベルの初期値および前記動的更新部によって更新された前記学習基準ラベルと判定したクラスとを誤差評価するニューラルネットワーク管理部と、
    前記ニューラルネットワーク管理部によって算出されたNG指標値に基づいて、ニューラルネットワークパラメータを更新するニューラルネットワーク更新部とを備えたこと
    を特徴とする請求項1記載の学習装置。
  3. 前記動的更新部は、
    学習の反復回数ごとに得られたNG指標値が格納された履歴バッファと、
    学習の反復回数、NG指標値に応じたNG候補レベル、前記学習用データの要素がOKに確定されたことを示すOK確定フラグ、および前記学習用データの要素がNGに確定されたことを示すNG確定フラグが、前記学習用データの要素ごとに格納されたNG候補バッファと、
    学習の反復ごとに得られたNG指標値を前記履歴バッファに格納する履歴管理部と、
    前記履歴バッファに格納されたNG指標値の変化傾向を、前記NG候補レベルの推移を用いて統計的に検定し、検定結果に基づいてNG候補の要素のOKまたはNGを確定して前記NG候補バッファにおける前記OK確定フラグまたは前記NG確定フラグを更新する検定部と、
    NG候補の要素のうち、前記検定部によってOKに確定された要素に対応する前記学習基準ラベルをNGラベルからOKラベルに更新する学習基準ラベル更新部とを備えたこと
    を特徴とする請求項1または請求項2記載の学習装置。
  4. 学習部が、複数の要素から構成された学習用データと、グループに属するデータの少なくとも一つがNGと判定されることが定義されたグループ情報とを入力し、前記学習用データの要素ごとにOKラベルまたはNGラベルが割り当てられた学習基準ラベルを用いて、前記学習用データの複数の要素を入力としてニューラルネットワークを学習することにより、学習結果のニューラルネットワークを用いて前記グループに属するデータの少なくとも一つをNGと判定する識別器を出力するステップと、
    動的更新部が、前記学習部によるニューラルネットワークの学習の途中で前記学習基準ラベルを動的に更新するステップとを備え、
    前記学習部は、
    前記学習用データおよび前記グループ情報を用いて前記学習用データの要素ごとの前記学習基準ラベルの初期値を生成し、
    前記学習基準ラベルの初期値から前記動的更新部によって更新された前記学習基準ラベルを逐次用いてニューラルネットワークを反復して学習し、
    学習の反復ごとのニューラルネットワークの出力値を用いて、前記学習用データの要素がNGとなり得るNG指標値を算出し、
    前記動的更新部は、
    学習の反復回数の推移ごとに得られたNG指標値の変化傾向を統計的に検定した結果に基づいて、前記学習基準ラベルを更新すること
    を特徴とする学習方法。
JP2020506078A 2018-03-16 2018-03-16 学習装置および学習方法 Active JP6701467B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/010446 WO2019176087A1 (ja) 2018-03-16 2018-03-16 学習装置および学習方法

Publications (2)

Publication Number Publication Date
JP6701467B2 JP6701467B2 (ja) 2020-05-27
JPWO2019176087A1 true JPWO2019176087A1 (ja) 2020-05-28

Family

ID=67908184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020506078A Active JP6701467B2 (ja) 2018-03-16 2018-03-16 学習装置および学習方法

Country Status (7)

Country Link
US (1) US20200387792A1 (ja)
EP (1) EP3748549B1 (ja)
JP (1) JP6701467B2 (ja)
KR (1) KR20200108912A (ja)
CN (1) CN111837143A (ja)
TW (1) TW201939363A (ja)
WO (1) WO2019176087A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7238610B2 (ja) * 2019-06-04 2023-03-14 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168799A (ja) * 1993-09-22 1995-07-04 Fuji Electric Co Ltd ニューラルネットワークの学習装置
JP2006226708A (ja) * 2005-02-15 2006-08-31 Nagoya Electric Works Co Ltd 良否判定装置、良否判定方法および良否判定プログラム
JP2017102906A (ja) * 2015-11-25 2017-06-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1515270A1 (en) * 2003-09-09 2005-03-16 Semeion An artificial neural network
JP4352980B2 (ja) * 2004-04-23 2009-10-28 オムロン株式会社 拡大表示装置及び拡大画像制御装置
US20060045312A1 (en) * 2004-08-27 2006-03-02 Bernstein Daniel B Image comparison device for providing real-time feedback
JP4661413B2 (ja) * 2005-07-11 2011-03-30 富士フイルム株式会社 撮像装置、撮影枚数管理方法及び撮影枚数管理プログラム
CN102707864A (zh) 2011-03-28 2012-10-03 日电(中国)有限公司 基于混合标记的对象分割方法和***
JP2015087903A (ja) * 2013-10-30 2015-05-07 ソニー株式会社 情報処理装置及び情報処理方法
JP6291844B2 (ja) * 2014-01-06 2018-03-14 日本電気株式会社 データ処理装置
JP6450858B2 (ja) * 2015-11-25 2019-01-09 株式会社日立製作所 設備管理装置および方法
WO2017130699A1 (ja) * 2016-01-26 2017-08-03 富士フイルム株式会社 ひび割れ情報検出装置、ひび割れ情報検出方法およびひび割れ情報検出プログラム
JP6182242B1 (ja) * 2016-06-13 2017-08-16 三菱電機インフォメーションシステムズ株式会社 データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム
US10339471B2 (en) * 2017-01-17 2019-07-02 International Business Machines Corporation Ensemble based labeling
JP2018142097A (ja) * 2017-02-27 2018-09-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11436428B2 (en) * 2017-06-06 2022-09-06 Sightline Innovation Inc. System and method for increasing data quality in a machine learning process
JP6568175B2 (ja) * 2017-10-20 2019-08-28 ヤフー株式会社 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム
US11382601B2 (en) * 2018-03-01 2022-07-12 Fujifilm Sonosite, Inc. Method and apparatus for annotating ultrasound examinations

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168799A (ja) * 1993-09-22 1995-07-04 Fuji Electric Co Ltd ニューラルネットワークの学習装置
JP2006226708A (ja) * 2005-02-15 2006-08-31 Nagoya Electric Works Co Ltd 良否判定装置、良否判定方法および良否判定プログラム
JP2017102906A (ja) * 2015-11-25 2017-06-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
KR20200108912A (ko) 2020-09-21
CN111837143A (zh) 2020-10-27
EP3748549A1 (en) 2020-12-09
US20200387792A1 (en) 2020-12-10
WO2019176087A1 (ja) 2019-09-19
JP6701467B2 (ja) 2020-05-27
EP3748549A4 (en) 2021-05-05
TW201939363A (zh) 2019-10-01
EP3748549B1 (en) 2023-06-07

Similar Documents

Publication Publication Date Title
WO2019165673A1 (zh) 一种报销单风险预测方法、装置、终端设备及存储介质
JP7117934B2 (ja) 画像分類装置及びプログラム
CN110310114B (zh) 对象分类方法、装置、服务器及存储介质
US20220067588A1 (en) Transforming a trained artificial intelligence model into a trustworthy artificial intelligence model
JP2019159820A (ja) 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム
CN113723467A (zh) 用于缺陷检测的样本收集方法、装置和设备
CN113610747A (zh) 自动地选择算法模块来检验样本
CN112420125A (zh) 分子属性预测方法、装置、智能设备和终端
JP6701467B2 (ja) 学習装置および学習方法
WO2019176988A1 (ja) 検査システム、識別システム、及び識別器評価装置
CN114519519A (zh) 基于gbdt算法与逻辑回归模型的企业违约风险评估方法设备及介质
CN114169460A (zh) 样本筛选方法、装置、计算机设备和存储介质
CN113472860A (zh) 大数据和数字化环境下的业务资源分配方法及服务器
US11176502B2 (en) Analytical model training method for customer experience estimation
CN115587545B (zh) 一种用于光刻胶的参数优化方法、装置、设备及存储介质
CN110879821A (zh) 评分卡模型衍生标签生成方法、装置、设备及存储介质
CN116524296A (zh) 设备缺陷检测模型的训练方法、装置和设备缺陷检测方法
CN115827705A (zh) 用于反事实解释的数据处理方法和装置
CN115439079A (zh) 项目分类方法及装置
WO2020213425A1 (ja) 状況推定装置、状況推定プログラム、推定モデル及び状況推定方法
JP6950647B2 (ja) データ判定装置、方法、及びプログラム
CN116610806B (zh) 基于ai的rpa数字化业务处理方法及计算机设备
US20230034782A1 (en) Learning-based clean data selection
US20230267321A1 (en) Viability determination with self-attention for process optimization
CN116702014A (zh) 人口识别方法、装置、终端设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200303

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200303

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R150 Certificate of patent or registration of utility model

Ref document number: 6701467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250