JP7424496B2 - 精度推定プログラム、装置、及び方法 - Google Patents

精度推定プログラム、装置、及び方法 Download PDF

Info

Publication number
JP7424496B2
JP7424496B2 JP2022539915A JP2022539915A JP7424496B2 JP 7424496 B2 JP7424496 B2 JP 7424496B2 JP 2022539915 A JP2022539915 A JP 2022539915A JP 2022539915 A JP2022539915 A JP 2022539915A JP 7424496 B2 JP7424496 B2 JP 7424496B2
Authority
JP
Japan
Prior art keywords
data set
accuracy
data
classifier
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022539915A
Other languages
English (en)
Other versions
JPWO2022024315A5 (ja
JPWO2022024315A1 (ja
Inventor
友裕 早瀬
孝 河東
優 安富
健人 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2022024315A1 publication Critical patent/JPWO2022024315A1/ja
Publication of JPWO2022024315A5 publication Critical patent/JPWO2022024315A5/ja
Application granted granted Critical
Publication of JP7424496B2 publication Critical patent/JP7424496B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

開示の技術は、精度推定プログラム、精度推定装置、及び精度推定方法に関する。
機械学習により訓練された訓練済みモデルの性能検証として、例えば、クロスバリデーションによる性能検証が行われている。クロスバリデーションでは、正解を示すラベル付きのデータセットを、訓練用データ、検証用データ、及びテスト用データに分ける。そして、訓練用データで訓練したモデルを、検証用データで検証しながらモデルを設計し、テスト用データを用いて、最終的な精度の検証を行う。
"Cross-validation: evaluating estimator performance",[online],[令和2年6月8日検索],インターネット<URL:https://scikit-learn.org/stable/modules/cross_validation.html> Ron Kohavi, "A Study of Cross-Validation and Bootstrap for Accuracy Estimation and Model Selection", International Joint Conference on Articial Intelligence, 1995
訓練済みモデルが使用される実環境における実データに対する、訓練済みモデルの精度を推定することを考える。この場合、訓練済みモデルの訓練に用いたデータと実データとでは、環境変化によりデータの性質が変化している場合があるため、訓練時のデータに基づく検証では、実データに対する精度としての信頼性が薄い。すなわち、訓練済みモデルが実環境に対し、どの程度の精度を出せるかが分からない。そこで、ラベル付きの実データを用意して検証を行うことが考えられる。しかしながら、実データに対するラベル付けは、多くの作業コストを要するという問題がある。
一つの側面として、開示の技術は、ラベルなし実データに対する訓練済みのモデルの精度を推定することを目的とする。
一つの態様として、開示の技術は、それぞれがデータ値とラベルとを対応付けたデータを複数含むデータセットであって、前記データ値の性質が前記データセット毎に異なる複数のデータセットを取得する。また、開示の技術は、前記複数のデータセットに含まれる第1のデータセットと、前記複数のデータセットに含まれる第2のデータセットとの相違の度合いを示す指標を、前記第2のデータセットに含まれるデータ値を用いて算出する。また、開示の技術は、前記第1のデータセットを用いて訓練された予測モデルにより予測された、前記第2のデータセットに対する予測結果の精度を算出する。そして、開示の技術は、前記第1のデータセットと前記第2のデータセットとの複数の組合せ毎に算出された前記指標及び前記精度に基づいて、前記指標と、前記予測モデルによる予測結果の精度との関連性を特定する。さらに、開示の技術は、ラベルが対応付けられていないデータ値を複数含む第3のデータセットに対する前記予測モデルによる予測結果の精度を、前記第1のデータセットと前記第3のデータセットとの間の前記指標と、特定した前記関連性とに基づいて推定する。
一つの側面として、ラベルなし実データに対する訓練済みのモデルの精度を推定することができる、という効果を有する。
精度推定装置の機能ブロック図である。 予測モデルの訓練を説明するための図である。 指標の算出を説明するための図である。 分類誤差の最大化について説明するための図である。 分類誤差の最大化について説明するための図である。 精度の算出を説明するための図である。 指標-精度曲線の特定を説明するための図である。 実データセットについての精度の推定を説明するための図である。 精度推定装置として機能するコンピュータの概略構成を示すブロック図である。 特定処理の一例を示すフローチャートである。 推定処理の一例を示すフローチャートである。 最大分類誤差を算出する際の繰り返しアルゴリズムの早期停止を説明するための図である。
以下、図面を参照して、開示の技術に係る実施形態の一例を説明する。
図1に示すように、精度推定装置10は、入力されたラベル付きデータセット集合を用いて、データセット間の相違を示す指標と、データセットに対するモデルの予測結果の精度との関係を特定する。そして、精度推定装置10は、特定した関係を用いて、入力された実データセットに対するモデルの予測結果の精度を推定する。
精度推定装置10は、機能的には、図1に示すように、取得部11、学習部12と、指標算出部13と、精度算出部14と、特定部15と、推定部16とを含む。また、精度推定装置10の所定の記憶領域には、指標-精度曲線20が記憶される。
取得部11は、精度推定装置10に入力されるラベル付きデータセット集合を取得し、学習部12へ受け渡す。
ラベル付きデータセット集合には、複数のラベル付きデータセットが含まれる。ラベル付きデータセットは、それぞれがデータ値と、そのデータ値が示す対象の正解を表すラベルとを対応付けたデータを複数含む。例えば、モデルが、画像から数字を認識する認識モデルの場合、データセットには、0~9のいずれかのラベルが対応付けられた画像のセットが複数(例えば、1,000個)含まれる。また、例えば、モデルが、入力された画像が犬の画像か猫の画像かを識別する識別モデルの場合、データセットには、犬又は猫を示すラベルが対応付けられた画像のセットが複数含まれる。また、例えば、モデルが、画像から人物を検出する検出モデルの場合、データセットには、人物が存在する又は存在しないことを示すラベルが対応付けられた画像のセットが複数含まれる。
また、ラベル付きデータセット集合に含まれる複数のデータセットの各々は、各データセットに含まれるデータ値の性質がデータセット毎に異なる。例えば、データ値の取得過程、生成過程等の環境を異ならせることにより、データ値の性質がそれぞれ異なるデータセットを用意することができる。例えば、上記の数字を認識する認識モデルのために用意するデータセットとしては、単純に記載された手書きの数字の白黒画像のデータセット、手書きの数字の白黒画像に色付けした画像のデータセット等とすることができる。また、家の住所表札等の実環境における数字部分を撮影した画像のデータセット、コンピュータグラフィックス等により作成した合成画像のデータセット、中抜き文字等の装飾又は加工が施された手書き数字の画像のデータセット等とすることができる。
学習部12は、取得部11から受け渡されたラベル付きデータセット集合を用いて訓練することによりモデルを生成する。モデルは、上述した認識モデル、識別モデル、検出モデル等のように、実データに対する何らかの予測結果を出力するものである。以下、モデルを「予測モデル」ともいう。予測モデルは、図2に示すように、データ値から特徴を抽出する特徴抽出器Gと、特徴抽出器Gにより抽出された特徴を分類することによりデータ値がいずれのラベルに対応するかを予測した予測結果を出力する分類器C1とを含む。
具体的には、学習部12は、ラベル付きデータセット集合に含まれるラベル付きデータセットの各々を用いて、予測モデル内のパラメータ(重み)を訓練する。より具体的には、学習部12は、図2に示すように、データセットに含まれるラベルと、データセットに含まれるデータ値に対する予測モデルによる予測結果とが対応するように、特徴抽出器G及び分類器C1の各々のパラメータを訓練する。学習部12は、ラベル付きデータセット毎に訓練した予測モデルと、取得部11から受け渡されたラベル付きデータセット集合を指標算出部13へ受け渡す。
指標算出部13は、学習部12から受け渡されたラベル付きデータセット集合に含まれる第1のデータセットと、第1のデータセットとは異なる第2のデータセットとの相違の度合いを示す指標を算出する。指標算出部13は、データセットに含まれるデータ値を用いて指標を算出する。すなわち、指標算出部13は、ラベルを用いることなく指標を算出する。具体的には、指標算出部13は、第2のデータセットに含まれるデータ値に対する、第1のデータセットを用いて訓練された予測モデルによる予測結果を用いて、指標を算出する。データセット間でデータ値を単純に比較するだけでは、データセットの性質が相違しているのか、性質は共通しているものの、データ自体が異なることによる相違なのかを区別することが困難である。指標算出部13は、予測モデルの予測結果を用いることで、データセット間の性質の相違を示す指標を算出するものである。
以下では、第1のデータセットを「データセットDS」、第2のデータセットを「データセットDT」という。指標算出部13は、ラベル付きデータセット集合に含まれる2つのデータセットの組合せの各々を、データセットDSとデータセットDTとのペアとし、全てのペアの各々について、指標を算出する。
より具体的には、指標算出部13は、データセットDSを用いて訓練された予測モデルの分類器として、少なくともパラメータが異なる複数の分類器を生成する。そして、指標算出部13は、図3の上段に示すように、データセットDTに対する複数の分類器のそれぞれによる予測結果の差分である分類誤差を、指標として算出する。
例えば、指標算出部13は、データセットDSを用いて訓練された予測モデルの分類器C1のパラメータを初期化した分類器を分類器C2として生成する。そして、指標算出部13は、例えば、下記(1)式により、データセットDTに対する、分類器C1による予測結果と分類器C2による予測結果との分類誤差d(C1,C2)を算出する。
ここで、|DT|はデータセットDTに含まれるデータの数、xtはデータセットDTに含まれるデータのデータ値、Kはラベルの種類数、G(xt)は特徴抽出器Gにより抽出されるデータ値xtの特徴量である。また、Ci(X)は特徴量Xに基づく分類器Ci(iは1又は2)によるラベルkについての予測結果である。(1)式に示す分類誤差は、データセットDTのラベルを用いることなく算出可能な指標である。
また、指標算出部13は、後述する特定部15で用いる指標として、分類器C1及びC2を最適化しつつ最大化した分類誤差(最大分類誤差、MCD、Maximum Classifier Discrepancy)を算出する。例えば、指標算出部13は、下記(2)式に示す損失関数Lossを最小化する。
Loss((xs,ys),xt)
=CrossEntropyLoss(C1(G(xs)),ys)
+CrossEntropyLoss(C2(G(xs)),ys)
-MeanL1Norm(C1(G(xt))-C2(G(xt)))
(2)
ここで、xsはデータセットDSに含まれるデータのデータ値、ysはデータ値xsに対応付けられたラベルである。(2)式の第1項は、分類器が分類器C1である予測モデルによるデータセットDSに対する予測結果の誤差であり、図3の下段に示す予測誤差1に相当する。第2項は、分類器が分類器C2である予測モデルによるデータセットDSに対する予測結果の誤差であり、図3の下段に示す予測誤差2に相当する。第3項は、データセットDTについての分類誤差であり、例えば、上記(1)式に相当する。
指標算出部13は、(2)式に示す損失関数Lossを最小化するように、分類器C1及びC2のパラメータを最適化し、損失関数Lossが最小化した際の第3項を最大分類誤差とする。なお、損失関数Lossを最小化する際、特徴抽出器Gのパラメータは固定とする。
ここで、分類誤差を最大化する理由について説明する。ここでは、説明を簡単にするため、ラベルが0及び1の2値であり、特徴抽出器Gにより抽出される特徴量を二次元で表現できる場合について説明する。
図4及び図5に、分類器C1による分類境界、分類器C2による分類境界、及び各データセットに含まれるデータ値から抽出された特徴量の各々を二次元に投影した例を示す。図4及び図5において、丸印(〇)は、データセットDSに含まれるラベル0が対応付けられたデータの特徴量、バツ印(×)は、データセットDSに含まれるラベル1対応付けられたデータの特徴量を示す。また、三角印(△)は、データセットDTに含まれるデータの特徴量を示す。
分類器C1及びC2を最適化して、〇と×とが、分類器C1及びC2のいずれの分類境界に対しても適切に判定されている状態において、△のうち、分類器C1とC2とで判定が異なる△の割合、すなわち、分類器が判定を迷う割合を分類誤差と考える。図4の例では、分類誤差は1/8、図5の例では、分類誤差は4/8である。データセットDTのデータから抽出された特徴量に対して分類器が判定を迷う割合は、データセットDSで訓練された特徴抽出器GのデータセットDTへの非適合性を表しているとみなすことができる。すなわち、分類誤差が大きいほど、データセットDTは、予測モデルにとって、データセットDSと性質の異なるデータセットであると言える。そこで、データセットDTに対する分類器の迷い具合を正確に特定するために、分類誤差を最大化するものである。
図4は、分類誤差が最大化されていない例、図5は、分類誤差が最大化された例である。図4の例と図5の例とを比較すると、図5の方が、分類器が判定を迷う△をできる限り漏れなく特定できている。すなわち、分類誤差を最大化することで、データセットDSとデータセットDTとの相違を示す指標として、質の高い指標を算出することができる。
指標算出部13は、データセットDSとデータセットDTとのペア毎に算出した最大分類誤差を特定部15へ受け渡すと共に、ラベル付きデータセット集合を精度算出部14へ受け渡す。
また、指標算出部13は、後述する推定部16からの指示により、予測モデルの訓練に用いたデータセットDSと実データセットとの相違を示す指標を算出する。例えば、指標算出部13は、上記(1)式のデータセットDTを実データセットに置き換えて、指標として分類誤差を算出する。指標算出部13は、算出した実データセットについての指標を推定部16へ受け渡す。なお、「実データセット」は、開示の技術の「第3のデータセット」の一例である。
精度算出部14は、データセットDSを用いて訓練された予測モデルにより予測された、データセットDTに対する予測結果の精度を算出する。具体的には、精度算出部14は、図6に示すように、特徴抽出器Gと分類器C1とからなる予測モデルにデータセットDTを入力する。そして、精度算出部14は、予測モデルから得られる予測結果と、データセットDTに含まれるラベルとに基づいて、例えば正解率等で表される精度を算出する。精度算出部14は、指標算出部13により指標が算出されたデータセットDT毎に精度も算出する。指標算出部13は、データセットDT毎に算出した精度を特定部15に受け渡す。
特定部15は、データセットDSとデータセットDTとの複数の組合せ毎に算出された指標及び精度に基づいて、データセット間の相違と、予測モデルによる予測結果の精度との関連性を特定する。具体的には、特定部15は、図7に示すように、横軸に指標、縦軸に精度を取った空間に、データセットDSとデータセットDTとのペア毎に算出された指標である最大分類誤差と、精度とに対応する点(図7中の黒丸)をプロットする。特定部15は、プロットした点に基づいて、例えば、ベイズ推定等による推定値を示す回帰曲線(図7中の実線の曲線)を求める。以下、この回帰曲線を「指標-精度曲線20」という。
図7の例では、指標-精度曲線20と共に、推定値に対する95%の信頼区間(図7中の網掛部分)も示している。図7に示すように、データセット間の相違を示す指標と予測モデルによる予測結果の精度との関係は、指標である最大分類誤差が増大するにつれ、精度が単調に減少する関係である。特定部15は、求めた指標-精度曲線20の情報を所定の記憶領域に記憶する。
推定部16は、データ値にラベルが対応付けられていないデータを複数含む実データセットに対する予測モデルによる予測結果の精度を、データセットDSと実データセットとの相違を示す指標と、指標-精度曲線20とに基づいて推定する。実データセットは、予測モデルが適用される実環境において取得されるデータ値のデータセットである。
具体的には、推定部16は、実データセットを取得し、指標算出部13へ受け渡すと共に、実データセットについての指標として、分類誤差の算出を指標算出部13へ指示し、指標算出部13から、実データセットについての指標を受け取る。そして、推定部16は、指標-精度曲線20を参照して、図8に示すように、実データセットについての指標に対応する精度の推定値を取得する。推定部16は、取得した推定値を精度推定結果として出力する。
なお、実環境における予測モデルの分類器C1のパラメータは、ランダムに初期化した値としてよい。一般的に、予測モデルにおいては、特徴抽出器Gが本質部分であり、分類器C1は、例えば1~2層程度の層の浅い構成となる。そのため、実環境における分類器C1のパラメータと、指標-精度曲線20が求められた際の分類器C1のパラメータとの相違は、精度の推定に大きな影響を与えない。
精度推定装置10は、例えば図9に示すコンピュータ40で実現することができる。コンピュータ40は、CPU(Central Processing Unit)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、入力部、表示部等の入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部45とを備える。また、コンピュータ40は、インターネット等のネットワークに接続される通信I/F(Interface)46を備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。
記憶部43は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を、精度推定装置10として機能させるための精度推定プログラム50が記憶される。精度推定プログラム50は、取得プロセス51と、学習プロセス52と、指標算出プロセス53と、精度算出プロセス54と、特定プロセス55と、推定プロセス56とを有する。また、記憶部43は、指標-精度曲線20を構成する情報が記憶される情報記憶領域60を有する。
CPU41は、精度推定プログラム50を記憶部43から読み出してメモリ42に展開し、精度推定プログラム50が有するプロセスを順次実行する。CPU41は、取得プロセス51を実行することで、図1に示す取得部11として動作する。また、CPU41は、学習プロセス52を実行することで、図1に示す学習部12として動作する。また、CPU41は、指標算出プロセス53を実行することで、図1に示す指標算出部13として動作する。また、CPU41は、精度算出プロセス54を実行することで、図1に示す精度算出部14として動作する。また、CPU41は、特定プロセス55を実行することで、図1に示す特定部15として動作する。また、CPU41は、推定プロセス56を実行することで、図1に示す推定部16として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、指標-精度曲線をメモリ42に展開する。これにより、精度推定プログラム50を実行したコンピュータ40が、精度推定装置10として機能することになる。なお、プログラムを実行するCPU41はハードウェアである。
なお、精度推定プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に、本実施形態に係る精度推定装置10の作用について説明する。精度推定装置10にラベル付きデータセット集合が入力され、指標-精度曲線20の特定が指示されると、精度推定装置10において、図10に示す特定処理が実行される。また、精度推定装置10に実データセットが入力され、精度の推定が指示されると、精度推定装置10において、図11に示す推定処理が実行される。なお、特定処理及び推定処理は、開示の技術の精度推定方法の一例である。以下、特定処理及び推定処理の各々について詳述する。
まず、図10を参照して、特定処理について説明する。
ステップS11で、取得部11が、精度推定装置10に入力されたラベル付きデータセット集合から、2つのデータセットを選択し、データセットDSとデータセットDTとのペアとして取得し、学習部12へ受け渡す。
次に、ステップS12で、学習部12が、データセットDSに含まれるラベルと、データセットDSに含まれるデータ値に対する予測モデルによる予測結果とが対応するように、予測モデルを構成する特徴抽出器G及び分類器C1の各々のパラメータを訓練する。
次に、ステップS13で、指標算出部13が、データセットDSを用いて訓練された予測モデルの分類器C1のパラメータを初期化した分類器を分類器C2として生成する。そして、指標算出部13が、データセットDTに対する、分類器C1による予測結果と分類器C2による予測結果との分類誤差を算出する。さらに、指標算出部13が、分類器C1及びC2を最適化しつつ、分類誤差を最大化した最大分類誤差を算出する。
次に、ステップS14で、精度算出部14が、予測モデルにデータセットDTを入力し、予測モデルから得られる予測結果と、データセットDTに含まれるラベルとに基づいて、例えば正解率等で表される精度を算出する。精度算出部14は、算出した精度を、上記ステップS13で算出された指標と共に、所定の記憶領域に一旦記憶する。
次に、ステップS15で、取得部11が、ラベル付きデータセット集合に含まれるデータセットの全てのペアについて、ステップS11~S14の処理が終了したか否かを判定する。未処理のペアが存在する場合には、処理はステップS11に戻り、全てのペアについて処理が終了した場合には、処理はステップS16へ移行する。
ステップS16では、特定部15が、横軸に指標、縦軸に精度を取った空間に、所定の記憶領域に一旦記憶しておいた、データセットDSとデータセットDTとのペア毎に算出された指標である最大分類誤差と、精度とに対応する点をプロットする。そして、特定部15が、プロットした点に基づいて、例えば、ベイズ推定等による推定値を示す回帰曲線を、指標-精度曲線20として特定する。特定部15は、特定した指標-精度曲線20の情報を所定の記憶領域に記憶し、特定処理は終了する。
次に、図11を参照して、推定処理について説明する。
ステップS21で、推定部16が、実データセットを取得し、指標算出部13へ受け渡すと共に、実データセットについての指標として、分類誤差の算出を指標算出部13へ指示する。
次に、ステップS22で、指標算出部13が、予測モデルの訓練に用いたデータセットDSと実データセットとの相違を示す指標として、分類誤差を算出し、算出した実データセットについての指標を推定部16へ受け渡す。
次に、ステップS23で、推定部16が、指標-精度曲線20を参照して、実データセットについての指標に対応する精度の推定値を取得し、取得した推定値を精度推定結果として出力する。そして、推定処理は終了する。
以上説明したように、本実施形態に係る精度推定装置は、データ値の性質がデータセット毎に異なる複数のデータセットを取得し、データセットDSとデータセットDTとのペア毎に、データセット間の相違の度合いを示す指標を算出する。指標としては、データセットDTに対する複数の分類器の各々による予測結果の差分を示す分類誤差を、複数の分類器を最適化しつつ最大化した最大分類誤差が算出される。また、精度推定装置は、データセットDSを用いて訓練された予測モデルにより予測された、データセットDTに対する予測結果の精度を算出する。そして、精度推定装置は、データセットDSとデータセットDTとの複数のペア毎に算出された指標及び精度に基づいて、データセット間の相違と、予測モデルによる予測結果の精度との関連性を特定する。さらに、精度推定装置は、実データセットに対する、データセットDSを用いて訓練された予測モデルによる予測結果の精度を、データセットDSと実データセットとの分類誤差と、特定した関連性とに基づいて推定する。これにより、ラベルなし実データに対する訓練済みのモデルの精度を推定することができる。
また、データセット間の相違と、予測モデルによる予測結果の精度との関連性として、指標-精度曲線を特定して、実データセットの精度の推定に用いる。これにより、予測モデル訓練時の環境と実環境との相違によるデータセット間の性質の変化に対して、予測モデルの精度がどの程度低下するかを定量的に推定することができる。
なお、上記実施形態において、最大分類誤差は、損失関数Lossを繰り返しアルゴリズムにより最小化することにより算出することができる。この繰り返しアルゴリズムの繰り返し回数を制限し、繰り返しアルゴリズムを早期停止させるようにしてもよい。最大分類誤差と精度との関係は、図12の破線で示すように、最大分類誤差の変動に対して、精度が急激に変動しないことが望ましい。しかし、最大分類誤差を算出する際の繰り返しアルゴリズムの繰り返し回数が多くなると、どのデータセットについても最大分類誤差が同程度の値となってしまう場合がある。この場合、最大分類誤差と精度との関係が、図12の実線で示すように、最大分類誤差が大きい箇所で、最大分類誤差の変動が小さいにもかかわらず、精度が急激に低下してしまう(図12の一点鎖線部)。
このような指標-精度曲線では、最大分類誤差が大きい箇所で、精度の推定値のブレが大きく、安定した精度の推定を行うことができない。そこで、指標-精度曲線が、図12の破線で示すような望ましい変動となるように、繰り返しアルゴリズムを早期停止させるものである。早期停止させる場合の繰り返し回数は、異なるデータセットについての最大分類誤差がそれぞれ所定値以上離れた値をとるように、事前に実験等により特定して設定しておけばよい。なお、早期停止させる場合の繰り返し回数は、いずれのデータセットのペアについても共通とする。
また、上記実施形態において、ラベル付きデータセット集合に含まれる2以上のデータセットを結合して新たなデータセットを生成してもよい。これにより、性質の異なるデータセットを多く用意することが困難な場合でも、指標-精度曲線を特定する際のプロット点数を増やすことができ、指標-精度曲線を精度良く特定することができる。
また、上記実施形態では、指標-精度曲線で用いる精度として、予測モデルに対するデータセットDTの精度を用いる場合について説明したが、これに限定されない。例えば、予測モデルに対するデータセットDSの精度と、予測モデルに対するデータセットDTの精度との差分等、データセットDTについての精度の低下度合いを示す値としてもよい。
また、上記実施形態では、精度推定プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD-ROM、DVD-ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
10 精度推定装置
11 取得部
12 学習部
13 指標算出部
14 精度算出部
15 特定部
16 推定部
20 指標-精度曲線
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50 精度推定プログラム

Claims (6)

  1. それぞれがデータ値とラベルとを対応付けたデータを複数含むデータセットであって、前記データ値の性質が前記データセット毎に異なる複数のデータセットを取得し、
    前記複数のデータセットに含まれる第1のデータセットと、前記複数のデータセットに含まれる第2のデータセットとの相違の度合いを示す指標として前記第1のデータセットを用いて予測モデルを構成する特徴抽出器及び第1の分類器の各々のパラメータを訓練し、訓練された前記第1の分類器のパラメータを初期化した第2の分類器を生成し、前記第2のデータセットに対する、前記第1の分類器による予測結果と前記第2の分類器による予測結果との分類誤差を算出し、前記第1のデータセットに対する予測結果の誤差を最小化するように前記第1の分類器及び前記第2の分類器を最適化しつつ、前記分類誤差を最大化した最大分類誤差を算出し、
    前記第1のデータセットを用いて訓練された予測モデルにより予測された、前記第2のデータセットに対する予測結果の精度を算出し、
    前記第1のデータセットと前記第2のデータセットとの複数の組合せ毎に算出された前記指標及び前記精度に基づいて、前記指標と、前記予測モデルによる予測結果の精度との関連性を特定し、
    ラベルが対応付けられていないデータ値を複数含む第3のデータセットに対する前記予測モデルによる予測結果の精度を、前記第1のデータセットと前記第3のデータセットとの間の前記指標と、特定した前記関連性とに基づいて推定する
    ことを含む処理をコンピュータに実行させるための精度推定プログラム。
  2. 前記最大分類誤差を繰り返しアルゴリズムにより算出する際の繰り返し回数を、異なる前記第2のデータセットについての前記最大分類誤差がそれぞれ所定値以上離れた値をとるように予め定めた回数に設定する請求項に記載の精度推定プログラム。
  3. 前記関連性として、前記第1のデータセットと前記第2のデータセットとの複数の組合せ毎に算出された前記精度と前記指標との関係を示す回帰曲線を特定する請求項1又は請求項2に記載の精度推定プログラム。
  4. 前記複数のデータセットに含まれる2以上のデータセットを結合して新たなデータセットを生成する請求項1~請求項のいずれか1項に記載の精度推定プログラム。
  5. それぞれがデータ値とラベルとを対応付けたデータを複数含むデータセットであって、前記データ値の性質が前記データセット毎に異なる複数のデータセットを取得する取得部と、
    前記複数のデータセットに含まれる第1のデータセットと、前記複数のデータセットに含まれる第2のデータセットとの相違の度合いを示す指標として前記第1のデータセットを用いて予測モデルを構成する特徴抽出器及び第1の分類器の各々のパラメータを訓練し、訓練された前記第1の分類器のパラメータを初期化した第2の分類器を生成し、前記第2のデータセットに対する、前記第1の分類器による予測結果と前記第2の分類器による予測結果との分類誤差を算出し、前記第1のデータセットに対する予測結果の誤差を最小化するように前記第1の分類器及び前記第2の分類器を最適化しつつ、前記分類誤差を最大化した最大分類誤差を算出する指標算出部と、
    前記第1のデータセットを用いて訓練された予測モデルにより予測された、前記第2のデータセットに対する予測結果の精度を算出する精度算出部と、
    前記第1のデータセットと前記第2のデータセットとの複数の組合せ毎に算出された前記指標及び前記精度に基づいて、前記指標と、前記予測モデルによる予測結果の精度との関連性を特定する特定部と、
    ラベルが対応付けられていないデータ値を複数含む第3のデータセットに対する前記予測モデルによる予測結果の精度を、前記第1のデータセットと前記第3のデータセットとの間の前記指標と、特定した前記関連性とに基づいて推定する推定部と、
    を含む精度推定装置。
  6. それぞれがデータ値とラベルとを対応付けたデータを複数含むデータセットであって、前記データ値の性質が前記データセット毎に異なる複数のデータセットを取得し、
    前記複数のデータセットに含まれる第1のデータセットと、前記複数のデータセットに含まれる第2のデータセットとの相違の度合いを示す指標として前記第1のデータセットを用いて予測モデルを構成する特徴抽出器及び第1の分類器の各々のパラメータを訓練し、訓練された前記第1の分類器のパラメータを初期化した第2の分類器を生成し、前記第2のデータセットに対する、前記第1の分類器による予測結果と前記第2の分類器による予測結果との分類誤差を算出し、前記第1のデータセットに対する予測結果の誤差を最小化するように前記第1の分類器及び前記第2の分類器を最適化しつつ、前記分類誤差を最大化した最大分類誤差を算出し、
    前記第1のデータセットを用いて訓練された予測モデルにより予測された、前記第2のデータセットに対する予測結果の精度を算出し、
    前記第1のデータセットと前記第2のデータセットとの複数の組合せ毎に算出された前記指標及び前記精度に基づいて、前記指標と、前記予測モデルによる予測結果の精度との関連性を特定し、
    ラベルが対応付けられていないデータ値を複数含む第3のデータセットに対する前記予測モデルによる予測結果の精度を、前記第1のデータセットと前記第3のデータセットとの間の前記指標と、特定した前記関連性とに基づいて推定する
    ことを含む処理をコンピュータが実行する精度推定方法。
JP2022539915A 2020-07-30 2020-07-30 精度推定プログラム、装置、及び方法 Active JP7424496B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/029306 WO2022024315A1 (ja) 2020-07-30 2020-07-30 精度推定プログラム、装置、及び方法

Publications (3)

Publication Number Publication Date
JPWO2022024315A1 JPWO2022024315A1 (ja) 2022-02-03
JPWO2022024315A5 JPWO2022024315A5 (ja) 2022-12-16
JP7424496B2 true JP7424496B2 (ja) 2024-01-30

Family

ID=80037831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022539915A Active JP7424496B2 (ja) 2020-07-30 2020-07-30 精度推定プログラム、装置、及び方法

Country Status (3)

Country Link
US (1) US20230186118A1 (ja)
JP (1) JP7424496B2 (ja)
WO (1) WO2022024315A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117235673B (zh) * 2023-11-15 2024-01-30 中南大学 一种细胞培养预测方法及装置、电子设备、存储介质
CN118277913A (zh) * 2024-06-04 2024-07-02 北京建筑大学 一种考虑样本不平衡性的交通事故致因耦合作用分析方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183548A1 (ja) 2016-04-22 2017-10-26 日本電気株式会社 情報処理システム、情報処理方法、及び、記録媒体
JP2019109634A (ja) 2017-12-15 2019-07-04 富士通株式会社 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置
WO2019229977A1 (ja) 2018-06-01 2019-12-05 株式会社 東芝 推定システム、推定方法及び推定プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183548A1 (ja) 2016-04-22 2017-10-26 日本電気株式会社 情報処理システム、情報処理方法、及び、記録媒体
JP2019109634A (ja) 2017-12-15 2019-07-04 富士通株式会社 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置
WO2019229977A1 (ja) 2018-06-01 2019-12-05 株式会社 東芝 推定システム、推定方法及び推定プログラム

Also Published As

Publication number Publication date
US20230186118A1 (en) 2023-06-15
WO2022024315A1 (ja) 2022-02-03
JPWO2022024315A1 (ja) 2022-02-03

Similar Documents

Publication Publication Date Title
JP7177653B2 (ja) 敵対的ニューラル・ネットワーク・トレーニングを使用するフォント認識の改善
CN110852983B (zh) 用于检测半导体装置中的缺陷的方法
Zhang et al. Gradient-induced co-saliency detection
JP6843086B2 (ja) 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体
US8923608B2 (en) Pre-screening training data for classifiers
KR102227906B1 (ko) 자동 학습 데이터 생성을 통한 모델 학습 시스템 및 방법
US20230085687A1 (en) Machine learning prediction and document rendering improvement based on content order
JP6932395B2 (ja) イメージを分析するために、ディープラーニングネットワークに利用するためのトレーニングイメージに対するラベルリング信頼度を自動的に評価するための方法、及びこれを利用した信頼度評価装置
JP7424496B2 (ja) 精度推定プログラム、装置、及び方法
CN110399800B (zh) 基于深度学习vgg16框架的车牌检测方法及***、存储介质
CN111694917B (zh) 一种车辆异常轨迹检测、模型训练方法及装置
JP6611346B2 (ja) 文字列認識装置、方法、及びプログラム
JP7172612B2 (ja) データ拡張プログラム、データ拡張方法およびデータ拡張装置
CN115244548A (zh) 基于人工智能训练深度学习网络的方法及使用其的学习设备
WO2021079442A1 (ja) 推定プログラム、推定方法、情報処理装置、再学習プログラムおよび再学習方法
CN111062928A (zh) 一种医学ct图像中病变的识别方法
CN114330588A (zh) 一种图片分类方法、图片分类模型训练方法及相关装置
CN113095351A (zh) 借助于初始标记的改善生成经标记的数据的方法
JP5082512B2 (ja) 情報処理装置、画像処理装置、画像符号化装置、情報処理プログラム、画像処理プログラム及び画像符号化プログラム
US20200151445A1 (en) Text Wrap Detection
JP6499938B2 (ja) 稼働データ分類装置
CN112926585B (zh) 一种基于再生核希尔伯特空间的跨域语义分割方法
Wozniak et al. Place inference via graph-based decisions on deep embeddings and blur detections
El Maghraby Improving Custom Vision cognitive services model
CN114118449B (zh) 基于偏标记学习模型的图片标签识别方法、介质及设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7424496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150