JPWO2019176087A1 - 学習装置および学習方法 - Google Patents
学習装置および学習方法 Download PDFInfo
- Publication number
- JPWO2019176087A1 JPWO2019176087A1 JP2020506078A JP2020506078A JPWO2019176087A1 JP WO2019176087 A1 JPWO2019176087 A1 JP WO2019176087A1 JP 2020506078 A JP2020506078 A JP 2020506078A JP 2020506078 A JP2020506078 A JP 2020506078A JP WO2019176087 A1 JPWO2019176087 A1 JP WO2019176087A1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- data
- unit
- reference label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 47
- 238000013528 artificial neural network Methods 0.000 claims abstract description 115
- 238000012790 confirmation Methods 0.000 claims description 36
- 238000012795 verification Methods 0.000 claims description 34
- 238000012360 testing method Methods 0.000 claims description 30
- 230000007704 transition Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 239000000284 extract Substances 0.000 description 6
- 238000000528 statistical test Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 3
- 238000003556 assay Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000000630 rising effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
Description
一方、NGと判定された学習用画像データにおいて、NG要素のある画像領域は局所的であることが多く、大半の領域は、OKと判定された学習用画像データと局所的には変わらない。
例えば、特許文献1には、入力画像を複数の画像領域に分割し、分割した画像領域ごとに前景と背景とを区別するラベルを付与する技術が記載されている。この技術では、前景または背景が確定しているラベルが付与された画像領域からの連続性に基づいて、不確定のラベルが付与されたピクセルが前景であるか背景であるかが推定される。
実施の形態1.
図1は、この発明の実施の形態1に係る学習装置1の構成を示すブロック図である。
学習装置1は、学習用データデータベース(以下、学習用データDBと記載する)2から入力した学習用データとNG判定グループデータベース(以下、NG判定グループDBと記載する)3から入力したNG判定グループ情報とを用いて、ニューラルネットワーク初期パラメータを更新していくことにより、学習結果の識別器を与えるニューラルネットワークパラメータを生成する。
(参考文献1)C.M.ビショップ, 元田浩(監訳), “パターン認識と機械学習 上”, 丸善出版, pp. 225−247.
図6は、ニューラルネットワークの構成の一例を示す図である。図6に示すように、ニューラルネットワークは、入力層、隠れ層および出力層から構成される。学習用データの要素を構成するデータ値系列x1,x2,・・・,xNが入力層に入力されると、入力層のノードと隠れ層のノードとの間の重みパラメータとx1,x2,・・・,xNとの乗算和を非線形変換したz1,z2,・・・,zMが算出される。続いて、隠れ層のノードと出力層のノードとの間の重みパラメータとz1,z2,・・・,zMとの乗算和を非線形変換したy1,y2が出力層から出力される。
なお、図6において、隠れ層が1層のニューラルネットワークを示したが、ニューラルネットワーク管理部10cによって管理されるニューラルネットワークは、隠れ層が複数層のニューラルネットワークであってもよい。
NG候補は、学習基準ラベルでNGラベルが割り当てられた要素であり、NG候補レベルは、NG候補の要素に対応するNG指標値に応じたレベルとなる。
無規則性の検定および傾向性の検定の方法として、下記の参考文献2に記載された検定方法を使用してもよい。
(参考文献2)武藤眞介著,“統計解析ハンドブック”, 朝倉書店, pp. 398−399, 402−403.
すなわち、学習装置1は、プロセッサ105によって実行されるときに、図11に示すステップST1からステップST5までの処理が結果的に実行されるプログラムを記憶するためのメモリ106を備える。これらのプログラムは、学習部10および動的更新部11の手順または方法をコンピュータに実行させる。メモリ106は、コンピュータを、学習部10および動的更新部11として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
図11は、実施の形態1に係る学習方法を示すフローチャートである。
ステップST1において、学習基準ラベル生成部10bが、学習用データの複数の要素のうち、NG判定グループに属する要素に対応するOKフラグに値0を設定し、NGフラグに値1を設定することにより、学習用データの要素ごとの学習基準ラベルを生成する。また、ニューラルネットワーク管理部10cは、ニューラルネットワーク初期パラメータを用いて、初期状態のニューラルネットワークを構築する。
学習の反復が終了すると、ニューラルネットワーク更新部10dは、前述した一連の学習で更新したニューラルネットワークパラメータを、学習結果として出力する(ステップST5)。
図12は、学習基準ラベル生成処理を示すフローチャートであって、学習基準ラベルの初期値を生成する処理を示している。
学習基準ラベル生成部10bは、学習用データDB2に登録されている学習用データの要素ごとのデータIDを順次読み出して以降の処理を実行する。
学習基準ラベル生成部10bは、学習用データDB2から読み出した要素のデータIDのうち、NG判定グループDB3に登録されているNG判定グループに属する要素のデータIDと同じデータIDがあるか否かを判定する(ステップST1a)。
学習基準ラベル生成部10bは、ステップST1aからステップST4aまでの一連の処理を、学習用データDB2に登録されている学習用データの全ての要素について繰り返し実行する。この処理により学習基準ラベルの初期値が生成される。
図13は、ニューラルネットワーク管理処理を示すフローチャートであり、要素ごとのNG指標値を算出する処理を示している。
初回処理において、ニューラルネットワーク管理部10cは、ニューラルネットワーク初期パラメータに基づいて、初期状態のニューラルネットワークを構築する(ステップST1b)。
なお、y2_i−y1_iをNGEiとしたが、y1_iおよびy2_iの比率をNGEiとしてもよく、y1_iおよびy2_iの分布を考慮した距離をNGEiとしてもよい。
ニューラルネットワーク管理部10cは、ステップST2bからステップST3bまでの一連の処理を、学習用データDB2に登録されている学習用データの全ての要素について繰り返し実行する。
図14は、NG指標値の履歴管理処理を示すフローチャートである。
まず、履歴管理部11cは、学習反復回数が一定数(例えば、100)で割り切れるか否かを判定する(ステップST1c)。学習反復回数は、図11に示したステップST2からステップST4までの学習部10による一連の処理が繰り返し行われる回数である。
次に、履歴管理部11cは、抽出したデータIDおよびNG指標値の系列に対して現在の学習反復回数を追加して履歴バッファ11aに格納する(ステップST3c)。
この後、履歴管理部11cは図14の処理を終了し、検定部11dの処理に移行する。
図15は、NG指標値の統計的検定処理を示すフローチャートである。
検定部11dは、履歴バッファ11aから、第j番目の要素(対象の要素)のデータIDに対応する、学習反復回数ごとのNG指標値の系列Vjを抽出し、抽出したNG指標値の系列Vjを、NG候補レベルの系列Ljに換算する(ステップST1d)。系列Ljは、系列Vjが過去にとった値の範囲を一定数で等分割した何番目の範囲に、現在のNG指標値が属しているかによって決定される。
NG候補レベル0は、NG指標値が過去にとった中間の範囲に対応する。NG候補レベル+1は、中間の範囲よりもNG指標値が大きい範囲に対応し、NG候補レベル+2は、NG候補レベル+1に対応する範囲よりもNG指標値が大きい範囲に対応する。NG候補レベル−1は、中間の範囲よりもNG指標値が小さい範囲に対応し、NG候補レベル−2は、NG候補レベル−1に対応する範囲よりもNG指標値が小さい範囲に対応する。
なお、初回はNG指標値が1つしかないため、系列Vjが過去にとった値の範囲は0である。このときのNG候補レベルを0とする。
この後、検定部11dは、履歴バッファ11aから、引き続き、第j+1番目の要素のデータIDに対応するNG指標値の系列Vj+1を抽出してステップST1dからの処理を繰り返す。
図16は、学習基準ラベル更新処理を示すフローチャートである。
学習基準ラベル更新部11eは、NG候補バッファ11bから、OK確定フラグに値1が設定されている要素のデータIDを、重複のない系列Uとして抽出する(ステップST1e)。系列Uには、OK確定フラグに値1が設定されている要素のデータIDが含まれている。
図17は、ニューラルネットワークパラメータ更新処理を示すフローチャートである。
ニューラルネットワーク更新部10dは、NG指標値バッファ10eから、ニューラルネットワーク管理部10cによって、現時点のニューラルネットワークパラメータで構築されたニューラルネットワークの出力結果から算出されたNG指標値を抽出する。
学習反復回数が既定値未満である場合(ステップST2f;NO)、ニューラルネットワーク更新部10dは、図17の処理を終了し、ニューラルネットワーク管理部10cによる図11のステップST2からの処理に移行する。
ここで、グループ(事例群)全体に対してNGと判定された履歴はあるが、グループ内のどの要素がNGであるかがわからない状況、例えば、3つのグループがあり、そのうちの2つのグループの全体に対してNGと判定され、残りの1つのグループの全体に対してOKと判定された状況を考える。NGと判定されたグループの1つを、NG判定グループ(1){E11(OK),E12(NG),E13(OK)}とし、もう1つを、NG判定グループ(2){E21(NG),E22(OK),E23(OK)}とする。OKと判定されたグループを、OK判定グループ(3){E31(OK),E32(OK),E33(OK)}とする。
また、学習結果の識別器は、NG判定グループに属するデータの少なくとも一つをNGと判定するので、グループ(5)がNG判定グループであれば、グループ(5)は適切にNGと判定され、グループ(4)はOKと判定される。
Claims (4)
- 複数の要素から構成された学習用データと、グループに属するデータの少なくとも一つがNGと判定されることが定義されたグループ情報とを入力し、前記学習用データの要素ごとにOKラベルまたはNGラベルが割り当てられた学習基準ラベルを用いて、前記学習用データの複数の要素を入力としてニューラルネットワークを学習することにより、学習結果のニューラルネットワークを用いて前記グループに属するデータの少なくとも一つをNGと判定する識別器を出力する学習部と、
前記学習部によるニューラルネットワークの学習の途中で前記学習基準ラベルを動的に更新する動的更新部とを備え、
前記学習部は、
前記学習用データおよび前記グループ情報を用いて前記学習用データの要素ごとの前記学習基準ラベルの初期値を生成し、
前記学習基準ラベルの初期値から前記動的更新部によって更新された前記学習基準ラベルを逐次用いてニューラルネットワークを反復して学習し、
学習の反復ごとのニューラルネットワークの出力値を用いて、前記学習用データの要素がNGとなり得るNG指標値を算出し、
前記動的更新部は、
学習の反復回数の推移ごとに得られたNG指標値の変化傾向を統計的に検定した結果に基づいて、前記学習基準ラベルを更新すること
を特徴とする学習装置。 - 前記学習部は、
前記学習用データの要素ごとの前記学習基準ラベルが格納された学習基準ラベルバッファと、
前記学習用データの要素が前記グループに属さない場合にOKラベルを割り当て、前記グループに属する場合にNGラベルを割り当てた前記学習基準ラベルの初期値を生成する学習基準ラベル生成部と、
ニューラルネットワークの出力値を用いて前記学習用データの要素のNG指標値を算出し、OKクラスおよびNGクラスのうち、NG指標値に基づいて前記学習用データの要素が属するクラスを判定し、前記学習基準ラベルの初期値および前記動的更新部によって更新された前記学習基準ラベルと判定したクラスとを誤差評価するニューラルネットワーク管理部と、
前記ニューラルネットワーク管理部によって算出されたNG指標値に基づいて、ニューラルネットワークパラメータを更新するニューラルネットワーク更新部とを備えたこと
を特徴とする請求項1記載の学習装置。 - 前記動的更新部は、
学習の反復回数ごとに得られたNG指標値が格納された履歴バッファと、
学習の反復回数、NG指標値に応じたNG候補レベル、前記学習用データの要素がOKに確定されたことを示すOK確定フラグ、および前記学習用データの要素がNGに確定されたことを示すNG確定フラグが、前記学習用データの要素ごとに格納されたNG候補バッファと、
学習の反復ごとに得られたNG指標値を前記履歴バッファに格納する履歴管理部と、
前記履歴バッファに格納されたNG指標値の変化傾向を、前記NG候補レベルの推移を用いて統計的に検定し、検定結果に基づいてNG候補の要素のOKまたはNGを確定して前記NG候補バッファにおける前記OK確定フラグまたは前記NG確定フラグを更新する検定部と、
NG候補の要素のうち、前記検定部によってOKに確定された要素に対応する前記学習基準ラベルをNGラベルからOKラベルに更新する学習基準ラベル更新部とを備えたこと
を特徴とする請求項1または請求項2記載の学習装置。 - 学習部が、複数の要素から構成された学習用データと、グループに属するデータの少なくとも一つがNGと判定されることが定義されたグループ情報とを入力し、前記学習用データの要素ごとにOKラベルまたはNGラベルが割り当てられた学習基準ラベルを用いて、前記学習用データの複数の要素を入力としてニューラルネットワークを学習することにより、学習結果のニューラルネットワークを用いて前記グループに属するデータの少なくとも一つをNGと判定する識別器を出力するステップと、
動的更新部が、前記学習部によるニューラルネットワークの学習の途中で前記学習基準ラベルを動的に更新するステップとを備え、
前記学習部は、
前記学習用データおよび前記グループ情報を用いて前記学習用データの要素ごとの前記学習基準ラベルの初期値を生成し、
前記学習基準ラベルの初期値から前記動的更新部によって更新された前記学習基準ラベルを逐次用いてニューラルネットワークを反復して学習し、
学習の反復ごとのニューラルネットワークの出力値を用いて、前記学習用データの要素がNGとなり得るNG指標値を算出し、
前記動的更新部は、
学習の反復回数の推移ごとに得られたNG指標値の変化傾向を統計的に検定した結果に基づいて、前記学習基準ラベルを更新すること
を特徴とする学習方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/010446 WO2019176087A1 (ja) | 2018-03-16 | 2018-03-16 | 学習装置および学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6701467B2 JP6701467B2 (ja) | 2020-05-27 |
JPWO2019176087A1 true JPWO2019176087A1 (ja) | 2020-05-28 |
Family
ID=67908184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020506078A Active JP6701467B2 (ja) | 2018-03-16 | 2018-03-16 | 学習装置および学習方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200387792A1 (ja) |
EP (1) | EP3748549B1 (ja) |
JP (1) | JP6701467B2 (ja) |
KR (1) | KR20200108912A (ja) |
CN (1) | CN111837143A (ja) |
TW (1) | TW201939363A (ja) |
WO (1) | WO2019176087A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7238610B2 (ja) * | 2019-06-04 | 2023-03-14 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07168799A (ja) * | 1993-09-22 | 1995-07-04 | Fuji Electric Co Ltd | ニューラルネットワークの学習装置 |
JP2006226708A (ja) * | 2005-02-15 | 2006-08-31 | Nagoya Electric Works Co Ltd | 良否判定装置、良否判定方法および良否判定プログラム |
JP2017102906A (ja) * | 2015-11-25 | 2017-06-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1515270A1 (en) * | 2003-09-09 | 2005-03-16 | Semeion | An artificial neural network |
JP4352980B2 (ja) * | 2004-04-23 | 2009-10-28 | オムロン株式会社 | 拡大表示装置及び拡大画像制御装置 |
US20060045312A1 (en) * | 2004-08-27 | 2006-03-02 | Bernstein Daniel B | Image comparison device for providing real-time feedback |
JP4661413B2 (ja) * | 2005-07-11 | 2011-03-30 | 富士フイルム株式会社 | 撮像装置、撮影枚数管理方法及び撮影枚数管理プログラム |
CN102707864A (zh) | 2011-03-28 | 2012-10-03 | 日电(中国)有限公司 | 基于混合标记的对象分割方法和*** |
JP2015087903A (ja) * | 2013-10-30 | 2015-05-07 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
JP6291844B2 (ja) * | 2014-01-06 | 2018-03-14 | 日本電気株式会社 | データ処理装置 |
JP6450858B2 (ja) * | 2015-11-25 | 2019-01-09 | 株式会社日立製作所 | 設備管理装置および方法 |
WO2017130699A1 (ja) * | 2016-01-26 | 2017-08-03 | 富士フイルム株式会社 | ひび割れ情報検出装置、ひび割れ情報検出方法およびひび割れ情報検出プログラム |
JP6182242B1 (ja) * | 2016-06-13 | 2017-08-16 | 三菱電機インフォメーションシステムズ株式会社 | データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム |
US10339471B2 (en) * | 2017-01-17 | 2019-07-02 | International Business Machines Corporation | Ensemble based labeling |
JP2018142097A (ja) * | 2017-02-27 | 2018-09-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11436428B2 (en) * | 2017-06-06 | 2022-09-06 | Sightline Innovation Inc. | System and method for increasing data quality in a machine learning process |
JP6568175B2 (ja) * | 2017-10-20 | 2019-08-28 | ヤフー株式会社 | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム |
US11382601B2 (en) * | 2018-03-01 | 2022-07-12 | Fujifilm Sonosite, Inc. | Method and apparatus for annotating ultrasound examinations |
-
2018
- 2018-03-16 US US16/971,482 patent/US20200387792A1/en active Pending
- 2018-03-16 JP JP2020506078A patent/JP6701467B2/ja active Active
- 2018-03-16 WO PCT/JP2018/010446 patent/WO2019176087A1/ja unknown
- 2018-03-16 KR KR1020207025875A patent/KR20200108912A/ko active IP Right Grant
- 2018-03-16 CN CN201880091109.7A patent/CN111837143A/zh active Pending
- 2018-03-16 EP EP18909932.8A patent/EP3748549B1/en active Active
- 2018-06-26 TW TW107121878A patent/TW201939363A/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07168799A (ja) * | 1993-09-22 | 1995-07-04 | Fuji Electric Co Ltd | ニューラルネットワークの学習装置 |
JP2006226708A (ja) * | 2005-02-15 | 2006-08-31 | Nagoya Electric Works Co Ltd | 良否判定装置、良否判定方法および良否判定プログラム |
JP2017102906A (ja) * | 2015-11-25 | 2017-06-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20200108912A (ko) | 2020-09-21 |
CN111837143A (zh) | 2020-10-27 |
EP3748549A1 (en) | 2020-12-09 |
US20200387792A1 (en) | 2020-12-10 |
WO2019176087A1 (ja) | 2019-09-19 |
JP6701467B2 (ja) | 2020-05-27 |
EP3748549A4 (en) | 2021-05-05 |
TW201939363A (zh) | 2019-10-01 |
EP3748549B1 (en) | 2023-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019165673A1 (zh) | 一种报销单风险预测方法、装置、终端设备及存储介质 | |
JP7117934B2 (ja) | 画像分類装置及びプログラム | |
CN110310114B (zh) | 对象分类方法、装置、服务器及存储介质 | |
US20220067588A1 (en) | Transforming a trained artificial intelligence model into a trustworthy artificial intelligence model | |
JP2019159820A (ja) | 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム | |
CN113723467A (zh) | 用于缺陷检测的样本收集方法、装置和设备 | |
CN113610747A (zh) | 自动地选择算法模块来检验样本 | |
CN112420125A (zh) | 分子属性预测方法、装置、智能设备和终端 | |
JP6701467B2 (ja) | 学習装置および学習方法 | |
WO2019176988A1 (ja) | 検査システム、識別システム、及び識別器評価装置 | |
CN114519519A (zh) | 基于gbdt算法与逻辑回归模型的企业违约风险评估方法设备及介质 | |
CN114169460A (zh) | 样本筛选方法、装置、计算机设备和存储介质 | |
CN113472860A (zh) | 大数据和数字化环境下的业务资源分配方法及服务器 | |
US11176502B2 (en) | Analytical model training method for customer experience estimation | |
CN115587545B (zh) | 一种用于光刻胶的参数优化方法、装置、设备及存储介质 | |
CN110879821A (zh) | 评分卡模型衍生标签生成方法、装置、设备及存储介质 | |
CN116524296A (zh) | 设备缺陷检测模型的训练方法、装置和设备缺陷检测方法 | |
CN115827705A (zh) | 用于反事实解释的数据处理方法和装置 | |
CN115439079A (zh) | 项目分类方法及装置 | |
WO2020213425A1 (ja) | 状況推定装置、状況推定プログラム、推定モデル及び状況推定方法 | |
JP6950647B2 (ja) | データ判定装置、方法、及びプログラム | |
CN116610806B (zh) | 基于ai的rpa数字化业务处理方法及计算机设备 | |
US20230034782A1 (en) | Learning-based clean data selection | |
US20230267321A1 (en) | Viability determination with self-attention for process optimization | |
CN116702014A (zh) | 人口识别方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200303 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200303 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200303 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6701467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |