JPWO2019167240A1 - 情報処理装置、制御方法、及びプログラム - Google Patents
情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2019167240A1 JPWO2019167240A1 JP2020503221A JP2020503221A JPWO2019167240A1 JP WO2019167240 A1 JPWO2019167240 A1 JP WO2019167240A1 JP 2020503221 A JP2020503221 A JP 2020503221A JP 2020503221 A JP2020503221 A JP 2020503221A JP WO2019167240 A1 JPWO2019167240 A1 JP WO2019167240A1
- Authority
- JP
- Japan
- Prior art keywords
- data
- condition
- prediction
- neural network
- conditions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Operations Research (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
<概要>
図1は、本実施形態の情報処理装置が行う処理を概念的に示す図である。情報処理装置2000は、入力されたデータに関する予測を出力する。図1において、入力されるデータは入力データ10であり、予測の結果を表すデータは予測データ20である。入力に対する予測を行う処理としては、例えば、入力された画像データに含まれるオブジェクトのクラス(例えば、人、犬、車など)を予測する処理(分類問題)がある。この場合、入力された画像データが入力データ10であり、予測されたクラスが予測データ20である。
本実施形態の情報処理装置2000によって奏される作用効果を明瞭にするため、本技術分野の前提技術である決定木とグラフィカルモデルを説明する。
図5は、実施形態1の情報処理装置2000の機能構成を例示する図である。情報処理装置2000は、取得部2020、生成部2040、及び決定部2060を有する。取得部2020は、入力データ10を取得する。生成部2040は、ニューラルネットワーク30を用いて条件データ50を生成する。条件データ50は、入力データ10が満たす1つ以上の条件の組み合わせである。決定部2060は、条件データ50によって示される条件の少なくとも一部を満たす用例データ40に対応する正解データ42に基づいて決定された値を予測データ20として決定する。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図7は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。取得部2020は、入力データ10を取得する(S102)。生成部2040は、ニューラルネットワーク30を用いて条件データ50を生成する(S104)。決定部2060は、条件データ50によって示される条件の少なくとも一部を満たす用例データ40を特定する(S106)。決定部2060は、特定した用例データ40に対応づけられた正解データ42を用いて予測データ20を決定する(S108)。
取得部2020は入力データ10を取得する(S102)。入力データ10は、目的とする予測を行うために必要なデータである。例えば前述したように、画像データに含まれるオブジェクトのクラスを予測する処理においては、入力データ10として画像データを利用することができる。ただし、入力データ10は画像データに限定されず、テキストデータなどの任意のデータを入力データ10とすることができる。
生成部2040は、ニューラルネットワーク30を用いて条件データ50を生成する。ニューラルネットワーク30は、入力データ10が入力されたことに応じ、条件データ50を生成するために必要な情報を出力するように構成される。以下、ニューラルネットワーク30の構成について具体例を挙げて説明する。
ここでは、条件生成ニューラルネットワーク34の具体的な構成の例を説明する。本具体例において、条件生成ニューラルネットワーク34のモデルは、リカレントニューラルネットワーク(recurrent neural network)である。以下、この具体例における条件生成ニューラルネットワーク34を、条件生成 RNN 70と呼ぶ。
ここで、RNN は条件生成 RNN 70を関数として表現したものである。vt は、t 回目のループ処理において条件生成 RNN 70から出力される注目ベクトルである。
決定部2060は、条件データ50によって示される条件を満たす用例データ40を特定し、特定した用例データ40に対応する正解データ42を取得する(S106)。前述したように、用例データ40と正解データ42とを対応づけた情報を、用例情報と呼ぶ。用例情報は、情報処理装置2000が実行する予測について、予め用意された正解を表す情報である。
用例データ202及び正解データ204はそれぞれ、互いに対応する用例データ40と正解データ42を示す。例えば、情報処理装置2000が、画像データが入力されたことに応じ、その画像データに含まれるオブジェクトのクラスを出力するとする。この場合、用例情報は、用例データ202に画像データから抽出される特徴ベクトルを示し、正解データ204にその画像データに含まれるオブジェクトのクラスを示す。このように、テーブル200の各レコードは、特定の特徴ベクトル及びその特徴データについての正解を表している。
決定部2060は、取得した正解データ42を用いて予測データ20を決定する。例えば、決定部2060は、取得した正解データ42について統計処理を行い、その結果として得られるデータを予測データ20とする。以下、情報処理装置2000が分類問題を扱う場合と回帰問題を扱う場合のそれぞれについて説明する。
情報処理装置2000が分類問題を扱う場合、例えば予測データ20は、クラスの識別子であるラベルとなる。例えば画像データに含まれるオブジェクトのクラスを判別する場合、ラベルは「人」や「車」といったラベルとなる。この場合において、正解データ42がラベルを示しているとする。例えば決定部2060は、取得した正解データ42について各ラベルの出現数を算出し、出現数が最大のラベルを予測データ20とする。
情報処理装置2000が回帰問題を扱う場合、予測データ20は所定の意味を持つ数値となる。この場合、決定部2060は、正解データ42の統計値(平均値、中央値、最頻値、最大値、又は最小値など)を算出し、算出した統計値を予測データ20とする。
前述の説明では、条件データ50に示される全ての条件を満たす用例データ40を特定し、特定した用例データ40に対応する正解データ42を利用して予測データ20を算出することで、予測データ20を決定していた。しかしながら、予測データ20の決定方法は必ずしもこの方法に限定されない。以下、予測データ20の決定方法の他のバリエーションについて説明する。
予測データ20の決定に利用される用例データ40は、必ずしも条件データ50に示される全ての条件を満たすものでなくてもよい。すなわち、決定部2060は、条件データ50に示される条件の一部を満たす用例データ40も利用して、予測データ20を決定してもよい。例えば決定部2060は、各用例データ40について、条件データ50に示される条件を満たす度合いを算出する。この度合いを条件満足度と呼ぶ。決定部2060は、条件満足度が高い用例データ40に対応づけられている正解データ42ほど、より大きい重みを与えるようにして、正解データ42の統計値を算出する。そして、この統計値を予測データ20とする。
条件データ50が示す条件を満たす予測データ20は、予め決定されていてもよい。例えば、条件データ50として生成されうる複数の条件それぞれについて、前述した方法で正解データ42から予測データ20を算出することで、条件に対応する予測データ20を予め求めておく。条件データ50と予測データ20との対応付けは、決定部2060からアクセス可能な記憶装置に記憶させておく。運用時には、決定部2060は、生成部2040によって生成された条件データ50に対応する予測データ20を記憶装置から取得することで、予測データ20を決定する。こうすることで、予測データ20を決定する処理を高速化することができる。
情報処理装置2000は、条件データ50と予測データ20との組み合わせを表す予測ルールを出力する機能を有していてもよい。予測ルールを生成して出力する機能を実現する機能構成部を、出力部2070と呼ぶ。図17は、出力部2070を有する情報処理装置2000を例示するブロック図である。
実施形態2の情報処理装置2000は、ニューラルネットワーク30の訓練を行う機能をさらに有する。すなわち、実施形態2の情報処理装置2000は、ニューラルネットワーク30の出力の予測損失を小さくするように、ニューラルネットワーク30の内部パラメータを更新する機能を有する。
ここで、a_(i,t) は、t 回目のループ処理で生成される注目ベクトルの i 番目の要素の値である。e_(i,t) は、t 回目のループ処理で条件生成 RNN 70の出力層に入力される値であって、注目ベクトルの i 番目の要素を出力するノードに対して入力されるものである。
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図6によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
Claims (21)
- 入力データを取得する取得部と、
ニューラルネットワークを用いて、前記入力データが満たす条件を1つ以上示す条件データを生成する生成部と、
前記条件データによって示される条件の少なくとも一部を満たす用例データに対応する正解データに基づいて決定された値を、前記入力データに対応する予測データとして決定する決定部と、
を有する情報処理装置。 - 前記条件データに含める条件の候補である複数の候補条件が定められており、
前記ニューラルネットワークは、前記入力データが入力されたことに応じて、前記条件データに含める候補条件を表す情報を出力し、
前記生成部は、前記ニューラルネットワークの出力によって表される各候補条件の論理積を表す複合条件を、前記条件データが示す条件とする、請求項1に記載の情報処理装置。 - 前記候補条件は、前記入力データから得られる複数の要素それぞれについて、閾値と大小関係との組み合わせを示す、請求項2に記載の情報処理装置。
- 前記生成部は、前記ニューラルネットワークに対して繰り返し入力を行い、その入力ごとに出力される情報に基づいて、前記条件データに含める複数の候補条件を決定する、請求項2又は3に記載の情報処理装置。
- 前記決定部は、前記条件データによって示される条件の少なくとも一部を満たす用例データに対応する正解データを取得し、前記取得した正解データを統計処理することで、前記予測データを生成する、請求項1乃至4いずれか一項に記載の情報処理装置。
- 前記決定部は、
各前記用例データについて、前記条件データによって示される条件を満たす度合いを算出し、
前記算出した度合いが高い前記用例データに対応づけられている前記正解データほど大きい重みを与えて、前記正解データを統計処理することにより、前記予測データを生成する、請求項5に記載の情報処理装置。 - 前記条件データに含める条件の候補である複数の候補条件が定められており、
前記決定部は、複数の前記候補条件の1つ以上の組み合わせごとに予測データが対応づけて記憶されている記憶装置から、前記生成された条件データに含まれている候補条件の組み合わせに対応づけられている前記予測データを取得し、前記取得した予測データを前記入力データに対応する予測データとして決定する、請求項1乃至4いずれか一項に記載の情報処理装置。 - 前記条件データによって示される条件と前記予測データとを対応づけた予測ルールを出力する出力部を有する、請求項1乃至7いずれか一項に記載の情報処理装置。
- 前記出力部は、前記条件データによって示される条件を満たす前記用例データを表す情報をさらに出力する、請求項8に記載の情報処理装置。
- 前記ニューラルネットワークのパラメータを更新する訓練部を有し、
前記訓練部は、
訓練入力データ及び訓練正解データを取得し、
前記訓練入力データを前記生成部に入力することで前記条件データを取得し、
前記取得した条件データによって示される条件の少なくとも一部を満たす前記用例データに対応づけられている前記正解データを取得し、その正解データを用いて予測データを決定し、
前記決定した予測データと前記訓練正解データとについて予測損失を算出し、その予測損失が減少するように前記ニューラルネットワークのパラメータを更新する、請求項1乃至9いずれか一項に記載の情報処理装置。 - コンピュータによって実行される制御方法であって、
入力データを取得する取得ステップと、
ニューラルネットワークを用いて、前記入力データが満たす条件を1つ以上示す条件データを生成する生成ステップと、
前記条件データによって示される条件の少なくとも一部を満たす用例データに対応する正解データに基づいて決定された値を、前記入力データに対応する予測データとして決定する決定ステップと、
を有する制御方法。 - 前記条件データに含める条件の候補である複数の候補条件が定められており、
前記ニューラルネットワークは、前記入力データが入力されたことに応じて、前記条件データに含める候補条件を表す情報を出力し、
前記生成ステップにおいて、前記ニューラルネットワークの出力によって表される各候補条件の論理積を表す複合条件を、前記条件データが示す条件とする、請求項11に記載の制御方法。 - 前記候補条件は、前記入力データから得られる複数の要素それぞれについて、閾値と大小関係との組み合わせを示す、請求項12に記載の制御方法。
- 前記生成ステップにおいて、前記ニューラルネットワークに対して繰り返し入力を行い、その入力ごとに出力される情報に基づいて、前記条件データに含める複数の候補条件を決定する、請求項12又は13に記載の制御方法。
- 前記決定ステップにおいて、前記条件データによって示される条件の少なくとも一部を満たす用例データに対応する正解データを取得し、前記取得した正解データを統計処理することで、前記予測データを生成する、請求項11乃至14いずれか一項に記載の制御方法。
- 前記決定ステップにおいて、
各前記用例データについて、前記条件データによって示される条件を満たす度合いを算出し、
前記算出した度合いが高い前記用例データに対応づけられている前記正解データほど大きい重みを与えて、前記正解データを統計処理することにより、前記予測データを生成する、請求項15に記載の制御方法。 - 前記条件データに含める条件の候補である複数の候補条件が定められており、
前記決定ステップにおいて、複数の前記候補条件の1つ以上の組み合わせごとに予測データが対応づけて記憶されている記憶装置から、前記生成された条件データに含まれている候補条件の組み合わせに対応づけられている前記予測データを取得し、前記取得した予測データを前記入力データに対応する予測データとして決定する、請求項11乃至14いずれか一項に記載の制御方法。 - 前記条件データによって示される条件と前記予測データとを対応づけた予測ルールを出力する出力ステップを有する、請求項11乃至17いずれか一項に記載の制御方法。
- 前記出力ステップにおいて、前記条件データによって示される条件を満たす前記用例データを表す情報をさらに出力する、請求項18に記載の制御方法。
- 前記ニューラルネットワークのパラメータを更新する訓練ステップを有し、
前記訓練ステップにおいて、
訓練入力データ及び訓練正解データを取得し、
前記訓練入力データを前記生成ステップに入力することで前記条件データを取得し、
前記取得した条件データによって示される条件の少なくとも一部を満たす前記用例データに対応づけられている前記正解データを取得し、その正解データを用いて予測データを決定し、
前記決定した予測データと前記訓練正解データとについて予測損失を算出し、その予測損失が減少するように前記ニューラルネットワークのパラメータを更新する、請求項11乃至19いずれか一項に記載の制御方法。 - 請求項11乃至20いずれか一項に記載の制御方法が有する各ステップをコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/007888 WO2019167240A1 (ja) | 2018-03-01 | 2018-03-01 | 情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019167240A1 true JPWO2019167240A1 (ja) | 2021-02-04 |
JP6927409B2 JP6927409B2 (ja) | 2021-08-25 |
Family
ID=67805988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503221A Active JP6927409B2 (ja) | 2018-03-01 | 2018-03-01 | 情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11983633B2 (ja) |
JP (1) | JP6927409B2 (ja) |
WO (1) | WO2019167240A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11321051B2 (en) * | 2019-05-21 | 2022-05-03 | Arm Limited | Statistical mode determination |
US11263753B2 (en) * | 2020-04-07 | 2022-03-01 | Naver Corporation | Method for training a convolutional neural network for image recognition using image-conditioned masked language modeling |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07160662A (ja) * | 1993-12-02 | 1995-06-23 | Hitachi Ltd | ニューラルネットワークの予測結果における信頼度算出方法 |
JP2003027567A (ja) * | 2001-07-16 | 2003-01-29 | Yamatake Corp | 下水流入量予測装置および方法、サーバ装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6289329B1 (en) * | 1997-11-26 | 2001-09-11 | Ishwar K. Sethi | System for converting neural network to rule-based expert system using multiple-valued logic representation of neurons in feedforward network |
US10824959B1 (en) * | 2016-02-16 | 2020-11-03 | Amazon Technologies, Inc. | Explainers for machine learning classifiers |
US11144825B2 (en) * | 2016-12-01 | 2021-10-12 | University Of Southern California | Interpretable deep learning framework for mining and predictive modeling of health care data |
-
2018
- 2018-03-01 US US16/976,648 patent/US11983633B2/en active Active
- 2018-03-01 JP JP2020503221A patent/JP6927409B2/ja active Active
- 2018-03-01 WO PCT/JP2018/007888 patent/WO2019167240A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07160662A (ja) * | 1993-12-02 | 1995-06-23 | Hitachi Ltd | ニューラルネットワークの予測結果における信頼度算出方法 |
JP2003027567A (ja) * | 2001-07-16 | 2003-01-29 | Yamatake Corp | 下水流入量予測装置および方法、サーバ装置 |
Non-Patent Citations (1)
Title |
---|
加藤 聡、堀内 匡、伊藤良生: "2段階SOMを用いた階層的クラスタリングに関する基礎的考察", 電子情報通信学会技術研究報告, vol. 105, no. 677, JPN6018018424, 15 March 2006 (2006-03-15), JP, pages 27 - 31, ISSN: 0004546220 * |
Also Published As
Publication number | Publication date |
---|---|
US20200410361A1 (en) | 2020-12-31 |
US11983633B2 (en) | 2024-05-14 |
WO2019167240A1 (ja) | 2019-09-06 |
JP6927409B2 (ja) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109120462B (zh) | 机会网络链路的预测方法、装置及可读存储介质 | |
CN112365171B (zh) | 基于知识图谱的风险预测方法、装置、设备及存储介质 | |
CN113239186B (zh) | 一种基于多依存关系表示机制的图卷积网络关系抽取方法 | |
Wang et al. | Incremental subgraph feature selection for graph classification | |
JP7020547B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN112235327A (zh) | 异常日志检测方法、装置、设备和计算机可读存储介质 | |
Jabbari et al. | Discovery of causal models that contain latent variables through Bayesian scoring of independence constraints | |
CN110598869B (zh) | 基于序列模型的分类方法、装置、电子设备 | |
CN105095494A (zh) | 一种对分类数据集进行测试的方法 | |
CN117616431A (zh) | 针对大规模数据的可解释的机器学习 | |
JP6927409B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN113837492B (zh) | 物品供应量的预测方法、设备、存储介质及程序产品 | |
CN117035073A (zh) | 一种基于分层事件发展模式归纳的未来气象事件预测方法 | |
CN115757804A (zh) | 一种基于多层路径感知的知识图谱外推方法及*** | |
CN116361788A (zh) | 一种基于机器学习的二进制软件漏洞预测方法 | |
JP6743942B2 (ja) | 語彙テーブルの選択方法、装置およびコンピュータ読み取り可能な記憶媒体 | |
CN111444399A (zh) | 回复内容的生成方法、装置、设备及可读存储介质 | |
CN113779185A (zh) | 一种自然语言模型的生成方法和计算机设备 | |
CN114897085A (zh) | 一种基于封闭子图链路预测的聚类方法及计算机设备 | |
KR100895481B1 (ko) | 다중 클래스 svm을 이용한 영역 기반 이미지 검색 방법 | |
Sree et al. | Optimized conversion of categorical and numerical features in machine learning models | |
JP2019105871A (ja) | 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置 | |
CN114254686A (zh) | 对抗样本的识别方法及装置 | |
Dash | DECPNN: A hybrid stock predictor model using Differential Evolution and Chebyshev Polynomial neural network | |
WO2023132029A1 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200812 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6927409 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |