JP3896868B2 - パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置 - Google Patents

パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置 Download PDF

Info

Publication number
JP3896868B2
JP3896868B2 JP2002051113A JP2002051113A JP3896868B2 JP 3896868 B2 JP3896868 B2 JP 3896868B2 JP 2002051113 A JP2002051113 A JP 2002051113A JP 2002051113 A JP2002051113 A JP 2002051113A JP 3896868 B2 JP3896868 B2 JP 3896868B2
Authority
JP
Japan
Prior art keywords
feature
pattern
learning
determined
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002051113A
Other languages
English (en)
Other versions
JP2003256839A (ja
Inventor
健治 岡島
仁 今岡
真信 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002051113A priority Critical patent/JP3896868B2/ja
Priority to CN03804780.2A priority patent/CN1653486B/zh
Priority to US10/505,903 priority patent/US7634140B2/en
Priority to EP03707148A priority patent/EP1480167A4/en
Priority to PCT/JP2003/002264 priority patent/WO2003073381A1/ja
Publication of JP2003256839A publication Critical patent/JP2003256839A/ja
Application granted granted Critical
Publication of JP3896868B2 publication Critical patent/JP3896868B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像認識等に用いられるパターンの、特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置に関する。
【0002】
【従来の技術】
学習用のパターンの集合から、パターン識別に用いるための特徴を決定する方法としては、判別分析法に基く方法、主成分分析法に基く方法等が良く知られており、既に広く利用されている(例えば、特開平9−288492、特開平4−256087、特開平1−32159参照)。しかしながら、前記各方法は決定される特徴が線形な特徴に限定されるため、その性能には限界がある。
【0003】
他方、非線形な特徴を扱う方法としては、ニューラルネットワークを用いた方法、特に誤差逆伝播学習法とニューラルネットワークとを組み合わせた方法が知られている(例えば、中野馨監修、”ニューロコンピュータ”、技術評論社1989、或いは、D.E.Rumelhart,"Parallel Distributed Processing",MIT Press,1986年 参照)。これらの方法によれば、中間層のニューロンに、パターン識別に適した非線形な特徴を学習させることが可能である。しかしながら、これら方法には、特に大規模な問題では学習に膨大な時間がかかること、ニューラルネットの性能には中間層のニューロン数が大きく影響するところ、この中間層の最適なニューロン数を事前に決定するための一般的な方法がないこと等の問題点がある。
【0004】
また、決定木を用いてパターン識別(分類)を行う方法として、決定木の各ノードにおける分類ルールを相互情報量最大化の基準で決定していくID3、C4.5等の方法が知られている(特開2000−122690、特開昭61−75486、J.R.Quinlan,"C4.5: Programs for Machine Learning",Morgan Kauffman,1993年 参照)。これらの方法は、上記したニューラルネットワークを用いた方法と比べると、学習が早く終了するという長所がある。その一方で、これらの方法は、学習パターン以外のパターンに対する識別性能(汎化性能)が十分ではない等、上記したニューラルネットワークを用いた方法より、性能面で、一般に劣るといわれている。
【0005】
【発明が解決しようとする課題】
従って、本発明が解決しようとする課題は、上記した事情に鑑み、高性能のパターン識別を、膨大な学習を要することなく実現可能するためのパターン判定方法と、前記パターン判定方法の前提となる特徴選択方法並びにパターン分類方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
前記課題を解決するための手段を提供する本発明の第1の視点によれば、クラス情報が付された学習パターンを記憶保持する学習パターン記憶手段と、複数の特徴候補を生成する特徴候補生成手段と、前記特徴候補生成手段によって生成される特徴候補の中からパターン識別に適した特徴のセットを決定する特徴決定手段と、を備えるシステムにおける特徴選択方法において、前記特徴決定手段が、前記学習パターンを特徴の値に応じて遷移させるべき、予め定めた個数の集合を用意し、前記各特徴候補に対応する各学習パターンの特徴を計算して、前記学習パターン集合のクラス情報との相互情報量が最大となる特徴候補を、特徴のセットの最初の特徴として決定し、前記各学習パターンを、決定した特徴に応じた重みを付けて、分配するとともに、決定した特徴に対応する集合に、順次、遷移させ、前記各学習パターンが含まれる集合についての情報と、決定されている特徴とが既知であるとの条件の下で、各特徴候補に対応する各学習パターンの特徴と、前記各学習パターンのクラス情報との相互情報量が最大となる特徴候補を、特徴のセットの次なる特徴として、順次、決定すること、を特徴とする特徴選択方法が提供される。
【0008】
前記各特徴選択方法において、前記特徴候補生成手段は、複素ガボール関数、又は、入力規格化した複素ガボール関数を特徴抽出関数とすることが好ましい。
【0009】
また、前記各特徴選択方法において、前記特徴決定手段は、前記各学習パターンに対して、前記特徴候補毎に予め定められたノイズパラメータによる操作を加えること、が好ましい。
【0010】
また、前記各特徴選択方法において、前記特徴決定手段が計算する、前記各特徴候補に対応する前記各学習パターンの特徴は、前記各学習パターンの該順位の特徴が予め定めた値となる確率を示すものであることも好ましい。
【0011】
また、本発明の第2の視点によれば、学習に用いる学習パターンを記憶保持する学習パターン記憶手段と、複数の特徴候補を生成する特徴候補生成手段と、前記特徴候補生成手段によって生成される特徴候補の中からパターン識別に適した特徴のセットを決定する特徴決定手段と、前記特徴決定手段により決定されている特徴のセットを記憶保持する特徴記憶手段と、分類テーブルを作成する分類テーブル作成手段と、を備えるシステムにおける学習パターンの分類方法であって、前記分類テーブル作成手段が、上記した各特徴選択方法によって決定されている特徴のセットを用いて、前記各学習パターンの各特徴を計算し、前記各学習パターンの各特徴と、クラス情報と、を配置してなる分類テーブルにより学習パターンを分類すること、を特徴とするパターン分類方法が提供される。
【0012】
上記したパターン分類方法において、前記特徴の値に関わらず、学習パターンを分類できる場合には、前記分類テーブル作成手段は、前記分類テーブルの対応する位置に、前記特徴の値に代えて、冗長項(don’t care項)を置くものとすることで、前記分類テーブルは、判定処理により好ましいものとなる。
【0013】
また、本発明の第3の視点によれば、パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムにおけるパターン判定方法において、前記特徴抽出手段は、請求項1から6のいずれか一に記載の特徴選択方法によって決定されている特徴のセットを用いて、入力されたパターンの各特徴を算出し、前記算出結果に基いて、パターン判定を行うこと、を特徴とするパターン判定方法が提供される。
【0014】
もちろん、前記パターン判定方法において、前記パターン判定手段は、上記したパターン分類方法により得られる分類テーブルを用いてパターン判定を行うことが好ましい。
【0015】
また、前記パターン判定方法において、前記入力パターンの各特徴は、上記した特徴選択方法によって順次決定されている特徴が予め定めた値となる確率の値である場合には、前記パターン判定手段は、前記各特徴を用いて、前記分類テーブルに含まれる各特徴パターンが、予め定めたクラス情報の値となる確率を計算して汎化性能の高い判定を行うことが可能となる。
【0016】
また、前記課題を解決するための別のパターン判定方法として、パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムにおけるパターン判定方法において、前記特徴抽出手段は、上記した各特徴選択方法によって決定されている特徴のセットを用いて、各特徴が予め定めた値となる確率を算出し、前記パターン判定手段は、前記各確率と、各特徴の決定の際に学習パターンが属する集合を、逐次記録してなる遷移テーブルと、に基いて、入力パターンの遷移を行って、前記遷移の経路に基いて、前記入力されたパターンが予め定められたクラス情報を有する確率を算出して、パターン判定を行うこと、を特徴とするパターン判定方法が提供される。
【0017】
前記パターン判定方法において、入力されたパターンの各特徴は、前記確率を示すものでなく、確定的な値を示すものであっても、処理時間の短縮の観点から好ましいものとなる。
【0018】
また、本発明の第4の視点によれば、上記した各方法を実施するためのプログラム並びに装置が提供される。
【0019】
【発明の実施の形態】
続いて、本発明の好ましい実施の形態について図面を参照して説明する。
【0020】
図1は本発明による特徴選択方法の第1の実施の形態のシステム構成を示すブロック図である。図1を参照すると、学習パターン記憶手段101と、特徴候補生成手段102と、特徴決定手段103と、特徴記憶手段104と、分類テーブル作成手段105と、分類テーブル106とが示されている。
【0021】
学習パターン記憶手段101は、所望の個数の学習に用いる学習パターンを記憶保持する手段である。
【0022】
特徴候補生成手段102は、予め定めた個数の特徴パラメータセットから特徴候補を順次生成する手段である。
【0023】
特徴決定手段103は、特徴候補生成手段によって生成された特徴候補の中からパターン識別に最適な特徴のセットを決定する手段である。
【0024】
特徴記憶手段104は、特徴決定手段103により決定される特徴のセットを記憶保持する手段である。
【0025】
分類テーブル作成手段105は、特徴決定手段103により決定される特徴のセットを用いてパターン判定を行うための分類テーブル106を作成する手段である。
【0026】
続いて、図面を参照して本発明の特徴選択方法の手順について説明する。図2は、本発明の特徴選択方法の処理の流れを説明するためのフローチャートである。
【0027】
まず、図2を参照すると、まず、特徴候補生成手段102は、特徴候補を生成する(ステップS001)。具体的には、特徴候補生成手段102は、予め設定しておく大量の(N個とする)特徴パラメータセットの中から、s番目(s=1〜N、s=1からスタートする)の特徴パラメータセット(k_s,r0_s,σ_s,th_s)を(k,r0,σ,th)に代入し、パラメータk,r0,σで規定される次式に例示する複素ガボール関数Gab、及び、ガウス関数Gを生成する。
【数1】
Figure 0003896868
【0028】
ここで、r=(x,y)は位置ベクトルを表し、i2=−1である。そして、特徴候補生成手段102は、(1)式の複素ガボール関数Gab、ガウス関数G、しきい値パラメータth、及び特徴候補の識別番号sとともに特徴決定手段103に送る(ステップS002)。
【0029】
学習パターン記憶手段101は、予め定めたM通りの学習パターン(画像)ft(r)(t=1〜M)と、各学習パターンが属するクラスqt(t=1〜M)との組を特徴決定手段103に対して送る(ステップS003)。なお、本実施の形態においては、説明を簡単にするためクラスは、2クラス(q=0又は1)であるものとして説明する。もちろん、3クラス以上の場合にも本発明の方法は適用可能である。
【0030】
特徴決定手段103は、学習パターン記憶手段101から順次受け取った学習パターンに対して、特徴候補((1)式に示した複素ガボール関数及びガウス関数並びにその他パラメータ)を用いて特徴cを次式に従って計算する(ステップS004)。ここでt番目の学習パターンをft(r)とし、すべての学習パターン(M個)について上記計算が繰り返される。
【数2】
Figure 0003896868
【0031】
(2)式の上段の式の分母はパターンの大きさ(画像の輝度)によるaの値の変動を抑えるための規格化(標準化)因子である。該分母の式は、別の形式の規格化因子に置き換えることも可能である。また、取り扱うパターンによっては、このような規格化因子を省いてもよい。
【0032】
以上のようにs番目の特徴候補(特徴パラメータセット)を用いて、各学習パターンに対して特徴cが計算されたら、次に特徴決定手段103はs番目の特徴候補から得られる相互情報量MIを次式に従って算出し、これを特徴候補の識別番号sとともに記憶しておく(ステップS005)。
【数3】
Figure 0003896868
【0033】
なお、ここで、Qはクラスの集合{q=0,q=1}であり、Mは、学習パターンの総数である。また、M(q)は、クラスqに属する学習パターンの総数、M(c)は、特徴がcである学習パターンの総数、M(q,c)は、特徴がcでありかつクラスqに属する学習パターンの総数である。
【0034】
また、(3)式中の<>はcに関する平均化操作、即ち、
【数4】
Figure 0003896868
【0035】
である。
【0036】
以上の操作に従って、次の(s+1)番目の特徴候補が特徴候補生成手段から送られ、同様の操作が繰り返される(ステップS002〜S005)。こうしてすべて(N個)の特徴候補に対応する相互情報量の計算が済んだ時点で、特徴決定手段103は、各特徴候補から得られる相互情報量を比較し、最大の相互情報量Max MI[Q;C]が得られる特徴候補を決定すべき特徴のセットの第1番目の特徴として決定する(ステップS006)。
【0037】
こうして第1番目の特徴が決定されたら、特徴決定手段103は、第2番目の特徴を決定する。上記と全く同様に、特徴決定手段103は、特徴候補を特徴候補生成手段102から順次受け取り(ステップS002)、各学習パターンに対して特徴cを算出する(ステップS003、S004)。なお、使用可能な記憶容量に応じて、上記した第1の特徴を決定する際のステップS004における特徴cの算出結果を記憶保持しておき、特徴決定手段103が、該記憶保持内容を読み出す操作に代えてもよい。s番目の特徴パラメータセットを用いて、各学習パターンに対して特徴cが計算された時点で、特徴決定手段は、既に決定されている第1番目の特徴cが既知であるという条件下で、s番目の特徴候補から得られる情報量MIを次式に従って算出し、これを特徴候補の識別番号sとともに記憶しておく(ステップS005)。
【数5】
Figure 0003896868
【0038】
なお、ここで、M(c)は、1番目の特徴がcである学習パターンの総数であり、M(q,c)は、1番目の特徴がcであり、かつクラスqに属する学習パターンの総数である。また、M(c,c)は、特徴がcで、かつ1番目の特徴がcである学習パターンの総数であり、M(q,c,c)は、特徴がcで、1番目の特徴がcで、かつクラスqに属する学習パターンの総数である。
【0039】
以上の操作に従って、次の(s+1)番目の特徴候補が特徴候補生成手段から送られ、同様の操作が繰り返される(ステップS002〜S005)。こうしてすべて(N個)の特徴候補に対応する相互情報量の算出が済んだ時点で、特徴決定手段103は各特徴候補から得られる条件付きの情報量MIを比較し、最大の情報量が得られる特徴候補を、決定すべき特徴のセットの第2番目の特徴として決定する(ステップS006)。
【0040】
以下同様に、第m番目の特徴までが決定されたら、第(m+1)番目の特徴cは、次式の評価関数MIm+1を最大にする特徴候補を採用する。
【数6】
Figure 0003896868
【0041】
上記したMIm+1は、第m番目までの特徴(c,c,...c)が既知であるという条件下で、特徴cから得られる情報量を表している。以上の手続きは、新しい特徴を選んでも、得られる情報量(追加の情報量)が、予め設定しておく閾値MI_thよりも小さくなるまで、続けられる。例えば、前記しきい値としてゼロが設定されている場合には、得られる情報量(追加の情報量)がゼロになるまで、即ち、終了条件が満たされるまで、次なる特徴を決定すべく、上記した手順が繰り返される。
【0042】
一方、この終了条件が満たされた時点で特徴決定手順は終了する。そして、決定された特徴のセットの各パラメータは特徴記憶手段104に記録される(ステップS007)。
【0043】
また、上記した特徴選択方法の一変形として、特徴候補生成手段が生成する特徴候補の数を減らす工夫を加えた、次のような構成が考えられる。例えば、各複素ガボール関数について、(2)式で算出されるaの値のクラス内平均値を、q=0のクラス、q=1のクラスそれぞれに対して予め調べておき、しきい値(th_s)の値をこれら2つのクラス内平均値の中間値に固定する構成が挙げられる。また、例えば、第1番目の特徴を決定する際に(3)式で各複素ガボール関数に対して相互情報量MIを計算するが、この時、各特徴候補に対してそれぞれ最大のMIを与えるしきい値(th_s)を記録しておき、第2番目以降の特徴を決定する場合には前記しきい値(th_s)の値を、そのまま固定するという構成が挙げられる。
【0044】
また、上記した実施の形態では、特徴候補を構成する特徴抽出関数として複素ガボール関数を用いているが、他の特徴抽出関数を加えても、場合によっては他の特徴抽出関数だけで特徴候補を構成してもよい。
【0045】
また、例えば、クラス毎に部分空間を構成し、その部分空間への距離を表す指標を特徴候補に加える変形も好ましい。また、ガウス関数を用いて計算されるある点の近傍の重み付き平均輝度、或いはガウス関数を用いて計算されるある点の近傍の重み付き平均輝度を、より広がりの大きいガウス関数を用いて計算される平均輝度で規格化したもの(即ち、ある点の近傍がその周辺よりも明るいか、暗いかを示す指標)を特徴候補に加えることも考えられる。その他、パターン判定で用いられる標準的な特徴を特徴候補に加えることが可能である。
【0046】
特徴の決定手順が完了し、決定されている特徴のセットが特徴記憶手段104に記録された時点で、パターン識別に用いるための分類テーブル106(図4参照)の作成が可能となる。以下、所望の手段により起動された分類テーブル作成手段105が、分類テーブル106作成する手順を説明する。
【0047】
まず、分類テーブル作成手段105は、学習パターン記憶手段101から各学習パターンを、特徴記憶手段104からは、上記ステップS007で記録された特徴のセットの各パラメータを(以下、全部でn個の特徴が決定されているものとする)受け取り、各学習パターンに対しそれぞれ各特徴の値(c,c,...c)、を上記(2)式に従って算出する。その上で学習パターンがq=1のクラスに属していれば1の標識を、q=0のクラスに属していれば0の標識を付加して、その学習パターンに対応する特徴ベクトル(c,c,...c)とともに分類テーブルに記録する。
【0048】
上記した手順により、各学習パターンを一意に分類する分類テーブルの作成が可能であるが、より好ましくは、冗長項(don’t care項)を用いることが好ましい。例えば、先頭からi番目までの特徴の値(c,c,...c)だけで、ある学習パターンの分類が可能である場合には、i+1番目以降の特徴ベクトルの値はdon’t careを表す記号に置き換えて記録する。
【0049】
上記した冗長項(don’t care項)を用いて、分類テーブルを作成する手順を図面を参照して説明する。図3は、本実施の形態における分類テーブルの作成処理の一例を示したフローチャートである。
【0050】
図3を参照すると、まず、分類テーブル作成手段105は、入力された学習パターンに対して、決定されている特徴のセットの各パラメータを用いて、特徴ベクトル(c,c,...c)の値を計算する(ステップS101、S102)。
【0051】
上記特徴ベクトルと一致する特徴ベクトルを有する学習パターンが分類テーブル中に、存在するか否か照合する(ステップS103)。但し、分類テーブルにdon’t careを表す記号が記されている場合には、それに対応する特徴の値はいかなるものであっても一致するものと見なして判定を行う。
【0052】
前記照合の結果、計算した特徴ベクトルと一致する特徴ベクトルを有する学習パターンが、分類テーブル中に、既に存在する場合は、該学習パターンを記録することなく、ステップS101に戻り、次の学習パターンの入力を行う。
【0053】
一方、一致するパターンが無い場合には、インクリメント変数i=1を設定して(ステップS104)、以下の処理を行う。まず、この学習パターンが属するクラス(例:q=0)以外のクラス(例:q=1)に属する学習パターンの中に、1番目からi番目までの特徴(c,c,...c)のすべてが、この学習パターンと一致する学習パターンがあるか否かを調べる(ステップS105)。
【0054】
その結果、一致する学習パターンが無い場合には、1番目からi番目までの特徴の値(c,c,...c)をこの学習パターンが属するクラスの標識(例:q=0)とともに分類テーブルに記録し、i+1番目以後の特徴ベクトルの値にはdon’t careを表す記号を記録する(ステップS106)。そして、ステップS101に戻り、次の学習パターンの入力を行う。
【0055】
逆に、この学習パターンと一致する学習パターンが1つでもある場合には、インクリメント変数iを1増加してステップS105に戻る。即ち、入力した特徴パターンのi番目までの特徴の値により自他識別可能になるまで、iを増加する処理を継続することとなる。
【0056】
以上の処理は、すべての学習パターンを入力するまで繰り返される。
【0057】
なお、以上の手続きのみでは学習パターンのすべてが分類できない場合が生じうる。例えば、異なるクラスに属する学習パターンが同じ特徴ベクトルを持つということが起こりうる。この場合には、それぞれのクラスに属する学習パターンの数を数えて、多い方のクラスをこの特徴ベクトルが表すクラスと定める等すればよい。
【0058】
もちろん、iを増加させつつ、特徴c1〜ciが一致するパターンをグループ化(細分化)してゆき、1のグループに1のパターンしか存在しない場合に、そのパターンのi+1以降の特徴をdon’t care項とする方法等も採用しうる。
【0059】
図4は、本発明により作成された分類テーブルの例である。図4を参照すると、各学習パターンのクラスの識別標識(q)と、特徴ベクトル(c,c,...c)とを格納するテーブルが示されている。なお、図4において記号「*」はdon’t careを表す記号である。
【0060】
続いて、図面を参照して、上記したパターン判定テーブルを用いて行うパターン判定方法について説明する。
【0061】
図5は、本発明のパターン判定方法の処理の流れを示すブロック図である。図5を参照すると、パターン入力手段201と、特徴抽出手段202と、パターン判定手段203とが示されている。また、特徴抽出手段202の特徴抽出のために用いる、決定済みの特徴のセットを記憶保持する特徴記憶手段104と、パターン判定手段203がパターン判定のために用いる、作成済みの分類テーブル106とが示されている。
【0062】
パターン入力手段201は、所望の媒体からパターンを入力するための手段である。例えば、入力パターンは、文字、図形、音声等、特に限定するものではないが、例えば、人の顔、指紋、網膜の画像や音声等を入力して、人の認識用の情報とすることが可能である。
【0063】
特徴抽出手段202は、決定された特徴のセットを用いて、パターン入力手段201から送られた入力パターンから、その特徴を抽出する手段である。
【0064】
パターン判定手段203は、特徴抽出手段202により得られた特徴に基いて、入力パターンの表す情報を判定する手段である。
【0065】
その作用は、まず、パターン入力手段201が、所望の媒体から入力パターンを取り込んで、特徴抽出手段202に対して送る。
【0066】
続いて、特徴抽出手段202が、該入力パターンに対して、特徴記憶手段104に記憶されている特徴のセット(上記の特徴決定手法によって決定されているもの)を用いて特徴ベクトル(c,c,...c)を(2)式に従って算出し、更に、前記算出結果をパターン判定手段203に送る。
【0067】
パターン判定手段203は、分類テーブル106を参照しながら、この特徴ベクトルと一致するものを検索し、そこに記録されているクラスの標識を読み出しそれを判定結果として出力する。この時、分類テーブル上にdon’t careを表す記号が記録されている場合には、パターン判定手段203は、それに対応する特徴の値がいかなるものであっても、当該部分については、一致するものとして判定を行う。
【0068】
ここで、上記した各手順によりパターンの特徴の決定並びにパターンの判定を行う本発明の利点を一層明確にすべく、本発明と決定木を用いる従来手法(ID3、C4.5等)との相違点について述べておく。
【0069】
ID3等も、決定木の各ノードにおける分類ルールを情報量最大化の基準に従って決定していく点においては、本発明と共通する。しかしながら、ID3やC4.5では、分類ルール(本発明の対応する言葉で換言すれば「特徴」)を、ノード毎に決定する。例えば、1番目の特徴cを決定した後で2番目の特徴を決定する場合を考えると、1番目の特徴cが1である場合、0である場合、それぞれの場合で異なる分類ルール(特徴)が決定されることになる。これに対して、本発明では、ノードの深さが同じ場合には、即ち、任意のn番目の特徴には、同一の特徴が決定される。この点が両者の大きな相違点である。
【0070】
もちろん、いずれの方法を採用する場合でも、学習パターンは完全に分類される。しかしながら、汎化性能、即ち、学習していないパターンに対する識別性能に大きな違いが現れる。簡単のために両者の木の深さが同じ場合(nとする)を考えると、ID3或いはC4.5では2個の特徴が決定されるのに対して、本発明ではn個の特徴だけが決定される。従って、本発明の方が、より単純な構造を持つことになる。該決定される特徴の個数の差は、問題がより困難になり、より深い木が必要になるに従って、指数関数的に拡大していくことに注意されたい。
【0071】
ところで、学習パターンに対する性能が同一の場合、より単純な構造の分類器の方が汎化性能に優れていることが、知られている。(「オッカムの剃刀」)。この点が、本発明による特徴選択方法及びそれを用いたパターン判定方法が、従来手法に比べて性能、とりわけ、汎化性能を大幅に向上できる理由である。
【0072】
続いて、学習パターンに実効的ノイズを加える本発明の第2の実施の形態について説明する。
【0073】
第2の実施の形態のシステム構成は、上記した第1の実施の形態の構成(図1参照)と略同様であり、その処理の流れも、上記した第1の実施の形態(図2〜図5参照)と略同様である。以下、第2の実施の形態が、上記した第1の実施の形態と相違する点についてのみ説明する。
【0074】
本実施の形態では、特徴候補生成手段102が用いる、大量(N個とする)の特徴パラメータセットとして(k_s,r0_s,σ_s,th_s)に加え、更に、ノイズパラメータσn_sが、予め設定されている(s=1〜N)。そして、第1の実施の形態のステップS001と同様に、特徴候補生成手段102は、s番目(s=1からスタートする)の特徴パラメータセット(k_s,r0_s,σ_s,th_s,σ_s)を(k,r0,σ,th,σ)に代入し、上記(1)式に従って複素ガボール関数、ガウス関数を生成する。そして、特徴候補生成手段102は、これらの複素ガボール関数、ガウス関数、しきい値パラメータth、ノイズパラメータσ及び特徴候補の識別番号sを特徴決定手段103に送る(図2のステップS002)。
【0075】
特徴決定手段103は、学習パターン記憶手段101から学習パターンを順次受け取り(図2のステップS003)、上記の複素ガボール関数及びガウス関数を用いて、次式に従って、特徴bを各学習パターンに対して計算する(図2のステップS004)。ここで、t番目の学習パターンをf(r)とする(t=1〜M)。
【数7】
Figure 0003896868
【0076】
(6)式のErf(x)は誤差関数である。なお、これは0以上1以下の値をとる別の非線形関数、例えば、シグモイド関数に置き換えることも可能である。
【0077】
以上のようにs番目の特徴パラメータセットを用いて、各学習パターンに対して特徴bが計算されたら、次に特徴決定手段103はs番目の特徴候補から得られる相互情報量MIを、上記(3)式に準じて、以下の要領で算出する(図2のステップS005)。
【0078】
まず、ある学習バターンに対して上記(6)式で計算される特徴の値がb(0≦b≦1)であった場合、この学習パターンに対して特徴cは、確率bで1、確率(1−b)で0をとるものと定める。そして、(3)式中のM(c)は、特徴がcである学習パターンの総数の期待値、同様にM(q,c)は特徴がcでありかつクラスqに属する学習パターンの総数の期待値、にそれぞれ置き換えて相互情報量MIを算出する。
【0079】
すべての特徴候補に対して相互情報量の計算が済んだ時点で、第1の実施の形態と全く同様に、特徴決定手段103は各特徴候補から得られる相互情報量を比較し、最大の情報量が得られる特徴候補を決定すべき特徴のセットの第1番目の特徴として決定する(図2のステップS006)。
【0080】
以下同様に、第m番目の特徴までが決定されたら、第(m+1)番目の特徴cm+1は、第m番目までの特徴(c,c,...c)が既知であるという条件下で、特徴cから得られる情報量MIm+1を最大にするように決定していく。但し、上記した第1の特徴の決定の際と同様に、相互情報量を計算する際には、学習パターンの各種総数はすべて対応する学習パターンの各種総数の期待値に置き換えて計算を行うものとする。例えば、MIを計算する場合、(4)式においては、M(c,c)は、「特徴がcで、かつ1番目の特徴がcである学習パターンの総数の期待値」に、M(q,c,c)は、「特徴がcで、1番目の特徴がcで、かつクラスqに属する学習パターンの総数の期待値」にそれぞれ置き換えて計算する。
【0081】
第1の実施の形態と同様に、以上の手続きは、新しい特徴を選んでも、得られる情報量(追加の情報量)が、予め設定しておく閾値よりも小さくなるまで、続けられる。そして、前記終了条件が満たされると、決定されている特徴のセットの各パラメータは特徴記憶手段104に記録される(図2のステップS007)。
【0082】
続いて、本実施の形態における別の分類テーブル作成の手順について、図面を参照して説明する。図6は、本実施の形態の分類テーブルの作成処理の一例を示したフローチャートである。なお、n個の特徴が特徴決定手段によって決定され、分類テーブルは、初期化(クリア)されているものとする。
【0083】
図6を参照すると、まず、分類テーブル作成手段105は、各学習パターンに対して、決定されている特徴のセットの各パラメータを用いて、各特徴b(b,b,...b)を(6)式に従って計算する(ステップS201、S202)。全学習パターンについての各特徴bの計算が完了すると、分類テーブル作成手段105は、s番目の特徴cが1となる確率をb、0となる確率を(1−b)定め、更に、j=1と初期化して、分類テーブル106に記録すべきパターンの選定処理を開始する(ステップS203)。
【0084】
まず、分類テーブル作成手段105は、1番目からj番目までの特徴(c,c,...c)のすべての組み合わせを生成する(ステップS204)。続いて、前記1番目からj番目までの特徴の全組み合わせと分類テーブル106に既に登録されている特徴ベクトルとを順次照合し(ステップS205)、前記1番目からj番目までの特徴の全組み合わせの中で、分類テーブル106に既に記録されている特徴ベクトルと一致している組み合わせを消去する(ステップS205−1)。この場合において、分類テーブル106にdon’t careを表す記号が記録されている特徴は、その値に関わらず一致しているものとして、取り扱う。
【0085】
そして、残った特徴パターン(c,c,...c)について、ステップS202において各学習パターン毎に計算した特徴bを用いて期待値の計算を行い、分類テーブル106に記録すべき条件に合致する特徴パターンの検索を行う(ステップS206)。より具体的には、残った特徴パターンの中から、順次、適当な特徴パターン(c,c,...c)を選択し、(1)前記特徴パターンであって、あるクラスqに属する学習パターンの総数の期待値が予め定めたしきい値以上で、(2)前記特徴パターンであって、それ以外のクラスに属する学習パターンの総数の期待値が、すべて予め定めた別のしきい値以下となる場合に、該特徴パターンをクラスqを表すパターンとし、標識qとともに分類テーブル106に記録する。その際、j+1番目からn番目までの特徴の欄にはdon’t careを表す記号を記録する(ステップS207)。
【0086】
上記検索の結果、条件に合致する特徴パターンが得られない場合は、j=j+1として、ステップS204に戻って、改めて、1番目からj番目までの特徴(c,c,...c)のすべての組み合わせを生成する。一方、n番目までの特徴における全組み合わせまで検索が完了した場合(j=n)であれば、終了する。
【0087】
続いて、本実施の形態における別のパターン判定の手順について、再度、図5を参照して説明する。
【0088】
まず、パターン入力手段201から入力された入力パターンに対して、特徴抽出手段202が、特徴記憶手段104に記憶されている特徴のセットを用いて特徴ベクトル(b,b,...b)を(6)式に従って算出し、これをパターン判定手段203に送る。この時、s番目の特徴c(s=1〜n)が1となる確率をb、0となる確率を(1−b)と定める。
【0089】
パターン判定手段203は分類テーブル106を参照しながら、入力パターンが各クラスに属する確率を算出する。より具体的には、以下のような手順で行われる。
【0090】
例えば、入力パターンがクラスq=0に属する確率を算出する場合を説明すると、まず、パターン判定手段203は、分類テーブル106の中からq=0の標識が記されている特徴パターン(c,c,...c)をすべて読み出す。ここで、その中の最初の特徴パターンが、例えば、(c,c,...c)=(1,0,*,*,...,*)であった場合を考える(記号「*」はdon’t careを表すものとする。)。入力パターンに対して特徴c,cがc=1,c=0となる確率は、b・(1−b)であるから、入力パターンの特徴ベクトルがこの特徴パターンと一致する確率もやはりb・(1−b)と算出される。なお、この特徴パターンの3番目以降の特徴はdon’t careとなっているため、3番目以降の特徴の値は、全体としての確率に影響を与えない。
【0091】
以上の要領で、パターン判定手段203は、入力パターンから計算した確率b、(1−b)を用いて、入力パターンの特徴ベクトルが、q=0に対応する各特徴パターンと一致する確率を算出し、その総計を求める。前記各確率の総計は、入力パターンがクラスq=0に属する確率と示すものとなる。パターン判定手段203はこうして算出された、入力パターンが各クラスに属する確率を比較し、最大の確率を与えるクラスを判定結果として出力する。
【0092】
場合によっては、更に、予め定めておくしきい値と比較し、該しきい値との比較によって棄却判定(判定不能)を出力するという構成も当然可能である。
【0093】
また、更に、処理時間を短縮するためには、分類テーブルだけを本実施の形態で説明した方法で作成し、パターン判定処理は第1の実施の形態で説明した方法で行うことでもよい。この場合には、入力パターンに対する特徴ベクトルは(2)式に従って算出すればよい。
【0094】
以上説明した本発明の第2の実施の形態によれば、学習パターンに実効的にノイズを加えた効果があるので、よりマージンの大きな特徴のセットが選択される。このため、第1の実施の形態の場合よりも、更に汎化性能(学習パターン以外のパターンに対する識別性能)が向上するという特長を持つことになる。
【0095】
続いて、本発明の第3の実施の形態について、図面を参照して説明する。本実施の形態においても、上記した第1、第2の実施の形態と同様に、3クラス以上の場合に拡張することは容易であるが、説明の便宜のため、2クラスの場合(q=0 or 1)について説明する。
【0096】
図7は、本発明による特徴選択方法の第3の実施の形態のシステム構成を示すブロック図である。図7を参照すると、学習パターン記憶手段301と、特徴候補生成手段302と、特徴決定手段303と、特徴記憶手段304と、遷移テーブル305とが示されている。以下、上記した各実施の形態と同一の部分は、省略して、説明する。
【0097】
特徴決定手段303は、特徴候補生成手段によって生成された特徴候補の中からパターン識別に最適な特徴のセットを決定する手段である。また、本実施の形態における特徴決定手段303は、本実施の形態の特徴決定手順の過程で得られるパラメータを記録してなる、遷移テーブル305を作成する。
【0098】
遷移テーブル305は、後述するパターン判定処理に用いるパラメータを記録してなるテーブルである。
【0099】
続いて、手順の説明の前に、各パラメータ等の説明をする。
【0100】
学習パターンは、M個用意されているものとする。また、L個の集合群Di(i=1〜L)と、これと対になる集合群D'i(i=1〜L)を用意する。ここで、Lは、予め定めておく自然数であり、本実施の形態では、L=64を採用するものとして説明する。
【0101】
続いて、図面を参照して、本実施の形態による特徴選択方法の手順について説明する。本実施の形態における、第1の特徴を決定するまでの手順は、上記した第2の実施の形態の場合と全く同一である。
【0102】
図8、図9、図10は、本発明の特徴選択方法の処理の流れを説明するためのフローチャートである。図8を参照すると、第1の特徴が決定されると(ステップS301)、特徴決定手段303は、集合D、及びD'(各i=1〜L)をそれぞれ初期化する(ステップS302)。ここでは、L=64としているため、D〜D64及びD'〜D'64の集合について、初期化する(クリアし空集合にする)処理がなされる。
【0103】
特徴順位パラメータmは、m=2とする。これは、第2の特徴から本手順を開始するためである。
【0104】
続いて、特徴決定手段303は、既に決定されている第1の特徴パラメータを用いて、各学習パターンに対して特徴bを(6)式に従って算出する(ステップS303〜S305)。
【0105】
続いて、特徴決定手段303は、各学習パターンをそれぞれ重みbで集合Eに、重み(1−b)で集合Eに分配する(ステップS306)。
【0106】
続いて、特徴決定手段303は、次式に従ってP(q=1|E)、及びP(q=1|E)を、計算する。
【数8】
Figure 0003896868
【0107】
なお、M(E)、M(E)は、それぞれ集合E,Eに属する学習パターンの重みの総計であり、M(q=1|E)、M(q=1|E)は、クラスq=1に属し、かつそれぞれ集合E,Eに属する学習パターンの重みの総計である。
【0108】
続いて、特徴決定手段303は、上記の通り分配がなされた集合E,Eの内容を、前記予め用意した集合群(D)から次式により決定される集合D、D 'にそれぞれコピーする(ステップS307)。
【数9】
Figure 0003896868
【0109】
但し、ここで、d_jは、次式のとおり予め定める定数である(j=1〜L−1)。次式によれば、定数d_jは、0以上1以下の間の値をとり、jの値に応じて略S字状に増加するものとなっている。例えば、P(q=1|E)=0.15であれば、d_29=0.111・・・,d_30=0.2より、(8)式上段の式を満たすj=30が決定され、D30にEが、コピーされる。同様に、P(q=1|E)=0.7であれば、d_33=0.666・・・,d_34=0.8より、(8)式下段の式を満たすj’=34が決定され、D34にEがコピーされる。
【数10】
Figure 0003896868
【0110】
もちろん、上式は、集合Di、及びD'iの個数に応じ、かつ、本実施の形態において取扱いが容易になるよう定めたものであって、特に限定するものではない。
【0111】
ここで、特徴決定手段303は、遷移テーブル305に(1,j,j’)を記録する(ステップS307)。例えば、j=30,j=34であれば、(1,30,34)が遷移テーブルに記録される。(図11参照)。これは後のパターン判定処理の際に使用されるもので、1番目の特徴がc=1であったら集合Dに、c=0であったら集合D 'にそれぞれ遷移すべきことを意味している。
【0112】
続いて、図9を参照すると、まず、特徴決定手段303は、s番目(s=1〜N、s=1からスタートする)の特徴候補を用いて、各学習パターンに対して、(6)式に従って、特徴bを計算する(ステップS309〜S312)。この時、上記した第2の実施の形態の場合と同様に、各学習パターンに対して特徴cは、確率bで1、確率(1−b)で0をとるものと定める。
【0113】
続いて、特徴決定手段303は、s番目の特徴候補から得られる情報量MI’を次式に従って計算する(ステップS313)。
【数11】
Figure 0003896868
【0114】
なお、ここで、M(Di)は、集合Diに入る学習パターンの重みの総計をであり、M(q,Di)は、集合Diに入り、かつクラスqに属する学習パターンの重みの総計である。但し、iについての和は、M(Di)がゼロでない場合についてのみとるものとする。また、M(c,Di)は、特徴がcで、かつ集合Diに入る学習パターンの重みの総計の期待値であり、M(q,c,Di)は、特徴がcで、集合Diに入り、かつクラスqに属する学習パターンの重みの総計の期待値である。
【0115】
こうして、s=Nとなるまで、各学習パターン毎に特徴bの計算処理が行われ、すべての特徴候補に対して情報量MI’の計算が済んだ時点で、特徴決定手段303は、これらを比較し、最大の情報量が得られる特徴候補を決定すべき特徴のセットの第m番目の特徴として決定する(ステップS314)。
【0116】
上記の通り最大の情報量が得られる第m番目の特徴が決定すると、特徴決定手段303は、すべての集合Di(D〜D64)に対して次の操作を行う。
【0117】
図10を参照すると、特徴決定手段303は、上記決定された第m番目の特徴パラメータを用いて、各学習パターンに対して特徴bを(6)式に従って算出しDiに属する各学習パターンを、重みb:(1−b)の割合で集合E及び、集合Eに分配する(ステップS315〜S318、図13参照)。
【0118】
続いて、特徴決定手段303は、(7)式に従ってP(q=1|E)、及びP(q=1|E)を、計算する。
【0119】
続いて、特徴決定手段303は、上記の通り分配がなされた集合E,Eの内容を、前記予め用意した集合群(D')から(8)式により決定されるD'、D' 'にそれぞれ加える(ステップS319)。例えば、図13に示されたとおり、P(q=1|E)=0.05であれば、(8)式の上段の式を満たすj=28が決定され、D'28にEが加えられる。同様に、P(q=1|E)=0.3であれば、(8)式の下段の式を満たすj’=31が決定され、D'31にEが加えられる(図13参照)。
【0120】
ここで、特徴決定手段303は、遷移テーブル305に(m,i,j,j’)を記録する(ステップS320)。例えば、m=2,i=30,j=28,j'=31であれば、図11の遷移テーブルに示されたとおり、対応する位置(m=2,i=30)に(j=28,j'=31)が記録される。前記記録内容は、m番目の特徴がc=1であったら集合Dに、c=0であったら集合D 'にそれぞれ遷移すべきことを意味しており、後述するパターン判定の際に使用される。
【0121】
すべての集合Di(i=1〜L)に対して以上の操作が終了した場合には、特徴決定手段303は、集合D'i(i=1〜L)を集合Di(i=1〜L)にコピーし、後続する第m+1番目の特徴を決定すべく、集合D'i(i=1〜L)を初期化(クリア)する(ステップS321、図13参照)。
【0122】
以上の手続きは、新しい特徴を選んでも、ステップS314で得られる情報量(追加の情報量)が、予め設定しておくしきい値MI_thよりも小さくなるまで、続けられる。従って、前記終了条件を満たしていない限り、特徴決定手段303は、次なる第m+1番目の特徴を決定すべく、m=m+1としてステップS309の手順に戻ることとなる(ステップS322)。
【0123】
一方、前記終了条件が満たされると、決定されている特徴のセットの各パラメータは特徴記憶手段304に記録される(ステップS323)。
【0124】
ここで、上記した本発明の第3の実施の形態において、生成される判定処理に用いることのできる遷移テーブルについて説明する。図11は、こうした遷移テーブルの一例である。図11を参照すると、第1の特徴に対する遷移先の集合を示した第1の部分と、第2の特徴以降の各特徴に対する遷移先の集合を、特徴順位パラメータmと、集合番号パラメータiと、各特徴の値Cmと、により示した第2の部分とからなっている。
【0125】
更に、図11の遷移テーブルの第1の部分を参照すると、c=1に対応する欄に「30」が記載され、c=0に対応する欄に「34」が記載されている。これは、「1番目の特徴がc=1であったら集合D30に、c=0であったら集合D34にそれぞれ遷移させる」べきことを示している。また、図11の遷移テーブルの第2の部分のm=2、i=30の欄を参照すると、c=1に対応する欄に「28」が記載され、c=0に対応する欄に「31」が記載されている。これは、「集合D30に属しているパターンは、第2番目の特徴がc=1であったら集合D28に、c=0であったら集合D31にそれぞれ遷移させる」べきことを示している。
【0126】
なお、図11の第2の部分の各欄中の記号「−」は空欄であることを示している。例えば、第2番目の特徴cの値に基く遷移先を記した行(m=2)においては、集合D30及びD34に対応する列(i=30、34)以外の欄は空欄「−」になっている。これは、前記1番目の特徴に対応する遷移先の集合が「30」又は「34」となっていることに対応したものである。即ち、図11の遷移テーブルによれば、入力パターンは、前記第1の特徴によって、必ずD30或いはD34の集合に遷移され、他の欄を参照する必要がないためである。
【0127】
なお、図11の遷移テーブルによれば、第1の特徴と、第2番目以降の特徴に対する遷移先の集合を記載した部分を分けて記載しているが、特徴順位パラメータmと、集合番号パラメータiと、各特徴の値Cmと、により、遷移先の集合をあらわし得るものであれば、特に限定するものではないことはもちろんである。例えば、図12に示すように、図11の第1の部分と第2の部分を統合させたものであってもよい。
【0128】
続いて、本実施の形態におけるパターン判定の手順について、図面を参照して説明する。図14は、こうして決定されている特徴のセットを用いてパターン判定を行うパターン判定方法を示すブロック図である。図14を参照すると、パターン入力手段401と、特徴抽出手段402と、パターン判定手段403とが示されている。また特徴抽出手段402が特徴抽出のために用いる特徴記憶手段304、パターン判定手段403がパターン判定のために用いる遷移テーブル305が示されている。
【0129】
その作用は、まず、パターン入力手段401が、所望の媒体から入力パターンを取り込んで、特徴抽出手段402に対して送る。
【0130】
続いて、特徴抽出手段402が、該入力パターンに対して、特徴記憶手段304に記憶されている特徴のセット(上記の特徴決定手法によって決定されているもの)を用いて特徴ベクトル(b,b,...b)を(6)式に従って算出し、更に、前記算出結果をパターン判定手段403に送る。
【0131】
この時、特徴c(s=1〜n)が1となる確率をb、0となる確率を(1−b)と定める。パターン判定手段403は、順次遷移テーブル305を参照し、入力パターンが各クラスに属する確率を算出する。この手続きは以下のように進める。
【0132】
まず、パターン判定手段403は、第1の特徴に基く遷移規則(1,j、j')を読み出し、状態jに確率bで、状態j’に確率(1−b)で遷移させる。次に、パターン判定手段403は、第2の特徴cが1となる確率をb、cが0となる確率を(1−b)として、第2の特徴に基く遷移規則を読み出し、状態を更に遷移させる。例えば、第2の特徴に基く遷移規則に(2,j、k,k')、(2,j'、k”,k''')と記されていたら、状態jからは確率bで状態kに、確率(1−b)で状態k'に、状態j'からは確率bで状態k”に、確率(1−b)で状態k'''に、それぞれ遷移することとなる。従って、この場合、状態kにいる確率はb・b、状態k’にいる確率はb・(1−b)、状態k”にいる確率は(1−b)・b、状態k'''にいる確率は(1−b)・(1−b)で、それぞれ与えられることになる。以下同様に、パターン判定手段403は、第nの特徴までを用いて、遷移テーブルを参照しながら状態を遷移させていく。
【0133】
このようにして、第nの特徴までを用いて状態を遷移させた結果、各状態jにいる確率がP(j)(j=1〜L)と算出されたものとする。この時、入力パターンがクラスq=1に属する確率P(q=1)を次式により求めることが可能となる。
【数12】
Figure 0003896868
【0134】
パターン判定手段403は、この確率P(q=1)が、予め定めておくしきい値よりも大であれば「入力はクラスq=1に属する」ものと判定し、その結果を出力する。また、この確率P(q=1)が、前記しきい値よりも小であれば、棄却ないし判定不能と判定し、その結果を出力する。もちろん、前記しきい値として、採択臨界値と棄却臨界値との2つを設けること、境界領域にある場合は、判定不能とすること等、種々の変形実施が可能である。
【0135】
なお、本実施の形態においては、(11)式によってP(q=1|j)の値を決定することとしているが、学習パターンを用いて、次のように決定することとしてもよい。即ち、各学習パターンfi(r)(i=1〜M)を遷移テーブルに従って遷移させるとともに、各学習パターンの特徴ベクトル(b,b,...b)に基いて、それぞれが最終的に状態jにいる確率P(i,j)、を算出する。次にクラスq=1に属する学習パターンについてのみこのP(i,j)の値を総計したものをP1(j)、すべての学習パターンについてP(i,j)を総計したものをPtotal(j)とし、P(q=1|j)=P1(j)/Ptotal(j)によってP(q=1|j)の値を決定する。
【0136】
本実施の形態におけるパターン判定のための処理時間を短縮するための変形として、遷移テーブル305だけを本実施の形態の方法で作成し、入力パターンに対する特徴ベクトルは(2)式に従って算出する方法を採ることができる。この場合には、判定処理では確率的な動作を行わず、(2)式で得られる特徴ベクトルに従って、状態を確定的に遷移させてパターン判定を行う構成が実現される。また、この場合、遷移テーブルに従って状態を遷移させる際には、各段階において状態を確定的に遷移させることができるため、第nの特徴までを用いて状態を遷移させると、最終的には状態は1〜Lの中のある特定の状態jに確定する。そして、この状態jに対応する(11)式のP(q=1|j)の値を調べて、これが予め定めておくしきい値よりも大であれば「入力はクラスq=1に属する」ものと判定し、その結果を出力するものとすればよい。
【0137】
以上説明した、本発明の第3の実施の形態では、第2の実施の形態と同様に、学習パターンに実効的にノイズを加えた効果があるため、よりマージンの大きな特徴のセットが選択されるという特長が、具現される。
【0138】
更に、本発明の第3の実施の形態では、特徴選択のための計算が、上記した第2の実施の形態の場合と比較して大幅に削減できる、という特長が、具現される。その理由は、選択される特徴の数nが大きくなっても、特徴選択に必要な計算は、高々L個の集合を特徴に応じて分割した際に得られる情報量の計算((9)式)によって実現できる点にある。
【0139】
また、更に、本発明の第3の実施の形態では、一旦分類された学習パターンを集合Diに適時マージしながら情報量の計算が行われるため、各集合Diに属する学習パターンの数が極度に少なくなることが避けられる。この結果、学習パターンに依存して特徴が選択されてしまうような現象が少なくなり、汎化性能を更に高めることができる、という特長が、具現されている。
【0140】
【発明の効果】
以上説明したように、本発明によれば、高性能のパターン識別を、膨大な学習を要することなく実現することが可能となる。その理由は、既に決定されている特徴の値自体には依存せずに、後続する特徴を一意に選択する手法を提供したこと、にある。
【0141】
また、本発明によれば、識別性能(汎化性能)の大幅な向上が実現される。その理由は、分類器としての構造を大幅に単純化できる構成を提供したことにある。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の特徴選択方法を行うシステムの構成を示すブロック図である。
【図2】本発明の第1の実施の形態の特徴選択方法を説明するためのフローチャートである。
【図3】本発明による分類テーブルの作成処理の一例を示したフローチャートである。
【図4】本発明により作成された分類テーブルの一例である。
【図5】本発明の第1の実施の形態のパターン判定方法を行うシステムの構成を示すブロック図である。
【図6】本発明による分類テーブルの作成処理の別の一例を示したフローチャートである。
【図7】本発明の第3の実施の形態の特徴選択方法を行うシステムの構成を示すブロック図である。
【図8】本発明の第3の実施の形態の特徴選択方法を説明するためのフローチャートである。
【図9】本発明の第3の実施の形態の特徴選択方法を説明するためのフローチャートである。
【図10】本発明の第3の実施の形態の特徴選択方法を説明するためのフローチャートである。
【図11】本発明により作成された遷移テーブルの一例である。
【図12】本発明により作成された遷移テーブルの別の一例である。
【図13】本発明の第3の実施の形態で行われる集合間の遷移を簡便に表した図である。
【図14】本発明の第3の実施の形態のパターン判定方法を行うシステムの構成を示すブロック図である。
【符号の説明】
101 学習パターン記憶手段
102 特徴候補生成手段
103 特徴決定手段
104 特徴記憶手段
105 分類テーブル作成手段
106 分類テーブル
201 パターン入力手段
202 特徴抽出手段
203 パターン判定手段
301 学習パターン記憶手段
302 特徴候補生成手段
303 特徴決定手段
304 特徴記憶手段
305 遷移テーブル
401 パターン入力手段
402 特徴抽出手段
403 パターン判定手段

Claims (27)

  1. クラス情報が付された学習パターンを記憶保持する学習パターン記憶手段と、複数の特徴候補を生成する特徴候補生成手段と、前記特徴候補生成手段によって生成される特徴候補の中からパターン識別に適した特徴のセットを決定する特徴決定手段と、を備えるシステムにおける特徴選択方法において、
    前記特徴決定手段が、
    前記学習パターンを特徴の値に応じて遷移させるべき、予め定めた個数の集合を用意し、
    前記各特徴候補に対応する各学習パターンの特徴を計算して、前記学習パターン集合のクラス情報との相互情報量が最大となる特徴候補を、特徴のセットの最初の特徴として決定し、
    前記各学習パターンを、決定した特徴に応じた重みを付けて、分配するとともに、決定した特徴に対応する集合に、順次、遷移させ、
    前記各学習パターンが含まれる集合についての情報と、決定されている特徴とが既知であるとの条件の下で、各特徴候補に対応する各学習パターンの特徴と、前記各学習パターンのクラス情報との相互情報量が最大となる特徴候補を、特徴のセットの次なる特徴として、順次、決定すること、
    を特徴とする特徴選択方法。
  2. 請求項1に記載の特徴選択方法において、
    前記特徴候補生成手段が生成する特徴候補には、複素ガボール関数を特徴抽出関数とする特徴候補が含まれること、
    を特徴とする特徴選択方法。
  3. 請求項1に記載の特徴選択方法において、
    前記特徴候補生成手段が生成する特徴候補には、複素ガボール関数を規格化した特徴抽出関数から得られる特徴候補が含まれること、
    を特徴とする特徴選択方法。
  4. 請求項1ないし3いずれか一に記載の特徴選択方法において、
    前記特徴決定手段は、
    前記各学習パターンに対して、前記特徴候補毎に予め定められたノイズパラメータによる操作を加えること、
    を特徴とする特徴選択方法。
  5. 請求項1ないし4いずれか一に記載の特徴選択方法において、
    前記特徴決定手段は、
    前記各特徴候補に対応する前記各学習パターンの特徴として、
    前記各学習パターンの特徴が、予め定めた値をとる確率を計算すること、
    を特徴とする特徴選択方法。
  6. 学習に用いる学習パターンを記憶保持する学習パターン記憶手段と、複数の特徴候補を生成する特徴候補生成手段と、前記特徴候補生成手段によって生成される特徴候補の中からパターン識別に適した特徴のセットを決定する特徴決定手段と、前記特徴決定手段により決定されている特徴のセットを記憶保持する特徴記憶手段と、分類テーブルを作成する分類テーブル作成手段と、を備えるシステムにおける学習パターンの分類方法であって、
    前記分類テーブル作成手段が、
    請求項1ないし5のいずれか一に記載の特徴選択方法によって決定されている特徴のセットを用いて、前記各学習パターンの各特徴を計算し、
    前記各学習パターンの各特徴と、クラス情報と、を配置してなる分類テーブルにより学習パターンを分類すること、
    を特徴とするパターン分類方法。
  7. 請求項6に記載のパターン分類方法において、
    前記特徴の値に関わらず、学習パターンを分類できる場合には、
    前記分類テーブル作成手段は、
    前記分類テーブルの対応する位置に、前記特徴の値に代えて、冗長項を置くこと、
    を特徴とするパターン分類方法。
  8. パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムにおけるパターン判定方法において、
    前記特徴抽出手段は、
    請求項1から5のいずれか一に記載の特徴選択方法によって決定されている特徴のセットを用いて、入力されたパターンの各特徴を算出し、
    前記算出結果に基いて、パターン判定を行うこと、
    を特徴とするパターン判定方法。
  9. 請求項8に記載のパターン判定方法において、
    前記パターン判定手段は、
    請求項6又は7に記載のパターン分類方法により得られる分類テーブルを用いてパターン判定を行うこと、
    を特徴とするパターン判定方法。
  10. 請求項9に記載のパターン判定方法において、
    前記入力パターンの各特徴は、請求項1ないし5のいずれか一に記載の特徴選択方法によって順次決定されている特徴が予め定めた値となる確率の値であって、
    前記パターン判定手段は、
    前記各特徴を用いて、
    前記分類テーブルに含まれる各特徴パターンが、予め定めたクラス情報の値となる確率を計算して判定を行うこと、
    を特徴とするパターン判定方法。
  11. パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムにおけるパターン判定方法において、
    前記特徴抽出手段は、
    請求項1ないし5のいずれか一に記載の特徴選択方法によって決定されている特徴のセットを用いて、入力されたパターンの各特徴を算出し、
    前記パターン判定手段は、
    前記入力されたパターンの各特徴と、
    請求項1に記載の特徴選択方法による特徴のセットの各特徴の決定の際に学習パターンが属する集合を、逐次記録してなる遷移テーブルと、
    に基いて、入力パターンの遷移を行って、
    前記遷移の結果、前記入力されたパターンが属する集合に基いてパターン判定を行うこと、
    を特徴とするパターン判定方法。
  12. パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムにおけるパターン判定方法において、
    前記特徴抽出手段は、
    請求項1ないし5のいずれか一に記載の特徴選択方法によって決定されている特徴のセットを用いて、各特徴が予め定めた値となる確率を算出し、
    前記パターン判定手段は、
    前記各確率と、
    請求項1に記載の特徴選択方法による各特徴の決定の際に学習パターンが属する集合を、逐次記録してなる遷移テーブルと、
    に基いて、入力パターンの遷移を行って、
    前記遷移の経路に基いて、前記入力されたパターンが予め定められたクラス情報を有する確率を算出して、パターン判定を行うこと、
    を特徴とするパターン判定方法。
  13. クラス情報が付された学習パターンを記憶保持する学習パターン記憶手段と、複数の特徴候補を生成する特徴候補生成手段と、前記特徴候補生成手段によって生成される特徴候補の中からパターン識別に適した特徴のセットを決定する特徴決定手段と、を備えるシステムを構成するコンピュータに実行させるプログラムであって、
    前記学習パターンを特徴の値に応じて遷移させるべき、予め定めた個数の集合を用意する処理と、
    前記各特徴候補に対応する各学習パターンの特徴を計算して、前記学習パターン集合のクラス情報との相互情報量が最大となる特徴候補を、特徴のセットの最初の特徴として決定する処理と、
    前記各学習パターンを、決定した特徴に応じた重みを付けて、分配するとともに、決定した特徴に対応する集合に、順次、遷移させる処理と、
    前記各学習パターンが含まれる集合についての情報と、決定されている特徴とが既知であるとの条件の下で、各特徴候補に対応する各学習パターンの特徴と、前記各学習パターンのクラス情報との相互情報量が最大となる特徴候補を、特徴のセットの次なる特徴として、順次、決定する処理との、
    前記各処理を前記コンピュータに実行させて特徴の選択を行うプログラム。
  14. 請求項13に記載のプログラムにおいて、
    前記特徴候補には、複素ガボール関数を特徴抽出関数とする特徴候補が含まれること、
    を特徴とするプログラム。
  15. 請求項13に記載のプログラムにおいて、
    前記特徴候補生成手段が生成する特徴候補には、複素ガボール関数を規格化した特徴抽出関数から得られる特徴候補が含まれること、
    を特徴とするプログラム。
  16. 請求項13ないし15いずれか一に記載のプログラムにおいて、
    前記各学習パターンに対して、前記特徴候補毎に予め定められたノイズパラメータによる操作を加える処理を、更に、
    前記コンピュータに実行させるプログラム。
  17. 請求項13ないし16いずれか一に記載のプログラムにおいて、
    前記コンピュータは、
    前記各特徴候補に対応する前記各学習パターンの特徴として、
    前記各学習パターンの特徴が、予め定めた値をとる確率を計算すること、
    を特徴とするプログラム。
  18. 学習に用いる学習パターンを記憶保持する学習パターン記憶手段と、複数の特徴候補を生成する特徴候補生成手段と、前記特徴候補生成手段によって生成される特徴候補の中からパターン識別に適した特徴のセットを決定する特徴決定手段と、前記特徴決定手段により決定されている特徴のセットを記憶保持する特徴記憶手段と、分類テーブルを作成する分類テーブル作成手段と、を備えるシステムを構成するコンピュータに実行させるプログラムであって、
    請求項13ないし17いずれか一に記載のプログラムの実行によって決定された特徴のセットを用いて、前記各学習パターンの各特徴を計算する処理と、
    前記各学習パターンの各特徴と、クラス情報と、を配置してなる分類テーブルにより学習パターンを分類する処理との、
    前記各処理を前記コンピュータに実行させて学習パターンの分類を行うプログラム。
  19. 請求項18に記載のプログラムにおいて、
    前記特徴の値に関わらず、学習パターンを分類できる場合には、
    前記分類テーブルの対応する位置に、前記特徴の値に代えて、冗長項を置くこと、
    を特徴とするプログラム。
  20. パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムを構成するコンピュータに実行させるプログラムであって、
    少なくとも、請求項13ないし17のいずれか一に記載のプログラムの実行によって決定された特徴のセットを用いて、入力されたパターンの各特徴を算出する処理を、前記コンピュータに実行させて、
    該実行結果に基いてパターンの判定を行うプログラム。
  21. 請求項20に記載のプログラムにおいて、
    前記コンピュータは、請求項18又は19に記載のプログラムの実行により得られる分類テーブルを用いてパターン判定を行うこと、
    を特徴とするプログラム。
  22. 請求項21に記載のプログラムにおいて、
    前記コンピュータが算出する前記入力パターンの各特徴は、請求項13ないし17のいずれか一に記載のプログラムの実行によって順次決定された特徴が予め定めた値となる確率の値であって、
    前記コンピュータは、前記各特徴を用いて、
    前記分類テーブルに含まれる各特徴パターンが、予め定めたクラス情報の値となる確率を計算して判定を行うこと、
    を特徴とするプログラム。
  23. パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムを構成するコンピュータに実行させるプログラムであって、
    請求項13ないし17のいずれか一に記載のプログラムの実行によって決定されている特徴のセットを用いて、入力されたパターンの各特徴を算出する処理と、
    前記入力されたパターンの各特徴と、請求項13に記載のプログラムの実行による各特徴の決定の際に学習パターンが属する集合を、逐次記録してなる遷移テーブルと、に基いて、入力パターンの遷移を行う処理との、
    前記各処理を前記コンピュータに実行させて、前記入力されたパターンが属する集合に基いて入力されたパターンの判定を行うプログラム。
  24. パターンを入力するパターン入力手段と、前記パターンから特徴を抽出する特徴抽出手段と、前記特徴に基いてパターンを判定するパターン判定手段と、決定された特徴のセットを記憶保持する特徴記憶手段と、を備えるシステムを構成するコンピュータに実行させるプログラムであって、
    請求項13ないし17のいずれか一に記載のプログラムの実行によって決定されている特徴のセットを用いて、各特徴が予め定めた値となる確率を算出する処理と、
    前記各確率と、請求項13に記載のプログラムの実行による各特徴の決定の際に学習パターンが属する集合を、逐次記録してなる遷移テーブルと、に基いて、入力パターンの遷移を行う処理と、
    前記遷移の経路に基いて、前記入力されたパターンが予め定められたクラス情報を有する確率を算出する処理との、
    前記各処理を前記コンピュータに実行させて、前記算出結果に基いて、入力されたパターンの判定を行うプログラム。
  25. 請求項13ないし17のいずれか一に記載のプログラムを実行可能に保持して、学習パターンの特徴の選択を行うパターン学習システム。
  26. 請求項18又は19に記載のプログラムを実行可能に保持して、学習パターンの分類を行うパターン分類システム。
  27. 請求項20ないし24のいずれか一に記載のプログラムを実行可能に保持して、入力されたパターンの判定を行うパターン判定システム。
JP2002051113A 2002-02-27 2002-02-27 パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置 Expired - Lifetime JP3896868B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2002051113A JP3896868B2 (ja) 2002-02-27 2002-02-27 パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置
CN03804780.2A CN1653486B (zh) 2002-02-27 2003-02-27 模式的特征选择方法、分类方法、判定方法
US10/505,903 US7634140B2 (en) 2002-02-27 2003-02-27 Pattern feature selection method, classification method, judgment method, program, and device
EP03707148A EP1480167A4 (en) 2002-02-27 2003-02-27 STRUCTURE CHARACTERISTIC SELECTION METHOD, CLASSIFICATION METHOD, JUDGING METHOD, PROGRAM, AND DEVICE
PCT/JP2003/002264 WO2003073381A1 (fr) 2002-02-27 2003-02-27 Procede de selection de caracteristique de structure, procede de classement, procede de jugement, programme et dispositif

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002051113A JP3896868B2 (ja) 2002-02-27 2002-02-27 パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置

Publications (2)

Publication Number Publication Date
JP2003256839A JP2003256839A (ja) 2003-09-12
JP3896868B2 true JP3896868B2 (ja) 2007-03-22

Family

ID=27764298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002051113A Expired - Lifetime JP3896868B2 (ja) 2002-02-27 2002-02-27 パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置

Country Status (5)

Country Link
US (1) US7634140B2 (ja)
EP (1) EP1480167A4 (ja)
JP (1) JP3896868B2 (ja)
CN (1) CN1653486B (ja)
WO (1) WO2003073381A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7197180B2 (en) * 2001-05-30 2007-03-27 Eaton Corporation System or method for selecting classifier attribute types
US7869647B2 (en) * 2004-04-02 2011-01-11 Agilent Technologies, Inc. System and method for processing training data for a statistical application
JP4496943B2 (ja) 2004-11-30 2010-07-07 日本電気株式会社 病理診断支援装置、病理診断支援プログラム、病理診断支援装置の作動方法、及び病理診断支援システム
JP4490876B2 (ja) * 2005-06-01 2010-06-30 日本電信電話株式会社 コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体
JP4715389B2 (ja) * 2005-08-24 2011-07-06 日本電信電話株式会社 パターン認識方法及び装置及びプログラム
CN100354864C (zh) * 2005-08-26 2007-12-12 清华大学 数据挖掘中一种基于混合互信息的特征选择方法
US20070162505A1 (en) * 2006-01-10 2007-07-12 International Business Machines Corporation Method for using psychological states to index databases
CN100367300C (zh) * 2006-07-07 2008-02-06 华中科技大学 一种基于人工神经网络的特征选择方法
US7853081B2 (en) * 2007-04-02 2010-12-14 British Telecommunications Public Limited Company Identifying data patterns
CN102301395B (zh) * 2009-01-29 2014-08-06 日本电气株式会社 特征选择设备
JP6687894B2 (ja) * 2016-05-20 2020-04-28 富士ゼロックス株式会社 クラス推定装置及びプログラム
US11301733B2 (en) 2018-05-18 2022-04-12 Google Llc Learning data augmentation strategies for object detection

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6175486A (ja) 1984-09-21 1986-04-17 Hitachi Ltd パタ−ン認識のための決定木作成方法
JPS6379192A (ja) 1986-09-22 1988-04-09 Matsushita Electric Ind Co Ltd 文字認識装置
JPH07117992B2 (ja) 1987-09-04 1995-12-18 富士通株式会社 文字認織方式
JPH01321591A (ja) 1988-06-23 1989-12-27 Nec Corp 文字認識装置
JP2551212B2 (ja) 1990-07-26 1996-11-06 日本電気株式会社 特徴量選択方法及び装置と高速識別方法及び装置
JP2945454B2 (ja) 1990-09-03 1999-09-06 日本電信電話株式会社 パターン識別方法
JPH04256087A (ja) 1991-02-07 1992-09-10 Nec Corp パターン認識装置
US5740274A (en) * 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
JP3079707B2 (ja) 1991-10-18 2000-08-21 富士ゼロックス株式会社 文字認識方法および装置
JPH064673A (ja) 1992-06-23 1994-01-14 N T T Data Tsushin Kk パターン認識方法
JP3163185B2 (ja) 1992-11-27 2001-05-08 株式会社東芝 パターン認識装置およびパターン認識方法
JPH06251156A (ja) 1993-02-26 1994-09-09 Canon Inc パターン認識装置
JP3267047B2 (ja) * 1994-04-25 2002-03-18 株式会社日立製作所 音声による情報処理装置
JP2690027B2 (ja) 1994-10-05 1997-12-10 株式会社エイ・ティ・アール音声翻訳通信研究所 パターン認識方法及び装置
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals
US5675710A (en) * 1995-06-07 1997-10-07 Lucent Technologies, Inc. Method and apparatus for training a text classifier
JP3810469B2 (ja) 1996-03-06 2006-08-16 ヒューレット・パッカード・カンパニー パターン認識方法
JP2982689B2 (ja) 1996-04-19 1999-11-29 日本電気株式会社 情報量基準を用いた標準パターン作成方式
JP3411153B2 (ja) 1996-05-16 2003-05-26 株式会社山武 無駄時間推定装置
JPH10320402A (ja) 1997-05-14 1998-12-04 N T T Data:Kk 検索式作成方法、検索式作成装置、及び記録媒体
US6128608A (en) * 1998-05-01 2000-10-03 Barnhill Technologies, Llc Enhancing knowledge discovery using multiple support vector machines
US6192360B1 (en) 1998-06-23 2001-02-20 Microsoft Corporation Methods and apparatus for classifying text and for building a text classifier
JP2000122690A (ja) 1998-10-19 2000-04-28 Toshiba Corp パターン認識方法およびパターン認識装置
JP3374793B2 (ja) 1999-07-21 2003-02-10 日本電気株式会社 高速認識検索システム及びそれに用いる認識検索高速化方法並びにその制御プログラムを記録した記録媒体
AU1350501A (en) 1999-10-27 2001-05-08 Barnhill Technologies, Llc Methods and devices for identifying patterns in biological systems and methods for uses thereof

Also Published As

Publication number Publication date
CN1653486B (zh) 2013-01-02
EP1480167A4 (en) 2007-06-20
US7634140B2 (en) 2009-12-15
EP1480167A1 (en) 2004-11-24
WO2003073381A1 (fr) 2003-09-04
CN1653486A (zh) 2005-08-10
US20050169516A1 (en) 2005-08-04
JP2003256839A (ja) 2003-09-12

Similar Documents

Publication Publication Date Title
Kukačka et al. Regularization for deep learning: A taxonomy
CN111079639B (zh) 垃圾图像分类模型构建的方法、装置、设备及存储介质
CN107526785B (zh) 文本分类方法及装置
Bishop Neural networks for pattern recognition
CN107844784A (zh) 人脸识别方法、装置、计算机设备和可读存储介质
CN108804677A (zh) 结合多层级注意力机制的深度学习问题分类方法及***
US11334791B2 (en) Learning to search deep network architectures
JP3896868B2 (ja) パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置
Glauner Comparison of training methods for deep neural networks
Charitou et al. Synthetic data generation for fraud detection using gans
CN114741507B (zh) 基于Transformer的图卷积网络的引文网络分类模型建立及分类
CN111694954A (zh) 图像分类方法、装置和电子设备
CN112488188B (zh) 一种基于深度强化学习的特征选择方法
CN113095501A (zh) 一种基于深度强化学***衡分类决策树生成方法
CN111783088A (zh) 一种恶意代码家族聚类方法、装置和计算机设备
Lauren et al. Convolutional neural network for clinical narrative categorization
CN115063374A (zh) 模型训练、人脸图像质量评分方法、电子设备及存储介质
CN112686306B (zh) 基于图神经网络的icd手术分类自动匹配方法及***
CN115131646A (zh) 基于离散系数的深度网络模型压缩方法
Lucca et al. Analyzing the behavior of aggregation and pre-aggregation functions in fuzzy rule-based classification systems with data complexity measures
Warkar et al. A survey on multiclass image classification based on Inception-v3 transfer learning model
Manokhin Machine learning for probabilistic prediction
Ronchetti et al. A comparison of small sample methods for handshape recognition
Golchha et al. Quantum-enhanced support vector classifier for image classification
Somashekhar et al. An Hybrid Method for Fingerprint Image Classification

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061211

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3896868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110105

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120105

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130105

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130105

Year of fee payment: 6

EXPY Cancellation because of completion of term