JP3480563B2 - パターン識別のための特徴抽出装置 - Google Patents

パターン識別のための特徴抽出装置

Info

Publication number
JP3480563B2
JP3480563B2 JP28308899A JP28308899A JP3480563B2 JP 3480563 B2 JP3480563 B2 JP 3480563B2 JP 28308899 A JP28308899 A JP 28308899A JP 28308899 A JP28308899 A JP 28308899A JP 3480563 B2 JP3480563 B2 JP 3480563B2
Authority
JP
Japan
Prior art keywords
vector
subspace
feature
variation
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP28308899A
Other languages
English (en)
Other versions
JP2001101418A (ja
Inventor
健治 岡島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP28308899A priority Critical patent/JP3480563B2/ja
Priority to US09/679,405 priority patent/US6778701B1/en
Publication of JP2001101418A publication Critical patent/JP2001101418A/ja
Application granted granted Critical
Publication of JP3480563B2 publication Critical patent/JP3480563B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像認識等のパタ
ーン認識における特徴の算出を行なう特徴抽出装置に関
し、特にニューラルネットワーク等のパターン学習機能
を備える特徴抽出装置に関する。
【0002】
【従来の技術】学習用のパターンの集合から、パターン
識別に用いるための特徴を決定する方法としては、判別
分析法に基づく方法が良く知られており、既に広く利用
されている(例えば、特願平8−325638、特願平
3−60784、特開平01−321591等に開示さ
れる方法が知られている)。
【0003】判別分析法とは、特徴のクラス内変動(カ
テゴリー内変動)を小さく抑えながら、他方ではクラス
(カテゴリー)間の差異が大きく出るように抽出すべき
特徴を決定する方法であり(例えば、大津、”パターン
認識における特徴抽出に関する数理的研究”、電子技術
総合研究所研究報告、第818号(1981)参照)、
主成分分析法などの他の特徴決定方法と比較するとクラ
ス間の分離能力が高いことが特長である。
【0004】ここで、判別分析法について簡単に説明す
る。
【0005】今、学習パターンの集合が与えられてお
り、またこれらの各パターンが属するクラスも与えられ
ているものとする。
【0006】判別分析法では、これらの学習パターンか
らクラス内分散行列S、およびクラス間分散行列S
を求め、固有方程式、Sw−1・Sb・f=λ・f
を解く。
【0007】そして、こうして得られた固有ベクトルの
中から、固有値λの大きい順に、所望の数、M本の固
有ベクトルfを選択する。
【0008】特徴抽出処理は、これらの固有ベクトルを
用いて、対象とする入力パターンXから内積Z=(f
,X),(i=1〜M)を計算することによって実行
され、特徴Zが抽出される。
【0009】以上のような判別分析の手法によって、ク
ラス内変動が小さく、クラス間の差異が大きくなるよう
な線形な特徴抽出が達成できることが知られている。
【0010】他方、入力パターンと出力パターンとの対
からなる学習パターンの集合を用いて、パターンの入出
力関係を学習する方法として、多層パーセプトロン・ニ
ューラルネットワークを用いた誤差逆伝播学習法(バッ
ク・プロパゲーション法)が既に知られており、やはり
広く利用されている(例えば、中野馨監修、“ニューロ
コンピュータ”、技術評論社1989、あるいは、D.
E.Rumelhart,“Parallel Dis
tributed Processing”,MIT
Press, 1986参照)。
【0011】図7は3層のパーセプトロン・ニューラル
ネットワークの構造を示したものである。図7におい
て、入力層に入力した入力パターンは、中間層、出力層
によって順次処理されていき、出力パターンが算出され
る。
【0012】誤差逆伝播学習法では、この出力パターン
が、学習パターンとして与える望ましい出力パターンに
できるだけ一致するようにニューラルネットワーク各層
の各パラメータ(結合重み等)を更新していく。
【0013】ここで、この点についてさらに詳しく説明
する。
【0014】図7において、中間層のユニットjの出力
は、結合重みWji、閾値θを用いて、入力パタ
ーンIから、次式によって計算される。
【0015】
【数1】
【0016】f(x)はシグモイド関数と呼ばれる関数
である。
【0017】uは予め定められているパラメータであ
る。
【0018】さらにこうして計算された中間層ユニット
の出力Hから、次式によって出力層ユニットの出力O
が計算される。
【0019】
【数2】
【0020】(Vkjは結合重み、γは閾値)。
【0021】この時、望ましい出力パターンをTとす
ると、学習は次式に示される誤差を小さくするように、
各パラメータ(結合重み等。一般的にpと表す)を勾配
(−∂E/∂p)に従って更新することによって行なわ
れる。
【0022】
【数3】
【0023】ここで、<・>は学習パターンについての
平均操作を表す。この結果、ニューラルネットワークの
出力は望ましい出力に近づいていく。
【0024】
【発明が解決しようとする課題】上述した従来の判別分
析法で得られる特徴は、線形な特徴であるため、パター
ンの変動に弱いという問題点を有する。
【0025】勿論、線形の範囲では、判別分析法はパタ
ーン変動に伴う特徴のクラス内変動を(クラス間変動と
比較して)小さくする特徴選択法ではあるが、得られる
特徴が線形であるがために、パターンの位置ずれ、回
転、拡大縮小等の変動を吸収することは本来できない。
【0026】他方、多層パーセプトロン・ニューラルネ
ットワークは、非線形な入出力関係を学習できるので、
原理的には上述のようなパターン変動に対しても強い処
理が可能なはずであるが、実際には、パターン変動を吸
収してパターン識別ができるようにネットワークを学習
させようとすると膨大な学習が必要となり実用的ではな
い。
【0027】そのため、実用上は、事前に入力パターン
の位置合わせや大きさ正規化等の前処理によってパター
ン変動の影響を抑えたり、あるいは経験的な方法で決め
られた特徴量を予め抽出しておき、この特徴量を改めて
入力として多層パーセプトロンの学習を行なうという方
法が採られている。
【0028】すなわち、多層パーセプトロン・ニューラ
ルネットワークも実際上はパターンの変動に弱いという
問題点を有している。
【0029】本発明の第1の目的は、上記従来の欠点を
解決し、パターン変動に対して強い、パターン識別に適
した特徴抽出装置を提供することにある。
【0030】また、本発明の第2の目的は、膨大な学習
を必要とすることなく、パターン変動に対して強い特徴
抽出装置を提供することにある。
【0031】
【課題を解決するための手段】上記目的を達成するため
本発明の特徴抽出装置は、識別対象である学習パターン
を部分空間群に射影し、各部分空間への射影長の二乗を
特徴ベクトルとして算出する特徴ベクトル算出手段と、
前記特徴ベクトルの各成分のクラス間変動とクラス内変
動との比を増加させるように、前記部分空間群を構成す
る各部分空間の基底ベクトルを更新するパラメータ更新
手段とを少なくとも有する部分空間基底ベクトル学習手
段を備えることを特徴とする。
【0032】請求項2の本発明の特徴抽出装置の前記特
徴ベクトル算出手段は、前記学習パターンを正規化した
上で部分空間群に射影し、各部分空間への射影長の二
乗、もしくはそれから誘導される量を特徴ベクトルとし
て算出することを特徴とする。
【0033】請求項3の本発明の特徴抽出装置の前記部
分空間基底ベクトル学習手段は、算出された前記特徴ベ
クトルに対して予め設定された抑制パラメータに基づい
て特徴間の抑制処理を行なうことにより、前記特徴ベク
トルを補正する補正手段を備えることを特徴とする。
【0034】請求項4の本発明の特徴抽出装置の前記パ
ラメータ更新手段は、更新処理によって得られた前記基
底ベクトルに対して、グラムシュミットの直交化法によ
って正規直交化の処理を行なうことを特徴とする。
【0035】請求項5の本発明の特徴抽出装置の前記特
徴ベクトル算出手段は、前記学習パターンを正規化した
上で部分空間群に射影し、各部分空間への一般化された
射影長の二乗を特徴ベクトルとして算出することを特徴
とする。
【0036】請求項6の本発明の特徴抽出装置の前記部
分空間基底ベクトル学習手段は、特徴ベクトルの各成分
を相互に無相関あるいは独立にすると同時に、特徴ベク
トル各成分のクラス間変動とクラス内変動との比を増加
させるように基底ベクトルを更新することによって、特
徴ベクトルのクラス間変動とクラス内変動との比を増加
させる基底ベクトルの更新処理を行なうことを特徴とす
る。
【0037】 請求項7の本発明の特徴抽出装置は、入
力パターンと、それが属するクラス名Cと、さらに入力
パターンが属するサブクラス名Cの系列(m=1〜
n、nは1以上の整数で、このサブクラスの系列はmが
大きいほどより細分類されたサブクラスとなるように階
層的に構成されているとする)とからなるデータの集合
を学習用データとして用いて特徴を決定する特徴抽出装
置であって、(n+1)段階の特徴抽出層から構成さ
れ、第1段階の特徴抽出層は、入力する学習パターンを
正規化した上で第1の部分空間群に射影し、各部分空間
への一般化された射影長の二乗、もしくはそれから誘導
される量を第1の特徴ベクトルとして算出する第1の特
徴ベクトル算出手段と、前記第1の特徴ベクトルの、第
n階層目のサブクラスすなわち最も細分化されたサブク
ラスに関するサブクラス間変動とサブクラス内変動との
比を増加させるように、前記第1の部分空間群を構成す
る各部分空間の基底ベクトルを更新する第1のパラメー
タ更新手段とを少なくとも有する第1の部分空間基底ベ
クトル学習手段とを備え、nが2以上の場合には、第k
段階(k=2〜n)の特徴抽出層は、第(k−1)段階
の特徴抽出層で算出された第(k−1)の特徴ベクトル
を正規化した上で第kの部分空間群に射影し、各部分空
間への一般化された射影長の二乗、もしくはそれから誘
導される量を第kの特徴ベクトルとして算出する第kの
特徴ベクトル算出手段と、前記第kの特徴ベクトルの、
第(n+1−k)階層目のサブクラスに関する(サブク
ラス間変動/サブクラス内変動)比を増加させるよう
に、前記第kの部分空間群を構成する各部分空間の基底
ベクトルを更新する第kのパラメータ更新手段とを少な
くとも有する第kの部分空間基底ベクトル学習手段を備
えることを特徴とする。
【0038】請求項8の本発明の特徴抽出装置の第(n
+1)段階の特徴抽出層は、第n段階の特徴抽出層で算
出された第nの特徴ベクトルを正規化した上で第(n+
1)の部分空間群に射影し、各部分空間への一般化され
た射影長の二乗、もしくはそれから誘導される量を第k
の特徴ベクトルとして算出する第(n+1)の特徴ベク
トル算出手段と、最終的な特徴ベクトルのクラス間変動
とクラス内変動との比を増加させるように、前記第(n
+1)の部分空間群を構成する各部分空間の基底ベクト
ルを更新する第(n+1)のパラメータ更新手段とを少
なくとも有する第(n+1)の部分空間基底ベクトル学
習手段とを有することを特徴とする。
【0039】請求項9の本発明の特徴抽出装置の前記各
特徴抽出層の前記部分空間基底ベクトル学習手段は、算
出された前記特徴ベクトルに対して予め設定された抑制
パラメータに基づいて特徴間の抑制処理を行なうことに
より、前記特徴ベクトルを補正する補正手段を備えるこ
とを特徴とする。
【0040】請求項10の本発明の特徴抽出装置の前記
パラメータ更新手段は、更新処理によって得られた前記
基底ベクトルに対して、グラムシュミットの直交化法に
よって正規直交化の処理を行なうことを特徴とする。
【0041】請求項11の本発明の特徴抽出装置の各特
徴抽出層の特徴ベクトル算出手段は、当該層への入力を
正規化した上で部分空間群に射影し、各部分空間への射
影長の二乗、もしくはそれから誘導される量を特徴ベク
トルとして算出し、各特徴抽出層のパラメータ更新手段
は、算出された特徴ベクトルのサブクラス間変動とサブ
クラス内変動との比、もしくはクラス間変動とクラス内
変動との比を増加させるように、部分空間群を構成する
各部分空間の正規直交基底ベクトルを更新することを特
徴とする。
【0042】請求項12の本発明の特徴抽出装置の前記
階層部分空間基底ベクトル学習手段は、特徴ベクトルの
各成分を相互に無相関あるいは独立にすると同時に、特
徴ベクトル各成分のクラス間変動とクラス内変動との
比、あるいはサブクラス間変動とサブクラス内変動との
比を増加させるように基底ベクトル、あるいは正規直交
基底ベクトルを更新することによって、特徴ベクトルの
クラス間変動とクラス内変動との比、あるいはサブクラ
ス間変動とサブクラス内変動との比を増加させる基底ベ
クトルあるいは正規直交基底ベクトルの更新処理を行な
うことを特徴とする。
【0043】請求項13の本発明の特徴抽出装置は、n
段階(nは2以上の整数)の特徴抽出層と、これらの各
特徴抽出層の動作を規定する各パラメータを更新する階
層部分空間基底ベクトル学習手段とを有する特徴抽出装
置であって、第1段階の特徴抽出層は、入力パターンを
正規化した上で第1の部分空間群に射影し、各部分空間
への一般化された射影長の二乗、もしくはそれから誘導
される量を第1の特徴ベクトルとして算出する第1の特
徴ベクトル算出手段を有し、第k段階(k=2〜n)の
特徴抽出層は、第(k−1)段階の特徴抽出層で算出さ
れた第(k−1)の特徴ベクトルを正規化した上で第k
の部分空間群に射影し、各部分空間への一般化された射
影長の二乗、もしくはそれから誘導される量を第kの特
徴ベクトルとして算出する第kの特徴ベクトル算出手段
を有し、前記階層部分空間基底ベクトル学習手段は、第
n段階の特徴抽出層で算出される最終的な特徴ベクトル
である第nの特徴ベクトルのクラス間変動とクラス内変
動との比を増加させるように、前記各特徴抽出層の部分
空間群を構成する各部分空間の基底ベクトルを更新する
手段を有していることを特徴とする。
【0044】請求項14の本発明の特徴抽出装置の階層
部分空間基底ベクトル学習手段は、最終的特徴ベクトル
のクラス間変動とクラス内変動との比を増加させるよう
に、各特徴抽出層の部分空間群を構成する各部分空間の
正規直交基底ベクトルを更新することを特徴とする。
【0045】請求項15の本発明の特徴抽出装置の前記
各特徴抽出層の前記部分空間基底ベクトル学習手段は、
算出された前記特徴ベクトルに対して予め設定された抑
制パラメータに基づいて特徴間の抑制処理を行なうこと
により、前記特徴ベクトルを補正する補正手段を備える
ことを特徴とする。
【0046】請求項16の本発明の特徴抽出装置の前記
パラメータ更新手段は、更新処理によって得られた前記
基底ベクトルに対して、グラムシュミットの直交化法に
よって正規直交化の処理を行なうことを特徴とする。
【0047】請求項17の本発明の特徴抽出装置の前記
階層部分空間基底ベクトル学習手段は、特徴ベクトルの
各成分を相互に無相関あるいは独立にすると同時に、特
徴ベクトル各成分のクラス間変動とクラス内変動との
比、あるいはサブクラス間変動とサブクラス内変動との
比を増加させるように基底ベクトル、あるいは正規直交
基底ベクトルを更新することによって、特徴ベクトルの
クラス間変動とクラス内変動との比、あるいはサブクラ
ス間変動とサブクラス内変動との比を増加させる基底ベ
クトルあるいは正規直交基底ベクトルの更新処理を行な
うことを特徴とする。
【0048】請求項18の本発明のパターン学習装置
は、入力ベクトルとそれに対応する望ましい出力ベクト
ルとの組から構成される学習用データの集合を用いて入
力/出力間の関係を学習するパターン学習装置であっ
て、n段階(nは1以上の整数)の処理層と、前記各処
理層の動作を規定する各パラメータを更新するパラメー
タ更新手段とを有し、第1段階の処理層は、入力ベクト
ルを正規化した上で第1の部分空間群に射影し、各部分
空間への一般化された射影長の二乗、もしくはそれから
誘導される量を第1の出力ベクトルとして算出する第1
の出力算出手段を有し、nが2以上の場合には、第k段
階(k=2〜n)の処理層は、第(k−1)段階の処理
層で算出された第(k−1)の出力ベクトルを正規化し
た上で第kの部分空間群に射影し、各部分空間への一般
化された射影長の二乗、もしくはそれから誘導される量
を第kの出力ベクトルとして算出する第kの出力算出手
段を有し、前記パラメータ更新手段は、最終的出力ベク
トルである第n段階の処理層で算出される第nの出力ベ
クトルと、入力ベクトルに対応する望ましい出力ベクト
ルとの平均二乗誤差を減少させるように、前記各処理層
の各部分空間の基底ベクトルを更新する手段を有するこ
とを特徴とする。
【0049】請求項19の本発明の特徴量抽出プログラ
ムを格納する記録媒体は、コンピュータを制御してパタ
ーン識別のための特徴を抽出する特徴抽出プログラムを
読み取り可能に格納する記録媒体であって、前記特徴抽
出プログラムは、識別対象である学習パターンを部分空
間群に射影し、各部分空間への射影長の二乗を特徴ベク
トルとして算出する機能と、前記特徴ベクトルの各成分
のクラス間変動とクラス内変動との比を増加させるよう
に、前記部分空間群を構成する各部分空間の基底ベクト
ルを更新する機能とを備えることを特徴とする。
【0050】請求項20の本発明の特徴量抽出プログラ
ムを格納する記録媒体の前記特徴抽出プログラムは、前
記特徴ベクトル算出において、前記学習パターンを正規
化した上で部分空間群に射影し、各部分空間への一般化
された射影長の二乗を特徴ベクトルとして算出すること
を特徴とする。
【0051】請求項21の本発明の特徴量抽出プログラ
ムを格納する記録媒体の前記特徴抽出プログラムは、特
徴ベクトルの各成分を相互に無相関あるいは独立にする
と同時に、特徴ベクトル各成分のクラス間変動とクラス
内変動との比を増加させるように基底ベクトルを更新す
ることによって、特徴ベクトルのクラス間変動とクラス
内変動との比を増加させる基底ベクトルの更新処理を行
なうことを特徴とする。
【0052】 請求項22の本発明の特徴量抽出プログ
ラムを格納する記録媒体は、入力パターンと、それが属
するクラス名Cと、さらに入力パターンが属するサブク
ラス名Cの系列(m=1〜n、nは1以上の整数で、
このサブクラスの系列はmが大きいほどより細分類され
たサブクラスとなるように階層的に構成されているとす
る)とからなるデータの集合を学習用データとして用い
て特徴を決定する特徴抽出プログラムを読み出し可能に
格納する記録媒体であって、前記特徴抽出プログラム
は、(n+1)段階の特徴抽出層から構成され、第1段
階の特徴抽出層は、入力する学習パターンを正規化した
上で第1の部分空間群に射影し、各部分空間への一般化
された射影長の二乗、もしくはそれから誘導される量を
第1の特徴ベクトルとして算出する第1の特徴ベクトル
算出機能と、前記第1の特徴ベクトルの、第n階層目の
サブクラスすなわち最も細分化されたサブクラスに関す
るサブクラス間変動とサブクラス内変動との比を増加さ
せるように、前記第1の部分空間群を構成する各部分空
間の基底ベクトルを更新する第1のパラメータ更新手段
とを少なくとも有する第1の部分空間基底ベクトル学習
機能とを備え、nが2以上の場合には、第k段階(k=
2〜n)の特徴抽出層は、第(k−1)段階の特徴抽出
層で算出された第(k−1)の特徴ベクトルを正規化し
た上で第kの部分空間群に射影し、各部分空間への一般
化された射影長の二乗、もしくはそれから誘導される量
を第kの特徴ベクトルとして算出する第kの特徴ベクト
ル算出機能と、前記第kの特徴ベクトルの、第(n+1
−k)階層目のサブクラスに関する(サブクラス間変動
/サブクラス内変動)比を増加させるように、前記第k
の部分空間群を構成する各部分空間の基底ベクトルを更
新する第kのパラメータ更新手段とを少なくとも有する
第kの部分空間基底ベクトル学習機能を備えることを特
徴とする。
【0053】請求項23の本発明の特徴量抽出プログラ
ムを格納する記録媒体の、第(n+1)段階の特徴抽出
層は、第n段階の特徴抽出層で算出された第nの特徴ベ
クトルを正規化した上で第(n+1)の部分空間群に射
影し、各部分空間への一般化された射影長の二乗、もし
くはそれから誘導される量を第kの特徴ベクトルとして
算出する第(n+1)の特徴ベクトル算出機能と、最終
的な特徴ベクトルのクラス間変動とクラス内変動との比
を増加させるように、前記第(n+1)の部分空間群を
構成する各部分空間の基底ベクトルを更新する第(n+
1)のパラメータ更新機能とを有することを特徴とす
る。
【0054】請求項24の本発明の特徴量抽出プログラ
ムを格納する記録媒体は、n段階(nは2以上の整数)
の特徴抽出層と、これらの各特徴抽出層の動作を規定す
る各パラメータを更新する階層部分空間基底ベクトル学
習機能を実現する特徴抽出プログラムを格納する記録媒
体であって、前記特徴抽出プログラムは、第1段階の特
徴抽出層において、入力パターンを正規化した上で第1
の部分空間群に射影し、各部分空間への一般化された射
影長の二乗、もしくはそれから誘導される量を第1の特
徴ベクトルとして算出する第1の特徴ベクトル算出機能
を有し、第k段階(k=2〜n)の特徴抽出層におい
て、第(k−1)段階の特徴抽出層で算出された第(k
−1)の特徴ベクトルを正規化した上で第kの部分空間
群に射影し、各部分空間への一般化された射影長の二
乗、もしくはそれから誘導される量を第kの特徴ベクト
ルとして算出する第kの特徴ベクトル算出機能を有し、
前記階層部分空間基底ベクトル学習機能では、第n段階
の特徴抽出層で算出される最終的な特徴ベクトルである
第nの特徴ベクトルのクラス間変動とクラス内変動との
比を増加させるように、前記各特徴抽出層の部分空間群
を構成する各部分空間の基底ベクトルを更新することを
特徴とする。
【0055】
【発明の実施の形態】次に本発明の実施の形態について
図面を参照して説明する。図1は、本発明による特徴抽
出装置の第1の実施の形態を示すブロック図である。
【0056】図1には、本発明の特徴抽出装置100
と、その出力結果に基づきパターン識別を行なうパター
ン識別装置200とが合わせて示されている。
【0057】本発明の特徴抽出装置100は、学習パタ
ーンとその属するクラス(カテゴリー)を入力、記憶す
る学習パターン入力・記憶手段110と、特徴抽出に用
いる部分空間群の各基底ベクトルを学習によって決定す
る部分空間基底ベクトル学習手段120と、学習で決定
された部分空間基底ベクトルを記憶する部分空間基底ベ
クトル記憶手段130とを有している。
【0058】さらに、部分空間基底ベクトル学習手段1
20は、特徴抽出に用いる部分空間群の初期設定等を行
なう初期化手段121と、学習パターンの正規化を行な
う正規化手段122と、正規化された学習パターンを各
部分空間それぞれに射影し、射影ベクトルの大きさの二
乗を算出することによって特徴を抽出する特徴ベクトル
抽出手段123と、算出された特徴ベクトルに対して特
徴間の抑制処理を施し、特徴ベクトルを補正する特徴ベ
クトル補正手段124と、特徴ベクトルの平均、分散、
クラス内平均、クラス内分散、特徴間抑制パラメータ等
の各種パラメータを記憶するパラメータ記憶手段125
と、各部分空間の基底ベクトルおよび各種パラメータの
更新を行なうパラメータ更新手段126と、学習の終了
を判定する終了判定手段127とを備えている。
【0059】また、パターン識別装置200は、識別の
対象となるパターンを入力する対象パターン入力手段2
10と、対象パターンが比較される参照パターンを入力
する参照パターン入力手段220と、本発明の特徴抽出
装置100で学習され、部分空間基底ベクトル記憶手段
130に記憶されている部分空間基底ベクトルを読み出
し、それらによって指定される部分空間群に対象パター
ン、および参照パターンをそれぞれ正規化した上で射影
し、それぞれの特徴ベクトルを算出する特徴ベクトル算
出手段123と、こうして得られた特徴ベクトルを比較
して、対象パターンと最も距離の近い参照パターンを選
出するパターン判定手段124とを備えている。
【0060】次に、図1を参照して第1の実施の形態の
動作について説明する。
【0061】まず、初期化手段121が、学習の開始に
先だって、各部分空間の基底ベクトル、および各種パラ
メータの初期化処理を行なう。
【0062】部分空間基底ベクトル記憶手段130に記
憶される、各部分空間基底ベクトルの各成分W
j,k,iには乱数によるランダムな初期値が与えら
れ、次にグラムシュミットの直交化法等によって、各基
底ベクトルは各部分空間ごとに正規直交化される。
【0063】また、初期化手段121は、平均<C
>、クラス内平均<Cj(p)>、クラス間分散σ
j,B、クラス内分散σ j,Wの各パラメータを予め
定めておく初期値に設定し、パラメータ記憶手段125
に送る。
【0064】さらに初期化手段121は抑制パラメータ
i,jの値を全てゼロに初期化し、やはりパラメータ
記憶手段125に送る。
【0065】次に、学習パターン入力・記憶手段110
が、学習パターンIp0i(1≦i≦N、Nはパターン
の次元数)、およびその属するクラスpを入力、記憶
し、これらは、部分空間基底ベクトル学習手段120へ
と送られる。
【0066】部分空間基底ベクトル学習手段120に送
られた学習パターンIp0iは、まず正規化手段122
によって次式のように正規化される。
【0067】
【数4】
【0068】正規化された学習パターンIpiは、特徴
ベクトル抽出手段123によって部分空間群に射影され
特徴ベクトルが算出される。
【0069】すなわち、特徴ベクトル抽出手段123
は、部分空間基底ベクトル記憶手段130に記憶されて
いる基底ベクトルWj,kを読み出し、それらによって
指定される複数(M個)の部分空間に、それぞれ学習パ
ターンを射影し、射影ベクトルの大きさの二乗を算出す
ることによって特徴ベクトルC’を算出する。
【0070】ここで、各部分空間は一般に複数本の基底
ベクトルによって張られる空間であるが、本実施の形態
では、各部分空間はそれぞれ2本の基底ベクトルによっ
て張られている。
【0071】以上の特徴ベクトル算出処理を数式で表す
と次の通りである。
【0072】
【数5】
【0073】ここでC’は抽出された特徴ベクトルの
第j成分を表す。
【0074】これは、j番目の部分空間への射影ベクト
ルの射影長になっている。
【0075】Wj,k,iは、j番目の部分空間を張る
k本目の基底ベクトルWj,kの第i成分を表す。
【0076】Sj,kはj番目の部分空間に学習パター
ンを射影して得られる射影ベクトルの第k成分、すなわ
ちj番目の部分空間を張るk本目の基底ベクトルと学習
パターンIpiとの内積を表す。
【0077】従来の判別分析法と比べて本発明で特徴的
な点は、特徴ベクトル抽出手段123が、パターンを部
分空間に射影し、その射影長の二乗を算出することによ
って特徴ベクトルを抽出するという構成をとっている点
にある。
【0078】このような構成にすることで、位置ずれ、
回転、変形等の各種パターン変動によって生じうる特徴
のクラス内変動を減少させることが可能になり、その結
果、パターン変動に対して強い特徴抽出が可能になる。
【0079】この点に関して少し説明する。
【0080】入力ベクトルがどのクラス(カテゴリー)
に属するかを判定する方法として、各クラスを代表する
参照ベクトルをそれぞれ用意しておき、入力ベクトルと
各参照ベクトルとの距離に基づいて識別を行なうという
方法は良く知られている。
【0081】しかし、この方法では各クラスを一つの参
照ベクトル(1点)で表現しているため、パターンの変
動に弱いという問題があった。
【0082】そこでパターンの変動があっても高い識別
能力が得られる判別関数を実現する方法として、各クラ
スを複数の基底ベクトルで張られる部分空間で表現しパ
ターン識別を行なうという方法、部分空間法が提案され
ている(例えば、エルッキ・オヤ、“パターン認識と部
分空間法”、産業図書、1986参照)。
【0083】簡単な例として、入力パターンI(x)に
位置ずれが起こり得る場合を考えてみる。
【0084】この場合、2本の基底ベクトル、W
(x)=sin(kx),およびW(x)=cos
(kx)を選び、それらによって張られる部分空間への
射影長の二乗(次式、数6)を考えると、これは入力パ
ターンI(x)のフーリエ変換パワースペクトルになっ
ており、良く知られているように、これは位置ずれに対
して安定な量になる。
【0085】
【数6】
【0086】本発明は、このような部分空間の性質、す
なわちパターンに変動があっても、それに対応して部分
空間の基底ベクトルを適切に選べばその部分空間へのパ
ターンの射影長には変動があまり起こらないようにさせ
ることができるという性質を利用し、これを特徴抽出に
適用して、抽出される特徴のクラス内変動を抑え、高い
(クラス間変動/クラス内変動)比を実現しているので
ある。
【0087】その結果、パターン変動に対して強い、パ
ターン識別に適した特徴抽出が可能になる。
【0088】次に、特徴ベクトル補正手段124は、パ
ラメータ記憶手段125に記憶されている抑制パラメー
タVjlを読み出し、特徴ベクトル抽出手段123で算
出されたC’に対して次式で示される補正処理を行な
う。
【0089】
【数7】
【0090】すなわち、番号jの部分空間の出力C’
は、それよりも小さい番号を持つ部分空間lの出力から
重みVjlで抑制を受ける。
【0091】この抑制処理には、既に抽出されている特
徴と同じ特徴が重複して抽出されることを防ぐ効果があ
る。
【0092】後述のパラメータ更新処理によってパラメ
ータの更新を行なっていくと、抽出される各特徴が互い
に無相関になるように学習が進む。
【0093】パラメータ更新手段126は、こうして得
られた特徴ベクトルの各成分Cのクラス間変動とクラ
ス内変動との比が大きくなるように、各部分空間の基底
ベクトルを更新していく。
【0094】すなわち、特徴ベクトルの成分Cのクラ
ス間変動をσ j,B、クラス内変動σ j,Wとする
と、T=Σ(σ j,B/σ j,W)を評価関数と
して、この値が大きくなるように、勾配(∂T/∂W
j,k,i)に沿ってTが増加する方向に各基底ベクト
ルを更新する。
【0095】このような処理によって、(クラス間変動
/クラス内変動)比の大きな、すなわちパターン識別に
適した特徴が学習されていく。
【0096】具体的には、この微分から得られる次式に
従って各基底ベクトルの更新が実行される。
【0097】すなわち、クラスpに属する学習パターン
piが入力された場合、次式に従って各基底ベクトル
の更新が行なわれる。
【0098】
【数8】
【0099】ここで、εは学習のレートを決める予め定
めておいた正のパラメータ、<C>は特徴Cjの平均
値、<Cj(p)>はクラスpに属する学習パターンが
入力した時の特徴Cの平均値、σ j,Bは特徴C
のクラス間分散、σ j,Wは特徴Cのクラス内分散
をそれぞれ表すパラメータで、これらパラメータの値は
パラメータ記憶手段125から読み出される。
【0100】また、Cは現在の入力パターンIpi
対応する特徴値、Sj,kは(5)式に現れたj番目の
部分空間のk本目の基底ベクトルと学習パターンIpi
との内積を表し、これらの値は特徴ベクトル抽出手段1
23から受け取る。
【0101】この更新則において第3項および第4項
は、抑制パラメータVl,jに依存する項を表すが、抑
制の効果は、既に特徴Cの値に反映されているので、
これらの項は省略してもかまわない。
【0102】本実施の形態ではこれらの項を省略した更
新則が用いられている。
【0103】これらの項を更新則に取り入れる場合に
は、抑制パラメータVl、jはパラメータ記憶手段12
5から読み出される。
【0104】上記の更新処理によって得られる基底ベク
トルは、必ずしも正規直交系をなさないので、パラメー
タ更新手段126は、更新された各基底ベクトルに対し
て、さらにグラムシュミットの直交化法によって正規直
交化の処理を行なう。
【0105】また、パラメータ更新手段126は、次式
に示される処理を行ない、パラメータ記憶手段125が
記憶している、平均<C>、クラス内平均<C
j(p)>、クラス間分散σ j,B、クラス内分散σ
j,Wの各パラメータの更新を行なう。
【0106】
【数9】
【0107】ここでε〜εは予め定められている、
1よりも十分に小さな正の定数である。
【0108】またpは現在の学習パターンが属するクラ
スを表す。
【0109】パラメータ更新手段126はさらに、パラ
メータ記憶手段125によって記憶されている抑制パラ
メータVi,jの更新を次式に従って行なう。
【0110】
【数10】
【0111】ここでεは予め定められている1よりも
十分に小さな正の定数である。
【0112】この更新則が収束した場合、ΔVi,j
0から(C−<C>)(C−<C>)=0が得
られ、各特徴が互いに無相関になるように学習が進むこ
とが分かる。
【0113】これによって既に抽出されている特徴が重
複して抽出されることを防止する効果がある(例えば
K.I.Diamantaras,S.Y.Kung,
“Principal Component Neur
al Networks”,John Wiley &
Sons,1996,pp85−86参照)。
【0114】なお(10)式では相関に比例した補正項
ε(C−<C>)(C−<C>)を用いてい
るが、この補正項にはより高次の相関に比例した項、例
えばε(C−<C>)(C−<C>)
用いても良い。
【0115】このような更新則にした場合、各特徴が互
いに独立になるように学習が進むことが期待できる。
【0116】以上の処理が終了した時点で、学習パター
ン入力・記憶手段110は次の学習パターンを入力し、
同様の処理を繰り返す。
【0117】終了判定手段127は、全ての学習パター
ンそれぞれに対して、予め定められた回数、Nmax回
の学習を行なったかどうかを判定し、この条件が満たさ
れた時点で学習を終了させる。
【0118】あるいは、終了判定手段127は、(クラ
ス間変動/クラス内変動)比の変化を調べて、その増加
が予め定められた値よりも小さくなった時点で学習を終
了させる構成にしても良い。
【0119】パターン識別装置200は、特徴抽出装置
100で学習された部分空間を用いてパターン識別を行
なう。
【0120】特徴ベクトル算出手段123は、対象パタ
ーン入力手段210から入力された、識別の対象となる
パターンI0iを正規化した上で、それを部分空間基底
ベクトル記憶手段130に記憶されている各基底ベクト
ルが指定する部分空間群へと射影し、特徴ベクトルC=
(C,C,・・・,C)を算出する。
【0121】すなわち以下のような処理を行なう。
【0122】
【数11】
【0123】
【数12】
【0124】特徴ベクトル算出手段113は、参照パタ
ーン入力手段112から入力された参照パターンI
p,iに対しても同様に、パターンを正規化した上で部
分空間群へと射影して特徴ベクトルC=(Cp1,C
p2,...,CpM)を算出する。
【0125】パターン判定手段124は、パラメータ記
憶手段125からクラス内分散σ j,Wを読み出し、
次式に従って特徴ベクトル間の距離dpを算出し、この
距離が最も小さい参照パターンが代表するクラスを判定
結果として出力する。
【0126】
【数13】
【0127】なお、本実施の形態では、(4)式による
処理で入力パターンの規格化を行なう構成になっている
が、これの代わりに、(7)式で得られる特徴ベクトル
に対して次式のような規格化処理を行なう構成にしても
良い。
【0128】
【数14】
【0129】ここでsは予め定めておく小さな正の定数
である。
【0130】また、本実施の形態では、特徴ベクトルの
各成分が互いに無相関になるようにして、各成分の(ク
ラス間変動/クラス内変動)比を大きくするように学習
を進める構成になっているが、この部分を、次式で表さ
れる特徴ベクトルの(クラス間変動/クラス内変動)比
を評価関数として、これを増加させるような学習則に置
き換えることも可能である。
【0131】
【数15】
【0132】ここでdet(S)は特徴ベクトルCの
クラス間分散行列Sの行列式、det(S)は特徴
ベクトルCのクラス内分散行列Sの行列式を表す。
【0133】この場合には(8)式で表される各基底ベ
クトルの更新処理は、次式のように勾配(∂T’/∂W
j,k,i)に沿ってT’が増加するように、次式に従
って行なわれる。
【0134】
【数16】
【0135】また、この場合には、(7)式で表される
特徴成分間の抑制による補正処理、および(10)式で
表される抑制パラメータの更新処理は行なう必要はな
い。
【0136】線形判別分析の場合には、特徴ベクトルの
各成分を無相関にして、各成分の(クラス間変動/クラ
ス内変動)比を最大化すると、得られる特徴ベクトル
は、(15)式の(クラス間変動/クラス内変動)比
T’を最大化する特徴ベクトルにもなっていることが知
られている。
【0137】次に、本発明の第2の実施の形態について
説明する。
【0138】第2の実施の形態は、第1の実施の形態と
ほぼ同じ構成を持ち、ほぼ同じ動作を行なうが、次の点
だけが異なっている。
【0139】すなわち、第2の実施の形態では、パラメ
ータ更新手段126が各基底ベクトルの更新を(8)式
で示された規則に従って行なった後、次式に従って正規
化処理を行なう。
【0140】
【数17】
【0141】しかし、第1の実施の形態とは異なり、そ
の後グラムシュミットの直交化処理は行なわない。
【0142】これ以外の点では、第2の実施の形態の構
成、動作は、第1の実施の形態と全く同じである。
【0143】第2の実施の形態では、正規直交化処理を
行なわないため、各部分空間を指定する2本の基底ベク
トルは必ずしも正規直交基底をなさない。
【0144】従って、第2の実施の形態では、(5)式
で示される処理、あるいは(12)式で示される処理に
よって得られる量は必ずしも部分空間への射影ベクトル
の射影長にはならず、「一般化された射影長」とでも呼
ぶべきものが得られることになるが、この点に注意すれ
ば、上記以外の点では、第2の実施の形態は第1の実施
の形態と全く同じ処理を行なう。
【0145】本明細書では、正規直交していないベクト
ルWj,kを用いて計算される(5)式右辺の平方根を
「一般化された射影長」と呼ぶことにする。
【0146】ここで、第2の実施の形態と第1の実施の
形態との違いについて説明を行なう。
【0147】図9、図10、図11はノルムが規格化さ
れた入力ベクトルXがなす超球面を表している。
【0148】ここでは説明の簡単化のために3次元の入
力ベクトルを考えているので、この超球面は通常の球面
で表されている。
【0149】さて、図9、図10、図11で、ある特定
の部分空間(平面)への入力ベクトルの射影長を考える
と、この射影長を最大にする入力ベクトルは、球面と部
分空間(平面)との交差部分として得られる円上に分布
している。
【0150】従って、射影長が最大値から一定の変動範
囲内に納まるような入力ベクトルは、図9では、斜線で
示したようなバンド内に分布する。
【0151】ところで、入力ベクトルXとある単一のベ
クトルpとの内積、(p,X)をとる場合を考えると、
その値がその最大値から一定の変動範囲内に納まる領域
は、pを中心とした円図10になる。
【0152】従って、部分空間法では、図9のバンドの
方向を、パターン変動に伴う入力ベクトルの変動の方向
に設定すれば、パターン変動に強い特徴抽出ができるこ
とになる。
【0153】これが、第1の実施の形態でパターン変動
に対して強い特徴抽出が達成される理由である。
【0154】ところで場合によっては、異なるクラスに
属する入力ベクトルが図9のバンド内にも分布している
場合が起こりうる(図11)。
【0155】このようなことが起こると、これは特徴の
クラス間変動を小さくする方向に作用するので、パター
ン識別に用いる特徴としては望ましくない。
【0156】第2の実施の形態では、「一般化された射
影長」を特徴として算出するので、特徴値がその最大値
から一定の変動範囲内に納まる領域は、一般的には上記
のようなバンドにはならず、特定の距離で切れる有限の
長さの領域になる(図10)。
【0157】この点が第1の実施の形態と第2の実施の
形態との動作の違いである。
【0158】第2の実施の形態では、学習によって、パ
ターン変動によるクラス内変動を抑えながら、他のクラ
スを排除するように上記領域が設定されていくので、よ
りパターン識別に適した特徴を抽出することが可能にな
る。
【0159】本実施の形態では(17)式で表される正
規化だけを行なっているが、この正規化処理を行なう前
に、各基底ベクトルに直交化処理を行なうに構成しても
良い。
【0160】この場合には、各基底ベクトルは必ずしも
正規直交系をなさないが、直交系をなし、その二乗和が
1に規格化される。
【0161】次に本発明の第3の実施の形態について図
2を参照して説明する。
【0162】第3の実施の形態は、第1の実施の形態の
特徴抽出装置が2段、階層的に接続された構成になって
おり、学習パターンとその属するクラス、およびサブク
ラスを入力、記憶する学習パターン入力・記憶手段11
0aと、特徴抽出に用いる第1の部分空間群の各基底ベ
クトルを学習によって決定する部分空間基底ベクトル第
1学習手段120a−1と、学習で決定された第1の部
分空間基底ベクトルを記憶する部分空間基底ベクトル第
1記憶手段130a−1と、特徴抽出に用いる第2の部
分空間群の各基底ベクトルを学習によって決定する部分
空間基底ベクトル第2学習手段120a−2と、学習で
決定された第2の部分空間基底ベクトルを記憶する部分
空間基底ベクトル第2記憶手段130a−2とを備えて
いる。
【0163】さらに部分空間基底ベクトル第1学習手段
120a−1、および部分空間基底ベクトル第2学習手
段120a−2は、それぞれ、第1の実施の形態におけ
る部分空間基底ベクトル学習手段120と同様の構成を
とっており、特徴抽出に用いる部分空間群の初期設定等
を行なう初期化手段121と、パターンの正規化を行な
う正規化手段122と、正規化された学習パターンを各
部分空間それぞれに射影し、射影ベクトルの大きさの二
乗を算出することによって特徴を抽出する特徴ベクトル
抽出手段123と、算出された特徴ベクトルに対して特
徴間の抑制処理を施し、特徴ベクトルを補正する特徴ベ
クトル補正手段124と、特徴ベクトルの平均、分散、
クラス内平均、クラス内分散、特徴間抑制パラメータ等
のパラメータを記憶するパラメータ記憶手段125と、
各部分空間の基底ベクトルおよび各種パラメータの更新
を行なうパラメータ更新手段126と、学習の終了を判
定する終了判定手段127とを備えている。
【0164】本実施の形態では、学習パターンが属する
各クラスは、さらに細かくサブクラスに分けられてお
り、各学習パターンは、その属するクラスとともに、そ
れぞれどのサブクラスに属するか、予め分類されている
ものとする。
【0165】そして、学習パターンとともに、それが属
するクラスp1、およびサブクラスp2が学習パターン
入力・記憶手段110aによって入力、記憶される。
【0166】ここで、各学習パターンのサブクラスへの
分類は、例えば、パターンに生じうる変動の種類に応じ
て、変動の大きさを表すパラメータの値を指標にして予
め行なっておく。
【0167】例えば、回転によるパターン変動が起こり
うる場合には、回転操作によって互いに変換される画像
は同じクラスに分類する。
【0168】またその場合、予め定めて於いた回転角の
範囲内の回転操作によってある画像から変換される画像
は、互いに「近い」ものとして同じサブクラスに分類す
る。
【0169】例えば標準画像を0〜10度回転して得ら
れる画像はサブクラスp2−1、10〜20度回転して
得られる画像はサブクラスp2−2等々のように分類し
ておく。
【0170】また、例えば顔画像からの特徴抽出を行な
う場合に、各人物が顔の向きを変えたり、表情を変えた
りしている動画像を撮影し、それから学習パターンをと
ってくる場合、同一人物の一連の動画像を構成する各フ
レームの像は同じクラスに分類し、さらにその中でも互
いに時間的に近いフレームの像を同じサブクラスに分類
する、というような方法によってサブクラスへの分類を
予め施しておくものとする。
【0171】部分空間基底ベクトル第1学習手段120
a−1は、第1の実施の形態の部分空間基底ベクトル学
習手段120と全く同じ動作を行なう。
【0172】ただし、ここではサブクラスp2を「クラ
ス」と見なし、第1の実施の形態の動作説明で用いた語
「クラス」は全て「サブクラス」と読み替えた処理が行
なわれる。
【0173】従って、部分空間基底ベクトル第1学習手
段120a−1は、(サブクラス間変動/サブクラス内
変動)比を最大にするように第1の部分空間群の基底ベ
クトルの更新を進め、学習が行なわれる。
【0174】こうして得られた第1の部分空間群の基底
ベクトルは、部分空間基底ベクトル第1記憶手段130
a−1に記憶される。
【0175】次に、この学習が終了した段階で、部分空
間基底ベクトル第2学習手段120a−2によって、第
2の部分空間の学習が行なわれる。
【0176】この学習は次のように進む。
【0177】まず、学習パターン入力・記憶手段110
aによって入力された学習パターンは、部分空間学習手
段1、202を構成している正規化手段122によって
正規化された上で、やはり部分空間学習手段1、202
を構成している特徴ベクトル抽出手段123によって、
第1の各部分空間に射影され、各射影ベクトルの大きさ
の二乗を算出することによって特徴ベクトルが算出され
る。
【0178】この第1の部分空間群への射影処理におい
て、各部分空間の基底ベクトルは部分空間基底ベクトル
第1記憶手段130a−1から読み出される。
【0179】部分空間基底ベクトル第2学習手段120
a−2は、この特徴ベクトルを学習ベクトルと見なして
学習を行なう。
【0180】すなわち、こうして算出された特徴ベクト
ルが、部分空間基底ベクトル第2学習手段120a−2
へと送られ、以下、部分空間基底ベクトル第2学習手段
120a−2は、第1の実施の形態における部分空間基
底ベクトル学習手段120と全く同じ動作を行ない学習
を進める。
【0181】ただし、ここで、第1の実施の形態の動作
説明での「学習パターン」は、部分空間学習手段1、2
02によって算出された上記特徴ベクトルと読み替えた
処理が行なわれ、(クラス間変動/クラス内変動)比を
最大にするように学習が行なわれる。
【0182】このように、本実施の形態では、パターン
変動の吸収を2段階にわたる部分空間によって行なうこ
とによって、1段の部分空間では吸収しきれないような
大きなパターン変動に対しても、抽出される特徴ベクト
ルを安定化することができ、その結果、より高い(クラ
ス間変動/クラス内変動)比を実現できる。
【0183】その結果、よりパターン識別に適した特徴
を学習することができる。
【0184】なお、本実施の形態では、部分空間基底ベ
クトル学習手段1および、部分空間基底ベクトル学習手
段2は、それぞれ第1および第2の部分空間群へと入力
パターンを射影しその射影長の二乗を算出することによ
って特徴を抽出する構成になっているが、この部分を、
第2の実施の形態で説明したように「一般化された射影
長」を用いて特徴を抽出する構成にすることも可能であ
る。
【0185】次に、本発明の第4の実施の形態について
図4、図5を参照して説明する。
【0186】本発明の第4の実施の形態は、学習パター
ンとその属するクラスを入力、記憶する学習パターン入
力・記憶手段110cと、特徴抽出に用いる階層部分空
間群の各基底ベクトルを学習によって決定する階層部分
空間基底ベクトル学習手段120cと、上記学習で決定
された階層部分空間基底ベクトルを記憶する階層部分空
間基底ベクトル記憶手段130cとを有している。
【0187】さらに階層部分空間基底ベクトル学習手段
120cは、特徴抽出に用いる階層部分空間群の初期設
定等を行なう初期化手段121cと、学習パターンの正
規化を行なう第1正規化手段122c−1と、正規化さ
れた学習パターンを第1の部分空間それぞれに射影し、
射影ベクトルの大きさの二乗を算出することによって第
1の特徴を抽出する特徴ベクトル第1抽出手段123c
−1と、算出された第1の特徴ベクトルに対して特徴間
の抑制処理を施し、第1の特徴ベクトルを補正する特徴
ベクトル第1補正手段124c−1と、上記補正された
第1の特徴ベクトルを受け取って、その正規化を行なう
第2正規化手段122c−2と、正規化された第1の特
徴ベクトルを第2の部分空間それぞれに射影し、射影ベ
クトルの大きさの二乗を算出することによって第2の特
徴を抽出する特徴ベクトル第2抽出手段123c−2
と、算出された第2の特徴ベクトルに対して特徴間の抑
制処理を施し、第2の特徴ベクトルを補正する特徴ベク
トル第2補正手段124c−2と、上記第2の特徴ベク
トルの平均、分散、クラス内平均、クラス内分散、およ
び特徴間抑制パラメータ等の各種パラメータを記憶する
パラメータ記憶手段308と、階層部分空間の各基底ベ
クトルおよび各種パラメータの更新を行なうパラメータ
更新手段312と、学習の終了を判定する終了判定手段
313とを備えている。
【0188】次に図4を参照して本実施の形態の動作に
ついて説明する。
【0189】まず、初期化手段121cが、学習の開始
に先だって、階層部分空間の各基底ベクトル、および各
種パラメータの初期化処理を行なう。
【0190】階層部分空間基底ベクトル記憶手段130
cに記憶される、階層部分空間基底ベクトルの各成分W
s,j,k,iには乱数によるランダムな初期値が与え
られ、次にグラムシュミットの直交化法によって、各部
分空間ごとに基底ベクトルは正規直交化される。
【0191】また、初期化手段121cは、平均<C
2,j>、クラス内平均<C2,j( p)>、クラス間
分散σ j,B、クラス内分散σ j,Wの各パラメー
タを予め定めておく初期値に設定し、パラメータ記憶手
段308に送る。
【0192】さらに初期化手段121cは抑制パラメー
タVs,i,jの値を全てゼロに初期化し、やはりパラ
メータ記憶手段308に送る。
【0193】学習パターン入力・記憶手段110cによ
って入力、記憶された学習パターンIp0i(1≦i≦
N、Nはパターンの次元数)、およびその属するクラス
pは、階層部分空間基底ベクトル学習手段120cへと
送られる。
【0194】以後、第1正規化手段122c−1、特徴
ベクトル第1抽出手段123c−1特徴ベクトル第1補
正手段124c−1による処理は、第1の実施の形態で
説明したものと同じである。
【0195】すなわち、第1正規化手段122c−1に
よって正規化された学習パターンI piは、特徴ベクト
ル第1抽出手段123c−1によって、次式の処理を受
け、第1の特徴ベクトルがC’1,jが算出される。
【0196】
【数18】
【0197】次に、特徴ベクトル第1補正手段124c
−1が、パラメータ記憶手段308に記憶されている抑
制パラメータV1,i,jを読み出し、次式で示される
補正処理を行なう。
【0198】
【数19】
【0199】第2正規化手段122c−2、特徴ベクト
ル第2抽出手段123c−2、特徴ベクトル第2補正手
段124c−2は、このC”1,jに対して同様の処理
を行なう。
【0200】すなわち、まず、第2正規化手段122c
−2は、上記の補正を受けた第1の特徴ベクトルC”
1,jに対して、次式のような正規化処理を行なう。
【0201】
【数20】
【0202】その上で特徴ベクトル第2抽出手段123
c−2は次式のような特徴を算出する。
【0203】
【数21】
【0204】次に、特徴ベクトル第2補正手段124c
−2が、パラメータ記憶手段308に記憶されている抑
制パラメータV2,ijを読み出し、次式の補正処理を
行なう。
【0205】
【数22】
【0206】パラメータ更新手段312は、こうして得
られた第2の特徴ベクトル、すなわち最終的特徴、C
2,jのクラス間変動とクラス内変動との比が大きくな
るように、上記の階層的な構成をとる各部分空間の基底
ベクトルを更新していく。
【0207】すなわち、特徴ベクトルC2,jのクラス
間変動をσ j,B、クラス内変動σ j,Wとする
と、T=Σ(σ j,B/σ j,W)を評価関数と
して、この値が大きくなるように、勾配(∂T/∂W
2,j,k,i)および(∂T/∂W1,j,k,i
に沿ってTが増加する方向に各基底ベクトルW
2,j,k ,iおよびW1,j,k,iを更新する。
【0208】具体的には次式に従ってW2,j,k,i
およびW1,j,k,iの更新を実行する。
【0209】すなわち、クラスpに属する学習パターン
piが入力された場合、次式に従って各基底ベクトル
の更新が行なわれる。
【0210】
【数23】
【0211】
【数24】
【0212】ここで、ε,ε’は学習のレートを決め
る、予め定めておいたパラメータ、<C2,j>は特徴
2,jの平均値、<C2,j(p)>はクラスpに属
する学習パターンが入力した時の特徴C2,jの平均
値、σ j,Bは特徴C2,jのクラス間分散、σ
j,Wは特徴C2,jのクラス内分散をそれぞれ表すパ
ラメータで、これらパラメータの値はパラメータ記憶手
段308から読み出される。
【0213】また、C2,jは現在の入力パターンI
piに対応する特徴値である。
【0214】なお、この更新則では、抑制パラメータV
1,i,j,V2,i,jに直接依存する項は省略して
あるが、これらを取り入れた更新則を用いる構成にする
ことももちろん可能である。
【0215】この場合、更新則は次式で与えられる。
【0216】
【数25】
【0217】
【数26】
【0218】これらの式に従い、各基底ベクトルの更新
が行なわれる。
【0219】上記の更新処理によって得られる基底ベク
トルは、必ずしも正規直交系をなさないので、パラメー
タ更新手段312は、更新された各基底ベクトルに対し
て、さらにグラムシュミットの直交化法で正規直交化の
処理を行なう。
【0220】また、パラメータ更新手段312は、次式
に示される処理を行ない、パラメータ記憶手段308が
記憶している、平均<C2,j>、クラス内平均<C
2,j (p)>、クラス間分散σ j,B、クラス内分
散σ j,Wの各パラメータの更新を行なう。
【0221】
【数27】
【0222】ここでε〜εは予め定められている、
1よりも十分に小さな正の定数である。
【0223】またpは現在の学習パターンが属するクラ
スを表す。
【0224】パラメータ更新手段312はさらに、パラ
メータ記憶手段308によって記憶されている抑制パラ
メータVs,i,jの更新を次式に従って行なう。
【0225】
【数28】
【0226】ここでεは予め定められている、1より
も十分に小さな正の定数である。
【0227】以上の処理が終了した時点で、学習パター
ン入力・記憶手段110cは次の学習パターンを入力
し、同様の処理を繰り返す。
【0228】終了判定手段313は、全ての学習パター
ンそれぞれに対して、予め定められた回数、Nmax回
の学習を行なったかどうかを判定し、この条件が満たさ
れた時点で学習を終了させる。
【0229】あるいは、終了判定手段313は、(クラ
ス間変動/クラス内変動)比の変化を調べて、その増加
が予め定められた値よりも小さくなった時点で学習を終
了させる構成にしても良い。
【0230】本実施の形態では、部分空間によるパター
ン変動の吸収を2段階にわたって行なうことによって、
1段の部分空間では吸収しきれないような大きなパター
ン変動に対しても、抽出される特徴ベクトルを安定化す
ることができ、その結果、より高い(クラス間変動/ク
ラス内変動)比を実現できる。
【0231】なお、本実施の形態では、パラメータ更新
手段はグラムシュミットの直交化を行ない、各部分空間
基底ベクトルの正規直交化を行なっているが、この正規
直交化を行なわずに、第2の実施の形態で説明したよう
に「一般化された射影長」を用いて特徴を抽出する構成
にすることも可能である。
【0232】次に、本発明の第5の実施の形態について
説明する。
【0233】図6は第5の実施の形態について、その処
理の流れを示すブロック図である。
【0234】本発明の第5の実施の形態は、各パラメー
タの初期化を行なう初期化手段601と、入力パターン
とそれに対応する望ましい出力パターンとの組から構成
される学習パターンを入力、記憶する、学習パターン入
力手段602と、学習終了時の想起モードにおいて入力
パターンを入力するパターン入力手段607と、入力パ
ターンから中間出力を算出する中間出力算出手段603
と、上記中間出力から最終出力を算出する最終出力算出
手段604と、上記最終出力と、望ましい出力パターン
とから中間出力算出手段603、および最終出力算出手
段604の各種パラメータを更新、修正するパラメータ
更新手段605と、学習の終了を判定する終了判定手段
606とを備えている。
【0235】次に図6を参照して本実施の形態の動作に
ついて説明する。
【0236】まず、初期化手段601が、学習の開始に
先だって、各種パラメータの初期化処理を行なう。
【0237】中間出力算出手段603に記憶されるパラ
メータ、W1,j,k,iおよび、最終出力算出手段6
04に記憶されるパラメータ、W2,j,k,iには乱
数によるランダムな初期値が与えられる。
【0238】次に、学習モードにおいては、学習パター
ン入力手段602が入力パターンとそれに対応する望ま
しい出力パターンとの組から構成される学習パターンを
入力、記憶する。
【0239】次に、中間出力算出手段603は、入力パ
ターンIp0i(1≦i≦N、Nはパターンの次元数)
に対して次のような処理を行ない、中間出力を算出す
る。
【0240】すなわち、まず中間出力算出手段603
は、入力パターンIp0iを次式のように規格化する。
【0241】
【数29】
【0242】次に、中間出力算出手段603は、記憶し
ているパラメータW1,j,k,iを用いて次式の処理
を行ない中間出力C1,j(1≦j≦M,Mは予め定め
ておく自然数)を算出する。
【0243】
【数30】
【0244】次に、最終出力算出手段604は、この中
間出力を受け取り、それに対して次のような処理を行な
い最終出力を算出する。
【0245】すなわち、まず最終出力算出手段604
は、次式のような処理によって中間出力を規格化する。
【0246】
【数31】
【0247】次に、最終出力算出手段604は、記憶し
ているパラメータW2,j,k,iを用いて次式の処理
を行ない、最終出力C2,j(1≦j≦M’,M’は望
ましい出力パターンの次元数)を算出する。
【0248】
【数32】
【0249】次に、パラメータ更新手段605は、学習
パターン入力手段602によって入力され、記憶されて
いる望ましい出力パターンTp,j(1≦j≦M’)
と、上記最終出力C2,jとができるだけ一致するよう
に各パラメータ、W1,j,k ,i、W2,j,k,i
の更新処理を行なう。
【0250】すなわち、望ましい出力パターンTp,j
と、最終出力C2,jとの平均二乗誤差をE=<(C
2,j−Tp,j>とし(記号<・>は学習パター
ンに関する平均操作を表す)この誤差が小さくなるよう
に、勾配(−∂E/∂W2,j ,k,i)および(−∂
E/∂W1,j,k,i)に沿って、平均二乗誤差Eが
減少する方向に各パラメータW2,j,k,iおよびW
1,j,k,iを更新する。
【0251】具体的には、次式に従ってW
2,j,k,iおよびW1,j,k,iの更新を実行す
る。
【0252】
【数33】
【0253】
【数34】
【0254】ここでε,およびε’は学習のレートを決
める、予め定めておいたパラメータである。
【0255】S2,j,k、C’1,i
1,k,j、Crmsはそれぞれ(30)、(3
1)、(32)式に現れる量であり、これらの値は、そ
れぞれ最終出力算出手段604、および中間出力算出手
段603から受け取る。
【0256】C2,jは最終出力算出手段604が算出
する最終出力、Ipiは規格化された入力パターンを表
す。
【0257】以上の処理が終了すると、学習パターン入
力手段602は、次の学習パターンの入力、記憶を行な
い、同様の処理を続ける。
【0258】終了判定手段606は、出力誤差Eが予め
定めておいた値Emaxよりも小さくなったか否かを判
定し、出力誤差がEmaxよりも小さくなった場合に、
あるいは全ての学習パターンに対して予め定められた回
数、Nmax回の学習の学習動作を行なった場合に、学
習モードを終了させる。
【0259】次に、こうして学習した入力−出力関係を
用いて、与えられた入力に対して望ましい出力を算出す
る、想起モードにおける本発明の動作を説明する。
【0260】まず、パターン入力手段607が入力パタ
ーンを入力する。
【0261】次に、中間出力算出手段603は、入力パ
ターンに対して(29)式、(30)式で示される処理
を行ない、中間出力を算出する。
【0262】次に、最終出力算出手段604は、この中
間出力を受け取り、それに対して(31)式、(32)
式で示される処理を行ない最終出力を算出し、これを出
力パターンとして出力する。
【0263】なお、本実施の形態では、最終出力算出手
段604は、(31)式の処理によって中間出力を規格
化する構成になっているが、この(31)式の処理を、
次式のようなシグモイド関数を用いた処理に置き換える
ことも可能である。
【0264】
【数35】
【0265】ここで、f(x)はシグモイド関数と呼ば
れる関数であり、uは予め定められているパラメータ
である。
【0266】この場合にも、平均二乗誤差、Eの勾配
(−∂E/∂W2,j,k,i)および(−∂E/∂W
1,j,k,i)に沿って、平均二乗誤差Eが減少する
方向に各パラメータW2,j,k,iおよびW
1,j,k,iを更新していけば良い。
【0267】本実施の形態は、図7に示した多層パーセ
プトロン・ニューラルネットワークの各層を構成する処
理ユニットを、図8に示したような、それぞれ部分空間
を記憶し、ユニットへの入力ベクトルを規格化した上で
部分空間へと射影しその一般化された射影長を算出、出
力する処理ユニットに置き換えたものと考えることがで
きる。
【0268】従って、本発明では、部分空間への射影を
利用してパターン変動に対して出力を安定化させるとい
う仕組みを構造として組み込んであるため、通常の多層
パーセプトロン・ニューラルネットワークと比較して、
学習に要する時間を大幅に軽減させながら、パターン変
動に強いパターン学習が容易に実現される。
【0269】部分空間が適切に設定されれば、そこへの
射影長の二乗は、パターン変動に対して安定になること
が知られている。
【0270】そのため、本発明では、パターン変動に対
して強い特徴ベクトルが抽出される。
【0271】パラメータ更新手段によって、クラス間変
動/クラス内変動比を大きくするように学習を進めるこ
とによって、各部分空間が最適化され、クラス間変動/
クラス内変動比の大きい、すなわちパターン識別に適し
た特徴抽出が可能になる。
【0272】また、膨大な学習を必要とすることなく、
パターン変動に対して強いパターン学習を実現するた
め、本発明のパターン学習装置では、装置の各層を構成
する各処理ユニット(中間出力算出手段603、最終出
力算出手段604)、それぞれの入力パターンを正規化
した上で部分空間へと射影し、射影ベクトルの射影長、
もしくは一般化された射影長の二乗をその処理ユニット
の出力として算出する手段を有している。
【0273】また、最終出力算出手段604から得られ
る出力パターンを、望ましい出力パターンと一致させる
ように、各層、各処理ユニットの各パラメータを学習に
よって更新するパラメータ更新手段605を有してい
る。
【0274】部分空間が適切に設定されれば、そこへの
射影長、もしくは一般化された射影長はパターン変動に
対して安定化するから、本発明のパターン学習装置で
は、パラメータ更新手段による学習が進むに従って各部
分空間が最適化され、パターン変動に強いパターン学習
が容易に実現される。
【0275】また、部分空間への射影を利用してパター
ン変動に対して出力を安定化させるという仕組みを始め
から構造として組み込んであるため、通常の多層パーセ
プトロン・ニューラルネットワークと比較して、学習に
要する時間を大幅に軽減することができる。
【0276】なお、本発明は上述した実施の形態に限定
されるものではなく、その技術思想の範囲内において様
々に変形して実施することができる。
【0277】
【発明の効果】以上説明したように本発明では、パター
ン変動に対して強い、パターン識別に適した特徴を決
定、抽出できるという効果がある。
【0278】また、本発明では、膨大な学習を必要とす
ることなく、パターン変動に対して強いパターン学習が
実現できるという効果がある。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態による特徴抽出装
置及びパターン識別装置の構成を示すブロック図であ
る。
【図2】 本発明の第1の実施の形態の部分基底ベクト
ル学習手段の構成を示すブロック図である。
【図3】 本発明の第3の実施の形態による特徴抽出装
置の構成を示すブロック図である。
【図4】 本発明の第4の実施の形態による特徴抽出装
置の構成を示すブロック図である。
【図5】 本発明の第4の実施の形態の階層部分空間基
底ベクトル学習手段の構成を示すブロック図である。
【図6】 本発明の第5の実施の形態による特徴抽出装
置の構成を示すブロック図である。
【図7】 従来技術の3層のパーセプトロン・ニューラ
ルネットワークの構造を示す図である。
【図8】 本発明の3層のパーセプトロン・ニューラル
ネットワークの構造を示す図である。
【図9】 単位ベクトルがなす超球面上に、射影長の値
が最大値から一定の変動範囲内に納まる単位ベクトルの
範囲の例を示す図である。
【図10】 単位ベクトルがなす超球面上に、ある単位
ベクトルpとの内積(p,X)の値が最大値から一定の
変動範囲内に納まる単位ベクトルXの成す領域の例を示
す図である。
【図11】 異なるクラスに属する単位ベクトルが、図
10に示された単位ベクトルの範囲内にも分布している
場合の例を示す図である。
【符号の説明】
100、100a、100b、100c 特徴抽出装置 110 学習パターン入力・記憶手段 120 部分空間基底ベクトル学習手段 120a−1 部分空間基底ベクトル第1学習手段 120a−2 部分空間基底ベクトル第2学習手段 120b 階層部分空間基底ベクトル学習手段 121、121b 初期化手段 122 正規化手段 122b−1 第1正規化手段 122b−2 第2正規化手段 123 特徴ベクトル抽出手段 123b−1 特徴ベクトル第1抽出手段 123b−2 特徴ベクトル第2抽出手段 124 特徴ベクトル補正手段 124b−1 特徴ベクトル第1補正手段 124b−2 特徴ベクトル第2補正手段 125、125b パラメータ記憶手段 126、126b パラメータ更新手段 127、127b 終了判定手段 130 部分空間基底ベクトル記憶手段 130a−1 部分空間基底ベクトル第1記憶手段 130a−2 部分空間基底ベクトル第2記憶手段 130b 階層部分空間基底ベクトル記憶手段 200 パターン識別装置 210 対象パターン入力手段 220 参照パターン入力手段 230 特徴ベクトル算出手段 240 パターン判定手段 601 初期化手段 602 学習パターン入力手段 603 中間出力算出手段 604 最終出力算出手段 605 パラメータ更新手段 606 終了判定手段 607 パターン入力手段

Claims (24)

    (57)【特許請求の範囲】
  1. 【請求項1】 識別対象である学習パターンを部分空間
    群に射影し、各部分空間への射影長の二乗を特徴ベクト
    ルとして算出する特徴ベクトル算出手段と、 前記特徴ベクトルの各成分のクラス間変動とクラス内変
    動との比を増加させるように、前記部分空間群を構成す
    る各部分空間の基底ベクトルを更新するパラメータ更新
    手段とを少なくとも有する部分空間基底ベクトル学習手
    段を備えることを特徴とする特徴抽出装置。
  2. 【請求項2】 前記特徴ベクトル算出手段は、 前記学習パターンを正規化した上で部分空間群に射影
    し、各部分空間への射影長の二乗、もしくはそれから誘
    導される量を特徴ベクトルとして算出することを特徴と
    する請求項1に記載の特徴抽出装置。
  3. 【請求項3】 前記部分空間基底ベクトル学習手段は、 算出された前記特徴ベクトルに対して予め設定された抑
    制パラメータに基づいて特徴間の抑制処理を行なうこと
    により、前記特徴ベクトルを補正する補正手段を備える
    ことを特徴とする請求項1または請求項2に記載の特徴
    抽出装置。
  4. 【請求項4】 前記パラメータ更新手段は、 更新処理によって得られた前記基底ベクトルに対して、
    グラムシュミットの直交化法によって正規直交化の処理
    を行なうことを特徴とする請求項1から請求項3の何れ
    か一つに記載の特徴抽出装置。
  5. 【請求項5】 前記特徴ベクトル算出手段は、 前記学習パターンを正規化した上で部分空間群に射影
    し、各部分空間への一般化された射影長の二乗を特徴ベ
    クトルとして算出することを特徴とする請求項1に記載
    の特徴抽出装置。
  6. 【請求項6】 前記部分空間基底ベクトル学習手段は、 特徴ベクトルの各成分を相互に無相関あるいは独立にす
    ると同時に、特徴ベクトル各成分のクラス間変動とクラ
    ス内変動との比を増加させるように基底ベクトルを更新
    することによって、特徴ベクトルのクラス間変動とクラ
    ス内変動との比を増加させる基底ベクトルの更新処理を
    行なうことを特徴とする請求項1から請求項5の何れか
    一つに記載の特徴抽出装置。
  7. 【請求項7】 入力パターンと、それが属するクラス名
    Cと、さらに入力パターンが属するサブクラス名C
    系列(m=1〜n、nは1以上の整数で、このサブクラ
    スの系列はmが大きいほどより細分類されたサブクラス
    となるように階層的に構成されているとする)とからな
    るデータの集合を学習用データとして用いて特徴を決定
    する特徴抽出装置であって、 (n+1)段階の特徴抽出層から構成され、 第1段階の特徴抽出層は、 入力する学習パターンを正規化した上で第1の部分空間
    群に射影し、各部分空間への一般化された射影長の二
    乗、もしくはそれから誘導される量を第1の特徴ベクト
    ルとして算出する第1の特徴ベクトル算出手段と、 前記第1の特徴ベクトルの、第n階層目のサブクラスす
    なわち最も細分化されたサブクラスに関するサブクラス
    間変動とサブクラス内変動との比を増加させるように、
    前記第1の部分空間群を構成する各部分空間の基底ベク
    トルを更新する第1のパラメータ更新手段とを少なくと
    も有する第1の部分空間基底ベクトル学習手段とを備
    え、nが2以上の場合には、 第k段階(k=2〜n)の特徴
    抽出層は、第(k−1)段階の特徴抽出層で算出された
    第(k−1)の特徴ベクトルを正規化した上で第kの部
    分空間群に射影し、各部分空間への一般化された射影長
    の二乗、もしくはそれから誘導される量を第kの特徴ベ
    クトルとして算出する第kの特徴ベクトル算出手段と、 前記第kの特徴ベクトルの、第(n+1−k)階層目の
    サブクラスに関する(サブクラス間変動/サブクラス内
    変動)比を増加させるように、前記第kの部分空間群を
    構成する各部分空間の基底ベクトルを更新する第kのパ
    ラメータ更新手段とを少なくとも有する第kの部分空間
    基底ベクトル学習手段を備えることを特徴とする特徴量
    抽出装置。
  8. 【請求項8】 第(n+1)段階の特徴抽出層は、 第n段階の特徴抽出層で算出された第nの特徴ベクトル
    を正規化した上で第(n+1)の部分空間群に射影し、
    各部分空間への一般化された射影長の二乗、もしくはそ
    れから誘導される量を第kの特徴ベクトルとして算出す
    る第(n+1)の特徴ベクトル算出手段と、 最終的な特徴ベクトルのクラス間変動とクラス内変動と
    の比を増加させるように、前記第(n+1)の部分空間
    群を構成する各部分空間の基底ベクトルを更新する第
    (n+1)のパラメータ更新手段とを少なくとも有する
    第(n+1)の部分空間基底ベクトル学習手段とを有す
    ることを特徴とする請求項7に記載の特徴量抽出装置。
  9. 【請求項9】 前記各特徴抽出層の前記部分空間基底ベ
    クトル学習手段は、 算出された前記特徴ベクトルに対して予め設定された抑
    制パラメータに基づいて特徴間の抑制処理を行なうこと
    により、前記特徴ベクトルを補正する補正手段を備える
    ことを特徴とする請求項7または請求項8に記載の特徴
    抽出装置。
  10. 【請求項10】 前記パラメータ更新手段は、 更新処理によって得られた前記基底ベクトルに対して、
    グラムシュミットの直交化法によって正規直交化の処理
    を行なうことを特徴とする請求項7から請求項9の何れ
    か一つに記載の特徴抽出装置。
  11. 【請求項11】 各特徴抽出層の特徴ベクトル算出手段
    は、当該層への入力を正規化した上で部分空間群に射影
    し、各部分空間への射影長の二乗、もしくはそれから誘
    導される量を特徴ベクトルとして算出し、 各特徴抽出層のパラメータ更新手段は、算出された特徴
    ベクトルのサブクラス間変動とサブクラス内変動との
    比、もしくはクラス間変動とクラス内変動との比を増加
    させるように、部分空間群を構成する各部分空間の正規
    直交基底ベクトルを更新することを特徴とする請求項7
    に記載の特徴抽出装置。
  12. 【請求項12】 前記階層部分空間基底ベクトル学習手
    段は、 特徴ベクトルの各成分を相互に無相関あるいは独立にす
    ると同時に、特徴ベクトル各成分のクラス間変動とクラ
    ス内変動との比、あるいはサブクラス間変動とサブクラ
    ス内変動との比を増加させるように基底ベクトル、ある
    いは正規直交基底ベクトルを更新することによって、特
    徴ベクトルのクラス間変動とクラス内変動との比、ある
    いはサブクラス間変動とサブクラス内変動との比を増加
    させる基底ベクトルあるいは正規直交基底ベクトルの更
    新処理を行なうことを特徴とする請求項7から請求項1
    1の何れか一つに記載の特徴抽出装置。
  13. 【請求項13】 n段階(nは2以上の整数)の特徴抽
    出層と、これらの各特徴抽出層の動作を規定する各パラ
    メータを更新する階層部分空間基底ベクトル学習手段と
    を有する特徴抽出装置であって、 第1段階の特徴抽出層は、 入力パターンを正規化した上で第1の部分空間群に射影
    し、各部分空間への一般化された射影長の二乗、もしく
    はそれから誘導される量を第1の特徴ベクトルとして算
    出する第1の特徴ベクトル算出手段を有し、 第k段階(k=2〜n)の特徴抽出層は、 第(k−1)段階の特徴抽出層で算出された第(k−
    1)の特徴ベクトルを正規化した上で第kの部分空間群
    に射影し、各部分空間への一般化された射影長の二乗、
    もしくはそれから誘導される量を第kの特徴ベクトルと
    して算出する第kの特徴ベクトル算出手段を有し、 前記階層部分空間基底ベクトル学習手段は、第n段階の
    特徴抽出層で算出される最終的な特徴ベクトルである第
    nの特徴ベクトルのクラス間変動とクラス内変動との比
    を増加させるように、前記各特徴抽出層の部分空間群を
    構成する各部分空間の基底ベクトルを更新する手段を有
    していることを特徴とする階層的構成を有する特徴抽出
    装置。
  14. 【請求項14】 階層部分空間基底ベクトル学習手段
    は、 最終的特徴ベクトルのクラス間変動とクラス内変動との
    比を増加させるように、各特徴抽出層の部分空間群を構
    成する各部分空間の正規直交基底ベクトルを更新するこ
    とを特徴とする請求項13に記載の特徴抽出装置。
  15. 【請求項15】 前記各特徴抽出層の前記部分空間基底
    ベクトル学習手段は、 算出された前記特徴ベクトルに対して予め設定された抑
    制パラメータに基づいて特徴間の抑制処理を行なうこと
    により、前記特徴ベクトルを補正する補正手段を備える
    ことを特徴とする請求項13または請求項14に記載の
    特徴抽出装置。
  16. 【請求項16】 前記パラメータ更新手段は、 更新処理によって得られた前記基底ベクトルに対して、
    グラムシュミットの直交化法によって正規直交化の処理
    を行なうことを特徴とする請求項13から請求項15の
    何れか一つに記載の特徴抽出装置。
  17. 【請求項17】 前記階層部分空間基底ベクトル学習手
    段は、 特徴ベクトルの各成分を相互に無相関あるいは独立にす
    ると同時に、特徴ベクトル各成分のクラス間変動とクラ
    ス内変動との比、あるいはサブクラス間変動とサブクラ
    ス内変動との比を増加させるように基底ベクトル、ある
    いは正規直交基底ベクトルを更新することによって、特
    徴ベクトルのクラス間変動とクラス内変動との比、ある
    いはサブクラス間変動とサブクラス内変動との比を増加
    させる基底ベクトルあるいは正規直交基底ベクトルの更
    新処理を行なうことを特徴とする請求項13から請求項
    16の何れか一つに記載の特徴抽出装置。
  18. 【請求項18】 入力ベクトルとそれに対応する望まし
    い出力ベクトルとの組から構成される学習用データの集
    合を用いて入力/出力間の関係を学習するパターン学習
    装置であって、 n段階(nは1以上の整数)の処理層と、 前記各処理層の動作を規定する各パラメータを更新する
    パラメータ更新手段とを有し、 第1段階の処理層は、入力ベクトルを正規化した上で第
    1の部分空間群に射影し、各部分空間への一般化された
    射影長の二乗、もしくはそれから誘導される量を第1の
    出力ベクトルとして算出する第1の出力算出手段を有
    し、 nが2以上の場合には、第k段階(k=2〜n)の処理
    層は、 第(k−1)段階の処理層で算出された第(k−1)の
    出力ベクトルを正規化した上で第kの部分空間群に射影
    し、各部分空間への一般化された射影長の二乗、もしく
    はそれから誘導される量を第kの出力ベクトルとして算
    出する第kの出力算出手段を有し、 前記パラメータ更新手段は、最終的出力ベクトルである
    第n段階の処理層で算出される第nの出力ベクトルと、
    入力ベクトルに対応する望ましい出力ベクトルとの平均
    二乗誤差を減少させるように、前記各処理層の各部分空
    間の基底ベクトルを更新する手段を有することを特徴と
    するパターン学習装置。
  19. 【請求項19】 コンピュータを制御してパターン識別
    のための特徴を抽出する特徴抽出プログラムを読み取り
    可能に格納する記録媒体であって、 前記特徴抽出プログラムは、 識別対象である学習パターンを部分空間群に射影し、各
    部分空間への射影長の二乗を特徴ベクトルとして算出す
    る機能と、 前記特徴ベクトルの各成分のクラス間変動とクラス内変
    動との比を増加させるように、前記部分空間群を構成す
    る各部分空間の基底ベクトルを更新する機能とを備える
    ことを特徴とする特徴抽出プログラムを格納する記録媒
    体。
  20. 【請求項20】 前記特徴抽出プログラムは、 前記特徴ベクトル算出において、 前記学習パターンを正規化した上で部分空間群に射影
    し、各部分空間への一般化された射影長の二乗を特徴ベ
    クトルとして算出することを特徴とする請求項19に記
    載の特徴抽出プログラムを格納する記録媒体。
  21. 【請求項21】 前記特徴抽出プログラムは、 特徴ベクトルの各成分を相互に無相関あるいは独立にす
    ると同時に、特徴ベクトル各成分のクラス間変動とクラ
    ス内変動との比を増加させるように基底ベクトルを更新
    することによって、特徴ベクトルのクラス間変動とクラ
    ス内変動との比を増加させる基底ベクトルの更新処理を
    行なうことを特徴とする請求項19または請求項20に
    記載の特徴抽出プログラムを格納する記録媒体。
  22. 【請求項22】 入力パターンと、それが属するクラス
    名Cと、さらに入力パターンが属するサブクラス名C
    の系列(m=1〜n、nは1以上の整数で、このサブク
    ラスの系列はmが大きいほどより細分類されたサブクラ
    スとなるように階層的に構成されているとする)とから
    なるデータの集合を学習用データとして用いて特徴を決
    定する特徴抽出プログラムを読み出し可能に格納する記
    録媒体であって、 前記特徴抽出プログラムは、 (n+1)段階の特徴抽出層から構成され、 第1段階の特徴抽出層は、 入力する学習パターンを正規化した上で第1の部分空間
    群に射影し、各部分空間への一般化された射影長の二
    乗、もしくはそれから誘導される量を第1の特徴ベクト
    ルとして算出する第1の特徴ベクトル算出機能と、 前記第1の特徴ベクトルの、第n階層目のサブクラスす
    なわち最も細分化されたサブクラスに関するサブクラス
    間変動とサブクラス内変動との比を増加させるように、
    前記第1の部分空間群を構成する各部分空間の基底ベク
    トルを更新する第1のパラメータ更新手段とを少なくと
    も有する第1の部分空間基底ベクトル学習機能とを備
    え、nが2以上の場合には、 第k段階(k=2〜n)の特徴
    抽出層は、第(k−1)段階の特徴抽出層で算出された
    第(k−1)の特徴ベクトルを正規化した上で第kの部
    分空間群に射影し、各部分空間への一般化された射影長
    の二乗、もしくはそれから誘導される量を第kの特徴ベ
    クトルとして算出する第kの特徴ベクトル算出機能と、 前記第kの特徴ベクトルの、第(n+1−k)階層目の
    サブクラスに関する(サブクラス間変動/サブクラス内
    変動)比を増加させるように、前記第kの部分空間群を
    構成する各部分空間の基底ベクトルを更新する第kのパ
    ラメータ更新手段とを少なくとも有する第kの部分空間
    基底ベクトル学習機能を備えることを特徴とする特徴量
    抽出プログラムを格納した記録媒体。
  23. 【請求項23】 第(n+1)段階の特徴抽出層は、 第n段階の特徴抽出層で算出された第nの特徴ベクトル
    を正規化した上で第(n+1)の部分空間群に射影し、
    各部分空間への一般化された射影長の二乗、もしくはそ
    れから誘導される量を第kの特徴ベクトルとして算出す
    る第(n+1)の特徴ベクトル算出機能と、 最終的な特徴ベクトルのクラス間変動とクラス内変動と
    の比を増加させるように、前記第(n+1)の部分空間
    群を構成する各部分空間の基底ベクトルを更新する第
    (n+1)のパラメータ更新機能とを有することを特徴
    とする請求項22に記載の特徴量抽出プログラムを格納
    する記録媒体。
  24. 【請求項24】 n段階(nは2以上の整数)の特徴抽
    出層と、これらの各特徴抽出層の動作を規定する各パラ
    メータを更新する階層部分空間基底ベクトル学習機能を
    実現する特徴抽出プログラムを格納する記録媒体であっ
    て、 前記特徴抽出プログラムは、 第1段階の特徴抽出層において、 入力パターンを正規化した上で第1の部分空間群に射影
    し、各部分空間への一般化された射影長の二乗、もしく
    はそれから誘導される量を第1の特徴ベクトルとして算
    出する第1の特徴ベクトル算出機能を有し、 第k段階(k=2〜n)の特徴抽出層において、 第(k−1)段階の特徴抽出層で算出された第(k−
    1)の特徴ベクトルを正規化した上で第kの部分空間群
    に射影し、各部分空間への一般化された射影長の二乗、
    もしくはそれから誘導される量を第kの特徴ベクトルと
    して算出する第kの特徴ベクトル算出機能を有し、 前記階層部分空間基底ベクトル学習機能では、第n段階
    の特徴抽出層で算出される最終的な特徴ベクトルである
    第nの特徴ベクトルのクラス間変動とクラス内変動との
    比を増加させるように、前記各特徴抽出層の部分空間群
    を構成する各部分空間の基底ベクトルを更新することを
    特徴とする特徴抽出プログラムを格納する記録媒体。
JP28308899A 1999-10-04 1999-10-04 パターン識別のための特徴抽出装置 Expired - Lifetime JP3480563B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP28308899A JP3480563B2 (ja) 1999-10-04 1999-10-04 パターン識別のための特徴抽出装置
US09/679,405 US6778701B1 (en) 1999-10-04 2000-10-04 Feature extracting device for pattern recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28308899A JP3480563B2 (ja) 1999-10-04 1999-10-04 パターン識別のための特徴抽出装置

Publications (2)

Publication Number Publication Date
JP2001101418A JP2001101418A (ja) 2001-04-13
JP3480563B2 true JP3480563B2 (ja) 2003-12-22

Family

ID=17661071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28308899A Expired - Lifetime JP3480563B2 (ja) 1999-10-04 1999-10-04 パターン識別のための特徴抽出装置

Country Status (2)

Country Link
US (1) US6778701B1 (ja)
JP (1) JP3480563B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295700B2 (en) * 2003-10-24 2007-11-13 Adobe Systems Incorporated Object extraction based on color and visual texture
JP4193760B2 (ja) * 2004-06-29 2008-12-10 日本電気株式会社 画像パターン補正方法、及びそれを適用した模擬画像生成方法、並びにパターン外観検査方法
JP2006105943A (ja) * 2004-10-08 2006-04-20 Omron Corp 知識作成装置及びパラメータ探索方法並びにプログラム製品
JP4496943B2 (ja) 2004-11-30 2010-07-07 日本電気株式会社 病理診断支援装置、病理診断支援プログラム、病理診断支援装置の作動方法、及び病理診断支援システム
JP4625948B2 (ja) * 2005-01-21 2011-02-02 国立大学法人徳島大学 パターン検出装置、パターン検出方法、パターン検出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US20060204107A1 (en) * 2005-03-04 2006-09-14 Lockheed Martin Corporation Object recognition system using dynamic length genetic training
JP2007233873A (ja) * 2006-03-02 2007-09-13 Toshiba Corp パターン認識装置及びその方法
US7961955B1 (en) 2008-01-28 2011-06-14 Thomas Cecil Minter Adaptive bayes feature extraction
US8457409B2 (en) * 2008-05-22 2013-06-04 James Ting-Ho Lo Cortex-like learning machine for temporal and hierarchical pattern recognition
JP5554987B2 (ja) * 2009-12-28 2014-07-23 キヤノン株式会社 オブジェクト識別装置及びその制御方法
CN103765480B (zh) * 2011-08-09 2017-06-09 英特尔公司 用于参数化3d脸部生成的方法和设备
JP6760830B2 (ja) * 2016-11-28 2020-09-23 株式会社東海理化電機製作所 学習装置及び学習方法
JP7330521B2 (ja) * 2019-01-25 2023-08-22 国立大学法人東北大学 信号処理方法,信号処理装置および信号処理プログラム
US20210103853A1 (en) * 2019-10-04 2021-04-08 Visa International Service Association System, Method, and Computer Program Product for Determining the Importance of a Feature of a Machine Learning Model

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4259661A (en) * 1978-09-01 1981-03-31 Burroughs Corporation Apparatus and method for recognizing a pattern
JPH01321591A (ja) 1988-06-23 1989-12-27 Nec Corp 文字認識装置
JPH04256087A (ja) 1991-02-07 1992-09-10 Nec Corp パターン認識装置
JPH07311846A (ja) 1994-05-17 1995-11-28 Nippon Telegr & Teleph Corp <Ntt> パタン認識辞書作成装置
US5901244A (en) * 1996-06-18 1999-05-04 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system
JP3264242B2 (ja) 1997-02-28 2002-03-11 日本電気株式会社 認識辞書学習方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
US6122628A (en) * 1997-10-31 2000-09-19 International Business Machines Corporation Multidimensional data clustering and dimension reduction for indexing and searching
JP3621245B2 (ja) * 1997-12-12 2005-02-16 株式会社東芝 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
US6636619B1 (en) * 1999-07-07 2003-10-21 Zhongfei Zhang Computer based method and apparatus for object recognition

Also Published As

Publication number Publication date
US6778701B1 (en) 2004-08-17
JP2001101418A (ja) 2001-04-13

Similar Documents

Publication Publication Date Title
US6212509B1 (en) Visualization and self-organization of multidimensional data through equalized orthogonal mapping
JP3480563B2 (ja) パターン識別のための特徴抽出装置
Neill Siamese capsule networks
Machidon et al. Face recognition using eigenfaces, geometrical pca approximation and neural networks
JP3976056B2 (ja) 係数決定方法、特徴抽出方法、システム及びプログラム、並びにパタン照合方法、システム及びプログラム
CN106980809B (zh) 一种基于asm的人脸特征点检测方法
Ouarda et al. MLP Neural Network for face recognition based on Gabor Features and Dimensionality Reduction techniques
López-Rubio Probabilistic self-organizing maps for continuous data
Zhang et al. A nonlinear neural network model of mixture of local principal component analysis: application to handwritten digits recognition
Jang et al. Face detection using quantum-inspired evolutionary algorithm
Tariyal et al. Greedy deep dictionary learning
US5438629A (en) Method and apparatus for input classification using non-spherical neurons
Zuobin et al. Feature regrouping for cca-based feature fusion and extraction through normalized cut
CN110956113B (zh) 基于二次协作表示鉴别投影的鲁棒人脸识别方法
WO2003030089A1 (en) System and method of face recognition through 1/2 faces
KR101676101B1 (ko) 동적보상퍼지신경네트워크(dcfnn)를 기반으로 한 얼굴인식 알고리즘
CN112541530B (zh) 针对聚类模型的数据预处理方法及装置
Zhang et al. Compound structure classifier system for ear recognition
De la Torre et al. Filtered component analysis to increase robustness to local minima in appearance models
Hassan et al. Hybrid system of PCA, rough sets and neural networks for dimensionality reduction and classification in human face recognition
Vapenik et al. Human face detection in still image using Multilayer perceptron solution based on Neuroph framework
Borodinov et al. Classification of radar images with different methods of image preprocessing
US9245234B2 (en) Recognition dictionary generating device and pattern recognition device
US20100067800A1 (en) Multi-class transform for discriminant subspace analysis
Wan et al. Co-compressing and unifying deep cnn models for efficient human face and speaker recognition

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 3480563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 10

EXPY Cancellation because of completion of term