JP2010205043A - パターン学習方法、装置、およびプログラム - Google Patents

パターン学習方法、装置、およびプログラム Download PDF

Info

Publication number
JP2010205043A
JP2010205043A JP2009050718A JP2009050718A JP2010205043A JP 2010205043 A JP2010205043 A JP 2010205043A JP 2009050718 A JP2009050718 A JP 2009050718A JP 2009050718 A JP2009050718 A JP 2009050718A JP 2010205043 A JP2010205043 A JP 2010205043A
Authority
JP
Japan
Prior art keywords
pattern
value
dissimilarity
component
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009050718A
Other languages
English (en)
Inventor
Seiji Yoshimoto
誠司 吉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009050718A priority Critical patent/JP2010205043A/ja
Publication of JP2010205043A publication Critical patent/JP2010205043A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】パターン間の類似度を良好に反映したパターン学習を実現するための技術を提供する。
【解決手段】非類似度計算手段は、入力パターンの定義域内において所定の分布に従って発生するパターンの各成分の値が、パターンX(1)の成分の値とパターンX(2)の成分の値の間の範囲に入る確率を算出し、その確率を基にして、パターンX(1)とパターンX(2)との非類似度を算出する。学習手段は、非類似度計算手段で算出された非類似度を利用した評価により、パターンが属するカテゴリーのパラメータ値を決定する。
【選択図】図1

Description

本発明は、複数のパターンからパターンが属するカテゴリーのパラメータ値を決定するパターン学習技術に関する。
与えられた複数の学習パターンを基にした学習によって、カテゴリーを代表する代表点のような、カテゴリーに関するパラメータ値を求めるパターン学習という技術がある。パターン学習は、画像認識、音声認識、データマイニングなど幅広い分野に応用される技術である。
これらの応用分野では、必ずしも、容易に比較できるようなパターンが入力されるとは限らない。例えば、パターンの次元が高く、また入力されるパターンの一部が欠けている場合や、データに外れ値が含まれる場合が多い。そのためパターン学習では、学習や学習結果に基づいた識別において、データ欠損や外れ値に対してロバスト性を高め、また高次元のパターンにも対応できるようにすることが求められる。
上述したように、パターン学習におけるひとつの課題はデータ欠損や外れ値などのノイズである。良好なパターン学習を行うために、通常、前処理として入力パターンに対してノイズ除去が施される。しかし、比較すべき特徴の一部のデータが欠けている場合や、データに外れ値が含まれている場合、それらのノイズを除去することは容易では無い。
例えば、指紋分類では、比較すべき部分に対応する特徴量が必ずしも検出できるとは限らない。そのような場合には一部の特徴量が欠損した状態でパターンの分類を行うことが必要となる。また、画像認識においてオクルージョンがあれば、本来比較すべき対象ではない部分画像が混入した画像パターンを比較に用いなければならなくなる。また、音声認識において、突発的な短時間ノイズが重畳された音声パターンを比較に用いなければならない場合がある。
ノイズを含むパターンに対するパターン学習のロバスト性を高める方法の1つとして、順序尺度を使うというアプローチがある。特許文献1には、順序尺度を使うことによって照明強度の変化などに対するロバスト性を高める方法が記載されている。また、特許文献2には、同じカテゴリー間の類似度として距離の逆数を用いる投票法によって、外れ値に対処する方法が示されている。
パターン学習におけるもうひとつの課題は、パターンの次元が高くなるに従ってパターンの識別精度が低下するということである。この原因は、高次元空間における球面集中現象によって近傍判定が不安定になることである。これは「次元の呪い」として知られている(非特許文献1参照)。
この問題を回避する1つの方法は、次元を削減することである。次元を削減する手法としては主成分分析や多次元尺度法などがよく使われるが、それらの他にも数多くの次元削減手法が提案されている。非特許文献2には効率的に次元を削減するための代表的な方法が解説されている。
しかしながら、次元を削減する際に、必ずしもパターンの識別に適した特徴が選ばれるとは限らない。そのため、パターンの類似度あるいは非類似度を変えることによって学習性能の向上を図る方法も提案されている。
非特許文献3には、D次元空間における距離尺度として、L2ノルムの代わりにL1/kノルム(kは2以上の整数)を用いることによって、近傍判定精度が改善することが示されている。また、非特許文献3には、このL1/kノルムを用いることによってノイズに対するロバスト性も向上することが報告されている。
特開2006−39658号公報 特開2004−341930号公報
K.S.Beyer, J.Goldstein, R.Ramakrishnan, U.Shaft:When Is "Nearest Neighbor" Meaningful?, in Proceeding of the 7th International Conference on Database Theory, Lecture Notes In Computer Science, vol.1540, pp.217−235, Springer−Verlag, London, 1999. 神嶌:データマイニング分野のクラスタリング手法(2)−大規模データへの挑戦と次元の呪いの克服−, 人工知能学会誌,18, No.2, pp.170−176, 2003. C.C.Aggarwal, A.Hinneburg, D.A.Keim:On the Surprising Behavior of Distance Metrics in High Dimensional Space, Lecture Notes in Computer Science, Vol.1973, Springer, 2001.
特許文献1の方法は、非類似度を順序尺度に変換することにより照明強度の変化などに対するロバスト性を得ている。しかし、外れ値を含む高次元パターンでは、球面集中現象によって距離の大小関係による順序関係が不安定になるため、この方法は高次元パターンに適さない。
特許文献2に示されている方法は、距離の逆数を用いることによって、あらかじめ外れ値を含むデータを検出しておくアプローチである。この方法は、学習パターンのカテゴリーが予め与えられている、教師あり学習に適用される方法である。しかしながら、距離の逆数は同一カテゴリーに属するパターンを比較するための評価基準としては使えるが、異なるカテゴリーに属するパターンの比較には使えない。そのため、パターンの識別を行う段階で、この評価基準を使うことができない。その結果、学習と識別で異なる評価基準を使わざるを得なくなってしまう問題がある。
非特許文献3に示されている方法では、D次元パターンX(1)=(x(1) 1,・・・,x(1) D)と、X(2)=(x(2) 1,・・・,x(2) D)との距離として、L2ノルム
Figure 2010205043
の代わりに、L1/kノルム(kは2以上の整数)
Figure 2010205043
を用いている。そのことにより、高次元パターンの近傍判定精度およびノイズに対するロバスト性を改善する方法が示されている。
外れ値に対するロバスト性を高めるためによく使われるのは、L1ノルムを用いる方法であるが、一般にLαノルム(αは正の実数)ではαが小さいほどロバスト性が高くなる。これは、αが小さくなるに従って距離が大きいデータの寄与が小さくなり、外れ値の影響が相対的に小さくなるという性質のためである。
この性質は、L1/kノルムによって高次元における近傍判定精度が改善する理由でもあると考えられる。
2ノルムの近傍判定が不安定になる原因は、D次元パターンの各成分のうち、距離が小さい成分の寄与が、距離が大きい成分の寄与に比べてはるかに小さくなることである。このため、距離が小さい成分の寄与よりも、外れ値のような距離が大きい成分の微小変化の影響の方が大きくなり、近傍判定の不安定性を引き起こしている。次元Dが大きくなると距離が大きい成分が現れる確率が高くなる。そのため、高次元パターンでは近傍判定の不安定性が生じる確率が高くなる。
1/kノルムによって近傍判定の精度が改善する理由は、距離が大きい成分のノルムへの寄与を低減しているためであると考えられる。
しかしながら、この方法は欠損値を含むパターンのクラスタリングには適さないという問題がある。この方法で同じカテゴリーに属するD次元パターンX(1)=(x(1) 1,・・・,x(1) D)とX(2)=(x(2) 1,・・・,x(2) D)の距離d1/k (D)(X(1),X(2))と、これらの成分のうちd個の成分を欠損値として除いたD−d次元パターンX(1)’とX(2)’の距離d1/k (D-d)(X(1)’,X(2)’)と、を比較すると、d1/k (D-d)(X(1)’,X(2)’)≦d1/k (D)(X(1),X(2))となる。つまり、データ欠損がある場合のほうが距離が小さくなる。
欠損値が含まれるデータにも適用可能な距離尺度あるいは非類似度であるためには、距離尺度あるいは非類似度は、欠損値を含まないデータよりも、欠損値を含むデータの方が類似度が小さいと判定されるものであることが望ましい。しかしながら、この評価基準では、欠損値を含むデータの方が、欠損値を含まないデータよりも類似度が高いと判定されてしまう。
上述のように、パターン間の類似度の判定においては、良好な学習結果を得ることを阻害する様々な課題がある。
本発明の目的は、パターン間の類似度を良好に反映したパターン学習を実現するための技術を提供することである。
上記目的を達成するために、本発明のパターン学習装置は、
入力パターンの定義域内において所定の分布に従って発生するパターンの所定成分の値が、パターンX(1)の前記所定成分の値とパターンX(2)の前記所定成分の値の間の範囲に入る確率を算出し、該確率を基にして、前記パターンX(1)と前記パターンX(2)との非類似度を算出する非類似度計算手段と、
前記非類似度計算手段で算出された前記非類似度を利用した評価により、前記パターンが属するカテゴリーのパラメータ値を決定する学習手段と、
を有する。
本発明のパターン学習方法は、
入力パターンの定義域内において所定の分布に従って発生するパターンの所定成分の値が、パターンX(1)の前記所定成分の値とパターンX(2)の前記所定成分の値の間の範囲に入る確率を算出し、該確率を基にして、前記パターンX(1)と前記パターンX(2)との非類似度を算出し、
算出した前記非類似度を利用した評価により、前記パターンが属するカテゴリーのパラメータ値を決定するものである。
本発明のパターン学習プログラムは、
入力パターンの定義域内において所定の分布に従って発生するパターンの所定成分の値が、パターンX(1)の前記所定成分の値とパターンX(2)の前記所定成分の値の間の範囲に入る確率を算出し、該確率を基にして、前記パターンX(1)と前記パターンX(2)との非類似度を算出する手順と、
算出した前記非類似度を利用した評価により、前記パターンが属するカテゴリーのパラメータ値を決定する手順と、
をコンピュータに実行させるためのものである。
本発明によれば、パターン間の類似度を良好に反映したパターン学習を実現することができる。
本実施形態によるパターン学習装置の構成を示すブロック図である。 本実施形態によるパターン学習装置の動作を示すフローチャートである。 本実施例によるパターン学習装置の構成を示すブロック図である。
本発明を実施するための形態について図面を参照して詳細に説明する。
本発明は、非類似度に基づくパターン学習一般に広く適用することができるが、ここでは一例として、与えられた教師ありデータから、各カテゴリーの代表点を求める学習方式の実施形態を示す。本実施形態のパターン学習装置は、カテゴリーに属する複数のD次元パターンから、カテゴリーの性質を表すパラメータ値として代表点を求めるものである。カテゴリーは複数であってもよく、1つであってもよい。
図1は、本実施形態によるパターン学習装置の構成を示すブロック図である。図1を参照すると、本パターン学習装置は学習部200および非類似度計算部300を有している。また、図1において、本パターン学習装置は、一例としてパターン入力部100および更新部400を有している。
パターン入力部100は、複数のD次元パターンを入力する。D次元パターンが属するカテゴリーの情報もパターン入力部100から入力されてもよい。
学習部200は、非類似度計算部300に依頼することにより、パターン入力部100から入力されたD次元パターン同士の非類似度を取得し、その非類似度を用いてD次元パターンが属するカテゴリーの代表点を決定する。本実施形態では、学習部200はまず代表点の初期値を設定し、更新部400を用いて代表点を更新しながら非類似度に基づいて代表点を評価し、最終的な代表点を決定する。例えば、非類似度を確率の対数の形で表し、学習部200は、カテゴリーに属する全てのパターンと代表点との非類似度の総和を評価関数として、その評価関数が最小となる代表点を探索し、最終的に得られた点をカテゴリーの代表点とすればよい。
非類似度計算部300は、学習部200からの依頼により、2つのD次元パターンの非類似度を算出する。
ここでは、非類似度を算出する対象となる2つのD次元パターンを、X(1)=(x(1) 1,・・・,x(1) D)と、X(2)=(x(2) 1,・・・,x(2) D)とし、それらの非類似度をE(X(1),X(2))とする。
非類似度計算部300は、入力パターンの定義域内において確率密度分布q(X)に従って発生するパターンX=(x1,・・・,xD)の各成分が、一方のD次元パターンX(1)の各成分の値と、他方のD次元パターンX(2)=(x(2) 1,・・・,x(2) D)の各成分の値の間の範囲に入る確率p(X(1),X(2))を算出する。そして、非類似度計算部300は、その確率p(X(1),X(2))の対数ln p(X(1),X(2))を2つのD次元パターンの非類似度E(X(1),X(2))とする。
その際、非類似度計算部300は、D次元パターンX(1)、X(2)のある成分であるx(1) iあるいはx(2) iが欠損値である場合、その成分を所定値とする。例えば、所定値は負の無限大あるいは正の無限大としてもよい。すなわち、非類似度計算部300は、x(1) iまたはx(2) iが欠損値であれば、xiが−∞<xi<∞の範囲内に入る確率をp(X(1),X(2))としてもよい。また、所定値は入力パターンの定義域における、その成分の最小値あるいは最大値であってもよい。
更新部400は、学習部200からの依頼によりカテゴリーの代表点を更新し、それを次の代表点の候補として学習部200に通知する。更新の具体的な方法については後述する。
以下で、本パターン学習装置による学習方法をさらに詳しく説明する。
まず、2つのD次元パターンX(1)とX(2)に対して、パターンXの確率密度分布q(X)に従って発生させたパターンの各成分xi:i=1,・・・,Dがx(1) i≦xi≦x(2) iの範囲に入る確率P(X(1),X(2))を式(3)に従って計算する。
Figure 2010205043
次に、この確率P(X(1),X(2))に基づいてX(1)とX(2)の非類似度を定める。上述したように、X(1)とX(2)の非類似度E(X(1),X(2))は、確率P(X(1),X(2))の対数なので式(4)により定まる。
Figure 2010205043
その際、x(1) iまたはx(2) iが欠損値であれば、式(3)におけるmin(xi (1),xi (2))と、max(xi (1),xi (2))を式(5)のように設定し、全域にわたって積分を行う。
Figure 2010205043
これにより、欠損値は極端な外れ値と同じように扱われることとなる。
式(3)は、入力データの定義域内にランダムに与えたパターンが、偶然X(1)とX(2)の間に入る確率P(X(1),X(2))を表している。この確率が小さいほど、X(1)とX(2)との相違が小さいと考えられるので、X(1)とX(2)が類似していると言える。また逆に、式(3)の確率P(X(1),X(2))が大きければ、X(1)とX(2)の類似度は小さいと言える。
そこで、本実施形態では、式(3)で得られる確率P(X(1),X(2))の対数(式(4))の値を2つのパターンX(1)とX(2)の非類似度としている。
そして、式(4)で定義される非類似度を用いてカテゴリーc∈C={c1,・・・,cK}から成る教師ありデータを学習する。その学習で用いる評価関数は式(6)のように定められる。この評価関数を最小化することにより、カテゴリーの代表点M(c)を決定する。
Figure 2010205043
ここで、P(c)はカテゴリーcの出現確率であり、q(c)(X;M(c))はカテゴリーcに属するデータXの確率密度分布であるとすると、式(3)における全データの確率分布q(X)は、P(c)とq(c)(X)によって、式(7)のように表すことができる。
Figure 2010205043
各カテゴリーc∈Cに属するN(c)個のデータ{X(c) n;n=1,・・・,N(c)}から、カテゴリーcの代表点M(c)の推定値を得るには、式(6)を離散化した式(8)で表される評価関数を最小化する点M(c)を学習によって求めればよい。
Figure 2010205043
式(8)は式(6)を離散化した式であり、この式によって評価関数を計算することは、確率分布q(X)に従ってランダムに発生させたデータが偶然各カテゴリーcの代表点M(c)の近くにある確率の積を計算していることに等しい。
この確率が小さければ、「各X(c) nがカテゴリーcの代表点M(c)の近くに偶然発生した」という帰無仮説を棄却して「各X(c) nがカテゴリーcに属する」という結論が得られる。すなわち、式(8)を最小化するようなM(c)の値が、cの代表点として最も確からしい値であるということになる。
極小点を探索するものとすれば、代表点M(c)の推定値は式(9)の解となる。
Figure 2010205043
例えば、勾配法を用い、式(10)で表される更新量によって逐次的に代表点代表点M(c)の推定値を求めることができる。
Figure 2010205043
次に、本実施形態のパターン学習装置の動作について説明する。
まず、概略の動作について説明する。図1に示されているパターン入力部100は、入力データであるD次元パターンが無くなるまで、そのデータとデータが属するカテゴリーを読み込み、学習部200に引き渡す。
学習部200は、パターン入力部100から得たデータから、各カテゴリーに属するデータの例えば重心を代表点の初期値として設定する。そして、学習部200は、各カテゴリーについて、非類似度計算部300を利用して、代表点と各データの非類似度の和を計算する。続いて、学習部200は、更新部400を用いて、各カテゴリーについて新たな代表点の位置を計算する。そして、学習部200は、新たな代表点における評価関数の値の減少量を計算する。
学習部200は、この減少量が予め与えられた閾値より小さくなるまで、代表点を更新しながら上記操作を繰り返す。減少量が与えられた閾値より小さくなったら、学習部200は、最終的に得られた各カテゴリーの代表点を出力する。
この動作の中で、非類似度計算部300は、学習部200から渡されたデータX(c)と代表点M(c)から、式(4)に従って非類似度E(M(c),X(c))を計算し、学習部200に返す。
学習部200は、非類似度計算部300から返された各データのE(M(c),X(c))から、式(8)に従って評価関数の値を計算する。
更新部400は、式(10)に従って、学習部200から渡されたデータX(c)と代表点M(c)から、新たな代表点M´(c)=M(c)+ΔM(c)を計算し、;学習部200に返す。
図2は、本実施形態によるパターン学習装置の動作を示すフローチャートである。図2を参照しながら、本実施形態によるパターン学習装置の動作について詳細に説明する。
図2を参照すると、まず、パターン入力部100は、入力データであるD次元パターンが無くなるまで、D次元パターンを読み込み、学習部200に引き渡す(ステップ1)。
D次元パターンを受けた学習部200は、各カテゴリーc∈C={c1,・・・,cK}に属するD次元パターンXn:n=1,・・・,N(c)を用いて、各カテゴリーの代表点の初期値M(c)(以下、初期代表点という)を計算する(ステップ2)。この初期値として、例えば、そのカテゴリーに属するD次元パターンの平均M(c)=Σn=1 N(c)(c) nを使ってもよい。
続いて、学習部200は、非類似度計算部300を利用して、各カテゴリーについて、初期代表点に対する評価関数の値(評価値)を計算する(ステップ3)。
その際、学習部200は、まず、D次元パターンX(c) nと、初期代表点M(c)の対を非類似度計算部300に引き渡す。非類似度計算部300は、式(4)を用いて、学習部200から渡されたデータX(c) nと初期代表点M(c)から非類似度E(M(c),X(c) n)を計算し、学習部200に返す。学習部200は、非類似度計算部300から返された、各データX(c) nとM(c)の非類似度E(M(c),X(c) n)から、初期代表点M(c)に対する評価値を式(8)に従って計算する。
次に、学習部200は、更新部400を利用して代表点M(c)を更新して評価値の減少量を求め、その減少量を所定の閾値と比較する(ステップ4)。
その際、学習部200は、まず、現在のM(c)と、D次元パターンX(c) n:n=1,・・・,N(c)を更新部400に引き渡す。更新部400は、式(10)によって、代表点の位置の更新量ΔM(c)を計算し、その更新量に基づいて新たな代表点M´(c)=M(c)+ΔM(c)を求め、学習部200に返す。
学習部200は、X(c) n:n=1,・・・,N(c)と、M´(c)とを非類似度計算部300に引渡して得られる非類似度を基に、新たな代表点M´(c)に対する評価値を取得し、式(11)に示されている評価値の変化量を計算する。
Figure 2010205043
そして、学習部200は、評価値の減少量が閾値より大きければ、学習部200は、代表点を更新して新たな代表点を求めて処理を繰り返す。
評価値の減少量が閾値より小さくなったら、学習部200は、その時点の代表点の値を出力して処理を終了する(ステップ5)。
以上説明した本実施形態によれば、パターン間の類似度を良好に判定することが可能となり、またパターン学習において、欠損値や外れ値に対してロバストとなり、また高次元パターンにも対応可能となる。
以下、本実施形態によればパターン学習が欠損値や外れ値に対してロバストとなり、また高次元パターンにも対応可能となることについて説明する。
本実施形態によれば、欠損値があるパターンを含むパターン学習を良好に行うことができる。本実施形態では、ある成分に欠損値がある場合に、その成分を式(5)に示したように扱うため、式(4)で得られる非類似度Eが欠損値がない場合より常に大きな値となる。その結果、極端な外れ値の非類似度と欠損値の非類似度とを同様に扱い、類似度に対する寄与を小さく抑え、所望の性質に近づけることができる。そして、この性質によって、例えば指紋分類のように、一部の特徴量が欠損した状態でパターンの分類を行う場合でも、データ欠損がない方が類似度が高くなるというような正しい判定が可能となる。
また、本実施形態によれば、外れ値に対してロバストなパターン学習を行うことができる。
式(4)で表される非類似度は、2つのD次元パターンの類似度が高いほど小さい値をとる。この点では、本実施形態は非特許文献3に記載されたL1/kノルムd1/k(M(c),X)と同じである。しかし、L1/kノルムが非負の値をとるのに対して、本実施形態の非類似度E(M(c),X)は非正の値をとるという違いがある。
非特許文献3のL1/kは、値が遠い成分に対してペナルティを課すことによって2つのパターンの類似度を評価しているのに対して、本実施形態では、式(4)の非類似度は、値が近い成分に対して加点することによって類似度を評価している。
その結果、本実施形態の非類似度は、式(8)に示した学習の評価関数に対する外れ値の寄与が小さくなる。一方、L1/kノルム(式(2))では外れ値の寄与が大きくなる。
本実施形態の非類似度を用いることによって、パターン学習において外れ値の影響を小さくすることができる。例えば、オクルージョンがある場合の画像認識において、本来比較すべき対象ではないオクルージョン部分の寄与を小さくすることが可能となる。
また、本実施形態によれば、高次元パターンに対して良好なパターン学習を実現できる。
高次元における近傍判定精度の低下は、距離が小さい成分の類似度評価に対する寄与が、距離が大きい成分の寄与よりはるかに小さいことに起因する。本実施形態の非類似度(式(4))では、距離が小さい成分ほど非類似度への寄与が大きくなるため、球面集中現象による近傍判定の不安定性を回避できる。
従って、本実施形態の非類似度を用いることにより、例えばスペクトルパターンのような高次元パターンのパターン学習も可能である。
なお、本実施形態では、カテゴリーcの確率分布q(c)(X;M(c))のパラメータが、カテゴリーの代表点M(c)だけであるとして説明したが、本発明がこれに限定されるものではなく、例えば分布の広がりのようなパラメータが含まれていてもよい。
また、本実施形態では、式(3)によりP(X(1),X(2))を計算するとき、所定の確率密度分布q(X)の代わりに、D次元パターンXの定義域上の一様分布を用いてもよい。これは、パターンを識別するときに、どのカテゴリーにも属さないデータが入力されることがあり、実質的に全ての入力データの確率密度分布が不明であるような用途に好適である。
(実施例)
次に、本発明のより具体的な実施例について説明する。
本実施例では、D次元ベクトルとして与えられたデータ{X(c) n:n=1,・・・,N(c),c=c1,・・・,cK}から各カテゴリーcの代表点M(c)を学習する計算機に本発明を適用する。本実施例では、M(c)の学習に、式(10)で示した勾配法を用いた一例を示す。
図3は、本実施例によるパターン学習装置の構成を示すブロック図である。図3を参照すると、本実施例のパターン学習装置は計算機10によって構成されており、計算機10は、入力装置101、学習装置201、非類似度計算装置301、および更新装置401を有している。
入力装置101は、図1に示したパターン入力部100に相当する装置であり、外部記憶装置601からデータを読み込む。学習装置201は、図1に示した学習部200に相当する装置である。非類似度計算装置301は、図1に示した非類似度計算部300に相当する装置である。更新装置401は、図1に示した更新部400に相当する装置である。
外部記憶装置601にD次元ベクトルとして格納されているデータ{X(c) n:n=1,・・・,N(c),c=c1,・・・,cK}が入力装置101によって学習装置201に読み込まれる。データには複数のカテゴリーがあり、各データはいずれかのカテゴリーに属している。学習装置201は、各カテゴリーについて、そのカテゴリーc∈C={c1,・・・,cK}に属するデータXn:n=1,・・・,N(c)の初期代表点M(c)を計算する。次に、学習装置201は、各データX(c) nと初期代表点M(c)の対を非類似度計算装置301に引き渡す。
非類似度計算装置301は、学習装置201から渡された各データX(c) nと初期代表点M(c)から、それらの非類似度E(M(c),X(c) n)を式(4)に従って計算し、学習装置201に返す。
学習装置201は、非類似度計算装置301から返された各データX(c) nとM(c)の非類似度E(M(c),X(c) n)から、M(c)に対する評価値
Figure 2010205043
を式(8)に従って計算する。
次に、学習装置201は、現在のM(c)とデータX(c) n:n=1,・・・,N(c)とを更新装置401に引き渡す。
更新装置401は、代表点の位置の更新量ΔM(c)を式(10)を用いて計算し、新たな代表点M´(c)=M(c)+ΔM(c)を求め、学習装置201に新たな代表点M´(c)を返す。
学習装置201は、X(c) n:n=1,・・・,N(c)とM´(c)を非類似度計算装置301に引渡し、新たな代表点M´(c)に対する評価値
Figure 2010205043
を取得し、評価値の変化量を式(11)により計算する。
評価値の減少量
Figure 2010205043
が所定の閾値より大きければ、学習装置201は新たな代表点M´(c)を初期値M(c)として再度新たな代表点を求める。
評価値の減少量が閾値より小さければ、学習装置201は、そのときの代表点の値を表示装置501に出力して処理を終了する。
なお、以上説明した本実施例において、式(3)のx(1) iまたはx(2) iが欠損値の場合に、式(5)に従ってxi全域にわたって積分することにしてもよい。
また、本実施例において、式(3)のP(X(1),X(2))を計算するときに、確率密度分布q(X)の代わりに、Xの定義域上の一様分布を用いてもよい。
なお、上述した実施形態および実施例の装置は各部の処理手順を規定したソフトウェアプログラムをコンピュータに実行させることにより実現することもできる。
また、本発明の実施形態および実施例について述べてきたが、本発明は、これらの実施形態や実施例だけに限定されるものではなく、本発明の技術思想の範囲内において、これらを組み合わせて使用したり、一部の構成を変更したりしてもよい。
10 計算機
100 パターン入力部
101 入力装置
200 学習部
201 学習装置
300 非類似度計算部
301 非類似度計算装置
400 更新部
401 更新装置
501 表示装置
601 外部記憶装置

Claims (15)

  1. 入力パターンの定義域内において所定の分布に従って発生するパターンの各成分の値が、パターンX(1)の前記成分の値とパターンX(2)の前記成分の値の間の範囲に入る確率を算出し、該確率を基にして、前記パターンX(1)と前記パターンX(2)との非類似度を算出する非類似度計算手段と、
    前記非類似度計算手段で算出された前記非類似度を利用した評価により、前記パターンが属するカテゴリーのパラメータ値を決定する学習手段と、
    を有するパターン学習装置。
  2. 前記非類似度計算手段は、前記確率の対数を前記非類似度とする、請求項1に記載のパターン学習装置。
  3. 前記パラメータ値は前記カテゴリーの代表点である、請求項2に記載のパターン学習装置。
  4. 前記学習手段は、前記カテゴリーに属する全てのパターンと代表点との非類似度の総和から評価関数を求め、該評価関数が最小となる代表点を探索する、請求項3に記載のパターン学習装置。
  5. 前記非類似度計算手段は、前記パターンX(1)または前記パターンX(2)のある成分が欠損値である場合、該成分については、前記所定の分布に従って発生するパターンの該成分の値が所定の範囲に入る確率を用いる、請求項1〜4のいずれか1項に記載のパターン学習装置。
  6. 前記非類似度計算手段は、前記所定の範囲として負の無限大から正の無限大までの範囲を用いる、請求項5に記載のパターン学習装置。
  7. 前記非類似度計算手段は、前記所定の分布として一様分布を用いる、請求項1〜6のいずれか1項に記載のパターン学習装置。
  8. 入力パターンの定義域内において所定の分布に従って発生するパターンの各成分の値が、パターンX(1)の前記成分の値とパターンX(2)の前記成分の値の間の範囲に入る確率を算出し、該確率を基にして、前記パターンX(1)と前記パターンX(2)との非類似度を算出し、
    算出した前記非類似度を利用した評価により、前記パターンが属するカテゴリーのパラメータ値を決定する、
    パターン学習方法。
  9. 前記確率の対数を前記非類似度とする、請求項8に記載のパターン学習方法。
  10. 前記パラメータ値は前記カテゴリーの代表点である、請求項9に記載のパターン学習方法。
  11. 前記カテゴリーに属する全てのパターンと代表点との非類似度の総和から評価関数を求め、該評価関数が最小となる代表点を探索する、請求項10に記載のパターン学習方法。
  12. 前記パターンX(1)または前記パターンX(2)のある成分が欠損値である場合、該成分については、前記所定の分布に従って発生するパターンの該成分の値が所定の範囲に入る確率を用いる、請求項8〜11のいずれか1項に記載のパターン学習方法。
  13. 前記所定の範囲として負の無限大から正の無限大までの範囲を用いる、請求項12に記載のパターン学習方法。
  14. 前記所定の分布として一様分布を用いる、請求項8〜13のいずれか1項に記載のパターン学習方法。
  15. 入力パターンの定義域内において所定の分布に従って発生するパターンの各成分の値が、パターンX(1)の前記成分の値とパターンX(2)の前記成分の値の間の範囲に入る確率を算出し、該確率を基にして、前記パターンX(1)と前記パターンX(2)との非類似度を算出する手順と、
    算出した前記非類似度を利用した評価により、前記パターンが属するカテゴリーのパラメータ値を決定する手順と、
    をコンピュータに実行させるためのパターン学習プログラム。
JP2009050718A 2009-03-04 2009-03-04 パターン学習方法、装置、およびプログラム Pending JP2010205043A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009050718A JP2010205043A (ja) 2009-03-04 2009-03-04 パターン学習方法、装置、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009050718A JP2010205043A (ja) 2009-03-04 2009-03-04 パターン学習方法、装置、およびプログラム

Publications (1)

Publication Number Publication Date
JP2010205043A true JP2010205043A (ja) 2010-09-16

Family

ID=42966447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009050718A Pending JP2010205043A (ja) 2009-03-04 2009-03-04 パターン学習方法、装置、およびプログラム

Country Status (1)

Country Link
JP (1) JP2010205043A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020222350A1 (ko) * 2019-04-30 2020-11-05 이화여자대학교 산학협력단 온라인 학습 환경에서 학습자의 시각 행동을 활용한 학습 유형 진단 장치 및 방법
WO2022130714A1 (ja) * 2020-12-18 2022-06-23 オムロン株式会社 推奨負荷決定装置、能力パラメータ推定モデル学習装置、方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288667A (ja) * 2001-03-28 2002-10-04 Nec Corp パターン照合装置とそのパターン照合方法、及びパターン照合プログラム
WO2005069221A1 (ja) * 2004-01-15 2005-07-28 Nec Corporation パターン識別システム、パターン識別方法、及びパターン識別プログラム
JP2005346223A (ja) * 2004-06-01 2005-12-15 Nippon Telegr & Teleph Corp <Ntt> 文書クラスタリング方法、文書クラスタリング装置、文書クラスタリングプログラムならびにそのプログラムを記録した記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288667A (ja) * 2001-03-28 2002-10-04 Nec Corp パターン照合装置とそのパターン照合方法、及びパターン照合プログラム
WO2005069221A1 (ja) * 2004-01-15 2005-07-28 Nec Corporation パターン識別システム、パターン識別方法、及びパターン識別プログラム
JP2005346223A (ja) * 2004-06-01 2005-12-15 Nippon Telegr & Teleph Corp <Ntt> 文書クラスタリング方法、文書クラスタリング装置、文書クラスタリングプログラムならびにそのプログラムを記録した記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200300318006; 門田 啓, 他1名: '無相関確率に基づく指紋の類似度評価法' 電子情報通信学会技術研究報告 第101巻, 第524号, 20011213, p.53-58, 社団法人電子情報通信学会 *
JPN6013029575; 門田 啓, 他1名: '無相関確率に基づく指紋の類似度評価法' 電子情報通信学会技術研究報告 第101巻, 第524号, 20011213, p.53-58, 社団法人電子情報通信学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020222350A1 (ko) * 2019-04-30 2020-11-05 이화여자대학교 산학협력단 온라인 학습 환경에서 학습자의 시각 행동을 활용한 학습 유형 진단 장치 및 방법
KR20200126810A (ko) * 2019-04-30 2020-11-09 이화여자대학교 산학협력단 온라인 학습 환경에서 학습자의 시각 행동을 활용한 학습 유형 진단 장치 및 방법
KR102235488B1 (ko) * 2019-04-30 2021-04-02 이화여자대학교 산학협력단 온라인 학습 환경에서 학습자의 시각 행동을 활용한 학습 유형 진단 장치 및 방법
WO2022130714A1 (ja) * 2020-12-18 2022-06-23 オムロン株式会社 推奨負荷決定装置、能力パラメータ推定モデル学習装置、方法、及びプログラム

Similar Documents

Publication Publication Date Title
Hernández-Orallo ROC curves for regression
US8108324B2 (en) Forward feature selection for support vector machines
JP5193518B2 (ja) パターン探索装置及びその方法
US9842279B2 (en) Data processing method for learning discriminator, and data processing apparatus therefor
JP2017224156A (ja) 情報処理装置、情報処理方法及びプログラム
CN110602120B (zh) 一种面向网络的入侵数据检测方法
Fazilov et al. Modified recognition algorithms based on the construction of models of elementary transformations
Kulczycki et al. An algorithm for reducing the dimension and size of a sample for data exploration procedures
JP5522044B2 (ja) クラスタリング装置、パターン判定方法、およびプログラム
Uemura et al. A multivariate causal discovery based on post-nonlinear model
JP2010205043A (ja) パターン学習方法、装置、およびプログラム
Chatterjee et al. Similarity graph neighborhoods for enhanced supervised classification
JP2016071872A (ja) 対象追跡方法と装置、追跡特徴選択方法
Gladence et al. A novel technique for multi-class ordinal regression-APDC
JPWO2009151002A1 (ja) パターン識別方法、装置およびプログラム
Aung et al. Dual-kNN for a pattern classification approach
WO2012032747A1 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
Goel et al. Locally optimal detection of stochastic targeted universal adversarial perturbations
Sharma et al. Non-mercer large scale multiclass least squares minimal complexity machines
Ding et al. Constructing minimum volume surfaces using level set methods for novelty detection
Lim Learning generative models from incomplete data
Liu et al. Causal Discovery with Mixed Linear and Nonlinear Additive Noise Models: A Scalable Approach
Chakraborty et al. Selection of'K'in K-means clustering using GA and VMA
Moskovskaya et al. Predicting dataset size for neural network fine-tuning with a given quality in object detection task
WO2023053216A1 (ja) 機械学習プログラム、機械学習方法および機械学習装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130910