JP6325405B2 - 特徴点検出装置、方法及びプログラム - Google Patents

特徴点検出装置、方法及びプログラム Download PDF

Info

Publication number
JP6325405B2
JP6325405B2 JP2014192873A JP2014192873A JP6325405B2 JP 6325405 B2 JP6325405 B2 JP 6325405B2 JP 2014192873 A JP2014192873 A JP 2014192873A JP 2014192873 A JP2014192873 A JP 2014192873A JP 6325405 B2 JP6325405 B2 JP 6325405B2
Authority
JP
Japan
Prior art keywords
displacement
vector
feature point
vectors
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014192873A
Other languages
English (en)
Other versions
JP2016066114A (ja
Inventor
小坂谷 達夫
達夫 小坂谷
智一 河原
智一 河原
進 窪田
進 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014192873A priority Critical patent/JP6325405B2/ja
Priority to US14/848,583 priority patent/US9639779B2/en
Publication of JP2016066114A publication Critical patent/JP2016066114A/ja
Application granted granted Critical
Publication of JP6325405B2 publication Critical patent/JP6325405B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、特徴点検出装置、方法及びプログラムに関する。
入力画像に映る人間の顔から目、鼻、及び口等の特徴点を検出するなど、入力画像に映る物体の特徴点を検出する技術が知られている。このような特徴点検出技術として、以下のような技術が知られている。
例えば、入力画像に映る物体上のD(D≧1)個の真の特徴点を検出するとする。この場合、入力画像に映る物体にD(D≧1)個の初期特徴点を設定する。D個の初期特徴点は、それぞれ、D個の真の特徴点に対応する特徴点である。
そして、T(T≧1)個のK(K≧2)クラス識別器それぞれが、入力画像をKクラスのいずれかに識別し、識別したクラスの変位ベクトルを出力する。Kクラス識別器は、トレーニング(学習用)サンプルを用いて、初期特徴点座標に対して類似した画像パターンが同クラスに識別されるように事前に学習されたものである。各クラスの変位ベクトルは、クラスごとに分類されたトレーニングサンプルの初期特徴点座標が最も真の特徴点座標に近づくように計算されたベクトルである。
最後に、入力画像のD個の初期特徴点を並べた初期特徴点のベクトルに、T個の識別器から出力されたT個の変位ベクトルを逐次的に加算して更新していくことで、D個の初期特徴点それぞれを対応する真の特徴点に漸近的に近づけていき、D個の真の特徴点を検出する。
Xudong Cao, Yichen Wei, Fang Wen, Jian Sun "Face alignment by Explicit Shape Regression." CVPR 2012: 2887−2894.
上述したような従来技術では、高次元のデータである変位ベクトルをK×T個記憶しておく必要がある。つまり、高次元のデータである変位ベクトルを大量に記憶しておく必要があり、記憶容量の増大を招いてしまう。
本発明が解決しようとする課題は、記憶容量を低減することができる特徴点検出装置、方法及びプログラムを提供することである。
実施形態の特徴点検出装置は、トレーニングデータ記憶部と、生成部と、識別器記憶部と、計算部と、変位ラベル記憶部と、変位座標記憶部と、入力部と、識別部と、加算部と、検出部と、を備える。トレーニングデータ記憶部は、サンプル画像の画像パターンと、当該サンプル画像に映る物体のD(D≧1)個の真の特徴点と、当該D個の真の特徴点に対応するD個の初期特徴点と、を対応付けたトレーニングサンプルのN(N≧2)個の集合であるトレーニングデータを記憶する。生成部は、前記トレーニングデータを用いて、前記サンプル画像の前記初期特徴点における画像パターンが類似するトレーニングサンプルをK(K≧2)クラスのうちの同一クラスに識別することが期待され、識別したクラスを示すクラス識別子を出力するKクラス識別器を生成するとともに、当該Kクラス識別器を用いて、前記N個のトレーニングサンプルを前記Kクラスに識別し、クラス毎に、当該クラスに識別された各トレーニングサンプルのD個の初期特徴点をD個の真の特徴点に近づける第1変位ベクトルを求める生成処理を、T(T≧1)回繰り返す。識別器記憶部は、前記T個のKクラス識別器を記憶する。計算部は、前記K×T個の第1変位ベクトルから、前記K×T個の第1変位ベクトルをそれぞれ近似した第2変位ベクトルを表現するための、前記K×T個の第2変位ベクトルそれぞれに固有の第2変位ラベルベクトルと前記K×T個の第2変位ベクトルそれぞれに共通の第2変位座標ベクトルとを計算する。変位ラベル記憶部は、前記K×T個の第2変位ラベルベクトルそれぞれに、当該第2変位ラベルベクトルの第2変位ベクトルに近似された第1変位ベクトルが求められたクラスのクラス識別子を対応付けて記憶する。変位座標記憶部は、前記第2変位座標ベクトルを記憶する。入力部は、D個の初期特徴点が設定された入力画像を入力する。識別部は、前記入力画像に前記T個のKクラス識別器を適用し、Kクラス識別器毎に、当該Kクラス識別器から出力されたクラス識別子に対応付けられた第2変位ラベルベクトルを、前記変位ラベル記憶部から取得する。加算部は、前記T個の第2変位ラベルベクトルを加算して加算ラベルベクトルを求める。検出部は、前記入力画像に設定された前記D個の初期特徴点、前記加算ラベルベクトル、及び前記第2変位座標ベクトルに基づいて、前記入力画像のD個の真の特徴点を検出する。
第1実施形態の特徴点検出装置の例を示す構成図。 第1実施形態のトレーニングデータの例を示す模式図。 第1実施形態の第0変位ベクトルの例を示す図。 第1実施形態の前処理例を示すフローチャート。 第1実施形態の後処理例を示すフローチャート。 第2実施形態の特徴点検出装置の例を示す構成図。 第2実施形態のクラスタの一例の説明図。 第2実施形態の頻度ヒストグラムの一例の説明図。 第2実施形態の前処理例を示すフローチャート。 第2実施形態の後処理例を示すフローチャート。 従来手法の説明図。 変形例の特徴点検出装置の例を示す構成図。 各実施形態及び各変形例の特徴点検出装置のハードウェア構成例を示す図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
(第1実施形態)
図1は、第1実施形態の特徴点検出装置10の一例を示す構成図である。図1に示すように、特徴点検出装置10は、トレーニングデータ記憶部11と、生成部13と、識別器記憶部15と、計算部19と、変位ラベル記憶部21と、変位座標記憶部23と、入力部31と、識別部33と、加算部35と、検出部37と、出力部39とを、備える。
トレーニングデータ記憶部11、識別器記憶部15、変位ラベル記憶部21、及び変位座標記憶部23は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、RAM(Random Access Memory)、及びROM(Read Only Memory)などの磁気的、光学的、又は電気的に記憶可能な記憶装置により実現できる。
生成部13、計算部19、識別部33、加算部35、検出部37、及び出力部39は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。
入力部31は、例えば、デジタルカメラ、ネットワークインターフェース、及び記憶媒体など画像を入力可能な装置により実現できる。
トレーニングデータ記憶部11は、K(K≧2)クラス識別器を生成するためのトレーニングデータを記憶する。トレーニングデータは、N(N≧2)個のトレーニングサンプルの集合である。
トレーニングサンプルは、サンプル画像の画像パターンと、当該サンプル画像に映る物体のD(D≧1)個の真の特徴点と、当該D個の真の特徴点に対応するD個の初期特徴点と、を対応付けたものである。詳細には、トレーニングサンプルは、サンプル画像の画素値を並べた画像ベクトルIと、当該サンプル画像に映る物体のD個の真の特徴点の座標を並べた真の特徴点ベクトルYと、当該サンプル画像に映る物体のD個の初期特徴点の座標を並べた初期特徴点ベクトルSと、を対応付けたものである。
なお、サンプル画像に映る物体とは、例えば、人の顔が挙げられる。また、真の特徴点とは、例えば、目、鼻、及び口等の特徴点が挙げられるが、これに限定されるものではない。また、初期特徴点とは、真の特徴点に対応する特徴点である。なお、初期特徴点は、N個のサンプル画像それぞれに共通であってもよいし、N個のサンプル画像それぞれに固有であってもよい。また、各サンプル画像の座標は、物体の中心座標や大きさによって正規化された共通の座標系によって表現されているものとする。このため、各サンプル画像のD個の真の特徴点の座標及びD個の初期特徴点の座標も、共通の座標系によって表現される。
図2は、第1実施形態のトレーニングデータの一例を示す模式図であり、トレーニングサンプル41〜43が示されている。トレーニングサンプル41は、サンプル画像51(詳細には、サンプル画像51の画像ベクトルI)と、サンプル画像51に映る物体(図示省略)の3個の真の特徴点51A〜51C(詳細には、真の特徴点51A〜51Cの座標を並べた真の特徴点ベクトルY)と、真の特徴点51A〜51Cそれぞれに対応する初期特徴点61A〜61C(詳細には、初期特徴点61A〜61Cの座標を並べた初期特徴点ベクトルS)とを、対応付けたものである。トレーニングサンプル42は、サンプル画像52(詳細には、サンプル画像52の画像ベクトルI)と、サンプル画像52に映る物体(図示省略)の3個の真の特徴点52A〜52C(詳細には、真の特徴点52A〜52Cの座標を並べた真の特徴点ベクトルY)と、真の特徴点52A〜52Cそれぞれに対応する初期特徴点62A〜62C(詳細には、初期特徴点62A〜62Cの座標を並べた初期特徴点ベクトルS)とを、対応付けたものである。トレーニングサンプル43は、サンプル画像53(詳細には、サンプル画像53の画像ベクトルI)と、サンプル画像53に映る物体(図示省略)の3個の真の特徴点53A〜53C(詳細には、真の特徴点53A〜53Cの座標を並べた真の特徴点ベクトルY)と、真の特徴点53A〜53Cそれぞれに対応する初期特徴点63A〜63C(詳細には、初期特徴点63A〜63Cの座標を並べた初期特徴点ベクトルS)とを、対応付けたものである。
なお、初期特徴点は、所定のアルゴリズムに基づいて設定されてもよいし、物体に対する経験的な知識や知見を有するユーザからの操作入力により設定されてもよい。所定のアルゴリズムとしては、例えば、N個のサンプル画像それぞれから対応する真の特徴点を抽出し、抽出したN個の真の特徴点の座標の平均値を求め、N個のサンプル画像それぞれにおいて、求めた平均値の座標に初期特徴点を設定するアルゴリズムなどが挙げられる。
例えば、図2に示す例において、真の特徴点51A、52A、及び53Aが右目の真の特徴点であり、真の特徴点51B、52B、及び53Bが左目の真の特徴点であり、真の特徴点51C、52C、及び53Cが鼻の真の特徴点であるとする。
この場合、前述した所定のアルゴリズムにより、右目の真の特徴点として対応する真の特徴点51A、52A、及び53Aが抽出され、抽出された真の特徴点51A、52A、及び53Aの座標の平均値が求められ、サンプル画像51〜53における求められた平均値の座標に、それぞれ、右目の初期特徴点61A〜63Aが設定される。
同様に、前述した所定のアルゴリズムにより、左目の真の特徴点として対応する真の特徴点51B、52B、及び53Bが抽出され、抽出された真の特徴点51B、52B、及び53Bの座標の平均値が求められ、サンプル画像51〜53における求められた平均値の座標に、それぞれ、左目の初期特徴点61B〜63Bが設定される。
同様に、前述した所定のアルゴリズムにより、鼻の真の特徴点として対応する真の特徴点51C、52C、及び53Cが抽出され、抽出された真の特徴点51C、52C、及び53Cの座標の平均値が求められ、サンプル画像51〜53における求められた平均値の座標に、それぞれ、鼻の初期特徴点61C〜63Cが設定される。
なお、図2に示す例では、全てのトレーニングサンプル(トレーニングサンプル41〜43)において、真の特徴点の種類が3種類(D=3)となっているが、全てのトレーニングサンプルにおいて真の特徴点の種類が同じである必要はない。トレーニングサンプル間で真の特徴点の種類が異なる場合、トレーニングサンプルにおける真の特徴点の数Dは、対応が付けられている真の特徴点の種類の総数とする。つまり、トレーニングサンプルによっては必ずしもD種類の真の特徴点が与えられているとは限らず、欠落や抜けがあっても構わない。トレーニングサンプルにおいて真の特徴点が欠損している場合、その真の特徴点が与えられていないという欠損フラグが当該トレーニングサンプルに設定される。そして、後述の生成部13は、欠損フラグが設定されたトレーニングサンプルの真の特徴点を使用せずに処理を行う。
生成部13は、生成処理(学習処理)をT(T≧1)回繰り返す。生成処理は、識別5668生成(学習)ステップと第1変位ベクトル算出(学習)ステップとから成る処理である。識別器生成ステップは、トレーニングデータ記憶部11に記憶されたトレーニングデータを用いて、サンプル画像の初期特徴点における画像パターンが類似するトレーニングサンプルをK(K≧2)クラスのうちの同一クラスに識別することが期待されるKクラス識別器を生成する(学習する)ステップである。第1変位ベクトル算出ステップは、識別器生成ステップで生成されたKクラス識別器を用いてN個のトレーニングサンプルをKクラスに識別し、クラス毎に、当該クラスに識別された各トレーニングサンプルのD個の初期特徴点をD個の真の特徴点に近づける第1変位ベクトルを求める(学習する)ステップである。
まず、識別器生成ステップについて説明する。識別器生成ステップでは、生成部13は、トレーニングデータを用いて、初期特徴点ベクトルSに対するサンプル画像の画像ベクトルIが類似するトレーニングサンプルを、Kクラスのうちのなるべく同じクラスに識別するようなKクラス識別器Rを生成する。識別器Rは、例えば、画像ベクトルIから初期特徴点周辺の画像特徴量を抽出し、この特徴量の類似性を計算することで類似したサンプルを識別する。
なお、類似したトレーニングサンプルをなるべく同じクラスに識別する(分類する)識別器の生成手法については、非特許文献1に記載された手法を用いてもよいし、一般的に知られているRandom ForestやSupport Vector Machineなど、どのような手法を用いても構わない。
具体的には、識別器生成ステップで生成されるKクラス識別器Rは、トレーニングサンプルの画像ベクトルIと初期特徴点ベクトルSとを入力とし、入力されたIがKクラスのいずれに属するかを識別し、識別したクラスを示すクラス識別子c(cは、1〜Kのいずれかの値)を出力する。なお、前述した通り、異なるトレーニングサンプルであっても、初期特徴点ベクトルSと画像ベクトルIの特徴とが類似すれば、両トレーニングサンプルは、同一クラスに識別されることが期待される。
次に、第1変位ベクトル算出ステップについて説明する。第1変位ベクトル算出ステップでは、生成部13は、最初に、識別器生成ステップで生成されたKクラス識別器Rを用いてN個のトレーニングサンプルをKクラスに識別する。
ここで、クラス識別子cが示すクラス(以下、「クラスc」と称する場合もある)に識別されたトレーニングサンプルの個数をN(N≦N)とする。
クラスcに識別されたN個のトレーニングサンプルのサンプル画像は、互いに類似した画像パターンを持つことが期待されることから、真の特徴点及び初期特徴点の配置についても比較的類似する可能性が高いことが期待される。このため、N個のサンプル画像全体に対して真値との誤差の総和を減少させる、つまり、初期特徴点ベクトルSを真の特徴点ベクトルY(真値)に漸近させられる単一の有意な変位を求めることができると考えられる。
そこで、生成部13は、数式(1)を用いて、クラスc毎に、当該クラスcに識別されたN個のトレーニングサンプルそれぞれの初期特徴点ベクトルSを真の特徴点ベクトルYに漸近させられる第1変位ベクトルXを求める。なお、初期特徴点ベクトルSはトレーニングサンプルiの初期特徴点ベクトルであり、真の特徴点ベクトルYはトレーニングサンプルiの新の特徴点ベクトルであり、iは、1〜Nのいずれかの値を示す。
Figure 0006325405
なお、数式(1)を満たすXは、数式(2)に示すように(Y−S)の平均から容易に求めることができる。
Figure 0006325405
ここで、図3を参照して、トレーニングサンプルiの真の特徴点ベクトルYと初期特徴点ベクトルSとの差である第0変位ベクトル(Y−S)について説明する。図3は、第1実施形態の第0変位ベクトルの一例を示す図であり、トレーニングサンプル41を例に取り示している。図3に示すトレーニングサンプル41の場合、初期特徴点61Aと真の特徴点51Aとの残差ベクトルである変位71A、初期特徴点61Bと真の特徴点51Bとの残差ベクトルである変位71B、及び初期特徴点61Cと真の特徴点51Cとの残差ベクトルである変位71Cを並べたものが第0変位ベクトルとなる。
なお第1実施形態では、初期特徴点の座標及び真の特徴点の座標は、いずれも2次元座標(x,y)であることを想定しているため、真の特徴点ベクトルY、初期特徴点ベクトルS、及び第1変位ベクトルXは、いずれも2×D次元のベクトルである。
以上説明したように、生成部13は、生成処理を1回行うことで、1個のKクラス識別器とK個の第1変位ベクトルとを生成する。そして生成部13は、生成処理をT回繰り返すので、最終的にT個のKクラス識別器とT×K個の第1変位ベクトルとを生成する。
これは、生成部13により生成されたKクラス識別器を、真の特徴点が未知である入力画像に適用する場合、Kクラス識別器が単一では、当該Kクラス識別器により識別されたクラスの第1変位ベクトルが当該入力画像に最適な第1変位ベクトルとなるとは限らないためである。つまり、単一の識別器では、どのような入力画像に対しても当該入力画像に最適な第1変位ベクトルを返すことは困難であり、一般的には、複数のKクラス識別器(詳細には、精度の低い弱識別器)それぞれの出力を組み合わせることで、このような問題に対処するためである。
なお、生成処理をT回繰り返す結果、似た特性を持つKクラス識別器が複数得られても冗長で効果が少ないため、Kクラス識別器が互いに類似しないこと、即ち、Kクラス識別器の相関が小さくなることが望ましい。このため、生成部13は、ランダム性を取り入れて各Kクラス識別器を生成するようにすればよい。このようにすれば、同じトレーニングデータからKクラス識別器を複数回生成しても、類似したKクラス識別器が生成されてしまうことを防ぐことができる。
このようなランダム性を取り入れる手法としては、例えば非特許文献1には、第0変位ベクトルをランダム行列で定義された空間上に一度射影したのちに最小化問題を解くことで識別器間の相関を低減する手法が開示されている。但し、識別器間の相関を低減する手法は、これに限定されず、例えば、N個のトレーニングサンプルからランダムにN’(N’<N)個のトレーニングサンプルを選択して生成処理を行うことで、類似したKクラス識別器が生成されないようにする手法などを採用してもよい。
また、生成処理をT回繰り返して得られたT×K個の第一変位ベクトルに従って、N個のトレーニングサンプルの初期特徴点の座標を更新し、上述した生成処理で説明した生成アルゴリズムを再適用するようにしてもよい。例えば、i番目のトレーニングサンプルの初期特徴点の座標の更新は、数式(3)により実現できる。
Figure 0006325405
ここでXCi は、t回目の生成処理で生成されたKクラス識別器Rでi番目のトレーニングサンプルが識別されたクラスCの第1変位ベクトルである。つまり、数式(3)は、i番目のトレーニングサンプルの初期特徴点ベクトルSに、各回の生成処理で生成されたKクラス識別器Rでi番目のトレーニングサンプルが識別されたクラスCの第1変位ベクトルを加算することで、更新後の初期特徴点ベクトルS’が得られる。
そして全てのトレーニングサンプルに数式(3)を適用して、全てのSをS’に更新し、更新後のS’を初期特徴点ベクトルSとして、上述した生成処理で説明した生成アルゴリズムを適用する。なお、トレーニングサンプルの画像ベクトルIや真の特徴点ベクトルYについては、そのまま用いればよい。
これにより、初期特徴点は、対応する真の特徴点に近づいた状態になるので、より精密な生成処理を行うことができる。
識別器記憶部15は、生成部13により生成されたT個のKクラス識別器を記憶する。
計算部19は、K×T個の第1変位ベクトルから、K×T個の第1変位ベクトルをそれぞれ近似した第2変位ベクトルを表現するための、K×T個の第2変位ベクトルそれぞれに固有の第2変位ラベルベクトルとK×T個の第2変位ベクトルそれぞれに共通の第2変位座標ベクトルとを計算する。
前述したとおり、第1変位ベクトルは2×D次元のデータであり、Dの値が大きくなるほど高次元化するデータであるため、生成部13により得られたK×T個の第1変位ベクトルをそのまま保持すると、第1変位ベクトルの保持のために大量の記憶容量(例えば、メモリ量)を確保する必要があり、コストの増大を招いてしまう。
このため第1実施形態では、K×T個の第1変位ベクトルを保持する代わりにK×T個の第2変位ラベルベクトルと、第2変位座標ベクトルとを保持することで必要な記憶容量を削減する。なお、第2変位ベクトルは、近似された第1変位ベクトルよりも低次元のベクトルであるため、このような対応により記憶容量を削減できる。
第1実施形態では、計算部19は、K×T個の第1変位ベクトルを主成分分析して、第2変位座標ベクトルを計算する。なお、第2変位座標ベクトルを計算する際の尺度は、主成分分析に限定されず、K×T個の第1変位ベクトルの線形和、分散、及び順序統計量の少なくともいずれかとしてもよい。第2変位座標ベクトルは、K×T個の第1変位ベクトルを含む部分空間に対して張られる線形独立な基底ベクトルの集合である。そして計算部19は、第2変位座標ベクトルに基づく空間にK×T個の第1変位ベクトルを射影することで、K×T個の第2変位ラベルベクトルを求める。第2変位ラベルベクトルは、各基底ベクトルに対する線形係数を並べたものである。なお、K×T個の第2変位ラベルベクトルの値は、互いに異なる。
具体的には、計算部19は、K×T個の第1変位ベクトルを主成分分析し、複数の固有ベクトルを得る。そして計算部19は、得られた複数の固有ベクトルのうち、固有値が大きい方から順にM(M<min(2×D、T×K))本の固有ベクトルを、K×T個の第1変位ベクトルが含まれる部分空間に対して張られる基底ベクトルとする。この場合、M本の基底ベクトルの集合が第2変位座標ベクトルとなる。更に計算部19は、M本の基底ベクトルで張られる空間に対してK×T個の第1変位ベクトルを射影することで、K×T個の第2変位ラベルベクトルを得る。この場合、第2変位ラベルベクトルは、M本の基底ベクトルそれぞれに対する線形係数を並べたものとなる。なお、各線形係数はスカラーである。また、min(2×D、T×K)は、2×D及びT×Kのうち小さい方の値を返す関数である。
K×T個の第1変位ベクトルは、それぞれ、M本の基底ベクトルの線形結合(線形和)で第2変位ベクトルに近似できるため(但し、第1変位ベクトル毎に、線形結合の係数は異なる)、K×T個の第1変位ベクトルのうちの任意の第1変位ベクトルの場合、数式(4)により第2変位ベクトルに近似される。
Figure 0006325405
ここで、Xは、任意の第1変位ベクトルを表し、v〜vは、M本の基底ベクトルを表し、a〜aは、それぞれ、前述の任意の第1変位ベクトルXをv〜vで張られる空間に射影することで、得られる係数である。なお、v〜vの集合が第2変位座標ベクトルであり、a〜aを並べたベクトルが第2変位ラベルベクトルである。
変位ラベル記憶部21は、計算部19により計算されたK×T個の第2変位ラベルベクトルそれぞれに、当該第2変位ラベルベクトルの第2変位ベクトルに近似された第1変位ベクトルが求められたクラスのクラス識別子を対応付けて記憶する。なお、変位ラベル記憶部21は、計算部19により計算されたK×T個の第2変位ラベルベクトルそれぞれに、当該第2変位ラベルベクトルの第2変位ベクトルに近似された第1変位ベクトルを求める際に用いられたKクラス識別器の識別器識別子と、当該第1変位ベクトルが求められたクラスのクラス識別子と、を対応付けて記憶してもよい。
変位座標記憶部23は、計算部19により計算された第2変位座標ベクトルを記憶する。
第1変位ベクトルをそのまま記憶する場合、第1変位ベクトルの次元数は2×D、第1変位ベクトルの総数はK×Tであるため、2×D×K×Tサイズ分の記憶容量が必要になる。
これに対し、第1実施形態では、第1変位ベクトルをそのまま記憶するのではなく、計算部19により計算された第2変位ラベルベクトル及び第2変位座標ベクトルを記憶する。ここで、第2変位ラベルベクトルの次元数はM、第2変位ラベルベクトルの総数はK×Tであり、第2変位座標ベクトルの次元数はM×2×D(基底ベクトルの次元数は2×D)、第2変位座標ベクトルの総数は1であるため、M×K×T+M×2×Dサイズ分の記憶容量で足りる。
入力部31は、入力画像を入力する。入力画像は、真の特徴点検出対象の物体が映る画像であり、D個の真の特徴点それぞれに対応する初期特徴点(初期特徴点ベクトルS)が予め設定されている。但し、検出対象のD個の真の特徴点は当然未知である(設定されていない)。入力画像へのD個の初期特徴点の設定は、例えば、トレーニングデータ記憶部11で説明した手法や、従来から存在する特徴点検出技術を用いて設定することができる。入力画像に映る真の特徴点検出対象の物体とは、例えば、人の顔が挙げられ、D個の真の特徴点とは、例えば、目、鼻、及び口等の特徴点が挙げられるが、これに限定されるものではない。また、入力画像の座標は、物体の中心座標や大きさによって正規化され、サンプル画像の座標系と共通の座標系によって表現されているものとする。このため、入力画像のD個の初期特徴点の座標も、サンプル画像の座標系と共通の座標系によって表現される。
なお入力画像は、画像上に映る物体とは関係のない背景などを取り除いた画像としてもよい。背景除去は、例えば、従来から存在する物体検出技術などにより、入力画像上に映る物体を検出し、検出した物体外の領域を除去するなどすればよい。
識別部33は、入力部31から入力された入力画像に識別器記憶部15に記憶されているT個のKクラス識別器を適用し、Kクラス識別器毎に、当該Kクラス識別器から出力されたクラス識別子に対応付けられた第2変位ラベルベクトルを、変位ラベル記憶部21から取得する。例えば、識別部33は、Kクラス識別器毎に、当該Kクラス識別器から出力されたクラス識別子と、当該Kクラス識別器の識別器識別子に対応付けられた第2変位ラベルベクトルを、変位ラベル記憶部21から取得する。
なお、各Kクラス識別器は、トレーニングサンプルの場合と同様、入力画像の画像パターン(画像ベクトルI)と初期特徴点ベクトルSとが入力されると、入力されたIがKクラスのいずれに属するかを識別し、識別したクラスを示すクラス識別子cを出力する。
加算部35は、識別部33により取得されたT個の第2変位ラベルベクトルを加算して加算ラベルベクトルを求める。
検出部37は、入力部31から入力された入力画像に設定されたD個の初期特徴点、加算部35により加算された加算ラベルベクトル、及び変位座標記憶部23に記憶されている第2変位座標ベクトルに基づいて、入力画像のD個の真の特徴点を検出する。
具体的には、検出部37は、加算ラベルベクトルに第2変位座標ベクトルを乗じることで、入力画像のD個の初期特徴点それぞれと対応するD個の真の特徴点それぞれとの変位を並べた第3変位ベクトルを求める。詳細には、検出部37は、加算ラベルベクトルを第2変位座標ベクトルと線形結合することで、第3変位ベクトルを求める。そして検出部37は、求めた第3変位ベクトルを入力画像のD個の初期特徴点を並べた初期特徴点ベクトルに加算して、入力画像のD個の真の特徴点を検出する(求める)。
第1実施形態では、識別部33によりT個の第2変位ラベルベクトルが得られているため、入力画像のD個の初期特徴点を並べた初期特徴点のベクトルに加算される第3変位ベクトルは、T個の第2変位ベクトルとなる。但し、T個の第2変位ベクトルにおいて、第2変位座標ベクトル(M本の基底ベクトルを並べたベクトル)は共通であり、第2変位ラベルベクトル(M個の係数を並べたベクトル)は、固有である。このため第1実施形態では、まず、T個の第2変位ラベルベクトルを加算し、その後に、第2変位座標ベクトルと線形結合する。
例えば、T個の第2変位ラベルベクトルが、{a11,…,a1M}、…、{aT1,…,aTM}であり、第2変位座標ベクトルが、{v,…,v}であるとする。この場合、加算部35は、T個の第2変位ラベルベクトルを加算して、{(a11+…+a1M),…,(aT1+…+aTM)}とした後に、検出部37は、第2変位座標ベクトル{v,…,v}と線形結合して、第3変位ベクトル{(a11+…+a1M)v,…,(aT1+…+aTM)v}を求める。
第1実施形態では、上述した手法で第3変位ベクトルを求め、入力画像のD個の初期特徴点を並べた初期特徴点のベクトルに加算して、入力画像のD個の真の特徴点を検出するため、従来技術に比べ、入力画像のD個の真の特徴点を検出する際の加算処理回数を抑えられ、高速に検出処理を行うことが期待できる。
第1実施形の場合、入力画像のD個の真の特徴点の検出に必要な加算回数は、T×M回である。なお、第3変位ベクトルを求めるために必要な加算回数がT×(M−1)回であり、入力画像のD個の初期特徴点を並べた初期特徴点のベクトルに第3変位ベクトルを加算するために必要な加算回数がT回であり、合計T×M回である。
一方、従来技術の場合、入力画像のD個の初期特徴点を並べた初期特徴点のベクトルにT個の第1変位ベクトルを加算して、入力画像のD個の真の特徴点を検出する。ここで、第1変位ベクトルは、2×D次元のベクトルであるため、入力画像のD個の真の特徴点の検出に必要な加算回数は、T×2×D回となる。
出力部39は、検出部37によりD個の真の特徴点が検出された入力画像を出力する。例えば、出力部39は、D個の真の特徴点が設定された入力画像を図示せぬ表示装置に表示出力したり、図示せぬ記憶装置に出力したりする。
図4は、第1実施形態の特徴点検出装置10で行われる前処理の手順の流れの一例を示すフローチャートである。
まず、生成部13は、トレーニングデータ記憶部11に記憶されたトレーニングデータを用いて、サンプル画像の初期特徴点ベクトルSに対する画像パターンが類似するトレーニングサンプルをKクラスのうちの同一クラスに識別することが期待され、識別したクラスを示すクラス識別子を出力するKクラス識別器を生成する(ステップS101)。
続いて、生成部13は、生成されたKクラス識別器を用いてN個のトレーニングサンプルをKクラスに識別する(ステップS102)。
続いて、生成部13は、クラス毎に、当該クラスに識別された各トレーニングサンプルのD個の初期特徴点をD個の真の特徴点に近づける第1変位ベクトルを求める(ステップS103)。
そして生成部13は、ステップS101〜S103までの生成処理をT回行うまで繰り返す(ステップS104でNo)。
生成部13が生成処理をT回行うと(ステップS104でYes)、計算部19は、K×T個の第1変位ベクトルから、K×T個の第1変位ベクトルをそれぞれ近似した第2変位ベクトルを表現するための、K×T個の第2変位ベクトルそれぞれに固有の第2変位ラベルベクトルとK×T個の第2変位ベクトルそれぞれに共通の第2変位座標ベクトルとを計算する(ステップS105)。
図5は、第1実施形態の特徴点検出装置10で行われる後処理の手順の流れの一例を示すフローチャートである。
まず、入力部31は、真の特徴点検出対象の物体が映る入力画像を入力する(ステップS111)。
続いて、識別部33は、入力部31から入力された入力画像に識別器記憶部15に記憶されているT個の識別器を適用し、Kクラス識別器毎に、当該Kクラス識別器から出力されたクラス識別子に対応付けられた第2変位ラベルベクトルを、変位ラベル記憶部21から取得することで、T個の第2変位ラベルベクトルを得る(ステップS113)。
続いて、加算部35は、T個の第2変位ラベルベクトルを加算し(ステップS115)、検出部37は、加算後の第2変位ラベルベクトルである加算ラベルベクトルを第2変位座標ベクトルと線形結合することで、第3変位ベクトルを求める(ステップS117)。
続いて、検出部37は、入力画像のD個の初期特徴点を並べた初期特徴点のベクトルに求めた第3変位ベクトルを加算して、入力画像のD個の真の特徴点を検出し(ステップS119)、出力部39は、検出部37によりD個の真の特徴点が検出された入力画像を出力する。
以上のように第1実施形態によれば、K×T個の第1変位ベクトルを記憶するのではなく、K×T個の第1変位ベクトルをそれぞれ近似した第2変位ベクトルを表現するための、K×T個の第2変位ラベルベクトルと1個の第2変位座標ベクトルとを記憶するので、記憶容量を抑えることができる。
また第1実施形態によれば、T個の第2変位ラベルベクトルを加算し、その後に、第2変位座標ベクトルと線形結合することで、第3変位ベクトルを求め、入力画像のD個の初期特徴点それぞれを並べた初期特徴点のベクトルに加算して、入力画像のD個の真の特徴点を検出するため、入力画像のD個の真の特徴点の検出に必要な計算回数も抑えることができる。
(第2実施形態)
第2実施形態では、第1実施形態と異なる手法について説明する。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図6は、第2実施形態の特徴点検出装置110の一例を示す構成図である。図6に示すように、特徴点検出装置110は、トレーニングデータ記憶部111と、振分部141と、第1ラベル情報記憶部143と、変位記憶部145と、生成部113と、識別器記憶部15と、第2ラベル情報記憶部147と、入力部31と、識別部133と、加算部135と、検出部137と、出力部39とを、備える。
トレーニングデータ記憶部111は、第1実施形態と同様である。
振分部141は、トレーニングデータ記憶部111に記憶されているN個のトレーニングサンプルそれぞれ毎にD個の初期特徴点それぞれと対応する真の特徴点との変位を並べた第1変位ベクトルを生成し、生成したN個の第1変位ベクトルに基づいてN個のトレーニングサンプルをL個の組に振り分け、L個の組それぞれ毎に当該組を代表する第1変位ベクトルである第2変位ベクトルを決定する。なお、第1変位ベクトルは、第1実施形態で説明した第0変位ベクトルと同様であるため、ここでは説明を省略する。
第2実施形態では、組はクラスタであり、振分部141は、N個の第1変位ベクトルそれぞれの距離を用いて、N個のトレーニングサンプルをL個のクラスタにクラスタリングする。第1変位ベクトルの距離は、例えば、第1変位ベクトルを構成する変位のユークリッド距離などで定義すればよい。クラスタは、例えば、変位空間上における原点からの距離(詳細には、距離の範囲)で定義できる。但し、第2実施形態では、クラスタは、図7に示すように、変位空間上において原点をまたがないような距離の範囲で定義されていることが好ましい。この理由については後述する。なお、図7に示す例では、黒丸が変位空間上における第1変位ベクトル(トレーニングサンプル)の位置を示し、破線で示された円がクラスタを示す。クラスタリングについては、例えば、K−meansクラスタリング法やMean Shiftクラスタリング法などを用いればよい。
従って、振分部141は、N個のトレーニングサンプルそれぞれ毎に、当該トレーニングサンプルの第1変位ベクトルの距離を計算し、当該トレーニングサンプルを、計算した距離に応じたクラスタに振り分ければよい。
また第2実施形態では、振分部141は、L個のクラスタそれぞれ毎に、当該クラスタに振り分けられたトレーニングサンプルの第1変位ベクトルの距離の線形和、分散、及び順序統計量の少なくともいずれかを尺度に用いて、第2変位ベクトルを決定する。例えば、振分部141は、L個のクラスタそれぞれ毎に、当該クラスタに振り分けられたトレーニングサンプルの第1変位ベクトルの距離の平均値を計算し、計算した平均値に最も近い距離の第1変位ベクトルを第2変位ベクトルに決定すればよい。
なお第2実施形態では、N個のトレーニングサンプルのL個の組への振り分け手法として、クラスタリングを例に取り説明したが、これに限定されるものではなく、第1実施形態同様、主成分分析を用いてもよい。
第1ラベル情報記憶部143は、L個の組それぞれを示す第1ラベル毎に、当該第1ラベルが示す組に振り分けられたトレーニングサンプルを示すサンプル識別子を対応付けた第1ラベル情報を記憶する。
変位記憶部145は、L個の組それぞれを示す第1ラベル毎に、当該第1ラベルが示す組の第2変位ベクトルを記憶する。
生成部13は、生成処理(学習処理)をT回繰り返す。生成処理は、識別器生成(学習)ステップと第2ラベル算出(学習)ステップとから成る処理である。識別器生成ステップについては、第1実施形態と同様であるため、説明を省略する。第2ラベル算出ステップは、識別器生成ステップにより生成されたKクラス識別器を用いて、N個のトレーニングサンプルをKクラスに識別し、クラス毎に、当該クラスに識別された各トレーニングサンプルと第1ラベル情報記憶部143に記憶された第1ラベル情報とに基づく第2ラベルを求めるステップである。具体的には、第2ラベルは、クラス毎に、当該クラスに識別された各トレーニングサンプルと第1ラベル情報記憶部143に記憶された第1ラベル情報とに基づいて計算される。
第2ラベルは、例えば、あるクラスに識別された1以上のトレーニングサンプルのうち最も多くのトレーニングサンプルが振り分けられた組を示す第1ラベルである。この場合、生成部13は、第1ラベル情報を参照して、図8に示すように、あるクラスに識別された1以上のトレーニングサンプルに対して、各サンプルがL個のクラスタ(ビン)のうちのどのクラスタに振り分けられたかというLビンの頻度ヒストグラムを生成し、出現頻度が最も大きいクラスタを示す第1ラベルを第2ラベルとする処理を、全てのクラスに対して行えばよい。なお図8に示す例の場合、最も出現頻度の高いクラスタは第4クラスタであるため、第4クラスタを示す第1ラベルが第2ラベルとなる。
なお、生成部13は、生成した頻度ヒストグラムの出現頻度が最も大きいクラスタを示す第1ラベルを第2ラベルとするのではなく、頻度ヒストグラムそのものを第2ラベルとしてもよい。この場合、出現頻度が最も大きいクラスタの値を1、他のクラスタの値を0としたり、各クラスタの出現頻度を出現頻度の最大値で正規化したりしてもよい。
識別器記憶部15は、第1実施形態と同様である。
第2ラベル情報記憶部147は、K×T個の第2ラベルそれぞれに、当該第2ラベルが求められたクラスのクラス識別子を対応付けて記憶する。例えば、第2ラベル情報記憶部147は、K×T個の第2ラベルそれぞれに、当該第2ラベルを求める際に用いられたKクラス識別器の識別器識別子と、当該第2ラベルが求められたクラスのクラス識別子と、を対応付けて記憶してもよい。
入力部31は、第1実施形態と同様である。
識別部133は、入力部31から入力された入力画像に識別器記憶部15に記憶されているT個のKクラス識別器を適用し、Kクラス識別器毎に、当該Kクラス識別器から出力されたクラス識別子に対応付けられた第2ラベルを、第2ラベル情報記憶部147から取得する。例えば、識別部33は、Kクラス識別器毎に、当該Kクラス識別器から出力されたクラス識別子と、当該Kクラス識別器の識別器識別子に対応付けられた第2ラベルを、第2ラベル情報記憶部147から取得する。
加算部135は、識別部133により取得されたT個の第2ラベルのうち値が同一の第2ラベルを加算して、第2ラベル毎の加算値を求める。つまり、加算部135は、T個の第2ラベルに対し、第2ラベル毎の出現数をカウントする。なお、第2ラベルが頻度ヒストグラムの場合は、加算部135は、T個の第2ラベルをそのまま加算すればよい。
検出部137は、入力部31から入力された入力画像に設定されたD個の初期特徴点、加算部135により得られた第2ラベル毎の加算値、及び変位記憶部145に記憶されているL個の第2変位ベクトルに基づいて、入力画像のD個の真の特徴点を検出する。
具体的には、検出部137は、変位記憶部145からL個の第2変位ベクトルを取得し、第2変位ベクトル毎に対応する第2ラベルの加算値を乗じ、対応する第2ラベルの加算値が乗じられた各第2変位ベクトルを加算して、入力画像のD個の初期特徴点それぞれと対応するD個の真の特徴点それぞれとの変位を並べた第3変位ベクトルを求める。つまり、第2実施形態では、第2ラベルのラベル数と第2変位ベクトルとの重みづけ和で第3変位ベクトルを求めている。
そして検出部137は、求めた第3変位ベクトルを、入力画像のD個の初期特徴点ベクトルに加算して、入力画像のD個の真の特徴点を検出する。
出力部39は、第1実施形態と同様である。
図9は、第2実施形態の特徴点検出装置110で行われる前処理の手順の流れの一例を示すフローチャートである。
まず、振分部141は、トレーニングデータ記憶部111に記憶されているN個のトレーニングサンプルそれぞれ毎にD個の初期特徴点それぞれと対応する真の特徴点との変位を並べた第1変位ベクトルを生成する(ステップS201)。
続いて、振分部141は、生成したN個の第1変位ベクトルに基づいてN個のトレーニングサンプルをL個の組に振り分ける(ステップS202)。
続いて、振分部141は、L個の組それぞれ毎に当該組を代表する第1変位ベクトルである第2変位ベクトルを決定する(ステップS203)。
続いて、生成部113は、トレーニングデータ記憶部111に記憶されたトレーニングデータを用いて、サンプル画像の初期特徴点ベクトルSに対する画像パターンが類似するトレーニングサンプルをKクラスのうちの同一クラスに識別することが期待され、識別したクラスを示すクラス識別子を出力するKクラス識別器を生成する(ステップS204)。
続いて、生成部113は、生成されたKクラス識別器を用いてN個のトレーニングサンプルをKクラスに識別する(ステップS205)。
続いて、生成部113は、クラス毎に、当該クラスに識別された各トレーニングサンプルと第1ラベル情報記憶部143に記憶された第1ラベル情報とに基づく第2ラベルを求める(ステップS206)。
そして生成部113は、ステップS204〜S206までの生成処理をT回行うまで繰り返し(ステップS207でNo)、生成部113が生成処理をT回行うと(ステップS207でYes)、前処理は終了となる。
図10は、第2実施形態の特徴点検出装置110で行われる後処理の手順の流れの一例を示すフローチャートである。
まず、入力部31は、真の特徴点検出対象の物体が映る入力画像を入力する(ステップS211)。
続いて、識別部133は、入力部31から入力された入力画像に識別器記憶部15に記憶されているT個のKクラス識別器を適用し、Kクラス識別器毎に、当該Kクラス識別器から出力されたクラス識別子に対応付けられた第2ラベルを、第2ラベル情報記憶部147から取得することで、T個の第2ラベルを得る(ステップS213)。
続いて、加算部135は、識別部133により取得されたT個の第2ラベルのうち値が同一の第2ラベルを加算して、第2ラベル毎の加算値を求め(ステップS215)、検出部137は、変位記憶部145からL個の第2変位ベクトルを取得し、第2変位ベクトル毎に対応する第2ラベルの加算値を乗じ、対応する第2ラベルの加算値が乗じられた各第2変位ベクトルを加算して、入力画像のD個の初期特徴点それぞれと対応するD個の真の特徴点それぞれとの変位を並べた第3変位ベクトルを求める(ステップS217)。
続いて、検出部137は、入力画像のD個の初期特徴点を並べた初期特徴点のベクトルに求めた第3変位ベクトルを加算して、入力画像のD個の真の特徴点を検出し(ステップS219)、出力部39は、検出部137によりD個の真の特徴点が検出された入力画像を出力する。
以上のように第2実施形態でも、K×T個の第1変位ベクトルを記憶するのではなく、第1ラベル情報、第2ラベル情報、及びL個の第2変位ベクトルを記憶すればよいので、記憶容量を抑えることができる。
また第2実施形態によれば、学習効率を向上させることもできる。
例えば、非特許文献1に開示された手法では、第1変位ベクトルに、同一クラスに識別されたトレーニングサンプルの第0変位ベクトルの平均値を用いている。この手法の場合、学習時に、図11に示すように、変位空間上の原点を挟んで等方的にトレーニングサンプルが選択されてしまった場合、第0変位ベクトルの平均値が原点付近の値になってしまうため、入力画像の真の特徴点の検出時の影響(初期特徴点の更新幅)が小さくなってしまう。このため、学習の収束を遅らせ、学習効率を悪くしてしまう。なお、図11に示す例では、黒丸が変位空間上における変位ベクトル(学習サンプル)の位置を示し、破線で示された円がトレーニングサンプルの選択範囲を示し、バツ印が第0変位ベクトルの平均値を示す。
これに対し、第2実施形態では、図7に示すように、クラスタは、変位空間上において原点をまたがないような距離の範囲で定義されることが好ましく、クラスタ毎に、当該クラスタに振り分けられた学習サンプルの第1変位ベクトルの距離の線形和、分散、及び順序統計量の少なくともいずれかを尺度に用いて、第2変位ベクトルを決定する。このため第2実施形態によれば、第2変位ベクトルが原点付近の値になってしまうことを防止でき、入力画像の真の特徴点の検出時の影響(初期特徴点の更新幅)が小さくならないので、生成処理の収束を速め、生成効率を向上させることもできる。
(変形例)
上記各実施形態では、画像上に映る物体のD個の真の特徴点が検出された入力画像を出力する例について説明したが、D個の真の特徴点に基づく解析を行い、解析結果を出力するようにしてもよい。ここでは、第1実施形態を例に取り、変形例について説明するが、第2実施形態においても同様の変形を行うことができる。
図12は、変形例の特徴点検出装置210の一例を示す構成図である。図12に示すように、解析部237及び出力部239が第1実施形態と相違する。
解析部237は、検出部37によりD個の真の特徴点が検出された入力画像を解析する。出力部239は、解析部237の解析結果を出力する。
例えば、特徴点検出装置210が、車などの運転者の状態を監視する運転支援システムに活用され、入力部31は、運転者を撮像した入力画像を入力するとする。なお、入力画像は、動画であっても、定期的に撮像された静止画であってもよい。また、入力画像が識別部33に入力される前に、公知の顔位置検出技術を用いて、入力画像上の運転者の顔の大まかな位置を検出しておいてもよい。
そして、検出部37によりD個の真の特徴点として、入力画像中の運転者の瞳、目尻、目頭、上下瞼、鼻頂点、及び口の端点の位置が検出されるとする。
この場合、解析部237には、入力画像上の運転者の瞳、目尻、目頭、上下瞼、鼻頂点、及び口の端点の位置が、検出部37から定期的に入力されるため、解析部237は、これらの位置の変化を解析することで、運転者の状態を解析する。
例えば、解析部237は、瞳の上下間の距離の変化を解析し、瞼の開閉度を解析する。そして解析部237は、瞼が一定時間以上閉じられていることを解析した場合、運転者が居眠りしている危険性があると解析し、出力部239は、その旨を表示装置や音声装置等に出力させる。
また例えば、解析部237は、目、口、鼻の頂点の位置の変化を解析し、顔の向きを解析する。そして解析部237は、顔の向きが一定時間以上正面を向いていないことを解析した場合、運転者がよそ見している危険性があると解析し、出力部239は、その旨を表示装置や音声装置等に出力させる。
また例えば、解析部237は、***の位置の変化を解析し、口の開閉度合いを解析する。そして解析部237は、運転者が発話していることを解析した場合、出力部239は、その旨を音声入力型のナビゲーション装置などに出力する。これにより、音声入力型のナビゲーション装置は、入力された音声が運転者の発話した音声か、音楽などの背景雑音の音声かを判別でき、音声入力の精度向上が期待できる。
このように、特徴点検出装置210を運転支援システムに活用すれば、運転時の安全性やユーザビリティを高めることができる。
また例えば、特徴点検出装置210が、人間の視線を推定する視線推定システムに活用され、入力部31は、視線推定対象のユーザを撮像した入力画像を入力するとする。また、入力画像が識別部33に入力される前に、公知の顔位置検出技術を用いて、入力画像上の運転者の顔の大まかな位置を検出しておいてもよい。
そして、検出部37によりD個の真の特徴点として、入力画像中の運転者の瞳、目尻、目頭、上下瞼、鼻頂点、及び口の端点の位置が検出されるとする。
この場合、解析部237には、入力画像上の運転者の瞳、目尻、目頭、上下瞼、鼻頂点、及び口の端点の位置が、検出部37から入力されるため、解析部237は、これらの位置を解析することで、ユーザの視線の方向を解析する。
解析部237は、例えば、瞳と目尻目頭の間の位置関係を解析して、ユーザの視線の方向を解析してもよいし、特開2008−194146号公報で開示されているような手法でユーザの視線の方向を解析してもよい。
このように、特徴点検出装置210を視線推定システムに活用すれば、非接触で操作を行うようなユーザーインターフェースや、広告の興味関心度を計測するマーケティングなど様々な用途に適用できる。このような車載などの組み込みシステム用途では、一般的なコンピュータと比較して搭載メモリ量などが制限される場合が多く、本発明のように少ないメモリで効率よく処理する技術が重要である。
(ハードウェア構成)
図13は、上記各実施形態及び上記各変形例の特徴点検出装置のハードウェア構成の一例を示すブロック図である。図13に示すように、上記各実施形態及び上記各変形例の特徴点検出装置は、CPUなどの制御装置902と、ROMやRAMなどの記憶装置904と、HDDやSSDなどの外部記憶装置906と、ディスプレイなどの表示装置908と、撮像装置、記録装置、読取装置、又はネットワークI/F、及びキーボード又はマウスなどの入力装置910と、通信装置912と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。
上記各実施形態及び上記各変形例の特徴点検出装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。
また、上記各実施形態及び上記各変形例の特徴点検出装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態及び上記各変形例の特徴点検出装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上記各実施形態及び上記各変形例の特徴点検出装置で実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。
上記各実施形態及び上記各変形例の特徴点検出装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、CPUがHDDから学習プログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
以上説明したとおり、上記各実施形態及び上記各変形例によれば、記憶容量を低減することができる。
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
10、110、210 特徴点検出装置
11、111 トレーニングデータ記憶部
13、113 生成部
15 識別器記憶部
19 計算部
21 変位ラベル記憶部
23 変位座標記憶部
31 入力部
33、133 識別部
35、135 加算部
37、137 検出部
39、239 出力部
141 振分部
143 第1ラベル情報記憶部
145 変位記憶部
147 第2ラベル情報記憶部
237 解析部

Claims (14)

  1. 複数のトレーニングサンプルごとの初期特徴点と特徴点との変位を表す複数の第1変位ベクトルに基づいて決定される複数の第2ベクトルを記憶する記憶部と、
    初期特徴点が設定された入力画像を入力する入力部と、
    前記入力画像に複数の識別器を適用し、複数の識別器ごとに、識別されたクラスに対応するラベル情報を決定する識別部と、
    複数の識別器ごとに決定された複数の前記ラベル情報を加算して加算情報を求める加算部と、
    前記入力画像に設定された前記初期特徴点、前記加算情報、及び、前記第2ベクトルに基づいて、前記入力画像の特徴点を検出する検出部と、を備え、
    前記複数の第2ベクトルは、前記複数の第1変位ベクトルより小さな記憶領域に記憶可能である、
    特徴点検出装置。
  2. 前記第2ベクトルは、複数の前記第1変位ベクトルを近似した複数の第2変位ベクトルを表現するための、複数の前記第2変位ベクトルそれぞれに共通の第2変位座標ベクトルであり、
    複数の前記第2変位ベクトルを表現するための、複数の前記第2変位ベクトルそれぞれに固有の第2変位ラベルベクトルを記憶する変位ラベル記憶部をさらに備え、
    前記識別部は、識別されたクラスに対応する前記第2変位ラベルベクトルを、前記ラベル情報として前記変位ラベル記憶部から取得し、
    前記加算部は、複数の前記第2変位ラベルベクトルを加算した加算ラベルベクトルを前記加算情報として求め、
    前記検出部は、前記入力画像に設定された前記初期特徴点、前記加算ラベルベクトル、及び、前記第2変位座標ベクトルに基づいて、前記入力画像の特徴点を検出する
    請求項1に記載の特徴点検出装置。
  3. 前記検出部は、前記加算ラベルベクトルに前記第2変位座標ベクトルを乗じることで、前記入力画像のD個の初期特徴点それぞれと対応する前記D個の特徴点それぞれとの変位を並べた第3変位ベクトルを求め、前記入力画像の前記D個の初期特徴点を並べたベクトルに加算して、前記入力画像の前記D個の特徴点を検出する請求項2に記載の特徴点検出装置。
  4. K×T個の第2変位座標ベクトルは、前記K×T個の第1変位ベクトルを主成分分析して計算され、前記K×T個の第2変位ラベルベクトルは、当該第2変位座標ベクトルに基づく空間に前記K×T個の第1変位ベクトルを射影して求められる請求項2に記載の特徴点検出装置。
  5. 前記第2変位座標ベクトルは、K×T個の第1変位ベクトルを含む部分空間に対して張られる線形独立な基底ベクトルの集合であり、
    前記第2変位ラベルベクトルは、前記各基底ベクトルに対する線形係数を並べたものであり、
    前記検出部は、前記加算ラベルベクトルを前記第2変位座標ベクトルと線形結合することで、前記第3変位ベクトルを求める請求項3に記載の特徴点検出装置。
  6. K×T個の前記第2変位座標ベクトルは、前記K×T個の第1変位ベクトルの線形和、分散、及び順序統計量の少なくともいずれかを尺度として計算される請求項2に記載の特徴点検出装置。
  7. D個の特徴点が検出された前記入力画像を出力する出力部を更に備える請求項1に記載の特徴点検出装置。
  8. D個の特徴点が検出された前記入力画像を解析する解析部と、
    解析結果を出力する出力部と、
    を更に備える請求項1に記載の特徴点検出装置。
  9. 前記第2ベクトルは、複数の前記トレーニングサンプルを振り分ける複数の組を代表する前記第1変位ベクトルを表す第2変位ベクトルであり、
    前記識別部は、識別されたクラスを示すラベル情報を決定し、
    前記加算部は、複数の前記ラベル情報の出現数を表す前記加算情報を求め、
    前記検出部は、前記入力画像に設定された前記初期特徴点、前記加算情報、及び、前記第2変位ベクトルに基づいて、前記入力画像の特徴点を検出する
    請求項1に記載の特徴点検出装置。
  10. 前記検出部は、複数の前記第2変位ベクトルそれぞれ毎に対応する前記加算情報を乗じ、対応する前記加算情報が乗じられた各第2変位ベクトルを加算して、前記入力画像のD個の初期特徴点それぞれと対応する前記D個の特徴点それぞれとの変位を並べた第3変位ベクトルを求め、前記入力画像の前記D個の初期特徴点を並べたベクトルに加算して、前記入力画像の前記D個の特徴点を検出する請求項9に記載の特徴点検出装置。
  11. 前記組は、クラスタであり、
    N個の前記トレーニングサンプルは、N個の前記第1変位ベクトルそれぞれの距離を用いて、L個のクラスタにクラスタリングされる請求項9に記載の特徴点検出装置。
  12. 前記第2変位ベクトルは、前記L個のクラスタそれぞれ毎に、当該クラスタに振り分けられたトレーニングサンプルの第1変位ベクトルの距離の線形和、分散、及び順序統計量の少なくともいずれかを尺度に用いて決定される請求項11に記載の特徴点検出装置。
  13. 複数のトレーニングサンプルごとの初期特徴点と特徴点との変位を表す複数の第1変位ベクトルに基づいて決定される複数の第2ベクトルを記憶部に記憶する記憶ステップと、
    期特徴点が設定された入力画像を入力する入力ステップと、
    前記入力画像に複数の識別器を適用し、複数の識別器ごとに、識別されたクラスに対応するラベル情報を決定する識別ステップと、
    複数の識別器ごとに決定された複数の前記ラベル情報を加算して加算情報を求める加算ステップと、
    前記入力画像に設定された前記初期特徴点、前記加算情報、及び、前記第2ベクトルに基づいて、前記入力画像の特徴点を検出する検出ステップと、を含み、
    前記複数の第2ベクトルは、前記複数の第1変位ベクトルより小さな記憶領域に記憶可能である、
    徴点検出方法。
  14. 複数のトレーニングサンプルごとの初期特徴点と特徴点との変位を表す複数の第1変位ベクトルに基づいて決定される複数の第2ベクトルを記憶部に記憶する記憶ステップと、
    期特徴点が設定された入力画像を入力する入力ステップと、
    前記入力画像に複数の識別器を適用し、複数の識別器ごとに、識別されたクラスに対応するラベル情報を決定する識別ステップと、
    複数の識別器ごとに決定された複数の前記ラベル情報を加算して加算情報を求める加算ステップと、
    前記入力画像に設定された前記初期特徴点、前記加算情報、及び、前記第2ベクトルに基づいて、前記入力画像の特徴点を検出する検出ステップと、をコンピュータに実行させ
    前記複数の第2ベクトルは、前記複数の第1変位ベクトルより小さな記憶領域に記憶可能である、
    ログラム。
JP2014192873A 2014-09-22 2014-09-22 特徴点検出装置、方法及びプログラム Active JP6325405B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014192873A JP6325405B2 (ja) 2014-09-22 2014-09-22 特徴点検出装置、方法及びプログラム
US14/848,583 US9639779B2 (en) 2014-09-22 2015-09-09 Feature point detection device, feature point detection method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192873A JP6325405B2 (ja) 2014-09-22 2014-09-22 特徴点検出装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016066114A JP2016066114A (ja) 2016-04-28
JP6325405B2 true JP6325405B2 (ja) 2018-05-16

Family

ID=55526035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192873A Active JP6325405B2 (ja) 2014-09-22 2014-09-22 特徴点検出装置、方法及びプログラム

Country Status (2)

Country Link
US (1) US9639779B2 (ja)
JP (1) JP6325405B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6325405B2 (ja) * 2014-09-22 2018-05-16 株式会社東芝 特徴点検出装置、方法及びプログラム
CN109426829A (zh) * 2017-08-28 2019-03-05 中兴通讯股份有限公司 一种用户身高的估计方法、装置及计算机可读存储介质
WO2019041360A1 (zh) * 2017-09-04 2019-03-07 华为技术有限公司 行人属性识别与定位方法以及卷积神经网络***
CN109543495B (zh) * 2017-09-22 2021-03-16 ***通信有限公司研究院 一种人脸关键点标注方法、装置、电子设备及存储介质
CN109871856B (zh) * 2017-12-04 2022-03-04 北京京东尚科信息技术有限公司 一种优化训练样本的方法和装置
JP7023131B2 (ja) * 2018-02-08 2022-02-21 三菱電機株式会社 音声出力制御装置、及び音声出力制御プログラム
CN109493384B (zh) * 2018-09-20 2021-03-09 顺丰科技有限公司 相机位姿估计方法、***、设备及存储介质
CN109543713B (zh) * 2018-10-16 2021-03-26 北京奇艺世纪科技有限公司 训练集的修正方法及装置
CN111652315B (zh) * 2020-06-04 2023-06-02 广州虎牙科技有限公司 模型训练、对象分类方法和装置、电子设备及存储介质
CN111709470B (zh) * 2020-06-08 2023-10-03 北京百度网讯科技有限公司 图像生成方法、装置、设备及介质
CN113887234B (zh) * 2021-09-15 2023-01-06 北京三快在线科技有限公司 一种模型训练以及推荐方法及装置
CN116883417B (zh) * 2023-09-08 2023-12-05 武汉东方骏驰精密制造有限公司 基于机器视觉的工件质检方法及装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2427719A1 (en) * 2001-09-25 2003-05-01 Matsushita Electric Industrial Co., Ltd. Parameter estimation apparatus and data matching apparatus
JP4011426B2 (ja) * 2002-07-17 2007-11-21 グローリー株式会社 顔検出装置、顔検出方法および顔検出プログラム
TWI226589B (en) * 2003-04-28 2005-01-11 Ind Tech Res Inst Statistical facial feature extraction method
KR100647322B1 (ko) * 2005-03-02 2006-11-23 삼성전자주식회사 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
JP4991317B2 (ja) 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
JP4585471B2 (ja) 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP4745207B2 (ja) 2006-12-08 2011-08-10 株式会社東芝 顔特徴点検出装置及びその方法
JP2008217589A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
US8160323B2 (en) * 2007-09-06 2012-04-17 Siemens Medical Solutions Usa, Inc. Learning a coarse-to-fine matching pursuit for fast point search in images or volumetric data using multi-class classification
JP4670976B2 (ja) * 2008-10-03 2011-04-13 ソニー株式会社 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
JP5259456B2 (ja) * 2009-03-02 2013-08-07 株式会社東芝 学習装置及び物体検出装置
US8233711B2 (en) 2009-11-18 2012-07-31 Nec Laboratories America, Inc. Locality-constrained linear coding systems and methods for image classification
JP5290227B2 (ja) 2010-03-30 2013-09-18 セコム株式会社 対象物検知装置及びその学習装置
US8331650B2 (en) * 2010-07-29 2012-12-11 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for defect detection
US8744196B2 (en) * 2010-11-26 2014-06-03 Hewlett-Packard Development Company, L.P. Automatic recognition of images
US8718380B2 (en) * 2011-02-14 2014-05-06 Mitsubishi Electric Research Laboratories, Inc. Representing object shapes using radial basis function support vector machine classification
JP5823270B2 (ja) 2011-11-30 2015-11-25 Kddi株式会社 画像認識装置及び方法
US9111134B1 (en) * 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9158963B2 (en) * 2012-10-04 2015-10-13 Adobe Systems Incorporated Fitting contours to features
US9202138B2 (en) * 2012-10-04 2015-12-01 Adobe Systems Incorporated Adjusting a contour by a shape model
JP6147003B2 (ja) * 2012-12-28 2017-06-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9436890B2 (en) * 2014-01-23 2016-09-06 Samsung Electronics Co., Ltd. Method of generating feature vector, generating histogram, and learning classifier for recognition of behavior
CN105426929B (zh) * 2014-09-19 2018-11-27 佳能株式会社 对象形状对准装置、对象处理装置及其方法
JP6325405B2 (ja) * 2014-09-22 2018-05-16 株式会社東芝 特徴点検出装置、方法及びプログラム

Also Published As

Publication number Publication date
US9639779B2 (en) 2017-05-02
JP2016066114A (ja) 2016-04-28
US20160086057A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
JP6325405B2 (ja) 特徴点検出装置、方法及びプログラム
US20180357515A1 (en) Systems and methods for machine learning enhanced by human measurements
JP6041996B2 (ja) 視覚的属性を修正する装置、システム及び方法
US10614289B2 (en) Facial tracking with classifiers
JP6361387B2 (ja) 識別装置および識別装置の制御方法
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
US10068131B2 (en) Method and apparatus for recognising expression using expression-gesture dictionary
JP5214760B2 (ja) 学習装置、方法及びプログラム
JP2011013732A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2020190480A1 (en) Classifying an input data set within a data category using multiple data recognition tools
US9904843B2 (en) Information processing device, information processing method, and program
CN110232331B (zh) 一种在线人脸聚类的方法及***
WO2013122009A1 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
KR101796027B1 (ko) 얼굴 영상 기반 성별 인식 방법 및 장치
JP5214679B2 (ja) 学習装置、方法及びプログラム
Mayer et al. Adjusted pixel features for robust facial component classification
CN112541394A (zh) 黑眼圈及鼻炎识别方法、***及计算机介质
Tin et al. Gender and age estimation based on facial images
JP2015225410A (ja) 認識装置、方法及びプログラム
JP2015011526A (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
KR20160080483A (ko) 랜덤 포레스트를 이용한 성별인식 방법
Chen Design and simulation of AI remote terminal user identity recognition system based on reinforcement learning
JP2011232845A (ja) 特徴点抽出装置および方法
CN116964619A (zh) 用于增强图像质量的电子设备以及通过使用该电子设备增强图像质量的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180412

R151 Written notification of patent or utility model registration

Ref document number: 6325405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350