JP5121506B2 - 画像処理装置、画像処理方法、プログラム及び記憶媒体 - Google Patents

画像処理装置、画像処理方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
JP5121506B2
JP5121506B2 JP2008051118A JP2008051118A JP5121506B2 JP 5121506 B2 JP5121506 B2 JP 5121506B2 JP 2008051118 A JP2008051118 A JP 2008051118A JP 2008051118 A JP2008051118 A JP 2008051118A JP 5121506 B2 JP5121506 B2 JP 5121506B2
Authority
JP
Japan
Prior art keywords
image
feature
local
local region
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008051118A
Other languages
English (en)
Other versions
JP2009211178A5 (ja
JP2009211178A (ja
Inventor
嘉則 伊藤
博 佐藤
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008051118A priority Critical patent/JP5121506B2/ja
Priority to US12/390,963 priority patent/US8300950B2/en
Publication of JP2009211178A publication Critical patent/JP2009211178A/ja
Publication of JP2009211178A5 publication Critical patent/JP2009211178A5/ja
Application granted granted Critical
Publication of JP5121506B2 publication Critical patent/JP5121506B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、類似する画像を判別する画像処理装置、画像処理方法、プログラム及び記憶媒体に関するものである。
近年、指紋や掌紋、静脈、虹彩といった身体的特徴による本人認証技術、所謂バイオメトリクス認証技術の開発が進められている。このようなバイオメトリクス認証技術の中には、処理対象として、デジタルカメラ等の光電変換撮像装置により取得された画像や、画像相当の2次元空間データに変換したデータを用いられるものが数多くある。
その中でも顔の画像を用いた顔認証技術は、人が他の人を識別する際に通常行っている行為と同等であるため、指紋等のその他のバイオメトリクス認証技術に比べると、その抵抗感の少なさから特に注目されている。
顔などの画像により本人の認証を行う上での、問題点の一つは、判別しようとするパターン同士が比較的似通っている点にある。入力された任意の自然画像中から人の顔を検出する「顔検出」処理であれば、顔である画像パターン同士の差異は、仮に色々な撮像条件で撮像されていたり、色々な人が含まれていたとしても、背景となる画像パターンとの差異に比べると極めて小さいと言える。
すなわち、互いに差異の少ない「似通った」パターンを顔クラスとしてその他のパターンから分離すれば良いため、比較的容易なパターン認識であると考えられる。このような顔検出処理に用いられるパターン認識技術は、例えば特許文献3や非特許文献2に開示されている。
一方、「顔認証」処理の場合は、人の顔クラスとして検出された似通ったパターン同士の中から、その差異を見つけて個人別クラスを判別するという処理が必要となってくる。そして、検出される顔の個人間の差異よりも、同一人物における、撮像条件や表情、顔の向き、眼鏡等のアクセサリや化粧等に起因する差異の方が大きくなる場合がしばしばある。
すなわち、撮像条件等に起因する差異を無視して、個人間の差異のみを抽出して個人別にクラス分けするというのは、そもそも非常に困難な問題であると言える。
この問題に対応するための従来技術として、顔画像の局所領域に注目する方法が提案されている。ある個人を撮像することにより得られた複数の顔画像について、撮像条件等に起因する差異があったとしても、その影響は顔全体に均一に現れるわけではない。
例えば、表情が変わったとしても、変わる前の画像と比べて鼻付近の差異は少ない。また、強い照明が斜めから当たるような場合であっても、それほど強い照明があたっていない画像と比べて、光の当たっている部分の差異は少ない。また、顔の向きが観察者に相対して左に向いていたとしても、顔の3次元形状により、正面を向いている画像と比べて右側部分の差異は左側部分の差異よりも少なくなる。
従ってある局所領域の差異が大きい場合でも、他のいずれかの局所領域では個人の特定が可能な程度にしか差異が生じていないことが期待できる。すなわち個人の特定が可能な程度の差異しか生じていない局所領域による判別結果を選択的に用いることで、良好な本人認証が可能となると考えられる。
このような局所領域の位置を決めるために、例えば、特許文献1に開示される画像認識装置では、「標準顔」による位置決め方法を採用している。「標準顔」とは、正規化された多数のサンプル顔画像を、各画素について平均化することにより生成される顔画像である。
そして、この標準顔画像上に、例えば図19に示すように多数の特徴点を設定する。特許文献1の場合、これら特徴点それぞれを含む近傍領域を局所領域として用いることとしている。そして登録または判別のための正規化された顔画像が入力されると、標準顔上の各特徴点の間でパターンマッチングすることで、入力顔画像上における特徴点の位置を決定することとしている。尚、これらの特徴点は、事前に機械学習により選択されている。
また、非特許文献1では、検出した特徴点を基準として、局所領域を設定する顔認識方法を開示している。ここで基準点となる特徴点は、例えば左目の左端(目尻)等、比較的検出しやすい一点を採用している。
そして、検出した基準点から、所定の横軸x方向および縦軸y方向のずらし量(a,b)により、局所領域の位置を定める。このとき、局所領域が常にほぼ同一の位置となるようにするためには、ずらし量を顔画像に応じて変えるのが有効である。また、実際の顔の上における範囲をほぼ同等とするように局所領域を切り出すためには、切り出す範囲cも顔の向きに応じて変えるのが良い。
そこで非特許文献1では、検出した複数の特徴点の位置情報を用いて顔向き推定処理を行い、推定した顔向きに応じて、局所領域の位置や範囲を変更することとしている。例えば、図20(a)に示すように、正面向きの顔の場合は、パラメータa1、b1、c1を用いて局所領域の切り出しを行い、同図(b)のように左に向いた顔の場合は、パラメータa2、b2、c2を用いて局所領域を切り出すこととしている。
また、特許文献2では、直接検出したいくつかの特徴点を用いて、他の特徴点を設定する方法が開示されている。尚、特許文献2の場合、直接検出したものであるかどうかに関わらず、1つの特徴点に対して1つの局所領域を設定することとしている。
図21は特許文献2に開示された特徴点の設定方法の一例を説明する図である。図21(a)に示すように、特許文献2の場合、まず両目頭と鼻の3点(A,B,C)のみを特徴点として検出する。そしてこの3点を頂点とする三角形の各辺に一致する直線を平行移動した直線を用いて、図21(a)に示すようなメッシュを切ったときの交点を、新たな特徴点として定めることとしている。そして3つのベクトルの整数倍として計算することを意図している。
更に、特許文献2の場合、例えばベクトルCAに対して、Cを中心として所定角度回転させた位置を新たな特徴点として定める方法も開示している。特許文献2によれば、これらの方法によりある特定の個人の顔画像においては、すべて同じ位置に特徴点が定まるとしているが、実際には顔画像の変動が、画像面内での回転や拡大縮小のみである場合に限られる。
「顔向きに応じた局所領域抽出に基づく顔認識」井尻 善久、他、第13回画像センシングシンポジウム予稿集、Yokohama, Jun, 2007 P. Viola, M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", Proc. IEEE Conf. on Computer Vision and Pattern Recognition, Vol. 1, pp.511-518, December 2001. 特開2005−346654号公報 特開2004−265267号公報 特開2002−358500号公報
しかしながら、上述の従来技術による局所領域の位置決め方法においては、以下に示すような問題点がある。
すなわち、特許文献1に開示される方法の場合、多数の特徴点それぞれについて、パターンマッチングを行う必要があるため、局所領域を位置決めするにあたり計算コストが大きくなってしまう。
加えて、例えば頬領域などのように特定のパターンとなりにくい位置の特徴点の検出精度は著しく低くなるので、入力画像の撮像条件如何では、顔判別処理に用いることのできる局所領域が極端に少なくなってしまう可能性がある。
また、非特許文献1に開示される方法の場合、前処理として行われる顔向き推定処理の精度に依存して、局所領域の設定精度が変わってしまう。また、限られた特徴点に基づく顔向き推定処理は、必ずしも容易な処理ではなく計算コストもそれなりに必要となる。
さらに、各局所領域毎に切り出す範囲を変えることで、顔の向きに関わらず実際の顔上における範囲をある程度一定にする効果は見込める一方、多数の局所領域を設定すると局所領域ごとの処理負荷が無視できなくなる。
また、顔の3次元構造から、奥行き方向の顔向き変動がある場合には、同一領域の形状が相似形でなく変形することになり、単独のパラメータによるフィッティングには限界がある。
更に、特許文献2に開示される方法の場合、検出された特徴点から計算される新たな特徴点は、各点を結ぶベクトルを整数倍して組み合わせた位置に限られるため、中間的な位置に設定することはできない。
また上述した通り、画像の変動が画像面内での回転(面内回転)に限られるのであれば、同一人物で同じ位置の特徴点を設定できる可能性が高い。しかしながら、本人認証処理に先立って入力される画像は、通常、予め正規化されているため、面内回転変動はほぼ補正され問題となることは少ない。むしろ、奥行き方向の回転による変動の方が問題となる。
例えば図21(b)に示したような奥行き方向で左向きに回転した顔においては、3点で構成される三角形の形が崩れ、同一人物であっても新たに算出される特徴点は回転前の特徴点と同じ位置にならない。この問題は、特許文献2に開示されたもう1つの方法(所定角度で線分を回転させた位置とする方法)でも同様である。
本発明は、上記課題に鑑みてなされたものであり、少ない計算コストで、安定した多数の局所領域の設定を可能にする、画像処理装置、画像処理方法、プログラム及び記憶媒体を提供することを目的とする。
上記の目的を達成するために本発明に係る画像処理装置は以下のような構成を備える。即ち、
判別対象の画像から特徴点を抽出する特徴点抽出手段と、
所定物体の複数の局所領域それぞれについて、特徴点を起点とし、該起点から該局所領域の基準位置まで移動する場合の水平方向及び垂直方向の移動距離を、各方向における、特定の2つの特徴点の位置座標間の差分に対する比率で定義するとともに、該複数の局所領域それぞれの大きさを各起点ごとに定義したテーブルを保持する保持手段と、
前記複数の局所領域それぞれについて、前記テーブルを参照して、前記判別対象の画像から抽出された対応する特徴点を起点として移動した場合の当該局所領域基準位置と、該基準位置において切り出されるべき局所領域の大きさと算出する算出手段と、
前記算出された前記基準位置それぞれにおいて、前記算出された大きさの局所領域を切り出す切出手段と、
前記切出手段により切り出された複数の局所領域それぞれから抽出された特徴量を用いて、前記判別対象の画像に類似する画像を判別する判別手段とを備える。
本発明によれば、少ない計算コストで、安定した多数の局所領域を設定することが可能になる。
以下、図面を参照しながら、本発明の好適な実施の形態について説明する。
[第1の実施形態]
1.顔判別処理装置の構成
図1は、本発明の画像処理装置の第1の実施形態である、顔判別処理装置の構成を示すブロック図である。図1に示す各ブロックは、例えば専用のハードウェア処理回路として実装される。尚、ここでは各ブロックの概要について説明し、後に夫々のブロックの詳細を説明する。
101は画像入力処理部であって、識別しようとする顔が含まれる可能性のある判別対象の画像(判別用入力画像と呼ぶ)を装置内に入力する機能を持つ。また、個人IDと関連付けて、特徴量を登録すべき顔が含まれる画像(登録用入力画像と呼ぶ)を装置内に入力する機能を持つ。
画像入力処理部101は、例えば、光学系、CCDセンサ等の光電変換デバイス/ドライバ回路/ADコンバータ/各種画像補正を司る信号処理回路/フレームバッファ等により構成されるカメラ装置である。或いは、ネットワーク等の所定の通信経路を介して、外部装置から上述の画像を受信するI/F装置であってもよい。
102は顔検出処理部であって、入力された画像中に存在する人の顔を、位置・大きさ・角度等の情報と共に検出するパターン検出処理を行う。顔検出処理部102は、例えば、特許文献3や、非特許文献2に開示される技術を用いて構成される。
103は、正規化切り出し処理部である。正規化切り出し処理部103では、顔検出処理部102で検出された顔位置、大きさ、角度等の情報に基づき、入力された画像から顔画像のみを切り出し、アフィン変換を利用して所定の大きさおよび角度の顔画像に正規化する。
104は器官端点(特徴点)抽出処理部である。特徴点抽出処理部104では、特徴点となる目や口等の器官の端点(目尻、目頭、口両端点等)を検出して、その位置を特定する処理を行う。尚、ここでの処理には、顔検出処理部102において用いたパターン検出処理アルゴリズムと同等のアルゴリズムを用いることができる。
従って処理時間が許すならば、処理部を顔検出処理部102と共通化させ、パラメータを変更して時分割に使用するようにすることもできる。また顔の器官の配置関係から拘束条件を導入して、パターン検出処理後の位置修正等を行うことにより、より正確な端点位置を得るようにすることも可能である。
105は再正規化処理部である。特徴点抽出処理部104による特徴点検出結果の少なくとも一部の結果を用いて変換パラメータを計算し、より正確な正規化処理を行う。これにより、以後の処理で設定される局所領域の位置や範囲の一致度を高めることができる。
尚、ここでの処理もアフィン変換に基づくものであるので、正規化切り出し処理部103と共通化させることも可能である。またこの処理部において、変換パラメータの計算に用いられなかった特徴点も含めて、すべて特徴点の位置は、再正規化処理後の座標系に変換される。
106は局所領域位置計算処理部であり、局所領域設定記憶部110に記憶されている各局所領域の定義テーブル120を順に読み出し、変換された座標系のもとで、処理対象の画像に対応する局所領域の位置及びサイズを計算する。
107は特徴ベクトル取得処理部である。特徴ベクトル取得処理部107では各局所領域における特徴ベクトルを取得する。具体的には、処理対象の画像から各局所領域を切り出し(切出手段として機能)、局所領域毎に所定の特徴量を抽出した後、これを変換処理することで、特徴ベクトルを取得する。
特徴量の抽出は、例えばヒストグラム補正等の照明変動補正処理を行った後、特徴量抽出フィルタを用いて、LBP(Local binary patern)コードやガボール特徴量等の抽出を行う。抽出された特徴量はベクトル化され、部分空間へ射影して次元圧縮されることにより、各局所領域に対応する特徴ベクトルが取得される。
尚、全ての局所領域で同じ特徴量抽出フィルタによる特徴量の抽出処理を行う場合には、再正規化した顔画像全域に対して、まとめて抽出処理してから各局所領域を切り出すように構成しても良い。これにより、特に各局所領域の重なりが多い場合には、処理負荷を低減することができるからである。
画像入力処理部101から登録用入力画像が入力される登録処理動作モードの場合は、特徴ベクトル取得処理部107で取得された特徴ベクトルは、特徴ベクトル登録部111に、登録用入力画像に対応するクラスを示す個人IDと共に記憶される。
尚、個人IDは不図示のユーザI/Fもしくは通信I/F部を介して、登録時に指定される。ある個人IDについて複数の登録用入力画像に基づく特徴ベクトルを登録する場合には、個人ID毎に一意に振られる登録用入力画像番号(画像ID)に対応させて登録する。登録処理動作モードの場合は、ここまでで処理完了となる。
108は局所類似度判別処理部である。局所類似度判別処理部108は、画像入力処理部101から判別用入力画像が入力される判別処理動作モードの場合にのみ動作する。まず、特徴ベクトル登録部111から、登録されている各個人ID(複数の登録用入力画像が存在する場合には画像ID)の各局所領域の特徴ベクトルを順に読み出す。
そして、特徴ベクトル取得処理部107で取得した、判別用入力画像の対応する局所領域の特徴ベクトルとの類似度を算出する。類似度の算出には、後述するように、特徴ベクトル間の角度(正規化相関)や、ベクトル間の距離(ユークリッド距離、マハラノビス距離等)に基づく値等を用いる。
109は結果統合・最終判別処理部である。局所類似度判別処理部108のおいて算出された局所領域毎の類似度の値は、個人ID(または画像ID)毎に集められ、平均化あるいは取捨選択・重み付け等することによって統合される。
統合処理については後述する。統合された類似度を統合類似度と呼び、統合類似度が閾値以上で且つ最も大きくなる個人IDが、判別結果のクラスとなる。いずれの個人IDに対する類似度も閾値を超えない場合には、登録されてない人の顔画像であると判別される。
尚、個人IDに対して複数の登録用入力画像に基づく特徴ベクトルが登録されている場合には、例えば、登録されている全ての画像IDに対する統合類似度の平均値や最大値を、その個人IDの統合類似度とする。もしくは、撮像条件や顔の向き等が推定できる場合には、対応する画像IDを選択するようにしてもよい。
2.顔判別処理装置における処理の流れ
上述のように本実施形態の顔判別処理装置は、登録処理動作モードと判別処理動作モードを備える。以下、各モードにおける処理(登録処理、判別処理)の流れについて説明する。
2.登録処理の流れ
登録処理動作モードにおける登録処理は、図2に示すフローチャートに従って実行される。以下、図2に基づいて登録処理の流れを説明する。なお、説明にあたっては、処理の具体例を示した図4〜図6を逐次参照するものとする。
登録処理が開始されると、まずステップS201では、画像入力処理部101より、登録用入力画像が入力画像として入力される。また、このとき不図示のユーザI/Fあるいは通信I/Fを介して、登録用入力画像に対応する個人IDも合わせて入力される。
そしてステップS202として、顔検出処理部102による登録用入力画像中の顔の検出処理を行う(図4の(a))。顔検出処理の詳細については後述する。尚、登録用入力画像に含まれる顔の数は、通常1つのみであるが、複数の顔を含む登録用入力画像が入力された場合には、ここで検出された顔のうち、入力画像内において、より中心付近に近い顔、或いはより大きい顔が優先される。
ステップS203では、所定の大きさに顔画像を切り出した後、アフィン変換を利用して回転補正して変倍する、正規化切り出し処理を行う。ここで用いるパラメータ(アフィン・パラメータ)は、回転中心座標、回転角度、変倍率であって、ステップS202で検出された顔の位置・大きさ・角度の情報に基づいて設定される。
ここでは、例えば、切り出す範囲内の各画素の座標をアフィン変換した場合の位置(実数座標位置)を計算し、当該各画素値を配置する。そして、バイリニアまたはバイキュービック等の補完処理や画素の統合処理等を行って、変換後の各画素値(整数座標位置)を決定する。
若しくは、変換後の各画素の座標を逆変換した元画像上の座標値(実数位置)を求め、その近傍画素を同様に補完統合処理するようにしても良い。ここでの処理は、顔検出結果による精度の低い情報に基づく正規化処理であるため、出力される顔画像はある程度ばらついたものとなっている。
次にステップS204では、正規化した顔画像中から、所定の器官端点(特徴点)を検出する処理を行う(図4の(b))。
図4に示すように、本実施形態では、特徴点として、両目の目尻、目頭および口両端点の計6点を検出するようにしている。本ステップで用いるパターン検出アルゴリズムは、ステップS202の顔検出処理で用いたアルゴリズムと同様のものであるが、これらの特徴点を検出できるように、予めパラメータを学習しておくものとする。但し、正規化された顔画像からの部分パターン抽出処理であるので、スキャンする範囲はある程度狭くすることができる。
従って、分離しなければならない不正解データ(背景相当)としては正解点周辺のみ考慮すれば良く、そのバリエーションは顔に対する背景パターンに比べれば遥かに少なくて済む。つまり演算負荷としては、顔検出処理よりも遥かに軽い処理とすることが可能である。
またここでは、直接パターン検出はしないものの、目尻、目頭の中点を目特徴点、口両端点の中点を口特徴点として、間接的に計算した特徴点を追加の特徴点としている。すなわち本ステップにおいて、抽出される特徴点は計9点である。
続くステップS205では、抽出された両目位置に基づいて再正規化処理を行う(図4の(c))。これによって両目が所定の位置に移動され標準サイズに変倍された顔画像が得られる。
ここで用いられるアフィン変換処理自体は、ステップS203の正規化切り出し処理におけるアフィン変換と全く同じである。アフィン・パラメータは、ステップS204で抽出した目の位置が標準位置にくるように計算される。これについては後述する。
尚、本実施形態では、ステップS203で正規化した顔画像に対して、再正規化処理を行うこととしているが、このような構成に限定されるものではなく、ステップS201で入力された登録用入力画像から直接正規化するように構成してもよい。
この場合は、ステップS203で用いたアフィン・パラメータを記憶しておき、ステップS204で検出した特徴点座標を逆アフィン変換する。そして、登録用入力画像の座標系での特徴点として、ここから再正規化用アフィン・パラメータを計算するようにすればよい。
このようにすると、正規化処理が2回行われることによる情報の欠落を抑制することができ、精度の向上は期待できるが、別途、登録用入力画像を保持しておくためのバッファ・メモリが必要となる。
再正規化処理(ステップS205)の結果、両目の位置は予め定められた標準位置となる。ステップS206では、その他の7つの特徴点座標をステップS205と同じパラメータでアフィン変換し、再正規化座標系での特徴点位置を算出する(図4の(d))。
次に各局所領域毎の処理ループに入る。まず、ステップS207では、今回処理すべき局所領域のIndexを決定する。このIndexは、局所領域設定記憶部110に記憶されている各局所領域の定義テーブル120のIndexであって、通常若い番号のIndexから順に選択される。
処理する局所領域のIndexが決定すると、ステップS208では、対応する局所領域の定義に従い、ステップS206で算出した各特徴点座標を用いて、局所領域の位置およびサイズを計算する。これにより、局所領域の中心座標と矩形の切り出しサイズとが決定される。図4の(e)は、局所領域の位置・サイズ計算処理の結果を示している(ただし、本ステップ1回の処理では、このうちの1つの局所領域の中心座標と矩形の切り出しサイズのみが決定される)。なお、この処理の詳細については後述する。
決定された局所領域の中心座標と矩形の切り出しサイズとに従い、ステップS209では、ステップS205で再正規化処理された顔画像から、局所領域の画像を所定のサイズで切り出す処理を行う。なお、本実施形態では、局所領域設定記憶部110に記憶された定義テーブル120において、局所領域毎に固定の矩形の切り出しサイズが定義されているものとする。
本実施形態の場合、ステップS205において再正規化処理を行うため、切り出した顔画像の大きさは、ほぼ揃えられている。従って、切り出される局所領域の実際の顔上の範囲は、顔の向き等により局所領域ごとに多少は変化するが、切り出しサイズが固定であっても大きく異なるということはない。
そしてステップS210においては、切り出した局所領域の画像に対して、上述した所定のフィルタリング処理等を行い、特徴量を抽出する。
抽出される特徴量としては、例えば、図5に示すLBPコードや、図6に示すガボール・ジェット・フィルタを用いてフィルタリング処理することで得られるがボール特徴量が挙げられる。
図5のLBPコードは、注目画素とその隣接画素との画素値の差を調べ、差が負になる場合は“0”を、正になる場合は“1”を割り当てた後に、所定の起点から回転するように当該“0,1”の列を取り出して8ビット列として並べてコード化したものである。
尚、LBPコードには、隣接画素ではなく所定画素飛ばした周辺画素との差を調べたり、正確な円形位置相当の画素値を線形補完等により求めて比較したり、あるいは隣接する数画素をまとめて平均化して比較するなどのバリエーションがある。これらを局所領域毎に選択的に用いても良いし、複数種類を併用するようにしても勿論構わない。
図2に戻る。ステップS210で抽出した特徴量は、切り出した局所領域内の画素数と同じ要素数(もしくは複数種類の特徴量を併用する場合には、その整数倍)となっている。これを1列に並べてベクトルと見なすと、切り出した局所領域の画素数(もしくはその整数倍)の巨大な次元数のベクトルとなる。
ステップS211では、このベクトルを、局所領域毎に所定の射影行列を用いて、次元圧縮することで特徴ベクトルを算出する。一般に、特徴ベクトルを次元圧縮することで、データ量が削減できるのみならず、判別率が向上することが知られている。これはノイズや判別に関係の無い情報を減らすことができるためと考えられる。
各射影行列が表す部分空間は、理想的には、個人間の差異のみを残して、同一人物内の差異、すなわち撮像条件や顔の向き、表情等に起因する差異を無くしてしまうような空間が望まれる。このような理想的な部分空間に近い部分空間は、予め多数の人物のサンプルデータを用いて、主成分分析(PCA)を行うことにより求めることができる。
但し、主成分分析による手法では、抽出された各主成分(固有ベクトル)のいずれが、個人間の差異を良く表すものであるかは分からない。従って、例えば、すべての主成分を抽出後に、多数の正解の分かっているサンプルデータを用いてテストを行い、良好な判別ができる主成分を選択するようにすると良い。
或いは、独立成分分析(ICA)なる手法を利用することで、同一人物内の差異がガウス分布に従うと仮定できるならば、個人間の差異を表す部分空間を直接的に計算できる可能性もある。若しくは線形判別分析(LDA)の手法を応用し、個人間の差異を最大化し、同一人物間の差異を最小化する部分空間を探索する方法もある。
いずれの手法を用いるにせよ、予め多数のサンプルデータを用いて分析や学習を行い、射影行列を決定しておく必要がある。この分析や学習処理は、顔判別処理装置100内で行う必要は無く、ハイスペックなコンピュータを用いて予め計算しておき、装置内には決定された射影行列を記憶しておくようにしてもよい。
他の方法としては、LBP等の各特徴量コードの局所領域内における出現頻度を特徴ベクトルと見なす方法もある。この方法では、輝度値ヒストグラムで良く行われるように、ある近い範囲のいくつかのコードをまとめてカウントすることにより、ノイズを消すことができ、且つ次元(=ヒストグラムのビン数)も圧縮することができる。
このようにして抽出された特徴ベクトルは、ステップS212において、個人IDおよび局所領域Indexに対応付けて、特徴ベクトル登録部111に登録される。
そしてステップS213では、各局所領域の定義テーブル120に含まれる最後の局所領域の定義まで処理が完了したかを調べ、完了していなければステップS207に戻って次の局所領域の定義に関して同様の処理を行う。全ての局所領域の定義に対する処理が完了したら、登録用入力画像に対する登録処理は完了となる。
2.2 判別処理の流れ
続いて判別処理動作モードにおける判別処理の流れについて、図3を用いて説明する。
判別処理動作モードにおいて、ステップS301では、画像入力処理部101より、判別用入力画像が入力される。判別用入力画像には、複数の顔が含まれていても構わず、複数含まれている場合は、次の顔検出処理(ステップS302)より後の処理が、検出された各顔毎に行われる(図が複雑になるので、各顔に対応するループは図3において省略してある)。
ステップS302〜S311の各処理は、図2の登録処理における各ステップS202〜S211に対応し、基本的にそれぞれ全く同じ処理で行うので、詳細な説明は割愛する。
ステップS311において算出された局所領域の特徴ベクトルは、ステップS312においてRAM等の一時記憶領域(図1では不図示)に、局所領域Indexと対応付けて保持される。
ステップS313では、ステップS213と同様、各局所領域の定義テーブル120に含まれる最後の局所領域の定義まで処理が完了したかを確認する。
ステップS314では、特徴ベクトル登録部111に登録してある個人IDのうち、今回照合すべき個人IDを1つ選択する。1つの個人IDに対し複数の登録用入力画像に基づく特徴ベクトルが登録されている場合には、ここで画像IDも1つ選択するが、画像IDのループは図3においては省略してある。
ステップS315では、ステップS307と同様に照合する局所領域のIndexを選択し、ステップS316では、対応する特徴ベクトルを特徴ベクトル登録部111より読み出す。
ステップS317では、ステップS312において一時記憶しておいた、対応するIndexの特徴ベクトルを参照し、登録されていた特徴ベクトルとの類似度を算出する類似度計算処理を行う。
ここで、登録されていた特徴ベクトルをVγ、判別用入力画像から抽出した特徴ベクトルをVとすると、類似度は、例えば図7に示すように、両ベクトル間の距離dに基づいた値として計算することができる。距離dの値が小さくなるほど、両ベクトルは類似していると判断できる。例えば、計算のしやすさから二乗距離を用いて、類似度Sを、
として定めることができる。ここでkは所定の係数である。このように定義すると、類似度Sは0〜1.0の範囲の値となる。この場合、1.0に近い程、類似していることを示すこととなる。
また、類似度SφをベクトルVγとVの間の角度φに基づいて定義することもできる。この場合は、やはり計算のし易さから、例えばcosφを類似度とすると良い。
この場合の類似度Sφは、両ベクトルの正規化相関値であって、−1.0〜1.0の値となり、やはり1.0に近い程類似していることを示す。もちろんこれらの類似度を組み合わせる等、他の定義の類似度を用いるようにしてもかまわない。
ステップS318では、ステップS313と同様に、選択中の個人ID(若しくは画像ID)に対する全ての局所領域の照合処理を完了したか否かをチェックする。完了していなければステップS3415に戻って処理を繰り返す。
一方、全ての局所領域の類似度が算出されたと判断された場合には、ステップS319において、これらの類似度の統合処理を行う。最も基本的な類似度統合処理としては、全局所領域の類似度の平均値(または合計値)を統合類似度として算出することである。
また、例えば信頼度や顔の向き、撮像条件等を必要に応じて推測し、その結果に基づいて、局所領域毎に重み付けしたり選択したりするようにすることも可能である。
また、1つの個人IDに対し複数の画像IDの特徴ベクトルが登録されている場合には、ステップS315〜S319の処理を繰り返して、各画像IDに対する統合類似度を算出する。そして、個人IDに対する全ての画像IDの統合類似度を、平均化するか最大値を選択するなどして、当該個人IDに対応する統合類似度として決定する。
ステップS320では、特徴ベクトル登録部111に登録されている全ての個人IDに対する統合類似度が算出できたかどうかをチェックする。残っている個人IDがあれば、ステップS314に戻り、次の個人IDを選択し、類似度計算処理を繰り返す。
一方、全ての個人IDに対する統合類似度が算出されていた場合には、ステップS321にて最終判別を行う。ここでは、予め定められた閾値以上の類似度で、かつ最大値となる個人IDを選択する。閾値以上の類似度が存在しなければ、今回入力された判別用入力画像は、登録されていない人物であると判定されたことになる。
判別した個人ID(もしくは登録外であることを示す結果)は、ステップS322で所定の出力先へと出力され、処理完了となる。
3.各処理の詳細
3.1 顔検出処理(ステップS202、302)の詳細
続いて図2のステップS202および図3のステップS302における顔検出処理について説明する。
顔検出処理は、図8に示すように、ある特定の大きさの矩形領域801(以下「処理ウインドウ」と呼ぶ)を処理対象となる入力画像800内で移動させ、各移動先の処理ウインドウ801内に人物の顔が含まれるか否かを判定することにより行われる。この処理ウインドウ801の大きさは、検出対象の顔のサイズに設定されている。
通常は、仕様内で最も小さいサイズの顔を検出することのできる処理ウインドウを用意し、まずは入力画像を等倍で検出処理する。そして次に、少し縮小した画像を生成して検出処理する、ということを繰り返すことにより、いくらでも大きなサイズの顔を検出することができる。
このようにすることで、論理的にサイズの異なる複数の処理ウインドウを用いていることとなる。1回の縮小率は、処理ウインドウが検出可能な顔のサイズに対するロバスト性に依存して決定する。このように少しずつ縮小された入力画像群をピラミッド画像と呼び、入力画像の縮小率から、検出された顔のサイズをある程度特定することができる。
また、処理ウインドウ内の画像に対してパターン検出処理を行うことで顔を検出するパターン検出器は、入力画像面内方向の回転に対しても、ある程度のロバスト性を備える。各角度に対応した複数種類のパターン検出器を用いることにより、顔の面内回転角度もある程度特定することができる。
入力画像中に顔が存在するとき、通常、空間的にある程度の広がりをもっている。このため、複数のパターン検出器により、顔の存在を示す値が出力される。従って各パターン検出器の出力に対して統合処理を行うことにより、位置、サイズ、回転角度をある程度特定することができる。
このような顔検出処理の一例を、図9を用いて説明する。図9は、非特許文献2に開示されるパターン検出処理方法を実行可能なパターン検出器を示している。
このパターン検出器は、複数のステージによって構成される。各ステージには、異なる組み合わせの弱判別器が割り当てられており、これらがカスケード接続で処理されることによって、強判別器となっている。各弱判別器は所謂Haar−like特徴を検出するもので、矩形フィルタの組み合わせで構成されている。
図9に示すとおり、各ステージに割り当てられる弱判別器の数は異なっている。また、ステージ単位でもカスケード接続構成となっており、各ステージは接続された順番に従って判定処理を行う。図9においては、第1ステージの次に第2ステージが判定を実施し、その次に第3ステージが判定を実施する。
各ステージは、自身に割り当てられた順番に、自身に割り当てられたパターンの弱判別器を順に用いて、処理ウインドウ内に人物の顔が含まれるか否かを判定する。あるステージにおいて、処理ウインドウ内に人物の顔が含まれないと判定された場合、それ以降のステージでは、この位置における処理ウインドウについての判定は実施されない(カスケード処理は打ち切られる)。
処理が打ち切られずに、最後のステージで人物の顔が含まれていると判定された場合にのみ、この位置の処理ウインドウ内に顔が含まれていると判定されることになる。実際の出力は、顔の出力する確率に対応するスコア値であり、最終的には閾値処理および先に述べた統合処理を行うことによって顔の存在有無が判定される。
尚、各ステージのフィルタは、正規化顔およびその他の背景データからなる多数の学習用サンプルを用いて、AdaBoost等のBoostingアルゴリズムにより、事前に機械学習することにより決定されているものとする。この機械学習は、もちろん本実施形態の顔判別処理装置内で行う必要はなく、事前にハイスペックなコンピュータ等を用いて実施しておき、装置内にはパラメータのみを記憶することとする。
また、パターン検出器は、図10に示すように、ニューラルネットワークを用いて構成することもできる。図10は、Convolutional Neural Networks(以下CNNと略記する)と呼ばれるニューラルネットワークの例を示す論理的なネットワーク構成図である。
CNNは検出対象(本実施形態では顔)の変動に対して頑健なパターン認識を可能にする手法として知られている。例えば、特許文献3では、CNNハードウェアを画像中の対象物判別や検出に適用する例が提案されている。
図10は、1層(1006)の特徴数が3、2層(1010)の特徴数が2、3層(1011)の特徴数が1の3層CNNの例を示している。1001は入力画像を示している。
1003a〜1003cは第1階層(1006)の特徴面を示す。特徴面とは、所定の特徴量抽出フィルタ(コンボリューション演算の累積和及び非線形処理)で前階層のデータを走査しながら演算した結果を示す画像データ面である。
特徴面は入力画像に対する検出結果であるため検出結果も平面で表す。1003a〜1003cは1001から夫々対応する特徴量抽出フィルタにより生成される。例えば、1003a〜1003cは夫々模式的に1004a〜1004cに対応する2次元のコンボリューションフィルタ演算と演算結果の非線形変換により生成される。なお、1002はコンボリューション演算に必要な参照画像領域を示す。
例えば、カーネルサイズ(水平方向の長さと垂直方向の高さ)が11×11のコンボリューションフィルタ演算は以下に示すような積和演算により処理される。
input(x,y):座標(x,y)での参照画素値
output(x,y):座標(x,y)での演算結果
weight(column,row):座標(x+column,y+row)での重み係数
columnSize=11,rowSize=11:フィルタカーネルサイズ(フィルタタップ数)
1004a〜1004cは夫々異なる係数のコンボリューションフィルタカーネルである。また、特徴面によってコンボリューションカーネルのサイズも異なる。
CNN演算では複数のフィルタカーネルを画素単位で走査しながら積和演算を繰り返し、最終的な積和結果を非線形変換することで特徴面を生成する。1003aを算出する場合は前階層との結合数が1であるため、フィルタカーネルは1つ(1004a)である。
一方、1007a及び1007bの特徴面を計算する場合、前階層との結合数が3であるため夫々1009a〜1009c及び1009d〜1009eに相当する3つのコンボリューションフィルタの演算結果を累積加算する。つまり、1007aは、コンボリューションフィルタ1009a〜1009cの出力を累積加算し、最後に非線形変換処理することによって得られる。
このようにCNN演算では、下位の層からまずプリミティブな特徴パターンを抽出し、次層ではそのパターンの空間的な配置関係を検知する。すなわち上位層に向かうにつれて、複雑なパターンを検知することができるようになっている。
各カーネルは多数の入力(前層の切り出し矩形)をもつニューロンであると考えることができる。従って、一般化デルタルールやBack propagation等の、所謂層状ニューラルネットワークの学習アルゴリズムを用いて事前に学習しておくことにより、係数(重み)を決定することができる。もちろんこのときには、上述のBoostingと同様、多数の顔および背景のサンプルデータを用いる。
本実施形態の顔検知処理では、上記のパターン検出技術を組み合わせて使用している。一つの顔検出器(の係数)は、ある範囲の面内回転角度の顔を検出できるようになっており、これを組み合わせることにより、入力画像から360度いずれの角度の顔も検知できるようになっている。
また、先に述べた通り、入力画像の縮小率を徐々に上げていくことで、いろいろな大きさの顔を検知することができる。
このように、論理的に各サイズ各回転角度に対応した複数のパターン検出器の出力を統合することにより、顔の位置のみならず、面内回転角度とサイズをある程度の精度で検出することが可能である。ここで算出された位置、サイズ、回転角度の情報を用いて、後述のアフィン変換に基づく処理を行うことにより、ステップS203およびS303の正規化切り出し処理を実行することができる。
また、ステップS204およびS304の特徴点抽出処理も、同様のパターン検出器を用いて行う。図11は、本実施形態における特徴点の1つである左側目頭の抽出の様子を示している。
図11(a)は正規化切り出し処理後の顔画像であって、誤差はあるもののほぼ決まった範囲の位置に目頭が存在していると考えられるため、特徴点抽出処理のためのスキャン範囲は、例えば1100に示すように、ある程度狭い範囲に設定できる。実際の範囲は、顔検出処理の精度に依存する。
ここで左側目頭のパターン検出器は、図11(b)の太線枠に示すようなパターンを検出するように学習されている。顔検出とは異なり、判別しなければならない入力画像は、1100の点線枠に含まれる程度のバリエーションしかないため、パターン検出器は顔検出用のものと比べてかなり簡易にできる。
例えば図9のようなカスケード接続タイプのパターン検出器を用いる場合は、ステージの数を少なくして良いし、図10のようなCNNタイプのパターン検出器を用いる場合には、層の数を少なくすることができる。本実施形態のように顔検出が上述の2つのタイプを組み合わせて使用している場合でも、どちらか片方のタイプのみ使用すれば良い可能性が高い。いずれにせよ、係数を変えるのみで、処理部のハードウェアは顔検出のためのものと共通化することも可能である。
スキャン範囲1100の出力としては、通常、所定閾値以上の画素だけでもある分布を持ったものが得られる。そこで例えば、閾値以上の画素の重心を特徴点の位置として決定する。しかしながら、本実施形態の場合、処理対象が顔画像である。このため、各特徴点の位置は相互に関連するので、一旦全ての特徴点位置を抽出した後に、幾何的な拘束条件を入れて位置を相互に調整することにより、より精度の高い特徴点位置として決定するようにしてもよい。
3.2 正規化切り出し処理及び再正規化処理(ステップS203、205、303、305)の詳細
ステップS203、S303の正規化切り出し処理、およびステップS205、S305の再正規化処理は、アフィン変換を利用して行う。ここで、正規化処理における座標の変換を行う場合の、変換前の座標系における回転中心の座標をxγ=(xγ,yγ)、回転角度をθ、x軸方向拡大率をS、y軸方向拡大率をSとする。また、変換後の顔画像の中心座標をx=(x,y)とする。この場合、変換前の座標をx=(x、y)、変換後の座標をx’=(x’,y’)とすると、
と表すことができる。
変換行列Tを構成する4つの行列のうち、最初の行列は各座標点を(−xγ,−yγ)平行移動することを示す。すなわち、回転中心xγ=(xγ,yγ)は原点位置へと移動される。2番目の行列は、原点周り(右回りが正)にθ回転移動することを示す。3番目の行列は、原点からx軸方向にSγ倍、y軸方向にS倍拡大した座標位置へと拡大移動することを示す。4番目の行列は最初と同じ平行移動行列であって、原点が最終的な変換後の画像の中心座標x=(x,y)へくるように平行移動することを示す。すなわち変換行列Tは、これら4つの移動を複合して行う。
正規化(若しくは再正規化)処理においては、変換後の顔画像の全ての画素の輝度値を求めることが目的である。これを実現するためには、変換行列Tの逆行列T-1による変換(逆変換)を、変換後の各画素座標(原点〜(2x,2y)について行ってやれば良い。これにより、変換前の顔画像の座標系における位置座標が決定する。通常ここで求められる座標は実数値となって、変換前の1画素(整数座標位置)に対応するわけではないので、近傍画素からの線形補完等を用いて画素値を決定し、変換後の画素値とする。
ステップS203およびS303の正規化切り出し処理における各アフィン・パラメータは、顔検出処理部102の出力に基づき定められる。すなわちいくつか存在する顔検出処理部102の検出対応面内回転角度がΨであれば、上記パラメータθ=Ψとなる。そして、その回転中心xγ=(xγ,yγ)は、図8で説明した処理ウインドウ801の中心点となる。変倍率S=Sは、検出された顔のサイズを標準サイズにする倍率(拡大縮小率)である。
また、ステップS205およびS305の再正規化処理では、ステップS204およびS304の特徴点抽出処理で抽出された両目の位置に基づいて、アフィン・パラメータが定められる。図12は、このときのアフィン・パラメータの計算方法を説明する図である。
図12において(a)は、特徴点抽出された顔画像を示している。XLi、XRiは、特徴点として抽出された両目の位置ベクトルである。xCiは変換前の回転中心である。また、同図で(b)は、再正規化後の顔画像を示している。X、Xは変換後の両目の位置であるが、これが所定位置となるように再正規化を行うのであるから、これらは定数座標値である。また、Xは再正規化後の画像の中心位置であり、やはり定数座標値である。
、Xは水平であり(すなわちy座標は等しく)、Xのx座標はX、Xの中点に等しい。XとX間の距離(x座標の差)を1としたときのXとXのy座標の差をaとすると、aが定数座標から計算可能である。本実施形態において、XLi、XRi、xCiを頂点とする三角形は、X、X、Xを頂点とする三角形と相似である。したがって、再正規化のための変換前の回転中心X=xCiは、XLi、XRiの座標値とaから計算可能であるのは自明であろう。
また、ベクトル(XRi−XLi)を考えると、その法線ベクトルから顔の回転角度Ψも計算できる。すなわち再正規化のための回転移動量θ=−Ψが求められる。さらに、本実施形態では変倍率は縦横方向で共通とするので、変倍パラメータS=Sは、(XRi−XLi)の長さと(X−X)の長さの比として求めることができる。勿論、変換後の顔画像の中心座標xCi=Xである。
3.3 局所領域位置・サイズ計算処理(ステップS208、308)の詳細
次にステップS208およびS308の局所領域位置・サイズ計算処理の詳細について、図13、14、15を用いて説明する。
図14は、局所領域位置・サイズ計算処理の詳細なフローチャートである。
まずステップS1401において、与えられた局所領域のIndexより、今回計算する局所領域の定義(局所特徴設定)を読み出す。尚、局所領域のIndexはステップS207或いはS307にて選択されているものとする。
各局所領域の定義テーブル120は、図1の局所領域設定記憶部110に記憶されており、図13にその一例を示す。尚、図13には説明の簡略化のため一部の局所領域の設定のみ表示しているが、実際には更に多くの局所領域が設定されているものとする。
ちなみに、特徴Indexと局所領域Indexは同意である。最終的に各局所領域からは特徴ベクトルを抽出するので、局所領域のIndexはそのまま抽出する特徴ベクトルのIndexとなる。また、この定義テーブル120には局所領域の位置計算方法およびサイズだけでなく、特徴量の種類や次元圧縮処理のための射影行列も設定されるので、以下では、当該定義テーブル120を「局所特徴設定テーブル」と呼ぶこととする。
局所特徴設定テーブル120には、局所領域の位置として、まず起点として用いる特徴点が定義される。起点には特徴点として抽出されるいずれの点も指定可能であり、例えばIndex=1の局所領域では左目尻を、Index=2では左目頭を起点として指定している。勿論Index=5の口位置のように、上述の9特徴点のうち、直接検出される特徴点以外の特徴点も指定可能である。また、Index=3の「両目の中点」指定のように、さらに複数の特徴点から算出される特徴点を起点として設定してもよい。
次に起点からの第1の移動先の計算方法が定義される。具体的には、計算方法(Mode)、移動距離計算の基準とする特徴点(From,To)および比率(Ratio)が指定される。同様に第2の移動先の計算方法も定義される。尚、移動先の定義は2つに限られず、各Index毎にいくつでも定義することができるものとする。また図13の局所特徴設定テーブル120でIndex=2や3に例示するように、1つとすることも、或いは移動先定義無しとすることもできる。例えば、Index=3のように移動先定義無しとしたならば、局所領域は起点として指定された両目中点(特徴点)そのものの位置となる。
さらに局所特徴設定テーブル120では、局所領域の矩形の切り出しサイズが定義されている。本実施形態では、切り出しサイズは局所領域毎に固定としている。なお、起点からの移動先として決定される局所領域の位置とは、局所領域として切り出される矩形の中心座標を示すものとする。
その他、局所特徴設定テーブル120には、抽出する特徴量の種類(フィルタ種別)や、次元圧縮処理のための射影行列が定義されている。本実施形態においては先に述べたように、抽出する特徴量として、図5に示した隣接8画素によるLBPコードを全ての局所領域において用いるので、すべてのIndexで指定される抽出特徴量の種別は同じである。このような場合は、図3のステップS310の特徴量抽出処理は、画像全域において予め行っておき、ステップS309で切り出す画像を変換後の画像とすると処理効率が良くなる場合が多い(特に、局所領域の重なりが多い場合)。
また、射影行列は先に説明したとおり、局所領域毎に学習により獲得されるものであるから、全てのIndexで異なった射影行列が格納される。図13の局所特徴設定テーブル120では、分かりやすくするため行列表す記号(P1等)で表示しているが、行列の要素値を直接ここに書き込むようにしても勿論かまわない。
ちなみに、図13の局所特徴設定テーブル120の射影行列で、括弧内の数字の最初の項は射影前のベクトルの次元数であって、取得した局所領域の画素数に相当する。2番目の数字は射影後の次元数を示している。例えばIndex=1では、射影行列P1は169×8(の転置)であることを示している。
図14に戻る。図14のステップS1402では、読み出した局所特徴設定テーブル120に従い、起点の座標を決定する。起点の座標としては、ステップS206或いはS306で変換された特徴点の座標から、局所特徴設定テーブル120に起点として定義された特徴点の座標を選択する。若しくは図13のIndex=3のように複数の特徴点から計算する指定の場合は、ここで計算して求める。
ステップS1403では、移動先の定義があるかどうかをチェックする。移動先の定義がある場合には、ステップS1404に進み、計算方法(Mode)をチェックする。計算方法(Mode)としては、図13に示すように、“SlideLine”、“SlideWidth”、“SlideHeight”、“SlidePixels”の4つのモードがある。
“SlideLine”とは、移動距離計算の基準とする特徴点であるFromとToとの間を結ぶ線分をFromからToの方向へ移動することを指定するモードであって、移動距離は線分を案分する比率(Ratio)を積算することで算出される。Ratioには小数が指定可能であるので、中間的な位置への局所領域の配置が可能となっている。この比率値には、正負の非整数値が指定可能である。Ratioに負の値を指定すると、ToからFromの方向へと移動方向(但し起点は変わらず)が反転する。
“SlideWidth”とは、移動距離計算の基準とする特徴点であるFromとToとの間のx軸方向(水平成分)の差分長に基づいて算出される距離を、x軸方向にのみ移動することを指定するモードである。このときFromのx軸方向の位置からToのx軸方向の位置へ向かう方向が正の方向である。小数点以下の値が指定可能なRatioによって、差分長に対する移動距離の比率を指定することができる。
同様に、“SlideHeight”は移動距離計算の基準とする特徴点であるFromとToとの間のy軸方向(垂直成分)の差分長に基づいて算出される距離を、y軸方向にのみ移動することを指定するモードである。
“SlidePixels”は固定の画素数の移動を指定するモードである。
ステップS1404において確認したモードに応じて、ステップS1405、S1406、S1407、S1409のいずれかに進む。
“SlideLine”の場合はステップS1405へ進み、移動距離計算の基準とする特徴点であるFromとToとの間の座標差を計算する(Toのx、y座標値それぞれからFromのx、y座標値を減算する)。
“SlideWidth”の場合はステップS1406へ進み、移動距離計算の基準とする特徴点であるFromとToとの間のx軸方向の座標差を計算する(y軸方向の座標差は0としておく)。
“SlideHeight”の場合はステップS1407へ進み、移動距離計算の基準とする特徴点であるFromとToとの間のy方向の座標差を計算する(x方向の座標差は0としておく)。
ステップS1405〜S1407のいずれかを行った場合は、次にステップS1408へと進み、座標差に指定の比率(Ratio値)を積算したものを、移動距離として計算する。
“SlidePixels”の場合はステップS1409へ進み、読み出したx軸およびy軸方向の画素数をそのまま移動距離として定める。
ステップS1405〜S1409の処理により移動距離が定まると、ステップS1410では現在の位置座標に移動距離を加算して、ステップS1403へと戻る。
そして、ステップS1403において残りの移動先の定義がないと判断された場合は、ステップS1411に進み、決定した位置とサイズ(本実施形態では局所特徴設定テーブル120に定義された固定値)を出力して処理完了となる。
図15は、図13の局所特徴設定テーブル120のIndex=1の定義による局所領域位置・サイズ計算処理の様子を示す図である。図15の(a)は、正面を向いた顔画像の場合の局所領域位置・サイズ計算処理の様子を示している。
Index=1において、起点は左側目尻(LeftEyeTail)である(尚、本実施形態では、顔の実際の左目ではなく、向かって左側の目をLeftEyeと記述している)。
そして、移動先1には、計算方法として“SlideLine”モードが指定されており、このときのFromはLeftEyeTail、ToはRightEyeTailである。すなわち、左側目尻と右側目尻間を結ぶ線分の長さを1として、これにRatioの0.2を積算することで得られる移動距離を、起点の左目尻から移動させるのが移動先1((1))である。このように、起点とFromには同じ特徴点を指定することも可能である。もちろんここで、全く異なった特徴点、例えば口の両端点を指定することも可能である。
移動先2には、計算方法として“SlideHeight”モードが指定されている。Fromは右側の目(RightEye)、Toは口位置(Mouth)となっているが、再正規化により右側の目の高さは左側の目の高さと等しいので、実質的に目と口の高さの差に基づく移動先を指定していることになる。このモードは、高さ方向の移動のみであるから、(1)の移動後の位置から、(2)に示すように移動され、これが最終的に定まった局所領域の位置となる。
尚、移動先の定義は2回分に限定されるものではなく、何回分でも定義することができる。そしてここに定義される回数の移動処理が行われて、最終的な位置が決定する。
図15(b)は、少し左側を向いた(左奥行き方向回転と呼ぶ)正規化顔画像に対する、同じIndex=1の定義による局所領域位置・サイズ計算処理の様子を示す。左奥行き方向回転した顔画像では、撮像装置から左右各目までの距離が異なり、それらを結ぶ線分は、撮像センサ面からみて奥行き方向に斜めになっているので、両目間距離は実際よりも狭く見えるように撮像される。
従って、本実施形態のように両目位置基準による正規化を行うと、得られる顔画像は正面を向いた画像よりも多少大きめとなって、口の位置が若干下に下がる。従って、Index=1の移動先2の定義による移動距離((2))は、図15の(a)よりも多少長い距離となる。しかしながら図で見て分かるとおり、顔上における局所領域の位置としては、(a)と(b)とでほぼ同じとなっていることが分かる。
以上のような局所特徴設定テーブル120は、予めクラスが既知である多数のサンプルデータを用いて、事前に学習により決定しておくことができる。この学習は、例えば、予め多数の局所領域の候補を用意し、クラス判別に必要な上限個数までの全ての局所領域の組み合わせについて総当りで、クラス判別の正解率が最も良い組み合わせの局所領域を選択するようにすれば良い。
このときの局所領域の候補のバリエーションは、例えば位置決めのための起点や移動距離を計算するための比率、局所領域の形状やサイズ等の組み合わせである。既存のBoostingやクラスタリング等のアルゴリズムを組み合わせることにより選択するようにしても勿論かまわない。また、人が経験的に選択する方法も有効である。
以上の説明から明らかなように、本実施形態によれば、顔の向き推定を行うことなく、顔上のほぼ安定した位置に局所領域を決定することができる。また、顔全体をまとめて再正規化することにより、実際の顔上における範囲が、ほぼ一定になるように局所領域を切り出すことが可能となる。この再正規化処理は、通常、局所領域毎に変倍する処理に比べて、軽負荷な処理である。
[第2の実施形態]
上記第1の実施形態では、顔判別処理装置をハードウェア処理回路で実現することしたが、本発明はこれに限定されず、例えば、汎用的なCPUを用いて構築することも可能である。
図16は、本発明の画像処理装置の第2の実施形態にかかる顔判別処理装置1600の構成を示す図である。図16に示すとおり、本実施形態にかかる顔判別処理装置は、バス1620を介して接続された各部を、CPU1601が制御することによって動作する。以下、各部について説明する。
1602はユーザI/F部であり、顔判別処理装置1600に対する指令をユーザが与えるため、及び、判別結果をユーザに伝えるために用いられる。ここで与えられた指令はCPU1601に送られて解釈され、その後の処理のトリガとなる。
1603はDMACである。DMAC1603では、CPU1601が予め設定しておくことにより、各部間のデータの転送をCPU1601を介さずに行うことができる。
1604はROMであり、CPU1601で動作させるプログラムや、処理に必要となる固定的なパラメータを格納する。
1605はRAMであって、各処理を行う際のワーク領域や一時データ保持領域として用いられる。尚、各処理にはこれとは別に不図示の内蔵ローカルRAMが用いられてもよい。
1606は大容量記憶部であり、ハードディスクドライブ(HDD)等で構成される。大容量記憶部1606には、局所領域位置計算処理部106や局所類似度判別処理部108、結果統合・最終判別処理部109における処理内容を実行するプログラムが格納されている。
1607は画像入力部であり、図1の画像入力処理部101に相当する。画像入力部1607は、バス1620に接続可能なI/Fを備えている。動作は画像入力処理部101と同様で、入力された画像は、バス1620を介してRAM1605または大容量記憶部1606に格納される。尚、画像の転送はDMAC1603を用いて行われる。
1608は顔検出処理部であって、図1の顔検出処理部102に相当する。顔検出処理部1608において行われる処理は上記第1の実施形態と同じであり、専用ハードウェアとして実装することにより、高速な処理を実現している。尚、入力される判別用入力画像は、RAM1605上に存在し、処理状況に合わせて部分的にDMAC1603により転送されるようになっている。
1609は特徴点抽出部であり、図1の特徴点抽出処理部104に相当する。特徴点抽出部1609は、処理時間に余裕があり、かつパイプライン処理する必要がないならば、顔検出処理部1608とハードウェアを共用し、CPU1601の指令によりパラメータを切り替えるように構成してもよい。
1610は正規化処理部であり、図1の正規化切り出し処理部103および再正規化処理部105と同等の処理を行う。具体的には、上記第1の実施形態で説明したアフィン変換を利用した顔画像の正規化処理である。
1611は特徴量演算部であり、図1の特徴ベクトル取得処理部107において実行される処理の一部を実行する。ここでは図5に示すようなLBPコードを特徴量として算出するためのフィルタリング処理を行ったり、図6に示すようなガボール・ジェット・フィルタを用いてガボール特徴量を演算するためのフィルタリング処理を行ったりする。
1612は射影演算部であり、局所領域の特徴量を所定の射影行列を用いて次元圧縮する。射影演算部1612は、図1の特徴ベクトル取得処理部107において実行される処理の一部を実行する。
その他、図1の局所領域設定記憶部110および特徴ベクトル登録部111は、RAM1605または大容量記憶部1606の一部領域を用いて実現される。
なお、大容量記憶部1606に記憶された、局所領域位置計算処理部106や局所類似度判別処理部108、結果統合・最終判別処理部109の処理内容を実行するためのプログラムは、CPU1601にて実行される。
顔判別処理装置1600で実行される登録処理及び判別処理の流れは、図3および4に示した登録処理および判別処理と同じであるので、ここでは詳細な説明は割愛する。
以上の説明から明らかなように、汎用CPUを用いて顔判別処理装置を構築すると、ハードウェア完成後に、類似度の計算や類似度の統合等の処理をカスタマイズすることが可能となり、より柔軟性の高い顔判別処理装置を構築することが可能となる。
さらに、パラメータを差し替えることによって、顔に限らない他の画像の判別処理、例えば自動車の車種の判別処理等を実現することも可能である。もちろん、ハイスペックPC等、十分に処理能力のあるCPUを使用できる場合には、1607〜1612に示した専用ハードウェアを実装せずに、全てソフトウェアにより処理を実行するように構成してもかまわない。
[第3の実施形態]
上記第1の実施形態の局所領域位置・サイズ計算処理においては、各局所領域で固定サイズを使用することとしたが、本発明はこれに限定されず、切り出す局所領域のサイズを特徴点に基づく可変値として決定するようにしてもよい。
図17は、特徴点に基づいて切り出す局所領域のサイズの決定処理を含む、局所領域位置・サイズ計算処理(ステップS208およびS308)の詳細を説明するフローチャートである。また、図21は、本実施形態における局所特徴設定テーブル120の一例を示す図である。図18において、起点、移動1および2、射影行列については、図6を用いて既に説明済みであるため、ここでは説明を省略する。切り出しサイズおよび変換後サイズについては後述する。
抽出する特徴量は、本実施形態では、Index毎に異なったガボール特徴量を用いている。ガボール特徴量は、図6に示すガボール・ジェット・フィルタを用いたコンボリューション演算により抽出される特徴量である。本実施形態では図6に示すように3つのサイズおよび4つの方向の、計12種類のガボール・ジェット・フィルタを用いる。各フィルタリング処理は、それぞれの局所領域を切り出し所定サイズに変換した後に行われる。各局所領域で用いられる特徴量が異なるので、通常はこの順に処理した方が、処理効率が良い。
さて、図17において、ステップS1701〜S1710の処理は、図14のステップS1401〜S1410の処理と全く同じであるので、詳細な説明は省略する。
ステップS1711では、切り出しサイズが固定となっているかどうかをチェックする。図18の局所特徴設定テーブル120において、Index=3および5は切り出しサイズが固定(Fixed)となっており、このような場合はステップS1712に進む。そして、変換後サイズとして定義される固定値を切り出しサイズとして決定する。
一方、切り出しサイズが固定となっていない場合には、ステップS1713へ進み、切り出しサイズとして定義された幅計算方法をチェックする。図18の局所特徴設定テーブル120においてIndex=1、2、4は、切り出しサイズを計算する計算方法が指定されている。
図18において“Width:”の項は、幅方向の切り出しサイズ計算のための定義である。例えばIndex=1の場合、“Width:”の項にはLine()が指定されている。これは線分長に基づいて計算する方法(線分長基準)であることを示しており、括弧内の3つのパラメータの前2者(LeftEye、RightEye)が計算の基準とする特徴点を示している。括弧内の最後の数値(0.3)は、計算の基準とする2つの特徴点間を結ぶ線分を案分する場合の比率を指定している(サイズ算出比率)。
すなわち線分長基準の場合には、2つの特徴点の座標から線分長を計算し、比率を積算することで得られた値を幅方向のサイズとして決定する。このほか、幅に基づいて計算する方法(幅基準)“Width()”、高さに基づいて計算する方法(高さ基準)“Height()”が指定可能であり、それぞれ同様に2つの特徴点とサイズ算出比率が指定される。
同様に、“Height:”の項も、高さ方向の切り出しサイズの計算のための定義がなされている。
ステップS1713では、線分長基準であると判定されると、ステップS1714に進み、2つの特徴点の座標から、両点間を結ぶ線分の長さを基準長さとして計算する。同様に幅基準であると判定されると、ステップS1715に進み、2つの特徴点の幅方向の座標差を基準長さとして計算する。また、高さ基準であると判定されると、ステップS1716に進み、2つの特徴点の高さ方向の座標差を基準長さとして計算する。
そしてステップS1717にて、線分長基準、幅基準、高さ基準のいずれかに基づいて計算されたの基準長さに、上述のようにサイズ算出比率の値を積算し、結果を幅方向の切り出しサイズとして決定する。
また、高さ方向の切り出しサイズに関しても同様に、ステップS1718〜S1722の処理によって決定する。
ステップS1723では、以上により決定した幅方向と高さ方向の切り出しサイズを、最終位置とともに出力する。これにより、局所領域位置・サイズ計算処理が完了となる。
続く図2および図3の、局所領域切り出し処理(ステップS209およびS309)では、決定された局所領域の位置とサイズとに基づき、局所領域内の画像を再正規化された顔画像から切り出す。そして上記第1の実施形態とは異なり、ここでも図18の局所特徴設定テーブル120を読み込み、処理中のIndexに対する変換後のサイズを取得する。切り出しサイズと変換後サイズとから縦横方向に対して独立した別の変倍率S、Sを夫々算出し、
なるアフィン変換行列に基づき、サイズ変倍処理を実行して、変換後サイズの画像を得る。変換後サイズは各Indexにおいて一定値であるので、射影行列は所定次元から射影後次元への変換行列として、第1の実施形態と同様に、予め学習により求めておく。
以上の説明から明らかなように、本実施形態によれば、局所領域の切り出しサイズを特徴点から計算することにより、実際の顔上における範囲が、第1の実施形態に比べて、より一定となった局所領域を切り出すことが可能となる。すなわち、位置だけでなく、局所領域の相対的な範囲を安定的に指定することが可能となる。さらに本実施形態によれば、切り出し範囲の縦横比を適応的に変化させることが可能となるため、より局所領域範囲の一致度を高めることができ、判別性能がさらに向上することが期待できる。
[第4の実施形態]
上記各実施形態では、主として顔画像から個人を特定する顔判別処理に適用する場合について説明したが、本発明の画像処理方法の適用はこれに限られるものではない。例えば自動車の車種や、蝶の羽の模様による種の判定等、類似したパターンを判別する多くの画像処理に適用可能であることは言うまでもない。
また、上記各実施形態では、パターン検出器として、弱判別器をカスケード接続した強判別器による検出器と、ニューラルネットワークによるパターン検出器を使用したが、他のパターン検出器と組み合わせても勿論かまわない。
また、上記各実施形態では、ハードウェアによる顔判別処理装置の実装例と、CPUを用いた顔判別処理装置の実装例を示したが、本発明の画像処理装置は、実装方法には依存しない。例えばDSP(Digital Signal Processor)を処理の一部の計算に利用したり、或いはネットワークで接続される分散的な処理システムにおいて適用することも勿論可能である。例えばクライアントから入力される画像を、サーバで判別する、といったシステムにおいても適用可能である。
さらには、本発明にかかる画像処理方法をコンピュータにおいて実現させるためのプログラムおよびそのプログラムが記憶された記憶媒体も本発明の範囲に含まれるものとする。
[他の実施形態]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録したコンピュータ読取可能な記憶媒体を、システムあるいは装置に供給するよう構成することによっても達成されることはいうまでもない。この場合、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することにより、上記機能が実現されることとなる。なお、この場合、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合に限られない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、前述した実施形態の機能が実現される場合も含まれる。つまり、プログラムコードがメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって実現される場合も含まれる。
本発明の画像処理装置の第1の実施形態である、顔判別処理装置の構成を示すブロック図である。 登録処理動作モードにおける登録処理の流れを示すフローチャートである。 判別処理動作モードにおける判別処理の流れを説明するフローチャートである。 登録処理の具体例を示す図である。 特徴量抽出処理において特徴量として抽出されるLBPコードの一例を示す図である。 特徴量抽出処理において用いられるガボール・ジェット・フィルタの一例を示す図である。 特徴ベクトル間の類似度の計算方法を説明するための図である。 顔検出処理における処理ウインドウの一例を説明する図である。 パターン検出器の一例を示す図である。 パターン検出器の一例を示す図である。 特徴点検出処理の一例を説明するための図である。 再正規化処理に用いられるアフィン・パラメータの計算方法を示す図である。 各局所領域の定義テーブルの一例を示す図である。 局所領域位置・サイズ計算処理の詳細な流れを示すフローチャートである。 局所領域の位置・サイズ計算処理の具体例を示す図である。 本発明の画像処理装置の第2の実施形態である、顔判別処理装置の構成を示すブロック図である。 本発明の画像処理装置の第3の実施形態である、顔判別処理装置の局所領域位置・サイズ計算処理の流れを示すフローチャートである。 各局所領域の定義テーブルの一例を示す図である。 従来の局所領域位置決め方法を説明するための図である。 従来の局所領域位置決め方法を説明するための図である。 従来の局所領域位置決め方法を説明するための図である。
符号の説明
101 画像入力処理部
102 顔検出処理部
103 正規化切り出し処理部
104 器官端点(特徴点)抽出処理部
105 再正規化処理部
106 局所領域位置計算処理部
107 特徴ベクトル取得処理部
108 局所類似度判別処理部
109 結果統合・最終判別処理部
110 局所領域設定記憶部
111 特徴ベクトル登録部

Claims (9)

  1. 判別対象の画像から特徴点を抽出する特徴点抽出手段と、
    所定物体の複数の局所領域それぞれについて、特徴点を起点とし、該起点から該局所領域の基準位置まで移動する場合の水平方向及び垂直方向の移動距離を、各方向における、特定の2つの特徴点の位置座標間の差分に対する比率で定義するとともに、該複数の局所領域それぞれの大きさを各起点ごとに定義したテーブルを保持する保持手段と、
    前記複数の局所領域それぞれについて、前記テーブルを参照して、前記判別対象の画像から抽出された対応する特徴点を起点として移動した場合の当該局所領域基準位置と、該基準位置において切り出されるべき局所領域の大きさと算出する算出手段と、
    前記算出された前記基準位置それぞれにおいて、前記算出された大きさの局所領域を切り出す切出手段と、
    前記切出手段により切り出された複数の局所領域それぞれから抽出された特徴量を用いて、前記判別対象の画像に類似する画像を判別する判別手段と
    を備えることを特徴とする画像処理装置。
  2. 前記局所領域基準位置への移動方向は、前記テーブルにおいて、前記所定物体の特徴点を用いて定義されていることを特徴とする請求項1に記載の画像処理装置。
  3. 前記移動方向は、第1の特徴点から第2の特徴点までを結ぶ線分の方向、または、前記第1の特徴点から第2の特徴点までを結ぶ線分の水平成分の方向、または、前記第1の特徴点から第2の特徴点までを結ぶ線分の垂直成分の方向のいずれかにより定義されていることを特徴とする請求項2に記載の画像処理装置。
  4. 前記算出手段は、前記位置座標間の差分に前記比率を積算することで、前記移動距離を算出することを特徴とする請求項に記載の画像処理装置。
  5. 前記基準位置において切り出されるべき局所領域の大きさは、前記テーブルにおいて、固定値として定義されていることを特徴とする請求項1に記載の画像処理装置。
  6. 前記基準位置において切り出されるべき局所領域の大きさは、前記テーブルにおいて、水平方向及び垂直方向における特定の2つの特徴点の位置座標間の差分に対する比率を用いて定義されていることを特徴とする請求項1に記載の画像処理装置。
  7. 判別対象の画像より切り出される局所領域から抽出された特徴量を用いて、該判別対象の画像に類似する画像を判別する画像処理装置における画像処理方法であって、
    特徴点抽出手段が、判別対象の画像から特徴点を抽出する特徴点抽出工程と、
    保持手段が、所定物体の複数の局所領域それぞれについて、特徴点を起点とし、該起点から該局所領域の基準位置まで移動する場合の水平方向及び垂直方向の移動距離を、各方向における、特定の2つの特徴点の位置座標間の差分に対する比率で定義するとともに、該複数の局所領域それぞれの大きさを各起点ごとに定義したテーブルを保持する保持工程と、
    算出手段が、前記複数の局所領域それぞれについて、前記テーブルを参照して、前記判別対象の画像から抽出された対応する特徴点を起点として移動した場合の当該局所領域基準位置と、該基準位置において切り出されるべき局所領域の大きさと算出する算出工程と、
    切出手段が、前記算出された前記基準位置それぞれにおいて、前記算出された大きさの局所領域を切り出す切出工程と
    判別手段が、前記切出工程において切り出された複数の局所領域それぞれから抽出された特徴量を用いて、前記判別対象の画像に類似する画像を判別する判別工程と
    を有することを特徴とする画像処理方法。
  8. 判別対象の画像より切り出される局所領域から抽出された特徴量を用いて、該判別対象の画像に類似する画像を判別する画像処理装置のコンピュータに、
    判別対象の画像から特徴点を抽出する特徴点抽出工程と、
    所定物体の複数の局所領域それぞれについて、特徴点を起点とし、該起点から該局所領域の基準位置まで移動する場合の水平方向及び垂直方向の移動距離を、各方向における、特定の2つの特徴点の位置座標間の差分に対する比率で定義するとともに、該複数の局所領域それぞれの大きさを各起点ごとに定義したテーブルを保持する保持工程と、
    前記複数の局所領域それぞれについて、前記テーブルを参照して、前記判別対象の画像から抽出された対応する特徴点を起点として移動した場合の当該局所領域基準位置と、該基準位置において切り出されるべき局所領域の大きさと算出する算出工程と、
    前記算出された前記基準位置それぞれにおいて、前記算出された大きさの局所領域を切り出す切出工程と
    前記切出工程において切り出された複数の局所領域それぞれから抽出された特徴量を用いて、前記判別対象の画像に類似する画像を判別する判別工程と
    を実行させるためのプログラムを格納したコンピュータ読取可能な記憶媒体。
  9. 判別対象の画像より切り出される局所領域から抽出された特徴量を用いて、該判別対象の画像に類似する画像を判別する画像処理装置のコンピュータに、
    判別対象の画像から特徴点を抽出する特徴点抽出工程と、
    所定物体の複数の局所領域それぞれについて、特徴点を起点とし、該起点から該局所領域の基準位置まで移動する場合の水平方向及び垂直方向の移動距離を、各方向における、特定の2つの特徴点の位置座標間の差分に対する比率で定義するとともに、該複数の局所領域それぞれの大きさを各起点ごとに定義したテーブルを保持する保持工程と、
    前記複数の局所領域それぞれについて、前記テーブルを参照して、前記判別対象の画像から抽出された対応する特徴点を起点として移動した場合の当該局所領域基準位置と、該基準位置において切り出されるべき局所領域の大きさと算出する算出工程と、
    前記算出された前記基準位置それぞれにおいて、前記算出された大きさの局所領域を切り出す切出工程と
    前記切出工程において切り出された複数の局所領域それぞれから抽出された特徴量を用いて、前記判別対象の画像に類似する画像を判別する判別工程と
    を実行させるためのプログラム。
JP2008051118A 2008-02-29 2008-02-29 画像処理装置、画像処理方法、プログラム及び記憶媒体 Active JP5121506B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008051118A JP5121506B2 (ja) 2008-02-29 2008-02-29 画像処理装置、画像処理方法、プログラム及び記憶媒体
US12/390,963 US8300950B2 (en) 2008-02-29 2009-02-23 Image processing apparatus, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008051118A JP5121506B2 (ja) 2008-02-29 2008-02-29 画像処理装置、画像処理方法、プログラム及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2009211178A JP2009211178A (ja) 2009-09-17
JP2009211178A5 JP2009211178A5 (ja) 2011-04-14
JP5121506B2 true JP5121506B2 (ja) 2013-01-16

Family

ID=41013218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008051118A Active JP5121506B2 (ja) 2008-02-29 2008-02-29 画像処理装置、画像処理方法、プログラム及び記憶媒体

Country Status (2)

Country Link
US (1) US8300950B2 (ja)
JP (1) JP5121506B2 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8325981B2 (en) * 2009-04-21 2012-12-04 Nec Soft, Ltd. Human tracking apparatus, human tracking method, and human tracking processing program
KR101032726B1 (ko) * 2009-09-01 2011-05-06 엘지이노텍 주식회사 눈 상태 검출방법
JP5336995B2 (ja) * 2009-10-19 2013-11-06 キヤノン株式会社 特徴点位置決め装置、画像認識装置、その処理方法及びプログラム
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
JP5644773B2 (ja) 2009-11-25 2014-12-24 日本電気株式会社 顔画像を照合する装置および方法
KR101184097B1 (ko) 2009-12-07 2012-09-18 삼성전자주식회사 얼굴 정면포즈 판단 방법
KR101327321B1 (ko) * 2009-12-11 2013-11-11 한국전자통신연구원 모션 캡쳐 데이터의 포즈 검색 장치 및 방법
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
US20110216157A1 (en) * 2010-03-05 2011-09-08 Tessera Technologies Ireland Limited Object Detection and Rendering for Wide Field of View (WFOV) Image Acquisition Systems
US8842191B2 (en) * 2010-06-03 2014-09-23 Recognition Robotics, Inc. System and method for visual recognition
KR101231510B1 (ko) * 2010-10-11 2013-02-07 현대자동차주식회사 운전자 주시방향 연동 전방충돌 위험경보 시스템, 그 방법 및 그를 이용한 차량
JP5704905B2 (ja) * 2010-12-01 2015-04-22 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP5748472B2 (ja) * 2010-12-15 2015-07-15 富士フイルム株式会社 オブジェクト判別装置、方法、及びプログラム
WO2012098842A1 (ja) * 2011-01-20 2012-07-26 パナソニック株式会社 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および、画像処理装置
US8982180B2 (en) * 2011-03-31 2015-03-17 Fotonation Limited Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries
US8947501B2 (en) * 2011-03-31 2015-02-03 Fotonation Limited Scene enhancements in off-center peripheral regions for nonlinear lens geometries
US8723959B2 (en) 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
JP5777380B2 (ja) * 2011-04-05 2015-09-09 キヤノン株式会社 画像認識装置、画像認識方法、及びプログラム
US9111346B2 (en) * 2011-09-13 2015-08-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
JP5913940B2 (ja) * 2011-12-01 2016-05-11 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5836095B2 (ja) * 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
WO2014013686A1 (ja) * 2012-07-19 2014-01-23 日本電気株式会社 照合装置及び照合装置の制御方法、並びにコンピュータ・プログラム
US9600711B2 (en) * 2012-08-29 2017-03-21 Conduent Business Services, Llc Method and system for automatically recognizing facial expressions via algorithmic periocular localization
JP6265592B2 (ja) * 2012-12-10 2018-01-24 セコム株式会社 顔特徴抽出装置および顔認証システム
AU2014233497B2 (en) * 2013-03-15 2018-11-08 DePuy Synthes Products, Inc. Image rotation using software for endoscopic applications
JP6093221B2 (ja) * 2013-03-29 2017-03-08 株式会社メガチップス 画像処理回路及び画像検出装置
JP6225460B2 (ja) * 2013-04-08 2017-11-08 オムロン株式会社 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
JP6167733B2 (ja) 2013-07-30 2017-07-26 富士通株式会社 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
JP6532642B2 (ja) * 2013-07-30 2019-06-19 富士通株式会社 生体情報認証装置および生体情報処理方法
JP6448204B2 (ja) * 2014-03-28 2019-01-09 キヤノン株式会社 物体検出装置、物体検出方法及びプログラム
US9432671B2 (en) * 2014-05-22 2016-08-30 Xerox Corporation Method and apparatus for classifying machine printed text and handwritten text
JP6406900B2 (ja) * 2014-07-09 2018-10-17 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、記録媒体、生産装置、及び組立部品の製造方法
JP6365671B2 (ja) * 2014-07-24 2018-08-01 富士通株式会社 顔認証装置、顔認証方法および顔認証プログラム
KR102077260B1 (ko) * 2014-08-08 2020-02-13 삼성전자주식회사 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치
CN105809655B (zh) * 2014-12-30 2021-06-29 清华大学 车辆检查方法和***
US9846807B1 (en) * 2014-12-31 2017-12-19 Morphotrust Usa, Llc Detecting eye corners
US10089525B1 (en) 2014-12-31 2018-10-02 Morphotrust Usa, Llc Differentiating left and right eye images
EP3251086A1 (en) * 2015-01-30 2017-12-06 Thomson Licensing Method and apparatus for generating an initial superpixel label map for an image
CN107851214A (zh) * 2015-07-23 2018-03-27 米雷普里卡技术有限责任公司 针对二维阵列处理器的性能增强
CN104992167B (zh) * 2015-07-28 2018-09-11 中国科学院自动化研究所 一种基于卷积神经网络的人脸检测方法及装置
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US10635909B2 (en) * 2015-12-30 2020-04-28 Texas Instruments Incorporated Vehicle control with efficient iterative triangulation
CN107368770B (zh) * 2016-05-12 2021-05-11 江苏安纳泰克能源服务有限公司 一种回头客自动识别方法及***
US11379695B2 (en) 2016-10-24 2022-07-05 International Business Machines Corporation Edge-based adaptive machine learning for object recognition
CN106503686A (zh) * 2016-10-28 2017-03-15 广州炒米信息科技有限公司 检索人脸图像的方法和***
KR102631381B1 (ko) 2016-11-07 2024-01-31 삼성전자주식회사 컨볼루션 신경망 처리 방법 및 장치
JP7022076B2 (ja) * 2016-12-19 2022-02-17 株式会社安川電機 産業機器用の画像認識プロセッサ及びコントローラ
US10282592B2 (en) * 2017-01-12 2019-05-07 Icatch Technology Inc. Face detecting method and face detecting system
CN106803084B (zh) * 2017-03-02 2020-08-07 中科视拓(北京)科技有限公司 一种基于端到端循环网络的面部特征点定位方法
US20190370641A1 (en) * 2017-03-06 2019-12-05 Sony Corporation Information processing apparatus
JP7107544B2 (ja) * 2018-01-16 2022-07-27 Necソリューションイノベータ株式会社 情報処理装置、制御方法、及びプログラム
CN108932420B (zh) * 2018-06-26 2021-11-09 北京旷视科技有限公司 人证核验装置、方法和***以及证件解密装置和方法
CN110889312B (zh) * 2018-09-07 2022-09-02 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备、计算机可读存储介质
CN110909561A (zh) * 2018-09-14 2020-03-24 虹软科技股份有限公司 眼睛状态检测***及眼睛状态检测***的操作方法
CN111340932A (zh) * 2018-12-18 2020-06-26 富士通株式会社 图像处理方法以及信息处理设备
US11282180B1 (en) 2019-04-24 2022-03-22 Apple Inc. Object detection with position, pose, and shape estimation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4846924B2 (ja) 2001-05-31 2011-12-28 キヤノン株式会社 パターン認識装置
US7242806B2 (en) * 2002-01-23 2007-07-10 Honeywell International Inc. Methods, functional Data, and Systems for image feature translation
JP2004265267A (ja) 2003-03-04 2004-09-24 Sharp Corp 顔認証方法、および顔認証装置。
JP2005242535A (ja) * 2004-02-25 2005-09-08 Omron Corp 画像補正装置
JP4606779B2 (ja) 2004-06-07 2011-01-05 グローリー株式会社 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
WO2005124302A1 (ja) * 2004-06-17 2005-12-29 Digital Fashion Ltd. 画像処理プログラム、画像処理装置、及び画像処理方法
JP2006148578A (ja) * 2004-11-19 2006-06-08 Sharp Corp 画像処理装置、画像読取装置、及び画像記録装置
JP4992289B2 (ja) * 2006-05-11 2012-08-08 コニカミノルタホールディングス株式会社 認証システム、認証方法、及びプログラム

Also Published As

Publication number Publication date
JP2009211178A (ja) 2009-09-17
US20090220156A1 (en) 2009-09-03
US8300950B2 (en) 2012-10-30

Similar Documents

Publication Publication Date Title
JP5121506B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5451302B2 (ja) 画像処理装置及び方法、プログラム及び記憶媒体
US7912253B2 (en) Object recognition method and apparatus therefor
JP4161659B2 (ja) 画像認識システム及びその認識方法並びにプログラム
JP4724125B2 (ja) 顔認識システム
US6671391B1 (en) Pose-adaptive face detection system and process
Garcia et al. Convolutional face finder: A neural architecture for fast and robust face detection
US8818034B2 (en) Face recognition apparatus and methods
JP5517858B2 (ja) 画像処理装置、撮像装置、画像処理方法
US20060120572A1 (en) System and method for multi-view face detection
US20100014758A1 (en) Method for detecting particular object from image and apparatus thereof
JP5574033B2 (ja) 画像認識システム及びその認識方法並びにプログラム
JP2005056387A (ja) 画像処理装置、撮像装置、画像処理方法
CN111126240A (zh) 一种三通道特征融合人脸识别方法
US20230206700A1 (en) Biometric facial recognition and liveness detector using ai computer vision
JP2012221061A (ja) 画像認識装置、画像認識方法、及びプログラム
JP4616841B2 (ja) 距離、局所線形構造およびアフィン対称を用いた画像クラスタリング
Yan Ear biometrics in human identification
CN110580451A (zh) 一种基于三维优化子曲面的人脸识别方法及***
Lee Human Face Detection Techniques: A Comprehensive Review and Future Research Directions
Gökberk Three dimensional face recognition
Hasan et al. Abdullah-Al-Mamun; Newaz, SHS; Lee, GM Human Face Detection Techniques: A Comprehensive Review and Future Research Directions. Electronics 2021, 10, 2354
Mondal Hog Feature-A Survey
Hejres et al. Image Recognition System Using Neural Network Techniques: an Overview
Fan Face sketch recognition using deep learning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120924

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5121506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3