JP4443722B2 - Image recognition apparatus and method - Google Patents

Image recognition apparatus and method Download PDF

Info

Publication number
JP4443722B2
JP4443722B2 JP2000123604A JP2000123604A JP4443722B2 JP 4443722 B2 JP4443722 B2 JP 4443722B2 JP 2000123604 A JP2000123604 A JP 2000123604A JP 2000123604 A JP2000123604 A JP 2000123604A JP 4443722 B2 JP4443722 B2 JP 4443722B2
Authority
JP
Japan
Prior art keywords
image
appearance
change
object model
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000123604A
Other languages
Japanese (ja)
Other versions
JP2001307096A (en
Inventor
大器 増本
直毅 指田
博紀 北川
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2000123604A priority Critical patent/JP4443722B2/en
Priority to US09/772,924 priority patent/US6888955B2/en
Publication of JP2001307096A publication Critical patent/JP2001307096A/en
Application granted granted Critical
Publication of JP4443722B2 publication Critical patent/JP4443722B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、物体の画像情報を変換した物体モデルをデータベースに蓄積し、画像認識時にデータベースを照会して物体を認識する画像認識装置に関する。
【0002】
【従来の技術】
インターネット等に代表されるコンピュータネットワークの進展に伴い、誰でも容易に様々な情報へアクセスすることができるようになった反面、アクセスしているのが本人であるかどうか確認する技術、すなわち認証技術の重要性が高まっている。詐称者を本人と誤らない、あるいは本人を詐称者として棄却する確率を最小限にする必要があるからである。
【0003】
かかる技術分野で最近注目されている技術の一つが、顔の画像による認証技術である。顔は指紋や声紋と同様、本人に固有のものだからであり、画像処理技術の進展によって識別判断の基準として用いる対象となりうるからである。
【0004】
顔画像を認証判断の基準とする方法については、従来から種々の方法が開示されている。例えば、特願平11−110020号においては、入力画像から撮影環境の状態を示す環境パラメータと対象物の状態を示す対象状態パラメータ値とを推定し、その値を用いて、入力画像の撮影環境及び対象物の状態が登録画像の撮影環境及び対象物の状態に一致するように補正した「照合用画像」を用いて認識を行う技術が開示されている。
【0005】
以下、開示されている環境パラメータ及び対象状態パラメータを用いた当該画像認識処理について図1から図4を参照しながら説明する。まず図1は、当該画像認識処理のデータベースへの登録フェーズにおける処理の流れを示す。
【0006】
図1において、まず登録対象となる画像を入力する(ステップS11)。ここでの画像入力は、正面から撮影した顔画像1枚で良いが、認識精度を高めるためには、正面画像の他に、様々な方向から撮影した顔画像を用意することが望ましい。
【0007】
次に、入力した画像から、顔領域を切り出して(ステップS12)、顔領域の画像を得る(ステップS13)。すなわち、図2に示すように、登録対象となる画像上で顔領域を矩形領域で切り出す。
【0008】
そして、得られた顔領域画像を各ピクセルを要素に持つN次元ベクトルとみなし、そのベクトルをn次元(n≦N)の部分空間に射影し(ステップS14)、その射影点をPと表す。図2では、「sashida」の1点に射影されている。
【0009】
さらに、撮影環境の状態を示す環境パラメータ値e、対象物の状態を表す対象状態パラメータ値sを推定し、その値と射影点Pとをペアにしてデータベースに登録する(ステップS15)。ここで、画像から撮影環境の状態を示す環境パラメータ値e、対象物の状態を表す対象状態パラメータ値sを推定する一般性のある方法は開示されていない。
【0010】
次に、図3は当該画像認識処理における認識フェーズにおける処理の流れを示している。図3において、画像の入力から顔領域画像の切り出しまで(ステップS31〜ステップS33)は、図1に示した登録フェーズの場合(ステップS11〜ステップS13)と同様になる。
【0011】
したがって、部分空間への射影は、図4に示すように「sashida」の1点に射影される。
【0012】
一方、入力画像から撮影環境の状態を示す環境パラメータ値eと対象物の状態を表す対象状態パラメータ値sを推定する。次に、あらかじめ登録されている登録画像の環境パラメータ値eと対象状態パラメータ値sと一致するように、入力画像から推定したパラメータ値を調整する。この調整によって、入力画像の撮影環境及び対象物の状態が、登録画像の撮影環境及び対象物の状態に一致するような照合用画像を生成する。この照合用画像を部分空間に射影して点Qを得る(ステップS34)。
【0013】
そうすることで、登録画像と照合用画像とは、照明等の撮影環境、対象物の位置や姿勢等の状態について同一条件で比較することになる。しかし、パラメータ値を調整して、入力画像の撮影環境及び対象物の状態が、登録画像の撮影環境及び対象物の状態に一致するような照合用画像を生成する一般性のある方法は開示されていない。
【0014】
次に、登録されているPとQの部分空間上での距離を計算する(ステップS35)。登録画像すべてについて、同様にして当該空間的距離を算出して、最近接点Pmを探す(ステップS36)。
【0015】
最後に、最近接点Pmに該当する登録画像を入力画像に対応するものとして認識することになる(ステップS37)。
【0016】
【発明が解決しようとする課題】
しかし、上述したような方法では、(1)画像から撮影環境の状態を示す環境パラメータ値、対象物の状態を表す対象状態パラメータ値を推定すること、(2)パラメータ値を調整して、入力画像の撮影環境及び対象物の状態が、登録画像の撮影環境及び対象物の状態に一致するような照合用画像を生成することがポイントとなっているにもかかわらず、これらの処理を実現する一般的な方法は知られていない。
【0017】
特願平11−110020号においては、環境パラメータのうち照明パラメータを、顔領域画像の輝度値の平均値、分散、ヒストグラムから推定することや、環境パラメータのうちカメラパラメータとして、撮影に利用したカメラの解像度や、フォーカス、露出を用いることが提案されている。また、対象状態パラメータを、顔領域画像内の肌色占有面積を利用して推定することが提案されている。
【0018】
しかし、(1)このようなパラメータ値を正しく推定することは一般に困難である。さらに、(2)1枚あるいは少数の画像からこれらのパラメータが変化したときに画像がどのように変化するかをモデル化することも困難である。したがって、上述の方法を実際に認識処理に適用するのは困難であると考えられる。
【0019】
そのため、画像登録時に正面から撮影した顔画像を利用していることから、入力時に顔の向きが異なっていたり、照明条件が異なっている場合には、本人を詐称者であるものとして、あるいは詐称者を本人であるものとして誤認識する可能性があるという問題点があった。
【0020】
本発明は、上記問題点を解消するために、画像認識時における入力画像の撮影条件に依存せずに、登録画像との照合を精度良く行うことができる画像認識装置及び方法を提供することを目的とする。
【0021】
【課題を解決するための手段】
上記目的を達成するために本発明にかかる画像認識装置は、撮影環境の変動による物体の見え方の変化を推定してモデル化する物体モデル化実行部と、物体モデル化実行部において得られた物体モデルを事前にデータベースへ登録しておく物体モデル登録部とを有し、認識対象となる物体の画像情報を入力する画像情報入力部と、物体モデル登録部において事前に登録されている物体モデルと入力された画像情報を照合して、登録されている物体モデルとの類似度を割り当てる類似度判断部と、割り当てられた物体モデルの中で最も類似していると判断された認識対象となる物体の種別を出力する物体認識部とを含み、物体モデル化実行部において、固定された画像情報入力部に対する物体の相対的な位置及び姿勢を変化させて撮影した複数の画像情報を入力し、入力された複数の画像情報に基づいて将来起こりうる撮影環境変動による物体の見え方の変化を推定してモデル化することを特徴とする。
【0022】
かかる構成により、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことが可能となる。
【0023】
また、本発明にかかる画像認識装置は、認識対象となる物体の表面特性としてランバーシャン反射モデルを仮定することが好ましい。照明変動による見え方の変動を予測しやすいからである。
【0024】
また、本発明にかかる画像認識装置は、画像情報入力部において、画像から認識対象となる物体が存在する部分を切り出し、切り出された部分画像を用いて認識対象となる物体のモデル化を行うことが好ましい。余分な画像情報による誤認識を防止することができるからである。
【0025】
また、本発明にかかる画像認識装置は、画像情報入力部において、画像から認識対象となる物体中の特徴的な小領域を選択し、選択された小領域に含まれる情報と小領域の配置情報に基づいて認識対象となる物体のモデル化を行うことが好ましい。特徴部分が画像によって部分的に隠された状態となっている場合も対応することができるからである。
【0026】
また、サンプルデータが少ない場合、本発明にかかる画像認識装置は、物体モデル化実行部において、入力された画像情報に基づいて、物体の姿勢変化による見え方の変動と照明条件の変化による見え方の変動とを分離してモデル化を行うことが好ましい。サンプルデータが少ない場合であっても、正確に見え方の変動を推定することができるからである。
【0027】
また、サンプルデータが十分に有る場合、本発明にかかる画像認識装置は、物体モデル化実行部において、入力された画像情報に基づいて、物体の姿勢変化による見え方の変動と照明条件の変化による見え方の変動とを分離せずにモデル化を行うことが好ましい。サンプルデータが十分にある場合においては、あえて分離してモデル化を行うことによって、近似的にモデル化する必要はなく、直接的に見え方の変動を求めることができるからである。
【0028】
また、本発明は、上記のような画像認識装置の機能をコンピュータの処理ステップとして実行するソフトウェアを特徴とするものであり、具体的には、撮影環境の変動による物体の見え方の変化を推定してモデル化する工程と、得られた物体モデルを事前にデータベースへ登録しておく工程とを有し、認識対象となる物体の画像情報を入力する工程と、事前に登録されている物体モデルと入力された画像情報を照合して、登録されている物体モデルとの類似度を割り当てる工程と、割り当てられた物体モデルの中で最も類似していると判断された認識対象となる物体の種別を出力する工程とを含み、物体の相対的な位置及び姿勢を変化させて撮影した複数の画像情報を入力し、入力された複数の画像情報に基づいて将来起こりうる撮影環境変動による物体の見え方の変化を推定してモデル化する画像認識方法並びにそのような工程をプログラムとして記録したコンピュータ読み取り可能な記録媒体であることを特徴とする。
【0029】
かかる構成により、コンピュータ上へ当該プログラムをロードさせ実行することで、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことができる画像認識装置を実現することが可能となる。
【0030】
【発明の実施の形態】
(実施の形態1)
以下、本発明の実施の形態1にかかる画像認識装置について、図面を参照しながら説明する。図5は本発明の実施の形態1にかかる画像認識装置の構成図である。図5において、51は画像情報入力部を、52は物体モデル化実行部を、53は物体モデル登録部を、54は物体モデルデータベースを、55は類似度判断部を、56は物体認識部を、それぞれ示す。
【0031】
図5において、画像情報入力部51は、認識対象となる画像を撮影するカメラや、当該カメラによって撮影された写真等を読み込むスキャナ、撮影された画像を圧縮して磁気記録媒体に保存しているファイルの読込装置等の、画像情報を入力するために用意された部分を示している。そして、画像情報入力部51から入力された画像情報に基づいて、物体モデル化実行部52において認識対象となるべき物体について、モデル化することになる。
【0032】
物体モデル化実行部52における画像情報のモデル化手法には種々の方法が考えられる。例えば特願平11−110020号においては、上述したように特徴パラメータを用いて物体モデルを一義的に表す方法が開示されている。
【0033】
しかし、このようなモデル化手法では、以下の問題が発生する。まず、モデル化する際に入力する画像が、一つの物体について一つのみであることから、光源の位置や照度等の相異によって、同一の物体を同一のカメラ位置で撮影した場合であっても、異なる物体であると誤認識されてしまう可能性が残されるという問題である。
【0034】
また、光源の位置や照度等が同一であっても、カメラと物体の位置が相異すれば、同様に異なる物体であると認識されてしまう可能性が高いという問題である。すなわち、カメラの角度やカメラとの距離が相異すれば、撮影される画像の大小や角度が大きく変化し、固有空間上の位置が大きく前後することで、異なる物体であると誤認識されてしまう可能性が高くなることも十分に予想されるからである。
【0035】
かかる問題を解決するため、本実施の形態においては、登録時に、固定された画像情報入力部に対して物体の姿勢を連続的に変化させて、その連続画像に基づいて、入力時の環境変動、すなわち照明条件、対象物体の状態(カメラとの相対姿勢や相対距離)の相異によって画像がどのように変化するのかを予測し、当該予測に基づいた物体モデルを、部分空間として物体モデルデータベース54に登録する点に特徴を有する。
【0036】
以下、本実施の形態にかかる画像認識装置におけるモデル化手法について、図6及び図7を参照しながら説明する。まず、図6は本実施の形態にかかる画像認識装置における登録フェーズのモデル化処理の流れを示している。
【0037】
図6に示すように、まず画像を入力するのであるが(ステップS61)、入力するのは一つの画像自体ではなく、連続した複数の画像である。すなわち、図7に示すように、顔画像であっても正面から撮影した画像だけではなく、登録用の画像系列として徐々に首を振った連続的な画像を入力することになる。
【0038】
次に、入力された画像系列について、各小領域を連続した複数の画像について追跡することで、連続した複数の画像から小領域の系列として選択することになる(ステップS62)。すなわち、入力された画像系列について、「目」なら「目」を表す小領域について小領域系列として選択することになる。
【0039】
そして、選択された小領域系列に基づいて、部分空間を新たに生成する(ステップS63)。具体的には、図7に示すように、連続した画像について対応する部分、例えば顔画像で有れば「目の領域」について、部分空間を同定し、それを窓部分空間と呼ぶ。
【0040】
当該窓部分空間においては、物体の位置や姿勢等の幾何学的変動や照明の位置や照度等の変動によって生じる小領域画像の見え方の変動をカバーしている。このような窓部分空間を、「目の領域」、「鼻の領域」、・・のように個々の領域に対応して同定し、そのセットを、物体モデルとして物体モデルデータベース54に登録する(ステップS64)。
【0041】
次に、入力された画像を実際に認識する際の処理について図8及び図9を参照しながら説明する。図8は当該画像認識処理における画像認識処理の流れ図を示している。
【0042】
図8において、物体モデルデータベース54の照会対象となる画像を入力する(ステップS81)。次に、その画像から顔領域を切り出し(ステップS82)、さらに、顔領域の中から特徴的な部分である小領域(窓)を複数選択する(ステップS83)。窓の選択方法の具体例としては、特願平11−110020号において実施形態2で用いられている「エッジ強度」を用いる方法等が考えられる。そして、図9のように、各窓の画素値を要素として持つベクトル(窓ベクトル)を、物体モデルデータベース54に登録されている各窓部分空間に射影する(ステップS84)。
【0043】
類似度判断部55において、窓ベクトルを窓部分空間に射影したときの垂線の足の長さを計算し、その長さに基づいて小領域と窓部分空間との類似度を定義する(ステップS85)。そして、最も当該小領域に近い窓部分空間を見出し(ステップS86)、かかる部分空間を有する登録物体モデルを入力画像中の物体の候補とする。入力画像中のすべての窓について同様の処理を行い、最終的に物体認識部56で結果を統合して認識を行う(ステップS87)。
【0044】
なお、本実施の形態にかかる画像認識装置におけるモデル化手法においては、光源がどこにあるのか等はモデル化時点では問わない。しかし、連続画像撮影時においては光源の位置や角度は変化させないことが必要条件となる。変化してしまうと、入力時の撮影条件の変化に対する画像変化の予測計算が困難になるからである。
【0045】
次に、登録時の窓部分空間の同定について、より詳細に説明する。まず、物体表面上の画素に対応する小領域である面素Qiを考える。面素Qiは反射係数aiを有するランベーシャン面(Lambertian)であるものと仮定する。ここでランベーシャン面とは、鏡面反射のない反射面であることを意味する。
【0046】
一般に、登録時と同じ顔を撮影する場合であっても、面素Qiとカメラ位置の相対関係や照明条件等が登録時に撮影したときの状況と一致することはまずあり得ない。したがって、入力時の撮影条件の変化によって、対応する窓内の対応する位置の画素値も変化することになる。
【0047】
例えば、窓を固定した座標系において、座標ベクトルxにおける変化前の画素値をI(x)、変化後の画素値をI’(x)とする。照明変動がないものと仮定した上で、選択された窓において回転量、サイズ変化量等が小さい場合には、窓固定座標系において対応する点の移動量Δxは(数1)で表される。なお、(数1)において、Aはアフィン変換のパラメータを要素として持つ2×2行列を、dはアフィン変換のパラメータを要素として持つ2×1の列ベクトルを、D=I−AにおいてIは2×2の単位行列を、それぞれ示す。
【0048】
【数1】

Figure 0004443722
【0049】
かかるΔxが微少であるという範囲内で有ればアフィン変換で近似可能な非剛体変形も取り扱うことが可能となる。移動の前後で画素値が保存されるものと仮定して、テイラー展開を行うと、変化後の画素値をI’(x)は変化前の画素値I(x)を用いて(数2)のように近似できる。
【0050】
【数2】
Figure 0004443722
【0051】
したがって、変化後の画素値をI’(x)は変化前の画素値をI(x)を用いて(数3)のように表すことができることから、右辺第2項を幾何学的変化のみに基づいた窓内各画素値の変化量ベクトルΔIgとして、(数4)のように整理できる。
【0052】
【数3】
Figure 0004443722
【0053】
【数4】
Figure 0004443722
【0054】
以上より、変化量ベクトルΔIgの自由度は‘6’であり、窓画像空間における部分空間は(数5)で表すことができる以下の6つの基底ベクトルω1、ω2、ω3、ω4、ω5、ω6で張ることができる。
【0055】
【数5】
Figure 0004443722
【0056】
一方、照明条件のみが変動する場合について考えると、面素Qiのレンズ方向への放射光度Liは(数6)のように表すことができる。ここで、ベクトルniは面素Qiにおける法線ベクトルを、ベクトルsは光線ベクトルを、それぞれ意味する。
【0057】
【数6】
Figure 0004443722
【0058】
撮影するフォトディテクタの開口面積をb、CCDの光電変換特性が線形であると仮定し比例定数をkとすると、画素値I(xi)は(数7)のように表すことができる。
【0059】
【数7】
Figure 0004443722
【0060】
ここで、dはレンズの直径、fは焦点距離、ベクトルuは光軸方向の単位ベクトル、ベクトルvは面素Qiからレンズの中心に向かう単位ベクトルを意味する。
【0061】
(数7)において、ベクトルu、bk、f、dはカメラが変更されない限り一定であり、窓が十分に小さい場合にはベクトルvは窓内のすべての画素について同一であるものと考えら、ベクトルsも窓内すべての画素について同一であるものと考えられることから、画素値I(xi)は対応する面素の法線ベクトルniにその面素の反射係数aiを乗じたベクトルaii=(aiix、aiiy、aiizTとベクトルsとの内積に共通の係数を乗じたものと考えられる。
【0062】
したがって、画素値I(xi)の自由度はベクトルaiiの有する自由度である‘3’であり、照明変動のみの場合の窓画像ベクトルの変動は、(数8)で表すことができる以下の3つの基底ベクトルνx、νy、νzで張ることができる3次元の部分空間で表すことができる。
【0063】
【数8】
Figure 0004443722
【0064】
したがって、照明条件が変化、あるいは画素Qiとカメラ位置の相対関係が変化する場合はベクトルω1、ω2、ω3、ω4、ω5、ω6、νx、νy、νzによって形成される9次元の部分空間内で変動する。したがって、画素Qiとカメラ位置の相対関係が変化する場合について十分なサンプルデータを得ることによって、KL変換を用いて9次元の窓部分空間を同定することが可能となる。
【0065】
一例として、カメラ及び照明を固定して、面素Qiとカメラ位置の相対関係が変化する場合について説明する。まず面素Qiが形状変化せずに移動し、その結果として法線ベクトルnが(n+Δn)に、レンズ中心への単位ベクトルvが(v+Δv)に変化したものとする。また、面素Qの投影位置もベクトルxtからxに移動したものとする。
【0066】
また、面素Qiの投影位置もベクトルxi^からxiに移動したものとする。変化後の面素Qiのレンズ方向への表面放射光度Li’は(数6)を用いて(数9)のように表すことができる。
【0067】
【数9】
Figure 0004443722
【0068】
したがって、対応する画素の放射照度を求めることで、画素値I’(xi)は(数10)のように表すことができる。ここでΔIvをカメラとの相対位置変化に基づく窓内各画素値の変化量ベクトルとし、ΔInをカメラとの相対位置変化による照明条件変化に基づく窓内各画素値の変化量ベクトルとする。
【0069】
【数10】
Figure 0004443722
【0070】
ここで、先述した物体とカメラ位置の相対変化のみによる画素値の変化の関係(数4)を考慮すると、I(xi^)=I(x)+ΔIgと考えることができるので、(数10)は(数11)のように表すことができる。
【0071】
【数11】
Figure 0004443722
【0072】
ここでΔIgの自由度は‘6’であるのに対して、ΔIn及びΔIvの自由度は‘3’であり、かつΔIn及びΔIvの意味する部分空間は結局同一の部分空間を表していることから、結局変化量ベクトルΔI=I’(x)−I(x)の変動範囲は、最大9次元の部分空間内であることがわかる。
【0073】
この場合、サイズの変化や物体の回転に代表される幾何学的な変動について、十分なサンプルデータを取得することは現実的には困難である。しかしながら、ベクトルω1、ω2、ω3、ω4、ω5、ω6によって形成される幾何学的変動に対応する部分空間(以下、「ジオメトリック変動部分空間」という。)については、一枚の小領域のみから推定することが可能である。
【0074】
そこで、サンプルデータに基づいて、まずジオメトリック変動部分空間を求め、求めたジオメトリック変動部分空間の成分を取り除いた成分の分布を求める。この分布をKL変換することで、νx、νy、νzによって形成される測光学的変動に対応する部分空間(以下、「フォトメトリック変動部分空間」という。)を求めることができる。こうすることで、任意の部分空間をジオメトリック変動部分空間とフォトメトリック変動部分空間とを用いて表すことが可能となる。
【0075】
また、部分空間の同定には大別して2つの方法が考えられる。一つはジオメトリック変動部分空間とフォトメトリック変動部分空間とが直交しているものと仮定する方法、今一つは十分なサンプルデータが有る場合に用いるジオメトリック変動部分空間とフォトメトリック変動部分空間とを分けずに直接同定する方法である。
【0076】
まず、ジオメトリック変動部分空間とフォトメトリック変動部分空間とが直交しているものと仮定する方法について説明する。初めに、顔画像に関するサンプルデータの収集は、登録対象者に首を振ってもらい、顔の姿勢を変化させることで行う。
【0077】
基準小領域は、小領域空間にプロットした一つの小領域変化系列におけるデータ点分布の平均位置、もしくは変動範囲の中心を基準とし、基準小領域ベクトルxsとして保存する。かかる基準としたのは、サンプルデータの中には偽りのデータも混在し、また幾何学的変形の線形近似の限界やランベーシャン表面との仮定からの逸脱、あるいは雑音の存在等によって、本来の部分空間から逸脱しているデータも存在するからである。
【0078】
求めた基準小領域ベクトルxsから、ベクトルω1、ω2、ω3、ω4、ω5、ω6を(数5)に基づいて計算する。画素値の微分はソーベルフィルタ(Sobel Filter)の畳み込みによって近似的に計算するものとする。
【0079】
このようにベクトルω1、ω2、ω3、ω4、ω5、ω6が求まることで、ジオメトリック変動部分空間ベクトルΩを同定することができる。ただし、これらのベクトルは必ずしも一次独立とは限らないので、行列G=[ω1、ω2、ω3、ω4、ω5、ω6Tを特異値分解することで、部分空間ベクトルΩの正規直交基底ベクトルup(1≦p≦6)を求める。pは行列Gの階数である。
【0080】
次に、任意の窓画像ベクトルxのジオメトリック変動部分空間Ωと直交する成分は、図10に従って求めることができる。図10において、ジオメトリック変動部分空間Ωの基準画像ベクトルをxsとし、ベクトルxとベクトルxsとの差をジオメトリック変動部分空間Ωに直交射影したものをベクトルx’とする。
【0081】
ジオメトリック変動部分空間Ωの直交射影行列Pは、正規直交基底ベクトルup(1≦p≦6)を用いて(数12)のように表すことができる。
【0082】
【数12】
Figure 0004443722
【0083】
また、図6のベクトル関係より、x’=P*(x−xs)である。ここで、記号‘*’は行列とベクトルの乗算を意味するものとする。
【0084】
一方、ジオメトリック変動部分空間Ωの直交補空間ΩTへの直交射影行列QはQ=I−P(Iは単位行列)と表すことができることから、任意の小領域ベクトルxのジオメトリック変動部分空間Ωと直交する成分は、(x−xs)−x’=Q*(x−xs)として求めることができる。
【0085】
こうして求まったQ*(x−xs)の分布からKL展開することによってフォトメトリック変動部分空間Ψを同定する。まず、小領域変化系列に属する全ての小領域ベクトルxjからyj=Q*(xj−xs)(jは1≦jの自然数)を計算する。そして、(数13)によって、ベクトルyの自己相関行列Rを求める。
【0086】
【数13】
Figure 0004443722
【0087】
求まった行列Rの固有値・固有ベクトルを求め、降順にλ1、λ2、・・λNとし、各固有値に対応する正規直交固有ベクトルをv1、v2、・・、vNとする。ここで、固有値を降順に所定の個数nまで加算した値が固有値の総和に対してしめる割合を累積寄与率と定義すると、累積寄与率が所定のしきい値を超えたときのq(個数)を部分空間の次元数と定める。したがって、フォトメトリック変動部分空間Ψの正規直交基底ベクトルはv1、v2、・・、vqとなる。
【0088】
このように、ジオメトリック変動部分空間Ωとフォトメトリック変動部分空間Ψが同定されるので、これらをベクトル結合することによって環境変動部分空間Γと窓部分空間Λを同定する。すなわち、(数14)のように表すことができる。
【0089】
(数14)
Γ=Ω+Ψ
Λ=xs+Γ
【0090】
よって、環境変動部分空間Γの正規直交基底ベクトルは、ジオメトリック変動部分空間Ωの正規直交基底ベクトルを並べた行列U=[u1、u2、・・、up]とフォトメトリック変動部分空間Ψの正規直交基底ベクトルを並べた行列V=[v1、v2、・・、vq]になる。したがって、ベクトルwi=ui(iは1≦i≦pの自然数)、ベクトルwp+j=vj(jは1≦j≦qの自然数)として、環境変動部分空間Γの正規直交基底ベクトルを並べた行列W=[w1、w2、・・、wr](r=p+q)を定めることで、環境変動部分空間Γとして部分空間を定めることが可能となる。
【0091】
次に、十分なサンプルデータが有る場合においては、ジオメトリック変動部分空間とフォトメトリック変動部分空間とを分けずに直接部分空間を同定する方法を用いる。
【0092】
この方法は、サンプルデータの収集や基準小領域の決定手法は、上述した方法と同様である。部分空間の同定は、ベクトル(x−xs)の分布から直接KL展開することによって同定する。
【0093】
まず、小領域変化系列に属する全ての小領域ベクトルxjからyj=Q*(xj−xs)(jは1≦j≦Mの自然数)を計算する。そして、ジオメトリック変動部分空間とフォトメトリック変動部分空間とが直交しているものと仮定する方法と同様に、(数13)によってベクトルyの自己相関行列Rを求める。
【0094】
求まった行列Rの固有値・固有ベクトルを求め、降順にλ1、λ2、・・λNとし、各固有値に対応する正規直交固有ベクトルをv1、v2、・・、vNとする。ここで、固有値を降順に所定の個数nまで加算した値が固有値の総和に対してしめる割合を累積寄与率と定義すると、累積寄与率が所定のしきい値を超えたときのr(個数)を部分空間の次元数と定める。したがって、環境変動部分空間Γの正規直交基底ベクトルを並べた行列W=[w1、w2、・・、wr]として部分空間を定めることが可能となる。
【0095】
このように、入力された画像と登録されている物体モデルとの照合は、上述した方法のいずれかを用いて物体モデルを同定することにより、入力された画像に最も近接した部分空間を同定することによって行われる。
【0096】
以上のように本実施の形態によれば、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことが可能となる。
【0097】
また、本発明の実施の形態にかかる画像認識装置を実現するプログラムを記憶した記録媒体は、図11に示す記録媒体の例に示すように、CD−ROM112−1やフロッピーディスク112−2等の可搬型記録媒体112だけでなく、通信回線の先に備えられた他の記憶装置111や、コンピュータ113のハードディスクやRAM等の記録媒体114のいずれでも良く、プログラム実行時には、プログラムはローディングされ、主メモリ上で実行される。
【0098】
また、本発明の実施の形態にかかる画像認識装置により生成された物体モデルデータ等を記録した記録媒体も、図11に示す記録媒体の例に示すように、CD−ROM112−1やフロッピーディスク112−2等の可搬型記録媒体112だけでなく、通信回線の先に備えられた他の記憶装置111や、コンピュータ113のハードディスクやRAM等の記録媒体114のいずれでも良く、例えば本発明にかかる画像認識装置を利用する際にコンピュータ113により読み取られる。
【0099】
【発明の効果】
以上のように本発明にかかる画像認識装置によれば、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことが可能となる。
【図面の簡単な説明】
【図1】 従来の画像認識装置における物体モデル登録処理の流れ図
【図2】 従来の画像認識装置における物体モデル登録処理の概念図
【図3】 従来の画像認識装置における処理の流れ図
【図4】 従来の画像認識装置における処理の概念図
【図5】 本発明の実施の形態にかかる画像認識装置のブロック構成図
【図6】 本発明の実施の形態にかかる画像認識装置における物体モデル登録処理の流れ図
【図7】 本発明の実施の形態にかかる画像認識装置における物体モデル登録処理の概念図
【図8】 本発明の実施の形態にかかる画像認識装置における処理の流れ図
【図9】 本発明の実施の形態にかかる画像認識装置における処理の概念図
【図10】 ジオメトリック変動部分空間と直交する小領域ベクトルの求め方の説明図
【図11】 記録媒体の例示図
【符号の説明】
51 画像情報入力部
52 物体モデル化実行部
53 物体モデル登録部
54 物体モデルデータベース
55 類似度判断部
56 物体認識部
111 回線先の記憶装置
112 CD−ROMやフロッピーディスク等の可搬型記録媒体
112−1 CD−ROM
112−2 フロッピーディスク
113 コンピュータ
114 コンピュータ上のRAM/ハードディスク等の記録媒体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image recognition apparatus for accumulating an object model obtained by converting image information of an object in a database and recognizing the object by referring to the database at the time of image recognition.
[0002]
[Prior art]
With the development of computer networks represented by the Internet, etc., anyone can easily access various information, but on the other hand, a technology to check whether the person who is accessing is authentication technology, that is, authentication technology The importance of. This is because it is necessary to minimize the probability of rejecting the person as the person who misrepresents the person or rejecting the person as the person.
[0003]
One technique that has recently attracted attention in this technical field is an authentication technique based on facial images. This is because, like a fingerprint or a voiceprint, the face is unique to the person, and can be used as a criterion for identification judgment by the progress of image processing technology.
[0004]
Conventionally, various methods have been disclosed for using a face image as a reference for authentication judgment. For example, in Japanese Patent Application No. 11-11020, an environment parameter indicating the state of the shooting environment and a target state parameter value indicating the state of the object are estimated from the input image, and the shooting environment of the input image is calculated using these values. In addition, a technique is disclosed in which recognition is performed using a “collation image” that is corrected so that the state of the object matches the shooting environment of the registered image and the state of the object.
[0005]
The image recognition process using the disclosed environmental parameters and target state parameters will be described below with reference to FIGS. First, FIG. 1 shows the flow of processing in the registration phase of the image recognition processing in the database.
[0006]
In FIG. 1, first, an image to be registered is input (step S11). The image input here may be a single face image taken from the front, but in order to improve recognition accuracy, it is desirable to prepare face images taken from various directions in addition to the front image.
[0007]
Next, a face area is cut out from the input image (step S12), and an image of the face area is obtained (step S13). That is, as shown in FIG. 2, a face area is cut out as a rectangular area on an image to be registered.
[0008]
Then, the obtained face area image is regarded as an N-dimensional vector having each pixel as an element, and the vector is projected onto an n-dimensional (n ≦ N) partial space (step S14), and the projection point is represented as P. In FIG. 2, it is projected onto one point of “sashida”.
[0009]
Further, the environmental parameter value e indicating the state of the shooting environment and the target state parameter value s indicating the state of the object are estimated, and the value and the projection point P are paired and registered in the database (step S15). Here, a general method for estimating the environmental parameter value e indicating the state of the photographing environment and the target state parameter value s indicating the state of the object from the image is not disclosed.
[0010]
Next, FIG. 3 shows the flow of processing in the recognition phase in the image recognition processing. In FIG. 3, the process from the input of the image to the clipping of the face area image (steps S31 to S33) is the same as in the registration phase (steps S11 to S13) shown in FIG.
[0011]
Therefore, the projection onto the partial space is projected onto one point of “sashida” as shown in FIG.
[0012]
On the other hand, an environmental parameter value e indicating the state of the shooting environment and an object state parameter value s indicating the state of the object are estimated from the input image. Next, the parameter value estimated from the input image is adjusted so that the environmental parameter value e of the registered image registered in advance matches the target state parameter value s. By this adjustment, a collation image is generated so that the shooting environment of the input image and the state of the object match the shooting environment of the registered image and the state of the object. This verification image is projected onto the partial space to obtain a point Q (step S34).
[0013]
By doing so, the registered image and the comparison image are compared under the same conditions with respect to the shooting environment such as illumination and the state of the object such as the position and posture. However, there is disclosed a general method for adjusting the parameter value to generate a matching image so that the shooting environment of the input image and the state of the object match the shooting environment of the registered image and the state of the object. Not.
[0014]
Next, the distance between the registered P and Q subspaces is calculated (step S35). For all the registered images, the spatial distance is calculated in the same manner, and the nearest point P is calculated. m Is searched (step S36).
[0015]
Finally, the most recent contact P m Is recognized as corresponding to the input image (step S37).
[0016]
[Problems to be solved by the invention]
However, in the method as described above, (1) estimating an environment parameter value indicating the state of the shooting environment and an object state parameter value indicating the state of the object from the image, and (2) adjusting the parameter value and inputting Despite the point of generating a matching image that matches the shooting environment of the image and the state of the object to the shooting environment of the registered image and the state of the object, these processes are realized. The general method is not known.
[0017]
In Japanese Patent Application No. 11-11020, the illumination parameter among the environmental parameters is estimated from the average value, variance, and histogram of the luminance values of the face area image, and the camera used for photographing as the camera parameter among the environmental parameters. It has been proposed to use the resolution, focus, and exposure. It has also been proposed to estimate the target state parameter using the skin color occupation area in the face region image.
[0018]
However, (1) it is generally difficult to correctly estimate such parameter values. Furthermore, (2) it is difficult to model how the image changes when these parameters change from one or a small number of images. Therefore, it is considered difficult to actually apply the above method to the recognition process.
[0019]
Therefore, since the face image taken from the front is used at the time of image registration, if the orientation of the face is different or the lighting conditions are different at the time of input, the person is assumed to be a misrepresenter or a misrepresentation. There is a problem that a person may be mistakenly recognized as the person.
[0020]
In order to solve the above problems, the present invention provides an image recognition apparatus and method that can accurately perform matching with a registered image without depending on the photographing condition of the input image at the time of image recognition. Objective.
[0021]
[Means for Solving the Problems]
In order to achieve the above object, an image recognition apparatus according to the present invention is obtained by an object modeling execution unit that estimates and models a change in appearance of an object due to a change in a shooting environment, and an object modeling execution unit. An object model registration unit that registers an object model in a database in advance, an image information input unit that inputs image information of an object to be recognized, and an object model registered in advance in the object model registration unit Is a recognition target that is determined to be the most similar among the assigned object models, and a similarity determination unit that assigns a similarity to a registered object model A plurality of images taken by changing the relative position and orientation of the object with respect to the fixed image information input unit in the object modeling execution unit. Inputting image information, and wherein the modeling to estimate the changes in the appearance of the object by Possible shooting environment future changes based on the plurality of the input image information.
[0022]
With this configuration, the registered object model is not affected by changes in appearance due to differences in the posture of the object at the time of object model registration and input image recognition, or changes in appearance due to differences in lighting conditions, etc. It is possible to accurately perform the collation with.
[0023]
In the image recognition apparatus according to the present invention, it is preferable to assume a Lambertian reflection model as the surface characteristics of the object to be recognized. This is because it is easy to predict changes in appearance due to illumination fluctuations.
[0024]
In the image recognition apparatus according to the present invention, in the image information input unit, a part where an object to be recognized exists is cut out from the image, and the object to be recognized is modeled using the cut out partial image. Is preferred. This is because misrecognition due to excess image information can be prevented.
[0025]
In the image recognition apparatus according to the present invention, the image information input unit selects a characteristic small region in the object to be recognized from the image, and includes information included in the selected small region and arrangement information of the small region. It is preferable to model an object to be recognized based on the above. This is because the case where the characteristic portion is partially hidden by the image can be dealt with.
[0026]
Also, when the sample data is small, the image recognition apparatus according to the present invention, in the object modeling execution unit, based on the input image information, changes in the appearance due to the change in the posture of the object and the appearance due to the change in the illumination condition It is preferable to perform modeling by separating the fluctuations of This is because even when the sample data is small, it is possible to accurately estimate the change in appearance.
[0027]
In addition, when there is sufficient sample data, the image recognition apparatus according to the present invention is based on the change in the appearance due to the change in the posture of the object and the change in the illumination condition based on the input image information in the object modeling execution unit. It is preferable to perform modeling without separating the change in appearance. This is because when there is sufficient sample data, it is not necessary to model approximately by separating and modeling, and the change in appearance can be obtained directly.
[0028]
Further, the present invention is characterized by software that executes the functions of the image recognition apparatus as described above as a processing step of a computer. Specifically, the change in appearance of an object due to a change in a shooting environment is estimated. And the step of registering the obtained object model in the database in advance, the step of inputting image information of the object to be recognized, and the object model registered in advance And the process of assigning the similarity to the registered object model, and the type of the object to be recognized that is determined to be the most similar among the assigned object models A plurality of pieces of image information taken by changing the relative position and orientation of the object, and a change in the photographing environment that may occur in the future based on the inputted pieces of image information. Characterized in that an image recognition method and a computer-readable recording medium recorded with such a step as a program for modeling and estimating the change in the appearance of the object by.
[0029]
With this configuration, by loading and executing the program on a computer, changes in appearance due to differences in the posture of the object at the time of object model registration and input image recognition, changes in appearance due to differences in lighting conditions, etc. Therefore, it is possible to realize an image recognition apparatus that can accurately collate with a registered object model without being influenced by the above.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
(Embodiment 1)
Hereinafter, an image recognition apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 5 is a configuration diagram of the image recognition apparatus according to the first embodiment of the present invention. In FIG. 5, 51 is an image information input unit, 52 is an object modeling execution unit, 53 is an object model registration unit, 54 is an object model database, 55 is a similarity determination unit, and 56 is an object recognition unit. , Respectively.
[0031]
In FIG. 5, an image information input unit 51 is a camera that captures an image to be recognized, a scanner that reads a photograph taken by the camera, and the captured image is compressed and stored in a magnetic recording medium. A portion prepared for inputting image information, such as a file reading device, is shown. Based on the image information input from the image information input unit 51, the object modeling execution unit 52 models the object to be recognized.
[0032]
Various methods for modeling image information in the object modeling execution unit 52 are conceivable. For example, Japanese Patent Application No. 11-11020 discloses a method for uniquely representing an object model using feature parameters as described above.
[0033]
However, this modeling method has the following problems. First, since only one image is input for modeling, the same object is photographed at the same camera position due to differences in light source position, illuminance, etc. However, there is a possibility that a possibility of being erroneously recognized as a different object remains.
[0034]
Further, even if the position of the light source, the illuminance, and the like are the same, if the positions of the camera and the object are different, there is a high possibility that the object is recognized as a different object. That is, if the angle of the camera and the distance to the camera are different, the size and angle of the captured image change greatly, and the position in the eigenspace greatly fluctuates so that it is mistakenly recognized as a different object. This is because it is expected that there is a high possibility that the error will occur.
[0035]
In order to solve such a problem, in the present embodiment, at the time of registration, the posture of the object is continuously changed with respect to the fixed image information input unit, and the environmental fluctuation at the time of input is based on the continuous image. That is, it predicts how the image will change due to differences in lighting conditions and the state of the target object (relative posture and relative distance from the camera), and the object model database based on the prediction is used as a subspace. The point is registered in No. 54.
[0036]
Hereinafter, a modeling method in the image recognition apparatus according to the present embodiment will be described with reference to FIGS. 6 and 7. First, FIG. 6 shows the flow of registration phase modeling processing in the image recognition apparatus according to the present embodiment.
[0037]
As shown in FIG. 6, first, an image is input (step S61), but what is input is not a single image itself but a plurality of continuous images. That is, as shown in FIG. 7, even if it is a face image, not only an image photographed from the front but also a continuous image in which the head is gradually shaken is input as an image sequence for registration.
[0038]
Next, with respect to the input image series, each small area is traced with respect to a plurality of continuous images, thereby selecting a series of small areas from a plurality of continuous images (step S62). That is, for the input image series, if it is “eyes”, the small area representing “eyes” is selected as the small area series.
[0039]
Then, a partial space is newly generated based on the selected small region series (step S63). Specifically, as shown in FIG. 7, a partial space is identified for a portion corresponding to a continuous image, for example, an “eye region” if it is a face image, and this is called a window partial space.
[0040]
The window subspace covers the change in the appearance of the small area image caused by the geometrical variation such as the position and orientation of the object and the variation of the illumination position and illuminance. Such window subspaces are identified corresponding to individual regions such as “eye region”, “nose region”,..., And the set is registered in the object model database 54 as an object model ( Step S64).
[0041]
Next, processing for actually recognizing an input image will be described with reference to FIGS. FIG. 8 shows a flowchart of the image recognition process in the image recognition process.
[0042]
In FIG. 8, an image to be referred to in the object model database 54 is input (step S81). Next, a face area is cut out from the image (step S82), and a plurality of small areas (windows) that are characteristic parts are selected from the face area (step S83). As a specific example of the window selection method, a method using the “edge strength” used in the second embodiment in Japanese Patent Application No. 11-11020 can be considered. Then, as shown in FIG. 9, a vector (window vector) having the pixel value of each window as an element is projected onto each window subspace registered in the object model database 54 (step S84).
[0043]
The similarity determination unit 55 calculates the length of the leg of the perpendicular when the window vector is projected onto the window subspace, and defines the similarity between the small region and the window subspace based on the length (step S85). ). Then, a window partial space closest to the small area is found (step S86), and a registered object model having such a partial space is set as a candidate object in the input image. Similar processing is performed for all windows in the input image, and finally the object recognition unit 56 recognizes the result by integrating the results (step S87).
[0044]
In the modeling method in the image recognition apparatus according to the present embodiment, where the light source is located does not matter at the time of modeling. However, it is a necessary condition that the position and angle of the light source are not changed during continuous image shooting. This is because if it changes, predictive calculation of image change with respect to changes in shooting conditions at the time of input becomes difficult.
[0045]
Next, the identification of the window subspace at the time of registration will be described in more detail. First, a surface element Q that is a small region corresponding to a pixel on the object surface. i think of. Area element Q i Is the reflection coefficient a i Is assumed to be a Lambertian surface. Here, the Lambertian surface means a reflecting surface having no specular reflection.
[0046]
In general, even when shooting the same face as when registering, the surface element Q i It is unlikely that the relative relationship between the camera position and the lighting conditions, etc. will coincide with the situation at the time of shooting at the time of registration. Therefore, the pixel value at the corresponding position in the corresponding window also changes due to the change in the photographing condition at the time of input.
[0047]
For example, in the coordinate system in which the window is fixed, the pixel value before the change in the coordinate vector x is I (x), and the pixel value after the change is I ′ (x). Assuming that there is no illumination variation, when the rotation amount, size change amount, etc. are small in the selected window, the movement amount Δx of the corresponding point in the window fixed coordinate system is expressed by (Equation 1). . In (Equation 1), A is a 2 × 2 matrix having affine transformation parameters as elements, d is a 2 × 1 column vector having affine transformation parameters as elements, and in D = IA, I is I Each 2 × 2 unit matrix is shown.
[0048]
[Expression 1]
Figure 0004443722
[0049]
If such Δx is in a very small range, non-rigid deformation that can be approximated by affine transformation can be handled. Assuming that the pixel values are preserved before and after the movement, when Taylor expansion is performed, the pixel value after change I ′ (x) uses the pixel value I (x) before change (Equation 2) It can be approximated as follows.
[0050]
[Expression 2]
Figure 0004443722
[0051]
Accordingly, since the pixel value after change I ′ (x) can be expressed as (Equation 3) using the pixel value before change as I (x), the second term on the right side can be expressed only as a geometric change. Variation vector ΔI of each pixel value in the window based on g As shown in (Equation 4).
[0052]
[Equation 3]
Figure 0004443722
[0053]
[Expression 4]
Figure 0004443722
[0054]
From the above, the variation vector ΔI g Is 6 and the subspace in the window image space can be expressed by the following six basis vectors ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 Can be stretched with.
[0055]
[Equation 5]
Figure 0004443722
[0056]
On the other hand, considering the case where only the lighting conditions change, the surface element Q i Luminous intensity L toward the lens i Can be expressed as (Equation 6). Where the vector n i Is surface element Q i Means a normal vector and vector s means a ray vector.
[0057]
[Formula 6]
Figure 0004443722
[0058]
Assuming that the aperture area of the photo detector to be photographed is b, the photoelectric conversion characteristic of the CCD is linear, and the proportionality constant is k, the pixel value I (x i ) Can be expressed as (Equation 7).
[0059]
[Expression 7]
Figure 0004443722
[0060]
Here, d is a lens diameter, f is a focal length, a vector u is a unit vector in the optical axis direction, and a vector v is a surface element Q i This means a unit vector from to the center of the lens.
[0061]
In (Equation 7), the vectors u, bk, f, d are constant unless the camera is changed, and if the window is sufficiently small, the vector v is considered to be the same for all pixels in the window, Since the vector s is also considered to be the same for all pixels in the window, the pixel value I (x i ) Is the normal vector n of the corresponding surface element i The reflection coefficient a of the surface element i Vector a multiplied by i n i = (A i n ix , A i n iy , A i n iz ) T And the vector s are multiplied by a common coefficient.
[0062]
Therefore, the pixel value I (x i ) Is the vector a i n i The variation of the window image vector in the case of only the illumination variation is the following three basis vectors ν that can be expressed by (Equation 8). x , Ν y , Ν z It can be represented by a three-dimensional subspace that can be stretched with.
[0063]
[Equation 8]
Figure 0004443722
[0064]
Therefore, the illumination condition changes or the pixel Q i Vector ω when the relative relationship between camera position and camera position changes 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 , Ν x , Ν y , Ν z Fluctuates within a 9-dimensional subspace formed by. Therefore, pixel Q i By obtaining sufficient sample data for the case where the relative relationship between the camera position and the camera position changes, it becomes possible to identify a 9-dimensional window subspace using KL transformation.
[0065]
As an example, with the camera and lighting fixed, the surface element Q i A case where the relative relationship between the camera position and the camera position changes will be described. First, surface element Q i Move without changing the shape, and as a result, the normal vector n changes to (n + Δn) and the unit vector v to the lens center changes to (v + Δv). The projection position of the surface element Q is also a vector x t And moved from x to x.
[0066]
In addition, surface element Q i Is also the vector x i ^ To x i Suppose you have moved to. Changed surface element Q i Surface radiation intensity L toward the lens i 'Can be expressed as (Equation 9) using (Equation 6).
[0067]
[Equation 9]
Figure 0004443722
[0068]
Therefore, by obtaining the irradiance of the corresponding pixel, the pixel value I ′ (x i ) Can be expressed as (Equation 10). Where ΔI v Is a change amount vector of each pixel value in the window based on a relative position change with the camera, and ΔI n Is a change amount vector of each pixel value in the window based on a change in illumination condition due to a change in relative position with the camera.
[0069]
[Expression 10]
Figure 0004443722
[0070]
Here, considering the relationship (Formula 4) of the change in the pixel value due only to the relative change between the object and the camera position, I (x i ^) = I (x) + ΔI g (Equation 10) can be expressed as (Equation 11).
[0071]
## EQU11 ##
Figure 0004443722
[0072]
Where ΔI g Has a degree of freedom of '6' whereas ΔI n And ΔI v Has a degree of freedom of '3' and ΔI n And ΔI v After all, the subspaces mean the same subspace, so that the variation range of the variation vector ΔI = I ′ (x) −I (x) may be within the maximum 9-dimensional subspace. Recognize.
[0073]
In this case, it is practically difficult to acquire sufficient sample data for geometrical changes represented by size changes and object rotation. However, the vector ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 The subspace corresponding to the geometric variation formed by (hereinafter referred to as “geometric variation subspace”) can be estimated from only one small region.
[0074]
Therefore, based on the sample data, first, a geometric fluctuation subspace is obtained, and a distribution of components obtained by removing the components of the obtained geometric fluctuation subspace is obtained. By KL transforming this distribution, ν x , Ν y , Ν z The subspace corresponding to the photometric variation formed by the above (hereinafter referred to as “photometric variation subspace”) can be obtained. By doing so, it is possible to represent an arbitrary subspace using a geometric variation subspace and a photometric variation subspace.
[0075]
In addition, there are roughly two methods for identifying subspaces. One is a method that assumes that the geometric variation subspace and the photometric variation subspace are orthogonal, and the other is the geometric variation subspace and the photometric variation subspace that are used when there is sufficient sample data. It is a method of direct identification without dividing.
[0076]
First, a method for assuming that the geometric variation subspace and the photometric variation subspace are orthogonal to each other will be described. First, collection of sample data relating to a face image is performed by having the registration subject shake his / her head and changing the posture of the face.
[0077]
The reference small region is based on the average position of the data point distribution in one small region change series plotted in the small region space or the center of the fluctuation range, and the reference small region vector x s Save as. This standard is based on the fact that the sample data includes false data, the original part due to the limitations of the linear approximation of geometric deformation, the deviation from the assumption of the lambastian surface, or the presence of noise. This is because some data deviates from the space.
[0078]
The obtained reference small region vector x s From the vector ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 Is calculated based on (Equation 5). The differentiation of the pixel value is approximately calculated by convolution of a Sobel filter.
[0079]
Thus the vector ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 Is obtained, the geometrical variation subspace vector Ω can be identified. However, since these vectors are not necessarily linearly independent, the matrix G = [ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 ] T By singular value decomposition, the orthonormal basis vector u of the subspace vector Ω p (1 ≦ p ≦ 6) is obtained. p is the rank of the matrix G.
[0080]
Next, a component orthogonal to the geometric variation subspace Ω of an arbitrary window image vector x can be obtained according to FIG. In FIG. 10, the reference image vector of the geometric variation subspace Ω is represented by x. s And vector x and vector x s A vector x ′ is obtained by orthogonally projecting the difference between and the geometrical variation subspace Ω.
[0081]
The orthogonal projection matrix P of the geometric variation subspace Ω is an orthonormal basis vector u p Using (1 ≦ p ≦ 6), it can be expressed as (Equation 12).
[0082]
[Expression 12]
Figure 0004443722
[0083]
From the vector relationship of FIG. 6, x ′ = P * (xx s ). Here, the symbol “*” means multiplication of a matrix and a vector.
[0084]
On the other hand, the orthogonal complement space Ω of the geometrical variation subspace Ω T Since the orthogonal projection matrix Q can be expressed as Q = I−P (I is a unit matrix), the component orthogonal to the geometrical variation subspace Ω of any small region vector x is (xx s ) −x ′ = Q * (xx s ).
[0085]
Q * (xx) s ) To identify the photometric variation subspace Ψ. First, all the small region vectors x belonging to the small region change series j To y j = Q * (x j -X s ) (J is a natural number of 1 ≦ j). Then, the autocorrelation matrix R of the vector y is obtained by (Equation 13).
[0086]
[Formula 13]
Figure 0004443722
[0087]
Eigenvalues / eigenvectors of the obtained matrix R are obtained, and in descending order, λ 1 , Λ 2 ..Λ N And the orthonormal eigenvector corresponding to each eigenvalue is v 1 , V 2 , ..., v N And Here, if the ratio that the value obtained by adding eigenvalues up to a predetermined number n in descending order to the total of eigenvalues is defined as the cumulative contribution ratio, q (number) when the cumulative contribution ratio exceeds a predetermined threshold value Is defined as the number of dimensions of the subspace. Therefore, the orthonormal basis vector of the photometric variation subspace Ψ is v 1 , V 2 , ..., v q It becomes.
[0088]
In this way, the geometric variation subspace Ω and the photometric variation subspace Ψ are identified, and the environment variation subspace Γ and the window subspace Λ are identified by vector combination thereof. That is, it can be expressed as (Equation 14).
[0089]
(Equation 14)
Γ = Ω + Ψ
Λ = x s + Γ
[0090]
Therefore, the orthonormal basis vector of the environment variation subspace Γ is a matrix U = [u that is an array of orthonormal basis vectors of the geometric variation subspace Ω. 1 , U 2 , ..., u p ] And a matrix V = [v] in which orthonormal basis vectors of the photometric variation subspace Ψ are arranged. 1 , V 2 , ..., v q ]become. Therefore, the vector w i = U i (I is a natural number of 1 ≦ i ≦ p), vector w p + j = V j (Where j is a natural number of 1 ≦ j ≦ q), a matrix W = [w 1 , W 2 , ..., w r ] (R = p + q) is determined, it is possible to determine a subspace as the environment-variable subspace Γ.
[0091]
Next, when there is sufficient sample data, a method of directly identifying the subspace without using the geometrically varying subspace and the photometrically varying subspace is used.
[0092]
In this method, sample data collection and reference small area determination methods are the same as those described above. The identification of the subspace is the vector (xx s ) From the distribution of) by direct KL expansion.
[0093]
First, all the small region vectors x belonging to the small region change series j To y j = Q * (x j -X s ) (J is a natural number of 1 ≦ j ≦ M). Then, the autocorrelation matrix R of the vector y is obtained by (Equation 13) in the same manner as the method assuming that the geometric variation subspace and the photometric variation subspace are orthogonal.
[0094]
Eigenvalues / eigenvectors of the obtained matrix R are obtained, and in descending order, λ 1 , Λ 2 ..Λ N And the orthonormal eigenvector corresponding to each eigenvalue is v 1 , V 2 , ..., v N And Here, if the ratio that the value obtained by adding eigenvalues up to a predetermined number n in descending order to the total of eigenvalues is defined as the cumulative contribution ratio, r (number) when the cumulative contribution ratio exceeds a predetermined threshold value Is defined as the number of dimensions of the subspace. Therefore, a matrix W = [w where the orthonormal basis vectors of the environmental variation subspace Γ are arranged. 1 , W 2 , ..., w r ], The subspace can be determined.
[0095]
Thus, the collation between the input image and the registered object model identifies the subspace closest to the input image by identifying the object model using any of the methods described above. Is done by.
[0096]
As described above, according to the present embodiment, it depends on the change in the appearance due to the difference in the posture of the object during the registration of the object model and the recognition of the input image, the change in the appearance due to the difference in illumination conditions, and the like. In addition, it is possible to accurately collate with the registered object model.
[0097]
The recording medium storing the program for realizing the image recognition apparatus according to the embodiment of the present invention is a CD-ROM 112-1, a floppy disk 112-2, or the like as shown in the example of the recording medium shown in FIG. Not only the portable recording medium 112 but also any other storage device 111 provided at the end of the communication line, or a recording medium 114 such as a hard disk or RAM of the computer 113, the program is loaded when the program is executed. Runs on memory.
[0098]
Further, a recording medium on which object model data generated by the image recognition apparatus according to the embodiment of the present invention is recorded is also a CD-ROM 112-1 or floppy disk 112 as shown in the example of the recording medium shown in FIG. 2 may be any of the other storage device 111 provided at the end of the communication line, the recording medium 114 such as a hard disk or a RAM of the computer 113, for example, the image according to the present invention. It is read by the computer 113 when using the recognition device.
[0099]
【The invention's effect】
As described above, according to the image recognition apparatus of the present invention, the appearance change due to the difference in the posture of the object during registration of the object model and the input image recognition, the change in the appearance due to the difference in illumination conditions, etc. Therefore, it is possible to accurately collate with the registered object model.
[Brief description of the drawings]
FIG. 1 is a flowchart of object model registration processing in a conventional image recognition apparatus.
FIG. 2 is a conceptual diagram of object model registration processing in a conventional image recognition apparatus.
FIG. 3 is a flowchart of processing in a conventional image recognition apparatus.
FIG. 4 is a conceptual diagram of processing in a conventional image recognition apparatus.
FIG. 5 is a block diagram of an image recognition apparatus according to an embodiment of the present invention.
FIG. 6 is a flowchart of object model registration processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 7 is a conceptual diagram of object model registration processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 8 is a flowchart of processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 9 is a conceptual diagram of processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 10 is an explanatory diagram of how to obtain a small region vector orthogonal to a geometrical variation subspace.
FIG. 11 is an exemplary diagram of a recording medium.
[Explanation of symbols]
51 Image information input section
52 Object Modeling Execution Unit
53 Object Model Registration Unit
54 Object Model Database
55 Similarity judgment section
56 Object recognition unit
111 Line destination storage device
112 Portable recording media such as CD-ROM and floppy disk
112-1 CD-ROM
112-2 Floppy disk
113 computer
114 Recording medium such as RAM / hard disk on computer

Claims (8)

撮影環境の変動による物体の見え方の変化を推定してモデル化する物体モデル化実行部と、
前記物体モデル化実行部において得られた物体モデルを事前にデータベースへ登録しておく物体モデル登録部とを有し、
認識対象となる物体の画像情報を入力する画像情報入力部と、
前記物体モデル登録部において事前に登録されている前記物体モデルと入力された前記画像情報を照合して、登録されている前記物体モデルとの類似度を割り当てる類似度判断部と、
割り当てられた前記物体モデルの中で最も類似していると判断された前記認識対象となる物体の種別を出力する物体認識部とを含み、
前記物体モデル化実行部において、物体のカメラに対する相対的な位置及び姿勢を変化させて連続して撮影した複数の画像を入力し、前記複数の画像それぞれに連続して含まれる複数の小領域を選択して追跡することにより、それぞれの小領域を、小領域の系列として選択し、該選択された小領域の系列に基づいて、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動および照明条件の相異による前記物体の見え方の変動をカバーする部分空間を同定し、該同定したそれぞれの小領域の部分空間を1セットにして物体モデルとして生成することを特徴とする画像認識装置。
An object modeling execution unit that estimates and models changes in the appearance of objects due to changes in the shooting environment;
An object model registration unit that registers the object model obtained in the object modeling execution unit in a database in advance,
An image information input unit for inputting image information of an object to be recognized;
A similarity determination unit that collates the object model registered in advance in the object model registration unit with the input image information and assigns a similarity to the registered object model;
An object recognition unit that outputs a type of the object to be recognized that is determined to be the most similar among the assigned object models,
In the object modeling execution unit, a plurality of images continuously captured by changing a relative position and orientation of the object with respect to the camera are input, and a plurality of small regions continuously included in each of the plurality of images are input. By selecting and tracking, each small area is selected as a series of small areas, and based on the selected series of small areas, the difference in the posture of the object at the time of object model registration and input image recognition Identifying a subspace that covers the change in the appearance due to the difference in the appearance and the change in the appearance of the object due to the difference in the illumination conditions , and generating a set of the subspaces of each of the identified small regions as an object model. A featured image recognition apparatus.
前記認識対象となる物体の表面特性としてランバーシャン反射モデルを仮定して、前記部分空間を同定する請求項1記載の画像認識装置。  The image recognition apparatus according to claim 1, wherein the partial space is identified assuming a Lambertian reflection model as a surface characteristic of the object to be recognized. 前記画像情報入力部において、画像から前記認識対象となる物体が存在する部分を切り出し、切り出された部分画像を用いて前記認識対象となる物体のモデル化を行う請求項1記載の画像認識装置。  The image recognition apparatus according to claim 1, wherein the image information input unit cuts out a portion where the object to be recognized exists from an image, and models the object to be recognized using the cut-out partial image. 前記画像情報入力部において、画像から前記認識対象となる物体中の特徴的な小領域を選択し、選択された前記小領域に含まれる情報と前記小領域の配置情報に基づいて前記認識対象となる物体のモデル化を行う請求項1記載の画像認識装置。  In the image information input unit, a characteristic small region in the object to be recognized is selected from an image, and the recognition target is determined based on information included in the selected small region and arrangement information of the small region. The image recognition apparatus according to claim 1, wherein modeling of an object is performed. 入力された前記画像情報に基づいて、前記物体の姿勢変化による見え方の変動と照明条件の変化による見え方の変動とを分離してモデル化を行う請求項1から4のいずれか一項に記載の画像認識装置。  5. The modeling is performed by separating a change in appearance due to a change in posture of the object and a change in appearance due to a change in illumination conditions based on the input image information. The image recognition apparatus described. 前記物体モデル化実行部において、前記小領域の系列に属する小領域ベクトルから、KL展開することによって、前記物体の姿勢変化及び照明条件の変化による画素の見え方の変動をカバーする部分空間を同定する、請求項1から4のいずれか一項に記載の画像認識装置。  The object modeling execution unit identifies a partial space that covers pixel appearance variations due to changes in the posture of the object and changes in illumination conditions by performing KL expansion from the small region vectors belonging to the small region series. The image recognition apparatus according to any one of claims 1 to 4. 撮影環境の変動による物体の見え方の変化を推定してモデル化する工程と、
得られた物体モデルを事前にデータベースへ登録しておく工程とを有し、
認識対象となる物体の画像情報を入力する工程と、
事前に登録されている前記物体モデルと入力された前記画像情報を照合して、登録されている前記物体モデルとの類似度を割り当てる工程と、
割り当てられた前記物体モデルの中で最も類似していると判断された前記認識対象となる物体の種別を出力する工程とを含み、
前記モデル化の工程において、前記物体のカメラに対する相対的な位置及び姿勢を変化させて連続して撮影した複数の画像を入力し、前記複数の画像それぞれに連続して含まれる複数の小領域を選択して追跡することにより、それぞれの小領域を、小領域の系列として選択し、該選択された小領域の系列に基づいて、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動および照明条件の相異による前記物体の見え方の変動をカバーする部分空間を同定し、該同定したそれぞれの小領域の部分空間を1セットにして物体モデルとして生成することを特徴とする画像認識方法。
Estimating and modeling changes in the appearance of objects due to changes in the shooting environment;
A step of registering the obtained object model in the database in advance,
Inputting image information of an object to be recognized;
Collating the object model registered in advance with the input image information and assigning a similarity to the registered object model;
Outputting the type of the object to be recognized that is determined to be the most similar among the assigned object models,
In the modeling step, a plurality of images continuously captured by changing a relative position and orientation of the object with respect to the camera are input, and a plurality of small regions continuously included in each of the plurality of images are input. By selecting and tracking, each small area is selected as a series of small areas, and based on the selected series of small areas, the difference in the posture of the object at the time of object model registration and input image recognition A subspace that covers the change in the appearance due to the difference in the appearance and the change in the appearance of the object due to the difference in the illumination conditions , and generates a set of the subspaces of the identified small regions as an object model. A featured image recognition method.
撮影環境の変動による物体の見え方の変化を推定してモデル化する処理と、
得られた物体モデルを事前にデータベースへ登録しておく処理とを有し、
認識対象となる物体の画像情報を入力する処理と、
事前に登録されている前記物体モデルと入力された前記画像情報を照合して、登録されている前記物体モデルとの類似度を割り当てる処理と、
割り当てられた前記物体モデルの中で最も類似していると判断された前記認識対象となる物体の種別を出力する処理とをコンピュータに実行させ、
前記モデル化する処理は、前記物体のカメラに対する相対的な位置及び姿勢を変化させて撮影した複数の画像を入力し、前記複数の画像それぞれに連続して含まれる複数の小領域を選択して追跡することにより、それぞれの小領域を、小領域の系列として選択し、該選択された小領域の系列に基づいて、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動および照明条件の相異による前記物体の見え方の変動をカバーする部分空間を同定し、該同定したそれぞれの小領域の部分空間を1セットにして物体モデルとして生成する処理である、プログラムを記録したコンピュータ読み取り可能な記録媒体。
Processing to estimate and model changes in the appearance of objects due to changes in the shooting environment,
Processing to register the obtained object model in the database in advance,
A process of inputting image information of an object to be recognized;
A process of matching the object model registered in advance with the input image information and assigning a similarity to the registered object model;
Causing the computer to execute a process of outputting the type of the object to be recognized that is determined to be the most similar among the assigned object models,
The modeling process inputs a plurality of images taken by changing the relative position and orientation of the object with respect to the camera, and selects a plurality of small regions continuously included in each of the plurality of images. By tracking, each small area is selected as a series of small areas, and based on the selected series of small areas, the appearance due to the difference in the posture of the object at the time of object model registration and input image recognition Is a process of identifying a subspace that covers the change in the appearance of the object due to a variation in illumination and a difference in illumination conditions, and generating a partial space of each identified small region as a set as an object model A computer-readable recording medium on which is recorded.
JP2000123604A 2000-04-25 2000-04-25 Image recognition apparatus and method Expired - Fee Related JP4443722B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000123604A JP4443722B2 (en) 2000-04-25 2000-04-25 Image recognition apparatus and method
US09/772,924 US6888955B2 (en) 2000-04-25 2001-01-31 Picture recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000123604A JP4443722B2 (en) 2000-04-25 2000-04-25 Image recognition apparatus and method

Publications (2)

Publication Number Publication Date
JP2001307096A JP2001307096A (en) 2001-11-02
JP4443722B2 true JP4443722B2 (en) 2010-03-31

Family

ID=18633881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000123604A Expired - Fee Related JP4443722B2 (en) 2000-04-25 2000-04-25 Image recognition apparatus and method

Country Status (2)

Country Link
US (1) US6888955B2 (en)
JP (1) JP4443722B2 (en)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130454B1 (en) * 1998-07-20 2006-10-31 Viisage Technology, Inc. Real-time facial recognition and verification system
CA2427719A1 (en) * 2001-09-25 2003-05-01 Matsushita Electric Industrial Co., Ltd. Parameter estimation apparatus and data matching apparatus
JP3903783B2 (en) 2001-12-14 2007-04-11 日本電気株式会社 Face metadata generation method and apparatus, and face similarity calculation method and apparatus
JP4161659B2 (en) 2002-02-27 2008-10-08 日本電気株式会社 Image recognition system, recognition method thereof, and program
JP2008217803A (en) * 2002-02-27 2008-09-18 Nec Corp Image recognition system and recognition method thereof, and program
JP3873793B2 (en) * 2002-03-29 2007-01-24 日本電気株式会社 Face metadata generation method and face metadata generation apparatus
JP2004030122A (en) * 2002-06-25 2004-01-29 Fujitsu Ltd Drawing retrieval support device and method for retrieving drawing
JP2004213087A (en) * 2002-12-26 2004-07-29 Toshiba Corp Device and method for personal identification
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
EP1639522B1 (en) 2003-06-30 2007-08-15 HONDA MOTOR CO., Ltd. System and method for face recognition
US20060030985A1 (en) * 2003-10-24 2006-02-09 Active Recognition Technologies Inc., Vehicle recognition using multiple metrics
WO2006002320A2 (en) * 2004-06-23 2006-01-05 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
WO2010042486A1 (en) 2008-10-07 2010-04-15 Euclid Discoveries, Llc Feature-based video compression
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US7508990B2 (en) * 2004-07-30 2009-03-24 Euclid Discoveries, Llc Apparatus and method for processing video data
US8902971B2 (en) 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US20060120571A1 (en) * 2004-12-03 2006-06-08 Tu Peter H System and method for passive face recognition
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
WO2006138525A2 (en) 2005-06-16 2006-12-28 Strider Labs System and method for recognition in 2d images using 3d class models
US7965875B2 (en) 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
CN102685441A (en) 2007-01-23 2012-09-19 欧几里得发现有限责任公司 Systems and methods for providing personal video services
EP2106663A2 (en) 2007-01-23 2009-10-07 Euclid Discoveries, LLC Object archival systems and methods
EP2130381A2 (en) 2007-01-23 2009-12-09 Euclid Discoveries, LLC Computer method and apparatus for processing image data
DE602008001607D1 (en) 2007-02-28 2010-08-05 Fotonation Vision Ltd SEPARATION OF DIRECTIONAL ILLUMINATION VARIABILITY IN STATISTICAL FACE MODELING BASED ON TEXTURE SPACE MODULES
KR101247147B1 (en) 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 Face searching and detection in a digital image acquisition device
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
JP5355873B2 (en) * 2007-08-24 2013-11-27 株式会社ユニバーサルエンターテインメント Image processing apparatus and system
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
KR101446975B1 (en) 2008-07-30 2014-10-06 디지털옵틱스 코포레이션 유럽 리미티드 Automatic face and skin beautification using face detection
JP4497236B2 (en) 2008-08-11 2010-07-07 オムロン株式会社 Detection information registration device, electronic device, detection information registration device control method, electronic device control method, detection information registration device control program, electronic device control program
US8633999B2 (en) * 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
JP5524692B2 (en) * 2010-04-20 2014-06-18 富士フイルム株式会社 Information processing apparatus and method, and program
CN103003814A (en) * 2010-05-14 2013-03-27 数据逻辑Adc公司 Systems and methods for object recognition using a large database
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
JP5923723B2 (en) * 2011-06-02 2016-05-25 パナソニックIpマネジメント株式会社 Person attribute estimation system, person attribute estimation apparatus, and person attribute estimation method
JP6013178B2 (en) * 2012-12-28 2016-10-25 株式会社東芝 Image processing apparatus and image processing method
WO2015001856A1 (en) * 2013-07-01 2015-01-08 Necソリューションイノベータ株式会社 Attribute estimation system
US9514354B2 (en) * 2013-12-18 2016-12-06 International Business Machines Corporation Facial analysis by synthesis and biometric matching
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
CN108931209B (en) * 2018-05-04 2019-12-31 长春理工大学 High-adaptability three-dimensional reconstruction method for colored object
CN109492121A (en) * 2018-09-30 2019-03-19 深圳壹账通智能科技有限公司 Method, apparatus, server and the storage medium of intelligent recognition picture
CN110532113B (en) * 2019-08-30 2023-03-24 北京地平线机器人技术研发有限公司 Information processing method and device, computer readable storage medium and electronic equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US5828769A (en) * 1996-10-23 1998-10-27 Autodesk, Inc. Method and apparatus for recognition of objects via position and orientation consensus of local image encoding
US5815325A (en) * 1996-10-31 1998-09-29 Eastman Kodak Company Optical assembly with drive linkage for a movable lens element
JPH10228543A (en) 1996-12-11 1998-08-25 Matsushita Electric Ind Co Ltd Pattern collating device
JP3577908B2 (en) 1997-09-04 2004-10-20 富士通株式会社 Face image recognition system
JP2000306095A (en) 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system

Also Published As

Publication number Publication date
JP2001307096A (en) 2001-11-02
US6888955B2 (en) 2005-05-03
US20010038714A1 (en) 2001-11-08

Similar Documents

Publication Publication Date Title
JP4443722B2 (en) Image recognition apparatus and method
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
JP4353246B2 (en) Normal information estimation device, registered image group creation device, image collation device, and normal information estimation method
JP4556873B2 (en) Image collation system and image collation method
EP1811456B1 (en) Face feature point detector and feature point detector
JP6544900B2 (en) Object identification device, object identification method and program
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
US7856122B2 (en) Method and device for collating biometric information
US8542887B2 (en) Object identification apparatus and object identification method
US7925093B2 (en) Image recognition apparatus
US20060204103A1 (en) Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program
MX2012010602A (en) Face recognizing apparatus, and face recognizing method.
JP5241606B2 (en) Object identification device and object identification method
JP2008251039A (en) Image recognition system, recognition method thereof and program
Zhou et al. Automatic landmark location with a combined active shape model
Sahbi et al. Robust face recognition using dynamic space warping
JP3577908B2 (en) Face image recognition system
JP2001092963A (en) Method and device for collating image
JP5653003B2 (en) Object identification device and object identification method
JP4816874B2 (en) Parameter learning apparatus, parameter learning method, and program
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
JP2008015871A (en) Authentication device and authenticating method
JP4446383B2 (en) Image processing apparatus and image recognition apparatus
JP4789526B2 (en) Image processing apparatus and image processing method
JP7103443B2 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100113

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140122

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees