JP4443722B2 - Image recognition apparatus and method - Google Patents
Image recognition apparatus and method Download PDFInfo
- Publication number
- JP4443722B2 JP4443722B2 JP2000123604A JP2000123604A JP4443722B2 JP 4443722 B2 JP4443722 B2 JP 4443722B2 JP 2000123604 A JP2000123604 A JP 2000123604A JP 2000123604 A JP2000123604 A JP 2000123604A JP 4443722 B2 JP4443722 B2 JP 4443722B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- appearance
- change
- object model
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7557—Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、物体の画像情報を変換した物体モデルをデータベースに蓄積し、画像認識時にデータベースを照会して物体を認識する画像認識装置に関する。
【0002】
【従来の技術】
インターネット等に代表されるコンピュータネットワークの進展に伴い、誰でも容易に様々な情報へアクセスすることができるようになった反面、アクセスしているのが本人であるかどうか確認する技術、すなわち認証技術の重要性が高まっている。詐称者を本人と誤らない、あるいは本人を詐称者として棄却する確率を最小限にする必要があるからである。
【0003】
かかる技術分野で最近注目されている技術の一つが、顔の画像による認証技術である。顔は指紋や声紋と同様、本人に固有のものだからであり、画像処理技術の進展によって識別判断の基準として用いる対象となりうるからである。
【0004】
顔画像を認証判断の基準とする方法については、従来から種々の方法が開示されている。例えば、特願平11−110020号においては、入力画像から撮影環境の状態を示す環境パラメータと対象物の状態を示す対象状態パラメータ値とを推定し、その値を用いて、入力画像の撮影環境及び対象物の状態が登録画像の撮影環境及び対象物の状態に一致するように補正した「照合用画像」を用いて認識を行う技術が開示されている。
【0005】
以下、開示されている環境パラメータ及び対象状態パラメータを用いた当該画像認識処理について図1から図4を参照しながら説明する。まず図1は、当該画像認識処理のデータベースへの登録フェーズにおける処理の流れを示す。
【0006】
図1において、まず登録対象となる画像を入力する(ステップS11)。ここでの画像入力は、正面から撮影した顔画像1枚で良いが、認識精度を高めるためには、正面画像の他に、様々な方向から撮影した顔画像を用意することが望ましい。
【0007】
次に、入力した画像から、顔領域を切り出して(ステップS12)、顔領域の画像を得る(ステップS13)。すなわち、図2に示すように、登録対象となる画像上で顔領域を矩形領域で切り出す。
【0008】
そして、得られた顔領域画像を各ピクセルを要素に持つN次元ベクトルとみなし、そのベクトルをn次元(n≦N)の部分空間に射影し(ステップS14)、その射影点をPと表す。図2では、「sashida」の1点に射影されている。
【0009】
さらに、撮影環境の状態を示す環境パラメータ値e、対象物の状態を表す対象状態パラメータ値sを推定し、その値と射影点Pとをペアにしてデータベースに登録する(ステップS15)。ここで、画像から撮影環境の状態を示す環境パラメータ値e、対象物の状態を表す対象状態パラメータ値sを推定する一般性のある方法は開示されていない。
【0010】
次に、図3は当該画像認識処理における認識フェーズにおける処理の流れを示している。図3において、画像の入力から顔領域画像の切り出しまで(ステップS31〜ステップS33)は、図1に示した登録フェーズの場合(ステップS11〜ステップS13)と同様になる。
【0011】
したがって、部分空間への射影は、図4に示すように「sashida」の1点に射影される。
【0012】
一方、入力画像から撮影環境の状態を示す環境パラメータ値eと対象物の状態を表す対象状態パラメータ値sを推定する。次に、あらかじめ登録されている登録画像の環境パラメータ値eと対象状態パラメータ値sと一致するように、入力画像から推定したパラメータ値を調整する。この調整によって、入力画像の撮影環境及び対象物の状態が、登録画像の撮影環境及び対象物の状態に一致するような照合用画像を生成する。この照合用画像を部分空間に射影して点Qを得る(ステップS34)。
【0013】
そうすることで、登録画像と照合用画像とは、照明等の撮影環境、対象物の位置や姿勢等の状態について同一条件で比較することになる。しかし、パラメータ値を調整して、入力画像の撮影環境及び対象物の状態が、登録画像の撮影環境及び対象物の状態に一致するような照合用画像を生成する一般性のある方法は開示されていない。
【0014】
次に、登録されているPとQの部分空間上での距離を計算する(ステップS35)。登録画像すべてについて、同様にして当該空間的距離を算出して、最近接点Pmを探す(ステップS36)。
【0015】
最後に、最近接点Pmに該当する登録画像を入力画像に対応するものとして認識することになる(ステップS37)。
【0016】
【発明が解決しようとする課題】
しかし、上述したような方法では、(1)画像から撮影環境の状態を示す環境パラメータ値、対象物の状態を表す対象状態パラメータ値を推定すること、(2)パラメータ値を調整して、入力画像の撮影環境及び対象物の状態が、登録画像の撮影環境及び対象物の状態に一致するような照合用画像を生成することがポイントとなっているにもかかわらず、これらの処理を実現する一般的な方法は知られていない。
【0017】
特願平11−110020号においては、環境パラメータのうち照明パラメータを、顔領域画像の輝度値の平均値、分散、ヒストグラムから推定することや、環境パラメータのうちカメラパラメータとして、撮影に利用したカメラの解像度や、フォーカス、露出を用いることが提案されている。また、対象状態パラメータを、顔領域画像内の肌色占有面積を利用して推定することが提案されている。
【0018】
しかし、(1)このようなパラメータ値を正しく推定することは一般に困難である。さらに、(2)1枚あるいは少数の画像からこれらのパラメータが変化したときに画像がどのように変化するかをモデル化することも困難である。したがって、上述の方法を実際に認識処理に適用するのは困難であると考えられる。
【0019】
そのため、画像登録時に正面から撮影した顔画像を利用していることから、入力時に顔の向きが異なっていたり、照明条件が異なっている場合には、本人を詐称者であるものとして、あるいは詐称者を本人であるものとして誤認識する可能性があるという問題点があった。
【0020】
本発明は、上記問題点を解消するために、画像認識時における入力画像の撮影条件に依存せずに、登録画像との照合を精度良く行うことができる画像認識装置及び方法を提供することを目的とする。
【0021】
【課題を解決するための手段】
上記目的を達成するために本発明にかかる画像認識装置は、撮影環境の変動による物体の見え方の変化を推定してモデル化する物体モデル化実行部と、物体モデル化実行部において得られた物体モデルを事前にデータベースへ登録しておく物体モデル登録部とを有し、認識対象となる物体の画像情報を入力する画像情報入力部と、物体モデル登録部において事前に登録されている物体モデルと入力された画像情報を照合して、登録されている物体モデルとの類似度を割り当てる類似度判断部と、割り当てられた物体モデルの中で最も類似していると判断された認識対象となる物体の種別を出力する物体認識部とを含み、物体モデル化実行部において、固定された画像情報入力部に対する物体の相対的な位置及び姿勢を変化させて撮影した複数の画像情報を入力し、入力された複数の画像情報に基づいて将来起こりうる撮影環境変動による物体の見え方の変化を推定してモデル化することを特徴とする。
【0022】
かかる構成により、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことが可能となる。
【0023】
また、本発明にかかる画像認識装置は、認識対象となる物体の表面特性としてランバーシャン反射モデルを仮定することが好ましい。照明変動による見え方の変動を予測しやすいからである。
【0024】
また、本発明にかかる画像認識装置は、画像情報入力部において、画像から認識対象となる物体が存在する部分を切り出し、切り出された部分画像を用いて認識対象となる物体のモデル化を行うことが好ましい。余分な画像情報による誤認識を防止することができるからである。
【0025】
また、本発明にかかる画像認識装置は、画像情報入力部において、画像から認識対象となる物体中の特徴的な小領域を選択し、選択された小領域に含まれる情報と小領域の配置情報に基づいて認識対象となる物体のモデル化を行うことが好ましい。特徴部分が画像によって部分的に隠された状態となっている場合も対応することができるからである。
【0026】
また、サンプルデータが少ない場合、本発明にかかる画像認識装置は、物体モデル化実行部において、入力された画像情報に基づいて、物体の姿勢変化による見え方の変動と照明条件の変化による見え方の変動とを分離してモデル化を行うことが好ましい。サンプルデータが少ない場合であっても、正確に見え方の変動を推定することができるからである。
【0027】
また、サンプルデータが十分に有る場合、本発明にかかる画像認識装置は、物体モデル化実行部において、入力された画像情報に基づいて、物体の姿勢変化による見え方の変動と照明条件の変化による見え方の変動とを分離せずにモデル化を行うことが好ましい。サンプルデータが十分にある場合においては、あえて分離してモデル化を行うことによって、近似的にモデル化する必要はなく、直接的に見え方の変動を求めることができるからである。
【0028】
また、本発明は、上記のような画像認識装置の機能をコンピュータの処理ステップとして実行するソフトウェアを特徴とするものであり、具体的には、撮影環境の変動による物体の見え方の変化を推定してモデル化する工程と、得られた物体モデルを事前にデータベースへ登録しておく工程とを有し、認識対象となる物体の画像情報を入力する工程と、事前に登録されている物体モデルと入力された画像情報を照合して、登録されている物体モデルとの類似度を割り当てる工程と、割り当てられた物体モデルの中で最も類似していると判断された認識対象となる物体の種別を出力する工程とを含み、物体の相対的な位置及び姿勢を変化させて撮影した複数の画像情報を入力し、入力された複数の画像情報に基づいて将来起こりうる撮影環境変動による物体の見え方の変化を推定してモデル化する画像認識方法並びにそのような工程をプログラムとして記録したコンピュータ読み取り可能な記録媒体であることを特徴とする。
【0029】
かかる構成により、コンピュータ上へ当該プログラムをロードさせ実行することで、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことができる画像認識装置を実現することが可能となる。
【0030】
【発明の実施の形態】
(実施の形態1)
以下、本発明の実施の形態1にかかる画像認識装置について、図面を参照しながら説明する。図5は本発明の実施の形態1にかかる画像認識装置の構成図である。図5において、51は画像情報入力部を、52は物体モデル化実行部を、53は物体モデル登録部を、54は物体モデルデータベースを、55は類似度判断部を、56は物体認識部を、それぞれ示す。
【0031】
図5において、画像情報入力部51は、認識対象となる画像を撮影するカメラや、当該カメラによって撮影された写真等を読み込むスキャナ、撮影された画像を圧縮して磁気記録媒体に保存しているファイルの読込装置等の、画像情報を入力するために用意された部分を示している。そして、画像情報入力部51から入力された画像情報に基づいて、物体モデル化実行部52において認識対象となるべき物体について、モデル化することになる。
【0032】
物体モデル化実行部52における画像情報のモデル化手法には種々の方法が考えられる。例えば特願平11−110020号においては、上述したように特徴パラメータを用いて物体モデルを一義的に表す方法が開示されている。
【0033】
しかし、このようなモデル化手法では、以下の問題が発生する。まず、モデル化する際に入力する画像が、一つの物体について一つのみであることから、光源の位置や照度等の相異によって、同一の物体を同一のカメラ位置で撮影した場合であっても、異なる物体であると誤認識されてしまう可能性が残されるという問題である。
【0034】
また、光源の位置や照度等が同一であっても、カメラと物体の位置が相異すれば、同様に異なる物体であると認識されてしまう可能性が高いという問題である。すなわち、カメラの角度やカメラとの距離が相異すれば、撮影される画像の大小や角度が大きく変化し、固有空間上の位置が大きく前後することで、異なる物体であると誤認識されてしまう可能性が高くなることも十分に予想されるからである。
【0035】
かかる問題を解決するため、本実施の形態においては、登録時に、固定された画像情報入力部に対して物体の姿勢を連続的に変化させて、その連続画像に基づいて、入力時の環境変動、すなわち照明条件、対象物体の状態(カメラとの相対姿勢や相対距離)の相異によって画像がどのように変化するのかを予測し、当該予測に基づいた物体モデルを、部分空間として物体モデルデータベース54に登録する点に特徴を有する。
【0036】
以下、本実施の形態にかかる画像認識装置におけるモデル化手法について、図6及び図7を参照しながら説明する。まず、図6は本実施の形態にかかる画像認識装置における登録フェーズのモデル化処理の流れを示している。
【0037】
図6に示すように、まず画像を入力するのであるが(ステップS61)、入力するのは一つの画像自体ではなく、連続した複数の画像である。すなわち、図7に示すように、顔画像であっても正面から撮影した画像だけではなく、登録用の画像系列として徐々に首を振った連続的な画像を入力することになる。
【0038】
次に、入力された画像系列について、各小領域を連続した複数の画像について追跡することで、連続した複数の画像から小領域の系列として選択することになる(ステップS62)。すなわち、入力された画像系列について、「目」なら「目」を表す小領域について小領域系列として選択することになる。
【0039】
そして、選択された小領域系列に基づいて、部分空間を新たに生成する(ステップS63)。具体的には、図7に示すように、連続した画像について対応する部分、例えば顔画像で有れば「目の領域」について、部分空間を同定し、それを窓部分空間と呼ぶ。
【0040】
当該窓部分空間においては、物体の位置や姿勢等の幾何学的変動や照明の位置や照度等の変動によって生じる小領域画像の見え方の変動をカバーしている。このような窓部分空間を、「目の領域」、「鼻の領域」、・・のように個々の領域に対応して同定し、そのセットを、物体モデルとして物体モデルデータベース54に登録する(ステップS64)。
【0041】
次に、入力された画像を実際に認識する際の処理について図8及び図9を参照しながら説明する。図8は当該画像認識処理における画像認識処理の流れ図を示している。
【0042】
図8において、物体モデルデータベース54の照会対象となる画像を入力する(ステップS81)。次に、その画像から顔領域を切り出し(ステップS82)、さらに、顔領域の中から特徴的な部分である小領域(窓)を複数選択する(ステップS83)。窓の選択方法の具体例としては、特願平11−110020号において実施形態2で用いられている「エッジ強度」を用いる方法等が考えられる。そして、図9のように、各窓の画素値を要素として持つベクトル(窓ベクトル)を、物体モデルデータベース54に登録されている各窓部分空間に射影する(ステップS84)。
【0043】
類似度判断部55において、窓ベクトルを窓部分空間に射影したときの垂線の足の長さを計算し、その長さに基づいて小領域と窓部分空間との類似度を定義する(ステップS85)。そして、最も当該小領域に近い窓部分空間を見出し(ステップS86)、かかる部分空間を有する登録物体モデルを入力画像中の物体の候補とする。入力画像中のすべての窓について同様の処理を行い、最終的に物体認識部56で結果を統合して認識を行う(ステップS87)。
【0044】
なお、本実施の形態にかかる画像認識装置におけるモデル化手法においては、光源がどこにあるのか等はモデル化時点では問わない。しかし、連続画像撮影時においては光源の位置や角度は変化させないことが必要条件となる。変化してしまうと、入力時の撮影条件の変化に対する画像変化の予測計算が困難になるからである。
【0045】
次に、登録時の窓部分空間の同定について、より詳細に説明する。まず、物体表面上の画素に対応する小領域である面素Qiを考える。面素Qiは反射係数aiを有するランベーシャン面(Lambertian)であるものと仮定する。ここでランベーシャン面とは、鏡面反射のない反射面であることを意味する。
【0046】
一般に、登録時と同じ顔を撮影する場合であっても、面素Qiとカメラ位置の相対関係や照明条件等が登録時に撮影したときの状況と一致することはまずあり得ない。したがって、入力時の撮影条件の変化によって、対応する窓内の対応する位置の画素値も変化することになる。
【0047】
例えば、窓を固定した座標系において、座標ベクトルxにおける変化前の画素値をI(x)、変化後の画素値をI’(x)とする。照明変動がないものと仮定した上で、選択された窓において回転量、サイズ変化量等が小さい場合には、窓固定座標系において対応する点の移動量Δxは(数1)で表される。なお、(数1)において、Aはアフィン変換のパラメータを要素として持つ2×2行列を、dはアフィン変換のパラメータを要素として持つ2×1の列ベクトルを、D=I−AにおいてIは2×2の単位行列を、それぞれ示す。
【0048】
【数1】
【0049】
かかるΔxが微少であるという範囲内で有ればアフィン変換で近似可能な非剛体変形も取り扱うことが可能となる。移動の前後で画素値が保存されるものと仮定して、テイラー展開を行うと、変化後の画素値をI’(x)は変化前の画素値I(x)を用いて(数2)のように近似できる。
【0050】
【数2】
【0051】
したがって、変化後の画素値をI’(x)は変化前の画素値をI(x)を用いて(数3)のように表すことができることから、右辺第2項を幾何学的変化のみに基づいた窓内各画素値の変化量ベクトルΔIgとして、(数4)のように整理できる。
【0052】
【数3】
【0053】
【数4】
【0054】
以上より、変化量ベクトルΔIgの自由度は‘6’であり、窓画像空間における部分空間は(数5)で表すことができる以下の6つの基底ベクトルω1、ω2、ω3、ω4、ω5、ω6で張ることができる。
【0055】
【数5】
【0056】
一方、照明条件のみが変動する場合について考えると、面素Qiのレンズ方向への放射光度Liは(数6)のように表すことができる。ここで、ベクトルniは面素Qiにおける法線ベクトルを、ベクトルsは光線ベクトルを、それぞれ意味する。
【0057】
【数6】
【0058】
撮影するフォトディテクタの開口面積をb、CCDの光電変換特性が線形であると仮定し比例定数をkとすると、画素値I(xi)は(数7)のように表すことができる。
【0059】
【数7】
【0060】
ここで、dはレンズの直径、fは焦点距離、ベクトルuは光軸方向の単位ベクトル、ベクトルvは面素Qiからレンズの中心に向かう単位ベクトルを意味する。
【0061】
(数7)において、ベクトルu、bk、f、dはカメラが変更されない限り一定であり、窓が十分に小さい場合にはベクトルvは窓内のすべての画素について同一であるものと考えら、ベクトルsも窓内すべての画素について同一であるものと考えられることから、画素値I(xi)は対応する面素の法線ベクトルniにその面素の反射係数aiを乗じたベクトルaini=(ainix、ainiy、ainiz)Tとベクトルsとの内積に共通の係数を乗じたものと考えられる。
【0062】
したがって、画素値I(xi)の自由度はベクトルainiの有する自由度である‘3’であり、照明変動のみの場合の窓画像ベクトルの変動は、(数8)で表すことができる以下の3つの基底ベクトルνx、νy、νzで張ることができる3次元の部分空間で表すことができる。
【0063】
【数8】
【0064】
したがって、照明条件が変化、あるいは画素Qiとカメラ位置の相対関係が変化する場合はベクトルω1、ω2、ω3、ω4、ω5、ω6、νx、νy、νzによって形成される9次元の部分空間内で変動する。したがって、画素Qiとカメラ位置の相対関係が変化する場合について十分なサンプルデータを得ることによって、KL変換を用いて9次元の窓部分空間を同定することが可能となる。
【0065】
一例として、カメラ及び照明を固定して、面素Qiとカメラ位置の相対関係が変化する場合について説明する。まず面素Qiが形状変化せずに移動し、その結果として法線ベクトルnが(n+Δn)に、レンズ中心への単位ベクトルvが(v+Δv)に変化したものとする。また、面素Qの投影位置もベクトルxtからxに移動したものとする。
【0066】
また、面素Qiの投影位置もベクトルxi^からxiに移動したものとする。変化後の面素Qiのレンズ方向への表面放射光度Li’は(数6)を用いて(数9)のように表すことができる。
【0067】
【数9】
【0068】
したがって、対応する画素の放射照度を求めることで、画素値I’(xi)は(数10)のように表すことができる。ここでΔIvをカメラとの相対位置変化に基づく窓内各画素値の変化量ベクトルとし、ΔInをカメラとの相対位置変化による照明条件変化に基づく窓内各画素値の変化量ベクトルとする。
【0069】
【数10】
【0070】
ここで、先述した物体とカメラ位置の相対変化のみによる画素値の変化の関係(数4)を考慮すると、I(xi^)=I(x)+ΔIgと考えることができるので、(数10)は(数11)のように表すことができる。
【0071】
【数11】
【0072】
ここでΔIgの自由度は‘6’であるのに対して、ΔIn及びΔIvの自由度は‘3’であり、かつΔIn及びΔIvの意味する部分空間は結局同一の部分空間を表していることから、結局変化量ベクトルΔI=I’(x)−I(x)の変動範囲は、最大9次元の部分空間内であることがわかる。
【0073】
この場合、サイズの変化や物体の回転に代表される幾何学的な変動について、十分なサンプルデータを取得することは現実的には困難である。しかしながら、ベクトルω1、ω2、ω3、ω4、ω5、ω6によって形成される幾何学的変動に対応する部分空間(以下、「ジオメトリック変動部分空間」という。)については、一枚の小領域のみから推定することが可能である。
【0074】
そこで、サンプルデータに基づいて、まずジオメトリック変動部分空間を求め、求めたジオメトリック変動部分空間の成分を取り除いた成分の分布を求める。この分布をKL変換することで、νx、νy、νzによって形成される測光学的変動に対応する部分空間(以下、「フォトメトリック変動部分空間」という。)を求めることができる。こうすることで、任意の部分空間をジオメトリック変動部分空間とフォトメトリック変動部分空間とを用いて表すことが可能となる。
【0075】
また、部分空間の同定には大別して2つの方法が考えられる。一つはジオメトリック変動部分空間とフォトメトリック変動部分空間とが直交しているものと仮定する方法、今一つは十分なサンプルデータが有る場合に用いるジオメトリック変動部分空間とフォトメトリック変動部分空間とを分けずに直接同定する方法である。
【0076】
まず、ジオメトリック変動部分空間とフォトメトリック変動部分空間とが直交しているものと仮定する方法について説明する。初めに、顔画像に関するサンプルデータの収集は、登録対象者に首を振ってもらい、顔の姿勢を変化させることで行う。
【0077】
基準小領域は、小領域空間にプロットした一つの小領域変化系列におけるデータ点分布の平均位置、もしくは変動範囲の中心を基準とし、基準小領域ベクトルxsとして保存する。かかる基準としたのは、サンプルデータの中には偽りのデータも混在し、また幾何学的変形の線形近似の限界やランベーシャン表面との仮定からの逸脱、あるいは雑音の存在等によって、本来の部分空間から逸脱しているデータも存在するからである。
【0078】
求めた基準小領域ベクトルxsから、ベクトルω1、ω2、ω3、ω4、ω5、ω6を(数5)に基づいて計算する。画素値の微分はソーベルフィルタ(Sobel Filter)の畳み込みによって近似的に計算するものとする。
【0079】
このようにベクトルω1、ω2、ω3、ω4、ω5、ω6が求まることで、ジオメトリック変動部分空間ベクトルΩを同定することができる。ただし、これらのベクトルは必ずしも一次独立とは限らないので、行列G=[ω1、ω2、ω3、ω4、ω5、ω6]Tを特異値分解することで、部分空間ベクトルΩの正規直交基底ベクトルup(1≦p≦6)を求める。pは行列Gの階数である。
【0080】
次に、任意の窓画像ベクトルxのジオメトリック変動部分空間Ωと直交する成分は、図10に従って求めることができる。図10において、ジオメトリック変動部分空間Ωの基準画像ベクトルをxsとし、ベクトルxとベクトルxsとの差をジオメトリック変動部分空間Ωに直交射影したものをベクトルx’とする。
【0081】
ジオメトリック変動部分空間Ωの直交射影行列Pは、正規直交基底ベクトルup(1≦p≦6)を用いて(数12)のように表すことができる。
【0082】
【数12】
【0083】
また、図6のベクトル関係より、x’=P*(x−xs)である。ここで、記号‘*’は行列とベクトルの乗算を意味するものとする。
【0084】
一方、ジオメトリック変動部分空間Ωの直交補空間ΩTへの直交射影行列QはQ=I−P(Iは単位行列)と表すことができることから、任意の小領域ベクトルxのジオメトリック変動部分空間Ωと直交する成分は、(x−xs)−x’=Q*(x−xs)として求めることができる。
【0085】
こうして求まったQ*(x−xs)の分布からKL展開することによってフォトメトリック変動部分空間Ψを同定する。まず、小領域変化系列に属する全ての小領域ベクトルxjからyj=Q*(xj−xs)(jは1≦jの自然数)を計算する。そして、(数13)によって、ベクトルyの自己相関行列Rを求める。
【0086】
【数13】
【0087】
求まった行列Rの固有値・固有ベクトルを求め、降順にλ1、λ2、・・λNとし、各固有値に対応する正規直交固有ベクトルをv1、v2、・・、vNとする。ここで、固有値を降順に所定の個数nまで加算した値が固有値の総和に対してしめる割合を累積寄与率と定義すると、累積寄与率が所定のしきい値を超えたときのq(個数)を部分空間の次元数と定める。したがって、フォトメトリック変動部分空間Ψの正規直交基底ベクトルはv1、v2、・・、vqとなる。
【0088】
このように、ジオメトリック変動部分空間Ωとフォトメトリック変動部分空間Ψが同定されるので、これらをベクトル結合することによって環境変動部分空間Γと窓部分空間Λを同定する。すなわち、(数14)のように表すことができる。
【0089】
(数14)
Γ=Ω+Ψ
Λ=xs+Γ
【0090】
よって、環境変動部分空間Γの正規直交基底ベクトルは、ジオメトリック変動部分空間Ωの正規直交基底ベクトルを並べた行列U=[u1、u2、・・、up]とフォトメトリック変動部分空間Ψの正規直交基底ベクトルを並べた行列V=[v1、v2、・・、vq]になる。したがって、ベクトルwi=ui(iは1≦i≦pの自然数)、ベクトルwp+j=vj(jは1≦j≦qの自然数)として、環境変動部分空間Γの正規直交基底ベクトルを並べた行列W=[w1、w2、・・、wr](r=p+q)を定めることで、環境変動部分空間Γとして部分空間を定めることが可能となる。
【0091】
次に、十分なサンプルデータが有る場合においては、ジオメトリック変動部分空間とフォトメトリック変動部分空間とを分けずに直接部分空間を同定する方法を用いる。
【0092】
この方法は、サンプルデータの収集や基準小領域の決定手法は、上述した方法と同様である。部分空間の同定は、ベクトル(x−xs)の分布から直接KL展開することによって同定する。
【0093】
まず、小領域変化系列に属する全ての小領域ベクトルxjからyj=Q*(xj−xs)(jは1≦j≦Mの自然数)を計算する。そして、ジオメトリック変動部分空間とフォトメトリック変動部分空間とが直交しているものと仮定する方法と同様に、(数13)によってベクトルyの自己相関行列Rを求める。
【0094】
求まった行列Rの固有値・固有ベクトルを求め、降順にλ1、λ2、・・λNとし、各固有値に対応する正規直交固有ベクトルをv1、v2、・・、vNとする。ここで、固有値を降順に所定の個数nまで加算した値が固有値の総和に対してしめる割合を累積寄与率と定義すると、累積寄与率が所定のしきい値を超えたときのr(個数)を部分空間の次元数と定める。したがって、環境変動部分空間Γの正規直交基底ベクトルを並べた行列W=[w1、w2、・・、wr]として部分空間を定めることが可能となる。
【0095】
このように、入力された画像と登録されている物体モデルとの照合は、上述した方法のいずれかを用いて物体モデルを同定することにより、入力された画像に最も近接した部分空間を同定することによって行われる。
【0096】
以上のように本実施の形態によれば、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことが可能となる。
【0097】
また、本発明の実施の形態にかかる画像認識装置を実現するプログラムを記憶した記録媒体は、図11に示す記録媒体の例に示すように、CD−ROM112−1やフロッピーディスク112−2等の可搬型記録媒体112だけでなく、通信回線の先に備えられた他の記憶装置111や、コンピュータ113のハードディスクやRAM等の記録媒体114のいずれでも良く、プログラム実行時には、プログラムはローディングされ、主メモリ上で実行される。
【0098】
また、本発明の実施の形態にかかる画像認識装置により生成された物体モデルデータ等を記録した記録媒体も、図11に示す記録媒体の例に示すように、CD−ROM112−1やフロッピーディスク112−2等の可搬型記録媒体112だけでなく、通信回線の先に備えられた他の記憶装置111や、コンピュータ113のハードディスクやRAM等の記録媒体114のいずれでも良く、例えば本発明にかかる画像認識装置を利用する際にコンピュータ113により読み取られる。
【0099】
【発明の効果】
以上のように本発明にかかる画像認識装置によれば、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動や照明条件の相異による見え方の変動等に左右されることなく、登録されている物体モデルとの照合を精度良く行うことが可能となる。
【図面の簡単な説明】
【図1】 従来の画像認識装置における物体モデル登録処理の流れ図
【図2】 従来の画像認識装置における物体モデル登録処理の概念図
【図3】 従来の画像認識装置における処理の流れ図
【図4】 従来の画像認識装置における処理の概念図
【図5】 本発明の実施の形態にかかる画像認識装置のブロック構成図
【図6】 本発明の実施の形態にかかる画像認識装置における物体モデル登録処理の流れ図
【図7】 本発明の実施の形態にかかる画像認識装置における物体モデル登録処理の概念図
【図8】 本発明の実施の形態にかかる画像認識装置における処理の流れ図
【図9】 本発明の実施の形態にかかる画像認識装置における処理の概念図
【図10】 ジオメトリック変動部分空間と直交する小領域ベクトルの求め方の説明図
【図11】 記録媒体の例示図
【符号の説明】
51 画像情報入力部
52 物体モデル化実行部
53 物体モデル登録部
54 物体モデルデータベース
55 類似度判断部
56 物体認識部
111 回線先の記憶装置
112 CD−ROMやフロッピーディスク等の可搬型記録媒体
112−1 CD−ROM
112−2 フロッピーディスク
113 コンピュータ
114 コンピュータ上のRAM/ハードディスク等の記録媒体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image recognition apparatus for accumulating an object model obtained by converting image information of an object in a database and recognizing the object by referring to the database at the time of image recognition.
[0002]
[Prior art]
With the development of computer networks represented by the Internet, etc., anyone can easily access various information, but on the other hand, a technology to check whether the person who is accessing is authentication technology, that is, authentication technology The importance of. This is because it is necessary to minimize the probability of rejecting the person as the person who misrepresents the person or rejecting the person as the person.
[0003]
One technique that has recently attracted attention in this technical field is an authentication technique based on facial images. This is because, like a fingerprint or a voiceprint, the face is unique to the person, and can be used as a criterion for identification judgment by the progress of image processing technology.
[0004]
Conventionally, various methods have been disclosed for using a face image as a reference for authentication judgment. For example, in Japanese Patent Application No. 11-11020, an environment parameter indicating the state of the shooting environment and a target state parameter value indicating the state of the object are estimated from the input image, and the shooting environment of the input image is calculated using these values. In addition, a technique is disclosed in which recognition is performed using a “collation image” that is corrected so that the state of the object matches the shooting environment of the registered image and the state of the object.
[0005]
The image recognition process using the disclosed environmental parameters and target state parameters will be described below with reference to FIGS. First, FIG. 1 shows the flow of processing in the registration phase of the image recognition processing in the database.
[0006]
In FIG. 1, first, an image to be registered is input (step S11). The image input here may be a single face image taken from the front, but in order to improve recognition accuracy, it is desirable to prepare face images taken from various directions in addition to the front image.
[0007]
Next, a face area is cut out from the input image (step S12), and an image of the face area is obtained (step S13). That is, as shown in FIG. 2, a face area is cut out as a rectangular area on an image to be registered.
[0008]
Then, the obtained face area image is regarded as an N-dimensional vector having each pixel as an element, and the vector is projected onto an n-dimensional (n ≦ N) partial space (step S14), and the projection point is represented as P. In FIG. 2, it is projected onto one point of “sashida”.
[0009]
Further, the environmental parameter value e indicating the state of the shooting environment and the target state parameter value s indicating the state of the object are estimated, and the value and the projection point P are paired and registered in the database (step S15). Here, a general method for estimating the environmental parameter value e indicating the state of the photographing environment and the target state parameter value s indicating the state of the object from the image is not disclosed.
[0010]
Next, FIG. 3 shows the flow of processing in the recognition phase in the image recognition processing. In FIG. 3, the process from the input of the image to the clipping of the face area image (steps S31 to S33) is the same as in the registration phase (steps S11 to S13) shown in FIG.
[0011]
Therefore, the projection onto the partial space is projected onto one point of “sashida” as shown in FIG.
[0012]
On the other hand, an environmental parameter value e indicating the state of the shooting environment and an object state parameter value s indicating the state of the object are estimated from the input image. Next, the parameter value estimated from the input image is adjusted so that the environmental parameter value e of the registered image registered in advance matches the target state parameter value s. By this adjustment, a collation image is generated so that the shooting environment of the input image and the state of the object match the shooting environment of the registered image and the state of the object. This verification image is projected onto the partial space to obtain a point Q (step S34).
[0013]
By doing so, the registered image and the comparison image are compared under the same conditions with respect to the shooting environment such as illumination and the state of the object such as the position and posture. However, there is disclosed a general method for adjusting the parameter value to generate a matching image so that the shooting environment of the input image and the state of the object match the shooting environment of the registered image and the state of the object. Not.
[0014]
Next, the distance between the registered P and Q subspaces is calculated (step S35). For all the registered images, the spatial distance is calculated in the same manner, and the nearest point P is calculated. m Is searched (step S36).
[0015]
Finally, the most recent contact P m Is recognized as corresponding to the input image (step S37).
[0016]
[Problems to be solved by the invention]
However, in the method as described above, (1) estimating an environment parameter value indicating the state of the shooting environment and an object state parameter value indicating the state of the object from the image, and (2) adjusting the parameter value and inputting Despite the point of generating a matching image that matches the shooting environment of the image and the state of the object to the shooting environment of the registered image and the state of the object, these processes are realized. The general method is not known.
[0017]
In Japanese Patent Application No. 11-11020, the illumination parameter among the environmental parameters is estimated from the average value, variance, and histogram of the luminance values of the face area image, and the camera used for photographing as the camera parameter among the environmental parameters. It has been proposed to use the resolution, focus, and exposure. It has also been proposed to estimate the target state parameter using the skin color occupation area in the face region image.
[0018]
However, (1) it is generally difficult to correctly estimate such parameter values. Furthermore, (2) it is difficult to model how the image changes when these parameters change from one or a small number of images. Therefore, it is considered difficult to actually apply the above method to the recognition process.
[0019]
Therefore, since the face image taken from the front is used at the time of image registration, if the orientation of the face is different or the lighting conditions are different at the time of input, the person is assumed to be a misrepresenter or a misrepresentation. There is a problem that a person may be mistakenly recognized as the person.
[0020]
In order to solve the above problems, the present invention provides an image recognition apparatus and method that can accurately perform matching with a registered image without depending on the photographing condition of the input image at the time of image recognition. Objective.
[0021]
[Means for Solving the Problems]
In order to achieve the above object, an image recognition apparatus according to the present invention is obtained by an object modeling execution unit that estimates and models a change in appearance of an object due to a change in a shooting environment, and an object modeling execution unit. An object model registration unit that registers an object model in a database in advance, an image information input unit that inputs image information of an object to be recognized, and an object model registered in advance in the object model registration unit Is a recognition target that is determined to be the most similar among the assigned object models, and a similarity determination unit that assigns a similarity to a registered object model A plurality of images taken by changing the relative position and orientation of the object with respect to the fixed image information input unit in the object modeling execution unit. Inputting image information, and wherein the modeling to estimate the changes in the appearance of the object by Possible shooting environment future changes based on the plurality of the input image information.
[0022]
With this configuration, the registered object model is not affected by changes in appearance due to differences in the posture of the object at the time of object model registration and input image recognition, or changes in appearance due to differences in lighting conditions, etc. It is possible to accurately perform the collation with.
[0023]
In the image recognition apparatus according to the present invention, it is preferable to assume a Lambertian reflection model as the surface characteristics of the object to be recognized. This is because it is easy to predict changes in appearance due to illumination fluctuations.
[0024]
In the image recognition apparatus according to the present invention, in the image information input unit, a part where an object to be recognized exists is cut out from the image, and the object to be recognized is modeled using the cut out partial image. Is preferred. This is because misrecognition due to excess image information can be prevented.
[0025]
In the image recognition apparatus according to the present invention, the image information input unit selects a characteristic small region in the object to be recognized from the image, and includes information included in the selected small region and arrangement information of the small region. It is preferable to model an object to be recognized based on the above. This is because the case where the characteristic portion is partially hidden by the image can be dealt with.
[0026]
Also, when the sample data is small, the image recognition apparatus according to the present invention, in the object modeling execution unit, based on the input image information, changes in the appearance due to the change in the posture of the object and the appearance due to the change in the illumination condition It is preferable to perform modeling by separating the fluctuations of This is because even when the sample data is small, it is possible to accurately estimate the change in appearance.
[0027]
In addition, when there is sufficient sample data, the image recognition apparatus according to the present invention is based on the change in the appearance due to the change in the posture of the object and the change in the illumination condition based on the input image information in the object modeling execution unit. It is preferable to perform modeling without separating the change in appearance. This is because when there is sufficient sample data, it is not necessary to model approximately by separating and modeling, and the change in appearance can be obtained directly.
[0028]
Further, the present invention is characterized by software that executes the functions of the image recognition apparatus as described above as a processing step of a computer. Specifically, the change in appearance of an object due to a change in a shooting environment is estimated. And the step of registering the obtained object model in the database in advance, the step of inputting image information of the object to be recognized, and the object model registered in advance And the process of assigning the similarity to the registered object model, and the type of the object to be recognized that is determined to be the most similar among the assigned object models A plurality of pieces of image information taken by changing the relative position and orientation of the object, and a change in the photographing environment that may occur in the future based on the inputted pieces of image information. Characterized in that an image recognition method and a computer-readable recording medium recorded with such a step as a program for modeling and estimating the change in the appearance of the object by.
[0029]
With this configuration, by loading and executing the program on a computer, changes in appearance due to differences in the posture of the object at the time of object model registration and input image recognition, changes in appearance due to differences in lighting conditions, etc. Therefore, it is possible to realize an image recognition apparatus that can accurately collate with a registered object model without being influenced by the above.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
(Embodiment 1)
Hereinafter, an image recognition apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 5 is a configuration diagram of the image recognition apparatus according to the first embodiment of the present invention. In FIG. 5, 51 is an image information input unit, 52 is an object modeling execution unit, 53 is an object model registration unit, 54 is an object model database, 55 is a similarity determination unit, and 56 is an object recognition unit. , Respectively.
[0031]
In FIG. 5, an image information input unit 51 is a camera that captures an image to be recognized, a scanner that reads a photograph taken by the camera, and the captured image is compressed and stored in a magnetic recording medium. A portion prepared for inputting image information, such as a file reading device, is shown. Based on the image information input from the image information input unit 51, the object
[0032]
Various methods for modeling image information in the object
[0033]
However, this modeling method has the following problems. First, since only one image is input for modeling, the same object is photographed at the same camera position due to differences in light source position, illuminance, etc. However, there is a possibility that a possibility of being erroneously recognized as a different object remains.
[0034]
Further, even if the position of the light source, the illuminance, and the like are the same, if the positions of the camera and the object are different, there is a high possibility that the object is recognized as a different object. That is, if the angle of the camera and the distance to the camera are different, the size and angle of the captured image change greatly, and the position in the eigenspace greatly fluctuates so that it is mistakenly recognized as a different object. This is because it is expected that there is a high possibility that the error will occur.
[0035]
In order to solve such a problem, in the present embodiment, at the time of registration, the posture of the object is continuously changed with respect to the fixed image information input unit, and the environmental fluctuation at the time of input is based on the continuous image. That is, it predicts how the image will change due to differences in lighting conditions and the state of the target object (relative posture and relative distance from the camera), and the object model database based on the prediction is used as a subspace. The point is registered in No. 54.
[0036]
Hereinafter, a modeling method in the image recognition apparatus according to the present embodiment will be described with reference to FIGS. 6 and 7. First, FIG. 6 shows the flow of registration phase modeling processing in the image recognition apparatus according to the present embodiment.
[0037]
As shown in FIG. 6, first, an image is input (step S61), but what is input is not a single image itself but a plurality of continuous images. That is, as shown in FIG. 7, even if it is a face image, not only an image photographed from the front but also a continuous image in which the head is gradually shaken is input as an image sequence for registration.
[0038]
Next, with respect to the input image series, each small area is traced with respect to a plurality of continuous images, thereby selecting a series of small areas from a plurality of continuous images (step S62). That is, for the input image series, if it is “eyes”, the small area representing “eyes” is selected as the small area series.
[0039]
Then, a partial space is newly generated based on the selected small region series (step S63). Specifically, as shown in FIG. 7, a partial space is identified for a portion corresponding to a continuous image, for example, an “eye region” if it is a face image, and this is called a window partial space.
[0040]
The window subspace covers the change in the appearance of the small area image caused by the geometrical variation such as the position and orientation of the object and the variation of the illumination position and illuminance. Such window subspaces are identified corresponding to individual regions such as “eye region”, “nose region”,..., And the set is registered in the
[0041]
Next, processing for actually recognizing an input image will be described with reference to FIGS. FIG. 8 shows a flowchart of the image recognition process in the image recognition process.
[0042]
In FIG. 8, an image to be referred to in the
[0043]
The
[0044]
In the modeling method in the image recognition apparatus according to the present embodiment, where the light source is located does not matter at the time of modeling. However, it is a necessary condition that the position and angle of the light source are not changed during continuous image shooting. This is because if it changes, predictive calculation of image change with respect to changes in shooting conditions at the time of input becomes difficult.
[0045]
Next, the identification of the window subspace at the time of registration will be described in more detail. First, a surface element Q that is a small region corresponding to a pixel on the object surface. i think of. Area element Q i Is the reflection coefficient a i Is assumed to be a Lambertian surface. Here, the Lambertian surface means a reflecting surface having no specular reflection.
[0046]
In general, even when shooting the same face as when registering, the surface element Q i It is unlikely that the relative relationship between the camera position and the lighting conditions, etc. will coincide with the situation at the time of shooting at the time of registration. Therefore, the pixel value at the corresponding position in the corresponding window also changes due to the change in the photographing condition at the time of input.
[0047]
For example, in the coordinate system in which the window is fixed, the pixel value before the change in the coordinate vector x is I (x), and the pixel value after the change is I ′ (x). Assuming that there is no illumination variation, when the rotation amount, size change amount, etc. are small in the selected window, the movement amount Δx of the corresponding point in the window fixed coordinate system is expressed by (Equation 1). . In (Equation 1), A is a 2 × 2 matrix having affine transformation parameters as elements, d is a 2 × 1 column vector having affine transformation parameters as elements, and in D = IA, I is I Each 2 × 2 unit matrix is shown.
[0048]
[Expression 1]
[0049]
If such Δx is in a very small range, non-rigid deformation that can be approximated by affine transformation can be handled. Assuming that the pixel values are preserved before and after the movement, when Taylor expansion is performed, the pixel value after change I ′ (x) uses the pixel value I (x) before change (Equation 2) It can be approximated as follows.
[0050]
[Expression 2]
[0051]
Accordingly, since the pixel value after change I ′ (x) can be expressed as (Equation 3) using the pixel value before change as I (x), the second term on the right side can be expressed only as a geometric change. Variation vector ΔI of each pixel value in the window based on g As shown in (Equation 4).
[0052]
[Equation 3]
[0053]
[Expression 4]
[0054]
From the above, the variation vector ΔI g Is 6 and the subspace in the window image space can be expressed by the following six basis vectors ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 Can be stretched with.
[0055]
[Equation 5]
[0056]
On the other hand, considering the case where only the lighting conditions change, the surface element Q i Luminous intensity L toward the lens i Can be expressed as (Equation 6). Where the vector n i Is surface element Q i Means a normal vector and vector s means a ray vector.
[0057]
[Formula 6]
[0058]
Assuming that the aperture area of the photo detector to be photographed is b, the photoelectric conversion characteristic of the CCD is linear, and the proportionality constant is k, the pixel value I (x i ) Can be expressed as (Equation 7).
[0059]
[Expression 7]
[0060]
Here, d is a lens diameter, f is a focal length, a vector u is a unit vector in the optical axis direction, and a vector v is a surface element Q i This means a unit vector from to the center of the lens.
[0061]
In (Equation 7), the vectors u, bk, f, d are constant unless the camera is changed, and if the window is sufficiently small, the vector v is considered to be the same for all pixels in the window, Since the vector s is also considered to be the same for all pixels in the window, the pixel value I (x i ) Is the normal vector n of the corresponding surface element i The reflection coefficient a of the surface element i Vector a multiplied by i n i = (A i n ix , A i n iy , A i n iz ) T And the vector s are multiplied by a common coefficient.
[0062]
Therefore, the pixel value I (x i ) Is the vector a i n i The variation of the window image vector in the case of only the illumination variation is the following three basis vectors ν that can be expressed by (Equation 8). x , Ν y , Ν z It can be represented by a three-dimensional subspace that can be stretched with.
[0063]
[Equation 8]
[0064]
Therefore, the illumination condition changes or the pixel Q i Vector ω when the relative relationship between camera position and camera position changes 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 , Ν x , Ν y , Ν z Fluctuates within a 9-dimensional subspace formed by. Therefore, pixel Q i By obtaining sufficient sample data for the case where the relative relationship between the camera position and the camera position changes, it becomes possible to identify a 9-dimensional window subspace using KL transformation.
[0065]
As an example, with the camera and lighting fixed, the surface element Q i A case where the relative relationship between the camera position and the camera position changes will be described. First, surface element Q i Move without changing the shape, and as a result, the normal vector n changes to (n + Δn) and the unit vector v to the lens center changes to (v + Δv). The projection position of the surface element Q is also a vector x t And moved from x to x.
[0066]
In addition, surface element Q i Is also the vector x i ^ To x i Suppose you have moved to. Changed surface element Q i Surface radiation intensity L toward the lens i 'Can be expressed as (Equation 9) using (Equation 6).
[0067]
[Equation 9]
[0068]
Therefore, by obtaining the irradiance of the corresponding pixel, the pixel value I ′ (x i ) Can be expressed as (Equation 10). Where ΔI v Is a change amount vector of each pixel value in the window based on a relative position change with the camera, and ΔI n Is a change amount vector of each pixel value in the window based on a change in illumination condition due to a change in relative position with the camera.
[0069]
[Expression 10]
[0070]
Here, considering the relationship (Formula 4) of the change in the pixel value due only to the relative change between the object and the camera position, I (x i ^) = I (x) + ΔI g (Equation 10) can be expressed as (Equation 11).
[0071]
## EQU11 ##
[0072]
Where ΔI g Has a degree of freedom of '6' whereas ΔI n And ΔI v Has a degree of freedom of '3' and ΔI n And ΔI v After all, the subspaces mean the same subspace, so that the variation range of the variation vector ΔI = I ′ (x) −I (x) may be within the maximum 9-dimensional subspace. Recognize.
[0073]
In this case, it is practically difficult to acquire sufficient sample data for geometrical changes represented by size changes and object rotation. However, the vector ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 The subspace corresponding to the geometric variation formed by (hereinafter referred to as “geometric variation subspace”) can be estimated from only one small region.
[0074]
Therefore, based on the sample data, first, a geometric fluctuation subspace is obtained, and a distribution of components obtained by removing the components of the obtained geometric fluctuation subspace is obtained. By KL transforming this distribution, ν x , Ν y , Ν z The subspace corresponding to the photometric variation formed by the above (hereinafter referred to as “photometric variation subspace”) can be obtained. By doing so, it is possible to represent an arbitrary subspace using a geometric variation subspace and a photometric variation subspace.
[0075]
In addition, there are roughly two methods for identifying subspaces. One is a method that assumes that the geometric variation subspace and the photometric variation subspace are orthogonal, and the other is the geometric variation subspace and the photometric variation subspace that are used when there is sufficient sample data. It is a method of direct identification without dividing.
[0076]
First, a method for assuming that the geometric variation subspace and the photometric variation subspace are orthogonal to each other will be described. First, collection of sample data relating to a face image is performed by having the registration subject shake his / her head and changing the posture of the face.
[0077]
The reference small region is based on the average position of the data point distribution in one small region change series plotted in the small region space or the center of the fluctuation range, and the reference small region vector x s Save as. This standard is based on the fact that the sample data includes false data, the original part due to the limitations of the linear approximation of geometric deformation, the deviation from the assumption of the lambastian surface, or the presence of noise. This is because some data deviates from the space.
[0078]
The obtained reference small region vector x s From the vector ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 Is calculated based on (Equation 5). The differentiation of the pixel value is approximately calculated by convolution of a Sobel filter.
[0079]
Thus the vector ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 Is obtained, the geometrical variation subspace vector Ω can be identified. However, since these vectors are not necessarily linearly independent, the matrix G = [ω 1 , Ω 2 , Ω Three , Ω Four , Ω Five , Ω 6 ] T By singular value decomposition, the orthonormal basis vector u of the subspace vector Ω p (1 ≦ p ≦ 6) is obtained. p is the rank of the matrix G.
[0080]
Next, a component orthogonal to the geometric variation subspace Ω of an arbitrary window image vector x can be obtained according to FIG. In FIG. 10, the reference image vector of the geometric variation subspace Ω is represented by x. s And vector x and vector x s A vector x ′ is obtained by orthogonally projecting the difference between and the geometrical variation subspace Ω.
[0081]
The orthogonal projection matrix P of the geometric variation subspace Ω is an orthonormal basis vector u p Using (1 ≦ p ≦ 6), it can be expressed as (Equation 12).
[0082]
[Expression 12]
[0083]
From the vector relationship of FIG. 6, x ′ = P * (xx s ). Here, the symbol “*” means multiplication of a matrix and a vector.
[0084]
On the other hand, the orthogonal complement space Ω of the geometrical variation subspace Ω T Since the orthogonal projection matrix Q can be expressed as Q = I−P (I is a unit matrix), the component orthogonal to the geometrical variation subspace Ω of any small region vector x is (xx s ) −x ′ = Q * (xx s ).
[0085]
Q * (xx) s ) To identify the photometric variation subspace Ψ. First, all the small region vectors x belonging to the small region change series j To y j = Q * (x j -X s ) (J is a natural number of 1 ≦ j). Then, the autocorrelation matrix R of the vector y is obtained by (Equation 13).
[0086]
[Formula 13]
[0087]
Eigenvalues / eigenvectors of the obtained matrix R are obtained, and in descending order, λ 1 , Λ 2 ..Λ N And the orthonormal eigenvector corresponding to each eigenvalue is v 1 , V 2 , ..., v N And Here, if the ratio that the value obtained by adding eigenvalues up to a predetermined number n in descending order to the total of eigenvalues is defined as the cumulative contribution ratio, q (number) when the cumulative contribution ratio exceeds a predetermined threshold value Is defined as the number of dimensions of the subspace. Therefore, the orthonormal basis vector of the photometric variation subspace Ψ is v 1 , V 2 , ..., v q It becomes.
[0088]
In this way, the geometric variation subspace Ω and the photometric variation subspace Ψ are identified, and the environment variation subspace Γ and the window subspace Λ are identified by vector combination thereof. That is, it can be expressed as (Equation 14).
[0089]
(Equation 14)
Γ = Ω + Ψ
Λ = x s + Γ
[0090]
Therefore, the orthonormal basis vector of the environment variation subspace Γ is a matrix U = [u that is an array of orthonormal basis vectors of the geometric variation subspace Ω. 1 , U 2 , ..., u p ] And a matrix V = [v] in which orthonormal basis vectors of the photometric variation subspace Ψ are arranged. 1 , V 2 , ..., v q ]become. Therefore, the vector w i = U i (I is a natural number of 1 ≦ i ≦ p), vector w p + j = V j (Where j is a natural number of 1 ≦ j ≦ q), a matrix W = [w 1 , W 2 , ..., w r ] (R = p + q) is determined, it is possible to determine a subspace as the environment-variable subspace Γ.
[0091]
Next, when there is sufficient sample data, a method of directly identifying the subspace without using the geometrically varying subspace and the photometrically varying subspace is used.
[0092]
In this method, sample data collection and reference small area determination methods are the same as those described above. The identification of the subspace is the vector (xx s ) From the distribution of) by direct KL expansion.
[0093]
First, all the small region vectors x belonging to the small region change series j To y j = Q * (x j -X s ) (J is a natural number of 1 ≦ j ≦ M). Then, the autocorrelation matrix R of the vector y is obtained by (Equation 13) in the same manner as the method assuming that the geometric variation subspace and the photometric variation subspace are orthogonal.
[0094]
Eigenvalues / eigenvectors of the obtained matrix R are obtained, and in descending order, λ 1 , Λ 2 ..Λ N And the orthonormal eigenvector corresponding to each eigenvalue is v 1 , V 2 , ..., v N And Here, if the ratio that the value obtained by adding eigenvalues up to a predetermined number n in descending order to the total of eigenvalues is defined as the cumulative contribution ratio, r (number) when the cumulative contribution ratio exceeds a predetermined threshold value Is defined as the number of dimensions of the subspace. Therefore, a matrix W = [w where the orthonormal basis vectors of the environmental variation subspace Γ are arranged. 1 , W 2 , ..., w r ], The subspace can be determined.
[0095]
Thus, the collation between the input image and the registered object model identifies the subspace closest to the input image by identifying the object model using any of the methods described above. Is done by.
[0096]
As described above, according to the present embodiment, it depends on the change in the appearance due to the difference in the posture of the object during the registration of the object model and the recognition of the input image, the change in the appearance due to the difference in illumination conditions, and the like. In addition, it is possible to accurately collate with the registered object model.
[0097]
The recording medium storing the program for realizing the image recognition apparatus according to the embodiment of the present invention is a CD-ROM 112-1, a floppy disk 112-2, or the like as shown in the example of the recording medium shown in FIG. Not only the
[0098]
Further, a recording medium on which object model data generated by the image recognition apparatus according to the embodiment of the present invention is recorded is also a CD-ROM 112-1 or
[0099]
【The invention's effect】
As described above, according to the image recognition apparatus of the present invention, the appearance change due to the difference in the posture of the object during registration of the object model and the input image recognition, the change in the appearance due to the difference in illumination conditions, etc. Therefore, it is possible to accurately collate with the registered object model.
[Brief description of the drawings]
FIG. 1 is a flowchart of object model registration processing in a conventional image recognition apparatus.
FIG. 2 is a conceptual diagram of object model registration processing in a conventional image recognition apparatus.
FIG. 3 is a flowchart of processing in a conventional image recognition apparatus.
FIG. 4 is a conceptual diagram of processing in a conventional image recognition apparatus.
FIG. 5 is a block diagram of an image recognition apparatus according to an embodiment of the present invention.
FIG. 6 is a flowchart of object model registration processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 7 is a conceptual diagram of object model registration processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 8 is a flowchart of processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 9 is a conceptual diagram of processing in the image recognition apparatus according to the embodiment of the invention.
FIG. 10 is an explanatory diagram of how to obtain a small region vector orthogonal to a geometrical variation subspace.
FIG. 11 is an exemplary diagram of a recording medium.
[Explanation of symbols]
51 Image information input section
52 Object Modeling Execution Unit
53 Object Model Registration Unit
54 Object Model Database
55 Similarity judgment section
56 Object recognition unit
111 Line destination storage device
112 Portable recording media such as CD-ROM and floppy disk
112-1 CD-ROM
112-2 Floppy disk
113 computer
114 Recording medium such as RAM / hard disk on computer
Claims (8)
前記物体モデル化実行部において得られた物体モデルを事前にデータベースへ登録しておく物体モデル登録部とを有し、
認識対象となる物体の画像情報を入力する画像情報入力部と、
前記物体モデル登録部において事前に登録されている前記物体モデルと入力された前記画像情報を照合して、登録されている前記物体モデルとの類似度を割り当てる類似度判断部と、
割り当てられた前記物体モデルの中で最も類似していると判断された前記認識対象となる物体の種別を出力する物体認識部とを含み、
前記物体モデル化実行部において、物体のカメラに対する相対的な位置及び姿勢を変化させて連続して撮影した複数の画像を入力し、前記複数の画像それぞれに連続して含まれる複数の小領域を選択して追跡することにより、それぞれの小領域を、小領域の系列として選択し、該選択された小領域の系列に基づいて、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動および照明条件の相異による前記物体の見え方の変動をカバーする部分空間を同定し、該同定したそれぞれの小領域の部分空間を1セットにして物体モデルとして生成することを特徴とする画像認識装置。An object modeling execution unit that estimates and models changes in the appearance of objects due to changes in the shooting environment;
An object model registration unit that registers the object model obtained in the object modeling execution unit in a database in advance,
An image information input unit for inputting image information of an object to be recognized;
A similarity determination unit that collates the object model registered in advance in the object model registration unit with the input image information and assigns a similarity to the registered object model;
An object recognition unit that outputs a type of the object to be recognized that is determined to be the most similar among the assigned object models,
In the object modeling execution unit, a plurality of images continuously captured by changing a relative position and orientation of the object with respect to the camera are input, and a plurality of small regions continuously included in each of the plurality of images are input. By selecting and tracking, each small area is selected as a series of small areas, and based on the selected series of small areas, the difference in the posture of the object at the time of object model registration and input image recognition Identifying a subspace that covers the change in the appearance due to the difference in the appearance and the change in the appearance of the object due to the difference in the illumination conditions , and generating a set of the subspaces of each of the identified small regions as an object model. A featured image recognition apparatus.
得られた物体モデルを事前にデータベースへ登録しておく工程とを有し、
認識対象となる物体の画像情報を入力する工程と、
事前に登録されている前記物体モデルと入力された前記画像情報を照合して、登録されている前記物体モデルとの類似度を割り当てる工程と、
割り当てられた前記物体モデルの中で最も類似していると判断された前記認識対象となる物体の種別を出力する工程とを含み、
前記モデル化の工程において、前記物体のカメラに対する相対的な位置及び姿勢を変化させて連続して撮影した複数の画像を入力し、前記複数の画像それぞれに連続して含まれる複数の小領域を選択して追跡することにより、それぞれの小領域を、小領域の系列として選択し、該選択された小領域の系列に基づいて、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動および照明条件の相異による前記物体の見え方の変動をカバーする部分空間を同定し、該同定したそれぞれの小領域の部分空間を1セットにして物体モデルとして生成することを特徴とする画像認識方法。Estimating and modeling changes in the appearance of objects due to changes in the shooting environment;
A step of registering the obtained object model in the database in advance,
Inputting image information of an object to be recognized;
Collating the object model registered in advance with the input image information and assigning a similarity to the registered object model;
Outputting the type of the object to be recognized that is determined to be the most similar among the assigned object models,
In the modeling step, a plurality of images continuously captured by changing a relative position and orientation of the object with respect to the camera are input, and a plurality of small regions continuously included in each of the plurality of images are input. By selecting and tracking, each small area is selected as a series of small areas, and based on the selected series of small areas, the difference in the posture of the object at the time of object model registration and input image recognition A subspace that covers the change in the appearance due to the difference in the appearance and the change in the appearance of the object due to the difference in the illumination conditions , and generates a set of the subspaces of the identified small regions as an object model. A featured image recognition method.
得られた物体モデルを事前にデータベースへ登録しておく処理とを有し、
認識対象となる物体の画像情報を入力する処理と、
事前に登録されている前記物体モデルと入力された前記画像情報を照合して、登録されている前記物体モデルとの類似度を割り当てる処理と、
割り当てられた前記物体モデルの中で最も類似していると判断された前記認識対象となる物体の種別を出力する処理とをコンピュータに実行させ、
前記モデル化する処理は、前記物体のカメラに対する相対的な位置及び姿勢を変化させて撮影した複数の画像を入力し、前記複数の画像それぞれに連続して含まれる複数の小領域を選択して追跡することにより、それぞれの小領域を、小領域の系列として選択し、該選択された小領域の系列に基づいて、物体モデル登録時と入力画像認識時における物体の姿勢の相異による見え方の変動および照明条件の相異による前記物体の見え方の変動をカバーする部分空間を同定し、該同定したそれぞれの小領域の部分空間を1セットにして物体モデルとして生成する処理である、プログラムを記録したコンピュータ読み取り可能な記録媒体。Processing to estimate and model changes in the appearance of objects due to changes in the shooting environment,
Processing to register the obtained object model in the database in advance,
A process of inputting image information of an object to be recognized;
A process of matching the object model registered in advance with the input image information and assigning a similarity to the registered object model;
Causing the computer to execute a process of outputting the type of the object to be recognized that is determined to be the most similar among the assigned object models,
The modeling process inputs a plurality of images taken by changing the relative position and orientation of the object with respect to the camera, and selects a plurality of small regions continuously included in each of the plurality of images. By tracking, each small area is selected as a series of small areas, and based on the selected series of small areas, the appearance due to the difference in the posture of the object at the time of object model registration and input image recognition Is a process of identifying a subspace that covers the change in the appearance of the object due to a variation in illumination and a difference in illumination conditions, and generating a partial space of each identified small region as a set as an object model A computer-readable recording medium on which is recorded.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000123604A JP4443722B2 (en) | 2000-04-25 | 2000-04-25 | Image recognition apparatus and method |
US09/772,924 US6888955B2 (en) | 2000-04-25 | 2001-01-31 | Picture recognition apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000123604A JP4443722B2 (en) | 2000-04-25 | 2000-04-25 | Image recognition apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001307096A JP2001307096A (en) | 2001-11-02 |
JP4443722B2 true JP4443722B2 (en) | 2010-03-31 |
Family
ID=18633881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000123604A Expired - Fee Related JP4443722B2 (en) | 2000-04-25 | 2000-04-25 | Image recognition apparatus and method |
Country Status (2)
Country | Link |
---|---|
US (1) | US6888955B2 (en) |
JP (1) | JP4443722B2 (en) |
Families Citing this family (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7130454B1 (en) * | 1998-07-20 | 2006-10-31 | Viisage Technology, Inc. | Real-time facial recognition and verification system |
CA2427719A1 (en) * | 2001-09-25 | 2003-05-01 | Matsushita Electric Industrial Co., Ltd. | Parameter estimation apparatus and data matching apparatus |
JP3903783B2 (en) | 2001-12-14 | 2007-04-11 | 日本電気株式会社 | Face metadata generation method and apparatus, and face similarity calculation method and apparatus |
JP4161659B2 (en) | 2002-02-27 | 2008-10-08 | 日本電気株式会社 | Image recognition system, recognition method thereof, and program |
JP2008217803A (en) * | 2002-02-27 | 2008-09-18 | Nec Corp | Image recognition system and recognition method thereof, and program |
JP3873793B2 (en) * | 2002-03-29 | 2007-01-24 | 日本電気株式会社 | Face metadata generation method and face metadata generation apparatus |
JP2004030122A (en) * | 2002-06-25 | 2004-01-29 | Fujitsu Ltd | Drawing retrieval support device and method for retrieving drawing |
JP2004213087A (en) * | 2002-12-26 | 2004-07-29 | Toshiba Corp | Device and method for personal identification |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US9129381B2 (en) | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US8553949B2 (en) | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US7471846B2 (en) | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
EP1639522B1 (en) | 2003-06-30 | 2007-08-15 | HONDA MOTOR CO., Ltd. | System and method for face recognition |
US20060030985A1 (en) * | 2003-10-24 | 2006-02-09 | Active Recognition Technologies Inc., | Vehicle recognition using multiple metrics |
WO2006002320A2 (en) * | 2004-06-23 | 2006-01-05 | Strider Labs, Inc. | System and method for 3d object recognition using range and intensity |
WO2010042486A1 (en) | 2008-10-07 | 2010-04-15 | Euclid Discoveries, Llc | Feature-based video compression |
US9578345B2 (en) | 2005-03-31 | 2017-02-21 | Euclid Discoveries, Llc | Model-based video encoding and decoding |
US9532069B2 (en) | 2004-07-30 | 2016-12-27 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US7508990B2 (en) * | 2004-07-30 | 2009-03-24 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US8902971B2 (en) | 2004-07-30 | 2014-12-02 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US9743078B2 (en) | 2004-07-30 | 2017-08-22 | Euclid Discoveries, Llc | Standards-compliant model-based video encoding and decoding |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US20060120571A1 (en) * | 2004-12-03 | 2006-06-08 | Tu Peter H | System and method for passive face recognition |
US8503800B2 (en) | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US20110102553A1 (en) * | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
WO2006138525A2 (en) | 2005-06-16 | 2006-12-28 | Strider Labs | System and method for recognition in 2d images using 3d class models |
US7965875B2 (en) | 2006-06-12 | 2011-06-21 | Tessera Technologies Ireland Limited | Advances in extending the AAM techniques from grayscale to color images |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
CN102685441A (en) | 2007-01-23 | 2012-09-19 | 欧几里得发现有限责任公司 | Systems and methods for providing personal video services |
EP2106663A2 (en) | 2007-01-23 | 2009-10-07 | Euclid Discoveries, LLC | Object archival systems and methods |
EP2130381A2 (en) | 2007-01-23 | 2009-12-09 | Euclid Discoveries, LLC | Computer method and apparatus for processing image data |
DE602008001607D1 (en) | 2007-02-28 | 2010-08-05 | Fotonation Vision Ltd | SEPARATION OF DIRECTIONAL ILLUMINATION VARIABILITY IN STATISTICAL FACE MODELING BASED ON TEXTURE SPACE MODULES |
KR101247147B1 (en) | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | Face searching and detection in a digital image acquisition device |
US7916971B2 (en) | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
JP5355873B2 (en) * | 2007-08-24 | 2013-11-27 | 株式会社ユニバーサルエンターテインメント | Image processing apparatus and system |
US7855737B2 (en) | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
KR101446975B1 (en) | 2008-07-30 | 2014-10-06 | 디지털옵틱스 코포레이션 유럽 리미티드 | Automatic face and skin beautification using face detection |
JP4497236B2 (en) | 2008-08-11 | 2010-07-07 | オムロン株式会社 | Detection information registration device, electronic device, detection information registration device control method, electronic device control method, detection information registration device control program, electronic device control program |
US8633999B2 (en) * | 2009-05-29 | 2014-01-21 | DigitalOptics Corporation Europe Limited | Methods and apparatuses for foreground, top-of-the-head separation from background |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
JP5524692B2 (en) * | 2010-04-20 | 2014-06-18 | 富士フイルム株式会社 | Information processing apparatus and method, and program |
CN103003814A (en) * | 2010-05-14 | 2013-03-27 | 数据逻辑Adc公司 | Systems and methods for object recognition using a large database |
US8971628B2 (en) | 2010-07-26 | 2015-03-03 | Fotonation Limited | Face detection using division-generated haar-like features for illumination invariance |
JP5923723B2 (en) * | 2011-06-02 | 2016-05-25 | パナソニックIpマネジメント株式会社 | Person attribute estimation system, person attribute estimation apparatus, and person attribute estimation method |
JP6013178B2 (en) * | 2012-12-28 | 2016-10-25 | 株式会社東芝 | Image processing apparatus and image processing method |
WO2015001856A1 (en) * | 2013-07-01 | 2015-01-08 | Necソリューションイノベータ株式会社 | Attribute estimation system |
US9514354B2 (en) * | 2013-12-18 | 2016-12-06 | International Business Machines Corporation | Facial analysis by synthesis and biometric matching |
US9621917B2 (en) | 2014-03-10 | 2017-04-11 | Euclid Discoveries, Llc | Continuous block tracking for temporal prediction in video encoding |
US10097851B2 (en) | 2014-03-10 | 2018-10-09 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US10091507B2 (en) | 2014-03-10 | 2018-10-02 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
CN108931209B (en) * | 2018-05-04 | 2019-12-31 | 长春理工大学 | High-adaptability three-dimensional reconstruction method for colored object |
CN109492121A (en) * | 2018-09-30 | 2019-03-19 | 深圳壹账通智能科技有限公司 | Method, apparatus, server and the storage medium of intelligent recognition picture |
CN110532113B (en) * | 2019-08-30 | 2023-03-24 | 北京地平线机器人技术研发有限公司 | Information processing method and device, computer readable storage medium and electronic equipment |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5715325A (en) * | 1995-08-30 | 1998-02-03 | Siemens Corporate Research, Inc. | Apparatus and method for detecting a face in a video image |
US5828769A (en) * | 1996-10-23 | 1998-10-27 | Autodesk, Inc. | Method and apparatus for recognition of objects via position and orientation consensus of local image encoding |
US5815325A (en) * | 1996-10-31 | 1998-09-29 | Eastman Kodak Company | Optical assembly with drive linkage for a movable lens element |
JPH10228543A (en) | 1996-12-11 | 1998-08-25 | Matsushita Electric Ind Co Ltd | Pattern collating device |
JP3577908B2 (en) | 1997-09-04 | 2004-10-20 | 富士通株式会社 | Face image recognition system |
JP2000306095A (en) | 1999-04-16 | 2000-11-02 | Fujitsu Ltd | Image collation/retrieval system |
-
2000
- 2000-04-25 JP JP2000123604A patent/JP4443722B2/en not_active Expired - Fee Related
-
2001
- 2001-01-31 US US09/772,924 patent/US6888955B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001307096A (en) | 2001-11-02 |
US6888955B2 (en) | 2005-05-03 |
US20010038714A1 (en) | 2001-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4443722B2 (en) | Image recognition apparatus and method | |
US9053388B2 (en) | Image processing apparatus and method, and computer-readable storage medium | |
JP4353246B2 (en) | Normal information estimation device, registered image group creation device, image collation device, and normal information estimation method | |
JP4556873B2 (en) | Image collation system and image collation method | |
EP1811456B1 (en) | Face feature point detector and feature point detector | |
JP6544900B2 (en) | Object identification device, object identification method and program | |
US7995805B2 (en) | Image matching apparatus, image matching method, computer program and computer-readable storage medium | |
US7856122B2 (en) | Method and device for collating biometric information | |
US8542887B2 (en) | Object identification apparatus and object identification method | |
US7925093B2 (en) | Image recognition apparatus | |
US20060204103A1 (en) | Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program | |
MX2012010602A (en) | Face recognizing apparatus, and face recognizing method. | |
JP5241606B2 (en) | Object identification device and object identification method | |
JP2008251039A (en) | Image recognition system, recognition method thereof and program | |
Zhou et al. | Automatic landmark location with a combined active shape model | |
Sahbi et al. | Robust face recognition using dynamic space warping | |
JP3577908B2 (en) | Face image recognition system | |
JP2001092963A (en) | Method and device for collating image | |
JP5653003B2 (en) | Object identification device and object identification method | |
JP4816874B2 (en) | Parameter learning apparatus, parameter learning method, and program | |
JP5791361B2 (en) | PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM | |
JP2008015871A (en) | Authentication device and authenticating method | |
JP4446383B2 (en) | Image processing apparatus and image recognition apparatus | |
JP4789526B2 (en) | Image processing apparatus and image processing method | |
JP7103443B2 (en) | Information processing equipment, information processing methods, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100112 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100113 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140122 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |