JP2008251039A - 画像認識システム及びその認識方法並びにプログラム - Google Patents

画像認識システム及びその認識方法並びにプログラム Download PDF

Info

Publication number
JP2008251039A
JP2008251039A JP2008150018A JP2008150018A JP2008251039A JP 2008251039 A JP2008251039 A JP 2008251039A JP 2008150018 A JP2008150018 A JP 2008150018A JP 2008150018 A JP2008150018 A JP 2008150018A JP 2008251039 A JP2008251039 A JP 2008251039A
Authority
JP
Japan
Prior art keywords
image
partial area
partial
inter
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008150018A
Other languages
English (en)
Other versions
JP4803214B2 (ja
Inventor
Akira Inoue
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008150018A priority Critical patent/JP4803214B2/ja
Publication of JP2008251039A publication Critical patent/JP2008251039A/ja
Application granted granted Critical
Publication of JP4803214B2 publication Critical patent/JP4803214B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】 入力画像の照明変動、オクルージョンの状態に関係なく、入力画像を正しく分類すること。
【解決手段】 入力画像部分領域抽出手段2は入力画像の部分領域を抽出する。パターン間距離算出手段3はこの部分領域と、予め辞書格納手段5に格納した登録画像の部分領域とのパターン間距離を各部分領域について算出する。領域距離値統合手段10は各部分領域について得られたパターン間距離を統合する。これを各カテゴリの登録画像について行う。識別手段4はその統合したパターン間距離のうちの最小値を求め、その最小値がしきい値よりも小さい場合にその最小距離を持つカテゴリを認識結果として出力する。
【選択図】 図1

Description

本発明は画像を用いた画像認識システム及びその認識方法並びにプログラムに関し、特に画像に撮影された対象物体が、辞書に登録された物体かどうかを識別する、あるいは辞書に登録された複数のカテゴリ中の一つに分類する画像認識システム及びその認識方法並びにプログラムに関する。
従来の画像による認識システムの一例として、顔画像照合装置(たとえば、特許文献1参照)がある。これは人間の顔画像を照合するものであり、画像全体をフーリエ解析したフーリエスペクトルパタンの固有ベクトルを用いて照合を行う。
また、パターン認識装置およびその方法(たとえば、特許文献2参照)には複数の入力画像から求められる部分空間と、登録された画像によって張られる部分空間との角度(相互部分空間類似度)によって照合を行う手法が述べられている。図29に従来の画像認識システムの一例の構成図を示す。従来の画像認識システムの一例は画像入力部210と、部分空間間の角度計算部211と、認識部212と、辞書記憶部213とから構成されている。
このような構成を有する従来の画像認識システムはつぎのように動作する。すなわち、画像入力部210によって、複数方向で撮影された複数の画像を入力する。次に部分空間間の角度計算部211において、部分空間間の角度を計算する。
まず入力画像群をN次元部分空間で表現する。具体的には画像全体を1次元特徴データとみなして主成分分析し、N個の固有ベクトルを抽出する。辞書記憶部213には、あらかじめM次元の部分空間で表現された辞書データが、カテゴリごとに用意されている。部分空間間の角度計算部211において、さらに入力画像のN次元部分空間と辞書のM次元部分空間との角度を、カテゴリごとに計算する。認識部212は、部分空間間の角度計算部211において算出された角度を比較し、角度が最も小さいカテゴリを認識結果として出力する。
辞書部分空間の基底ベクトルをΦm(m=1,….M)とし、入力部分空間の基底ベクトルをΨn(n=1,…N)とすると、式(1)または式(2)のxijを要素に持つ行列Xを計算する。
Figure 2008251039
Figure 2008251039
部分空間間の角度Θの、余弦の二乗は、行列Xの最大固有値として求められる。角度が小さいということは、余弦の2乗が大きいことを意味する。すなわち余弦の2乗はパターンの類似度と言い換えることができる。従来の画像認識システムでは行列Xの最大固有値を類似度とし、類似度が最大のカテゴリに分類する。
これら従来の画像認識システムに共通するのは、照合時の類似度計算あるいは距離計算を、画像全体から抽出した特徴を用いて一度だけ行うという点である。
また、2次元画像と3次元データとの照合に関する発明が特許文献3に開示されている。これは予め登録された個人の3次元データを用いて照明変動および姿勢変動処理を行うものである。また、この種の他の画像認識システムの例が特許文献4〜9に開示されている。
特開平05−020442号公報 特開平10−199128号公報 特開2001−283216号公報 特開平03−043877号公報 特開平07−287753号公報 特開2000−259838号公報 特開2001−052182号公報 特開2001−236508号公報 特開平10−232938号公報
しかし、対象画像が照明変動によって一部が黒つぶれしている場合や、オクルージョンが発生した場合(対象物体の一部が物陰に隠れている場合)には、画像全体から取得した特徴量が異常になり、正確に照合できないという問題があった。
一方、特許文献3に開示の発明は照明変動および姿勢変動処理の公知例であるが、本発明では1枚の画像から標準3次元データを用いて複数の変動画像群を生成しているので、特許文献3に開示の発明は認識システムとしては本発明と全く異なる発明である。また、特許文献4〜9のいずれにも上記本発明の構成は開示されていない。
そこで本発明の目的は、照明変動やオクルージョンの状態に関係なく、入力画像を正しく分類する画像認識システムを提供することにある。
前記課題を解決するため本発明による画像認識システムは、入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出手段と、複数の前記パターン間距離値を用いて前記入力画像を識別する識別手段とを含む画像認識システムであって、前記識別手段は、複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする。
又、本発明による画像認識方法は、パターン間距離算出手段が入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出ステップと、識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法であって、前記識別ステップでは、前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする。
又、本発明によるプログラムは、パターン間距離算出手段が入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出ステップと、識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法のプログラムを実行するコンピュータに、前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別するステップを実行させるためのものであることを特徴とする。
本発明によれば、照明変動やオクルージョンの状態に関係なく、入力画像を正しく分類することが可能となる。
以下、本発明の実施の形態について添付図面を参照しながら説明する。図1は本発明に係る画像認識システムの第1の実施の形態の構成図である。同図を参照すると、画像認識システムは、入力画像から対象を認識する照合部1と、照合に用いる辞書を格納する辞書格納手段5と、画像から部分領域を抽出するための位置情報を格納した部分領域情報記憶手段6と、登録画像から辞書を生成する登録部7とを含んで構成されている。入力画像の一例として人間の顔画像が挙げられる。この場合、顔パターンの画像中の位置、大きさはあらかじめ一定であることが望ましい。
なお、ここで述べる入力画像とは、実世界を撮影した自然画像だけでなく、空間フィルタを作用させたものやコンピュータグラフィクスで生成されたものを含む2次元のパターン全般を含んでいる。
次に照合部1の動作について説明する。照合部1は、入力画像部分領域抽出手段2と、パターン間距離算出手段3と、領域距離値統合手段10と、識別手段4とから構成されている。入力された画像に対し、入力画像部分領域抽出手段2において、P個(Pは2以上の整数)の部分領域を設定し、それぞれの部分領域に属する画素値を元に特徴ベクトルを算出する。これを領域別入力特徴ベクトルと呼ぶ。領域別入力特徴ベクトルの一例として、画素値を要素とする特徴ベクトルがあげられる。その他の領域別入力特徴ベクトルを生成する例については後述する。
部分領域の設定に際しては部分領域情報記憶手段6から各部分領域の位置と大きさと形状に関する情報を取得する。
次に部分領域の抽出について説明する。図2は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像300は、P個の矩形の部分領域に均等に分割されている(部分領域分割結果302参照)。部分領域分割結果302は、一例として横5個、縦4個の、均等に配置された大きさの等しい20個の部分領域である。部分領域の形状は矩形ではなく、楕円形や、任意の閉曲線で定義することができる。またそれぞれの大きさは均一である必要はない。また、それぞれの部分領域が一部重なり合うように定義することが可能である。部分領域分割結果302のように、均一の大きさの矩形が、画像全体に均等に配置された部分領域が定義されているときは、画像処理が簡潔になり高速化されるという利点がある。
部分領域に含まれる画素数は少なくとも2画素以上が必要である。なぜならば、1画素の部分領域とは、所詮1画素に過ぎず、従来の方法と原理的に同等となり、性能向上が図れないからである。実験的な結果からは部分領域の画素数は16画素程度以上が望ましい。
次にパターン間距離算出手段3の動作について説明する。パターン間距離算出手段3においては、部分領域に分割して得られた領域別入力特徴ベクトルを用いて、登録された各カテゴリの部分領域ごとの辞書データとの間のパターン間距離を算出する。辞書データは辞書格納手段5から読み取る。パターン間距離算出手段3は、P個の部分領域ごとにパターン間距離値dp(p=1,…P)を算出する。
パターン間距離算出手段3の一例として、図3に示すパターン間距離算出手段40がある。同図を参照すると、パターン間距離算出手段40はノルム算出手段41を含んで構成されている。ノルム距離算出手段41は、部分領域ごとに、入力特徴ベクトルx(i)と辞書特徴ベクトルy(i)との差分のノルムを算出する。ノルムの例としてL2ノルムがある。L2ノルムによる距離はユークリッド距離であり、算出方法を式(3)に示す。ただしベクトルの次元数をnとする。
Figure 2008251039
ノルムのもう一つの例としてL1ノルムがある。L1ノルムによる距離の算出方法を式(4)に示す。L1ノルムによる距離は市街地距離と呼ばれる。
Figure 2008251039
次に図2を用いてパターン間距離算出手段40における部分領域ごとの照合について説明する。同図を参照すると、入力画像300は識別対象として入力された画像である。登録画像301はあらかじめ辞書として登録されている画像である。入力画像300はP個の部分領域に分割され、入力画像領域分割結果302が得られる。登録画像301も同じP個の部分領域に分割され、登録画像領域分割結果303が得られる。
入力画像300の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別入力特徴ベクトル309として記憶される。P個の中の一つである部分領域Aに注目すると、部分領域A入力画像304が1次元ベクトルとして部分領域A入力特徴ベクトル307に変換される。
同様に登録画像301の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別辞書特徴ベクトル310として記憶される。P個の中の一つである部分領域A に注目すると、部分領域A登録画像305が1次元ベクトルとして部分領域A辞書特徴ベクトル308に変換される。
パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力特徴データ307は、部分領域A辞書特徴ベクトル308と比較され、ノルム距離を算出する。このように、P個すべての部分領域についてノルム距離が独立に算出される。
パターン間距離算出手段3の他の一例として、図4のパターン間距離算出手段50がある。同図を参照すると、パターン間距離算出手段50は部分空間投影距離算出手段51を含んで構成されている。部分空間投影距離算出手段51は、部分領域ごとに、部分空間投影距離を算出する。
部分空間投影距離によるパターンマッチングは部分空間法と呼ばれており、例えば文献1(前田、村瀬、“カーネル非線形部分空間法によるパターン認識”、電子情報通信学会論文誌,D−II,Vol.J82−D−II,No.4,pp.600−612,1999)などに記載されている。部分空間投影距離は、辞書登録された特徴データ群が張る部分空間と、入力特量ベクトルとの距離値を定義したものである。部分空間投影距離の算出方法の例について述べる。入力特徴ベクトルをXとする。辞書登録された特徴ベクトル群の平均ベクトルをVとする。辞書登録された特徴ベクトル群を主成分分析し、固有値の大きなK個の固有ベクトルを列とする行列をΨi(i=1、、、K)とする。本文では、この平均ベクトルVとK個の固有ベクトルによる行列Ψiを合わせたものを主成分データと呼ぶ。このとき部分空間投影距離dsは式(5)によって算出される。
Figure 2008251039
次に、パターン間距離算出手段50における部分領域ごとの照合について説明する。図5は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像340は識別対象として入力された画像である。登録画像シーケンス341は、あらかじめ辞書として登録された、ある1つのカテゴリに属する画像シーケンスである。登録画像シーケンス341はJ個(Jは2以上の整数)の登録画像からなる。入力画像340はP個の部分領域に分割され、入力画像領域分割結果342が得られる。登録画像シーケンス341も同様にP個の部分領域に分割され、登録画像領域分割結果343が得られる。
入力画像340の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別入力特徴ベクトル349として記憶される。P個の中の一つである部分領域Aに注目すると、部分領域A入力画像344が1次元ベクトルとして部分領域A入力特徴ベクトル347に変換される。
登録画像シーケンス341のJ個の画像から、それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたJ個の特徴ベクトルから主成分データを算出し、領域別辞書主成分データ350として記憶される。P個の領域の一つである部分領域Aに注目すると、部分領域Aに属する特徴データ列である部分領域A登録シーケンス345を用いて、部分領域A辞書主成分データ348を算出する。
パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力特徴データ347は、部分領域A辞書主成分ベクトル348と比較されて、部分空間投影距離が算出される。このように、P個すべての部分領域について部分空間投影距離が独立に算出される。
次に領域距離値統合手段10において、カテゴリごとにP個の距離値を用いて、ある関数F(d1,d2,d3…dp)を作用させ、一つの統合距離値を算出する。
距離値統合手段10の一例として、図6の領域距離値統合手段70がある。領域距離値統合手段は加重平均値算出手段71を含んで構成されている。領域距離値統合手段70は、P個の部分領域の距離値が与えられると、加重平均値算出手段71は、P個の距離値の加重平均値Dwを計算して統合距離値として出力する。加重平均値Dwの計算式を式(6)に示す。
Figure 2008251039
各領域に対応する重み値wはあらかじめ決められた値を用いることができるし、領域内の画像データに適当な関数を作用させて求めても良い。
次に、距離値統合手段10の一例として、図7に示す領域距離値統合手段80がある。領域距離値統合手段は、距離値ソート手段82と、距離値上位平均算出手段81から構成されている。領域距離値統合手段80は、P個の部分領域の距離値が与えられると、距離値ソート手段82においてP個の距離値を小さい順にソートし、距離値上位平均算出手段81において距離値の小さいP´個(P´はP未満の整数)の平均値Dpを計算し、統合距離値として出力する。P´の値については、Pの値に応じて予め決めておく方法がある。またP´を各部分領域の距離値の関数として定義することにより、P´の値を動的に変化させる方法がある。また画像全体の明るさ、コントラストに応じてP´の値を可変にすることができる。
また、距離値統合手段10の一例として、P個の部分領域の距離値の中で予め与えられたしきい値よりも小さいP´個(P´はP未満の整数)の平均値を算出するものがある。
次に、距離値統合手段80で、部分領域の距離値が小さいものだけを用いて統合距離を算出する方法の利点について図8を用いて説明する。図8は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。入力画像400と、登録画像401を比較することを考える。登録画像401は照明の影響で左側に影があり、左側の画像パターンが大きく異なっている。部分領域ごとに距離値を計算した結果を濃淡値で図示すると、部分領域距離値マップ404が得られる。黒い領域は距離値が大きく(照合スコアは低い)、白い領域は距離値が小さい(照合スコアは高い)。登録画像左側の影が写った部分領域の照合スコアは低くなっている。直感的に、不明瞭な左側の部分領域を無視して右側の部分領域だけで照合するほうが、より正確な照合結果が得られることがわかる。よって距離値統合手段80のように、照合スコアの高い(距離値の低い)部分領域のみを考慮した距離値統合手段が有効である。
次に、識別手段4は、距離値統合手段10から得られた各カテゴリとの統合距離値を比較し、最終的に入力画像が属するカテゴリを出力する。識別手段4の一例として図9に示す識別手段90がある。同図を参照すると、識別手段90は、最小値算出手段91と、しきい値処理手段92とを含んで構成される。まず最小値算出手段91において、各カテゴリとの統合距離値の最小値を算出する。次にしきい値処理手段92において最小値をしきい値と比較し、しきい値よりも小さいときは、最小値が得られたカテゴリを識別結果として出力する。しきい値よりも大きいときは、辞書には存在しないという結果を出力する。
次に登録部7の動作について説明する。登録部7は、登録画像部分領域抽出手段9と、辞書データ生成手段8とを含んで構成されている。登録部7へは登録画像と対応するカテゴリのID(Identification)とが入力される。この画像はカテゴリIDによって指定されたカテゴリに属するものとする。登録画像に対し、登録画像部分領域抽出手段9は、部分領域情報6を参照して、P個の部分領域を設定し、それぞれの部分領域に属する画素値を元に領域別辞書特徴ベクトルを生成する。領域別辞書特徴ベクトルの一例として、画素値を要素とする特徴ベクトルがあげられる。その他の領域別辞書特徴ベクトルを生成する例については後述する。
そして辞書データ生成手段8では領域別辞書特徴ベクトルを、適切な保存形式に変換し、辞書格納手段5に出力する。辞書として主成分データが必要な場合は、辞書特徴ベクトル群の主成分分析を行う。保存形式の一例が図10に示されている。
辞書データ生成手段8の一例として、図27の辞書データ生成手段190がある。辞書データ生成手段190は主成分データ生成手段191を含む。主成分データ生成手段191は、入力された複数の領域別辞書特徴ベクトル群の主成分分析を行い、領域別主成分データを生成する。
図10に辞書格納手段5の一例である辞書格納手段100の構成図を示す。図10(A)は辞書格納手段100の全体構成図、図10(B)はレコード記憶部101の構成図である。辞書格納手段100はC個のレコード記憶部101を持ち、各レコードには、レコード番号102、領域別辞書データ103、カテゴリID104を記憶することができる。領域別辞書データは、P個の部分領域別の辞書データからなっている。辞書格納手段100は、同じカテゴリIDを持つ複数の辞書レコードを格納することが可能である。領域別辞書データ103の具体的なデータは、パターン間距離算出手段3の距離計算方式に依存し、例えばパターン間距離算出手段40を用いるときは1次元の特徴ベクトルとなり、パターン間距離算出手段50やパターン間距離算出手段60を用いるときは、平均ベクトルVとK個の固有ベクトルからなる主成分データとなる。
図11に、ビデオシーケンスなどの複数枚の入力画像から対象を認識する実施例である照合部21の構成を示す。本実施例の入力としては、ビデオ映像などの動画像や、同じ物体を撮影した複数枚の静止画像が含まれている。なお、図1と同様の構成部分には同一番号を付し、その説明を省略する。照合部21は、入力画像列を平均化し、1枚の入力画像を生成する入力画像列平滑化手段22と、入力画像部分領域抽出手段2と、パターン間距離算出手段3と、識別手段4とを含んで構成されている。照合部21は、はじめにN枚(Nは2以上の整数)の入力画像が入力されると、画素ごとにN枚の平均を取り、1枚の入力平均画像を生成する。この入力平均画像を入力画像として照合部1と同等の動作を行う。
図12に、ビデオシーケンスなどの複数枚の入力画像から対象を認識するもう一つの実施例である照合部31の構成を示す。本実施例の入力としては、ビデオ映像などの動画像や、同じ物体を撮影した複数枚の静止画像が含まれている。なお、図1と同様の構成部分には同一番号を付し、その説明を省略する。照合部31は、入力画像部分領域抽出手段2と、入力主成分生成部32と、パターン間距離算出手段33と、識別手段4とを含んで構成されている。照合部31は、N枚の入力画像が入力されると、各画像に対し、入力画像部分領域抽出手段2において、P個の部分領域を設定し、それぞれの部分領域に属する画像データを抽出する。部分領域の設定に際しては部分領域情報記憶手段6から各部分領域の位置と大きさと形状に関する情報を取得する。次に入力主成分生成部32において、部分領域ごとの入力主成分データである領域別入力主成分データを算出する。パターン間距離算出手段33では、得られたP個の入力主成分データと、辞書データとを用いて、各カテゴリとの距離値を計算する。各カテゴリとの距離値を元に識別手段において、入力画像列が、どのカテゴリに属するかを判断し、認識結果を出力する。
パターン間距離算出手段33の例として、図13に示すパターン間距離算出手段60がある。パターン間距離算出手段60は、部分空間間距離算出手段61とから構成されている。部分空間間距離算出手段61は、領域別入力主成分データと領域別辞書主成分データを入力として、部分領域ごとに距離値を算出する。
部分空間間距離算出手段61の実現方法として、部分空間同士の距離を求める方法がある。一例を以下に述べる。辞書主成分データは、辞書平均ベクトルV1とK個の辞書固有ベクトルΨiとからなる。入力主成分データは、入力平均ベクトルV2とL個の入力固有ベクトルΦiとからなる。まず入力平均ベクトルV2と辞書固有ベクトルで張られる部分空間との距離値dM1を式(7)によって算出する。
Figure 2008251039
次に辞書平均ベクトルV1と、入力固有ベクトルで張られる部分空間との距離値dM2を式(8)によって算出する。
Figure 2008251039
入力と辞書の部分空間同士の距離は、dM1とdM2の関数G(dM1,dM2)によって算出される。
関数Gの一例として式(9)などがある。
Figure 2008251039
ただしαは定数である。
次に、図14を用いてパターン間距離算出手段60における部分領域ごとの照合について説明する。図14は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像320は識別対象として入力された画像シーケンスである。登録画像シーケンス321は、あらかじめ辞書として登録された、ある1つのカテゴリに属する画像シーケンスである。入力画像シーケンスはN枚、登録画像シーケンス321はJ枚の登録画像からなる。入力画像シーケンス320の各画像はP個の部分領域に分割され、入力画像領域分割結果322が得られる。登録画像シーケンス341も同様にP個の部分領域に分割され、登録画像領域分割結果323が得られる。
入力画像シーケンス320の、N枚の画像から、P個それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたN個の特徴ベクトルから主成分データを算出し、領域別入力主成分データ329として記憶される。P個の領域の一つである部分領域A に注目すると、部分領域Aに属する特徴データ列である部分領域A入力シーケンス324を用いて、部分領域A入力主成分データ326が算出される。
一方、登録画像シーケンス321のJ枚の画像から、P個それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたJ個の特徴ベクトルから主成分データを算出し、領域別辞書主成分データ330として記憶される。P個の領域の一つである部分領域Aに注目すると、部分領域Aに属する特徴データ列である部分領域A登録シーケンス325を用いて、部分領域A 辞書主成分データ327が算出される。
パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力主成分データ326は、部分領域A辞書主成分データ327と比較され、部分空間間距離が例えば式(9)によって算出される。P個すべての部分領域について部分空間間距離が独立に算出される。
次に、入力画像部分領域抽出手段2について詳細に説明する。入力画像部分領域抽出手段3の一例として、図18の入力画像部分領域抽出手段110がある。入力画像部分領域抽出手段110は、部分画像取得手段111と、特徴抽出手段112とを含んでいる。部分画像取得手段111は、部分領域情報記憶手段6に格納された部分領域情報を参照し、部分画像の画素値を取得する。特徴抽出手段112は、得られた部分画像データを1次元特徴ベクトルに変換する。特徴抽出手段112の例として、部分画像の画素値を要素とするベクトルを生成するものがある。また特徴抽出手段112の例として、部分画像の画素値に対し、画素値の濃度正規化、ヒストグラム平坦化、フィルタリング等の補正処理を加えたものを特徴ベクトルとするものがある。また、フーリエ変換、DCT、ウェーブレット変換を利用した周波数特徴を抽出するものがある。周波数特徴は一般に位置ずれに頑強である。なお周波数特徴への変換は画素値ベクトルに対するフィルタリングの一種である。
周波数特徴を出力する特徴抽出手段112の一例として、図19に示す特徴抽出手段130がある。特徴抽出手段130は、フーリエスペクトル変換手段131を含む。フーリエスペクトル変換手段131は、部分領域の画素値のベクトルに対し離散フーリエ変換を施す。特徴抽出手段130は、画素値の離散フーリエ変換係数を要素とする特徴ベクトルを出力する。
入力画像部分領域抽出手段2の他の一例として、図20の入力画像部分領域抽出手段120がある。入力画像部分領域抽出手段120は、姿勢補正手段121と、部分画像取得手段111と、特徴抽出手段112とを含む。入力画像部分領域抽出手段120は、姿勢補正手段121によって、特徴を抽出する前に入力画像中の物体の姿勢を適切に補正する。画像中の物体の姿勢を補正するというのは、具体的には、入力画像中の物体が、予め定められた固定方向からカメラで観察した状態になるように、入力画像データ自身を変換することである。姿勢補正手段121によって、一定の姿勢に変換された画像データに対し、部分画像取得手段111と特徴抽出手段112を用いて、領域別入力特徴ベクトルを生成する。入力画像の姿勢を補正することにより、画像中の物体の姿勢変化による照合精度の劣化を改善することができる。また登録側の画像を、入力と同じパラメータの姿勢に補正することで、照合精度を向上させることができる。
図21を参照して、姿勢補正方法について説明する。一般に姿勢補正のパラメータは、XYZ軸に沿った移動とXYZ軸回りの回転の合計6個である。図21では顔画像を例として、様々な方向を向いた顔画像を入力画像として示している。入力画像A140は上向き、入力画像B141は右向き、入力画像C142は下向き、入力画像D143は左向きである。それに対して姿勢補正画像144は、前記入力画像を、正面向き画像に変換したものである。
前記姿勢補正画像144への変換のような姿勢補正方法の一例として、画像データをアフィン変換する方法がある。アフィン変換によって物体の姿勢補正する方法は、たとえば特開2000−90190号公報に示されている。
また、その他の姿勢補正方法の一例として、図22及び図23に示す3次元モデルを使用する方法がある。図22及び図23には、人間の顔を想定した3次元モデルが示されており、図22が楕円体モデル151、図23が標準3次元顔モデル152である。標準3次元顔モデルは標準的な人間の顔の形状を表す3次元モデルであり、3次元CADソフトや、レンジファインダーによる測定を利用して得ることができる。姿勢補正は、入力画像を3次元モデル上にテクスチャマッピングした後、3次元モデルを移動回転させることによって実現することができる。
次に、登録画像部分領域抽出手段9について詳細に説明する。登録部分領域抽出手段9の一例として、図24の登録部分領域抽出手段160がある。登録部分領域抽出手段160は、部分画像取得手段111と、特徴抽出手段112とを含んでいる。部分画像取得手段111と特徴抽出手段112の動作についてはすでに述べた。登録部分領域抽出手段160は登録画像から領域別辞書特徴ベクトルを生成する。
登録画像部分領域抽出手段9の他の一例として、図25の登録画像部分領域抽出手段170がある。登録画像部分領域抽出手段170は、姿勢補正手段121と、部分画像取得手段111と、特徴抽出手段112とを含む。登録画像部分領域抽出手段170は、姿勢補正手段121によって特徴を抽出する前に登録画像中の物体の姿勢を適切に補正する。
姿勢補正手段121によって一定の姿勢に変換された画像データに対し、部分画像取得手段111と特徴抽出手段112を用いて、領域別辞書特徴ベクトルを生成する。登録画像の姿勢を補正することにより、画像中の物体の姿勢変化による照合精度の劣化を改善することができる。
登録画像部分領域抽出手段9の他の一例として、図26の登録画像部分領域抽出手段180がある。登録画像部分領域抽出手段180は、変動画像生成手段181と、部分画像取得手段111と、特徴抽出手段112とを含む。変動画像生成手段181は、入力された登録画像を、それ自身を含む複数の変動画像に変換する。変動画像は、入力された画像に対し、姿勢変動、照明変動など、様々な要因によって起こる対象物の見えの変化をシミュレートして変換した画像である。
図28に、人間の顔を対象とした変動画像の例を示す。入力画像250に対し、それ自身を含む7種類の変動画像が生成されている。姿勢変動画像A251は、顔を上向きに変換した画像である。姿勢変動画像B252は、顔を右向きに変換した画像である。姿勢変動画像C253は、顔を下向きに変換した画像である。姿勢変動画像D254は、顔を左向きに変換した画像である。これらの姿勢変動画像は、前記姿勢補正手段121に用いられた方法を利用して変換することができる。照明変動画像255は、入力画像250に対して照明による明暗の変化を付加した画像であり、例えば入力画像250の画素値を全体的に明るく、または暗くする方法で実現することができる。表情変動画像256は、顔の表情を変化させて笑顔に変換した画像である。変換方法は、例えば両方の口もとを上にあげて両目を細くするなどの変形を加えることで実現することができる。元画像257は入力画像そのままのデータである。
また変動画像生成手段181は、同じ変動でもパラメータを複数段階に変化させたものを複数出力することができる。例えば右向きの姿勢変動の場合には、右15度回転と右30度回転と右45度回転の3種類の変換画像を同時に出力することができる。また、姿勢変動と照明変動など、異なる変動要因を組み合わせた変換を施した画像を出力することができる。
変動画像生成手段181によって生成された複数の変動画像群は、部分画像取得手段111と特徴抽出手段112によって、領域別辞書特徴ベクトル群に変換される。
登録画像部分領域抽出手段180によって生成された領域別辞書特徴ベクトル群は、辞書データ生成手段8によって複数の辞書レコードに変換されるか、あるいは図27に示す辞書データ生成手段190によって、主成分データが生成される。主成分データが生成された場合は、図5の概念図に示された方法によって入力画像を照合する。
辞書登録側で変動画像を生成しておくことにより、入力画像中の物体の姿勢や照明環境が変化しても、登録側にあらかじめ想定された変動画像が登録されているため、正確に照合することができる。
次に、図15を参照して本実施形態の全体の動作について詳細に説明する。図15は本発明に係る画像認識システムの全体の動作を示すフローチャートである。まず、識別対象の入力画像データを入力する(ステップA1)。次に入力画像をP個の部分領域に分割し、部分領域ごとに特徴ベクトルの抽出を行う(ステップA2)。次に辞書データを参照し、部分領域ごとに登録画像との距離を算出する(ステップA3)。次に、P個の部分領域ごとの距離値を用いて、1つの統合距離値を算出する(ステップA4)。登録カテゴリの中で最小の距離値を算出する(ステップA5)。次に最小距離がしきい値より小さいかどうかを判定する(ステップA6)。最小距離がしきい値よりも小さいときは、最小距離を持つカテゴリを認識結果として出力する(ステップA7)。最小距離がしきい値よりも大きいときは、該当カテゴリなしを出力する(ステップA8)。
次に図16を参照して本実施形態の辞書データ学習の動作について説明する。図16は辞書データ学習の動作を示すフローチャートである。登録画像データと対応するカテゴリIDを入力する(ステップB1)。次に登録画像をP個の部分領域に分割する(ステップB2)。次に各部分領域に属する画像データを用いて、部分領域ごとに辞書データを生成する(ステップB3)。辞書データを辞書データ格納手段に保存する(ステップB4)。以上の動作を必要なだけ繰り返す。
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。図17は本発明の第2の実施の形態の構成図である。本発明の第2の実施の形態は、プログラム制御により動作するコンピュータ200と、画像認識プログラムを記録した記録媒体201と、カメラ204と、操作卓202と、表示装置203とから構成されている。この記録媒体201は磁気ディスク、半導体メモリその他の記録媒体であってよい。
コンピュータ200は、照合部1と登録部7と辞書格納手段5と部分領域情報記憶手段6とを実現するプログラムをロードして実行する。プログラムは記憶媒体201に保存され、コンピュータ200は記憶媒体201からプログラムを読み出して実行する。プログラムは図15と図16のフローチャートに示す動作を行う。本実施例では入力画像はカメラ204から入力され、認識結果は表示装置203に表示される。認識の指示、学習の指示は操作卓202からオペレータが行う。
本発明による画像認識システムによれば、前記入力画像の部分領域とこれと対応する前記登録画像の部分領域とのパターン間距離を算出し、各部分領域の前記パターン間距離に基づき前記入力画像を識別する照合手段を含むため、照明変動や、オクルージョンの状態に関係なく、入力画像を正しく分類することが可能となる。又、本発明による画像認識方法及びプログラムも上記画像認識システムと同様の効果を奏する。
具体的に説明すると、本発明の効果は、画像中の複数の部分領域を独立に照合し、それらの結果を統合することにより、照明変動や、オクルージョンの影響を低減し、入力画像を正しく識別できることである。その理由は、照明変動やオクルージョンによってスコアが異常となる部分領域を、距離値統合時に排除することができるからである。
本発明に係る画像認識システムの第1の実施の形態の構成図である。 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。 パターン間距離算出手段40の構成図である。 パターン間距離算出手段50の構成図である。 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。 領域距離値統合手段70の構成図である。 領域距離値統合手段80の構成図である。 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。 識別手段90の構成図である。 辞書格納手段100の構成図である。 照合部21の構成図である。 照合部31の構成図である。 パターン間距離算出手段60の構成図である。 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。 本発明に係る画像認識システムの全体の動作を示すフローチャートである。 辞書データ学習の動作を示すフローチャートである。 本発明の第2の実施の形態の構成図である。 入力画像部分領域抽出手段110の構成図である。 特徴抽出手段130の構成図である。 入力画像部分領域抽出手段120の構成図である。 姿勢補正方法を示す概念図である。 楕円体モデルの一例を示す図である。 標準3次元顔モデルの一例を示す図である。 登録画像部分領域抽出手段160の構成図である。 登録画像部分領域抽出手段170の構成図である。 登録画像部分領域抽出手段180の構成図である。 辞書データ生成手段190の構成図である。 変動画像生成方法を示す概念図である。 従来の画像認識システムの一例の構成図である。
符号の説明
1 照合部
2 入力画像部分領域抽出手段
3 パターン間距離算出手段
4 識別手段
5 辞書格納手段
6 部分領域情報記憶手段
7 登録部
8 登録画像部分領域抽出手段
9 辞書データ生成手段
10 領域距離値統合手段
21 照合部
22 入力画像列平滑化部
31 照合部
32 入力主成分生成部
33 パターン間距離算出手段
40 パターン間距離算出手段
41 ノルム算出手段
50 パターン間距離算出手段
51 部分空間投影距離算出手段
60 パターン間距離算出手段
61 部分空間間距離算出手段
70 領域距離値統合手段
71 加重平均値算出手段
80 領域距離値統合手段
81 距離値ソート手段
82 距離値上位平均算出手段
90 識別手段
91 最小値算出手段
92 しきい値処理手段
100 辞書格納手段
101 レコード記憶部
102 レコード番号
103 領域別辞書データ
104 カテゴリID
110 入力画像部分領域抽出手段
111 部分画像取得手段
112 特徴抽出手段
120 入力画像部分領域抽出手段
121 姿勢補正手段
130 特徴抽出手段
131 フーリエスペクトル変換手段
140 入力画像A
141 入力画像B
142 入力画像C
143 入力画像D
144 姿勢補正画像
150 楕円体モデル
151 標準3次元顔モデル
160 登録画像部分領域抽出手段
170 登録画像部分領域抽出手段
180 登録画像部分領域抽出手段
181 変動画像生成手段
190 辞書データ生成手段
191 主成分データ生成手段
200 コンピュータ
201 記憶媒体
202 操作卓
203 表示装置
204 カメラ
210 画像入力部
211 部分空間間の角度計算部
212 認識部
213 辞書記憶部
250 入力画像
251 姿勢変動画像A
252 姿勢変動画像B
253 姿勢変動画像C
254 姿勢変動画像D
255 照明変動画像
256 表情変動画像
257 元画像
300 入力画像
301 登録画像
302 入力画像領域分割結果
303 登録画像領域分割結果
304 部分領域A入力画像
305 部分領域A登録画像
306 照合対
307 部分領域A入力特徴ベクトル
308 部分領域A辞書特徴ベクトル
309 領域別入力特徴ベクトル
310 領域別辞書特徴ベクトル
320 入力画像シーケンス
321 登録画像シーケンス
322 入力画像領域分割結果
323 登録画像領域分割結果
324 部分領域A入力シーケンス
325 部分領域A登録シーケンス
326 部分領域A入力主成分データ
327 部分領域A辞書主成分データ
328 照合対
329 領域別入力主成分データ
330 領域別辞書主成分データ
340 入力画像
341 登録画像シーケンス
342 入力画像領域分割結果
343 登録画像領域分割結果
344 部分領域A入力画像
345 部分領域A登録シーケンス
346 照合対
347 部分領域A入力特徴ベクトル
348 部分領域A辞書主成分データ
349 領域別入力特徴ベクトル
350 領域別辞書主成分データ
400 入力画像
401 登録画像
402 低照合スコア部分領域群
403 高照合スコア部分領域群
404 部分領域距離値マップ

Claims (3)

  1. 入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出手段と、
    複数の前記パターン間距離値を用いて前記入力画像を識別する識別手段とを含む画像認識システムであって、
    前記識別手段は、複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする画像認識システム。
  2. パターン間距離算出手段が入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出ステップと、
    識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法であって、
    前記識別ステップでは、前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする画像認識方法。
  3. パターン間距離算出手段が入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出ステップと、
    識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法のプログラムを実行するコンピュータに、
    前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別するステップを実行させるためのプログラム。
JP2008150018A 2002-02-27 2008-06-09 画像認識システム及びその認識方法並びにプログラム Expired - Lifetime JP4803214B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008150018A JP4803214B2 (ja) 2002-02-27 2008-06-09 画像認識システム及びその認識方法並びにプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002050644 2002-02-27
JP2002050644 2002-02-27
JP2008150018A JP4803214B2 (ja) 2002-02-27 2008-06-09 画像認識システム及びその認識方法並びにプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002272601A Division JP4161659B2 (ja) 2002-02-27 2002-09-19 画像認識システム及びその認識方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2008251039A true JP2008251039A (ja) 2008-10-16
JP4803214B2 JP4803214B2 (ja) 2011-10-26

Family

ID=39837695

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2008066928A Pending JP2008217803A (ja) 2002-02-27 2008-03-17 画像認識システム及びその認識方法並びにプログラム
JP2008150018A Expired - Lifetime JP4803214B2 (ja) 2002-02-27 2008-06-09 画像認識システム及びその認識方法並びにプログラム
JP2013184563A Expired - Lifetime JP5574033B2 (ja) 2002-02-27 2013-09-06 画像認識システム及びその認識方法並びにプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008066928A Pending JP2008217803A (ja) 2002-02-27 2008-03-17 画像認識システム及びその認識方法並びにプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013184563A Expired - Lifetime JP5574033B2 (ja) 2002-02-27 2013-09-06 画像認識システム及びその認識方法並びにプログラム

Country Status (1)

Country Link
JP (3) JP2008217803A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008093A (ja) * 2011-06-22 2013-01-10 Canon Inc 画像認識装置、画像認識方法及びプログラム
KR20160075738A (ko) * 2013-11-30 2016-06-29 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 얼굴 인식 시스템 및 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217803A (ja) * 2002-02-27 2008-09-18 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP6351243B2 (ja) 2013-11-28 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法
JP6630999B2 (ja) 2014-10-15 2020-01-15 日本電気株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
JP6991771B2 (ja) 2017-07-31 2022-01-13 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0343877A (ja) * 1989-07-12 1991-02-25 Omron Corp 画像照合装置
JPH07254062A (ja) * 1994-03-14 1995-10-03 Yamatake Honeywell Co Ltd 指紋照合装置
JPH08194716A (ja) * 1995-01-17 1996-07-30 Canon Inc 画像処理方法及びその装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573663A (ja) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> 3次元物体の画像認識法
JP3305551B2 (ja) * 1995-11-30 2002-07-22 日本電信電話株式会社 特定対称物体判定方法
JPH103544A (ja) * 1996-06-14 1998-01-06 Imeeji Joho Kagaku Kenkyusho ジェスチャ認識装置
JP3577908B2 (ja) * 1997-09-04 2004-10-20 富士通株式会社 顔画像認識システム
JPH11339049A (ja) * 1998-05-27 1999-12-10 Hitachi Maxell Ltd カード認証システム
JP4052609B2 (ja) * 1998-08-27 2008-02-27 株式会社東芝 パタン認識装置およびその方法
JP3886660B2 (ja) * 1999-03-11 2007-02-28 株式会社東芝 人物認識装置における登録装置及びその方法
JP4398533B2 (ja) * 1999-03-12 2010-01-13 富士通株式会社 画像追跡装置及び記録媒体
JP3926059B2 (ja) * 1999-05-12 2007-06-06 日本電気株式会社 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP4443722B2 (ja) * 2000-04-25 2010-03-31 富士通株式会社 画像認識装置及び方法
JP2001337990A (ja) * 2000-05-26 2001-12-07 Victor Co Of Japan Ltd 画像検索システム及び画像検索件方法
JP2002008026A (ja) * 2000-06-27 2002-01-11 Victor Co Of Japan Ltd パターン照合装置及びその方法
JP2002024830A (ja) * 2000-07-05 2002-01-25 Nec Corp 画像照合装置、方法及びコンピュータ読み取り可能な記憶媒体
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP2008217803A (ja) * 2002-02-27 2008-09-18 Nec Corp 画像認識システム及びその認識方法並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0343877A (ja) * 1989-07-12 1991-02-25 Omron Corp 画像照合装置
JPH07254062A (ja) * 1994-03-14 1995-10-03 Yamatake Honeywell Co Ltd 指紋照合装置
JPH08194716A (ja) * 1995-01-17 1996-07-30 Canon Inc 画像処理方法及びその装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008093A (ja) * 2011-06-22 2013-01-10 Canon Inc 画像認識装置、画像認識方法及びプログラム
KR20160075738A (ko) * 2013-11-30 2016-06-29 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 얼굴 인식 시스템 및 방법
JP2016538674A (ja) * 2013-11-30 2016-12-08 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 顔を認識するための方法、システムおよびコンピュータ可読記憶媒体
US9798959B2 (en) 2013-11-30 2017-10-24 Beijing Sensetime Technology Development Co., Ltd Method and system for recognizing faces
KR102047953B1 (ko) * 2013-11-30 2019-12-04 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 얼굴 인식 시스템 및 방법

Also Published As

Publication number Publication date
JP5574033B2 (ja) 2014-08-20
JP2013239211A (ja) 2013-11-28
JP2008217803A (ja) 2008-09-18
JP4803214B2 (ja) 2011-10-26

Similar Documents

Publication Publication Date Title
JP4161659B2 (ja) 画像認識システム及びその認識方法並びにプログラム
JP5574033B2 (ja) 画像認識システム及びその認識方法並びにプログラム
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
US7912253B2 (en) Object recognition method and apparatus therefor
US8300950B2 (en) Image processing apparatus, image processing method, program, and storage medium
US6671391B1 (en) Pose-adaptive face detection system and process
KR102290392B1 (ko) 얼굴 등록 방법 및 장치, 얼굴 인식 방법 및 장치
US8861805B2 (en) Face recognition apparatus and method for controlling the same
CN110838119B (zh) 人脸图像质量评估方法、计算机装置及计算机可读存储介质
US20100014758A1 (en) Method for detecting particular object from image and apparatus thereof
US8861803B2 (en) Image recognition apparatus, image recognition method, and program
JP3962517B2 (ja) 顔面検出方法及びその装置、コンピュータ可読媒体
Geetha et al. 3D face recognition using Hadoop
Naveen et al. Pose and head orientation invariant face detection based on optimised aggregate channel feature
CN112183422A (zh) 一种基于时空特征的人脸活体检测方法、装置、电子设备及存储介质
JP2007025899A (ja) 画像処理装置、画像処理方法
Freitas 3D face recognition under unconstrained settings using low-cost sensors
Mondal Hog Feature-A Survey
Chen et al. UAV-based distributed ATR under realistic simulated environmental effects
Xavier et al. Face Recognition through Different Facial Expressions for Women Security: A Survey
Keche et al. Facial feature expression based approach for human face recognition: A review
Sagar et al. Automatic Countenance Recognition Using DCT-PCA Technique of Facial Patches with High Detection Rate
Kim et al. Adaptive Deformation Handling for Pedestrian Detection
Karpathy Scaling for Multimodal 3D Object Detection
Trivedi et al. Facial Expression Recognition from Video Using Eigen Values

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4803214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

EXPY Cancellation because of completion of term