JP2008102610A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2008102610A
JP2008102610A JP2006282754A JP2006282754A JP2008102610A JP 2008102610 A JP2008102610 A JP 2008102610A JP 2006282754 A JP2006282754 A JP 2006282754A JP 2006282754 A JP2006282754 A JP 2006282754A JP 2008102610 A JP2008102610 A JP 2008102610A
Authority
JP
Japan
Prior art keywords
pattern
image
distribution map
component candidate
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006282754A
Other languages
English (en)
Inventor
Yumi Watabe
由美 渡部
Kotaro Yano
光太郎 矢野
Satoru Yashiro
哲 八代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006282754A priority Critical patent/JP2008102610A/ja
Publication of JP2008102610A publication Critical patent/JP2008102610A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 本発明は、被写体の特徴検出から作成した特徴分布マップを参照し、部分領域を抽出してパターン照合を行うことで、高速かつ精度よく被写体パターンを検出することを目的とする。
【解決手段】 画像から所定の被写体パターンを検出する画像処理装置において、画像から前記被写体の部分的な特徴を抽出する部品候補抽出手段と、前記部品候補抽出手段で抽出した部品候補の位置を示す部品候補分布マップデータ作成手段と、前記部品候補分布マップ作成手段で作成した部品候補分布マップを参照し、前記部品候補抽出手段で抽出された複数の特徴の位置関係から前記被写体パターンと照合するための所定の部分領域を前記画像から抽出する照合パターン抽出手段と、前記照合パターン抽出手段で抽出された部分領域が前記被写体パターンであるかを判別するパターン判別手段とを備える。
【選択図】 図1

Description

本発明は画像中から被写体パターンを自動的に検出する画像処理装置に関するものである。
画像から特定の被写体パターンを自動的に検出する画像処理方法は非常に有用であり、例えば人間の顔の判定に利用することができる。このような方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。このような画像中から顔を検出する技術としては、例えば、非特許文献1に各種方式が挙げられている。その中では、いくつかの顕著な特徴(2つの目、口、鼻など)とその特徴間の固有の幾何学的位置関係とを利用するか、又は人間の顔の対称的特徴、人間の顔色の特徴、テンプレート・マッチング、ニューラル・ネットワークなどを利用することによって、人間の顔を検出する方式が示されている。
前者の例としては、非特許文献2で、blobおよびstreakの検出をもとに画像中から顔を検出する方式が提案されている。すなわち、目は暗い特徴(dark blob)、頬や鼻は明るい特徴(light blob)、眉、口、顔の輪郭は線状のエッジ(streak)であることを利用して、それらの特徴を画像中から検出し、幾何学的な位置関係を考慮して顔の検出を行っている。また、比較的簡単な特徴であるblobを低解像度の画像から検出して、その検出結果にもとづいて高解像度の画像からblobおよびstreakを精度よく検出するようにして、処理の高速化を図っている。しかしながら、このような特徴の検出にもとづく方法では、被写体の姿勢、照明条件、画像のノイズなどの変化に検出結果が影響されやすく、このような条件下において高精度に検出を行うことは困難である。
一方、非特許文献3で提案されている方式は、ニューラル・ネットワークにより画像中の顔パターンを検出する方法である。以下、非特許文献3による顔検出の方法について簡単に説明する。
まず、顔の検出を対象とする画像データをメモリに読み込み、顔と照合する所定の領域を読み込んだ画像中から切り出す。そして、切り出した領域の画素値の分布を入力としてニューラル・ネットワークによる演算で一つの出力を得る。このとき、ニューラル・ネットワークの重み、閾値が膨大な顔画像パターンと非顔画像パターンによりあらかじめ学習されており、例えば、ニューラル・ネットワークの出力が0以上なら顔、それ以外は非顔であると判別する。そして、ニューラル・ネットワークの入力である顔と照合する画像パターンの切り出し位置を、例えば、図4に示すように画像全域から縦横順次に走査していくことにより、画像中から顔を検出する。また、様々な大きさの顔の検出に対応するため、図4に示すように読み込んだ画像を所定の割合で順次縮小し、それに対して前述した顔検出の走査を行うようにしている。このような被写体パターンの照合にもとづく方法は、学習サンプルや前処理に工夫を行うことで被写体の姿勢、照明条件、画像のノイズなどの変化に比較的強い検出を行うことができるものの、画像中から切り出したパターンの照合を網羅的に行うため、膨大な計算時間が必要であった。
以上のような点に鑑みて、両者の長所を組み合わせて被写体の検出を行う方法が考えられる。例えば、検出の最初のステップで非特許文献2にもとづく方法で目の候補を画像中から抽出し、目の候補から選択した2つの目を両眼として顔の候補を設定する。そして、設定した顔候補を画像パターンとして切り出して、非特許文献3にもとづく方法でニューラル・ネットワークにより顔の判定を行う。この処理方法による顔の検出を図5に示す。Aは入力画像の一部である顔画像であり、ここからまず目の位置a1、a2が抽出される。そして、a1、a2と顔全体の位置関係から顔領域bが設定され、Bに示す画像パターンが切り出され、照合が行われる。しかしながら、例えば、Cに示すように被写体の視線がずれているような場合には、目の位置としてc1、c2が抽出されるので、dのように顔領域が設定され、Dに示す画像パターンで照合が行われることになる。この場合、照合パターンでの顔の位置がずれてしまうので、顔パターンと認識されず、正しく顔が検出されない可能性がある。なお、このような状況は、被写体の視線がずれている場合に限らず、例えば、照明の影響によって暗い部分の検出位置がずれたり、眉毛、めがねのフレームを目と誤ったりする場合にも発生する可能性がある。
したがって、従来例では、画像から被写体パターンを検出する処理において精度と計算時間を両立できないといった問題点があった。また、従来例を単純に組み合わせた場合においても、被写体パターンの検出精度が悪くなるといった問題点があった。
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002に"Detecting Faces in Images: A Survey"と題するYangらの報告 Theoretical Foundations of Computer Vision, vol.69, 1993に"Multiresolution Face Detection"と題するChetverikovらの報告 IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998に"Neural network-based face detection"と題するRowleyらの報告 Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2001に"Rapid Object Detection using a Boosted Cascade of Simple Features"と題するViolaとJonesによる報告
本発明は以上の問題に鑑みて成されたものであり、高速かつ精度よく被写体パターンを検出することを目的とする。
画像から所定の被写体パターンを検出する画像処理装置において、画像から前記被写体の部分的な特徴を抽出する部品候補抽出手段と、前記部品候補抽出手段で抽出した部品候補の位置を示す部品候補分布マップデータ作成手段と、前記部品候補分布マップ作成手段で作成した部品候補分布マップを参照し、前記部品候補抽出手段で抽出された複数の特徴の位置関係から前記被写体パターンと照合するための所定の部分領域を前記画像から抽出する照合パターン抽出手段と、前記照合パターン抽出手段で抽出された部分領域が前記被写体パターンであるかを判別するパターン判別手段とを備える。
本発明の構成により、被写体の特徴検出から作成した特徴分布マップを参照し、部分領域を抽出してパターン照合を行うことで、高速かつ精度よく被写体パターンを検出できる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
本実施形態に係る画像処理装置は、PC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータにより構成されており、デジタルカメラからの入力、インターネットからのダウンロード、CD−ROMやDVD−ROMなどの記憶媒体からの読み出し等により入力された画像において、所定の被写体を判別し、その領域を検出することを目的とするものである。
以下、このような処理を行う本実施形態に係る画像処理装置についてより詳細に説明する。
図3は、本実施形態に係る画像処理装置の基本構成を示す図である。
201はCPUで、RAM202やROM203に格納されているプログラムやデータを用いて本装置全体の制御を行うと共に、後述する各処理を行う。
202はRAMで、外部記憶装置207や記憶媒体ドライブ装置208から読み出したプログラムやデータを一時的に記憶するためのエリアを備えると共に、CPU201が各種の処理を実行する為に用いるワークエリアも備える。
203はROMで、ここにブートプログラムや本装置の設定データなどを格納する。
204、205は夫々キーボード、マウスで、夫々CPU201に各種の指示を入力するためのものである。
206は表示部で、CRTや液晶画面などにより構成されており、CPU201による処理結果を文字や画像などにより表示する。
207は外部記憶装置で、例えばハードディスクドライブ装置等の大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、後述する各処理をCPU201に実行させるためのプログラムやデータが格納されており、これらは必要に応じて、CPU201の制御によりRAM202に読み出される。
208は記憶媒体ドライブ装置で、CD−ROMやDVD−ROMなどの記憶媒体に記録されているプログラムやデータを読み出して、RAM202や外部記憶装置207に出力する。なお、上記外部記憶装置207に記憶されているプログラムやデータの一部を上記記憶媒体に記録しておいても良く、その場合には、これら記憶されているプログラムやデータを使用する際に、記憶媒体ドライブ装置208がこの記憶媒体に記録されているプログラムやデータを読み出して、RAM202に出力する。
209はI/F(インターフェース)で、ここにデジタルカメラやインターネットやLANのネットワーク回線等を接続することができる。
210は上述の各部を繋ぐバスである。
図1は、本実施形態に係る画像処理装置として機能するコンピュータの機能構成を示すブロック図である。
10は画像入力部であり、例えばデジタルスチルカメラ、フィルムスキャナーなどで構成され、画像データを撮像あるいはその他公知の手段により入力する。また、デジタル画像データを保持する記憶媒体から画像データを読み込むようなコンピュータ・システムのインターフェース機器であってもよい。
20は画像メモリであり、画像入力部10から出力された画像データを一時的に記憶する。
30は画像縮小部であり、画像メモリ20に記憶されている画像データを所定の倍率にしたがって縮小し、出力する。
40は目候補抽出部であり、画像縮小部30で縮小された画像データから所定の特徴点を目候補として抽出する。
50は目分布マップ作成部であり、目候補抽出部40で抽出された特徴点の位置に基づいて目分布マップ格納部60に格納されているマップデータを更新する。
60は目分布マップ縮小部であり、目分布マップ作成部50で作成した目分布マップ、画像縮小部30での縮小処理と同様の倍率に従って縮小し、出力する。
70は目分布マップ格納部であり、目分布マップ作成部50で作成した目分布マップと目分布マップ縮小部60で縮小した縮小マップデータを格納する。マップデータについては後述する。
80は照合パターン抽出手段であり、画像縮小手段30で縮小された画像データから所定の部分領域切り出し、目分布マップ格納部70に格納されている目分布マップを参照して、部分領域の目候補があるかを判定し、判定結果をもとに照合対象のパターンとして抽出する。
90は輝度正規化部であり、照合パターン抽出部80で抽出された照合パターンの輝度分布を正規化する。
100は顔判別部であり、輝度正規化部90で輝度分布を正規化した部分領域が顔パターンか非顔パターンかを判別する。
110は顔候補リストであり、顔判別部100で顔と判別された部分領域の入力画像中での位置及び大きさが記憶される。
120は代表パターン出力部であり、最終的に顔候補リスト110に記憶されている顔候補を代表パターンとして出力する。
また、以上の各ブロックは不図示の制御手段により動作を制御される。
次に、本実施例の動作を図2に従って説明する。
まず、画像入力部10は所望の画像データを画像メモリ20に読み込む。(S101)
ここで読み込まれた画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがJPEG等の方式により圧縮されている場合は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データとする。さらに、本実施例ではRGBデータを輝度データに変換し、輝度画像データを以後の処理に適用するものとし、画像メモリ20に格納する。画像データとしてYCrCbのデータを入力する場合はY成分をそのまま輝度データとしてもよい。
次に、画像縮小部30は輝度画像データを画像メモリ20から読み込み、所定の倍率に縮小した輝度画像データを生成する。(S102)これは、以後の処理で目の候補を抽出する際に様々な大きさの目の検出に対応するため複数のサイズの画像データに対して順次検出を行うようにしたためである。例えば、画像サイズが160×120画素、240×180画素、320×240画素の3種類の輝度画像への縮小処理が後段の検出処理のために順次適用される。
次に、目候補抽出部40は縮小された輝度画像データから所定の大きさの部分領域を抽出し、部分領域内で局所的に暗い部分を目の特徴点として抽出する。(S103)まず、輝度画像データから所定のサイズ(例えば5×5画素)のブロックを縦横順次切り出していく。なお、各ブロックは隣接するブロックと多少重なり合うように切り出す方がよい。次に各ブロック内の輝度データを照合パターンとし、あらかじめ多数の目の輝度分布から得られた標準のテンプレートとの照合を行う。ここでは、入力輝度データとテンプレートとの相関演算(入力輝度で正規化された相関演算がより望ましい)を行い、相関値が所定の閾値を越えた場合、そのブロックの中心画素を目の特徴点として抽出する。ここで目を抽出する際に画像データ内から所定領域を順次切り出して照合を行っているが、照合に必要な部分領域が小さいので、直接顔の照合を行う場合に比べるとより少ない演算回数で処理を行うことができる。
次に、目分布マップ作成部50は、目候補抽出部40で抽出された目の特徴点位置に基づいて、目分布マップデータを作成する。
目分布マップデータは、所定のサイズを有する画像のデータであり、マップ画像を構成する各画素の画素値は0に初期化されている。
従って、ステップS104では、ステップS103で抽出された目候補の位置に対応するマップ画像上の画素値を1とする処理を行う。
図6にマップデータの例を示す。図6において、黒で表されている点が1、その他の領域が0である。ステップS103で抽出された目候補の入力画像での位置が(i,j)であった場合、対応するマップデータ上の座標(i,j)が1となる。
なお、目分布マップは、全ての縮小画像について目候補抽出処理を行い抽出された全ての目候補の位置を利用して作成し、マップデータも順次縮小し、画像縮小処理で作成する縮小画像と同数のマップデータを作成する(S105)。
ここで、前述したように、目候補抽出処理は被写体の姿勢、照明条件、画像のノイズなどに影響されやすく、抽出した目の位置がずれている場合がある。このような場合、実際は顔であるのに、部分領域での顔がずれているために、後述する顔判別処理において顔と判定されず、正しく顔が検出されない場合がある。
本実施例では、目分布マップにおいて、目候補抽出処理で抽出された目候補の位置に加えて近傍領域についても、マップデータの値を1とすることで上述した問題を解決することができる。
具体的な処理としては、図6に示したようにステップS103で抽出された目候補の入力画像での位置が(i,j)であった場合、対応するマップデータ上の座標(i,j)が1となるが、本実施例ではさらに、図7に示すように、目候補(i,j)の8近傍についてもマップデータの値を1とする。
つまり、前述の処理により、顔判別処理において判定対象となる部分領域の候補を増やすことで、目候補抽出処理で抽出された目の特徴点がずれていても、正しく顔が検出されるようになる。
次に、照合パターン抽出部80では、まず図8に示すように縮小された輝度画像データから所定の大きさの部分領域を切り出す。図8のAの列は画像縮小手段20で縮小されたそれぞれの縮小画像を示しており、ここでは、それぞれの縮小画像に対して所定の大きさの矩形領域を切り出すものとする。図8のBはそれぞれの縮小画像から縦横順次に走査を繰り返していく途中の切り出しの様子を示すものである。図から分かるように、縮小率の大きな画像から照合パターンを切り出して顔の判別を行う場合には、画像に対して大きな顔の検出を行うことになる。
さらに、切り出した部分領域と対応する目分布マップ上の領域を参照し、所定の位置に目候補がある場合は、顔判別処理の対象として部分領域を抽出する(S106)
目分布マップの参照方法について図9で説明する。
図9において601はマップデータ、602は縮小画像から順次切り出した部分領域と対応する矩形パターンである。矩形パターン内の所定の領域(603)のマップデータの値を参照し、1以上であれば後述の顔判別処理の対象として部分領域を抽出する。
つまり、顔候補となる部分領域内の目近傍領域(603)にステップS103で抽出された目候補があるものは顔パターンである可能性が高く、一方、目候補が無いものは非顔パターンである可能性が高いので、目分布マップデータによる判別を顔判別処理の前に行うことで、高速で高精度な判別が可能となる。
また、前述したように目候補抽出処理は被写体の姿勢、照明条件、画像のノイズなどに影響されやすく、抽出した目の位置がずれている場合があり、顔判別処理で顔と判別されず、正しく検出ができないことがあるが、ステップS106照合パターン抽出処理において、マップデータの参照領域である矩形パターン内の所定の領域(603)として広く設定することで、顔判別処理において判定対象となる部分領域の候補を増やし、目候補抽出処理で抽出された目の特徴点がずれていても、正しく顔が検出することが可能となる。
次に、輝度正規化部90は照合パターン抽出部80で切り出された部分領域の輝度をその分布をもとに正規化する。(S107)例えば、ヒストグラム平滑化などの輝度補正を行う。これは、撮像される被写体パターンはその照明条件によって輝度分布が変わるので被写体照合の精度が劣化するのを抑制するためである。
次に、顔判別部100は輝度正規化部90の出力である部分領域の輝度分布を入力として輝度パターンが顔であるかどうかを判別する(S108)。図10を用いてその判別の方法を示す。図10でRは部分領域であり、本実施例においては部分領域Rを図のように3種類の方法にてさらに領域分割し、各ニューロン((N)で示す)への受容野とする。そして、分割された領域の輝度分布を各ニューロンに入力し、中間層での出力が得られる。そして、各ニューロンの出力を出力層のニューロンの入力として最終出力が得られる。ここで、各ニューロンでは予め学習によって得られた重みと輝度分布との積和演算およびその結果のシグモイド関数による演算が行われる。本実施例では出力層のニューロンの出力値と所定の閾値との比較を行い、閾値を越える出力のパターンを顔、それ以外を顔でない(非顔)とした。(ニューラル・ネットワークの詳細および学習の方法については、非特許文献3を参照されたい)なお、本実施例では非特許文献3にもとづいて顔判別手段の処理内容を説明したが、これに限定されるものではなく、所定の入力パターンに対して被写体の判別を行い、顔パターンと非顔パターンとの判別が可能な値を出力するようなものであればよい。例えば、入力である部分領域を図5のように顔の輪郭、眼、鼻、口、頬の位置関係にもとづいて分割するように受容野を設定してもよい。また、ニューラル・ネットワークによる判別に限らず、例えば、非特許文献4で提案されているAdaBoostによる方式を用いてもよい。
次に、顔判別部100で、顔であると判別された部分領域の入力画像上での位置及び大きさの情報を顔候補リスト110に記憶する(S109)
さらに、処理をステップS110に進め、画像縮小部30の出力である縮小輝度画像において矩形の移動先があるのかをチェックする。縮小輝度画像において、移動先がある場合には処理をステップS111に進め、縮小輝度画像における矩形の位置を移動させる。そして矩形の移動が完了すると、処理をステップS106に進め、移動後の矩形内において、目分布マップによる判定後、照合パターンを抽出し、顔判定を行うS109までの処理を順次繰り返す。
一方、矩形の移動先がない場合には、処理をステップS112進め、全ての縮小画像について以上の処理を行ったのかを判断し、まだ処理対象になっていない縮小画像がある場合は処理をステップS113に進め、縮小画像上に配置する矩形の位置を初期化する。ここで初期化とは、例えば縮小画像の左上隅の位置に戻す等の処理である。その後、次の縮小画像についてS106以降の処理を行う。
ステップS112において、全ての縮小画像ついて以上の処理を行ったと判断された場合には、ステップS114進む。
最後に、代表パターン出力部110では、顔リスト90に登録されている顔候補を代表パターンとして出力する(S114)。ここで出力する情報は、例えば代表パターンの入力画像上での位置、サイズ等が挙げられる。
以上、本実施例では、目候補抽出処理で抽出された目候補から目分布マップを作成し、目分布マップにもとづき、顔判定を行う部分領域を抽出するので、高速にかつ精度よく被写体パターンを検出することができる。
[産業上の利用可能性]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の実施形態に係る構成を示すブロック図 本発明の第1の実施例の処理フローを示す図。 本発明の実施形態に係る画像処理装置の基本構成を示す図 画像から顔パターンの探索を行う方法を説明する図 目の抽出位置ずれと照合パターンの切り出しの関係を示す図 目分布マップデータの作成方法を説明する図 目分布マップデータの作成方法を説明する図 目分布マップの参照し顔パターンの切り出しを行う方法を説明する図 目分布マップの参照方法を示す図 ニューラルネットワークによる顔判別の方法を説明する図

Claims (7)

  1. 画像から所定の被写体パターンを検出する画像処理装置において、画像から前記被写体の部分的な特徴を抽出する部品候補抽出手段と、前記部品候補抽出手段で抽出した部品候補の位置を示す部品候補分布マップ作成手段と、前記部品候補分布マップ作成手段で作成した部品候補分布マップを参照し、前記被写体パターンと照合するための所定の部分領域を前記画像から抽出する照合パターン抽出手段と、前記照合パターン抽出手段で抽出された部分領域が前記被写体パターンであるかを判別するパターン判別手段とを備えることを特徴とする画像処理装置。
  2. 前記部品候補分布マップ作成手段は、前記部品抽出手段で抽出した部品候補の位置及び所定の近傍領域を示す部品候補分布マップを作成することを特徴とする請求項1の画像処理装置。
  3. 前記照合パターン抽出手段は、前記部品候補分布マップを参照して、所定範囲内に前記部品候補抽出手段で抽出した部品候補が存在する部分領域を前記画像から抽出することを特徴とする請求項1の画像処理装置。
  4. 画像から所定の被写体パターンを検出する画像処理方法において、画像から前記被写体の部分的な特徴を抽出する部品候補抽出ステップと、前記部品候補抽出ステップで抽出した部品候補の位置を示す部品候補分布マップ作成ステップと、前記部品候補分布マップ作成ステップで作成した部品候補分布マップを参照し、前記部品候補抽出ステップで抽出された複数の特徴の位置関係から前記被写体パターンと照合するための所定の部分領域を前記画像から抽出する照合パターン抽出ステップと、前記照合パターン抽出ステップで抽出された部分領域が前記被写体パターンであるかを判別するパターン判別ステップとを備えることを特徴とする画像処理方法。
  5. 前記部品候補分布マップ作成ステップは、前記部品抽出ステップで抽出した部品候補の位置及び所定の近傍領域を示す部品候補分布マップを作成することを特徴とする請求項4の画像処理方法。
  6. 前記照合パターン抽出ステップは、前記部品候補分布マップを参照して、所定範囲内に前記部品候補抽出ステップで抽出した部品候補が存在する部分領域を前記画像から抽出することを特徴とする請求項4の画像処理方法。
  7. 請求項4から請求項6のいずれかに記載の画像処理方法を実行するプログラムを記録した記録媒体。
JP2006282754A 2006-10-17 2006-10-17 画像処理装置 Withdrawn JP2008102610A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006282754A JP2008102610A (ja) 2006-10-17 2006-10-17 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006282754A JP2008102610A (ja) 2006-10-17 2006-10-17 画像処理装置

Publications (1)

Publication Number Publication Date
JP2008102610A true JP2008102610A (ja) 2008-05-01

Family

ID=39436914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006282754A Withdrawn JP2008102610A (ja) 2006-10-17 2006-10-17 画像処理装置

Country Status (1)

Country Link
JP (1) JP2008102610A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219943A (ja) * 2016-06-06 2017-12-14 株式会社Ihi 識別装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219943A (ja) * 2016-06-06 2017-12-14 株式会社Ihi 識別装置

Similar Documents

Publication Publication Date Title
JP5047005B2 (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
WO2022134337A1 (zh) 人脸遮挡检测方法、***、设备及存储介质
EP3916627A1 (en) Living body detection method based on facial recognition, and electronic device and storage medium
EP1693782B1 (en) Method for facial features detection
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
JP4217664B2 (ja) 画像処理方法、画像処理装置
US8861800B2 (en) Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
JP4739355B2 (ja) 統計的テンプレートマッチングによる高速な物体検出方法
KR101896357B1 (ko) 객체를 검출하는 방법, 디바이스 및 프로그램
US20050169520A1 (en) Detecting human faces and detecting red eyes
US7831068B2 (en) Image processing apparatus and method for detecting an object in an image with a determining step using combination of neighborhoods of a first and second region
JP2009211178A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
JP2008102611A (ja) 画像処理装置
JP2007025902A (ja) 画像処理装置、画像処理方法
CN111899270A (zh) 卡片边框检测方法、装置、设备及可读存储介质
CN111222433A (zh) 自动人脸稽核方法、***、设备及可读存储介质
JP2007293438A (ja) 特徴量取得装置
JP2010176504A (ja) 画像処理装置、画像処理方法及びプログラム
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2007026308A (ja) 画像処理方法、画像処理装置
KR100553850B1 (ko) 얼굴인식/표정인식 시스템 및 방법
JP2005134966A (ja) 顔画像候補領域検索方法及び検索システム並びに検索プログラム
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100105