JP2005242640A - 対象物検出方法および装置並びにプログラム - Google Patents

対象物検出方法および装置並びにプログラム Download PDF

Info

Publication number
JP2005242640A
JP2005242640A JP2004051322A JP2004051322A JP2005242640A JP 2005242640 A JP2005242640 A JP 2005242640A JP 2004051322 A JP2004051322 A JP 2004051322A JP 2004051322 A JP2004051322 A JP 2004051322A JP 2005242640 A JP2005242640 A JP 2005242640A
Authority
JP
Japan
Prior art keywords
face
image
object detection
predetermined
normal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004051322A
Other languages
English (en)
Inventor
Yuanzhong Li
元中 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004051322A priority Critical patent/JP2005242640A/ja
Priority to US11/067,223 priority patent/US7542591B2/en
Publication of JP2005242640A publication Critical patent/JP2005242640A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 デジタル画像から所定の対象物を確実かつ迅速に検出する。
【解決手段】 通常顔検出部10は、写真画像S0に対して、通常の顔を検出する処理を行う。眼鏡顔検出部20は、通常顔検出部10により顔が検出されなかった写真画像S0に対して、眼鏡をかけた顔を検出する処理を行う。髭顔検出部30は、通常顔検出部10によりも、眼鏡顔検出部20によりも顔が検出されなかった写真画像S0に対して、髭のある顔を検出する処理を行う。
【選択図】 図1

Description

本発明はデジタル画像から所定の対象物を検出する対象物検出方法および装置並びにプログラムに関するものである。
従来より、デジタル画像から所定の対象物を検出する手法としては、マッチングによる手法が広く行われている。マッチング手法においては、検出する対象となる対象物のモデルの集合(テンプレート)とデジタル画像中における対象物とをマッチング(テンプレートマッチング)させることによって検出を行う。しかし、対象物のモデルが固定されているため、デジタル画像中における対象物のさまざまな変化(大きさ、方向、形の変化)に対して対応できないなど、多くの問題点がある(非特許文献1)。そこで、これらの問題点に対してロバストな検出を実現するため、KL展開、ハフ変換などを用いて、デジタル画像における対象物の特徴がより扱い易い特徴空間へと画像を投影し、検出を行う方法が提案されている(非特許文献2、非特許文献3)、しかし、これらの方法も、対象物のさまざまな変化に対応することは難しく、条件を限定して行われている段階である。
このような問題点を解決するための手法として、最近、人間の脳の情報処理を模擬したニューラルネットワークによる手法が提案されている。このニューラルネットワークは、適当な神経回路のモデルを、生理学的に知られる事実や研究成果を十分に考慮して構成し、その動作および性能を調べ、実際の人間の脳と比較することで、脳の情報原理を解明していこうという構成的方法と呼ばれる情報処理の一つの研究手法であり、視覚モデル、学習モデル、連想記憶モデルなど多くの研究が行われている。
例えば、対象物の大きさや位置のずれに強いニューラルネットワークの認識モデルとして、ネオコグニトロンがある(非特許文献4)。ネオコグニトロンは、パターンマッチングを対象物体の微小部分に対して行い、その位置ずれを階層構造に依って、何段かに分けて吸収しながら行うという原理によるものである。
このように、対象物の位置ずれを少しずつ何段階にも分けて許容していくという操作が、ネオコグニトロンにおいて、入力パターンの位置ずれの影響を取り除くのみならず、変形に強いパターン認識を行ううえにも重要な役割をはたしている。すなわち、入力パターンの拡大や縮小をはじめとする種々の変形にともなう局所的特徴の相対的な位置ずれの影響は、特徴の統合の過程で少しずつ吸収され、最終的には入力パターンのかなりの変形に対しても影響されない出力を得ることができる。
また、学習モデルとして、コホーネンの自己組織化マッピング(非特許文献5)が挙げられる。コホーネンの自己組織化マッピングとはトポロジカルなマッピングを自己組織化で学習するモデルである。ここでトポロジカルなマッピングとは、例えば、人間が外界から受け取った信号、すなわち、あるパターンを、その序列を反映しながらある種の規則に従って、皮質上の神経細胞に割り当てていることを意味している。
このコホーネンの自己組織化を利用したシステムとしては、例えばハードシステムで2値の画像を学習させている試みが報告されている(非特許文献6)。
一方、デジタル画像から所定の対象物を検出する処理が、様々な分野で行われている。例えば、証明写真の分野において、パスポートや免許証の交付申請、あるいは履歴書の作成などの場合において、本人の顔が写っている予め定められた出力規格の写真、すなわち証明写真の提出が要求されることが多い。このため、被写体となる人物の顔が写っている写真画像(顔写真画像)から顔や、目、頭頂部、顎利用者の撮影を行うための撮影室が設けられ、撮影室内の椅子に着座した利用者を撮影し、利用者の証明写真用の顔写真画像をシートに記録した証明写真シートを作成することを自動的に行う証明写真の自動作成装置が従来より利用されている。このような自動作成装置は、大型であり、設置場所が限られているため、利用者が証明写真を取得するためには、自動作成装置が設置された場所を探して出向く必要があり、不便である。
この問題を解決するために、例えば、特許文献1に記載されたように、証明写真の作成に用いる顔写真画像(顔が写されている画像)がモニタなどの表示装置で表示されている状態で、表示されている顔写真画像における頭頭部位置と顎の先端位置を指示すると、コンピュータが指示された2つの位置および証明写真の出力規格に基づいて顔の拡大縮小率、顔の位置を求めて画像を拡大縮小すると共に、拡大縮小した画像中の顔が証明写真における所定の位置に配置されるように拡大縮小した顔写真画像をトリミングして得たトリミング画像を証明写真画像として形成する方法が提案されている。このような方法によって、利用者は、証明写真の自動作成装置よりも多数存在しているDPE店などに証明写真の作成を依頼することができると共に、手持ちの写真のうち、写りが良いなどのような気に入った写真が記録された写真フィルムまたは記録媒体をDPE店などに持ち込むことで、気に入った写真から証明写真を作成させることも可能となる。
しかしながら、この技術では、表示されている顔写真画像に対して頭頭部位置と顎の先端位置を各々指示する、という煩雑な操作をオペレータが行う必要があるので、特に多数の利用者の証明写真を作成するなどの場合にオペレータの負担が大きい。また、特に表示されて顔写真画像中の顔の領域の面積が小さい場合や、顔写真画像の解像度が粗いなどの場合には、頭頭部位置と顎の先端位置をオペレータが迅速かつ正確に指示することは困難であり、適切な証明写真の迅速な作成ができないという問題がある。
そこで、オペレータの負担を減らし、迅速かつ正確にトリミング領域を設定する方法が数多く提案されている。例えば、特許文献2には、顔写真画像中の頭頭部位置および両目の位置を検出すると共に、検出された頭頭部位置と両目の位置から顎の先端位置を推定してトリミング領域を設定する自動トリミング処理方法を提案している。自動トリミング処理においては、最も重要な処理としては、トリミング領域の設定をするための部位の検出である。この部位、すなわち検出の対象物は、例えば特許文献2に記載されたように頭頭部位置および両目の位置であってもよいし、顔部分全体、両瞳またはこれらの組合せであってもよい。
これらの部位を検出するために、対象物を検出するための上述した種々の手法が利用されている。
高木、下田、画像解析ハンドブック、pp172-205 、1991、東京大学出版会 赤松他3名、KL展開によるパターン記述法の顔画像識別への応用の評価、NTTヒューマンインターフェース研究所、信技報、PR090-152 長谷川、志水、Hough変換を用いた顔画像処理の一方法、大阪市大、信技報、PR090-153 福島:位置ずれに影響されないパターン認識機構の神経回路モデル−ネオコグニトロン、電子通信学会論文誌A,J62-A(10),pp658-665,Oct.1979 T.Kohonen Self-Organization and Associative Memory,Spriger-Verlag 1984 Taiwei Lu etc. Self-organizing optical neural network for unsupervised learning,Optical Engineering Vol.29 No.9 1990 特開平11―341272号公報 特開2002−152492号公報
しかしながら、デジタル画像から所定の対象物を検出する際に、デジタル画像にこの対象物が存在していれば常に検出できるとは限らない。例えば、顔写真画像から顔を検出する際に、通常の顔であれば検出しやすいが、何かの特別な特徴がある顔(例えば眼鏡をかけた顔、髭が濃い顔、髪型が奇抜な顔など)の検出が難しい。これは、世の中の顔は通常の顔のほうが圧倒的に多いため、顔を検出するアルゴリズムとしては、通常の顔を検出することに重点を置いて設計されるからである。
一方、通常の顔に限らず、上述したような特徴のある顔も検出できるようにするために、顔を検出する処理において、特徴のある顔を検出するためのアルゴリズムも盛り込むようにすると、演算量が膨大になると共に、通常の顔の検出精度が下がってしまう虞もあり、本末顛倒である。
本発明は、上記事情に鑑みてなされるものであり、デジタル画像から所定の対象物を検出する際に、通常の所定の対象物に限らず、特徴のあるこの所定の対象物も検出することができると共に、演算量の膨大を防ぐことができる対象物検出方法および装置並びにそのためのプログラムを提供することを目的とするものである。
本発明の対象物検出方法は、デジタル画像から、該デジタル画像に存在する所定の対象物を検出する対象物検出方法において、
前記デジタル画像に対して、通常の前記所定の対象物を検出する通常対象物検出処理を行い、
該通常対象物検出処理により前記所定の対象物を検出することができなかった前記デジタル画像に対して、所定の特徴を有する前記所定の対象物を検出する特徴対象物検出処理を行うことを特徴とするものである。
ここで、本発明の処理対象となるデジタル画像は、デジタルカメラなどにより取得された画像に限らず、デジタル形式により表されるいかなる画像、例えば、印刷用紙、写真用紙などの印刷媒体に印刷された画像をスキャナなどの読取装置で読み取って得たデジタル画像も含むものである。
本発明の対象物検出方法は、前記所定の対象物が検出されるまで、夫々異なる前記所定の特徴に対応する前記特徴対象物検出処理を順次行うことが好ましい。
本発明の対象物検出方法は、顔写真画像から顔を検出する処理に適用することができる。
本発明の対象物検出装置は、デジタル画像から、該デジタル画像に存在する所定の対象物を検出する対象物検出装置であって、
前記デジタル画像に対して、通常の前記所定の対象物を検出する通常対象物検出手段と、
所定の特徴を有する前記所定の対象物を検出する特徴対象物検出手段と、
前記通常対象物検出手段により前記所定の対象物を検出することができなかった前記デジタル画像に対して、前記特徴対象物検出手段による検出を行わせる制御手段とを有してなることを特徴とするものである。
前記特徴対象物検出手段は、複数あり、該複数の特徴対象物検出手段は、夫々異なる前記所定の特徴に対応するものであり、前記制御手段は、前記所定の対象物が検出されるまで、前記複数の特徴対象物検出手段による検出を順次行わせるものであることが好ましい。
本発明の対象物検出装置は、顔写真画像から顔を検出処理に用いられることができる。
本発明のプログラムは、本発明の対象物検出方法をコンピュータに実行させるものである。
本発明によれば、デジタル画像から所定の対象物を検出する際に、通常の所定の対象物が、何らかの特徴を有する所定の対象物より多いことを利用し、まず、デジタル画像に対して、通常の所定の対象物を検出する通常対象物検出処理を行う。通常対象物検出処理により、この所定の対象物が検出されなかった場合において、所定の特徴を有する所定の対象物を検出する特徴対象物検出処理を行う。こうすることによって、まず、デジタル画像に存在する通常の所定の対象物となる対象物を検出することができる。また、通常対象物検出処理によりこの所定の対象物が検出されなかったデジタル画像に対しては、特徴対象物検出処理を行うことによって、通常の所定の対象物と比較し、何らかの所定の特徴を有するこの対象物を検出することができる。ここで、通常対象物検出処理においては、なんらかの特徴を有するこの対象物の検出処理を考慮する必要がないため、通常対象物の検出精度が高いと共に、通常対象物検出処理と特徴対象物検出処理とを分けることによって、処理の速度を向上させることができる。
また、本発明において、互いに異なる複数の、対象物が有し得る特徴に夫々対応する特徴対象物検出処理を複数用意しておき、対象物が検出されるまで、これらの特徴対象物検出処理を順次行うようにすれば、より確実に特徴を有する対象物を検出することができる。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の実施形態となる顔検出装置の構成を示すブロック図である。なお、図1のような顔検出装置の構成は、補助記憶装置に読み込まれた顔検出プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この顔検出プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。また、本実施形態の顔検出装置は、写真画像から顔部位を検出してこの部位の画像(顔画像)を得るためのものであり、処理対象となる写真画像は、デジタルカメラにより取得された写真画像に限らず、プリント用紙や、写真用紙などの印刷媒体に印刷された画像を読み取って得たデジタル画像も含むものである。
図1に示すように、本実施形態の顔検出装置は、顔写真画像(以下略して写真画像S0という)の特徴量C0を算出する特徴量算出部1と、写真画像S0に対して通常の顔を検出する通常顔検出処理を行う通常顔検出部10と、通常顔検出部10による検出が失敗した際に写真画像S0から眼鏡をかけた顔を検出する眼鏡顔検出処理を行う眼鏡顔検出部20と、眼鏡顔検出部20による検出が失敗した際に写真画像S0から髭のある顔を検出する髭顔検出処理を行う髭顔検出部30と、上記各検出部の制御を行う制御部50とを有してなるものである。
図2は、通常顔検出部10の構成を示すブロック図である。図示のように、通常顔検出部10は、第1の参照データE1を記憶した第1の記憶部4と、特徴量算出部1により算出された特徴量C0および第1の参照データE1を用いて写真画像S0から顔を検出する第1の識別部5とを備えてなる。ここで、まず、特徴量算出部1について説明する。
特徴量算出部1は、顔の識別に用いる特徴量C0を写真画像S0から算出する。具体的には、勾配ベクトル(すなわち写真画像S0上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、特徴量算出部1は、写真画像S0に対して図3(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における水平方向のエッジを検出する。また、特徴量算出部1は、写真画像S0に対して図3(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における垂直方向のエッジを検出する。そして、写真画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図4に示すように、各画素における勾配ベクトルKを算出する。なお、特徴量算出部1は、後述するように写真画像S0および顔画像の変形の各段階において特徴量C0を算出する。
なお、このようにして算出された勾配ベクトルKは、図5(a)に示すような人物の顔の場合、図5(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKは口よりも目の方が大きくなる。
そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図4におけるx方向)を基準とした0から359度の値となる。
ここで、勾配ベクトルKの大きさは正規化される。この正規化は、写真画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が写真画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図6(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図6(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図6(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図6(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。
第1の記憶部4内に格納されている第1の参照データE1は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
第1の参照データE1中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
ここで、本実施形態において、第1の参照データE1の学習のための、顔であることが分かっている複数のサンプル画像(以下サンプル画像群)は、任意の多数の人間の顔写真画像(顔が写っている画像)から構成されたものであり、顔に特別な特徴(例えば眼鏡をかけている顔や、奇抜な髪型をしている顔など)を有するものも含まれている可能性があるが、何かの特徴に偏ったサンプル画像群ではない。
なお、本実施形態においては、第1の参照データE1を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図7に示すように、1つの顔の画像について両目の中心間の距離が10画素、9画素および11画素であり、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×11=33通り用意される。なお、図7においては−15度、0度および+15度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、両目の中心間の距離が10画素のサンプル画像であれば、目の中心位置はすべて同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。また、図面上の上下方向における目の位置(すなわちy1,y2)はすべてのサンプル画像において同一である。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
ここで、顔であることが分かっているサンプル画像として、両目の中心間距離が10画素であり、平面上の回転角度が0度(すなわち顔が垂直な状態)のもののみを用いて学習を行った場合、第1の参照データE1を参照して顔の位置であると識別されるのは、両目の中心間距離が10画素で全く回転していない顔のみである。写真画像S0に含まれる可能性がある顔のサイズは一定ではないため、顔を識別する際には、後述するように写真画像S0を拡大縮小して、サンプル画像のサイズに適合するサイズの顔および目の位置を識別できるようにしている。しかしながら、両目の中心間距離を正確に10画素とするためには、写真画像S0のサイズを拡大率として例えば1.1単位で段階的に拡大縮小しつつ識別を行う必要があるため、演算量が膨大なものとなる。
また、写真画像S0に含まれる可能性がある顔は、図8(a)に示すように平面上の回転角度が0度のみではなく、図8(b)、(c)に示すように回転している場合もある。しかしながら、両目の中心間距離が10画素であり、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔であるにも拘わらず、図8(b)、(c)に示すように回転した顔については識別を行うことができなくなってしまう。
このため、本実施形態においては、顔であることが分かっているサンプル画像として、図7に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたサンプル画像を用いて、第1の参照データE1の学習に許容度を持たせるようにしたものである。これにより、後述する第1の識別部5において識別を行う際には、写真画像S0を拡大率として11/9単位で段階的に拡大縮小すればよいため、写真画像S0のサイズを例えば拡大率として例えば1.1単位で段階的に拡大縮小する場合と比較して、演算時間を低減できる。また、図8(b)、(c)に示すように回転している顔も識別することができる。
以下、図9のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。
学習の対象となるサンプル画像群は、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。なお、顔であることが分かっているサンプル画像は、上述したように1つのサンプル画像につき両目の中心位置が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたものを用いる。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(S1)。
次に、サンプル画像における複数種類の画素群のそれぞれについて識別器が作成される(S2)。ここで、それぞれの識別器とは、1つの画素群を構成する各画素における特徴量C0の組み合わせを用いて、顔の画像と顔でない画像とを識別する基準を提供するものである。本実施形態においては、1つの画素群を構成する各画素における特徴量C0の組み合わせについてのヒストグラムを識別器として使用する。
図10を参照しながらある識別器の作成について説明する。図10の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組み合わせが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組み合わせの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組み合わせの値を算出する。
組み合わせの値=0(勾配ベクトルの大きさ=0の場合)
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図10の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組み合わせについて、上記のヒストグラム形式の複数の識別器が作成される。
続いて、ステップS2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(S3)。すなわち、最初のステップS3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS5において各サンプル画像の重みが更新された後の2回目のステップS3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。
次に、それまでに選択した識別器の組み合わせの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(S4)。ここで、組み合わせの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップS6へと進む。
ステップS6では、直近のステップS3で選択された識別器が再び選択されないようにするため、その識別器が除外される。
次に、直近のステップS3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(S5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組み合わせの効果を高めるためである。
続いて、ステップS3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップS3からS6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組み合わせに対応する識別器が選択されたところで、ステップS4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(S7)、これにより第1の参照データE1の学習を終了する。
なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組み合わせを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図10の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
第1の識別部5は、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第1の参照データE1が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して写真画像S0に顔が含まれるか否かを識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。本実施形態では、すべての識別ポイントを加算して、その加算値が正であり、かつその値が所定の閾値以上である場合には写真画像S0には顔が含まれると判断し、顔識別閾値より小さい場合には顔は含まれないと判断する。
ここで、写真画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている可能性がある。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、第1の識別部5は、図11に示すように、写真画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図11においては縮小する状態を示す)、各段階において拡大縮小された写真画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された写真画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否かの識別を行うことにより、写真画像S0に顔が含まれるか否かを識別する。
なお、第1参照データE1の生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、写真画像S0の拡大縮小時の拡大率は11/9とすればよい。また、第1の参照データE1の生成時に学習したサンプル画像として、顔が平面上で±15度の範囲において回転させたものを使用しているため、写真画像S0は30度単位で360度回転させればよい。
なお、特徴量算出部1は、写真画像S0の拡大縮小および回転という変形の各段階において特徴量C0を算出する。なお、特徴量算出部1は、算出された特徴量C0を、それが算出された段階に対応付けて図示しない一時記憶手段に記憶させる。
このようにして、通常顔検出部10の第1の識別部5は、写真画像S0に顔が含まれるか否かの識別を拡大縮小および回転の全段階の写真画像S0について行い、一度でも顔が含まれると識別された場合には、写真画像S0には顔が含まれると識別し、顔が含まれると識別された段階におけるサイズおよび回転角度の写真画像S0から、識別されたマスクMの位置に対応する30×30画素の領域を顔の画像、すなわち顔画像として抽出する。
図12は、図1に示す実施形態の顔検出装置における眼鏡顔検出部20の構成を示すブロック図である。図示のように、眼鏡顔検出部20は、第2の記憶部14と第2の識別部15とを備えてなり、第2の記憶部14には第2の参照データE2が記憶されており、第2の識別部15は、第2の参照データE2、および特徴量算出部1により算出された、図示しない一時記憶手段に記憶された特徴量C0を用いて写真画像S0から顔を検出するものである。
第2の記憶部14内に格納されている第2の参照データE2は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
第2の参照データE2中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
ここで、本実施形態において、第2の参照データE2の学習のための、顔であることが分かっているサンプル画像は、通常顔検出部10に用いられた第1の参照データE1の学習のためのサンプル画像と異なり、眼鏡をかけた人間の顔写真画像のみである。
なお、第2の参照データE2が、第1の参照データE1と異なる点を除けば、眼鏡顔検出部20の動作は、通常顔検出部10の動作と同じであるため、ここで、その詳細な説明を省略する。
図13は、図1に示す実施形態の顔検出装置における髭顔検出部30の構成を示すブロック図である。図示のように、髭顔検出部30は、第3の記憶部24と第3の識別部25とを備えてなり、第3の記憶部24には第3の参照データE3が記憶されており、第3の識別部25は、第3の参照データE3、および特徴量算出部1により算出された、図示しない一時記憶手段に記憶された特徴量C0を用いて写真画像S0から顔を検出するものである。
第3の記憶部24内に格納されている第3の参照データE3は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
第3の参照データE3中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
ここで、本実施形態において、第3の参照データE3の学習のための、顔であることが分かっているサンプル画像は、通常顔検出部10に用いられた第1の参照データE1の学習のためのサンプル画像とも、眼鏡顔検出部20に用いられた第2の参照データE2の学習のためのサンプル画像とも異なり、髭のある人間の顔写真画像のみである。
なお、第3の参照データE3が、第1の参照データE1と異なる点を除けば、髭顔検出部30の動作は、通常顔検出部10の動作と同じであるため、ここで、髭顔検出部30についてもその詳細な説明を省略する。
図14は、図1に示す本発明の実施形態の顔検出装置における処理を示すフローチャートである。図示のように、写真画像S0に対して、まず、特徴量算出部1が写真画像S0の拡大縮小および回転の各段階において、写真画像S0の勾配ベクトルKの方向および大きさを特徴量C0として算出し、図示しない一時記憶手段に記憶する(S10)。そして、通常顔検出部10における第1の識別部5は、任意の多数の人間のサンプル写真画像および顔ではないと分かっているサンプル画像を学習して得た第1の参照データE1を第1の記憶部4から読み出し(S12)、特徴量算出部1により得られた特徴量C0とに基づいて写真画像S0に顔が含まれているか否かの識別を行う(S14)。
通常顔検出部10における第1の識別部5は、写真画像S0に顔が含まれると判別する(S16:Yes)と、写真画像S0から顔を抽出し(S30)、写真画像S0に対する本実施形態の顔検出装置の処理が終了する。
一方、通常顔検出部10において、顔が検出されなければ(S16:No)、制御部50は、写真画像S0に対する顔の検出処理を眼鏡顔検出部20に行わせる。眼鏡顔検出部20における第2の識別部15は、眼鏡をかけた人間の顔のみが夫々写っているサンプル写真画像および顔ではいなと分かっているサンプル画像を学習得た第2の参照データE2を第2の記憶部14から読み出し(S20)、特徴量算出部1により算出された、図示しない記憶手段に記憶された特徴量C0とに基づいて写真画像S0に顔が含まれているか否かの識別を行う(S22)。
眼鏡顔検出部20における第2の識別部15は、写真画像S0に顔が含まれると判別する(S24:Yes)と、写真画像S0から顔を抽出し(S30)、写真画像S0に対する本実施形態の顔検出装置の処理が終了する。
また、眼鏡顔検出部20において、顔が検出されなければ(S24:No)、制御部50は、写真画像S0に対する顔の検出処理をさらに髭顔検出部30に行わせる。髭顔検出部30における第3の識別部25は、髭のある人間の顔のみが夫々写っているサンプル写真画像および顔ではいなと分かっているサンプル画像を学習得た第3の参照データE3を第3の記憶部24から読み出し(S26)、特徴量算出部1により算出された、図示しない記憶手段に記憶された特徴量C0とに基づいて写真画像S0に顔が含まれているか否かの識別を行う(S28)。
髭顔検出部30における第3の識別部25は、写真画像S0に顔が含まれると判別する(S28:Yes)と、写真画像S0から顔を抽出し(S30)、写真画像S0に対する本実施形態の顔検出装置の処理が終了する一方、写真画像S0に顔が含まれないと判別する(S28:No)、制御部50は、顔写真画像S0に対する顔検出処理を終了させる。
このように、本実施形態の顔検出装置において、通常顔検出部10と、眼鏡顔検出部20と、髭顔検出部30とは、通常顔と、眼鏡をかけた顔と、髭がある顔とを夫々検出するために設けられたものであるため、自身の検出対象の検出精度が高い。また、夫々のタイプの顔を検出する処理を複数に分けることによって、演算量を減らし、処理速度を向上させることができる。
以上、本発明の望ましい実施形態について説明したが、本発明は、上述した実施形態に限られるものではなく、本発明の主旨を逸脱しない限り、様々な増減、変更を行うことができる。
例えば、本実施形態において、特徴のある顔を検出する処理として、眼鏡をかけた顔を検出する処理と、髭のある顔を検出する処理との2つを用いたが、この2つに限らず、特徴のある顔を検出する処理の数および種類の増減をしてもよい。
また、本実施形態において、デジタル画像から検出する所定の対象物が顔であるが、本発明の対象物検出方法および装置並びにプログラムは、いかなる対象物の検出にも適用することができる。
また、通常対象物検出処理(本実施形態においては通常顔検出処理)、特徴対象物検出処理(本実施形態においては眼鏡顔検出処理、髭顔検出処理)の手法としても、本実施形態において用いられた手法に限らず、従来公知の種々の対象物検出手法を用いることができる。
本発明の実施形態となる顔検出装置の構成を示すブロック図 図1に示す顔検出装置における通常顔検出部10の構成を示すブロック図 エッジ検出フィルタを示す図 勾配ベクトルの算出を説明するための図 (a)は人物の顔を示す図、(b)は(a)に示す人物の顔の目および口付近の勾配ベクトルを示す図 (a)は正規化前の勾配ベクトルの大きさのヒストグラムを示す図、(b)は正規化後の勾配ベクトルの大きさのヒストグラムを示す図、(c)は5値化した勾配ベクトルの大きさのヒストグラムを示す図、(d)は正規化後の5値化した勾配ベクトルの大きさのヒストグラムを示す図 通常顔検出部10における第1の記憶部4に記憶された第1の参照データE1の学習に用いられる顔であることが分かっているサンプル画像の例 顔の回転を説明するための図 参照データの学習手法を示すフローチャート 識別器の導出方法を示す図 図2に示す通常顔検出部10における第1の識別部5により顔を検出する際の、写真画像の段階的な変形を説明するための図 図1に示す顔検出装置における眼鏡顔検出部20の構成を示すブロック図 図1に示す顔検出装置における髭顔検出部30の構成を示すブロック図 図1に示す顔検出装置において行われる処理を示すフローチャート
符号の説明
1 特徴量算出部
4 第1の記憶部
5 第1の識別部
10 通常顔検出部
14 第2の記憶部
15 第2の識別部
20 眼鏡顔検出部
24 第3の記憶部
25 第3の識別部
30 髭顔検出部
50 制御部

Claims (8)

  1. デジタル画像から、該デジタル画像に存在する所定の対象物を検出する対象物検出方法において、
    前記デジタル画像に対して、通常の前記所定の対象物を検出する通常対象物検出処理を行い、
    該通常対象物検出処理により前記所定の対象物を検出することができなかった前記デジタル画像に対して、所定の特徴を有する前記所定の対象物を検出する特徴対象物検出処理を行うことを特徴とする対象物検出方法。
  2. 前記所定の対象物が検出されるまで、夫々異なる前記所定の特徴に対応する前記特徴対象物検出処理を順次行うことを特徴とする請求項1記載の対象物検出方法。
  3. 前記デジタル画像が、顔写真画像であり、
    前記所定の対象物が、顔であることを特徴とする請求項1または2記載の対象物検出方法。
  4. デジタル画像から、該デジタル画像に存在する所定の対象物を検出する対象物検出装置であって、
    前記デジタル画像に対して、通常の前記所定の対象物を検出する通常対象物検出手段と、
    所定の特徴を有する前記所定の対象物を検出する特徴対象物検出手段と、
    前記通常対象物検出手段により前記所定の対象物を検出することができなかった前記デジタル画像に対して、前記特徴対象物検出手段による検出を行わせる制御手段とを有してなることを特徴とする対象物検出装置。
  5. 前記特徴対象物検出手段が複数あり、
    該複数の特徴対象物検出手段が、夫々異なる前記所定の特徴に対応するものであり、
    前記制御手段が、前記所定の対象物が検出されるまで、前記複数の特徴対象物検出手段による検出を順次行わせるものであることを特徴とする請求項4記載の対象物検出装置。
  6. 前記デジタル画像が、顔写真画像であり、
    前記所定の対象物が、顔であることを特徴とする請求項4または5記載の対象物検出装置。
  7. デジタル画像から、該デジタル画像に存在する所定の対象物を検出する対象物検出処理をコンピュータに実行させるプログラムであって、
    前記対象物検出処理が、通常の前記所定の対象物を検出する通常対象物検出処理と、
    該通常対象物検出処理により前記所定の対象物を検出することができなかった前記デジタル画像に対して、所定の特徴を有する前記所定の対象物を検出する特徴対象物検出処理とからなることを特徴とするプログラム。
  8. 前記デジタル画像が、顔写真画像であり、
    前記所定の対象物が、顔であることを特徴とする請求項7記載のプログラム。
JP2004051322A 2004-02-26 2004-02-26 対象物検出方法および装置並びにプログラム Pending JP2005242640A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004051322A JP2005242640A (ja) 2004-02-26 2004-02-26 対象物検出方法および装置並びにプログラム
US11/067,223 US7542591B2 (en) 2004-02-26 2005-02-28 Target object detecting method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004051322A JP2005242640A (ja) 2004-02-26 2004-02-26 対象物検出方法および装置並びにプログラム

Publications (1)

Publication Number Publication Date
JP2005242640A true JP2005242640A (ja) 2005-09-08

Family

ID=34879616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004051322A Pending JP2005242640A (ja) 2004-02-26 2004-02-26 対象物検出方法および装置並びにプログラム

Country Status (2)

Country Link
US (1) US7542591B2 (ja)
JP (1) JP2005242640A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8638467B2 (en) 2005-12-26 2014-01-28 Seiko Epson Corporation Print data generating apparatus a print data generating method

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
US20060222264A1 (en) * 2005-03-31 2006-10-05 Siemens Ag Method for vertically orienting a face shown in a picture
JP4628882B2 (ja) * 2005-06-16 2011-02-09 富士フイルム株式会社 判別器の学習方法、顔判別方法および装置並びにプログラム
US7657086B2 (en) * 2006-01-31 2010-02-02 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection using a nose ridge mask
US7653221B2 (en) * 2006-01-31 2010-01-26 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection and removal
US7957555B2 (en) * 2006-02-08 2011-06-07 Fujifilm Corporation Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part
US7684594B2 (en) * 2006-02-08 2010-03-23 Fujifilm Corporation Method and apparatus for estimating object part location in digital image data using feature value analysis
US20080107341A1 (en) * 2006-11-02 2008-05-08 Juwei Lu Method And Apparatus For Detecting Faces In Digital Images
US7961908B2 (en) * 2007-12-21 2011-06-14 Zoran Corporation Detecting objects in an image being acquired by a digital camera or other electronic image acquisition device
CN102034079B (zh) * 2009-09-24 2012-11-28 汉王科技股份有限公司 眼镜遮挡下的人脸识别方法和***
JP5649601B2 (ja) * 2012-03-14 2015-01-07 株式会社東芝 照合装置、方法及びプログラム
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection
JP2014137674A (ja) * 2013-01-16 2014-07-28 Sony Corp 情報処理装置および方法、並びにプログラム
CN105184253B (zh) * 2015-09-01 2020-04-24 北京旷视科技有限公司 一种人脸识别方法和人脸识别***
US20170323149A1 (en) * 2016-05-05 2017-11-09 International Business Machines Corporation Rotation invariant object detection
US10706327B2 (en) * 2016-08-03 2020-07-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
CN107844742B (zh) * 2017-09-26 2019-01-04 平安科技(深圳)有限公司 人脸图像眼镜去除方法、装置及存储介质
CN107862270B (zh) * 2017-10-31 2020-07-21 深圳云天励飞技术有限公司 人脸分类器训练方法、人脸检测方法及装置、电子设备
EP3698269A4 (en) 2017-11-22 2020-12-09 Zhejiang Dahua Technology Co., Ltd. IMAGE PROCESSING METHOD AND SYSTEM
CN107944385B (zh) * 2017-11-22 2019-09-17 浙江大华技术股份有限公司 一种用于确定眼镜框区域的方法及装置
US11275819B2 (en) 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
JPH11341272A (ja) 1998-05-22 1999-12-10 Noritsu Koki Co Ltd 画像処理装置及び画像処理方法
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
JP3983469B2 (ja) 2000-11-14 2007-09-26 富士フイルム株式会社 画像処理装置、方法及び記録媒体
US7391888B2 (en) * 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8638467B2 (en) 2005-12-26 2014-01-28 Seiko Epson Corporation Print data generating apparatus a print data generating method

Also Published As

Publication number Publication date
US20050190963A1 (en) 2005-09-01
US7542591B2 (en) 2009-06-02

Similar Documents

Publication Publication Date Title
US7542591B2 (en) Target object detecting method, apparatus, and program
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
JP4414401B2 (ja) 顔特徴点検出方法および装置並びにプログラム
US8811744B2 (en) Method for determining frontal face pose
JP5227639B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP4406547B2 (ja) Idカード作成装置、idカード、顔認証端末装置、顔認証装置およびシステム
US7848545B2 (en) Method of and system for image processing and computer program
JP5227629B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
US7995807B2 (en) Automatic trimming method, apparatus and program
JP2010271923A (ja) 人物追跡方法、人物追跡装置および人物追跡プログラム
JP4757598B2 (ja) 顔検出方法および装置並びにプログラム
JP5027030B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
US20050058369A1 (en) Apparatus, method and program for generating photo card data
JP4619762B2 (ja) 画像処理方法および装置並びにプログラム
JP4708835B2 (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP4690190B2 (ja) 画像処理方法および装置並びにプログラム
JP4510562B2 (ja) 円中心位置検出方法および装置並びにプログラム
JP2005108195A (ja) 対象物識別装置および方法並びにプログラム
JP4493448B2 (ja) 対象物識別装置および方法並びにプログラム
JP4541806B2 (ja) 対象物識別装置および方法並びにプログラム
JP2005108207A (ja) 画像処理方法および装置並びにプログラム
JP2006133824A (ja) 画像処理方法および装置並びにプログラム
JP2007072530A (ja) 画像処理装置、画像処理方法、及び撮像装置
JP2005244571A (ja) トリミング処理方法および装置並びにプログラム
JP2005242641A (ja) トリミング用データ作成方法およびトリミング用データおよびトリミング処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060523

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090924