JP5523053B2 - 物体識別装置及び物体識別方法 - Google Patents

物体識別装置及び物体識別方法 Download PDF

Info

Publication number
JP5523053B2
JP5523053B2 JP2009240810A JP2009240810A JP5523053B2 JP 5523053 B2 JP5523053 B2 JP 5523053B2 JP 2009240810 A JP2009240810 A JP 2009240810A JP 2009240810 A JP2009240810 A JP 2009240810A JP 5523053 B2 JP5523053 B2 JP 5523053B2
Authority
JP
Japan
Prior art keywords
identification
image
identification information
partial image
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009240810A
Other languages
English (en)
Other versions
JP2011086259A (ja
Inventor
雄太 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009240810A priority Critical patent/JP5523053B2/ja
Priority to US12/903,041 priority patent/US8666176B2/en
Publication of JP2011086259A publication Critical patent/JP2011086259A/ja
Application granted granted Critical
Publication of JP5523053B2 publication Critical patent/JP5523053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体識別装置及び物体識別方法に関する。
従来、画像から特定の被写体パターンを自動的に検出する画像処理方法が知られている。この画像処理方法は、非常に有用であり、例えば人間の顔の判定に利用することができる。また、このような方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮等の多くの分野で使用することができる。
近年、画像中から顔を検出する技術として、複数の顕著な特徴(2つの目、口、鼻等)、その特徴間の固有の幾何学的位置関係、人間の顔の対称的特徴、人間の顔色の特徴等を利用する方式が開示されている(例えば、非特許文献1参照)。
Yang et al, "Detecting Faces in Images: A Survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002
しかしながら、非特許文献1に記載の技術では、画像中から顔を識別するには上述の特徴についての算出処理が一律に生じることになるので、顔の識別に時間がかかってしまうという問題が生じ得る。
本発明はこのような問題点に鑑みなされたもので、物体の識別に要する時間を低減することを目的とする。
そこで、本発明の物体識別装置は、入力画像から切り出し位置を順次ずらしながら部分画像を切り出す切出手段と、前記切出手段で切り出された一の部分画像に対して、記憶部に予め記憶されている物体を識別するための複数の識別情報の参照順序を決定する決定手段と、前記複数の識別情報を前記参照順序に従って順次参照して、参照される各識別情報に基づいて前記部分画像が前記物体に係る画像であるか否かを識別し、ある識別情報に基づいて前記部分画像が前記物体に係る画像でないと識別されると、前記参照順序において前記識別情報より後の識別情報に基づく識別を止める識別手段と、前記識別手段で前記部分画像が前記物体に係る画像でないと識別された場合に、前記識別された部分画像の切り出し位置と前記識別に用いられた識別情報の識別子とを対応付けた識別結果情報を保持部に保存する保存手段と、を有し、前記決定手段は、前記一の部分画像に対して、前記識別結果情報中に前記部分画像の近傍の切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報を優先させて、前記参照順序を決定する。
本発明によれば、物体の識別に要する時間を低減することができる。
物体識別装置の構成を示す図である。 顔検出における走査の例を示す図である。 特徴量の概要を示す図である。 カスケード接続の例を示す図である。 隣接領域画像の例を示す図である。 識別対象領域画像と近傍領域画像とに関する特徴量の相関を示す図である。 ラスタスキャンの例を示す図である。 物体識別装置における処理に係るフローチャートの一例を示す図である。 動画における対応領域画像の例を示す図である。 識別処理結果の相関関係を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
<第1の実施形態>
本実施形態では、識別器を用いて画像内から顔を検出(顔検出)する物体識別装置について説明する。
図1の(a)は、物体識別装置のハードウェア構成を示す図である。物体識別装置は、CPU(Central Processing Unit)1、記憶装置2、入力装置3、及び表示装置4を含んで構成される。なお、各装置は、互いに通信可能に構成され、バス等により接続されている。
CPU1は、物体識別装置の動作をコントロールし、記憶装置2に格納されたプログラムの実行等を行う。
記憶装置2は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、CPU1の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。
本実施形態では、CPU1が、記憶装置2に格納されたプログラムの手順に従って処理を行うことによって、物体識別装置における機能及び後述するフローチャートに係る処理が実現される。
入力装置3は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、各種の指示を入力する。
表示装置4は、液晶パネル、外部モニタ等であり、各種の情報を表示する。
なお、物体識別装置のハードウェア構成は、上述した構成に限られるものではない。例えば、物体識別装置は、各種の装置間で通信を行うためのI/O装置を含んで構成されてもよい。例えば、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線、無線等による送受信部である。また、例えば、物体識別装置は、撮像装置を含んで構成されてもよい。撮像装置は、カムコーダ等であり、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備える。撮像装置で撮像された画像データは、記憶装置2等に記憶される。
ここで、顔検出を行う様々な顔検出装置を例に挙げて、物体識別装置による顔検出を行うに際しての前提の技術を説明する。
まず、顔検出装置は、顔の検出を対象とする画像データをメモリに読み込み、顔と照合する部分領域である所定の矩形領域を読み込んだ画像中から切り出す。そして、顔検出装置は、切り出した矩形領域の画素値の分布を入力としてニューラル・ネットワークによる演算で一つの出力を得る。このとき、ニューラル・ネットワークの重み、閾値が膨大な顔画像パターンと非顔画像パターンとにより予め学習されており、顔検出装置は、例えば、ニューラル・ネットワークの出力が0以上であるならば顔、それ以外は非顔であると判別する。そして、顔検出装置は、ニューラル・ネットワークの入力である矩形領域(例えば、後述の識別対象領域画像111)の切り出し位置を、例えば、図2に示すように入力画像110の全域から縦横順次に走査していくことにより、画像中から顔を検出する。また、顔検出装置は、様々な大きさの顔の検出に対応するため、図2に示すように読み込んだ画像を所定の割合で順次縮小し、それに対して上述した顔検出の走査を行うようにしている。なお、ニューラル・ネットワークにより画像中の顔パターンを検出する方法については、参考文献1等を参照することが好ましい。
(参考文献1)
Rowley et al, "Neural network-based face detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998
また、処理の高速化に着目した顔検出装置としては、AdaBoostを使って多くの弱判別器を有効に組合せて顔判別の精度を向上させるものがある(参考文献2等を参照のこと。)。
一方で、夫々の弱判別器をHaarタイプの矩形特徴量で構成し、矩形特徴量の算出を、積分画像を利用して高速に行う構成を採用する顔検出装置がある。このHaarタイプの矩形特徴量について、図3を参照して説明する。特徴量A(310)は、両目部分と両目下部分(頬の部分)とにより構成され、両目部分は、両目下部分より黒っぽいという特徴を示す特徴量である。また、特徴量B(320)は、両目部分と眉間部分とにより構成され、両目部分において、目の部分は黒っぽく、目と目の間である眉間部分は、両目部分に比べて、白っぽいという特徴を示す特徴量である。Haarタイプの矩形特徴量を用いる顔検出装置では、このような学習結果(学習された特徴量)を識別対象領域画像111(部分画像に関する特徴量)と照合し、TRUE / FALSEで識別結果を出力する。
(参考文献2)
Viola and Jones, "Rapid Object Detection using Boosted Cascade of Simple Features", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)
また、AdaBoost学習によって得た識別器を直列に繋ぎ、カスケード型の顔検出器を構成するようにしている顔検出装置がある(参考文献2等を参照のこと。)。図4にカスケード型の顔検出装置の構成を示す。このカスケード型の顔検出装置は、まず前段の単純な(すなわち計算量のより少ない)識別器を使って明らかに顔でないパターンの候補をその場で除去する。次に、顔検出装置は、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な(すなわち計算量のより多い)識別器を使って顔であるか否かの判定を行っている。つまり、この構成によれば、すべての候補に対して複雑な判定を行う必要がないので高速である。このように、カスケード型の顔検出装置では、画像中から顔パターンを検出する場合には、図2に示すように画像中から識別対象領域画像111を順次切り出して、識別対象領域画像111が投入されることになる。
しかしながら、上述した顔検出装置では、夫々の識別器1(401)、識別器2(402)、...、識別器N(40N)の処理順は、AdaBoost学習の際に使用した膨大な顔パターン及び非顔パターンを識別する効果の高い順に並べられている。そのような処理順は、顔検出器に識別対象領域画像111がランダムに投入される場合には最適だが、一つの画像から縦横順次に走査していくように切り出された識別対象領域画像111の場合には必ずしも最適とはいえない。
以下、その理由について説明する。
例えば、図5に示す画像パターンP1(501)をカスケード型の顔検出装置に投入し、識別結果として図4に示す識別器1(401)、識別器2(402)を通過し(すなわち顔候補だと判断され)、識別器K(40K)で顔でないと判断されたとする。次に、図5に示す画像パターンP1(501)に隣接する画像パターンP2(502)をカスケード型の顔検出装置に投入した場合、同様に識別器1(401)、識別器2(402)を通過し、識別器K(40K)で顔でないと判断される可能性が高い。それは、画像パターンP1(501)と画像パターンP2(502)とは共通する画像領域が多いのでHaarタイプの矩形特徴量の相関が高いからである。
この原理を、図6を参照して説明する。現在の識別対象領域画像111に対し、周囲に数画素ずらした画像パターンを、近傍領域画像600と称する。また、識別対象領域画像111に対し、特徴量A(310)と特徴量B(320)とを取得した結果を、特徴量A1(611)及び特徴量B1(621)とする。さらに、近傍領域画像600に対し、特徴量A(310)と特徴量B(320)とを取得した結果を、特徴量A2(612)及び特徴量B2(622)とする。このとき、識別対象領域画像111と近傍領域画像600とは、重なる領域が多いため、特徴量A1(611)と特徴量A2(612)との相関が高く、特徴量B1(621)と特徴量B2(622)との相関も高い。
各識別器(400)は、これらの特徴量を計算し、識別結果を決定するため、両画像パターンの特徴量の相関が高いならば、両画像パターンの識別処理結果も類似する。
すなわち、予め学習の際に決められた処理順に従い顔検出の処理を行った場合には、識別器k(40k)で識別処理が打ち切られる可能性が高い場合も、識別器1(401)、識別器2(402)等の処理を実施する。したがって、識別器1(401)、識別器2(402)等の処理は、TRUEになる可能性が高く、無駄になってしまう確率が高い。すなわち、上述したカスケード型の顔検出装置では、近傍の画像パターン同士の相関が考慮されていないので、一つの画像から縦横順次に走査して画像パターンを投入するような場合には必ずしも最適な構成にはなっていない。
以上のことを踏まえ、本物体識別装置での顔検出の方法について説明する。本物体識別装置は、画像から矩形領域を切り出して、切り出した矩形領域についての画像を入力として、各識別処理を実行する。
ここで、図7に示すように、本物体識別装置では、画像から矩形領域を切り出す方法として、画像左上画素を開始点とし主走査方向(水平方向)に1画素ずつ走査していく方法(以下、ラスタスキャンと称する。)を採用する。すなわち、ラスタスキャンにおいては、物体識別装置は、入力画像の左上画素を始点とし、矩形領域の左上画素が始点と一致する矩形領域に対して識別処理を行う。次に、物体識別装置は、主走査方向に1画素ずれた矩形領域に対して順次識別処理を行っていき、矩形領域右端が入力画像右端と一致する点(終点)まで処理を行う。そして、物体識別装置は、1つ前の主走査の始点から副走査方向に1画素ずれた画素を始点として、主走査方向に向かって走査を行う。これを1画素ずつ副走査方向にずらしながら、物体識別装置は、矩形領域の下端が入力画像の下端と一致するまでバンドに対する処理を行っていく。
ラスタスキャンの場合、物体識別装置は、近傍領域画像600として、1画素ずれた領域(隣接領域画像700)を使用することができる。すなわち、隣接領域画像700が識別器M(40M)でFALSEした場合、現在の識別対象領域画像111でも識別器M(40M)でFALSEとなる可能性が高い。
そこで、直前の識別処理、つまり隣接領域画像700に対する識別処理が、識別器M(40M)でFALSEしている場合、現在の識別対象領域画像111に対する識別処理を識別器M(40M)から開始する。識別器M(40M)がTRUEになった場合は、識別器1(401)から再開してもよいし、識別器M+1(40M+1)に進んで再開してもよい。
なお、本実施形態では、処置対象の部分画像として、1画素ずれた隣接領域画像700を使用しているが、これに限られるものではない。例えば、画像の走査方法に関わらず、現在の識別対象領域画像111から数画素上下左右いずれかにずれた領域の部分画像(すなわち、識別対象領域画像111の近傍の部分画像である近傍領域画像600等)を利用してもよい。このとき、近傍領域画像600の処理結果としては、数画素上下左右いずれかにずれた部分画像に対する処理結果でもよいし、周辺の数領域に対する部分画像の処理結果の平均等でもよい。
ここで、図1(b)を参照して、物体識別装置の機能構成を説明する。
物体識別装置は、画像入力部100、画像切り出し部101、識別処理部102、識別処理制御部103、処理順序決定部104、辞書データ保持部105、及び識別処理結果情報保持部107を含んで構成される。
画像入力部100は、デジタルカメラで撮影された静止画、動画の1フレーム画像等、入力画像110を入力する。
画像切り出し部101は、画像入力部100から入力された入力画像110から識別対象となる矩形領域の画像である識別対象領域画像111を切り出す。本実施形態では、切り出し方として、上述したラスタスキャンを採用している。
識別処理部102は、画像切り出し部101で切り出された識別対象領域画像111に、物体が存在しているかどうかを識別する。本実施形態では、識別処理部102は、1つで構成されており、入力される処理識別器番号115をもとに、辞書データ保持部105から、辞書データ112を読み出して、夫々の識別器(400)としての識別処理を行う。識別処理では、識別処理部102は、識別対象領域画像111から辞書データ112をもとに複数の特徴量を計算して、識別結果116を得る。辞書データ112は、予め学習により計算して求められたものであり、辞書データ112の違いが各識別器(400)の違いとなる。
識別処理制御部103は、処理順序情報118に従って、識別処理部102を順番に実行させるように制御する。処理順序情報118とは、識別器(400)をどのような順番で実行していくかを示す情報である。
処理順序決定部104は、識別処理制御部103による依頼をもとに、処理順序情報118を決定し、処理順序情報118を識別処理制御部103に出力する。
本物体識別装置の動作を、図8を参照して説明する。
まず、画像入力部100は、入力画像110を入力する(ステップS801)。ここで読み込まれた入力画像110は、例えば8ビットの輝度で表現される画素により構成される、横g_width、縦g_heightの2次元配列データである。
次に、切出手段の一例である画像切り出し部101は、識別対象領域画像111の位置情報(識別対象領域画像111の最左上端の位置)(x,y)を入力画像110の最左上端(0,0)とする(ステップS802)。
続いて、画像切り出し部101は、入力画像110から識別対象領域画像111(換言するならば、部分画像)を切り出す(ステップS803)。識別対象領域画像111は、例えば入力画像110と同様に8ビットの輝度で表現される画素により構成される、横s_width、縦s_heightの2次元配列データである。このとき、画像切り出し部101は、識別対象領域画像111の位置情報を含む処理開始依頼通知113を識別処理制御部103に対して送信する。処理開始依頼通知113を受け取った識別処理制御部103は、処理順序情報118を受け取るために、処理順序決定部104に対して識別対象領域画像111の位置情報を通知する。
次に、決定手段の一例である処理順序決定部104は、識別処理結果情報保持部107に、隣接領域画像700の識別処理結果情報117が存在するか否かを判定する(ステップS804)。存在する場合には、処理順序決定部104は、隣接領域画像700の識別処理結果情報117により決定される処理順序情報118をList配列に読み出す(ステップS806)。他方、存在しない場合は、処理順序決定部104は、所定の処理順序、例えば識別器1(401)から順に、2、3、…、nの順の処理順序情報118をList配列として作成する(ステップS805)。なお、処理順序決定部104は、初回については、隣接領域画像700の識別処理結果情報117が存在しないため、所定の順序を使用する。すなわち、処理順序決定部104は、識別された結果(例えば、識別処理結果情報117の有無)に基づいて、識別対象領域画像111の近傍の部分画像(例えば、隣接領域画像700)と複数の辞書データ112の各々とに係る認識処理が行われる順序を決定する。
次に、識別処理制御部103は、受け取った処理順序情報118をもとに、順次識別処理部102を動作させる。
まず、識別処理制御部103は、ループ変数iを初期化する(ステップS807)。
次に、識別処理制御部103は、List配列のi番目の識別器番号を処理識別器番号115として識別処理部102に入力する。これにより識別器番号List[i]の処理が識別処理部102により実行される(ステップS809)。すなわち、識別手段の一例である識別処理部102は、入力された処理識別器番号115をもとに、記憶部の一例である辞書データ保持部105から、辞書データ112を読み出して、処理識別器番号115の識別器(400)としての識別処理を行う。識別処理では、識別処理部102は、識別対象領域画像111から辞書データ112をもとに複数の特徴量を計算して、識別結果116を得る。すなわち、識別処理部102は、識別対象領域画像111と物体を識別するための複数の識別情報(例えば、複数の辞書データ112)の各々とを参照して、識別対象領域画像111が物体に係る画像であるか否かを識別する。
その後、識別処理制御部103は、識別処理部102より識別結果116を受け取り、TRUEであるかFALSEであるかを判定する(ステップS810)。判定の結果、TRUE(Yes)である場合には、識別処理制御部103は、ループ変数iをインクリメントする(ステップS811)。そして、識別処理制御部103は、ループ変数iが処理識別器総数nより小さいか否かを判定する。ループ変数iが処理識別器総数nより小さい場合には、識別処理制御部103は、次の識別器(400)の処理を実行する。他方、ループ変数iが処理識別器総数n以上である場合、すなわち識別処理のループにおいて一度もFALSEせずにループ変数iが処理識別器総数nに達した場合、識別処理制御部103は、打切り識別器番号NUMに0を代入する(ステップS814)。
他方、FALSE(No)である場合には、識別処理制御部103は、打切り識別器番号NUMとしてFALSEとなった識別器番号List[i]を代入し(ステップS813)、続いて、処理をステップS815に移す。すなわち、識別手段の一例である識別処理制御部103は、識別対象領域画像111が物体に係る画像でないと識別されると、複数の辞書データ112のうち参照していない残りの辞書データ112についての識別処理を止めるように制御を行う。
次に、識別処理制御部103は、打切り識別器番号NUMと、識別対象領域画像111の位置情報(x,y)とを識別処理結果情報117として、処理順序決定部104に通知する。処理順序決定部104は、受け取った識別処理結果情報117を識別処理結果情報保持部107に保存する(ステップS815)。この保存された識別処理結果情報117は、隣接領域画像700の識別処理結果情報117が存在するかを判定するステップ(ステップS804)で使用される。
以上で、1つの識別対象領域画像111に対する識別処理が終了する。この際、識別処理制御部103は、画像切り出し部101に対し、処理完了通知114を通知する。
処理完了通知114を受け取った画像切り出し部101は、識別対象領域画像111の始点(x,y)を(x+1,y)に設定する(ステップS816)。換言するならば、画像切り出し部101は、識別対象領域画像111を右に1画素分ずらす。
このとき、識別処理制御部103は、xが入力画像110の横幅g_width - 識別対象領域画像111の横幅s_width以上であるか否かを判断する(ステップS817)。xが入力画像110の横幅g_width - 識別対象領域画像111の横幅s_width未満である場合は、識別処理制御部103は、次の識別対象領域画像111の切り出し処理(ステップS803)に処理を移す。他方、xが入力画像110の横幅g_width - 識別対象領域画像111の横幅s_width以上である場合には、識別処理制御部103は、識別対象領域画像111の位置情報(x,y)を(0,y+1)に設定する(ステップS818)。すなわち、識別処理制御部103は、識別対象領域画像111が入力画像110の最右端まで達した場合には、識別対象領域画像111を、現在の位置から1画素下の行の最左端に設定する。
さらに、識別処理制御部103は、yが入力画像110の縦幅g_height - 識別対象領域画像111の縦幅s_height以上であるか否かを判断する(ステップS819)。yが入力画像110の縦幅g_height - 識別対象領域画像111の縦幅s_height未満である場合には、識別処理制御部103は、次の識別対象領域画像111の切り出し処理(ステップS803)に処理を移す。他方、yが入力画像110の縦幅g_height - 識別対象領域画像111の縦幅s_height以上である場合には、そこで入力画像110に対する検出処理を終了する。つまり識別対象領域画像111が入力画像110の最右下端まで達した場合には、識別処理制御部103は、そこで入力画像110に対する検出処理を終了する。
ここで、次の識別対象領域画像111における識別処理について説明する。
まず、画像切り出し部101は、次の識別対象領域画像111を切り出す(ステップS803)。
次に、処理順序決定部104は、隣接領域画像700の識別処理結果情報117が存在するか否かを判断する(ステップS804)。例えば、このとき、識別処理結果情報保持部107は、前回の識別対象領域画像111に対する識別処理結果情報117を保持しているとする。この場合には、処理順序決定部104により識別処理結果情報117が存在すると判断され、識別処理制御部103は、隣接領域画像700の識別処理結果情報117により決定される処理順序情報118を使用する。この処理順序情報118は、処理順序決定部104において、隣接領域画像700の識別処理結果情報117に基づき、一意に決定される。例えば、隣接領域画像700の打切り識別器番号がMだった場合、処理順序として識別器M(40M)、1、2、…、M−1、M+1、…、Nという順序として決定される。すなわち、処理順序決定部104は、識別対象領域画像111が物体に係る画像でないとの識別に用いられた辞書データ112が特定されると、識別対象領域画像111の近傍の部分画像と特定された辞書データ112とが最初に参照されるように順序を決定する。以降の処理は、上述した識別処理の流れと同じである。
なお、識別対象領域画像111の位置が最左端である場合には、隣接領域画像700の識別処理結果情報117は存在しないため、最初の識別対象領域画像111に対する識別処理と同じ流れになる。しかしながら、識別対象領域画像111の位置の一画素分上の近傍領域画像600の識別処理結果情報117が存在する場合は、処理順序決定部104は、この識別処理結果情報117により処理順序情報118を決定してもよい。
<第2の実施形態>
本実施形態は、動画に対しても適用可能である。動画の場合は、図9に示すように、近傍領域画像600として、連続するフレームの時間的に直前のフレームにおける領域画像、数フレーム前のフレームにおける対応領域画像910等を使用することができる。ここで使用する対応領域画像910の位置は、処理する対象フレーム内の識別対象領域画像111の同一位置座標とする。
第2の実施形態に係る物体識別装置における処理を、図8を参照して、第1の実施形態との相異点に着目して説明する。なお、第2の実施形態では、第1の実施形態に係る構成と同一の構成については、第1の実施形態で用いた符号と同一の符号を採用する。
ステップS801では、画像入力部100は、動画の1フレーム画像を入力画像110として入力する。入力された入力画像110(換言するならば、動画を構成する一連の入力画像)は、基本的に静止画の場合とデータ形式としては同じものになる。なお、ステップS802及びステップS803に関しては、第1の実施形態と同様であるので説明を省略する。
ステップ804では、処理順序決定部104は、隣接領域画像700の識別処理結果情報117の代わりに、前フレームの対応領域画像910の識別処理結果情報117が存在するか否かを判別する。存在する場合には、処理順序決定部104は、現在の識別対象領域画像111の位置情報をもとに、識別処理結果情報保持部107から、前フレームの対応領域画像910の識別処理結果情報117を取得し、処理順序を決定する。他方、存在しない場合には、以降のステップについては、第1の実施形態に示すステップと同様である。なお、ステップS807以降については、第1の実施形態と同様であるので説明を省略する。
本実施形態では、前フレームにおける識別処理結果情報117は、処理する対象フレーム内おける識別対象領域画像111の同一位置座標のものとしているが、これに限られるものではない。例えば、位置座標の近傍の識別処理結果情報117でもよい。また、例えば、前フレームと現在のフレームとの動きベクトルをもとに位置を予測し、使用する近傍の識別処理結果情報117を決めてもよい。したがって、処理順序決定部104は、一の入力画像における部分画像に対応する一の入力画像とは異なる入力画像における部分画像、又は当該部分画像の近傍の部分画像と複数の辞書データ112の各々とが参照されて識別される順序を決定してもよい。
<第3の実施形態>
第3の実施形態に係る処理順序決定部104は、識別処理の処理順序を決定する際に、予め学習時に求めておいた統計情報を用いる。なお、第3の実施形態では、第1の実施形態に係る構成と同一の構成については、第1の実施形態で用いた符号と同一の符号を採用する。
例えば、画像から顔の検出を行う場合には、学習画像(例えば、顔を含まない画像)を予め多数用意しておき、処理順序決定部104は、以下に説明する要領で統計情報を取得する。すなわち、処理順序決定部104は、識別器1(401)から識別器N(40N)の内、画像内のある矩形領域に対してどの識別器でFALSEとなるかの統計量と、その近傍の矩形領域に対してどの識別器でFALSEとなるかの統計量とを関連付ける。
ここで、識別器が10個並んだカスケード型の識別処理を行う場合に取得した統計量の例を図10に示す。図10に示す例では、L行M列の欄の数値は、画像内の矩形領域が識別器LでFALSEとなった矩形領域のうち近傍の矩形領域が識別器MでFALSEとなった頻度を表す。すなわち、表中の数値が大きいほど識別器間のFALSEとなる結果の相関が高いことを表す。したがって、例えば、近傍の矩形領域である隣接領域画像700が識別器6(406)でFALSEした場合、この例によると、識別器5(405)、6、2、…、8、10、という順で識別処理を実施する。このような順序で識別処理を実施することで、確率上、効率の良いカスケード型の識別処理を実施できることになる。
そこで、統計情報をもとに処理順序を決定する方法を用いた場合の処理の流れを、図8を参照して説明する。なお、処理の流れとしては、ステップS806を除いて、第1の実施形態と同様であるので、ステップS806に着目して説明をする。
ステップ806において、処理順序決定部104は、近傍領域画像600の識別処理結果情報117から処理順序決定部104に保持した処理順序情報をもとに処理順序情報118を提示する。なお、処理順序決定部104の処理順序情報は、上述したように予め学習時に求めておいた統計情報であり、近傍の矩形領域での処理結果別にList配列として保持されている。
なお、処理順序情報は、必ずしも図10に示した相関の高い順にList配列とする必要はない。例えば、カスケード型識別処理を構成する夫々の識別器の処理演算量が異なる場合には、List配列は、識別器間の相関が低くても処理演算量が小さい識別器を優先的に処理する構成としてもよい。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
上述した各実施形態の構成によれば、近傍の画像パターンの識別処理結果情報117をもとに、FALSEになる可能性が高い識別器から処理を開始することにより、識別処理が早期に打ち切られ、処理時間が向上する。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
100 画像入力部、101 画像切り出し部、102 識別処理部、103 識別処理制御部、104 処理順序決定部、105 辞書データ保持部、107 識別処理結果情報保持部

Claims (7)

  1. 入力画像から切り出し位置を順次ずらしながら部分画像を切り出す切出手段と、
    前記切出手段で切り出された一の部分画像に対して、記憶部に予め記憶されている物体を識別するための複数の識別情報の参照順序を決定する決定手段と、
    前記複数の識別情報を前記参照順序に従って順次参照して、参照される各識別情報に基づいて前記部分画像が前記物体に係る画像であるか否かを識別し、ある識別情報に基づいて前記部分画像が前記物体に係る画像でないと識別されると、前記参照順序において前記識別情報より後の識別情報に基づく識別を止める識別手段と、
    前記識別手段で前記部分画像が前記物体に係る画像でないと識別された場合に、前記識別された部分画像の切り出し位置と前記識別に用いられた識別情報の識別子とを対応付けた識別結果情報を保持部に保存する保存手段と、
    を有し、
    前記決定手段は、前記一の部分画像に対して、前記識別結果情報中に前記部分画像の近傍の切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報を優先させて、前記参照順序を決定する物体識別装置。
  2. 前記決定手段は、新たに切り出された前記部分画像に対して、前記識別結果情報中に前記部分画像の近傍の切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報が最初に参照されるように前記参照順序を決定する、請求項1記載の物体識別装置。
  3. 動画に含まれる一連の入力画像のそれぞれから切り出し位置を順次ずらしながら部分画像を切り出す切出手段と、
    前記切出手段で切り出された一の入力画像における一の部分画像に対して、記憶部に予め記憶されている物体を識別するための複数の識別情報の参照順序を決定する決定手段と、
    前記複数の識別情報を前記参照順序に従って順次参照して、参照される各識別情報に基づいて前記一の入力画像における一の部分画像が前記物体に係る画像であるか否かを識別し、ある識別情報に基づいて前記部分画像が前記物体に係る画像でないと識別されると、前記参照順序において前記識別情報より後の識別情報に基づく識別を止める識別手段と、
    前記識別手段で前記部分画像が前記物体に係る画像でないと識別された場合に、前記識別された部分画像の切り出し位置と前記識別に用いられた識別情報の識別子とを対応付けた識別結果情報を保持部に保存する保存手段と、
    を有し、
    前記決定手段は、前記一の入力画像における前記一の部分画像に対して、前記識別結果情報中に前記一の入力画像と時間的に近接する入力画像における部分画像の関連する切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報を優先させて、前記参照順序を決定する物体識別装置。
  4. 入力画像から切り出し位置を順次ずらしながら部分画像を切り出す切出工程と、
    前記切出工程で切り出された一の部分画像に対して、記憶部に予め記憶されている物体を識別するための複数の識別情報の参照順序を決定する決定工程と、
    前記複数の識別情報を前記参照順序に従って順次参照して、参照される各識別情報に基づいて前記部分画像が前記物体に係る画像であるか否かを識別し、ある識別情報に基づいて前記部分画像が前記物体に係る画像でないと識別されると、前記参照順序において前記識別情報より後の識別情報に基づく識別を止める識別工程と、
    前記識別工程で前記部分画像が前記物体に係る画像でないと識別された場合に、前記識別された部分画像の切り出し位置と前記識別に用いられた識別情報の識別子とを対応付けた識別結果情報を保持部に保存する保存工程と、
    を含み、
    前記決定工程では、前記一の部分画像に対して、前記識別結果情報中に前記部分画像の近傍の切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報を優先させて、前記参照順序を決定する物体識別方法。
  5. 動画に含まれる一連の入力画像のそれぞれから切り出し位置を順次ずらしながら部分画像を切り出す切出工程と、
    前記切出工程で切り出された一の入力画像における一の部分画像に対して、記憶部に予め記憶されている物体を識別するための複数の識別情報の参照順序を決定する決定工程と、
    前記複数の識別情報を前記参照順序に従って順次参照して、参照される各識別情報に基づいて前記一の入力画像における一の部分画像が前記物体に係る画像であるか否かを識別し、ある識別情報に基づいて前記部分画像が前記物体に係る画像でないと識別されると、前記参照順序において前記識別情報より後の識別情報に基づく識別を止める識別工程と、
    前記識別工程で前記部分画像が前記物体に係る画像でないと識別された場合に、前記識別された部分画像の切り出し位置と前記識別に用いられた識別情報の識別子とを対応付けた識別結果情報を保持部に保存する保存工程と、
    を含み、
    前記決定工程では、前記一の入力画像における前記一の部分画像に対して、前記識別結果情報中に前記一の入力画像と時間的に近接する入力画像における部分画像の関連する切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報を優先させて、前記参照順序を決定する物体識別方法。
  6. コンピュータを、
    入力画像から切り出し位置を順次ずらしながら部分画像を切り出す切出手段と、
    前記切出手段で切り出された一の部分画像に対して、記憶部に予め記憶されている物体を識別するための複数の識別情報の参照順序を決定する決定手段と、
    前記複数の識別情報を前記参照順序に従って順次参照して、参照される各識別情報に基づいて前記部分画像が前記物体に係る画像であるか否かを識別し、ある識別情報に基づいて前記部分画像が前記物体に係る画像でないと識別されると、前記参照順序において前記識別情報より後の識別情報に基づく識別を止める識別手段と、
    前記識別手段で前記部分画像が前記物体に係る画像でないと識別された場合に、前記識別された部分画像の切り出し位置と前記識別に用いられた識別情報の識別子とを対応付けた識別結果情報を保持部に保存する保存手段と、
    して機能させ、
    前記決定手段は、前記一の部分画像に対して、前記識別結果情報中に前記部分画像の近傍の切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報を優先させて、前記参照順序を決定するプログラム。
  7. コンピュータを、
    動画に含まれる一連の入力画像のそれぞれから切り出し位置を順次ずらしながら部分画像を切り出す切出手段と、
    前記切出手段で切り出された一の入力画像における一の部分画像に対して、記憶部に予め記憶されている物体を識別するための複数の識別情報の参照順序を決定する決定手段と、
    前記複数の識別情報を前記参照順序に従って順次参照して、参照される各識別情報に基づいて前記一の入力画像における一の部分画像が前記物体に係る画像であるか否かを識別し、ある識別情報に基づいて前記部分画像が前記物体に係る画像でないと識別されると、前記参照順序において前記識別情報より後の識別情報に基づく識別を止める識別手段と、
    前記識別手段で前記部分画像が前記物体に係る画像でないと識別された場合に、前記識別された部分画像の切り出し位置と前記識別に用いられた識別情報の識別子とを対応付けた識別結果情報を保持部に保存する保存手段と、
    して機能させ、
    前記決定手段は、前記一の入力画像における前記一の部分画像に対して、前記識別結果情報中に前記一の入力画像と時間的に近接する入力画像における部分画像の関連する切り出し位置に対応付けて識別子が含まれている場合、前記識別子に対応する識別情報を優先させて、前記参照順序を決定するプログラム。
JP2009240810A 2009-10-19 2009-10-19 物体識別装置及び物体識別方法 Active JP5523053B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009240810A JP5523053B2 (ja) 2009-10-19 2009-10-19 物体識別装置及び物体識別方法
US12/903,041 US8666176B2 (en) 2009-10-19 2010-10-12 Object recognition apparatus and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009240810A JP5523053B2 (ja) 2009-10-19 2009-10-19 物体識別装置及び物体識別方法

Publications (2)

Publication Number Publication Date
JP2011086259A JP2011086259A (ja) 2011-04-28
JP5523053B2 true JP5523053B2 (ja) 2014-06-18

Family

ID=43879329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009240810A Active JP5523053B2 (ja) 2009-10-19 2009-10-19 物体識別装置及び物体識別方法

Country Status (2)

Country Link
US (1) US8666176B2 (ja)
JP (1) JP5523053B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5873959B2 (ja) * 2010-09-27 2016-03-01 パナソニックIpマネジメント株式会社 ホワイトリスト内外判定装置及び方法
JP5778983B2 (ja) 2011-05-17 2015-09-16 キヤノン株式会社 データ処理装置、データ処理装置の制御方法、およびプログラム
JP5320443B2 (ja) * 2011-07-19 2013-10-23 富士フイルム株式会社 高速判別装置および高速判別装置を高速化する方法、並びに高速判別装置プログラム
CN103237142A (zh) * 2013-04-25 2013-08-07 刘义柏 一种通过蓝牙耳机和手机产生汽车控制指令的方法
JP6282045B2 (ja) * 2013-05-23 2018-02-21 キヤノン株式会社 情報処理装置および方法、プログラム、記憶媒体
US9454696B2 (en) * 2014-04-17 2016-09-27 Xerox Corporation Dynamically generating table of contents for printable or scanned content
CN113014793A (zh) * 2019-12-19 2021-06-22 华为技术有限公司 一种视频处理方法及电子设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP4482796B2 (ja) * 2004-03-26 2010-06-16 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP5025893B2 (ja) * 2004-03-29 2012-09-12 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US7907769B2 (en) * 2004-05-13 2011-03-15 The Charles Stark Draper Laboratory, Inc. Image-based methods for measuring global nuclear patterns as epigenetic markers of cell differentiation
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
JP4624889B2 (ja) 2005-08-30 2011-02-02 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US7889892B2 (en) 2005-10-13 2011-02-15 Fujifilm Corporation Face detecting method, and system and program for the methods
JP4657930B2 (ja) * 2006-01-17 2011-03-23 富士フイルム株式会社 顔検出方法および装置並びにプログラム
JP2007213182A (ja) 2006-02-08 2007-08-23 Fujifilm Corp 対象物状態認識方法および装置並びにプログラム
JP4579169B2 (ja) * 2006-02-27 2010-11-10 富士フイルム株式会社 撮影条件設定方法およびこれを用いた撮影装置
US7840037B2 (en) * 2007-03-09 2010-11-23 Seiko Epson Corporation Adaptive scanning for performance enhancement in image detection systems
US7983480B2 (en) * 2007-05-17 2011-07-19 Seiko Epson Corporation Two-level scanning for memory saving in image detection systems
JP4891197B2 (ja) * 2007-11-01 2012-03-07 キヤノン株式会社 画像処理装置および画像処理方法
US8565482B2 (en) * 2011-02-28 2013-10-22 Seiko Epson Corporation Local difference pattern based local background modeling for object detection

Also Published As

Publication number Publication date
JP2011086259A (ja) 2011-04-28
US20110091108A1 (en) 2011-04-21
US8666176B2 (en) 2014-03-04

Similar Documents

Publication Publication Date Title
CN105938622B (zh) 检测运动图像中的物体的方法和装置
JP5523053B2 (ja) 物体識別装置及び物体識別方法
KR102299847B1 (ko) 얼굴 인증 방법 및 장치
US8861784B2 (en) Object recognition apparatus and object recognition method
KR100608595B1 (ko) 얼굴 인식 방법 및 장치
JP5704905B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP5366756B2 (ja) 情報処理装置及び情報処理方法
US20130142426A1 (en) Image recognition apparatus, control method for image recognition apparatus, and storage medium
US8938117B2 (en) Pattern recognition apparatus and method therefor configured to recognize object and another lower-order object
US20160261808A1 (en) Information processing apparatus, information processing method, and storage medium
JP5662670B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP5578816B2 (ja) 画像処理装置
JP5693094B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP2010103980A (ja) 画像処理方法、画像処理装置及びシステム
US9053354B2 (en) Fast face detection technique
JP5258506B2 (ja) 情報処理装置
US9154682B2 (en) Method of detecting predetermined object from image and apparatus therefor
JP5247338B2 (ja) 画像処理装置及び画像処理方法
JP2010146395A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、電子機器
JP2008211534A (ja) 顔検知装置
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
JP2007025899A (ja) 画像処理装置、画像処理方法
CN116762098A (zh) 判定方法、判定程序、以及信息处理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140408

R151 Written notification of patent or utility model registration

Ref document number: 5523053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151