JP5390322B2 - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP5390322B2
JP5390322B2 JP2009223223A JP2009223223A JP5390322B2 JP 5390322 B2 JP5390322 B2 JP 5390322B2 JP 2009223223 A JP2009223223 A JP 2009223223A JP 2009223223 A JP2009223223 A JP 2009223223A JP 5390322 B2 JP5390322 B2 JP 5390322B2
Authority
JP
Japan
Prior art keywords
image
unit
face
priority
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009223223A
Other languages
English (en)
Other versions
JP2011070576A (ja
Inventor
寛 助川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009223223A priority Critical patent/JP5390322B2/ja
Priority to KR1020100088731A priority patent/KR101337060B1/ko
Priority to TW099131478A priority patent/TWI430186B/zh
Priority to US12/883,973 priority patent/US20110074970A1/en
Priority to MX2010010391A priority patent/MX2010010391A/es
Publication of JP2011070576A publication Critical patent/JP2011070576A/ja
Application granted granted Critical
Publication of JP5390322B2 publication Critical patent/JP5390322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Input (AREA)

Description

本発明は、例えば、画像を撮像し、特徴量を算出する画像処理装置、及び画像処理方法に関する。
複数地点に設置された複数のカメラを統合して監視を行う監視システムが一般的に実用化されている。監視員による監視をより確実にする為に、人物が写り込んでいる映像を表示する為の技術が開発されている。
たとえば、画像処理装置は、複数の監視カメラから入力される映像に対して優先度の決定方法を予め設定する。画像処理装置は、設定される優先度の決定方法に従って映像の優先度を決定する。画像処理装置は、優先度に応じて、「表示を切り替える・見やすくする」、「伝送フレームレート・符号化方法をかえる」、「伝送する映像・カメラの選択」、「映像記録の優先度をかえる」、「カメラをPTZ制御する」などの処理を行う。
たとえば、特許文献1に記載されている技術によると、画像処理装置は、複数あるカメラに対して特定物体の計数を行った結果に応じて、カメラの監視場所・画質・記録の有無・記録画質・モニタ表示画像・モニタ表示サイズ・監視専用か計数専用のモードを切り替える。この画像処理装置は、監視カメラにより撮像した映像を監視員に対して表示し、監視員による目視確認を行う映像を効率的に伝送し、表示し、記録する。
また、例えば、特許文献2に記載されている技術には、監視映像に対し画像処理を行って自動的に所定のイベントを検知する画像処理システムが提供されている。この画像処理システムは、1つのカメラで撮像する映像中に複数の人物が写り込んでいる場合、認識対象となる人物の通行速度、通行人数、各通行者との距離、照合開始からの経過時間などの情報に基づいて、画像処理にかける事ができる負荷の度合いを判定する。画像処理システムは、判定した負荷の度合いに応じて処理の精度及び検索対象人物の情報を制御する。
特開2005−347942号公報 特開2007−156541号公報
特許文献1に記載されている方法は、監視員に対して表示する映像を制御する構成である。しかし、人物の監視を自動認識により行う構成を実現することが出来ないという問題がある。また、複数のカメラをカメラの台数より少ない画像処理装置に接続する場合、映像の内容によっては認識処理が追いつかない可能性がある。この為、高性能な画像処理装置を準備する、あるいは、多数の処理装置を準備する必要がある。この結果、システムの価格が高くなってしまう、装置の大きさにより設置スペースが不足するという問題がある。
また、特許文献2に記載されている方法は、1つの映像を効率的に処理する為の構成であり、複数のカメラにより撮像した映像に対して処理を行う構成ではない。この為、複数のカメラの映像を統合的に監視することができないという問題がある。
そこで、本発明の目的は、より効率的に監視を行う為の画像処理を行う事ができる画像処理装置、及び画像処理方法を提供することにある。
本発明の一実施形態としての画像処理装置は、画像が入力される複数の画像入力部と、前記画像入力部により入力された画像から顔領域を検出する検出部と、前記検出部により検出された顔領域の画像から特徴量を抽出する特徴抽出部と、前記検出部により検出された顔領域の数に基づいて各画像入力部毎に優先度を設定し、複数の処理方法の中から方法を前記優先度に基づいて選択し、選択した前記方法で前記複数の画像入力部により入力される画像を処理するように前記検出部及び前記特徴抽出部を制御する制御部と、を具備する。
この発明の一形態によれば、より効率的に監視を行う為の画像処理を行う事ができる画像処理装置、及び画像処理方法を提供することができる。
図1は、本発明の第1の実施形態に係る画像処理装置の構成の例について説明するためのブロック図である。 図2は、図1に示すカメラにより撮像される画像の例について説明するための説明図である。 図3は、図1に示すカメラにより撮像される画像に対して行う顔検出処理の例について説明する為の説明図である。 図4は、図1に示すカメラにより撮像される画像に対して行う顔検出処理の例について説明する為の説明図である。 図5は、図1に示すカメラにより撮像される画像に対して行う顔検出処理の例について説明する為の説明図である。 図6は、本発明の第2の実施形態に係る画像処理装置の構成の例について説明するためのブロック図である。 図7は、図6に示すカメラにより撮像される画像に対して行う顔検出処理の例について説明する為の説明図である。
以下、図面を参照しながら、本発明の第1の実施形態に係る画像処理装置、及び画像処理方法について詳細に説明する。
図1は、本発明の第1の実施形態に係る画像処理装置100の構成例について説明するためのブロック図である。
画像処理装置100は、例えば、通行を許可する人物を制限する通行制御装置などに組み込まれていると仮定する。画像処理装置100は、特定の人物のみが通行を許可される場所、例えば、ビル及び企業の建物などのエントランス、若しくは、娯楽施設及び交通機関などのゲートなどに設置されると想定される。
なお、画像処理装置100は、取得した顔画像から得た特徴情報と予め登録情報として登録されている特徴情報とを照合し、特徴情報の一致する人物が少なくとも1名存在するか否かを判定する構成であると仮定する。
図1に示すように、画像処理装置100は、顔検出部111、112、及び113(総じて顔検出部114と称する)、特徴抽出部116、117、及び118(総じて特徴抽出部119と称する)、処理方法制御部120、認識部130、登録顔特徴管理部140、及び出力部150を備える。
また、通路101にカメラ106、通路102にカメラ107、通路103にカメラ108、がそれぞれ設置されている。カメラ106、107、及び108(総じてカメラ109と称する)は、顔検出部111、顔検出部112、顔検出部113にそれぞれ接続される。なお、顔検出部114に接続されるカメラは、何台であってもよい。
カメラ109は、画像入力部として機能する。カメラ109は、例えば、industrial television(ITV)カメラなどにより構成される。カメラ109は、所定範囲の動画像(複数枚の連続画像)を撮像する。これにより、カメラ109は、歩行者の顔を含む画像を撮像する。カメラ109は、撮像した画像を図示しないA/D変換器によりディジタル変換し、逐次顔検出部114に送信する。さらに、カメラ109に通行者の速度を測定する手段を併設してもよい。
顔検出部114は、入力画像から顔を検出する。特徴抽出部119は、顔検出部114により検出された顔領域毎に特徴情報を抽出する。
処理方法制御部120は、入力された映像に対する各種処理結果の内容に応じて、認識処理の方法、及び顔検出部114による顔検出処理の方法を制御する。処理方法制御部120は、制御部として機能する。
登録顔特徴管理部140は、あらかじめ認識対象となる人物の顔の特徴を登録して管理する。認識部130は、通行者Mを撮像した画像から特徴抽出部119により抽出した顔特徴と、登録顔特徴管理部140に登録されている顔特徴とを比較し、通行者Mが誰であるかを判定する。
登録顔特徴記憶部140は、個人の識別情報をキーとして人物の顔の特徴情報を登録情報として記憶している。即ち、登録顔特徴記憶部140は、識別情報と顔特徴情報とを対応付けて記憶する。なお、登録顔特徴記憶部140は、1つの識別情報と複数の顔特徴情報を対応付けて記憶してもよい。撮影した画像に基づいて人物の認識を行う場合、画像処理装置100は、複数の顔特徴情報を認識に利用するようにしてもよい。また、登録顔特徴記憶部140は、画像処理装置100の外部に設けられていてもよい。
出力部150は、認識部130による認識結果に応じて、認識結果を出力する。また、出力部150は、認識結果に応じて、本装置100に接続される外部機器への制御信号、音声、及び画像などを出力する。
顔検出部114は、カメラ109から入力される画像内において、人物の顔が写っている領域(顔領域)を検出する。即ち、顔検出部114は、カメラ109の撮影範囲内を移動する通行者Mの顔の画像(顔画像)及び位置を入力画像に基づいて検出する。
顔検出部114は、たとえば、入力画像において、あらかじめ用意されたテンプレートを移動させながら相関値を求めることにより、顔領域を検出する。ここでは、顔検出部114は、最も高い相関値が算出された位置を顔領域として検出する。
顔領域を検出する方法は、種々の方法がある。本実施形態に係る画像処理装置100は、例えば、固有空間法、または部分空間法などの他の顔領域を検出する為の方法を用いても実現することが出来る。
また、画像処理装置100は、検出された顔領域から、例えば、目、鼻、及び口などの顔の部位の位置を検出することもできる。具体的には、たとえば、文献[1](福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997年)、文献[2](湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219−224(2004)などに開示されている方法により実現可能である。
なお、本実施形態では、顔画像を用いて認証を行なう構成を例に挙げて説明する。しかし、本発明を実現する為の構成はこれに限定されない。例えば、虹彩、網膜、及び目の画像を用いて認証を行なう構成であってもよい。この場合、画像処理装置100は、画像中の目の領域を検出し、カメラをズームし、目の画像を拡大して取得することが出来る。
いずれの場合でも、画像処理装置100は、二次元に画素が複数配列された画像として扱うことができる情報を取得する。
1枚の入力画像から1つの顔を抽出する場合、画像処理装置100は、画像全体に対してテンプレートとの相関値を求め、最大となる位置及びサイズを顔領域として検出する。
1枚の入力画像から複数の顔を抽出する場合、画像処理装置100は、画像全体に対する相関値の局所最大値を求め、1枚の画像内での重なりを考慮して顔の候補位置を絞り込む。さらに、画像処理装置100は、連続して入力された過去の画像との関係性(時間的な推移)も考慮して複数の顔領域を同時に検出する。
なお、本実施の形態では、画像処理装置100は、人物の顔領域の検出を行なう事を例として説明しているがこれに限定されない。例えば、画像処理装置100は、人物領域の検出を行なう事もできる。例えば、文献[3](松日楽信人、小川秀樹、吉見卓:「人と共存する生活支援ロボット」東芝レビューVol.60 No.7,pp112−115(2005)に開示されている技術を利用することで、画像処理装置100は、人物領域の検出を行なう事が可能になる。
なお、カメラ109は、画像を連続して取得し、1フレームずつ顔検出部114に送信する。顔検出部114は、画像が入力される毎に逐次顔領域を検出する。
ここで検出された情報から、それぞれの人物Mの顔の位置(座標)、顔の大きさ、顔の移動速度、何個の顔が見つかっているかといった情報が取得可能である。
また、顔検出部114は、画像全体のフレーム間の差分を計算することにより、たとえば、画面全体のうちの動きのある場所の画素数(面積)を計算することができる。これにより、前述の顔検出をその変動領域付近を優先的に処理することで高速化が可能となる。さらに、人物や顔検出ができない人物が歩行している場合に、この面積が多くなること、人物以外の動体の量を推測することができる。
顔検出部114は、検出した顔領域、若しくは顔のパーツの位置に基づいて画像を一定の大きさ、形状に切り出す。顔検出部114は、例えば、入力画像から顔領域(mピクセル×nピクセルの領域の画像)を切り出す。顔検出部114は、切り出した画像を特徴抽出部119に送信する。
特徴抽出部119は、切り出した画像の濃淡情報を特徴量として抽出する。ここでは、mピクセル×nピクセルの領域の画像の濃淡の値がそのまま濃淡情報として用いられる。即ち、m×nピクセルの次元の情報を特徴ベクトルとして用いる。認識部130は、単純類似度法により複数の画像の類似度を算出する。即ち、認識部130は、ベクトルとベクトルの長さをそれぞれ「1」とするように単純類似度法により正規化を行なう。認識部130は、内積を計算することにより、複数の特徴ベクトルの間の類似性を示す類似度を算出する。カメラ109により取得した画像が一枚である場合、上記した処理により画像の特徴を抽出することができる。
また、認識結果を出力する為に、複数の連続した画像により構成される動画像を用いることにより、画像処理装置100は、より精度の高い認識処理を行うことができる。この為、本実施形態では、動画像を用いた認識処理を例に挙げて説明を行う。
動画像を用いた認識処理を行う場合、カメラ109は、撮影領域を連続して撮影する。顔検出部114は、カメラ109により撮影された連続の複数の画像から、顔領域の画像(m×nピクセルの画像)をそれぞれ切り出す。認識部130は、切り出した複数の顔領域の画像の特徴ベクトルを各画像毎に取得する。認識部130は、取得した画像毎の特徴ベクトルから相関行列を求める。
認識部130は、特徴ベクトルの相関行列から、例えば、Karhunen−Loeve展開(KL展開)等により正規直交ベクトルを求める。これにより、認識部130は、連続した画像おいて、顔の特徴を示す部分空間を算出し、特定することが出来る。
部分空間を算出する場合、認識部130は、特徴ベクトルの相関行列(または、共分散行列)を求める。認識部130は、特徴ベクトルの相関行列をKL展開することにより正規直交ベクトル(固有ベクトル)を求める。これにより、認識部130は、部分空間を算出する。
認識部130は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選ぶ。認識部130は、k個選んだ固有ベクトルの集合を用いて、部分空間を表現する。
本実施の形態では、認識部130は、特徴ベクトルに基づき、相関行列「Cd=ΦdΔdΦdT」を求める。認識部130は、相関行列「Cd=ΦdΔdΦdT」と対角化して、固有ベクトルの行列Φdを求める。この情報、即ち、行列Φdは、認識対象である人物の顔の特徴を示す部分空間である。
登録顔特徴記憶部140は、上記の方法により計算された部分空間を登録情報として記憶する。なお、登録顔特徴記憶部140が記憶している特徴情報は、例えばm×nピクセルの特徴ベクトルである。しかし、登録顔特徴記憶部140が記憶している特徴情報は、特徴の抽出が行われる前の状態の顔画像であってもよい。また、登録顔特徴記憶部140が記憶している特徴情報は、部分空間を示す情報、若しくは、KL展開が行われる前の状態の相関行列であってもよい。
また、登録顔特徴管理部140により保持する顔特徴情報は、1名当たり少なくとも1つ以上であれば、いくつ保持していてもよい。即ち、登録顔特徴記憶部140は、顔特徴情報を1名当たり複数保持している場合、状況によって認識に用いる顔特徴情報を切り替えることができる。
また、他の特徴抽出方法として、1枚の顔画像で特徴情報を求める方法がある。例えば、文献[4](エルッキ・オヤ著、小川英光、佐藤誠訳、「パターン認識と部分空間法」、産業図書、1986年)、及び文献[5](東芝(小坂谷達夫):「画像認識装置、方法およびプログラム」特許公報 特開2007−4767)などに開示されている方法を用いることにより実現可能である。
文献4には、部分空間法により予め複数の顔画像から作成した登録情報としての部分空間への射影により人物を認識する方法が記載されている。文献6に記載されている方法を用いる場合、認識部130は、1枚の画像を用いて人物の認識を行なう事ができる。
文献5には、1枚の画像に対してモデルを利用して、例えば、顔の向き及び状態などを意図的に変化させた画像(摂動画像)を作成する方法が記載されている。この場合、顔の向き及び状態などが異なる複数の摂動画像を用いて、人物の認識を行う事ができる。
認識部130は、特徴抽出部119により得られた入力部分空間と、登録顔特徴管理部140に予め登録される一つまたは複数の部分空間との類似度を比較する。これにより、認識部130は、予め登録された人物が現在の画像中にいるかどうかを判定することができる。
認識処理は、例えば、文献[6](前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」電子情報通信学会論文誌(D)、vol.J68−D、No.3、pp345―352(1985)などに開示されている相互部分空間法を用いることにより実現可能である。
この方法では、予め記憶されている登録情報の中の認識データと、入力されるデータとが部分空間として表現される。即ち、相互部分空間法は、予め登録顔特徴記憶部140に記憶されている顔特徴情報と、カメラ109により撮影された画像に基づいて作成された特徴情報とを部分空間として特定する。この方法では、この2つの部分空間により形成される「角度」が類似度として算出される。
ここでは、入力される画像に基づいて算出された部分空間を入力部分空間と称して説明する。認識部130は、入力データ列(カメラ109により撮影された画像)に基づいて相関行列「Cin=ΦinΔinΦinT」を求める。
認識部130は、相関行列「Cin=ΦinΔinΦinT」と対角化を行い、固有ベクトルΦinを求める。認識部130は、Φinにより特定される部分空間と、Φdにより特定される部分空間とで類似度を算出する。即ち、認識部130は、2つの部分空間の間の類似度(0.0〜1.0)を求める。
入力画像内に複数の顔領域が存在する場合、認識部130は、各顔領域に対して順番に認識の処理を行なう。すなわち、認識部130は、登録顔特徴記憶部140に保存されている特徴情報(登録情報)と、顔領域の画像とで類似度を総当りで計算する。これにより、認識部130は、入力画像内の全ての人物に対して認識の処理の結果を得ることができる。たとえば、X人の人物がY人分の辞書を記憶している本装置に向かって歩いてきた場合、認識部130は、認識の処理、即ち、類似度の計算をX×Y回おこなう。これにより、認識部130は、X人のうちの全員に対して認識の処理の結果を出力できる。
登録顔特徴記憶部140に保存されている登録情報と一致する画像が入力された複数の画像の中に見つからなかった場合、即ち、認識部130による認識の結果が出力されなかった場合、認識部130は、次にカメラ109により撮影される画像(次のフレームの画像)に基づいて再び認識の処理を行う。
この場合、認識部130は、部分空間に入力される相関行列、即ち、1つのフレームに関する相関行列を、過去の複数のフレームに関する相関行列の和に追加する。認識部130は、再び、固有ベクトルの計算を行う。認識部130は、再び、部分空間の作成を行なう。これにより、認識部130は、入力画像に関する部分空間の更新を行う。
歩行する人物の顔画像を連続して撮影して照合を行なう場合、認識部130は、逐次部分空間の更新を行う。即ち、認識部130は、画像が入力される度に、認識の処理を行う。これにより、照合の精度が、撮影した画像の枚数に応じて徐々に高まる。
図1に示すように、画像処理装置100に複数のカメラが接続されている場合、画像処理装置100における全体の処理の負荷が高くなりやすい。例えば、通行人数が多い場合、顔検出部114は、複数の顔領域を検出する。特徴抽出部119は、検出された顔領域の特徴抽出を行う。さらに、認識部130は、抽出された特徴量に応じて認識処理を行う。
特徴抽出処理及び認識処理において生じる遅延を防ぐためには、より処理速度の速い方法で処理を行う必要がある。なおかつ、通行人数が少ない場合に処理速度が遅く精度の高い処理を行う必要がある。
処理方法制御部120は、入力された映像に対する各種処理結果の内容に応じて、認識処理の方法、及び顔検出部114による顔検出処理の方法を制御する。
また、画像処理装置100に複数のカメラが接続されている為、各カメラから入力される画像に対する処理を、処理の負荷に応じてCPUの割り当て時間を制御する必要がある。即ち、処理方法制御部120は、より負荷の高い画像に対して優先的にCPUの割り当て時間を高くする。
処理方法制御部120は、カメラ109から入力される画像において検出された顔領域の位置(座標)、顔領域の大きさ、顔領域の移動速度、顔領域の数、及び動きのある画素の数などの情報の内の少なくとも1つに基づいて、入力画像に対する処理の優先度を各入力画像毎に設定する。
まず、処理方法制御部120は、各入力画像毎に検出された顔領域の数「N」を特定する。この場合、処理方法制御部120は、顔領域が検出されていない画像より、顔領域が多く検出された画像の優先度を高く設定する。例えば、処理方法制御部120は、検出された顔領域の数に比例した優先度を割り当てる。
また、処理方法制御部120は、顔領域の位置「L1」を特定する。処理方法制御部120は、カメラ109の設置画角に応じて、顔がもうすぐ画像内から消えるのかそうでないのかを推定する。たとえば、監視カメラのように人物より高い位置から撮影しているカメラから入力される画像において、人物がカメラの方向に移動する場合、顔領域のY座標が大きくなる。この為、処理方法制御部120は、Y座標が大きいほど画面内に人物が映っている残り時間が少ないと推定し、優先度を高く設定する。
また、顔領域の位置が0または画像の横軸の最大値に近い座標に存在する場合、人物が画面内に人物が映っている残り時間が少ないと推定する。処理方法制御部120は、より画像の横端に近い位置に顔領域が存在する画像に対する優先度を高く設定する。また、入力手段として距離センサを用いる場合、距離センサの測定結果に応じて優先度を設定してもよい。
また、処理方法制御部120は、人物の移動速度「V」を特定する。即ち、処理方法制御部120は、複数のフレーム間における顔領域の位置の変化に基づいて人物の移動速度を算出する。処理方法制御部120は、より移動速度が高い顔領域の存在する画像に対して高い優先度を設定する。
また、処理方法制御部120は、検出した顔領域の人物の種類「P」を特定する。特定する種類は、例えば、人物の性別、年齢、身長、及び服装などである。予め高い優先度で処理すべき人物の種類を設定することにより、処理方法制御部120は、各画像に対して優先度を設定する。
処理方法制御部120は、顔の特徴情報との類似度判定の手法により人物の性別及び年齢を特定する。また、処理方法制御部120は、複数の男性の顔、女性の顔、または年齢層別の顔情報をそれぞれ混在した特徴情報を学習させて辞書を作成することにより、入力された画像の顔領域の人物が男性と女性のどちらに近いか、及び、どの年齢層別の辞書に近いかを特定する。
また、処理方法制御部120は、連続するフレーム間の差分などから人物の変動領域の概説矩形を算出し、その高さと顔の座標から該当する人物の身長を特定することができる。また、処理方法制御部120は、人物の体全体の人物領域内の画像情報に基づいて服装毎に分類する。また、処理方法制御部120は、「黒い服」、「白い服」などを、輝度の情報のヒストグラムに基づいて特定することができる。
また、処理方法制御部120は、画像内の変動領域の大きさ「S」を特定する。処理方法制御部120は、連続するフレーム間における差分を算出し、差分が存在する領域においてラベリング処理を行うことにより、画面全体の移動物体の大きさを特定する事ができる。
人物が移動している場合、処理方法制御部120は、人物全体の領域を変動領域と特定する。また、車や植木などが動いている場合、処理方法制御部120は、動いている車及び植木を変動領域として特定する。また、処理方法制御部120は、画面全体に変動している領域が多い場合、人物が画像に写り込む可能性が高い、または、なんらかのイベントが発生しやすい状況であると判断し、優先度を高く設定する。
また、処理方法制御部120は、画像内の変動領域の位置「L2」を特定する。処理方法制御部120は、画像内の変動領域の大きさ「S」と複数のフレーム間の差分とラベリング処理によって特定する変動領域の重心の位置とに基づいて、変動領域の位置を特定する。即ち、処理方法制御部120は、画面から消えるまでの時間が短い順に優先度を高く設定する。
処理方法制御部120は、上記した方法により特定した顔領域の数「N」、顔領域の位置「L1」、人物の移動速度「V」、人物の種類「P」、変動領域の大きさ「S」、及び変動領域の位置「L2」に基づいて、総合的に各カメラ106、107、及び108から入力される画像に対して優先度を設定する。
例えば、処理方法制御部120は、次の数式1により各入力画像毎の優先度を設定する。
優先度=K1×N+K2×L1+K3×v+K4×P+K5×S+K6×L2
・・・(数式1)
なお、K1乃至K6は、各項目の重みを変更する為の計数である。この優先度が高い値で有るほど、高い処理速度が要求される。
次に、優先度に応じた処理方法の制御について説明する。
図2は、カメラ109から入力される画像の例について説明する為の説明図である。図2Aは、画面全体の変動量が大きい例について示す図である。図2Bは、顔領域がカメラ109に近い例について示す図である。図2Cは、顔領域の移動速度が高い例について示す図である。図2Dは、検出された顔領域の数が多い例について示す図である。
処理方法制御部120は、各カメラ109から入力される画像に対して、上記の数式1により優先度を算出する。処理方法制御部120は、算出した優先度の値を各画像毎に比較し、優先して処理を行う画像を決定する。
例えば、図2A乃至図2Dに示す画像が同時に入力される場合、処理方法制御部120は、各画像毎に優先度を算出する。
例えば、顔領域の検出数「N」が多いケースの優先度を高める場合、処理方法制御部120は、K1の値を最も大きい値に設定する。この場合、処理方法制御部120は、図2Dの画像を最も優先して処理すべき画像であると判定する。処理方法制御部120は、残りの図2A、図2B、及び図2Cの画像を同じ優先度で処理を行う。
また、例えば、顔領域の移動速度「V」が大きいケースの優先度を高める場合、処理方法制御部120は、K3の値を最も大きい値に設定する。この場合、処理方法制御部120は、図2Cの画像を最も優先して処理すべき画像であると判定する。処理方法制御部120は、残りの図2A、図2B、及び図2Dの画像を同じ優先度で処理を行う。
また、例えば、顔領域の位置「L1」を重視する場合、処理方法制御部120は、K2の値を最も大きい値に設定する。この場合、処理方法制御部120は、図2Bの画像を最も優先して処理すべき画像であると判定する。処理方法制御部120は、残りの図2A、図2C、及び図2Dの画像を同じ優先度で処理を行う。
また、例えば、画像全体の変動領域「S」を重視する場合、処理方法制御部120は、K5の値を最も大きい値に設定する。この場合、処理方法制御部120は、図2Aの画像を最も優先して処理すべき画像であると判定する。処理方法制御部120は、残りの図2B、図2C、及び図2Dの画像を同じ優先度で処理を行う。
また、処理方法制御部120は、上記の方法を組み合わせて総合的に優先度を判定する構成であってもよい。この場合、図2A乃至図2Dの各画像において複合的な要因で優先度を設定することができる。
処理方法制御部120は、決定した優先度に応じて、入力画像に対する顔検出処理の方法を制御する。顔検出部114は、顔検出処理を行う場合、切り出す顔領域の解像度を設定する。
図3は、顔検出処理により顔領域を切り出す例について説明する為の説明図である。図3Aは、低い解像度で顔領域を切り出す例を示す図である。図3Bは、中程度の解像度で顔領域を切り出す例を示す図である。図3Cは、高い解像度で顔領域を切り出す例を示す図である。
例えば、処理方法制御部120は、高い優先度を算出した画像から顔領域を切り出す場合、図3Aに示す低い解像度で顔領域の画像を切り出すように顔検出部114を制御する。
また、処理方法制御部120は、中程度の優先度を算出した画像から顔領域を切り出す場合、図3Bに示す中程度の解像度で顔領域の画像を切り出すように顔検出部114を制御する。
また、処理方法制御部120は、低い優先度を算出した画像から顔領域を切り出す場合、図3Aに示す高い解像度で顔領域の画像を切り出すように顔検出部114を制御する。
また、顔のパーツ毎に特徴量を算出する場合、顔検出部114は、顔検出処理を行うパーツを設定する。この場合、処理方法制御部120は、決定した優先度に応じて、切り出す顔のパーツの数を制御する。
図4は、顔検出処理により顔領域(パーツ)を切り出す例について説明する為の説明図である。図4Aは、少ない数のパーツを切り出す例を示す図である。図4Bは、中程度の数のパーツを切り出す例を示す図である。図4Cは、多い数パーツを切り出す例を示す図である。
例えば、処理方法制御部120は、高い優先度を算出した画像からパーツを切り出す場合、図4Aに示すように、小数のパーツを切り出すように顔検出部114を制御する。
また、処理方法制御部120は、中程度の優先度を算出した画像からパーツを切り出す場合、図4Bに示すように、中程度の数のパーツを切り出すように顔検出部114を制御する。
またさらに、処理方法制御部120は、低い優先度を算出した画像からパーツを切り出す場合、図4Cに示すように、多数のパーツを切り出すように顔検出部114を制御する。
これにより、画像処理装置100は、要求される処理速度に応じて顔検出処理の種類を切り替える事ができる。
即ち、優先度が高いと判定した場合、画像処理装置100は、処理時間を短縮することを優先的に行う。例えば、画像処理装置100は、精度を低下させながら高速に処理する方向にパラメータを変更してもよい。逆に、優先度が高い場合、画像処理装置100は、処理時間をかけても精度を高くするように設定してもよい。
また、処理方法制御部120は顔が映っていないなど優先度が低いカメラ109から入力される画像に対して、一定フレーム毎に顔検出を行うように顔検出部114を制御してもよい。
図5は、図1に示すカメラ109により撮像される画像に対して行う顔検出処理の例について説明する為の説明図である。図5Aは、優先度が高い画像に対して行う顔検出処理について説明する為の図である。図5Bは、優先度が中程度である画像に対して行う顔検出処理について説明する為の図である。図5Cは、優先度が低い画像に対して行う顔検出処理について説明する為の図である。
例えば、高い優先度を算出した画像から顔領域を切り出す場合、図5Aに示すように、処理方法制御部120は、顔検出処理を毎フレーム行う。即ち、処理方法制御部120は、高い優先度を算出した画像を入力したカメラ109により撮像される次以降のフレームの画像に対する顔検出処理の頻度を高く設定する。
また、中程度の優先度を算出した画像から顔領域を切り出す場合、図5Bに示すように、処理方法制御部120は、顔検出処理を2フレームに1回行う。即ち、処理方法制御部120は、中程度の優先度を算出した画像を入力したカメラ109により撮像される次以降のフレームの画像に対する顔検出処理の頻度を中程度に設定する。
また、低い優先度を算出した画像から顔領域を切り出す場合、図5Cに示すように、処理方法制御部120は、顔検出処理を4フレームに1回行う。即ち、処理方法制御部120は、低い優先度を算出した画像を入力したカメラ109により撮像される次以降のフレームの画像に対する顔検出処理の頻度を低く設定する。これにより、画像処理装置100は、負荷に応じて処理の精度を変更することが可能になる。
特徴抽出部119は、顔検出部114により検出された顔領域(若しくはパーツ)毎に特徴量を算出する。特徴抽出部119は、算出した特徴量を認識部130に送信する。即ち、上記したように、画像処理装置100は、画像の処理の負荷を予測し、顔検出処理を行うことにより、特徴抽出部119により処理する画像の量を制御することができる。この結果、画像処理装置100全体の負荷を軽減することができる。
また、通常、顔検出部114は、1画素単位での顔検出処理を行う。例えば、顔検出部114は、優先度が低い場合に4画素おきに間引きしながら顔検出処理を行う構成であってもよい。
またさらに、処理方法制御部120は、特徴抽出処理を行う場合に優先度に応じた解像度を選択するように特徴抽出部119を制御してもよい。例えば、処理方法制御部120は、優先度が低い画像に対して、低い解像度で特徴抽出処理を行うように特徴抽出部119を制御する。
またさらに、処理方法制御部120は、特徴抽出部119による特徴抽出処理を制御する構成であってもよい。特徴抽出部119は、1枚の画像に基づいて特徴量を抽出する第1の抽出処理部と、複数枚の画像に基づいて特徴量を抽出する第2の抽出処理部とをそ備える。処理方法制御部120は、優先度に応じて、第1の抽出処理部と第2の抽出処理部とを切り替えるように特徴抽出部119を制御する。
例えば、処理方法制御部120は、優先度が低い画像に対して第2の抽出処理部を用いて特徴抽出処理を行い、優先度が高い画像に対して第1の抽出処理部を用いて特徴抽出処理を行うように特徴抽出部119を制御する。認識部130は、特徴抽出部119により抽出された特徴量に基づいて認識処理を行う。
また、処理方法制御部120は、特徴抽出処理を行う場合、優先度が高い画像に対する特徴抽出処理を優先的に行うように、特徴抽出処理を行う順番を入れ替えてもよい。またさらに、処理方法制御部120は、認識処理を行う場合、優先度が高い画像に対する認識処理を優先的に行うように、類似度演算を行う順番を入れ替えてもよい。これにより、画像処理装置100は、人数が多いケース、人物が早く移動しているケースであっても、遅延することなく認識結果を出力することができる。
また、処理方法制御部120は、類似度演算を行う場合、部分空間の面数を優先度に応じて変更するように認識部130を制御する。これにより、類似度演算の処理時間と精度のバランスを調整することができる。面数は、相互部分空間法において類似度を計算する際に用いるベクトルの数を示す情報である。即ち、面数を増やすことにより、認識処理の制度を高める事ができる。また、面数を減らすことにより、認識処理の負荷を減らすことができる。
出力部150は、認識部130による認識結果に応じて、認識結果を出力する。また、出力部150は、認識結果に応じて、本装置100に接続される外部機器への制御信号、音声、及び画像などを出力する。
例えば、出力部150は、入力された画像の特徴情報と、登録顔特徴管理部140に記憶される顔特徴情報とを出力する。この場合、出力部150は、入力された画像の特徴情報と類似度の高い顔特徴情報を登録顔特徴管理部140から抽出して出力する。さらに、出力部150は、抽出して結果に類似度を付与して出力してもよい。またさらに、出力部150は、類似度が予め設定される所定値を超える場合に警報を鳴らすための制御信号を出力してもよい。
上記したように、本実施形態の画像処理装置100は、入力される画像に基づいて各画像毎に優先度を設定する。画像処理装置100は、設定した優先度に応じて、顔検出部114による顔検出処理の解像度、顔検出処理の頻度、及び、検出する顔のパーツの数などを制御する。これにより、例えば、処理の負荷が大きいと思われる画像に対して負荷の少ない処理方法を選択することができる。この結果、より効率的に監視を行う為の画像処理を行う事ができる画像処理装置、及び画像処理方法を提供することができる。
なお、上記の実施形態では、顔検出部114と特徴抽出部119とを分けて説明したが、顔検出部114が特徴抽出部119の機能を含む構成であってもよい。この場合、顔検出部114は、画像から顔領域を検出すると同時に、検出した顔領域の特徴量を算出する。またさらに、認識部130が特徴抽出部119の能を含む構成であってもよい。この場合、顔検出部114は、認識部130に対して切り出した顔画像を送信する。認識部130は、顔検出部114から受信する顔画像から特徴量を算出し、認識処理を行う。
次に、本発明の第2の実施形態に係る画像処理装置、及び画像処理方法について詳細に説明する。
図6は、本発明の第2の実施形態に係る画像処理装置200の構成例について説明するためのブロック図である。
図6に示すように、画像処理装置200は、副制御部261、262、及び263(総じて副制御部264と称する)と、主制御部270とを備える。
副制御部261は、顔検出部211と特徴抽出部216とを備える。副制御部262は、顔検出部212と特徴抽出部217とを備える。副制御部263は、顔検出部213と特徴抽出部218とを備える。なお、顔検出部211、212、及び213を総じて顔検出部214と称する。また、特徴抽出部216、217、及び218を総じて特徴抽出部219と称する。
主制御部270は、接続方法制御部220、認識部230、登録顔特徴管理部240、及び出力部250を備える。
なお、顔検出部214は、第1の実施形態における顔検出部114と同様の顔検出処理を行う。また、特徴抽出部219は、第1の実施形態における特徴抽出部119と同様の特徴抽出処理を行う。また、認識部230は、第1の実施形態における認識部130と同様の認識処理を行う。
図6に示すように、通路201にカメラ206、通路202にカメラ207、通路203にカメラ208、がそれぞれ設置されている。カメラ206、207、及び208(総じてカメラ209と称する)は、副制御部264に接続される。即ち、カメラ206は、副制御部261、262、及び263に接続される。また、カメラ207は、副制御部261、262、及び263に接続される。また、カメラ208は、副制御部261、262、及び263に接続される。
即ち、各カメラ209は、例えば、HUBまたはLANなどによりそれぞれ複数の副制御部264に接続される。
カメラ209は、副制御部264の制御に基づいて、撮像した画像の出力先を各副制御部264で切り替える。この為に、カメラ209は、NTSC方式を用いることにより、各カメラ209と各副制御部264の接続を適宜切り替えることができる。また、例えば、カメラ209がネットワークカメラにより構成される場合、副制御部264は、カメラのIPアドレスを指定することにより、所望のカメラ209から画像を入力させることができる。なお、各副制御部264に接続されるカメラ209は、何台であってもよい。
副制御部264は、例えば、CPU、RAM、ROM、及び、不揮発性メモリなどの構成を備えている。CPUは、副制御部264により行われる制御を司るものである。CPUは、ROMあるいは不揮発性メモリに記憶されている制御プログラムや制御データに基づいて動作することにより、種々の処理手段として機能する。
RAMは、CPUのワーキングメモリとして機能する揮発性のメモリである。即ち、RAMは、CPUが処理中のデータなどを一時保管する記憶手段として機能する。また、RAMは、入力部から受信したデータを一時保管する。ROMは、予め制御用のプログラムや制御データなどが記憶されている不揮発性のメモリである。
不揮発性メモリは、例えば、EEPROMあるいはHDDなどの、データの書き込み及び書換えが可能な記憶媒体により構成される。不揮発性メモリには、当該画像処理装置100の運用用途に応じて制御プログラムや種々のデータが書込まれる。
また、副制御部264は、カメラ209から画像を受信する為のインターフェースを備える。さらに、副制御部264は、主制御部270とデータの送受信を行う為のインターフェースを備える。
また、主制御部270も副制御部264と同様に、CPU、RAM、ROM、及び、不揮発性メモリなどの構成を備えている。さらに、主制御部270は、副制御部264とデータの送受信を行う為のインターフェースを備える。
本実施形態の画像処理装置200は、複数設置された監視カメラから特定の人物を検出する場合、各副制御部264から受信するデータを統合して確認する為に、クライアントサーバー形式の構成を有する。これにより、各カメラ209により撮像された画像から検出された顔領域の画像及び特徴量がサーバーである主制御部270に入力される。この結果、主制御部270は、検出された顔画像の人物が、登録顔特徴管理部240に登録されている人物であるかどうかを判定する。
接続方法制御部220は、カメラ209により撮像される画像に対する顔検出処理の結果に応じて、各副制御部264と各カメラ209との接続を切り替えるように制御する。接続方法制御部220は、制御部として機能する。
接続方法制御部220は、第1の実施形態の処理方法制御部120と同様の方法により、各カメラ209により撮像される画像毎の優先度を設定する。即ち、接続方法制御部220は、各画像毎に設定した優先度に応じて、各副制御部264と各カメラ209との接続を切り替える。
図7は、図6に示す接続方法制御部220の処理について説明する為の説明図である。画像271は、カメラ206により撮像される画像である。画像272は、カメラ207により撮像される画像である。画像273は、カメラ208により撮像される画像である。画像271では、顔領域が4つ検出されている。画像272では、顔領域が1つ検出されている。画像273では、顔領域が検出されていない。
この為、接続方法制御部220は、カメラ206により撮像した画像271の優先度が最も高く、次にカメラ207により撮像した画像272の優先度が高いと判定する。また、接続方法制御部220は、カメラ208により撮像した画像の優先度が最も低いと判定する。
この場合、接続方法制御部220は、最も優先度の高いカメラ206により撮像される画像271を、複数の副制御部264に入力するようにカメラ209と副制御部264との接続方法を制御する。図7に示す例では、接続方法制御部220は、カメラ206により撮像される画像271を副制御部261と副制御部263とに入力する。
なお、この場合、副制御部261の顔検出部211と、副制御部263の顔検出部213とは、1フレーム毎に交互に処理を行う。また、副制御部261の顔検出部211と、副制御部263の顔検出部213とで画像271の領域を分割して処理を行う構成であってもよい。
また、接続方法制御部220は、前フレームにおいて顔領域を検出しなかったカメラ208からの画像273を、所定間隔で副制御部264に入力するように制御する。これにより、副制御部264は、カメラ208により撮像される画像に対して例えば、4フレームに1回などの頻度で顔検出処理を行う。
上記したように、本実施形態の画像処理装置200は、入力される画像に基づいて各画像毎に優先度を設定する。画像処理装置200は、設定した優先度に応じて、カメラ209と副制御部264との接続方法を制御する。これにより、例えば、処理の負荷が大きいと思われる画像を複数の副制御部264に入力し、処理を分担することができる。この結果、より効率的に監視を行う為の画像処理を行う事ができる画像処理装置、及び画像処理方法を提供することができる。
なお、上記の実施形態では、副制御部264が3台であると仮定して説明したが、この構成に限定されない。副制御部264は、少なくとも2台以上であれば、本発明を実現することができる。
なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合わせてもよい。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
画像が入力される複数の画像入力部と、
前記画像入力部により入力された画像から物体領域を検出する検出部と、
前記検出部により検出された物体領域の画像から特徴量を抽出する特徴抽出部と、 前記検出部による検出結果に基づいて、前記複数の画像入力部により入力される画像に対して前記検出部及び前記特徴抽出部により行う処理を制御する制御部と、
を具備することを特徴とする画像処理装置。
[C2]
前記検出部は、前記画像入力部により入力された画像から顔領域を検出し、
前記制御部は、前記検出部による検出結果に基づいて、各画像入力部毎に優先度を設定し、設定した優先度に応じて、前記複数の画像入力部により入力される画像に対して前記検出部及び前記特徴抽出部により行う処理を制御することを特徴とするC1に記載の画像処理装置。
[C3]
前記制御部は、設定した優先度に応じて、前記複数の画像入力部により入力される画像に対して前記検出部及び前記特徴抽出部により行う処理の処理方法を制御する処理方法制御部を具備することを特徴とするC2に記載の画像処理装置。
[C4]
前記検出部を複数備え、
前記制御部は、設定した優先度に応じて、前記複数の画像入力部と前記複数の検出部との接続を制御する接続方法制御部を具備することを特徴とするC2に記載の画像処理装置。
[C5]
前記処理方法制御部は、前記検出部により検出される顔領域の数に応じて優先度を設定することを特徴とするC2に記載の画像処理装置。
[C6]
前記処理方法制御部は、前記検出部により検出される顔領域の位置に応じて優先度を設定することを特徴とするC2に記載の画像処理装置。
[C7]
前記処理方法制御部は、前記検出部により検出される顔領域の複数フレーム間における移動速度に応じて優先度を設定することを特徴とするC2に記載の画像処理装置。
[C8]
前記処理方法制御部は、前記検出部により検出される顔領域の特徴量に応じて顔領域の人物の属性を判断し、人物の属性に応じて優先度を設定することを特徴とするC2に記載の画像処理装置。
[C9]
前記検出部は、前記画像入力部により入力された画像から複数フレーム間における変動領域を検出し、
前記処理方法制御部は、前記検出部により検出される変動領域の大きさに応じて優先度を設定することを特徴とするC2に記載の画像処理装置。
[C10]
前記検出部は、前記画像入力部により入力された画像から複数フレーム間における変動領域を検出し、
前記処理方法制御部は、前記検出部により検出される変動領域の位置に応じて優先度を設定することを特徴とするC2に記載の画像処理装置。
[C11]
前記処理方法制御部は、設定した優先度に応じて、前記検出部により検出する顔領域の画像の解像度を制御することを特徴とするC3に記載の画像処理装置。
[C12]
前記検出部は、顔領域として顔のパーツの領域を検出し、
前記処理方法制御部は、設定した優先度に応じて、前記検出部により検出する顔のパーツの数を制御することを特徴とするC3に記載の画像処理装置。
[C13]
前記処理方法制御部は、設定した優先度に応じて、前記検出部により顔領域を検出する頻度を制御することを特徴とするC3に記載の画像処理装置。
[C14]
前記特徴抽出部は、
1枚の画像から特徴量を抽出する第1の抽出部と、
複数枚の画像から特徴量を抽出する第2の抽出部と、
を具備し、
前記処理方法制御部は、設定した優先度に応じて、前記第1の抽出部と前記第2の抽出部とを切り替えることを特徴とするC3に記載の画像処理装置。
[C15]
前記接続方法制御部は、優先度の高い画像入力部により撮像した画像を複数の検出部に入力するように制御することを特徴とするC4に記載の画像処理装置。
[C16]
予め顔特徴情報を記憶する登録顔特徴記憶部と、
前記特徴抽出部により抽出された特徴量と、前記登録顔特徴記憶部に記憶される顔特徴情報とを比較し、前記顔領域の人物が予め登録された人物であるか否かを判定する認識部と、
をさらに具備するC2に記載の画像処理装置。
[C17]
画像が入力される画像入力部を複数備える画像処理装置に用いられる画像処理方法であって、
前記画像入力部から入力される画像から物体領域を検出し、
前記検出された物体領域の画像から特徴量を抽出し、
前記物体領域の検出結果に基づいて、前記複数の画像入力部により入力される画像に対して行う検出処理と特徴抽出処理を制御する、
ことを特徴とする画像処理方法。
[C18]
前記検出処理は、前記画像入力部により入力された画像から顔領域を検出し、
前記検出処理による検出結果に基づいて、各画像入力部毎に優先度を設定し、設定した優先度に応じて、前記複数の画像入力部により入力される画像に対して行う検出処理と特徴抽出処理を制御することを特徴とするC17に記載の画像処理装置。

100…画像処理装置、106〜109…カメラ、111〜114…顔検出部、116〜119…特徴抽出部、120…処理方法制御部、130…認識部、140…登録顔特徴管理部、150…出力部、200…画像処理装置、207〜209…カメラ、211〜214…顔検出部、216〜219…特徴抽出部、220…接続方法制御部、230…認識部、240…登録顔特徴管理部、250…出力部、261〜264…副制御部、270…主制御部。

Claims (10)

  1. 画像が入力される複数の画像入力部と、
    前記画像入力部により入力された画像から顔領域を検出する検出部と、
    前記検出部により検出された顔領域の画像から特徴量を抽出する特徴抽出部と、
    前記検出部により検出された顔領域の数に基づいて各画像入力部毎に優先度を設定し、複数の処理方法の中から方法を前記優先度に基づいて選択し、選択した前記方法で前記複数の画像入力部により入力される画像を処理するように前記検出部及び前記特徴抽出部を制御する制御部と、
    を具備することを特徴とする画像処理装置。
  2. 画像が入力される複数の画像入力部と、
    前記画像入力部により入力された画像から顔領域を検出する複数の検出部と、
    前記検出部により検出された顔領域の画像から特徴量を抽出する特徴抽出部と、
    前記検出部による検出結果に基づいて、各画像入力部毎に優先度を設定し、前記優先度に応じて、前記複数の画像入力部により入力される画像に対して前記検出部及び前記特徴抽出部により行う処理を制御する制御部と、
    前記優先度に応じて、前記複数の画像入力部と前記複数の検出部との接続を制御する接続方法制御部と、
    を具備することを特徴とする画像処理装置。
  3. 前記処理方法制御部は、設定した優先度に応じて、前記検出部により検出する顔領域の画像の解像度を制御することを特徴とする請求項1に記載の画像処理装置。
  4. 前記検出部は、顔領域として顔のパーツの領域を検出し、
    前記処理方法制御部は、設定した優先度に応じて、前記検出部により検出する顔のパーツの数を制御することを特徴とする請求項1に記載の画像処理装置。
  5. 前記処理方法制御部は、設定した優先度に応じて、前記検出部により顔領域を検出する頻度を制御することを特徴とする請求項1に記載の画像処理装置。
  6. 前記特徴抽出部は、
    1枚の画像から特徴量を抽出する第1の抽出部と、
    複数枚の画像から特徴量を抽出する第2の抽出部と、
    を具備し、
    前記処理方法制御部は、設定した優先度に応じて、前記第1の抽出部と前記第2の抽出部とを切り替えることを特徴とする請求項1に記載の画像処理装置。
  7. 前記接続方法制御部は、優先度の高い画像入力部により撮像した画像を複数の検出部に入力するように制御することを特徴とする請求項2に記載の画像処理装置。
  8. 予め顔特徴情報を記憶する登録顔特徴記憶部と、
    前記特徴抽出部により抽出された特徴量と、前記登録顔特徴記憶部に記憶される顔特徴情報とを比較し、前記顔領域の人物が予め登録された人物であるか否かを判定する認識部と、
    をさらに具備する請求項1または2に記載の画像処理装置。
  9. 画像が入力される画像入力部を複数備える画像処理装置に用いられる画像処理方法であって、
    前記画像入力部から入力される画像から顔領域を検出し、
    前記検出された顔領域の画像から特徴量を抽出し、
    検出された顔領域の数に基づいて各画像入力部毎に優先度を設定し、複数の処理方法の中から方法を前記優先度に基づいて選択し、選択した前記方法で前記複数の画像入力部により入力される画像を処理する
    ことを特徴とする画像処理方法。
  10. 画像が入力される複数の画像入力部と、前記画像入力部により入力された画像から顔領域を検出する複数の検出部と、を備える画像処理装置に用いられる画像処理方法であって、
    前記検出された顔領域の画像から特徴量を抽出し、
    前記検出部による検出結果に基づいて、各画像入力部毎に優先度を設定し、前記優先度に応じて、前記複数の画像入力部により入力される画像に対して前記検出部及び前記特徴抽出部により行う処理を制御し、
    前記優先度に応じて、前記複数の画像入力部と前記複数の検出部との接続を制御する、
    ことを特徴とする画像処理方法。
JP2009223223A 2009-09-28 2009-09-28 画像処理装置、及び画像処理方法 Active JP5390322B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009223223A JP5390322B2 (ja) 2009-09-28 2009-09-28 画像処理装置、及び画像処理方法
KR1020100088731A KR101337060B1 (ko) 2009-09-28 2010-09-10 화상 처리 장치 및 화상 처리 방법
TW099131478A TWI430186B (zh) 2009-09-28 2010-09-16 影像處理裝置及影像處理方法
US12/883,973 US20110074970A1 (en) 2009-09-28 2010-09-16 Image processing apparatus and image processing method
MX2010010391A MX2010010391A (es) 2009-09-28 2010-09-23 Aparato de procesamiento de imagenes y metodo de procesamiento de imagenes.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009223223A JP5390322B2 (ja) 2009-09-28 2009-09-28 画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2011070576A JP2011070576A (ja) 2011-04-07
JP5390322B2 true JP5390322B2 (ja) 2014-01-15

Family

ID=43779929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009223223A Active JP5390322B2 (ja) 2009-09-28 2009-09-28 画像処理装置、及び画像処理方法

Country Status (5)

Country Link
US (1) US20110074970A1 (ja)
JP (1) JP5390322B2 (ja)
KR (1) KR101337060B1 (ja)
MX (1) MX2010010391A (ja)
TW (1) TWI430186B (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5147874B2 (ja) * 2010-02-10 2013-02-20 日立オートモティブシステムズ株式会社 車載画像処理装置
JPWO2012140834A1 (ja) * 2011-04-11 2014-07-28 日本電気株式会社 情報処理装置
JP5777389B2 (ja) * 2011-04-20 2015-09-09 キヤノン株式会社 画像処理装置、画像処理システム及び画像処理方法
JP5740210B2 (ja) 2011-06-06 2015-06-24 株式会社東芝 顔画像検索システム、及び顔画像検索方法
KR101271483B1 (ko) * 2011-06-17 2013-06-05 한국항공대학교산학협력단 사용자 인식기능을 이용하는 지능형 양방향 광고 단말기
JP5793353B2 (ja) * 2011-06-20 2015-10-14 株式会社東芝 顔画像検索システム、及び顔画像検索方法
JP2013055424A (ja) * 2011-09-01 2013-03-21 Sony Corp 撮影装置、パターン検出装置、および電子機器
KR101381439B1 (ko) 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
JP2013143749A (ja) * 2012-01-12 2013-07-22 Toshiba Corp 電子機器および電子機器の制御方法
JP6098631B2 (ja) * 2012-02-15 2017-03-22 日本電気株式会社 解析処理装置
CN103324904A (zh) * 2012-03-20 2013-09-25 凹凸电子(武汉)有限公司 人脸识别***及其方法
JP5930808B2 (ja) * 2012-04-04 2016-06-08 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
JP6056178B2 (ja) 2012-04-11 2017-01-11 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US9313344B2 (en) * 2012-06-01 2016-04-12 Blackberry Limited Methods and apparatus for use in mapping identified visual features of visual images to location areas
JP5925068B2 (ja) * 2012-06-22 2016-05-25 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム
WO2014122879A1 (ja) 2013-02-05 2014-08-14 日本電気株式会社 解析処理システム
TW201435809A (zh) * 2013-03-12 2014-09-16 Lite On Semiconductor Corp 節省功耗的移動偵測方法及移動偵測系統
JP2014203407A (ja) * 2013-04-09 2014-10-27 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム並びに記憶媒体
JP6219101B2 (ja) * 2013-08-29 2017-10-25 株式会社日立製作所 映像監視システム、映像監視方法、映像監視システム構築方法
JP6347125B2 (ja) * 2014-03-24 2018-06-27 大日本印刷株式会社 属性判別装置、属性判別システム、属性判別方法及び属性判別用プログラム
JP2015211233A (ja) * 2014-04-23 2015-11-24 キヤノン株式会社 画像処理装置および画像処理装置の制御方法
JP6301759B2 (ja) * 2014-07-07 2018-03-28 東芝テック株式会社 顔識別装置及びプログラム
CN105430255A (zh) * 2014-09-16 2016-03-23 精工爱普生株式会社 图像处理装置以及机器人***
CN104573652B (zh) * 2015-01-04 2017-12-22 华为技术有限公司 确定人脸图像中人脸的身份标识的方法、装置和终端
JP2017017624A (ja) * 2015-07-03 2017-01-19 ソニー株式会社 撮像素子、画像処理方法、および電子機器
JP7121470B2 (ja) * 2017-05-12 2022-08-18 キヤノン株式会社 画像処理システム、制御方法、及び、プログラム
KR102478335B1 (ko) * 2017-09-29 2022-12-15 에스케이텔레콤 주식회사 채널별 객체 검출 최적화를 위한 영상분석 방법 및 서버장치
JP2019087114A (ja) * 2017-11-09 2019-06-06 富士ゼロックス株式会社 ロボット制御システム
CN108182407A (zh) * 2017-12-29 2018-06-19 佛山市幻云科技有限公司 远程监护方法、装置及服务器
US11689594B2 (en) 2019-03-28 2023-06-27 Nec Corporation Information processing apparatus, server allocation apparatus, method, and computer readable medium
CN111815827A (zh) * 2019-04-11 2020-10-23 北京百度网讯科技有限公司 游乐项目闸机的控制方法及装置
JP7417455B2 (ja) * 2020-03-27 2024-01-18 キヤノン株式会社 電子機器及びその制御方法、プログラム
EP3975119A1 (en) * 2020-08-27 2022-03-30 Canon Kabushiki Kaisha Device, information processing apparatus, control method therefor, and program
EP3985976B1 (en) * 2020-10-16 2022-09-28 Axis AB Method of encoding an image including a privacy mask

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6538689B1 (en) * 1998-10-26 2003-03-25 Yu Wen Chang Multi-residence monitoring using centralized image content processing
JP2002074338A (ja) * 2000-08-29 2002-03-15 Toshiba Corp 画像処理システム
US7346186B2 (en) * 2001-01-30 2008-03-18 Nice Systems Ltd Video and audio content analysis system
CA2390621C (en) * 2002-06-13 2012-12-11 Silent Witness Enterprises Ltd. Internet video surveillance camera system and method
US7450638B2 (en) * 2003-07-21 2008-11-11 Sony Corporation Power-line communication based surveillance system
JP2005333552A (ja) * 2004-05-21 2005-12-02 Viewplus Inc パノラマ映像配信システム
JP2007156541A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 人物認識装置、人物認識方法および入退場管理システム
US7646922B2 (en) * 2005-12-30 2010-01-12 Honeywell International Inc. Object classification in video images
TWI336054B (en) * 2006-02-15 2011-01-11 Toshiba Kk Person identification device and person identification method
JP4847165B2 (ja) * 2006-03-09 2011-12-28 株式会社日立製作所 映像記録再生方法及び映像記録再生装置
WO2007119355A1 (ja) * 2006-03-15 2007-10-25 Omron Corporation 追尾装置、追尾方法、追尾装置の制御プログラム、およびコンピュータ読み取り可能な記録媒体
JP2007334623A (ja) * 2006-06-15 2007-12-27 Toshiba Corp 顔認証装置、顔認証方法、および入退場管理装置
JP5088321B2 (ja) * 2006-06-29 2012-12-05 株式会社ニコン 再生装置、再生システム、およびテレビジョンセット
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
US8427552B2 (en) * 2008-03-03 2013-04-23 Videoiq, Inc. Extending the operational lifetime of a hard-disk drive used in video data storage applications

Also Published As

Publication number Publication date
KR20110034545A (ko) 2011-04-05
TWI430186B (zh) 2014-03-11
MX2010010391A (es) 2011-03-28
JP2011070576A (ja) 2011-04-07
TW201137767A (en) 2011-11-01
US20110074970A1 (en) 2011-03-31
KR101337060B1 (ko) 2013-12-05

Similar Documents

Publication Publication Date Title
JP5390322B2 (ja) 画像処理装置、及び画像処理方法
US11023707B2 (en) System and method for selecting a part of a video image for a face detection operation
US11308777B2 (en) Image capturing apparatus with variable event detecting condition
JP5793353B2 (ja) 顔画像検索システム、及び顔画像検索方法
JP5088507B2 (ja) 同一性判定装置、同一性判定方法および同一性判定用プログラム
JP6013241B2 (ja) 人物認識装置、及び方法
JP6276519B2 (ja) 人数計測装置および人物動線解析装置
JP4792069B2 (ja) 画像認識装置
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5398341B2 (ja) 物体認識装置及び物体認識方法
JP5730095B2 (ja) 顔画像認証装置
JP2007334623A (ja) 顔認証装置、顔認証方法、および入退場管理装置
JP2007249953A (ja) 人物認識装置および人物認識方法
JP2007148988A (ja) 顔認証装置、顔認証方法および入退場管理装置
JP4667508B2 (ja) 移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラム
JPWO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
JP4021873B2 (ja) 顔画像監視システム
KR102423934B1 (ko) 안면인식 및 유사한 옷 색상의 다수 객체 추적기술을 통한 스마트 휴먼검색 통합 솔루션
JP2009044526A (ja) 撮影装置、撮影方法、人物認識装置および人物認識方法
KR101877873B1 (ko) 공포 심리 분석 시스템 및 방법
JP6266088B2 (ja) 人物検出装置および人物検出方法
JP2019061407A (ja) 物体検出装置
CN113743339A (zh) 一种基于场景识别的室内跌倒检测方法和***
KR20140102815A (ko) 보행인 개인 고유특성을 판별하는 인텔리전트 cctv 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131010

R151 Written notification of patent or utility model registration

Ref document number: 5390322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151