JP2011053915A - 画像処理装置、画像処理方法、プログラム及び電子機器 - Google Patents

画像処理装置、画像処理方法、プログラム及び電子機器 Download PDF

Info

Publication number
JP2011053915A
JP2011053915A JP2009202266A JP2009202266A JP2011053915A JP 2011053915 A JP2011053915 A JP 2011053915A JP 2009202266 A JP2009202266 A JP 2009202266A JP 2009202266 A JP2009202266 A JP 2009202266A JP 2011053915 A JP2011053915 A JP 2011053915A
Authority
JP
Japan
Prior art keywords
subject
detection
unit
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009202266A
Other languages
English (en)
Inventor
Shingo Tsurumi
唇吾 鶴見
Tomohiko Goto
智彦 後藤
In Son
贇 孫
Yusuke Sakai
祐介 阪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009202266A priority Critical patent/JP2011053915A/ja
Priority to US12/806,841 priority patent/US20110050939A1/en
Priority to CN2010102701690A priority patent/CN102004918A/zh
Publication of JP2011053915A publication Critical patent/JP2011053915A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】少ない計算量で、より迅速に被写体を検出する。
【解決手段】ピラミッド画像生成部22は、撮像を行うカメラ21から検出対象とすべき被写体までの距離に応じて予め設定された倍率により、撮像画像を縮小又は拡大して、被写体の検出に用いるピラミッド画像を生成し、検出領域決定部25は、ピラミッド画像上の全領域の中から、被写体を検出するための検出領域を決定し、被写体検出部26は、検出領域から被写体を検出する。本発明は、例えば撮像画像から被写体を検出するコンピュータ等に適用できる。
【選択図】図2

Description

本発明は、画像処理装置、画像処理方法、プログラム及び電子機器に関し、特に、例えば、撮像画像上から被写体を検出する場合に用いて好適な画像処理装置、画像処理方法、プログラム及び電子機器に関する。
従来、例えば、人間の顔が撮像された撮像画像から、顔を検出する検出装置が存在する(例えば、特許文献1及び2を参照)。この検出装置では、例えば、撮像画像を、複数のスケール(倍率)で縮小又は拡大し、その結果得られる複数のスケーリング画像から、それぞれ、所定の大きさからなるウィンドウ画像を切り出す。
そして、検出装置は、切り出したウィンドウ画像に顔が表示されているか否かを判定し、ウィンドウ画像に顔が表示されていると判定したことに対応して、そのウィンドウ画像上に表示されている顔を、撮像画像上に存在する顔として検出する。
特開2005−157679号公報 特開2005−284487号公報
ところで、従来の検出装置では、スケーリング画像上の領域すべてを、顔検出に用いる検出領域に設定し、その検出領域からウィンドウ画像を切り出すようにしているため、撮像画像から顔を検出するために多くの時間を要していた。
本発明は、このような状況に鑑みてなされたものであり、より迅速に、撮像画像から人間の顔等を検出できるようにするものである。
本発明の第1の側面の画像処理装置、又はプログラムは、撮像により得られる撮像画像から、検出対象とすべき被写体を検出する画像処理装置、又は画像処理装置として機能させるためのプログラムであって、前記撮像を行う撮像部から検出対象とすべき前記被写体までの距離に応じて予め設定された倍率により、前記撮像画像を縮小又は拡大して、前記被写体の検出に用いるピラミッド画像を生成する生成手段と、前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域を決定する決定手段と、前記検出領域から前記被写体を検出する被写体検出手段とを含む画像処理装置、又は画像処理装置として機能させるためのプログラムである。
前記撮像部の向きを推定する推定手段をさらに設けることができ、前記決定手段では、推定された前記撮像部の向きに基づいて、前記検出領域を決定するようにすることができる。
前記被写体の検出結果に基づいて、前記被写体の詳細情報を取得する取得手段をさらに設けることができ、前記決定手段では、前記撮像部の向きが所定の方向に固定されていると推定された場合、取得された前記詳細情報に基づいて前記検出領域を決定するようにすることができる。
前記取得手段では、前記詳細情報として、少なくとも、前記撮像画像における前記被写体の位置を表す位置情報を取得し、前記決定手段では、前記位置情報に基づいて、前記被写体が存在する確率が所定の閾値以上となる前記撮像画像上の領域を、前記検出領域に決定するようにすることができる。
前記撮像画像上の動体を表す動体領域を検出する動体検出手段をさらに設けることができ、前記決定手段では、検出された前記動体領域を前記検出領域に決定するようにすることができる。
前記動体検出手段では、前記撮像画像を構成する領域のうち、前記被写体検出手段により検出された前記被写体を含む被写体周辺領域と、前記被写体周辺領域以外の領域とで、前記動体領域を検出するために用いる動体閾値を異なる値に設定するようにすることができる。
前記動体検出手段では、1フレーム分だけ異なる撮像画像どうしの差分絶対値が、前記動体領域を検出するために用いる動体閾値以上であるか否かに基づいて前記動体領域を検出する場合、前記撮像画像どうしが撮像された時刻の差に応じて前記動体閾値を変更するようにすることができる。
前記動体検出手段が、前記撮像画像と、前記被写体が撮像されていない背景のみの背景画像との差分絶対値に基づいて前記動体領域を検出する場合、前記背景画像を構成する領域のうち、前記撮像画像上の背景部分に対応する領域と、前記撮像画像上の背景部分以外の部分に対応する領域とで異なる背景更新処理を行う更新手段をさらに設けることができる。
前記出力手段では、前記被写体検出手段により前記被写体が検出される前に、前記動体検出手段により検出された前記動体領域を表す動体領域情報を出力するようにすることができる。
前記撮像部により撮像される撮像対象までの距離を算出する距離算出手段と、算出された前記距離に基づいて、前記撮像画像上の前記撮像対象それぞれの前記距離を表すDepthマップを生成する生成手段とをさらに設けることができ、前記決定手段では、前記Depthマップに基づいて、前記検出領域を決定するようにすることができる。
前記決定手段では、前記倍率に応じて、前記ピラミッド画像を複数の領域に分割し、前記複数の領域のうちの1つの領域を、前記検出領域に決定するようにすることができる。
前記被写体検出手段では、前記検出領域のうち、n(>1)画素分だけ異なる位置に存在する部分領域それぞれに前記被写体が存在するか否かに基づいて、前記部分領域から前記被写体を検出するようにすることができる。
前記生成手段では、それぞれ異なる倍率で、前記撮像画像を縮小又は拡大して、複数の前記ピラミッド画像を生成し、前記被写体検出手段では、前記複数のピラミッド画像それぞれの前記検出領域から、前記撮像部に近い被写体の順序で前記被写体を検出するようにすることができる。
前記被写体検出手段では、所定数の前記被写体が検出された場合、前記被写体の検出を終了するようにすることができる。
前記被写体検出手段では、検出済みの前記被写体が存在する領域を除外した前記検出領域から、前記被写体を検出するようにすることができる。
前記撮像画像上に存在する前記被写体であって、前記被写体検出手段により未検出の前記被写体を検出する場合、前記被写体検出手段では、所定の方向から見たときの被写体を表す第1のテンプレート画像に基づいて、前記検出領域から前記被写体を検出するようにすることができる。
前記撮像画像上に存在する前記被写体であって、前記被写体検出手段により検出済みの前記被写体を、前記撮像画像とは異なる他の撮像画像上から検出する場合、前記決定手段では、さらに、検出済みの前記被写体が存在する前記撮像画像上の位置に基づいて、前記他の撮像画像上の前記被写体の検出に用いる他のピラミッド画像の検出領域を決定し、前記被写体検出手段では、複数の方向から見たときの被写体それぞれを表す複数の第2のテンプレート画像に基づいて、前記他のピラミッド画像の前記検出領域から、前記被写体を検出するようにすることができる。
本発明の第1の側面の画像処理方法は、撮像により得られる撮像画像から、検出対象とすべき被写体を検出する画像処理装置の画像処理方法であって、前記画像処理装置は、生成手段と、決定手段と、被写体検出手段とを含み、前記生成手段は、前記撮像を行う撮像部から検出対象とすべき前記被写体までの距離に応じて予め設定された倍率により、前記撮像画像を縮小又は拡大して、前記被写体の検出に用いるピラミッド画像を生成し、前記決定手段は、前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域を決定し、前記被写体検出手段は、前記検出領域から前記被写体を検出するステップを含む画像処理方法である。
本発明の第1の側面によれば、撮像を行う撮像部から検出対象とすべき被写体までの距離に応じて予め設定された倍率により、前記撮像画像が縮小又は拡大されて、前記被写体の検出に用いるピラミッド画像が生成され、前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域が決定され、前記検出領域から前記被写体が検出される。
本発明の第2の側面の電子機器は、撮像により得られる撮像画像から、検出対象とすべき被写体を検出し、その検出結果に基づく処理を行う電子機器であって、前記撮像を行う撮像部から検出対象とすべき前記被写体までの距離に応じて予め設定された倍率により、前記撮像画像を縮小又は拡大して、前記被写体の検出に用いるピラミッド画像を生成する生成手段と、前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域を決定する決定手段と、前記検出領域から前記被写体を検出する被写体検出手段と、前記被写体検出手段による検出結果に基づく処理を行う処理手段とを含む電子機器である。
本発明の第2の側面によれば、撮像を行う撮像部から検出対象とすべき被写体までの距離に応じて予め設定された倍率により、前記撮像画像が縮小又は拡大されて、前記被写体の検出に用いるピラミッド画像が生成され、前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域が決定され、前記検出領域から前記被写体が検出され、その検出結果に基づく処理が行われる。
本発明によれば、少ない計算量で、より迅速に、撮像画像から人間の顔等の被写体を検出することが可能となる。
本実施の形態の概要を説明するための図である。 第1の実施の形態である画像処理装置の構成例を示すブロック図である。 ピラミッド画像を生成する生成処理を説明するための第1の図である。 ピラミッド画像を生成する生成処理を説明するための第2の図である。 検出領域を決定する第1の決定処理の一例を説明するための図である。 顔検出用のテンプレートの一例を示す図である。 顔検出処理を説明するための図である。 第1の被写体検出処理を説明するためのフローチャートである。 検出領域を決定する第2の決定処理の一例を説明するための図である。 第2の実施の形態である画像処理装置の構成例を示すブロック図である。 背景差分処理を説明するための図である。 背景更新処理を説明するための図である。 検出領域を決定する第3の決定処理の一例を説明するための図である。 第2の被写体検出処理を説明するためのフローチャートである。 フレームレートに応じて、フレーム差分処理で用いられる動体閾値が変化する様子の一例を示す図である。 第3の実施の形態である画像処理装置の構成例を示すブロック図である。 検出領域を決定する第4の決定処理の一例を説明するための図である。 第3の被写体検出処理を説明するためのフローチャートである。 所定数の被写体を検出した場合に、処理を終了することを説明するための図である。 すでに検出済みの被写体が存在する領域については、検出領域に含めないで、被写体の検出を行うことを説明するための図である。 テンプレートと比較される比較用領域を、検出領域から抽出することを説明するための図である。 第4の実施の形態である表示制御装置の構成例を示すブロック図である。 被写体の状態に対する解析結果に先立ち、動体領域情報を出力する様子の一例を示す図である。 コンピュータの構成例を示すブロック図である。
以下、発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.実施の形態の概要
2.第1の実施の形態(カメラの向きに基づいて、検出領域を決定する一例)
3.第2の実施の形態(撮像画像上の動体に基づいて、検出領域を決定する一例)
4.第3の実施の形態(被写体までの距離に基づいて、検出領域を決定する一例)
5.変形例
6.第4の実施の形態(被写体を検出する画像処理部を含む表示制御装置の一例)
<1.実施の形態の概要>
図1を参照して、本実施の形態の概要を説明する。
本実施の形態では、複数の撮像画像により構成される動画像から、例えば人間の顔等の検出対象である被写体を検出する被写体検出処理を行う。
すなわち、本実施の形態では、動画像を構成する撮像画像のうち、数フレーム(又はフィールド)に1フレームの頻度で、撮像画像上に存在するすべての被写体を検出するフルスキャンを行う。
また、本実施の形態では、フルスキャンが行われた後、フルスキャンの対象とされた撮像画像とは異なる他の撮像画像上から、フルスキャンにより検出済みの被写体を検出するパーシャルスキャンを行う。
具体的には、記録済みの動画像を構成する撮像画像から被写体を検出する場合には、例えば、図1Aに示されるように、5フレームに1度の頻度で、撮像画像上のすべての被写体を検出するフルスキャンを行う。そして、フルスキャンにより検出済みの被写体を、その前後の2フレームに対応する撮像画像から検出するパーシャルスキャンを行う。
また、記録されておらず、カメラから順次入力される撮像画像から、被写体を検出する場合には、例えば、図1Bに示されるように、5フレームに1度の頻度で、撮像画像上のすべての被写体を検出するフルスキャンを行う。そして、フルスキャンにより検出済みの被写体を、その後の4フレームに対応する撮像画像それぞれから検出するパーシャルスキャンを行う。
以下に説明する第1乃至第3の実施の形態では、カメラの撮像により得られる撮像画像から、順次、被写体を検出する場合について説明する。なお、第1乃至第3の実施の形態において、記録済みの動画像から被写体を検出する場合についても同様の処理により被写体を検出することができる。しかし、この処理は、カメラの撮像により得られる撮像画像から、被写体を検出する場合と同様の処理であるため、以下、その説明は省略する。
<2.第1の実施の形態>
[画像処理装置1の構成例]
図2は、第1の実施の形態である画像処理装置1の構成例を示している。
この画像処理装置1は、カメラ21、ピラミッド画像生成部22、加速度センサ23、カメラ位置推定部24、検出領域決定部25、被写体検出部26、辞書記憶部27、詳細情報取得部28、状態解析部29、及び制御部30により構成されている。
カメラ21は、撮像を行い、その結果得られる撮像画像を、ピラミッド画像生成部22に供給する。なお、カメラ21は、制御部30の指示にしたがって、カメラ21の向きを変化させる。
ピラミッド画像生成部22は、カメラ21からの撮像画像に基づいて、例えば人間の顔等である被写体を検出するために用いる複数のピラミッド画像を生成する。なお、検出対象としての被写体は、人間の顔に限定されず、人間の手や足の他、自動車等の車両を検出対象とすることが可能であるが、第1乃至第3の実施の形態では、人間の顔を検出する場合について説明する。
[ピラミッド画像を生成する生成処理の一例]
次に、図3及び図4を参照して、ピラミッド画像生成部22が、複数のピラミッド画像を生成する生成処理について説明する。
図3は、カメラ21からの撮像画像41を、それぞれ異なる倍率で縮小(又は拡大)して得られる複数のピラミッド画像43-1乃至43-4の一例を示している。
図3に示されるように、撮像画像41には、検出対象である複数の顔が表示されている。撮像画像41において、カメラ21から顔までの距離が近い程に、その顔の大きさは大きく表示される。
カメラ21から所定の距離に存在する顔を検出するためには、検出対象の顔の大きさを、検出対象の顔と比較される顔検出用の画像を表すテンプレート42のテンプレートサイズと同様の大きさにする必要がある。
このため、ピラミッド画像生成部22は、検出対象の顔の大きさが、テンプレートサイズと同様の大きさとなるように、カメラ21から検出対象の顔までの距離に応じて予め設定された倍率で、撮像画像41を縮小又は拡大(図3においては、1.0倍、0.841倍、及び0.841*0.841倍等で縮小)して、ピラミッド画像43-1乃至43-4を生成する。
次に、図4は、検出対象の顔までの距離に応じて予め設定された倍率で、撮像画像41を縮小する様子の一例を示している。
ピラミッド画像生成部22は、図4に示されるように、カメラ21から最も近い空間範囲D1に存在する顔を検出対象とする場合、カメラ21から検出対象の顔までの距離に応じた倍率で、撮像画像41を縮小し、ピラミッド画像43-1を生成する。
ピラミッド画像生成部22は、カメラ21から、空間範囲D1よりも遠い空間範囲D2に存在する顔を検出対象とする場合、カメラ21から検出対象の顔までの距離に応じた倍率(いまの場合、0.841*0.841倍)で、撮像画像41を縮小し、ピラミッド画像43-2を生成する。
ピラミッド画像生成部22は、カメラ21から、空間範囲D2よりも遠い空間範囲D3に存在する顔を検出対象とする場合、カメラ21から検出対象の顔までの距離に応じた倍率(いまの場合、0.841倍)で、撮像画像41を縮小し、ピラミッド画像43-3を生成する。
ピラミッド画像生成部22は、カメラ21から、空間範囲D3よりも遠い空間範囲D4に存在する顔を検出対象とする場合、カメラ21から検出対象の顔までの距離に応じた倍率(いまの場合、1.0倍)で、撮像画像41を縮小し、ピラミッド画像43-4を生成する。
なお、以下の説明において、ピラミッド画像43-1乃至43-4を区別する必要がない場合、ピラミッド画像43-1乃至43-4を、それぞれ、単に、ピラミッド画像43という。
ピラミッド画像生成部22は、生成した複数のピラミッド画像43(例えばピラミッド画像43-1乃至43-4)を、被写体検出部26に供給する。
図2に戻り、加速度センサ23は、カメラ21に設けられており、カメラ21に生じる加速度(を表す情報)を検出し、カメラ位置推定部24に供給する。
カメラ位置推定部24は、加速度センサ23からの加速度に基づいて、カメラ21の向きを推定し、その推定結果を検出領域決定部25に供給する。
なお、画像処理装置1では、加速度センサ23に代えて、角速度センサ等を採用するようにしてもよい。この場合、カメラ位置推定部24は、角速度センサからの角速度に基づいて、カメラ21の向きを推定することとなる。
検出領域決定部25は、フルスキャンが行われる場合、カメラ位置推定部24からの推定結果に基づいて、ピラミッド画像43内において顔を検出するための検出領域を決定する。
すなわち、例えば、検出領域決定部25は、カメラ位置推定部24からの推定結果に基づいて、カメラ21の向きが時間に応じて変化している(例えば、首振りをしている)と判定した場合には、次のように、フルスキャン時の検出領域を決定する。
つまり、検出領域決定部25は、カメラ21からの距離が遠い検出対象の顔を検出するためのピラミッド画像43(例えばピラミッド画像43-4)の検出領域を、ピラミッド画像43内の中央の領域に決定する。そして、検出領域決定部25は、それ以外のピラミッド画像43(例えばピラミッド画像43-1乃至43-3)の検出領域を、ピラミッド画像43内の全ての領域に決定する。
また、例えば、検出領域決定部25は、カメラ位置推定部24からの推定結果に基づいて、カメラ21の向きが所定の方向に固定されていると判定した場合であって、カメラ21の向きがいずれの方向であるのか不明である場合には、次のように、フルスキャン時の検出領域を決定する。
つまり、検出領域決定部25は、一定時間、ピラミッド画像43上のすべての領域を、フルスキャン時の検出領域に決定する。また、検出領域決定部25は、ピラミッド画像43内の領域において、人間の顔が現れる確率を算出する。そして、検出領域決定部25は、算出した確率が所定の閾値未満となる領域を除外するようにして、ピラミッド画像43上のすべての領域から徐々に絞り込んでいくことで、最終的な検出領域を決定する。
なお、人間の顔が現れる確率は、後述する詳細情報取得部28で取得される詳細情報に含まれる、撮像画像における顔の位置(を表す情報)に基づいて、検出領域決定部25により算出される。
また、例えば、検出領域決定部25は、詳細情報に含まれる、人間の姿勢、年齢、身長等の被写体情報を利用して、検出領域を決定するようにしてもよい。すなわち、例えば、検出領域決定部25は、被写体情報に含まれる姿勢や身長に基づいて、撮像画像41内の領域のうち、検出すべき人間の顔が多く現れる領域を予測(例えば、身長が高い場合には、撮像画像41内の領域のうちの上側の領域を、顔が多く現れる領域として予測)し、予測した領域を検出領域に決定するようにしてもよい。
さらに、例えば、検出領域決定部25は、カメラ位置推定部24からの推定結果に基づいて、カメラ21の向きが所定の方向に固定されていると判定した場合であって、カメラ21の向きがいずれの方向であるのかわかっている場合には、カメラ21の向きに応じて、フルスキャン時の検出領域を決定する。
なお、カメラ21の向きが所定の方向に固定されていると判定した場合であって、カメラ21の向きがいずれの方向であるのかわかっている場合に、カメラ21の向きに応じて検出領域を決定する方法の詳細は、図5を参照して後述する。
また、検出領域決定部25は、パーシャルスキャンが行われる場合、被写体検出部26から供給される、パーシャルスキャンの対象となる撮像画像よりも1フレーム分だけ過去の撮像画像上の顔領域(顔が存在する領域)を表す顔領域情報に基づいて、ピラミッド画像43内において顔の検出を行う検出領域を決定する。
すなわち、例えば、検出領域決定部25は、パーシャルスキャンが行われる場合、被写体検出部26から供給される顔領域情報が表す顔領域を含む領域を、パーシャルスキャン時の検出領域に決定する。
なお、検出領域決定部25は、パーシャルスキャンが行われる場合、直前に行われたフルスキャンにより検出された顔領域を含む領域を、パーシャルスキャン時の検出領域に決定するようにしてもよい。
[フルスキャン時の検出領域を決定する一例]
次に、図5は、検出領域決定部25が、カメラ位置推定部24からの推定結果に基づいて、フルスキャン時の検出領域を決定する場合の一例を示している。
検出領域決定部25は、カメラ位置推定部24からの推定結果に基づいて、カメラ21の向きが所定の方向に固定されていると判定した場合であって、カメラ21の向きがわかっている場合、そのカメラ21の向きに応じて、ピラミッド画像43内の検出領域を決定する。
すなわち、検出領域決定部25は、カメラ21の向きが、図5Aに示されるような状態であると判定した場合、カメラ21の撮像範囲61(カメラ21から伸びる2本の線分内の範囲)のうちの中央範囲62に、人間の顔が殆ど存在することを利用して、ピラミッド画像43内の検出領域を、中央範囲62(に対応する領域)に決定する。
具体的には、例えば、空間範囲D1に存在する人間の顔を検出対象とする場合、図5A及び図5Bに示されるように、空間範囲D1における中央範囲62(に対応する領域)を、ピラミッド画像43-1内の検出領域62-1に決定する。
また、例えば、空間範囲D2に存在する人間の顔を検出対象とする場合、図5A及び図5Bに示されるように、空間範囲D2における中央範囲62を、ピラミッド画像43-2内の検出領域62-2に決定する。
さらに、例えば、空間範囲D3に存在する人間の顔を検出対象とする場合、図5A及び図5Bに示されるように、空間範囲D3における中央範囲62を、ピラミッド画像43-3内の検出領域62-3に決定する。なお、空間範囲D4についても同様に、ピラミッド画像43-4内の検出領域が決定される。
検出領域決定部25は、ピラミッド画像43について決定された検出領域(例えば、検出領域62-1乃至62-3等)を表す検出領域情報を、被写体検出部26に供給する。
図2に戻り、被写体検出部26は、辞書記憶部27から、顔検出用のテンプレートを読み出す。そして、被写体検出部26は、検出領域決定部25からの検出領域情報に基づいて決定される、ピラミッド画像生成部22からのピラミッド画像43内の検出領域に対して、読み出したテンプレートを用いて顔を検出する顔検出処理を行う。
なお、被写体検出部26が行う顔検出処理の詳細は、後述する図7を参照して説明する。
辞書記憶部27は、顔検出用のテンプレートとして、フルスキャン用のテンプレート、及びパーシャルスキャン用のテンプレートを予め保持している。
[テンプレートの一例]
次に、図6は、フルスキャン用のテンプレート、及びパーシャルスキャン用のテンプレートの一例を示している。
辞書記憶部27は、例えば、図6Aに示されるように、性別と年齢の複数の組合せ毎に、対応する組合せの条件に合致する人間の平均的な顔を正面から見たときの画像を表すテンプレートを対応付けたシンプル辞書を、予め保持している。
また、辞書記憶部27は、例えば、図6Bに示されるように、それぞれ異なる表情毎に、対応する表情の平均的な顔を多方面から見たときの画像それぞれを表す複数のテンプレートを対応付けたリッチツリー辞書を、予め保持している。
なお、シンプル辞書は、フルスキャンを行う場合に用いられる辞書であって、顔の検出とともに、撮像画像毎に変化しない顔の属性として、例えば性別や年齢等を検出するために用いられる。また、リッチツリー辞書は、パーシャルスキャンを行う場合に用いられる辞書であって、顔の検出とともに、撮像画像毎に変化する(し易い)顔の属性として、例えば顔の表情を検出するために用いられる。
[顔検出処理の一例]
次に、図7を参照して、被写体検出部26が、辞書記憶部27に記憶されたテンプレートを用いて行う顔検出処理の詳細を説明する。
被写体検出部26は、撮像画像41に対応するピラミッド画像43上のすべての顔を検出するフルスキャンを行う場合、図7Aに示されるように、テンプレート42(例えば、図6Aに示されたシンプル辞書のテンプレート)を用いて、ピラミッド画像43内の検出領域を対象とする顔検出処理を行う。
また、被写体検出部26は、フルスキャンにより検出済みの顔を、他の撮像画像41に対応するピラミッド画像43から検出するパーシャルスキャンを行う場合、図7Bに示されるように、テンプレート42(例えば、図6Bに示されたリッチツリー辞書のテンプレート)を用いて、ピラミッド画像43内の検出領域を対象とする顔検出処理を行う。
被写体検出部26は、フルスキャン及びパーシャルスキャンによるいずれの顔検出処理により顔を検出した場合にも、ピラミッド画像43内の顔領域を表す顔領域情報を、検出領域決定部25及び詳細情報取得部28に供給する。
また、被写体検出部26は、顔を検出した場合に用いていたテンプレートを、詳細情報取得部28に供給する。
図2に戻り、詳細情報取得部28は、被写体検出部26からの顔領域情報及びテンプレートに基づいて、撮像画像41内に存在する顔の詳細情報を取得する。すなわち、例えば、詳細情報取得部28は、被写体検出部26からの顔領域情報に基づいて、撮像画像41における顔の位置を判別し、詳細情報として、状態解析部29に供給する。
また、例えば、詳細情報取得部28は、被写体検出部26からのテンプレートに対応付けられている性別及び年齢、又は顔の表情等を、辞書記憶部27から読み出し、詳細情報として、状態解析部29に供給する。
状態解析部29は、詳細情報取得部28からの詳細情報に基づいて、被写体の状態(様子)を解析し、その解析結果を出力する。
制御部30は、カメラ21乃至状態解析部29を制御し、カメラ21により撮像される撮像画像のうち、数フレームに1フレームの頻度でフルスキャンを行わせ、それ以外のフレームに対してパーシャルスキャンを行わせる。
[第1の被写体検出処理の動作説明]
次に、図8のフローチャートを参照して、画像処理装置1が行う第1の被写体検出処理の詳細を説明する。
ステップS1において、カメラ21は、撮像を行い、その結果得られる撮像画像41を、ピラミッド画像生成部22に供給する。
ステップS2において、ピラミッド画像生成部22は、例えば図3及び図4を参照して説明したように、カメラ21からの撮像画像41に基づいて、人間の顔を検出するために用いる複数のピラミッド画像43を生成し、被写体検出部26に供給する。
ステップS3において、制御部30は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行うか否かを判定する。
ステップS3において、制御部30は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行うと判定した場合、処理をステップS4に進める。
ステップS4乃至ステップS8において、加速度センサ23乃至詳細情報取得部28は、制御部30の指示にしたがって、フルスキャンにより顔を検出し、その検出結果から得られる詳細情報を取得する処理を行う。
すなわち、ステップS4において、加速度センサ23は、カメラ21に生じる加速度(を表す情報)を検出し、カメラ位置推定部24に供給する。
ステップS5において、カメラ位置推定部24は、加速度センサ23からの加速度に基づいて、カメラ21の向きを推定し、その推定結果を検出領域決定部25に供給する。
ステップS6において、検出領域決定部25は、カメラ位置推定部24からの推定結果に基づいて、フルスキャン時の検出領域を決定する。
ステップS7において、被写体検出部26は、ステップS6の処理により決定された検出領域を対象として、複数の組合せ(性別や年齢等)毎に、対応するテンプレート(図7Aのシンプル辞書)を用いた顔検出処理を行う。
そして、被写体検出部26は、顔検出処理により顔を検出した場合、ピラミッド画像43内の顔領域を示す顔領域情報を、検出領域決定部25及び詳細情報取得部28に供給する。
また、被写体検出部26は、顔を検出した場合に用いていたテンプレートを、詳細情報取得部28に供給する。
ステップS8において、詳細情報取得部28は、被写体検出部26からのテンプレートに対応付けられている性別や年齢等を、辞書記憶部27から読み出す。また、詳細情報取得部28は、被写体検出部26からの顔領域情報に基づいて、撮像画像41における人間の顔の位置を判別する。
そして、詳細情報取得部28は、読み出した性別や年齢、及び判別した人間の顔の位置を、詳細情報として、状態解析部29に供給し、処理をステップS12に進める。
なお、ステップS12の処理は、ステップS9乃至ステップS11の処理を説明した後に後述する。
ステップS3において、制御部30は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行わないと判定した場合、すなわち、パーシャルスキャンを行うと判定した場合、処理をステップS9に進める。
ステップS9乃至ステップS11において、検出領域決定部25乃至詳細情報取得部28は、制御部30の指示にしたがって、フルスキャンにより検出済みの顔をパーシャルスキャンにより検出し、その検出結果から得られる詳細情報を取得する処理を行う。
すなわち、ステップS9において、検出領域決定部25は、前回のステップS7の処理、又は前回のステップS11の処理において、被写体検出部26から供給される顔領域情報に基づいて、パーシャルスキャン時の検出領域を決定する。
具体的には、例えば、検出領域決定部25は、被写体検出部26から供給される顔領域情報が示す顔領域を含む、ピラミッド画像43内の領域を、パーシャルスキャン時の検出領域に決定する。
ステップS10において、被写体検出部26は、ステップS9の処理により決定された検出領域を対象として、それぞれ異なる表情毎に、対応するテンプレート(図7Bのリッチツリー辞書)を用いた顔検出処理を行う。
そして、被写体検出部26は、検出処理により顔を検出した場合、ピラミッド画像43内において顔が存在する領域を示す顔領域情報を、検出領域決定部25及び詳細情報取得部28に供給する。
また、被写体検出部26は、顔を検出した場合に用いていたテンプレートを、詳細情報取得部28に供給する。
ステップS11において、詳細情報取得部28は、被写体検出部26からのテンプレートに対応付けられている顔の表情(を表す情報)等を、辞書記憶部27から読み出す。また、詳細情報取得部28は、被写体検出部26からの顔領域情報に基づいて、撮像画像41における人間の顔の位置を判別する。
そして、詳細情報取得部28は、読み出した顔の表情、及び判別した人間の顔の位置を、詳細情報として、状態解析部29に供給し、処理をステップS12に進める。
ステップS12において、状態解析部29は、詳細情報取得部28から、所定の複数の撮像画像(例えば図1Bに示された、フルスキャンの対象となる1枚の撮像画像、及びパーシャルスキャンの対象となる4枚の撮像画像)における詳細情報すべてを取得したか否か、すなわち、被写体の状態を解析するために必要な詳細情報すべてを取得したか否かを判定する。
ステップS12において、状態解析部29は、詳細情報取得部28から、所定の複数の撮像画像における詳細情報すべてを、まだ取得していないと判定した場合、処理はステップS1に戻り、それ以降同様の処理が行われる。
また、ステップS12において、状態解析部29は、詳細情報取得部28から、所定の複数の撮像画像における詳細情報すべてを取得したと判定した場合、処理はステップS13に進められる。
ステップS13において、状態解析部29は、詳細情報取得部28からの複数の詳細情報に基づいて、被写体の状態(様子)を解析し、その解析結果を出力する。その後、処理はステップS1に戻り、それ以降、同様の処理が行われる。
なお、第1の被写体検出処理は、ユーザ操作等により、画像処理装置1の電源がオフされた場合等に終了される。このことは、後述する第2及び第3の被写体検出処理(図14及び図18)についても同様である。
以上説明したように、第1の被写体検出処理によれば、フルスキャンが行われる場合に、検出領域決定部25は、カメラ21の向きに基づいて、ピラミッド画像43上の領域のうちの所定の領域を、検出領域として決定するようにした。
また、パーシャルスキャンが行われる場合に、検出領域決定部25は、前回、検出された顔領域を含む領域を、検出領域として決定するようにした。
さらに、第1の被写体検出処理では、パーシャルスキャンと比較して、処理量が多くなるフルスキャンを行う場合、ステップS7において、例えばリッチツリー辞書を用いる場合と比較して処理量が少なくなるシンプル辞書を用いるようにするとともに、フルスキャンを数フレームに1度の頻度で行うようにした。
そして、パーシャルスキャンを行う場合には、ステップS10において、例えばシンプル辞書を用いる場合と比較して処理量が多くなるものの、多方面から見た顔を自由にトラッキングできるリッチツリー辞書を用いるようにした。
したがって、第1の被写体検出処理によれば、フレーム毎に、ピラミッド画像43内のすべての領域を検出領域とする場合と比較して、少ない計算量で、より迅速且つ正確に被写体を検出することが可能となる。
なお、第1の実施の形態では、カメラ21は、制御部30の指示にしたがって、カメラ21の向きが変化するものとしたが、カメラ21としては、例えば、カメラの向きが所定の方向に固定された固定式のカメラを採用することができる。
この場合、加速度センサ23及びカメラ位置推定部24を設ける必要がなくなり、検出領域決定部25は、例えば、カメラ21の向きが所定の方向に固定されており、カメラ21の向きがいずれの方向であるのか不明である場合に行われる検出領域の決定方法、又はカメラ21の向きが所定の方向に固定されており、カメラ21の向きがいずれの方向であるのかわかっている場合に行われる検出領域の決定方法(図5)のいずれかにより、フルスキャン時の検出領域を決定することとなる。
また、検出領域決定部25は、フルスキャンが行われる場合、カメラ位置推定部24からの推定結果に基づいて、フルスキャン時の検出領域を決定するようにしたが、その他、例えば、ユーザに予め設定された領域を、検出領域として決定するようにしてもよい。
その他、例えば、検出領域決定部25は、フルスキャンが行われる場合に、カメラ21の向きとは無関係に、フルスキャン時の検出領域を決定することが可能である。
[検出領域の決定の一例]
次に、図9は、カメラ21の向きとは無関係に、フルスキャン時の検出領域を決定する場合の一例を示している。
検出領域決定部25は、図9に示されるように、縮小に用いた倍率が1.0以下であって0.8以上のピラミッド画像43については、そのピラミッド画像43を分割して得られる複数の領域(例えば、4つの領域)を、フルスキャンが行われる毎に、順番に、検出領域として決定する。
具体的には、例えば、検出領域決定部25は、ピラミッド画像43-4及び43-3については、ピラミッド画像43-4及び43-3を4つの領域81a乃至81dに分割する。そして、検出領域決定部25は、フルスキャンが行われる毎に、検出領域を、領域81a、領域81b、領域81c、領域81d、領域81a、…の順序で決定する。
また、検出領域決定部25は、図9に示されるように、倍率が0.8未満であって0.51以上のピラミッド画像43については、そのピラミッド画像43を分割して得られる複数の領域(例えば、2つの領域)を、フルスキャンが行われる毎に、順番に、検出領域として決定する。
具体的には、例えば、検出領域決定部25は、ピラミッド画像43-2については、ピラミッド画像43-2を2つの領域82a及び81bに分割する。そして、検出領域決定部25は、フルスキャンが行われる毎に、検出領域を、領域82a、領域82b、領域82a…の順序で決定する。
さらに、検出領域決定部25は、図9に示されるように、倍率が0.51未満であって0以上のピラミッド画像43については、そのピラミッド画像43内のすべての領域を、検出領域として決定する。
具体的には、例えば、検出領域決定部25は、フルスキャンが行われる場合に、ピラミッド画像43-1については、ピラミッド画像43-1内のすべての領域を、検出領域に決定する。
図9において説明した検出領域の決定方法によれば、カメラ21の向きに拘らず、検出領域を決定することができる。この場合、第1の被写体検出処理において、カメラ21に生じた加速度を検出するステップS4の処理、及びカメラ21の向きを推定するステップS5の処理を省略することができるため、より迅速に、処理を行うことが可能となる。
なお、撮像画像41から被写体を検出する画像処理装置1は、例えば、カメラ21の前で行われるユーザのジェスチャ操作等を認識するものとして用いることができる。
この場合、ユーザは、カメラ21から近い距離で、ジェスチャ操作を行うことが殆どである。したがって、カメラ21からの距離が近い被写体ほど、検出すべき重要な被写体であることが多い。
よって、図9において説明した検出領域の決定方法によれば、検出すべき被写体の重要度が高い程(カメラ21からの距離が近い程)に、ピラミッド画像43内の検出領域を大きくするようにしたので、迅速に処理を行いつつ、重要な被写体を検出し損ねる事態を抑止することが可能となる。
また、図9において説明した検出領域の決定方法では、例えば、ピラミッド画像43において分割された複数の領域(例えば、領域81a乃至81d)を、所定の順番で、フルスキャン時の検出領域に決定するようにしたが、これに限定されない。
すなわち、例えば、ピラミッド画像43において分割された複数の領域毎の、被写体が存在する存在確率に応じて、複数の領域毎に、検出領域とされる頻度を変更するようにしてもよい。この場合、ピラミッド画像43において分割された複数の領域を、所定の順番で検出領域に決定する場合と比較して、被写体を検出する確率を向上させることが可能となる。
なお、存在確率は、詳細情報取得部28で取得される詳細情報に含まれる、撮像画像における顔の位置(を表す情報)に基づいて算出される。
第1の実施の形態では、カメラ21の向き等に基づいて、検出領域を決定するようにしたが、その他、例えば、撮像画像41内の動体(動いている物体)を検出し、その動体が存在する撮像画像41上の位置に基づいて、検出領域を決定することができる。
<3.第2の実施の形態>
[画像処理装置101の構成例]
図10は、撮像画像41内の動体(動いている物体)を検出し、その動体が存在する撮像画像41上の位置に基づいて、検出領域を決定するようにした、第2の実施の形態である画像処理装置101の構成例を示している。
なお、図10において、図2に示された第1の実施の形態に対応する部分については同一の符号を付しているため、以下、その説明は適宜省略する。
すなわち、第2の実施の形態である画像処理装置101は、新たに動体検出部121及び背景更新部122が設けられているとともに、検出領域決定部25、状態解析部29及び制御部30に代えて、検出領域決定部123、状態解析部124及び制御部125が設けられている他は、第1の実施の形態と同様に構成される。
動体検出部121には、カメラ21から撮像画像41が、被写体検出部26から、1フレーム分だけ過去の撮像画像における顔領域情報が、背景更新部122から、被写体が撮像されていない背景のみの背景画像が、それぞれ供給される。
動体検出部121は、カメラ21からの撮像画像41、被写体検出部26から顔領域情報、及び背景更新部122からの背景画像に基づいて、カメラ21からの撮像画像41上の動体を検出する。
すなわち、例えば、動体検出部121は、被写体検出部26からの顔領域情報を参照しつつ、カメラ21からの撮像画像41と、背景更新部122からの背景画像との差分絶対値に基づいて動体を検出する背景差分処理を行う。この背景差分処理については、後述する図11を参照して説明する。
なお、動体を検出する検出方法としては、上述した背景差分処理の他、隣接する1フレーム分だけ異なる撮像画像41どうしの差分絶対値に基づいて動体を検出するフレーム差分処理等を採用することができる。
[背景差分処理の一例]
次に、図11を参照して、動体検出部121が行う、背景差分処理について説明する。
図11Aに示される撮像画像41は、所定のタイミングで撮像された撮像画像を表している。また、図11Bに示される撮像画像41は、図11Aに示される撮像画像41よりも1フレーム分だけ過去の撮像画像を表しており、図11Cに示される撮像画像41は、図11Bに示される撮像画像41よりも1フレーム分だけ過去の撮像画像を表している。
動体検出部121は、撮像画像41と背景画像との、対応する画素の画素値どうしの差分絶対値を算出する。そして、動体検出部121は、算出した差分絶対値が、動体であるか否かを検出するための動体閾値以上である場合に、対応する領域を、動体領域として検出する。
具体的には、例えば、動体検出部121は、図11Aに示されるように、カメラ21からの撮像画像41内の領域のうち、被写体検出部26からの顔領域情報が示す顔領域を含む被写体周辺領域141に対しては、比較的小さな動体閾値を用いて背景差分処理を行う。
なお、被写体周辺領域141において、小さな動体閾値を用いているのは、被写体周辺領域141には動体が存在する確率が高いため、例えば図11A乃至図11Cに示されるような動体の僅かな動きについても検出できるようにするためである。
また、被写体周辺領域141における動体閾値は、時間の経過とともに、徐々に大きくしていく。これは、時間の経過とともに、被写体周辺領域141に動体が存在する確率が低くなっていくことによる。
さらに、例えば、動体検出部121は、図11A乃至図11Cに示されるように、撮像画像41内の領域のうち、被写体周辺領域141を除いた領域に対しては、ノイズ等による、動体の誤検出を回避するために、比較的大きな動体閾値を用いて背景差分処理を行う。
動体検出部121は、撮像画像41内の領域において、検出した動体が存在する動体領域を表す動体領域情報を、背景更新部122、検出領域決定部123、及び状態解析部124に供給する。
図10に戻り、背景更新部122には、動体検出部121から動体領域情報が供給される他、カメラ21から撮像画像41が、被写体検出部26から顔領域情報が供給される。
背景更新部122は、被写体検出部26からの顔領域情報、及び動体検出部121からの動体領域情報に基づいて、カメラ21からの撮像画像41上の領域のうち、背景部分の領域(背景領域)と、背景部分以外の部分の領域(例えば、顔や動体を表す領域)とを判定する。
そして、背景更新部122は、背景領域と、背景部分以外の領域とで、異なる比率による重み付け加算を行い、背景画像を更新する背景更新処理を行う。
[背景更新処理の説明]
次に、図12を参照して、背景更新部122が行う、背景画像を更新する背景更新処理について説明する。
背景更新部122には、例えば、図12に示されるように、テーブル161a及びリモートコントローラ161bが表示された背景領域161、及び人間が表示された領域162により構成される撮像画像41が、カメラ21から供給される。
背景更新部122は、例えば、図12に示されるように、テーブル161aが表示された背景画像181を、カメラ21からの撮像画像41と足しこむことにより、テーブル161aの他、リモートコントローラ161bが表示された更新後の背景画像182を取得する。
すなわち、例えば、背景更新部122は、被写体検出部26からの顔領域情報、及び動体検出部121からの動体領域情報に基づいて、撮像画像41内の領域のうち、背景領域161と、背景部分以外の領域162(被写体としての人間や、動体が表示された領域)とを判定する。
背景更新部122は、カメラ21からの撮像画像41上の背景領域161を構成する画素の画素値については、比較的大きな重み付けを行い、背景画像181上の、背景領域161に対応する領域部分を構成する画素の画素値については、比較的小さな重み付けを行う。
また、背景更新部122は、カメラ21からの撮像画像41上の、背景領域161以外の領域162を構成する画素の画素値については、比較的小さな重み付けを行い、背景画像181上の、領域162に対応する領域部分を構成する画素の画素値については、比較的大きな重み付けを行う。
そして、背景更新部122は、重み付けにより新たに得られる、対応する画素値どうしを加算し、その結果得られる画素値を、新たな背景画像181の画素値とする。
なお、背景更新部122は、カメラ21からの撮像画像41上の、背景領域161以外の領域162については、背景画像181上の、領域162に対応する領域部分との加算を行わないようにしてもよい。
ここで、撮像画像41上の背景領域161に、比較的大きな重み付けを行うのは、新たな背景とされる背景領域161を、新たな背景画像181により多く反映させるためである。
また、背景領域161以外の領域162については、比較的小さな重み付けを行った上で、背景画像181上の、領域162に対応する領域部分との加算を行うのは、背景になり得ない領域162が、新たな背景画像181に多く反映されることを防止するためである。
このことは、背景領域161以外の領域162について、背景画像181上の、領域162に対応する領域部分との加算を行わないようにする場合についても同様である。
背景更新部122は、さらに、カメラ21からの新たな撮像画像41と、今回の背景更新処理により得られる新たな背景画像181とを用いて、新たに背景更新処理を行う。このようにして、背景更新部122は、背景更新処理を繰り返すことにより、最終的に、テーブル161aの他、リモートコントローラ161bが表示された更新後の背景画像182を得ることとなる。
図10に戻り、検出領域決定部123は、フルスキャンが行われる場合、カメラ位置推定部24からの推定結果、又は動体検出部121からの動体領域情報の少なくとも一方に基づいて、フルスキャン時の検出領域を決定する。
すなわち、例えば、検出領域決定部123は、動体検出部121からの動体領域情報を、ピラミッド画像43内の検出領域に決定する。なお、動体領域を、検出領域に決定する処理の詳細は、図13を参照して後述する。
また、例えば、検出領域決定部123は、第1の実施の形態と同様に、カメラ位置推定部24からの、カメラ21の向きの推定結果に基づいて、検出領域を決定するようにしてもよい。
さらに、例えば、検出領域決定部123は、カメラ位置推定部24からの推定結果に基づいて決定される検出領域と、動体検出部121からの動体領域情報に基づいて決定される検出領域との、重複する領域部分を、最終的な検出領域として決定することが可能である。
また、検出領域決定部123は、パーシャルスキャンが行われる場合、第1の実施の形態における場合と同様に、被写体検出部26から供給される、パーシャルスキャンの対象となる撮像画像よりも1フレーム分だけ過去の撮像画像における顔領域情報に基づいて、パーシャルスキャン時の検出領域を決定する。
[動体領域に基づく検出領域の決定による一例]
次に、図13は、検出領域決定部123が、動体検出部121からの動体領域情報に基づいて、フルスキャン時の検出領域を決定する処理の詳細を示している。
検出領域決定部123は、図13左側に示されるように、動体検出部121からの動体領域情報が示す動体領域201を、検出領域として決定し、決定した検出領域を示す検出領域情報を、被写体検出部26に供給する。
これにより、被写体検出部26は、図13右側に示されるように、検出領域決定部123からの検出領域情報に基づいて、ピラミッド画像43-1乃至43-4それぞれの動体領域201を検出領域として、顔検出処理を行う。
図10に戻り、状態解析部124は、詳細情報取得部28からの詳細情報に基づいて、被写体の状態を解析し、その解析結果を出力する。また、状態解析部124は、被写体の状態を解析する処理に多くの時間を要する場合、解析結果の出力に先立って、動体検出部121からの動体領域情報を出力する。
これにより、例えば、状態解析部124からの解析結果に基づいて、被写体の状態を認識する状態認識装置(例えば、後述する図22の表示制御装置321)が、画像処理装置101に接続されている場合、状態認識装置は、状態解析部124からの解析結果に先立って供給される動体領域情報に基づいて、被写体が動いた可能性をいち早く認識することができる。
制御部125は、カメラ21乃至カメラ位置推定部24、被写体検出部26乃至詳細情報取得部28、及び動体検出部121乃至状態解析部124を制御し、カメラ21により撮像される撮像画像のうち、数フレームに1フレームの頻度でフルスキャンを行わせ、それ以外のフレームに対してパーシャルスキャンを行わせる。
[第2の被写体検出処理の動作説明]
次に、図14のフローチャートを参照して、画像処理装置101が行う第2の被写体検出処理の詳細を説明する。
ステップS31及びステップS32において、図8のステップS1及びステップS2と同様の処理が行われる。
ステップS33において、制御部125は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行うか否かを判定する。そして、制御部125は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行わないと判定した場合、すなわち、パーシャルスキャンを行うと判定した場合、処理をステップS41に進める。
ステップS41乃至ステップS43において、図8のステップS9乃至ステップS11と同様の処理が行われる。
また、ステップS33において、制御部125は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行うと判定した場合、処理をステップS34に進める。
ステップS34及びステップS35において、図8のステップS4及びステップS5と同様の処理が行われる。
ステップS36において、動体検出部121は、図11に示されるように、被写体検出部26からの顔領域情報、カメラ21からの撮像画像41、及び背景更新部122からの背景画像に基づいて、カメラ21からの撮像画像41上の動体を検出する。
ステップS37において、背景更新部122は、図12に示されるように、被写体検出部26からの顔領域情報、及び動体検出部121からの動体領域情報に基づいて、カメラ21からの撮像画像41上の領域のうち、背景部分の背景領域161と、背景部分以外の部分の領域162とを判定する。
そして、背景更新部122は、背景領域161と、背景部分以外の領域162とで、異なる比率による重み付け加算を行い、背景画像181を、更新後の背景画像182に更新する背景更新処理を行う。
ステップS38において、例えば、検出領域決定部123は、図13に示されるように、動体検出部121からの動体領域情報により示される動体領域201を、フルスキャン時の検出領域として決定する。
また、例えば、検出領域決定部123は、カメラ位置推定部24からの推定結果にも基づいて決定される検出領域と、動体検出部121からの動体領域情報に基づいて決定される検出領域との、重複する領域部分を、最終的な検出領域として決定するようにしてもよい。
ステップS39、ステップS40、及びステップS44において、それぞれ、図8のステップS7、ステップS8、及びステップS12と同様の処理が行われる。
ステップS45において、状態解析部124は、詳細情報取得部28からの詳細情報に基づいて、被写体の状態を解析し、その解析結果を出力する。また、状態解析部124は、被写体の状態を解析する処理に多くの時間を要する場合、解析結果の出力に先立って、動体検出部121からの動体領域情報を出力する。
ステップS45の処理の終了後、処理はステップS31に戻り、それ以降同様の処理が行われる。
以上説明したように、第2の被写体検出処理によれば、フルスキャンが行われる場合に、例えば、検出領域決定部123は、撮像画像41内の動体領域を、検出領域として決定するようにした。
したがって、第2の被写体検出処理によれば、フレーム毎に、ピラミッド画像43内のすべての領域を検出領域とする場合と比較して、少ない計算量で、より迅速に被写体を検出することが可能となる。
[フレーム差分処理の動体閾値を変化させる一例]
ところで、上述したように、動体検出部121により動体を検出する方法としては、背景差分処理の他、フレーム差分処理を採用することができる。
このフレーム差分処理では、制御部125に対する負荷等に起因して、カメラ21から動体検出部121に供給される撮像画像のフレームレートが変化する場合、フレームレートの変化に拘らず、固定の動体閾値を用いると、動体の一定の動きを誤検出してしまう事態が生じ得る。
すなわち、例えば、フレームレートの変化により、フレームレートが大きくなった場合(1フレーム分だけ異なるフレームどうしの撮像間隔が短くなった場合)には、1フレーム分だけ異なるフレーム間に生じる動体の動きは比較的小さなものとなるため、固定の動体閾値では、動体による小さな動きを検出できないことが生じ得る。
また、例えば、フレームレートの変化により、フレームレートが小さくなった場合(1フレーム分だけ異なるフレームどうしの撮像間隔が長くなった場合)には、動体ではないとされていた非動体の動きが比較的大きなものとなるため、固定の動体閾値では、非動体による大きな動きを、動体による動きとして誤検出してしまうことが生じ得る。
そこで、カメラ21から動体検出部121に供給される撮像画像のフレームレートが変化する場合には、フレームレートの変化に応じて、動体閾値を適切に変化させるようにすることが望ましい。
次に、図15は、フレームレートに応じて変化する動体閾値の一例を示している。
図15において、横軸は、1フレーム分だけ異なるフレーム間の時間Δtを表している。また、縦軸は、動体閾値を表している。
時間Δtが短い場合(フレームレートが大きい場合)には、1フレーム分だけ異なるフレームどうしに表示される動体の動きは小さなものとなる。また、時間Δtが長い場合(フレームレートが小さい場合)には、1フレーム分だけ異なるフレームどうしに表示される動体の動きは大きなものとなる。
したがって、動体検出部121は、図15に示されるように、時間Δtが短い場合には、フレーム間における動体の動きも小さくなるため、動体閾値を小さめに変化させ、時間Δtが長くなるにしたがって、フレーム間における動体の動きも大きくなるため、動体閾値を大きめに変化させる。
これにより、フレームレートが変化したとしても、非動体を誤検出することなく、動体による一定の動きを検出することが可能となる。
第2の実施の形態では、カメラ位置推定部24からの推定結果(カメラ21の向き)、又は撮像画像41内の動体領域の少なくとも一方に基づいて、フルスキャン時の検出領域を決定するようにしたが、その他、例えば、カメラ21から撮像対象(検出対象である被写体の他、検出対象ではないものも含む)までの距離を表すDepthマップ(後述する図17を参照)も考慮して、検出領域を決定するように構成することが可能である。
<4.第3の実施の形態>
次に、図16は、カメラ21から撮像対象までの距離を表すDepthマップも考慮して、フルスキャン時の検出領域を決定するようにした、第3の実施の形態である画像処理装置221の構成例を示している。
なお、図16において、図10に示された第2の実施の形態に対応する部分については同一の符号を付しているため、以下、その説明は適宜省略する。
すなわち、第3の実施の形態である画像処理装置221は、新たに距離検出部241が設けられているとともに、検出領域決定部123及び制御部125に代えて、検出領域決定部242及び制御部243が設けられている他は、第2の実施の形態と同様に構成される。
距離検出部241は、例えばレーザレンジファインダ等を有し、そのレーザレンジファインダにより、レーザを撮像対象に照射し、撮像対象に照射されたレーザが反射して得られる反射光を検出する。そして、距離検出部241は、レーザを撮像対象に照射したときから、反射光を検出するまでの時間を計測し、計測した時間とレーザの速さとに基づいて、距離検出部241(画像処理装置221)から撮像対象までの距離を算出する。
距離検出部241は、算出した距離に、撮像対象の位置を対応付けた距離情報を、検出領域決定部242に供給する。
なお、距離検出部241は、その他、例えば、複数のカメラを用いて、複数のカメラの視差により、撮像対象までの距離を算出するステレオ法により、撮像対象までの距離を算出するようにしてもよい。
検出領域決定部242は、距離算出部241からの距離情報に基づいて、撮像画像41に表示された撮像対象までの距離を表すDepthマップを生成する。
そして、検出領域決定部242は、例えば、生成したDepthマップに基づいて、ピラミッド画像43-1乃至43-4それぞれの検出領域を決定する。なお、Depthマップに基づいて検出領域を決定する決定方法の詳細は、後述する図17を参照して説明する。
また、検出領域決定部242は、Depthマップを生成し、生成したDepthマップに基づいて、検出領域を決定する他、カメラ位置推定部24からの推定結果、動体検出部121からの動体領域情報、又は生成したDepthマップの少なくとも1つに基づいて、検出領域を決定することが可能である。
具体的には、例えば、検出領域決定部242は、カメラ位置推定部24からの推定結果に基づいて決定される検出領域、又は動体検出部121からの動体領域情報に基づいて決定される検出領域の少なくとも一方、及び生成したDepthマップに基づいて決定される検出領域それぞれの重複する領域部分を、最終的な検出領域として決定することが可能である。
[Depthマップに基づいて検出領域を決定する一例]
次に、図17は、検出領域決定部242が、距離算出部241からの距離情報により生成したDepthマップに基づいて、フルスキャン時の検出領域を決定する処理の詳細を示している。
検出領域決定部242は、図17左側に示されるように、距離算出部241からの距離情報に基づいて、Depthマップを生成する。
図17左側に示されるDepthマップ内の領域において、領域261-1は、カメラ21から空間範囲D1内の撮像対象までの距離(空間範囲D1に存在する撮像対象が表示される領域)を表しており、領域261-2は、カメラ21から空間範囲D2内の撮像対象までの距離(空間範囲D2に存在する撮像対象が表示される領域)を表している。
また、領域261-3は、カメラ21から空間範囲D3内の撮像対象までの距離(空間範囲D3に存在する撮像対象が表示される領域)を表しており、領域261-4は、カメラ21から空間範囲D4内の撮像対象までの距離(空間範囲D4に存在する撮像対象が表示される領域)を表している。
検出領域決定部242は、図17右側に示されるように、空間範囲D1に存在する人間の顔を検出するためのピラミッド画像43-1の検出領域を、生成したDepthマップ上の領域261-1に決定する。
また、検出領域決定部242は、空間範囲D2に存在する人間の顔を検出するためのピラミッド画像43-2の検出領域を、生成したDepthマップ上の領域261-2に決定する。
さらに、検出領域決定部242は、空間範囲D3に存在する人間の顔を検出するためのピラミッド画像43-3の検出領域を、生成したDepthマップ上の領域261-3に決定する。
また、検出領域決定部242は、空間範囲D4に存在する人間の顔を検出するためのピラミッド画像43-4の検出領域を、生成したDepthマップ上の領域261-4に決定する。
検出領域決定部242は、決定した検出領域を表す検出領域情報を、被写体検出部26に供給する。
制御部243は、カメラ21乃至カメラ位置推定部24、被写体検出部26乃至詳細情報取得部28、動体検出部121、背景更新部122、状態解析部124、距離検出部241及び検出領域決定部242を制御し、カメラ21により撮像される撮像画像のうち、数フレームに1フレームの頻度でフルスキャンを行わせ、それ以外のフレームに対してパーシャルスキャンを行わせる。
[第3の被写体検出処理の動作説明]
次に、図18のフローチャートを参照して、画像処理装置221が行う第3の被写体検出処理について説明する。
ステップS61及びステップS62において、図14のステップS31及びステップS32と同様の処理が行われる。
ステップS63において、制御部243は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行うか否かを判定する。そして、制御部243は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行わないと判定した場合、すなわち、パーシャルスキャンを行うと判定した場合、処理をステップS72に進める。
ステップS72乃至ステップS74において、図14のステップS41乃至ステップS43と同様の処理が行われる。
また、ステップS63において、制御部243は、カメラ21の撮像により撮像された撮像画像の枚数に基づいて、フルスキャンを行うと判定した場合、処理をステップS64に進める。
ステップS64乃至ステップS67において、図14のステップS34乃至ステップS37と同様の処理が行われる。
ステップS68において、距離検出部241は、レーザを撮像対象に照射し、撮像対象に照射されたレーザが反射して得られる反射光を検出する。そして、距離検出部241は、レーザを撮像対象に照射したときから、反射光を検出するまでの時間を計測し、計測した時間とレーザの速さとに基づいて、距離検出部241(画像処理装置221)から撮像対象までの距離を算出する。
距離検出部241は、算出した距離に、撮像対象の位置を対応付けた距離情報を、検出領域決定部242に供給する。
ステップS69において、検出領域決定部242は、距離算出部241からの距離情報に基づいて、撮像画像41に表示された被写体までの距離を表すDepthマップを生成する。
そして、検出領域決定部242は、生成したDepthマップに基づいて、ピラミッド画像43-1乃至43-4それぞれの検出領域を決定し、決定した検出領域を表す検出領域情報を、被写体検出部26に供給する。
なお、検出領域決定部242は、上述したように、Depthマップの他、動体検出部121からの動体領域情報や、カメラ位置推定部24からの推定結果にも基づいて、検出領域を決定することが可能である。
ステップS70、ステップS71、ステップS75、及びステップS76において、それぞれ、図14のステップS39、ステップS40、ステップS44、及びステップS45と同様の処理が行われる。
以上説明したように、第3の被写体検出処理によれば、フルスキャンが行われる場合に、例えば、検出領域決定部242は、撮像対象までの距離を表すDepthマップに基づいて、ピラミッド画像43上の領域のうちの所定の領域を、検出領域として決定するようにした。
したがって、第3の被写体検出処理によれば、フレーム毎に、ピラミッド画像43内のすべての領域を検出領域とする場合と比較して、少ない計算量で、より迅速に被写体を検出することが可能となる。
<5.変形例>
第1乃至第3の実施の形態では、フルスキャンを行う場合に、被写体検出部26が、ピラミッド画像43-1乃至43-4それぞれの検出領域に存在する顔を、すべて検出するようにしている。
しかしながら、第1乃至第3の実施の形態において、画像処理装置1(101又は221)からの距離が近い被写体ほど、検出すべき重要な被写体であることを考慮して、図19に示されるように、ピラミッド画像43-1,43-2,43-3,43-4の順序で、人間の顔を検出(空間範囲D1,D2,D3及びD4の順序で人間の顔を検出)し、所定の個数以上の顔が検出されたところで、処理を終了するようにしてもよい。
この場合、検出すべき重要な人間の顔を検出できるとともに、処理時間を短縮することが可能となる。
また、第1乃至第3の実施の形態において、被写体検出部26は、検出領域上の領域すべてを対象として顔を検出するようにしたが、すでに顔が検出された領域については、検出領域から除外したものを、最終的な検出領域に決定するようにしてもよい。
すなわち、例えば、図20に示されるように、ピラミッド画像43-1の検出領域(いまの場合、ピラミッド画像43-1すべての領域)において顔領域281を検出した場合には、ピラミッド画像43-2において顔領域281を検出領域(いまの場合、ピラミッド画像43-2すべての領域)から除外する。
そして、ピラミッド画像43-2において、他の顔領域282を検出した場合には、ピラミッド画像43-3において、顔領域281及び282を検出領域(いまの場合、ピラミッド画像43-3すべての領域)から除外するように構成することが可能である。ピラミッド画像43-4においても、顔領域281及び282が検出領域(いまの場合、ピラミッド画像43-4すべての領域)から除外される。
また、第1乃至第3の実施の形態において、被写体検出部26は、撮像画像毎に、その撮像画像に対応するピラミッド画像43内の検出領域を構成する複数の画素に順次注目し、注目している注目画素を、左上の画素とする合計4画素により構成される正方形の領域を、比較用領域として抽出するようにしている。そして、被写体検出部26は、抽出した比較用領域とテンプレートとを比較し、その比較結果に基づいて、顔の検出を行うようにしている。
しかしながら、例えば、被写体検出部26は、ピラミッド画像43に対して、注目すべき画素の個数を1/4とし、抽出する比較用領域を1/4に減らすことにより、顔の検出に要する処理時間を短縮することが可能となる。
次に、図21は、ピラミッド画像43において、テンプレートと比較される正方形の比較用領域を抽出する抽出方法の一例を説明する。
図21Aに示す検出領域301は、所定のタイミングで行われる第1のフルスキャン時の検出領域を示している。図21Bに示す検出領域302は、第1のフルスキャンの次に行われる第2のフルスキャン時の検出領域を示している。
図21Cに示す検出領域303は、第2のフルスキャンの次に行われる第3のフルスキャン時の検出領域を示している。図21Dに示す検出領域304は、第3のフルスキャンの次に行われる第4のフルスキャン時の検出領域を示している。
例えば、被写体検出部26は、第1のフルスキャン時に、ピラミッド画像43上の検出領域301(図21A)において、検出領域301を構成する複数の画素のうち、白色で示す画素を、順次、注目画素に設定する。
そして、被写体検出部26は、注目画素を左上の画素とする合計4画素により構成される正方形の比較用領域を抽出し、抽出した比較用領域とテンプレートとを比較して、その比較結果に基づいて、顔の検出を行う。
また、例えば、被写体検出部26は、第2のフルスキャン時に、ピラミッド画像43上の検出領域302(図21B)において、検出領域302を構成する複数の画素のうち、白色で示す画素を、順次、注目画素に設定する。
そして、被写体検出部26は、注目画素を左下の画素とする合計4画素により構成される正方形の比較用領域を抽出し、抽出した比較用領域とテンプレートとを比較して、その比較結果に基づいて、顔の検出を行う。
さらに、例えば、被写体検出部26は、第3のフルスキャン時に、ピラミッド画像43上の検出領域303(図21C)において、検出領域303を構成する複数の画素のうち、白色で示す画素を、順次、注目画素に設定する。
そして、被写体検出部26は、注目画素を右下の画素とする合計4画素により構成される正方形の比較用領域を抽出し、抽出した比較用領域とテンプレートとを比較して、その比較結果に基づいて、顔の検出を行う。
また、例えば、被写体検出部26は、第4のフルスキャン時に、ピラミッド画像43上の検出領域304(図21D)において、検出領域304を構成する複数の画素のうち、白色で示す画素を、順次、注目画素に設定する。
そして、被写体検出部26は、注目画素を右上の画素とする合計4画素により構成される正方形の比較用領域を抽出し、抽出した比較用領域とテンプレートとを比較して、その比較結果に基づいて、顔の検出を行う。
これにより、注目画素とされる画素数は、検出領域を構成する画素すべてを注目画素とする場合と比較して、1/4とすることができることから、抽出される比較用領域も1/4となり、処理時間を短縮することが可能となる。
また、図21に示される、比較用領域の抽出方法によれば、検出領域301乃至304それぞれから抽出される比較用領域の数は1/4となるものの、検出領域それ自体の大きさは1/4の大きさにはならず不変であるため、比較用領域の数を1/4に減らすことに起因して、顔の検出率が1/4に低下することを防止することが可能となる。
なお、図21に示される、比較用領域の抽出方法は、パーシャルスキャン時の検出領域にも適用することができる。
また、検出領域を決定する方法は、第1乃至第3の実施の形態において説明した、検出領域の決定方法に限定されず、上述した複数の決定方法のうちのいずれかを用いて、検出領域を決定するようにしてもよいし、複数の決定方法のうちの少なくとも2つ以上により、それぞれ決定される検出領域の、重複する領域部分を、最終的な検出領域に決定するようにしてもよい。
なお、第1の実施の形態では、画像処理装置1において、カメラ21及び加速度センサ23を内蔵させるようにしたが、その他、カメラ21及び加速度センサ23を内蔵させずに、画像処理装置1とは別々に構成するようにしてもよい。このことは、第2及び第3の実施の形態についても同様のことがいえる。
また、第3の実施の形態では、画像処理装置221において、距離検出部241を内蔵させるようにしたが、その他、距離検出部241を内蔵させずに、画像処理装置221とは別々に構成するようにしてもよい。
さらに、第1の被写体検出処理では、フルスキャンを行う場合には、パーシャルスキャンを行わないようにしたが、これに限定されない。すなわち、例えば、フルスキャンを行う場合にも、パーシャルスキャンを行うようにしてもよい。
この場合、第1の被写体検出処理において、パーシャルスキャンをより多く行うことになるので、詳細情報取得部28において、より多くの詳細情報を取得することができ、状態解析部29において、取得された詳細情報に基づいて、被写体の状態をより詳細に解析することが可能となる。このことは、第2及び第3の被写体検出処理においても同様のことがいえる。
<6.第4の実施の形態>
次に、図22は、画像処理装置1,101又は221と同様の処理を行う画像処理部342を有する表示制御装置321の構成例を示している。
この表示制御装置321には、複数のカメラにより構成されるカメラ群322、音声を出力するスピーカ部323、加速度センサ、角速度センサ、及びレーザレンジファインダ等により構成されるセンサ群324、番組等を表示するディスプレイ部325、並びに、表示制御装置321により収集された情報が記憶される情報収集サーバ326が接続されている。
表示制御装置321は、画像入力部341、画像処理部342、視聴状態解析部343、視聴状態記録部344、システム最適化処理部345、及びシステム制御部346により構成される。
画像入力部341は、カメラ群322からの撮像画像を、画像処理部342に供給(入力)する。
画像処理部342には、画像入力部341から撮像画像が供給されるとともに、センサ群324から、加速度センサにより検出される加速度、角速度センサにより検出される角速度、又はレーザレンジファインダにより検出される撮像対象までの距離等が供給される。
画像処理部342は、センサ群324からの加速度、角速度、又は撮像対象までの距離、画像入力部341からの撮像画像に基づいて、上述した第1乃至第3の被写体検出処理と同様の処理を行う。そして、画像処理部342は、その結果得られる被写体の状態を解析した解析結果を、視聴状態解析部343に供給する。
視聴状態解析部343は、画像処理部342からの解析結果に基づいて、ディスプレイ部325に表示される画像(番組)を視聴しているユーザ(被写体)の視聴状態を解析する。そして、視聴状態解析部343は、その解析結果を、認識データ情報として、視聴状態記録部344及びシステム最適化処理部345に供給する。
視聴状態記録部344は、視聴状態解析部343からの認識データ情報を、インターネットやLAN(local area network)等を介して、情報収集サーバ326に送信して記憶(記録)させる。また、視聴状態記録部344は、情報収集サーバ326からの認識データ情報を、インターネットやLAN等を介して受信し、システム最適化処理部345に供給する。
システム最適化処理部345は、視聴状態解析部343又は視聴状態記録部344からの認識データ情報に基づいて、ユーザの視聴状態に最適な制御を、システム制御部346に行わせる。
システム制御部346は、システム最適化処理部345の指示にしたがって、ディスプレイ部325のディスプレイの明るさ、ディスプレイ部325に表示された番組内容、スピーカ部323から出力される音声の音量等を調整する。
ところで、表示制御装置321において、視聴状態解析部343は、画像処理部342からの、被写体の状態を解析した解析結果に基づいて、ユーザの視聴状態を解析するようにしている。
したがって、画像処理部342において、被写体の状態を解析する被写体状態解析処理に多くの時間を要する場合、視聴状態解析部343は、その被写体状態解析処理が終了するまで、ユーザの視聴状態を解析することができないこととなる。
この場合、視聴状態解析部343では、被写体状態解析処理に要する時間が長いことに起因して、ユーザの視聴状態を迅速に解析することができないことが生じ得る。
そこで、例えば、画像処理部342において、被写体状態解析処理に多くの時間を要する場合には、図23に示されるように、被写体状態解析処理により得られる解析結果に先立ち、動体領域情報を視聴状態解析部343に供給するように構成することができる。
[画像処理部342の一例]
次に、図23は、被写体状態解析処理により得られる解析結果に先立ち、動体領域情報を出力する画像処理部342の一例を示している。
この画像処理部342は、第2又は第3の実施の形態における画像処理装置101又は221と同様に構成されている。
また、図23において、アプリとは、表示制御装置321のうち、画像入力部341及び視聴状態解析部343に対応するアプリケーションを示している。
画像処理部342は、例えば、図23に示されるように、時刻t1において、画像入力部341のアプリから供給される撮像画像から動体領域を検出し、検出した動体領域を、フルスキャン時の検出領域に決定する。そして、画像処理部342は、決定した検出領域から被写体の検出を行い、その検出結果に基づいて、被写体の状態を解析し、その解析結果を、時刻t3において、視聴状態解析部343のアプリに出力している。
この場合、視聴状態解析部343のアプリでは、時刻t3において、画像処理部342から解析結果が出力されるまで、ユーザの視聴状態を解析することができない。
そこで、画像処理部342は、時刻t1において、画像入力部341のアプリから供給される撮像画像から動体領域を検出した後、時刻t3よりも早い時刻t2において、検出した動体領域を表す動体領域情報を、視聴状態解析部343のアプリに出力するようにした。
これにより、視聴状態解析部343のアプリでは、画像処理部342からの動体領域情報に基づいて、ユーザの移動の可能性の有無を、ユーザの視聴状態として、いち早く解析することが可能となる。
なお、画像処理部342が、第1の実施の形態である画像処理装置1と同様の機能を有する場合には、第2及び第3の実施の形態のように、動体検出部121を設けるようにする。
そして、画像処理部342に設けられた動体検出部121において、動体領域を検出する処理を、例えば並列に行うこと等により高速化し、カメラ21乃至状態解析部29(図2)等において行われる被写体状態解析処理により出力される解析結果に先立ち、動体領域情報を出力する必要がある。
次に、上述した一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
[コンピュータの構成例]
図24は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示している。
CPU(Central Processing Unit)401は、ROM(Read Only Memory)402、又は記憶部408に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)403には、CPU401が実行するプログラムやデータなどが適宜記憶される。これらのCPU401、ROM402、及びRAM403は、バス404により相互に接続されている。
CPU401にはまた、バス404を介して入出力インタフェース405が接続されている。入出力インタフェース405には、キーボード、マウス、マイクロホンなどよりなる入力部406、ディスプレイ、スピーカなどよりなる出力部407が接続されている。CPU401は、入力部406から入力される指令に対応して各種の処理を実行する。そして、CPU401は、処理の結果を出力部407に出力する。
入出力インタフェース405に接続されている記憶部408は、例えばハードディスクからなり、CPU401が実行するプログラムや各種のデータを記憶する。通信部409は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部409を介してプログラムを取得し、記憶部408に記憶してもよい。
入出力インタフェース405に接続されているドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア411が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部408に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録する記録媒体は、図24に示されるように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(compact disc-read only memory),DVD(digital versatile disc)を含む)、光磁気ディスク(MD(mini-disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア411、又は、プログラムが一時的もしくは永続的に記録されるROM402や、記憶部408を構成するハードディスクなどにより構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデムなどのインタフェースである通信部409を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本実施の形態は、上述した第1乃至第4の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 画像処理装置, 21 カメラ, 22 ピラミッド画像生成部, 23 加速度センサ, 24 カメラ位置推定部, 25 検出領域決定部, 26 被写体検出部, 27 辞書記憶部, 28 詳細情報取得部, 29 状態解析部, 30 制御部, 101 画像処理装置, 121 動体検出部, 122 背景更新部, 123 検出領域決定部, 124 状態解析部, 125 制御部, 221 画像処理装置, 241 距離検出部, 242 検出領域決定部, 243 制御部, 321 表示制御装置, 341 画像入力部, 342 画像処理部, 343 視聴状態解析部, 344 視聴状態記録部, 345 システム最適化処理部, 346 システム制御部

Claims (20)

  1. 撮像により得られる撮像画像から、検出対象とすべき被写体を検出する画像処理装置において、
    前記撮像を行う撮像部から検出対象とすべき前記被写体までの距離に応じて予め設定された倍率により、前記撮像画像を縮小又は拡大して、前記被写体の検出に用いるピラミッド画像を生成する生成手段と、
    前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域を決定する決定手段と、
    前記検出領域から前記被写体を検出する被写体検出手段と
    を含む画像処理装置。
  2. 前記撮像部の向きを推定する推定手段をさらに含み、
    前記決定手段は、推定された前記撮像部の向きに基づいて、前記検出領域を決定する
    請求項1に記載の画像処理装置。
  3. 前記被写体の検出結果に基づいて、前記被写体の詳細情報を取得する取得手段をさらに含み、
    前記決定手段は、前記撮像部の向きが所定の方向に固定されていると推定された場合、取得された前記詳細情報に基づいて前記検出領域を決定する
    請求項2に記載の画像処理装置。
  4. 前記取得手段は、前記詳細情報として、少なくとも、前記撮像画像における前記被写体の位置を表す位置情報を取得し、
    前記決定手段は、前記位置情報に基づいて、前記被写体が存在する確率が所定の閾値以上となる前記撮像画像上の領域を、前記検出領域に決定する
    請求項3に記載の画像処理装置。
  5. 前記撮像画像上の動体を表す動体領域を検出する動体検出手段をさらに含み、
    前記決定手段は、検出された前記動体領域を前記検出領域に決定する
    請求項1に記載の画像処理装置。
  6. 前記動体検出手段は、前記撮像画像を構成する領域のうち、前記被写体検出手段により検出された前記被写体を含む被写体周辺領域と、前記被写体周辺領域以外の領域とで、前記動体領域を検出するために用いる動体閾値を異なる値に設定する
    請求項5に記載の画像処理装置。
  7. 前記動体検出手段は、1フレーム分だけ異なる撮像画像どうしの差分絶対値が、前記動体領域を検出するために用いる動体閾値以上であるか否かに基づいて前記動体領域を検出する場合、前記撮像画像どうしが撮像された時刻の差に応じて前記動体閾値を変更する
    請求項5に記載の画像処理装置。
  8. 前記動体検出手段が、前記撮像画像と、前記被写体が撮像されていない背景のみの背景画像との差分絶対値に基づいて前記動体領域を検出する場合、
    前記背景画像を構成する領域のうち、前記撮像画像上の背景部分に対応する領域と、前記撮像画像上の背景部分以外の部分に対応する領域とで異なる背景更新処理を行う更新手段をさらに含む
    請求項5に記載の画像処理装置。
  9. 前記被写体検出手段により前記被写体が検出される前に、前記動体検出手段により検出された前記動体領域を表す動体領域情報を出力する出力手段をさらに含む
    請求項5に記載の画像処理装置。
  10. 前記撮像部により撮像される撮像対象までの距離を算出する距離算出手段と、
    算出された前記距離に基づいて、前記撮像画像上の前記撮像対象それぞれの前記距離を表すDepthマップを生成するマップ生成手段と
    をさらに含み、
    前記決定手段は、前記Depthマップに基づいて、前記検出領域を決定する
    請求項1に記載の画像処理装置。
  11. 前記決定手段は、前記倍率に応じて、前記ピラミッド画像を複数の領域に分割し、前記複数の領域のうちの1つの領域を、前記検出領域に決定する
    請求項1に記載の画像処理装置。
  12. 前記被写体検出手段は、前記検出領域のうち、n(>1)画素分だけ異なる位置に存在する部分領域それぞれに前記被写体が存在するか否かに基づいて、前記部分領域から前記被写体を検出する
    請求項1に記載の画像処理装置。
  13. 前記生成手段は、それぞれ異なる倍率で、前記撮像画像を縮小又は拡大して、複数の前記ピラミッド画像を生成し、
    前記被写体検出手段は、前記複数のピラミッド画像それぞれの前記検出領域から、前記撮像部に近い被写体の順序で前記被写体を検出する
    請求項1に記載の画像処理装置。
  14. 前記被写体検出手段は、所定数の前記被写体が検出された場合、前記被写体の検出を終了する
    請求項13に記載の画像処理装置。
  15. 前記被写体検出手段は、検出済みの前記被写体が存在する領域を除外した前記検出領域から、前記被写体を検出する
    請求項13に記載の画像処理装置。
  16. 前記撮像画像上に存在する前記被写体であって、前記被写体検出手段により未検出の前記被写体を検出する場合、
    前記被写体検出手段は、所定の方向から見たときの被写体を表す第1のテンプレート画像に基づいて、前記検出領域から前記被写体を検出する
    請求項1に記載の画像処理装置。
  17. 前記撮像画像上に存在する前記被写体であって、前記被写体検出手段により検出済みの前記被写体を、前記撮像画像とは異なる他の撮像画像上から検出する場合、
    前記決定手段は、さらに、検出済みの前記被写体が存在する前記撮像画像上の位置に基づいて、前記他の撮像画像上の前記被写体の検出に用いる他のピラミッド画像の検出領域を決定し、
    前記被写体検出手段は、複数の方向から見たときの被写体それぞれを表す複数の第2のテンプレート画像に基づいて、前記他のピラミッド画像の前記検出領域から、前記被写体を検出する
    請求項16に記載の画像処理装置。
  18. 撮像により得られる撮像画像から、検出対象とすべき被写体を検出する画像処理装置の画像処理方法において、
    前記画像処理装置は、
    生成手段と、
    決定手段と、
    被写体検出手段と
    を含み、
    前記生成手段は、前記撮像を行う撮像部から検出対象とすべき前記被写体までの距離に応じて予め設定された倍率により、前記撮像画像を縮小又は拡大して、前記被写体の検出に用いるピラミッド画像を生成し、
    前記決定手段は、前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域を決定し、
    前記被写体検出手段は、前記検出領域から前記被写体を検出する
    ステップを含む画像処理方法。
  19. 撮像により得られる撮像画像から、検出対象とすべき被写体を検出する画像処理装置のコンピュータを、
    前記撮像を行う撮像部から検出対象とすべき前記被写体までの距離に応じて予め設定された倍率により、前記撮像画像を縮小又は拡大して、前記被写体の検出に用いるピラミッド画像を生成する生成手段と、
    前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域を決定する決定手段と、
    前記検出領域から前記被写体を検出する被写体検出手段と
    して機能させるためのプログラム。
  20. 撮像により得られる撮像画像から、検出対象とすべき被写体を検出し、その検出結果に基づく処理を行う電子機器において、
    前記撮像を行う撮像部から検出対象とすべき前記被写体までの距離に応じて予め設定された倍率により、前記撮像画像を縮小又は拡大して、前記被写体の検出に用いるピラミッド画像を生成する生成手段と、
    前記ピラミッド画像上の全領域の中から、前記被写体を検出するための検出領域を決定する決定手段と、
    前記検出領域から前記被写体を検出する被写体検出手段と、
    前記被写体検出手段による検出結果に基づく処理を行う処理手段と
    を含む電子機器。
JP2009202266A 2009-09-02 2009-09-02 画像処理装置、画像処理方法、プログラム及び電子機器 Withdrawn JP2011053915A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009202266A JP2011053915A (ja) 2009-09-02 2009-09-02 画像処理装置、画像処理方法、プログラム及び電子機器
US12/806,841 US20110050939A1 (en) 2009-09-02 2010-08-19 Image processing apparatus, image processing method, program, and electronic device
CN2010102701690A CN102004918A (zh) 2009-09-02 2010-08-26 图像处理设备、图像处理方法、程序以及电子器件

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009202266A JP2011053915A (ja) 2009-09-02 2009-09-02 画像処理装置、画像処理方法、プログラム及び電子機器

Publications (1)

Publication Number Publication Date
JP2011053915A true JP2011053915A (ja) 2011-03-17

Family

ID=43624349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009202266A Withdrawn JP2011053915A (ja) 2009-09-02 2009-09-02 画像処理装置、画像処理方法、プログラム及び電子機器

Country Status (3)

Country Link
US (1) US20110050939A1 (ja)
JP (1) JP2011053915A (ja)
CN (1) CN102004918A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013118484A (ja) * 2011-12-02 2013-06-13 Mitsubishi Electric Corp 表示方向制御装置、表示方向制御方法、表示方向制御プログラム、および映像表示装置
JP2014092997A (ja) * 2012-11-05 2014-05-19 Toshiba Corp 画像処理装置、方法、及びプログラム、並びに、画像表示装置
JP2014142832A (ja) * 2013-01-24 2014-08-07 Canon Inc 画像処理装置、画像処理装置の制御方法、およびプログラム
KR101623826B1 (ko) 2014-12-10 2016-05-24 주식회사 아이디스 히트맵 영상 기능을 가진 감시카메라
WO2017221644A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
WO2017221643A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
US10592729B2 (en) 2016-01-21 2020-03-17 Samsung Electronics Co., Ltd. Face detection method and apparatus
JP2021033407A (ja) * 2019-08-19 2021-03-01 Kddi株式会社 オブジェクト抽出装置、方法およびプログラム
JP2021064043A (ja) * 2019-10-10 2021-04-22 グローリー株式会社 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
JP2021157359A (ja) * 2020-03-26 2021-10-07 住友重機械工業株式会社 情報処理装置、作業機械、情報処理装置の制御方法及び制御プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965673B2 (en) * 2011-04-11 2018-05-08 Intel Corporation Method and apparatus for face detection in a frame sequence using sub-tasks and layers
US9111346B2 (en) * 2011-09-13 2015-08-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
JP5898466B2 (ja) * 2011-11-11 2016-04-06 キヤノン株式会社 撮像装置、その制御方法、及びプログラム
CN103186763B (zh) * 2011-12-28 2017-07-21 富泰华工业(深圳)有限公司 人脸识别***及方法
CN102843517B (zh) * 2012-09-04 2017-08-04 京东方科技集团股份有限公司 一种图像处理方法、装置及显示设备
JP6181925B2 (ja) * 2012-12-12 2017-08-16 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
CN105809136A (zh) * 2016-03-14 2016-07-27 中磊电子(苏州)有限公司 影像数据处理方法及影像数据处理***
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
GB2561607B (en) * 2017-04-21 2022-03-23 Sita Advanced Travel Solutions Ltd Detection System, Detection device and method therefor
JP6977624B2 (ja) * 2018-03-07 2021-12-08 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
TWI775006B (zh) * 2019-11-01 2022-08-21 財團法人工業技術研究院 擬真虛擬人臉產生方法與系統,及應用其之人臉辨識方法與系統
JP7497203B2 (ja) * 2020-05-01 2024-06-10 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711587B1 (en) * 2000-09-05 2004-03-23 Hewlett-Packard Development Company, L.P. Keyframe selection to represent a video
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
JP4338560B2 (ja) * 2003-04-14 2009-10-07 富士フイルム株式会社 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP5025893B2 (ja) * 2004-03-29 2012-09-12 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
EP1748387B1 (en) * 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium
JP4429241B2 (ja) * 2005-09-05 2010-03-10 キヤノン株式会社 画像処理装置及び方法
JP4626493B2 (ja) * 2005-11-14 2011-02-09 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP4540661B2 (ja) * 2006-02-28 2010-09-08 三洋電機株式会社 物体検出装置
CN101271514B (zh) * 2007-03-21 2012-10-10 株式会社理光 一种快速目标检测和目标输出的图像检测方法及装置
US8249359B2 (en) * 2007-04-13 2012-08-21 Panasonic Corporation Detector for detecting a predetermined image in an input image, and detection method and integrated circuit for performing the same
CN101178770B (zh) * 2007-12-11 2011-02-16 北京中星微电子有限公司 一种图像检测方法及装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013118484A (ja) * 2011-12-02 2013-06-13 Mitsubishi Electric Corp 表示方向制御装置、表示方向制御方法、表示方向制御プログラム、および映像表示装置
JP2014092997A (ja) * 2012-11-05 2014-05-19 Toshiba Corp 画像処理装置、方法、及びプログラム、並びに、画像表示装置
JP2014142832A (ja) * 2013-01-24 2014-08-07 Canon Inc 画像処理装置、画像処理装置の制御方法、およびプログラム
KR101623826B1 (ko) 2014-12-10 2016-05-24 주식회사 아이디스 히트맵 영상 기능을 가진 감시카메라
US10592729B2 (en) 2016-01-21 2020-03-17 Samsung Electronics Co., Ltd. Face detection method and apparatus
WO2017221644A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JPWO2017221643A1 (ja) * 2016-06-22 2019-04-11 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JPWO2017221644A1 (ja) * 2016-06-22 2019-04-11 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
WO2017221643A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
US10867166B2 (en) 2016-06-22 2020-12-15 Sony Corporation Image processing apparatus, image processing system, and image processing method
US11132538B2 (en) 2016-06-22 2021-09-28 Sony Corporation Image processing apparatus, image processing system, and image processing method
JP7014161B2 (ja) 2016-06-22 2022-02-15 ソニーグループ株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JP2021033407A (ja) * 2019-08-19 2021-03-01 Kddi株式会社 オブジェクト抽出装置、方法およびプログラム
JP7121708B2 (ja) 2019-08-19 2022-08-18 Kddi株式会社 オブジェクト抽出装置、方法およびプログラム
JP2021064043A (ja) * 2019-10-10 2021-04-22 グローリー株式会社 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
JP7385416B2 (ja) 2019-10-10 2023-11-22 グローリー株式会社 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
JP2021157359A (ja) * 2020-03-26 2021-10-07 住友重機械工業株式会社 情報処理装置、作業機械、情報処理装置の制御方法及び制御プログラム

Also Published As

Publication number Publication date
CN102004918A (zh) 2011-04-06
US20110050939A1 (en) 2011-03-03

Similar Documents

Publication Publication Date Title
JP2011053915A (ja) 画像処理装置、画像処理方法、プログラム及び電子機器
US11450146B2 (en) Gesture recognition method, apparatus, and device
JP6030617B2 (ja) 画像処理装置および画像処理方法
EP2344983B1 (en) Method, apparatus and computer program product for providing adaptive gesture analysis
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
JP5538160B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP5665401B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6024658B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP2011134114A (ja) パターン認識方法およびパターン認識装置
KR20140109901A (ko) 오브젝트 추적 및 프로세싱
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
JP2016085742A (ja) 前景画像分割方法及び前景画像分割装置
KR20130066438A (ko) 영상 처리 장치 및 영상 처리 방법
JP2006245677A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2016009448A (ja) 判定装置、判定方法及び判定プログラム
JP4348028B2 (ja) 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2009230704A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP2017076181A (ja) 追跡装置
JP2010262576A (ja) 対象物検出装置及びプログラム
JP2002366958A (ja) 画像認識方法および画像認識装置
KR102306319B1 (ko) 포즈 추정 매핑 데이터를 생성하는 방법, 프로그램 및 컴퓨팅 장치
JP2012068948A (ja) 顔属性推定装置およびその方法
JP2012181710A (ja) オブジェクト追跡装置、方法、及びプログラム
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106