JP5219847B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP5219847B2
JP5219847B2 JP2009003663A JP2009003663A JP5219847B2 JP 5219847 B2 JP5219847 B2 JP 5219847B2 JP 2009003663 A JP2009003663 A JP 2009003663A JP 2009003663 A JP2009003663 A JP 2009003663A JP 5219847 B2 JP5219847 B2 JP 5219847B2
Authority
JP
Japan
Prior art keywords
subject
imaging
probability distribution
image processing
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009003663A
Other languages
English (en)
Other versions
JP2010161718A (ja
Inventor
洋 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009003663A priority Critical patent/JP5219847B2/ja
Priority to US12/684,012 priority patent/US8797381B2/en
Publication of JP2010161718A publication Critical patent/JP2010161718A/ja
Application granted granted Critical
Publication of JP5219847B2 publication Critical patent/JP5219847B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は画像処理装置、画像処理方法、プログラム及び記録媒体に関し、特に、被写体を検出して撮影範囲を決定するために用いて好適な技術に関する。
従来、被写体の領域を検出し、被写体の領域の全てが収まるように撮影範囲を決定して調整する技術(以下、オートフレーミングと呼ぶ)が開示されている。例えば、特許文献1に記載の技術では、テレビ会議用のカメラにおいて、会議前の会議室を予め撮影して背景画像とし、会議を開始する時の画像との差分により、会議の参加者の位置を求め、会議の参加者全員が撮影範囲内に収まるようにズームを制御している。
また、例えば、特許文献2に記載のデジタル画像印刷システムでは、顔領域を検出し、全ての顔領域が撮影範囲内に収まるようにズームを制御している。さらに、例えば、特許文献3に記載の技術では、人が着席したことを検出して一旦撮影を行い、撮影した顔の位置が適切であるときはカメラの位置を調整した後に、撮影指示の入力待ちとなるようにしている。
特開昭60−208184号公報 特開2005−294951号公報 特開2007−189717号公報 Rowley et al, "Neural network-based face detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998 Yang et al, "Detecting Faces in Images: A Survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002
しかしながら、例えば、テレビ会議の会議を開始する直前においては、被写体となる人物が会議の準備などを行っており、カメラを十分に意識しないような状況下では、次の問題が生じる。会議を開始する直前においては被写体がカメラを意識していないため、時折、下を向いたり、横を向いたりすることがあるが、顔検出では正面を向いた顔しか検出できないため、このような場合は、未検出となる。
また、会議中においても、会議室中にある他のオブジェクトを顔として誤検出する場合もある。さらに、被写体が動いてしまった場合には、被写***置の検出が正確に行うことができなくなってしまうこともある。このような課題に対処するためには、被写体に対して動かずにじっとカメラの方を注視してもらうなど、ユーザに多くの負荷が掛かっていた。
さらに、例えばテレビ会議の場合、参加者が会議を行う場所へ来て着席するまで、参加者によって行動がまちまちであることの方が多い。従来、このような状況では、参加者の全員が着席し、全員がカメラの方を見たことを確認した後に、ユーザはオートフレーミングの開始を指示する必要があった。
本来、オートフレーミングを行うメリットとしては、その間にユーザが会議の準備を行うなど、他の作業を行うことができることである。したがって、ユーザがどのようなタイミングにオートフレーミングの開始を指示しても適切に動作することが望ましい。
そこで、特許文献3に記載の技術によれば、着席したことを検出した後にオートフレーミングを行っている。ところが、既に着席した状態でユーザによりオートフレーミングを開始する指示が行われた場合は、着席した状態が続くためオートフレーミングはいつまでも開始されないことになる。また、着席した状態であっても、カメラの方を全員が常に見ているとは限らないため、全員の位置を正しく検出できるとは限らない。
さらに、着席したことを検出する場合は、椅子が足りなくなって立っている人がいるような場合には対応できなかった。また、テレビ会議ではなく、集合写真撮影のように全員が立っていたり、前列の人は椅子に座っているが、後列の人は立っていたり、といった場合には対応できなかった。
本発明は前述の問題点に鑑み、適正な撮影範囲を簡単に決定して調整することができるようにすることを目的とする。
本発明の画像処理装置は、被写体を撮像してフレーム画像を生成する撮像手段と、前記撮像手段によって生成された所定時間分のフレーム画像に含まれる被写体領域を検出する被写体検出手段と、前記被写体検出手段より検出された所定時間分の被写体領域から、前記撮像手段により撮影可能な範囲内に被写体が存在する確率分布を算出する算出手段と、前記算出手段によって算出された確率分布に基づいて、前記フレーム画像の撮影範囲を決定する決定手段とを備えたことを特徴とする。
本発明の画像処理方法は、被写体を撮像してフレーム画像を生成する撮像工程と、前記撮像工程において生成された所定時間分のフレーム画像に含まれる被写体領域を検出する被写体検出工程と、前記被写体検出工程において検出された所定時間分の被写体領域から、前記撮像工程において撮影可能な範囲内に被写体が存在する確率分布を算出する算出工程と、前記算出工程において算出された確率分布に基づいて、前記フレーム画像の撮影範囲を決定する決定工程とを備えたことを特徴とする。
本発明のプログラムは、被写体を撮像してフレーム画像を生成する撮像工程と、前記撮像工程において生成された所定時間分のフレーム画像に含まれる被写体領域を検出する被写体検出工程と、前記被写体検出工程において検出された所定時間分の被写体領域から、前記撮像工程において撮影可能な範囲内に被写体が存在する確率分布を算出する算出工程と、前記算出工程において算出された確率分布に基づいて、前記フレーム画像の撮影範囲を決定する決定工程とをコンピュータに実行させることを特徴とする。
本発明の記録媒体は、前記に記載のプログラムを記録したことを特徴とする。
本発明によれば、一時的に未検出であったり誤検出が生じたり、もしくは被写体の動きが生じても、ユーザに対する負荷を軽減し、適正な撮影範囲を簡単に決定して調整することが可能となる。
(第1の実施形態)
以下、添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、以下、本発明の画像処理装置をテレビ会議に適用した場合について説明する。
図1は、本実施形態に係る画像処理装置100の機能構成例を示すブロック図である。
図1において、撮像部101は、映像データを入力するためのものである。画像取得部102は、撮像部101に入力された映像データよりフレーム画像を取得するためのものである。撮像部101及び画像取得部102は、撮像手段として機能する。
エンコーダ部103は、画像取得部102により得られたフレーム画像を所定の符号化方式に従って、エンコードを行うためのものである。送信部104は、エンコードされた映像ストリームを送信するためのものであり、映像ストリームがデコーダやディスプレイなどを備えた装置で受信されることにより、画像処理装置100で撮像した映像を視聴することができる。
被写体検出部105は、画像取得部102により得られたフレーム画像から被写体を検出するためのものである。被写体存在確率分布算出部106は、被写体検出部105の検出結果を集計し、各位置における被写体の存在する確率分布を算出するためのものである。撮影範囲決定部107は、被写体存在確率分布算出部106において算出された被写体の存在する確率分布に基づいて、被写体が全て収まるような範囲を決定するためのものである。
制御パラメータ生成部108は、撮影範囲決定部107において決定された撮影範囲に基づいて、撮像部101の制御パラメータ(ズーム位置)を決定するためのものである。また、ズーム制御部109は、前記制御パラメータ(ズーム位置)に基づいて、撮像部101をズーム制御するためのものである。
次に、本実施形態における処理の流れについて、図3の動作概要図と図4のフローチャートとを参照しながら説明する。図3は、会議室の様子を示す概略図である。
図3(a)において、会議室301には、会議参加者302,303と本実施形態に係る画像処理装置304とがあり、それ以外には映像を映し出すディスプレイやテーブルなどがある。
まず、テレビ会議を開始する前に、図3(a)に示すように、ユーザにより画像処理装置304が、通信相手と目線が合うようにディスプレイの側などに設置される。その後、画像処理装置304の電源がONにされると、図4のフローチャートに従って動作するものとする。
まず、ステップS401は終了判定であり、電源OFFの指示があるまでステップS402からステップS411の処理を繰り返す。
次に、ステップS402において、画像取得部102は、撮像部101へ入力された映像をフレーム画像として取得する。そして、エンコーダ部103は、フレーム画像をMPEG−1、MPEG−2、Motion−JPEGなどの形式にエンコードし、送信部104により映像ストリームとして送信する。
次に、ステップS403において、画像取得部102は、現在の設定がカメラ設定アシストモードであるかどうかを判定する。この判定の結果、現在の設定がカメラ設定アシストモードでない場合は、ステップS401に戻る。ここでカメラ設定アシストモードとは、カメラの前に存在する被写体全てが収まるように撮像範囲を自動的に調整(フレーミング)するためのモードである。カメラ設定アシストモードには、電源投入時に自動的に移行するようにしてもよいし、ユーザのボタン(図示せず)操作によって任意のタイミングで移行するようにしてもよい。
なお、図3に明示していないが、カメラ設定アシストモードに移行した時は、広角側(Wide端)へ制御されるものとする。図3(a)に示す画角305は、このときの画角を示しており、このときのフレーム画像306は、人物が小さく写ったものとなっている。
以下、ステップS404からステップS409までが、カメラ設定アシストモードにおける動作となる。ステップS403の判定の結果、現在の設定がカメラ設定アシストモードである場合には、ステップS404において、被写体検出部105は、フレーム画像から被写体を検出する。なお、被写体の検出方法には様々なものがあるが、本実施形態では、被写体の顔を検出するものとして説明する。また、顔検出の詳細については、後述する。
次に、ステップS405において、被写体存在確率分布算出部106は、検出された被写体の数をフレーム内の位置ごとにカウントして集計する。そして、位置に対する被写体の検出数に関するヒストグラムを作成する。
次に、ステップS406において、被写体存在確率分布算出部106は、所定時間が経過したか否かを判定する。この判定の結果、所定時間が経過した場合は、ステップS407へ進む。一方、ステップS406の判定の結果、所定時間が経過していない場合は、ステップS401へ戻る。
次に、ステップS407において、被写体存在確率分布算出部106は被写***置存在確率分布を算出し、算出した被写***置存在確率から、被写体の存在する確率の高い領域を求める。なお、被写体の存在する確率の高い領域を求める処理の詳細については後述する。次に、ステップS408において、撮影範囲決定部107は、例えば図3(a)に示すように、被写体の撮影する範囲307を決定する。
次に、ステップS409において、制御パラメータ生成部108は、被写体が存在する範囲がフレーム一杯になるように制御パラメータ(ズーム位置=焦点距離)を決定する。このとき、被写体が存在する範囲の面積を何倍すればフレームの面積と同一となるかを計算すればよい。そして、この計算結果から焦点距離に換算する。例えば、Wide端で10mmのレンズで2倍とするためには、20mmとすればよい。
次に、ステップS410において、ズーム制御部109は、前記決定したズーム位置に基づいて撮像部101を制御し、ズームする。このとき、図3(b)に示すような画角308となる。そして、ステップS411において、カメラ設定アシストが完了したので、ズーム制御部109は、カメラ設定アシストモードをOFFにして、ステップS401へ戻る。
次に、顔検出処理の詳細について説明する。本実施形態では、非特許文献1で提案されているニューラル・ネットワークにより画像中の顔パターンを検出する方法を適用した場合について説明する。
まず、顔検出の対象となる画像データをメモリから読み出し、読み出した画像から、顔と照合する所定の領域を切り出す。そして、切り出した領域の画素値の分布から、ニューラル・ネットワークによって演算を行う。このとき、ニューラル・ネットワークの重み、閾値は、膨大な顔パターンと非顔パターンとによりあらかじめ学習されており、例えば、ニューラル・ネットワークによる演算結果が0以上なら顔と判別し、それ以外は非顔であると判別する。
そして、顔と照合する画像パターンの切り出し領域の位置を、例えば、図7に示すように画像全域から縦横順次に走査していくことにより、画像の中から顔を検出する。また、様々な大きさの顔の検出に対応するため、図7に示すように読み出した画像を所定の割合で順次縮小し、それに対して前述した顔検出の走査を行うようにしている。なお、画像の中から顔を検出する方法としては、前述したニューラル・ネットワークによる方法に限定されるものではなく、例えば、非特許文献2に挙げられている各種方式も適用可能である。
次に、被写体存在確率分布を算出し、被写***置を決定するまで処理(図4のステップS405からステップS407までの一連の処理)の詳細について説明する。なお、被写体存在確率分布を算出する処理については、フレーム画像は2次元であるが、説明を簡単にするために水平方向の1次元で説明する。
まず、図6を参照しながら被写体存在確率分布の概要を説明する。図6は、本実施形態における被写体存在確率分布の一例を示す図である。図6において、横軸はフレーム内の水平方向の位置を示しており、縦軸は所定時間内に顔検出された数を示している。
第1のピーク601は、被写体が動いていたために山が広がった形状となっており、第2のピーク602では、被写体が静止していたため山の形状がやや細くなっている。さらに、第3のピーク603では、誤検出が発生したため小さな山の形状となっている。このように被写体がフレーム内の位置に存在する確率の分布について、そのピークを求めることによって、被写体が実際に存在している確率の高い位置を求める。
次に、算出処理の詳細について説明する。図5は、顔検出の結果からヒストグラムを作成する概要を示す図である。図5においては、フレーム画像501内で、所定の時間内に5回顔検出を行った結果を重ね描きして示しており、10個の顔領域が検出されている。図5に示す例では、被写体は2人であり、顔領域群502では、被写体が動いてしまったために、5つの顔領域が少しずつずれた領域となっている。一方、顔領域503では、被写体がほとんど動いておらず、5回顔検出を行っているが、1回は未検出となったために4個の顔領域として検出されている。また、顔領域511は、誤検出したものを示している。
また、図5に示すように、ヒストグラムを作成するために、フレーム画像の水平方向の辺を、所定のビンに分割する。各ビンのなかで、顔領域の中心を含む場合は、1とカウントする。このように計算することにより、図5に示すようなヒストグラム506が作成される。なお、図5に示す例では、顔領域の大きさは全て等しいが、大きさの異なるものが存在する場合は、顔領域の大きさごとにヒストグラムを求めるようにしておく。これにより、後述する撮影範囲を決定する時に、適正な撮影範囲の決定が可能になる。
次に、ヒストグラムの各ビンの度数を、顔検出を行った回数(図5に示す例では5回)で割ることによって、ビンの中の顔領域(の中心)が存在する確率を求めることができる。そして、このように算出した被写体存在確率分布より、被写体の存在する確率の高いピークを抽出する。まず、各ビンに対応する被写体存在確率の値を加算して積分し、閾値以上となるところを探す。このとき、存在確率は1に近いほど高い確率となるので、閾値としては1に近い値(例えば、0.8)を用いる。ただし、顔検出を行った時間が長ければ長いほど、被写体は様々な状態を取りうる。例えば、顔の向きが正面から変化して検出できない状態も多くなる。このような場合は、閾値はやや小さい値とした方が適切である。
なお、被写体存在確率分布の値を加算できるビン数(ピーク幅)は所定値以内とする。これは、なだらかな山をピークと誤検出しないようにするためである。また、より厳密に顔検出を行いたい場合は、ピーク幅(ビン数)とピーク値(着目するビン内の存在確率の最大値)との関係を定義しておけばよい。なお、ピークを抽出する方法については前述したものに限ったものではなく、ガウス近似を用いるなど様々な方法が適用可能である。以上のような方法により、図5において、第1のピーク507及び第2のピーク508が抽出される。
次に、ステップS408において、被写体の存在する確率の高い領域を全て含むように撮影範囲を決定する処理の詳細について説明する。図12は、撮影範囲を決定する方法の概要を説明する図である。
図12において、第1の斜線部1202及び第2の斜線部1203は、顔領域の中心の被写体存在確率の高い領域である。図12においては、縦方向と横方向とのピーク幅を辺とする矩形で示している。なお、第1の斜線部1202及び第2の斜線部1203は顔領域のサイズが互いに異なり、それぞれサイズごとの被写体存在確率分布から求めた被写体存在確率の高い領域である。それぞれに対応するサイズの顔領域を描くと、それぞれ第1の領域1204及び第2の領域1205となる。
なお、第1の領域1204の中心は、第1の斜線部1202に含まれていればよく、第2の領域1205の中心は、第2の斜線部1203に含まれていればよい。なお、最も簡単な方法としては、ピーク値となる第1の斜線部1202及び第2の斜線部1203の中心に、それぞれ第1の領域1204の中心及び第2の領域1205の中心を合わせればよい。
また、被写体が動いているような場合に、被写体を撮影範囲内によりもれなく収めるようにするために、次のような決定方法もある。フレーム1201を均等に2×2に分割すると、第1の斜線部1202はフレーム1201の左上に位置するので、第1の斜線部1202の左上の頂点を第1の領域1204の中心とする。一方、第2の斜線部1203は、フレーム1201の右上に位置するので、第2の斜線部1203の右上の頂点を第2の領域1205の中心とする。
以上のようにして存在する確率の高い被写体の領域が求まると、これらの第1の領域1204及び第2の領域1205が全て収まるように撮影する撮影範囲1206を決定する。決定方法としては、例えば、フレーム1201と同じ大きさ、中心、アスペクト比の矩形を、大きさのみ徐々に小さくしていく。そして、第1の領域1204または第2の領域1205のどちらかの辺が内接したところで、この矩形を撮影範囲1206として設定するようにすればよい。
なお、前記の方法ではフレームの端側に存在する被写体の領域が、必ずフレームに接するようになるので、内接させずに所定のマージンを持たせるようにしてもよい。また、図13に示すようなテンプレートを用いると、全ての被写体がバストショットとなるように撮影範囲を決定することもできる。平均的な人1301の上体のサイズと顔のサイズとの比、及び、その相対的な位置関係から、図13に示すような顔領域1302及び上体1303となるようなテンプレートを用意する。顔領域の位置とサイズとが決まったら、このテンプレートを拡大又は縮小させて適用し、上体1303を含むように撮影範囲を決定すれば、全ての被写体がバストショットで撮影できるようになる。
以上のように本実施形態によれば、同じ位置に対して所定時間連続的に被写体検出を行い、確率分布を求めることにより、確率の高い被写***置を得ることができる。これにより、一時的に未検出であったり誤検出が生じたり、もしくは被写体の動きが生じても、ユーザに対する負荷を軽減し、適正な撮影範囲を簡単に決定して調整することが可能となる。
(第2の実施形態)
本実施形態では、パン・チルト・ズーム制御を行う場合の撮影範囲の決定方法について説明する。
図2は、本実施形態に係る画像処理装置200の機能構成例を示すブロック図である。なお、図2に示す構成は、第1の実施形態の構成に、撮像部101をパン・チルトさせるためのパン・チルト制御部210が追加されたものである。図2において、第1の実施形態と同一の構成には、同じ番号を付与しており、同一の構成については説明を省略する。
図8は、本実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。なお、ステップS801からステップS803については、第1の実施形態における図4のステップS401からステップS403と同じであるため、説明は省略する。カメラ設定アシストモードの時は、ステップS804においては、顔検出を行うが、カメラが撮影可能な範囲全体を撮影するように、パン・チルトの制御中の映像に対して顔検出を行う。
図9は、本実施形態において、パン・チルト制御を行った場合のフレームの範囲の一例を示す図である。
図9において、901は本実施形態の画像処理装置200がパン・チルトして撮影可能な全範囲である。902はフレームの範囲(Wide端)を示している。
次に、ステップS805において、位置ごとに被写体の検出数をカウントし、集計するが、パンをしながら撮影すると、例えば、領域903は、図9(a)に示す状態から図9(b)に示す状態になるまでの時間分、撮影されることになる。よって、第1の実施形態と同様に所定の領域について、所定の時間だけ、顔検出されることになる。
なお、カメラの画角によっては、パン・チルトしながら全撮影範囲をラスタ状に撮影すると、はじめのラインと次のラインとで重なる部分が出てくるが、この重なる部分については他の部分に比べて長い時間顔検出を行うことになる。同一の条件にする場合には、重なりの部分に対しては、他の部分よりも小さな重みをつけるようにすればよい。また、パン・チルト制御部210により、モータ等の制約で常に同じ角速度で動かすことが難しい場合は、角速度が小さいほど長い時間、同じ位置を撮影できるので、角速度に比例するように重み付けするようにすればよい。
ステップS806からステップS807は、図4のステップS406からステップS407と同様であるため、説明は省略する。次に、ステップS808においては、ステップS408とほぼ同様であるが、第1の実施形態と異なり、パン・チルト制御が可能である。そこで、図12に示す撮影範囲1206は、中心をフレーム1201と一致させる必要がなくなる。したがって、フレーム1201と同じアスペクト比を持つ矩形を、その中心と大きさとを変化させ、第1の領域1204または第2の領域1205のいずれかの辺と接するように決定するようにすればよい。
ステップS809において、制御パラメータ生成部108は撮影範囲がフレーム一杯になるように制御パラメータとして、パン・チルトの角度とズーム位置とを決定する。そして、ステップS810において、パン・チルト制御部210は、前記のパン・チルトそれぞれの角度に応じて撮像部101を制御し、ズーム制御部109は、前記ズーム量に基づいて撮像部101を制御する。なお、ステップS811はステップS411と同じであるため説明は省略する。
以上のように本実施形態によれば、同じ位置に対して所定時間連続的に被写体検出を行い、確率分布を求めることにより、確率の高い被写***置を得ることができる。これにより、一時的に未検出であったり誤検出が生じたり、もしくは被写体の動きが生じても、ユーザに対する負荷を軽減し、適正な撮影範囲を簡単に決定して調整することが可能となる。
(第3の実施形態)
本実施形態では、ズームを制御して撮影範囲を制御するのではなく、入力されたフレーム画像を、決定した被写体存在範囲(撮影範囲)に切り出し、決定した拡大率に拡大して出力する例について説明する。
図10は、本実施形態に係る画像処理装置1000の機能構成例を示すブロック図である。なお、図10に示す構成は、第1の実施形態の構成のズーム制御部109を省略し、撮影範囲決定部107から得られる被写体存在範囲等の情報をエンコーダ部103に入力するようにしたものである。第1の実施形態と同一の構成には、同じ番号を付与しており、同一の構成については説明を省略する。
図11は、本実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。ステップS1101からステップS1107については、第1の実施形態における図4のステップS401からステップS407と同じであるため、説明は省略する。また、ステップS1108は、第2の実施形態における図8のステップS808と同じであるため、説明は省略する。
ステップS1109において、撮影範囲決定部107は、エンコーダ部103に対して、被写体存在範囲(撮影範囲)と、撮影範囲をフレーム一杯にするための拡大率とを設定する。以後、エンコーダ部103は、フレーム画像から設定された被写体存在範囲を切り出し、設定された拡大率で拡大するようにする。なお、ステップS1110は、図4のステップS411と同じであるため説明は省略する。
以上のように本実施形態によれば、同じ位置に対して所定時間連続的に被写体検出を行い、確率分布を求めることにより、確率の高い被写***置を得ることができる。これにより、一時的に未検出であったり誤検出が生じたり、もしくは被写体の動きが生じても、ユーザに対する負荷を軽減し、適正な撮影範囲を簡単に決定して調整することが可能となる。
(第4の実施形態)
本実施形態では、さらに、被写***置が安定した状態であるかどうかを判定する例について説明する。
図14は、本実施形態に係る画像処理装置1400の機能構成例を示すブロック図である。図14に示す構成は、第1の実施形態の構成に、被写体存在確率分布算出部106によって求まった被写***置が安定した状態であるかどうかを判定する被写***置状態判定部1410が追加されたものである。図14において、第1の実施形態と同一の構成には、同じ番号を付与しており、同一の構成については説明を省略する。
図16は、本実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。ステップS1601からステップS1607については、第1の実施形態における図4のステップS401からステップS407と同じであるため、説明は省略する。
次に、ステップS1608において、被写***置状態判定部1410は、ステップS1607で求めた被写***置が安定して存在しているかどうかの判定を行う。この判定の結果、被写***置が安定していない場合は、ステップS1601へ戻る。そして、安定していると判定されるまでステップS1601からステップS1607の処理が繰り返される。
このとき、ステップS1607で判定された被写***置の情報は不図示のRAMに随時保存される。具体的には、ステップS1606で設定されている所定時間ごとの被写体存在確率分布より被写体である確率の高い被写***置の情報が複数個分、RAMに保存される。これらの情報から被写***置が安定しているかどうかを判定する。
一方、ステップS1608の判定の結果、被写***置が安定している場合は、次のステップS1609に進む。なお、ステップS1609からステップS1612については、第1の実施形態における図4のステップS408からステップS411と同じであるため、説明は省略する。
次に、ステップS1608における被写***置が安定しているか否かを判定する処理について図20を参照しながら詳細に説明する。図20は、被写***置が安定しているか否かを判定する例を説明する図である。図20において、フレーム画像2001〜2004は、それぞれ所定時間(ステップS1606で設定されている時間)ごとの被写体の代表的な状態を示している。ピーク2005〜2008はそれぞれ対応する被写体存在確率分布である。なお、図20では、説明を簡略化するため水平方向の1次元で説明しており、横軸はフレーム内の水平方向の位置を示し、縦軸は所定時間内に顔検出された数を示している。
図20(a)に示す初めの2秒間のフレーム画像2001では、左側の会議参加者2010は準備などをして横を向いており、右側の会議参加者2020は前を向いて立っており、まだ着席していない状態である。図20(a)に示すピーク2005は、このときの被写体存在確率分布である。図20(b)に示す次の2秒間のフレーム画像2002では、左側の会議参加者2010は前を向いているが、右側の会議参加者2020は着席したばかりであり、準備などをして横を向いている。図20(b)に示すピーク2006は、このときの被写体存在確率分布である。
図20(c)に示すさらに次の2秒間のフレーム画像2003では、左側の会議参加者2010は準備などをして横を向いており、右側の会議参加者2020は正面を向いて、会議の開始を待っている。図20(c)に示すピーク2007は、このときの被写体存在確率分布である。図20(d)に示す最後の2秒間のフレーム画像2004では、左側の会議参加者2010及び右側の会議参加者2020の2人が正面を向いて会議の開始を待っている。図20(d)に示すピーク2008は、このとき被写体存在確率分布である。
以上のように、画像処理装置1400が起動している最後の2秒間においては、被写***置の状態判定を行わなくても、撮影範囲を正しく決定できる状態である。このように、会議開始の直前に画像処理装置1400を起動させるという条件付きである場合には、被写***置の状態判定を行わなくてもよい。
しかしながら、ユーザの負荷をより軽減するために、どのようなタイミングから画像処理装置を起動しても、正しく撮影範囲を決定できるようにする必要がある。そこで、図16のステップS1608では、所定時間ごとの被写体存在確率分布より求まった被写***置の情報をRAMに記憶しておき、これら周期的に求められた複数回分の被写***置を評価することによって、安定した被写***置であるかどうかの判定を行う。
図20に示す例では、図20(a)に示すピーク2005の位置は、ピーク2006〜2008の位置と一致しないため、被写***置が不安定なものと判定される。一方、図20(b)に示すピーク2006と図20(d)に示すピーク2008の左側とは一致している。そして、図20(c)に示すピーク2007と図20(d)に示すピーク2008の右側とは一致している。この結果、これらの2つの被写***置は安定している状態と判定できる。
次に、被写***置の状態の判定基準について説明する。単純な方法としては、所定回数分検出した被写***置が一致した回数を求め、一致した回数が閾値を超えたら安定していると判定する。図20に示す例であれば、4回分被写***置を検出し、2回以上一致した場合は安定していると判定する。
また、図20(d)に示すフレーム画像2004のように、会議を待っているような状態は、撮影範囲を決定したい最終的な状態である。このように、時間が経過するほど被写体は、最終的な位置に存在することにある。そこで、現在に近い被写***置ほど、より重みをつけて評価するようにしてもよい。これにより、例えば、長い時間、着席せずにいる会議参加者がいても、最終的に安定した被写***置を正しく判定できる。
また、時間が経過すると、被写***置の数も同じになる可能性が高くなる。図20(d)に示す例では、フレーム画像2004の状態から、さらに被写体存在確率分布を求め続けると、ピーク2008とほぼ同じものが得られることになり、被写***置も同じ結果が得られる。そこで、被写***置とその数とが同一であるときはより大きな重みをつけて評価ようにしてもよい。
以上のように本実施形態によれば、同じ位置に対して所定時間連続的に被写体検出を行い、確率分布を求めることにより、確率の高い被写***置を得ることができる。これにより、一時的に未検出であったり誤検出が生じたり、もしくは被写体の動きが生じても、ユーザに対する負荷を軽減し、適正な撮影範囲を簡単に決定して調整することが可能となる。
(第5の実施形態)
本実施形態では、被写***置が安定した状態であるかどうかを判定するとともに、パン・チルト・ズーム制御を行う場合の撮影範囲の決定方法について説明する。
図15は、本実施形態に係る画像処理装置1500の機能構成例を示すブロック図である。図15に示す構成は、第4の実施形態の構成に、第2の実施形態における図2のパン・チルト制御部210が追加されたものである。図15において、第4の実施形態と同一の構成には、同じ番号を付与しており、同一の構成については説明を省略する。
図17は、本実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。ステップS1701からステップS1703については、第1の実施形態における、図4のステップS401からステップS403と同じであるため、説明は省略する。
カメラ設定アシストモードの時は、ステップS1704においては、顔検出を行うが、カメラを撮影可能な範囲全体を撮影するように、パン・チルトの制御中の映像に対して顔検出を行う。
次に、ステップS1705において、位置ごとに被写体の検出数をカウントし、集計するが、パンをしながら撮影すると、例えば、図9における領域903は、図9(a)に示す状態から図9(b)に示す状態になるまでの時間分、撮影されることになる。よって、第4の実施形態と同様に所定の領域について、所定の時間だけ、顔検出されることになる。
なお、カメラの画角によっては、パン・チルトしながら全撮影範囲をラスタ状に撮影すると、はじめのラインと次のラインとで重なる部分が出てくるが、この重なる部分については他の部分に比べて長い時間顔検出を行うことになる。同一の条件にする場合には、重なりの部分に対しては、他の部分よりも小さな重みをつけるようにすればよい。また、パン・チルト制御部210により、モータ等の制約で常に同じ角速度で動かすことが難しい場合は、角速度が小さいほど長い時間、同じ位置を撮影できるので、角速度に比例するように重み付けするようにすればよい。
ステップS1706からステップS1707は、図4のステップS406からステップS407と同様であるため、説明は省略する。次に、ステップS1708においては、第4の実施形態における図16のステップS1608とほぼ同様であるが、第4の実施形態と異なり、パン・チルト制御が可能である。したがって、図12に示すようなフレーム1201と同じアスペクト比を持つ矩形を、その中心と大きさとを変化させ、第4の実施形態と同様に被写***置が安定しているか否かを判定すればよい。
次に、ステップS1709からステップS1711においては、第2の実施形態におけるステップS808からステップS810と同様であるため、説明を省略する。さらに、ステップS1712は、図4のステップS411と同じであるため説明は省略する。
以上のように本実施形態によれば、同じ位置に対して所定時間連続的に被写体検出を行い、確率分布を求めることにより、確率の高い被写***置を得ることができる。これにより、一時的に未検出であったり誤検出が生じたり、もしくは被写体の動きが生じても、ユーザに対する負荷を軽減し、適正な撮影範囲を簡単に決定して調整することが可能となる。
(第6の実施形態)
本実施形態では、被写***置が安定した状態であるかどうかを判定するとともに、入力されたフレーム画像を、決定した被写体存在範囲(撮影範囲)に切り出し、決定した拡大率に拡大して出力する例について説明する。
図18は、本実施形態に係る画像処理装置1800の機能構成例を示すブロック図である。図18に示す構成は、第4の実施形態の構成のズーム制御110を省略し、撮影範囲決定部107から得られる被写体存在範囲等の情報をエンコーダ部103に入力するようにしたものである。図18において、第4の実施形態と同一の構成には、同じ番号を付与しており、同一の構成については説明を省略する。
図19は、本実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。ステップS1901からステップS1908については、第4の実施形態における図16のステップS1601からステップS1608と同じであるため、説明は省略する。また、ステップS1909は、第5の実施形態における、図17のステップS1709と同じであるため、説明は省略する。
次に、ステップS1910において、撮影範囲決定部107は、エンコーダ部103に対して、被写体存在範囲(撮影範囲)と、撮影範囲をフレーム一杯にするための拡大率とを設定する。以降、エンコーダ部103は、フレーム画像から設定された被写体存在範囲を切り出し、設定された拡大率で拡大するようにする。ステップS1911は図4のステップS412と同じであるため、説明は省略する。
以上のように本実施形態によれば、同じ位置に対して所定時間連続的に被写体検出を行い、確率分布を求めることにより、確率の高い被写***置を得ることができる。これにより、一時的に未検出であったり誤検出が生じたり、もしくは被写体の動きが生じても、ユーザに対する負荷を軽減し、適正な撮影範囲を簡単に決定して調整することが可能となる。
(本発明に係る他の実施形態)
前述した実施形態では、被写体検出の対象を顔として説明したが、全身や上体などであってもよい。また、特許文献1に記載されているように、会議参加者のいない状態で撮影された会議室などの背景画像と現在のフレーム画像との差分により、動体領域を検出してもよい。なお、パン・チルト可能なカメラの場合は、はじめに全撮影可能範囲を撮影してパノラマ画像を作成し、これを背景画像として利用すればよい。
背景画像との差分により検出された動体領域を用いる場合は、検出された動体領域は任意形状であるが、例えばその重心を用いて、ステップS405と同様にヒストグラムを取り、被写体存在確率分布を求めればよい。また、撮影範囲を決定する際に動体領域のサイズが必要になるが、動体領域の外接矩形を取り、サイズをいくつかのステップに分けて、ステップごとにヒストグラムを求めるなどしておけばよい。
前述した実施形態では、図5に示すように、被写体存在確率分布を求める際のヒストグラムの取り方として、被写体(顔)領域の中心点を使用したが、これに限ったものではない。例えば、第1又は第4の実施形態の場合ならば、フレームと同じ全撮影範囲を、均等に2×2の領域に分ける。そして、左上ならば被写体領域の左上の頂点、左下ならば被写体領域の左下の頂点、右上ならば被写体領域の右上の頂点、右下ならば被写体領域の右下の頂点を中心にしてヒストグラムを取るようにしてもよい。撮影可能な範囲の決定する際には、全撮影範囲の境界に近い頂点によってなされるため、このようにヒストグラムを取る方法を変更することにより、被写体領域のサイズごとにヒストグラムを取る必要もない。
さらに、前述した実施形態では、被写体存在確率分布を横軸はフレーム内の水平方向の位置、縦軸は所定時間内に顔検出された数として、ヒストグラムを求めたが、この方法に限らず、例えば、顔検出の確からしさを示す尤度を用いてもよい。尤度はある位置における、顔らしさを示しているので、所定時間、高い値を示し続けていれば、顔が存在している確率が高いことになる。そこで、フレーム内の位置ごとに得られる尤度を所定時間分、合計し、これを時間(フレーム数)で割ることによって、被写体存在確率分布を求めてもよい。
前述した本実施形態では、被写体領域は面内回転しないものとして扱っているが、面外回転する場合は、被写体領域の外接矩形を用いるようにすればよい。また、被写体存在確率分布の全てのピークを抽出するように説明したが、フレームの端に最も近い被写体の存在が分かれば、撮影範囲を決定することができる。
そこで、まず、フレームの端に近い方からフレームの中心に向かってピークを抽出し、ピークが抽出できたら、反対の端からフレームの中心に向かってピークを抽出する。このように端に近い被写体のピークを全て検出したところで処理を中断し、撮影範囲の決定処理に移行するようにすれば、より短時間で全処理を行うことが可能になる。なお、両端の被写体がフレームに入らない場合は、フレーム画像に入るまで前記処理を続行し、中央寄りの両端のピークを用いて、撮影範囲の決定処理に移行するようにする。
前述した実施形態では、フレーム内に全ての被写体が収まるように説明しているが、収まりきらない場合であっても、もちろん適用可能である。例えば、被写体の数が最大となるように撮影範囲を設定したり、最も左端にいる被写体が、フレームの左端にくるように撮影範囲を設定したりすることも可能である。或いは、両端に位置する被写体の中間の位置が、フレームの中央になるように撮影範囲を設定したりすることも可能であり、このように、所定の条件を設け、その条件に合うようにフレーミングすることも可能である。このとき、撮影範囲から外れた被写体が、左右で何人いるかについて別途確認できるようにすればユーザは容易に把握することが可能となる。
また、第2及び第5の実施形態においては、全撮影範囲を撮影する例について説明したが、テレビ会議では通常、通信相手と目線が会うようにカメラを設置することが想定される。そこで、まずは、パンのみを行い水平方向の全撮影範囲を撮影し、被写体が全く検出できなかったときのみチルトを行う。そして、再びパンをして水平方向の全撮影範囲を撮影し、被写体が検出できるようになるまで以上の処理を繰り返すように制御してもよい。
さらに、第2及び第5の実施形態において、ステップS804(ステップS1704)においてパン・チルト制御中の映像に対して顔検出を行った。一方、撮影可能な全範囲を、例えば、Wide端のフレームの範囲に分割する。そして、この分割された範囲それぞれについて順次、顔検出を行うようにしてもよい。具体的には、まず、分割された範囲においてパン・チルト制御を行い、一旦停止して撮影し、顔検出を行う。そして、再び、次の分割された範囲へパン・チルト制御を行って、繰り返すようにしてもよい。
また、第3及び第6の実施形態においては、撮影範囲決定部107がフレーム画像内の撮影範囲と拡大率とをエンコーダ部103に設定するようにした。一方、撮像部101をフレーム画像の解像度より、より広い範囲が撮影可能なCCDなどの撮像素子で構成し、画像取得部102はフレーム画像ではなく、撮像部101の撮像素子の全範囲の画像を取得するようにする。そして、撮影範囲決定部107で決定された撮影範囲を画像取得部102に設定し、以降、画像取得部102は、撮像素子の全範囲の中から設定された撮影範囲のみを取り出すようにしてもよい。もし、切り出した画像がフレームの解像度に満たなくなってしまったときは、エンコーダ部103で拡大するようにすればよい。
前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録したコンピュータ読み取り可能な記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 会議室の様子を示す概略図である。 本発明の第1の実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。 本発明の第1の実施形態において、顔検出の結果からヒストグラムを作成する概要を示す図である。 本発明の第1の実施形態における被写体存在確率分布の一例を示す図である。 顔パターンを検出する概要を説明する図である。 本発明の第2の実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。 本発明の第2の実施形態において、パン・チルト制御を行った場合のフレームの範囲の一例を示す図である。 本発明の第3の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の第3の実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。 本発明の第1の実施形態において、撮影範囲を決定する方法の概要を説明する図である。 顔領域から上体領域を決定するためのテンプレートの一例を示す図である。 本発明の第4の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の第5の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の第4の実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。 本発明の第5の実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。 本発明の第6の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の第6の実施形態において、オートフレーミングを行う処理手順の一例を示すフローチャートである。 本発明の第4の実施形態において、被写***置が安定しているか否かを判定する例を説明する図である。
100 画像処理装置
101 撮像部
102 画像取得部
103 エンコーダ部
104 送信部
105 被写体検出部
106 被写体存在確率分布算出部
107 撮影範囲決定部
108 制御パラメータ生成部
109 ズーム制御部

Claims (15)

  1. 被写体を撮像してフレーム画像を生成する撮像手段と、
    前記撮像手段によって生成された所定時間分のフレーム画像に含まれる被写体領域を検出する被写体検出手段と、
    前記被写体検出手段より検出された所定時間分の被写体領域から、前記撮像手段により撮影可能な範囲内に被写体が存在する確率分布を算出する算出手段と、
    前記算出手段によって算出された確率分布に基づいて、前記フレーム画像の撮影範囲を決定する決定手段とを備えたことを特徴とする画像処理装置。
  2. 前記決定手段によって決定された撮影範囲で構成されるフレーム画像を送信する送信手段をさらに備えたことを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段によって決定された撮影範囲のフレーム画像を生成するように前記撮像手段を制御する制御手段をさらに備えたことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記制御手段は、パン・チルト・ズーム制御によって前記撮像手段を制御することを特徴とする請求項3に記載の画像処理装置。
  5. 前記算出手段は、前記被写体検出手段によって検出された所定時間分の被写体領域について、前記被写体領域を代表する各位置における検出数のヒストグラムを生成することによって前記被写体が存在する確率分布を算出することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記算出手段は、前記被写体検出手段によって検出された被写体領域のサイズごとにヒストグラムを生成することによって前記被写体が存在する確率分布を算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記算出手段は、前記被写体検出手段によって検出された被写体領域の位置に応じて、前記被写体領域を代表する位置を変更することを特徴とする請求項5に記載の画像処理装置。
  8. 前記算出手段は、前記被写体検出手段による所定時間分の被写体検出の尤度を、撮影可能な範囲内の位置ごとに合計することによって前記被写体が存在する確率分布を算出することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  9. 前記決定手段は、前記被写体が存在する確率分布のピークを抽出し、前記抽出したピークを基に撮影範囲を決定することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  10. 前記決定手段は、前記被写体が存在する確率分布のピークを抽出し、前記抽出したピークが所定の条件を満たすように撮影範囲を決定することを特徴とする請求項9に記載の画像処理装置。
  11. 前記決定手段は、前記被写体が存在する確率分布のピークを前記フレーム画像の両端から中心に向かって抽出することを特徴とする請求項9に記載の画像処理装置。
  12. 前記被写体が存在する確率分布より求めたピークの状態を判定する判定手段をさらに備え、
    前記決定手段は、前記判定手段によって安定していると判定されたピークを基に撮影範囲を決定することを特徴とする請求項9〜11の何れか1項に記載の画像処理装置。
  13. 被写体を撮像してフレーム画像を生成する撮像工程と、
    前記撮像工程において生成された所定時間分のフレーム画像に含まれる被写体領域を検出する被写体検出工程と、
    前記被写体検出工程において検出された所定時間分の被写体領域から、前記撮像工程において撮影可能な範囲内に被写体が存在する確率分布を算出する算出工程と、
    前記算出工程において算出された確率分布に基づいて、前記フレーム画像の撮影範囲を決定する決定工程とを備えたことを特徴とする画像処理方法。
  14. 被写体を撮像してフレーム画像を生成する撮像工程と、
    前記撮像工程において生成された所定時間分のフレーム画像に含まれる被写体領域を検出する被写体検出工程と、
    前記被写体検出工程において検出された所定時間分の被写体領域から、前記撮像工程において撮影可能な範囲内に被写体が存在する確率分布を算出する算出工程と、
    前記算出工程において算出された確率分布に基づいて、前記フレーム画像の撮影範囲を決定する決定工程とをコンピュータに実行させることを特徴とするプログラム。
  15. 請求項14に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2009003663A 2009-01-09 2009-01-09 画像処理装置及び画像処理方法 Active JP5219847B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009003663A JP5219847B2 (ja) 2009-01-09 2009-01-09 画像処理装置及び画像処理方法
US12/684,012 US8797381B2 (en) 2009-01-09 2010-01-07 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009003663A JP5219847B2 (ja) 2009-01-09 2009-01-09 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2010161718A JP2010161718A (ja) 2010-07-22
JP5219847B2 true JP5219847B2 (ja) 2013-06-26

Family

ID=42318765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009003663A Active JP5219847B2 (ja) 2009-01-09 2009-01-09 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US8797381B2 (ja)
JP (1) JP5219847B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5219847B2 (ja) * 2009-01-09 2013-06-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP5565041B2 (ja) * 2010-03-30 2014-08-06 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102611872B (zh) * 2011-01-19 2014-07-02 株式会社理光 基于感兴趣区域动态检测的场景影像转换***和方法
US8767586B2 (en) 2011-06-20 2014-07-01 At&T Intellectual Property I, L.P. Methods, systems, and products for network topology
JP5864938B2 (ja) * 2011-07-25 2016-02-17 キヤノン株式会社 撮像装置及びその制御方法
WO2013114862A1 (ja) * 2012-01-30 2013-08-08 パナソニック株式会社 最適カメラ設定装置及び最適カメラ設定方法
JP6184271B2 (ja) 2013-09-19 2017-08-23 キヤノン株式会社 撮像管理装置、撮像管理システムの制御方法およびプログラム
US9210377B2 (en) 2013-10-30 2015-12-08 At&T Intellectual Property I, L.P. Methods, systems, and products for telepresence visualizations
US10075656B2 (en) 2013-10-30 2018-09-11 At&T Intellectual Property I, L.P. Methods, systems, and products for telepresence visualizations
US9344673B1 (en) * 2014-03-14 2016-05-17 Brian K. Buchheit Enhancing a camera oriented user interface via an eye focus guide
US9307200B2 (en) * 2014-04-10 2016-04-05 Cisco Technology, Inc. Use of face and motion detection for best view framing in video conference endpoint
JP6624877B2 (ja) * 2015-10-15 2019-12-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR101815176B1 (ko) 2016-06-03 2018-01-05 주식회사 하이퍼커넥트 중개 방법, 장치 및 시스템
US10891502B1 (en) * 2017-01-19 2021-01-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for alleviating driver distractions
US10699148B2 (en) 2017-08-21 2020-06-30 Lifesize, Inc. Dynamic calibration of detection system for active areas of interest within video data
KR102293416B1 (ko) * 2017-11-02 2021-08-26 주식회사 하이퍼커넥트 통신 장치, 서버 및 그것의 통신 방법

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60208184A (ja) * 1984-03-30 1985-10-19 Nec Corp テレビ会議装置
US5033378A (en) * 1988-01-05 1991-07-23 Komori Corporation Defective print detecting device
US5448610A (en) * 1993-02-09 1995-09-05 Hitachi Medical Corporation Digital X-ray photography device
US6055041A (en) * 1997-05-01 2000-04-25 Canon Kabushiki Kaisha Distance measuring apparatus
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6226409B1 (en) * 1998-11-03 2001-05-01 Compaq Computer Corporation Multiple mode probability density estimation with application to sequential markovian decision processes
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3750512B2 (ja) * 2000-10-12 2006-03-01 日産自動車株式会社 車両用周辺障害物検出装置
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US7197165B2 (en) * 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
US20040052418A1 (en) * 2002-04-05 2004-03-18 Bruno Delean Method and apparatus for probabilistic image analysis
JP4272882B2 (ja) * 2002-10-09 2009-06-03 キヤノン株式会社 撮像装置,その撮像方法,その撮像方法を動作させるためのプログラム,およびそのプログラムを記憶した記憶媒体
JP4307934B2 (ja) * 2003-08-13 2009-08-05 株式会社トプコン 画像補正機能付撮影装置及び方法、並びに撮影装置及び方法
JP4286702B2 (ja) 2004-03-31 2009-07-01 パナソニック株式会社 画像印刷システム、装置および画像印刷方法
WO2006028180A1 (ja) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. カメラ及びカメラ装置
JP4766302B2 (ja) * 2005-03-22 2011-09-07 オムロン株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2006317191A (ja) * 2005-05-10 2006-11-24 Konica Minolta Opto Inc 位置検出装置、電子機器
JP4193812B2 (ja) * 2005-05-13 2008-12-10 カシオ計算機株式会社 撮像装置、撮像方法及びそのプログラム
JP4372051B2 (ja) * 2005-06-13 2009-11-25 株式会社東芝 手形状認識装置及びその方法
DE112006001864T5 (de) * 2005-07-14 2008-06-05 GM Global Technology Operations, Inc., Detroit System zur Beobachtung der Fahrzeugumgebung aus einer entfernten Perspektive
WO2007032082A1 (ja) * 2005-09-16 2007-03-22 Fujitsu Limited 画像処理方法及び画像処理装置
JP4644883B2 (ja) * 2006-02-27 2011-03-09 富士フイルム株式会社 撮像装置
JP4463792B2 (ja) * 2006-09-29 2010-05-19 富士フイルム株式会社 撮影装置
JP4800163B2 (ja) * 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
US7532111B2 (en) * 2006-11-27 2009-05-12 Larue Daniel V System and method for graphically displaying a coin toss
JP4810416B2 (ja) * 2006-12-19 2011-11-09 Hoya株式会社 焦点調節装置を備えたカメラ
JP5192701B2 (ja) * 2007-01-30 2013-05-08 パナソニック株式会社 人体検出装置
JP5048356B2 (ja) 2007-02-13 2012-10-17 コニカミノルタエムジー株式会社 撮影装置、及び撮影方法
JP4655054B2 (ja) * 2007-02-26 2011-03-23 富士フイルム株式会社 撮像装置
US8126210B2 (en) * 2007-04-27 2012-02-28 Honda Motor Co., Ltd. Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2009031951A (ja) * 2007-07-25 2009-02-12 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US9880010B2 (en) * 2007-11-07 2018-01-30 Tomtom Global Content B.V. Method of and arrangement for mapping range sensor data on image sensor data
JP2009284270A (ja) * 2008-05-22 2009-12-03 Sony Corp 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP5106271B2 (ja) * 2008-06-27 2012-12-26 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP5219847B2 (ja) * 2009-01-09 2013-06-26 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20100177159A1 (en) 2010-07-15
US8797381B2 (en) 2014-08-05
JP2010161718A (ja) 2010-07-22

Similar Documents

Publication Publication Date Title
JP5219847B2 (ja) 画像処理装置及び画像処理方法
JP5206095B2 (ja) 構図判定装置、構図判定方法、プログラム
EP2089853B1 (en) Method and system for modeling light
JP3801137B2 (ja) 侵入物体検出装置
US8379138B2 (en) Imaging apparatus, imaging apparatus control method, and computer program
JP2009211311A (ja) 画像処理装置及び方法
WO2016187985A1 (zh) 拍摄设备、跟踪拍摄方法和***、以及计算机存储介质
JP5693094B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP4348028B2 (ja) 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP5247338B2 (ja) 画像処理装置及び画像処理方法
CN111144156A (zh) 一种图像数据处理方法和相关装置
JP2007251532A (ja) 撮像装置及び顔領域抽出方法
TW201205449A (en) Video camera and a controlling method thereof
CN107925724B (zh) 在具有相机的设备中支持摄影的技术及其设备
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP2010074399A (ja) 構図判定装置、構図判定方法、画像処理装置、画像処理方法、プログラム
JP3797839B2 (ja) 個人識別装置及び個人識別方法
JP2008160280A (ja) 撮像装置および自動撮像方法
JP7182893B2 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP6580213B1 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP5098917B2 (ja) 構図判定装置、構図判定方法、プログラム
KR20210083635A (ko) 포즈 추정 기반의 정면 영상 획득 방법 및 이를 위한 장치
JP2021105850A (ja) 画像処理装置及び方法、及び撮像装置
JP2019192155A (ja) 画像処理装置、撮影装置、画像処理方法およびプログラム
JP4846203B2 (ja) 画像領域設定装置及び画像領域設定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5219847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3