JP2011023898A - 表示装置、表示方法および集積回路 - Google Patents

表示装置、表示方法および集積回路 Download PDF

Info

Publication number
JP2011023898A
JP2011023898A JP2009166156A JP2009166156A JP2011023898A JP 2011023898 A JP2011023898 A JP 2011023898A JP 2009166156 A JP2009166156 A JP 2009166156A JP 2009166156 A JP2009166156 A JP 2009166156A JP 2011023898 A JP2011023898 A JP 2011023898A
Authority
JP
Japan
Prior art keywords
candidate
unit
image data
area
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009166156A
Other languages
English (en)
Inventor
Yoichi Sugino
陽一 杉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009166156A priority Critical patent/JP2011023898A/ja
Publication of JP2011023898A publication Critical patent/JP2011023898A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】被写体の動きの影響を受けることなく候補領域を容易に指定できる表示装置を提供する。
【解決手段】ビデオカメラ100は、検出部130と、生成部1620と、合成部1640と、操作部180と、選択部1650と、を備えている。検出部130は候補領域を画像データから検出する。生成部1620は、検出部130により検出された各候補領域を識別するための候補画像データを生成する。合成部1640は、候補画像データと画像データとが合成された合成画像データを生成する。表示部160は合成画像データを映像として表示する。操作部180は映像に表れている候補画像のうち特定の候補画像を指定する指定情報の入力を受け付ける。選択部1650は、操作部180に入力された指定情報に基づいて、操作部180を介して指定された候補画像データに対応する候補領域を基準領域として選択する。
【選択図】図3

Description

本発明は、映像を表示するための表示装置、表示方法および集積回路に関する。
ビデオカメラやデジタルカメラといった撮像装置では、往々にして動いている人物や物体を撮影する場合がある。撮像装置には映像を表示するための表示装置が搭載されており、撮影時には、この表示装置に被写体の映像がリアルタイムに映し出される。ユーザーは、表示装置に映し出された映像を見ながら、静止画または動画の撮影を行う。
一方で、映像に映し出されている人間などの被写体を候補領域として自動的に検出する技術が提案されている。この種の技術としては、例えば顔検出技術が知られている。このような技術が用いられた表示装置では、自動的に検出され候補領域のうちユーザーにとって最も興味のある被写体(以下、主被写体ともいう)に対応している領域(以下、主被写体領域ともいう)を選択できるようになっている。主被写体領域が選択されると、選択された主被写体領域を基準に、自動露出制御(AE:Auto Exposure)や自動合焦制御(AF:Auto Focus)が行われる(例えば、特許文献1を参照)。
特開2006−101186号公報
しかしながら、従来の表示装置では、自動的に検出された候補領域を直接指定して主被写体領域を決定するため、映像の中で主被写体が動いていると候補領域を指定しにくい。また、撮像装置に設けられた表示装置だけでなく、ある特定の領域を映像から選択する機能を有する装置であれば、このような課題が存在する。
本発明の課題は、被写体の動きの影響を受けることなく候補領域を容易に指定できる表示装置、表示方法および集積回路を提供することにある。
本発明に係る表示装置は、複数の画像データを映像として表示するための装置であって、検出部と、生成部と、合成部と、操作部と、選択部と、を備えている。検出部は、特定の視覚的特徴を有する少なくとも1つの候補領域を画像データから検出する。生成部は、検出部により検出された各候補領域を識別するための少なくとも1つの候補識別情報を生成する。合成部は、候補識別情報と画像データとが合成された合成画像データを生成する。表示部は合成画像データを映像として表示する。操作部は映像に表れている候補識別情報のうち特定の候補識別情報を指定する指定情報の入力を受け付ける。選択部は、操作部に入力された指定情報に基づいて、操作部を介して指定された候補識別情報に対応する候補領域を基準領域として選択する。
この表示装置では、特定の視覚的特徴を有する候補領域が検出部により画像データから検出され、検出された候補領域に対応する候補識別情報が生成部により生成される。候補識別情報が生成されると、生成された候補識別情報と画像データとが合成された合成画像データが合成部により生成され、複数の合成画像データが映像として表示部に表示される。表示部に表示された映像には、画像データだけでなく候補識別情報も表れているため、表示部に表示されている映像を通して、ユーザーは候補識別情報を視認することができる。
さらに、映像に表れている候補識別情報のうち特定の候補識別情報を指定するために、ユーザーが操作部を用いて指定情報を入力すると、入力された指定情報に基づいて、指定された候補識別情報に対応する候補領域が基準領域として選択部により選択される。
このように、この表示装置では、候補領域に対応する候補識別情報を候補領域とは別個に表示し、候補識別情報を利用して間接的に候補領域を選択することができるため、表示部に表示された候補領域が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
本発明に係る表示方法は、複数の画像データを映像として表示するための表示方法であって、検出ステップと、生成ステップと、合成ステップと、表示ステップと、操作ステップと、選択ステップと、を備えている。検出ステップでは、特定の視覚的特徴を有する少なくとも1つの候補領域が画像データから検出される。生成ステップでは、検出ステップで検出された各候補領域を識別するための少なくとも1つの候補識別情報が生成される。合成ステップでは、候補識別情報と画像データとが合成された合成画像データが生成される。表示ステップでは合成画像データが映像として表示される。操作ステップでは、映像に表れている候補識別情報のうち特定の候補識別情報を指定する指定情報の入力を受け付ける。選択ステップでは、操作部に入力された指定情報に基づいて、操作部を介して指定された候補識別情報に対応する候補領域が基準領域として選択される。
この表示方法では、特定の視覚的特徴を有する候補領域が画像データから検出され、検出された候補領域に対応する候補識別情報が生成される。候補識別情報が生成されると、生成された候補識別情報と画像データとが合成された合成画像データが生成され、複数の合成画像データが映像として表示される。示された映像には、画像データだけでなく候補識別情報も表れているため、表示されている映像を通して、ユーザーは候補識別情報を視認することができる。
さらに、映像に表れている候補識別情報のうち特定の候補識別情報を指定するために、ユーザーが操作ステップにおいて指定情報を入力すると、入力された指定情報に基づいて、指定された候補識別情報に対応する候補領域が基準領域として選択される。
このように、この表示方法では、候補領域に対応する候補識別情報を候補領域とは別個に表示し、候補識別情報を利用して間接的に候補領域を選択することができるため、表示部に表示された候補領域が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
本発明に係る集積回路は、複数の画像データを映像として表示するための集積回路であって、検出部と、生成部と、合成部と、操作部と、選択部と、を備えている。検出部は、特定の視覚的特徴を有する少なくとも1つの候補領域を画像データから検出する。生成部は、検出部により検出された各候補領域を識別するための少なくとも1つの候補識別情報を生成する。合成部は、候補識別情報と画像データとが合成された合成画像データを生成する。表示部は合成画像データを映像として表示する。操作部は映像に表れている候補識別情報のうち特定の候補識別情報を指定する指定情報の入力を受け付ける。選択部は、操作部に入力された指定情報に基づいて、操作部を介して指定された候補識別情報に対応する候補領域を基準領域として選択する。
この集積回路では、特定の視覚的特徴を有する候補領域が検出部により画像データから検出され、検出された候補領域に対応する候補識別情報が生成部により生成される。候補識別情報が生成されると、生成された候補識別情報と画像データとが合成された合成画像データが合成部により生成され、複数の合成画像データが映像として表示部に表示される。表示部に表示された映像には、画像データだけでなく候補識別情報も表れているため、表示部に表示されている映像を通して、ユーザーは候補識別情報を視認することができる。
さらに、映像に表れている候補識別情報のうち特定の候補識別情報を指定するために、ユーザーが操作部を用いて指定情報を入力すると、入力された指定情報に基づいて、指定された候補識別情報に対応する候補領域が基準領域として選択部により選択される。
このように、この集積回路では、候補領域に対応する候補識別情報を候補領域とは別個に表示し、候補識別情報を利用して間接的に候補領域を選択することができるため、表示部に表示された候補領域が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
ここで、表示装置としては、複数の画像データを映像として表示し、かつ、映像に表れる特定の領域を検出する機能を有する装置が考えられる。具体的には、表示装置としては、例えば、ビデオカメラ、デジタルカメラおよびカメラ機能を有する携帯電話などの撮像装置に搭載された表示装置が考えられ、さらに、テレビ、カーナビゲーションシステムおよびゲーム機などの電子機器に搭載された表示装置も考えられる。
また、「特定の視覚的特徴を有する候補領域」としては、例えば、人間の体の全部または一部を表す領域(例えば、顔領域)および特定の色を有する領域が考えられる。
以上のように、本発明に係る表示装置、表示方法および集積回路によれば、被写体の動きの影響を受けることなく候補領域を容易に指定できる。
ビデオカメラ100のブロック図 検出部130のブロック図 システム制御部157およびその周辺のブロック図 表示部160の表示例 顔検出処理のフローチャート 顔検出処理のフローチャート 顔検出処理のフローチャート 検出部230およびその周辺のブロック図 システム制御部257およびその周辺のブロック図 登録モードのフローチャート(第2実施形態) 顔検出処理のフローチャート(第2実施形態) 顔検出処理のフローチャート(第2実施形態) 表示部160の表示例(第2実施形態) 文字列を入力する入力画面の例(第3実施形態) 登録モードのフローチャート(第3実施形態) 表示部160の表示例(第3実施形態) 表示部160の表示例(他の実施形態)
[第1実施形態]
<ビデオカメラの概要>
図1〜図3を用いて、ビデオカメラ100について説明する。
図1はビデオカメラ100のブロック図である。図1において、破線で囲まれた範囲がビデオカメラ100(撮像装置の一例)を表す。
図1に示すように、ビデオカメラ100は、主に、光学系105と、映像信号生成ユニット70と、映像信号解析ユニット71と、システム制御部157と、光学機構制御ユニット72と、記録処理ユニット73と、表示部160と、操作部180と、バッファメモリ135と、システムバス134と、を有している。例えば、映像信号解析ユニット71、システム制御部157、光学機構制御ユニット72、記録処理ユニット73、表示部160および操作部180により、複数の画像データを映像として表示する表示装置が構成されている。
<光学系>
光学系105は、被写体の光学像を形成し、光学像を撮像素子110に導く。具体的には、光学系105は、ズームレンズ群(図示せず)と、フォーカスレンズ(図示せず)と、絞りユニット(図示せず)と、シャッターユニット(図示せず)と、を有している。
ズームレンズ群は、複数のレンズを有しており、複数のレンズ枠により光軸方向に移動可能に支持されている。複数のレンズはズーム駆動ユニット(図示せず)により光軸に沿って駆動される。被写体の光学像を変倍する際に、各レンズはズーム駆動ユニットにより光軸に沿って駆動される。フォーカスレンズは、フォーカシング(合焦状態の調整)を行うためのレンズであり、フォーカスモータ(図示せず)により駆動される。フォーカスモータはレンズ制御部170(後述)により制御される。フォーカスレンズを光軸方向に駆動することで、撮像素子110上に結像している被写体からビデオカメラ100までの距離を調整することができ、合焦状態を調整することができる。絞りユニットは、露出制御を行うためのユニットであり、露出制御部165(後述)により制御される。
<映像信号生成ユニット>
映像信号生成ユニット70は、被写体の光学像に基づいてデジタル映像信号を生成するユニットであり、撮像素子110と、A/D変換部115と、映像信号処理部120と、Y/C変換部125と、を有している。
撮像素子110は、光学系105により結像された被写体の光学像を電気信号(映像信号)に変換する。撮像素子110としては、例えばCCD(Charge Coupled Device)イメージセンサおよびCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが用いられる。A/D変換部115は、撮像素子110から出力されるアナログ映像信号をRGB形式のデジタル映像信号に変換する。
映像信号処理部120は、A/D変換部115から出力されるデジタル映像信号に、ゲイン調整処理、ノイズ除去処理、ガンマ補正処理、アパーチャ処理およびニー処理等の映像信号処理を施す。映像信号処理部120は、映像信号処理を施したデジタル映像信号を、Y/C変換部125、検出部130および画像情報抽出部132(後述)に出力する。Y/C変換部125は、映像信号処理部120により処理されたデジタル映像信号をRGB形式からY/C形式へ変換する。映像信号処理部120およびY/C変換部125から出力されるデジタル映像信号は、被写体の映像を表す情報であり、複数フレームの画像データから構成されている。
<バッファメモリ>
バッファメモリ135は、Y/C変換部125によりY/C形式に変換されたデジタル映像信号を、システムバス134を通して取得し、複数フレームの画像データ(以下、基準画像データともいう)として一時的に格納する。システム制御部157(後述)は、バッファメモリ135に格納されたデジタル映像信号に対して、表示部160(後述)で表示するのに適したサイズへ縮小処理を施す。縮小処理が施されたデジタル映像信号は、バッファメモリ135上に表示用映像信号として格納される。表示用映像信号は、複数フレームの画像データから構成されている。システム制御部157により縮小処理が施された表示用映像信号を構成する画像データを、以下、表示用画像データともいう。
<記録処理ユニット>
記録処理ユニット73は、映像信号生成ユニット70により生成されたデジタル映像信号を外部の記録媒体に保存するユニットであり、CODEC140と、記録I/F部145と、ソケット150と、を有している。CODEC140は、バッファメモリ135に格納されているY/C形式のデジタル映像信号に不可逆圧縮処理を施す。記録I/F部145は、CODEC140により不可逆圧縮処理が施されたデジタル映像信号を、システムバス134を経由して取得し、記録媒体155に記録する。ソケット150は、記録媒体155が装着可能であり、ビデオカメラ100に記録媒体155を電気的に接続する。記録媒体155としては、例えばメモリーカードが挙げられる。
<映像信号解析ユニット>
映像信号解析ユニット71は、入力された映像信号から必要な情報を取得するユニットであり、検出部130と、画像情報抽出部132と、を有している。
(1)検出部
検出部130は、映像信号処理部120から出力されるデジタル映像信号の入力を受け付け、入力されるデジタル映像信号から特定の視覚的特徴を有する候補領域を検出する。具体的には図2に示すように、検出部130は、画像処理部200と、揮発性メモリ210と、顔検出部220と、を有している。本実施形態では、候補領域は人間の顔を表す領域である。
画像処理部200は映像信号処理部120から入力されるデジタル映像信号に縮小処理を施す。より詳細には、画像処理部200はデジタル映像信号を構成する複数フレームの画像データに対して縮小処理を順次施す。画像処理部200により縮小処理が施された画像データを、以下、検出用画像データともいう。縮小処理時の縮小倍率は、基準画像データに対する表示用画像データの縮小倍率と同じであるため、検出用画像データ上の座標情報を表示用画像データ上の座標情報として利用できる。揮発性メモリ210は、画像処理部200から出力される検出用画像データを順次格納する。
顔検出部220は、揮発性メモリ210に格納された1フレームの検出用画像データから顔領域(候補領域の一例)を検出する。システム制御部157のROM(後述)には、人間の顔に関する一般的な特徴を示す基準特徴量(基準情報の一例)が予め格納されている。基準特徴量は画像に表れる顔の特徴を示すデータである。顔検出部220は、ROMから基準特徴量を取得し、順次入力される検出用画像データと基準特徴量とをパターンマッチングなどの手法で比較し、基準特徴量の条件を満たす領域を候補領域として各フレームの検出用画像データから検出する。
さらに、顔検出部220は、検出した顔領域の画像内での位置を示す座標情報および顔領域の大きさを示すサイズ情報を生成し、座標情報およびサイズ情報(以下、これらの情報を候補情報ともいう)をシステム制御部157に送信する。1フレームの検出用画像データに複数の顔領域が存在する場合、顔検出部220は、各顔領域に対応する座標情報およびサイズ情報をシステム制御部157に送信する。顔検出部220による顔領域の検出は各フレームの検出用画像データに対して行われるため、顔領域の座標情報およびサイズ情報は1フレームごとにシステム制御部157に送られる。
(2)画像情報抽出部
画像情報抽出部132は、デジタル映像信号に含まれる様々な情報を抽出する。様々な情報とは、例えば、画像上の特定領域における輝度レベル値および高域周波数成分である。画像情報抽出部132での画像処理には、自動露出制御および自動合焦制御の精度を考慮して、映像信号処理部120から入力されるデジタル映像信号を構成する縮小処理が施されていない画像データが用いられる。本実施形態では、画像上の特定領域としては、操作部180を介して選択された主被写体領域(後述)が用いられる。
抽出された輝度レベル値は自動露出制御に用いられる。具体的には、画像情報抽出部132は、順次入力される画像データから主被写体領域の輝度レベル値を算出し、輝度レベル値をシステム制御部157に出力する。
システム制御部157は、画像情報抽出部132により算出された輝度レベル値に基づき、最適な絞り値を算出し、算出した絞り値を露出制御部165に送信する。システム制御部157により算出された絞り値に基づいて、露出制御部165は光学系105の絞りユニットの開度を調整する。輝度レベル値は各フレームの画像データに対して算出される。
また、高周波数成分は「山登り方式」として知られているコントラスト検出方式の自動合焦制御に用いられる。デジタル映像信号に含まれる高域周波数成分は、合焦の度合いに応じて変化し、フォーカスレンズが合焦位置に配置されている状態で最大値を取る。光学系105に含まれるフォーカスレンズを光軸方向に移動させながら特定の領域の高域周波数成分の最大値を求めることで、その領域に焦点を合わせることができるフォーカスレンズの位置を求めることができる。
具体的には、レンズ制御部170によりフォーカスレンズが光軸方向に駆動されている間に、画像情報抽出部132は、順次入力される画像データから主被写体領域の高域周波数成分を算出し、高域周波数成分をシステム制御部157に出力する。システム制御部157は、画像情報抽出部132により算出された高域周波数成分を画像情報抽出部132から取得し、それと同時に、その高域周波数成分が算出された際のフォーカスレンズの位置情報をレンズ制御部170から取得する。
順次取得されるこれらの情報に基づいて、システム制御部157は、高域周波数成分の最大値およびその最大値に対応するフォーカスレンズの位置(合焦位置)を算出し、フォーカスレンズを合焦位置まで駆動するための制御信号を生成する。この制御信号に基づいて、レンズ制御部170はフォーカスレンズを合焦位置まで駆動し、上記の合焦動作が繰り返される。これにより、主被写体の顔領域に対して常時焦点を合わせることができる。
<光学機構制御ユニット>
光学機構制御ユニット72は、フォーカスモータとシャッターユニットと絞りユニットとを制御するユニットであり、露出制御部165と、レンズ制御部170と、を有している。
露出制御部165は、システム制御部157で算出された絞り値に基づいて光学系105に備えられた絞りユニットを駆動する。レンズ制御部170は、システム制御部157で算出されたフォーカスレンズの目標位置に基づいてフォーカスモータを制御し、フォーカスモータにより光学系105に含まれるフォーカスレンズが目標位置まで駆動される。
<表示部>
表示部160は、デジタル映像信号を表示するデバイスであり、たとえば小型のLCDパネルである。表示部160はバッファメモリ135上に格納されている表示用映像信号を映像として表示する。
後述するように、検出部130により検出された顔領域が存在する場合、表示用映像信号は、検出された顔領域に基づいて生成された候補画像と合成され、さらに、現在の動作状況を示すアイコン、記録時間および残バッテリー時間といった各種情報を示す画像と合成される。これらの画像が合成された表示用映像信号は、システムバス134を通して表示部160に送信され、表示部160により映像として表示される。
ここで、表示部160の表示例について説明する。図4に示すように、例えば、表示部160には、2人の人間(被写体)が映し出されており、両被写体の顔がそれぞれ検出部130により顔領域として検出されている。右側の被写体の顔400aは第1検出枠430aにより囲まれており、左側の被写体の顔400bは第2検出枠430bにより囲まれている。第1検出枠430aに囲まれている領域が顔400aの顔領域であり、第2検出枠430bに囲まれている領域が顔400bの顔領域である。後述するように、顔検出処理は各フレームの検出用画像データに対して行われ、かつ、被写体が移動しても顔領域が追尾されるようになっているため、第1検出枠430aおよび第2検出枠430bが被写体の動きに合わせて移動する。
さらに、画面内の下側には横長の候補表示領域410が表示されており、この候補表示領域410は画面内で静止している。候補表示領域410には4つの区画領域410a〜410d、左側操作領域420aおよび右側操作領域420bが表示されている。
区画領域410a〜410dには検出された顔領域の画像が表示される。例えば、区画領域410aには第1検出枠430a内の顔画像(右側の被写体の顔400aの画像)が表示されており、区画領域410bには第2検出枠430b内の顔画像(左側の被写体の顔400bの画像)が表示されている。検出されている顔領域が5つ以上の場合は、4つの区画領域410a〜410dでは表示しきれないため、5つのうち4つの顔画像が区画領域410a〜410dに表示され、残り1つの顔画像は表示されないが、左側操作領域420aおよび右側操作領域420bに触れることで、区画領域410a〜410dに表示されている顔画像を左右にスクロールさせることができ、表示されていない顔画像を表示させることができる。
また、第1検出枠430aおよび第2検出枠430bは、異なる視覚的特徴を有している。具体的には、第1検出枠430aは、間隔が狭い破線で描かれており、第2検出枠430bは第1検出枠430aよりも間隔が広い破線で描かれている。また、第1検出枠430aの顔画像が表示されている区画領域410aには、第1検出枠430aと同じ視覚的特徴を有する第1装飾枠411aが付加されており、第2検出枠430bの顔画像が表示されている区画領域410bには、第2検出枠430bと同じ視覚的特徴を有する第2装飾枠411bが付加されている。さらに、現在、主被写体として選択されている顔領域が明確になるように、主被写体として選択されている顔領域の検出枠および装飾枠は、例えば他の枠よりも太い線で表示されるようになっている。図4では、第2検出枠430bの顔領域が主被写体として選択されているため、第2検出枠430bおよび第2装飾枠411bが太線で表示されている。
なお、本実施形態では、顔領域(第1検出枠430aおよび第2検出枠430b)および区画領域410a〜410dは正方形であり、大きさが異なっていても相似形となっている。このため、後述するように、顔領域の画像の大きさを区画領域の大きさに合わせて簡単に調整することができる。
<操作部>
操作部180は、システム制御部157に操作情報を入力するための各種操作部材を有しており、例えば、レリーズボタン(図示せず)などの種々のボタン類、操作ダイヤルおよびタッチパネルユニットを有している。ボタン類、操作ダイヤルおよびタッチパネルユニットは、システム制御部157に電気的に接続されている。レリーズボタンは撮影開始信号をシステム制御部157に出力する。
操作部180のタッチパネルユニットは、表示部160の画面に装着されており、表示部160の画面上のタッチ位置(被接触位置の一例)を検知する。ユーザーが画面をタッチすると、タッチパネルユニットは、タッチ位置を示す指定情報を生成し、この指定情報をシステム制御部157に出力する。映像に表れている顔画像のうち特定の顔画像を指定する際、および表示されている顔画像をスクロールさせる際に、指定情報は用いられる。
<システム制御部>
システム制御部157は、ビデオカメラ100の各部を制御する。システム制御部157にはMPU(Micro Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)が搭載されている。ROMにはプログラムが格納されており、例えば、電源ON時にROMに格納されたプログラムがRAMに展開される。RAMに展開されたプログラムをMPUが逐次実行することで、システム制御部157は様々な機能を実現することができる。
具体的には図3に示すように、システム制御部157は、ROMに記憶された所定のプログラムとMPUとの協働により実現される機能ブロックとして、リスト管理部1610と、生成部1620と、合成部1640と、選択部1650と、を有している。
(1)リスト管理部
リスト管理部1610は検出部130の顔検出部220により検出された顔領域の各情報を管理する。リスト管理部1610は、顔検出部220から送信される座標情報およびサイズ情報に基づいて候補情報リストを作成および更新する。ここで、候補情報リストを作成するとは、座標情報およびサイズ情報を互いに関連付けて所定のアドレスに格納することを意味している。候補情報リストの各情報は、例えばRAM1630上に格納される。
また、リスト管理部1610は、RAM1630上に候補情報リストが存在するかどうかを判断する。RAM1630上に候補情報リストが存在しない場合、リスト管理部1610は候補情報リストを作成する。顔領域の座標情報およびサイズ情報は1フレームごとに顔検出部220からリスト管理部1610へ送られる。リスト管理部1610は候補情報リストとして格納されている座標情報およびサイズ情報を、顔検出部220から送られてきた座標情報およびサイズ情報を用いて最新の情報に更新する。
(2)生成部
生成部1620は、バッファメモリ135に格納されている表示用映像信号に基づいて、検出部130により検出された候補領域に関する候補識別情報を生成する。具体的には、生成部1620は、検出部130により検出された各顔領域の座標情報およびサイズ情報に基づいて、顔検出の対象となっている検出用画像データと取得されたタイミングが同じである表示用画像データから、各顔領域内の画像を候補画像データ(候補識別情報の一例)として抽出し、抽出した候補画像データを顔領域の座標情報およびサイズ情報と関連付けてバッファメモリ135上の所定のアドレスに格納する。各顔領域の候補画像データは1フレームごとに順次抽出される。本実施形態では、候補領域は顔領域であるため、候補画像データが表す画像(以下、候補画像という)は人間の顔の画像となっている。
また、顔領域の大きさには通常ばらつきがあるため、抽出される候補画像のサイズは顔領域ごとに異なっている場合が多い。したがって、候補画像データを座標情報およびサイズ情報と関連付ける前に、生成部1620は、予め設定されている区画領域410a〜410dの大きさと候補画像の大きさとを比較し、比較結果に基づいて候補画像の大きさを調整する。
例えば、生成部1620は、候補画像が区画領域よりも小さい場合は区画領域に合わせて候補画像データに拡大処理を施し、拡大処理が施された候補画像データを座標情報およびサイズ情報と関連付けてバッファメモリ135上の所定のアドレスに格納する。また、生成部1620は、候補画像が区画領域よりも大きい場合は区画領域に合わせて候補画像データに縮小処理を施し、縮小処理が施された候補画像データを座標情報およびサイズ情報と関連付けてバッファメモリ135上の所定のアドレスに格納する。なお、生成部1620は、候補画像が区画領域と同じ大きさの場合は、候補画像に対して縮小処理および拡大処理は行われない。
(3)合成部
合成部1640は、生成部1620により生成された候補画像データとバッファメモリ135上の表示用画像データとを合成し、両者が合成された合成画像データを生成する。より詳細には、合成部1640は、区画領域410a〜410dに候補画像を割り当て、表示部160の画面上で候補画像が特定の位置に配置されるように候補画像データと表示用画像データとを合成する。
本実施形態では、図4に示すように、表示部160の画面上で複数の候補画像が横方向に並んでいる。さらに、表示部160に表示される映像における鉛直方向下半分の領域内に候補画像が配置されている。ここで、「鉛直方向」とは、表示部160に表示されている画像内での鉛直方向を意味している。合成画像データはバッファメモリ135に格納される。このような配置により、被写体の顔が候補画像に隠れてしまうのを防止できる。
また、合成部1640は、表示部160に映像が表示されている状態で候補画像が画像データをもとに生成される画像上に重畳するように候補画像データと表示用画像データとを合成する。候補画像が表示されていない区画領域410cおよび410dは、枠のみが表示されており、バックの画像がそのまま見えるようになっている。
また、図4に示すように、表示部160の画面上で、候補画像が表示される候補表示領域410(第1表示領域の一例)の面積は、候補表示領域410以外の領域420(第2表示領域の一例)の面積よりも小さく設定されている。
さらに、候補画像データと表示用画像データとを合成する際、合成部1640は顔領域であることを示す装飾枠(装飾情報の一例)を各区画領域に付加する。図4の例では、第1検出枠430aに対応する第1装飾枠411a(第1装飾情報の一例)が区画領域410aに付加され、第2検出枠430bに対応する第2装飾枠411b(第2装飾情報の一例)が区画領域410bに付加されている。第1装飾枠411aは第1検出枠430aと同じ視覚的特徴を有しており、第2装飾枠411bは第2検出枠430bと同じ視覚的特徴を有している。具体的には、前述のように、第1検出枠430aおよび第1装飾枠411aは間隔が狭い破線で描かれており、第2検出枠430bおよび第2装飾枠411bは第1検出枠430aおよび第1装飾枠411aよりも間隔が広い破線で描かれている。
さらに、主被写体として選択されている顔領域(基準領域の一例)に付加されている検出枠および装飾枠は、他の検出枠および装飾枠と異なる視覚的特徴を有している。例えば、顔400bが主被写体として選択されている場合、図4に示すように、第2検出枠430bおよび第2装飾枠411bが第1検出枠430aおよび第1装飾枠411aよりも太い線で描かれている。
(4)選択部
選択部1650は、操作部180を介して指定された候補画像に対応する顔領域を、操作部180に入力された指定情報に基づいて、自動露出制御および自動合焦制御の基準となる主被写体領域(基準領域の一例)として選択する。具体的には、選択部1650は、操作部180を介して入力された指定情報に基づいて、指定情報が示す位置に表示されている候補画像を特定し、特定された候補画像に対応する顔領域を特定し、さらに特定された顔領域を主被写体領域として選択する。選択部1650は、指定情報に基づいて特定された候補画像に対応する顔領域の座標情報およびサイズ情報を主被写体領域の情報としてRAM1630に格納する。操作部180を介して異なる候補画像が指定されると、RAM1630に格納された主被写体領域の情報は、新しい指定情報に基づいて特定された顔領域の座標情報およびサイズ情報に置き換えられ、主被写体領域の情報が更新される。この主被写体領域の情報は、画像情報抽出部132での輝度レベル値および高域周波数成分の算出時に用いられる。
また、前述のように、システム制御部157は、画像情報抽出部132と、露出制御部165と、レンズ制御部170と、を制御することにより、主被写体領域に対する自動露出制御および自動合焦制御を行なう。具体的には、システム制御部157は選択部1650により主被写体領域として選択された顔領域の座標情報およびサイズ情報を画像情報抽出部132に通知する。画像情報抽出部132は、座標情報およびサイズ情報に基づいて、主被写体領域の輝度レベル値および高域周波数成分を算出し、算出した輝度レベル値および高域周波数成分をシステム制御部157に通知する。システム制御部157は、輝度レベル値に基づいて最適な絞り値を計算し、露出制御部165に絞り値を通知する。また、システム制御部157は、高域周波数成分に基づいて、合焦状態に対応するフォーカスレンズの位置情報を算出し、レンズ制御部170にフォーカスレンズの合焦位置を通知する。これらの情報に基づいて、自動露出制御および自動合焦制御が行われる。
<ビデオカメラの動作>
以上に述べたビデオカメラ100の動作を図5〜図7に示すフローチャートを用いて説明する。なお、図5〜図7に示すフローチャートにおいては、すでにビデオカメラ100の電源はONされており、操作部180を用いて、映像の記録が可能な録画モードに動作モードが設定されているものとする。
(1)候補画像データの生成
図5に示すように、まずステップS300では、デジタル映像信号を構成する画像データが順次検出部130および画像情報抽出部132に入力される。具体的には、光学系105を通して結像された被写体像が撮像素子110により電気信号に変換され、撮像素子110から出力されるアナログ映像信号がA/D変換部115によりデジタル映像信号に変換される。A/D変換部115から出力されるデジタル映像信号に対して、映像信号処理部120およびY/C変換部125により前述の処理が施され、処理が施されたデジタル映像信号は、複数フレームの画像データの集合体であり、各フレームの画像データはバッファメモリ135に順次格納される。
加えて、Y/C変換部125から出力されるデジタル映像信号を構成する画像データは、システム制御部157により表示部160上に表示可能なサイズへと縮小処理が施され、同じくバッファメモリ135上に表示用画像データとして順次格納される。また、検出部130内の揮発性メモリ210にも、画像処理部200により縮小処理が施された画像データが検出用画像データとして順次格納される。
ステップS310では、顔検出部220により、検出部130内の揮発性メモリ210に格納された検出用画像データに基づいて顔領域が検出される。具体的には、顔検出部220により、人間の顔の特徴を示す基準特徴量と検出用画像データとが比較され、基準特徴量の条件を満たす顔領域が候補領域として検出用画像データから検出される。検出された顔領域の座標情報およびサイズ情報が顔検出部220により算出され、座標情報およびサイズ情報が顔検出部220からシステム制御部157に出力される。
ステップS311以降の処理はシステム制御部157にて実行される。具体的には、ステップS311では、リスト管理部1610によりRAM1630に格納された候補情報リスト上で顔領域が存在するかどうかが判断される。例えば、候補情報リストが存在するとリスト管理部1610により判断された場合は、処理がステップS313へ進む。
一方、例えば録画モードへの切り替え直後は候補情報リストが存在しないため、ステップS312において、検出部130により検出用画像データから顔領域が検出されると、リスト管理部1610により候補情報リストが作成され、座標情報およびサイズ情報がRAM1630上の所定のアドレスに記憶され、処理がステップS313に移行する。
ステップS313では、検出された顔領域を追尾するために、検出用画像データから検出された顔領域の座標情報がリスト管理部1610により候補情報リスト上の各座標情報と照合される。
ここで、検出された顔領域を追尾するための処理について説明する。検出された顔領域の追尾処理は、現在のフレームの検出用画像データから検出された顔領域が、前フレームの検出用画像データから検出された顔領域と合致しているかどうかを判定することで行われる。本判定の最も単純な方法は、顔領域の座標を比較する方法である。一般的に、1秒あたり30フレームまたは60フレームの画像データが入力されるため、前フレームの画像データにおいて検出された顔領域が、現在のフレームの画像データにおいて前の顔領域よりも大きく離れた位置で検出されることは考えにくい。したがって、前フレームの検出用画像データから検出された顔領域の座標情報と現在のフレームの検出用画像データから検出された顔領域の座標情報との差分がある定められた範囲内に収まっている場合、それら2つの顔領域は同じ被写体の顔領域であると判定することができる。
このように、時系列で隣り合う2つの検出用画像データから検出された顔領域の座標情報を照合することで、動いている被写体の顔が同じ顔領域であると識別しながら顔検出処理により顔領域を追尾することができる。また、前フレームの検出用画像データから検出された顔領域と合致しない顔領域が現在のフレームの検出用画像データから検出された場合、新しく画面内に登場した(フレームインした)被写体の顔を示す顔領域であると判定することができる。さらに、前フレームの検出用画像データから検出された顔領域が現在のフレームの検出用画像データで検出されない場合、画面内から姿を消した(フレームアウトした)被写体の顔を示す顔領域であると判定することができる。
ステップS313では、リスト管理部1610により時系列で隣り合う2つの検出用画像データから検出された顔領域の照合が行われる。具体的には、ステップS310で検出された各顔領域の座標情報が候補情報リスト上に存在する各顔領域の座標情報とそれぞれ比較される。比較した結果、座標情報の差分が所定の範囲内に収まっている2つの顔領域は、同じ被写体の顔から検出された領域であると判定できるため、ステップS310で検出された最新の顔領域の座標情報およびサイズ情報が候補情報リストに登録され、候補情報リストが更新される。
さらに、ステップS320において、候補情報リストに登録されているがステップS310で検出されていない顔領域が存在する場合、その顔領域はフレームアウトした被写体の顔領域であるとリスト管理部1610により判断される。フレームアウトした顔が存在する場合は、ステップS330において、フレームアウトした被写体の顔領域に対応する各情報がリスト管理部1610により候補情報リストから削除され、処理がステップS340に進む。また、ステップS320において、フレームアウトした被写体の顔領域が存在しないとリスト管理部1610により判断された場合は、処理がステップS340に進む。
ステップS340では、ステップS310において検出された顔領域に対応する情報が候補情報リスト上に存在しない場合は、その顔領域はフレームインした新しい被写体の顔領域であるとリスト管理部1610により判断される。新しい被写体の顔領域が存在する場合は、図6に示すように、ステップS350において、リスト管理部1610により新しい被写体の顔領域の座標情報およびサイズ情報が候補情報リストに追加され、その後、処理がステップS351に進む。新しい被写体の顔領域が存在しない場合は、処理がステップS351に進む。
ステップS351では、更新された候補情報リストから各顔領域の座標情報およびサイズ情報が生成部1620により取得される。続くステップS360では、取得した座標情報およびサイズ情報に基づいて、生成部1620により各顔領域に対応する候補画像データが生成される。
具体的には図6に示すように、バッファメモリ135に格納された表示用画像データから、座標情報およびサイズ情報により特定される領域内の画像が生成部1620により候補画像データとして抽出される。さらに、ステップS1520では、抽出された候補画像データにより生成される候補画像が区画領域410a〜410dのサイズと比較される。候補画像が区画領域410a〜410dよりも小さい場合および候補画像が区画領域410a〜410dよりも大きい場合は、ステップS1530において、生成部1620によりサイズ変更が必要であると判断される。サイズ変更が必要な場合は、ステップS1540において、抽出された候補画像のサイズ変更が行われる。具体的には、候補画像が区画領域410a〜410dに比べて大きい場合は、候補画像が区画領域410a〜410d内に収まるように、サイズ情報および区画領域410a〜410dの大きさに基づいて算出された倍率で、生成部1620により候補画像データに対して縮小処理が施される。逆に、抽出された候補画像が区画領域410a〜410dに比べて小さい場合は、候補画像が区画領域410a〜410dの範囲内で最大限大きく表示されるように、サイズ情報および区画領域410a〜410dの大きさに基づいて倍率で、生成部1620により候補画像データに対して拡大処理が施される。生成部1620により生成された候補画像データは、それと対応する座標情報およびサイズ情報と関連付けられてバッファメモリ135上の所定のアドレスに記憶される。候補画像データは1フレームごとに生成され、候補画像データの更新が順次行われる。
(2)合成画像データの生成
図6に示すように、続くステップS370にて、システム制御部157により、候補画像データと、バッファメモリ135に格納された表示用画像データと、が合成された合成画像データが生成される。候補画像が画面上の特定の位置に配置されるように、合成部1640により候補画像データと画像データとが合成される。本実施形態では、候補画像が画像内の鉛直方向下側に配置されるように、合成部1640により候補画像データと画像データとが合成される。
ステップS370について詳細に説明すると、図6に示すように、ステップS1550において、合成部1640により、4つの区画領域410a〜410dに候補画像データが割り当てられる。割り当ての際、候補情報リストに登録されている順に、左の区画領域410aから候補画像データが合成部1640により割り当てられる。図4の表示例で説明すると、顔400aおよび顔400bの順で顔領域が候補情報リストに登録されている場合、顔400aの候補画像が区画領域410aに表示され、顔400bの候補画像が区画領域410bに表示される。合成部1640での割り当ての結果は、合成部1640からリスト管理部1610に送られる。具体的には、合成部1640からリスト管理部1610へ各候補画像データの表示位置情報が送られ、リスト管理部1610により表示位置情報が、対応する候補画像データと関連づけられた状態で候補情報リストに登録される。
次のステップS1560において、合成部1640により候補画像が表示用画像データに合成される。このとき、ステップS1550にて割り当てられた位置に候補画像が表示されるように、候補画像データと表示用画像データとが合成部1640により合成される。また、生成部1620により候補画像のサイズ調整が行われているため、検出された顔領域の大きさに関係なく、表示部160の画面上では、区画領域410a〜410dと同じサイズで候補画像が表示されている。
また、本実施形態では、ステップS1570において、表示部160の画面上で顔領域と候補画像との対応関係を明確にするために、合成部1640により表示用画像データに対して装飾情報が合成される。具体的には図4に示すような第1検出枠430a、第2検出枠430b、第1装飾枠411aおよび第2装飾枠411bを示す装飾データが表示用画像データに付加される。このとき、図4では省略されているが、OSD(On Screen Display)機能を実現するために、残記録可能時間およびバッテリー残量などの各アイコンも合成部1640により表示用画像データに重畳される。
次のステップS380では、合成画像データが表示部160に表示される。図4に示す表示例のように、表示部160には2人の人間が映し出されており、それぞれの顔が顔領域として検出されて、さらに候補画像が候補表示領域410に表示されている。
上記のステップS300〜S380までの処理は、各フレームの表示用画像データに対して順次実行されるため、表示部160には合成画像データにより構成される合成映像が表示される。顔検出処理は被写体の顔を追尾するように実行されるため、被写体が動いていても同じ被写体の顔を検出し続けることができる。さらに、候補画像が各フレームの表示用画像データから順次抽出されているため、検出された顔領域内の動画が各区画領域410a〜410dに表示されることになる。
(3)主被写体領域の指定
次に、AEおよびAFを行う際の基準領域として主被写体領域を選択する際の処理を図7に示すフローチャートを用いて説明する。主被写体領域の指定は、操作部180から入力された操作情報に基づき選択部1650により行われる。
具体的には図7に示すように、ステップS600では、表示部160に表示された候補画像がタッチされたかどうかが判定される。表示部160の画面がユーザーによりタッチされると、操作部180のタッチパネルユニットにより表示部160上のタッチ位置の座標情報(指定情報)が生成され、タッチ位置の座標情報が操作部180から選択部1650に通知される。ステップS601では、選択部1650により、候補情報リストに登録されている表示位置情報とタッチ位置の座標情報とが比較され、タッチ位置が含まれる表示位置情報が特定される。さらに、特定された表示位置情報と関連付けられている候補画像データが選択部1650により特定される。
続くステップS602では、特定された候補画像データに対応する顔領域が候補情報リストに基づいて選択部1650により特定される。具体的には、ステップS601において特定された候補画像データと関連付けられている顔領域が主被写体領域として選択される。続くステップS610では、例えば、候補情報リストにおいて主被写体領域として選択された顔領域にフラグが設定される。候補情報リストのフラグを参照することで、主被写体領域として選択されている顔領域を特定することができる。
一方、ステップS600において表示部160に表示された候補画像がタッチされていない場合、ステップS630に進む。ステップS630では、すでに主被写体領域が決まっているかどうかが選択部1650により判定される。具体的には、候補情報リストに主被写体領域を示すフラグが設定されていれば、主被写体領域が決定済であると選択部1650により判定され、処理がステップS640へ進む。一方、候補情報リストにフラグが設定されていなければ、主被写体領域が未決定であると選択部1650により判定され、処理がステップS650に進む。
ここで、ステップS630ですでに決定されている主被写体領域は、少なくとも現在表示されている合成画像データより前の合成画像データで決定されていた主被写体領域である。このような場合、主被写体領域が選択されてから時間が経過しているため、主被写体領域が画像内に存在しないことが懸念される。例えば、主被写体がフレームアウトしたり遮蔽物に隠れて見えなくなってしまったりする場合などが想定される。
しかし、図5に示すステップS313〜S350において、フレームインおよびフレームアウトした被写体を管理しているため、候補情報リストに設定されているフラグを確認すれば、画面内に主被写体領域が表示されているか否かを判定する必要はない。
ステップS640では、主被写体領域に対してシステム制御部157により自動合焦制御および自動露出制御が行われる。具体的には、主被写体領域の座標情報およびサイズ情報がシステム制御部157により画像情報抽出部132に送られ、主被写体領域内の画像データに基づいて自動露出制御および自動合焦制御が画像情報抽出部132、システム制御部157、レンズ制御部170および露出制御部165により実行される。
一方、ステップS630で主被写体領域が存在しないと判定されるか、あるいはステップS620で主被写体領域が画面内に存在しないと判定された場合、例えば、画面の中央の領域などの予め設定されている領域を対象として通常の自動合焦制御および自動露出制御が画像情報抽出部132、システム制御部157、レンズ制御部170および露出制御部165により実行される。
なお、ステップS650において、録画モードの終了指示の有無がシステム制御部157により確認され、録画モードの終了指示があれば処理が終了し、終了指示がなければステップS300に戻る。
また、フローでは示していないが、図4に示すように、候補表示領域410には、候補表示領域410内に表示されている候補画像を切り替えるための左側操作領域420aおよび右側操作領域420bが設けられている。ユーザーが左側操作領域420aまたは右側操作領域420bをタッチすることで、操作部180を構成するタッチパネルを通して得られたタッチ座標を元に、システム制御部157は切り替え指示領域420にあたる位置がタッチされたことを検出し、候補表示領域410に表示されている候補画像を右または左にスクロールさせることができる。この場合、左側操作領域420aおよび右側操作領域420bの操作状況に応じて、候補画像データと表示位置情報との対応関係がリスト管理部1610により更新される。
<特徴>
以上に説明したビデオカメラ100の特徴を以下にまとめる。
(1)
このビデオカメラ100では、顔領域(候補領域)が検出部130により検出用画像データから検出され、検出された候補領域に対応する候補画像データが生成部1620により生成される。候補画像データが生成されると、生成された候補画像データと表示用画像データとが合成された合成画像データが合成部1640により生成され、合成画像データが映像として表示部160に表示される。表示部160に表示された映像には、表示用画像データから生成される映像だけでなく候補画像データから生成される候補画像も映し出されているため、表示部160に表示されている映像を通して、ユーザーは各候補領域に対応する候補画像を視認することができる。
さらに、映像に表れている候補画像のうち特定の候補画像を指定するために、ユーザーが操作部180を用いて候補画像を指定すると、操作部180により指定情報が生成され、入力された指定情報に基づいて、指定された候補画像に対応する顔領域が主被写体領域として選択部1650により選択される。
このように、このビデオカメラ100では、候補領域に対応する候補画像を候補領域とは別個に表示し、表示されている候補画像を利用して間接的に候補領域を選択することができるため、表示部160に表示された被写体が動いている場合であっても、候補領域の選択操作を容易に行うことができる。
(2)
合成画像データが映像として表示部160に表示されている場合に、表示部160の画面上で候補画像が特定の位置に配置されるため、検出された候補領域とは異なり、被写体が動いている場合であっても画面上で候補画像が一定の位置で表示される。したがって、候補領域を直接指定する場合に比べて、被写体の動きの影響を受けることなく、候補画像を介して所望の候補領域を容易に指定することができる。
また、表示部160の画面上で複数の候補画像が並ぶように、合成部1640が候補画像データと表示用画像データとを合成するため、合成画像データが映像として表示部160に表示されている場合に、複数の候補画像が並んで表示されることになる。このため、複数の候補画像を確認しやすくなり、さらに操作性が高まる。
さらに、表示部160に表示されている映像内において鉛直方向下半分の領域内に候補画像が配置されているため、候補画像により映像の表示が妨げられにくくなる。
特に、人間の上半身あるいは全身を撮影する場合、人間の顔は画面上で鉛直方向の上半分に集中しやすいため、候補表示領域410を下半分の領域内に配置することで、候補画像により候補領域の表示が妨げられにくくなる。
(3)
候補画像が表示用画像データの画像と重なっているため、表示用画像データにより生成される画像を表示部160の画面上に大きく表示することができ、表示部160の画面を有効利用することができる。
また、表示部160の画面上で候補画像が表示される候補表示領域410の面積が候補表示領域410以外の領域420の面積よりも小さいため、表示部160に表示されている表示用画像データの映像を確認しやすくなる。
(4)
1つの画像データから検出された各顔領域内の画像データが生成部1620により抽出され、抽出された画像データが生成部1620により候補画像データとして設定される。このため、表示部160に表示される候補画像と顔領域との対応関係が視覚的に明確となり、顔領域の選択を容易に行うことができる。
また、区画領域410a〜410dの大きさと候補画像の大きさとが生成部1620により比較され、比較結果に基づいて候補画像の大きさが生成部1620により調整される。
具体的には、生成部1620は、候補画像が区画領域410a〜410dよりも小さい場合は区画領域410a〜410dに合わせて候補画像に拡大処理を施し、拡大処理が施された候補画像を候補識別情報として設定する。
また、生成部1620は、候補画像が区画領域410a〜410dよりも大きい場合は区画領域410a〜410dに合わせて候補画像に縮小処理を施し、縮小処理が施された候補画像を候補識別情報として設定する。
この場合、例えば、候補画像の大きさにばらつきがあっても、候補画像の大きさを区画領域410a〜410dの大きさに合わせることができる。候補画像が区画領域410a〜410dに比べて小さくても区画領域410a〜410dの大きさまで候補画像が拡大されるため、ユーザーが候補画像を確認しやすくなる。また、候補画像が区画領域410a〜410dに比べて大きくても区画領域410a〜410dの大きさまで候補画像が縮小されるため、ユーザーが候補画像を確認しやすくなる。
(5)
合成部1640が、候補画像と画像データとを合成する際、顔400aの候補領域であることを示す第1検出枠430aを顔400aの候補領域に付加し、顔400aの候補領域に対応する候補画像であることを示す第1装飾枠411aを候補画像が表示されている区画領域に付加する。このため、表示部160に表示される候補画像と候補領域との対応関係が視覚的にさらに明確となり、候補領域の選択を容易に行うことができる。
例えば、図4に示すように、第1検出枠430aが第2検出枠430bとは異なる視覚的特徴を有しており、第1装飾枠411aが第2装飾枠411bとは異なる視覚的特徴を有している。さらに、第1装飾枠411aが第1検出枠430aと実質的に同一の視覚的特徴を有しており、第2装飾枠411bが第2検出枠430bと実質的に同一の視覚的特徴を有している。これらの構成により、複数の候補領域を識別しやすくなり、さらに候補領域と候補画像との対応関係が視覚的に明確となる。したがって、表示されている候補画像を用いて候補領域を容易に選択することができる。
[第2実施形態]
第1実施形態では、検出された顔領域をすべて候補画像としているが、その変形例として、あらかじめ登録しておいた顔と合致する顔のみを顔領域と判定してもよい。なお、以下の説明では、第1実施形態と実質的に同じ機能を有する構成には同じ符号を付し、その詳細な説明は省略する。
<ビデオカメラの構成>
第2実施形態に係るビデオカメラ500では、検出された顔領域を登録しておき、登録された顔領域と同じ視覚的特徴を有する顔領域のみを検出するようになっている。
具体的には図8および図9に示すように、このビデオカメラ500は、ビデオカメラ100の構成のうち、検出部130の構成およびシステム制御部157の構成が第1実施形態と異なっており、検出部230と、システム制御部257と、を備えている。検出部230の顔検出部220は、検出用画像データから顔領域を検出する際、検出した顔領域の特徴量を算出する。この特徴量は、検出された顔領域を識別するためのデータとして用いられる。
また図8に示すように、検出部230は認識部700を有している。認識部700は、顔検出部220から顔領域の特徴量を取得し、あらかじめ揮発性メモリ210に登録済みの顔の特徴量(登録特徴量)と取得した顔の特徴量(検出特徴量)とを照合し、両者が示す顔が同一のものであるかどうかを判定する機能を有している。さらに、認識部700は、検出特徴量と一致する登録特徴量を特定し、特定した登録特徴量についての情報をリスト管理部1610へ送る。リスト管理部1610は、登録特徴量に関連付けられている登録画像データをバッファメモリ135から取得する。認識部700およびリスト管理部1610により登録情報取得部が構成されている。
図9は、第2実施形態におけるビデオカメラ500の、システム制御部257の構成を示したものである。図9に示されるように、システム制御部257は、図3と同様の機能ブロックに加え、登録部1660をさらに有している。登録部1660は、登録特徴量を認識部700を介して揮発性メモリ210に登録情報として格納し、登録画像データを登録特徴量と関連付けてバッファメモリ135上に格納する。また、登録部1660は、登録画像データとそれに対応する登録特徴量とを関連付けて、システムバス134および記録I/F部145を介して記録媒体155に登録情報として記録する。これにより、ビデオカメラ500の電源がOFFになっても登録情報が失われることはない。
<ビデオカメラの動作>
(1)顔領域の登録
被写体の登録方法について説明する。操作部180をなすモード変更ダイヤル(図示せず)を被写体の登録モードに合わせると、ビデオカメラ500が被写体の登録モードに移行する。登録モードが開始されると、被写体の映像が表示部160にリアルタイムで映し出される。このとき、第1実施形態と同様に、検出された顔領域に対応する候補画像が候補表示領域410に表示されている。
図10に示すように、ステップS800において、操作部180は、タッチパネル上のタッチ位置を検出し、区画領域410a〜410dのいずれかがタッチされたかどうかを判定する。表示部160の画面がタッチされた場合は、操作部180によりタッチ位置を示す指定情報が生成され、処理がステップS801に進む。ステップS801では、候補情報リストに登録されている各候補画像データの表示位置情報とタッチ位置の座標情報とが選択部1650により比較され、タッチされた位置に表示されている候補画像データが特定され、処理がステップS802に進む。
ステップS802では、第1実施形態のステップS602と同様に、特定された候補画像データに対応する顔領域が候補情報リストに基づいて選択部1650により特定される。ステップS810において、ステップS802で特定された顔領域の座標情報およびサイズ情報に基づいて顔領域内の画像が生成部1620により登録画像データとして抽出される。登録画像データの生成時、前述の第1実施形態と同様に、区画領域410a〜410dの大きさと登録画像データにより生成される登録画像の大きさとが生成部1620により比較され、比較結果に基づいて登録画像の大きさが生成部1620により調整される。続くステップS820では、ステップS802で特定された顔領域の特徴量が検出部230により登録特徴量として取得される。その後、処理はステップS830に進み、登録部1660により、取得された登録特徴量が認識部700を介して揮発性メモリ210に登録情報として格納され、生成部1620により生成された登録画像データが登録特徴量と関連付けられてバッファメモリ135に格納される。
最後にステップS840にて、登録部1660により、登録画像データとそれに対応する登録特徴量とが関連付けられて、システムバス134および記録I/F部145を介して記録媒体155に登録情報として記録される。ステップS850では、ユーザーからの終了指示の有無がシステム制御部257により確認される。具体的には、操作部180をなすモード変更ダイヤルによるモード変更の有無がシステム制御部257により確認される。モード変更ダイヤルが登録モード以外のモードに設定されていれば、登録モードは終了し、モード変更ダイヤルが登録モードに設定されたままであれば、ステップS800〜S840の処理が繰り返される。
なお、ステップS840における処理により、ビデオカメラ500の電源がOFFになっても、登録画像データおよび登録特徴量などの情報が失われることはない。
(2)表示処理
図11に、主被写体の指定を行うための主被写体候補画像の作成および表示処理の流れをフローチャートで示している。図3に示した第1実施形態と処理内容が同じステップが存在するため、異なるステップの内容を中心に説明を行う。
ビデオカメラ500の電源がONにされると、ステップS1400において、システム制御部257により、システムバス134および記録I/F部145を介して、記録媒体155に記録されている登録特徴量および登録画像データの読み込みが開始される。読み込まれた登録特徴量はシステム制御部257から認識部700に送られる。認識部700により登録特徴量が揮発性メモリ210に一時的に格納される。また、読み込まれた登録画像データは、システム制御部257によりバッファメモリ135に格納され、区画領域410a〜410dに表示される候補画像として使用される。
例えば動画撮影モードでは、表示部160に被写体の映像がリアルタイムで映し出される。具体的には、第1実施形態と同様に、ステップS300およびS310において、検出用画像データが検出部230に入力され、顔検出部220により、揮発性メモリ210に格納された検出用画像データに基づいて顔領域が検出される。このとき、第1実施形態と同様に、検出部230により検出された顔領域の座標情報およびサイズ情報が検出用画像データから取得される。
ステップS310での顔領域検出に加えて、本実施形態では、顔認識処理に用いられる特徴量の算出も行われる。具体的には、ステップS1410において、ステップS310で検出された顔領域の特徴量が検出用画像データから検出特徴量として取得される。検出特徴量は、基準特徴量と同様に人間の顔の特徴が数値化されたデータであるが、基準特徴量とは異なり、顔領域固有のデータである。したがって、検出部230で検出された顔領域の同一性を、検出特徴量を用いて判定することができる。顔検出部220により検出された検出特徴量は、揮発性メモリ210に一時的に格納される。検出特徴量は、1フレームの検出用画像データで検出された顔領域ごとに算出される。
ステップS311からS350では、前述のとおり、候補情報リストの作成および更新が行なわれる。このとき、リスト管理部1610により、候補情報リスト上に検出特徴量が座標情報およびサイズ情報と関連付けられて記憶されている。
その後、ステップS1420において、認識部700により、揮発性メモリ210に格納されている各登録特徴量と候補情報リストの検出特徴量とが比較される。ステップS1430において、認識部700により検出特徴量と一致する登録特徴量が存在すると判断された場合、ステップS1440において、検出特徴量と一致する登録特徴量が認識部700により特定され、特定された登録特徴量についての情報が認識部700からリスト管理部1610へ送られ、特定された登録特徴量に関連付けられている登録画像データがリスト管理部1610によりバッファメモリ135から取得される。
ステップS1450では、リスト管理部1610により、登録画像データが検出特徴量と関連付けられる。ステップS1370において、第1実施形態の候補画像データと同様に、登録画像データが合成部1640により表示用画像データと合成され、合成部1640により合成画像データが生成される。
具体的には図12に示すように、ステップS1371において、合成部1640により、4つの区画領域410a〜410dに候補画像データが割り当てられる。割り当ての際、候補情報リストに登録されている順に、左の区画領域410aから登録画像データが合成部1640により割り当てられる。図13の表示例で説明すると、顔400aおよび顔400bの順で顔領域が候補情報リストに登録されている場合、顔400aの登録画像が区画領域410aに表示され、顔400bの登録画像が区画領域410bに表示される。登録画像データが存在しない顔400cについては、検出枠も登録画像も表示されない。
合成部1640での割り当ての結果は、合成部1640からリスト管理部1610に送られる。具体的には、合成部1640からリスト管理部1610へ各登録画像データの表示位置情報が送られ、リスト管理部1610により表示位置情報が、対応する登録画像データと関連づけられた状態で候補情報リストに登録される。
次のステップS1372において、合成部1640により登録画像が表示用画像データに合成される。このとき、ステップS1371にて割り当てられた位置に登録画像が候補画像として表示されるように、登録画像データと表示用画像データとが合成部1640により合成される。また、登録画像データ生成時に、生成部1620により候補画像のサイズ調整が行われているため、検出された顔領域の大きさに関係なく、表示部160の画面上では、区画領域410a〜410dと同じサイズで候補画像が表示されている。
また、第1実施形態と同様に、ステップS1373において、表示部160の画面上で顔領域と登録画像との対応関係を明確にするために、合成部1640により表示用画像データに対して装飾情報が合成される。具体的には図13に示すような第1検出枠430a、第2検出枠430b、第1装飾枠411aおよび第2装飾枠411bを示す装飾データが表示用画像データに付加される。
続くステップS380では、生成された合成画像データは表示部160に表示される。こうして、図13に示すように、検出された顔領域のうち登録されている顔領域(顔400aおよび400b)については、登録画像データを用いて区画領域410aおよび410bに登録画像が表示され、登録されていない顔領域(顔400c)については何も表示されない。登録画像は登録時に取得された静止画であるため、現在の顔400aおよび400bとは向きや表情が異なっており、被写体の向きが変わっても区画領域410aおよび410bに表示される登録画像は変化しない。
以降の処理は、図7に示すフローと実質的に同じであるため、詳細な説明は省略する。
この場合、検出部230により検出された特徴量が、対応する候補識別情報と関連付けられて登録特徴量として登録部1660を介して記録媒体155に記録されている。入力された画像データをもとに検出部230が検出特徴量を生成すると、生成された検出特徴量が認識部700により登録特徴量と照合され、検出特徴量と概ね合致する登録特徴量と関連付けられている登録画像データがリスト管理部1610により特定される。
さらに、リスト管理部1610により特定された登録画像データと表示用画像データとが合成部1640により合成され、合成画像データが生成される。つまり、登録特徴量と概ね合致する特徴量を有する顔領域が存在すると、登録特徴量と関連付けられた候補識別情報が表示部160に表示されることになる。このため、登録特徴量を候補識別情報と関連付けて登録しておけば、同じ特徴量を有する顔領域に対して同じ登録画像データが表示部160に表示され、顔領域とそれに対応する登録画像データとを認識しやすくなる。
[第3実施形態]
本実施形態は第2実施形態の変形例である。この実施形態では、顔領域を識別する文字情報を登録画像データの代わりに登録しておき、登録されている文字情報を表示部160の候補表示領域410に表示する。文字情報としては、被写体の名前などが考えられる。
前述の登録モードにおいて、登録画像データを生成する際に、操作部180を介して登録名を示す文字情報を入力する。文字情報を入力する入力画面の例を図14に示す。
図14において、登録画像1000は、登録対象となる顔の画像である。ソフトキーボード1010は、文字情報を入力するための領域であり、文字キー領域に加えて、文字種別の切り替えキー領域や、文字の削除キー領域、決定キー領域を有している。表示部160の上に設けられた、操作部180をなすタッチパネルがユーザーによりタッチされると、タッチされた座標がソフトキーボード1010のどのキー領域を指し示しているかをシステム制御部257が判定し、該当するキーに対応する文字が入力されたものとする。入力された文字は、入力領域1020に表示される。
本実施形態における、被写体の登録を行う際のフローチャートを図15に示す。図10と同様のステップについては同一の符号を付し、その詳細な説明は省略する。
第2実施形態で示した図10におけるフローチャートとの違いは、ステップS1100であり、ステップS1100では上記で説明したように、主被写体候補を識別する文字列の入力が行われる。このとき、ステップS810で抽出された登録画像データが登録画像1000として表示部160に表示される。
また、ステップS840での、記録媒体155へ記録される登録情報には、第2実施形態で説明した登録画像データおよび登録特徴量に加えて、ステップS1100にて入力された文字情報も含まれる。このとき、登録部1660により、文字情報は登録特徴量と関連付けられて、例えばバッファメモリ135に記録される。
図16に本実施形態の表示例を示す。図13と同様の構成要素については同一の番号を付し説明を省略する。図16において、候補表示領域410には前述の区画領域410a〜410dに対応する区画領域1200a〜1200dが設けられている。顔領域を識別する識別文字列1202aおよび1202bが表示されており、識別文字列1202aが右側の顔400aに対応しており、識別文字列1202bが左側の顔400bに対応している。
また、識別文字列1202aが顔400aに対応しているため、区画領域1200aを囲む第1装飾枠1201aは第1検出枠430aと同じ種類の破線で表示されている。識別文字列1202bが顔400bに対応しているため、区画領域1200bを囲む第2装飾枠1201bは第2検出枠430bと同じ種類の破線で表示されている。また、主被写体領域として選択されている顔領域の検出枠および装飾枠は、太線で表示されている。図16に示す表示例では、第2検出枠430bで囲まれている領域が主被写体領域として選択されているため、第2検出枠430bおよび第2装飾枠1201bが太線で表示されている。
前述の第1および第2実施形態と同様に、識別文字列1202aをタッチすることで、識別文字列1200aに対応する顔領域430aが主被写体領域として選択される。
この場合、基本的に第2実施形態の場合と同様の効果が得られるが、それに加えて、文字情報を用いることで顔領域が誰なのかを容易に判別することができる。
[他の実施形態]
本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
(1)
前述の実施形態では、ビデオカメラの録画時の動作を例に挙げて表示装置について説明しているが、静止画撮影時のライブビューモードや録画済の動画の再生時にも前述の技術は適用可能である。例えば、再生時に興味のある被写体を拡大したい場合、拡大対象とする被写体を指定する必要がある。そのような場合にでも本発明は適用可能である。
また、デジタルカメラやカメラを備えた携帯電話といった、ビデオカメラ以外の撮像装置、あるいはテレビやカーナビゲーションシステム、ゲーム機などの映像を表示する表示装置を備えた機器であれば本発明は適用可能である。
(2)
前述の実施形態では、1つの主被写体領域を選択することを想定しているが、複数の主被写体領域を選択可能にしてもよい。
(3)
前述の実施形態では、タッチパネルを用いて主被写体領域を選択しているが、他の種類の操作部を用いて主被写体領域を選択するよう構成しても良い。例えば、方向を指示できるカーソルキーを用いて主被写体領域を選択するよう構成しても良い。この場合においても、常に位置関係の変化する主被写体候補を直接選択するのではなく、画面上に並んだ主候補画像を選択するため、確実に所望の主被写体領域を選択することが可能となる。
(4)
前述の実施形態では、表示用画像に候補画像、登録画像および文字情報を重畳して表示するようにしているが、異なる表示方法を用いてもよい。例えば、候補画像を半透明にすることで、候補画像が表示される領域においても表示用画像が透けて見えるよう構成しても良い。あるいは、表示用画像が候補画像と重ならないよう表示用画像を縮小し、表示部160に候補画像と表示用画像とを重畳させずに表示するよう構成しても良い。
(5)
前述の実施形態では、候補領域として人間の顔を検出するようにしているが、人体や、ペットなどを検出部130にて検出し、候補領域とするようにしてもなんら問題はない。あるいは、特定の物体に限らず、入力される画像の差分を取ることで得られる移動領域や、特定の色成分を含む領域を検出部130にて検出し、候補領域とするように構成しても良い。画像の差分を取ることで候補領域を検出する場合、検出部130は、異なるタイミングで取得された2つの画像データを比較することで、動いている被写体を認識し、特定の視覚的特徴を有する候補領域を検出する。
(6)
前述の実施形態では、システム制御部157と検出部130を別の構成としているが、検出部130が担う処理をシステム制御部157にて行なってもよい。また、プログラムはROMに格納されているが、このプログラムが外部の記録媒体から読み込まれるよう構成しても良い。
(7)
検出部130が検出する領域は人間の顔を表す領域に限定されない。例えば、検出部130が人間の体の全部または一部を表す領域を検出してもよいし、特定の色成分を含む領域であってもよい。
(8)
前述の実施形態では、生成部1620が候補画像および登録画像に対して区画領域410a〜410dの大きさに合わせて拡大処理および縮小処理を行うが、処理前の候補画像および登録画像が区画領域410a〜410dの範囲内に収まるのであれば、拡大処理を行わない構成であってもよい。
また、候補表示領域410が画面の下側に配置されているが、候補表示領域410の配置は前述の実施形態に限定されない。
(9)
前述の第1実施形態では、第1装飾枠411aおよび第2装飾枠411bが候補画像に付加されているが、図17に示すように第1装飾枠411aおよび第2装飾枠411bのような装飾枠を付加しない実施形態も考えられる。主被写体領域として選択されている顔領域が識別しやすいように主被写体領域の検出枠だけ他の検出枠と異なる視覚的特徴を持たしてもよい。
また、第1検出枠430aと第1装飾枠411aとは、同じ視覚的特徴を有しているが、両枠430aおよび411aが対応していることが認識できれば、実質的に同じ視覚的特徴を持たせていてもよい。例えば、図4においては、第1装飾枠411aおよび第2装飾枠411bでは破線の間隔を異ならせているが、枠の色を変えるようにしてもよい。
(10)
前述の実施形態では、顔領域の座標情報に基づいて顔領域を追尾する機能を実現しているが、顔領域の移動量を動きベクトルとして記憶しておき、複数の候補画像が存在するような場合の判定精度を高める方法を用いても良い。また、画像データ間において顔の大きさが大きく変わることはないと考えられるため、画像データ間において顔領域の大きさの変化量がある一定範囲に収まっていることを条件に加えても良い。
(11)
図16に示した表示例は本実施形態における一例である。例えば、登録画像データを文字情報とともに表示部160に表示する構成であってもよい。つまり、第2実施形態と第3実施形態とを組み合わせた実施形態も考えられる。
(12)
図5で示したフローチャートにおいては、ステップS320にて顔領域が画面内から消失していると判定された場合、ステップS330において、候補情報リストから消失したと判定された顔領域に関する情報が直ちに削除されているが、一定時間経過後にこれらの情報を削除するよう構成しても良い。この場合、短時間のオクルージョンやフレームアウトが顔領域に対して発生しても、区画領域410a〜410dに表示される候補画像は変わらないため、主被写体領域を選択しようとした瞬間に候補表示領域410内の表示内容が変わってしまい、主被写体領域の選択に失敗してしまう状況を回避することができる。また、画面内に存在しない主被写体領域を選択することができるため、主被写体が画面に入ってきた際に迅速に主被写体領域に対して自動合焦制御および自動露出制御が行われるという良好な効果も得られる。
(13)
また、図7に示したフローチャートにおいては、画面内に主被写体が存在しないと判定した場合、通常の自動合焦制御および自動露出制御を直ちに行うようにしているが、一定時間経過後に通常の自動合焦制御および自動露出制御を行うようにしても良い。一定時間が経過するまでの間に行う自動合焦制御および自動露出制御の制御方法については種々考えられるが、例えば、自動合焦制御および自動露出制御を停止させても良い。主被写体の短時間のオクルージョンやフレームアウトに対して、自動合焦制御および自動露出制御が追従しなくなるため、画面のボケや画面の明るさの急激な切り替わりが発生しにくくなり、良好な撮影画像を得ることが可能になる。
(14)
前述の実施形態では、候補画像の表示順序を候補情報リストの順としているが、顔領域の位置に合わせて候補画像の表示位置を決定してもよい。例えば、図4に示す表示例では、左側の顔400bの候補画像が区画領域410bに表示されており、右側の顔400aの候補画像が区画領域410bの左側の区画領域410aに表示されているが、顔400aおよび400bの配置に合わせて、区画領域410aに顔400bの候補画像が表示され、かつ、区画領域410bに顔400aの候補画像が表示されるようにしてもよい。この場合、顔領域の位置関係と候補画像の位置関係とが対応するため、候補画像と顔領域との対応関係をユーザーがより把握しやすくなる。
(15)
前述の第2実施形態では、登録されていない顔が検出されても、候補画像データは候補表示領域410に表示されないが、第1実施形態と同様に、登録されていない顔が検出された場合に検出用画像データから候補画像データを生成し、候補表示領域410に表示してもよい。つまり、第1実施形態と第2実施形態とを組み合わせる構成もあり得る。
また、登録情報の登録時、認識処理用の登録特徴量が記録媒体155に格納されるのではなく、ビデオカメラ500内に設けられた不揮発性メモリ(図示せず)に格納されるようにしてもよい。この場合、記録媒体155を別の記録媒体に交換しても、登録情報を不揮発性メモリから読み込み可能となり、機器の利便性が向上する。不揮発性メモリとしては、フラッシュメモリおよびハードディスクドライブなどが考えられる。
(16)
各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
(17)
前述の実施形態の各処理は、ハードウェアにより実現されてもよいし、ソフトウェアにより実現されてもよいし、ソフトウェアおよびハードウェアの混在処理により実現されてもよい。
本発明に係る表示装置によれば、主被写体領域を指定することが容易となるため、本発明は、映像上の特定の領域に対して合焦制御や露出制御を行う装置の分野において有用である。
100 ビデオカメラ
130 検出部
157 システム制御部
160 表示部
180 操作部
220 顔検出部
700 認識部
1620 リスト管理部
1620 生成部
1640 合成部
1650 選択部
1660 登録部

Claims (24)

  1. 複数の画像データを映像として表示するための表示装置であって、
    特定の視覚的特徴を有する少なくとも1つの候補領域を前記画像データから検出する検出部と、
    前記検出部により検出された各前記候補領域を識別するための少なくとも1つの候補識別情報を生成する生成部と、
    前記候補識別情報と前記画像データとが合成された合成画像データを生成する合成部と、
    前記合成画像データを前記映像として表示する表示部と、
    前記映像に表れている前記候補識別情報のうち特定の前記候補識別情報を指定する指定情報の入力を受け付ける操作部と、
    前記操作部に入力された前記指定情報に基づいて、前記操作部を介して指定された前記候補識別情報に対応する前記候補領域を基準領域として選択する選択部と、
    を備えた表示装置。
  2. 前記合成部は、前記表示部の画面上で前記候補識別情報が特定の位置に配置されるように前記候補識別情報と前記画像データとを合成する、
    請求項1に記載の表示装置。
  3. 前記合成部は、前記表示部の画面上で複数の前記候補識別情報が並ぶように前記候補識別情報と前記画像データとを合成する、
    請求項1または2に記載の表示装置。
  4. 前記合成部は、前記表示部に表示される前記映像における鉛直方向下半分の領域内に前記候補識別情報が配置されるように前記候補識別情報と前記画像データとを合成する、
    請求項1から3のいずれかに記載の表示装置。
  5. 前記合成部は、前記表示部に前記映像が表示されている状態で前記候補識別情報が前記画像データをもとに生成される画像上に重畳するように前記候補識別情報と前記画像データとを合成する、
    請求項1から4のいずれかに記載の表示装置。
  6. 前記表示部の画面上で前記候補識別情報が表示される第1表示領域の面積は、前記第1表示領域以外の第2表示領域の面積よりも小さい、
    請求項1から5のいずれかに記載の表示装置。
  7. 前記生成部は、1つの前記画像データから検出された各前記候補領域内の候補画像データを抽出し、抽出された前記候補画像データを前記候補識別情報として設定する、
    前記1から6のいずれかに記載の表示装置。
  8. 前記生成部は、1つの前記候補画像が前記候補識別情報として表示される区画領域の大きさと前記候補画像の大きさとを比較し、比較結果に基づいて前記候補画像の大きさを調整する、
    請求項7に記載の表示装置。
  9. 前記生成部は、前記候補画像が前記区画領域よりも小さい場合は前記区画領域に合わせて前記候補画像に拡大処理を施し、前記拡大処理が施された前記候補画像を前記候補識別情報として設定する、
    請求項8に記載の表示装置。
  10. 前記生成部は、前記候補画像が前記区画領域よりも大きい場合は前記区画領域に合わせて前記候補画像に縮小処理を施し、前記縮小処理が施された前記候補画像を前記候補識別情報として設定する、
    請求項8または9に記載の表示装置。
  11. 前記合成部は、前記候補識別情報と前記画像データとを合成する際、前記候補領域であることを示す第1装飾情報を各前記候補領域に付加し、前記候補領域に対応する前記候補識別情報であることを示す第2装飾情報を前記候補識別情報が表示されている各領域に付加する、
    請求項1から10のいずれかに記載の表示装置。
  12. 前記基準領域に付加されている前記第1装飾情報は、他の前記第1装飾情報とは異なる視覚的特徴を有しており、
    前記基準領域に対応する前記候補識別情報に付加されている前記第2装飾情報は他の前記第2装飾情報とは異なる視覚的特徴であって対応する前記第1装飾情報と実質的に同一の視覚的特徴を有している、
    請求項11に記載の表示装置。
  13. 前記検出部は、前記特定の視覚的特徴を表す基準情報と前記画像データとを比較し、前記基準情報の条件を満たす領域を前記候補領域として検出する、
    請求項1から12のいずれかに記載の表示装置。
  14. 前記特定の視覚的特徴を有する前記候補領域は、人間の体の全部または一部を表す領域である、
    請求項1から13のいずれかに記載の表示装置。
  15. 前記特定の視覚的特徴を有する前記候補領域は、人間の顔を表す領域である、
    請求項1から14のいずれかに記載の表示装置。
  16. 前記特定の視覚的特徴を有する前記候補領域は、特定の色成分を含む領域である、
    請求項1から13のいずれかに記載の表示装置。
  17. 前記検出部は、異なるタイミングで取得された2つの前記画像データを比較することで前記特定の視覚的特徴を有する前記候補領域を検出する、
    請求項1から12のいずれかに記載の表示装置。
  18. 前記指定情報は、前記表示部の画面上での位置を示しており、
    前記選択部は、前記操作部を介して入力された前記指定情報に基づいて、前記指定情報が示す位置に表示されている前記候補識別情報を特定し、特定された前記候補識別情報に対応する前記候補領域を前記基準領域として選択する、
    請求項1から17のいずれかに記載の表示装置。
  19. 前記操作部は、前記表示部の画面上の被接触位置を検知し前記被接触位置を示す前記指定情報を生成するタッチパネルユニットを有している、
    請求項1から18のいずれかに記載の表示装置。
  20. 前記検出部は、前記候補領域が有する視覚的特徴を示す検出特徴量を、検出した前記候補領域ごとに生成する、
    請求項1から19のいずれかに記載の表示装置。
  21. 前記検出部により生成された前記検出特徴量を、前記検出特徴量を生成するもとになっている前記候補領域に対応する前記候補識別情報と関連付ける登録部と、
    前記検出特徴量を前記登録特徴量と照合し、前記検出特徴量と合致する前記登録特徴量と関連付けられている前記候補識別情報を特定する登録情報取得部と、をさらに備え、
    前記合成部は、前記登録情報取得部により特定された前記候補識別情報と前記画像データとを合成し、前記合成画像データを生成する、
    請求項20に記載の表示装置。
  22. 前記操作部は、文字情報の入力を受け付けるようになっており、
    前記登録部は、前記文字情報を前記登録特徴量と関連付ける、
    請求項21に記載の表示装置。
  23. 複数の画像データを映像として表示するための表示方法であって、
    特定の視覚的特徴を有する少なくとも1つの候補領域を前記画像データから検出する検出ステップと、
    前記検出ステップで検出された各前記候補領域を識別するための少なくとも1つの候補識別情報を生成する生成ステップと、
    前記候補識別情報と前記画像データとが合成された合成画像データを生成する合成ステップと、
    前記合成画像データを前記映像として表示する表示ステップと、
    前記映像に表れている前記候補識別情報のうち特定の前記候補識別情報を指定する指定情報の入力を受け付ける操作ステップと、
    前記操作部に入力された前記指定情報に基づいて、前記操作部を介して指定された前記候補識別情報に対応する前記候補領域を基準領域として選択する選択ステップと、
    を備えた表示方法。
  24. 複数の画像データを映像として表示するための集積回路であって、
    特定の視覚的特徴を有する少なくとも1つの候補領域を前記画像データから検出する検出部と、
    前記検出部により検出された各前記候補領域を識別するための少なくとも1つの候補識別情報を生成する生成部と、
    前記候補識別情報と前記画像データとが合成された合成画像データを生成する合成部と、
    前記合成画像データを前記映像として表示する表示部と、
    前記映像に表れている前記候補識別情報のうち特定の前記候補識別情報を指定する指定情報の入力を受け付ける操作部と、
    前記操作部に入力された前記指定情報に基づいて、前記操作部を介して指定された前記候補識別情報に対応する前記候補領域を基準領域として選択する選択部と、
    を備えた集積回路。
JP2009166156A 2009-07-14 2009-07-14 表示装置、表示方法および集積回路 Pending JP2011023898A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009166156A JP2011023898A (ja) 2009-07-14 2009-07-14 表示装置、表示方法および集積回路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009166156A JP2011023898A (ja) 2009-07-14 2009-07-14 表示装置、表示方法および集積回路

Publications (1)

Publication Number Publication Date
JP2011023898A true JP2011023898A (ja) 2011-02-03

Family

ID=43633597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009166156A Pending JP2011023898A (ja) 2009-07-14 2009-07-14 表示装置、表示方法および集積回路

Country Status (1)

Country Link
JP (1) JP2011023898A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013087974A1 (en) * 2011-12-16 2013-06-20 Nokia Corporation Method and apparatus for image capture targeting
JP2013135446A (ja) * 2011-12-27 2013-07-08 Canon Inc 撮像装置及びその制御方法
JP2013150265A (ja) * 2012-01-23 2013-08-01 Olympus Imaging Corp 撮像装置、表示方法、プログラム
JP2014039084A (ja) * 2012-08-10 2014-02-27 Olympus Imaging Corp 撮像装置
JP2017126883A (ja) * 2016-01-14 2017-07-20 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
WO2018051809A1 (ja) * 2016-09-16 2018-03-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置、及び、電子機器
JP2018093500A (ja) * 2017-12-28 2018-06-14 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013087974A1 (en) * 2011-12-16 2013-06-20 Nokia Corporation Method and apparatus for image capture targeting
US9813607B2 (en) 2011-12-16 2017-11-07 Nokia Technologies Oy Method and apparatus for image capture targeting
JP2013135446A (ja) * 2011-12-27 2013-07-08 Canon Inc 撮像装置及びその制御方法
JP2013150265A (ja) * 2012-01-23 2013-08-01 Olympus Imaging Corp 撮像装置、表示方法、プログラム
JP2014039084A (ja) * 2012-08-10 2014-02-27 Olympus Imaging Corp 撮像装置
JP2017126883A (ja) * 2016-01-14 2017-07-20 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
WO2018051809A1 (ja) * 2016-09-16 2018-03-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置、及び、電子機器
EP3515057A4 (en) * 2016-09-16 2019-10-02 Sony Semiconductor Solutions Corporation PICTURE RECORDING DEVICE AND ELECTRONIC DEVICE
US10795024B2 (en) 2016-09-16 2020-10-06 Sony Semiconductor Solutions Corporation Imaging device and electronic device
JP2018093500A (ja) * 2017-12-28 2018-06-14 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム

Similar Documents

Publication Publication Date Title
JP5867424B2 (ja) 画像処理装置、画像処理方法、プログラム
US8670047B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9712750B2 (en) Display control device and associated methodology of identifying a subject in an image
JP2011023898A (ja) 表示装置、表示方法および集積回路
JP2010183317A (ja) 撮像装置、画像合成表示装置、画像合成表示方法、およびプログラム
JP2008206018A (ja) 撮像装置およびプログラム
JP2010010936A (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
JP2009267787A (ja) 構図判定装置、構図判定方法、プログラム
JP6029021B2 (ja) 画像処理装置、撮像装置および画像処理方法
US20100329552A1 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
KR20150119621A (ko) 디스플레이 장치 및 그의 이미지 합성 방법
CN110502117B (zh) 电子终端中的截图方法以及电子终端
KR20170060411A (ko) 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치.
JPWO2016199483A1 (ja) 画像処理装置、画像処理方法、プログラム
US8856192B2 (en) Method and apparatus for updating composition database by using composition pattern of user, and digital photographing apparatus
JP2008017169A (ja) 電子カメラ
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
JP2009089220A (ja) 撮像装置
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
JP2014123908A (ja) 画像処理装置、画像切り出し方法、及びプログラム
WO2011048742A1 (ja) 半導体集積回路及びそれを備える撮像装置
US9641757B2 (en) Image processing apparatus that sets moving image area, image pickup apparatus, and method of controlling image processing apparatus
US10748580B2 (en) Information processing apparatus
KR101436327B1 (ko) 배경 우선 촬상 방법 및 촬상 장치
JP2009088742A (ja) 撮像装置、撮像制御プログラム及び撮像方法