本発明に係る電子機器の実施形態を添付図面に基づいて説明する。図1は、本発明に係る携帯端末装置の一例である折り畳み式の携帯電話機1の外観の構成を示す図である。図1(A)は、携帯電話機1を約180度に開いた開状態のときの正面から見た外観の構成を示し、図1(B)は、携帯電話機1を開状態としたときの側面から見た外観の構成を示す。
図1(A)および(B)に示されるように、携帯電話機1は、中央のヒンジ部11を境に第一の筐体12と第二の筐体13とがヒンジ結合されており、ヒンジ部11を介して矢印X方向に折り畳み可能に形成される。携帯電話機1の内部の所定の位置には、送受信用のアンテナ(後述する図3のアンテナ38)が設けられており、内蔵されたアンテナを介して基地局(図示せず)との間で電波を送受信する。
第一の筐体12には、その表面に操作キー14が設けられる。操作キー14は、特に、「0」から「9」の数字や「あ」行から「わ」行のかな文字、「A」から「Z」のアルファベットの入力が可能な数字キー15や、上下左右方向キーを備えた十字キー16、確定キー17、左ソフトキー18、右ソフトキー19、ブラウザキー20などで構成される。
十字キー16は、上下左右方向に操作されることによりメインディスプレイ23に表示されたカーソルなどを上下左右方向に移動させることができる。また、確定キー17が押下されることにより、種々の処理の確定処理が実行される。確定キー17には、メインディスプレイ23の下部に設けられた確定キー機能表示部23aに表示される処理も割り当てられる。
さらに、第一の筐体12の十字キー16および確定キー17の上部には、左ソフトキー18および右ソフトキー19が設けられ、十字キー16および確定キー17の右にはブラウザ機能を起動するためのブラウザキー20が設けられる。第一の筐体12の側面には、携帯電話機1の操作を行うサイドキー22が設けられる。左ソフトキー18、右ソフトキー19およびサイドキー22は、第一の筐体12の内部方向に押下されることによって、それぞれ所定の処理が割り当てられている。特に左ソフトキー18および右ソフトキー19は、メインディスプレイ23の下部に設けられた左ソフトキー機能表示部23bおよび右ソフトキー機能表示部23cに表示される処理が割り当てられる。
第一の筐体12には、操作キー14の下部にマイクロフォン24が設けられており、マイクロフォン24によって通話時のユーザの音声を集音する。
なお、第一の筐体12は、背面側に図示しないバッテリパックが挿着されており、終話・電源キーが押下されてオン状態になると、バッテリパックから各回路部に対して電力が供給されて動作可能な状態に起動する。
一方、第二の筐体13には、その大部分の面積を占めるメインディスプレイ23が設けられており、電波の受信状態、電池残量の他、電子メールの内容、簡易ホームページなどを表示することができる。なお、メインディスプレイ23は、例えばLCD(Liquid Crystal Display)、有機EL(ElectroLuminescence)ディスプレイ、無機ELディスプレイにより構成されるディスプレイである。メインディスプレイ23は、表示手段として機能する。
第二の筐体13のメインディスプレイ23の上部の所定の位置にはレシーバ(受話器)25が設けられており、これにより、ユーザは音声通話することが可能である。なお、携帯電話機1の所定の位置には、レシーバ25以外の音声出力部としてのスピーカ(図3のスピーカ35)も設けられている。さらに、第二の筐体13のレシーバ25上部には、内部カメラ26が設けられており、これにより、所望の撮影対象を撮影することができる。
図2は、本発明に係る携帯端末装置の一例である折り畳み式の携帯電話機1の他の外観の構成を示す図である。図2の携帯電話機1は、図1の携帯電話機1の状態から矢印X方向に回動させた閉状態を構成する。図2(A)は、携帯電話機1が閉状態のときの正面から見た外観の構成を示し、図2(B)は、携帯電話機1が閉状態のときの側面から見た外観の構成を示す。
第二の筐体13の上部には、外部カメラ27が設けられており、これにより、所望の撮影対象を撮影することができる。外部カメラ27の下部には、例えばLCDで構成されるサブディスプレイ28が設けられており、現在のアンテナの感度のレベルを示すアンテナピクト、携帯電話機1の現在の電池残量を示す電池ピクト、現在の時刻などが表示される。
図3は、本実施形態における携帯電話機1の主な機能構成を示す概略的な機能ブロック図である。携帯電話機1は、主制御部30、電源回路部31、入力制御部32、表示制御部33、音声制御部34、記憶部36、通信制御部37、画像入力部39、顔検出部40がバスによって相互に通信可能に接続されて構成されている。
主制御部30は、CPU(Central Processing Unit)を具備し、記憶部36に記憶された各種プログラムに基づき動作して、携帯電話機1の総括的な制御を行う。電源回路部31は、操作キー14に含まれる電源キーに対する入力インタフェースを備え、ユーザにより電源キーが押されたことを検知すると、その旨を示す信号を生成して主制御部30に伝送する。また、電源回路部31は、電力供給源(バッテリ)を備え、電源キーを介した入力に基づいて携帯電話機1の電源のON/OFF状態を切り替え、電源がON状態の場合に電力供給源から各部に対して電力を供給して、携帯電話機1を動作可能にする。
入力制御部32は操作キー14、サイドキー22に対する入力インタフェースを備え、操作キー14、サイドキー22のいずれかが押されたことを検知すると、押されたキーを示す信号を生成して主制御部30に伝送する。
表示制御部33はメインディスプレイ23およびサブディスプレイ28に対する表示インタフェースを備える。表示制御部33は、主制御部30の制御に基づいて、文書データや画像入力部39より入力された画像信号に基づいた撮影画像をメインディスプレイ23あるいはサブディスプレイ28に表示する。
音声制御部34は、主制御部30の制御に基づいて、マイクロフォン24で集音された音声からアナログ音声信号を生成し、このアナログ音声信号をデジタル音声信号に変換する。また音声制御部34は、デジタル音声信号を取得すると、主制御部30の制御に基づいて、このデジタル音声信号をアナログ音声信号に変換し、レシーバ25から音声として出力する。
記憶部36は、主制御部30が行う処理について、処理プログラムや処理に必要なデータなどを格納するROM(Read Only Memory)やハードディスク、不揮発性メモリ、データベース、主制御部30が処理を行う際に使用されるデータを一時的に記憶するRAM(Random Access Memory)などから構成される。
また、記憶部36には、本実施形態における携帯電話機1で実行される顔検出処理を実行させる顔検出プログラムや、顔検出領域に関するデータなどが記憶される。
通信制御部37は、主制御部30の制御に基づいて、基地局からアンテナ38を介して受信した受信信号をスペクトラム逆拡散処理してデータを復元する。このデータは、主制御部30の指示により、音声制御部34に伝送されてレシーバ25やスピーカ35から出力されたり、表示制御部33に伝送されてメインディスプレイ23に表示されたり、または記憶部36に記録されたりする。また通信制御部37は、主制御部30の制御に基づいて、マイクロフォン24で集音された音声データや操作キー14を介して入力されたデータや記憶部36に記憶されたデータを取得すると、これらのデータに対してスペクトラム拡散処理を行い、基地局に対してアンテナ38を介して送信する。
画像入力部39は、内部カメラ26、外部カメラ27(カメラ26、27)で取得された画像信号を圧縮したり、所定時間毎に取得した画像信号に基づいて、ファインダとしてのメインディスプレイ23に表示する撮影画像を生成したりする。画像入力部39は、取得された画像データを主制御部30に供給する。
カメラ26、27は、CCDやCMOSなどからなる撮像素子を備えており、撮影光学系による被写体像を光電変換して、画像信号を生成する撮像手段として機能する。カメラ26、27は、可変焦点機構を備えておりオートフォーカスの機能を少なくとも備える。
顔検出部40は、画像入力部39より入力された画像信号に基づいて、当該画像信号内に存在する被写体の顔を含む領域を検出する顔検出手段として機能する。顔を含む領域を検出する顔検出処理の方法には公知の方法(例えば特開2008−257321号などの方法)が適用される。例えば、色に基づいて肌色領域の輪郭を抽出し、予め用意する顔の輪郭テンプレートとのマッチング度で顔を検出する方法や、目候補領域を求めて目テンプレートとのマッチング度で顔を検出する方法などを適用することができる。顔検出部40は、検出された顔を含む領域に関する情報を主制御部30に出力する。なお、顔を含む領域に関する情報は、例えば顔を含む領域の中心点の座標と、顔を含む領域の大きさで構成することができる。以下の説明においては、顔検出部40は顔認識の結果として、顔を含む領域の中心点の座標と顔を含む領域の大きさが顔を含む領域に関する情報として出力される例として説明するが、これに限定されない。
本実施形態における携帯電話機1は、外部カメラ27および内部カメラ26(以下、カメラ26、27という。)を備えることで、静止画や動画の撮影を行うことができる。
携帯電話機1は、被写体に人が含まれている際に、撮影された画像信号内に存在する被写体の顔を含む領域を検出する顔検出機能を備えている。また、携帯電話機1は、検出された顔を含む領域に基づいて表示される顔領域のうち、選択された一の顔領域に基づいた位置に合焦制御を行ういわゆるオートフォーカス機能を備えている。以下、携帯電話機1で実行される、画像信号に含まれる顔を含む領域を検出する顔検出処理、検出された顔を含む領域に基づいて表示される顔領域を選択する顔選択処理を特に説明する。
まず、カメラ26、27が起動してから、オートフォーカス機能を利用して撮影を行うまでの一連の流れについて説明する。図4は、本実施形態における携帯電話機1における、撮影処理の流れを説明するフローチャートである。
ステップS1において、主制御部30は、カメラ26、27を起動させる。主制御部30は、例えばユーザより操作キー14を介して指示を受け付けることにより、カメラ26、27を起動させる。このとき起動するカメラは、内部カメラ26または外部カメラ27のどちらか一方である。また、起動するカメラは、内部カメラ26と外部カメラ27とで切替可能である。
ステップS2において、主制御部30は、カメラ26、27で生成された画像信号を画像入力部39より取得する。そして、メインディスプレイ23には、取得した画像信号に基づき生成された撮影画像が表示される。また、取得した画像信号は、顔検出部40に出力される。図5は、画像信号に基づく撮影画像がメインディスプレイ23に表示される際の一例を示す図である。図5(A)に示すように、撮影画像がメインディスプレイ23に表示され、撮影者としてのユーザは撮影画像の構図を調整することができる。なお、図5に示す撮影画像のメインディスプレイ23に表示される例は、図1に示す携帯電話機1が時計回りまたは反時計回りに90度回転されて撮影された場合のメインディスプレイ23に表示される例である。
ステップS3において、主制御部30は、ユーザより操作キー14を介して指示を受け付けること(例えば数字キー15のうちの「*」キーの押下を受け付けること)により、顔検出部40に顔検出処理を実行させる。主制御部30は、顔を含む領域の検出結果を顔検出部40からの出力を受け、その顔を含む領域の検出結果に基づいてメインディスプレイ23に表示された撮影画像と共に顔領域として表示する。なお、例えば、顔領域の表示の例として、顔検出部40から出力された顔を含む領域の中心点の座標を中心とする予め決められた大きさの正方形の枠を顔領域として表示する。なお、これに限定されず、他の顔領域の表示形態であってもよい。
主制御部30は、複数の顔を含む領域が検出された場合には複数の顔領域を表示する。複数の顔を含む領域が検出された場合、一の顔領域(例えば最も中央に位置する顔領域)として表示される枠は自動的に選択状態で表示され、他の顔領域として表示される枠は非選択状態で表示される。選択状態は、合焦対象として選択された顔領域の状態をいう。また、顔を含む領域の検出結果(顔領域として表示される枠)が表示された直後には一の顔領域が選択されている状態である。
なお、「顔を含む領域」は、顔検出部40により画像信号から検出された被写体の顔を含む領域である。また、「顔領域」は、顔検出部40より出力された顔を含む領域の検出結果に基づいて、メインディスプレイ23に撮影画像と共に表示された矩形の枠で表示された領域をいう。
図5(B)は、顔検出処理が実行され、顔領域として表示される枠が撮影画像と共にメインディスプレイ23に表示された場合の一例を示す図である。図5(B)に示すように、撮影画像と共に顔領域として表示される枠51、52が表示される。図5(B)の例では、選択状態である顔領域として表示される枠51を実線で示し、非選択状態である顔領域として表示される枠52を点線で示してある。選択状態および非選択状態の顔領域として表示される枠は、それぞれ実線および点線で示すものに限らず、例えば異なる色で表示されたりしてもよい。
ステップS4において、主制御部30は、表示された顔領域の中から、一の顔領域の選択を受け付ける。顔領域の選択は、所定の操作キー14(例えば数字キー15の「8」キー(ステップS3で顔検出処理の開始に用いられるキーとは異なるキーであることが望ましい))が押下されることにより選択状態である顔領域に対して行われる。図5(C)は、図5(B)の撮影画像から選択状態である顔領域として表示される枠が変更された場合の一例を示す図である。図5(B)では人物Aの顔領域として表示される枠51が選択状態となっているのに対し、例えば数字キー15の「8」キーが押下されることで人物Bの顔領域として表示される枠52が選択状態となった。すなわち、選択状態である顔領域として表示される枠が人物Aの顔領域として表示される枠から、人物Bの顔領域として表示される枠に移動した。
なお、ステップS4は既にユーザにとって所望の顔が選択されている場合には省略される場合もある。
また、ステップS5において、主制御部30は、所定の操作キー14(例えばブラウザキー20)が押下されることにより、選択された一の顔領域に基づいた位置に対して合焦制御処理(オートフォーカス)を実行する。ここで一の顔領域に基づいた位置に対して合焦制御処理が実行されると、その顔のみの顔を含む領域の検出を行い、他の顔の顔を含む領域の検出については行われない。なお、合焦制御処理は、選択された一の顔領域全体に対して行ってもよいし、顔領域の中心の位置に対して行ってもよい。
ステップS6において、主制御部30は、所定の操作キー14(例えば、確定キー16)が押下されることにより、カメラ26、27で撮影を行い、画像信号を生成する。なお、ステップS5の合焦制御処理と、ステップS6の撮影指示とは、確定キー16の1回の操作に応じて実行してもよい。
次に、図4の撮影処理のステップS3における顔検出処理の詳細を説明する。本実施形態における顔検出処理は、カメラ26、27のハード構造上、合焦が不可能とみなすことができる領域が存在する場合に有効な処理である。
図6は、本実施形態における携帯電話機1で実行される顔検出処理について説明するフローチャートである。この図6で説明する顔検出処理は、合焦が不可能とみなされた合焦不可領域が存在するカメラ26、27を備えた携帯電話機1で実行される場合を前提として説明する。
ステップS11において、主制御部30は、顔検出処理を開始する指示を受け付けたか否かの判定を行う。主制御部30は、顔検出処理を開始する指示を所定の操作キー14より受け付けるようになっている。例えば、数字キー15の「*」キーが押下されることにより、主制御部30は顔検出処理を開始する指示を受け付ける。
ステップS12において、主制御部30は、画像入力部39より所定間隔毎に取得される画像信号を取得する。そして、ステップS13において、主制御部30は、顔検出が行われる検出領域に関する検出領域情報を取得する。検出領域情報は、カメラ26、27による合焦が不可能とみなされた領域を除いた画像信号内の領域である合焦可能領域に関する情報である。
図7は、顔検出処理が実行される検出領域を説明する図である。図7では、斜線で示された合焦不可領域54、54を除いた合焦可能領域が顔検出領域55であり、例えば、撮影され生成された画像信号の図7における上下20%の領域を除いた領域である。主制御部30は、例えば顔検出領域55としての合焦可能領域の範囲を示す座標データを検出領域情報として取得する。例えば、合焦可能領域の範囲を示す座標データは、図7に示す顔検出領域55のa点の座標およびb点の座標である。
なお、合焦不可領域は、図7の画像信号における上下20%として説明したが、これに限らず他の領域が合焦不可領域として存在する場合であってもよい。
ステップS14において、主制御部30は、顔検出部40に対して画像信号とステップS13で取得した検出領域情報を送り、検出領域情報に基づく領域内の顔検出処理を実行させる。顔検出部40は、検出された顔を含む領域の情報を、例えば顔を含む領域の中心点の座標と、顔を含む領域の大きさとで構成された情報で生成し、主制御部30に供給する。
図8は、顔検出部40が顔検出を行う場合を説明する図である。図8では、顔検出領域55の画像信号に基づく撮影画像のみが示されており、顔検出領域55についてはハッチングが施されている。図8に示すように、顔検出部40は、顔検出領域情報に基づいて顔検出領域55としての合焦可能領域においてのみ顔検出を実行する。このため、合焦可能領域に顔を含む領域が含まれる人物Aについては顔を含む領域56が検出されるが、合焦可能領域に顔を含む領域が含まれない人物Bについては顔を含む領域が検出されない。なお、「顔を含む領域が含まれる」とは、顔を含む領域の中心点が顔検出領域に含まれる場合としてもよいし、顔を含む領域の全てが検出領域に含まれる場合としてもよい。
ステップS15において、表示制御部33は、主制御部30の制御に基づき顔検出部40より供給された顔を含む領域に基づいた顔領域を表示する。表示制御部33は、顔領域として表示される枠を生成し、撮影画像に合成することにより検出結果としての顔領域を表示する。
図9は、顔を含む領域の検出結果に基づいた顔領域の表示例を示す図であり、(A)は画像信号全体に対して顔検出を行った場合の検出結果の表示例を示す図、(B)は合焦可能領域57に対して顔検出を行った場合の検出結果の表示例を示す図である。なお、図9に示す点線は、合焦不可領域54と合焦可能領域57との境界を示すものである。
図9(A)に示すように、画像信号全体を顔検出の対象とした場合、合焦が不可能であるにも係わらず、合焦不可領域54、54に存在する顔を含む領域58まで検出を行うことになる。これに対し、図9(B)に示すように、画像信号のうち合焦可能領域57を顔検出の対象とした場合、合焦を行うことができる領域に存在する顔の顔を含む領域59のみの検出を行う。以上で顔検出処理の説明を終了する。
この顔検出処理によれば、顔を含む領域の検出を画像信号全体ではなく合焦可能領域のみに行うことで検出対象が狭領域化し、顔検出部40による検出処理時間を短縮することができる。すなわち、顔を含む領域が検出されたとしても、合焦を行うことができない領域については、予め検出処理を行わないことで、顔を含む領域の検出処理を短縮化することができる。
また、顔を含む領域として検出されたとしても合焦を行うことが不可能とみなせる領域については、予め検出処理を行わないことで顔領域を表示させない。このため、合焦が不可能である顔を含む領域であるにも係わらず、ユーザに選択を行わせてしまうという事態を回避することができる点でも有効である。
図6の顔検出処理では、合焦不可領域を除いた領域を検出対象とした。これに対し、合焦不可領域の少なくとも一部も顔検出領域に含め、検出された顔を含む領域に基づいた顔領域の表示段階において、合焦可能領域に含まれる顔領域のみを表示させてもよい。
図10は、本実施形態における携帯電話機1で実行される他の顔検出処理について説明するフローチャートである。この図10で説明する他の顔検出処理は、合焦が不可能とみなされた合焦不可領域が存在するカメラ26、27を備えた携帯電話機1で実行される場合を前提として説明する。また、図6の顔検出処理と対応する部分については、重複する説明を省略する。
ステップS21およびS22は、図6の顔検出処理のステップS11およびS12とほぼ同様であるため、説明を省略する。
ステップS23において、主制御部30は、顔検出が行われる検出領域に関する検出領域情報を取得する。検出領域情報は、カメラ26、27の合焦可能領域と合焦不可領域の少なくとも一部とを含む領域に関する情報である。
図11は、顔検出処理が実行される領域を説明する図である。図11における顔検出領域61は、斜線で示された合焦不可領域62a(例えば図示上下10%)を除いた領域である。主制御部30は、例えば、合焦可能領域と合焦不可領域の少なくとも一部を含む領域を示す座標データを検出領域情報として取得する。
ステップS24において、主制御部30は、顔検出部40に対して検出領域情報に基づく顔検出処理を実行させる。顔検出部40は、例えば顔を含む領域の中心点の座標と、顔を含む領域の大きさで構成された顔を含む領域に関する情報を生成し、主制御部30に供給する。
図12は、顔検出部40が顔検出を行う場合を説明する図である。図12では、顔検出領域61の撮影画像のみが示されており、顔検出領域61以外の領域(合焦不可領域の一部)62a、62aについては点線で示されている。また、斜線で示された領域は、顔検出領域61に含まれる合焦不可領域62b、62bである。
図12に示すように、顔検出部40は、検出領域情報に基づいて合焦可能領域63と合焦不可領域62の一部である顔検出領域61においてのみ顔検出を実行する。このため、合焦可能領域63に顔が含まれる人物Aと、顔検出領域61としての合焦可能領域63と合焦不可領域62bの一部に顔が含まれる人物Bとの顔を含む領域が検出される。
ステップS25において、主制御部30は、顔を含む領域の検出結果が合焦不可領域内に存在するか否かの判定を行う。「顔領域の検出結果が合焦不可領域内に存在する場合」とは、例えば顔を含む領域の中心点が合焦不可領域内に存在する場合が該当する。なお、図12では、人物Bの顔領域としての枠64は、顔を含む領域の中心点が合焦不可領域内に存在しているものとする。
主制御部30は、合焦不可領域内に顔を含む領域の検出結果が存在しないと判定した場合、ステップS27に進む。一方、主制御部30は、合焦不可領域内に顔を含む領域の検出結果が存在すると判定した場合、ステップS26において、合焦不可領域に存在する顔領域としての枠を非表示とする処理を行う。
ステップS27において、表示制御部33は、主制御部30の制御に基づき顔検出部40より供給された顔を含む領域のうち、ステップS26において非表示とされた顔領域を除く検出結果を表示する。表示制御部33は、顔領域としての枠を生成し、撮影画像に合成することにより検出結果を表示する。
図13は、顔を含む領域の検出結果に基づいた顔領域の表示例を示す図であり、(A)は検出された顔領域の全てを検出結果として表示する例を示す図、(B)は合焦不可領域に含まれる顔領域を非表示とした検出結果を表示する例を示す図である。図13における点線は、合焦不可領域62と合焦可能領域63との境界を示すものである。なお、図13(B)の顔領域としての枠64は、中心点が合焦不可領域62に存在する顔を含む領域に基づいて生成された顔領域としての枠として説明する。
図13(A)に示すように、検出された顔を含む領域に基づいた全ての顔領域としての枠を表示対象とした場合、合焦が不可能であるにも係わらず、検出された顔を含む領域が合焦不可領域62内に存在する顔領域としての枠64まで表示してしまうことになる。これに対し、図13(B)に示すように、合焦可能領域63内に存在する顔領域としての枠65のみを表示対象とすることで、図6で説明した顔検出処理と同様の検出結果を表示することができる。以上で他の顔検出処理の説明を終了する。
この他の顔検出処理によれば、合焦可能領域および合焦不可領域の一部のみに行うことで、顔検出部40による顔を含む領域の検出を撮影画像全体に行う場合に比べて検出処理時間を短縮することができる。
また、図10の他の顔検出処理においては、合焦可能領域内で検出された顔を含む領域のみならず、合焦可能領域に近接する合焦不可領域も顔検出対象に含めた。これにより、合焦不可領域に存在する顔を含む領域の情報についても蓄積しておき、この顔が合焦可能領域に移動した時には蓄積された顔を含む領域の情報を元に顔検出処理を行うことができる。このため、初めて合焦可能領域に移動してきた顔を検出する場合と比べて、処理の高速化・高精度化を図ることができる。とくに、顔の移動が激しい人物を被写体とした場合には、合焦不可領域と合焦可能領域との間の移動が頻繁に行われることが考えられる。この場合には、合焦不可領域に顔が存在した場合に蓄積された顔を含む領域の情報を参照することで、合焦可能領域に移動した際に初めて顔検出処理が行われる場合に比べて、処理の高速化・高精度化を図ることができる。
なお、顔検出領域の範囲は、ユーザにより自由に設定可能としてもよい。例えば、異なる大きさの領域が顔検出領域として設定された複数のモードを設けてユーザに選択可能に構成してもよい。合焦不可領域の多くを顔検出領域に含めることにより顔検出領域を大きくとると、例えば合焦不可領域と合焦可能領域との出入りが多い人物が被写体となっている場合には、合焦不可領域から合焦可能領域に移動した際に検出処理の高速化・高精度化を図ることができる。一方、移動が少なく、撮影画像のうち合焦可能領域に位置する人物が主な被写体となっている場合には、顔検出領域に含める合焦不可領域を少なくすることで、不要な領域に対する顔検出処理を省くことができる。
次に、図4の撮影処理のステップS4における顔選択処理の詳細を説明する。本実施形態における顔選択処理は、図4の撮影処理のステップS3の顔検出処理で検出された複数の顔を含む領域に基づいた顔領域の表示の中から一の顔領域を選択する場合に有効な処理である。
図14(A)は顔を含む領域の検出前の撮影画像の表示例を示す図、(B)は顔領域が表示された際の撮影画像の表示例を示す図である。図14(A)に示すように、撮影画像には8人の人物の顔が映っている。このとき、顔検出処理が実行されると、図14(B)に示すように、検出された8人の顔を含む顔領域が表示される。実線で示された人物「B」の顔領域として表示される枠71は合焦対象となっている選択状態の顔領域を示し、点線で示された他の顔領域として表示される枠72、72・・・は、非選択状態の顔領域を示す。
撮影者は人物Aを合焦対象としたいと考えたとき、例えば選択状態となっている人物Bの顔領域から人物Aの顔領域に選択状態を遷移させる必要がある。例えば、操作キー14のうち所定のキー(例えば数字キー15の「8」キー)より入力操作を受け付ける毎に、選択状態を遷移させることで、所望の人物の顔領域に基づいた位置を合焦対象とすることができる。
このとき、合焦対象としたい人物の顔領域が、表示直後から選択状態として表示されていれば、特に選択状態の顔領域を変化させることなく合焦制御させて撮影することができる。しかし、図14(B)に示すように、8人の顔領域が検出され表示された場合、最小でも1回の入力操作、最大では7回の入力操作を行い選択状態を遷移させる操作の必要が生じてしまう。
以下に説明する顔選択処理は、このような選択状態の遷移操作を容易にかつ効率的に行うことができる処理である。本実施形態における携帯電話機1で実行される顔検出処理は、第一〜第三の顔検出処理がある。第一の顔選択処理は、顔領域を所定数ずつ分割して表示する顔分割表示による顔選択処理である。第二の顔選択処理は、指定領域における顔領域のみを検出または表示する指定領域検出・表示による顔選択処理である。第三の顔選択処理は、固定領域における顔を含む領域のみを検出しその顔領域を表示する固定領域検出・表示による顔選択処理である。以下、第一〜第三の顔選択処理について具体的に説明する。なお、以下に説明する顔選択処理には、顔検出処理の一部の工程を含んでおり、図4の顔検出ステップS3と顔選択ステップS4とを含む処理となっている。
図15は、本実施形態における携帯電話機1で実行される分割表示による顔選択処理について説明するフローチャートである。図15の顔検出処理は、複数の顔を含む領域が検出された場合においてメインディスプレイ23に表示される顔領域(として表示される枠)の最大表示数が予め設定されているものとする。
ステップS31において、主制御部30は、顔検出部40に撮影画像内に存在する被写体の顔を含む領域を検出する顔検出処理を実行させる。ステップS31は、上述した図4のステップS3に該当する顔検出処理である。ステップS31における顔検出処理は、上述した図6または図10の顔検出処理を実行してもよいし、検出領域を考慮することなく画像信号全体に対する顔検出処理を実行してもよい。
ステップS32において、主制御部30は、検出された顔を含む領域の数が、予め設定された最大表示数よりも多いか否かの判定を行う。主制御部30は、検出された顔を含む領域の数が最大表示数(例えば最大表示数4)よりも少ないと判定した場合、ステップS33において全ての顔を含む領域に基づいた顔領域の検出結果を表示する。
一方、検出された顔を含む領域の数が最大表示数よりも多いと判定された場合、ステップS34において、表示制御手段としての表示制御部33は、主制御部30の制御に基づき検出された複数の顔を含む領域のうち、所定数の顔を含む領域に基づいた顔領域を分割して表示する。すなわち、所定数の顔領域のみを表示し、残りの顔領域については非表示とする。分割して表示される顔領域の数は、最大表示数と残りの数とで分割して表示してもよいし、検出された顔領域数がほぼ均等になるように分割して表示してもよい。
なお、検出直後に表示される所定数の顔領域は、いかなる顔領域であってもよく、例えば撮影画像を所定の領域で分割(例えば左右で2分割)し、分割された領域毎に存在する顔領域を表示してもよいし、検出された順で分割して表示してもよいし、中心点から距離の近い順に所定数の顔領域を表示してもよい。
図16(A)は顔を含む領域の検出前の撮影画像の表示例を示す図、(B)は検出結果が分割されて表示された際の撮影画像の表示例を示す図である。図16においては、顔領域の最大表示数が4に設定されているものとする。図16(A)に示すように、撮影画像には8人の人物の顔が映っている。このとき、顔検出処理が実行されると(例えば、数字キー15の「*」キー)が押下されると、顔検出部40により8人の顔の顔を含む領域が検出されることになる。しかし、顔領域の最大表示数は4に設定されているため、図16(B)に示すように、撮影画像には最大表示数に対応した4つの顔領域のみが分割されて表示される。
ステップS35において、主制御部30は、検出結果表示ステップS34において表示された顔領域を、分割された残りの顔領域に切り替えて表示する指示を受け付けたか否かの判定を行う。この表示切替指示は、例えば所定の操作キー14が押下されることにより受け付ける。主制御部30は、表示切替指示を受け付けたと判定した場合、検出結果表示ステップS34に戻り、現在表示されている顔領域から分割された残りの顔領域へ表示を切り替える。
図16(C)は図16(B)の撮影画像の表示例から表示切替が行われた場合の撮影画像の表示例を示す図である。例えば、図16(B)では、合焦対象として人物Aの顔領域を選択状態としたいにも係わらず、人物Aの顔領域として表示される枠が表示されていないものとする。この場合、撮影者はステップS35で所定の操作キー14(例えば数字キー15の「7」キー)を押下することにより表示切替を行って、図16(C)に示すように残りの人物Aの顔領域を含む検出結果を表示させることができる。
検出結果表示ステップS33で検出結果が表示された後、および表示切替判定ステップS35で表示切替指示を受け付けない場合、ステップS36において、主制御部30は、一の顔領域が選択されたか否かの判定を行う。選択されたか否かの判定は、例えば複数の顔領域の中から一の顔領域が選択状態であり、所定の操作キー14(例えば数字キー15の「8」キー)が押下されて選択状態の固定が行われたか否かで判定される。一の顔領域が選択された場合には、その顔を含む領域のみを追随する動作に移行し、この顔領域の選択が解除されるまでは他の顔を含む領域の検出および顔領域の表示は行われない。一の顔領域が選択されない場合は、表示切替判定ステップS35に戻り、以降の処理が繰り返される。以上で分割表示による顔選択処理の説明を終了する。
この本実施形態における携帯電話機1で実行される分割表示による顔選択処理は、撮影画像内に含まれる被写体としての人物が多い場合に、有効な処理である。例えば、最大表示数より多い顔領域が検出された場合には、顔領域表示ステップS34において、顔領域を分割して表示させるため、表示された中から一の顔領域を選択する操作数を低減させることができる。これに対して、分割表示された中に所望の顔領域が含まれていなかった場合には、表示切替判定ステップS35において表示切替の指示を受け付けると、非表示となっている残りの顔領域を表示することができる。撮影者は、表示された顔領域の中から、少ない操作で所望の顔領域を選択することができる。
例えば、図14(B)に示す撮影画像の中から、人物Aの顔領域を選択したい場合、現在選択状態となっている人物Bの顔領域から選択状態を移動させる操作を行う必要がある。このとき、所定の操作キー14の押下により選択状態である顔領域が所定の方向(例えば左から右)に移動するが、選択状態の顔領域を人物Bから人物Aまで移動させようとすると、最大では7回の入力操作を行う必要がある。
これに対し、図15で説明した顔選択処理が実行された直後の、図16(B)に示す撮影画像の中から人物Aの顔領域を選択しようとした場合には、顔領域が分割表示されたことにより人物Aの顔領域が非表示となっている。ここで、撮影者は、表示切替の指示を所定の操作キー14から入力すると、図16(C)に示すように人物Aを含む、図16(B)では非表示となっていた残りの顔領域が表示される。このとき、所定の操作キー14の押下により選択状態である顔領域が所定の方向に移動するが、選択状態の顔領域を人物Aまで移動させる場合、最大でも3回という少ない入力操作を行えば移動可能である。
このように、検出された顔領域が最大表示数以上であった場合には、検出された顔領域を分割して一部を表示し、残りの一部を非表示とすることで、顔領域の選択操作の回数を低減することができる。
なお、最大表示数は任意に設定できるように構成してもよく、本実施形態で説明した4に限られない。また、検出された顔領域の表示分割数も、本実施形態で説明した2分割に限られず、3分割などの2より大きい数で分割してもよい。
次に、第二の顔選択処理としての指定領域における顔を含む領域のみを検出または顔領域を表示する、指定領域表示による顔選択処理について説明する。この第二の顔選択処理は、さらに二通りの処理方法で実現することができる。第一の処理方法は、撮影画像全体から顔を含む領域を検出し、指定領域に存在する顔領域のみを表示して選択させる方法である。第二の処理方法は、指定領域内で顔を含む領域を検出し、検出された顔を含む領域に基づいた顔領域を表示して選択させる方法である。
まず、第一の処理方法を適用した顔選択処理の説明を行う。図17は、本実施形態における携帯電話機1で実行される第一の処理方法を適用した指定領域検出・表示による顔選択処理を説明するフローチャートである。なお、上述した図15の顔選択処理と対応する処理については、重複した説明を省略する。
ステップS41は、図15の顔検出ステップS31と同様であるため、説明を省略する。
ステップS42において、表示制御手段としての表示制御部33は、主制御部30の制御に基づき検出された顔を含む領域に基づいた顔領域を表示する。この表示される顔領域は、検出された全ての顔領域が表示されてもよいし、上述した図15の分割表示による顔選択処理のように最大表示数を超えた場合には分割表示するようにしてもよい。
ステップS43において、主制御部30は、メインディスプレイ23(撮影画像)が所定数に分割された領域の中から指定領域として一の領域の選択を受け付けたか否かの判定を行う。ここで指定領域の選択を受け付けるのは、選択された指定領域で検出された顔を含む領域に基づいた顔領域を表示し、他の領域において検出された顔を含む領域に基づいた顔領域を非表示とするためである。
図18は、指定領域選択手段としての操作キー14を説明する図である。図18に示すように、メインディスプレイ23(撮影画像)の領域はほぼ均等に12分割されている。また、「0」〜「9」および「*」、「#」からなる12個の数字キー15は、メインディスプレイ23の12分割された領域と対応している。なお、メインディスプレイ23および各数字キー15に表示された数字は、説明の便宜上図示したもので、実際には表示は行われない。
主制御部30は、メインディスプレイ23の各領域と位置的に対応した数字キー15が押下されることにより、指定領域としての一の領域の選択を受け付ける。例えば、図18のメインディスプレイ23上の「6」の領域23aを指定領域として選択したい場合、図18の数字キー15のうち「6」が図示されている数字キー15aを押下することにより、指定領域の選択を行うことができる。
ステップS43において、指定領域の選択を受け付けていないと判定した場合、ステップS45にすすむ。一方、指定領域の選択を受け付けたと判定した場合、ステップS45において、表示制御部33は、主制御部30の指示に基づき、検出された顔を含む領域のうち指定領域に存在する顔を含む領域に基づいた顔領域のみを表示する。すなわち、顔領域表示ステップS42において表示された顔領域のうち、指定領域以外に存在する顔領域については非表示とする。指定領域に存在するか否かは、例えば顔を含む領域の中心点の座標が指定領域内に存在しているか否かで判断することができる。
図19(A)は全領域において顔領域を表示した撮影画像の表示例を示す図であり、(B)は指定領域に存在する顔領域のみを表示した撮影画像の表示例を示す図である。図19(A)では、検出された顔を含む領域の全てに基づいた顔領域が表示されている。ここで、撮影者が人物Aを合焦対象としたい場合を考える。しかし、検出された顔を含む領域の全てに基づいた顔領域が表示されると、人物Aの顔領域に選択状態を移動させるための入力操作回数が多くなってしまう。
このとき、人物Aが存在する領域に対応した数字キー15の押下による指定領域の選択が行われると、図19(B)に示すように指定領域に含まれる人物Aの顔領域のみが表示される。このとき押下される図18に示す数字キー15は、例えば「6」が図示された数字キー15aである。なお、図19に示すメインディスプレイ23(撮影画像)は、図18に示すメインディスプレイ23の状態(姿勢)と対応しているものとする。
ステップS45は、図15の顔領域選択判定ステップS36とほぼ同様であるため、説明を省略する。以上で、第一の処理方法を適用した指定領域検出・表示による顔選択処理は終了する。
この本実施形態における携帯電話機1で実行される第一の方法を適用した指定領域表示による顔選択処理は、撮影画像全体で検出された顔を含む領域に基づく顔領域が表示された後に、指定領域が選択されることにより、選択された領域に存在する顔領域のみを表示させた。これにより、表示される顔領域数を減らすことができ、少ない顔領域の中から合焦対象としたい顔領域の選択を行う際に必要な入力操作を低減することができる。
例えば、図19(A)に示すように、8人分の顔領域から人物Aの顔を合焦対象とするために顔領域の選択状態を移動するためには、上述したように入力操作数が最大7回必要となる場合がある。しかし、図19(B)に示すように、人物Aの顔が位置する領域に対応する数字キー15の押下で指定領域を選択することにより、人物Aの顔領域のみを表示させることができる。図19(B)に示すように、指定領域に人物Aの顔領域のみが存在する場合には、人物Aの顔領域が選択状態で示されることになるので、例えば所定の操作キー14の押下による選択状態の固定を即座に行うことができる。
なお、メインディスプレイ23(撮影画像)を分割した各領域を指定領域として選択する場合には、位置的に対応した数字キー15を押下することにより行うようにしたが、他の操作キー14を指定領域の選択に割り当ててもよい。
次に、第二の処理方法を適用した顔選択処理の説明を行う。図20は、本実施形態における携帯電話機1で実行される第二の処理方法を適用した指定領域検出・表示による顔選択処理を説明するフローチャートである。この図20で説明する顔選択処理が開始されるタイミングは、図4の撮影処理における撮影画像取得ステップS2の後である。なお、上述した図15および図17の顔選択処理と対応する処理については、重複した説明を省略する。
ステップS51において、主制御部30は、撮影画像が所定数に分割された領域の中から、指定領域として一の領域の選択を受け付けたか否かの判定を行う。ここで指定領域の選択を受け付けるのは、選択された指定領域で顔を含む領域の検出を行い、他の領域においては顔を含む領域の検出を行わないようにするためである。指定領域の選択については、上述した図17の第一の処理方法を適用した顔選択処理において説明した指定領域の選択とほぼ同様であるため、説明を省略する。
ステップS52において、主制御部30は、顔検出部40に指定領域内における被写体の顔を含む領域を検出する顔検出処理を実行させる。なお、ステップS51で選択された、指定領域内に加え周囲の所定のエリア(例えば顔の中心が指定領域内に入る最も広い範囲)に対して顔検出処理を行ってもよい。
ステップS53において、表示制御手段としての表示制御部33は、主制御部30の制御に基づき検出された顔を含む領域に基づいた顔領域を表示する。このステップS53においては、指定領域選択ステップS51において選択された指定領域のみで顔検出が行われているので、指定領域に存在する顔を含む領域が検出され、その領域に基づく顔領域が表示される。
ステップS54において、主制御部30は、新たに指定領域の選択を受け付けたか否かの判定を行う。新たに指定領域の選択を受け付けたと判定された場合、処理は顔検出ステップS52に戻り、指定領域内の顔検出を再度実行する。
一方、新たに指定領域の選択を受け付けていないと判定された場合、ステップS55において、主制御部30は、一の顔領域が選択されたか否かの判定を行う。主制御部30は、一の顔領域の選択されていないと判定した場合、指定領域選択判定ステップS54に戻り再度処理を繰り返す。一方、主制御部30は、一の顔領域が選択されたと判定した場合、ステップS56において、選択された顔を含む領域の検出が行われた領域に係わらず、選択された顔領域に基づく領域を撮影画像全体において追随する。例えば、顔領域が選択された人物が、指定領域とは異なる領域に移動した場合には、指定領域の範囲に係わらず、この人物が撮影画像から離脱するまで、画像信号全体において人物の顔を含む領域の検出を行う。以上で、第二の処理方法を適用した指定領域表示による顔選択処理は終了する。
この本実施形態における携帯電話機1で実行される第二の方法を適用した指定領域表示による顔選択処理は、図17の第一の方法を適用した場合と同様の効果に加えて、顔検出処理の対象とする領域を狭領域化できるため、顔検出時間を短縮できるという点で有効である。
次に、第三の顔選択処理としての固定領域における顔を含む領域のみを検出し表示する固定領域検出・表示による顔選択処理について説明する。図21は、本実施形態における携帯電話機1で実行される固定領域表示による顔選択処理を説明するフローチャートである。なお、上述した図15、図17および図20の顔選択処理と対応する処理については、重複した説明を省略する。
ステップS61において、主制御部30は、顔検出部40に顔検出処理を実行させる。このとき顔検出部40は、撮影画像内における固定領域である検出優先領域内で顔検出を行う。ステップS62において、表示制御部33は、主制御部30の制御に基づき顔検出部40より供給された顔を含む領域の検出結果に基づいた顔領域を表示する。
図22(A)は顔検出を行う検出優先領域が表示された場合の撮影画像の表示例を示す図であり、(B)は検出優先領域内で検出された顔を含む領域に基づいた顔領域が表示された場合の撮影画像の表示例を示す図である。図22(A)に示すように、撮影画像内には固定領域としての検出優先領域81が表示されている。顔検出部40によりこの検出優先領域81内で顔検出が行われると、図22(B)に示すように、検出優先領域81内で検出された顔を含む領域に基づいた顔領域が表示される。
優先検出領域81は、図22(A)では実線の枠で表示されているが、表示方法はこれに限らず、例えば検出優先領域内を他の領域とは異なる色で表示してもよいし、検出優先領域を非表示にしてもよい。また、優先検出領域81は、図22(B)に示すように顔領域が検出された場合には非表示となっているが、これに限らず顔領域が検出された後も常に表示しておいてもよい。
なお、優先検出領域は、撮影者が携帯電話機1のカメラ26、27の向きを調整することにより、顔検出を行わせて合焦対象としたい顔が優先検出領域に収まるようにしてもよい。
図23(A)は、顔検出を行う検出優先領域が表示された場合の撮影画像の表示例を示す図であり、(B)はカメラ26、27の向きを調整した後の検出優先領域内で検出された顔を含む領域に基づいた顔領域が表示された場合の撮影画像の表示例を示す図である。撮影者が、図23(A)に示す人物Cを合焦対象としたい場合、検出優先領域81内には人物Cの顔が含まれないため、顔検出することができない。このとき、撮影者は、人物Cの顔が検出優先領域81内に収まるように携帯電話機1のカメラ26、27の向きを調整することにより、人物Cの顔検出を行わせることができる。
ステップS63において、主制御部30は、検出優先領域の移動を受け付けたか否かの判定を行う。主制御部30は、検出優先領域の移動を受け付けたと判定した場合、ステップS64において、顔検出優先領域を指示を受け付けた量だけ移動させる。また、検出優先領域の移動を受け付けた場合には、処理はステップS61に戻り、移動後の検出優先領域において、再度、顔検出部40により顔検出処理が実行される。
なお、この検出優先領域の移動機能は、携帯電話機1に設けられた必須の機能ではなくてもよい。移動機能が設けられていない場合には、ステップS63、S64をスキップして、ステップS62からステップS66に進む。
図24(A)は顔検出を行う検出優先領域が表示された場合の撮影画像の表示例を示す図であり、(B)は検出優先領域が移動した場合の撮影画像の表示例を示す図である。なお、説明の便宜上、図24には検出された顔を含む領域に基づいた顔領域の表示は省略してある。また、図24(B)の撮影画像内の点線で示された領域82は移動前の検出優先領域を示し、実線で示された領域は移動後の検出優先領域81を示す。
撮影者が、図24(A)に示す人物Cを合焦対象としたい場合、検出優先領域81内には人物Cの顔が含まれていないため、顔検出することができない。このとき、撮影者は、人物Cの顔が検出優先領域81に収まるように所定の操作キー14(例えば十字キー16)を操作することにより、人物Cの顔の顔を含む領域を検出させることができる。
ステップS65において、主制御部30は、一の顔領域が選択されたか否かの判定を行う。主制御部30は、一の顔領域の選択されていないと判定した場合、顔検出ステップS61に戻り再度処理を繰り返す。一方、主制御部30は、一の顔領域が選択されたと判定した場合、ステップS66において、顔を含む領域の検出が行われた検出優先領域に係わらず、選択された顔領域に基づいた顔を含む領域を撮影画像全体において追随する。以上で、固定領域検出・表示による顔選択処理は終了する。
この本実施形態における携帯電話機1で実行される固定領域検出・表示による顔選択処理は、顔検出処理の対象とする領域を狭領域化できるため、顔検出時間を短縮できるという点で有効である。また、予め固定された領域が検出優先領域として設けられているため、撮影者が顔検出を行いたい領域を指定する必要がない点でも顔選択を行う際の操作数を低減させることができる。
この携帯電話機1によれば、以上のような顔検出処理および顔選択処理を実行することにより、顔を含む領域の検出を効率よく行うことができ、あるいは検出された顔を含む領域に基づいて表示される顔領域の選択操作を容易にすることができる。
なお、本発明は携帯電話機以外にもPDA(Personal Digital Assistant)、パーソナルコンピュータ、携帯型ゲーム機、携帯型音楽再生機、携帯型動画再生機、その他の撮像機能を備えた携帯端末にも適用することができる。
また、本発明の各実施形態において説明した一連の処理は、ソフトウェアにより実行させることもできるが、ハードウェアにより実行させることもできる。
さらに、本発明の実施形態では、フローチャートのステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。