以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。また、以下においては、表示装置を搭載した撮像装置を例に説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付して説明する。
(実施の形態1)
図1は、本発明に係る撮像装置の撮影者に面する側(背面側)の構成を示す斜視図である。図2は、本発明に係る撮像装置の被写体に面する側(前面側)の構成を示す斜視図である。図3は、本発明に係る撮像装置の機能構成を示すブロック図である。なお、図1および図2において、撮像装置1の幅方向をX軸、撮像装置1の高さ方向をY軸、撮像装置1の光軸L1方向をZ軸として説明する。
図1〜図3に示す撮像装置1は、被写体を撮像し、被写体の画像データを生成する本体部2と、本体部2に対して撮影者側(背面側)から被写体側(前面側)に向けて回動可能に設けられ、本体部2が生成した画像データに対応する画像を表示可能な表示機構3と、を備える。
まず、本体部2の構成について説明する。本体部2は、撮像部10と、入力部11と、記録部12と、記録媒体13と、回転判定部14と、制御部15と、を備える。
撮像部10は、制御部15の制御のもと、所定のフレームレート(たとえば30fps)で所定の視野領域を連続的に撮像して、時間的に連続する複数の画像データを生成する。撮像部10は、複数のレンズから構成され、被写体像を結像する光学系と、光学系の光量を調整する絞りと、光学系が結像した被写体像を受光して光電変換を行うことによって画像データを生成するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子の状態を露光状態または遮光状態に設定するシャッタと、撮像素子が生成した画像データに対して所定のアナログ処理を行う信号処理部と、信号処理部から入力されるアナログの画像データに対してA/D変換を行うことによってデジタルの画像データを生成して制御部15へ出力するA/D変換部と、撮像素子の撮像タイミングを発生するタイミングジェネレータと、を用いて構成される。
入力部11は、撮像装置1に関する各種の動作を指示する指示信号の入力を受け付ける。入力部11は、撮像装置1の電源状態をオン状態またはオフ状態に切り換える電源スイッチ、撮像装置1に撮影を指示するレリーズ信号の入力を受け付けるレリーズスイッチ等を用いて構成される。
記録部12は、制御部15を介して入力される画像データ、撮像装置1の処理中の情報、撮像装置1を動作させるための各種プログラムや本実施の形態1に係るプログラムおよびプログラムの実行中に使用される各種データ等を記録する。記録部12は、SDRAM(Synchronous Dynamic Random Access Memory)およびFlashメモリ等を用いて構成される。
記録媒体13は、制御部15を介して入力される画像データを記録する。記録媒体13は、本体部2の外部から装着されるメモリカード等を用いて構成され、図示しないメモリI/Fを介して本体部2に着脱自在に装着される。記録媒体13は、後述する制御部15によって処理が施された画像データや動画データが書き込まれる。また、記録媒体13は、制御部15によって記録された画像データまたは動画データが読み出される。
回転判定部14は、表示機構3の回転状態を判定し、この判定結果を制御部15へ出力する。具体的には、回転判定部14は、本体部2に対して表示機構3の表示部31の表示領域が前面側に回動して、表示部31の表示領域が前面側(被写体側)に向いているか否かを判定し、この判定結果を制御部15へ出力する。
制御部15は、撮像装置1を構成する各部に対応する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。制御部15は、CPU(Central Processing Unit)等を用いて構成される。
ここで、制御部15の詳細な構成について説明する。制御部15は、顔検出部151と、瞳検出部152と、瞳変更画像生成部153と、表情判定部154と、撮像制御部155と、表示制御部156と、を有する。
顔検出部151は、撮像部10が生成した画像データに対応する画像内の被写体の顔を検出する。具体的には、顔検出部151は、撮像部10が生成した画像データに対応する画像に含まれる人物の顔をパターンマッチングによって検出する。たとえば、顔検出部151は、パターンマッチングを用いて画像中の顔の位置を検出後、目、鼻および口等の顔の特徴点の位置を検出することによって、顔の位置、顔の大きさ(領域)、顔の向き、顔の角度(傾き)および顔の表情(笑顔等)を検出する。なお、顔検出部151は、人物の顔だけでなく、犬や猫等の動物の顔を検出してもよい。さらに、顔検出部151は、パターンマッチング以外の周知技術を用いて人物の顔を検出してもよい。
瞳検出部152は、顔検出部151が検出した被写体における顔の瞳を検出する。具体的には、瞳検出部152は、顔検出部151が検出した被写体における顔の目(目領域)に対して、所定の処理、たとえばグレースケール処理を行った後に、2値化処理を行うことによって、瞳(瞳領域)を検出する。
瞳変更画像生成部153は、瞳検出部152が検出した検出結果に基づいて、被写体の強膜領域(白目領域)における瞳領域の位置を変更した瞳変更画像データを生成する。具体的には、瞳変更画像生成部153は、瞳検出部152が検出した瞳領域に対してトリミング処理を行って瞳画像を生成し、この瞳画像を強膜領域の所定の領域、たとえば右端部に重畳するとともに、トリミング処理を行った瞳領域に対して白色や周辺の強膜領域の画素で補間する補間処理を行って被写体の視線を変更した瞳変更画像データを生成する。たとえば、瞳変更画像生成部153は、瞳検出部152が検出した被写体の瞳の位置が正面(中央)の場合、左右それぞれに瞳を移動させて互いに視線が異なる被写体が写る2つの瞳変更画像データを生成する。なお、瞳変更画像生成部153は、周知技術のモーフィング処理を用いて、顔検出部151が検出した顔の各パーツの輪郭および瞳検出部152が検出した瞳に基づいて、被写体の視線を変更した瞳変更画像データを生成してもよい。
表情判定部154は、撮像部10が生成した画像データに対応する画像内における被写体の表情と、後述する表示部31が表示する表情ガイド画像内の被写体における顔の表情との類似を判定する。具体的には、表情判定部154は、撮像部10が生成した画像データに対応する画像内における被写体の表情と、後述する表示部31が表示する表情ガイド画像内の被写体における顔の表情との一致度が所定の範囲内であるか否かを判定する。具体的には、表情判定部154は、表情ガイド画像内における被写体の各パーツの特徴点、たとえば目、鼻および口、顔の向き、顔の位置、顔の大きさ、顔の角度等と、撮像部10が生成した画像データに対応する画像内における被写体の各パーツの特徴点とが略一致するか否かを判定する。なお、表情判定部154は、被写体の強膜領域における瞳の位置のみ一致するか否かを判定するだけでもよい。また、表情判定部154は、撮像部10が生成した画像データに対応する画像内における被写体の表情と、後述する表示部31が表示する表情ガイド画像内の被写体における顔の表情とが一致するか否かを判定してもよい。
撮像制御部155は、入力部11からレリーズ信号が入力された場合、撮像装置1における撮影動作を開始する制御を行う。ここで、撮像装置1における撮影動作とは、撮像部10が生成した画像データを記録媒体13に記録する。また、撮像制御部155は、入力部11から動画撮影を指示する指示信号が入力された場合、記録媒体13に動画ファイルを作成し、この動画ファイルに、撮像部10が順次生成した画像データを順次記録(格納)する。さらに、撮像制御部155は、表情判定部154の判定結果に基づいて、撮像部10の撮像を制御する。具体的には、撮像制御部155は、表情判定部154が撮像部10によって生成された画像データに対応する画像内の被写体の表情と後述する表情ガイド画像内の被写体の表情とが一致すると判定するまで、撮像部10に被写体を連続的に撮像させる。
表示制御部156は、画像データに対応する画像を、後述する表示機構3の表示部31に表示させる。表示制御部156は、被写体を撮影する際に、撮影アドバイスとして、少なくとも被写体における顔の表情の一部が変更された表情ガイド画像を表示部31に表示させる。ここで、表情ガイド画像とは、正面を見た視線の被写体が写る被写体画像を、正面以外の視線に変更した被写体が写る被写体画像である。具体的には、表示制御部156は、瞳変更画像生成部153が生成した被写体の瞳位置を変更した画像データに対応する画像を、後述する表示機構3の表示部31に表示させる。また、表示制御部156は、表情判定部154が撮像部10によって生成された画像データに対応する画像内の被写体の表情と後述する表情ガイド画像内の被写体の表情とが略一致すると判定した場合、異なる表情ガイド画像を表示部31に表示させる。自分の顔画像を加工して表示すれば、一致する確率が高くなるが、アバターを表示にしても良い。
次に、表示機構3の構成について説明する。表示機構3は、表示部31と、可動部32と、回転支持部33と、を備える。
表示部31は、制御部15の制御のもと、制御部15を介して入力される画像データに対応する画像を表示する。ここで、画像の表示には、撮影直後の画像データを所定時間(たとえば3秒間)だけ表示するレックビュー表示、記録媒体13に記録された画像データを再生する再生表示、および撮像部10が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー表示等が含まれる。表示部31は、液晶または有機ELからなる表示パネルおよび駆動ドライバ等を用いて構成される。また、表示部31は、撮像装置1の操作情報および撮影に関する情報を適宜表示する。さらに、表示部31は、撮像装置1の本体部2に対して、撮像装置1の背面側から撮像装置1の前面側に向けて回動可能に設けられる(図1→図2を参照)。
可動部32は、表示部31が設けられ、ヒンジ等の回転支持部33を介して本体部2の一端を中心にして回動可能に本体部2に設けられる。具体的には、可動部32は、回転支持部33の軸R1を中心にして、本体部2の背面側から前面側に向けて回動可能に設けられる(図2を参照)。
以上の構成を有する撮像装置1が実行する処理について説明する。図4は、撮像装置1が実行する処理の概要を示すフローチャートである。
図4に示すように、まず、制御部15は、撮像装置1が自分撮り撮影モードに設定されているか否かを判断する(ステップS101)。具体的には、制御部15は、回転判定部14から入力される判定結果に基づいて、本体部2に対して、表示部31の表示領域が撮像装置1の前面側(撮像部10の視野領域側)に向けられているか否かを判断する。たとえば、図5に示すように、被写体O1(撮影者)によって表示部31の表示領域が撮像装置1の前面側に向けられている場合、制御部15は、撮像装置1が自分撮り撮影モードに設定されていると判断する。制御部15によって撮像装置1が自分撮り撮影モードに設定されていると判断された場合(ステップS101:Yes)、撮像装置1は、ステップS102へ移行する。これに対して、制御部15によって撮像装置1が撮影モードに設定されていないと判断された場合(ステップS101:No)、撮像装置1は、後述するステップS118へ移行する。
ステップS102において、撮像制御部155は、撮像部10に撮像を実行させる。たとえば、図5に示すように、撮像制御部155は、被写体O1を撮像部10に撮像させる。
続いて、表示制御部156は、撮像部10が生成した画像データに対応するライブビュー画像を表示部31に表示させる(ステップS103)。この場合、表示制御部156は、撮像部10が生成した画像データに対応するライブビュー画像を、本体部2に対して反転させて表示部31に表示させる(ミラー反転表示)。なお、表示制御部156は、ライブビュー画像を本体部2に対して反転させた後、ライブビュー画像を左右反転させて表示部31に表示させてもよい。もちろん、表示制御部156は、ライブビュー画像を反転させることなく、そのままの状態で表示部31に表示させてもよい。
その後、被写体O1に対して、自分撮り撮影を行う際に、表情或いは姿勢、または構図に関する撮影アドバイスを表示させながら、被写体自身の想像を超えた画像を得ることができる奇跡の一枚モードが撮像装置1に設定されている場合(ステップS104:Yes)、顔検出部151は、撮像部10が生成した画像データに対応する画像内における被写体の顔を検出する(ステップS105)。
続いて、瞳検出部152が顔検出部151によって検出された顔に対して、1対の瞳を検出した(ステップS106:Yes)、瞳変更画像生成部153は、瞳検出部152が検出した被写体の顔の瞳領域(瞳孔、虹彩および角膜を含む領域)および強膜領域(白目領域)に対して、白色(または検出された白眼(強膜領域)に近い色でも良いが、以下白色と単純化して説明する)で重畳または塗り潰す白色加工処理を実行し(ステップS107)、強膜領域に対して、瞳画像を所定の領域毎に合成して被写体の視線を変化させた表情ガイド画像を生成する(ステップS108)。
図6は、瞳変更画像生成部153が生成する被写体の表情ガイド画像の生成方法の概要を模式的に示す図である。
図6に示すように、まず、瞳変更画像生成部153は、瞳検出部152が検出した被写体O1の顔の一対の目領域AL,AR内における瞳領域(EL,ER)対して、白色で塗り潰す白色加工処理を実行する(図6(a)→図6(b))。その後、瞳変更画像生成部153は、被写体O1の強膜領域WL,WRに対して、瞳画像K1を所定の領域毎、たとえば被写体O1の目の左右端部(目頭または目尻)それぞれに合成した被写体O1の表情ガイド画像O2および表情ガイド画像O3を生成する(図6(b)→図6(c)および図6(b)→図6(d))。なお、図6において、瞳変更画像生成部153は、被写体の目の左右端部以外に、上下端部または斜方向端部に合成した被写体O1の視線を変更した表情ガイド画像を生成してもよい。
ステップS109において、表示制御部156は、瞳変更画像生成部153が生成した表情ガイド画像とライブビュー画像とを表示部31に一覧表示させる。具体的には、図7に示すように、表示制御部156は、撮像部10が生成した画像データに対応するライブビュー画像LV1および瞳変更画像生成部153が生成した表情ガイド画像G1を表示部31に表示させる。ここで、鏡と同じように撮像結果を左右反転表示すれば、鏡で普段、見慣れた自分となる。手の動かし方や顔の曲げ方なども、この方が直感的にできる。もちろん、他の人の見た目を優先するなら、反転表示しなくとも良い。この場合、表示制御部156は、ライブビュー画像LV1および表情ガイド画像G1を縮小して表示部31に表示させる。さらに、表示制御部156は、表情ガイド画像G1を、ライブビュー画像LV1に比して拡大させて表示部31に表示させる。さらにまた、表示制御部156は、表情ガイド画像G1をサポートするための情報、たとえば、「左に目線を動かして下さい」のメッセージI1を表示部31に表示させる。これにより、被写体O1は、自分撮り撮影時に、表示部31で表示される画像を確認することで、表示部31または撮像部10に対して視線をずらした際に、撮影される自分自身の表情を仮想的に把握することができる。この結果、自分撮り撮影を行う場合であっても、自然な表情で撮影することができる。
また、表示制御部156は、表情ガイド画像G1を表示部31に一覧で表示させることで、どのような目の向きが、その時のシーンにふさわしいかを一目でユーザ(撮影者)が判断できるし、比較して、どれが良いかを判定することも簡単にできる。もちろん、一覧でなく、順次表示してもよい。この場合は、表示制御部156は、画面を分割する必要がなく、大きな画面で確認ができる。相互比較できるように一覧表示で、かつ大きく表情の差異を見たい場合は、顔の部分だけを切り出して並べる方法があるが、このような応用は当然、本願のカバー範囲である。ただし、背景も見える方が、構図確認も同時に出来て良い。
従って、撮像装置1は、構図確認の後、表情シミュレーションを行ってもよい。もちろん、背景や表情の兼ね合いで、目線の方向のベスト画像が選択できる場合があり、この場合は、表示制御部156は、表示部31に複数の画像を表示させず、これで撮影しなさい、と単一のお勧め画像(アドバイス画像)を表示させるような仕様でも良い。目線の方向を自動で変更するのみならず、例えば、タッチパネルをスライドすると、あるいは、特定のスイッチを操作すると、その方向を見るように黒目を動かして目線を変えてもよい。これまでのカメラ等の撮像装置は、表示部31を凝視した画像しか確認できなかったので、このように、表示部31を見つめていない表情が、撮影者の操作しだいで変更し、確認できることは、これまでにない「自分撮り撮影」を可能とし、撮影において格段の効果を奏する。つまり、表示部31への凝視画像を、それ以外の目線に変換した目線画像に変換するので、今まで気づかなかった魅力的な表情などの発見にも繋がる。
ステップS109の後、表情判定部154は、瞳変更画像生成部153が生成した表情ガイド画像G1内における被写体O1の顔パーツと撮像部10が生成した画像データに対応する画像内における被写体O1の顔パーツとが一致しているか否かを判定する顔パーツ判定を開始する(ステップS110)。
表情判定部154が表情ガイド画像G1内の被写体O1の顔パーツと撮像部10によって生成された画像データに対応する画像内の被写体O1の顔パーツ、たとえば目の視線とが一致していると判定した場合(ステップS111:Yes)、撮像装置1は、後述するステップS113へ移行する。これに対して、表情判定部154が表情ガイド画像G1内における被写体O1の顔パーツと撮像部10によって生成された画像データに対応する画像内における被写体O1の顔パーツとが一致していないと判定した場合(ステップS111:No)、撮像装置1は、後述するステップS112へ移行する。このとき、完全に一致するのを判定する必要はないので、類似となれば良いものとする。これは、各パーツの相対的な位置や角度、形状などを数値化して一致度を見て、一致度が高ければ類似判断すればよい。
ステップS112において、撮像制御部155は、撮像部10に被写体O1を連続的に撮影させる(連写撮影)。この際、撮像制御部155は、撮像部10が連続的に生成する画像データに対応する画像の露出値を上げる補正を行ってもよい。さらに、撮像制御部155は、撮像部10のピント位置を、被写体O1の瞳または眉毛にピント位置を合わせながら被写体O1の移動に追従して被写体O1を連続的に撮影してもよい。この場合、撮像制御部155は、撮像部10が連続的に生成した画像データを、時系列に沿って記録媒体13に順次記録してもよいし、所定のフレームを間引きながら記録媒体13に記録してもよい。これにより、被写体O1が創造することができない自然な表情で撮影された画像を得ることができる。さらに、撮像制御部155は、撮像部10のフレームレートを30fpsから60fpsへと高速なフレームレートに変更してもよい。さらにまた、撮像制御部155は、撮像部10が生成する画像データのデータサイズを縮小させて被写体を連続的に撮影させてもよい。ステップS112の後、撮像装置1は、ステップS111へ戻る。
ステップS113において、別の表情ガイド画像がある場合(ステップS113:Yes)、撮像装置1は、ステップS109へ戻る。これに対して、別の表情ガイド画像がない場合(ステップS113:No)、撮像装置1は、ステップS114へ移行する。
ステップS114において、撮像装置1の電源がオフになった場合(ステップS114:Yes)、撮像装置1は、本処理を終了する。これに対して、撮像装置1の電源がオフになっていない場合(ステップS114:No)、撮像装置1は、ステップS101へ戻る。
ステップS106において、瞳検出部152が顔検出部151によって検出された顔に対して、1対の瞳を検出していない場合(ステップS106:No)、表示制御部156は、ライブビュー画像上に警告を重畳して表示部31に表示させる(ステップS115)。
続いて、入力部11から撮影を指示するレリーズ信号が入力された場合(ステップS116:Yes)、撮像装置1は、撮影を実行する(ステップS117)。ステップS117の後、撮像装置1は、ステップS114へ移行する。これに対して、入力部11から撮影を指示するレリーズ信号が入力されていない場合(ステップS116:No)、撮像装置1は、ステップS114へ移行する。
ステップS104において、奇跡の一枚モードが撮像装置1に設定されていない場合(ステップS104:No)、撮像装置1は、ステップS116へ移行する。
ステップS118において、撮像装置1は、表示部31が撮像部10によって生成された画像データに対応するライブビュー画像を表示している場合において、入力部11から撮影を指示するレリーズ信号が入力されたときに、被写体に対して撮影を行う通常撮影モード処理を実行する。ステップS118の後、撮像装置1は、ステップS114へ移行する。
以上説明した本発明の実施の形態1によれば、被写体が無意識のうちにとる自然な表情を撮影することができる。
また、本発明の実施の形態1によれば、撮像制御部155が表情判定部154によって撮像部10が生成した画像データに対応する画像内の被写体の表情と表情ガイド画像内の被写体の表情とが一致しないと判定した場合、撮像部10に被写体を連続的に撮像させるので、撮影者が思い描いた以上の表情を有する被写体を撮影することができる。
また、本発明の実施の形態1によれば、表示制御部156が表情判定部154によって撮像部10が生成した画像データに対応する画像内の被写体の表情と表情ガイド画像内の被写体の表情とが一致していると判定した場合、別の表情ガイド画像を表示部31に表示させるので、より連続的に撮影者が思い描いた以上の表情を有する被写体を撮影することができる。
なお、本発明の実施の形態1では、撮像装置1が自分撮り撮影モードに設定されている場合について説明したが、たとえば、通常の撮影モードであっても適用することができる。この場合、撮影者は、表示部31で表示される複数の表情ガイド画像に沿って被写体にアドバイスを行うことで、撮影者が意図していない表情の被写体を撮影することができる。
また、本発明の実施の形態1では、一人の人物で説明したが、二人の人物にこの技術を適用すれば、二人の目線の交錯で、ドラマを演出した撮影を促す撮像装置1にすることができる。さらに、撮像装置1を離れて、二人の見つめ合いを促すようなガイド装置などを提供することが出来る。
また、本発明の実施の形態1では、表示制御部156が被写体の視線を変更したガイド画像を表示部31に表示させていたが、たとえば、予め撮像装置1に記録させたアバターやアニメーション等を表示部31に表示させてもよい。
(実施の形態2)
次に、本発明の実施の形態2について説明する。本実施の形態2に係る撮像装置は、上述した実施の形態1に係る撮像装置1と異なるうえ、実行する処理が異なる。具体的には、上述した実施の形態1に係る撮像装置1では、被写体の瞳の位置を変更していたが、本実施の形態2に係る撮像装置では、被写体の顔を構成する各パーツの位置も変更する。このため、以下においては、本実施の形態2に係る撮像装置の構成を説明後、本実施の形態2に係る撮像装置が実行する処理について説明する。なお、上述した実施の形態1に係る撮像装置1と同一の構成には同一の符号を付して説明を省略する。
図8は、本実施の形態2に係る撮像装置の機能構成を示すブロック図である。図8に示す撮像装置1aは、被写体を撮像し、被写体の画像データを生成する本体部2aと、本体部2aに対して背面側から前面側に向けて回動可能に設けられ、本体部2aが生成した画像データに対応する画像を表示可能な表示機構3aと、を備える。
まず、本体部2aの構成について説明する。本体部2aは、入力部11と、記録部12と、記録媒体13と、回転判定部14と、レンズ部41と、撮像素子42と、姿勢検出部43と、時計44と、通信部45と、制御部46と、を備える。
レンズ部41は、制御部46の制御のもと、所定の視野領域から光を集光して被写体像を撮像素子42の撮像面に結像する。レンズ部41は、光軸L1に沿って移動可能なズームレンズやフォーカスレンズ、絞りおよびシャッタ等を用いて構成される。
撮像素子42は、制御部46の制御のもと、レンズ部41が結像した被写体像を受光して光電変換を行うことによって画像データを生成する。撮像素子42は、CCDやCMOS、信号処理部およびA/D変換部等を用いて構成される。撮像素子42は、制御部46の制御のもと、所定のフレームレートで被写体を撮像する。なお、本実施の形態2では、レンズ部41および撮像素子42が撮像部として機能する。
姿勢検出部43は、加速度センサおよびジャイロセンサを用いて構成され、撮像装置1aに生じる加速度および角速度をそれぞれ検出し、この検出結果を制御部46へ出力する。
時計44は、計時機能および撮影日時の判定機能を有する。時計44は、撮像素子42によって撮像された画像データに日時データを付加するため、日時データを制御部46へ出力する。
通信部45は、所定の無線通信規格に従って、外部の機器と無線通信を行って画像データを含む画像ファイルを送信または受信する。ここで、所定の無線通信規格は、IEEE802.11bおよびIEEE802.11n等である。なお、本実施の形態2では、いずれの無線通信規格であっても適用可能である。また、通信部45は、ネットワークを介して外部の機器と画像ファイルやコンテンツデータ等の各種情報を双方向に通信を行うための通信デバイスを用いて構成される。通信デバイスは、他の機器との間で電波信号を送受信するアンテナと、アンテナが受信した信号を復調処理するとともに、送信する信号を変調処理する送受信回路等で構成される。また、通信部45は、撮像装置1aの起動時において、その存在を報知する識別情報(機器ID)を含む通信信号を定期的に送信する。なお、通信部45は、撮像装置1aの外部から装着されるメモリカード等の記録媒体に設けられていてもよい。さらに、通信部45は、ホットシューを介して撮像装置1aに装着されるアクセサリに設けられていてもよい。
制御部46は、撮像装置1aを構成する各部に対応する指示やデータの転送等を行って撮像装置1aの動作を統括的に制御する。制御部46は、CPU等を用いて構成される。
ここで、制御部46の詳細な構成について説明する。制御部46は、顔検出部151と、瞳検出部152と、瞳変更画像生成部153と、表情判定部154と、撮像制御部155と、表示制御部156と、パーツ位置変更画像生成部461と、を有する。
パーツ位置変更画像生成部461は、顔検出部151が検出した顔を構成する各パーツを、瞳変更画像生成部153によって変更された強膜領域内における瞳領域の配置方向に向けて移動させた被写体のパーツ変更画像データを生成する。
次に、表示機構3aの構成について説明する。表示機構3aは、表示部31と、可動部32と、回転支持部33と、タッチパネル34と、を備える。
タッチパネル34は、表示部31の表示画面上に重畳して設けられる。タッチパネル34は、外部からの物体のタッチを検出し、この検出したタッチ位置に応じた位置信号を制御部46へ出力する。また、タッチパネル34は、ユーザが表示部31で表示される情報、たとえばアイコン画像やサムネイル画像に基づいてタッチした位置を検出し、この検出したタッチ位置に応じて撮像装置1aが行う動作を指示する指示信号の入力を受け付ける。一般に、タッチパネル34としては、抵抗膜方式、静電容量方式および光学方式等がある。本実施の形態2では、いずれの方式のタッチパネルであっても適用可能である。さらに、表示部31、可動部32およびタッチパネル34は、一体的に形成してもよい。
以上の構成を有する撮像装置1aが実行する処理について説明する。図9は、撮像装置1aが実行する処理の概要を示すフローチャートである。
ステップS201〜ステップS208は、上述した図4のステップS101〜ステップS108にそれぞれ対応する。
ステップS209において、パーツ位置変更画像生成部461は、被写体の顔のパーツを(特徴点)変更した表情ガイド画像を複数生成する顔パーツ変更画像生成処理を実行する(ステップS209)。
図10は、パーツ位置変更画像生成部461が生成する表情ガイド画像の生成方法の概要を模式的に説明する図である。図10に示すように、パーツ位置変更画像生成部461は、瞳変更画像生成部153が瞳の位置を変更した被写体O1の画像(図10(a)→図10(b)→図10(c))に対して、瞳が向いている方向に基づいて、顔のパーツの位置を変更する(図10(d))。具体的には、図10(d)に示すように、パーツ位置変更画像生成部461は、被写体O1の瞳が左方向(図10(c)を参照)に向いている場合、顔のパーツの口や顎の位置を左方向へ移動させた類似の表情ガイド画像O21を生成する(図10(d))。
ここで、図9のステップS209の顔パーツ変更画像生成処理について詳細に説明する。図11は、顔パーツ変更画像生成処理の概要を示すフローチャートである。図12は、パーツ位置変更画像生成部461が生成する表情ガイド画像の生成方法を説明する図である。
図11に示すように、まず、パーツ位置変更画像生成部461は、瞳変更画像生成部153によって変更された被写体の瞳の配置位置に基づいて、顔領域Aを設定する(ステップS301)。
続いて、パーツ位置変更画像生成部461は、顔領域Aに基づいて、被写体の鼻を含む顔領域Bを設定し(ステップS302)、顔領域Aおよび顔領域Bに基づいて、顔領域Cを設定する(ステップS303)。具体的には、図12(a)に示すように、パーツ位置変更画像生成部461は、被写体の顔の領域を顔領域A、顔領域Bおよび顔領域Cそれぞれを設定する。
その後、パーツ位置変更画像生成部461は、瞳変更画像生成部153によって変更された被写体の瞳の配置位置の方向に向けて、顔領域Aの顔画像および顔領域Cの顔画像を縮小する(ステップS304)。具体的には、図12(b)に示すように、パーツ位置変更画像生成部461は、瞳変更画像生成部153によって変更された被写体の瞳画像K1の配置位置の方向、たとえば左方向に向けて、顔領域Aの顔画像F1および顔領域Cの顔画像F3を縮小する。
続いて、パーツ位置変更画像生成部461は、瞳変更画像生成部153によって変更された被写体の瞳画像K1の配置位置の方向に向けて、顔画像F1、顔画像F2および顔画像F3それぞれを移動させて合成する(ステップS305)。具体的には、図12(c)に示すように、パーツ位置変更画像生成部461は、瞳変更画像生成部153によって変更された被写体の瞳画像K1の配置位置の方向(左側)に向けて、顔画像F1、顔画像F2および顔画像F3それぞれを移動させて合成する(図12(b)→図12(c))。
その後、パーツ位置変更画像生成部461は、瞳変更画像生成部153によって変更された被写体の瞳画像の配置位置の方向に向けて、被写体の顔の各パーツを移動させる(ステップS306)。
図13は、パーツ位置変更画像生成部461が被写体の顔の各パーツを移動させる移動方法の概要を模式的に説明する図である。
図13(a)に示すように、被写体O1の頭部の半径をR(たとえばR=10cm)の球とした場合において、被写体O1が正面を向いている状態から所定の角度θ1だけ首を回したとき、鼻M1の位置は、R・tanθ1で表すことができる。さらに、顔の各パーツの横方向の長さも角度θ1に基づいて、表すことができる。具体的には、被写体O1の目領域AL,ARの幅をHとした場合、H・cosθ1で表すことができる。従って、パーツ位置変更画像生成部461は、顔の各主要パーツに対してcosθ1倍した後に、各主要パーツをR・tanθ1だけ被写体O1の中心P1から移動させることによって被写体O1が横向きに向いた画像を生成することができる。
ところで、図14(a)に示すように、被写体の鼻M1の領域は、立体感が大きく、傾けた方向の鼻M1の稜線(陰影)の領域m1が見えにくくなるので、cosθ1倍するよりも、傾けた方向と反対側の側面の領域m3が大きく表示されるようにする必要がある。そこで、パーツ位置変更画像生成部461は、図14(b)に示すように、鼻M1の部分が***の頂点P2で分割し、傾けた方のみの領域m1を縮小する。これにより、パーツ位置変更画像生成部461は、被写体が横向きに向いた自然な表情ガイド画像を生成することができる。ここでは、一例を示したが、パーツ位置情報付きの顔の向き別画像のデータベースなどを呼び出して、そこに各実写画像を貼り付けるような方法も考えられる。
ステップS307において、パーツ位置変更画像生成部461は、空白領域に対して周辺画素の情報に基づいて補間する補間処理を実行する。具体的には、図12(d)に示すように、パーツ位置変更画像生成部461は、空白領域Dに対して、他の画素で補間する補間処理を行う(図12(c))。なお、図12においては、被写体O1にアクセサリ、たとえば眼鏡等をしていない状態について説明していたが、被写体O1がアクセサリをしている場合であっても、本発明を適用することができる。この場合、パーツ位置変更画像生成部461は、同様に、アクセサリ、たとえば眼鏡をcosθ1倍した後に、アクセサリをR・tanθ1だけ被写体O1の中心P1から移動させることによって被写体O1が横向きに向いた際のアクセサリ画像を生成し、このアクセサリ画像を表情ガイド画像に重畳する。この際、アクセサリの領域で画素がたりない場合、パーツ位置変更画像生成部461は、他の領域またはアクセサリの領域で最も割合を示す画素の色で補間するようにすればよい。
続いて、パーツ位置変更画像生成部461は、瞳を上下にずらして顔を縮小するとともに、上下にずらした表情ガイド画像を生成する(ステップS308)。たとえば、図12(e)に示すように、パーツ位置変更画像生成部461は、瞳画像を強膜領域WLで上にずらすとともに、瞳画像の配置方向に顔を距離Eだけ縮小した表情ガイド画像を生成する。同様に、瞳画像を強膜領域WLで下にずらすとともに、瞳画像の配置方向に顔を縮小した表情ガイド画像を生成する。
その後、パーツ位置変更画像生成部461による各パターンの表情ガイド画像の生成が終了した場合(ステップS309:Yes)、撮像装置1aは、図9のメインルーチンへ戻る。これに対して、パーツ位置変更画像生成部461による各パターンの表情ガイド画像の生成が終了していない場合(ステップS309:No)、撮像装置1aは、ステップS301へ戻る。
図9に戻り、ステップS210以降の説明を続ける。ステップS210において、表示制御部156は、パーツ位置変更画像生成部461が生成した被写体の顔の位置や各パーツを変更した複数の表情ガイド画像を表示部31に一覧表示させる。具体的には、図15に示すように、表示制御部156は、パーツ位置変更画像生成部461が生成した被写体の顔の位置を変更した複数の表情ガイド画像G11〜G18およびライブビュー画像LV1を表示部31に一覧表示させる。これにより、被写体O1(撮影者)は、自分撮り撮影時に、表示部31で表示される画像を確認することで、予想を超えた自分自身の表情を仮想的に把握することができる。さらに、被写体O1は、複数の表情ガイド画像G11〜G18が表示部31で一覧表示されることで、どれだけ撮影のポーズがあるかを事前に確認することができるので、心の準備ができる。
ステップS211〜ステップS220は、上述した図4のステップS110〜ステップS118にそれぞれ対応する。
以上説明した本発明の実施の形態2によれば、被写体が意識することなく、自然な姿勢や表情の被写体を撮影することができる。
また、本発明の実施の形態2によれば、撮像制御部155が表情判定部154によって撮像素子42が生成した画像データに対応する画像内の被写体の表情と表情ガイド画像内の被写体の表情とが一致しないと判定した場合、撮像素子42に被写体を連続的に撮像させるので、撮影者が思い描いた以上の表情を有する被写体を撮影することができる。
また、本発明の実施の形態2によれば、表示制御部156が表情判定部154によって撮像素子42が生成した画像データに対応する画像内の被写体の表情と表情ガイド画像内の被写体の表情とが一致していると判定した場合、別の表情ガイド画像を表示部31に表示させるので、より連続的に撮影者が思い描いた以上の表情を有する被写体を撮影することができる。
なお、本発明の実施の形態2では、表示制御部156が複数の表情ガイド画像を表示部31に一覧表示させていたが、たとえば、図16に示すように、複数の表情ガイド画像を順次表示部31に表示させてもよい(図16(a)→図16(b)→図16(c)→図16(d)→図16(e)→図16(f)→図16(g)→図16(h))。これにより、撮影者は、表示部31で表示される表情ガイド画像G11〜G18を確認しながら撮影時の姿勢を変更することができる。
(実施の形態3)
次に、本発明の実施の形態3について説明する。本実施の形態3に係る撮像装置は、上述した実施の形態2に係る撮像装置1aと構成が異なるうえ、実行する処理が異なる。具体的には、上述した実施の形態2に係る撮像装置1aでは、パーツ位置変更画像生成部461が生成した表情ガイド画像に応じて連続撮影を行っていたが、本実施の形態3に係る撮像装置では、予め記録された所定の姿勢および/または表情のモデルが被写体として撮影された表情ガイド画像に応じて連続撮影を行い、この表情ガイド画像の特徴に一致した画像を複数の画像の中から代表して記録または表示する。このため、以下においては、本実施の形態3に係る撮像装置の構成を説明後、本実施の形態3に係る撮像装置が実行する処理について説明する。なお、上述した実施の形態2に係る撮像装置1aと同一の構成には同一の符号を付して説明を省略する。
図17は、本実施の形態3に係る撮像装置の機能構成を示すブロック図である。図17に示す撮像装置1bは、被写体を撮像し、被写体の画像データを生成する本体部2bと、表示機構3aと、を備える。
本体部2bは、入力部11と、記録媒体13と、回転判定部14と、レンズ部41と、撮像素子42と、姿勢検出部43と、時計44と、通信部45と、制御部46と、記録部12bと、を備える。
記録部12bは、制御部46を介して入力される画像データ、撮像装置1bの処理中の情報、撮像装置1bを動作させるための各種プログラムや本実施の形態3に係るプログラムおよびプログラムの実行中に使用される各種データ等を記録する。記録部12bは、SDRAMおよびFlashメモリ等を用いて構成される。また、記録部12bは、モデル情報記録部121を有する。
モデル情報記録部121は、予め所定の姿勢および/または表情のモデルがサンプルとして撮影されたサンプル画像データを記録する。
以上の構成を有する撮像装置1bが実行する処理について説明する。図18は、撮像装置1bが実行する処理の概要を示すフローチャートである。
図18において、ステップS401〜ステップS405は、上述した図4のステップS101〜ステップS105にそれぞれ対応する。
ステップS406において、パーツ位置変更画像生成部461は、顔検出部151が検出した被写体の顔における口を検出する。
続いて、パーツ位置変更画像生成部461は、被写体の口を所定の形状に変更した表情ガイド画像を生成する(ステップS407)。具体的には、図19に示すように、パーツ位置変更画像生成部461は、被写体O1の口Amを、予め定まれた形状、たとえば母音の形状を有する口Am1や口Am2の表情ガイド画像を生成する(たとえば図19(a)→図19(b)または図19(c))。
図19に示す場合、パーツ位置変更画像生成部461は、被写体O1の口Amを「ア」と「イ」の形状に変更した口Am1や口Am2を有する表情ガイド画像を生成する(図19(b)および図19(c)を参照)。ここで、母音とは、言語音を二分類した場合の一つであり、声帯の振動によって生じた有声の呼気が、唇、歯および舌等の閉じや狭めによる妨げを受けないで発せられる音である。日本語の共通語では、「ア」、「イ」、「ウ」、「エ」および「オ」の五つである。なお、図19においては、パーツ位置変更画像生成部461は、二つの母音を発する口の形状を有する表情ガイド画像を生成していたが、その他の母音を発する口の形状を有する表情ガイド画像を生成してもよい。さらに、パーツ位置変更画像生成部461は、日本語以外の母音を発する口の形状を有する表情ガイド画像を生成してもよい。
ここで、母音にこだわるのは、自然な表情に関与することのない、舌の動きなどを利用せず発音できるからで、声を出した方が思い切った変化になるメリットがある。表示制御部156は、口のみならず、顔の他のパーツも動く可能性が高く、声を出すことを促しても良い。
また、表情判定部154は、声を判定して、その顔になったかを判定しても良いし、判定の補助にしても良い。もちろん、声を出すのが恥ずかしい場合もあって、声を出さずに、口の形を変更するだけでも良い。人間のコミュニケーションの多様性を追求した結果が母音の口形状と考えられ、この口形状を母音の様々なパターンで変化させれば、口が自然に取り得る形状の多くを網羅することが可能となる。
また、母音の口だけでは、他のパーツの変動を誘発できないので、その口形状に合わせて、ガイド表示は、その口に合わせて変化しやすい顔パーツの変形を促す表示にした方が良いことは言うまでもない。例えば、「あ」の声の時は、口が緊張して眉も上がるが、「い」になると、緊張が弛緩した拍子に眉が下がったりする。
また、母音から母音の変化の間が、緊張と緊張の間の弛緩があると考えられ、その弛緩時に自然な表情になる場合があるので、母音の変化は、異なる順番で変化させるようにすれば、さらに、表情の多様性を追求することが可能となる。
また、母音を利用して、誰にでも出来る表情を選ぶことができる。誰にでもできる表情なら表情判定部154による一致度の判定も容易になり、一致した後の表情ガイド変化もスムーズに行え、判定や切替、判断等の一連のシーケンスが迅速かつ滑らかに自然に行える。
その後、表示制御部156は、パーツ位置変更画像生成部461が生成した表情ガイド画像を表示部31に表示させる(ステップS408)。具体的には、図20に示すように、表示制御部156は、表情ガイド画像G21を表示後、表情ガイド画像G22を表示部31に表示させる(図20(a)→図20(b))。さらに、表示制御部156は、撮影時の撮影アドバイスに関するメッセージI2を表示部31に表示させる。なお、図20においては、表示制御部156は、表情ガイド画像を2枚しか表示していなかったが、被写体O1の口を徐々に変化させた複数の表情ガイド画像を順次表示部31に表示させてもよい。
続いて、表情判定部154は、表情ガイド画像G22の被写体O1の顔における口部と撮像素子42によって生成された画像データに対応する画像内の被写体O1の顔における口との形状が一致しているか否かを判定する顔パーツ判定を開始する(ステップS409)。
表情判定部154が表情ガイド画像G22の被写体O1の顔における口と撮像素子42によって生成された画像データに対応する画像内の被写体O1の顔における口との形状が一致していると判定した場合(ステップS410:Yes)、撮像装置1bは、後述するステップS413へ移行する。これに対して、表情判定部154が表情ガイド画像G22の被写体O1の顔における口と撮像素子42によって生成された画像データに対応する画像内の被写体O1の顔における口との形状が一致していないと判定した場合(ステップS410:No)、撮像装置1bは、後述するステップS411へ移行する。
ステップS411において、撮像制御部155は、撮像素子42に被写体を連続的して撮影させる。この際、撮像制御部155は、撮像素子42の撮影フレームレートを変更してもよい。
続いて、表情判定部154は、記録部12bのモデル情報記録部121に記録されたモデル情報の基準を満たすか否かを判定する基準判定処理を実行する(ステップS412)。なお、基準判定処理の詳細は後述する。ステップS412の後、撮像装置1bは、ステップS410へ戻る。
ステップS413において、別の表情ガイド画像がある場合(ステップS413:Yes)、表示制御部156は、別の表情ガイド画像を表示部31に表示させる(ステップS414)。ステップS414の後、撮像装置1bは、ステップS410へ戻る。
ステップS413において、別の表情ガイド画像がない場合(ステップS413:No)、撮像装置1bは、ステップS415へ移行する。
ステップS415、ステップS416〜ステップS418は、上述した図4のステップS114、ステップS116〜ステップS118にそれぞれ対応する。
次に、図18のステップS412の基準判定処理について説明する。図21は、基準判定処理の概要を示すフローチャートである。
図21に示すように、制御部46は、記録部12bのモデル情報記録部121から予め表示および/または姿勢のサンプルとしてのモデルが撮像されたサンプル画像としての人気ブロマイド画像を取得する(ステップS501)。
続いて、表情判定部154は、撮像素子42が生成した画像データに対応する画像内の被写体の顔における目の間隔を基準に口の幅を判定し(ステップS502)、口の幅を基準に口の中央と口角の高さとの差を判定するが同じブロマイド画像にあると判定する(ステップS503)。
続いて、表情判定部154が撮像素子42によって生成された画像データに対応する画像内の被写体に目瞑りがなく(ステップS504:Yes)、皺がないと判定した場合(ステップS505:Yes)において、同じ口の幅で口の中央と口角の高さとの差が同じブロマイド画像にあると判定したとき(ステップS506:Yes)、撮像制御部155は、記録媒体13に、画像データを記録する(ステップS507)。ステップS507の後、撮像装置1bは、図18のメインルーチンへ戻る。
図22は、表情判定部154が判定する被写体の口の判定方法の概要を模式的に示す図である。図23は、表情ガイド画像としてのブロマイド画像の一例を示す図である。
図22に示すように、表情判定部154は、撮像素子42が連続的に生成する画像データに対応する画像内の被写体における目の間隔を基準に口の幅mxを判定し、口の幅mxを基準に口の中央と口角の高さとの差mYを判定する(図22(b)を参照)。その後、表情判定部154は、図23に示すように、被写体O1がブロマイド画像Q1の口の幅mxと同じ口の幅mxで口の中央と口角の高さとの差mYが同じであるか否かを判定する。
ステップS504において、表情判定部154が撮像素子42によって生成された画像データに対応する画像内の被写体に目瞑りがないと判定した場合(ステップS504:No)、撮像装置1bは、図18のメインルーチンへ戻る。
ステップS505において、表情判定部154が撮像素子42によって生成された画像データに対応する画像内の被写体に皺がないと判定した場合(ステップS505:No)、撮像装置1bは、図18のメインルーチンへ戻る。
ステップS506において、表情判定部154が撮像素子42によって生成された画像データに対応する画像内の被写体が同じ口の幅で口の中央と口角の高さとの差が同じブロマイド画像にないと判定したとき(ステップS506:No)、撮像装置1bは、図18のメインルーチンへ戻る。
以上説明した本発明の実施の形態3によれば、表情判定部154が撮像素子42によって生成された画像データに対応する画像内の被写体の表情とモデル情報記録部121が記録する予め所定の姿勢および/または表情のモデルが撮像された表情ガイド画像内の被写体の表情とが一致すると判定した際に、撮像制御部155が撮像素子42によって生成された画像データを記録媒体13に記録させるので、想像を超えた表情や姿勢の被写体を撮影することができる。
(実施の形態4)
次に、本発明の実施の形態4について説明する。本実施の形態4に係る撮像装置は、上述した実施の形態3に係る撮像装置1bと構成が異なるうえ、実行する処理が異なる。具体的には、上述した実施の形態3に係る撮像装置1bでは、撮像装置1bが被写体の表情を変更した表情ガイド画像を生成していたが、本実施の形態4に係る撮像装置では、ネットワークを介して外部機器(サーバ)によって生成された表情ガイド画像データを受信して表示する。このような、いわゆるクラウド上の処理は、モバイル機器の処理能力を超えた画像処理が可能なので、複雑な処理に応用させるのにふさわしい。ただし、同様の処理が装置内で完結できる場合は、もちろん、ネット利用はしなくても良い。さらに、どこからどこまでを装置内、どこからどこまでをクラウドで担当するかは、様々な応用、変形が可能である。このため、以下においては、本実施の形態4に係る表示システムの構成を説明後、本実施の形態4に係る表示システムが実行する処理について説明する。なお、上述した実施の形態3に係る撮像装置1bと同一の構成には同一の符号を付して説明を省略する。
図24は、本実施の形態4に係る表示システムの機能構成を示すブロック図である。図24に示す表示システム100は、撮像装置1bと、ネットワーク200を介して外部から画像データを受信し、受信した画像データに対応する画像を生成する外部機器としての画像生成装置5と、を備える。
画像生成装置5は、ネットワーク200を介して外部と双方向に通信を行う通信部51と、画像生成装置5が生成した画像データや各種プログラムを記録する記録部52と、画像生成装置5を構成する各部に対応する指示やデータの転送等を行って画像生成装置5の動作を統括的に制御する画像生成制御部53と、を備える。
通信部51は、所定の通信規格に従って、外部の機器と通信を行って画像データを含む画像ファイルを受信または送信する。
記録部52は、画像生成制御部53を介して入力される画像データ、画像生成装置5の処理中の情報、画像生成装置5を動作させるための各種プログラムや本実施の形態4に係るプログラムおよびプログラムの実行中に使用される各種データ等を記録する。
画像生成制御部53は、顔検出部531と、瞳検出部532と、瞳変更画像生成部533と、パーツ位置変更画像生成部534と、出力制御部535と、を備える。
顔検出部531は、ネットワーク200および通信部51を介して受信した画像データに対応する画像内の被写体の顔を検出する。具体的には、顔検出部531は、画像データに対応する画像に含まれる人物の顔をパターンマッチングによって検出する。たとえば、顔検出部531は、パターンマッチングを用いて画像中の顔の位置を検出後、目、鼻および口等の顔の特徴点の位置を検出することによって、顔の位置、顔の大きさ(領域)、顔の向き、顔の角度(傾き)および顔の表情(笑顔等)を検出する。なお、顔検出部531は、人物の顔だけでなく、犬や猫等の動物の顔を検出してもよい。さらに、顔検出部531は、パターンマッチング以外の周知技術を用いて人物の顔を検出してもよい。
瞳検出部532は、顔検出部531が検出した被写体の顔の瞳を検出する。具体的には、瞳検出部532は、顔検出部531が検出した被写体の顔の目(目領域)に対して、所定の処理、たとえばグレースケール処理を行った後に、2値化処理を行うことによって、瞳(瞳領域)を検出する。
瞳変更画像生成部533は、瞳検出部532が検出した検出結果に基づいて、被写体の目領域における瞳の位置を変更する。具体的には、瞳変更画像生成部533は、瞳検出部532が検出した瞳領域に対してトリミング処理を行って瞳画像を生成し、この瞳画像を目領域における白目領域に重畳するとともに、トリミング処理を行った瞳領域に対して白色や周辺の白目領域の画素で補間する補間処理を行った画像データを生成する。たとえば、瞳変更画像生成部533は、瞳検出部532が検出した被写体の瞳の位置が正面(中心)の場合、左右それぞれに瞳を移動させた被写体が写る2つの画像データを生成する。
パーツ位置変更画像生成部534は、顔検出部531が検出した顔を構成する各パーツを、瞳変更画像生成部533によって変更された強膜領域内における瞳領域の配置方向に向けて移動させた被写体のパーツ変更画像データを生成する。
出力制御部535は、瞳変更画像生成部533が生成した瞳変更画像データまたはパーツ位置変更画像生成部534が生成したパーツ変更画像データを、撮像装置1bの撮影時における撮影アドバイスの作例として通信部51およびネットワーク200を介して撮像装置1bに送信する。なお、本実施の形態4では、出力制御部535が出力部として機能する。
以上の構成を有する表示システム100の撮像装置1bおよび画像生成装置5それぞれの処理について説明する。まず、撮像装置1bが実行する処理の説明後、画像生成装置5が実行する処理について説明する。図25は、撮像装置1bが実行する処理の概要を示すフローチャートである。
図25において、ステップS601〜ステップS603は、上述した図4のステップS101〜ステップS103にそれぞれ対応する。
ステップS604において、撮像装置1bが奇跡の一枚モードに設定されている場合(ステップS604:Yes)、撮像装置1bは、後述するステップS605へ移行する。これに対して、撮像装置1bが奇跡の一枚モードに設定されていない場合(ステップS604:No)、撮像装置1bは、後述するステップS616へ移行する。
ステップS605において、通信部45およびネットワーク200を介して外部の画像生成装置5と通信可能である場合(ステップS605:Yes)において、画像生成装置5に画像データを含む画像ファイルを送信済みのとき(ステップS606:Yes)、撮像装置1bは、後述するステップS608へ移行する。
ステップS605において、通信部45およびネットワーク200を介して外部の画像生成装置5と通信可能である場合(ステップS605:Yes)において、画像生成装置5に画像データを含む画像ファイルを送信済みでないとき(ステップS606:No)、制御部46は、通信部45およびネットワーク200を介して撮像素子42が生成した画像データを含む画像ファイルを画像生成装置5へ送信する(ステップS607)。たとえば、図26に示すように、被写体O1は、表示部31が表示する複数の画像の中からシミュレーションを画像生成装置5に依頼する際の所望の画像を選択し、入力部11またはタッチパネル34を操作することによって、画像データを含む画像ファイルを画像生成装置5へ送信させる。この画像ファイルには、画像データの他に、シミュレーションの内容を指示する指示情報、撮像装置1bを識別する識別情報、撮像装置1bの焦点距離および自分撮り撮影モード時における撮像装置1bから被写体までの距離を想定した仮想距離が格納される。
続いて、通信部45およびネットワーク200を介して画像生成装置5から被写体の顔の構図を変更した画像データの作例を受信した場合(ステップS608:Yes)、表示制御部156は、作例の画像データに対応する画像を表示部31に一覧表示させる(ステップS609)。具体的には、図27に示すように、表示制御部156は、画像生成装置5から受信した作例の画像データに対応する複数の表情ガイド画像G31〜G39を撮影アドバイスとして表示部31に表示させる。これにより、撮影者は、自分撮り撮影時に、表示部31で表示される複数の構図(アングル)の画像を確認することで、予想を超えた自分自身の表示や角度を仮想的に把握することができる。
ステップS608において、通信部45およびネットワーク200を介して画像生成装置5から被写体の構図を変更した画像データの作例を受信していない場合(ステップS608:No)、撮像装置1bは、ステップS601へ戻る。
ステップS605において、通信部45およびネットワーク200を介して外部の画像生成装置5と通信可能でない場合(ステップS605:No)、撮像装置1bは、ステップS615へ移行する。
ステップS610〜ステップS618は、上述した図4のステップS110〜ステップS118にそれぞれ対応する。
次に、画像生成装置5が実行する処理について説明する。図28は、画像生成装置5が実行する処理の概要を示すフローチャートである。
図28に示すように、ネットワーク200および通信部51を介して撮像装置1bまたは他の携帯電話や携帯端末等の外部機器から画像ファイルを受信した場合(ステップS701:Yes)、画像生成装置5は、後述するステップS702へ移行する。これに対して、ネットワーク200および通信部51を介して撮像装置1bまたは他の携帯電話や携帯端末等の外部機器から画像ファイルを受信していない場合(ステップS701:No)、画像ファイルを受信するまで、この判断を続ける。
ステップS702において、受信した画像ファイルに格納されたシミュレーションを指示する指示情報が奇跡の一枚モードの場合(ステップS702:Yes)、画像生成装置5は、後述するステップS703へ移行する。これに対して、受信した画像ファイルに格納されたシミュレーションを指示する指示情報が奇跡の一枚モードでない場合(ステップS702:No)、画像生成装置5は、後述するステップS706へ移行する。
ステップS703において、画像生成装置5は、上述した図11の顔パーツ変更画像生成処理を実行する。
続いて、パーツ位置変更画像生成部534は、顔パーツ変更画像処理によって生成された複数の画像データそれぞれに対応する複数の表情ガイド画像に対して、被写体の構図を変更する構図変更処理を実行する(ステップS704)。
図29は、自分撮り撮影モード時における撮像装置1bと被写体O1(撮影者)との関係を模式的に示す図である。図30は、図29に示す状況下における撮像装置1bの画角θ2と被写体O1との関係を模式的に示す図である。図31は、図29に示す状況下で撮像装置1bが生成した画像データに対応する画像の一例を示す図である。
図29〜図31に示すように、パーツ位置変更画像生成部534は、画像ファイルに格納された撮像装置1bの識別情報、画像データを撮影した際の焦点距離および想定距離d1に基づいて、画像データに対応する画像内で被写体O1の顔領域を算出する。具体的には、パーツ位置変更画像生成部534は、想定距離をd1、撮像装置1bの画角をθ2とした場合、以下の式(1)によって、表示部31の表示領域における横方向の長さをXPに換算する。
Xp=d1×tan(θ2/2)×2 ・・・(1)
その後、パーツ位置変更画像生成部534は、表示部31の表示領域における横方向の長さXPと顔検出部531が検出した被写体O1の顔の横方向の長さH1(たとえば20cm)との比率に基づいて、被写体O1が手を伸ばしたり、縮めたりした際に、被写体O1を撮影可能な構図で変更した表情ガイド画像を撮影アドバイスの作例として生成する。具体的には、図30に示すように、パーツ位置変更画像生成部534は、画像内の被写体O1をトリミングし、このトリミングした被写体画像に対して、撮像装置1bから被写体O1までの距離をd2とした場合における各被写体O1の各パーツ、たとえば、顔、腕や胴体等を、長さXPと長さH1との比率が小さくなるように、各パーツを縮小して被写体O1が手を伸ばしたときに撮影可能な構図に変更した表情ガイド画像を撮影表情ガイド画像の作例として生成する。なお、図29〜図31では、パーツ位置変更画像生成部534は、被写体O1の構図の変更を例に説明しているが、被写体O1を構成する各パーツを分割し、この分割した各パーツを組み合わせて被写体O1のポーズ等を変更させてもよい。
その後、出力制御部535は、通信部51およびネットワーク200を介して撮像装置1bに作例の画像データを送信する(ステップS705)。ステップS705の後、画像生成装置5は、ステップS701へ戻る。
ステップS706において、受信した画像ファイルに格納されたシミュレーションの指示情報が顔表示シミュレーションモードの場合(ステップS706:Yes)、上述した図11の顔パーツ変更画像生成処理を実行する(ステップS707)。ステップS707の後、画像生成装置5は、ステップS705へ移行する。
ステップS706において、受信した画像ファイルに格納されたシミュレーションの指示情報が顔表示シミュレーションモードでない場合(ステップS706:No)、画像生成装置5は、ステップS701へ戻る。
以上説明した本発明の実施の形態4によれば、画像生成装置5で表情ガイド画像を生成させることによって、撮像装置1bに掛かる負荷を低減することができる。
なお、本発明の実施の形態4では、画像生成装置5が被写体の構図を変更する構図変更処理を行っていたが、撮像装置1bのパーツ位置変更画像生成部461が同様の構図変更処理を行ってもよい。
(その他の実施の形態)
また、本発明に係る撮像装置は、デジタル一眼レフカメラ以外にも、たとえデジタルカメラ、デジタルビデオカメラおよび撮像機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。
また、本発明に係る撮像装置は、レンズ一体型のデジタルカメラ以外にも、レンズを着脱自在なデジタル一眼レフカメラ、デジタルビデオカメラおよび撮像機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。特に、気づかなかった魅力などが発見できるので、鏡の代わりに利用してもよい。つまり、美容機器、確認撮像装置、ガイダンス用としては、リハビリ用などの医療機器などにも利用は可能である。ここでは、一人の人物で説明したが、二人の人物にこの技術を適用すれば、二人の目線や顔の向き、姿勢などで、ドラマを演出した撮影を促すカメラにしたりできる。さらに、撮像装置を離れて、二人の見つめ合いや表情による好ましいコミュニケーションを促すようなガイド装置などを提供することが出来る。
また、本発明に係る撮像装置は、本体部と表示部とが一体的に形成されていたが、本体部と、表示部とがそれぞれ個別に構成されてもよい。この場合、たとえば、本体部と、表示部とが双方向に画像データや指示データ等を送信できればよい。
また、本発明に係る撮像装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本発明に係る撮像装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。さらに、本発明に係る撮像装置に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。