JP5430428B2 - 撮影機器 - Google Patents

撮影機器 Download PDF

Info

Publication number
JP5430428B2
JP5430428B2 JP2010020497A JP2010020497A JP5430428B2 JP 5430428 B2 JP5430428 B2 JP 5430428B2 JP 2010020497 A JP2010020497 A JP 2010020497A JP 2010020497 A JP2010020497 A JP 2010020497A JP 5430428 B2 JP5430428 B2 JP 5430428B2
Authority
JP
Japan
Prior art keywords
face
subject
unit
image
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010020497A
Other languages
English (en)
Other versions
JP2011160219A (ja
JP2011160219A5 (ja
Inventor
有為子 植村
憲 谷
薫示 高橋
聡司 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010020497A priority Critical patent/JP5430428B2/ja
Priority to CN201110033776.XA priority patent/CN102158649B/zh
Publication of JP2011160219A publication Critical patent/JP2011160219A/ja
Publication of JP2011160219A5 publication Critical patent/JP2011160219A5/ja
Application granted granted Critical
Publication of JP5430428B2 publication Critical patent/JP5430428B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、撮影機器、詳しくは固体撮像素子等を用いて取得された画像信号に基いて被写体の状況を判定し、適切な撮影タイミングで自動撮影を行い得る機能を有する撮影機器に関するものである。
従来、撮影光学系により結像された光学像を固体撮像素子等を用いて順次画像信号に変換し、これにより得られた画像信号に基く画像を表示装置を用いて順次連続的に表示するライブビュー機能を備え、撮影指示信号が発生した時には、その指示信号の発生時点における画像信号を記録用画像データに変換して記録媒体に記録する一方、再生指示信号が発生した時には、記録媒体に記録済みの画像データを画像信号に変換して、その画像信号に基く画像を表示装置を用いて再生表示する再生機能を有して構成されたデジタルカメラ等の撮影機器が一般に実用化され、広く普及している。
近年、この種の撮影機器においては、各種の画像信号処理技術を利用して、撮影画像中の被写体の状況等を判定する機能を有するものがある。例えば、撮影画像中から人物の顔を検出したり、検出された人物の顔が笑顔であるかどうか、若しくは検出された人物の顔が見栄えよく写っているかどうか(例えば眼を瞑っていないか、顔が正面を向いているか等)等の被写体の状況を判定するという機能である。
そこで、従来の撮影機器においては、上述のような画像信号処理技術による被写体状況判定機能を用いて、被写体の状況が所定の条件を満たしたときには、自動的に撮影動作を実行し得るように構成したものが、例えば特開2008−311817号公報,特開2000−347278号公報等によって、種々提案されている。
上記特開2008−311817号公報によって開示されている技術は、被写体の笑顔を検出して撮影タイミングを決定し、そのタイミングで自動的に撮影を行うというものである。
また、上記特開2000−347278号公報等によって開示されている技術は、検出された被写体(人物)が見栄えよく写っているかどうかを判定して、撮影タイミングを決定し、そのタイミングで自動的に撮影を行うというものである。
特開2008−311817号公報 特開2000−347278号公報
ところが、上記特開2008−311817号公報,上記特開2000−347278号公報等によって開示されている手段は、いずれも検出された被写体の状況(検出した笑顔の状態や、検出した顔が正面を向いている状態等)が継続することを前提としている。
しかしながら、撮影を所望する被写体が、例えば乳幼児等や小動物等のペット等であるときには、所定の状況を継続させることが困難である場合が多い。したがって、上記従来の手段では、撮影対象とする被写体によっては、適切な撮影タイミングを決定することができず、常に最適な撮影を行なうことができないという問題点があった。
ところで、撮影機器を用いて撮影を行う場面として、例えば撮影画像中に複数の被写体が含まれる場合であって、人物が他の人物や乳幼児等若しくは小動物等のペット等を抱きかかえているような場面の撮影を行うことはよくあることである。このような場面において、被写体となる人物と他の人物や乳幼児等との関係性や、人物とペット等との関係性は、極めて親密な関係性を有するものであると推測できる。
一方、撮影者自身が被写体として撮影画像中に含まれるような場合には、例えばセルフタイマー機能やリモコン機能を利用することが従来一般に行われている。
そこで、例えば、撮影者自身が他の人物や乳幼児等若しくは小動物等のペット等を抱きかかえた状況の場面を撮影する場合を考えてみると、セルフタイマー機能を用いて撮影する場合には、規定の時間が経過した後に撮影が行われることから、撮影タイミングが必ずしも最適なものになるとは限らないという問題点がある。
また、上記状況において、リモコン機能等を用いて撮影したとしても、撮影者自身がリモコン操作を行う必要があり、撮影者自身が他の人物や乳幼児等若しくは小動物等のペット等を抱きかかえた状態では、同時に撮影機器の操作やリモコン操作を行うことは煩雑な作業となってしまう。このことから、リモコン機能使用時の撮影でも、常に最適な撮影画像、即ち親密な関係性を表現し得るような画像を取得することは非常に困難なことであった。
本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、撮影画像中の複数の被写体同士の関係性を判定し、複数の被写体同士の親密な関係性を表現し得る適切な撮影タイミングを自動的に決定することができ、かつその撮影タイミングで自動的に撮影動作を実行して、常に最適な撮影画像を取得することができる撮影機器を提供することである。
上記目的を達成するために、本発明の一態様の撮影機器は、被写体像の画像信号を取得する撮像部と、上記撮像部により取得された画像信号に基く画像に含まれる被写体のうち人物を含む複数の被写体の特定部位を検出する被写体部位検出部と、上記被写体部位検出部により検出された上記複数の被写体の各特定部位の上記画像内における相対的な位置関係を検出する被写***置検出部と、上記被写体部位検出部及び上記被写***置検出部による検出結果に基いて上記複数の被写体の関係性を判定する被写体状態判定部と、撮影制御処理を実行する制御部とを具備し、上記被写***置検出部は、上記被写体部位検出部により検出された上記複数の被写体の各特定部位のうち複数の顔の位置関係と、上記複数の顔のうちの一方の第1の顔と上記第1の顔を有する被写体の少なくとも一方の手との位置関係と、上記第1の顔の一方の手と上記複数の顔のうちの他方の第2の顔との位置関係と、上記第1の顔及び上記第2の顔のそれぞれの眼の位置とを検出し、上記制御部は、上記被写体状態判定部による判定結果が所定の条件に合致しない場合には、撮影制御処理を初期動作に戻す。
本発明によれば、撮影画像中の複数の被写体同士の関係性を判定し、複数の被写体同士の親密な関係性を表現し得る適切な撮影タイミングを自動的に決定することができ、かつその撮影タイミングで自動的に撮影動作を実行して、常に最適な撮影画像を取得することができる撮影機器を提供することができる。
本発明の一実施形態の撮影機器の主要構成を示すブロック構成図 図1の撮影機器の作用を示すフローチャート 図2の「第1状況判定」処理(図2のステップS122,S125の各処理に相当する)のサブルーチンを示すフローチャート 図2の「第2状況判定」処理(図2のステップS127の処理に相当する)のサブルーチンを示すフローチャート 図1の撮影機器の動作時における表示部によるライブビュー画像の表示例を示し、画像中に複数の人物が被写体として表示されている場合のライブビュー画像の例を示す図 図1の撮影機器の動作時における表示部によるライブビュー画像の表示例を示し、図5の状態から画像中の複数の被写体が互いに接近している状態を示すライブビュー画像の例を示す図 図1の撮影機器の動作時における表示部によるライブビュー画像の表示例を示し、図6の状態から画像中の複数の被写体が互いに接触しており、かつ撮影機器側に目線を向けている状態を示すライブビュー画像の例を示す図 図1の撮影機器の動作時における表示部によるライブビュー画像の表示例を示し、画像中の複数の被写体として人物がペットを抱きかかえている状態を示すライブビュー画像の例を示す図 図3のフローチャート中における「顔の向き検出」処理の説明図 図3のフローチャート中における「顔の向き検出」処理の説明図 図4のフローチャート中における「目線検出」処理の説明図 図3のフローチャート中における「手の状態検出」処理の説明図
以下、図示の実施の形態によって本発明を説明する。
本発明の一実施形態の撮影機器は、撮影光学系により結像された光学像を固体撮像素子等を用いて順次光電変換して画像信号を生成し、これにより得られた画像信号に基く画像を表示装置を用いて順次連続的に表示するライブビュー機能を備えた撮影機器であって、具体的には、例えばデジタルカメラを例に挙げて示すものである。
この撮影機器は、撮影指示信号が発生した時には、その指示信号の発生時点における画像信号を記録用画像データに変換して記録媒体に記録する。一方、再生指示信号が発生した時には、記録媒体に記録済みの画像データに基いて画像信号に変換して、その画像信号に基く画像を表示装置を用いて再生表示する再生機能を有している。
そして、本発明の撮影機器においては、撮影モードで動作しているときに、ライブビュー画像の画像信号に基いて被写体状況の所定の条件を判定する状況判定処理を行って、被写体状況が予め設定される最適な条件に合致すると、自動的に撮影動作を実行する動作モード(本実施形態では「スキンシップモード」という)を有して構成されている。
この「スキンシップモード」とは、例えば人物が他の人物や乳幼児等若しくは小動物等のペット等を抱きかかえているといった場面、即ち複数の被写体同士の親密な関係性が表れるような場面を想定した自動撮影モードである。
この「スキンシップモード」では、撮影画像(ライブビュー画像)中に含まれる複数の被写体同士の関係性を判定し、その親密な関係性を表現し得る適切な撮影タイミングを自動的に決定し、かつその撮影タイミングで自動的に撮影動作を実行して、最適な撮影画像を取得するというものである。
この場合において、被写体同士の関係性は、例えば
(1)撮影画像(ライブビュー画像)を形成する画像信号に基いて少なくとも1人の人物の顔(第1の顔)と、この第1の顔とは異なる他の人物や乳幼児等若しくは小動物等のペット等の顔(第2の顔)と、を顔検出処理技術を用いて検出する、
(2)撮影画像の領域中における第1の顔及び第2の顔の相対的な位置を検出する、
(3)第1の顔を有する人物の手や腕等と第2の顔との相対的な位置関係を検出する、
等の手順により判定するようにしている。以下、本実施形態の撮影機器について詳述する。
図1は、本発明の一実施形態の撮影機器の主要構成を示すブロック構成図である。図2は、図1の撮影機器の作用を示すフローチャートである。図3は、図2の「第1状況判定」処理(図2のステップS122,S125の各処理に相当する)のサブルーチンを示すフローチャートである。図4は、図2の「第2状況判定」処理(図2のステップS127の処理に相当する)のサブルーチンを示すフローチャートである。図5〜図8は、図1の撮影機器の動作時における表示部によるライブビュー画像の表示例を示す図である。このうち、図5は、画像中に複数の人物が被写体として表示されている場合のライブビュー画像の例を示している(検出開始時点の表示例)。図6は、図5の状態から画像中の複数の被写体が互いに接近している状態を示すライブビュー画像の例である。図7は、図6の状態から画像中の複数の被写体が互いに接触しており、かつ撮影機器側に目線を向けている状態を示すライブビュー画像の例である。図8は、画像中の複数の被写体として人物がペットを抱きかかえている状態を示すライブビュー画像の例である。
図9,図10は、図3のフローチャート中における「顔の向き検出」処理の説明図である。図11は、図4のフローチャート中における「目線検出」処理の説明図である。図12は、図3のフローチャート中における「手の検出」処理の説明図である。
なお、以下の説明に用いる各図面においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせて示している場合がある。したがって、本発明は、これらの図面に記載された構成要素の数量,構成要素の形状,構成要素の大きさの比率及び各構成要素の相対的な位置関係は、図示の形態のみに限定されるものではない。
まず、本発明の一実施形態の撮影機器1の主要構成について、図1のブロック構成図を用いて以下に説明する。
本実施形態の撮影機器1は、制御部11と、撮像部12と、顔検出部12aと、顔傾き検出部12bと、被写***置検出部12cと、操作部13と、記録部14と、警告部15と、表示部16と、時計17等を具備して構成されている。
制御部11は、撮影機器1の全体を統括的に制御する制御回路であって、撮影機器1内の各構成ブロックから入力される各種の信号を受けて各種の制御処理を行う。制御部11は、内部に画像処理部11a,被写体状態判定部11b,モード設定部11c,警告制御部11d等の回路部を有している。
このうち、画像処理部11aは、撮像部12によって生成された画像信号を受けて各種の画像信号処理を行う信号処理部である。
被写体状態判定部11bは、画像処理部11aによる所定の信号処理済みの画像信号に基く画像中に含まれる被写体の状態を判定する回路部である。
モード設定部11cは、操作部13のうち動作モードを設定する操作部材(図示せず)が操作されることにより出力されるモード設定指示信号を受けて、本撮影機器1の動作モードの設定を制御する回路部である。
警告制御部11dは、警告部15若しくは表示部16等を制御して、所定のタイミングで所定の警告処理を行うため制御回路部である。
撮像部12は、被写体の光学像を結像させる撮影光学系(図示せず)と、この撮影光学系によって結像された光学像を電気信号に変換する光電変換素子等の固体撮像素子と、この固体撮像素子により生成された画像信号についての信号処理を行う信号処理回路等によって構成される。撮像部12により生成された画像信号は、制御部11へと出力される。なお、固体撮像素子としては、CCD(Charge Coupled Device;電荷結合素子),CMOS(Complementary Metal Oxide Semiconductor;相補型金属酸化膜半導体)等が適用される。
顔検出部12aは、撮像部12によって取得された画像信号に基いて表される画像の中から、例えば人物や動物等の特定部位(例えば顔や手等)の画像領域を検出する被写体部位検出機能を実現するための信号処理を行う被写体部位検出部である。この被写体部位検出機能を実現する技術については、従来の撮影機器において広く普及しているものである。本実施形態の撮影機器1においても、従来の技術と同様のものが適用されるものとして、その詳細説明は省略する。
顔傾き検出部12bは、顔検出部12aによって画像中から検出された顔領域の画像信号についての信号処理を行って、検出された画像中の顔の傾き状況等を検出する回路部である。
被写***置検出部12cは、撮像部12によって取得された画像信号に基く画像の中から被写体の特定の部位、例えば人物の手等を検出して、その特定部位の画像中における位置を検出する回路部である。本実施形態の撮影機器1においては、例えば検出した人物の手等の、顔検出部12aによって検出された顔に対する相対位置等を検出する。
操作部13は、撮影機器1の外面に設けられる複数の操作部材(図示せず)と、これら複数の操作部材のそれぞれに連動する複数のスイッチと、各操作部材が使用者により操作されることによって生じる指示信号を制御部11へと伝達する処理回路等からなる。操作部13には、例えば電源オンオフ操作部材(及び電源オンオフスイッチ),シャッターレリーズ操作部材(及びシャッターレリーズ操作スイッチ),動作モード設定操作部材(及び動作モード設定スイッチ)等がある。
記録部14は、撮像部12によって取得され制御部11において各種の信号処理が施されることにより生成される記録用画像データを受けて記録蓄積するための記録媒体(図示せず)と、該記録媒体に対する画像データの記録処理や記録済み画像データの読み出し処理等、記録媒体を駆動する駆動回路等からなる。
警告部15は、例えば警告音等の音声を発音させるスピーカ等の音声出力部を含む構成部である。
表示部16は、制御部11による信号処理の結果生成された再生表示用の画像信号を受けて対応する画像を表示する表示処理や、操作部13からの指示信号に応じて設定メニュー表示,操作用表示等を表示させる表示装置である。表示部16としては、例えば液晶表示装置(LCD)や有機ELディスプレイ等が適用される。
なお、撮影機器1を撮影モードに設定して使用する場合、表示部16には、撮像部12によって順次取得される画像信号に基く画像が順次連続的に表示される。このとき表示部16に順次表示される画像をライブビュー画像というものとする。
使用者は、表示部16に表示されるライブビュー画像を見ながら構図やシャッターレリーズ操作を行うタイミングを決定する。つまり、表示部16は、撮影動作時には主にファインダーとして機能する。また、表示部16には設定メニューの一覧を表示させることができる。即ち、使用者が操作部13のうちの設定メニュー操作部材を操作すると、表示部16には、上記設定メニュー一覧表示が表示される。使用者は、この設定メニュー一覧表示を見ながら、上記操作部13の複数の操作部材を用いて撮影機器1の各種の設定操作や選択操作を行なって、所望する撮影条件等の設定を行うことができるようになっている。
さらに、撮影機器1を再生モードに設定して使用する場合、表示部16には記録媒体に記録済み画像データに基く画像等を表示させることができるようになっている。
時計17は、本撮影機器1における内部電気回路の制御等において必要となる計時動作等に寄与する計時回路等からなる。なお、本実施形態の説明では、時計17を単独の構成ブロックとして適用した例を示すが(図1参照)、これに代えて、時計機能を制御部11の内部に含めて構成するような形態としてもよい。
本実施形態の撮影機器1は、上述した構成部材以外にも、種々の構成部材を具備して構成されるものであるが、上述の構成部材以外の構成については、本発明に直接関連しない構成である。したがって、上述の構成部材以外の構成は図面の煩雑化を避けるために、その図示を省略すると共に、従来の撮影機器と同様の構成を有するものとして、それらの詳細説明を省略する。
このように構成された本実施形態の撮影機器1を用いて撮影を行う際の作用について、図2〜図4のフローチャート及び図5〜図12の説明図等を用いて以下に説明する。
まず、使用者(撮影者)は、撮影機器1の操作部13の電源オンオフ操作部材を操作する。これにより、撮影機器1は起動して、図2の制御処理の処理シーケンスが開始される(スタート)。
図2のステップS101において、制御部11は、モード設定部11cを介して撮影機器1の現在の設定状態を確認し、撮影動作を実行し得る撮影モードに設定されているか否かの確認を行う。ここで、撮影モードに設定されていることが確認された場合には、次のステップS102の処理に進む。一方、撮影モードに設定されていないことが確認された場合には、他の動作モードが設定されている物として、ステップS141の処理に進む。
以下は、撮影モード時の処理シーケンスの概要である。
まず、ステップS102において、制御部11は、撮像部12,画像処理部11a,表示部16等を制御して、表示部16の表示画面上にライブビュー画像を表示させるライブビュー画像表示処理を実行する。その後、ステップS103の処理に進む。
このライブビュー画像表示処理において、表示部16の表示画面16aに表示されるライブビュー画像の一例を、図5に示す。図5においては、表示画面16a内に、第1の被写体100と第2の被写体101が含まれている状況を示している。
ステップS103において、制御部11は、操作部13からの指示信号を監視して撮影動作を行うための撮影操作が行われたか否かの確認を行う。ここで、撮影操作の実行が確認された場合には、次のステップS104の処理に進む。また、撮影操作の実行が確認されない場合には、ステップS121の処理に進む。
ステップS104において、制御部11は、現在の撮影モードに関する詳細設定において、動画撮影モードに設定されているか否かの確認を行う。ここで、動画撮影モードに設定されていることが確認された場合には、次のステップS105の処理に進む。また、動画撮影モードに設定されていない場合には、ステップS107の処理に進む。
ステップS105において、制御部11は、撮像部12,画像処理部11a,表示部16,記録部14等を制御して通常の動画撮影処理を実行する。その後、ステップS106の処理に進む。
ステップS106において、制御部11は、操作部13からの指示信号を監視して撮影動作を終了するための操作が行なわれたか否かの確認を行う。ここで、撮影終了操作が確認された場合には、次のステップS135の処理に進む。また、撮影終了操作が確認されない場合には、上述のステップS104の処理に戻り、以降の処理を繰り返す。
一方、上述のステップS104の処理において、動画撮影モードに設定されていないことが確認されてステップS107の処理に進むと、このステップS107において、制御部11は、撮像部12,画像処理部11a,表示部16,記録部14等を制御して通常の静止画撮影処理を実行する。その後、ステップS135の処理に進む。
ステップS135において、制御部11は、操作部13からの指示信号を監視して電源オフ操作が行なわれたか否かの確認を行う。ここで、電源オフ操作が確認された場合には、次のステップS136の処理に進む。また、電源オフ操作が確認されない場合には、上述のステップS101の処理に戻り、以降の処理を繰り返す。
ステップS136において、制御部11は、操作部13からの電源オフを指示する信号を受けて、本撮影機器1の主電源をオフ状態とする電源オフ処理を実行する。これにより、本撮影機器1における制御シーケンスは終了する。
なお、上述のライブビュー画像表示処理(ステップS102),動画撮影処理(ステップS105),静止画撮影処理(ステップS107)の各処理シーケンスについての具体的な処理内容については、本発明に直接関連しないところであり、従来の撮影機器にて適用されるものと同様の通常の処理がなされるものとして、説明を省略する。
上述のステップS101の処理において、撮影モードに設定されていないことが確認されると、ステップS141の処理に分岐する。このステップS141以降の処理は、再生モード時の処理シーケンスの概要である。
即ち、ステップS141において、制御部11は、モード設定部11cを介して撮影機器1の現在の設定状態を再度確認し、再生動作を実行し得る再生モードに設定されているか否かの確認を行う。ここで、再生モードに設定されていることが確認された場合には、次のステップS142の処理に進む。一方、再生モードに設定されていないことが確認された場合には、上述のステップS101の処理に進み、以降の処理を繰り返す。
なお、この場合においては、撮影機器1の動作モードとして大きく分けて「撮影モード」と「再生モード」との二つの動作モードがあるものとして説明している。撮影機器1としては、これら2つの動作モード以外の他の動作モードを有して構成される場合も、当然考えられる。その場合には、上述のステップS141の処理の分岐にて、さらに別の動作モードを確認するための処理シーケンスを同様に設けるようにすればよい。
ステップS142において、制御部11は、記録部14,画像処理部11a,表示部16等を制御して、記録媒体に記録済みの画像データについてのファイル一覧表示処理を実行する。その後、ステップS143の処理に進む。
ステップS143において、制御部11は、操作部13からの指示信号を監視して再生表示すべき画像に関するデータファイル選択操作が行われたか否かの確認を行う。ここで、ファイル選択操作が行われたことが確認された場合には、次のステップS144の処理に進む。また、ファイル選択操作が所定の時間以上の間、行われていないことが確認された場合には、ステップS145の処理に進む。なお、この場合における所定の時間は、時計17の出力信号を確認することによりなされる。その後、ステップS144の処理に進む。
ステップS144において、制御部11は、表示部16等を制御して、上述のステップS143の処理にて選択されたデータファイルに基く画像の再生表示を行う選択ファイル再生表示処理を実行する。その後、ステップS145の処理に進む。
ステップS145において、制御部11は、操作部13からの指示信号を監視して再生動作の終了操作が行われたか否かの確認を行う。ここで、再生終了操作が確認された場合には、ステップS135の処理に進む。また、再生終了操作が確認されない場合には、上述のステップS142の処理に進み、以降の処理を繰り返す。
なお、上述のファイル一覧表示処理(ステップS142),ファイル選択操作処理(ステップS143),選択ファイル再生処理(ステップS144)の各処理シーケンスについての具体的な処理内容については、本発明に直接関連しないところであり、従来の撮影機器にて適用されるものと同様の処理がなされるものとして、説明を省略する。
一方、上述のステップS103の処理において、撮影操作の実行が確認されずにステップS121の処理に分岐すると、このステップS121において、制御部11は、モード設定部11cを介して撮影機器1の現在の設定状態を確認し、撮影モードのうちのスキンシップモードに設定されているか否かの確認を行う。ここで、スキンシップモードに設定されていることが確認された場合には、次のステップS122の処理に進む。一方、スキンシップモードに設定されていないことが確認された場合には、上述のステップS101の処理に進み、以降の処理を繰り返す。
ステップS122において、制御部11は、顔検出部12a,顔傾き検出部12b,被写***置検出部12c,被写体状態判定部11b等を制御して「第1状況判定処理」を実行する。この第1状況判定処理の詳細は図3に示す通りである。以下、第1状況判定処理の処理シーケンスを図3によって以下に詳述する。
ここで、「第1状況判定処理」は、表示中のライブビュー画像における被写体の状況を検出し、その被写体の状況が「スキンシップモード」において自動撮影を行うべき所定の条件に合致しているか否かを判定する処理である。また、被写体の状況のうち「第1状況」とは、ライブビュー画像に含まれる複数の被写体同士の関係性が親密なものであると推定できる状況をいうものとする。
具体的には、例えばライブビュー画像が図6,図8に示すような状況を考えてみる。
図6は、表示画面16a内で、第1の被写体100(人物)が第2の被写体101(他の人物若しくは乳幼児等)を抱きかかえた状況を示している。
図8は、表示画面16a内で、第1の被写体100(人物)が第2の被写体101A(ペット等)を抱きかかえた状況を示している。
ここで、図5に示す状況に対し図6に示す状況では、第1の被写体100と第2の被写体101との関係性は、図6の状況の方が親密な関係性を有していると考えられる。
同様に、図5に示す状況に対し図8に示す状況では、第1の被写体100と第2の被写体101との関係性は、図8の状況の方が親密な関係性を有していると考えられる。
そこで、図6,図8に示す状況を考察すると、表示画面16a内の画像から被写体の関係性を類推することができる。例えば、
表示画面の上部に所定以上の大きさの顔(第1の顔)がある(後述の図3のステップS201参照)、
検出された第1の顔の下側に、その顔の人物の両手が存在する(後述の図3のステップS202参照)
検出された第1の顔の下側に、その顔の人物の片手と第2の顔が存在する(後述の図3のステップS204参照)
第1の顔の向きが画面の中央側を向いている(後述の図3のステップS205参照)
第1の顔の向いた方向に略同じ大きさの第2の顔がある(後述の図3のステップS206参照)
第2の顔の向きが画面の中央側を向いている(後述の図3のステップS207参照)
第1の顔と第2の顔との間の距離が所定の距離(顔一個分)以下程度に近接している(後述の図3のステップS208参照)
第1の被写体の画面の外側の肩が上がっている(後述の図3のステップS209参照)
等の特徴的形態を見出すことができる。
したがって、図3の「第1状況判定処理」では、ライブビュー画像の画像信号についての画像信号処理を行なって被写体の状況を検出し、検出した被写体状況が上記各条件に合致するか否かを判定することで、ライブビュー画像における複数の被写体同士の関係性を判定する。
なお、後述の「第2状況判定処理」(図2のステップS127の処理;図4のサブルーチン参照)における「第2状況」は、ライブビュー画像の被写体同士が「第1状況」にある状況において、かつその画像中の複数の被写体が正面を向いていわゆる「カメラ目線」となった状況、即ち「第1の状況」にある親密な関係性を有する複数の被写体が同時に撮影機器1の側に視線を向けた状況をいう。つまり、「第2状況」となったときが、「スキンシップモード」時における撮影タイミングとなる。
具体的には、例えばライブビュー画像が図7,図8に示すような状況となった場合を、「第2状況判定処理」において条件が合致したものとする。
即ち、図7は、表示画面16a内で、第1の被写体100(人物)が第2の被写体101(他の人物若しくは乳幼児等)を抱きかかえた状況において、第1,第2の被写体の両者の目線が撮影機器1のある側、即ち正面側を向いている状況を示している。この状況は、図6の状況から遷移し得る状況と言える。
また、図8は、表示画面16a内で、第1の被写体100(人物)が第2の被写体101A(ペット等)を抱きかかえた状況において、図7の状況と同様に、第1,第2の被写体の両者の目線が撮影機器1のある側(正面側)を向いている状況を示している。
まず、図3のステップS201において、制御部11は、顔検出部12a,被写***置検出部12c等を制御して顔検出処理等の所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、画面上部に所定以上の大きさの顔が検出されたか否かの確認を行う。ここで、当該顔が検出された場合には、次のステップS202の処理に進む。また、当該顔が検出されない場合には、ステップS211の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
ステップS202において、制御部11は、顔検出部12a,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、上述のステップS201の処理にて検出された顔の下側に、その顔の人物の両手が存在するか否かの確認を行う。ここで、当該両手が存在することが確認された場合には、次のステップS203の処理に進む。また、当該両手が存在しない場合には、ステップS204の処理に進む。
ここで、「手の検出」は、次のようにして行われる。図6,図7,図8等に示すように、第1の被写体100が第2の被写体101,101Aを抱きかかえているような状況においては、第1の被写体100の両手の形状は、例えば図12(a),図12(b)で示すような形状で示すことができる。なお、この場合において、図12(a)で示す形状は、手の長手方向が画面に対して水平方向に向いている状況を示している。また、図12(b)で示す形状は、手の長手方向が画面に対して垂直方向に向いている状況を示している。
画像上における手の部分の大きさは、被写体の顔の大きさ(画面上における長さF)に対して、半分(F/2)から略同等程度の大きさになる。また、手の部分の色情報については、顔検出処理で検出される顔の部分の色情報に近似するものと考えられる。したがって、制御部11は、顔検出部12a,被写***置検出部12c,被写体状態判定部11b等を制御して、ライブビュー画像内から、これらの条件に合致する部分を検出する。
ステップS203において、制御部11は、顔検出部12a,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、上述のステップS202の処理にて検出された両手のうち画面上において上側に位置する手の近くに上述のステップS201の処理にて検出された顔(第1の顔)とは異なる他の顔(第2の顔)があるか否かの確認を行う。ここで、上の手の近くに第2の顔があることが確認された場合には、ステップS210の処理に進み、被写体状況が合致している旨の「合致判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。また、上の手の近くに第2の顔がない場合には、ステップS211の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
一方、上述のステップS202の処理において、顔の下側に、その顔の人物の両手が存在しない場合にステップS204の処理に進むと、このステップS204において、制御部11は、顔検出部12a,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、上述のステップS201の処理にて検出された顔の画面上における下側に、その顔の人物の片手及び第2の顔があるか否かの確認を行う。ここで、上述のステップS201の処理にて最初に検出した顔を第1の顔というものとする。また、第2の顔の検出条件としては、第1の顔と略同じ大きさの顔を第2の顔として検出するようにしている。
このステップS204の処理にて、第1の顔の下側に片手及び第2の顔が確認された場合には、ステップS205の処理に進む。また、第1の顔の下側に片手及び第2の顔が確認されない場合には、ステップS211の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
ステップS205において、制御部11は、顔検出部12a,顔傾き検出部12b,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、第1の顔の向きが画面の中央側を向いているか否かの確認を行う。ここで、第1の顔の向きが画面の中央側を向いていることが確認された場合には、次のステップS206の処理に進む。また、第1の顔の向きが画面の中央側を向いていない場合には、ステップS211の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
ステップS206において、制御部11は、顔検出部12a,顔傾き検出部12b,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、第1の顔の向いた方向に第2の顔が存在するか否かの確認を行う。ここで、第1の顔の向いた方向に第2の顔が存在することが確認された場合には、次のステップS207の処理に進む。また、第1の顔の向いた方向に第2の顔が存在しない場合には、ステップS211の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
ステップS207において、制御部11は、顔検出部12a,顔傾き検出部12b,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、第2の顔の向きが画面の中央側(第1の顔のある方向)に向いているか否かの確認を行う。ここで、第2の顔の向きが画面の中央側に向いていることが確認された場合には、次のステップS208の処理に進む。また、第2の顔の向きが画面の中央側に向いていない場合には、ステップS211の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
ステップS208において、制御部11は、顔検出部12a,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、第1の顔と第2の顔との間の距離が顔一つ分の幅寸法以下の距離であるか否かの確認を行う。
このステップS208の処理ステップでは、第1の顔と第2の顔との近接具合を検出することにより、両者の関係性を判定する。即ち、第1の顔と第2の顔との間の距離が顔一つ分の幅寸法以下に近接している場合には、両者は親密な関係性を有するものと判定するようにしている。
即ち、このステップS208の処理にて、第1の顔と第2の顔との間の距離が顔一つ分の幅寸法以下の距離であることが確認された場合には、両者は親密な関係性を有するものと判定されて、ステップS210の処理に進み、被写体状況が合致している旨の「合致判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
一方、上記ステップS208の処理にて、第1の顔と第2の顔との間の距離が顔一つ分の幅寸法よりも大である場合には、両者の関係性は親密ではないものと判定されて、ステップS209の処理に進む。
ステップS209において、制御部11は、顔検出部12a,被写***置検出部12c等を制御して所定の画像処理を行い、撮像部12によって取得された画像信号に基く画像において、第1の顔の人物の肩のうち画面外側寄りに位置する肩が他方の肩の位置よりも画面の水平方向を基準として上にある状態か否かの確認を行う。ここで、第1の顔の人物の一方の肩(画面外側寄りの肩)が他方の肩より画面水平方向を基準として上にある状態が確認された場合には、ステップS210の処理に進み、被写体状況が合致している旨の「合致判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
また、第1の顔の人物の一方の肩(画面外側寄りの肩)が他方の肩より画面水平方向を基準として上にない状態(下にあるか若しくは両肩が略同位置)である場合には、ステップS211の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
なお、上述のステップS205,S206,207等の各処理において、顔の向きを検出する方法としては、例えば次に示すような手段が用いられる。
図9は、本撮影機器1における表示部16の表示画面16aに、所定のライブビュー画像が表示されている様子を示している。この図9の表示画面16aは、例えば第1の顔100aを有する人物である第1被写体100と、第2の顔101aを有する人物である第2被写体101と、が含まれるライブビュー画像の一例を示している。
図9の表示画面16aにおいて、第1被写体100及び第2被写体101は、いずれも画面の中央側に向いているものとする。図9では、表示画面16aの略中央部分で該画面を左右に二分する中央線を仮想線Cとして二点鎖線で示している。
表示画面16aに表示されるライブビュー画像が、このような状況にある場合において、例えば、第2被写体101の顔101aの向きを検出するものとする。
ここで、図9においては、第2被写体101の第2の顔101aを拡大して示している。顔検出部12aは、第2の顔101aの陰影情報から、
画面上における第2の顔101aの略中心Aを上下方向に通るラインA1(図9において点線で示すライン)、
第2の顔101aの両眼及び鼻の各位置から推定される顔自体の中心(正面から見た場合の中心)を上下方向に通るラインB(図9,図10の実線で示すライン;鼻筋を通るライン)、
第2の顔101aの幅方向(画面左右方向)の長さF(寸法の絶対値ではなく画面上における相対的な大きさがわかればよい)、
等を検出し、これらの検出情報に基いて、
ラインA1とラインBとのズレ量ΔX(図9参照)が求められる。
この場合において、図9に示す状態の第2被写体101を、仮に頭上側から俯瞰して見たとすると、図10に示すようになる。つまり、図10は、図9における矢印Dで示す方向から見たときの第2被写体101の様子を示している。換言すれば、図9に示される第2被写体101は、図10における矢印Eで示す方向(正面側)から見たときの状態である。この状態において、第2の顔101aは、図10に示す符号θの角度分だけ正面を基準として画面中央側に向けられていることになる。したがって、このときの顔の角度θは、
Θ=arcsin(2・Δx/F)
によって求めることができる。これらの演算は、例えば被写体状態判定部11b等において行われる。
このように顔の角度θを求めることにより、検出された顔が、画面16aの中央側に向いているか否かを判別することができる。
上述したように、図3の処理シーケンスにおいて、ステップS210(「合致判定」)若しくはステップS211(「合致なし判定」)の各判定処理の後、図2の処理シーケンスに復帰(リターン)すると、図2のステップS123の処理に進む。
図2のステップS123において、制御部11は、上述の図3の「第1状況判定処理」の結果、ライブビュー画像における複数の被写体が「第1状況」に合致しているか否かの確認を行う。ここで、「合致判定」が確認された場合には、ステップS124の処理に進む。また、「合致なし判定」である場合には、上述のステップS101の処理に戻り、以降の処理を繰り返す。
ステップS124において、制御部11は、警告制御部11dを介して警告部15を制御して、所定の警告動作、例えばブザー音等を発生させる動作を行う。この警告動作は、被写体の注意を撮影機器1の側に向けさせて、第1の顔100a及び第2の顔101aの目線が撮影機器1を向くようにするために行う動作である。したがって、例えばブザー音等に限らず、予め撮影機器1の内部メモリ(図示せず)に登録記録しておいた人物による掛け声,動物の亡き声等を発音させるようにしてもよい。
これと同時に、制御部11は、撮像部12,画像処理部11a,表示部16等を制御して撮影動作を開始させる。その後、ステップS125の処理に進む。ここで行われる撮影動作(撮影処理)は、例えば検出した顔を追尾しつつ、その顔の領域についてのAF動作及びAE動作等を継続的に行って常に撮影準備状態を維持しながら、レリーズ信号を受けるとレリーズ動作を実行する動作処理である。
ステップS125において、制御部11は、再度「第1状況判定処理」(図3参照)を実行する。その後、ステップS126の処理に進む。
ステップS126において、制御部11は、「第1状況判定処理」の結果の確認を行う。ここで、「合致判定」が確認された場合には、ステップS127の処理に進む。また、「合致なし判定」である場合には、上述のステップS134の処理に進む。
ステップS134において、制御部11は、警告制御部11dを介した警告部15の制御、及び表示部16の制御を行なって、所定の警告動作を実行する。この警告動作は、「スキンシップモード」による撮影は、被写体状況が所定の条件に合致しなかったために実行できなかった旨を警告する動作処理である。具体的には、例えばブザー音等を発生させたり、表示部16に、その旨の警告表示を行う処理が実行される。この警告動作の後、上述のステップS124の処理にて開始した撮影動作を終了する。その後、ステップS135の処理に進む。
一方、上述のステップS126の処理にて、「第1状況判定処理」の結果が「合致判定」である場合に、ステップS127の処理に進むと、このステップS127において、制御部11は、顔検出部12a,顔傾き検出部12b,被写***置検出部12c,被写体状態判定部11b等を制御して「第2状況判定処理」を実行する。この第2状況判定処理の詳細は図4に示す通りである。以下、第2状況判定処理の処理シーケンスを図4によって以下に詳述する。
まず、図4のステップS221において、制御部11は、被写体状態判定部11b等を制御して所定の画像処理を行い、第1の顔100aがカメラ目線であるか否かの確認を行う。ここで、第1の顔100aがカメラ目線であることが確認された場合には、次のステップS222の処理に進む。また、第1の顔100aがカメラ目線ではない場合には、ステップS224の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
ステップS222において、制御部11は、被写体状態判定部11b等を制御して所定の画像処理を行い、第2の顔101aがカメラ目線であるか否かの確認を行う。ここで、第2の顔101aがカメラ目線であることが確認された場合には、次のステップS223の処理に進み、このステップS223において、制御部11は、被写体状況が合致している旨の「合致判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
また、第2の顔101aがカメラ目線ではない場合には、ステップS224の処理に進み、被写体は状況に合致していない旨の「合致なし判定」を行う。その後、図2の処理シーケンスに復帰する(リターン)。
なお、上述のステップS221,S222等の各処理において、カメラ目線を検出する方法としては、例えば次に示すような手段が用いられる。
ここで、第1の顔100a,第2の顔101aのそれぞれがカメラ目線の検出処理を説明するのに、表示部16の表示画面16aに表示されるライブビュー画像として、図9に示す状況を用いて、例えば第2の被写体101の目線検出を行う場合の例を以下に示す。
図11は、図9に示す第2の被写体101を頭上側から俯瞰して見た場合の様子を拡大して示している。
この状況において、被写***置検出部12c,被写体状態判定部11b等は、第2の顔101aの陰影情報(顔検出部12aにより取得される)から、黒眼の位置を検出し、検出された黒眼の位置を図11の上下方向に通るラインE1と、顔の略中心Aを図11の上下方向に通るラインA2(図11参照)とのズレ量ΔEが求められる。
この状態において、第2の顔101aは、図11に示す符号φの角度分だけ正面を基準として画面外側に向けられていることになる。したがって、このときの目線の角度φは、
φ=arcsin(2・ΔE/F)
によって求めることができる。これにより、ズレ量ΔEが求められる。
このように目線の移動角度φを求めることにより、検出された顔の目線が、表示画面16a中において、第1の顔100a,第2の顔101aがカメラ目線となっているか否かを判別することができる。
上述したように、図4の処理シーケンスにおいて、ステップS223(「合致判定」)若しくはステップS224(「合致なし判定」)の各判定処理の後、図2の処理シーケンスに復帰(リターン)すると、図2のステップS131の処理に進む。
図2のステップS131において、制御部11は、上述の図4の「第2状況判定処理」の結果、ライブビュー画像における複数の被写体が「第2状況」に合致しているか否かの確認を行う。ここで、「合致判定」が確認された場合には、制御部11は、撮影タイミングであると判断し、この時点でシャッターレリーズ処理を実行する。その後、ステップS133の処理に進む。これにより、図7,図8に示すような被写体同士の親密な関係性を有している状況において、両被写体が「カメラ目線」となっている画像が取得される。
一方、上述のステップS131の処理において、「合致なし判定」であることが確認された場合には、ステップS132の処理に進む。
ステップS132において、制御部11は、時計17の出力に基いて所定時間が経過したか否かの確認を行う。ここで、所定時間が経過したことが確認されたら、ステップS133の処理に進む。
また、所定時間が経過していない場合には、上述のステップS125の処理に戻り、以降の処理を繰り返す。即ち、上述のステップS131の処理から当該ステップS132の処理に分岐した場合には、所定時間が経過するまでステップS125〜S131の処理を繰り返す。これにより、ライブビュー画像における被写体状況が合致することを待機する。
そして、最後に、ステップS133において、制御部11は、「スキンシップモード」による一連の撮影動作についての処理を終了する。その後、ステップS135の処理に進む。
以上説明したように上記一実施形態によれば、ライブビュー画像中における被写体同士の関係性が親密であることを表わす場面として、第1の被写体100が第2の被写体101(101A)を抱きかかえたような状況を想定している。
そして、ライブビュー画像の画像信号から被写体の状況を検出し、検出した被写体状況が、当該想定状況に合致し、かつ第1,第2の被写体100,101(101A)が「カメラ目線」となるタイミングで、自動的にシャッターレリーズ動作が実行される。
したがって、撮影者自身が撮影機器1を常に操作し続けたり、煩雑な操作が不要とされるので、撮影者自身も被写体として撮影画像に入ることができる。この場合において、撮影者(第1の被写体)は、撮影機器1の前で第2の被写体との親密な関係性を表現しつつ、所定の状況に合致する状況を創り出すだけで、撮影機器1は、ライブビュー画像に基いて適切な撮影タイミングを自動的に決定し、そのタイミングで撮影動作は自動的に実行される。したがって、撮影者自身を含む複数の被写体同士の親密な関係性を表現し得る画像を容易に取得することができる。
これに加えて、本実施形態の撮影機器1においては、複数の被写体のうちのいずれかが良好な状況(例えば笑顔等)となったタイミングで撮影を行うのではなく、画像として完成度の高い瞬間、即ち複数の被写体同士の親密な関係性を表現し得る状況(第1の被写体が第2の被写体を抱きかかえているような状況)において、かつ両者が「カメラ目線」となる一瞬を撮り逃すことなく、確実に撮影を行なうことができる。
この場合において、「カメラ目線」を得るための手段として、警告部15を用いて発音させて、被写体の注意を撮影機器1の側に向けさせるようにしたので、第2の被写体が乳幼児若しくはペット等の場合には、より効果的である。
したがって、動きの激しい第2の被写体、例えば乳幼児等やペット等と共に撮影するような場合にも、従来のように何度も撮り直しを行うといったことを不要とし、確実に所望の画像を取得することが容易にできる。
なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
本発明は、デジタルカメラ等の撮影機能に特化した電子機器である撮影機器に限られることはなく、撮影機能を備えた他の形態の電子機器、例えば携帯電話,録音機器,電子手帳,パーソナルコンピュータ,ゲーム機器,テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の撮影機能付き電子機器にも適用することができる。
1……撮影機器
11……制御部
11a……画像処理部
11b……被写体状態判定部
11c……モード設定部
11d……警告制御部
12……撮像部
12a……顔検出部
12b……検出部
12c……被写***置検出部
13……操作部
14……記録部
15……警告部
16……表示部
16a……表示画面
17……時計
100,101A……第1被写体
100a……第1の顔
101……第2被写体
101a……第2の顔

Claims (5)

  1. 被写体像の画像信号を取得する撮像部と、
    上記撮像部により取得された画像信号に基く画像に含まれる被写体のうち人物を含む複数の被写体の特定部位を検出する被写体部位検出部と、
    上記被写体部位検出部により検出された上記複数の被写体の各特定部位の上記画像内における相対的な位置関係を検出する被写***置検出部と、
    上記被写体部位検出部及び上記被写***置検出部による検出結果に基いて上記複数の被写体の関係性を判定する被写体状態判定部と、
    撮影制御処理を実行する制御部と、
    を具備し、
    上記被写***置検出部は、
    上記被写体部位検出部により検出された上記複数の被写体の各特定部位のうち複数の顔の位置関係と、
    上記複数の顔のうちの一方の第1の顔と上記第1の顔を有する被写体の少なくとも一方の手との位置関係と、
    上記第1の顔の一方の手と上記複数の顔のうちの他方の第2の顔との位置関係と、
    上記第1の顔及び上記第2の顔のそれぞれの眼の位置と、
    を検出し、
    上記制御部は、上記被写体状態判定部による判定結果が所定の条件に合致しない場合には、撮影制御処理を初期動作に戻すことを特徴とする撮影機器。
  2. 上記所定の条件は、上記複数の被写体の関係性が親密な関係性にあるとの条件であることを特徴とする請求項1に記載の撮影機器。
  3. 上記制御部は、上記被写体状態判定部による判定結果に基いて撮影タイミングを決定することを特徴とする請求項1に記載の撮影機器。
  4. 上記被写***置検出部は、さらに、
    上記第1の顔及び上記第2の顔のそれぞれが向いている方向に関する情報を検出することを特徴とする請求項1〜請求項3のうちのいずれか一つに記載の撮影機器。
  5. 上記被写体状態判定部は、
    上記第1の顔及び上記第2の顔のそれぞれの眼が共に、該撮影機器の側に向けられた時点を撮影タイミングとして決定することを特徴とする請求項1〜請求項4のうちのいずれか一つに記載の撮影機器。
JP2010020497A 2010-02-01 2010-02-01 撮影機器 Expired - Fee Related JP5430428B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010020497A JP5430428B2 (ja) 2010-02-01 2010-02-01 撮影機器
CN201110033776.XA CN102158649B (zh) 2010-02-01 2011-01-31 摄影设备和该摄影设备的摄影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010020497A JP5430428B2 (ja) 2010-02-01 2010-02-01 撮影機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013250331A Division JP5663652B2 (ja) 2013-12-03 2013-12-03 被写体状況判定方法

Publications (3)

Publication Number Publication Date
JP2011160219A JP2011160219A (ja) 2011-08-18
JP2011160219A5 JP2011160219A5 (ja) 2013-01-24
JP5430428B2 true JP5430428B2 (ja) 2014-02-26

Family

ID=44439806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010020497A Expired - Fee Related JP5430428B2 (ja) 2010-02-01 2010-02-01 撮影機器

Country Status (2)

Country Link
JP (1) JP5430428B2 (ja)
CN (1) CN102158649B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9362809B2 (en) 2011-07-21 2016-06-07 Honda Motor Co., Ltd. Stator for electric rotary machine and fabricating method of the same
US9036069B2 (en) * 2012-02-06 2015-05-19 Qualcomm Incorporated Method and apparatus for unattended image capture
JP5872981B2 (ja) * 2012-08-02 2016-03-01 オリンパス株式会社 撮影機器,動体の撮影方法,撮影プログラム
JP6319981B2 (ja) * 2013-09-30 2018-05-09 キヤノン株式会社 撮影装置、情報処理方法及びプログラム
CN106803056B (zh) * 2015-11-26 2020-11-06 华为技术有限公司 一种肢体关系的估计方法及装置
CN105721778A (zh) * 2016-03-25 2016-06-29 宇龙计算机通信科技(深圳)有限公司 拍摄数据的处理方法、拍摄数据的处理装置和终端
JP6589900B2 (ja) * 2017-01-27 2019-10-16 京セラドキュメントソリューションズ株式会社 映像処理装置
CN108200340A (zh) * 2018-01-12 2018-06-22 深圳奥比中光科技有限公司 能够检测眼睛视线的拍照装置及拍照方法
CN108156387A (zh) * 2018-01-12 2018-06-12 深圳奥比中光科技有限公司 通过检测眼睛视线自动结束摄像的装置及方法
CN113557546B (zh) * 2021-03-17 2024-04-09 商汤国际私人有限公司 图像中关联对象的检测方法、装置、设备和存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7248300B1 (en) * 1999-06-03 2007-07-24 Fujifilm Corporation Camera and method of photographing good image
JP2000347278A (ja) * 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd カメラ及び撮影方法
JP2006079220A (ja) * 2004-09-08 2006-03-23 Fuji Photo Film Co Ltd 画像検索装置および方法
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
JP2007041964A (ja) * 2005-08-04 2007-02-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP4891674B2 (ja) * 2006-06-30 2012-03-07 オリンパスイメージング株式会社 カメラ
KR100883100B1 (ko) * 2006-12-18 2009-02-11 삼성전자주식회사 이동 단말의 영상 파일 저장 방법 및 장치
JP4656331B2 (ja) * 2006-12-27 2011-03-23 富士フイルム株式会社 撮像装置および撮像方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4453721B2 (ja) * 2007-06-13 2010-04-21 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4829186B2 (ja) * 2007-07-27 2011-12-07 オリンパスイメージング株式会社 撮像装置
KR101513616B1 (ko) * 2007-07-31 2015-04-20 엘지전자 주식회사 이동 단말기 및 그 영상정보 관리방법
CN101388070B (zh) * 2007-09-14 2011-11-30 鸿富锦精密工业(深圳)有限公司 选择最佳时机捕获影像的***及方法
JP4720810B2 (ja) * 2007-09-28 2011-07-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5251547B2 (ja) * 2008-06-06 2013-07-31 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
JP2011160219A (ja) 2011-08-18
CN102158649A (zh) 2011-08-17
CN102158649B (zh) 2014-12-10

Similar Documents

Publication Publication Date Title
JP5430428B2 (ja) 撮影機器
US9088721B2 (en) Imaging apparatus and display control method thereof
US20150181135A1 (en) Image capturing apparatus and control method thereof
US8988535B2 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
US8334907B2 (en) Photographing method and apparatus using face pose estimation of face
US10158798B2 (en) Imaging apparatus and method of controlling the same
JP5991514B2 (ja) 撮像装置及び撮像システム
JP5383356B2 (ja) 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム
JP2013013064A (ja) 撮像装置及び撮像システム
US10455154B2 (en) Image processing device, image processing method, and program including stable image estimation and main subject determination
JP2011188210A (ja) 撮影機器及び撮影システム
JP2011188065A (ja) 撮像制御装置、被写体検出方法、プログラム
JP2013013063A (ja) 撮像装置及び撮像システム
US20150358546A1 (en) Image processing apparatus, control method, and medium for compositing still pictures
JP5885395B2 (ja) 撮影機器及び画像データの記録方法
JP2011030164A (ja) 撮像装置、撮像システム、撮像方法、プログラム
JP2009290318A (ja) 撮像装置およびズーム調整方法
US9232133B2 (en) Image capturing apparatus for prioritizing shooting parameter settings and control method thereof
JP5663652B2 (ja) 被写体状況判定方法
JP2010183253A (ja) 情報表示装置および情報表示プログラム
JP7342883B2 (ja) 撮像制御装置、撮像装置、撮像制御方法
JP2008104070A (ja) カメラ付き携帯機器とカメラ付き携帯機器のためのプログラム
JP2015210467A (ja) 撮像装置、撮像制御方法、プログラムおよび記録媒体
US20220337743A1 (en) Imaging control apparatus, imaging control method, program, and imaging device
JP2005229538A (ja) デジタルカメラシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5430428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees