JP4853707B2 - 撮像装置及びそのプログラム - Google Patents

撮像装置及びそのプログラム Download PDF

Info

Publication number
JP4853707B2
JP4853707B2 JP2006199754A JP2006199754A JP4853707B2 JP 4853707 B2 JP4853707 B2 JP 4853707B2 JP 2006199754 A JP2006199754 A JP 2006199754A JP 2006199754 A JP2006199754 A JP 2006199754A JP 4853707 B2 JP4853707 B2 JP 4853707B2
Authority
JP
Japan
Prior art keywords
subject
detected
entire
recording
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006199754A
Other languages
English (en)
Other versions
JP2008028747A (ja
Inventor
和也 奈良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006199754A priority Critical patent/JP4853707B2/ja
Publication of JP2008028747A publication Critical patent/JP2008028747A/ja
Application granted granted Critical
Publication of JP4853707B2 publication Critical patent/JP4853707B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、撮像装置及びそのプログラムに係り、詳しくは、撮像された画像データに基づいて自動的に被写体を特定することができる撮像装置及びそのプログラムに関する。
撮像装置、例えば、デジタルカメラにおいては、ユーザがAFエリアに撮影した被写体を合わせることにより、該被写体に対してオートフォーカスを行なったり(特許文献1)、トリミングしたい被写体をトリミング枠等に合わすことにより、該被写体をトリミングしたりしていた(特許文献2)。
公開特許公報 特開平11−275439号
公開特許公報 特開2002−027298
しかしながら、上記技術によれば、ユーザが撮影したい被写体にAFエリアやトリミング枠を合わせなければならず面倒である。
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、撮像された画像データに基づいて自動的に被写体を特定することができる撮像装置及びそのプログラムを提供することを目的とする。
上記目的達成のため、請求項1記載の発明による撮像装置は、撮像素子と、表示手段と、
検出すべき被写体の位置の遷移軌跡を予め記録する遷移軌跡記録手段と、前記撮像素子により被写体全体を順次撮像させる撮像制御手段と、前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、被写体全体の位置を検出する第1の位置検出手段と、前記第1の位置検出手段により検出された被写体全体の位置を記憶していく位置記録手段と、前記位置記録手段により複数記録された被写体全体の位置の遷移軌跡と前記遷移軌跡記録手段に記録された写体の位置の遷移軌跡とが類似するか否かを判断する判断手段と、前記判断手段により類似すると判断されると、前記撮像素子により撮像されている被写体全体を定する特定手段と、前記特定手段により特定された写体全体とともに合焦枠を前記表示手段に表示させる第1の表示制御手段と、前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、前記第1の表示制御手段により合焦枠が重畳表示された写体全体位置を検出する第位置検出手段と、前記第位置検出手段により写体全体位置が検出されると、当該写体全体位置に合わせるように前記合焦枠を前記表示手段に表示させる第2の表示制御手段と、前記第2の表示制御手段により前記合焦枠が表示された写体全体に合焦して記録する記録手段とを備えたことを特徴とする。
また、請求項2の発明は、前記特定手段により特定された写体全体を中心としてトリミング枠を前記表示手段に設定する設定手段をさらに備え、前記第1の表示制御手段は、前記特定された写体全体に合焦枠を重畳表示させるとともに、前記トリミング枠を前記写体全体を中心に表示させ、前記記録手段は、前記合焦手段により合焦された写体全体を中心としたトリミング枠内の画像を記録することを特徴とする。
また、請求項3に記載の発明は、請求項1又は2に記載の発明であって、前記第1の位置検出手段は、前記撮像素子により撮像されたフレーム画像データから数の被写体全体の位置を夫々検出し、前記位置記録手段は、前記第1の位置検出手段により検出された複数の被写体全体の位置を夫々記録していき、前記判断手段は、前記位置記録手段により夫々記録された写体全体の位置に基づく遷移軌跡と前記遷移軌跡記録手段に記録された体の遷移軌跡とが類似するか否かを判断し、前記特定手段は、前記判断手段により類似すると判断された被写体全体を定することを特徴とする。
また、請求項4に記載の発明は、請求項3に記載の発明であって、前記撮像制御手段により順次取得された複数の被写体全体から、各被写体全体の一部の形状を個別に検出する形状検出手段をさらに備え、前記位置記録手段は、前記形状検出手段により検出された各被写体全体の一部の画角に対する位置記録していくことを特徴とする。
また、請求項5に記載の発明は、請求項1乃至3の何れかに記載の発明であって、記撮像制御手段により順次撮像されたフレーム画像データにおける被写体全体の動きベクトルを検出する動きベクトル検出手段をさらに備え、前記位置記録手段は、前記動きベクトル検出手段により検出された動きベクトルに基づいて、前記被写体全体の位置を記録していくことを特徴とする。
また、請求項6に記載の発明は、請求項1乃至3の何れかに記載の発明であって、前記撮像制御手段により順次撮像された被写体全体の種類を識別する識別手段をさらに備え、
前記位置記録手段は、前記識別手段により種類が識別された被写体全体の位置を記録していくことを特徴とすることを特徴とする。
また、請求項7に記載の発明は、請求項2記載の発明であって、前記撮像制御手段は、前記撮像素子により順次撮像される被写体全体の画像を動画として撮像し、前記撮像制御手段により撮像された被写体全体の位置を中心として前記トリミング枠内の画像を順次生成していく生成手段をさらに備えたことを特徴とする。
上記目的達成のため、請求項8記載の発明によるプログラムは、撮像素子と、表示手段と、検出すべき被写体の位置の遷移軌跡を予め記録する記録手段とを備えた撮像装置のコンピュータを、前記撮像素子により被写体全体を順次撮像させる撮像制御手段、前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、被写体全体の位置検出する第1の位置検出手段、前記第1の位置検出手段により検出された被写体全体の位置を記憶していく位置記録手段と、前記位置記録手段により記録された被写体全体の位置に基づく遷移軌跡と前記記録手段に記録された写体の位置の遷移軌跡とが類似するか否かを判断する判断手段、前記判断手段により類似すると判断されると、前記撮像素子により撮像されている被写体全体を定する特定手段、前記特定手段により特定された写体全体とともに合焦枠を前記表示手段に表示させる第1の表示制御手段、前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、前記第1の表示制御手段により合焦枠が重畳表示された写体全体位置出する第2の位置検出手段、前記位置検出手段により写体全体位置が検出されると、前記合焦枠を当該被写体全体の位置に合わせるように前記表示手段に表示させる第2の表示制御手段、前記第2の表示制御手段により前記合焦枠が表示された写体全体に合焦して記録する記録手段として機能させることを特徴とする。
本発明によれば、被写体の位置の遷移軌跡を予め記録することにより記録すべき被写体全体自動で合焦して記録することができる。
以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の動画処理装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
撮影レンズ2は、複数のレンズ群から構成されるフォーカスレンズ2b、ズームレンズ2a等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ2b、ズームレンズ2aをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。
絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞りとは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。
ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。
画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはCPU10に送られる。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。
CPU10は、静止画撮影処理、記録処理、画像生成部9から送られてきた画像データの圧縮・伸張(例えば、JPEG形式、MPEG形式の圧縮・伸張)処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、画像のエッジ検出処理、該検出されたエッジの位置の遷移軌跡を記憶させる処理、該記憶されたエッジの位置の遷移軌跡に基づいてデジタルカメラ1が落下しているか否かを判定する判定処理などを行う機能を有する。
キー入力部11は、シャッタボタン、被写体特定ボタン、録画ボタン、モードキー、セットキー、十字キー、ズームキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータ(例えば、落下軌跡データ)が記録されており、CPU10は、該プログラムに従い動作する。
DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、動画撮影中のときもCCD5によって撮像された被写体の動画を表示させる。また、動画撮影中に静止画撮影処理が行なわれた場合は、動画とともに撮影された静止画を表示させる。
B.デジタルカメラ1の動作
まず、本実施の形態におけるデジタルカメラ1の動作を説明する前に本発明の特徴部分を簡単に説明する。
本発明の特徴となる部分は、CCD5により順次撮像されたフレーム画像データに基づいて、撮像された各被写体の動きをそれぞれ検出していき、該検出された各被写体の動きに基づいて、何れかの被写体が所定の動作を行なったと判断すると、該所定の動作が行なわれた被写体を自動的に特定するというものである。つまり、撮像される被写体が複数ある場合であっても、所定の動作を行なった被写体を自動的に特定することができる。
第1の実施の形態においては、更に該特定した被写体の位置に基づいてAFエリアやトリミング枠を表示させ、その後、該被写体が移動した場合であっても、該特定した被写体に追従させてAFエリアやトリミング枠を表示させていくというものである。
以下、第1の実施の形態におけるデジタルカメラ1の動作を図2のフローチャートに従って説明する。
ユーザのモードキーの操作により静止画撮影モードに設定されると、CPU10は、所定のフレームレートでCCD5による撮像を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号の画像データを画像表示部15に表示されるという、いわゆるスルー画像表示を開始させる(ステップS1)。
次いで、CPU10は、シャッタボタンが半押しされたか否かを判断する(ステップS2)。この判断は、キー入力部11からシャッタボタンの半押しに対応する操作信号が送られて来たか否かにより判断する。
ステップS2で、シャッタボタンが半押しされていないと判断するとステップS2に留まり、シャッタボタンが半押しされたと判断すると、動き検出処理を開始する(ステップS3)。この動き検出処理は、CCD5から順次出力されるフレーム画像データに基づいて、撮像された各被写体の動きを検出していく。つまり、各フレーム画像間での被写体の変化を検出することにより各被写体の動きを検出していく。この動き検出処理について後で詳細に説明する。
ここでは、図3(a)に示すような画像が表示されている時にシャッタボタンが半押しされたものとする。図3(a)に示すように、撮像された被写体は人と、木と、太陽となる。
動き検出処理を開始すると、CPU10は、所定の動作が検出されたか否かを判断する(ステップS4)。この判断は、検出されていった被写体の動きが所定の動作であるか否かによって判断する。ここでは、検出された各被写体の動きのうち、何れか1つの動きが所定の動作と判断された場合には、所定の動作が検出されたと判断する。
ステップS4で、所定の動作が検出されていないと判断すると、所定の動作が検出されるまでステップS4に留まり、所定の動作が検出されたと判断すると、動き検出処理を終了し、該所定の動作を行なった被写体を特定する(ステップS5)。このとき、該特定した被写体の位置をバッファメモリの位置情報記憶領域に記憶させる。
次いで、CPU10は、該特定した被写体の位置(記憶させた位置)に基づいてAFエリアの位置を決定してAFエリアを表示させるとともに、該特定した被写体の位置に基づいてトリミング枠を表示させる(ステップS6)。つまり、AFエリアの位置、及びトリミング枠の位置(トリミング位置)を該記憶させた位置に合わせて表示させる。このトリミング枠の大きさは、予め定められたトリミングサイズに基づいて表示される。
ここでは、図3(b)に示すように、人が特定の動作を行なったものと判断し、該人の位置に基づいて、AFエリア11、トリミング枠12が表示されているのがわかる。
次いで、CPU10は、該特定した被写体の位置検出処理を開始する(ステップS7)。この被写体の位置検出処理は、CCD5から順次出力されるフレーム画像データに基づいて、該特定した被写体(特定被写体)の位置を検出していく。この位置検出処理について後で詳細に説明する。
図3(c)は、被写***置検出処理により検出されていく特定被写体の位置の様子を示すものである。特に、図3(c)は、被写体を特定した後に、該特定した被写体が右方向に移動した場合に、検出されていく被写体の位置の様子を示すものである。点線で表されている被写体は、過去に検出された特定被写体の位置を示すものであり、実線で表されている被写体は、現在検出された特定被写体の位置を示すものである。
なお、CPU10は、特定被写体の位置を検出すると、該検出された位置を、バッファメモリの位置情報記憶領域に記憶させ、既に位置が記憶されている場合は上書きして記憶させる。これにより、最新の特定被写体の位置が記憶されることになる。
そして、該特定被写体の位置検出処理を開始すると、CPU10は、検出された位置(位置情報記憶領域に記憶されている位置)に基づいて、AFエリア11及びトリミング枠12の表示を変更させる(ステップS8)。
図4は、表示されるAFエリア11及びトリミング枠12の様子を示す図である。
図4(a)は、図3(c)に示す点線で表されている特定被写体を検出したときに、表示されるAFエリア11及びトリミング枠12の様子を示すものであり、図4(b)は、図3(c)に示す実線で表されている特定被写体を検出したときに表示されるAFエリア11及びトリミング枠12の様子を示すものである。このように、特定被写体にAFエリア11及びトリミング枠12が特定被写体に追従して表示されることになる。
次いで、CPU10は、シャッタボタンが全押しされたか否かを判断する(ステップS9)。この判断は、シャッタボタン全押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS9で、シャッタボタンが全押しされていないと判断するとステップS8に戻る。
一方、ステップS9で、シャッタボタンが全押しされたと判断すると、被写体の位置検出処理を終了し、シャッタ全押し直前に検出された被写体の位置(位置情報記憶領域に記憶されている位置)に基づくAFエリアの画像データに基づいてコントラスト検出方式によるAF処理を行う(ステップS10)。このコントラスト検出方式によるAF処理は周知技術なので説明を省略する。
AF処理が終了すると、CPU10は、静止画撮影処理を行い(ステップS11)、シャッタ全押し直前に検出された被写体の位置(位置情報記領域に記憶されている位置)及び予め定められたトリミングサイズに基づいて、撮影処理により得られた静止画データからトリミング画像データが生成される(ステップS12)。つまり、得られた静止画データのうち、シャッタ全押し直前に表示されたトリミング枠12の範囲の画像データがトリミングされることになる。
次いで、CPU10は、該生成したトリミング画像データを圧縮してフラッシュメモリ14に記録する(ステップS13)。
このように、第1の実施の形態においては、シャッタボタンが半押しされると、所定の動作が行なわれた被写体を自動的に特定し、該特定した被写体の位置に応じてAFエリア11、トリミング枠12を表示させる。この場合は、該特定した被写体が移動した場合であっても、AFエリア11、トリミング枠12は該被写体に追従して表示されることになる。
C.次に、動き検出処理の動作を図5のフローチャートにしたがって説明する。
ここでは、被写体の動きの検出処理の例として、2通りの方法を示す。
まず1つ目は、各被写体の全体的な位置の遷移軌跡を検出することにより被写体の動きを検出する方法であり、2つ目は、各被写体において変化のある部分の位置の遷移軌跡を検出することにより被写体の動きを検出す方法法である。
C−1.まず、各被写体の全体的な位置の遷移軌跡を検出することにより被写体の動きを検出するという1つ目の方法を図5(a)のフローチャートにしたがって説明する。
動き検出処理を開始すると、CPU10は、CCD5により直近に撮像された1枚のフレーム画像データをバッファメモリから取得する(ステップS21)。なお、このときは、スルー画像表示が行われているで、CCD5により所定のフレームレートによってフレーム画像データが順次撮像され、該撮像されたフレーム画像データは順次バッファメモリに記憶されている。
次いで、CPU10は、該取得したフレーム画像データに基づいて撮像された各被写体を検出する(ステップS22)。この被写体の検出方法としては、フレーム画像データに基づいて、例えば、画像の高周波成分を抽出して二値化画像を生成し、この画像エッジを検出することにより各被写体を検出する。
例えば、図3(a)に示すような画像のフレーム画像データに基づいて被写体を検出する場合には、人、木、太陽を検出することになる。この場合、人や木などといった固体識別をする必要はなく、それぞれ別個の被写体であると認識できる程度でよい。
次いで、CPU10は、該検出した各被写体の位置をバッファメモリに記憶させる(ステップS23)。
次いで、CPU10は、該記憶させた被写体の位置に基づく位置の遷移軌跡のうち何れか1つの遷移軌跡が所定の遷移軌跡と一致するか否かを判断する(ステップS24)。この所定の遷移軌跡は予めメモリ12に複数記録されており、この複数記録されている所定の遷移軌跡の何れか1つと、記憶された被写体の位置に基づく位置の遷移軌跡の何れか1つとが一致すれば、該記憶した被写体の位置の遷移軌跡が所定の遷移軌跡と一致すると判断する。
ステップS24で、一致しないと判断すると、ステップS21に戻り、CPU10は、新たに撮像されたフレーム画像データを取得し上記した動作を繰り返す。つまり、一致すると判断されるまで、CCD5により順次撮像されたフレーム画像データに基づいて被写体の位置を検出していき、該検出された被写体の位置が順次記憶されていることになり、刻々と変化する被写体の位置を記憶させていく。例えば、図3(a)に示すような画像を撮像している場合には、順次撮像されたフレーム画像データに基づいて、人、木、太陽のそれぞれの位置を記憶させていく。そして、人の位置の遷移軌跡と、木の位置の遷移軌跡と、太陽の位置の遷移軌跡のうち、何れか1つでも所定の遷移軌跡と一致すれば、一致すると判断する。
一方、ステップS24で、一致すると判断すると、動き検出処理を終了し、図2のステップS5に進む。
つまり、図2ステップS4の所定の動作が検出されたか否かの判断と、図5(a)のステップS24の一致の判断は同じということになり、ステップS24で一致すると判断すると、所定の動作が検出されたと判断することになる。
ここで、図6は、メモリ12に記録されている所定の遷移軌跡の例を示すものである。
この図に示す所定の遷移軌跡は、人の動きによる人の位置の遷移軌跡を表わしており、特に、その人本人が動く意識は無くても、自然に動いてしまう微妙な動きによる被写体の位置の遷移軌跡を示すものである。
図6(a)は、時間とともに被写体が左右方向に移動する移動量を示し、図6(b)は、時間とともに被写体が上下方向に移動する移動量を示している。
つまり、この図の遷移軌跡を見ると、本人は動く意思は無くても、左右方向に揺ら揺らとゆれてしまう動作の遷移軌跡であることがわかる。
これにより、背景をバックにして人を撮影する場合には、背景ではなく人を自動的に特定することが可能となる。
そして、順次検出されていった被写体の位置の遷移軌跡のうち、いずれか1つが図6に示すような遷移軌跡と一致したと判断すると、図2のステップS5に進む。
C−2.次に、各被写体において変化のある部分の位置の遷移軌跡を検出することにより被写体の動作を検出するという2つ目の方法を図5(b)のフローチャートにしたがって説明する。
動き検出処理を開始すると、CPU10は、CCD5により直近に撮像された1枚のフレーム画像データをバッファメモリから取得する(ステップS31)。
次いで、CPU10は、該取得したフレーム画像データに基づいて、被写体の形状を検出する(ステップS32)。この被写体の形状の検出方法としては、フレーム画像データに基づいて、例えば、画像の高周波成分を抽出して二値化画像を生成し、この画像のエッジを検出することにより各被写体の形状を検出する。
次いで、CPU10は、被写体毎に動きのある部分の形状を検出し、該検出した形状の位置をバッファメモリに記憶させる(ステップS33)。動きのある部分の形状の検出は、前回のフレーム画像データに基づく被写体の形状と、今回のフレーム画像データに基づく被写体の形状とを比較し、変化のある部分の形状を検出する。例えば、図7に示すような被写体を撮像している場合において、人が左手のみを動かしている場合には、左手の形状を検出し、該検出された左手の形状の位置が記憶される。木や太陽、左手以外の人の構成要素は形状が変化しないので、これらの形状の位置は記憶されないことになる。つまり、1つ目の動き検出処理の方法は、それぞれの被写体全体の位置を記憶させていくのに対し、2つ目の動き検出処理の方法は、被写体全体の位置ではなく、被写体の一部、つまり、動きのある部分の位置を記憶させていくということになる。
次いで、CPU10は、該検出した形状の位置に基づく位置の遷移軌跡が所定の遷移軌跡と一致するか否かを判断する(ステップS24)。この所定の遷移軌跡は、予めメモリ12に複数記録されており、この複数記録されている所定の遷移軌跡の何れかと一致すれば、該検出した形状の遷移軌跡が所定の遷移軌跡と一致すると判断する。
ステップS34で、一致しないと判断すると、ステップS31に戻り、CPU10は、新たに撮像されたフレーム画像データを取得し上記した動作を繰り返す。
つまり、一致すると判断されるまで、CCD5により順次撮像されたフレーム画像データに基づいて変化のある部分の形状の位置を検出していき、該検出された被写体の位置が順次記憶されることになり、刻々と変化する形状の位置を記憶させていく。
一方、ステップS34で、一致すると判断すると、動き検出処理を終了し、図2のステップS5に進む。
つまり、図2のステップS4の所定の動作が検出されたか否かの判断と、図5(b)のステップS34の一致の判断は同じということになり、ステップS34で一致すると判断すると、所定の動作が検出されたと判断する。
ここで、図7は、一例としてステップS34で、所定の遷移軌跡と判断される動作を示す図である。
図のように、人が左手によって円弧を描くことによって、左手の位置の遷移軌跡が記憶されていき、その遷移軌跡が円になった場合には、所定の遷移軌跡と一致したと判断され、図2のステップS5へ進む。
D.次に、特定した被写体の位置検出処理の動作を図8のフローチャートにしたがって説明する。
ここでは、特定した被写体の位置検出処理の例として、2通りの方法を示す。
1つ目の方法は動きベクトルを検出することにより該特定した被写体の位置を検出する方法であり、2つ目の方法は、例えば、画像認識で固体識別することにより該特定した被写体の位置を検出する方法である。
D−1.まず、動きベクトルを検出することにより該特定した被写体の位置を検出する方法を図8(a)のフローチャートにしたがって説明する。
被写体の位置検出処理を開始すると、CPU10は、CCD5により直近に撮像された1枚のフレーム画像データをバッファメモリから取得する(ステップS51)。なお、このときは、スルー画像表示が行われているで、CCD5により所定のフレームレートによってフレーム画像データが順次撮像され、該撮像されたフレーム画像データは順次バッファメモリに記憶されている。
次いで、CPU10は、該取得したフレーム画像データに基づいて該特定した被写体の動きベクトルを検出する(ステップS52)。
この動きベクトルの検出の方法としては、ブロックマッチング法などを用いて1つ前のフレームと今回のフレームとに基づいて動きベクトルを検出する。
このとき、1つ前のフレームと今回のフレームに基づいて動きベクトルを検出する場合は、1つ前のフレーム画像データのうち、該特定した被写体がいる領域の画像データと、今回のフレーム画像データとを用いて、該被写体がいる領域の画像データの動きベクトルを検出することにより、被写体の動きベクトルを検出する。
次いで、CPU10は、前回検出した被写体の位置、及び、該検出した動きベクトルに基づいて、現在の被写体の位置を検出する。
次いで、CPU10は、位置検出処理を終了するか否かを判断する(ステップS54)。この判断は、シャッタボタンが全押しされたか否かにより判断する。
ステップS54で、位置検出処理を終了しないと判断すると、ステップS51に戻り、新たに撮像されたフレーム画像データを取得し、特定した被写体の位置を検出するという上記の動作を繰り返す。
ここで、被写体の動きベクトルの検出についてもう少し詳しく説明する。
図9は、順次撮像された特定被写体の位置の様子を示すものであり、特定された被写体が、一番左に位置するときに撮像されたフレーム画像データを1枚目とし、中央に位置するときに撮像されたフレーム画像データを2枚目とし、一番左に位置するときに撮像されたフレーム画像データを3枚目とする。
そして、図9の領域31は、図2のステップS5で特定された被写体に基づいて定められた領域であるとする。この領域31の大きさは、該特定した被写体の大きさに基づいて定められる。
被写体の動きベクトルの検出方法は、この定められた領域の動きベクトルを検出することにより、被写体の動きベクトルを検出する。
具体的に説明すると、1枚目に撮像されたフレーム画像データのうち領域31の画像データと、2枚目に撮像されたフレーム画像データとを用いて、該領域31の動きベクトルを検出する(ステップS52)。
そして、該検出された動きベクトルと前回の領域31の位置に基づいて、新たに領域32の位置を定める。この定められた領域32の位置が2枚目のフレーム画像データの撮像時の特定被写体の位置となる(ステップS53)。
そして、2枚目に撮像されたフレーム画像のうち領域32の画像データと、3枚目に撮像されたフレーム画像データとを用いて、領域32の動きベクトルを検出する(ステップS52)。
そして、該検出された動きベクトルと前回の領域32の位置に基づいて新たに領域33の位置を定める(ステップS53)という方法により、特定した被写体の動きベクトルを検出する。
つまり、特定した被写体に基づいて領域を定め、該領域の動きベクトルを検出することにより、該定めた領域がどこに移動したかを検出することにより、被写体の位置を検出する。
D−2.次に、画像認識で固体識別することにより該特定した被写体の位置を検出する方法を図8(b)のフローチャートにしたがって説明する。
被写体の位置検出処理を開始すると、CPU10は、図2のステップS5で特定した被写体を画像認識により固体識別する(ステップS61)。つまり、画像認識より特定した被写体を具体的に識別する。この画像認識は周知技術なので詳しくは説明しないが、例えば、予め記憶されている固有のパターンと順次比較していくといったパターンマッチング技術などにより特定した被写体の種類(人、車、猫、犬など)を決定し、該決定した被写体が人の場合は、肌の色、髪の毛の色、目の形、鼻の形、口の形及びその位置等の認識、それらの位置関係等も認識してそれらを数値化して数値データ(特定被写体特徴データ)を算出してバッファメモリに記憶させることにより、特定した被写体を固体識別する。なお、パターンマッチング技術により特定した被写体の種類を決定することなく、特定した被写体の特徴データを直接算出するようにしてもよい。
次いで、CPU10は、CCD5により直近に撮像された1枚のフレーム画像データをバッファメモリから取得する(ステップS62)。なお、このときは、スルー画像表示が行われているで、CCD5により所定のフレームレートによってフレーム画像データが順次撮像され、該撮像されたフレーム画像データは順次バッファメモリに記憶されている。
次いで、CPU10は、該取得したフレーム画像データに基づいて、該固体識別した被写体がどの位置にあるのかを検出する(ステップS63)。つまり、取得したフレーム画像データを画像認識することにより、該固体識別したメイン被写体がどの位置にあるか検出することになる。即ち、該記憶した特定被写体特徴データと比較照合することにより、新たに取得したフレーム画像データのどの位置にメイン被写体がいるかを検出することになる。
具体的に説明すると、メイン被写体(特定被写体)の種類が人であると決定された場合は、画像認識により取得したフレーム画像データの中で人がどこにあるのかを認識し、該認識した人の特徴データを算出し、該算出した特徴データと記憶している特定被写体特徴データを比較照合することにより同一人物であるかを判断する。また、被写体は動いているので同一被写体であっても、該算出した特徴データと特定被写体特徴データとが完全に一致するとは限らないが、ある程度の許容範囲を設けその範囲であるならば同一人物であると判断する。
なお、図4のように、特定した被写体である人である場合であって、該特定した人以外の人が他にいない場合は、画像認識により人を認識したら、特定被写体特徴データと比較照合することなくそれを特定被写体であると判断するようにしてもよい。
次いで、CPU10は、位置検出処理を終了するか否かを判断する(ステップS64)。この判断は、シャッタボタンが全押しされたか否かにより判断する。
ステップS54で、位置検出処理を終了しないと判断すると、ステップS51に戻り、新たに撮像されたフレーム画像データを取得し、特定した被写体の位置を検出するという上記の動作を繰り返す。
E.以上のように、第1の実施の形態においては、シャッタボタンが半押しされると、被写体の動きを検出していき、該検出された動きが所定の動作であると判断すると、該所定の動作と判断された被写体を自動的に特定するので、該被写体にピントを合わせたり、該被写体をトリミングすることができる。
また、該特定した被写体が移動した場合は、AFエリア11やトリミング枠12を該被写体に追従させるので、一旦被写体が特定されると被写体が動いた場合であっても、該被写体にピントを合わせたり、該被写体をトリミングすることができる。
[第2の実施の形態]
次に、第2の実施の形態について説明する。
F.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
まず、第2の実施の形態におけるデジタルカメラ1の動作を説明する前に本発明の特徴部分を簡単に説明する。
第2の実施の形態は、本発明を動画撮影モードに適用した場合であり、スルー画像表示中に被写体を特定すると、第1の実施の形態と同様に、該特定した被写体に追従させてトリミング枠12を表示させ、録画開始ボタンが押下されると、スルー画像表示の動作と同様に、撮像されたフレーム画像データ及びトリミング枠12を表示させていくとともに、撮像されたフレーム画像データのうちトリミング枠12内の画像データをトリミングして記録するというというものである。
以下、第2の実施の形態のデジタルカメラ1の動作を図10のフローチャートにしたがって説明する。
ユーザのモードキーの操作により動画撮影モードに設定されると、CPU10は、所定のフレームレートでCCD5による撮像を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号の画像データを画像表示部15に表示されるという、いわゆるスルー画像表示を開始させる(ステップS101)。
次いで、CPU10は、被写体特定ボタンが押下されたか否かを判断する(ステップS102)。この判断は、キー入力部11から被写体特定ボタンの押下に対応する操作信号が送られて来たか否かにより判断する。
ステップS102で、被写体特定ボタンが押下されていないと判断するとステップS2に留まり、被写体特定ボタンが押下されたと判断すると、動き検出処理を開始する(ステップS103)。この動き検出処理は、第1の実施の形態で説明したように、図5の動作を行なうことにより動きを検出する。
ここでも、図3(a)に示すような画像が表示されている時に被写体特定ボタンが押下されたものとする。図3(a)に示すように撮像された被写体は人と、木と、太陽となる。
動き検出処理を開始すると、CPU10は、所定の動作が検出されたか否かを判断する(ステップS104)。この判断は、検出されていった被写体の動きが所定の動作であるか否かによって判断する。
ステップS104で、所定の動作が検出されていないと判断すると、所定の動作が検出されるまでステップS104に留まり、所定の動作が検出されたと判断すると、動き検出処理を終了し、該所定の動作を行なった被写体を特定する(ステップS105)。このとき、該特定した被写体の位置をバッファメモリの位置情報記憶領域に記憶させる。
次いで、CPU10は、該特定した被写体の位置(記憶させた位置)に基づいてトリミング枠を表示させる(ステップS106)。つまり、トリミング枠の位置(トリミング位置)を該記憶させた位置に合わせて表示させる。このトリミング枠の大きさは、予め定められたトリミングサイズに基づいて表示される。
ここでは、図3(b)に示すように、人が特定の動作を行なったものと判断し、該人の位置に基づいてトリミング枠12が表示されているのがわかる。なお、第2の実施の形態においてはAFエリア11は無いものとして説明する。
次いで、CPU10は、該特定した被写体の位置検出処理を開始する(ステップS107)。この被写体の位置検出処理は、第1の実施の形態で説明したように、図8の動作を行なうことにより動きを検出する。この位置検出処理は、ステップS112で録画を終了すると判断されるまで行なわれる。
図3(c)は、被写***置検出処理により検出されていく被写体の位置の様子を示すものである。特に、図3(c)は、被写体を特定した後に、該特定した被写体が右方向に移動した場合に、検出されていく被写体の位置の様子を示すものである。点線で表されている被写体は、過去に検出された被写体の位置を示すものであり、実線で表されている被写体は、現在検出された被写体の位置を示すものである。
なお、CPU10は、被写体の位置を検出すると、該検出された位置を、バッファメモリの位置情報記憶領域に記憶させ、既に位置が記憶されている場合は上書きして記憶させる。これにより、最新の被写体の位置が記憶されることになる。
そして、該特定した被写体の位置検出処理を開始すると、CPU10は、検出された位置(位置情報記憶領域に記憶されている位置)に基づいてリミング枠12を表示させる処理を開始する(ステップS108)。このトリミング枠の表示処理は、ステップS112で録画を終了すると判断されるまで行なわれる。
図4は、表示されるトリミング枠12の様子を示す図である。
図4(a)は、図3(c)に示す点線で表されている被写体を検出したときに、表示されるトリミング枠12の様子を示すものであり、図4(b)は、図3(c)に示す実線で表されている被写体を検出したときに表示されるトリミング枠12の様子を示すものである。このように、特定した被写体にトリミング枠12が追従して表示されることになる。
次いで、CPU10は、録画を開始するか否かを判断する(ステップS109)。この判断は、録画ボタンの押下に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS109で、録画を開始しないと判断すると録画を開始すると判断するまでステップS109に留まり、録画を開始すると判断すると、CPU10は、該順次検出された被写***置及び予め定められたトリミングサイズに基づいて、CCD5により順次撮像されたフレーム画像データからトリミング画像データを生成する処理を開始する(ステップS110)。つまり、新たに撮像されたフレーム画像データに基づいて検出された被写体の位置に基づいて、該フレーム画像データからトリミング画像データが生成される。
例えば、図9の場合において、1枚目のフレーム画像データから生成されるトリミング画像データは、領域31の位置に基づいて生成され、2枚目のフレーム画像データから生成されるトリミング画像データは、領域32の位置に基づいて生成され、3枚目のフレーム画像データから生成されるトリミング画像データは、領域33の位置に基づいて生成される。
次いで、CPU10は、該生成されたトリミング画像データを圧縮してフラッシュメモリ14に記録する処理を開始する(ステップS111)。
次いで、CPU10は、録画を終了するか否かの判断を行う(ステップS112)。この判断は、録画ボタンの押下に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。つまり、録画ボタンの押下により録画開始が始まり、再び録画ボタンが押下されると録画が終了する。
ステップS112で、録画を終了しないと判断する録画を終了するまでステップS112に留まる。
なお、録画中においても、該検出された被写***置に基づいてトリミング枠が表示されており、これによりどの部分の画像がトリミングされて記録されているのかを認識することができる。
G.以上のように、第2の実施の形態においては、被写体特定ボタンが押下されると、被写体の動きを検出していき、該検出された動きが所定の動作であると判断すると、該所定の動作と判断された被写体を自動的に特定するので、トリミング等をしたい被写体を自動的に特定することができる。
また、該特定した被写体が移動した場合は、トリミング枠12を該被写体に追従させるので、一旦被写体が特定されると被写体が動いた場合であっても、該被写体をトリミングすることができる。
また、録画が開始されると、CCD5により順次撮像されたフレーム画像データから現在の特定被写体の位置及びトリミングサイズに基づいてトリミング画像データを生成して(トリミング枠12内の画像データをトリミングして)記録するので、ブレを補正することができたり、該特定被写体をズームした動画データを得ることができる。
[変形例1]
H.なお、上記各実施の形態は、以下のような変形例も可能である。
(1)上記各実施の形態においては、所定の動作として、被写体の位置の遷移軌跡が所定の遷移軌跡と同一となった場合や、変化のある部分の形状の位置の遷移軌跡が所定の遷移軌跡と同一となった場合には、図2のステップS4、図10のステップS104で、所定の動作が検出されたと判断するようにしたが、所定の形状が検出された場合は、所定の動作が検出されたと判断するようにしてもよい。
この場合の動き検出処理の動作、及び、所定の形状の例を図11を用いて説明する。
図11(a)は、変形例(1)における動き検出処理の動作を示すフローチャートである。
動き検出処理を開始すると、CPU10は、CCD5により直近に撮像された1枚のフレーム画像データをバッファメモリから取得する(ステップS151)。
次いで、CPU10は、該取得したフレーム画像データに基づいて、被写体の形状を検出する(ステップS152)。この被写体の形状の検出方法としては、フレーム画像データに基づいて、画像のエッジを検出することにより各被写体の形状を検出する。
次いで、CPU10は、所定の形状が検出されたか否かを判断する(ステップS153)。この判断は、該検出された形状の中に所定の形状があるか否かにより判断する。この所定の形状は、予めメモリ12に複数記録されている。なお、所定の形状を複数記録させておき、ステップS152で検出された形状の中に、記録されている複数の形状のうち何れか1つでもあれば所定の形状が検出されたと判断するようにしてもよい。
ステップS153で、所定の形状が検出されていないと判断するとステップS151に戻り、新たに撮像されたフレーム画像データを取得して上記した動作を繰り返す。
一方、ステップS153で、所定の形状が検出されたと判断すると、動き検出処理を終了し、図2のステップS5に進む。
つまり、図2のステップS4の所定の動作が検出されたか否かの判断と、図5(b)のステップS34の一致の判断は同じということになり、ステップS34で一致すると判断すると、所定の動作が検出されたと判断する。
ここで、図11(b)は、一例としてステップS153で、所定の形状と判断される動作を示す図である。
図11(b)に示すように、ステップS152で検出された形状のうち、ピースの形状、つまり、Vの字の形状(点線枠内の形状)があると判断すると所定の形状が検出されたと判断する。
(2)また、上記各実施の形態においては、動き検出処理の方法として、被写体の位置を検出する方法と、変化のある部分の形状の位置を検出する方法とで説明したが、他の方法によって被写体の動きを検出するようにしてもよい。
この動き検出する方法は、要は所定の動作を検出するためのものであるので、検出したい所定の動作に応じて動き検出処理の方法は異なってくる。
例えば、変形例(1)でも説明したように、Vサインを検出したい場合には、被写体の形状のみを検出すればよいということになるし、一定量以上の激しい動きを検出したい場合は、それぞれの画素やブロックの動きベクトルを検出するようにしてもよい。
(3)また、上記各実施の形態においては、ステップS3では、被写体の動きの検出に換え、被写体の色を検出するようにし、ステップS4で、所定の色(例えば、肌色)が検出されたか否かを判断するようにしてもよい。これにより、人を確実に特定することが可能となる。なお、ステップS4で肌色の被写体が複数検出された場合は、ステップS5で一番肌色成分が多い被写体を特定するようにしてもよい。
また、ステップS4で、被写体の動きを検出するようにしたが、被写体の動きとともに被写体の色も検出するようにしてもよい。
この場合のステップS4の判断は、所定の動きとともに、該所定の動きを検出した被写体の色が所定の色と同一の場合のみ、ステップS5に進み、所定の動き及び所定の色との両方が検出されない場合は、ステップS4に留まる。
(4)また、第1の実施の形態においては、シャッタ半押しで、被写体の動きを検出していき、所定の動作を行なった被写体を特定するようにしたが、シャッタ半押しではなく、所定のキー操作が行なわれた場合に行なうようにしてもよい。
(5)また、第1の実施の形態においては、ステップS5で、特定された被写体の位置を順次検出し、該検出した被写体の位置に基づいてAFエリア11やトリミング枠12を表示させるようにしたが、ステップS5で被写体を特定し、ステップS6で該特定した被写体の位置に基づいてAFエリア11、トリミング枠12を表示させると、そのままステップS9に進むようにしてもよい。つまり、ステップS7とステップS8の動作を飛ばすようにしてもよい。
また、この場合は、ステップS6で、特定した被写体の位置に基づいてAFエリア11、トリミング枠12を表示させると、該AFエリア内の画像データに基づいてオートフォーカス処理を行ってから(該特定した被写体に対してピントを合わせてからを行ってから)ステップS9に進むようにしてもよい。
(6)また、上記第1の実施の形態においては、該特定した被写体の位置や位置検出処理により検出された特定被写体の位置に基づいて、AFエリア又はトリミング枠12を表示させるようにしたが、どちらか一方、又は両方を表示させないようにしてもよい。
AFエリア11を表示させない場合は、該特定した被写体の位置や位置検出処理により検出された特定被写体の位置にかかわらず、所定のAFエリアに基づいてオートフォーカスを行なうようにしてもよい。
また、トリミング枠12を表示させない場合は、静止画撮影処理により得られた静止画データからトリミング画像データの生成を行なわずに、該静止画データを記録させるようにしてもよい。
また、AFエリア11及びトリミング12の両方を表示させない場合には、AFエリア11やトリミング12の替わりに注目ポイントを表示させるようにしてもよい。この注目ポイントは、点や、×印やその他の文字、記号等でもよく、要は特定被写体が現在位置する場所を示すことができるものであればよい。
(7)また、第1の実施の形態においては、ステップS6で、特定した被写体の位置に基づいて、AFエリア11及びトリミング枠12を表示させると、ステップS10〜ステップS13の動作を行なってから、ステップS7に進むようにしてもよい。つまり、被写体を特定すると該特定した被写体に対してオートフォーカス処理を行ってから静止画撮影処理を行い、撮影処理により得られた静止画データを該特定したときの特定被写体の位置に基づいてトリミング画像データを生成して記録してから、ステップS7に進み、特定被写体の位置検出処理を開始するようにしてもよい。
(8)また、第1の実施の形態においては、静止画データからトリミング画像データを記録するようにしたが、トリミング画像データとともに該静止画データも記録するようにしてもよい。
(9)また、第2の実施の形態においては、録画中においても、CCD5により撮像された全画角のフレーム画像データを表示させるとともに、検出された特定被写体の位置に基づいてトリミング枠12を表示させるようにしたが、CCD5により順次撮像されたフレーム画像データに基づいて順次生成されたトリミング画像データを表示させるようにしてもよい。
録画が開始されると、検出された特定被写体の位置に基づいてトリミング画像データを生成する処理を開始するので(図10のステップS110)、順次生成されるトリミング画像データを全面表示させるようにしてもよい。これによりズームされた動画データを表示できるとともにブレ補正がされた動画データを表示することができる。
また、録画中に限らず、録画開始がされる前のスルー画像表示においても、被写体が特定された後は、検出された特定被写体の位置情報に基づいてトリミング画像データを生成し、該生成したトリミング画像データを表示させるようにしてもよい。この場合は、動画撮影モードのスルー画像表示に限らず、静止画撮影モードのスルー画像表示、つまり、第1の実施の形態のスルー画像表示に適用してもよい。
(10)また、上記変形例(1)〜(9)を任意に組み合わせるような態様であってもよい。
(11)また、上記実施の形態におけるデジタルカメラ1は、上記の実施の形態に限定されるものではなく、カメラ付き携帯電話、カメラ付きPDA、カメラ付きパソコン、デジタルビデオカメラ等でもよく、被写体を撮像する機能を備えた機器であれば何でもよい。
本発明の実施の形態のデジタルカメラのブロック図である。 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 特定される被写体を説明するための図、及び、検出された被写***置を説明する図である。 追従して表示されるAFエリア11及びトリミング枠12の様子を示す図である。 動き検出処理の動作を示すフローチャートである。 メモリ12に記録されている所定の遷移軌跡の様子を示す図である。 メモリ12に記録されている所定の遷移軌跡に基づく動作である。 位置検出処理の動作を示すフローチャートである。 順次撮像された特定被写体の位置の様子を示すものである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 変形例における所定の動作と判断される形状の例を示す図である。
符号の説明
1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス

Claims (8)

  1. 撮像素子と、
    表示手段と、
    検出すべき被写体の位置の遷移軌跡を予め記録する遷移軌跡記録手段と、
    前記撮像素子により被写体全体を順次撮像させる撮像制御手段と、
    前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、被写体全体の位置を検出する第1の位置検出手段と、
    前記第1の位置検出手段により検出された被写体全体の位置を記憶していく位置記録手段と、
    前記位置記録手段により複数記録された被写体全体の位置の遷移軌跡と前記遷移軌跡記録手段に記録された写体の位置の遷移軌跡とが類似するか否かを判断する判断手段と、
    前記判断手段により類似すると判断されると、前記撮像素子により撮像されている被写体全体を定する特定手段と、
    前記特定手段により特定された写体全体とともに合焦枠を前記表示手段に表示させる第1の表示制御手段と、
    前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、前記第1の表示制御手段により合焦枠が重畳表示された写体全体位置を検出する第位置検出手段と、
    前記第位置検出手段により写体全体位置が検出されると、当該写体全体位置に合わせるように前記合焦枠を前記表示手段に表示させる第2の表示制御手段と、
    前記第2の表示制御手段により前記合焦枠が表示された写体全体に合焦して記録する記録手段と
    を備えたことを特徴とする撮像装置。
  2. 前記特定手段により特定された写体全体を中心としてトリミング枠を前記表示手段に設定する設定手段をさらに備え、
    前記第1の表示制御手段は、前記特定された写体全体に合焦枠を重畳表示させるとともに、前記トリミング枠を前記写体全体を中心に表示させ、
    前記記録手段は、前記合焦手段により合焦された写体全体を中心としたトリミング枠内の画像を記録することを特徴とする請求項1記載の撮像装置。
  3. 前記第1の位置検出手段は、前記撮像素子により撮像されたフレーム画像データから数の被写体全体の位置を夫々検出し、
    前記位置記録手段は、前記第1の位置検出手段により検出された複数の被写体全体の位置を夫々記録していき、
    前記判断手段は、前記位置記録手段により夫々記録された写体全体の位置に基づく遷移軌跡と前記遷移軌跡記録手段に記録された体の遷移軌跡とが類似するか否かを判断し、
    前記特定手段は、前記判断手段により類似すると判断された被写体全体を定することを特徴とする請求項1又は2に記載の撮像装置。
  4. 前記撮像制御手段により順次取得された複数の被写体全体から、各被写体全体の一部の形状を個別に検出する形状検出手段をさらに備え、
    前記位置記録手段は、前記形状検出手段により検出された各被写体全体の一部の画角に対する位置記録していくことを特徴とする請求項3に記載の撮像装置。
  5. 記撮像制御手段により順次撮像されたフレーム画像データにおける被写体全体の動きベクトルを検出する動きベクトル検出手段をさらに備え、
    前記位置記録手段は、前記動きベクトル検出手段により検出された動きベクトルに基づいて、前記被写体全体の位置を記録していくことを特徴とする請求項1乃至3の何れかに記載の撮像装置。
  6. 前記撮像制御手段により順次撮像された被写体全体の種類を識別する識別手段をさらに備え、
    前記位置記録手段は、前記識別手段により種類が識別された被写体全体の位置を記録していくことを特徴とする請求項1乃至3の何れかに記載の撮像装置。
  7. 前記撮像制御手段は、前記撮像素子により順次撮像される被写体全体の画像を動画として撮像し、
    前記撮像制御手段により撮像された被写体全体の位置を中心として前記トリミング枠内の画像を順次生成していく生成手段をさらに備えたことを特徴とする請求項2記載の撮像装置。
  8. 撮像素子と、表示手段と、検出すべき被写体の位置の遷移軌跡を予め記録する記録手段とを備えた撮像装置のコンピュータを、
    前記撮像素子により被写体全体を順次撮像させる撮像制御手段、
    前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、被写体全体の位置検出する第1の位置検出手段、
    前記第1の位置検出手段により検出された被写体全体の位置を記憶していく位置記録手段と、
    前記位置記録手段により記録された被写体全体の位置に基づく遷移軌跡と前記記録手段に記録された写体の位置の遷移軌跡とが類似するか否かを判断する判断手段、
    前記判断手段により類似すると判断されると、前記撮像素子により撮像されている被写体全体を定する特定手段、
    前記特定手段により特定された写体全体とともに合焦枠を前記表示手段に表示させる第1の表示制御手段、
    前記撮像制御手段により順次撮像されたフレーム画像データに基づいて、前記第1の表示制御手段により合焦枠が重畳表示された写体全体位置出する第2の位置検出手段、
    前記位置検出手段により写体全体位置が検出されると、前記合焦枠を当該被写体全体の位置に合わせるように前記表示手段に表示させる第2の表示制御手段、
    前記第2の表示制御手段により前記合焦枠が表示された写体全体に合焦して記録する記録手段
    として機能させることを特徴とするプログラム。
JP2006199754A 2006-07-21 2006-07-21 撮像装置及びそのプログラム Expired - Fee Related JP4853707B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006199754A JP4853707B2 (ja) 2006-07-21 2006-07-21 撮像装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006199754A JP4853707B2 (ja) 2006-07-21 2006-07-21 撮像装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2008028747A JP2008028747A (ja) 2008-02-07
JP4853707B2 true JP4853707B2 (ja) 2012-01-11

Family

ID=39118938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006199754A Expired - Fee Related JP4853707B2 (ja) 2006-07-21 2006-07-21 撮像装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP4853707B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290860A (ja) 2008-04-28 2009-12-10 Panasonic Corp 撮像装置
JP5127592B2 (ja) * 2008-06-25 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体
JP5164775B2 (ja) * 2008-10-01 2013-03-21 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP5683291B2 (ja) * 2010-05-07 2015-03-11 キヤノン株式会社 動画再生装置、方法及びプログラム並びに記録媒体
JP5625995B2 (ja) 2010-05-10 2014-11-19 カシオ計算機株式会社 被写体追跡装置、被写体追跡方法及びプログラム
JP5932363B2 (ja) 2012-01-26 2016-06-08 キヤノン株式会社 撮像装置およびその制御方法
JP2016032193A (ja) * 2014-07-29 2016-03-07 株式会社ニコン 撮像装置
JP7451171B2 (ja) 2019-12-24 2024-03-18 キヤノン株式会社 画像処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3750499B2 (ja) * 2000-07-17 2006-03-01 カシオ計算機株式会社 電子カメラ
JP2002122934A (ja) * 2000-10-12 2002-04-26 Olympus Optical Co Ltd カメラ
JP2005086499A (ja) * 2003-09-09 2005-03-31 Minolta Co Ltd 撮像装置
JP2005347885A (ja) * 2004-05-31 2005-12-15 Casio Comput Co Ltd 撮像装置、撮影範囲調整方法及びプログラム
JP4596246B2 (ja) * 2004-12-28 2010-12-08 富士フイルム株式会社 オートフォーカスシステム
JP4464360B2 (ja) * 2006-03-27 2010-05-19 富士フイルム株式会社 監視装置、監視方法、及びプログラム

Also Published As

Publication number Publication date
JP2008028747A (ja) 2008-02-07

Similar Documents

Publication Publication Date Title
JP4674471B2 (ja) デジタルカメラ
JP4518157B2 (ja) 撮像装置及びそのプログラム
KR100821801B1 (ko) 촬상장치 및 오토포커스 제어방법
JP4761146B2 (ja) 撮像装置及びそのプログラム
US9277112B2 (en) Auto focusing apparatus and auto focusing method, and image sensing apparatus
US7796182B2 (en) Image-taking apparatus and focusing method
JP4853707B2 (ja) 撮像装置及びそのプログラム
JP4914045B2 (ja) 撮像装置及び撮像装置の制御方法
KR101728042B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
KR101433119B1 (ko) 소정의 종횡비의 합성 화상을 생성하는 화상 처리 장치
JP2007215091A (ja) 撮像装置及びそのプログラム
JP2006025238A (ja) 撮像装置
JP5030022B2 (ja) 撮像装置及びそのプログラム
JP2003307669A (ja) カメラ
US20030169363A1 (en) Image pickup apparatus and method, and image-pickup control computer program
JP4957263B2 (ja) 撮像装置、撮像方法及びそのプログラム
JP2007166011A (ja) 撮像装置及びそのプログラム
JP4998122B2 (ja) 撮像装置及びそのプログラム
JP2009010472A (ja) 撮像装置及びそのプログラム
JP5257969B2 (ja) 合焦位置制御装置、及び合焦位置制御方法、合焦位置制御プログラム
JP2006337778A (ja) カメラ、カメラ制御プログラム、及びカメラシステム
JP5126285B2 (ja) 撮像装置及びそのプログラム
JP5182308B2 (ja) 撮像装置及びそのプログラム
EP2091233A2 (en) Imaging apparatus
JP5488558B2 (ja) カメラ、及びカメラ制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4853707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees