JP2004294621A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2004294621A
JP2004294621A JP2003084799A JP2003084799A JP2004294621A JP 2004294621 A JP2004294621 A JP 2004294621A JP 2003084799 A JP2003084799 A JP 2003084799A JP 2003084799 A JP2003084799 A JP 2003084799A JP 2004294621 A JP2004294621 A JP 2004294621A
Authority
JP
Japan
Prior art keywords
evaluation
movement
luminance
value
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003084799A
Other languages
Japanese (ja)
Other versions
JP2004294621A5 (en
Inventor
Shinichi Fujii
真一 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003084799A priority Critical patent/JP2004294621A/en
Publication of JP2004294621A publication Critical patent/JP2004294621A/en
Publication of JP2004294621A5 publication Critical patent/JP2004294621A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of precisely detecting an object moving. <P>SOLUTION: An image is inputted to a movement quantity detection part 40 at intervals of 1/30 second through an A/D converter 22. At the movement quantity detection part 40, a plurality of 1st lateral movement evaluation areas including 22 mutually adjacent longitudinally long divided areas are set for a specified image and a plurality of 2nd lateral movement evaluation areas including 22 mutually adjacent longitudinally long divided areas are set for images succeeding to the specified image with time. A luminance value of each longitudinally long divided area is calculated, and absolute values of differences in luminance value between corresponding longitudinally long divided area of each combination of 1st and 2nd lateral movement evaluation areas are summed up to obtain a lateral movement-luminance evaluation value. The relative position relation of evaluation areas in the combination of 1st and 2nd lateral movement evaluation areas having the minimum evaluation value is detected as a lateral subject movement quantity. A longitudinal object movement quantity is also detected in a similar method. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、デジタルカメラ等の撮像装置に関する。
【0002】
【従来の技術】
従来、デジタルカメラ等の撮像装置におけるオートフォーカス(自動合焦)技術として、画像のある領域に着目し、その領域からコントラスト等の評価値を求めることにより、被写体の合焦度合いを評価するものが知られている。この場合、撮影レンズを段階的に駆動して、評価値が最大になるレンズ位置を検出することにより、被写体像が合焦状態となるレンズ位置を特定してオートフォーカスを行うように構成される。このような技術では、被写体の合焦状態を正確に評価するために、撮影レンズの駆動に伴う変化度合いが比較的大きい評価値を用いることが望まれる。
【0003】
また、オートフォーカスを行う場合、手ぶれや被写体ぶれ等によってオートフォーカスの動作中に被写体が画像平面内で移動する場合がある。このため従来は、時間的に連続する画像平面内を複数の領域に分割して、時間経過に伴う各領域の評価値の変化を検知することにより、被写体の移動を検出することも行われている(例えば、特許文献1)。このようなオートフォーカス用の評価値を用いた移動検出では、画像平面内における被写体の移動を正確に検出するために、被写体の移動を評価するための画像間に、被写体の移動以外の要因による画像変化は少ないことが望まれる。
【0004】
このような技術に関する先行技術文献としては、以下のようなものがある。
【0005】
【特許文献1】
特開2000−188713号公報
【0006】
【発明が解決しようとする課題】
しかし、上述した移動検出では、オートフォーカス用の評価値を用いて画像平面内における被写体の移動を検出するように構成されるため、被写体の移動を評価するための画像間に撮影レンズの駆動が行われることとなり、デフォーカス量の異なる画像で被写体の移動検出を行うことになる。このため、従来の移動検出では、被写体の移動以外の要因としてデフォーカス量の変化による大きな評価値変化が生ずることとなり、被写体の移動を誤検出する可能性が高いという問題がある。
【0007】
そこで、本発明は上記課題に鑑みてなされたものであり、被写体の移動を精度良く検出することが可能な撮像装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記の課題を解決するために、請求項1の発明は、撮像装置であって、時間的に連続する第1と第2の画像とを取得する撮像手段と、前記第1画像に対して第1評価領域を設定するとともに、前記第2の画像に対して第2評価領域を設定する設定手段と、前記第1評価領域についての輝度値と、前記第2評価領域についての輝度値とに基づいて輝度評価値を算出する算出手段と、前記輝度評価値に基づいて被写体の移動量を検出する検出手段とを備えることを特徴とする。
【0009】
また、請求項2の発明は、請求項1に記載の撮像装置であって、前記算出手段が、前記第1評価領域を複数に分割した第1分割領域毎についての輝度値と、前記第2評価領域を複数に分割した第2分割領域毎についての輝度値とに基づいて前記輝度評価値を算出することを特徴とする。
【0010】
また、請求項3の発明は、請求項2に記載の撮像装置であって、前記算出手段が、前記第1評価領域と前記第2評価領域との組合せ毎について、前記第1分割領域毎についての輝度値と、各前記第1分割領域と対応する前記第2分割領域毎についての輝度値との差分の絶対値の総和を前記輝度評価値として算出することを特徴とする撮像装置。
【0011】
また、請求項4の発明は、請求項1から請求項3のいずれかに記載の撮像装置であって、前記移動量に基づいて、前記撮像手段によって取得される画像に対して設定される合焦評価領域を移動させる移動手段をさらに備えることを特徴とする。
【0012】
また、請求項5の発明は、請求項1から請求項4のいずれかに記載の撮像装置であって、前記撮像手段によって取得される画像とともに前記被写体の位置を示す位置表示を表示する表示手段と、前記移動量に基づいて、前記画像に対する前記位置表示の位置を変更する変更手段とをさらに備えることを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0014】
<(1)第1実施形態>
<撮像装置1の機能構成>
図1は本発明の第1実施形態に係る撮像装置(デジタルカメラ)1の内部構成を示すブロック図である。図1に示すように、撮像装置1は、主に、撮影レンズ11、撮影機能部3、AF評価値算出部30、移動量検出部40、レンズ駆動部50、操作部60、及びカメラ制御部70を備えて構成される。
【0015】
撮影レンズ11は、被写体に係る光学像をCCD撮像素子21上に結像させるものである。撮影レンズ11には光軸方向に沿って駆動可能なレンズ系が含まれている。そして、当該レンズ系を光軸方向に駆動することにより、CCD撮像素子21に結像される被写体像の合焦状態を実現することができるように構成されている。
【0016】
CCD撮像素子(以下、「CCD」と略称する)21は、2560×1920画素を有し、撮影レンズ11により結像された被写体の光像を、R(赤),G(緑),B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。ここでは、CCD21に対して被写体の光像を結像させて光電変換による電荷信号を蓄積させる処理(以下、「撮像処理」と称する)が行われ、CCD21から順次電荷信号(画像信号)が読み出されて、出力される。そして、CCD21から出力される画像信号(画像)がA/D変換器22に与えられる。
【0017】
また、CCD21の駆動方式(読み出しモード)には、ドラフトモード、及び本撮影モードの2つのモードがある。
【0018】
ドラフトモードは、画像を取得してメモリカード9などに記憶する撮影(以下、「本撮影」と称する)前に、プレビュー用となるライブビュー表示用の画像を生成するための読み出しモードであり、所謂ライブビュー表示時に適用される。一般的にCCD21からの信号読み出しは水平ライン毎に行われる。このため、ドラフトモードにおいては、水平方向2560画素、垂直方向1920画素を有するCCD21から水平ライン毎の画素信号を読み出す際、8ライン中1ラインを読み出すようにCCD21が駆動される。つまり、ドラフトモード時には、1920の水平ラインが1/8間引きされた状態で読み出されるのである。この結果、ドラフトモード時にCCD21から出力される画像は、2560×240の画素で構成されることになる。
【0019】
また、本撮影モードはフレーム全体、すなわち2560×1920の全画素を読み出し対象として画像信号を読み出すモードである。そしてタイミングジェネレータ27はこれらの読み出しモードのうち指定されるモードについてCCD21の駆動タイミングを制御する。
【0020】
タイミングジェネレータ27は、CCD21の駆動を制御するための各種のタイミングパルスを生成するものであり、カメラ制御部70から送信される基準クロックに基づきCCD21の駆動制御信号を生成する。このタイミングジェネレータ27は、例えば積分開始/終了(露出開始/終了)のタイミング信号、各画素の受光信号の読出制御信号(水平同期信号,垂直同期信号,転送信号等)等のクロック信号を生成し、CCD21に出力する。
【0021】
そして、CCD21から出力される画像信号はA/D変換器22に与えられる。例えば、本撮影前にライブビュー表示を行う状態(以下、「ライブビュー表示状態」と称する)においては、タイミングジェネレータ27からの駆動制御信号に基づいて、CCD21から1/30秒毎にA/D変換器22に対して画像信号(2560×240画素)が入力される。つまり、CCD21が、時間的に連続する画像(フレーム)を1/30秒毎に取得する。
【0022】
A/D変換器22は、CCD21から出力される画像信号(アナログ信号)を例えば1画素あたり10ビットのデジタル信号(デジタルデータ)に変換するものである。本撮影時には、A/D変換器22から出力される画像信号(画像データ)は、画像処理部23のみに送信される。一方、ライブビュー表示状態では、本撮影前に行われるAF動作を実行する状態(以下、「AF実行状態」と称する)において、A/D変換器22から出力される画像データ(画像)は、画像処理部23に送信されるとともに、AF評価値算出部30、及び移動量検出部40にも送信される。
【0023】
画像処理部23は、画像データに対してホワイトバランス(WB)の調整、γ補正、色補間等の画像処理を施す部位である。そして、画像処理部23から出力される画像データは、解像度変換部24へと導かれる。
【0024】
解像度変換部24は、CCD21から得られ、A/D変換器22でデジタルデータ化された画像データに対して所定の解像度変換を行う部位である。例えば、ライブビュー表示状態では、CCD21から入力される画像データに対して、解像度変換部24が所定の解像度変換を施す。その結果、解像度変換部24が、液晶表示部16の表示画素数(320×240個)に適合した画像サイズの画像データを生成する。つまり、ライブビュー表示状態では、CCD21において垂直方向について1/8間引きされた2560×240個の画素を有する画像に対し、解像度変換部24が、水平方向について1/8間引きを行い、320×240個の画素を有するライブビュー画像を生成する。なお、本撮影時には、解像度変換部24は解像度変換処理を行うことなく、画像処理部23から得られる画像データ(2560×1920画素)をそのまま画像圧縮部26に出力する。
【0025】
画像メモリ25は、CCD21で取得され、上記の画像処理が施された画像データを一時的に記憶するメモリである。画像メモリ25は、少なくとも数フレーム分の記憶容量を有している。すなわち、画像メモリ25は、CCD21の画素数に対応する2560×1920個の画素分の画素データを数フレーム分記憶可能な記憶容量を少なくとも有し、各画素データが対応する画素位置に記憶されるようになっている。
【0026】
画像圧縮部26は、本撮影によって得られる画像(2560×1920画素)に対して所定の圧縮方法による画像圧縮処理を施す。そして、画像圧縮の施された画像データ(記録画像)が画像圧縮部26から出力され、メモリカード9に記憶される。
【0027】
液晶表示部16は、一般的な液晶ディスプレイなどで構成され、320×240個の表示画素を有する。ライブビュー表示状態では、解像度変換部24から毎秒30フレーム分入力されるライブビュー画像が、液晶表示部16に順次表示される。また、本撮影時には、撮影直後に撮影された画像に係るアフタービュー画像が、液晶表示部16に表示される。
【0028】
AF評価値算出部30は、AF実行状態において、A/D変換器22から入力される画像信号(画像)を取得して、一般的なコントラスト方式(山登り方式)のAF動作と同様に、撮影レンズ11の合焦状態に関する評価値(以下、「AF評価値」と称する)を算出するものであり、算出されたAF評価値を示すデータをカメラ制御部70に送信する。AF評価値の算出方法については後述する。
【0029】
移動量検出部40は、A/D変換器22から入力される画像信号(画像)を取得して、時間的に連続する画像(フレーム)間における輝度値の変化に基づいて、被写体の移動量(被写体移動量)を検出するものであり、検出された被写体移動量を示すデータをカメラ制御部70に送信する。
【0030】
操作部60は、撮像装置1の各種設定を行う為の各種ボタン、及びシャッタースタートボタン(以下、「シャッターボタン」と略称する)61等を備えて構成され、操作者による各種ボタンやシャッターボタン61の操作に基づいた信号をカメラ制御部70に送信する。
【0031】
シャッターボタン61は、半押し状態(以下、これを「S1状態」と称する)と押し込んだ状態(以下、これを「S2状態」と称する)とが検出可能な2段階スイッチになっている。ライブビュー表示状態でシャッターボタン61をS1状態にすると、AF実行状態に移行し、AF動作のためのレンズ駆動を開始して、AF動作等を含む本撮影前の準備動作(以下、「撮影準備動作」と称する)を行う。
【0032】
このAF動作の初期においては、まず撮影レンズ11を合焦位置へ駆動させるための一般的なコントラスト方式のAF動作(所謂、「ワンショットAF動作」)が行われ、その後、シャッターボタン61がS2状態となるまで、被写体に対する合焦状態を保持し続けるAF動作(所謂、「コンティニュアスAF動作」)が行われる。そして、シャッターボタン61をS2状態にすると、AF動作を停止して撮影レンズ11の位置を固定し、CCD21で取得され画像処理が施された画像データが画像圧縮部26でデータ圧縮され、生成された画像データがメモリカード9に記憶される。
【0033】
カメラ制御部70は、主にCPU、ROM、及びRAM等を備えて構成され、撮像装置1内の各部を統括制御するものであり、CPUが所定のプログラムを実行することにより種々の演算や制御等を実現する。
【0034】
例えば、カメラ制御部70は、AF動作を制御する機能を有し、タイミングジェネレータ27と連繋して、AF動作時に、レンズ駆動部50を制御することで撮影レンズ11のレンズ位置を段階的に駆動させるとともに、各レンズ位置でCCD21によって画像を取得させるように制御する。このとき、カメラ制御部70は、AF評価値算出部30において各レンズ位置で取得される画像に対して設定されるAF評価エリア(後述)についてAF評価値を算出させるように制御する。そして、ここで算出されたAF評価値に基づいて撮影レンズ11の合焦位置を検出して、レンズ駆動部50を介して撮影レンズ11を合焦位置へ駆動させるように制御する。ワンショットAF動作、及びコンティニュアスAF動作を含むAF動作についてはさらに後述する。
【0035】
また、カメラ制御部70は、移動量検出部40から入力される被写体移動量を示すデータに基づいて、AF評価値算出部30において画像に対して設定されるAF評価エリアの位置を変更するように制御する。つまり、操作者によりシャッターボタン61が半押しされてS1状態となった後、シャッターボタン61が全押しされてS2状態となるまで、被写体の移動に合わせてAF評価エリアの位置を変更させつつ、コンティニュアスAF動作が行われる。即ち、ここでは、被写体を追尾しつつ合焦状態を実現し続ける動作(以下、「被写体追尾AF動作」と称する)が行われる。AF評価エリアの位置の変更についてもさらに後述する。
【0036】
レンズ駆動部50は、カメラ制御部70からの指令に応じて撮影レンズ11を光軸に沿って前後に駆動させるための駆動手段であり、CCD21に結像される被写体像の合焦状態を変化させるものである。
【0037】
<AF動作について>
上述したように、ライブビュー表示状態で、操作者がシャッターボタン61を半押しすることでS1状態となった場合は、初めに、ワンショットAF動作を行い、撮影レンズ11を合焦位置へと駆動する。その後、被写体を追尾しつつ合焦状態を実現し続ける被写体追尾AF動作が行われる。
【0038】
以下、ワンショットAF動作、及び被写体追尾AF動作について説明する。
【0039】
<ワンショットAF動作>
図2は、ワンショットAF動作において画像Gに対して設定されるAF評価エリアを例示する図である。なお、図2では、CCD21における画素の位置との対応を分かり易くするために、CCD21において1/8間引きされた方向である垂直方向に画像Gを8倍拡大して示している。また、図2以降では、画像に対する水平方向と垂直方向の関係を明確にするために必要に応じてX、Yの2軸を付している。
【0040】
図2に示すように、ワンショットAF動作において、AF評価値算出部30は、A/D変換器22から1/30秒毎に順次連続して入力される画像Gの中央付近に対して、AF評価値を算出するための対象となるエリア(AF評価エリア)AEを設定する。
【0041】
AF評価値算出部30は、A/D変換器22から入力される2560×240個の画素を有する画像Gのうち、中央部付近の384×28個の画素を有するAF評価エリアAEに相当する画像データを取得する。そして、一般的なコントラスト方式のAF動作において実施されるものと同様に、撮影レンズ11を駆動させつつ、AF評価エリアAE内の画像データを複数取得する。そして、AF評価値算出部30は、取得されたAF評価エリアAE内の画像(画像データ)に基づいて撮影レンズ11の合焦状態に関する評価値(AF評価値)を求める。このAF評価値は、一般的なコントラスト方式のAF動作において求められるものと同様に、AF評価エリアAE内のコントラスト値の総和として求められる。
【0042】
図3は、ワンショットAF動作の動作フローを例示するフローチャートである。このワンショットAF動作の動作フローはカメラ制御部70によって制御される。まず、ライブビュー表示状態において、操作者がシャッターボタン61を半押しすることでS1状態となると、ワンショットAF動作が開始して、ステップS1に進む。
【0043】
ステップS1では、撮影レンズ11を初期位置から微小駆動させて、駆動方向を決定し、ステップS2に進む。ここでは、撮影レンズ11を初期位置から微小駆動させて、AF評価エリアAEについて算出されるAF評価値が増大する撮影レンズ11の駆動方向をステップS2における駆動方向として決定する。
【0044】
ステップS2では、ステップS1において決定した駆動方向について一般的な山登りAF動作を行い、ステップS3に進む。ここでは、ステップS2において決定した駆動方向に所定のピッチで撮影レンズ11を駆動させつつ、画像を取得して、AF評価エリアAE内の画像データに基づいてAF評価値を算出し、AF評価値が減少し始めるまで撮影レンズ11の駆動を続ける。つまり、AF評価値が減少し始めたら、撮影レンズ11の駆動を停止する。
【0045】
ステップS3では、撮影レンズ11の合焦位置を算出して、ステップS4に進む。ここでは、ステップS2で算出されるAF評価値の最大値Ynとその前後のAF評価値Yn−1,Yn+1と、それらのAF評価値Yn−1,Yn,Yn+1に対応する撮影レンズ11のレンズ位置とを用いて、2次補間近似計算(2次曲線近似による計算)によってAF評価値が最大となる撮影レンズ11のレンズ位置を合焦位置として算出する。
【0046】
ステップS4では、ステップS3で算出された合焦位置まで撮影レンズ11を駆動させ、そして、ワンショットAF動作が終了する。
【0047】
なお、本発明では、上記ワンショットAF動作後も常時AF動作を継続するコンティニュアスAF動作が引き続き行われる。
【0048】
<被写体追尾AF動作>
<被写体移動量の検出>
移動量検出部40では、ワンショットAF動作終了後、A/D変換器22から時間的に連続して入力される画像について、輝度値の変化を評価することで、被写体移動量を検出する。
【0049】
図4から図7は、移動量検出部40において時間的に連続して取得される第1と第2の画像G1,G2に対してそれぞれ設定される輝度値の算出エリア(以下、「輝度評価エリア」と称する)SE1,SE2を例示する図である。なお、図4から図7でも、図2と同様に、CCD21における画素の位置との対応を分かり易くするために、CCD21において1/8間引きされた方向である垂直方向に輝度評価エリアSE1,SE2を8倍拡大して示している。
【0050】
ここでは、図4から図7に示すように、輝度評価エリアSE1,SE2はAF評価エリアAEと同じ位置、同じサイズ(384×28画素)に設定される。そして、図4から図7に示すように、移動量検出部40において、輝度評価エリアSE1,SE2は、それぞれ、同等な形状及びサイズを有する24個の縦長の短冊状の形状をしたエリア(以下、「縦長分割エリア」と称する)A1〜A24,B1〜B24(16×28画素)と、同等な形状及びサイズを有する14個の横長の短冊状の形状をしたエリア(以下、「横長分割エリア」と称する)C1〜C14,D1〜D14(384×2画素)とに分割される。
【0051】
なお、縦長分割エリアA1〜A24,B1〜B24は、横方向(X方向)への被写体移動量を検出するためのエリアであり、横長分割エリアC1〜C14,D1〜D14は、縦方向(Y方向)への被写体移動量を検出するためのエリアである。
【0052】
以下、移動量検出部40における被写体移動量の検出について、縦と横方向への被写体移動量の検出に分節して、具体的に説明する。
【0053】
<横方向への被写体移動量検出>
まず、移動量検出部40は、輝度評価エリアSE1内において、互いに隣接し合う22個の縦長分割エリアを含むエリア(以下、「第1横移動評価エリア」とも称する)を複数設定するとともに、輝度評価エリアSE2内において、互いに隣接し合う22個の縦長分割エリアを含むエリア(以下、「第2横移動評価エリア」とも称する)を複数設定する。
【0054】
つまり、移動量検出部40は、時間的に連続して取得される第1の画像G1と第2の画像G2とについて、第1の画像G1に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の縦長分割エリアを共有し合う第1横移動評価エリアを複数個設定し、また、第2の画像G2に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の縦長分割エリアを共有し合う第2横移動評価エリアを複数個設定する。また、ここでは、各画像に対して設定される第1と第2横移動評価エリアは同等な形状及びサイズを有する。
【0055】
具体的には、輝度評価エリアSE1内において、互いに隣接し合う22個の縦長分割エリアA1〜A22を含む第1横移動評価エリア、互いに隣接し合う22個の縦長分割エリアA2〜A23を含む第1横移動評価エリア、互いに隣接し合う22個の縦長分割エリアA3〜A24を含む第1横移動評価エリアを設定する。また、輝度評価エリアSE2内において、互いに隣接し合う22個の縦長分割エリアB1〜B22を含む第2横移動評価エリア、互いに隣接し合う22個の縦長分割エリアB2〜B23を含む第2横移動評価エリア、互いに隣接し合う22個の縦長分割エリアB3〜B24を含む第2横移動評価エリアを設定する。
【0056】
そして、移動量検出部40は、図4及び図5に示す各縦長分割エリアA1〜A24,B1〜B24についての輝度値AY(1)〜AY(24),BY(1)〜BY(24)をそれぞれ算出する。例えば、移動量検出部40は、各輝度値AY(1)〜AY(24),BY(1)〜BY(24)を、各縦長分割エリアA1〜A24,B1〜B24内に含まれる全画素の画素値(輝度値)の総和の形としてそれぞれ算出する。
【0057】
さらに、移動量検出部40は、各第1横移動評価エリアと各第2横移動評価エリアの組合せについて、各第1横移動評価エリアにおける相対的な位置と各第2横移動評価エリアにおける相対的な位置とが等しい縦長分割エリアを対応する縦長分割エリアとし、対応する各縦長分割エリア間の輝度値の差分の絶対値を足し合わせて、横方向への被写体移動量を検出するための輝度に関する評価値(以下、「横移動−輝度評価値」とも称する)PAT1〜PAT5を算出する。
【0058】
つまり、移動量検出部40は、第1横移動評価エリアと第2横移動評価エリアとの組合せ毎について、縦長分割エリア(第1分割領域)毎についての輝度値と、対応する縦長分割エリア(第2分割領域)毎についての輝度値の差分の絶対値の総和を横移動−輝度評価値PAT1〜PAT5として算出する。即ち、移動量検出部40は、縦長分割エリア(第1分割領域)毎についての輝度値と、対応する縦長分割エリア(第2分割領域)毎についての輝度値とに基づいて横移動−輝度評価値PAT1〜PAT5を算出する。また、別の観点から言えば、移動量検出部40は、第1横移動評価エリアについての輝度値と、第2横移動評価エリアについての輝度値との差分を横移動−輝度評価値として算出する。即ち、移動量検出部40は、第1横移動評価エリアについての輝度値と、第2横移動評価エリアについての輝度値とに基づいて横移動−輝度評価値を算出する。
【0059】
具体的には、横移動−輝度評価値PAT1〜PAT5は、下式(1)〜(5)に従って算出される。
【0060】
PAT1=Σ|AY(m)−BY(m)| ・・・(1)
PAT2=Σ|AY(m)−BY(m−1)| ・・・(2)
PAT3=Σ|AY(m)−BY(m+1)| ・・・(3)
PAT4=Σ|AY(m+1)−BY(m−1)| ・・・(4)
PAT5=Σ|AY(m−1)−BY(m+1)| ・・・(5)。
【0061】
式(1)〜(5)中のmには自然数が適用され、m−1には1〜22、mには2〜23、m+1には3〜24がそれぞれ適用される。
【0062】
式(1)〜(5)では、時間的に連続する2つの画像G1,G2において、CCD21の画素数に換算して水平方向に16画素分のピッチで並ぶ第1横移動評価エリアと第2横移動評価エリアとの間について、輝度のパターンの類似度を算出している。なお、以下では、被写体移動量を画素数で表す場合には、CCD21の画素数に換算して表す。そして、輝度のパターンの類似度が高いほど、横移動−輝度評価値が小さくなる性質を利用して、横方向への被写体の移動量を求める。
【0063】
つまり、各第1横移動評価エリアと各第2横移動評価エリアとの組合せのうち、最も横移動−輝度評価値が小さくなる第1横移動評価エリアと第2横移動評価エリアの組合せについては、最もエリア内の輝度のパターンが類似している。そして、そのような組合せに係る第1及び第2横移動評価エリアには、同じ被写体が含まれていると判断することができる。そこで、最も横移動−輝度評価値が小さくなる第1横移動評価エリアと第2横移動評価エリアとの組合せについて、その評価エリアの相対的な位置関係を、横方向への被写体移動量として検出する。即ち、移動量検出部40は、複数の横移動−輝度評価値PAT1〜PAT5に基づいて横方向への被写体移動量を検出する。
【0064】
具体的には、移動量検出部40は、横移動−輝度評価値PAT1〜PAT5のうち、
▲1▼横移動−輝度評価値PAT1が最小の時は、横方向への被写体移動量が0画素分と検出し、
▲2▼横移動−輝度評価値PAT2が最小の時は、横方向への被写体移動量が左(−X方向)に16画素分と検出し、
▲3▼横移動−輝度評価値PAT3が最小の時は、横方向への被写体移動量が右(+X方向)に16画素分と検出し、
▲4▼横移動−輝度評価値PAT4が最小の時は、横方向への被写体移動量が左(−X方向)に32画素分と検出し、
▲5▼横移動−輝度評価値PAT5が最小の時は、横方向への被写体移動量が右(+X方向)に32画素分と検出する。
【0065】
このように、移動量検出部40は、横移動−輝度評価値が最小となる第1横移動評価エリアと第2横移動評価エリアとの組合せに係る第1横移動評価エリアと第2横移動評価エリアの相対的な位置関係に基づいて、横方向への被写体移動量を検出する。つまり、ここでは、AF動作による撮影レンズ11の駆動に起因するデフォーカス量の変化によって変動し難い輝度値を用い、時間的に連続して取得される画像において輝度パターンが類似したエリアを同じ被写体が存在するエリアであるとみなして、横方向への被写体移動量を検出する。その結果、横方向への被写体移動量を確実かつ精度良く検出することができる。
【0066】
なお、上述したように、横移動−輝度評価値は、AF動作における合焦制御において直接的に用いられる画像のコントラストに関する値ではない。すなわち、ここで言うコントラストに関する値(例えば、AF評価値)は「ひとつの画像」について、着目する領域とその周辺領域との輝度の差(換言すれば、「画像内」の輝度の空間変化)を反映する量であるが、この実施形態で使用する輝度評価値(例えば、横移動−輝度評価値)は、「一方の画像」の着目領域における輝度値と、「他方の画像」でそれに対応する領域の輝度値との違い(換言すれば、「画像間」の輝度の相違)を反映した値である。
【0067】
上述のごとく横方向への被写体移動量を検出したが、ここで、例えば、単に第1横移動評価エリア内の全画素の輝度値の総和と、第2横移動評価エリア内の全画素の輝度値の総和との差分を横移動評価値PAT1〜PAT5として算出すると仮定すると、大きなサイズの第1及び第2横移動評価エリア内における輝度のパターンの変化が平均化されてしまい、その輝度パターンの変化を横移動−輝度評価値PAT1〜PAT5に対して正しく反映させることができない。
【0068】
そこで、撮像装置1では、各第1横移動評価エリアと各第2横移動評価エリアとの組合せについて、対応する縦長分割エリア間の輝度値の差分の絶対値を足し合わせて、横移動−輝度評価値PAT1〜PAT5として算出する。よって、小さなサイズの縦長分割エリア間の輝度の変化を反映させた形で、横移動−輝度評価値PAT1〜PAT5を算出することができるため、詳細かつ正確な輝度のパターンの変化を把握することができる。その結果、算出される横移動−輝度評価値PAT1〜PAT5の信頼性を向上させることができるとともに、最終的に検出される横方向への被写体移動量を容易かつさらに精度良く検出することができる。
【0069】
<縦方向への被写体移動量検出>
縦方向への被写体移動量の検出は、上述した横方向への被写体移動量の検出と同様となるが、以下、詳細に説明する。
【0070】
まず、移動量検出部40は、輝度評価エリアSE1内において、互いに隣接し合う12個の横長分割エリアを含むエリア(以下、「第1縦移動評価エリア」とも称する)を複数設定するとともに、輝度評価エリアSE2内において、互いに隣接し合う12個の横長分割エリアを含むエリア(以下、「第2縦移動評価エリア」とも称する)を複数設定する。
【0071】
つまり、移動量検出部40は、時間的に連続して取得される第1の画像G1と第2の画像G2とについて、第1の画像G1に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の横長分割エリアを共有し合う第1縦移動評価エリアを複数個設定し、また、第2の画像G2に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の横長分割エリアを共有し合う第2縦移動評価エリアを複数個設定する。また、ここでは、各画像に対して設定される第1及び第2縦移動評価エリアはそれぞれ同等な形状及びサイズを有する。
【0072】
具体的には、輝度評価エリアSE1内において、互いに隣接し合う12個の横長分割エリアC1〜C12を含む第1縦移動評価エリア、互いに隣接し合う12個の横長分割エリアC2〜C13を含む第1縦移動評価エリア、互いに隣接し合う12個の横長分割エリアC3〜C14を含む第1縦移動評価エリアを設定する。また、輝度評価エリアSE2内において、互いに隣接し合う12個の横長分割エリアD1〜D12を含む第2縦移動評価エリア、互いに隣接し合う12個の横長分割エリアD2〜D13を含む第2縦移動評価エリア、互いに隣接し合う12個の横長分割エリアD3〜D14を含む第2縦移動評価エリアを設定する。
【0073】
そして、移動量検出部40は、図6及び図7に示す各横長分割エリアC1〜C14,D1〜D14についての輝度値CY(1)〜CY(14),DY(1)〜DY(14)をそれぞれ算出する。例えば、移動量検出部40は、各輝度値CY(1)〜CY(14),DY(1)〜DY(14)を、各横長分割エリアC1〜C14,D1〜D14内に含まれる全画素の画素値(輝度値)の総和の形としてそれぞれ算出する。
【0074】
さらに、移動量検出部40は、各第1縦移動評価エリアと各第2縦移動評価エリアの組合せについて、各第1縦移動評価エリアにおける相対的な位置と各第2縦移動評価エリアにおける相対的な位置とが等しい横長分割エリアを対応する横長分割エリアとし、対応する各横長分割エリア間の輝度値の差分の絶対値を足し合わせて、縦方向への被写体移動量を検出するための輝度に関する評価値(以下、「縦移動−輝度評価値」とも称する)PAT6〜PAT10を算出する。
【0075】
つまり、移動量検出部40は、第1縦移動評価エリアと第2縦移動評価エリアとの組合せ毎について、横長分割エリア(第1分割領域)毎についての輝度値と、対応する横長分割エリア(第2分割領域)毎についての輝度値の差分の絶対値の総和を縦移動−輝度評価値PAT6〜PAT10として算出する。即ち、移動量検出部40は、横長分割エリア(第1分割領域)毎についての輝度値と、対応する横長分割エリア(第2分割領域)毎についての輝度値とに基づいて縦移動−輝度評価値PAT6〜PAT10を算出する。また、別の観点から言えば、移動量検出部40は、第1縦移動評価エリアについての輝度値と、第2縦移動評価エリアについての輝度値との差分を縦移動−輝度評価値として算出する。即ち、移動量検出部40は、第1縦移動評価エリアについての輝度値と、第2縦移動評価エリアについての輝度値とに基づいて縦移動−輝度評価値を算出する。
【0076】
具体的には、縦移動−輝度評価値PAT6〜PAT10は、下式(6)〜(10)に従って算出する。
【0077】
PAT6=Σ|CY(m)−DY(m)| ・・・(6)
PAT7=Σ|CY(m)−DY(m−1)| ・・・(7)
PAT8=Σ|CY(m)−DY(m+1)| ・・・(8)
PAT9=Σ|CY(m+1)−DY(m−1)| ・・・(9)
PAT10=Σ|CY(m−1)−DY(m+1)| ・・・(10)。
【0078】
式(6)〜(10)中のmには自然数が適用され、m−1には1〜12、mには2〜13、m+1には3〜14がそれぞれ適用される。
【0079】
式(6)〜(10)では、時間的に連続する2つの画像G1,G2において、CCD21の画素数に換算して垂直方向に16画素分のピッチで並ぶ第1縦移動評価エリアと第2縦移動評価エリアとの間について、輝度のパターンの類似度を算出している。そして、輝度のパターンの類似度が高いほど、縦移動−輝度評価値が小さくなる性質を利用して、縦方向への被写体の移動量を求める。
【0080】
つまり、各第1縦移動評価エリアと各第2縦移動評価エリアとの組合せのうち、最も縦移動−輝度評価値が小さくなる第1縦移動評価エリアと第2縦移動評価エリアとの組合せについては、最もエリア内の輝度のパターンが類似している。そして、そのような組合せに係る第1及び第2縦移動評価エリアには、同じ被写体が含まれていると判断することができる。そこで、最も縦移動−輝度評価値が小さくなる第1縦移動評価エリアと第2縦移動評価エリアとの組合せについて、その評価エリアの相対的な位置関係を、縦方向への被写体移動量として検出する。即ち、移動量検出部40は、複数の縦移動−輝度評価値PAT6〜PAT10に基づいて縦方向への被写体移動量を検出する。
【0081】
具体的には、移動量検出部40は、縦移動−輝度評価値PAT6〜PAT10のうち、
▲1▼縦移動−輝度評価値PAT6が最小の時は、縦方向への被写体移動量が0画素分と検出し、
▲2▼縦移動−輝度評価値PAT7が最小の時は、縦方向への被写体移動量が上(+Y方向)に16画素分と検出し、
▲3▼縦移動−輝度評価値PAT8が最小の時は、縦方向への被写体移動量が下(−Y方向)に16画素分と検出し、
▲4▼縦移動−輝度評価値PAT9が最小の時は、縦方向への被写体移動量が上(+Y方向)に32画素分と検出し、
▲5▼縦移動−輝度評価値PAT10が最小の時は、縦方向への被写体移動量が下(−Y方向)に32画素分と検出する。
【0082】
このように、移動量検出部40は、縦移動−輝度評価値が最小となる第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る第1縦移動評価エリアと第2縦移動評価エリアの相対的な位置関係に基づいて、縦方向への被写体移動量を検出する。つまり、ここでは、AF動作による撮影レンズ11の駆動に起因するデフォーカス量の変化によって変動し難い輝度値を用い、時間的に連続して取得される画像において輝度パターンが類似したエリアを同じ被写体が存在するエリアであるとみなして、縦方向への被写体移動量を検出する。その結果、縦方向への被写体移動量を確実かつ精度良く検出することができる。なお、上述したように、縦移動−輝度評価値は、横移動−輝度評価値と同様に、AF動作における合焦制御において直接的に用いられる画像のコントラストに関する値ではない。
【0083】
上述のごとく縦方向への被写体移動量を検出したが、ここで、例えば、単に第1縦移動評価エリア内の全画素の輝度値の総和と、第2縦移動評価エリア内の全画素の輝度値の総和との差分を縦移動評価値PAT6〜PAT10として算出すると仮定すると、大きなサイズの第1及び第2縦移動評価エリア内における輝度のパターンの変化が平均化されてしまい、その輝度パターンの変化を縦移動評価値PAT6〜PAT10に対して正しく反映させることができない。
【0084】
そこで、撮像装置1では、各第1縦移動評価エリアと各第2縦移動評価エリアとの組合せについて、対応する各横長分割エリア間の輝度値の差分の絶対値を足し合わせて、縦移動−輝度評価値PAT6〜PAT10として算出する。よって、小さなサイズの横長分割エリア間の輝度の変化を反映させた形で、縦移動−輝度評価値PAT6〜PAT10を算出することができるため、詳細かつ正確な輝度パターンの変化を把握することができる。その結果、算出される縦移動−輝度評価値PAT6〜PAT10の信頼性を向上させることができるとともに、最終的に検出される縦方向への被写体移動量を容易かつさらに精度良く検出することができる。
【0085】
また、上述したように、移動量検出部40は、輝度評価エリアSE1,SE2を24個の縦長分割エリア、及び14個の横長分割エリアに分割して、縦と横方向への被写体移動量を検出した。ここで、縦横に輝度評価エリアSE1,SE2を短冊状のエリアに分割せず、縦14×横24個のブロックに分割して、ブロック毎に画像間における輝度値の変化を評価することによっても同様な精度で被写体移動量を検出することが可能となる。しかし、縦14×横24個のブロックに分割すると合計336個のブロックについて輝度値に関する計算を行わなければならず、被写体移動量を検出するための演算に長時間を要してしまう。そこで、撮像装置1では、単に輝度評価エリアSE1,SE2を24個の短冊状の縦長分割エリア、及び14個の短冊状の横長分割エリアに分割して、合計38個のエリアについて輝度値に関する計算を行うだけで、縦と横方向への被写体移動量を検出することができる。その結果、被写体移動量を検出するための演算速度を向上させることができる。
【0086】
<被写体移動量の信頼性評価>
また、移動量検出部40は、上述のようにして検出された縦と横方向への被写体移動量が正確であるか否かを検証する信頼性評価機能を有している。
【0087】
上記のように、縦と横方向への被写体移動量の検出には、レンズ駆動に伴う変化度合いの小さい輝度値が用いられることにより、被写体移動量検出時における誤検出の低減を図ることができるが、CCD21によって取得される画像におけるコントラストが極めて低い場合等は、縦移動−輝度評価値PAT6〜PAT10の差異や横移動−輝度評価値PAT1〜PAT5の差異も小さく、被写体移動量を誤検出する可能性が存在する。
【0088】
そこで、移動量検出部40は、上記のような誤検出を防止するために、上記のようにして検出された被写体移動量が正確であるか否かを信頼性評価機能によって検証する。具体的には、横移動−輝度評価値PAT1〜PAT5のうちの最大値(以下、「信頼性評価値」と称する)Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40は、信頼性評価値Cが所定の値よりも大きな場合は、検出される横方向への被写体移動量が正確な値であるものとして判断する。
【0089】
また、縦方向への被写体移動量についても同様に、縦移動−輝度評価値PAT6〜PAT10のうちの最大値(信頼性評価値)Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40は、信頼性評価値Cが所定の値よりも大きな場合は、検出される縦方向への被写体移動量が正確な値であるものとして判断する。
【0090】
そして、移動量検出部40は、縦及び横方向の信頼性評価値Cがともに所定の値よりも大きな場合は、検出される被写体移動量が正確な値であるものと判断し、その旨をカメラ制御部70に送信する。即ち、ここでは、移動量検出部40が、所定値以上の縦移動−輝度評価値と横移動−輝度評価値との検出に基づいて被写体移動量を信頼性のある値として判別する。その結果、被写体移動量の誤検出を低減することができる。
【0091】
<AF評価エリアの設定変更>
図8は、AF評価エリアAE及び被写***置を示すポインタの変更について例示する図である。図8(a)では、ワンショットAF動作直後の画像G1について示しており、図8(b)では、さらにNフレーム後の画像GNについて示している。なお、被写***置を示すポインタSPは、液晶表示部16に表示されるライブビュー画像上における被写体の位置を示す表示であり、液晶表示部16が、ライブビュー画像とともにポインタSPを重畳表示する。また、図8では、AF評価値算出部30で画像に対して設定されるAF評価エリアAEと、液晶表示部16でのライブビュー画像上に表示されるポインタSPとの位置関係を明確化するために、便宜上、AF評価エリアAEとポインタSPとを併せて示している。
【0092】
上述したように、移動量検出部40において検出された縦及び横方向への被写体移動量を示すデータが、カメラ制御部70に送信される。また、移動量検出部40は、検出される被写体移動量が正確な値である場合には、その旨をカメラ制御部70に送信する。そして、移動量検出部40から送信される被写体移動量が正確な値である場合には、図8に示すように、カメラ制御部70の制御下で、AF評価値算出部30が、移動量検出部40で検出された被写体移動量に基づいて、CCD21で取得される画像に対して設定されるAF評価領域(合焦評価領域)AEの位置を移動させるとともに、液晶表示部16が、移動量検出部40で検出された被写体移動量に基づいて、被写体の位置を示す位置表示(ここでは、ポインタSP)の位置を変更する。
【0093】
例えば、図8(a)に示すように、ワンショットAF動作直後に、AF評価値算出部30に入力される画像G1に対してAF評価エリアAEが設定された後、縦及び横方向への被写体移動量に応じて、AF評価エリアAEの位置が変更され、図8(b)に示すように、被写体を追従するようにAF評価エリアAEが変更・移動される。その結果、被写体を追尾しながら、被写体に対して合焦させることができるため、被写体の移動に対応して撮影レンズ11の合焦状態を保持することができる。
【0094】
また、このとき、図8(a)に示すように、ワンショットAF動作直後に、液晶表示部16に表示されるライブビュー画像に対してポインタSPが重畳して表示された後、縦及び横方向への被写体移動量に応じて、ポインタSPの位置が変更され、図8(b)に示すように、被写体を追従するようにポインタSPの位置が変更される。その結果、操作者が、ライブビュー画像上のポインタSPを観察することによって、AF評価エリアAE等の被写体に対する追尾状況を把握することができる。
【0095】
<コンティニュアスAF動作>
図9は、コンティニュアスAF動作の動作フローを例示するフローチャートである。なお、図9では、コンティニュアスAF動作の動作フローのうち、撮影レンズ11の駆動、撮像処理、及び次回の合焦位置の検出について示している。なお、CCD21からの画像信号の読出し、AF評価値の算出・取得等の処理は、各撮像処理の実施直後に順次行われる。また、このコンティニュアスAF動作の動作フローはカメラ制御部70によって制御される。
【0096】
また、図10は、撮影レンズの位置11とAF評価値との関係を示す曲線VLを例示する図である。なお、図10では、前回検出された合焦位置をレンズ位置FPで示し、次回検出される合焦位置をレンズ位置APで示す。ここでは、Fは撮影レンズ11のFナンバー(絞り値)を示し、δは所謂CCD21の許容錯乱円を示す。図10に示すように、コンティニュアスAF動作では、前回検出された合焦位置FPを中心として、4Fδピッチで前後に3点ずつ計7点の撮影レンズ位置(P1〜P7)において、画像を取得するとともに、AF評価値を算出して、7つのAF評価値に基づいて次回のレンズ位置APを検出し、レンズ位置APに撮影レンズ11を駆動する一連のAF動作を繰り返し行う。
【0097】
以下、図10を参照しつつ、図9に示すコンティニュアスAF動作の動作フローについて説明する。なお、コンティニュアスAF動作が行われる際には、上述したように、被写体の移動に追従してAF評価エリアAEの位置が変更される。
【0098】
ここでは、上記ワンショットAF動作が終了すると、コンティニュアスAF動作が開始して、ステップS11に進む。
【0099】
ステップS11では、S2状態が割り込み可能に設定され、ステップS12に進む。ここでは、コンティニュアスAF動作の動作フロー中に、操作者によってシャッターボタン61が全押しされて、S2状態となった場合は、コンティニュアスAF動作を中止して本撮影を行うように設定される。
【0100】
ステップS12では、図10に示すように、前回の合焦位置からレンズ繰り入れ側に12Fδだけ離隔したレンズ位置P1に撮影レンズ11を駆動させ、1個目の画像(第1フレーム)を取得すべく1回目の撮像処理を行い、ステップS13に進む。
【0101】
ステップS13では、図10に示すように、4Fδピッチで撮影レンズ11を繰り出し側に駆動させつつ、レンズ位置P2〜P7において、2個目〜7個目の画像(第2〜第7フレーム)を順次取得すべく2〜7回目の撮像処理を順次行い、ステップS14に進む。
【0102】
ステップS14では、前回の合焦位置FP付近へ撮影レンズ11を駆動させつつ、レンズ位置P8,P9において8、9個目の画像(第8、第9フレーム)を順次取得すべく8、9回目の撮像処理を順次行い、第9フレーム取得時に次回の合焦位置APを検出し、ステップS15に進む。ここでは、第1〜第7フレームについて算出されるAF評価値について、2次補間近似計算を行い、AF評価値が最大となるレンズ位置APを次回の合焦位置として検出する。
【0103】
ステップS15では、ステップS14で検出された次回の合焦位置APへ撮影レンズ11を駆動させ、10個目の画像(第10フレーム)を取得すべく10回目の撮像処理を行い、ステップS12に戻る。
【0104】
<被写体追尾AF動作のタイミング>
以上、被写体追尾AF動作における被写体移動量検出、及びコンティニュアスAF動作について説明したが、被写体追尾AF動作をタイミングチャートで示すと図11に示すようになる。図11では、上から順に、撮影レンズ11の駆動、撮像処理、CCD21からの画像読出し、AF評価値の算出、移動量検出部40における各分割エリアについての輝度値の算出、カメラ制御部70によるAF評価値の取得、被写体移動量の検出、次回の合焦位置の検出のタイミングを示している。
【0105】
撮影レンズ11は所定のタイミングで駆動され、各レンズ駆動によってレンズ位置がP1からP9まで段階的に駆動される(図10参照)。
【0106】
1回目レンズ駆動が終了すると、撮影レンズ11はレンズ位置P1に移動しており、そこで1回目の撮像処理が行われる。CCD21の撮像処理が終了すると、CCD21から画像が読み出される。このとき、AF評価値算出部30及び移動量検出部40はCCD21から読み出される画像を、A/D変換器22を介して取得し、画像読出し動作と並行して、AF評価値算出部30がAF評価値の演算を開始するとともに、移動量検出部40が各縦及び横長分割エリアについての輝度値の算出を開始する。そしてAF評価値の算出が終了すると、カメラ制御部70がそのAF評価値を取得する。
【0107】
また、1回目の撮像処理が終了すると、2回目のレンズ駆動が行われ、撮影レンズ11がレンズ位置P2に移動した状態で2回目の撮像処理が行われる。したがって、2回目のレンズ駆動及び撮像処理は、1回目の撮像処理によって得られた画像の読み出し動作と、AF評価値算出動作と、各縦及び横長分割エリアについての輝度値の算出動作と並行して行われることになる。
【0108】
そして2回目の撮像処理によって得られた画像に基づくAF評価値の算出が終了すると、カメラ制御部70がそのAF評価値を取得する。また、移動量検出部40は、2回目の撮像処理によって得られた画像に対する各縦及び横長分割エリアについての輝度値の算出が終了すると、1回目の画像と2回目の画像との間における被写体移動量の検出を行う。この被写体移動量検出による検出結果は、4回目の画像に基づくAF評価値算出にフィードバックされ、4回目の画像に基づくAF評価値算出の際に適用されるAF評価エリアAEの設定変更が行われる。
【0109】
以下同様な動作が繰り返され、7回目のレンズ駆動に伴う各動作が終了した時点で、カメラ制御部70において7回分のAF評価値に基づいて次回の合焦位置APを検出するための処理が実行される。そして、この次回の合焦位置APの検出処理は9回目のレンズ駆動及び撮像処理が行われる際に実行され、10回目のレンズ駆動にフィードバックされ、10回目の撮像処理は次回の合焦位置APに撮影レンズ11を駆動させて行われる。
【0110】
そして、このような1回目から10回目のレンズ駆動に伴う各動作が繰り返されることによって、被写体の移動に追従してAF評価エリアAEの位置を変更しつつ、コンティニュアスAF動作が行われる被写体追尾AF動作が実施される。
【0111】
<AF動作における動作フロー>
図12は、撮像装置1におけるAF動作全体の動作フローを模式的に示すフローチャートである。このAF動作全体の動作フローはカメラ制御部70によって制御される。まず、ライブビュー表示状態において、操作者がシャッターボタン61を半押しすることでS1状態となると、AF動作が開始して、ステップS31に進む。
【0112】
ステップS31では、上述したようなワンショットAF動作が行われ、ステップS32に進む。
【0113】
ステップS32では、上述したように、コンティニュアスAF動作と被写体移動量の検出動作とを並行して行い、ステップS33に進む。なお、ここでは、図9で示したコンティニュアスAF動作の動作フローと、被写体移動量の検出動作とが並行して行われ、操作者がシャッターボタン61を全押しすることでS2状態となると、本撮影動作を行うために最新の合焦位置にレンズを移動させてAF動作を中止する。また、被写体移動量の検出動作では、被写体移動量の検出に関する信頼性評価値Cが所定値よりも大きいか否かの処理も行い、その結果をカメラ制御部70に送信する。
【0114】
ステップS33では、被写体移動量の検出に関する信頼性評価値Cが所定値よりも大きいか否かを判別する。ここでは、移動量検出部40からカメラ制御部70へ、信頼性評価値Cが所定値よりも大きい旨が送信される場合は、信頼性評価値Cが所定値よりも大きいものと判別して、ステップS34に進み、移動量検出部40からカメラ制御部70へ、信頼性評価値Cが所定値よりも大きい旨が送信されない場合は、信頼性評価値Cが所定値よりも大きくないものと判別して、ステップS32に戻る。なお、ステップS33からステップS32に戻った場合は、AF評価エリアAEの位置の移動・変更は行われない。
【0115】
ステップS34では、上述したように、AF評価エリアAEをステップS32で検出された被写体移動量に基づいて移動・変更し、ステップS35に進む。
【0116】
ステップS35では、被写体の位置を示すポインタの位置をステップS32で検出された被写体移動量に基づいて変更し、ステップS32に戻る。
【0117】
このように、ここでは、操作者がシャッターボタン61を半押しすることでS1状態となると、AF動作等を含む撮影準備動作が開始し、その後、移動量検出部40が被写体移動量を検出する。その結果、必要な時だけ被写体移動量を検出するようにすることができるため、省電力化を図ることができる。
【0118】
以上のように、第1実施形態に係る撮像装置1では、時間的に連続する第1の画像G1と第2の画像G2とを取得する。そして、第1の画像G1に対して、複数の第1横移動評価エリア、及び複数の第2縦移動評価エリアを設けるともに、第2の画像G2に対して、複数の第2横移動評価エリア、及び複数の第2縦移動評価エリアを設ける。そして、各横移動評価エリア、及び各縦移動評価エリアの輝度値について、画像間で差分を算出する等して比較・評価する。そして、算出した輝度値の差分等に基づいて、縦及び横方向への被写体移動量を検出する。よって、ここでは、AF動作による撮影レンズ11の駆動に起因するデフォーカス量の変化によって変動し難い輝度値を時間的に連続する画像間で比較・評価することにより、被写体移動量を検出する。その結果、被写体の移動を容易かつ精度良く検出することが可能な撮像装置を提供することができる。
【0119】
また、画像G1に対して複数の第1縦移動評価エリアと複数の第1横移動評価エリアとがそれぞれ相互に重なり合うように少しずつずらされて設けられ、画像G2に対して複数の第2縦移動評価エリアと複数の第2横移動評価エリアとがそれぞれ相互に重なり合うように少しずつずらされて設けられる。その結果、被写体の細かい移動量も検出することができ、被写体の少しずつの動きに対してもAF評価エリアAEを少しずつずらしながら移動させることができる。つまり、被写体の移動に対応して、詳細かつ正確にAF評価エリアAEを移動・変更することができる。
【0120】
さらに、画像G1に対して複数の第1縦移動評価エリア同士が、相互に重なり合う部分について一部の横長分割エリアを共有するように設けられ、複数の第1横移動評価エリア同士が、相互に重なり合う部分について一部の縦長分割エリアを共有するように設けられる。また、画像G2に対して複数の第2縦移動評価エリア同士が、相互に重なり合う部分について一部の横長分割エリアを共有するように設けられ、複数の第2横移動評価エリア同士が、相互に重なり合う部分について一部の縦長分割エリアを共有するように設けられる。よって、重複した輝度値の演算を極力少なくすることができるため、縦移動−輝度評価値と横移動−輝度評価値の演算に要する時間を比較的短くすることができる。
【0121】
<(2)第2実施形態>
上述した第1実施形態では、被写体移動量が縦方向や横方向に0、又は16、又は32画素分であると検出された。即ち、検出の最小単位は16画素分である。そこで、第2実施形態に係る撮像装置1Aでは、移動量検出部40Aにおいて、第1実施形態に係る移動量検出部40と同様に、縦及び横移動−輝度評価値PAT1〜PAT10を算出するとともに、それらの値について補間計算を行うことによって、16画素よりも細かな被写体移動量を検出することができる。また、信頼性評価機能についても、移動量検出部40Aと移動量検出部40とは異なる。
【0122】
なお、第2実施形態に係る撮像装置1Aでは、移動量検出部40Aが第1実施形態に係る撮像装置1と異なるのみで、その他の部分については全く同様となるため、同様な符合を付して説明を省略する。
【0123】
<補間計算及び被写体移動量検出>
<横方向について>
移動量検出部40Aでは、例えば、横移動−輝度評価値PAT1〜PAT5のうちの最小値と、その最小値に係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、±X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値とに基づいて、補間計算を行って被写体移動量を検出する。
【0124】
つまり、第1横移動評価エリアと第2横移動評価エリアとの組合せのうち、横移動−輝度評価値が最小となる組合せを第1の組合せと称し、第1の組合せに係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、+X方向に所定量だけずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せを第2の組合せと称し、さらに、第1の組合せに係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、−X方向に所定量だけずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せを第3の組合せと称するこことすると、移動量検出部40Aは、第1から第3の組合せに係る3つの横移動−輝度評価値に基づいて横方向への被写体移動量を検出する。
【0125】
具体的には、横移動−輝度評価値PAT1〜PAT5のうち、横移動−輝度評価値PAT2が最小である場合、つまり、第1横移動評価エリアとそのエリアに対して相対的に−X方向に16画素分だけずれた画像G2に設けられた第2横移動評価エリアとの組合せに係る横移動−輝度評価値PAT2が最小である場合、その横移動−輝度評価値PAT2と、横移動−輝度評価値PAT2に係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、±X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値PAT1,PAT4とに基づいて、補間計算を行って被写体移動量を検出する。
【0126】
図13は、横移動−輝度評価値PAT1〜PAT5のうち、横移動−輝度評価値PAT2が最小である場合における横方向への被写体移動量の補間計算を説明するための図である。図13では、横軸は、第1横移動評価エリアと第2横移動評価エリアとの相対的なX方向へのずれ量(Xd)を示し、縦軸は、横移動−輝度評価値を示している。また、図13には、横移動−輝度評価値PAT1,PAT2,PAT4にそれぞれ対応するX方向へのずれ量と、その横移動−輝度評価値との関係を示すプロットMX1,MX2,MX4がそれぞれ記されている。
【0127】
図13(a)に示すように、PAT1<PAT4の場合には、プロットMX2及びプロットMX4とを結ぶ直線110を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMX1を通る直線111を引く。そして、直線110と直線111とが交差する点における横軸の座標を横方向への被写体移動量MHとして検出する。一方、図13(b)に示すように、PAT1≧PAT4の場合には、プロットMX1及びプロットMX2とを結ぶ直線121を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMX4を通る直線120を引く。そして、直線120と直線121とが交差する点における横軸の座標を横方向への被写体移動量MHとして検出する。
【0128】
また、ここでは、横移動−輝度評価値PAT1〜PAT5のうち、横移動−輝度評価値PAT2が最小である場合の具体例を示したが、他の横移動−輝度評価値が最小である場合にも同様な補間計算によって横方向への被写体移動量MHを検出することができる。
【0129】
ここで、横移動−輝度評価値PAT1〜PAT5のうちの最小値をYB、その最小値YBに係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、−X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値をYAとし、+X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値をYCとする。そして、YA〜YCに対応する第1横移動評価エリアと第2横移動評価エリアとの相対的なX方向へのずれ量をそれぞれX1〜X3とすると、補間計算によって検出される横方向への被写体移動量MHは、下式(11),(12)で示される。
【0130】
YC≧YAの場合、
MH={(YA−YB)・(X2−X3)/(YB−YC)−X1+X2}/2・・・(11)。
【0131】
YC<YAの場合、
MH={(YC−YA)・(X1−X2)/(YA−YB)+X1−X3}/2・・・(12)。
【0132】
また、移動量検出部40Aにおける信頼性評価機能では、図13に示すように、横方向への被写体移動量MHを算出する際に用いる横移動−輝度評価値YA〜YCのうちの最大値と最小値との差分の絶対値(信頼性評価値)Cが所定値よりも大きいか否かによって行う。つまり、ここでは、信頼性評価値Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40Aは、信頼性評価値Cが所定の値よりも大きな場合は、検出される横方向への被写体移動量MHが正確な値であるものとして判断する。
【0133】
<縦方向について>
移動量検出部40Aでは、例えば、縦移動−輝度評価値PAT6〜PAT10のうちの最小値と、その最小値に係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、±Y方向に16画素ずつずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る縦移動−輝度評価値とに基づいて、補間計算を行って被写体移動量を検出する。
【0134】
つまり、第1縦移動評価エリアと第2縦移動評価エリアとの組合せのうち、縦移動−輝度評価値が最小となる組合せを第1の組合せと称し、第1の組合せに係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、+Y方向に所定量だけずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せを第2の組合せと称し、さらに、第1の組合せに係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、−Y方向に所定量だけずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せを第3の組合せと称するこことすると、移動量検出部40Aは、第1から第3の組合せに係る3つの縦移動−輝度評価値に基づいて縦方向への被写体移動量を検出する。
【0135】
具体的には、縦移動−輝度評価値PAT6〜PAT10のうち、縦移動−輝度評価値PAT7が最小である場合、つまり、第1縦移動評価エリアとそのエリアに対して相対的に+Y方向に16画素分だけずれた画像G2に設けられた第2横移動評価エリアとの組合せに係る縦移動−輝度評価値PAT7が最小である場合、その縦移動−輝度評価値PAT7と、縦移動−輝度評価値PAT7に係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して±Y方向に16画素ずつずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る縦移動−輝度評価値PAT6,PAT9とに基づいて、補間計算を行って被写体移動量を検出する。
【0136】
図14は、縦移動−輝度評価値PAT6〜PAT10のうち、縦移動−輝度評価値PAT7が最小である場合における縦方向への被写体移動量の補間計算を説明するための図である。図14では、横軸は、第1縦移動評価エリアと第2縦移動評価エリアとの相対的なY方向へのずれ量(Yd)を示し、縦軸は、縦移動−輝度評価値を示している。また、図14には、縦移動−輝度評価値PAT6,PAT7,PAT9にそれぞれ対応するY方向へのずれ量と、その縦移動−輝度評価値との関係を示すプロットMY6,MY7,MY9がそれぞれ記されている。
【0137】
図14(a)に示すように、PAT6<PAT9の場合には、プロットMY7及びプロットMY9とを結ぶ直線130を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMY6を通る直線131を引く。そして、直線130と直線131とが交差する点における横軸の座標を縦方向への被写体移動量MVとして検出する。一方、図14(b)に示すように、PAT6≧PAT9の場合には、プロットMY6及びプロットMY7とを結ぶ直線141を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMY9を通る直線140を引く。そして、直線140と直線141とが交差する点における横軸の座標を縦方向への被写体移動量MVとして検出する。
【0138】
また、ここでは、縦移動−輝度評価値PAT6〜PAT10のうち、縦移動−輝度評価値PAT7が最小である場合の具体例を示したが、他の縦移動−輝度評価値が最小である場合にも同様な補間計算によって縦方向への被写体移動量MVを検出することができる。
【0139】
ここで、縦移動−輝度評価値PAT6〜PAT10のうちの最小値をYB、その最小値YBに係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、+Y方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る縦移動−輝度評価値をYAとし、−Y方向に16画素ずつずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る縦移動−輝度評価値YCとする。そして、YA〜YCに対応する第1縦移動評価エリアと第2縦移動評価エリアとの相対的なY方向へのずれ量をそれぞれY1〜Y3とすると、補間計算によって検出される縦方向への被写体移動量MVは、下式(13),(14)で示される。
【0140】
YC≧YAの場合、
MH={(YA−YB)・(Y2−Y3)/(YB−YC)−Y1+Y2}/2・・・(13)。
【0141】
YC<YAの場合、
MH={(YC−YA)・(Y1−Y2)/(YA−YB)+Y1−Y3}/2・・・(14)。
【0142】
また、移動量検出部40Aにおける信頼性評価機能では、図14に示すように、縦方向への被写体移動量MVを算出する際に用いる縦移動−輝度評価値YA〜YCのうちの最大値と最小値との差分の絶対値(信頼性評価値)Cが所定値よりも大きいか否かによって行う。つまり、ここでは、信頼性評価値Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40Aは、信頼性評価値Cが所定値よりも大きな場合は、検出される縦方向への被写体移動量MVが正確な値であるものとして判断する。
【0143】
そして、移動量検出部40Aは、縦及び横方向の信頼性評価値Cがともに所定値よりも大きな場合は、検出される被写体移動量が正確な値であるものと判断し、その旨をカメラ制御部70に送信する。
【0144】
以上のように、第2実施形態に係る撮像装置1Aでは、横移動−輝度評価値が最小となる第1横移動評価エリアと第2横移動評価エリアとの組合せと、その組合せに対して、所定の方向(ここでは、+X方向)及びその逆方向(ここでは、−X方向)に相対的にずれた位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの2つの組合せとにおける3つの横移動−輝度評価値に基づいて、補間計算を行いつつ、横方向への被写体移動量を検出する。また、縦移動−輝度評価値が最小となる第1縦移動評価エリアと第2縦移動評価エリアとの組合せと、その組合せに対して、所定の方向(ここでは、+Y方向)及びその逆方向(ここでは、−Y方向)に相対的にずれた位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの2つの組合せとにおける3つの縦移動−輝度評価値に基づいて、補間計算を行いつつ、縦方向への被写体移動量を検出する。その結果、横長分割エリアや縦長分割エリアの幅(ここでは、16画素)よりも細かな被写体の移動を精度良く検出することができる。
【0145】
<(3)変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
【0146】
◎例えば、上述した実施形態では、第1縦移動評価エリアと第2縦移動評価エリアとの組合せについて、対応する横長分割エリア同士の輝度値の差分の絶対値の総和を縦移動−輝度評価値とし、第1横移動評価エリアと第2横移動評価エリアとの組合せについて、対応する縦長分割エリア同士の輝度値の差分の絶対値の総和を横移動−輝度評価値としたが、これに限られるものではなく、例えば、第1縦移動評価エリアと第2縦移動評価エリアとの組合せについて、対応する横長分割エリア同士の輝度値の比の総和を縦移動−輝度評価値とし、第1横移動評価エリアと第2横移動評価エリアとの組合せについて、対応する縦長分割エリア同士の輝度値の比の総和を横移動−輝度評価値としても良い。このとき、対応する各分割エリア同士の輝度値の比を算出する際には、相対的に輝度値が大きい方を分子とし、相対的に輝度値が小さい方を分母とすることによって、詳細に被写体移動量を検出することができる。
【0147】
◎また、上述した実施形態では、輝度評価エリアSE1,SE2を、それぞれ横方向について24個の縦長分割エリアに分割し、縦方向について14個の横長分割エリアに分割したが、これに限られるものではなく、例えば、横方向について25個以上の縦長分割エリアに分割し、縦方向について15個以上の横長分割エリアに分割しても良い。このように、縦横に分割する数を多くすることで、演算に要する時間は長くなる傾向となるが、検出される被写体移動量の精度を向上させることができる。
【0148】
◎また、上述した実施形態では、画像に対して、複数の第1及び第2縦移動輝度評価エリアを相互に1つの横長分割エリア分だけずらして設け、複数の第1及び第2横移動輝度評価エリアを相互に1つの縦長分割エリア分だけずらして設けたが、これに限られるものではなく、例えば、相互に2つ以上の縦及び横長分割エリア分だけずらして設けても良い。また、画像に対して、相互に隣接する位置関係や離隔する位置関係となるように各移動輝度評価エリアを設けるようにしても良い。但し、被写体移動量の検出精度の観点より、各移動輝度評価エリアは相互に少しずつずらして重なり合うように設けるのが好ましい。
【0149】
◎また、上述した実施形態では、各縦長分割エリア内に含まれる全画素の画素値の総和を各縦長分割エリアの輝度値として算出し、各横長分割エリア内に含まれる全画素の画素値の総和を各横長分割エリアの輝度値として算出したが、これに限られるものではなく、例えば、各縦長分割エリア内に含まれる全画素の画素値の平均値を各縦長分割エリアの輝度値として算出し、各横長分割エリア内に含まれる全画素の画素値の平均値を各横長分割エリアの輝度値として算出しても良い。
【0150】
◎また、上述した第1実施形態では、信頼性評価値Cが所定値よりも大きいか否かによって、検出された被写体移動量の信頼性を評価したが、これに限られるものではなく、例えば、縦及び横移動−輝度評価値の最小値が所定値よりも小さい場合に、検出された縦及び横方向への被写体移動量が正確な値、即ち信頼性のある値であるものと評価するようにしても良い。
【0151】
さらに、上述した第2実施形態では、信頼性評価値Cが所定値よりも大きいか否かによって、検出された被写体移動量の信頼性を評価したが、これに限られるものではなく、例えば、図13及び図14に示すように、検出される縦及び横方向への被写体移動量MV,MHに対応する縦及び横移動−輝度評価値YM,XMが所定値よりも小さい場合に、検出された縦及び横方向への被写体移動量MV,MHが正確な値、即ち信頼性のある値であるものと評価するようにしても良い。
【0152】
つまり、縦及び横移動−輝度評価値が所定値よりも小さくなければ、時間的に連続する複数(例えば、2個)の画像において、輝度のパターンがほぼ類似するエリアが存在しないこととなり、このような場合は、被写体の移動を正確に検出できていないものと考えられる。よって、ここでは、上述のような構成とすることによって、縦及び横移動−輝度評価値が所定値よりも小さい場合に、検出された縦及び横方向への被写体移動量が信頼性のある値であるものと評価するため、被写体移動量の誤検出を低減することができる。
【0153】
◎上述した具体的実施形態には以下の構成を有する発明が含まれている。
【0154】
(1) 請求項1に記載の撮像装置であって、前記算出手段が、前記第1評価領域についての輝度値と、前記第2評価領域についての輝度値との差分を前記輝度評価値として算出することを特徴とする撮像装置。
【0155】
(1)に記載の発明によれば、時間的に連続して得られる画像毎に設けられた評価領域の輝度値について、画像間の差分を求め、その差分に基づいて被写体移動量を検出するため、被写体の移動を容易かつ精度良く検出することができる。
【0156】
(2) 請求項2又は請求項3に記載の撮像装置であって、各前記分割領域が、短冊状の形状をした領域であることを特徴とする撮像装置。
【0157】
(2)に記載の発明によれば、分割領域を短冊状の形状をした領域とすることによって、演算速度を向上させることができる。
【0158】
(3) 請求項1から請求項5、(1)、及び(2)のいずれかに記載の撮像装置であって、前記検出手段が、各前記第1評価領域と各前記第2評価領域との組合せのうち、前記輝度評価値が最小となる組合せに係る前記第1評価領域と前記第2評価領域との相対的な位置関係に基づいて前記移動量を検出することを特徴とする撮像装置。
【0159】
(3)に記載の発明によれば、輝度評価値が最小となる評価領域の組合せにおける評価領域の相対的な位置関係に基づいて被写体移動量を検出するため、被写体の移動を確実かつ精度良く検出することができる。
【0160】
(4) (3)に記載の撮像装置であって、前記検出手段が、各前記第1画像評価領域と各前記第2評価領域との組合せのうち、前記輝度評価値が最小となる第1組合せに係る前記第1評価領域と前記第2評価領域との相対的な位置関係に対して、所定の方向及びその逆方向に相対的にずれた位置関係を有する前記第1評価領域と前記第2評価領域との第2及び第3組合せに係る輝度評価値と、前記第1組合せに係る輝度評価値とに基づいて前記被写体移動量を検出することを特徴とする撮像装置。
【0161】
(4)に記載の発明によれば、輝度評価値が最小となる評価領域の組合せと、その組合せに対して所定の方向、及びその逆方向に相対的にずれた位置関係を有する評価領域の組合せとにおける3つの輝度についての評価値に基づいて被写体移動量を検出するため、細かな被写体の移動を精度良く検出することができる。
【0162】
(5) 請求項1から請求項5、及び(1)から(4)のいずれかに記載の撮像装置であって、所定値以上の前記輝度評価値の検出に基づいて前記被写体移動量を信頼性のある値として判別する判別手段、をさらに備えることを特徴とする撮像装置。
【0163】
(5)に記載の発明によれば、所定値以上の輝度評価値の検出に基づいて被写体移動量を信頼性のある値として判別するため、被写体移動量の誤検出を低減することができる。
【0164】
(6) 請求項1から請求項5、及び(1)から(5)のいずれかに記載の撮像装置であって、前記検出手段が、前記撮像装置における撮影準備動作の開始後において前記被写体移動量を検出することを特徴とする撮像装置。
【0165】
(6)に記載の発明によれば、撮影準備動作の開始後において被写体移動量を検出するため、省電力化を図ることができる。
【0166】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、時間的に連続して得られる画像毎に設けられた評価領域についての輝度値を、それらの画像間で評価することによって、被写体移動量を検出するため、被写体の移動を精度良く検出することが可能な撮像装置を提供することができる。
【0167】
また、請求項2に記載の発明によれば、時間的に連続して得られる画像毎に設けられた評価領域についての輝度値を、それらの画像間で評価する際に、評価領域を複数に分割した分割領域毎の輝度値を、それらの画像間で評価するため、被写体移動量をさらに精度良く検出することができる。
【0168】
また、請求項3に記載の発明によれば、時間的に連続する画像間で、評価領域全体を分割して得られる対応する分割領域の組合せ毎に輝度値の差分の絶対値を算出し、それらを足し合わせることで、時間的に連続して得られる画像毎に設けられた評価領域の輝度値を画像間で評価するため、被写体移動量を容易かつさらに精度良く検出することができる。
【0169】
また、請求項4に記載の発明によれば、検出された被写体移動量に基づいて、画像に対して設定される合焦状態を評価するための対象領域の位置を移動させるため、被写体の移動に対応して合焦状態を保持することができる。
【0170】
また、請求項5に記載の発明によれば、検出される被写体移動量に基づいて、画像とともに表示される被写体の位置を示す表示の位置を変更するため、被写体に対する追尾の状況を操作者が把握することができる。
【図面の簡単な説明】
【図1】撮像装置1の内部構成を示すブロック図である。
【図2】ワンショットAF動作におけるAF評価エリアを例示する図である。
【図3】ワンショットAF動作の動作フローを例示するフローチャートである。
【図4】輝度値の算出エリアを例示する図である。
【図5】輝度値の算出エリアを例示する図である。
【図6】輝度値の算出エリアを例示する図である。
【図7】輝度値の算出エリアを例示する図である。
【図8】AF評価エリア及び被写***置を示すポインタの変更の一例を示す図である。
【図9】コンティニュアスAF動作の動作フローを例示するフローチャートである。
【図10】撮影レンズの位置とAF評価値との関係を例示する図である。
【図11】被写体追尾AF動作におけるタイミングチャートである。
【図12】AF動作全体の動作フローを模式的に示すフローチャートである。
【図13】移動量の補間計算を説明するための図である。
【図14】移動量の補間計算を説明するための図である。
【符号の説明】
1,1A 撮像装置
16 液晶表示部(表示手段、変更手段)
21 CCD撮像素子(撮像手段)
30 AF評価値算出部(移動手段)
40,40A 移動量検出部(設定手段、算出手段、検出手段、判別手段)
61 シャッタースタートボタン
70 カメラ制御部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device such as a digital camera.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as an auto-focusing (auto-focusing) technique in an imaging device such as a digital camera, there is a technology that focuses on an area of an image and obtains an evaluation value such as contrast from the area to evaluate the degree of focusing of a subject. Are known. In this case, the photographing lens is driven stepwise to detect the lens position at which the evaluation value becomes maximum, thereby specifying the lens position at which the subject image is in focus and performing autofocus. . In such a technique, in order to accurately evaluate the in-focus state of the subject, it is desired to use an evaluation value having a relatively large degree of change accompanying the driving of the taking lens.
[0003]
When performing autofocus, the subject may move in the image plane during the autofocus operation due to camera shake, subject shake, or the like. For this reason, conventionally, the movement of a subject is also detected by dividing a time-continuous image plane into a plurality of regions and detecting a change in an evaluation value of each region over time. (For example, Patent Document 1). In the movement detection using the evaluation value for autofocus, in order to accurately detect the movement of the subject in the image plane, the movement detection is performed between images for evaluating the movement of the subject due to factors other than the movement of the subject. It is desired that the image change is small.
[0004]
Prior art documents relating to such a technique include the following.
[0005]
[Patent Document 1]
JP 2000-188713 A
[0006]
[Problems to be solved by the invention]
However, since the above-described movement detection is configured to detect the movement of the subject in the image plane using the evaluation value for autofocus, the driving of the photographing lens is performed between the images for evaluating the movement of the subject. That is, the movement of the subject is detected with images having different defocus amounts. For this reason, in the conventional movement detection, a large change in the evaluation value due to a change in the defocus amount occurs as a factor other than the movement of the subject, and there is a problem that the possibility of erroneously detecting the movement of the subject is high.
[0007]
In view of the above, an object of the present invention is to provide an imaging device that can accurately detect the movement of a subject.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 is an imaging apparatus, comprising: an imaging unit configured to acquire first and second images that are temporally continuous; Setting means for setting one evaluation area and setting a second evaluation area for the second image; a luminance value for the first evaluation area; and a luminance value for the second evaluation area. And a detecting means for detecting a moving amount of the subject based on the luminance evaluation value.
[0009]
The invention according to claim 2 is the imaging device according to claim 1, wherein the calculation unit is configured to determine a luminance value for each of the first divided areas obtained by dividing the first evaluation area into a plurality of pieces, The luminance evaluation value is calculated based on a luminance value for each of the second divided regions obtained by dividing the evaluation region into a plurality.
[0010]
According to a third aspect of the present invention, in the imaging apparatus according to the second aspect, the calculating unit determines, for each combination of the first evaluation area and the second evaluation area, for each of the first divided areas. And a sum of absolute values of differences between the luminance values of the first and second divided areas corresponding to the first divided areas is calculated as the luminance evaluation value.
[0011]
According to a fourth aspect of the present invention, there is provided the image pickup apparatus according to any one of the first to third aspects, wherein an image set by the image pickup means is set based on the movement amount. It is characterized by further comprising moving means for moving the focus evaluation area.
[0012]
According to a fifth aspect of the present invention, there is provided the imaging apparatus according to any one of the first to fourth aspects, wherein the display unit displays a position display indicating the position of the subject together with the image acquired by the imaging unit. And changing means for changing the position of the position display with respect to the image based on the movement amount.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0014]
<(1) First Embodiment>
<Functional configuration of imaging device 1>
FIG. 1 is a block diagram showing an internal configuration of an imaging device (digital camera) 1 according to the first embodiment of the present invention. As shown in FIG. 1, the imaging apparatus 1 mainly includes a photographing lens 11, a photographing function unit 3, an AF evaluation value calculation unit 30, a movement amount detection unit 40, a lens driving unit 50, an operation unit 60, and a camera control unit. 70.
[0015]
The taking lens 11 forms an optical image of a subject on the CCD image sensor 21. The taking lens 11 includes a lens system that can be driven along the optical axis direction. Then, by driving the lens system in the optical axis direction, a focused state of a subject image formed on the CCD image sensor 21 can be realized.
[0016]
The CCD image sensor (hereinafter, abbreviated as “CCD”) 21 has 2560 × 1920 pixels, and converts light images of a subject formed by the photographing lens 11 into R (red), G (green), and B ( The image signal is photoelectrically converted into an image signal of a blue (blue) color component (a signal composed of a signal sequence of pixel signals received by each pixel) and output. Here, a process of forming a light image of a subject on the CCD 21 and accumulating a charge signal by photoelectric conversion (hereinafter, referred to as “imaging process”) is performed, and the charge signal (image signal) is sequentially read from the CCD 21. Issued and output. Then, an image signal (image) output from the CCD 21 is given to the A / D converter 22.
[0017]
In addition, the driving method (readout mode) of the CCD 21 includes two modes: a draft mode and a main shooting mode.
[0018]
The draft mode is a reading mode for generating an image for live view display as a preview before shooting (hereinafter, referred to as “main shooting”) for acquiring an image and storing the image in the memory card 9 or the like. This is applied at the time of so-called live view display. Generally, signal reading from the CCD 21 is performed for each horizontal line. For this reason, in the draft mode, when pixel signals for each horizontal line are read from the CCD 21 having 2560 pixels in the horizontal direction and 1920 pixels in the vertical direction, the CCD 21 is driven so as to read one line out of eight lines. That is, in the draft mode, the 1920 horizontal lines are read out in a state where they are thinned out by 1/8. As a result, the image output from the CCD 21 in the draft mode has 2560 × 240 pixels.
[0019]
Further, the main photographing mode is a mode in which an image signal is read out for the whole frame, that is, for all pixels of 2560 × 1920. Then, the timing generator 27 controls the drive timing of the CCD 21 in the designated mode among these read modes.
[0020]
The timing generator 27 generates various timing pulses for controlling driving of the CCD 21, and generates a driving control signal of the CCD 21 based on a reference clock transmitted from the camera control unit 70. The timing generator 27 generates, for example, clock signals such as integration start / end (exposure start / end) timing signals and readout control signals (horizontal synchronizing signal, vertical synchronizing signal, transfer signal, etc.) of the light receiving signal of each pixel. , To the CCD 21.
[0021]
Then, the image signal output from the CCD 21 is given to the A / D converter 22. For example, in a state where the live view display is performed before the actual photographing (hereinafter, referred to as a “live view display state”), the A / D is transmitted from the CCD 21 every 1/30 second based on the drive control signal from the timing generator 27. An image signal (2560 × 240 pixels) is input to the converter 22. That is, the CCD 21 acquires a temporally continuous image (frame) every 1/30 second.
[0022]
The A / D converter 22 converts an image signal (analog signal) output from the CCD 21 into, for example, a 10-bit digital signal (digital data) per pixel. At the time of actual photographing, an image signal (image data) output from the A / D converter 22 is transmitted only to the image processing unit 23. On the other hand, in the live view display state, the image data (image) output from the A / D converter 22 in a state in which the AF operation performed before the actual shooting is performed (hereinafter, referred to as an “AF execution state”) is In addition to being transmitted to the image processing unit 23, it is also transmitted to the AF evaluation value calculation unit 30 and the movement amount detection unit 40.
[0023]
The image processing unit 23 is a unit that performs image processing such as white balance (WB) adjustment, γ correction, and color interpolation on image data. Then, the image data output from the image processing unit 23 is guided to the resolution conversion unit 24.
[0024]
The resolution conversion unit 24 is a unit that performs predetermined resolution conversion on image data obtained from the CCD 21 and converted into digital data by the A / D converter 22. For example, in the live view display state, the resolution conversion unit 24 performs a predetermined resolution conversion on the image data input from the CCD 21. As a result, the resolution conversion unit 24 generates image data having an image size suitable for the number of display pixels (320 × 240) of the liquid crystal display unit 16. In other words, in the live view display state, the resolution conversion unit 24 performs 1/8 thinning in the horizontal direction on the image having 2560 × 240 pixels thinned out in the vertical direction by 1/8 in the CCD 21 to obtain 320 × 240 pixels. A live view image having a number of pixels is generated. At the time of the actual photographing, the resolution conversion unit 24 outputs the image data (2560 × 1920 pixels) obtained from the image processing unit 23 to the image compression unit 26 without performing the resolution conversion process.
[0025]
The image memory 25 is a memory that temporarily stores image data obtained by the CCD 21 and subjected to the above-described image processing. The image memory 25 has a storage capacity of at least several frames. That is, the image memory 25 has at least a storage capacity capable of storing pixel data of 2560 × 1920 pixels corresponding to the number of pixels of the CCD 21 for several frames, and each pixel data is stored in a corresponding pixel position. It has become.
[0026]
The image compression unit 26 performs an image compression process on an image (2560 × 1920 pixels) obtained by the main photographing using a predetermined compression method. Then, the image data (recorded image) subjected to the image compression is output from the image compression unit 26 and stored in the memory card 9.
[0027]
The liquid crystal display unit 16 is configured by a general liquid crystal display or the like, and has 320 × 240 display pixels. In the live view display state, the live view images input from the resolution conversion unit 24 for 30 frames per second are sequentially displayed on the liquid crystal display unit 16. At the time of actual shooting, an after-view image related to an image shot immediately after shooting is displayed on the liquid crystal display unit 16.
[0028]
The AF evaluation value calculation unit 30 acquires an image signal (image) input from the A / D converter 22 in the AF execution state, and performs photographing in the same manner as a general contrast type (hill-climbing type) AF operation. It calculates an evaluation value (hereinafter, referred to as an “AF evaluation value”) related to the in-focus state of the lens 11, and transmits data indicating the calculated AF evaluation value to the camera control unit 70. The method of calculating the AF evaluation value will be described later.
[0029]
The movement amount detection unit 40 acquires an image signal (image) input from the A / D converter 22, and determines the movement amount of the subject based on a change in luminance value between temporally consecutive images (frames). (Object movement amount), and transmits data indicating the detected object movement amount to the camera control unit 70.
[0030]
The operation unit 60 includes various buttons for performing various settings of the imaging apparatus 1, a shutter start button (hereinafter, abbreviated as “shutter button”) 61, and the like. Is transmitted to the camera control unit 70.
[0031]
The shutter button 61 is a two-stage switch capable of detecting a half-pressed state (hereinafter, referred to as “S1 state”) and a pressed state (hereinafter, referred to as “S2 state”). When the shutter button 61 is set to the S1 state in the live view display state, the state shifts to the AF execution state, the lens driving for the AF operation is started, and the preparation operation before the main photographing including the AF operation and the like (hereinafter, “preparation for photographing”) Operation).
[0032]
In the initial stage of this AF operation, first, a general contrast type AF operation (so-called “one-shot AF operation”) for driving the photographing lens 11 to the in-focus position is performed, and then the shutter button 61 is set to S2. An AF operation (so-called “continuous AF operation”) that keeps the object in focus until the state is reached is performed. Then, when the shutter button 61 is set to the S2 state, the AF operation is stopped, the position of the photographing lens 11 is fixed, and the image data obtained by the CCD 21 and subjected to image processing is subjected to data compression by the image compression unit 26 to be generated. The stored image data is stored in the memory card 9.
[0033]
The camera control unit 70 mainly includes a CPU, a ROM, a RAM, and the like. The camera control unit 70 performs overall control of each unit in the imaging apparatus 1. The CPU executes various programs and controls by executing a predetermined program. And so on.
[0034]
For example, the camera control unit 70 has a function of controlling the AF operation, and in conjunction with the timing generator 27, controls the lens driving unit 50 to drive the lens position of the photographing lens 11 stepwise during the AF operation. At the same time, control is performed so that an image is acquired by the CCD 21 at each lens position. At this time, the camera control unit 70 controls the AF evaluation value calculation unit 30 to calculate an AF evaluation value for an AF evaluation area (described later) set for an image acquired at each lens position. Then, the in-focus position of the photographing lens 11 is detected based on the AF evaluation value calculated here, and the photographing lens 11 is controlled to be driven to the in-focus position via the lens driving unit 50. AF operations including the one-shot AF operation and the continuous AF operation will be further described later.
[0035]
Further, the camera control unit 70 changes the position of the AF evaluation area set for the image in the AF evaluation value calculation unit 30 based on the data indicating the moving amount of the subject input from the moving amount detection unit 40. To control. That is, after the shutter button 61 is half-pressed by the operator to enter the S1 state, the position of the AF evaluation area is changed in accordance with the movement of the subject until the shutter button 61 is fully pressed to enter the S2 state. A continuous AF operation is performed. That is, here, an operation of continuously realizing the in-focus state while tracking the subject (hereinafter, referred to as “subject tracking AF operation”) is performed. Changing the position of the AF evaluation area will be further described later.
[0036]
The lens driving unit 50 is a driving unit for driving the photographing lens 11 back and forth along the optical axis in response to a command from the camera control unit 70, and changes a focusing state of a subject image formed on the CCD 21. It is to let.
[0037]
<About AF operation>
As described above, in the live view display state, when the operator enters the S1 state by half-pressing the shutter button 61, the one-shot AF operation is performed first, and the photographing lens 11 is moved to the in-focus position. Drive. Thereafter, an object tracking AF operation is performed to keep the in-focus state while tracking the object.
[0038]
Hereinafter, the one-shot AF operation and the subject tracking AF operation will be described.
[0039]
<One-shot AF operation>
FIG. 2 is a diagram illustrating an AF evaluation area set for the image G in the one-shot AF operation. In FIG. 2, in order to make it easy to understand the correspondence with the pixel positions in the CCD 21, the image G is enlarged by 8 times in the vertical direction, which is the direction in which the CCD 21 is thinned out by 1/8. In FIG. 2 and subsequent figures, two axes of X and Y are added as necessary to clarify the relationship between the horizontal direction and the vertical direction with respect to the image.
[0040]
As shown in FIG. 2, in the one-shot AF operation, the AF evaluation value calculation unit 30 outputs a signal to the vicinity of the center of the image G sequentially and continuously input from the A / D converter 22 every 1/30 seconds. An area (AF evaluation area) AE for calculating an AF evaluation value is set.
[0041]
The AF evaluation value calculation unit 30 corresponds to the AF evaluation area AE having 384 × 28 pixels near the center of the image G having 2560 × 240 pixels input from the A / D converter 22. Get image data. Then, in a manner similar to that performed in the general AF operation of the contrast method, a plurality of pieces of image data in the AF evaluation area AE are acquired while driving the photographing lens 11. Then, the AF evaluation value calculation unit 30 obtains an evaluation value (AF evaluation value) related to the focusing state of the photographing lens 11 based on the acquired image (image data) in the AF evaluation area AE. The AF evaluation value is obtained as a sum of contrast values in the AF evaluation area AE, similarly to the AF evaluation value obtained in a general contrast type AF operation.
[0042]
FIG. 3 is a flowchart illustrating an operation flow of the one-shot AF operation. The operation flow of the one-shot AF operation is controlled by the camera control unit 70. First, in the live view display state, when the operator half-presses the shutter button 61 to enter the S1 state, the one-shot AF operation starts, and the process proceeds to step S1.
[0043]
In step S1, the photographing lens 11 is minutely driven from the initial position to determine the driving direction, and the process proceeds to step S2. Here, the photographing lens 11 is minutely driven from the initial position, and the driving direction of the photographing lens 11 at which the AF evaluation value calculated for the AF evaluation area AE increases is determined as the driving direction in step S2.
[0044]
In step S2, a general hill-climbing AF operation is performed for the driving direction determined in step S1, and the process proceeds to step S3. Here, an image is acquired while driving the photographing lens 11 at a predetermined pitch in the driving direction determined in step S2, and an AF evaluation value is calculated based on image data in the AF evaluation area AE, and the AF evaluation value is calculated. The driving of the photographing lens 11 is continued until the value begins to decrease. That is, when the AF evaluation value starts to decrease, the driving of the photographing lens 11 is stopped.
[0045]
In step S3, the in-focus position of the photographing lens 11 is calculated, and the process proceeds to step S4. Here, the maximum value Yn of the AF evaluation values calculated in step S2, the AF evaluation values Yn-1, Yn + 1 before and after the maximum value Yn, and the lenses of the photographing lens 11 corresponding to those AF evaluation values Yn-1, Yn, Yn + 1 Using the position, the lens position of the photographing lens 11 at which the AF evaluation value becomes the maximum is calculated as the focus position by quadratic interpolation approximation calculation (calculation by quadratic curve approximation).
[0046]
In step S4, the photographing lens 11 is driven to the in-focus position calculated in step S3, and the one-shot AF operation ends.
[0047]
In the present invention, a continuous AF operation in which the AF operation is always continued even after the one-shot AF operation is continuously performed.
[0048]
<Subject tracking AF operation>
<Detection of object movement amount>
After the end of the one-shot AF operation, the movement amount detection unit 40 detects a subject movement amount by evaluating a change in luminance value of an image that is temporally and continuously input from the A / D converter 22.
[0049]
FIGS. 4 to 7 show calculation areas (hereinafter, referred to as “brightness evaluation”) of the brightness values set for the first and second images G1 and G2 acquired successively in time by the movement amount detection unit 40. It is a figure which illustrates SE1 and SE2. 4 to 7, similarly to FIG. 2, in order to make it easy to understand the correspondence between the positions of the pixels on the CCD 21 and the luminance evaluation areas SE1 and SE2 in the vertical direction which is the 1/8 thinned-out direction on the CCD 21. Is enlarged by 8 times.
[0050]
Here, as shown in FIGS. 4 to 7, the luminance evaluation areas SE1 and SE2 are set to the same position and the same size (384 × 28 pixels) as the AF evaluation area AE. Then, as shown in FIGS. 4 to 7, in the movement amount detection unit 40, the luminance evaluation areas SE1 and SE2 are 24 vertically elongated rectangular shapes having the same shape and size, respectively (hereinafter, referred to as “areas”). , Which are referred to as “vertical division areas”) A1 to A24, B1 to B24 (16 × 28 pixels), and 14 horizontally elongated rectangular areas having the same shape and size (hereinafter, “horizontal division area”). ) C1 to C14 and D1 to D14 (384 × 2 pixels).
[0051]
The vertically long divided areas A1 to A24 and B1 to B24 are areas for detecting the amount of movement of the subject in the horizontal direction (X direction), and the horizontally long divided areas C1 to C14 and D1 to D14 are in the vertical direction (Y This is an area for detecting the amount of movement of the subject in the direction ()).
[0052]
Hereinafter, the detection of the amount of movement of the subject by the movement amount detection unit 40 will be specifically described with reference to the detection of the amount of movement of the object in the vertical and horizontal directions.
[0053]
<Detection of object movement amount in horizontal direction>
First, the movement amount detection unit 40 sets a plurality of areas (hereinafter, also referred to as a “first horizontal movement evaluation area”) including 22 vertically long divided areas adjacent to each other in the luminance evaluation area SE1, and sets the luminance. In the evaluation area SE2, a plurality of areas (hereinafter, also referred to as “second horizontal movement evaluation areas”) including 22 vertically long divided areas adjacent to each other are set.
[0054]
In other words, the movement amount detection unit 40 determines a relative positional relationship between the first image G1 and the second image G2 acquired successively in time with respect to the first image G1. A plurality of first horizontal movement evaluation areas that share a part of the vertically long divided area with each other, and have a relative positional relationship with respect to the second image G2 that is shifted from each other; In addition, a plurality of second horizontal movement evaluation areas that share a part of the vertically long divided areas are set. Also, here, the first and second lateral movement evaluation areas set for each image have the same shape and size.
[0055]
Specifically, in the luminance evaluation area SE1, a first horizontal movement evaluation area including 22 vertically elongated divided areas A1 to A22 adjacent to each other, and a second horizontal movement evaluation area including 22 vertically elongated divided areas A2 to A23 adjacent to each other. One horizontal movement evaluation area is set, and a first horizontal movement evaluation area including 22 vertically long divided areas A3 to A24 adjacent to each other is set. In the luminance evaluation area SE2, a second horizontal movement evaluation area including 22 vertically long divided areas B1 to B22 adjacent to each other, and a second horizontal movement including 22 vertically long divided areas B2 to B23 adjacent to each other. An evaluation area, a second horizontal movement evaluation area including 22 vertically long divided areas B3 to B24 adjacent to each other is set.
[0056]
Then, the movement amount detection unit 40 determines the luminance values AY (1) to AY (24) and BY (1) to BY (24) for each of the vertically long divided areas A1 to A24 and B1 to B24 shown in FIGS. Is calculated respectively. For example, the movement amount detection unit 40 calculates the luminance values AY (1) to AY (24) and BY (1) to BY (24) for all pixels included in each of the vertically long divided areas A1 to A24 and B1 to B24. Is calculated as the form of the sum of the pixel values (luminance values).
[0057]
Further, the movement amount detection unit 40 determines, for each combination of each first lateral movement evaluation area and each second lateral movement evaluation area, the relative position in each first lateral movement evaluation area and the relative position in each second lateral movement evaluation area. The vertical length divided area having the same position as the corresponding vertical length divided area is set as the corresponding vertical length divided area, and the absolute value of the difference of the luminance value between each corresponding vertical elongated divided area is added, and the luminance for detecting the moving amount of the subject in the horizontal direction is added. Evaluation values PAT1 to PAT5 (hereinafter, also referred to as “lateral movement-luminance evaluation value”) are calculated.
[0058]
That is, for each combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area, the movement amount detection unit 40 determines the luminance value for each vertically long divided area (first divided area) and the corresponding vertically long divided area ( The sum of the absolute values of the differences between the luminance values for each of the second divided regions is calculated as the lateral movement-luminance evaluation values PAT1 to PAT5. That is, the movement amount detection unit 40 performs the horizontal movement-luminance evaluation based on the luminance value for each vertically long divided area (first divided area) and the luminance value for each corresponding vertically long divided area (second divided area). The values PAT1 to PAT5 are calculated. From another viewpoint, the movement amount detection unit 40 calculates a difference between the luminance value of the first lateral movement evaluation area and the luminance value of the second lateral movement evaluation area as a lateral movement-luminance evaluation value. I do. That is, the movement amount detection unit 40 calculates a lateral movement-luminance evaluation value based on the luminance value of the first lateral movement evaluation area and the luminance value of the second lateral movement evaluation area.
[0059]
Specifically, the lateral movement-luminance evaluation values PAT1 to PAT5 are calculated according to the following equations (1) to (5).
[0060]
PAT1 = Σ | AY (m) −BY (m) | (1)
PAT2 = Σ | AY (m) −BY (m−1) | (2)
PAT3 = Σ | AY (m) −BY (m + 1) | (3)
PAT4 = Σ | AY (m + 1) −BY (m−1) | (4)
PAT5 = Σ | AY (m−1) −BY (m + 1) | (5).
[0061]
In the formulas (1) to (5), m is a natural number, m-1 is 1 to 22, m is 2 to 23, and m + 1 is 3 to 24.
[0062]
In the equations (1) to (5), in the two images G1 and G2 which are temporally continuous, the first horizontal movement evaluation area and the second horizontal movement evaluation area are arranged at a pitch of 16 pixels in the horizontal direction in terms of the number of pixels of the CCD 21. The similarity of the luminance pattern is calculated between the horizontal movement evaluation area and the evaluation area. In the following, when the amount of movement of the subject is represented by the number of pixels, it is represented by being converted into the number of pixels of the CCD 21. Then, the moving amount of the subject in the horizontal direction is obtained by utilizing the property that the higher the similarity of the luminance pattern is, the smaller the horizontal movement-luminance evaluation value is.
[0063]
That is, of the combinations of the first lateral movement evaluation areas and the second lateral movement evaluation areas, the combination of the first lateral movement evaluation area and the second lateral movement evaluation area with the smallest lateral movement-luminance evaluation value is described. , The luminance patterns in the areas are the most similar. Then, it can be determined that the first and second lateral movement evaluation areas related to such a combination include the same subject. Therefore, for a combination of the first lateral movement evaluation area and the second lateral movement evaluation area having the smallest lateral movement-luminance evaluation value, the relative positional relationship between the evaluation areas is detected as the amount of lateral movement of the subject. I do. That is, the movement amount detection unit 40 detects the amount of movement of the subject in the horizontal direction based on the plurality of horizontal movement-luminance evaluation values PAT1 to PAT5.
[0064]
Specifically, the movement amount detection unit 40 selects one of the lateral movement-luminance evaluation values PAT1 to PAT5.
{Circle around (1)} When the luminance evaluation value PAT1 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 0 pixels,
{Circle around (2)} Horizontal movement—When the luminance evaluation value PAT2 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 16 pixels to the left (−X direction).
{Circle around (3)} Horizontal movement—When the luminance evaluation value PAT3 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 16 pixels to the right (+ X direction),
{Circle around (4)} Horizontal movement—When the luminance evaluation value PAT4 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 32 pixels to the left (−X direction),
{Circle around (5)} Horizontal movement—When the luminance evaluation value PAT5 is the minimum, the amount of movement of the object in the horizontal direction is detected as 32 pixels to the right (+ X direction).
[0065]
As described above, the movement amount detection unit 40 determines the first lateral movement evaluation area and the second lateral movement related to the combination of the first lateral movement evaluation area and the second lateral movement evaluation area that minimize the lateral movement-luminance evaluation value. The amount of movement of the subject in the horizontal direction is detected based on the relative positional relationship between the evaluation areas. In other words, here, a luminance value that does not easily fluctuate due to a change in the defocus amount due to the driving of the photographing lens 11 by the AF operation is used, and an area having a similar luminance pattern in an image acquired continuously over time is used for the same subject. Is detected as an area in which the object exists, and the amount of movement of the subject in the horizontal direction is detected. As a result, it is possible to reliably and accurately detect the amount of movement of the subject in the horizontal direction.
[0066]
Note that, as described above, the lateral movement-luminance evaluation value is not a value relating to the contrast of an image directly used in focusing control in the AF operation. That is, the value relating to the contrast (for example, the AF evaluation value) here is the difference in luminance between the region of interest and its surrounding region for one image (in other words, the spatial change in luminance within the image). The brightness evaluation value (for example, the lateral movement-brightness evaluation value) used in this embodiment corresponds to the brightness value in the target area of “one image” and the brightness value in the “other image”. This value reflects the difference from the luminance value of the region to be changed (in other words, the difference in luminance between “images”).
[0067]
The amount of movement of the object in the horizontal direction is detected as described above. Here, for example, the sum of the luminance values of all the pixels in the first horizontal movement evaluation area and the luminance of all the pixels in the second horizontal movement evaluation area Assuming that the difference from the sum of the values is calculated as the lateral movement evaluation values PAT1 to PAT5, the change in the luminance pattern in the first and second lateral movement evaluation areas of a large size is averaged, and the luminance pattern The change cannot be correctly reflected on the lateral movement-luminance evaluation values PAT1 to PAT5.
[0068]
Therefore, in the imaging apparatus 1, for each combination of the first horizontal movement evaluation area and each second horizontal movement evaluation area, the absolute value of the difference in luminance value between the corresponding vertically long divided areas is added, and the horizontal movement-luminance is calculated. It is calculated as evaluation values PAT1 to PAT5. Therefore, the horizontal movement-luminance evaluation values PAT1 to PAT5 can be calculated in a manner that reflects the change in luminance between the vertically-long divided areas of a small size, so that a detailed and accurate change in the luminance pattern can be grasped. Can be. As a result, the reliability of the calculated lateral movement-luminance evaluation values PAT1 to PAT5 can be improved, and the finally detected lateral movement amount of the subject in the horizontal direction can be easily and more accurately detected. .
[0069]
<Detection of vertical movement of subject>
The detection of the moving amount of the subject in the vertical direction is the same as the detection of the moving amount of the subject in the horizontal direction described above, but will be described in detail below.
[0070]
First, the movement amount detection unit 40 sets a plurality of areas (hereinafter, also referred to as a “first vertical movement evaluation area”) including 12 horizontally long divided areas adjacent to each other in the luminance evaluation area SE1, and sets the luminance. In the evaluation area SE2, a plurality of areas (hereinafter, also referred to as “second vertical movement evaluation areas”) including 12 horizontally long divided areas adjacent to each other are set.
[0071]
In other words, the movement amount detection unit 40 determines a relative positional relationship between the first image G1 and the second image G2 acquired successively in time with respect to the first image G1. A plurality of first vertical movement evaluation areas that share a part of the horizontally long divided area with each other, and have a relative positional relationship with respect to the second image G2 that is shifted from each other; In addition, a plurality of second vertical movement evaluation areas sharing a part of the horizontally long divided area are set. Here, the first and second vertical movement evaluation areas set for each image have the same shape and size, respectively.
[0072]
Specifically, in the luminance evaluation area SE1, a first vertical movement evaluation area including 12 horizontally long divided areas C1 to C12 adjacent to each other, and a second vertical movement evaluation area including 12 horizontally long divided areas C2 to C13 adjacent to each other. A first vertical movement evaluation area including one vertical movement evaluation area and twelve horizontally long divided areas C3 to C14 adjacent to each other is set. In the luminance evaluation area SE2, a second vertical movement evaluation area including twelve horizontally long divided areas D1 to D12 adjacent to each other, and a second vertical movement including twelve horizontally long divided areas D2 to D13 adjacent to each other. An evaluation area, a second vertical movement evaluation area including 12 horizontally long divided areas D3 to D14 adjacent to each other is set.
[0073]
Then, the movement amount detection unit 40 determines the luminance values CY (1) to CY (14) and DY (1) to DY (14) for each of the horizontally long divided areas C1 to C14 and D1 to D14 shown in FIGS. Is calculated respectively. For example, the movement amount detection unit 40 determines each of the luminance values CY (1) to CY (14) and DY (1) to DY (14) in each of the horizontally long divided areas C1 to C14 and D1 to D14. Is calculated as the form of the sum of the pixel values (luminance values).
[0074]
Further, the movement amount detection unit 40 determines the relative position in each first vertical movement evaluation area and the relative position in each second vertical movement evaluation area for the combination of each first vertical movement evaluation area and each second vertical movement evaluation area. The horizontal divided area having the same horizontal position is defined as the corresponding horizontal divided area, and the absolute value of the difference between the luminance values of the corresponding horizontal divided areas is added to detect the amount of movement of the subject in the vertical direction. Evaluation values (hereinafter, also referred to as “vertical movement-luminance evaluation value”) PAT6 to PAT10 are calculated.
[0075]
That is, for each combination of the first vertical movement evaluation area and the second vertical movement evaluation area, the movement amount detection unit 40 determines the luminance value for each horizontally divided area (first divided area) and the corresponding horizontally long divided area (first divided area). The sum of the absolute values of the differences between the luminance values for each of the second divided regions is calculated as the vertical movement-luminance evaluation values PAT6 to PAT10. That is, the movement amount detection unit 40 performs the vertical movement-luminance evaluation based on the luminance value for each horizontally long divided area (first divided area) and the luminance value for each corresponding horizontally long divided area (second divided area). The values PAT6 to PAT10 are calculated. From another viewpoint, the movement amount detection unit 40 calculates a difference between the luminance value of the first vertical movement evaluation area and the luminance value of the second vertical movement evaluation area as a vertical movement-luminance evaluation value. I do. That is, the movement amount detection unit 40 calculates the vertical movement-brightness evaluation value based on the luminance value of the first vertical movement evaluation area and the luminance value of the second vertical movement evaluation area.
[0076]
Specifically, the vertical movement-luminance evaluation values PAT6 to PAT10 are calculated according to the following equations (6) to (10).
[0077]
PAT6 = Σ | CY (m) −DY (m) | (6)
PAT7 = Σ | CY (m) −DY (m−1) | (7)
PAT8 = Σ | CY (m) −DY (m + 1) | (8)
PAT9 = Σ | CY (m + 1) −DY (m−1) | (9)
PAT10 = Σ | CY (m−1) −DY (m + 1) | (10).
[0078]
In the expressions (6) to (10), a natural number is applied to m, 1 to 12 is applied to m-1, 2 to 13 is applied to m, and 3 to 14 is applied to m + 1.
[0079]
In the expressions (6) to (10), in the two images G1 and G2 that are temporally continuous, the first vertical movement evaluation area and the second vertical movement evaluation area which are arranged in the vertical direction at a pitch of 16 pixels in terms of the number of pixels of the CCD 21 The similarity of the luminance pattern is calculated for the vertical movement evaluation area. Then, the moving amount of the subject in the vertical direction is obtained by using the property that the higher the similarity of the luminance pattern is, the smaller the vertical movement-luminance evaluation value is.
[0080]
That is, of the combinations of the first vertical movement evaluation areas and the second vertical movement evaluation areas, the combination of the first vertical movement evaluation area and the second vertical movement evaluation area with the smallest vertical movement-luminance evaluation value Are similar in luminance pattern in the area. Then, it can be determined that the first and second vertical movement evaluation areas related to such a combination include the same subject. Therefore, for a combination of the first vertical movement evaluation area and the second vertical movement evaluation area having the smallest vertical movement-luminance evaluation value, the relative positional relationship between the evaluation areas is detected as the amount of subject movement in the vertical direction. I do. That is, the movement amount detection unit 40 detects the object movement amount in the vertical direction based on the plurality of vertical movement-luminance evaluation values PAT6 to PAT10.
[0081]
Specifically, the movement amount detection unit 40 selects one of the vertical movement-luminance evaluation values PAT6 to PAT10.
(1) Vertical movement-When the luminance evaluation value PAT6 is the minimum, the moving amount of the subject in the vertical direction is detected as 0 pixels,
{Circle around (2)} Vertical movement—When the luminance evaluation value PAT7 is the minimum, the vertical movement of the subject is detected as 16 pixels upward (+ Y direction),
{Circle around (3)} Vertical movement—When the luminance evaluation value PAT8 is the minimum, the amount of movement of the subject in the vertical direction is detected as 16 pixels downward (−Y direction),
{Circle around (4)} Vertical movement—When the luminance evaluation value PAT9 is the minimum, the amount of movement of the subject in the vertical direction is detected upward (+ Y direction) as 32 pixels,
{Circle around (5)} Vertical movement—When the luminance evaluation value PAT10 is the minimum, the amount of movement of the subject in the vertical direction is detected as 32 pixels downward (−Y direction).
[0082]
As described above, the movement amount detection unit 40 determines the first vertical movement evaluation area and the second vertical movement relating to the combination of the first vertical movement evaluation area and the second vertical movement evaluation area with the minimum vertical movement-luminance evaluation value. The amount of movement of the subject in the vertical direction is detected based on the relative positional relationship between the evaluation areas. In other words, here, a luminance value that does not easily fluctuate due to a change in the defocus amount due to the driving of the photographing lens 11 by the AF operation is used, and an area having a similar luminance pattern in an image acquired continuously over time is used for the same subject. Is regarded as an area in which the object exists, and the moving amount of the subject in the vertical direction is detected. As a result, the amount of movement of the subject in the vertical direction can be reliably and accurately detected. As described above, the vertical movement-brightness evaluation value, like the horizontal movement-brightness evaluation value, is not a value related to the contrast of an image directly used in focusing control in the AF operation.
[0083]
The amount of movement of the subject in the vertical direction is detected as described above. Here, for example, the sum of the luminance values of all the pixels in the first vertical movement evaluation area and the luminance of all the pixels in the second vertical movement evaluation area Assuming that the difference from the sum of the values is calculated as the vertical movement evaluation values PAT6 to PAT10, the change in the luminance pattern in the first and second vertical movement evaluation areas having a large size is averaged, and the luminance pattern of the luminance pattern is averaged. The change cannot be correctly reflected on the vertical movement evaluation values PAT6 to PAT10.
[0084]
Therefore, in the imaging apparatus 1, for the combination of each first vertical movement evaluation area and each second vertical movement evaluation area, the absolute value of the difference in luminance value between the corresponding horizontally long divided areas is added, and the vertical movement is calculated. Calculated as luminance evaluation values PAT6 to PAT10. Therefore, the vertical movement-luminance evaluation values PAT6 to PAT10 can be calculated in a manner that reflects the change in luminance between the horizontally-long divided areas of a small size, so that a detailed and accurate change in the luminance pattern can be grasped. it can. As a result, the reliability of the calculated vertical movement-luminance evaluation values PAT6 to PAT10 can be improved, and the finally detected moving amount of the subject in the vertical direction can be easily and more accurately detected. .
[0085]
Further, as described above, the movement amount detection unit 40 divides the luminance evaluation areas SE1 and SE2 into 24 vertically long divided areas and 14 horizontally long divided areas, and calculates the moving amount of the subject in the vertical and horizontal directions. Detected. Here, it is also possible to divide the luminance evaluation areas SE1 and SE2 vertically and horizontally into 14 × 24 blocks instead of dividing them into strip-shaped areas, and evaluate the change in luminance value between images for each block. It is possible to detect the moving amount of the subject with the same accuracy. However, when the image is divided into 14 × 24 blocks, a calculation regarding the luminance value must be performed for a total of 336 blocks, and it takes a long time to calculate the amount of movement of the subject. Therefore, the imaging apparatus 1 simply divides the luminance evaluation areas SE1 and SE2 into 24 strip-shaped vertically divided areas and 14 strip-shaped horizontally divided areas, and calculates a luminance value for a total of 38 areas. , The amount of movement of the subject in the vertical and horizontal directions can be detected. As a result, the calculation speed for detecting the moving amount of the subject can be improved.
[0086]
<Evaluation of reliability of object movement>
Further, the movement amount detection unit 40 has a reliability evaluation function for verifying whether or not the object movement amounts in the vertical and horizontal directions detected as described above are accurate.
[0087]
As described above, the detection of the amount of movement of the subject in the vertical and horizontal directions uses the luminance value having a small degree of change due to the driving of the lens, thereby reducing erroneous detection when detecting the amount of movement of the subject. However, when the contrast of the image acquired by the CCD 21 is extremely low, the difference between the vertical movement-luminance evaluation values PAT6 to PAT10 and the difference between the horizontal movement-luminance evaluation values PAT1 to PAT5 are small, and the object movement amount is erroneously detected. The possibility exists.
[0088]
Therefore, in order to prevent the erroneous detection as described above, the moving amount detection unit 40 verifies whether or not the moving amount of the subject detected as described above is accurate by the reliability evaluation function. Specifically, when the maximum value (hereinafter, referred to as a “reliability evaluation value”) C of the lateral movement-luminance evaluation values PAT1 to PAT5 is larger than a predetermined value, the temporally continuous It can be said that there is some contrast. Therefore, when the reliability evaluation value C is larger than the predetermined value, the moving amount detection unit 40 determines that the detected moving amount of the subject in the horizontal direction is an accurate value.
[0089]
Similarly, when the maximum value (reliability evaluation value) C of the vertical movement-luminance evaluation values PAT6 to PAT10 is larger than a predetermined value, the subject moving amount in the vertical direction is also temporally continuous. It can be said that a certain degree of contrast exists in the image. Therefore, when the reliability evaluation value C is larger than the predetermined value, the moving amount detection unit 40 determines that the detected moving amount of the subject in the vertical direction is an accurate value.
[0090]
If both the vertical and horizontal reliability evaluation values C are larger than a predetermined value, the movement amount detection unit 40 determines that the detected object movement amount is an accurate value, and determines that. The data is transmitted to the camera control unit 70. That is, here, the movement amount detection unit 40 determines the object movement amount as a reliable value based on the detection of the vertical movement-brightness evaluation value and the horizontal movement-brightness evaluation value that are equal to or more than a predetermined value. As a result, erroneous detection of the object movement amount can be reduced.
[0091]
<Change of AF evaluation area setting>
FIG. 8 is a diagram exemplifying the change of the AF evaluation area AE and the pointer indicating the subject position. FIG. 8A shows the image G1 immediately after the one-shot AF operation, and FIG. 8B shows the image GN after N frames. The pointer SP indicating the position of the subject is a display indicating the position of the subject on the live view image displayed on the liquid crystal display unit 16. The liquid crystal display unit 16 superimposes the pointer SP together with the live view image. In FIG. 8, the positional relationship between the AF evaluation area AE set for the image by the AF evaluation value calculation unit 30 and the pointer SP displayed on the live view image on the liquid crystal display unit 16 is clarified. Therefore, for convenience, the AF evaluation area AE and the pointer SP are also shown.
[0092]
As described above, the data indicating the vertical and horizontal object movement amounts detected by the movement amount detection unit 40 are transmitted to the camera control unit 70. When the detected amount of movement of the subject is an accurate value, the movement amount detection unit 40 transmits a notification to that effect to the camera control unit 70. When the moving amount of the subject transmitted from the moving amount detecting unit 40 is an accurate value, the AF evaluation value calculating unit 30 controls the moving amount of the moving object under the control of the camera control unit 70 as shown in FIG. Based on the amount of movement of the subject detected by the detection unit 40, the position of the AF evaluation area (focus evaluation area) AE set for the image acquired by the CCD 21 is moved, and the liquid crystal display unit 16 is moved. The position of the position display (here, pointer SP) indicating the position of the subject is changed based on the amount of movement of the subject detected by the amount detection unit 40.
[0093]
For example, as shown in FIG. 8A, immediately after the one-shot AF operation, the AF evaluation area AE is set for the image G1 input to the AF evaluation value calculation unit 30, and then the AF evaluation area AE is set in the vertical and horizontal directions. The position of the AF evaluation area AE is changed according to the moving amount of the subject, and as shown in FIG. 8B, the AF evaluation area AE is changed and moved so as to follow the subject. As a result, it is possible to focus on the subject while tracking the subject, so that the in-focus state of the photographing lens 11 can be maintained in accordance with the movement of the subject.
[0094]
At this time, as shown in FIG. 8A, immediately after the one-shot AF operation, the pointer SP is superimposed and displayed on the live view image displayed on the liquid crystal display unit 16, and then the vertical and horizontal directions are displayed. The position of the pointer SP is changed according to the amount of movement of the subject in the direction, and as shown in FIG. 8B, the position of the pointer SP is changed so as to follow the subject. As a result, by observing the pointer SP on the live view image, the operator can grasp the tracking status of the subject such as the AF evaluation area AE.
[0095]
<Continuous AF operation>
FIG. 9 is a flowchart illustrating an operation flow of the continuous AF operation. Note that FIG. 9 shows the driving of the photographing lens 11, the imaging process, and the detection of the next in-focus position in the operation flow of the continuous AF operation. Processing such as reading of an image signal from the CCD 21 and calculation / acquisition of an AF evaluation value are sequentially performed immediately after execution of each imaging processing. The operation flow of the continuous AF operation is controlled by the camera control unit 70.
[0096]
FIG. 10 is a diagram illustrating a curve VL indicating the relationship between the position 11 of the photographing lens and the AF evaluation value. In FIG. 10, the focus position detected last time is indicated by a lens position FP, and the focus position detected next time is indicated by a lens position AP. Here, F indicates the F number (aperture value) of the photographing lens 11, and δ indicates the so-called permissible circle of confusion of the CCD 21. As shown in FIG. 10, in the continuous AF operation, an image is taken at a total of seven photographing lens positions (P1 to P7) at three points before and after at the 4Fδ pitch with the focus position FP detected last time as the center. At the same time, the AF evaluation value is calculated, the next lens position AP is detected based on the seven AF evaluation values, and a series of AF operations for driving the photographing lens 11 to the lens position AP are repeated.
[0097]
Hereinafter, the operation flow of the continuous AF operation shown in FIG. 9 will be described with reference to FIG. When the continuous AF operation is performed, as described above, the position of the AF evaluation area AE is changed following the movement of the subject.
[0098]
Here, when the one-shot AF operation ends, the continuous AF operation starts, and the process proceeds to step S11.
[0099]
In step S11, the state of S2 is set to be interruptible, and the process proceeds to step S12. Here, during the operation flow of the continuous AF operation, when the shutter button 61 is fully pressed by the operator to enter the S2 state, the continuous AF operation is stopped and the main shooting is performed. Is done.
[0100]
In step S12, as shown in FIG. 10, the photographing lens 11 is driven to the lens position P1 which is separated from the previous in-focus position by 12Fδ toward the lens retracting side to obtain the first image (first frame). The first imaging process is performed, and the process proceeds to step S13.
[0101]
In step S13, as shown in FIG. 10, the second to seventh images (second to seventh frames) are moved at the lens positions P2 to P7 while driving the photographing lens 11 at the 4Fδ pitch to the feeding side. The second to seventh imaging processes are sequentially performed in order to obtain the image sequentially, and the process proceeds to step S14.
[0102]
In step S14, the eighth and ninth images are sequentially acquired at the lens positions P8 and P9 to sequentially acquire the eighth and ninth images (eighth and ninth frames) while driving the photographing lens 11 near the previous focusing position FP. Are sequentially performed, the next focus position AP is detected when the ninth frame is obtained, and the process proceeds to step S15. Here, a quadratic interpolation approximation calculation is performed on the AF evaluation values calculated for the first to seventh frames, and the lens position AP having the maximum AF evaluation value is detected as the next focus position.
[0103]
In step S15, the photographing lens 11 is driven to the next in-focus position AP detected in step S14, and a tenth imaging process is performed to acquire a tenth image (the tenth frame), and the process returns to step S12. .
[0104]
<Timing of subject tracking AF operation>
The detection of the moving amount of the subject and the continuous AF operation in the subject tracking AF operation have been described above. The timing chart of the subject tracking AF operation is as shown in FIG. In FIG. 11, in order from the top, the driving of the photographing lens 11, the imaging processing, the image reading from the CCD 21, the calculation of the AF evaluation value, the calculation of the luminance value for each divided area in the movement amount detection unit 40, and the operation of the camera control unit 70 The timing of acquiring the AF evaluation value, detecting the moving amount of the subject, and detecting the next focus position is shown.
[0105]
The taking lens 11 is driven at a predetermined timing, and the lens position is driven stepwise from P1 to P9 by driving each lens (see FIG. 10).
[0106]
When the first lens driving is completed, the photographing lens 11 has moved to the lens position P1, where the first imaging processing is performed. When the imaging process of the CCD 21 ends, an image is read from the CCD 21. At this time, the AF evaluation value calculation unit 30 and the movement amount detection unit 40 acquire the image read from the CCD 21 via the A / D converter 22, and in parallel with the image reading operation, the AF evaluation value calculation unit 30 At the same time as the calculation of the AF evaluation value is started, the movement amount detection unit 40 starts calculating the luminance value for each of the vertical and horizontal divided areas. When the calculation of the AF evaluation value ends, the camera control unit 70 acquires the AF evaluation value.
[0107]
When the first imaging process is completed, the second lens driving is performed, and the second imaging process is performed with the imaging lens 11 moved to the lens position P2. Therefore, the second lens driving and imaging processing is performed in parallel with the operation of reading the image obtained by the first imaging processing, the operation of calculating the AF evaluation value, and the operation of calculating the luminance value for each of the vertical and horizontal divided areas. Will be performed.
[0108]
When the calculation of the AF evaluation value based on the image obtained by the second imaging process ends, the camera control unit 70 acquires the AF evaluation value. When the calculation of the luminance value for each of the vertical and horizontal divided areas for the image obtained by the second imaging process is completed, the movement amount detection unit 40 sets the subject between the first image and the second image. The movement amount is detected. The detection result obtained by the subject movement amount detection is fed back to the AF evaluation value calculation based on the fourth image, and the setting change of the AF evaluation area AE applied at the time of the AF evaluation value calculation based on the fourth image is performed. .
[0109]
Hereinafter, the same operation is repeated, and when each operation associated with the seventh lens drive is completed, the camera control unit 70 performs processing for detecting the next focus position AP based on the seven AF evaluation values. Be executed. Then, the next focus position AP detection process is executed when the ninth lens driving and imaging process is performed, and is fed back to the tenth lens drive, and the tenth imaging process is performed at the next focus position AP. Is performed by driving the photographing lens 11.
[0110]
Then, by repeating such operations associated with the first to tenth lens driving, the subject in which the continuous AF operation is performed while changing the position of the AF evaluation area AE following the movement of the subject The tracking AF operation is performed.
[0111]
<Operation Flow in AF Operation>
FIG. 12 is a flowchart schematically illustrating an operation flow of the entire AF operation in the imaging apparatus 1. The operation flow of the entire AF operation is controlled by the camera control unit 70. First, in the live view display state, when the operator enters the S1 state by half-pressing the shutter button 61, the AF operation starts, and the process proceeds to step S31.
[0112]
In step S31, the one-shot AF operation as described above is performed, and the process proceeds to step S32.
[0113]
In step S32, as described above, the continuous AF operation and the operation of detecting the moving amount of the subject are performed in parallel, and the process proceeds to step S33. Here, the operation flow of the continuous AF operation shown in FIG. 9 and the operation of detecting the amount of movement of the subject are performed in parallel, and when the operator fully presses the shutter button 61, the state becomes S2. Then, in order to perform the main photographing operation, the lens is moved to the latest focus position and the AF operation is stopped. In the operation of detecting the moving amount of the subject, a process is also performed to determine whether or not the reliability evaluation value C related to the detection of the moving amount of the subject is larger than a predetermined value, and the result is transmitted to the camera control unit 70.
[0114]
In step S33, it is determined whether or not the reliability evaluation value C related to the detection of the moving amount of the subject is larger than a predetermined value. Here, when the movement amount detection unit 40 transmits to the camera control unit 70 that the reliability evaluation value C is larger than the predetermined value, it is determined that the reliability evaluation value C is larger than the predetermined value. In step S34, if the fact that the reliability evaluation value C is larger than the predetermined value is not transmitted from the movement amount detection unit 40 to the camera control unit 70, it is determined that the reliability evaluation value C is not larger than the predetermined value. Then, the process returns to step S32. When the process returns from step S33 to step S32, the position of the AF evaluation area AE is not moved or changed.
[0115]
In step S34, as described above, the AF evaluation area AE is moved / changed based on the subject moving amount detected in step S32, and the process proceeds to step S35.
[0116]
In step S35, the position of the pointer indicating the position of the subject is changed based on the moving amount of the subject detected in step S32, and the process returns to step S32.
[0117]
As described above, here, when the operator enters the S1 state by half-pressing the shutter button 61, the shooting preparation operation including the AF operation and the like starts, and thereafter, the movement amount detection unit 40 detects the object movement amount. . As a result, the amount of movement of the subject can be detected only when necessary, so that power can be saved.
[0118]
As described above, the imaging device 1 according to the first embodiment acquires the first image G1 and the second image G2 that are temporally continuous. A plurality of first horizontal movement evaluation areas and a plurality of second vertical movement evaluation areas are provided for the first image G1, and a plurality of second horizontal movement evaluation areas are provided for the second image G2. , And a plurality of second vertical movement evaluation areas. Then, the luminance value of each horizontal movement evaluation area and each vertical movement evaluation area is compared and evaluated by calculating a difference between the images. Then, the amount of movement of the subject in the vertical and horizontal directions is detected based on the difference between the calculated luminance values and the like. Therefore, here, the moving amount of the subject is detected by comparing and evaluating temporally continuous luminance values that are not easily changed by a change in the defocus amount due to the driving of the photographing lens 11 by the AF operation. As a result, it is possible to provide an imaging device capable of easily and accurately detecting the movement of a subject.
[0119]
Also, a plurality of first vertical movement evaluation areas and a plurality of first horizontal movement evaluation areas are provided with a slight shift so as to overlap each other with respect to the image G1, and a plurality of second vertical movement evaluation areas are provided with respect to the image G2. The movement evaluation area and the plurality of second lateral movement evaluation areas are provided so as to be slightly shifted from each other so as to overlap each other. As a result, a fine movement amount of the subject can be detected, and the AF evaluation area AE can be moved while being slightly shifted with respect to the slight movement of the subject. That is, the AF evaluation area AE can be moved and changed in detail and accurately in accordance with the movement of the subject.
[0120]
Further, a plurality of first vertical movement evaluation areas are provided for the image G1 so as to share a part of the horizontally long divided area with respect to a portion overlapping each other, and the plurality of first horizontal movement evaluation areas are mutually connected. The overlapping portions are provided so as to share some vertically divided areas. Further, a plurality of second vertical movement evaluation areas are provided for the image G2 so as to share a part of the horizontally long divided area with respect to a portion overlapping each other, and the plurality of second horizontal movement evaluation areas are mutually connected. The overlapping portions are provided so as to share some vertically divided areas. Therefore, since the calculation of the duplicated luminance value can be reduced as much as possible, the time required for calculating the vertical movement-luminance evaluation value and the horizontal movement-luminance evaluation value can be relatively shortened.
[0121]
<(2) Second embodiment>
In the above-described first embodiment, it has been detected that the moving amount of the subject is 0, 16, or 32 pixels in the vertical direction or the horizontal direction. That is, the minimum unit of detection is 16 pixels. Therefore, in the imaging device 1A according to the second embodiment, the movement amount detection unit 40A calculates the vertical and horizontal movement-luminance evaluation values PAT1 to PAT10 in the same manner as the movement amount detection unit 40 according to the first embodiment. By performing interpolation calculation on those values, it is possible to detect a subject movement amount finer than 16 pixels. Further, the reliability evaluation function is different between the movement amount detection unit 40A and the movement amount detection unit 40.
[0122]
Note that, in the imaging device 1A according to the second embodiment, only the movement amount detection unit 40A is different from the imaging device 1 according to the first embodiment, and the other parts are completely the same. The description is omitted.
[0123]
<Interpolation calculation and object movement amount detection>
<About the horizontal direction>
In the movement amount detection unit 40A, for example, the minimum value of the horizontal movement-luminance evaluation values PAT1 to PAT5, and the relative positional relationship between the first horizontal movement evaluation area and the second horizontal movement evaluation area related to the minimum value In contrast, interpolation is performed based on a horizontal movement-luminance evaluation value relating to a combination of a first horizontal movement evaluation area and a second horizontal movement evaluation area having a relative positional relationship shifted by 16 pixels in the ± X direction. Calculation is performed to detect the moving amount of the subject.
[0124]
That is, of the combinations of the first lateral movement evaluation area and the second lateral movement evaluation area, the combination with the smallest lateral movement-luminance evaluation value is referred to as a first combination, and the first lateral movement according to the first combination is referred to as the first combination. The first lateral movement evaluation area and the second lateral movement evaluation area having a relative positional relationship shifted by a predetermined amount in the + X direction with respect to the relative positional relationship between the evaluation area and the second lateral movement evaluation area. The combination is referred to as a second combination, and is further shifted by a predetermined amount in the −X direction with respect to the relative positional relationship between the first lateral movement evaluation area and the second lateral movement evaluation area according to the first combination. The combination of the first lateral movement evaluation area and the second lateral movement evaluation area having a relative positional relationship is referred to as a third combination. In this case, the movement amount detection unit 40A relates to the first to third combinations. 3 horizontal movements-in the horizontal direction based on the luminance evaluation value Detecting a subject movement amount.
[0125]
Specifically, when the lateral movement-luminance evaluation value PAT2 among the lateral movement-luminance evaluation values PAT1 to PAT5 is the minimum, that is, in the -X direction relative to the first lateral movement evaluation area and the area. When the horizontal movement-luminance evaluation value PAT2 relating to the combination with the second horizontal movement evaluation area provided in the image G2 shifted by 16 pixels is the smallest, the horizontal movement-luminance evaluation value PAT2 and the horizontal movement- A first lateral movement having a relative positional relationship deviated by 16 pixels in the ± X direction with respect to a relative positional relationship between the first lateral movement evaluation area and the second lateral movement evaluation area according to the luminance evaluation value PAT2. Interpolation calculation is performed on the basis of the lateral movement-luminance evaluation values PAT1 and PAT4 relating to the combination of the evaluation area and the second lateral movement evaluation area to detect the object movement amount.
[0126]
FIG. 13 is a diagram for explaining the interpolation calculation of the object movement amount in the horizontal direction when the horizontal movement-luminance evaluation value PAT2 among the horizontal movement-luminance evaluation values PAT1 to PAT5 is the minimum. In FIG. 13, the horizontal axis indicates a relative shift amount (Xd) in the X direction between the first horizontal movement evaluation area and the second horizontal movement evaluation area, and the vertical axis indicates a horizontal movement-luminance evaluation value. ing. FIG. 13 also shows plots MX1, MX2, and MX4 respectively showing the relationship between the amount of displacement in the X direction corresponding to the lateral movement-luminance evaluation values PAT1, PAT2, and PAT4 and the lateral movement-luminance evaluation values. It is noted.
[0127]
As shown in FIG. 13A, when PAT1 <PAT4, a straight line 110 connecting the plot MX2 and the plot MX4 is drawn, the slope of the straight line is inverted from the positive and negative, and passes through the plot MX1. A straight line 111 is drawn. Then, the coordinates of the horizontal axis at the point where the straight line 110 and the straight line 111 intersect are detected as the object movement amount MH in the horizontal direction. On the other hand, as shown in FIG. 13B, when PAT1 ≧ PAT4, a straight line 121 connecting the plots MX1 and MX2 is drawn, and the slope of the straight line and the positive and negative are inverted, and the plot MX4 Draw a straight line 120 passing through. Then, the coordinates of the horizontal axis at the point where the straight line 120 and the straight line 121 intersect are detected as the object movement amount MH in the horizontal direction.
[0128]
Further, here, a specific example in which the lateral movement-luminance evaluation value PAT2 among the lateral movement-luminance evaluation values PAT1 to PAT5 is the smallest is shown, but the other lateral movement-luminance evaluation values are the smallest. In the same manner, the amount of movement MH of the subject in the horizontal direction can be detected by similar interpolation calculation.
[0129]
Here, the minimum value of the lateral movement-luminance evaluation values PAT1 to PAT5 is YB, and the relative positional relationship between the first lateral movement evaluation area and the second lateral movement evaluation area related to the minimum value YB is: -The horizontal movement associated with the combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area having a relative positional relationship shifted by 16 pixels in the X direction-YA is the luminance evaluation value, and 16 pixels are in the + X direction. A lateral movement-luminance evaluation value relating to a combination of the first lateral movement evaluation area and the second lateral movement evaluation area having a shifted relative positional relationship is defined as YC. Then, assuming that relative displacement amounts in the X direction between the first lateral movement evaluation area and the second lateral movement evaluation area corresponding to YA to YC are X1 to X3, respectively. The object movement amount MH is represented by the following equations (11) and (12).
[0130]
When YC ≧ YA,
MH = {(YA−YB) · (X2−X3) / (YB−YC) −X1 + X2} / 2 (11).
[0131]
If YC <YA,
MH = {(YC-YA). (X1-X2) / (YA-YB) + X1-X3} / 2 (12).
[0132]
Further, in the reliability evaluation function of the movement amount detection unit 40A, as shown in FIG. 13, the maximum value of the lateral movement-luminance evaluation values YA to YC used when calculating the object movement amount MH in the horizontal direction is calculated. The determination is made based on whether or not the absolute value (reliability evaluation value) C of the difference from the minimum value is larger than a predetermined value. That is, when the reliability evaluation value C is larger than the predetermined value, it can be said that a certain degree of contrast exists in a temporally continuous image. Therefore, when the reliability evaluation value C is larger than the predetermined value, the movement amount detection unit 40A determines that the detected object movement amount MH in the horizontal direction is an accurate value.
[0133]
<About vertical direction>
In the movement amount detection unit 40A, for example, the minimum value of the vertical movement-luminance evaluation values PAT6 to PAT10 and the relative positional relationship between the first vertical movement evaluation area and the second vertical movement evaluation area related to the minimum value With respect to the vertical movement-luminance evaluation value relating to the combination of the first vertical movement evaluation area and the second vertical movement evaluation area having a relative positional relationship shifted by 16 pixels in the ± Y direction. Calculation is performed to detect the moving amount of the subject.
[0134]
That is, of the combinations of the first vertical movement evaluation area and the second vertical movement evaluation area, the combination with the smallest vertical movement-luminance evaluation value is called the first combination, and the first vertical movement according to the first combination is referred to as the first combination. The first vertical movement evaluation area and the second vertical movement evaluation area having a relative positional relation shifted by a predetermined amount in the + Y direction with respect to the relative positional relation between the evaluation area and the second vertical movement evaluation area. The combination is referred to as a second combination, and is further shifted by a predetermined amount in the −Y direction with respect to a relative positional relationship between the first vertical movement evaluation area and the second vertical movement evaluation area according to the first combination. The combination of the first vertical movement evaluation area and the second vertical movement evaluation area having a relative positional relationship is referred to as a third combination. Here, the movement amount detection unit 40A relates to the first to third combinations. 3 vertical movements-vertical based on luminance evaluation value Detecting a subject movement amount.
[0135]
Specifically, when the vertical movement-luminance evaluation value PAT7 among the vertical movement-luminance evaluation values PAT6 to PAT10 is the minimum, that is, in the + Y direction relative to the first vertical movement evaluation area and the area. When the vertical movement-luminance evaluation value PAT7 related to the combination with the second horizontal movement evaluation area provided in the image G2 shifted by 16 pixels is the minimum, the vertical movement-luminance evaluation value PAT7 and the vertical movement-luminance A first vertical movement evaluation area having a relative positional relation shifted by 16 pixels in the ± Y direction with respect to a relative positional relation between the first vertical movement evaluation area and the second vertical movement evaluation area according to the evaluation value PAT7. Interpolation calculation is performed based on the vertical movement-luminance evaluation values PAT6 and PAT9 relating to the combination of the first vertical movement evaluation area and the second vertical movement evaluation area to detect the object movement amount.
[0136]
FIG. 14 is a diagram for explaining the interpolation calculation of the amount of movement of the subject in the vertical direction when the vertical movement-luminance evaluation value PAT7 among the vertical movement-luminance evaluation values PAT6 to PAT10 is the minimum. In FIG. 14, the horizontal axis indicates the relative shift amount (Yd) in the Y direction between the first vertical movement evaluation area and the second vertical movement evaluation area, and the vertical axis indicates the vertical movement-luminance evaluation value. ing. FIG. 14 also shows plots MY6, MY7, and MY9 showing the relationship between the shift amount in the Y direction corresponding to the vertical movement-luminance evaluation value PAT6, PAT7, and PAT9, respectively, and the vertical movement-luminance evaluation value. It is noted.
[0137]
As shown in FIG. 14A, when PAT6 <PAT9, a straight line 130 connecting the plot MY7 and the plot MY9 is drawn, and the slope of the straight line and the positive / negative are reversed and pass through the plot MY6. A straight line 131 is drawn. Then, the coordinates of the horizontal axis at the point where the straight line 130 and the straight line 131 intersect are detected as the subject movement amount MV in the vertical direction. On the other hand, as shown in FIG. 14B, when PAT6 ≧ PAT9, a straight line 141 connecting the plot MY6 and the plot MY7 is drawn, and the slope of the straight line is inverted from the positive and negative, and the plot MY9 Draw a straight line 140 passing through. Then, the coordinates of the horizontal axis at the point where the straight line 140 and the straight line 141 intersect are detected as the subject movement amount MV in the vertical direction.
[0138]
Further, here, a specific example in which the vertical movement-luminance evaluation value PAT7 among the vertical movement-luminance evaluation values PAT6 to PAT10 is the smallest is shown, but the other vertical movement-luminance evaluation values PAT7 are the smallest. Similarly, the vertical subject movement amount MV can be detected by the same interpolation calculation.
[0139]
Here, the minimum value of the vertical movement-luminance evaluation values PAT6 to PAT10 is YB, and the relative positional relationship between the first vertical movement evaluation area and the second vertical movement evaluation area related to the minimum value YB is as follows. The vertical movement associated with the combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area having a relative positional relationship shifted by 16 pixels in the + Y direction—the luminance evaluation value is YA, and 16 pixels in the −Y direction A vertical movement-brightness evaluation value YC relating to a combination of the first vertical movement evaluation area and the second vertical movement evaluation area having a shifted relative positional relationship is set. If the relative amounts of displacement in the Y direction between the first vertical movement evaluation area and the second vertical movement evaluation area corresponding to YA to YC are Y1 to Y3, respectively, The subject movement amount MV is represented by the following equations (13) and (14).
[0140]
When YC ≧ YA,
MH = {(YA−YB) · (Y2−Y3) / (YB−YC) −Y1 + Y2} / 2 (13).
[0141]
If YC <YA,
MH = {(YC-YA). (Y1-Y2) / (YA-YB) + Y1-Y3} / 2 (14).
[0142]
Further, in the reliability evaluation function of the movement amount detection unit 40A, as shown in FIG. 14, the maximum value of the vertical movement-luminance evaluation values YA to YC used when calculating the object movement amount MV in the vertical direction is calculated. The determination is made based on whether or not the absolute value (reliability evaluation value) C of the difference from the minimum value is larger than a predetermined value. That is, when the reliability evaluation value C is larger than the predetermined value, it can be said that a certain degree of contrast exists in a temporally continuous image. Therefore, when the reliability evaluation value C is larger than the predetermined value, the moving amount detection unit 40A determines that the detected vertical moving amount MV of the subject in the vertical direction is an accurate value.
[0143]
If the reliability evaluation values C in the vertical and horizontal directions are both larger than a predetermined value, the movement amount detection unit 40A determines that the detected object movement amount is an accurate value, and notifies the camera to that effect. It is transmitted to the control unit 70.
[0144]
As described above, in the imaging apparatus 1A according to the second embodiment, the combination of the first lateral movement evaluation area and the second lateral movement evaluation area with the smallest lateral movement-luminance evaluation value, Two combinations of a first lateral movement evaluation area and a second lateral movement evaluation area having a positional relationship relatively shifted in a predetermined direction (here, + X direction) and the opposite direction (here, -X direction) Based on the three horizontal movement-brightness evaluation values of (1) and (2), the amount of movement of the object in the horizontal direction is detected while performing interpolation calculation. Further, a combination of the first vertical movement evaluation area and the second vertical movement evaluation area with the minimum vertical movement-luminance evaluation value, and a predetermined direction (here, the + Y direction) and the opposite direction with respect to the combination Based on three vertical movement-luminance evaluation values in two combinations of the first vertical movement evaluation area and the second vertical movement evaluation area having a relative positional relationship (here, in the −Y direction). The amount of movement of the subject in the vertical direction is detected while performing the interpolation calculation. As a result, it is possible to accurately detect the movement of the subject smaller than the width of the horizontally long divided area or the vertically long divided area (here, 16 pixels).
[0145]
<(3) Modification>
The embodiments of the present invention have been described above, but the present invention is not limited to the above-described contents.
[0146]
For example, in the above-described embodiment, for the combination of the first vertical movement evaluation area and the second vertical movement evaluation area, the sum of the absolute values of the differences between the luminance values of the corresponding horizontally long divided areas is calculated as the vertical movement-luminance evaluation value. For the combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area, the sum of the absolute values of the differences between the luminance values of the corresponding vertically long divided areas is defined as the horizontal movement-luminance evaluation value. For example, for the combination of the first vertical movement evaluation area and the second vertical movement evaluation area, the sum of the ratios of the luminance values of the corresponding horizontally long divided areas is defined as the vertical movement-luminance evaluation value, For the combination of the movement evaluation area and the second horizontal movement evaluation area, the sum of the ratios of the luminance values of the corresponding vertically long divided areas may be used as the horizontal movement-luminance evaluation value. At this time, when calculating the ratio of the luminance values of the corresponding divided areas, the one with the relatively large luminance value is set as the numerator, and the one with the relatively small luminance value is set as the denominator. The amount of movement of the subject can be detected.
[0147]
In the above-described embodiment, the luminance evaluation areas SE1 and SE2 are each divided into 24 vertically long divided areas in the horizontal direction, and are divided into 14 horizontally long divided areas in the vertical direction. However, the present invention is not limited to this. Instead, for example, the horizontal direction may be divided into 25 or more vertically long divided areas, and the vertical direction may be divided into 15 or more horizontally long divided areas. As described above, by increasing the number of divisions in the vertical and horizontal directions, the time required for the calculation tends to be longer, but the accuracy of the detected moving amount of the subject can be improved.
[0148]
In the embodiment described above, a plurality of first and second vertical movement luminance evaluation areas are provided to be shifted from each other by one horizontal division area, and a plurality of first and second vertical movement luminance evaluation areas are provided. The evaluation areas are shifted from each other by one vertically long divided area. However, the present invention is not limited to this. For example, the evaluation areas may be shifted from each other by two or more vertically and horizontally long divided areas. Further, the moving luminance evaluation areas may be provided so that the images have a positional relationship of being adjacent to each other or of being separated from each other. However, from the viewpoint of detection accuracy of the moving amount of the subject, it is preferable that the moving luminance evaluation areas are provided so as to be slightly shifted from each other and overlap each other.
[0149]
In the above-described embodiment, the sum of the pixel values of all the pixels included in each vertically divided area is calculated as the luminance value of each vertically divided area, and the sum of the pixel values of all the pixels included in each horizontally divided area is calculated. Although the sum was calculated as the luminance value of each horizontally divided area, the present invention is not limited to this. For example, the average value of the pixel values of all the pixels included in each vertically divided area is calculated as the luminance value of each vertically divided area. Then, the average value of the pixel values of all the pixels included in each horizontally long divided area may be calculated as the luminance value of each horizontally long divided area.
[0150]
In the above-described first embodiment, the reliability of the detected subject movement amount is evaluated based on whether the reliability evaluation value C is greater than a predetermined value. However, the present invention is not limited to this. Vertical and horizontal movement—when the minimum value of the luminance evaluation value is smaller than a predetermined value, it is evaluated that the detected amount of movement of the subject in the vertical and horizontal directions is an accurate value, that is, a reliable value. You may do it.
[0151]
Furthermore, in the above-described second embodiment, the reliability of the detected subject movement amount is evaluated based on whether the reliability evaluation value C is greater than a predetermined value. However, the present invention is not limited to this. As shown in FIGS. 13 and 14, when the vertical and horizontal movement-luminance evaluation values YM and XM corresponding to the detected vertical and horizontal object movement amounts MV and MH are smaller than predetermined values, the detection is performed. The moving amounts MV and MH in the vertical and horizontal directions may be evaluated as accurate values, that is, reliable values.
[0152]
In other words, if the vertical and horizontal movement-luminance evaluation values are not smaller than the predetermined value, there is no area in which the luminance pattern is substantially similar in a plurality of temporally continuous images (for example, two). In such a case, it is considered that the movement of the subject has not been accurately detected. Therefore, here, with the above configuration, when the vertical and horizontal movement-luminance evaluation value is smaller than a predetermined value, the detected vertical and horizontal movement of the subject in the vertical and horizontal directions is a reliable value. Therefore, erroneous detection of the moving amount of the subject can be reduced.
[0153]
The specific embodiments described above include inventions having the following configurations.
[0154]
(1) The imaging device according to claim 1, wherein the calculation unit calculates a difference between a brightness value of the first evaluation area and a brightness value of the second evaluation area as the brightness evaluation value. An imaging device, comprising:
[0155]
According to the invention described in (1), a difference between images is obtained for a luminance value of an evaluation area provided for each image obtained continuously in time, and a subject movement amount is detected based on the difference. Therefore, the movement of the subject can be easily and accurately detected.
[0156]
(2) The imaging apparatus according to claim 2 or 3, wherein each of the divided areas is a strip-shaped area.
[0157]
According to the invention described in (2), the calculation speed can be improved by setting the divided area to be an area having a strip shape.
[0158]
(3) The imaging device according to any one of Claims 1 to 5, (1), and (2), wherein the detection unit is configured to determine each of the first evaluation areas and each of the second evaluation areas. Wherein the movement amount is detected based on a relative positional relationship between the first evaluation area and the second evaluation area related to a combination in which the luminance evaluation value is minimum among the combinations of .
[0159]
According to the invention described in (3), the amount of movement of the subject is detected based on the relative positional relationship of the evaluation areas in the combination of the evaluation areas with the minimum brightness evaluation value, so that the movement of the subject is reliably and accurately performed. Can be detected.
[0160]
(4) The image pickup apparatus according to (3), wherein the detecting unit is configured to determine the first luminance evaluation value that is the smallest among the combinations of the first image evaluation areas and the second evaluation areas. The first evaluation area and the second evaluation area having a positional relation relatively shifted in a predetermined direction and the opposite direction with respect to a relative positional relation between the first evaluation area and the second evaluation area according to the combination. An imaging apparatus for detecting the amount of movement of a subject based on a luminance evaluation value according to second and third combinations with two evaluation areas and a luminance evaluation value according to the first combination.
[0161]
According to the invention described in (4), a combination of the evaluation area with the minimum luminance evaluation value and the evaluation area having a positional relationship relatively shifted in the predetermined direction and the opposite direction with respect to the combination. Since the amount of movement of the subject is detected based on the evaluation values for the three luminances in the combination, fine movement of the subject can be accurately detected.
[0162]
(5) The imaging device according to any one of (1) to (5) and (1) to (4), wherein the amount of movement of the subject is reliable based on detection of the luminance evaluation value equal to or greater than a predetermined value. An imaging device, further comprising: a determination unit configured to determine the value as a characteristic value.
[0163]
According to the invention described in (5), since the subject moving amount is determined as a reliable value based on the detection of the luminance evaluation value equal to or greater than the predetermined value, erroneous detection of the subject moving amount can be reduced.
[0164]
(6) The imaging device according to any one of (1) to (5) and (1) to (5), wherein the detection unit moves the subject after starting a shooting preparation operation in the imaging device. An imaging device for detecting an amount.
[0165]
According to the invention described in (6), the amount of movement of the subject is detected after the start of the shooting preparation operation, so that power saving can be achieved.
[0166]
【The invention's effect】
As described above, according to the first aspect of the present invention, a luminance value of an evaluation area provided for each image obtained continuously in time is evaluated between the images, so that a subject is evaluated. Since the movement amount is detected, it is possible to provide an imaging device capable of accurately detecting the movement of a subject.
[0167]
According to the second aspect of the present invention, when evaluating the brightness value of the evaluation area provided for each image obtained continuously in time between the images, a plurality of evaluation areas are used. Since the luminance value of each divided area is evaluated between the images, the moving amount of the subject can be detected with higher accuracy.
[0168]
According to the third aspect of the present invention, the absolute value of the difference between the brightness values is calculated for each combination of corresponding divided regions obtained by dividing the entire evaluation region between temporally continuous images, By adding them, the luminance value of the evaluation area provided for each image obtained continuously over time is evaluated between the images, so that the subject movement amount can be detected easily and more accurately.
[0169]
According to the fourth aspect of the present invention, the position of the target area for evaluating the in-focus state set for the image is moved based on the detected amount of movement of the subject. , The in-focus state can be maintained.
[0170]
According to the fifth aspect of the present invention, the position of the display indicating the position of the subject displayed together with the image is changed based on the detected amount of movement of the subject. I can figure it out.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an internal configuration of an imaging device 1.
FIG. 2 is a diagram illustrating an AF evaluation area in a one-shot AF operation.
FIG. 3 is a flowchart illustrating an operation flow of a one-shot AF operation.
FIG. 4 is a diagram illustrating a calculation area of a luminance value;
FIG. 5 is a diagram illustrating a calculation area of a luminance value.
FIG. 6 is a diagram illustrating a calculation area of a luminance value.
FIG. 7 is a diagram illustrating a calculation area of a luminance value.
FIG. 8 is a diagram illustrating an example of changing an AF evaluation area and a pointer indicating a subject position.
FIG. 9 is a flowchart illustrating an operation flow of a continuous AF operation.
FIG. 10 is a diagram illustrating a relationship between a position of a photographing lens and an AF evaluation value.
FIG. 11 is a timing chart in a subject tracking AF operation.
FIG. 12 is a flowchart schematically showing an operation flow of the entire AF operation.
FIG. 13 is a diagram for explaining interpolation calculation of a movement amount.
FIG. 14 is a diagram for explaining interpolation calculation of a movement amount.
[Explanation of symbols]
1,1A imaging device
16 Liquid crystal display (display means, change means)
21 CCD imaging device (imaging means)
30 AF evaluation value calculation unit (moving means)
40, 40A movement amount detection unit (setting means, calculation means, detection means, determination means)
61 Shutter start button
70 Camera control unit

Claims (5)

撮像装置であって、
時間的に連続する第1と第2の画像とを取得する撮像手段と、
前記第1画像に対して第1評価領域を設定するとともに、前記第2の画像に対して第2評価領域を設定する設定手段と、
前記第1評価領域についての輝度値と、前記第2評価領域についての輝度値とに基づいて輝度評価値を算出する算出手段と、
前記輝度評価値に基づいて被写体の移動量を検出する検出手段と、
を備えることを特徴とする撮像装置。
An imaging device,
Imaging means for acquiring first and second images that are temporally continuous;
Setting means for setting a first evaluation area for the first image and setting a second evaluation area for the second image;
Calculating means for calculating a brightness evaluation value based on the brightness value of the first evaluation area and the brightness value of the second evaluation area;
Detecting means for detecting the moving amount of the subject based on the luminance evaluation value,
An imaging device comprising:
請求項1に記載の撮像装置であって、
前記算出手段が、
前記第1評価領域を複数に分割した第1分割領域毎についての輝度値と、前記第2評価領域を複数に分割した第2分割領域毎についての輝度値とに基づいて前記輝度評価値を算出することを特徴とする撮像装置。
The imaging device according to claim 1,
The calculating means,
Calculating the luminance evaluation value based on a luminance value for each of the first divided regions obtained by dividing the first evaluation region into a plurality of parts and a luminance value for each of the second divided regions obtained by dividing the second evaluation region into a plurality of parts; An imaging device, comprising:
請求項2に記載の撮像装置であって、
前記算出手段が、
前記第1評価領域と前記第2評価領域との組合せ毎について、前記第1分割領域毎についての輝度値と、各前記第1分割領域と対応する前記第2分割領域毎についての輝度値との差分の絶対値の総和を前記輝度評価値として算出することを特徴とする撮像装置。
The imaging device according to claim 2,
The calculating means,
For each combination of the first evaluation region and the second evaluation region, a luminance value for each of the first divided regions and a luminance value for each of the second divided regions corresponding to each of the first divided regions. An imaging apparatus, wherein a sum of absolute values of differences is calculated as the luminance evaluation value.
請求項1から請求項3のいずれかに記載の撮像装置であって、
前記移動量に基づいて、前記撮像手段によって取得される画像に対して設定される合焦評価領域を移動させる移動手段、
をさらに備えることを特徴とする撮像装置。
The imaging device according to claim 1, wherein:
A moving unit that moves a focus evaluation area set for an image acquired by the imaging unit based on the moving amount;
An imaging device, further comprising:
請求項1から請求項4のいずれかに記載の撮像装置であって、
前記撮像手段によって取得される画像とともに前記被写体の位置を示す位置表示を表示する表示手段と、
前記移動量に基づいて、前記画像に対する前記位置表示の位置を変更する変更手段と、
をさらに備えることを特徴とする撮像装置。
The imaging device according to claim 1, wherein:
Display means for displaying a position display indicating the position of the subject together with the image obtained by the imaging means,
Changing means for changing the position of the position display with respect to the image based on the movement amount,
An imaging device, further comprising:
JP2003084799A 2003-03-26 2003-03-26 Imaging apparatus Pending JP2004294621A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003084799A JP2004294621A (en) 2003-03-26 2003-03-26 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003084799A JP2004294621A (en) 2003-03-26 2003-03-26 Imaging apparatus

Publications (2)

Publication Number Publication Date
JP2004294621A true JP2004294621A (en) 2004-10-21
JP2004294621A5 JP2004294621A5 (en) 2005-06-16

Family

ID=33399877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003084799A Pending JP2004294621A (en) 2003-03-26 2003-03-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2004294621A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009053A (en) * 2006-06-28 2008-01-17 Nikon Corp Tracking device, automatic focus device and camera
JP2008180906A (en) * 2007-01-24 2008-08-07 Fujifilm Corp Photographing device and focusing control method
WO2009139188A1 (en) * 2008-05-16 2009-11-19 パナソニック株式会社 Image pickup system and camera body and replaceable lens
US8253800B2 (en) 2006-06-28 2012-08-28 Nikon Corporation Tracking device, automatic focusing device, and camera

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009053A (en) * 2006-06-28 2008-01-17 Nikon Corp Tracking device, automatic focus device and camera
US8253800B2 (en) 2006-06-28 2012-08-28 Nikon Corporation Tracking device, automatic focusing device, and camera
US9063290B2 (en) 2006-06-28 2015-06-23 Nikon Corporation Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
US9639754B2 (en) 2006-06-28 2017-05-02 Nikon Corporation Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
JP2008180906A (en) * 2007-01-24 2008-08-07 Fujifilm Corp Photographing device and focusing control method
JP4697606B2 (en) * 2007-01-24 2011-06-08 富士フイルム株式会社 Imaging apparatus and focus control method
WO2009139188A1 (en) * 2008-05-16 2009-11-19 パナソニック株式会社 Image pickup system and camera body and replaceable lens

Similar Documents

Publication Publication Date Title
KR101062502B1 (en) Image pickup device having a panning mode for picking up panning images
US9247227B2 (en) Correction of the stereoscopic effect of multiple images for stereoscope view
KR101034109B1 (en) Image capture apparatus and computer readable recording medium storing with a program
US8605942B2 (en) Subject tracking apparatus, imaging apparatus and subject tracking method
US7136581B2 (en) Image taking apparatus and program product
KR100840856B1 (en) Image processing apparatus, image processing method, recording medium for recording image processing program, and image pickup apparatus
US20110019989A1 (en) Imaging device and imaging method
JP6222514B2 (en) Image processing apparatus, imaging apparatus, and computer program
JP5237721B2 (en) Imaging device
JP5464934B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US8872963B2 (en) Imaging apparatus and imaging method
JPWO2011136031A1 (en) Imaging device
JP2012049773A (en) Imaging apparatus and method, and program
JP2004212556A (en) Imaging apparatus
JP2012027229A (en) Imaging device and imaging method
JP2005215373A (en) Imaging apparatus
JP3929034B2 (en) Manual focus device
JP5378283B2 (en) Imaging apparatus and control method thereof
JP4953770B2 (en) Imaging device
JP3761383B2 (en) Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium
JP6529387B2 (en) Imaging device, control method therefor, program, storage medium
JP5387341B2 (en) Imaging device
JP2017181797A (en) Focus detection device, method thereof, imaging apparatus, program, and storage medium
JP2004294621A (en) Imaging apparatus
US10623671B2 (en) Image-capturing apparatus and control method therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040917

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040917

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070925