JP2004294621A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2004294621A JP2004294621A JP2003084799A JP2003084799A JP2004294621A JP 2004294621 A JP2004294621 A JP 2004294621A JP 2003084799 A JP2003084799 A JP 2003084799A JP 2003084799 A JP2003084799 A JP 2003084799A JP 2004294621 A JP2004294621 A JP 2004294621A
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- movement
- luminance
- value
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、デジタルカメラ等の撮像装置に関する。
【0002】
【従来の技術】
従来、デジタルカメラ等の撮像装置におけるオートフォーカス(自動合焦)技術として、画像のある領域に着目し、その領域からコントラスト等の評価値を求めることにより、被写体の合焦度合いを評価するものが知られている。この場合、撮影レンズを段階的に駆動して、評価値が最大になるレンズ位置を検出することにより、被写体像が合焦状態となるレンズ位置を特定してオートフォーカスを行うように構成される。このような技術では、被写体の合焦状態を正確に評価するために、撮影レンズの駆動に伴う変化度合いが比較的大きい評価値を用いることが望まれる。
【0003】
また、オートフォーカスを行う場合、手ぶれや被写体ぶれ等によってオートフォーカスの動作中に被写体が画像平面内で移動する場合がある。このため従来は、時間的に連続する画像平面内を複数の領域に分割して、時間経過に伴う各領域の評価値の変化を検知することにより、被写体の移動を検出することも行われている(例えば、特許文献1)。このようなオートフォーカス用の評価値を用いた移動検出では、画像平面内における被写体の移動を正確に検出するために、被写体の移動を評価するための画像間に、被写体の移動以外の要因による画像変化は少ないことが望まれる。
【0004】
このような技術に関する先行技術文献としては、以下のようなものがある。
【0005】
【特許文献1】
特開2000−188713号公報
【0006】
【発明が解決しようとする課題】
しかし、上述した移動検出では、オートフォーカス用の評価値を用いて画像平面内における被写体の移動を検出するように構成されるため、被写体の移動を評価するための画像間に撮影レンズの駆動が行われることとなり、デフォーカス量の異なる画像で被写体の移動検出を行うことになる。このため、従来の移動検出では、被写体の移動以外の要因としてデフォーカス量の変化による大きな評価値変化が生ずることとなり、被写体の移動を誤検出する可能性が高いという問題がある。
【0007】
そこで、本発明は上記課題に鑑みてなされたものであり、被写体の移動を精度良く検出することが可能な撮像装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記の課題を解決するために、請求項1の発明は、撮像装置であって、時間的に連続する第1と第2の画像とを取得する撮像手段と、前記第1画像に対して第1評価領域を設定するとともに、前記第2の画像に対して第2評価領域を設定する設定手段と、前記第1評価領域についての輝度値と、前記第2評価領域についての輝度値とに基づいて輝度評価値を算出する算出手段と、前記輝度評価値に基づいて被写体の移動量を検出する検出手段とを備えることを特徴とする。
【0009】
また、請求項2の発明は、請求項1に記載の撮像装置であって、前記算出手段が、前記第1評価領域を複数に分割した第1分割領域毎についての輝度値と、前記第2評価領域を複数に分割した第2分割領域毎についての輝度値とに基づいて前記輝度評価値を算出することを特徴とする。
【0010】
また、請求項3の発明は、請求項2に記載の撮像装置であって、前記算出手段が、前記第1評価領域と前記第2評価領域との組合せ毎について、前記第1分割領域毎についての輝度値と、各前記第1分割領域と対応する前記第2分割領域毎についての輝度値との差分の絶対値の総和を前記輝度評価値として算出することを特徴とする撮像装置。
【0011】
また、請求項4の発明は、請求項1から請求項3のいずれかに記載の撮像装置であって、前記移動量に基づいて、前記撮像手段によって取得される画像に対して設定される合焦評価領域を移動させる移動手段をさらに備えることを特徴とする。
【0012】
また、請求項5の発明は、請求項1から請求項4のいずれかに記載の撮像装置であって、前記撮像手段によって取得される画像とともに前記被写体の位置を示す位置表示を表示する表示手段と、前記移動量に基づいて、前記画像に対する前記位置表示の位置を変更する変更手段とをさらに備えることを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0014】
<(1)第1実施形態>
<撮像装置1の機能構成>
図1は本発明の第1実施形態に係る撮像装置(デジタルカメラ)1の内部構成を示すブロック図である。図1に示すように、撮像装置1は、主に、撮影レンズ11、撮影機能部3、AF評価値算出部30、移動量検出部40、レンズ駆動部50、操作部60、及びカメラ制御部70を備えて構成される。
【0015】
撮影レンズ11は、被写体に係る光学像をCCD撮像素子21上に結像させるものである。撮影レンズ11には光軸方向に沿って駆動可能なレンズ系が含まれている。そして、当該レンズ系を光軸方向に駆動することにより、CCD撮像素子21に結像される被写体像の合焦状態を実現することができるように構成されている。
【0016】
CCD撮像素子(以下、「CCD」と略称する)21は、2560×1920画素を有し、撮影レンズ11により結像された被写体の光像を、R(赤),G(緑),B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。ここでは、CCD21に対して被写体の光像を結像させて光電変換による電荷信号を蓄積させる処理(以下、「撮像処理」と称する)が行われ、CCD21から順次電荷信号(画像信号)が読み出されて、出力される。そして、CCD21から出力される画像信号(画像)がA/D変換器22に与えられる。
【0017】
また、CCD21の駆動方式(読み出しモード)には、ドラフトモード、及び本撮影モードの2つのモードがある。
【0018】
ドラフトモードは、画像を取得してメモリカード9などに記憶する撮影(以下、「本撮影」と称する)前に、プレビュー用となるライブビュー表示用の画像を生成するための読み出しモードであり、所謂ライブビュー表示時に適用される。一般的にCCD21からの信号読み出しは水平ライン毎に行われる。このため、ドラフトモードにおいては、水平方向2560画素、垂直方向1920画素を有するCCD21から水平ライン毎の画素信号を読み出す際、8ライン中1ラインを読み出すようにCCD21が駆動される。つまり、ドラフトモード時には、1920の水平ラインが1/8間引きされた状態で読み出されるのである。この結果、ドラフトモード時にCCD21から出力される画像は、2560×240の画素で構成されることになる。
【0019】
また、本撮影モードはフレーム全体、すなわち2560×1920の全画素を読み出し対象として画像信号を読み出すモードである。そしてタイミングジェネレータ27はこれらの読み出しモードのうち指定されるモードについてCCD21の駆動タイミングを制御する。
【0020】
タイミングジェネレータ27は、CCD21の駆動を制御するための各種のタイミングパルスを生成するものであり、カメラ制御部70から送信される基準クロックに基づきCCD21の駆動制御信号を生成する。このタイミングジェネレータ27は、例えば積分開始/終了(露出開始/終了)のタイミング信号、各画素の受光信号の読出制御信号(水平同期信号,垂直同期信号,転送信号等)等のクロック信号を生成し、CCD21に出力する。
【0021】
そして、CCD21から出力される画像信号はA/D変換器22に与えられる。例えば、本撮影前にライブビュー表示を行う状態(以下、「ライブビュー表示状態」と称する)においては、タイミングジェネレータ27からの駆動制御信号に基づいて、CCD21から1/30秒毎にA/D変換器22に対して画像信号(2560×240画素)が入力される。つまり、CCD21が、時間的に連続する画像(フレーム)を1/30秒毎に取得する。
【0022】
A/D変換器22は、CCD21から出力される画像信号(アナログ信号)を例えば1画素あたり10ビットのデジタル信号(デジタルデータ)に変換するものである。本撮影時には、A/D変換器22から出力される画像信号(画像データ)は、画像処理部23のみに送信される。一方、ライブビュー表示状態では、本撮影前に行われるAF動作を実行する状態(以下、「AF実行状態」と称する)において、A/D変換器22から出力される画像データ(画像)は、画像処理部23に送信されるとともに、AF評価値算出部30、及び移動量検出部40にも送信される。
【0023】
画像処理部23は、画像データに対してホワイトバランス(WB)の調整、γ補正、色補間等の画像処理を施す部位である。そして、画像処理部23から出力される画像データは、解像度変換部24へと導かれる。
【0024】
解像度変換部24は、CCD21から得られ、A/D変換器22でデジタルデータ化された画像データに対して所定の解像度変換を行う部位である。例えば、ライブビュー表示状態では、CCD21から入力される画像データに対して、解像度変換部24が所定の解像度変換を施す。その結果、解像度変換部24が、液晶表示部16の表示画素数(320×240個)に適合した画像サイズの画像データを生成する。つまり、ライブビュー表示状態では、CCD21において垂直方向について1/8間引きされた2560×240個の画素を有する画像に対し、解像度変換部24が、水平方向について1/8間引きを行い、320×240個の画素を有するライブビュー画像を生成する。なお、本撮影時には、解像度変換部24は解像度変換処理を行うことなく、画像処理部23から得られる画像データ(2560×1920画素)をそのまま画像圧縮部26に出力する。
【0025】
画像メモリ25は、CCD21で取得され、上記の画像処理が施された画像データを一時的に記憶するメモリである。画像メモリ25は、少なくとも数フレーム分の記憶容量を有している。すなわち、画像メモリ25は、CCD21の画素数に対応する2560×1920個の画素分の画素データを数フレーム分記憶可能な記憶容量を少なくとも有し、各画素データが対応する画素位置に記憶されるようになっている。
【0026】
画像圧縮部26は、本撮影によって得られる画像(2560×1920画素)に対して所定の圧縮方法による画像圧縮処理を施す。そして、画像圧縮の施された画像データ(記録画像)が画像圧縮部26から出力され、メモリカード9に記憶される。
【0027】
液晶表示部16は、一般的な液晶ディスプレイなどで構成され、320×240個の表示画素を有する。ライブビュー表示状態では、解像度変換部24から毎秒30フレーム分入力されるライブビュー画像が、液晶表示部16に順次表示される。また、本撮影時には、撮影直後に撮影された画像に係るアフタービュー画像が、液晶表示部16に表示される。
【0028】
AF評価値算出部30は、AF実行状態において、A/D変換器22から入力される画像信号(画像)を取得して、一般的なコントラスト方式(山登り方式)のAF動作と同様に、撮影レンズ11の合焦状態に関する評価値(以下、「AF評価値」と称する)を算出するものであり、算出されたAF評価値を示すデータをカメラ制御部70に送信する。AF評価値の算出方法については後述する。
【0029】
移動量検出部40は、A/D変換器22から入力される画像信号(画像)を取得して、時間的に連続する画像(フレーム)間における輝度値の変化に基づいて、被写体の移動量(被写体移動量)を検出するものであり、検出された被写体移動量を示すデータをカメラ制御部70に送信する。
【0030】
操作部60は、撮像装置1の各種設定を行う為の各種ボタン、及びシャッタースタートボタン(以下、「シャッターボタン」と略称する)61等を備えて構成され、操作者による各種ボタンやシャッターボタン61の操作に基づいた信号をカメラ制御部70に送信する。
【0031】
シャッターボタン61は、半押し状態(以下、これを「S1状態」と称する)と押し込んだ状態(以下、これを「S2状態」と称する)とが検出可能な2段階スイッチになっている。ライブビュー表示状態でシャッターボタン61をS1状態にすると、AF実行状態に移行し、AF動作のためのレンズ駆動を開始して、AF動作等を含む本撮影前の準備動作(以下、「撮影準備動作」と称する)を行う。
【0032】
このAF動作の初期においては、まず撮影レンズ11を合焦位置へ駆動させるための一般的なコントラスト方式のAF動作(所謂、「ワンショットAF動作」)が行われ、その後、シャッターボタン61がS2状態となるまで、被写体に対する合焦状態を保持し続けるAF動作(所謂、「コンティニュアスAF動作」)が行われる。そして、シャッターボタン61をS2状態にすると、AF動作を停止して撮影レンズ11の位置を固定し、CCD21で取得され画像処理が施された画像データが画像圧縮部26でデータ圧縮され、生成された画像データがメモリカード9に記憶される。
【0033】
カメラ制御部70は、主にCPU、ROM、及びRAM等を備えて構成され、撮像装置1内の各部を統括制御するものであり、CPUが所定のプログラムを実行することにより種々の演算や制御等を実現する。
【0034】
例えば、カメラ制御部70は、AF動作を制御する機能を有し、タイミングジェネレータ27と連繋して、AF動作時に、レンズ駆動部50を制御することで撮影レンズ11のレンズ位置を段階的に駆動させるとともに、各レンズ位置でCCD21によって画像を取得させるように制御する。このとき、カメラ制御部70は、AF評価値算出部30において各レンズ位置で取得される画像に対して設定されるAF評価エリア(後述)についてAF評価値を算出させるように制御する。そして、ここで算出されたAF評価値に基づいて撮影レンズ11の合焦位置を検出して、レンズ駆動部50を介して撮影レンズ11を合焦位置へ駆動させるように制御する。ワンショットAF動作、及びコンティニュアスAF動作を含むAF動作についてはさらに後述する。
【0035】
また、カメラ制御部70は、移動量検出部40から入力される被写体移動量を示すデータに基づいて、AF評価値算出部30において画像に対して設定されるAF評価エリアの位置を変更するように制御する。つまり、操作者によりシャッターボタン61が半押しされてS1状態となった後、シャッターボタン61が全押しされてS2状態となるまで、被写体の移動に合わせてAF評価エリアの位置を変更させつつ、コンティニュアスAF動作が行われる。即ち、ここでは、被写体を追尾しつつ合焦状態を実現し続ける動作(以下、「被写体追尾AF動作」と称する)が行われる。AF評価エリアの位置の変更についてもさらに後述する。
【0036】
レンズ駆動部50は、カメラ制御部70からの指令に応じて撮影レンズ11を光軸に沿って前後に駆動させるための駆動手段であり、CCD21に結像される被写体像の合焦状態を変化させるものである。
【0037】
<AF動作について>
上述したように、ライブビュー表示状態で、操作者がシャッターボタン61を半押しすることでS1状態となった場合は、初めに、ワンショットAF動作を行い、撮影レンズ11を合焦位置へと駆動する。その後、被写体を追尾しつつ合焦状態を実現し続ける被写体追尾AF動作が行われる。
【0038】
以下、ワンショットAF動作、及び被写体追尾AF動作について説明する。
【0039】
<ワンショットAF動作>
図2は、ワンショットAF動作において画像Gに対して設定されるAF評価エリアを例示する図である。なお、図2では、CCD21における画素の位置との対応を分かり易くするために、CCD21において1/8間引きされた方向である垂直方向に画像Gを8倍拡大して示している。また、図2以降では、画像に対する水平方向と垂直方向の関係を明確にするために必要に応じてX、Yの2軸を付している。
【0040】
図2に示すように、ワンショットAF動作において、AF評価値算出部30は、A/D変換器22から1/30秒毎に順次連続して入力される画像Gの中央付近に対して、AF評価値を算出するための対象となるエリア(AF評価エリア)AEを設定する。
【0041】
AF評価値算出部30は、A/D変換器22から入力される2560×240個の画素を有する画像Gのうち、中央部付近の384×28個の画素を有するAF評価エリアAEに相当する画像データを取得する。そして、一般的なコントラスト方式のAF動作において実施されるものと同様に、撮影レンズ11を駆動させつつ、AF評価エリアAE内の画像データを複数取得する。そして、AF評価値算出部30は、取得されたAF評価エリアAE内の画像(画像データ)に基づいて撮影レンズ11の合焦状態に関する評価値(AF評価値)を求める。このAF評価値は、一般的なコントラスト方式のAF動作において求められるものと同様に、AF評価エリアAE内のコントラスト値の総和として求められる。
【0042】
図3は、ワンショットAF動作の動作フローを例示するフローチャートである。このワンショットAF動作の動作フローはカメラ制御部70によって制御される。まず、ライブビュー表示状態において、操作者がシャッターボタン61を半押しすることでS1状態となると、ワンショットAF動作が開始して、ステップS1に進む。
【0043】
ステップS1では、撮影レンズ11を初期位置から微小駆動させて、駆動方向を決定し、ステップS2に進む。ここでは、撮影レンズ11を初期位置から微小駆動させて、AF評価エリアAEについて算出されるAF評価値が増大する撮影レンズ11の駆動方向をステップS2における駆動方向として決定する。
【0044】
ステップS2では、ステップS1において決定した駆動方向について一般的な山登りAF動作を行い、ステップS3に進む。ここでは、ステップS2において決定した駆動方向に所定のピッチで撮影レンズ11を駆動させつつ、画像を取得して、AF評価エリアAE内の画像データに基づいてAF評価値を算出し、AF評価値が減少し始めるまで撮影レンズ11の駆動を続ける。つまり、AF評価値が減少し始めたら、撮影レンズ11の駆動を停止する。
【0045】
ステップS3では、撮影レンズ11の合焦位置を算出して、ステップS4に進む。ここでは、ステップS2で算出されるAF評価値の最大値Ynとその前後のAF評価値Yn−1,Yn+1と、それらのAF評価値Yn−1,Yn,Yn+1に対応する撮影レンズ11のレンズ位置とを用いて、2次補間近似計算(2次曲線近似による計算)によってAF評価値が最大となる撮影レンズ11のレンズ位置を合焦位置として算出する。
【0046】
ステップS4では、ステップS3で算出された合焦位置まで撮影レンズ11を駆動させ、そして、ワンショットAF動作が終了する。
【0047】
なお、本発明では、上記ワンショットAF動作後も常時AF動作を継続するコンティニュアスAF動作が引き続き行われる。
【0048】
<被写体追尾AF動作>
<被写体移動量の検出>
移動量検出部40では、ワンショットAF動作終了後、A/D変換器22から時間的に連続して入力される画像について、輝度値の変化を評価することで、被写体移動量を検出する。
【0049】
図4から図7は、移動量検出部40において時間的に連続して取得される第1と第2の画像G1,G2に対してそれぞれ設定される輝度値の算出エリア(以下、「輝度評価エリア」と称する)SE1,SE2を例示する図である。なお、図4から図7でも、図2と同様に、CCD21における画素の位置との対応を分かり易くするために、CCD21において1/8間引きされた方向である垂直方向に輝度評価エリアSE1,SE2を8倍拡大して示している。
【0050】
ここでは、図4から図7に示すように、輝度評価エリアSE1,SE2はAF評価エリアAEと同じ位置、同じサイズ(384×28画素)に設定される。そして、図4から図7に示すように、移動量検出部40において、輝度評価エリアSE1,SE2は、それぞれ、同等な形状及びサイズを有する24個の縦長の短冊状の形状をしたエリア(以下、「縦長分割エリア」と称する)A1〜A24,B1〜B24(16×28画素)と、同等な形状及びサイズを有する14個の横長の短冊状の形状をしたエリア(以下、「横長分割エリア」と称する)C1〜C14,D1〜D14(384×2画素)とに分割される。
【0051】
なお、縦長分割エリアA1〜A24,B1〜B24は、横方向(X方向)への被写体移動量を検出するためのエリアであり、横長分割エリアC1〜C14,D1〜D14は、縦方向(Y方向)への被写体移動量を検出するためのエリアである。
【0052】
以下、移動量検出部40における被写体移動量の検出について、縦と横方向への被写体移動量の検出に分節して、具体的に説明する。
【0053】
<横方向への被写体移動量検出>
まず、移動量検出部40は、輝度評価エリアSE1内において、互いに隣接し合う22個の縦長分割エリアを含むエリア(以下、「第1横移動評価エリア」とも称する)を複数設定するとともに、輝度評価エリアSE2内において、互いに隣接し合う22個の縦長分割エリアを含むエリア(以下、「第2横移動評価エリア」とも称する)を複数設定する。
【0054】
つまり、移動量検出部40は、時間的に連続して取得される第1の画像G1と第2の画像G2とについて、第1の画像G1に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の縦長分割エリアを共有し合う第1横移動評価エリアを複数個設定し、また、第2の画像G2に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の縦長分割エリアを共有し合う第2横移動評価エリアを複数個設定する。また、ここでは、各画像に対して設定される第1と第2横移動評価エリアは同等な形状及びサイズを有する。
【0055】
具体的には、輝度評価エリアSE1内において、互いに隣接し合う22個の縦長分割エリアA1〜A22を含む第1横移動評価エリア、互いに隣接し合う22個の縦長分割エリアA2〜A23を含む第1横移動評価エリア、互いに隣接し合う22個の縦長分割エリアA3〜A24を含む第1横移動評価エリアを設定する。また、輝度評価エリアSE2内において、互いに隣接し合う22個の縦長分割エリアB1〜B22を含む第2横移動評価エリア、互いに隣接し合う22個の縦長分割エリアB2〜B23を含む第2横移動評価エリア、互いに隣接し合う22個の縦長分割エリアB3〜B24を含む第2横移動評価エリアを設定する。
【0056】
そして、移動量検出部40は、図4及び図5に示す各縦長分割エリアA1〜A24,B1〜B24についての輝度値AY(1)〜AY(24),BY(1)〜BY(24)をそれぞれ算出する。例えば、移動量検出部40は、各輝度値AY(1)〜AY(24),BY(1)〜BY(24)を、各縦長分割エリアA1〜A24,B1〜B24内に含まれる全画素の画素値(輝度値)の総和の形としてそれぞれ算出する。
【0057】
さらに、移動量検出部40は、各第1横移動評価エリアと各第2横移動評価エリアの組合せについて、各第1横移動評価エリアにおける相対的な位置と各第2横移動評価エリアにおける相対的な位置とが等しい縦長分割エリアを対応する縦長分割エリアとし、対応する各縦長分割エリア間の輝度値の差分の絶対値を足し合わせて、横方向への被写体移動量を検出するための輝度に関する評価値(以下、「横移動−輝度評価値」とも称する)PAT1〜PAT5を算出する。
【0058】
つまり、移動量検出部40は、第1横移動評価エリアと第2横移動評価エリアとの組合せ毎について、縦長分割エリア(第1分割領域)毎についての輝度値と、対応する縦長分割エリア(第2分割領域)毎についての輝度値の差分の絶対値の総和を横移動−輝度評価値PAT1〜PAT5として算出する。即ち、移動量検出部40は、縦長分割エリア(第1分割領域)毎についての輝度値と、対応する縦長分割エリア(第2分割領域)毎についての輝度値とに基づいて横移動−輝度評価値PAT1〜PAT5を算出する。また、別の観点から言えば、移動量検出部40は、第1横移動評価エリアについての輝度値と、第2横移動評価エリアについての輝度値との差分を横移動−輝度評価値として算出する。即ち、移動量検出部40は、第1横移動評価エリアについての輝度値と、第2横移動評価エリアについての輝度値とに基づいて横移動−輝度評価値を算出する。
【0059】
具体的には、横移動−輝度評価値PAT1〜PAT5は、下式(1)〜(5)に従って算出される。
【0060】
PAT1=Σ|AY(m)−BY(m)| ・・・(1)
PAT2=Σ|AY(m)−BY(m−1)| ・・・(2)
PAT3=Σ|AY(m)−BY(m+1)| ・・・(3)
PAT4=Σ|AY(m+1)−BY(m−1)| ・・・(4)
PAT5=Σ|AY(m−1)−BY(m+1)| ・・・(5)。
【0061】
式(1)〜(5)中のmには自然数が適用され、m−1には1〜22、mには2〜23、m+1には3〜24がそれぞれ適用される。
【0062】
式(1)〜(5)では、時間的に連続する2つの画像G1,G2において、CCD21の画素数に換算して水平方向に16画素分のピッチで並ぶ第1横移動評価エリアと第2横移動評価エリアとの間について、輝度のパターンの類似度を算出している。なお、以下では、被写体移動量を画素数で表す場合には、CCD21の画素数に換算して表す。そして、輝度のパターンの類似度が高いほど、横移動−輝度評価値が小さくなる性質を利用して、横方向への被写体の移動量を求める。
【0063】
つまり、各第1横移動評価エリアと各第2横移動評価エリアとの組合せのうち、最も横移動−輝度評価値が小さくなる第1横移動評価エリアと第2横移動評価エリアの組合せについては、最もエリア内の輝度のパターンが類似している。そして、そのような組合せに係る第1及び第2横移動評価エリアには、同じ被写体が含まれていると判断することができる。そこで、最も横移動−輝度評価値が小さくなる第1横移動評価エリアと第2横移動評価エリアとの組合せについて、その評価エリアの相対的な位置関係を、横方向への被写体移動量として検出する。即ち、移動量検出部40は、複数の横移動−輝度評価値PAT1〜PAT5に基づいて横方向への被写体移動量を検出する。
【0064】
具体的には、移動量検出部40は、横移動−輝度評価値PAT1〜PAT5のうち、
▲1▼横移動−輝度評価値PAT1が最小の時は、横方向への被写体移動量が0画素分と検出し、
▲2▼横移動−輝度評価値PAT2が最小の時は、横方向への被写体移動量が左(−X方向)に16画素分と検出し、
▲3▼横移動−輝度評価値PAT3が最小の時は、横方向への被写体移動量が右(+X方向)に16画素分と検出し、
▲4▼横移動−輝度評価値PAT4が最小の時は、横方向への被写体移動量が左(−X方向)に32画素分と検出し、
▲5▼横移動−輝度評価値PAT5が最小の時は、横方向への被写体移動量が右(+X方向)に32画素分と検出する。
【0065】
このように、移動量検出部40は、横移動−輝度評価値が最小となる第1横移動評価エリアと第2横移動評価エリアとの組合せに係る第1横移動評価エリアと第2横移動評価エリアの相対的な位置関係に基づいて、横方向への被写体移動量を検出する。つまり、ここでは、AF動作による撮影レンズ11の駆動に起因するデフォーカス量の変化によって変動し難い輝度値を用い、時間的に連続して取得される画像において輝度パターンが類似したエリアを同じ被写体が存在するエリアであるとみなして、横方向への被写体移動量を検出する。その結果、横方向への被写体移動量を確実かつ精度良く検出することができる。
【0066】
なお、上述したように、横移動−輝度評価値は、AF動作における合焦制御において直接的に用いられる画像のコントラストに関する値ではない。すなわち、ここで言うコントラストに関する値(例えば、AF評価値)は「ひとつの画像」について、着目する領域とその周辺領域との輝度の差(換言すれば、「画像内」の輝度の空間変化)を反映する量であるが、この実施形態で使用する輝度評価値(例えば、横移動−輝度評価値)は、「一方の画像」の着目領域における輝度値と、「他方の画像」でそれに対応する領域の輝度値との違い(換言すれば、「画像間」の輝度の相違)を反映した値である。
【0067】
上述のごとく横方向への被写体移動量を検出したが、ここで、例えば、単に第1横移動評価エリア内の全画素の輝度値の総和と、第2横移動評価エリア内の全画素の輝度値の総和との差分を横移動評価値PAT1〜PAT5として算出すると仮定すると、大きなサイズの第1及び第2横移動評価エリア内における輝度のパターンの変化が平均化されてしまい、その輝度パターンの変化を横移動−輝度評価値PAT1〜PAT5に対して正しく反映させることができない。
【0068】
そこで、撮像装置1では、各第1横移動評価エリアと各第2横移動評価エリアとの組合せについて、対応する縦長分割エリア間の輝度値の差分の絶対値を足し合わせて、横移動−輝度評価値PAT1〜PAT5として算出する。よって、小さなサイズの縦長分割エリア間の輝度の変化を反映させた形で、横移動−輝度評価値PAT1〜PAT5を算出することができるため、詳細かつ正確な輝度のパターンの変化を把握することができる。その結果、算出される横移動−輝度評価値PAT1〜PAT5の信頼性を向上させることができるとともに、最終的に検出される横方向への被写体移動量を容易かつさらに精度良く検出することができる。
【0069】
<縦方向への被写体移動量検出>
縦方向への被写体移動量の検出は、上述した横方向への被写体移動量の検出と同様となるが、以下、詳細に説明する。
【0070】
まず、移動量検出部40は、輝度評価エリアSE1内において、互いに隣接し合う12個の横長分割エリアを含むエリア(以下、「第1縦移動評価エリア」とも称する)を複数設定するとともに、輝度評価エリアSE2内において、互いに隣接し合う12個の横長分割エリアを含むエリア(以下、「第2縦移動評価エリア」とも称する)を複数設定する。
【0071】
つまり、移動量検出部40は、時間的に連続して取得される第1の画像G1と第2の画像G2とについて、第1の画像G1に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の横長分割エリアを共有し合う第1縦移動評価エリアを複数個設定し、また、第2の画像G2に対して、互いにずれた相対的な位置関係を有し、かつ互いに一部の横長分割エリアを共有し合う第2縦移動評価エリアを複数個設定する。また、ここでは、各画像に対して設定される第1及び第2縦移動評価エリアはそれぞれ同等な形状及びサイズを有する。
【0072】
具体的には、輝度評価エリアSE1内において、互いに隣接し合う12個の横長分割エリアC1〜C12を含む第1縦移動評価エリア、互いに隣接し合う12個の横長分割エリアC2〜C13を含む第1縦移動評価エリア、互いに隣接し合う12個の横長分割エリアC3〜C14を含む第1縦移動評価エリアを設定する。また、輝度評価エリアSE2内において、互いに隣接し合う12個の横長分割エリアD1〜D12を含む第2縦移動評価エリア、互いに隣接し合う12個の横長分割エリアD2〜D13を含む第2縦移動評価エリア、互いに隣接し合う12個の横長分割エリアD3〜D14を含む第2縦移動評価エリアを設定する。
【0073】
そして、移動量検出部40は、図6及び図7に示す各横長分割エリアC1〜C14,D1〜D14についての輝度値CY(1)〜CY(14),DY(1)〜DY(14)をそれぞれ算出する。例えば、移動量検出部40は、各輝度値CY(1)〜CY(14),DY(1)〜DY(14)を、各横長分割エリアC1〜C14,D1〜D14内に含まれる全画素の画素値(輝度値)の総和の形としてそれぞれ算出する。
【0074】
さらに、移動量検出部40は、各第1縦移動評価エリアと各第2縦移動評価エリアの組合せについて、各第1縦移動評価エリアにおける相対的な位置と各第2縦移動評価エリアにおける相対的な位置とが等しい横長分割エリアを対応する横長分割エリアとし、対応する各横長分割エリア間の輝度値の差分の絶対値を足し合わせて、縦方向への被写体移動量を検出するための輝度に関する評価値(以下、「縦移動−輝度評価値」とも称する)PAT6〜PAT10を算出する。
【0075】
つまり、移動量検出部40は、第1縦移動評価エリアと第2縦移動評価エリアとの組合せ毎について、横長分割エリア(第1分割領域)毎についての輝度値と、対応する横長分割エリア(第2分割領域)毎についての輝度値の差分の絶対値の総和を縦移動−輝度評価値PAT6〜PAT10として算出する。即ち、移動量検出部40は、横長分割エリア(第1分割領域)毎についての輝度値と、対応する横長分割エリア(第2分割領域)毎についての輝度値とに基づいて縦移動−輝度評価値PAT6〜PAT10を算出する。また、別の観点から言えば、移動量検出部40は、第1縦移動評価エリアについての輝度値と、第2縦移動評価エリアについての輝度値との差分を縦移動−輝度評価値として算出する。即ち、移動量検出部40は、第1縦移動評価エリアについての輝度値と、第2縦移動評価エリアについての輝度値とに基づいて縦移動−輝度評価値を算出する。
【0076】
具体的には、縦移動−輝度評価値PAT6〜PAT10は、下式(6)〜(10)に従って算出する。
【0077】
PAT6=Σ|CY(m)−DY(m)| ・・・(6)
PAT7=Σ|CY(m)−DY(m−1)| ・・・(7)
PAT8=Σ|CY(m)−DY(m+1)| ・・・(8)
PAT9=Σ|CY(m+1)−DY(m−1)| ・・・(9)
PAT10=Σ|CY(m−1)−DY(m+1)| ・・・(10)。
【0078】
式(6)〜(10)中のmには自然数が適用され、m−1には1〜12、mには2〜13、m+1には3〜14がそれぞれ適用される。
【0079】
式(6)〜(10)では、時間的に連続する2つの画像G1,G2において、CCD21の画素数に換算して垂直方向に16画素分のピッチで並ぶ第1縦移動評価エリアと第2縦移動評価エリアとの間について、輝度のパターンの類似度を算出している。そして、輝度のパターンの類似度が高いほど、縦移動−輝度評価値が小さくなる性質を利用して、縦方向への被写体の移動量を求める。
【0080】
つまり、各第1縦移動評価エリアと各第2縦移動評価エリアとの組合せのうち、最も縦移動−輝度評価値が小さくなる第1縦移動評価エリアと第2縦移動評価エリアとの組合せについては、最もエリア内の輝度のパターンが類似している。そして、そのような組合せに係る第1及び第2縦移動評価エリアには、同じ被写体が含まれていると判断することができる。そこで、最も縦移動−輝度評価値が小さくなる第1縦移動評価エリアと第2縦移動評価エリアとの組合せについて、その評価エリアの相対的な位置関係を、縦方向への被写体移動量として検出する。即ち、移動量検出部40は、複数の縦移動−輝度評価値PAT6〜PAT10に基づいて縦方向への被写体移動量を検出する。
【0081】
具体的には、移動量検出部40は、縦移動−輝度評価値PAT6〜PAT10のうち、
▲1▼縦移動−輝度評価値PAT6が最小の時は、縦方向への被写体移動量が0画素分と検出し、
▲2▼縦移動−輝度評価値PAT7が最小の時は、縦方向への被写体移動量が上(+Y方向)に16画素分と検出し、
▲3▼縦移動−輝度評価値PAT8が最小の時は、縦方向への被写体移動量が下(−Y方向)に16画素分と検出し、
▲4▼縦移動−輝度評価値PAT9が最小の時は、縦方向への被写体移動量が上(+Y方向)に32画素分と検出し、
▲5▼縦移動−輝度評価値PAT10が最小の時は、縦方向への被写体移動量が下(−Y方向)に32画素分と検出する。
【0082】
このように、移動量検出部40は、縦移動−輝度評価値が最小となる第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る第1縦移動評価エリアと第2縦移動評価エリアの相対的な位置関係に基づいて、縦方向への被写体移動量を検出する。つまり、ここでは、AF動作による撮影レンズ11の駆動に起因するデフォーカス量の変化によって変動し難い輝度値を用い、時間的に連続して取得される画像において輝度パターンが類似したエリアを同じ被写体が存在するエリアであるとみなして、縦方向への被写体移動量を検出する。その結果、縦方向への被写体移動量を確実かつ精度良く検出することができる。なお、上述したように、縦移動−輝度評価値は、横移動−輝度評価値と同様に、AF動作における合焦制御において直接的に用いられる画像のコントラストに関する値ではない。
【0083】
上述のごとく縦方向への被写体移動量を検出したが、ここで、例えば、単に第1縦移動評価エリア内の全画素の輝度値の総和と、第2縦移動評価エリア内の全画素の輝度値の総和との差分を縦移動評価値PAT6〜PAT10として算出すると仮定すると、大きなサイズの第1及び第2縦移動評価エリア内における輝度のパターンの変化が平均化されてしまい、その輝度パターンの変化を縦移動評価値PAT6〜PAT10に対して正しく反映させることができない。
【0084】
そこで、撮像装置1では、各第1縦移動評価エリアと各第2縦移動評価エリアとの組合せについて、対応する各横長分割エリア間の輝度値の差分の絶対値を足し合わせて、縦移動−輝度評価値PAT6〜PAT10として算出する。よって、小さなサイズの横長分割エリア間の輝度の変化を反映させた形で、縦移動−輝度評価値PAT6〜PAT10を算出することができるため、詳細かつ正確な輝度パターンの変化を把握することができる。その結果、算出される縦移動−輝度評価値PAT6〜PAT10の信頼性を向上させることができるとともに、最終的に検出される縦方向への被写体移動量を容易かつさらに精度良く検出することができる。
【0085】
また、上述したように、移動量検出部40は、輝度評価エリアSE1,SE2を24個の縦長分割エリア、及び14個の横長分割エリアに分割して、縦と横方向への被写体移動量を検出した。ここで、縦横に輝度評価エリアSE1,SE2を短冊状のエリアに分割せず、縦14×横24個のブロックに分割して、ブロック毎に画像間における輝度値の変化を評価することによっても同様な精度で被写体移動量を検出することが可能となる。しかし、縦14×横24個のブロックに分割すると合計336個のブロックについて輝度値に関する計算を行わなければならず、被写体移動量を検出するための演算に長時間を要してしまう。そこで、撮像装置1では、単に輝度評価エリアSE1,SE2を24個の短冊状の縦長分割エリア、及び14個の短冊状の横長分割エリアに分割して、合計38個のエリアについて輝度値に関する計算を行うだけで、縦と横方向への被写体移動量を検出することができる。その結果、被写体移動量を検出するための演算速度を向上させることができる。
【0086】
<被写体移動量の信頼性評価>
また、移動量検出部40は、上述のようにして検出された縦と横方向への被写体移動量が正確であるか否かを検証する信頼性評価機能を有している。
【0087】
上記のように、縦と横方向への被写体移動量の検出には、レンズ駆動に伴う変化度合いの小さい輝度値が用いられることにより、被写体移動量検出時における誤検出の低減を図ることができるが、CCD21によって取得される画像におけるコントラストが極めて低い場合等は、縦移動−輝度評価値PAT6〜PAT10の差異や横移動−輝度評価値PAT1〜PAT5の差異も小さく、被写体移動量を誤検出する可能性が存在する。
【0088】
そこで、移動量検出部40は、上記のような誤検出を防止するために、上記のようにして検出された被写体移動量が正確であるか否かを信頼性評価機能によって検証する。具体的には、横移動−輝度評価値PAT1〜PAT5のうちの最大値(以下、「信頼性評価値」と称する)Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40は、信頼性評価値Cが所定の値よりも大きな場合は、検出される横方向への被写体移動量が正確な値であるものとして判断する。
【0089】
また、縦方向への被写体移動量についても同様に、縦移動−輝度評価値PAT6〜PAT10のうちの最大値(信頼性評価値)Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40は、信頼性評価値Cが所定の値よりも大きな場合は、検出される縦方向への被写体移動量が正確な値であるものとして判断する。
【0090】
そして、移動量検出部40は、縦及び横方向の信頼性評価値Cがともに所定の値よりも大きな場合は、検出される被写体移動量が正確な値であるものと判断し、その旨をカメラ制御部70に送信する。即ち、ここでは、移動量検出部40が、所定値以上の縦移動−輝度評価値と横移動−輝度評価値との検出に基づいて被写体移動量を信頼性のある値として判別する。その結果、被写体移動量の誤検出を低減することができる。
【0091】
<AF評価エリアの設定変更>
図8は、AF評価エリアAE及び被写***置を示すポインタの変更について例示する図である。図8(a)では、ワンショットAF動作直後の画像G1について示しており、図8(b)では、さらにNフレーム後の画像GNについて示している。なお、被写***置を示すポインタSPは、液晶表示部16に表示されるライブビュー画像上における被写体の位置を示す表示であり、液晶表示部16が、ライブビュー画像とともにポインタSPを重畳表示する。また、図8では、AF評価値算出部30で画像に対して設定されるAF評価エリアAEと、液晶表示部16でのライブビュー画像上に表示されるポインタSPとの位置関係を明確化するために、便宜上、AF評価エリアAEとポインタSPとを併せて示している。
【0092】
上述したように、移動量検出部40において検出された縦及び横方向への被写体移動量を示すデータが、カメラ制御部70に送信される。また、移動量検出部40は、検出される被写体移動量が正確な値である場合には、その旨をカメラ制御部70に送信する。そして、移動量検出部40から送信される被写体移動量が正確な値である場合には、図8に示すように、カメラ制御部70の制御下で、AF評価値算出部30が、移動量検出部40で検出された被写体移動量に基づいて、CCD21で取得される画像に対して設定されるAF評価領域(合焦評価領域)AEの位置を移動させるとともに、液晶表示部16が、移動量検出部40で検出された被写体移動量に基づいて、被写体の位置を示す位置表示(ここでは、ポインタSP)の位置を変更する。
【0093】
例えば、図8(a)に示すように、ワンショットAF動作直後に、AF評価値算出部30に入力される画像G1に対してAF評価エリアAEが設定された後、縦及び横方向への被写体移動量に応じて、AF評価エリアAEの位置が変更され、図8(b)に示すように、被写体を追従するようにAF評価エリアAEが変更・移動される。その結果、被写体を追尾しながら、被写体に対して合焦させることができるため、被写体の移動に対応して撮影レンズ11の合焦状態を保持することができる。
【0094】
また、このとき、図8(a)に示すように、ワンショットAF動作直後に、液晶表示部16に表示されるライブビュー画像に対してポインタSPが重畳して表示された後、縦及び横方向への被写体移動量に応じて、ポインタSPの位置が変更され、図8(b)に示すように、被写体を追従するようにポインタSPの位置が変更される。その結果、操作者が、ライブビュー画像上のポインタSPを観察することによって、AF評価エリアAE等の被写体に対する追尾状況を把握することができる。
【0095】
<コンティニュアスAF動作>
図9は、コンティニュアスAF動作の動作フローを例示するフローチャートである。なお、図9では、コンティニュアスAF動作の動作フローのうち、撮影レンズ11の駆動、撮像処理、及び次回の合焦位置の検出について示している。なお、CCD21からの画像信号の読出し、AF評価値の算出・取得等の処理は、各撮像処理の実施直後に順次行われる。また、このコンティニュアスAF動作の動作フローはカメラ制御部70によって制御される。
【0096】
また、図10は、撮影レンズの位置11とAF評価値との関係を示す曲線VLを例示する図である。なお、図10では、前回検出された合焦位置をレンズ位置FPで示し、次回検出される合焦位置をレンズ位置APで示す。ここでは、Fは撮影レンズ11のFナンバー(絞り値)を示し、δは所謂CCD21の許容錯乱円を示す。図10に示すように、コンティニュアスAF動作では、前回検出された合焦位置FPを中心として、4Fδピッチで前後に3点ずつ計7点の撮影レンズ位置(P1〜P7)において、画像を取得するとともに、AF評価値を算出して、7つのAF評価値に基づいて次回のレンズ位置APを検出し、レンズ位置APに撮影レンズ11を駆動する一連のAF動作を繰り返し行う。
【0097】
以下、図10を参照しつつ、図9に示すコンティニュアスAF動作の動作フローについて説明する。なお、コンティニュアスAF動作が行われる際には、上述したように、被写体の移動に追従してAF評価エリアAEの位置が変更される。
【0098】
ここでは、上記ワンショットAF動作が終了すると、コンティニュアスAF動作が開始して、ステップS11に進む。
【0099】
ステップS11では、S2状態が割り込み可能に設定され、ステップS12に進む。ここでは、コンティニュアスAF動作の動作フロー中に、操作者によってシャッターボタン61が全押しされて、S2状態となった場合は、コンティニュアスAF動作を中止して本撮影を行うように設定される。
【0100】
ステップS12では、図10に示すように、前回の合焦位置からレンズ繰り入れ側に12Fδだけ離隔したレンズ位置P1に撮影レンズ11を駆動させ、1個目の画像(第1フレーム)を取得すべく1回目の撮像処理を行い、ステップS13に進む。
【0101】
ステップS13では、図10に示すように、4Fδピッチで撮影レンズ11を繰り出し側に駆動させつつ、レンズ位置P2〜P7において、2個目〜7個目の画像(第2〜第7フレーム)を順次取得すべく2〜7回目の撮像処理を順次行い、ステップS14に進む。
【0102】
ステップS14では、前回の合焦位置FP付近へ撮影レンズ11を駆動させつつ、レンズ位置P8,P9において8、9個目の画像(第8、第9フレーム)を順次取得すべく8、9回目の撮像処理を順次行い、第9フレーム取得時に次回の合焦位置APを検出し、ステップS15に進む。ここでは、第1〜第7フレームについて算出されるAF評価値について、2次補間近似計算を行い、AF評価値が最大となるレンズ位置APを次回の合焦位置として検出する。
【0103】
ステップS15では、ステップS14で検出された次回の合焦位置APへ撮影レンズ11を駆動させ、10個目の画像(第10フレーム)を取得すべく10回目の撮像処理を行い、ステップS12に戻る。
【0104】
<被写体追尾AF動作のタイミング>
以上、被写体追尾AF動作における被写体移動量検出、及びコンティニュアスAF動作について説明したが、被写体追尾AF動作をタイミングチャートで示すと図11に示すようになる。図11では、上から順に、撮影レンズ11の駆動、撮像処理、CCD21からの画像読出し、AF評価値の算出、移動量検出部40における各分割エリアについての輝度値の算出、カメラ制御部70によるAF評価値の取得、被写体移動量の検出、次回の合焦位置の検出のタイミングを示している。
【0105】
撮影レンズ11は所定のタイミングで駆動され、各レンズ駆動によってレンズ位置がP1からP9まで段階的に駆動される(図10参照)。
【0106】
1回目レンズ駆動が終了すると、撮影レンズ11はレンズ位置P1に移動しており、そこで1回目の撮像処理が行われる。CCD21の撮像処理が終了すると、CCD21から画像が読み出される。このとき、AF評価値算出部30及び移動量検出部40はCCD21から読み出される画像を、A/D変換器22を介して取得し、画像読出し動作と並行して、AF評価値算出部30がAF評価値の演算を開始するとともに、移動量検出部40が各縦及び横長分割エリアについての輝度値の算出を開始する。そしてAF評価値の算出が終了すると、カメラ制御部70がそのAF評価値を取得する。
【0107】
また、1回目の撮像処理が終了すると、2回目のレンズ駆動が行われ、撮影レンズ11がレンズ位置P2に移動した状態で2回目の撮像処理が行われる。したがって、2回目のレンズ駆動及び撮像処理は、1回目の撮像処理によって得られた画像の読み出し動作と、AF評価値算出動作と、各縦及び横長分割エリアについての輝度値の算出動作と並行して行われることになる。
【0108】
そして2回目の撮像処理によって得られた画像に基づくAF評価値の算出が終了すると、カメラ制御部70がそのAF評価値を取得する。また、移動量検出部40は、2回目の撮像処理によって得られた画像に対する各縦及び横長分割エリアについての輝度値の算出が終了すると、1回目の画像と2回目の画像との間における被写体移動量の検出を行う。この被写体移動量検出による検出結果は、4回目の画像に基づくAF評価値算出にフィードバックされ、4回目の画像に基づくAF評価値算出の際に適用されるAF評価エリアAEの設定変更が行われる。
【0109】
以下同様な動作が繰り返され、7回目のレンズ駆動に伴う各動作が終了した時点で、カメラ制御部70において7回分のAF評価値に基づいて次回の合焦位置APを検出するための処理が実行される。そして、この次回の合焦位置APの検出処理は9回目のレンズ駆動及び撮像処理が行われる際に実行され、10回目のレンズ駆動にフィードバックされ、10回目の撮像処理は次回の合焦位置APに撮影レンズ11を駆動させて行われる。
【0110】
そして、このような1回目から10回目のレンズ駆動に伴う各動作が繰り返されることによって、被写体の移動に追従してAF評価エリアAEの位置を変更しつつ、コンティニュアスAF動作が行われる被写体追尾AF動作が実施される。
【0111】
<AF動作における動作フロー>
図12は、撮像装置1におけるAF動作全体の動作フローを模式的に示すフローチャートである。このAF動作全体の動作フローはカメラ制御部70によって制御される。まず、ライブビュー表示状態において、操作者がシャッターボタン61を半押しすることでS1状態となると、AF動作が開始して、ステップS31に進む。
【0112】
ステップS31では、上述したようなワンショットAF動作が行われ、ステップS32に進む。
【0113】
ステップS32では、上述したように、コンティニュアスAF動作と被写体移動量の検出動作とを並行して行い、ステップS33に進む。なお、ここでは、図9で示したコンティニュアスAF動作の動作フローと、被写体移動量の検出動作とが並行して行われ、操作者がシャッターボタン61を全押しすることでS2状態となると、本撮影動作を行うために最新の合焦位置にレンズを移動させてAF動作を中止する。また、被写体移動量の検出動作では、被写体移動量の検出に関する信頼性評価値Cが所定値よりも大きいか否かの処理も行い、その結果をカメラ制御部70に送信する。
【0114】
ステップS33では、被写体移動量の検出に関する信頼性評価値Cが所定値よりも大きいか否かを判別する。ここでは、移動量検出部40からカメラ制御部70へ、信頼性評価値Cが所定値よりも大きい旨が送信される場合は、信頼性評価値Cが所定値よりも大きいものと判別して、ステップS34に進み、移動量検出部40からカメラ制御部70へ、信頼性評価値Cが所定値よりも大きい旨が送信されない場合は、信頼性評価値Cが所定値よりも大きくないものと判別して、ステップS32に戻る。なお、ステップS33からステップS32に戻った場合は、AF評価エリアAEの位置の移動・変更は行われない。
【0115】
ステップS34では、上述したように、AF評価エリアAEをステップS32で検出された被写体移動量に基づいて移動・変更し、ステップS35に進む。
【0116】
ステップS35では、被写体の位置を示すポインタの位置をステップS32で検出された被写体移動量に基づいて変更し、ステップS32に戻る。
【0117】
このように、ここでは、操作者がシャッターボタン61を半押しすることでS1状態となると、AF動作等を含む撮影準備動作が開始し、その後、移動量検出部40が被写体移動量を検出する。その結果、必要な時だけ被写体移動量を検出するようにすることができるため、省電力化を図ることができる。
【0118】
以上のように、第1実施形態に係る撮像装置1では、時間的に連続する第1の画像G1と第2の画像G2とを取得する。そして、第1の画像G1に対して、複数の第1横移動評価エリア、及び複数の第2縦移動評価エリアを設けるともに、第2の画像G2に対して、複数の第2横移動評価エリア、及び複数の第2縦移動評価エリアを設ける。そして、各横移動評価エリア、及び各縦移動評価エリアの輝度値について、画像間で差分を算出する等して比較・評価する。そして、算出した輝度値の差分等に基づいて、縦及び横方向への被写体移動量を検出する。よって、ここでは、AF動作による撮影レンズ11の駆動に起因するデフォーカス量の変化によって変動し難い輝度値を時間的に連続する画像間で比較・評価することにより、被写体移動量を検出する。その結果、被写体の移動を容易かつ精度良く検出することが可能な撮像装置を提供することができる。
【0119】
また、画像G1に対して複数の第1縦移動評価エリアと複数の第1横移動評価エリアとがそれぞれ相互に重なり合うように少しずつずらされて設けられ、画像G2に対して複数の第2縦移動評価エリアと複数の第2横移動評価エリアとがそれぞれ相互に重なり合うように少しずつずらされて設けられる。その結果、被写体の細かい移動量も検出することができ、被写体の少しずつの動きに対してもAF評価エリアAEを少しずつずらしながら移動させることができる。つまり、被写体の移動に対応して、詳細かつ正確にAF評価エリアAEを移動・変更することができる。
【0120】
さらに、画像G1に対して複数の第1縦移動評価エリア同士が、相互に重なり合う部分について一部の横長分割エリアを共有するように設けられ、複数の第1横移動評価エリア同士が、相互に重なり合う部分について一部の縦長分割エリアを共有するように設けられる。また、画像G2に対して複数の第2縦移動評価エリア同士が、相互に重なり合う部分について一部の横長分割エリアを共有するように設けられ、複数の第2横移動評価エリア同士が、相互に重なり合う部分について一部の縦長分割エリアを共有するように設けられる。よって、重複した輝度値の演算を極力少なくすることができるため、縦移動−輝度評価値と横移動−輝度評価値の演算に要する時間を比較的短くすることができる。
【0121】
<(2)第2実施形態>
上述した第1実施形態では、被写体移動量が縦方向や横方向に0、又は16、又は32画素分であると検出された。即ち、検出の最小単位は16画素分である。そこで、第2実施形態に係る撮像装置1Aでは、移動量検出部40Aにおいて、第1実施形態に係る移動量検出部40と同様に、縦及び横移動−輝度評価値PAT1〜PAT10を算出するとともに、それらの値について補間計算を行うことによって、16画素よりも細かな被写体移動量を検出することができる。また、信頼性評価機能についても、移動量検出部40Aと移動量検出部40とは異なる。
【0122】
なお、第2実施形態に係る撮像装置1Aでは、移動量検出部40Aが第1実施形態に係る撮像装置1と異なるのみで、その他の部分については全く同様となるため、同様な符合を付して説明を省略する。
【0123】
<補間計算及び被写体移動量検出>
<横方向について>
移動量検出部40Aでは、例えば、横移動−輝度評価値PAT1〜PAT5のうちの最小値と、その最小値に係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、±X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値とに基づいて、補間計算を行って被写体移動量を検出する。
【0124】
つまり、第1横移動評価エリアと第2横移動評価エリアとの組合せのうち、横移動−輝度評価値が最小となる組合せを第1の組合せと称し、第1の組合せに係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、+X方向に所定量だけずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せを第2の組合せと称し、さらに、第1の組合せに係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、−X方向に所定量だけずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せを第3の組合せと称するこことすると、移動量検出部40Aは、第1から第3の組合せに係る3つの横移動−輝度評価値に基づいて横方向への被写体移動量を検出する。
【0125】
具体的には、横移動−輝度評価値PAT1〜PAT5のうち、横移動−輝度評価値PAT2が最小である場合、つまり、第1横移動評価エリアとそのエリアに対して相対的に−X方向に16画素分だけずれた画像G2に設けられた第2横移動評価エリアとの組合せに係る横移動−輝度評価値PAT2が最小である場合、その横移動−輝度評価値PAT2と、横移動−輝度評価値PAT2に係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、±X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値PAT1,PAT4とに基づいて、補間計算を行って被写体移動量を検出する。
【0126】
図13は、横移動−輝度評価値PAT1〜PAT5のうち、横移動−輝度評価値PAT2が最小である場合における横方向への被写体移動量の補間計算を説明するための図である。図13では、横軸は、第1横移動評価エリアと第2横移動評価エリアとの相対的なX方向へのずれ量(Xd)を示し、縦軸は、横移動−輝度評価値を示している。また、図13には、横移動−輝度評価値PAT1,PAT2,PAT4にそれぞれ対応するX方向へのずれ量と、その横移動−輝度評価値との関係を示すプロットMX1,MX2,MX4がそれぞれ記されている。
【0127】
図13(a)に示すように、PAT1<PAT4の場合には、プロットMX2及びプロットMX4とを結ぶ直線110を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMX1を通る直線111を引く。そして、直線110と直線111とが交差する点における横軸の座標を横方向への被写体移動量MHとして検出する。一方、図13(b)に示すように、PAT1≧PAT4の場合には、プロットMX1及びプロットMX2とを結ぶ直線121を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMX4を通る直線120を引く。そして、直線120と直線121とが交差する点における横軸の座標を横方向への被写体移動量MHとして検出する。
【0128】
また、ここでは、横移動−輝度評価値PAT1〜PAT5のうち、横移動−輝度評価値PAT2が最小である場合の具体例を示したが、他の横移動−輝度評価値が最小である場合にも同様な補間計算によって横方向への被写体移動量MHを検出することができる。
【0129】
ここで、横移動−輝度評価値PAT1〜PAT5のうちの最小値をYB、その最小値YBに係る第1横移動評価エリアと第2横移動評価エリアとの相対的な位置関係に対して、−X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値をYAとし、+X方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る横移動−輝度評価値をYCとする。そして、YA〜YCに対応する第1横移動評価エリアと第2横移動評価エリアとの相対的なX方向へのずれ量をそれぞれX1〜X3とすると、補間計算によって検出される横方向への被写体移動量MHは、下式(11),(12)で示される。
【0130】
YC≧YAの場合、
MH={(YA−YB)・(X2−X3)/(YB−YC)−X1+X2}/2・・・(11)。
【0131】
YC<YAの場合、
MH={(YC−YA)・(X1−X2)/(YA−YB)+X1−X3}/2・・・(12)。
【0132】
また、移動量検出部40Aにおける信頼性評価機能では、図13に示すように、横方向への被写体移動量MHを算出する際に用いる横移動−輝度評価値YA〜YCのうちの最大値と最小値との差分の絶対値(信頼性評価値)Cが所定値よりも大きいか否かによって行う。つまり、ここでは、信頼性評価値Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40Aは、信頼性評価値Cが所定の値よりも大きな場合は、検出される横方向への被写体移動量MHが正確な値であるものとして判断する。
【0133】
<縦方向について>
移動量検出部40Aでは、例えば、縦移動−輝度評価値PAT6〜PAT10のうちの最小値と、その最小値に係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、±Y方向に16画素ずつずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る縦移動−輝度評価値とに基づいて、補間計算を行って被写体移動量を検出する。
【0134】
つまり、第1縦移動評価エリアと第2縦移動評価エリアとの組合せのうち、縦移動−輝度評価値が最小となる組合せを第1の組合せと称し、第1の組合せに係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、+Y方向に所定量だけずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せを第2の組合せと称し、さらに、第1の組合せに係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、−Y方向に所定量だけずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せを第3の組合せと称するこことすると、移動量検出部40Aは、第1から第3の組合せに係る3つの縦移動−輝度評価値に基づいて縦方向への被写体移動量を検出する。
【0135】
具体的には、縦移動−輝度評価値PAT6〜PAT10のうち、縦移動−輝度評価値PAT7が最小である場合、つまり、第1縦移動評価エリアとそのエリアに対して相対的に+Y方向に16画素分だけずれた画像G2に設けられた第2横移動評価エリアとの組合せに係る縦移動−輝度評価値PAT7が最小である場合、その縦移動−輝度評価値PAT7と、縦移動−輝度評価値PAT7に係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して±Y方向に16画素ずつずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る縦移動−輝度評価値PAT6,PAT9とに基づいて、補間計算を行って被写体移動量を検出する。
【0136】
図14は、縦移動−輝度評価値PAT6〜PAT10のうち、縦移動−輝度評価値PAT7が最小である場合における縦方向への被写体移動量の補間計算を説明するための図である。図14では、横軸は、第1縦移動評価エリアと第2縦移動評価エリアとの相対的なY方向へのずれ量(Yd)を示し、縦軸は、縦移動−輝度評価値を示している。また、図14には、縦移動−輝度評価値PAT6,PAT7,PAT9にそれぞれ対応するY方向へのずれ量と、その縦移動−輝度評価値との関係を示すプロットMY6,MY7,MY9がそれぞれ記されている。
【0137】
図14(a)に示すように、PAT6<PAT9の場合には、プロットMY7及びプロットMY9とを結ぶ直線130を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMY6を通る直線131を引く。そして、直線130と直線131とが交差する点における横軸の座標を縦方向への被写体移動量MVとして検出する。一方、図14(b)に示すように、PAT6≧PAT9の場合には、プロットMY6及びプロットMY7とを結ぶ直線141を引き、その直線の傾きと正負が逆転した傾きを持ち、かつ、プロットMY9を通る直線140を引く。そして、直線140と直線141とが交差する点における横軸の座標を縦方向への被写体移動量MVとして検出する。
【0138】
また、ここでは、縦移動−輝度評価値PAT6〜PAT10のうち、縦移動−輝度評価値PAT7が最小である場合の具体例を示したが、他の縦移動−輝度評価値が最小である場合にも同様な補間計算によって縦方向への被写体移動量MVを検出することができる。
【0139】
ここで、縦移動−輝度評価値PAT6〜PAT10のうちの最小値をYB、その最小値YBに係る第1縦移動評価エリアと第2縦移動評価エリアとの相対的な位置関係に対して、+Y方向に16画素ずつずれた相対的な位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの組合せに係る縦移動−輝度評価値をYAとし、−Y方向に16画素ずつずれた相対的な位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの組合せに係る縦移動−輝度評価値YCとする。そして、YA〜YCに対応する第1縦移動評価エリアと第2縦移動評価エリアとの相対的なY方向へのずれ量をそれぞれY1〜Y3とすると、補間計算によって検出される縦方向への被写体移動量MVは、下式(13),(14)で示される。
【0140】
YC≧YAの場合、
MH={(YA−YB)・(Y2−Y3)/(YB−YC)−Y1+Y2}/2・・・(13)。
【0141】
YC<YAの場合、
MH={(YC−YA)・(Y1−Y2)/(YA−YB)+Y1−Y3}/2・・・(14)。
【0142】
また、移動量検出部40Aにおける信頼性評価機能では、図14に示すように、縦方向への被写体移動量MVを算出する際に用いる縦移動−輝度評価値YA〜YCのうちの最大値と最小値との差分の絶対値(信頼性評価値)Cが所定値よりも大きいか否かによって行う。つまり、ここでは、信頼性評価値Cが所定の値よりも大きな場合は、時間的に連続する画像中にある程度のコントラストが存在していると言える。そのため、移動量検出部40Aは、信頼性評価値Cが所定値よりも大きな場合は、検出される縦方向への被写体移動量MVが正確な値であるものとして判断する。
【0143】
そして、移動量検出部40Aは、縦及び横方向の信頼性評価値Cがともに所定値よりも大きな場合は、検出される被写体移動量が正確な値であるものと判断し、その旨をカメラ制御部70に送信する。
【0144】
以上のように、第2実施形態に係る撮像装置1Aでは、横移動−輝度評価値が最小となる第1横移動評価エリアと第2横移動評価エリアとの組合せと、その組合せに対して、所定の方向(ここでは、+X方向)及びその逆方向(ここでは、−X方向)に相対的にずれた位置関係を有する第1横移動評価エリアと第2横移動評価エリアとの2つの組合せとにおける3つの横移動−輝度評価値に基づいて、補間計算を行いつつ、横方向への被写体移動量を検出する。また、縦移動−輝度評価値が最小となる第1縦移動評価エリアと第2縦移動評価エリアとの組合せと、その組合せに対して、所定の方向(ここでは、+Y方向)及びその逆方向(ここでは、−Y方向)に相対的にずれた位置関係を有する第1縦移動評価エリアと第2縦移動評価エリアとの2つの組合せとにおける3つの縦移動−輝度評価値に基づいて、補間計算を行いつつ、縦方向への被写体移動量を検出する。その結果、横長分割エリアや縦長分割エリアの幅(ここでは、16画素)よりも細かな被写体の移動を精度良く検出することができる。
【0145】
<(3)変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
【0146】
◎例えば、上述した実施形態では、第1縦移動評価エリアと第2縦移動評価エリアとの組合せについて、対応する横長分割エリア同士の輝度値の差分の絶対値の総和を縦移動−輝度評価値とし、第1横移動評価エリアと第2横移動評価エリアとの組合せについて、対応する縦長分割エリア同士の輝度値の差分の絶対値の総和を横移動−輝度評価値としたが、これに限られるものではなく、例えば、第1縦移動評価エリアと第2縦移動評価エリアとの組合せについて、対応する横長分割エリア同士の輝度値の比の総和を縦移動−輝度評価値とし、第1横移動評価エリアと第2横移動評価エリアとの組合せについて、対応する縦長分割エリア同士の輝度値の比の総和を横移動−輝度評価値としても良い。このとき、対応する各分割エリア同士の輝度値の比を算出する際には、相対的に輝度値が大きい方を分子とし、相対的に輝度値が小さい方を分母とすることによって、詳細に被写体移動量を検出することができる。
【0147】
◎また、上述した実施形態では、輝度評価エリアSE1,SE2を、それぞれ横方向について24個の縦長分割エリアに分割し、縦方向について14個の横長分割エリアに分割したが、これに限られるものではなく、例えば、横方向について25個以上の縦長分割エリアに分割し、縦方向について15個以上の横長分割エリアに分割しても良い。このように、縦横に分割する数を多くすることで、演算に要する時間は長くなる傾向となるが、検出される被写体移動量の精度を向上させることができる。
【0148】
◎また、上述した実施形態では、画像に対して、複数の第1及び第2縦移動輝度評価エリアを相互に1つの横長分割エリア分だけずらして設け、複数の第1及び第2横移動輝度評価エリアを相互に1つの縦長分割エリア分だけずらして設けたが、これに限られるものではなく、例えば、相互に2つ以上の縦及び横長分割エリア分だけずらして設けても良い。また、画像に対して、相互に隣接する位置関係や離隔する位置関係となるように各移動輝度評価エリアを設けるようにしても良い。但し、被写体移動量の検出精度の観点より、各移動輝度評価エリアは相互に少しずつずらして重なり合うように設けるのが好ましい。
【0149】
◎また、上述した実施形態では、各縦長分割エリア内に含まれる全画素の画素値の総和を各縦長分割エリアの輝度値として算出し、各横長分割エリア内に含まれる全画素の画素値の総和を各横長分割エリアの輝度値として算出したが、これに限られるものではなく、例えば、各縦長分割エリア内に含まれる全画素の画素値の平均値を各縦長分割エリアの輝度値として算出し、各横長分割エリア内に含まれる全画素の画素値の平均値を各横長分割エリアの輝度値として算出しても良い。
【0150】
◎また、上述した第1実施形態では、信頼性評価値Cが所定値よりも大きいか否かによって、検出された被写体移動量の信頼性を評価したが、これに限られるものではなく、例えば、縦及び横移動−輝度評価値の最小値が所定値よりも小さい場合に、検出された縦及び横方向への被写体移動量が正確な値、即ち信頼性のある値であるものと評価するようにしても良い。
【0151】
さらに、上述した第2実施形態では、信頼性評価値Cが所定値よりも大きいか否かによって、検出された被写体移動量の信頼性を評価したが、これに限られるものではなく、例えば、図13及び図14に示すように、検出される縦及び横方向への被写体移動量MV,MHに対応する縦及び横移動−輝度評価値YM,XMが所定値よりも小さい場合に、検出された縦及び横方向への被写体移動量MV,MHが正確な値、即ち信頼性のある値であるものと評価するようにしても良い。
【0152】
つまり、縦及び横移動−輝度評価値が所定値よりも小さくなければ、時間的に連続する複数(例えば、2個)の画像において、輝度のパターンがほぼ類似するエリアが存在しないこととなり、このような場合は、被写体の移動を正確に検出できていないものと考えられる。よって、ここでは、上述のような構成とすることによって、縦及び横移動−輝度評価値が所定値よりも小さい場合に、検出された縦及び横方向への被写体移動量が信頼性のある値であるものと評価するため、被写体移動量の誤検出を低減することができる。
【0153】
◎上述した具体的実施形態には以下の構成を有する発明が含まれている。
【0154】
(1) 請求項1に記載の撮像装置であって、前記算出手段が、前記第1評価領域についての輝度値と、前記第2評価領域についての輝度値との差分を前記輝度評価値として算出することを特徴とする撮像装置。
【0155】
(1)に記載の発明によれば、時間的に連続して得られる画像毎に設けられた評価領域の輝度値について、画像間の差分を求め、その差分に基づいて被写体移動量を検出するため、被写体の移動を容易かつ精度良く検出することができる。
【0156】
(2) 請求項2又は請求項3に記載の撮像装置であって、各前記分割領域が、短冊状の形状をした領域であることを特徴とする撮像装置。
【0157】
(2)に記載の発明によれば、分割領域を短冊状の形状をした領域とすることによって、演算速度を向上させることができる。
【0158】
(3) 請求項1から請求項5、(1)、及び(2)のいずれかに記載の撮像装置であって、前記検出手段が、各前記第1評価領域と各前記第2評価領域との組合せのうち、前記輝度評価値が最小となる組合せに係る前記第1評価領域と前記第2評価領域との相対的な位置関係に基づいて前記移動量を検出することを特徴とする撮像装置。
【0159】
(3)に記載の発明によれば、輝度評価値が最小となる評価領域の組合せにおける評価領域の相対的な位置関係に基づいて被写体移動量を検出するため、被写体の移動を確実かつ精度良く検出することができる。
【0160】
(4) (3)に記載の撮像装置であって、前記検出手段が、各前記第1画像評価領域と各前記第2評価領域との組合せのうち、前記輝度評価値が最小となる第1組合せに係る前記第1評価領域と前記第2評価領域との相対的な位置関係に対して、所定の方向及びその逆方向に相対的にずれた位置関係を有する前記第1評価領域と前記第2評価領域との第2及び第3組合せに係る輝度評価値と、前記第1組合せに係る輝度評価値とに基づいて前記被写体移動量を検出することを特徴とする撮像装置。
【0161】
(4)に記載の発明によれば、輝度評価値が最小となる評価領域の組合せと、その組合せに対して所定の方向、及びその逆方向に相対的にずれた位置関係を有する評価領域の組合せとにおける3つの輝度についての評価値に基づいて被写体移動量を検出するため、細かな被写体の移動を精度良く検出することができる。
【0162】
(5) 請求項1から請求項5、及び(1)から(4)のいずれかに記載の撮像装置であって、所定値以上の前記輝度評価値の検出に基づいて前記被写体移動量を信頼性のある値として判別する判別手段、をさらに備えることを特徴とする撮像装置。
【0163】
(5)に記載の発明によれば、所定値以上の輝度評価値の検出に基づいて被写体移動量を信頼性のある値として判別するため、被写体移動量の誤検出を低減することができる。
【0164】
(6) 請求項1から請求項5、及び(1)から(5)のいずれかに記載の撮像装置であって、前記検出手段が、前記撮像装置における撮影準備動作の開始後において前記被写体移動量を検出することを特徴とする撮像装置。
【0165】
(6)に記載の発明によれば、撮影準備動作の開始後において被写体移動量を検出するため、省電力化を図ることができる。
【0166】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、時間的に連続して得られる画像毎に設けられた評価領域についての輝度値を、それらの画像間で評価することによって、被写体移動量を検出するため、被写体の移動を精度良く検出することが可能な撮像装置を提供することができる。
【0167】
また、請求項2に記載の発明によれば、時間的に連続して得られる画像毎に設けられた評価領域についての輝度値を、それらの画像間で評価する際に、評価領域を複数に分割した分割領域毎の輝度値を、それらの画像間で評価するため、被写体移動量をさらに精度良く検出することができる。
【0168】
また、請求項3に記載の発明によれば、時間的に連続する画像間で、評価領域全体を分割して得られる対応する分割領域の組合せ毎に輝度値の差分の絶対値を算出し、それらを足し合わせることで、時間的に連続して得られる画像毎に設けられた評価領域の輝度値を画像間で評価するため、被写体移動量を容易かつさらに精度良く検出することができる。
【0169】
また、請求項4に記載の発明によれば、検出された被写体移動量に基づいて、画像に対して設定される合焦状態を評価するための対象領域の位置を移動させるため、被写体の移動に対応して合焦状態を保持することができる。
【0170】
また、請求項5に記載の発明によれば、検出される被写体移動量に基づいて、画像とともに表示される被写体の位置を示す表示の位置を変更するため、被写体に対する追尾の状況を操作者が把握することができる。
【図面の簡単な説明】
【図1】撮像装置1の内部構成を示すブロック図である。
【図2】ワンショットAF動作におけるAF評価エリアを例示する図である。
【図3】ワンショットAF動作の動作フローを例示するフローチャートである。
【図4】輝度値の算出エリアを例示する図である。
【図5】輝度値の算出エリアを例示する図である。
【図6】輝度値の算出エリアを例示する図である。
【図7】輝度値の算出エリアを例示する図である。
【図8】AF評価エリア及び被写***置を示すポインタの変更の一例を示す図である。
【図9】コンティニュアスAF動作の動作フローを例示するフローチャートである。
【図10】撮影レンズの位置とAF評価値との関係を例示する図である。
【図11】被写体追尾AF動作におけるタイミングチャートである。
【図12】AF動作全体の動作フローを模式的に示すフローチャートである。
【図13】移動量の補間計算を説明するための図である。
【図14】移動量の補間計算を説明するための図である。
【符号の説明】
1,1A 撮像装置
16 液晶表示部(表示手段、変更手段)
21 CCD撮像素子(撮像手段)
30 AF評価値算出部(移動手段)
40,40A 移動量検出部(設定手段、算出手段、検出手段、判別手段)
61 シャッタースタートボタン
70 カメラ制御部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device such as a digital camera.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as an auto-focusing (auto-focusing) technique in an imaging device such as a digital camera, there is a technology that focuses on an area of an image and obtains an evaluation value such as contrast from the area to evaluate the degree of focusing of a subject. Are known. In this case, the photographing lens is driven stepwise to detect the lens position at which the evaluation value becomes maximum, thereby specifying the lens position at which the subject image is in focus and performing autofocus. . In such a technique, in order to accurately evaluate the in-focus state of the subject, it is desired to use an evaluation value having a relatively large degree of change accompanying the driving of the taking lens.
[0003]
When performing autofocus, the subject may move in the image plane during the autofocus operation due to camera shake, subject shake, or the like. For this reason, conventionally, the movement of a subject is also detected by dividing a time-continuous image plane into a plurality of regions and detecting a change in an evaluation value of each region over time. (For example, Patent Document 1). In the movement detection using the evaluation value for autofocus, in order to accurately detect the movement of the subject in the image plane, the movement detection is performed between images for evaluating the movement of the subject due to factors other than the movement of the subject. It is desired that the image change is small.
[0004]
Prior art documents relating to such a technique include the following.
[0005]
[Patent Document 1]
JP 2000-188713 A
[0006]
[Problems to be solved by the invention]
However, since the above-described movement detection is configured to detect the movement of the subject in the image plane using the evaluation value for autofocus, the driving of the photographing lens is performed between the images for evaluating the movement of the subject. That is, the movement of the subject is detected with images having different defocus amounts. For this reason, in the conventional movement detection, a large change in the evaluation value due to a change in the defocus amount occurs as a factor other than the movement of the subject, and there is a problem that the possibility of erroneously detecting the movement of the subject is high.
[0007]
In view of the above, an object of the present invention is to provide an imaging device that can accurately detect the movement of a subject.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to
[0009]
The invention according to
[0010]
According to a third aspect of the present invention, in the imaging apparatus according to the second aspect, the calculating unit determines, for each combination of the first evaluation area and the second evaluation area, for each of the first divided areas. And a sum of absolute values of differences between the luminance values of the first and second divided areas corresponding to the first divided areas is calculated as the luminance evaluation value.
[0011]
According to a fourth aspect of the present invention, there is provided the image pickup apparatus according to any one of the first to third aspects, wherein an image set by the image pickup means is set based on the movement amount. It is characterized by further comprising moving means for moving the focus evaluation area.
[0012]
According to a fifth aspect of the present invention, there is provided the imaging apparatus according to any one of the first to fourth aspects, wherein the display unit displays a position display indicating the position of the subject together with the image acquired by the imaging unit. And changing means for changing the position of the position display with respect to the image based on the movement amount.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0014]
<(1) First Embodiment>
<Functional configuration of
FIG. 1 is a block diagram showing an internal configuration of an imaging device (digital camera) 1 according to the first embodiment of the present invention. As shown in FIG. 1, the
[0015]
The taking lens 11 forms an optical image of a subject on the
[0016]
The CCD image sensor (hereinafter, abbreviated as “CCD”) 21 has 2560 × 1920 pixels, and converts light images of a subject formed by the photographing lens 11 into R (red), G (green), and B ( The image signal is photoelectrically converted into an image signal of a blue (blue) color component (a signal composed of a signal sequence of pixel signals received by each pixel) and output. Here, a process of forming a light image of a subject on the
[0017]
In addition, the driving method (readout mode) of the
[0018]
The draft mode is a reading mode for generating an image for live view display as a preview before shooting (hereinafter, referred to as “main shooting”) for acquiring an image and storing the image in the
[0019]
Further, the main photographing mode is a mode in which an image signal is read out for the whole frame, that is, for all pixels of 2560 × 1920. Then, the
[0020]
The
[0021]
Then, the image signal output from the
[0022]
The A /
[0023]
The
[0024]
The
[0025]
The image memory 25 is a memory that temporarily stores image data obtained by the
[0026]
The
[0027]
The liquid
[0028]
The AF evaluation value calculation unit 30 acquires an image signal (image) input from the A /
[0029]
The movement
[0030]
The
[0031]
The
[0032]
In the initial stage of this AF operation, first, a general contrast type AF operation (so-called “one-shot AF operation”) for driving the photographing lens 11 to the in-focus position is performed, and then the
[0033]
The
[0034]
For example, the
[0035]
Further, the
[0036]
The lens driving unit 50 is a driving unit for driving the photographing lens 11 back and forth along the optical axis in response to a command from the
[0037]
<About AF operation>
As described above, in the live view display state, when the operator enters the S1 state by half-pressing the
[0038]
Hereinafter, the one-shot AF operation and the subject tracking AF operation will be described.
[0039]
<One-shot AF operation>
FIG. 2 is a diagram illustrating an AF evaluation area set for the image G in the one-shot AF operation. In FIG. 2, in order to make it easy to understand the correspondence with the pixel positions in the
[0040]
As shown in FIG. 2, in the one-shot AF operation, the AF evaluation value calculation unit 30 outputs a signal to the vicinity of the center of the image G sequentially and continuously input from the A /
[0041]
The AF evaluation value calculation unit 30 corresponds to the AF evaluation area AE having 384 × 28 pixels near the center of the image G having 2560 × 240 pixels input from the A /
[0042]
FIG. 3 is a flowchart illustrating an operation flow of the one-shot AF operation. The operation flow of the one-shot AF operation is controlled by the
[0043]
In step S1, the photographing lens 11 is minutely driven from the initial position to determine the driving direction, and the process proceeds to step S2. Here, the photographing lens 11 is minutely driven from the initial position, and the driving direction of the photographing lens 11 at which the AF evaluation value calculated for the AF evaluation area AE increases is determined as the driving direction in step S2.
[0044]
In step S2, a general hill-climbing AF operation is performed for the driving direction determined in step S1, and the process proceeds to step S3. Here, an image is acquired while driving the photographing lens 11 at a predetermined pitch in the driving direction determined in step S2, and an AF evaluation value is calculated based on image data in the AF evaluation area AE, and the AF evaluation value is calculated. The driving of the photographing lens 11 is continued until the value begins to decrease. That is, when the AF evaluation value starts to decrease, the driving of the photographing lens 11 is stopped.
[0045]
In step S3, the in-focus position of the photographing lens 11 is calculated, and the process proceeds to step S4. Here, the maximum value Yn of the AF evaluation values calculated in step S2, the AF evaluation values Yn-1, Yn + 1 before and after the maximum value Yn, and the lenses of the photographing lens 11 corresponding to those AF evaluation values Yn-1, Yn, Yn + 1 Using the position, the lens position of the photographing lens 11 at which the AF evaluation value becomes the maximum is calculated as the focus position by quadratic interpolation approximation calculation (calculation by quadratic curve approximation).
[0046]
In step S4, the photographing lens 11 is driven to the in-focus position calculated in step S3, and the one-shot AF operation ends.
[0047]
In the present invention, a continuous AF operation in which the AF operation is always continued even after the one-shot AF operation is continuously performed.
[0048]
<Subject tracking AF operation>
<Detection of object movement amount>
After the end of the one-shot AF operation, the movement
[0049]
FIGS. 4 to 7 show calculation areas (hereinafter, referred to as “brightness evaluation”) of the brightness values set for the first and second images G1 and G2 acquired successively in time by the movement
[0050]
Here, as shown in FIGS. 4 to 7, the luminance evaluation areas SE1 and SE2 are set to the same position and the same size (384 × 28 pixels) as the AF evaluation area AE. Then, as shown in FIGS. 4 to 7, in the movement
[0051]
The vertically long divided areas A1 to A24 and B1 to B24 are areas for detecting the amount of movement of the subject in the horizontal direction (X direction), and the horizontally long divided areas C1 to C14 and D1 to D14 are in the vertical direction (Y This is an area for detecting the amount of movement of the subject in the direction ()).
[0052]
Hereinafter, the detection of the amount of movement of the subject by the movement
[0053]
<Detection of object movement amount in horizontal direction>
First, the movement
[0054]
In other words, the movement
[0055]
Specifically, in the luminance evaluation area SE1, a first horizontal movement evaluation area including 22 vertically elongated divided areas A1 to A22 adjacent to each other, and a second horizontal movement evaluation area including 22 vertically elongated divided areas A2 to A23 adjacent to each other. One horizontal movement evaluation area is set, and a first horizontal movement evaluation area including 22 vertically long divided areas A3 to A24 adjacent to each other is set. In the luminance evaluation area SE2, a second horizontal movement evaluation area including 22 vertically long divided areas B1 to B22 adjacent to each other, and a second horizontal movement including 22 vertically long divided areas B2 to B23 adjacent to each other. An evaluation area, a second horizontal movement evaluation area including 22 vertically long divided areas B3 to B24 adjacent to each other is set.
[0056]
Then, the movement
[0057]
Further, the movement
[0058]
That is, for each combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area, the movement
[0059]
Specifically, the lateral movement-luminance evaluation values PAT1 to PAT5 are calculated according to the following equations (1) to (5).
[0060]
PAT1 = Σ | AY (m) −BY (m) | (1)
PAT2 = Σ | AY (m) −BY (m−1) | (2)
PAT3 = Σ | AY (m) −BY (m + 1) | (3)
PAT4 = Σ | AY (m + 1) −BY (m−1) | (4)
PAT5 = Σ | AY (m−1) −BY (m + 1) | (5).
[0061]
In the formulas (1) to (5), m is a natural number, m-1 is 1 to 22, m is 2 to 23, and m + 1 is 3 to 24.
[0062]
In the equations (1) to (5), in the two images G1 and G2 which are temporally continuous, the first horizontal movement evaluation area and the second horizontal movement evaluation area are arranged at a pitch of 16 pixels in the horizontal direction in terms of the number of pixels of the
[0063]
That is, of the combinations of the first lateral movement evaluation areas and the second lateral movement evaluation areas, the combination of the first lateral movement evaluation area and the second lateral movement evaluation area with the smallest lateral movement-luminance evaluation value is described. , The luminance patterns in the areas are the most similar. Then, it can be determined that the first and second lateral movement evaluation areas related to such a combination include the same subject. Therefore, for a combination of the first lateral movement evaluation area and the second lateral movement evaluation area having the smallest lateral movement-luminance evaluation value, the relative positional relationship between the evaluation areas is detected as the amount of lateral movement of the subject. I do. That is, the movement
[0064]
Specifically, the movement
{Circle around (1)} When the luminance evaluation value PAT1 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 0 pixels,
{Circle around (2)} Horizontal movement—When the luminance evaluation value PAT2 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 16 pixels to the left (−X direction).
{Circle around (3)} Horizontal movement—When the luminance evaluation value PAT3 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 16 pixels to the right (+ X direction),
{Circle around (4)} Horizontal movement—When the luminance evaluation value PAT4 is the minimum, the amount of movement of the subject in the horizontal direction is detected as 32 pixels to the left (−X direction),
{Circle around (5)} Horizontal movement—When the luminance evaluation value PAT5 is the minimum, the amount of movement of the object in the horizontal direction is detected as 32 pixels to the right (+ X direction).
[0065]
As described above, the movement
[0066]
Note that, as described above, the lateral movement-luminance evaluation value is not a value relating to the contrast of an image directly used in focusing control in the AF operation. That is, the value relating to the contrast (for example, the AF evaluation value) here is the difference in luminance between the region of interest and its surrounding region for one image (in other words, the spatial change in luminance within the image). The brightness evaluation value (for example, the lateral movement-brightness evaluation value) used in this embodiment corresponds to the brightness value in the target area of “one image” and the brightness value in the “other image”. This value reflects the difference from the luminance value of the region to be changed (in other words, the difference in luminance between “images”).
[0067]
The amount of movement of the object in the horizontal direction is detected as described above. Here, for example, the sum of the luminance values of all the pixels in the first horizontal movement evaluation area and the luminance of all the pixels in the second horizontal movement evaluation area Assuming that the difference from the sum of the values is calculated as the lateral movement evaluation values PAT1 to PAT5, the change in the luminance pattern in the first and second lateral movement evaluation areas of a large size is averaged, and the luminance pattern The change cannot be correctly reflected on the lateral movement-luminance evaluation values PAT1 to PAT5.
[0068]
Therefore, in the
[0069]
<Detection of vertical movement of subject>
The detection of the moving amount of the subject in the vertical direction is the same as the detection of the moving amount of the subject in the horizontal direction described above, but will be described in detail below.
[0070]
First, the movement
[0071]
In other words, the movement
[0072]
Specifically, in the luminance evaluation area SE1, a first vertical movement evaluation area including 12 horizontally long divided areas C1 to C12 adjacent to each other, and a second vertical movement evaluation area including 12 horizontally long divided areas C2 to C13 adjacent to each other. A first vertical movement evaluation area including one vertical movement evaluation area and twelve horizontally long divided areas C3 to C14 adjacent to each other is set. In the luminance evaluation area SE2, a second vertical movement evaluation area including twelve horizontally long divided areas D1 to D12 adjacent to each other, and a second vertical movement including twelve horizontally long divided areas D2 to D13 adjacent to each other. An evaluation area, a second vertical movement evaluation area including 12 horizontally long divided areas D3 to D14 adjacent to each other is set.
[0073]
Then, the movement
[0074]
Further, the movement
[0075]
That is, for each combination of the first vertical movement evaluation area and the second vertical movement evaluation area, the movement
[0076]
Specifically, the vertical movement-luminance evaluation values PAT6 to PAT10 are calculated according to the following equations (6) to (10).
[0077]
PAT6 = Σ | CY (m) −DY (m) | (6)
PAT7 = Σ | CY (m) −DY (m−1) | (7)
PAT8 = Σ | CY (m) −DY (m + 1) | (8)
PAT9 = Σ | CY (m + 1) −DY (m−1) | (9)
PAT10 = Σ | CY (m−1) −DY (m + 1) | (10).
[0078]
In the expressions (6) to (10), a natural number is applied to m, 1 to 12 is applied to m-1, 2 to 13 is applied to m, and 3 to 14 is applied to m + 1.
[0079]
In the expressions (6) to (10), in the two images G1 and G2 that are temporally continuous, the first vertical movement evaluation area and the second vertical movement evaluation area which are arranged in the vertical direction at a pitch of 16 pixels in terms of the number of pixels of the
[0080]
That is, of the combinations of the first vertical movement evaluation areas and the second vertical movement evaluation areas, the combination of the first vertical movement evaluation area and the second vertical movement evaluation area with the smallest vertical movement-luminance evaluation value Are similar in luminance pattern in the area. Then, it can be determined that the first and second vertical movement evaluation areas related to such a combination include the same subject. Therefore, for a combination of the first vertical movement evaluation area and the second vertical movement evaluation area having the smallest vertical movement-luminance evaluation value, the relative positional relationship between the evaluation areas is detected as the amount of subject movement in the vertical direction. I do. That is, the movement
[0081]
Specifically, the movement
(1) Vertical movement-When the luminance evaluation value PAT6 is the minimum, the moving amount of the subject in the vertical direction is detected as 0 pixels,
{Circle around (2)} Vertical movement—When the luminance evaluation value PAT7 is the minimum, the vertical movement of the subject is detected as 16 pixels upward (+ Y direction),
{Circle around (3)} Vertical movement—When the luminance evaluation value PAT8 is the minimum, the amount of movement of the subject in the vertical direction is detected as 16 pixels downward (−Y direction),
{Circle around (4)} Vertical movement—When the luminance evaluation value PAT9 is the minimum, the amount of movement of the subject in the vertical direction is detected upward (+ Y direction) as 32 pixels,
{Circle around (5)} Vertical movement—When the luminance evaluation value PAT10 is the minimum, the amount of movement of the subject in the vertical direction is detected as 32 pixels downward (−Y direction).
[0082]
As described above, the movement
[0083]
The amount of movement of the subject in the vertical direction is detected as described above. Here, for example, the sum of the luminance values of all the pixels in the first vertical movement evaluation area and the luminance of all the pixels in the second vertical movement evaluation area Assuming that the difference from the sum of the values is calculated as the vertical movement evaluation values PAT6 to PAT10, the change in the luminance pattern in the first and second vertical movement evaluation areas having a large size is averaged, and the luminance pattern of the luminance pattern is averaged. The change cannot be correctly reflected on the vertical movement evaluation values PAT6 to PAT10.
[0084]
Therefore, in the
[0085]
Further, as described above, the movement
[0086]
<Evaluation of reliability of object movement>
Further, the movement
[0087]
As described above, the detection of the amount of movement of the subject in the vertical and horizontal directions uses the luminance value having a small degree of change due to the driving of the lens, thereby reducing erroneous detection when detecting the amount of movement of the subject. However, when the contrast of the image acquired by the
[0088]
Therefore, in order to prevent the erroneous detection as described above, the moving
[0089]
Similarly, when the maximum value (reliability evaluation value) C of the vertical movement-luminance evaluation values PAT6 to PAT10 is larger than a predetermined value, the subject moving amount in the vertical direction is also temporally continuous. It can be said that a certain degree of contrast exists in the image. Therefore, when the reliability evaluation value C is larger than the predetermined value, the moving
[0090]
If both the vertical and horizontal reliability evaluation values C are larger than a predetermined value, the movement
[0091]
<Change of AF evaluation area setting>
FIG. 8 is a diagram exemplifying the change of the AF evaluation area AE and the pointer indicating the subject position. FIG. 8A shows the image G1 immediately after the one-shot AF operation, and FIG. 8B shows the image GN after N frames. The pointer SP indicating the position of the subject is a display indicating the position of the subject on the live view image displayed on the liquid
[0092]
As described above, the data indicating the vertical and horizontal object movement amounts detected by the movement
[0093]
For example, as shown in FIG. 8A, immediately after the one-shot AF operation, the AF evaluation area AE is set for the image G1 input to the AF evaluation value calculation unit 30, and then the AF evaluation area AE is set in the vertical and horizontal directions. The position of the AF evaluation area AE is changed according to the moving amount of the subject, and as shown in FIG. 8B, the AF evaluation area AE is changed and moved so as to follow the subject. As a result, it is possible to focus on the subject while tracking the subject, so that the in-focus state of the photographing lens 11 can be maintained in accordance with the movement of the subject.
[0094]
At this time, as shown in FIG. 8A, immediately after the one-shot AF operation, the pointer SP is superimposed and displayed on the live view image displayed on the liquid
[0095]
<Continuous AF operation>
FIG. 9 is a flowchart illustrating an operation flow of the continuous AF operation. Note that FIG. 9 shows the driving of the photographing lens 11, the imaging process, and the detection of the next in-focus position in the operation flow of the continuous AF operation. Processing such as reading of an image signal from the
[0096]
FIG. 10 is a diagram illustrating a curve VL indicating the relationship between the position 11 of the photographing lens and the AF evaluation value. In FIG. 10, the focus position detected last time is indicated by a lens position FP, and the focus position detected next time is indicated by a lens position AP. Here, F indicates the F number (aperture value) of the photographing lens 11, and δ indicates the so-called permissible circle of confusion of the
[0097]
Hereinafter, the operation flow of the continuous AF operation shown in FIG. 9 will be described with reference to FIG. When the continuous AF operation is performed, as described above, the position of the AF evaluation area AE is changed following the movement of the subject.
[0098]
Here, when the one-shot AF operation ends, the continuous AF operation starts, and the process proceeds to step S11.
[0099]
In step S11, the state of S2 is set to be interruptible, and the process proceeds to step S12. Here, during the operation flow of the continuous AF operation, when the
[0100]
In step S12, as shown in FIG. 10, the photographing lens 11 is driven to the lens position P1 which is separated from the previous in-focus position by 12Fδ toward the lens retracting side to obtain the first image (first frame). The first imaging process is performed, and the process proceeds to step S13.
[0101]
In step S13, as shown in FIG. 10, the second to seventh images (second to seventh frames) are moved at the lens positions P2 to P7 while driving the photographing lens 11 at the 4Fδ pitch to the feeding side. The second to seventh imaging processes are sequentially performed in order to obtain the image sequentially, and the process proceeds to step S14.
[0102]
In step S14, the eighth and ninth images are sequentially acquired at the lens positions P8 and P9 to sequentially acquire the eighth and ninth images (eighth and ninth frames) while driving the photographing lens 11 near the previous focusing position FP. Are sequentially performed, the next focus position AP is detected when the ninth frame is obtained, and the process proceeds to step S15. Here, a quadratic interpolation approximation calculation is performed on the AF evaluation values calculated for the first to seventh frames, and the lens position AP having the maximum AF evaluation value is detected as the next focus position.
[0103]
In step S15, the photographing lens 11 is driven to the next in-focus position AP detected in step S14, and a tenth imaging process is performed to acquire a tenth image (the tenth frame), and the process returns to step S12. .
[0104]
<Timing of subject tracking AF operation>
The detection of the moving amount of the subject and the continuous AF operation in the subject tracking AF operation have been described above. The timing chart of the subject tracking AF operation is as shown in FIG. In FIG. 11, in order from the top, the driving of the photographing lens 11, the imaging processing, the image reading from the
[0105]
The taking lens 11 is driven at a predetermined timing, and the lens position is driven stepwise from P1 to P9 by driving each lens (see FIG. 10).
[0106]
When the first lens driving is completed, the photographing lens 11 has moved to the lens position P1, where the first imaging processing is performed. When the imaging process of the
[0107]
When the first imaging process is completed, the second lens driving is performed, and the second imaging process is performed with the imaging lens 11 moved to the lens position P2. Therefore, the second lens driving and imaging processing is performed in parallel with the operation of reading the image obtained by the first imaging processing, the operation of calculating the AF evaluation value, and the operation of calculating the luminance value for each of the vertical and horizontal divided areas. Will be performed.
[0108]
When the calculation of the AF evaluation value based on the image obtained by the second imaging process ends, the
[0109]
Hereinafter, the same operation is repeated, and when each operation associated with the seventh lens drive is completed, the
[0110]
Then, by repeating such operations associated with the first to tenth lens driving, the subject in which the continuous AF operation is performed while changing the position of the AF evaluation area AE following the movement of the subject The tracking AF operation is performed.
[0111]
<Operation Flow in AF Operation>
FIG. 12 is a flowchart schematically illustrating an operation flow of the entire AF operation in the
[0112]
In step S31, the one-shot AF operation as described above is performed, and the process proceeds to step S32.
[0113]
In step S32, as described above, the continuous AF operation and the operation of detecting the moving amount of the subject are performed in parallel, and the process proceeds to step S33. Here, the operation flow of the continuous AF operation shown in FIG. 9 and the operation of detecting the amount of movement of the subject are performed in parallel, and when the operator fully presses the
[0114]
In step S33, it is determined whether or not the reliability evaluation value C related to the detection of the moving amount of the subject is larger than a predetermined value. Here, when the movement
[0115]
In step S34, as described above, the AF evaluation area AE is moved / changed based on the subject moving amount detected in step S32, and the process proceeds to step S35.
[0116]
In step S35, the position of the pointer indicating the position of the subject is changed based on the moving amount of the subject detected in step S32, and the process returns to step S32.
[0117]
As described above, here, when the operator enters the S1 state by half-pressing the
[0118]
As described above, the
[0119]
Also, a plurality of first vertical movement evaluation areas and a plurality of first horizontal movement evaluation areas are provided with a slight shift so as to overlap each other with respect to the image G1, and a plurality of second vertical movement evaluation areas are provided with respect to the image G2. The movement evaluation area and the plurality of second lateral movement evaluation areas are provided so as to be slightly shifted from each other so as to overlap each other. As a result, a fine movement amount of the subject can be detected, and the AF evaluation area AE can be moved while being slightly shifted with respect to the slight movement of the subject. That is, the AF evaluation area AE can be moved and changed in detail and accurately in accordance with the movement of the subject.
[0120]
Further, a plurality of first vertical movement evaluation areas are provided for the image G1 so as to share a part of the horizontally long divided area with respect to a portion overlapping each other, and the plurality of first horizontal movement evaluation areas are mutually connected. The overlapping portions are provided so as to share some vertically divided areas. Further, a plurality of second vertical movement evaluation areas are provided for the image G2 so as to share a part of the horizontally long divided area with respect to a portion overlapping each other, and the plurality of second horizontal movement evaluation areas are mutually connected. The overlapping portions are provided so as to share some vertically divided areas. Therefore, since the calculation of the duplicated luminance value can be reduced as much as possible, the time required for calculating the vertical movement-luminance evaluation value and the horizontal movement-luminance evaluation value can be relatively shortened.
[0121]
<(2) Second embodiment>
In the above-described first embodiment, it has been detected that the moving amount of the subject is 0, 16, or 32 pixels in the vertical direction or the horizontal direction. That is, the minimum unit of detection is 16 pixels. Therefore, in the
[0122]
Note that, in the
[0123]
<Interpolation calculation and object movement amount detection>
<About the horizontal direction>
In the movement
[0124]
That is, of the combinations of the first lateral movement evaluation area and the second lateral movement evaluation area, the combination with the smallest lateral movement-luminance evaluation value is referred to as a first combination, and the first lateral movement according to the first combination is referred to as the first combination. The first lateral movement evaluation area and the second lateral movement evaluation area having a relative positional relationship shifted by a predetermined amount in the + X direction with respect to the relative positional relationship between the evaluation area and the second lateral movement evaluation area. The combination is referred to as a second combination, and is further shifted by a predetermined amount in the −X direction with respect to the relative positional relationship between the first lateral movement evaluation area and the second lateral movement evaluation area according to the first combination. The combination of the first lateral movement evaluation area and the second lateral movement evaluation area having a relative positional relationship is referred to as a third combination. In this case, the movement
[0125]
Specifically, when the lateral movement-luminance evaluation value PAT2 among the lateral movement-luminance evaluation values PAT1 to PAT5 is the minimum, that is, in the -X direction relative to the first lateral movement evaluation area and the area. When the horizontal movement-luminance evaluation value PAT2 relating to the combination with the second horizontal movement evaluation area provided in the image G2 shifted by 16 pixels is the smallest, the horizontal movement-luminance evaluation value PAT2 and the horizontal movement- A first lateral movement having a relative positional relationship deviated by 16 pixels in the ± X direction with respect to a relative positional relationship between the first lateral movement evaluation area and the second lateral movement evaluation area according to the luminance evaluation value PAT2. Interpolation calculation is performed on the basis of the lateral movement-luminance evaluation values PAT1 and PAT4 relating to the combination of the evaluation area and the second lateral movement evaluation area to detect the object movement amount.
[0126]
FIG. 13 is a diagram for explaining the interpolation calculation of the object movement amount in the horizontal direction when the horizontal movement-luminance evaluation value PAT2 among the horizontal movement-luminance evaluation values PAT1 to PAT5 is the minimum. In FIG. 13, the horizontal axis indicates a relative shift amount (Xd) in the X direction between the first horizontal movement evaluation area and the second horizontal movement evaluation area, and the vertical axis indicates a horizontal movement-luminance evaluation value. ing. FIG. 13 also shows plots MX1, MX2, and MX4 respectively showing the relationship between the amount of displacement in the X direction corresponding to the lateral movement-luminance evaluation values PAT1, PAT2, and PAT4 and the lateral movement-luminance evaluation values. It is noted.
[0127]
As shown in FIG. 13A, when PAT1 <PAT4, a
[0128]
Further, here, a specific example in which the lateral movement-luminance evaluation value PAT2 among the lateral movement-luminance evaluation values PAT1 to PAT5 is the smallest is shown, but the other lateral movement-luminance evaluation values are the smallest. In the same manner, the amount of movement MH of the subject in the horizontal direction can be detected by similar interpolation calculation.
[0129]
Here, the minimum value of the lateral movement-luminance evaluation values PAT1 to PAT5 is YB, and the relative positional relationship between the first lateral movement evaluation area and the second lateral movement evaluation area related to the minimum value YB is: -The horizontal movement associated with the combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area having a relative positional relationship shifted by 16 pixels in the X direction-YA is the luminance evaluation value, and 16 pixels are in the + X direction. A lateral movement-luminance evaluation value relating to a combination of the first lateral movement evaluation area and the second lateral movement evaluation area having a shifted relative positional relationship is defined as YC. Then, assuming that relative displacement amounts in the X direction between the first lateral movement evaluation area and the second lateral movement evaluation area corresponding to YA to YC are X1 to X3, respectively. The object movement amount MH is represented by the following equations (11) and (12).
[0130]
When YC ≧ YA,
MH = {(YA−YB) · (X2−X3) / (YB−YC) −X1 + X2} / 2 (11).
[0131]
If YC <YA,
MH = {(YC-YA). (X1-X2) / (YA-YB) + X1-X3} / 2 (12).
[0132]
Further, in the reliability evaluation function of the movement
[0133]
<About vertical direction>
In the movement
[0134]
That is, of the combinations of the first vertical movement evaluation area and the second vertical movement evaluation area, the combination with the smallest vertical movement-luminance evaluation value is called the first combination, and the first vertical movement according to the first combination is referred to as the first combination. The first vertical movement evaluation area and the second vertical movement evaluation area having a relative positional relation shifted by a predetermined amount in the + Y direction with respect to the relative positional relation between the evaluation area and the second vertical movement evaluation area. The combination is referred to as a second combination, and is further shifted by a predetermined amount in the −Y direction with respect to a relative positional relationship between the first vertical movement evaluation area and the second vertical movement evaluation area according to the first combination. The combination of the first vertical movement evaluation area and the second vertical movement evaluation area having a relative positional relationship is referred to as a third combination. Here, the movement
[0135]
Specifically, when the vertical movement-luminance evaluation value PAT7 among the vertical movement-luminance evaluation values PAT6 to PAT10 is the minimum, that is, in the + Y direction relative to the first vertical movement evaluation area and the area. When the vertical movement-luminance evaluation value PAT7 related to the combination with the second horizontal movement evaluation area provided in the image G2 shifted by 16 pixels is the minimum, the vertical movement-luminance evaluation value PAT7 and the vertical movement-luminance A first vertical movement evaluation area having a relative positional relation shifted by 16 pixels in the ± Y direction with respect to a relative positional relation between the first vertical movement evaluation area and the second vertical movement evaluation area according to the evaluation value PAT7. Interpolation calculation is performed based on the vertical movement-luminance evaluation values PAT6 and PAT9 relating to the combination of the first vertical movement evaluation area and the second vertical movement evaluation area to detect the object movement amount.
[0136]
FIG. 14 is a diagram for explaining the interpolation calculation of the amount of movement of the subject in the vertical direction when the vertical movement-luminance evaluation value PAT7 among the vertical movement-luminance evaluation values PAT6 to PAT10 is the minimum. In FIG. 14, the horizontal axis indicates the relative shift amount (Yd) in the Y direction between the first vertical movement evaluation area and the second vertical movement evaluation area, and the vertical axis indicates the vertical movement-luminance evaluation value. ing. FIG. 14 also shows plots MY6, MY7, and MY9 showing the relationship between the shift amount in the Y direction corresponding to the vertical movement-luminance evaluation value PAT6, PAT7, and PAT9, respectively, and the vertical movement-luminance evaluation value. It is noted.
[0137]
As shown in FIG. 14A, when PAT6 <PAT9, a
[0138]
Further, here, a specific example in which the vertical movement-luminance evaluation value PAT7 among the vertical movement-luminance evaluation values PAT6 to PAT10 is the smallest is shown, but the other vertical movement-luminance evaluation values PAT7 are the smallest. Similarly, the vertical subject movement amount MV can be detected by the same interpolation calculation.
[0139]
Here, the minimum value of the vertical movement-luminance evaluation values PAT6 to PAT10 is YB, and the relative positional relationship between the first vertical movement evaluation area and the second vertical movement evaluation area related to the minimum value YB is as follows. The vertical movement associated with the combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area having a relative positional relationship shifted by 16 pixels in the + Y direction—the luminance evaluation value is YA, and 16 pixels in the −Y direction A vertical movement-brightness evaluation value YC relating to a combination of the first vertical movement evaluation area and the second vertical movement evaluation area having a shifted relative positional relationship is set. If the relative amounts of displacement in the Y direction between the first vertical movement evaluation area and the second vertical movement evaluation area corresponding to YA to YC are Y1 to Y3, respectively, The subject movement amount MV is represented by the following equations (13) and (14).
[0140]
When YC ≧ YA,
MH = {(YA−YB) · (Y2−Y3) / (YB−YC) −Y1 + Y2} / 2 (13).
[0141]
If YC <YA,
MH = {(YC-YA). (Y1-Y2) / (YA-YB) + Y1-Y3} / 2 (14).
[0142]
Further, in the reliability evaluation function of the movement
[0143]
If the reliability evaluation values C in the vertical and horizontal directions are both larger than a predetermined value, the movement
[0144]
As described above, in the
[0145]
<(3) Modification>
The embodiments of the present invention have been described above, but the present invention is not limited to the above-described contents.
[0146]
For example, in the above-described embodiment, for the combination of the first vertical movement evaluation area and the second vertical movement evaluation area, the sum of the absolute values of the differences between the luminance values of the corresponding horizontally long divided areas is calculated as the vertical movement-luminance evaluation value. For the combination of the first horizontal movement evaluation area and the second horizontal movement evaluation area, the sum of the absolute values of the differences between the luminance values of the corresponding vertically long divided areas is defined as the horizontal movement-luminance evaluation value. For example, for the combination of the first vertical movement evaluation area and the second vertical movement evaluation area, the sum of the ratios of the luminance values of the corresponding horizontally long divided areas is defined as the vertical movement-luminance evaluation value, For the combination of the movement evaluation area and the second horizontal movement evaluation area, the sum of the ratios of the luminance values of the corresponding vertically long divided areas may be used as the horizontal movement-luminance evaluation value. At this time, when calculating the ratio of the luminance values of the corresponding divided areas, the one with the relatively large luminance value is set as the numerator, and the one with the relatively small luminance value is set as the denominator. The amount of movement of the subject can be detected.
[0147]
In the above-described embodiment, the luminance evaluation areas SE1 and SE2 are each divided into 24 vertically long divided areas in the horizontal direction, and are divided into 14 horizontally long divided areas in the vertical direction. However, the present invention is not limited to this. Instead, for example, the horizontal direction may be divided into 25 or more vertically long divided areas, and the vertical direction may be divided into 15 or more horizontally long divided areas. As described above, by increasing the number of divisions in the vertical and horizontal directions, the time required for the calculation tends to be longer, but the accuracy of the detected moving amount of the subject can be improved.
[0148]
In the embodiment described above, a plurality of first and second vertical movement luminance evaluation areas are provided to be shifted from each other by one horizontal division area, and a plurality of first and second vertical movement luminance evaluation areas are provided. The evaluation areas are shifted from each other by one vertically long divided area. However, the present invention is not limited to this. For example, the evaluation areas may be shifted from each other by two or more vertically and horizontally long divided areas. Further, the moving luminance evaluation areas may be provided so that the images have a positional relationship of being adjacent to each other or of being separated from each other. However, from the viewpoint of detection accuracy of the moving amount of the subject, it is preferable that the moving luminance evaluation areas are provided so as to be slightly shifted from each other and overlap each other.
[0149]
In the above-described embodiment, the sum of the pixel values of all the pixels included in each vertically divided area is calculated as the luminance value of each vertically divided area, and the sum of the pixel values of all the pixels included in each horizontally divided area is calculated. Although the sum was calculated as the luminance value of each horizontally divided area, the present invention is not limited to this. For example, the average value of the pixel values of all the pixels included in each vertically divided area is calculated as the luminance value of each vertically divided area. Then, the average value of the pixel values of all the pixels included in each horizontally long divided area may be calculated as the luminance value of each horizontally long divided area.
[0150]
In the above-described first embodiment, the reliability of the detected subject movement amount is evaluated based on whether the reliability evaluation value C is greater than a predetermined value. However, the present invention is not limited to this. Vertical and horizontal movement—when the minimum value of the luminance evaluation value is smaller than a predetermined value, it is evaluated that the detected amount of movement of the subject in the vertical and horizontal directions is an accurate value, that is, a reliable value. You may do it.
[0151]
Furthermore, in the above-described second embodiment, the reliability of the detected subject movement amount is evaluated based on whether the reliability evaluation value C is greater than a predetermined value. However, the present invention is not limited to this. As shown in FIGS. 13 and 14, when the vertical and horizontal movement-luminance evaluation values YM and XM corresponding to the detected vertical and horizontal object movement amounts MV and MH are smaller than predetermined values, the detection is performed. The moving amounts MV and MH in the vertical and horizontal directions may be evaluated as accurate values, that is, reliable values.
[0152]
In other words, if the vertical and horizontal movement-luminance evaluation values are not smaller than the predetermined value, there is no area in which the luminance pattern is substantially similar in a plurality of temporally continuous images (for example, two). In such a case, it is considered that the movement of the subject has not been accurately detected. Therefore, here, with the above configuration, when the vertical and horizontal movement-luminance evaluation value is smaller than a predetermined value, the detected vertical and horizontal movement of the subject in the vertical and horizontal directions is a reliable value. Therefore, erroneous detection of the moving amount of the subject can be reduced.
[0153]
The specific embodiments described above include inventions having the following configurations.
[0154]
(1) The imaging device according to
[0155]
According to the invention described in (1), a difference between images is obtained for a luminance value of an evaluation area provided for each image obtained continuously in time, and a subject movement amount is detected based on the difference. Therefore, the movement of the subject can be easily and accurately detected.
[0156]
(2) The imaging apparatus according to
[0157]
According to the invention described in (2), the calculation speed can be improved by setting the divided area to be an area having a strip shape.
[0158]
(3) The imaging device according to any one of
[0159]
According to the invention described in (3), the amount of movement of the subject is detected based on the relative positional relationship of the evaluation areas in the combination of the evaluation areas with the minimum brightness evaluation value, so that the movement of the subject is reliably and accurately performed. Can be detected.
[0160]
(4) The image pickup apparatus according to (3), wherein the detecting unit is configured to determine the first luminance evaluation value that is the smallest among the combinations of the first image evaluation areas and the second evaluation areas. The first evaluation area and the second evaluation area having a positional relation relatively shifted in a predetermined direction and the opposite direction with respect to a relative positional relation between the first evaluation area and the second evaluation area according to the combination. An imaging apparatus for detecting the amount of movement of a subject based on a luminance evaluation value according to second and third combinations with two evaluation areas and a luminance evaluation value according to the first combination.
[0161]
According to the invention described in (4), a combination of the evaluation area with the minimum luminance evaluation value and the evaluation area having a positional relationship relatively shifted in the predetermined direction and the opposite direction with respect to the combination. Since the amount of movement of the subject is detected based on the evaluation values for the three luminances in the combination, fine movement of the subject can be accurately detected.
[0162]
(5) The imaging device according to any one of (1) to (5) and (1) to (4), wherein the amount of movement of the subject is reliable based on detection of the luminance evaluation value equal to or greater than a predetermined value. An imaging device, further comprising: a determination unit configured to determine the value as a characteristic value.
[0163]
According to the invention described in (5), since the subject moving amount is determined as a reliable value based on the detection of the luminance evaluation value equal to or greater than the predetermined value, erroneous detection of the subject moving amount can be reduced.
[0164]
(6) The imaging device according to any one of (1) to (5) and (1) to (5), wherein the detection unit moves the subject after starting a shooting preparation operation in the imaging device. An imaging device for detecting an amount.
[0165]
According to the invention described in (6), the amount of movement of the subject is detected after the start of the shooting preparation operation, so that power saving can be achieved.
[0166]
【The invention's effect】
As described above, according to the first aspect of the present invention, a luminance value of an evaluation area provided for each image obtained continuously in time is evaluated between the images, so that a subject is evaluated. Since the movement amount is detected, it is possible to provide an imaging device capable of accurately detecting the movement of a subject.
[0167]
According to the second aspect of the present invention, when evaluating the brightness value of the evaluation area provided for each image obtained continuously in time between the images, a plurality of evaluation areas are used. Since the luminance value of each divided area is evaluated between the images, the moving amount of the subject can be detected with higher accuracy.
[0168]
According to the third aspect of the present invention, the absolute value of the difference between the brightness values is calculated for each combination of corresponding divided regions obtained by dividing the entire evaluation region between temporally continuous images, By adding them, the luminance value of the evaluation area provided for each image obtained continuously over time is evaluated between the images, so that the subject movement amount can be detected easily and more accurately.
[0169]
According to the fourth aspect of the present invention, the position of the target area for evaluating the in-focus state set for the image is moved based on the detected amount of movement of the subject. , The in-focus state can be maintained.
[0170]
According to the fifth aspect of the present invention, the position of the display indicating the position of the subject displayed together with the image is changed based on the detected amount of movement of the subject. I can figure it out.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an internal configuration of an
FIG. 2 is a diagram illustrating an AF evaluation area in a one-shot AF operation.
FIG. 3 is a flowchart illustrating an operation flow of a one-shot AF operation.
FIG. 4 is a diagram illustrating a calculation area of a luminance value;
FIG. 5 is a diagram illustrating a calculation area of a luminance value.
FIG. 6 is a diagram illustrating a calculation area of a luminance value.
FIG. 7 is a diagram illustrating a calculation area of a luminance value.
FIG. 8 is a diagram illustrating an example of changing an AF evaluation area and a pointer indicating a subject position.
FIG. 9 is a flowchart illustrating an operation flow of a continuous AF operation.
FIG. 10 is a diagram illustrating a relationship between a position of a photographing lens and an AF evaluation value.
FIG. 11 is a timing chart in a subject tracking AF operation.
FIG. 12 is a flowchart schematically showing an operation flow of the entire AF operation.
FIG. 13 is a diagram for explaining interpolation calculation of a movement amount.
FIG. 14 is a diagram for explaining interpolation calculation of a movement amount.
[Explanation of symbols]
1,1A imaging device
16 Liquid crystal display (display means, change means)
21 CCD imaging device (imaging means)
30 AF evaluation value calculation unit (moving means)
40, 40A movement amount detection unit (setting means, calculation means, detection means, determination means)
61 Shutter start button
70 Camera control unit
Claims (5)
時間的に連続する第1と第2の画像とを取得する撮像手段と、
前記第1画像に対して第1評価領域を設定するとともに、前記第2の画像に対して第2評価領域を設定する設定手段と、
前記第1評価領域についての輝度値と、前記第2評価領域についての輝度値とに基づいて輝度評価値を算出する算出手段と、
前記輝度評価値に基づいて被写体の移動量を検出する検出手段と、
を備えることを特徴とする撮像装置。An imaging device,
Imaging means for acquiring first and second images that are temporally continuous;
Setting means for setting a first evaluation area for the first image and setting a second evaluation area for the second image;
Calculating means for calculating a brightness evaluation value based on the brightness value of the first evaluation area and the brightness value of the second evaluation area;
Detecting means for detecting the moving amount of the subject based on the luminance evaluation value,
An imaging device comprising:
前記算出手段が、
前記第1評価領域を複数に分割した第1分割領域毎についての輝度値と、前記第2評価領域を複数に分割した第2分割領域毎についての輝度値とに基づいて前記輝度評価値を算出することを特徴とする撮像装置。The imaging device according to claim 1,
The calculating means,
Calculating the luminance evaluation value based on a luminance value for each of the first divided regions obtained by dividing the first evaluation region into a plurality of parts and a luminance value for each of the second divided regions obtained by dividing the second evaluation region into a plurality of parts; An imaging device, comprising:
前記算出手段が、
前記第1評価領域と前記第2評価領域との組合せ毎について、前記第1分割領域毎についての輝度値と、各前記第1分割領域と対応する前記第2分割領域毎についての輝度値との差分の絶対値の総和を前記輝度評価値として算出することを特徴とする撮像装置。The imaging device according to claim 2,
The calculating means,
For each combination of the first evaluation region and the second evaluation region, a luminance value for each of the first divided regions and a luminance value for each of the second divided regions corresponding to each of the first divided regions. An imaging apparatus, wherein a sum of absolute values of differences is calculated as the luminance evaluation value.
前記移動量に基づいて、前記撮像手段によって取得される画像に対して設定される合焦評価領域を移動させる移動手段、
をさらに備えることを特徴とする撮像装置。The imaging device according to claim 1, wherein:
A moving unit that moves a focus evaluation area set for an image acquired by the imaging unit based on the moving amount;
An imaging device, further comprising:
前記撮像手段によって取得される画像とともに前記被写体の位置を示す位置表示を表示する表示手段と、
前記移動量に基づいて、前記画像に対する前記位置表示の位置を変更する変更手段と、
をさらに備えることを特徴とする撮像装置。The imaging device according to claim 1, wherein:
Display means for displaying a position display indicating the position of the subject together with the image obtained by the imaging means,
Changing means for changing the position of the position display with respect to the image based on the movement amount,
An imaging device, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003084799A JP2004294621A (en) | 2003-03-26 | 2003-03-26 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003084799A JP2004294621A (en) | 2003-03-26 | 2003-03-26 | Imaging apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004294621A true JP2004294621A (en) | 2004-10-21 |
JP2004294621A5 JP2004294621A5 (en) | 2005-06-16 |
Family
ID=33399877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003084799A Pending JP2004294621A (en) | 2003-03-26 | 2003-03-26 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004294621A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008009053A (en) * | 2006-06-28 | 2008-01-17 | Nikon Corp | Tracking device, automatic focus device and camera |
JP2008180906A (en) * | 2007-01-24 | 2008-08-07 | Fujifilm Corp | Photographing device and focusing control method |
WO2009139188A1 (en) * | 2008-05-16 | 2009-11-19 | パナソニック株式会社 | Image pickup system and camera body and replaceable lens |
US8253800B2 (en) | 2006-06-28 | 2012-08-28 | Nikon Corporation | Tracking device, automatic focusing device, and camera |
-
2003
- 2003-03-26 JP JP2003084799A patent/JP2004294621A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008009053A (en) * | 2006-06-28 | 2008-01-17 | Nikon Corp | Tracking device, automatic focus device and camera |
US8253800B2 (en) | 2006-06-28 | 2012-08-28 | Nikon Corporation | Tracking device, automatic focusing device, and camera |
US9063290B2 (en) | 2006-06-28 | 2015-06-23 | Nikon Corporation | Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject |
US9639754B2 (en) | 2006-06-28 | 2017-05-02 | Nikon Corporation | Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject |
JP2008180906A (en) * | 2007-01-24 | 2008-08-07 | Fujifilm Corp | Photographing device and focusing control method |
JP4697606B2 (en) * | 2007-01-24 | 2011-06-08 | 富士フイルム株式会社 | Imaging apparatus and focus control method |
WO2009139188A1 (en) * | 2008-05-16 | 2009-11-19 | パナソニック株式会社 | Image pickup system and camera body and replaceable lens |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101062502B1 (en) | Image pickup device having a panning mode for picking up panning images | |
US9247227B2 (en) | Correction of the stereoscopic effect of multiple images for stereoscope view | |
KR101034109B1 (en) | Image capture apparatus and computer readable recording medium storing with a program | |
US8605942B2 (en) | Subject tracking apparatus, imaging apparatus and subject tracking method | |
US7136581B2 (en) | Image taking apparatus and program product | |
KR100840856B1 (en) | Image processing apparatus, image processing method, recording medium for recording image processing program, and image pickup apparatus | |
US20110019989A1 (en) | Imaging device and imaging method | |
JP6222514B2 (en) | Image processing apparatus, imaging apparatus, and computer program | |
JP5237721B2 (en) | Imaging device | |
JP5464934B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US8872963B2 (en) | Imaging apparatus and imaging method | |
JPWO2011136031A1 (en) | Imaging device | |
JP2012049773A (en) | Imaging apparatus and method, and program | |
JP2004212556A (en) | Imaging apparatus | |
JP2012027229A (en) | Imaging device and imaging method | |
JP2005215373A (en) | Imaging apparatus | |
JP3929034B2 (en) | Manual focus device | |
JP5378283B2 (en) | Imaging apparatus and control method thereof | |
JP4953770B2 (en) | Imaging device | |
JP3761383B2 (en) | Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium | |
JP6529387B2 (en) | Imaging device, control method therefor, program, storage medium | |
JP5387341B2 (en) | Imaging device | |
JP2017181797A (en) | Focus detection device, method thereof, imaging apparatus, program, and storage medium | |
JP2004294621A (en) | Imaging apparatus | |
US10623671B2 (en) | Image-capturing apparatus and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040917 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040917 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040917 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20041217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070522 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070925 |