JP2019074623A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2019074623A
JP2019074623A JP2017200088A JP2017200088A JP2019074623A JP 2019074623 A JP2019074623 A JP 2019074623A JP 2017200088 A JP2017200088 A JP 2017200088A JP 2017200088 A JP2017200088 A JP 2017200088A JP 2019074623 A JP2019074623 A JP 2019074623A
Authority
JP
Japan
Prior art keywords
imaging
spectral
image
focus
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017200088A
Other languages
English (en)
Inventor
優 稲垣
Masaru Inagaki
優 稲垣
英之 浜野
Hideyuki Hamano
英之 浜野
友美 高尾
Tomomi Takao
友美 高尾
康平 岡本
Kohei Okamoto
康平 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017200088A priority Critical patent/JP2019074623A/ja
Publication of JP2019074623A publication Critical patent/JP2019074623A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

【課題】分光状態が異なる光束を用いて焦点検出を行う場合に高精度な焦点調節を行う。【解決手段】撮像装置100は、撮像光学系からの光束により形成される被写体像を撮像する撮像素子101,102と、撮像素子に対して、第1の分光状態の光束と第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子103と、撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う制御手段104とを有する。制御手段は、焦点検出の結果と、第1の分光状態での光束の分光分布に関する第1の分光分布情報と、第2の分光状態での光束の分光分布に関する第2の分光分布情報とを用いて焦点調節制御を行う。【選択図】図1

Description

本発明は、複数の撮像素子を有する撮像装置の焦点調節制御に関する。
上記のような撮像装置として、特許文献1には、ハーフミラーの透過側と反射側のそれぞれに1つずつ撮像素子を設けた撮像装置が開示されている。このような撮像装置において、それぞれの撮像素子により焦点検出を行うことも可能である。特許文献2には、色分離プリズムによって分離された可視光と赤外光をそれぞれ受光する2つの撮像素子と、赤外光の結像位置を調節するための補正レンズとを有し、可視光と赤外光での撮像を同一被写体にピントを合わせて同時に行う撮像装置が開示されている。
特許第5691440号公報 特開2004−354714号公報
しかしながら、ハーフミラーは、像高やレンズ瞳距離に応じて変化する光束の入射角度に応じて分光透過率および分光反射率が異なる。このため、透過側と反射側とで光束の分光状態が異なり、この結果、透過側の撮像素子で得られる焦点検出結果と反射側の撮像素子で得られる焦点検出結果とが異なる。また、同様に、ハーフミラーが撮像光路内に配置した状態で得られる焦点検出結果とハーフミラーが撮像光路外に退避した状態で得られる焦点検出結果にも違いが生じる。
本発明は、分光状態が異なる光束を用いて焦点検出を行う場合に高精度な焦点検出、さらには焦点調節制御が可能な撮像装置を提供する。
本発明の一側面としての撮像装置は、撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、撮像素子に対して、第1の分光状態の光束と第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子と、撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う制御手段とを有する。制御手段は、焦点検出の結果と、第1の分光状態での光束の分光分布に関する第1の分光分布情報と、第2の分光状態での光束の分光分布に関する第2の分光分布情報とを用いて焦点調節制御を行うことを特徴とする。
また、本発明の他の一側面としての焦点調節制御方法は、撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、撮像素子に対して、第1の分光状態の光束と第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子とを有し、撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う撮像装置に適用される。該焦点調節制御方法は、第1の分光状態での光束の分光分布に関する第1の分光分布情報を取得するステップと、第2の分光状態での光束の分光分布に関する第2の分光分布情報を取得するステップと、焦点検出の結果と、第1の分光分布情報と、第2の分光分布情報とを用いて焦点調節制御を行うステップとを有することを特徴とする。
なお、撮像装置のコンピュータに、上記焦点調節制御方法に対応する処理を実行させるコンピュータプログラムも本発明の他の一側面を構成する。
本発明によれば、分光状態が異なる光束を用いて焦点検出を行う場合に高精度な焦点検出および焦点調節制御を行うことができる。
本発明の実施例1であるカメラの構成を示すブロック図。 上記カメラに用いられる撮像素子の構成を示す図。 実施例1における射出瞳と焦点検出瞳との相対位置関係を示す図。 実施例1における焦点検出領域を示す図。 実施例1における撮像処理を示すフローチャート。 実施例1におけるAF処理を示すフローチャート。 実施例1における被写体情報抽出処理を示すフローチャート。 実施例1における各撮像素子で得られる被写体情報の例を示す図。 実施例1におけるAF評価帯域および撮像画像評価帯域を示す図。 実施例1におけるAF評価帯域および撮像画像評価帯域を示す別の図。 実施例1におけるBP量算出処理を示すフローチャート。 実施例1における撮像レンズの収差情報の例を示す図。 実施例1におけるハーフミラーの分光透過率の角度依存性を示す図。 実施例1におけるハーフミラーに対する入射角度を示す図。 実施例1における被写体情報抽出タイミングを示す図。 本発明の実施例2であるカメラの構成を示すブロック図。 実施例2における撮像処理を示すフローチャート。 実施例2におけるAF処理を示すフローチャート。 実施例2におけるBP量算出処理を示すフローチャート。 実施例2のカメラのハーフミラーの退避状態を示す図。
以下、本発明の実施例について図面を参照しながら説明する。
図1は、本発明の実施例1である撮像装置(カメラ)としてのレンズ交換式デジタルカメラ本体100および撮像レンズ500の構成を示している。撮像レンズ500は、カメラ本体100に対して着脱可能に構成されている。なお、カメラは、本実施例のようなレンズ交換型カメラに限らず、レンズがカメラ本体に固定されたレンズ一体型カメラでもよい。
撮像レンズ500内の撮像光学系を透過した光束は、カメラ本体100内に固定された光束分割手段としてのビームスプリッタ103に入射して2つの光束に分割される。本実施例では、ビームスプリッタ103として、入射した光束を透過光束(第1の光束)と反射光束(第2の光束)とに分割する光束分割手段としてのハーフミラーにより構成されている。ビームスプリッタ103からの透過光束は第1の撮像素子101に向かい、ビームスプリッタ103からの反射光束は第2の撮像素子102に向かう。ビームスプリッタ103は、ハーフミラーと同様に入射する光束を分割することができれば、ハーフミラーでなくてもよい。
第1の撮像素子101の撮像面(以下、第1の撮像面という)と第2の撮像素子102の撮像面(以下、第2の撮像面という)は、撮像レンズ500から見て光学的に等価な位置にある。言い換えれば、第1の撮像面と第2の撮像面はそれぞれ、撮像レンズ500を介して、被写体に対して光学的に共役な結像面に位置する。
第1および第2の撮像面には、ビームスプリッタ103の透過率および反射率に応じた明るさの被写体像が形成される。ビームスプリッタ(ハーフミラー)103は理想的には平面で、かつ光束が透過する領域の屈折率が一様であることが望ましいが、現実にはある程度のうねりや屈折率分布を有する。このため、ビームスプリッタ103を透過および反射した光束により形成される被写体像を撮像して得られる画像の画質が低下するおそれがある。
また、ハーフミラーが薄板ガラスにより構成される場合には、反射光束により形成される被写体像を撮像して得られる画像の方が、透過光束により形成される被写体像を撮像して得られる画像より画質の低下度が大きい。
このため、本実施例では、透過側の第1の撮像素子101を高解像度記録用の撮像素子、すなわち主として静止画を撮像するための撮像素子として用いる。一方、反射側の第2の撮像素子102を、静止画よりも記録画素数が少ない動画を撮像するための撮像素子として用いる。ただし、後述するように、第1の撮像素子101により動画撮像を行い、第2の撮像素子102により静止画撮像を行ってもよい。
それぞれCMOSエリアセンサからなる第1および第2の撮像素子101,102は、被写体像を電気信号に変換するマトリクス状に配置された画素によって構成される。電気信号に変換された画素情報はカメラCPU104で画像信号や焦点検出信号を得るための各種補正処理や、得られた画像信号をライブビュー画像や記録画像へ変換するための処理等が行われる。なお、本実施例では上記処理等をカメラCPU104が行うが、それぞれの処理に専用回路を設けてもよい。
撮像素子駆動部114は、第2の撮像素子102を光軸方向(撮像光学系の光軸が延びる方向)に移動させる。第1および第2の撮像素子101,102は、上述したように光学的に共役な結像面に配置されるが、カメラ本体100の組立誤差や後述する収差の影響による最良像面の差によって共役な結像面に対して誤差を持って配置される。このため、第1および第2の撮像素子101,102を通して同時に画像を得る際に、撮像レンズ500に設けられた後述するフォーカスレンズ(第3レンズ群503)だけでは第1および第2の撮像素子101,102に対して精度良く焦点調節を行うことができない。そこで、本実施例では、撮像素子駆動部114を設けている。撮像素子駆動部114は、上述したように第2の撮像素子102を光軸方向に移動させてよいし、ビームスプリッタ103を同方向に移動させてもよい。また、第1および第2の撮像素子101,102のそれぞれには、赤外カットフィルタや光学的ローパスフィルタ等の光学フィルタが一体的に配置されている。
操作部105は、撮像モードや撮像条件等を設定するためにユーザにより操作されるスイッチ、ダイヤル等の各種操作部材を含む。記憶媒体106は、フラッシュメモリにより構成され、撮像画像(静止画および動画)を記録する。
ファインダ内表示器107は、有機EL素子や液晶素子等のディスプレイデバイス108と接眼レンズ109とで構成され、接眼レンズ109を覗いたユーザにディスプレイデバイス108に表示された画像を観察させる。外部表示器110は、有機EL素子や液晶素子等により構成され、カメラ本体100の背面に設けられている。カメラ本体100の各種設定状態、ライブビュー画像および撮像画像等は、ファインダ内表示器107および外部表示器110に表示される。
フォーカルプレンシャッタ111は、第1の撮像素子101の前面に配置され、静止画撮像時に第1の撮像素子101の露光秒時を制御する。シャッタ駆動部112は、モータ等のアクチュエータとその駆動回路とにより構成され、フォーカルプレンシャッタ111のシャッタ羽根を駆動する。カメラ本体100および撮像レンズ500にはそれぞれ、撮像レンズ500をカメラ本体100に装着するためのカメラマウント部およびレンズマウント部が設けられている。カメラマウント部に設けられたカメラ側通信端子113およびレンズマウント部に設けられたに設けられたレンズ側通信端子508は、後述するカメラCPU104とレンズCPU507との間の通信を可能とする。
撮像レンズ500内の撮像光学系は、焦点距離が可変であるズームレンズとして、以下のように構成されている。被写体からの光束は、第1レンズ群501、第2レンズ群502、虹彩絞り505および第3レンズ群503を透過して被写体像を形成する。第2レンズ群502は、光軸方向に移動して変倍を行うバリエータである。第3レンズ群503は、光軸方向に移動して焦点調節を行うフォーカスレンズ(フォーカス素子)である。第3レンズ群503は、ステッピングモータ等のアクチュエータを含むフォーカス駆動部504によって移動される。虹彩絞り505は、光量を調節するための複数の絞り羽根を有する。絞り駆動部506は、絞りアクチュエータおよびその駆動回路を含み、複数の絞り羽根を開閉方向に駆動する。
レンズCPU507は、レンズ側通信端子508およびカメラ側通信端子113を介してカメラCPU104と通信し、各種情報を送受信したり、カメラCPU104からの指令に基づいてフォーカス駆動部504や絞り駆動部506を制御したりする。
本実施例では、撮像レンズ500の開放Fナンバは、ズーム状態やフォーカス状態によらず、一定値(例えばF2)となる。撮像レンズ500の射出瞳と各撮像面(各撮像素子)との間の距離である射出瞳距離は、ズーム状態およびフォーカス状態に応じて変化する。
図2(a),(b)は、第1の撮像素子101の構成を示している。本実施例では、第1の撮像素子101と第2の撮像素子102は、画素ピッチと、1つのマイクロレンズに対応する光電変換部の数とが異なるが、それ以外の構成については同様である。第2の撮像素子102の構成については後述する。
図2(a)は、第1の撮像素子101(第1の撮像面)のうち中央(像高0)近傍の複数の画素を撮像レンズ側から見て示している。各画素は、第1の撮像面上の水平(x)方向および垂直(y)方向のそれぞれにおいて4μmのサイズの正方形状を有し、各画素の構造は基本的に同じである。第1の撮像素子101は、画素が水平方向に6000画素、垂直方向に4000画素配列された、有効画素数2400万画素の撮像素子である。第1の撮像面のサイズは各画素のサイズ、すなわち画素ピッチに画素数を乗じれば求めることができ、本実施例では水平方向24mm、垂直方向16mmである。全ての画素には、R、GまたはBのカラーフィルタがモザイク状となるように設けられている。
図2(b)は、1つの画素の断面構造を示している。CMOSイメージセンサの基体を成すシリコン基板101d内には、一対の光電変換部101aおよび光電変換部101bが設けられている。また、シリコン基板101d内には、各光電変換部で発生した光電子を電圧に変換して外部に読み出す不図示のスイッチングトランジスタ等が形成されている。各光電変換部からの出力信号は、複数の配線層101eを通じて読み出される。
複数の配線層101eは、透明な層間膜101fによって互いに絶縁されている。オンチップマイクロレンズ101cの下には、色分離用カラーフィルタ101gが設けられている。マイクロレンズ101cの形状は、その焦点位置が一対の光電変換部101a,101bの上面に一致するように決められる。このため、一対の光電変換部101a,101bはマイクロレンズ101cを介して後述する撮像レンズ500の射出瞳近傍に逆投影され、その逆投影像がそれぞれ位相差検出方式焦点検出における焦点検出瞳となる。撮像光学系の射出瞳において一対の焦点検出瞳が並ぶ方向(瞳分割方向)は、水平方向または垂直方向である。
位相差検出方向焦点検出を行う際には、光電変換部101aからの出力信号と光電変換部101bからの出力信号とを個別に処理して一対の位相差像信号を生成する。そして、焦点検出手段としてのカメラCPU104は、一対の位相差像信号の相対的なずれ量(像ずれ量)から第1の撮像面における被写体像のデフォーカス量を算出する。
また、制御手段としてのカメラCPU104は、一対の光電変換部101a,101bからの出力信号を加算して、静止画(または動画)記録用の画素信号もしくはライブビュー画像用の画素信号を生成する。ライブビュー画像は、記録用画像を取得するための撮像前にファインダ内表示器107および外部表示器110にリアルタイムで表示される画像である。なお、この加算処理をカメラCPU104とは別の専用回路により行ってもよい。また、第1の撮像素子101が光電変換部101a,101bの出力信号を個別に読み出し、第1の撮像素子101内で加算して画素信号として出力してもよい。
図2(c)は、第2の撮像素子102の構成を示しており、第2撮像面における中央(像高0)近傍における複数の画素を撮像レンズ側から見て示している。各画素は、第2の撮像面上の水平(x)方向および垂直(y)方向のそれぞれにおいて12μmのサイズの正方形状を有し、各画素の構造は実質的に同じである。第2の撮像素子102は、画素が水平方向に2000画素、垂直方向に1333画素配列された、有効画素数約267万画素の撮像素子である。第2の撮像面のサイズは、水平方向24mm、垂直方向16mmである。全ての画素には、R、GまたはBのカラーフィルタがモザイク状となるように設けられている。第2の撮像素子102の画素ピッチは第1の撮像素子101の2倍であるため、第2の撮像素子102の総画素数は第1の撮像素子101の1/4である。
第2の撮像素子102の各画素は、配線層、マイクロレンズおよび色分離用カラーフィルタについては第1の撮像素子101と同様に構成されている。第2の撮像素子102は、第1の撮像素子101と異なり、1つのオンチップマイクロレンズ102jの下に9つの光電変換部102a〜102iを有する。これにより、第1の撮像素子101に比べて、受光する光線の角度分解能を上げることができる。
上述したように第1の撮像素子101からは一対の光電変換部101a,101bが撮像レンズの射出瞳近傍に逆投影されるが、第2の撮像素子102からは9つの光電変換部102a〜102iが逆投影される。つまり、9つの逆投影像がそれぞれ焦点検出瞳となる。位相差検出方向焦点検出を行う際には、9つの光電変換部102a〜102iのうち一対の光電変換部からの出力信号を個別に処理して一対の位相差像信号を生成する。一対の焦点検出瞳が並ぶ瞳分割方向として、水平方向、垂直方向および斜め方向を選択することができる。そして、カメラCPU104は、一対の位相差像信号の相対的なずれ量から第2の撮像面における被写体像のデフォーカス量を算出する。
また、カメラCPU104は、9つの光電変換部102a〜102iの全部または一部からの出力信号を加算して、動画(または静止画)記録用の画素信号もしくはライブビュー表示用の画素信号を生成する。なお、この加算処理をカメラCPU104とは別の専用回路により行ってもよい。また、第2の撮像素子102が光電変換部102a〜102iの出力信号を個別に読み出し、第2の撮像素子102内で加算して画素信号として出力してもよい。
本実施例では、第1および第2の撮像素子101,102は、第1の読み出しモードと第2の読み出しモードとを有する。第1の読み出しモードは、記録用の静止画や動画を撮像するために全画素から出力信号が読み出される全画素読み出しモードである。第2の読み出しモードは、記録用の静止画よりも画素数が少ないライブビュー画像の表示を行うため、全画素のうち一部の画素からの出力信号のみが読み出される間引き読み出しモードである。ライブビュー画像の生成に必要な画素数は全画素数よりも少ないため、撮像素子からx方向およびy方向ともに所定比率で間引いた数の画素のみから出力信号を読み出すことで、信号処理負荷を軽減するとともに、消費電力の低減にも寄与する。また、第1および第2の読み出しモードのいずれにおいても各画素に設けられた各光電変換部からの出力信号は独立して読み出しされるため、いずれの読み出しモードでも一対の位相差像信号の生成が可能である。
上述したように本実施例では第1の撮像素子101は静止画撮像に用いられるが、動画撮像を行ってもよい。例えば、第2の撮像素子102による動画撮像中に、第1の撮像素子101から第2の読み出しモードで生成した低解像度動画を記録することも可能である。また、本実施例では第2の撮像素子102は動画撮像に用いられるが、静止画撮像も可能である。例えば、動画撮像中に特定の1フレーム画像を記録用静止画として取得することも可能である。
次に、図3(a)〜(d)を用いて、第1および第2の撮像素子101,102の光電変換部と焦点検出瞳との関係について説明する。図3(a),(b)は、撮像光学系の射出瞳面と第1の撮像素子101における像高0の位置に配置された光電変換部との共役関係を示す。撮像光学系の射出瞳面と第1の撮像素子101の光電変換部101a,101bとは、マイクロレンズ101cによって共役関係とされる。撮像光学系の射出瞳の位置は、一般に虹彩絞り505の位置と一致する。
本実施例の撮像光学系はズームレンズであるが、その光学タイプによっては変倍によって射出瞳から像面(撮像面)までの射出瞳距離や射出瞳の大きさが変化する。図3(a)に示す撮像光学系は、焦点距離が広角端と望遠端との間の中間ズーム状態にある。このときの射出瞳距離を基準となる射出瞳距離Zepとして、マイクロレンズ101cの形状や像高(X座標、Y座標)に応じた偏心パラメータが最適化される。
図3(a)において、図1に示した構成要素と同じ構成要素には、図1と同符号を付す。501rは第1レンズ群501を保持する鏡筒部材であり、503rはフォーカスレンズ503を保持する鏡筒部材である。505aは虹彩絞り505の開放口径を決める開口部を有する開口板であり、505bは絞り込み開口径を調節するための絞り羽根である。撮像光学系を通過する光束を制限する部材としての鏡筒部材501r、開口板505a、絞り羽根505bおよび鏡筒部材503rは、像面側から観察した場合の光学的な虚像として示している。また、虹彩絞り505の近傍における合成開口を撮像光学系の射出瞳(以下、レンズ射出瞳という)と定義して、前述したように像面からレンズ射出瞳までの距離をZepとする。
2つの光電変換部101a,101bは、マイクロレンズ101cによって撮像光学系の射出瞳面上に像EP1a,EP1bとして逆投影される。言い換えれば、撮像光学系の射出瞳のうち互いに異なる焦点検出瞳であるEP1a,EP1bが、マイクロレンズ101cを介して光電変換部101a,101bの表面に投影される。
図3(b)は、撮像光学系の射出瞳面上における光電変換部101a,101bの逆投影像EP1a,EP1bを光軸方向から見て示す。第1の撮像素子101は、2つの光電変換部101a,101bのうち一方からの信号を出力することができるとともに、これらの両方からの信号を加算して出力できる画素を有する。加算して出力された信号は、焦点検出瞳EP1a,EP1bを通過した全ての光束を光電変換して得られた信号である。
図3(a)において、撮像光学系を通過する光束(図ではその外縁を直線で示している)Lは、絞り505の開口板505aによって制限されており、焦点検出瞳EP1a,EP1bからの光束は撮像光学系においてケラレることなく画素に到達する。図3(b)では、図3(a)に示した光束Lの射出瞳面での断面(外縁)をTLとして示している。TLで示される円(つまりは開口板505aの開口)の内部に2つの光電変換部101a,101bの逆投影像EP1a,EP1bの大部分が含まれていることから、逆投影像EP1a,EP1bにはわずかなケラレしか発生していないことが分かる。この際、射出瞳面の中央では逆投影像EP1a,EP1bのケラレ状態は、撮像光学系の光軸(図3(a)に一点鎖線で示す)に関して対称となり、光電変換部101a,101bが受光する光量は互いに等しい。
図3(c),(d)は、撮像光学系の射出瞳面と第2の撮像素子102における像高0の位置に配置された光電変換部との共役関係を示す。撮像光学系の射出瞳面と第2の撮像素子102の光電変換部102a〜102iとは、マイクロレンズ102jによって共役関係とされる。図3(c)は、上述した第1レンズ群501、鏡筒部材501r、虹彩絞り505、フォーカスレンズ503、鏡筒部材503rおよび第2の撮像素子102の1つの画素を示す。
9つの光電変換部102a〜102iは、マイクロレンズ102jによって撮像光学系の射出瞳面上に投影像EP2a〜EP2iとして逆投影される。言い換えれば、逆投影像EP2a〜EP2iが形成される焦点検出瞳の像は、マイクロレンズ101cを介して光電変換部102a〜102iの表面に投影される。
図3(d)は、撮像光学系の射出瞳面上における光電変換部102a〜102iの逆投影像EP2a〜EP2iを光軸方向から見て示す。第2の撮像素子102は、9つの光電変換部102a〜102iのそれぞれから信号を出力することができるとともに、9つの光電変換部102a〜102iからの信号を加算して出力できる画素を有する。加算して出力された信号は、焦点検出瞳EP2a〜EP2iを通過した全ての光束を光電変換して得られた信号である。
図3(c)でも、撮像光学系を通過した光束Lは、虹彩絞り505の開口板505aによって制限されている。また図3(d)でも、図3(c)に示した光束Lの射出瞳面での断面(外縁)をTLとして示している。TLで示される円(つまりは開口板505aの開口)の内部に9つの光電変換部102a〜102iの逆投影像EP2a〜EP2iの大部分が含まれていることから、逆投影像EP2a〜EP2iにはわずかなケラレしか発生していないことが分かる。この際、射出瞳面の中央では逆投影像EP2a〜EP2iのケラレ状態は、撮像光学系の光軸に関して対称となり、光電変換部102a〜102iが受光する光量は互いに等しい。
ここで、位相差検出方式の焦点検出に用いられる一対の位相差像信号について説明する。上述したように、第1の撮像素子101では、マイクロレンズ101cと2つの光電変換部101a,101bとによって撮像光学系の射出瞳を瞳分割する。そして、第1の撮像素子101の同一画素行に配置された焦点検出領域内の複数の焦点検出画素の光電変換部101aからの出力信号を繋ぎ合わせることで、一対の位相差像信号うち一方の位相差像信号(以下、A像信号という)が生成される。また、上記複数の焦点検出画素の光電変換部101bからの出力信号を繋ぎ合わせることで、一対の位相差像信号うち他方の位相差像信号(以下、B像信号という)が生成される。
A像信号およびB像信号はともに、ベイヤー配列のR画素、B画素および2つのG画素からの出力信号を信号加算処理したものであり、疑似的に輝度(Y)信号として算出される。ただし、R画素ごと、B画素ごとおよびG画素ごとにA像信号およびB像信号を生成してもよい。
このように生成したA像信号とB像信号の相対的なずれ量である位相差を相関演算により算出することにより、該位相差を用いて焦点検出領域におけるデフォーカス量を算出することができる。
また、第2の撮像素子102の出力信号からも、同様にして一対の位相差像信号としてのC像信号およびD像信号が生成される。第2の撮像素子102は、第1の撮像素子101よりも瞳分割数が多いため、C像信号およびD像信号の生成方法が複数考えられる。例えば、光電変換部102a,102d,102gからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでC像信号を生成する。また、光電変換部102c,102f,102iからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでD像信号を生成する。
他の生成方法としては、例えば、複数の焦点検出画素間で光電変換部102dからの出力信号のみを繋ぎ合わせてC像信号を生成し、光電変換部102fからの出力信号のみを繋ぎ合わせてD像信号を生成してもよい。さらに別の生成方法としては、左側6つの光電変換部102a,102b,102d,102e,102g,102hからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでC像信号を生成してもよい。この場合、右側6つの光電変換部102b,102c,102e,102f,102h,102iからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでD像信号を生成する。
なお、一対の位相差像信号のそれぞれの生成に用いる光電変換部の数は同じでなくてもよい。各撮像素子において像高が高い領域では、到達する光束にビネッティングが発生するため、ビネッティングを考慮して一対の位相差像信号の生成に用いる光電変換部を選択してもよい。一対の位相差像信号の生成に用いられる光電変換部間に受光量、すなわち出力信号の大きさに差がある場合でも、後述するシェーディング補正によって出力信号の大きさを同等にすることができるため、問題はない。
以下では、第1の撮像素子101から得られるA像およびB像信号と、第2の撮像素子102から得られるC像およびD像信号はともに、水平方向に位相差が発生するように構成されている場合について説明する。ただし、第2の撮像素子102は、垂直方向に位相差が発生するC像およびD像信号を生成することもできる。このため、本実施例では、第2の撮像素子102から、C像およびD像信号だけでなく、垂直方向に位相差が発生する一対の位相差像信号として、E像信号およびF像信号も生成する。E像およびF像信号の生成に用いられる光電変換部も、C像およびD像信号の生成に用いられる光電変換部と同様に様々に選択される。
以上説明したように、第1の撮像素子101および第2の撮像素子102はいずれも、撮像センサとしての機能のみではなく、位相差検出方式用の焦点検出センサとしての機能も有する。すなわち、本実施例のカメラ本体100は、第1の撮像素子101または第2の撮像素子102を焦点検出センサとして用いて撮像面位相差AF(焦点検出および焦点調節制御)を行うことができる。
次に、図4を用いて、本実施例における焦点検出領域について説明する。第1の撮像素子101に対して、水平方向に瞳分割を行う複数の焦点検出画素を含む焦点検出領域が複数設定されている。また、第2の撮像素子102に対しては、水平方向および垂直方向のそれぞれに瞳分割を行う焦点検出領域が複数設定されている。
図4中に点線で示される長方形は、第1および第2の撮像素子101,102のそれぞれの撮像面(全画素領域)のうち撮像に用いる撮像領域217を示す。なお、ここでは第1および第2の撮像素子101,102の撮像領域217の大きさを共通としているが、互いに異ならせてもよい。例えば、第1の撮像素子101で静止画撮像を行い、第2の撮像素子で動画撮像を行う場合には、第1および第2の撮像素子101,102の撮像領域アスペクト比を異ならせてもよい。このような場合には、撮像画像を表示する際に、各撮像素子の撮像領域を枠で明示する等してユーザに認識させることが好ましい。
第1の撮像素子101の撮像領域217内には、水平方向に瞳分割を行う3つの焦点検出領域218ah,218bh,218chがそれぞれ、撮像領域217の中央部と左右2箇所に設けられている。一方、第2の撮像素子102の撮像領域217内には、上記3つの焦点検出領域218ah,218bh,218chと垂直方向に瞳分割を行う3つの焦点検出領域218av,218bv,218cvとが撮像領域217の中央部と左右2箇所に設けられている。
第1の撮像素子101のうち焦点検出領域218ah,218bh,218chに含まれる画素からの出力信号を用いてA像信号およびB像信号を得ることで、水平方向にコントラストを有する被写体に対する焦点検出を行うことができる。同様に、第2の撮像素子102のうち焦点検出領域218ah,218bh,218chに含まれる画素からの出力信号を用いてC像信号およびD像信号を得ることで、水平方向にコントラストを有する被写体に対する焦点検出を行うことができる。さらに、第2の撮像素子102のうち焦点検出領域218av,218bv,218cvからの出力信号を用いて、C像信号およびD像信号と同様にE像信号およびF像信号を得ることで、垂直方向にコントラストを有する被写体に対する焦点検出を行うことができる。以下の説明において、被写体がコントラストを有する方向を、コントラスト方向という。
また図4は、外部表示器110において焦点検出領域を表示するための表示枠219a,219b,219cを破線で示している。これら表示枠219a,219b,219cを焦点検出領域と概ね同じサイズにすることにより、撮像者が表示枠内に配置した被写体に対して適切に焦点検出を行うことができる。
図5のフローチャートは、本実施例における撮像処理を示している。カメラCPU104は、コンピュータプログラムである撮像制御プログラムに従って本処理を実行する。以下の説明において、「S」はステップを意味する。
ユーザがカメラ本体100に設けられた電源スイッチをオン操作すると、カメラCPU104は、S101においてレンズCPU507と通信を行い、撮像レンズ500の開放Fナンバ、焦点距離、射出瞳距離PLおよびフォーカス敏感度等の情報を受信する。フォーカス敏感度は、フォーカスレンズ503の移動量に対する像面の移動量を示す。
次にS102では、カメラCPU104は、ユーザにより現在設定されている撮像モードが静止画撮像と動画撮像とを同時に行う静止画・動画撮像モードか動画撮像のみを行う動画撮像モードかを判定する。カメラCPU104は、静止画・動画撮像モードである場合はS103に進み、動画撮像モードである場合はS104に進む。
S103では、カメラCPU104は、静止画撮像用の第1の撮像素子101を被写体情報取得モードで駆動し、動画撮像用の第2の撮像素子102はライブビューモードで駆動する。
ここで、被写体情報取得モードとは、後述する被写体情報や焦点検出情報(デフォーカス量)を取得するためのモードである。このモードにおいて、焦点検出領域が複数であったり広かったりする場合には、第1の撮像素子101を上述した第2の読み出しモードで駆動する。一方、ユーザの指示や被写体検出機能等によって焦点検出を行う焦点検出領域が限定される場合には、第1の撮像素子101を第1の読み出しモードで駆動する。
また、ライブビューモードとは、外部表示器110に表示するライブビュー画像を生成するためのモードである。記録用画像の画素数に対して外部表示器110の画素数が水平および垂直方向とも少ないため、ライブビューモードでは第1の撮像素子101を第2の読み出しモードで駆動する。また、ライブビューモードで位相差像信号を取得して焦点検出を行うこともできる。この場合は、位相差像信号の分解能を高くするため、第1の読み出しモードで駆動することが好ましい。
S104では、カメラCPU104は、動画撮像を行うために第2の撮像素子102を駆動する。この際、静止画撮像用の第1の撮像素子101を駆動しない。これは、動画撮像で得られる画像の解像度は第2の撮像素子102の画素ピッチによって制限されるため、第1の撮像素子101からより高周波の情報を得ても有効に活用できないためである。これにより消費電力の抑制が可能となる。ただし、静止画撮像用の第1の撮像素子101を動画撮像用の第2の撮像素子102よりもフレームレートを上げて駆動することにより、より多くの被写体情報を得るようにしてもよい。
次にS105では、カメラCPU104は、第2の撮像素子102からの出力信号を表示用画像信号に変換し、外部表示器110またはファインダ内表示器107送信してライブビュー画像の表示を開始する。
次にS106では、カメラCPU104は、各撮像素子の駆動により得られる画像信号の明るさを判断し、ライブビュー画像表示時の絞り制御を行う。
次にS107では、カメラCPU104は、AF処理を行う。本実施例では、第1および第2の撮像素子101,102を用いて焦点検出を行うとともに被写体情報を取得する。また、被写体情報を用いて焦点検出結果(デフォーカス量)を補正する。さらに、カメラCPU104は、補正後の焦点検出結果に基づいてフォーカスレンズ503を駆動し、合焦表示も行う。焦点検出から合焦表示までのAF処理の詳細については後述する。
次にS108では、カメラCPU104は、動画撮像トリガボタンがユーザによりオン操作されたか否かを判断する。オン操作されていた場合は、カメラCPU104はS109に進み、動画用の画像処理を行って動画の生成を開始する。これにより、生成された動画が記録される。この後、S110に進む。動画撮像トリガボタンがオン操作されていない場合は、カメラCPU104はS109をスキップしてS110に進む。
S110では、カメラCPU104は、静止画撮像トリガボタンがユーザによりオン操作されたか否かを判断する。カメラCPU104は、動画用ライブビューもしくは動画記録時に静止画撮像トリガボタンがオン操作されることに応じて、第1の撮像素子101による静止画の記録を行う。静止画撮像トリガボタンがオン操作された場合は、カメラCPU104はS111に進む。静止画撮像トリガボタンがオン操作されていない場合は、カメラCPU104はS111をスキップしてS112に進む。
S111では、カメラCPU104は、静止画撮像を行う。この際、カメラCPU104は、静止画撮像用のFナンバ(絞り値)をレンズCPU507に送信する。レンズCPU507は、絞り駆動部506を通じて虹彩絞り505の絞り開口径を静止画撮像用のFナンバに対応する径に制御する。その後、カメラCPU104は、フォーカルプレンシャッタ111を開閉制御して第1の撮像素子101の露光を制御し、第1の撮像素子101から出力信号を読み出して記録用静止画を生成および記録する。ここで行う静止画撮像は、単写でも連写でもよいが、以下では連写が行われる場合について説明する。
次にS112では、カメラCPU104は、動画撮像トリガボタンがユーザによりオフ操作されたか否かを判断する。オフ操作されていない場合は、カメラCPU104はS105からS111の処理を繰り返して動画用のAF処理や動画撮像を継続するとともに、静止画撮像の割り込みも許可する。動画撮像トリガボタンがオフ操作された場合は、カメラCPU104は本処理を終了する。
本実施例では、静止画撮像用の第1の撮像素子101と動画撮像用の第2の撮像素子102から得た出力信号を用いて焦点検出や撮像を行う。これら焦点検出や撮像を指示するために、静止画撮像トリガボタンと動画撮像トリガボタンという異なる操作部材を用意している。これにより、静止画撮像と動画撮像の開始タイミングを独立して制御できるだけでなく、焦点検出についても、静止画用の焦点検出を高速に行い、動画用の焦点検出を低速(緩やか)に行う等の異なる制御を行うことができる。
次に、図6のフローチャートを用いて焦点検出処理およびこれを含むAF処理(焦点調節制御方法)について説明する。カメラCPU104は、上記撮像制御プログラムの一部である焦点調節制御プログラムに従って本処理を実行する。
カメラCPU104は、S901において、図4に示した焦点検出領域219a〜219cからの実際に焦点検出を行う1または2以上の焦点検出領域を設定(選択)する。この設定は、ユーザの指示に応じて行ってもよいし、事前に行われた焦点検出の結果や顔認識等の被写体認識の結果等に基づいて行ってもよい。
次にS902では、カメラCPU104は、設定された焦点検出領域内の焦点検出画素から一対の位相差像信号を取得する。第1の撮像素子101からはA像およびB像信号を取得し、第2の撮像素子102からはC像およびD像信号と、E像およびF像信号を取得する。
次にS903では、カメラCPU104は、位相差像信号に対する補正処理とフィルタ処理を行う。補正処理としては、各撮像素子の信号出力特性に応じたオフセットやゲインを調整する処理を行う。また、撮像レンズ500のビネッティングの影響による一対の位相差像信号間の光量差を補正するシェーディング補正も行う。フィルタ処理としては、焦点検出に用いる評価帯域に合わせたデジタルフィルタ処理を行う。一般に、高周波数帯域を評価すると検出可能なデフォーカス領域が狭くなる。このため、複数の周波数帯域を評価するために、複数のフィルタ処理を行う。
第1の撮像素子101から得られるA像およびB像信号は、第1の撮像素子101の画素ピッチが第2の撮像素子102よりも細かいため、より高周波数帯域での評価が可能である。このため、A像およびB像信号には高周波数帯域と中周波数帯域に対応するフィルタ処理を行う。また、第2の撮像素子102から得られるC像およびD像信号とE像およびF像信号には、低周波数帯域と超低周波数帯域のフィルタ処理を行う。
次にS904では、カメラCPU104は、一対の位相差像信号(A像およびB像信号、C像およびD像信号、E像およびF像信号)に対する相関演算を行って該一対の位相差像信号間の位相差を算出し、さらに該位相差からデフォーカス量を算出する。
相関演算は、例えば以下の式(1)に示す相関量COR(h)を用いる。
式(1)においては、一対の位相差像信号をS1(k)とS2(k)(1≦k≦P)で表している。NW1は焦点検出領域の広さを示す視野内データ数である。hmaxは一対の位相差像信号S1(k),S2(k)の位置関係をずらしながら(つまりはシフト量hを変えながら)相関量を評価する際の最大ずらし量を示すシフトデータ数である。各シフト量hでの相関量COR(h)を求めた後、相関量CORが最小となる(すなわち一対の位相差像信号の相関が最大となる)シフト量dhを求める。このシフト量dhが位相差に相当する。
カメラCPU104は、このようにして求めた位相差としてのシフト量dhに、フォーカスレンズ503の単位移動量に対する像面移動量を示すフォーカス敏感度を乗じる等してデフォーカス量(焦点検出結果)を算出する。こうして、カメラCPU104は、A像およびB像信号から第1のデフォーカス量(第1の焦点検出結果)を取得し、C像およびD像信号から第2のデフォーカス量(第2の焦点検出結果)を取得する。さらに、E像およびF像信号から第3のデフォーカス量(第3の焦点検出結果)を取得する。
次にS905では、カメラCPU104は第1および第2の撮像素子102のそれぞれから得られた出力信号から被写体情報を抽出(取得)する。被写体情報とは、被写体の空間周波数特性、分光分布(色)、コントラスト方向等に関する情報である。被写体情報の抽出処理の詳細については後述する。被写体情報の抽出を終えると、カメラCPU104は、S906にて被写体情報に対応した焦点調節補正量としてのベストピント(BP)補正量を算出する。
そしてS907では、カメラCPU104は、S904で算出した第1〜第3のデフォーカス量に対してS905で算出したBP補正量を適用する補正を行う。BP補正量の算出方法の詳細については後述する。
次にS908では、S907で得られた補正後の第1〜第3のデフォーカス量から信頼性の高いデフォーカス量を選択する。例えば、被写体情報として高周波成分が多い場合には、第1の撮像素子101から得られた第1のデフォーカス量を選択する。また、コントラスト方向として垂直方向の成分が多い場合には、第2の撮像素子102から得られた第3のデフォーカス量を選択する。また、デフォーカス量が大きい場合には評価帯域が低周波数帯域である方が信頼性が高いため、第1〜第3のデフォーカス量からどれを選択するかを決定する。
次にS909では、カメラCPU104は、選択したデフォーカス量に基づいてフォーカスレンズ503および第2の撮像素子102を移動させる(駆動する)。本実施例では、フォーカスレンズ503の移動によるフォーカシングに加えて、第2の撮像素子102の移動によってもフォーカシングが可能である。これは、上述したBP補正値や、第1および第2の撮像素子101,102の位置がそれらの組付け誤差により光学的に共役ではないこと等に対応するものである。
カメラCPU104は、第1の撮像素子101から得られた第1のデフォーカス量に基づいてフォーカスレンズ503を移動させる。さらに、フォーカスレンズ503の移動によるフォーカシングの過不足を第2の撮像素子102から得られた第2または第3のデフォーカス量に基づく第2の撮像素子102の移動で補う。カメラCPU104は、第2の撮像素子102の移動量を、撮像光学系の収差情報および後述する撮像画像評価帯域(第1の撮像特性情報および第2の撮像特性情報)のうち少なくとも1つの変更に応じて変更する。
第2の撮像素子102の移動量を、第1の撮像素子101から得られた第1のデフォーカス量と、第1および第2の撮像素子101,102の組み付け誤差量やBP補正量の差分値から決定してもよい。フォーカスレンズ503の移動量を第2のデフォーカス量を用いて決定してもよい。
こうして合焦状態が得られると、カメラCPU104は、S910においてファインダ内表示器107や外部表示器110に合焦状態が得られたことをユーザに知らせるための表示を行う。そして、本処理を終了する。
次に、図7から図9を用いて、図6のS905における被写体情報の抽出方法について説明する。図7のフローチャートは被写体情報抽出処理を示す。
まずS9051において、カメラCPU104は、第1の撮像素子101から得られた撮像信号(第1の撮像信号)を用いて被写体情報を抽出する。ここにいう撮像信号は、設定された焦点検出領域に含まれる画素が撮像光学系の射出瞳全域を通過した光束を光電変換することにより得られる信号である。言い換えれば、第1の撮像素子101の各画素の光電変換部101a,101bからの出力信号を加算して得られる信号である。
カメラCPU104は、ベイヤー配列に対応するモザイク撮像信号をR、GおよびBの色信号に分離し、それぞれの色信号について水平方向および垂直方向での空間周波数特性を算出する。水平方向および垂直方向での空間周波数特性を得る方法として、2次元FFTを用いてもよい。また、互いに周波数帯域が異なる複数のデジタルフィルタ処理を垂直方向に行って得られた撮像信号の信号量(パワー)と該デジタルフィルタ処理を水平方向に行って得られた撮像信号の信号量とを得てもよい。これにより、焦点検出を行う被写体の色味、周波数成分およびコントラスト方向を得ることができる。
第1の撮像素子101では、焦点検出を行う際の瞳分割方向が水平方向のみであるため、第1の撮像素子101のみを用いた焦点検出や撮像を行う場合には、垂直方向の被写体情報の抽出を省略してもよい。
次にS9052では、カメラCPU104は、S9051と同様に、第2の撮像素子102から得られた撮像信号(第2の撮像信号)を用いて被写体情報を抽出する。ここにいう撮像信号は、第2の撮像素子102の各画素の光電変換部102a〜102iからの出力信号を加算して得られる信号である。
図8は、第1の撮像素子101と第2の撮像素子102で得られる被写体情報の特性を示している。第1の撮像素子101は、第2の撮像素子102に比べて画素ピッチが小さいため、必要に応じて上述した被写体情報取得モードで駆動することにより、空間周波数帯域に関して高周波数域から低周波数帯域までの幅広い周波数帯域で被写体情報を得ることができる。また、第1の撮像素子101の用途を被写体情報の取得に特化することにより、電荷蓄積時間を短く設定することも可能であり、手振れや被写体振れの影響による撮像信号の高周波成分の損失を抑えて被写体情報を取得することができる。また、コントラスト方向に関しては、上述した方法により、水平方向および垂直方向ともに取得することが可能である。
ただし、撮像信号に対する補正処理やデジタルフィルタ処理を位相差像信号と共通とする場合には、焦点検出には用いない低周波数帯域信号の算出や垂直方向のフィルタ処理が別途必要となる。図8中の第1の撮像素子101について「要演算」と記載された項目については、第2の撮像素子102についての計算結果を代用する。また、被写体情報の抽出に際して各種処理が行われた一対の位相差像信号の和の信号を用いて行うことにより、演算量を低減することができる。
一方、第2の撮像素子102は、第1の撮像素子101に比べて画素ピッチが大きいため、高周波数帯域の信号を得ることは不可能である。しかし、焦点検出用に処理された信号を用いて、低周波数帯域および超低周波数帯域の被写体情報を、演算量を増やすことなく得ることができる。コントラスト方向に関しても、垂直方向の位相差像信号を得ているため、演算量を増やすことなく垂直方向の被写体情報を得ることができる。
このように、本実施例では、第1および第2の撮像素子101,102のそれぞれの特性に応じてそれら撮像素子から取得する被写体情報を分ける。これにより、演算量を増やすことなく、必要十分な被写体情報を取得することができる。
次にS9053では、カメラCPU104は、第1および第2の撮像素子101,102から得られた被写体情報を統合する。これにより、色の数3、コントラスト方向の数2および周波数帯域の数4を乗じた24のカテゴリーの被写体情報量の大小関係を得ることができる。
なお、第1および第2の撮像素子101,102から同じ被写体情報、例えば、水平方向における中周波数帯域の信号を得ることにより、それぞれから得られた信号間で校正を行うことができる。
次にS9054では、カメラCPU104は、焦点検出に用いられる位相差像信号に対する評価を行う周波数帯域(以下、AF評価帯域という)を算出する。カメラCPU104は、被写体情報、撮像光学系の光学特性、撮像素子のサンプリング周波数および評価に用いるデジタルフィルタの影響を考慮してAF評価帯域を算出する。具体的AF評価帯域の算出方法については後述する。
また、カメラCPU104は、記録用画像(撮像画像)の生成に用いられる撮像信号の評価帯域(以下、撮像画像評価帯域という)を算出する。カメラCPU104は、被写体情報、撮像光学系の光学特性、撮像素子のサンプリング周波数および撮像画像を干渉する鑑賞者の評価帯域の影響を考慮して撮像画像評価帯域を算出する。
図9(a)〜(c)および図10(a)〜(c)を用いてAF評価帯域および撮像画像評価帯域の算出について説明する。カメラCPU104は、AF評価帯域を一対の位相差像信号ごとに算出し、撮像画像評価帯域を撮像素子ごとに算出する。AF評価帯域は、焦点検出信号の特性に関する焦点検出特性情報に相当し、焦点検出信号の評価周波数帯域、コントラスト方向および色のうち少なくとも1つに応じて異なる情報である。また、第1の撮像素子101に対して算出される撮像画像評価帯域が第1の撮像特性情報に相当し、第2の撮像素子102に対して算出される撮像画像評価帯域が第2の撮像特性情報に相当する。各撮像画像評価帯域は、各撮像信号の特性に関する情報である。各撮像画像評価帯域は、各撮像素子の画素ピッチ、画素ごとに設けられた光電変換部の数、各画素における瞳分割方向およびビームスプリッタ103の各撮像素子に対する分光特性(後述する分光透過率および分光反射率)等に応じて異なる情報である。
図9(a)〜(c)および図10(a)〜(c)はいずれも空間周波数ごとの信号の強度を示し、横軸に空間周波数を、縦軸に強度を示す。
図9(a)は、被写体の空間周波数特性Iを示している。横軸上のF1,F2,F3およびF4は評価する空間周波数を示し、F1からF4に向かって高周波数となる。S9053で得られた被写体情報における高周波数帯域はF4に、中周波数帯域はF3に、低周波数帯域はF2に、超低周波数帯域はF1にそれぞれ相当する。
被写体情報は、R,G,Bの色ごとおよびコントラスト方向ごとに存在するが、ここでは、水平方向におけるGの被写体情報のみを示している。また、Nqは第1の撮像素子101の画素ピッチに応じて決定されるナイキスト周波数である。空間周波数F1〜F4およびナイキスト周波数Nqについては、後述の図9(b),(c)および図10(a)〜(c)にも同様に示されている。
被写体の空間周波数特性Iは、S9053で得た被写体情報を用いる。図9(a)では被写体の空間周波数特性Iが曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをI(n)(1≦n≦4)と表す。
図9(b)は、撮像光学系の合焦状態での空間周波数特性Oを示す。この空間周波数特性Oの情報はレンズCPU507から取得してもよいし、カメラCPU104内のRAM等のメモリ(以下、カメラメモリという)に記憶しておいてもよい。図9(b)では撮像光学系の空間周波数特性Oは曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをO(n)(1≦n≦4)と表す。
図9(c)は、光学ローパスフィルタの空間周波数特性Lを示す。この空間周波数特性Lの情報は、カメラメモリに記憶されている。図9(c)では光学ローパスフィルタの空間周波数特性Lは曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3,F4に対応した値を有し、それをL(n)(1≦n≦4)と表す。本実施例において、第1および第2の撮像素子101,102間で異なる光学ローパスフィルタを用いる場合には、それら光学ローパスフィルタの空間周波数特性を別々に記憶しておくことが望ましい。
図10(a)は、信号生成に関する空間周波数特性M1,M2を示す。前述したように、第1および第2の撮像素子101,102から出力信号を読み出して位相差像信号としての焦点検出信号や撮像信号を生成する際の読み出しモードには、第1の読み出しモードと第2の読み出しモードがある。全画素読み出しモードである第1の読み出しモードで信号生成を行う場合には空間周波数特性は変化しない。図10(a)中の空間周波数特性M1は、第1の読み出しモードで信号生成を行う場合の空間周波数特性である。
一方、間引き読み出しモードである第2の読み出しモードで信号生成を行う場合には、空間周波数特性が変化する。具体的には、X方向での間引きの際に信号加算を行ってS/Nの改善を図るため、この信号加算によるローパス効果が発生する。図10(a)中の空間周波数特性M2は、第2の読み出しモードで信号生成を行う場合の空間周波数特性である。空間周波数特性M2は、間引きの影響は加味せず、信号加算によるローパス効果を示す。
図10(a)において、信号生成に関する空間周波数特性M1,M2は曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをM1(n),M2(n)(1≦n≦4)と表す。
図10(b)は、撮像画像を鑑賞する際の空間周波数ごとの感度を示す空間周波数特性D1とAF評価信号の処理時に用いるデジタルフィルタの空間周波数特性D2を示している。撮像画像を鑑賞する際の空間周波数ごとの感度は、鑑賞者の個人差、画像サイズ、鑑賞距離、明るさ等の鑑賞環境により影響を受ける。本実施例では、代表的な値として、鑑賞時の空間周波数ごとの感度を設定してカメラメモリに記憶している。鑑賞距離は、ユーザから撮像画像が表示されるディスプレイデバイスまたは撮像画像が印刷されたシートまでの距離を意味する。
一方、第2の読み出しモードを用いる際には、間引きの影響によって信号の周波数成分の折り返しノイズが発生する。空間周波数特性D2は、その影響を加味したデジタルフィルタの空間周波数特性である。図10(b)において、空間周波数特性D1,D2は曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをD1(n),D2(n)(1≦n≦4)と表す。
以上のように種々の空間周波数特性を予め記憶しておくことにより、撮像特性情報である撮像画像評価帯域W1および焦点検出特性情報であるAF評価帯域W2を、以下の式(2),(3)を用いて算出する。式(2),(3)において、nは1≦n≦4である。
W1(n)=I(n)×O(n)×L(n)×M1(n)×D1(n) (2)
W2(n)=I(n)×O(n)×L(n)×M2(n)×D2(n) (3)
図10(c)は、撮像画像評価帯域W1およびAF評価帯域W2を示している。式(2),(3)で表される計算を行うことにより、撮像画像の合焦状態を決定する因子に対して、空間周波数ごとに、どの程度の影響度合いを有するかを定量化することができる。同様に、焦点検出結果としてのデフォーカス量が有する誤差が、空間周波数ごとに、どの程度の影響度合いを有するかを定量化することができる。本実施例では、撮像画像評価帯域W1およびAF評価帯域W2を、R,G,Bの色ごとおよびコントラスト方向としての水平方向と垂直方向に対応した6つずつ算出する。
図10(a)〜(c)では、第1の撮像素子101のナイキスト周波数Nqに対して、各周波数特性を説明したが、第2の撮像素子102の周波数特性も同様に算出する。例えば、信号生成に関する空間周波数特性は、画素ピッチの違いに合わせて、第1の撮像素子102用の特性に対して変更する。また、撮像画像を鑑賞する際の空間周波数ごとの感度を示す空間周波数特性やAF評価信号の処理時に用いるデジタルフィルタの空間周波数特性についても、第1の撮像素子101に対する第2の撮像素子102のナイキスト周波数の比に応じた修正を行う。これにより、第1の撮像素子101および第2の撮像素子102とで、図10(c)に示す撮像画像評価帯域W1およびAF評価帯域W2として異なる結果が得られる。
図9(a)〜(c)および 図10(a)〜(c)では4つ空間周波数F1〜F4を用いて説明したが、データを有する空間周波数の数は、多いほど撮像画像評価帯域W1およびAF評価帯域W2の空間周波数特性を正確に再現することができる。このため、より高精度な補正値を算出することができる。
S9054での撮像画像評価帯域W1およびAF評価帯域W2の算出を終えたカメラCPU104は、本処理を終了する。
次に、図11から図14を用いて、図6のS906でのBP補正量の算出方法について説明する。図11のフローチャートは、BP量算出処理を示す。S9061において、カメラCPU104は、図5のS106で行われた絞り制御において設定されたFナンバを取得する。
次にS9062では、カメラCPU104は、S901で設定された焦点検出領域の情報を取得し、該焦点検出領域の撮像素子上での像高を算出する。
その後S9063では、カメラCPU104は、撮像光学系の収差情報を取得する。撮像光学系の収差情報は、カメラCPU104の要求に応じてレンズCPU507から通信により得られる情報であり、被写体の色ごと、コントラスト方向ごとおよび空間周波数ごとの撮像光学系の結像位置に関する情報である。被写体の色ごとの結像位置に関する情報は、主として色収差に関する情報である。被写体のコントラスト方向ごとの結像位置に関する情報は、主として非点収差に関する情報である。被写体の空間周波数ごとの結像位置に関する情報は、主として球面収差に関する情報である。
図12(a),(b)を用いて、撮像レンズ500内の不図示のメモリ(以下、レンズメモリという)に格納されている撮像光学系の収差情報について具体的に説明する。図12(a)は、撮像光学系の特性である空間周波数ごとのデフォーカスMTFが極大値となるフォーカスレンズ503の位置を示している。横軸は、空間周波数を示し、F1,F2,F3およびF4は図9(a)〜(c)および図10(a)〜(c)に示したF1,F2,F3およびF4に対応している。Nqは第1の撮像素子102のナイキスト周波数であり、Nq2は第2の撮像素子102のナイキスト周波数である。縦軸は、デフォーカスMTFが極大値となるフォーカスレンズ503の位置(以下、デフォーカスMTFピーク位置という)を示す。
図12(a)は、色がGでコントラスト方向が水平方向である場合のデフォーカスMTFピーク位置MTF_GHと、色がGでコントラスト方向が垂直方向である場合のデフォーカスMTFピーク位置MTF_GVを示している。赤と青に対応したデフォーカスMTFピーク位置を含めると、レンズメモリには合計6つの異なる条件でのデフォーカスMTFピーク位置の情報が格納されている。
MTF_GHは、4つの空間周波数F1,F2,F3およびF4に対するデフォーカスMTFピーク位置PGH1,PGH2,PGH3,PGH4を有する。MTF_GVも、4つの空間周波数F1,F2,F3およびF4に対するデフォーカスMTFピーク位置PGV1,PGV2,PGV3,PGV4を有する。これらは、RおよびBについても同様である。
以下の説明では、空間周波数F1,F2,F3およびF4をF(n)(1≦n≦4)と表し、色がG,R,Bでコントラスト方向が水平方向である場合の撮像光学系の収差情報をそれぞれ、MTF_GH(n),MTF_RH(n),MTF_BH(n)と表す。また、色がG,R,Bでコントラスト方向が垂直方向である場合の撮像光学系の収差情報をそれぞれ、MTF_GV(n),MTF_RV(n),MTF_BV(n)と表す。レンズメモリには、撮像光学系の収差情報として、ズーム状態(焦点距離)、焦点調節状態(フォーカスレンズ503の位置)、Fナンバおよび焦点検出領域の像高によって情報が格納されている。例えば、ズーム状態と焦点調節状態とFナンバを8つのゾーンに分割し、分割ゾーンごとに3分割した像高のそれぞれに対する収差情報が格納されている。ただし、これ以外の収差情報の格納方法を採用してもよい。
S9063では、カメラCPU104は、事前に得たFナンバおよび焦点検出領域の像高の情報を、レンズCPU507に送信する。レンズCPU507は、レンズメモリからこれらFナンバおよび焦点検出領域の像高と現在のズーム状態および焦点調節状態に対応する収差情報を選択し、カメラCPU104に送信する。
次にS9064では、カメラCPU104は、ビームスプリッタ103であるハーフミラー(光学素子)の光学情報を用いて撮像光学系の収差情報を加工する。図12(b)を用いて、この収差情報の加工について説明する。
撮像光学系を透過してハーフミラーで反射された光束(第2の分光状態の光束)が到達する第2の撮像素子102については、ハーフミラーが歪等を持たず、反射によって新たに収差が発生しない場合には、撮像光学系の収差情報を加工することなく用いればよい。しかし、撮像光学系を透過してハーフミラーも透過して第1の撮像素子101に到達する光束(第1の分光状態の光束)には、ハーフミラーの材質に応じた屈折率や分散によって、ハーフミラーへの入射角度や波長に応じて異なる屈折が発生する。収差情報は、デフォーカスMTFの極大値と対応するフォーカスレンズ503の位置であるデフォーカスMTFピーク位置の情報を有するため、光束がハーフミラーを透過することでデフォーカスMTFピーク位置がオフセットする。このオフセット量は、色(波長)、射出瞳距離および像高で決まるハーフミラーへの光束の入射角度から算出することができる。
図12(b)では、オフセット前のMTF_GH(破線で示す)に対して、ハーフミラーを透過することによりオフセットした収差情報であるMTF_GH2を示している。図示はしないが、他の収差情報も同様にオフセット量を算出することで、MTF_GV2、MTF_RH2、MTF_RV2、MTF_BH2およびMTF_BV2を算出することができる。
次にS9065では、カメラCPU104は、S9054で算出した撮像評価帯域W1とAF評価帯域W2の情報を、カメラメモリから取得する。撮像評価帯域W1としては、第1の撮像素子101により取得された撮像画像に対応するW1_a(n)と、第2の撮像素子102により取得された撮像画像に対応するW1_b(n)とを取得する。AF評価帯域W2としては、A像およびB像信号に対してW2_a(n)を、C像およびD像信号に対してW2_b(n)を、E像およびF像信号に対してW2_c(n)をそれぞれ取得する。これらの評価帯域(係数)の情報はそれぞれ、3つの色(RGB)×2つのコントラスト方向(水平および垂直方向)の計6つずつ取得される。例えば、W2_a(n)として、W2_a_RH(n)、W2_a_RV(n)、W2_a_GH(n)、W2_a_GV(n)、W2_a_BH(n)およびW2_a_BV(n)の6つが取得される。
さらにこれらの6つの係数がそれぞれ4つの空間周波数に対応した4つの係数を含むことで、計24の係数が取得される。これらの24の係数は、色、空間周波数およびコントラスト方向の組み合わせごとの情報量の大小関係を示す。本実施例では、これら24の係数を、その総和が1となるように規格化して、被写体情報に対する重み付け用の重みとして用いる。
次にS9066では、カメラCPU104は、ハーフミラーの分光透過率に応じた分光分布に関する情報(第1の分光分布情報)およびハーフミラーの分光反射率に基づく分光分布に関する情報(第2の分光分布情報)を取得する。分光分布に関する情報とは、分光分布自体を示す情報、または分光分布自体ではないが、分光分布に対応する情報を意味する。図13および図14を用いて、ハーフミラーの分光透過率および分光反射率の角度依存性について説明する。
図13は、ハーフミラーの分光透過率を光線の入射角度ごとに示している。横軸に波長を、縦軸に透過率を示している。分光反射率は、100%から分光透過率を差し引いた値となる。誘電多層膜によりハーフミラーを構成した場合、光線の入射角度および波長によって透過率が変化する。図13には、入射角が30度、45度、60度の場合の分光透過率を示している。カメラメモリには、撮像素子のカラーフィルタの主波長に対応したRGBの3つの色の分光透過率として、入射角度30度、45度および60度のそれぞれの分光透過率が記憶されている。
図14は、射出瞳距離と像高によってハーフミラー(ビームスプリッタ103)への入射角度が変化することを示す。本実施例のように撮像レンズ500が交換可能であったりズームレンズであったりする場合には、交換や焦点距離に応じて射出瞳距離が変化する。図14には、互いに異なる射出瞳距離の例として、LPO1とLPO2を示しており、さらに撮像光学系囲の射出瞳の中心を通って第1の撮像素子101上の像高IH1,IH2に到達する光線を示している。
射出瞳距離LPO1,LPO2に対応する射出瞳のそれぞれから像高IH1に到達する光線を見れば分かるように、それらの光線は互いにハーフミラーに対する入射角度が異なる。また、射出瞳距離LPO1に対応する射出瞳から像高IH1,IH2のそれぞれに到達する光線を見れば分かるように、それらの光線は互いにハーフミラーに対する入射角度が異なる。S9066では、カメラCPU104は、射出瞳距離とBP補正量の演算を行う像高とに基づいて、ハーフミラーに対する光線の入射角度を計算する。その後、カメラCPU104は、得られた入射角度から各波長における反射率および透過率を補間演算等により算出する。
そして、カメラCPU104は、分光分布の情報として、R,GおよびBの反射率(%)をそれぞれRr,Gr,Brとし、透過率(%)をRt,Gt,Btとして取得する。上述したように、Rt=100%−Rrの関係にあるため、RtとRrのうちいずれか一方を算出すればよい。
図14では射出瞳の中心を通る光線を例に説明したが、実際の光束は虹彩絞り505やレンズ枠等により決定される射出瞳上の開口部を通り、ハーフミラーへの入射角度に幅を持つ。このため、虹彩絞り505の開口部の大きさに対応するFナンバや、レンズ枠等によるケラレ状態を示すビネッティング情報を用いて入射角度を計算してもよい。
S9067では、カメラCPU104は、ハーフミラーの分光透過率または分光反射率とAF評価帯域W2と撮像光学系の収差情報とを用いて、焦点検出信号により想定される焦点位置を算出する。ハーフミラーを透過した光束を受光する第1の撮像素子101から得られたA像およびB像信号間の相関演算(以下、第1の相関演算という)は水平方向でのみ行われる。カメラCPU104は、焦点検出信号により想定される焦点位置P_AF1を以下の式(4)を用いて算出する。
式(4)を用いた計算により、撮像光学系の収差情報を、被写体の分光分布およびハーフミラーの分光透過率に基づいて重み付け加算することにより、第1の相関演算を用いた焦点位置を算出することができる。P_AF1は、撮像光学系の収差情報において、焦点検出信号を構成する色の分布(分光特性)および空間周波数の分布(空間周波数特性)から想定されるデフォーカスMTFピーク位置に相当する。
また、ハーフミラーで反射した光束を受光する第2の撮像素子102から得られたC像およびD像信号間の相関演算(以下、第2の相関演算という)は水平方向でのみ行われる。カメラCPU104は、焦点検出信号により想定される焦点位置P_AF2を以下の式(5)を用いて算出する。すなわち、撮像光学系の収差情報を、被写体の分光分布およびハーフミラーの分光反射率に基づいて重み付け加算することにより、第2の相関演算を用いた焦点位置を算出することができる。
さらに、第2の撮像素子102から得られたE像およびF像信号間の相関演算(以下、第3の相関演算という)は垂直方向でのみ行われる。カメラCPU104は、焦点検出信号で想定される焦点位置P_AF3を以下の式(6)を用いて算出する。すなわち、撮像光学系の収差情報を、被写体の分光分布およびハーフミラーの分光反射率に基づいて重み付け加算することにより、第3の相関演算を用いた焦点位置を算出することができる。
式(6)においては、垂直方向のコントラスト信号を用いて焦点位置の算出を行うため、撮像光学系の収差情報やAF評価帯域の情報は垂直方向のものを用いる。
次にS9068では、カメラCPU104は、ハーフミラーの分光透過率と撮像評価帯域と撮像光学系の収差情報とを用いて、撮像信号を想定した場合の焦点位置を算出する。
第1の撮像素子101を用いて得られる静止画像(以下、第1の撮像画像という)は、ハーフミラーを透過した光束により形成される被写体像の光電変換により得られる。また、焦点調節状態の評価は、水平および垂直方向のコントラストも評価することで行われるこのため、第1の撮像画像における焦点調節状態の評価で想定される焦点位置P_IMG1を、以下の式(7)を用いて算出する。
P_IMG1は、撮像光学系の収差情報において、第1の撮像画像で評価する色の分布、空間周波数の分布およびコントラスト方向の分布から想定されるデフォーカスMTFピーク位置に相当する。
また、第2の撮像素子101を用いて得られる動画像(以下、第2の撮像画像という)は、ハーフミラーで反射した光束により形成される被写体像の光電変換により得られる。また、焦点調節状態の評価は、水平および垂直方向のコントラストも評価することで行われる。このため、第2の撮像画像における焦点調節状態の評価で想定される焦点位置P_IMG2を、以下の式(8)を用いて算出する。
以上のように、S9067およびS9068では、カメラCPU104は、焦点検出信号や撮像信号の特性(色、空間周波数およびコントラスト方向)と撮像光学系の収差情報とを用いて、想定されるデフォーカスMTFピーク位置を算出する。
次に、S9069では、カメラCPU104は、BP補正量を算出する。BP補正量は、どの焦点検出結果としてのデフォーカス量をどの撮像画像の焦点調節に用いるかによって異なる。第1のデフーカス量を第1の撮像画像の焦点調節に用いる場合のBP補正量をBP1とし、第2の撮像画像の焦点調節に用いる場合のBP補正量をBP2とすると、カメラCPU104はこれらを以下の式(9),(10)を用いて算出する。
BP1=P_IMG1−P_AF1 (9)
BP2=P_IMG2−P_AF1 (10)
また、第2のデフォーカス量を第1の撮像画像の焦点調節に用いる場合のBP補正量をBP3とし、第2の撮像画像の焦点調節に用いる場合のBP補正量をBP4とすると、カメラCPU104はこれらを以下の式(11),(12)を用いて算出する。
BP3=P_IMG1−P_AF2 (11)
BP4=P_IMG2−P_AF2 (12)
さらに、第3のデフォーカス量を第1の撮像画像の焦点調節に用いる場合のBP補正量をBP5とし、第2の撮像画像の焦点調節に用いる場合のBP補正量をBP6とすると、カメラCPU104はこれらを以下の式(13),(14)を用いて算出する。
BP5=P_IMG1−P_AF3 (13)
BP6=P_IMG2−P_AF3 (14)
カメラCPU104は、S9069で算出したBP補正量BP1〜BP6を、被写体情報に応じて切り替えて用いる。例えば、被写体が垂直方向にコントラストを有し、第3の相関演算で得られる焦点検出結果(第3のデフォーカス量)の信頼性が高い場合は、第1の撮像素子101用のBP補正量(第1の焦点調節補正量)としてBP5を用いて焦点検出結果を補正する。そして、補正後の焦点検出結果を用いてフォーカスレンズ503の移動量を算出する。また、同じ場合に、第2の撮像素子102用のBP補正量(第2の焦点調節補正量)としてBP6を用いて焦点検出結果を補正し、補正後の焦点検出結果を用いて第2の撮像素子102の移動量を算出する。第2の撮像素子102の移動量は、撮像光学系の収差情報、第1の撮像素子情報および第2の撮像素子情報のうち少なくとも1つの変更に伴って変更される。
カメラCPU104は、第1の撮像素子101用のBP補正量と第2の撮像素子102用のBP補正量に対して、第1の分光状態と第2の分光状態を以下のような組み合わせに設定する。
例えば、BP1とBP2については、第1の分光状態を、ハーフミラーを透過して第1の撮像素子101に到達する光束の焦点検出時の分光状態と、ハーフミラーを透過して第1の撮像素子101に到達する光束の撮像時の分光状態との組み合わせとする。また、第2の分光状態を、ハーフミラーで反射して第2の撮像素子102に到達する光束の焦点検出時の分光状態と、ハーフミラーで反射して第2の撮像素子102に到達する光束の撮像時の分光状態の組み合わせとする。ただし、第1の分光状態と第2の分光状態は、上述した組み合わせに限らず、BP1とBP4等に対する組み合わせであってもよい。
以上のように、本実施例では、第1および第2の撮像素子101,102のそれぞれから取得される焦点検出信号の特性に応じて、想定される焦点位置(P_AF1,P_AF2,P_AF3)を算出する。また、第1および第2の撮像素子101,102のそれぞれから取得される撮像信号の特性に応じて、想定される焦点位置(P_IMG1,P_IMG2)を算出する。そして、これら想定される焦点位置を用いてBP補正量を算出することにより、信頼性の高い焦点検出結果を採用しながら、撮像画像の特性に応じた焦点調節制御を行うことができる。
本実施例では、静止画撮像用のBP補正量と動画撮像用のBP補正量として異なる値が算出されることに備えて、第2の撮像素子102を光軸方向に移動可能に構成した。すなわち、フォーカスレンズ503の移動と第2の撮像素子102の移動とにより焦点調節を行うように構成した。しかし、第2の撮像素子102は必ずしも移動できなくてもよい。この場合は、例えば、静止画撮像用のBP補正量(第1の焦点調節補正量)と動画撮像用のBP補正量(第2の焦点調節補正量)の平均値(第3の焦点調節補正量)を用いてフォーカスレンズ503を移動させて焦点調節を行えばよい。これにより、焦点調節精度は低下するが、第2の撮像素子102を移動させる機構が不要となる。
また、第2の撮像素子102を移動させない場合に、ユーザまたはカメラ本体100の設定により、第1および第2の撮像素子101,102から得られる撮像画像の記録優先度を求め、その記録優先度に応じてBP補正量(第3の焦点調節補正量)を設定してもよい。例えば、第1の撮像素子101により得られる静止画が優先度が高い場合は、第1の撮像素子101に対するBP補正量と第2の撮像素子102に対するBP補正量を4:1で重み付けしたBP補正量を算出(設定)して焦点調節制御を行ってもよい。
また、上述したように、BP補正量の大小は撮像光学系の収差情報により決定される。このため、該収差情報から収差量の大小を判定し、収差量が小さい場合にはBP補正量(第1または第2の焦点調節補正量)の算出を省略してもよい。
次に、図15を用いて、カメラCPU104がS9051およびS9052で行う第1および第2の撮像素子101,102を用いた被写体情報の抽出タイミングについて説明する。図15は、第1および第2の撮像素子101,102の垂直同期信号V1,V2,V3,V4,・・・が同期している例を示している。第1の撮像素子101は、Ea1,Ra1,Ea2,Ra2,・・・で示すように、垂直同期タイミングV1,V2,・・・を境として電荷蓄積と読み出しとを繰り返す。第2の撮像素子102は、Eb1,Rb1,Eb2,Rb2,・・・で示すように、垂直同期タイミングV1,V2,・・・を境として電荷蓄積と読み出しとを繰り返す。
第2の撮像素子102は、動画撮像用であるため、静止画撮像用の第1の撮像素子101よりも電荷蓄積時間が長く設定されている。ただし、第2の撮像素子102は第1の撮像素子101よりも画素数が少ないため、出力信号の読み出し時間は短い。第1の撮像素子101は、被写体情報抽出手段として機能しているため、手振れや被写体振れの影響を低減するために短い電荷蓄積時間で駆動される。
第1および第2の撮像素子101,102からの出力信号の読み出しを終えると、カメラCPU104は、取得した出力信号を用いて被写体情報の検出D1,D2,D3,・・・を行う。そして、被写体情報の検出を終えると、カメラCPU104は、得られた被写体情報を用いてBP補正量の算出C1,C2,C3,・・・を行う。
このような処理を行うことにより、おおよそ同じタイミングでの被写体情報を第1および第2の撮像素子101,102を通して得られるため、タイムラグによる被写体情報の変化の影響を受けにくく、信頼性の高い被写体情報が得られる。
第1の撮像素子101における被写体情報の抽出領域を狭めることによって、第1の撮像素子101の駆動レート(フレームレート)を2倍等に上げて、より多くの情報を得てもよい。その際に、半分のデータは、第2の撮像素子102から得られる情報と同期がとれないが、第1の撮像素子101から得られる情報から連続性を判定する等により、より信頼性の高い被写体情報を抽出することができる。また、第2の撮像素子102の駆動レートが高い場合には、第1の撮像素子101の駆動を間引いて被写体情報の抽出間隔を長くしてもよい。これにより、得られる被写体情報は減るが、消費電力を低減することができる。
以上説明したように、本実施例では、ハーフミラーの分光透過率および分光反射率を用いた重み付け演算によって焦点位置を算出する。これにより、ハーフミラーの反射側と透過側で分光状態が異なることによる焦点位置の差を考慮した焦点検出および焦点調節制御を行うことができる。
なお、本実施例では、第1の分光分布情報から第1の焦点調節補正量を算出し、かつ第2の分光分布情報から第2の焦点調節補正量を算出する場合について説明した。しかし、第1の分光分布情報と第2の分光分布情報とが互いに近い場合は、第1および第2の焦点調節補正量のうち一方を算出するようにしてもよい。
次に、本発明の実施例2のカメラについて説明する。実施例1では、第1の分光状態をハーフミラーの透過側の焦点検出時の分光状態と撮像時の分光状態との組み合わせとし、第2の分光状態を反射側の焦点検出時の分光状態と撮像時の分光状態との組み合わせとして、第1および第2の焦点調節補正量を算出した。
これに対して、本実施例では、第1の分光状態をハーフミラーを透過したときの焦点検出時の分光状態とハーフミラーが光路から退避した撮像時の分光状態との組み合わせとする。また、第2の分光状態をハーフミラーが退避した焦点検出時の分光状態と撮像時の分光状態との組み合わせとする。
図16は、本実施例のカメラ本体1500および撮像レンズ500の構成を示す。図16において実施例1(図1)と共通する構成要素には実施例1と同符号を付している。本実施例のカメラ本体1500は、実施例1における第2の撮像素子102とディスプレイデバイス108を有さず、ペンタプリズム1501を有する。ペンタプリズム1501は、ハーフミラー103により反射された光束を接眼レンズ109に導く。ペンタプリズム1501と接眼レンズ109とにより光学ファインダが構成される。また、実施例1では撮像レンズ500からの光路内に固定されたビームスプリッタ103としてのハーフミラーが設けられているが、本実施例では該光路に対して進退(挿抜)可能な光学素子としてのハーフミラー1502が設けられている。
一般的な撮像装置はハーフミラー1502によりAF専用センサおよびファインダ内表示器107に光束を導くが、本実施例はAF専用センサを有さない。このため、本実施例では、被写体像をファインダ内表示器107を通して観察しながら、第1の撮像素子101にてハーフミラー1502を透過した光束を用いて焦点検出を行う。
図17のフローチャートは、本実施例における撮像処理を示している。カメラCPU104は、コンピュータプログラムである撮像制御プログラムに従って本処理を実行する。実施例1(図5)のステップと同じステップについては実施例1と同符号を付している。
S101の後のS1601では、カメラCPU104は、設定されている撮像モードがファインダ撮像モードかライブビュー撮像モードかを判定する。カメラCPU104は、ファインダ撮像モードが設定されている場合はS1602に進み、ライブビュー撮像モードが設定されている場合S1604に進む。
ファインダ撮像モードでのカメラCPU104の動作について説明する。S1602では、カメラCPU104は、撮像レンズ500からの光束をペンタプリズム1501に導くためにハーフミラー1502を光路内に配置する(ミラーダウンする)。
続いてS107では、カメラCPU104は、ミラーダウンしたまま、AF処理を行う。AF処理については後述する。
次にS1603では、カメラCPU104は、図20に示すように、ハーフミラー1502を光路外に退避させ、撮像レンズ500からの光束をハーフミラー1502を透過させることなく第1の撮像素子101に導く。
続いてS111では、カメラCPU104は、静止画撮像を行う。ハーフミラー1502を光路外に退避させて静止画撮像を行うことで、取得される静止画の画質がハーフミラー1502による撮像光学系の収差の拡大によって低下したり、光量が低下したりすることが防止される。
ライブビュー撮像モードでのカメラCPU104の動作について説明する。S1604において、カメラCPU104は、ハーフミラー1502を光路外に退避させる(ミラーアップさせる)。撮像レンズ500からの光束を、ハーフミラー1502を透過させずに第1の撮像素子101に導くことで、良好なライビュー画像を取得することができる。
続いてS107では、カメラCPU104は、ミラーアップしたままAF処理を行う。そして、S111に進んで静止画撮像を行う。
図18のフローチャートを用いて焦点検出処理およびこれを含むAF処理について説明する。実施例1(図6)のステップと同じステップについては実施例1と同符号を付している。
本実施のカメラ本体1500は、第2の撮像素子102を有さないため、実施例1で説明した被写体情報抽出処理を行わない。また、カメラ本体1500は、撮像素子駆動部114を有さないため、図6のS909でのフォーカスレンズ503および第2の撮像素子102の駆動を、S1601でのフォーカスレンズ503の駆動としている。その他の処理は、実施例1と同様である。
図19のフローチャートは、本実施例におけるBP量算出処理を示す。実施例1(図11)のステップと同じステップについては実施例1と同符号を付している。実施例1ではビームスプリッタ(ハーフミラー)103の反射側と透過側とで分光状態が異なるために、S9066においてカメラCPU104はハーフミラー1502の分光透過率に基づく分光分布の情報を取得する。
一方、本実施例では、ファインダ撮像モードにおいてハーフミラー1502を透過した光束の分光状態(第1の分光状態)と、ライブビュー撮像モードにおいて退避したハーフミラー1502を透過していない光束の分光状態(第2の分光状態)とが異なる。このため、S1801では、カメラCPU104は、ハーフミラー1502を透過した光束の分光分布に関する情報(第1の分光分布情報:以下、透過分光分布情報という)を取得し、これを用いてBP補正量(第1の焦点調節補正量)を算出する。具体的には、カメラCPU104は、ファインダ撮像モードにおいて、ハーフミラーを透過した光束の焦点検出時の分光状態とハーフミラーが退避した撮像時の分光状態との組み合わせに応じてBP補正量を算出する。
S9067では、カメラCPU104は、S1801で取得した透過分光分布情報を用いて、焦点検出信号を想定した場合の焦点位置を算出する。
そしてS9068では、カメラCPU104は、ハーフミラー1502を退避させたときの分光状態にはハーフミラー1502による変化が生じないため、透過分光分布情報を用いずに、撮像信号を想定した場合の焦点位置を算出する。
これに対して、ライブビュー撮像モードでは、カメラCPU104は、ハーフミラー1502が退避した焦点検出時の分光状態と撮像時の分光状態との組み合わせに応じてBP補正量を算出する。ライブビュー撮像モードでは、AFおよび撮像のそれぞれをハーフミラー1502が退避した分光状態で行う。このため、S9067およびS9068においてカメラCPU104は、透過分光分布情報を用いずに(言い換えれば、透過分光分布情報とは異なる第2の分光分布情報を用いて)、焦点検出信号を想定した場合の焦点位置および撮像信号を想定した焦点位置を算出する。上記以外の処理は、実施例1と共通である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
100 カメラ本体
101 第1の撮像素子
102 第2の撮像素子
104 カメラCPU
500 撮像レンズ
503 フォーカスレンズ(第3レンズ群)
507 レンズCPU

Claims (9)

  1. 撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、
    前記撮像素子に対して、第1の分光状態の光束と前記第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子と、
    前記撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う制御手段とを有し、
    前記制御手段は、
    前記焦点検出の結果と、前記第1の分光状態での前記光束の分光分布に関する第1の分光分布情報と、前記第2の分光状態での前記光束の分光分布に関する第2の分光分布情報とを用いて前記焦点調節制御を行うことを特徴とする撮像装置。
  2. 前記第1の分光分布情報および前記第2の分光分布情報はそれぞれ、前記光学素子に対する撮像光学系からの光束の入射角度に応じた情報であることを特徴とする請求項1に記載の撮像装置。
  3. 前記第1の分光分布情報および前記第2の分光分布情報はそれぞれ、焦点検出時における前記の分光分布に関する情報と撮像時における前記分光分布に関する情報とを含むことを特徴とする請求項1または2に記載の撮像装置。
  4. 前記制御手段は、
    前記第1の分光分布情報を用いて第1の焦点調節補正量を取得するとともに、前記第2の分光分布情報を用いて第2の焦点調節補正量を取得し、
    前記焦点検出の結果と、前記第1の焦点調節補正量と、前記第2の焦点調節補正量とを用いて前記焦点調節制御を行うことを特徴とする請求項1から3のいずれか一項に記載の撮像装置。
  5. 前記光学素子は、前記撮像光学系からの光束を前記第1の分光状態にある第1の光束と前記第2の分光状態にある第2の光束に分割し、
    前記撮像素子として、前記第1の光束により形成される被写体像を撮像する第1の撮像素子と、前記第2の光束により形成される被写体像を撮像する第2の撮像素子とを有し、
    前記第1および第2の撮像素子のうち少なくとも一方からの信号を用いた前記焦点検出の結果と、前記第1の分光分布情報と、前記第2の分光分布情報とを用いて、前記第1および第2の撮像素子に対する合焦状態を得るための前記焦点調節制御を行うことを特徴とする請求項1から4のいずれか一項に記載の撮像装置。
  6. 前記制御手段は、前記撮像光学系に含まれるフォーカス素子を移動させて前記第1の撮像素子に対する合焦状態を得るための前記焦点調節制御を行い、前記第2の撮像素子を移動させて該第2の撮像素子に対する合焦状態を得るための前記焦点調節制御を行うことを特徴とする請求項5に記載の撮像装置。
  7. 前記光学素子は、前記撮像光学系からの光路内と光路外に配置することが可能であり、前記光路内に配置されたときに前記第1の分光状態の光束を前記撮像素子に入射させ、前記光路外に配置されたときに前記第2の分光状態の光束を前記撮像素子に入射させることを特徴とする請求項1から4のいずれか一項に記載の撮像装置。
  8. 撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、前記撮像素子に対して、第1の分光状態の光束と前記第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子とを有し、前記撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う撮像装置の焦点調節制御方法であって、
    前記第1の分光状態での前記光束の分光分布に関する第1の分光分布情報を取得するステップと、
    前記第2の分光状態での前記光束の分光分布に関する第2の分光分布情報を取得するステップと、
    前記焦点検出の結果と、前記第1の分光分布情報と、前記第2の分光分布情報とを用いて前記焦点調節制御を行うステップとを有することを特徴とする焦点調節制御方法。
  9. 撮像装置のコンピュータに、請求項8に記載の焦点調節制御方法に対応する処理を実行させるコンピュータプログラムであることを特徴とする焦点調節制御プログラム。
JP2017200088A 2017-10-16 2017-10-16 撮像装置 Pending JP2019074623A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017200088A JP2019074623A (ja) 2017-10-16 2017-10-16 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200088A JP2019074623A (ja) 2017-10-16 2017-10-16 撮像装置

Publications (1)

Publication Number Publication Date
JP2019074623A true JP2019074623A (ja) 2019-05-16

Family

ID=66544716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200088A Pending JP2019074623A (ja) 2017-10-16 2017-10-16 撮像装置

Country Status (1)

Country Link
JP (1) JP2019074623A (ja)

Similar Documents

Publication Publication Date Title
US8730374B2 (en) Focus detection apparatus
EP2169459B1 (en) Image sensing apparatus, image sensing system and focus detection method
JP5300414B2 (ja) カメラ及びカメラシステム
JP6584149B2 (ja) 撮像装置
US9160918B2 (en) Focus control apparatus and method for performing focus control by phase difference detection, and image capturing apparatus
JP4826507B2 (ja) 焦点検出装置および撮像装置
US7355154B2 (en) Image sensing apparatus with movable light flux splitter and control method thereof
JP2017107204A (ja) 情報処理装置及び情報処理方法
JP2007163545A (ja) 撮像装置
JP5348258B2 (ja) 撮像装置
US10630883B2 (en) Image capturing apparatus and focus detection method
JP6529387B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2011028177A (ja) 撮像装置
JP6890937B2 (ja) 焦点検出装置、撮像装置、および焦点検出方法
JP7171331B2 (ja) 撮像装置
JP2019074623A (ja) 撮像装置
JP6632582B2 (ja) 撮像装置およびその制御方法
JP2022103610A (ja) レンズ装置、撮像装置、レンズ装置の制御方法、およびプログラム
JP5610005B2 (ja) 撮像装置
JP6395790B2 (ja) 撮像装置、撮像装置の制御方法およびフォーカス制御プログラム
JP2019035825A (ja) 撮像装置
JP2019091067A (ja) レンズ部およびその制御方法
JP6671868B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP2019219577A (ja) 検出装置および検出方法
JP6686191B2 (ja) 焦点検出装置、撮像装置、及び焦点検出方法