JP2017027080A - Focus detection device and imaging device - Google Patents

Focus detection device and imaging device Download PDF

Info

Publication number
JP2017027080A
JP2017027080A JP2016208481A JP2016208481A JP2017027080A JP 2017027080 A JP2017027080 A JP 2017027080A JP 2016208481 A JP2016208481 A JP 2016208481A JP 2016208481 A JP2016208481 A JP 2016208481A JP 2017027080 A JP2017027080 A JP 2017027080A
Authority
JP
Japan
Prior art keywords
amount
image
focus detection
signals
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016208481A
Other languages
Japanese (ja)
Other versions
JP6237858B2 (en
Inventor
日下 洋介
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016208481A priority Critical patent/JP6237858B2/en
Publication of JP2017027080A publication Critical patent/JP2017027080A/en
Application granted granted Critical
Publication of JP6237858B2 publication Critical patent/JP6237858B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a highly accurate and efficient focus detection device.SOLUTION: A focus detection device comprises: an image sensor that outputs first and second signals having first and second images due to first and second light fluxes passing through first and second areas of a pupil of an optical system photoelectrically converted; a first amount-of-deviation detection unit that conducts a correlation computation of the first and second signals with the first and second signals shifted, and detects a first amount of deviation between the first and second signals; a first amount-of-defocus calculation unit that calculates a first amount of defocus on the basis of the first amount of deviation; a second amount-of-deviation detection unit that, when the first amount of defocus is within a determined value, adds the first and second signals every time the first and second signals are shifted to calculate a plurality of addition signals, and detects a second amount of deviation between the first and second signals on the basis of the plurality of calculated addition signals; and a second amount-of-defocus calculation unit that calculates a second amount of defocus on the basis of the second amount of deviation, in which when the first amount of defocus exceeds the determined value, the first amount of defocus is used for focus adjustment.SELECTED DRAWING: Figure 6

Description

本発明は瞳分割型位相差検出方式の焦点検出装置及び撮像装置に関する。     The present invention relates to a pupil division type phase difference detection type focus detection apparatus and imaging apparatus.

瞳分割型位相差検出方式の焦点検出装置が知られている(例えば、特許文献1参照)。その焦点検出装置は、光学系の射出瞳を通る一対の焦点検出光束が形成する一対の像に応じた一対の像信号を生成する。その一対の像信号を相対的にシフトして周知の相関演算を施すことにより、その相対的にシフトした一対の被写体像信号パターンの一致度を表す相関値を算出する。その相関値に基づき、その相対的にシフトした一対の被写体像信号パターンの一致度が最大となるシフト量を、その一対の被写体像の相対的な像ズレ量として検出する。それとともに、その像ズレ量に応じて光学系の焦点調節状態を検出する。その光学系の焦点調節状態は、予定焦点面と検出された像面との差、すなわちデフォーカス量で表される。   A focus detection apparatus using a pupil division type phase difference detection method is known (see, for example, Patent Document 1). The focus detection apparatus generates a pair of image signals corresponding to a pair of images formed by a pair of focus detection light fluxes passing through the exit pupil of the optical system. The correlation value representing the degree of coincidence between the pair of relatively shifted subject image signal patterns is calculated by relatively shifting the pair of image signals and performing a well-known correlation operation. Based on the correlation value, a shift amount that maximizes the degree of coincidence between the pair of relatively shifted subject image signal patterns is detected as a relative image shift amount of the pair of subject images. At the same time, the focus adjustment state of the optical system is detected according to the image shift amount. The focus adjustment state of the optical system is represented by the difference between the planned focal plane and the detected image plane, that is, the defocus amount.

特開2007−233032号公報JP 2007-233302 A

上記従来の瞳分割型位相差検出方式の焦点検出装置では、大きくデフォーカスしている場合であっても、光学系の収差などの影響が無い限り、比較的高い像ズレ検出精度、かつ比較的短い処理時間での焦点検出が可能である。しかし、光学系の収差などの影響により、一対の被写体像パターンの同一性、すなわち像の形成位置以外の像波形(像パターン)の同一性が低下した場合には、像ズレ検出誤差が生じ、結果的に焦点検出精度が低下するという問題があった。   In the above conventional pupil division type phase difference detection type focus detection device, even when the focus is largely defocused, as long as there is no influence of aberrations of the optical system, the detection accuracy is relatively high and the Focus detection with a short processing time is possible. However, when the identity of a pair of subject image patterns, that is, the identity of an image waveform (image pattern) other than the image formation position is reduced due to the influence of the aberration of the optical system, an image shift detection error occurs. As a result, there is a problem that the focus detection accuracy is lowered.

請求項1に記載の焦点検出装置は、光学系の瞳の第1及び第2の領域を通過する第1及び第2の光束が形成する第1及び第2の像を光電変換した複数の信号をそれぞれ有する第1及び第2の信号を出力するイメージセンサと、前記第1及び第2の信号を相対的にシフトして相関演算し、前記第1及び第2の信号の相対的な第1のズレ量を検出する第1のズレ量検出部と、前記第1のズレ量に基づき第1のデフォーカス量を算出する第1のデフォーカス量算出部と、前記第1のデフォーカス量が定められた値以内である場合に、前記第1及び第2の信号を相対的にシフトする毎に加算して算出した複数の加算信号に基づき、前記第1及び第2の信号の相対的な第2のズレ量を検出する第2のズレ量検出部と、前記第2のズレ量に基づき第2のデフォーカス量を算出する第2のデフォーカス量算出部と、を備え、前記第1のデフォーカス量が前記定められた値を越える場合には、焦点調節のために前記第1のデフォーカス量を使用する。
請求項2に記載の焦点検出装置は、光学系の瞳の第1及び第2の領域を通過する第1及び第2の光束が形成する第1及び第2の像を光電変換した複数の信号をそれぞれ有する第1及び第2の信号を出力するイメージセンサと、前記第1及び第2の信号を相対的にシフトして相関演算し、前記第1及び第2の信号の相対的な第1のズレ量を検出する第1のズレ量検出部と、前記第1のズレ量に基づき第1のデフォーカス量を算出する第1のデフォーカス量算出部と、前記第1のデフォーカス量が定められた値以内であり、前記光学系の収差量が定められた値を超える場合に、前記第1及び第2の信号を相対的にシフトする毎に加算して算出した複数の加算信号に基づき、前記第1及び第2の信号の相対的な第2のズレ量を検出する第2のズレ量検出部と、前記第2のズレ量とに基づき第2のデフォーカス量を算出する第2のデフォーカス量算出部と、を備え、前記第1のデフォーカス量が定められた値以内であり、前記光学系の収差量が前記定められた値を超えない場合には、焦点調節のために前記第1のデフォーカス量を使用する。
請求項3に記載の焦点検出装置は、光学系の瞳の第1及び第2の領域を通過する第1及び第2の光束が形成する第1及び第2の像を光電変換した複数の信号をそれぞれ有する第1及び第2の信号を出力するイメージセンサと、前記第1及び第2の信号を相対的にシフトして相関演算し、前記第1及び第2の信号の相対的な第1のズレ量を検出する第1のズレ量検出部と、前記第1及び第2の信号を相対的にシフトする毎に加算して算出した複数の加算信号に基づき、前記第1及び第2の信号の相対的な第2のズレ量を検出する第2のズレ量検出部と、前記光学系の収差量が定められた値以下の場合には前記第1のズレ量を使用し、前記収差量が前記定められた値を超える場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記光学系の絞りF値が定められた値以上の場合には前記第1のズレ量を使用し、前記絞りF値が前記定められた値未満の場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記光学系の射出瞳距離が定められた範囲以内の場合には前記第1のズレ量を使用し、前記射出瞳距離が前記定められた範囲外の場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記光学系の光軸に対する前記第1及び第2の像の像高が定められた値未満の場合には前記第1のズレ量を使用し、前記像高が前記定められた値以上の場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は焦点検出速度優先処理を行う場合には前記第1のズレ量を使用し、焦点検出精度優先処理を行う場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記第1及び第2の像の鮮鋭度、解像度、又は周波数特性に基づいて評価した像品質が良好でない場合には前記第1のズレ量を使用し、前記像品質が良好である場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する焦点演算部とを有する。
The focus detection apparatus according to claim 1, wherein the first and second images formed by the first and second light fluxes passing through the first and second regions of the pupil of the optical system are photoelectrically converted into a plurality of signals. An image sensor that outputs first and second signals, respectively, and the first and second signals are relatively shifted to perform a correlation operation, and the first relative to the first and second signals is calculated. A first shift amount detection unit that detects a shift amount of the first shift, a first defocus amount calculation unit that calculates a first defocus amount based on the first shift amount, and the first defocus amount When the first and second signals are within a predetermined value, the relative values of the first and second signals are calculated based on a plurality of addition signals calculated by adding each time the first and second signals are relatively shifted. A second deviation amount detection unit for detecting a second deviation amount; and a second deviation amount based on the second deviation amount. A second defocus amount calculation unit that calculates an amount of focus, and when the first defocus amount exceeds the predetermined value, the first defocus amount is adjusted for focus adjustment. use.
The focus detection apparatus according to claim 2, wherein the first and second images formed by the first and second light beams passing through the first and second regions of the pupil of the optical system are a plurality of signals obtained by photoelectric conversion. An image sensor that outputs first and second signals, respectively, and the first and second signals are relatively shifted to perform a correlation operation, and the first relative to the first and second signals is calculated. A first shift amount detection unit that detects a shift amount of the first shift, a first defocus amount calculation unit that calculates a first defocus amount based on the first shift amount, and the first defocus amount A plurality of addition signals calculated by adding each time the first and second signals are shifted relative to each other when the aberration amount of the optical system exceeds a predetermined value. A second shift amount for detecting a relative second shift amount between the first and second signals based on the second shift amount; And a second defocus amount calculation unit that calculates a second defocus amount based on the second shift amount, wherein the first defocus amount is within a predetermined value. When the aberration amount of the optical system does not exceed the predetermined value, the first defocus amount is used for focus adjustment.
The focus detection apparatus according to claim 3, wherein a plurality of signals obtained by photoelectrically converting the first and second images formed by the first and second light beams passing through the first and second regions of the pupil of the optical system are provided. An image sensor that outputs first and second signals, respectively, and the first and second signals are relatively shifted to perform a correlation operation, and the first relative to the first and second signals is calculated. Based on a plurality of added signals calculated by adding each time the first and second signals are shifted relative to each other, and a first deviation amount detecting unit that detects the amount of deviation of the first and second signals. A second shift amount detection unit for detecting a relative second shift amount of the signal, and the first shift amount when the aberration amount of the optical system is equal to or less than a predetermined value; When the amount exceeds the predetermined value, the second shift amount is used to control the focusing lens of the optical system. The first deviation amount is used when the amount is calculated, or when the aperture F value of the optical system is greater than or equal to a predetermined value, and when the aperture F value is less than the predetermined value, the first 2 is used to calculate the control amount of the focus adjustment lens of the optical system, or when the exit pupil distance of the optical system is within a predetermined range, the first shift amount is used. When the exit pupil distance is outside the predetermined range, the control amount of the focusing lens of the optical system is calculated using the second shift amount, or the first relative to the optical axis of the optical system. When the image height of the second image is less than a predetermined value, the first shift amount is used, and when the image height is equal to or higher than the predetermined value, the second shift amount is used. When calculating the control amount of the focus adjustment lens of the optical system or when performing focus detection speed priority processing When focus detection accuracy priority processing is performed using the first shift amount, the control amount of the focus adjustment lens of the optical system is calculated using the second shift amount, or the first and first shift amounts are calculated. When the image quality evaluated based on the sharpness, resolution, or frequency characteristics of the second image is not good, the first shift amount is used, and when the image quality is good, the second shift amount is used. A focus calculation unit that calculates a control amount of the focus adjustment lens of the optical system using the amount.

本発明によれば、高精度かつ効率的な焦点検出装置を提供することができる。   According to the present invention, a highly accurate and efficient focus detection device can be provided.

デジタルカメラの構成を示す横断面図である。It is a cross-sectional view which shows the structure of a digital camera. 撮影画面上における焦点検出エリアを示す図である。It is a figure which shows the focus detection area on an imaging | photography screen. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element. 撮像画素が受光する撮影光束の様子を説明するための図である。It is a figure for demonstrating the mode of the imaging light beam which an imaging pixel receives. 焦点検出画素が受光する焦点検出光束の様子を説明するための図である。It is a figure for demonstrating the mode of the focus detection light beam which a focus detection pixel receives. デジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a digital camera. 像ズレ検出演算処理を説明するための図である。It is a figure for demonstrating an image shift detection calculation process. 撮影光束と一対の焦点検出光束とが予定焦点面近傍でどのように収束するかを模式的に示した図である。It is the figure which showed typically how an imaging light beam and a pair of focus detection light beams converge in the vicinity of a planned focal plane. 撮影光束が予定焦点面上に形成する点像の分布(点像分布関数)の例を示す図である。It is a figure which shows the example of distribution (point image distribution function) of the point image which an imaging light beam forms on a plan focal plane. 一対の焦点検出光束が予定焦点面上に形成する点像の分布(点像分布関数)の例を示す図である。It is a figure which shows the example of distribution (point image distribution function) of the point image which a pair of focus detection light beam forms on a plan focal plane. 撮影光学系が無収差の場合において、白黒エッジの被写体を一対の焦点検出光束で最良像面に形成した時の被写体像を示す図である。FIG. 6 is a diagram illustrating a subject image when a monochrome edge subject is formed on the best image plane with a pair of focus detection light beams when the photographing optical system has no aberration. 白黒エッジの被写体に対し、収差の大きな撮影光学系を用いた場合に、一対の焦点検出光束により最良像面に形成される被写体像を示す図である。FIG. 6 is a diagram illustrating a subject image formed on the best image plane by a pair of focus detection light beams when a photographing optical system with large aberration is used for a subject with black and white edges. 一対の点像分布を相対的に変位させて重ね合わせた様子を示す図である。It is a figure which shows a mode that a pair of point image distribution was displaced relatively and overlapped. 第2像ズレ量検出の検出原理を説明するための図である。It is a figure for demonstrating the detection principle of a 2nd image shift amount detection. 合成被写体像信号データを示す図である。It is a figure which shows synthetic | combination subject image signal data. 合成被写体像信号データの鮮鋭度の像ズレ量に応じた変化を示す図である。It is a figure which shows the change according to the image gap amount of the sharpness of synthetic | combination subject image signal data. 合成被写体像信号のMTFを示した図である。It is the figure which showed MTF of the synthetic object image signal. デジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a digital camera. デジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a digital camera. デジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a digital camera. 撮影画面上における焦点検出エリアを示す図である。It is a figure which shows the focus detection area on an imaging | photography screen. デジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a digital camera. デジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a digital camera. デジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a digital camera. 種々の条件に応じた第1像ズレ検出演算処理と第2像ズレ検出演算処理との使い分けを複数組み合わせた例を示すフローチャートである。It is a flowchart which shows the example which combined multiple use of the 1st image shift detection calculation process and the 2nd image shift detection calculation process according to various conditions.

本発明の第1の実施の形態における焦点検出装置を含む撮像装置として、レンズ交換式のデジタルカメラを例に挙げて説明する。図1は本実施の形態のデジタルカメラ201の構成を示す横断面図である。本実施の形態のデジタルカメラ201は、交換レンズ202とカメラボディ203とから構成され、交換レンズ202がマウント部204を介してカメラボディ203に装着される。カメラボディ203にはマウント部204を介して種々の撮影光学系を有する交換レンズ202が装着可能である。   The imaging apparatus including the focus detection apparatus according to the first embodiment of the present invention will be described by taking an interchangeable lens digital camera as an example. FIG. 1 is a cross-sectional view illustrating a configuration of a digital camera 201 according to the present embodiment. A digital camera 201 according to the present embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 via a mount unit 204. An interchangeable lens 202 having various photographing optical systems can be attached to the camera body 203 via a mount unit 204.

交換レンズ202は、レンズ209、ズーミングレンズ208、フォーカシングレンズ210、絞り211、レンズ制御装置206などを有する。レンズ制御装置206は、不図示のマイクロコンピューター、メモリ、レンズ駆動制御回路などから構成される。レンズ制御装置206は、フォーカシングレンズ210の焦点調節および絞り211の開口径調節のための駆動制御、ならびにズーミングレンズ208、フォーカシングレンズ210および絞り211の状態検出などを行う。レンズ制御装置206は、後述するボディ制御装置214との通信によりレンズ情報の送信とカメラ情報(デフォーカス量や絞り値など)の受信とを行う。絞り211は、光量およびボケ量調整のために光軸中心に開口径が可変な開口を形成する。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, a diaphragm 211, a lens control device 206, and the like. The lens control device 206 includes a microcomputer (not shown), a memory, a lens drive control circuit, and the like. The lens control device 206 performs drive control for adjusting the focus of the focusing lens 210 and adjusting the aperture diameter of the aperture 211, and detecting the states of the zooming lens 208, the focusing lens 210, and the aperture 211. The lens control device 206 transmits lens information and receives camera information (defocus amount, aperture value, etc.) through communication with a body control device 214 described later. The aperture 211 forms an aperture having a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur.

カメラボディ203は、撮像素子212、ボディ制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219、AD変換装置221などを有している。撮像素子212には、撮像画素が行と列とで規定される二次元状配列にしたがって配置されるとともに、焦点検出位置に対応した部分に焦点検出画素が配置されている。この撮像素子212については詳細を後述する。   The camera body 203 includes an imaging element 212, a body control device 214, a liquid crystal display element driving circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, an AD converter 221 and the like. In the imaging device 212, imaging pixels are arranged according to a two-dimensional array defined by rows and columns, and focus detection pixels are arranged at portions corresponding to the focus detection positions. Details of the image sensor 212 will be described later.

ボディ制御装置214は、マイクロコンピューター、メモリ、ボディ駆動制御回路などから構成される。ボディ制御装置214は、撮像素子212の露光制御と、撮像素子212からの画素信号の読み出しと、焦点検出画素の画素信号に基づく焦点検出演算および交換レンズ202の焦点調節とを繰り返し行うとともに、画像信号の処理、表示および記録、ならびにカメラの動作制御などを行う。また、ボディ制御装置214は、電気接点213を介してレンズ制御装置206と通信を行い、レンズ情報の受信とカメラ情報の送信とを行う。   The body control device 214 includes a microcomputer, a memory, a body drive control circuit, and the like. The body control device 214 repeatedly performs exposure control of the image sensor 212, readout of the pixel signal from the image sensor 212, focus detection calculation based on the pixel signal of the focus detection pixel, and focus adjustment of the interchangeable lens 202, and an image. It performs signal processing, display and recording, and camera operation control. The body control device 214 communicates with the lens control device 206 via the electrical contact 213 to receive lens information and transmit camera information.

液晶表示素子216は電子ビューファインダー(EVF:Electronic View Finder)として機能する。液晶表示素子駆動回路215は撮像素子212から読み出された画像信号に基づきスルー画像を液晶表示素子216に表示し、撮影者は接眼レンズ217を介してスルー画像を観察することができる。メモリカード219は、撮像素子212により撮像された画像信号に基づいて生成される画像データを記憶する画像ストレージである。   The liquid crystal display element 216 functions as an electronic view finder (EVF). The liquid crystal display element driving circuit 215 displays a through image on the liquid crystal display element 216 based on the image signal read from the image sensor 212, and the photographer can observe the through image through the eyepiece 217. The memory card 219 is an image storage that stores image data generated based on an image signal captured by the image sensor 212.

AD変換装置221は、撮像素子212から出力される画素信号をAD変換してボディ制御装置214に送る。撮像素子212がAD変換装置221を内蔵する構成であってもよい。   The AD conversion device 221 performs AD conversion on the pixel signal output from the image sensor 212 and sends it to the body control device 214. The imaging device 212 may have a configuration in which the AD conversion device 221 is incorporated.

交換レンズ202を通過した光束により、撮像素子212の撮像面上に被写体像が形成される。この被写体像は撮像素子212により光電変換され、撮像画素および焦点検出画素の画素信号がボディ制御装置214へ送られる。   A subject image is formed on the imaging surface of the imaging element 212 by the light beam that has passed through the interchangeable lens 202. This subject image is photoelectrically converted by the image sensor 212, and the pixel signals of the imaging pixels and focus detection pixels are sent to the body control device 214.

ボディ制御装置214は、撮像素子212の焦点検出画素からの画素信号(焦点検出信号)に基づいてデフォーカス量を算出し、このデフォーカス量をレンズ制御装置206へ送る。また、ボディ制御装置214は、撮像素子212の撮像画素の画素信号(撮像信号)を処理して画像データを生成し、メモリカード219に格納するとともに、撮像素子212から読み出されたスルー画像信号を液晶表示素子駆動回路215へ送り、スルー画像を液晶表示素子216に表示させる。さらに、ボディ制御装置214は、レンズ制御装置206へ絞り制御情報を送って絞り211の開口制御を行う。   The body control device 214 calculates the defocus amount based on the pixel signal (focus detection signal) from the focus detection pixel of the image sensor 212 and sends this defocus amount to the lens control device 206. Further, the body control device 214 processes the pixel signal (imaging signal) of the imaging pixel of the imaging element 212 to generate image data, stores the image data in the memory card 219, and reads the through image signal read from the imaging element 212. Is sent to the liquid crystal display element driving circuit 215, and a through image is displayed on the liquid crystal display element 216. Further, the body control device 214 sends aperture control information to the lens control device 206 to control the aperture of the aperture 211.

レンズ制御装置206は、フォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じてレンズ情報を更新する。具体的には、ズーミングレンズ208とフォーカシングレンズ210の位置と絞り211の絞り値とを検出し、これらのレンズ位置と絞り値とに応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからレンズ位置と絞り値とに応じたレンズ情報を選択する。   The lens control device 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the positions of the zooming lens 208 and the focusing lens 210 and the aperture value of the aperture 211 are detected, and lens information is calculated according to these lens positions and aperture values, or a lookup prepared in advance. Lens information corresponding to the lens position and aperture value is selected from the table.

レンズ制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に応じてフォーカシングレンズ210を合焦位置へ駆動する。また、レンズ制御装置206は受信した絞り値に応じて絞り211を駆動する。   The lens control device 206 calculates a lens driving amount based on the received defocus amount, and drives the focusing lens 210 to the in-focus position according to the lens driving amount. In addition, the lens control device 206 drives the diaphragm 211 in accordance with the received diaphragm value.

図2は、撮影画面上における焦点検出位置を示す図であり、後述する撮像素子212上の焦点検出画素列による焦点検出の際に撮影画面上で像をサンプリングする領域(焦点検出エリア、焦点検出位置)の一例を示す。この例では、矩形の撮影画面100上の中央(光軸上)に焦点検出エリア101が配置される。長方形で示す焦点検出エリア101の長手方向(水平方向)に、焦点検出画素が直線的に配列される。   FIG. 2 is a diagram showing a focus detection position on the shooting screen, and an area for sampling an image on the shooting screen (focus detection area, focus detection) when focus detection is performed by a focus detection pixel array on the image sensor 212 described later. An example of (position) is shown. In this example, the focus detection area 101 is arranged at the center (on the optical axis) on the rectangular shooting screen 100. Focus detection pixels are linearly arranged in the longitudinal direction (horizontal direction) of the focus detection area 101 indicated by a rectangle.

図3は撮像素子212の詳細な構成を示す正面図であり、図2において水平方向に配置された焦点検出エリア101の近傍を拡大した画素配列の詳細を示す。撮像素子212には撮像画素310が二次元正方格子状に稠密に配列される。撮像画素310は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。図3においては撮像画素310と同一の画素サイズを有する水平方向焦点検出用の焦点検出画素315、316が交互に、本来緑画素と青画素とが連続的に配置されるべき水平方向の直線上に連続して配列される。   FIG. 3 is a front view showing a detailed configuration of the image sensor 212, and shows details of a pixel array in which the vicinity of the focus detection area 101 arranged in the horizontal direction in FIG. 2 is enlarged. Imaging pixels 310 are densely arranged on the imaging element 212 in a two-dimensional square lattice pattern. The imaging pixel 310 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule. In FIG. 3, focus detection pixels 315 and 316 for horizontal focus detection having the same pixel size as that of the imaging pixel 310 are alternately arranged on a straight line in the horizontal direction in which green pixels and blue pixels are supposed to be continuously arranged. Are arranged in succession.

撮像画素310ならびに焦点検出画素315および316の各々のマイクロレンズの形状は、元々画素サイズより大きな円形のマイクロレンズから画素サイズに対応した正方形の形状で切り出した形状をしている。   The shape of each microlens of the imaging pixel 310 and the focus detection pixels 315 and 316 is a shape obtained by cutting out a circular microlens originally larger than the pixel size into a square shape corresponding to the pixel size.

撮像画素310は、図3に示すように矩形のマイクロレンズ10、遮光マスクで受光領域を正方形に制限された光電変換部11、および色フィルタから構成される。色フィルタは赤(R)、緑(G)、青(B)の3種類からなり、それぞれの色に対応する分光感度特性を有している。撮像素子212には、各色フィルタを備えた撮像画素310がベイヤー配列されている。   As shown in FIG. 3, the imaging pixel 310 includes a rectangular microlens 10, a photoelectric conversion unit 11 in which a light receiving region is limited to a square by a light shielding mask, and a color filter. The color filters include three types of red (R), green (G), and blue (B), and have spectral sensitivity characteristics corresponding to the respective colors. In the image pickup device 212, image pickup pixels 310 having respective color filters are arranged in a Bayer array.

焦点検出画素315、316には全ての色に対して焦点検出を行うために全ての可視光を透過する白色フィルタが設けられている。その白色フィルタは、緑画素、赤画素および青画素の分光感度特性を加算したような分光感度特性を有し、高い感度を示す光波長領域は緑画素、赤画素および青画素の各々において各色フィルタが高い感度を示す光波長領域を包括している。   The focus detection pixels 315 and 316 are provided with white filters that transmit all visible light in order to perform focus detection for all colors. The white filter has a spectral sensitivity characteristic such that the spectral sensitivity characteristics of the green pixel, the red pixel, and the blue pixel are added, and the light wavelength region exhibiting high sensitivity is each color filter in each of the green pixel, the red pixel, and the blue pixel. Includes a light wavelength region exhibiting high sensitivity.

焦点検出画素315は、図3に示すように矩形のマイクロレンズ10と遮光マスクとで受光領域を正方形の左半分(正方形を垂直線で2等分した場合の左半分)に制限された光電変換部15、および白色フィルタ(不図示)とから構成される。   As shown in FIG. 3, the focus detection pixel 315 is a photoelectric conversion in which a light receiving region is limited to a left half of a square (a left half when a square is divided into two equal parts by a vertical line) using a rectangular microlens 10 and a light shielding mask. And a white filter (not shown).

また、焦点検出画素316は、図3に示すように矩形のマイクロレンズ10と遮光マスクとで受光領域を正方形の右半分(正方形を垂直線で2等分した場合の右半分)に制限された光電変換部16、および白色フィルタ(不図示)とから構成される。   Further, as shown in FIG. 3, the focus detection pixel 316 is limited to the right half of the square (right half when the square is divided into two equal parts by a vertical line) by the rectangular microlens 10 and the light shielding mask. It comprises a photoelectric conversion unit 16 and a white filter (not shown).

焦点検出画素315と焦点検出画素316とをマイクロレンズ10を重ね合わせて表示すると、遮光マスクで受光領域を正方形の半分に制限された光電変換部15および16が水平方向に並んでいる。   When the focus detection pixel 315 and the focus detection pixel 316 are displayed with the microlens 10 superimposed, the photoelectric conversion units 15 and 16 in which the light receiving area is limited to a half of a square by a light shielding mask are arranged in the horizontal direction.

また、上述した正方形の半分に制限された受光領域の部分に正方形を半分にした残りの部分を加えると、撮像画素310の受光領域と同じサイズの正方形となる。   Further, when the remaining portion obtained by halving the square is added to the portion of the light receiving region limited to the half of the square described above, a square having the same size as the light receiving region of the imaging pixel 310 is obtained.

以上のような撮像画素および焦点検出画素の構成においては、一般的な光源のもとでは、緑色の撮像画素の出力レベルと焦点検出画素の出力レベルとがほぼ等しくなり、赤色の撮像画素および青色の撮像画素の出力レベルはこれよりも小さくなる。   In the configuration of the imaging pixel and the focus detection pixel as described above, under a general light source, the output level of the green imaging pixel and the output level of the focus detection pixel are substantially equal, and the red imaging pixel and the blue color are detected. The output level of the image pickup pixel becomes smaller than this.

図4は、図3に示す撮像画素310が受光する撮影光束の様子を説明するための図であって、水平方向に配列した撮像画素配列の断面をとっている。撮像素子212上に配列された全ての撮像画素310の光電変換部11は、光電変換部11に近接して配置された遮光マスクの開口を通過した光束を受光する。遮光マスク開口の形状は、各撮像画素310のマイクロレンズ10により、マイクロレンズ10から測距瞳距離dだけ離間した撮影光学系の射出瞳90上の全撮像画素共通な領域97に投影される。   FIG. 4 is a diagram for explaining the state of the imaging light beam received by the imaging pixel 310 shown in FIG. 3, and takes a cross section of the imaging pixel array arranged in the horizontal direction. The photoelectric conversion units 11 of all the imaging pixels 310 arranged on the image sensor 212 receive the light flux that has passed through the openings of the light shielding masks arranged close to the photoelectric conversion unit 11. The shape of the light-shielding mask opening is projected by the microlens 10 of each imaging pixel 310 onto a region 97 common to all imaging pixels on the exit pupil 90 of the imaging optical system that is separated from the microlens 10 by the distance measurement pupil distance d.

従って各撮像画素の光電変換部11は、領域97と各撮像画素のマイクロレンズ10を通過する光束71を受光し、その光束71によって各マイクロレンズ10上に形成される像の強度に対応した信号を出力する。   Therefore, the photoelectric conversion unit 11 of each imaging pixel receives the light beam 71 passing through the region 97 and the microlens 10 of each imaging pixel, and a signal corresponding to the intensity of the image formed on each microlens 10 by the light beam 71. Is output.

図5は、図3に示す焦点検出画素315,316が受光する焦点検出光束の様子を、図4と比較して説明するための図であって、水平方向に配列した焦点検出画素配列の断面をとっている。   FIG. 5 is a diagram for explaining the state of the focus detection light beam received by the focus detection pixels 315 and 316 shown in FIG. 3 in comparison with FIG. 4, and is a cross section of the focus detection pixel array arranged in the horizontal direction. Have taken.

撮像素子212上に配列された全ての焦点検出画素315、316の光電変換部15,16は、光電変換部15,16の各々に近接して配置された遮光マスクの開口を通過した光束を受光する。光電変換部15に近接して配置された遮光マスク開口の形状は、各焦点検出画素315のマイクロレンズ10により、マイクロレンズ10から測距瞳距離dだけ離間した射出瞳90上の、焦点検出画素315に全てに共通した領域95に投影される。同じく光電変換部16に近接して配置された遮光マスク開口の形状は、各焦点検出画素316のマイクロレンズ10により、マイクロレンズ10から測距瞳距離dだけ離間した射出瞳90上の、焦点検出画素316に全てに共通した領域96に投影される。一対の領域95,96を測距瞳と呼ぶ。   The photoelectric conversion units 15 and 16 of all the focus detection pixels 315 and 316 arranged on the image sensor 212 receive the light flux that has passed through the opening of the light shielding mask disposed in proximity to each of the photoelectric conversion units 15 and 16. To do. The shape of the light-shielding mask opening arranged close to the photoelectric conversion unit 15 is such that the focus detection pixel on the exit pupil 90 separated from the microlens 10 by the distance measurement pupil distance d by the microlens 10 of each focus detection pixel 315. 315 is projected onto a common area 95. Similarly, the shape of the light-shielding mask opening arranged close to the photoelectric conversion unit 16 is such that the focus detection on the exit pupil 90 separated from the microlens 10 by the distance measurement pupil distance d by the microlens 10 of each focus detection pixel 316. The image is projected onto an area 96 common to all the pixels 316. The pair of areas 95 and 96 is called a distance measuring pupil.

従って各焦点検出画素315の光電変換部15は、測距瞳95と各焦点検出画素315のマイクロレンズ10とを通過する光束75を受光し、その光束75によって各マイクロレンズ10上に形成される像の強度に対応した信号を出力する。また各焦点検出画素316の光電変換部16は、測距瞳96と各焦点検出画素316のマイクロレンズ16とを通過する光束76を受光し、その光束76によって各マイクロレンズ10上に形成される像の強度に対応した信号を出力する。   Accordingly, the photoelectric conversion unit 15 of each focus detection pixel 315 receives the light beam 75 passing through the distance measuring pupil 95 and the microlens 10 of each focus detection pixel 315 and is formed on each microlens 10 by the light beam 75. A signal corresponding to the intensity of the image is output. The photoelectric conversion unit 16 of each focus detection pixel 316 receives a light beam 76 passing through the distance measuring pupil 96 and the microlens 16 of each focus detection pixel 316 and is formed on each microlens 10 by the light beam 76. A signal corresponding to the intensity of the image is output.

一対の焦点検出画素315,316が受光する光束75,76が通過する射出瞳90上の測距瞳95および96を統合した領域は、撮像画素310が受光する光束71が通過する射出瞳90上の領域97と一致し、射出瞳90上において一対の光束75,76は光束71に対して相補的な関係になっている。   A region where the distance measuring pupils 95 and 96 on the exit pupil 90 through which the light beams 75 and 76 received by the pair of focus detection pixels 315 and 316 pass is integrated on the exit pupil 90 through which the light beam 71 received by the imaging pixel 310 passes. The pair of light beams 75 and 76 are complementary to the light beam 71 on the exit pupil 90.

上述の説明においては、遮光マスクにより光電変換部の受光領域が規制されているが、光電変換部自身の形状を遮光マスクの開口形状とすることも可能である。その場合は遮光マスクを排してもよい。   In the above description, the light receiving area of the photoelectric conversion unit is regulated by the light shielding mask, but the shape of the photoelectric conversion unit itself may be the opening shape of the light shielding mask. In that case, the shading mask may be eliminated.

要は光電変換部と測距瞳とはマイクロレンズにより光学的に共役な関係となっていることが重要である。   In short, it is important that the photoelectric conversion unit and the distance measuring pupil have an optically conjugate relationship by the microlens.

また測距瞳の位置(測距瞳距離)は、一般に撮影光学系の射出瞳距離と略同一になるように設定される。複数の交換レンズが装着される場合には、複数の交換レンズの平均的な射出瞳距離に測距瞳距離を設定する。   Further, the position of the distance measuring pupil (the distance measuring pupil distance) is generally set to be substantially the same as the exit pupil distance of the photographing optical system. When a plurality of interchangeable lenses are mounted, the distance measuring pupil distance is set to the average exit pupil distance of the plurality of interchangeable lenses.

上述した一対の焦点検出画素315、316を交互にかつ直線状に多数配置し、各焦点検出画素の光電変換部の出力を測距瞳95および測距瞳96に対応した一対の出力グループにまとめる。これにより、測距瞳95および測距瞳96をそれぞれ通過する一対の光束が水平方向の焦点検出画素配列上に形成する一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に、一対の測距瞳の重心間隔と測距瞳距離との比例関係に応じた変換係数を用いての変換演算を行うことによって、焦点検出位置における予定結像面と瞳分割型位相差検出方式で検出される結像面との偏差、すなわちデフォーカス量が算出される。   A large number of the pair of focus detection pixels 315 and 316 are arranged alternately and linearly, and the output of the photoelectric conversion unit of each focus detection pixel is collected into a pair of output groups corresponding to the distance measurement pupil 95 and the distance measurement pupil 96. . As a result, information on the intensity distribution of the pair of images formed on the horizontal focus detection pixel array by the pair of light beams passing through the distance measuring pupil 95 and the distance measuring pupil 96 can be obtained. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process), which will be described later, to this information, an image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method. Further, by performing a conversion operation using a conversion coefficient corresponding to the proportional relationship between the distance between the center of gravity of the pair of distance measurement pupils and the distance measurement pupil distance to the image shift amount, the planned imaging plane and pupil at the focus detection position are calculated. The deviation from the image plane detected by the division type phase difference detection method, that is, the defocus amount is calculated.

なお図5においては理解しやすいように一対の領域95、96を明瞭な形状で示すとともに、一対の焦点検出光束75,76をコーン形状で表現し、光軸91に対して垂直な断面で光束を切り取ったとき、該断面上で光線密度は一様であるかのように説明している。しかし、実際には焦点検出画素のマイクロレンズの収差などに応じて一対の領域95、96の外形は不明瞭となる。また、光軸91に対して垂直な断面における一対の焦点検出光束75,76の光線密度は、一様ではなく、焦点検出光学系の光学特性と撮影光学系の光学特性とに応じた分布を示す。   In FIG. 5, for easy understanding, the pair of regions 95 and 96 are shown in a clear shape, and the pair of focus detection light beams 75 and 76 are expressed in a cone shape, and the light beam has a cross section perpendicular to the optical axis 91. It is explained as if the light density is uniform on the cross section. However, in practice, the outer shapes of the pair of regions 95 and 96 are unclear depending on the aberration of the micro lens of the focus detection pixel. Further, the light density of the pair of focus detection light beams 75 and 76 in a cross section perpendicular to the optical axis 91 is not uniform, and has a distribution according to the optical characteristics of the focus detection optical system and the optical characteristics of the photographing optical system. Show.

図6は、本実施の形態のデジタルカメラ201のボディ制御装置214による動作を示すフローチャートである。ボディ制御装置214は、ステップS100でデジタルカメラ201の電源がONされるとステップS110から動作を開始する。ステップS110において、絞り変更が必要な場合は、ボディ制御装置214は、レンズ制御装置206に絞り調整指令を送って絞り調整を行わせる。それとともに、ボディ制御装置214は、撮像動作を行って撮像素子212から撮像画素310のデータを間引き読み出しし、液晶表示素子216に表示させる。続くステップS120では、ボディ制御装置214は、焦点検出画素列から一対の被写体像に対応した一対の被写体像信号のデータを読み出す。   FIG. 6 is a flowchart showing an operation performed by the body control device 214 of the digital camera 201 of the present embodiment. The body control device 214 starts operation from step S110 when the power of the digital camera 201 is turned on in step S100. If it is necessary to change the aperture in step S110, the body control device 214 sends an aperture adjustment command to the lens control device 206 to cause the aperture adjustment. At the same time, the body control device 214 performs an imaging operation to thin out and read out the data of the imaging pixels 310 from the imaging element 212 and display the data on the liquid crystal display element 216. In subsequent step S120, the body control device 214 reads data of a pair of subject image signals corresponding to the pair of subject images from the focus detection pixel array.

ステップS130では、ボディ制御装置214は、読み出した一対の被写体像信号のデータに基づき後述する第1像ズレ検出演算処理を行い、第1像ズレ量を算出する。第1像ズレ検出演算処理は、後述するように、一対の被写体像信号の一致度に基づく像ズレ検出演算処理である。   In step S <b> 130, the body control device 214 performs a first image shift detection calculation process, which will be described later, based on the read data of the pair of subject image signals, and calculates a first image shift amount. The first image shift detection calculation process is an image shift detection calculation process based on the degree of coincidence between a pair of subject image signals, as will be described later.

ステップS135では、ボディ制御装置214は、ステップS130で算出した第1像ズレ量をデフォーカス量に変換する。   In step S135, the body control device 214 converts the first image shift amount calculated in step S130 into a defocus amount.

ステップS136で、ボディ制御装置214は、撮影光学系の焦点調節状態が合焦近傍か否か、すなわち算出したデフォーカス量の絶対値が第1所定値以内であるか否かを判別する。第1所定値は、実験により、例えば200μmと定められる。合焦近傍でないと判別された場合は、本処理はステップS150へ進み、合焦近傍であると判別された場合はステップS137へ進む。なおステップS136において、第1像ズレ検出演算処理の結果が焦点検出不能の場合、すなわちデフォーカス量算出が不能の場合または算出されるデフォーカス量の信頼性が低い場合も、ボディ制御装置214は撮影光学系の焦点調節状態が合焦近傍でないと判断し、本処理はステップS150へ進む。   In step S136, the body control device 214 determines whether or not the focus adjustment state of the photographing optical system is close to focusing, that is, whether or not the absolute value of the calculated defocus amount is within a first predetermined value. The first predetermined value is set to 200 μm, for example, by experiment. If it is determined that the focus is not close, the process proceeds to step S150, and if it is determined that the focus is not close, the process proceeds to step S137. In step S136, when the result of the first image shift detection calculation process is that focus detection is impossible, that is, when the defocus amount calculation is impossible or the reliability of the calculated defocus amount is low, the body control device 214 also It is determined that the focus adjustment state of the photographing optical system is not close to the in-focus state, and the process proceeds to step S150.

ステップS137では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき後述する第2像ズレ検出演算処理を行い、第2像ズレ量を算出する。第2像ズレ検出演算処理は、後述するように、合成被写体像信号の像品質評価値に基づく像ズレ検出演算処理である。   In step S137, the body control device 214 performs second image shift detection calculation processing, which will be described later, based on the data of the pair of subject image signals read in step S120, and calculates the second image shift amount. The second image shift detection calculation process is an image shift detection calculation process based on the image quality evaluation value of the combined subject image signal, as will be described later.

ステップS138では、ボディ制御装置214は、ステップS137で算出した第2像ズレ量をデフォーカス量に変換し、本処理はステップS140に進む。   In step S138, the body control device 214 converts the second image shift amount calculated in step S137 into a defocus amount, and the process proceeds to step S140.

ステップS140では、ボディ制御装置214は、撮影光学系の焦点調節状態が合焦状態か否か、すなわち算出されたデフォーカス量の絶対値が、第1所定値よりも小さい第2所定値以内であるか否かを判別する。第2所定値は、実験により、例えば100μmと定められる。ボディ制御装置214が、撮影光学系の焦点調節状態が合焦状態でないと判別した場合、本処理はステップS150へ進む。ステップS150では、ボディ制御装置214は、算出したデフォーカス量をレンズ制御装置206へ送信し、図1に示す交換レンズ202のフォーカシングレンズ210を合焦位置に駆動させる。その後、本処理はステップS110へ戻って上述した動作を繰り返す。   In step S140, the body control device 214 determines whether or not the focus adjustment state of the photographic optical system is an in-focus state, that is, the absolute value of the calculated defocus amount is within a second predetermined value that is smaller than the first predetermined value. It is determined whether or not there is. The second predetermined value is set to 100 μm, for example, by experiment. When the body control device 214 determines that the focus adjustment state of the photographing optical system is not the in-focus state, the process proceeds to step S150. In step S150, the body control device 214 transmits the calculated defocus amount to the lens control device 206, and drives the focusing lens 210 of the interchangeable lens 202 shown in FIG. 1 to the in-focus position. Thereafter, the process returns to step S110 to repeat the above-described operation.

なお、焦点検出不能な場合も本処理はこのステップS150へ分岐し、ボディ制御装置214は、レンズ制御装置206へスキャン駆動命令を送信し、交換レンズ202のフォーカシングレンズ210を無限遠位置から至近位置までスキャン駆動させる。その後、本処理はステップS110へ戻って上述した動作が繰り返される。   Even when focus detection is impossible, the process branches to step S150, and the body control device 214 transmits a scan drive command to the lens control device 206, and moves the focusing lens 210 of the interchangeable lens 202 from the infinity position to the closest position. Drive to scan. Thereafter, the process returns to step S110 and the above-described operation is repeated.

例えば被写体が静止しているような場合においては、ステップS136でひとたび肯定判定された後は、ステップS137、S138、S140およびS150の後、本処理をステップS110へ戻すのではなく、ステップS136に戻し、第2像ズレ検出演算処理を最大数回程度繰り返すこととしてもよい。   For example, in the case where the subject is stationary, after an affirmative determination is made in step S136, the process returns to step S136 instead of returning to step S110 after steps S137, S138, S140, and S150. The second image shift detection calculation process may be repeated up to several times.

一方、ステップS140で撮影光学系の焦点調節状態が合焦状態であると判別された場合は、本処理はステップS160へ進む。ステップS160において、ボディ制御装置214は、シャッターボタン(不図示)の操作によりシャッターレリーズがなされたか否かを判別し、なされていないと判別した場合は、本処理はステップS110へ戻って上述した動作が繰り返される。ステップS160において、ボディ制御装置214は、シャッターレリーズがなされたと判別した場合は、ステップS170で、撮像素子212に撮像動作を行わせ、撮像素子212の撮像画素およびすべての焦点検出画素から画像データを読み出す。   On the other hand, if it is determined in step S140 that the focus adjustment state of the photographing optical system is the in-focus state, the process proceeds to step S160. In step S160, the body control device 214 determines whether or not a shutter release has been performed by operating a shutter button (not shown). If it is determined that the shutter release has not been performed, the process returns to step S110 and the operation described above. Is repeated. In step S160, if the body control device 214 determines that the shutter release has been performed, in step S170, the body control device 214 causes the image pickup device 212 to perform an image pickup operation, and obtains image data from the image pickup pixels of the image pickup device 212 and all focus detection pixels. read out.

ステップS180において、ボディ制御装置214は、焦点検出画素列の各画素位置の画素データを焦点検出画素の周囲の撮像画素のデータに基づいて画素補間する。続くステップS190で、ボディ制御装置214は、撮像画素のデータおよび補間されたデータからなる画像データをメモリカード219に保存し、本処理はステップS110へ戻って上述した動作が繰り返される。   In step S180, the body control device 214 interpolates the pixel data at each pixel position in the focus detection pixel row based on the data of the imaging pixels around the focus detection pixel. In subsequent step S190, the body control device 214 saves the image data including the imaged pixel data and the interpolated data in the memory card 219, and the process returns to step S110 and the above-described operation is repeated.

次に、図6のステップS130における一対の被写体像信号の一致度に基づく像ズレ検出のための第1像ズレ検出演算処理の詳細について説明する。データ数Mの焦点検出画素列から読み出された一対の被写体像信号列に対応する一対のデータ列A〜A、B〜Bに対し、下記(1)式のような周知の相関演算(SAD:Sum of Absolute Difference)を行い、一対の被写体像信号パターンの一致度を表す相関量C(k)を演算する。
C(k)=Σ|A−Bn+k| (1)
Next, details of the first image shift detection calculation process for image shift detection based on the degree of coincidence of the pair of subject image signals in step S130 of FIG. 6 will be described. For a pair of data rows A 1 to A M and B 1 to B M corresponding to a pair of subject image signal rows read from the focus detection pixel row having the number of data M , a well-known formula (1) below is known. Correlation calculation (SAD: Sum of Absolute Difference) is performed to calculate a correlation amount C (k) representing the degree of coincidence between a pair of subject image signal patterns.
C (k) = Σ | A n −B n + k | (1)

(1)式において、Σ演算は変数nについて累積される。変数nの範囲は、像ずらし量kに応じてデータA、Bn+kが存在する範囲に限定される。像ずらし量kは整数であり、一対の被写体像信号列に対応する一対のデータ列のデータ間隔を単位とした相対的シフト量である。(1)式の演算結果は、図7(a)に示すように、一対の被写体像信号列に対応する一対のデータ列の相関が高いときの像ずらし量において、相関量C(k)が極小になる。相関量C(k)の値が小さいほど、一対の被写体像信号列の相関度が高く、すなわち一対の被写体像信号の一致度が大きい。図7(a)では、像ずらし量k=kj=2のとき、相関量C(k)は最も小さい値をとり、すなわち一対の被写体像信号の一致度が最も大きい。 In equation (1), the Σ operation is accumulated for variable n. The range of the variable n is limited to the range where the data A n and B n + k exist according to the image shift amount k. The image shift amount k is an integer, and is a relative shift amount in units of the data interval between a pair of data strings corresponding to a pair of subject image signal strings. As shown in FIG. 7A, the calculation result of the expression (1) indicates that the correlation amount C (k) is the image shift amount when the correlation between the pair of data strings corresponding to the pair of subject image signal strings is high. Become minimal. The smaller the value of the correlation amount C (k), the higher the degree of correlation between the pair of subject image signal sequences, that is, the degree of coincidence between the pair of subject image signals. In FIG. 7A, when the image shift amount k = kj = 2, the correlation amount C (k) takes the smallest value, that is, the matching degree between the pair of subject image signals is the largest.

像ずらし量kは整数のため、相関量C(k)は離散値をとるが、次に、(2)式から(5)式の3点内挿の手法を用いて連続的な相関量における極小値C(x)を与えるシフト量xを求める。 このシフト量xが、後述するように、一対の被写体像の相対的な第1像ズレ量shft1に換算される。
x=kj+D/SLOP (2)
C(x)=C(kj)−|D| (3)
D={C(kj−1)−C(kj+1)}/2 (4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)} (5)
Since the image shift amount k is an integer, the correlation amount C (k) takes a discrete value. Next, using the three-point interpolation method of Equations (2) to (5), A shift amount x giving a minimum value C (x) is obtained. This shift amount x is converted to a relative first image shift amount shft1 between the pair of subject images, as will be described later.
x = kj + D / SLOP (2)
C (x) = C (kj) − | D | (3)
D = {C (kj−1) −C (kj + 1)} / 2 (4)
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (5)

(2)式で算出されたシフト量xの信頼性があるかどうかは次のようにして判定される。図7(b)に示すように、一対の被写体像信号列に対応する一対のデータ列の相関度が低い場合は、内挿された相関量の極小値C(x)の値が大きくなる。したがって、C(x)が所定のしきい値以上の場合は、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。あるいは、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が所定値以上の場合は、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。あるいはまた、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   Whether or not the shift amount x calculated by the equation (2) is reliable is determined as follows. As shown in FIG. 7B, when the correlation degree of the pair of data strings corresponding to the pair of subject image signal strings is low, the interpolated correlation minimum value C (x) becomes large. Therefore, when C (x) is equal to or greater than a predetermined threshold value, it is determined that the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled. Alternatively, in order to normalize C (x) with the contrast of data, when the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined value, the reliability of the calculated shift amount Is determined to be low, and the calculated shift amount x is canceled. Alternatively, when SLOP that is a value proportional to the contrast is equal to or less than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled.

図7(c)に示すように、一対の被写体像信号列に対応する一対のデータ列の相関度が低く、シフト範囲kmin〜kmaxの間で相関量C(k)の落ち込みがない場合は、極小値C(x)を求めることができず、このような場合は焦点検出不能と判定する。 As shown in FIG. 7C, the correlation degree of the pair of data sequences corresponding to the pair of subject image signal sequences is low, and there is no drop in the correlation amount C (k) between the shift ranges k min to k max. Cannot determine the minimum value C (x). In such a case, it is determined that the focus cannot be detected.

シフト量xの信頼性があると判定された場合は、(6)式によりシフト量xは第1像ズレ量shft1に換算される。 (6)式において、検出ピッチPYは、同一種類の焦点検出画素によるサンプリングピッチ、すなわち撮像画素のピッチの2倍である。
shft1=PY・x (6)
When it is determined that the shift amount x is reliable, the shift amount x is converted into the first image shift amount shft1 by the equation (6). In the equation (6), the detection pitch PY is twice the sampling pitch of the same kind of focus detection pixels, that is, the pitch of the imaging pixels.
shft1 = PY · x (6)

以上が図6のステップS130における第1像ズレ検出演算処理である。   The above is the first image shift detection calculation process in step S130 of FIG.

図6のステップS135においては、(6)式により算出された第1像ズレ量shft1に所定の変換係数kを乗じてデフォーカス量defへ変換する。
def=k・shft1 (7)
In step S135 in FIG. 6, the first image shift amount shft1 calculated by the equation (6) is multiplied by a predetermined conversion coefficient k to be converted into a defocus amount def.
def = k · shft1 (7)

(7)式において変換係数kは一対の測距瞳95,96の重心間隔と測距瞳距離との比例関係に応じた変換係数であり、光学系の絞りF値に応じて変化する。   In equation (7), the conversion coefficient k is a conversion coefficient corresponding to the proportional relationship between the distance between the center of gravity of the pair of distance measurement pupils 95 and 96 and the distance measurement pupil distance, and changes according to the aperture F value of the optical system.

なお、一対の被写体像信号パターンの一致度を検出する相関演算式は(1)式に限定されず、一対の被写体像信号の一致度を演算するものであればどのような相関演算式を用いても良い。   Note that the correlation calculation expression for detecting the degree of coincidence between the pair of subject image signal patterns is not limited to the expression (1), and any correlation calculation expression can be used as long as the degree of coincidence between the pair of subject image signals is calculated. May be.

例えば(1)式の絶対値演算の代わりに自乗演算を採用した(8)式の相関演算(SSD:Sum of Squared Difference)を用いても良い。
C(k)=Σ(A−Bn+k (8)
For example, instead of the absolute value calculation of the expression (1), a correlation calculation (SSD: Sum of Squared Difference) of the expression (8) adopting a square calculation may be used.
C (k) = Σ (A n −B n + k ) 2 (8)

また一対の被写体像信号間に増幅度の相違がある場合においても一対の被写体像信号の一致度の検出が可能な(9)式のような相関演算式を用いても良い。
C(k)=Σ|A・Bn+s+k−Bn+k・An+s| (9)
In addition, even when there is a difference in amplification between a pair of subject image signals, a correlation calculation expression such as equation (9) that can detect the degree of coincidence between a pair of subject image signals may be used.
C (k) = Σ | A n · B n + s + k −B n + k · A n + s | (9)

なお(9)式において変数nのとる範囲は、像ずらし量kに応じてデータA、An+s、Bn+k、Bn+s+kが存在する範囲に限定される。また、変数sとして、整数1,2,・・が適宜選択される。(1)、(8)、(9)式以外においても、一対の被写体像信号の一致度を演算するものであればどのような相関演算式を用いても良い。 Note that the range taken by the variable n in equation (9) is limited to the range in which the data A n , A n + s , B n + k , and B n + s + k exist according to the image shift amount k. Further, integers 1, 2,... Are appropriately selected as the variable s. In addition to the expressions (1), (8), and (9), any correlation calculation expression may be used as long as the degree of coincidence between the pair of subject image signals is calculated.

上述した第1像ズレ検出演算により一対の被写体像信号パターンの一致度を検出することができるという原理は、以下の考え方に基づく。すなわち、一対の焦点検出光束が形成する一対の被写体像信号の形状や波形といったパターンは同一である、すなわち一致するという前提が成立するならば、合焦時には一対の被写体像信号のパターンが位置的にぴったりと重なるという結論に基づくものである。従って一対の焦点検出光束が形成する一対の被写体像信号のパターンが一致するという前提が崩れれば、それに応じて第1像ズレ検出演算により算出される第1像ズレ量に応じて検出される焦点調節状態は誤差を生じることになる。   The principle that the degree of coincidence between the pair of subject image signal patterns can be detected by the first image shift detection calculation described above is based on the following concept. That is, if the premise that the pair of subject image signals formed by the pair of focus detection light beams has the same pattern such as shape and waveform, that is, the same pattern is satisfied, the pattern of the pair of subject image signals is positional at the time of focusing. It is based on the conclusion that it exactly overlaps. Therefore, if the premise that the pattern of the pair of subject image signals formed by the pair of focus detection light beams breaks down, the detection is performed according to the first image shift amount calculated by the first image shift detection calculation accordingly. The focus adjustment state will cause an error.

図8は、予定焦点面98上に最良像面が形成された場合において、図4および図5にそれぞれ示した射出瞳の領域97を通る撮影光束と射出瞳の一対の領域95,96を通過する一対の焦点検出光束とが、予定焦点面98近傍でどのように収束するかを模式的に示した図である。最良像面は、撮影光束が形成する被写体像や、一対の焦点検出光束が形成する一対の被写体像の、鮮鋭度、解像度、コントラストまたは周波数特性(MTF)といった像品質が最高となる結像面である。例えば図8において、光軸91上に点光源があるとすると、点光源に対応して予定焦点面98の光軸91上に点像が形成されることになる。   FIG. 8 shows a case where the best image plane is formed on the planned focal plane 98 and passes through a pair of areas 95 and 96 of the imaging light flux and the exit pupil passing through the exit pupil area 97 shown in FIGS. 4 and 5, respectively. It is the figure which showed typically how a pair of focus detection light beam which converges converges in the plan focal plane 98 vicinity. The best image plane is the image plane that has the highest image quality, such as sharpness, resolution, contrast, or frequency characteristics (MTF), of the subject image formed by the imaging light flux and the pair of subject images formed by the pair of focus detection light fluxes. It is. For example, in FIG. 8, if there is a point light source on the optical axis 91, a point image is formed on the optical axis 91 of the planned focal plane 98 corresponding to the point light source.

理想的な無収差の撮影光学系の場合は、射出瞳の領域97を通る撮影光束が形成する点像も、射出瞳の一対の領域95,96を通過する一対の焦点検出光束が形成する一対の点像も、いずれも予定焦点面98上で空間的に広がりを持たない完全な点となるとともに、射出瞳の一対の領域95,96を通過する一対の焦点検出光束が形成する一対の点像の予定焦点面98上での空間的な位置も一致する。このような無収差の撮影光学系を使用して一般の被写体を撮影する場合には、一対の焦点検出光束により最良像面に形成される一対の被写体像の形状は完全に一致するとともに、該一対の被写体像の位置も一致するので、一対の被写体像の像ズレ量が0の場合に合焦であるということが保証できる。   In the case of an ideal aberration-free photographic optical system, a point image formed by a photographic light beam passing through the exit pupil region 97 is also formed by a pair of focus detection light beams passing through a pair of regions 95 and 96 of the exit pupil. Each of the point images is a complete point that does not spatially expand on the planned focal plane 98, and a pair of points formed by a pair of focus detection light beams that pass through the pair of regions 95 and 96 of the exit pupil. The spatial position of the image on the planned focal plane 98 also coincides. When a general subject is photographed using such an aberration-free photographing optical system, the shape of the pair of subject images formed on the best image plane by the pair of focus detection light beams completely coincides with each other. Since the positions of the pair of subject images also coincide, it can be guaranteed that the pair of subject images is in focus when the image shift amount of the pair of subject images is zero.

しかしながら撮影光学系が光学的な収差を持つ場合には、射出瞳の領域97を通る撮影光束が形成する点像も、射出瞳の一対の領域95,96を通過する一対の焦点検出光束が形成する一対の点像も、いずれも予定焦点面98上で空間的に広がりをもった点像となる。   However, when the photographing optical system has optical aberration, a point image formed by the photographing light flux passing through the exit pupil region 97 is also formed by a pair of focus detection light fluxes passing through the pair of exit pupil regions 95 and 96. Each of the pair of point images is also a point image having a spatial spread on the planned focal plane 98.

図9は、図8に示す状態、すなわち予定焦点面98上に最良像面が形成された状態において、撮影光束が予定焦点面98上に形成する点像の分布51(点像分布関数)の例を示しており、中心に大きなピークを持ち周辺部で対称的に裾野を引いている。一方図10は同じ状態、すなわち予定焦点面98上に最良像面が形成された状態において、一対の焦点検出光束が予定焦点面98上に形成する点像の分布(点像分布関数)の例を示しており、実線が領域95を通過する焦点検出光束が形成する点像分布55、破線が領域96を通過する焦点検出光束が形成する点像分布56を示している。なお図9、図10において横軸は予定焦点面98における水平方向の位置であり、縦軸は像の強度である。また点像分布51、55,56のピーク位置が像面中心、すなわち光軸91が予定焦点面98と交わる位置である。   FIG. 9 shows the distribution 51 of point images (point image distribution function) formed by the photographing light beam on the planned focal plane 98 in the state shown in FIG. 8, that is, in the state where the best image plane is formed on the planned focal plane 98. An example is shown, with a large peak at the center and a symmetrical bottom at the periphery. On the other hand, FIG. 10 shows an example of the distribution of point images (point image distribution function) formed by the pair of focus detection light beams on the planned focal plane 98 in the same state, that is, in the state where the best image plane is formed on the planned focal plane 98. The solid line shows the point image distribution 55 formed by the focus detection light beam passing through the region 95, and the broken line shows the point image distribution 56 formed by the focus detection light beam passing through the region 96. 9 and 10, the horizontal axis represents the horizontal position on the planned focal plane 98, and the vertical axis represents the image intensity. The peak positions of the point image distributions 51, 55, and 56 are the center of the image plane, that is, the position where the optical axis 91 intersects the planned focal plane 98.

点像分布55、56は点像分布51と同様に中心に大きなピークを持ち周辺部で裾野を引いているが、裾野の引き方はともに非対称である。点像分布55の右側の裾野は大きいのに対し、左側の裾野はほとんどない。点像分布56の左側の裾野は大きいのに対し、右側の裾野はほとんどない。また一対の焦点検出光束は撮影光束に対して相補的な関係にあり、一対の焦点検出光束を統合したものが撮影光束になるので、点像分布55と点像分布56とで表される一対の被写体像信号を加算合成したものが点像分布51となる。図9および図10に示すように、点像が光軸上に形成された場合には、点像分布51の形状は左右対称であり、点像分布55と点像分布56とは一方を左右反転した時に形状が一致する。点像が光軸外の画面周辺にある場合には、光軸に対する点像の形成位置、すなわち像高に応じて点像分布51,55、56の形状は図9および図10に示す形状からさらに変形するので、点像分布51の形状は左右対称でなくなり、点像分布55と点像分布56とは一方を左右反転した時にも形状が一致しなくなる。   Similar to the point image distribution 51, the point image distributions 55 and 56 have a large peak at the center and have a base at the periphery, but the bases are both asymmetric. While the right foot of the point image distribution 55 is large, there is almost no left foot. The left foot of the point image distribution 56 is large, while the right foot is scarce. Further, the pair of focus detection light beams has a complementary relationship with the photographic light beam, and a combination of the pair of focus detection light beams becomes a photographic light beam. Therefore, a pair represented by a point image distribution 55 and a point image distribution 56 is used. A point image distribution 51 is obtained by adding and synthesizing the subject image signals. As shown in FIGS. 9 and 10, when the point image is formed on the optical axis, the shape of the point image distribution 51 is left-right symmetric, and one of the point image distribution 55 and the point image distribution 56 is left and right. The shape matches when reversed. When the point image is on the periphery of the screen outside the optical axis, the shape of the point image distributions 51, 55, and 56 varies from the shape shown in FIGS. Further, since the shape of the point image distribution 51 is not symmetrical, the shape of the point image distribution 55 and the point image distribution 56 do not match even when one of the point image distribution 55 and the point image distribution 56 is reversed horizontally.

一般に撮影光学系の収差量が小さい場合あるいは良好な場合には、最良像面における点像分布51,55、56の形状において、ピーク部のサイズに比較して裾野部の広がりは小さく、一対の点像分布55、56はほとんど同一の形状となるとともに、一対の点像の位置もほとんど一致する。   In general, when the amount of aberration of the photographic optical system is small or good, in the shape of the point image distributions 51, 55, and 56 on the best image plane, the spread of the base portion is small compared to the size of the peak portion, and a pair of The point image distributions 55 and 56 have almost the same shape, and the positions of the pair of point images are almost the same.

ところで一般に収差のある撮影光学系により形成される被写体像の像信号の分布関数は、無収差の場合に形成される被写体像の像信号の分布関数に、収差のある撮影光学系により形成される点像の像信号の分布関数をコンボルーションしたものとなる。   In general, the distribution function of the image signal of the subject image formed by the imaging optical system having aberration is formed by the imaging optical system having aberration in the distribution function of the image signal of the subject image formed when there is no aberration. This is a convolution of the distribution function of the image signal of the point image.

したがって、収差量が少ない場合、あるいは良好な撮影光学系を用いて一般の被写体を撮影する場合には、一対の焦点検出光束により最良像面に形成される一対の被写体像の形状はほとんど一致するとともに、該一対の被写体像の位置も一致する。したがって、一対の被写体像の像ズレ量が0の場合に合焦であるという前提に基づいた第1像ズレ検出演算処理により算出した第1像ズレ量に応じて焦点検出を行っても大きな誤差を生じない。   Therefore, when the amount of aberration is small, or when a general subject is photographed using a good photographing optical system, the shape of the pair of subject images formed on the best image plane by the pair of focus detection light beams is almost the same. At the same time, the positions of the pair of subject images also coincide. Therefore, even if focus detection is performed according to the first image shift amount calculated by the first image shift detection calculation process based on the premise that the image is shifted when the image shift amount of the pair of subject images is 0, a large error occurs. Does not occur.

しかしながら収差量が大きい撮影光学系を用いて一般の被写体を撮影する場合には、一対の焦点検出光束により最良像面に形成される一対の被写体像の形状が一致しない。したがって、一対の被写体像の像ズレ量が0の場合に合焦であるという前提に基づいた第1像ズレ検出演算処理により算出した焦点検出を行うと大きな誤差を生じてしまう。   However, when photographing a general subject using a photographing optical system having a large amount of aberration, the shape of the pair of subject images formed on the best image plane by the pair of focus detection light beams does not match. Therefore, if the focus detection calculated by the first image shift detection calculation process based on the premise that the image is in focus when the image shift amount of the pair of subject images is 0, a large error occurs.

図11は、撮影光学系が無収差の場合において、白黒エッジの被写体を一対の焦点検出光束で最良像面に形成した時の被写体像を示しており、図8の領域95を通過する焦点検出光束は被写体像65を形成し、領域96を通過する焦点検出光束は被写体像66を形成する。被写体像65のエッジ部45の位置と被写体像66のエッジ部46の位置とは一致しており、このような場合にはどのような第1像ズレ検出演算、すなわち一対の被写体像信号の一致度に基づく像ズレ検出演算を用いても、第1像ズレ量は0と算出される。   FIG. 11 shows a subject image when a black-and-white edge subject is formed on the best image plane with a pair of focus detection light beams when the photographing optical system has no aberration, and the focus detection that passes through the region 95 in FIG. The light beam forms a subject image 65, and the focus detection light beam passing through the region 96 forms a subject image 66. The position of the edge portion 45 of the subject image 65 and the position of the edge portion 46 of the subject image 66 coincide with each other. In such a case, what kind of first image deviation detection calculation, that is, coincidence of a pair of subject image signals is performed. Even when the image shift detection calculation based on the degree is used, the first image shift amount is calculated as 0.

一方図12は図11と同じ白黒エッジの被写体に対し、収差の大きな撮影光学系を用いた場合に、一対の焦点検出光束により最良像面に形成される被写体像を示している。また該撮影光学系を通過した一対の焦点検出光束が最良像面に形成する一対の点像の分布が、例えば図10に示す点像分布関数55,56で表わされたとする。被写体像67は領域95を通過する焦点検出光束により形成されるエッジ像であり、無収差の場合の被写体像65に点像分布関数55をコンボルーションした像となる。被写体像68は領域96を通過する焦点検出光束により形成されるエッジ像であり、無収差の場合の被写体像66に点像分布関数56をコンボルーションした像となる。   On the other hand, FIG. 12 shows a subject image formed on the best image plane by a pair of focus detection light beams when a photographing optical system with large aberration is used for a subject with the same black and white edge as FIG. Further, it is assumed that the distribution of a pair of point images formed on the best image plane by the pair of focus detection light beams that have passed through the photographing optical system is represented by point image distribution functions 55 and 56 shown in FIG. The subject image 67 is an edge image formed by the focus detection light beam passing through the region 95, and is an image obtained by convolving the point image distribution function 55 with the subject image 65 in the case of no aberration. The subject image 68 is an edge image formed by a focus detection light beam passing through the region 96, and is an image obtained by convolving the point image distribution function 56 with the subject image 66 in the case of no aberration.

一対の被写体像67および68はもともと同じ被写体の像であるが、一対の焦点検出光束により形成される一対の点像分布が同一でないことにより、一対の被写体像の形状、すなわち一対の被写体像信号のパターンが互いに大きく異なってきてしまう。例えば被写体像67のエッジ部47の上部41の形状と、被写体像68のエッジ部48の上部42の形状とは大きく異なる。また被写体像67のエッジ部47の下部43の形状と、被写体像68のエッジ部48の下部44の形状とは大きく異なる。最良像面が予定焦点面と一致した状態において、このように互いに形状が異なる一対の被写体像67および68に対して像ズレ検出を行っても検出される像ズレ量は0とならない。例えばこの状態において第1像ズレ検出演算により第1像ズレ量Δ(Δ≠0)が算出された場合には、該第1像ズレ量Δに対応する像面は例えば図8の面99となってしまう。   The pair of subject images 67 and 68 are originally the same subject image, but the pair of point image distributions formed by the pair of focus detection light beams are not the same, so that the shape of the pair of subject images, that is, the pair of subject image signals. The patterns are greatly different from each other. For example, the shape of the upper portion 41 of the edge portion 47 of the subject image 67 and the shape of the upper portion 42 of the edge portion 48 of the subject image 68 are greatly different. The shape of the lower portion 43 of the edge portion 47 of the subject image 67 and the shape of the lower portion 44 of the edge portion 48 of the subject image 68 are greatly different. In the state where the best image plane coincides with the planned focal plane, the detected image shift amount does not become zero even when the image shift detection is performed on the pair of subject images 67 and 68 having different shapes. For example, when the first image deviation amount Δ (Δ ≠ 0) is calculated by the first image deviation detection calculation in this state, the image plane corresponding to the first image deviation amount Δ is, for example, the surface 99 in FIG. turn into.

このような誤差(像ズレ量Δ)を生ずる原因は、前述したように最良像面において一対の焦点検出光束により形成される一対の点像分布が同一でないことにある。最良像面において図10の点像分布55、56のピーク位置は一致しているが、点像分布55、56に対して第1像ズレ検出演算処理を施して求めた第1像ズレ量Δは0にはならない。第1像ズレ量Δだけ点像分布55、56を相対的に偏位させて重ね合わせると図13のようになる。すなわち第1像ズレ量検出演算、すなわち一対の被写体像信号パターンの一致度に基づく像ズレ検出演算では、図13に示す状態が点像分布55、56の一致度が最も高い状態と判断されてしまうのである。   The cause of such an error (image shift amount Δ) is that the pair of point image distributions formed by the pair of focus detection light beams on the best image plane is not the same as described above. Although the peak positions of the point image distributions 55 and 56 in FIG. 10 coincide with each other on the best image plane, the first image shift amount Δ obtained by performing the first image shift detection calculation process on the point image distributions 55 and 56. Will not be zero. When the point image distributions 55 and 56 are relatively displaced by the first image shift amount Δ and superimposed, the result is as shown in FIG. That is, in the first image shift amount detection calculation, that is, the image shift detection calculation based on the matching degree between the pair of subject image signal patterns, the state shown in FIG. 13 is determined to be the state in which the point image distributions 55 and 56 have the highest matching degree. It ends up.

上述したように第1像ズレ量検出演算、すなわち一対の被写体像信号パターンの一致度に基づく像ズレ検出演算においては、撮影光学系の収差が大きい場合には一対の被写体像の同一性が崩れるために、像ズレ量の検出に誤差が生じる。   As described above, in the first image shift amount detection calculation, that is, the image shift detection calculation based on the degree of coincidence between the pair of subject image signal patterns, the identity of the pair of subject images is lost if the aberration of the photographing optical system is large. Therefore, an error occurs in the detection of the image shift amount.

このように一対の被写体像信号パターンの同一性が崩れた場合においても、精度の高い像ズレ量の検出が可能な第2像ズレ量検出演算処理について説明する。第2像ズレ量検出演算処理は、図13のステップS137で行われる。第2像ズレ量検出演算処理においては、一対の被写体像信号を加算合成して得られる合成被写体像の、鮮鋭度、解像度、コントラストまたは周波数特性(MTF)といった像品質に基づいて第2像ズレ量の検出が行われる。   The second image shift amount detection calculation process capable of detecting the image shift amount with high accuracy even when the identity of the pair of subject image signal patterns is lost will be described. The second image shift amount detection calculation process is performed in step S137 of FIG. In the second image shift amount detection calculation processing, the second image shift amount is calculated based on the image quality such as sharpness, resolution, contrast, or frequency characteristic (MTF) of the combined subject image obtained by adding and combining the pair of subject image signals. Quantity detection is performed.

図14は第2像ズレ量検出の検出原理を説明するための図である。図14(d)、14(e)および14(f)は、一対の焦点検出光束により予定焦点面上に形成される一対の点像分布55および56の相対的な位置を変更して重ね合わせて表示している。実線で表された点像分布55は、領域95を通過する焦点検出光束によって形成され、破線で表された点像分布56は、領域96を通過する焦点検出光束によって形成される。図14(a)、14(b)および14(c)は、一対の点像分布を相対的な位置を変更して重ね合わせて加算合成した点像分布51a、51b、および51cを示している。図14(a)および14(d)における一対の点像分布の相対的な位置Paと、図14(b)および14(e)における一対の点像分布の相対的な位置Pbと、図14(c)および14(f)における一対の点像分布の相対的な位置Pcとは、互いに異なり、第2像ズレ量検出演算処理では、一対の点像分布の相対的な位置を、例えば位置Pa、Pb、Pcの順に変化させる。   FIG. 14 is a diagram for explaining the detection principle of the second image shift amount detection. 14 (d), 14 (e) and 14 (f) are superimposed by changing the relative positions of the pair of point image distributions 55 and 56 formed on the intended focal plane by the pair of focus detection light beams. Is displayed. A point image distribution 55 represented by a solid line is formed by the focus detection light beam passing through the region 95, and a point image distribution 56 represented by a broken line is formed by the focus detection light beam passing through the region 96. 14A, 14B, and 14C show point image distributions 51a, 51b, and 51c obtained by adding and combining a pair of point image distributions with their relative positions changed. . The relative position Pa of the pair of point image distributions in FIGS. 14 (a) and 14 (d), the relative position Pb of the pair of point image distributions in FIGS. 14 (b) and 14 (e), and FIG. The relative position Pc of the pair of point image distributions in (c) and 14 (f) is different from each other, and in the second image shift amount detection calculation process, the relative position of the pair of point image distributions is, for example, a position. It is changed in the order of Pa, Pb, and Pc.

図14(b)および14(e)に示すように、一対の点像分布の相対的な位置Pbにおいて、合成被写体像信号の点像分布51bのピーク値が最高値を示すので、像品質が最も高くなり、最良像面と予定焦点面とが一致した場合の撮影光束による点像分布(図9)に最も近づく。また一対の点像分布の相対的な位置Pbから位置PaまたはPcに離反するに従って合成被写体像信号の点像分布51aおよび51cのピーク値が低いので、像品質が低下する。   As shown in FIGS. 14B and 14E, the peak value of the point image distribution 51b of the composite subject image signal shows the highest value at the relative position Pb of the pair of point image distributions. It becomes the highest and is closest to the point image distribution (FIG. 9) by the photographing light flux when the best image plane coincides with the planned focal plane. Further, as the peak value of the point image distributions 51a and 51c of the composite subject image signal decreases as the distance from the relative position Pb of the pair of point image distributions to the position Pa or Pc increases, the image quality decreases.

すなわち点像の場合は、一対の点像分布の相対的な位置を順次変更しながら合成被写体像を生成するとともに、該合成被写体像の像信号のピーク値が最大となって像品質が最も高くなる相対的な位置を像ズレ量とすることにより、一対の点像分布の同一性が低い場合においても正確な像ズレ量の検出が可能になる。   That is, in the case of a point image, a composite subject image is generated while sequentially changing the relative positions of a pair of point image distributions, and the peak value of the image signal of the composite subject image is maximized, resulting in the highest image quality. By setting the relative position to be the image shift amount, it is possible to accurately detect the image shift amount even when the identity of the pair of point image distributions is low.

このような原理による像ズレ検出の一般的な被写体像への拡張も上記と同様な仕組みで行われる。一対の焦点検出光束により形成される一対の被写体像は無収差の場合の被写体像に上記のような点像分布をコンボルーションされたものとなっているので、一対の被写体像の相対的な位置を順次変更しながら合成像を生成するとともに、該合成像の鮮鋭度、解像度、コントラストまたはMTFといった像品質が最も良好となる相対的な位置を像ズレ量とすることにより、一般的な被写体像においても正確な像ズレ量の検出が可能になる。   The image shift detection based on such a principle is extended to a general subject image by the same mechanism as described above. Since the pair of subject images formed by the pair of focus detection light beams are obtained by convolution of the point image distribution as described above with the subject image in the case of no aberration, the relative positions of the pair of subject images. A general subject image is generated by generating a composite image while sequentially changing the image, and setting the relative position where the image quality such as sharpness, resolution, contrast, or MTF is the best as the image shift amount. In this case, it is possible to accurately detect the image shift amount.

上述したように第2像ズレ量検出においては、一対の焦点検出光束は撮影光束に対して相補的な関係にあること、すなわち一対の焦点検出光束を統合すると撮影光束と同等になるということを利用して、一対の焦点検出光束によって形成された一対の被写体像を相対的に変位させながら加算合成することにより、撮影光束によって形成される被写体像と同等な合成被写体像を生成し、該合成被写体像の像品質が最高となる変位量を第2像ズレ量としている。第2像ズレ量検出における被写体像の像品質の評価は、いわゆるコントラスト検出方式の焦点検出と同等な像品質評価を行う点で類似しているが、以下の点で異なる。すなわち、コントラスト検出方式の焦点検出においては、像品質を変化させて像品質のピークを検出するために、撮影光学系を光軸方向に走査駆動する必要があるのに対し、第2像ズレ量検出においては、像品質を変化させて像品質のピークを検出するために、撮影光学系を光軸方向に走査駆動する必要は無い。第2像ズレ量検出においては、単に一対の被写体像信号を相対的に変位させるだけで良い。第2像ズレ量検出においては、一対の被写体像信号を相対的に変位させることが、コントラスト検出方式の焦点検出における撮影光学系の光軸方向の走査駆動と同等な役割を果たしており、焦点検出の都度撮影光学系の光軸方向の走査駆動を行う必要がないという効果が有る。   As described above, in the second image shift amount detection, the pair of focus detection light beams have a complementary relationship with the photographing light beam, that is, the pair of focus detection light beams is equivalent to the photographing light beam. By utilizing the combination of the pair of subject images formed by the pair of focus detection light fluxes while relatively displacing them, a composite subject image equivalent to the subject image formed by the photographing light flux is generated, and the synthesis is performed. The displacement amount at which the image quality of the subject image is the highest is the second image displacement amount. The evaluation of the image quality of the subject image in the second image shift amount detection is similar in that an image quality evaluation equivalent to focus detection by a so-called contrast detection method is performed, but differs in the following points. That is, in contrast detection focus detection, in order to change the image quality and detect the peak of the image quality, it is necessary to scan and drive the imaging optical system in the optical axis direction. In the detection, it is not necessary to scan and drive the photographing optical system in the optical axis direction in order to detect the image quality peak by changing the image quality. In the second image shift amount detection, it is only necessary to relatively displace the pair of subject image signals. In the second image shift amount detection, the relative displacement of the pair of subject image signals plays a role equivalent to the scanning drive in the optical axis direction of the photographing optical system in the focus detection of the contrast detection method. There is an effect that it is not necessary to perform scanning driving in the optical axis direction of the photographing optical system each time.

次に合成被写体像の鮮鋭度、解像度、コントラスト、MTFといった像品質の評価について具体的に説明する。焦点検出画素列から読み出された一対の被写体像信号列に対応するデータ数Mの一対のデータ列A〜A、B〜Bと、これらの一対のデータ列に対し下記(10)式のような像ずらし加算演算を行い、図15に示す合成被写体像信号データF(n,k)を生成する(n=1,...,M)。(10)式において、像ずらし量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。
F(n,k)=A+Bn+k (10)
Next, the evaluation of image quality such as the sharpness, resolution, contrast, and MTF of the composite subject image will be specifically described. A pair of data strings A 1 to A M and B 1 to B M corresponding to a pair of subject image signal strings read from the focus detection pixel string and the following (10 ) To perform the image shift addition operation as shown in FIG. 15 to generate composite subject image signal data F (n, k) shown in FIG. 15 (n = 1,..., M). In the equation (10), the image shift amount k is an integer, and is a relative shift amount with the data interval of the data string as a unit.
F (n, k) = A n + B n + k (10)

図15において、横軸は焦点検出画素ピッチに基づくサンプリング位置、縦軸は合成被写体像信号強度(合成被写体像信号出力)を表し、実線1510で示す合成被写体像信号の強度を空間的に離散サンプリングすることによりサンプリング出力して得られた合成被写体像信号データF(n,k)のデータ列を○印で表している。   In FIG. 15, the horizontal axis represents the sampling position based on the focus detection pixel pitch, the vertical axis represents the combined subject image signal intensity (the combined subject image signal output), and the intensity of the combined subject image signal indicated by the solid line 1510 is spatially discretely sampled. Thus, the data string of the combined subject image signal data F (n, k) obtained by sampling and outputting is indicated by ◯.

上記合成被写体像信号データF(n,k)に対し下記(11)式のような鮮鋭度評価演算を行い、像ズレ量kにおける合成被写体像信号の鮮鋭度評価値を像品質評価値P(k)として演算する。
P(k)=Σ|F(n,k)−F(n+v,k)| (11)
The sharpness evaluation calculation as in the following equation (11) is performed on the composite subject image signal data F (n, k), and the sharpness evaluation value of the composite subject image signal at the image shift amount k is obtained as the image quality evaluation value P ( k).
P (k) = Σ | F (n, k) −F (n + v, k) | (11)

(11)式において、Σ演算は変数nの範囲について計算される。(11)式は合成被写体像信号データF(n,k)の、所定データ間隔を表す整数vにおける1階差分の絶対値の総和を算出する演算を表す。合成被写体像信号データF(n,k)の鮮鋭度が高いほど差分量は大きくなるので鮮鋭度評価値P(k)も大きな値となる。合成被写体像信号の1階差分は合成被写体像のエッジ部の傾斜量に対応し、傾斜が急峻なほど鮮鋭に見えるので、(11)式は合成被写体像信号の鮮鋭度を評価する演算式と言える。データ間隔を表す整数vを小さくするほど、高い空間周波数成分が抽出される。データ間隔を表す整数vは、被写体のMTF特性、焦点検出画素ピッチ、抽出したい空間周波数等に基づき、実験により定められる値である。   In equation (11), the Σ operation is calculated for the range of variable n. Expression (11) represents an operation for calculating the sum of the absolute values of the first-order differences in the integer v representing the predetermined data interval of the combined subject image signal data F (n, k). The higher the sharpness of the composite subject image signal data F (n, k), the larger the difference amount, and thus the sharpness evaluation value P (k) becomes a larger value. The first-order difference of the composite subject image signal corresponds to the amount of inclination of the edge portion of the composite subject image, and the sharper the inclination, the sharper the expression, (11) is an arithmetic expression for evaluating the sharpness of the composite subject image signal. I can say that. As the integer v representing the data interval is decreased, a higher spatial frequency component is extracted. The integer v representing the data interval is a value determined by experiments based on the MTF characteristics of the subject, the focus detection pixel pitch, the spatial frequency to be extracted, and the like.

像ズレ量kを順次変更して(11)式の演算を行うことにより、図16に示すように、合成被写体像信号データF(n,k)の鮮鋭度が高い像ズレ量において鮮鋭度評価値P(k)が極大値Pmax、すなわち最大値になるグラフが得られる。極大値Pmaxが得られた像ズレ量をそのまま第2像ズレ検出演算の結果である第2像ズレ量として採用してもよい。また、離散的に算出される鮮鋭度評価値P(k)を周知のカーブフィッティングなどの手法により、図16の実線1610で示すように連続関数化し、サンプリングピッチ単位以下の第2像ズレ量を算出することとしてもよい。例えば、極大値Pmaxに所定値E(0<E<1)を乗じた評価値となる範囲、すなわち極大値Pmaxを含む所定範囲の中点Wとして第2像ズレ量を検出してもよい。所定値Eは、図16に示す鮮鋭度評価値P(k)のグラフが描くカーブの急峻さに基づき、実験により定められ、例えばカーブが急峻であれば90%程度、カーブが緩やかであれば70%程度である。   By sequentially changing the image shift amount k and performing the calculation of the expression (11), as shown in FIG. 16, the sharpness evaluation is performed at the image shift amount where the sharpness of the combined subject image signal data F (n, k) is high. A graph is obtained in which the value P (k) is the maximum value Pmax, that is, the maximum value. The amount of image deviation from which the maximum value Pmax is obtained may be used as it is as the second image deviation amount that is the result of the second image deviation detection calculation. Further, the sharpness evaluation value P (k) calculated discretely is converted into a continuous function as shown by a solid line 1610 in FIG. 16 by a known method such as curve fitting, and the second image shift amount equal to or less than the sampling pitch unit is obtained. It may be calculated. For example, the second image shift amount may be detected as a range of an evaluation value obtained by multiplying the maximum value Pmax by a predetermined value E (0 <E <1), that is, a midpoint W of a predetermined range including the maximum value Pmax. The predetermined value E is determined by experiment based on the steepness of the curve drawn by the graph of the sharpness evaluation value P (k) shown in FIG. 16, for example, about 90% if the curve is steep, and if the curve is gentle. About 70%.

またつぎのようにしてサンプリングピッチ単位以下の第2像ズレ量を算出してもよい。まず焦点検出画素ピッチで得られる一対の被写体像信号のデータを互いに加算合成して合成被写体像を生成する代わりに、データ内挿の手法により焦点検出画素ピッチよりサンプリング間隔が細かくなった一対の被写体像信号データを生成する。該一対の被写体像信号データを、細かくなったサンプリングピッチ単位で相対的に変位させてから互いに加算合成して合成被写体像信号を生成する。その合成被写体像信号の鮮鋭度評価値を算出し、鮮鋭度評価値が極大となるときの変位量(シフト量)を、サンプリングピッチ単位以下の第2像ズレ量とする。   Further, the second image shift amount equal to or less than the sampling pitch unit may be calculated as follows. First, instead of adding and synthesizing a pair of subject image signal data obtained at the focus detection pixel pitch to generate a composite subject image, a pair of subjects whose sampling interval is narrower than the focus detection pixel pitch by a data interpolation method Image signal data is generated. The pair of subject image signal data is relatively displaced in units of finer sampling pitches, and then added and synthesized to generate a synthesized subject image signal. A sharpness evaluation value of the combined subject image signal is calculated, and a displacement amount (shift amount) when the sharpness evaluation value is maximized is set as a second image shift amount equal to or less than the sampling pitch unit.

鮮鋭度評価演算は(11)式に限定されることはなく、像ずらし量kにおける合成被写体像信号の鮮鋭度に関する像品質評価値P(k)を演算するものであればよく、例えば(12)式でもよい。
P(k)=Max(|F(n,k)−F(n+v,k)|) (12)
The sharpness evaluation calculation is not limited to the expression (11), and any calculation is possible as long as it calculates the image quality evaluation value P (k) related to the sharpness of the combined subject image signal at the image shift amount k. ) Expression.
P (k) = Max (| F (n, k) -F (n + v, k) |) (12)

(12)式において、関数Max(z)は変数zの最大値を抽出する関数であり、変数nの範囲について計算される。(12)式によれば、合成被写体像信号データF(n,k)の、所定データ間隔を表す整数vにおける1階差分の絶対値の最大値が得られる。合成被写体像信号データF(n,k)の鮮鋭度が高いほど合成被写体像のエッジ部の傾きは急峻となるので、(12)式の鮮鋭度評価値P(k)も大きな値となる。合成被写体像信号データF(n,k)の鮮鋭度が最も高い像ズレ量において、鮮鋭度評価値P(k)が最大値になる。   In the equation (12), the function Max (z) is a function for extracting the maximum value of the variable z, and is calculated for the range of the variable n. According to the equation (12), the maximum absolute value of the first-order difference in the integer v representing the predetermined data interval of the combined subject image signal data F (n, k) is obtained. The higher the sharpness of the composite subject image signal data F (n, k), the steeper the slope of the edge portion of the composite subject image. Therefore, the sharpness evaluation value P (k) in equation (12) also becomes a large value. The sharpness evaluation value P (k) becomes the maximum value at the image shift amount with the highest sharpness of the combined subject image signal data F (n, k).

像品質評価演算は(11)、(12)式の鮮鋭度評価演算に限定されることはなく、像ずらし量kにおける合成被写体像信号の鮮鋭度以外の特性に関する像品質評価値P(k)を演算するものあってもよい。例えば(13)式に示すような合成被写体像信号の解像度を評価する演算でもよい。
P(k)=Σ|−F(n−v,k)+2×F(n,k)−F(n+v,k)| (13)
The image quality evaluation calculation is not limited to the sharpness evaluation calculation of the expressions (11) and (12), and the image quality evaluation value P (k) related to characteristics other than the sharpness of the composite subject image signal at the image shift amount k. There may be one that computes. For example, an operation for evaluating the resolution of the composite subject image signal as shown in the equation (13) may be used.
P (k) = Σ | −F (n−v, k) + 2 × F (n, k) −F (n + v, k) | (13)

(13)式において、Σ演算は変数nの範囲について計算される。(13)式は、合成被写体像信号データF(n,k)の、所定データ間隔を表す整数vにおける2階差分の絶対値の総和を算出する演算式である。合成被写体像信号データF(n,k)の解像度が高いほど、差分量は大きくなるので、解像度評価値P(k)も大きな値となる。(13)式において、2階差分はバンドパスフィルタ特性を持ち、データ間隔を表す整数vを小さくするほど、高い空間周波数成分が抽出されるので、(13)式は合成被写体像信号の解像度を評価する演算式と言える。合成被写体像信号データF(n,k)の解像度が最も高い像ズレ量において、解像度評価値P(k)が最大値になる。   In equation (13), the Σ operation is calculated for the range of variable n. Expression (13) is an arithmetic expression for calculating the sum of absolute values of second-order differences in the integer v representing the predetermined data interval of the combined subject image signal data F (n, k). The higher the resolution of the combined subject image signal data F (n, k), the larger the difference amount, and the larger the resolution evaluation value P (k). In Equation (13), the second-order difference has bandpass filter characteristics, and the higher the spatial frequency component is extracted, the smaller the integer v representing the data interval is. Therefore, Equation (13) represents the resolution of the composite subject image signal. It can be said that this is an arithmetic expression to be evaluated. The resolution evaluation value P (k) becomes the maximum value at the image shift amount with the highest resolution of the combined subject image signal data F (n, k).

解像度評価演算は(13)式に限定されることはなく、像ずらし量kにおける合成被写体像信号の解像度に関する像品質評価値P(k)を演算するものであればよく、例えば(14)式でもよい。
P(k)=Max(|−F(n−v,k)+2×F(n,k)−F(n+v,k)|)
(14)
The resolution evaluation calculation is not limited to the expression (13), and any calculation is possible as long as it calculates the image quality evaluation value P (k) related to the resolution of the composite subject image signal at the image shift amount k. For example, the expression (14) But you can.
P (k) = Max (| −F (n−v, k) + 2 × F (n, k) −F (n + v, k) |)
(14)

(14)式において、関数Max(z)は変数zの最大値を抽出する関数であり、変数nの範囲について計算される。(14)式は、合成被写体像信号データF(n,k)の、所定データ間隔を表す整数vにおける2階差分の絶対値の最大値を算出する演算式である。合成被写体像信号データF(n,k)の解像度が高いほど、合成被写体像信号の高周波成分量は増大するので、(14)式の解像度評価値P(k)も大きな値となる。合成被写体像信号データF(n,k)の解像度が最も高い像ズレ量において、解像度評価値P(k)が最大値になる。   In the equation (14), the function Max (z) is a function for extracting the maximum value of the variable z, and is calculated for the range of the variable n. Expression (14) is an arithmetic expression for calculating the maximum absolute value of the second-order difference in the integer v representing the predetermined data interval of the combined subject image signal data F (n, k). The higher the resolution of the composite subject image signal data F (n, k), the higher the amount of high frequency components of the composite subject image signal, so that the resolution evaluation value P (k) in equation (14) also becomes a larger value. The resolution evaluation value P (k) becomes the maximum value at the image shift amount with the highest resolution of the combined subject image signal data F (n, k).

像品質評価演算は、像ずらし量kにおけるコントラストに関する像品質評価値P(k)を演算するものであってもよい。例えば(15)式に示すような合成被写体像信号のコントラストを評価する演算でもよい。
P(k)
={Max(F(n,k))−Min(F(n,k))}
/{Max(F(n,k))+Min(F(n,k))} (15)
The image quality evaluation calculation may be an operation for calculating an image quality evaluation value P (k) related to contrast at the image shift amount k. For example, an operation for evaluating the contrast of the composite subject image signal as shown in the equation (15) may be used.
P (k)
= {Max (F (n, k))-Min (F (n, k))}
/ {Max (F (n, k)) + Min (F (n, k))} (15)

(15)式において、関数Max(z)は変数zの最大値を抽出する関数であり、変数nの範囲について計算される。関数Min(z)は変数zの最小値を抽出する関数であり、変数nの範囲について計算される。(15)式は合成被写体像信号データF(n,k)のコントラストを表す演算式であり、合成被写体像信号のコントラストが高いほど(15)式のコントラスト評価値P(k)も大きな値となる。合成被写体像信号データF(n,k)のコントラストが最も高い像ズレ量において、コントラスト評価値P(k)が最大値になる。   In the equation (15), the function Max (z) is a function for extracting the maximum value of the variable z, and is calculated for the range of the variable n. The function Min (z) is a function for extracting the minimum value of the variable z, and is calculated for the range of the variable n. Expression (15) is an arithmetic expression representing the contrast of the combined subject image signal data F (n, k). The higher the contrast of the combined subject image signal, the larger the contrast evaluation value P (k) in Expression (15). Become. The contrast evaluation value P (k) becomes the maximum value at the image shift amount with the highest contrast of the combined subject image signal data F (n, k).

像品質評価演算は、像ずらし量kにおける周波数特性、すなわちMTF(Modulation Transfer Function)特性に関する像品質評価値P(k)を演算するものあってもよい。例えば以下のようにしてMTFに関する像品質評価値P(k)を算出する。   The image quality evaluation calculation may be performed by calculating an image quality evaluation value P (k) related to a frequency characteristic at the image shift amount k, that is, an MTF (Modulation Transfer Function) characteristic. For example, the image quality evaluation value P (k) for MTF is calculated as follows.

図17の実線1710は、図15に示した合成被写体像信号データF(n,k)をフーリエ変換して求めた合成被写体像信号のMTFを示した図であり、横軸は空間周波数ω、縦軸はMTFの値をそれぞれ表す。このグラフにおいて、合成被写体像信号の鮮鋭度、解像度、コントラストといった像品質に寄与する高周波帯域(ω0〜ω1)に渡って合成被写体像信号のMTFを積分した値が、合成被写体像信号のMTFに関する像品質評価値P(k)であり、図17の斜線部1720の面積に等しい。合成被写体像信号データF(n,k)のMTFが最も高い像ズレ量において、MTF評価値P(k)が最大値になる。   A solid line 1710 in FIG. 17 shows the MTF of the composite subject image signal obtained by Fourier transforming the composite subject image signal data F (n, k) shown in FIG. 15, and the horizontal axis represents the spatial frequency ω, The vertical axis represents the MTF value. In this graph, the value obtained by integrating the MTF of the composite subject image signal over the high frequency band (ω0 to ω1) that contributes to the image quality such as the sharpness, resolution, and contrast of the composite subject image signal is related to the MTF of the composite subject image signal. The image quality evaluation value P (k) is equal to the area of the shaded area 1720 in FIG. The MTF evaluation value P (k) becomes the maximum value at the image shift amount with the highest MTF of the combined subject image signal data F (n, k).

上述した第2像ズレ検出演算においては一対の被写体像信号のパターンを相対的にずらして加算合成することにより、光軸方向に撮影光学系を走査した時の撮影光束により形成されるいわゆるコントラスト検出方式の焦点検出の被写体像信号と同等な合成被写体像信号を擬似的に生成する。その合成被写体像信号に対して、鮮鋭度、解像度、コントラスト、MTFといった像品質の評価を行うため、一対の焦点検出光束により形成される一対の被写体像信号パターンの同一性が崩れている場合においても誤差なく正確な像ズレ量を検出することができる。   In the above-described second image shift detection calculation, a pair of subject image signal patterns are relatively shifted and added and synthesized, so-called contrast detection formed by a shooting light beam when the shooting optical system is scanned in the optical axis direction. A synthetic subject image signal equivalent to the subject image signal of the focus detection method is generated in a pseudo manner. In order to evaluate image quality such as sharpness, resolution, contrast, and MTF for the synthesized subject image signal, the identity of a pair of subject image signal patterns formed by a pair of focus detection light beams is lost. However, an accurate image shift amount can be detected without error.

デジタルカメラ201のボディ制御装置214による動作を示した図6のフローチャートにおいては、デフォーカス量の絶対値で表される光学系の焦点検出状態に応じて上述した第1像ズレ検出演算処理と第2像ズレ検出演算処理とを使い分けている。高精度な像ズレ検出演算が要求される合焦近傍の場合、すなわちデフォーカス量の絶対値が第1所定値以内の場合にのみ第2像ズレ検出演算処理を用いている。合焦近傍でない場合、すなわちデフォーカス量の絶対値が第1所定値を超える場合に第2像ズレ検出演算処理を用いない。その理由は、デフォーカス量が大きくなると、空間周波数の高周波成分が減少して像品質の評価値が低下するとともに、デフォーカス量に対する像品質評価値の変化も微小になるため、第2像ズレ検出演算処理による像ズレ検出演算精度が低下してしまう点にある。これに対し第1像ズレ検出演算処理では、空間周波数の低周波成分も像ズレ検出に用いているので、デフォーカス量が大きくなっても像ズレ検出精度の低下は少ない。   In the flowchart of FIG. 6 showing the operation of the body control device 214 of the digital camera 201, the first image shift detection calculation process and the first image shift detection process described above according to the focus detection state of the optical system represented by the absolute value of the defocus amount. The two-image shift detection calculation processing is properly used. The second image shift detection calculation process is used only in the vicinity of in-focus where high-accuracy image shift detection calculation is required, that is, when the absolute value of the defocus amount is within the first predetermined value. When it is not in the vicinity of focus, that is, when the absolute value of the defocus amount exceeds the first predetermined value, the second image shift detection calculation process is not used. The reason for this is that as the defocus amount increases, the high-frequency component of the spatial frequency decreases, the image quality evaluation value decreases, and the change in the image quality evaluation value with respect to the defocus amount also becomes minute. The image displacement detection calculation accuracy by the detection calculation process is lowered. On the other hand, in the first image shift detection calculation process, since the low frequency component of the spatial frequency is also used for image shift detection, even if the defocus amount increases, the decrease in image shift detection accuracy is small.

第1像ズレ検出演算処理と第2像ズレ検出演算処理との使い分けについては、図6のフローチャートで説明したような焦点検出状態、すなわちデフォーカス量の絶対値に応じた使い分けに限定されず、第1像ズレ検出演算処理および第2像ズレ検出演算処理の特質に応じた使い分けであれば他の使い分けであってもかまわない。   The use of the first image shift detection calculation process and the second image shift detection calculation process is not limited to the focus detection state as described in the flowchart of FIG. 6, that is, the use according to the absolute value of the defocus amount, Other usages may be used as long as they are properly used in accordance with the characteristics of the first image deviation detection calculation process and the second image deviation detection calculation process.

−第1および第2像ズレ検出演算処理を両方行う場合−
図18は、第1像ズレ検出演算処理と第2像ズレ検出演算処理とを両方行って、それぞれの結果として得られる第1像ズレ量と第2像ズレ量とを加重加算平均する場合のフローチャートである。本フローチャートは、図6のステップS130からステップS138までの処理に置き換わる処理を示す。
-When performing both first and second image shift detection calculation processing-
FIG. 18 illustrates a case where the first image deviation detection calculation process and the second image deviation detection calculation process are both performed, and the first image deviation amount and the second image deviation amount obtained as a result are weighted and averaged. It is a flowchart. This flowchart shows processing that replaces the processing from step S130 to step S138 of FIG.

ステップS230では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第1像ズレ検出演算処理を行い、第1像ズレ量shft1を算出する。第1像ズレ検出演算処理は、上述したように、一対の被写体像信号の一致度に基づく像ズレ検出演算処理である。   In step S230, the body control device 214 performs a first image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates a first image shift amount shft1. As described above, the first image shift detection calculation process is an image shift detection calculation process based on the degree of coincidence between a pair of subject image signals.

ステップS231では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号データに基づき第2像ズレ検出演算処理を行い、第2像ズレ量shft2を算出する。第2像ズレ検出演算処理は、上述したように、合成被写体像信号の像品質評価値に基づく像ズレ検出演算処理である。   In step S231, the body control device 214 performs a second image shift detection calculation process based on the pair of subject image signal data read in step S120, and calculates a second image shift amount shft2. As described above, the second image shift detection calculation process is an image shift detection calculation process based on the image quality evaluation value of the combined subject image signal.

ステップS232では、ボディ制御装置214は、(16)式に示すように、第1像ズレ量shft1と第2像ズレ量shft2とを、重み係数k1、k2により加重加算平均して、平均像ズレ量shftAを算出する。
shftA=k1・shft1+k2・shft2 ただし k1+k2=1
(16)
In step S232, the body control device 214 weights and averages the first image displacement amount shft1 and the second image displacement amount shft2 using the weighting factors k1 and k2, as shown in the equation (16), and obtains the average image displacement. The quantity shftA is calculated.
shftA = k1 · shft1 + k2 · shft2 where k1 + k2 = 1
(16)

(16)式において、重み係数k1、k2を、焦点検出状態に応じて変更してもよい。例えば、合焦近傍では重み係数k2を重み係数k1よりも大きくする。(16)式において、重み係数k1、k2を、第1像ズレ量shft1および第2像ズレ量shft2の信頼性評価値に応じて変更してもよい。その場合、信頼性が相対的に高い方の重み係数を、低い方の重み係数よりも大きくする。例えば、第1像ズレ量shft1の信頼性評価値r1の算出には(5)式のSLOPを用いる。また、第2像ズレ量shft2の信頼性評価値r2の算出には、図17の鮮鋭度評価値の最大値Pmaxを用いる。このとき、重み係数k1=r1/(r1+r2)とし、重み係数k2=r2/(r1+r2)とする。   In the equation (16), the weighting factors k1 and k2 may be changed according to the focus detection state. For example, the weighting factor k2 is set larger than the weighting factor k1 in the vicinity of the focus. In the equation (16), the weighting factors k1 and k2 may be changed according to the reliability evaluation values of the first image shift amount shft1 and the second image shift amount shft2. In this case, the weighting factor having a relatively high reliability is set larger than the weighting factor having a lower reliability. For example, SLOP of the formula (5) is used for calculating the reliability evaluation value r1 of the first image shift amount shft1. Further, the maximum value Pmax of the sharpness evaluation value of FIG. 17 is used for calculating the reliability evaluation value r2 of the second image shift amount shft2. At this time, the weighting factor k1 = r1 / (r1 + r2) and the weighting factor k2 = r2 / (r1 + r2).

ステップS233では、ボディ制御装置214は、ステップS232で算出した平均像ズレ量shftAをデフォーカス量に変換する。   In step S233, the body control device 214 converts the average image shift amount shftA calculated in step S232 into a defocus amount.

このようにすれば、第1像ズレ検出演算処理と第2像ズレ検出演算処理との切替えにおける像ズレ量やデフォーカス量の急変がなくなるので、スムースな焦点調節動作が可能になる。   In this way, since there is no sudden change in the image shift amount and the defocus amount in switching between the first image shift detection calculation process and the second image shift detection calculation process, a smooth focus adjustment operation can be performed.

−第1および第2像ズレ検出演算処理を収差に応じて使い分ける場合−
図19は、第1像ズレ検出演算処理と第2像ズレ検出演算処理とを、撮影光学系の光学特性、例えば収差に応じて使い分ける場合の、ボディ制御装置214による動作を示すフローチャートである。本フローチャートは、図6のステップS130からステップS138までの処理に置き換わる処理を示す。
-When the first and second image shift detection calculation processing is selectively used according to the aberration-
FIG. 19 is a flowchart showing the operation of the body control device 214 when the first image shift detection calculation process and the second image shift detection calculation process are selectively used according to the optical characteristics of the photographing optical system, for example, aberration. This flowchart shows processing that replaces the processing from step S130 to step S138 of FIG.

ステップS330では、ボディ制御装置214は、レンズ制御装置206から、光学特性の情報として、球面収差情報を受信する。レンズ制御装置206または交換レンズ202内の不図示の記憶装置には、球面収差の設計値または測定値等の情報が、球面収差情報として予め記憶されている。   In step S330, the body control device 214 receives spherical aberration information from the lens control device 206 as information on optical characteristics. In a storage device (not shown) in the lens control device 206 or the interchangeable lens 202, information such as a spherical aberration design value or measurement value is stored in advance as spherical aberration information.

ステップS331では、ボディ制御装置214は、受信した光学特性の情報、すなわち球面収差情報に基づいて、光学特性が良好であるか否かを判定する。具体的には、ボディ制御装置214は、絞り開放値の球面収差(縦収差量)とF5.6における球面収差(縦収差量)との差の絶対値が所定値以下の場合には良好と判定する。一般的に上記縦収差量の差が大きな撮影光学系ほど図10で示した一対の点像信号のパターンの一致度が悪くなる。   In step S331, the body control device 214 determines whether or not the optical characteristics are good based on the received optical characteristic information, that is, spherical aberration information. Specifically, the body control device 214 is good when the absolute value of the difference between the spherical aberration (longitudinal aberration amount) at the full aperture value and the spherical aberration (longitudinal aberration amount) at F5.6 is not more than a predetermined value. judge. In general, the greater the difference in the amount of longitudinal aberration, the worse the degree of coincidence of the pattern of the pair of point image signals shown in FIG.

ステップS331で光学特性が良好と判定された場合は、ステップS332において、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第1像ズレ検出演算処理を行い、第1像ズレ量shft1を算出する。第1像ズレ検出演算処理は、上述したように、一対の被写体像信号の一致度に基づく像ズレ検出演算処理である。   If it is determined in step S331 that the optical characteristics are good, in step S332, the body control device 214 performs first image shift detection calculation processing based on the data of the pair of subject image signals read in step S120, and the first An image shift amount shft1 is calculated. As described above, the first image shift detection calculation process is an image shift detection calculation process based on the degree of coincidence between a pair of subject image signals.

ステップS333では、ボディ制御装置214は、ステップS332で算出した第1像ズレ量shft1をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S333, the body control device 214 converts the first image shift amount shft1 calculated in step S332 into a defocus amount, and the process proceeds to step S140 in FIG.

一方ステップS331で光学特性が良好でないと判定された場合は、ステップS334において、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第2像ズレ検出演算処理を行い、第2像ズレ量shft2を算出する。第2像ズレ検出演算処理は、上述したように、合成被写体像信号の像品質評価値に基づく像ズレ検出演算処理である。   On the other hand, if it is determined in step S331 that the optical characteristics are not good, in step S334, the body control device 214 performs second image shift detection calculation processing based on the data of the pair of subject image signals read in step S120, A second image shift amount shft2 is calculated. As described above, the second image shift detection calculation process is an image shift detection calculation process based on the image quality evaluation value of the combined subject image signal.

ステップS335では、ボディ制御装置214は、ステップS334で算出した第2像ズレ量shft2をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S335, the body control device 214 converts the second image shift amount shft2 calculated in step S334 into a defocus amount, and the process proceeds to step S140 in FIG.

このようにすれば、撮影光学系の光学特性が良好であるために合焦近傍においても第1像ズレ検出演算処理の誤差が生じない場合には、比較的演算規模が少ないために処理時間が短い第1像ズレ検出演算処理が用いられる。そのため、焦点調節のレスポンスを高くすることが出来る。それとともに、撮影光学系の光学特性が良好ではないがために合焦近傍において第1像ズレ検出演算処理の誤差が生じる場合には、高精度な第2像ズレ検出演算処理を用いることにより正確な焦点調節を行うことができる。   In this case, when the optical characteristics of the photographing optical system are good and the error in the first image shift detection calculation process does not occur even in the vicinity of in-focus, the processing time is relatively short because the calculation scale is relatively small. A short first image shift detection calculation process is used. Therefore, the focus adjustment response can be increased. At the same time, if an error in the first image shift detection calculation process occurs in the vicinity of the in-focus because the optical characteristics of the photographing optical system are not good, a high-accuracy second image shift detection calculation process is used. Focus adjustment can be performed.

光学特性の良否判定は、上述のように撮影光学系の球面収差情報を用いるものに限定されず、他の収差量の情報、例えば色収差、コマ収差、非点収差などの情報でもよい。特に、空間周波数に応じた最良像面位置の変位情報は、一対の被写体像信号パターンの同一性と深く関係しているので重要である。例えば、所定値ωLを含む低空間周波数の最良像面位置と所定値ωLよりも大きな所定値ωHを含む高空間周波数の最良像面位置との差を、光学設計情報に基づいて予め算出して、または実験的に測定して交換レンズ202側に記憶しておく。ボディ制御装置214は、それら2つの空間周波数のそれぞれに対する最良像面の位置の差をカメラボディ203側に読み出し、読み出した最良像面の位置の差の絶対値が所定値以下の場合は光学特性が良好として第1像ズレ検出演算処理を行う。ボディ制御装置214は、読み出した最良像面の位置の差の絶対値が所定値を超える場合は光学特性が良好でないとして第2像ズレ検出演算処理を行う。   The quality determination of the optical characteristics is not limited to the information using the spherical aberration information of the photographing optical system as described above, but may be information on other aberration amounts such as chromatic aberration, coma aberration, astigmatism information. In particular, the displacement information of the best image plane position according to the spatial frequency is important because it is closely related to the identity of a pair of subject image signal patterns. For example, a difference between the best image plane position at a low spatial frequency including a predetermined value ωL and the best image plane position at a high spatial frequency including a predetermined value ωH larger than the predetermined value ωL is calculated in advance based on the optical design information. Or, it is measured experimentally and stored on the interchangeable lens 202 side. The body control device 214 reads the difference in the position of the best image plane with respect to each of the two spatial frequencies to the camera body 203 side, and if the absolute value of the difference in the position of the read best image plane is equal to or less than a predetermined value, the optical characteristics Is good, the first image shift detection calculation process is performed. When the absolute value of the difference in the position of the read best image plane exceeds a predetermined value, the body control device 214 determines that the optical characteristics are not good and performs the second image shift detection calculation process.

また、光学特性の良否をカメラボディ203側で判定する代わりに、交換レンズ202側からカメラボディ203側に光学特性に応じた良否情報をレンズ制御装置206が送信し、カメラボディ203側でボディ制御装置214が該良否情報に応じて第1像ズレ検出演算処理と第2像ズレ検出演算処理とを切替えてもよい。   Also, instead of determining whether the optical characteristics are acceptable on the camera body 203 side, the lens control device 206 transmits quality information corresponding to the optical characteristics from the interchangeable lens 202 side to the camera body 203 side, and body control is performed on the camera body 203 side. The device 214 may switch between the first image shift detection calculation process and the second image shift detection calculation process according to the pass / fail information.

また、予めカメラボディ203側に光学特性の良好でないレンズの識別情報をピックアップしたテーブルを備えておき、カメラボディ203に装着した交換レンズ202のレンズの識別情報が、該テーブルにピックアップされたレンズ識別情報に一致する場合には、ボディ制御装置214が、装着した交換レンズ202のレンズの光学特性は良好でないと判定するようにしてもよい。   In addition, a table in which identification information of lenses having poor optical characteristics is previously picked up is provided on the camera body 203 side, and the lens identification information of the interchangeable lens 202 attached to the camera body 203 is used as the lens identification information picked up on the table. If the information matches the information, the body control device 214 may determine that the optical characteristics of the attached interchangeable lens 202 are not good.

−第1および第2像ズレ検出演算処理を絞りF値に応じて使い分ける場合−
図20は第1像ズレ検出演算処理と第2像ズレ検出演算処理とを、撮影光学系の光学特性、例えば絞りF値に応じて使い分ける場合の、ボディ制御装置214による動作を示すフローチャートである。本フローチャートは、図6のステップS130からステップS138までの処理に置き換わる処理を示す。
-When the first and second image shift detection calculation processing is selectively used according to the aperture F-number-
FIG. 20 is a flowchart showing the operation of the body control device 214 when the first image shift detection calculation process and the second image shift detection calculation process are selectively used according to the optical characteristics of the photographing optical system, for example, the aperture F value. . This flowchart shows processing that replaces the processing from step S130 to step S138 of FIG.

ステップS430では、ボディ制御装置214は、レンズ制御装置206から、光学特性の情報として、絞りF値情報、すなわちその時点での制御F値情報を受信する。   In step S430, the body control device 214 receives aperture F value information, that is, control F value information at that time, from the lens control device 206 as information on optical characteristics.

ステップS431では、ボディ制御装置214は、受信した光学特性の情報、すなわち絞りF値情報に基づいて、第1像ズレ検出演算処理による誤差が生じやすい状態か否か、すなわち一対の焦点検出光束により形成される一対の被写体像の同一性が良好か否かを判定する。具体的には、絞りF値が所定値以上の暗い光量に対応するF値の場合には、図10に示した一対の点像分布の裾野の広がりがピーク部の大きさに比較して小さくなるために、ボディ制御装置214は第1像ズレ検出演算処理による誤差が生じにくいと判断する。本処理はステップS432に進み、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第1像ズレ検出演算処理を行い、第1像ズレ量shft1を算出する。第1像ズレ検出演算処理は、上述したように、一対の被写体像信号の一致度に基づく像ズレ検出演算処理である。   In step S431, the body control device 214 determines whether or not an error due to the first image shift detection calculation process is likely to occur based on the received optical characteristic information, that is, the aperture F value information, that is, based on the pair of focus detection light beams. It is determined whether or not the identity of a pair of formed subject images is good. Specifically, when the aperture F value is an F value corresponding to a dark light amount that is equal to or greater than a predetermined value, the base spread of the pair of point image distributions shown in FIG. 10 is smaller than the size of the peak portion. Therefore, the body control device 214 determines that an error due to the first image shift detection calculation process is unlikely to occur. The process proceeds to step S432, and the body control device 214 performs a first image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates a first image shift amount shft1. As described above, the first image shift detection calculation process is an image shift detection calculation process based on the degree of coincidence between a pair of subject image signals.

ステップS433では、ボディ制御装置214は、ステップS432で算出した第1像ズレ量shft1をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S433, the body control device 214 converts the first image shift amount shft1 calculated in step S432 into a defocus amount, and the process proceeds to step S140 in FIG.

一方、ステップS431で、絞りF値が所定値未満の明るい光量に対応する明るいF値の場合には、図10に示した一対の点像分布の裾野の広がりがピーク部の大きさに比較して大きくなるために、ボディ制御装置214は第1像ズレ検出演算処理による誤差が生じやすいと判断する。本処理はステップS434に進み、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第2像ズレ検出演算処理を行い、第2像ズレ量shft2を算出する。第2像ズレ検出演算処理は、上述したように、合成被写体像信号の像品質評価値に基づく像ズレ検出演算処理である。   On the other hand, in step S431, when the aperture F value is a bright F value corresponding to a bright light quantity less than a predetermined value, the base spread of the pair of point image distributions shown in FIG. 10 is compared with the size of the peak portion. Therefore, the body control device 214 determines that an error due to the first image shift detection calculation process is likely to occur. The process proceeds to step S434, and the body control device 214 performs a second image shift detection calculation process based on the data of the pair of subject image signals read out in step S120, and calculates a second image shift amount shft2. As described above, the second image shift detection calculation process is an image shift detection calculation process based on the image quality evaluation value of the combined subject image signal.

ステップS435では、ボディ制御装置214は、ステップS434で算出した第2像ズレ量shft2をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S435, the body control device 214 converts the second image shift amount shft2 calculated in step S434 into a defocus amount, and the process proceeds to step S140 in FIG.

このようにすれば、撮影光学系の光学特性に含まれる絞りF値が大きくて第1像ズレ検出演算処理の誤差が生じにくい場合には、比較的演算規模が少ないために処理時間が短い第1像ズレ検出演算処理が用いられる。そのため、焦点調節のレスポンスを高くすることが出来る。それとともに、撮影光学系の絞りF値が小さくて第1像ズレ検出演算処理の誤差が生じやすい場合には、高精度な第2像ズレ検出演算処理を用いることにより正確な焦点調節を行うことができる。   In this way, when the aperture F value included in the optical characteristics of the photographing optical system is large and an error in the first image shift detection calculation processing is unlikely to occur, the processing time is short because the calculation scale is relatively small. One-image shift detection calculation processing is used. Therefore, the focus adjustment response can be increased. At the same time, when the aperture F value of the photographing optical system is small and an error in the first image shift detection calculation process is likely to occur, accurate focus adjustment is performed by using a high-accuracy second image shift detection calculation process. Can do.

−第1および第2像ズレ検出演算処理を像高や射出瞳距離に応じて使い分ける場合−
焦点検出エリアが画面中心に限らず画面周辺の位置にも存在する場合には、焦点検出に使用する焦点検出エリアの位置、すなわちその焦点検出エリアの画面中央からの距離を表す像高や、撮影光学系の光学特性、例えば射出瞳距離に応じて第1像ズレ検出演算処理と第2像ズレ検出演算処理とを使い分けることもできる。焦点検出に使用する焦点検出エリアには一対の被写体像信号が生成される一対の焦点検出画素が配置されているので、像高は光軸に対して一対の被写体像信号が生成される位置ということもできる。
-When the first and second image shift detection calculation processes are used according to the image height and exit pupil distance-
When the focus detection area is not limited to the center of the screen, but also exists at the periphery of the screen, the position of the focus detection area used for focus detection, that is, the image height indicating the distance from the center of the screen, The first image shift detection calculation process and the second image shift detection calculation process can be selectively used according to the optical characteristics of the optical system, for example, the exit pupil distance. Since a pair of focus detection pixels for generating a pair of subject image signals are arranged in the focus detection area used for focus detection, the image height is a position where a pair of subject image signals are generated with respect to the optical axis. You can also.

図21は、このような場合の撮影画面上における焦点検出エリアの位置を示す図であり、矩形の撮影画面100上の中央(光軸上)および水平垂直方向の周辺の合計25カ所に焦点検出リア102が配置される。長方形で示す焦点検出エリア102の長手方向、すなわち水平方向に、焦点検出画素が直線的に配列される。   FIG. 21 is a diagram showing the position of the focus detection area on the shooting screen in such a case, and focus detection is performed at a total of 25 locations on the center (on the optical axis) and the periphery in the horizontal and vertical directions on the rectangular shooting screen 100. A rear 102 is arranged. Focus detection pixels are linearly arranged in the longitudinal direction of the focus detection area 102 indicated by a rectangle, that is, in the horizontal direction.

図22は焦点検出エリアの位置、すなわちその焦点検出エリアの画面中央からの距離を表す像高と、撮影光学系の光学特性、例えば射出瞳距離とに応じて、第1像ズレ検出演算処理と第2像ズレ検出演算処理とを使い分ける場合の、ボディ制御装置214による動作を示すフローチャートである。本フローチャートは、図6のステップS130からステップS138までの処理に置き換わる処理を示す。なお焦点検出に使用する焦点検出エリアの位置はユーザーにより手動で選択されるものとする。   FIG. 22 shows the first image shift detection calculation process according to the position of the focus detection area, that is, the image height representing the distance from the screen center of the focus detection area and the optical characteristics of the photographing optical system, for example, the exit pupil distance. 12 is a flowchart showing an operation by the body control device 214 when properly using a second image shift detection calculation process. This flowchart shows processing that replaces the processing from step S130 to step S138 of FIG. It is assumed that the position of the focus detection area used for focus detection is manually selected by the user.

ステップS530では、ボディ制御装置214は、レンズ制御装置206から、光学特性の情報として、射出瞳距離データを受信する。   In step S530, the body control device 214 receives exit pupil distance data from the lens control device 206 as information on optical characteristics.

ステップS531では、ボディ制御装置214は、受信した光学特性の情報、すなわち射出瞳距離データに基づいて、第1像ズレ検出演算処理による誤差が生じやすい状態か否か、すなわち一対の焦点検出光束により形成される一対の被写体像の同一性が良好か否かを判定する。具体的には、射出瞳距離が所定距離範囲以内である場合には、ボディ制御装置214は、一対の焦点検出光束の絞り開口によるケラレが略均一に生じるため一対の点像分布の同一性も高いと判定して、本処理はステップS535以降の第1像ズレ検出演算処理に進む。射出瞳距離が、図5に示した測距瞳距離dの近傍であるとき、すなわちd±所定距離以内であるとき、射出瞳距離が所定距離範囲以内と判定される。射出瞳距離が所定距離範囲外である場合には、ボディ制御装置214は、一対の焦点検出光束の絞り開口によるケラレが不均一に生じるため一対の点像分布の同一性も崩れやすいと判定して、本処理はステップS532に進む。射出瞳距離が、図5に示した測距瞳距離dから離れているとき、すなわちd±所定距離外であるとき、射出瞳距離が所定距離範囲外であると判定される。   In step S531, the body control device 214 determines whether an error due to the first image shift detection calculation process is likely to occur based on the received optical characteristic information, that is, exit pupil distance data, that is, based on a pair of focus detection light beams. It is determined whether or not the identity of a pair of formed subject images is good. Specifically, when the exit pupil distance is within a predetermined distance range, the body controller 214 causes the vignetting due to the aperture opening of the pair of focus detection light beams to be substantially uniform, so that the pair of point image distributions are also identical. If it is determined that the value is high, the process proceeds to a first image shift detection calculation process after step S535. When the exit pupil distance is in the vicinity of the distance measurement pupil distance d shown in FIG. 5, that is, within d ± predetermined distance, it is determined that the exit pupil distance is within the predetermined distance range. When the exit pupil distance is outside the predetermined distance range, the body control device 214 determines that the identities of the pair of point image distributions are likely to be lost due to non-uniform vignetting caused by the aperture opening of the pair of focus detection light beams. Then, the process proceeds to step S532. When the exit pupil distance is far from the distance measuring pupil distance d shown in FIG. 5, that is, when d ± outside the predetermined distance, it is determined that the exit pupil distance is out of the predetermined distance range.

ステップS532では、ボディ制御装置214は、ユーザーにより選択された焦点検出エリアが画面周辺に位置するか否かを判定する。選択された焦点検出エリアの画面中心からの距離を表す像高が所定値以上であるとき、選択された焦点検出エリアが画面周辺に位置すると判定される。選択された焦点検出エリアが画面周辺に位置する場合は、ボディ制御装置214は、一対の焦点検出光束の絞り開口によるケラレの不均一性が拡大されるため一対の点像分布の同一性も崩れると判定する。ボディ制御装置214は、このような状態でも誤差を生じにくい像ズレ検出を行うために、本処理を、ステップS533以降の第2像ズレ検出演算処理に進める。選択された焦点検出エリアが画面中央近傍に位置する場合には、ボディ制御装置214は、一対の焦点検出光束の絞り開口によるケラレの不均一が少なく、一対の点像分布の同一性も高いと判定して、本処理を、ステップS535以降の第1像ズレ検出演算処理に進める。   In step S532, the body control device 214 determines whether or not the focus detection area selected by the user is located around the screen. When the image height representing the distance from the screen center of the selected focus detection area is greater than or equal to a predetermined value, it is determined that the selected focus detection area is located around the screen. When the selected focus detection area is located at the periphery of the screen, the body control device 214 expands the non-uniformity of vignetting due to the aperture opening of the pair of focus detection light beams, so that the identity of the pair of point image distributions is lost. Is determined. The body control device 214 advances this process to the second image deviation detection calculation process after step S533 in order to perform image deviation detection that is unlikely to cause an error even in such a state. When the selected focus detection area is located in the vicinity of the center of the screen, the body control device 214 has less vignetting due to the aperture opening of the pair of focus detection light fluxes and high identity of the pair of point image distributions. Determination is made, and this process proceeds to the first image shift detection calculation process after step S535.

ステップS533では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第2像ズレ検出演算処理を行い、第2像ズレ量shft2を算出する。第2像ズレ検出演算処理は、上述したように、合成被写体像信号の像品質評価値に基づく像ズレ検出演算処理である。   In step S533, the body control device 214 performs a second image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates a second image shift amount shft2. As described above, the second image shift detection calculation process is an image shift detection calculation process based on the image quality evaluation value of the combined subject image signal.

ステップS534では、ボディ制御装置214は、ステップS533で算出した第2像ズレ量shft2をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S534, the body control device 214 converts the second image shift amount shft2 calculated in step S533 into a defocus amount, and the process proceeds to step S140 in FIG.

ステップS535では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第1像ズレ検出演算処理を行い、第1像ズレ量shft1を算出する。第1像ズレ検出演算処理は、上述したように、一対の被写体像信号の一致度に基づく像ズレ検出演算処理である。   In step S535, the body control device 214 performs a first image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates the first image shift amount shft1. As described above, the first image shift detection calculation process is an image shift detection calculation process based on the degree of coincidence between a pair of subject image signals.

ステップS536では、ボディ制御装置214は、ステップS535で算出した第1像ズレ量shft1をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S536, the body control device 214 converts the first image shift amount shft1 calculated in step S535 into a defocus amount, and the process proceeds to step S140 in FIG.

撮影光学系の射出瞳距離が測距瞳距離dの近傍であるか、または焦点検出エリアの位置が画面中心近傍にあるとき、一対の焦点検出光束の絞りによる不均一なケラレが生じ難い。しかし、上記のようにすれば、一対の焦点検出光束の絞りによる不均一なケラレが生じ難い状態であるために、第1像ズレ検出演算処理の誤差が生じにくい場合には、比較的演算規模が少ないために処理時間が短い第1像ズレ検出演算処理が用いられるので、焦点調節のレスポンスを高くすることが出来る。撮影光学系の射出瞳距離が測距瞳距離dから離れているとき、または焦点検出エリアの位置が画面周辺にあるとき、一対の焦点検出光束の絞りによる不均一なケラレが生じ易い。しかし、上記のようにすれば、一対の焦点検出光束の絞りによる不均一なケラレが生じ易い状態であるために、第1像ズレ検出演算処理の誤差が生じやすい場合には、高精度な第2像ズレ検出演算処理が用いられるので、正確な焦点調節を行うことができる。   When the exit pupil distance of the photographing optical system is in the vicinity of the distance measurement pupil distance d or the position of the focus detection area is in the vicinity of the center of the screen, non-uniform vignetting due to the apertures of the pair of focus detection light beams hardly occurs. However, according to the above, since the non-uniform vignetting due to the diaphragm of the pair of focus detection light beams is unlikely to occur, the calculation scale is relatively small when the error in the first image shift detection calculation processing is unlikely to occur. Since the first image shift detection calculation process with a short processing time is used because of a small amount of image, the focus adjustment response can be increased. When the exit pupil distance of the photographing optical system is away from the distance measurement pupil distance d, or when the position of the focus detection area is in the periphery of the screen, non-uniform vignetting is likely to occur due to the apertures of the pair of focus detection light beams. However, with the above configuration, non-uniform vignetting is likely to occur due to the diaphragm of the pair of focus detection light beams. Therefore, if an error in the first image shift detection calculation processing is likely to occur, a highly accurate first Since the two-image shift detection calculation process is used, accurate focus adjustment can be performed.

なお、第1および第2像ズレ検出演算処理を、像高および射出瞳距離のいずれか一方のみに応じて使い分けることとしてもよい。すなわち、図22において、ステップS531およびステップS532における判定処理のうちのいずれか一方の判定のみが行われることとしてもよい。   It should be noted that the first and second image shift detection calculation processes may be selectively used according to only one of the image height and the exit pupil distance. That is, in FIG. 22, only one of the determination processes in step S531 and step S532 may be performed.

−第1および第2像ズレ検出演算処理をAFの必要検出精度に応じて使い分ける場合−
図23は、第1像ズレ検出演算処理と第2像ズレ検出演算処理とを、必要なデフォーカス量検出精度、すなわちユーザーにより設定されるAF精度関連の設定状態に応じて使い分ける場合の、ボディ制御装置214による動作を示すフローチャートである。本フローチャートは、図6のステップS130からステップS138までの処理に置き換わる処理を示す。
-When the first and second image shift detection calculation processes are used according to the required AF detection accuracy-
FIG. 23 shows the body in the case where the first image shift detection calculation process and the second image shift detection calculation process are selectively used according to the required defocus amount detection accuracy, that is, the setting state related to the AF accuracy set by the user. 3 is a flowchart showing an operation by a control device 214. This flowchart shows processing that replaces the processing from step S130 to step S138 of FIG.

ステップS630では、ボディ制御装置214は、ユーザーにより設定されるAF精度関連の設定状態を検出する。AF精度関連の設定とは、例えば直接的にAF精度優先とAFレスポンス優先とを切替える場合の切替え選択設定であっても良いし、間接的にAF精度優先とAFレスポンス優先とを切替える場合の切替え選択設定であっても良い。間接的にAF精度優先とAFレスポンス優先とを切替える場合の切替え選択設定とは、例えばワンショットAFモードとコンティニュアスAFモードとの切替え選択設定であり、いずれかのモードをユーザが選択することに連動して、AF精度優先とAFレスポンス優先のいずれかが選択される。ワンショットAFモードにおいては、合焦状態に到達後はレンズ駆動を禁止するので、高いAF精度が要求されることとなり、AF精度優先となる。コンティニュアスAFモードにおいては、連続撮影のため、検出された焦点調節状態に応じて常時レンズ駆動を行うので、迅速性が要求されることとなり、AFレスポンス優先となる。   In step S630, the body control device 214 detects an AF accuracy-related setting state set by the user. The AF accuracy-related setting may be, for example, a switching selection setting when directly switching between AF accuracy priority and AF response priority, or switching when indirectly switching between AF accuracy priority and AF response priority. It may be a selection setting. The switching selection setting when indirectly switching between AF accuracy priority and AF response priority is, for example, a switching selection setting between a one-shot AF mode and a continuous AF mode, and the user selects one of the modes. In conjunction with, either AF accuracy priority or AF response priority is selected. In the one-shot AF mode, lens driving is prohibited after reaching the in-focus state, so that high AF accuracy is required, and AF accuracy is prioritized. In the continuous AF mode, since continuous shooting is performed, the lens is always driven according to the detected focus adjustment state, so that quickness is required, and AF response is prioritized.

ステップS631では、ボディ制御装置214は、検出したAF精度関連の設定状態に基づいて、AF精度が優先されているか否かを判定する。本処理は、AF精度が優先されている場合にはステップS634に進み、AF精度が優先されていない場合、すなわちAF精度以外のAF特性、例えばAFレスポンスが優先されている場合は、ステップS632に進む。   In step S631, the body control device 214 determines whether or not AF accuracy is prioritized based on the detected AF accuracy related setting state. The process proceeds to step S634 if the AF accuracy is prioritized, and if the AF accuracy is not prioritized, that is, if an AF characteristic other than the AF accuracy, for example, an AF response is prioritized, the process proceeds to step S632. move on.

ステップS632では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第1像ズレ検出演算処理を行い、第1像ズレ量shft1を算出する。第1像ズレ検出演算処理は、上述したように、一対の被写体像信号の一致度に基づく像ズレ検出演算処理である。   In step S632, the body control device 214 performs a first image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates a first image shift amount shft1. As described above, the first image shift detection calculation process is an image shift detection calculation process based on the degree of coincidence between a pair of subject image signals.

ステップS633では、ボディ制御装置214は、ステップS632で算出した第1像ズレ量shft1をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S633, the body control device 214 converts the first image shift amount shft1 calculated in step S632 into a defocus amount, and the process proceeds to step S140 in FIG.

ステップS634では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第2像ズレ検出演算処理を行い、第2像ズレ量shft2を算出する。第2像ズレ検出演算処理は、上述したように、合成被写体像信号の像品質評価値に基づく像ズレ検出演算処理である。   In step S634, the body control device 214 performs a second image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates the second image shift amount shft2. As described above, the second image shift detection calculation process is an image shift detection calculation process based on the image quality evaluation value of the combined subject image signal.

ステップS635では、ボディ制御装置214は、ステップS334で算出した第2像ズレ量shft2をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S635, the body control device 214 converts the second image shift amount shft2 calculated in step S334 into a defocus amount, and the process proceeds to step S140 in FIG.

このようにすれば、像ズレ検出に要求される精度が比較的ゆるい場合には、比較的演算規模が少ないために処理時間が短い第1像ズレ検出演算処理が用いられる。そのため、焦点調節のレスポンスを高くすることが出来る。それとともに、撮影光学系の像ズレ検出に要求される精度が比較的厳しい場合には、高精度な第2像ズレ検出演算処理を用いることにより正確な焦点調節を行うことができる。   In this way, when the accuracy required for image shift detection is relatively loose, the first image shift detection calculation process with a short processing time is used because the calculation scale is relatively small. Therefore, the focus adjustment response can be increased. At the same time, when the accuracy required for image shift detection of the photographing optical system is relatively strict, accurate focus adjustment can be performed by using a highly accurate second image shift detection calculation process.

AF精度に関する設定は上述のようにユーザーによる手動設定でもよいし、カメラボディ203のボディ制御装置214が自動的に設定するものであってもよい。例えばカメラボディ203のボディ制御装置214が、読み出した画像データに基づいて輝度検出を行い、高輝度の場合にはAF精度優先、低輝度の場合にはAFレスポンス優先の自動設定を行うことも可能である。また、カメラボディ203のボディ制御装置214が、読み出した画像データに基づいて、被写体が移動被写体であるか、静止被写体であるかについての検出を行い、静止被写体の場合にはAF精度優先、移動被写体の場合にはAFレスポンス優先の自動設定を行うことも可能である。また、カメラボディ203のボディ制御装置214が、読み出した画像データまたは不図示の加速度センサー出力に基づいて、カメラボディ203のブレ状態を表すブレ量の検出を行い、ブレが少ない場合、すなわちブレ量が所定値以内の場合にはAF精度優先、ブレが大きい、すなわちブレ量が所定値以上の場合にはAFレスポンス優先の自動設定を行うことも可能である。   The setting relating to the AF accuracy may be manual setting by the user as described above, or may be automatically set by the body control device 214 of the camera body 203. For example, the body control device 214 of the camera body 203 can detect luminance based on the read image data, and can automatically set AF accuracy priority when the luminance is high and AF response priority when the luminance is low. It is. In addition, the body control device 214 of the camera body 203 detects whether the subject is a moving subject or a stationary subject based on the read image data. In the case of a subject, automatic setting of AF response priority can be performed. Further, the body control device 214 of the camera body 203 detects a blur amount representing the blur state of the camera body 203 based on the read image data or an acceleration sensor output (not shown). If AF is within a predetermined value, AF accuracy priority can be automatically set and AF response priority can be automatically set when shake is large, that is, when the shake amount is greater than or equal to a predetermined value.

−第1および第2像ズレ検出演算処理を一対の被写体像品質に応じて使い分ける場合−
図24は第1像ズレ検出演算処理と第2像ズレ検出演算処理とを、像ズレ検出に用いる一対の焦点検出画素のデータに基づいて評価した一対の被写体像の像品質に応じて使い分ける場合のフローチャートである。本フローチャートは、図6のステップS130からステップS138までの処理に置き換わる処理を示す。
-When the first and second image shift detection calculation processes are used according to the quality of a pair of subject images-
FIG. 24 shows a case where the first image shift detection calculation process and the second image shift detection calculation process are selectively used according to the image quality of the pair of subject images evaluated based on the data of the pair of focus detection pixels used for image shift detection. It is a flowchart of. This flowchart shows processing that replaces the processing from step S130 to step S138 of FIG.

ステップS730では、ボディ制御装置214は、像ズレ検出に用いる一対の焦点検出画素のデータに基づいて一対の被写体像の像品質の評価値を算出する。具体的には、前述した合成被写体像信号の像品質評価値P(k)を求める演算と同様な演算により一対の被写体像信号の像品質評価値Qを算出することができる。一対の焦点検出画素が出力する一対の被写体像信号データA(n)、B(n)に基づき、例えば(11)式と同様な鮮鋭度評価演算の(17)式により、像品質評価値Qを算出することができる。
Q=Σ(|A(n)−A(n+v)|+|B(n)−B(n+v)|) (17)
In step S730, the body control device 214 calculates an evaluation value of the image quality of the pair of subject images based on the data of the pair of focus detection pixels used for image shift detection. Specifically, the image quality evaluation value Q of the pair of subject image signals can be calculated by a calculation similar to the calculation for obtaining the image quality evaluation value P (k) of the composite subject image signal described above. Based on the pair of subject image signal data A (n) and B (n) output by the pair of focus detection pixels, for example, the image quality evaluation value Q is calculated by Expression (17) of the sharpness evaluation calculation similar to Expression (11). Can be calculated.
Q = Σ (| A (n) −A (n + v) | + | B (n) −B (n + v) |) (17)

(17)式において、Σ演算は変数nの範囲について計算される。(17)式は一対の焦点検出画素が出力する一対の被写体像信号データA(n)、B(n)の、所定データ間隔を表す整数vにおける1階差分の絶対値の総和を算出する演算を表す。一対の焦点検出画素が出力する一対の被写体像信号データA(n)、B(n)の鮮鋭度が高いほど差分量は大きくなるので像品質評価値Qも大きな値となる。1階差分量は一対の被写体像のエッジ部の傾斜量に対応し、傾斜が急峻なほど鮮鋭に見えるので、(17)式は一対の被写体像信号の像品質、すなわち鮮鋭度を評価する演算と言える。なお(17)式は一対の焦点検出画素が出力する一対の被写体像信号データA(n)、B(n)の両方について演算を行っているが、どちらか一方のみであってもかまわない。   In equation (17), the Σ operation is calculated for the range of variable n. Expression (17) is an arithmetic operation for calculating the sum of absolute values of the first-order differences in an integer v representing a predetermined data interval between a pair of subject image signal data A (n) and B (n) output by a pair of focus detection pixels. Represents. The higher the sharpness of the pair of subject image signal data A (n) and B (n) output by the pair of focus detection pixels, the larger the difference amount, and the larger the image quality evaluation value Q is. The first-order difference amount corresponds to the amount of inclination of the edge portion of the pair of subject images, and the sharper the inclination, the sharper the expression, so the equation (17) is an operation for evaluating the image quality of the pair of subject image signals, that is, the sharpness. It can be said. In the equation (17), calculation is performed for both of the pair of subject image signal data A (n) and B (n) output by the pair of focus detection pixels, but only one of them may be used.

ステップS731では、一対の被写体像信号の像品質評価値に基づいて、一対の被写体像の像品質が良好であるか否かを判定する。本処理は、一対の被写体像の像品質が良好である場合、すなわち像品質評価値が所定値以上の場合にはステップS734に進み、一対の被写体像の像品質が良好でない場合、すなわち像品質評価値が所定値未満の場合にはステップS732に進む。   In step S731, it is determined based on the image quality evaluation values of the pair of subject image signals whether the image quality of the pair of subject images is good. If the image quality of the pair of subject images is good, that is, if the image quality evaluation value is greater than or equal to the predetermined value, the process proceeds to step S734, and if the image quality of the pair of subject images is not good, that is, the image quality. If the evaluation value is less than the predetermined value, the process proceeds to step S732.

ステップS732では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第1像ズレ検出演算処理を行い、第1像ズレ量shft1を算出する。第1像ズレ検出演算処理は、上述したように、一対の被写体像信号の一致度に基づく像ズレ検出演算処理である。   In step S732, the body control device 214 performs a first image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates a first image shift amount shft1. As described above, the first image shift detection calculation process is an image shift detection calculation process based on the degree of coincidence between a pair of subject image signals.

ステップS733では、ボディ制御装置214は、ステップS732で算出した第1像ズレ量shft1をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S733, the body control device 214 converts the first image shift amount shft1 calculated in step S732 into a defocus amount, and the process proceeds to step S140 in FIG.

ステップS734では、ボディ制御装置214は、ステップS120で読み出した一対の被写体像信号のデータに基づき第2像ズレ検出演算処理を行い、第2像ズレ量shft2を算出する。第2像ズレ検出演算処理は、上述したように、合成被写体像信号の像品質評価値に基づく像ズレ検出演算処理である。   In step S734, the body control device 214 performs a second image shift detection calculation process based on the data of the pair of subject image signals read in step S120, and calculates a second image shift amount shft2. As described above, the second image shift detection calculation process is an image shift detection calculation process based on the image quality evaluation value of the combined subject image signal.

ステップS735では、ボディ制御装置214は、ステップS734で算出した第2像ズレ量shft2をデフォーカス量に変換し、本処理は、図6のステップS140に進む。   In step S735, the body control device 214 converts the second image shift amount shft2 calculated in step S734 into a defocus amount, and the process proceeds to step S140 in FIG.

一対の被写体像の像品質が良好でないために第2像ズレ検出演算による精度が悪化する場合がある。例えば、デフォーカス量が大きく像ボケにより高周波成分がなくなっている場合である。そのような高周波成分が少ない場合でも、第1像ズレ検出演算処理によれば、比較的精度の高い像ズレ検出が可能である。上述したステップS731において一対の被写体像の像品質が良好でないと判定された場合は、ステップS732で第1像ズレ検出演算処理が用いられるので、焦点検出精度を維持できる。それとともに、ステップS731において一対の被写体像の像品質が良好であるために第2像ズレ検出演算による高精度な像ズレ検出が期待できる場合、例えば合焦近傍で高周波成分が多い場合には、ステップS734で高精度な第2像ズレ検出演算処理が用いられるので、正確な焦点調節を行うことができる。   Since the image quality of the pair of subject images is not good, the accuracy by the second image shift detection calculation may deteriorate. For example, this is a case where the defocus amount is large and the high frequency component disappears due to image blur. Even when such a high-frequency component is small, the first image shift detection calculation process enables relatively high-accuracy image shift detection. If it is determined in step S731 that the image quality of the pair of subject images is not good, the first image shift detection calculation process is used in step S732, so that focus detection accuracy can be maintained. At the same time, when the image quality of the pair of subject images is good in step S731, high-precision image shift detection by the second image shift detection calculation can be expected, for example, when there are many high-frequency components near the in-focus state, Since the highly accurate second image shift detection calculation process is used in step S734, accurate focus adjustment can be performed.

ステップS730では、一対の焦点検出画素が出力する一対の被写体像信号データA(n)、B(n)に基づき、一対の被写体像信号の像品質評価値Qとして鮮鋭度を用いることとし、鮮鋭度評価演算の(17)式により、像品質評価値Qを算出する。しかし、像品質評価値として、鮮鋭度の代わりに一対の被写体像信号の解像度を用いることとしてもよい。その場合は、(17)式の代わりに、例えば以下の(18)式を用いる。
Q=Σ(|−A(n−v)+2×A(n)−A(n+v)|
+|−B(n−v)+2×B(n)−B(n+v)|) (18)
In step S730, the sharpness is used as the image quality evaluation value Q of the pair of subject image signals based on the pair of subject image signal data A (n) and B (n) output by the pair of focus detection pixels. The image quality evaluation value Q is calculated by the equation (17) of the degree evaluation calculation. However, as the image quality evaluation value, the resolution of a pair of subject image signals may be used instead of the sharpness. In that case, for example, the following equation (18) is used instead of equation (17).
Q = Σ (| −A (n−v) + 2 × A (n) −A (n + v) |
+ | −B (n−v) + 2 × B (n) −B (n + v) |) (18)

像品質評価値Qとして、鮮鋭度の代わりに一対の被写体像信号の周波数特性(MTF)を用いることとしてもよい。図17を用いて合成被写体像信号のMTFに関する像品質評価値P(k)を求める方法と同様にして、一対の被写体像の像品質に寄与する高周波帯域に渡って合成被写体像信号のMTFを積分した値を像品質評価値Qとしてもよい。   As the image quality evaluation value Q, frequency characteristics (MTF) of a pair of subject image signals may be used instead of the sharpness. Similar to the method of obtaining the image quality evaluation value P (k) related to the MTF of the composite subject image signal using FIG. 17, the MTF of the composite subject image signal over the high frequency band contributing to the image quality of the pair of subject images. The integrated value may be used as the image quality evaluation value Q.

上述した種々の条件に応じた第1像ズレ検出演算処理と第2像ズレ検出演算処理との使い分けに関しては、複数組み合わせて用いることができる。   Regarding the proper use of the first image shift detection calculation process and the second image shift detection calculation process according to the various conditions described above, a plurality of combinations can be used.

例えば図6に示すフローチャートにおいて、ステップS136からステップS137までの間に、さらに図19のステップS330とステップS331とを挿入する。ステップS331において光学特性が良好と判定された場合には、本処理は図6のステップS140に進み、ステップS331において光学特性が良好でないと判定された場合には、本処理は図6のステップS137に進むようにしてもよい。その様子を図25に示す。   For example, in the flowchart shown in FIG. 6, steps S330 and S331 of FIG. 19 are further inserted between steps S136 and S137. If it is determined in step S331 that the optical characteristics are good, the process proceeds to step S140 in FIG. 6, and if it is determined in step S331 that the optical characteristics are not good, the process is performed in step S137 in FIG. You may make it progress to. This is shown in FIG.

このように複数の条件を組み合わせることにより、第1像ズレ検出演算処理と第2像ズレ検出演算処理とをより適切に使い分けることができる。   By combining a plurality of conditions as described above, the first image shift detection calculation process and the second image shift detection calculation process can be used appropriately.

上述した実施の形態では、マイクロレンズを用いた瞳分割位相差検出方式による焦点検出動作を例にとって説明したが、本発明はこのような方式の焦点検出に限定されず、周知の再結像瞳分割位相差検出方式の焦点検出にも適用可能である。   In the embodiment described above, the focus detection operation by the pupil division phase difference detection method using the microlens has been described as an example. However, the present invention is not limited to the focus detection of such a method, and a well-known re-imaging pupil. The present invention can also be applied to focus detection using a divided phase difference detection method.

再結像瞳分割位相差検出方式においては、1次像面上に形成される被写体像を一対のセパレータレンズを用い、一対の測距瞳を通過する一対の焦点検出光束が形成する一対の被写体像として一対のイメージセンサ上に再結像し、該一対のイメージセンサの出力に基づき、上記一対の被写体像の像ズレ量を検出している。従って撮影光学系の光学特性が良好でない場合には、上記一対の被写体像の信号パターン(形状)の同一性が崩れ、一対の被写体像信号の一致度が悪化するという、マイクロレンズを用いた瞳分割位相差検出方式と同様な問題が発生する。そのような場合に、高精度な第2像ズレ検出演算処理を用いることにより正確な焦点調節を行うことができる。撮影光学系の光学特性が良好な場合には、比較的演算規模が少ないために処理時間が短い第1像ズレ検出演算処理が用いられる。   In the re-imaging pupil division phase difference detection method, a pair of subjects formed by a pair of focus detection light beams that pass through a pair of distance measuring pupils using a pair of separator lenses for a subject image formed on the primary image plane An image is re-imaged on a pair of image sensors, and an image shift amount of the pair of subject images is detected based on outputs of the pair of image sensors. Accordingly, when the optical characteristics of the photographing optical system are not good, the identity of the signal patterns (shapes) of the pair of subject images is lost, and the degree of coincidence of the pair of subject image signals is deteriorated. The same problem as in the divided phase difference detection method occurs. In such a case, accurate focus adjustment can be performed by using a highly accurate second image shift detection calculation process. When the optical characteristics of the photographing optical system are good, the first image shift detection calculation process with a short processing time is used because the calculation scale is relatively small.

なお、焦点検出装置が適用される撮像装置としては、上述したようなカメラボディ203に交換レンズ202が装着される構成のデジタルカメラ201に限定されない。例えばレンズ一体型のデジタルカメラあるいはビデオカメラにも本発明を適用することができる。さらには、携帯電話などに内蔵される小型カメラモジュール、監視カメラやロボット用の視覚認識装置、車載カメラなどにも適用することができる。   Note that the imaging device to which the focus detection device is applied is not limited to the digital camera 201 having a configuration in which the interchangeable lens 202 is attached to the camera body 203 as described above. For example, the present invention can be applied to a lens-integrated digital camera or video camera. Furthermore, the present invention can be applied to a small camera module built in a mobile phone, a surveillance camera, a visual recognition device for a robot, an in-vehicle camera, and the like.

10 マイクロレンズ、11,15,16 光電変換部、
41,42 上部、43,44 下部、45,46,47,48 エッジ部、
51,55,56、点像分布、65,66,67,68 被写体像、
71,75,76 光束、90 射出瞳、91 光軸、 95,96 測距瞳、97 領域、
98 予定焦点面、99 面、
100 撮影画面、101,102 焦点検出エリア、
201 デジタルカメラ、202 交換レンズ、203 カメラボディ、
204 マウント部、206 レンズ制御装置、
208 ズーミングレンズ、209 レンズ、210 フォーカシングレンズ、
211 絞り、212 撮像素子、213 電気接点、
214 ボディ制御装置、
215 液晶表示素子駆動回路、216 液晶表示素子、217 接眼レンズ、
219 メモリカード、221 AD変換装置、
310 撮像画素、315,316 焦点検出画素、
1510,1610,1710 実線、1720 斜線部
10 microlens, 11, 15, 16 photoelectric conversion unit,
41, 42 upper part, 43, 44 lower part, 45, 46, 47, 48 edge part,
51, 55, 56, point image distribution, 65, 66, 67, 68 subject image,
71,75,76 luminous flux, 90 exit pupil, 91 optical axis, 95,96 distance measurement pupil, 97 area,
98 Planned focal plane, 99 plane,
100 shooting screen, 101, 102 focus detection area,
201 digital camera, 202 interchangeable lens, 203 camera body,
204 mount unit, 206 lens control device,
208 zooming lens, 209 lens, 210 focusing lens,
211 Aperture, 212 Image sensor, 213 Electrical contact,
214 body control device,
215 liquid crystal display element driving circuit, 216 liquid crystal display element, 217 eyepiece,
219 memory card, 221 AD converter,
310 imaging pixels, 315, 316 focus detection pixels,
1510, 1610, 1710 Solid line, 1720 hatched part

Claims (10)

光学系の瞳の第1及び第2の領域を通過する第1及び第2の光束が形成する第1及び第2の像を光電変換した複数の信号をそれぞれ有する第1及び第2の信号を出力するイメージセンサと、
前記第1及び第2の信号を相対的にシフトして相関演算し、前記第1及び第2の信号の相対的な第1のズレ量を検出する第1のズレ量検出部と、
前記第1のズレ量に基づき第1のデフォーカス量を算出する第1のデフォーカス量算出部と、
前記第1のデフォーカス量が定められた値以内である場合に、前記第1及び第2の信号を相対的にシフトする毎に加算して算出した複数の加算信号に基づき、前記第1及び第2の信号の相対的な第2のズレ量を検出する第2のズレ量検出部と、
前記第2のズレ量に基づき第2のデフォーカス量を算出する第2のデフォーカス量算出部と、を備え、
前記第1のデフォーカス量が前記定められた値を越える場合には、焦点調節のために前記第1のデフォーカス量を使用する焦点検出装置。
First and second signals respectively having a plurality of signals obtained by photoelectrically converting the first and second images formed by the first and second light fluxes passing through the first and second regions of the pupil of the optical system. An output image sensor;
A first shift amount detector that relatively shifts the first and second signals to perform a correlation operation and detects a relative first shift amount of the first and second signals;
A first defocus amount calculator that calculates a first defocus amount based on the first shift amount;
When the first defocus amount is within a predetermined value, the first and second signals are added based on a plurality of addition signals calculated each time the first and second signals are relatively shifted. A second shift amount detection unit that detects a relative second shift amount of the second signal;
A second defocus amount calculation unit that calculates a second defocus amount based on the second shift amount;
A focus detection apparatus that uses the first defocus amount for focus adjustment when the first defocus amount exceeds the predetermined value.
光学系の瞳の第1及び第2の領域を通過する第1及び第2の光束が形成する第1及び第2の像を光電変換した複数の信号をそれぞれ有する第1及び第2の信号を出力するイメージセンサと、
前記第1及び第2の信号を相対的にシフトして相関演算し、前記第1及び第2の信号の相対的な第1のズレ量を検出する第1のズレ量検出部と、
前記第1のズレ量に基づき第1のデフォーカス量を算出する第1のデフォーカス量算出部と、
前記第1のデフォーカス量が定められた値以内であり、前記光学系の収差量が定められた値を超える場合に、前記第1及び第2の信号を相対的にシフトする毎に加算して算出した複数の加算信号に基づき、前記第1及び第2の信号の相対的な第2のズレ量を検出する第2のズレ量検出部と、
前記第2のズレ量とに基づき第2のデフォーカス量を算出する第2のデフォーカス量算出部と、を備え、
前記第1のデフォーカス量が定められた値以内であり、前記光学系の収差量が前記定められた値を超えない場合には、焦点調節のために前記第1のデフォーカス量を使用する焦点検出装置。
First and second signals respectively having a plurality of signals obtained by photoelectrically converting the first and second images formed by the first and second light fluxes passing through the first and second regions of the pupil of the optical system. An output image sensor;
A first shift amount detector that relatively shifts the first and second signals to perform a correlation operation and detects a relative first shift amount of the first and second signals;
A first defocus amount calculator that calculates a first defocus amount based on the first shift amount;
When the first defocus amount is within a predetermined value and the aberration amount of the optical system exceeds a predetermined value, the first and second signals are added each time they are relatively shifted. A second deviation amount detection unit that detects a relative second deviation amount of the first and second signals based on the plurality of addition signals calculated in the above;
A second defocus amount calculator that calculates a second defocus amount based on the second shift amount,
When the first defocus amount is within a predetermined value and the aberration amount of the optical system does not exceed the predetermined value, the first defocus amount is used for focus adjustment. Focus detection device.
光学系の瞳の第1及び第2の領域を通過する第1及び第2の光束が形成する第1及び第2の像を光電変換した複数の信号をそれぞれ有する第1及び第2の信号を出力するイメージセンサと、
前記第1及び第2の信号を相対的にシフトして相関演算し、前記第1及び第2の信号の相対的な第1のズレ量を検出する第1のズレ量検出部と、
前記第1及び第2の信号を相対的にシフトする毎に加算して算出した複数の加算信号に基づき、前記第1及び第2の信号の相対的な第2のズレ量を検出する第2のズレ量検出部と、
前記光学系の収差量が定められた値以下の場合には前記第1のズレ量を使用し、前記収差量が前記定められた値を超える場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記光学系の絞りF値が定められた値以上の場合には前記第1のズレ量を使用し、前記絞りF値が前記定められた値未満の場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記光学系の射出瞳距離が定められた範囲以内の場合には前記第1のズレ量を使用し、前記射出瞳距離が前記定められた範囲外の場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記光学系の光軸に対する前記第1及び第2の像の像高が定められた値未満の場合には前記第1のズレ量を使用し、前記像高が前記定められた値以上の場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は焦点検出速度優先処理を行う場合には前記第1のズレ量を使用し、焦点検出精度優先処理を行う場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する、又は前記第1及び第2の像の鮮鋭度、解像度、又は周波数特性に基づいて評価した像品質が良好でない場合には前記第1のズレ量を使用し、前記像品質が良好である場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算する焦点演算部と
を有する焦点検出装置。
First and second signals respectively having a plurality of signals obtained by photoelectrically converting the first and second images formed by the first and second light fluxes passing through the first and second regions of the pupil of the optical system. An output image sensor;
A first shift amount detector that relatively shifts the first and second signals to perform a correlation operation and detects a relative first shift amount of the first and second signals;
A second detecting the relative second shift amount of the first and second signals based on a plurality of addition signals calculated by adding each time the first and second signals are relatively shifted; A deviation amount detection unit,
When the aberration amount of the optical system is equal to or smaller than a predetermined value, the first deviation amount is used, and when the aberration amount exceeds the predetermined value, the second deviation amount is used. The control amount of the focus adjustment lens of the optical system is calculated, or when the aperture F value of the optical system is equal to or greater than a predetermined value, the first shift amount is used, and the aperture F value is determined. If the value is less than a predetermined value, the control amount of the focusing lens of the optical system is calculated using the second shift amount, or the exit pupil distance of the optical system is within a predetermined range. A first shift amount is used, and when the exit pupil distance is outside the predetermined range, a control amount of the focus adjustment lens of the optical system is calculated using the second shift amount; or If the image height of the first and second images with respect to the optical axis of the optical system is less than a predetermined value, A first shift amount is used, and when the image height is equal to or greater than the predetermined value, a control amount of the focus adjustment lens of the optical system is calculated using the second shift amount, or focus detection The first shift amount is used when speed priority processing is performed, and the control amount of the focus adjustment lens of the optical system is calculated using the second shift amount when focus detection accuracy priority processing is performed. If the image quality evaluated based on the sharpness, resolution, or frequency characteristics of the first and second images is not good, the first shift amount is used, and the image quality is good. In some cases, the focus detection apparatus includes a focus calculation unit that calculates a control amount of the focus adjustment lens of the optical system using the second shift amount.
請求項3に記載の焦点検出装置において、
被写体輝度を検出する輝度検出部を備え、
前記焦点演算部は、前記焦点検出速度優先処理を行う場合には前記第1のズレ量を使用し、前記焦点検出精度優先処理を行う場合には前記第2のズレ量を使用して前記光学系の焦点調節レンズの制御量を演算し、
前記焦点演算部は、前記被写体輝度が定められた値未満である場合に、前記焦点検出速度優先処理を行い、前記被写体輝度が前記定められた値以上である場合に、前記焦点検出精度優先処理を行う焦点検出装置。
The focus detection apparatus according to claim 3,
Provided with a luminance detection unit that detects subject luminance,
The focus calculation unit uses the first shift amount when the focus detection speed priority process is performed, and uses the second shift amount when the focus detection accuracy priority process is performed. Calculate the control amount of the focusing lens of the system,
The focus calculation unit performs the focus detection speed priority processing when the subject luminance is less than a predetermined value, and performs the focus detection accuracy priority processing when the subject luminance is equal to or higher than the predetermined value. A focus detection device.
請求項4に記載の焦点検出装置において、
被写体が移動被写体か、静止被写体かを検出する移動検出部を備え、
前記焦点演算部は、前記被写体が移動被写体である場合に、前記焦点検出速度優先処理を行い、前記被写体が静止被写体である場合に、前記焦点検出精度優先処理を行う焦点検出装置。
The focus detection apparatus according to claim 4,
A movement detection unit that detects whether the subject is a moving subject or a stationary subject,
The focus detection unit is configured to perform the focus detection speed priority process when the subject is a moving subject and perform the focus detection accuracy priority process when the subject is a stationary subject.
請求項4又は5に記載の焦点検出装置において、
前記焦点検出装置のブレ量を検出するブレ量検出部を備え、
前記焦点演算部は、前記ブレ量が定められた値以上である場合に、前記焦点検出速度優先処理を行い、前記ブレ量が前記定められた値未満である場合に、前記焦点検出精度優先処理を行う焦点検出装置。
The focus detection apparatus according to claim 4 or 5,
A blur amount detector for detecting a blur amount of the focus detection device;
The focus calculation unit performs the focus detection speed priority process when the blur amount is equal to or greater than a predetermined value, and performs the focus detection accuracy priority process when the blur amount is less than the predetermined value. A focus detection device.
請求項1〜6のいずれか1項に記載の焦点検出装置において、
前記第2のズレ量検出部は、前記複数の加算信号に基づき前記加算信号の鮮鋭度、解像度、コントラスト又は周波数特性に関する前記シフト毎の複数の像品質評価値を算出し、前記像品質評価値に基づき前記第2のズレ量を検出する焦点検出装置。
The focus detection apparatus according to any one of claims 1 to 6,
The second shift amount detection unit calculates a plurality of image quality evaluation values for each shift related to sharpness, resolution, contrast, or frequency characteristics of the addition signal based on the plurality of addition signals, and the image quality evaluation value A focus detection device that detects the second shift amount based on the above.
請求項7に記載の焦点検出装置において、
前記第2のズレ量検出部は、前記シフト毎の複数の前記像品質評価値のうち定められた値になるときの前記像品質評価値に対応する前記第1及び第2の信号の相対的なシフト量を、前記第2のズレ量として検出する焦点検出装置。
The focus detection apparatus according to claim 7,
The second shift amount detection unit is configured to determine a relative value of the first and second signals corresponding to the image quality evaluation value when the value becomes a predetermined value among the plurality of image quality evaluation values for each shift. A focus detection device that detects a shift amount as the second shift amount.
請求項8に記載の焦点検出装置において、
前記定められた値は、前記像品質評価値のうちの最大値である焦点検出装置。
The focus detection apparatus according to claim 8, wherein
The determined value is a focus detection device that is a maximum value of the image quality evaluation values.
請求項1〜9のいずれか1項に記載の焦点検出装置と、
前記第1及び第2のズレ量検出部の前記第1及び第2のズレ量に基づき前記光学系の焦点を調節する焦点調節部と、を備える撮像装置。
The focus detection device according to any one of claims 1 to 9,
An imaging apparatus comprising: a focus adjustment unit that adjusts a focus of the optical system based on the first and second deviation amounts of the first and second deviation amount detection units.
JP2016208481A 2016-10-25 2016-10-25 Focus detection apparatus and imaging apparatus Active JP6237858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016208481A JP6237858B2 (en) 2016-10-25 2016-10-25 Focus detection apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016208481A JP6237858B2 (en) 2016-10-25 2016-10-25 Focus detection apparatus and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012105849A Division JP2013235047A (en) 2012-05-07 2012-05-07 Focus detection device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017212926A Division JP6638714B2 (en) 2017-11-02 2017-11-02 Focus detection device

Publications (2)

Publication Number Publication Date
JP2017027080A true JP2017027080A (en) 2017-02-02
JP6237858B2 JP6237858B2 (en) 2017-11-29

Family

ID=57945897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016208481A Active JP6237858B2 (en) 2016-10-25 2016-10-25 Focus detection apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6237858B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049281A (en) * 2017-11-02 2018-03-29 株式会社ニコン Focus detection device and imaging device

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199052A (en) * 1993-12-28 1995-08-04 Olympus Optical Co Ltd Focus detecting method and distance measuring method
JP2003156677A (en) * 2001-11-21 2003-05-30 Canon Inc Imaging device, imaging unit and its control method, and focus detection method
JP2007233035A (en) * 2006-03-01 2007-09-13 Nikon Corp Focusing device and imaging apparatus
JP2007333720A (en) * 2006-05-17 2007-12-27 Nikon Corp Correlation calculation method, correlation calculation device, focus detecting device, and imaging device
US20080302947A1 (en) * 2007-06-11 2008-12-11 Nikon Corporation Focus detection device and image pick-up device
JP2009063921A (en) * 2007-09-07 2009-03-26 Canon Inc Imaging apparatus
JP2009069577A (en) * 2007-09-14 2009-04-02 Canon Inc Imaging apparatus
JP2009175528A (en) * 2008-01-25 2009-08-06 Nikon Corp Focus-adjusting apparatus and imaging apparatus
JP2009251523A (en) * 2008-04-10 2009-10-29 Nikon Corp Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus
JP2010008443A (en) * 2008-06-24 2010-01-14 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
JP2011097645A (en) * 2011-01-31 2011-05-12 Nikon Corp Image synthesizing apparatus, imaging apparatus, and image synthesizing method

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199052A (en) * 1993-12-28 1995-08-04 Olympus Optical Co Ltd Focus detecting method and distance measuring method
US5572011A (en) * 1993-12-28 1996-11-05 Olympus Optical Co., Ltd. Focus detecting method and distance measuring method with a plurality of light fluxes and a contrast operation
JP2003156677A (en) * 2001-11-21 2003-05-30 Canon Inc Imaging device, imaging unit and its control method, and focus detection method
JP2007233035A (en) * 2006-03-01 2007-09-13 Nikon Corp Focusing device and imaging apparatus
JP2007333720A (en) * 2006-05-17 2007-12-27 Nikon Corp Correlation calculation method, correlation calculation device, focus detecting device, and imaging device
US20080302947A1 (en) * 2007-06-11 2008-12-11 Nikon Corporation Focus detection device and image pick-up device
JP2008304808A (en) * 2007-06-11 2008-12-18 Nikon Corp Focus detection device and imaging device
JP2009063921A (en) * 2007-09-07 2009-03-26 Canon Inc Imaging apparatus
JP2009069577A (en) * 2007-09-14 2009-04-02 Canon Inc Imaging apparatus
JP2009175528A (en) * 2008-01-25 2009-08-06 Nikon Corp Focus-adjusting apparatus and imaging apparatus
JP2009251523A (en) * 2008-04-10 2009-10-29 Nikon Corp Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus
JP2010008443A (en) * 2008-06-24 2010-01-14 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
JP2011097645A (en) * 2011-01-31 2011-05-12 Nikon Corp Image synthesizing apparatus, imaging apparatus, and image synthesizing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049281A (en) * 2017-11-02 2018-03-29 株式会社ニコン Focus detection device and imaging device

Also Published As

Publication number Publication date
JP6237858B2 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
WO2013168658A1 (en) Focus detection device
JP5458475B2 (en) Focus detection apparatus and imaging apparatus
US8730374B2 (en) Focus detection apparatus
JP4802993B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP5066893B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP5966426B2 (en) Focus detection device
JP2013235047A (en) Focus detection device
JP5157084B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5423111B2 (en) Focus detection apparatus and imaging apparatus
JP5963552B2 (en) Imaging device
JP6237858B2 (en) Focus detection apparatus and imaging apparatus
JP5600941B2 (en) Focus detection apparatus and imaging apparatus
JP5338112B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5804105B2 (en) Imaging device
JP6003198B2 (en) Focus detection device
US20220159191A1 (en) Image pickup apparatus
JP5338113B2 (en) Correlation calculation device, focus detection device, and imaging device
JP6638714B2 (en) Focus detection device
JP5338119B2 (en) Correlation calculation device, focus detection device, and imaging device
JP4968009B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP4968010B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2012226088A (en) Imaging apparatus
US20220232166A1 (en) Range measurement apparatus, storage medium and range measurement method
JP2018026604A (en) Imaging device and imaging device system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R150 Certificate of patent or registration of utility model

Ref document number: 6237858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250