JP2018200480A - Imaging device and imaging system - Google Patents

Imaging device and imaging system Download PDF

Info

Publication number
JP2018200480A
JP2018200480A JP2018140372A JP2018140372A JP2018200480A JP 2018200480 A JP2018200480 A JP 2018200480A JP 2018140372 A JP2018140372 A JP 2018140372A JP 2018140372 A JP2018140372 A JP 2018140372A JP 2018200480 A JP2018200480 A JP 2018200480A
Authority
JP
Japan
Prior art keywords
light
intensity distribution
sensor
imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018140372A
Other languages
Japanese (ja)
Inventor
優 稲垣
Masaru Inagaki
優 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018140372A priority Critical patent/JP2018200480A/en
Publication of JP2018200480A publication Critical patent/JP2018200480A/en
Priority to JP2020084557A priority patent/JP6938719B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

To provide an imaging device and imaging system that can create a highly accurate point image intensity distribution taking an imaging lens or manufacturing variation of an imaging device main body into consideration.SOLUTION: An imaging device comprises a point image intensity distribution creation unit that creates a point image intensity distribution on the basis of: lens light field data including information about a direction of a plurality of light fluxes emitted from one point of a subject position, and passing through mutually different regions of an exit pupil of an image formation optical system, and information about a position of a point on the plurality of light fluxes; and a sensor light reception intensity characteristic indicative of light reception intensity on a light reception surface of an image pick-up element of the light flux passing through each region of an entrance pupil of a micro lens disposed on the image pick-up element.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置及び撮像システムに関する。   The present invention relates to an imaging apparatus and an imaging system.

光束の分布を示す情報と結像光学系の口径情報とに基づいて、焦点検出補正を行う焦点検出装置および光学システムが提案されている。   A focus detection device and an optical system that perform focus detection correction based on information indicating the distribution of light beams and aperture information of the imaging optical system have been proposed.

特許文献1では、光束の分布を示す情報と結像光学系の口径情報とに基づいて、一対の像のズレ量を結像光学系のデフォーカス量に変換するための変換係数を算出することが開示されている。
また、予め算出された点像強度分布に基づいて、焦点検出補正、画像処理を行う撮像装置及び撮像システムが提案されている。
In Patent Document 1, a conversion coefficient for converting a shift amount of a pair of images into a defocus amount of the imaging optical system is calculated based on information indicating the distribution of light beams and aperture information of the imaging optical system. Is disclosed.
In addition, an imaging apparatus and an imaging system that perform focus detection correction and image processing based on a pre-calculated point image intensity distribution have been proposed.

特許文献2では、撮影光学系の収差に起因した、射出瞳を通過する一対の光束による一対の像の形状の相違に応じて定まる所定のオフセット量を取得することが開示されている。   Patent Document 2 discloses that a predetermined offset amount determined according to a difference in the shape of a pair of images caused by a pair of light beams passing through an exit pupil due to an aberration of a photographing optical system is disclosed.

特許文献3では、撮影状態に応じて、入力画像に対して画像回復処理を行うか否かを判定し、画像回復処理を行うと判定された場合に限り、画像回復フィルタを取得し、入力画像に対する画像回復処理を行うことが開示されている。   In Patent Document 3, it is determined whether or not an image restoration process is performed on an input image according to a shooting state, and an image restoration filter is acquired only when it is determined that an image restoration process is performed. It is disclosed that an image restoration process is performed on the image.

特開2007−121896号公報JP 2007-121896 A 特開2013−171251号公報JP2013-171251A 特開2014−7493号公報JP 2014-7493 A

しかしながら、撮影レンズや撮像装置本体には、製造ばらつき等が存在する。かかる製造ばらつき等を加味した高精度な点像強度分布を生成することは、容易ではない。   However, there are manufacturing variations and the like in the photographing lens and the imaging apparatus main body. It is not easy to generate a highly accurate point image intensity distribution in consideration of such manufacturing variations.

本発明の目的は、撮影レンズや撮像装置本体の製造ばらつき等を加味した高精度な点像強度分布を生成し得る撮像装置及び撮像システムを提供することにある。   An object of the present invention is to provide an imaging apparatus and an imaging system capable of generating a highly accurate point image intensity distribution that takes into account manufacturing variations of the imaging lens and the imaging apparatus main body.

本発明の一観点によれば、光軸上の複数の位置の各々における点像強度分布に基づいて算出された検出された合焦位置を補正するための補正値を、レンズの収差のデータ及びセンサ受光強度特性に基づいて算出し、前記点像強度分布は、点光源からの光が撮像素子の受光面に達した際の光強度分布を示し、前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示し、前記撮像素子の入射瞳の各領域を通過する光束は、前記撮像素子の分割画素によってそれぞれ受光される情報処理装置が提供される。   According to one aspect of the present invention, the correction value for correcting the detected in-focus position calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis, the lens aberration data, and The point light intensity distribution is calculated based on the sensor light reception intensity characteristic, and the point image intensity distribution indicates a light intensity distribution when the light from the point light source reaches the light receiving surface of the image pickup element. The sensor light reception intensity characteristic is calculated on the image pickup element. The light receiving intensity of the light beam passing through each area of the entrance pupil of the image sensor arranged on the light receiving surface of the image sensor, and the light beam passing through each area of the entrance pupil of the image sensor is divided by the image sensor An information processing apparatus that receives light by each pixel is provided.

本発明の別の観点によれば、光軸上の複数の位置の各々における点像強度分布に基づいて算出された、検出された合焦位置を補正するための補正値を記憶装置から読み出し、
前記点像強度分布は、点光源からの光が撮像素子の受光面に達した際の光強度分布を示し、かつレンズの収差のデータ及びセンサ受光強度特性に基づいて予め算出されており、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示し、前記撮像素子の入射瞳の各領域を通過する光束は、前記撮像素子の分割画素によってそれぞれ受光される情報処理方法が提供される。
According to another aspect of the present invention, a correction value for correcting the detected in-focus position calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis is read from the storage device,
The point image intensity distribution indicates a light intensity distribution when the light from the point light source reaches the light receiving surface of the image sensor, and is calculated in advance based on lens aberration data and sensor light reception intensity characteristics,
The sensor light-receiving intensity characteristic indicates a light-receiving intensity at a light-receiving surface of the imaging element of a light beam passing through each area of the entrance pupil of the imaging element arranged on the imaging element, and each area of the entrance pupil of the imaging element An information processing method is provided in which light beams passing through the light are received by the divided pixels of the image sensor.

本発明によれば、撮影レンズや撮像装置本体の製造ばらつき等を加味した高精度な点像強度分布を生成し得る撮像装置及び撮像システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device and imaging system which can produce | generate the highly accurate point image intensity distribution which considered the manufacture variation etc. of a photographic lens and an imaging device main body can be provided.

本発明の第1実施形態による撮像装置の構成の概略を示すブロック図である。1 is a block diagram illustrating an outline of a configuration of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1実施形態による撮像装置において用いられる撮像素子の一部を示す平面図である。It is a top view which shows a part of image pick-up element used in the imaging device by 1st Embodiment of this invention. 撮像素子の画素部を示す平面図及び断面図である。It is the top view and sectional drawing which show the pixel part of an image pick-up element. 射出瞳と画素部との関係を示す概略図である。It is the schematic which shows the relationship between an exit pupil and a pixel part. 射出瞳と撮像素子との関係を示す概略図である。It is the schematic which shows the relationship between an exit pupil and an image pick-up element. 本発明の第1実施形態による撮像装置のオートフォーカス動作の処理の全体像を示すフローチャートである。3 is a flowchart illustrating an overall image of an autofocus operation process of the imaging apparatus according to the first embodiment of the present invention. 本発明の第1実施形態による撮像装置における焦点検出処理を示すフローチャートである。It is a flowchart which shows the focus detection process in the imaging device by 1st Embodiment of this invention. デフォーカス量と像ずれ量と関係を示す図である。It is a figure which shows the relationship between a defocus amount and an image shift amount. シェーディングを説明するための概略図である。It is the schematic for demonstrating shading. フィルタの周波数特性を示すグラフである。It is a graph which shows the frequency characteristic of a filter. 点像強度分布を説明するための図である。It is a figure for demonstrating point image intensity distribution. 点像強度分布を示す図である。It is a figure which shows point image intensity distribution. 本発明の第1実施形態による撮像装置の点像強度分布生成処理を示すフローチャートである。It is a flowchart which shows the point image intensity distribution production | generation process of the imaging device by 1st Embodiment of this invention. レンズライトフィールドデータとセンサ受光強度特性と点像強度分布との関係を示す図である。It is a figure which shows the relationship between lens light field data, sensor light-receiving intensity | strength characteristics, and point image intensity distribution. センサ受光強度特性を示す概略図である。It is the schematic which shows a sensor light-receiving intensity characteristic. 撮像素子の型式の相違によるセンサ受光強度特性の相違を示すグラフである。It is a graph which shows the difference in the sensor light reception intensity characteristic by the difference in the type of an image pick-up element. 撮像素子を取り付ける際のずれがセンサ受光強度特性に及ぼす影響を示す概略図である。It is the schematic which shows the influence which the shift | offset | difference at the time of attaching an image pick-up element has on a sensor light reception intensity characteristic. レンズライトフィールドデータを2次元的に示す概略図である。It is the schematic which shows lens light field data two-dimensionally. 収差の有無と光束の集光との関係を示す概略図である。It is the schematic which shows the relationship between the presence or absence of an aberration, and condensing of a light beam. レンズライトフィールドデータの形成方法を示す概略図であるIt is the schematic which shows the formation method of lens light field data. 本発明の第1実施形態による撮像装置におけるデフォーカス量補正処理を示すフローチャートである。3 is a flowchart illustrating a defocus amount correction process in the imaging apparatus according to the first embodiment of the present invention. 点像強度分布を示す概略図である。It is the schematic which shows point image intensity distribution. コントラスト評価値を示す概略図である。It is the schematic which shows a contrast evaluation value. デフォーカスオフセット量の発生原理を示す概略図である。It is the schematic which shows the generation principle of a defocus offset amount. 本発明の第2実施形態による撮像システムの構成を示す概略図である。It is the schematic which shows the structure of the imaging system by 2nd Embodiment of this invention. 本発明の第2実施形態による撮像システムの動作の概略を示すフローチャートである。It is a flowchart which shows the outline of operation | movement of the imaging system by 2nd Embodiment of this invention.

以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

[第1実施形態]
本発明の第1実施形態による撮像装置について図面を用いて説明する。
[First Embodiment]
An imaging apparatus according to a first embodiment of the present invention will be described with reference to the drawings.

[撮像装置の構成]
まず、本実施形態による撮像装置の構成について説明する。図1は、本実施形態による撮像装置の構成の概略を示すブロック図である。
なお、ここでは、撮像装置が、レンズ交換式のデジタル一眼レフカメラである場合を例に説明するが、これに限定されるものではない。
[Configuration of imaging device]
First, the configuration of the imaging apparatus according to the present embodiment will be described. FIG. 1 is a block diagram illustrating an outline of the configuration of the imaging apparatus according to the present embodiment.
Here, a case where the imaging apparatus is a lens interchangeable digital single-lens reflex camera will be described as an example, but the present invention is not limited to this.

本実施形態による撮像装置(カメラ)10は、レンズユニット100と撮像装置本体(カメラ本体、ボディ)120とを有している。レンズユニット100は、図1の中央部において点線で示したマウントMを介して、撮像装置本体(カメラ本体)120に接続される。   An imaging apparatus (camera) 10 according to the present embodiment includes a lens unit 100 and an imaging apparatus main body (camera main body, body) 120. The lens unit 100 is connected to an imaging apparatus main body (camera main body) 120 via a mount M indicated by a dotted line in the central portion of FIG.

レンズユニット100は、撮影レンズ105とレンズ駆動/制御系119とを含んでいる。   The lens unit 100 includes a photographing lens 105 and a lens drive / control system 119.

撮影レンズ105は、被写体の光学像、即ち、被写体像を形成するためのものである。撮影レンズ105は、第1のレンズ群101、絞り兼用シャッタ102、第2のレンズ群103、及び、フォーカスレンズ群(以下、「フォーカスレンズ」という)104を含んでいる。第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、及び、フォーカスレンズ104は、被写体の像を撮像素子122上に結像するための結像光学系(撮影光学系、撮像光学系)133を構成している。   The photographing lens 105 is for forming an optical image of a subject, that is, a subject image. The taking lens 105 includes a first lens group 101, a diaphragm / shutter 102, a second lens group 103, and a focus lens group (hereinafter referred to as “focus lens”) 104. The first lens group 101, the stop / shutter 102, the second lens group 103, and the focus lens 104 are an imaging optical system (imaging optical system, imaging optical system) for forming an image of a subject on the image sensor 122. ) 133 is configured.

レンズ駆動/制御系119は、レンズユニット100に関する駆動/制御を行うためのものである。レンズ駆動/制御系119は、ズームアクチュエータ111、絞りシャッタアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116、及び、レンズMPU117を含んでいる。更に、レンズ駆動/制御系119は、レンズメモリ118を含んでいる。   The lens drive / control system 119 is for performing drive / control on the lens unit 100. The lens drive / control system 119 includes a zoom actuator 111, an aperture shutter actuator 112, a focus actuator 113, a zoom drive circuit 114, an aperture shutter drive circuit 115, a focus drive circuit 116, and a lens MPU 117. Further, the lens driving / control system 119 includes a lens memory 118.

第1のレンズ群101は、レンズユニット100の先端部に配されており、光軸方向OAに進退可能に保持されている。絞り兼用シャッタ102は、その開口径を調節することによって、撮影時の光量調節を行う。また、絞り兼用シャッタ102は、静止画の撮影時には、露光秒時調節用シャッタとしても機能する。絞り兼用シャッタ102及び第2のレンズ群103は、光軸方向OAに一体的に進退動作する。第2のレンズ群103の進退動作と第1のレンズ群101の進退動作との連動によって、ズーム機能が実現される。また、フォーカスレンズ104を光軸方向OAに進退させることにより、焦点調節が行われる。   The first lens group 101 is disposed at the tip of the lens unit 100 and is held so as to be able to advance and retract in the optical axis direction OA. The diaphragm / shutter 102 adjusts the light amount at the time of photographing by adjusting the aperture diameter. The diaphragm / shutter 102 also functions as an exposure time adjustment shutter when a still image is taken. The diaphragm / shutter 102 and the second lens group 103 move forward and backward integrally in the optical axis direction OA. The zoom function is realized by interlocking the advance / retreat operation of the second lens group 103 and the advance / retreat operation of the first lens group 101. Further, focus adjustment is performed by moving the focus lens 104 back and forth in the optical axis direction OA.

ズーム駆動回路114は、撮影者によるズーム操作に応じてズームアクチュエータ111を駆動し、第1のレンズ群101や第2のレンズ群103を光軸方向OAに進退動作させることで、ズーム操作を行う。絞りシャッタ駆動回路115は、絞りシャッタアクチュエータ112を駆動し、絞り兼用シャッタ102の開口径を制御することにより、撮影時の光量を調節する。また、絞りシャッタ駆動回路115は、静止画の撮影時には、露光秒時の制御をも行う。フォーカス駆動回路116は、焦点検出結果に基づいてフォーカスアクチュエータ113を駆動し、フォーカスレンズ104を光軸方向OAに進退動作させることによって、焦点調節を行う。また、フォーカスアクチュエータ113は、フォーカスレンズ104の現在の位置を検出するレンズ位置検出部としての機能をも有している。   The zoom drive circuit 114 drives the zoom actuator 111 according to the zoom operation by the photographer, and performs the zoom operation by moving the first lens group 101 and the second lens group 103 back and forth in the optical axis direction OA. . The aperture shutter drive circuit 115 drives the aperture shutter actuator 112 and controls the aperture diameter of the aperture / shutter 102 to adjust the amount of light during photographing. The aperture shutter drive circuit 115 also controls the exposure time when taking a still image. The focus driving circuit 116 performs focus adjustment by driving the focus actuator 113 based on the focus detection result and moving the focus lens 104 forward and backward in the optical axis direction OA. The focus actuator 113 also has a function as a lens position detection unit that detects the current position of the focus lens 104.

レンズMPU(MicroProcessor Unit)117は、レンズユニット100に関する様々な演算処理を行い、レンズユニット100全体の制御を司る。レンズMPU117は、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116、及び、レンズメモリ118の制御を行う。また、レンズMPU117は、現在のレンズ位置を検出し、後述するカメラMPU125からの要求に基づいて、レンズ位置情報をカメラMPU125に通知する。レンズ位置情報は、フォーカスレンズ104の光軸上の位置、結像光学系133の射出瞳の光軸上の位置や直径、射出瞳の光束を制限するレンズ枠(図示せず)の光軸上の位置や直径等の情報を含む。レンズメモリ118には、自動焦点調節(オートフォーカス)に必要な光学情報や、後述するレンズライトフィールドデータ等が記憶される。   A lens MPU (MicroProcessor Unit) 117 performs various arithmetic processes related to the lens unit 100 and controls the entire lens unit 100. The lens MPU 117 controls the zoom drive circuit 114, the aperture shutter drive circuit 115, the focus drive circuit 116, and the lens memory 118. The lens MPU 117 detects the current lens position, and notifies the lens position information to the camera MPU 125 based on a request from the camera MPU 125 described later. The lens position information includes the position on the optical axis of the focus lens 104, the position and diameter on the optical axis of the exit pupil of the imaging optical system 133, and the optical axis of a lens frame (not shown) that restricts the luminous flux of the exit pupil. Information such as the position and diameter of The lens memory 118 stores optical information necessary for automatic focus adjustment (autofocus), lens light field data to be described later, and the like.

一方、撮像装置本体120は、光学的LPF(ローパスフィルタ)121と、撮像素子122と、撮像装置制御/駆動系(カメラ制御/駆動系)131とを含んでいる。   On the other hand, the imaging apparatus main body 120 includes an optical LPF (low-pass filter) 121, an imaging element 122, and an imaging apparatus control / drive system (camera control / drive system) 131.

撮像装置制御/駆動系131は、撮像素子駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群127、メモリ128、撮像面位相差焦点検出部129、及び、TVAF焦点検出部130を含んでいる。   The imaging device control / drive system 131 includes an imaging device driving circuit 123, an image processing circuit 124, a camera MPU 125, a display 126, an operation switch group 127, a memory 128, an imaging plane phase difference focus detection unit 129, and a TVAF focus detection unit. 130 is included.

光学的LPF121は、撮影画像の偽色やモアレを軽減する。   The optical LPF 121 reduces false colors and moire in the captured image.

撮像素子122は、例えばCMOSイメージセンサである。撮像素子122は、後述するように、位相差方式の焦点検出(撮像面位相差AF)を行うための信号を出力することができる。撮像素子122によって取得される画像データのうちの、撮像面位相差AFのために用い得る画像データは、画像処理回路124によって焦点検出用画像データ(焦点検出信号)に変換され、カメラMPU125に入力される。一方、撮像素子122によって取得される画像データのうちの、表示、記録、コントラスト方式の焦点検出等のために用い得る画像データは、目的に応じて所定の処理が画像処理回路124によって行われ、カメラMPU125に入力される。   The image sensor 122 is a CMOS image sensor, for example. As will be described later, the image sensor 122 can output a signal for performing phase difference focus detection (imaging surface phase difference AF). Of the image data acquired by the image sensor 122, image data that can be used for the imaging plane phase difference AF is converted into image data for focus detection (focus detection signal) by the image processing circuit 124 and input to the camera MPU 125. Is done. On the other hand, among the image data acquired by the image sensor 122, image data that can be used for display, recording, contrast focus detection, and the like is subjected to predetermined processing by the image processing circuit 124 according to the purpose. Input to the camera MPU 125.

撮像素子駆動回路123は、撮像素子122の動作を制御するものである。撮像素子駆動回路123は、撮像素子122によって取得される画像信号をA/D変換し、カメラMPU125及び画像処理回路124に出力する。画像処理回路124は、撮像素子122によって取得される画像データに対して、γ変換、カラー補間、JPEG圧縮等を行う。   The image sensor drive circuit 123 controls the operation of the image sensor 122. The image sensor drive circuit 123 A / D converts the image signal acquired by the image sensor 122 and outputs the signal to the camera MPU 125 and the image processing circuit 124. The image processing circuit 124 performs γ conversion, color interpolation, JPEG compression, and the like on the image data acquired by the image sensor 122.

カメラMPU(撮像装置MPU)125は、撮像装置本体120に関する様々な演算処理を行い、撮像装置本体120全体の制御を司る。カメラMPU125は、撮像素子駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、撮像面位相差焦点検出部129、及び、TVAF焦点検出部130の制御を行う。また、カメラMPU125は、マウントMの信号線を介してレンズMPU117と接続されている。カメラMPU125は、レンズ位置情報の取得を要求するレンズ位置情報取得要求や、所定の駆動量でレンズを駆動することを要求するレンズ駆動要求を、レンズMPU117に対して出力する。また、カメラMPU125は、レンズユニット100に固有の光学情報も取得する。   A camera MPU (imaging device MPU) 125 performs various arithmetic processes related to the imaging device body 120 and controls the entire imaging device body 120. The camera MPU 125 controls the image sensor driving circuit 123, the image processing circuit 124, the display 126, the operation switch group 127, the memory 128, the imaging plane phase difference focus detection unit 129, and the TVAF focus detection unit 130. The camera MPU 125 is connected to the lens MPU 117 via the signal line of the mount M. The camera MPU 125 outputs to the lens MPU 117 a lens position information acquisition request for requesting acquisition of lens position information and a lens drive request for requesting driving of the lens by a predetermined driving amount. The camera MPU 125 also acquires optical information unique to the lens unit 100.

カメラMPU125には、撮像装置の動作を制御するプログラムが格納されたROM125a、変数を記憶するRAM125b、センサ受光強度特性や様々なパラメータを記憶するEEPROM125cが内蔵されている。   The camera MPU 125 includes a ROM 125a that stores a program for controlling the operation of the imaging apparatus, a RAM 125b that stores variables, and an EEPROM 125c that stores sensor light-receiving intensity characteristics and various parameters.

カメラMPU125は、後述するレンズライトフィールドデータと、後述するセンサ受光強度特性とに基づいて、後述する点像強度分布を生成するための演算を行う。   The camera MPU 125 performs a calculation for generating a point image intensity distribution described later based on lens light field data described later and sensor received light intensity characteristics described later.

なお、上述したように、本実施形態では、レンズライトフィールドデータは、例えばレンズメモリ118に記憶され、センサ受光強度特性は、例えばEEPROM125cに記憶される。レンズメモリ118は、レンズユニット100側(結像光学系側)の記憶部として機能し、EEPROM125は、撮像装置本体120側の記憶部として機能する。   As described above, in the present embodiment, the lens light field data is stored in, for example, the lens memory 118, and the sensor light reception intensity characteristic is stored in, for example, the EEPROM 125c. The lens memory 118 functions as a storage unit on the lens unit 100 side (imaging optical system side), and the EEPROM 125 functions as a storage unit on the imaging apparatus main body 120 side.

表示器126は、LCD等によって構成されている。表示器126は、撮像装置の撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、焦点検出時の合焦状態の表示画像等を表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等により構成されている。メモリ128は、例えば、フラッシュメモリ等の着脱可能なメモリである。メモリ128は、撮影済みの画像を記録する。   The display 126 is composed of an LCD or the like. The display 126 displays information related to the shooting mode of the imaging apparatus, a preview image before shooting, a confirmation image after shooting, a display image of a focused state at the time of focus detection, and the like. The operation switch group 127 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory 128 is a detachable memory such as a flash memory, for example. The memory 128 records captured images.

撮像面位相差焦点検出部129は、画像処理回路124による画像処理によって得られる焦点検出用画像データ(焦点検出信号)に基づいて、位相差方式の焦点検出(撮像面位相差AF)を行う。即ち、撮像面位相差焦点検出部129は、撮影光学系133の一対の瞳領域を通過する光束によって分割画素201、202(図2参照)に形成される一対の像のずれ量に基づいて、撮像面位相差AFを行う。なお、撮像面位相差AFについては、後に詳細に説明する。   The imaging surface phase difference focus detection unit 129 performs phase difference type focus detection (imaging surface phase difference AF) based on focus detection image data (focus detection signal) obtained by image processing by the image processing circuit 124. That is, the imaging plane phase difference focus detection unit 129 is based on the amount of deviation of a pair of images formed on the divided pixels 201 and 202 (see FIG. 2) by a light beam passing through a pair of pupil regions of the photographing optical system 133. Imaging surface phase difference AF is performed. The imaging surface phase difference AF will be described later in detail.

TVAF焦点検出部130は、画像処理回路124による画像処理によって得られる画像情報のコントラスト成分によって、TVAF評価値を算出し、コントラスト方式の焦点検出処理(TVAF)を行う。コントラスト方式の焦点検出処理では、フォーカスレンズ104を移動させながら、複数のフォーカスレンズ位置においてTVAF評価値を算出し、TVAF評価値が最大となるフォーカスレンズ位置を検出する。TVAF評価値は、ピントが合うにつれて大きくなり、合焦点において最大となる。   The TVAF focus detection unit 130 calculates a TVAF evaluation value based on the contrast component of the image information obtained by the image processing by the image processing circuit 124, and performs contrast-type focus detection processing (TVAF). In the contrast-type focus detection process, while moving the focus lens 104, TVAF evaluation values are calculated at a plurality of focus lens positions, and the focus lens position where the TVAF evaluation value is maximized is detected. The TVAF evaluation value increases as focus is achieved, and is maximized at the focal point.

[撮像素子]
次に、本実施形態による撮像装置において用いられる撮像素子について説明する。図2は、本実施形態による撮像装置において用いられる撮像素子の一部を示す平面図である。
[Image sensor]
Next, the image sensor used in the imaging apparatus according to the present embodiment will be described. FIG. 2 is a plan view showing a part of the image sensor used in the imaging apparatus according to the present embodiment.

本実施形態において用いられる撮像素子122は、上述したように、例えばCMOSイメージセンサである。撮像素子122の画素アレイ領域(図示せず)には、撮像画素(画素)200(図2参照)が2次元的、即ち、マトリクス状に配列されている。画素アレイ領域の周囲には、読み出し回路を含む周辺回路(図示せず)が配されている。図2においては、赤色(R)に感応する撮像画素が符号200Rを用いて示されており、緑色(G)に感応する撮像画素が符号200Gを用いて示されており、青色(B)に感応する撮像画素が符号200Bを用いて示されている。感応する色を特に区別しないで説明する場合には、符号200を用いて説明することとする。   As described above, the image sensor 122 used in the present embodiment is, for example, a CMOS image sensor. In a pixel array region (not shown) of the imaging element 122, imaging pixels (pixels) 200 (see FIG. 2) are arranged two-dimensionally, that is, in a matrix. A peripheral circuit (not shown) including a readout circuit is disposed around the pixel array region. In FIG. 2, an imaging pixel sensitive to red (R) is indicated by reference numeral 200R, an imaging pixel sensitive to green (G) is indicated by reference numeral 200G, and blue (B). Sensitive imaging pixels are indicated with the reference 200B. When the description is made without distinguishing the sensitive colors, the description will be made using the reference numeral 200.

各々の撮像画素200は、2つの分割画素(分割領域)201、202をそれぞれ含んでいる。即ち、各々の撮像画素200は、2列×1行に配列された第1の分割画素201と第2の分割画素202をそれぞれ含んでいる。第1の分割画素201の重心は、撮像画素200において−X方向に偏心している。第2の分割画素202の重心は、撮像画素200において+X方向に偏心している。   Each imaging pixel 200 includes two divided pixels (divided regions) 201 and 202, respectively. That is, each imaging pixel 200 includes a first divided pixel 201 and a second divided pixel 202 arranged in 2 columns × 1 row, respectively. The center of gravity of the first divided pixel 201 is eccentric in the −X direction in the imaging pixel 200. The center of gravity of the second divided pixel 202 is eccentric in the + X direction in the imaging pixel 200.

図2には、4列×4行の撮像画素200の配列が抜き出して示されている。1つの撮像画素200は、2つの分割画素201、202を含むため、図2には、8列×4行の分割画素201,202の配列が抜き出して示されている。   FIG. 2 shows an array of 4 columns × 4 rows of imaging pixels 200 extracted. Since one imaging pixel 200 includes two divided pixels 201 and 202, FIG. 2 shows an array of divided pixels 201 and 202 of 8 columns × 4 rows.

2列×2行の撮像画素200によって、1つの画素群203が構成されている。図2においては、各々の画素群203を太い実線を用いて示している。1つの画素群203は、赤色に感応する1つの撮像画素200Rと、緑色に感応する2つの撮像画素200Gと、青色に感応する1つの撮像画素200Bとにより構成されている。赤色に感応する撮像画素200Rは、画素群203のうちの左上の位置に配されている。緑色に感応する撮像画素200Gは、画素群203のうちの右上と左下の位置に配されている。青色に感応する撮像画素200Bは、画素群203のうちの右下の位置に配されている。このような画素配列は、ベイヤー配列と称されている。   One pixel group 203 is constituted by the imaging pixels 200 of 2 columns × 2 rows. In FIG. 2, each pixel group 203 is shown using a thick solid line. One pixel group 203 includes one imaging pixel 200R sensitive to red, two imaging pixels 200G sensitive to green, and one imaging pixel 200B sensitive to blue. The imaging pixel 200 </ b> R that is sensitive to red is disposed at the upper left position in the pixel group 203. The imaging pixels 200 </ b> G that are sensitive to green are arranged at the upper right and lower left positions in the pixel group 203. The imaging pixel 200 </ b> B that is sensitive to blue is arranged at a lower right position in the pixel group 203. Such a pixel array is called a Bayer array.

このような画素群203が撮像素子122の撮像面(受光面)に2次元的に多数配置されているため、撮像素子122は明瞭且つ高精度な撮影画像を取得することができる。   Since a large number of such pixel groups 203 are two-dimensionally arranged on the imaging surface (light receiving surface) of the image sensor 122, the image sensor 122 can acquire a clear and highly accurate captured image.

撮像画素200のピッチ(周期)Pは、例えば4μmに設定されている。列方向(X軸方向)における撮像画素200の配列数は、例えば5575に設定されており、行方向(Y軸方向)における撮像画素200の配列数は、例えば3725個に設定されている。即ち、撮像素子122の画素数(有効画素数)Nは、例えば約2075万画素に設定されている。なお、撮像素子122の水平方向(列方向、横方向)(図2における紙面左右方向)をX軸方向とし、撮像素子122の垂直方向(行方向、縦方向)(図2における紙面上下方向)をY軸方向とする。また、撮像素子122の撮像面の法線方向(図2における紙面法線方向)をZ軸方向とする。   The pitch (period) P of the imaging pixels 200 is set to 4 μm, for example. The number of image pickup pixels 200 in the column direction (X-axis direction) is set to 5575, for example, and the number of image pickup pixels 200 in the row direction (Y-axis direction) is set to 3725, for example. That is, the number of pixels (number of effective pixels) N of the image sensor 122 is set to, for example, about 20.75 million pixels. The horizontal direction (column direction, horizontal direction) of the image sensor 122 (left and right direction in FIG. 2) is the X axis direction, and the vertical direction (row direction, vertical direction) of the image sensor 122 (up and down direction in FIG. 2). Is the Y-axis direction. The normal direction of the image pickup surface of the image sensor 122 (the normal direction of the paper surface in FIG. 2) is the Z-axis direction.

上述したように、各々の撮像画素200は、2列×1行で配列された第1の分割画素201と第2の分割画素202とによってそれぞれ構成されている。このため、列方向(X軸方向)における分割画素201、202のピッチ(周期)PAFは、例えば2μmとなっている。列方向(X軸方向)における分割画素201、202の数は、例えば11150となっている。行方向(Y軸方向)における分割画素201、202の数は、例えば3725となっている。撮像素子122の分割画素数NAFは、例えば約4150万画素となっている。 As described above, each imaging pixel 200 is configured by the first divided pixel 201 and the second divided pixel 202 arranged in 2 columns × 1 row. Thus, the column direction (X axis direction) pitch of the divided pixels 201 and 202 in (cycle) P AF is, e.g., 2 [mu] m. The number of divided pixels 201 and 202 in the column direction (X-axis direction) is 11150, for example. The number of divided pixels 201 and 202 in the row direction (Y-axis direction) is, for example, 3725. Dividing the number of pixels N AF of the imaging device 122 is, e.g., approximately 41.5 million pixels.

図3は、撮像素子の画素部を示す平面図及び断面図である。図3(a)は、撮像素子の画素部を示す平面図であり、図3(b)は、図3(a)のA−A′線断面図である。図3(b)には、光軸303が一点鎖線を用いて示されており、撮像素子122の受光面(撮像面)304が破線を用いて示されている。図3では、撮像素子に設けられている複数の画素(撮像画素、画素部)200のうちの1つを抜き出して示している。   FIG. 3 is a plan view and a cross-sectional view illustrating a pixel portion of the image sensor. FIG. 3A is a plan view showing a pixel portion of the image sensor, and FIG. 3B is a cross-sectional view taken along the line AA ′ of FIG. In FIG. 3B, the optical axis 303 is shown using a one-dot chain line, and the light receiving surface (imaging surface) 304 of the image sensor 122 is shown using a broken line. In FIG. 3, one of a plurality of pixels (imaging pixels, pixel units) 200 provided in the imaging element is extracted and shown.

図3に示すように、各々の撮像画素200は、複数の領域(分割画素)201、202にそれぞれ分割されている。具体的には、撮像画素200は、X方向に2分割されており、Y方向には分割されていない。このように、本実施形態では、各々の撮像画素200が、2つの領域201、202にそれぞれ分割されている。   As shown in FIG. 3, each imaging pixel 200 is divided into a plurality of regions (divided pixels) 201 and 202. Specifically, the imaging pixel 200 is divided into two in the X direction and is not divided in the Y direction. Thus, in the present embodiment, each imaging pixel 200 is divided into two regions 201 and 202, respectively.

一方の分割画素201における基板300内には、第1の分割画素201の光電変換部(第1の光電変換部)301が形成されている。他方の分割画素202における基板300内には、第2の分割画素202の光電変換部(第2の光電変換部)302が形成されている。第1の光電変換部301の重心は、+X方向に偏心している。第2の光電変換部302の重心は、−X方向に偏心している。   A photoelectric conversion unit (first photoelectric conversion unit) 301 of the first divided pixel 201 is formed in the substrate 300 in one divided pixel 201. A photoelectric conversion unit (second photoelectric conversion unit) 302 of the second divided pixel 202 is formed in the substrate 300 of the other divided pixel 202. The center of gravity of the first photoelectric conversion unit 301 is eccentric in the + X direction. The center of gravity of the second photoelectric conversion unit 302 is eccentric in the −X direction.

光電変換部301、302は、例えば、p型層とn型層の間にイントリンシック層を挟んだpin構造のフォトダイオードにより構成されている。   The photoelectric conversion units 301 and 302 are configured by, for example, a photodiode having a pin structure in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer.

なお、光電変換部301、302は、pin構造のフォトダイオードに限定されるものではなく、イントリンシック層が省略された、pn接合のフォトダイオードであってもよい。   Note that the photoelectric conversion units 301 and 302 are not limited to a photodiode having a pin structure, and may be a pn junction photodiode in which an intrinsic layer is omitted.

光電変換部301、302が形成された基板300上には、絶縁層311や配線層307等が適宜形成されている。絶縁層311や配線層307等が形成された基板300上には、カラーフィルタ306が形成されている。   An insulating layer 311, a wiring layer 307, and the like are appropriately formed over the substrate 300 over which the photoelectric conversion portions 301 and 302 are formed. A color filter 306 is formed over the substrate 300 over which the insulating layer 311 and the wiring layer 307 are formed.

なお、撮像画素200R、200G、200B毎にカラーフィルタ306の分光透過率を異ならせてもよいし、カラーフィルタ306を適宜省略するようにしてもよい。   Note that the spectral transmittance of the color filter 306 may be different for each of the imaging pixels 200R, 200G, and 200B, or the color filter 306 may be omitted as appropriate.

カラーフィルタ306が配された基板300上には、各々の撮像画素200に入射される光を集光するためのマイクロレンズ305がそれぞれ配されている。   On the substrate 300 on which the color filter 306 is disposed, microlenses 305 for condensing light incident on each imaging pixel 200 are disposed.

各々の画素200に入射される光は、マイクロレンズ305によって集光され、カラーフィルタ306で分光された後、第1の光電変換部301と第2の光電変換部302とに達する。   The light incident on each pixel 200 is collected by the microlens 305, dispersed by the color filter 306, and then reaches the first photoelectric conversion unit 301 and the second photoelectric conversion unit 302.

光電変換部301、302では、受光量に応じて電子とホール(正孔)とが対生成される。対生成された電子とホールは、空乏層で分離される。負電荷である電子はn型層309、310に蓄積され、正電荷であるホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子122の外部へ排出される。   In the photoelectric conversion units 301 and 302, a pair of electrons and holes is generated according to the amount of received light. Paired electrons and holes are separated by a depletion layer. Electrons that are negative charges are accumulated in the n-type layers 309 and 310, and holes that are positive charges are discharged to the outside of the image sensor 122 through a p-type layer connected to a constant voltage source (not shown).

光電変換部301、302のn型層309、310にそれぞれ蓄積された電子は、転送ゲート(図示せず)を介して、静電容量部(FD)(図示せず)に転送され、電圧信号に変換される。   Electrons accumulated in the n-type layers 309 and 310 of the photoelectric conversion units 301 and 302 are transferred to a capacitance unit (FD) (not shown) via a transfer gate (not shown), and a voltage signal Is converted to

図4は、瞳領域と画素部との対応関係を示す概略図である。図4の下側の図は、画素部の断面図であり、図4の上側の図は、画素部側から見た射出瞳面の平面図である。   FIG. 4 is a schematic diagram showing the correspondence between the pupil region and the pixel unit. The lower diagram in FIG. 4 is a cross-sectional view of the pixel portion, and the upper diagram in FIG. 4 is a plan view of the exit pupil plane viewed from the pixel portion side.

図4に示すように、瞳領域(射出瞳)500は、第1の瞳部分領域501と第2の瞳部分領域502とを含んでいる。   As shown in FIG. 4, the pupil region (exit pupil) 500 includes a first pupil partial region 501 and a second pupil partial region 502.

第1の瞳部分領域501の重心は、瞳領域500において+X方向に偏心している。一方、上述したように、第1の分割画素201の重心は、撮像画素200において−X方向に偏心している。そして、瞳領域500と画素部200との間にはマイクロレンズ305が存在している。このため、第1の瞳部分領域501と第1の分割画素201とは共役関係となっており、第1の瞳部分領域501を通過する光束は、第1の分割画素201において受光される。   The center of gravity of the first pupil partial region 501 is eccentric in the + X direction in the pupil region 500. On the other hand, as described above, the center of gravity of the first divided pixel 201 is eccentric in the −X direction in the imaging pixel 200. A microlens 305 exists between the pupil region 500 and the pixel unit 200. For this reason, the first pupil partial region 501 and the first divided pixel 201 have a conjugate relationship, and the light beam passing through the first pupil partial region 501 is received by the first divided pixel 201.

第2の瞳部分領域502の重心は、瞳領域500において−X方向に偏心している。一方、上述したように、第2の分割画素202の重心は、撮像画素200において+X方向に偏心している。そして、瞳領域500と画素部200との間にはマイクロレンズ305が存在している。このため、第2の瞳部分領域502と第2の分割画素202とは共役関係になっており、第2の瞳部分領域502を通過する光束は、第2の分割画素202において受光される。   The center of gravity of the second pupil partial region 502 is eccentric in the −X direction in the pupil region 500. On the other hand, as described above, the center of gravity of the second divided pixel 202 is eccentric in the + X direction in the imaging pixel 200. A microlens 305 exists between the pupil region 500 and the pixel unit 200. For this reason, the second pupil partial region 502 and the second divided pixel 202 are in a conjugate relationship, and the light beam passing through the second pupil partial region 502 is received by the second divided pixel 202.

上述したように、瞳領域500は、第1の瞳部分領域501と第2の瞳部分領域502とを含んでいる。また、上述したように、撮像画素200は、第1の分割画素201と第2の分割画素202とを含んでいる。このため、第1の瞳部分領域501と第2の瞳部分領域502とを含む瞳領域500を通過する光束は、第1の分割画素201と第2の分割画素202とを含む撮像画素200において受光される。   As described above, the pupil region 500 includes the first pupil partial region 501 and the second pupil partial region 502. In addition, as described above, the imaging pixel 200 includes the first divided pixel 201 and the second divided pixel 202. For this reason, the light beam passing through the pupil region 500 including the first pupil partial region 501 and the second pupil partial region 502 is reflected in the imaging pixel 200 including the first divided pixel 201 and the second divided pixel 202. Received light.

図5は、射出瞳と撮像素子との関係を示す概略図である。   FIG. 5 is a schematic diagram showing the relationship between the exit pupil and the image sensor.

ある点801aから発せられた複数の光束は、互いに異なる瞳部分領域501,502をそれぞれ通過し、ある画素200aの第1の分割画素301aと第2の分割画素302aとによってそれぞれ受光される。   A plurality of light beams emitted from a certain point 801a pass through different pupil partial regions 501 and 502, respectively, and are respectively received by the first divided pixel 301a and the second divided pixel 302a of the certain pixel 200a.

また、他の点801bから発せられた複数の光束は、互いに異なる瞳部分領域501,502をそれぞれ通過し、他の画素200bの第1の分割画素301bと第2の分割画素302bとによってそれぞれ受光される。   In addition, a plurality of light beams emitted from other points 801b pass through different pupil partial regions 501 and 502, respectively, and are received by the first divided pixel 301b and the second divided pixel 302b of the other pixel 200b, respectively. Is done.

なお、ここでは、瞳領域500を水平方向(X方向)に2つに分割する場合を例に説明したが、これに限定されるものではない。必要に応じて、垂直方向(Y方向)に瞳領域500を分割してもよい。   Here, the case where the pupil region 500 is divided into two in the horizontal direction (X direction) has been described as an example, but the present invention is not limited to this. If necessary, the pupil region 500 may be divided in the vertical direction (Y direction).

また、ここでは、第1の分割画素201と第2の分割画素202とにより撮像画素200を構成する場合を例に説明したが、撮像画素200と別個に第1の焦点検出画素と第2の焦点検出画素とを適宜配置するようにしてもよい。   Here, the case where the imaging pixel 200 is configured by the first divided pixel 201 and the second divided pixel 202 has been described as an example. However, the first focus detection pixel and the second divided pixel are separated from the imaging pixel 200. You may make it arrange | position a focus detection pixel suitably.

撮像素子122にマトリクス状に配列された撮像画素200の各々の第1の分割画素201により検出される信号(受光信号)の集合体によって、第1の焦点検出信号(第1の焦点検出用画像データ)が構成される。また、撮像素子122にマトリクス状に配列された撮像画素200の各々の第2の分割画素202により検出される信号(受光信号)の集合体によって、第2の焦点検出信号(第2の焦点検出用画像データ)が構成される。こうして得られた第1の焦点検出信号と第2の焦点検出信号とを用いて焦点検出が行われる。また、各々の第1の分割画素201により検出される信号と各々の第2の分割画素202により検出される信号とを加算した信号の集合体によって、有効画素数Nの撮像信号(撮像画像)が構成される。   A first focus detection signal (first focus detection image) is obtained by an aggregate of signals (light reception signals) detected by the first divided pixels 201 of the imaging pixels 200 arranged in a matrix on the imaging element 122. Data). Further, a second focus detection signal (second focus detection) is obtained by an aggregate of signals (light reception signals) detected by the second divided pixels 202 of the imaging pixels 200 arranged in a matrix on the imaging element 122. Image data). Focus detection is performed using the first focus detection signal and the second focus detection signal thus obtained. In addition, an imaging signal (captured image) of N effective pixels is obtained by an aggregate of signals obtained by adding the signal detected by each first divided pixel 201 and the signal detected by each second divided pixel 202. Is configured.

[オートフォーカス動作の全体像]
次に、本実施形態による撮像装置のオートフォーカス動作の処理の全体像について図6を用いて説明する。図6は、本実施形態による撮像装置のオートフォーカス動作の処理の全体像を示すフローチャートである。
[Overview of autofocus operation]
Next, the overall image of the autofocus operation process of the imaging apparatus according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating an overall image of the autofocus operation process of the imaging apparatus according to the present embodiment.

まず、図6に示すように、焦点検出処理が行われる(ステップS601)。焦点検出処理においては、図7を用いて後述するようにデフォーカス量が算出される。   First, as shown in FIG. 6, focus detection processing is performed (step S601). In the focus detection process, the defocus amount is calculated as will be described later with reference to FIG.

次に、点像強度分布生成処理が行われる(ステップS602)。具体的には、ステップS601において算出されたデフォーカス量の近傍の複数位置における点像強度分布を生成する。点像強度分布生成処理は、点像強度分布生成手段(点像強度分布生成部)として機能し得るカメラMPU125によって行われる。本実施形態において、このように点像強度分布を生成するのは、焦点検出処理(ステップS601)において算出されたデフォーカス量に対して高精度な補正を行うことを可能とし、ひいては最良像面位置に設定することを可能とするためである。   Next, point image intensity distribution generation processing is performed (step S602). Specifically, point image intensity distributions at a plurality of positions in the vicinity of the defocus amount calculated in step S601 are generated. The point image intensity distribution generation process is performed by the camera MPU 125 that can function as a point image intensity distribution generation unit (point image intensity distribution generation unit). In the present embodiment, the point image intensity distribution is generated in this way by making it possible to perform highly accurate correction on the defocus amount calculated in the focus detection process (step S601), and thus the best image plane. This is because the position can be set.

次に、デフォーカス量補正処理が行われる(ステップS603)。具体的には、点像強度分布生成処理(ステップS602)において得られた複数のデフォーカス量の各々における点像強度分布を用いて補正値を算出し、焦点検出処理(ステップS601)において算出されたデフォーカス量に対して当該補正値を用いて補正する。   Next, a defocus amount correction process is performed (step S603). Specifically, the correction value is calculated using the point image intensity distribution in each of the plurality of defocus amounts obtained in the point image intensity distribution generation process (step S602), and is calculated in the focus detection process (step S601). The defocus amount is corrected using the correction value.

次に、撮影レンズ105の駆動が行われる(ステップS604)。具体的には、デフォーカス量補正処理(ステップS603)において得られた補正後のデフォーカス量に基づいて、撮影レンズ105が駆動される。   Next, the photographing lens 105 is driven (step S604). Specifically, the taking lens 105 is driven based on the corrected defocus amount obtained in the defocus amount correction process (step S603).

次に、合焦判定処理が行われる(ステップS605)。合焦と判定された場合には(ステップS605においてYES)、オートフォーカス動作を終了する。   Next, focus determination processing is performed (step S605). If it is determined to be in focus (YES in step S605), the autofocus operation is terminated.

一方、合焦と判定されなかった場合には(ステップS605においてNO)、ステップS601に戻り、オートフォーカス動作の処理が再度行われる。   On the other hand, when it is not determined to be in focus (NO in step S605), the process returns to step S601 and the autofocus operation process is performed again.

図6を用いて全体像を示した本実施形態による撮像装置のオートフォーカス動作の詳細を、以下に説明する。   Details of the autofocus operation of the image pickup apparatus according to the present embodiment showing an overall image using FIG. 6 will be described below.

[焦点検出]
図6を用いて概略を説明した焦点検出処理(ステップS601)について以下に詳細に説明を行うが、具体的な焦点検出処理を説明するに先立って、デフォーカス量と像ずれ量との関係について図8を用いて説明する。
[Focus detection]
The focus detection process (step S601) outlined with reference to FIG. 6 will be described in detail below. Before describing the specific focus detection process, the relationship between the defocus amount and the image shift amount is described. This will be described with reference to FIG.

図8は、デフォーカス量と像ずれ量との関係を示す図である。なお、撮像面800には、上述した撮像素子122が配されているが、図8においては図示を省略している。図4及び図5を用いて上述したように、結像光学系の射出瞳500は、第1の瞳部分領域501と第2の瞳部分領域502とに2分割されている。   FIG. 8 is a diagram illustrating the relationship between the defocus amount and the image shift amount. Note that the above-described imaging element 122 is disposed on the imaging surface 800, but is not illustrated in FIG. As described above with reference to FIGS. 4 and 5, the exit pupil 500 of the imaging optical system is divided into the first pupil partial region 501 and the second pupil partial region 502.

図8における符号dは、被写体の結像位置(結像点)と撮像面との間の距離、即ち、デフォーカス量を示している。デフォーカス量dの大きさは|d|で表される。被写体の結像位置が撮像面の手前に位置している状態、即ち、前ピン状態の場合には、デフォーカス量の符号は負となる(d<0)。被写体の結像位置が撮像面より奥に位置している状態、即ち、後ピン状態の場合には、デフォーカス量の符号は正となる(d>0)。被写体の結像位置が撮像面に位置している状態、即ち、合焦状態である場合には、デフォーカス量dは0である。   8 indicates the distance between the imaging position (imaging point) of the subject and the imaging surface, that is, the defocus amount. The magnitude of the defocus amount d is represented by | d |. When the imaging position of the subject is located in front of the imaging surface, that is, in the front pin state, the sign of the defocus amount is negative (d <0). In the state where the imaging position of the subject is located behind the imaging surface, that is, in the rear pin state, the sign of the defocus amount is positive (d> 0). When the imaging position of the subject is located on the imaging surface, that is, in a focused state, the defocus amount d is zero.

図8のように被写体801が位置している場合には、合焦状態(d=0)となる。また、図8のように被写体802が位置している場合には、前ピン状態(d<0)となる。前ピン状態(d<0)も後ピン状態(d>0)も、デフォーカス状態(|d|>0)に該当する。   When the subject 801 is located as shown in FIG. 8, the in-focus state (d = 0) is obtained. Further, when the subject 802 is located as shown in FIG. 8, the front pin state (d <0) is established. Both the front pin state (d <0) and the rear pin state (d> 0) correspond to the defocus state (| d |> 0).

前ピン状態(d<0)においては、被写体802からの光束のうちの、第1の瞳部分領域501を通過した光束は、撮像面800の手前で集光した後、光束の重心位置G1を中心として幅Γ1で広がり、撮像面800においてボケた像となる。撮像面800に達したボケた像は、撮像素子122に配された撮像画素200の第1の分割画素201によって受光され、第1の焦点検出信号が生成される。こうして、幅Γ1でボケた被写体802の像が、撮像面800上の重心位置G1において、第1の焦点検出信号として検出される。   In the front pin state (d <0), the light beam that has passed through the first pupil partial region 501 out of the light beam from the subject 802 is collected in front of the imaging surface 800, and then the gravity center position G1 of the light beam is set. The image expands with a width Γ1 as the center and becomes a blurred image on the imaging surface 800. The blurred image reaching the imaging surface 800 is received by the first divided pixel 201 of the imaging pixel 200 arranged in the imaging element 122, and a first focus detection signal is generated. In this way, an image of the subject 802 blurred by the width Γ1 is detected as the first focus detection signal at the center of gravity position G1 on the imaging surface 800.

また、前ピン状態(d<0)においては、被写体802からの光束のうちの、第2の瞳部分領域502を通過した光束は、撮像面800の手前で集光した後、光束の重心位置G2を中心として幅Γ2で広がり、撮像面800においてボケた像となる。撮像面800に達したボケた像は、撮像素子122に配された撮像画素200の第2の分割画素202によって受光され、第2の焦点検出信号が生成される。こうして、幅Γ2でボケた被写体802の像が、撮像面800上の重心位置G2において、第2の焦点検出信号として検出される。   Further, in the front pin state (d <0), the light beam that has passed through the second pupil partial region 502 out of the light beam from the subject 802 is condensed in front of the imaging surface 800, and then the gravity center position of the light beam. The image spreads with a width Γ2 around G2 and becomes a blurred image on the imaging surface 800. The blurred image reaching the imaging surface 800 is received by the second divided pixel 202 of the imaging pixel 200 arranged in the imaging element 122, and a second focus detection signal is generated. Thus, an image of the subject 802 blurred by the width Γ2 is detected as the second focus detection signal at the center of gravity position G2 on the imaging surface 800.

被写体像のボケ幅Γ1、Γ2は、デフォーカス量dの大きさ|d|が増加するのに伴って、概ね比例して増加していく。また、第1の焦点検出信号が示す被写体像と第2の焦点検出信号が示す被写体像との間の像ずれ量p(光束の重心位置の差(G1−G2))の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴って、概ね比例して増加していく。   The blur widths Γ1 and Γ2 of the subject image increase substantially in proportion as the magnitude | d | of the defocus amount d increases. Also, the magnitude | p | of the image shift amount p (difference in the center of gravity of the light beam (G1−G2)) between the subject image indicated by the first focus detection signal and the subject image indicated by the second focus detection signal. Also, as the magnitude | d | of the defocus amount d increases, it generally increases in proportion.

後ピン状態(d>0)の場合には、第1の焦点検出信号が示す被写体像と第2の焦点検出信号が示す被写体像との間の像ずれ方向が、前ピン状態の場合に対して反対の方向となること以外は、前ピン状態の場合と同様である。   In the rear pin state (d> 0), the image shift direction between the subject image indicated by the first focus detection signal and the subject image indicated by the second focus detection signal is that in the front pin state. This is the same as in the front pin state except that the directions are opposite.

デフォーカス量と像ずれ量との間には、上記のような関係がある。即ち、デフォーカス量dの大きさが増加するのに伴い、第1焦点検出信号が示す被写体像と第2の焦点検出信号が示す被写体像との間の像ずれ量pの大きさが増加する。このような関係が成立するため、像ずれ量p、即ち、位相差に基づいてデフォーカス量dを算出することが可能である。位相差(像ずれ量)に基づいてデフォーカス量の検出が行われる焦点検出は、位相差方式の焦点検出と称される。   There is a relationship as described above between the defocus amount and the image shift amount. That is, as the defocus amount d increases, the image shift amount p between the subject image indicated by the first focus detection signal and the subject image indicated by the second focus detection signal increases. . Since such a relationship is established, the defocus amount d can be calculated based on the image shift amount p, that is, the phase difference. Focus detection in which the defocus amount is detected based on the phase difference (image shift amount) is referred to as phase difference type focus detection.

位相差方式の焦点検出では、第1の焦点検出信号と第2の焦点検出信号とを相対的にシフトさせることにより、これらの焦点検出信号の一致度を示す相関量を計算し、相関(信号の一致度)が良好となるときのシフト量に基づいて像ずれ量pを検出する。デフォーカス量dの大きさが増加するのに伴い、第1の焦点検出信号が示す被写体像と第2の焦点検出信号が示す被写体像との間の像ずれ量pの大きさが増加するため、像ずれ量pをデフォーカス量dに換算することが可能である。像ずれ量pに基づいて算出されたデフォーカス量は、検出デフォーカス量(算出デフォーカス量)と称される。検出デフォーカス量は、実際のデフォーカス量(実デフォーカス量)と完全に一致しているとは限らない。このため、本実施形態では、算出されたデフォーカス量(ステップS706)に対して、後述するように、補正の処理(ステップS2105)が行われることとなる。   In the phase difference type focus detection, the first focus detection signal and the second focus detection signal are relatively shifted to calculate the correlation amount indicating the degree of coincidence of these focus detection signals, and the correlation (signal The image shift amount p is detected on the basis of the shift amount when the degree of coincidence is good. As the defocus amount d increases, the image shift amount p between the subject image indicated by the first focus detection signal and the subject image indicated by the second focus detection signal increases. The image shift amount p can be converted into the defocus amount d. The defocus amount calculated based on the image shift amount p is referred to as a detected defocus amount (calculated defocus amount). The detected defocus amount does not always completely match the actual defocus amount (actual defocus amount). Therefore, in the present embodiment, correction processing (step S2105) is performed on the calculated defocus amount (step S706), as will be described later.

図7は、本実施形態による撮像装置における焦点検出処理を示すフローチャートである。図7は、図6を用いて概略を説明した焦点検出処理(ステップS601)を詳細に説明するためのものである。   FIG. 7 is a flowchart showing focus detection processing in the imaging apparatus according to the present embodiment. FIG. 7 is a diagram for explaining in detail the focus detection process (step S601), which is outlined with reference to FIG.

図7に示す焦点検出処理は、撮像素子122、画像処理回路124、カメラMPU125、及び、撮像面位相差焦点検出部129が協業することにより実行される。これらの構成要素は、焦点検出信号生成手段(焦点検出信号生成部)及び焦点検出手段(焦点検出部)として機能する。   The focus detection process illustrated in FIG. 7 is executed by the cooperation of the imaging element 122, the image processing circuit 124, the camera MPU 125, and the imaging plane phase difference focus detection unit 129. These components function as a focus detection signal generation unit (focus detection signal generation unit) and a focus detection unit (focus detection unit).

まず、被写体(合焦対象物)の位置に応じた撮像素子122上の領域が、焦点検出領域(図示せず)として設定される(ステップS701)。   First, an area on the image sensor 122 corresponding to the position of the subject (focused object) is set as a focus detection area (not shown) (step S701).

次に、焦点検出領域内の第1の分割画素201の受光信号から生成される第1の焦点検出信号と、焦点検出領域内の第2の分割画素202の受光信号から生成される第2の焦点検出信号とが、焦点検出信号生成手段により取得される(ステップS702)。   Next, a first focus detection signal generated from the light reception signal of the first divided pixel 201 in the focus detection region and a second light generation signal generated from the second division pixel 202 in the focus detection region. The focus detection signal is acquired by the focus detection signal generation means (step S702).

次に、第1の焦点検出信号と第2の焦点検出信号とに対して、シェーディング補正の処理(光学補正処理)がそれぞれ行われる(ステップS703)。   Next, shading correction processing (optical correction processing) is performed on the first focus detection signal and the second focus detection signal (step S703).

ここで、シェーディングについて図9を用いて説明する。図9は、シェーディングを説明するための概略図である。   Here, shading will be described with reference to FIG. FIG. 9 is a schematic diagram for explaining shading.

図9(a)は、結像光学系133の射出瞳距離Dlと撮像素子側で定めた射出瞳距離Dsとが等しい場合を示している。この場合には、中心像高においても周辺像高においても、結像光学系133の射出瞳400を通過する光束が、第1の瞳部分領域501と第2の瞳部分領域502とにより概ね均等に分割される。   FIG. 9A shows a case where the exit pupil distance Dl of the imaging optical system 133 is equal to the exit pupil distance Ds determined on the image sensor side. In this case, the light flux passing through the exit pupil 400 of the imaging optical system 133 is approximately equal between the first pupil partial region 501 and the second pupil partial region 502 at both the central image height and the peripheral image height. It is divided into.

図9(b)は、結像光学系133の射出瞳距離Dlが撮像素子側で定めた射出瞳距離Dsより短い場合を示している。この場合には、周辺像高において、結像光学系133の射出瞳と撮像素子122の入射瞳との間で瞳ずれが生じる。このため、結像光学系133の射出瞳400を通過する光束が、第1の瞳部分領域501と第2の瞳部分領域502とによって不均一に分割されてしまう。即ち、図9(b)に示すように、結像光学系133の射出瞳距離Dlが撮像素子側で定めた射出瞳距離Dsより短い場合には、周辺像高における瞳分割が不均一になる。   FIG. 9B shows a case where the exit pupil distance Dl of the imaging optical system 133 is shorter than the exit pupil distance Ds determined on the image sensor side. In this case, a pupil shift occurs between the exit pupil of the imaging optical system 133 and the entrance pupil of the image sensor 122 at the peripheral image height. For this reason, the light beam passing through the exit pupil 400 of the imaging optical system 133 is non-uniformly divided by the first pupil partial region 501 and the second pupil partial region 502. That is, as shown in FIG. 9B, when the exit pupil distance Dl of the imaging optical system 133 is shorter than the exit pupil distance Ds determined on the image sensor side, pupil division at the peripheral image height becomes nonuniform. .

図9(c)は、結像光学系133の射出瞳距離Dlが撮像素子側で定めた射出瞳距離Dsより長い場合を示している。この場合にも、周辺像高において、結像光学系133の射出瞳と撮像素子122の入射瞳との間で瞳ずれが生じる。このため、結像光学系133の射出瞳400を通過する光束が、第1の瞳部分領域501と第2の瞳部分領域502とによって不均一に分割されてしまう。即ち、図9(c)に示すように、結像光学系133の射出瞳距離Dlが撮像素子側で定めた射出瞳距離Dsより長い場合にも、周辺像高における瞳分割が不均一になる。   FIG. 9C shows a case where the exit pupil distance Dl of the imaging optical system 133 is longer than the exit pupil distance Ds determined on the image sensor side. Also in this case, a pupil shift occurs between the exit pupil of the imaging optical system 133 and the entrance pupil of the image sensor 122 at the peripheral image height. For this reason, the light beam passing through the exit pupil 400 of the imaging optical system 133 is non-uniformly divided by the first pupil partial region 501 and the second pupil partial region 502. That is, as shown in FIG. 9C, even when the exit pupil distance Dl of the imaging optical system 133 is longer than the exit pupil distance Ds determined on the image sensor side, the pupil division at the peripheral image height becomes nonuniform. .

周辺像高において瞳分割が不均一になるのに伴い、第1の焦点検出信号と第2の焦点検出信号の強度も不均一になる。即ち、第1の焦点検出信号と第2の焦点検出信号とのうちの一方の強度が大きくなり、他方の強度が小さくなる。このような現象は、シェーディングと称される。   As the pupil division becomes nonuniform at the peripheral image height, the intensity of the first focus detection signal and the second focus detection signal also becomes nonuniform. That is, the intensity of one of the first focus detection signal and the second focus detection signal is increased, and the intensity of the other is decreased. Such a phenomenon is called shading.

位相差方式の焦点検出では、第1の焦点検出信号と第2の焦点検出信号との相関(信号の一致度)に基づいて、検出デフォーカス量(合焦位置)が算出される。瞳ずれによるシェーディングが生じると、第1の焦点検出信号と第2の焦点検出信号との相関(信号の一致度)が低下する場合がある。よって、位相差方式の焦点検出では、第1の焦点検出信号と第2の焦点検出信号との相関(信号の一致度)を改善し、焦点検出精度を向上するために、シェーディング補正処理(光学補正処理)を行うことが望ましい。   In the phase difference type focus detection, the detected defocus amount (focus position) is calculated based on the correlation between the first focus detection signal and the second focus detection signal (the degree of coincidence of the signals). When shading due to pupil shift occurs, the correlation (the degree of signal coincidence) between the first focus detection signal and the second focus detection signal may decrease. Therefore, in the phase difference type focus detection, a shading correction process (optical) is performed in order to improve the correlation (signal coincidence) between the first focus detection signal and the second focus detection signal and to improve the focus detection accuracy. It is desirable to perform correction processing.

シェーディング補正処理は、以下のようにして行われる。   The shading correction process is performed as follows.

まず、焦点検出領域の像高、撮影レンズ(結像光学系)のF値及び射出瞳距離に応じて、第1の焦点検出信号を補正するための第1のシェーディング補正係数、及び、第2の焦点検出信号を補正するための第2のシェーディング補正係数をそれぞれ生成する。   First, the first shading correction coefficient for correcting the first focus detection signal according to the image height of the focus detection area, the F value of the taking lens (imaging optical system) and the exit pupil distance, and the second The second shading correction coefficient for correcting the focus detection signal is generated.

そして、第1のシェーディング補正係数を第1の焦点検出信号に乗算し、第2のシェーディング補正係数を第2の焦点検出信号に乗算する。   Then, the first focus detection signal is multiplied by the first shading correction coefficient, and the second focus detection signal is multiplied by the second shading correction coefficient.

こうして、第1の焦点検出信号と第2の焦点検出信号に対するシェーディング補正処理(光学補正処理)が行われる(ステップS703)。   In this way, shading correction processing (optical correction processing) is performed on the first focus detection signal and the second focus detection signal (step S703).

次に、第1の焦点検出信号と第2の焦点検出信号とに対してフィルタ処理が行われる(ステップS704)。図10は、フィルタ処理において用いられるフィルタの周波数特性の例を示すグラフである。図10の実線は、フィルタの周波数特性の一例を示している。図10の一点鎖線は、フィルタの周波数特性の他の例を示している。横軸は空間周波数を示しており、縦軸はフィルタ係数を示している。   Next, filter processing is performed on the first focus detection signal and the second focus detection signal (step S704). FIG. 10 is a graph illustrating an example of frequency characteristics of a filter used in the filter processing. The solid line in FIG. 10 shows an example of the frequency characteristic of the filter. The alternate long and short dash line in FIG. 10 shows another example of the frequency characteristics of the filter. The horizontal axis indicates the spatial frequency, and the vertical axis indicates the filter coefficient.

デフォーカス量が大きい状態で焦点検出を行うことが前提となる場合には、低周波帯域が通過帯域に含まれているフィルタを用いてフィルタ処理を行えばよい。従って、この場合には、図10の実線で示すような周波数特性のフィルタを用いることができる。   When it is assumed that focus detection is performed in a state where the defocus amount is large, a filter process may be performed using a filter in which the low frequency band is included in the pass band. Therefore, in this case, a filter having a frequency characteristic as shown by a solid line in FIG. 10 can be used.

一方、デフォーカス量が大きい状態のみならず、デフォーカス量が小さい状態においても焦点検出を行い得るようにする場合には、高周波帯域までもが通過帯域に含まれているフィルタを用いることが好ましい。この場合には、図10において1点鎖線で示すような周波数特性のフィルタ、即ち、低周波領域のみならず高周波帯域までもが通過帯域に含まれているフィルタを用いることが好ましい。   On the other hand, when it is possible to perform focus detection not only in a state where the defocus amount is large but also in a state where the defocus amount is small, it is preferable to use a filter that includes the pass band up to the high frequency band. . In this case, it is preferable to use a filter having a frequency characteristic as indicated by a one-dot chain line in FIG. 10, that is, a filter including not only the low frequency region but also the high frequency band in the pass band.

こうして、第1の焦点検出信号と第2の焦点検出信号とに対してフィルタ処理が行われる(ステップS704)。   Thus, the filtering process is performed on the first focus detection signal and the second focus detection signal (step S704).

次に、第1の焦点検出信号と第2の焦点検出信号とを相対的に瞳分割方向にシフトさせる処理であるシフト処理が行われ、これらの信号の一致度を示す相関量が算出される(ステップS705)。かかるシフト処理は、フィルタ処理が行われた第1の焦点検出信号とフィルタ処理が行われた第2の焦点検出信号とを用いて行われる。   Next, a shift process, which is a process of relatively shifting the first focus detection signal and the second focus detection signal in the pupil division direction, is performed, and a correlation amount indicating the degree of coincidence of these signals is calculated. (Step S705). Such shift processing is performed using the first focus detection signal subjected to the filter processing and the second focus detection signal subjected to the filter processing.

シフト処理によるシフト量をs1、シフト量s1のシフト範囲をΓ1とすると、第1の焦点検出信号と第2の焦点検出信号との一致度を示す相関量CORは、以下のような式(1)により算出される。ここで、A(k)は、第1の焦点検出信号のうちのk番目の信号を示しており、B(k)は、第2の焦点検出信号のうちのk番目の信号を示している。Wは、焦点検出領域に対応する番号kの範囲である。

Figure 2018200480
When the shift amount by the shift process is s1 and the shift range of the shift amount s1 is Γ1, the correlation amount COR indicating the degree of coincidence between the first focus detection signal and the second focus detection signal is expressed by the following equation (1 ). Here, A (k) indicates the kth signal of the first focus detection signal, and B (k) indicates the kth signal of the second focus detection signal. . W is a range of number k corresponding to the focus detection area.
Figure 2018200480

相関量CORの算出においては、k番目の信号である第1の焦点検出信号A(k)からk−s1番目の信号である第2の焦点検出信号B(k−s1)を減算することにより、シフト減算信号が生成され、かかるシフト減算信号の絶対値が求められる。焦点検出領域に対応する範囲W内で番号kの値を順次変化させ、シフト減算信号の絶対値の総和を求めることにより、相関量COR(s1)が算出される。必要に応じて、各行毎に算出された相関量(評価値)を、シフト量毎に、複数行に渡って加算しても良い。   In the calculation of the correlation amount COR, the second focus detection signal B (k−s1) which is the k−s1th signal is subtracted from the first focus detection signal A (k) which is the kth signal. A shift subtraction signal is generated, and the absolute value of the shift subtraction signal is obtained. The correlation amount COR (s1) is calculated by sequentially changing the value of the number k within the range W corresponding to the focus detection area and calculating the sum of the absolute values of the shift subtraction signals. If necessary, the correlation amount (evaluation value) calculated for each row may be added over a plurality of rows for each shift amount.

こうして、第1の焦点検出信号と第2の焦点検出信号との一致度を示す相関量が、シフト量s1毎に算出される(ステップS705)。   Thus, the correlation amount indicating the degree of coincidence between the first focus detection signal and the second focus detection signal is calculated for each shift amount s1 (step S705).

次に、デフォーカス量算出処理が行われる(ステップS706)。デフォーカス量の算出処理においては、まず、相関量が最小値となるときのシフト量s1に基づいて、像ずれ量p1が算出される。そして、算出された像ずれ量p1に、焦点検出領域の像高と、撮影レンズ(結像光学系)105のF値と、射出瞳距離に応じた変換係数Kとを乗算することにより、デフォーカス量(検出デフォーカス量)が算出される。   Next, a defocus amount calculation process is performed (step S706). In the defocus amount calculation process, first, the image shift amount p1 is calculated based on the shift amount s1 when the correlation amount becomes the minimum value. Then, the calculated image shift amount p1 is multiplied by the image height of the focus detection area, the F value of the photographing lens (imaging optical system) 105, and the conversion coefficient K corresponding to the exit pupil distance, thereby obtaining A focus amount (detected defocus amount) is calculated.

こうして、位相差方式の焦点検出により、デフォーカス量が算出される。こうして算出されたデフォーカス量は、上述したように、実際のデフォーカス量(実デフォーカス量)と完全に一致しているとは限らない。このため、本実施形態では、デフォーカス量算出処理(ステップS706)において算出されたデフォーカス量に対して、後述するように、補正の処理(ステップS2105)が行われることとなる。   Thus, the defocus amount is calculated by the phase difference type focus detection. As described above, the defocus amount calculated in this way does not always completely match the actual defocus amount (actual defocus amount). Therefore, in the present embodiment, a correction process (step S2105) is performed on the defocus amount calculated in the defocus amount calculation process (step S706), as will be described later.

[点像強度分布]
図6を用いて概略を説明した点像強度分布の生成(ステップS602)について後に詳細に説明を行うが、点像強度分布の生成について具体的な説明を行うに先立って、点像強度分布について以下に説明する。
[Point image intensity distribution]
The generation of the point image intensity distribution (step S602), which has been outlined with reference to FIG. 6, will be described in detail later. Before the specific description of the generation of the point image intensity distribution, the point image intensity distribution will be described. This will be described below.

図11は、点像強度分布を説明するための図である。図11(a)は、デフォーカス量の相違による点像強度分布の相違と、像高の相違による点像強度分布の相違とを説明するための図である。図11(b)は、絞り値の相違による点像強度分布の相違を説明するための図である。図11(c)は、レンズ収差の有無による点像強度分布の相違を説明するための図である。   FIG. 11 is a diagram for explaining the point image intensity distribution. FIG. 11A is a diagram for explaining a difference in point image intensity distribution due to a difference in defocus amount and a difference in point image intensity distribution due to a difference in image height. FIG. 11B is a diagram for explaining a difference in point image intensity distribution due to a difference in aperture value. FIG. 11C is a diagram for explaining a difference in point image intensity distribution depending on the presence or absence of lens aberration.

図12は、点像強度分布を示す図である。図12の横軸は撮像素子122の撮像面における水平方向(X方向)の位置を示しており、図12の縦軸は光の強度を示している。   FIG. 12 is a diagram showing a point image intensity distribution. The horizontal axis in FIG. 12 indicates the position in the horizontal direction (X direction) on the imaging surface of the image sensor 122, and the vertical axis in FIG. 12 indicates the light intensity.

図12(a)は、中央像高における点光源1101からの光が位置1111に位置する撮像面に達した際の点像強度分布を示している。図12(b)は、中央像高における点光源1101からの光が位置1112に位置する撮像面に達した際の点像強度分布を示している。図12(c)は、周辺像高における点光源1102からの光が位置1111に位置する撮像面に達した際の点像強度分布を示している。図12(d)は、絞り1131bの開口を狭めた際の点像強度分布を示している。図12(e)は、レンズ収差が存在する場合の点像強度分布を示している。   FIG. 12A shows the point image intensity distribution when the light from the point light source 1101 at the central image height reaches the imaging surface located at the position 1111. FIG. 12B shows a point image intensity distribution when the light from the point light source 1101 at the central image height reaches the imaging surface located at the position 1112. FIG. 12C shows the point image intensity distribution when the light from the point light source 1102 at the peripheral image height reaches the imaging surface located at the position 1111. FIG. 12D shows a point image intensity distribution when the aperture of the diaphragm 1131b is narrowed. FIG. 12E shows a point image intensity distribution when lens aberration is present.

点像強度分布は、点光源からの光が撮像素子の受光面(撮像面)において受光される際の、光の強度分布を示すものである。図12に示すように、デフォーカス量の相違、像高の相違、絞り値の相違、レンズ収差の相違によって点像強度分布が相違する。   The point image intensity distribution indicates the light intensity distribution when the light from the point light source is received on the light receiving surface (imaging surface) of the image sensor. As shown in FIG. 12, the point image intensity distribution differs depending on the defocus amount, the image height, the aperture value, and the lens aberration.

デフォーカス量の相違による点像強度分布の相違は、図12(a)と図12(b)とを用いて説明することができる。図12(a)は、点光源1101からの光束が結像する位置1111に撮像素子122の撮像面が位置しているものである。図12(b)は、点光源1101からの光束が結像する位置1111の手前の位置1112に撮像素子122の撮像面が位置しているものである。即ち、図12(a)は、デフォーカス量がゼロの場合であり、図12(b)は、デフォーカス量がゼロではない場合である。図12(a)と図12(b)とを比較して分かるように、デフォーカス量が異なると、点像強度分布の広がりや点像強度分布のピーク値に相違が生じる。   The difference in the point image intensity distribution due to the difference in the defocus amount can be described with reference to FIGS. 12 (a) and 12 (b). In FIG. 12A, the imaging surface of the imaging element 122 is located at a position 1111 where the light beam from the point light source 1101 forms an image. In FIG. 12B, the imaging surface of the imaging element 122 is located at a position 1112 before the position 1111 where the light beam from the point light source 1101 forms an image. That is, FIG. 12A shows a case where the defocus amount is zero, and FIG. 12B shows a case where the defocus amount is not zero. As can be seen by comparing FIG. 12A and FIG. 12B, when the defocus amount is different, the spread of the point image intensity distribution and the peak value of the point image intensity distribution are different.

このように、点像強度分布は、デフォーカス量の相違に応じて相違するものである。本実施形態では、後述するように、点像強度分布の算出を行うが、光束の情報がベクトル形式で表現された後述するレンズライトフィールドデータを用いるため、デフォーカス量の相違に応じてこのように相違する点像強度分布を算出することが可能である。   As described above, the point image intensity distribution differs depending on the difference in the defocus amount. In this embodiment, as will be described later, the point image intensity distribution is calculated. However, since lens light field data (described later) in which light flux information is expressed in a vector format is used, this is performed according to the difference in defocus amount. It is possible to calculate point image intensity distributions different from each other.

像高の相違による点像強度分布の相違は、図12(a)と図12(c)とを用いて説明することができる。図12(a)は、中央像高の点光源1101からの光束が位置1111に位置する撮像素子122の撮像面に結像される場合を示している。図12(c)は、周辺像高の点光源1102からの光束が位置1111に位置する撮像素子122の撮像面に結像される場合を示している。中央像高の点光源1101からの光束1121aと周辺像高の点光源1102からの光束1122aとは、撮影レンズ105に対する入射角が相違し、撮像素子122の撮像面への入射角も相違する。このため、図12(a)と図12(c)とを比較して分かるように、像高の相違は点像強度分布の形状の対称性に影響を与える。即ち、図12(a)では、点像強度分布の形状は左右対称となっているが、図12(c)では、点像強度分布の形状が左右対称になっておらず、偏りが生じている。   The difference in the point image intensity distribution due to the difference in image height can be described with reference to FIGS. 12 (a) and 12 (c). FIG. 12A shows a case where the light flux from the point light source 1101 with the central image height is imaged on the imaging surface of the imaging element 122 located at the position 1111. FIG. 12C shows a case where the light beam from the point light source 1102 with the peripheral image height is imaged on the imaging surface of the imaging element 122 located at the position 1111. The light beam 1121a from the point light source 1101 with the central image height and the light beam 1122a from the point light source 1102 with the peripheral image height have different incident angles with respect to the photographing lens 105, and the incident angles with respect to the imaging surface of the image sensor 122 also differ. Therefore, as can be seen by comparing FIG. 12A and FIG. 12C, the difference in image height affects the symmetry of the shape of the point image intensity distribution. That is, in FIG. 12A, the shape of the point image intensity distribution is symmetric, but in FIG. 12C, the shape of the point image intensity distribution is not symmetric, resulting in bias. Yes.

このように、点像強度分布は、像高の相違によって相違するものである。従って、後述するレンズライトフィールドデータは、像高毎に保持する必要がある。   Thus, the point image intensity distribution differs depending on the difference in image height. Therefore, it is necessary to store lens light field data described later for each image height.

絞り値の相違による点像強度分布の相違は、図12(a)と図12(d)とを用いて説明することができる。図12(a)は、図11(a)に対応するものであり、絞り1131aの開口が比較的大きい場合を示している。図12(d)は、図11(b)に対応するものであり、絞り1131bの開口が比較的小さい場合を示している。絞り1131aと絞り1131bとでは開口の大きさが互いに相違するため、絞り1131a、1131bを通過する光束の幅は互いに相違することとなる。このため、撮像素子122の撮像面に到達する光束の範囲に相違が生じる。図12(a)と図12(d)とを比較して分かるように、絞り値の相違は、点像強度分布の広がりに相違を生じさせ、また、点像強度分布のピーク値に相違を生じさせる。ただし、ここでは、回折の影響については考慮していない。   The difference in the point image intensity distribution due to the difference in the aperture value can be described with reference to FIGS. 12 (a) and 12 (d). FIG. 12A corresponds to FIG. 11A and shows a case where the aperture of the diaphragm 1131a is relatively large. FIG. 12D corresponds to FIG. 11B, and shows a case where the aperture of the diaphragm 1131b is relatively small. Since the apertures of the apertures 1131a and 1131b are different from each other, the widths of the light beams passing through the apertures 1131a and 1131b are different from each other. For this reason, a difference occurs in the range of the light flux reaching the imaging surface of the imaging element 122. As can be seen by comparing FIG. 12A and FIG. 12D, the difference in the aperture value causes a difference in the spread of the point image intensity distribution, and the difference in the peak value of the point image intensity distribution. Cause it to occur. However, the influence of diffraction is not considered here.

このように、絞り値を小さくするに伴って、光束1121aが絞り1131bによってケラレるため、即ち、ビネッティングが生ずるため、撮像素子122の撮像面に到達する光束の範囲が限定される。このため、後述するように、ビネッティング情報に基づいて、レンズライトフィールドデータのうちの一部が選択的に用いられる。   As described above, as the aperture value is decreased, the light beam 1121a is vignetted by the aperture 1131b, that is, vignetting occurs, so that the range of the light beam reaching the imaging surface of the image sensor 122 is limited. Therefore, as described later, a part of the lens light field data is selectively used based on the vignetting information.

レンズの収差の相違による点像強度分布の相違は、図12(a)と図12(e)とを用いて説明することができる。図12(a)は、図11(a)に対応するものであり、収差が存在しない場合を示している。図12(e)は、図11(c)に対応するものであり、収差が存在する場合を示している。図11(a)に示す光束1121aと図11(c)に示す光束1121cとでは、レンズで屈折した後における光路が異なり、収差が存在する場合には、図11(c)に示すように光束が一点で交わらない。図12(a)と図12(e)とを比較して分かるように、レンズの収差の相違は点像強度分布に相違を生じさせる。収差が存在する場合には、光束が一点で交わらないため、前ピン、後ピンのいずれにおいても、図12(a)に示す点像強度分布の形状に対して相似形ではなくなり、焦点検出時においてオフセットが発生する原因となる。なお、オフセットに関しては、後に詳述することとする。   The difference in the point image intensity distribution due to the difference in the aberration of the lens can be explained using FIG. 12 (a) and FIG. 12 (e). FIG. 12A corresponds to FIG. 11A and shows a case where no aberration exists. FIG. 12 (e) corresponds to FIG. 11 (c) and shows a case where aberration exists. When the light beam 1121a shown in FIG. 11 (a) and the light beam 1121c shown in FIG. 11 (c) have different optical paths after being refracted by the lens, and there is aberration, the light beam as shown in FIG. 11 (c). Does not meet at one point. As can be seen by comparing FIG. 12A and FIG. 12E, the difference in the aberration of the lens causes a difference in the point image intensity distribution. When there is aberration, the light beams do not intersect at a single point. Therefore, neither the front pin nor the rear pin is similar to the shape of the point image intensity distribution shown in FIG. Cause an offset. The offset will be described in detail later.

このように、デフォーカス量、像高、絞り値、収差等の相違によって、点像強度分布に相違が生ずる。   As described above, the point image intensity distribution differs depending on the defocus amount, image height, aperture value, aberration, and the like.

[点像強度分布生成処理]
次に、点像強度分布生成処理について図13を用いて説明する。図13は、本実施形態による撮像装置における点像強度分布生成処理を示すフローチャートである。図13は、図6を用いて概略を説明した点像強度分布生成処理(ステップS602)を詳細に説明するためのものである。
[Point image intensity distribution generation processing]
Next, point image intensity distribution generation processing will be described with reference to FIG. FIG. 13 is a flowchart showing point image intensity distribution generation processing in the imaging apparatus according to the present embodiment. FIG. 13 is a diagram for explaining in detail the point image intensity distribution generation process (step S602), the outline of which is described with reference to FIG.

図13に示す点像強度分布生成処理は、ROM125a、レンズメモリ118、及び、カメラMPU125等が協業することにより実行される。ROM125aは、センサ受光強度特性記憶手段(センサ受光強度特性記憶部)として機能する。レンズメモリ118は、レンズライトフィールドデータ記憶手段(レンズライトフィールドデータ記憶部)として機能する。カメラMPU125は、点像強度分布生成手段(点像強度分布生成部)として機能する。   The point image intensity distribution generation processing shown in FIG. 13 is executed by the cooperation of the ROM 125a, the lens memory 118, the camera MPU 125, and the like. The ROM 125a functions as a sensor light reception intensity characteristic storage unit (sensor light reception intensity characteristic storage unit). The lens memory 118 functions as lens light field data storage means (lens light field data storage unit). The camera MPU 125 functions as a point image intensity distribution generation unit (point image intensity distribution generation unit).

まず、焦点検出処理(ステップS601)を行った際の条件、即ち、焦点検出条件を取得する(ステップS1301)。焦点検出条件は、像高、絞り値、レンズのズームステート、レンズのフォーカスステート等、焦点検出を行った際の情報である。   First, a condition when the focus detection process (step S601) is performed, that is, a focus detection condition is acquired (step S1301). The focus detection condition is information when focus detection is performed, such as an image height, an aperture value, a lens zoom state, and a lens focus state.

次に、デフォーカス量算出処理(ステップS706)において算出したデフォーカス量を取得する(ステップS1302)。   Next, the defocus amount calculated in the defocus amount calculation process (step S706) is acquired (step S1302).

次に、センサ受光強度特性を取得する(ステップS1303)。かかるセンサ受光強度特性は、撮像素子122に固有の特性であるため、センサ受光強度特性記憶手段であるROM125aに予め記憶されている。センサ受光強度特性は、撮像素子上に配されたマイクロレンズの入射瞳の各領域を通過する光束の撮像素子122の受光面304における受光強度を示すものである。換言すれば、センサ受光強度特性は、撮像素子122の各々の画素に到達する光束の撮像素子122の受光面304における受光強度分布を示すものである。なお、センサ受光強度特性については、後に詳述することとする。   Next, sensor received light intensity characteristics are acquired (step S1303). Since the sensor light reception intensity characteristic is a characteristic unique to the image sensor 122, it is stored in advance in the ROM 125a which is a sensor light reception intensity characteristic storage means. The sensor light reception intensity characteristic indicates the light reception intensity at the light receiving surface 304 of the image pickup device 122 of the light beam passing through each region of the entrance pupil of the microlens arranged on the image pickup device. In other words, the sensor light-receiving intensity characteristic indicates the light-receiving intensity distribution on the light-receiving surface 304 of the image sensor 122 of the light flux that reaches each pixel of the image sensor 122. The sensor light reception intensity characteristics will be described in detail later.

次に、レンズライトフィールドデータを取得する(ステップS1304)。レンズライトフィールドデータは、レンズに固有のデータであるため、レンズライトフィールドデータ記憶手段であるレンズメモリ118に予め記憶されている。レンズメモリ118には、焦点検出条件及びデフォーカス量に応じた様々なレンズライトフィールドデータが記憶されている。従って、ステップS1301で取得された焦点検出条件とステップS1302で取得されたデフォーカス量とに応じたレンズライトフィールドデータが、レンズメモリ118から読み出される。レンズライトフィールドデータは、被写***置の一点から発せられ、結像光学系の射出瞳の互いに異なる領域を通過する複数の光束の方向に関する情報と、各々の光束上の点の位置に関する情報とを含むものである。レンズライトフィールドデータは、光束の方向に関する情報と光束上の点の位置に関する情報に加え、光束の強度に関する情報を更に有していてもよい。なお、ここで、光束の強度に関する情報とは、レンズの透過率分布を加味した情報である。また、光束の強度はベクトルの長さ成分で表現されるため、光束の方向と、光束上の点の位置と、光束の強度に関する情報とを有するレンズライトフィールドデータは、光束の始点と終点に関する情報で表現することもできる。なお、レンズライトフィールドデータの詳細については、後に詳述することとする。   Next, lens light field data is acquired (step S1304). Since the lens light field data is data unique to the lens, it is stored in advance in the lens memory 118 which is a lens light field data storage means. The lens memory 118 stores various lens light field data corresponding to the focus detection condition and the defocus amount. Accordingly, lens light field data corresponding to the focus detection condition acquired in step S1301 and the defocus amount acquired in step S1302 is read from the lens memory 118. The lens light field data is generated from one point of the subject position and includes information on the directions of a plurality of light beams passing through different areas of the exit pupil of the imaging optical system, and information on the positions of the points on each light beam. It is a waste. The lens light field data may further include information on the intensity of the light beam in addition to information on the direction of the light beam and information on the position of the point on the light beam. Here, the information on the intensity of the light flux is information that takes into account the transmittance distribution of the lens. Further, since the intensity of the light beam is expressed by the length component of the vector, the lens light field data having information about the direction of the light beam, the position of the point on the light beam, and the intensity of the light beam is related to the start point and the end point of the light beam. It can also be expressed by information. Details of the lens light field data will be described later.

次に、ステップS1304で読み出したレンズライトフィールドデータのうちから使用する領域を決定する(ステップS1305)。レンズライトフィールドデータの使用領域は、ステップS1301で取得された焦点検出条件に応じて決定される。具体的には、ケラレ枠1505によりケラレる部分のレンズライトフィールドデータは使用せず、ケラレ枠1505によりケラレない部分のレンズライトフィールドデータのみを使用する。レンズライトフィールドデータは、射出瞳の領域毎の情報として記憶されているため、このような一部の領域のみの選択が可能となる。なお、ケラレ枠1505については、後に詳述することとする。   Next, a region to be used is determined from the lens light field data read in step S1304 (step S1305). The use area of the lens light field data is determined according to the focus detection condition acquired in step S1301. Specifically, the lens light field data of the portion vignetted by the vignetting frame 1505 is not used, and only the lens light field data of the portion vignetted by the vignetting frame 1505 is used. Since the lens light field data is stored as information for each area of the exit pupil, only such a partial area can be selected. The vignetting frame 1505 will be described in detail later.

次に、センサ受光ライトフィールドデータの算出処理を行う(ステップS1306)。センサ受光ライトフィールドデータ算出処理においては、ステップS1303で取得したセンサ受光強度特性1401と、ステップS1305で使用領域が決定されたレンズライトフィールドデータとに基づいて、センサ受光ライトフィールドデータが算出される。具体的には、レンズライトフィールドデータが示す複数の光束の強度と、当該複数の光束に対応する領域におけるセンサ受光強度特性との積によって、センサ受光ライトフィールドデータが算出される。   Next, calculation processing of sensor light reception light field data is performed (step S1306). In the sensor light reception light field data calculation process, the sensor light reception light field data is calculated based on the sensor light reception intensity characteristic 1401 acquired in step S1303 and the lens light field data whose use area is determined in step S1305. Specifically, the sensor light reception light field data is calculated by the product of the intensities of the plurality of light fluxes indicated by the lens light field data and the sensor light reception intensity characteristics in the region corresponding to the plurality of light fluxes.

次に、点像強度分布の生成処理を行う(ステップS1307)。点像強度分布の生成処理においては、ステップS1306で算出したセンサ受光ライトフィールドデータに基づいて、撮像素子122の受光面304の位置を光軸方向において異ならせた際の複数の点像強度分布を生成する。   Next, point image intensity distribution generation processing is performed (step S1307). In the point image intensity distribution generation process, a plurality of point image intensity distributions when the position of the light receiving surface 304 of the image sensor 122 is varied in the optical axis direction based on the sensor light receiving light field data calculated in step S1306. Generate.

図14は、レンズライトフィールドデータとセンサ受光強度特性と点像強度分布との関係を示す図である。図14におけるX軸は射出瞳面の水平方向を示しており、図14におけるZ軸は光軸方向を表している。   FIG. 14 is a diagram showing the relationship among lens light field data, sensor light-receiving intensity characteristics, and point image intensity distribution. The X axis in FIG. 14 represents the horizontal direction of the exit pupil plane, and the Z axis in FIG. 14 represents the optical axis direction.

符号1401は、センサ受光強度特性(センサ受光強度分布)を射出瞳面上に投影したときの分布を示している。なお、センサ受光強度特性は、上述したように、撮像素子122の受光面304における各々の画素200に到達する各々の光束の強度を示すものであり、射出瞳面上における各々の光束の強度を表すものではない。図14では、説明の便宜上、射出瞳面上にセンサ受光強度特性を投影している。   Reference numeral 1401 indicates a distribution when the sensor light-receiving intensity characteristic (sensor light-receiving intensity distribution) is projected onto the exit pupil plane. The sensor light-receiving intensity characteristic indicates the intensity of each light beam reaching each pixel 200 on the light-receiving surface 304 of the image sensor 122 as described above, and the intensity of each light beam on the exit pupil plane. It does not represent. In FIG. 14, the sensor light reception intensity characteristic is projected on the exit pupil plane for convenience of explanation.

符号1402は、レンズライトフィールドデータを示している。符号1403は、センサ受光ライトフィールドデータを示している。符号1404a、1404b、1404cは、撮像素子122の位置、即ち、センサ位置を示している。符号1405a、1405b、1405cは、各々のセンサ位置1404a、1404b、1404cにおける点像強度分布を表している。なお、これらの点像強度分布1405a、1405b、1405cは、センサ受光ライトフィールドデータ1403に基づいて生成される。   Reference numeral 1402 indicates lens light field data. Reference numeral 1403 indicates sensor light reception light field data. Reference numerals 1404a, 1404b, and 1404c indicate positions of the image sensor 122, that is, sensor positions. Reference numerals 1405a, 1405b, and 1405c represent point image intensity distributions at the respective sensor positions 1404a, 1404b, and 1404c. These point image intensity distributions 1405a, 1405b, and 1405c are generated based on the sensor light-receiving light field data 1403.

センサ受光ライトフィールドデータ1403は、レンズライトフィールドデータ1402に示されている複数の光束の強度と、当該複数の光束に対応する領域のセンサ受光強度特性1401との積により求められる。センサ受光強度特性1401の強度が大きい座標では、センサ受光ライトフィールドデータ1403は大きくなる。   The sensor light reception light field data 1403 is obtained by the product of the intensities of the plurality of light fluxes indicated in the lens light field data 1402 and the sensor light reception intensity characteristics 1401 of the region corresponding to the plurality of light fluxes. The sensor light reception light field data 1403 becomes large at coordinates where the intensity of the sensor light reception intensity characteristic 1401 is large.

点像強度分布1405aは、センサ受光ライトフィールドデータ1403上における光束のセンサ位置1404aにおける到達点に応じて、センサ受光ライトフィールドデータ上における光束のセンサ位置1404aでの受光強度を積分することにより算出される。点像強度分布1405bは、センサ受光ライトフィールドデータ1403上における光束のセンサ位置1404bにおける到達点に応じて、センサ受光ライトフィールドデータ上における光束のセンサ位置1404bでの受光強度を積分することにより算出される。点像強度分布1405cは、センサ受光ライトフィールドデータ1403上における光束のセンサ位置1404cにおける到達点に応じて、センサ受光ライトフィールドデータ上における光束のセンサ位置1404cでの受光強度を積分することにより算出される。センサ受光ライトフィールドデータ1403上における光束の受光強度を積分する際には、撮像素子122に配された画素200の間隔(ピッチ)で積分が行われる。   The point image intensity distribution 1405a is calculated by integrating the received light intensity at the sensor position 1404a of the light beam on the sensor received light field data according to the arrival point at the sensor position 1404a of the light beam on the sensor received light field data 1403. The The point image intensity distribution 1405b is calculated by integrating the received light intensity at the sensor position 1404b of the light beam on the sensor received light field data according to the arrival point at the sensor position 1404b of the light beam on the sensor received light field data 1403. The The point image intensity distribution 1405c is calculated by integrating the received light intensity at the sensor position 1404c of the light beam on the sensor received light field data according to the arrival point at the sensor position 1404c of the light beam on the sensor received light field data 1403. The When integrating the received light intensity of the light flux on the sensor light receiving light field data 1403, the integration is performed at the interval (pitch) of the pixels 200 arranged in the image sensor 122.

このように、センサ受光強度特性とレンズライトフィールドデータとの積に基づいてセンサ受光ライトフィールドデータが算出され、センサ受光ライトフィールドデータに基づいて複数のデフォーカス位置における点像強度分布が生成される。   As described above, the sensor light reception light field data is calculated based on the product of the sensor light reception intensity characteristic and the lens light field data, and point image intensity distributions at a plurality of defocus positions are generated based on the sensor light reception light field data. .

[センサ受光強度特性]
次に、センサ受光強度特性について説明する。
[Sensor light-receiving intensity characteristics]
Next, sensor received light intensity characteristics will be described.

なお、上述したように、センサ受光強度特性は、撮像素子122に固有の特性であるため、センサ受光強度特性記憶手段であるROM125a等に予め記憶されている。   As described above, the sensor light reception intensity characteristic is a characteristic inherent to the image sensor 122, and is stored in advance in the ROM 125a, which is a sensor light reception intensity characteristic storage unit.

図15は、センサ受光強度特性を示す概略図である。図15では、センサ受光強度特性を出射瞳面上に投影して示している。センサ受光強度特性は、上述したように、撮像素子122の受光面304における各々の画素200に到達する各々の光束の強度を示すものであり、射出瞳面上における光束の強度の分布を示すものではない。ここでは、説明の便宜上、射出瞳面にセンサ受光強度特性を投影して示している。   FIG. 15 is a schematic diagram showing sensor light-receiving intensity characteristics. In FIG. 15, the sensor light-receiving intensity characteristic is projected onto the exit pupil plane. As described above, the sensor light-receiving intensity characteristic indicates the intensity of each light beam that reaches each pixel 200 on the light-receiving surface 304 of the image sensor 122, and indicates the distribution of the intensity of the light beam on the exit pupil plane. is not. Here, for convenience of explanation, the sensor light-receiving intensity characteristic is projected on the exit pupil plane.

図15(a)は、第1の瞳部分領域501を通過する光束についてのセンサ受光強度特性1501aを2次元的に示したものであり、ケラレが生じない場合のものである。図15(b)は、第2の瞳部分領域502を通過する光束についてのセンサ受光強度特性1501bを2次元的に示したものであり、ケラレが生じない場合のものである。図15(c)は、センサ受光強度特性を1次元的に示したものであり、ケラレが生じない場合のものである。符号1502aは、第1の瞳部分領域501を通過する光束についてのセンサ受光強度特性を示しており、符号1502bは、第2の瞳部分領域502を通過する光束についてのセンサ受光強度特性を示している。   FIG. 15A shows the sensor light-receiving intensity characteristic 1501a for the light beam passing through the first pupil partial region 501 in a two-dimensional manner, in which vignetting does not occur. FIG. 15B shows the sensor light-receiving intensity characteristic 1501b for the light beam passing through the second pupil partial region 502 in a two-dimensional manner, in which no vignetting occurs. FIG. 15C shows the sensor light-receiving intensity characteristic in a one-dimensional manner when no vignetting occurs. Reference numeral 1502a indicates the sensor light reception intensity characteristic for the light beam passing through the first pupil partial area 501, and reference numeral 1502b indicates the sensor light reception intensity characteristic for the light beam passing through the second pupil partial area 502. Yes.

図15(d)は、第1の瞳部分領域501を通過する光束についてのセンサ受光強度特性1503aを2次元的に示したものであり、ケラレが生じる場合のものである。図15(e)は、第2の瞳部分領域502を通過する光束についてのセンサ受光強度特性1503bを2次元的に示したものであり、ケラレが生じる場合のものである。図15(f)は、センサ受光強度特性を1次元的に示したものであり、ケラレが生じる場合のものである。   FIG. 15D shows the sensor light reception intensity characteristic 1503a for the light beam passing through the first pupil partial region 501 in a two-dimensional manner, and is a case where vignetting occurs. FIG. 15E shows the sensor light reception intensity characteristic 1503b for the light beam passing through the second pupil partial region 502 in a two-dimensional manner, in which vignetting occurs. FIG. 15 (f) shows the sensor light-receiving intensity characteristic one-dimensionally and shows the case where vignetting occurs.

図15の(a)、(b)、(d)、(e)のX軸及びY軸は、射出瞳面における座標を示している。図15の(a)、(b)、(d)、(e)では、ハッチングの粗さによって光の強度を表現している。ハッチングが細かいほど光の強度が高く、ハッチングが粗いほど光の強度が低い。図15の(d)、(e)における符号1505は、ケラレ枠を示している。ケラレ枠は、レンズ枠や絞り枠によるケラレの境界であり、ビネッティング情報として保持されている。図15の(c)、(f)のX軸は、射出瞳面の水平方向を示している。   15A, 15B, 15D, and 15E indicate the coordinates on the exit pupil plane. In (a), (b), (d), and (e) of FIG. 15, the intensity of light is expressed by the roughness of hatching. The finer the hatching, the higher the light intensity, and the rougher the hatching, the lower the light intensity. Reference numeral 1505 in FIGS. 15D and 15E denotes a vignetting frame. The vignetting frame is a vignetting boundary formed by a lens frame or a diaphragm frame, and is held as vignetting information. The X axis in FIGS. 15C and 15F indicates the horizontal direction of the exit pupil plane.

ケラレが生じない場合には、1次元的に示したセンサ受光強度特性は、図15(c)の符号1502a、1502bのような分布となる。   When vignetting does not occur, the sensor light reception intensity characteristics shown one-dimensionally have distributions as indicated by reference numerals 1502a and 1502b in FIG.

これに対し、ケラレが生じる場合には、1次元的に示したセンサ受光強度特性は、図15(f)の符号1504a、1504bのような分布となる。   On the other hand, when vignetting occurs, the sensor light reception intensity characteristics shown one-dimensionally have distributions as indicated by reference numerals 1504a and 1504b in FIG.

このように、センサ受光強度特性は、ケラレ枠1505と瞳形状とに依存する。   Thus, the sensor light-receiving intensity characteristic depends on the vignetting frame 1505 and the pupil shape.

なお、ここでは、中央像高におけるセンサ受光強度特性を例に説明したが、周辺像高におけるセンサ受光強度特性も上記と同様である。但し、周辺像高においては、ケラレ枠1505の形状が円形ではない場合もある。   Although the sensor light reception intensity characteristic at the central image height has been described as an example here, the sensor light reception intensity characteristic at the peripheral image height is the same as described above. However, the vignetting frame 1505 may not be circular at the peripheral image height.

センサ受光強度特性は、上述したように、撮像素子122の受光面304における各々の画素200に到達する各々の光束の強度を示すものである。しかし、レンズライトフィールドデータが射出瞳面上の座標において定義される場合には、センサ受光強度特性も射出瞳面上の座標において定義することが好ましい。レンズライトフィールドデータとセンサ受光強度特性とを同じ面上の座標で定義することにより、センサ受光ライトフィールドデータの算出が容易となるためである。ここでは、レンズライトフィールドデータを射出瞳面上において定義することとし、センサ受光強度特性についても射出瞳面上にセンサ受光強度特性を投影したときの座標で定義することとする。   As described above, the sensor light reception intensity characteristic indicates the intensity of each light beam reaching each pixel 200 on the light receiving surface 304 of the image sensor 122. However, when the lens light field data is defined in coordinates on the exit pupil plane, it is preferable to define the sensor light reception intensity characteristics in coordinates on the exit pupil plane. This is because the sensor light reception light field data can be easily calculated by defining the lens light field data and the sensor light reception intensity characteristic with coordinates on the same plane. Here, the lens light field data is defined on the exit pupil plane, and the sensor light reception intensity characteristic is also defined by the coordinates when the sensor light reception intensity characteristic is projected onto the exit pupil plane.

センサ受光強度特性は、撮像素子122の受光面304における各々の画素200に到達する光束の強度の2次元的な分布を示すデータであり、射出瞳面上に投影したときのXY座標に対応付けて保持される。   The sensor light-receiving intensity characteristic is data indicating a two-dimensional distribution of the intensity of the light beam reaching each pixel 200 on the light receiving surface 304 of the image sensor 122, and is associated with XY coordinates when projected onto the exit pupil plane. Held.

なお、レンズライトフィールドデータを射出瞳面とは異なる面上の座標で定義するようにしてもよい。この場合には、レンズライトフィールドデータが定義される面と同一の面上にセンサ受光強度特性を投影した際のXY座標に対応付けて、センサ受光強度特性が保持される。   The lens light field data may be defined by coordinates on a plane different from the exit pupil plane. In this case, the sensor light reception intensity characteristic is held in association with the XY coordinates when the sensor light reception intensity characteristic is projected on the same surface as the surface on which the lens light field data is defined.

センサ受光強度特性の相違は、撮像素子122の型式(機種、種類)の相違によっても生ずる。図16は、撮像素子の型式の相違によるセンサ受光強度特性の相違を示すグラフである。横軸Xは射出瞳面の水平方向を示しており、縦軸は受光強度を表している。   The difference in the sensor light-receiving intensity characteristic also occurs due to the difference in the type (model, type) of the image sensor 122. FIG. 16 is a graph showing differences in sensor light-receiving intensity characteristics due to differences in image sensor type. The horizontal axis X represents the horizontal direction of the exit pupil plane, and the vertical axis represents the received light intensity.

符号1601aは、第1の撮像素子(図示せず)によって受光される場合のセンサ受光強度特性を1次元的に示したものである。符号1601bは、第2の瞳部分領域502を通過する光束が第1の撮像素子によって受光される場合のセンサ受光強度特性を1次元的に示したものである。   Reference numeral 1601a indicates one-dimensionally the sensor light reception intensity characteristic when light is received by a first image sensor (not shown). Reference numeral 1601b indicates one-dimensionally the sensor light reception intensity characteristic when the light beam passing through the second pupil partial region 502 is received by the first image sensor.

符号1602aは、第1の瞳部分領域501を通過する光束が、第1の撮像素子とは異なる型式の第2の撮像素子(図示せず)によって受光される場合のセンサ受光強度特性を1次元的に示したものである。符号1601bは、第2の瞳部分領域502を通過する光束が、第2の撮像素子によって受光される場合のセンサ受光強度特性を1次元的に示したものである。   Reference numeral 1602a indicates one-dimensional sensor light reception intensity characteristics when a light beam passing through the first pupil partial region 501 is received by a second image sensor (not shown) of a type different from that of the first image sensor. It is shown as an example. Reference numeral 1601b indicates one-dimensionally the sensor light reception intensity characteristic when the light beam passing through the second pupil partial region 502 is received by the second image sensor.

第1の撮像素子のセンサ受光強度特性1601aは、第2の撮像素子のセンサ受光強度特性1602aに対して、X座標値が負の領域において顕著に低くなっている。   The sensor light reception intensity characteristic 1601a of the first image sensor is significantly lower in the region where the X coordinate value is negative than the sensor light reception intensity characteristic 1602a of the second image sensor.

また、第1の撮像素子のセンサ受光強度特性1601bは、第2の撮像素子のセンサ受光強度特性1602に対して、X座標値が正の領域において顕著に低くなっている。   Also, the sensor light reception intensity characteristic 1601b of the first image sensor is significantly lower in the region where the X coordinate value is positive than the sensor light reception intensity characteristic 1602 of the second image sensor.

撮像素子の型式によってセンサ受光強度特性に相違が生じるのは、撮像素子122の受光面304の上方に配された多層配線構造等によるケラレが、撮像素子の型式によって異なるためである。   The reason why the sensor light-receiving intensity characteristic varies depending on the image sensor type is that vignetting due to the multilayer wiring structure or the like disposed above the light receiving surface 304 of the image sensor 122 differs depending on the image sensor model.

センサ受光強度特性の相違は、撮像素子122を撮像装置本体120に取り付ける際のずれ等によっても生ずる。即ち、撮像素子122を撮像装置本体120に取り付ける際には、入射瞳面に対して撮像素子122の受光面304が傾いてしまう場合がある。撮像素子122の受光面304から射出瞳面までの距離(瞳距離)は数十mmであるため、撮像素子122の受光面304が射出瞳面に対して数度傾いた場合には、射出瞳面上では数mmのレベルで光軸の位置ずれが生じてしまうこととなる。撮像素子122の画素ピッチは一般的には数μmであるため、数mmのレベルでの光軸の位置ずれは無視できない大きさである。   The difference in sensor light-receiving intensity characteristic also occurs due to a shift or the like when the image sensor 122 is attached to the image pickup apparatus main body 120. That is, when the image sensor 122 is attached to the image pickup apparatus main body 120, the light receiving surface 304 of the image sensor 122 may be inclined with respect to the entrance pupil plane. Since the distance (pupil distance) from the light receiving surface 304 of the image sensor 122 to the exit pupil plane is several tens of millimeters, the exit pupil when the light receiving surface 304 of the image sensor 122 is tilted several degrees with respect to the exit pupil plane. On the surface, the optical axis is displaced at a level of several mm. Since the pixel pitch of the image sensor 122 is generally several μm, the positional deviation of the optical axis at the level of several mm is a size that cannot be ignored.

図17は、撮像素子を取り付ける際のずれがセンサ受光強度特性に及ぼす影響を示す概略図である。図17(a)は、撮像素子122が撮像装置本体120に正常に取付けられた場合を示している。図17(b)は、撮像素子122が撮像装置本体120に傾いて取り付けられた場合を示している。X軸は撮像素子122の水平方向を示しており、Z軸は光軸方向を示している。   FIG. 17 is a schematic diagram showing the influence of the displacement when attaching the image sensor on the sensor light-receiving intensity characteristic. FIG. 17A shows a case where the image sensor 122 is normally attached to the image pickup apparatus main body 120. FIG. 17B shows a case where the image sensor 122 is attached to the image pickup apparatus main body 120 at an angle. The X axis indicates the horizontal direction of the image sensor 122, and the Z axis indicates the optical axis direction.

図17(a)の上側の図及び図17(b)の上側の図は、センサ受光強度特性を射出瞳面上に投影したときの分布を示している。符号1701a、1703aは、第1の瞳部分領域501を通過する光束についてのセンサ受光強度特性を1次元的に示すものである。また、符号1701b、1703bは、第2の瞳部分領域502を通過する光束についてのセンサ受光強度特性を1次元的に示すものである。符号1702は、射出瞳面に対して平行に取り付けられた撮像素子122を示しており、符号1704は、射出瞳面に対して傾いて取り付けられた撮像素子122を示している。   The upper diagram in FIG. 17A and the upper diagram in FIG. 17B show distributions when the sensor light-receiving intensity characteristic is projected onto the exit pupil plane. Reference numerals 1701a and 1703a indicate one-dimensionally the sensor light-receiving intensity characteristics for the light beam passing through the first pupil partial region 501. Reference numerals 1701b and 1703b indicate one-dimensionally the sensor light-receiving intensity characteristics for the light flux passing through the second pupil partial region 502. Reference numeral 1702 indicates the image sensor 122 attached in parallel to the exit pupil plane, and reference numeral 1704 indicates the image sensor 122 attached to the exit pupil plane in an inclined manner.

図17(b)のdxは、光軸のずれ量を示しており、撮像素子122の受光面304の射出瞳面に対する傾き角によって異なる。   Dx in FIG. 17B indicates the amount of deviation of the optical axis, and varies depending on the inclination angle of the light receiving surface 304 of the image sensor 122 with respect to the exit pupil plane.

なお、ここでは、X方向のずれを例に説明したが、Y方向のずれについても同様である。   Note that, here, the shift in the X direction has been described as an example, but the same applies to the shift in the Y direction.

このように、センサ受光強度特性は、撮像素子122の型式の相違や撮像素子122を撮像装置本体120に取り付ける際のずれによっても相違する。本実施形態では、このような相違を加味した情報を用いて点像強度分布を生成するため、良好な点像強度分布を生成することができる。このため、本実施形態によれば、後述するデフォーカス量補正において補正に用いられる補正値の算出を、高精度に行うことが可能となる。   As described above, the sensor light-receiving intensity characteristics are also different depending on the type of the image sensor 122 and the shift when the image sensor 122 is attached to the image pickup apparatus main body 120. In the present embodiment, since the point image intensity distribution is generated using information that takes such differences into account, a good point image intensity distribution can be generated. For this reason, according to the present embodiment, it is possible to calculate a correction value used for correction in defocus amount correction described later with high accuracy.

[レンズライトフィールドデータ]
次に、レンズライトフィールドデータについて詳細に説明する。
[Lens Light Field Data]
Next, lens light field data will be described in detail.

レンズライトフィールドデータは、被写***置の一点から発せられ、結像光学系の射出瞳の互いに異なる領域を通過する複数の光束の方向に関する情報と、光束上の点の位置に関する情報とを含むものである。レンズライトフィールドデータは、光束の方向に関する情報と光束上の点の位置に関する情報とに加え、光束の強度に関する情報を含んでいてもよい。   The lens light field data is generated from one point of the subject position and includes information on the directions of a plurality of light beams passing through different areas of the exit pupil of the imaging optical system and information on the positions of the points on the light beam. The lens light field data may include information on the intensity of the light beam in addition to information on the direction of the light beam and information on the position of the point on the light beam.

光束の強度はベクトルの長さ成分で表現し得るため、光束の方向と、光束上の点の位置と、光束の強度に関する情報を含むレンズライトフィールドデータは、光束の始点と終点に関する情報で表現することもできる。   Since the intensity of the light beam can be expressed by a vector length component, the lens light field data including information on the direction of the light beam, the position of the point on the light beam, and the intensity of the light beam is expressed by information on the start point and end point of the light beam. You can also

レンズライトフィールドデータは、例えば、光束上の点の位置を示す3次元情報と、光束の方向を示す2次元情報と、光束の強度を示す1次元情報とを合わせた、最大で6次元の情報により表現し得る。   The lens light field data includes, for example, a maximum of six-dimensional information that is a combination of three-dimensional information indicating the position of a point on the light beam, two-dimensional information indicating the direction of the light beam, and one-dimensional information indicating the intensity of the light beam. Can be expressed by

このように、レンズライトフィールドデータは、光線追跡図のように各レンズ面での屈折を示す情報によって光束の情報を表現するのではなく、光束の方向と光束上の点の位置とを示す情報に加工することによって光束の情報を表現する。レンズライトフィールドデータは、このような情報によって表現されているため、データ量が小さく、点像強度分布を生成する際に扱いやすい。   As described above, the lens light field data does not represent the information of the light flux by the information indicating the refraction at each lens surface as in the ray tracing diagram, but the information indicating the direction of the light flux and the position of the point on the light flux. The information of the luminous flux is expressed by processing it. Since the lens light field data is expressed by such information, the data amount is small, and it is easy to handle when generating the point image intensity distribution.

図18は、レンズライトフィールドデータを2次元的に示す概略図である。図18(a)は、中央像高におけるレンズライトフィールドデータを示しており、図18(b)は、80%の周辺像高におけるレンズライトフィールドデータを示している。図18(c)は、100%の周辺像高におけるレンズライトフィールドデータを示している。図18の(a)〜(c)のいずれもが、射出瞳面に関連付けられたレンズライトフィールドデータを示している。なお、レンズライトフィールドデータは、射出瞳面に関連付けることに限定されるものではなく、射出瞳面と異なる面に関連付けられていてもよい。   FIG. 18 is a schematic diagram showing lens light field data two-dimensionally. FIG. 18A shows the lens light field data at the central image height, and FIG. 18B shows the lens light field data at the peripheral image height of 80%. FIG. 18C shows lens light field data at a peripheral image height of 100%. 18A to 18C show lens light field data associated with the exit pupil plane. The lens light field data is not limited to being associated with the exit pupil plane, but may be associated with a plane different from the exit pupil plane.

図18(a)に示すように、中央像高の場合には、絞り1131aによるケラレのみによって、レンズライトフィールドデータの領域が定まる。   As shown in FIG. 18A, in the case of the center image height, the area of the lens light field data is determined only by the vignetting by the aperture 1131a.

一方、図18(b)に示すように、80%の周辺像高では、絞り1131aによってケラレが生ずるだけでなく、レンズ枠によってもケラレが生じる。このため、絞り1131aとレンズ枠とが組み合わさったケラレ枠によって、レンズライトフィールドデータを規定し得る領域が定まる。80%の周辺像高の場合においてレンズライトフィールドデータを規定し得る領域は、中央像高の場合においてレンズライトフィールドデータを規定し得る領域に比べて狭い。   On the other hand, as shown in FIG. 18B, at the peripheral image height of 80%, vignetting is caused not only by the aperture 1131a but also by the lens frame. For this reason, an area where the lens light field data can be defined is determined by the vignetting frame in which the aperture 1131a and the lens frame are combined. The area where the lens light field data can be defined at the peripheral image height of 80% is narrower than the area where the lens light field data can be defined at the center image height.

像高が高くなるに伴ってケラレる領域が増加する。このため、100%の周辺像高の場合には、図18(c)に示すように、レンズライトフィールドデータを規定し得る領域がさらに狭くなる。   As the image height increases, the vignetting area increases. For this reason, when the peripheral image height is 100%, as shown in FIG. 18C, the region where the lens light field data can be defined is further narrowed.

また、絞り値によってケラレ枠は変化するため、レンズライトフィールドデータの領域も絞り値によって異なる。   Since the vignetting frame changes depending on the aperture value, the area of the lens light field data also differs depending on the aperture value.

このように、レンズライトフィールドデータを規定し得る領域は、絞り値や、像高によって異なるケラレ枠(ビネッティング情報)によって定まる。このため、レンズライトフィールドデータのうちから使用領域を決定する際には(図13のステップS1305)、絞り値、像高等の焦点検出条件に応じて、レンズライトフィールドデータの使用領域を決定する。   As described above, the region where the lens light field data can be defined is determined by the vignetting frame (vignetting information) that varies depending on the aperture value and the image height. For this reason, when determining the use area from the lens light field data (step S1305 in FIG. 13), the use area of the lens light field data is determined according to the focus detection conditions such as the aperture value and the image height.

図19は収差の有無と光束の集光との関係を示す概略図である。図19(a)は、収差が存在しない場合における光束の集光の状態を示しており、図19(b)は、収差が存在する場合における集光の状態を示している。   FIG. 19 is a schematic diagram showing the relationship between the presence / absence of aberration and the collection of light flux. FIG. 19A shows the state of light beam condensing in the absence of aberration, and FIG. 19B shows the state of light condensing in the presence of aberration.

収差が存在しない場合には、図19(a)に示すように、光束が一点で交わる。   When there is no aberration, the light beams intersect at a single point as shown in FIG.

一方、収差が存在する場合には、図19(b)に示すように、光束が一点で交わらない。実際の結像光学系133においては、収差が存在するため、光束は例えば図19(b)のように集光することとなる。   On the other hand, when aberration is present, the light beams do not intersect at one point as shown in FIG. In the actual imaging optical system 133, since aberration exists, the light beam is condensed as shown in FIG. 19B, for example.

レンズライトフィールドデータは、結像光学系133における収差の影響を加味して表現することが可能である。結像光学系133における収差は、結像光学系(レンズ)133の型式(機種)や、結像光学系133の製造ばらつき等によって異なる。収差の影響がレンズライトフィールドデータにおいて加味されているため、レンズの収差を加味して点像強度分布を生成することが可能である。   The lens light field data can be expressed in consideration of the influence of aberration in the imaging optical system 133. The aberration in the imaging optical system 133 differs depending on the type (model) of the imaging optical system (lens) 133, manufacturing variations of the imaging optical system 133, and the like. Since the influence of aberration is taken into account in the lens light field data, it is possible to generate a point image intensity distribution taking into account lens aberration.

図20は、レンズライトフィールドデータの形成方法を示す概略図である。   FIG. 20 is a schematic diagram showing a method for forming lens light field data.

図20(a)は、被写体2001からの光束の光線追跡図を示している。図20(a)に示す光線追跡図においては、被写体2001からの各々の光線の各レンズ面における屈折の情報が含まれている。   FIG. 20A shows a ray tracing diagram of a light beam from the subject 2001. The ray tracing diagram shown in FIG. 20A includes information on refraction of each ray from the subject 2001 on each lens surface.

図20(b)は、レンズライトフィールドデータの一例を示している。図20(b)に示すように、後玉2002から出射される光束の軌道を含む直線を、光束の進行方向と反対方向に延長し、当該延長線上において、始点の座標の情報、方向の情報及び強度の情報を規定することにより、レンズライトフィールドデータが得られる。レンズライトフィールドデータは、例えばベクトルの形式で保持される。図20(b)に示す符号2003aは、レンズライトフィールドデータを構成するベクトル群を示している。   FIG. 20B shows an example of lens light field data. As shown in FIG. 20B, a straight line including the trajectory of the light beam emitted from the rear ball 2002 is extended in the direction opposite to the traveling direction of the light beam, and information on the coordinates of the starting point and the information on the direction on the extended line. By defining the intensity information, lens light field data can be obtained. The lens light field data is held in a vector format, for example. Reference numeral 2003a shown in FIG. 20B indicates a vector group constituting the lens light field data.

図20(c)は、始点座標を射出瞳面上に揃えた場合のレンズライトフィールドデータを示している。図20(c)では、レンズライトフィールドデータを構成するベクトル群2003bの始点の座標が、射出瞳面上に設定されている。図20(c)のようにすれば、光束の方向に関する2次元の情報と、光束の強度に関する1次元の情報とから成る3次元の情報にまで、レンズライトフィールドデータのデータ量を減らすことができる。更に、光束の強度を加味しない場合には、光束の方向に関する2次元の情報にまで、レンズライトフィールドデータのデータ量を減らすことが可能である。   FIG. 20C shows lens light field data when the start point coordinates are aligned on the exit pupil plane. In FIG. 20C, the coordinates of the start point of the vector group 2003b constituting the lens light field data are set on the exit pupil plane. As shown in FIG. 20C, the data amount of the lens light field data can be reduced to three-dimensional information including two-dimensional information about the direction of the light beam and one-dimensional information about the intensity of the light beam. it can. Further, when the intensity of the light beam is not taken into consideration, the data amount of the lens light field data can be reduced to two-dimensional information related to the direction of the light beam.

なお、図20(c)においては、レンズライトフィールドデータを構成するベクトル群の始点の座標を射出瞳面上に揃えたが、射出瞳面上に限定されるものではなく、任意の面上にかかるベクトルの始点の座標を揃えることが可能である。   In FIG. 20 (c), the coordinates of the start points of the vector groups constituting the lens light field data are aligned on the exit pupil plane, but the present invention is not limited to the exit pupil plane, but on any plane. It is possible to align the coordinates of the starting points of such vectors.

本実施形態では、撮影レンズ105と撮像装置本体120との間で予め定義された位置情報が、レンズライトフィールドデータを構成するベクトル群2003bの始点の位置の情報として用いられる。このため、撮影レンズ105と撮像装置本体120との組み合わせが変わっても、共通の処理で点像強度分布を生成することが可能となり、データの処理を容易化することができる。   In the present embodiment, position information defined in advance between the photographing lens 105 and the imaging apparatus main body 120 is used as the position information of the start point of the vector group 2003b constituting the lens light field data. For this reason, even if the combination of the photographing lens 105 and the imaging apparatus main body 120 is changed, it is possible to generate a point image intensity distribution by common processing, and data processing can be facilitated.

撮影レンズ105の型式(機種)の相違や製造ばらつき等に起因して、撮影レンズ105内を進行する光束の方向等に相違が生ずる。本実施形態では、使用される撮影レンズ105に固有のレンズライトフィールドデータを用いて点像強度分布を生成するため、かかる相違を加味して良好な点像強度分布を生成することができる。従って、本実施形態によれば、後述するデフォーカス量補正において用いられる補正値の算出を、高精度に行うことが可能となる。   Due to the difference in the type (model) of the photographic lens 105, manufacturing variation, etc., the direction of the light beam traveling in the photographic lens 105 differs. In the present embodiment, since the point image intensity distribution is generated using lens light field data unique to the photographing lens 105 to be used, a good point image intensity distribution can be generated in consideration of such differences. Therefore, according to the present embodiment, it is possible to calculate a correction value used in defocus amount correction described later with high accuracy.

[デフォーカス量補正処理]
次に、デフォーカス量補正処理について説明する。図21は、本実施形態による撮像装置におけるデフォーカス量補正処理を示すフローチャートである。図21は、図6を用いて概略を説明したデフォーカス量補正処理(ステップS603)を詳細に説明するためのものである。
[Defocus amount correction processing]
Next, the defocus amount correction process will be described. FIG. 21 is a flowchart showing a defocus amount correction process in the imaging apparatus according to the present embodiment. FIG. 21 is a diagram for explaining in detail the defocus amount correction process (step S603), which has been outlined with reference to FIG.

図21に示すデフォーカス量補正処理は、ROM125a、レンズメモリ118、及び、カメラMPU125等が協業することにより実行される。ROM125aは、センサ受光強度特性記憶手段(センサ受光強度特性記憶部)として機能する。レンズメモリ118は、レンズライトフィールドデータ記憶手段(レンズライトフィールドデータ記憶部)として機能する。カメラMPU125は、点像強度分布を生成する点像強度分布生成手段(点像強度分布生成部)、及び、補正値を算出する補正値算出手段(補正値算出部)として機能する。   The defocus amount correction process shown in FIG. 21 is executed by the cooperation of the ROM 125a, the lens memory 118, the camera MPU 125, and the like. The ROM 125a functions as a sensor light reception intensity characteristic storage unit (sensor light reception intensity characteristic storage unit). The lens memory 118 functions as lens light field data storage means (lens light field data storage unit). The camera MPU 125 functions as a point image intensity distribution generation unit (point image intensity distribution generation unit) that generates a point image intensity distribution and a correction value calculation unit (correction value calculation unit) that calculates a correction value.

まず、複数のデフォーカス位置における点像強度分布を取得する(ステップS2101)。具体的には、例えば、撮像素子122の位置(センサ位置)が第1の位置2404(図24(f)参照)に位置している場合における点像強度分布を取得する。また、撮像素子122の位置が第2の位置2405(図24(f)参照)に位置している場合における点像強度分布を取得する。また、撮像素子122の位置が第3の位置2406(図24(f)参照)に位置している場合における点像強度分布を取得する。   First, point image intensity distributions at a plurality of defocus positions are acquired (step S2101). Specifically, for example, the point image intensity distribution in the case where the position (sensor position) of the image sensor 122 is located at the first position 2404 (see FIG. 24F) is acquired. Further, a point image intensity distribution is acquired when the position of the image sensor 122 is located at the second position 2405 (see FIG. 24F). Further, a point image intensity distribution is acquired when the position of the image sensor 122 is located at the third position 2406 (see FIG. 24F).

各々のセンサ位置2404,2405,2406における点像強度分布を取得する際には、以下のような点像強度分布が取得される。即ち、第1の瞳部分領域501を通過し、第1の分割画素201に達する光束の点像強度分布が取得される。また、第2の瞳部分領域502を通過し、第2の分割画素202に達する光束の点像強度分布が取得される。また、第1の瞳部分領域501と第2の瞳部分領域502とを含む瞳領域500を通過し、第1の分割画素201と第2の分割画素202とを含む撮像画素200に達する光束の点像強度分布が取得される。   When acquiring point image intensity distributions at the respective sensor positions 2404, 2405, and 2406, the following point image intensity distributions are acquired. That is, the point image intensity distribution of the light beam that passes through the first pupil partial region 501 and reaches the first divided pixel 201 is acquired. Further, the point image intensity distribution of the light beam that passes through the second pupil partial region 502 and reaches the second divided pixel 202 is acquired. In addition, the light flux that passes through the pupil region 500 including the first pupil partial region 501 and the second pupil partial region 502 and reaches the imaging pixel 200 including the first divided pixel 201 and the second divided pixel 202 is transmitted. A point image intensity distribution is acquired.

第1の瞳部分領域501を通過し、第1の分割画素201に達する光束の点像強度分布、及び、第2の瞳部分領域502を通過し、第2の分割画素202に達する光束の点像強度分布は、例えば、図24の(h)〜(j)のようになる。図24(h)は、撮像素子122が第1の位置2404に位置している場合における点像強度分布を示している。図24(i)は、撮像素子122が第2の位置2405に位置している場合における点像強度分布を示している。図24(j)は、撮像素子122が第3の位置2406に位置している場合における点像強度分布を示している。X軸は撮像素子122の水平方向を示しており、縦軸は受光強度を表している。なお、図24の(h)〜(j)は、撮像素子122の水平方向における点像強度分布を例として示している。   The point image intensity distribution of the light beam that passes through the first pupil partial region 501 and reaches the first divided pixel 201, and the point of the light beam that passes through the second pupil partial region 502 and reaches the second divided pixel 202 The image intensity distribution is, for example, as shown in (h) to (j) of FIG. FIG. 24H shows a point image intensity distribution when the image sensor 122 is located at the first position 2404. FIG. 24 (i) shows a point image intensity distribution when the image sensor 122 is located at the second position 2405. FIG. 24J shows a point image intensity distribution when the image sensor 122 is located at the third position 2406. The X axis represents the horizontal direction of the image sensor 122, and the vertical axis represents the received light intensity. 24H to 24J show point image intensity distributions in the horizontal direction of the image sensor 122 as an example.

第1の瞳部分領域501と第2の瞳部分領域502とを含む瞳領域500を通過し、第1の分割画素201と第2の分割画素202とを含む撮像画素200に達する光束の点像強度分布は、例えば、図22のようになる。   A point image of a light beam that passes through the pupil region 500 including the first pupil partial region 501 and the second pupil partial region 502 and reaches the imaging pixel 200 including the first divided pixel 201 and the second divided pixel 202 The intensity distribution is, for example, as shown in FIG.

図22は、点像強度分布を示す概略図である。図22(a)は、撮像素子122が第1の位置2404に位置している場合における点像強度分布を示している。図22(b)は、撮像素子122が第2の位置2405に位置している場合における点像強度分布を示している。図22(c)は、撮像素子122が第3の位置2406に位置している場合における点像強度分布を示している。X軸は撮像素子122の水平方向を示しており、縦軸は受光強度を表している。なお、図22は、撮像素子122の水平方向における点像強度分布を例として示している。   FIG. 22 is a schematic diagram showing a point image intensity distribution. FIG. 22A shows a point image intensity distribution when the image sensor 122 is located at the first position 2404. FIG. 22B shows a point image intensity distribution when the image sensor 122 is located at the second position 2405. FIG. 22C shows a point image intensity distribution when the image sensor 122 is located at the third position 2406. The X axis represents the horizontal direction of the image sensor 122, and the vertical axis represents the received light intensity. FIG. 22 shows a point image intensity distribution in the horizontal direction of the image sensor 122 as an example.

こうして、複数のデフォーカス位置における点像強度分布が取得される(ステップS2101)。   Thus, point image intensity distributions at a plurality of defocus positions are acquired (step S2101).

次に、最良像面位置を算出する(ステップS2102)。最良像面位置(第1の焦点位置)は、複数のデフォーカス位置における点像強度分布2201、2202、2203に基づいてコントラスト評価値を算出し、算出されたコントラスト評価値に基づいて決定される。   Next, the best image plane position is calculated (step S2102). The best image plane position (first focal position) is determined based on the contrast evaluation values calculated based on the point image intensity distributions 2201, 2202, 2203 at a plurality of defocus positions. .

図23は、コントラスト評価値を示す概略図である。横軸は、Z軸方向における撮像素子122の位置、即ち、センサ位置を示しており、縦軸は、コントラスト評価値を示している。図23は、各々のセンサ位置2404、2405、2406における点像強度分布2201、2202、2203に基づいて算出されたコントラスト評価値をプロットしたものである。符号2301は、撮像素子122の水平方向における点像強度分布2201、2202、2203に基づくコントラスト評価値を示している。即ち、符号2301は、水平成分のコントラスト評価値を示している。符号2302は、撮像素子122の垂直方向における点像強度分布に基づくコントラスト評価値を示している。即ち、符号2302は、垂直成分のコントラスト評価値を示している。   FIG. 23 is a schematic diagram showing contrast evaluation values. The horizontal axis indicates the position of the image sensor 122 in the Z-axis direction, that is, the sensor position, and the vertical axis indicates the contrast evaluation value. FIG. 23 is a plot of contrast evaluation values calculated based on point image intensity distributions 2201, 2202, 2203 at the respective sensor positions 2404, 2405, 2406. A reference numeral 2301 indicates a contrast evaluation value based on the point image intensity distributions 2201, 2202, and 2203 in the horizontal direction of the image sensor 122. That is, reference numeral 2301 indicates the contrast evaluation value of the horizontal component. Reference numeral 2302 denotes a contrast evaluation value based on the point image intensity distribution in the vertical direction of the image sensor 122. That is, reference numeral 2302 indicates the contrast evaluation value of the vertical component.

水平成分のコントラスト評価値2301がピーク値となるときのセンサ位置が、水平成分に基づく最良像面位置として算出される。また、垂直成分のコントラスト評価値2302がピーク値となるときのセンサ位置が、垂直成分に基づく最良像面位置として算出される。被写体に対する最良像面位置を高精度に算出すべく、被写体の縦横成分比率に応じて、最良像面位置が算出される。被写体の縦横成分比率は、撮像信号の垂直成分のコントラスト評価値のピーク値と、撮像信号の水平成分のコントラスト評価値のピーク値との比率により算出される。こうして算出された被写体の縦横成分比率に基づいて、水平成分に基づく最良像面位置と垂直成分に基づく最良像面位置とに重み付けが行われ、最良像面位置が算出される。   The sensor position at which the horizontal component contrast evaluation value 2301 has a peak value is calculated as the best image plane position based on the horizontal component. Further, the sensor position when the contrast evaluation value 2302 of the vertical component becomes the peak value is calculated as the best image plane position based on the vertical component. In order to calculate the best image plane position with respect to the subject with high accuracy, the best image plane position is calculated according to the aspect ratio of the subject. The vertical / horizontal component ratio of the subject is calculated by the ratio between the peak value of the contrast evaluation value of the vertical component of the imaging signal and the peak value of the contrast evaluation value of the horizontal component of the imaging signal. Based on the vertical / horizontal component ratio of the subject thus calculated, the best image plane position based on the horizontal component and the best image plane position based on the vertical component are weighted to calculate the best image plane position.

被写体に対する最良像面位置を高精度に算出すべく、コントラスト評価値を算出する際の周波数帯域は、撮像信号の周波数特性に応じて選択される。具体的には、高域通過フィルタを用いてフィルタ処理を行った場合の撮像信号のコントラスト評価値と、低域通過フィルタを用いてフィルタ処理を行った場合の撮像信号のコントラスト評価値とを比較する。高域通過フィルタを用いた場合の方が、低域通過フィルタを用いた場合よりコントラスト評価値が大きい場合には、被写体に多く含まれる周波数帯域は高域であると考えられる。この場合には、点像強度分布のコントラスト評価値を算出する際の周波数帯域として高域を選択する。一方、低域通過フィルタを用いた場合の方が、高域通過フィルタを用いた場合よりコントラスト評価値が大きい場合には、被写体に多く含まれる周波数帯域は低域であると考えられる。この場合には、点像強度分布のコントラスト評価値を算出する際の周波数帯域として低域を選択する。   In order to calculate the best image plane position with respect to the subject with high accuracy, the frequency band for calculating the contrast evaluation value is selected according to the frequency characteristics of the imaging signal. Specifically, the contrast evaluation value of the imaging signal when filtering is performed using a high-pass filter and the contrast evaluation value of the imaging signal when filtering is performed using a low-pass filter To do. When the high-pass filter is used and the contrast evaluation value is larger than when the low-pass filter is used, the frequency band included in the subject is considered to be a high band. In this case, the high frequency band is selected as the frequency band for calculating the contrast evaluation value of the point image intensity distribution. On the other hand, when the low-pass filter is used and the contrast evaluation value is larger than when the high-pass filter is used, the frequency band included in the subject is considered to be a low band. In this case, the low frequency band is selected as the frequency band for calculating the contrast evaluation value of the point image intensity distribution.

こうして、最良像面位置(第1の合焦位置)が算出される(ステップS2102)。   Thus, the best image plane position (first in-focus position) is calculated (step S2102).

次に、焦点検出デフォーカス位置(第2の合焦位置)を算出する(ステップS2103)。具体的には、図24の(h)〜(j)に示すような点像強度分布2424a、2424b、2425a、2425b、2426a、2426bを用いて相関演算を行うことにより、焦点検出デフォーカス位置を算出する。   Next, a focus detection defocus position (second focus position) is calculated (step S2103). Specifically, by performing correlation calculation using point image intensity distributions 2424a, 2424b, 2425a, 2425b, 2426a, and 2426b as shown in (h) to (j) of FIG. calculate.

なお、点像強度分布に被写体の信号をコンボリューションした信号を用いて、相関演算を行うことにより、焦点検出デフォーカス位置を算出してもよい。   Note that the focus detection defocus position may be calculated by performing a correlation calculation using a signal obtained by convolving the signal of the subject with the point image intensity distribution.

また、ここでは相関演算を行うことにより焦点検出デフォーカス位置を算出したが、相関演算を行うことに限定されるものではなく、コントラスト方式等、他の方式によって焦点検出デフォーカス位置を求めてもよい。   Further, here, the focus detection defocus position is calculated by performing the correlation calculation, but the present invention is not limited to performing the correlation calculation, and the focus detection defocus position may be obtained by other methods such as a contrast method. Good.

こうして、焦点検出デフォーカス位置(第2の合焦位置)が算出される(ステップS2103)。   Thus, the focus detection defocus position (second focus position) is calculated (step S2103).

次に、補正値を算出する(ステップS2104)。かかる補正値は、ステップS2102で算出した最良像面位置(第1の合焦位置)とステップS2103で算出した焦点検出デフォーカス位置(第2の合焦位置)との差分である。かかる補正値を用いて、後述するデフォーカスオフセットを補正することが可能である。なお、デフォーカスオフセットについては、後に詳述することとする。算出された補正値は、例えばEEPROM125c又はレンズメモリ118に記録される。   Next, a correction value is calculated (step S2104). The correction value is a difference between the best image plane position (first in-focus position) calculated in step S2102 and the focus detection defocus position (second in-focus position) calculated in step S2103. It is possible to correct a defocus offset described later using such a correction value. The defocus offset will be described in detail later. The calculated correction value is recorded in, for example, the EEPROM 125c or the lens memory 118.

次に、算出された補正値を用いてデフォーカス量を補正する(ステップS2105)。即ち、ステップS2104で算出した補正値を用いて、図7のステップS706で算出したデフォーカス量を補正する。   Next, the defocus amount is corrected using the calculated correction value (step S2105). That is, the defocus amount calculated in step S706 of FIG. 7 is corrected using the correction value calculated in step S2104.

こうして、デフォーカス量補正処理が完了する。   Thus, the defocus amount correction process is completed.

[デフォーカスオフセットの発生原理]
次に、デフォーカスオフセットの発生原理について説明する。図24は、デフォーカスオフセットの発生原理を示す概略図である。
[Principle of defocus offset generation]
Next, the principle of defocus offset generation will be described. FIG. 24 is a schematic diagram illustrating the principle of defocus offset generation.

図24の(a)〜(e)は、レンズ収差が存在しない場合を示しており、図24(f)〜(j)は、レンズ収差が存在する場合を示している。図24の(a)、(f)のX軸は射出瞳面の水平方向を示している。符号2401〜2406は、撮像素子122の位置を示している。符号2401、2404は後ピン位置に対応しており、符号2402、2405は最良像面位置に対応しており、符号2403、2406は前ピン位置に対応している。   24A to 24E show a case where there is no lens aberration, and FIGS. 24F to 24J show a case where lens aberration exists. 24A and 24F, the X-axis indicates the horizontal direction of the exit pupil plane. Reference numerals 2401 to 2406 indicate positions of the image sensor 122. Reference numerals 2401 and 2404 correspond to rear pin positions, reference numerals 2402 and 2405 correspond to best image plane positions, and reference numerals 2403 and 2406 correspond to front pin positions.

図24の(b)、(g)は、デフォーカスカーブを示している。横軸は、Z軸方向、即ち、光軸方向を示しており、図24の(b)、(g)の縦軸はデフォーカス量defを示している。   24B and 24G show defocus curves. The horizontal axis indicates the Z-axis direction, that is, the optical axis direction, and the vertical axes in FIGS. 24B and 24G indicate the defocus amount def.

図24の(c)〜(e)、(h)〜(j)は、点像強度分布を示している。横軸は、X軸方向、即ち、撮像素子122の水平方向を示しており、縦軸は受光強度を示している。   (C) to (e) and (h) to (j) in FIG. 24 show point image intensity distributions. The horizontal axis indicates the X-axis direction, that is, the horizontal direction of the image sensor 122, and the vertical axis indicates the received light intensity.

図24(c)は、後ピン位置2401における点像強度分布2421a、2421bを示している。符号2421aは、第1の瞳部分領域501を通過する光束についての点像強度分布を示したものであり、符号2421bは、第2の瞳部分領域502を通過する光束についての点像強度分布を示したものである。   FIG. 24C shows point image intensity distributions 2421 a and 2421 b at the rear pin position 2401. Reference numeral 2421a represents a point image intensity distribution for a light beam passing through the first pupil partial area 501, and reference numeral 2421b represents a point image intensity distribution for a light beam passing through the second pupil partial area 502. It is shown.

図24(d)は、最良像面位置2402における点像強度分布2422a、2422bを示している。符号2422aは、第1の瞳部分領域501を通過する光束についての点像強度分布を示したものであり、符号2422bは、第2の瞳部分領域502を通過する光束についての点像強度分布を示したものである。   FIG. 24D shows point image intensity distributions 2422 a and 2422 b at the best image plane position 2402. Reference numeral 2422a indicates a point image intensity distribution for the light beam passing through the first pupil partial area 501, and reference numeral 2422b indicates a point image intensity distribution for the light beam passing through the second pupil partial area 502. It is shown.

図24(e)は、前ピン位置2403における点像強度分布2423a、2423bを示している。符号2423aは、第1の瞳部分領域501を通過する光束についての点像強度分布を示したものであり、符号2423bは、第2の瞳部分領域502を通過する光束についての点像強度分布を示したものである。   FIG. 24E shows point image intensity distributions 2423 a and 2423 b at the front pin position 2403. Reference numeral 2423a indicates the point image intensity distribution for the light beam passing through the first pupil partial area 501, and reference numeral 2423b indicates the point image intensity distribution for the light beam passing through the second pupil partial area 502. It is shown.

図24(h)は、後ピン位置2404における点像強度分布2424a、2424bを示している。符号2424aは、第1の瞳部分領域501を通過する光束についての点像強度分布を示したものであり、符号2424bは、第2の瞳部分領域502を通過する光束についての点像強度分布を示したものである。   FIG. 24 (h) shows point image intensity distributions 2424 a and 2424 b at the rear pin position 2404. Reference numeral 2424a indicates a point image intensity distribution for a light beam passing through the first pupil partial area 501, and reference numeral 2424b indicates a point image intensity distribution for a light beam passing through the second pupil partial area 502. It is shown.

図24(i)は、最良像面位置2405における点像強度分布2425a、2425bを示している。符号2425aは、第1の瞳部分領域501を通過する光束についての点像強度分布を示したものであり、符号2425bは、第2の瞳部分領域502を通過する光束についての点像強度分布を示したものである。   FIG. 24 (i) shows point image intensity distributions 2425 a and 2425 b at the best image plane position 2405. Reference numeral 2425a represents a point image intensity distribution for a light beam passing through the first pupil partial area 501, and reference numeral 2425b represents a point image intensity distribution for a light beam passing through the second pupil partial area 502. It is shown.

図24(j)は、前ピン位置2406における点像強度分布2426a、2426bを表している。符号2426aは、第1の瞳部分領域501を通過する光束についての点像強度分布を示したものであり、符号2426bは、第2の瞳部分領域502を通過する光束についての点像強度分布を示したものである。   FIG. 24J shows point image intensity distributions 2426a and 2426b at the front pin position 2406. FIG. Reference numeral 2426a indicates a point image intensity distribution for the light beam passing through the first pupil partial area 501, and reference numeral 2426b indicates a point image intensity distribution for the light beam passing through the second pupil partial area 502. It is shown.

レンズ収差が存在しない場合には、図24(c)と図24(e)とを比較して分かるように、後ピン位置2401における点像強度分布2421aと前ピン位置2403における点像強度分布2423aとが、縦軸に対して線対称となる。また、後ピン位置2401における点像強度分布2421bと前ピン位置2403における点像強度分布2423bとが、縦軸に対して線対称となる。また、図24(d)に示すように、最良像面位置2402における点像強度分布2422aと最良像面位置における点像強度分布2422bとが一致する。図24(b)に示すように、真のデフォーカス位置と、点像強度分布2421a、2421b、2422a、2422b、2423a、2423bから算出した焦点検出デフォーカス位置との間にデフォーカスオフセットは生じない。   When there is no lens aberration, the point image intensity distribution 2421a at the rear pin position 2401 and the point image intensity distribution 2423a at the front pin position 2403 can be understood by comparing FIG. 24C and FIG. Are line symmetric with respect to the vertical axis. Further, the point image intensity distribution 2421b at the rear pin position 2401 and the point image intensity distribution 2423b at the front pin position 2403 are axisymmetric with respect to the vertical axis. As shown in FIG. 24D, the point image intensity distribution 2422a at the best image plane position 2402 and the point image intensity distribution 2422b at the best image plane position coincide. As shown in FIG. 24B, no defocus offset occurs between the true defocus position and the focus detection defocus positions calculated from the point image intensity distributions 2421a, 2421b, 2422a, 2422b, 2423a, and 2423b. .

レンズ収差が存在する場合には、図24(h)と図24(j)とを比較して分かるように、後ピン位置2404における点像強度分布2424aと前ピン位置2406における点像強度分布2426aとは、縦軸に対して線対称とならない。また、後ピン位置2404における点像強度分布2424bと前ピン位置2406における点像強度分布2426bとは、縦軸に対して線対称とならない。また、図24(i)から分かるように、最良像面位置2405における点像強度分布2425aと最良像面位置2405における点像強度分布2425bとが一致しない。また、図24(g)に示すように、真のデフォーカス位置と、点像強度分布から算出した焦点検出デフォーカス位置との間にデフォーカスオフセットdzが生じる。   When lens aberration is present, the point image intensity distribution 2424a at the rear pin position 2404 and the point image intensity distribution 2426a at the front pin position 2406 are understood by comparing FIG. 24 (h) and FIG. 24 (j). Is not line-symmetric with respect to the vertical axis. Further, the point image intensity distribution 2424b at the rear pin position 2404 and the point image intensity distribution 2426b at the front pin position 2406 are not line-symmetric with respect to the vertical axis. As can be seen from FIG. 24 (i), the point image intensity distribution 2425a at the best image plane position 2405 and the point image intensity distribution 2425b at the best image plane position 2405 do not match. Also, as shown in FIG. 24G, a defocus offset dz is generated between the true defocus position and the focus detection defocus position calculated from the point image intensity distribution.

なお、本実施形態では、点像強度分布をデフォーカス量補正に用いる場合を例に説明したが、点像強度分布を画像処理等に利用することも可能である。   In this embodiment, the case where the point image intensity distribution is used for defocus amount correction has been described as an example. However, the point image intensity distribution can also be used for image processing or the like.

このように、本実施形態によれば、レンズライトフィールドデータとセンサ受光強度特性とに基づいて、光軸方向の複数のセンサ位置における点像強度分布を生成する。そして、撮影レンズ105の射出瞳の全領域である瞳領域500を通過する光束についての点像強度分布に基づいて最良像面位置(第1の合焦位置)を算出する。また、第1の瞳部分領域501を通過する光束についての点像強度分布と、第2の瞳部分領域502を通過する光束についての点像強度分布とに基づいて、焦点検出デフォーカス位置(第2の合焦位置)を算出する。そして、第1の合焦位置と第2の合焦位置との差分に基づいて補正値を算出し、位相差方式の焦点検出によって求めたデフォーカス量をかかる補正値によって補正する。そして、かかる補正値によって補正したデフォーカス量に基づいて、撮影レンズ105を駆動することにより、焦点を合わせる。点像強度分布は、撮影レンズ105に固有のレンズライトフィールドデータと、撮像装置本体120に固有のセンサ受光強度特性とに基づいて得られるものである。このため、かかる点像強度分布に基づいて得られる補正値は、撮影レンズ105や撮像装置本体120の製造ばらつきを加味した補正値となる。従って、本実施形態によれば、オートフォーカスを高精度に行い得る撮像装置を提供することができる。また、取得された補正値を保持しておけば、かかる補正値を用いて迅速にデフォーカス量を補正することができ、高精度なオートフォーカスをより迅速に行うことが可能となる。   Thus, according to the present embodiment, point image intensity distributions at a plurality of sensor positions in the optical axis direction are generated based on the lens light field data and the sensor light reception intensity characteristics. Then, the best image plane position (first in-focus position) is calculated based on the point image intensity distribution for the light beam that passes through the pupil region 500 that is the entire exit pupil area of the photographing lens 105. Further, based on the point image intensity distribution for the light beam passing through the first pupil partial region 501 and the point image intensity distribution for the light beam passing through the second pupil partial region 502, the focus detection defocus position (first focus position). 2 in-focus position) is calculated. Then, a correction value is calculated based on the difference between the first focus position and the second focus position, and the defocus amount obtained by the phase difference type focus detection is corrected by the correction value. Then, based on the defocus amount corrected by the correction value, the photographing lens 105 is driven to focus. The point image intensity distribution is obtained based on lens light field data unique to the photographing lens 105 and sensor light reception intensity characteristics unique to the imaging apparatus main body 120. For this reason, the correction value obtained based on the point image intensity distribution is a correction value that takes into account manufacturing variations of the photographing lens 105 and the imaging apparatus main body 120. Therefore, according to the present embodiment, it is possible to provide an imaging apparatus that can perform autofocus with high accuracy. If the acquired correction value is held, the defocus amount can be corrected quickly using the correction value, and high-precision autofocus can be performed more quickly.

[第2実施形態]
次に、本発明の第2実施形態による撮像システムについて図面を用いて説明する。図25は、本実施形態による撮像システムの構成を示す概略図である。図1乃至図24に示す第1実施形態による撮像装置と同一の構成要素には、同一の符号を付して説明を省略または簡潔にする。
[Second Embodiment]
Next, an imaging system according to a second embodiment of the present invention will be described with reference to the drawings. FIG. 25 is a schematic diagram illustrating the configuration of the imaging system according to the present embodiment. The same components as those of the imaging apparatus according to the first embodiment shown in FIGS. 1 to 24 are denoted by the same reference numerals, and description thereof is omitted or simplified.

本実施形態による撮像システムは、センサ受光強度特性とレンズライトフィールドデータとをネットワーク上に保持し、ネットワーク上の点像強度分布生成手段によって点像強度分布を生成するものである。   The imaging system according to the present embodiment holds sensor light reception intensity characteristics and lens light field data on a network, and generates a point image intensity distribution by a point image intensity distribution generation unit on the network.

図25に示すように、光学特性情報記憶手段(光学特性情報記憶装置、光学特性情報記憶部)2501と点像強度分布生成手段(点像強度分布生成部)2502とを含む処理装置2503が、ネットワーク上に設けられている。光学特性情報記憶手段2501は、センサ受光強度特性記憶手段(センサ受光強度特性記憶部)2501aとレンズライトフィールドデータ記憶手段(レンズライトフィールドデータ記憶部)2501bとを有している。センサ受光光学特性情報記憶手段2501と点像強度分布生成手段2502とは互いに接続されている。センサ受光強度特性記憶手段2501aには、センサ受光強度特性が記憶されている。レンズライトフィールドデータ記憶手段2501bには、レンズライトフィールドデータが記憶されている。   As shown in FIG. 25, a processing apparatus 2503 including optical characteristic information storage means (optical characteristic information storage apparatus, optical characteristic information storage section) 2501 and point image intensity distribution generation means (point image intensity distribution generation section) 2502 is provided. It is provided on the network. The optical characteristic information storage unit 2501 includes sensor light reception intensity characteristic storage unit (sensor light reception intensity characteristic storage unit) 2501a and lens light field data storage unit (lens light field data storage unit) 2501b. The sensor light receiving optical characteristic information storage unit 2501 and the point image intensity distribution generation unit 2502 are connected to each other. The sensor light reception intensity characteristic storage means 2501a stores sensor light reception intensity characteristics. The lens light field data storage means 2501b stores lens light field data.

撮像装置10は、通信によって、ネットワーク上の処理装置2503にアクセスし得る。
こうして、本実施形態による撮像システムが構成されている。
The imaging device 10 can access the processing device 2503 on the network by communication.
Thus, the imaging system according to the present embodiment is configured.

本実施形態によれば、情報量の大きいセンサ受光強度特性とレンズライトフィールドデータとがネットワーク上に保持されているため、撮像装置10や撮影レンズ105に保持するデータ量を削減することが可能となる。   According to the present embodiment, the sensor light reception intensity characteristic and the lens light field data having a large amount of information are held on the network, so that it is possible to reduce the amount of data held in the imaging device 10 and the photographing lens 105. Become.

なお、本実施形態における撮像装置10の構成、焦点検出処理、点像強度分布生成処理、及び、デフォーカス量補正処理は、上述した第1実施形態と同様であるため、ここでは説明を省略する。ただし、ネットワーク上の光学特性情報記憶手段2501及び点像強度分布生成手段2502に撮像装置10がアクセスし得るように、撮像装置10が通信機能(通信部)(図示せず)を有していることが好ましい。かかる通信機能(通信部)は、無線通信機能(無線通信部)であってもよいし、有線通信機能(有線通信部)であってもよい。   Note that the configuration of the imaging apparatus 10, the focus detection process, the point image intensity distribution generation process, and the defocus amount correction process in the present embodiment are the same as those in the first embodiment described above, and thus the description thereof is omitted here. . However, the imaging apparatus 10 has a communication function (communication unit) (not shown) so that the imaging apparatus 10 can access the optical characteristic information storage unit 2501 and the point image intensity distribution generation unit 2502 on the network. It is preferable. The communication function (communication unit) may be a wireless communication function (wireless communication unit) or a wired communication function (wired communication unit).

次に、本実施形態による撮像システムの動作について図26を用いて説明する。図26は、本実施形態による撮像システムの動作の概略を示すフローチャートである。   Next, the operation of the imaging system according to the present embodiment will be described with reference to FIG. FIG. 26 is a flowchart illustrating an outline of the operation of the imaging system according to the present embodiment.

まず、センサ情報及びレンズ情報の取得が行われる(ステップS2601)。具体的には、レンズユニット100からレンズ情報(レンズID)が取得され、撮像装置本体120からセンサ情報(センサID)が取得される。レンズIDとは、撮影レンズ105に付与されているIDであり、センサIDとは、撮像装置本体120に内蔵されている撮像素子122に付与されているIDである。このようなセンサ情報及びレンズ情報が、撮像装置10からネットワーク上の処理装置2503に伝送される。こうして、処理装置2503によって、センサ情報及びレンズ情報の取得が行われる。   First, sensor information and lens information are acquired (step S2601). Specifically, lens information (lens ID) is acquired from the lens unit 100, and sensor information (sensor ID) is acquired from the imaging apparatus main body 120. The lens ID is an ID given to the photographing lens 105, and the sensor ID is an ID given to the imaging element 122 built in the imaging apparatus main body 120. Such sensor information and lens information are transmitted from the imaging device 10 to the processing device 2503 on the network. In this way, acquisition of sensor information and lens information is performed by the processing device 2503.

次に、処理装置2503において、センサ受光強度特性の取得が行われる(ステップS2602)。各々のセンサIDに対応するセンサ受光強度特性は、センサ受光強度特性記憶手段2501aに予め記憶されている。ステップS2601において取得されたセンサ情報(センサID)に基づいて、当該撮像素子122に固有のセンサ受光強度特性が、センサ受光強度特性記憶手段2501aから取得される。   Next, the sensor light-receiving intensity characteristic is acquired in the processing device 2503 (step S2602). The sensor light reception intensity characteristics corresponding to each sensor ID are stored in advance in the sensor light reception intensity characteristic storage means 2501a. Based on the sensor information (sensor ID) acquired in step S2601, the sensor light reception intensity characteristic unique to the image sensor 122 is acquired from the sensor light reception intensity characteristic storage unit 2501a.

次に、処理装置2503において、レンズライトフィールドデータの取得が行われる(ステップS2603)。各々のレンズIDに対応するレンズライトフィールドデータは、レンズライトフィールドデータ記憶手段2501bに予め記憶されている。ステップS2601で取得したレンズ情報(レンズID)に基づいて、当該撮影レンズ105に固有のレンズライトフィールドデータが、レンズライトフィールドデータ記憶手段2501bから取得される。   Next, lens light field data is acquired in the processing device 2503 (step S2603). Lens light field data corresponding to each lens ID is stored in advance in the lens light field data storage means 2501b. Based on the lens information (lens ID) acquired in step S2601, lens light field data specific to the photographing lens 105 is acquired from the lens light field data storage unit 2501b.

次に、処理装置2503において、点像強度分布生成処理が行われる(ステップS2604)。具体的には、ステップS2602で取得したセンサ受光強度特性と、ステップS2603で取得したレンズライトフィールドデータとに基づいて、点像強度分布生成手段2502によって点像強度分布が生成される。   Next, a point image intensity distribution generation process is performed in the processing device 2503 (step S2604). Specifically, a point image intensity distribution is generated by the point image intensity distribution generation unit 2502 based on the sensor light reception intensity characteristic acquired in step S2602 and the lens light field data acquired in step S2603.

次に、補正値の算出が行われる(ステップS2605)。具体的には、ステップS2604で生成した点像強度分布に基づいて補正値が算出される。補正値の算出については、第1実施形態における補正値の算出と同様であるため、説明を省略する。補正値の算出は、例えば撮像装置10において行われる。なお、補正値の算出を、処理装置2503側において行うようにしてもよい。   Next, a correction value is calculated (step S2605). Specifically, the correction value is calculated based on the point image intensity distribution generated in step S2604. Since the calculation of the correction value is the same as the calculation of the correction value in the first embodiment, a description thereof is omitted. The calculation of the correction value is performed in, for example, the imaging device 10. Note that the correction value may be calculated on the processing device 2503 side.

次に、算出された補正値の記録が行われる(ステップS2606)。具体的には、ステップS2605で算出した補正値が、撮像装置10のレンズメモリ118又はEEPROM125cに記録される。   Next, the calculated correction value is recorded (step S2606). Specifically, the correction value calculated in step S2605 is recorded in the lens memory 118 or the EEPROM 125c of the imaging device 10.

かかる補正値は、像高、絞り値、レンズのズーム状態、レンズのフォーカス状態等のパラメータをそれぞれ変化させた全組み合わせに対して算出を行って予め記録しておいてもよいし、必要に応じて、その都度通信を行って算出して記録するようにしてもよい。   Such correction values may be calculated and recorded in advance for all combinations in which parameters such as image height, aperture value, lens zoom state, lens focus state, etc. are changed, or as necessary. Then, communication may be performed and calculated and recorded each time.

また、本実施形態では、点像強度分布から補正値を算出して記録する場合を例に説明したが、点像強度分布を記録して画像処理等に利用してもよい。   In the present embodiment, the correction value is calculated from the point image intensity distribution and recorded, but the point image intensity distribution may be recorded and used for image processing or the like.

以上、本発明の例示的な実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although exemplary embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

10…撮像装置
105…撮影レンズ
119…レンズ駆動/制御系
131…撮像装置駆動/制御系
133…結像光学系
200、200a、200b…画素、撮像画素
201、202…分割画素
301a、301b…第1の分割画素
302a、302b…第2の分割画素
304…受光面
305…マイクロレンズ
400…射出瞳
500…瞳領域
501…第1の瞳部分領域
502…第2の瞳部分領域
2503…処理装置
DESCRIPTION OF SYMBOLS 10 ... Imaging device 105 ... Shooting lens 119 ... Lens drive / control system 131 ... Imaging device drive / control system 133 ... Imaging optical system 200, 200a, 200b ... Pixel, Imaging pixel 201, 202 ... Divided pixel 301a, 301b ... 1 divided pixel 302a, 302b ... 2nd divided pixel 304 ... light receiving surface 305 ... microlens 400 ... exit pupil 500 ... pupil region 501 ... first pupil partial region 502 ... second pupil partial region 2503 ... processing device

Claims (23)

光軸上の複数の位置の各々における点像強度分布に基づいて算出された、検出された合焦位置を補正するための補正値を記憶装置から読み出し、
前記点像強度分布は、点光源からの光が撮像素子の受光面に達した際の光強度分布を示し、かつレンズの収差のデータ及びセンサ受光強度特性に基づいて予め算出されており、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示し、前記撮像素子の入射瞳の各領域を通過する光束は、前記撮像素子の分割画素によってそれぞれ受光されることを特徴とする情報処理装置。
A correction value for correcting the detected in-focus position calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis is read from the storage device,
The point image intensity distribution indicates a light intensity distribution when the light from the point light source reaches the light receiving surface of the image sensor, and is calculated in advance based on lens aberration data and sensor light reception intensity characteristics,
The sensor light-receiving intensity characteristic indicates a light-receiving intensity at a light-receiving surface of the imaging element of a light beam passing through each area of the entrance pupil of the imaging element arranged on the imaging element, and each area of the entrance pupil of the imaging element The information processing apparatus is characterized in that light beams passing through the light are respectively received by the divided pixels of the image sensor.
前記合焦位置を検出し、かつ前記補正値を用いて前記合焦位置を補正することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the in-focus position is detected, and the in-focus position is corrected using the correction value. 結像光学系の射出瞳の一部である第1の瞳部分領域を通過する光束についての前記点像強度分布である第1の点像強度分布に基づいて、かつ前記結像光学系の射出瞳の他の一部である前記第1の瞳部分領域とは相違する第2の瞳部分領域を通過する光束についての前記点像強度分布である第2の点像強度分布に基づいて、第1の合焦位置を算出し、
前記結像光学系の射出瞳の全体の瞳部分領域を通過する光束についての前記点像強度分布に基づいて、第2の合焦位置を算出し、
前記第1の合焦位置と前記第2の合焦位置との差に基づいて、前記補正値を算出することを特徴とする請求項2記載の情報処理装置。
Based on the first point image intensity distribution that is the point image intensity distribution of the light beam passing through the first pupil partial region that is a part of the exit pupil of the imaging optical system, and the exit of the imaging optical system Based on a second point image intensity distribution that is the point image intensity distribution for a light beam that passes through a second pupil partial area that is different from the first pupil partial area that is another part of the pupil, Calculate the in-focus position of 1,
Based on the point image intensity distribution for the light beam passing through the entire pupil partial region of the exit pupil of the imaging optical system, a second focus position is calculated,
The information processing apparatus according to claim 2, wherein the correction value is calculated based on a difference between the first focus position and the second focus position.
前記レンズの収差のデータは更に前記複数の光束についての強度についての情報を含むことを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the lens aberration data further includes information on the intensity of the plurality of light beams. 前記レンズの収差のデータにおける前記複数の光束は、前記撮像素子上の結像位置において一点で交わらないことを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the plurality of light beams in the lens aberration data do not intersect at a single point at an imaging position on the image sensor. 前記複数の光束上の前記点の前記位置の座標は、前記レンズの収差のデータにおいて、結像光学系の光軸が垂直に交わる面上に定められていることを特徴とする請求項1記載の情報処理装置。   2. The coordinate of the position of the point on the plurality of light beams is determined on a surface where the optical axes of the imaging optical system intersect perpendicularly in the aberration data of the lens. Information processing device. 結像光学系のビネッティング情報に応じて、前記レンズの収差のデータの一部を選択的に使用することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein a part of the aberration data of the lens is selectively used according to vignetting information of the imaging optical system. レンズの収差のデータを蓄積する第1の記憶装置と、
撮像素子上に配された前記撮像素子の入射瞳の各領域を通過して、前記撮像素子の分割画素によってそれぞれ受光される複数の光束の前記撮像素子の受光面における受光強度を示すセンサ受光強度特性を蓄積する第2の記憶装置とを備え、
前記レンズの収差のデータ及び前記センサ受光強度特性に基づいて、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示す点像強度分布を算出し、
光軸上の複数の位置の各々における点像強度分布に基づいて、検出された合焦位置を補正するための補正値を算出することを特徴とする情報処理システム。
A first storage device for storing lens aberration data;
Sensor received light intensity indicating the received light intensity at the light receiving surface of the image sensor of a plurality of light beams that pass through each region of the entrance pupil of the image sensor disposed on the image sensor and are respectively received by the divided pixels of the image sensor A second storage device for storing the characteristics,
Based on the aberration data of the lens and the sensor light-receiving intensity characteristic, a point image intensity distribution indicating a light intensity distribution when light from a point light source reaches the light-receiving surface of the image sensor is calculated,
An information processing system for calculating a correction value for correcting a detected in-focus position based on a point image intensity distribution at each of a plurality of positions on an optical axis.
分割画素をそれぞれ含む複数の画素を有し、前記分割画素はそれぞれ撮像光学システムの射出瞳のそれぞれ異なる領域を通過する光束をそれぞれ受光する撮像素子を備え、
光軸上の複数の位置の各々における点像強度分布に基づいて算出された、合焦位置を補正するための補正値を記憶装置から読み出し、
前記合焦位置を検出し、
前記補正値を用いて前記合焦位置を補正し、
前記点像強度分布は、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示し、かつレンズの収差のデータ及びセンサ受光強度特性に基づいて算出されており、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示すことを特徴とする撮像装置。
A plurality of pixels each including a divided pixel, each of the divided pixels includes an image sensor that respectively receives a light beam passing through a different region of the exit pupil of the imaging optical system;
A correction value for correcting the in-focus position calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis is read from the storage device,
Detecting the in-focus position;
Correct the in-focus position using the correction value,
The point image intensity distribution indicates a light intensity distribution when light from a point light source reaches the light receiving surface of the imaging device, and is calculated based on lens aberration data and sensor light reception intensity characteristics,
The image sensor according to claim 1, wherein the sensor light-receiving intensity characteristic indicates a light-receiving intensity on a light-receiving surface of the imaging element of a light beam passing through each region of an entrance pupil of the imaging element arranged on the imaging element.
光軸上の複数の位置の各々における点像強度分布に基づいて算出された、検出された合焦位置を補正するための補正値を記憶装置から読み出し、
前記点像強度分布は、点光源からの光が撮像素子の受光面に達した際の光強度分布を示し、かつレンズの収差のデータ及びセンサ受光強度特性に基づいて予め算出されており、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示し、前記撮像素子の入射瞳の各領域を通過する光束は、前記撮像素子の分割画素によってそれぞれ受光されることを特徴とする情報処理方法。
A correction value for correcting the detected in-focus position calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis is read from the storage device,
The point image intensity distribution indicates a light intensity distribution when the light from the point light source reaches the light receiving surface of the image sensor, and is calculated in advance based on lens aberration data and sensor light reception intensity characteristics,
The sensor light-receiving intensity characteristic indicates a light-receiving intensity at a light-receiving surface of the imaging element of a light beam passing through each area of the entrance pupil of the imaging element arranged on the imaging element, and each area of the entrance pupil of the imaging element The information processing method characterized in that the light beams passing through the light are respectively received by the divided pixels of the image sensor.
レンズの収差のデータを第1の記憶装置に蓄積し、
撮像素子上に配された前記撮像素子の入射瞳の各領域を通過して、前記撮像素子の分割画素によってそれぞれ受光される複数の光束の前記撮像素子の受光面における受光強度を示すセンサ受光強度特性を第2の記憶装置に蓄積し、
前記レンズの収差のデータ及び前記センサ受光強度特性に基づいて、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示す点像強度分布を算出し、
光軸上の複数の位置の各々における点像強度分布に基づいて、検出された合焦位置を補正するための補正値を算出することを特徴とする情報処理方法。
Accumulating lens aberration data in the first storage device,
Sensor received light intensity indicating the received light intensity at the light receiving surface of the image sensor of a plurality of light beams that pass through each region of the entrance pupil of the image sensor disposed on the image sensor and are respectively received by the divided pixels of the image sensor Storing the characteristics in a second storage device;
Based on the aberration data of the lens and the sensor light-receiving intensity characteristic, a point image intensity distribution indicating a light intensity distribution when light from a point light source reaches the light-receiving surface of the image sensor is calculated,
An information processing method, comprising: calculating a correction value for correcting a detected focus position based on a point image intensity distribution at each of a plurality of positions on an optical axis.
撮像素子が、分割画素をそれぞれ含む複数の画素を有し、前記分割画素はそれぞれ撮像光学システムの入射瞳のそれぞれ異なる領域を通過する光束をそれぞれ受光する前記撮像素子を用いた撮像方法において、
光軸上の複数の位置の各々における点像強度分布に基づいて算出された、検出された合焦位置を補正するための補正値を記憶装置から読み出し、
前記合焦位置を検出し、
前記補正値を用いて前記合焦位置を補正し、
前記点像強度分布は、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示し、かつレンズの収差のデータ及びセンサ受光強度特性に基づいて算出され、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示すことを特徴とする撮像方法。
In the imaging method using the imaging device, the imaging device includes a plurality of pixels each including a divided pixel, and each of the divided pixels receives a light beam passing through a different region of an entrance pupil of the imaging optical system.
A correction value for correcting the detected in-focus position calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis is read from the storage device,
Detecting the in-focus position;
Correct the in-focus position using the correction value,
The point image intensity distribution indicates a light intensity distribution when light from a point light source reaches the light receiving surface of the image sensor, and is calculated based on lens aberration data and sensor received light intensity characteristics,
2. The imaging method according to claim 1, wherein the sensor light-receiving intensity characteristic indicates a light-receiving intensity at a light-receiving surface of the imaging device of a light beam passing through each region of an entrance pupil of the imaging device arranged on the imaging device.
点光源からの光が撮像素子の受光面に達した際の光強度分布を示す点像強度分布を、かつレンズの収差のデータ及びセンサ受光強度特性に基づいて算出し、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示し、前記撮像素子の入射瞳の各領域を通過する光束は、前記撮像素子の分割画素によってそれぞれ受光されることを特徴とする情報処理装置。
A point image intensity distribution indicating a light intensity distribution when the light from the point light source reaches the light receiving surface of the image sensor, and based on the aberration data of the lens and the sensor received light intensity characteristics,
The sensor light-receiving intensity characteristic indicates a light-receiving intensity at a light-receiving surface of the imaging element of a light beam passing through each area of the entrance pupil of the imaging element arranged on the imaging element, and each area of the entrance pupil of the imaging element The information processing apparatus is characterized in that light beams passing through the light are respectively received by the divided pixels of the image sensor.
レンズの収差のデータ及び前記センサ受光強度特性に基づいて前記点像強度分布を算出することを特徴とする請求項13記載の情報処理装置。   The information processing apparatus according to claim 13, wherein the point image intensity distribution is calculated based on lens aberration data and the sensor light-receiving intensity characteristic. 光軸上の複数の位置の各々における点像強度分布に基づいて、検出された合焦位置を補正するための補正値を算出することを特徴とする請求項13記載の情報処理装置。   The information processing apparatus according to claim 13, wherein a correction value for correcting the detected focus position is calculated based on a point image intensity distribution at each of a plurality of positions on the optical axis. 光軸上の複数の位置の各々における点像強度分布に基づいて、収差を補正するための補正値を算出することを特徴とする請求項13記載の情報処理装置。   The information processing apparatus according to claim 13, wherein a correction value for correcting aberration is calculated based on a point image intensity distribution at each of a plurality of positions on the optical axis. 合焦位置を検出し、
光軸上の複数の位置の各々における点像強度分布に基づいて、補正値を算出し、
前記合焦位置を前記補正値を用いて補正することを特徴とする請求項13記載の情報処理装置。
Detect the focus position,
Based on the point image intensity distribution at each of a plurality of positions on the optical axis, a correction value is calculated,
The information processing apparatus according to claim 13, wherein the focus position is corrected using the correction value.
結像光学系の射出瞳の一部である第1の瞳部分領域を通過する光束についての点像強度分布である第1の点像強度分布に基づいて、かつ前記結像光学系の射出瞳の他の一部である前記第1の瞳部分領域とは相違する第2の瞳部分領域を通過する光束についての点像強度分布である第2の点像強度分布に基づいて、第1の合焦位置を算出し、
前記結像光学系の射出瞳の全体の瞳部分領域を通過する光束についての点像強度分布に基づいて、第2の合焦位置を算出し、
前記第1の合焦位置と前記第2の合焦位置との差に基づいて補正値を算出することを特徴とする請求項13記載の情報処理装置。
An exit pupil of the imaging optical system based on a first point image intensity distribution that is a point image intensity distribution of a light beam passing through a first pupil partial region that is a part of the exit pupil of the imaging optical system Based on a second point image intensity distribution that is a point image intensity distribution for a light beam that passes through a second pupil partial area that is different from the first pupil partial area that is another part of the first pupil partial area, Calculate the in-focus position,
Based on the point image intensity distribution for the light beam passing through the entire pupil partial region of the exit pupil of the imaging optical system, the second focus position is calculated,
The information processing apparatus according to claim 13, wherein a correction value is calculated based on a difference between the first focus position and the second focus position.
レンズの収差のデータを蓄積する第1の記憶装置と、
撮像素子上に配された前記撮像素子の入射瞳の各領域を通過して、前記撮像素子の分割画素によってそれぞれ受光される複数の光束の前記撮像素子の受光面における受光強度を示すセンサ受光強度特性を蓄積する第2の記憶装置とを備え、
前記レンズの収差のデータ及び前記センサ受光強度特性に基づいて、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示す点像強度分布を算出することを特徴とする情報処理システム。
A first storage device for storing lens aberration data;
Sensor received light intensity indicating the received light intensity at the light receiving surface of the image sensor of a plurality of light beams that pass through each region of the entrance pupil of the image sensor disposed on the image sensor and are respectively received by the divided pixels of the image sensor A second storage device for storing the characteristics,
A point image intensity distribution indicating a light intensity distribution when light from a point light source reaches the light receiving surface of the image sensor is calculated based on the aberration data of the lens and the sensor light reception intensity characteristic. Information processing system.
分割画素をそれぞれ含む複数の画素を有し、前記分割画素はそれぞれ撮像光学システムの射出瞳のそれぞれ異なる領域を通過する光束をそれぞれ受光する撮像素子を備え、
レンズの収差のデータ及びセンサ受光強度特性に基づいて、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示す点像強度分布を算出し、
合焦位置を検出し、
光軸上の複数の位置の各々における前記点像強度分布に基づいて補正値を算出し、
前記補正値を用いて前記合焦位置を補正し、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示すことを特徴とする撮像装置。
A plurality of pixels each including a divided pixel, each of the divided pixels includes an image sensor that respectively receives a light beam passing through a different region of the exit pupil of the imaging optical system;
Based on the lens aberration data and sensor light-receiving intensity characteristics, a point image intensity distribution indicating the light intensity distribution when the light from the point light source reaches the light-receiving surface of the image sensor is calculated,
Detect the focus position,
A correction value is calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis,
Correct the in-focus position using the correction value,
The image sensor according to claim 1, wherein the sensor light-receiving intensity characteristic indicates a light-receiving intensity on a light-receiving surface of the imaging element of a light beam passing through each region of an entrance pupil of the imaging element arranged on the imaging element.
点光源からの光が撮像素子の受光面に達した際の光強度分布を示し、かつレンズの収差のデータ及びセンサ受光強度特性に基づいて予め算出された点像強度分布を読み出し、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示し、前記撮像素子の入射瞳の各領域を通過する光束は、前記撮像素子の分割画素によってそれぞれ受光されることを特徴とする情報処理方法。
Shows the light intensity distribution when the light from the point light source reaches the light receiving surface of the image sensor, and reads the point image intensity distribution calculated in advance based on the lens aberration data and the sensor light receiving intensity characteristics,
The sensor light-receiving intensity characteristic indicates a light-receiving intensity at a light-receiving surface of the imaging element of a light beam passing through each area of the entrance pupil of the imaging element arranged on the imaging element, and each area of the entrance pupil of the imaging element The information processing method characterized in that the light beams passing through the light are respectively received by the divided pixels of the image sensor.
レンズの収差のデータを第1の記憶装置に蓄積し、
撮像素子上に配された前記撮像素子の入射瞳の各領域を通過して、前記撮像素子の分割画素によってそれぞれ受光される複数の光束の前記撮像素子の受光面における受光強度を示すセンサ受光強度特性を第2の記憶装置に蓄積し、
前記レンズの収差のデータ及び前記センサ受光強度特性に基づいて、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示す点像強度分布を算出することを特徴とする情報処理方法。
Accumulating lens aberration data in the first storage device,
Sensor received light intensity indicating the received light intensity at the light receiving surface of the image sensor of a plurality of light beams that pass through each region of the entrance pupil of the image sensor disposed on the image sensor and are respectively received by the divided pixels of the image sensor Storing the characteristics in a second storage device;
A point image intensity distribution indicating a light intensity distribution when light from a point light source reaches the light receiving surface of the image sensor is calculated based on the aberration data of the lens and the sensor light reception intensity characteristic. Information processing method.
分割画素をそれぞれ含む複数の画素を有し、前記分割画素はそれぞれ撮像光学システムの射出瞳のそれぞれ異なる領域を通過する光束をそれぞれ受光する撮像素子を用い、
レンズの収差のデータ及びセンサ受光強度特性に基づいて、点光源からの光が前記撮像素子の受光面に達した際の光強度分布を示す点像強度分布を算出し、
合焦位置を検出し、
光軸上の複数の位置の各々における前記点像強度分布に基づいて補正値を算出し、
前記補正値を用いて前記合焦位置を補正し、
前記センサ受光強度特性は、前記撮像素子上に配された前記撮像素子の入射瞳の各領域を通過する光束の前記撮像素子の受光面における受光強度を示すことを特徴とする撮像方法。
A plurality of pixels each including a divided pixel, each of the divided pixels using an image sensor that respectively receives a light beam passing through a different region of the exit pupil of the imaging optical system;
Based on the lens aberration data and sensor light-receiving intensity characteristics, a point image intensity distribution indicating the light intensity distribution when the light from the point light source reaches the light-receiving surface of the image sensor is calculated,
Detect the focus position,
A correction value is calculated based on the point image intensity distribution at each of a plurality of positions on the optical axis,
Correct the in-focus position using the correction value,
2. The imaging method according to claim 1, wherein the sensor light-receiving intensity characteristic indicates a light-receiving intensity at a light-receiving surface of the imaging device of a light beam passing through each region of an entrance pupil of the imaging device arranged on the imaging device.
JP2018140372A 2018-07-26 2018-07-26 Imaging device and imaging system Pending JP2018200480A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018140372A JP2018200480A (en) 2018-07-26 2018-07-26 Imaging device and imaging system
JP2020084557A JP6938719B2 (en) 2018-07-26 2020-05-13 Imaging device and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140372A JP2018200480A (en) 2018-07-26 2018-07-26 Imaging device and imaging system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014266496A Division JP6376974B2 (en) 2014-12-26 2014-12-26 Imaging apparatus and imaging system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020084557A Division JP6938719B2 (en) 2018-07-26 2020-05-13 Imaging device and imaging system

Publications (1)

Publication Number Publication Date
JP2018200480A true JP2018200480A (en) 2018-12-20

Family

ID=64668105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140372A Pending JP2018200480A (en) 2018-07-26 2018-07-26 Imaging device and imaging system

Country Status (1)

Country Link
JP (1) JP2018200480A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11218674A (en) * 1998-02-02 1999-08-10 Canon Inc Objective lens, image pickup device, and photographing system provided with them
JP2000199845A (en) * 1999-01-05 2000-07-18 Ricoh Co Ltd Device and method for automatic focusing
JP2010283527A (en) * 2009-06-03 2010-12-16 Canon Inc Image processor and method of the same
JP2013171251A (en) * 2012-02-22 2013-09-02 Nikon Corp Focus detection device
JP2013236207A (en) * 2012-05-08 2013-11-21 Nikon Corp Imaging apparatus, imaging method, and program
JP2014194502A (en) * 2013-03-29 2014-10-09 Canon Inc Imaging apparatus and imaging system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11218674A (en) * 1998-02-02 1999-08-10 Canon Inc Objective lens, image pickup device, and photographing system provided with them
JP2000199845A (en) * 1999-01-05 2000-07-18 Ricoh Co Ltd Device and method for automatic focusing
JP2010283527A (en) * 2009-06-03 2010-12-16 Canon Inc Image processor and method of the same
JP2013171251A (en) * 2012-02-22 2013-09-02 Nikon Corp Focus detection device
JP2013236207A (en) * 2012-05-08 2013-11-21 Nikon Corp Imaging apparatus, imaging method, and program
JP2014194502A (en) * 2013-03-29 2014-10-09 Canon Inc Imaging apparatus and imaging system

Similar Documents

Publication Publication Date Title
JP6376974B2 (en) Imaging apparatus and imaging system
JP5675157B2 (en) Focus detection device
JP6174940B2 (en) Imaging device and imaging apparatus
JP6239857B2 (en) Imaging apparatus and control method thereof
US20140071322A1 (en) Image pickup apparatus with image pickup device and control method for image pickup apparatus
JP6746359B2 (en) Image processing device, imaging device, image processing method, program, and storage medium
JP7264192B2 (en) Imaging element and imaging device
JP2019215578A (en) Image sensor and image capturing device
CN107026992A (en) Imaging sensor and picture pick-up device
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP6702669B2 (en) Imaging device and control method thereof
JP6671130B2 (en) Imaging device, imaging device, focus detection device, image processing device, and control method therefor
JP6285683B2 (en) Imaging apparatus and control method thereof
JP2017192028A (en) Imaging apparatus and control method of the same, program, and memory medium
JP6639326B2 (en) Control device, imaging device, control method, program, and storage medium
JP6845912B2 (en) Imaging device and its control method
JP6938719B2 (en) Imaging device and imaging system
JP7022575B2 (en) Focus detectors and methods, and imaging devices
JP2018151508A (en) Imaging device
JP2018200480A (en) Imaging device and imaging system
JP6701023B2 (en) Imaging device, image processing method, image processing system, and image processing program
JP2015121778A (en) Imaging device, imaging system, imaging device control method, program, and storage medium
CN113596431B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6671868B2 (en) Control device, imaging device, control method, program, and storage medium
JP2019114912A (en) Image processing device and image processing method, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200213