JP2017223763A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2017223763A
JP2017223763A JP2016117531A JP2016117531A JP2017223763A JP 2017223763 A JP2017223763 A JP 2017223763A JP 2016117531 A JP2016117531 A JP 2016117531A JP 2016117531 A JP2016117531 A JP 2016117531A JP 2017223763 A JP2017223763 A JP 2017223763A
Authority
JP
Japan
Prior art keywords
imaging
focus detection
correction value
optical system
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016117531A
Other languages
Japanese (ja)
Inventor
京 仲本
Kyo Nakamoto
京 仲本
聖也 水野
Seiya Mizuno
聖也 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016117531A priority Critical patent/JP2017223763A/en
Publication of JP2017223763A publication Critical patent/JP2017223763A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of calculating a proper shading correction value in an interchangeable lens having a lens eccentric function.SOLUTION: An imaging optical system 10 eccentrically constitutes at least part of a lens unit for an optical axis. An imaging element 24 is arranged with a plurality of pixels for pupil-splitting a light flux emitted from the imaging optical system 10. Signal generation means 44 generates a pair of image signals from signals outputted from the imaging element 24. Focus detection means 41 calculates a focus shift amount of a subject by a phase difference method using the pair of imaging signals. An approximate function for calculating a correction value of the pair of imaging signals according to an eccentric state of the imaging optical system 10 is stored in advance, and the approximate function suitable for an eccentric amount of the imaging optical system 10 is calculated. After the pair of imaging signals are corrected using this correction value, the focus detection means 41 performs a phase difference detection and a focus adjustment control.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関し、特に撮像面位相差AF機能を備える撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus having an imaging plane phase difference AF function.

従来から、撮像素子を用いた焦点状態を検出する方式として、撮像面位相差AFが知られている。撮像面位相差AFは、撮像光学系の射出瞳を通過した光束を分割して得られた分割光束を複数の焦点検出画素により受光し、その受光量に応じて出力される信号のずれ量に基づいて合焦に必要なフォーカスレンズの駆動量を求める。撮像面位相差AFによれば、高速かつ滑らかな焦点調節動作が可能である。   Conventionally, imaging plane phase difference AF is known as a method for detecting a focus state using an imaging element. The imaging plane phase difference AF is obtained by receiving a divided light beam obtained by dividing a light beam that has passed through the exit pupil of the imaging optical system by a plurality of focus detection pixels, and a deviation amount of a signal output according to the received light amount. Based on this, the driving amount of the focus lens required for focusing is obtained. According to the imaging plane phase difference AF, a high-speed and smooth focus adjustment operation is possible.

特許文献1には、1つのマイクロレンズに複数に分割された光電変換部が形成されている2次元撮像素子を備えた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して撮像光学系の射出瞳の異なる瞳部分領域を受光するように構成され、瞳分割を行っている。撮像光学系の焦点状態を検出する(焦点検出を行う)ときには、上記瞳分割された画素によって生成される一対の像信号の位相差を求め、その位相差から焦点状態を求める。   Patent Document 1 discloses an imaging apparatus including a two-dimensional imaging element in which a photoelectric conversion unit divided into a plurality of microlenses is formed. The divided photoelectric conversion units are configured to receive different pupil partial areas of the exit pupil of the imaging optical system via one microlens, and perform pupil division. When the focus state of the imaging optical system is detected (focus detection is performed), the phase difference between the pair of image signals generated by the pupil-divided pixels is obtained, and the focus state is obtained from the phase difference.

ただし、焦点検出用画素群に向かう光束の一部が撮像光学系(レンズ、絞り等の光学素子やこれを保持する鏡筒を含む)によって遮られる、いわゆるケラレが発生している場合がある。この場合、一対の像信号のうち少なくとも一方に、光量の低下による像信号の強度むら(焦点検出用画素ごとの受光感度のむら:以下、シェーディングという)を生じさせる。このようなケラレによる像信号レベルの低下やシェーディングは、一対の像信号の一致度を低下させ、良好な焦点検出をできなくする。   However, there is a case where so-called vignetting occurs in which a part of the light beam traveling toward the focus detection pixel group is blocked by an imaging optical system (including an optical element such as a lens and a diaphragm and a lens barrel holding the lens). In this case, unevenness in the intensity of the image signal due to a decrease in the amount of light (unevenness in the light receiving sensitivity for each focus detection pixel: hereinafter referred to as shading) is generated in at least one of the pair of image signals. Such a decrease in image signal level and shading due to vignetting reduces the degree of coincidence between a pair of image signals, making it impossible to perform good focus detection.

そこで、特許文献2には、撮像光学系の異なる射出瞳領域を通過した光束を受光する画素群から得た一対の像信号のシェーディングを、撮像画素信号に基づいて補正する技術が開示されている。   Therefore, Patent Document 2 discloses a technique for correcting shading of a pair of image signals obtained from a pixel group that receives a light beam that has passed through different exit pupil regions of an imaging optical system based on the imaging pixel signal. .

特許文献3には、シェーディング補正の演算規模を低減させるため、近似関数に従って補正値を算出する技術が開示されている。   Patent Document 3 discloses a technique for calculating a correction value according to an approximate function in order to reduce the calculation scale of shading correction.

米国特許第4410804号明細書US Pat. No. 4,410,804 特開2011−114553号公報JP 2011-114553 A 特開2014−6388号公報JP 2014-6388 A

しかしながら、前記特許文献2および前記特許文献3は、従来から知られているレンズ偏芯機能(シフト機構、ティルト機構、レボルビング機構)を有する交換レンズおよびその交換レンズを用いた撮影機能を備えるカメラの影響が考慮されていない。そのため、十分なシェーディング補正がなされず、良好な精度検出ができない。   However, Patent Document 2 and Patent Document 3 describe a conventional interchangeable lens having a lens decentering function (shift mechanism, tilt mechanism, and revolving mechanism) and a camera having a photographing function using the interchangeable lens. Impact is not considered. Therefore, sufficient shading correction is not performed and good accuracy cannot be detected.

上記の課題を解決するために、本発明に係る撮像装置は、
レンズユニットの少なくとも一部を光軸に対して偏芯可能な撮像光学系(10)と、
前記撮像光学系(10)から入射された光束を複数の領域に瞳分割するように撮像画素を複数配列した撮像素子(24)と、
前記撮像素子(24)光電変換によって出力される出力値から一対の像信号を生成する像信号生成手段(44)と、
前記像信号生成手段(44)により得られた像信号を用いて位相差方式で被写体のピントずれ量を算出する焦点検出手段(41)と、
前記撮像素子(24)の撮像領域に焦点検出領域を設定する焦点検出領域選択手段(121c)と、
前記像信号生成手段(44)により得られた像信号の補正値を近似により算出するための近似関数を記憶する補正値算出係数記憶手段(121b)と、
前記撮像光学系(10)の偏芯状態における前記像信号生成手段(44)により得られた像信号の補正値を近似により算出するための近似関数を記憶する偏芯係数記憶手段(121f)と、
前記補正値算出係数記憶手段(121b)に記憶されている近似関数に基づいて、前記焦点検出領域選択手段(121c)が設定した焦点検出領域に応じた補正に有効な近似関数を取得し、前記偏芯係数記憶手段(121f)に記憶されている近似関数に基づいて、前記撮像光学系(10)の偏芯量に応じた補正に有効な近似関数を取得し、当該取得した近似関数に従って補正値を算出する補正値算出手段(121a)と、
前記補正値算出手段(121a)によって算出された補正値を用いて補正された像信号をもとに前記焦点検出手段(41)による焦点調節制御を行うことを特徴とする。
In order to solve the above problems, an imaging apparatus according to the present invention provides:
An imaging optical system (10) capable of decentering at least a part of the lens unit with respect to the optical axis;
An imaging device (24) in which a plurality of imaging pixels are arranged so as to divide the light beam incident from the imaging optical system (10) into a plurality of regions;
Image signal generation means (44) for generating a pair of image signals from output values output by the image sensor (24) photoelectric conversion;
A focus detection means (41) for calculating a focus shift amount of the subject by a phase difference method using the image signal obtained by the image signal generation means (44);
Focus detection area selection means (121c) for setting a focus detection area in the imaging area of the image sensor (24);
Correction value calculation coefficient storage means (121b) for storing an approximation function for calculating the correction value of the image signal obtained by the image signal generation means (44) by approximation;
An eccentricity coefficient storage means (121f) for storing an approximation function for calculating the correction value of the image signal obtained by the image signal generation means (44) in the eccentricity state of the imaging optical system (10) by approximation; ,
Based on the approximation function stored in the correction value calculation coefficient storage means (121b), an approximation function effective for correction according to the focus detection area set by the focus detection area selection means (121c) is obtained, Based on the approximation function stored in the eccentricity coefficient storage means (121f), an approximation function effective for correction according to the amount of eccentricity of the imaging optical system (10) is acquired, and correction is performed according to the acquired approximation function. Correction value calculation means (121a) for calculating a value;
Focus adjustment control by the focus detection unit (41) is performed based on an image signal corrected using the correction value calculated by the correction value calculation unit (121a).

本発明に係る撮像装置によれば、レンズ偏芯機能を有する交換レンズにおいて、偏芯した状態でもより高精度な精度検出ができる。   According to the imaging apparatus according to the present invention, in an interchangeable lens having a lens decentering function, more accurate detection can be performed even in a decentered state.

本発明の実施例1における撮像装置の概略構成図1 is a schematic configuration diagram of an imaging apparatus according to Embodiment 1 of the present invention. 本発明の実施例1における画素配列の概略図Schematic of pixel arrangement in Embodiment 1 of the present invention 本発明の実施例1における画素の概略平面図と概略断面図Schematic plan view and schematic cross-sectional view of a pixel in Embodiment 1 of the present invention 本発明の実施例1における画素と瞳分割の概略説明図Schematic explanatory diagram of pixel and pupil division in Embodiment 1 of the present invention 本発明の実施例1における撮像素子と瞳分割の概略説明図Schematic explanatory diagram of an image sensor and pupil division in Embodiment 1 of the present invention 本発明の実施例1における第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量の概略関係図Schematic relationship diagram of defocus amount and image shift amount of first focus detection signal and second focus detection signal in Embodiment 1 of the present invention 本発明の実施例1におけるシェーディングの発生原理説明図Explanatory drawing of the generation principle of shading in Embodiment 1 of the present invention 本発明の実施例1におけるシェーディング補正値算出の概略図Schematic of shading correction value calculation in Embodiment 1 of the present invention 本発明の実施例1におけるフローチャートThe flowchart in Example 1 of this invention

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[全体構成]
本発明における撮像装置の概略構成図を、図1に示す。
[overall structure]
FIG. 1 shows a schematic configuration diagram of an imaging apparatus according to the present invention.

図1には、本発明の実施例1であるデジタル一眼レフカメラ2と該カメラ2に対して交換が可能な交換レンズ1とにより構成されるカメラシステムの構成を示している。   FIG. 1 shows a configuration of a camera system including a digital single-lens reflex camera 2 that is Embodiment 1 of the present invention and an interchangeable lens 1 that can be interchanged with the camera 2.

交換レンズ1内には撮像光学系10が収容されている。撮像光学系10は、複数のレンズや絞りにより構成される。また、交換レンズ1は少なくとも1つ以上のレンズを光軸に対して偏芯することが可能となっており、交換レンズ1の光軸に対して直行するあらかじめ決められた方向に偏芯させるシフト機構16と、交換レンズ1の光軸に対して円弧上であらかじめ決められた方向に偏芯させるティルト機構17と、ティルト機構17を回転させ、ティルト機構の偏芯方向を変更可能なレボルビング機構18を有している。   An imaging optical system 10 is accommodated in the interchangeable lens 1. The imaging optical system 10 includes a plurality of lenses and a diaphragm. In addition, the interchangeable lens 1 can decenter at least one or more lenses with respect to the optical axis, and shifts the eccentric lens in a predetermined direction perpendicular to the optical axis of the interchangeable lens 1. The mechanism 16, the tilt mechanism 17 for decentering in a predetermined direction on an arc with respect to the optical axis of the interchangeable lens 1, and the revolving mechanism 18 capable of changing the eccentric direction of the tilt mechanism by rotating the tilt mechanism 17. have.

レンズ記憶部14は、ROM等により構成され、交換レンズ1の識別情報や撮像光学系10の光学情報等の各種情報を記憶している。   The lens storage unit 14 is configured by a ROM or the like, and stores various types of information such as identification information of the interchangeable lens 1 and optical information of the imaging optical system 10.

電気接点15は交換レンズ1とデジタル一眼レフカメラ2との通信を可能としており、レンズ記憶部14に記憶されている情報や、後述のレンズ駆動部11から出力されるフォーカスレンズ位置情報や、シフト機構16、ティルト機構17、レボルビング機構18の各機構の移動量などの情報をカメラ制御部40に転送することが可能となっている。   The electrical contact 15 enables communication between the interchangeable lens 1 and the digital single-lens reflex camera 2. Information stored in the lens storage unit 14, focus lens position information output from the lens driving unit 11 described later, and shift Information such as the amount of movement of each of the mechanism 16, the tilt mechanism 17, and the revolving mechanism 18 can be transferred to the camera control unit 40.

フォーカスレンズ10aは光軸方向に移動可能となっており、光軸方向に移動させることでピント合わせを行うことができる。   The focus lens 10a is movable in the optical axis direction and can be focused by moving in the optical axis direction.

レンズ駆動部11は、光軸方向に移動可能なフォーカスレンズ10aを後述のレンズ制御部13によって制御および駆動を行う。また、フォーカスレンズ10aの位置を検出し、レンズ制御部13および、前述の電気接点15を介してカメラ制御部40にフォーカスレンズ位置情報やレンズ記憶部14に記憶されている各種情報、シフト機構16、ティルト機構17、レボルビング機構18の各機構の移動量、現在の焦点距離、現在の絞り値などの情報を転送することが可能となっている。   The lens driving unit 11 controls and drives the focus lens 10a movable in the optical axis direction by a lens control unit 13 described later. Further, the position of the focus lens 10 a is detected, the focus control unit 10 and various information stored in the lens storage unit 14 in the camera control unit 40 via the lens control unit 13 and the electrical contact 15 described above, and the shift mechanism 16. In addition, it is possible to transfer information such as the movement amount of each mechanism of the tilt mechanism 17 and the revolving mechanism 18, the current focal length, the current aperture value, and the like.

カメラ2において、ハーフミラーで構成された主ミラー20は、ユーザーが光学ファインダを通して被写体を観察する光学ファインダ観察時には、図示のように撮影光路内のダウン位置に配置されて撮像光学系10からの光をピント板30に向けて反射する。また、主ミラー20は、背面モニタ43にライブビュー画像を表示するライブビュー観察時や記録用画像(静止画および動画)を生成する撮影時には、撮影光路から退避するアップ位置に回動する。これにより、撮像光学系10からの光は、シャッタ23および撮像素子24に向かう。   In the camera 2, the main mirror 20 composed of a half mirror is disposed at a down position in the photographing optical path as shown in the drawing when the user observes the subject through the optical viewfinder, and the light from the imaging optical system 10 is displayed. Is reflected toward the focus plate 30. In addition, the main mirror 20 rotates to the up position for retreating from the photographing optical path during live view observation in which a live view image is displayed on the rear monitor 43 or during photographing for generating recording images (still images and moving images). Thereby, the light from the imaging optical system 10 goes to the shutter 23 and the imaging element 24.

サブミラー21は、主ミラー20とともに回動し、ダウン位置に配置された主ミラー20を透過した光をAFセンサユニット22に導く。また、主ミラー20がアップ位置に回動すると、サブミラー21も撮影光路から退避する。   The sub mirror 21 rotates together with the main mirror 20 and guides the light transmitted through the main mirror 20 disposed at the down position to the AF sensor unit 22. When the main mirror 20 is rotated to the up position, the sub mirror 21 is also retracted from the photographing optical path.

AFセンサユニット22は、被写体から撮像光学系10を通り、さらにサブミラー21で反射して入射した光を用いて、カメラ2による撮影範囲内に設けられた複数の焦点検出領域において位相差検出方式による撮像光学系の焦点状態の検出(焦点検出)を行う。AFセンサユニット22は、各焦点検出領域からの光に一対の像(被写体像)を形成させる2次結像レンズと、該一対の被写体像を光電変換する一対の受光素子列が配置されたエリアセンサ(CCD又はCMOS)とを含む。エリアセンサの一対の受光素子列は、一対の被写体像の輝度分布に応じた光電変換信号である一対の像信号をカメラ制御部40に出力する。エリアセンサ上には、複数の焦点検出領域に対応した複数対の受光素子列が2次元配置されている。   The AF sensor unit 22 uses a phase difference detection method in a plurality of focus detection areas provided in a shooting range by the camera 2 using light incident from the subject through the imaging optical system 10 and reflected by the sub mirror 21. The focus state of the imaging optical system is detected (focus detection). The AF sensor unit 22 is an area in which a secondary imaging lens that forms a pair of images (subject images) on the light from each focus detection region and a pair of light receiving element arrays that photoelectrically convert the pair of subject images. Sensor (CCD or CMOS). The pair of light receiving element rows of the area sensor outputs a pair of image signals, which are photoelectric conversion signals corresponding to the luminance distribution of the pair of subject images, to the camera control unit 40. A plurality of pairs of light receiving element arrays corresponding to a plurality of focus detection areas are two-dimensionally arranged on the area sensor.

シャッタ23は、光学ファインダ観察時には閉じ、ライブビュー観察時および動画撮影時には開放されて撮像光学系10により形成された被写体像の撮像素子24による光電変換(ライブビュー画像および撮影動画の生成)を可能とする。さらに、静止画撮影時には、設定されたシャッタ秒時で開閉し、撮像素子24の露光を制御する。   The shutter 23 is closed during optical viewfinder observation, and is opened during live view observation and moving image shooting, and photoelectric conversion (generation of a live view image and a captured moving image) by the image sensor 24 of a subject image formed by the imaging optical system 10 is possible. And Further, during still image shooting, the shutter is opened and closed at a set shutter speed, and exposure of the image sensor 24 is controlled.

撮像素子24は、CMOSイメージセンサ又はCCDイメージセンサとその周辺回路により構成され、撮像光学系10により形成された被写体像を光電変換してアナログ撮像信号を出力する。撮像素子24の各画素部には、撮像用素子と焦点検出用素子を兼用した瞳分割用の複数の副画素が配置されている。これについては、後に詳しく説明する。また、撮像素子24は撮像光学系10により形成された被写体像の輝度を測定することが可能となっている。   The image sensor 24 is composed of a CMOS image sensor or a CCD image sensor and its peripheral circuits, and photoelectrically converts a subject image formed by the imaging optical system 10 and outputs an analog imaging signal. In each pixel portion of the image sensor 24, a plurality of sub-pixels for pupil division that serve both as an image sensor and a focus detection element are arranged. This will be described in detail later. The image sensor 24 can measure the luminance of the subject image formed by the imaging optical system 10.

ピント板30は、撮像素子24と等価な位置である撮像光学系10の1次結像面に配置されている。光学ファインダ観察時には、ピント板30上に、被写体像(ファインダー像)が形成される。ペンタプリズム31は、ピント板30上に形成された被写体像を正立正像に変換する。接眼レンズ32は、正立正像をユーザーに観察させる。ピント板30、ペンタプリズム31および接眼レンズ32により光学ファインダが構成される。   The focus plate 30 is disposed on the primary imaging plane of the imaging optical system 10 that is equivalent to the imaging element 24. A subject image (finder image) is formed on the focus plate 30 during optical viewfinder observation. The pentaprism 31 converts the subject image formed on the focus plate 30 into an erect image. The eyepiece 32 allows the user to observe an erect image. The focus plate 30, the pentaprism 31 and the eyepiece lens 32 constitute an optical finder.

AEセンサ33は、ピント板30からの光を、ペンタプリズム31を介して受光し、該ピント板30上に形成された被写体像の輝度を測定する。AEセンサ33は、複数のフォトダイオードを有し、カメラ2による撮影範囲を分割するように設定された複数の測光領域のそれぞれで輝度を測定することができる。また、被写体像の輝度測定のほかにも、被写体像の形や色などを測定して被写体の状態を判定する被写体検知機能も備える。   The AE sensor 33 receives light from the focus plate 30 via the pentaprism 31 and measures the luminance of the subject image formed on the focus plate 30. The AE sensor 33 has a plurality of photodiodes, and can measure the luminance in each of a plurality of photometric areas set so as to divide the imaging range of the camera 2. In addition to measuring the brightness of the subject image, it also has a subject detection function for determining the state of the subject by measuring the shape and color of the subject image.

カメラ制御部40は、MPU等を含むマイクロコンピュータにより構成され、カメラ2と交換レンズ1からなるカメラシステム全体の動作を制御する。   The camera control unit 40 is configured by a microcomputer including an MPU and the like, and controls the operation of the entire camera system including the camera 2 and the interchangeable lens 1.

カメラ制御部40は、AFセンサユニット22から得られた一対の像信号の位相差を算出し、該位相差から撮像光学系10の焦点状態(デフォーカス量)を算出する。さらに、カメラ制御部40は、検出した撮像光学系10の焦点状態に基づいて、撮像光学系10の合焦状態を得るためにフォーカスレンズ10aを移動させるべき位置である合焦位置を算出する。そして、カメラ制御部40は、位相差AFにより算出した合焦位置にフォーカスレンズ10aを移動させるようレンズ制御部13にフォーカス指令を送信する。レンズ制御部13は、受信したフォーカス指令に応じて、レンズ駆動部11を介してフォーカスレンズ10aを合焦位置に移動させる。これにより、撮像光学系10の合焦状態が得られる。   The camera control unit 40 calculates the phase difference between the pair of image signals obtained from the AF sensor unit 22, and calculates the focus state (defocus amount) of the imaging optical system 10 from the phase difference. Furthermore, the camera control unit 40 calculates a focus position, which is a position where the focus lens 10a should be moved, in order to obtain a focus state of the image pickup optical system 10 based on the detected focus state of the image pickup optical system 10. Then, the camera control unit 40 transmits a focus command to the lens control unit 13 so as to move the focus lens 10a to the in-focus position calculated by the phase difference AF. The lens control unit 13 moves the focus lens 10a to the in-focus position via the lens driving unit 11 in accordance with the received focus command. Thereby, the focused state of the imaging optical system 10 is obtained.

カメラ制御部40は、電気接点15を通して得られる交換レンズ1の情報を取得し、シフト機構16、ティルト機構17、レボルビング機構18の各機構の移動量から、現在の実際の偏芯量を算出することができる。   The camera control unit 40 acquires information about the interchangeable lens 1 obtained through the electrical contact 15 and calculates the current actual eccentricity from the movement amounts of the shift mechanism 16, the tilt mechanism 17, and the revolving mechanism 18. be able to.

デジタル処理手段41は、撮像素子24からのアナログ撮像信号をデジタル撮像信号に変換し、さらに該デジタル撮像信号に対して各種処理を行って画像信号(画像データ)を生成する。撮像素子24およびデジタル処理手段41により撮像系が構成される。   The digital processing means 41 converts the analog image signal from the image sensor 24 into a digital image signal, and further performs various processes on the digital image signal to generate an image signal (image data). The imaging device 24 and the digital processing means 41 constitute an imaging system.

デジタル処理手段41は、前記撮像素子24に配置されている瞳分割用の複数の副画素の出力信号に応じた第1焦点検出信号と第2焦点検出信号をそれぞれ生成する像信号生成手段44がある。第1焦点検出信号と第2焦点検出信号については後で詳しく説明する。   The digital processing means 41 includes image signal generation means 44 for generating a first focus detection signal and a second focus detection signal in accordance with output signals from a plurality of pupil-dividing subpixels arranged in the image sensor 24, respectively. is there. The first focus detection signal and the second focus detection signal will be described in detail later.

デジタル処理手段41は、像信号生成手段44により生成された前記第1焦点検出信号および前記第2焦点検出信号を用いて、位相差検出方式による焦点状態(デフォーカス量)の検出を行う。さらに、デジタル処理手段41は、検出した撮像光学系10の焦点状態に基づいて、撮像光学系10の合焦状態を得るためにフォーカスレンズ10aを移動させるべき位置である合焦位置を算出する。この機能を撮像面位相差AFという。   The digital processing means 41 uses the first focus detection signal and the second focus detection signal generated by the image signal generation means 44 to detect the focus state (defocus amount) by the phase difference detection method. Furthermore, the digital processing means 41 calculates a focus position, which is a position where the focus lens 10a should be moved, in order to obtain a focus state of the image pickup optical system 10 based on the detected focus state of the image pickup optical system 10. This function is called imaging plane phase difference AF.

カメラ記憶部42は、カメラ制御部40やデジタル処理手段41の動作で用いられる各種データを記憶している。また、前記像信号生成手段により生成された第1焦点検出信号と第2焦点検出信号の補正値を算出する際に用いる各種関数を記憶している。各種関数については後で詳しく説明する。   The camera storage unit 42 stores various data used in the operation of the camera control unit 40 and the digital processing means 41. Further, various functions used for calculating correction values of the first focus detection signal and the second focus detection signal generated by the image signal generation means are stored. Various functions will be described in detail later.

また、カメラ記憶部42は、生成された記録用画像を保存する。   In addition, the camera storage unit 42 stores the generated recording image.

背面モニタ43は、液晶パネル等の表示素子により構成され、ライブビュー画像、記録用画像および各種情報を表示する。なお背面モニタ43には、タッチパネル機能が備えられ、ユーザーのタッチ操作によって背面モニタ43上で任意の操作が可能である。   The rear monitor 43 includes a display element such as a liquid crystal panel, and displays a live view image, a recording image, and various types of information. The rear monitor 43 is provided with a touch panel function, and any operation can be performed on the rear monitor 43 by a user's touch operation.

[撮像素子]
実施例1の撮像素子24の配列の概略図を、図2に示す。
[Image sensor]
FIG. 2 shows a schematic diagram of the arrangement of the image sensor 24 of the first embodiment.

実施例1において、図2に示した2列×2行の画素群200は、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。さらに、各画素は2列×1行に配列された第1焦点検出画素201と第2焦点検出画素202により構成されている。   In the first embodiment, the pixel group 200 of 2 columns × 2 rows shown in FIG. 2 includes a pixel 200R having an R (red) spectral sensitivity on the upper left and a pixel 200G having a G (green) spectral sensitivity on the upper right. A pixel 200B having a spectral sensitivity of B (blue) is arranged at the lower left. Further, each pixel includes a first focus detection pixel 201 and a second focus detection pixel 202 arranged in 2 columns × 1 row.

図2に示した4列×4行の画素(8列×4行の焦点検出画素)を面上に多数配置し、撮像画像(焦点検出信号)の取得を可能としている。本実施例1では、画素の周期Pが4μm、画素数Nが横5575列×縦3725行=約2075万画素、焦点検出画素の列方向周期PAFが2μm、焦点検出画素数NAFが横11150列×縦3725行=約4150万画素の撮像素子として説明を行う。 A large number of 4 columns × 4 rows of pixels (8 columns × 4 rows of focus detection pixels) shown in FIG. In the first embodiment, the period P is 4 [mu] m, the number of pixels N is horizontal 5575 columns × vertical 3725 lines of pixels = about 20.75 million pixels, the column period P AF is 2 [mu] m, the focus detection pixel number N AF horizontal focus detection pixels The description will be made assuming that the imaging device has 11150 columns × vertical 3725 rows = about 41.5 million pixels.

図2に示した撮像素子の1つの画素200Gを、撮像素子の受光面側(+z側)から見た平面図を図3(a)に示し、図3(a)のa−a断面を−y側から見た断面図を図3(b)に示す。   FIG. 3A shows a plan view of one pixel 200G of the image pickup device shown in FIG. 2 as viewed from the light receiving surface side (+ z side) of the image pickup device, and a cross section taken along the line aa in FIG. A cross-sectional view seen from the y side is shown in FIG.

図3に示すように、本実施例1の画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向にN分割(2分割)、y方向にN分割(1分割)された光電変換部301と光電変換部302が形成される。光電変換部301と光電変換部302が、それぞれ、第1焦点検出画素201と第2焦点検出画素202に対応する。 As shown in FIG. 3, in the pixel 200 </ b> G of the first embodiment, a micro lens 305 for condensing incident light is formed on the light receiving side of each pixel, and NH division (two divisions) is performed in the x direction and y direction. N V division (first division) by photoelectric conversion unit 301 and the photoelectric conversion portion 302 is formed. The photoelectric conversion unit 301 and the photoelectric conversion unit 302 correspond to the first focus detection pixel 201 and the second focus detection pixel 202, respectively.

光電変換部301と光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしても良いし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしても良い。   The photoelectric conversion unit 301 and the photoelectric conversion unit 302 may be a pin structure photodiode in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer, or an intrinsic layer is omitted as necessary, and a pn junction is formed. A photodiode may be used.

各画素には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルター306が形成される。また、必要に応じて、各副画素毎にカラーフィルターの分光透過率を変えても良いし、カラーフィルターを省略しても良い。   In each pixel, a color filter 306 is formed between the microlens 305 and the photoelectric conversion unit 301 and the photoelectric conversion unit 302. Further, as necessary, the spectral transmittance of the color filter may be changed for each sub-pixel, or the color filter may be omitted.

図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルター306で分光されたのち、光電変換部301と光電変換部302で受光される。   The light incident on the pixel 200 </ b> G illustrated in FIG. 3 is collected by the microlens 305, dispersed by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302.

光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成し、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積され、一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。   In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, a pair of electrons and holes are generated according to the amount of received light and separated by a depletion layer, and then negatively charged electrons are accumulated in an n-type layer (not shown), The holes are discharged to the outside of the image sensor through a p-type layer connected to a constant voltage source (not shown).

光電変換部301と光電変換部302のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。   Electrons accumulated in the n-type layer (not shown) of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are transferred to the capacitance unit (FD) through the transfer gate and converted into a voltage signal.

図3に示した本実施例1の画素構造と瞳分割との対応関係を示した概略説明図を図4に示す。図3(a)に示した本実施例1の画素構造のa−a断面を+y側から見た断面図と結像光学系の射出瞳面を図4に示す。図4では、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図3に対して反転させている。   FIG. 4 is a schematic explanatory diagram showing the correspondence between the pixel structure and pupil division of the first embodiment shown in FIG. FIG. 4 shows a sectional view of the pixel structure of Example 1 shown in FIG. 3A as viewed from the + y side and an exit pupil plane of the imaging optical system. In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x-axis and y-axis of the cross-sectional view are inverted with respect to FIG.

図4で、第1焦点検出画素201の第1瞳部分領域501は、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズによって、概ね、共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+X側に重心が偏心している。   In FIG. 4, the first pupil partial region 501 of the first focus detection pixel 201 is generally conjugated with the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the −x direction and the microlens. A pupil region that can be received by the first focus detection pixel 201 is shown. The first pupil partial region 501 of the first focus detection pixel 201 has an eccentric center of gravity on the + X side on the pupil plane.

図4で、第2焦点検出画素202の第2瞳部分領域502は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズによって、概ね、共役関係になっており、第2焦点検出画素202で受光可能な瞳領域を表している。第2焦点検出画素202の第2瞳部分領域502は、瞳面上で−X側に重心が偏心している。   In FIG. 4, the second pupil partial region 502 of the second focus detection pixel 202 is generally in a conjugate relationship by the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + x direction and the microlens. A pupil region that can be received by the bifocal detection pixel 202 is shown. The second pupil partial region 502 of the second focus detection pixel 202 has an eccentric center of gravity on the −X side on the pupil plane.

また、図4で、瞳領域500は、光電変換部301と光電変換部302(第1焦点検出画素201と第2焦点検出画素202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。   In FIG. 4, a pupil region 500 is a pupil region that can receive light in the entire pixel 200G when the photoelectric conversion unit 301 and the photoelectric conversion unit 302 (first focus detection pixel 201 and second focus detection pixel 202) are all combined. It is.

本実施例1の撮像素子と瞳分割との対応関係を示した概略図を図5に示す。第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子の各画素に、それぞれ、異なる角度で入射し、2×1分割された第1焦点検出画素201と第2焦点検出画素202で受光される。本実施例1は、瞳領域が水平方向に2つに瞳分割されている例である。必要に応じて、垂直方向に瞳分割を行っても良い。   FIG. 5 is a schematic diagram showing a correspondence relationship between the image sensor of the first embodiment and pupil division. The light beams that have passed through different pupil partial areas of the first pupil partial area 501 and the second pupil partial area 502 are incident on each pixel of the image sensor at different angles, respectively, and are divided into 2 × 1 first focus detection pixels. 201 and the second focus detection pixel 202 receive light. The first embodiment is an example in which the pupil region is divided into two pupils in the horizontal direction. If necessary, pupil division may be performed in the vertical direction.

本発明の撮像素子は、結像光学系の第1瞳部分領域を通過する光束を受光する第1焦点検出画素と、第1瞳部分領域と異なる結像光学系の第2瞳部分領域を通過する光束を受光する第2焦点検出画素と、結像光学系の第1瞳部分領域と第2瞳部分領域を合わせた瞳領域を通過する光束を受光する撮像画素が複数配列されている。本実施例1の撮像素子では、それぞれの撮像画素が第1焦点検出画素と第2焦点検出画素から構成されている。   The imaging device of the present invention passes through a first focus detection pixel that receives a light beam passing through the first pupil partial region of the imaging optical system, and a second pupil partial region of the imaging optical system different from the first pupil partial region. A plurality of imaging pixels that receive the second focus detection pixel that receives the luminous flux and the luminous flux that passes through the pupil area that is the combination of the first pupil partial area and the second pupil partial area of the imaging optical system are arranged. In the imaging device of the first embodiment, each imaging pixel is composed of a first focus detection pixel and a second focus detection pixel.

必要に応じて、撮像画素と第1焦点検出画素、第2焦点検出画素を個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素と第2焦点検出画素を部分的に配置する構成としても良い。   If necessary, the imaging pixel, the first focus detection pixel, and the second focus detection pixel are configured as separate pixels, and the first focus detection pixel and the second focus detection pixel are partially arranged in a part of the imaging pixel array. It is good also as composition to do.

本実施例1では、撮像素子の各画素の第1焦点検出画素201の受光信号を集めて第1焦点検出信号を生成し、各画素の第2焦点検出画素202の受光信号を集めて第2焦点検出信号を生成して焦点検出を行う。また、撮像素子の画素毎に、第1焦点検出画素201と第2焦点検出画素202の信号を加算することで、有効画素数Nの解像力の撮像信号(撮像画像)を生成する。   In the first embodiment, the light reception signals of the first focus detection pixels 201 of each pixel of the image sensor are collected to generate a first focus detection signal, and the light reception signals of the second focus detection pixels 202 of each pixel are collected. A focus detection signal is generated to perform focus detection. Further, by adding the signals of the first focus detection pixel 201 and the second focus detection pixel 202 for each pixel of the image pickup device, an image pickup signal (captured image) having a resolution of N effective pixels is generated.

[デフォーカス量と像ずれ量の関係]
以下、本実施例1の撮像素子により取得される第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量の関係について説明する。
[Relationship between defocus amount and image shift amount]
Hereinafter, the relationship between the defocus amount and the image shift amount of the first focus detection signal and the second focus detection signal acquired by the image sensor according to the first embodiment will be described.

図6に、第1焦点検出信号と第2焦点検出信号のデフォーカス量と第1焦点検出信号と第2焦点検出信号間の像ずれ量の概略関係図を示す。   FIG. 6 shows a schematic relationship diagram of the defocus amounts of the first focus detection signal and the second focus detection signal and the image shift amount between the first focus detection signal and the second focus detection signal.

撮像面800に本実施例1の撮像素子(不図示)が配置され、図4、図5と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2分割される。   The imaging element (not shown) of the first embodiment is arranged on the imaging surface 800, and the exit pupil of the imaging optical system is the first pupil partial region 501 and the second pupil partial region 502, as in FIGS. Divided into two.

デフォーカス量dは、被写体の結像位置から撮像面までの距離を大きさ|d|とし、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面(合焦位置)にある合焦状態はd=0である。図6で、被写体801は合焦状態(d=0)の例を示しており、被写体802は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。   The defocus amount d is a distance | d | from the imaging position of the subject to the imaging surface, and a negative sign (d <0) indicates a front pin state where the imaging position of the subject is on the subject side from the imaging surface. A rear pin state in which the imaging position of the subject is on the opposite side of the subject from the imaging surface is defined as a positive sign (d> 0). An in-focus state where the imaging position of the subject is on the imaging surface (in-focus position) is d = 0. In FIG. 6, the subject 801 shows an example in a focused state (d = 0), and the subject 802 shows an example in a front pin state (d <0). The front pin state (d <0) and the rear pin state (d> 0) are combined to form a defocus state (| d |> 0).

前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(第2瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子に配列された各画素を構成する第1焦点検出画素201(第2焦点検出画素202)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。よって、第1焦点検出信号(第2焦点検出信号)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。同様に、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。後ピン状態(d>0)でも、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。   In the front pin state (d <0), the luminous flux that has passed through the first pupil partial area 501 (second pupil partial area 502) out of the luminous flux from the subject 802 is once condensed and then the gravity center position G1 of the luminous flux. The image spreads in the width Γ 1 (Γ 2) with (G 2) as the center, resulting in a blurred image on the imaging surface 800. The blurred image is received by the first focus detection pixel 201 (second focus detection pixel 202) constituting each pixel arranged in the image sensor, and a first focus detection signal (second focus detection signal) is generated. . Therefore, the first focus detection signal (second focus detection signal) is recorded as a subject image in which the subject 802 is blurred by the width Γ1 (Γ2) at the gravity center position G1 (G2) on the imaging surface 800. The blur width Γ1 (Γ2) of the subject image generally increases in proportion to the amount of defocus amount d | d |. Similarly, the magnitude | p | of the object image displacement amount p (= difference G1-G2 in the center of gravity of the light beam) between the first focus detection signal and the second focus detection signal is also the size of the defocus amount d. As | d | increases, it generally increases in proportion. Even in the rear pin state (d> 0), the image shift direction of the subject image between the first focus detection signal and the second focus detection signal is opposite to that in the front pin state, but the same.

したがって、本発明では、第1焦点検出信号と第2焦点検出信号、もしくは、第1焦点検出信号と第2焦点検出信号を加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する。   Therefore, in the present invention, as the magnitude of the defocus amount of the imaging signal obtained by adding the first focus detection signal and the second focus detection signal or the first focus detection signal and the second focus detection signal increases, The amount of image shift between the first focus detection signal and the second focus detection signal increases.

なお、撮像面位相差AFにおいては、第1焦点検出信号と第2焦点検出信号を相対的にシフトさせて信号の一致度を表す相関量(第1評価値)を計算し、相関(信号の一致度)が良くなるシフト量から像ずれ量を検出する。撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する関係性から、像ずれ量を第1検出デフォーカス量に変換して焦点検出を行う。   In the imaging plane phase difference AF, the first focus detection signal and the second focus detection signal are relatively shifted to calculate a correlation amount (first evaluation value) representing the degree of coincidence of the signals, and the correlation (signal The image shift amount is detected from the shift amount that improves the degree of coincidence. As the defocus amount of the image pickup signal increases, the image shift amount is determined based on the relationship that the image shift amount increases between the first focus detection signal and the second focus detection signal. Focus detection is performed by converting into a focus amount.

[シェーディング]
図7はシェーディングの発生原理と発生するシェーディングを説明するための図である。
[shading]
FIG. 7 is a diagram for explaining the generation principle of shading and the generated shading.

同図において、401aは画像信号Aの瞳強度分布、401bは画像信号Bの瞳強度分布、402は絞り枠、403は各像高の画素を示す。また、404aは図7(a)の状態における画像信号Aのシェーディング、404bは図7(a)の状態における画像信号Bのシェーディングをそれぞれ示している。   In this figure, 401a is a pupil intensity distribution of the image signal A, 401b is a pupil intensity distribution of the image signal B, 402 is a diaphragm frame, and 403 is a pixel of each image height. 404a indicates shading of the image signal A in the state of FIG. 7A, and 404b indicates shading of the image signal B in the state of FIG. 7A.

図7(a)のような場合、像高が−x1の画素403は絞り枠402を通して瞳座標上の+x2の場所の瞳を見ることになる。そのため、図7(a)の瞳強度分布401aと瞳強度分布401bを見れば分かるように画像信号Aと画像信号Bの感度を比較した場合、画像信号Bの方の感度が良いことが分かる。逆に、像高が+x1の撮像素子403では絞り枠402を通して瞳座標上の−x2の場所の瞳を見ることになるため、画像信号Aと画像信号Bの感度を比較した場合、画像信号Aの方が感度が良くなる。   In the case of FIG. 7A, the pixel 403 having an image height of −x1 sees the pupil at the location of + x2 on the pupil coordinates through the diaphragm frame 402. Therefore, as can be seen from the pupil intensity distribution 401a and the pupil intensity distribution 401b of FIG. 7A, it can be seen that the sensitivity of the image signal B is better when the sensitivity of the image signal A and the image signal B is compared. On the other hand, since the imaging element 403 having an image height of + x1 sees the pupil at the location of -x2 on the pupil coordinates through the aperture frame 402, the image signal A is compared when the sensitivity of the image signal A and the image signal B is compared. The sensitivity is better.

上記のような理由のため、図7(a)のような状態におけるシェーディングは図7(b)のようになる。シェーディングは図7(a)を見れば分かるように、絞り枠402の位置や大きさに応じて変化する性質があるため、射出瞳距離と絞り値が変わるとシェーディングも変化する。さらに、レンズの偏芯量によってさらに複雑にシェーディングが変化する。   For the above reasons, the shading in the state shown in FIG. 7A is as shown in FIG. As can be seen from FIG. 7A, the shading has a property of changing according to the position and size of the aperture frame 402, so that the shading changes when the exit pupil distance and the aperture value change. Furthermore, the shading changes more complicatedly depending on the amount of eccentricity of the lens.

また、絞り枠402以外にもシェーディングが変化する要因として瞳位置のずれが挙げられる。撮像素子の製造公差を考慮した際には、光電変換部である副画素201a、201bとマイクロレンズ202の位置関係が並進方向や光軸方向にずれる等の問題がある。すると、瞳位置も並進方向や光軸方向にずれてしまうため、瞳分割領域は設定した瞳位置から並進方向や光軸方向にずれてしまう。   In addition to the aperture frame 402, a pupil position shift is a factor that causes shading to change. Considering manufacturing tolerances of the image sensor, there is a problem that the positional relationship between the sub-pixels 201a and 201b, which are photoelectric conversion units, and the microlens 202 is shifted in the translational direction or the optical axis direction. Then, since the pupil position is also shifted in the translation direction and the optical axis direction, the pupil division area is shifted from the set pupil position in the translation direction and the optical axis direction.

図7(b)を見れば分かるように、シェーディングは像高に応じて連続的に変化する値であるため像高関数として表現することが出来る。そのため、予め各条件(絞り値と射出瞳距離情報の組合せ)毎にシェーディングの補正値を算出してその近似関数を求め、近似関数の係数のみを記憶する手法をとることが可能である。   As can be seen from FIG. 7B, the shading is a value that continuously changes according to the image height, and therefore can be expressed as an image height function. Therefore, it is possible to calculate a shading correction value for each condition (combination of aperture value and exit pupil distance information) in advance and obtain an approximate function thereof, and store only the coefficients of the approximate function.

シェーディング補正の近似式として、特開2014−6388号公報によって開示されている技術によれば、下記近似式によって適切に領域毎で補正値算出係数を記憶し、補正値を算出する。   According to the technique disclosed in Japanese Patent Application Laid-Open No. 2014-6388 as an approximate expression for shading correction, a correction value calculation coefficient is appropriately stored for each region by the following approximate expression, and a correction value is calculated.

※1:S0A’、S1A’、S2A’、S0B’、S1B’、S2B’:
y方向のシェーディング変化の影響を予め考慮して算出された近似関数の係数
上記近似式は偏芯量が0の状態でのみ有効な式であるため、偏芯状態を考慮した式に変形させると、下記近似式となる。
* 1: S0A ', S1A', S2A ', S0B', S1B ', S2B':
Coefficient of approximate function calculated in consideration of the influence of shading change in the y direction Since the above approximate expression is effective only when the amount of eccentricity is 0, when transformed to an expression that takes into account the eccentricity state The following approximate expression is obtained.

※2:SHIFT:
実際のシフト量で決定する係数(以下、シフト係数)
※3:T1A’、T2A’、T1B’T2B’:
実際のティルト量で決定する係数(以下、ティルト係数)
シフト係数は、実際にレンズが光軸中心から直行方向へ移動した移動量(実際のシフト量)に応じた関数から算出される係数である。
ティルト係数は、実際にレンズが光軸中心から円弧方向へ移動した移動量(実際のティルト量)に応じた関数から算出される係数である。
シフト係数とティルト係数に用いられる実際のシフト量および実際のティルト量は、撮像光学系10の各機構の移動量から、カメラ制御部40内で算出した偏芯量である。
* 2: SHIFT:
Coefficient determined by actual shift amount (hereinafter referred to as shift coefficient)
* 3: T1A ', T2A', T1B'T2B ':
Coefficient determined by actual tilt amount (hereinafter referred to as tilt coefficient)
The shift coefficient is a coefficient calculated from a function corresponding to the amount of movement (actual shift amount) that the lens actually moves in the orthogonal direction from the center of the optical axis.
The tilt coefficient is a coefficient calculated from a function corresponding to the amount of movement (actual tilt amount) by which the lens actually moves in the arc direction from the center of the optical axis.
The actual shift amount and the actual tilt amount used for the shift coefficient and the tilt coefficient are eccentric amounts calculated in the camera control unit 40 from the movement amounts of the respective mechanisms of the imaging optical system 10.

なお、本実施例ではシフト係数とティルト係数を別々の関数からなる係数としているが、実際にはシフトとティルトを複合した関数として記憶していてもよい。なお、本実施例ではシフト係数とティルト係数を総称して、偏芯係数と呼ぶ。偏芯係数は、レンズの絞り値、レンズ射出瞳距離、瞳位置のずれの各要素を考慮した係数である。   In this embodiment, the shift coefficient and the tilt coefficient are coefficients made up of separate functions, but actually, they may be stored as a function in which the shift and tilt are combined. In this embodiment, the shift coefficient and the tilt coefficient are collectively called an eccentricity coefficient. The eccentricity coefficient is a coefficient that takes into account each element of the lens aperture value, lens exit pupil distance, and pupil position deviation.

偏芯係数は、カメラ記憶手段42に記憶される。   The eccentricity coefficient is stored in the camera storage means 42.

上記のように通常の補正関数にさらに偏芯係数により算出可能な式(3)、(4)を使って補正値を算出するによって、偏芯状態のレンズにおいても適切な補正が可能となる。   As described above, by calculating the correction value by using the normal correction function and the equations (3) and (4) that can be calculated by the eccentricity coefficient, it is possible to perform appropriate correction even in the eccentric lens.

[焦点検出フロー]
図8は本実施例の概要を説明したブロック図である。
[Focus detection flow]
FIG. 8 is a block diagram illustrating the outline of the present embodiment.

まず、撮像素子24から光電変換された出力信号を、デジタル処理手段41内にて像信号生成手段44により像信号を生成し、焦点検出手段121dに送る。次に、補正値算出手段121aが焦点検出領域選択手段121cによって選択された焦点検出領域の位置に応じて適切な補正値算出係数を、カメラ記憶部42内にある補正値算出係数記憶手段121bから取得する。また、補正値算出手段121aはカメラ制御手段40内の実際の偏芯量を算出する実偏芯量算出手段121eにて算出された実偏芯量に応じて、適切な偏芯係数をカメラ記憶部42内にある偏芯係数記憶手段121fから取得する。補正値算出手段は、これらの係数から補正値を算出して焦点検出手段121dに送る。この時の焦点検出領域選択手段121cの焦点検出領域の設定方法としては、予めユーザーが任意に設定しても良いし、被写体認識等でカメラが自動設定を行っても良い。また、補正値算出係数および偏芯係数を選択する際には、絞り情報と射出瞳距離情報が考慮されている。焦点検出手段121dは受け取った像信号と補正値を用いて焦点検出を行う。これが本実施例1の概要である。   First, an output signal photoelectrically converted from the image sensor 24 is generated in the digital processing means 41 by the image signal generation means 44 and sent to the focus detection means 121d. Next, the correction value calculation means 121a obtains an appropriate correction value calculation coefficient from the correction value calculation coefficient storage means 121b in the camera storage unit 42 according to the position of the focus detection area selected by the focus detection area selection means 121c. get. The correction value calculation means 121a stores an appropriate eccentricity coefficient in the camera according to the actual eccentricity calculated by the actual eccentricity calculation means 121e that calculates the actual eccentricity in the camera control means 40. Obtained from the eccentricity coefficient storage means 121f in the unit 42. The correction value calculation means calculates a correction value from these coefficients and sends it to the focus detection means 121d. As a method for setting the focus detection area of the focus detection area selection unit 121c at this time, the user may arbitrarily set in advance, or the camera may automatically set by subject recognition or the like. Further, when selecting the correction value calculation coefficient and the eccentricity coefficient, the aperture information and the exit pupil distance information are taken into consideration. The focus detection unit 121d performs focus detection using the received image signal and correction value. This is the outline of the first embodiment.

図9は本実施例1のフローチャートである。   FIG. 9 is a flowchart of the first embodiment.

まずステップS901で撮像素子24から像信号を取得する。   First, in step S901, an image signal is acquired from the image sensor 24.

次に、ステップS902では取得した像信号のどの領域の焦点検出を行うかを判定する。   Next, in step S902, it is determined which region of the acquired image signal is subjected to focus detection.

ステップS903では焦点検出領域の判定結果をもとに適切な補正値算出係数を選択する。   In step S903, an appropriate correction value calculation coefficient is selected based on the determination result of the focus detection area.

ステップS904ではカメラ制御部40内の実偏芯量算出手段121eにて算出されたレンズの実偏芯量をもとに、適切な偏芯係数を選択する。   In step S904, an appropriate eccentricity coefficient is selected based on the actual eccentricity of the lens calculated by the actual eccentricity calculation means 121e in the camera control unit 40.

ステップS905では選択された補正値算出係数と偏芯係数を用いて補正値を算出する。   In step S905, a correction value is calculated using the selected correction value calculation coefficient and eccentricity coefficient.

ステップS906では算出された補正値と、撮像素子24から出力された像信号を用いて焦点検出を行う。   In step S906, focus detection is performed using the calculated correction value and the image signal output from the image sensor 24.

ステップS901からステップS906を1回以上行い、ステップS907では焦点検出が終了かどうかを判定し、終了と判定されれば焦点検出が終わる。   Steps S901 to S906 are performed one or more times. In step S907, it is determined whether or not focus detection is completed. If it is determined that focus detection is completed, focus detection ends.

以上のように本実施形態によれば、補正値算出係数にさらに偏芯係数を用いてシェーディング補正の近似式を計算することで、偏芯可能なレンズにおいても高精度で補正値を算出し、高精度な焦点検出が可能である。   As described above, according to the present embodiment, by calculating an approximate expression for shading correction using an eccentricity coefficient as a correction value calculation coefficient, a correction value is calculated with high accuracy even in a decenterable lens, High-precision focus detection is possible.

なお、ステップS904において、実偏芯量の方向が瞳分割方向と直行する方向の場合、第1焦点検出信号と第2焦点検出信号のシェーディングの影響がほとんどなくなるため、補正を行う必要がないと判断し、偏芯係数による補正値計算を省略してもよい。   In step S904, when the direction of the actual eccentricity is a direction perpendicular to the pupil division direction, the influence of shading of the first focus detection signal and the second focus detection signal is almost eliminated, and there is no need to perform correction. The correction value calculation based on the eccentricity coefficient may be omitted.

また、本実施例では瞳分割方向が水平方向に分割された撮像素子について述べたが、垂直方向やその他複数の方向へ分割している場合、第1焦点検出信号と第2焦点検出信号の生成する方向に応じて、偏芯量によるシェーディングの影響が異なる。そのため、第1焦点検出信号および第2焦点検出信号の検出方向と、偏芯量の方向に応じた偏芯係数を取得して良い。たとえば、第1焦点検出信号および第2焦点検出信号の検出方向に応じた近似式を記憶していてもいいし、第1焦点検出信号および第2焦点検出信号の検出方向の方向に応じて、近似式と偏芯量の関数を変化させて偏芯係数を取得してもよい。   Further, in the present embodiment, the imaging element in which the pupil division direction is divided in the horizontal direction has been described. However, when the image pickup element is divided in the vertical direction or other plural directions, the first focus detection signal and the second focus detection signal are generated. The influence of shading due to the amount of eccentricity differs depending on the direction to be performed. Therefore, an eccentricity coefficient corresponding to the detection direction of the first focus detection signal and the second focus detection signal and the direction of the eccentricity amount may be acquired. For example, an approximate expression according to the detection direction of the first focus detection signal and the second focus detection signal may be stored, or according to the direction of the detection direction of the first focus detection signal and the second focus detection signal, The eccentricity coefficient may be acquired by changing the function of the approximate expression and the eccentricity amount.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

10 撮像光学系、24 撮像素子、44 像信号生成手段、
121a 補正値算出手段、121b 補正値算出係数記憶手段、
121c 焦点検出領域設定手段、121d 焦点検出手段、
121e 実偏芯量算出手段、121f 偏芯係数記憶手段
10 imaging optical system, 24 imaging device, 44 image signal generating means,
121a correction value calculation means, 121b correction value calculation coefficient storage means,
121c focus detection area setting means, 121d focus detection means,
121e Actual eccentricity calculation means, 121f Eccentric coefficient storage means

Claims (5)

レンズユニットの少なくとも一部を光軸に対して偏芯可能な撮像光学系(10)と、
前記撮像光学系(10)から入射された光束を複数の領域に瞳分割するように撮像画素を複数配列した撮像素子(24)と、
前記撮像素子(24)光電変換によって出力される出力値から一対の像信号を生成する像信号生成手段(44)と、
前記像信号生成手段(44)により得られた像信号を用いて位相差方式で被写体のピントずれ量を算出する焦点検出手段(41)と、
前記撮像素子(24)の撮像領域に焦点検出領域を設定する焦点検出領域選択手段(121c)と、
前記像信号生成手段(44)により得られた像信号の補正値を近似により算出するための近似関数を記憶する補正値算出係数記憶手段(121b)と、
前記撮像光学系(10)の偏芯状態における前記像信号生成手段(44)により得られた像信号の補正値を近似により算出するための近似関数を記憶する偏芯係数記憶手段(121f)と、
前記補正値算出係数記憶手段(121b)に記憶されている近似関数に基づいて、前記焦点検出領域選択手段(121c)が設定した焦点検出領域に応じた補正に有効な近似関数を取得し、前記偏芯係数記憶手段(121f)に記憶されている近似関数に基づいて、前記撮像光学系(10)の偏芯量に応じた補正に有効な近似関数を取得し、当該取得した近似関数に従って補正値を算出する補正値算出手段(121a)と、
前記補正値算出手段(121a)によって算出された補正値を用いて補正された像信号をもとに前記焦点検出手段(41)による焦点調節制御を行うことを特徴とする撮像装置。
An imaging optical system (10) capable of decentering at least a part of the lens unit with respect to the optical axis;
An imaging device (24) in which a plurality of imaging pixels are arranged so as to divide the light beam incident from the imaging optical system (10) into a plurality of regions;
Image signal generation means (44) for generating a pair of image signals from output values output by the image sensor (24) photoelectric conversion;
A focus detection means (41) for calculating a focus shift amount of the subject by a phase difference method using the image signal obtained by the image signal generation means (44);
Focus detection area selection means (121c) for setting a focus detection area in the imaging area of the image sensor (24);
Correction value calculation coefficient storage means (121b) for storing an approximation function for calculating the correction value of the image signal obtained by the image signal generation means (44) by approximation;
An eccentricity coefficient storage means (121f) for storing an approximation function for calculating the correction value of the image signal obtained by the image signal generation means (44) in the eccentricity state of the imaging optical system (10) by approximation; ,
Based on the approximation function stored in the correction value calculation coefficient storage means (121b), an approximation function effective for correction according to the focus detection area set by the focus detection area selection means (121c) is obtained, Based on the approximation function stored in the eccentricity coefficient storage means (121f), an approximation function effective for correction according to the amount of eccentricity of the imaging optical system (10) is acquired, and correction is performed according to the acquired approximation function. Correction value calculation means (121a) for calculating a value;
An image pickup apparatus, wherein focus adjustment control is performed by the focus detection unit (41) based on an image signal corrected using the correction value calculated by the correction value calculation unit (121a).
前記焦点調節制御は、前記撮像光学系(10)を自動で駆動させて焦点調節を行う制御であることを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the focus adjustment control is control for performing focus adjustment by automatically driving the imaging optical system (10). 前記焦点調節制御は、前記撮像光学系(10)を手動で駆動させて焦点調節を行う制御であることを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the focus adjustment control is control for manually adjusting the focus by driving the imaging optical system (10). 前記補正位置算出手段(121a)は、前記撮像素子(24)の瞳分割方向と前記撮像光学系(10)の偏心方向に基づいて、前記偏芯係数記憶手段(121f)に記憶されている近似関数を用いて前記補正値算出手段(121a)による補正値算出を行うことを特徴とする請求項1に記載の撮像装置。   The correction position calculation means (121a) is an approximation stored in the eccentricity coefficient storage means (121f) based on the pupil division direction of the image sensor (24) and the eccentric direction of the imaging optical system (10). The imaging apparatus according to claim 1, wherein the correction value is calculated by the correction value calculation means (121a) using a function. 前記前記像信号生成手段(44)の検出方向と前記撮像光学系(10)の偏心方向に基づいて、前記偏芯係数記憶手段(121f)に記憶されている近似関数を用いて前記補正値算出手段(121a)による補正値算出を行うことを特徴とする請求項1に記載の撮像装置。 Based on the detection direction of the image signal generation means (44) and the decentering direction of the imaging optical system (10), the correction value is calculated using an approximation function stored in the eccentricity coefficient storage means (121f). The imaging apparatus according to claim 1, wherein the correction value is calculated by the means (121a).
JP2016117531A 2016-06-14 2016-06-14 Imaging device Pending JP2017223763A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016117531A JP2017223763A (en) 2016-06-14 2016-06-14 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016117531A JP2017223763A (en) 2016-06-14 2016-06-14 Imaging device

Publications (1)

Publication Number Publication Date
JP2017223763A true JP2017223763A (en) 2017-12-21

Family

ID=60686080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016117531A Pending JP2017223763A (en) 2016-06-14 2016-06-14 Imaging device

Country Status (1)

Country Link
JP (1) JP2017223763A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020134624A (en) * 2019-02-15 2020-08-31 キヤノン株式会社 Imaging apparatus, control method of imaging apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020134624A (en) * 2019-02-15 2020-08-31 キヤノン株式会社 Imaging apparatus, control method of imaging apparatus, and program
JP7246961B2 (en) 2019-02-15 2023-03-28 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP4910366B2 (en) Focus detection apparatus, optical system, and focus detection method
US8964079B2 (en) Image sensor and image capturing apparatus
US20120092545A1 (en) Focus detection apparatus
US20110199506A1 (en) Focus detection apparatus and control method therefor
JP6249825B2 (en) Imaging device, control method thereof, and control program
CN104104849A (en) Image capturing apparatus and method of controlling the same
JP2012230172A (en) Imaging apparatus
JP2015203783A (en) Image capturing device, control device, control method, program, and storage medium
US20170302844A1 (en) Image capturing apparatus, control method therefor, and storage medium
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP2015194736A (en) Imaging device and method for controlling the same
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP2017032646A (en) Image-capturing device and method for controlling the same
JP6302512B2 (en) IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD
JP2017192028A (en) Imaging apparatus and control method of the same, program, and memory medium
JP2018151508A (en) Imaging device
US11889186B2 (en) Focus detection device, focus detection method, and image capture apparatus
JP2017223763A (en) Imaging device
JP2017032978A (en) Control device, imaging device, control method, program, and storage medium
JP2022103610A (en) Lens device, image capturing device, method of controlling lens device, and program
JP2017054052A (en) Control device, imaging device, control method, program, and storage medium
JP6671868B2 (en) Control device, imaging device, control method, program, and storage medium
JP2019114912A (en) Image processing device and image processing method, and imaging apparatus
JP2019219577A (en) Detection device and detection method
JP2018026604A (en) Imaging device and imaging device system