JP7130473B2 - IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM - Google Patents

IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM Download PDF

Info

Publication number
JP7130473B2
JP7130473B2 JP2018130050A JP2018130050A JP7130473B2 JP 7130473 B2 JP7130473 B2 JP 7130473B2 JP 2018130050 A JP2018130050 A JP 2018130050A JP 2018130050 A JP2018130050 A JP 2018130050A JP 7130473 B2 JP7130473 B2 JP 7130473B2
Authority
JP
Japan
Prior art keywords
amount
correction
information
image
aperture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018130050A
Other languages
Japanese (ja)
Other versions
JP2020008739A (en
Inventor
康弘 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018130050A priority Critical patent/JP7130473B2/en
Publication of JP2020008739A publication Critical patent/JP2020008739A/en
Application granted granted Critical
Publication of JP7130473B2 publication Critical patent/JP7130473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

本発明は、撮像装置及びその制御方法、並びにプログラムに関する。 The present invention relates to an imaging device, its control method, and a program.

レンズから入る光の経路を左右2つに分割し、両経路からの結像位置の差に基づき焦点を合わせる瞳分割方式による位相差AF(phase detection autofocus)が知られている。瞳分割方式は、測距エリアが結像光学系の光軸から離れた領域になるほど、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれが生じ、不均一に瞳分割されるため、焦点検出精度が下がるという問題がある。また、瞳分割方式と像振れ補正方式を併用する場合は、像振れ補正の方式により、以下のような理由で、さらに焦点検出精度が下がるという問題がある。 Phase detection autofocus (AF) using a pupil division method is known, in which the path of light entering from a lens is divided into left and right halves, and focusing is performed based on the difference in image forming positions from both paths. In the pupil-splitting method, the farther the range-finding area is from the optical axis of the imaging optical system, the more the exit pupil of the imaging optical system and the entrance pupil of the imaging device become misaligned, resulting in non-uniform pupil division. , there is a problem that the focus detection accuracy decreases. Further, when the pupil division method and the image blur correction method are used together, there is a problem that the focus detection accuracy is further lowered by the image blur correction method for the following reasons.

像振れ補正方式には、撮像素子を結像光学系の光軸に垂直な面内で駆動する撮像素子駆動方式と、結像光学系のレンズ群の一部を駆動するレンズ群駆動方式と、がある。 The image blur correction method includes an image pickup device driving method that drives the image pickup device in a plane perpendicular to the optical axis of the imaging optical system, a lens group driving method that drives a part of the lens group of the imaging optical system, There is

瞳分割方式による位相差AFと、撮像素子駆動方式による像振れ補正と、を併用した場合は、撮像素子が動くことにより、結像光学系の光軸中心から撮像素子上のある画素までの距離が変化する。これにより、ある画素から見た結像光学系の射出瞳の形状及び位置が変化する。つまり、撮像素子の入射瞳に投影された結像光学系の射出瞳の形状及び位置が変化する。 When phase-difference AF by pupil division method and image blur correction by image sensor drive method are used together, the movement of the image sensor will reduce the distance from the center of the optical axis of the imaging optical system to a certain pixel on the image sensor. changes. This changes the shape and position of the exit pupil of the imaging optical system as seen from a certain pixel. In other words, the shape and position of the exit pupil of the imaging optical system projected onto the entrance pupil of the imaging device change.

瞳分割方式による位相差AFと、レンズ群駆動方式による像振れ補正と、を併用した場合は、結像光学系のレンズ群の一部が駆動され、結像光学系を通過する光束を制限する枠の位置関係が変化する。これにより、結像光学系の射出瞳の形状が変化する。特に、測距エリアが結像光学系の光軸中心から離れている場合は、光束の入射角度が大きいため、枠位置の変化の影響を大きく受ける。 When the phase difference AF by the pupil division method and the image blur correction by the lens group driving method are used together, part of the lens group of the imaging optical system is driven to limit the light flux passing through the imaging optical system. The positional relationship of the frames changes. This changes the shape of the exit pupil of the imaging optical system. In particular, when the range-finding area is away from the center of the optical axis of the imaging optical system, the angle of incidence of the luminous flux is large, so that it is greatly affected by changes in the frame position.

特開2016-90649号公報JP 2016-90649 A 特開2016-118697号公報JP 2016-118697 A

特許文献1は、瞳分割方式による位相差AFと、撮像素子駆動方式による像振れ補正と、を併用した場合の高精度な焦点検出方法を開示する。特許文献1では、像振れ量からデフォーカス量を換算する換算係数テーブルが予め用意される。つまり、特許文献1では、撮像素子駆動方式による像振れ補正の状態に応じて、撮像素子に対する光束の上側光線と下側光線を算出し、かつ換算係数テーブルを用いてデフォーカス量を求めることで、高精度な焦点検出を実現する。特許文献2は、特許文献1よりも高精度な焦点検出を実現するために、上側光線と下側光線を算出する際にレンズ群の開口情報を用いる焦点検出方法を開示する。 Japanese Patent Application Laid-Open No. 2002-200001 discloses a highly accurate focus detection method in which phase difference AF by a pupil division method and image blur correction by an imaging device driving method are used together. In Japanese Patent Application Laid-Open No. 2002-200012, a conversion coefficient table for converting the amount of image blur into the amount of defocus is prepared in advance. That is, in Patent Document 1, according to the state of image blur correction by the imaging device driving method, the upper ray and the lower ray of the light beam to the imaging device are calculated, and the defocus amount is obtained using the conversion coefficient table. , to achieve high-precision focus detection. Patent Document 2 discloses a focus detection method that uses aperture information of a lens group when calculating upper and lower light rays in order to achieve focus detection with higher precision than in Patent Document 1.

しかしながら、特許文献1及び2は、いずれも、位相差AFにおいて、ハイブリット方式による像振れ補正を考慮して高精度な焦点検出を行う方法を開示しない。特に、特許文献1及び2は、レンズ群駆動方式による結像光学系の射出瞳の形状変化を考慮した焦点検出方法を何ら開示しない。ここで、ハイブリット方式による像振れ補正とは、撮像素子駆動方式による像振れ補正とレンズ群駆動方式による像振れ補正とを組み合わせた像振れ補正のことである。 However, neither of Patent Documents 1 and 2 discloses a method of performing highly accurate focus detection in consideration of image blur correction by the hybrid method in phase difference AF. In particular, Patent Literatures 1 and 2 do not disclose any focus detection method that considers the shape change of the exit pupil of the imaging optical system by the lens group driving method. Here, image blur correction by a hybrid method is image blur correction that combines image blur correction by an image sensor driving method and image blur correction by a lens group driving method.

本発明は、ハイブリット方式による像振れ補正を考慮した修正された開口情報から焦点検出のための変換係数を取得し、当該変換係数を用いて位相差からデフォーカス量を求めることで、高精度な焦点検出を可能とする撮像装置を実現することを目的とする。 According to the present invention, a conversion coefficient for focus detection is obtained from aperture information corrected in consideration of image blur correction by a hybrid method, and a defocus amount is obtained from a phase difference using the conversion coefficient. It is an object of the present invention to realize an imaging device capable of focus detection.

本発明の例に係る撮像装置は、結像光学系の複数の瞳領域を通過する光束に基づき焦点検出を行う撮像装置であって、前記光束を受ける撮像素子と、制御手段と、を備える。前記制御手段は、前記結像光学系のレンズ群の一部を第1の補正量に基づき駆動することで像振れを補正する第1の補正手段と、前記撮像素子を第2の補正量に基づき前記結像光学系の光軸に垂直な面内で駆動することで前記像振れを補正する第2の補正手段と、前記結像光学系の開口情報、及び前記第1の補正量に対する前記結像光学系の開口の変化量を表す敏感度情報を取得する取得手段と、前記第1の補正量、前記第2の補正量、及び前記敏感度情報に基づき、前記取得手段により取得された前記開口情報を修正することで、修正された開口情報を求める修正手段と、前記修正された開口情報に基づき焦点検出を行う焦点検出手段と、を備える。 An image pickup apparatus according to an example of the present invention is an image pickup apparatus that performs focus detection based on light beams passing through a plurality of pupil regions of an imaging optical system, and includes an image sensor that receives the light beams and a control means. The control means includes: first correction means for correcting image blur by driving a part of the lens group of the imaging optical system based on a first correction amount; second correcting means for correcting the image blur by driving in a plane perpendicular to the optical axis of the imaging optical system; aperture information of the imaging optical system; Acquisition means for acquiring sensitivity information representing an amount of change in aperture of an imaging optical system; Correction means for obtaining corrected aperture information by correcting the aperture information; and focus detection means for performing focus detection based on the corrected aperture information.

本発明によれば、ハイブリット方式による像振れ補正を考慮した修正された開口情報から焦点検出のための変換係数を取得し、当該変換係数を用いて位相差からデフォーカス量を求めることで、高精度な焦点検出を可能とする撮像装置を実現できる。 According to the present invention, a conversion coefficient for focus detection is acquired from aperture information corrected in consideration of image blur correction by a hybrid method, and a defocus amount is obtained from a phase difference using the conversion coefficient. An imaging device that enables accurate focus detection can be realized.

カメラシステムの例を示す図である。1 is a diagram showing an example of a camera system; FIG. 撮像素子の例を示す図である。It is a figure which shows the example of an image pick-up element. 撮像素子の例を示す図である。It is a figure which shows the example of an image pick-up element. 図3の撮像素子の動作を示す波形図である。FIG. 4 is a waveform diagram showing the operation of the imaging element of FIG. 3; 光電変換領域と射出瞳との関係を示す図である。FIG. 3 is a diagram showing the relationship between a photoelectric conversion area and an exit pupil; 周辺像高で発生する不均一な瞳分割を示す図である。FIG. 10 illustrates non-uniform pupil splitting that occurs at peripheral image heights; 撮像素子駆動方式による像振れ補正時の瞳分割を示す図である。FIG. 10 is a diagram showing pupil division at the time of image blur correction by an imaging device driving method; レンズ群駆動方式による像振れ補正時の瞳分割を示す図である。FIG. 10 is a diagram showing pupil division at the time of image blur correction by the lens group driving method; レンズ群駆動方式による像振れ補正時の開口形状の変化を示す図である。FIG. 10 is a diagram showing changes in aperture shape during image blur correction by a lens group driving method; 開口情報、敏感度情報、及び換算係数テーブルの例を示す図である。It is a figure which shows the example of opening information, sensitivity information, and a conversion factor table. 像振れ補正の例を示すフローチャートである。4 is a flowchart showing an example of image blur correction; 像振れ補正中の焦点検出の例を示すフローチャートである。9 is a flowchart showing an example of focus detection during image blur correction; 撮影範囲と焦点検出領域の例を示す図である。4A and 4B are diagrams showing examples of a shooting range and a focus detection area; FIG. 焦点検出領域内の画素の例を示す図である。FIG. 4 is a diagram showing an example of pixels within a focus detection area; 像振れ補正中の開口情報の修正の例を示すフローチャートである。9 is a flowchart showing an example of correction of aperture information during image blur correction; デフォーカス量の算出の例を示すフローチャートである。7 is a flow chart showing an example of calculation of a defocus amount;

以下、本発明の例示的な実施形態について、添付図面を参照して詳細に説明する。
ここでは、本発明に係る撮像装置をレンズ交換式のデジタル一眼レフカメラ(カメラシステム)に適用した実施形態について説明する。
Exemplary embodiments of the invention will now be described in detail with reference to the accompanying drawings.
Here, an embodiment in which an imaging apparatus according to the present invention is applied to a lens-interchangeable digital single-lens reflex camera (camera system) will be described.

しかしながら、本発明は、以下の実施形態に限定されず、瞳分割方式による位相差AFと、ハイブリッド方式による像振れ補正と、を併用した撮像装置、又はそれを備えたシステムに適用可能である。例えば、本発明は、デジタルスチルカメラ、デジタルビデオカメラなどのカメラ一般はもとより、カメラ機能を搭載した機器にも適用可能である。カメラ機能を搭載した機器とは、携帯電話、スマートフォン、タブレット端末、コンピュータ機器、メディアプレーヤ、ロボット機器、ゲーム機器、家電機器などを含む。 However, the present invention is not limited to the following embodiments, and can be applied to an imaging apparatus that uses both phase-difference AF by a pupil division method and image blur correction by a hybrid method, or a system including the same. For example, the present invention can be applied not only to general cameras such as digital still cameras and digital video cameras, but also to devices equipped with camera functions. Devices equipped with a camera function include mobile phones, smart phones, tablet terminals, computer devices, media players, robot devices, game devices, home appliances, and the like.

(カメラシステム)
図1は、カメラシステムの例を示す。
カメラシステムは、撮像装置としてのカメラ本体100と、カメラ本体100から取り外し可能な交換レンズ(撮影レンズ)300と、を備える。
(camera system)
FIG. 1 shows an example of a camera system.
The camera system includes a camera body 100 as an imaging device and an interchangeable lens (photographing lens) 300 detachable from the camera body 100 .

光束は、結像光学系303と、絞り304と、交換レンズ300側のレンズマウント301と、カメラ本体100側のレンズマウント11と、シャッタ12とをそれぞれ通過し、かつ撮像素子14に入射する。 The luminous flux passes through the imaging optical system 303 , the diaphragm 304 , the lens mount 301 on the interchangeable lens 300 side, the lens mount 11 on the camera body 100 side, and the shutter 12 , and enters the imaging device 14 .

撮像素子14は、CCD又はCMOSイメージセンサであり、2次元的に配置される複数の画素を備える。各画素は、例えば、フォトダイオードなどの光電変換領域を有する。撮像素子14は、被写体光学像に対応する電気信号を出力する。撮像素子14にて光電変換された電気信号は、A/D変換器16へ送られる。A/D変換器16は、アナログ信号をデジタル信号(画像データ)に変換する。尚、後述するように、A/D変換器16は、撮像素子14内に組み込まれてもよい。 The imaging device 14 is a CCD or CMOS image sensor, and has a plurality of pixels arranged two-dimensionally. Each pixel has a photoelectric conversion region such as a photodiode, for example. The imaging device 14 outputs an electrical signal corresponding to the optical image of the subject. An electrical signal photoelectrically converted by the imaging device 14 is sent to the A/D converter 16 . The A/D converter 16 converts analog signals into digital signals (image data). Note that the A/D converter 16 may be incorporated in the imaging element 14 as described later.

本実施形態では、カメラ本体100は、瞳分割方式による位相差AFを行う。従って、撮像素子14の複数の画素のうちの一部に関しては、1つの画素が結像光学系の複数の瞳領域を通過する光束を受ける複数の光電変換領域を備える。そして、撮像装置は、これら複数の光電変換領域から得られる信号に基づき、焦点検出を行う。 In this embodiment, the camera body 100 performs phase-difference AF using a pupil division method. Therefore, for some of the plurality of pixels of the imaging device 14, one pixel has a plurality of photoelectric conversion regions that receive light beams passing through a plurality of pupil regions of the imaging optical system. Then, the imaging device performs focus detection based on the signals obtained from the plurality of photoelectric conversion regions.

タイミング発生回路18は、クロック信号及び制御信号を、撮像素子14及びA/D変換器16に供給する。タイミング発生回路18は、システム制御部50により制御される。例えば、システム制御部50は、タイミング発生回路18を用いて、1つの画素内の複数の光電変換領域から、順次、信号を出力したり、又は1つの画素内の複数の光電変換領域から得られる信号を加算し、一度に出力したりすることができる。 The timing generation circuit 18 supplies clock signals and control signals to the imaging element 14 and the A/D converter 16 . The timing generation circuit 18 is controlled by the system control section 50 . For example, the system control unit 50 uses the timing generation circuit 18 to sequentially output signals from a plurality of photoelectric conversion regions in one pixel, or to output signals from a plurality of photoelectric conversion regions in one pixel. You can add the signals and output them all at once.

画像処理部20は、A/D変換器16からの画像データに対して、画素補間処理、ホワイトバランス調整処理、色変換処理などの所定の処理を適用する。 The image processing unit 20 applies predetermined processing such as pixel interpolation processing, white balance adjustment processing, and color conversion processing to the image data from the A/D converter 16 .

画像処理部20は、A/D変換器16からの画像データ(撮像素子14の出力信号)のうち、焦点検出信号に基づき、位相差AFによる焦点検出のための一対の信号列を生成する。一対の信号列は、システム制御部50を介してAF(AutoFocus)部54へ送られる。焦点検出部としてのAF部54は、一対の信号列の相関演算により、一対の信号列間のずれ量(位相差)を検出し、かつこのずれ量を交換レンズ300のデフォーカス量とデフォーカス方向に変換する。AF部54は、当該デフォーカスの量及び当該デフォーカス方向をそれぞれシステム制御部50に出力する。システム制御部50は、交換レンズ300のフォーカス制御部307を通じてフォーカスレンズを駆動し、交換レンズ300の焦点距離を調節する。 The image processing unit 20 generates a pair of signal trains for focus detection by phase difference AF based on the focus detection signal of the image data (output signal of the image sensor 14) from the A/D converter 16. FIG. A pair of signal trains are sent to an AF (AutoFocus) section 54 via a system control section 50 . The AF unit 54 as a focus detection unit detects the amount of deviation (phase difference) between the pair of signal sequences by correlation calculation of the pair of signal sequences, and determines the defocus amount and defocus of the interchangeable lens 300 based on the amount of deviation. Convert to direction. The AF unit 54 outputs the defocus amount and the defocus direction to the system control unit 50 . The system control unit 50 drives the focus lens through the focus control unit 307 of the interchangeable lens 300 and adjusts the focal length of the interchangeable lens 300 .

また、画像処理部20は、撮像素子14から得られる、通常の画像データを生成するための信号に基づき、コントラスト評価値を演算する。即ち、本実施形態では、カメラ本体100は、位相差AF(位相差検出方式)に代えて、コントラスト検出方式による焦点検出も可能である。この場合、システム制御部50は、交換レンズ300のフォーカス制御部307を通じて、フォーカスレンズの位置を変更しながら撮像素子14による撮影を行い、画像処理部20で算出したコントラスト評価値の変化を調べる。そして、システム制御部50は、フォーカスレンズを、コントラスト評価値が最大となる位置に駆動する。 Also, the image processing unit 20 calculates a contrast evaluation value based on a signal for generating normal image data obtained from the image sensor 14 . That is, in the present embodiment, the camera body 100 can perform focus detection using a contrast detection method instead of the phase difference AF (phase difference detection method). In this case, the system control unit 50 performs photographing with the image sensor 14 while changing the position of the focus lens through the focus control unit 307 of the interchangeable lens 300, and checks the change in the contrast evaluation value calculated by the image processing unit 20. Then, the system control unit 50 drives the focus lens to a position where the contrast evaluation value is maximized.

シャッタ制御部56は、測光部52からの測光情報に基づき、交換レンズ300の絞り304を制御する絞り制御部306と連携しながら、シャッタ12を制御する。インターフェース(I/F)部43及びコネクタ42は、カメラ本体100と交換レンズ300とを電気的に接続する。これらは、カメラ本体100と交換レンズ300との間で、制御信号、状態信号、データ信号などを伝え合うと共に、カメラ本体100から交換レンズ300に電圧及び電流を供給する機能も備える。また、これらは、電気通信の他に、光通信、音声通信などが可能であってもよい。 The shutter control unit 56 controls the shutter 12 based on the photometry information from the photometry unit 52 in cooperation with the aperture control unit 306 that controls the aperture 304 of the interchangeable lens 300 . An interface (I/F) section 43 and a connector 42 electrically connect the camera body 100 and the interchangeable lens 300 . These components exchange control signals, status signals, data signals, etc. between the camera body 100 and the interchangeable lens 300 and also have the function of supplying voltage and current from the camera body 100 to the interchangeable lens 300 . Moreover, these may be capable of optical communication, voice communication, etc., in addition to electric communication.

測光部52は、自動露出制御(AE)処理を行う。測光部52は、被写体輝度と露出条件とを対応付けたプログラム線図などを用いて露出条件を決定する。 The photometry unit 52 performs automatic exposure control (AE) processing. The photometry unit 52 determines the exposure conditions using a program diagram or the like that associates subject brightness and exposure conditions.

システム制御部50は、例えば、CPU、MPUなどのプログラマブルプロセッサを有し、予め記憶されたプログラムを実行することによりカメラシステム全体の動作を制御する。システム制御部50の動作用の定数、変数、プログラムなどは、不図示の不揮発性のメモリ内に予め記憶しておく。 The system control unit 50 has a programmable processor such as a CPU or MPU, for example, and controls the operation of the entire camera system by executing pre-stored programs. Constants, variables, programs, etc. for operation of the system control unit 50 are stored in advance in a non-volatile memory (not shown).

像振れ検出部70は、カメラ本体100の像振れ量を検出する。像振れ検出部70は、ジャイロセンサなどを用いてカメラ本体100の動きから像振れ量を検出する方式でもよいし、撮像素子14からの信号に基づき画像処理より像振れ量を検出する方式でもよいし、又はそれらを併用する方式でもよい。また、本実施形態では、像振れ検出部70は、カメラ本体100に取り付けられるが、交換レンズ300に取り付けられても、又はカメラ本体100と交換レンズ300の双方に取り付けられてもよい。さらに、像振れ検出部70は、複数の像振れ量から最も高い精度を持つ像振れ量を選択する方式でもよいし、又は複数の像振れ量から1つの像振れ量を演算する方式でもよい。 The image blur detection unit 70 detects the image blur amount of the camera body 100 . The image blur detection unit 70 may be of a method of detecting the amount of image blur from the movement of the camera body 100 using a gyro sensor or the like, or may be of a method of detecting the amount of image blur through image processing based on the signal from the imaging device 14. or a method of using them in combination. Also, in the present embodiment, the image blur detection unit 70 is attached to the camera body 100 , but may be attached to the interchangeable lens 300 or both the camera body 100 and the interchangeable lens 300 . Furthermore, the image blur detection unit 70 may select the image blur amount with the highest accuracy from a plurality of image blur amounts, or may calculate one image blur amount from a plurality of image blur amounts.

像振れ検出部70は、検出した像振れ量をシステム制御部50に送る。システム制御部50は、当該像振れ量を、レンズ群駆動方式による第1の補正量と、撮像素子駆動方式による第2の補正量とに配分する補正量配分部を備える。補正量配分部は、交換レンズ300のズームの状態、焦点距離、撮像素子駆動機構の可動駆動量、防振用レンズ群駆動機構の可動駆動量などに基づき、当該像振れ量から第1の補正量と第2の補正量を決定する。 The image blur detector 70 sends the detected image blur amount to the system controller 50 . The system control unit 50 includes a correction amount distribution unit that distributes the image blur amount to a first correction amount by the lens group driving method and a second correction amount by the imaging device driving method. The correction amount distribution unit performs the first correction based on the image blur amount based on the zoom state of the interchangeable lens 300, the focal length, the movable driving amount of the imaging device driving mechanism, the movable driving amount of the anti-vibration lens group driving mechanism, and the like. amount and a second correction amount.

ここで、レンズ群駆動方式とは、システム制御部50の第1の補正部を用いて、結像光学系303のレンズ群の一部を第1の補正量に基づき駆動することで、像振れを補正する方式のことである。また、撮像素子駆動方式とは、システム制御部50の第2の補正部を用いて、撮像素子14を第2の補正量に基づき結像光学系303の光軸に垂直な面内で駆動することで、像振れを補正する方式のことである。 Here, the lens group driving method means that the first correction unit of the system control unit 50 is used to drive a part of the lens group of the imaging optical system 303 based on the first correction amount, thereby reducing image blurring. It is a method for correcting the The imaging device driving method is to drive the imaging device 14 in a plane perpendicular to the optical axis of the imaging optical system 303 based on the second correction amount using the second correction unit of the system control unit 50. This is a method for correcting image blurring.

例えば、交換レンズ300の焦点距離が長い場合、レンズ群駆動方式により像振れを補正したほうが、撮像素子駆動方式により像振れを補正するよりも少ない補正量(レンズ群の駆動量)で像振れを補正できる。従って、この場合、システム制御部50の補正量配分部は、レンズ群駆動方式の第1の補正量を撮像素子駆動方式の第2の補正量よりも大きくする。 For example, when the focal length of the interchangeable lens 300 is long, correcting image blur by the lens group driving method reduces image blur with a smaller amount of correction (driving amount of the lens group) than by correcting image blur by the imaging device driving method. can be corrected. Therefore, in this case, the correction amount distribution unit of the system control unit 50 makes the first correction amount for the lens group driving method larger than the second correction amount for the imaging device driving method.

また、結像光学系303のレンズ群を駆動する防振用レンズ群駆動機構の残りの可動駆動量が少ない場合、特に、交換レンズ300の焦点距離が長いときは、レンズ群駆動方式の補正量を大きくすると、当該レンズ群の駆動量が当該可動駆動量を超えてしまう。従って、この場合、システム制御部50の補正量配分部は、撮像素子駆動方式の第2の補正量をレンズ群駆動方式の第1の補正量よりも大きくする。 Further, when the remaining movable driving amount of the anti-vibration lens group driving mechanism for driving the lens groups of the imaging optical system 303 is small, especially when the focal length of the interchangeable lens 300 is long, the correction amount of the lens group driving method is increased, the driving amount of the lens group exceeds the movable driving amount. Therefore, in this case, the correction amount allocation unit of the system control unit 50 makes the second correction amount for the imaging element driving method larger than the first correction amount for the lens group driving method.

撮像素子駆動機構15は、撮像素子14を結像光学系303の光軸に垂直な面内で駆動する。撮像素子防振制御部72は、システム制御部50の補正量配分部で決定された第2の補正量に基づき、撮像素子駆動機構15による撮像素子14の駆動量を制御する。 The imaging device driving mechanism 15 drives the imaging device 14 in a plane perpendicular to the optical axis of the imaging optical system 303 . The imaging device image stabilizing control unit 72 controls the driving amount of the imaging device 14 by the imaging device driving mechanism 15 based on the second correction amount determined by the correction amount distribution unit of the system control unit 50 .

換算係数記憶部76は、AF部54で位相差(焦点検出のための一対の信号列間のずれ量)からデフォーカス量を求めるための換算係数を記憶する。但し、位相差からデフォーカス量を求めるための換算係数は、結像光学系303の開口情報に依存するため、換算係数記憶部76は、換算係数を、開口情報と換算係数と間の関係を示す換算係数テーブルとして記憶する。 The conversion factor storage unit 76 stores a conversion factor for obtaining the defocus amount from the phase difference (the amount of deviation between a pair of signal trains for focus detection) in the AF unit 54 . However, since the conversion coefficient for obtaining the defocus amount from the phase difference depends on the aperture information of the imaging optical system 303, the conversion coefficient storage unit 76 stores the conversion coefficient as a relationship between the aperture information and the conversion coefficient. stored as a conversion factor table shown.

従って、焦点検出を行う場合、システム制御部50の取得部は、まず、焦点検出時の結像光学系303の開口情報を取得する。この後、システム制御部50の取得部は、換算係数記憶部76に記憶された換算係数テーブルを参照し、当該開口情報に基づき換算係数を取得する。そして、システム制御部50は、取得した換算係数を、焦点検出部としてのAF部54に送る。AF部54は、換算係数に基づき、位相差からデフォーカス量を求める。 Therefore, when performing focus detection, the acquisition unit of the system control unit 50 first acquires aperture information of the imaging optical system 303 during focus detection. After that, the acquisition unit of the system control unit 50 refers to the conversion factor table stored in the conversion factor storage unit 76 and acquires the conversion factor based on the opening information. The system control unit 50 then sends the acquired conversion factor to the AF unit 54 as a focus detection unit. The AF unit 54 obtains the defocus amount from the phase difference based on the conversion factor.

ここで、開口情報とは、結像光学系303を通過する光束を決定する枠開口の情報を所定の瞳面に投影したときに得られる枠1及び枠2の円の半径と中心座標とで表現される。枠1及び枠2の詳細については、後述する。但し、開口情報の定義は、これに限られることはなく、結像光学系303を通過する光束を決定する枠開口の情報が再現可能であれば、どのような形式で定義しても構わない。 Here, the aperture information is defined as the radii and center coordinates of the circles of frames 1 and 2 obtained by projecting the frame aperture information that determines the light flux passing through the imaging optical system 303 onto a predetermined pupil plane. expressed. The details of frame 1 and frame 2 will be described later. However, the definition of the aperture information is not limited to this, and may be defined in any format as long as the information of the frame aperture that determines the light flux passing through the imaging optical system 303 can be reproduced. .

このように、AF部54は、換算係数に基づき、位相差からデフォーカス量を求める。また、換算係数は、換算係数テーブルに基づき、結像光学系303の開口情報から取得される。しかし、従来、当該開口情報は、ハイブリッド方式の像振れ補正、即ち、レンズ群駆動方式及び撮像素子駆動方式の双方による像振れ補正を考慮した情報となっていない。一方、結像光学系303を通過する光束を決定する枠開口は、レンズ群駆動方式及び撮像素子駆動方式の各々による像振れ補正に影響を受ける。 Thus, the AF section 54 obtains the defocus amount from the phase difference based on the conversion factor. Also, the conversion factor is obtained from the aperture information of the imaging optical system 303 based on the conversion factor table. Conventionally, however, the aperture information does not take into account the image blur correction of the hybrid method, that is, the image blur correction by both the lens group driving method and the imaging device driving method. On the other hand, the frame aperture that determines the luminous flux passing through the imaging optical system 303 is affected by image blur correction by each of the lens group driving method and the imaging device driving method.

そこで、本実施形態では、ハイブリット方式による像振れ補正を行う場合に、当該像振れ補正を考慮した修正された開口情報から焦点検出のための変換係数を取得し、当該変換係数を用いて位相差からデフォーカス量を求める。即ち、修正された開口情報から取得される変換係数は、レンズ群駆動方式による像振れ補正が枠開口に与える影響、及び撮像素子駆動方式による像振れ補正が枠開口に与える影響を含んだ高精度な変換係数となっている。その結果、本実施形態では、高精度な焦点検出が可能となる。 Therefore, in the present embodiment, when performing image shake correction by a hybrid method, a conversion coefficient for focus detection is obtained from aperture information corrected in consideration of the image shake correction, and the phase difference is calculated using the conversion coefficient. Defocus amount is obtained from In other words, the conversion coefficient obtained from the corrected aperture information is highly accurate, including the effect of the image blur correction by the lens group driving method on the frame aperture and the effect of the image blur correction by the image sensor driving method on the frame aperture. conversion factor. As a result, highly accurate focus detection is possible in this embodiment.

開口情報修正部74は、結像光学系303の開口情報を、レンズ群駆動方式の第1の補正量、撮像素子駆動方式の第2の補正量、及び敏感度情報に基づき、修正する。ここで、敏感度情報とは、レンズ群駆動方式の第1の補正量に対する結像光学系303の開口の変化量のことである。即ち、敏感度情報は、第1の補正部により結像光学系のレンズ群の一部が駆動されたときの第1の補正量に対する開口の中心座標の変化量で表現される。言い換えれば、敏感度情報は、防振用レンズ群機構の駆動量に対する開口の変化量に関する情報のことである。 The aperture information correction unit 74 corrects the aperture information of the imaging optical system 303 based on the first correction amount of the lens group driving method, the second correction amount of the imaging device driving method, and the sensitivity information. Here, the sensitivity information is the change amount of the aperture of the imaging optical system 303 with respect to the first correction amount of the lens group driving method. That is, the sensitivity information is expressed by the amount of change in the center coordinates of the aperture with respect to the first correction amount when part of the lens group of the imaging optical system is driven by the first correction section. In other words, the sensitivity information is information regarding the amount of change in aperture with respect to the amount of drive of the anti-vibration lens group mechanism.

敏感度情報は、例えば、交換レンズ300の状態及び撮像素子14上の像高と、敏感度情報との間の関係を示す敏感度情報テーブルとして敏感度情報記憶部311内に予め記憶される。システム制御部50の取得部は、敏感度情報記憶部311内の敏感度情報テーブルを参照し、交換レンズ300の状態及び撮像素子14上の像高を引数とすることで、敏感度情報を取得することができる。 The sensitivity information is stored in advance in the sensitivity information storage unit 311 as a sensitivity information table that indicates the relationship between the state of the interchangeable lens 300 and the image height on the imaging device 14 and the sensitivity information, for example. The acquisition unit of the system control unit 50 refers to the sensitivity information table in the sensitivity information storage unit 311, and acquires the sensitivity information by using the state of the interchangeable lens 300 and the image height on the image sensor 14 as arguments. can do.

敏感度情報は、レンズ群駆動方式による像振れ補正が結像光学系303の開口情報に与える影響の程度を決定する。従って、敏感度情報は、レンズ群駆動方式による像振れ補正の影響を開口情報に反映させる場合に用いられるが、撮像素子駆動方式による像振れ補正の影響を開口情報に反映させる場合に際には用いられない。 The sensitivity information determines the degree of influence of the image blur correction by the lens group driving method on the aperture information of the imaging optical system 303 . Therefore, the sensitivity information is used when the influence of the image blur correction by the lens group driving method is reflected in the aperture information. Not used.

即ち、開口情報修正部74は、レンズ群駆動方式の第1の補正量及び敏感度情報に基づき開口情報を修正し、かつ撮像素子駆動方式の第2の補正量に基づき開口情報を修正する。例えば、開口情報修正部74は、レンズ群駆動方式の第1の補正量及び敏感度情報から開口情報の第1の修正量を求め、かつ第2の補正量から開口情報の第2の修正量を求める。そして、開口情報修正部74は、第1及び第2の修正量に基づき、修正された開口情報を求める。 That is, the aperture information correction unit 74 corrects the aperture information based on the first correction amount and sensitivity information for the lens group driving method, and corrects the aperture information based on the second correction amount for the imaging device driving method. For example, the aperture information correction unit 74 obtains a first correction amount of the aperture information from the first correction amount and sensitivity information of the lens group driving system, and obtains a second correction amount of the aperture information from the second correction amount. Ask for Then, the aperture information correction unit 74 obtains corrected aperture information based on the first and second correction amounts.

従って、本実施形態では、焦点検出を行う場合、システム制御部50の取得部は、まず、開口情報記憶部312から開口情報を取得すると共に、敏感度情報記憶部311から敏感度情報を取得する。また、開口情報修正部74は、第1の補正量、第2の補正量、及び敏感度情報に基づき、開口情報を修正する。この後、システム制御部50の取得部は、換算係数記憶部76に記憶された換算係数テーブルを参照し、開口情報修正部74により修正された開口情報に基づき換算係数を取得する。そして、システム制御部50は、取得した換算係数を、焦点検出部としてのAF部54に送る。AF部54は、換算係数に基づき、位相差からデフォーカス量を求める。 Therefore, in the present embodiment, when performing focus detection, the acquisition unit of the system control unit 50 first acquires aperture information from the aperture information storage unit 312 and acquires sensitivity information from the sensitivity information storage unit 311. . Further, the opening information correction unit 74 corrects the opening information based on the first correction amount, the second correction amount, and the sensitivity information. After that, the acquisition unit of the system control unit 50 refers to the conversion factor table stored in the conversion factor storage unit 76 and acquires the conversion factor based on the opening information corrected by the opening information correction unit 74 . The system control unit 50 then sends the acquired conversion factor to the AF unit 54 as a focus detection unit. The AF unit 54 obtains the defocus amount from the phase difference based on the conversion factor.

尚、敏感度情報を用いて開口情報を修正する具体的な方法については、像振れ補正時の焦点検出フローチャートで後述する。 A specific method of correcting the aperture information using the sensitivity information will be described later in the focus detection flowchart during image blur correction.

次に、交換レンズ300について説明する。
交換レンズ300は、レンズマウント301をカメラ本体100のレンズマウント11に係合させることによりにカメラ本体100と機械的及び電気的に結合される。電気的な結合は、レンズマウント11及びレンズマウント301に設けられたコネクタ42及びコネクタ302によって実現される。
Next, the interchangeable lens 300 is described.
Interchangeable lens 300 is mechanically and electrically coupled to camera body 100 by engaging lens mount 301 with lens mount 11 of camera body 100 . Electrical coupling is achieved by connectors 42 and 302 provided on lens mount 11 and lens mount 301, respectively.

結像光学系303は、交換レンズ300の焦点距離を調節するためのフォーカスレンズを含む。また、結像光学系303は、レンズ群駆動方式により防振を行うための防振用レンズ群と、防振用レンズ群を駆動させるための防振用レンズ群駆動機構と、を含む。フォーカス制御部307は、フォーカスレンズを光軸に沿って駆動することで交換レンズ300の焦点調節を行う。フォーカス制御部307の動作は、システム制御部50に制御される。即ち、システム制御部50は、レンズシステム制御部309を通じて、フォーカス制御部307を制御する。絞り304は、カメラ本体100に入射する被写体光の量と角度を調節する。 Imaging optical system 303 includes a focus lens for adjusting the focal length of interchangeable lens 300 . The imaging optical system 303 also includes a vibration reduction lens group for performing vibration reduction by a lens group driving method, and a vibration reduction lens group drive mechanism for driving the vibration reduction lens group. A focus control unit 307 adjusts the focus of the interchangeable lens 300 by driving the focus lens along the optical axis. The operation of the focus controller 307 is controlled by the system controller 50 . That is, the system controller 50 controls the focus controller 307 through the lens system controller 309 . A diaphragm 304 adjusts the amount and angle of subject light incident on the camera body 100 .

コネクタ302及びインターフェース部313は、交換レンズ300をカメラ本体100のコネクタ42と電気的に接続する。そして、コネクタ302は、カメラ本体100と交換レンズ300との間で、制御信号、状態信号、データ信号などを伝え合うと共に、カメラ本体100から交換レンズ300に電圧及び電流を供給する機能も備える。また、コネクタ302は、電気通信の他に、光通信、音声通信などが可能であってもよい。 The connector 302 and interface section 313 electrically connect the interchangeable lens 300 to the connector 42 of the camera body 100 . The connector 302 communicates control signals, status signals, data signals, etc. between the camera body 100 and the interchangeable lens 300 and also has a function of supplying voltage and current from the camera body 100 to the interchangeable lens 300 . Also, the connector 302 may be capable of optical communication, voice communication, etc., in addition to electrical communication.

ズーム制御部305は、結像光学系303の変倍レンズを駆動し、交換レンズ300の焦点距離(画角)を調整する。交換レンズ300が単焦点レンズであれば、ズーム制御部305は省略できる。絞り制御部306は、測光部52からの測光情報に基づき、シャッタ12を制御するシャッタ制御部56と連携しながら、絞り304を制御する。 A zoom control unit 305 drives the variable magnification lens of the imaging optical system 303 and adjusts the focal length (angle of view) of the interchangeable lens 300 . If the interchangeable lens 300 is a single focus lens, the zoom control section 305 can be omitted. The aperture control unit 306 controls the aperture 304 in cooperation with the shutter control unit 56 that controls the shutter 12 based on the photometry information from the photometry unit 52 .

レンズシステム制御部309は、例えば、CPUやMPUなどのプログラマブルプロセッサを有し、予め記憶されたプログラムを実行することにより交換レンズ300全体の動作を制御する。また、レンズシステム制御部309は、交換レンズ300の動作用の定数、変数、プログラムなどを記憶するメモリの機能を備える。不揮発性メモリ310は、交換レンズ300の固有の番号などの識別情報、管理情報、開放絞り値、最小絞り値、焦点距離などの機能情報、現在/過去の各設定値、といった各種情報を記憶する。 The lens system control unit 309 has a programmable processor such as a CPU or MPU, for example, and controls the operation of the entire interchangeable lens 300 by executing a program stored in advance. The lens system control unit 309 also has a memory function for storing constants, variables, programs, and the like for the operation of the interchangeable lens 300 . The nonvolatile memory 310 stores various information such as identification information such as a unique number of the interchangeable lens 300, management information, functional information such as the open aperture value, minimum aperture value, focal length, and current/past setting values. .

敏感度情報記憶部311は、上述の敏感度情報テーブルを記憶する。また、開口情報記憶部312は、例えば、交換レンズ300の状態及び撮像素子14上の像高と、開口情報との間の関係を示す開口情報テーブルとして予め開口情報記憶部312内に記憶される。システム制御部50の取得部は、開口情報記憶部312内の開口情報テーブルを参照し、交換レンズ300の状態及び撮像素子14上の像高を引数とすることで、開口情報を取得することができる。 The sensitivity information storage unit 311 stores the sensitivity information table described above. Further, the aperture information storage unit 312 is stored in advance in the aperture information storage unit 312 as, for example, an aperture information table indicating the relationship between the state of the interchangeable lens 300 and the image height on the image sensor 14 and the aperture information. . The acquisition unit of the system control unit 50 can acquire aperture information by referring to the aperture information table in the aperture information storage unit 312 and using the state of the interchangeable lens 300 and the image height on the image sensor 14 as arguments. can.

絞り304は、結像光学系303を通過する光束を決定する枠内に含まれる。当該枠は、その他に、レンズを保持する開口部品などを含む。また、結合光学系303を通過する光束を決定する枠は、結像光学系303のフォーカス位置及びズーム位置によって変化する。従って、結像光学系303のフォーカス位置及びズーム位置に応じた複数の開口情報テーブルが、開口情報記憶部312内に記憶される。 A diaphragm 304 is included in a frame that determines the luminous flux that passes through the imaging optical system 303 . The frame also includes an aperture component that holds the lens, and the like. Also, the frame that determines the light flux passing through the coupling optical system 303 changes depending on the focus position and zoom position of the imaging optical system 303 . Therefore, a plurality of aperture information tables corresponding to the focus position and zoom position of the imaging optical system 303 are stored in the aperture information storage unit 312 .

そして、カメラ本体100が焦点検出を行う場合、システム制御部50の取得部は、開口情報記憶部312内に記憶された複数の開口情報テーブルのうち、結像光学系303のフォーカス位置及びズーム位置に応じた開口情報テーブルを選択する。また、当該取得部は、選択された開口情報テーブルに基づき、交換レンズ300の状態及び撮像素子14上の像高を引数とすることで、結像光学系303のフォーカス位置及びズーム位置に最適な開口情報を取得する。 Then, when the camera body 100 performs focus detection, the acquisition unit of the system control unit 50 selects the focus position and the zoom position of the imaging optical system 303 from among a plurality of aperture information tables stored in the aperture information storage unit 312. Select the aperture information table according to In addition, based on the selected aperture information table, the acquisition unit uses the state of the interchangeable lens 300 and the image height on the image sensor 14 as arguments to obtain the optimum focus position and zoom position of the imaging optical system 303. Get aperture information.

レンズ群防振制御部308は、システム制御部50の補正量配分部により配分されたレンズ群駆動方式の第1の補正量に基づき、結像光学系303内に含まれる防振用レンズ群駆動機構を駆動する。 A lens group vibration reduction control unit 308 drives vibration reduction lens groups included in the imaging optical system 303 based on the first correction amount of the lens group driving method distributed by the correction amount distribution unit of the system control unit 50. drive the mechanism.

上述のカメラシステムによれば、ハイブリット方式による像振れ補正を考慮した修正された開口情報から焦点検出のための変換係数を取得し、当該変換係数を用いて位相差からデフォーカス量を求めることで、高精度な焦点検出を行うことができる。 According to the camera system described above, the conversion coefficient for focus detection is obtained from the corrected aperture information in consideration of the image blur correction by the hybrid method, and the defocus amount is obtained from the phase difference using the conversion coefficient. , high-precision focus detection can be performed.

即ち、結像光学系の開口情報は、レンズ群駆動方式による第1の補正量、撮像素子駆動方式による第2の補正量、さらには、敏感度情報に基づき、修正可能である。また、焦点検出のための変換係数は、変換係数テーブルに基づき、修正された開口情報から取得可能である。このように、焦点検出のための変換係数は、ハイブリッド方式による像振れ補正を考慮した高精度な変換係数となっている。従って、当該変換係数を用いて、位相差からデフォーカス量を求めることで、ハイブリット方式による像振れ補正を行った場合でも、高精度な焦点検出が可能となる。 That is, the aperture information of the imaging optical system can be corrected based on the first correction amount by the lens group driving method, the second correction amount by the imaging device driving method, and the sensitivity information. Also, conversion coefficients for focus detection can be obtained from modified aperture information based on a conversion coefficient table. In this manner, the conversion coefficients for focus detection are highly accurate conversion coefficients that take image blur correction by the hybrid method into consideration. Therefore, by obtaining the defocus amount from the phase difference using the conversion coefficient, highly accurate focus detection is possible even when the image shake correction is performed by the hybrid method.

(撮像素子)
図2は、撮像素子の画素部の例を示す。
図2(A)は、撮像素子14が有する複数の画素のうち、位相差AFによる焦点検出に用いる信号を出力可能な画素の回路例である。
(image sensor)
FIG. 2 shows an example of a pixel portion of an imaging device.
FIG. 2A is a circuit example of a pixel capable of outputting a signal used for focus detection by phase difference AF among a plurality of pixels of the image sensor 14. FIG.

図2(A)では、2つのフォトダイオードPD201a、201bは、マイクロレンズを共有する複数の光電変換領域として機能し、かつ1つの画素200内に配置される。但し、1つの画素200内にフォトダイオードの数は、2つに限られることはなく、3つ以上、例えば、4つであっても構わない。フォトダイオード201a、201bは、後述するように、焦点検出画素として機能すると共に、撮像画素としても機能する。 In FIG. 2A, two photodiodes PD201a and 201b function as a plurality of photoelectric conversion regions sharing a microlens and are arranged within one pixel 200. In FIG. However, the number of photodiodes in one pixel 200 is not limited to two, and may be three or more, for example, four. As will be described later, the photodiodes 201a and 201b function as focus detection pixels and also function as imaging pixels.

転送スイッチ202a、202b、リセットスイッチ205、及び選択スイッチ206は、例えば、電界効果トランジスタ(FET)である。以下の説明では、これらのスイッチは、N型電界効果トランジスタであることを前提とするが、P型電界効果トランジスタ、その他のスイッチング素子であってもよい。 The transfer switches 202a, 202b, reset switch 205, and selection switch 206 are, for example, field effect transistors (FETs). In the following description, these switches are assumed to be N-type field effect transistors, but may be P-type field effect transistors or other switching elements.

図2(B)は、撮像素子14内に2次元的に配置される複数の画素のうち、水平n画素、垂直m画素を模式的に示す図である。図2(B)に示す各画素は、例えば、図2(A)に示す回路構造を有するものとする。 FIG. 2B is a diagram schematically showing horizontal n pixels and vertical m pixels among a plurality of pixels two-dimensionally arranged in the imaging device 14 . Each pixel shown in FIG. 2B has, for example, the circuit structure shown in FIG.

各画素は、1つのマイクロレンズ236により覆われ、フォトダイオード201a、201bは、当該1つのマイクロレンズを共有する。以下では、フォトダイオード201aにより得られる信号をA信号と呼び、フォトダイオード201bにより得られる信号をB信号と呼ぶ。また、複数の画素からの複数のA信号の信号列(焦点検出信号列)をA像(像信号)と呼び、複数の画素からの複数のB信号の信号列(焦点検出信号列)をB像(像信号)と呼ぶ。また、1つの画素からのA像及びB像の対を像信号対と呼ぶ。 Each pixel is covered by one microlens 236, and the photodiodes 201a, 201b share the one microlens. Hereinafter, the signal obtained by the photodiode 201a will be called the A signal, and the signal obtained by the photodiode 201b will be called the B signal. A signal train (focus detection signal train) of a plurality of A signals from a plurality of pixels is called an A image (image signal), and a signal train (focus detection signal train) of a plurality of B signals from a plurality of pixels is called a B signal train. It is called an image (image signal). A pair of A image and B image from one pixel is called an image signal pair.

水平n画素は、垂直方向に交互に配置される第1の行と第2の行とを備える。第1の行は、緑(G)と赤(R)のカラーフィルタを有するGr画素とR画素とが水平方向に交互に配置される。第2の行は、青(B)と緑(G)のカラーフィルタを有するB画素とGb画素とが水平方向に交互に配列される。 The horizontal n pixels comprise first and second rows that alternate vertically. In the first row, Gr pixels and R pixels having green (G) and red (R) color filters are alternately arranged in the horizontal direction. The second row alternates horizontally with B pixels and Gb pixels having blue (B) and green (G) color filters.

ここでは、Gr画素の第1の光電変換領域をA-Grと表記し、第2の光電変換領域をB-Grと表記する。また、R画素の第1の光電変換領域をA-Rと表記し、第2の光電変換領域をB-Rと表記する。さらに、B画素の第1の光電変換領域をA-Bをと表記し、第2の光電変換領域をB-Bと表記し、Gb画素の第1の光電変換領域をA-Gbと表記し、第2の光電変換領域をB-Gbと表記する。また、これらの光電変換領域から得られた信号についても、同様の表記を行う。また、第1の光電変換領域の集まりを第1の光電変換領域群と呼び、第2の光電変換領域の集まりを第2の光電変換領域群と呼ぶ。 Here, the first photoelectric conversion area of the Gr pixel is denoted as A-Gr, and the second photoelectric conversion area is denoted as B-Gr. Also, the first photoelectric conversion area of the R pixel is written as AR, and the second photoelectric conversion area is written as BR. Further, the first photoelectric conversion area of the B pixel is denoted as AB, the second photoelectric conversion area is denoted as BB, and the first photoelectric conversion area of the Gb pixel is denoted as A-Gb. , and the second photoelectric conversion region is denoted as B-Gb. Signals obtained from these photoelectric conversion regions are also denoted in the same way. A group of first photoelectric conversion regions is called a first photoelectric conversion region group, and a group of second photoelectric conversion regions is called a second photoelectric conversion region group.

転送スイッチ202aは、フォトダイオード201aとフローティングディフュージョン(FD)203との間に接続される。また、転送スイッチ202bは、フォトダイオード201bとFD203との間に接続される。FD203は、フォトダイオード201a、201bに共通である。即ち、転送スイッチ202a、202bは、それぞれフォトダイオード201a、201b内で発生した電荷を共通のFD203に転送する。転送スイッチ202a、202bは、それぞれ制御信号TX_A、TX_Bによって制御される。 Transfer switch 202 a is connected between photodiode 201 a and floating diffusion (FD) 203 . Also, the transfer switch 202b is connected between the photodiode 201b and the FD203. The FD 203 is common to the photodiodes 201a and 201b. That is, the transfer switches 202a and 202b transfer charges generated in the photodiodes 201a and 201b, respectively, to the common FD203. Transfer switches 202a and 202b are controlled by control signals TX_A and TX_B, respectively.

FD203は、フォトダイオード201a、201bから転送された電荷を一時的に保持すると共に、保持した電荷を電圧信号に変換する電荷電圧変換部(キャパシタ)として機能する。 The FD 203 temporarily holds charges transferred from the photodiodes 201a and 201b, and functions as a charge-voltage converter (capacitor) that converts the held charges into voltage signals.

増幅部204は、ソースフォロワの電界効果トランジスタである。増幅部204のゲートは、FD203に接続され、増幅部204のドレインは、電源電位VDDを供給する共通電源208に接続される。増幅部204は、FD203に保持された電荷に基づく電圧信号を増幅し、当該電圧信号を画像信号として出力する。 The amplifier 204 is a source follower field effect transistor. A gate of the amplification unit 204 is connected to the FD 203, and a drain of the amplification unit 204 is connected to a common power supply 208 that supplies the power supply potential VDD. The amplification unit 204 amplifies the voltage signal based on the charges held in the FD 203 and outputs the voltage signal as an image signal.

リセットスイッチ205は、FD203と共通電源208との間に接続される。リセットスイッチ205は、制御信号RESによって制御され、FD203の電位を電源電位VDDにリセットする機能を有する。 Reset switch 205 is connected between FD 203 and common power supply 208 . The reset switch 205 is controlled by a control signal RES and has a function of resetting the potential of the FD 203 to the power supply potential VDD.

選択スイッチ206は、増幅部204のソースと垂直出力線207との間に接続される。選択スイッチ206は、制御信号SELによって制御され、増幅部204で増幅された画像信号を垂直出力線207に出力する。 A selection switch 206 is connected between the source of the amplification section 204 and the vertical output line 207 . The selection switch 206 is controlled by the control signal SEL, and outputs the image signal amplified by the amplification section 204 to the vertical output line 207 .

図3は、撮像素子の信号出力部の例を示す。
撮像素子14は、画素アレイ234と、垂直走査回路209と、電流源負荷210と、読み出し回路235と、共通出力線228、229と、水平走査回路232と、データ出力部233と、を備える。以下では、画素アレイ234内に含まれる全ての画素が図2(A)に示す回路構造を有するものとする。但し、一部の画素については、1つのフォトダイオードが1つのマイクロレンズに対応する構造を有してもよい。
FIG. 3 shows an example of a signal output section of an imaging device.
The imaging device 14 includes a pixel array 234 , a vertical scanning circuit 209 , a current source load 210 , a readout circuit 235 , common output lines 228 and 229 , a horizontal scanning circuit 232 and a data output section 233 . It is assumed below that all pixels included in the pixel array 234 have the circuit structure shown in FIG. However, some pixels may have a structure in which one photodiode corresponds to one microlens.

画素アレイ234は、行列状に配置される複数の画素200を備える。図3の例は、説明を簡略化するため、画素アレイ234が4行n列の画素アレイ234を有する場合を示す。但し、画素アレイ234の行数(mの数)及び列数(nの数)は、これに限られることなく、任意に決めることができる。また、本実施形態において、撮像素子14は、単板式カラー撮像素子であり、原色ベイヤー配列のカラーフィルタを有する。このため、画素200は、赤(R)、緑(G)、及び青(B)のカラーフィルタのうちのいずれか1つを備える。尚、カラーフィルタの色及び配列については、特に制限はない。また、画素アレイ234内の一部の画素は、遮光され、オプチカルブラック(OB)領域として機能する。 The pixel array 234 has a plurality of pixels 200 arranged in a matrix. The example of FIG. 3 shows a case where the pixel array 234 has a pixel array 234 of 4 rows and n columns to simplify the explanation. However, the number of rows (the number of m) and the number of columns (the number of n) of the pixel array 234 are not limited to this, and can be arbitrarily determined. Further, in this embodiment, the imaging element 14 is a single-plate color imaging element, and has color filters in a primary color Bayer arrangement. Therefore, the pixel 200 includes one of red (R), green (G), and blue (B) color filters. There are no particular restrictions on the color and arrangement of the color filters. Also, some pixels in the pixel array 234 are shielded from light and function as an optical black (OB) area.

垂直走査回路209は、行毎に設けられた駆動信号線208を介して、各行の画素200に、図2(A)に示す各種の制御信号を供給する。尚、図3では、簡略化のため、各行の駆動信号線208を1本の線で表記するが、実際には、各行の駆動信号線208は、図2(A)から明白なように、複数の駆動信号線を含む。 The vertical scanning circuit 209 supplies various control signals shown in FIG. 2A to the pixels 200 in each row through the drive signal line 208 provided for each row. In FIG. 3, each row of the drive signal line 208 is represented by one line for the sake of simplification. Actually, as is clear from FIG. Includes multiple drive signal lines.

画素アレイ234内の複数の画素200は、一列毎に共通の垂直出力線207に接続される。本実施形態では、画素アレイ234は、n列を有するため、垂直出力線207の数は、n本である。これら複数の垂直出力線207の各々は、電流源負荷210に接続される。そして、各画素200からの信号は、垂直出力線207を通じて、列毎に読み出し回路235に入力される。 A plurality of pixels 200 in the pixel array 234 are connected to a common vertical output line 207 for each column. In this embodiment, the pixel array 234 has n columns, so the number of vertical output lines 207 is n. Each of these multiple vertical output lines 207 is connected to a current source load 210 . A signal from each pixel 200 is input to the readout circuit 235 for each column through the vertical output line 207 .

水平走査回路232は、複数の読み出し回路235に対応する複数の制御信号hsr(0)~hsr(n-1)を出力する。複数の制御信号hsr(0)~hsr(n-1)は、複数の読み出し回路235のうちの1つを選択する。複数の制御信号hsr(0)~hsr(n-1)により選択された1つの読み出し回路235は、共通出力線228、229を通じて、データ出力部233に信号を出力する。 The horizontal scanning circuit 232 outputs a plurality of control signals hsr( 0 ) to hsr(n−1) corresponding to a plurality of readout circuits 235 . A plurality of control signals hsr( 0 ) to hsr(n−1) select one of the plurality of readout circuits 235 . One readout circuit 235 selected by a plurality of control signals hsr(0) to hsr(n−1) outputs a signal to the data output section 233 through common output lines 228 and 229 .

次に、読み出し回路235の具体的な回路例を説明する。
図3は、複数の読み出し回路235のうち、最も左側に位置する1つの読み出し回路235の回路例を示す。残りの読み出し回路235も、最も左側に位置する1つの読み出し回路235と同じ回路構造を有する。尚、本実施形態の読み出し回路235は、ランプ型のAD変換器を含む。
Next, a specific circuit example of the readout circuit 235 will be described.
FIG. 3 shows a circuit example of one readout circuit 235 located on the leftmost side among the plurality of readout circuits 235 . The remaining readout circuits 235 also have the same circuit structure as the leftmost readout circuit 235 . Note that the readout circuit 235 of the present embodiment includes a ramp-type AD converter.

垂直出力線207を通じて読み出し回路235に入力された信号は、クランプ容量211を介してオペアンプ213の反転入力端子に入力される。基準電圧源212からの基準電圧Vrefは、オペアンプ213の非反転入力端子に入力される。フィードバック容量214~216及びスイッチ218~220は、オペアンプ213の反転入力端子と出力端子との間に接続される。スイッチ217は、オペアンプ213の反転入力端子と出力端子との間に接続される。スイッチ217は、制御信号RES_Cにより制御され、フィードバック容量214~216の両端をショートさせる機能を有する。また、スイッチ218~220は、システム制御部50からの制御信号GAIN0~GAIN2により制御される。 A signal input to the readout circuit 235 through the vertical output line 207 is input to the inverting input terminal of the operational amplifier 213 via the clamp capacitor 211 . A reference voltage Vref from the reference voltage source 212 is input to the non-inverting input terminal of the operational amplifier 213 . Feedback capacitors 214 to 216 and switches 218 to 220 are connected between the inverting input terminal and the output terminal of operational amplifier 213 . A switch 217 is connected between the inverting input terminal and the output terminal of the operational amplifier 213 . The switch 217 is controlled by a control signal RES_C and has a function of shorting across the feedback capacitors 214-216. The switches 218-220 are controlled by control signals GAIN0-GAIN2 from the system control section 50. FIG.

オペアンプ213の出力信号、及びランプ信号発生器230からのランプ信号224は、比較器221に入力される。Latch_N 222は、ノイズレベル(N信号)を保持するための記憶素子であり、Latch_S 223は、A信号、及びA信号とB信号とが加算された信号レベル(A+B信号)を保持するための記憶素子である。 The output signal of operational amplifier 213 and ramp signal 224 from ramp signal generator 230 are input to comparator 221 . Latch_N 222 is a memory element for holding the noise level (N signal), and Latch_S 223 is a memory for holding the signal level (A+B signal) obtained by adding the A signal and the A signal and the B signal. element.

比較器221の出力(比較結果を表す値)及びカウンタ231の出力(カウンタ値)225は、Latch_N 222と、Latch_S 223とのそれぞれに入力される。Latch_N 222、及びLatch_S 223の動作(有効又は無効)は、それぞれ、制御信号LATEN_N、LATEN_Sにより制御される。Latch_N 222で保持したノイズレベルは、スイッチ226を介して共通出力線228に出力される。Latch_S 223で保持した信号レベルは、スイッチ227を介して共通出力線229に出力される。共通出力線228、229は、データ出力部233に接続される。 The output of the comparator 221 (value representing the comparison result) and the output (counter value) 225 of the counter 231 are input to Latch_N 222 and Latch_S 223, respectively. The operation (enabled or disabled) of Latch_N 222 and Latch_S 223 is controlled by control signals LATEN_N, LATEN_S, respectively. The noise level held by Latch_N 222 is output to common output line 228 via switch 226 . The signal level held by Latch_S 223 is output to common output line 229 via switch 227 . Common output lines 228 and 229 are connected to data output section 233 .

スイッチ226、227は、水平走査回路232からの制御信号hsr(h)により制御される。ここで、(h)内のhは、列番号、即ち、0~(n-1)のうちの1つを示す。各読み出し回路235において、Latch_N 222、及びLatch_S 223に保持された信号レベルは、共通出力線238、229に順次出力され、かつデータ出力部233を通じて画像処理部20に出力される。各読み出し回路235で保持された信号レベルを順次外部に出力する動作は、水平転送と呼ばれる。 The switches 226 and 227 are controlled by a control signal hsr(h) from the horizontal scanning circuit 232. FIG. Here, h in (h) indicates a column number, that is, one of 0 to (n-1). In each readout circuit 235 , the signal levels held in Latch_N 222 and Latch_S 223 are sequentially output to common output lines 238 and 229 and output to image processing section 20 through data output section 233 . The operation of sequentially outputting the signal level held by each readout circuit 235 to the outside is called horizontal transfer.

尚、各読み出し回路235に入力される制御信号(但し、hsr(0)~hsr(n-1)を除く)は、タイミング発生回路18又はシステム制御部50から供給される。同様に、垂直走査回路209、水平走査回路232、ランプ信号発生器230、及びカウンタ231の各制御信号も、タイミング発生回路18又はシステム制御部50から供給される。 Control signals (except for hsr(0) to hsr(n−1)) input to each readout circuit 235 are supplied from the timing generation circuit 18 or the system control section 50. FIG. Similarly, control signals for the vertical scanning circuit 209 , horizontal scanning circuit 232 , ramp signal generator 230 and counter 231 are also supplied from the timing generation circuit 18 or the system control section 50 .

図4は、図3の撮像素子の動作を示す。
同図のタイミングチャートを参照して、図3の画素アレイ234の1行分の画素に対する読み出し動作を説明する。以下の説明では、制御信号のレベルがH(High)のときに当該制御信号により制御されるスイッチがオンとなり、制御信号のレベルがL(Low)のときに当該制御信号により制御されるスイッチがオフとなるものとする。
FIG. 4 shows the operation of the imaging device of FIG.
A readout operation for one row of pixels in the pixel array 234 in FIG. 3 will be described with reference to the timing chart in FIG. In the following description, when the level of the control signal is H (High), the switch controlled by the control signal is turned on, and when the level of the control signal is L (Low), the switch controlled by the control signal is turned on. shall be turned off.

時刻t1において、垂直走査回路209は、制御信号RESをHにした状態で制御信号TX_A、TX_BをLからHにして、転送スイッチ202a、202bをオンにする。これにより、フォトダイオード201a、201bに蓄積された電荷は、転送スイッチ202a、202b、及びリセットスイッチ205を介して、電源208に転送され、かつフォトダイオード201a、201bは、リセットされる。FD203も、同様にリセットされる。 At time t1, the vertical scanning circuit 209 changes the control signals TX_A and TX_B from L to H while the control signal RES is H to turn on the transfer switches 202a and 202b. Thereby, the charges accumulated in the photodiodes 201a and 201b are transferred to the power supply 208 via the transfer switches 202a and 202b and the reset switch 205, and the photodiodes 201a and 201b are reset. The FD 203 is similarly reset.

時刻t2において、垂直走査回路209は、制御信号TX_A、TX_BをLとし、転送スイッチ202a、202bをオフにする。その結果、フォトダイオード201a、201bにおいて、光電荷の蓄積が開始される。 At time t2, the vertical scanning circuit 209 sets the control signals TX_A and TX_B to L to turn off the transfer switches 202a and 202b. As a result, photocharges start to accumulate in the photodiodes 201a and 201b.

時刻t2における光電荷の蓄積開始から所定の蓄積時間が経過した時点、即ち、時刻t3において、垂直走査回路209は、制御信号SELをHとし、選択スイッチ206をオンにする。これにより、増幅部204のソースは、垂直出力線207に接続される。続けて、時刻t4において、垂直走査回路209は、制御信号RESをLとし、リセットスイッチ205をオフする。これにより、FD203のリセットは、解除される。即ち、FD203のリセット信号レベルは、増幅部204を介して垂直出力線207に読み出され、かつ読み出し回路235に入力される。 At time t3, when a predetermined accumulation time has elapsed since the start of photocharge accumulation at time t2, the vertical scanning circuit 209 sets the control signal SEL to H to turn on the selection switch 206. FIG. This connects the source of the amplifier 204 to the vertical output line 207 . Subsequently, at time t4, the vertical scanning circuit 209 sets the control signal RES to L to turn off the reset switch 205 . This releases the reset of the FD 203 . That is, the reset signal level of the FD 203 is read out to the vertical output line 207 via the amplifier 204 and input to the readout circuit 235 .

この後、時刻t5において、システム制御部50は、制御信号RES_CをLにする。これにより、スイッチ217がオンし、垂直出力線207に読み出されたリセット信号レベルと基準電圧Vrefとの差分に基づく電圧は、オペアンプ213から出力される。 After that, at time t5, the system control unit 50 sets the control signal RES_C to L. As a result, the switch 217 is turned on, and the voltage based on the difference between the reset signal level read out to the vertical output line 207 and the reference voltage Vref is output from the operational amplifier 213 .

ここで、システム制御部50は、予め設定されたISO感度に基づき、制御信号GAIN0~GAIN2のいずれか1つをHにする。 Here, the system control unit 50 sets any one of the control signals GAIN0 to GAIN2 to H based on the preset ISO sensitivity.

例えば、カメラ本体100がISO感度100、200、及び400のうちのいずれかを設定可能である場合、ISO感度100が設定されたときは、システム制御部50は、制御信号GAIN0をHとし、GAIN1及びGAIN2をLとする。また、ISO感度200が設定されたときは、システム制御部50は、制御信号GAIN1をHとし、GAIN0及びGAIN2をLとする。さらに、ISO感度400が設定されたときは、システム制御部50は、制御信号GAIN2をHとし、GAIN0及びGAIN1をLとする。但し、設定感度の種類、及び設定感度と制御信号との関係は、これに限定されることはない。 For example, if the camera body 100 can set any one of ISO sensitivities of 100, 200, and 400, and the ISO sensitivity is set to 100, the system control unit 50 sets the control signal GAIN0 to H, and sets the control signal GAIN1 to H. and GAIN2 is L. Further, when the ISO sensitivity 200 is set, the system control unit 50 sets the control signal GAIN1 to H, and GAIN0 and GAIN2 to L. Furthermore, when ISO sensitivity 400 is set, the system control unit 50 sets the control signal GAIN2 to H and GAIN0 and GAIN1 to L. However, the types of set sensitivities and the relationship between set sensitivities and control signals are not limited to this.

オペアンプ213は、入力された電圧を、クランプ容量211と、所定のスイッチのフィードバック容量との容量比で定まる反転ゲインで増幅し、かつ出力する。所定のスイッチのフィードバック容量とは、複数のスイッチ218~220のうち、信号レベルがHである制御信号GAINx(xは0~2のうちの1つ)に対応する1つのスイッチのフィードバック容量(214~216の1つ)のことである。また、オペアンプ213での増幅において、オペアンプ213までの回路で発生するランダムノイズ成分も、増幅される。従って、増幅後の信号に含まれるランダムノイズの大きさは、ISO感度に依存する。 The operational amplifier 213 amplifies the input voltage with an inversion gain determined by the capacitance ratio between the clamp capacitance 211 and the feedback capacitance of a predetermined switch, and outputs the amplified voltage. The feedback capacitance of a predetermined switch is the feedback capacitance (214 216). Further, in the amplification by the operational amplifier 213, random noise components generated in the circuit up to the operational amplifier 213 are also amplified. Therefore, the magnitude of random noise contained in the signal after amplification depends on the ISO sensitivity.

次に、時刻t6において、ランプ信号発生器230は、時間経過と共に信号レベルが線形に増加するランプ信号の出力を開始する。同時に、カウンタ231は、リセット状態からカウントアップを開始する。また、タイミング発生回路18は、LATEN_NをHにして、Latch_Nを有効にする。 Next, at time t6, the ramp signal generator 230 starts outputting a ramp signal whose signal level increases linearly over time. At the same time, the counter 231 starts counting up from the reset state. Also, the timing generation circuit 18 sets LATEN_N to H to validate Latch_N.

比較器221は、オペアンプ213の出力信号と、ランプ信号発生器230からのランプ信号とを比較する。時刻t7において、ランプ信号レベルがオペアンプ213の出力信号レベルを上回ると、比較器221の出力は、LからHに変化する。LATEN_NがHの状態において、比較器221の出力がLからHに変化すると、Latch_N 222は、その変化時点においてカウンタ231が出力するカウンタ値を記憶する。Latch_N 222が記憶するカウンタ値は、N信号レベルを表すデジタル値(N信号データ)に相当する。 Comparator 221 compares the output signal of operational amplifier 213 and the ramp signal from ramp signal generator 230 . At time t7, when the ramp signal level exceeds the output signal level of operational amplifier 213, the output of comparator 221 changes from L to H. When the output of comparator 221 changes from L to H while LATEN_N is H, Latch_N 222 stores the counter value output by counter 231 at the time of that change. The counter value stored by Latch_N 222 corresponds to a digital value (N signal data) representing the N signal level.

尚、LATEN_Sは、Lであるため、Latch_S 223は、無効であり、かつカウント値を記憶しない。この後、時刻t8において、ランプ信号レベルが予め定められた値に達すると、ランプ信号発生器230は、ランプ信号の出力を停止し、かつタイミング発生回路18は、LATEN_NをLにする。 Note that since LATEN_S is L, Latch_S 223 is invalid and does not store the count value. After that, at time t8, when the ramp signal level reaches a predetermined value, the ramp signal generator 230 stops outputting the ramp signal, and the timing generation circuit 18 sets LATEN_N to L.

次に、時刻t9において、垂直走査回路209は、制御信号TX_AをHにする。これにより、転送スイッチ202aがオンし、時刻t2からフォトダイオード201aに蓄積された光電荷(A信号)がFD203へ転送される。この後、時刻t10において、垂直走査回路209は、制御信号TX_AをLにする。FD203は、転送された電荷を電位に変換する。この電位(A信号レベル)は、増幅部204及び垂直出力線207を介して、読み出し回路235へ出力される。オペアンプ213は、垂直出力線207に読み出されたA信号レベルと、基準電圧Vrefとの差分に基づく電圧を出力する。オペアンプ213の反転ゲインは、クランプ容量211と、フィードバック容量214~216のいずれか1つとの比率によって定まる。 Next, at time t9, the vertical scanning circuit 209 sets the control signal TX_A to H. As a result, the transfer switch 202a is turned on, and photocharges (A signal) accumulated in the photodiode 201a are transferred to the FD 203 from time t2. After that, at time t10, the vertical scanning circuit 209 sets the control signal TX_A to L. The FD 203 converts the transferred charge into potential. This potential (A signal level) is output to the readout circuit 235 via the amplifier 204 and vertical output line 207 . The operational amplifier 213 outputs a voltage based on the difference between the A signal level read out to the vertical output line 207 and the reference voltage Vref. The inversion gain of the operational amplifier 213 is determined by the ratio between the clamp capacitor 211 and any one of the feedback capacitors 214-216.

次に、時刻t11において、ランプ信号発生器230は、ランプ信号の出力を開始する。同時に、カウンタ231は、リセット状態からカウントアップを開始する。また、タイミング発生回路18は、LATEN_SをHにして、Latch_Sを有効にする。 Next, at time t11, ramp signal generator 230 starts outputting a ramp signal. At the same time, the counter 231 starts counting up from the reset state. Also, the timing generation circuit 18 sets LATEN_S to H to validate Latch_S.

比較器221は、オペアンプ213の出力信号と、ランプ信号発生器230からのランプ信号とを比較する。時刻t12において、ランプ信号レベルがオペアンプ213の出力信号レベルを上回ると、比較器221の出力は、LからHに変化する。LATEN_SがHの状態において、比較器221の出力がLからHに変化すると、Latch_S 223は、その時点でカウンタ231が出力するカウンタ値を記憶する。Latch_S 223が記憶するカウンタ値は、A信号レベルを表すデジタル値(A信号データ)に相当する。 Comparator 221 compares the output signal of operational amplifier 213 and the ramp signal from ramp signal generator 230 . At time t12, when the ramp signal level exceeds the output signal level of operational amplifier 213, the output of comparator 221 changes from L to H. When the output of comparator 221 changes from L to H while LATEN_S is H, Latch_S 223 stores the counter value output by counter 231 at that time. The counter value stored by Latch_S 223 corresponds to a digital value (A signal data) representing the A signal level.

尚、LATEN_Nは、Lであるため、Latch_N 222は、無効であり、かつカウント値を記憶しない。この後、時刻t13において、ランプ信号レベルが予め定められた値に達すると、ランプ信号発生器230は、ランプ信号の出力を停止し、かつタイミング発生回路18は、LATEN_SをLにする。 Note that since LATEN_N is L, Latch_N 222 is invalid and does not store a count value. After that, at time t13, when the ramp signal level reaches a predetermined value, the ramp signal generator 230 stops outputting the ramp signal, and the timing generation circuit 18 sets LATEN_S to L.

この後、時刻t14~t15の間、水平走査回路232は、制御信号hsr(h)を、順次、一定期間ずつHにする。これにより、各読み出し回路235のスイッチ226、227は、一定期間オンになった後にオフに戻る。各読み出し回路235のLatch_N 222、Latch_S 223内に保持されたN信号データ、及びA信号データは、共通出力線228、229にそれぞれ読み出され、かつデータ出力部233に入力される。データ出力部233は、各読み出し回路235から出力されたA信号データ及びN信号データに対して、A信号データからN信号データを減じた値を外部に出力する。 After that, during time t14 to t15, the horizontal scanning circuit 232 sequentially sets the control signal hsr(h) to H for a certain period of time. As a result, the switches 226 and 227 of each readout circuit 235 are turned off after being turned on for a certain period of time. The N signal data and A signal data held in Latch_N 222 and Latch_S 223 of each read circuit 235 are read out to common output lines 228 and 229 respectively and input to data output section 233 . The data output unit 233 outputs a value obtained by subtracting the N signal data from the A signal data for the A signal data and the N signal data output from each reading circuit 235 to the outside.

また、時刻t16からt17の間、垂直走査回路209は、制御信号TX_A、TX_BをHにし、転送スイッチ202a,202bをオンにする。これにより、2つのフォトダイオード201a、201bの双方から光電荷がFD203へ転送される。FD203は、転送された電荷を電位に変換する。この電位(A+B信号レベル)は、増幅部204及び垂直出力線207を介して、読み出し回路235へ出力される。オペアンプ213は、垂直出力線207に読み出されたA+B信号レベルと、基準電圧Vrefとの差分に基づく電圧を出力する。 Also, between times t16 and t17, the vertical scanning circuit 209 sets the control signals TX_A and TX_B to H to turn on the transfer switches 202a and 202b. Photocharges are thereby transferred to the FD 203 from both of the two photodiodes 201a and 201b. The FD 203 converts the transferred charge into potential. This potential (A+B signal level) is output to the reading circuit 235 via the amplifying section 204 and the vertical output line 207 . The operational amplifier 213 outputs a voltage based on the difference between the A+B signal level read out to the vertical output line 207 and the reference voltage Vref.

次に、時刻t18において、ランプ信号発生器230は、ランプ信号の出力を開始する。同時に、カウンタ231は、リセット状態からカウントアップを開始する。また、タイミング発生回路18は、LATEN_SをHにして、Latch_Sを有効にする。 Next, at time t18, ramp signal generator 230 starts outputting a ramp signal. At the same time, the counter 231 starts counting up from the reset state. Also, the timing generation circuit 18 sets LATEN_S to H to validate Latch_S.

比較器221は、オペアンプ213の出力信号と、ランプ信号発生器230からのランプ信号とを比較する。時刻t19において、ランプ信号レベルがオペアンプ213の出力信号レベルを上回ると、比較器221の出力は、LからHに変化する。LATEN_SがHの状態において、比較器221の出力がLからHに変化すると、Latch_S 223は、その時点でカウンタ231が出力するカウンタ値を記憶する。Latch_S 223が記憶するカウンタ値は、A+B信号レベルを表すデジタル値(A+B信号データ)に相当する。 Comparator 221 compares the output signal of operational amplifier 213 and the ramp signal from ramp signal generator 230 . At time t19, when the ramp signal level exceeds the output signal level of operational amplifier 213, the output of comparator 221 changes from L to H. When the output of comparator 221 changes from L to H while LATEN_S is H, Latch_S 223 stores the counter value output by counter 231 at that time. The counter value stored by Latch_S 223 corresponds to a digital value representing the A+B signal level (A+B signal data).

この後、時刻t20において、ランプ信号レベルが予め定められた値に達すると、ランプ信号発生器230は、ランプ信号の出力を停止し、かつタイミング発生回路18は、LATEN_SをLにする。 After that, at time t20, when the ramp signal level reaches a predetermined value, ramp signal generator 230 stops outputting the ramp signal, and timing generation circuit 18 sets LATEN_S to L.

また、時刻t21~t22の間、水平走査回路232は、制御信号hsr(h)を、順次、一定期間ずつHにする。これにより、各読み出し回路235のスイッチ226、227は、一定期間オンになった後にオフに戻る。各読み出し回路235のLatch_N 222、Latch_S 223内に保持されたN信号データ、及びA+B信号データは、共通出力線228、229にそれぞれ読み出され、かつデータ出力部233に入力される。データ出力部233は、各読み出し回路235から出力されたA+B信号データ及びN信号データに対して、A+B信号データからN信号データを減じた値を外部に出力する。 Further, during the period from time t21 to t22, the horizontal scanning circuit 232 sequentially sets the control signal hsr(h) to H for a certain period of time. As a result, the switches 226 and 227 of each readout circuit 235 are turned off after being turned on for a certain period of time. The N signal data and the A+B signal data held in Latch_N 222 and Latch_S 223 of each read circuit 235 are read out to common output lines 228 and 229 respectively and input to data output section 233 . The data output unit 233 outputs a value obtained by subtracting the N signal data from the A+B signal data for the A+B signal data and the N signal data output from each reading circuit 235 to the outside.

次に、時刻t22において、タイミング発生回路18は、制御信号RES_CをHにする。また、時刻t23において、垂直走査回路209は、制御信号RESをHにする。この後、時刻t24において、垂直走査回路209が制御信号SELをLにすると、画素アレイ234の1行分の読み出し動作が完了する。 Next, at time t22, the timing generation circuit 18 changes the control signal RES_C to H. Also, at time t23, the vertical scanning circuit 209 changes the control signal RES to H. After that, at time t24, when the vertical scanning circuit 209 sets the control signal SEL to L, the readout operation for one row of the pixel array 234 is completed.

以上の動作を所定の行数分繰り返すことにより、画素アレイ234から1画面分の像信号を取得することができる。 By repeating the above operation for a predetermined number of rows, image signals for one screen can be obtained from the pixel array 234 .

本実施形態では、カメラ本体100は、静止画モードと動画モードとを有する。静止画モードが設定されている場合、システム制御部50は、撮像素子14から画素アレイ234の全行分の画素データを読み出すように制御する。また、動画モードが設定されている場合、システム制御部50は、撮像素子14から、例えば、3行周期(1行読んで2行飛ばす)で画素データを読み出すように制御する。 In this embodiment, the camera body 100 has a still image mode and a moving image mode. When the still image mode is set, the system control unit 50 controls to read out pixel data for all rows of the pixel array 234 from the image sensor 14 . Further, when the moving image mode is set, the system control unit 50 controls to read out pixel data from the image pickup device 14 in a cycle of, for example, three rows (one row is read and two rows are skipped).

このように、本実施形態では、画素アレイ234から読み出す行数は、静止画モードが設定されている場合よりも、動画モードが設定されている場合のほうが少ない。但し、静止画モードと動画モードにおける読み出し方法は、これに限定されるものではない。 Thus, in this embodiment, the number of rows read from the pixel array 234 is smaller when the moving image mode is set than when the still image mode is set. However, the reading method in still image mode and moving image mode is not limited to this.

このようにして、リセットノイズが除去されたA信号とA+B信号とを撮像素子14から読み出すことができる。A信号は、焦点検出用の信号として、A+B信号は、撮影画像を構成する信号として、それぞれ用いられる。また、A+B信号及びA信号は、焦点検出用のB信号を生成するためにも用いられる。 In this way, the A signal and the A+B signal from which the reset noise has been removed can be read out from the imaging device 14 . The A signal is used as a signal for focus detection, and the A+B signal is used as a signal forming a photographed image. The A+B signal and A signal are also used to generate the B signal for focus detection.

また、本実施形態では、撮像素子14は、全画素読み出しモードと、間引き読み出しモードと、の2種類の読み出しモードを有する。全画素読み出しモードは、画素アレイ234から全ての有効画素を読み出すモードであり、例えば、高精細静止画を得る際に設定される。 In addition, in this embodiment, the image sensor 14 has two types of readout modes, an all-pixel readout mode and a thinning readout mode. The all-pixel readout mode is a mode for reading out all effective pixels from the pixel array 234, and is set, for example, when obtaining a high-definition still image.

間引き読み出しモードは、全画素読み出しモードよりも、画素アレイ234から読み出す画素数が少ない読み出しモードである。間引き読み出しモードは、例えば、動画、プレビュー画像などのように、高精細静止画よりも低い解像度で十分な場合、画素データを高速に読み出す必要がある場合など、に設定される。間引き読み出しモードでは、例えば、画像の縦横比を変えないように、水平方向の画素数(n画素)と垂直方向の画素数(m画素)に対して、それぞれ同じ割合で画素が間引かれる。 The thinning readout mode is a readout mode in which the number of pixels to be read from the pixel array 234 is smaller than that in the all-pixel readout mode. The thinning readout mode is set, for example, when a resolution lower than that of a high-definition still image is sufficient, such as a moving image or a preview image, or when it is necessary to read out pixel data at high speed. In the thinning readout mode, for example, pixels are thinned at the same rate with respect to the number of pixels in the horizontal direction (n pixels) and the number of pixels in the vertical direction (m pixels) so as not to change the aspect ratio of the image.

尚、間引き読み出しモードにおける「間引き」とは、一部の画素について読み出し自体を行わない場合に加え、次の場合も含む。即ち、全画素に対して読み出しを行うが、そのうちの一部の画素(信号)を破棄又は無視する場合も、上記「間引き」に含まれる。また、画素アレイ234から読み出した複数の画素(信号)から1つの信号を生成する場合、例えば、当該複数の画素の信号値を平均した1つの信号を生成し、S/N比の改善を図る場合も、上記「間引き」に含まれる。 Note that "thinning" in the thinning readout mode includes the following cases in addition to the case where the readout itself is not performed for some pixels. That is, the above-mentioned "decimation" also includes the case where all pixels are read out but some of the pixels (signals) are discarded or ignored. When generating one signal from a plurality of pixels (signals) read out from the pixel array 234, for example, one signal is generated by averaging the signal values of the plurality of pixels to improve the S/N ratio. is also included in the above-mentioned "decimation".

(光電変換領域と射出瞳との関係)
図5は、光電変換領域と射出瞳との関係を示す。
図5(A)は、本実施形態の撮像装置において、交換レンズ300の射出瞳面と、撮像素子14の像面の中央又はその近傍に配置された画素200(以下、中央画素と称する)の光電変換領域201a、201bと、の共役関係を説明する図である。
(Relationship between photoelectric conversion area and exit pupil)
FIG. 5 shows the relationship between the photoelectric conversion area and the exit pupil.
FIG. 5A shows the exit pupil plane of the interchangeable lens 300 and the pixel 200 (hereinafter referred to as the center pixel) arranged at or near the center of the image plane of the image sensor 14 in the imaging apparatus of the present embodiment. 4 is a diagram for explaining the conjugate relationship between photoelectric conversion regions 201a and 201b; FIG.

撮像素子14内の光電変換領域201a、201b及び交換レンズ300の射出瞳面は、オンチップマイクロレンズ201iによって共役関係となるように設計される。そして、交換レンズ300の射出瞳面は、光量調節用の虹彩絞りが設けられる面とほぼ一致するのが一般的である。 The photoelectric conversion regions 201a and 201b in the imaging device 14 and the exit pupil plane of the interchangeable lens 300 are designed to be in a conjugate relationship by the on-chip microlenses 201i. The exit pupil plane of the interchangeable lens 300 generally coincides with the plane on which the iris diaphragm for adjusting the amount of light is provided.

一方、本実施形態の交換レンズ300は、変倍機能を有するズームレンズである。ズームレンズは、変倍操作を行なうと、射出瞳の大きさ、及び像面から射出瞳までの距離(射出瞳距離)が変化するのが一般的である。図5(A)は、交換レンズ300の焦点距離が広角端と望遠端との中央にある状態を示す。偏心パラメータの最適設計は、この状態における射出瞳距離Dlを標準値として、オンチップマイクロレンズの形状、及び像高(画面中心からの距離、又は画面中心を原点としたときのXY座標)に基づき行われる。 On the other hand, the interchangeable lens 300 of this embodiment is a zoom lens having a variable magnification function. A zoom lens generally changes the size of the exit pupil and the distance from the image plane to the exit pupil (exit pupil distance) when a zooming operation is performed. FIG. 5A shows a state in which the focal length of the interchangeable lens 300 is in the middle between the wide-angle end and the telephoto end. The optimum design of the decentration parameter is based on the shape of the on-chip microlens and the image height (the distance from the center of the screen, or the XY coordinates when the center of the screen is the origin), with the exit pupil distance Dl in this state as the standard value. done.

図5(A)において、交換レンズ300は、第1のレンズ群101と、第1のレンズ群101を保持する鏡筒部材101bと、第3のレンズ群105と、第3のレンズ群105を保持する鏡筒部材105bと、を備える。また、交換レンズ300は、絞り102と、絞り開放時の開口径を規定する開口板102aと、絞り込み時の開口径を調節するための絞り羽根102bと、を備える。 5A, the interchangeable lens 300 includes a first lens group 101, a barrel member 101b that holds the first lens group 101, a third lens group 105, and a third lens group 105. and a lens barrel member 105b to hold. The interchangeable lens 300 also includes an aperture 102, an aperture plate 102a that defines the aperture diameter when the aperture is wide open, and aperture blades 102b for adjusting the aperture diameter when the aperture is stopped down.

尚、交換レンズ300を通過する光束の制限部材として作用する鏡筒部材101b、105b、開口板102a、及び絞り羽根102bは、像面から観察した場合の光学的な虚像を示す。また、絞り102の近傍における合成開口を交換レンズ300の射出瞳と定義し、像面からの距離を射出瞳距離Dlと定義する。 Note that the lens barrel members 101b and 105b, the aperture plate 102a, and the aperture blade 102b, which act as restricting members for the light flux passing through the interchangeable lens 300, present an optical virtual image when observed from the image plane. Also, the synthetic aperture in the vicinity of the stop 102 is defined as the exit pupil of the interchangeable lens 300, and the distance from the image plane is defined as the exit pupil distance Dl.

光電変換領域201a、201bは、画素200の最下層に配置される。即ち、配線層201e、201f、201g、カラーフィルタ201h、及びオンチップマイクロレンズ201iは、光電変換領域201a、201bの上層に配置される。光電変換領域201a、201bは、オンチップマイクロレンズ201iによって交換レンズ300の射出瞳面に投影される。換言すれば、交換レンズ300の射出瞳は、オンチップマイクロレンズ201iを介して、光電変換領域201a、201bの表面に投影される。 The photoelectric conversion regions 201 a and 201 b are arranged in the bottom layer of the pixel 200 . That is, the wiring layers 201e, 201f, 201g, the color filter 201h, and the on-chip microlens 201i are arranged above the photoelectric conversion regions 201a, 201b. The photoelectric conversion regions 201a and 201b are projected onto the exit pupil plane of the interchangeable lens 300 by the on-chip microlens 201i. In other words, the exit pupil of the interchangeable lens 300 is projected onto the surfaces of the photoelectric conversion regions 201a and 201b via the on-chip microlenses 201i.

図5(B)は、交換レンズ300の射出瞳面上における、光電変換領域201a、201bの投影像501、502を示す。円400は、絞り102の開口板102aで規定される、画素200への光束の最大入射範囲を射出瞳面に示したものである。即ち、円400は、開口板102aに依存する。従って、図5(B)では、円400は、開口板102aと同じものとして表記してある。 5B shows projected images 501 and 502 of the photoelectric conversion regions 201a and 201b on the exit pupil plane of the interchangeable lens 300. FIG. A circle 400 indicates, on the exit pupil plane, the maximum incident range of the light flux to the pixel 200 defined by the aperture plate 102a of the diaphragm 102. FIG. That is, the circle 400 depends on the aperture plate 102a. Therefore, in FIG. 5B, the circle 400 is shown as being the same as the aperture plate 102a.

図5(B)の例は、中央画素を対象とするため、光束のケラレは、光軸に対して、上下左右(X軸方向及びY軸方向)、それぞれ対称である。また、光電変換領域201a、201bは、同じ大きさの瞳領域を通過した光束を受光する。そして、円400は、投影像501、502の大部分を含むため、光束のケラレは、ほぼ発生しない。 Since the example of FIG. 5B targets the center pixel, the vignetting of the light flux is symmetrical in the vertical and horizontal directions (X-axis direction and Y-axis direction) with respect to the optical axis. Further, the photoelectric conversion regions 201a and 201b receive light beams that have passed through pupil regions of the same size. Since the circle 400 includes most of the projected images 501 and 502, vignetting of the light beams hardly occurs.

従って、中央画素の光電変換領域201a、201bで光電変換された信号は、円400、即ち、射出瞳領域のほぼ全体を通過した光束を光電変換した結果として、撮像素子14から出力される。以下では、光電変換領域201aが受光する射出瞳の領域を第1の瞳領域、光電変換領域201bが受光する射出瞳の領域を第2の瞳領域、第1の瞳領域と第2の瞳領域を合わせた領域を第3の瞳領域と呼ぶ。 Therefore, the signals photoelectrically converted in the photoelectric conversion areas 201a and 201b of the center pixel are output from the image pickup device 14 as a result of photoelectric conversion of the light flux that has passed through the circle 400, that is, substantially the entire exit pupil area. In the following description, the exit pupil region where the photoelectric conversion region 201a receives light is called the first pupil region, the exit pupil region where the photoelectric conversion region 201b receives light is called the second pupil region, and the first pupil region and the second pupil region. is called a third pupil region.

(周辺像高における瞳分割)
図6は、周辺像高で発生する不均一な瞳分割を示す。
同図は、撮像素子14の周辺像高における光電変換領域201aの第1の瞳領域501、光電変換領域201bの第2の瞳領域502、及び結像光学系の射出瞳400である第3の瞳領域の関係を示す。ここでは、結像光学系の射出瞳として絞りのみを考慮し、円形で射出瞳400を示す。また、同図は、図5(B)と比べると、絞り102を絞った状態となっている。また、同図の座標系は、射出瞳400の水平方向をX軸、射出瞳400の垂直方向をY軸とする。
(Pupil division at peripheral image height)
FIG. 6 shows the non-uniform pupil splitting that occurs at peripheral image heights.
The figure shows a first pupil region 501 of the photoelectric conversion region 201a at the peripheral image height of the image sensor 14, a second pupil region 502 of the photoelectric conversion region 201b, and a third pupil region 400 of the imaging optical system. Fig. 4 shows the relationship of the pupil regions; Here, only the stop is considered as the exit pupil of the imaging optical system, and the exit pupil 400 is indicated by a circle. 5B, the diaphragm 102 is narrowed down as compared with FIG. 5B. In the coordinate system of FIG. 4, the horizontal direction of the exit pupil 400 is the X axis, and the vertical direction of the exit pupil 400 is the Y axis.

図6(A)は、結像光学系の射出瞳距離Dlと撮像素子14の設定瞳距離Dsが等しい場合である。この場合、第1の瞳領域501と第2の瞳領域502により、結像光学系の射出瞳400は、概ね、均等に瞳分割される。入射角受光感度分布で考えると、各像高への光線入射角度θは、光電変換領域201a、201bを有する画素の最も感度の高い入射角度θcにほぼ等しくなる(θ=θc)。 FIG. 6A shows a case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the imaging device 14 are equal. In this case, the first pupil region 501 and the second pupil region 502 substantially evenly divide the exit pupil 400 of the imaging optical system. Considering the incident angle light sensitivity distribution, the ray incident angle θ at each image height is approximately equal to the incident angle θc at which the pixel having the photoelectric conversion regions 201a and 201b has the highest sensitivity (θ=θc).

図6(B)は、結像光学系の射出瞳距離Dlが撮像素子14の設定瞳距離Dsよりも短い場合である。また、図6(C)は、結像光学系の射出瞳距離Dlが撮像素子14の設定瞳距離Dsよりも長い場合である。どちらの場合も、撮像素子の周辺像高において結像光学系の射出瞳と撮像素子14の入射瞳との瞳ずれが生じる。このため、結像光学系の射出瞳400は、不均一に瞳分割される。 FIG. 6B shows the case where the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the imaging device 14 . FIG. 6C shows the case where the exit pupil distance Dl of the image forming optical system is longer than the set pupil distance Ds of the imaging device 14 . In both cases, a pupil shift occurs between the exit pupil of the imaging optical system and the entrance pupil of the image pickup device 14 at the peripheral image height of the image pickup device. Therefore, the exit pupil 400 of the imaging optical system is non-uniformly pupil-divided.

入射角受光感度分布で考えると、図6(B)及び図6(C)における光線入射角度θは、像高が高くなるほど、光電変換領域201a、201bを有する画素の最も感度の高い入射角度θcからずれる。従って、レンズユニット100の射出瞳距離と設定瞳距離Dsとのずれが大きく、結果として、像高が高くなるほど、瞳分割が不均一に行われる。 Considering the incident angle light sensitivity distribution, the light ray incident angle θ in FIGS. deviate from Therefore, the deviation between the exit pupil distance of the lens unit 100 and the set pupil distance Ds is large, and as a result, the higher the image height, the more unevenly the pupil division is performed.

一方で、撮像素子14の中央像高においては、結像光学系の射出瞳距離Dlと撮像素子14の設定瞳距離Dsとの関係によらず、瞳ずれが発生しないため、瞳分割は、均一に行われる。本実施形態では、上述した通り、交換レンズ300の焦点距離が広角端や望遠端になった場合に、図6(B)又は図6(C)の状態が発生し得る。また、交換レンズ300を交換した場合なども、同様である。 On the other hand, at the central image height of the image pickup device 14, pupil deviation does not occur regardless of the relationship between the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image pickup device 14. Therefore, the pupil division is uniform. is performed on In this embodiment, as described above, when the focal length of the interchangeable lens 300 is at the wide-angle end or the telephoto end, the state of FIG. 6B or 6C may occur. The same applies when the interchangeable lens 300 is replaced.

(撮像素子駆動方式による像振れ補正が行われた場合の瞳分割)
図7は、撮像素子駆動方式による像振れ補正時の不均一な瞳分割を示す。
同図は、撮像素子駆動方式による像振れ補正により、撮像素子14がX軸方向に移動量ΔIISだけ移動した時の、中央画素の瞳分割の変化の例である。
(Pupil division when image blur correction is performed by image sensor drive method)
FIG. 7 shows non-uniform pupil division during image blur correction by the imaging device driving method.
The figure shows an example of a change in pupil division of the central pixel when the image sensor 14 is moved in the X-axis direction by a movement amount ΔIIS due to image blur correction by the image sensor driving method.

図7(A)は、結像光学系の射出瞳距離Dlと撮像素子14の設定瞳距離Dsとが等しい場合である。図7(B)は、結像光学系の射出瞳距離Dlが撮像素子14の設定瞳距離Dsよりも短い場合である。図7(C)は、結像光学系の射出瞳距離Dlが撮像素子14の設定瞳距離Dsよりも長い場合である。これらの図において、X軸及びY軸は、カメラ本体100上に固定され、撮像素子14が動いても、撮像素子14と共に動かないものとする。 FIG. 7A shows the case where the exit pupil distance Dl of the image forming optical system and the set pupil distance Ds of the imaging device 14 are equal. FIG. 7B shows the case where the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the imaging device 14 . FIG. 7C shows the case where the exit pupil distance Dl of the imaging optical system is longer than the set pupil distance Ds of the imaging device 14 . In these figures, it is assumed that the X-axis and Y-axis are fixed on the camera body 100 and do not move together with the image sensor 14 even if the image sensor 14 moves.

例えば、撮像素子14がX軸方向に移動量ΔIISだけ移動すると、図7(A)、(B)、及び(C)から明らかなように、撮像素子14の入射瞳は、X軸方向に移動量ΔPsだけ移動する。ここで、503は、撮像素子駆動方式による像振れ補正で移動した第1の瞳領域を示し、504は、撮像素子駆動方式による像振れ補正で移動した第2の瞳領域を示す。即ち、撮像素子14の入射瞳の移動量ΔPsは、撮像素子駆動方式による像振れ補正による撮像素子14の移動量ΔIISに等しい。 For example, when the image sensor 14 moves in the X-axis direction by a movement amount ΔIIS, the entrance pupil of the image sensor 14 moves in the X-axis direction, as is clear from FIGS. It moves by an amount ΔPs. Here, 503 indicates the first pupil region moved by the image blur correction by the imaging device driving method, and 504 indicates the second pupil region moved by the image blur correction by the imaging device driving method. That is, the amount of movement ΔPs of the entrance pupil of the image pickup device 14 is equal to the amount of movement ΔIIS of the image pickup device 14 due to image blur correction by the image pickup device driving method.

また、撮像素子14が動くと、注目している画素に対する結像光学系の射出瞳の相対位置も変化する。その結果、結像光学系の射出瞳を撮像素子14の入射瞳面上に投影した位置も変化する。 Further, when the imaging device 14 moves, the relative position of the exit pupil of the imaging optical system with respect to the pixel of interest also changes. As a result, the projected position of the exit pupil of the imaging optical system onto the entrance pupil plane of the imaging device 14 also changes.

例えば、図7(A)に示すように、結像光学系の射出瞳距離Dlと撮像素子14の設定瞳距離Dsとが等しい場合、撮像素子14の入射瞳面上に投影した結像光学系の射出瞳401の位置は変わらない。しかし、図7(B)及び図7(C)に示すように、結像光学系の射出瞳距離Dlと撮像素子14の設定瞳距離Dsとが異なる場合、撮像素子14の入射瞳面上に投影した結像光学系の射出瞳401の位置は、移動量ΔPlだけ移動する。このとき、ΔPlの値は、ΔPl=ΔIIS×(Dl-Ds)/Dlにより求まる。図7(A)では、結像光学系の射出瞳距離Dlと撮像素子14の設定瞳距離Dsとが等しいため、ΔPl=0である。 For example, as shown in FIG. 7A, when the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the imaging device 14 are equal, the imaging optical system projected onto the entrance pupil plane of the imaging device 14 does not change the position of the exit pupil 401 of . However, as shown in FIGS. 7B and 7C, when the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the imaging device 14 are different, on the entrance pupil plane of the imaging device 14 The position of the exit pupil 401 of the projected imaging optical system is moved by the movement amount ΔPl. At this time, the value of ΔPl is obtained by ΔPl=ΔIIS×(Dl−Ds)/Dl. In FIG. 7A, ΔPl=0 because the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the imaging device 14 are equal.

(レンズ群駆動方式による像振れ補正が行われた場合の瞳分割)
図8は、レンズ群駆動方式による像振れ補正時の不均一な瞳分割を示す。
ここでは、図8の下段に示すように、絞り102と、防振用レンズ群の枠103とによって光束が制限される場合を考える。図8の上段は、中央像高から見た瞳分割の様子を示す。図8の中段は、周辺像高から見た瞳分割の様子を示す。
(Pupil division when image blur correction is performed by the lens group driving method)
FIG. 8 shows non-uniform pupil division during image blur correction by the lens group driving method.
Here, as shown in the lower part of FIG. 8, consider the case where the light beam is restricted by the diaphragm 102 and the frame 103 of the anti-vibration lens group. The upper part of FIG. 8 shows the state of pupil division viewed from the central image height. The middle part of FIG. 8 shows how the pupil is divided as seen from the peripheral image height.

また、402は、防振用レンズ群の枠103を撮像素子14の入射瞳面上に投影したものを示す。403は、絞り102と防振用レンズ群の枠103によって光束が制限される領域を示す。ここでは、結像光学系の射出瞳距離Dlと撮像素子14の設定瞳距離Dsとが等しい場合について考える。 Reference numeral 402 denotes a projection of the frame 103 of the anti-vibration lens group onto the entrance pupil plane of the imaging device 14 . Reference numeral 403 denotes an area where the light flux is restricted by the diaphragm 102 and the frame 103 of the anti-vibration lens group. Here, consider the case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the imaging device 14 are equal.

図8(A)は、防振用レンズ群が結像光学系の光軸中心にある場合を示す。このとき、中央像高では、絞り102によってのみ光束が制限される。一方で、周辺像高では、絞り102に加えて、防振用レンズ群の枠103によっても一部光束が制限される。これは、像高が高いことにより、光束の入射角が大きく、かつ枠の影響を受け易いことを意味する。 FIG. 8A shows the case where the anti-vibration lens group is located at the center of the optical axis of the imaging optical system. At this time, the luminous flux is restricted only by the diaphragm 102 at the central image height. On the other hand, at the peripheral image height, the luminous flux is partially restricted not only by the diaphragm 102 but also by the frame 103 of the anti-vibration lens group. This means that, due to the high image height, the incident angle of the light flux is large and the frame is likely to affect the image.

図8(B)は、防振用レンズ群がX軸正方向にシフトした状態を示す。同図において、防振用レンズ枠103の中心は、一点鎖線によって示す。このとき、中央像高では、防振用のレンズ枠103が移動したことにより、下線が防振用レンズ枠103の端と開口板102aの端を通ることが分かる。一方で、周辺像高では、防振用のレンズ枠103が移動したことにより、レンズ枠103による上線側の制限がなくなり、絞り102のみによって光束が制限される。 FIG. 8B shows a state in which the anti-vibration lens group is shifted in the positive direction of the X-axis. In the figure, the center of the anti-vibration lens frame 103 is indicated by a dashed line. At this time, it can be seen that, at the center image height, the underline passes through the end of the anti-vibration lens frame 103 and the edge of the aperture plate 102a due to the movement of the anti-vibration lens frame 103. FIG. On the other hand, at the peripheral image height, since the vibration reduction lens frame 103 has moved, the upper line side limitation by the lens frame 103 is removed and the light flux is limited only by the diaphragm 102 .

図8(C)は、防振用レンズ群がX軸負方向にシフトした状態を示す。同図において、防振用レンズ枠103の中心は、一点鎖線によって示す。このとき、中央像高では、防振用のレンズ枠103が移動したことにより、上線が防振用レンズ枠103の端と開口板102aの端を通ることが分かる。一方で、周辺像高では、防振用のレンズ枠103が移動したことにより、図8(A)と比較して、防振用のレンズ枠103により制限される領域がさらに拡大する。 FIG. 8C shows a state in which the anti-vibration lens group is shifted in the negative direction of the X-axis. In the figure, the center of the anti-vibration lens frame 103 is indicated by a dashed line. At this time, it can be seen that, at the center image height, the upper line passes through the edge of the image stabilization lens frame 103 and the edge of the aperture plate 102a due to the movement of the image stabilization lens frame 103. FIG. On the other hand, at the peripheral image height, due to the movement of the image stabilization lens frame 103, the region restricted by the image stabilization lens frame 103 is further expanded compared to FIG. 8A.

このように、レンズ群駆動方式による像振れ補正によって、結像光学系の射出瞳の形状が変化し、これが焦点検出精度の低下の原因となる。特に、周辺像高においては、光束の入射角度が大きいため、絞り102以外の枠開口から受ける影響が大きくなる。 As described above, the image blur correction by the lens group driving method changes the shape of the exit pupil of the imaging optical system, which causes a decrease in focus detection accuracy. In particular, at peripheral image heights, since the incident angle of the light beam is large, the influence of frame apertures other than the diaphragm 102 is large.

(開口情報、敏感度情報、換算係数テーブルの形式)
図9は、レンズ駆動方式による像振れ補正時の開口形状の変化を示す。図10は、開口情報、敏感度情報、及びデフォーカス換算係数テーブルの例を示す。以下、図9及び図10を用いて、開口情報、敏感度情報、及びデフォーカス換算係数テーブル形式の例を説明する。
(Aperture information, sensitivity information, format of conversion factor table)
FIG. 9 shows changes in aperture shape during image blur correction by the lens driving method. FIG. 10 shows examples of aperture information, sensitivity information, and a defocus conversion factor table. Examples of aperture information, sensitivity information, and defocus conversion factor table formats will be described below with reference to FIGS. 9 and 10. FIG.

最初に、本実施形態の開口情報の形式について説明する。
開口情報とは、交換レンズ300を通過する光束を決定する枠開口の情報を所定の瞳面に投影したときに得られる枠1及び枠2の円の半径と中心とを意味する。例えば、図9に示すように、開口情報は、当該枠開口の情報を所定の瞳面に投射したときの結像光学系の射出瞳の形状を、枠1としての円601と枠2としての円701とによって表現する。この場合、円601の中心c1及び半径r1と、円701の中心c2及び半径r2とが開口情報となる。開口情報は、各像高に対して予め計算され、開口情報記憶部312内に記憶される。
First, the format of aperture information in this embodiment will be described.
Aperture information means the radii and centers of circles of frames 1 and 2 obtained when frame aperture information that determines the luminous flux passing through the interchangeable lens 300 is projected onto a predetermined pupil plane. For example, as shown in FIG. 9, the aperture information indicates the shape of the exit pupil of the imaging optical system when the frame aperture information is projected onto a predetermined pupil plane. It is represented by a circle 701 . In this case, the center c1 and radius r1 of the circle 601 and the center c2 and radius r2 of the circle 701 are aperture information. Aperture information is pre-calculated for each image height and stored in aperture information storage 312 .

ここでは、開口形状が枠1及び枠2の2枠で構成される場合を説明するが、開口形状は、これに限られず、例えば、3枠以上であってもよい。この場合、全ての枠情報が開口情報記憶部312内に記憶されるのが望ましい。但し、開口形状が3枠以上であっても、全ての枠情報を用意せずに、代表される一部の枠情報のみが開口情報記憶部312内に記憶されてもよい。 Here, the case where the opening shape is composed of two frames, frame 1 and frame 2, will be described, but the opening shape is not limited to this, and may be, for example, three or more frames. In this case, it is desirable that all frame information be stored in the opening information storage unit 312 . However, even if there are three or more aperture shapes, only representative part of the frame information may be stored in the aperture information storage unit 312 without preparing all the frame information.

また、開口情報は、F値に依存する。絞り以外の枠開口の影響を受けるのは、F値を開放側に設定した場合である。F値を小絞り側に設定した場合、光束は、絞りによって制限を受ける。このため、開口情報は、F値毎にテーブルを用意しておくのが望ましい。また、絞り以外の枠開口の情報と、F値に応じた絞りの枠開口の情報とを別々に用意し、これらを用いてF値に応じた開口情報を算出してもよい。 Also, the aperture information depends on the F-number. It is when the F-number is set to the open side that it is affected by the frame aperture other than the diaphragm. When the F-number is set to the small aperture side, the luminous flux is restricted by the aperture. Therefore, it is desirable to prepare a table of aperture information for each F-number. Alternatively, information on the frame aperture other than the diaphragm and information on the frame aperture of the diaphragm corresponding to the F-number may be prepared separately, and the aperture information corresponding to the F-number may be calculated using these.

以下の説明では、F値毎に開口情報テーブルが用意され、かつF値に応じて、複数の開口情報テーブルのうちから適切な開口情報テーブルが選択される場合を説明する。 In the following description, an aperture information table is prepared for each F-number, and an appropriate aperture information table is selected from a plurality of aperture information tables according to the F-number.

開口情報テーブルの例を図10(A)に示す。
ここでは、各像高に対して、枠1の半径r1、枠2の半径r2、枠1の中心c1、及び枠2の中心c2がそれぞれ記憶される。ここで、像高及び枠中心は、例えば、極座標系の動径成分によって定義される。極座標系の動径成分でテーブルを用意するのは、結像光学系が回転対称形である場合、角度依存がないため、データ容量を削減できるからである。また、像高0(mm)と像高5(mm)において、枠2の半径及び中心が空欄であるのは、枠1の1枠だけで光束が制限されるからである。
An example of the aperture information table is shown in FIG. 10(A).
Here, the radius r1 of frame 1, the radius r2 of frame 2, the center c1 of frame 1, and the center c2 of frame 2 are stored for each image height. Here, the image height and the frame center are defined, for example, by the radial component of the polar coordinate system. The reason why the table is prepared with the radial component of the polar coordinate system is that if the image forming optical system is rotationally symmetric, there is no angular dependence, so the data capacity can be reduced. The reason why the radius and the center of the frame 2 are blank at the image heights of 0 (mm) and 5 (mm) is that the luminous flux is restricted by only one frame of the frame 1 .

次に、敏感度情報について説明する。
図9に示すように、レンズ群駆動方式により水平方向に補正角αの像振れ補正を行い、結像光学系の射出瞳が円602、702のように変化し、円602の中心がΔc1だけ移動し、円702の中心がΔc2だけ移動した場合を考える。
Next, the sensitivity information will be explained.
As shown in FIG. 9, image blur correction is performed in the horizontal direction at a correction angle α by the lens group driving method, the exit pupils of the imaging optical system change as circles 602 and 702, and the center of the circle 602 is shifted by Δc1. Consider the case where the circle 702 moves and the center of the circle 702 moves by Δc2.

この場合、本実施形態では、枠1に対する敏感度S1は、S1=Δc1/αによって定義され、枠2に対する敏感度S2は、S2=Δc2/αによって定義される。但し、この定義は、一例であり、敏感度を他の方法で定義してもよい。即ち、敏感度は、上述のように、水平方向への補正角で定義してもよいし、極座標系の動径方向への補正角で定義してもよい。後者は、より一般的な定義である。 In this case, in this embodiment, the sensitivity S1 for frame 1 is defined by S1=Δc1/α, and the sensitivity S2 for frame 2 is defined by S2=Δc2/α. However, this definition is only an example, and the sensitivity may be defined by other methods. That is, the sensitivity may be defined by the correction angle in the horizontal direction, as described above, or by the correction angle in the radial direction of the polar coordinate system. The latter is the more general definition.

また、敏感度情報は、敏感度情報とレンズ群駆動方式による像振れ補正角とにより、開口情報記憶部312内に記憶された開口情報を、レンズ群駆動方式による像振れ補正を考慮した開口情報(修正された開口情報)に修正できれば、どのような形式でもよい。 Further, the sensitivity information is the aperture information stored in the aperture information storage unit 312 based on the sensitivity information and the image blur correction angle by the lens group driving method. Any format can be used as long as it can be corrected to (corrected aperture information).

敏感度情報テーブルの例を図10(B)に示す。
ここで、図10(A)の開口情報テーブルと同様に、像高及び敏感度を定義する補正角は、例えば、極座標系の動径成分によって定義される。
An example of the sensitivity information table is shown in FIG. 10(B).
Here, similarly to the aperture information table of FIG. 10A, the correction angle that defines the image height and sensitivity is defined by, for example, the radial component of the polar coordinate system.

撮像素子駆動方式とレンズ群駆動方式とを併用したハイブリッド方式での像振れ補正中においては、開口情報の修正は、後述する図15のフローチャートに従い行われる。即ち、開口情報修正部74は、換算係数記憶部76内に記憶されたデフォーカス換算係数テーブルを参照し、修正された開口情報を引数として、換算係数を取得する。焦点検出部としてのAF部54は、検出された位相差と換算係数とからデフォーカス量を求めることで、ハイブリッド方式による像振れ補正中であっても、高精度な焦点検出が可能となる。 Correction of the aperture information is performed according to the flowchart of FIG. 15, which will be described later, during image blur correction by the hybrid method using both the image sensor driving method and the lens group driving method. That is, the aperture information correction unit 74 refers to the defocus conversion factor table stored in the conversion factor storage unit 76 and acquires the conversion factor using the corrected aperture information as an argument. The AF unit 54 as a focus detection unit obtains the defocus amount from the detected phase difference and the conversion factor, thereby enabling highly accurate focus detection even during image blur correction by the hybrid method.

デフォーカス換算係数テーブルの例を図10(C)に示す。
後述するように、検出された位相差からデフォーカス量を求めるための換算係数は、枠1の中心座標(水平、垂直)、枠2の中心座標(水平、垂直)、枠1の半径、及び枠2の半径の合計6変数を引数として、デフォーカス換算係数テーブルから取得する。ここでは、一例として、6変数を用いて換算係数を取得するが、これに限られることはなく、種々の変更が可能である。
An example of the defocus conversion factor table is shown in FIG. 10(C).
As will be described later, the conversion coefficients for determining the defocus amount from the detected phase difference are the center coordinates (horizontal, vertical) of frame 1, the center coordinates (horizontal, vertical) of frame 2, the radius of frame 1, and A total of six variables of the radius of frame 2 are obtained from the defocus conversion factor table as arguments. Here, as an example, the conversion factor is obtained using six variables, but the invention is not limited to this, and various modifications are possible.

デフォーカス換算係数テーブルは、全ての交換レンズに対応できるように、即ち、どのような変数値からも換算係数を取得できるように、予め、複数のデフォーカス換算係数テーブルを備えるのが望ましい。また、1本の交換レンズに注目すれば、枠1及び枠2の半径の値は、ある程度限定されるため、交換レンズ毎に、デフォーカス換算係数テーブルを用意してもよい。この場合、全ての交換レンズに対応できるような対策を施しても、それによるデフォーカス換算係数テーブルの数の増加は抑えられるため、換算係数記憶部76のデータ容量の増大も防止される。 The defocus conversion factor table preferably includes a plurality of defocus conversion factor tables in advance so that all interchangeable lenses can be handled, that is, conversion factors can be obtained from any variable value. Also, focusing on one interchangeable lens, the values of the radii of the frames 1 and 2 are limited to some extent, so a defocus conversion coefficient table may be prepared for each interchangeable lens. In this case, even if measures are taken to support all interchangeable lenses, an increase in the number of defocus conversion factor tables is suppressed, and an increase in the data capacity of the conversion factor storage section 76 is also prevented.

尚、カメラ本体100に取り付けられた交換レンズ300の種類、及びカメラ本体100内の撮像素子14の入射瞳の特性にそれぞれ対応したデフォーカス換算係数テーブルは、ネットワーク又は記憶媒体を用いて、換算係数記憶部76内に読み込まれる。 The defocus conversion factor table corresponding to the type of the interchangeable lens 300 attached to the camera body 100 and the characteristics of the entrance pupil of the imaging device 14 in the camera body 100 can be obtained using a network or a storage medium. It is read into the storage unit 76 .

(像振れ補正動作)
図11は、像振れ補正の例を示すフローチャートである。
このフローチャートに基づき、カメラ本体100が行う像振れ補正の例を説明する。この例は、焦点検出部としてのAF部54が、ハイブリッド方式による像振れ補正を行っている最中に、開口情報修正部74により修正された開口情報に基づき焦点検出を行う例である。
(Image stabilization operation)
FIG. 11 is a flowchart showing an example of image blur correction.
An example of image blur correction performed by the camera body 100 will be described based on this flowchart. In this example, the AF section 54 as the focus detection section performs focus detection based on the aperture information corrected by the aperture information correction section 74 while performing image blur correction by the hybrid method.

まず、S501で、像振れ検出部70は、カメラ本体100の動きに基づき像振れを検出する。次に、S502で、システム制御部50の補正量配分部は、S501で検出された像振れに基づき、レンズ群駆動方式による第1の補正量と、撮像素子駆動方式による第2の補正量と、を決定する。このとき、当該補正量配分部は、交換レンズ300のズームの状態、焦点距離、像振れ補正機構の可動駆動量、像高など、を考慮した上で、第1の補正量と第2の補正量の配分割合を決定する。 First, in S<b>501 , the image blur detection unit 70 detects image blur based on the movement of the camera body 100 . Next, in S502, the correction amount distribution unit of the system control unit 50 selects the first correction amount by the lens group driving method and the second correction amount by the imaging device driving method based on the image blur detected in S501. , determine. At this time, the correction amount allocation unit considers the zoom state of the interchangeable lens 300, the focal length, the movable driving amount of the image blur correction mechanism, the image height, etc., and then determines the first correction amount and the second correction amount. Determine the allocation ratio of the quantity.

次に、S503及びS504で、ハイブリッド方式による像振れ補正を行う。この例では、S503で、撮像素子駆動方式による像振れ補正を行い、S504で、レンズ群駆動方式による像振れ補正を行うが、S503で、レンズ群駆動方式による像振れ補正を行い、S504で、撮像素子駆動方式による像振れ補正を行ってもよい。また、これら2つの像振れ補正は、同時に行ってもよい。 Next, in S503 and S504, image blur correction is performed by the hybrid method. In this example, in S503, image blur correction is performed by the image pickup device driving method, and in S504, image blur correction is performed by the lens group driving method. Image blur correction may be performed by an imaging device driving method. Also, these two image blur corrections may be performed at the same time.

S503で、撮像素子防振制御部72は、第2の補正量に基づき、撮像素子駆動機構15を用いて撮像素子14を駆動する。また、S504で、レンズ群防振制御部308は、第2の補正量に基づき、結像光学系303内に含まれる防振用レンズ群駆動機構を用いてレンズ群の一部を駆動する。 In S503, the image sensor stabilization control unit 72 drives the image sensor 14 using the image sensor driving mechanism 15 based on the second correction amount. In step S504, the lens group vibration reduction control unit 308 drives part of the lens group using the vibration reduction lens group drive mechanism included in the imaging optical system 303 based on the second correction amount.

次に、S505で、システム制御部50は、焦点検出開始の指示が入力されたか否かを判定する。焦点検出開始の指示が入力された場合、システム制御部50は、その旨をAF部54に伝え、本フローは、S506に進む。S506で、AF部54は、後述する手法(図12)を用いて、デフォーカス量を求め、焦点検出を行う。 Next, in S505, the system control unit 50 determines whether or not an instruction to start focus detection has been input. If an instruction to start focus detection has been input, the system control unit 50 notifies the AF unit 54 to that effect, and the flow proceeds to S506. In S506, the AF unit 54 obtains the defocus amount and performs focus detection using a method (FIG. 12) described later.

一方、焦点検出開始の指示が入力されない場合、本フローは、S506をスキップして、S507に進む。S507で、システム制御部50は、像振れ補正の終了指示が入力されたか否かを判定する。像振れ補正の終了指示が入力された場合、システム制御部50は、本フロー、即ち、像振れ補正を終了する。また、像振れ補正の終了指示が入力されない場合、本フローは、S501に戻る。 On the other hand, if the focus detection start instruction is not input, the flow skips S506 and proceeds to S507. In S507, the system control unit 50 determines whether or not an image blur correction end instruction has been input. When an image blur correction end instruction is input, the system control unit 50 ends this flow, that is, the image blur correction. If an instruction to end the image blur correction is not input, the flow returns to S501.

尚、S505において、システム制御部50は、焦点検出開始の有無に代えて、ライブビュー表示、動画記録など、の開始の有無に基づき、本フローを、S506に進めるか、又はS507に進めるか、を決定してもよい。 In S505, the system control unit 50 advances the flow to S506 or S507 based on whether live view display, video recording, or the like is started instead of whether focus detection is started. may be determined.

(像振れ補正中の焦点検出動作)
図12は、像振れ補正中の焦点検出の例を示すフローチャートである。
このフローチャートに基づき、像振れ補正中の焦点検出の例を説明する。このフローチャートは、図11のS506のサブルーチンに相当する。
(Focus detection operation during image stabilization)
FIG. 12 is a flowchart illustrating an example of focus detection during image blur correction.
An example of focus detection during image blur correction will be described based on this flowchart. This flowchart corresponds to the subroutine of S506 in FIG.

まず、S5061で、システム制御部50は、交換レンズ300の開口情報、フォーカスレンズ位置など、の各種レンズ情報を、インターフェース部43、313及びコネクタ42、302を介して、レンズシステム制御部309から取得する。 First, in S5061, the system control unit 50 acquires various lens information such as the aperture information of the interchangeable lens 300 and the focus lens position from the lens system control unit 309 via the interfaces 43 and 313 and the connectors 42 and 302. do.

次に、S5062で、システム制御部50は、逐次読み出されるフレーム画像データの、焦点検出領域内の画素データから、AF用の像信号対を生成するように画像処理部20に指示する。画像処理部20は、システム制御部50からの指示を受けると、AF用の像信号対を生成する。AF用の像信号対は、画素のカラーフィルタ種別(R,Gr,Gb,B)毎に生成される。AF用の像信号対は、システム制御部50を介してAF部54に供給される。 Next, in S5062, the system control unit 50 instructs the image processing unit 20 to generate an image signal pair for AF from the pixel data within the focus detection area of the frame image data read out sequentially. Upon receiving an instruction from the system control unit 50, the image processing unit 20 generates an image signal pair for AF. An image signal pair for AF is generated for each color filter type (R, Gr, Gb, B) of a pixel. The AF image signal pair is supplied to the AF section 54 via the system control section 50 .

AF部54は、AF用の像信号対に対して信号レベルの差を補正する処理などを行う。また、AF部54は、AF用の各像信号のピーク値(最大値)及びボトム値(最小値)を検出する。 The AF unit 54 performs processing such as correcting a difference in signal level for the image signal pair for AF. The AF unit 54 also detects the peak value (maximum value) and bottom value (minimum value) of each image signal for AF.

S5062における焦点検出領域の例を図13に示す。
図13は、撮影範囲と焦点検出領域の例である。同図において、800は、撮影範囲を示し、801及び802は、撮影範囲800内に設定された焦点検出領域を示す。
FIG. 13 shows an example of the focus detection area in S5062.
FIG. 13 is an example of the shooting range and focus detection area. In FIG. 8, 800 indicates an imaging range, and 801 and 802 indicate focus detection areas set within the imaging range 800 .

焦点検出領域801は、撮影光学系の光軸と撮像素子との交点、及び焦点検出領域の中心が一致する、いわゆる中央像高に設定された焦点検出領域である。一方で、焦点検出領域802は、焦点検出領域の中心が、撮影光学系の光軸と撮像素子との交点から離れている、いわゆる周辺像高に設定された焦点検出領域である。 A focus detection area 801 is a focus detection area set at a so-called central image height where the intersection of the optical axis of the imaging optical system and the image pickup element coincides with the center of the focus detection area. On the other hand, the focus detection area 802 is a focus detection area set at a so-called peripheral image height, in which the center of the focus detection area is away from the intersection of the optical axis of the imaging optical system and the image sensor.

撮像素子の画素からの信号を用いて焦点検出を行う場合、コントラスト検出方式及び位相差検出方式のいずれを用いる場合においても、焦点検出領域801、802に対応する撮像素子の画素からの信号を用いて焦点検出を行う。即ち、焦点検出領域801、802は、撮像素子そのものに設定されると言うこともできる。 When focus detection is performed using signals from the pixels of the image sensor, signals from the pixels of the image sensor corresponding to the focus detection areas 801 and 802 are used in both the contrast detection method and the phase difference detection method. focus detection. That is, it can be said that the focus detection areas 801 and 802 are set in the image sensor itself.

従って、以下では、説明及び理解を容易にするため、焦点検出領域801、802を撮像素子の画素領域として説明する。また、焦点検出領域801、802は、4行2N列の画素アレイを備え、かつ画素アレイ内の各画素は、図2(A)に示す構造を有するものとする。 Therefore, in order to facilitate explanation and understanding, the focus detection areas 801 and 802 will be described below as pixel areas of the image sensor. Also, the focus detection areas 801 and 802 are provided with a pixel array of 4 rows and 2N columns, and each pixel in the pixel array has the structure shown in FIG. 2(A).

尚、これは、単なる例示であり、焦点検出領域の数及び大きさ、並びに焦点検出領域内に含まれる画素数については、位相差AFにおける位相差の検出に支障がない範囲で、適宜、定めることができる。 Note that this is merely an example, and the number and size of the focus detection areas and the number of pixels included in the focus detection areas are appropriately determined within a range that does not interfere with phase difference detection in phase difference AF. be able to.

図14は、焦点検出領域内の画素の例を示す。
焦点検出領域801、802は、それぞれ、4行2N列の複数の画素を有する画素アレイを備える。本実施形態では、i行j列のAF用A像の信号を作成するために用いられる画素(フォトダイオード201a)及びその出力をA(i,j)と表す。同様に、i行j列のAF用B像の信号を作成するために用いられる画素(フォトダイオード201b)及びその出力をB(i,j)と表す。
FIG. 14 shows an example of pixels within the focus detection area.
The focus detection areas 801 and 802 each comprise a pixel array having a plurality of pixels of 4 rows and 2N columns. In the present embodiment, the pixel (photodiode 201a) used to generate the signal of the AF A image in row i and column j and its output are denoted by A(i, j). Similarly, the pixel (photodiode 201b) used to generate the signal of the B image for AF in row i and column j and its output are represented by B(i, j).

同図では、1行目と3行目は、赤(R)と緑(Gr)のカラーフィルタを有する画素が交互に配置され、2行目と4行目は、緑(Gb)と青(B)のカラーフィルタを有する画素が交互に配置される。赤(R)の左右方向の隣に配置された緑の画素をGrと表記し、青(B)の左右方向の隣に配置された緑の画素をGbと表記する。 In the figure, pixels having red (R) and green (Gr) color filters are alternately arranged in the first and third rows, and green (Gb) and blue (Gr) pixels are arranged in the second and fourth rows. The pixels having the color filters of B) are alternately arranged. A green pixel arranged horizontally next to red (R) is denoted as Gr, and a green pixel arranged horizontally next to blue (B) is denoted as Gb.

画像処理部20は、画素のカラーフィルタ種別(R,Gr,Gb,B)毎に構成されるAF用の像信号対を、フィルタ処理、加算処理などにより、色毎の特性を有さないY信号に加工する。これにより、AF用の像信号対の情報量が減るため、以後の処理の演算量は、大幅に低減される。本実施形態では、焦点検出領域801、802は、4行2N列の画素アレイを備えるが、上記Y信号は、当該画素アレイの水平方向及び垂直方向の2画素がそれぞれ加算された2行N列の信号として圧縮される。 The image processing unit 20 converts AF image signal pairs configured for each color filter type (R, Gr, Gb, B) of a pixel into a Y image signal pair that does not have characteristics for each color by filter processing, addition processing, or the like. processed into a signal. As a result, the information amount of the image signal pair for AF is reduced, so that the amount of computation for subsequent processing is greatly reduced. In this embodiment, the focus detection areas 801 and 802 have a pixel array of 4 rows and 2N columns. is compressed as a signal of

図12のフローの説明に戻る。
S5063で、開口情報修正部74は、開口情報記憶部312内に記憶された開口情報を参照し、かつレンズ群駆動方式による第1の補正量と、撮像素子駆動方式による第2の補正量と、敏感度情報と、に基づき、当該開口情報を修正する。開口情報の修正については、S5063のサブルーチンである図15のフローチャートにおいて詳しく述べる。
Returning to the description of the flow in FIG.
In S5063, the aperture information correction unit 74 refers to the aperture information stored in the aperture information storage unit 312, and calculates the first correction amount by the lens group driving method and the second correction amount by the imaging device driving method. , the sensitivity information, and the aperture information is modified. Correction of aperture information will be described in detail in the flowchart of FIG. 15, which is a subroutine of S5063.

次に、S5064で、システム制御部50は、S5063で修正された開口情報に基づき像振れ補正中のデフォーカス換算係数を取得する。例えば、システム制御部50は、換算係数記憶部76内に記憶されたデフォーカス換算係数テーブルを参照し、S5063で修正された開口情報を引数として、像振れ補正中のデフォーカス換算係数を取得する。 Next, in S5064, the system control unit 50 acquires a defocus conversion factor during image blur correction based on the aperture information corrected in S5063. For example, the system control unit 50 refers to the defocus conversion factor table stored in the conversion factor storage unit 76, and acquires the defocus conversion factor during image blur correction using the aperture information corrected in S5063 as an argument. .

次に、S5065で、焦点検出手段としてのAF部54は、A像とB像について相関量COR(k)を算出し、相関量COR(k)を最小にするシフト量kを像ずれ量(位相差)として検出する。そして、AF部54は、検出した像ずれ量とデフォーカス換算係数とを用いて、デフォーカス量を求める。この処理の詳細は、後述する。AF部54は、デフォーカス量をシステム制御部50に出力する。 Next, in S5065, the AF unit 54 as the focus detection means calculates the correlation amount COR(k) for the A image and the B image, and calculates the shift amount k that minimizes the correlation amount COR(k) as the image shift amount ( phase difference). Then, the AF unit 54 uses the detected image shift amount and the defocus conversion coefficient to obtain the defocus amount. The details of this processing will be described later. The AF section 54 outputs the defocus amount to the system control section 50 .

次に、S5066で、システム制御部50は、AF部54からのデフォーカス量に基づき、交換レンズ300のフォーカスレンズ駆動量及び駆動方向を決定する。 Next, in S<b>5066 , the system control unit 50 determines the focus lens drive amount and drive direction of the interchangeable lens 300 based on the defocus amount from the AF unit 54 .

次に、S5067で、システム制御部50は、インターフェース部43、313、及びコネクタ42、302を介して、フォーカスレンズ駆動量及び駆動方向の情報を交換レンズ300のレンズシステム制御部309に送信する。レンズシステム制御部309は、フォーカスレンズ駆動量及び駆動方向の情報をフォーカス制御部307に送信する。フォーカス制御部307は、フォーカスレンズ駆動量及び駆動方向の情報に基づき、フォーカスフォーカスレンズを駆動する。これにより、交換レンズ300の焦点調節が行われる。フォーカスレンズ駆動量及び駆動方向の情報は、システム制御部50からフォーカス制御部307に直接送信されてもよい。 Next, in S5067, the system control unit 50 transmits information on the focus lens driving amount and driving direction to the lens system control unit 309 of the interchangeable lens 300 via the interfaces 43 and 313 and the connectors 42 and 302. The lens system control unit 309 transmits information on the focus lens driving amount and driving direction to the focus control unit 307 . A focus control unit 307 drives the focus lens based on information on the focus lens driving amount and driving direction. Thereby, the focus adjustment of the interchangeable lens 300 is performed. Information on the focus lens driving amount and driving direction may be directly transmitted from the system control unit 50 to the focus control unit 307 .

尚、システム制御部50は、修正された開口情報に基づき、光量/画像補正を行う光量/画像補正部を備えていてもよい。当該光量/画像補正部は、図11及び図12のフローを実行している最中に、開口情報修正部74からの修正された開口情報に基づき、光量調整、画像補正(シェーディング補正)などを行う。 The system control unit 50 may include a light amount/image correction unit that performs light amount/image correction based on the corrected opening information. The light amount/image correction unit performs light amount adjustment, image correction (shading correction), etc. based on the corrected aperture information from the aperture information correction unit 74 while the flow of FIGS. 11 and 12 is being executed. conduct.

(開口情報の修正方法)
図15は、像振れ補正中の開口情報の修正の例を示すフローチャートである。
このフローチャートに基づき、像振れ補正中の開口情報の修正の例を説明する。このフローチャートは、図12のS5063のサブルーチンに相当する。
(Method for correcting opening information)
FIG. 15 is a flowchart showing an example of correction of aperture information during image blur correction.
Based on this flowchart, an example of correction of aperture information during image blur correction will be described. This flowchart corresponds to the subroutine of S5063 in FIG.

まず、S6301~S6304で、開口情報修正部74は、撮像素子駆動方式による像振れ補正で生じた像高変化分の修正を行う。ここでの像高変化は、カメラ本体100に固定したX軸(水平方向)とY軸(垂直方向)とを基準として考える。撮像素子上の測距エリアの位置は、変化しないが、撮像素子が駆動されることにより、測距エリアのX座標及びY座標は、変化する。 First, in S6301 to S6304, the aperture information correction unit 74 corrects image height changes caused by image blur correction by the imaging device driving method. Here, the change in image height is considered based on the X-axis (horizontal direction) and Y-axis (vertical direction) fixed to the camera body 100 . Although the position of the distance measurement area on the image sensor does not change, the X coordinate and the Y coordinate of the distance measurement area change as the image sensor is driven.

S6301で、開口情報修正部74は、撮像素子防振制御部72から、撮像素子駆動方式による水平方向の補正角θhi、及び垂直方向の補正角θviを取得する。ここでの補正角は、図11のS502で配分された第2の補正量(補正角)ではなく、それまでの制御により累積された補正角を表す。 In S<b>6301 , the aperture information correction unit 74 acquires the horizontal correction angle θhi and the vertical correction angle θvi based on the image pickup device driving method from the image pickup device anti-vibration control unit 72 . The correction angle here does not represent the second correction amount (correction angle) distributed in S502 of FIG. 11, but represents the correction angle accumulated by the control up to that point.

S6302で、開口情報修正部74は、取得した補正角θhi及びθviに基づき、測距エリアの水平方向の像高変化量Δhiと、垂直方向の像高変化量Δviを算出する。このとき、像高変化量Δhi及びΔviは、撮像レンズ300の焦点距離fを用いて、Δhi=f×θhi、Δvi=f×θviによって算出される。また、像高変化量Δhi及びΔviは、撮像素子防振制御部72による並進移動量に相当するため、第2の補正量(補正角)から計算することなく、並進移動量として取得してもよい。 In S6302, the aperture information correction unit 74 calculates the horizontal image height change amount Δhi and the vertical image height change amount Δvi of the distance measurement area based on the acquired correction angles θhi and θvi. At this time, the image height change amounts Δhi and Δvi are calculated using the focal length f of the imaging lens 300 by Δhi=f×θhi and Δvi=f×θvi. In addition, since the image height change amounts Δhi and Δvi correspond to translational movement amounts by the image pickup device anti-vibration control unit 72, they can be acquired as translational movement amounts without being calculated from the second correction amount (correction angle). good.

S6303で、開口情報修正部74は、撮像素子駆動方式による像振れ補正を行わない場合の測距エリアの水平像高h及び垂直像高vを、当該像振れ補正を行う場合に発生する像高変化を考慮した水平像高h+Δhi及び垂直像高v+Δviに修正する。 In S6303, the aperture information correction unit 74 replaces the horizontal image height h and vertical image height v of the distance measurement area when image blur correction is not performed by the image sensor driving method with the image height generated when the image blur correction is performed. The horizontal image height h+Δhi and the vertical image height v+Δvi are corrected in consideration of the change.

S6304で、開口情報修正部74は、開口情報記憶部312内に記憶された開口情報テーブルを参照し、S6303で修正された水平像高h+Δhi及び垂直像高v+Δviを引数として開口情報を取得する。この開口情報は、撮像素子駆動方式による撮像素子の駆動量を考慮した開口情報、即ち、像振れ補正で当該撮像素子が駆動された後の測距エリアから見た開口情報に相当する。このとき取得された枠1の中心位置の水平座標をcx1とし、垂直座標をcy1とし、半径をr1とする。また、このとき取得された枠2の中心位置の水平座標をcx2とし、垂直座標をcy2とし、半径をr2とする。 In S6304, the aperture information correction unit 74 refers to the aperture information table stored in the aperture information storage unit 312, and acquires aperture information using the horizontal image height h+Δhi and vertical image height v+Δvi corrected in S6303 as arguments. This aperture information corresponds to aperture information in consideration of the driving amount of the imaging device by the imaging device driving method, that is, aperture information viewed from the range-finding area after the imaging device is driven for image blur correction. Let cx1 be the horizontal coordinate, cy1 be the vertical coordinate, and r1 be the radius of the acquired center position of frame 1 at this time. The horizontal coordinate of the center position of frame 2 obtained at this time is cx2, the vertical coordinate is cy2, and the radius is r2.

次に、S6305~S6308で、開口情報修正部74は、レンズ群駆動方式による像振れ補正で生じた開口情報の変化分を修正する。 Next, in S6305 to S6308, the aperture information correction unit 74 corrects changes in the aperture information caused by image blur correction by the lens group driving method.

S6305で、開口情報修正部74は、敏感度情報記憶部311から敏感度情報を取得する。敏感度情報は、例えば、像高毎に、敏感度情報記憶部311内に記憶される。ここでは、開口情報修正部74は、撮像素子駆動方式による撮像素子の駆動量を考慮した水平像高h+Δhi及び垂直像高v+Δviを引数として、敏感度情報を読み出す。このとき得られた枠1の敏感度をS1とし、枠2の敏感度をS2とする。 In S<b>6305 , the opening information correction unit 74 acquires sensitivity information from the sensitivity information storage unit 311 . The sensitivity information is stored in the sensitivity information storage unit 311 for each image height, for example. Here, the aperture information correction unit 74 reads the sensitivity information using as arguments the horizontal image height h+Δhi and the vertical image height v+Δvi in consideration of the driving amount of the imaging device by the imaging device driving method. The sensitivity of frame 1 obtained at this time is set to S1, and the sensitivity of frame 2 is set to S2.

S6306で、開口情報修正部74は、レンズ群防振制御308から、レンズ群駆動方式による水平方向の補正角θhl、及び垂直方向の補正角θvlを取得する。ここでの補正角は、図11のS502で配分された第1の補正量(補正角)ではなく、それまでの制御で累積された補正角を表す。 In S<b>6306 , the aperture information correction unit 74 acquires the horizontal correction angle θhl and the vertical correction angle θvl by the lens group driving method from the lens group stabilization control 308 . The correction angle here represents not the first correction amount (correction angle) distributed in S502 of FIG. 11, but the correction angle accumulated in the control up to that point.

S6307で、開口情報修正部74は、S6304及びS6305でそれぞれ取得した開口情報及び敏感度情報に基づき、レンズ群駆動方式による像振れ補正で生じた開口情報の変化量を算出する。ここで求める変化量は、枠1の中心位置の水平方向の変化量Δcx1、枠1の中心位置の垂直方向の変化量Δcy1、枠2の中心位置の水平方向の変化量Δcx2、及び枠2の中心位置の垂直方向の変化量Δcy2である。 In S6307, the aperture information correction unit 74 calculates the amount of change in aperture information caused by image blur correction by the lens group driving method, based on the aperture information and sensitivity information acquired in S6304 and S6305, respectively. The amount of change obtained here is the amount of horizontal change Δcx1 of the center position of frame 1, the amount of vertical change Δcy1 of the center position of frame 1, the amount of horizontal change Δcx2 of the center position of frame 2, and the amount of change Δcx2 in the horizontal direction of the center position of frame 2. This is the amount of change Δcy2 in the vertical direction of the center position.

枠1の中心位置の水平方向の変化量は、Δcx1=S1×θhlにより算出され、枠1の中心位置の垂直方向の変化量は、Δcy1=S1×θvlにより算出される。また、枠2の中心位置の水平方向の変化量は、Δcx2=S2×θhlにより算出され、枠2の中心位置の垂直方向の変化量は、Δcy2=S2×θvlにより算出される。図9の説明では、水平方向のみを考慮したが、ここでは、水平方向と垂直方向の双方を考慮する。また、敏感度S1、S2は、水平方向及び垂直方向について共通の値を用いる。 The amount of change in the horizontal direction of the center position of frame 1 is calculated by Δcx1=S1×θhl, and the amount of change in the vertical direction of the center position of frame 1 is calculated by Δcy1=S1×θvl. The amount of change in the horizontal direction of the center position of frame 2 is calculated by Δcx2=S2×θhl, and the amount of change in the vertical direction of the center position of frame 2 is calculated by Δcy2=S2×θvl. Although only the horizontal direction was considered in the description of FIG. 9, both horizontal and vertical directions are considered here. Also, the sensitivities S1 and S2 use common values for the horizontal and vertical directions.

S6308で、開口情報修正部74は、防振用レンズ群の駆動後の開口情報を次のように修正する。即ち、開口情報修正部74は、枠1の中心位置の水平座標をcx1+Δcx1に修正し、枠1の中心位置の垂直座標をcy1+Δcy1に修正し、半径をr1に修正する。また、開口情報修正部74は、枠2の中心位置の水平座標をcx2+Δcx2に修正し、枠2の中心位置の垂直座標をcy2+Δcy2に修正し、半径をr2に修正する。 In S6308, the aperture information correction unit 74 corrects the aperture information after driving the anti-vibration lens group as follows. That is, the aperture information correction unit 74 corrects the horizontal coordinate of the center position of frame 1 to cx1+Δcx1, the vertical coordinate of the center position of frame 1 to cy1+Δcy1, and the radius to r1. The opening information correction unit 74 also corrects the horizontal coordinates of the center position of frame 2 to cx2+Δcx2, the vertical coordinates of the center position of frame 2 to cy2+Δcy2, and the radius to r2.

最後に、S6309~S6310で、開口情報修正部74は、図7で説明した、撮像素子駆動方式による撮像素子の入射瞳に対する結像光学系の射出瞳の移動量を修正する。 Finally, in S6309 to S6310, the aperture information correction unit 74 corrects the amount of movement of the exit pupil of the imaging optical system with respect to the entrance pupil of the image pickup device according to the image pickup device driving method described with reference to FIG.

S6309で、開口情報修正部74は、S6302と同様に、水平方向の結像光学系の射出瞳の移動量をΔhiとし、垂直方向の結像光学系の射出瞳の移動量をΔviとする。続けて、S6310で、開口情報修正部74は、撮像素子駆動方式及びレンズ群駆動方式による像振れ補正時の枠1の中心位置の水平座標をcx1+Δcx1-Δhiに修正し、垂直座標をcy1+Δcy1-Δviに修正し、半径をr1に修正する。また、開口情報修正部74は、当該像振れ補正時の枠2の中心位置の水平座標をcx2+Δcx2-Δhiに修正し、垂直座標をcy2+Δcy2-Δviに修正し、半径をr2に修正する。 In S6309, similarly to S6302, the aperture information correction unit 74 sets the amount of movement of the exit pupil of the imaging optical system in the horizontal direction to Δhi, and sets the amount of movement of the exit pupil of the imaging optical system in the vertical direction to Δvi. Subsequently, in S6310, the aperture information correction unit 74 corrects the horizontal coordinates of the center position of the frame 1 during image blur correction by the imaging element driving method and the lens group driving method to cx1+Δcx1−Δhi, and corrects the vertical coordinates to cy1+Δcy1−Δvi. and the radius to r1. Further, the aperture information correction unit 74 corrects the horizontal coordinate of the center position of the frame 2 during image shake correction to cx2+Δcx2−Δhi, the vertical coordinate to cy2+Δcy2−Δvi, and the radius to r2.

本実施形態では、換算係数記憶部76からデフォーカス換算係数を読み出すときの引数として、枠1の中心座標(水平、垂直)、枠2の中心座標(水平、垂直)、枠1の半径、及び枠2の半径の合計6変数を引数とした。しかし、焦点検出精度の高精度化よりもデータ容量の削減を優先する場合、枠1と枠2の中心が同じ角度座標にあると近似して、極座標系を用いてもよい。このとき、デフォーカス換算係数を取得するための引数は、枠1の中心の動径座標、枠2の中心の動径座標、枠1の角度座標(=枠2の角度座標)、枠1の半径、及び枠2の半径の合計5変数となり、データ容量が削減される。 In the present embodiment, as arguments when reading the defocus conversion coefficient from the conversion coefficient storage unit 76, the center coordinates (horizontal, vertical) of frame 1, the center coordinates (horizontal, vertical) of frame 2, the radius of frame 1, and A total of 6 variables for the radius of frame 2 were used as arguments. However, if priority is given to reducing the data volume rather than increasing focus detection accuracy, a polar coordinate system may be used by approximating that the centers of frames 1 and 2 are on the same angular coordinates. At this time, the arguments for acquiring the defocus conversion coefficient are the radial coordinates of the center of frame 1, the radial coordinates of the center of frame 2, the angular coordinates of frame 1 (= angular coordinates of frame 2), the There are five variables in total, the radius and the radius of the frame 2, and the data capacity is reduced.

この近似方法を用いる場合、換算係数記憶部76内に記憶されるデフォーカス換算係数テーブルは、上記5変数を引数とするテーブルに書き換えられる。この場合、システム制御部50又はAF部54は、S6310で、開口情報修正部74から修正された開口情報を取得した後、当該修正された開口情報について、直行座標系から極座標系への変換を行う。 When using this approximation method, the defocus conversion factor table stored in the conversion factor storage unit 76 is rewritten into a table having the five variables as arguments. In this case, the system control unit 50 or the AF unit 54 acquires the corrected aperture information from the aperture information correcting unit 74 in S6310, and then converts the corrected aperture information from the orthogonal coordinate system to the polar coordinate system. conduct.

また、S6310で、修正された開口情報の枠1の中心の角度座標と、枠2の中心の角度座標とは、一般的に異なる。この場合、AF部54は、デフォーカス換算係数に寄与度が大きい枠の角度座標を用いて、換算係数記憶部76からデフォーカス換算係数を読み出す。寄与度の大きい枠を選択する方法の一例としては、2枠に囲まれる領域を2枠の交点を結ぶ直線で分割した後、結果的に面積が大きくなるほうの領域を囲う枠を寄与度の大きい枠として選択する方法がある。 Also, in S6310, the angular coordinates of the center of frame 1 and the angular coordinates of the center of frame 2 of the modified aperture information are generally different. In this case, the AF unit 54 reads the defocus conversion factor from the conversion factor storage unit 76 using the angular coordinates of the frame that contributes greatly to the defocus conversion factor. As an example of a method of selecting a frame with a large degree of contribution, after dividing a region surrounded by two frames by a straight line connecting the intersection of the two frames, a frame surrounding the region with a larger area as a result is assigned a degree of contribution. There is a way to select as a large frame.

(デフォーカス量の算出処理)
図16は、デフォーカス量の算出の例を示すフローチャートである。
このフローチャートに基づき、デフォーカス量の算出の例を説明する。このフローチャートは、図12のS5065のサブルーチンに相当する。
(Defocus amount calculation processing)
FIG. 16 is a flowchart showing an example of defocus amount calculation.
An example of defocus amount calculation will be described based on this flowchart. This flowchart corresponds to the subroutine of S5065 in FIG.

まず、S6501で、AF部54は、焦点検出領域内の複数の行から、演算対象となる行を選択し、相関演算を行う。本実施形態では、S5062で、焦点検出領域内の圧縮された上記2行N列の信号のうちの1行目を選択する。 First, in S6501, the AF unit 54 selects a row to be a calculation target from a plurality of rows in the focus detection area, and performs correlation calculation. In this embodiment, in S5062, the first row of the compressed signals of 2 rows and N columns in the focus detection area is selected.

位相差AFによる焦点検出では、同じ被写体に対応した一対の信号列(像)を生成し、一対の信号列(像)の位相差(ずれ量)を検出し、当該位相差をデフォーカス量及び方向に変換する。所定方向(例えば、水平方向)に存在する複数の画素200のフォトダイオード201aから得られるA信号に基づく信号列(A像)と、フォトダイオード201bから得られるB信号に基づく信号列(B像)とは、同じ被写体を違う視点からみた像に相当する。従って、A像とB像の位相差を検出し、当該位相差をデフォーカス量及び方向に変換することで、位相差AFによる焦点検出が実現できる。 In focus detection by phase difference AF, a pair of signal trains (images) corresponding to the same object are generated, the phase difference (shift amount) between the pair of signal trains (images) is detected, and the phase difference is used as a defocus amount and Convert to direction. A signal train (A image) based on the A signals obtained from the photodiodes 201a of the plurality of pixels 200 existing in a predetermined direction (for example, horizontal direction) and a signal train (B image) based on the B signals obtained from the photodiodes 201b. corresponds to images of the same object viewed from different viewpoints. Therefore, by detecting the phase difference between the A image and the B image and converting the phase difference into the defocus amount and direction, focus detection by phase difference AF can be realized.

そして、所定方向におけるA像とB像との相対距離(シフト量)を変更しながら、個々の位置においてA像とB像との相関を表す値(相関量)を算出し、相関が最も高くなるシフト量を、A像とB像との位相差として検出することができる。相関量は、例えば、対応信号値の差分累積値であるが、それ以外の値でもよい。 Then, while changing the relative distance (shift amount) between the A image and the B image in a predetermined direction, a value (correlation amount) representing the correlation between the A image and the B image is calculated at each position, and the correlation is the highest. can be detected as a phase difference between the A image and the B image. The correlation amount is, for example, the accumulated difference value of the corresponding signal values, but may be other values.

例えば、A像としてA(1,1)~A(1,N)を生成し、B像としてB(1,1)~B(1,N)を生成し、シフト量kを画素単位で-kmax≦k≦kmaxの範囲で変化させるとする。この場合、個々の相対位置における相関量COR(k)は、以下のように算出できる。 For example, A (1, 1) to A (1, N) are generated as A images, B (1, 1) to B (1, N) are generated as B images, and the shift amount k is - Suppose that it is changed in the range of kmax≦k≦kmax. In this case, the correlation amount COR(k) at each relative position can be calculated as follows.

Figure 0007130473000001
但し、-kmax≦k≦kmaxである。
このように、S6501では、AF部54は、選択された行のA像とB像の信号から、相関量CORを算出する。
Figure 0007130473000001
However, -kmax≤k≤kmax.
Thus, in S6501, the AF unit 54 calculates the correlation amount COR from the signals of the A image and the B image in the selected row.

次に、S6502で、AF部54は、相関量の行加算の判定を行う。焦点検出領域内に相関演算を行う複数の行が存在する場合、AF部54は、相関量の加算を行う。但し、相関演算を行う行によっては、飽和などにより、信頼性の高い焦点検出結果が得られない行も存在する。このため、S6502で、AF部54は、S6501の結果に基づき、相関量の行加算を行うか否かの判定を行う。即ち、AF部54は、S6501で演算した相関量の信頼性が高いと判断される行については、行加算を行う。 Next, in S6502, the AF unit 54 determines row addition of correlation amounts. When there are a plurality of rows for which correlation calculation is to be performed within the focus detection area, the AF section 54 adds the correlation amount. However, depending on the rows on which the correlation calculation is performed, there are rows in which highly reliable focus detection results cannot be obtained due to saturation or the like. Therefore, in S6502, the AF unit 54 determines whether or not to perform row addition of correlation amounts based on the result of S6501. That is, the AF unit 54 performs row addition for rows for which the reliability of the correlation amount calculated in S6501 is determined to be high.

次に、S6503で、AF部54は、S6502の結果に基づき、実際に、行加算を行うか否かを決める。行加算を行う場合、本フローは、S6504に進む。S6504で、AF部54は、既に得ている相関量の加算結果に対して、さらに、S6501で得られた相関量を加算する。一方、行加算を行わない場合、本フローは、S6504をスキップして、S6505に進む。 Next, in S6503, the AF unit 54 determines whether or not to actually perform row addition based on the result of S6502. If row addition is to be performed, the flow advances to S6504. In S6504, the AF unit 54 further adds the correlation amount obtained in S6501 to the already obtained addition result of the correlation amount. On the other hand, if row addition is not to be performed, the flow skips S6504 and advances to S6505.

次に、S6505で、AF部54は、焦点検出領域内の全行について、相関演算を行ったか否かを判定する。全行の相関演算を終えてない場合、本フローは、S6501に戻り、再び、S6501~S6504の処理を行う。全行の相関演算を終えた場合、本フローは、S6506に進む。 Next, in S6505, the AF unit 54 determines whether or not the correlation calculation has been performed for all rows within the focus detection area. If the correlation calculations for all rows have not been completed, the flow returns to S6501 and performs the processing of S6501 to S6504 again. If correlation calculations for all rows have been completed, the flow advances to S6506.

次に、S6506で、AF部54は、デフォーカス量の算出を行う。
まず、AF部54は、全行の相関演算により得られたCOR(k)を最小にするシフト量kの値を求める。ここで、上記式(1)で算出するシフト量kは、整数であるが、分解能を向上させるため、最終的に求めるシフト量kは、実数とする。
Next, in S6506, the AF unit 54 calculates the defocus amount.
First, the AF unit 54 obtains the value of the shift amount k that minimizes the COR(k) obtained by the correlation calculation for all rows. Here, the shift amount k calculated by the above formula (1) is an integer, but in order to improve the resolution, the shift amount k finally obtained is a real number.

例えば、上記式(1)から得られる最小値がCOR(a)の場合、AF部54は、COR(a-1)、COR(a)、及びCOR(a+1)からの補間演算などにより、この区間での相関量を最小にする実数値のシフト量を求める。 For example, when the minimum value obtained from the above formula (1) is COR(a), the AF unit 54 calculates this Find the real-value shift amount that minimizes the amount of correlation in the interval.

次に、AF部54は、相関量CORの差分値の符号が変化するシフト量dkを、相関量COR1(k)が最小となるシフト量kとして算出する。
AF部54は、相関量の差分値DCORを式(2)に従って算出する。

Figure 0007130473000002
Next, the AF unit 54 calculates the shift amount dk at which the sign of the difference value of the correlation amount COR changes as the shift amount k that minimizes the correlation amount COR1(k).
The AF unit 54 calculates the correlation amount difference value DCOR according to the equation (2).
Figure 0007130473000002

そして、AF部54は、相関量の差分値DCORを用いて、差分量の符号が変化するシフト量dkを求める。差分量の符号が変化する直前のkの値をk1とし、符号が変化したkの値をk2(k2=k1+1)とすると、AF部54は、シフト量dkを式(3)に従って算出する。

Figure 0007130473000003
Then, the AF unit 54 uses the correlation amount difference value DCOR to obtain the shift amount dk by which the sign of the difference amount changes. Assuming that the value of k immediately before the sign of the difference amount changes is k1 and the value of k after the sign change is k2 (k2=k1+1), the AF unit 54 calculates the shift amount dk according to equation (3).
Figure 0007130473000003

以上のようにして、AF部54は、A像とB像の相関量が最大となるシフト量dkをサブピクセル単位で算出する。尚、2つの1次元像信号の位相差を算出する方法は、ここで説明したものに限らず、公知の任意の方法を用いることができる。 As described above, the AF unit 54 calculates the shift amount dk that maximizes the amount of correlation between the A image and the B image in units of sub-pixels. Note that the method for calculating the phase difference between two one-dimensional image signals is not limited to the method described here, and any known method can be used.

最後に、AF部54は、シフト量dkに、S5064で取得したデフォーカス換算係数を乗じて、デフォーカス量Defを求める。
AF部54によるデフォーカス量の算出が完了すると、本フロー、即ち、デフォーカス量の算出のサブルーチン(S5065)は、終了する。
Finally, the AF unit 54 multiplies the shift amount dk by the defocus conversion coefficient obtained in S5064 to obtain the defocus amount Def.
When the calculation of the defocus amount by the AF unit 54 is completed, this flow, that is, the subroutine for calculating the defocus amount (S5065) ends.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device executes the program. But it is feasible. The invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

(むすび)
以上、本発明によれば、ハイブリット方式による像振れ補正を考慮した修正された開口情報から焦点検出のための変換係数を取得し、当該変換係数を用いて位相差からデフォーカス量を求めることで、高精度な焦点検出を可能とする撮像装置を実現できる。
(Conclusion)
As described above, according to the present invention, a conversion coefficient for focus detection is obtained from aperture information corrected in consideration of image blur correction by a hybrid method, and a defocus amount is obtained from a phase difference using the conversion coefficient. , it is possible to realize an imaging device capable of highly accurate focus detection.

即ち、本発明では、結像光学系の開口情報は、レンズ群駆動方式による第1の補正量、撮像素子駆動方式による第2の補正量、さらには、敏感度情報に基づき、修正される。また、焦点検出のための変換係数は、変換係数テーブルに基づき、修正された開口情報から取得される。このように、焦点検出のための変換係数は、ハイブリッド方式による像振れ補正を考慮した高精度な変換係数となっている。従って、当該変換係数を用いて、位相差からデフォーカス量を求めることで、ハイブリット方式による像振れ補正を行った場合でも、高精度な焦点検出が可能となる。 That is, in the present invention, the aperture information of the imaging optical system is corrected based on the first correction amount by the lens group driving method, the second correction amount by the imaging device driving method, and the sensitivity information. Also, conversion coefficients for focus detection are obtained from corrected aperture information based on a conversion coefficient table. In this manner, the conversion coefficients for focus detection are highly accurate conversion coefficients that take image blur correction by the hybrid method into consideration. Therefore, by obtaining the defocus amount from the phase difference using the conversion coefficient, highly accurate focus detection is possible even when the image shake correction is performed by the hybrid method.

11…(カメラ側)レンズマウント、
12…シャッタ、
14…撮像素子、
15…撮像素子駆動機構、
16…A/D変換器、
18…タイミング発生回路、
20…画像処理部、
42…(カメラ側)コネクタ、
43…(カメラ側)インターフェース部、
50…システム制御部、
52…測光部、
54…AF部、
56…シャッタ制御部、
70…像振れ検出部、
72…撮像素子防振制御部、
74…開口情報修正部、
76…換算係数記憶部、
100…カメラ本体、
300…交換レンズ、
301…(レンズ側)レンズマウント、
302…(レンズ側)コネクタ、
303…結像光学系、
304…絞り、
305…ズーム制御部、
306…絞り制御部、
307…フォーカス制御部、
308…レンズ群防振制御部、
309…レンズシステム制御部、
310…不揮発性メモリ、
311…敏感度情報記憶部、
312…開口情報記憶部、
313…(レンズ側)インターフェース部。
11... (camera side) lens mount,
12... Shutter,
14... image sensor,
15... Imaging element driving mechanism,
16... A/D converter,
18 ... timing generation circuit,
20... Image processing unit,
42 ... (camera side) connector,
43 ... (camera side) interface section,
50 ... system control unit,
52... Photometric part,
54... AF section,
56 ... shutter control unit,
70 image blur detection unit;
72... image pick-up element anti-vibration control section,
74 ... Opening information correction unit,
76 ... Conversion factor storage unit,
100... camera body,
300 ... Interchangeable lens,
301... (lens side) lens mount,
302... (lens side) connector,
303 ... imaging optical system,
304... Aperture,
305 ... zoom control unit,
306... Aperture control unit,
307 ... focus control unit,
308... Lens group anti-vibration control section,
309 ... lens system control unit,
310... non-volatile memory,
311 ... sensitivity information storage unit,
312 ... Opening information storage unit,
313 ... (lens side) interface section.

Claims (14)

結像光学系の複数の瞳領域を通過する光束に基づき焦点検出を行う撮像装置であって、
前記光束を受ける撮像素子と、
制御手段と、を備え、
前記制御手段は、
前記結像光学系のレンズ群の一部を第1の補正量に基づき駆動することで像振れを補正する第1の補正手段と、
前記撮像素子を第2の補正量に基づき前記結像光学系の光軸に垂直な面内で駆動することで前記像振れを補正する第2の補正手段と、
前記結像光学系の開口情報、及び前記第1の補正量に対する前記結像光学系の開口の変化量を表す敏感度情報を取得する取得手段と、
前記第1の補正量、前記第2の補正量、及び前記敏感度情報に基づき、前記取得手段により取得された前記開口情報を修正することで、修正された開口情報を求める修正手段と、
前記修正された開口情報に基づき焦点検出を行う焦点検出手段と、を備える、
ことを特徴とする撮像装置。
An imaging device that performs focus detection based on light beams passing through a plurality of pupil regions of an imaging optical system,
an imaging device that receives the light flux;
a control means;
The control means is
first correcting means for correcting image blur by driving a part of the lens group of the imaging optical system based on a first correction amount;
a second correcting means for correcting the image blur by driving the imaging device in a plane perpendicular to the optical axis of the imaging optical system based on a second correction amount;
Acquisition means for acquiring aperture information of the imaging optical system and sensitivity information representing a change amount of the aperture of the imaging optical system with respect to the first correction amount;
correction means for obtaining corrected aperture information by correcting the aperture information acquired by the acquisition means based on the first correction amount, the second correction amount, and the sensitivity information;
focus detection means for performing focus detection based on the modified aperture information;
An imaging device characterized by:
前記修正手段は、前記取得手段により取得された前記開口情報から前記第2の補正量により生じた像高変化量に基づく第1の開口情報を取得し、前記第1の補正量及び前記敏感度情報から算出された第1の修正量に基づいて前記第1の開口情報を修正することで第2の開口情報を取得し、前記第2の補正量により生じた入射瞳の移動量に応じた第2の修正量に基づいて前記第2の開口情報を修正することで前記修正された開口情報を求める、ことを特徴とする請求項1に記載の撮像装置。 The correction means acquires first aperture information based on an image height change amount caused by the second correction amount from the aperture information acquired by the acquisition means, and obtains the first correction amount and the sensitivity. Acquiring second aperture information by correcting the first aperture information based on the first correction amount calculated from the information, and obtaining second aperture information according to the amount of movement of the entrance pupil caused by the second correction amount 2. The imaging apparatus according to claim 1 , wherein the corrected aperture information is obtained by correcting the second aperture information based on a second correction amount. 前記焦点検出手段は、前記第1及び第2の補正手段により前記像振れを補正している最中に、前記修正された開口情報に基づき焦点検出を行う、ことを特徴とする請求項1又は2に記載の撮像装置。 2. The focus detection means performs focus detection based on the corrected aperture information while the image blur is being corrected by the first and second correction means. 3. The imaging device according to 2. 前記取得手段は、前記修正された開口情報に基づき換算係数を取得し、
前記焦点検出手段は、前記換算係数に基づき、焦点検出のための一対の信号列間のずれ量からデフォーカス量を求める、
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The acquisition means acquires a conversion factor based on the modified opening information,
the focus detection means obtains a defocus amount from a shift amount between a pair of signal trains for focus detection, based on the conversion factor;
4. The imaging apparatus according to any one of claims 1 to 3, characterized by:
前記取得手段は、開口情報と換算係数との間の関係を示す換算係数テーブルに基づき、前記修正された開口情報を引数として前記換算係数を取得する、ことを特徴とする請求項4に記載の撮像装置。 5. The method according to claim 4, wherein the acquisition means acquires the conversion factor using the modified aperture information as an argument based on a conversion factor table showing the relationship between the aperture information and the conversion factor. Imaging device. 前記開口情報、前記敏感度情報、及び前記換算係数テーブルを記憶する記憶手段をさらに備える、ことを特徴とする請求項5に記載の撮像装置。 6. The imaging apparatus according to claim 5, further comprising storage means for storing said aperture information, said sensitivity information, and said conversion factor table. 前記撮像素子は、前記複数の瞳領域に対応する複数の光電変換領域を備える、ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 7. The imaging apparatus according to any one of claims 1 to 6, wherein said imaging element includes a plurality of photoelectric conversion areas corresponding to said plurality of pupil areas. 前記焦点検出手段は、瞳分割方式による位相差AFにより焦点検出を行う、ことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 8. The imaging apparatus according to any one of claims 1 to 7, wherein said focus detection means performs focus detection by phase difference AF based on a pupil division method. 前記開口情報は、前記結像光学系を通過する光束を決定する枠開口の情報を所定の瞳面に投影したときの円の半径と中心座標とで表現される、ことを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 3. The aperture information is expressed by a radius and center coordinates of a circle obtained by projecting information on a frame aperture that determines a light flux passing through the imaging optical system onto a predetermined pupil plane. 9. The imaging device according to any one of 1 to 8 . 前記敏感度情報は、前記第1の補正手段により前記結像光学系のレンズ群の一部が駆動されたときの前記第1の補正量に対する前記中心座標の変化量で表現される、ことを特徴とする請求項に記載の撮像装置。 The sensitivity information is expressed by a change amount of the center coordinates with respect to the first correction amount when a part of the lens group of the imaging optical system is driven by the first correction means. 10. The imaging device according to claim 9 . 前記制御手段は、前記修正された開口情報に基づき光量/画像補正を行う光量/画像補正手段をさらに備える、ことを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。 11. The imaging apparatus according to any one of claims 1 to 10 , wherein said control means further comprises light amount/image correction means for performing light amount/image correction based on said modified aperture information. 像振れ量を検出する像振れ検出手段をさらに備え、
前記制御手段は、前記像振れ量を前記第1の補正量と前記第2の補正量とに配分する補正量配分手段をさらに備える、
ことを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。
further comprising image blur detection means for detecting the amount of image blur,
The control means further includes correction amount allocation means for allocating the image blur amount to the first correction amount and the second correction amount.
12. The imaging apparatus according to any one of claims 1 to 11 , characterized by:
結像光学系の複数の瞳領域を通過する光束に基づき焦点検出を行う撮像装置の制御方法であって、
前記結像光学系のレンズ群の一部を第1の補正量に基づき駆動することで像振れを補正する第1の補正工程と、
撮像素子を第2の補正量に基づき前記結像光学系の光軸に垂直な面内で駆動することで前記像振れを補正する第2の補正工程と、
前記結像光学系の開口情報、及び前記第1の補正量に対する前記結像光学系の開口の変化量を表す敏感度情報を取得する取得工程と、
前記第1の補正量、前記第2の補正量、及び前記敏感度情報に基づき、前記取得工程により取得された前記開口情報を修正することで、修正された開口情報を求める修正工程と、
前記修正された開口情報に基づき焦点検出を行う焦点検出工程と、を備える、
ことを特徴とする制御方法。
A control method for an imaging device that performs focus detection based on light beams passing through a plurality of pupil regions of an imaging optical system,
a first correction step of correcting image blur by driving a part of the lens group of the imaging optical system based on a first correction amount;
a second correction step of correcting the image blur by driving the imaging device in a plane perpendicular to the optical axis of the imaging optical system based on a second correction amount;
an acquisition step of acquiring aperture information of the imaging optical system and sensitivity information representing a change amount of the aperture of the imaging optical system with respect to the first correction amount;
a correction step of obtaining corrected aperture information by correcting the aperture information acquired by the acquisition step based on the first correction amount, the second correction amount, and the sensitivity information;
a focus detection step of performing focus detection based on the modified aperture information;
A control method characterized by:
請求項1乃至12のいずれか1項に記載の撮像装置の各手段としてコンピュータを機能させるためのプログラム。
A program for causing a computer to function as each means of the imaging apparatus according to any one of claims 1 to 12 .
JP2018130050A 2018-07-09 2018-07-09 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM Active JP7130473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018130050A JP7130473B2 (en) 2018-07-09 2018-07-09 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018130050A JP7130473B2 (en) 2018-07-09 2018-07-09 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020008739A JP2020008739A (en) 2020-01-16
JP7130473B2 true JP7130473B2 (en) 2022-09-05

Family

ID=69151526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018130050A Active JP7130473B2 (en) 2018-07-09 2018-07-09 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7130473B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020017654A1 (en) * 2018-07-20 2020-01-23 株式会社ニコン Image capture device
JP7422466B2 (en) 2020-03-27 2024-01-26 キヤノン株式会社 Image stabilization control device, imaging device, and control method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126667A (en) 2004-10-29 2006-05-18 Canon Inc Camera system, camera, and interchangeable lens
JP2015141391A (en) 2014-01-30 2015-08-03 オリンパス株式会社 camera system
JP2016090649A (en) 2014-10-30 2016-05-23 オリンパス株式会社 Focus adjustment device, camera system and focus adjustment method
JP2016118697A (en) 2014-12-22 2016-06-30 オリンパス株式会社 Photographing device
JP2017194591A (en) 2016-04-21 2017-10-26 キヤノン株式会社 Distance measurement device, imaging apparatus, and distance measurement method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126667A (en) 2004-10-29 2006-05-18 Canon Inc Camera system, camera, and interchangeable lens
JP2015141391A (en) 2014-01-30 2015-08-03 オリンパス株式会社 camera system
JP2016090649A (en) 2014-10-30 2016-05-23 オリンパス株式会社 Focus adjustment device, camera system and focus adjustment method
JP2016118697A (en) 2014-12-22 2016-06-30 オリンパス株式会社 Photographing device
JP2017194591A (en) 2016-04-21 2017-10-26 キヤノン株式会社 Distance measurement device, imaging apparatus, and distance measurement method

Also Published As

Publication number Publication date
JP2020008739A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
US9742984B2 (en) Image capturing apparatus and method of controlling the same
US8902349B2 (en) Image pickup apparatus
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
JP2012226213A (en) Imaging apparatus and control method therefor
JP7195120B2 (en) Imaging device and its control method
JP6906360B2 (en) Focus detector and its control method
JP2002131623A (en) Imaging apparatus and system
JP2010044422A (en) Imaging device
JP6530593B2 (en) Imaging device, control method therefor, storage medium
JP2005341033A (en) Imaging apparatus and program
JP7130473B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
US10412295B2 (en) Image capturing apparatus and control method thereof, and storage medium
US20200092489A1 (en) Optical apparatus, control method, and non-transitory computer-readable storage medium
JP6941011B2 (en) Imaging device and its control method, program, storage medium
JP6758964B2 (en) Control device, image pickup device, control method, program, and storage medium
JP2014142497A (en) Imaging apparatus and method for controlling the same
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP7157642B2 (en) IMAGING DEVICE, CONTROL METHOD, AND PROGRAM
US20230305266A1 (en) Optical apparatus, control method, and storage medium
JP7005313B2 (en) Imaging device and its control method, program, storage medium
JP6711886B2 (en) Imaging device, control method thereof, program, and storage medium
JP2020085920A (en) Imaging device and control method of the same
JP2019117333A (en) Imaging device and control method therefor
US9165965B2 (en) Image sensing apparatus
JP2015080114A (en) Image-capturing device, control method therefor, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220824

R151 Written notification of patent or utility model registration

Ref document number: 7130473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151