JP2021156961A - Imaging device and control method of the same, program and storage medium - Google Patents

Imaging device and control method of the same, program and storage medium Download PDF

Info

Publication number
JP2021156961A
JP2021156961A JP2020054902A JP2020054902A JP2021156961A JP 2021156961 A JP2021156961 A JP 2021156961A JP 2020054902 A JP2020054902 A JP 2020054902A JP 2020054902 A JP2020054902 A JP 2020054902A JP 2021156961 A JP2021156961 A JP 2021156961A
Authority
JP
Japan
Prior art keywords
image plane
subject
image
focus detection
historical data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020054902A
Other languages
Japanese (ja)
Inventor
暁彦 上田
Akihiko Ueda
暁彦 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020054902A priority Critical patent/JP2021156961A/en
Publication of JP2021156961A publication Critical patent/JP2021156961A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging device that enables an appropriate prediction of an image plane position of a subject even when a change in an image plane velocity of the subject is large.SOLUTION: An imaging device comprises: a focus detection unit that performs focus detection on the basis of a signal obtained by photoelectrically converting light entered via an imaging optical system; a storage unit that stores an image plane position of a subject obtained in a time sequence by a focus detection action of the focus detection unit, and information on time corresponding to the image plane position as history data; a calculation unit that calculates an image plane velocity of the subject and image plane acceleration thereof on the basis of the history data; and a prediction unit that predicts an image plane position of the subject at time when photographing the subject on the basis of the history data. The prediction unit is configured to change the number of history data to be used for predicting the image plane position of the subject on the basis of the image plane velocity and image plane acceleration.SELECTED DRAWING: Figure 10

Description

本発明は、撮像装置における焦点調節技術に関するものである。 The present invention relates to a focus adjustment technique in an imaging device.

動く被写体を連写撮影する場合には、撮影を行っている間、動く被写体に追従して焦点を合わせ続ける必要がある。被写体に追従するために、撮影時の被写体の像面位置を予測して、その予測に基づいてフォーカスを調整する方法が知られている。 When shooting a moving subject continuously, it is necessary to follow the moving subject and keep focusing while shooting. In order to follow the subject, there is known a method of predicting the position of the image plane of the subject at the time of shooting and adjusting the focus based on the prediction.

特許文献1には、被写体の像面位置を予測する場合に、予め記憶された被写体の最高像面速度と追従中の被写体の像面速度との比に応じて、被写体の像面位置の予測に用いる履歴データ数を変更することにより、予測精度を向上させる技術が開示されている。 In Patent Document 1, when predicting the image plane position of a subject, the image plane position of the subject is predicted according to the ratio of the maximum image plane speed of the subject stored in advance to the image plane speed of the subject being followed. A technique for improving prediction accuracy by changing the number of historical data used in the above is disclosed.

特開2017−40879号公報JP-A-2017-40879

しかしながら、特許文献1に開示されているような、被写体の像面速度によって被写体の像面位置を予測する方法では、被写体の像面速度変化が大きい場合に、適切に被写体の像面位置の予測に用いる履歴データ数を設定できない。その結果、被写体の像面位置の予測誤差が生じてしまうおそれがある。 However, in the method of predicting the image plane position of the subject by the image plane velocity of the subject as disclosed in Patent Document 1, when the change in the image plane velocity of the subject is large, the image plane position of the subject is appropriately predicted. The number of history data used for can not be set. As a result, there is a possibility that a prediction error of the image plane position of the subject may occur.

本発明は上述した課題に鑑みてなされたものであり、その目的は、被写体の像面速度変化が大きい場合でも、適切に被写体の像面位置の予測を行うことが可能な撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an imaging device capable of appropriately predicting the image plane position of a subject even when the image plane velocity change of the subject is large. That is.

本発明に係わる撮像装置は、撮像光学系を介して入射した光を光電変換して得られた信号に基づいて焦点検出を行う焦点検出手段と、前記焦点検出手段の焦点検出動作により、時系列的に得られた被写体の像面位置と、該像面位置に対応する時刻の情報とを履歴データとして記憶する記憶手段と、前記履歴データに基づいて、被写体の像面速度と像面加速度とを算出する算出手段と、前記履歴データに基づいて、被写体を撮像する時刻における被写体の像面位置を予測する予測手段と、を備え、前記予測手段は、前記像面速度と前記像面加速度とに基づいて、被写体の像面位置を予測するために用いる前記履歴データの数を変更することを特徴とする。 The image pickup apparatus according to the present invention is time-series by a focus detection means that performs focus detection based on a signal obtained by photoelectric conversion of light incident on the image pickup optical system and a focus detection operation of the focus detection means. A storage means for storing the image plane position of the subject and the time information corresponding to the image plane position as historical data, and the image plane speed and the image plane acceleration of the subject based on the historical data. The prediction means includes a calculation means for calculating the image plane and a prediction means for predicting the image plane position of the subject at the time when the subject is imaged based on the history data, and the prediction means includes the image plane velocity and the image plane acceleration. The feature is that the number of the historical data used for predicting the image plane position of the subject is changed based on the above.

本発明によれば、被写体の像面速度変化が大きい場合でも、適切に被写体の像面位置の予測を行うことが可能な撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an image pickup apparatus capable of appropriately predicting the image plane position of a subject even when the image plane velocity change of the subject is large.

本発明の一実施形態に係わる撮像装置の構成を示すブロック図。The block diagram which shows the structure of the image pickup apparatus which concerns on one Embodiment of this invention. 一実施形態の撮像装置に用いられる撮像素子の画素配列を示す図。The figure which shows the pixel arrangement of the image pickup element used in the image pickup apparatus of one Embodiment. 一実施形態の撮像装置における撮像光学系の射出瞳面と撮像素子の光電変換部との共役関係を説明する図。The figure explaining the conjugate relationship between the exit pupil surface of the image pickup optical system and the photoelectric conversion part of the image pickup element in the image pickup apparatus of one Embodiment. 撮像範囲内に設けられた焦点検出領域を示す図。The figure which shows the focus detection area provided in the imaging range. 焦点検出領域内で取得された一対の焦点検出信号を示す図。The figure which shows the pair of focus detection signals acquired in the focus detection area. 撮像装置の撮像制御処理を示すフローチャート。The flowchart which shows the image pickup control processing of an image pickup apparatus. 被写体の像面位置の予測を説明する図。The figure explaining the prediction of the image plane position of a subject. 被写体の像面移動量と予測曲線を説明する図。The figure explaining the image plane movement amount and the prediction curve of a subject. 被写体の像面移動量と予測曲線を説明する図。The figure explaining the image plane movement amount and the prediction curve of a subject. 被写体の像面移動量と予測曲線を説明する図。The figure explaining the image plane movement amount and the prediction curve of a subject. 被写体の像面移動量と予測曲線を説明する図。The figure explaining the image plane movement amount and the prediction curve of a subject. 予測に用いる履歴データ数のテーブルを示す図。The figure which shows the table of the number of historical data used for prediction. 予測に用いる履歴データ数のテーブルを示す図。The figure which shows the table of the number of historical data used for prediction. 一実施形態における像面位置の予測処理を示すフローチャート。The flowchart which shows the prediction process of the image plane position in one Embodiment. 一実施形態における撮像処理を示すフローチャート。The flowchart which shows the imaging process in one Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.

図1は、撮像レンズ(交換レンズ)300と、撮像レンズ300が交換(着脱)可能に装着される撮像装置としてのカメラ本体(以下、単にカメラという)100とにより構成されるカメラシステムの構成を示す図である。 FIG. 1 shows a configuration of a camera system composed of an image pickup lens (interchangeable lens) 300 and a camera body (hereinafter, simply referred to as a camera) 100 as an image pickup device to which the image pickup lens 300 is interchangeably (detachably attached). It is a figure which shows.

図1を参照して、まず、カメラ100の構成について説明する。 First, the configuration of the camera 100 will be described with reference to FIG.

カメラ100のカメラマウント106には、撮像レンズ300のレンズマウント306が機械的および電気的に着脱可能に装着される。カメラマウント106およびレンズマウント306には、撮像レンズ300をカメラ100と電気的に接続する電気接点部としてのコネクタ122,322が設けられている。 The lens mount 306 of the image pickup lens 300 is mechanically and electrically detachably attached to the camera mount 106 of the camera 100. The camera mount 106 and the lens mount 306 are provided with connectors 122 and 322 as electrical contacts that electrically connect the image pickup lens 300 to the camera 100.

被写体から撮像レンズ300に入射して撮像レンズ300内の撮像光学系を通過した光束は、メインミラー130により上方へ反射されて光学ファインダ104に入射する。ユーザは、光学ファインダ104を通して被写体の光学像である被写体像を観察しながら撮像を行うことができる。光学ファインダ104内には後述する表示部54の一部が設けられており、光学ファインダ内の表示部54には、焦点検出領域、合焦状態、手振れ警告、絞り値および露出補正値等が表示される。 The luminous flux incident on the image pickup lens 300 from the subject and passing through the image pickup optical system in the image pickup lens 300 is reflected upward by the main mirror 130 and is incident on the optical finder 104. The user can take an image while observing the subject image, which is an optical image of the subject, through the optical viewfinder 104. A part of the display unit 54 described later is provided in the optical viewfinder 104, and the focus detection area, the in-focus state, the camera shake warning, the aperture value, the exposure compensation value, and the like are displayed on the display unit 54 in the optical viewfinder. Will be done.

メインミラー130は、ハーフミラーにより構成されている。撮像光路内に配置されたメインミラー130に入射した光束の一部はメインミラー130を通過して、その背後に設けられたサブミラー131により下方へ反射されて焦点検出ユニット105に入射する。 The main mirror 130 is composed of a half mirror. A part of the light flux incident on the main mirror 130 arranged in the imaging optical path passes through the main mirror 130, is reflected downward by the sub mirror 131 provided behind the main mirror 130, and is incident on the focus detection unit 105.

焦点検出ユニット105は、2次結像光学系と光電変換素子とを備えて構成され、位相差検出方式による焦点検出を行う。焦点検出ユニット105は、2次結像光学系により形成された一対の被写体像をラインセンサ等の光電変換素子により電気信号(一対の焦点検出信号としての位相差像信号)に変換してAF(オートフォーカス)部42に送る。AF部42は、この一対の位相差像信号間のずれ量である位相差を算出する。焦点検出ユニット105とAF部42とにより焦点検出手段が構成される。制御手段としてのシステム制御部50は、算出された位相差から焦点検出結果としてのデフォーカス量を算出する。フォーカス制御部342は、デフォーカス量が小さくなるように撮像光学系に含まれるフォーカスレンズ(フォーカス素子)311を光軸方向に移動させる焦点調節処理を行う。なお、本実施形態では、撮像光学系内のフォーカスレンズ311を移動させて焦点調節を行うが、後述する撮像素子14をフォーカス素子として光軸方向に移動させて焦点調節を行うことも可能である。 The focus detection unit 105 includes a secondary imaging optical system and a photoelectric conversion element, and performs focus detection by a phase difference detection method. The focus detection unit 105 converts a pair of subject images formed by the secondary imaging optical system into an electric signal (a phase difference image signal as a pair of focus detection signals) by a photoelectric conversion element such as a line sensor, and AF ( It is sent to the autofocus) unit 42. The AF unit 42 calculates the phase difference, which is the amount of deviation between the pair of phase difference image signals. The focus detection unit 105 and the AF unit 42 constitute a focus detection means. The system control unit 50 as a control means calculates the defocus amount as the focus detection result from the calculated phase difference. The focus control unit 342 performs a focus adjustment process of moving the focus lens (focus element) 311 included in the imaging optical system in the optical axis direction so that the defocus amount becomes small. In the present embodiment, the focus lens 311 in the imaging optical system is moved to adjust the focus, but it is also possible to adjust the focus by moving the imaging element 14 described later as the focus element in the optical axis direction. ..

一方、撮像レンズ300の焦点調節処理が終了して静止画、電子ファインダ画像または動画の撮像を行う場合には、不図示のクイックリターン機構によりメインミラー130とサブミラー131を撮像光束外に退避させる。これにより、撮像レンズ300からの光束は、露光量を制御するためのシャッター12を介して撮像素子14に入射する。撮像素子14は、CMOSセンサ等の光電変換素子により構成され、撮像レンズ300からの光束により形成された被写体像を撮像(光電変換)する。撮像が終了すると、メインミラー130とサブミラー131は撮像光路内に戻される。 On the other hand, when the focus adjustment process of the image pickup lens 300 is completed and a still image, an electronic finder image or a moving image is captured, the main mirror 130 and the sub mirror 131 are retracted out of the image pickup light flux by a quick return mechanism (not shown). As a result, the luminous flux from the image pickup lens 300 is incident on the image pickup device 14 via the shutter 12 for controlling the exposure amount. The image pickup element 14 is composed of a photoelectric conversion element such as a CMOS sensor, and captures (photoelectrically converts) a subject image formed by a light flux from the image pickup lens 300. When the imaging is completed, the main mirror 130 and the sub mirror 131 are returned to the imaging optical path.

撮像素子14での光電変換により生成された電気信号(アナログ撮像信号)は、A/D変換器16によりデジタル撮像信号に変換される。タイミング発生部18は、メモリ制御部22およびシステム制御部50により制御されて撮像素子14、A/D変換器16およびD/A変換器26にクロック信号や制御信号を供給する。画像処理部20は、A/D変換器16またはメモリ制御部22からのデジタル撮像信号に対して画素補間処理や色変換処理等の画像処理を行って画像データを生成する。画像処理部20は、生成した画像データを用いて各種演算処理を行う。 The electric signal (analog imaging signal) generated by the photoelectric conversion in the image pickup device 14 is converted into a digital imaging signal by the A / D converter 16. The timing generation unit 18 is controlled by the memory control unit 22 and the system control unit 50 to supply a clock signal and a control signal to the image sensor 14, the A / D converter 16 and the D / A converter 26. The image processing unit 20 generates image data by performing image processing such as pixel interpolation processing and color conversion processing on the digital image pickup signal from the A / D converter 16 or the memory control unit 22. The image processing unit 20 performs various arithmetic processes using the generated image data.

撮像素子14は、その全画素または一部の画素が焦点検出可能な画素として構成されており、画素を用いて撮像面位相差検出方式による焦点検出を行うことができる。画像処理部20は、生成した画像データのうち後述する焦点検出領域に対応する部分画像データを焦点検出データに変換する。焦点検出データは、システム制御部50を介してAF部42に送られ、AF部42は撮像レンズ300内のフォーカス制御部342を通じてフォーカスレンズ311を移動させて合焦状態を得る。 The image pickup device 14 is configured such that all or a part of the pixels are focus-detectable pixels, and the focus can be detected by the imaging surface phase difference detection method using the pixels. The image processing unit 20 converts the partial image data corresponding to the focus detection region described later in the generated image data into the focus detection data. The focus detection data is sent to the AF unit 42 via the system control unit 50, and the AF unit 42 moves the focus lens 311 through the focus control unit 342 in the image pickup lens 300 to obtain a focused state.

本実施形態のカメラ100では、システム制御部50は、画像処理部20により生成された画像データからコントラスト状態を示すコントラスト評価値を生成することができる。そして、コントラスト評価値がピークを示す位置にフォーカス制御部342を通じてフォーカスレンズ311を移動させて合焦状態を得るコントラスト検出方式によるAFを行うことも可能である。 In the camera 100 of the present embodiment, the system control unit 50 can generate a contrast evaluation value indicating a contrast state from the image data generated by the image processing unit 20. Then, it is also possible to perform AF by a contrast detection method in which the focus lens 311 is moved through the focus control unit 342 to a position where the contrast evaluation value shows a peak to obtain a focused state.

このため、メインミラー130とサブミラー131が撮像光路内に配置された光学ファインダ観察状態では焦点検出手段としての焦点検出ユニット105による位相差検出方式でのAF(位相差AF)が行われる。一方、メインミラー130とサブミラー131が撮像光束外へ退避した電子ファインダ観察状態や動画撮像時には、撮像素子14による撮像面位相差検出方式でのAF(撮像面位相差AF)とコントラスト検出方式でのAF(コントラストAF)が行われるため、これらを焦点検出手段としてもよい。 Therefore, in the optical viewfinder observation state in which the main mirror 130 and the sub mirror 131 are arranged in the imaging optical path, AF (phase difference AF) is performed by the focus detection unit 105 as the focus detection means in the phase difference detection method. On the other hand, in the electronic viewfinder observation state in which the main mirror 130 and the sub mirror 131 are retracted outside the imaging light beam or when imaging a moving image, AF (imaging surface phase difference AF) in the imaging surface phase difference detection method by the image sensor 14 and contrast detection method are used. Since AF (contrast AF) is performed, these may be used as focus detection means.

メモリ制御部22は、A/D変換器16、タイミング発生部18、画像処理部20、画像表示メモリ24、D/A変換器26、メモリ30および圧縮伸長部32を制御する。前述したようにA/D変換器16からのデジタル撮像データが画像処理部20に入力されることで画像データが生成され、その画像データはメモリ制御部22を介して画像表示メモリ24またはメモリ30に書き込まれる。A/D変換器16からの撮像データがメモリ制御部22を介して直接、画像表示メモリ24またはメモリ30に書き込まれてもよい。 The memory control unit 22 controls the A / D converter 16, the timing generation unit 18, the image processing unit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / expansion unit 32. As described above, the image data is generated by inputting the digital imaging data from the A / D converter 16 to the image processing unit 20, and the image data is the image display memory 24 or the memory 30 via the memory control unit 22. Written in. The imaged data from the A / D converter 16 may be directly written to the image display memory 24 or the memory 30 via the memory control unit 22.

画像表示部(表示手段)28は、液晶モニタ等の表示デバイスを有する。画像表示メモリ24に書き込まれた表示用画像データは、D/A変換器26を介して画像表示部28により表示される。撮像により順次得られる画像データ(フレーム画像)を画像表示部28に順次表示することで、電子ファインダ画像としてのライブビュー画像を表示することができる。 The image display unit (display means) 28 has a display device such as a liquid crystal monitor. The display image data written in the image display memory 24 is displayed by the image display unit 28 via the D / A converter 26. By sequentially displaying image data (frame images) sequentially obtained by imaging on the image display unit 28, a live view image as an electronic viewfinder image can be displayed.

メモリ30は、撮像により生成された静止画像や動画像を記憶する。また、メモリ30は、システム制御部50の作業領域としても使用される。圧縮伸長部32は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する機能を有し、メモリ30に記憶された画像データを読み込んで圧縮処理または伸長処理を行い、処理を終えた画像データをメモリ30に書き込む。 The memory 30 stores a still image or a moving image generated by imaging. The memory 30 is also used as a work area for the system control unit 50. The compression / decompression unit 32 has a function of compressing / decompressing image data by adaptive discrete cosine transform (ADCT) or the like, reads the image data stored in the memory 30 and performs compression processing or decompression processing, and the processed image. Write the data to the memory 30.

シャッター制御部36は、測光部46からの測光情報に基づいて、撮像レンズ300内の絞り312を駆動する絞り制御部344と連携しながらシャッター12を制御する。カメラインターフェース部38は、コネクタ122,322およびレンズインターフェース部338を介して、カメラ100と撮像レンズ300との間での制御信号、状態信号および各種データ等の通信を可能とする。また、カメラ100から撮像レンズ300への電源供給も可能とする。 The shutter control unit 36 controls the shutter 12 in cooperation with the aperture control unit 344 that drives the aperture 312 in the image pickup lens 300 based on the photometric information from the photometric unit 46. The camera interface unit 38 enables communication of control signals, status signals, various data, and the like between the camera 100 and the image pickup lens 300 via the connectors 122 and 322 and the lens interface unit 338. It is also possible to supply power from the camera 100 to the image pickup lens 300.

測光部46は、AE処理を行う。撮像レンズ300を通過した光束をミラー130および不図示の測光用レンズを介して測光部46に入射させることにより、被写体像の輝度を測定することができる。また、測光部46は、フラッシュ48と連携して調光処理を行う。フラッシュ48は、被写体に向けて光を発する発光手段(第1の発光手段)として、静止画撮像時にフラッシュ(閃光)発光して被写体を明るく照明するとともに、焦点検出時に間欠発光して被写体に間欠的にAF補助光を投光して被写体を照明する機能を有する。 なお、測光部46に代わり、システム制御部50が、画像処理部20により生成された画像データから輝度を演算した結果に基づいてシャッター制御部36と撮像レンズ300内の絞り制御部344に対してAE制御を行うことも可能である。 The photometric unit 46 performs AE processing. The brightness of the subject image can be measured by causing the luminous flux that has passed through the image pickup lens 300 to enter the photometric unit 46 via the mirror 130 and a photometric lens (not shown). Further, the photometric unit 46 performs dimming processing in cooperation with the flash 48. The flash 48, as a light emitting means (first light emitting means) that emits light toward the subject, emits a flash (flash) to brightly illuminate the subject at the time of capturing a still image, and intermittently emits light at the time of focusing detection to intermittently emit light to the subject. It has a function of illuminating the subject by projecting AF auxiliary light. Instead of the photometric unit 46, the system control unit 50 sets the shutter control unit 36 and the aperture control unit 344 in the image pickup lens 300 based on the result of calculating the brightness from the image data generated by the image processing unit 20. It is also possible to perform AE control.

LEDランプ49は、被写体を照明する光源として、常時発光(連続発光)が可能な発光手段(第2の発光手段)である。LEDランプ49が発するLED光は、AF補助光であるLED補助光として機能する以外に、いわゆる赤目現象を軽減したり、セルフタイマー撮像時の撮像タイミングの指標となったりする。 The LED lamp 49 is a light emitting means (second light emitting means) capable of constantly emitting light (continuous light emitting) as a light source for illuminating a subject. The LED light emitted by the LED lamp 49 not only functions as the LED auxiliary light which is the AF auxiliary light, but also reduces the so-called red-eye phenomenon and serves as an index of the imaging timing at the time of self-timer imaging.

システム制御部50は、カメラ100の動作全体を制御する。メモリ52は、システム制御部50の動作に用いられる定数、変数およびプログラム等を記憶する。表示部54は、液晶表示パネルやLED等の表示デバイスにより構成され、文字、画像および音声等を用いて動作状態やメッセージ等を表示する。具体的には、撮像済画像数や残撮像可能画像数等の撮像画像数に関する情報や、シャッタースピード、絞り値、露出補正およびフラッシュ発光の有無等の撮像条件に関する情報や、電池残量や日付・時刻等を表示する。前述したように表示部54の一部は、光学ファインダ104内にも設けられている。 The system control unit 50 controls the entire operation of the camera 100. The memory 52 stores constants, variables, programs, and the like used for the operation of the system control unit 50. The display unit 54 is composed of a display device such as a liquid crystal display panel or an LED, and displays an operating state, a message, or the like using characters, images, sounds, and the like. Specifically, information on the number of captured images such as the number of captured images and the number of remaining images that can be captured, information on imaging conditions such as shutter speed, aperture value, exposure compensation, and presence / absence of flash emission, remaining battery level, and date. -Display the time, etc. As described above, a part of the display unit 54 is also provided in the optical viewfinder 104.

不揮発性メモリ56は、EEPROM等により構成され、電気的に記録および消去可能なメモリである。モードダイヤル60、シャッタースイッチ62(SW1),64(SW2)、画像表示オン/オフスイッチ66、クイックレビューオン/オフスイッチ68および操作部70は、システム制御部50に対して各種動作指示を入力するためにユーザにより操作される。操作部70は、スイッチ、ダイアル、タッチパネル、視線検知によるポインティングデバイス、音声認識デバイス等を含む。 The non-volatile memory 56 is a memory that is composed of an EEPROM or the like and can be electrically recorded and erased. The mode dial 60, the shutter switch 62 (SW1), 64 (SW2), the image display on / off switch 66, the quick review on / off switch 68, and the operation unit 70 input various operation instructions to the system control unit 50. Manipulated by the user. The operation unit 70 includes a switch, a dial, a touch panel, a pointing device by line-of-sight detection, a voice recognition device, and the like.

電源制御部80は、電池検出部、DC/DCコンバータおよび通電するブロックを切り替えるスイッチ部を含む。電源制御部80は、電池検出部を通じて電池の装着の有無、電池の種類および電池残量を検出し、その検出結果およびシステム制御部50からの指示に応じてDC/DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部に供給する。コネクタ82,84は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池やリチウムイオン電池等の二次電池、ACアダプタ等からなる電源部86をカメラ100に接続する。 The power supply control unit 80 includes a battery detection unit, a DC / DC converter, and a switch unit for switching a block to be energized. The power supply control unit 80 detects whether or not a battery is installed, the type of battery, and the remaining battery level through the battery detection unit, and controls the DC / DC converter according to the detection result and the instruction from the system control unit 50, which is necessary. A high voltage is supplied to each part including the recording medium for a required period. The connectors 82 and 84 connect a power supply unit 86 including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery or a lithium ion battery, an AC adapter or the like to the camera 100.

インターフェース90は、メモリカードやハードディスク等の記録媒体200との接続機能を有し、コネクタ92は、メモリカードやハードディスク等の記録媒体と物理的接続を行う。記録媒体着脱検知部98は、コネクタ92に記録媒体200が接続されていることを検知する。 The interface 90 has a function of connecting to a recording medium 200 such as a memory card or a hard disk, and the connector 92 physically connects to a recording medium such as a memory card or a hard disk. The recording medium attachment / detachment detection unit 98 detects that the recording medium 200 is connected to the connector 92.

次に、撮像レンズ300の構成について説明する。撮像レンズ300は、変倍(ズーム)レンズ310、上述したフォーカスレンズ311および絞り312等により構成される撮像光学系を有する。ズーム制御部340は、ズームレンズ310を光軸方向に移動させて変倍を行う。焦点調節手段としてのフォーカス制御部342は、フォーカスレンズ311を光軸方向に移動させて焦点調節を行う。絞り制御部344は、測光部46およびシステム制御部50からの測光情報に基づいて絞り312を駆動する。 Next, the configuration of the image pickup lens 300 will be described. The image pickup lens 300 has an image pickup optical system including a variable magnification (zoom) lens 310, the focus lens 311 described above, an aperture 312, and the like. The zoom control unit 340 moves the zoom lens 310 in the optical axis direction to perform magnification change. The focus control unit 342 as the focus adjusting means adjusts the focus by moving the focus lens 311 in the optical axis direction. The aperture control unit 344 drives the aperture 312 based on the photometric information from the photometric unit 46 and the system control unit 50.

レンズシステム制御部346は、撮像レンズ300の動作全体を制御する。レンズシステム制御部346は、その動作に用いる定数、変数およびプログラム等を記憶するメモリ機能を備えている。 The lens system control unit 346 controls the entire operation of the image pickup lens 300. The lens system control unit 346 has a memory function for storing constants, variables, programs, and the like used for its operation.

不揮発性メモリ348は、撮像レンズ300に固有の製造番号等の識別情報や、開放絞り値、最小絞り値および焦点距離等の光学情報や、現在または過去の各種設定値等を記憶する。また、不揮発性メモリ348は、撮像レンズ300の状態に応じた枠情報やデフォーカス関連情報も記憶している。 The non-volatile memory 348 stores identification information such as a serial number unique to the image pickup lens 300, optical information such as an open aperture value, a minimum aperture value, and a focal length, and various current or past set values. In addition, the non-volatile memory 348 also stores frame information and defocus-related information according to the state of the image pickup lens 300.

枠情報は、撮像レンズ(撮像光学系)300を通過する光束の径を決定する「枠」に関する情報であり、具体的には「枠」の撮像素子14からの距離と、「枠」の光束通過開口の半径を示す情報である。「枠」の1つは絞り312であり、他にも撮像光学系を構成するレンズを保持するレンズ保持部材が「枠」に相当する。「枠」は、ズームレンズ310の位置(ズーム位置)やフォーカスレンズ311の位置(フォーカス位置)に応じて異なるため、ズーム位置ごとおよびフォーカス位置ごとに用意されている。焦点検出を行う際には、ズーム位置とフォーカス位置に応じた最適な枠情報が選択され、その枠情報がレンズシステム制御部346からシステム制御部50に送られる。 The frame information is information about the "frame" that determines the diameter of the light flux passing through the image pickup lens (imaging optical system) 300. Specifically, the distance from the image pickup element 14 of the "frame" and the light flux of the "frame". Information indicating the radius of the passing opening. One of the "frames" is the aperture 312, and the lens holding member that holds the lenses constituting the imaging optical system also corresponds to the "frame". Since the "frame" differs depending on the position of the zoom lens 310 (zoom position) and the position of the focus lens 311 (focus position), it is prepared for each zoom position and each focus position. When the focus is detected, the optimum frame information according to the zoom position and the focus position is selected, and the frame information is sent from the lens system control unit 346 to the system control unit 50.

デフォーカス関連情報は、被写体距離ごとの無限遠端および至近端までのデフォーカス量の情報であり、フォーカス位置に対応付けられた被写体距離ごとに分割されて記憶されている。 The defocus-related information is information on the amount of defocus to the infinity end and the nearest end for each subject distance, and is divided and stored for each subject distance associated with the focus position.

次に、撮像素子14の構成について図2(a)〜(c)を用いて説明する。図2(a)は、撮像素子14の1つの画素200の構成を示す図である。画素200は、一対の光電変換部としての2つのフォトダイオード(PD)201a,201bと、転送スイッチ202a,202bと、フローティングディフュージョン領域203と、増幅部204と、リセットスイッチ205と、選択スイッチ206とを有する。各スイッチは、MOSトランジスタ等により構成される。以下の説明では、例として、各スイッチがN型MOSトランジスタにより構成されているものとする。ただし、各スイッチはP型MOSトランジスタにより構成されていてもよく、さらに他のスイッチング素子により構成されていてもよい。また、画素200に設けられるフォトダイオードの数は3つ以上(例えば、4つ)であってもよい。 Next, the configuration of the image pickup device 14 will be described with reference to FIGS. 2A to 2C. FIG. 2A is a diagram showing the configuration of one pixel 200 of the image sensor 14. The pixel 200 includes two photodiodes (PD) 201a and 201b as a pair of photoelectric conversion units, transfer switches 202a and 202b, a floating diffusion region 203, an amplification unit 204, a reset switch 205, and a selection switch 206. Has. Each switch is composed of a MOS transistor or the like. In the following description, it is assumed that each switch is composed of an N-type MOS transistor as an example. However, each switch may be composed of a P-type MOS transistor, or may be further composed of another switching element. Further, the number of photodiodes provided in the pixel 200 may be three or more (for example, four).

フォトダイオード201a,201bはそれぞれ、図2(b)に示すように、同一のマイクロレンズ201cを通過した光を受光して光電変換し、その受光量に応じた電荷を発生する。以下の説明において、フォトダイオード201aで発生した電荷により得られる信号をA信号といい、フォトダイオード201bで発生した電荷により得られる信号をB信号という。 As shown in FIG. 2B, the photodiodes 201a and 201b each receive light that has passed through the same microlens 201c and perform photoelectric conversion, and generate an electric charge according to the amount of the light received. In the following description, the signal obtained by the electric charge generated by the photodiode 201a is referred to as an A signal, and the signal obtained by the electric charge generated by the photodiode 201b is referred to as a B signal.

転送スイッチ202aは、フォトダイオード201aとフローティングディフュージョン領域203との間に接続され、転送スイッチ202bはフォトダイオード201bとフローティングディフュージョン領域203との間に接続される。転送スイッチ202a,202bはそれぞれ、フォトダイオード201a,201bで発生した電荷を共通のフローティングディフュージョン領域203に転送する。転送スイッチ202a,202bはそれぞれ、制御信号TX_A,TX_Bによって制御される。 The transfer switch 202a is connected between the photodiode 201a and the floating diffusion region 203, and the transfer switch 202b is connected between the photodiode 201b and the floating diffusion region 203. The transfer switches 202a and 202b transfer the electric charges generated by the photodiodes 201a and 201b to the common floating diffusion region 203, respectively. The transfer switches 202a and 202b are controlled by the control signals TX_A and TX_B, respectively.

フローティングディフュージョン領域203は、フォトダイオード201a,201bから転送された電荷を一時的に保持するとともに、保持した電荷を電圧信号に変換する。 The floating diffusion region 203 temporarily holds the electric charge transferred from the photodiodes 201a and 201b, and converts the held electric charge into a voltage signal.

増幅部204は、ソースフォロワMOSトランジスタである。増幅部204のゲートは、フローティングディフュージョン領域203に接続され、増幅部204のドレインは電源電位VDDを供給する共通電源208に接続される。増幅部204は、フローティングディフュージョン領域203に保持された電荷により得られる電圧信号を増幅して出力する。 The amplification unit 204 is a source follower MOS transistor. The gate of the amplification unit 204 is connected to the floating diffusion region 203, and the drain of the amplification unit 204 is connected to the common power supply 208 that supplies the power supply potential VDD. The amplification unit 204 amplifies and outputs the voltage signal obtained by the electric charge held in the floating diffusion region 203.

リセットスイッチ205は、フローティングディフュージョン領域203と共通電源208との間に接続されている。リセットスイッチ205は、制御信号RESによって制御され、フローティングディフュージョン領域203の電位を電源電位VDDにリセットする。 The reset switch 205 is connected between the floating diffusion region 203 and the common power supply 208. The reset switch 205 is controlled by the control signal RES and resets the potential of the floating diffusion region 203 to the power supply potential VDD.

選択スイッチ206は、増幅部204のソースと垂直出力線207の間に接続されている。選択スイッチ206は、制御信号SELによって制御され、増幅部204で増幅された電圧信号を垂直出力線207に出力する。 The selection switch 206 is connected between the source of the amplification unit 204 and the vertical output line 207. The selection switch 206 is controlled by the control signal SEL and outputs the voltage signal amplified by the amplification unit 204 to the vertical output line 207.

図2(c)は、撮像素子14の回路構成を示す図である。撮像素子14は、画素アレイ234、垂直走査回路209、電流源負荷210、読み出し回路235、共通出力線228,229、水平走査回路232およびデータ出力部233を有する。 FIG. 2C is a diagram showing a circuit configuration of the image sensor 14. The image sensor 14 includes a pixel array 234, a vertical scanning circuit 209, a current source load 210, a readout circuit 235, common output lines 228 and 229, a horizontal scanning circuit 232, and a data output unit 233.

画素アレイ234は、行列状に配置された複数の画素200を有する。図2(c)には説明を簡略化するために、水平方向n画素×垂直方向4画素を示している。また、各画素200には、複数色のカラーフィルタのうちいずれか1つが設けられている。図2(c)に示す例では、カラーフィルタの色は赤色(R)、緑色(G)および青色(B)である。これらのカラーフィルタが設けられたn×m画素はベイヤー配列に従って配置されている。 The pixel array 234 has a plurality of pixels 200 arranged in a matrix. In FIG. 2C, for simplification of the description, n pixels in the horizontal direction × 4 pixels in the vertical direction are shown. Further, each pixel 200 is provided with any one of a plurality of color filters. In the example shown in FIG. 2C, the colors of the color filters are red (R), green (G), and blue (B). The n × m pixels provided with these color filters are arranged according to the Bayer arrangement.

また、撮像素子14は、画素アレイ234の一部が遮光層で遮光された領域(OB)を持つ。 Further, the image sensor 14 has a region (OB) in which a part of the pixel array 234 is shielded by a light-shielding layer.

垂直走査回路209は、画素行ごとに設けられた駆動信号線208を介して、各画素行の画素200に制御信号を出力する。図2(c)では駆動信号線208は画素行ごとに1本ずつ示されているが、実際には画素行ごとに複数の駆動信号線が接続されている。 The vertical scanning circuit 209 outputs a control signal to the pixel 200 of each pixel line via the drive signal line 208 provided for each pixel line. In FIG. 2C, one drive signal line 208 is shown for each pixel line, but in reality, a plurality of drive signal lines are connected for each pixel line.

同じ画素列の画素200は、画素列ごとに設けられた垂直出力線207に共通接続される。各画素200から出力される信号は、この垂直出力線207を介して読み出し回路235に入力され、読み出し回路235で処理される。電流源負荷210は、各画素列の垂直出力線207に接続されている。 Pixels 200 of the same pixel row are commonly connected to vertical output lines 207 provided for each pixel row. The signal output from each pixel 200 is input to the read circuit 235 via the vertical output line 207, and is processed by the read circuit 235. The current source load 210 is connected to the vertical output line 207 of each pixel row.

水平走査回路232は、制御信号HSR(0)〜HSR(n−1)を出力することにより、複数の読み出し回路235の中から信号を出力させる読み出し部を順次選択する。選択された読み出し回路235は、共通出力線228,229を介して出力アンプ233に処理した信号を出力する。 By outputting the control signals HSR (0) to HSR (n-1), the horizontal scanning circuit 232 sequentially selects a reading unit for outputting a signal from the plurality of reading circuits 235. The selected read-out circuit 235 outputs the processed signal to the output amplifier 233 via the common output lines 228 and 229.

読み出し回路235の具体的な構成について説明する。 A specific configuration of the readout circuit 235 will be described.

読み出し回路235は、クランプ容量211、フィードバック容量214〜216、オペアンプ213、基準電圧源212およびスイッチ217〜220を有する。また、比較器221、Latch_N222、Latch_S223およびスイッチ226,227を有する。 The readout circuit 235 has a clamp capacitance 211, a feedback capacitance 214-216, an operational amplifier 213, a reference voltage source 212, and switches 217-220. It also has a comparator 221 and Latch_N222, Latch_S223 and switches 226 and 227.

垂直出力線207を介して読み出し回路235に入力された信号は、クランプ容量211を介してオペアンプ213の反転入力端子に入力される。オペアンプ213の非反転入力端子には、基準電圧源212から基準電圧Vrefが供給される。フィードバック容量214〜216は、オペアンプ213の反転入力端子と出力端子の間に接続される。スイッチ217もオペアンプ213の反転入力端子と出力端子の間に接続され、フィードバック容量214〜216の両端をショートさせる。スイッチ217は、制御信号RES_Cにより制御される。また、スイッチ218〜220は、制御信号GAIN0〜2で制御される。 The signal input to the readout circuit 235 via the vertical output line 207 is input to the inverting input terminal of the operational amplifier 213 via the clamp capacitance 211. A reference voltage Vref is supplied from the reference voltage source 212 to the non-inverting input terminal of the operational amplifier 213. The feedback capacitances 214 to 216 are connected between the inverting input terminal and the output terminal of the operational amplifier 213. The switch 217 is also connected between the inverting input terminal and the output terminal of the operational amplifier 213, and short-circuits both ends of the feedback capacitances 214 to 216. The switch 217 is controlled by the control signal RES_C. The switches 218 to 220 are controlled by the control signals GAIN0 to 2.

比較器221にはオペアンプ213の出力信号と、ランプ信号発生器230から出力されるランプ信号224が入力される。Latch_N222はノイズレベル(N信号)を保持するための記憶素子であり、Latch_S223はA信号およびA信号とB信号が加算されたAB信号の信号レベル(S信号)を保持するための記憶素子である。比較器221の出力端子とカウンタ231から出力されるカウンタ値225がLatch_N222とLatch_S223に入力され、それぞれLATEN_N、LATEN_Sで制御される。Latch_N、Latch_Sの出力端子はスイッチ226,227を介してそれぞれ共通出力線228,229に接続される。共通出力線228,229はデータ出力部233に接続される。 The output signal of the operational amplifier 213 and the lamp signal 224 output from the lamp signal generator 230 are input to the comparator 221. Latch_N222 is a storage element for holding the noise level (N signal), and Latch_S223 is a storage element for holding the signal level (S signal) of the A signal and the AB signal to which the A signal and the B signal are added. .. The output terminal of the comparator 221 and the counter value 225 output from the counter 231 are input to Latch_N222 and Latch_S223, and are controlled by LATEN_N and LATEN_S, respectively. The output terminals of Latch_N and Latch_S are connected to the common output lines 228 and 229, respectively, via switches 226 and 227. The common output lines 228 and 229 are connected to the data output unit 233.

スイッチ226,227は、水平走査回路232からの制御信号HSR(h)により制御される。ここで、hは制御信号線が接続されている読み出し回路235の列番号を示す。Latch_N222およびLatch_S223に保持された信号は、共通出力線228,229を介して出力され、データ出力部233から外部へ出力される。この動作を水平転送と呼ぶ。 The switches 226 and 227 are controlled by the control signal HSR (h) from the horizontal scanning circuit 232. Here, h indicates the column number of the read circuit 235 to which the control signal line is connected. The signals held in Latch_N222 and Latch_S223 are output via the common output lines 228 and 229, and are output from the data output unit 233 to the outside. This operation is called horizontal transfer.

本実施形態では、撮像素子14は、第1の読み出しモードと第2の読み出しモードとを有する。第1の読み出しモードは、記録用の高精細の静止画を撮像するために全画素から出力信号が読み出される全画素読み出しモードである。第2の読み出しモードは、記録用の静止画よりも画素数が少ないライブビュー画像や記録用の動画の表示を行うため、全画素のうち一部の画素からの出力信号のみが読み出される間引き読み出しモードである。ライブビュー画像や動画の生成に必要な画素数は全画素数よりも少ないため、撮像素子から水平方向および垂直方向ともに所定比率で間引いた数の画素のみから出力信号を読み出すことで、信号処理負荷を軽減するとともに、消費電力の低減にも寄与する。また、第1および第2の読み出しモードのいずれにおいても各画素に設けられた各光電変換部からの出力信号は独立して読み出しされるため、いずれの読み出しモードでも一対の位相差像信号の生成が可能である。 In the present embodiment, the image sensor 14 has a first read mode and a second read mode. The first read mode is an all-pixel read mode in which output signals are read from all pixels in order to capture a high-definition still image for recording. In the second read mode, since the live view image and the moving image for recording, which have fewer pixels than the still image for recording, are displayed, thinning out reading in which only the output signals from some of all the pixels are read is read. The mode. Since the number of pixels required to generate a live view image or moving image is less than the total number of pixels, the signal processing load is obtained by reading the output signal from only the number of pixels thinned out at a predetermined ratio in both the horizontal and vertical directions from the image sensor. It also contributes to the reduction of power consumption. Further, since the output signals from the photoelectric conversion units provided for each pixel are read independently in both the first and second read modes, a pair of phase difference image signals are generated in each read mode. Is possible.

図3(a)、(b)は、本実施形態のカメラシステムにおける撮像光学系101の射出瞳面と、撮像素子14における像高0付近、すなわち像面の中央近傍に配置された画素(以下、中央画素という)200における一対の光電変換部201a,201bとの共役関係を示す図である。撮像光学系の射出瞳面と一対の光電変換部とは、マイクロレンズ201cによって共役関係となるように設定されている。撮像光学系の射出瞳は、一般的に、絞り312が配置された面に位置する。一方、本実施形態の撮像光学系は変倍機能を有し、変倍によって像面から射出瞳までの距離(射出瞳距離)や大きさが変化する。図3(a)に示す撮像光学系101は、焦点距離が広角端と望遠端との間の中間ズーム状態にある。これを標準的な射出瞳距離Zepと仮定して、マイクロレンズ201cの形状や像高(X,Y座標)に応じた偏心パラメータが最適化される。 3 (a) and 3 (b) show the exit pupil surface of the image pickup optical system 101 in the camera system of the present embodiment and the pixels arranged near the image height 0 of the image sensor 14, that is, near the center of the image plane (hereinafter,). , Central pixel) 200 is a diagram showing a conjugate relationship with a pair of photoelectric conversion units 201a and 201b. The exit pupil surface of the imaging optical system and the pair of photoelectric conversion units are set to have a conjugated relationship by the microlens 201c. The exit pupil of the imaging optical system is generally located on the surface on which the aperture 312 is arranged. On the other hand, the imaging optical system of the present embodiment has a scaling function, and the distance (exit pupil distance) and size from the image plane to the exit pupil change depending on the scaling. The imaging optical system 101 shown in FIG. 3A is in an intermediate zoom state in which the focal length is between the wide-angle end and the telephoto end. Assuming this is the standard exit pupil distance Zep, the eccentric parameters are optimized according to the shape and image height (X, Y coordinates) of the microlens 201c.

図3(a)において、301は撮像光学系の最も被写体側に配置された第1レンズ群であり、301bは第1レンズ群301を保持する鏡筒部材である。311bはフォーカスレンズ311を保持する鏡筒部材である。312aは絞り312の開放口径を決める開口を有する開口板であり、312bは絞り込み開口径を調節するための絞り羽根である。撮像光学系を通過する光束を制限する部材としての鏡筒部材301b、開口板312a、絞り羽根312bは、像面側から観察した場合の光学的な虚像として示している。また、絞り312の近傍における合成開口を撮像光学系の射出瞳(以下、レンズ射出瞳という)と定義して、前述したように像面からレンズ射出瞳までの距離をZepとする。 In FIG. 3A, 301 is a first lens group arranged on the most subject side of the imaging optical system, and 301b is a lens barrel member holding the first lens group 301. Reference numeral 311b is a lens barrel member that holds the focus lens 311. The 312a is an opening plate having an opening that determines the opening diameter of the diaphragm 312, and the 312b is a diaphragm blade for adjusting the diaphragm opening diameter. The lens barrel member 301b, the aperture plate 312a, and the diaphragm blade 312b as members for limiting the light flux passing through the imaging optical system are shown as an optical virtual image when observed from the image plane side. Further, the composite aperture in the vicinity of the aperture 312 is defined as the exit pupil of the imaging optical system (hereinafter referred to as the lens exit pupil), and the distance from the image plane to the lens exit pupil is defined as Zep as described above.

中央画素200に含まれる一対の光電変換部201a,201bは、マイクロレンズ201cによってレンズ射出瞳面上に像EP1a,EP1bとして逆投影される。言い換えれば、レンズ射出瞳のうち互いに異なる瞳領域(以下、焦点検出瞳という)であるEP1a,EP1bが、マイクロレンズ201cを介して光電変換部201a,201bの表面に投影される。中央画素200は、その最下層から順に、光電変換部201a,201b、配線層201e〜201g、カラーフィルタ201hおよびマイクロレンズ201cを備えて構成されている。 The pair of photoelectric conversion units 201a and 201b included in the central pixel 200 are back-projected as images EP1a and EP1b on the lens exit pupil surface by the microlens 201c. In other words, EP1a and EP1b, which are different pupil regions (hereinafter referred to as focus detection pupils) of the lens exit pupils, are projected onto the surface of the photoelectric conversion units 201a and 201b via the microlens 201c. The central pixel 200 includes photoelectric conversion units 201a and 201b, wiring layers 201e to 201g, a color filter 201h, and a microlens 201c in this order from the bottom layer.

図3(b)は、撮像光学系の射出瞳面上における光電変換部201a,201bの逆投影像EP1a,EP1bを光軸方向から見て示した図である。撮像素子14は、2つの光電変換部201a,201bのうち一方からの信号を出力することができるとともに、これらの両方からの信号を加算して出力できる画素を有する。加算して出力された信号は、焦点検出瞳EP1a,EP1bを通過した全ての光束を光電変換して得られた信号である。 FIG. 3B is a diagram showing back projection images EP1a and EP1b of the photoelectric conversion units 201a and 201b on the exit pupil surface of the imaging optical system when viewed from the optical axis direction. The image pickup device 14 has pixels capable of outputting signals from one of the two photoelectric conversion units 201a and 201b and adding and outputting signals from both of them. The added and output signal is a signal obtained by photoelectric conversion of all the luminous fluxes that have passed through the focus detection pupils EP1a and EP1b.

図3(a)において、撮像光学系を通過する光束(図ではその外縁を直線で示している)Lは、絞り312の開口板312aによって制限されており、焦点検出瞳EP1a,EP1bからの光束は撮像光学系においてケラレることなく画素200に到達する。図3(b)では、図3(a)に示した光束Lの射出瞳面での断面(外縁)をTLとして示している。TLで示される円(つまりは開口板312aの開口)の内部に2つの光電変換部201a,201bの逆投影像EP1a,EP1bの大部分が含まれていることから、逆投影像EP1a,EP1bにはわずかなケラレしか発生していないことが分かる。この際、射出瞳面の中央では逆投影像EP1a,EP1bのケラレ状態は、撮像光学系の光軸(図3(a)に一点鎖線で示す)に関して対称となり、光電変換部201a,201bが受光する光量は互いに等しい。 In FIG. 3A, the luminous flux L passing through the imaging optical system (the outer edge thereof is shown by a straight line in the figure) is limited by the aperture plate 312a of the aperture 312, and the luminous flux from the focus detection pupils EP1a and EP1b. Reaches the pixel 200 without vignetting in the imaging optical system. In FIG. 3B, the cross section (outer edge) of the luminous flux L shown in FIG. 3A on the exit pupil surface is shown as TL. Since most of the back-projection images EP1a and EP1b of the two photoelectric conversion units 201a and 201b are contained inside the circle represented by TL (that is, the opening of the opening plate 312a), the back-projection images EP1a and EP1b It can be seen that only a small amount of vignetting has occurred. At this time, in the center of the exit pupil surface, the vignetting states of the inverse projection images EP1a and EP1b are symmetrical with respect to the optical axis of the imaging optical system (shown by the alternate long and short dash line in FIG. 3A), and the photoelectric conversion units 201a and 201b receive light. The amount of light emitted is equal to each other.

このように、撮像素子14は被写体像を撮像する機能だけではなく、レンズ射出瞳における互いに異なる焦点検出瞳からの光束を個別に受光して撮像面位相差検出方式の焦点検出を行う機能も有する。なお、本実施形態では、撮像素子14の1つの画素が一対の光電変換部を有する場合について説明するが、互いに異なる一部が遮光された2つの焦点検出専用画素を一対の光電変換部として用いてもよい。 As described above, the image sensor 14 not only has a function of capturing a subject image, but also has a function of individually receiving light fluxes from different focal detection pupils in the lens exit pupil and performing focus detection by an imaging surface phase difference detection method. .. In the present embodiment, the case where one pixel of the image sensor 14 has a pair of photoelectric conversion units will be described, but two focal detection dedicated pixels that are partially shaded from each other are used as a pair of photoelectric conversion units. You may.

図4は、撮像範囲400内における焦点検出領域401を示す図である。本実施形態では、複数(3つ)の焦点検出領域401で撮像面位相差検出方式の焦点検出を行う。焦点検出領域401内では、水平方向のコントラスト差を用いて位相差を検出する。 FIG. 4 is a diagram showing a focus detection region 401 within the imaging range 400. In the present embodiment, the focus detection of the imaging surface phase difference detection method is performed in a plurality of (three) focus detection regions 401. Within the focus detection region 401, the phase difference is detected using the contrast difference in the horizontal direction.

図5は、本実施形態における一対の位相差像信号430a,430bの例を示している。一対の位相差像信号430a,430bは、撮像素子14における焦点検出領域401内の複数の画素から得られたA信号同士およびB信号同士をそれぞれ連結し、さらに画像処理部20による各種画像処理(補正)が行われた信号である。一対の位相差像信号430a,430bはAF部42に送られる。 FIG. 5 shows an example of a pair of phase difference image signals 430a and 430b in the present embodiment. The pair of phase difference image signals 430a and 430b connect the A signals and the B signals obtained from a plurality of pixels in the focus detection region 401 of the image sensor 14, respectively, and further perform various image processing by the image processing unit 20 ( It is a signal that has been corrected). The pair of phase difference image signals 430a and 430b are sent to the AF unit 42.

図5において、横軸は互いに連結された信号(AまたはB信号)の画素配列方向を示し、縦軸はその信号の強度を示す。図5は、撮像光学系が被写体に対してデフォーカスした状態(非合焦状態)での一対の位相差像信号430a,430bを示している。合焦状態に比べて、位相差像信号430aは左側にずれ、位相差像信号430bは右側にずれている。AF部42は、一対の位相差像信号430a,430bのずれ量(位相差)を相関演算を用いて算出し、その位相差から撮像光学系の被写体に対するデフォーカス量を求める。 In FIG. 5, the horizontal axis indicates the pixel arrangement direction of signals (A or B signals) connected to each other, and the vertical axis indicates the intensity of the signal. FIG. 5 shows a pair of phase difference image signals 430a and 430b in a state in which the imaging optical system is defocused with respect to the subject (out-of-focus state). Compared to the focused state, the phase difference image signal 430a is shifted to the left side, and the phase difference image signal 430b is shifted to the right side. The AF unit 42 calculates the amount of deviation (phase difference) of the pair of phase difference image signals 430a and 430b by using a correlation calculation, and obtains the amount of defocus for the subject of the imaging optical system from the phase difference.

システム制御部50は、レンズシステム制御部346から送信されたフォーカス敏感度(フォーカスレンズ311の単位移動量に対する像面移動量)の情報およびAF部42から得られたデフォーカス量とからフォーカスレンズ311の駆動量を算出する。さらにシステム制御部50は、レンズシステム制御部346から送信されたフォーカス位置の情報とフォーカスレンズ311の駆動量とからフォーカスレンズ311を移動させる目標位置の情報を求めて、レンズシステム制御部346に送信する。レンズシステム制御部346は、フォーカス制御部342を通じてフォーカスレンズ311を移動させる目標位置に移動させる。以上により、撮像面位相差AFによる焦点調節が行われる。 The system control unit 50 uses the focus sensitivity (image plane movement amount with respect to the unit movement amount of the focus lens 311) information transmitted from the lens system control unit 346 and the defocus amount obtained from the AF unit 42 to focus lens 311. Calculate the driving amount of. Further, the system control unit 50 obtains information on the target position for moving the focus lens 311 from the focus position information transmitted from the lens system control unit 346 and the drive amount of the focus lens 311 and transmits the information to the lens system control unit 346. do. The lens system control unit 346 moves the focus lens 311 to a target position to be moved through the focus control unit 342. As described above, the focus is adjusted by the imaging surface phase difference AF.

次に、図6のフローチャートを用いて、本実施形態のカメラ100における撮像制御処理(制御方法)について説明する。図6は、ライブビュー画像を表示する状態から静止画撮像を行う場合の撮像制御処理の流れを示している。コンピュータとしてのシステム制御部50は、コンピュータプログラムとしての制御プログラムに従って本処理を実行する。 Next, the image pickup control process (control method) in the camera 100 of the present embodiment will be described with reference to the flowchart of FIG. FIG. 6 shows the flow of the imaging control process when the still image is captured from the state where the live view image is displayed. The system control unit 50 as a computer executes this process according to a control program as a computer program.

ステップS1において、システム制御部50は、撮像準備開始指示としてのスイッチSW1(62)のオン/オフを検出する。スイッチSW1は、レリーズ(撮像トリガ)ボタンの半押し操作によりオンになる。スイッチSW1がオンであればステップS2に進み、スイッチSW1がオフであれば本処理を終了する。 In step S1, the system control unit 50 detects on / off of the switch SW1 (62) as an instruction to start preparation for imaging. Switch SW1 is turned on by half-pressing the release (imaging trigger) button. If the switch SW1 is on, the process proceeds to step S2, and if the switch SW1 is off, this process ends.

ステップS2では、システム制御部50(AF部42)は、図4に示した3つの焦点検出領域401における焦点検出データを用いて焦点検出処理を行う。すなわち、AF部42は、図5に示した一対の位相差像信号の位相差からデフォーカス量を算出する焦点検出処理を行う。 In step S2, the system control unit 50 (AF unit 42) performs the focus detection process using the focus detection data in the three focus detection regions 401 shown in FIG. That is, the AF unit 42 performs the focus detection process of calculating the defocus amount from the phase difference of the pair of phase difference image signals shown in FIG.

ステップS3では、システム制御部50は、被写体が動体であるか否かを判定する。被写体が動体であるか否かの判定とは、被写体が光軸方向に時系列に移動しているか否かを判定することである。被写体が動体である場合にはステップS4へ進み、動体でない場合にはステップS5に進む。 In step S3, the system control unit 50 determines whether or not the subject is a moving object. The determination of whether or not the subject is a moving object is to determine whether or not the subject is moving in the optical axis direction in time series. If the subject is a moving object, the process proceeds to step S4, and if the subject is not a moving object, the process proceeds to step S5.

被写体が動体であるか否かの判定方法はフォーカスレンズ駆動が生じていない場合と生じている場合で異なる。フォーカスレンズ駆動が生じていない場合は、ステップS2における焦点検出結果であるデフォーカス量の時系列データから、時系列にデフォーカス量が所定量以上単調増加または単調減少しているかにより、被写体が動体であるか否かを判定する。フォーカスレンズ駆動が生じている場合には、フォーカスレンズ位置に相当する距離情報、またはフォーカスレンズ位置の無限または至近をデフォーカス量0とした基準位置からのデフォーカス量が所定量以上、時系列に単調増加または単調減少しているかにより、被写体が動体であるか否かを判定する。ともに判定の基準を所定量以上としている理由は、ノイズにより誤って被写体を動体と判定することを防止するためである。 The method of determining whether or not the subject is a moving object differs depending on whether the focus lens drive is not occurring or is occurring. When the focus lens is not driven, the subject is a moving object depending on whether the defocus amount is monotonically increased or decreased by a predetermined amount or more in time series from the time series data of the defocus amount which is the focus detection result in step S2. It is determined whether or not it is. When the focus lens is driven, the distance information corresponding to the focus lens position, or the defocus amount from the reference position with the infinity or proximity of the focus lens position as the defocus amount 0 is a predetermined amount or more, in chronological order. Whether or not the subject is a moving object is determined based on whether the subject is monotonically increasing or monotonically decreasing. The reason why the determination standard is set to a predetermined amount or more in both cases is to prevent the subject from being mistakenly determined as a moving object due to noise.

ステップS4では、システム制御部50は、被写***置の予測処理を行うが、この処理の詳細については後述する。 In step S4, the system control unit 50 performs subject position prediction processing, and details of this processing will be described later.

ステップS5では、システム制御部50は、ステップS4で行った予測処理の結果に基づいて、被写***置の予測が可能であるか否かを判定する。予測が可能である場合にはステップS7に進み、予測が可能でない場合にはステップS6へ進む。この判定では、後述する予測演算による予測曲線と履歴データによる過去の被写***置との一致度が高いか否かを判定するとともに、連続撮影中の撮影者による撮像装置を左右に動かすパンニング操作が行われたか否かを検知する。これらによって、焦点検出結果の履歴データが使用可能か否かを判定し、それに基づいて被写***置の予測が可能であるか否かを判定する。 In step S5, the system control unit 50 determines whether or not the subject position can be predicted based on the result of the prediction process performed in step S4. If the prediction is possible, the process proceeds to step S7, and if the prediction is not possible, the process proceeds to step S6. In this determination, it is determined whether or not the degree of coincidence between the prediction curve obtained by the prediction calculation described later and the past subject position based on the historical data is high, and a panning operation is performed by the photographer during continuous shooting to move the image pickup device left and right. Detects whether or not it has been damaged. Based on these, it is determined whether or not the historical data of the focus detection result can be used, and based on this, it is determined whether or not the subject position can be predicted.

ステップS6では、システム制御部50は、ステップS2の焦点検出処理の結果であるデフォーカス量をフォーカスレンズ駆動量に換算し、フォーカスレンズを駆動する。 In step S6, the system control unit 50 converts the defocus amount, which is the result of the focus detection process in step S2, into the focus lens drive amount, and drives the focus lens.

ステップS7では、システム制御部50は、ステップS4での予測処理の結果である被写体予測位置に相当するフォーカスレンズの駆動量を算出し、フォーカスレンズを駆動する。 In step S7, the system control unit 50 calculates the driving amount of the focus lens corresponding to the subject prediction position, which is the result of the prediction processing in step S4, and drives the focus lens.

ステップS8では、システム制御部50は、撮像開始指示としてのスイッチSW2(64)のオン/オフを検出する。スイッチSW2は、レリーズ(撮像トリガ)ボタンの全押し操作によりオンになる。スイッチSW2がオンであればステップS9に進み、スイッチSW2がオフであればステップS1に戻る。 In step S8, the system control unit 50 detects on / off of the switch SW2 (64) as an imaging start instruction. The switch SW2 is turned on by fully pressing the release (imaging trigger) button. If the switch SW2 is on, the process proceeds to step S9, and if the switch SW2 is off, the process returns to step S1.

ステップS9では、システム制御部50は、撮像処理を行い、本処理を終了する。撮像処理については後述する。 In step S9, the system control unit 50 performs an imaging process and ends this process. The imaging process will be described later.

次に、被写***置の予測処理について説明する。 Next, the subject position prediction process will be described.

図7は、被写体の像面位置の時系列的な変化の例を図示した図であり、横軸が時間、縦軸が像面移動量、黒丸が焦点検出した結果に基づいた被写体の像面位置の履歴データ、点線が予測処理による予測曲線を示している。被写体の像面位置の予測では、過去の被写体の像面位置と時刻についての履歴データを用いて、多変量解析(例えば最小2乗法)を行い、予測曲線の式を求める。求めた予測曲線の式に静止画撮影の時刻を代入することにより、被写体の像面予測位置を算出することができる。 FIG. 7 is a diagram illustrating an example of time-series changes in the image plane position of the subject. The horizontal axis is time, the vertical axis is the amount of image plane movement, and the black circle is the image plane of the subject based on the result of focus detection. The historical data of the position and the dotted line show the prediction curve by the prediction processing. In the prediction of the image plane position of the subject, multivariate analysis (for example, the least squares method) is performed using the historical data about the image plane position and time of the past subject, and the formula of the prediction curve is obtained. By substituting the time of still image shooting into the formula of the obtained prediction curve, the predicted position of the image plane of the subject can be calculated.

次に、被写体の像面位置の予測に用いられる、過去の被写体の像面位置と時刻の履歴データ数の変更について図8A〜図8Dを用いて説明する。 Next, changes in the number of historical data of the image plane position and time of the past subject used for predicting the image plane position of the subject will be described with reference to FIGS. 8A to 8D.

図8A〜図8Cは、被写体の像面位置の時系列変化の例を示した図であり、横軸が時間、縦軸が像面移動量、黒丸が焦点検出した結果に基づいた被写体の像面位置と時刻の履歴データ、点線が予測処理による予測曲線を示している。 8A to 8C are diagrams showing an example of time-series changes in the image plane position of the subject, in which the horizontal axis is time, the vertical axis is the amount of image plane movement, and the black circle is the image of the subject based on the result of focus detection. The historical data of the surface position and time, and the dotted line show the prediction curve by the prediction processing.

図8Aが被写体の像面位置の時間変化が小さい(像面速度が小さい)場合の例、図8Bが被写体の像面位置の時間変化が大きい(像面速度が大きい)場合の例、図8Cが被写体の像面移動量が途中で一定になる(急停止する)場合の例をそれぞれ示している。 FIG. 8A shows an example when the time change of the image plane position of the subject is small (the image plane speed is small), FIG. 8B shows an example when the time change of the image plane position of the subject is large (the image plane speed is large), and FIG. 8C. Shows examples of cases where the amount of movement of the image plane of the subject becomes constant (stops suddenly) in the middle.

図8Aのように、被写体の像面速度が小さく、且つ像面加速度が小さい場合は、被写体の像面位置と時刻の履歴データを多く用いて予測曲線を算出しても、被写体の像面予測位置の誤差が小さい。また、被写体の像面位置と時刻の履歴データを多く用いることでS/Nもよいため、焦点検出結果であるデフォーカス量の誤差を低減した予測曲線を算出することができ、被写体の像面予測位置の誤差を低減できる。 As shown in FIG. 8A, when the image plane velocity of the subject is small and the image plane acceleration is small, even if the prediction curve is calculated by using a lot of history data of the image plane position and time of the subject, the image plane of the subject is predicted. The position error is small. Further, since the S / N is good by using a lot of historical data of the image plane position and time of the subject, it is possible to calculate a prediction curve in which the error of the defocus amount which is the focus detection result is reduced, and the image plane of the subject can be calculated. The error of the predicted position can be reduced.

図8Bのように、被写体の像面速度が大きく、且つ像面加速度が大きい場合は、被写体の像面位置の履歴データを多く用いると、像面加速度が小さい時刻の履歴データも使用することになるため、予測曲線を算出しても、像面の予測位置の誤差が大きくなる。そのため、デフォーカスが生じ、ボケた画像が撮影されてしまう。 As shown in FIG. 8B, when the image plane velocity of the subject is high and the image plane acceleration is high, if a lot of historical data of the image plane position of the subject is used, the historical data of the time when the image plane acceleration is small is also used. Therefore, even if the prediction curve is calculated, the error of the prediction position of the image plane becomes large. Therefore, defocus occurs and a blurred image is taken.

そこで、本実施形態では、像面加速度が大きい場合には、予測曲線算出に使用する被写体の像面位置と時刻の履歴データ数を少なくすることにより、像面加速度が小さいときの履歴データは用いず、像面加速度が大きいときの履歴データのみを用いるようにする。これにより、被写体の像面予測位置の誤差が低減できる。 Therefore, in the present embodiment, when the image plane acceleration is large, the history data when the image plane acceleration is small is used by reducing the number of history data of the image plane position and time of the subject used for calculating the prediction curve. Instead, use only the historical data when the image plane acceleration is large. As a result, the error of the image plane prediction position of the subject can be reduced.

図8Cは、被写体が急停止する場合の例を示している。被写体が移動状態から急停止する場合には、像面速度が増加から減少に転じる時に、図8Dに示すように、像面速度変化が小さくなるとともに像面加速度が急激に小さくなるタイミングがある。そのタイミングで、図8Aで説明したように、像面加速度が小さいことに基づいて被写体の像面位置と時刻の履歴データ数を多くして像面の予測位置を算出すると、被写体が急停止の場合は被写体の像面加速度が急激に変化するため、像面の予測位置が実際の像面の予測位置に対して過応答して、誤差が大きくなる。 FIG. 8C shows an example when the subject suddenly stops. When the subject suddenly stops from the moving state, when the image plane velocity changes from increasing to decreasing, as shown in FIG. 8D, there is a timing in which the change in the image plane velocity becomes small and the image plane acceleration sharply decreases. At that timing, as described with reference to FIG. 8A, when the predicted position of the image plane is calculated by increasing the number of historical data of the image plane position and time of the subject based on the small image plane acceleration, the subject suddenly stops. In this case, since the acceleration of the image plane of the subject changes abruptly, the predicted position of the image plane overreacts to the predicted position of the actual image plane, and the error becomes large.

そこで、本実施形態では、像面速度と像面加速度に閾値を設け、条件を設定することにより、上記のような被写体の急停止時に像面予測位置が過応答する状態になることを抑制する。 Therefore, in the present embodiment, by setting threshold values for the image plane velocity and the image plane acceleration and setting the conditions, it is possible to prevent the image plane prediction position from becoming overreacting when the subject suddenly stops as described above. ..

次に、図9A、図9Bを用いて、被写体の像面速度または像面加速度に対する、被写体の像面位置と時刻の履歴データ数のテーブルについて説明する。 Next, with reference to FIGS. 9A and 9B, a table of the number of historical data of the image plane position and time of the subject with respect to the image plane velocity or the image plane acceleration of the subject will be described.

図9Aは、像面加速度に対する、被写体の像面位置と時刻の履歴データ数のテーブルを示す図である。この図は、像面加速度と、焦点検出の周期である焦点検出サンプリング周期とに対する使用する履歴データ数の関係を示している。像面加速度が小さく、焦点検出サンプリング周期が小さい場合には予測曲線の算出に使用する履歴データ数を多くし、像面加速度が大きく、焦点検出サンプリング周期が大きい場合には予測曲線の算出に使用する履歴データ数を少なくする。 FIG. 9A is a diagram showing a table of the number of historical data of the image plane position and time of the subject with respect to the image plane acceleration. This figure shows the relationship between the image plane acceleration and the number of historical data used for the focus detection sampling cycle, which is the focus detection cycle. When the image plane acceleration is small and the focus detection sampling cycle is small, the number of historical data used to calculate the prediction curve is large, and when the image plane acceleration is large and the focus detection sampling cycle is large, it is used to calculate the prediction curve. Reduce the number of historical data to be performed.

図9Bは、像面速度に対する、被写体の像面位置と時刻の履歴データ数のテーブルを示す図である。この図は、像面速度と、焦点検出の周期である焦点検出サンプリング周期とに対する使用する履歴データ数の関係を示している。像面速度が小さく、焦点検出サンプリング周期が小さい場合には予測曲線の算出に使用する履歴データ数を多くし、像面速度が大きく、焦点検出サンプリング周期が大きい場合には予測曲線の算出に使用する履歴データ数を少なくする。 FIG. 9B is a diagram showing a table of the number of historical data of the image plane position and time of the subject with respect to the image plane velocity. This figure shows the relationship between the image plane velocity and the number of historical data used with respect to the focus detection sampling cycle, which is the focus detection cycle. When the image plane velocity is small and the focus detection sampling cycle is small, the number of historical data used to calculate the prediction curve is large, and when the image plane velocity is large and the focus detection sampling cycle is large, it is used to calculate the prediction curve. Reduce the number of historical data to be performed.

なお、テーブルは上記に限らず、焦点検出結果のデフォーカス量の信頼性やばらつき範囲を加味して用意してもよい。また被写体が近づく場合と遠ざかる場合とでテーブルを変更してもよい。さらに焦点検出と撮影の時間差を加味したテーブルを用いてもよい。これらのテーブルは予めカメラ内に記憶するか、ネットワーク又は記憶媒体を介してカメラに供給するようにしてもよい。 The table is not limited to the above, and may be prepared in consideration of the reliability of the defocus amount of the focus detection result and the variation range. Further, the table may be changed depending on whether the subject approaches or moves away. Further, a table may be used in which the time difference between focus detection and photographing is taken into consideration. These tables may be pre-stored in the camera or supplied to the camera via a network or storage medium.

次に、図10は、図6のステップS4における被写体の像面位置の予測処理のサブルーチンを示すフローチャートである。 Next, FIG. 10 is a flowchart showing a subroutine of prediction processing of the image plane position of the subject in step S4 of FIG.

ステップS201では、システム制御部50は、図6のステップS2での焦点検出結果であるデフォーカス量とその時刻の履歴データ数が所定数あるか否かを判定する。所定数ある場合にはステップS202へ進み、ない場合にはステップS216へ進む。予測処理には履歴データ数を複数用いる必要があり、かつ後述する履歴データ数の変更を行うためには、最低限必要な履歴データ数に達していないと変更できないため、本判定を行う。 In step S201, the system control unit 50 determines whether or not the defocus amount, which is the focus detection result in step S2 of FIG. 6, and the number of historical data at that time are a predetermined number. If there is a predetermined number, the process proceeds to step S202, and if not, the process proceeds to step S216. Since it is necessary to use a plurality of historical data in the prediction process and the number of historical data to be changed, which will be described later, cannot be changed unless the minimum required number of historical data has been reached, this determination is performed.

ステップS202では、システム制御部50は、焦点距離が所定値以上であるか否かを判定する。所定値以上である場合にはステップS203へ進み、所定値以上でない場合にはステップS215へ進む。被写体を撮影する画角が同一画角の場合、焦点距離が短ければ被写体の像面位置の変化が小さいため、被写体の像面位置の時間変化である像面移動速度が小さくなる。そのため、前述の履歴データ数を変更する必要性が低い。一方、焦点距離が長い場合(例えば200mm以上)には被写体の像面位置の変化が大きいため、被写体の像面速度が大きくなる。そのため、前述の履歴データ数を変更する必要がある。 In step S202, the system control unit 50 determines whether or not the focal length is equal to or greater than a predetermined value. If it is equal to or more than the predetermined value, the process proceeds to step S203, and if it is not equal to or more than the predetermined value, the process proceeds to step S215. When the angle of view for shooting the subject is the same, if the focal length is short, the change in the image plane position of the subject is small, so that the image plane movement speed, which is the time change of the image plane position of the subject, is small. Therefore, there is little need to change the number of historical data described above. On the other hand, when the focal length is long (for example, 200 mm or more), the change in the image plane position of the subject is large, so that the image plane speed of the subject increases. Therefore, it is necessary to change the number of historical data described above.

ステップS203では、システム制御部50は、被写体距離が所定値以下であるか否かを判定する。所定値以下である場合にはステップS204へ進み、そうでない場合にはステップS215へ進む。被写体距離が近い場合には、被写体距離から幾何光学における公式であるレンズ公式を用いて被写体の像面位置を算出すると、像面位置の変化が大きい。そのため、前述の履歴データ数を変更する必要がある。 In step S203, the system control unit 50 determines whether or not the subject distance is equal to or less than a predetermined value. If it is equal to or less than a predetermined value, the process proceeds to step S204, and if not, the process proceeds to step S215. When the subject distance is short, the change in the image plane position is large when the image plane position of the subject is calculated from the subject distance using the lens formula which is a formula in geometrical optics. Therefore, it is necessary to change the number of historical data described above.

ステップS204では、システム制御部50は、被写体の移動方向が近づく方向か否かを判定する。近づく方向の場合にはステップS205へ進み、そうでない場合にはステップS206へ進む。 In step S204, the system control unit 50 determines whether or not the moving direction of the subject is approaching. If the direction is approaching, the process proceeds to step S205, and if not, the process proceeds to step S206.

ステップS205では、システム制御部50は、被写体が近づく場合の履歴データ数を決めるテーブルを選択する。 In step S205, the system control unit 50 selects a table that determines the number of historical data when the subject approaches.

ステップS206では、システム制御部50は、被写体が遠ざかる場合の履歴データ数を決めるテーブルを選択する。 In step S206, the system control unit 50 selects a table that determines the number of historical data when the subject moves away.

ステップS207では、システム制御部50は、焦点検出結果のばらつきが所定値以上であるか否かを判定する。所定値以上である場合にはステップS208へ進み、そうでない場合にはステップS209へ進む。焦点検出結果のばらつきとはS/Nが小さいため、焦点検出結果の信頼性が低い状態のことを示す。信頼性が低い場合には履歴データ数を多くし、S/Nを向上させる必要があるため、本判定を行う。 In step S207, the system control unit 50 determines whether or not the variation in the focus detection result is equal to or greater than a predetermined value. If it is equal to or more than a predetermined value, the process proceeds to step S208, and if not, the process proceeds to step S209. The variation in the focus detection result indicates that the reliability of the focus detection result is low because the S / N is small. If the reliability is low, it is necessary to increase the number of historical data and improve the S / N, so this determination is performed.

ステップS208では、システム制御部50は、ばらつきが所定値以上である場合のテーブルを選択し、ステップS209では、ばらつきが所定値未満の場合のテーブルを選択する。 In step S208, the system control unit 50 selects a table when the variation is equal to or greater than a predetermined value, and in step S209, selects a table when the variation is less than a predetermined value.

ステップS210では、システム制御部50は、被写体の像面速度、像面加速度を時系列の被写体の像面位置とその時刻とから算出する。 In step S210, the system control unit 50 calculates the image plane velocity and the image plane acceleration of the subject from the image plane position of the subject in time series and the time thereof.

ステップS211では、システム制御部50は、被写体の像面速度が第1閾値(例えば1mm/sec)以上であるか否かを判定する。第1閾値以上である場合にはステップS212へ進み、そうでない場合にはステップS214へ進む。 In step S211 the system control unit 50 determines whether or not the image plane velocity of the subject is equal to or greater than the first threshold value (for example, 1 mm / sec). If it is equal to or higher than the first threshold value, the process proceeds to step S212, and if not, the process proceeds to step S214.

ステップS212では、システム制御部50は、像面加速度が第2閾値以上であるか否かを判定する。第2閾値以上である場合にはステップS213へ進み、そうでない場合にはステップS214へ進む。 In step S212, the system control unit 50 determines whether or not the image plane acceleration is equal to or greater than the second threshold value. If it is equal to or higher than the second threshold value, the process proceeds to step S213, and if not, the process proceeds to step S214.

ステップS213では、システム制御部50は、図9Aに示したような像面加速度と履歴データ数のテーブルを参照し、予測演算に用いる履歴データ数を設定する。履歴データ数は像面加速度が大きい場合には少なくし、像面加速度が小さい場合には多く設定する。 In step S213, the system control unit 50 refers to a table of image plane acceleration and the number of historical data as shown in FIG. 9A, and sets the number of historical data to be used in the prediction calculation. The number of historical data is set to be small when the image plane acceleration is large, and set to be large when the image plane acceleration is small.

ステップS214では、システム制御部50は、図9Bに示したような像面速度と履歴データ数のテーブルを参照し、予測演算に用いる履歴データ数を設定する。履歴データ数は像面速度が大きい場合には少なくし、像面速度が小さい場合には多く設定する。 In step S214, the system control unit 50 refers to the table of the image plane speed and the number of historical data as shown in FIG. 9B, and sets the number of historical data to be used in the prediction calculation. The number of historical data is set to be small when the image plane speed is high, and set to be large when the image plane speed is low.

ステップS215では、システム制御部50は、予測演算に用いる履歴データ数を固定値(例えば5点)として設定する。固定値とするのは、ステップS202、S203の判定で被写体の像面速度、像面加速度がともに小さいため、履歴データ数を変更する必要性が低いためである。 In step S215, the system control unit 50 sets the number of historical data used for the prediction calculation as a fixed value (for example, 5 points). The fixed value is set because both the image plane velocity and the image plane acceleration of the subject are small in the determinations in steps S202 and S203, so that it is not necessary to change the number of historical data.

ステップS216では、ステップS201の判定で履歴データ数が所定数に達していないため、システム制御部50は、全履歴データ数を予測演算に用いる。 In step S216, since the number of history data has not reached a predetermined number in the determination of step S201, the system control unit 50 uses the total number of history data for the prediction calculation.

ステップS217では、システム制御部50は、ステップS213〜S216で設定した履歴データ数を用いて、多変量解析(例えば最小2乗法)により被写***置の予測曲線を算出する。 In step S217, the system control unit 50 calculates a prediction curve of the subject position by multivariate analysis (for example, the least squares method) using the number of historical data set in steps S213 to S216.

ステップS218では、予測曲線から撮影時の被写体の像面予測位置を算出し、像面位置の予測処理を完了する。 In step S218, the image plane predicted position of the subject at the time of shooting is calculated from the prediction curve, and the image plane position prediction process is completed.

なお、本実施形態では履歴データ数のみを変更したが、時刻が新しい履歴データの重みを大きくして、予測曲線を算出してもよい。 In this embodiment, only the number of historical data is changed, but the prediction curve may be calculated by increasing the weight of the historical data whose time is new.

次に、図11は、図6のS9で行われる撮像処理のサブルーチンを示すフローチャートである。 Next, FIG. 11 is a flowchart showing a subroutine of the imaging process performed in S9 of FIG.

まず、ステップS301では、システム制御部50は、光量調節のために絞り312を駆動し、露光時間を制御するシャッター12を駆動する。フラッシュ48を閃光発光させて撮像を行う場合には、システム制御部50は、その発光のタイミングに合わせてシャッター12を駆動する。 First, in step S301, the system control unit 50 drives the aperture 312 to adjust the amount of light, and drives the shutter 12 to control the exposure time. When the flash 48 is flashed to perform imaging, the system control unit 50 drives the shutter 12 in accordance with the timing of the flash.

続いて、ステップS302では、システム制御部50は、撮像素子14から静止画の撮像のための全画素読み出しを行う。 Subsequently, in step S302, the system control unit 50 reads out all pixels for capturing a still image from the image sensor 14.

ステップS303では、システム制御部50(画像処理部20)は、撮像素子14から読み出した撮像信号に対して、事前に記憶された欠陥画素の位置情報に基づく欠陥画素補間を行う。欠陥画素は、画素間の出力オフセットやゲインのばらつきが大きい画素や、撮像に使用されなかった画素(前述した焦点検出専用画素等)が含まれる。 In step S303, the system control unit 50 (image processing unit 20) performs defect pixel interpolation based on the position information of the defective pixels stored in advance with respect to the image pickup signal read from the image pickup element 14. Defective pixels include pixels with large variations in output offset and gain between pixels, and pixels not used for imaging (such as the above-mentioned focus detection dedicated pixels).

ステップS304では、システム制御部50は、撮像信号に対して、γ補正、色変換、エッジ強調等の画像処理を行って撮像画像データ(静止画データ)を生成する。そしてステップS305において、システム制御部50は、撮像画像データをメモリ30に記録する。 In step S304, the system control unit 50 performs image processing such as gamma correction, color conversion, and edge enhancement on the image pickup signal to generate captured image data (still image data). Then, in step S305, the system control unit 50 records the captured image data in the memory 30.

ステップS306では、システム制御部50は、ステップS305において記録した撮像画像データに対応付けて、カメラ100の特性情報をメモリ30およびシステム制御部50内のメモリに記録する。カメラ100の特性情報とは、例えば、露光時間、現像時の画像処理、撮像素子14の画素の受光感度分布およびカメラ100内での撮像光束のケラレに関する情報等である。画素の受光感度分布は、マイクロレンズ201cおよびフォトダイオード201a,201bの相対的な位置関係により決定されるため、画素の受光感度分布ではなく、マイクロレンズとフォトダイオードの位置関係に関する情報を記録してもよい。また、カメラ100の特性情報は、カメラ100と撮像レンズ300との取り付け面から撮像素子14までの距離や製造誤差に関する情報も含む。 In step S306, the system control unit 50 records the characteristic information of the camera 100 in the memory 30 and the memory in the system control unit 50 in association with the captured image data recorded in step S305. The characteristic information of the camera 100 includes, for example, information on the exposure time, image processing during development, the light receiving sensitivity distribution of the pixels of the image sensor 14, and the vignetting of the imaged luminous flux in the camera 100. Since the light-receiving sensitivity distribution of the pixels is determined by the relative positional relationship between the microlens 201c and the photodiodes 201a and 201b, information regarding the positional relationship between the microlens and the photodiode is recorded instead of the light-receiving sensitivity distribution of the pixels. May be good. The characteristic information of the camera 100 also includes information on the distance from the mounting surface of the camera 100 and the image pickup lens 300 to the image pickup element 14 and manufacturing errors.

ステップS307では、システム制御部50は、ステップS305において記録した撮像画像データに対応付けて、撮像レンズ300の特性情報をメモリ30とシステム制御部50内のメモリに記録する。撮像レンズ300の特性情報とは、例えば、射出瞳、枠情報、撮像時の焦点距離やFナンバー、撮像光学系の収差および製造誤差に関する情報等である。 In step S307, the system control unit 50 records the characteristic information of the image pickup lens 300 in the memory 30 and the memory in the system control unit 50 in association with the image capture image data recorded in step S305. The characteristic information of the imaging lens 300 is, for example, exit pupil, frame information, focal length and F number at the time of imaging, information on aberration of the imaging optical system, manufacturing error, and the like.

ステップS308では、システム制御部50は、撮像画像データに関する画像関連情報をメモリ30およびシステム制御部50内のメモリに記録する。画像関連情報とは、例えば、撮像前の焦点検出動作に関する情報、被写体の移動、焦点検出動作の精度に関する情報等である。 In step S308, the system control unit 50 records image-related information regarding the captured image data in the memory 30 and the memory in the system control unit 50. The image-related information includes, for example, information on the focus detection operation before imaging, information on the movement of the subject, information on the accuracy of the focus detection operation, and the like.

そして、ステップS308で撮像処理を終了する。 Then, in step S308, the imaging process is completed.

以上説明したように、上記の実施形態によれば、被写体の像面速度や像面加速度が大きい場合でも、被写体の像面位置の予測に用いる被写***置の履歴データ数を適切に選択することにより、適切に被写体の像面位置の予測を行うことが可能となる。 As described above, according to the above embodiment, even when the image plane velocity or the image plane acceleration of the subject is large, the number of historical data of the subject position used for predicting the image plane position of the subject is appropriately selected. , It becomes possible to appropriately predict the position of the image plane of the subject.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

14:撮像素子、50:システム制御部、100:カメラ、105:焦点検出ユニット、300:撮像レンズ、311:フォーカスレンズ 14: Image sensor, 50: System control unit, 100: Camera, 105: Focus detection unit, 300: Image lens, 311: Focus lens

Claims (18)

撮像光学系を介して入射した光を光電変換して得られた信号に基づいて焦点検出を行う焦点検出手段と、
前記焦点検出手段の焦点検出動作により、時系列的に得られた被写体の像面位置と、該像面位置に対応する時刻の情報とを履歴データとして記憶する記憶手段と、
前記履歴データに基づいて、被写体の像面速度と像面加速度とを算出する算出手段と、
前記履歴データに基づいて、被写体を撮像する時刻における被写体の像面位置を予測する予測手段と、を備え、
前記予測手段は、前記像面速度と前記像面加速度とに基づいて、被写体の像面位置を予測するために用いる前記履歴データの数を変更することを特徴とする撮像装置。
A focus detection means that performs focus detection based on a signal obtained by photoelectric conversion of light incident through an imaging optical system, and
A storage means that stores the image plane position of the subject obtained in time series by the focus detection operation of the focus detection means and the time information corresponding to the image plane position as historical data.
A calculation means for calculating the image plane velocity and the image plane acceleration of the subject based on the historical data, and
A prediction means for predicting the position of the image plane of the subject at the time when the subject is imaged based on the historical data is provided.
The predicting means is an imaging device that changes the number of historical data used for predicting the image plane position of a subject based on the image plane velocity and the image plane acceleration.
前記撮像光学系により結像された被写体像を光電変換する撮像素子をさらに備え、前記焦点検出手段は、前記撮像素子により得られた信号に基づいて焦点検出を行うことを特徴とする請求項1に記載の撮像装置。 Claim 1 is further provided with an image pickup element that photoelectrically converts a subject image imaged by the image pickup optical system, and the focus detection means performs focus detection based on a signal obtained by the image pickup element. The image sensor according to. 前記焦点検出手段は、前記撮像素子により得られた信号に基づいて、位相差検出方式の焦点検出を行うことを特徴とする請求項2に記載の撮像装置。 The image pickup apparatus according to claim 2, wherein the focus detection means performs focus detection by a phase difference detection method based on a signal obtained by the image sensor. 前記焦点検出手段は、前記撮像素子により得られた信号に基づいて、コントラスト検出方式の焦点検出を行うことを特徴とする請求項2に記載の撮像装置。 The image pickup apparatus according to claim 2, wherein the focus detection means performs focus detection by a contrast detection method based on a signal obtained by the image pickup device. 前記焦点検出手段は、2次結像光学系と光電変換素子とを備え、位相差検出方式よる焦点検出を行うことを特徴とする請求項1に記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the focus detection means includes a secondary imaging optical system and a photoelectric conversion element, and performs focus detection by a phase difference detection method. 前記予測手段は、前記像面速度が大きくなるにつれて、被写体の像面位置を予測するために用いる前記履歴データの数を少なくすることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 The method according to any one of claims 1 to 5, wherein the prediction means reduces the number of the history data used for predicting the image plane position of the subject as the image plane velocity increases. Imaging device. 前記予測手段は、前記像面加速度が大きくなるにつれて、被写体の像面位置を予測するために用いる前記履歴データの数を少なくすることを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The method according to any one of claims 1 to 6, wherein the prediction means reduces the number of the historical data used for predicting the image plane position of the subject as the image plane acceleration increases. Imaging device. 前記予測手段は、前記像面速度または前記像面加速度と、焦点検出の周期と、前記履歴データの数との関係を表すテーブルを参照して、被写体の像面位置を予測するために用いる前記履歴データの数を決定することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 The prediction means is used to predict the image plane position of a subject by referring to a table showing the relationship between the image plane velocity or the image plane acceleration, the focus detection cycle, and the number of historical data. The imaging apparatus according to any one of claims 1 to 7, wherein the number of historical data is determined. 前記予測手段は、前記像面速度と前記像面加速度とに基づいて、参照する前記テーブルを変更することを特徴とする請求項8に記載の撮像装置。 The imaging apparatus according to claim 8, wherein the predicting means changes the table to be referred to based on the image plane velocity and the image plane acceleration. 前記予測手段は、前記像面速度と前記像面加速度とに基づいて、前記像面加速度からなるテーブルと前記像面速度からなるテーブルとを切り替えることを特徴とする請求項9に記載の撮像装置。 The imaging apparatus according to claim 9, wherein the prediction means switches between a table composed of the image plane acceleration and a table composed of the image plane velocity based on the image plane velocity and the image plane acceleration. .. 前記予測手段は、前記被写体の像面速度が第1閾値以上かつ像面加速度が第2閾値以上である場合には、前記像面加速度からなるテーブルを参照することを特徴とする請求項10に記載の撮像装置。 The tenth aspect of the present invention is characterized in that, when the image plane velocity of the subject is equal to or higher than the first threshold value and the image plane acceleration is equal to or higher than the second threshold value, the prediction means refers to a table including the image plane acceleration. The imaging apparatus described. 前記予測手段は、前記被写体の像面速度が前記第1閾値より小さい場合に、前記像面速度からなるテーブルを参照することを特徴とする請求項11に記載の撮像装置。 The imaging apparatus according to claim 11, wherein the predicting means refers to a table including the image plane velocity when the image plane velocity of the subject is smaller than the first threshold value. 前記予測手段は、前記焦点検出手段による焦点検出結果のばらつきに基づいて、参照する前記テーブルを変更することを特徴とする請求項8に記載の撮像装置。 The imaging device according to claim 8, wherein the prediction means changes the table to be referred to based on a variation in the focus detection result by the focus detection means. 前記予測手段は、前記撮像光学系の焦点距離が所定値より小さい場合に、前記履歴データの数を固定値とすることを特徴とする請求項1乃至13のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 13, wherein the prediction means sets the number of historical data to a fixed value when the focal length of the imaging optical system is smaller than a predetermined value. .. 前記予測手段は、被写体の距離が所定値より大きい場合に、前記履歴データの数を固定値とすることを特徴とする請求項1乃至12のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 12, wherein the prediction means sets the number of historical data to a fixed value when the distance of the subject is larger than a predetermined value. 撮像光学系を介して入射した光を光電変換して得られた信号に基づいて焦点検出を行う焦点検出工程と、
前記焦点検出工程での焦点検出動作により、時系列的に得られた被写体の像面位置と、該像面位置に対応する時刻の情報とを履歴データとして記憶する記憶工程と、
前記履歴データに基づいて、被写体の像面速度と像面加速度とを算出する算出工程と、
前記履歴データに基づいて、被写体を撮像する時刻における被写体の像面位置を予測する予測工程と、を有し、
前記予測工程では、前記像面速度と前記像面加速度とに基づいて、被写体の像面位置を予測するために用いる前記履歴データの数を変更することを特徴とする撮像装置の制御方法。
A focus detection step in which focus detection is performed based on a signal obtained by photoelectric conversion of light incident through an imaging optical system, and
A storage step of storing the image plane position of the subject obtained in time series by the focus detection operation in the focus detection step and the time information corresponding to the image plane position as historical data.
A calculation process for calculating the image plane velocity and the image plane acceleration of the subject based on the historical data, and
It has a prediction step of predicting the position of the image plane of the subject at the time when the subject is imaged based on the historical data.
The prediction step is a control method for an imaging device, which comprises changing the number of historical data used for predicting the image plane position of a subject based on the image plane velocity and the image plane acceleration.
請求項16に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 16. 請求項16に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing a computer to execute each step of the control method according to claim 16.
JP2020054902A 2020-03-25 2020-03-25 Imaging device and control method of the same, program and storage medium Pending JP2021156961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020054902A JP2021156961A (en) 2020-03-25 2020-03-25 Imaging device and control method of the same, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054902A JP2021156961A (en) 2020-03-25 2020-03-25 Imaging device and control method of the same, program and storage medium

Publications (1)

Publication Number Publication Date
JP2021156961A true JP2021156961A (en) 2021-10-07

Family

ID=77919731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054902A Pending JP2021156961A (en) 2020-03-25 2020-03-25 Imaging device and control method of the same, program and storage medium

Country Status (1)

Country Link
JP (1) JP2021156961A (en)

Similar Documents

Publication Publication Date Title
JP6405243B2 (en) Focus detection apparatus and control method thereof
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
JP5623254B2 (en) Imaging apparatus and control method thereof
JP4155280B2 (en) Imaging device
US11539874B2 (en) Image-capturing apparatus and control method thereof
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
US7019775B2 (en) Image sensing apparatus and control method thereof
JP2008298943A (en) Focal point control device and imaging device
JP5361356B2 (en) Focus detection apparatus and control method thereof
JP6960755B2 (en) Imaging device and its control method, program, storage medium
JP5063184B2 (en) IMAGING DEVICE, LIGHT EMITTING DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP6941011B2 (en) Imaging device and its control method, program, storage medium
JP4863370B2 (en) Imaging device
JP2011191340A (en) Imaging apparatus
JP2021156961A (en) Imaging device and control method of the same, program and storage medium
CN109387992B (en) Image pickup apparatus capable of sufficiently ensuring light emission accuracy and control method thereof
JP7195783B2 (en) IMAGING DEVICE, ACCESSORY DEVICE AND CONTROL METHOD THEREOF
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP7225192B2 (en) Imaging device and its control method
JP7066458B2 (en) Imaging device and its control method, program
JP2019086635A (en) Imaging apparatus and control method thereof
JP7171265B2 (en) Imaging device and its control method
JP7005313B2 (en) Imaging device and its control method, program, storage medium
JP2011175172A (en) Digital camera
JP3269484B2 (en) 3D information input camera

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240430