JP2018066928A - Solid state image pickup element, control method thereof, and imaging apparatus - Google Patents

Solid state image pickup element, control method thereof, and imaging apparatus Download PDF

Info

Publication number
JP2018066928A
JP2018066928A JP2016206710A JP2016206710A JP2018066928A JP 2018066928 A JP2018066928 A JP 2018066928A JP 2016206710 A JP2016206710 A JP 2016206710A JP 2016206710 A JP2016206710 A JP 2016206710A JP 2018066928 A JP2018066928 A JP 2018066928A
Authority
JP
Japan
Prior art keywords
evaluation value
phase difference
signal
pixel
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016206710A
Other languages
Japanese (ja)
Other versions
JP6881939B2 (en
Inventor
誠 伊勢
Makoto Ise
誠 伊勢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016206710A priority Critical patent/JP6881939B2/en
Priority to US15/784,354 priority patent/US10284800B2/en
Publication of JP2018066928A publication Critical patent/JP2018066928A/en
Priority to US16/358,854 priority patent/US10609315B2/en
Application granted granted Critical
Publication of JP6881939B2 publication Critical patent/JP6881939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a solid state image pickup element capable of achieving quick and highly accurate autofocus using hybrid AF, a control method of the same, and an imaging apparatus.SOLUTION: The solid state image pickup element comprises: a pixel array including a plurality of pixels; a first calculation part calculating, based on a signal from the pixels, a phase difference evaluation value for focus detection by phase difference detection method; and a second calculation part calculating, based on a signal from the pixels, a contrast evaluation value for focus detection by contrast detection method. When the calculation of the phase difference evaluation value is completed by the first calculation part, the solid state image pickup element outputs the phase difference evaluation value irrespective of whether a pixel signal obtained by the pixel array is completely outputted, and when the calculation of the contrast evaluation value is completed by the second calculation part, the solid state image pickup element outputs the contrast evaluation value irrespective of whether the pixel signal obtained by the pixel array is completely outputted.SELECTED DRAWING: Figure 6

Description

本発明は、固体撮像素子及びその制御方法並びに撮像装置に関する。   The present invention relates to a solid-state imaging device, a control method thereof, and an imaging apparatus.

デジタルカメラやビデオカメラ等の撮像装置には、被写体のピント(レンズのフォーカス位置)を自動的に合わせるオートフォーカス(AF:Auto Focus)機能が搭載されている。   An imaging apparatus such as a digital camera or a video camera is equipped with an auto focus (AF) function that automatically adjusts the focus (lens focus position) of a subject.

迅速なオートフォーカスを実現するためには、高いフレームレートで、焦点検出用の信号を読み出す必要がある。しかし、焦点検出用の信号を高いフレームレートで読み出した場合には、固体撮撮像素子の後段に位置する信号処理部へのデータ転送量の増加を招く。そこで、AF評価値を検出するAF評価値検出部を固体撮像素子の内部に設け、当該AF評価値検出部によって検出されたAF評価値を外部に出力する固体撮像素子が提案されている(特許文献1参照)。   In order to realize quick autofocus, it is necessary to read out a focus detection signal at a high frame rate. However, when the focus detection signal is read out at a high frame rate, the amount of data transferred to the signal processing unit located at the subsequent stage of the solid-state imaging device is increased. In view of this, there has been proposed a solid-state imaging device in which an AF evaluation value detection unit for detecting an AF evaluation value is provided inside the solid-state imaging device, and the AF evaluation value detected by the AF evaluation value detection unit is output to the outside (patent). Reference 1).

特開2015−12489号公報Japanese Patent Laying-Open No. 2015-12487

ところで、AF方式として、位相差検出方式によるAF、即ち、位相差AFと、コントラスト検出方式によるAF、即ち、コントラストAFとを組み合わせたハイブリッドAFが知られている。ハイブリッドAFにおいては、位相差AFによってフォーカスレンズを合焦近傍位置まで移動させ、更に、コントラストAFによってフォーカスレンズを合焦位置に移動させる方法が一般的である。これにより、合焦までの時間の短縮と合焦精度の向上とが図られる。しかしながら、特許文献1では、ハイブリッドAF技術について考慮されていないため、撮影条件などによっては、必ずしも迅速且つ高精度なオートフォーカスを実現し得なかった。   By the way, as the AF method, there is known a hybrid AF in which AF by a phase difference detection method, that is, phase difference AF, and AF by a contrast detection method, that is, contrast AF are combined. In the hybrid AF, a method of moving the focus lens to the in-focus position by phase difference AF and further moving the focus lens to the in-focus position by contrast AF is common. This shortens the time until focusing and improves focusing accuracy. However, in Patent Document 1, since the hybrid AF technique is not taken into consideration, it is not always possible to realize a quick and highly accurate autofocus depending on the shooting conditions.

本発明の目的は、ハイブリッドAFを用いて、迅速且つ高精度なオートフォーカスを実現し得る固体撮像素子及びその制御方法並びに撮像装置を提供することにある。   An object of the present invention is to provide a solid-state imaging device, a control method therefor, and an imaging apparatus capable of realizing quick and highly accurate autofocus using hybrid AF.

本発明の一観点によれば、複数の画素を含む画素アレイと、位相差検出方式による焦点検出のための位相差評価値を、前記画素からの信号に基づいて算出する第1の算出部と、コントラスト検出方式による焦点検出のためのコントラスト評価値を、前記画素からの信号に基づいて算出する第2の算出部とを有し、前記位相差評価値の算出が前記第1の算出部によって完了した場合には、前記画素アレイによって取得される画像信号の出力の完了の如何にかかわらず、前記位相差評価値を出力し、前記コントラスト評価値の算出が前記第2の算出部によって完了した場合には、前記画素アレイによって取得される前記画像信号の出力の完了の如何にかかわらず、前記コントラスト評価値を出力することを特徴とする固体撮像素子が提供される。   According to an aspect of the present invention, a pixel array including a plurality of pixels, and a first calculation unit that calculates a phase difference evaluation value for focus detection by a phase difference detection method based on a signal from the pixels; A second calculation unit that calculates a contrast evaluation value for focus detection by a contrast detection method based on a signal from the pixel, and the calculation of the phase difference evaluation value is performed by the first calculation unit. When completed, the phase difference evaluation value is output regardless of whether the output of the image signal acquired by the pixel array is completed, and the calculation of the contrast evaluation value is completed by the second calculation unit. In some cases, a solid-state imaging device is provided that outputs the contrast evaluation value regardless of completion of output of the image signal acquired by the pixel array.

本発明によれば、位相差評価値が算出された場合には、画像信号の出力の完了の如何にかかわらず、固体撮像素子から位相差評価値が出力される。また、本発明によれば、コントラスト評価値が算出された場合には、画像信号の出力の完了の如何にかかわらず、固体撮像素子からコントラスト評価値が出力される。本発明によれば、画像信号の出力の完了の如何にかかわらず、位相差評価値やコントラスト評価値が制御部に出力されるため、オートフォーカスを迅速且つ高精度に行い得る撮像装置を提供することができる。   According to the present invention, when the phase difference evaluation value is calculated, the phase difference evaluation value is output from the solid-state imaging device regardless of whether the output of the image signal is completed. According to the present invention, when the contrast evaluation value is calculated, the contrast evaluation value is output from the solid-state imaging device regardless of whether the output of the image signal is completed. According to the present invention, since the phase difference evaluation value and the contrast evaluation value are output to the control unit regardless of whether the output of the image signal is completed, an imaging apparatus capable of performing autofocus quickly and with high accuracy is provided. be able to.

第1実施形態による撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device by 1st Embodiment. 図2(a)は、第1実施形態による固体撮像素子の構造を示す斜視図である。FIG. 2A is a perspective view showing the structure of the solid-state imaging device according to the first embodiment. 図2(b)及び図2(c)は、第1実施形態による固体撮像素子を示す回路図である。2B and 2C are circuit diagrams illustrating the solid-state imaging device according to the first embodiment. 通常行に配された画素と撮像光学系とを示す図である。It is a figure which shows the pixel and imaging optical system which were distribute | arranged to the normal line. AF行に配された画素と撮像光学系とを示す図である。It is a figure which shows the pixel and imaging optical system which were distribute | arranged to AF line. 第1実施形態による固体撮像素子における読み出しの際の選択行の例を示す図である。It is a figure which shows the example of the selection line at the time of the reading in the solid-state image sensor by 1st Embodiment. 第1実施形態による撮像装置の動作を示すタイムチャートである。It is a time chart which shows operation | movement of the imaging device by 1st Embodiment. 第1実施形態による撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging device by 1st Embodiment. 第2実施形態による撮像装置の動作を示すタイムチャートである。It is a time chart which shows operation | movement of the imaging device by 2nd Embodiment. 第2実施形態による撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging device by 2nd Embodiment. 第3実施形態による固体撮像素子を示す回路図である。It is a circuit diagram which shows the solid-state image sensor by 3rd Embodiment. 図11(a)及び図11(b)は、画素アレイのレイアウト及び出力される信号を概念的に示す図である。FIG. 11A and FIG. 11B are diagrams conceptually showing the layout of the pixel array and the output signals. 図11(c)は、第3実施形態による撮像装置の動作の例を示すタイムチャートである。FIG. 11C is a time chart illustrating an example of the operation of the imaging apparatus according to the third embodiment. 図11(d)は、第3実施形態による撮像装置の動作の他の例を示すタイムチャートである。FIG. 11D is a time chart illustrating another example of the operation of the imaging apparatus according to the third embodiment. 参考例による固体撮像素子から出力される信号を概念的に示す図である。It is a figure which shows notionally the signal output from the solid-state image sensor by a reference example. 参考例による撮像装置の動作の例を示すタイムチャートである。It is a time chart which shows the example of operation of the imaging device by a reference example. 参考例による撮像装置の動作の他の例を示すタイムチャートである。It is a time chart which shows the other example of operation | movement of the imaging device by a reference example.

本発明の実施の形態を、添付の図面を参照して以下に詳細に説明するが、本発明は、以下の実施形態に限定されるものではない。
[第1実施形態]
第1実施形態による固体撮像素子及びその制御方法並びに撮像装置について図1乃至図7を用いて説明する。図1は、本実施形態による撮像装置の構成を示すブロック図である。ここでは、本実施形態による撮像装置100が、動画像や静止画像を取得し得る電子カメラ、即ち、デジタルカメラである場合を例に説明するが、これに限定されるものではない。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings, but the present invention is not limited to the following embodiments.
[First Embodiment]
A solid-state imaging device, a control method thereof, and an imaging apparatus according to a first embodiment will be described with reference to FIGS. FIG. 1 is a block diagram illustrating the configuration of the imaging apparatus according to the present embodiment. Here, the case where the imaging apparatus 100 according to the present embodiment is an electronic camera that can acquire moving images and still images, that is, a digital camera will be described as an example, but the present invention is not limited thereto.

図1に示すように、撮像装置100は、光学鏡筒101と、固体撮像素子102と、駆動部103と、信号処理部104と、圧縮伸長部105と、制御部106と、発光部107と、操作部108と、画像表示部109と、画像記録部110とを備えている。   As shown in FIG. 1, the imaging apparatus 100 includes an optical barrel 101, a solid-state imaging device 102, a drive unit 103, a signal processing unit 104, a compression / decompression unit 105, a control unit 106, and a light emitting unit 107. , An operation unit 108, an image display unit 109, and an image recording unit 110.

光学鏡筒(レンズユニット)101は、被写体からの光を固体撮像素子102に集光するためのレンズ群を備えている。かかるレンズ群には、フォーカスレンズやズームレンズが含まれる。かかるレンズ群と、後述するマイクロレンズML(図3、図4参照)とが相俟って、撮像光学系を構成する。光学鏡筒101は、AF機構、ズーム駆動機構、メカニカルシャッタ機構、絞り機構等を含む光学機構部1011を備えている。光学機構部1011は、制御部106からの制御信号に基づいて、駆動部(駆動回路)103によって駆動される。   The optical barrel (lens unit) 101 includes a lens group for condensing light from a subject onto the solid-state image sensor 102. Such a lens group includes a focus lens and a zoom lens. Such a lens group and a microlens ML (see FIGS. 3 and 4) described later constitute an imaging optical system. The optical barrel 101 includes an optical mechanism unit 1011 including an AF mechanism, a zoom drive mechanism, a mechanical shutter mechanism, a diaphragm mechanism, and the like. The optical mechanism unit 1011 is driven by a drive unit (drive circuit) 103 based on a control signal from the control unit 106.

固体撮像素子102は、後述する画素201と、A/Dコンバータ(図示せず)とを含んでいる。固体撮像素子102は、例えば、XY読み出し方式のCMOS型イメージセンサである。固体撮像素子102は、制御部106からの制御信号に基づいて、駆動部103によって駆動される。固体撮像素子102は、露光・蓄積、信号読み出し、リセット等の撮像動作を行い、撮像動作によって取得される信号、即ち、撮像信号(以下、「画像信号」、「画像データ」ともいう)を出力する。固体撮像素子102は、AF評価値算出部1021を備えている。AF評価値算出部1021は、固体撮像素子102によって取得される信号に基づいて、AF評価値、即ち、位相差評価値及びコントラスト評価値を算出し、算出したAF評価値を制御部106に出力する。   The solid-state image sensor 102 includes a pixel 201 described later and an A / D converter (not shown). The solid-state image sensor 102 is, for example, an XY readout type CMOS image sensor. The solid-state image sensor 102 is driven by the drive unit 103 based on a control signal from the control unit 106. The solid-state imaging device 102 performs an imaging operation such as exposure / accumulation, signal readout, and reset, and outputs a signal acquired by the imaging operation, that is, an imaging signal (hereinafter also referred to as “image signal” or “image data”). To do. The solid-state image sensor 102 includes an AF evaluation value calculation unit 1021. The AF evaluation value calculation unit 1021 calculates an AF evaluation value, that is, a phase difference evaluation value and a contrast evaluation value, based on a signal acquired by the solid-state imaging device 102, and outputs the calculated AF evaluation value to the control unit 106. To do.

信号処理部104は、制御部106の制御下で、固体撮像素子102によって取得される画像信号に対して、ホワイトバランス調整処理、色補正処理、AE(Auto Exposure)処理等の所定の信号処理を施す。   The signal processing unit 104 performs predetermined signal processing such as white balance adjustment processing, color correction processing, and AE (Auto Exposure) processing on the image signal acquired by the solid-state imaging device 102 under the control of the control unit 106. Apply.

圧縮伸長部105は、制御部106の制御下で動作する。圧縮伸長部105は、信号処理部104から送られてくる画像信号に対して圧縮符号化処理を行うことにより、符号化画像データを生成する。圧縮符号化処理においては、例えば、JPEG(Joint Photographic Coding Experts Group)方式等の所定の静止画像データフォーマットが用いられる。また、圧縮伸長部105は、制御部106から送られてくる符号化画像データに対して伸長復号化処理を行うことにより、復号化画像データを得る。なお、圧縮伸長部105は、動画像データに対して圧縮符号化処理や伸長復号化処理を行うこともできる。動画像データに対する圧縮符号化処理や伸長復号化処理においては、例えば、MPEG(Moving Picture Experts Group)方式等が用いられる。   The compression / decompression unit 105 operates under the control of the control unit 106. The compression / decompression unit 105 generates encoded image data by performing compression encoding processing on the image signal sent from the signal processing unit 104. In the compression encoding process, for example, a predetermined still image data format such as JPEG (Joint Photographic Coding Experts Group) method is used. The compression / decompression unit 105 obtains decoded image data by performing an expansion decoding process on the encoded image data transmitted from the control unit 106. Note that the compression / decompression unit 105 can also perform compression encoding processing and decompression decoding processing on moving image data. In compression encoding processing and decompression decoding processing for moving image data, for example, a moving picture experts group (MPEG) method or the like is used.

制御部106は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を備える。CPUがROM等に記憶されたプログラムを実行することによって、撮像装置100全体が制御部106によって統括的に制御される。   The control unit 106 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). When the CPU executes a program stored in a ROM or the like, the entire imaging apparatus 100 is controlled in an integrated manner by the control unit 106.

信号処理部104によって行われるAE処理において被写体の露光値が低いと判断された場合には、制御部106は、発光部107を制御することによって被写体に対して光を発し、被写体に対する照明を行う。発光部107としては、例えば、キセノン管を用いたストロボ装置やLED発光装置等が用いられる。   When it is determined in the AE process performed by the signal processing unit 104 that the exposure value of the subject is low, the control unit 106 controls the light emitting unit 107 to emit light to illuminate the subject. . As the light emitting unit 107, for example, a strobe device using a xenon tube, an LED light emitting device, or the like is used.

操作部108は、例えば、シャッタレリーズボタン等の各種操作キー、レバー、ダイヤル、タッチパネル等であり、ユーザによる操作入力に応じた操作信号を制御部106に与える。   The operation unit 108 is, for example, various operation keys such as a shutter release button, a lever, a dial, a touch panel, and the like, and gives an operation signal corresponding to an operation input by the user to the control unit 106.

画像表示部109は、例えば、LCD(Liquid Crystal Display)等の表示デバイス(図示せず)と、当該表示デバイスに対するインタフェース(図示せず)とを備えている。画像表示部109は、制御部106から送られる画像データに応じた画像を、表示デバイスの表示画面に表示する。   The image display unit 109 includes, for example, a display device (not shown) such as an LCD (Liquid Crystal Display) and an interface (not shown) for the display device. The image display unit 109 displays an image corresponding to the image data sent from the control unit 106 on the display screen of the display device.

画像記録部110としては、例えば、可搬型の半導体メモリ、光ディスク、HDD(Hard Disk Drive)、磁気テープ等の記録媒体が用いられる。画像記録部110には、圧縮伸長部105によって圧縮符号化処理が施された符号化画像データが画像ファイルとして記録される。画像記録部110は、制御部106によって指定された画像ファイルを記録媒体から読み出し、当該画像ファイルを制御部106に出力する。制御部106は、画像記録部110から読み出された符号化画像データの伸長符号化処理を圧縮伸長部105によって行わせることにより、復号化画像データを得る。   As the image recording unit 110, for example, a recording medium such as a portable semiconductor memory, an optical disk, a HDD (Hard Disk Drive), or a magnetic tape is used. The image recording unit 110 records the encoded image data subjected to the compression encoding process by the compression / decompression unit 105 as an image file. The image recording unit 110 reads the image file designated by the control unit 106 from the recording medium, and outputs the image file to the control unit 106. The control unit 106 obtains decoded image data by causing the compression / decompression unit 105 to perform decompression coding processing of the encoded image data read from the image recording unit 110.

次に、本実施形態による撮像装置100の基本的な動作について説明する。例えば、静止画像を撮影する際には、静止画像の撮像前において、固体撮像素子102が以下のように動作する。即ち、固体撮像素子102は、後述する画素201から出力される画像信号に対してCDS処理とAGC処理とを順次実施し、これらの処理が施された画像信号をA/Dコンバータを用いてデジタル画像信号に変換する。CDSは、Correlated Double Sampling(相関二重サンプリング)の略である。AGCは、Automatic Gain Control(自動利得制御)の略である。こうして得られたデジタル画像信号は、AF評価値算出部1021や信号処理部104に送られる。   Next, the basic operation of the imaging apparatus 100 according to the present embodiment will be described. For example, when capturing a still image, the solid-state image sensor 102 operates as follows before capturing a still image. That is, the solid-state imaging device 102 sequentially performs CDS processing and AGC processing on an image signal output from the pixel 201 described later, and digitally outputs the image signal subjected to these processing using an A / D converter. Convert to image signal. CDS is an abbreviation for Correlated Double Sampling. AGC is an abbreviation for Automatic Gain Control (automatic gain control). The digital image signal thus obtained is sent to the AF evaluation value calculation unit 1021 and the signal processing unit 104.

AF評価値算出部1021は、固体撮像素子102によって取得される画像信号から位相差情報やコントラスト情報等のAF評価値を算出し、算出したAF評価値を制御部106に出力する。制御部106は、AF評価値に基づいて、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定し、決定したフィードバック制御量を駆動部103に出力する。駆動部103は、制御部106から与えられるフィードバック制御量に基づいて、光学機構部1011に備えられたAF機構を用いてフォーカスレンズを駆動する。   The AF evaluation value calculation unit 1021 calculates an AF evaluation value such as phase difference information and contrast information from the image signal acquired by the solid-state imaging device 102, and outputs the calculated AF evaluation value to the control unit 106. The control unit 106 determines a feedback control amount, that is, a focus lens drive amount based on the AF evaluation value, and outputs the determined feedback control amount to the drive unit 103. The drive unit 103 drives the focus lens using the AF mechanism provided in the optical mechanism unit 1011 based on the feedback control amount given from the control unit 106.

信号処理部104は、固体撮像素子102から出力されるデジタル画像信号に対して、例えば画質補正処理を施すことにより、カメラスルー画像信号、即ち、ライブビュー画像信号を生成する。信号処理部104は、生成したライブビュー画像信号を、制御部106を介して画像表示部109に送信する。画像表示部109には、ライブビュー画像信号に応じたライブビュー画像が表示される。ユーザは、画像表示部109に表示されたライブビュー画像を目視しつつ、画角合わせ(フレーミング)等を行うことができる。   The signal processing unit 104 generates a camera-through image signal, that is, a live view image signal, for example, by performing an image quality correction process on the digital image signal output from the solid-state imaging device 102. The signal processing unit 104 transmits the generated live view image signal to the image display unit 109 via the control unit 106. The image display unit 109 displays a live view image corresponding to the live view image signal. The user can perform angle-of-view alignment (framing) and the like while viewing the live view image displayed on the image display unit 109.

ライブビュー画像が画像表示部109に表示されている状態で、操作部108に備えられたシャッタレリーズボタンがユーザによって押下されると、制御部106は、以下のような処理を行う。即ち、制御部106は、駆動部103を介して固体撮像素子102を制御することにより、1フレーム分の撮像信号、即ち、1フレーム分のデジタル画像信号を、固体撮像素子102から信号処理部104に送信させる。信号処理部104は、固体撮像素子102から送信された1フレーム分のデジタル画像信号に対して例えば画質補正処理を施し、画質補正処理後のデジタル画像信号、即ち、画像データを圧縮伸長部105に送信する。圧縮伸長部105は、画像データに対して圧縮符号化の処理を施すことにより、符号化画像データを得る。圧縮伸長部105によって得られた符号化画像データは、制御部106を介して画像記録部110に送信される。こうして、固体撮像素子102を用いて取得された静止画像の画像ファイルが、画像記録部110に記録される。   When the shutter release button provided in the operation unit 108 is pressed by the user while the live view image is displayed on the image display unit 109, the control unit 106 performs the following processing. In other words, the control unit 106 controls the solid-state image sensor 102 via the drive unit 103, whereby an image signal for one frame, that is, a digital image signal for one frame is transmitted from the solid-state image sensor 102 to the signal processing unit 104. To send to. The signal processing unit 104 performs, for example, image quality correction processing on the digital image signal for one frame transmitted from the solid-state imaging device 102, and the digital image signal after the image quality correction processing, that is, image data is sent to the compression / decompression unit 105. Send. The compression / decompression unit 105 obtains encoded image data by performing compression encoding processing on the image data. The encoded image data obtained by the compression / decompression unit 105 is transmitted to the image recording unit 110 via the control unit 106. In this way, an image file of a still image acquired using the solid-state image sensor 102 is recorded in the image recording unit 110.

画像記録部110に記録された静止画像の画像ファイルを再生する際には、制御部106は、以下のような処理を行う。即ち、制御部106は、操作部108を介してユーザによって選択された画像ファイルを、画像記録部110から読み出す。そして、制御部106は、画像記録部110から読み出した画像ファイルを圧縮伸長部105に送信する。圧縮伸長部105は、当該画像ファイルに対して伸長復号化の処理を施すことにより、復号化画像データを得る。制御部106は、圧縮伸長部105によって得られた復号化画像データを、画像表示部109に送信する。画像表示部109は、復号化画像データに応じた静止画像を表示する。   When playing back an image file of a still image recorded in the image recording unit 110, the control unit 106 performs the following processing. That is, the control unit 106 reads the image file selected by the user via the operation unit 108 from the image recording unit 110. Then, the control unit 106 transmits the image file read from the image recording unit 110 to the compression / decompression unit 105. The compression / decompression unit 105 obtains decoded image data by performing an expansion decoding process on the image file. The control unit 106 transmits the decoded image data obtained by the compression / decompression unit 105 to the image display unit 109. The image display unit 109 displays a still image corresponding to the decoded image data.

制御部106は、動画像データを記録する際には、以下のような処理を行う。即ち、制御部106は、駆動部103を介して固体撮像素子102を制御することによって、固体撮像素子102から順次出力されるデジタル画像信号を信号処理部104に順次入力させる。信号処理部104は、順次入力されるデジタル画像信号に対して所定の画像処理を順次行うことにより、画像データ、即ち、動画像データを生成する。圧縮伸長部105は、動画像データに対して圧縮符号化の処理を施すことにより、符号化動画像データを得る。圧縮伸長部105によって得られる符号化動画像データは、制御部106を介して画像記録部110に順次転送され、動画像ファイルとして画像記録部110に記録される。   The control unit 106 performs the following processing when recording moving image data. In other words, the control unit 106 controls the solid-state imaging device 102 via the driving unit 103 to sequentially input digital image signals sequentially output from the solid-state imaging device 102 to the signal processing unit 104. The signal processing unit 104 generates image data, that is, moving image data, by sequentially performing predetermined image processing on sequentially input digital image signals. The compression / decompression unit 105 obtains encoded moving image data by performing compression encoding processing on the moving image data. The encoded moving image data obtained by the compression / decompression unit 105 is sequentially transferred to the image recording unit 110 via the control unit 106 and is recorded in the image recording unit 110 as a moving image file.

画像記録部110に記録された動画像ファイルを再生する際には、制御部106は、以下のような処理を行う。即ち、制御部106は、操作部108を介してユーザによって選択された動画像ファイルを、画像記録部110から読み出す。制御部106は、画像記録部110から読み出した動画像ファイルを圧縮伸長部105に送信する。圧縮伸長部105は、動画像ファイルに対して伸長復号化の処理を施すことにより、復号化動画像データを得る。制御部106は、圧縮伸長部105によって得られた復号化動画像データを画像表示部109に送信する。画像表示部109は、復号化動画像データに応じた動画像を表示する。   When playing back a moving image file recorded in the image recording unit 110, the control unit 106 performs the following processing. That is, the control unit 106 reads out the moving image file selected by the user via the operation unit 108 from the image recording unit 110. The control unit 106 transmits the moving image file read from the image recording unit 110 to the compression / decompression unit 105. The compression / decompression unit 105 obtains decoded moving image data by performing an expansion decoding process on the moving image file. The control unit 106 transmits the decoded moving image data obtained by the compression / decompression unit 105 to the image display unit 109. The image display unit 109 displays a moving image corresponding to the decoded moving image data.

図2(a)は、本実施形態による撮像装置に備えられた固体撮像素子の構造を示す斜視図である。図2(a)に示すように、本実施形態による固体撮像素子102は、第1の半導体チップ20と第2の半導体チップ21とを有しており、第2の半導体チップ21上に第1の半導体チップ20が積層された積層型イメージセンサである。第1の半導体チップ20は、複数の画素(画素部)201が2次元マトリクス状、即ち、行列状に配列された画素アレイ206を有しており、第1の半導体チップ20は、第2の半導体チップ21に対して光入射側に配置されている。即ち、第1の半導体チップ20は、第2の半導体チップ21に対して、光学像の受光側に位置している。第2の半導体チップ21には、後述する列走査回路213a、213bと、行走査回路212とを含む画素駆動回路(読み出し回路、読み出し部)が形成されている。また、第2の半導体チップ21には、AF評価値算出部1021も形成されている。   FIG. 2A is a perspective view showing the structure of the solid-state imaging device provided in the imaging apparatus according to the present embodiment. As shown in FIG. 2A, the solid-state imaging device 102 according to the present embodiment includes a first semiconductor chip 20 and a second semiconductor chip 21, and the first semiconductor chip 21 is first on the second semiconductor chip 21. This is a stacked image sensor in which the semiconductor chips 20 are stacked. The first semiconductor chip 20 includes a pixel array 206 in which a plurality of pixels (pixel portions) 201 are arranged in a two-dimensional matrix, that is, in a matrix, and the first semiconductor chip 20 includes the second semiconductor chip 20 The semiconductor chip 21 is arranged on the light incident side. That is, the first semiconductor chip 20 is positioned on the light receiving side of the optical image with respect to the second semiconductor chip 21. The second semiconductor chip 21 is formed with a pixel drive circuit (read circuit, read unit) including column scan circuits 213a and 213b, which will be described later, and a row scan circuit 212. In addition, an AF evaluation value calculation unit 1021 is also formed on the second semiconductor chip 21.

本実施形態では、画素201が形成される第1の半導体チップ20と周辺回路が形成される第2の半導体チップ21とが別個になっているため、画素201の製造プロセスと周辺回路の製造プロセスとが分離されている。このため、本実施形態においては、配線の細線化や高密度化等が周辺回路等において実現され、固体撮像素子102の高速化、小型化、高機能化等が実現される。   In the present embodiment, since the first semiconductor chip 20 in which the pixel 201 is formed and the second semiconductor chip 21 in which the peripheral circuit is formed are separated, the manufacturing process of the pixel 201 and the manufacturing process of the peripheral circuit And are separated. For this reason, in the present embodiment, thinning and high density of the wiring are realized in the peripheral circuit and the like, and the high speed, miniaturization, high functionality, etc. of the solid-state imaging device 102 are realized.

図2(b)及び図2(c)は、本実施形態による固体撮像素子を示す回路図である。図2(c)は、画素201の構成を示す回路図である。図2(b)に示すように、第1の半導体チップ20には、2次元マトリクス状に配列された複数の画素201が形成されている。画素201は、水平方向において、転送信号線203、リセット信号線204、行選択信号線205にそれぞれ接続されており、垂直方向において、列信号線202a又は列信号線202bにそれぞれ接続されている。なお、列信号線202a、202bの接続先の画素201は、読み出し行によって異なっている。即ち、後述する焦点検出用の画素201SHA、201SHB(図4(a)参照)が含まれている行、即ち、AF行に位置する画素201は、列信号線202bに接続されている。一方、焦点検出用の画素201SHA,201SHBが含まれていない行、即ち、通常行に位置する画素201は、列信号線202aに接続されている。   2B and 2C are circuit diagrams showing the solid-state imaging device according to the present embodiment. FIG. 2C is a circuit diagram illustrating a configuration of the pixel 201. As shown in FIG. 2B, the first semiconductor chip 20 is formed with a plurality of pixels 201 arranged in a two-dimensional matrix. The pixel 201 is connected to the transfer signal line 203, the reset signal line 204, and the row selection signal line 205 in the horizontal direction, and is connected to the column signal line 202a or the column signal line 202b in the vertical direction. Note that the pixel 201 to which the column signal lines 202a and 202b are connected differs depending on the readout row. That is, a row including focus detection pixels 201SHA and 201SHB (see FIG. 4A) described later, that is, a pixel 201 located in an AF row is connected to the column signal line 202b. On the other hand, the row not including the focus detection pixels 201SHA and 201SHB, that is, the pixel 201 located in the normal row is connected to the column signal line 202a.

図2(c)に示すように、画素201は、光電変換素子であるフォトダイオードPDと、転送トランジスタM1と、リセットトランジスタM2と、増幅トランジスタM3と、選択トランジスタM4と、フローティングディフュージョンFDとを有している。トランジスタM1〜M4としては、例えば、nチャネル型のMOSFET(MOS Field−Effect Transistor)が用いられている。   As shown in FIG. 2C, the pixel 201 includes a photodiode PD which is a photoelectric conversion element, a transfer transistor M1, a reset transistor M2, an amplification transistor M3, a selection transistor M4, and a floating diffusion FD. doing. As the transistors M1 to M4, for example, n-channel MOSFETs (MOS Field-Effect Transistors) are used.

転送トランジスタM1のゲートには、転送信号線203が接続されている。リセットトランジスタM2のゲートには、リセット信号線204が接続されている。選択トランジスタM4のゲートには、行選択信号線205が接続されている。これらの信号線203〜205は水平方向に延在しており、同一行に位置する画素201が同時に駆動される。これによって、ライン順次動作型のローリングシャッタ又は全行同時動作型のグローバルシャッタの動作を実現することができる。更に、選択トランジスタM4のソースには、列信号線202a又は列信号線202bが接続されている。   A transfer signal line 203 is connected to the gate of the transfer transistor M1. A reset signal line 204 is connected to the gate of the reset transistor M2. A row selection signal line 205 is connected to the gate of the selection transistor M4. These signal lines 203 to 205 extend in the horizontal direction, and the pixels 201 located in the same row are driven simultaneously. As a result, the operation of a line sequential operation type rolling shutter or an all row simultaneous operation type global shutter can be realized. Further, the column signal line 202a or the column signal line 202b is connected to the source of the selection transistor M4.

フォトダイオードPDは、光電変換によって電荷を生成する。フォトダイオードPDのアノード側は接地されており、フォトダイオードPDのカソード側は転送トランジスタM1のソースに接続されている。転送トランジスタM1がON状態になると、フォトダイオードPDの電荷がフローティングディフュージョンFDに転送される。フローティングディフュージョンFDには寄生容量が存在するため、フローティングディフュージョンFDにはフォトダイオードPDから転送された電荷が蓄積される。   The photodiode PD generates charges by photoelectric conversion. The anode side of the photodiode PD is grounded, and the cathode side of the photodiode PD is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the floating diffusion FD. Since there is a parasitic capacitance in the floating diffusion FD, charges transferred from the photodiode PD are accumulated in the floating diffusion FD.

増幅トランジスタM3のドレインには電源電圧Vddが印加され、増幅トランジスタM3のゲートはフローティングディフュージョンFDに接続されている。増幅トランジスタM3のゲートの電位は、フローティングディフュージョンFDに蓄積された電荷に応じた電位となる。選択トランジスタM4は、信号が読み出される画素201を選択するためのものであり、選択トランジスタM4のドレインは増幅トランジスタM3のソースに接続されている。また、選択トランジスタM4のソースは、列信号線202a又は列信号線202bに接続されている。選択トランジスタM4がON状態になると、増幅トランジスタM3のゲートの電位に応じた出力信号が、列信号線202a又は列信号線202bに出力される。リセットトランジスタM2のドレインには電源電圧Vddが印加され、リセットトランジスタM2のソースはフローティングディフュージョンFDに接続されている。リセットトランジスタM2がON状態になることによって、フローティングディフュージョンFDの電位は電源電圧Vddにリセットされる。   The power supply voltage Vdd is applied to the drain of the amplification transistor M3, and the gate of the amplification transistor M3 is connected to the floating diffusion FD. The potential of the gate of the amplification transistor M3 becomes a potential corresponding to the electric charge accumulated in the floating diffusion FD. The selection transistor M4 is for selecting the pixel 201 from which a signal is read, and the drain of the selection transistor M4 is connected to the source of the amplification transistor M3. The source of the selection transistor M4 is connected to the column signal line 202a or the column signal line 202b. When the selection transistor M4 is turned on, an output signal corresponding to the gate potential of the amplification transistor M3 is output to the column signal line 202a or the column signal line 202b. The power supply voltage Vdd is applied to the drain of the reset transistor M2, and the source of the reset transistor M2 is connected to the floating diffusion FD. When the reset transistor M2 is turned on, the potential of the floating diffusion FD is reset to the power supply voltage Vdd.

第2の半導体チップ21には、カラムADCブロック211が備えられている。カラムADCブロック211は、列信号線202a又は列信号線202bに接続されている。更に、第2の半導体チップ21には、各行の走査を行う行走査回路212と、各列の走査を行う列走査回路213a、213bとが備えられている。更に、第2の半導体チップ21には、制御部106からの制御信号に基づいて、行走査回路212、列走査回路213a、213b、カラムADCブロック211の動作タイミングをそれぞれ制御するタイミング制御回路214が備えられている。更に、第2の半導体チップ21には、列走査回路213a、213bによって制御されるタイミングに従ってカラムADCブロック211からの信号を転送する水平信号線215a、215bが備えられている。   The second semiconductor chip 21 is provided with a column ADC block 211. The column ADC block 211 is connected to the column signal line 202a or the column signal line 202b. Further, the second semiconductor chip 21 is provided with a row scanning circuit 212 that performs scanning of each row and column scanning circuits 213a and 213b that perform scanning of each column. Further, the second semiconductor chip 21 includes a timing control circuit 214 that controls the operation timings of the row scanning circuit 212, the column scanning circuits 213a and 213b, and the column ADC block 211 based on a control signal from the control unit 106, respectively. Is provided. Further, the second semiconductor chip 21 is provided with horizontal signal lines 215a and 215b for transferring signals from the column ADC block 211 in accordance with timing controlled by the column scanning circuits 213a and 213b.

更に、第2の半導体チップ21は、水平信号線215bを介して出力されるデジタル画像信号の出力先を切り替えるためのスイッチ216を備えている。スイッチ216を第1の設定にした際には、水平信号線215bを介して出力されるデジタル画像信号の出力先が、AF評価値算出部1021に備えられた位相差評価値算出部217に設定される。一方、スイッチ216を第2の設定にした際には、水平信号線215bを介して出力されるデジタル画像信号の出力先が、AF評価値算出部1021に備えられたコントラスト評価値算出部218と、信号処理部104とに設定される。   Further, the second semiconductor chip 21 includes a switch 216 for switching the output destination of the digital image signal output via the horizontal signal line 215b. When the switch 216 is set to the first setting, the output destination of the digital image signal output via the horizontal signal line 215b is set in the phase difference evaluation value calculation unit 217 provided in the AF evaluation value calculation unit 1021. Is done. On the other hand, when the switch 216 is set to the second setting, the output destination of the digital image signal output via the horizontal signal line 215b is the contrast evaluation value calculation unit 218 provided in the AF evaluation value calculation unit 1021. The signal processing unit 104 is set.

焦点検出用(位相差検出用)の画素201SHA、201SHBが含まれていない行、即ち、通常行に位置する画素201は、上述したように列信号線202aに接続されている。このため、通常行に位置する画素201によって取得される信号は、列信号線202aと水平信号線215aとを介して信号処理部104に出力される。通常行に位置する画素201によって取得される信号は、例えばライブビュー用の画像に用いられる。   The row that does not include the focus detection (phase difference detection) pixels 201SHA and 201SHB, that is, the pixel 201 located in the normal row is connected to the column signal line 202a as described above. For this reason, a signal acquired by the pixels 201 located in the normal row is output to the signal processing unit 104 via the column signal line 202a and the horizontal signal line 215a. The signal acquired by the pixel 201 located in the normal row is used for an image for live view, for example.

一方、焦点検出用の画素201SHA、201SHBが含まれている行、即ち、AF行に位置する画素201は、上述したように列信号線202bに接続されている。このため、AF行に位置する画素201によって取得される信号SHA,SHBは、列信号線202bと水平信号線215bとを介して転送される。AF行に位置する焦点検出用の画素201SHA、201SHBによって取得される信号SHA,SHBは、列信号線202bと水平信号線215bとを介して、位相差評価値算出部217に転送される。ところで、AF行には、焦点検出用の画素201SHA、201SHBのみならず、撮像用の画素201Gも位置している(図4(a)参照)。なお、R(赤色)、G(緑色)、B(青色)のような特定の分光感度を有する画素について説明する際には、201R、201G、201Bという符号をそれぞれ用いることとする。また、焦点検出用の画素について説明する際には、201SHA、201SHBという符号をそれぞれ用いることとする。また、画素一般について説明する際には、201という符号を用いることとする。AF行に位置する画素201のうちの撮像用の画素201Gによって取得される信号Gr,Gbは、列信号線202bと水平信号線215bとを介して、コントラスト評価値算出部218に送信される。また、AF行に位置する画素201Gによって取得される信号Gr,Gbは、信号処理部104に送信される。AF行に位置する撮像用の画素201Gによって取得される信号Gr,Gbは、例えば、ライブビュー表示の際には、間引き読み出しされるライブビュー表示用の画像信号の補間処理に用い得る。なお、通常行に位置する画素201から水平信号線215aに転送される信号を、第1の画像信号と称することとする。また、AF行に位置する画素201から水平信号線215bに転送される信号を、第2の画像信号と称することとする。   On the other hand, the row including the focus detection pixels 201SHA and 201SHB, that is, the pixel 201 located in the AF row is connected to the column signal line 202b as described above. For this reason, the signals SHA and SHB acquired by the pixels 201 located in the AF row are transferred via the column signal line 202b and the horizontal signal line 215b. Signals SHA and SHB acquired by the focus detection pixels 201SHA and 201SHB located in the AF row are transferred to the phase difference evaluation value calculation unit 217 via the column signal line 202b and the horizontal signal line 215b. By the way, not only the focus detection pixels 201SHA and 201SHB but also the imaging pixel 201G are located in the AF row (see FIG. 4A). Note that when describing pixels having specific spectral sensitivities such as R (red), G (green), and B (blue), reference numerals 201R, 201G, and 201B are used, respectively. Further, in describing the focus detection pixels, reference numerals 201SHA and 201SHB are used respectively. In the description of general pixels, reference numeral 201 is used. Signals Gr and Gb acquired by the imaging pixel 201G among the pixels 201 located in the AF row are transmitted to the contrast evaluation value calculation unit 218 via the column signal line 202b and the horizontal signal line 215b. In addition, signals Gr and Gb acquired by the pixel 201G located in the AF row are transmitted to the signal processing unit 104. The signals Gr and Gb acquired by the imaging pixels 201G located in the AF row can be used, for example, for interpolation processing of live view display image signals that are thinned and read out during live view display. Note that a signal transferred from the pixel 201 located in the normal row to the horizontal signal line 215a is referred to as a first image signal. A signal transferred from the pixel 201 located in the AF row to the horizontal signal line 215b is referred to as a second image signal.

図5は、本実施形態による固体撮像素子における読み出しの際の選択行の例を示す図である。図5には、マトリクス状に配された複数の画素201のうちの16行×6列の画素201が抜き出されて示されている。これらの画素201は、ベイヤー配列となっている。本実施形態では、第1の画像信号の取得と、第2の画像信号の取得とを並行して行うことができるように、第1の画像信号を取得する際の選択行と第2の画像信号を取得する際の選択行とがそれぞれ設定されている。第1の画像信号は、列信号線202aに出力されるようになっている。一方、第2の画像信号は、列信号線202bに出力されるようになっている。なお、行番号が1、2の行、及び、行番号が9、10の行は、第2の画像信号を取得する際の選択行であり、第2の画像信号を取得するための画素群(第2の画素群)が配されている。行番号が3〜8の行、及び、行番号が11〜16の行は、第1の画像信号を取得する際の選択行であり、第1の画像信号を取得するための画素群(第1の画素群)が配されている。   FIG. 5 is a diagram illustrating an example of a selected row at the time of reading in the solid-state imaging device according to the present embodiment. In FIG. 5, 16 rows × 6 columns of pixels 201 out of a plurality of pixels 201 arranged in a matrix are shown. These pixels 201 are in a Bayer array. In the present embodiment, the selected row and the second image when acquiring the first image signal so that the acquisition of the first image signal and the acquisition of the second image signal can be performed in parallel. A selection line for acquiring a signal is set for each. The first image signal is output to the column signal line 202a. On the other hand, the second image signal is output to the column signal line 202b. Note that the rows with the row numbers 1 and 2 and the rows with the row numbers 9 and 10 are selected rows when acquiring the second image signal, and a pixel group for acquiring the second image signal. (Second pixel group) is arranged. The rows with the row numbers 3 to 8 and the rows with the row numbers 11 to 16 are selected rows when the first image signal is acquired, and the pixel group (first number 1 pixel group).

第2の画像信号には、焦点検出用の画素201SHA、201SHBによって取得される信号が含まれているため、迅速なオートフォーカスを実現すべく、フレームレートを速くすることが重視される。このため、第2の画像信号は、間引き率が比較的高く設定される。一方、第1の画像信号は、ライブビュー表示等に用いられるため、画質が重視される。このため、第1の画像信号は、間引き率が比較的低く設定される。行番号が1〜8の行に注目すると、第1の画像信号は、垂直方向に配された同色の4画素のうちの1画素を間引くことによって得られ、第2の画像信号は、垂直方向に配された同色の4画素のうちの3画素を間引くことによって得られる。第1の画像信号の取得においては、第1のフレームレートで第1の画素群が読み出される。第2の画像信号の取得においては、第1のフレームレートより速い第2のフレームレートで第2の画素群が読み出される。ここでは、第2のフレームレートを第1のフレームレートの3倍とする場合を例に説明する。   Since the second image signal includes signals acquired by the focus detection pixels 201SHA and 201SHB, it is important to increase the frame rate in order to realize quick autofocus. For this reason, the second image signal is set to have a relatively high thinning rate. On the other hand, since the first image signal is used for live view display or the like, image quality is important. For this reason, the first image signal is set to have a relatively low thinning rate. When attention is paid to the rows having the row numbers 1 to 8, the first image signal is obtained by thinning out one pixel out of four pixels of the same color arranged in the vertical direction, and the second image signal is obtained in the vertical direction. Is obtained by thinning out three pixels out of four pixels of the same color arranged in. In acquiring the first image signal, the first pixel group is read out at the first frame rate. In acquiring the second image signal, the second pixel group is read out at a second frame rate that is faster than the first frame rate. Here, a case where the second frame rate is set to three times the first frame rate will be described as an example.

このように、本実施形態では、第1の画像信号が読み出される行と、第2の画像信号が読み出される行とが別個に設定されている。このため、本実施形態によれば、異なる電荷蓄積時間、異なるデータサイズ、異なるフレームレートの第1の画像信号及び第2の画像信号を、並行して取得することができる。なお、ここでは、第2の画像信号を取得するための第2の画素群が行番号1、2の行に位置し、第1の画像信号を取得するための第1の画素群が行番号3〜8の行に位置する場合を例に説明したが、これに限定されるものではない。また、読み出しにおける間引き率も、適宜設定することができる。   Thus, in the present embodiment, the row from which the first image signal is read out and the row from which the second image signal is read out are set separately. Therefore, according to the present embodiment, the first image signal and the second image signal having different charge accumulation times, different data sizes, and different frame rates can be acquired in parallel. Here, the second pixel group for acquiring the second image signal is located in the row of row numbers 1 and 2, and the first pixel group for acquiring the first image signal is row number. Although the case where it located in the 3-8 line was demonstrated to the example, it is not limited to this. Further, the thinning rate in reading can also be set as appropriate.

画素201から列信号線202a又は列信号線202bに出力されたアナログの信号は、カラムADCブロック211においてアナログからデジタルに変換される。列走査回路213aは、カラムADCブロック211から出力されるデジタルの第1の画像信号を、水平信号線215aを介して信号処理部104に送信する。かかる第1の画像信号は、固体撮像素子102に設けられた出力端子222を介して信号処理部104に出力される。また、列走査回路213bは、カラムADCブロック211から出力されるデジタルの第2の画像信号を、水平信号線215bを介してAF評価値算出部1021や信号処理部104に送信する。   An analog signal output from the pixel 201 to the column signal line 202 a or the column signal line 202 b is converted from analog to digital in the column ADC block 211. The column scanning circuit 213a transmits the digital first image signal output from the column ADC block 211 to the signal processing unit 104 via the horizontal signal line 215a. The first image signal is output to the signal processing unit 104 via the output terminal 222 provided in the solid-state image sensor 102. In addition, the column scanning circuit 213b transmits the digital second image signal output from the column ADC block 211 to the AF evaluation value calculation unit 1021 and the signal processing unit 104 via the horizontal signal line 215b.

制御部106は、固体撮像素子102に設けられた位相差評価値算出部217からの信号、即ち、位相差評価値を用い、位相差検出方式によるオートフォーカス制御、即ち、位相差フォーカス制御(位相差AF)を行う。制御部106は、固体撮像素子102に設けられたコントラスト評価値算出部218からの信号、即ち、コントラスト評価値を用い、コントラスト検出方式によるオートフォーカス制御、即ち、コントラストフォーカス制御(コントラストAF)をも行う。   The control unit 106 uses the signal from the phase difference evaluation value calculation unit 217 provided in the solid-state image sensor 102, that is, the phase difference evaluation value, and performs autofocus control by the phase difference detection method, that is, phase difference focus control (level difference). Phase difference AF) is performed. The control unit 106 uses the signal from the contrast evaluation value calculation unit 218 provided in the solid-state image sensor 102, that is, the contrast evaluation value, and performs autofocus control by the contrast detection method, that is, contrast focus control (contrast AF). Do.

位相差評価値算出部217は、AF行に位置する複数の焦点検出用の画素201SHA、201SHBからの信号SHA、SHBによって生成される一対の像信号に対して相関演算を行い、一対の像信号の相対的な位置ずれを示す位相差を算出する。そして、位相差評価値算出部217は、当該位相差に基づいて、フォーカスがどれくらい外れているかを示す量であるデフォーカス量Dfを算出する。制御部106は、位相差評価値算出部217によって取得されるデフォーカス量Dfに基づいて、合焦に近い状態にするためにフォーカスレンズをどの程度移動させるべきかを示す量、即ち、合焦近傍位置までのフォーカスレンズの駆動量を算出する。制御部106は、算出した駆動量の分だけフォーカスレンズが移動するように、駆動部103を介して光学機構部1011を制御する。   The phase difference evaluation value calculation unit 217 performs a correlation operation on a pair of image signals generated by the signals SHA and SHB from the plurality of focus detection pixels 201SHA and 201SHB located in the AF row, and performs a pair of image signals. A phase difference indicating a relative positional deviation is calculated. Then, based on the phase difference, the phase difference evaluation value calculation unit 217 calculates a defocus amount Df that is an amount indicating how much the focus is off. Based on the defocus amount Df acquired by the phase difference evaluation value calculation unit 217, the control unit 106 indicates an amount indicating how much the focus lens should be moved to achieve a state close to focusing, that is, focusing. The driving amount of the focus lens up to the near position is calculated. The control unit 106 controls the optical mechanism unit 1011 via the drive unit 103 so that the focus lens moves by the calculated drive amount.

コントラスト評価値算出部218は、AF行に位置する撮像用の画素201Gからの信号Gr,Gbにおける高周波成分を適宜抽出することによって、コントラスト評価値を算出する。制御部106は、コントラスト評価値算出部218によって取得されるコントラスト評価値に基づいて、駆動部103を介して光学機構部1011を制御することにより、フォーカスレンズを適宜駆動する。   The contrast evaluation value calculation unit 218 calculates a contrast evaluation value by appropriately extracting high-frequency components in the signals Gr and Gb from the imaging pixel 201G located in the AF row. The control unit 106 appropriately drives the focus lens by controlling the optical mechanism unit 1011 via the drive unit 103 based on the contrast evaluation value acquired by the contrast evaluation value calculation unit 218.

図3は、通常行に位置する画素と撮像光学系とを示す図である。図3(a)は、画素を示す平面図である。図3(a)に示す2行×2列の4つの画素201はいずれも撮像用の画素である。これら4つの画素201のうちの対角に位置する2箇所には、G(緑色)の分光感度を有する画素201Gがそれぞれ配されており、他の2箇所には、R(赤色)とB(青色)の分光感度を有する画素201R、201Bがそれぞれ配されている。このような画素配列は、ベイヤー配列と称される。図3(a)には、ベイヤー配列の1つの画素単位が抜き出されて示されている。図3(b)は、撮像光学系と画素との関係を示す断面図である。図3(b)は、図3(a)のA−A線断面に対応している。   FIG. 3 is a diagram illustrating a pixel located in a normal row and an imaging optical system. FIG. 3A is a plan view showing a pixel. All of the four pixels 201 of 2 rows × 2 columns shown in FIG. 3A are imaging pixels. Among these four pixels 201, two pixels 201G having a spectral sensitivity of G (green) are arranged at two diagonal positions, and R (red) and B ( Pixels 201R and 201B having a spectral sensitivity of (blue) are arranged. Such a pixel array is called a Bayer array. FIG. 3A shows one pixel unit extracted from the Bayer array. FIG. 3B is a cross-sectional view showing the relationship between the imaging optical system and the pixels. FIG. 3B corresponds to a cross section taken along line AA in FIG.

図3(b)に示すように、固体撮像素子102の第1の半導体チップ20の半導体基板301には、フォトダイオードPDが形成されている。フォトダイオードPDは、マトリクス状に形成された複数の画素201の各々に対応するように形成されている。フォトダイオードPDが形成された半導体基板301上には、多層配線構造302が形成されている。多層配線構造302は、配線層CLと絶縁層303とによって構成されている。配線層CLは、固体撮像素子102内において各種信号を伝達するための信号線を構成している。多層配線構造302上には、カラーフィルタ層304が形成されている。カラーフィルタ層304は、R(赤色)のカラーフィルタCFと、G(緑色)のカラーフィルタCFと、B(青色)のカラーフィルタCFとを含む。これらカラーフィルタCF、CF、CFは、各々の画素201に対応するように形成されている。なお、図3(a)において、Rは、RのカラーフィルタCFが配されている箇所を概念的に示しており、Gは、GのカラーフィルタCFが配されている箇所を概念的に示しており、Bは、BのカラーフィルタCFが配されている箇所を概念的に示している。 As shown in FIG. 3B, the photodiode PD is formed on the semiconductor substrate 301 of the first semiconductor chip 20 of the solid-state imaging device 102. The photodiode PD is formed so as to correspond to each of the plurality of pixels 201 formed in a matrix. A multilayer wiring structure 302 is formed on the semiconductor substrate 301 on which the photodiode PD is formed. The multilayer wiring structure 302 includes a wiring layer CL and an insulating layer 303. The wiring layer CL constitutes a signal line for transmitting various signals in the solid-state imaging device 102. A color filter layer 304 is formed on the multilayer wiring structure 302. The color filter layer 304 includes a color filter CF R of R (red), a color filter CF G of G (green), and a color filter CF B of B (blue). These color filters CF R , CF G , and CF B are formed so as to correspond to the respective pixels 201. Incidentally, in FIG. 3 (a), R is the portion where the color filter CF R of R is disposed is conceptually shows, G conceptually a portion where the color filter CF G of G is arranged B indicates conceptually a portion where the B color filter CF B is disposed.

カラーフィルタ層304上には、マイクロレンズML、即ち、オン半導体チップマイクロレンズが配されている。マイクロレンズMLは、各々の画素201に対応するように形成されている。マイクロレンズMLとフォトダイオードPDとは、撮像光学系TLの射出瞳EPを通過する光束305を可能な限り有効に取り込むような構成となっている。換言すれば、撮像光学系TLの射出瞳EPとフォトダイオードPDとの間に共役関係が成立するようにマイクロレンズMLが形成されている。しかも、フォトダイオードPDの有効面積が大きく設定されている。なお、図3(b)では、Rの画素201に入射する光束305を例として示しているが、Gの画素201に入射する光束や、Bの画素201に入射する光束ついても同様である。このように、撮像用のRGBの画素201に対応した射出瞳EPは大きな径を有しており、被写体からの光束が効率良く画素201に達する。従って、各々の画素201において、S/N比の高い画像信号が得られる。   On the color filter layer 304, a microlens ML, that is, an on-semiconductor chip microlens is arranged. The microlens ML is formed so as to correspond to each pixel 201. The microlens ML and the photodiode PD are configured to capture the light beam 305 passing through the exit pupil EP of the imaging optical system TL as effectively as possible. In other words, the microlens ML is formed so that a conjugate relationship is established between the exit pupil EP of the imaging optical system TL and the photodiode PD. In addition, the effective area of the photodiode PD is set large. In FIG. 3B, the light beam 305 incident on the R pixel 201 is shown as an example, but the same applies to the light beam incident on the G pixel 201 and the light beam incident on the B pixel 201. Thus, the exit pupil EP corresponding to the RGB pixels 201 for imaging has a large diameter, and the light flux from the subject reaches the pixels 201 efficiently. Therefore, an image signal with a high S / N ratio is obtained in each pixel 201.

図4は、AF行に位置する画素と撮像光学系とを示す図である。図4(a)は、画素の平面図である。画像信号を得る際、Gの分光感度を有する画素201Gからの出力は輝度情報の主成分をなす。人間の画像認識特性は輝度情報に敏感であるため、Gの分光感度を有する画素201Gからの出力が欠損すると、画質劣化が認められやすい。一方、Rの画素201R(図3参照)やBの画素201B(図3参照)は、主として色情報を取得するための画素であり、人間は色情報には比較的鈍感である。このため、色情報を取得するためのRやBの画素201R、201Bに多少の欠損が生じても、人間は画質劣化に気づきにくい。そこで、本実施形態では、2行×2列の4つの画素201のうちの2つのGの画素201Gについては撮像用の画素として残し、Rの画素201RとBの画素201Bの位置に、焦点検出用の画素201SHA、201SHBをそれぞれ配している。図4(a)において、SHAは、Rの画素201Rの位置に配された焦点検出用の画素201SHAを概念的に示しており、SHBは、Bの画素201Bの位置に配された焦点検出用の画素201SHBを概念的に示している。上述したように、AF行には、焦点検出用の画素201SHA、201SHBが分散的に配されている。また、上述したように、AF行には、焦点検出用の画素201SHA、201SHBのみならず撮像用の画素201Gも位置している。複数の焦点検出用の画素201SHAは、第1の焦点検出用画素群を構成している。複数の焦点検出用の画素201SHBは、第2の焦点検出用画素群を構成している。   FIG. 4 is a diagram illustrating the pixels located in the AF row and the imaging optical system. FIG. 4A is a plan view of a pixel. When obtaining an image signal, the output from the pixel 201G having G spectral sensitivity forms the main component of the luminance information. Since human image recognition characteristics are sensitive to luminance information, if the output from the pixel 201G having G spectral sensitivity is lost, image quality degradation is likely to be recognized. On the other hand, the R pixel 201R (see FIG. 3) and the B pixel 201B (see FIG. 3) are pixels for mainly acquiring color information, and humans are relatively insensitive to color information. For this reason, even if some deficiencies occur in the R and B pixels 201R and 201B for obtaining color information, it is difficult for humans to notice image quality deterioration. Therefore, in the present embodiment, two G pixels 201G out of four pixels 201 in 2 rows × 2 columns are left as imaging pixels, and focus detection is performed at the positions of the R pixel 201R and the B pixel 201B. Pixels 201SHA and 201SHB for use are arranged respectively. In FIG. 4A, SHA conceptually shows the focus detection pixel 201SHA arranged at the position of the R pixel 201R, and SHB is the focus detection pixel arranged at the position of the B pixel 201B. The pixel 201SHB is conceptually shown. As described above, the focus detection pixels 201SHA and 201SHB are distributed in the AF row. Further, as described above, not only the focus detection pixels 201SHA and 201SHB but also the imaging pixels 201G are located in the AF row. The plurality of focus detection pixels 201SHA constitute a first focus detection pixel group. The plurality of focus detection pixels 201SHB constitute a second focus detection pixel group.

図4(b)は、図4(a)のB−B線断面に対応している。焦点検出用の画素201SHA、201SHBにおいても、撮像用の画素201R、201G、201Bと同様に、半導体基板301にフォトダイオードPDが形成されている。焦点検出用の画素201SHA、201SHBからの信号は画像には用いられないため、焦点検出用の画素201SHA、201SHBには、色分離用のカラーフィルタCF、CFの代わりに透明膜(白色膜)CFが配されている。焦点検出用の画素201SHA、201SHBにおいては、瞳分割を実現するため、配線層CLが、開口部OPHA、OPHBを有する遮光部を構成している。x方向において瞳分割を行うため、開口部OPHA、OPHBはマイクロレンズMLの中心に対してx方向に偏在している。焦点検出用の画素201SHAの開口部OPHAは、マイクロレンズMLの中心に対して−x方向に偏在している。このため、焦点検出用の画素201SHAのフォトダイオードPDは、撮像光学系TLの射出瞳に含まれる複数の瞳領域EPHA、EPHBのうちの+x側の瞳領域、即ち、第1の瞳領域EPHAを通過した光束を受光する。画素201SHAは、撮像光学系TLの射出瞳の第1の瞳領域EPHAを通過する光束に応じた信号を取得する。一方、焦点検出用の画素201SHBの開口部OPHBは、マイクロレンズの中心に対して+x方向に偏在している。このため、焦点検出用の画素201SHBのフォトダイオードPDは、撮像光学系TLの射出瞳に含まれる複数の瞳領域EPHA、EPHBのうちの−x側の瞳領域、即ち、第2の瞳領域EPHBを通過した光束を受光する。画素201SHBは、撮像光学系TLの射出瞳の第2の瞳領域EPHBを通過する光束に応じた信号を取得する。 FIG. 4B corresponds to a cross section taken along line B-B in FIG. Also in the focus detection pixels 201SHA and 201SHB, the photodiode PD is formed on the semiconductor substrate 301 in the same manner as the imaging pixels 201R, 201G, and 201B. Since the signals from the focus detection pixels 201SHA and 201SHB are not used in the image, the focus detection pixels 201SHA and 201SHB have a transparent film (white film) instead of the color filters CF R and CF B for color separation. ) CF W is disposed. Focus detection pixel 201SHA, in 201SHB, for realizing the pupil division, the wiring layer CL is, the opening OP HA, constitutes a shielding portion having a OP HB. Since pupil division is performed in the x direction, the openings OP HA and OP HB are unevenly distributed in the x direction with respect to the center of the microlens ML. Opening OP HA of the pixel 201SHA for focus detection are localized in the -x direction with respect to the center of the microlens ML. For this reason, the photodiode PD of the focus detection pixel 201SHA includes the + x-side pupil region of the plurality of pupil regions EP HA and EP HB included in the exit pupil of the imaging optical system TL, that is, the first pupil region. The light beam that has passed through the EP HA is received. The pixel 201SHA acquires a signal corresponding to the light beam passing through the first pupil region EP HA of the exit pupil of the imaging optical system TL. On the other hand, the opening OP HB of the focus detection pixel 201SHB is unevenly distributed in the + x direction with respect to the center of the microlens. Therefore, the photodiode PD of the focus detection pixel 201SHB is a pupil region on the −x side of the plurality of pupil regions EP HA and EP HB included in the exit pupil of the imaging optical system TL, that is, the second pupil. The light beam that has passed through the region EP HB is received. The pixel 201SHB acquires a signal corresponding to the light beam passing through the second pupil region EP HB of the exit pupil of the imaging optical system TL.

x方向に規則的に配列された複数の焦点検出用の画素201SHA、即ち、第1の焦点検出用画素群によって取得された被写体像を、第1の像とする。また、x方向に規則的に配列された複数の焦点検出用の画素201SHB、即ち、第2の焦点検出用画素群によって取得された被写体像を、第2の像とする。そして、第1の像と第2の像との相対な位置ずれ量、即ち、位相差を検出することによって、当該位相差に基づいて被写体に対するフォーカスレンズのデフォーカス量を算出することができる。   A subject image acquired by a plurality of focus detection pixels 201SHA regularly arranged in the x direction, that is, a first focus detection pixel group is defined as a first image. Also, a subject image acquired by a plurality of focus detection pixels 201SHB regularly arranged in the x direction, that is, the second focus detection pixel group is defined as a second image. Then, by detecting the relative positional shift amount between the first image and the second image, that is, the phase difference, the defocus amount of the focus lens with respect to the subject can be calculated based on the phase difference.

画素201から列信号線202a、202bに出力される信号は、カラムADCブロック211によってアナログからデジタルに変換される。カラムADCブロック211によってデジタルに変換された信号は、列走査回路213a、213bによってカラムADCブロック211から水平信号線215a、215bにそれぞれ出力される。水平信号線215aに出力される信号、即ち、通常行に位置する画素201からの信号は、固体撮像素子102の外部に位置する信号処理部104に出力される。一方、水平信号線215bに出力される信号は、スイッチ216を介して出力される。スイッチ216を第1の設定にした際には、焦点検出用の画素201SHA、201SHBからの信号SHA、SHBが、位相差評価値算出部217に出力される。スイッチ216を第2の設定にした場合には、AF行に位置する撮像用の画素201からの信号が、コントラスト評価値算出部218及び信号処理部104に出力される。   A signal output from the pixel 201 to the column signal lines 202 a and 202 b is converted from analog to digital by the column ADC block 211. The signals digitally converted by the column ADC block 211 are output from the column ADC block 211 to the horizontal signal lines 215a and 215b by the column scanning circuits 213a and 213b, respectively. A signal output to the horizontal signal line 215 a, that is, a signal from the pixel 201 located in the normal row is output to the signal processing unit 104 located outside the solid-state image sensor 102. On the other hand, the signal output to the horizontal signal line 215b is output via the switch 216. When the switch 216 is set to the first setting, the signals SHA and SHB from the focus detection pixels 201SHA and 201SHB are output to the phase difference evaluation value calculation unit 217. When the switch 216 is set to the second setting, a signal from the imaging pixel 201 located in the AF row is output to the contrast evaluation value calculation unit 218 and the signal processing unit 104.

位相差評価値算出部217は、水平信号線215bとスイッチ216とを介して位相差評価値算出部217に送信される信号SHA、SHBに基づいて、相関演算によって位相差評価値を算出する。即ち、位相差評価値算出部217は、位相差検出方式による焦点検出のための位相差評価値を、画素201SHA,201SHBからの信号SHA,SHBに基づいて算出する。位相差評価値算出部217は、画素アレイ206によって取得される画像信号の信号処理部104への出力の完了の如何にかかわらず、位相差評価値の算出が完了し次第、当該位相差評価値を制御部106に出力する。当該位相差評価値は、固体撮像素子102に設けられた出力端子219を介して制御部106に出力される。   The phase difference evaluation value calculation unit 217 calculates a phase difference evaluation value by correlation calculation based on the signals SHA and SHB transmitted to the phase difference evaluation value calculation unit 217 via the horizontal signal line 215b and the switch 216. That is, the phase difference evaluation value calculation unit 217 calculates the phase difference evaluation value for focus detection by the phase difference detection method based on the signals SHA and SHB from the pixels 201SHA and 201SHB. The phase difference evaluation value calculation unit 217 performs the calculation of the phase difference evaluation value as soon as the calculation of the phase difference evaluation value is completed regardless of whether the output of the image signal acquired by the pixel array 206 to the signal processing unit 104 is completed. Is output to the control unit 106. The phase difference evaluation value is output to the control unit 106 via the output terminal 219 provided in the solid-state image sensor 102.

コントラスト評価値算出部218は、水平信号線215bとスイッチ216とを介してコントラスト評価値算出部218に送信される信号、より具体的には、例えば、信号Gr、Gbに基づいて、コントラスト演算によってコントラスト評価値を算出する。即ち、コントラスト評価値算出部218は、コントラスト検出方式による焦点検出のためのコントラスト評価値を、撮像用の画素201Gからの信号Gr、Gbに基づいて算出する。コントラスト評価値算出部218は、画素アレイ206によって取得される画像信号の信号処理部104への出力の完了の如何にかかわらず、コントラスト評価値の算出が完了し次第、当該コントラスト評価値を制御部106に出力する。当該コントラスト評価値は、固体撮像素子102に設けられた出力端子220を介して制御部106に出力される。   The contrast evaluation value calculation unit 218 performs a contrast calculation based on signals transmitted to the contrast evaluation value calculation unit 218 via the horizontal signal line 215b and the switch 216, more specifically, for example, based on the signals Gr and Gb. A contrast evaluation value is calculated. That is, the contrast evaluation value calculation unit 218 calculates a contrast evaluation value for focus detection by the contrast detection method based on the signals Gr and Gb from the imaging pixel 201G. The contrast evaluation value calculation unit 218 controls the contrast evaluation value as soon as the calculation of the contrast evaluation value is completed regardless of whether the output of the image signal acquired by the pixel array 206 to the signal processing unit 104 is completed. It outputs to 106. The contrast evaluation value is output to the control unit 106 via the output terminal 220 provided in the solid-state image sensor 102.

上述したように、スイッチ216を第2の設定にした際には、AF行に位置する撮像用の画素201Gからの信号Gr,Gbが、水平信号線215bとスイッチ216とを介して、信号処理部104に出力される。かかる信号Gr、Gbは、固体撮像素子102に設けられた出力端子221を介して信号処理部104に出力される。水平信号線215bとスイッチ216とを介して信号処理部104に送信される信号Gr,Gbは、例えば、間引き読み出しされるライブビュー画像の補間処理に用い得る。
ここでは、列信号線202aと水平信号線215aとを介して第1の画像信号を出力する経路を第1のチャネルCH1と称し、列信号線202bと水平信号線215bとを介して第2の画像信号を出力する経路を第2のチャネルCH2と称することとする。
As described above, when the switch 216 is set to the second setting, the signals Gr and Gb from the imaging pixel 201G located in the AF row are processed through the horizontal signal line 215b and the switch 216. Is output to the unit 104. The signals Gr and Gb are output to the signal processing unit 104 via the output terminal 221 provided in the solid-state imaging device 102. The signals Gr and Gb transmitted to the signal processing unit 104 via the horizontal signal line 215b and the switch 216 can be used for, for example, interpolation processing of the live view image to be read out.
Here, a path for outputting the first image signal via the column signal line 202a and the horizontal signal line 215a is referred to as a first channel CH1, and the second channel via the column signal line 202b and the horizontal signal line 215b. A path for outputting an image signal is referred to as a second channel CH2.

図6は、本実施形態による撮像装置の動作を示すタイムチャートである。図6は、オートフォーカス動作を行いつつライブビュー表示を行うモード、即ち、AF評価モードでの動作を示している。
AF評価モードは、制御部106からのAF制御信号がON状態になることによって開始される。AF制御信号がON状態となるタイミングをT0とする。タイミングT0においては、垂直同期信号VDが立ち下がる、即ち、HighレベルからLowレベルに変化する。垂直同期信号VDと同期して、第1の画像信号、即ち、通常行に位置する画素201からの信号の取得と、第2の画像信号、即ち、AF行に位置する画素201からの信号の取得とが開始される。上述したように、第1の画像信号は第1のチャネルCH1を介して出力され、第2の画像信号は第2のチャネルCH2を介して出力される。
FIG. 6 is a time chart illustrating the operation of the imaging apparatus according to the present embodiment. FIG. 6 shows an operation in a mode in which live view display is performed while performing an autofocus operation, that is, an AF evaluation mode.
The AF evaluation mode is started when the AF control signal from the control unit 106 is turned on. The timing when the AF control signal is turned on is T0. At timing T0, the vertical synchronization signal VD falls, that is, changes from High level to Low level. In synchronization with the vertical synchronization signal VD, the acquisition of the first image signal, that is, the signal from the pixel 201 located in the normal row, and the second image signal, that is, the signal from the pixel 201 located in the AF row. Acquisition starts. As described above, the first image signal is output via the first channel CH1, and the second image signal is output via the second channel CH2.

T0〜TF1の期間においては、AF行に位置する焦点検出用の画素201SHA、201SHBからの信号SHA,SHBの読み出し行われる。AF行に位置する焦点検出用の画素201SHA,201SHBからの信号の読み出しは、通常行に位置する画素201からの信号の読み出し、即ち、ライブビュー用の信号の読み出しと並行して行われる。画素201SHA、201SHBから読み出された位相差評価用の信号SHA、SHBは、水平信号線215bとスイッチ216とを介して位相差評価値算出部217に送信される。そして、TF1〜TF2の期間においては、位相差評価値算出部217によって位相差評価値が算出される。TF2〜TF3の期間においては、位相差評価値算出部217によって算出された位相差評価値が制御部106に出力される。また、T0〜TF1の期間においては、AF行に位置する撮像用の画素201Gからの信号Gr、Gbの読み出しが行われる。AF行に位置する撮像用の画素201Gからの信号Gr,Gbの読み出しは、通常行に位置する画素201からの信号の読み出し、即ち、ライブビュー用の信号の読み出しと並行して行われる。画素201Gから読み出されたコントラスト評価用の信号Gr,Gbは、水平信号線215bとスイッチ216とを介してコントラスト評価値算出部218に送信される。そして、TF1〜TF2Cの期間においては、コントラスト評価値算出部218によってコントラスト評価値が算出される。TF2C〜TF3Cの期間においては、コントラスト評価値算出部218によって算出されたコントラスト評価値が制御部106に出力される。   During the period from T0 to TF1, signals SHA and SHB are read from the focus detection pixels 201SHA and 201SHB located in the AF row. Reading of signals from the focus detection pixels 201SHA and 201SHB located in the AF row is performed in parallel with reading of signals from the pixels 201 located in the normal row, that is, readout of signals for live view. The phase difference evaluation signals SHA and SHB read from the pixels 201SHA and 201SHB are transmitted to the phase difference evaluation value calculation unit 217 via the horizontal signal line 215b and the switch 216. In the period of TF1 to TF2, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217. In the period from TF <b> 2 to TF <b> 3, the phase difference evaluation value calculated by the phase difference evaluation value calculation unit 217 is output to the control unit 106. In the period from T0 to TF1, signals Gr and Gb are read from the imaging pixels 201G located in the AF row. Reading of the signals Gr and Gb from the imaging pixel 201G located in the AF row is performed in parallel with reading of the signal from the pixel 201 located in the normal row, that is, reading of the live view signal. The contrast evaluation signals Gr and Gb read from the pixel 201G are transmitted to the contrast evaluation value calculation unit 218 via the horizontal signal line 215b and the switch 216. In the period from TF1 to TF2C, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value. In the period from TF2C to TF3C, the contrast evaluation value calculated by the contrast evaluation value calculation unit 218 is output to the control unit 106.

図6に示すように、垂直同期信号VDは、所定の時間間隔ΔT毎に立ち下がる、即ち、Lowレベルに変化する。なお、Lowレベルに変化した垂直同期信号は、所定時間経過後にHighレベルに戻る。かかる所定の時間間隔ΔTは、1フレーム分のライブビュー用の画像の取得に要する期間、即ち、1フレーム分のライブビュー用信号取得期間に相当している。本実施形態では、1フレーム分のライブビュー用信号取得期間において、AF評価が3回行われる。AF評価用の信号の取得、即ち、第2の画像信号の取得は、ライブビュー用の信号の取得、即ち、第1の画像信号の取得と独立且つ並行して行われる。制御部106は、所望の合焦状態が得られるか否かを判定し、所望の合焦状態が得られる場合には、AF制御信号をOFF状態、即ち、Lowレベルに戻す。図6においては、タイミングT1が、AF制御信号がOFF状態になるタイミングを示している。AF制御信号がOFF状態になると、AF評価が中止され、ライブビュー用の画像の取得が継続して行われる。   As shown in FIG. 6, the vertical synchronization signal VD falls every predetermined time interval ΔT, that is, changes to the Low level. Note that the vertical synchronization signal that has changed to the Low level returns to the High level after a predetermined time has elapsed. The predetermined time interval ΔT corresponds to a period required for acquiring a live view image for one frame, that is, a live view signal acquisition period for one frame. In the present embodiment, AF evaluation is performed three times in a live view signal acquisition period for one frame. Acquisition of an AF evaluation signal, that is, acquisition of the second image signal is performed independently and in parallel with acquisition of a live view signal, that is, acquisition of the first image signal. The control unit 106 determines whether or not a desired in-focus state is obtained. If the desired in-focus state is obtained, the control unit 106 returns the AF control signal to an OFF state, that is, a low level. In FIG. 6, the timing T1 indicates the timing at which the AF control signal is turned off. When the AF control signal is turned off, the AF evaluation is stopped and the live view image is continuously acquired.

図7は、本実施形態による撮像装置の動作を示すフローチャートである。
ユーザによる操作部108の操作によって撮像装置100の電源がON状態になると、制御部106は、撮像装置100を待機状態にする。制御部106は、AF評価モードで撮像装置100を動作させることを要するか否かを、ユーザによる操作部108の操作等に基づいて判定する(ステップS701)。AF評価モードで撮像装置100を動作させることを要しない場合には(ステップS701においてNO)、ライブビュー用信号の取得を開始する(ステップS702)。そして、ライブビュー用信号の取得によって得られるライブビュー画像を画像表示部109に表示する(ステップS717)。一方、AF評価モードで撮像装置100を動作させることを要する場合には(ステップS701においてYES)、制御部106は、AF制御信号をON状態にし(ステップS703)、焦点検出用の信号の取得回数nを0に設定する(ステップS704)。
FIG. 7 is a flowchart illustrating the operation of the imaging apparatus according to the present embodiment.
When the power of the imaging device 100 is turned on by the operation of the operation unit 108 by the user, the control unit 106 places the imaging device 100 in a standby state. The control unit 106 determines whether or not it is necessary to operate the imaging apparatus 100 in the AF evaluation mode based on the operation of the operation unit 108 by the user (step S701). When it is not necessary to operate the imaging apparatus 100 in the AF evaluation mode (NO in step S701), acquisition of a live view signal is started (step S702). Then, the live view image obtained by acquiring the live view signal is displayed on the image display unit 109 (step S717). On the other hand, when it is necessary to operate the imaging apparatus 100 in the AF evaluation mode (YES in step S701), the control unit 106 sets the AF control signal to the ON state (step S703), and the number of times the focus detection signal is acquired. n is set to 0 (step S704).

この後、制御部106は、ライブビュー用の信号の取得を固体撮像素子102に開始させるとともに(ステップS718)、焦点検出用の信号の取得を固体撮像素子102に開始させる(ステップS705)。制御部106は、焦点検出用の信号の取得を固体撮像素子102に開始させた後、焦点検出用の信号の取得回数nをインクリメントする(ステップS706)。この後、位相差評価値の算出が位相差評価値算出部217によって行われるとともに(ステップS707)、コントラスト評価値の算出がコントラスト評価値算出部218によって行われる(ステップS708)。位相差評価値の算出(ステップS707)においては、ステップS705において取得された位相差評価用の信号SHA、SHBに基づいて、位相差評価値算出部217が位相差評価値の算出を行い、これにより、デフォーカス量Dfが得られる。位相差評価値算出部217は、デフォーカス量Dfの算出を完了し次第、位相差評価値、具体的には、デフォーカス量Dfを制御部106に出力する。コントラスト評価値の算出(ステップS708)においては、ステップS705において取得されたコントラスト評価用の信号Gr、Gbに基づいて、コントラスト評価値算出部218がコントラスト評価値AF_Kの算出を行う。コントラスト評価値算出部218は、コントラスト評価値AF_Kの算出を完了し次第、コントラスト評価値AF_Kを制御部106に出力する。   Thereafter, the control unit 106 causes the solid-state image sensor 102 to start acquiring a live view signal (step S718) and causes the solid-state image sensor 102 to start acquiring a focus detection signal (step S705). The control unit 106 causes the solid-state imaging device 102 to start acquiring a focus detection signal, and then increments the focus detection signal acquisition count n (step S706). Thereafter, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217 (step S707), and the contrast evaluation value is calculated by the contrast evaluation value calculation unit 218 (step S708). In the calculation of the phase difference evaluation value (step S707), the phase difference evaluation value calculation unit 217 calculates the phase difference evaluation value based on the phase difference evaluation signals SHA and SHB acquired in step S705. Thus, the defocus amount Df is obtained. The phase difference evaluation value calculation unit 217 outputs the phase difference evaluation value, specifically, the defocus amount Df to the control unit 106 as soon as the calculation of the defocus amount Df is completed. In the calculation of the contrast evaluation value (step S708), the contrast evaluation value calculation unit 218 calculates the contrast evaluation value AF_K based on the contrast evaluation signals Gr and Gb acquired in step S705. The contrast evaluation value calculation unit 218 outputs the contrast evaluation value AF_K to the control unit 106 as soon as the calculation of the contrast evaluation value AF_K is completed.

ステップS709においては、制御部106は、ステップS707において算出されたデフォーカス量Dfが、所望のデフォーカス量の範囲内であるか否かを、以下の式(1)に基づいて判定する。
Df_min<Df<Df_max ・・・・(1)
ここで、Df_min、Df_maxは、所望のデフォーカス量Dfの最小値と最大値であり、例えば、制御部106に備えられたROMに予め格納されている。なお、これらの値Df_min、Df_maxは、設計時に決定されてもよいし、調整時に決定されてもよい。
In step S709, the control unit 106 determines whether or not the defocus amount Df calculated in step S707 is within a desired defocus amount range based on the following equation (1).
Df_min <Df <Df_max (1)
Here, Df_min and Df_max are a minimum value and a maximum value of the desired defocus amount Df, and are stored in advance in a ROM provided in the control unit 106, for example. Note that these values Df_min and Df_max may be determined at the time of design or may be determined at the time of adjustment.

デフォーカス量Dfが式(1)を満たさない場合には(ステップS709においてNO)、ステップS710に移行する。ステップS710では、当該デフォーカス量Dfに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。そして、制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(位相差AF制御)。この後、ステップS713に移行する。ステップS713では、制御部106は、焦点検出用の信号の取得回数nが3であるか否かを判定する。焦点検出用の信号の取得回数nが3でない場合には(ステップS713においてNO)、ステップS705に戻る。一方、焦点検出用の信号の取得回数nが3である場合には(ステップS713においてYES)、ライブビュー表示を行った(ステップS714)後、ステップS704に戻る。   If the defocus amount Df does not satisfy Expression (1) (NO in step S709), the process proceeds to step S710. In step S710, based on the defocus amount Df, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. Then, the control unit 106 controls the optical mechanism unit 1011 via the driving unit 103 to drive the focus lens in the optical barrel 101 (phase difference AF control). Thereafter, the process proceeds to step S713. In step S <b> 713, the control unit 106 determines whether or not the number n of acquisitions of focus detection signals is three. If the number n of acquisition of the focus detection signal is not 3 (NO in step S713), the process returns to step S705. On the other hand, when the number n of acquisitions of the focus detection signal is 3 (YES in step S713), live view display is performed (step S714), and the process returns to step S704.

デフォーカス量Dfが式(1)を満たす場合には(ステップS709においてYES)、ステップS708において取得されたコントラスト評価値AF_Kが、所望のコントラスト量の範囲内であるか否かを、以下の式(2)に基づいて判定する。
K_min<AF_K<K_max ・・・・(2)
ここで、K_min、K_maxは、所望のコントラスト評価値AF_Kの最小値と最大値であり、例えば制御部106内に備えられたROMに格納されている。なお、これらの値K_min、K_maxは、設計時に決定されてもよいし、調整時に決定されてもよい。
When the defocus amount Df satisfies the equation (1) (YES in step S709), whether or not the contrast evaluation value AF_K acquired in step S708 is within the range of the desired contrast amount is expressed by the following equation: Determine based on (2).
K_min <AF_K <K_max (2)
Here, K_min and K_max are the minimum value and the maximum value of the desired contrast evaluation value AF_K, and are stored in, for example, a ROM provided in the control unit 106. Note that these values K_min and K_max may be determined at the time of design or may be determined at the time of adjustment.

コントラスト評価値AF_Kが式(2)を満たさない場合には(ステップS711においてNO)、ステップS712に移行する。ステップS712では、当該コントラスト評価値AF_Kに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。そして、制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(コントラストAF制御)。この後、ステップS713に移行する。コントラスト評価値AF_Kが式(2)を満たす場合には(ステップS711においてYES)、制御部106はAF制御信号をOFF状態にする(ステップS715)。この後、制御部106は、焦点検出用の信号の取得を終了させ(ステップS716)、ステップS718において取得したライブビュー用の信号を画像表示部109に表示し(ステップS717)、待機状態に移行する。   If the contrast evaluation value AF_K does not satisfy Expression (2) (NO in step S711), the process proceeds to step S712. In step S712, based on the contrast evaluation value AF_K, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. Then, the control unit 106 drives the focus lens in the optical barrel 101 by controlling the optical mechanism unit 1011 via the drive unit 103 (contrast AF control). Thereafter, the process proceeds to step S713. If the contrast evaluation value AF_K satisfies Expression (2) (YES in step S711), the control unit 106 turns off the AF control signal (step S715). Thereafter, the control unit 106 ends the acquisition of the focus detection signal (step S716), displays the live view signal acquired in step S718 on the image display unit 109 (step S717), and shifts to a standby state. To do.

このように、本実施形態によれば、位相差評価値算出部217によって位相差評価値が算出された場合には、ライブビュー用の信号の出力の完了の如何にかかわらず、固体撮像素子102から位相差評価値が出力される。また、本実施形態によれば、コントラスト評価値算出部218によってコントラスト評価値が算出された場合には、ライブビュー用の信号の出力の完了の如何にかかわらず、固体撮像素子102からコントラスト評価値が出力される。本実施形態によれば、ライブビュー用の信号の出力の完了の如何にかかわらず、位相差評価値やコントラスト評価値が制御部106に出力されるため、オートフォーカスを迅速且つ高精度に行い得る撮像装置を提供することができる。   As described above, according to the present embodiment, when the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217, the solid-state image sensor 102 regardless of whether the output of the live view signal is completed. Outputs a phase difference evaluation value. Further, according to the present embodiment, when the contrast evaluation value is calculated by the contrast evaluation value calculation unit 218, the contrast evaluation value is obtained from the solid-state image sensor 102 regardless of whether the output of the live view signal is completed. Is output. According to the present embodiment, the phase difference evaluation value and the contrast evaluation value are output to the control unit 106 regardless of whether the output of the live view signal is completed, so that autofocus can be performed quickly and with high accuracy. An imaging device can be provided.

[第2実施形態]
第2実施形態による固体撮像素子及びその制御方法並びに撮像装置について図8及び図9を用いて説明する。図1乃至図7に示す第1実施形態による固体撮像素子及びその制御方法並びに撮像装置と同一の構成要素には、同一の符号を付して説明を省略または簡潔にする。
[Second Embodiment]
A solid-state imaging device, a control method thereof, and an imaging apparatus according to a second embodiment will be described with reference to FIGS. The same components as those of the solid-state imaging device, the control method thereof, and the imaging device according to the first embodiment shown in FIGS. 1 to 7 are denoted by the same reference numerals, and description thereof is omitted or simplified.

本実施形態による撮像装置100は、静止画像の連続的な取得、即ち、静止画像の連写を行うものである。
図8は、本実施形態による撮像装置の動作を示すタイムチャートである。静止画像を連続的に取得するモードである静止画像連写モードは、制御部106からの静止画像連写制御信号がON状態になることによって開始される。制御部106は、光学機構部1011に備えられたメカニカルシャッタ機構や絞り機構等を、駆動部103を介して制御しつつ、駆動部103を介して固体撮像素子102を制御する。具体的には、画素201に対してリセット動作を行い、メカニカルシャッタ(シャッタ)を開くことによって画素201への露光を開始する。画素201への露光が開始されると、フォトダイオードPDによって光電変換が開始される。予め設定された露出条件を満たすような所定の露光時間が経過した後、制御部106は、駆動部103を介してシャッタを閉じる。シャッタが閉じられることによって、画素201への露光が完了する。画素201への露光が完了すると、第1の画像信号、即ち、静止画像用の信号の取得と、第2の画像信号、即ち、焦点検出用の信号の取得とが開始される。第1の画像信号の取得と第2の画像信号の取得とが開始されるタイミングは、TF0である。第1の画像信号は第1のチャネルCH1を介して出力され、第2の画像信号は第2のチャネルCH2を介して出力される。第1の画像信号を取得する際の選択行と、第2の画像信号を取得する際の選択行は、例えば、図5を用いて上述した第1実施形態の場合と同様とすることができる。
The imaging apparatus 100 according to the present embodiment performs continuous acquisition of still images, that is, continuous shooting of still images.
FIG. 8 is a time chart illustrating the operation of the imaging apparatus according to the present embodiment. A still image continuous shooting mode, which is a mode for continuously acquiring still images, is started when a still image continuous shooting control signal from the control unit 106 is turned on. The control unit 106 controls the solid-state imaging device 102 through the drive unit 103 while controlling the mechanical shutter mechanism, the diaphragm mechanism, and the like provided in the optical mechanism unit 1011 through the drive unit 103. Specifically, a reset operation is performed on the pixel 201, and exposure to the pixel 201 is started by opening a mechanical shutter (shutter). When exposure to the pixel 201 is started, photoelectric conversion is started by the photodiode PD. After a predetermined exposure time that satisfies a preset exposure condition has elapsed, the control unit 106 closes the shutter via the drive unit 103. By closing the shutter, the exposure to the pixel 201 is completed. When the exposure to the pixel 201 is completed, acquisition of a first image signal, that is, a still image signal, and acquisition of a second image signal, that is, a focus detection signal are started. The timing at which the acquisition of the first image signal and the acquisition of the second image signal is started is TF0. The first image signal is output via the first channel CH1, and the second image signal is output via the second channel CH2. The selected row for acquiring the first image signal and the selected row for acquiring the second image signal can be the same as those in the first embodiment described above with reference to FIG. 5, for example. .

TF0〜TF1の期間においては、水平信号線215bとスイッチ216とを介して、位相差検出用の信号SHA、SHBが位相差評価値算出部217に送信される。そして、TF1〜TF2の期間においては、位相差評価値算出部217によって位相差評価値が算出される。TF2〜TF3の期間においては、位相差評価値算出部217によって算出された位相差評価値が制御部106に出力される。また、TF0〜TF1の期間においては、水平信号線215bとスイッチ216とを介して、コントラスト評価用の信号がコントラスト評価値算出部218に送信される。そして、TF1〜TF2Cの期間においては、コントラスト評価値算出部218によってコントラスト評価値が算出される。TF2C〜TF3Cの期間においては、コントラスト評価値算出部218によって算出されたコントラスト評価値が制御部106に出力される。制御部106は、これら位相差評価値やコントラスト評価値に基づいて、光学鏡筒101に備えられたフォーカスレンズを、駆動部103を介して駆動する。フォーカスレンズの駆動が完了し、静止画像連写モードが終了していない場合には、次の静止画像の取得に移行する。   In the period from TF0 to TF1, phase difference detection signals SHA and SHB are transmitted to the phase difference evaluation value calculation unit 217 via the horizontal signal line 215b and the switch 216. In the period of TF1 to TF2, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217. In the period from TF <b> 2 to TF <b> 3, the phase difference evaluation value calculated by the phase difference evaluation value calculation unit 217 is output to the control unit 106. In the period from TF0 to TF1, a contrast evaluation signal is transmitted to the contrast evaluation value calculation unit 218 via the horizontal signal line 215b and the switch 216. In the period from TF1 to TF2C, the contrast evaluation value calculation unit 218 calculates the contrast evaluation value. In the period from TF2C to TF3C, the contrast evaluation value calculated by the contrast evaluation value calculation unit 218 is output to the control unit 106. The control unit 106 drives the focus lens provided in the optical barrel 101 via the drive unit 103 based on the phase difference evaluation value and the contrast evaluation value. When the driving of the focus lens is completed and the still image continuous shooting mode is not ended, the process proceeds to acquisition of the next still image.

図9は、本実施形態による撮像装置の動作を示すフローチャートである。まず、ユーザによる操作部108への操作入力に応じて、制御部106は、撮像装置100を待機状態から静止画像連写モードに移行させる。ステップS901においては、制御部106は、駆動部103を介して、光学機構部1011に備えられたメカニカルシャッタを開く。これにより、画素201への露光が開始され、フォトダイオードPDによって光電変換が開始され、電荷の蓄積が開始される(ステップS902)。所定の露光時間が経過した後、制御部106は、駆動部103を介して、光学機構部1011に備えられたメカニカルシャッタを閉じる(ステップS903)。   FIG. 9 is a flowchart illustrating the operation of the imaging apparatus according to the present embodiment. First, in response to an operation input to the operation unit 108 by the user, the control unit 106 shifts the imaging device 100 from the standby state to the still image continuous shooting mode. In step S <b> 901, the control unit 106 opens a mechanical shutter provided in the optical mechanism unit 1011 via the drive unit 103. Thereby, exposure to the pixel 201 is started, photoelectric conversion is started by the photodiode PD, and charge accumulation is started (step S902). After a predetermined exposure time has elapsed, the control unit 106 closes the mechanical shutter provided in the optical mechanism unit 1011 via the drive unit 103 (step S903).

次に、制御部106は、静止画像用の信号の取得を固体撮像素子102に開始させるとともに(ステップS905)、焦点検出用の信号の取得を固体撮像素子102に開始させる(ステップS904)。この後、位相差評価値の算出が位相差評価値算出部217によって行われるとともに(ステップS906)、コントラスト評価値の算出がコントラスト評価値算出部218によって行われる(ステップS907)。位相差評価値の算出(ステップS906)においては、ステップS904において取得された焦点検出用の信号SHA、SHBに基づいて、位相差評価値算出部217が位相差評価値の算出を行い、これにより、デフォーカス量Dfが得られる。位相差評価値算出部217は、位相差評価値の算出を完了し次第、位相差評価値、具体的には、デフォーカス量Dfを制御部106に出力する。コントラスト評価値の算出(ステップS907)においては、ステップS904において取得された撮像用の信号Gr、Gbに基づいて、コントラスト評価値算出部218がコントラスト評価値AF_Kの算出を行う。コントラスト評価値算出部218は、コントラスト評価値AF_Kの算出を完了し次第、コントラスト評価値AF_Kを制御部106に出力する。   Next, the control unit 106 causes the solid-state imaging device 102 to start acquiring a still image signal (step S905) and causes the solid-state imaging device 102 to start acquiring a focus detection signal (step S904). Thereafter, the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217 (step S906), and the contrast evaluation value is calculated by the contrast evaluation value calculation unit 218 (step S907). In the calculation of the phase difference evaluation value (step S906), the phase difference evaluation value calculation unit 217 calculates the phase difference evaluation value based on the focus detection signals SHA and SHB acquired in step S904. A defocus amount Df is obtained. The phase difference evaluation value calculation unit 217 outputs the phase difference evaluation value, specifically, the defocus amount Df to the control unit 106 as soon as the calculation of the phase difference evaluation value is completed. In the calculation of the contrast evaluation value (step S907), the contrast evaluation value calculation unit 218 calculates the contrast evaluation value AF_K based on the imaging signals Gr and Gb acquired in step S904. The contrast evaluation value calculation unit 218 outputs the contrast evaluation value AF_K to the control unit 106 as soon as the calculation of the contrast evaluation value AF_K is completed.

ステップS908においては、制御部106は、ステップS906において算出されたデフォーカス量Dfが、所望のデフォーカス量の範囲内であるか否かを、第1実施形態において上述した式(1)に基づいて判定する。デフォーカス量Dfが式(1)を満たさない場合には(ステップS908においてNO)、ステップS909に移行する。ステップS909では、当該デフォーカス量Dfに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(位相差AF制御)。この後、ステップS912に移行する。デフォーカス量Dfが式(1)を満たす場合には(ステップS908においてYES)、ステップS910に移行する。ステップS910では、ステップS907において取得されたコントラスト評価値AF_Kが、所望のコントラスト量の範囲内であるか否かを、第1実施形態において上述した式(2)に基づいて判定する。コントラスト評価値AF_Kが式(2)を満たさない場合には(ステップS910においてNO)、ステップS911に移行する。ステップS911では、当該コントラスト評価値AF_Kに基づいて、制御部106が、フィードバック制御量、即ち、フォーカスレンズの駆動量を決定する。制御部106は、駆動部103を介して光学機構部1011を制御することによって、光学鏡筒101内のフォーカスレンズを駆動させる(コントラストAF制御)。この後、ステップS912に移行する。コントラスト評価値AF_Kが式(2)を満たす場合には(ステップS910においてYES)、ステップS912に移行する。   In step S908, the control unit 106 determines whether or not the defocus amount Df calculated in step S906 is within the desired defocus amount range based on the equation (1) described above in the first embodiment. Judgment. If the defocus amount Df does not satisfy Expression (1) (NO in step S908), the process proceeds to step S909. In step S909, based on the defocus amount Df, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. The control unit 106 drives the focus lens in the optical barrel 101 by controlling the optical mechanism unit 1011 via the driving unit 103 (phase difference AF control). Thereafter, the process proceeds to step S912. When the defocus amount Df satisfies Expression (1) (YES in step S908), the process proceeds to step S910. In step S910, whether or not the contrast evaluation value AF_K acquired in step S907 is within a desired contrast amount range is determined based on the equation (2) described above in the first embodiment. When contrast evaluation value AF_K does not satisfy Expression (2) (NO in step S910), the process proceeds to step S911. In step S911, based on the contrast evaluation value AF_K, the control unit 106 determines a feedback control amount, that is, a focus lens drive amount. The control unit 106 drives the focus lens in the optical barrel 101 by controlling the optical mechanism unit 1011 via the drive unit 103 (contrast AF control). Thereafter, the process proceeds to step S912. When contrast evaluation value AF_K satisfies Expression (2) (YES in step S910), the process proceeds to step S912.

ステップS912では、ユーザによる操作部108の操作入力に応じて、制御部106が、静止画像連写モードを終了させるか否かを判定する。静止画像連写モードを終了させない場合には(ステップS912においてNO)、ステップS901に戻り、次の静止画像の取得を開始する。一方、静止画像連写モードを終了させる場合には(ステップS912においてYES)、次の静止画像の取得を行わず、待機状態に移行する。   In step S912, the control unit 106 determines whether or not to end the still image continuous shooting mode in response to an operation input of the operation unit 108 by the user. If the still image continuous shooting mode is not terminated (NO in step S912), the process returns to step S901, and acquisition of the next still image is started. On the other hand, when the still image continuous shooting mode is to be ended (YES in step S912), the next still image is not acquired and the process shifts to a standby state.

このように、本実施形態によれば、位相差評価値算出部217によって位相差評価値が算出された場合には、静止画像用の信号の出力の完了の如何にかかわらず、固体撮像素子102から位相差評価値が出力される。また、本実施形態によれば、コントラスト評価値算出部218によってコントラスト評価値が算出された場合には、静止画像用の信号の出力の完了の如何にかかわらず、固体撮像素子102からコントラスト評価値が出力される。本実施形態によれば、静止画像用の信号の出力の完了の如何にかかわらず、位相差評価値やコントラスト評価値が制御部106に出力されるため、オートフォーカスを迅速且つ高精度に行い得る撮像装置を提供することができる。   As described above, according to the present embodiment, when the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217, the solid-state imaging element 102 regardless of whether the output of the still image signal is completed. Outputs a phase difference evaluation value. Further, according to the present embodiment, when the contrast evaluation value is calculated by the contrast evaluation value calculation unit 218, the contrast evaluation value is output from the solid-state imaging device 102 regardless of whether the output of the still image signal is completed. Is output. According to the present embodiment, the phase difference evaluation value and the contrast evaluation value are output to the control unit 106 regardless of whether the output of the still image signal is completed, so that autofocus can be performed quickly and with high accuracy. An imaging device can be provided.

[第3実施形態]
第3実施形態による固体撮像素子及びその制御方法並びに撮像装置について図10及び図11を用いて説明する。図1乃至図9に示す第1又は第2実施形態による固体撮像素子及びその制御方法並びに撮像装置と同一の構成要素には、同一の符号を付して説明を省略または簡潔にする。
本実施形態による固体撮像素子は、画像信号とAF評価値とを共通の出力端子を介して出力するものである。
[Third Embodiment]
A solid-state imaging device, a control method thereof, and an imaging apparatus according to a third embodiment will be described with reference to FIGS. The same components as those of the solid-state imaging device, the control method thereof, and the imaging device according to the first or second embodiment shown in FIGS. 1 to 9 are denoted by the same reference numerals, and description thereof will be omitted or simplified.
The solid-state imaging device according to the present embodiment outputs an image signal and an AF evaluation value via a common output terminal.

図10は、本実施形態による固体撮像素子を示す回路図である。図10に示すように、本実施形態では、出力部1001が設けられている。通常行に位置する画素201から水平信号線215aに転送される信号は、出力部1001に入力されるようになっている。また、AF評価値算出部1021に備えられた位相差評価値算出部217から出力される位相差評価値は、出力部1001に入力されるようになっている。また、AF評価値算出部1021に備えられたコントラスト評価値算出部218から出力されるコントラスト評価値は、出力部1001に入力されるようになっている。また、AF行に位置する撮像用の画素201G(図4参照)から水平信号線215bに転送される信号Gr、Gbは、出力部1001に入力されるようになっている。出力部1001は、画像信号とAF評価値とを、共通の出力端子1002を介して制御部106に出力する。かかる画像信号は、第1実施形態において上述したようなライブビュー用の画像信号であってもよいし、第2実施形態において上述したような静止画像用の画像信号であってもよい。   FIG. 10 is a circuit diagram illustrating the solid-state imaging device according to the present embodiment. As shown in FIG. 10, in this embodiment, an output unit 1001 is provided. A signal transferred from the pixel 201 located in the normal row to the horizontal signal line 215 a is input to the output unit 1001. The phase difference evaluation value output from the phase difference evaluation value calculation unit 217 provided in the AF evaluation value calculation unit 1021 is input to the output unit 1001. The contrast evaluation value output from the contrast evaluation value calculation unit 218 provided in the AF evaluation value calculation unit 1021 is input to the output unit 1001. The signals Gr and Gb transferred from the imaging pixel 201G (see FIG. 4) located in the AF row to the horizontal signal line 215b are input to the output unit 1001. The output unit 1001 outputs the image signal and the AF evaluation value to the control unit 106 via the common output terminal 1002. Such an image signal may be an image signal for live view as described above in the first embodiment, or may be an image signal for still image as described above in the second embodiment.

図11(a)は、本実施形態による固体撮像素子の画素アレイのレイアウトを概念的に示す図である。図11(a)は、画素アレイ206の一部を抜き出して示している。画素アレイ206は、焦点検出用の画素201SHA、201SHBが含まれていない行である通常行が複数配されている領域1101を含む。また、画素アレイ206は、焦点検出用の画素201SHA、201SHBがそれぞれ含まれているAF行1102a、1102bを含む。画素201SHA、201SHBは、複数に分割された画素アレイ206の各分割領域(図示せず)に対応していてもよいし、AF枠(AFフレーム)に対応していてもよい。例えば、AF行1102aからの信号の読み出しが行われ、この後、AF行1102bからの信号の読み出しが行われ、この後、領域1101に含まれる複数の通常行からの信号の読み出しが順次行われる。   FIG. 11A is a diagram conceptually showing the layout of the pixel array of the solid-state imaging device according to the present embodiment. FIG. 11A shows an extracted part of the pixel array 206. The pixel array 206 includes a region 1101 in which a plurality of normal rows, which are rows that do not include the focus detection pixels 201SHA and 201SHB, are arranged. The pixel array 206 includes AF rows 1102a and 1102b in which focus detection pixels 201SHA and 201SHB are included, respectively. The pixels 201SHA and 201SHB may correspond to each divided region (not shown) of the pixel array 206 divided into a plurality, or may correspond to an AF frame (AF frame). For example, signals are read from the AF row 1102a, thereafter, signals are read from the AF row 1102b, and thereafter, signals are sequentially read from a plurality of normal rows included in the area 1101. .

図11(b)は、本実施形態による固体撮像素子から出力される信号を概念的に示す図である。図11(b)に示すように、AF行1102aから読み出される信号1105aが、出力部1001を介して制御部106に出力される。この後、AF行1102bから読み出される信号1105bが、出力部1001を介して制御部106に出力される。この後、領域1101に位置する複数の通常行から読み出される信号1104の制御部106への出力が開始される。領域1101に位置する複数の通常行からの信号の読み出しが完了する前に、位相差評価値が位相差評価値算出部217によって算出され次第、当該位相差評価値が出力部1001に入力される。また、領域1101に位置する複数の通常行からの信号の読み出しが完了する前に、コントラスト評価値がコントラスト評価値算出部218によって算出され次第、当該コントラスト評価値が出力部1001に入力される。出力部1001は、領域1101に位置する複数の通常行から読み出される信号の出力が完了する前に段階、即ち、画像信号1104の出力が完了する前の段階において、位相差評価値とコントラスト評価値とが取得され次第、これらを制御部106に出力する。   FIG. 11B is a diagram conceptually showing a signal output from the solid-state imaging device according to the present embodiment. As shown in FIG. 11B, a signal 1105a read from the AF row 1102a is output to the control unit 106 via the output unit 1001. Thereafter, a signal 1105b read from the AF row 1102b is output to the control unit 106 via the output unit 1001. Thereafter, output of the signal 1104 read from a plurality of normal rows located in the area 1101 to the control unit 106 is started. The phase difference evaluation value is input to the output unit 1001 as soon as the phase difference evaluation value is calculated by the phase difference evaluation value calculation unit 217 before reading of signals from a plurality of normal rows located in the area 1101 is completed. . In addition, as soon as the contrast evaluation value is calculated by the contrast evaluation value calculation unit 218 before reading out signals from a plurality of normal rows located in the area 1101, the contrast evaluation value is input to the output unit 1001. The output unit 1001 outputs a phase difference evaluation value and a contrast evaluation value at a stage before the output of signals read from a plurality of normal rows located in the area 1101 is completed, that is, at a stage before the output of the image signal 1104 is completed. Are acquired and output to the control unit 106.

AF評価値、即ち、位相差評価値及びコントラスト評価値は、画素アレイ206に均等に配されたAF行に対応するように分割された領域毎に算出されるが、これらの領域の数は例えば10〜30程度である。しかも、AF評価値のデータ長は、例えば8ビット程度である。AF評価値のデータ量は、通常行から読み出される信号、即ち、ライブビュー用の信号や静止画像用の信号と比較して非常に小さいため、ライブビュー用の信号や静止画像用の信号に影響を与えない無効データとして挿入することが可能である。AF評価値のデータを挿入して出力するタイミングは、通常行から読み出される信号が制御部106に出力されることがない期間内、例えば、水平ブランキング期間に対応するタイミングとすることができる。図11(b)は、水平ブランキング期間に位相差評価値1106やコントラスト評価値1107を挿入した状態を概念的に示している。   The AF evaluation value, that is, the phase difference evaluation value and the contrast evaluation value are calculated for each area divided so as to correspond to the AF rows evenly arranged in the pixel array 206. The number of these areas is, for example, It is about 10-30. Moreover, the data length of the AF evaluation value is about 8 bits, for example. The data amount of the AF evaluation value is very small compared with the signal read from the normal row, that is, the signal for live view and the signal for still image, so it affects the signal for live view and the signal for still image. Can be inserted as invalid data. The timing of inserting and outputting AF evaluation value data can be set to a timing corresponding to a horizontal blanking period, for example, within a period in which a signal read from a normal row is not output to the control unit 106. FIG. 11B conceptually shows a state in which the phase difference evaluation value 1106 and the contrast evaluation value 1107 are inserted in the horizontal blanking period.

図11(c)は、本実施形態による撮像装置の動作の例を示すタイムチャートである。図11(c)は、オートフォーカス動作を行いつつライブビュー表示を行うモード、即ち、AF評価モードで動作させる場合を示している。第1実施形態において上述したように、まず、ライブビュー用の信号の取得と焦点検出用の信号の取得とが並行して行われる。位相差評価値算出部217によって取得された位相差評価値が出力部1001に入力されると、出力部1001は、ライブビュー用信号の水平ブランキング期間の部分に当該位相差評価値を無効データとして挿入して出力する。コントラスト評価値算出部218によって取得されたコントラスト評価値が出力部1001に入力されると、出力部1001は、ライブビュー信号の水平ブランキング期間の部分に当該コントラスト評価値を無効データとして挿入して出力する。   FIG. 11C is a time chart illustrating an example of the operation of the imaging apparatus according to the present embodiment. FIG. 11C shows a case where the live view display is performed while performing the autofocus operation, that is, the operation is performed in the AF evaluation mode. As described above in the first embodiment, first, the acquisition of the live view signal and the acquisition of the focus detection signal are performed in parallel. When the phase difference evaluation value acquired by the phase difference evaluation value calculation unit 217 is input to the output unit 1001, the output unit 1001 uses the phase difference evaluation value as invalid data in the horizontal blanking period portion of the live view signal. Insert and output as. When the contrast evaluation value acquired by the contrast evaluation value calculation unit 218 is input to the output unit 1001, the output unit 1001 inserts the contrast evaluation value as invalid data in the horizontal blanking period portion of the live view signal. Output.

図11(d)は、本実施形態による撮像装置の動作の他の例を示すタイムチャートである。図11(d)は、静止画像を連続的に取得するモードである静止画像連写モードで動作させる場合を示している。第2実施形態において上述したように、静止画像用の信号の取得と焦点検出用の信号の取得とが並行して行われる。位相差評価値算出部217によって取得された位相差評価値が出力部1001に入力されると、出力部1001は、静止画像信号の水平ブランキング期間の部分に当該位相差評価値を無効データとして挿入して出力する。また、コントラスト評価値算出部218によって取得されたコントラスト評価値が出力部1001に入力されると、出力部1001は、静止画像信号の水平ブランキング期間の部分に当該コントラスト評価値を無効データとして挿入して出力する。制御部106は、出力部1001から出力される位相差評価値に基づいてフォーカスレンズを駆動する。また、制御部106は、出力部1001から出力されるコントラスト評価値に基づいてフォーカスレンズを駆動する。フォーカスレンズの駆動が完了し、静止画像連写モードが終了していない場合には、次の静止画像の取得に移行する。   FIG. 11D is a time chart showing another example of the operation of the imaging apparatus according to the present embodiment. FIG. 11D shows a case of operating in a still image continuous shooting mode, which is a mode for continuously acquiring still images. As described above in the second embodiment, acquisition of a still image signal and acquisition of a focus detection signal are performed in parallel. When the phase difference evaluation value acquired by the phase difference evaluation value calculation unit 217 is input to the output unit 1001, the output unit 1001 uses the phase difference evaluation value as invalid data in the horizontal blanking period portion of the still image signal. Insert and output. When the contrast evaluation value acquired by the contrast evaluation value calculation unit 218 is input to the output unit 1001, the output unit 1001 inserts the contrast evaluation value as invalid data in the horizontal blanking period portion of the still image signal. And output. The control unit 106 drives the focus lens based on the phase difference evaluation value output from the output unit 1001. The control unit 106 drives the focus lens based on the contrast evaluation value output from the output unit 1001. When the driving of the focus lens is completed and the still image continuous shooting mode is not ended, the process proceeds to acquisition of the next still image.

図12(a)は、参考例による撮像装置の固体撮像素子から出力される信号を概念的に示す図である。図12に示すように、参考例による撮像装置においては、位相差評価値1106やコントラスト評価値1107が画像信号(画像データ)1104の後に付されている。即ち、参考例による撮像装置では、画像信号1104の最後尾に位相差評価値1106やコントラスト評価値1107に配されている。   FIG. 12A is a diagram conceptually illustrating a signal output from the solid-state imaging element of the imaging apparatus according to the reference example. As shown in FIG. 12, in the imaging apparatus according to the reference example, a phase difference evaluation value 1106 and a contrast evaluation value 1107 are attached after the image signal (image data) 1104. That is, in the imaging apparatus according to the reference example, the phase difference evaluation value 1106 and the contrast evaluation value 1107 are arranged at the end of the image signal 1104.

図12(b)は、参考例による撮像装置の動作の例を示すタイムチャートである。図12(b)は、オートフォーカス動作を行いつつライブビュー表示を行うモード、即ち、AF評価モードで動作させる場合を示している。参考例においても、ライブビュー用信号の取得と並行して、位相差評価用の信号の取得及びコントラスト評価用の信号の取得が行われる。参考例による撮像装置においても、ライブビュー用信号の出力が完了する前の段階で、位相差評価値及びコントラスト評価値の算出が完了する。参考例による撮像装置では、ライブビュー用信号の出力が完了した後に、位相差評価値の出力とコントラスト評価値の出力とを行う。このため、参考例においては、ライブビュー用信号の出力が完了する前の段階で位相差評価値やコントラスト評価値が算出されているにもかかわらず、オートフォーカスを迅速に行い得ない。   FIG. 12B is a time chart illustrating an example of the operation of the imaging apparatus according to the reference example. FIG. 12B shows a case of operating in a mode for performing live view display while performing an autofocus operation, that is, an AF evaluation mode. Also in the reference example, acquisition of the signal for phase difference evaluation and acquisition of the signal for contrast evaluation are performed in parallel with the acquisition of the live view signal. Also in the imaging apparatus according to the reference example, the calculation of the phase difference evaluation value and the contrast evaluation value is completed before the output of the live view signal is completed. In the imaging apparatus according to the reference example, after the output of the live view signal is completed, the phase difference evaluation value and the contrast evaluation value are output. For this reason, in the reference example, although the phase difference evaluation value and the contrast evaluation value are calculated before the completion of the output of the live view signal, autofocus cannot be performed quickly.

図12(c)は、参考例による撮像装置の動作の他の例を示すタイムチャートである。図12(c)は、静止画像を連続的に取得するモードである静止画像連写モードで動作させる場合を示している。参考例においても、静止画像用信号の取得と並行して、位相差評価用の信号の取得及びコントラスト評価用の信号の取得が行われる。参考例による撮像装置においても、静止画像用信号の出力が完了する前の段階で、位相差評価値及びコントラスト評価値の算出が完了する。参考例による撮像装置では、静止画像用信号の出力が完了した後に、位相差評価値の出力とコントラスト評価値の出力とを行う。このため、参考例においては、静止画像用信号の出力が完了する前の段階で位相差評価値やコントラスト評価値が算出されているにもかかわらず、オートフォーカスを迅速に行い得ない。   FIG. 12C is a time chart illustrating another example of the operation of the imaging apparatus according to the reference example. FIG. 12C shows a case where the operation is performed in the still image continuous shooting mode which is a mode for continuously acquiring still images. Also in the reference example, acquisition of a phase difference evaluation signal and acquisition of a contrast evaluation signal are performed in parallel with acquisition of a still image signal. Also in the imaging apparatus according to the reference example, the calculation of the phase difference evaluation value and the contrast evaluation value is completed before the output of the still image signal is completed. In the imaging apparatus according to the reference example, after the output of the still image signal is completed, the phase difference evaluation value and the contrast evaluation value are output. For this reason, in the reference example, although the phase difference evaluation value and the contrast evaluation value are calculated at the stage before the output of the still image signal is completed, autofocus cannot be performed quickly.

これに対し、本実施形態では、位相差評価値が算出された場合には、第1及び第2実施形態による撮像装置と同様に、画像信号の出力の完了の如何にかかわらず、固体撮像素子102から位相差評価値が出力される。また、本実施形態では、コントラスト評価値が算出された場合には、第1及び第2実施形態による撮像装置と同様に、画像信号の出力の完了の如何にかかわらず、固体撮像素子102からコントラスト評価値が出力される。このため、本実施形態によれば、第1及び第2実施形態による撮像装置と同様に、オートフォーカスを迅速且つ高精度に行い得る撮像装置を提供することができる。しかも、本実施形態によれば、画像信号とAF評価値とを共通の出力端子1002を介して出力するため、低コスト化等に寄与することができる。   On the other hand, in the present embodiment, when the phase difference evaluation value is calculated, the solid-state imaging device regardless of whether the output of the image signal is completed, as in the imaging devices according to the first and second embodiments. A phase difference evaluation value is output from 102. Further, in the present embodiment, when the contrast evaluation value is calculated, the contrast from the solid-state image sensor 102 regardless of whether the output of the image signal is completed, as in the imaging devices according to the first and second embodiments. An evaluation value is output. For this reason, according to the present embodiment, it is possible to provide an imaging apparatus capable of performing autofocus quickly and with high accuracy, like the imaging apparatuses according to the first and second embodiments. In addition, according to the present embodiment, since the image signal and the AF evaluation value are output via the common output terminal 1002, it is possible to contribute to cost reduction and the like.

[変形実施形態]
以上、好適な実施形態に基づいて本発明について詳述したが、本発明はこれらの実施形態に限定されるものではなく、要旨を逸脱しない範囲での様々な形態も本発明に含まれる。また、上述の実施形態の一部を適宜組み合わせてもよい。
例えば、上記実施形態では、撮像装置100がデジタルカメラである場合を例に説明したが、撮像装置100はデジタルカメラに限定されるものではない。例えば、撮像装置100は、デジタルビデオカメラであってもよいし、携帯情報端末の機能と携帯電話機の機能とを併せ持つ電子機器であるスマートフォンであってもよい。また、撮像装置100は、例えば、タブレット端末、携帯情報端末(PDA:Personal Digital Assistant)等であってもよい。
[Modified Embodiment]
As mentioned above, although this invention was explained in full detail based on suitable embodiment, this invention is not limited to these embodiment, Various forms in the range which does not deviate from a summary are also contained in this invention. Moreover, you may combine suitably a part of above-mentioned embodiment.
For example, in the above embodiment, the case where the imaging apparatus 100 is a digital camera has been described as an example, but the imaging apparatus 100 is not limited to a digital camera. For example, the imaging apparatus 100 may be a digital video camera, or may be a smartphone that is an electronic device having both the functions of a portable information terminal and a mobile phone. Further, the imaging device 100 may be, for example, a tablet terminal, a personal digital assistant (PDA), or the like.

また、第1実施形態では、ライブビュー表示を行いつつオートフォーカス動作を行う場合を例に説明したが、これに限定されるものでない。例えば、動画像の撮影を行いつつオートフォーカス動作を行う場合にも本発明を適用し得る。
また、上記実施形態では、AF評価値を固体撮像素子102から制御部106に出力し、制御部106が駆動部103を介して光学機構部1011を制御する場合を例に説明したが、これに限定されるものではない。例えば、オートフォーカス動作を司る機能ブロックに固体撮像素子102からAF評価値を直接出力するようにしてもよい。
In the first embodiment, the case where the autofocus operation is performed while performing live view display has been described as an example, but the present invention is not limited to this. For example, the present invention can be applied to the case where an autofocus operation is performed while capturing a moving image.
In the above embodiment, the AF evaluation value is output from the solid-state imaging device 102 to the control unit 106, and the control unit 106 controls the optical mechanism unit 1011 via the drive unit 103 as an example. It is not limited. For example, the AF evaluation value may be directly output from the solid-state imaging device 102 to the functional block that controls the autofocus operation.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100・・・撮像装置
101・・・光学鏡筒
102・・・固体撮像素子
1021・・・AF評価値算出部
103・・・駆動部
106・・・制御部
201・・・画素
217・・・位相差評価値算出部
218・・・コントラスト評価値算出部
DESCRIPTION OF SYMBOLS 100 ... Imaging device 101 ... Optical barrel 102 ... Solid-state image sensor 1021 ... AF evaluation value calculation part 103 ... Drive part 106 ... Control part 201 ... Pixel 217 ... Phase difference evaluation value calculation unit 218 ... Contrast evaluation value calculation unit

Claims (9)

複数の画素を含む画素アレイと、
位相差検出方式による焦点検出のための位相差評価値を、前記画素からの信号に基づいて算出する第1の算出部と、
コントラスト検出方式による焦点検出のためのコントラスト評価値を、前記画素からの信号に基づいて算出する第2の算出部とを有し、
前記位相差評価値の算出が前記第1の算出部によって完了した場合には、前記画素アレイによって取得される画像信号の出力の完了の如何にかかわらず、前記位相差評価値を出力し、
前記コントラスト評価値の算出が前記第2の算出部によって完了した場合には、前記画素アレイによって取得される前記画像信号の出力の完了の如何にかかわらず、前記コントラスト評価値を出力する
ことを特徴とする固体撮像素子。
A pixel array including a plurality of pixels;
A first calculation unit that calculates a phase difference evaluation value for focus detection by a phase difference detection method based on a signal from the pixel;
A second calculation unit that calculates a contrast evaluation value for focus detection by a contrast detection method based on a signal from the pixel;
When the calculation of the phase difference evaluation value is completed by the first calculation unit, the phase difference evaluation value is output regardless of the completion of the output of the image signal acquired by the pixel array,
When the calculation of the contrast evaluation value is completed by the second calculation unit, the contrast evaluation value is output regardless of whether the output of the image signal acquired by the pixel array is completed. A solid-state imaging device.
前記画素アレイは第1の半導体チップに形成され、
前記第1の算出部及び前記第2の算出部は、前記第1の半導体チップと異なる第2の半導体チップに形成され、
前記第1の半導体チップと前記第2の半導体チップとが積層されていることを特徴とする請求項1に記載の固体撮像素子。
The pixel array is formed on a first semiconductor chip;
The first calculation unit and the second calculation unit are formed on a second semiconductor chip different from the first semiconductor chip,
The solid-state imaging device according to claim 1, wherein the first semiconductor chip and the second semiconductor chip are stacked.
前記位相差評価値及び前記コントラスト評価値は、前記画像信号が出力される出力端子とは異なる出力端子を介して出力されることを特徴とする請求項1又は2に記載の固体撮像素子。   The solid-state imaging device according to claim 1, wherein the phase difference evaluation value and the contrast evaluation value are output via an output terminal different from an output terminal from which the image signal is output. 前記位相差評価値、前記コントラスト評価値及び前記画像信号は、共通の出力端子を介して出力されることを特徴とする請求項1又は2に記載の固体撮像素子。   The solid-state imaging device according to claim 1, wherein the phase difference evaluation value, the contrast evaluation value, and the image signal are output through a common output terminal. 前記位相差評価値及び前記コントラスト評価値は、前記画像信号のブランキング期間の部分に挿入されることを特徴とする請求項4に記載の固体撮像素子。   The solid-state imaging device according to claim 4, wherein the phase difference evaluation value and the contrast evaluation value are inserted into a blanking period portion of the image signal. 前記位相差評価値を算出するための前記画素からの前記信号の読み出し、及び、前記コントラスト評価値を算出するための前記画素からの前記信号の読み出しは、前記画像信号を出力するための前記画素アレイからの前記画像信号の読み出しと並行して行われることを特徴とする請求項1乃至5のいずれか1項に記載の固体撮像素子。   Reading the signal from the pixel for calculating the phase difference evaluation value and reading the signal from the pixel for calculating the contrast evaluation value are the pixels for outputting the image signal. The solid-state imaging device according to claim 1, wherein the solid-state imaging element is performed in parallel with reading of the image signal from the array. 前記複数の画素は、撮像光学系の射出瞳の第1の瞳領域を通過する光束に応じた信号を取得する第1の画素と、前記射出瞳の前記第1の瞳領域とは異なる第2の瞳領域を通過する光束に応じた信号を取得する第2の画素とを含み、
前記第1の算出部は、前記第1の画素と前記第2の画素からの信号に基づいて前記位相差評価値を算出することを特徴とする請求項1乃至6のいずれか1項に記載の固体撮像素子。
The plurality of pixels are different from a first pixel that obtains a signal corresponding to a light beam passing through a first pupil region of an exit pupil of the imaging optical system, and a second different from the first pupil region of the exit pupil. A second pixel that obtains a signal corresponding to the luminous flux passing through the pupil region of
The said 1st calculation part calculates the said phase difference evaluation value based on the signal from the said 1st pixel and the said 2nd pixel, The any one of Claim 1 thru | or 6 characterized by the above-mentioned. Solid-state image sensor.
複数の画素を含む画素アレイによって取得される画像信号を出力するステップと、
位相差検出方式による焦点検出のための位相差評価値を、前記画素からの信号に基づいて算出するステップと、
コントラスト検出方式による焦点検出のためのコントラスト評価値を、前記画素からの信号に基づいて算出するステップと、
前記位相差評価値の算出が完了した場合に、前記画素アレイによって取得される前記画像信号の出力の完了の如何にかかわらず、前記位相差評価値を出力するステップと、
前記コントラスト評価値の算出が完了した場合に、前記画素アレイによって取得される前記画像信号の出力の完了の如何にかかわらず、前記コントラスト評価値を出力するステップと
を有することを特徴とする固体撮像素子の制御方法。
Outputting an image signal acquired by a pixel array including a plurality of pixels;
Calculating a phase difference evaluation value for focus detection by a phase difference detection method based on a signal from the pixel;
Calculating a contrast evaluation value for focus detection by a contrast detection method based on a signal from the pixel;
Outputting the phase difference evaluation value regardless of whether the output of the image signal acquired by the pixel array is completed when the calculation of the phase difference evaluation value is completed;
Output of the contrast evaluation value regardless of whether the output of the image signal acquired by the pixel array is completed when the calculation of the contrast evaluation value is completed. Device control method.
複数の画素を含む画素アレイと、位相差検出方式による焦点検出のための位相差評価値を前記画素からの信号に基づいて算出する第1の算出部と、コントラスト検出方式による焦点検出のためのコントラスト評価値を前記画素からの信号に基づいて算出する第2の算出部とを有し、前記位相差評価値の算出が前記第1の算出部によって完了した場合には、前記画素アレイによって取得される画像信号の出力の完了の如何にかかわらず、前記位相差評価値を出力し、前記コントラスト評価値の算出が前記第2の算出部によって完了した場合には、前記画素アレイによって取得される前記画像信号の出力の完了の如何にかかわらず、前記コントラスト評価値を出力する固体撮像素子と、
前記位相差評価値と前記コントラスト評価値とに基づいて、フォーカスレンズを駆動するための制御を行う制御部と
を有することを特徴とする撮像装置。
A pixel array including a plurality of pixels; a first calculation unit that calculates a phase difference evaluation value for focus detection by a phase difference detection method based on a signal from the pixel; and for focus detection by a contrast detection method A second calculation unit that calculates a contrast evaluation value based on a signal from the pixel, and is acquired by the pixel array when the calculation of the phase difference evaluation value is completed by the first calculation unit. Regardless of the completion of the output of the image signal, the phase difference evaluation value is output, and when the calculation of the contrast evaluation value is completed by the second calculation unit, it is acquired by the pixel array. Regardless of the completion of the output of the image signal, a solid-state imaging device that outputs the contrast evaluation value;
An imaging apparatus comprising: a control unit that performs control for driving a focus lens based on the phase difference evaluation value and the contrast evaluation value.
JP2016206710A 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor Active JP6881939B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016206710A JP6881939B2 (en) 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor
US15/784,354 US10284800B2 (en) 2016-10-21 2017-10-16 Solid-state image pickup element, method of controlling a solid-state image pickup element, and image pickup apparatus
US16/358,854 US10609315B2 (en) 2016-10-21 2019-03-20 Solid-state image pickup element, apparatus, and method for focus detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016206710A JP6881939B2 (en) 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor

Publications (2)

Publication Number Publication Date
JP2018066928A true JP2018066928A (en) 2018-04-26
JP6881939B2 JP6881939B2 (en) 2021-06-02

Family

ID=62086178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016206710A Active JP6881939B2 (en) 2016-10-21 2016-10-21 Solid-state image sensor, its control method, and image sensor

Country Status (1)

Country Link
JP (1) JP6881939B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020183947A1 (en) * 2019-03-13 2020-09-17
JP2021085988A (en) * 2019-11-27 2021-06-03 株式会社リコー Imaging device, focus adjustment method, and focus adjustment program
WO2024135120A1 (en) * 2022-12-21 2024-06-27 ソニーセミコンダクタソリューションズ株式会社 Imaging device and imaging system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011216A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Imaging device, and control method and control program of the same
JP2016018033A (en) * 2014-07-07 2016-02-01 キヤノン株式会社 Imaging device, control method of the same, program and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011216A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Imaging device, and control method and control program of the same
JP2016018033A (en) * 2014-07-07 2016-02-01 キヤノン株式会社 Imaging device, control method of the same, program and recording medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020183947A1 (en) * 2019-03-13 2020-09-17
WO2020183947A1 (en) * 2019-03-13 2020-09-17 富士フイルム株式会社 Imaging element, imaging device, method for operating imaging element, and program
US11616927B2 (en) 2019-03-13 2023-03-28 Fujifilm Corporation Imaging element, imaging apparatus, operation method of imaging element, and program
US11882375B2 (en) 2019-03-13 2024-01-23 Fujifilm Corporation Imaging element, imaging apparatus, operation method of imaging element, and program
JP7481313B2 (en) 2019-03-13 2024-05-10 富士フイルム株式会社 Image pickup device, image pickup device operation method, and program
JP2021085988A (en) * 2019-11-27 2021-06-03 株式会社リコー Imaging device, focus adjustment method, and focus adjustment program
JP7302455B2 (en) 2019-11-27 2023-07-04 株式会社リコー IMAGING DEVICE, FOCUS ADJUSTMENT METHOD, FOCUS ADJUSTMENT PROGRAM
WO2024135120A1 (en) * 2022-12-21 2024-06-27 ソニーセミコンダクタソリューションズ株式会社 Imaging device and imaging system

Also Published As

Publication number Publication date
JP6881939B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
US10609315B2 (en) Solid-state image pickup element, apparatus, and method for focus detection
US10531025B2 (en) Imaging element, imaging apparatus, and method for processing imaging signals
JP6190184B2 (en) Imaging device, imaging apparatus, control method thereof, and control program
US11290648B2 (en) Image capture apparatus and control method thereof
US10277853B2 (en) Image capturing apparatus and control method of the same
JP4639406B2 (en) Imaging device
JP6530593B2 (en) Imaging device, control method therefor, storage medium
JP6881939B2 (en) Solid-state image sensor, its control method, and image sensor
JP6521731B2 (en) Imaging device, control method therefor, and control program
JP7064322B2 (en) Electronic devices and their control methods, as well as image sensors
JP6762767B2 (en) Image sensor, image sensor, and image signal processing method
JP6881940B2 (en) Solid-state image sensor, its control method, and image sensor
JP6223160B2 (en) Imaging device, control method thereof, and control program
JP2017195642A (en) Image pickup device and image pickup apparatus
US11089217B2 (en) Image-pickup apparatus and control method thereof
JP7277284B2 (en) Focus adjustment device and focus adjustment method
US20150085172A1 (en) Image capturing apparatus and control method thereof
JP6762849B2 (en) Image sensor, its control method, program and recording medium
JP7247975B2 (en) Imaging element and imaging device
JP2017034344A (en) Imaging apparatus and control method therefor
US20230199342A1 (en) Imaging device and imaging method
JP6757199B2 (en) Image sensor and its driving method, and electronic devices
JP6375614B2 (en) Solid-state imaging device and imaging apparatus
JP2019216410A (en) Imaging apparatus and control method therefor
JP2020191528A (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210506

R151 Written notification of patent or utility model registration

Ref document number: 6881939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151