JP2018019296A - Imaging apparatus and control method therefor - Google Patents

Imaging apparatus and control method therefor Download PDF

Info

Publication number
JP2018019296A
JP2018019296A JP2016148997A JP2016148997A JP2018019296A JP 2018019296 A JP2018019296 A JP 2018019296A JP 2016148997 A JP2016148997 A JP 2016148997A JP 2016148997 A JP2016148997 A JP 2016148997A JP 2018019296 A JP2018019296 A JP 2018019296A
Authority
JP
Japan
Prior art keywords
signal
pixel
image
sub
exposure condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016148997A
Other languages
Japanese (ja)
Inventor
直人 大串
Naoto Ogushi
直人 大串
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016148997A priority Critical patent/JP2018019296A/en
Publication of JP2018019296A publication Critical patent/JP2018019296A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of obtaining images of different exposures through one time of imaging and accurately detecting a phase difference from the obtained images, and a control method therefor.SOLUTION: In an imaging device, pixels each including multiple subpixels are disposed in a matrix shape. A signal of which the dynamic range is enlarged is generated from signals obtained from subpixels to which a first exposure condition is set and signals obtained from subpixels to which a second exposure condition is set. A phase difference is detected between a first image signal depending upon a light flux emitted from a first region of an emission pupil of an image forming optical signal and a second image signal depending upon a light flux emitted from a second region of the emission pupil, the first image signal and the second image signal being generated from signals obtained in multiple subpixels.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置およびその制御方法に関する。   The present invention relates to an imaging apparatus and a control method thereof.

露出の異なる画像を合成することにより、撮像素子のダイナミックレンジを超えるダイナミックレンジを有する画像(HDR画像)を生成する技術が知られている。異なるタイミングで撮影した画像からHDR画像を生成すると、動きのある被写体はHDR画像においてブレた状態になる。そのため、1回の撮影で露出の異なる画像を得るための構成が提案されている(特許文献1)。   A technique for generating an image (HDR image) having a dynamic range that exceeds the dynamic range of the image sensor by combining images with different exposures is known. When an HDR image is generated from images taken at different timings, a moving subject is blurred in the HDR image. For this reason, a configuration has been proposed for obtaining images with different exposures in one shooting (Patent Document 1).

特許文献1には、1つのマイクロレンズに複数の画素が割り当てられた撮像素子を用いてHDR画像を生成することが開示されている。1つのマイクロレンズに複数の画素が割り当てられた撮像素子では、マイクロレンズに対する画素の相対位置は視点に相当し、1つのマイクロレンズに割り当てられた画素の数に等しい視差画像を1回の露光によって得ることができる。特許文献1では、このような視差画像のうち、マイクロレンズのケラレが大きな視点位置の画像を低露出の画像、ケラレが小さな視点位置の画像を高露出の画像として用いてHDR画像を生成している。   Patent Document 1 discloses that an HDR image is generated using an imaging device in which a plurality of pixels are assigned to one microlens. In an imaging device in which a plurality of pixels are assigned to one microlens, the relative position of the pixels with respect to the microlens corresponds to the viewpoint, and a parallax image equal to the number of pixels assigned to one microlens is obtained by one exposure. Can be obtained. In Patent Document 1, among such parallax images, an HDR image is generated by using an image at a viewpoint position with a large vignetting of a microlens as a low exposure image and an image at a viewpoint position with a small vignetting as a high exposure image. Yes.

特開2015−144416号公報(段落0037〜0038、0047〜0052、図4)Japanese Patent Laying-Open No. 2015-144416 (paragraphs 0037 to 0038, 0047 to 0052, FIG. 4)

1対の視差画像の像ずれ量は位相差検出方式の焦点検出に用いることができるが、1対の視差画像のケラレの差が大きい場合、焦点検出領域で得られる画素信号波形の相関が低下し、位相差の検出精度が低下するという問題が生じる。従って、特許文献1の構成では、HDR画像の生成と精度の良い位相差検出の両立が容易でないという課題が生じる。   The image shift amount of a pair of parallax images can be used for focus detection in the phase difference detection method. However, when the difference in vignetting between a pair of parallax images is large, the correlation of pixel signal waveforms obtained in the focus detection region is reduced. However, there arises a problem that the detection accuracy of the phase difference is lowered. Therefore, in the configuration of Patent Document 1, there is a problem that it is not easy to simultaneously generate the HDR image and detect the phase difference with high accuracy.

本発明はこのような従来技術の課題に鑑みてなされたものであり、1回の撮影で露出量の異なる画像を得るとともに、得られた画像から精度の良い位相差検出が可能な撮像装置およびその制御方法を提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and provides an imaging device capable of obtaining images with different exposure amounts in one shooting and capable of detecting phase differences with high accuracy from the obtained images. An object is to provide a control method thereof.

上述の目的は、複数の副画素を有する画素が行列状に配置された撮像素子と、複数の副画素に異なる露出条件を設定する設定手段と、異なる露出条件のうち、第1の露出条件が設定された副画素から得られる信号と、第2の露出条件が設定された副画素から得られる信号とから、ダイナミックレンジを拡大した信号を生成する処理手段と、複数の副画素で得られる信号から生成される、結像光学系の射出瞳の第1の領域を出射する光束による第1の像信号と、射出瞳の第2の領域を出射する光束による第2の像信号との位相差を検出する検出手段と、位相差に基づいて結像光学系のデフォーカス量を求める算出手段と、を有することを特徴とする撮像装置によって達成される。   The above-described object is to provide an imaging device in which pixels having a plurality of sub-pixels are arranged in a matrix, setting means for setting different exposure conditions for the plurality of sub-pixels, and the first exposure condition among the different exposure conditions. Processing means for generating a signal with an expanded dynamic range from a signal obtained from the set subpixel and a signal obtained from the subpixel for which the second exposure condition is set, and a signal obtained from the plurality of subpixels The phase difference between the first image signal generated by the light beam emitted from the first region of the exit pupil of the imaging optical system and the second image signal generated by the light beam emitted from the second region of the exit pupil. This is achieved by an imaging apparatus comprising: a detecting means for detecting the image and a calculating means for obtaining a defocus amount of the imaging optical system based on the phase difference.

本発明によれば、1回の撮影で露出量の異なる画像を得るとともに、得られた画像から精度の良い位相差検出が可能な撮像装置およびその制御方法を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of obtaining images with different exposure amounts in one shooting and capable of detecting phase differences with high accuracy from the obtained images, and a control method thereof.

第1実施形態に係る撮像装置としてのデジタルカメラの機能構成例を示すブロック図1 is a block diagram showing a functional configuration example of a digital camera as an imaging apparatus according to a first embodiment. 第1実施形態における撮像素子の構成例を示す図The figure which shows the structural example of the image pick-up element in 1st Embodiment. 第1実施形態における画素の構成例と画素配列例を示す図The figure which shows the structural example of the pixel and pixel arrangement example in 1st Embodiment. 射出瞳と図3に示した画素との関係を示す模式図Schematic diagram showing the relationship between the exit pupil and the pixels shown in FIG. 第1実施形態における露出条件の設定例を示す模式図The schematic diagram which shows the example of a setting of the exposure condition in 1st Embodiment 第1実施形態における画素の回路構成例を示す図The figure which shows the circuit structural example of the pixel in 1st Embodiment. 実施形態におけるHDR処理部の動作に関する図The figure regarding operation | movement of the HDR process part in embodiment 第1実施形態における撮影処理に関するフローチャートFlowchart relating to photographing processing in the first embodiment 第2実施形態に係るデジタルカメラの機能構成例を示すブロック図The block diagram which shows the function structural example of the digital camera which concerns on 2nd Embodiment. 第2実施形態における露出条件の設定例と、HDR処理および加算処理前後の信号の関係を示す模式図The schematic diagram which shows the example of the setting of the exposure condition in 2nd Embodiment, and the relationship between the signal before and after HDR processing and addition processing 第2実施形態における撮影処理に関するフローチャートFlowchart relating to photographing processing in the second embodiment 第3実施形態に係る撮像素子の画素構成Pixel configuration of an image sensor according to the third embodiment 第3実施形態における露出条件の設定例と、HDR処理前後の信号の関係を示す模式図The schematic diagram which shows the example of the setting of the exposure condition in 3rd Embodiment, and the relationship of the signal before and behind HDR process 第4実施形態における露出条件の設定例と、HDR処理および加算処理前後の信号の関係を示す模式図The schematic diagram which shows the example of the setting of exposure conditions in 4th Embodiment, and the relationship between the signal before and after HDR process and addition process

以下、本発明の例示的な実施形態について添付図面に基づいて詳細に説明する。なお、以下の実施形態においては、本発明に係る撮像装置の一例としてのデジタルカメラに関して説明する。しかしながら、本発明は固体撮像素子を用いる任意の電子機器に適用可能である。このような電子機器にはデジタルカメラをはじめ、パーソナルコンピュータ、タブレットコンピュータ、携帯電話機、スマートフォン、PDA、ゲーム機、ドライブレコーダ、ロボットなどが含まれるが、これらに限定されない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, a digital camera as an example of an imaging apparatus according to the present invention will be described. However, the present invention is applicable to any electronic device that uses a solid-state image sensor. Such electronic devices include, but are not limited to, digital cameras, personal computers, tablet computers, mobile phones, smartphones, PDAs, game machines, drive recorders, robots, and the like.

●(第1実施形態)
図1(a)は、本実施形態に係るデジタルカメラの機能構成例を示すブロック図である。デジタルカメラは、鏡筒101、撮像素子102、HDR処理部103、画像処理部104、圧縮伸長部105、信号処理部106、制御部107、発光部108、操作部109、表示部110、記録部111を備える。なお、図において点線矢印は被写体光、実線矢印は制御信号や画像信号以外の信号、一点鎖線矢印は画像信号を表している。
● (First embodiment)
FIG. 1A is a block diagram illustrating a functional configuration example of the digital camera according to the present embodiment. The digital camera includes a lens barrel 101, an image sensor 102, an HDR processing unit 103, an image processing unit 104, a compression / decompression unit 105, a signal processing unit 106, a control unit 107, a light emitting unit 108, an operation unit 109, a display unit 110, and a recording unit. 111. In the figure, dotted arrows indicate subject light, solid arrows indicate signals other than control signals and image signals, and alternate long and short dash arrows indicate image signals.

鏡筒101はレンズユニット(結像光学系)であり、着脱可能であっても、固定されていてもよい。フォーカス機構部1011は、フォーカスレンズとその駆動機構を有する。ズーム機構部1012は、レンズの焦点距離(画角)を変更するズームレンズとその駆動機構を有する。絞り機構部103は、撮像素子102に入射する光量を調整する絞り羽根とその駆動機構を有する。シャッタ機構部1014はシャッターとその駆動機構を有する。なお、絞りがシャッターを兼ねる場合、絞り機構部1013とシャッタ機構部1014は統合される。フォーカス機構部1011、ズーム機構部1012、絞り機構部1013、シャッタ機構部1014の動作は制御部107によって制御される。   The lens barrel 101 is a lens unit (imaging optical system) and may be detachable or fixed. The focus mechanism unit 1011 has a focus lens and its drive mechanism. The zoom mechanism unit 1012 includes a zoom lens that changes the focal length (angle of view) of the lens and a driving mechanism thereof. The diaphragm mechanism unit 103 includes diaphragm blades that adjust the amount of light incident on the image sensor 102 and a driving mechanism thereof. The shutter mechanism unit 1014 includes a shutter and its driving mechanism. When the diaphragm also serves as the shutter, the diaphragm mechanism unit 1013 and the shutter mechanism unit 1014 are integrated. Operations of the focus mechanism unit 1011, the zoom mechanism unit 1012, the aperture mechanism unit 1013, and the shutter mechanism unit 1014 are controlled by the control unit 107.

撮像素子102は、マイクロレンズごとに複数の光電変換部またはフォトダイオードが割り当てられた画素部や、アナログ・デジタル(AD)コンバータなどを有し、画像信号を出力する。なお、撮像素子102は、光電変換部を単位とした読み出しや、マイクロレンズを単位とした読み出しなど、複数の読み出しモードを有する。撮像素子102の電荷蓄積やリセット動作のタイミングは制御部107によって制御される。   The image sensor 102 includes a pixel unit to which a plurality of photoelectric conversion units or photodiodes are assigned for each microlens, an analog / digital (AD) converter, and the like, and outputs an image signal. Note that the image sensor 102 has a plurality of readout modes such as readout in units of photoelectric conversion units and readout in units of microlenses. The timing of charge accumulation and reset operation of the image sensor 102 is controlled by the control unit 107.

HDR処理部103は、撮像素子102が出力する画像信号に基づいてダイナミックレンジを拡張するための合成処理を行う。HDR処理部103の処理の詳細は後述する。   The HDR processing unit 103 performs synthesis processing for extending the dynamic range based on the image signal output from the image sensor 102. Details of the processing of the HDR processing unit 103 will be described later.

画像処理部104は図1(b)に示すように信号生成部1041、色補正処理部1042、AE(Auto Exposure)処理部1043、およびホワイトバランス調整処理部1044を有する。
画像処理部104は、HDR処理部103から、HDR処理後の視差画像信号(A像信号群およびB像信号群(後述))を信号生成部1041で受信する。信号生成部1041はA像信号群にB像信号群を加算して1フレームの画像信号として、もしくは加算せずに1対の視差画像信号として出力する。色補正処理部1042は、信号生成部1041が出力する画像信号に色補正処理を適用して制御部107、AE処理部1043、およびホワイトバランス調整処理部1044に出力する。
As shown in FIG. 1B, the image processing unit 104 includes a signal generation unit 1041, a color correction processing unit 1042, an AE (Auto Exposure) processing unit 1043, and a white balance adjustment processing unit 1044.
The image processing unit 104 receives the parallax image signals (A image signal group and B image signal group (described later)) after HDR processing from the HDR processing unit 103 by the signal generation unit 1041. The signal generation unit 1041 adds the B image signal group to the A image signal group and outputs it as one frame image signal or without adding it as a pair of parallax image signals. The color correction processing unit 1042 applies color correction processing to the image signal output from the signal generation unit 1041 and outputs the image signal to the control unit 107, the AE processing unit 1043, and the white balance adjustment processing unit 1044.

制御部107は、色補正処理部1042から受信した画像信号を内部のRAM(Random Access Memory)に格納する。   The control unit 107 stores the image signal received from the color correction processing unit 1042 in an internal RAM (Random Access Memory).

AE処理部1043は色補正処理部1042から受信した画像信号から例えば輝度情報を生成し、絞り値、シャッタースピード、感度などの露出条件を決定し、制御部107に出力する。AE処理部1043はまた、輝度情報に基づいて発光部108の発光要否を判定し、制御部107に出力する。
ホワイトバランス調整処理部1044は色補正処理部1042から受信した画像信号にオートホワイトバランス調整処理を適用して制御部107に出力する。
The AE processing unit 1043 generates, for example, luminance information from the image signal received from the color correction processing unit 1042, determines exposure conditions such as an aperture value, a shutter speed, and sensitivity, and outputs them to the control unit 107. The AE processing unit 1043 also determines whether or not the light emitting unit 108 needs to emit light based on the luminance information, and outputs it to the control unit 107.
The white balance adjustment processing unit 1044 applies auto white balance adjustment processing to the image signal received from the color correction processing unit 1042 and outputs the image signal to the control unit 107.

圧縮伸長部105は、制御部107内のRAMに格納された画像信号を読み出し、JPEG(Joint Photographic Coding Experts Group)方式などの所定の静止画像データフォーマットに準拠した符号化処理を適用して符号化画像データを生成する。また、圧縮伸長部105は、制御部107から供給された符号化画像データに復号処理を適用する。なお、圧縮伸長部105は、MPEG(Moving Picture Experts Group)方式などに準拠した動画の符号化や復号を実行してもよい。   The compression / decompression unit 105 reads out an image signal stored in the RAM in the control unit 107 and performs encoding by applying an encoding process based on a predetermined still image data format such as a JPEG (Joint Photographic Coding Experts Group) method. Generate image data. Further, the compression / decompression unit 105 applies a decoding process to the encoded image data supplied from the control unit 107. Note that the compression / decompression unit 105 may execute encoding and decoding of a moving image in accordance with the MPEG (Moving Picture Experts Group) method or the like.

信号処理部106は、HDR処理部103から受信する、HDR処理されたA像信号とB像信号(後述)から、A像とB像の位相差(像ずれ量)を検出し、制御部107に送信する。算出手段としての制御部107は位相差を撮像光学系の焦点状態を示すデフォーカス量に変換し、デフォーカス量からフォーカスレンズの駆動量および駆動方向を決定する。制御部107は決定した駆動方向および駆動量を表す制御信号をフォーカス機構部1011に送信する。フォーカス機構部1011は制御部107から受信した制御信号に従ってフォーカスレンズの駆動機構を動作させる。   The signal processing unit 106 detects the phase difference (image shift amount) between the A and B images from the HDR-processed A and B image signals (described later) received from the HDR processing unit 103, and the control unit 107. Send to. The control unit 107 serving as calculation means converts the phase difference into a defocus amount that indicates the focus state of the imaging optical system, and determines the drive amount and drive direction of the focus lens from the defocus amount. The control unit 107 transmits a control signal representing the determined drive direction and drive amount to the focus mechanism unit 1011. The focus mechanism unit 1011 operates the focus lens drive mechanism in accordance with the control signal received from the control unit 107.

制御部107は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAMなどから構成されるプログラマブルコントローラである。制御部107は、ROMに記憶されたプログラムをRAMにロードしてCPUで実行することにより、デジタルカメラの各部の動作を制御し、デジタルカメラの各機能を実現する。   The control unit 107 is a programmable controller including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, and the like. The control unit 107 loads the program stored in the ROM into the RAM and executes it by the CPU, thereby controlling the operation of each unit of the digital camera and realizing each function of the digital camera.

発光部108は、画像処理部104でのAE処理によって被写体輝度が低いと判断された場合、撮影時に発光させる補助光源であり、キセノン管やLEDなどを光源として用いることができる。
操作部109は、例えばボタン、キー、レバー、ダイヤル、タッチパネルなどを有し、ユーザ操作に応じた制御信号を制御部107に出力する。操作部109には例えばシャッタレリーズボタン、メニューボタン、撮影モードダイヤル、再生/撮影モード切替ボタン、ズームレバー、方向キー、決定ボタンなどが含まれる。
The light emitting unit 108 is an auxiliary light source that emits light when photographing when it is determined that the subject luminance is low by the AE processing in the image processing unit 104, and a xenon tube, an LED, or the like can be used as the light source.
The operation unit 109 includes, for example, a button, a key, a lever, a dial, a touch panel, and the like, and outputs a control signal corresponding to a user operation to the control unit 107. The operation unit 109 includes, for example, a shutter release button, a menu button, a shooting mode dial, a playback / shooting mode switching button, a zoom lever, a direction key, and a determination button.

表示部110は、LCD(Liquid Crystal Display)などの表示デバイスとそのインタフェース回路などを有する。表示部110は、制御部107から供給された画像信号から表示デバイスに表示させるための画像信号を生成し、この信号を表示デバイスに供給して画像を表示させる。   The display unit 110 includes a display device such as an LCD (Liquid Crystal Display) and its interface circuit. The display unit 110 generates an image signal to be displayed on the display device from the image signal supplied from the control unit 107, and supplies the signal to the display device to display an image.

記録部111は、例えば、着脱可能な半導体メモリ、光ディスク、HDD(Hard Disk Drive)、磁気テープなどを記録媒体とする記憶装置である。記録部111は例えば圧縮伸長部105が生成する符号化画像データを制御部107を通じて受け取り、記録する。記録部111はまた、制御部107から要求されたデータを記録媒体から読み出し、制御部107に出力する。   The recording unit 111 is a storage device that uses, for example, a removable semiconductor memory, an optical disc, a HDD (Hard Disk Drive), a magnetic tape, or the like as a recording medium. For example, the recording unit 111 receives and records the encoded image data generated by the compression / decompression unit 105 through the control unit 107. The recording unit 111 also reads data requested from the control unit 107 from the recording medium and outputs the data to the control unit 107.

図2は撮像素子102の構成例を示す模式図である。撮像素子102は、例えばシリコン(Si)を用いた半導体基板に、複数の画素201が行列状に配列された画素アレイ部202と、周辺回路部とを有する。周辺回路部には、垂直駆動回路203、カラム信号処理回路204、水平駆動回路205、タイミング制御回路206などが含まれる。   FIG. 2 is a schematic diagram illustrating a configuration example of the image sensor 102. The image sensor 102 includes a pixel array unit 202 in which a plurality of pixels 201 are arranged in a matrix and a peripheral circuit unit on a semiconductor substrate using, for example, silicon (Si). The peripheral circuit section includes a vertical drive circuit 203, a column signal processing circuit 204, a horizontal drive circuit 205, a timing control circuit 206, and the like.

画素201は、光電変換部としてのフォトダイオードを複数有する。また、画素201は、例えば、転送トランジスタ、増幅トランジスタ、選択トランジスタ、リセットトランジスタなどを含む、複数の画素トランジスタを有する。画素201については図3、図6を用いて後で詳細に説明する。   The pixel 201 includes a plurality of photodiodes as photoelectric conversion units. The pixel 201 includes a plurality of pixel transistors including a transfer transistor, an amplification transistor, a selection transistor, a reset transistor, and the like. The pixel 201 will be described in detail later with reference to FIGS.

垂直駆動回路203は、例えばシフトレジスタを有し、画素駆動線208を選択し、選択された画素駆動線208に画素201を駆動するためのパルスを供給し、行単位で画素201を駆動する。すなわち、垂直駆動回路203は、画素アレイ部202の画素201を行単位で垂直方向に順次選択し、選択した行の画素201で生成された信号電荷に基づく画素信号を、垂直信号線207を通してカラム信号処理回路204に供給する。   The vertical drive circuit 203 includes, for example, a shift register, selects the pixel drive line 208, supplies a pulse for driving the pixel 201 to the selected pixel drive line 208, and drives the pixels 201 in units of rows. That is, the vertical drive circuit 203 sequentially selects the pixels 201 of the pixel array unit 202 in the vertical direction in units of rows, and outputs the pixel signals based on the signal charges generated by the pixels 201 in the selected row through the vertical signal lines 207. The signal is supplied to the signal processing circuit 204.

カラム信号処理回路204は、画素201の列ごとに配置され、垂直駆動回路203で選択された行の画素201から出力される画素信号に対してノイズ除去などの信号処理を行う。例えば、カラム信号処理回路204が行う信号処理は、画素固有の固定パターンノイズを除去するための相関2重サンプリング(Correlated Double Sampling)や、増幅、AD変換などであってよい。   The column signal processing circuit 204 is arranged for each column of the pixels 201, and performs signal processing such as noise removal on the pixel signals output from the pixels 201 in the row selected by the vertical drive circuit 203. For example, the signal processing performed by the column signal processing circuit 204 may be correlated double sampling (Correlated Double Sampling) for removing pixel-specific fixed pattern noise, amplification, AD conversion, or the like.

水平駆動回路205は、例えばシフトレジスタによって構成され、水平走査パルスを順次出力することによって、カラム信号処理回路204を順番に選択し、カラム信号処理回路204の各々から画素信号を水平信号線209に出力させる。   The horizontal driving circuit 205 is configured by, for example, a shift register, and sequentially selects the column signal processing circuit 204 by sequentially outputting horizontal scanning pulses, and the pixel signal is sent from each of the column signal processing circuits 204 to the horizontal signal line 209. Output.

タイミング制御回路206は、垂直同期信号、水平同期信号、およびマスタクロックに基づいて、垂直駆動回路203、カラム信号処理回路204、および水平駆動回路205などの動作の基準となるクロック信号や制御信号を生成する。マスタクロックは例えば制御部107からタイミング制御回路206に供給される。また、タイミング制御回路206は、制御部107から受信するデータに基づく動作モードで動作する。   The timing control circuit 206 receives a clock signal and a control signal as a reference for operations of the vertical drive circuit 203, the column signal processing circuit 204, the horizontal drive circuit 205, and the like based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock. Generate. The master clock is supplied from the control unit 107 to the timing control circuit 206, for example. The timing control circuit 206 operates in an operation mode based on data received from the control unit 107.

図3は、撮像素子102の画素201の構成例と画素アレイ部202とを模式的に示す平面図である。
画素201は、図3(a)に示すように、1つのマイクロレンズ210と、同様の構成を有する2つの副画素201L、201Rとを有する。副画素201Lにはフォトダイオード(PD)211と、PD211が発生する電荷を読み出す転送トランジスタ213と、転送トランジスタ213で読み出した電荷を一時的に蓄積するフローティングディフュージョン(FD)215が設けられている。副画素201Rにも同様に、PD212、転送トランジスタ214、FD216が設けられている。このように、副画素201L、201Rは、独立した信号を生成および出力することができる。
FIG. 3 is a plan view schematically showing a configuration example of the pixel 201 of the image sensor 102 and the pixel array unit 202.
As shown in FIG. 3A, the pixel 201 includes one microlens 210 and two subpixels 201L and 201R having the same configuration. The sub-pixel 201L is provided with a photodiode (PD) 211, a transfer transistor 213 that reads charges generated by the PD 211, and a floating diffusion (FD) 215 that temporarily stores charges read by the transfer transistor 213. Similarly, the sub-pixel 201R is provided with a PD 212, a transfer transistor 214, and an FD 216. Thus, the subpixels 201L and 201R can generate and output independent signals.

PD211とPD212には結像光学系(鏡筒101)の射出瞳のうち、互いに異なる部分領域から光が入射する。そのため、画素アレイ部202に含まれる複数の画素201について、副画素201Lから得られる画素信号で形成される画像と、副画素201Rから得られる画素信号で形成される画像とは、視点が異なる画像(視差画像)となる。
なお、画素201ごとに、PD211とPD212から得られる画素信号を加算すると、画素またはマイクロレンズ単位の画素信号が得られる。
Light enters the PD 211 and PD 212 from different partial areas of the exit pupil of the imaging optical system (lens barrel 101). Therefore, for a plurality of pixels 201 included in the pixel array unit 202, an image formed from a pixel signal obtained from the sub-pixel 201L and an image formed from a pixel signal obtained from the sub-pixel 201R have different viewpoints. (Parallax image).
For each pixel 201, pixel signals obtained from the PD 211 and PD 212 are added to obtain a pixel signal in units of pixels or microlenses.

図3(b)は、図2の画素アレイ部202における画素の配列を模式的に示している。画素301、302、303、304を例にとって説明すると、301L、302L、303L、304Lは図3(a)のPD211に対応し、301R、302R、303R、304Rは図3(a)のPD212に対応している。   FIG. 3B schematically shows an arrangement of pixels in the pixel array unit 202 of FIG. For example, the pixels 301, 302, 303, and 304 correspond to the PD 211 in FIG. 3A, and the 301R, 302R, 303R, and 304R correspond to the PD 212 in FIG. doing.

図3(b)のような画素配列を有する撮像素子102における、PD211、212と結像光学系の射出瞳との関係を図4を用いて説明する。
図4において、401は図3(a)における画素201が3つ並んだ状態の断面構成を模式的に示している。画素201の各々は、マイクロレンズ210、PD211、PD212の他に、所定の色パターンのカラーフィルタ403を有する。また、中央のマイクロレンズ210を有する画素に対して、射出瞳406から出射する光束の中心を光軸409とする。射出瞳406から出射した光束は、光軸409を中心として撮像素子102に入射する。407、408は射出瞳406の部分領域(瞳領域)を表す。瞳領域407(第1の領域)を出射する光束の最外周の光線を410、411で示し、瞳領域408(第2の領域)を出射する光束の最外周の光線を412、413で示す。図4からわかるように、射出瞳406を出射する光束のうち、光軸409を境にして、瞳領域407を出射する光束はPD212に入射し、瞳領域408を出射する光束はPD211に入射する。つまり、PD211とPD212は、各々、射出瞳406の瞳領域407、408を出射した光束を受光する。
The relationship between the PDs 211 and 212 and the exit pupil of the imaging optical system in the image sensor 102 having the pixel arrangement as shown in FIG. 3B will be described with reference to FIG.
In FIG. 4, 401 schematically shows a cross-sectional configuration in which three pixels 201 in FIG. Each of the pixels 201 includes a color filter 403 having a predetermined color pattern in addition to the microlens 210, the PD 211, and the PD 212. For the pixel having the central microlens 210, the center of the light beam emitted from the exit pupil 406 is defined as the optical axis 409. The light beam emitted from the exit pupil 406 enters the image sensor 102 with the optical axis 409 as the center. Reference numerals 407 and 408 denote partial areas (pupil areas) of the exit pupil 406. The outermost rays of the light beam emitted from the pupil region 407 (first region) are denoted by 410 and 411, and the outermost rays of the light beam emitted from the pupil region 408 (second region) are denoted by 412 and 413, respectively. As can be seen from FIG. 4, among the light beams emitted from the exit pupil 406, the light beam emitted from the pupil region 407 with respect to the optical axis 409 is incident on the PD 212, and the light beam emitted from the pupil region 408 is incident on the PD 211. . That is, the PD 211 and the PD 212 receive the light beams emitted from the pupil regions 407 and 408 of the exit pupil 406, respectively.

以下では、PD211で得られる信号をA像信号、PD212で得られる信号をB像信号と呼ぶ。また、A像信号列で形成される像をA像、B像信号列で形成される像をB像と呼ぶ。図3(b)の行305に含まれる画素301、302、303、304から得られる信号の場合、301L、302L、303L、304Lから得られるA像信号で形成される像(信号列)がA像(第1の像信号)である。また、PD301R、302R、303R、304Rから得られるB像信号で形成される像(信号列)がB像(第2の像信号)である。A像およびB像は、信号処理部106で位相差を検出する対象であり、まとめて焦点検出用信号と呼ぶ。また、A像信号を出力するPDもしくは副画素をA像用副画素、B像信号を出力するPDもしくは副画素をB像用副画素と呼ぶ。   Hereinafter, a signal obtained from the PD 211 is referred to as an A image signal, and a signal obtained from the PD 212 is referred to as a B image signal. An image formed by the A image signal sequence is called an A image, and an image formed by the B image signal sequence is called a B image. In the case of signals obtained from the pixels 301, 302, 303, and 304 included in the row 305 in FIG. 3B, an image (signal sequence) formed from the A image signals obtained from the 301L, 302L, 303L, and 304L is A. It is an image (first image signal). An image (signal sequence) formed from the B image signals obtained from the PDs 301R, 302R, 303R, and 304R is a B image (second image signal). The A image and the B image are objects whose phase difference is detected by the signal processing unit 106 and are collectively referred to as a focus detection signal. A PD or subpixel that outputs an A image signal is called an A image subpixel, and a PD or subpixel that outputs a B image signal is called a B image subpixel.

図5は、図3(b)に示した画素配列の一部について、原色ベイヤー配列のカラーフィルタが設けられている状態を示している。本実施形態においては、1度の撮影でHDR画像を生成するため、異なる露出条件(第1および第2の露出条件)を副画素に設定する。   FIG. 5 shows a state in which a color filter of the primary color Bayer array is provided for a part of the pixel array shown in FIG. In the present embodiment, different exposure conditions (first and second exposure conditions) are set for the sub-pixels in order to generate an HDR image by one shooting.

図5において、n,n+2,n+4行目は、赤(R)と緑(Gr)のカラーフィルタが交互に配置され、n+1,n+3,n+5行目は緑(Gb)と青(BL)のカラーフィルタが交互に配置されている。そして、n行目でA像信号を読み出す光電変換部(例えばPD301L)と、B像信号を読み出す光電変換部(例えばPD301R)との電荷蓄積時間を異ならせる(例えばPD301Lの電荷蓄積時間をPD301Rの電荷蓄積時間より短くする。逆でもよい)。また、n行目とカラーフィルタの配列が同じで、n行目とは電荷蓄積時間の関係を逆転させた行を設ける。図5の例では、n+2行目のPD301R’の電荷蓄積時間はPD301Lの電荷蓄積時間と等しく、PD301L’の電荷蓄積時間はPD301Rの電荷蓄積時間と等しい。   In FIG. 5, red (R) and green (Gr) color filters are alternately arranged in the n, n + 2, and n + 4 rows, and green (Gb) and blue (BL) colors are arranged in the n + 1, n + 3, and n + 5 rows. Filters are arranged alternately. Then, the charge accumulation time of the photoelectric conversion unit (for example, PD301L) that reads the A image signal in the n-th row is different from that of the photoelectric conversion unit (for example, PD301R) that reads the B image signal (for example, the charge accumulation time of PD301L is different from that of PD301R). Shorten the charge accumulation time or vice versa. Further, the arrangement of the color filters is the same as that of the n-th row, and a row in which the relationship of the charge accumulation time is reversed with respect to the n-th row is provided. In the example of FIG. 5, the charge accumulation time of the PD301R ′ in the (n + 2) th row is equal to the charge accumulation time of the PD301L, and the charge accumulation time of the PD301L ′ is equal to the charge accumulation time of the PD301R.

同様に、n+3行目においては、PD310Lの電荷蓄積時間をPD310Rの電荷蓄積時間より短く(または長く)する。また、n+5行目のPD310R’の電荷蓄積時間はPD310Lの電荷蓄積時間と等しく、PD310L’の電荷蓄積時間はPD310Rの電荷蓄積時間と等しい。
なお、後述するように、異なる露出条件は、実質的に露出量が異なる信号が得られれば電荷蓄積時間の長さを異ならせることに限らない。
また、HDR画像を生成する場合、n+1行目とn+4行目については画素信号の読み出しを行わない。
Similarly, in the (n + 3) th row, the charge accumulation time of the PD 310L is made shorter (or longer) than the charge accumulation time of the PD 310R. Further, the charge accumulation time of the PD 310R ′ in the n + 5th row is equal to the charge accumulation time of the PD 310L, and the charge accumulation time of the PD 310L ′ is equal to the charge accumulation time of the PD 310R.
As will be described later, the different exposure conditions are not limited to changing the length of the charge accumulation time if signals having substantially different exposure amounts are obtained.
Further, when generating an HDR image, pixel signals are not read out for the (n + 1) th row and the (n + 4) th row.

このように、HDR画像を生成する場合に読み出す画素行(読み出し行)において、行内で露出の異なるA像信号とB像信号を読み出す。また、A像信号とB像信号の露出量の大小関係を隣接す読み出し行で逆転させる。そのため、高露出の副画素が飽和するなどして画素信号が使用できない場合においても、行間が間引かれたり、A像用副画素とB像用副画素の一方だけ画素信号が用いられたりされないようにしている。   As described above, in the pixel row (reading row) read out when generating the HDR image, the A image signal and the B image signal having different exposure in the row are read out. Further, the magnitude relationship between the exposure amounts of the A image signal and the B image signal is reversed between adjacent readout rows. For this reason, even when the pixel signal cannot be used due to saturation of the highly exposed sub-pixel, the row spacing is not thinned, or only one of the A image sub-pixel and the B image sub-pixel is not used. I am doing so.

読み出し行のA像信号とB像信号ついて露出差が出るように撮影を実施し、露出差の関係が逆転している異なる読み出し行の同種の像信号と組み合わせて用いることでHDR処理を実施する。つまり、HDR処理部103は、高露出のA像信号と低露出のA像信号との組み合わせ、高露出のB像信号と低露出のB像信号との組み合わせを用いてHDR処理を実施する。   Photographing is performed so that an exposure difference is generated with respect to the A image signal and the B image signal of the readout row, and HDR processing is performed by using in combination with the same type of image signal of different readout rows in which the relationship of the exposure difference is reversed. . That is, the HDR processing unit 103 performs HDR processing using a combination of a high exposure A image signal and a low exposure A image signal, and a combination of a high exposure B image signal and a low exposure B image signal.

副画素間で露出差を生じさせる手法に制限は無いが、例えば、電荷蓄積時間を異ならせてもよいし、電荷蓄積時間は共通とし、画素信号に対してカラム信号処理回路204で適用する信号増幅率(ゲイン)を異ならせてもよい。なお、以下では電荷蓄積時間を異ならせるものとし、図5で斜線を付したPD(例えばPD301L)には低露出の露出条件、縦線を付したPD(例えばPD301R)が高露出の露出条件にそれぞれ設定されるものとして説明する。   There is no limitation on the method for causing the exposure difference between the sub-pixels. For example, the charge accumulation time may be different, or the charge accumulation time may be common, and the signal applied by the column signal processing circuit 204 to the pixel signal. The amplification factor (gain) may be varied. In the following, it is assumed that the charge accumulation time is different. In FIG. 5, the hatched PD (for example, PD301L) has a low exposure condition and the vertical line (for example, PD301R) has a high exposure condition. A description will be given assuming that each is set.

図5の例では、カラーフィルタの配列が等しい隣接する2行を1組として、垂直方向に隣接する組のカラーフィルタの配列が異なるようにHDRモードにおける読み出し行を設定している。
なお、読み出し行内の副画素の露出量は共通として、行単位で露出量を異ならせてもよい。例えば図5のn行目の副画素は全て高露出に設定し、n+2行目の副画素を全て低露出に設定してもよい。
In the example of FIG. 5, readout rows in the HDR mode are set so that two adjacent rows having the same color filter arrangement are set as one set, and the arrangement of the color filters adjacent in the vertical direction is different.
Note that the exposure amount of the sub-pixels in the readout row may be common, and the exposure amount may be different for each row. For example, all the subpixels in the nth row in FIG. 5 may be set to high exposure, and all the subpixels in the (n + 2) th row may be set to low exposure.

また、ここではA像とB像の水平方向の位相差を検出するため、位相差検出方向である水平方向に並んだ同種の副画素に対しては同一の露出条件を設定し、位相差検出方向に直交する垂直方向に並んだ同種の副画素に対しては異なる露出条件を設定した。しかし、位相差検出方向が垂直方向の場合には、上下に分割された副画素について、位相差検出方向とそれに直交する方向とで露出条件の設定を異ならせればよい。   Here, in order to detect the horizontal phase difference between the A image and the B image, the same exposure condition is set for the same type of sub-pixels arranged in the horizontal direction, which is the phase difference detection direction, and the phase difference detection is performed. Different exposure conditions were set for the same type of sub-pixels arranged in the vertical direction orthogonal to the direction. However, when the phase difference detection direction is the vertical direction, for the sub-pixels divided vertically, the exposure condition may be set differently in the phase difference detection direction and the direction orthogonal thereto.

このような露出設定および読み出し行の設定によって読み出された1画面分の画素信号は、HDR処理部103で後述するHDR処理が行われた後、画像処理部104と、信号処理部106へそれぞれ供給される。   The pixel signal for one screen read out by such exposure setting and readout row setting is subjected to HDR processing described later in the HDR processing unit 103, and then to the image processing unit 104 and the signal processing unit 106, respectively. Supplied.

次に図6を用いて、画素201の回路構成と動作について説明する。図6は画素201が有する副画素201L、201Rのうち、副画素201Lに関する回路構成を示す図である。副画素201Rも同様の回路構成を有する。   Next, the circuit configuration and operation of the pixel 201 will be described with reference to FIG. FIG. 6 is a diagram illustrating a circuit configuration related to the sub-pixel 201L among the sub-pixels 201L and 201R included in the pixel 201. The sub-pixel 201R has a similar circuit configuration.

図6に示すように、副画素201Lには、フォトダイオードPD211、転送トランジスタ213、増幅トランジスタ610、選択トランジスタ611、およびリセットトランジスタ612が設けられている。なおここでは、各トランジスタはnチャネルMOSFET(MOS Field-Effect Transistor)である。   As shown in FIG. 6, the sub-pixel 201L is provided with a photodiode PD211, a transfer transistor 213, an amplification transistor 610, a selection transistor 611, and a reset transistor 612. Here, each transistor is an n-channel MOSFET (MOS Field-Effect Transistor).

また、転送トランジスタ213、選択トランジスタ611およびリセットトランジスタ612の各ゲートには、画素駆動線208に含まれる転送信号線613、行選択信号線614、リセット信号線615が接続されている。これらの信号線は同一行に含まれる副画素に共通であり、行順次動作型のローリングシャッタや、全行同時動作型のグローバルリセット動作を制御することが可能である。また、転送信号線613を副画素201L、201Rで別個とすることにより、副画素201L、201Rに別個の露出時間(露出量)を設定することが可能になる。さらに、選択トランジスタ611のソースには垂直信号線207が接続され、垂直信号線207の一方の端部は、定電流源616を介して接地されている。   In addition, a transfer signal line 613, a row selection signal line 614, and a reset signal line 615 included in the pixel drive line 208 are connected to the gates of the transfer transistor 213, the selection transistor 611, and the reset transistor 612, respectively. These signal lines are common to the sub-pixels included in the same row, and can control a row-sequential operation type rolling shutter and an all-row simultaneous operation type global reset operation. In addition, by separating the transfer signal line 613 between the sub-pixels 201L and 201R, it is possible to set separate exposure times (exposure amounts) for the sub-pixels 201L and 201R. Further, a vertical signal line 207 is connected to the source of the selection transistor 611, and one end of the vertical signal line 207 is grounded via a constant current source 616.

PD211は、光電変換により電荷を生成する。PD211のP側は接地され、N側が転送トランジスタ213のソースに接続されている。転送トランジスタ213がONすると、PD211で生成および蓄積された電荷がFD215に転送され、FD215の寄生容量C61に電荷が蓄積される。   The PD 211 generates charges by photoelectric conversion. The P side of the PD 211 is grounded, and the N side is connected to the source of the transfer transistor 213. When the transfer transistor 213 is turned on, the charge generated and accumulated in the PD 211 is transferred to the FD 215, and the charge is accumulated in the parasitic capacitor C61 of the FD 215.

増幅トランジスタ610のドレインは電源電圧Vddとされ、ゲートはFD215に接続されている。この増幅トランジスタ610は、FD215の電圧を電気信号に変換する。選択トランジスタ611は、信号を読み出す画素を行単位で選択するためのものであり、そのドレインは増幅トランジスタ610のソースに、ソースは垂直信号線207に接続されている。この選択トランジスタ611がONしたときには、増幅トランジスタ610と定電流源616とがソースフォロアを構成するので、FD215の電圧に対応する電圧が垂直信号線207に出力される。リセットトランジスタ612のドレインは電源電圧Vddとされ、ソースはFD215に接続されている。このリセットトランジスタ612は、FD215の電圧を電源電圧Vddにリセットする。   The drain of the amplification transistor 610 is set to the power supply voltage Vdd, and the gate is connected to the FD 215. The amplification transistor 610 converts the voltage of the FD 215 into an electric signal. The selection transistor 611 is for selecting a pixel from which a signal is read out in units of rows, and has a drain connected to the source of the amplification transistor 610 and a source connected to the vertical signal line 207. When the selection transistor 611 is turned on, the amplification transistor 610 and the constant current source 616 constitute a source follower, so that a voltage corresponding to the voltage of the FD 215 is output to the vertical signal line 207. The drain of the reset transistor 612 is set to the power supply voltage Vdd, and the source is connected to the FD 215. The reset transistor 612 resets the voltage of the FD 215 to the power supply voltage Vdd.

図7は、HDR処理部103が実行するHDR処理に関する模式図であり、入射光量と信号量の関係を示している。
高露出量が設定される副画素(高露出副画素)では、入射光量がP2となった時点で飽和信号量Q2に到達し、低露出量が設定される副画素(低露出副画素)では、入射光量がP3となった時点で飽和信号量Q2に到達するものとする。一方、ノイズレベルQ1以下の信号量の画素信号は利用することができない。この場合、高露出副画素のダイナミックレンジは入射光量P0からP2までの範囲となり、低露出副画素のダイナミックレンジは入射光量P1からP3までの範囲となる。
FIG. 7 is a schematic diagram related to the HDR processing executed by the HDR processing unit 103, and shows the relationship between the incident light amount and the signal amount.
For sub-pixels with high exposure (high-exposure sub-pixel), the saturation signal amount Q2 is reached when the incident light quantity reaches P2, and for sub-pixels with low exposure (low-exposure sub-pixel) Assume that the saturation signal amount Q2 is reached when the incident light quantity reaches P3. On the other hand, a pixel signal having a signal amount equal to or lower than the noise level Q1 cannot be used. In this case, the dynamic range of the high exposure sub-pixel is in the range from the incident light amount P0 to P2, and the dynamic range of the low exposure sub-pixel is in the range from the incident light amount P1 to P3.

低露出副画素と高露出副画素の露出量の比が1:3(低露出副画素の露出量:高露出副画素の露出量=1:3)であるとする。この場合、HDR処理部103は、低露出副画素と高露出副画素を1つずつ有する画素について、P0<入射光量≦P1の範囲の入射光量Aについて、以下の式(1)により、HDR処理後の画素信号HDL_Aを求める。
画素信号HDL_A=高露出副画素信号×1+低露出副画素信号×0・・・(1)
Assume that the ratio of the exposure amount of the low exposure subpixel and the high exposure subpixel is 1: 3 (exposure amount of the low exposure subpixel: exposure amount of the high exposure subpixel = 1: 3). In this case, the HDR processing unit 103 performs HDR processing for the incident light quantity A in the range of P0 <incident light quantity ≦ P1 with respect to the pixel having one low exposure sub-pixel and one high exposure sub-pixel by the following formula (1). The subsequent pixel signal HDL_A is obtained.
Pixel signal HDL_A = high exposure subpixel signal × 1 + low exposure subpixel signal × 0 (1)

また、HDR処理部103は、P1<入射光量≦P2の範囲の入射光量Bについて、以下の式(2)により、HDR処理後の画素信号HDL_Bを求める。
画素信号HDL_B=高露出副画素信号×(1-α)+低露出副画素信号×α×3・・・(2)
さらに、HDR処理部103は、P2<入射光量の範囲の入射光量Cについて、以下の式(3)により、HDR処理後の画素信号HDL_Cを求める。
画素信号HDL_C=高露出副画素信号×0+低露出副画素信号×3・・・(3)
Also, the HDR processing unit 103 obtains the pixel signal HDL_B after the HDR processing with respect to the incident light amount B in the range of P1 <incident light amount ≦ P2 by the following equation (2).
Pixel signal HDL_B = high exposure subpixel signal × (1−α) + low exposure subpixel signal × α × 3 (2)
Further, the HDR processing unit 103 obtains the pixel signal HDL_C after the HDR processing by the following formula (3) for the incident light amount C in the range of P2 <incident light amount.
Pixel signal HDL_C = high exposure subpixel signal × 0 + low exposure subpixel signal × 3 (3)

HDR処理部103は、読み出し行に含まれる各画素201について、画素の信号量を、低レベル(入射光量Aに対応)、中レベル(入射光量Bに対応)、高レベル(入射光量Cに対応)に分類する。分類は、同一画素が有する低露出副画素(例えば301L)の信号量と高露出副画素(例えば301R)の信号量の関係に基づいて行うことができる。   For each pixel 201 included in the readout row, the HDR processing unit 103 sets the pixel signal amount to a low level (corresponding to the incident light amount A), a medium level (corresponding to the incident light amount B), or a high level (corresponding to the incident light amount C). ). The classification can be performed based on the relationship between the signal amount of a low exposure subpixel (for example, 301L) and the signal amount of a high exposure subpixel (for example, 301R) of the same pixel.

そして、HDR処理部103は、信号量が低レベルの画素201については、高露出副画素の画素信号のみを用いた式(1)により、HDR処理後の画素信号を求める。また、HDR処理部103は、信号量が中レベルの画素201については、高露出副画素の画素信号と低露出の画素信号を(1−α):αの比率で合成した式(2)により、HDR処理後の画素信号を求める。ここで、α(αは0以上1以下)は合成比率を表す。さらに、HDR処理部103は、信号量が高レベルの画素201については、低露出の光電変換部信号のみを用いた式(3)により、HDR処理後の画素信号を求める。   Then, the HDR processing unit 103 obtains a pixel signal after the HDR processing with respect to the pixel 201 having a low signal amount, using Expression (1) using only the pixel signal of the high exposure sub-pixel. Also, the HDR processing unit 103, for the pixel 201 having a medium signal level, combines the pixel signal of the high exposure sub-pixel and the pixel signal of the low exposure at a ratio of (1-α): α according to Expression (2). The pixel signal after HDR processing is obtained. Here, α (α is 0 or more and 1 or less) represents a synthesis ratio. Further, the HDR processing unit 103 obtains a pixel signal after the HDR processing for the pixel 201 having a high signal amount by Expression (3) using only the low-exposure photoelectric conversion unit signal.

このようなHDR処理により、図7に示されるように、各画素のダイナミックレンジが入射光量P0〜P3に対応する信号量Q1からQ3に拡張されら高ダイナミックレンジの画像(HDR画像)が得られる。
なお、信号量レベルの低レベル、中レベル、及び高レベルの区分(図7における入射光量P0、P1、P2に相当する信号量)については予め定めておくことができる。
By such HDR processing, as shown in FIG. 7, the dynamic range of each pixel is expanded from the signal amount Q1 corresponding to the incident light quantity P0 to P3 to Q3, and an image with a high dynamic range (HDR image) is obtained. .
Note that low, medium, and high levels of signal amount levels (signal amounts corresponding to the incident light amounts P0, P1, and P2 in FIG. 7) can be determined in advance.

なお、式(1)〜式(3)で用いる高露出副画素、低露出副画素は、隣接する読み出し行内の、水平位置が同一の画素に含まれる同種の副画素である。例えば、画素の信号量を低露出副画素301Lと高露出副画素301Rの出力に基づいて分類したとする。この場合、式(1)〜式(3)を用いて低露出副画素301Lの出力と合成されるのは、高露出副画素301L’の出力である。同様に、高露出副画素301Rの出力と合成されるのは低露出副画素301R’の出力である。   Note that the high-exposure subpixel and the low-exposure subpixel used in Expressions (1) to (3) are the same type of subpixels included in the same horizontal position in adjacent readout rows. For example, assume that pixel signal amounts are classified based on the outputs of the low-exposure subpixel 301L and the high-exposure subpixel 301R. In this case, it is the output of the high-exposure subpixel 301L ′ that is combined with the output of the low-exposure subpixel 301L using Equations (1) to (3). Similarly, what is combined with the output of the high-exposure subpixel 301R is the output of the low-exposure subpixel 301R '.

従って、m行目のCフィルタ(CはR、Gr、Gb、BLのいずれか)が設けられたn像信号(nはAまたはB)用の副画素の出力をC(m)nと表すと、例えば図5のn行目とn+2行目の読み出し行からは、
R(n)A+R(n+2)A, Gr(n)A+Gr(n+2)A, R(n)A+R(n+2)A,...というA像信号と、
R(n)B+R(n+2)B, Gr(n)B+Gr(n+2)B, R(n)B+R(n+2)B,...というB像信号とがHDR処理後の画素信号として得られる。
Therefore, the output of the sub-pixel for the n image signal (n is A or B) provided with the C filter in the m-th row (C is any of R, Gr, Gb, and BL) is expressed as C (m) n. For example, from the read lines of the nth line and the n + 2th line in FIG.
R (n) A + R (n + 2) A, Gr (n) A + Gr (n + 2) A, R (n) A + R (n + 2) A, ... ,
B image signals R (n) B + R (n + 2) B, Gr (n) B + Gr (n + 2) B, R (n) B + R (n + 2) B,. Is obtained as a pixel signal after HDR processing.

HDR処理後の1画面分のA像信号とB像信号はそれぞれ異なる視点で撮影したHDR画像である。また、焦点検出領域内で得られるA像信号から生成したA像と、焦点検出領域内で得られるB像信号から生成したB像との位相差を信号処理部106で検出し、デフォーカス量に変換することで、自動焦点検出を行うことができる。なお、1画面分のA像信号とB像信号は、加算して記録してもよいし、別々に記録してもよい。   The A image signal and B image signal for one screen after HDR processing are HDR images taken from different viewpoints. The phase difference between the A image generated from the A image signal obtained in the focus detection area and the B image generated from the B image signal obtained in the focus detection area is detected by the signal processing unit 106, and the defocus amount is detected. By converting to, automatic focus detection can be performed. The A image signal and B image signal for one screen may be added and recorded, or may be recorded separately.

図8は本実施形態のデジタルカメラのHDR撮影時の動作に関するフローチャートである。このフローチャートに示す動作は、例えばHDR撮影モードが設定されている際に操作部109から撮影指示が入力されたことによって実行されてよい。なお、撮影準備動作中にAE処理部1043によって適性な露出条件が決定されているものとする。また、HDRモードでの露光時間は電子シャッター(電荷蓄積時間の設定)によって制御するものとする。   FIG. 8 is a flowchart regarding the operation at the time of HDR shooting of the digital camera of the present embodiment. The operation shown in this flowchart may be executed when a shooting instruction is input from the operation unit 109 when the HDR shooting mode is set, for example. It is assumed that an appropriate exposure condition is determined by the AE processing unit 1043 during the shooting preparation operation. The exposure time in the HDR mode is controlled by an electronic shutter (setting of charge accumulation time).

S801で制御部107は、AE処理部1043が決定した撮影条件に応じて、高露出条件と低露出条件を決定し、所定の撮影条件に設定する。例えば、AE処理部1043が決定した撮影条件を基準として、+n段と−n段の撮影条件を高露出条件と低露出条件として決定することができる。   In step S801, the control unit 107 determines a high exposure condition and a low exposure condition according to the shooting condition determined by the AE processing unit 1043, and sets the predetermined shooting condition. For example, on the basis of the imaging conditions determined by the AE processing unit 1043, the imaging conditions of + n stages and −n stages can be determined as high exposure conditions and low exposure conditions.

S802で制御部107は、S801で決定した撮影条件と、HDRモードでの読み出し行に関する設定を撮像素子102のタイミング制御回路206に行い、撮影を実行する。これにより、例えば図5に示したような副画素単位の露出量制御と読み出しが実行される。   In step S <b> 802, the control unit 107 performs shooting for the shooting conditions determined in step S <b> 801 and settings related to the readout row in the HDR mode in the timing control circuit 206 of the image sensor 102. Thereby, for example, exposure amount control and readout in units of subpixels as shown in FIG. 5 are executed.

S803でHDR処理部103は、図5および図7を用いて説明したように、各画素の信号量を複数のレベルに分類する。そしてHDR処理部103は、分類に応じた式(1)〜(3)によって、低露出量の副画素と高露出量の副画素の出力を加算することにより、HDR処理されたA像信号とB像信号とを生成し、画像処理部104および信号処理部106に出力する。   In step S803, the HDR processing unit 103 classifies the signal amount of each pixel into a plurality of levels, as described with reference to FIGS. Then, the HDR processing unit 103 adds the outputs of the low exposure amount subpixel and the high exposure amount subpixel according to the expressions (1) to (3) according to the classification, and thereby performs the HDR processing of the A image signal. A B image signal is generated and output to the image processing unit 104 and the signal processing unit 106.

S804では画像処理部104内の信号生成部1041で、受信したHDR処理後のA像信号群およびB像信号群のそれぞれについて、色補間やホワイトバランス調整処理などを行い、1対のHDR画像を生成する。なお、信号生成部1041は、A像信号群とB像信号群を加算して1フレーム分のHDR画像としてから色補間やホワイトバランス調整処理などを行ってもよい。また、画像処理部104は、1対のHDR画像を加算してもよい。画像処理部104は、処理をS806へ移行する。   In step S804, the signal generation unit 1041 in the image processing unit 104 performs color interpolation, white balance adjustment processing, and the like for each of the received A image signal group and B image signal group after HDR processing, and generates a pair of HDR images. Generate. The signal generation unit 1041 may perform color interpolation, white balance adjustment processing, and the like after adding the A image signal group and the B image signal group to form an HDR image for one frame. The image processing unit 104 may add a pair of HDR images. In the image processing unit 104, the process proceeds to S806.

一方、S805では信号処理部106が、焦点検出領域内のHDR処理後のA像信号およびB像信号からA像とB像を生成し、A像とB像との位相差(像ずれ量)を例えば相関量に基づいて検出し、処理をS806へ移行する。   On the other hand, in S805, the signal processing unit 106 generates an A image and a B image from the A image signal and the B image signal after HDR processing in the focus detection area, and a phase difference (image shift amount) between the A image and the B image. Is detected based on the correlation amount, for example, and the process proceeds to S806.

S806で制御部107は撮影処理を終了するか否かを判断し、終了する場合は待機状態へと遷移する。一方、終了しない場合は、処理をS801へ戻して次の撮影処理を実行する。   In step S <b> 806, the control unit 107 determines whether to end the shooting process. If the shooting process ends, the control unit 107 shifts to a standby state. On the other hand, if not finished, the process returns to S801 to execute the next photographing process.

本実施形態によれば、1つのマイクロレンズに複数の副画素が割り当てられた撮像素子を用い、副画素間で露出量の大小関係を異ならせるとともに、副画素間の露出量の大小関係を逆転させた画素行を設ける。そして、マイクロレンズに対する相対位置が同じで、露出量の設定が異なる副画素の出力を用いてダイナミックレンジを拡大した像信号を生成し、この像信号を用いてHDR画像を生成したり、位相差を検出したりする。そのため、1回の撮影で得られる1フレームの画像信号から、HDR画像の生成と、焦点検出用の位相差検出とを行うことができる。そして、位相差検出を行う1対の像信号の相関にケラレの差が与える影響は少ないため、ケラレの差を露出量の差として用いる構成に対して良好な位相差検出精度を得ることができる。   According to this embodiment, an imaging device in which a plurality of subpixels are assigned to one microlens is used, and the magnitude relationship of the exposure amount is varied between the subpixels, and the magnitude relationship of the exposure amount between the subpixels is reversed. Provided pixel rows. Then, an image signal with an expanded dynamic range is generated using the output of sub-pixels having the same relative position with respect to the micro lens and different exposure settings, and an HDR image is generated using this image signal, or a phase difference is generated. Is detected. Therefore, it is possible to perform generation of an HDR image and detection of a phase difference for focus detection from one frame of image signal obtained by one shooting. Further, since the vignetting difference has little influence on the correlation between the pair of image signals for performing the phase difference detection, it is possible to obtain good phase difference detection accuracy for a configuration using the vignetting difference as the exposure amount difference. .

●(第2実施形態)
図9は第2実施形態に係るデジタルカメラの機能構成例を示すブロック図である。図9において、第1実施形態のデジタルカメラと同様の構成には同様の参照数字を付してある。以下、第1実施形態と同一の構成や動作に関する説明は省略し、第1実施形態と異なる点を重点的に説明する。
● (Second Embodiment)
FIG. 9 is a block diagram illustrating a functional configuration example of a digital camera according to the second embodiment. In FIG. 9, the same reference numerals are attached to the same components as those of the digital camera of the first embodiment. Hereinafter, descriptions regarding the same configurations and operations as those in the first embodiment will be omitted, and differences from the first embodiment will be mainly described.

第1実施形態と異なる点は、撮像素子102で得られた撮像信号をHDR処理部103と信号処理部106のそれぞれへ入力することである。すなわち、信号処理部106で位相差検出を行う焦点検出用信号が、第1実施形態ではHDR処理後の信号であったのに対し、本実施形態ではHDR処理されていない点で異なる。   The difference from the first embodiment is that an image signal obtained by the image sensor 102 is input to each of the HDR processing unit 103 and the signal processing unit 106. That is, the focus detection signal for detecting the phase difference in the signal processing unit 106 is a signal after the HDR processing in the first embodiment, but is different in that the HDR processing is not performed in the present embodiment.

図9(b)は信号処理部106の機能構成例を示すブロック図である。信号処理部106は、加算処理部1061と位相差検出部1062とを有する。加算処理部1061は、撮像素子102の異なる読み出し行のA像用副画素間およびB像用副画素間で露出量を異ならせた撮影によって得られた撮像信号に対し、同色のカラーフィルタに対応する同種の副画素の出力を加算して加算信号を生成する。具体的には加算処理部1061は図5におけるn行目とn+2行目の同じ水平位置のA像用副画素の出力を加算し、またB像用副画素の出力を加算する。加算処理部1061は、n+3行目とn+5行目、n+6行目とn+7行目、・・・についても同様に加算する。なお、加算処理部1061が加算処理するのは、A像およびB像の生成に用いる画素についてだけでよい。   FIG. 9B is a block diagram illustrating a functional configuration example of the signal processing unit 106. The signal processing unit 106 includes an addition processing unit 1061 and a phase difference detection unit 1062. The addition processing unit 1061 supports color filters of the same color for image signals obtained by shooting with different exposure amounts between the A image sub-pixels and the B image sub-pixels in different readout rows of the image sensor 102. The outputs of the same type of subpixels are added to generate an addition signal. Specifically, the addition processing unit 1061 adds the outputs of the A image subpixels at the same horizontal position in the nth row and the n + 2th row in FIG. 5 and adds the outputs of the B image subpixels. The addition processing unit 1061 performs addition in the same manner for the n + 3th and n + 5th rows, the n + 6th and n + 7th rows, and so on. Note that the addition processing unit 1061 only needs to perform addition processing on the pixels used to generate the A and B images.

HDR処理では画素の入射光量のレベルによって低露出副画素と高露出副画素の一方の出力しか用いられない場合があった。しかし、本実施形態では低露出副画素と高露出副画素の出力の両方を常に用いてA像信号およびB像信号を生成する。そのため、位相差検出に用いるA像およびB像において空間周波数帯域の欠損を防ぐことができ、位相差検出の精度を落とさないようにすることができる。   In HDR processing, only one output of the low exposure subpixel and the high exposure subpixel may be used depending on the level of incident light quantity of the pixel. However, in this embodiment, the A image signal and the B image signal are generated by always using both the outputs of the low exposure subpixel and the high exposure subpixel. Therefore, it is possible to prevent the loss of the spatial frequency band in the A image and the B image used for the phase difference detection, and it is possible to prevent the accuracy of the phase difference detection from being deteriorated.

なお、加算処理については同色画素同士に限らず、異色画素同士で加算してもよい。この場合には、加算後の信号を輝度信号として取り扱う。   Note that the addition processing is not limited to the same color pixels but may be performed between different color pixels. In this case, the signal after addition is handled as a luminance signal.

加算処理部1061で加算処理して得られた複数のA像信号からA像を、複数のB像信号からB像を生成したのち、位相差検出部1062でA像とB像の位相差を検出し、制御部107に出力する。   After generating an A image from a plurality of A image signals obtained by the addition processing unit 1061 and a B image from a plurality of B image signals, the phase difference detection unit 1062 calculates a phase difference between the A image and the B image. Detect and output to the control unit 107.

図10は図5と同様のカラーフィルタ配列および露出量の設定を行った場合のHDR処理後の信号と、加算処理後の信号を模式的に示している。斜線が付された副画素は低露出副画素、縦線が付された副画素は高露出副画素である。   FIG. 10 schematically shows a signal after HDR processing and a signal after addition processing when the same color filter arrangement and exposure amount as in FIG. 5 are set. The subpixels with diagonal lines are low exposure subpixels, and the subpixels with vertical lines are high exposure subpixels.

図示の通り、異なる読み出し行の同色フィルタに対応する同種の副画素(露出量が異なる同種の副画素)の出力を用いてHDR処理と加算処理をそれぞれ実施する。具体的にはHDR処理部103は、n行目とn+2行目、n+3行目とn+5行目、n+6行目とn+8行目、n+9行目とn+11行目、・・・の組み合わせでHDR処理を行う。   As shown in the figure, HDR processing and addition processing are performed using outputs of the same type of subpixels (same type of subpixels with different exposure amounts) corresponding to the same color filters in different readout rows. Specifically, the HDR processing unit 103 performs HDR processing by a combination of the nth row and the n + 2th row, the n + 3th row and the n + 5th row, the n + 6th row and the n + 8th row, the n + 9th row and the n + 11th row,. I do.

一方、位相差処理部106の加算処理部1061は、位相差検出に用いる1対の像信号(A像およびB像)を生成するため、n行目とn+2行目、n+3行目とn+5行目、n+6行目とn+8行目、n+9行目とn+11行目・・の組み合わせで加算処理を行う。このように、HDR処理と加算処理とで用いる読み出し行の組み合わせは同じだが、HDR処理では画素の入射光量によって高露出副画素と低露出副画素の一方が用いられない場合がある点で異なる。   On the other hand, the addition processing unit 1061 of the phase difference processing unit 106 generates a pair of image signals (A image and B image) used for phase difference detection, so that the nth and n + 2th rows, the n + 3th row and the n + 5th row. The addition processing is performed on the combination of the nth, n + 6th and n + 8th rows, the n + 9th row and the n + 11th row,. Thus, the combination of readout rows used in the HDR process and the addition process is the same, but the HDR process is different in that one of the high exposure subpixel and the low exposure subpixel may not be used depending on the amount of incident light of the pixel.

図11は本実施形態のデジタルカメラのHDR撮影時の動作に関するフローチャートであり、第1実施形態と同じ処理ステップについては図8と同じ参照数字を付してある。図8との比較から明らかなように、本実施形態ではS805の位相差検出処理の前にS803のHDR処理はなくS1205の加算処理を実行することが第1実施形態と異なる。S1205では加算処理部1061が上述した加算処理を実行する。   FIG. 11 is a flowchart regarding the operation of the digital camera according to the present embodiment during HDR shooting. The same processing steps as those in the first embodiment are denoted by the same reference numerals as in FIG. As is clear from the comparison with FIG. 8, the present embodiment differs from the first embodiment in that there is no HDR processing in S803 and the addition processing in S1205 is executed before the phase difference detection processing in S805. In step S1205, the addition processing unit 1061 executes the above-described addition processing.

以上説明したように本実施形態によれば、位相差検出に用いる像信号についてはHDR処理前の画素信号に基づいて生成することにより、第1実施形態の効果に加え、第1実施形態よりも位相差検出精度を向上させることができる。   As described above, according to the present embodiment, the image signal used for phase difference detection is generated based on the pixel signal before HDR processing, so that in addition to the effects of the first embodiment, the image signal used for phase difference detection is more effective than the first embodiment. The phase difference detection accuracy can be improved.

●(第3実施形態)
次に、本発明の第3実施形態について説明する。第1および第2実施形態では、1つのマイクロレンズに対して2つの光電変換部もしくは副画素が割り当てられた構成を有する撮像素子を用いていた。しかし、第1および第2実施形態の手法は、1つのマイクロレンズに3つ以上の光電変換部もしくは副画素が割り当てられた構成の撮像素子を用いる場合にも適用可能である。本実施形態では一例として、第1実施形態の手法を1つのマイクロレンズに水平垂直方向に2つずつの光電変換部もしくは副画素が割り当てられた撮像素子に適用する場合について説明する。
● (Third embodiment)
Next, a third embodiment of the present invention will be described. In the first and second embodiments, an image sensor having a configuration in which two photoelectric conversion units or sub-pixels are assigned to one microlens is used. However, the methods of the first and second embodiments can also be applied when using an imaging device having a configuration in which three or more photoelectric conversion units or sub-pixels are assigned to one microlens. In this embodiment, as an example, a case will be described in which the method of the first embodiment is applied to an image sensor in which two photoelectric conversion units or subpixels are assigned to one microlens in the horizontal and vertical directions.

図12は第3実施形態における撮像素子102の画素アレイ部202に配列される画素201’の構成例を図3(a)と同様に模式的に示した平面図である。画素アレイ部202に配列されるすべての画素201’が、同一のマイクロレンズ210に割り当てられた4つの副画素1301a〜1301dを有する。   FIG. 12 is a plan view schematically showing a configuration example of the pixels 201 ′ arranged in the pixel array unit 202 of the image sensor 102 in the third embodiment, similarly to FIG. All the pixels 201 ′ arranged in the pixel array unit 202 have four subpixels 1301 a to 1301 d assigned to the same microlens 210.

副画素1301a〜1301dは、第1実施形態の副画素201Lや201Rと同様、PD1310a〜1310d、転送トランジスタ1311a〜1311d、およびFD1312a〜1312dをそれぞれ有する。
FD1312a〜1312dに蓄積された電荷が表す信号は、それぞれ独立して垂直信号線207、カラム信号処理回路204を通り、水平駆動回路205によって行単位で水平信号線209へ読みだされる。
Similar to the subpixels 201L and 201R of the first embodiment, the subpixels 1301a to 1301d include PDs 1310a to 1310d, transfer transistors 1311a to 1311d, and FDs 1312a to 1312d, respectively.
Signals represented by charges accumulated in the FDs 1312a to 1312d are independently read through the vertical signal line 207 and the column signal processing circuit 204, and read out to the horizontal signal line 209 in units of rows by the horizontal driving circuit 205.

図13(a)は図3(b)と同様に、本実施形態における撮像素子102の画素アレイ部202における画素の配列を模式的に示す図である。また、図13(b)は図13(a)で示す画素配列に設けられるカラーフィルタのパターンおよび副画素に設定する露出量と、HDR処理によって得られる信号列とを模式的示す図である。図13(b)においては上述の実施形態と同様に、低露出副画素には斜線を、高露出副画素には縦線を付している。   FIG. 13A is a diagram schematically illustrating the arrangement of pixels in the pixel array unit 202 of the image sensor 102 according to the present embodiment, similarly to FIG. FIG. 13B is a diagram schematically showing the pattern of the color filter provided in the pixel array shown in FIG. 13A, the exposure amount set for the sub-pixel, and the signal sequence obtained by the HDR process. In FIG. 13B, as in the above-described embodiment, the low-exposure subpixel is hatched and the high-exposure subpixel is vertical.

本実施形態では同一画素内にA像用副画素とB像用副画素がそれぞれ複数存在するため、同一画素内に高露出副画素のA像用副画素と低露出副画素のA像用副画素、高露出副画素のB像用副画素と低露出副画素のB像用副画素を設定可能である。そのため、同一画素で得られる副画素の信号を用いてHDR処理が可能であり、全ての画素行から信号を読み出すことができる。   In this embodiment, since there are a plurality of A image subpixels and a plurality of B image subpixels in the same pixel, the A image subpixel of the high exposure subpixel and the A image subpixel of the low exposure subpixel in the same pixel. It is possible to set a pixel, a B image subpixel of a high exposure subpixel, and a B image subpixel of a low exposure subpixel. Therefore, HDR processing can be performed using subpixel signals obtained from the same pixel, and signals can be read from all pixel rows.

本実施形態では、同一画素内において同じ露出量が設定される同種の副画素の水平方向の位置が異なるように、副画素の露出量を設定している。すなわち、図13(b)に示すように、A像用副画素1301aを低露出副画素、1301bを高露出副画素と設定した場合、A像用副画素1301aと水平方向で隣接するB像用副画素1301cは高露出副画素(従って1301dは低露出副画素)に設定する。これは、白飛びを起こした場合など、高露出副画素の信号が使用できない場合においても、A像、B像それぞれ同一の位相を持った信号が失われることを防止するためである。これにより、HDR処理後の信号の欠落や解像度の低下などの影響を減らすことができる。   In the present embodiment, the exposure amount of the sub-pixel is set so that the horizontal position of the same type of sub-pixel in which the same exposure amount is set in the same pixel is different. That is, as shown in FIG. 13B, when the A image subpixel 1301a is set as the low exposure subpixel and the 1301b is set as the high exposure subpixel, the B image adjacent to the A image subpixel 1301a in the horizontal direction is used. Subpixel 1301c is set to a high exposure subpixel (and thus 1301d is a low exposure subpixel). This is to prevent the loss of signals having the same phase in both the A image and the B image even when the high-exposure subpixel signal cannot be used, such as when whiteout occurs. As a result, it is possible to reduce the influence of signal loss and resolution reduction after HDR processing.

本実施形態において、HDR処理部103は、各画素において、副画素1301aと副画素1301bの組み合わせと、副画素1301cと副画素1301dの組み合わせそれぞれでHDR処理を行い、A像信号とB像信号のダイナミックレンジの拡大を実現する。これにより、図13(b)の右側に示すように、各行でダイナミックレンジが拡大されたA像信号とB像信号が得られる。以後の処理は第1実施形態と同様でよい。   In the present embodiment, the HDR processing unit 103 performs HDR processing on each pixel in the combination of the sub-pixel 1301a and the sub-pixel 1301b and the combination of the sub-pixel 1301c and the sub-pixel 1301d, and outputs the A image signal and the B image signal. Increase the dynamic range. As a result, as shown on the right side of FIG. 13B, an A image signal and a B image signal in which the dynamic range is expanded in each row are obtained. Subsequent processing may be the same as in the first embodiment.

また、第2実施形態の構成の場合、信号処理部106は、各画素において、副画素1301aと副画素1301bの出力を加算し、副画素1301cと副画素1301dの出力を加算して、A像信号およびB像信号を生成する(図14)。そして、信号処理部106は、複数のA像信号からA像を、複数のB像信号からB像を生成し、A像とB像の位相差を検出する。   In the case of the configuration of the second embodiment, the signal processing unit 106 adds the outputs of the sub-pixel 1301a and the sub-pixel 1301b and adds the outputs of the sub-pixel 1301c and the sub-pixel 1301d in each pixel to obtain an A image. A signal and a B image signal are generated (FIG. 14). Then, the signal processing unit 106 generates an A image from the plurality of A image signals and a B image from the plurality of B image signals, and detects a phase difference between the A image and the B image.

なお、本実施形態では水平方向の位相差検出を行う構成について説明したが、縦方向もしくは斜め方向の位相差を検出する構成にも同様の考え方を適用できる。例えば垂直方向の位相差を検出する場合には低露出副画素と高露出副画素の配置と組み合わせを90度帰ればよい。   In the present embodiment, the configuration for detecting the phase difference in the horizontal direction has been described. However, the same concept can be applied to the configuration for detecting the phase difference in the vertical direction or the oblique direction. For example, when detecting the phase difference in the vertical direction, the arrangement and combination of the low exposure subpixel and the high exposure subpixel may be returned by 90 degrees.

本実施形態によれば、第1または第2実施形態の効果に加え、1つの画素内に同種の副画素が複数存在するので、全ての行の信号を用いることができる。また、垂直および水平方向の両方に複数の副画素を設けた場合、位相差検出方向を変更することも容易であるという効果がある。   According to the present embodiment, in addition to the effects of the first or second embodiment, a plurality of the same kind of sub-pixels exist in one pixel, so that signals of all rows can be used. Further, when a plurality of subpixels are provided in both the vertical and horizontal directions, there is an effect that it is easy to change the phase difference detection direction.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101…鏡筒、102…撮像素子、103…HDR処理部、104…画像処理部、105…圧縮伸長部、106…処理部、107…制御部、108…発光部、109…操作部、110…表示部、111…記録部 DESCRIPTION OF SYMBOLS 101 ... Tube, 102 ... Image sensor, 103 ... HDR processing part, 104 ... Image processing part, 105 ... Compression / expansion part, 106 ... Processing part, 107 ... Control part, 108 ... Light emitting part, 109 ... Operation part, 110 ... Display unit, 111... Recording unit

Claims (12)

複数の副画素を有する画素が行列状に配置された撮像素子と、
前記複数の副画素に異なる露出条件を設定する設定手段と、
前記異なる露出条件のうち、第1の露出条件が設定された副画素から得られる信号と、第2の露出条件が設定された副画素から得られる信号とから、ダイナミックレンジを拡大した信号を生成する処理手段と、
前記複数の副画素で得られる信号から生成される、結像光学系の射出瞳の第1の領域を出射する光束による第1の像信号と、前記射出瞳の第2の領域を出射する光束による第2の像信号との位相差を検出する検出手段と、
前記位相差に基づいて前記結像光学系のデフォーカス量を求める算出手段と、を有することを特徴とする撮像装置。
An image sensor in which pixels having a plurality of sub-pixels are arranged in a matrix;
Setting means for setting different exposure conditions for the plurality of sub-pixels;
Of the different exposure conditions, a signal with an expanded dynamic range is generated from a signal obtained from a subpixel for which the first exposure condition is set and a signal obtained from a subpixel for which the second exposure condition is set. Processing means to
A first image signal generated from a signal obtained from the plurality of sub-pixels and emitted from a first region of the exit pupil of the imaging optical system and a light beam emitted from the second region of the exit pupil Detecting means for detecting a phase difference from the second image signal by
An imaging apparatus comprising: a calculating unit that obtains a defocus amount of the imaging optical system based on the phase difference.
前記設定手段は、画素内の相対位置が等しい副画素について、前記位相差の検出方向に並んだ副画素に対しては同一の露出条件を設定し、前記位相差の検出方向と直交する方向に並んだ副画素に対しては前記第1の露出条件と前記第2の露出条件とを交互に設定することを特徴とする請求項1に記載の撮像装置。   The setting means sets the same exposure condition for sub-pixels arranged in the phase difference detection direction for sub-pixels having the same relative position in the pixel, and sets the same exposure condition in a direction orthogonal to the phase difference detection direction. The imaging apparatus according to claim 1, wherein the first exposure condition and the second exposure condition are alternately set for the arranged subpixels. 前記処理手段は、同一画素が有する副画素のうち、前記第1の露出条件が設定された副画素から得られる信号と、前記第2の露出条件が設定された副画素から得られる信号とから、ダイナミックレンジを拡大した信号を生成することを特徴とする請求項1または請求項2に記載の撮像装置。   The processing means includes a signal obtained from a sub-pixel for which the first exposure condition is set and a signal obtained from a sub-pixel for which the second exposure condition is set among sub-pixels of the same pixel. The imaging apparatus according to claim 1, wherein a signal with an expanded dynamic range is generated. 前記処理手段は、互いに異なる読み出し行に含まれる画素が有する、前記第1の露出条件が設定された副画素と、前記第2の露出条件が設定された副画素とから得られる信号から、前記ダイナミックレンジを拡大した信号を生成することを特徴とする請求項1または請求項2に記載の撮像装置。   The processing means includes, from signals obtained from subpixels set with the first exposure condition and subpixels set with the second exposure condition, which are included in pixels included in different readout rows. The imaging apparatus according to claim 1, wherein a signal with an expanded dynamic range is generated. 前記撮像素子は所定の色パターンのカラーフィルタを有し、
前記処理手段は、同色のフィルタが設けられた画素が有する副画素のうち、前記第1の露出条件が設定された副画素と、前記第2の露出条件が設定された副画素とから得られる信号から前記ダイナミックレンジを拡大した信号を生成することを特徴とする請求項1から請求項4のいずれか1項に記載の撮像装置。
The image sensor has a color filter of a predetermined color pattern,
The processing means is obtained from subpixels set with the first exposure condition and subpixels set with the second exposure condition among subpixels of a pixel provided with a filter of the same color. 5. The imaging apparatus according to claim 1, wherein a signal in which the dynamic range is expanded is generated from a signal. 6.
前記設定手段は、前記色パターンが同じ行または列ごとに前記露出条件の設定を行うことを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the setting unit sets the exposure condition for each row or column having the same color pattern. 前記設定手段は、電荷蓄積時間もしくは信号増幅率を異ならせることによって、前記第1の露出条件および前記第2の露出条件を設定することを特徴とする請求項1から請求項6のいずれか1項に記載の撮像装置。   7. The device according to claim 1, wherein the setting unit sets the first exposure condition and the second exposure condition by changing a charge accumulation time or a signal amplification factor. The imaging device according to item. 前記処理手段は、前記第1の露出条件が設定された副画素から得られる信号と、前記第2の露出条件が設定された副画素から得られる信号とを、該第1の露出条件が設定された副画素と該第2の露出条件が設定された副画素の少なくとも一方を有する画素の入射光量のレベルに応じた比率で合成することにより前記ダイナミックレンジを拡大した信号を生成することを特徴とする請求項1から請求項6のいずれか1項に記載の撮像装置。   The processing means sets a signal obtained from the sub-pixel for which the first exposure condition is set and a signal obtained from the sub-pixel for which the second exposure condition is set, as the first exposure condition. Generating a signal with an expanded dynamic range by combining at a ratio according to the incident light level of a pixel having at least one of the sub-pixel and the sub-pixel for which the second exposure condition is set. The imaging device according to any one of claims 1 to 6. 前記検出手段は、前記処理手段が生成した信号から前記第1の像信号および前記第2の像信号を生成し、前記位相差を検出することを特徴とする請求項1から請求項8のいずれか1項に記載の撮像装置。   9. The detection unit according to claim 1, wherein the detection unit generates the first image signal and the second image signal from the signal generated by the processing unit, and detects the phase difference. The imaging apparatus of Claim 1. 前記検出手段は、
前記第1の露出条件が設定された副画素から得られる信号と、前記第2の露出条件が設定された副画素から得られる信号との加算信号を生成する加算手段を有し、
前記加算信号から前記第1の像信号と前記第2の像信号を生成し、前記位相差を検出することを特徴とする請求項1から請求項8のいずれか1項に記載の撮像装置。
The detection means includes
Adding means for generating an addition signal of a signal obtained from the sub-pixel for which the first exposure condition is set and a signal obtained from the sub-pixel for which the second exposure condition is set;
The imaging apparatus according to any one of claims 1 to 8, wherein the first image signal and the second image signal are generated from the addition signal, and the phase difference is detected.
前記ダイナミックレンジを拡大した信号から1画面分の画像を生成する生成手段をさらに有することを特徴とする請求項1から請求項10のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 1 to 10, further comprising generating means for generating an image for one screen from the signal with the expanded dynamic range. 複数の副画素を有する画素が行列状に配置された撮像素子を有する撮像装置の制御方法であって、
設定手段が、前記複数の副画素に異なる露出条件を設定する設定工程と、
処理手段が、前記異なる露出条件のうち、第1の露出条件が設定された副画素から得られる信号と、第2の露出条件が設定された副画素から得られる信号とから、ダイナミックレンジを拡大した信号を生成する処理工程と、
検出手段が、前記複数の副画素で得られる信号から生成される、結像光学系の射出瞳の第1の領域を出射する光束による第1の像信号と、前記射出瞳の第2の領域を出射する光束による第2の像信号との位相差を検出する検出工程と、
算出手段が、前記位相差に基づいて前記結像光学系のデフォーカス量を求める算出工程と、を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus having an imaging device in which pixels having a plurality of subpixels are arranged in a matrix,
A setting step in which setting means sets different exposure conditions for the plurality of sub-pixels;
The processing means expands the dynamic range from the signal obtained from the sub-pixel for which the first exposure condition is set and the signal obtained from the sub-pixel for which the second exposure condition is set, among the different exposure conditions. Processing steps to generate
The detection means generates a first image signal by a light beam emitted from a first region of the exit pupil of the imaging optical system, which is generated from signals obtained from the plurality of sub-pixels, and a second region of the exit pupil. A detection step of detecting a phase difference from the second image signal due to the light beam emitted from
And a calculating step of calculating a defocus amount of the imaging optical system based on the phase difference.
JP2016148997A 2016-07-28 2016-07-28 Imaging apparatus and control method therefor Pending JP2018019296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016148997A JP2018019296A (en) 2016-07-28 2016-07-28 Imaging apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016148997A JP2018019296A (en) 2016-07-28 2016-07-28 Imaging apparatus and control method therefor

Publications (1)

Publication Number Publication Date
JP2018019296A true JP2018019296A (en) 2018-02-01

Family

ID=61082124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016148997A Pending JP2018019296A (en) 2016-07-28 2016-07-28 Imaging apparatus and control method therefor

Country Status (1)

Country Link
JP (1) JP2018019296A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129755A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Image processing device and method, and imaging device
CN113316929A (en) * 2019-02-19 2021-08-27 索尼半导体解决方案公司 Signal processing method and imaging apparatus
WO2023020532A1 (en) * 2021-08-19 2023-02-23 维沃移动通信(杭州)有限公司 Image processing method and apparatus, electronic device, and readable storage medium
US11646338B2 (en) 2020-01-23 2023-05-09 Samsung Electronics Co., Ltd. Imaging device including shared pixels and operating method thereof
JP7414538B2 (en) 2020-01-14 2024-01-16 キヤノン株式会社 Imaging device and its control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013228692A (en) * 2012-03-29 2013-11-07 Canon Inc Image capturing device and camera system
JP2015201834A (en) * 2014-03-31 2015-11-12 ソニー株式会社 Solid-state imaging apparatus, drive control method and image processing method of the same, and electronic apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013228692A (en) * 2012-03-29 2013-11-07 Canon Inc Image capturing device and camera system
JP2015201834A (en) * 2014-03-31 2015-11-12 ソニー株式会社 Solid-state imaging apparatus, drive control method and image processing method of the same, and electronic apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129755A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Image processing device and method, and imaging device
JP7236282B2 (en) 2019-02-08 2023-03-09 キヤノン株式会社 Image processing device and method, and imaging device
CN113316929A (en) * 2019-02-19 2021-08-27 索尼半导体解决方案公司 Signal processing method and imaging apparatus
JP7414538B2 (en) 2020-01-14 2024-01-16 キヤノン株式会社 Imaging device and its control method
US11646338B2 (en) 2020-01-23 2023-05-09 Samsung Electronics Co., Ltd. Imaging device including shared pixels and operating method thereof
WO2023020532A1 (en) * 2021-08-19 2023-02-23 维沃移动通信(杭州)有限公司 Image processing method and apparatus, electronic device, and readable storage medium

Similar Documents

Publication Publication Date Title
JP6765860B2 (en) Image sensor, image sensor, and image signal processing method
JP5038188B2 (en) Imaging apparatus and imaging system using the same
US10270990B2 (en) Imaging element, imaging apparatus, and imaging signal processing method
JP5241454B2 (en) Solid-state imaging device and imaging system using the same
JP5850680B2 (en) Imaging apparatus and control method thereof
US9535193B2 (en) Image processing apparatus, image processing method, and storage medium
JP2018019296A (en) Imaging apparatus and control method therefor
US10063762B2 (en) Image sensor and driving method thereof, and image capturing apparatus with output signal control according to color
JP2005106994A (en) Focal point detecting device, imaging device, and method for controlling them
US10827141B2 (en) Image pickup device and and image pickup method having capability of adding additional information indicating the characteristic of a pixel data sequence to the pixel data sequence
US10645320B2 (en) Image pickup apparatus, control method for image pickup apparatus, and computer-readable non-transitory recording medium in which control program for image pickup apparatus is recorded
JP2015049402A (en) Defocus-amount detection device, and control method of the same, and imaging device
US10277853B2 (en) Image capturing apparatus and control method of the same
US20160353043A1 (en) Image sensor and image apparatus
JP2021176211A (en) Photoelectric conversion device and photoelectric conversion system
JP2018056703A (en) Imaging device and imaging apparatus
JP6762767B2 (en) Image sensor, image sensor, and image signal processing method
JP6239026B2 (en) Imaging device and imaging apparatus
JP2014165778A (en) Solid state image sensor, imaging device and focus detector
JP6127368B2 (en) Imaging device
US10283538B2 (en) Imaging device and method of driving imaging device
JP6545013B2 (en) Image forming method, image forming apparatus, and image forming program
US11310410B2 (en) Image capturing apparatus, method of controlling same, and storage medium
JP6368125B2 (en) Imaging device
JP2021013117A (en) Integrated circuit chip and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200713