JP2017108404A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2017108404A
JP2017108404A JP2016236096A JP2016236096A JP2017108404A JP 2017108404 A JP2017108404 A JP 2017108404A JP 2016236096 A JP2016236096 A JP 2016236096A JP 2016236096 A JP2016236096 A JP 2016236096A JP 2017108404 A JP2017108404 A JP 2017108404A
Authority
JP
Japan
Prior art keywords
signal
pixel
image
photoelectric conversion
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016236096A
Other languages
Japanese (ja)
Other versions
JP6891470B2 (en
Inventor
宣孝 平間
Nobutaka Hirama
宣孝 平間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2017108404A publication Critical patent/JP2017108404A/en
Priority to JP2021089424A priority Critical patent/JP7235068B2/en
Application granted granted Critical
Publication of JP6891470B2 publication Critical patent/JP6891470B2/en
Priority to JP2023025815A priority patent/JP7501696B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of obtaining an image with little blur even in an unfocused area.SOLUTION: The imaging apparatus includes: an imaging device in which a plurality of pixels, each having a first photoelectric conversion unit configured to receive a first light flux passing through a photographing optical system to generate a first signal and a second photoelectric conversion unit configured to receive a second light flux passing through the photographing optical system to generate a second signal are arranged; and a signal generator for generating a signal of the pixel used for an image signal by the first signal.SELECTED DRAWING: Figure 2

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

像面位相差方式による焦点検出が可能な撮像素子が知られている(特許文献1参照)。非合焦領域に対応する画素では、画像がボケてしまうため、用途によっては適さない場合があった。   An image sensor capable of detecting a focus by an image plane phase difference method is known (see Patent Document 1). In the pixel corresponding to the out-of-focus area, the image is blurred, and therefore, it may not be suitable depending on the application.

特開2001−83407号公報JP 2001-83407 A

請求項1に記載の撮像装置は、撮影光学系を通過する第1の光束を受光して第1の信号を生成する第1の光電変換部と、前記撮影光学系を通過する第2の光束を受光して第2の信号を生成する第2の光電変換部と、を有する画素が複数配置される撮像素子と、前記第1の信号により、画像信号に用いられる前記画素の信号を生成する信号生成部と、を備える。
請求項5に記載の撮像装置は、撮影光学系を通過した第1及び第2の光束を受光して第1及び第2の信号をそれぞれ生成する画素が配置される撮像素子と、予め定められた方向に配置された複数の前記画素から出力される複数の前記第1の信号及び複数の前記第2の信号のズレ量を検出して、撮影画面上の種々の位置におけるデフォーカス量を検出する焦点検出部と、前記デフォーカス量に基づき、前記撮影画面を合焦領域と非合焦領域とに区分する区分部と、前記合焦領域の前記画素については前記第1の信号と前記第2の信号とを加算した画像信号を生成し、前記非合焦領域の前記画素については前記第1の信号と前記第2の信号との一方の信号により画像信号を生成する第1の画像信号生成部と、を備える。
請求項12に記載の撮像装置は、撮影光学系を通過する第1及び第2の光束をそれぞれ受光して第1の色成分の第1の信号及び第2の信号をそれぞれ生成する第1の光電変換部及び第2の光電変換部を有する第1の画素と、前記撮影光学系を通過する前記第1及び第2の光束をそれぞれ受光して第2の色成分の第3の信号及び第4の信号をそれぞれ生成する第3の光電変換部及び第4の光電変換部を有する第2の画素と、をそれぞれ複数有する撮像素子と、前記第3の信号と前記第4の信号とを加算した信号により、前記第1の画素の位置における前記第2の色成分の信号を補間する第1の補間処理部と、前記第3の信号により、前記第1の画素の位置における前記第2の色成分の信号を補間する第2の補間処理部と、を備える。
The imaging apparatus according to claim 1, wherein a first photoelectric conversion unit that receives a first light flux that passes through the photographing optical system and generates a first signal, and a second light flux that passes through the photographing optical system. And a second photoelectric conversion unit that receives the light and generates a second signal, an image sensor having a plurality of pixels arranged thereon, and the first signal generates a signal of the pixel used for an image signal A signal generation unit.
The image pickup apparatus according to claim 5 is predetermined with an image pickup element in which pixels for receiving the first and second light fluxes passing through the photographing optical system and generating the first and second signals are arranged. Detecting defocus amounts at various positions on the shooting screen by detecting the shift amounts of the plurality of first signals and the plurality of second signals output from the plurality of pixels arranged in different directions A focus detection unit that classifies the shooting screen into a focused region and a non-focused region based on the defocus amount, and the first signal and the first signal for the pixels in the focused region. A first image signal that generates an image signal based on one of the first signal and the second signal for the pixel in the out-of-focus region. A generating unit.
The image pickup apparatus according to claim 12, wherein the first and second light beams passing through the photographing optical system are respectively received to generate a first signal and a second signal of the first color component, respectively. A first pixel having a photoelectric conversion unit and a second photoelectric conversion unit, and the first and second light beams passing through the photographing optical system are respectively received, and a third signal and a second signal of a second color component are received. An image sensor having a plurality of third photoelectric conversion units that respectively generate four signals and a second pixel having a fourth photoelectric conversion unit, and adding the third signal and the fourth signal The first interpolation processing unit that interpolates the signal of the second color component at the position of the first pixel by the signal that has been processed, and the second at the position of the first pixel by the third signal. A second interpolation processing unit for interpolating the color component signal.

本発明の一実施の形態によるデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera by one embodiment of this invention. ボディ駆動制御装置の構成を示す図である。It is a figure which shows the structure of a body drive control apparatus. 撮像素子の詳細な構成を示す図である。It is a figure which shows the detailed structure of an image pick-up element. 撮像素子の詳細な構成を示す図である。It is a figure which shows the detailed structure of an image pick-up element. 画素の構成を示す図である。It is a figure which shows the structure of a pixel. 瞳分割型位相差検出方式の焦点検出光学系の構成を示す図である。It is a figure which shows the structure of the focus detection optical system of a pupil division type phase difference detection system. 合焦状態における模式的な光路図である。It is a typical optical path diagram in a focused state. 非合焦状態における模式的な光路図である。It is a typical optical path diagram in an out-of-focus state. 略合焦領域に対応する画素の画像信号の並びを例示する図である。It is a figure which illustrates the sequence of the image signal of the pixel corresponding to a substantially focused area | region. G成分の補間処理を説明する図である。It is a figure explaining the interpolation process of G component. R成分の補間処理を説明する図である。It is a figure explaining the interpolation process of R component. 非合焦領域に対応する画素において、光電変換部の出力信号の並びを例示する図である。It is a figure which illustrates the arrangement | sequence of the output signal of a photoelectric conversion part in the pixel corresponding to a non-focusing area | region. G成分の補間処理を説明する図である。It is a figure explaining the interpolation process of G component. R成分の補間処理を説明する図である。It is a figure explaining the interpolation process of R component. 交換レンズの射出瞳の位置とケラレとの関係を説明する図である。It is a figure explaining the relationship between the position of the exit pupil of an interchangeable lens, and vignetting.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本実施形態の撮像装置の一例であるレンズ交換式のデジタルカメラの構成を示す図である。デジタルカメラ201は、交換レンズ202とカメラボディ203から構成される。種々の交換レンズ202がマウント部204を介してカメラボディ203に装着される。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a lens-interchangeable digital camera that is an example of an imaging apparatus according to the present embodiment. The digital camera 201 includes an interchangeable lens 202 and a camera body 203. Various interchangeable lenses 202 are attached to the camera body 203 via the mount unit 204.

交換レンズ202は、レンズ209、ズーミング用レンズ208、フォーカシング用レンズ210、絞り211、レンズ駆動制御装置206などを備える。レンズ駆動制御装置206は、不図示のマイクロコンピュータ、メモリ、駆動制御回路などから構成される。レンズ駆動制御装置206は、フォーカシング用レンズ210の焦点調節と絞り211の開口径調節のための駆動制御や、ズーミング用レンズ208、フォーカシング用レンズ210および絞り211の状態検出などを行う。また、レンズ駆動制御装置206は、後述するボディ駆動制御装置214との通信によりレンズ情報の送信とカメラ情報の受信を行う。絞り211は、光量およびボケ量調整のために光軸中心に開口径が可変な開口を形成する。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, a diaphragm 211, a lens drive control device 206, and the like. The lens drive control device 206 includes a microcomputer (not shown), a memory, a drive control circuit, and the like. The lens drive control unit 206 performs drive control for adjusting the focus of the focusing lens 210 and adjusting the aperture diameter of the aperture 211, and detecting the states of the zooming lens 208, the focusing lens 210, and the aperture 211. The lens drive control device 206 transmits lens information and receives camera information through communication with a body drive control device 214 described later. The aperture 211 forms an aperture having a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur.

カメラボディ203は、撮像素子212、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217などを備える。また、カメラボディ203には、メモリカード219が装着される。   The camera body 203 includes an imaging element 212, a body drive control device 214, a liquid crystal display element drive circuit 215, a liquid crystal display element 216, an eyepiece lens 217, and the like. A memory card 219 is attached to the camera body 203.

ボディ駆動制御装置214は、マイクロコンピュータ、メモリ、駆動制御回路などから構成される。ボディ駆動制御装置214は、撮像素子212の駆動制御と撮像素子212からの出力信号の読み出しと、該出力信号に基づく焦点検出演算と交換レンズ202の焦点調節を繰り返し行うとともに、該出力信号に基づく画像処理演算と記録、カメラの動作制御などを行う。また、ボディ駆動制御装置214は、電気接点213を介してレンズ駆動制御装置206と通信を行い、レンズ情報の受信とカメラ情報(デフォーカス量や絞り値など)の送信を行う。   The body drive control device 214 includes a microcomputer, a memory, a drive control circuit, and the like. The body drive control device 214 repeatedly performs drive control of the image sensor 212, reading of an output signal from the image sensor 212, focus detection calculation based on the output signal, and focus adjustment of the interchangeable lens 202, and based on the output signal. Performs image processing calculation and recording, camera operation control, etc. The body drive control device 214 communicates with the lens drive control device 206 via the electrical contact 213 to receive lens information and send camera information (defocus amount, aperture value, etc.).

液晶表示素子216は電子ビューファインダー(EVF:Electronic View Finder)として機能する。液晶表示素子駆動回路215は、撮像素子212によるスルー画像を液晶表示素子216に表示する。撮影者は、接眼レンズ217を介してスルー画像を観察することができる。メモリカード219は、撮像素子212により撮像された画像を記憶する画像ストレージである。   The liquid crystal display element 216 functions as an electronic view finder (EVF). The liquid crystal display element driving circuit 215 displays a through image by the imaging element 212 on the liquid crystal display element 216. The photographer can observe the through image through the eyepiece lens 217. The memory card 219 is an image storage that stores an image captured by the image sensor 212.

交換レンズ202を通過した光束により、撮像素子212の受光面上に被写体像が形成される。この被写体像は撮像素子212の各画素で光電変換され、各画素の出力信号がボディ駆動制御装置214へ送られる。   A subject image is formed on the light receiving surface of the image sensor 212 by the light beam that has passed through the interchangeable lens 202. This subject image is photoelectrically converted by each pixel of the image sensor 212, and an output signal of each pixel is sent to the body drive control device 214.

ボディ駆動制御装置214は、撮像素子212の出力信号に基づいてデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像素子212の出力信号を処理して画像データを生成し、メモリカード219に格納するとともに、撮像素子212からのスルー画像信号を液晶表示素子駆動回路215へ送り、スルー画像を液晶表示素子216に表示させる。さらに、ボディ駆動制御装置214は、レンズ駆動制御装置206へ絞り制御情報を送って絞り211の開口制御を行う。   The body drive control device 214 calculates a defocus amount based on the output signal of the image sensor 212 and sends this defocus amount to the lens drive control device 206. Further, the body drive control device 214 processes the output signal of the image sensor 212 to generate image data, stores it in the memory card 219, and sends the through image signal from the image sensor 212 to the liquid crystal display element drive circuit 215. The through image is displayed on the liquid crystal display element 216. Further, the body drive control device 214 sends aperture control information to the lens drive control device 206 to control the aperture of the aperture 211.

レンズ駆動制御装置206は、フォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じてレンズ情報を更新する。具体的には、ズーミング用レンズ208とフォーカシング用レンズ210の位置と絞り211の絞り値を検出し、これらのレンズ位置と絞り値に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからレンズ位置と絞り値に応じたレンズ情報を選択する。   The lens drive controller 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the positions of the zooming lens 208 and the focusing lens 210 and the aperture value of the aperture 211 are detected, and lens information is calculated according to these lens positions and aperture values, or a lookup prepared in advance. Lens information corresponding to the lens position and aperture value is selected from the table.

レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に応じてフォーカシング用レンズ210を合焦位置へ駆動する。また、レンズ駆動制御装置206は受信した絞り値に応じて絞り211を駆動する。   The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to the in-focus position according to the lens drive amount. Further, the lens drive control device 206 drives the diaphragm 211 in accordance with the received diaphragm value.

図2は、ボディ駆動制御装置214の構成を示すブロック図である。ボディ駆動制御装置214は、焦点検出部230、区分部231、第1の画像信号生成部232、第2の画像信号生成部233、画像解析部234、表示制御部235、記録制御部236、およびケラレ判定部237を機能的に備える。   FIG. 2 is a block diagram illustrating a configuration of the body drive control device 214. The body drive control device 214 includes a focus detection unit 230, a sorting unit 231, a first image signal generation unit 232, a second image signal generation unit 233, an image analysis unit 234, a display control unit 235, a recording control unit 236, and The vignetting determination unit 237 is functionally provided.

焦点検出部230は、撮像素子212の出力信号に基づいて後述する処理を行って、焦点検出を行う。区分部231は、撮影画面を略合焦領域と非合焦領域に区分し、或いは略合焦領域および非合焦領域のうちの少なくとも一方を抽出する。第1の画像信号生成部232は、撮像素子212の出力信号に基づいて後述する処理を行って、画像解析用の画像信号を生成する。なお、画像解析用の画像信号は、画像として出力されることを目的として生成される複数の画素信号に限られない。画像解析用の画像信号は、撮像素子212の複数の画素における複数の光電変換部が出力する複数の出力信号の生データとして得られる複数の画素信号や、それらの生データをもとに、画像として出力されることなく画像解析用データとして生成される複数の画素信号であってもよい。第2の画像信号生成部233は、撮像素子212の出力信号に基づいて後述する処理を行って、表示用画像(スルー画像)や記録用画像を構成する複数の画素信号からなる画像信号を生成する。画像解析部234は、第1の画像信号生成部232により生成された画像信号に基づき、被写体画像の解析処理を行う。表示制御部235は、第2の画像信号生成部233により生成された画像信号に基づき、液晶表示素子216にスルー画像を表示する。記録制御部236は、第2の画像信号生成部233により生成された画像信号に基づき、メモリカード219に画像データを記録する。ケラレ判定部237は、交換レンズ202のレンズ情報(射出瞳位置の情報)に基づいて、ケラレの状況を判定する。なお、これらの各部について詳しくは後述する。   The focus detection unit 230 performs focus detection by performing processing described later based on the output signal of the image sensor 212. The classification unit 231 divides the photographing screen into a substantially in-focus area and a non-focus area, or extracts at least one of the substantially in-focus area and the non-focus area. The first image signal generation unit 232 performs processing to be described later based on the output signal of the image sensor 212 to generate an image signal for image analysis. The image signal for image analysis is not limited to a plurality of pixel signals generated for the purpose of being output as an image. An image signal for image analysis is based on a plurality of pixel signals obtained as raw data of a plurality of output signals output from a plurality of photoelectric conversion units in a plurality of pixels of the image sensor 212, and based on the raw data. A plurality of pixel signals generated as image analysis data without being output as. The second image signal generation unit 233 performs processing to be described later based on the output signal of the image sensor 212, and generates an image signal composed of a plurality of pixel signals constituting a display image (through image) and a recording image. To do. The image analysis unit 234 performs subject image analysis processing based on the image signal generated by the first image signal generation unit 232. The display control unit 235 displays a through image on the liquid crystal display element 216 based on the image signal generated by the second image signal generation unit 233. The recording control unit 236 records image data on the memory card 219 based on the image signal generated by the second image signal generation unit 233. The vignetting determination unit 237 determines the state of vignetting based on the lens information (exit pupil position information) of the interchangeable lens 202. Details of these parts will be described later.

図3および図4は、撮像素子212の詳細な構成を示す正面図であり、撮像素子212の一部を拡大して示した図である。図3は、画素311のレイアウトを示す図である。複数の画素311は、行方向(水平方向)および列方向(垂直方向)において二次元状に配列されている。各画素311は、マイクロレンズ(不図示)と一対の光電変換部13、14とを有する。図3において、一対の光電変換部13、14は水平方向に並んで配置されている。図4は、図3に示す画素311の配列における色フィルタの配列を示した図である。画素311には、ベイヤー配列の規則に従って色フィルタ(R:赤色フィルタ、G:緑色フィルタ、B:青色フィルタ)が配置されている。すなわち、画素311として、赤色成分に関する分光感度特性を有する(すなわち赤色フィルタが配置された)R画素と緑色成分に関する分光感度特性を有する(すなわち緑色フィルタが配置された)G画素と青色成分に関する分光感度特性を有する(すなわち青色フィルタが配置された)B画素とが設けられている。画素311は、撮影用画素と焦点検出用画素とを兼ねており、画素311が撮像素子212の全面に配置されている。したがって、撮影画面上の任意の位置で焦点検出を行うことが可能である。   3 and 4 are front views showing the detailed configuration of the image sensor 212, and are enlarged views of a part of the image sensor 212. FIG. FIG. 3 is a diagram illustrating a layout of the pixel 311. The plurality of pixels 311 are two-dimensionally arranged in the row direction (horizontal direction) and the column direction (vertical direction). Each pixel 311 includes a microlens (not shown) and a pair of photoelectric conversion units 13 and 14. In FIG. 3, the pair of photoelectric conversion units 13 and 14 are arranged side by side in the horizontal direction. FIG. 4 is a diagram showing an arrangement of color filters in the arrangement of the pixels 311 shown in FIG. In the pixel 311, color filters (R: red filter, G: green filter, B: blue filter) are arranged according to the rules of the Bayer arrangement. That is, as the pixel 311, an R pixel having a spectral sensitivity characteristic related to a red component (that is, a red filter is disposed), a G pixel having a spectral sensitivity characteristic related to a green component (that is, a green filter is disposed), and a spectral related to a blue component. B pixels having sensitivity characteristics (that is, a blue filter is disposed) are provided. The pixel 311 serves both as a shooting pixel and a focus detection pixel, and the pixel 311 is disposed on the entire surface of the image sensor 212. Therefore, focus detection can be performed at an arbitrary position on the shooting screen.

図5は、画素311の構成を示す断面図である。画素311において、一対の光電変換部13、14の前方にマイクロレンズ10が配置される。一対の光電変換部13、14は半導体回路基板29上に形成される。また、色フィルタ(不図示)はマイクロレンズ10と一対の光電変換部13、14の中間に配置される。このような構成により一対の光電変換部13,14は、交換レンズ202の射出瞳の一対の測距瞳を通過する一対の光束をそれぞれ受光する。   FIG. 5 is a cross-sectional view illustrating a configuration of the pixel 311. In the pixel 311, the microlens 10 is disposed in front of the pair of photoelectric conversion units 13 and 14. The pair of photoelectric conversion units 13 and 14 are formed on the semiconductor circuit substrate 29. A color filter (not shown) is arranged between the microlens 10 and the pair of photoelectric conversion units 13 and 14. With such a configuration, the pair of photoelectric conversion units 13 and 14 respectively receive a pair of light beams that pass through the pair of distance measuring pupils of the exit pupil of the interchangeable lens 202.

図6は、マイクロレンズを用いた瞳分割型位相差検出方式の焦点検出光学系の構成を示す。図6において、射出瞳90は、交換レンズ202(図1参照)の予定結像面に配置されたマイクロレンズ10から前方の距離dの位置に設定されている。図6には他に、交換レンズの光軸91、マイクロレンズ10、光電変換部13、14、画素311、光束73、74が示されている。   FIG. 6 shows a configuration of a pupil division type phase difference detection type focus detection optical system using a microlens. In FIG. 6, the exit pupil 90 is set at a position of a distance d ahead of the microlens 10 disposed on the planned imaging plane of the interchangeable lens 202 (see FIG. 1). In addition, FIG. 6 shows an optical axis 91 of the interchangeable lens, the microlens 10, the photoelectric conversion units 13 and 14, the pixel 311 and the light beams 73 and 74.

測距瞳93,94は、射出瞳90のうちの互いに異なる部分領域であり、水平方向に並ぶとともに、光軸91を通る垂直線に対して線対称な形状となっている。光電変換部13は、測距瞳93を通過して画素311のマイクロレンズ10に向かう光束73によりマイクロレンズ10上に形成される像の強度に対応した信号を生成して出力する。また、光電変換部14は、測距瞳94を通過して画素311のマイクロレンズ10に向う光束74によりマイクロレンズ10上に形成される像の強度に対応した信号を生成して出力する。   The distance measuring pupils 93 and 94 are different partial regions of the exit pupil 90, and are arranged in the horizontal direction and symmetrical with respect to a vertical line passing through the optical axis 91. The photoelectric conversion unit 13 generates and outputs a signal corresponding to the intensity of the image formed on the microlens 10 by the light flux 73 that passes through the distance measuring pupil 93 and travels toward the microlens 10 of the pixel 311. In addition, the photoelectric conversion unit 14 generates and outputs a signal corresponding to the intensity of the image formed on the microlens 10 by the light beam 74 passing through the distance measuring pupil 94 and directed to the microlens 10 of the pixel 311.

図6では、光軸91近傍の隣接する5つの画素311を模式的に例示しているが、画面周辺に配置された画素311においても、各光電変換部13、14は、それぞれ対応した測距瞳93、94から各マイクロレンズに到来する光束を受光するように構成されている。マイクロレンズ10により、一対の光電変換部13、14と上述した互いに異なる部分領域、すなわち一対の測距瞳93、94とが互いに共役関係になる。   In FIG. 6, five adjacent pixels 311 near the optical axis 91 are schematically illustrated, but also in the pixels 311 arranged in the periphery of the screen, the photoelectric conversion units 13 and 14 each have a corresponding distance measurement. It is configured to receive a light beam coming from the pupils 93 and 94 to each microlens. By the microlens 10, the pair of photoelectric conversion units 13 and 14 and the above-described different partial regions, that is, the pair of distance measuring pupils 93 and 94 are conjugated with each other.

所定の焦点検出エリアにおいて水平方向に配列した複数の画素311の光電変換部13の出力信号の列と光電変換部14の出力信号の列とによって、測距瞳93と測距瞳94をそれぞれ通過する光束73、74が画素311の配列上に形成する一対の像の強度分布に関する情報が得られる。焦点検出部230は、光電変換部13の出力信号の列と光電変換部14の出力信号の列とのズレ量を公知の像ズレ検出演算処理(相関演算処理、位相差検出処理)によって検出することによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量を検出する。焦点検出部230は、この像ズレ量に基づいて、予定結像面に対する現在の結像面の偏差(デフォーカス量)を算出する。   The distance measuring pupil 93 and the distance measuring pupil 94 are respectively passed through the output signal sequence of the photoelectric conversion unit 13 and the output signal sequence of the photoelectric conversion unit 14 of the plurality of pixels 311 arranged in the horizontal direction in a predetermined focus detection area. Information on the intensity distribution of a pair of images formed by the luminous fluxes 73 and 74 on the array of the pixels 311 is obtained. The focus detection unit 230 detects a shift amount between the output signal sequence of the photoelectric conversion unit 13 and the output signal sequence of the photoelectric conversion unit 14 by a known image shift detection calculation process (correlation calculation process, phase difference detection process). Thus, the image shift amount of the pair of images is detected by a so-called pupil division type phase difference detection method. The focus detection unit 230 calculates a deviation (defocus amount) of the current imaging plane with respect to the planned imaging plane based on the image shift amount.

図7は、被写体にピントが合っている状態、すなわち合焦状態における模式的な光路図である。図7では、光軸91近傍の隣接する5つの画素311〜311を模式的に例示している。図7において被写体上の点Pから出射して、射出瞳90上の点95を通過した光75は、画素311の光電変換部13に入射する。一方、被写体上の点Pから出射して、射出瞳90上の点96を通過した光76は、画素311の光電変換部14に入射する。このように、合焦状態では、同じ点Pから出射され、射出瞳90上で異なる箇所を通過した光75、76がそれぞれ同じ画素311の光電変換部13、14に入射する。 FIG. 7 is a schematic optical path diagram in a state where the subject is in focus, that is, in a focused state. In FIG. 7, five adjacent pixels 311 1 to 311 5 in the vicinity of the optical axis 91 are schematically illustrated. Is emitted from the point P on the object 7, the light 75 passing through the point 95 on the exit pupil 90 is incident on the photoelectric conversion portion 13 of the pixel 311 3. On the other hand, is emitted from the point P on the object, the light 76 passing through the point 96 on the exit pupil 90 is incident on the photoelectric conversion portion 14 of the pixel 311 3. Thus, in the focus state, is emitted from the same point P, the light 75 and 76 passing through different locations on the exit pupil 90 is incident on the photoelectric conversion portions 13 and 14 of the same pixel 311 3, respectively.

図8は、被写体にピントが合っていない状態、すなわち非合焦状態における模式的な光路図である。図8は、被写体より前側にピントが合っている、いわゆる前ピンの状態を示している。また、図8では、光軸91近傍の隣接する5つの画素311〜311を模式的に例示している。図8において被写体上の点Pから出射して、射出瞳90上の点95を通過した光75は、画素311の光電変換部13に入射する。一方、被写体上の点Pから出射して、射出瞳90上の点96を通過した光76は、画素311の光電変換部14に入射する。このように、非合焦状態では、同じ点Pから出射され、射出瞳90上で異なる箇所を通過した光75、76がそれぞれ異なる画素311、311の光電変換部13,14に入射される。この点をふまえると、非合焦状態では、同じ画素311内の光電変換部13、14に、それぞれ被写体上の異なる点から出射された光が入射されることとなる。なお、被写体より後側にピントが合っている、いわゆる後ピンの状態でも同様である。 FIG. 8 is a schematic optical path diagram in a state where the subject is not in focus, that is, in an out-of-focus state. FIG. 8 shows a so-called front pin state in which the subject is in front of the subject. FIG. 8 schematically illustrates five adjacent pixels 311 1 to 311 5 in the vicinity of the optical axis 91. Is emitted from the point P on the object 8, the light 75 passing through the point 95 on the exit pupil 90 is incident on the photoelectric conversion portion 13 of the pixel 311 2. On the other hand, is emitted from the point P on the object, the light 76 passing through the point 96 on the exit pupil 90 is incident on the photoelectric conversion portion 14 of the pixel 311 4. Thus, in the non-focus state, is emitted from the same point P, the light 75 and 76 passing through different locations on the exit pupil 90 is incident on different pixels 311 2, 311 4 of the photoelectric conversion portions 13 and 14 respectively The Based on this point, in the out-of-focus state, light emitted from different points on the subject is incident on the photoelectric conversion units 13 and 14 in the same pixel 311. The same applies to a so-called rear focus state where the rear side of the subject is in focus.

各画素311において光電変換部13の出力信号と光電変換部14の出力信号とを加算して画像信号を生成する場合、非合焦領域に対応する画素では、被写体上の異なる点から出射された出力信号が加算されることになるのでボケた画像となる。画像の解析処理を行う際にはできるだけボケの少ない画像の方が好ましい。そこで、本実施形態では、解析用の画像を生成する際、略合焦領域に対応する画素311では光電変換部13、14の出力信号を加算して画像信号を生成し、非合焦領域に対応する画素311では光電変換部13、14の出力信号のいずれか一方を用いて画像信号を生成する。なお、スルー画像または記録用の画像を生成する際には、ボケを生かした画像とするため、撮影画面全体に対応する画素311について、光電変換部13、14の出力信号を加算して画像信号を生成する。このような画像信号の生成処理について、以下、詳細に説明する。   When the image signal is generated by adding the output signal of the photoelectric conversion unit 13 and the output signal of the photoelectric conversion unit 14 in each pixel 311, the pixel corresponding to the out-of-focus region is emitted from a different point on the subject. Since the output signals are added, the image becomes blurred. When performing image analysis processing, an image with as little blur as possible is preferable. Therefore, in the present embodiment, when generating an image for analysis, the pixel 311 corresponding to the substantially in-focus area adds the output signals of the photoelectric conversion units 13 and 14 to generate an image signal, and generates the image in the out-of-focus area. In the corresponding pixel 311, an image signal is generated using one of the output signals of the photoelectric conversion units 13 and 14. Note that when generating a through image or a recording image, the image signal is obtained by adding the output signals of the photoelectric conversion units 13 and 14 to the pixel 311 corresponding to the entire shooting screen in order to obtain a blurred image. Is generated. Such image signal generation processing will be described in detail below.

(解析用の画像信号の生成)
解析用の画像信号の生成処理について説明する。まず、焦点検出部230は、撮影画面を多数の領域に分割し、これらの領域に対応するデフォーカス量を上述した処理によって検出することで、撮影画面上の種々の位置におけるデフォーカス量を検出し、合焦状態の分布を示すデフォーカス量のマップを作成する。そして、区分部231は、このデフォーカス量のマップに基づき、撮影画面を略合焦領域と非合焦領域とに区分するか、または略合焦領域および非合焦領域のうちの少なくとも一方を抽出する。なお、略合焦領域はデフォーカス量が所定閾値よりも小さい領域(小デフォーカス領域)であり、非合焦領域はデフォーカス量が所定閾値よりも大きい領域(大デフォーカス領域)である。
(Generation of image signal for analysis)
Processing for generating an image signal for analysis will be described. First, the focus detection unit 230 detects the defocus amounts at various positions on the shooting screen by dividing the shooting screen into a number of regions and detecting the defocus amounts corresponding to these regions by the above-described processing. Then, a defocus amount map showing the distribution of the in-focus state is created. Then, the sorting unit 231 classifies the photographing screen into a substantially in-focus area and a non-focus area based on the defocus amount map, or at least one of the substantially in-focus area and the non-focus area. Extract. The substantially in-focus area is an area where the defocus amount is smaller than a predetermined threshold (small defocus area), and the non-focus area is an area where the defocus amount is larger than the predetermined threshold (large defocus area).

<略合焦領域の画像信号の生成>
第1の画像信号生成部232は、区分部231により区分または抽出された略合焦領域に対応する画素311については、光電変換部13の出力信号aと光電変換部14の出力信号bとを加算して平均した、(a+b)/2を画像信号として生成する。図9は、このようにして生成された略合焦領域に対応する画素311の画像信号の並びを例示する図である。画素311の画像信号は、各画素位置に対応して、ベイヤー配列の規則にしたがってR、G、Bのいずれかの色成分を有し、配置された色フィルタの色成分と異なる色成分の画像信号が不足する。第1の画像信号生成部232は、光電変換部13、14の出力信号を加算して生成した画像信号について、周辺の画素位置の画像信号を用いて不足する色成分の画像信号を生成する色補間処理(デモザイク)を行う。この色補間処理の際には、画像構造、例えばエッジや線状構造等のテクスチャの方向判定を実施し、縦方向、横方向のどちらに構造を持っているかによって補間方法を変える。
<Generation of image signal in substantially in-focus area>
The first image signal generation unit 232 outputs the output signal a of the photoelectric conversion unit 13 and the output signal b of the photoelectric conversion unit 14 for the pixel 311 corresponding to the substantially in-focus area segmented or extracted by the segmenting unit 231. (A + b) / 2 obtained by adding and averaging is generated as an image signal. FIG. 9 is a diagram illustrating the arrangement of image signals of the pixels 311 corresponding to the substantially in-focus areas generated in this way. The image signal of the pixel 311 has an R, G, or B color component corresponding to each pixel position according to the rules of the Bayer arrangement, and an image of a color component different from the color component of the arranged color filter Insufficient signal. The first image signal generation unit 232 generates a color component that generates an image signal having insufficient color components using an image signal at a peripheral pixel position for an image signal generated by adding the output signals of the photoelectric conversion units 13 and 14. Interpolation processing (demosaic) is performed. In this color interpolation process, the direction of the texture of an image structure, for example, an edge or a linear structure is determined, and the interpolation method is changed depending on whether the structure is in the vertical direction or the horizontal direction.

図9において、補間対象とする画素位置(以下注目位置と呼ぶ)(I,J)を斜線で示す。第1の画像信号生成部232は、注目位置(I,J)において、不足する色成分であるG成分に関して画像構造の方向判定を行う。第1の画像信号生成部232は、注目位置(I,J)に上下左右に隣接する4つの画素位置、(I−1,J)、(I+1,J)、(I,J−1)、(I,J+1)の画像信号(G信号)を用いて次式(1)〜(4)により方向判定を行う。なお、図9では上記4つの位置を丸印で示す。   In FIG. 9, pixel positions (I, J) to be interpolated (hereinafter referred to as attention positions) are indicated by hatching. The first image signal generation unit 232 determines the direction of the image structure with respect to the G component that is the insufficient color component at the target position (I, J). The first image signal generation unit 232 has four pixel positions adjacent to the target position (I, J) in the vertical and horizontal directions, (I-1, J), (I + 1, J), (I, J-1), Using the image signal (G signal) of (I, J + 1), direction determination is performed by the following equations (1) to (4). In FIG. 9, the four positions are indicated by circles.

|G(I-1,J)-G(I+1,J)|>th_1且つ|G(I,J-1)-G(I,J+1)|<th_2 ・・・(1)
|G(I-1,J)-G(I+1,J)|<th_1且つ|G(I,J-1)-G(I,J+1)|>th_2 ・・・(2)
|G(I-1,J)-G(I+1,J)|>th_1且つ|G(I,J-1)-G(I,J+1)|>th_2 ・・・(3)
|G(I-1,J)-G(I+1,J)|<th_1且つ|G(I,J-1)-G(I,J+1)|<th_2 ・・・(4)
ただし、閾値th_1およびth_2は、所定値である。
| G (I-1, J) -G (I + 1, J) |> th_1 and | G (I, J-1) -G (I, J + 1) | <th_2 (1)
| G (I-1, J) -G (I + 1, J) | <th_1 and | G (I, J-1) -G (I, J + 1) |> th_2 (2)
| G (I-1, J) -G (I + 1, J) |> th_1 and | G (I, J-1) -G (I, J + 1) |> th_2 (3)
| G (I-1, J) -G (I + 1, J) | <th_1 and | G (I, J-1) -G (I, J + 1) | <th_2 (4)
However, the thresholds th_1 and th_2 are predetermined values.

第1の画像信号生成部232は、上記式(1)が成立する場合は、注目位置(I,J)に対して横(行)方向にエッジがあると判定する。第1の画像信号生成部232は、上記式(2)が成立する場合は、注目位置(I,J)に対して縦(列)方向にエッジがあると判定する。第1の画像信号生成部232は、上記式(3)が成立する場合は、注目位置(I,J)に対してエッジの角があると判定する。第1の画像信号生成部232は、上記式(4)が成立する場合は、注目位置(I,J)がエッジ上にないと判定する。   The first image signal generation unit 232 determines that there is an edge in the horizontal (row) direction with respect to the target position (I, J) when the above formula (1) is satisfied. The first image signal generation unit 232 determines that there is an edge in the vertical (column) direction with respect to the target position (I, J) when the above expression (2) is established. The first image signal generation unit 232 determines that there is an edge angle with respect to the target position (I, J) when the above expression (3) is established. The first image signal generation unit 232 determines that the position of interest (I, J) is not on the edge when the above expression (4) is established.

図10は、G成分の補間処理を説明する図である。第1の画像信号生成部232は、上記方向判定において横(行)方向にエッジがあると判定した場合は、図10(a)に示すように、注目位置(I,J)に縦方向に隣接する2つの画素位置(I,J−1)、(I,J+1)の画像信号(G信号)に基づき、次式(5)を用いて、注目位置(I,J)のG信号を求める。
G(I,J)={G(I,J-1)+G(I,J+1)}/2 ・・・(5)
FIG. 10 is a diagram for explaining the G component interpolation processing. When the first image signal generation unit 232 determines that there is an edge in the horizontal (row) direction in the direction determination, as shown in FIG. 10A, the first image signal generation unit 232 vertically moves to the target position (I, J). Based on the image signal (G signal) at two adjacent pixel positions (I, J−1) and (I, J + 1), the G signal at the target position (I, J) is obtained using the following equation (5). .
G (I, J) = {G (I, J-1) + G (I, J + 1)} / 2 (5)

また、第1の画像信号生成部232は、上記方向判定において縦(列)方向にエッジがあると判定した場合は、図10(b)に示すように、太枠で示す注目位置(I,J)に横方向に隣接する2つの画素位置(I−1,J)、(I+1,J)の画像信号(G成分の信号)に基づき、次式(6)を用いて、注目位置(I,J)のG成分の信号を求める。
G(I,J)={G(I-1,J)+G(I+1,J)}/2 ・・・(6)
When the first image signal generation unit 232 determines that there is an edge in the vertical (column) direction in the direction determination, as shown in FIG. 10B, the attention position (I, Based on the image signal (G component signal) of two pixel positions (I−1, J) and (I + 1, J) adjacent in the horizontal direction to J), the target position (I , J) G component signals are obtained.
G (I, J) = {G (I-1, J) + G (I + 1, J)} / 2 (6)

また、第1の画像信号生成部232は、上記方向判定においてエッジの角があるまたはエッジがないと判定した場合は、図10(c)に示すように、注目位置(I,J)に縦横方向に隣接する4つの画素位置(I−1,J)、(I+1,J)、(I,J−1)、(I,J+1)の画像信号(G成分の信号)に基づき、次式(7)を用いて、注目位置(I,J)のG成分の信号を求める。
G(I,J)={G(I-1,J)+G(I+1,J)+G(I,J-1)+G(I,J+1)}/4 ・・・(7)
Further, when the first image signal generation unit 232 determines that there is an edge corner or no edge in the direction determination, as shown in FIG. 10C, the first image signal generation unit 232 vertically and horizontally at the target position (I, J). Based on the image signals (G component signals) of four pixel positions (I−1, J), (I + 1, J), (I, J−1), (I, J + 1) adjacent in the direction, 7) is used to obtain the G component signal at the position of interest (I, J).
G (I, J) = {G (I-1, J) + G (I + 1, J) + G (I, J-1) + G (I, J + 1)} / 4 ( 7)

第1の画像信号生成部232は、B成分の位置およびR成分の位置においてそれぞれ上述したようにG成分の信号を補間する処理を行うことで、略合焦領域に対応する各画素311の位置においてG成分の信号を得ることができる。   The first image signal generation unit 232 performs the process of interpolating the G component signal as described above at the B component position and the R component position, so that the position of each pixel 311 corresponding to the substantially in-focus region is determined. In G, a signal of the G component can be obtained.

図11は、R成分の補間処理を説明する図である。図11(a)は、図9からR成分の信号を抽出した図である。第1の画像信号生成部232は、図9におけるB色成分およびG色成分の位置を順番に注目位置として、注目位置の周囲に位置する4つのR成分の信号を用いて注目位置におけるR成分の信号を補間処理によって生成する。R成分の信号の補間処理において、まず、第1の画像信号生成部232は、G成分の信号とR色成分の信号とに基づいて、図11(b)に示すように色差成分Crの信号を算出する。   FIG. 11 is a diagram for explaining the R component interpolation processing. FIG. 11A shows an R component signal extracted from FIG. The first image signal generation unit 232 uses the positions of the B color component and the G color component in FIG. 9 as the target position in order, and uses the four R component signals positioned around the target position to use the R component at the target position. Are generated by interpolation processing. In the interpolation processing of the R component signal, first, the first image signal generation unit 232, based on the G component signal and the R color component signal, outputs the color difference component Cr signal as shown in FIG. Is calculated.

そして、第1の画像信号生成部232は、図11(b)の太枠で示す注目位置(I+1,J+1)において、斜め方向に隣接して位置する4つの画素位置(I,J)、(I+2,J)、(I,J+2)、(I+2,J+2)の色差成分Crの信号に基づき、次式(8)により、注目位置(I+1,J+1)における色差成分Crの信号を算出する。
Cr(I+1,J+1)={Cr(I,J)+Cr(I+2,J)+Cr(I,J+2)+Cr(I+2,J+2)}/4 ・・・(8)
Then, the first image signal generation unit 232 has four pixel positions (I, J), (N) adjacent to each other in the diagonal direction at the target position (I + 1, J + 1) indicated by the thick frame in FIG. Based on the signal of the color difference component Cr of (I + 2, J), (I, J + 2), (I + 2, J + 2), the signal of the color difference component Cr at the target position (I + 1, J + 1) is calculated by the following equation (8).
Cr (I + 1, J + 1) = {Cr (I, J) + Cr (I + 2, J) + Cr (I, J + 2) + Cr (I + 2, J + 2)} / 4・ (8)

また、第1の画像信号生成部232は、図11(c)の太枠で示す注目位置(I+1,J+2)において、上下左右に隣接して位置する4つの画素位置(I+1,J+1)、(I,J+2)、(I+1,J+3)、(I+2,J+2)の色差成分Crの信号に基づき、次式(9)により、注目位置(I+1,J+2)における色差成分Crの信号を算出する。
Cr(I+1,J+2)={Cr(I+1,J+1)+Cr(I,J+2)+Cr(I+1,J+3)+Cr(I+2,J+2)}/4 ・・・(9)
In addition, the first image signal generation unit 232 includes four pixel positions (I + 1, J + 1), (I + 1, J + 1), which are adjacent to each other in the vertical and horizontal directions at the target position (I + 1, J + 2) indicated by a thick frame in FIG. Based on the signals of the color difference component Cr of (I, J + 2), (I + 1, J + 3), (I + 2, J + 2), the signal of the color difference component Cr at the target position (I + 1, J + 2) is calculated by the following equation (9).
Cr (I + 1, J + 2) = {Cr (I + 1, J + 1) + Cr (I, J + 2) + Cr (I + 1, J + 3) + Cr (I + 2, J + 2) )} / 4 ・ ・ ・ (9)

第1の画像信号生成部232は、このようにして各画素311の位置において色差成分Crの信号を得たのち、各画素311の位置に対応させてG成分の信号を加算することにより、各画素311の位置においてR成分の信号を得ることができる。   The first image signal generation unit 232 obtains the color difference component Cr signal at the position of each pixel 311 in this way, and then adds the G component signal corresponding to the position of each pixel 311, thereby An R component signal can be obtained at the position of the pixel 311.

また、第1の画像信号生成部232は、図9におけるR色成分およびG色成分の位置を順番に注目位置として、注目位置の周囲に位置する4つのB成分の信号を用いて注目位置におけるB成分の信号を補間処理によって生成する。B成分の信号の補間処理は、各画素311の位置において、色差Cbの信号を得たのち、G成分の信号を加算することにより行う。これは、R成分の信号の補間処理と同様に行えばよいので、詳細な説明は省略する。   Further, the first image signal generation unit 232 sets the positions of the R color component and the G color component in FIG. 9 as the target position in order, and uses the signals of the four B components positioned around the target position at the target position. A B component signal is generated by interpolation processing. The interpolation processing of the B component signal is performed by obtaining the color difference Cb signal at the position of each pixel 311 and then adding the G component signal. Since this may be performed in the same manner as the interpolation processing of the R component signal, detailed description thereof is omitted.

このようにして、第1の画像信号生成部232は、略合焦領域に対応する画素311について、RGB成分の画像信号を得ることができる。   In this way, the first image signal generation unit 232 can obtain an RGB component image signal for the pixel 311 corresponding to the substantially focused region.

<非合焦領域の画像信号の生成>
第1の画像信号生成部232は、区分部231により区分または抽出された非合焦領域に対応する画素311については、光電変換部13の出力信号および光電変換部14の出力信号のいずれか一方の出力信号に基づき画像信号を生成する。なお、画像信号の生成に用いる光電変換部として、光電変換部13、14のどちらを選択してもよいが、連続する非合焦領域内において、選択する光電変換部は統一する。以下では、光電変換部13の出力信号に基づき画像信号を生成する例を説明するが、光電変換部14の出力信号に基づき画像信号を生成する場合も同様である。
<Generation of image signal in out-of-focus area>
For the pixel 311 corresponding to the out-of-focus region segmented or extracted by the segmenting unit 231, the first image signal generation unit 232 outputs either the output signal of the photoelectric conversion unit 13 or the output signal of the photoelectric conversion unit 14. An image signal is generated based on the output signal. Note that either one of the photoelectric conversion units 13 and 14 may be selected as the photoelectric conversion unit used for generating the image signal, but the selected photoelectric conversion unit is unified in the continuous out-of-focus region. Hereinafter, an example in which an image signal is generated based on the output signal of the photoelectric conversion unit 13 will be described, but the same applies to the case where an image signal is generated based on the output signal of the photoelectric conversion unit 14.

図12は、非合焦領域に対応する画素311において、光電変換部13、14の出力信号の並びを例示する図である。光電変換部13、14の出力信号は、各画素位置に対応して、ベイヤー配列の規則にしたがってR、G、Bのいずれかの色成分を有し、配置された色フィルタの色成分と異なる色成分の信号が不足する。ここでは、第1の画像信号生成部232は、非合焦領域に対応する画素311について、光電変換部13の出力信号を画像信号とする。そのため第1の画像信号生成部232は、周辺の画素311の光電変換部13の出力信号を用いて不足する色成分の信号を生成する色補間処理を行う。この色補間処理の際にも、画像構造の方向判定を実施し、縦方向、横方向のどちらに構造を持っているかによって補間方法を変える。   FIG. 12 is a diagram illustrating the arrangement of output signals of the photoelectric conversion units 13 and 14 in the pixel 311 corresponding to the out-of-focus region. The output signals of the photoelectric conversion units 13 and 14 have color components of R, G, and B according to the rules of the Bayer arrangement corresponding to each pixel position, and are different from the color components of the arranged color filters. The color component signal is insufficient. Here, the first image signal generation unit 232 uses the output signal of the photoelectric conversion unit 13 as an image signal for the pixel 311 corresponding to the out-of-focus region. Therefore, the first image signal generation unit 232 performs color interpolation processing that generates a signal of an insufficient color component using the output signal of the photoelectric conversion unit 13 of the peripheral pixel 311. Also in this color interpolation processing, the direction determination of the image structure is performed, and the interpolation method is changed depending on whether the structure is in the vertical direction or the horizontal direction.

図12において、補間対象とする画素位置における光電変換部13に対応する位置(以下注目位置と呼ぶ)(i,j)を斜線で示す。第1の画像信号生成部232は、注目位置(i,j)において、不足する色成分であるG成分に関して画像構造の方向判定を行う。第1の画像信号生成部232は、補間対象とする画素位置に上下左右に隣接する画素における光電変換部13に対応する4つの位置、(i−2,j)、(i+2,j)、(i,j−1)、(i,j+1)の光電変換信号(G信号)を用いて次式(10)〜(13)により方向判定を行う。なお、図12では上記4つの位置を丸印で示す。   In FIG. 12, a position corresponding to the photoelectric conversion unit 13 (hereinafter referred to as a target position) (i, j) at a pixel position to be interpolated is indicated by hatching. The first image signal generation unit 232 determines the direction of the image structure with respect to the G component that is a lacking color component at the target position (i, j). The first image signal generation unit 232 has four positions corresponding to the photoelectric conversion unit 13 in the pixels adjacent to the pixel position to be interpolated vertically and horizontally, (i−2, j), (i + 2, j), ( Using the photoelectric conversion signals (G signals) of i, j-1) and (i, j + 1), the direction is determined by the following equations (10) to (13). In FIG. 12, the four positions are indicated by circles.

|G(i-2,j)-G(i+2,j)|>th_1且つ|G(i,j-1)-G(i,j+1)|<th_2 ・・・(10)
|G(i-2,j)-G(i+2,j)|<th_1且つ|G(i,j-1)-G(i,j+1)|>th_2 ・・・(11)
|G(i-2,j)-G(i+2,j)|>th_1且つ|G(i,j-1)-G(i,j+1)|>th_2 ・・・(12)
|G(i-2,j)-G(i+2,j)|<th_1且つ|G(i,j-1)-G(i,j+1)|<th_2 ・・・(13)
ただし、閾値th_1およびth_2は、所定値である。
| G (i-2, j) -G (i + 2, j) |> th_1 and | G (i, j-1) -G (i, j + 1) | <th_2 (10)
| G (i-2, j) -G (i + 2, j) | <th_1 and | G (i, j-1) -G (i, j + 1) |> th_2 (11)
| G (i-2, j) -G (i + 2, j) |> th_1 and | G (i, j-1) -G (i, j + 1) |> th_2 (12)
| G (i-2, j) -G (i + 2, j) | <th_1 and | G (i, j-1) -G (i, j + 1) | <th_2 (13)
However, the thresholds th_1 and th_2 are predetermined values.

第1の画像信号生成部232は、上記式(10)が成立する場合は、注目位置(i,j)に対して横(行)方向にエッジがあると判定する。第1の画像信号生成部232は、上記式(11)が成立する場合は、注目位置(i,j)に対して縦(列)方向にエッジがあると判定する。第1の画像信号生成部232は、上記式(12)が成立する場合は、注目位置(i,j)に対してエッジの角があると判定する。第1の画像信号生成部232は、上記式(13)が成立する場合は、注目位置(i,j)がエッジ上にないと判定する。   The first image signal generation unit 232 determines that there is an edge in the horizontal (row) direction with respect to the target position (i, j) when the above equation (10) is satisfied. The first image signal generation unit 232 determines that there is an edge in the vertical (column) direction with respect to the target position (i, j) when the above equation (11) is established. The first image signal generation unit 232 determines that there is an edge corner with respect to the target position (i, j) when the above expression (12) is established. The first image signal generation unit 232 determines that the position of interest (i, j) is not on the edge when the above equation (13) is established.

図13は、G成分の補間処理を説明する図である。図13(a)は、上記方向判定において横(行)方向にエッジがあると判定された場合を説明する図である。この場合、第1の画像信号生成部232は、図13(a)において太枠で示す注目位置(i,j)に対応する画素に縦方向に隣接する画素の光電変換部13に対応する2つの位置(i,j−1)、(i,j+1)の出力信号(G成分の信号)を次式(14)のように単純平均することにより、注目位置(i,j)のG成分の信号を求める。
G(i,j)={G(i,j-1)+G(i,j+1)}/2 ・・・(14)
FIG. 13 is a diagram for explaining the G component interpolation processing. FIG. 13A is a diagram illustrating a case where it is determined in the direction determination that there is an edge in the horizontal (row) direction. In this case, the first image signal generation unit 232 corresponds to the photoelectric conversion unit 13 of the pixel vertically adjacent to the pixel corresponding to the target position (i, j) indicated by the thick frame in FIG. By simply averaging the output signals (G component signals) at the two positions (i, j-1) and (i, j + 1) as in the following equation (14), the G component at the target position (i, j) Find the signal.
G (i, j) = {G (i, j-1) + G (i, j + 1)} / 2 (14)

図13(b)は、上記方向判定において縦(列)方向にエッジがあると判定した場合を説明する図である。この場合、第1の画像信号生成部232は、図13(b)において太枠で示す注目位置(i,j)に対応する画素に横方向に隣接する画素の光電変換部13に対応する2つの位置(i−2,j)、(i+2,j)の出力信号(G成分の信号)を次式(15)のように単純平均することにより、注目位置(i,j)のG成分の信号を求める。
G(i,j)={G(i-2,j)+G(i+2,j)}/2 ・・・(15)
FIG. 13B is a diagram illustrating a case where it is determined in the direction determination that there is an edge in the vertical (column) direction. In this case, the first image signal generation unit 232 corresponds to the photoelectric conversion unit 13 of the pixel adjacent in the horizontal direction to the pixel corresponding to the target position (i, j) indicated by a thick frame in FIG. By simply averaging the output signals (G component signals) at the two positions (i−2, j) and (i + 2, j) as in the following equation (15), the G component at the target position (i, j) Find the signal.
G (i, j) = {G (i-2, j) + G (i + 2, j)} / 2 (15)

図13(c)は、上記方向判定においてエッジの角があるまたはエッジがないと判定した場合を説明する図である。この場合、第1の画像信号生成部232は、図13(c)において太枠で示す注目位置(i,j)に対応する画素に縦横方向に隣接する画素の光電変換部13に対応する4つの位置(i−2,j)、(i+2,j)、(i,j−1)、(i,j+1)の出力信号(G成分の信号)を、次式(16)に示すように加重平均することにより、注目位置(i,j)のG成分の信号を求める。
G(i,j)={G(i-2,j)+G(i+2,j)+2*G(i,j-1)+2*G(i,j+1)}/6 ・・・(16)
FIG. 13C is a diagram illustrating a case where it is determined in the direction determination that there is an edge corner or no edge. In this case, the first image signal generation unit 232 corresponds to the photoelectric conversion unit 13 of the pixel adjacent in the vertical and horizontal directions to the pixel corresponding to the target position (i, j) indicated by the thick frame in FIG. The output signals (G component signals) at the two positions (i−2, j), (i + 2, j), (i, j−1), and (i, j + 1) are weighted as shown in the following equation (16). By averaging, the signal of the G component at the target position (i, j) is obtained.
G (i, j) = {G (i-2, j) + G (i + 2, j) + 2 * G (i, j-1) + 2 * G (i, j + 1)} / 6 ... (16)

式(16)では、注目位置と上記4つの位置との間の距離に応じて重み付け係数を変えている。横方向に隣接する画素の光電変換部13に対応する位置(i−2,j)、(i+2,j)よりも、縦方向に隣接する画素の光電変換部13に対応する位置(i,j−1)、(i,j+1)の方が注目位置(i,j)との距離が近いので、G(i−2,j)、G(i+2,j)よりもG(i,j−1)、(i,j+1)に乗算する重み付け係数を大きくしている。   In Expression (16), the weighting coefficient is changed according to the distance between the target position and the four positions. Positions (i, j) corresponding to the photoelectric conversion units 13 of the pixels adjacent in the vertical direction rather than positions (i-2, j), (i + 2, j) corresponding to the photoelectric conversion units 13 of the pixels adjacent in the horizontal direction. -1) and (i, j + 1) are closer to the target position (i, j), and therefore G (i, j-1) than G (i-2, j) and G (i + 2, j). ), (I, j + 1) is multiplied by a larger weighting coefficient.

第1の画像信号生成部232は、B成分の位置およびR成分の位置においてそれぞれ上述したようにG成分の信号を補間する処理を行うことで、非合焦領域に対応する各画素311の位置においてG成分の信号を得ることができる。   The first image signal generation unit 232 performs the process of interpolating the G component signal as described above at the B component position and the R component position, so that the position of each pixel 311 corresponding to the out-of-focus region is determined. In G, a signal of the G component can be obtained.

図14は、R成分の補間処理を説明する図である。図14(a)は、図12からR成分の信号を抽出した図である。第1の画像信号生成部232は、図12におけるB色成分およびG色成分の位置を順番に注目位置として、注目位置の周囲に位置する4つのR成分の信号を用いて注目位置におけるR成分の信号を補間処理によって生成する。R成分の信号の補間処理において、まず、第1の画像信号生成部232は、G成分の信号とR色成分の信号とに基づいて、図14(b)に示すように色差成分Crの信号を算出する。   FIG. 14 is a diagram for explaining R component interpolation processing. FIG. 14A is a diagram in which an R component signal is extracted from FIG. The first image signal generation unit 232 sets the positions of the B color component and the G color component in FIG. 12 as the target position in order, and uses the four R component signals positioned around the target position to use the R component at the target position. Are generated by interpolation processing. In the interpolation processing of the R component signal, first, the first image signal generation unit 232, based on the G component signal and the R color component signal, outputs a color difference component Cr signal as shown in FIG. Is calculated.

そして、第1の画像信号生成部232は、図14(b)の太枠で示す注目位置(i+2,j+1)に対応する画素に斜め方向に隣接する画素の光電変換部13に対応する4つの位置(i,j)、(i,j+2)、(i+4,j)、(i+4,j+2)の色差成分Crの信号に基づき、次式(17)により、注目位置(i+2,j+1)における色差成分Crの信号を算出する。
Cr(i+2,j+1)={Cr(i,j)+Cr(i,j+2)+Cr(i+4,j)+Cr(i+4,j+2)}/4 ・・・(17)
Then, the first image signal generation unit 232 has four pixels corresponding to the photoelectric conversion units 13 of the pixels diagonally adjacent to the pixel corresponding to the target position (i + 2, j + 1) indicated by the thick frame in FIG. Based on the signal of the color difference component Cr at the positions (i, j), (i, j + 2), (i + 4, j), (i + 4, j + 2), the color difference component at the target position (i + 2, j + 1) according to the following equation (17) The Cr signal is calculated.
Cr (i + 2, j + 1) = {Cr (i, j) + Cr (i, j + 2) + Cr (i + 4, j) + Cr (i + 4, j + 2)} / 4 ... (17)

また、第1の画像信号生成部232は、図14(c)の太枠で示す注目位置(i+2,j+2)に対応する画素に縦横方向に隣接する画素の光電変換部13に対応する4つの位置(i+2,j+1)、(i,j+2)、(i+2,j+3)、(i+4,j+2)の色差成分Crの信号に基づき、次式(18)により、注目位置(i+2,j+2)における色差成分Crの信号を算出する。
Cr(i+2,j+2)={Cr(i+2,j+1)+Cr(i,j+2)+Cr(i+2,j+3)+Cr(i+4,J+2)}/4 ・・・(18)
Further, the first image signal generation unit 232 includes four pixels corresponding to the photoelectric conversion units 13 of the pixels adjacent in the vertical and horizontal directions to the pixel corresponding to the target position (i + 2, j + 2) indicated by the thick frame in FIG. Based on the signal of the color difference component Cr at the positions (i + 2, j + 1), (i, j + 2), (i + 2, j + 3), (i + 4, j + 2), the color difference component at the target position (i + 2, j + 2) according to the following equation (18) The Cr signal is calculated.
Cr (i + 2, j + 2) = {Cr (i + 2, j + 1) + Cr (i, j + 2) + Cr (i + 2, j + 3) + Cr (i + 4, J + 2 )} / 4 (18)

第1の画像信号生成部232は、このようにして各画素311の位置において色差成分Crの信号を得たのち、各画素311の位置に対応させてG成分の信号を加算することにより、各画素311の位置においてR成分の信号を得ることができる。   The first image signal generation unit 232 obtains the color difference component Cr signal at the position of each pixel 311 in this way, and then adds the G component signal corresponding to the position of each pixel 311, thereby An R component signal can be obtained at the position of the pixel 311.

また、第1の画像信号生成部232は、図12におけるR色成分およびG色成分の位置を順番に注目位置として、注目位置の周囲に位置する4つのB成分の信号を用いて注目位置におけるB成分の信号を補間処理によって生成する。B成分の信号の補間処理は、各画素311の位置において、色差Cbの信号を得たのち、G成分の信号を加算することにより行う。これは、R成分の信号の補間処理と同様に行えばよいので、詳細な説明は省略する。   In addition, the first image signal generation unit 232 sets the positions of the R color component and the G color component in FIG. 12 as the target position in order, and uses the signals of the four B components positioned around the target position at the target position. A B component signal is generated by interpolation processing. The interpolation processing of the B component signal is performed by obtaining the color difference Cb signal at the position of each pixel 311 and then adding the G component signal. Since this may be performed in the same manner as the interpolation processing of the R component signal, detailed description thereof is omitted.

このようにして、第1の画像信号生成部232は、非合焦領域に対応する画素311についても、RGB成分の画像信号を得ることができる。   In this way, the first image signal generation unit 232 can obtain an RGB component image signal for the pixel 311 corresponding to the out-of-focus region.

以上のように、第1の画像信号生成部232は、略合焦領域に対応する画素311については、光電変換部13、14の出力信号を加算した加算信号に基づき画像信号を生成し、非合焦領域に対応する画素311については、光電変換部13、14のいずれか一方の出力信号に基づき画像信号を生成する。   As described above, the first image signal generation unit 232 generates an image signal based on the addition signal obtained by adding the output signals of the photoelectric conversion units 13 and 14 for the pixel 311 corresponding to the substantially in-focus area. For the pixel 311 corresponding to the in-focus area, an image signal is generated based on the output signal of one of the photoelectric conversion units 13 and 14.

<ケラレの判定>
上述では、非合焦領域に対応する画素311において、光電変換部13の出力信号を用いて画像信号を生成する場合について説明したが、ケラレの状況に基づいて光電変換部13、14のいずれか一方を選択して画像信号を生成するようにしてもよい。
<Evaluation of vignetting>
In the above description, the case where the image signal is generated using the output signal of the photoelectric conversion unit 13 in the pixel 311 corresponding to the out-of-focus region has been described, but one of the photoelectric conversion units 13 and 14 is selected based on the vignetting situation. One may be selected to generate an image signal.

図15は、交換レンズ202の射出瞳の位置とケラレとの関係を説明する図である。撮像素子212上の画素エリア101、102には一対の測距瞳93、94を通過する光束により一対の像が形成され、当該一対の像に対応する信号を各画素エリア101、102に配置された画素311が出力することになる。一対の測距瞳93、94は、交換レンズ202の射出瞳90の測距瞳面に位置し、その測距瞳面は、交換レンズ202の予定結像面に配置されたマイクロレンズ10の前方の距離dの位置に設定されている。距離dは、標準として設定した交換レンズ202における射出瞳90からマイクロレンズ10までの距離であり、以下、標準距離と呼ぶ。なお、カメラボディ203には種々の交換レンズ202が装着可能であり、装着する交換レンズ202によっては射出瞳90がマイクロレンズ10から標準距離d以外の位置にある場合も想定される。   FIG. 15 is a diagram for explaining the relationship between the position of the exit pupil of the interchangeable lens 202 and vignetting. A pair of images is formed in the pixel areas 101 and 102 on the image sensor 212 by light beams passing through the pair of distance measuring pupils 93 and 94, and signals corresponding to the pair of images are arranged in the pixel areas 101 and 102. The pixel 311 is output. The pair of distance measurement pupils 93 and 94 is located on the distance measurement pupil plane of the exit pupil 90 of the interchangeable lens 202, and the distance measurement pupil plane is in front of the microlens 10 disposed on the planned imaging plane of the interchangeable lens 202. Is set at the position of the distance d. The distance d is a distance from the exit pupil 90 to the microlens 10 in the interchangeable lens 202 set as a standard, and is hereinafter referred to as a standard distance. Note that various interchangeable lenses 202 can be attached to the camera body 203, and the exit pupil 90 may be located at a position other than the standard distance d from the microlens 10 depending on the interchangeable lenses 202 to be attached.

測距瞳93を通る光束272と測距瞳94を通る光束273が、画素エリア101に一対の像を形成する。測距瞳93を通る光束282と測距瞳94を通る光束283が、画素エリア102に一対の像を形成する。交換レンズ202の射出瞳の位置が標準距離dの位置にある場合は、画素エリア101の光電変換部13、14が受光する光束272、273および画素エリア102の光電変換部13、14が受光する光束282、283は制限されない(すなわちケラレが生じない)。   A light beam 272 passing through the distance measuring pupil 93 and a light beam 273 passing through the distance measuring pupil 94 form a pair of images in the pixel area 101. A light beam 282 passing through the distance measuring pupil 93 and a light beam 283 passing through the distance measuring pupil 94 form a pair of images in the pixel area 102. When the position of the exit pupil of the interchangeable lens 202 is at the position of the standard distance d, the light beams 272 and 273 received by the photoelectric conversion units 13 and 14 in the pixel area 101 and the photoelectric conversion units 13 and 14 in the pixel area 102 receive light. The luminous fluxes 282 and 283 are not limited (that is, no vignetting occurs).

光軸91上にある画素エリア101に属する画素311については交換レンズ202の射出瞳の位置が標準距離d以外の位置にあっても、光電変換部13、14が受光する光束272、273は光軸91に対して対称に制限されるので、画像信号を生成する際、光電変換部13、14のどちらを選択してもよい。   For the pixels 311 belonging to the pixel area 101 on the optical axis 91, the light fluxes 272 and 273 received by the photoelectric conversion units 13 and 14 are light even if the exit pupil position of the interchangeable lens 202 is at a position other than the standard distance d. Since the image signal is generated symmetrically with respect to the axis 91, either of the photoelectric conversion units 13 and 14 may be selected.

一方、光軸91から離れた(撮影画面の周辺に位置する)画素エリア102に属する画素311については、交換レンズ202の射出瞳の位置によって光電変換部13、14が受光する光束282、283の制限のされ方が異なるので、より光束が制限されていない(ケラレが少ない、すなわち一様輝度における出力が大きい)方の光電変換部を選択して、画像信号を生成する。   On the other hand, for the pixel 311 belonging to the pixel area 102 away from the optical axis 91 (located in the periphery of the shooting screen), the light fluxes 282 and 283 received by the photoelectric conversion units 13 and 14 depending on the position of the exit pupil of the interchangeable lens 202. Since the method of restriction is different, a photoelectric conversion unit that is less restricted in luminous flux (with less vignetting, that is, with a higher output at uniform luminance) is selected to generate an image signal.

例えば交換レンズ202の射出瞳が標準距離dより短い距離d1の瞳面105にあった場合、光束283より光束282の方がケラレが少ないので、光束282を受光する光電変換部13を選択して画像信号を生成する。   For example, when the exit pupil of the interchangeable lens 202 is on the pupil plane 105 at a distance d1 shorter than the standard distance d, the light flux 282 has less vignetting than the light flux 283, so the photoelectric conversion unit 13 that receives the light flux 282 is selected. An image signal is generated.

また交換レンズ202の射出瞳が標準距離dより長い距離d2の瞳面110にあった場合、光束282より光束283の方がケラレが少ないので、光束283を受光する光電変換部14を選択して画像信号を生成する。   In addition, when the exit pupil of the interchangeable lens 202 is on the pupil plane 110 having a distance d2 longer than the standard distance d, the light beam 283 has less vignetting than the light beam 282. Therefore, the photoelectric conversion unit 14 that receives the light beam 283 is selected. An image signal is generated.

なお、画素エリア102と光軸91に対して反対側にある画素エリアに関しては、画素エリア102と一対の光束のケラレ方が逆になる。すなわち交換レンズ202の射出瞳が標準距離dより短い距離d1の瞳面105にあった場合は光電変換部14を選択し、交換レンズ202の射出瞳が標準距離dより長い距離d2の瞳面110にあった場合、光電変換部13を選択する。   Note that the vignetting of the pixel area 102 and the pair of light beams is reversed with respect to the pixel area 102 and the pixel area opposite to the optical axis 91. That is, when the exit pupil of the interchangeable lens 202 is on the pupil plane 105 having a distance d1 shorter than the standard distance d, the photoelectric conversion unit 14 is selected, and the exit plane of the interchangeable lens 202 having a distance d2 longer than the standard distance d is selected. If so, the photoelectric conversion unit 13 is selected.

このようにケラレ判定部237は、交換レンズ202の射出瞳の位置情報に基づき、非合焦領域に対応する画素311の位置において、ケラレの状況、すなわちケラレが一対の光束のどちらに多く生じるかを判定し、光電変換部13、14のうち、ケラレの少ない方の光束を受光する光電変換部を選択する。第1の画像信号生成部232は、非合焦領域に対応する画素311の位置において、ケラレ判定部237によって選択された光電変換部の出力信号に基づき画像信号を生成する。なお、光電変換部13、14が受光する一対の光束において、ケラレが同程度である場合、もしくは両方ともケラレが生じない場合には、光電変換部13、14のどちらを選択するようにしてもよい。   As described above, the vignetting determination unit 237, based on the position information of the exit pupil of the interchangeable lens 202, the vignetting situation, that is, in which of the pair of luminous fluxes more vignetting occurs at the position of the pixel 311 corresponding to the out-of-focus region. And the photoelectric conversion unit that receives the light flux with less vignetting among the photoelectric conversion units 13 and 14 is selected. The first image signal generation unit 232 generates an image signal based on the output signal of the photoelectric conversion unit selected by the vignetting determination unit 237 at the position of the pixel 311 corresponding to the out-of-focus region. In the case where the vignetting is the same in the pair of light beams received by the photoelectric conversion units 13 and 14, or when vignetting does not occur in both, the photoelectric conversion units 13 and 14 may be selected. Good.

また、交換レンズ202の射出瞳の位置情報は、交換レンズ202のレンズ駆動制御装置206から電気接点213を介して通信により取得すればよい。また、ケラレ判定部237は、交換レンズ202の射出瞳の位置情報に加え、交換レンズ202の絞り値(F値)の情報を用いて、上記ケラレの状況を判定してもよい。   Further, the position information of the exit pupil of the interchangeable lens 202 may be acquired by communication from the lens drive control device 206 of the interchangeable lens 202 via the electrical contact 213. Further, the vignetting determination unit 237 may determine the vignetting state using information on the aperture value (F value) of the interchangeable lens 202 in addition to the position information of the exit pupil of the interchangeable lens 202.

<画像の解析>
画像解析部234は、第1の画像信号生成部232により生成された画像信号に基づき、被写体画像の解析処理を行う。上述したように当該画像信号は、非合焦領域について光電変換部13、14のいずれか一方の出力信号を用いていることにより、非合焦領域についてもボケの少ない画像となるので、被写体画像の解析処理を精度よく行うことができる。
<Image analysis>
The image analysis unit 234 performs subject image analysis processing based on the image signal generated by the first image signal generation unit 232. As described above, the image signal becomes an image with less blur in the non-focused region by using the output signal of one of the photoelectric conversion units 13 and 14 for the non-focused region. Analysis processing can be performed with high accuracy.

画像解析部234は、被写体画像の解析処理として、たとえば、被写体画像からエッジを検出するエッジ検出処理、および被写体画像内の顔を認識する顔認識処理の少なくとも一方を行う。顔認識処理としては、たとえば、被写体画像内の顔を検出し、その顔が所定人物の顔であるか否かを識別する顔認証処理などを行う。顔認証処理では、被写体画像に含まれる顔の特徴量と、あらかじめカメラボディ203内の不図示の記憶部に登録されている登録ユーザーの顔の特徴量とを比較し、被写体画像に含まれる顔が登録ユーザーの顔であるか否かを識別する。エッジ検出処理および顔認識処理は、公知の技術であるため、詳細な説明は省略する。   The image analysis unit 234 performs, for example, at least one of an edge detection process for detecting an edge from the subject image and a face recognition process for recognizing a face in the subject image as the subject image analysis process. As the face recognition process, for example, a face authentication process for detecting a face in a subject image and identifying whether or not the face is a face of a predetermined person is performed. In the face authentication process, the feature amount of the face included in the subject image is compared with the feature amount of the registered user's face registered in advance in a storage unit (not shown) in the camera body 203, and the face included in the subject image. Is the face of a registered user. Since the edge detection process and the face recognition process are known techniques, a detailed description thereof will be omitted.

(スルー画像および記録用の画像信号の生成)
第2の画像信号生成部233は、撮影画面全体に対応する画素311について、光電変換部13の出力信号aと光電変換部14の出力信号bとを加算して平均した、(a+b)/2を、スルー画像または記録用の画像信号として生成する。この画像信号の生成処理は、上述した第1の画像信号生成部232において、略合焦領域に対応する画素の画像信号の生成処理と同様に行うため、詳細な説明を省略する。
(Generation of through image and image signal for recording)
The second image signal generation unit 233 adds and averages the output signal a of the photoelectric conversion unit 13 and the output signal b of the photoelectric conversion unit 14 for the pixels 311 corresponding to the entire shooting screen, and (a + b) / 2. Are generated as a through image or an image signal for recording. Since the image signal generation process is performed in the same manner as the image signal generation process of the pixel corresponding to the substantially in-focus area in the first image signal generation unit 232 described above, detailed description thereof is omitted.

表示制御部235は、第2の画像信号生成部233により生成された画像信号に基づき、液晶表示素子216にスルー画像を表示させる。また、不図示のシャッターボタンが全押し操作された場合は、記録制御部236は、第2の画像信号生成部233により生成された画像信号に基づき、メモリカード219に画像を記録する。   The display control unit 235 causes the liquid crystal display element 216 to display a through image based on the image signal generated by the second image signal generation unit 233. When a shutter button (not shown) is fully pressed, the recording control unit 236 records an image on the memory card 219 based on the image signal generated by the second image signal generation unit 233.

このようにスルー画像または記録用の画像を生成する際には、ボケを生かした画像とするため、解析用の画像と異なり、非合焦領域においても光電変換部13、14の出力信号を加算して画像信号を生成する。   In this way, when a through image or a recording image is generated, the output signal of the photoelectric conversion units 13 and 14 is added even in the out-of-focus region, unlike the analysis image, in order to obtain an image using blur. Thus, an image signal is generated.

上述した実施の形態によれば、次の作用効果が得られる。
(1)デジタルカメラ201において、撮像素子212には、マイクロレンズ10と交換レンズ202の瞳の一対の領域を通過した一対の光束をマイクロレンズ10を介してそれぞれ受光して一対の出力信号をそれぞれ生成する一対の光電変換部13、14を有する画素311が二次元状に配置される。焦点検出部230は、横方向に配置された複数の画素311から出力される一対の出力信号の列のズレ量を検出して、撮影画面上の種々の位置におけるデフォーカス量を検出する。区分部231は、デフォーカス量に基づき、前記撮影画面を略合焦領域と非合焦領域とに区分する。第1の画像信号生成部232は、略合焦領域の画素311については、光電変換部13の出力信号と光電変換部14の出力信号とを加算した加算信号によって画像信号を生成し、非合焦領域の画素311については、光電変換部13の出力信号と光電変換部14の出力信号とのいずれか一方の出力信号によって画像信号を生成する。このような構成により、非合焦領域においてもボケの少ない画像、すなわち撮影画面全体が鮮明な画像を取得することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) In the digital camera 201, the image sensor 212 receives a pair of light beams that have passed through a pair of regions of the pupils of the microlens 10 and the interchangeable lens 202 through the microlens 10 and receives a pair of output signals, respectively. Pixels 311 having a pair of generated photoelectric conversion units 13 and 14 are two-dimensionally arranged. The focus detection unit 230 detects a shift amount of a pair of output signals output from the plurality of pixels 311 arranged in the horizontal direction, and detects defocus amounts at various positions on the shooting screen. The sorting unit 231 classifies the photographing screen into a substantially focused area and a non-focused area based on the defocus amount. The first image signal generation unit 232 generates an image signal from the addition signal obtained by adding the output signal of the photoelectric conversion unit 13 and the output signal of the photoelectric conversion unit 14 for the pixel 311 in the substantially in-focus area. For the pixel 311 in the focal region, an image signal is generated by one of the output signal of the photoelectric conversion unit 13 and the output signal of the photoelectric conversion unit 14. With such a configuration, it is possible to acquire an image with less blur even in the out-of-focus region, that is, an image with a clear entire imaging screen.

(2)デジタルカメラ201において、第2の画像信号生成部233は、撮影画面全体の画素311について、光電変換部13の出力信号と光電変換部14の出力信号とを加算した加算信号によって画像信号を生成する。このような構成により、非合焦領域のボケを生かした画像を取得することができる。 (2) In the digital camera 201, the second image signal generation unit 233 uses the addition signal obtained by adding the output signal of the photoelectric conversion unit 13 and the output signal of the photoelectric conversion unit 14 for the pixels 311 of the entire shooting screen. Is generated. With such a configuration, it is possible to acquire an image that makes use of the blur in the out-of-focus area.

(3)デジタルカメラ201において、画像解析部234は、第1の画像信号生成部232により生成された画像信号に基づき、被写体画像の解析処理を行い、表示制御部235は、第2の画像信号生成部233により生成された画像信号に基づき、スルー画像を液晶表示素子216に表示させる。このような構成により、非合焦領域においてボケの少ない画像を用いて被写体画像の解析処理を行うので当該解析処理を精度よく行うことができ、スルー画像としては非合焦領域のボケを生かした画像を表示することができる。 (3) In the digital camera 201, the image analysis unit 234 performs subject image analysis processing based on the image signal generated by the first image signal generation unit 232, and the display control unit 235 performs the second image signal. Based on the image signal generated by the generation unit 233, the through image is displayed on the liquid crystal display element 216. With such a configuration, since the subject image is analyzed using an image with less blur in the out-of-focus area, the analysis process can be performed with high accuracy, and the blur of the out-of-focus area is used as a through image. An image can be displayed.

(4)デジタルカメラ201において、ケラレ判定部237は、交換レンズ202の瞳位置の情報に基づきケラレが一対の光束のどちらに多く生じるかを判定し、光電変換部13、14のうち、ケラレの少ない方の光束を受光する光電変換部を選択する。第1の画像信号生成部232は、非合焦領域の画素311について、ケラレ判定部237によって選択された光電変換部の出力信号によって画像信号を生成する。このような構成により、ケラレが少ない、すなわち一様輝度における出力が大きい方の光電変換部を用いて画像信号を生成することができる。 (4) In the digital camera 201, the vignetting determination unit 237 determines which of the pair of luminous fluxes causes vignetting based on the information on the pupil position of the interchangeable lens 202. A photoelectric conversion unit that receives the smaller luminous flux is selected. The first image signal generation unit 232 generates an image signal based on the output signal of the photoelectric conversion unit selected by the vignetting determination unit 237 for the pixel 311 in the out-of-focus region. With such a configuration, an image signal can be generated using a photoelectric conversion unit with less vignetting, that is, a larger output at uniform luminance.

(5)デジタルカメラ201において、第1の画像信号生成部232は、非合焦領域の画素311について、光電変換部13の出力信号によって画像信号を生成する場合には、周辺の画素311における光電変換部13の出力信号に基づき色補間処理を行い、光電変換部14の出力信号によって画像信号を生成する場合には、周辺の画素311における光電変換部14の出力信号に基づき色補間処理を行う。このような構成により、色補間処理を精度よく行うことができる。 (5) In the digital camera 201, when the first image signal generation unit 232 generates an image signal from the output signal of the photoelectric conversion unit 13 for the pixel 311 in the out-of-focus region, the first image signal generation unit 232 outputs the photoelectric signal in the peripheral pixel 311. When color interpolation processing is performed based on the output signal of the conversion unit 13 and an image signal is generated based on the output signal of the photoelectric conversion unit 14, color interpolation processing is performed based on the output signal of the photoelectric conversion unit 14 in the surrounding pixels 311. . With such a configuration, color interpolation processing can be performed with high accuracy.

(6)デジタルカメラ201は、撮像素子212と、第1の画像信号生成部232とを有する。撮像素子212には、交換レンズ202の射出瞳90の一対の測距瞳93および94を通過した一対の光束である第1および第2の光束73、74をそれぞれ受光して第1の出力信号を生成する第1の光電変換部13と第2の出力信号を生成する第2の光電変換部14とを有する画素が複数配置される。第1の画像信号生成部232は、第1の出力信号により、画像信号生成に用いられる画素311の信号を生成する。このような構成により、ボケの少ない鮮明な画像を取得することができる。 (6) The digital camera 201 includes an image sensor 212 and a first image signal generation unit 232. The image sensor 212 receives the first and second light beams 73 and 74, which are a pair of light beams that have passed through the pair of distance measuring pupils 93 and 94 of the exit pupil 90 of the interchangeable lens 202, respectively. A plurality of pixels having a first photoelectric conversion unit 13 that generates the second photoelectric conversion unit 14 and a second photoelectric conversion unit 14 that generates the second output signal are arranged. The first image signal generation unit 232 generates a signal of the pixel 311 used for image signal generation based on the first output signal. With such a configuration, a clear image with less blur can be acquired.

(7)デジタルカメラ201は、撮像素子212と、第1の画像信号生成部232とを有する。撮像素子212は、第1の画素311とその周辺の第2の画素311とをそれぞれ複数有する。第1の画素311は、交換レンズ202の射出瞳90の一対の測距瞳93および94を通過した一対の光束である第1および第2の光束をそれぞれ受光して第1の色成分の第1の信号及び第2の信号をそれぞれ生成する第1の光電変換部13及び第2の光電変換部14を有する。第2の画素311は、交換レンズ202の射出瞳90の一対の測距瞳93および94を通過した一対の光束である第1および第2の光束をそれぞれ受光して第2の色成分の第3の信号及び第4の信号をそれぞれ生成する第3の光電変換部13及び第4の光電変換部14を有する。第1の画像信号生成部232は、略合焦領域では、第3の信号と第4の信号とを加算して生成した画像信号により、第1の画素311の位置における第2の色成分の信号を補間する。第1の画像信号生成部232は、非合焦領域では、第3の信号により、第1の画素311の位置における第2の色成分の信号を補間する。このような構成により、色補間処理を使い分けることができる。また、ボケを生かした画像とボケの少ない画像とを適宜作成することができる。 (7) The digital camera 201 includes an image sensor 212 and a first image signal generation unit 232. The image sensor 212 includes a plurality of first pixels 311 and a plurality of second pixels 311 around it. The first pixel 311 receives the first and second light beams, which are a pair of light beams that have passed through the pair of distance measuring pupils 93 and 94 of the exit pupil 90 of the interchangeable lens 202, respectively. The first photoelectric conversion unit 13 and the second photoelectric conversion unit 14 generate the first signal and the second signal, respectively. The second pixel 311 receives the first and second light fluxes, which are a pair of light fluxes that have passed through the pair of distance measuring pupils 93 and 94 of the exit pupil 90 of the interchangeable lens 202, and receives the second color component first. The third photoelectric conversion unit 13 and the fourth photoelectric conversion unit 14 generate the third signal and the fourth signal, respectively. In the substantially in-focus region, the first image signal generation unit 232 uses the image signal generated by adding the third signal and the fourth signal to generate the second color component at the position of the first pixel 311. Interpolate the signal. In the out-of-focus region, the first image signal generation unit 232 interpolates the signal of the second color component at the position of the first pixel 311 with the third signal. With such a configuration, color interpolation processing can be used properly. In addition, an image using blur and an image with less blur can be appropriately created.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
ボディ駆動制御装置214は、第1の画像信号生成部232を、スルー画像または記録用画像生成のための画像信号の生成部としても用いることができる。この場合、スルー画像または記録用の画像は、非合焦領域においてもボケの少ない画像となる。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
The body drive control device 214 can also use the first image signal generation unit 232 as an image signal generation unit for generating a through image or a recording image. In this case, the through image or the recording image is an image with less blur even in the out-of-focus region.

その場合、ボディ駆動制御装置214は、第1の画像信号生成部232により画像を生成するモードと第2の画像信号生成部233により画像を生成するモードとをたとえばユーザー操作に応じて切り替えることによって、好適なスルー画像または記録用の画像を生成してもよい。これにより、非合焦領域においてもボケの少ない画像を撮影するか、ボケを生かした画像を撮影するかをユーザーの所望に応じて選択することができる。   In this case, the body drive control device 214 switches between a mode in which an image is generated by the first image signal generation unit 232 and a mode in which an image is generated by the second image signal generation unit 233 according to a user operation, for example. A suitable through image or recording image may be generated. Accordingly, it is possible to select whether to shoot an image with little blur or to shoot an image taking advantage of blur even in the out-of-focus region, as desired by the user.

また、ボディ駆動制御装置214は、第1の画像信号生成部232により生成された画像信号により生成された画像信号を用いたスルー画像または記録用の画像を生成するとともに、第2の画像信号生成部233により生成された画像信号を用いたスルー画像または記録用の画像を生成することにより、2種類の画像を生成してもよい。これにより、1回の撮影において、2種類の画像、すなわち非合焦領域においてもボケの少ない画像とボケを生かした画像との両方を取得することができる。ユーザーは、これら2種類の画像を、所望に応じて適宜利用することができる。   In addition, the body drive control device 214 generates a through image or a recording image using the image signal generated by the image signal generated by the first image signal generation unit 232, and generates the second image signal. Two types of images may be generated by generating a through image or a recording image using the image signal generated by the unit 233. Thereby, in one shooting, two types of images, that is, both an image with little blur and an image using blur can be acquired even in the out-of-focus region. The user can appropriately use these two types of images as desired.

(変形例2)
第1の画像信号生成部232は、略合焦領域に対応する画素311及び非合焦領域に対応する画素311の両方について、光電変換部13の出力信号および光電変換部14の出力信号のいずれか一方の出力信号に基づき画像信号を生成することとしてもよい。光電変換部13、14の出力信号は、各画素位置に対応して、ベイヤー配列の規則にしたがってR、G、Bのいずれかの色成分を有し、配置された色フィルタの色成分と異なる色成分の信号が不足する。そのため、第1の画像信号生成部232は、光電変換部13の出力信号を画像信号とするときは、周辺の画素311の光電変換部13の出力信号を用いて不足する色成分の信号を生成し、光電変換部14の出力信号を画像信号とするときは、周辺の画素311の光電変換部14の出力信号を用いて不足する色成分の信号を生成する色補間処理を行う。
(Modification 2)
The first image signal generation unit 232 outputs either the output signal of the photoelectric conversion unit 13 or the output signal of the photoelectric conversion unit 14 for both the pixel 311 corresponding to the substantially in-focus area and the pixel 311 corresponding to the out-of-focus area. An image signal may be generated based on one of the output signals. The output signals of the photoelectric conversion units 13 and 14 have color components of R, G, and B according to the rules of the Bayer arrangement corresponding to each pixel position, and are different from the color components of the arranged color filters. The color component signal is insufficient. Therefore, when the output signal of the photoelectric conversion unit 13 is used as an image signal, the first image signal generation unit 232 generates a signal of an insufficient color component using the output signal of the photoelectric conversion unit 13 of the peripheral pixel 311. When the output signal of the photoelectric conversion unit 14 is used as an image signal, color interpolation processing is performed to generate a signal of an insufficient color component using the output signal of the photoelectric conversion unit 14 of the surrounding pixels 311.

こうした第1の画像信号生成部232による画像信号生成処理と色補間処理とに基づき、解析用の画像信号が生成される。さらに、こうした第1の画像信号生成部232による画像信号生成処理と色補間処理とに基づき、スルー画像および記録用の画像信号が生成されることとしてもよい。この場合、スルー画像または記録用の画像は、非合焦領域においてもボケの少ない画像となる。   Based on the image signal generation processing and the color interpolation processing by the first image signal generation unit 232, an image signal for analysis is generated. Furthermore, a through image and a recording image signal may be generated based on the image signal generation process and the color interpolation process performed by the first image signal generation unit 232. In this case, the through image or the recording image is an image with less blur even in the out-of-focus region.

(変形例3)
撮影画面を略合焦領域と非合焦領域とに区分する区分部231を設けないこととしてもよい。この場合において、第1の画像信号生成部232は、撮影画面内の領域に対応する画素311の光電変換部13、14の出力信号を加算して画像信号を生成する。その際、第1の画像信号生成部232は、周辺の画素311の光電変換部13、14の出力信号を加算して不足する色成分の信号を生成する第1の補間処理を行う。こうして第1の画像信号生成部232により生成された画像信号は、解析用の画像信号として用いてもよいし、スルー画像および記録用の画像信号として用いてもよい。
(Modification 3)
It is good also as not providing the division part 231 which divides a photography screen into a substantially focused area | region and a non-focused area | region. In this case, the first image signal generation unit 232 adds the output signals of the photoelectric conversion units 13 and 14 of the pixel 311 corresponding to the area in the shooting screen to generate an image signal. At that time, the first image signal generation unit 232 performs a first interpolation process for adding the output signals of the photoelectric conversion units 13 and 14 of the peripheral pixels 311 to generate a signal of a missing color component. The image signal thus generated by the first image signal generation unit 232 may be used as an image signal for analysis, or may be used as a through image and an image signal for recording.

第2の画像信号生成部233は、撮影画面内の領域に対応する画素311の光電変換部13の出力信号および光電変換部14の出力信号のいずれか一方の出力信号に基づき画像信号を生成する。その際、第2の画像信号生成部233は、光電変換部13の出力信号を画像信号とするときは、周辺の画素311の光電変換部13の出力信号を用いて不足する色成分の信号を生成し、光電変換部14の出力信号を画像信号とするときは、周辺の画素311の光電変換部14の出力信号を用いて不足する色成分の信号を生成する第2の補間処理を行う。こうして第2の画像信号生成部233により生成された画像信号は、解析用の画像信号として用いてもよいし、スルー画像および記録用の画像信号として用いてもよい。   The second image signal generation unit 233 generates an image signal based on either one of the output signal of the photoelectric conversion unit 13 and the output signal of the photoelectric conversion unit 14 of the pixel 311 corresponding to the region in the shooting screen. . At that time, when the second image signal generation unit 233 uses the output signal of the photoelectric conversion unit 13 as an image signal, the output signal of the photoelectric conversion unit 13 of the peripheral pixel 311 is used to output the signal of the insufficient color component. When generating and using the output signal of the photoelectric conversion unit 14 as an image signal, a second interpolation process for generating a signal of an insufficient color component is performed using the output signal of the photoelectric conversion unit 14 of the peripheral pixel 311. The image signal generated by the second image signal generation unit 233 in this manner may be used as an image signal for analysis, or may be used as a through image and an image signal for recording.

(変形例4)
色補間処理の方法は、上述した例に限らない。たとえば、図13(c)に示したG成分の補間処理において、注目位置に対応する画素に縦横方向に隣接する画素の光電変換部13に対応する4つの位置の出力信号(G成分の信号)を単純平均することで、注目位置におけるG成分の信号を求めるようにしてもよい。
(Modification 4)
The color interpolation processing method is not limited to the above-described example. For example, in the G component interpolation processing shown in FIG. 13C, output signals (G component signals) at four positions corresponding to the photoelectric conversion units 13 of pixels adjacent in the vertical and horizontal directions to the pixel corresponding to the target position. The G component signal at the target position may be obtained by simple averaging.

また、たとえば、G成分の補間処理において、横方向または縦方向にエッジがあると判定された場合も、注目位置に対応する画素に縦横方向に隣接する4つの画素の出力信号を加重平均することにより、注目位置のG成分の信号を求めるようにしてもよい。この場合、横方向にエッジがあると判定された場合は、縦方向に隣接する2つの画素の出力信号に乗算する重みづけ係数を大きくし、横方向に隣接する2つの画素の出力信号に乗算する重みづけ係数を小さくする。一方、縦方向にエッジがあると判定された場合は、横方向に隣接する2つの画素の出力信号に乗算する重みづけ係数を大きくし、縦方向に隣接する2つの画素の出力信号に乗算する重みづけ係数を小さくする。   Further, for example, in the G component interpolation processing, even when it is determined that there is an edge in the horizontal direction or the vertical direction, the weighted average of the output signals of four pixels adjacent in the vertical and horizontal directions to the pixel corresponding to the target position is performed. Thus, the G component signal at the target position may be obtained. In this case, when it is determined that there is an edge in the horizontal direction, the weighting coefficient for multiplying the output signals of two pixels adjacent in the vertical direction is increased, and the output signals of two pixels adjacent in the horizontal direction are multiplied. Reduce the weighting factor. On the other hand, when it is determined that there is an edge in the vertical direction, the weighting coefficient for multiplying the output signals of the two pixels adjacent in the horizontal direction is increased, and the output signal of the two pixels adjacent in the vertical direction is multiplied. Reduce the weighting factor.

(変形例5)
上述した実施の形態では、画素311の例として、1画素当たり2つの光電変換部を有する2PD構成を例に説明したが、複数の光電変換部の数は2つに限らず、4PDでも16PDでも構わない。
(Modification 5)
In the embodiment described above, a 2PD configuration having two photoelectric conversion units per pixel has been described as an example of the pixel 311. However, the number of the plurality of photoelectric conversion units is not limited to two, and may be 4PD or 16PD. I do not care.

(変形例6)
上述した実施の形態では、撮像素子212の例として、撮像面の全域に焦点検出用の画素(一対の光電変換部を有する画素)が設けられる例について説明した。しかしながら、撮像素子212において、焦点検出エリアに対応する位置にのみ焦点検出用の画素が配置され、その他の位置には通常の画素(1つの光電変換部を有する画素)が配置されていてもよい。
(Modification 6)
In the above-described embodiment, an example in which pixels for focus detection (pixels having a pair of photoelectric conversion units) are provided over the entire imaging surface as an example of the imaging element 212 has been described. However, in the image sensor 212, focus detection pixels may be arranged only at positions corresponding to the focus detection area, and normal pixels (pixels having one photoelectric conversion unit) may be arranged at other positions. .

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

10…マイクロレンズ、13、14…光電変換部、201…デジタルカメラ、202…交換レンズ、203…カメラボディ、212…撮像素子、214…ボディ駆動制御装置、216…液晶表示素子、219…メモリカード、230…焦点検出部、231…区分部、232…第1の画像信号生成部、233…第2の画像信号生成部、234…画像解析部、235…表示制御部、236…記録制御部、237…ケラレ判定部、311…画素 DESCRIPTION OF SYMBOLS 10 ... Micro lens, 13, 14 ... Photoelectric conversion part, 201 ... Digital camera, 202 ... Interchangeable lens, 203 ... Camera body, 212 ... Image sensor, 214 ... Body drive control apparatus, 216 ... Liquid crystal display element, 219 ... Memory card , 230: Focus detection unit, 231 ... Classification unit, 232 ... First image signal generation unit, 233 ... Second image signal generation unit, 234 ... Image analysis unit, 235 ... Display control unit, 236 ... Recording control unit, 237 ... vignetting determination unit, 311 ... pixel

Claims (12)

撮影光学系を通過する第1の光束を受光して第1の信号を生成する第1の光電変換部と、前記撮影光学系を通過する第2の光束を受光して第2の信号を生成する第2の光電変換部と、を有する画素が複数配置される撮像素子と、
前記第1の信号により、画像信号生成に用いられる前記画素の信号を生成する信号生成部と、
を備える撮像装置。
A first photoelectric conversion unit that receives a first light flux that passes through the photographing optical system and generates a first signal; and a second photoelectric converter that receives the second light flux that passes through the photographing optical system and generates a second signal An image sensor in which a plurality of pixels having a second photoelectric conversion unit is disposed;
A signal generation unit configured to generate a signal of the pixel used for generating an image signal by the first signal;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記信号生成部は、複数の前記画素のうちの一部の画素について、前記第1の信号により、前記画像信号生成に用いられる前記画素の信号を生成する撮像装置。
The imaging device according to claim 1,
The signal generation unit is an imaging device that generates a signal of the pixel used for generating the image signal, based on the first signal, for a part of the plurality of pixels.
請求項2に記載の撮像装置において、
撮影画面内において、デフォーカス量が予め定められた閾値よりも大きい非合焦領域を、デフォーカス量に基づき区別する区分部をさらに備え、
前記一部の画素は、非合焦領域の画素である撮像装置。
The imaging device according to claim 2,
In the shooting screen, further comprising a classification unit for distinguishing a non-focused area where the defocus amount is larger than a predetermined threshold based on the defocus amount,
The imaging device, wherein the some pixels are pixels in an out-of-focus area.
請求項3に記載の撮像装置において、
前記一部の画素は、第1の色成分に対応する第1の画素と、第2の色成分に対応する第2の画素とを含み、
前記第1の画素が有する前記第1の光電変換部及び前記第2の光電変換部は、前記第1の色成分の前記第1の信号及び前記第1の色成分の前記第2の信号をそれぞれ生成し、
前記第2の画素が有する前記第1の光電変換部及び前記第2の光電変換部は、前記第2の色成分の前記第1の信号及び前記第2の色成分の前記第2の信号をそれぞれ生成し、
前記信号生成部は、前記第1の色成分の前記第1の信号により前記第2の色成分の前記第1の信号を補間する撮像装置。
The imaging device according to claim 3.
The some pixels include a first pixel corresponding to a first color component and a second pixel corresponding to a second color component,
The first photoelectric conversion unit and the second photoelectric conversion unit included in the first pixel receive the first signal of the first color component and the second signal of the first color component. Generate each
The first photoelectric conversion unit and the second photoelectric conversion unit included in the second pixel receive the first signal of the second color component and the second signal of the second color component. Generate each
The image generation device that interpolates the first signal of the second color component by the first signal of the first color component.
撮影光学系を通過した第1及び第2の光束を受光して第1及び第2の信号をそれぞれ生成する画素が配置される撮像素子と、
予め定められた方向に配置された複数の前記画素から出力される複数の前記第1の信号及び複数の前記第2の信号のズレ量を検出して、撮影画面上の種々の位置におけるデフォーカス量を検出する焦点検出部と、
前記デフォーカス量に基づき、前記撮影画面を合焦領域と非合焦領域とに区分する区分部と、
前記合焦領域の前記画素については前記第1の信号と前記第2の信号とを加算した画像信号を生成し、前記非合焦領域の前記画素については前記第1の信号と前記第2の信号との一方の信号により画像信号を生成する第1の画像信号生成部と、
を備える撮像装置。
An image sensor in which pixels that receive the first and second light fluxes that have passed through the photographing optical system and generate the first and second signals are disposed;
Defocusing at various positions on the photographing screen by detecting deviation amounts of the plurality of first signals and the plurality of second signals output from the plurality of pixels arranged in a predetermined direction. A focus detection unit for detecting the amount;
Based on the defocus amount, a section that divides the shooting screen into a focus area and a non-focus area;
An image signal obtained by adding the first signal and the second signal is generated for the pixel in the in-focus region, and the first signal and the second signal are generated for the pixel in the non-focus region. A first image signal generation unit that generates an image signal from one of the signals,
An imaging apparatus comprising:
請求項5に記載の撮像装置において、
前記撮影画面全体の前記画素について、前記第1の信号と前記第2の信号とを加算した加算信号によって画像信号を生成する第2の画像信号生成部を更に備える撮像装置。
The imaging apparatus according to claim 5,
An imaging apparatus, further comprising: a second image signal generation unit configured to generate an image signal by using an addition signal obtained by adding the first signal and the second signal for the pixels of the entire photographing screen.
請求項6に記載の撮像装置において、
前記第1の画像信号生成部により生成された画像信号に基づき、被写体画像の解析処理を行う画像解析部と、
前記第2の画像信号生成部により生成された画像信号に基づき、スルー画像を表示部に表示させる表示制御部と、
を更に備える撮像装置。
The imaging device according to claim 6,
An image analysis unit that performs subject image analysis processing based on the image signal generated by the first image signal generation unit;
A display control unit that displays a through image on the display unit based on the image signal generated by the second image signal generation unit;
An imaging apparatus further comprising:
請求項7に記載の撮像装置において、
前記解析処理は、前記被写体画像からエッジを検出するエッジ検出処理および前記被写体画像内の顔を認識する顔認識処理の少なくとも一方である、撮像装置。
The imaging apparatus according to claim 7,
The imaging apparatus, wherein the analysis process is at least one of an edge detection process for detecting an edge from the subject image and a face recognition process for recognizing a face in the subject image.
請求項5〜8のいずれか一項に記載の撮像装置において、
前記画素は、マイクロレンズと前記撮影光学系を通過した前記第1及び第2の光束を前記マイクロレンズを介して受光して前記第1及び第2の信号をそれぞれ生成する第1及び第2の光電変換部を有し、
前記撮像装置は、前記撮影光学系の瞳位置の情報に基づきケラレが前記第1及び第2の光束のどちらに多く生じるかを判定し、前記第1及び第2の光電変換部のうち、前記ケラレの少ない方の光束を受光する光電変換部を選択するケラレ判定部をさらに備え、
前記第1の画像信号生成部は、前記非合焦領域の前記画素について、前記ケラレ判定部によって選択された光電変換部の信号によって画像信号を生成する、撮像装置。
In the imaging device according to any one of claims 5 to 8,
The pixel receives the first and second light fluxes that have passed through the microlens and the photographing optical system via the microlens and generates the first and second signals, respectively. Having a photoelectric conversion part,
The imaging device determines whether vignetting occurs more frequently in the first and second light fluxes based on information on a pupil position of the photographing optical system, and the first and second photoelectric conversion units include the first and second photoelectric conversion units. A vignetting determination unit that selects a photoelectric conversion unit that receives a light beam with less vignetting;
The imaging device, wherein the first image signal generation unit generates an image signal with respect to the pixels in the out-of-focus region based on a signal of a photoelectric conversion unit selected by the vignetting determination unit.
請求項5〜9のいずれか一項に記載の撮像装置において、
前記画素は、前記第1及び第2の光束の第1の色成分に関する分光感度特性を有する第1の画素と、前記第1及び第2の光束の前記第1の色成分と異なる第2の色成分に関する分光感度特性を有する第2の画素と、を含み、
前記第1の画像信号生成部は、前記第1の画素については、前記第2の色成分の画像信号を周辺の前記第2の画素の信号に基づき補間処理により生成し、前記第2の画素については、前記第1の色成分の画像信号を周辺の前記第1の画素の信号に基づき補間処理により生成し、
前記第1の画像信号生成部は、前記非合焦領域の前記画素について、前記第1の信号によって画像信号を生成する場合には、周辺の前記画素における前記第1の信号に基づき前記補間処理を行い、前記第2の信号によって画像信号を生成する場合には、周辺の前記画素における前記第2の信号に基づき前記補間処理を行う、撮像装置。
In the imaging device according to any one of claims 5 to 9,
The pixel includes a first pixel having spectral sensitivity characteristics related to a first color component of the first and second light fluxes, and a second different from the first color component of the first and second light fluxes. A second pixel having a spectral sensitivity characteristic with respect to a color component,
For the first pixel, the first image signal generation unit generates an image signal of the second color component based on a signal of the second pixel in the vicinity, and generates the second pixel. For, the image signal of the first color component is generated by interpolation processing based on the signal of the first pixel in the vicinity,
When the first image signal generation unit generates an image signal based on the first signal for the pixel in the out-of-focus region, the interpolation processing is performed based on the first signal in the surrounding pixels. When the image signal is generated by the second signal, the interpolation apparatus performs the interpolation processing based on the second signal in the surrounding pixels.
請求項10に記載の撮像装置において、
前記画素は、マイクロレンズと前記撮影光学系を通過した前記第1及び第2の信号を前記マイクロレンズを介して受光して前記第1及び第2の信号をそれぞれ生成する第1及び第2の光電変換部を有し、
前記第1の画像信号生成部は、前記非合焦領域の前記画素について、前記第1及び第2の光電変換部の並び方向に配置される画素の信号と、前記並び方向の直交方向に配置される画素の信号とに基づき前記補間処理を行う際、前記並び方向に配置される画素の信号に比べて前記直交方向に配置される画素の信号に乗算する重み付け係数を大きくする、撮像装置。
The imaging device according to claim 10.
The pixel receives the first and second signals that have passed through the microlens and the imaging optical system via the microlens and generates the first and second signals, respectively. Having a photoelectric conversion part,
The first image signal generation unit is arranged in a direction orthogonal to the arrangement direction of the pixel signals arranged in the arrangement direction of the first and second photoelectric conversion units for the pixels in the out-of-focus region. An image pickup apparatus that, when performing the interpolation processing based on a pixel signal, increases a weighting coefficient for multiplying a signal of a pixel arranged in the orthogonal direction as compared to a signal of a pixel arranged in the arrangement direction.
撮影光学系を通過する第1及び第2の光束をそれぞれ受光して第1の色成分の第1の信号及び第2の信号をそれぞれ生成する第1の光電変換部及び第2の光電変換部を有する第1の画素と、前記撮影光学系を通過する前記第1及び第2の光束をそれぞれ受光して第2の色成分の第3の信号及び第4の信号をそれぞれ生成する第3の光電変換部及び第4の光電変換部を有する第2の画素と、をそれぞれ複数有する撮像素子と、
前記第3の信号と前記第4の信号とを加算した信号により、前記第1の画素の位置における前記第2の色成分の信号を補間する第1の補間処理部と、
前記第3の信号により、前記第1の画素の位置における前記第2の色成分の信号を補間する第2の補間処理部と、
を備える撮像装置。
A first photoelectric conversion unit and a second photoelectric conversion unit that receive the first and second light fluxes passing through the imaging optical system, respectively, and generate the first signal and the second signal of the first color component, respectively. And a third pixel that receives the first and second light fluxes passing through the photographing optical system and generates a third signal and a fourth signal of the second color component, respectively. An image sensor having a plurality of second pixels each having a photoelectric conversion unit and a fourth photoelectric conversion unit;
A first interpolation processing unit that interpolates the signal of the second color component at the position of the first pixel by a signal obtained by adding the third signal and the fourth signal;
A second interpolation processing unit for interpolating the signal of the second color component at the position of the first pixel by the third signal;
An imaging apparatus comprising:
JP2016236096A 2015-12-04 2016-12-05 Imaging device Active JP6891470B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021089424A JP7235068B2 (en) 2015-12-04 2021-05-27 Imaging device
JP2023025815A JP7501696B2 (en) 2015-12-04 2023-02-22 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015237632 2015-12-04
JP2015237632 2015-12-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021089424A Division JP7235068B2 (en) 2015-12-04 2021-05-27 Imaging device

Publications (2)

Publication Number Publication Date
JP2017108404A true JP2017108404A (en) 2017-06-15
JP6891470B2 JP6891470B2 (en) 2021-06-18

Family

ID=59060965

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016236096A Active JP6891470B2 (en) 2015-12-04 2016-12-05 Imaging device
JP2021089424A Active JP7235068B2 (en) 2015-12-04 2021-05-27 Imaging device
JP2023025815A Active JP7501696B2 (en) 2015-12-04 2023-02-22 Imaging device

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021089424A Active JP7235068B2 (en) 2015-12-04 2021-05-27 Imaging device
JP2023025815A Active JP7501696B2 (en) 2015-12-04 2023-02-22 Imaging device

Country Status (1)

Country Link
JP (3) JP6891470B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330769A (en) * 2000-05-24 2001-11-30 Canon Inc Image pickup device and its control method
WO2013147199A1 (en) * 2012-03-30 2013-10-03 株式会社ニコン Image sensor, imaging method, and imaging device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4812541B2 (en) 2006-02-21 2011-11-09 京セラ株式会社 Imaging device
JP5066851B2 (en) 2006-07-05 2012-11-07 株式会社ニコン Imaging device
JP5289105B2 (en) 2009-03-05 2013-09-11 キヤノン株式会社 Image processing apparatus, control method therefor, and imaging apparatus
JP5421829B2 (en) 2010-03-18 2014-02-19 富士フイルム株式会社 Imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330769A (en) * 2000-05-24 2001-11-30 Canon Inc Image pickup device and its control method
WO2013147199A1 (en) * 2012-03-30 2013-10-03 株式会社ニコン Image sensor, imaging method, and imaging device

Also Published As

Publication number Publication date
JP7501696B2 (en) 2024-06-18
JP2023075146A (en) 2023-05-30
JP7235068B2 (en) 2023-03-08
JP6891470B2 (en) 2021-06-18
JP2021145368A (en) 2021-09-24

Similar Documents

Publication Publication Date Title
JP4973273B2 (en) Digital camera
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
CN108462830B (en) Image pickup apparatus and control method of image pickup apparatus
JP5963606B2 (en) Imaging apparatus and control method thereof
US8902349B2 (en) Image pickup apparatus
JP2008268403A (en) Focus detection device, focus detection method, and imaging apparatus
JP5417827B2 (en) Focus detection apparatus and imaging apparatus
JP7264192B2 (en) Imaging element and imaging device
JP5423111B2 (en) Focus detection apparatus and imaging apparatus
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
JP5338112B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5407314B2 (en) Focus detection apparatus and imaging apparatus
JP7235068B2 (en) Imaging device
JP5338113B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5440585B2 (en) Digital camera
JP2009162845A (en) Imaging device, focus detecting device and imaging apparatus
JP5338119B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5949893B2 (en) Imaging device
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP4968009B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP4968010B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP2019074634A (en) Imaging apparatus
JP6714434B2 (en) Imaging device, control method thereof, program, and storage medium
JP2013149043A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201112

TRDD Decision of grant or rejection written
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6891470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250