JP2014013392A - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP2014013392A
JP2014013392A JP2013149929A JP2013149929A JP2014013392A JP 2014013392 A JP2014013392 A JP 2014013392A JP 2013149929 A JP2013149929 A JP 2013149929A JP 2013149929 A JP2013149929 A JP 2013149929A JP 2014013392 A JP2014013392 A JP 2014013392A
Authority
JP
Japan
Prior art keywords
pixel
pixels
focus detection
image
row
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013149929A
Other languages
Japanese (ja)
Inventor
Takashi Ichinomiya
敬 一宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013149929A priority Critical patent/JP2014013392A/en
Publication of JP2014013392A publication Critical patent/JP2014013392A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to avoid degradation in the function of a pixel even when the pixel has a defect in the case where the pixel of a part of the imaging area of an imager is used as a purpose other than imaging.SOLUTION: An imaging apparatus comprises: an imager including a plurality of pixels two-dimensionally arranged, the imager having a plurality of pixels that receive a luminous flux passed through areas into which the exit pupil of a photographing optical system is divided, and configured such that a first pixel group and a second pixel group are formed in a pair; and focus detection means configure to perform a correlation calculation for an image obtained from the first pixel group and an image obtained from the second pixel group. If the first pixel or second pixel has a defect row or defect column in which a defect pixel is present, the focus detection means detects an amount of defocus based on the phase difference of an image according to the result of the correlation calculation of the image based on output signals from the first pixel group and second pixel group from which the row or column including the first pixels and row and column including the second pixels are removed.

Description

本発明は、デジタルスチルカメラ、ビデオカメラなどの撮像装置及びその制御方法に関する。   The present invention relates to an imaging apparatus such as a digital still camera and a video camera, and a control method thereof.

従来、デジタルスチルカメラ、ビデオカメラなどのように、固体撮像装置を備えたカメラシステムは、静止画及び動画を一枚以上の撮像素子で撮影してメモリなどの記録手段に記録している。   2. Description of the Related Art Conventionally, a camera system including a solid-state imaging device such as a digital still camera or a video camera takes still images and moving images with one or more imaging elements and records them in a recording unit such as a memory.

これらのカメラシステムには、撮像素子の撮像領域の一部を、撮像以外の機能に使用しているものがある。   Some of these camera systems use a part of the imaging area of the imaging device for functions other than imaging.

例えば、特開2000−292686号公報(特許文献1)では、撮像素子の一部の画素の受光部を2分割することで瞳分割機能を付与している。そして、これらの画素を焦点検出用画素とし、撮像用画素群の間に所定の間隔で配置することで、位相差式焦点検出を可能としている。   For example, in Japanese Patent Laid-Open No. 2000-292686 (Patent Document 1), a pupil division function is provided by dividing a light receiving portion of a part of a pixel of an image sensor into two. These pixels are used as focus detection pixels, and are arranged at predetermined intervals between the imaging pixel groups, thereby enabling phase difference focus detection.

一方、撮像素子を構成する画素の中には、製造過程などにおいて、欠陥が生じる場合がある。この欠陥には、例えば画素の出力信号が大きくなる白キズ、出力信号が小さくなる黒点、出力信号のリニアリティー不良等がある。   On the other hand, a defect may occur in a pixel constituting the image sensor in a manufacturing process or the like. Examples of the defect include a white defect in which the output signal of the pixel becomes large, a black spot in which the output signal becomes small, and a poor linearity of the output signal.

焦点検出領域として設定された画素に、これらの欠陥がある場合は、焦点検出結果に誤差が生じてしまう。   If the pixel set as the focus detection area has these defects, an error occurs in the focus detection result.

そこで、特開2001−177756号公報(特許文献2)では、焦点検出領域として設定された画素に欠陥が含まれている場合、焦点検出領域全体を移動することで、画素の欠陥の影響を軽減している。   Therefore, in Japanese Patent Laid-Open No. 2001-177756 (Patent Document 2), when a pixel set as a focus detection region includes a defect, the influence of the pixel defect is reduced by moving the entire focus detection region. doing.

特開2000−292686号公報JP 2000-292686 A 特開2001−177756号公報JP 2001-177756 A

しかしながら、上記の特許文献1に開示されているカメラでは、焦点検出領域として設定された画素に、欠陥がある場合は、焦点検出結果に誤差が生じてしまうため、その欠陥のある撮像素子を廃棄処分する場合があった。   However, in the camera disclosed in Patent Document 1 described above, if a pixel set as the focus detection area has a defect, an error occurs in the focus detection result, and thus the defective image sensor is discarded. There was a case to dispose.

撮像素子は、カメラシステムの中でも高価なものであるため、焦点検出領域として設定された画素に欠陥がある場合に廃棄してしまうと、例えば撮像装置やカメラシステムの製造コストを引き上げる問題が生じる。   Since the imaging element is expensive in the camera system, if the pixel set as the focus detection area is defective when discarded, there arises a problem of increasing the manufacturing cost of the imaging apparatus or the camera system, for example.

また、上記特許文献2に開示されているカメラでは、欠陥画素を避けるように、焦点検出領域を移動してしまうため、撮影者の意図する被写体とは別の被写体に対して焦点を合わせてしまう場合があった。   In addition, the camera disclosed in Patent Document 2 moves the focus detection area so as to avoid defective pixels, and therefore focuses on a subject other than the subject intended by the photographer. There was a case.

従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、撮像素子の撮像領域の一部の画素を撮像以外の目的に使用する場合に、その画素に欠陥があった場合でも、その画素の機能の低下を回避できようにすることである。   Therefore, the present invention has been made in view of the above-described problems, and the purpose thereof is when a part of pixels in the imaging region of the imaging device is used for a purpose other than imaging and the pixel is defective. However, it is to avoid the deterioration of the function of the pixel.

上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、複数の画素が2次元的に配列され、撮影光学系を介して入射した被写体光を光電変換して画像信号を生成する撮像素子であって、前記撮影光学系の射出瞳を分割した一部の領域を通過した光束を受光する複数の画素を有し、第1の画素と第2の画素が対をなすように構成された第1の画素群と第2の画素群とを有する撮像素子と、前記第1の画素群から得られる像と前記第2の画素群から得られる像の相関演算を行い、前記像の位相差に基づいて焦点ずれ量を検出する焦点検出手段と、を備え、前記焦点検出手段は、前記対をなす第1の画素と第2の画素の一方に欠陥画素が存在する欠陥行または欠陥列がある場合に、前記対をなす第1の画素を含む行または列と、前記対をなす第2の画素を含む行または列の両方を除外した前記第1の画素群と前記第2の画素群の出力信号に基づく像の相関演算の結果に応じて、前記像の位相差に基づいた焦点ずれ量の検出を行うことを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes a plurality of pixels arranged two-dimensionally and photoelectrically converting subject light incident via a photographing optical system to generate an image signal. And a plurality of pixels that receive a light beam that has passed through a partial area obtained by dividing the exit pupil of the photographing optical system, and the first pixel and the second pixel are paired with each other. An image sensor having a first pixel group and a second pixel group configured as described above, and performing a correlation operation between an image obtained from the first pixel group and an image obtained from the second pixel group, A focus detection unit that detects a defocus amount based on the phase difference of the image, and the focus detection unit has a defect in which a defective pixel exists in one of the first pixel and the second pixel that form the pair. If there is a row or defective column, the row or column containing the paired first pixel; The position of the image is determined according to a result of an image correlation operation based on an output signal of the first pixel group and the second pixel group excluding both a row or a column including the paired second pixel. A feature of detecting a defocus amount based on the phase difference is provided.

本発明によれば、撮像素子の撮像領域の一部の画素を撮像以外の目的に使用する場合に、その画素に欠陥があった場合でも、その画素の機能の低下を回避することが可能となる。   According to the present invention, when some pixels in the imaging region of the imaging device are used for purposes other than imaging, it is possible to avoid a decrease in the function of the pixel even if the pixel is defective. Become.

本発明の第1の実施形態に係わるデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera concerning the 1st Embodiment of this invention. 撮像素子の回路図である。It is a circuit diagram of an image sensor. 撮像素子の画素部の断面図である。It is sectional drawing of the pixel part of an image pick-up element. 撮像素子の駆動タイミングチャートである。It is a drive timing chart of an image sensor. 第1の実施形態における撮像素子の撮像用画素の平面図と断面図である。It is the top view and sectional view of an image pick-up pixel of an image sensor in a 1st embodiment. 第1の実施形態における撮像素子のAF用画素の平面図と断面図である。2A and 2B are a plan view and a cross-sectional view of an AF pixel of the image sensor according to the first embodiment. 第1の実施形態における撮像素子の他のAF用画素の平面図と断面図である。It is the top view and sectional drawing of other AF pixels of the image sensor in the first embodiment. 第1の実施形態における撮像素子の最小単位の画素配列の説明図である。It is explanatory drawing of the pixel arrangement | sequence of the minimum unit of the image pick-up element in 1st Embodiment. 第1の実施形態における撮像素子の上位単位の画素配列の説明図である。It is explanatory drawing of the pixel arrangement | sequence of the high-order unit of the image pick-up element in 1st Embodiment. 第1の実施形態における撮像素子の全領域における画素配列の説明図である。It is explanatory drawing of the pixel arrangement | sequence in the whole area | region of the image pick-up element in 1st Embodiment. 第1の実施形態における横ずれ焦点検出時の画素のグループ化方法の説明図である。It is explanatory drawing of the grouping method of the pixel at the time of the horizontal shift focus detection in 1st Embodiment. 第1の実施形態における横ずれ焦点検出時の画像サンプリング特性の説明図である。It is explanatory drawing of the image sampling characteristic at the time of the horizontal shift focus detection in 1st Embodiment. 第1の実施形態における縦ずれ焦点検出時の画素のグループ化方法の説明図である。It is explanatory drawing of the grouping method of the pixel at the time of the vertical shift focus detection in 1st Embodiment. 第1の実施形態における縦ずれ焦点検出時の画像のサンプリング特性の説明図である。It is explanatory drawing of the sampling characteristic of the image at the time of the vertical shift focus detection in 1st Embodiment. 第1の実施形態における撮像素子の瞳分割状況を説明する概念図である。It is a conceptual diagram explaining the pupil division | segmentation condition of the image pick-up element in 1st Embodiment. 第1の実施形態における焦点検出領域の説明図である。It is explanatory drawing of the focus detection area | region in 1st Embodiment. 第1の実施形態におけるメイン制御フローチャートである。It is a main control flowchart in a 1st embodiment. 第1の実施形態における焦点検出サブルーチンのフローチャートである。It is a flowchart of the focus detection subroutine in 1st Embodiment. 第1の実施形態における撮影サブルーチンのフローチャートである。It is a flowchart of the imaging | photography subroutine in 1st Embodiment. 第2の実施形態における焦点検出サブルーチンのフローチャートである。It is a flowchart of the focus detection subroutine in 2nd Embodiment. 第3の実施形態における焦点検出サブルーチンのフローチャートである。It is a flowchart of the focus detection subroutine in 3rd Embodiment. 第3の実施形態における欠陥画素処理の説明図である。It is explanatory drawing of the defective pixel process in 3rd Embodiment. 第3の実施形態における欠陥画素が存在する場合の画像のサンプリング特性の説明図である。It is explanatory drawing of the sampling characteristic of an image in case the defective pixel in 3rd Embodiment exists. 第4の実施形態における撮像素子のAE用画素の平面図と断面図である。It is the top view and sectional drawing of the AE pixel of the image pick-up element in 4th Embodiment. 第4の実施形態における測光時の画素のグループ化方法の説明図である。It is explanatory drawing of the grouping method of the pixel at the time of photometry in 4th Embodiment. 第4の実施形態におけるメイン制御フローチャートである。It is a main control flowchart in a 4th embodiment. 第4の実施形態における測光サブルーチンのフローチャートである。It is a flowchart of the photometry subroutine in 4th Embodiment. 第4の実施形態における撮影サブルーチンのフローチャートである。It is a flowchart of the imaging | photography subroutine in 4th Embodiment. 第4の実施形態におけるAE画素信号と輝度比の対応表である。14 is a correspondence table between AE pixel signals and luminance ratios according to the fourth embodiment.

以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は本発明の各実施形態に共通するカメラの構成を示す図であり、撮像素子を備えたカメラ本体と撮影光学系が一体となったデジタルカメラを示している。
(First embodiment)
FIG. 1 is a diagram showing the configuration of a camera common to each embodiment of the present invention, and shows a digital camera in which a camera body having an image sensor and a photographing optical system are integrated.

図1において、101は撮影光学系(撮影レンズ)の先端に配置された第1レンズ群で、光軸方向に進退可能に保持される。102は絞り兼用のシャッタで、その開口径を調節することにより撮影時の光量調節を行なうほか、静止画撮影時には露光秒時を調節する機能も備える。103は第2レンズ群である。そしてシャッタ102及び第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍(ズーミング)を行う。   In FIG. 1, reference numeral 101 denotes a first lens group disposed at the tip of a photographing optical system (photographing lens), which is held so as to be able to advance and retract in the optical axis direction. Reference numeral 102 denotes a shutter that also serves as an aperture, which adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also has a function of adjusting the exposure time at the time of still image shooting. Reference numeral 103 denotes a second lens group. The shutter 102 and the second lens group 103 are integrally moved forward and backward in the optical axis direction, and zooming is performed in conjunction with the forward and backward movement of the first lens group 101.

105は第3レンズ群で、光軸方向の進退により、焦点調節を行なう。106は光学的ローパスフィルタで、撮影画像の偽色やモアレを軽減する機能を果たす。107はC−MOSセンサとその周辺回路で構成された撮像素子である。この撮像素子107は、横方向m画素、縦方向n画素の受光ピクセル上に、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサである。   Reference numeral 105 denotes a third lens group that performs focus adjustment by advancing and retreating in the optical axis direction. Reference numeral 106 denotes an optical low-pass filter that functions to reduce false colors and moiré in the captured image. Reference numeral 107 denotes an image sensor composed of a C-MOS sensor and its peripheral circuits. This image sensor 107 is a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction.

111はズームアクチュエータで、不図示のカム筒を回動することで、第1レンズ群111及び第2レンズ群103を光軸方向に進退駆動し、変倍操作を行なう。112はシャッタアクチュエータで、シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間の制御を行なう。114はフォーカスアクチュエータで、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。   Reference numeral 111 denotes a zoom actuator, which rotates a cam cylinder (not shown) to drive the first lens group 111 and the second lens group 103 forward and backward in the optical axis direction, thereby performing a zooming operation. A shutter actuator 112 controls the aperture diameter of the shutter 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. Reference numeral 114 denotes a focus actuator, which performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction.

115は撮影時に被写体を照明するための電子フラッシュであり、キセノン管を用いた閃光照明装置が通常用いられるが、連続発光するLEDを用いた照明装置でも良い。116はAF補助光投光装置で、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいはコントラストの低い被写体に対する焦点検出能力を向上させる。   Reference numeral 115 denotes an electronic flash for illuminating a subject at the time of photographing. A flash illumination device using a xenon tube is usually used, but an illumination device using LEDs that emit light continuously may be used. Reference numeral 116 denotes an AF auxiliary light projector, which projects a mask image having a predetermined aperture pattern onto a subject field through a projector lens, and improves focus detection capability for a dark subject or a low-contrast subject.

121はCPUで、カメラ本体の種々の制御を司る。CPU121は、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有し、ROMに記憶された所定のプログラムに基づいて、カメラが有する各種回路を駆動する。そして、AF(オートフォーカス)、AE(自動露出)、撮影処理、画像処理、記録処理等の一連の動作を実行する。   Reference numeral 121 denotes a CPU which controls various controls of the camera body. The CPU 121 includes a calculation unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like, and drives various circuits included in the camera based on a predetermined program stored in the ROM. Then, a series of operations such as AF (autofocus), AE (automatic exposure), shooting processing, image processing, and recording processing are executed.

122はフラッシュ制御回路で、撮影動作に同期して電子フラッシュ115を点灯制御する。123は補助光駆動回路で、焦点検出動作に同期してAF補助光投光装置116を点灯制御する。124は撮像素子駆動回路で、撮像素子107を駆動するとともに、取得した画像信号をA/D変換してCPU121に送信する。125は画像処理回路で、撮像素子107が取得した画像信号に対して、γ変換、カラー補間、JPEG圧縮等の処理を行なう。   A flash control circuit 122 controls the lighting of the electronic flash 115 in synchronization with the photographing operation. Reference numeral 123 denotes an auxiliary light driving circuit that controls the lighting of the AF auxiliary light projector 116 in synchronization with the focus detection operation. An image sensor driving circuit 124 drives the image sensor 107 and A / D-converts the acquired image signal and transmits it to the CPU 121. An image processing circuit 125 performs processes such as γ conversion, color interpolation, and JPEG compression on the image signal acquired by the image sensor 107.

126はフォーカス駆動回路で、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動させて焦点調節を行なう。128はシャッタ駆動回路で、シャッタアクチュエータ112を駆動してシャッタ102の開口を制御する。129はズーム駆動回路で、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。   A focus driving circuit 126 controls the focus actuator 114 based on the focus detection result, and performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction. Reference numeral 128 denotes a shutter drive circuit that controls the opening of the shutter 102 by driving the shutter actuator 112. Reference numeral 129 denotes a zoom drive circuit that drives the zoom actuator 111 in accordance with the zoom operation of the photographer.

131はLCD等の表示器で、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。132は操作スイッチ群で、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を備えて構成される。133はフラッシュメモリ等からなる着脱可能なメモリで、撮影済み画像を記録する。   Reference numeral 131 denotes a display device such as an LCD, which displays information related to the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. A group of operation switches 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. Reference numeral 133 denotes a detachable memory such as a flash memory that records captured images.

図2は、撮像素子107の概略的な回路構成図を示す図で、特開平09−046596号報等に開示された技術を用いて製造される。   FIG. 2 is a diagram showing a schematic circuit configuration of the image sensor 107, which is manufactured by using the technique disclosed in Japanese Patent Laid-Open No. 09-046596.

図2は、2次元C−MOSエリアセンサの2列×4行の画素の範囲を示しているが、撮像素子として利用する場合は、図2に示した画素を多数配置し、高解像度画像の取得を可能としている。本実施形態においては、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmの撮像素子として説明を行なう。   FIG. 2 shows a range of pixels of 2 columns × 4 rows of a two-dimensional C-MOS area sensor, but when used as an image sensor, a large number of pixels shown in FIG. Acquisition is possible. In the present embodiment, the description will be made on the assumption that the pixel pitch is 2 μm, the number of effective pixels is 3000 horizontal pixels × 2000 vertical rows = 6 million pixels, and the imaging screen size is 6 mm horizontal × 4 mm vertical.

図2において、1はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子の光電変換部、2はフォトゲート、3は転送スイッチMOSトランジスタ、4はリセット用MOSトランジスタ、5はソースフォロワアンプMOSトランジスタ、6は水平選択スイッチMOSトランジスタ、7はソースフォロワの負荷MOSトランジスタ、8は暗出力転送MOSトランジスタ、9は明出力転送MOSトランジスタ、10は暗出力蓄積容量Ctn、11は明出力蓄積容量Cts、12は水平転送MOSトランジスタ、13は水平出力線リセットMOSトランジスタ、14は差動出力アンプ、15は水平走査回路、16は垂直走査回路である。   In FIG. 2, 1 is a photoelectric conversion portion of a photoelectric conversion element comprising a MOS transistor gate and a depletion layer under the gate, 2 is a photogate, 3 is a transfer switch MOS transistor, 4 is a reset MOS transistor, and 5 is a source follower amplifier MOS. Transistor, 6 is a horizontal selection switch MOS transistor, 7 is a source follower load MOS transistor, 8 is a dark output transfer MOS transistor, 9 is a light output transfer MOS transistor, 10 is a dark output storage capacitor Ctn, and 11 is a light output storage capacitor Cts. , 12 are horizontal transfer MOS transistors, 13 is a horizontal output line reset MOS transistor, 14 is a differential output amplifier, 15 is a horizontal scanning circuit, and 16 is a vertical scanning circuit.

図3は、各画素部の断面を示す図である。   FIG. 3 is a diagram showing a cross section of each pixel portion.

図3において、17はP型ウェル、18はゲート酸化膜、19は一層目ポリSi、20は二層目ポリSi、21はn+フローティングディフュージョン部(FD)である。FD部21は別の転送MOSトランジスタを介して別の光電変換部と接続される。図3においては、2つの転送MOSトランジスタ3のドレインとFD部21を共通化して微細化とFD部21の容量低減による感度向上を図っているが、Al配線でFD部21を接続しても良い。   In FIG. 3, 17 is a P-type well, 18 is a gate oxide film, 19 is first-layer poly-Si, 20 is second-layer poly-Si, and 21 is an n + floating diffusion portion (FD). The FD unit 21 is connected to another photoelectric conversion unit via another transfer MOS transistor. In FIG. 3, the drain of the two transfer MOS transistors 3 and the FD portion 21 are made common to improve the sensitivity by miniaturization and the capacity reduction of the FD portion 21, but even if the FD portion 21 is connected by Al wiring. good.

次に、図4のタイミングチャートを用いて撮像素子の動作について説明する。このタイミングチャートは全画素独立出力の場合のタイミングを示す図である。   Next, the operation of the image sensor will be described using the timing chart of FIG. This timing chart is a diagram showing the timing in the case of all pixel independent output.

まず垂直走査回路16からのタイミング出力によって、制御パルスφLをハイとして垂直出力線をリセットする。また制御パルスφR0,φPG00,φPGe0をハイとし、リセット用MOSトランジスタ4をオンとし、フォトゲート2の一層目ポリSi19をハイとしておく。時刻T0において、制御パルスφS0をハイとし、選択スイッチMOSトランジスタ6をオンさせ、第1、第2ラインの画素部を選択する。次に制御パルスφR0をローとし、FD部21のリセットを止め、FD部21をフローティング状態とする。そして、ソースフォロワアンプMOSトランジスタ5のゲート・ソース間をスルーとした後、時刻T1において制御パルスφTnをハイとし、FD部21の暗電圧をソースフォロワ動作で蓄積容量Ctn10に出力させる。   First, according to the timing output from the vertical scanning circuit 16, the control pulse φL is set to high to reset the vertical output line. Further, the control pulses φR0, φPG00, and φPGe0 are set high, the reset MOS transistor 4 is turned on, and the first-layer poly Si 19 of the photogate 2 is set high. At time T0, the control pulse φS0 is set high, the selection switch MOS transistor 6 is turned on, and the pixel portions of the first and second lines are selected. Next, the control pulse φR0 is set to low, the reset of the FD unit 21 is stopped, and the FD unit 21 is brought into a floating state. Then, after the source-follower amplifier MOS transistor 5 is made through between the gate and the source, the control pulse φTn is made high at time T1, and the dark voltage of the FD section 21 is output to the storage capacitor Ctn10 by the source follower operation.

次に、第1ラインの画素の光電変換出力を行うため、第1ラインの制御パルスφTX00をハイとして転送スイッチMOSトランジスタ3を導通した後、時刻T2において制御パルスφPG00をローとして下げる。この時フォトゲート2の下に拡がっていたポテンシャル井戸を上げて、光発生キャリアをFD部21に完全転送させるような電圧関係が好ましい。従って完全転送が可能であれば制御パルスφTXはパルスではなくある固定電位でもかまわない。   Next, in order to perform photoelectric conversion output of the pixels of the first line, the control pulse φTX00 of the first line is set high, the transfer switch MOS transistor 3 is turned on, and then the control pulse φPG00 is lowered low at time T2. At this time, a voltage relationship is preferable in which the potential well that has spread under the photogate 2 is raised so that photogenerated carriers are completely transferred to the FD portion 21. Therefore, if complete transfer is possible, the control pulse φTX may be a fixed potential instead of a pulse.

時刻T2でフォトダイオードの光電変換部1からの電荷がFD部21に転送されることにより、FD部21の電位が光に応じて変化することになる。この時ソースフォロワアンプMOSトランジスタ5がフローティング状態であるので、FD部21の電位を時刻T3において制御パルスφTsをハイとして蓄積容量Cts11に出力する。この時点で第1ラインの画素の暗出力と光出力はそれぞれ蓄積容量Ctn10とCts11に蓄積されおり、時刻T4の制御パルスφHCを一時ハイとして水平出力線リセットMOSトランジスタ13を導通して水平出力線をリセットし、水平転送期間において水平走査回路15の走査タイミング信号により水平出力線に画素の暗出力と光出力を出力させる。この時、蓄積容量Ctn10とCts11の差動増幅器14によって、差動出力Voutを取れば、画素のランダムノイズ、固定パターンノイズを除去したS/Nの良い信号が得られる。また画素30−12、30−22の光電荷は画素30−11、30−21と同時に夫々の蓄積容量Ctn10とCts11に蓄積されるが、その読み出しは水平走査回路15からのタイミングパルスを1画素分遅らして水平出力線に読み出して差動増幅器14から出力させる。   The electric charge from the photoelectric conversion unit 1 of the photodiode is transferred to the FD unit 21 at time T2, so that the potential of the FD unit 21 changes according to light. At this time, since the source follower amplifier MOS transistor 5 is in a floating state, the potential of the FD section 21 is output to the storage capacitor Cts11 with the control pulse φTs being high at time T3. At this time, the dark output and the light output of the pixels on the first line are stored in the storage capacitors Ctn10 and Cts11, respectively, and the horizontal output line reset MOS transistor 13 is turned on by setting the control pulse φHC at time T4 to be temporarily high. And the dark output and light output of the pixel are output to the horizontal output line by the scanning timing signal of the horizontal scanning circuit 15 in the horizontal transfer period. At this time, if the differential output Vout is obtained by the differential amplifier 14 of the storage capacitors Ctn10 and Cts11, a signal with good S / N from which random noise and fixed pattern noise of the pixel are removed can be obtained. The photoelectric charges of the pixels 30-12 and 30-22 are stored in the storage capacitors Ctn10 and Cts11 at the same time as the pixels 30-11 and 30-21, but the readout is performed by using one timing pulse from the horizontal scanning circuit 15 as one pixel. The data is read out to the horizontal output line after being delayed and output from the differential amplifier.

本実施形態では、差動出力Voutをチップ内で生成する構成を示しているが、チップ内に含めず、外部で従来のCDS(Correlated Double Sampling:相関二重サンプリング)回路を用いるように構成しても同様の効果が得られる。   In the present embodiment, a configuration in which the differential output Vout is generated in the chip is shown, but a conventional CDS (Correlated Double Sampling) circuit is used externally without being included in the chip. However, the same effect can be obtained.

蓄積容量Cts11に明出力を出力した後、制御パルスφR0をハイとしてリセット用MOSトランジスタ4を導通しFD部21を電源VDDにリセットする。第1ラインの水平転送が終了した後、第2ラインの読み出しを行う。第2ラインの読み出しは、制御パルスφTXe0、制御パルスφPGe0を同様に駆動させ、制御パルスφTn、φTsに夫々ハイパルスを供給して、蓄積容量Ctn10とCts11に夫々光電荷を蓄積し、暗出力及び明出力を取り出す。以上の駆動により、第1、第2ラインの読み出しが夫々独立に行える。この後、垂直走査回路を走査させ、同様に第2n+1,第2n+2(n=1,2,…)の読み出しを行えば全画素独立出力が行える。即ち、n=1の場合は、まず制御パルスφS1をハイとし、次にφR1をローとし、続いて制御パルスφTn、φTX01をハイとし、制御パルスφPG01をロー、制御パルスφTsをハイ、制御パルスφHCを一時ハイとして画素30−31,30−32の画素信号を読み出す。続いて、制御パルスφTXe1,φPGe1及び上記と同様に制御パルスを印加して、画素30−41,30−42の画素信号を読み出す。   After a bright output is output to the storage capacitor Cts11, the control pulse φR0 is set to high, the reset MOS transistor 4 is turned on, and the FD portion 21 is reset to the power supply VDD. After the horizontal transfer of the first line is completed, the second line is read. In reading the second line, the control pulse φTXe0 and the control pulse φPGe0 are driven in the same manner, and high pulses are supplied to the control pulses φTn and φTs, respectively, and photocharges are accumulated in the storage capacitors Ctn10 and Cts11, respectively. Take the output. With the above driving, the first and second lines can be read independently. Thereafter, by scanning the vertical scanning circuit and reading out the second n + 1 and second n + 2 (n = 1, 2,...) In the same manner, all the pixels can be independently output. That is, when n = 1, first, the control pulse φS1 is set high, then φR1 is set low, then the control pulses φTn and φTX01 are set high, the control pulse φPG01 is set low, the control pulse φTs is set high, and the control pulse φHC Is temporarily high to read out pixel signals of the pixels 30-31 and 30-32. Subsequently, the control pulses φTXe1, φPGe1 and the control pulse are applied in the same manner as described above, and the pixel signals of the pixels 30-41 and 30-42 are read out.

図5乃至図7は、撮像用画素と焦点検出用画素の構造を説明する図である。本実施形態においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素(機能画素)が所定の規則で分散配置される。   5 to 7 are diagrams illustrating the structure of the imaging pixel and the focus detection pixel. In the present embodiment, out of 4 pixels of 2 rows × 2 columns, pixels having G (green) spectral sensitivity are arranged in 2 diagonal pixels, and R (red) and B (blue) are arranged in the other 2 pixels. A Bayer arrangement in which one pixel each having a spectral sensitivity of 1 is arranged is employed. In addition, focus detection pixels (functional pixels) having a structure to be described later are arranged in a distributed manner between the Bayer arrays.

図5は、撮像用画素の配置と構造を示す図である。   FIG. 5 is a diagram showing the arrangement and structure of the imaging pixels.

図5(a)は2行×2列の撮像用画素の平面図である。周知のごとく、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そしてこの2行×2列の構造が繰り返し配置される。   FIG. 5A is a plan view of 2 × 2 imaging pixels. As is well known, in the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. The 2 rows × 2 columns structure is repeatedly arranged.

図5(b)は、図5(a)における断面A−Aを示している。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(Red)のカラーフィルタ、CFGはG(Green)のカラーフィルタである。PD(Photo Diode)は図3で説明したC−MOSセンサの光電変換部を模式的に示したもの、CL(Contact Layer)はC−MOSセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは撮影光学系を模式的に示したものである。   FIG. 5B shows a cross section AA in FIG. ML is an on-chip microlens disposed on the forefront of each pixel, CFR is an R (Red) color filter, and CFG is a G (Green) color filter. PD (Photo Diode) schematically shows the photoelectric conversion unit of the C-MOS sensor described in FIG. 3, and CL (Contact Layer) forms a signal line for transmitting various signals in the C-MOS sensor. This is a wiring layer. TL schematically shows the photographing optical system.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換部PDは、撮影光学系TL(Taking Lens)を通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EP(Exit Pupil)と光電変換部PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換部の有効面積は大面積に設計される。また、図5(b)ではR画素の入射光束について説明したが、G画素及びB(Blue)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束(光量子)を効率よく取り込んで画像信号のS/Nを向上させている。   Here, the on-chip microlens ML and the photoelectric conversion unit PD of the imaging pixel are configured to capture the light flux that has passed through the photographing optical system TL (Taking Lens) as effectively as possible. In other words, the exit pupil EP (Exit Pupil) of the photographing optical system TL and the photoelectric conversion unit PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion unit is designed to be large. Further, although the incident light beam of the R pixel has been described in FIG. 5B, the G pixel and the B (Blue) pixel have the same structure. Therefore, the exit pupil EP corresponding to each RGB pixel for imaging has a large diameter, and the S / N of the image signal is improved by efficiently taking in the light flux (photon) from the subject.

図6は、撮影光学系の水平方向(横方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す図である。ここで水平方向あるいは横方向とは、撮影光学系の光軸が水平となるようにカメラを構えたとき、この光軸に直交し、かつ水平方向に伸びる直線に沿った方向を指す。図6(a)は、焦点検出用画素を含む2行×2列の画素の平面図である。記録もしくは観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認知されやすい。一方でRもしくはB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで本実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、RとBの画素を焦点検出用画素に置き換える。これを図6(a)においてSHA及びSHBで示す。   FIG. 6 is a diagram showing the arrangement and structure of focus detection pixels for performing pupil division in the horizontal direction (lateral direction) of the photographing optical system. Here, the horizontal direction or the horizontal direction refers to a direction along a straight line that is orthogonal to the optical axis and extends in the horizontal direction when the camera is held so that the optical axis of the photographing optical system is horizontal. FIG. 6A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. When obtaining an image signal for recording or viewing, the main component of luminance information is acquired with G pixels. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is easily recognized when G pixels are lost. On the other hand, the R or B pixel is a pixel that acquires color information (color difference information). However, since human visual characteristics are insensitive to color information, the pixel that acquires color information may have some loss. Image quality degradation is difficult to recognize. Therefore, in the present embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the R and B pixels are replaced with focus detection pixels. This is indicated by SHA and SHB in FIG.

図6(b)は、図6(a)における断面A−Aを示している。マイクロレンズMLと、光電変換部PDは図5(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像創生には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(White)が配置される。また、撮像素子で瞳分割を行なうため、配線層CLの開口部はマイクロレンズMLの中心線に対して一方向に偏倚している。具体的には、画素SHAの開口部OPHAは右側に偏倚しているため、撮影光学系TLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは左側に偏倚しているため、撮影光学系TLの右側の射出瞳EPHBを通過した光束を受光する。よって、画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像をA像とし、画素SHBも水平方向に規則的に配列し、これらの画素群で取得した被写体像をB像とすると、A像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)を検出することができる。   FIG. 6B shows a cross section AA in FIG. The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. In the present embodiment, since the signal of the focus detection pixel is not used for image creation, a transparent film CFW (White) is arranged instead of the color separation color filter. Moreover, since pupil division is performed by the image sensor, the opening of the wiring layer CL is biased in one direction with respect to the center line of the microlens ML. Specifically, since the opening OPHA of the pixel SHA is biased to the right side, the light beam that has passed through the left exit pupil EPHA of the imaging optical system TL is received. Similarly, since the opening OPHB of the pixel SHB is biased to the left side, the light beam that has passed through the right exit pupil EPHB of the imaging optical system TL is received. Therefore, the pixels SHA are regularly arranged in the horizontal direction, the subject image acquired by these pixel groups is set as an A image, the pixels SHB are also regularly arranged in the horizontal direction, and the subject images acquired by these pixel groups are Assuming that the image is a B image, it is possible to detect the defocus amount of the subject image by detecting the relative position between the A image and the B image.

なお、上記画素SHA及びSHBでは、撮影画面の横方向に輝度分布を有した被写体、例えば縦線に対しては焦点検出可能だが、縦方向に輝度分布を有する横線は焦点検出不能である。そこで本実施形態では、後者についても焦点検出できるよう、撮影光学系の垂直方向(縦方向)にも瞳分割を行なう画素も備えている。   In the pixels SHA and SHB, focus detection is possible for an object having a luminance distribution in the horizontal direction of the photographing screen, for example, a vertical line, but focus detection is not possible for a horizontal line having a luminance distribution in the vertical direction. Therefore, in the present embodiment, pixels that perform pupil division are also provided in the vertical direction (longitudinal direction) of the photographing optical system so that the focus can be detected for the latter.

図7は、撮影光学系の垂直方向(換言すると上下方向もしくは縦方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す図である。ここで垂直方向あるいは上下あるいは縦横方向とは、撮影光学系の光軸が水平となるようにカメラを構えたとき、この光軸に直交し、鉛直方向に伸びる直線に沿った方向を指す。図7(a)は、焦点検出用画素を含む2行×2列の画素の平面図で、図6(a)と同様に、G画素は撮像用画素として残し、RとBの画素を焦点検出用画素としている。これを図7(a)においてSVC及びSVDで示す。   FIG. 7 is a diagram showing the arrangement and structure of focus detection pixels for performing pupil division in the vertical direction (in other words, the vertical direction or vertical direction) of the photographing optical system. Here, the vertical direction or the up / down or vertical / horizontal direction refers to a direction along a straight line perpendicular to the optical axis and extending in the vertical direction when the camera is set so that the optical axis of the photographing optical system is horizontal. FIG. 7A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. As in FIG. 6A, the G pixel is left as an imaging pixel and the R and B pixels are in focus. Detection pixels are used. This is indicated by SVC and SVD in FIG.

図7(b)は、図7(a)の断面A−Aを示しているが、図6(b)の画素が横方向に瞳分離する構造であるのに対して、図7(b)の画素は瞳分離方向が縦方向になっているだけで、画素の構造としては変わらない。すなわち、画素SVCの開口部OPVCは下側に偏倚しているため、撮影光学系TLの上側の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは上側に偏倚しているため、撮影光学系TLの下側の射出瞳EPVDを通過した光束を受光する。よって、画素SVCを垂直方向に規則的に配列し、これらの画素群で取得した被写体像をC像とし、画素SVDも垂直方向に規則的に配列し、これらの画素群で取得した被写体像をD像とすると、C像とD像の相対位置を検出することで、垂直方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)を検出することができる。   FIG. 7B shows a cross section AA of FIG. 7A, but the pixel of FIG. 6B has a structure in which pupil separation is performed in the horizontal direction, whereas FIG. In this pixel, the pupil separation direction is just the vertical direction, and the pixel structure is not changed. That is, since the opening OPVC of the pixel SVC is biased downward, the light beam that has passed through the upper exit pupil EPVC of the imaging optical system TL is received. Similarly, since the opening OPVD of the pixel SVD is biased upward, the light beam that has passed through the lower exit pupil EPVD of the imaging optical system TL is received. Therefore, the pixels SVC are regularly arranged in the vertical direction, the subject image acquired by these pixel groups is set as a C image, the pixels SVD are also regularly arranged in the vertical direction, and the subject images acquired by these pixel groups are Assuming a D image, by detecting the relative position of the C image and the D image, it is possible to detect the amount of defocus (defocus amount) of the subject image having a luminance distribution in the vertical direction.

図8乃至図10は、上記の図5乃至図7で説明した撮像用画素と焦点検出用画素の配置規則を説明する図である。   FIGS. 8 to 10 are diagrams for explaining the arrangement rules of the imaging pixels and focus detection pixels described in FIGS.

図8は撮像用画素の間に焦点検出用画素を離散的に配置する場合の、最小単位の配置規則を説明するための図である。   FIG. 8 is a diagram for explaining a minimum unit arrangement rule when focus detection pixels are discretely arranged between imaging pixels.

図8において、10行×10列=100画素をひとつのブロックと定義する。そして一番左上のブロックBLK(1,1)において、一番左下のR画素とB画素を、水平方向に瞳分割を行なう1組の焦点検出用画素SHA及びSHBで置き換える。   In FIG. 8, 10 rows × 10 columns = 100 pixels are defined as one block. In the upper left block BLK (1, 1), the lower left R pixel and B pixel are replaced with a set of focus detection pixels SHA and SHB that perform pupil division in the horizontal direction.

その右隣りのブロックBLK(1,2)においては、同じく一番左下のR画素とB画素を、垂直方向に瞳分割を行なう1組の焦点検出用画素SVC及びSVDで置き換える。また、最初のブロックBLK(1,1)の下に隣接したブロックBLK(2,1)の画素配列は、ブロックBLK(1,2)と同一とする。そして、その右隣りのブロックBLK(2,2)の画素配列は、先頭のブロックBLK(1,1)と同一とする。   In the block BLK (1, 2) on the right side, the lower left R pixel and B pixel are similarly replaced with a set of focus detection pixels SVC and SVD that perform pupil division in the vertical direction. The pixel arrangement of the block BLK (2, 1) adjacent below the first block BLK (1, 1) is the same as that of the block BLK (1, 2). The pixel arrangement of the block BLK (2, 2) on the right side is the same as that of the leading block BLK (1, 1).

この配置規則を普遍的に表現すると、ブロックBLK(i,j)において、i+jが偶数なら水平瞳分割用の焦点検出用画素を配置し、i+jが奇数なら垂直瞳分割用の焦点検出用画素を配置することになる。そして、図8の2×2=4ブロック、すなわち20行×20列=400画素の領域を、ブロックの上位の配列単位として、クラスタと定義する。   Expressing this arrangement rule universally, in block BLK (i, j), if i + j is an even number, horizontal pupil division focus detection pixels are arranged, and if i + j is an odd number, vertical pupil division focus detection pixels are arranged. Will be placed. Then, a 2 × 2 = 4 block of FIG. 8, that is, an area of 20 rows × 20 columns = 400 pixels is defined as a cluster as an upper array unit of the block.

図9は、前述したクラスタを単位とした配置規則を説明するための図である。   FIG. 9 is a diagram for explaining an arrangement rule in units of clusters described above.

図9において、20行×20列=400画素で構成された一番左上のクラスタをCST(u,w)=CST(1,1)とする。そして、このクラスタCST(1,1)においては、各ブロックの一番左下のR画素とB画素を、焦点検出用画素SHA及びSHB、もしくはSVC及びSVDで置き換える。   In FIG. 9, the upper left cluster composed of 20 rows × 20 columns = 400 pixels is assumed to be CST (u, w) = CST (1, 1). In the cluster CST (1, 1), the lower left R pixel and B pixel of each block are replaced with focus detection pixels SHA and SHB, or SVC and SVD.

その右隣りのクラスタCST(1,2)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して上方向に2画素分シフトした位置に配置する。また、最初のクラスタCST(1,1)の下に隣接したクラスタCST(2,1)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して右方向に2画素分シフトした位置に配置する。以上の規則を繰り返し適用すると図9に示した配置が得られる。   In the cluster CST (1, 2) on the right side, the focus detection pixels in the block are arranged at positions shifted upward by two pixels with respect to the cluster CST (1, 1). Further, in the cluster CST (2, 1) adjacent below the first cluster CST (1, 1), the focus detection pixels are arranged in the block in the right direction with respect to the cluster CST (1, 1). Arranged at a position shifted by two pixels. When the above rule is repeatedly applied, the arrangement shown in FIG. 9 is obtained.

この配置規則を普遍的に表現すると以下のようになる。なお、焦点検出用画素の座標は、図6もしくは図7で示したG画素を含む4画素を一つの単位(ペア)とし、そのうちの左上の画素の座標で規定する。また各ブロック内の座標は左上を(1,1)とし、下方向と右方向を正とする。   This arrangement rule can be expressed universally as follows. Note that the coordinates of the focus detection pixels are defined by the coordinates of the upper left pixel of the four pixels including the G pixel shown in FIG. 6 or 7 as one unit (pair). In the coordinates in each block, the upper left is (1, 1), and the lower direction and the right direction are positive.

以上の定義を適用すると、クラスタCST(u,w)において、各ブロック内の焦点検出用画素ペアの水平座標は2×u−1となり、垂直座標は11−2×wとなる。そして、図9の5×5=25クラスタ、すなわち100行×100列=1万画素の領域を、クラスタの上位の配列単位として、フィールドと定義する。   When the above definition is applied, in the cluster CST (u, w), the horizontal coordinate of the focus detection pixel pair in each block is 2 × u−1, and the vertical coordinate is 11-2 × w. Then, 5 × 5 = 25 clusters in FIG. 9, that is, an area of 100 rows × 100 columns = 10,000 pixels is defined as a field as an upper array unit of the clusters.

図10は、前記フィールドを単位とした配置規則を説明するための図である。図10において、100行×100列=1万画素で構成された一番左上のフィールドをFLD(q,r)=FLD(1,1)とする。そして本実施形態では、すべてのフィールドFLD(q,r)は先頭フィールドFLD(1,1)と同様の配列となっている。そこで、FLD(1,1)を水平方向に30個、垂直方向に20個配列すると、3000列×2000行=600万画素の撮像領域は600個のフィールドで構成されることになる。そして撮像領域全面に渡って焦点検出用画素を均一に分布させることができる。   FIG. 10 is a diagram for explaining an arrangement rule with the field as a unit. In FIG. 10, the upper left field composed of 100 rows × 100 columns = 10,000 pixels is assumed to be FLD (q, r) = FLD (1,1). In this embodiment, all the fields FLD (q, r) have the same arrangement as that of the first field FLD (1,1). Therefore, if 30 FLDs (1, 1) are arranged in the horizontal direction and 20 in the vertical direction, the imaging region of 3000 columns × 2000 rows = 6 million pixels is composed of 600 fields. The focus detection pixels can be uniformly distributed over the entire imaging region.

次に、図11乃至図14を用いて、焦点検出時の画素のグループと信号加算方法(演算処理方法)について説明する。   Next, a group of pixels at the time of focus detection and a signal addition method (arithmetic processing method) will be described with reference to FIGS.

図11は、撮影光学系によって形成された被写体像の、横ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図である。   FIG. 11 is a diagram for explaining a pixel grouping method in the case of performing focus detection in the lateral shift direction of the subject image formed by the photographing optical system.

横ずれ方向の焦点検出とは、図6で説明した、撮影光学系の射出瞳を横方向(左右方向、水平方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことを指す。   The focus detection in the lateral shift direction performs phase difference focus detection using the focus detection pixels for dividing the exit pupil of the photographing optical system in the horizontal direction (left-right direction, horizontal direction) described in FIG. Refers to that.

図11に示す画素配列は図9で説明したものであるが、焦点検出の際には、横方向に1ブロック、縦方向に10ブロックの合計10ブロックを1つのグループとし、これをセクションと定義する。そして、本実施形態では、横方向に並んだ30セクションで、1つの焦点検出領域を構成する。すなわち、100行×300列=3万画素の領域が1つの焦点検出領域となる。この1つの焦点検出領域をAFエリアと定義する。ここで、1つのセクション内においては、横方向における一方の瞳分割を行なう画素SHAが5個、他方の瞳分割を行なう画素SHBも5個含まれている。そこで本実施形態においては、5個のSHAの出力を加算処理して加算値を算出し、位相差演算用の一方の画像信号(A像と称する)の1AF画素とする。同様に、5個のSHBの出力を加算処理して加算値を算出し、位相差演算用の他方の画像信号(B像と称する)の1AF画素とする。   The pixel arrangement shown in FIG. 11 is the same as that described with reference to FIG. 9, but in focus detection, a total of 10 blocks of 1 block in the horizontal direction and 10 blocks in the vertical direction are grouped and defined as a section. To do. In the present embodiment, one focus detection area is configured by 30 sections arranged in the horizontal direction. That is, an area of 100 rows × 300 columns = 30,000 pixels is one focus detection area. This one focus detection area is defined as an AF area. Here, in one section, five pixels SHA that perform one pupil division in the horizontal direction and five pixels SHB that perform the other pupil division are included. Therefore, in the present embodiment, the output of the five SHAs is added to calculate an added value, which is set as one AF pixel of one image signal (referred to as A image) for phase difference calculation. Similarly, the output of the five SHBs is added to calculate an added value, which is used as the 1AF pixel of the other image signal (referred to as a B image) for phase difference calculation.

図12は、一つのセクションにおける、被写体像の捕捉能力を説明するための図である。   FIG. 12 is a diagram for explaining a subject image capturing capability in one section.

図12(a)は図11の左端のセクションを切り出したものである。そして下端に示された水平線PRJhは、焦点検出用画素SHA及びSHBの瞳分割方向に延伸した第1の射影軸(Projection Line)、右端に示された垂直線PRJvは、瞳分割方向と直交する方向に延伸した第2の射影軸である。ここで、1つのセクション内の画素SHAはすべて加算され、SHBも加算される。そこで、1セクションを1AF画素と見なした場合、1AF画素に含まれる受光部を瞳分割方向の射影軸PRJhに射影すると、画素SHAとSHBが交互に緻密に並ぶことがわかる。このときの、瞳分割方向の射影軸PRJhにおける画素SHAの配列ピッチをP1とすると、P1=PHh=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJhにおける画素SHBの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。   FIG. 12A shows the section at the left end of FIG. The horizontal line PRJh shown at the lower end is a first projection line extending in the pupil division direction of the focus detection pixels SHA and SHB, and the vertical line PRJv shown at the right end is orthogonal to the pupil division direction. It is the 2nd projection axis extended in the direction. Here, all the pixels SHA in one section are added, and SHB is also added. Therefore, when one section is regarded as one AF pixel, it can be seen that pixels SHA and SHB are alternately arranged densely when the light receiving portion included in the one AF pixel is projected onto the projection axis PRJh in the pupil division direction. If the arrangement pitch of the pixels SHA on the projection axis PRJh in the pupil division direction at this time is P1, P1 = PHh = 2 (unit is pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the arrangement pitch of the pixels SHB on the projection axis PRJh is P1 = 2 (unit is pixel), and F1 = 0.5 (unit is pixel / pixel) in spatial frequency notation.

一方、1つのAF画素に含まれる受光部を瞳分割方向と直交方向の射影軸PRJvに射影すると、画素SHAとSHBはまばらに並ぶことがわかる。このときの、射影軸PRJvにおける画素SHAの配列ピッチをP2とすると、P2=PHv=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJvにおける画素SHBの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。   On the other hand, when the light receiving unit included in one AF pixel is projected onto the projection axis PRJv orthogonal to the pupil division direction, it can be seen that the pixels SHA and SHB are sparsely arranged. When the arrangement pitch of the pixels SHA on the projection axis PRJv at this time is P2, P2 = PHv = 20 (unit is a pixel). When expressed by the spatial frequency F2 instead of the pitch, F2 = 0.05 (unit: pixel / pixel). Similarly, the arrangement pitch of the pixels SHB on the projection axis PRJv is P2 = 20 (unit is pixel), and F2 = 0.05 (unit is pixel / pixel) in the spatial frequency notation.

すなわち、本実施形態におけるAF画素は、上記のグループ化前の分散特性は、瞳分割方向とこれに直交する方向の配置上のピッチが等しいが、グループ化する際のグループ形状を長方形とすることで、瞳分割方向のサンプリング誤差を低減している。具体的には、1セクションの瞳分割方向の最大寸法L1は10画素、瞳分割と直交する方向の最大寸法L2は100画素としている。すなわち、セクション寸法をL1<L2とすることで、瞳分割方向のサンプリング周波数F1を高周波(密)に、これと直交する方向のサンプリング周波数F2を低周波(疎)としている。   That is, in the AF pixel in the present embodiment, the dispersion characteristics before grouping have the same pitch in the arrangement of the pupil division direction and the direction orthogonal to the pupil division direction, but the group shape when grouping is rectangular. Thus, the sampling error in the pupil division direction is reduced. Specifically, the maximum dimension L1 in the pupil division direction of one section is 10 pixels, and the maximum dimension L2 in the direction orthogonal to the pupil division is 100 pixels. That is, by setting the section size to L1 <L2, the sampling frequency F1 in the pupil division direction is set to a high frequency (dense), and the sampling frequency F2 in a direction orthogonal to this is set to a low frequency (sparse).

図12(a)で説明したAF画素(一つのセクション)に、細線の被写体像(図12(b)にハッチングで示した像)が投影された場合の画像捕捉能力を図12(b)を用いて説明する。   FIG. 12B shows the image capture capability when a thin subject image (the image shown by hatching in FIG. 12B) is projected onto the AF pixel (one section) described in FIG. It explains using.

図12(b)において、LINEvは、撮像素子107上に投影された細い縦線を表わし、その幅は画素換算で4画素、画像の実寸では幅8μmになっている。この時、セクションSCTh(1)内では、ブロックBLK(3,1)とブロックBLK(5,1)に含まれる焦点検出用画素が被写体像を捕捉する。なお、被写体像の最小寸法は、撮影光学系101の収差と撮像素子107の前面に配置された光学的ローパルフィルタ106の特性で決まるが、通常は非常に細い線でも2画素以上の幅になる。従って、本実施形態の1つのセクション内では、最低でも各1個ずつの画素SHAとSHBで画像を捕捉することになり、捕捉洩れは生じない。   In FIG. 12B, LINEv represents a thin vertical line projected on the image sensor 107, and the width thereof is 4 pixels in terms of pixels, and the actual size of the image is 8 μm. At this time, in the section SCTh (1), the focus detection pixels included in the block BLK (3, 1) and the block BLK (5, 1) capture the subject image. Note that the minimum size of the subject image is determined by the aberration of the photographing optical system 101 and the characteristics of the optical low-pass filter 106 disposed in front of the image sensor 107. Usually, even a very thin line has a width of 2 pixels or more. Become. Therefore, in one section of this embodiment, an image is captured by at least one pixel SHA and SHB, and no capture leakage occurs.

一方、図12(b)のLINEhは、撮像素子107上に投影された細い横線を表わし、その幅は前述のLINEvと同様に画素換算で4画素、画像の実寸では幅8μmになっている。この時には、横線LINEhはブロックBLK(5,1)にかかっているが、焦点検出用画素SHA及びSHBには捕捉されない。しかしながら、このセクションSCTh(1)は、縦線のごとく横方向に輝度分布を有する被写体について焦点検出を行なうためのものである。従って、横線のごとく縦方向に輝度分布を有する被写体については、焦点検出用画素による像の捕捉洩れが生じても実害はない。   On the other hand, LINEh in FIG. 12B represents a thin horizontal line projected on the image sensor 107, and the width thereof is 4 pixels in terms of pixel as in the above-described LINEv, and the actual size of the image is 8 μm. At this time, the horizontal line LINEh covers the block BLK (5, 1), but is not captured by the focus detection pixels SHA and SHB. However, this section SCTh (1) is for performing focus detection on a subject having a luminance distribution in the horizontal direction as shown by a vertical line. Therefore, for an object having a luminance distribution in the vertical direction like a horizontal line, there is no actual harm even if an image is leaked by the focus detection pixels.

図13は、撮影光学系によって形成された被写体像の、縦ずれ方向の焦点検出を行なう場合の画素のグループ化方法を説明する図である。縦ずれ方向の焦点検出とは、図7で説明した、撮影光学系の射出瞳を縦方向(上下方向、すなわち垂直方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことを指す。すなわち、図11で説明した技術を90度回転したものに相当する。   FIG. 13 is a diagram for explaining a grouping method of pixels when focus detection is performed in the vertical deviation direction of a subject image formed by the photographing optical system. The focus detection in the longitudinal shift direction is a phase difference focus detection using the focus detection pixels for dividing the exit pupil of the photographing optical system in the vertical direction (vertical direction, that is, the vertical direction) described in FIG. Refers to performing. That is, it corresponds to the technique described in FIG. 11 rotated 90 degrees.

図13に示す画素配列も図9で説明したものであるが、焦点検出の際には、横方向に10ブロック、縦方向に1ブロックの合計10ブロックを1つのグループとし、これをセクションと定義する。そして、本実施形態では、縦方向に並んだ30セクションで、1つの焦点検出領域を構成する。すなわち、300行×100列=3万画素の領域が1つの焦点検出領域となる。この1つの焦点検出領域も図11と同様にAFエリアと定義する。ここで、1つのセクション内においては、縦方向における一方の瞳分割を行なう画素SVCが5個、他方の瞳分割を行なう画素SVDも5個含まれている。そこで本実施形態においては、5個のSVCの出力を加算して、位相差演算用の一方の画像信号(C像と称する)の1AF画素とする。同様に、5個のSVDの出力を加算して、位相差演算用の他方の画像信号(D像と称する)の1AF画素とする。   The pixel arrangement shown in FIG. 13 is the same as that described with reference to FIG. 9, but for focus detection, 10 blocks in the horizontal direction and 1 block in the vertical direction are combined into one group, which is defined as a section. To do. In this embodiment, one focus detection region is configured by 30 sections arranged in the vertical direction. That is, an area of 300 rows × 100 columns = 30,000 pixels is one focus detection area. This one focus detection area is also defined as an AF area as in FIG. Here, in one section, five pixels SVC that perform one pupil division in the vertical direction and five pixels SVD that perform the other pupil division are included. Therefore, in this embodiment, the outputs of five SVCs are added to form one AF pixel of one image signal (referred to as a C image) for phase difference calculation. Similarly, the outputs of the five SVDs are added to form a 1AF pixel of the other image signal (referred to as a D image) for phase difference calculation.

図14は、一つのセクションにおける被写体像の捕捉能力を説明するための図で、図12の手法を90度回転したものと等価である。   FIG. 14 is a diagram for explaining the subject image capturing capability in one section, which is equivalent to a 90-degree rotation of the method of FIG.

図14(a)は図13の上端のセクションを切り出したものである。そして右端に示された垂直線PRJvは、焦点検出用画素SVC及びSVDの瞳分割方向に延伸した第3の射影軸、下端に示された水平線PRJhは、瞳分割方向と直交する方向に延伸した第4の射影軸である。図14(a)においても、1つのセクション内の画素SVCはすべて加算され、SVDも加算される。そこで、1セクションを1AF画素と見なした場合、1AF画素に含まれる受光部を瞳分割方向の射影軸PRJvに射影すると、画素SVC及びSVDが交互に緻密に並ぶことがわかる。このときの、瞳分割方向の射影軸PRJvにおける画素SVCの配列ピッチをP1とすると、P1=PVv=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJvにおける画素SVDの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。   FIG. 14A is a cut-out section at the upper end of FIG. The vertical line PRJv shown at the right end is the third projection axis extending in the pupil division direction of the focus detection pixels SVC and SVD, and the horizontal line PRJh shown at the lower end is extended in the direction orthogonal to the pupil division direction. This is the fourth projective axis. Also in FIG. 14A, all the pixels SVC in one section are added, and SVD is also added. Therefore, when one section is regarded as one AF pixel, it can be seen that pixels SVC and SVD are arranged densely alternately when the light receiving portion included in the one AF pixel is projected onto the projection axis PRJv in the pupil division direction. When the arrangement pitch of the pixels SVC on the projection axis PRJv in the pupil division direction at this time is P1, P1 = PVv = 2 (unit is pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the arrangement pitch of the pixels SVD on the projection axis PRJv is P1 = 2 (unit is pixel), and F1 = 0.5 (unit is pixel / pixel) in the spatial frequency notation.

一方、1AF画素に含まれる受光部を瞳分割方向と直交方向の射影軸PRJhに射影すると、画素SVCとSVDはまばらに並ぶことがわかる。このときの、射影軸PRJhにおける画素SVCの配列ピッチをP2とすると、P2=PVh=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJvにおける画素SVDの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。   On the other hand, when the light receiving portion included in one AF pixel is projected onto the projection axis PRJh orthogonal to the pupil division direction, it can be seen that the pixels SVC and SVD are sparsely arranged. If the arrangement pitch of the pixels SVC on the projection axis PRJh at this time is P2, then P2 = PVh = 20 (unit is pixel). When expressed by the spatial frequency F2 instead of the pitch, F2 = 0.05 (unit: pixel / pixel). Similarly, the arrangement pitch of the pixels SVD on the projection axis PRJv is P2 = 20 (unit is pixel), and F2 = 0.05 (unit is pixel / pixel) in the spatial frequency notation.

以上のごとく、図14におけるAF画素のサンプリング特性は、瞳分割方向を基準に考えると、図12と同様の特性、すなわちF1>F2となっている。これは、図14のセクションにおいても、瞳分割方向のセクション寸法L1と、これと直交する方向の寸法L2を、L1<L2としたからである。   As described above, the sampling characteristics of the AF pixels in FIG. 14 are the same as those in FIG. 12, that is, F1> F2 when the pupil division direction is considered as a reference. This is because the section dimension L1 in the pupil division direction and the dimension L2 in the direction perpendicular to the section dimension L1 <L2 in the section of FIG.

図14(a)で説明したAF画素(一つのセクション)に、細線の被写体像(図14(b)にハッチングで示した像)が投影された場合の画像捕捉能力を図14(b)を用いて説明する。   FIG. 14B shows the image capturing capability when a thin line subject image (the image shown by hatching in FIG. 14B) is projected onto the AF pixel (one section) described in FIG. It explains using.

図14(b)において、LINEhは、撮像素子107上に投影された細い横線を表わし、その幅は画素換算で4画素、画像の実寸では幅8μmになっている。この時、セクションSCTv(1)内では、ブロックBLK(1,4)とブロックBLK(1,6)に含まれる焦点検出用画素が被写体像を捕捉する。   In FIG. 14B, LINEh represents a thin horizontal line projected on the image sensor 107, the width of which is 4 pixels in terms of pixel, and the actual size of the image is 8 μm. At this time, in the section SCTv (1), the focus detection pixels included in the block BLK (1, 4) and the block BLK (1, 6) capture the subject image.

一方、図14(b)のLINEvは、撮像素子107上に投影された細い縦線を表わし、その幅は前述のLINEhと同様に画素換算で4画素、画像の実寸では幅8μmになっている。この時には、縦線LINEvはブロックBLK(1,6)にかかっているが、焦点検出用画素SVC及びSVDには捕捉されない。しかしながら、セクションSCTv(1)は、横線のごとく縦方向に輝度分布を有する被写体について焦点検出を行なうためのものである。従って、縦線のごとく横方向に輝度分布を有する被写体については、焦点検出用画素による像の捕捉洩れが生じても実害はない。   On the other hand, LINEv in FIG. 14B represents a thin vertical line projected on the image sensor 107, and the width thereof is 4 pixels in terms of pixels, as in the above-described LINEh, and the actual size of the image is 8 μm. . At this time, the vertical line LINEv covers the block BLK (1, 6), but is not captured by the focus detection pixels SVC and SVD. However, the section SCTv (1) is for performing focus detection on a subject having a luminance distribution in the vertical direction like a horizontal line. Therefore, for an object having a luminance distribution in the horizontal direction as in the case of a vertical line, there is no real harm even if an image is leaked by the focus detection pixels.

図15は、本実施形態における撮像素子の瞳分割状況を概念的に説明する図である。TLは撮影光学系、107は撮像素子、OBJは被写体、IMGは被写体像である。   FIG. 15 is a diagram conceptually illustrating the pupil division state of the image sensor in the present embodiment. TL is a photographing optical system, 107 is an image sensor, OBJ is a subject, and IMG is a subject image.

撮像用画素は図5で説明したように、撮影光学系の射出瞳全域EPを通過した光束を受光する。一方、焦点検出用画素は図6及び図7で説明したように、瞳分割機能を有している。具体的には、図6の画素SHAは撮像面からレンズ後端を見て左側の瞳を通過した光束、すなわち図15の瞳EPHAを通過した光束を受光する。同様に画素SHB、SVC及びSVDはそれぞれ瞳EPHB、EPVC、及びEPVDを通過した光束を受光する。そして、焦点検出用画素は、図10で説明したように撮像素子107の全領域に渡って分布しているため、撮像領域全域で焦点検出も可能となっている。   As described with reference to FIG. 5, the imaging pixel receives the light beam that has passed through the entire exit pupil EP of the imaging optical system. On the other hand, the focus detection pixel has a pupil division function as described with reference to FIGS. Specifically, the pixel SHA in FIG. 6 receives the light beam that has passed through the left pupil as viewed from the imaging surface, that is, the light beam that has passed through the pupil EPHA in FIG. Similarly, the pixels SHB, SVC, and SVD receive light beams that have passed through the pupils EPHB, EPVC, and EPVD, respectively. Since the focus detection pixels are distributed over the entire area of the image sensor 107 as described with reference to FIG. 10, focus detection is also possible over the entire image pickup area.

図16は、焦点検出時に取得した画像と焦点検出領域を説明する図である。   FIG. 16 is a diagram illustrating an image acquired at the time of focus detection and a focus detection area.

図16において、撮像面に形成された被写体像には、中央に人物、左側に近景の樹木、右側に遠景の山並みが写っている。そして本実施形態においては、焦点検出用画素は、横ずれ検出用の画素ペアSHA及びSHBと、縦ずれ検出用の画素ペアSVC及びSVDが、図10に示したように撮像領域全域に渡って均等な密度で配置されている。そして横ずれ検出の際には、位相差演算のためのAF画素信号を図11及び図12で示したようにグループ化処理する。また、縦ずれ検出の際には、位相差演算のためのAF画素信号を図13及び図14で示したようにグループ化処理する。よって、撮像領域の任意位置において、横ずれ検出及び縦ずれ検出のための測距領域を設定可能である。   In FIG. 16, the subject image formed on the imaging surface includes a person at the center, a tree in the foreground on the left, and a mountain range in the foreground on the right. In this embodiment, the focus detection pixels are equal to each other across the entire imaging region, as shown in FIG. 10, in which the lateral shift detection pixel pairs SHA and SHB and the vertical shift detection pixel pairs SVC and SVD. Are arranged at a high density. At the time of lateral shift detection, AF pixel signals for phase difference calculation are grouped as shown in FIGS. In addition, when detecting vertical shift, AF pixel signals for phase difference calculation are grouped as shown in FIGS. Therefore, it is possible to set a distance measurement area for detecting lateral deviation and longitudinal deviation at an arbitrary position in the imaging area.

図16においては、画面中央に人物の顔が存在している。そこで公知の顔認識技術によって顔の存在が検出されると、顔領域を中心に横ずれ検知のための焦点検出領域AFARh(x1,y1)と、縦ずれ検知のための焦点検出領域AFARv(x3,y3)が設定される。ここで添え字のhは水平方向を表わし、(x1,y1)及び(x3,y3)は焦点検出領域の左上隅の座標を表わす。そして、焦点検出領域AFARh(x1,y1)の各セクション内に含まれる5個の焦点検出用画素用SHAを加算し、これを30セクションに渡って連結した位相差検出用のA像信号がAFSIGh(A1)である。また、同様に各セクションの5個の焦点検出用画素用SHBを加算し、これを30セクションに渡って連結した位相差検出用のB像信号がAFSIGh(B1)である。そして、A像信号AFSIGh(A1)とB像信号AFSIGh(B1)の相対的な横ずれ量を公知の相関演算によって計算することで、被写体の焦点ずれ量(デフォーカス量)を求めることができる。   In FIG. 16, a human face exists in the center of the screen. Therefore, when the presence of a face is detected by a known face recognition technique, a focus detection area AFARh (x1, y1) for detecting lateral deviation centered on the face area, and a focus detection area AFARv (x3, for detecting vertical deviation). y3) is set. Here, the subscript h represents the horizontal direction, and (x1, y1) and (x3, y3) represent the coordinates of the upper left corner of the focus detection area. Then, five focus detection pixel SHAs included in each section of the focus detection area AFARh (x1, y1) are added, and the A image signal for phase difference detection obtained by connecting these SHAs over 30 sections is AFSIGh. (A1). Similarly, a B image signal for phase difference detection obtained by adding five focus detection pixel SHBs in each section and connecting them over 30 sections is AFSIGh (B1). Then, by calculating the relative lateral shift amount between the A image signal AFSIGh (A1) and the B image signal AFSIGh (B1) by a known correlation calculation, the defocus amount (defocus amount) of the subject can be obtained.

焦点検出領域AFARv(x3,y3)についても同様に焦点ずれ量を求める。そして、横ずれ用及び縦ずれ用の焦点検出領域で検出した2つの焦点ずれ量を比較し、信頼性の高い値を採用すればよい。   The defocus amount is similarly obtained for the focus detection area AFARv (x3, y3). Then, the two defocus amounts detected in the lateral shift and vertical shift focus detection areas are compared, and a highly reliable value may be adopted.

一方、画面左側の樹木の幹部は、縦線成分が主体、すなわち横方向に輝度分布を有しているため、横ずれ検知に適した被写体と判断され、横ずれ検知のための焦点検出領域AFARh(x2,y2)が設定される。また、画面右側の山並み稜線部は、横線成分が主体、すなわち縦方向に輝度分布を有しているため、縦ずれ検知に適した被写体と判断され、縦ずれ検知のための焦点検出領域AFARv(x4,y4)が設定される。   On the other hand, since the trunk of the tree on the left side of the screen is mainly composed of vertical line components, that is, has a luminance distribution in the horizontal direction, it is determined to be a subject suitable for lateral shift detection, and a focus detection area AFARh (x2) for lateral shift detection , Y2) are set. Further, the mountain ridge line portion on the right side of the screen is mainly composed of a horizontal line component, that is, has a luminance distribution in the vertical direction. Therefore, it is determined as a subject suitable for vertical shift detection, and a focus detection area AFARv ( x4, y4) are set.

以上のごとく本実施形態においては、横ずれ及び縦ずれ検出のための焦点検出領域が画面の任意位置に設定可能であるため、被写体の投影位置や輝度分布の方向性が様々であっても、常に正確な焦点検出が可能である。   As described above, in the present embodiment, since the focus detection area for detecting lateral shift and vertical shift can be set at an arbitrary position on the screen, even if the projection position of the subject and the directionality of the luminance distribution are various, it is always possible. Accurate focus detection is possible.

図17乃至図19は、本実施形態に関わるカメラの焦点調節及び撮影工程を説明するためのフローチャートである。先に説明した図1から図16の各図を参照しながら、図17以降の制御フローを説明する。   FIG. 17 to FIG. 19 are flowcharts for explaining the camera focus adjustment and photographing process according to the present embodiment. The control flow after FIG. 17 will be described with reference to each of FIGS. 1 to 16 described above.

図17は第1の実施形態のカメラの動作を示すメインフローチャートである。   FIG. 17 is a main flowchart showing the operation of the camera of the first embodiment.

撮影者がカメラの電源スイッチをオン操作すると、ステップS101においてCPU121はカメラ内の各アクチュエータや撮像素子の動作確認を行ない、メモリ内容や実行プログラムの初期化を行なうと共に、撮影準備動作を実行する。ステップS102では撮像素子の撮像動作を開始し、プレビュー用の低画素動画像を出力する。ステップS103では読み出した動画をカメラ背面に設けられた表示器131に表示し、撮影者はこのプレビュー画像を目視して撮影時の構図決定を行なう。   When the photographer turns on the power switch of the camera, in step S101, the CPU 121 confirms the operation of each actuator and image sensor in the camera, initializes the memory contents and the execution program, and executes the shooting preparation operation. In step S102, the imaging operation of the imaging device is started, and a low-pixel moving image for preview is output. In step S103, the read moving image is displayed on the display 131 provided on the back side of the camera, and the photographer visually determines the composition at the time of photographing by viewing the preview image.

ステップS104では、プレビュー用動画像に顔が存在するか否かを認識する。そして、撮影領域に顔が存在していると認識された場合には、ステップS105からステップS106に移行し、焦点調節モードを顔AFモードに設定する。ここで顔AFモードとは、撮影領域の顔に焦点を合わせるAFモードを指す。   In step S104, it is recognized whether or not a face exists in the preview moving image. When it is recognized that a face is present in the shooting area, the process proceeds from step S105 to step S106, and the focus adjustment mode is set to the face AF mode. Here, the face AF mode refers to an AF mode for focusing on the face in the shooting area.

一方撮影領域に顔が存在していない場合はステップS105からステップS107に移行し、焦点調節モードを多点AFモードに設定する。ここで多点AFモードとは、撮影領域を例えば3×5=15分割し、各分割領域で焦点検出を行ない、焦点検出結果と被写体の輝度情報から主被写体を類推し、その領域を合焦させるモードを指す。   On the other hand, if no face is present in the shooting area, the process proceeds from step S105 to step S107, and the focus adjustment mode is set to the multipoint AF mode. Here, the multi-point AF mode refers to, for example, dividing the shooting area by 3 × 5 = 15, performing focus detection in each divided area, inferring the main subject from the focus detection result and the luminance information of the subject, and focusing the region. Refers to the mode to be activated.

ステップS106あるいはステップS107でAFモードを決定したら、ステップS108で焦点検出領域を決定する。ステップS109では、撮影準備スイッチがオン操作されたか否かを判別し、オン操作されていなければステップS102に戻り、撮像素子駆動からステップS108の焦点検出領域の決定を繰り返し実行する。   When the AF mode is determined in step S106 or step S107, the focus detection area is determined in step S108. In step S109, it is determined whether or not the photographing preparation switch has been turned on. If the photographing preparation switch has not been turned on, the process returns to step S102, and the determination of the focus detection area in step S108 is repeatedly performed from the image sensor driving.

ステップS109で撮影準備スイッチがオン操作されるとステップS110に移行し、焦点検出サブルーチンを実行する。   When the photographing preparation switch is turned on in step S109, the process proceeds to step S110, and a focus detection subroutine is executed.

図18は焦点検出サブルーチンのフローチャートである。メインフローのステップS109から当サブルーチンのステップS110にジャンプすると、続くステップS131においては、メインルーチンのステップS108で決定した焦点検出領域に含まれる焦点検出用画素を読み出す。   FIG. 18 is a flowchart of the focus detection subroutine. When jumping from step S109 of the main flow to step S110 of this subroutine, in the subsequent step S131, the focus detection pixels included in the focus detection area determined in step S108 of the main routine are read.

ステップS132では、焦点検出領域における図11もしくは図13で説明したセクション内の欠陥画素を検出する。なお、欠陥画素の位置に関する情報は、予めメモリ133等に記憶されており、CPU121は、この情報に基づいてセクション内に欠陥画素があるかないかを判定するものとする。これは、後に説明する第2乃至第4の実施形態においても同様である。   In step S132, a defective pixel in the section described with reference to FIG. 11 or FIG. 13 in the focus detection area is detected. Information regarding the position of the defective pixel is stored in advance in the memory 133 or the like, and the CPU 121 determines whether there is a defective pixel in the section based on this information. The same applies to the second to fourth embodiments described later.

そして、焦点検出用画素に欠陥画素がない場合は、ステップS133からステップ134に移行し、セクション内の全ての焦点検出用画素を加算し、AF画素信号を得る。   If there is no defective pixel in the focus detection pixel, the process proceeds from step S133 to step 134, and all the focus detection pixels in the section are added to obtain an AF pixel signal.

一方、焦点検出用画素に欠陥画素がある場合は、ステップS133からステップS135に移行し、セクション内において、欠陥画素を除いた焦点検出用画素の加算演算を行なう。   On the other hand, if there is a defective pixel in the focus detection pixel, the process proceeds from step S133 to step S135, and the addition operation of the focus detection pixel excluding the defective pixel is performed in the section.

ステップS136では、セクション内における欠陥画素の数に応じた補正係数K(補正値)により、ステップS135で演算した加算結果の補正を行なう。   In step S136, the addition result calculated in step S135 is corrected with a correction coefficient K (correction value) corresponding to the number of defective pixels in the section.

ここで、セクション内に含まれる焦点検出用画素数をN、セクション内に含まれる欠陥画素数をMとすると、補正係数Kを次式で表わす。   Here, when the number of focus detection pixels included in the section is N and the number of defective pixels included in the section is M, the correction coefficient K is expressed by the following equation.

K=N/(N−M)
加算結果には、欠陥画素信号が含まれていないため、欠陥画素が存在しないセクションの加算結果よりも信号が小さくなる。そこで、補正係数Kにより、加算結果を補正することで、欠陥画素の影響を軽減している。
K = N / (NM)
Since the addition result does not include the defective pixel signal, the signal is smaller than the addition result of the section where no defective pixel exists. Therefore, the effect of the defective pixel is reduced by correcting the addition result using the correction coefficient K.

図11もしくは図13で説明した各セクションは、水平方向に瞳分割を行なうための焦点検出用画素が5画素、垂直方向に瞳分割を行なうための焦点検出用画素が5画素で構成されている。例えば、水平方向に瞳分割を行なうための焦点検出用画素の5画素の内、1つの欠陥画素が含まれていた場合は、欠陥画素を含まない4つの画素の信号について加算演算を行なう。そして、補正係数K=5/(5−1)=1.25を加算結果に乗算することで、補正を行なう。ステップS133からステップS136の動作は、焦点検出領域内の全てのセクションについて行なう。   Each section described with reference to FIG. 11 or FIG. 13 is composed of five pixels for focus detection for performing pupil division in the horizontal direction and five pixels for focus detection for performing pupil division in the vertical direction. . For example, when one defective pixel is included among five pixels for focus detection for performing pupil division in the horizontal direction, an addition operation is performed on signals of four pixels that do not include a defective pixel. Then, correction is performed by multiplying the addition result by a correction coefficient K = 5 / (5-1) = 1.25. The operations from step S133 to step S136 are performed for all sections in the focus detection area.

ステップS137では、ステップS134およびステップS136での演算結果を基に、相関演算用の2像の信号を得る。具体的には、図16に示したAFSIGh(A1)とAFSIGh(B1)、あるいはAFSIGv(C3)とAFSIGv(D3)等の対の信号を創生する。   In step S137, two image signals for correlation calculation are obtained based on the calculation results in steps S134 and S136. Specifically, a pair of signals such as AFSIGh (A1) and AFSIGh (B1) or AFSIGv (C3) and AFSIGv (D3) shown in FIG. 16 are created.

ステップS138では得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を計算する。ステップS139では、相関演算結果の信頼性を判定する。ここで信頼性とは、2像の一致度を指し、2像の一致度が良い場合は一般的に焦点検出結果の信頼性が高い。そこで、複数の焦点検出領域が選択されている場合は、信頼性の高い情報を優先的に使用する。   In step S138, the correlation between the two images obtained is calculated, and the relative displacement between the two images is calculated. In step S139, the reliability of the correlation calculation result is determined. Here, the reliability refers to the degree of coincidence between the two images. When the degree of coincidence between the two images is good, the reliability of the focus detection result is generally high. Therefore, when a plurality of focus detection areas are selected, highly reliable information is preferentially used.

ステップS140では、上記の信頼性の高い検出結果からピントずれ量を演算し、図17のメインフロー内のステップS111にリターンする。   In step S140, the amount of focus deviation is calculated from the above reliable detection result, and the process returns to step S111 in the main flow of FIG.

図17のステップS111では、図18のステップS140で計算した焦点ずれ量が許容値以下か否かを判断する。そして焦点ずれ量が許容値以上である場合は、非合焦と判断し、ステップS112でフォーカスレンズを駆動し、その後ステップS110からステップS112を繰り返し実行する。そしてステップS111にて合焦状態に達したと判定されると、ステップS113にて合焦表示を行ない、ステップS114に移行する。   In step S111 of FIG. 17, it is determined whether or not the amount of defocus calculated in step S140 of FIG. If the defocus amount is greater than or equal to the allowable value, it is determined that the subject is out of focus, the focus lens is driven in step S112, and then steps S110 to S112 are repeatedly executed. If it is determined in step S111 that the in-focus state has been reached, in-focus display is performed in step S113, and the process proceeds to step S114.

ステップS114では、撮影開始スイッチがオン操作されたか否かを判別し、オン操作されていなければステップS114にて撮影待機状態を維持する。ステップS114で撮影開始スイッチがオン操作されるとステップS115に移行し、撮影サブルーチンを実行する。   In step S114, it is determined whether or not the shooting start switch is turned on. If the switch is not turned on, the shooting standby state is maintained in step S114. When the shooting start switch is turned on in step S114, the process proceeds to step S115 to execute a shooting subroutine.

図19は撮影サブルーチンのフローチャートである。   FIG. 19 is a flowchart of the photographing subroutine.

撮影開始スイッチが操作されると、ステップS115にジャンプする。続くステップS161ではシャッタアクチュエータ112を駆動し、露光時間を規定するシャッタ102の開口制御を行なう。ステップS162では、高画素静止画撮影のための画像読み出し、すなわち全画素の読み出しを行なう。ステップS163では読み出した画像信号の欠損画素補間を行なう。すなわち、焦点検出用画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を創生する。   When the shooting start switch is operated, the process jumps to step S115. In the subsequent step S161, the shutter actuator 112 is driven to control the opening of the shutter 102 that defines the exposure time. In step S162, image reading for high-pixel still image shooting, that is, reading of all pixels is performed. In step S163, defective pixel interpolation of the read image signal is performed. That is, the output of the focus detection pixel does not have RGB color information for imaging, and corresponds to a defective pixel in obtaining an image. Therefore, an image signal is created by interpolation from information on surrounding imaging pixels. To do.

ステップS164では、画像のγ補正、エッジ強調等の画像処理をおこない、ステップS165において、メモリ133に撮影画像を記録する。ステップS166では、表示器131に撮影済み画像を表示し、図17のメインフローにリターンする。   In step S164, image processing such as image gamma correction and edge enhancement is performed, and in step S165, the captured image is recorded in the memory 133. In step S166, the captured image is displayed on the display 131, and the process returns to the main flow in FIG.

図17のメインフローに戻り、一連の撮影動作を終了する。   Returning to the main flow of FIG. 17, the series of shooting operations is completed.

以上説明したように、第1の実施形態によれば、ステップS132からステップS136で説明したように、焦点検出領域のセクション内の欠陥画素を検出し、欠陥画素が存在している場合は、欠陥画素を含まない画素信号により加算結果を演算し、さらに、欠陥画素の数に応じた補正係数にて、加算結果を補正している。これにより、欠陥画素がある程度存在する場合においても、適正な相関演算用の2像の信号を生成し、焦点検出することが可能となる。   As described above, according to the first embodiment, as described in steps S132 to S136, a defective pixel in a section of the focus detection area is detected, and if a defective pixel exists, a defect is detected. The addition result is calculated by a pixel signal not including pixels, and the addition result is corrected by a correction coefficient corresponding to the number of defective pixels. As a result, even when there are some defective pixels, it is possible to generate two image signals for proper correlation calculation and detect the focus.

(第2の実施形態)
第1の実施形態では、焦点検出領域のセクション内に欠陥画素が存在している場合に、欠陥画素を含まない焦点検出用画素信号を加算し、さらに欠陥画素の数に応じた補正係数を用いてその加算結果を補正している。
(Second Embodiment)
In the first embodiment, when a defective pixel exists in the section of the focus detection area, a focus detection pixel signal not including the defective pixel is added, and a correction coefficient corresponding to the number of defective pixels is used. The addition result is corrected.

これに対し、第2の実施形態では、第1の実施形態とは異なる欠陥画素処理を行なう。   On the other hand, in the second embodiment, defective pixel processing different from that in the first embodiment is performed.

図20を用いて第2の実施形態の動作について説明する。   The operation of the second embodiment will be described with reference to FIG.

図20のフローチャートは、第1の実施形態の図18に示すフローチャートに対応する。つまり、図17のメインシーケンスのステップS110である焦点検出サブルーチンに対応する。   The flowchart in FIG. 20 corresponds to the flowchart shown in FIG. 18 of the first embodiment. That is, it corresponds to the focus detection subroutine which is step S110 of the main sequence in FIG.

まず、ステップS231では、メインルーチンのステップS108で決定した焦点検出領域に含まれる焦点検出用画素を読み出す。   First, in step S231, focus detection pixels included in the focus detection area determined in step S108 of the main routine are read.

ステップS232では、焦点検出領域におけるセクション内の欠陥画素を検出する。   In step S232, a defective pixel in the section in the focus detection area is detected.

そして、焦点検出用画素に欠陥が無い場合は、ステップS233からステップS234に移行し、セクション内の全ての焦点検出用画素の信号を加算平均して加算平均値を算出し、AF画素信号を得る。   If there is no defect in the focus detection pixels, the process proceeds from step S233 to step S234, the signals of all the focus detection pixels in the section are added and averaged to calculate an addition average value, and an AF pixel signal is obtained. .

一方、焦点検出用画素に欠陥が有る場合は、ステップS233からステップS235に移行し、セクション内において、欠陥画素を除いた焦点検出用画素の信号について加算平均してAF画素信号を得る。   On the other hand, if there is a defect in the focus detection pixel, the process proceeds from step S233 to step S235, and the AF pixel signal is obtained by averaging the signal of the focus detection pixel excluding the defective pixel in the section.

例えば、図13で説明したセクションにおいて、水平方向に瞳分割を行なうための焦点検出用画素の5画素に1つの欠陥画素が含まれていた場合は、欠陥画素を含まない4つの画素の信号について加算演算を行なう。そして、4画素による平均演算を行なう。   For example, in the section described with reference to FIG. 13, when one defective pixel is included in five pixels for focus detection for performing pupil division in the horizontal direction, signals of four pixels that do not include a defective pixel are included. Addition operation is performed. Then, an average calculation using four pixels is performed.

ステップS236では、ステップS234およびステップS235で演算したAF画素信号に基づいて、相関演算用の2像の信号を得る。ステップS237では得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を計算する。ステップS238では、相関演算結果の信頼性を判定する。ここで信頼性とは、2像の一致度を指し、2像の一致度が良い場合は一般的に焦点検出結果の信頼性が高い。そこで、複数の焦点検出領域が選択されている場合は、信頼性の高い情報を優先的に使用する。   In step S236, two image signals for correlation calculation are obtained based on the AF pixel signals calculated in steps S234 and S235. In step S237, the obtained two images are subjected to correlation calculation to calculate a relative positional shift amount between the two images. In step S238, the reliability of the correlation calculation result is determined. Here, the reliability refers to the degree of coincidence between the two images. When the degree of coincidence between the two images is good, the reliability of the focus detection result is generally high. Therefore, when a plurality of focus detection areas are selected, highly reliable information is preferentially used.

ステップS239では、上記の信頼性の高い検出結果からピントずれ量を演算し、図17のメインフロー内のステップS111にリターンする。   In step S239, the amount of focus deviation is calculated from the above reliable detection result, and the process returns to step S111 in the main flow of FIG.

以上説明したように、第2の実施形態によれば、ステップS232からステップS235で説明したように、焦点検出領域のセクション内の欠陥画素を検出し、欠陥画素が存在している場合は、欠陥画素を含まない焦点検出用画素の信号を加算平均している。これにより、欠陥画素がある程度存在する場合においても、適正な相関演算用の2像の信号を生成し、焦点検出することが可能となる。   As described above, according to the second embodiment, as described in steps S232 to S235, a defective pixel in the section of the focus detection area is detected, and if a defective pixel exists, a defect is detected. The signals of the focus detection pixels not including the pixels are averaged. As a result, even when there are some defective pixels, it is possible to generate two image signals for proper correlation calculation and detect the focus.

(第3の実施形態)
第3の実施形態では、第1及び第2の実施形態とは異なる欠陥画素処理を行なう。
(Third embodiment)
In the third embodiment, defective pixel processing different from those in the first and second embodiments is performed.

図21を用いて第3の実施形態の動作について説明する。   The operation of the third embodiment will be described with reference to FIG.

図21のフローチャートは、第1の実施形態の図18に示すフローチャートに対応する。つまり、図17のメインシーケンスのステップS110である焦点検出サブルーチンに対応する。   The flowchart of FIG. 21 corresponds to the flowchart shown in FIG. 18 of the first embodiment. That is, it corresponds to the focus detection subroutine which is step S110 of the main sequence in FIG.

まず、ステップS331では、メインルーチンのステップS108で決定した焦点検出領域に含まれる焦点検出用画素を読み出す。   First, in step S331, the focus detection pixels included in the focus detection area determined in step S108 of the main routine are read out.

ステップS332では、焦点検出領域におけるセクション内の欠陥画素を検出する。   In step S332, a defective pixel in the section in the focus detection area is detected.

そして、焦点検出用画素に欠陥が無い場合は、ステップS333からステップS334へ移行し、セクション内の全ての焦点検出用画素の信号を加算しAF画素信号を得る。   If there is no defect in the focus detection pixel, the process proceeds from step S333 to step S334, and the signals of all the focus detection pixels in the section are added to obtain an AF pixel signal.

一方、焦点検出用画素に欠陥が有る場合は、ステップS333からステップS335へ移行し、欠陥画素に対応した欠陥行(または欠陥列)の代わりに使用する代替行(または代替列)を設定する。ここで、代替行について図22および図23、図12を用いて詳細に説明する。   On the other hand, if the focus detection pixel has a defect, the process proceeds from step S333 to step S335, and an alternative row (or alternative column) to be used instead of the defective row (or defective column) corresponding to the defective pixel is set. Here, the alternative row will be described in detail with reference to FIG. 22, FIG. 23, and FIG.

図22は、図11で説明したセクション構造である。ここでは、ブロックBLK(3,3)のA像に対応した焦点検出用画素が欠陥であるものとする。   FIG. 22 shows the section structure described in FIG. Here, it is assumed that the focus detection pixel corresponding to the A image of the block BLK (3, 3) is defective.

図23は、ブロックBLK(3,3)を含むセクションを切り出した図である。   FIG. 23 is a diagram in which a section including the block BLK (3, 3) is cut out.

図23の下端に示された水平線PRJh、つまり焦点検出用画素SHA及びSHBの瞳分割方向に延伸した第1の射影軸に注目する。   Note the horizontal line PRJh shown at the lower end of FIG. 23, that is, the first projection axis extending in the pupil division direction of the focus detection pixels SHA and SHB.

欠陥画素が存在しない場合は、図12で説明したように、画素SHAとSHBが交互に密に並ぶ。   When there is no defective pixel, the pixels SHA and SHB are alternately and densely arranged as described with reference to FIG.

一方、図23のように欠陥画素が存在する場合は、信号の一部が欠落してしまう。したがって、空間周波数が高い被写体(細線など)の検出能力が落ちてしまう。   On the other hand, when a defective pixel exists as shown in FIG. 23, a part of the signal is lost. Accordingly, the ability to detect a subject (such as a thin line) having a high spatial frequency is reduced.

そこで、ブロックBLK(3,3)と同種の検出位置に対応した新たなブロックをセクションに加える。   Therefore, a new block corresponding to the detection position of the same type as the block BLK (3, 3) is added to the section.

図22において、欠陥画素を含む行、ブロックBLK(3,1)からBLK(3,30)をセクション内の演算から除外する。そして、焦点検出領域近傍で、かつブロックBLK(3,3)と同種の検出位置に対応した行、つまりブロックBLK(13,1)からBLK(13,30)をセクション内の加算演算に加える。   In FIG. 22, rows including defective pixels, blocks BLK (3, 1) to BLK (3, 30) are excluded from the operations in the section. Then, a row in the vicinity of the focus detection area and corresponding to a detection position of the same type as the block BLK (3, 3), that is, the blocks BLK (13, 1) to BLK (13, 30) are added to the addition operation in the section.

ステップS336では、セクション内において、欠陥行(または欠陥列)を除き、代替行(または代替列)の焦点検出用画素の信号を加えて加算演算して、AF画素信号を得る。   In step S336, within the section, the defective row (or defective column) is removed, and the focus detection pixel signals of the alternative row (or alternative column) are added and added to obtain an AF pixel signal.

ステップS337では、ステップS334あるいはステップS336で演算したAF画素信号に基づいて、相関演算用の2像の信号を得る。ステップS338では得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を計算する。ステップS339では、相関演算結果の信頼性を判定する。ここで信頼性とは、2像の一致度を指し、2像の一致度が良い場合は一般的に焦点検出結果の信頼性が高い。そこで、複数の焦点検出領域が選択されている場合は、信頼性の高い情報を優先的に使用する。   In step S337, two image signals for correlation calculation are obtained based on the AF pixel signal calculated in step S334 or step S336. In step S338, the correlation between the two images obtained is calculated, and the relative displacement between the two images is calculated. In step S339, the reliability of the correlation calculation result is determined. Here, the reliability refers to the degree of coincidence between the two images. When the degree of coincidence between the two images is good, the reliability of the focus detection result is generally high. Therefore, when a plurality of focus detection areas are selected, highly reliable information is preferentially used.

ステップS340では、上記の信頼性の高い検出結果からピントずれ量を演算し、図17のメインフロー内のステップS111にリターンする。   In step S340, the amount of focus deviation is calculated from the highly reliable detection result, and the process returns to step S111 in the main flow of FIG.

以上説明したように、第3の実施形態によれば、ステップS332からステップS336で説明したように、焦点検出領域内の欠陥画素を検出し、欠陥画素が存在している場合は、欠陥画素を含む欠陥行(または欠陥列)を演算から除外する。さらに、代替行(または代替列)として欠陥行(または欠陥列)と同じ検出位置に対応した代替行(または代替列)を設定することで、空間周波数の高い細線などの被写体像においても、適正な相関演算用の2像の信号を生成し、焦点検出することが可能となる。   As described above, according to the third embodiment, as described in steps S332 to S336, a defective pixel in the focus detection area is detected, and if a defective pixel exists, the defective pixel is detected. Include defective rows (or defective columns) from the operation. Furthermore, by setting an alternative row (or alternative column) corresponding to the same detection position as the defective row (or alternative column) as an alternative row (or alternative column), it is also appropriate for subject images such as fine lines with high spatial frequency. It is possible to generate two image signals for the correlation calculation and to detect the focus.

(第4の実施形態)
第1乃至第3の実施形態で説明したカメラシステムは、撮像素子の撮像領域の一部を、焦点検出用領域として機能させている。
(Fourth embodiment)
In the camera systems described in the first to third embodiments, a part of the imaging area of the imaging element is caused to function as a focus detection area.

これに対し、第4の実施形態のカメラシステムでは、撮像素子の撮像領域の一部を、測光用領域として機能させる。   On the other hand, in the camera system of the fourth embodiment, a part of the imaging area of the imaging element is caused to function as a photometric area.

図24及び図25を用いて第4の実施形態の構成について説明する。   The configuration of the fourth embodiment will be described with reference to FIGS.

図24は、測光用画素の配置と構造を示す図である。   FIG. 24 is a diagram showing the arrangement and structure of the photometric pixels.

図24(a)は、測光用画素を含む2行×2列の画素の平面図である。記録もしくは観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認知されやすい。一方でRもしくはB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで本実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、RとBの画素を測光用画素に置き換える。これを図24(a)においてSBR及びSDKで示す。   FIG. 24A is a plan view of 2 × 2 pixels including photometric pixels. When obtaining an image signal for recording or viewing, the main component of luminance information is acquired with G pixels. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is easily recognized when G pixels are lost. On the other hand, the R or B pixel is a pixel that acquires color information (color difference information). However, since human visual characteristics are insensitive to color information, the pixel that acquires color information may have some loss. Image quality degradation is difficult to recognize. Therefore, in the present embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the R and B pixels are replaced with photometric pixels. This is indicated by SBR and SDK in FIG.

図24(b)は、図24(a)における断面A−Aを示す図である。マイクロレンズMLと、光電変換部PDは図5(b)に示した撮像用画素と同一構造である。本実施形態においては、測光用画素の信号は画像創生には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(White)が配置される。   FIG.24 (b) is a figure which shows the cross section AA in Fig.24 (a). The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. In this embodiment, since the signal of the photometric pixel is not used for image creation, a transparent film CFW (White) is disposed instead of the color separation color filter.

また、測光用画素は、それぞれ異なる大きさの瞳を設定するため、配線層CLの開口部の大きさが異なっている。具体的には、画素SBRの開口部OPBRは小さく、撮影光学系TLの光軸付近の狭い射出瞳EPBRを通過した光束を受光する。一方、画素SDKの開口部OPDKは通常の撮像画素と同じ大きさであり、撮影光学系TLを通過した光束を可能な限り有効に取り込むように構成されている。   Further, since the photometric pixels set pupils of different sizes, the sizes of the openings of the wiring layer CL are different. Specifically, the opening OPBR of the pixel SBR is small and receives the light beam that has passed through the narrow exit pupil EPBR near the optical axis of the imaging optical system TL. On the other hand, the opening OPDK of the pixel SDK has the same size as that of a normal imaging pixel, and is configured to capture the light beam that has passed through the photographing optical system TL as effectively as possible.

よって、画素SBR、画素SDKを規則的に配列し、それぞれの画素群で取得した輝度信号を使い分けることによって、被写体を広い階調で測光することができる。   Accordingly, by regularly arranging the pixels SBR and the pixels SDK and using the luminance signals acquired in the respective pixel groups, it is possible to measure the subject with a wide gradation.

図2で説明した撮像素子は、入射光量に対して線形信号として出力される。このような、撮像素子の場合、一般的には輝度の分解能は256階調程度であり、一回の露光条件で、±4段分の輝度範囲しか測光できない。   The image sensor described in FIG. 2 is output as a linear signal with respect to the amount of incident light. In the case of such an image pickup device, the luminance resolution is generally about 256 gradations, and only a luminance range of ± 4 steps can be measured under one exposure condition.

そこで、異なる開口の大きさを持つ画素SBR、SDKを用意することで、明るい部分を開口の狭いSBR画素で測光し、暗い部分を開口の広いSDK画素で測光することで、±4段分より広い範囲の輝度を測光できるようにしている。   Therefore, by preparing pixels SBR and SDK having different aperture sizes, the bright portion is measured with a narrow SBR pixel, and the dark portion is measured with a wide SDK pixel. A wide range of brightness can be measured.

撮像用画素と測光用画素の配置規則は、図8乃至図10で説明した撮像用画素と焦点検出用画素の配置規則と同じであり、焦点検出用画素SHAとSVCに相当する位置に測光用画素SBRを配置し、撮像用画素SHBとSVDに相当する位置に測光用画素SDKを配置する。配置規則の単位であるブロックおよびクラスタ、フィールドについても図8乃至図10で説明した撮像用画素と焦点検出用画素の配置規則と同じである。   The arrangement rule of the image pickup pixel and the photometry pixel is the same as the arrangement rule of the image pickup pixel and the focus detection pixel described with reference to FIGS. 8 to 10, and the photometry pixel and the photometry pixel are located at positions corresponding to the focus detection pixels SHA and SVC. The pixel SBR is arranged, and the photometric pixel SDK is arranged at a position corresponding to the imaging pixels SHB and SVD. The blocks, clusters, and fields, which are units of arrangement rules, are the same as the arrangement rules for the imaging pixels and focus detection pixels described with reference to FIGS.

図25に示す画素配列において、測光の際に、横方向に1ブロック、縦方向に10ブロックの合計10ブロックを1つのグループとし、これをセクションと定義する。そして、本実施形態では、横方向に並んだ30セクションで、1つの測光領域を構成する。すなわち、100行×300列=3万画素の領域が1つの測光領域となる。この1つの測光領域をAEエリアと定義する。ここで、1つのセクション内においては、高輝度側の測光を行なう画素SBRが10個、低輝度側の測光を行なう画素SDKも10個含まれている。そこで本実施形態においては、10個のSBRの出力を加算して、高輝度用測光信号の1AE画素とする。同様に、10個のSDKの出力を加算して、低輝度側測光用信号の1AE画素とする。   In the pixel array shown in FIG. 25, in photometry, a total of 10 blocks of 1 block in the horizontal direction and 10 blocks in the vertical direction are defined as one group, which is defined as a section. In this embodiment, one photometric area is configured by 30 sections arranged in the horizontal direction. That is, an area of 100 rows × 300 columns = 30,000 pixels is one photometric area. This one photometric area is defined as an AE area. Here, in one section, ten pixels SBR that perform photometry on the high luminance side and ten pixels SDK that perform photometry on the low luminance side are included. Therefore, in the present embodiment, the outputs of the 10 SBRs are added to form a 1AE pixel of the high brightness photometric signal. Similarly, the outputs of 10 SDKs are added to form a 1AE pixel of the low luminance side photometry signal.

図26乃至図28は、本発明の第4の実施形態に関わるカメラの露出調節及び撮影工程を説明するためのフローチャートである。   FIGS. 26 to 28 are flowcharts for explaining camera exposure adjustment and photographing steps according to the fourth embodiment of the present invention.

図26は、第4の実施形態のカメラのメインフローチャートである。   FIG. 26 is a main flowchart of the camera of the fourth embodiment.

撮影者がカメラの電源スイッチをオン操作すると、ステップS401においてCPU121はカメラ内の各アクチュエータや撮像素子の動作確認を行ない、メモリ内容や実行プログラムの初期化を行なうと共に、撮影準備動作を実行する。ステップS402では撮像素子107の撮像動作を開始し、プレビュー用の低画素動画像を出力する。ステップS403では読み出した動画をカメラ背面に設けられた表示器131に表示し、撮影者はこのプレビュー画像を目視して撮影時の構図決定を行なう。   When the photographer turns on the power switch of the camera, in step S401, the CPU 121 confirms the operation of each actuator and image sensor in the camera, initializes the memory contents and the execution program, and executes the shooting preparation operation. In step S402, the imaging operation of the image sensor 107 is started, and a low-pixel moving image for preview is output. In step S403, the read moving image is displayed on the display 131 provided on the back side of the camera, and the photographer visually determines the composition at the time of photographing by viewing the preview image.

ステップS404では、プレビュー用動画像に顔が存在するか否かを認識する。そして、撮影領域に顔が存在していると認識された場合には、ステップS405からステップS406に移行し、顔AF・AEモードに設定する。ここで顔AF・AEモードとは、撮影領域の顔に対して、焦点検出および測光を行うことを指す。   In step S404, it is recognized whether or not a face exists in the preview moving image. If it is recognized that a face exists in the shooting area, the process proceeds from step S405 to step S406, and the face AF / AE mode is set. Here, the face AF / AE mode refers to performing focus detection and photometry on the face in the shooting region.

一方、撮影領域に顔が存在していない場合はステップS405からステップS407に移行し、多点AF・AEモードに設定する。ここで多点AF・AEモードとは、撮影領域を例えば3×5=15分割し、各分割領域で焦点検出と測光を行ない、焦点検出結果と被写体の輝度情報から主被写体を類推し、その領域に対して焦点検出および測光を行うモードを指す。   On the other hand, if no face is present in the shooting area, the process proceeds from step S405 to step S407, and the multipoint AF / AE mode is set. Here, the multi-point AF / AE mode means that, for example, the shooting area is divided into 3 × 5 = 15, focus detection and photometry are performed in each divided area, and the main subject is inferred from the focus detection result and the luminance information of the subject. A mode for performing focus detection and photometry on an area.

ステップS406あるいはステップS407でAF・AEモードを決定したら、ステップS408で焦点検出・測光領域(AF・AE領域)を決定する。   When the AF / AE mode is determined in step S406 or step S407, the focus detection / photometry area (AF / AE area) is determined in step S408.

続くステップS409では、ステップS408で決定したAE領域に対して測光サブルーチンを実行する。   In the subsequent step S409, a photometric subroutine is executed for the AE area determined in step S408.

図27は、測光サブルーチンのフローチャートである。メインフローのステップS408からこのサブルーチンのステップS409にジャンプする。   FIG. 27 is a flowchart of the photometry subroutine. The process jumps from step S408 of the main flow to step S409 of this subroutine.

続くステップS421では、メインルーチンのステップS408で決定した測光領域に含まれる測光用画素を読み出す。   In subsequent step S421, the photometric pixels included in the photometric area determined in step S408 of the main routine are read out.

ステップS422では、図25で説明したセクション構造に基づき、セクション内の欠陥画素を検出する。   In step S422, defective pixels in the section are detected based on the section structure described in FIG.

そして、測光用画素に欠陥が無い場合は、ステップS423からステップS424に移行し、セクション内の高輝度用測光画素の信号を加算平均し、高輝度用AE画素信号を得る。同様に、セクション内の低輝度用AE画素の信号についても同様の演算を行い、低輝度用AE画素信号も得る。   If there is no defect in the photometric pixel, the process proceeds from step S423 to step S424, and the signals of the high luminance photometric pixels in the section are added and averaged to obtain a high luminance AE pixel signal. Similarly, the same calculation is performed on the signal of the low-luminance AE pixel in the section, and the low-luminance AE pixel signal is also obtained.

一方、測光用画素に欠陥が有る場合は、ステップS423からステップS425に移行し、セクション内において、欠陥画素を除いた高輝度用AE画素の信号を加算平均し、高輝度用AE画素信号を得る。さらに、セクション内の低輝度用AE画素の信号についても同様の演算を行い、低輝度用AE画素信号も得る。   On the other hand, if the photometric pixel has a defect, the process proceeds from step S423 to step S425, and the signal of the high luminance AE pixel excluding the defective pixel is added and averaged in the section to obtain the high luminance AE pixel signal. . Further, the same calculation is performed for the signal of the low-luminance AE pixel in the section, and the low-luminance AE pixel signal is also obtained.

ステップS426では、ステップS424あるいはステップ425で得られたAE画素信号から被写体輝度分布を生成する。ここで、被写体輝度分布の生成方法について図25及び図29を用いて説明する。   In step S426, a subject luminance distribution is generated from the AE pixel signal obtained in step S424 or step 425. Here, a method for generating the subject luminance distribution will be described with reference to FIGS. 25 and 29. FIG.

図25で説明した画素SBRの開口は、SDKの開口よりも7段分小さく設定されている。そのため、SBR画素から演算した高輝度用AE画素信号は、SDK画素から演算した低輝度用AE画素信号に対して、同一輝度を測光した場合7段分シフトした値となる。   The opening of the pixel SBR described with reference to FIG. 25 is set to be smaller by seven steps than the opening of the SDK. Therefore, the high luminance AE pixel signal calculated from the SBR pixel is a value shifted by seven steps when the same luminance is measured with respect to the low luminance AE pixel signal calculated from the SDK pixel.

図29は、AE画素信号と輝度段数比の対応表である。低輝度用AE画素信号128が最適露出値とすると、高輝度用AE画素信号が大きくなるほど、露出オーバーになる。一方、低輝度用AF画素信号が小さくなるほど、露出アンダーになる。この対応表により、被写体輝度分布を生成する。   FIG. 29 is a correspondence table between the AE pixel signal and the luminance stage number ratio. Assuming that the low-brightness AE pixel signal 128 has an optimum exposure value, the larger the high-brightness AE pixel signal, the more the exposure is overexposed. On the other hand, the lower the AF pixel signal for low luminance, the lower the exposure. Based on this correspondence table, a subject luminance distribution is generated.

ステップS427では、ステップ426で生成した被写体輝度分布から次回撮影用の露出量を決定して図26のメインフロー内のステップ410にリターンする。   In step S427, the exposure amount for the next shooting is determined from the subject luminance distribution generated in step 426, and the process returns to step 410 in the main flow of FIG.

図26のステップ410では、撮影準備スイッチがオン操作されたか否かを判別し、オン操作されていなければステップS402に戻り、撮像素子駆動からステップS409の測光サブルーチン動作を繰り返し実行する。   In step 410 of FIG. 26, it is determined whether or not the photographing preparation switch has been turned on. If the photographing preparation switch has not been turned on, the process returns to step S402, and the photometric subroutine operation of step S409 is repeatedly executed from the image sensor driving.

ステップS410で撮影準備スイッチがオン操作されるとステップS411に移行し、AF動作を実行する。ここでは、撮像素子107に結像される被写体像の高周波成分を抽出し、第3レンズ群105を駆動ながらその高周波成分がもっとも高くなる位置を合焦位置とする、所謂コントラスト検出方式のAF動作を行なう。   When the photographing preparation switch is turned on in step S410, the process proceeds to step S411, and the AF operation is executed. Here, a high-frequency component of the subject image formed on the image sensor 107 is extracted, and a so-called contrast detection AF operation is performed in which the position where the high-frequency component is highest while driving the third lens group 105 is the in-focus position. To do.

続くステップS412では、合焦表示を行ない、ステップS413に移行する。   In subsequent step S412, in-focus display is performed, and the process proceeds to step S413.

ステップS413では、撮影開始スイッチがオン操作されたか否かを判別し、オン操作されていなければステップS413にて撮影待機状態を維持する。ステップS413で撮影開始スイッチがオン操作されるとステップS414に移行し、撮影サブルーチンを実行する。   In step S413, it is determined whether or not the photographing start switch has been turned on. If the photographing start switch has not been turned on, the photographing standby state is maintained in step S413. When the shooting start switch is turned on in step S413, the process proceeds to step S414, and a shooting subroutine is executed.

図28は撮影サブルーチンのフローチャートである。   FIG. 28 is a flowchart of the photographing subroutine.

撮影開始スイッチが操作されると、ステップS435では、図27の測光サブルーチン中のステップS427で決定した露出量を基に、シャッタ102を駆動し、露光時間を規定する開口制御を行なう。ステップS436では、高画素静止画撮影のための画像読み出し、すなわち全画素の読み出しを行なう。ステップS437では読み出した画像信号の欠損画素補間を行なう。すなわち、測光用画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を創生する。   When the photographing start switch is operated, in step S435, the shutter 102 is driven based on the exposure amount determined in step S427 in the photometric subroutine of FIG. 27, and aperture control for defining the exposure time is performed. In step S436, image reading for high-pixel still image shooting, that is, reading of all pixels is performed. In step S437, defective pixel interpolation of the read image signal is performed. That is, the output of the photometric pixel does not have RGB color information for imaging, and corresponds to a defective pixel in obtaining an image. Therefore, an image signal is created by interpolation from information on surrounding imaging pixels. .

ステップS438では、画像のγ補正処理、エッジ強調処理等の画像処理を行い、ステップS439において、メモリ133に撮影画像を記録する。ステップS440では、表示器131に撮影済み画像を表示し、図26のメインフローにリターンする。   In step S438, image processing such as image γ correction processing and edge enhancement processing is performed, and in step S439, the captured image is recorded in the memory 133. In step S440, the captured image is displayed on the display 131, and the process returns to the main flow in FIG.

図26のメインフローに戻ると、一連の撮影動作を終了する。   Returning to the main flow of FIG. 26, the series of shooting operations is terminated.

以上説明したように、第4の実施形態によれば、図27のステップS422からステップS425で説明したように、測光領域のセクション内の欠陥画素を検出し、欠陥画素が存在している場合は、欠陥画素を含まない画素信号を加算平均している。これにより、欠陥画素がある程度存在する場合においても、適正な被写体輝度分布を生成し、測光することが可能となる。   As described above, according to the fourth embodiment, as described in steps S422 to S425 in FIG. 27, when a defective pixel is detected in a section of the photometric area and a defective pixel exists. The pixel signals not including defective pixels are averaged. Thereby, even when there are some defective pixels, it is possible to generate an appropriate subject luminance distribution and perform photometry.

101 第1レンズ群
102 シャッタ
103 第2レンズ群
105 第3レンズ群
106 光学的ローパスフィルタ
107 撮像素子
114 フォーカスアクチュエータ
121 CPU
124 撮像素子駆動回路
125 画像処理回路
131 表示器
132 操作スイッチ群
133 メモリ
DESCRIPTION OF SYMBOLS 101 1st lens group 102 Shutter 103 2nd lens group 105 3rd lens group 106 Optical low-pass filter 107 Image pick-up element 114 Focus actuator 121 CPU
124 Image sensor drive circuit 125 Image processing circuit 131 Display unit 132 Operation switch group 133 Memory

Claims (4)

複数の画素が2次元的に配列され、撮影光学系を介して入射した被写体光を光電変換して画像信号を生成する撮像素子であって、前記撮影光学系の射出瞳を分割した一部の領域を通過した光束を受光する複数の画素を有し、第1の画素と第2の画素が対をなすように構成された第1の画素群と第2の画素群とを有する撮像素子と、
前記第1の画素群から得られる像と前記第2の画素群から得られる像の相関演算を行い、前記像の位相差に基づいて焦点ずれ量を検出する焦点検出手段と、を備え、
前記焦点検出手段は、前記対をなす第1の画素と第2の画素の一方に欠陥画素が存在する欠陥行または欠陥列がある場合に、前記対をなす第1の画素を含む行または列と、前記対をなす第2の画素を含む行または列の両方を除外した前記第1の画素群と前記第2の画素群の出力信号に基づく像の相関演算の結果に応じて、前記像の位相差に基づいた焦点ずれ量の検出を行うことを特徴とする撮像装置。
An imaging element in which a plurality of pixels are two-dimensionally arranged and photoelectrically converts subject light incident via a photographing optical system to generate an image signal, wherein a part of the exit pupil of the photographing optical system is divided An imaging device having a plurality of pixels that receive a light flux that has passed through the region, and a first pixel group and a second pixel group configured such that the first pixel and the second pixel form a pair; ,
A focus detection unit that performs correlation calculation between an image obtained from the first pixel group and an image obtained from the second pixel group, and detects a defocus amount based on a phase difference between the images,
The focus detection unit may include a row or a column including the first pixel forming the pair when there is a defective row or defective column in which a defective pixel exists in one of the first pixel and the second pixel forming the pair. And the image according to the result of the correlation operation of the images based on the output signals of the first pixel group and the second pixel group excluding both the row or column including the second pixel forming the pair. An imaging apparatus that detects a defocus amount based on a phase difference between the two.
前記焦点検出手段は、前記対をなす第1の画素と第2の画素の一方に欠陥画素が存在する欠陥行または欠陥列がある場合に、前記対をなす第1の画素を含む行または列と、前記対をなす第2の画素を含む行または列の代わりに代替行または代替列を設定し、前記代替行または代替列の画素から得られる像に基づいて相関演算を行うことを特徴とする請求項1に記載の撮像装置。   The focus detection unit may include a row or a column including the first pixel forming the pair when there is a defective row or defective column in which a defective pixel exists in one of the first pixel and the second pixel forming the pair. A substitute row or a substitute column is set instead of a row or a column including the paired second pixels, and a correlation operation is performed based on an image obtained from the pixels of the substitute row or the substitute column. The imaging device according to claim 1. 前記代替行または代替列は、前記欠陥画素が含まれる焦点検出領域の近傍であり、同種の検出位置に対応した行または列であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the alternative row or the alternative column is a row or a column that is in the vicinity of a focus detection region including the defective pixel and corresponds to the same type of detection position. 複数の画素が2次元的に配列され、撮影光学系を介して入射した被写体光を光電変換して画像信号を生成する撮像素子であって、前記撮影光学系の射出瞳を分割した一部の領域を通過した光束を受光する複数の画素を有し、第1の画素と第2の画素が対をなすように構成された第1の画素群と第2の画素群とを有する撮像素子を備えた撮像装置の制御方法であって、
前記第1の画素群から得られる像と前記第2の画素群から得られる像の相関演算を行い、前記像の位相差に基づいて焦点ずれ量を検出する焦点検出工程を備え、
前記焦点検出工程では、前記対をなす第1の画素と第2の画素の一方に欠陥画素が存在する欠陥行または欠陥列がある場合に、前記対をなす第1の画素を含む行または列と、前記対をなす第2の画素を含む行または列の両方を除外した前記第1の画素群と前記第2の画素群の出力信号に基づく像の相関演算の結果に応じて、前記像の位相差に基づいた焦点ずれ量の検出を行うことを特徴とする撮像装置の制御方法。
An imaging element in which a plurality of pixels are two-dimensionally arranged and photoelectrically converts subject light incident via a photographing optical system to generate an image signal, wherein a part of the exit pupil of the photographing optical system is divided An imaging device having a plurality of pixels that receive a light beam that has passed through a region and having a first pixel group and a second pixel group configured such that the first pixel and the second pixel make a pair. A control method for an imaging apparatus provided with
A focus detection step of performing a correlation operation between an image obtained from the first pixel group and an image obtained from the second pixel group and detecting a defocus amount based on a phase difference of the image;
In the focus detection step, when there is a defective row or defective column in which a defective pixel exists in one of the first pixel and the second pixel that form the pair, the row or column that includes the first pixel that forms the pair And the image according to the result of the correlation operation of the images based on the output signals of the first pixel group and the second pixel group excluding both the row or column including the second pixel forming the pair. A method for controlling an imaging apparatus, comprising: detecting an amount of defocus based on a phase difference between the two.
JP2013149929A 2013-07-18 2013-07-18 Imaging apparatus and control method thereof Pending JP2014013392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013149929A JP2014013392A (en) 2013-07-18 2013-07-18 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013149929A JP2014013392A (en) 2013-07-18 2013-07-18 Imaging apparatus and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008246590A Division JP5322561B2 (en) 2008-09-25 2008-09-25 Imaging apparatus and control method thereof

Publications (1)

Publication Number Publication Date
JP2014013392A true JP2014013392A (en) 2014-01-23

Family

ID=50109076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013149929A Pending JP2014013392A (en) 2013-07-18 2013-07-18 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP2014013392A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58132708A (en) * 1982-02-03 1983-08-08 Hitachi Denshi Ltd Automatic focusing device
JP2001177756A (en) * 1999-12-21 2001-06-29 Canon Inc Image pickup device and camera system provided with it

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58132708A (en) * 1982-02-03 1983-08-08 Hitachi Denshi Ltd Automatic focusing device
JP2001177756A (en) * 1999-12-21 2001-06-29 Canon Inc Image pickup device and camera system provided with it

Similar Documents

Publication Publication Date Title
JP5322561B2 (en) Imaging apparatus and control method thereof
JP5276371B2 (en) Imaging device
JP5028154B2 (en) Imaging apparatus and control method thereof
JP5202289B2 (en) Imaging device
JP5552214B2 (en) Focus detection device
JP5276374B2 (en) Focus detection device
JP5675157B2 (en) Focus detection device
US9490281B2 (en) Image sensor and image capturing apparatus
RU2525034C2 (en) Image capturing device
JP5513326B2 (en) Imaging device and imaging apparatus
JP5147645B2 (en) Imaging device
JP5319347B2 (en) Imaging apparatus and control method thereof
JP2010020015A (en) Image pick up apparatus
US20130155271A1 (en) Image capture apparatus
RU2548050C2 (en) Image capturing device
JP2011023823A (en) Apparatus and method for processing image
JP2010117679A (en) Focus detection device and method, and image pickup device
JP5804693B2 (en) Imaging device
JP2012220790A (en) Imaging apparatus
JP2014130231A (en) Imaging apparatus, method for controlling the same, and control program
JP2011227388A (en) Imaging device
JP5735784B2 (en) Imaging device and control method thereof, lens device and control method thereof
JP5961208B2 (en) Imaging device and imaging apparatus
JP2014013392A (en) Imaging apparatus and control method thereof
JP5793210B2 (en) Imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141125