JP2014032311A - Distance measuring device, imaging apparatus having the same, control method for imaging device, and control program - Google Patents

Distance measuring device, imaging apparatus having the same, control method for imaging device, and control program Download PDF

Info

Publication number
JP2014032311A
JP2014032311A JP2012172938A JP2012172938A JP2014032311A JP 2014032311 A JP2014032311 A JP 2014032311A JP 2012172938 A JP2012172938 A JP 2012172938A JP 2012172938 A JP2012172938 A JP 2012172938A JP 2014032311 A JP2014032311 A JP 2014032311A
Authority
JP
Japan
Prior art keywords
pixel
distance measuring
pupil
focus evaluation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012172938A
Other languages
Japanese (ja)
Other versions
JP2014032311A5 (en
JP6188290B2 (en
Inventor
Masashi Kimura
正史 木村
Tomomi Watanabe
友美 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012172938A priority Critical patent/JP6188290B2/en
Publication of JP2014032311A publication Critical patent/JP2014032311A/en
Publication of JP2014032311A5 publication Critical patent/JP2014032311A5/en
Application granted granted Critical
Publication of JP6188290B2 publication Critical patent/JP6188290B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distance measuring device in which, in order to attain a phase difference AF and a contrast AF based on information on light fluxes having passed through different pupil areas, pixel selection suitable for each of the AFs is performed.SOLUTION: A distance measuring device, in which a pixel signal output from an imaging element having pupil division means for restricting a subject light injected in a pixel only to a specific pupil area of an imaging optical system is obtained so as to perform a pint evaluation in accordance with different distance measuring methods: selects, in accordance with the distance measuring method, between a first pixel selection mode for selecting a pixel corresponding to each area of a plurality of pupil areas divided by the pupil division means, and a second pixel selection mode for selecting only a pixel corresponding to prescribed different two of the plurality of pupil areas, so as to set it; obtains a pixel signal output from a pixel selected in a set pixel selection mode; and performs a pint evaluation in accordance with the distance measuring method on the basis of the obtained pixel signal.

Description

本発明は、デジタルカメラに代表される撮像装置に関し、特にオートフォーカス(以下AF)に関する。   The present invention relates to an imaging apparatus typified by a digital camera, and more particularly to autofocus (hereinafter referred to as AF).

従来、ピント調整のためのAF装置として、一眼レフカメラではいわゆる位相差AFを備えた装置が、コンパクトカメラではコントラストAFを備えた装置が多く使用されている。これらのAF装置の特徴として、位相差AFは高速なピント調整が可能、コントラストAFは厳密なピント合わせが可能という点があげられる。   Conventionally, as an AF device for focus adjustment, a single-lens reflex camera uses a device equipped with so-called phase difference AF, and a compact camera uses a device equipped with contrast AF. A feature of these AF devices is that phase difference AF enables high-speed focus adjustment, and contrast AF enables strict focus adjustment.

さらに近年では、撮像面で位相差AF可能なセンサが多く提案されている。   In recent years, many sensors capable of phase difference AF on the imaging surface have been proposed.

例えば、特許文献1では、撮像面で位相差AF可能な構造を備えたセンサを利用した撮像装置において、AFに適した読み出し方法と撮像に適した読み出し方法を備えることが開示されている。特許文献2では、撮像面で位相差AF可能な構造を備えたセンサを利用した撮像装置において、AF優先および画質優先といった各モードに応じた読み出し方法を備えることが開示されている。特許文献3では、瞳を多分割して取得した信号から生成した像に基いてAFを行うことが開示されている。   For example, Patent Document 1 discloses that an imaging apparatus using a sensor having a structure capable of phase difference AF on an imaging surface includes a readout method suitable for AF and a readout method suitable for imaging. Patent Document 2 discloses that an imaging apparatus using a sensor having a structure capable of phase difference AF on an imaging surface includes a readout method corresponding to each mode such as AF priority and image quality priority. Patent Document 3 discloses performing AF based on an image generated from a signal acquired by dividing a pupil into multiple parts.

特開2001−83407号公報JP 2001-83407 A 特開2010−181751号公報JP 2010-181751 A 特開2009−258610号公報JP 2009-258610 A

しかしながら、上述の特許文献に開示された従来技術では、位相差AFと像の再構成によるコントラストAF(詳細は後述する)の双方を行う装置を考えた場合に不都合が生じる。すなわち特許文献1では、加算読み出しを行っているために像の再構成によるコントラストAFを行うことが出来ない。特許文献2では、位相差AFの読み出し比率は適切となるが、コントラストAFを考えた場合には必ずしも適切な画素を選択できない場合がある。特許文献3では複数のAF評価手段を想定していないので、位相差AFおよびコントラストAFの双方に適した読み出しが出来ない場合がある。   However, the conventional techniques disclosed in the above-mentioned patent documents have inconveniences when considering an apparatus that performs both phase difference AF and contrast AF by image reconstruction (details will be described later). That is, in Patent Document 1, since addition reading is performed, contrast AF cannot be performed by image reconstruction. In Patent Document 2, the readout ratio of the phase difference AF is appropriate, but when contrast AF is considered, an appropriate pixel may not always be selected. Since Patent Document 3 does not assume a plurality of AF evaluation means, there are cases where reading suitable for both phase difference AF and contrast AF cannot be performed.

そこで、本発明の目的は、位相差AFと像の再構成によるコントラストAFの双方を行う撮像装置において、各AFに適切な画素選択構成を備えたオートフォーカス装置を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an autofocus device having an appropriate pixel selection configuration for each AF in an imaging device that performs both phase difference AF and contrast AF by image reconstruction.

上記課題を解決するため、本発明によれば、画素へ入射する被写体光を撮影光学系の特定の瞳領域のみに制限する瞳分割手段を備えた撮像素子から出力される画素信号を取得して異なる測距方法に従ってピント評価を行なう測距装置は、測距方法に従って、瞳分割手段で分割される複数の瞳領域の各領域に対応する画素を選択する第1の画素選択モードと、複数の瞳領域の所定の異なる2つに対応する画素だけを選択する第2の画素選択モードを選択して設定し、設定された画素選択モードで選択される画素から出力される画素信号を取得し、取得された画素信号に基づいて、測距方法に従ったピント評価を行なう。   In order to solve the above-described problem, according to the present invention, a pixel signal output from an image pickup device including a pupil dividing unit that restricts subject light incident on a pixel to only a specific pupil region of a photographing optical system is obtained. A distance measuring device that performs focus evaluation according to different distance measuring methods includes a first pixel selection mode for selecting pixels corresponding to each of a plurality of pupil regions divided by the pupil dividing unit according to the distance measuring method; Selecting and setting a second pixel selection mode for selecting only pixels corresponding to two different predetermined pupil regions, obtaining a pixel signal output from the pixel selected in the set pixel selection mode, Based on the acquired pixel signal, focus evaluation according to the distance measuring method is performed.

本発明の目的は、位相差AFと像の再構成によるコントラストAFの双方を行うような撮像装置において、適切な画素選択構成により上記2つのAFを行うオートフォーカス装置を実現することが可能となる。   An object of the present invention is to realize an autofocus device that performs the above two AFs with an appropriate pixel selection configuration in an imaging device that performs both phase difference AF and contrast AF by image reconstruction. .

本発明の第1の実施例に係わる撮像装置であるデジタルカメラの中央断面図およびその構成のブロック図。1 is a central sectional view of a digital camera that is an image pickup apparatus according to a first embodiment of the present invention, and a block diagram of the configuration thereof. 本発明の第1の実施例に係わる撮像装置の撮影光学系の要部を説明する図である。It is a figure explaining the principal part of the imaging optical system of the imaging device concerning 1st Example of this invention. 本発明の第1の実施例に係わる撮像装置の測距動作のフローチャートを示す図である。It is a figure which shows the flowchart of the ranging operation | movement of the imaging device concerning 1st Example of this invention. 像再構における像シフトを模式的に示す図である。It is a figure which shows typically the image shift in an image reconstruction. 本発明の第1の実施例に係わる画像の現像(再構成)における画像信号の加算構成を示す図である。It is a figure which shows the addition structure of the image signal in the image development (reconstruction) concerning the 1st Example of this invention. 本発明の第1の実施例に係わる画素選択構成を示す図である。It is a figure which shows the pixel selection structure concerning the 1st Example of this invention. 本発明の第1の実施例に係わる撮像装置に適用可能な別の光学系の例を示す図である。It is a figure which shows the example of another optical system applicable to the imaging device concerning the 1st Example of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面を参照して詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

以下、図1乃至図7を参照して、本発明の第1の実施例を説明する。本実施例は、本発明のオートフォーカス装置をデジタルカメラである撮像装置に適用した例である。   Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. The present embodiment is an example in which the autofocus device of the present invention is applied to an imaging device which is a digital camera.

図1(a)は本実施例に係わる撮像装置であるデジタルカメラの中央断面図である。本デジタルカメラは、カメラユニットとこれに着脱式に装着可能なカメラユニットから構成されている。しかし、本発明が適用可能な撮像装置は、図1の構成に限るものではなく、レンズユニットとカメラユニットが一体化された構成であってもよい。   FIG. 1A is a central sectional view of a digital camera which is an image pickup apparatus according to the present embodiment. This digital camera includes a camera unit and a camera unit that can be detachably attached to the camera unit. However, the imaging apparatus to which the present invention is applicable is not limited to the configuration shown in FIG. 1, and may be a configuration in which a lens unit and a camera unit are integrated.

図1(b)は図1(a)のデジタルカメラの構成を示すブロック図である。図1(a)および図1(b)で同一の符号が付してあるものはそれぞれ対応している。   FIG. 1B is a block diagram showing the configuration of the digital camera shown in FIG. In FIG. 1 (a) and FIG. 1 (b), the same reference numerals correspond to each other.

図1(a)において、1はカメラユニットを、2はカメラユニット1に着脱式に装着可能なレンズユニットを、3は撮影光学系を形成するレンズを、4は撮影光学系の光軸を、6は撮像素子を示す。また、9は背面表示装置を、11はカメラユニット1とレンズユニット2の電気接点を、12はレンズユニット2に設けられたレンズシステム制御部を、14はクイックリターン機構を、16はカメラユニット1に設けられたファインダ表示部をそれぞれ示す。   In FIG. 1A, 1 is a camera unit, 2 is a lens unit that can be detachably attached to the camera unit 1, 3 is a lens forming a photographing optical system, 4 is an optical axis of the photographing optical system, Reference numeral 6 denotes an image sensor. Further, 9 is a rear display device, 11 is an electrical contact between the camera unit 1 and the lens unit 2, 12 is a lens system controller provided in the lens unit 2, 14 is a quick return mechanism, and 16 is the camera unit 1. Each of the finder display units provided in FIG.

図1(b)を参照すると、カメラ1およびレンズ2からなるカメラシステムは、撮像系、画像処理系、記録再生系、制御系を有する。撮像系は、撮影光学系3 、撮像素子6を含み、画像処理系は、画像処理部7を含む。また、記録再生系は、メモリ部8、表示部9を含み、制御系は、カメラシステム制御部5、操作検出部10、およびレンズシステム制御部12、レンズ駆動手段13を含む。レンズ駆動部13は、焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。   Referring to FIG. 1B, a camera system including a camera 1 and a lens 2 has an imaging system, an image processing system, a recording / reproducing system, and a control system. The imaging system includes a photographing optical system 3 and an imaging element 6, and the image processing system includes an image processing unit 7. The recording / reproducing system includes a memory unit 8 and a display unit 9, and the control system includes a camera system control unit 5, an operation detection unit 10, a lens system control unit 12, and lens driving means 13. The lens driving unit 13 can drive a focus lens, a shake correction lens, a diaphragm, and the like.

撮像系は、物体(被写体)からの光を(被写体光)、撮影光学系3を介して撮像素子6の撮像面に結像する光学処理系である。撮像素子6表面にはマイクロレンズが格子状に配置してあり、いわゆるマイクロレンズアレイ(以下 MLA)を形成している。MLAは本実施例において、瞳分割手段を構成する。MLAの機能や配置の詳細については図2を用いて後述する。後述するように、撮像素子6からピント評価量/適当な露光量が得られるので、この信号に基づいて適切に撮影光学系3が調整されることで、適切な光量の被写体光を撮像素子6に露光するとともに、撮像素子6近傍で被写体像が結像する。   The imaging system is an optical processing system that images light from an object (subject) (subject light) and forms an image on the imaging surface of the imaging device 6 via the imaging optical system 3. Microlenses are arranged in a lattice pattern on the surface of the image pickup device 6 to form a so-called microlens array (hereinafter referred to as MLA). The MLA constitutes pupil dividing means in this embodiment. Details of the functions and arrangement of the MLA will be described later with reference to FIG. As will be described later, since the focus evaluation amount / appropriate exposure amount can be obtained from the image sensor 6, the photographing optical system 3 is appropriately adjusted based on this signal, so that the subject light with an appropriate amount of light is captured by the image sensor 6. And an object image is formed in the vicinity of the image sensor 6.

画像処理部7は、内部にA/D変換器、ホワイトバランス回路、ガンマ補正回路、補間演算回路等を有しており、記録用の画像を生成することができる。また、本発明に係わる像シフト、像生成、コントラスト評価、相関計算等の処理を行う構成とすることも可能である。本実施例ではこれらの要素はカメラシステム制御内に配置する場合を想定して記載する。   The image processing unit 7 includes an A / D converter, a white balance circuit, a gamma correction circuit, an interpolation calculation circuit, and the like, and can generate a recording image. It is also possible to adopt a configuration for performing processing such as image shift, image generation, contrast evaluation, and correlation calculation according to the present invention. In this embodiment, these elements are described assuming that they are arranged in the camera system control.

メモリ部8は実際の記憶部に加えて記録に必要な処理回路を備えている。メモリ部は、記録部へ出力を行うとともに、表示部9に出力する像を生成、保存する。また、メモリ部8は、予め定められた所定の方法を用いて画像、動画、音声などの圧縮処理を行う。   The memory unit 8 includes a processing circuit necessary for recording in addition to an actual storage unit. The memory unit outputs to the recording unit and generates and stores an image to be output to the display unit 9. Further, the memory unit 8 performs compression processing of images, moving images, sounds, and the like using a predetermined method.

カメラシステム制御部5は撮像の際のタイミング信号などを生成し、外部操作に応動して撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、不図示のスイッチの操作による撮影条件の設定やシャッターレリーズ釦の押下を操作検出部10が検出して、撮像素子6の駆動、画像処理部7の動作、メモリ部8の圧縮処理などを制御する。さらに表示部9によって液晶モニタ等に情報表示を行う情報表示装置の各セグメントの状態を制御する。   The camera system control unit 5 generates a timing signal at the time of imaging and controls the imaging system, the image processing system, and the recording / reproducing system in response to an external operation. For example, the operation detection unit 10 detects setting of shooting conditions by operating a switch (not shown) or pressing of a shutter release button, and performs driving of the image sensor 6, operation of the image processing unit 7, compression processing of the memory unit 8, and the like. Control. Further, the display unit 9 controls the state of each segment of the information display device that displays information on a liquid crystal monitor or the like.

制御系の光学系の調整動作について説明する。カメラシステム制御部5には画像処理部7が接続されており、撮像素子6からの信号に基づいて適切な焦点位置、絞り位置を求める。カメラシステム制御部5は、電気接点11を介してレンズシステム制御部12に指令を送出し、レンズシステム制御部12は指令を受信してレンズ駆動手段13を適切に制御する。さらにレンズシステム制御部12には不図示の手ぶれ検出センサが接続されており、手ぶれ補正を行うモードにおいては、手ぶれ検出センサの信号を元にレンズ駆動手段13を介してブレ補正レンズを適切に制御する。   The adjustment operation of the optical system of the control system will be described. An image processing unit 7 is connected to the camera system control unit 5, and an appropriate focal position and aperture position are obtained based on a signal from the image sensor 6. The camera system control unit 5 sends a command to the lens system control unit 12 via the electrical contact 11, and the lens system control unit 12 receives the command and appropriately controls the lens driving unit 13. Further, a camera shake detection sensor (not shown) is connected to the lens system control unit 12, and in the camera shake correction mode, the camera shake correction sensor is appropriately controlled through the lens driving means 13 based on the signal of the camera shake detection sensor. To do.

また、カメラシステム制御部5は、本発明の特徴である画素選択の制御を行う制御部。カメラシステム制御部5による制御は、当該制御部に含まれるCPUが図示しないメモリに記憶されている制御プログラムをロードして実行することによって実現される。   The camera system control unit 5 is a control unit that controls pixel selection, which is a feature of the present invention. Control by the camera system control unit 5 is realized by loading and executing a control program stored in a memory (not shown) by a CPU included in the control unit.

図2は、本実施例における撮影光学系の要部を説明する図である。同図において、図1と同じ部分は同じ符号を付して示す。   FIG. 2 is a diagram for explaining a main part of the photographing optical system in the present embodiment. In the figure, the same parts as those in FIG.

本発明を適用するためには、いわゆる光線空間情報等といわれる光線の位置に加えて角度の情報を取得する必要がある。本実施例では、角度情報の取得のために撮影光学系3の結像面近傍にMLAを配置するとともに、MLAを構成する1つのレンズに対して複数の画素(光電変換部)を対応させている。   In order to apply the present invention, it is necessary to acquire angle information in addition to the position of light rays, so-called light space information. In the present embodiment, an MLA is arranged in the vicinity of the imaging plane of the photographing optical system 3 for obtaining angle information, and a plurality of pixels (photoelectric conversion units) are associated with one lens constituting the MLA. Yes.

図2(a)は撮像素子6とMLA200の関係模式的に示す図である。図2(b)は撮像素子の画素とMLAの対応を示す模式図である。図2(c)はMLAによってMLA下に設けられた画素が特定の瞳領域と対応づけられることを示す図である。   FIG. 2A is a diagram schematically showing the relationship between the image sensor 6 and the MLA 200. FIG. 2B is a schematic diagram showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that pixels provided under the MLA by the MLA are associated with a specific pupil region.

図2(a)に示すように撮像素子6上にはMLA200が設けられており、MLA200の前側主点は撮影光学系3の結像面近傍になるように配置されている。図2(a)は撮像装置の横からと、正面からMLA200を見た状態を示しており、撮像装置正面から見るとMLA200のレンズが撮像素子6上の画素を覆うように配置されている。なお、図2(a)ではMLAを構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズは画素の数倍程度の大きさしかない。実際の大きさについては図2(b)を用いて説明する。   As shown in FIG. 2A, the MLA 200 is provided on the image sensor 6, and the front principal point of the MLA 200 is arranged in the vicinity of the imaging plane of the photographing optical system 3. FIG. 2A shows a state where the MLA 200 is viewed from the side and from the front of the imaging device, and the lens of the MLA 200 is disposed so as to cover the pixels on the imaging device 6 when viewed from the front of the imaging device. In FIG. 2A, the microlenses constituting the MLA are illustrated in large size so that the microlenses are easy to see, but each microlens is actually only about several times as large as a pixel. The actual size will be described with reference to FIG.

図2(b)は図2(a)の装置正面からの図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子6の各画素を示している。一方MLA200を構成する各マイクロレンズは太い円220a,220b,220c,220dで示した。図2(b)から明らかなようにマイクロレンズ1つに対して複数の画素が割り当てられており、図2(b)の例では、5行x5列=25個の画素が1つのマイクロレンズに対して設けられている。すなわち各マイクロレンズの大きさは画素の大きさの5倍x5倍の大きさである。   FIG. 2B is a partially enlarged view from the front of the apparatus of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the image sensor 6. On the other hand, each microlens constituting the MLA 200 is indicated by thick circles 220a, 220b, 220c, and 220d. As apparent from FIG. 2B, a plurality of pixels are assigned to one microlens. In the example of FIG. 2B, 5 rows × 5 columns = 25 pixels are assigned to one microlens. It is provided for. That is, the size of each microlens is 5 × 5 times the size of the pixel.

図2(c)は撮像素子6を、マイクロレンズ光軸を含みセンサの長手方向が図の横方向になるように切断した図である。図2(c)の221、222、223、224、225は撮像素子6の画素(1つの光電変換部)を示している。一方図2(c)の上方に示した図は撮影光学系3の射出瞳面を示している。実際には、図2(c)の下方に示したセンサの図と方向を合わせると、射出瞳面は図2(c)の紙面垂直方向になるが、説明のために投影方向を変化させている。また、図2(c)においては説明を簡単にするために、1次元の投影/信号処理について説明する。実際の装置においては、これを容易に2次元に拡張することができる。   FIG. 2C is a diagram in which the image sensor 6 is cut so that the longitudinal direction of the sensor includes the microlens optical axis and is in the horizontal direction of the drawing. Reference numerals 221, 222, 223, 224, and 225 in FIG. 2C denote pixels (one photoelectric conversion unit) of the image sensor 6. On the other hand, the figure shown above FIG. 2C shows the exit pupil plane of the photographing optical system 3. Actually, when the direction is aligned with the sensor diagram shown in the lower part of FIG. 2C, the exit pupil plane is in the direction perpendicular to the plane of FIG. 2C, but the projection direction is changed for the sake of explanation. Yes. In FIG. 2C, one-dimensional projection / signal processing will be described to simplify the description. In an actual device, this can be easily extended to two dimensions.

図2(c)の画素221、222、223、224、225は図2(b)の221a、222a、223a、224a、225aとそれぞれ対応する位置関係にある。図2(c)に示すように、マイクロレンズ200によって各画素は撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。図2(c)の例では画素221と領域231が、画素222と領域232が、画素223と領域233が、画素224と領域234が、画素225と領域235がそれぞれ対応している。すなわち画素221には撮影光学系3の射出瞳面上の領域231を通過した光束のみが入射する。他の画素も同様である。結果として、瞳面上での通過領域と撮像素子6上の位置関係から角度の情報を取得することが可能となる。   Pixels 221, 222, 223, 224, and 225 in FIG. 2C are in a positional relationship corresponding to 221a, 222a, 223a, 224a, and 225a in FIG. As shown in FIG. 2C, each pixel is designed to be conjugate with a specific region on the exit pupil plane of the photographing optical system 3 by the micro lens 200. In the example of FIG. 2C, the pixel 221 and the region 231 correspond to the pixel 222 and the region 232, the pixel 223 and the region 233, the pixel 224 and the region 234, and the pixel 225 and the region 235, respectively. That is, only the light beam that has passed through the region 231 on the exit pupil plane of the photographing optical system 3 enters the pixel 221. The same applies to the other pixels. As a result, it is possible to obtain angle information from the passing area on the pupil plane and the positional relationship on the image sensor 6.

ここで後ほどの説明を簡単にするために記号を導入する。図2(c)に示すように、撮像素子6の画素ピッチをΔx、角度分解能をΔθとする。さらに角度の分割数をNθ(図2の例ではNθ=5)とする。画素ピッチは撮像素子6の形状によって決定され、Δθは光線の角度を取得する範囲と角度分割数Nθで決定される。すなわち、物理的な構造(撮像素子6およびMLA200の構造)のみによってこれらのパラメータは決定される。 Here, symbols are introduced to simplify the explanation later. As shown in FIG. 2C, it is assumed that the pixel pitch of the image sensor 6 is Δx and the angular resolution is Δθ. Further, the number of angle divisions is N θ (N θ = 5 in the example of FIG. 2). The pixel pitch is determined by the shape of the image sensor 6, and Δθ is determined by the range for obtaining the angle of the light beam and the angle division number . That is, these parameters are determined only by the physical structure (the structures of the image sensor 6 and the MLA 200).

本実施例に示した撮影光学系を利用して、撮像素子6の信号からピント評価値を得る処理について図3、図4、図5及び図6を用いて説明する。   Processing for obtaining a focus evaluation value from a signal from the image sensor 6 using the photographing optical system shown in this embodiment will be described with reference to FIGS. 3, 4, 5, and 6. FIG.

図3は図1に示す本実施例に係わる撮像装置の測距動作を説明するためのフローチャートである。図3(a)はピント評価値を得る測距動作の全体を、図3(b)は現像動作を、図3(c)は像シフト動作を、図3(d)は像生成動作のフローチャートをそれぞれ示す。また、図3(e)はコントラスト評価動作を、図3(f)は相関計算動作のフローチャートをそれぞれ示す。   FIG. 3 is a flowchart for explaining the distance measuring operation of the imaging apparatus according to the present embodiment shown in FIG. 3A is a flowchart of the entire distance measuring operation for obtaining a focus evaluation value, FIG. 3B is a developing operation, FIG. 3C is an image shifting operation, and FIG. 3D is a flowchart of an image generating operation. Respectively. FIG. 3 (e) shows a contrast evaluation operation, and FIG. 3 (f) shows a flowchart of a correlation calculation operation.

まず、本実施例に係わる撮像装置全体の動作を簡単に説明する。   First, the operation of the entire imaging apparatus according to the present embodiment will be briefly described.

図1(b)に示した操作検出部10がユーザによる図示しない電源スイッチの操作(ON/OFF)を検出する。その後、撮像装置はユーザによる操作からの割り込みを待つ状態に移行する。ユーザのレリーズ操作や動画撮影開始動作を検知すると、必要に応じて図3(a)で示すAF動作(測距動作)を実施する。   The operation detection unit 10 shown in FIG. 1B detects an operation (ON / OFF) of a power switch (not shown) by the user. Thereafter, the imaging apparatus shifts to a state of waiting for an interruption from an operation by the user. When the user's release operation or moving image shooting start operation is detected, the AF operation (ranging operation) shown in FIG.

次に本発明に係わるAF動作について図3を参照して説明する。   Next, the AF operation according to the present invention will be described with reference to FIG.

ステップS301は測距動作の開始を示している。例としては、静止画撮影時のレリース操作の1段目の検出や動画撮影時における適当な間隔での測距動作などが該当する。   Step S301 indicates the start of the distance measuring operation. Examples include detection of the first stage of the release operation during still image shooting and distance measurement operation at an appropriate interval during moving image shooting.

ステップS302では測距動作の条件を決定する。ここで言う条件とは、測距の方法(位相差AF/コントラストAF)のみならず、距離計算をおこなう測距点、測距枠の大きさ、AFの評価値を得る間隔や点数、コントラストAFにおけるフィルタの帯域の設定など図3で説明する各部の設定を含む。また、後述する画素選択モードでの間引き率をここで設定するようにしてもよい。これらの値は、撮影状態(静止画か動画か)、光学系の状態(焦点距離)、ユーザ操作の状況(最初の測距動作か既に被写体を捉えている状態での継続的な測距動作か)等、撮像装置の撮影条件を取得して(撮影条件取得手段)適宜設定される。   In step S302, conditions for the distance measuring operation are determined. The conditions here include not only the distance measurement method (phase difference AF / contrast AF), but also the distance measurement point for which distance calculation is performed, the size of the distance measurement frame, the interval and the number of points for obtaining the AF evaluation value, and the contrast AF. 3 includes setting of each unit described in FIG. 3, such as setting of a filter band. Further, a thinning rate in a pixel selection mode described later may be set here. These values are the shooting state (still image or moving image), optical system state (focal length), user operation status (initial distance measurement operation or continuous distance measurement operation with the subject already captured) Or the like) is set as appropriate by acquiring the imaging conditions of the imaging apparatus (imaging condition acquisition means).

ステップS303では、決定された条件に基づいて位相差AFでの測距動作を行うか、コントラストAFでの測距動作を行うかの判断がなされる。コントラストAFの場合にはS304に、位相差AFの場合にはS310に進む。   In step S303, it is determined whether to perform a distance measurement operation using phase difference AF or a distance measurement operation using contrast AF based on the determined condition. In the case of contrast AF, the process proceeds to S304, and in the case of phase difference AF, the process proceeds to S310.

コントラストAFを行うステップS304では、カメラシステム制御部5によって第1の画素選択モードが選択されて設定される。この時、第1の画素選択モードでは、一定周期ですべての瞳領域に対応する画素を選択するように画素を選ぶ。より具体的な選択については図6(a)を用いて後述する。   In step S304 for performing contrast AF, the camera system controller 5 selects and sets the first pixel selection mode. At this time, in the first pixel selection mode, the pixels are selected so as to select pixels corresponding to all pupil regions at a constant period. More specific selection will be described later with reference to FIG.

ステップS305ではステップS304で選択された第1の画素選択モードに対応する画素を撮像素子6から読み出す(画素信号取得)。またステップS302で設定された測距点情報をもとに、それぞれの測距点に対応できる範囲の情報を読み出す。   In step S305, the pixel corresponding to the first pixel selection mode selected in step S304 is read from the image sensor 6 (acquisition of pixel signal). In addition, based on the distance measuring point information set in step S302, information on a range that can correspond to each distance measuring point is read.

ステップS306からステップS311はループを形成しており、ステップS302で設定されたそれぞれの測距点でのAF演算を行う。   Steps S306 to S311 form a loop, and AF calculation is performed at each distance measuring point set in step S302.

ステップS307からステップS310はループを形成しており、ステップS302で設定された条件(適当な現像位置)に合わせて各現像面でのピント評価を行う。ここでのピント評価はいわゆるコントラストに基づくものであるが、信号の読み出しはステップS305でのみ行われている。すなわち、光線情報を利用して像を再構成することで信号を取得した面(撮像面)ではない面での像が得られるので、一度の信号の読み出しで異なる現像位置での像に対してコントラストAFが行われる。   Steps S307 to S310 form a loop, and focus evaluation on each development surface is performed in accordance with the condition (appropriate development position) set in step S302. The focus evaluation here is based on so-called contrast, but the signal is read only in step S305. That is, by reconstructing an image using light information, an image on a surface other than the surface (imaging surface) from which the signal was acquired can be obtained. Contrast AF is performed.

ステップS308は現像ルーチンを呼び出し、設定された現像面での像を生成する。現像ルーチンによる現像動作の詳細については図3(b)を用いて後述する。   In step S308, a development routine is called to generate an image on the set development surface. Details of the developing operation by the developing routine will be described later with reference to FIG.

ステップS309ではコントラスト評価ルーチンを呼び出し、ステップS308で得られた像のコントラスト値からピント評価値を得る。コントラスト評価ルーチンによるコントラスト評価動作の詳細については図3(e)を用いて後述する。   In step S309, a contrast evaluation routine is called, and a focus evaluation value is obtained from the contrast value of the image obtained in step S308. Details of the contrast evaluation operation by the contrast evaluation routine will be described later with reference to FIG.

ステップS312では各現像面のピント評価値からピント評価値が最良となる現像面(コントラストが最大となる現像面)を選択して現在のピント面との差をピントの評価値として出力する。   In step S312, the development surface with the best focus evaluation value (the development surface with the highest contrast) is selected from the focus evaluation values of the development surfaces, and the difference from the current focus surface is output as the focus evaluation value.

一方、位相差AFを行うステップS313では、カメラシステム制御部5によって第2の画素選択モードが指示される。この時、第2の画素選択モードでは、特定の2つの瞳領域に対応する画素を選択するように画素を選ぶ。より具体的な選択については図6(b)を用いて後述する。   On the other hand, in step S313 in which the phase difference AF is performed, the second pixel selection mode is instructed by the camera system control unit 5. At this time, in the second pixel selection mode, a pixel is selected so as to select pixels corresponding to two specific pupil regions. More specific selection will be described later with reference to FIG.

ステップS314ではステップS313で選択された第2の画素選択モードに対応する画素を撮像素子6から読み出す。またステップS302で設定された測距点情報をもとに、それぞれの測距点に対応できる範囲の情報を読み出す。   In step S314, the pixel corresponding to the second pixel selection mode selected in step S313 is read from the image sensor 6. In addition, based on the distance measuring point information set in step S302, information on a range that can correspond to each distance measuring point is read.

ステップS315からステップS319はループを形成しており、ステップS302で設定されたそれぞれの測距点でのAF演算を行う。   Steps S315 to S319 form a loop, and AF calculation is performed at each distance measuring point set in step S302.

ステップS316からステップS318はループを形成しており、ステップS302で設定された条件(適当な位相の計算範囲や視野長など)に合わせて各位相差でのピント評価を行う。   Steps S316 to S318 form a loop, and focus evaluation is performed at each phase difference in accordance with the conditions (appropriate phase calculation range, visual field length, etc.) set in step S302.

ステップS317は相関計算ルーチンを呼び出し、各位相差でのピント評価値を得る。相関計算ルーチンによる相関計算動作の詳細については図3(f)を用いて後述する。   In step S317, a correlation calculation routine is called to obtain a focus evaluation value at each phase difference. Details of the correlation calculation operation by the correlation calculation routine will be described later with reference to FIG.

ステップS320では各位相差でのピント評価値からピント評価値が最良となる位相差(=いわゆるA像とB像が一致する位相差)を計算した後、基線長の換算を行いピントの評価値として出力する。   In step S320, after calculating the phase difference (= the phase difference at which the A and B images match) from the focus evaluation value at each phase difference, the base line length is converted to obtain the focus evaluation value. Output.

ステップS321では各測距点のピント情報(各測距点でのピント評価値やその微分値等)や過去のピント情報、さらには別のセンサの情報をもとにピントを合わせるべき主被写体を判断してAFシステム全体としてのピント評価値を決定する。   In step S321, the main subject to be focused on based on the focus information (focus evaluation value at each distance measurement point and its differential value, etc.), past focus information, and information from another sensor in step S321. Judgment is made and a focus evaluation value for the entire AF system is determined.

ステップS322で測距動作を終了する。   In step S322, the distance measuring operation is terminated.

図3(a)を用いて説明した様に、ステップS306からステップS312で第1のピント評価手段を、ステップS315からステップS320で第2のピント評価手段をそれぞれ形成している。   As described with reference to FIG. 3A, the first focus evaluation unit is formed in steps S306 to S312 and the second focus evaluation unit is formed in steps S315 to S320.

図3(b)を用いて現像ルーチンによる現像動作を説明する。   The developing operation by the developing routine will be described with reference to FIG.

ステップS326は現像動作の開始を示している。   Step S326 indicates the start of the developing operation.

ステップS327は像シフトルーチンを呼び出し、取得した像を通過した瞳情報(入射角度の情報)をもとに、現像面に適した量だけシフトさせる。ここで、現像面とは、本ルーチンの呼び出し元でのステップS307からステップS310で設定されるピント評価面のこと称する。現像面において像の再構成が行なわれる。像シフトルーチンによる像シフト動作の詳細については図3(c)を用いて後述する。   In step S327, an image shift routine is called, and the image is shifted by an amount suitable for the development surface based on pupil information (incident angle information) that has passed through the acquired image. Here, the development surface refers to the focus evaluation surface set in steps S307 to S310 at the caller of this routine. Image reconstruction is performed on the development surface. Details of the image shift operation by the image shift routine will be described later with reference to FIG.

ステップS328は像生成ルーチンを呼び出し、ステップS327でシフトさせた像を重ね合わせる(即ち、画素信号を加算する)ことで現像面での像を得る。これによりいわゆる現像がなされる。像生成ルーチンによる像生成動作の詳細については図3(d)を用いて後述する。   In step S328, an image generation routine is called and the image shifted in step S327 is superimposed (that is, pixel signals are added) to obtain an image on the development surface. Thereby, so-called development is performed. Details of the image generation operation by the image generation routine will be described later with reference to FIG.

本実施例においては、像のシフトと加算によって現像を行う方法を例示したが、光線情報を利用して、像を取得した面とは異なる面での像を生成(再構成)する方法であればどのような方法でも利用することが可能である。   In the present embodiment, the method of performing development by shifting and adding the image is illustrated, but it is possible to generate (reconstruct) an image on a surface different from the surface from which the image is acquired by using light ray information. Any method can be used.

図3(c)を用いて像シフトルーチンによる像シフト動作について説明する。   The image shift operation by the image shift routine will be described with reference to FIG.

ステップS331は像シフト動作の開始を示している。   Step S331 indicates the start of the image shift operation.

ステップS332からステップS335はループを形成している。ステップS332では瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、5x5=25個に分割されていたので、25個のそれぞれの瞳位置に応じた計算がなされる。図4を用いて後述するように、像の再構成を考えると同じ再構成面であっても入射角度が異なると像をシフトさせる量が異なる。これを適切に反映させるためのループである。   Steps S332 to S335 form a loop. In step S332, loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since it is divided into 5 × 5 = 25, calculation according to each of the 25 pupil positions is performed. As will be described later with reference to FIG. 4, when image reconstruction is considered, even if the reconstruction plane is the same, the amount of image shift is different when the incident angle is different. This is a loop for appropriately reflecting this.

ステップS333では各画素とそれに対応する瞳領域の情報をもとに、評価位置を行っている現像面での各瞳領域での像シフト量を計算する。図2を用いて説明した様に、瞳分割手段として動作するマイクロレンズアレイ200と画素の対応は固定的であり、撮影状態によって変化することは無い。この撮像素子6の各画素とMLA200との対応関係がカメラユニット1に記憶されており、各画素がどの瞳領域の光線を受光しているかが分かるのでこれを像シフト量の算出に用いている。   In step S333, the image shift amount in each pupil region on the developing surface where the evaluation position is performed is calculated based on the information on each pixel and the corresponding pupil region. As described with reference to FIG. 2, the correspondence between the microlens array 200 operating as pupil dividing means and the pixels is fixed, and does not change depending on the photographing state. The correspondence between each pixel of the image sensor 6 and the MLA 200 is stored in the camera unit 1, and it can be seen which pupil region of each pixel is receiving light, and this is used for calculating the image shift amount. .

ステップS334では同じ瞳領域を通過した光束(=同じ入射角の光束)を受光した画素の信号をシフトさせる。同じ入射角の光線を得ている画素は例えば図2(b)の225aと225bが該当する。このような画素がMLA200を構成するマイクロレンズの数だけ存在している。   In step S334, the signal of the pixel that receives the light beam that has passed through the same pupil region (= the light beam having the same incident angle) is shifted. For example, pixels 225a and 225b in FIG. 2B correspond to pixels that obtain light rays having the same incident angle. There are as many such pixels as the number of microlenses constituting the MLA 200.

像シフト動作については、図4および図5を用いてさらに説明する(後述)。   The image shift operation will be further described with reference to FIGS. 4 and 5 (described later).

ステップS336において、呼び出し元のステップS327に戻る。   In step S336, the process returns to the caller step S327.

図3(d)を用いて像生成手段の動作の詳細を説明する。ステップS341は像生成手段の動作開始を示している。   Details of the operation of the image generating means will be described with reference to FIG. Step S341 indicates the start of the operation of the image generating means.

ステップS342では、ステップS345での加算のための領域のデータを初期化(0で埋める)する。この時のデータ領域の大きさはMLA200の数量あれば良く、データの諧調は元のデータの諧調と瞳分割数の積を格納できるだけあれば都合がよい。例えば元のデータが8bitで25分割の場合、13bit (> 8bit + log225)あればデータの桁あふれを考慮する必要が無い。 In step S342, the area data for addition in step S345 is initialized (filled with 0). The size of the data area at this time may be the number of MLA 200, and the gradation of data is convenient as long as the product of the gradation of the original data and the number of pupil divisions can be stored. For example, if the original data is 8 bits and divided into 25, if 13 bits (> 8 bits + log 2 25), there is no need to consider data overflow.

ステップS343からステップS347はループを形成している。ステップS343ではMLA200を構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図2に示した例では、元の撮像素子の画素数÷25(瞳分割数)がマイクロレンズの数となる。   Steps S343 to S347 form a loop. In step S343, loop calculation is executed according to the number of microlenses constituting the MLA 200. For example, in the example shown in FIG. 2, the number of microlens is the number of pixels of the original image sensor ÷ 25 (number of pupil divisions).

ステップS344からステップS346はループを形成している。ステップS344では、瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、5x5=25個に分割されていたので、25個のそれぞれの瞳位置からの光束がステップS345で加算される。シフト量が画素の整数倍でない場合は、加算S345において、適当に内分されながら加算される。例えば、重なっている面積に応じて適当に加算すればよい。
像生成手段は、後において図4および図5を用いてさらに説明する。
ステップS348において、像生成ルーチンの呼び出し元のステップS328に戻る。
Steps S344 to S346 form a loop. In step S344, the loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since it is divided into 5 × 5 = 25, the luminous fluxes from the 25 pupil positions are added in step S345. If the shift amount is not an integral multiple of the pixel, the addition is performed while being appropriately divided in addition S345. For example, it may be added appropriately according to the overlapping area.
The image generating means will be further described later with reference to FIGS.
In step S348, the process returns to step S328 of the caller of the image generation routine.

図3(e)を用いてコントラスト評価ルーチンによるコントラスト評価動作の詳細を説明する。   Details of the contrast evaluation operation by the contrast evaluation routine will be described with reference to FIG.

ステップS351はコントラスト評価動作の開始を示している。   Step S351 indicates the start of the contrast evaluation operation.

ステップS352では、コントラスト評価を行う評価枠の大きさを設定する。評価枠の大きさの設定は、小さすぎると被写体の局所的な特徴のみを評価することになり評価値が不安定になる場合があり、大きすぎると狙った被写体にピントを合わせにくくなる。撮影光学系の焦点距離などに応じて適宜設定すれば良い。   In step S352, the size of an evaluation frame for performing contrast evaluation is set. If the size of the evaluation frame is too small, only the local characteristics of the subject are evaluated, and the evaluation value may become unstable. If it is too large, it is difficult to focus on the target subject. What is necessary is just to set suitably according to the focal distance etc. of an imaging optical system.

ステップS353からステップS357はループを形成している。このループは評価枠の大きさに対応したループになっており、本実施例ではコントラスト評価は1方向で行いその他の方向は加算される。つまり、被写体枠内の2次元的な広がりを持つ画像の特定の方向の1次元信号でコントラスト評価を行う(後述)とともに、ステップS353からステップS357のループにより他の方向の加算がなされ、被写体枠に対応する評価値を得る。   Steps S353 to S357 form a loop. This loop is a loop corresponding to the size of the evaluation frame. In this embodiment, the contrast evaluation is performed in one direction and the other directions are added. That is, contrast evaluation is performed with a one-dimensional signal in a specific direction of an image having a two-dimensional spread within the subject frame (described later), and addition in the other direction is performed by a loop from step S353 to step S357. An evaluation value corresponding to is obtained.

ステップS354は帯域通過フィルタ(BPF)であり、コントラスト評価を行うのに適した周波数帯の信号を選択的に取り出す。ここでいう周波数とはいわゆる空間周波数(時間方向の一般的な周波数とは異なる)に対応しており、被写体像の明暗信号の細かさに対応している。
ステップS355はステップS354の出力に対してピークホールドを行う。
Step S354 is a band pass filter (BPF), which selectively extracts signals in a frequency band suitable for performing contrast evaluation. The frequency here corresponds to a so-called spatial frequency (different from a general frequency in the time direction), and corresponds to the fineness of the light and dark signals of the subject image.
In step S355, peak hold is performed on the output of step S354.

ステップS356はステップS355の出力を積分する。ステップS354からステップS356の演算によって被写体像に含まれる特定の周波数帯の信号の大まかなコントラスト値(良い近似値)を簡易な計算で得ることが可能となる。   Step S356 integrates the output of step S355. By calculating from step S354 to step S356, it is possible to obtain a rough contrast value (good approximate value) of a signal in a specific frequency band included in the subject image by simple calculation.

ステップS358で積分値をコントラストの評価値として設定する。   In step S358, the integral value is set as the contrast evaluation value.

ステップS359で本コントラスト評価ルーチンの呼び出し元のステップS309に戻る。   In step S359, the process returns to step S309 of the caller of the contrast evaluation routine.

図3(f)を用いて相関評価ルーチンによる相関評価動作の詳細を説明する。ステップS361は相関評価動作の開始を示している。   Details of the correlation evaluation operation by the correlation evaluation routine will be described with reference to FIG. Step S361 indicates the start of the correlation evaluation operation.

ステップS362では、コントラスト評価を行う評価枠の大きさを設定する。評価枠の大きさの決定方法はコントラストAFの時と同様に決定すれば良い。   In step S362, the size of an evaluation frame for performing contrast evaluation is set. The method for determining the size of the evaluation frame may be determined in the same manner as in contrast AF.

ステップS363からステップS365はループを形成している。このループは評価画素数(評価枠の大きさに対応する)に対応したループになっている。   Steps S363 to S365 form a loop. This loop is a loop corresponding to the number of evaluation pixels (corresponding to the size of the evaluation frame).

ステップS364はいわゆる相関を計算する。ここでの相関はA像とB像の差の絶対値を加算している。実際にはステップS363からステップS365のループによって加算が実行される。ここでは相関計算方法の一例としてA像とB像の差の絶対値を用いたが、別の相関計算方法も活用することも可能である。   Step S364 calculates a so-called correlation. The correlation here is the addition of the absolute value of the difference between the A and B images. Actually, the addition is executed by the loop from step S363 to step S365. Here, the absolute value of the difference between the A image and the B image is used as an example of the correlation calculation method, but another correlation calculation method can also be used.

ステップS366でステップS364において計算された相関値を評価値として設定する。   In step S366, the correlation value calculated in step S364 is set as an evaluation value.

ステップS367で、相関評価ルーチンの呼び出し元のステップS317に戻る。   In step S367, the process returns to step S317 of the caller of the correlation evaluation routine.

次に図4を用いて像シフトおよび像生成を模式的に示し、像の再構成によるコントラスト計算の有用性について述べる。   Next, image shift and image generation are schematically shown in FIG. 4, and the usefulness of contrast calculation by image reconstruction will be described.

図4(a)、(b)、(c)において、図4(b)は実際に撮像素子6が存在して画像を取得した面を、図4(a)は図4b)よりも物体側の再構成面(再構成面1とする)をそれぞれ示す。また、図4(c)は図4(b)よりも物体側から遠い側の再構成面(再構成面2とする)を示している。   4 (a), 4 (b), and 4 (c), FIG. 4 (b) shows the surface where the image pickup device 6 actually exists and the image is acquired, and FIG. 4 (a) shows the object side from FIG. 4b). Each of the reconstruction planes (reconstruction plane 1) is shown. FIG. 4C shows a reconstruction surface (referred to as reconstruction surface 2) on the side farther from the object side than FIG. 4B.

図4(b)において、X1,i、X2,i、X3,i、X4,i、X5,i、はそれぞれ瞳領域1、2、3、4、5を通過してマイクロレンズXiに入射して得られた画像データを示している。すなわち、添え字のうち前半は通過する瞳領域を、後半は画素の番号を示している。また、図4においても説明を簡単にするためにデータを1次元的な広がりしかもたないものとして記述している。物理的な位置との関係においては、X1,iは図2(c)の221領域から得られるデータを、X2,iは図2(c)の222領域から得られるデータを、以下添え字の3、4、5は領域223、224、225に対応していることを示している。 In FIG. 4B, X 1, i , X 2, i , X 3, i , X 4, i , X 5, i pass through the pupil regions 1, 2, 3, 4, 5 respectively and are microscopic. It shows the image data obtained by entering the lens X i. That is, of the subscripts, the first half indicates the passing pupil region, and the second half indicates the pixel number. Also, in FIG. 4, data is described as having only a one-dimensional spread for the sake of simplicity. In relation to the physical position, X1 , i is the data obtained from the area 221 in FIG. 2 (c), X2 , i is the data obtained from the area 222 in FIG. The letters 3, 4, and 5 indicate that they correspond to the regions 223, 224, and 225, respectively.

取得面での画像を生成するためには、図4(b)にあるように、マイクロレンズXiに入射したデータを加算すればよい。具体的には、Si = X1,I + X2,i + X3,i + X4,i + X5,iでXiに入射した光の角度方向の積分値を得ることができる。これにより通常のカメラと同様の像が生成される。 In order to generate an image on the acquisition plane, data incident on the microlens X i may be added as shown in FIG. Specifically, the integrated value in the angular direction of the light incident on X i can be obtained with S i = X 1, I + X 2, i + X 3, i + X 4, i + X 5, i . As a result, an image similar to that of a normal camera is generated.

次に再構成面1での像の生成方法を考える。図2で説明したように、本実施例の撮影光学系は、各画素に入射する光束を特定の瞳領域に限定しているために、入射角度が既知である。この角度に沿って再構成面での各画素の位置を再構成する。具体的にはX1,iのように瞳領域の添え字が1のものは図4(d)において41に示すような角度で入射しているとする。以下瞳領域の添え字2,3,4,5はそれぞれ42,43,44,45に対応しているとする。この時再構成面1でのマイクロレンズXiに入射した光束は、取得面においては、Xi-2からXi+2に分散して入射していることになる。より具体的には、X1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散している。Xiに限らず再構成面1での像を復元するためには、入射角度に応じて像をシフトさせて加算すれば良いことが分かる。再構成面1での像を生成するためには、瞳領域の添え字が1のものは右に2画素シフト、瞳領域の添え字が2のものは右に1画素シフト、瞳領域の添え字が3のものはシフトなしとする。また、瞳領域の添え字が4のものは左に1画素シフト、瞳領域の添え字が5のものは左に2画素シフトする。これにより入射角度に応じたシフトを与えることができる。その後図4(a)の縦方向に加算することで再構成面1でのデータを得ることができる。具体的には、Si = X1,i-2 + X2,i-1 + X3,i + X4,i+1 + X5,i+2で再構成面1において、Xiに入射した光の角度方向の積分値を得ることができる。これにより再構成面での画像が得られた。 Next, a method for generating an image on the reconstruction plane 1 will be considered. As described with reference to FIG. 2, the imaging optical system of the present embodiment limits the luminous flux incident on each pixel to a specific pupil region, so the incident angle is known. The position of each pixel on the reconstruction plane is reconstructed along this angle. Specifically, it is assumed that a pupil region with a subscript of 1 such as X1 , i is incident at an angle as indicated by 41 in FIG. Hereinafter, it is assumed that the subscripts 2, 3, 4, and 5 of the pupil region correspond to 42, 43, 44, and 45, respectively. At this time, the light beam incident on the microlens X i on the reconstruction surface 1 is scattered and incident on the acquisition surface from X i −2 to X i + 2 . More specifically, it is distributed in X1 , i-2 , X2 , i-1 , X3 , i , X4 , i + 1 , and X5 , i + 2 . To restore the image in the reconstruction plane 1 is not limited to the X i is the image it can be seen that may be added by shifting the in accordance with the incident angle. In order to generate an image on the reconstruction plane 1, a pupil region with a subscript of 1 shifts 2 pixels to the right, a pupil region with a subscript of 2 shifts to the right with a 1 pixel shift, and a pupil region has a subscript. If the character is 3, there is no shift. When the pupil region subscript is 4, the pixel shift is 1 pixel left, and when the pupil region subscript 5 is 5 the pixel shift is left. Thereby, a shift according to the incident angle can be given. Thereafter, the data in the reconstruction plane 1 can be obtained by adding in the vertical direction of FIG. Specifically, in S i = X 1, i- 2 + X 2, i-1 + X 3, i + X 4, i + 1 + X 5, i + 2 in the reconstruction plane 1, the X i An integral value in the angular direction of the incident light can be obtained. As a result, an image on the reconstruction surface was obtained.

ここで、再構成面1において、Xiに輝点があったとすると、取得面においてはX1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散していわゆるボケ状態にある。しかしながら、上述した再構成面1での像を生成すると、再びXiに輝点が生成されコントラストの高い像が得られる。すなわち像を再構成してコントラストを計算することで、いわゆるコントラストAFを行うことが可能となる。 Here, in the reconstruction plane 1, if you had bright spots X i, the acquisition plane X 1, i-2, X 2, i-1, X 3, i, X 4, i + 1, X It is in a so-called blurred state dispersed in 5, i + 2 . However, when the image on the reconstruction plane 1 described above is generated, a bright spot is generated again on X i and an image with high contrast is obtained. That is, so-called contrast AF can be performed by reconstructing the image and calculating the contrast.

また、図4(c)から分かるように、再構成面2においても再構成面と全く同様に像を生成することができる。ただ、再構成面を配置する方向が異なるので(物体に対して反対側)シフトさせる方向を反転させれば良いだけである。   Further, as can be seen from FIG. 4C, an image can be generated on the reconstruction plane 2 in the same manner as the reconstruction plane. However, since the direction in which the reconstruction plane is arranged is different (opposite to the object), it is only necessary to reverse the direction of shifting.

図2、図3および図4を用いて説明した様に、画像を1度しか読みださずに、像を再構成してコントラストを行うことでコントラスト評価値を得ることは可能であるが、この時のボケの再現状態に着目する。   As described with reference to FIGS. 2, 3, and 4, it is possible to obtain a contrast evaluation value by reconstructing an image and performing contrast without reading the image only once. Attention is paid to the reproduction state of blur at this time.

すなわち図4(a)の説明において、“再構成面1において、Xiに輝点があったとすると取得面においてはX1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散していわゆるボケ状態にある。”と説明したが、ボケを正確に表現するためには各瞳領域の情報が必要になる。極端な例として、1つの瞳領域しか用いない場合は、像の再構成によってはボケが再現されないことになる。これはコントラストAFを行う場合は広い瞳領域の情報を選択することに対応する。 That is, in the description of FIG. 4 (a), in the "reconstruction plane 1, X 1, i-2 is the acquisition surface that there was a bright spot in the X i, X 2, i- 1, X 3, i, X As described above, it is in a so-called blurred state distributed to 4, i + 1 , X5 and i + 2. "However, in order to accurately express the blur, information on each pupil region is necessary. As an extreme example, when only one pupil region is used, blurring is not reproduced by image reconstruction. This corresponds to selecting information on a wide pupil region when performing contrast AF.

一方で、位相差AFを行う場合は、基線長を安定させるために特定の2つの瞳領域に対応する情報を選択することが好ましい。   On the other hand, when performing phase difference AF, it is preferable to select information corresponding to two specific pupil regions in order to stabilize the baseline length.

図5を用いて画像の現像(再構成)をさらに説明する。本実施例では、AFモードに応じて画素選択モードを決定し、決定された画素選択モードに従って撮像素子6から画素信号を読み出している(S305、S314)。本実施例のAF動作では、画素信号の読み出しはこれ一回であり、コントラストAF動作において評価値を得るために生成(現像)される再構成画像は、上記一回の読み出しで得られた画素信号から所定の方法で生成される。   Image development (reconstruction) will be further described with reference to FIG. In this embodiment, the pixel selection mode is determined according to the AF mode, and the pixel signal is read from the image sensor 6 according to the determined pixel selection mode (S305, S314). In the AF operation of this embodiment, the pixel signal is read once, and the reconstructed image generated (developed) to obtain the evaluation value in the contrast AF operation is the pixel obtained by the above-mentioned one reading. It is generated from the signal in a predetermined manner.

図3及び4を用いて説明した様に、いわゆる現像においては像をシフトさせた後に加算を行っている。本実施例の測距動作に適した画素信号を得るためには、適当な間引きを行いながら加算を実施する。なお、間引きの必要性については後述する。図5は、画素を間引き率1/2で間引きながら読み出した画素信号からコントラストAFのための像の再構成処理を行っている様子を示す。図5(a)は撮像素子がある面での像の再構成を(図4(b)に対応)、図5(b)は図5(a)よりも物体側にある面での再構成を(図4(a)に対応)それぞれ示している。なお、本実施例の場合、図5の例で読み出される画素は、AFモードに対応した画素選択モード(S304)で選択される画素である。   As described with reference to FIGS. 3 and 4, in so-called development, addition is performed after the image is shifted. In order to obtain a pixel signal suitable for the distance measuring operation of this embodiment, addition is performed while performing appropriate thinning. The necessity for thinning will be described later. FIG. 5 shows a state in which image reconstruction processing for contrast AF is performed from pixel signals read out while thinning out pixels at a thinning rate of 1/2. 5A shows the reconstruction of an image on the surface where the image sensor is present (corresponding to FIG. 4B), and FIG. 5B shows the reconstruction on the surface closer to the object side than FIG. 5A. (Corresponding to FIG. 4A), respectively. In the case of the present embodiment, the pixels read out in the example of FIG. 5 are pixels selected in the pixel selection mode (S304) corresponding to the AF mode.

図5(a)の例では1/2に画素を間引きながらすべての瞳領域を含むように再構成像の1画素を形成するので(Nθ個加算すれば良い)、2つのマイクロレンズに対して選択された画素を加算して再構成画像の1画素の信号を生成する。すなわち一番左のマイクロレンズ下の画素221,223,225に対応する信号を、その隣のマイクロレンズ下の画素222,224に対応する信号と加算してコントラストAF評価を行う像の1画素とする。以下、図5(a)に示したようにそれぞれ2つのマイクロレンズに対応する画素の光電変換信号を選択して加算していけば良い。図5では、加算後の信号(コントラストAF評価を行う像の1画素)を加算1、加算2、という形で図示した。 In the example of FIG. 5A, since one pixel of the reconstructed image is formed so as to include all pupil regions while thinning out the pixels to 1/2 (N θ may be added), for two microlenses The selected pixels are added to generate a signal for one pixel of the reconstructed image. That is, a signal corresponding to the pixels 221, 223, and 225 below the leftmost microlens is added to a signal corresponding to the pixels 222 and 224 below the adjacent microlens, and one pixel of an image for contrast AF evaluation To do. Hereinafter, as shown in FIG. 5A, the photoelectric conversion signals of the pixels corresponding to the two microlenses may be selected and added. In FIG. 5, the signal after addition (one pixel of the image for which contrast AF evaluation is performed) is illustrated in the form of addition 1 and addition 2.

図5(b)の再構成においては、図4に示したようにシフトさせながら加算を行う。すなわち画素221に対応する信号は図5(b)において図5(a)に較べて2つ右の加算ポイントに、画素22に対応する信号は図5(b)において1つ右の加算ポイントに連結する。また、画素223に対応する信号は図5(b)において図5(a)と同じ加算ポイントに、画素224に対応する信号は図5(b)において1つ左の加算ポイントに、画素225に対応する信号は図5(b)において2つ左の加算ポイントに連結する。これにより、再構成像を得ることが出来る。   In the reconstruction shown in FIG. 5B, addition is performed while shifting as shown in FIG. That is, the signal corresponding to the pixel 221 is at the right addition point in FIG. 5B compared to FIG. 5A, and the signal corresponding to the pixel 22 is at the right addition point in FIG. 5B. Link. 5B, the signal corresponding to the pixel 223 is applied to the same addition point as that in FIG. 5A, and the signal corresponding to the pixel 224 is applied to the addition point left one in FIG. 5B. The corresponding signal is connected to the two left addition points in FIG. Thereby, a reconstructed image can be obtained.

図6を用いて本発明に係わる画素選択構成を説明する。   A pixel selection configuration according to the present invention will be described with reference to FIG.

図6(a)はコントラストAFに適した読み出し方法(すなわち第1の画素選択)を、図6(b)は位相差AFに適した読み出し方法(すなわち第2の画素選択)をそれぞれ示す。図6(c)はコントラストAFに適した読み出し位置を2次元的に示す図である。図6(d)は位相差AFに適した読み出し位置を2次元的に示す図である。   FIG. 6A shows a reading method suitable for contrast AF (ie, first pixel selection), and FIG. 6B shows a reading method suitable for phase difference AF (ie, second pixel selection). FIG. 6C is a diagram two-dimensionally showing a reading position suitable for contrast AF. FIG. 6D is a diagram two-dimensionally showing a reading position suitable for the phase difference AF.

図6において、図2と同じ部分は同じ符号を付して示す。   6, the same parts as those in FIG. 2 are denoted by the same reference numerals.

図6(a)のコントラストAFに適した画素選択においては、前述した様に全ての瞳領域に対応するために、ここでは4個に1個の割合で画素を選択するようにしている。この画素選択ピッチは角度の分割数Nθと互いに素になるように、例えば適宜設定すればよい。この設定はカメラユニットの操作検出部10を介して設定するようにしてもよいし、カメラシステム制御部5に設定機能を持たせてもよい。この場合、測距動作では、S302において設定情報を取得し、それに基づいて画素選択を設定する。なお、後述するように、画素選択ピッチは測距精度を維持できる範囲で設定されることが必要である。 In the pixel selection suitable for the contrast AF in FIG. 6A, in order to correspond to all the pupil regions as described above, the pixels are selected at a rate of 1 in 4 here. The pixel selecting pitch so that the prime to the angle of the division number N theta, for example may be set as appropriate. This setting may be set via the operation detection unit 10 of the camera unit, or the camera system control unit 5 may have a setting function. In this case, in the ranging operation, setting information is acquired in S302, and pixel selection is set based on the setting information. As will be described later, the pixel selection pitch needs to be set within a range in which the distance measurement accuracy can be maintained.

このようにすることで図6の例では4つのマイクロレンズ下にある画素で1つの周期ですべての瞳領域の信号を取得できる。さらに具体的には図6(a)の例では、一番左のマイクロレンズに対応して画素221,225に対応する画素信号(図6の信号では1,5と記載している)を選択する。その次のマイクロレンズに対しては画素224に対応する信号(図6の信号では4と記載している)を、その次のマイクロレンズに対しては画素223に対応する信号を(図6の信号では3と記載している)を選択する。さらにその次のマイクロレンズに対しては画素222に対応する信号(図6の信号では2と記載している)を選択し、この4つのマイクロレンズでコントラスト評価用の1画素を形成するように加算がなされる。   In this way, in the example of FIG. 6, the signals of all the pupil regions can be acquired with one cycle with the pixels under the four microlenses. More specifically, in the example of FIG. 6A, the pixel signals corresponding to the pixels 221 and 225 corresponding to the leftmost microlens (denoted as 1 and 5 in the signal of FIG. 6) are selected. To do. For the next microlens, a signal corresponding to the pixel 224 (denoted as 4 in the signal of FIG. 6), and for the next microlens, a signal corresponding to the pixel 223 (refer to FIG. 6). Select 3) in the signal. Further, for the next microlens, a signal corresponding to the pixel 222 (denoted as 2 in the signal of FIG. 6) is selected, and one pixel for contrast evaluation is formed by these four microlenses. Addition is done.

図6(a)では1次元で説明を行ったが、これは容易に2次元に拡張できる。図6(c)は具体的に2次元的な広がりをもった面でコントラストAFに適した画素選択を示した図である。   Although FIG. 6A has been described in one dimension, this can be easily extended to two dimensions. FIG. 6C is a diagram specifically showing pixel selection suitable for contrast AF on a plane having a two-dimensional spread.

図6(c)において黒く塗った画素は選択される画素を示しており、横方向には図6(a)で示したように4個に1個の画素を選択するようにするとともに、縦方向には4ラインにつき1ラインを1画素ずつ横にずらしながら選択している。このようにすることで、領域60で図示した4x4のマイクロレンズに対して5x5=25の瞳領域に対応する画素が選択されていることが分かる。   In FIG. 6C, pixels painted in black indicate selected pixels, and in the horizontal direction, one pixel is selected out of four as shown in FIG. In the direction, one line is selected for every four lines while shifting one pixel at a time. By doing so, it can be seen that the pixels corresponding to the pupil region of 5 × 5 = 25 are selected for the 4 × 4 microlens illustrated in the region 60.

図6(a)および図6(c)に示したように、第1の画素選択モードでは一定周期ですべての瞳領域に対応する画素が含まれるように画素が選択される。   As shown in FIGS. 6A and 6C, in the first pixel selection mode, pixels are selected so that pixels corresponding to all pupil regions are included at a constant period.

図6(b)の位相差AFに適した画素選択においては、特定の2つの瞳領域に対応する画素のみを選択する。さらに具体的には図6(b)の例では一番左のマイクロレンズ下から画素222,224に対応する信号が(図6の信号では2,4と記載している)、その2つ隣りのマイクロレンズ下からも同じく画素222,224に対応する信号が選択される。さらに2つ隣りのマイクロレンズ下からも同じく画素222,224に対応する信号が選択される。このように画素222に対応する画素のみを並べて位相差計算におけるA像を形成し、同様に画素224に対応する画素のみを並べて位相差計算におけるB像を形成する。この2つの像から図3(f)に示したように相関を計算することで最も相関が良くなる位相差を求める。さらにはここで選択した画素、さらには対応する瞳領域の情報からいわゆる三角測量の原理によって被写体までの距離を求めることが可能となる。   In pixel selection suitable for the phase difference AF in FIG. 6B, only pixels corresponding to two specific pupil regions are selected. More specifically, in the example of FIG. 6B, signals corresponding to the pixels 222 and 224 from the bottom of the leftmost microlens (denoted as 2 and 4 in the signal of FIG. 6) are adjacent to each other. Similarly, signals corresponding to the pixels 222 and 224 are selected from below the microlens. Further, signals corresponding to the pixels 222 and 224 are also selected from below the two adjacent microlenses. In this way, only the pixels corresponding to the pixel 222 are arranged to form an A image in the phase difference calculation, and similarly, only the pixels corresponding to the pixel 224 are arranged to form a B image in the phase difference calculation. By calculating the correlation from these two images as shown in FIG. 3F, the phase difference that provides the best correlation is obtained. Furthermore, the distance to the subject can be obtained from the information of the selected pixel and the corresponding pupil region by the so-called triangulation principle.

図6(b)では1次元で説明を行ったが、これは容易に2次元に拡張できる。図6(d)は具体的に2次元的な広がりをもった面で位相差AFに適した画素の選択位置を示した図である。   Although FIG. 6B has been described in one dimension, this can be easily extended to two dimensions. FIG. 6D is a diagram showing pixel selection positions suitable for phase difference AF on a surface having a two-dimensional spread.

図6(d)において黒く塗った画素は選択される画素を示している。横方向には図6(b)で示したように、2つのマイクロレンズに1対(2個)の画素を選択するとともに、縦方向には図6(b)で選択されるマイクロレンズが交互になるようにマイクロレンズの位置をずらしながら画素を選択している。   In FIG. 6D, pixels painted in black indicate selected pixels. As shown in FIG. 6B in the horizontal direction, a pair of (two) pixels are selected for the two microlenses, and the microlenses selected in FIG. 6B are alternately arranged in the vertical direction. The pixels are selected while shifting the position of the microlens so that

図6(b)および図6(d)に示したように、第2の画素選択モードでは特定の2つの瞳領域に対応する画素を選択するように画素が決定される。   As shown in FIGS. 6B and 6D, in the second pixel selection mode, pixels are determined so as to select pixels corresponding to two specific pupil regions.

ここまで図6を用いて説明してきたように、いわゆる測距動作においては、撮像素子6のすべての画素を選択していない。これは画素の読み出しおよび処理には一定の時間がかかるため、測距精度を維持できる範囲の間引き率で画素の間引きを行なっているためである。この間引き動作により適当な測距精度を維持しながら測距動作を高速化して、軽快な応答を実現している。   As described so far with reference to FIG. 6, in the so-called ranging operation, not all the pixels of the image sensor 6 are selected. This is because pixel readout is performed at a thinning rate in a range in which the distance measurement accuracy can be maintained because reading and processing of pixels takes a certain time. This thinning operation speeds up the distance measuring operation while maintaining an appropriate distance measuring accuracy, and realizes a light response.

図7を用いて本実施例に適用可能な別の光学系の例について説明する。図7は物体(被写体)からの光線が撮像素子6上に結像する状態を模式的に示した図である。同図において、図1及び図2と同じ部分は同じ符号を付して示す。   An example of another optical system applicable to this embodiment will be described with reference to FIG. FIG. 7 is a diagram schematically showing a state in which light rays from an object (subject) form an image on the image sensor 6. In the figure, the same parts as those in FIGS. 1 and 2 are denoted by the same reference numerals.

図7(a)は図2で説明した光学系と対応しており、撮影光学系3の結像面近傍にMLA200を配置した例である。図7(b)は撮影光学系3の結像面よりも物体寄りにMLA200を配置した例である。図7(c)は撮影光学系3の結像面よりも物体から遠い側にMLA200を配置した例である。   FIG. 7A corresponds to the optical system described in FIG. 2, and is an example in which the MLA 200 is disposed in the vicinity of the imaging surface of the photographing optical system 3. FIG. 7B shows an example in which the MLA 200 is arranged closer to the object than the imaging plane of the photographing optical system 3. FIG. 7C shows an example in which the MLA 200 is arranged on the side farther from the object than the imaging plane of the photographing optical system 3.

図7において、6は撮像素子を、200はMLAを、231から235は図で用いた瞳領域を、71は物体平面を、71a,71bは物体上の適当な点を、72は撮影光学系の瞳平面を示す。また、220e、220f、220g,220h,220i,220j,220k,220l,220mはMLA200上の特定のマイクロレンズをそれぞれ示している。図7(b)および(c)に示した6aは仮想的な撮像素子を、200aは仮想的なMLAを示している。これらは、図7(a)との対応関係を明確にするために参考に示した。また、物体上の点71aから出て瞳平面上の領域231および233を通過する光束を実線で、物体上の点71bから出て瞳平面上の領域231および233を通過する光束を破線で図示した。   In FIG. 7, 6 is an image sensor, 200 is an MLA, 231 to 235 are pupil regions used in the figure, 71 is an object plane, 71a and 71b are appropriate points on the object, and 72 is a photographing optical system. The pupil plane is shown. Also, 220e, 220f, 220g, 220h, 220i, 220j, 220k, 220l, and 220m indicate specific microlenses on the MLA 200, respectively. In FIGS. 7B and 7C, 6a represents a virtual image sensor, and 200a represents a virtual MLA. These are shown for reference in order to clarify the correspondence with FIG. In addition, the light beam that exits from the point 71a on the object and passes through the areas 231 and 233 on the pupil plane is indicated by a solid line, and the light beam that exits from the point 71b on the object and passes through the areas 231 and 233 on the pupil plane is indicated by a broken line. did.

図7(a)の例では、図2でも説明したように、撮影光学系3の結像面近傍にMLA200を配置することで、撮像素子6と撮影光学系の瞳平面72が共役の関係にある。さらに、物体平面71とMLA200が共役の関係にある。このため物体上の点71aから出た光束はマイクロレンズ220eに、71bを出た光束はマイクロレンズ220fに到達し、領域231から235それぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。   In the example of FIG. 7A, as described with reference to FIG. 2, the MLA 200 is disposed in the vicinity of the imaging plane of the photographing optical system 3, so that the imaging device 6 and the pupil plane 72 of the photographing optical system have a conjugate relationship. is there. Furthermore, the object plane 71 and the MLA 200 are in a conjugate relationship. Therefore, the light beam emitted from the point 71a on the object reaches the microlens 220e, the light beam emitted from the point 71b reaches the microlens 220f, and the light beams that have passed through the regions 231 to 235 respectively correspond to those provided below the microlens. Reach the pixel.

図7(b)の例では、マイクロレンズアレイ200で撮影光学系3からの光束を結像させ、その結像面に撮像素子6を設ける。このように配置することで、物体平面71と撮像素子6は共役の関係にある。物体上の点71aから出で瞳平面上の領域231を通過した光束はマイクロレンズ220gに到達し、物体上の点71aから出で瞳平面上の領域233を通過した光束はマイクロレンズ220hに到達する。物体上の点71bから出で瞳平面上の領域231を通過した光束はマイクロレンズ220hに到達し、物体上の点71bから出で瞳平面上の領域233を通過した光束はマイクロレンズ220iに到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、仮想的な撮像面6a上の位置に並べなおせば、図7(a)と同様の情報(再構成画像))を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 7B, the light beam from the photographing optical system 3 is imaged by the microlens array 200, and the imaging element 6 is provided on the imaging surface. By arranging in this way, the object plane 71 and the image sensor 6 are in a conjugate relationship. The light beam that has exited from the point 71a on the object and passed through the region 231 on the pupil plane reaches the micro lens 220g, and the light beam that has exited from the point 71a on the object and passed through the region 233 on the pupil plane reaches the micro lens 220h. To do. The light beam that has exited from the point 71b on the object and passed through the region 231 on the pupil plane reaches the micro lens 220h, and the light beam that has exited from the point 71b on the object and passed through the region 233 on the pupil plane reaches the micro lens 220i. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. In this way, images are formed at different positions depending on the point on the object and the passing area on the pupil plane. If these are rearranged at positions on the virtual imaging surface 6a, the same information (reconstructed image) as in FIG. 7A can be obtained. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図7(c)の例では、マイクロレンズアレイ200で撮影光学系3からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子6を設ける。このように配置することで、物体平面71と撮像素子6は共役の関係にある。物体上の点71aから出で瞳平面上の領域231を通過した光束はマイクロレンズ220lに到達し、物体上の点71aから出で瞳平面上の領域233を通過した光束はマイクロレンズ220jに到達する。物体上の点71bから出で瞳平面上の領域231を通過した光束はマイクロレンズ220mに到達し、物体上の点71bから出で瞳平面上の領域233を通過した光束はマイクロレンズ220lに到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図7(b)と同様に、仮想的な撮像面6a上の位置に並べなおせば、図7(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 7C, the microlens array 200 re-images the light beam from the imaging optical system 3 (this is called re-imaging because the image once formed is diffused). The imaging element 6 is provided on the image plane. By arranging in this way, the object plane 71 and the image sensor 6 are in a conjugate relationship. The light beam that has exited from the point 71a on the object and passed through the region 231 on the pupil plane reaches the microlens 220l, and the light beam that has exited from the point 71a on the object and passed through the region 233 on the pupil plane reaches the microlens 220j. To do. The light beam that has exited from the point 71b on the object and passed through the region 231 on the pupil plane reaches the micro lens 220m, and the light beam that has exited from the point 71b on the object and passed through the region 233 on the pupil plane reaches the micro lens 220l. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. Similar to FIG. 7B, information similar to that in FIG. 7A can be obtained by rearranging the positions on the virtual imaging surface 6a. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

なお、図7ではMLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得可能な例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。   Although FIG. 7 shows an example in which the position information and the angle information can be acquired using the MLA (phase modulation element) as the pupil dividing means, the position information and the angle information (equivalent to restricting the passing region of the pupil). Other optical configurations can be used as long as they can acquire the above. For example, a method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system can be used.

また上述した本発明の第1の実施例によれば、位相差AFと像の再構成によるコントラストAFの双方を行う撮像装置において、各AFに適切な画素選択を備えたオートフォーカス装置を実現することが可能となる。   In addition, according to the first embodiment of the present invention described above, in the imaging apparatus that performs both the phase difference AF and the contrast AF based on the image reconstruction, an autofocus apparatus having appropriate pixel selection for each AF is realized. It becomes possible.

なお、本実施例においてはAF動作を撮像装置の撮影予備動作(エイミングやフレーミングと呼ばれる動作)で行う場合を中心に記載をした。しかし、本実施例に係わる撮像装置の信号には視差信号が含まれているので、撮像後にピント状態を変化させながら像を得ることが出来るので、このような撮影後のピント合わせ(リフォーカス)においても本発明は適用可能である。   In the present embodiment, the case where the AF operation is performed by the photographing preliminary operation (operation called aiming or framing) of the imaging apparatus is mainly described. However, since the signal of the imaging apparatus according to the present embodiment includes a parallax signal, an image can be obtained while changing the focus state after imaging. The present invention is also applicable.

また、撮像装置でリフォーカスを行う場合は背面表示部9上にタッチセンサを設けておき、ユーザーの指示した被写体に対してリフォーカスを行うことなどが考えられる。この時の動作を高速化するためにも本発明のオートフォーカス構成を利用することが可能である。   In addition, when performing refocusing with an imaging apparatus, a touch sensor may be provided on the rear display unit 9 to perform refocusing on a subject instructed by the user. In order to speed up the operation at this time, the autofocus configuration of the present invention can be used.

さらには、別途の情報処理装置(例えばPCやスマートフォン)等においても上記と同等のタッチパネルやポインタでのクリック等に対応してリフォーカスを行うことなどが考えられる。この場合にもリフォーカス動作を高速化するために本発明のオートフォーカス構成を利用することが可能である。   Furthermore, it is conceivable to perform refocusing in response to a touch panel equivalent to the above or a click with a pointer in a separate information processing apparatus (for example, a PC or a smartphone). In this case as well, the autofocus configuration of the present invention can be used to speed up the refocusing operation.

以上に説明したように、本実施例によれば、瞳分割手段を備えた撮像手段の構造に応じて適切に位相差AFとコントラストAFを使い分けることが可能な撮像装置を提供するこができる。結果として、高速かつピント精度の高いAFを行うことを可能にした撮像装置を提供することが可能となる。   As described above, according to the present embodiment, it is possible to provide an imaging apparatus capable of appropriately using the phase difference AF and the contrast AF according to the structure of the imaging unit including the pupil dividing unit. As a result, it is possible to provide an imaging apparatus capable of performing AF with high speed and high focus accuracy.

前述した本発明の実施形態における画像符号化装置を構成する各手段、並びに画像符号化方法の各工程は、CPUのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記憶したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。   Each means constituting the image encoding device and each step of the image encoding method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a CPU. This program and a computer-readable storage medium storing the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. The present invention may be applied to an apparatus composed of a single device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図3に示すフローチャートに対応したプログラム)を、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   The present invention includes a case where a software program (in the embodiment, a program corresponding to the flowchart shown in FIG. 3) for realizing the functions of the above-described embodiments is directly or remotely supplied to a system or apparatus. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention. In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。   Examples of the storage medium for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記憶媒体にダウンロードすることによっても供給できる。   As another program supply method, there is a method of connecting to a homepage on the Internet using a browser of a client computer. It can also be supplied by downloading the computer program itself of the present invention or a compressed file including an automatic installation function from a homepage to a storage medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   As another method, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and encrypted from a homepage via the Internet to users who have cleared predetermined conditions. Download the key information to be solved. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、その他の方法として、まず記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   As another method, a program read from a storage medium is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (14)

画素へ入射する被写体光を撮影光学系の特定の瞳領域に制限する瞳分割手段を備えた撮像素子から出力される画素信号を取得して異なる測距方法に従ってピント評価を行なう測距装置において、
測距方法に従って、前記瞳分割手段で分割される複数の瞳領域の各領域に対応する画素を選択する第1の画素選択モードと、前記複数の瞳領域の所定の異なる2つに対応する画素だけを選択する第2の画素選択モードを選択して設定する画素選択手段と、
前記設定された画素選択モードで選択される画素から出力される画素信号を取得する画素信号取得手段と、
前記取得された画素信号に基づいて、前記測距方法に従ったピント評価を行なうピント評価手段と、を備えることを特徴とする測距装置。
In a distance measuring apparatus that obtains a pixel signal output from an image sensor having a pupil dividing unit that restricts subject light incident on a pixel to a specific pupil region of a photographing optical system and performs focus evaluation according to a different distance measuring method.
A first pixel selection mode for selecting a pixel corresponding to each of the plurality of pupil regions divided by the pupil dividing unit according to a distance measuring method; and a pixel corresponding to two different predetermined ones of the plurality of pupil regions Pixel selection means for selecting and setting a second pixel selection mode for selecting only,
Pixel signal acquisition means for acquiring a pixel signal output from a pixel selected in the set pixel selection mode;
A distance measuring apparatus comprising: a focus evaluating unit that performs a focus evaluation according to the distance measuring method based on the acquired pixel signal.
前記ピント評価手段は、前記第1の画素選択モードに従って取得された画素信号から得られる象のコントラストに基づいてピント評価を行なう第1のピント評価手段と、前記第2の画素選択モードに従って取得された画素信号から得られる象の位相差に基づいてピント評価を行なう第2のピント評価手段を含み、前記測距方法に従って前記第1のピント評価手段および第2のピント評価手段のいずれかによりピント評価を行うことを特徴とする請求項1に記載の測距装置。   The focus evaluation means is acquired in accordance with the first focus evaluation means for performing focus evaluation based on the contrast of the elephant obtained from the pixel signal acquired in accordance with the first pixel selection mode, and in accordance with the second pixel selection mode. Second focus evaluation means for performing focus evaluation based on the phase difference of the elephant obtained from the pixel signal, and focusing is performed by either the first focus evaluation means or the second focus evaluation means according to the distance measuring method. The distance measuring device according to claim 1, wherein evaluation is performed. 前記第1のピント評価手段は、前記瞳分割手段で特定される瞳領域および前記撮影光学系の状態に基づいて、前記第1の画素選択モードで選択された画素から取得された画素信号から所定のピント評価面における像を生成する現像手段を備えることを特徴とする請求項2に記載の撮像装置。   The first focus evaluation unit is predetermined from a pixel signal acquired from a pixel selected in the first pixel selection mode based on a pupil region specified by the pupil division unit and a state of the photographing optical system. The imaging apparatus according to claim 2, further comprising a developing unit that generates an image on the focus evaluation surface. 前記現像手段は、前記所定のピント評価面における像を生成するために、前記瞳分割手段で特定された各瞳領域に対応する画素に異なるシフト量を与える像シフト手段と、前記像シフト手段によるシフト量に従って前記第1の画素選択モードで選択された画素から取得された画素信号を加算する像生成手段とを含むことを特徴とする請求項3記載に測距装置。   The developing means includes an image shift means for giving different shift amounts to pixels corresponding to each pupil region specified by the pupil dividing means in order to generate an image on the predetermined focus evaluation plane, and the image shift means. The distance measuring apparatus according to claim 3, further comprising: an image generating unit that adds pixel signals acquired from the pixels selected in the first pixel selection mode according to a shift amount. 撮影条件を取得する撮影条件取得手段をさらに備え、前記撮影条件は少なくとも前記測距方法、測距点および測距枠の情報を含み、
前記画素選択手段は、前記撮影条件に基づいて前記測距方法を決定し、当該決定した測距方法に従って画素選択モードを設定することを特徴とする請求項1乃至4のいずれか一項に記載の測距装置。
It further comprises a shooting condition acquisition means for acquiring a shooting condition, and the shooting condition includes at least information of the distance measuring method, a distance measuring point, and a distance measuring frame,
The said pixel selection means determines the said ranging method based on the said imaging | photography condition, and sets a pixel selection mode according to the determined ranging method, The Claim 1 thru | or 4 characterized by the above-mentioned. Ranging device.
前記画素選択手段は、前記撮影条件に基づいて、前記第1の画素選択モードおよび第2の画素選択モードでの画素選択での間引き率を設定することを特徴とする請求項5に記載の測距装置。   The measurement according to claim 5, wherein the pixel selection unit sets a thinning rate in pixel selection in the first pixel selection mode and the second pixel selection mode based on the photographing condition. Distance device. 前記第1のピント評価手段は、前記撮影条件に基づいて前記所定のピント評価面を決定することを特徴とする請求項5に記載の測距装置。   6. The distance measuring apparatus according to claim 5, wherein the first focus evaluation unit determines the predetermined focus evaluation surface based on the photographing condition. 画素へ入射する被写体光を撮影光学系の特定の瞳領域に制限する瞳分割手段を備えた撮像素子から出力される画素信号を取得して異なる測距方法に従ってピント評価を行うピント評価方法において、
測距方法に従って、前記瞳分割手段で分割される複数の瞳領域の各領域に対応する画素を選択する第1の画素選択モードと、前記複数の瞳領域の所定の異なる2つに対応する画素だけを選択する第2の画素選択モードを選択して設定する画素選択ステップと、
前記設定された画素選択モードで選択される画素から出力される画素信号を取得する画素信号取得ステップと、
前記取得された画素信号に基づいて、前記測距方法に従ったピント評価を行うピント評価ステップと、
を備えることを特徴とするピント評価方法。
In a focus evaluation method for acquiring a pixel signal output from an image pickup device including a pupil dividing unit that restricts subject light incident on a pixel to a specific pupil region of a photographing optical system and performing focus evaluation according to a different distance measuring method.
A first pixel selection mode for selecting a pixel corresponding to each of the plurality of pupil regions divided by the pupil dividing unit according to a distance measuring method; and a pixel corresponding to two different predetermined ones of the plurality of pupil regions A pixel selection step of selecting and setting a second pixel selection mode for selecting only;
A pixel signal acquisition step of acquiring a pixel signal output from a pixel selected in the set pixel selection mode;
A focus evaluation step for performing focus evaluation according to the distance measuring method based on the acquired pixel signal;
A focus evaluation method comprising:
画素へ入射する被写体光を撮影光学系の特定の瞳領域に制限する瞳分割手段を備えた撮像素子から出力される画素信号を取得して異なる測距方法に従ってピント評価を行う測距装置を制御するプログラムにおいて、
コンピュータを、
測距方法に従って、前記瞳分割手段で分割される複数の瞳領域の各領域に対応する画素を選択する第1の画素選択モードと、前記複数の瞳領域の所定の異なる2つに対応する画素だけを選択する第2の画素選択モードを選択して設定する画素選択手段、
前記設定された画素選択モードで選択される画素から出力される画素信号を取得する画素信号取得手段、
前記取得された画素信号に基づいて、前記測距方法に従ったピント評価を行うピント評価手段、
として機能させるためのプログラム。
Controls a distance measuring device that obtains pixel signals output from an image sensor equipped with a pupil dividing means that restricts subject light incident on a pixel to a specific pupil region of the photographing optical system and performs focus evaluation according to different distance measuring methods. In the program to
Computer
A first pixel selection mode for selecting a pixel corresponding to each of the plurality of pupil regions divided by the pupil dividing unit according to a distance measuring method; and a pixel corresponding to two different predetermined ones of the plurality of pupil regions Pixel selection means for selecting and setting a second pixel selection mode for selecting only,
Pixel signal acquisition means for acquiring a pixel signal output from a pixel selected in the set pixel selection mode;
Focus evaluation means for performing focus evaluation according to the distance measuring method based on the acquired pixel signal,
Program to function as.
請求項9に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9. コンピュータを、請求項1乃至7のいずれか一項に記載された測距装置の各手段として機能させるプログラム。   The program which makes a computer function as each means of the ranging apparatus as described in any one of Claims 1 thru | or 7. コンピュータを、請求項1乃至7のいずれか一項に記載された測距装置の各手段として機能させるプログラムを格納した記憶媒体。   A storage medium storing a program that causes a computer to function as each unit of the distance measuring device according to any one of claims 1 to 7. 撮影光学系と、
撮像素子と、
前記撮像素子の画素へ入射する被写体光を前記撮影光学系の特定の瞳領域に制限する瞳分割手段と、
請求項1乃至8のいずれか一項に記載の測距装置と、
前記測距装置のピント評価に従って、前記撮影光学系を駆動する駆動手段と、
撮影条件に従って、前記撮影光学系および測距装置を制御して被写体の撮影を行う制御手段と、
を備えることを特徴とする撮像装置。
Photographic optics,
An image sensor;
Pupil dividing means for limiting subject light incident on the pixels of the image sensor to a specific pupil region of the photographing optical system;
A distance measuring device according to any one of claims 1 to 8,
Driving means for driving the photographing optical system according to the focus evaluation of the distance measuring device;
Control means for controlling the photographing optical system and the distance measuring device to photograph a subject according to photographing conditions;
An imaging apparatus comprising:
前記撮影条件を設定する設定手段を備え、
前記撮影条件は、少なくとも前記測距方法、測距点、測距枠の情報を含むことを特徴とする請求項13に記載の撮像装置。
Setting means for setting the shooting conditions;
The imaging apparatus according to claim 13, wherein the imaging condition includes at least information on the distance measurement method, a distance measurement point, and a distance measurement frame.
JP2012172938A 2012-08-03 2012-08-03 Ranging device, imaging device, focus evaluation method, program, and storage medium Expired - Fee Related JP6188290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012172938A JP6188290B2 (en) 2012-08-03 2012-08-03 Ranging device, imaging device, focus evaluation method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012172938A JP6188290B2 (en) 2012-08-03 2012-08-03 Ranging device, imaging device, focus evaluation method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2014032311A true JP2014032311A (en) 2014-02-20
JP2014032311A5 JP2014032311A5 (en) 2015-09-17
JP6188290B2 JP6188290B2 (en) 2017-08-30

Family

ID=50282174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012172938A Expired - Fee Related JP6188290B2 (en) 2012-08-03 2012-08-03 Ranging device, imaging device, focus evaluation method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6188290B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158736A (en) * 2014-02-21 2015-09-03 キヤノン株式会社 image processing apparatus, control method, program, and recording medium
JP2015200826A (en) * 2014-04-09 2015-11-12 キヤノン株式会社 Focus adjustment device, image-capturing device, and focus adjustment method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2007065330A (en) * 2005-08-31 2007-03-15 Canon Inc Camera
JP2009258610A (en) * 2008-03-17 2009-11-05 Ricoh Co Ltd Focal length detecting device, imaging apparatus, imaging method, camera, focusing device, and focusing method
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010282085A (en) * 2009-06-05 2010-12-16 Canon Inc Imaging apparatus
JP2012053315A (en) * 2010-09-02 2012-03-15 Canon Inc Automatic focus adjustment device and imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2007065330A (en) * 2005-08-31 2007-03-15 Canon Inc Camera
JP2009258610A (en) * 2008-03-17 2009-11-05 Ricoh Co Ltd Focal length detecting device, imaging apparatus, imaging method, camera, focusing device, and focusing method
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010282085A (en) * 2009-06-05 2010-12-16 Canon Inc Imaging apparatus
JP2012053315A (en) * 2010-09-02 2012-03-15 Canon Inc Automatic focus adjustment device and imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158736A (en) * 2014-02-21 2015-09-03 キヤノン株式会社 image processing apparatus, control method, program, and recording medium
JP2015200826A (en) * 2014-04-09 2015-11-12 キヤノン株式会社 Focus adjustment device, image-capturing device, and focus adjustment method

Also Published As

Publication number Publication date
JP6188290B2 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
JP6000520B2 (en) Imaging apparatus and control method and program thereof
JP5914192B2 (en) Imaging apparatus and control method thereof
JP6021306B2 (en) Imaging apparatus and control method thereof
JP6335434B2 (en) Imaging apparatus, control method thereof, and program
JP6397281B2 (en) Imaging apparatus, control method thereof, and program
JP5943596B2 (en) Imaging device
JP6220148B2 (en) Imaging apparatus and control method thereof
JP2009175680A (en) Light receiving device, focal point detecting device and imaging device
JP2006279546A (en) Electronic camera, image processing program, and image processing method
JP6120547B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus including image processing apparatus
JP6188290B2 (en) Ranging device, imaging device, focus evaluation method, program, and storage medium
JP6198395B2 (en) Imaging apparatus and control method thereof
JP6400152B2 (en) REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
JP5893412B2 (en) Imaging apparatus and control method thereof
JP6157290B2 (en) REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, AND PROGRAM
JP5968081B2 (en) Imaging apparatus and control method thereof
JP6188531B2 (en) Imaging apparatus, control method thereof, and program
JP6046922B2 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP6039958B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2016220016A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6016567B2 (en) Correlation calculation device, imaging device, correlation calculation method, program, and storage medium
JP6320250B2 (en) Image recording apparatus and method, and program
JP2015025960A (en) Focus detection system, focus detection method, program, and image capturing device
JP6144880B2 (en) Display device, display method, and imaging device including the display device
JP6377225B2 (en) Image processing apparatus, control method therefor, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170801

R151 Written notification of patent or utility model registration

Ref document number: 6188290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees