JP5885421B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5885421B2
JP5885421B2 JP2011175317A JP2011175317A JP5885421B2 JP 5885421 B2 JP5885421 B2 JP 5885421B2 JP 2011175317 A JP2011175317 A JP 2011175317A JP 2011175317 A JP2011175317 A JP 2011175317A JP 5885421 B2 JP5885421 B2 JP 5885421B2
Authority
JP
Japan
Prior art keywords
pixel
exit pupil
unit
pupil position
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011175317A
Other languages
Japanese (ja)
Other versions
JP2013037295A (en
Inventor
竜飛 大久保
竜飛 大久保
圭悟 松尾
圭悟 松尾
高橋 利夫
利夫 高橋
大地 村上
大地 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011175317A priority Critical patent/JP5885421B2/en
Priority to US13/545,400 priority patent/US8810713B2/en
Priority to CN201210240803.5A priority patent/CN102883093B/en
Publication of JP2013037295A publication Critical patent/JP2013037295A/en
Application granted granted Critical
Publication of JP5885421B2 publication Critical patent/JP5885421B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、オートフォーカス機能を有する撮像装置に関する。 The present invention relates to an imaging apparatus having an autofocus function.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮像装置)は、オートフォーカス機能を有するものが多い。この種の撮像装置には、画像構成のための撮像用画素(通常画素)以外に、焦点検出用の画素(以下、AF画素という)を内蔵した撮像素子を採用して、瞳分割位相差法によりオートフォーカスを行うものがある。この手法では、瞳を左右方向に分割し、左、右それぞれの瞳を透過した光束を別々に受光する撮像部を有するAF画素を撮像素子に構成する必要がある。これらの各種AF画素による画像信号に対する演算(以下、AF演算又は相関演算という)によって、ピント合わせのためのAF信号を生成してピント合わせを行うことにより、高速なオートフォーカスが可能である。   In recent years, many portable devices (imaging devices) with a photographing function such as a digital camera have an autofocus function. This type of imaging apparatus employs an imaging element that incorporates a focus detection pixel (hereinafter referred to as an AF pixel) in addition to an imaging pixel (normal pixel) for image configuration, and uses a pupil division phase difference method. There are some that perform autofocus. In this method, it is necessary to divide the pupil in the left-right direction, and to configure an AF pixel having an imaging unit that separately receives light beams transmitted through the left and right pupils as an imaging element. A high-speed autofocus is possible by generating an AF signal for focusing and performing focusing on an image signal by these various AF pixels (hereinafter referred to as AF calculation or correlation calculation).

ところで、撮像素子においては、各画素にマイクロレンズを配置するものがある。撮像素子の画素位置に応じてマイクロレンズを偏心させることで、撮影レンズからの光を各画素の受光領域に適切に導く。例えば、特許文献1においては、マイクロレンズを画素位置に応じて偏心させ、かつ射出瞳の中心とマイクロレンズの面頂とを結ぶ直線上に受光領域を設定する技術が開示されている。これにより、左右の瞳を透過した光束を、左右の別々のAF画素に確実に入射させることができ、AF精度を向上させることができる。   By the way, there is an image sensor in which a micro lens is arranged in each pixel. By decentering the microlens according to the pixel position of the image sensor, the light from the photographing lens is appropriately guided to the light receiving area of each pixel. For example, Patent Document 1 discloses a technique in which a microlens is decentered according to a pixel position and a light receiving region is set on a straight line connecting the center of an exit pupil and the top of the microlens. As a result, the light beam transmitted through the left and right pupils can be reliably incident on the left and right AF pixels, and the AF accuracy can be improved.

特開2009−290157号公報     JP 2009-290157 A

しかしながら、特許文献1の提案では、各画素位置におけるマイクロレンズと受光領域との関係は、1つの射出瞳位置に対してのみ最適化された構成になっている。このため、最適化された瞳位置からずれた瞳位置での撮影が行われた場合には、左右の瞳を透過した光束が左右のAF画素に均等に入射せず、AF精度が劣化する。例えば、瞳位置が異なる交換レンズを用いた場合、或いは瞳位置が移動するズームレンズを用いた場合には、AF精度が劣化するという問題があった。   However, in the proposal of Patent Document 1, the relationship between the microlens and the light receiving region at each pixel position is optimized only for one exit pupil position. For this reason, when shooting is performed at a pupil position that is deviated from the optimized pupil position, the light beam that has passed through the left and right pupils does not uniformly enter the left and right AF pixels, and the AF accuracy deteriorates. For example, when an interchangeable lens with a different pupil position is used, or when a zoom lens with a moving pupil position is used, there is a problem that AF accuracy deteriorates.

本発明は、瞳位置が変化する場合でも、十分なフォーカス精度を維持することができる撮像装置を提供することを目的とする。 An object of the present invention is to provide an imaging apparatus capable of maintaining sufficient focus accuracy even when the pupil position changes.

本発明に係る撮像装置は、撮像用の画素及び焦点検出用の画素を有する複数の画素がマトリクス状に配列された撮像素子であって、上記画素は、撮影レンズからの光が入射する受光領域と、上記撮影レンズからの光を上記受光領域に導くマイクロレンズとを具備し、上記焦点検出用の画素としては、想定される複数の設計瞳位置に対応して複数種類構成され、上記焦点検出用の画素の受光領域は、上記設計瞳位置と上記マイクロレンズとの位置関係に対応して領域の一端の位置が規定される撮像素子と、複数の異なる設計瞳位置に対応する焦点検出用の画素からの複数の像信号を、上記撮影レンズの射出瞳位置と上記複数の設計瞳位置とのそれぞれの距離に応じ、上記射出瞳位置に関して重み付け加算を行うことにより補正像信号を得る補正部と、上記補正部によって補正された補正像信号を用いて焦点検出を行う焦点検出部と、を具備する。 An image pickup apparatus according to the present invention is an image pickup element in which a plurality of pixels each having an image pickup pixel and a focus detection pixel are arranged in a matrix, and the pixel is a light receiving region where light from a photographing lens enters. And a microlens that guides light from the photographing lens to the light receiving region, and the focus detection pixels are configured in a plurality of types corresponding to a plurality of designed pupil positions, and the focus detection The light-receiving area of the pixel for image pickup includes an image sensor in which the position of one end of the area is defined corresponding to the positional relationship between the designed pupil position and the microlens, and a focus detection corresponding to a plurality of different designed pupil positions. Correction for obtaining a corrected image signal by performing weighted addition on the exit pupil position of the plurality of image signals from the pixel according to the distance between the exit pupil position of the photographing lens and the plurality of designed pupil positions. When, comprising a focus detection unit that performs focus detection by using the correction image signal corrected by the correction unit.

本発明によれば、瞳位置が変化する場合でも、十分なフォーカス精度を維持することができるという効果を有する。   According to the present invention, there is an effect that sufficient focus accuracy can be maintained even when the pupil position changes.

本発明の一実施の形態に係る撮像装置を示すブロック図。1 is a block diagram illustrating an imaging apparatus according to an embodiment of the present invention. 撮像素子を構成する各画素のうち撮影レンズの光軸近傍の画素の構成を示す説明図。Explanatory drawing which shows the structure of the pixel of the optical axis vicinity of an imaging lens among each pixel which comprises an image pick-up element. 受光領域、マイクロレンズ及び射出瞳相互の位置関係を示す説明図。Explanatory drawing which shows the positional relationship among a light-receiving region, a microlens, and an exit pupil. 図4は焦点距離と射出瞳の位置との関係を示す説明図。FIG. 4 is an explanatory diagram showing the relationship between the focal length and the position of the exit pupil. 射出瞳位置に応じた偏心量を説明するための説明図。Explanatory drawing for demonstrating the amount of eccentricity according to the exit pupil position. 射出瞳位置に応じた偏心量を説明するための説明図。Explanatory drawing for demonstrating the amount of eccentricity according to the exit pupil position. 射出瞳位置に応じた偏心量を説明するための説明図。Explanatory drawing for demonstrating the amount of eccentricity according to the exit pupil position. 横軸に像高をとり縦軸に偏心量εをとって、像高及び射出瞳位置に応じた偏心量の変化を示すグラフ。The graph which shows the change of the amount of eccentricity according to image height and exit pupil position, with the image height on the horizontal axis and the amount of eccentricity ε on the vertical axis. 像信号の補正方法を説明するための説明図。Explanatory drawing for demonstrating the correction method of an image signal. 像信号の補正方法を説明するための説明図。Explanatory drawing for demonstrating the correction method of an image signal. 像信号の補正方法を説明するための説明図。Explanatory drawing for demonstrating the correction method of an image signal. 図1中の受光部14aの画素配列の一例を示す説明図。Explanatory drawing which shows an example of the pixel arrangement | sequence of the light-receiving part 14a in FIG. 本実施の形態におけるカメラ制御を説明するためのフローチャート。6 is a flowchart for explaining camera control in the present embodiment. 図13中のAF処理を具体的に示すフローチャート。14 is a flowchart specifically illustrating AF processing in FIG. 13.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の一実施の形態に係る撮像装置を示すブロック図である。   FIG. 1 is a block diagram showing an imaging apparatus according to an embodiment of the present invention.

先ず、図2乃至図11を参照して、本実施の形態において採用する撮像素子及び像信号の補正方法について説明する。図2は撮像素子を構成する各画素のうち撮影レンズの光軸近傍の画素の構成を示す説明図である。   First, with reference to FIGS. 2 to 11, an image sensor and an image signal correction method employed in this embodiment will be described. FIG. 2 is an explanatory diagram showing the configuration of pixels in the vicinity of the optical axis of the photographic lens among the pixels constituting the image sensor.

撮像装置の撮影レンズは、被写体から各光路を介して撮像装置に入射する光学像を撮像素子の受光面に結像させる。瞳分割位相差法においては、AF画素として2つの撮像部(例えば、R撮像部とL撮像部)を構成し、各光路を射出瞳において例えば右方向と左方向とに分割して、右方向からの光(右光)と左方向からの光(左光)とを、R撮像部とL撮像部とにそれぞれ入射させる。   The imaging lens of the imaging apparatus forms an optical image incident on the imaging apparatus from the subject via each optical path on the light receiving surface of the imaging element. In the pupil division phase difference method, two imaging units (for example, an R imaging unit and an L imaging unit) are configured as AF pixels, and each optical path is divided into, for example, a right direction and a left direction at the exit pupil, and the right direction Light (right light) and light from the left direction (left light) are incident on the R imaging unit and the L imaging unit, respectively.

ピントが合っている場合には、R,L撮像部には被写体の略同一点からの光が入射する。従って、水平方向に配置した複数のR撮像部によって得られる画像信号と複数のL撮像部によって得られる画像信号とは同一となる。ピントがずれると、被写体の略同一点からの光は、ピントのずれ量に応じてずれた位置のR撮像部とL撮像部とに入射する。従って、水平方向に配置した複数のR撮像部によって得られる画像信号と複数のL撮像部によって得られる画像信号とは位相がずれ、位相のずれ量はピントのずれ量に対応する。R,L撮像部によって得られる画像信号同士の位相差(相関)に基づいて、ピント調整用のレンズを駆動することで、オートフォーカスを実現することができる。   When the subject is in focus, light from substantially the same point of the subject enters the R and L imaging units. Accordingly, the image signal obtained by the plurality of R imaging units arranged in the horizontal direction is the same as the image signal obtained by the plurality of L imaging units. When the focus is shifted, light from substantially the same point of the subject enters the R imaging unit and the L imaging unit at positions shifted according to the focus shift amount. Therefore, the image signals obtained by the plurality of R imaging units arranged in the horizontal direction and the image signals obtained by the plurality of L imaging units are out of phase, and the amount of phase deviation corresponds to the amount of focus deviation. Autofocus can be realized by driving a focus adjustment lens based on the phase difference (correlation) between the image signals obtained by the R and L imaging units.

なお、読み出し回路をAF画素と通常画素とで共通化するために、1画素にR,L撮像部の両方を構成することなく、R撮像部のみを有する画素(以下、R画素という)とL撮像部のみを有する画素(以下、L画素という)によってAF画素を構成するようにしてもよい。更に、L画素を省略し、AF画素としてR画素のみを用いて、複数の撮像用画素(以下、N画素ともいう)によって得られる画像信号とR画素によって得られる画像信号との相関によって、ピントのずれ量を求めるようにしてもよい。   Note that in order to share the readout circuit between the AF pixel and the normal pixel, a pixel having only the R imaging unit (hereinafter referred to as an R pixel) and an L pixel without forming both the R and L imaging units in one pixel. An AF pixel may be configured by a pixel having only an imaging unit (hereinafter referred to as an L pixel). Further, the L pixel is omitted, and only the R pixel is used as the AF pixel, and the focus is determined by the correlation between the image signal obtained by a plurality of imaging pixels (hereinafter also referred to as N pixels) and the image signal obtained by the R pixel. The amount of deviation may be obtained.

図2においては、画素51,52が夫々R画素、L画素である例を示している。画素51,52を含む各画素は、最上部から、順に、マイクロレンズ53、カラーフィルタ54、色画素の混色防止のための遮光膜55、色フィルタ層をのせる表面を平らにするための平滑層56、及び、光電変換領域(以下、受光領域という)が配置されている。画素51はR画素であり、受光領域57Rは、R撮像部を構成する。画素52はL画素であり、受光領域57Lは、L撮像部を構成する。   FIG. 2 shows an example in which the pixels 51 and 52 are an R pixel and an L pixel, respectively. Each pixel including the pixels 51 and 52 is, in order from the top, a micro lens 53, a color filter 54, a light shielding film 55 for preventing color mixture of color pixels, and a smooth surface for flattening the surface on which the color filter layer is placed. The layer 56 and a photoelectric conversion region (hereinafter referred to as a light receiving region) are disposed. The pixel 51 is an R pixel, and the light receiving region 57R forms an R imaging unit. The pixel 52 is an L pixel, and the light receiving region 57L forms an L imaging unit.

図2の破線は各マイクロレンズ53の光軸を示している。R撮像部、L撮像部を構成する受光領域57R,57Lの一端の位置は、図2に示すように、マイクロレンズ53の光軸に一致している。   A broken line in FIG. 2 indicates an optical axis of each microlens 53. The positions of one ends of the light receiving regions 57R and 57L constituting the R imaging unit and the L imaging unit coincide with the optical axis of the microlens 53 as shown in FIG.

画素51,52は撮影レンズの光軸近傍の画素であるので、画素51,52のマイクロレンズ53の光軸は、図示しない撮影レンズの光軸と略平行であり、マイクロレンズ53の光軸と撮影レンズの光軸とは略一致する。従って、受光領域57Rには、射出瞳を通過する光束を左右に均等に分割したうちの右側の光束が入射し、受光領域57Lには、射出瞳を通過する光束を左右に均等に分割したうちの左側の光束が入射する。即ち、受光領域57R,57Lには、射出瞳を通過する光束が左右に均等に分割されて入射される。   Since the pixels 51 and 52 are pixels in the vicinity of the optical axis of the photographic lens, the optical axis of the microlens 53 of the pixels 51 and 52 is substantially parallel to the optical axis of the photographic lens (not shown). It substantially coincides with the optical axis of the taking lens. Accordingly, the right light beam of the light beam that passes through the exit pupil is equally divided into the left and right regions 57R, and the light beam that passes through the exit pupil is evenly divided into the light reception region 57L. The left light beam enters. That is, the light fluxes that pass through the exit pupil are incident on the light receiving areas 57R and 57L after being equally divided into left and right.

しかしながら、画素が撮影レンズの光軸近傍からずれた位置に配置されている場合には、主光線はマイクロレンズ53の光軸とは平行にならない。この場合には、射出瞳を通過する光束をL撮像部又はR撮像部に均等に分割して入射させるためには、L,R撮像部を構成する受光領域の一端を、マイクロレンズ53の面頂と射出瞳の中心とを通る軸上に位置させる必要がある。   However, when the pixel is arranged at a position shifted from the vicinity of the optical axis of the photographic lens, the principal ray does not become parallel to the optical axis of the microlens 53. In this case, in order to make the light beam passing through the exit pupil equally split into the L image pickup unit or the R image pickup unit and enter the light receiving region, one end of the light receiving region constituting the L, R image pickup unit is placed on the surface of the microlens 53. It must be located on an axis passing through the apex and the center of the exit pupil.

図3は受光領域、マイクロレンズ及び射出瞳相互の位置関係を示す説明図である。また、図4は焦点距離と射出瞳の位置との関係を示す説明図である。   FIG. 3 is an explanatory diagram showing the positional relationship among the light receiving area, the microlens, and the exit pupil. FIG. 4 is an explanatory diagram showing the relationship between the focal length and the position of the exit pupil.

図3は撮影レンズの光軸近傍の画素以外の画素のうちの1つの画素を構成するマイクロレンズ61及びR撮像部となる受光領域62Rを示している。図3では、撮影レンズの位置の変化に対応した3つの位置における射出瞳63T,63S,63W(以下、代表して射出瞳63という)を示している。図4は被写体からの光束が撮影レンズによって像面を形成する状態を説明するものであり、図4(a)は撮影レンズがテレ側(被写体側)に位置する例を示し、図4(b)は撮影レンズが基準位置に位置する例を示し、図4(c)は撮影レンズがワイド側(像側)に位置する例を示している。図4に示すように、一般に、焦点距離が長いほど、像面から射出瞳位置までの距離は大きくなる。   FIG. 3 shows a microlens 61 that constitutes one of the pixels other than the pixels in the vicinity of the optical axis of the photographic lens and a light receiving region 62R that is an R imaging unit. FIG. 3 shows exit pupils 63T, 63S, and 63W (hereinafter, representatively referred to as exit pupils 63) at three positions corresponding to changes in the position of the photographing lens. FIG. 4 illustrates a state in which the light beam from the subject forms an image plane with the photographing lens. FIG. 4A illustrates an example in which the photographing lens is located on the tele side (subject side), and FIG. ) Shows an example in which the photographing lens is located at the reference position, and FIG. 4C shows an example in which the photographing lens is located on the wide side (image side). As shown in FIG. 4, generally, the longer the focal length, the greater the distance from the image plane to the exit pupil position.

図3に示すように、受光領域62Rは、基準位置の射出瞳63Sの中心とマイクロレンズ61の面頂とを通る主光線65が受光面と交わる位置において、受光領域62Rの一端が位置するように構成されている。即ち、受光領域62Rは、マイクロレンズ61の光軸に対して、主光線65の傾斜に応じた所定の偏心量だけ偏心している。この偏心量は画素位置に応じて変化し、像高が大きいほど大きくなる。   As shown in FIG. 3, in the light receiving region 62R, one end of the light receiving region 62R is located at a position where the principal ray 65 passing through the center of the exit pupil 63S at the reference position and the top of the micro lens 61 intersects the light receiving surface. It is configured. That is, the light receiving region 62R is decentered with respect to the optical axis of the microlens 61 by a predetermined amount of eccentricity corresponding to the inclination of the principal ray 65. This amount of eccentricity changes according to the pixel position, and increases as the image height increases.

射出瞳63Sを通過する被写体からの光束のうち、射出瞳63Sの右側半分の光束64Sが、R撮像部を構成する受光領域62Rに入射する。即ち、L撮像部及びR撮像部を構成する各受光領域を、射出瞳63Sの中心とマイクロレンズ61の面頂とを通る主光線65が受光面と交わる位置まで偏心させることによって、L撮像部及びR撮像部に、射出瞳を通過する光束を左右に均等に分割して入射させることができる。   Of the light flux from the subject passing through the exit pupil 63S, the right half light flux 64S of the exit pupil 63S is incident on the light receiving area 62R constituting the R imaging unit. That is, by decentering each light receiving region constituting the L imaging unit and the R imaging unit to a position where the principal ray 65 passing through the center of the exit pupil 63S and the top of the micro lens 61 intersects the light receiving surface, the L imaging unit. In addition, the light beam passing through the exit pupil can be equally divided into the left and right sides and incident on the R imaging unit.

しかしながら、図3に示すように、撮影レンズがワイド側(像側)に移動した場合の射出瞳63Wについては、射出瞳63Wを通過する光束の半分よりも大きい光束64WがR撮像部を構成する受光領域62Rに入射することになる。また、撮影レンズがテレ側(被写体側)に移動した場合の射出瞳63Tについては、射出瞳63Tを通過する光束の半分よりも小さい光束64Tが受光領域62Rに入射することになる。   However, as shown in FIG. 3, with respect to the exit pupil 63W when the photographing lens moves to the wide side (image side), a light flux 64W larger than half of the light flux passing through the exit pupil 63W constitutes the R imaging unit. The light enters the light receiving region 62R. Further, regarding the exit pupil 63T when the photographic lens moves to the tele side (subject side), a light beam 64T smaller than half of the light beam passing through the exit pupil 63T enters the light receiving region 62R.

つまり、射出瞳63Sの中心を通る主光線65に応じて受光領域62Rの位置を決定した場合には、射出瞳63Sの位置以外に射出瞳63が位置する場合には、L撮像部及びR撮像部に入射する光束が均等でなくなる。そうすると、射出瞳63が基準位置以外に位置する場合には、AF精度が著しく劣化してしまう。   That is, when the position of the light receiving region 62R is determined according to the principal ray 65 passing through the center of the exit pupil 63S, when the exit pupil 63 is positioned other than the position of the exit pupil 63S, the L imaging unit and the R imaging The light beam incident on the part is not uniform. Then, when the exit pupil 63 is located at a position other than the reference position, the AF accuracy is significantly deteriorated.

そこで、本実施の形態においては、AF画素の受光領域の偏心量を、射出瞳位置に応じて設定する。即ち、基準の射出瞳位置における射出瞳の中心とマイクロレンズの面頂とを通る主光線の傾斜が略同一となる複数のAF画素であっても、射出瞳位置によって変化する主光線の傾斜に応じた複数種類の偏心量を夫々設定する。   Therefore, in the present embodiment, the amount of eccentricity of the light receiving area of the AF pixel is set according to the exit pupil position. That is, even with a plurality of AF pixels in which the inclination of the principal ray passing through the center of the exit pupil and the top of the microlens at the reference exit pupil position is substantially the same, the inclination of the principal ray changes depending on the exit pupil position. A plurality of types of eccentricity corresponding to each are set.

例えば、テレ側の位置、基準位置及びワイド側の位置の3つの射出瞳位置を想定した場合、射出瞳位置がテレ側に位置する場合の主光線の傾斜に応じた偏心量で受光領域を構成した画素、射出瞳位置が基準位置に位置する場合の主光線の傾斜に応じた偏心量で受光領域を構成した画素、射出瞳位置がワイド側に位置する場合の主光線の傾斜に応じた偏心量で受光領域を構成した画素の3種類の画素を撮像素子上に構成する。   For example, assuming three exit pupil positions, a tele-side position, a reference position, and a wide-side position, the light-receiving area is configured with an eccentric amount corresponding to the chief ray inclination when the exit pupil position is located on the tele side. Pixels, the pixels constituting the light receiving area with the amount of eccentricity according to the inclination of the principal ray when the exit pupil position is at the reference position, and the eccentricity according to the inclination of the principal ray when the exit pupil position is located on the wide side Three types of pixels, which constitute the light receiving region by the amount, are formed on the image sensor.

図5乃至図7は射出瞳位置に応じた偏心量を説明するための説明図である。図5乃至図7に示す画素は、基準位置の射出瞳73Sの中心と各マイクロレンズ70M〜73Mの面頂とを結ぶ主光線の傾斜が略同一の3つの画素、即ち、撮像素子上の水平方向の位置が略同一の3つの画素を示している。   5 to 7 are explanatory views for explaining the amount of eccentricity according to the exit pupil position. The pixels shown in FIG. 5 to FIG. 7 are three pixels having substantially the same principal ray inclination connecting the center of the exit pupil 73S at the reference position and the tops of the microlenses 70M to 73M, that is, the horizontal on the image sensor. Three pixels having substantially the same position in the direction are shown.

図5は射出瞳位置がテレ側に位置する場合の主光線75Tの傾斜に応じた偏心量で受光領域を構成した画素70を示している。画素70はマイクロレンズ70M及びR撮像部を構成する受光領域70RTを有する。射出瞳73Tの中心とマイクロレンズ70Mの面頂とを結ぶ主光線75Tが受光面と交わる位置において、受光領域70RTの端部が位置するように受光領域70RTが形成されている。マイクロレンズ70Mの光軸と受光領域70RTの端部との間の偏心量はεtである。   FIG. 5 shows a pixel 70 in which the light receiving area is configured with an eccentric amount corresponding to the inclination of the principal ray 75T when the exit pupil position is located on the tele side. The pixel 70 includes a microlens 70M and a light receiving region 70RT that constitutes an R imaging unit. The light receiving region 70RT is formed such that the end of the light receiving region 70RT is positioned at a position where the principal ray 75T connecting the center of the exit pupil 73T and the top of the micro lens 70M intersects the light receiving surface. The amount of eccentricity between the optical axis of the micro lens 70M and the end of the light receiving region 70RT is εt.

画素70は、射出瞳位置が射出瞳73Tの位置にある場合には、射出瞳73Tを通過する光束の右側半分の光束74Tが、受光領域70RTに入射する。即ち、画素70は射出瞳位置がテレ側の射出瞳73Tの位置にある場合に、十分なAF精度を得ることができる画素である。   In the pixel 70, when the exit pupil position is at the position of the exit pupil 73T, the right half of the light flux 74T passing through the exit pupil 73T is incident on the light receiving region 70RT. That is, the pixel 70 is a pixel capable of obtaining sufficient AF accuracy when the exit pupil position is at the position of the exit pupil 73T on the tele side.

図6は射出瞳位置が基準位置に位置する場合の主光線75Sの傾斜に応じた偏心量で受光領域を構成した画素71を示している。画素71はマイクロレンズ71M及びR撮像部を構成する受光領域71RSを有する。射出瞳73Sの中心とマイクロレンズ71Mの面頂とを結ぶ主光線75Sが受光面と交わる位置において、受光領域71RSの端部が位置するように受光領域71RSが形成されている。マイクロレンズ71Mの光軸と受光領域71RSの端部との間の偏心量はεsである。   FIG. 6 shows a pixel 71 in which the light receiving area is configured with an eccentric amount corresponding to the inclination of the principal ray 75S when the exit pupil position is located at the reference position. The pixel 71 includes a microlens 71M and a light receiving region 71RS that forms an R imaging unit. The light receiving region 71RS is formed so that the end of the light receiving region 71RS is located at a position where the principal ray 75S connecting the center of the exit pupil 73S and the top of the micro lens 71M intersects the light receiving surface. The amount of eccentricity between the optical axis of the micro lens 71M and the end of the light receiving region 71RS is εs.

画素71は、射出瞳位置が射出瞳73Sの位置にある場合には、射出瞳73Sを通過する光束の右側半分の光束74Sが、受光領域71RSに入射する。即ち、画素71は射出瞳位置が基準位置の射出瞳73Sの位置にある場合に、十分なAF精度を得ることができる画素である。   In the pixel 71, when the exit pupil position is at the position of the exit pupil 73S, the right half of the light beam 74S passing through the exit pupil 73S enters the light receiving region 71RS. That is, the pixel 71 is a pixel that can obtain sufficient AF accuracy when the exit pupil position is at the exit pupil 73S as the reference position.

図7は射出瞳位置がワイド側に位置する場合の主光線75Wの傾斜に応じた偏心量で受光領域を構成した画素72を示している。画素72はマイクロレンズ72M及びR撮像部を構成する受光領域72RWを有する。射出瞳73Wの中心とマイクロレンズ72Mの面頂とを結ぶ主光線75Wが受光面と交わる位置において、受光領域72RWの端部が位置するように受光領域72RWが形成されている。マイクロレンズ72Mの光軸と受光領域72RWの端部との間の偏心量はεwである。   FIG. 7 shows a pixel 72 in which the light receiving area is configured with an eccentric amount corresponding to the inclination of the principal ray 75W when the exit pupil position is located on the wide side. The pixel 72 includes a microlens 72M and a light receiving region 72RW that forms an R imaging unit. The light receiving region 72RW is formed so that the end of the light receiving region 72RW is positioned at a position where the principal ray 75W connecting the center of the exit pupil 73W and the top of the micro lens 72M intersects the light receiving surface. The amount of eccentricity between the optical axis of the micro lens 72M and the end of the light receiving region 72RW is εw.

画素72は、射出瞳位置が射出瞳73Wの位置にある場合には、射出瞳73Wを通過する光束の右側半分の光束74Wが、受光領域72RWに入射する。即ち、画素72は射出瞳位置がワイド側の射出瞳73Wの位置にある場合に、十分なAF精度を得ることができる画素である。   In the pixel 72, when the exit pupil position is at the exit pupil 73W, the right half of the light beam 74W passing through the exit pupil 73W enters the light receiving region 72RW. That is, the pixel 72 is a pixel that can obtain sufficient AF accuracy when the exit pupil position is at the position of the wide exit pupil 73W.

図8は横軸に像高をとり縦軸に偏心量εをとって、像高及び射出瞳位置に応じた偏心量の変化を示すグラフである。図8に示すように、像高が大きくなるほど偏心量は大きくなる。更に、本実施の形態においては、射出瞳位置に応じて偏心量は異なり、同一像高であっても、3種類の偏心量を有する画素が構成される。なお、図5乃至図8においては、射出瞳位置が3種類の例を説明したが、2種類又は4種類以上の射出瞳位置を想定して、各射出瞳位置毎に偏心量を変えた画素を構成してもよい。   FIG. 8 is a graph showing the change in the amount of eccentricity according to the image height and the exit pupil position, with the image height on the horizontal axis and the amount of eccentricity ε on the vertical axis. As shown in FIG. 8, the amount of eccentricity increases as the image height increases. Further, in the present embodiment, the amount of eccentricity varies depending on the exit pupil position, and pixels having three types of eccentricity are configured even at the same image height. In FIGS. 5 to 8, three types of exit pupil positions are described. However, assuming two or more types of exit pupil positions, pixels whose eccentricity amount is changed for each exit pupil position. May be configured.

ところで、射出瞳位置が複数種類に固定された撮影レンズを用いる場合には、各射出瞳位置に対応した偏心量で受光領域を構成した画素を形成することで、十分なAF精度を得ることが可能である。しかし、射出瞳位置が固定されていない場合には、実際の射出瞳位置と偏心量を決定するために想定した射出瞳位置(以下、設計瞳位置という)とが相違することが考えられる。そこで、本実施の形態においては、実際の射出瞳位置と設計瞳位置とがずれた場合には、このずれ量に応じてAF画素から得られる像信号を補正するようになっている。   By the way, in the case of using a photographing lens in which a plurality of exit pupil positions are fixed, it is possible to obtain sufficient AF accuracy by forming pixels that constitute a light receiving area with an eccentric amount corresponding to each exit pupil position. Is possible. However, when the exit pupil position is not fixed, it is conceivable that the actual exit pupil position and the exit pupil position assumed to determine the amount of eccentricity (hereinafter referred to as the designed pupil position) are different. Therefore, in the present embodiment, when the actual exit pupil position and the designed pupil position are deviated, the image signal obtained from the AF pixel is corrected according to the deviation amount.

図9乃至図11はこのような像信号の補正方法を説明するための説明図である。上述したように、各AF画素のマイクロレンズの光軸とL又はR撮像部の端部までの距離(偏心量ε)は、像高が大きいほど大きくなる。図9乃至図11においては、撮影レンズの光軸からの距離を像高hとして説明する。   9 to 11 are explanatory diagrams for explaining such a method of correcting an image signal. As described above, the distance (eccentricity ε) from the optical axis of the micro lens of each AF pixel to the end of the L or R imaging unit increases as the image height increases. 9 to 11, the distance from the optical axis of the photographing lens will be described as the image height h.

図9は設計瞳位置に対して実際の射出瞳位置がワイド側にある場合の例を示している。マイクロレンズ81及びR撮像部を構成する受光領域82によって構成される画素は、撮影レンズの光軸からマイクロレンズ81の光軸までの距離がhである。受光領域82の端部の位置は、設計瞳位置における射出瞳の中心とマイクロレンズ81の面頂とを結ぶ主光線85に基づいて設定されている。   FIG. 9 shows an example where the actual exit pupil position is on the wide side with respect to the designed pupil position. In the pixel constituted by the microlens 81 and the light receiving region 82 constituting the R imaging unit, the distance from the optical axis of the photographing lens to the optical axis of the microlens 81 is h. The position of the end of the light receiving region 82 is set based on a principal ray 85 that connects the center of the exit pupil at the design pupil position and the top of the microlens 81.

これに対し、実際の撮影における射出瞳位置がワイド側にある場合には、図9に示すように、射出瞳位置における左側の光束84Lに比べて右側の光束84Rはサイズが大きい。この場合には、受光領域82には、光束が左右に均等に分割されずに、大きい光束84Rが入射するので、受光領域82によって得られる像信号をそのまま用いて相関演算を行うと、AF精度が低下してしまう。   On the other hand, when the exit pupil position in actual photographing is on the wide side, as shown in FIG. 9, the right light beam 84R is larger in size than the left light beam 84L at the exit pupil position. In this case, the light beam is not equally divided into the right and left sides, but the large light beam 84R is incident on the light receiving region 82. Therefore, if the correlation calculation is performed using the image signal obtained from the light receiving region 82 as it is, AF accuracy is increased. Will fall.

そこで、左右非対称に分割された射出瞳の面積差に起因するL,R撮像部の受光量を補正するために、射出瞳位置EPZtemp及び瞳径EXPを用いた演算を行う。図9から明らかなように、実際の射出瞳位置の中心から左右の瞳分割位置までの距離d1-tempは、設計瞳位置をEPZAF1として、下記(1)式にて与えられる。   Therefore, in order to correct the amount of light received by the L and R imaging units resulting from the area difference of the exit pupil divided asymmetrically, calculation using the exit pupil position EPZtemp and the pupil diameter EXP is performed. As is apparent from FIG. 9, the distance d1-temp from the center of the actual exit pupil position to the left and right pupil division positions is given by the following equation (1) with the design pupil position as EPZAF1.

d1-temp=h・(EPZAF1−EPZtemp)/EPZAF1 …(1)
左右の瞳分割比率EXPtemp1-l:EXPtemp1-rは、
EXPtemp1-l:EXPtemp1-r=(EXP/2)+d1-temp : (EXP/2)−d1-temp
…(2)
となる。
d1-temp = h. (EPZAF1-EPZtemp) / EPZAF1 (1)
Left and right pupil division ratio EXPtemp1-l: EXPtemp1-r is
EXPtemp1-l: EXPtemp1-r = (EXP / 2) + d1-temp: (EXP / 2) -d1-temp
... (2)
It becomes.

上記(2)式の瞳分割比率を用いて、左右の瞳分割の不均一性を補正することができる。下記(3)式は、補正前の像信号をRawAFsignalとし、補正後の像信号をCorAFsignalとして、補正後の像信号を求める関数を示している。
CorAFsignal=RwaAFsignal・g(EXP,EXPtemp1-l,EXPtemp1-r) …(3)
例えば、具体的には、R撮像部から得た像信号の補正後の値CorAFsignalrとL撮像部から得た像信号の補正後の値CorAFsignallとは、下記(4)式によって求められる。
CorAFsignalr=RwaAFsignalr・(EXPtemp1-l/EXP)
CorAFsignall=RwaAFsignall・(EXPtemp1-r/EXP) …(4)
この(4)式によって実際の射出瞳位置と設計瞳位置とのずれに伴う左右の瞳分割の不均一性を補正することができ、補正後の像信号を用いた相関演算によって、十分な精度のフォーカスを実現することができる。
Using the pupil division ratio of the above equation (2), it is possible to correct the nonuniformity of the left and right pupil divisions. The following equation (3) represents a function for obtaining a corrected image signal with RawAFsignal as the uncorrected image signal and CorAFsignal as the corrected image signal.
CorAFsignal = RwaAFsignal · g (EXP, EXPtemp1-l, EXPtemp1-r) (3)
For example, specifically, the corrected value CorAFsignalr of the image signal obtained from the R imaging unit and the corrected value CorAFsignall of the image signal obtained from the L imaging unit are obtained by the following equation (4).
CorAFsignalr = RwaAFsignalr (EXPtemp1-l / EXP)
CorAFsignall = RwaAFsignall (EXPtemp1-r / EXP) (4)
This formula (4) can correct the non-uniformity of the left and right pupil divisions due to the deviation between the actual exit pupil position and the designed pupil position, and sufficient accuracy can be obtained by the correlation calculation using the corrected image signal. Can achieve the focus.

図10は設計瞳位置に対して実際の射出瞳位置がテレ側にある場合の例を示している。マイクロレンズ86及びR撮像部を構成する受光領域87によって構成される画素は、撮影レンズの光軸からマイクロレンズ86の光軸までの距離がhである。受光領域87の端部の位置は、設計瞳位置における射出瞳の中心とマイクロレンズ86の面頂とを結ぶ主光線89に基づいて設定されている。   FIG. 10 shows an example in which the actual exit pupil position is on the tele side with respect to the designed pupil position. In the pixel constituted by the microlens 86 and the light receiving region 87 constituting the R imaging unit, the distance from the optical axis of the photographing lens to the optical axis of the microlens 86 is h. The position of the end portion of the light receiving region 87 is set based on a principal ray 89 that connects the center of the exit pupil at the design pupil position and the surface top of the microlens 86.

これに対し、実際の撮影における射出瞳位置がテレ側にある場合には、図10に示すように、射出瞳位置における左側の光束84Lに比べて右側の光束84Rはサイズが小さい。この場合には、受光領域87には、光束が左右に均等に分割されずに、小さい光束84Rが入射するので、受光領域87によって得られる像信号をそのまま用いて相関演算を行うと、AF精度が低下してしまう。   On the other hand, when the exit pupil position in actual photographing is on the tele side, as shown in FIG. 10, the right light beam 84R is smaller in size than the left light beam 84L at the exit pupil position. In this case, since the light beam is not equally divided into the left and right sides and the small light beam 84R is incident on the light receiving region 87, if the correlation calculation is performed using the image signal obtained from the light receiving region 87 as it is, the AF accuracy is improved. Will fall.

そこで、左右非対称に分割された射出瞳の面積差に起因するL,R撮像部の受光量を補正するために、射出瞳位置EPZtemp及び瞳径EXPを用いた演算を行う。図10から明らかなように、実際の射出瞳位置の中心から左右の瞳分割位置までの距離d2-tempは、設計瞳位置をEPZAF2として、下記(5)式にて与えられる。   Therefore, in order to correct the amount of light received by the L and R imaging units resulting from the area difference of the exit pupil divided asymmetrically, calculation using the exit pupil position EPZtemp and the pupil diameter EXP is performed. As is apparent from FIG. 10, the distance d2-temp from the center of the actual exit pupil position to the left and right pupil division positions is given by the following equation (5), where the design pupil position is EPZAF2.

d2-temp=h・(EPZtemp−EPZAF2)/EPZAF2 …(5)
左右の瞳分割比率EXPtemp2-l:EXPtemp2-rは、
EXPtemp2-l:EXPtemp2-r=(EXP/2)+d2-temp : (EXP/2)−d2-temp …(6)
となる。
d2-temp = h. (EPZtemp-EPZAF2) / EPZAF2 (5)
Left and right pupil division ratio EXPtemp2-l: EXPtemp2-r is
EXPtemp2-l: EXPtemp2-r = (EXP / 2) + d2-temp: (EXP / 2) -d2-temp (6)
It becomes.

下記(7)式は、上記(6)式の瞳分割比率を用いて補正後の像信号を求める関数を示している。
CorAFsignal=RwaAFsignal・g(EXP,EXPtemp2-l,EXPtemp2-r) …(7)
例えば、具体的には、R撮像部から得た像信号の補正後の値CorAFsignalrとL撮像部から得た像信号の補正後の値CorAFsignallとは、下記(8)式によって求められる。
CorAFsignalr=RwaAFsignalr・(EXPtemp2-l/EXP)
CorAFsignall=RwaAFsignall・(EXPtemp2-r/EXP) …(8)
この(8)式によって実際の射出瞳位置と設計瞳位置とのずれに伴う左右の瞳分割の不均一性を補正することができ、補正後の像信号を用いた相関演算によって、十分な精度のフォーカスを実現することができる。
The following equation (7) shows a function for obtaining a corrected image signal using the pupil division ratio of the above equation (6).
CorAFsignal = RwaAFsignal · g (EXP, EXPtemp2-l, EXPtemp2-r) (7)
For example, specifically, the corrected value CorAFsignalr of the image signal obtained from the R imaging unit and the corrected value CorAFsignall of the image signal obtained from the L imaging unit are obtained by the following equation (8).
CorAFsignalr = RwaAFsignalr (EXPtemp2-l / EXP)
CorAFsignall = RwaAFsignall · (EXPtemp2-r / EXP) (8)
This equation (8) can correct the non-uniformity of the left and right pupil division due to the deviation between the actual exit pupil position and the designed pupil position, and sufficient accuracy can be obtained by the correlation calculation using the corrected image signal. Can achieve the focus.

なお、上記各式は、実際の射出瞳位置における瞳分割による左右の光束の直径の比を用いて、像信号を補正する演算を示しているが、瞳分割による左右の光束の面積の比に基づいて、像信号を補正するようにしてもよい。この場合には、AF精度を一層向上させることができるという利点がある。   Note that each of the above equations shows the calculation for correcting the image signal using the ratio of the left and right light beam diameters by pupil division at the actual exit pupil position. Based on this, the image signal may be corrected. In this case, there is an advantage that the AF accuracy can be further improved.

このように設計瞳位置に対応して設定された1つのAF画素から得られる像信号を上記(4)式又は(8)式によって補正することで、実際の射出瞳位置において均等に左右の瞳分割が行われた場合と同様の像信号を得ることができる。更に、隣接する複数の設計瞳位置に夫々対応して設定された複数のAF画素から得られる像信号を用いて、補正された1つの像信号を得るようにしてもよい。   In this way, by correcting the image signal obtained from one AF pixel set corresponding to the designed pupil position by the above formula (4) or (8), the left and right pupils are evenly distributed at the actual exit pupil position. An image signal similar to that obtained when the division is performed can be obtained. Furthermore, one corrected image signal may be obtained using image signals obtained from a plurality of AF pixels set corresponding to a plurality of adjacent design pupil positions.

図11はこの場合の補正信号の生成方法を説明するためのものである。相互に比較的近傍に配置された図示しない2つのAF画素のうち、一方の画素は、射出瞳91の位置を設計瞳位置に想定して形成され、他方の画素は、射出瞳92の位置を設計瞳位置に想定して形成されているものとする。いま、実際の射出瞳位置が射出瞳93の位置であるものとする。   FIG. 11 is a diagram for explaining a correction signal generation method in this case. Of the two AF pixels (not shown) arranged relatively close to each other, one pixel is formed assuming that the position of the exit pupil 91 is the design pupil position, and the other pixel is the position of the exit pupil 92. It is assumed that it is formed assuming the design pupil position. Assume that the actual exit pupil position is the position of the exit pupil 93.

図11の光束94L,94R,95L,95Rは、図面を見やすくするために、射出瞳93の左右瞳分割による左右の光束を射出瞳93の位置からずらして示している。設計瞳位置が射出瞳91の位置であるAF画素がR画素の場合にはその受光領域に光束94Rが入射し、L画素の場合にはその受光領域に光束94Lが入射する。また、設計瞳位置が射出瞳92の位置であるAF画素がR画素の場合にはその受光領域に光束95Rが入射し、L画素の場合にはその受光領域に光束95Lが入射する。   The light beams 94L, 94R, 95L, and 95R in FIG. 11 are shown by shifting the left and right light beams resulting from the division of the left and right pupils of the exit pupil 93 from the position of the exit pupil 93 in order to make the drawing easier to see. When the AF pixel whose design pupil position is the position of the exit pupil 91 is an R pixel, the light beam 94R enters the light receiving region, and when the AF pixel is an L pixel, the light beam 94L enters the light receiving region. When the AF pixel whose design pupil position is the position of the exit pupil 92 is an R pixel, the light beam 95R is incident on the light receiving region, and when the AF pixel is an L pixel, the light beam 95L is incident on the light receiving region.

射出瞳93の射出瞳位置、射出瞳91,92の設計瞳位置、及びこの設計瞳位置に対応した上記2つのAF画素のマイクロレンズの光軸と撮影レンズの光軸との距離(h)が分かれば、図9及び図10並びに上記各式で説明したように、これらの2つのAF画素から得られる像信号を上記(4)式及び(8)式によって補正することができる。   The exit pupil position of the exit pupil 93, the design pupil positions of the exit pupils 91 and 92, and the distance (h) between the optical axis of the micro lens of the two AF pixels and the optical axis of the photographing lens corresponding to the design pupil position are as follows. If known, the image signals obtained from these two AF pixels can be corrected by the above equations (4) and (8) as described in FIGS. 9 and 10 and the above equations.

設計瞳位置が射出瞳91の位置であるAF画素からの像信号に対する上記(4)式の演算によって得られる補正像信号をCorAFsignal-1とし、設計瞳位置が射出瞳92の位置であるAF画素からの像信号に対する上記(8)式の演算によって得られる補正像信号をCorAFsignal-2とする。図11の例では、これらの2つの補正像信号を設計瞳位置と実際の射出瞳位置との距離a,bに基づく重み付けを行って加算することにより、1つの補正像信号を得るようになっている。例えば、このような重み付け加算による補正像信号CorAFsignalAVEは、下記(9)式によって得られる。
CorsingalAVE={wa(a,b)・CorAFsignal-1+wb(a,b)・CorAFsignal-2}/{wa(a,b)+wb(a,b)} …(9)
但し、wa(a,b),wb(a,b)は重み付け係数であり、例えば、wa(a,b)=b/(a+b),wb(a,b)=a/(a+b)である。
The corrected image signal obtained by the calculation of the above expression (4) for the image signal from the AF pixel whose design pupil position is the position of the exit pupil 91 is CorAFsignal-1, and the AF pixel whose design pupil position is the position of the exit pupil 92. The corrected image signal obtained by the calculation of the above equation (8) with respect to the image signal from is referred to as CorAFsignal-2. In the example of FIG. 11, these two corrected image signals are weighted based on the distances a and b between the design pupil position and the actual exit pupil position and added to obtain one corrected image signal. ing. For example, the corrected image signal CorAFsignalAVE by such weighted addition is obtained by the following equation (9).
CorsingalAVE = {wa (a, b) · CorAFsignal-1 + wb (a, b) · CorAFsignal-2} / {wa (a, b) + wb (a, b)} (9)
However, wa (a, b) and wb (a, b) are weighting coefficients, for example, wa (a, b) = b / (a + b), wb (a, b) = a / (a + b). .

例えば、実際の射出瞳位置が設計瞳位置の近傍にない場合等においては、実際の射出瞳位置近傍の2つの設計瞳位置に対応した2つのAF画素の補正像信号を重み付け加算することによって、信頼性の高い像信号を得ることができる。これにより、実際の射出瞳位置が設計瞳位置から比較的大きくずれた場合でも、十分なAF精度を確保することができる。   For example, when the actual exit pupil position is not in the vicinity of the design pupil position, the corrected image signals of the two AF pixels corresponding to the two design pupil positions in the vicinity of the actual exit pupil position are weighted and added. A highly reliable image signal can be obtained. Thereby, even when the actual exit pupil position deviates relatively greatly from the designed pupil position, sufficient AF accuracy can be ensured.

なお、上記説明では、AF画素としてL画素又はR画素を用いる例について説明した。しかし、撮像画像に横線が多い場合には、ピントがずれていてもL,R撮像部によって夫々得られる画像が一致することが考えられる。この場合には、射出瞳を例えば上下に分割して、上方向からの光と下方向からの光とを夫々受光するU撮像部とD撮像部とを構成すればよい。そして、複数のU撮像部によって得られる画像信号の位相と、複数のD撮像部によって得られる画像信号の位相とを比較することで、ピントのずれ量を検出して、ピント合わせが可能である。   In the above description, an example in which L pixels or R pixels are used as AF pixels has been described. However, when there are many horizontal lines in the captured image, it is conceivable that the images obtained by the L and R imaging units match even if the focus is shifted. In this case, for example, the exit pupil may be divided into upper and lower parts, and a U imaging unit and a D imaging unit that receive light from above and light from below may be configured. Then, by comparing the phase of the image signal obtained by the plurality of U imaging units and the phase of the image signal obtained by the plurality of D imaging units, it is possible to detect the amount of focus shift and to focus. .

この場合でも、図9乃至図11に示す補正が可能であり、撮影レンズの光軸からの距離を像高hとすればよい。   Even in this case, the correction shown in FIGS. 9 to 11 is possible, and the distance from the optical axis of the photographing lens may be set to the image height h.

(回路構成)
図1に示すように、撮像装置1の図示しない本体筐体内には本体回路部10が設けられ、本体筐体に着脱自在に取り付けられる交換レンズ部20には交換レンズ回路部21が設けられている。本体回路部10には、通信部12が設けられており、交換レンズ回路部21には通信部23が設けられている。本体回路部10の通信部12は、交換レンズ回路部21の通信部23との間で、相互に情報を送受することができるようになっている。
(Circuit configuration)
As shown in FIG. 1, a main body circuit unit 10 is provided in a main body housing (not shown) of the imaging apparatus 1, and an interchangeable lens circuit unit 21 is provided in an interchangeable lens unit 20 that is detachably attached to the main body housing. Yes. The main body circuit unit 10 is provided with a communication unit 12, and the interchangeable lens circuit unit 21 is provided with a communication unit 23. The communication unit 12 of the main body circuit unit 10 can exchange information with the communication unit 23 of the interchangeable lens circuit unit 21.

交換レンズ20は、撮影レンズ26を有している。撮影レンズ26は、駆動部25に駆動されることで合焦を可能にするオートフォーカス機能を備えている。また、撮影レンズ26は駆動部25に駆動されてズーム機能を有する。なお、交換レンズ20としては、単焦点の撮影レンズを有するものを採用してもよい。   The interchangeable lens 20 has a photographic lens 26. The photographic lens 26 has an autofocus function that enables focusing by being driven by the drive unit 25. The photographing lens 26 is driven by the drive unit 25 and has a zoom function. As the interchangeable lens 20, a lens having a single focus photographing lens may be adopted.

交換レンズ20のレンズ制御部22は、本体回路部10からの信号により又はユーザ操作に基づく操作部24からの信号によって、駆動部25を制御して、撮影レンズ26を駆動し、撮影レンズ26における絞り、ピント、ズーム等を制御することができるようになっている。   The lens control unit 22 of the interchangeable lens 20 controls the driving unit 25 by a signal from the main body circuit unit 10 or a signal from the operation unit 24 based on a user operation to drive the photographing lens 26. Aperture, focus, zoom, etc. can be controlled.

レンズ制御部22の通信部23は、所定の伝送路を介して本体回路部10の通信部12との間で情報の送受を行う。レンズ制御部22は、本体回路部10の通信部12との間の通信が確立すると、レンズメモリ27に格納されているレンズに関する情報を通信部23によって本体回路部10に送信させることができる。   The communication unit 23 of the lens control unit 22 transmits and receives information to and from the communication unit 12 of the main body circuit unit 10 via a predetermined transmission path. When communication with the communication unit 12 of the main body circuit unit 10 is established, the lens control unit 22 can cause the main body circuit unit 10 to transmit information on the lens stored in the lens memory 27 by the communication unit 23.

本実施の形態においては、レンズメモリ27には、レンズに関する情報として、例えば、絞り位置、絞り径、射出瞳位置、射出瞳径、フォーカスレンズ位置、像高及び方向に応じたケラレ等に関する情報を記憶するようになっている。これにより、本体回路部10は、交換レンズ20のズーム倍率、焦点距離、明るさナンバー等を認識することができると共に、AF画素の像信号の補正を行うために必要な情報を取得することができるようになっている。   In the present embodiment, the lens memory 27 includes, for example, information on the lens position, the aperture diameter, the exit pupil position, the exit pupil diameter, the focus lens position, the vignetting according to the image height and direction, and the like. It comes to memorize. Accordingly, the main body circuit unit 10 can recognize the zoom magnification, focal length, brightness number, and the like of the interchangeable lens 20 and can acquire information necessary for correcting the image signal of the AF pixel. It can be done.

本体回路部10は、CMOSセンサ等の撮像素子によって構成された撮像部14を有している。撮像部14は、交換レンズ20からの被写体の光を受光する受光部14aを有する。交換レンズ20からの被写体の光学像は、受光部14aに結像するようになっている。   The main body circuit unit 10 includes an imaging unit 14 configured by an imaging element such as a CMOS sensor. The imaging unit 14 includes a light receiving unit 14 a that receives light of a subject from the interchangeable lens 20. The optical image of the subject from the interchangeable lens 20 is formed on the light receiving unit 14a.

図12は図1中の受光部14aの画素配列の一例を示す説明図である。本実施の形態においては、画素配列としてベイヤー配列を採用する例について説明する。図12は1つの枠によって1画素を示しており、枠内の粗なハッチングは赤色のフィルタが配置された赤色の画素を示し、密なハッチングは青色のフィルタが配置された青色の画素を示し、無地は緑色のフィルタが配置された緑色の画素を示している。また、枠内の文字は、AF画素であることを示し、文字Wは設計瞳位置がワイド側に設定されている画素を示し、文字Sは設計瞳位置が基準位置側に設定されている画素を示し、文字Tは設計瞳位置がテレ側に設定されている画素を示している。   FIG. 12 is an explanatory diagram showing an example of a pixel array of the light receiving unit 14a in FIG. In the present embodiment, an example in which a Bayer array is adopted as the pixel array will be described. FIG. 12 shows one pixel by one frame, and rough hatching in the frame indicates a red pixel in which a red filter is arranged, and dense hatching indicates a blue pixel in which a blue filter is arranged. Solid color indicates a green pixel in which a green filter is arranged. The character in the frame indicates an AF pixel, the character W indicates a pixel whose design pupil position is set to the wide side, and the character S is a pixel whose design pupil position is set to the reference position side. The letter T indicates a pixel whose design pupil position is set to the tele side.

また、AF画素を示す文字の添え字にLが含まれる画素はL画素を示し、AF画素を示す文字の添え字にRが含まれる画素はR画素を示している。また、AF画素を示す文字の添え字に含まれる数字は、各AF画素のマイクロレンズの光軸と撮影レンズの光軸との水平方向の距離hに対応しており、同一の数字は同一距離hであることを示している。   Further, a pixel in which L is included in a subscript of a character indicating an AF pixel indicates an L pixel, and a pixel in which R is included in a subscript of a character indicating an AF pixel is an R pixel. The number included in the subscript of the letter indicating the AF pixel corresponds to the horizontal distance h between the optical axis of the micro lens and the optical axis of the photographing lens of each AF pixel, and the same number is the same distance. h.

また、図11の補正方法を採用する場合には、複数種類の設計瞳位置のうち相互に近接した設計瞳位置に対応する2つの画素同士は近接した位置に配置されている方が、補正精度は高いと考えられる。この理由から、設定する複数の設計瞳位置に対応してAF画素を配置した方がよい。例えば、ワイド側、基準位置及びテレ側の3種類の設計瞳位置を設定する場合には、これらの設計瞳位置に対応するAF画素をワイド側、基準位置及びテレ側の順又はテレ側、基準位置、ワイド側の順に配列する。   When the correction method of FIG. 11 is employed, the correction accuracy is improved when two pixels corresponding to design pupil positions close to each other among a plurality of types of design pupil positions are arranged at close positions. Is considered high. For this reason, it is better to arrange AF pixels corresponding to a plurality of design pupil positions to be set. For example, when setting three types of design pupil positions of the wide side, the reference position, and the tele side, the AF pixels corresponding to these design pupil positions are set to the wide side, the reference position and the tele side in order or the tele side, Arrange in order of position and wide side.

図12に示す受光部14aは、AF画素として、3つの設計瞳位置に設定された3種類の画素を有している。即ち、設計瞳位置がワイド側に設定されたAF画素W1L,W2L,…,W1R,W2R,…、設計瞳位置が基準位置に設定されたAF画素S1L,S2L,…,S1R,S2R,…、及び設計瞳位置がテレ側に設定されたAF画素T1L,T2L,…,T1R,T2R,…の3種類である。   The light receiving unit 14a illustrated in FIG. 12 has three types of pixels set as three design pupil positions as AF pixels. That is, AF pixels W1L, W2L,..., W1R, W2R,... With the designed pupil position set to the wide side, AF pixels S1L, S2L,..., S1R, S2R,. And there are three types of AF pixels T1L, T2L,..., T1R, T2R,.

撮像部14は、信号処理及び制御部11によって駆動制御される。撮像部14の受光部14aは、被写体からの光学像を光電変換して、像信号を出力する。信号処理及び制御部11には信号抽出部11aが設けられており、信号抽出部11aは、撮像部14からの像信号を取り込む。信号抽出部11aは取り込んだ像信号を画像処理部11bに出力すると共に、AF画素の像信号については補正部11cに出力するようになっている。   The imaging unit 14 is driven and controlled by the signal processing and control unit 11. The light receiving unit 14a of the imaging unit 14 photoelectrically converts an optical image from the subject and outputs an image signal. The signal processing and control unit 11 is provided with a signal extraction unit 11 a, and the signal extraction unit 11 a takes in an image signal from the imaging unit 14. The signal extraction unit 11a outputs the captured image signal to the image processing unit 11b, and outputs the image signal of the AF pixel to the correction unit 11c.

補正部11cには、瞳位置判定部11dの判定結果が与えられる。補正部11cは、AF画素に設定された設計瞳位置と実際の射出瞳位置との相違により、左右の瞳分割が不均衡となり、L,R撮像部の入射光束のサイズが相互に異なることに起因した、像信号の誤差を補正する。補正部11cは像信号の補正処理のために瞳位置判定部11dの判定結果を用いる。   The determination result of the pupil position determination unit 11d is given to the correction unit 11c. The correction unit 11c is caused by the difference between the design pupil position set in the AF pixel and the actual exit pupil position, and the right and left pupil division is unbalanced, and the sizes of the incident light beams of the L and R imaging units are different from each other. The resulting image signal error is corrected. The correction unit 11c uses the determination result of the pupil position determination unit 11d for image signal correction processing.

瞳位置判定部11dには、通信部12を介してレンズに関する情報が与えられると共に、本体メモリ19からAF画素の情報を取得する。本体メモリ19には、各AF画素に関する情報、例えば、各AF画素のマイクロレンズの光軸と撮影レンズ光軸との距離hの情報が記憶されている。   Information regarding the lens is given to the pupil position determination unit 11d via the communication unit 12, and information about the AF pixel is acquired from the main body memory 19. The main body memory 19 stores information on each AF pixel, for example, information on the distance h between the optical axis of the microlens and the photographing lens optical axis of each AF pixel.

瞳位置判定部11dは、レンズメモリ27から実際の射出瞳位置に関する情報を取得し、本体メモリ19から各AF画素に設定された設計瞳位置に関する情報情報を取得して、AF演算に用いるAF画素及び像信号の補正方法を決定する。即ち、瞳位置判定部11dは、実際の射出瞳位置に一致した設計瞳位置が存在する場合には、その設計瞳位置に対応するAF画素をそのまま用いてAF演算させる判定結果を出力する。また、瞳位置判定部11dは、実際の射出瞳位置と設計瞳位置とが一致しない場合には、射出瞳位置に近接した設計瞳位置に対応するAF画素を選択するための判定結果を出力すると共に、上述した図9乃至図11のいずれの補正方法を採用するかを判定し、判定結果を補正部11cに出力する。   The pupil position determination unit 11d acquires information regarding the actual exit pupil position from the lens memory 27, acquires information information regarding the design pupil position set for each AF pixel from the main body memory 19, and uses AF pixels for AF calculation. And a correction method of the image signal is determined. That is, when there is a design pupil position that matches the actual exit pupil position, the pupil position determination unit 11d outputs a determination result for performing AF calculation using the AF pixel corresponding to the design pupil position as it is. Moreover, the pupil position determination part 11d outputs the determination result for selecting the AF pixel corresponding to the design pupil position close to the exit pupil position when the actual exit pupil position and the design pupil position do not match. At the same time, it is determined which of the correction methods shown in FIGS. 9 to 11 is used, and the determination result is output to the correction unit 11c.

補正部11cは、通信部12を介してレンズメモリ27から実際の射出瞳位置及び射出瞳径に関する情報を取得し、本体メモリ19から各AF画素の距離h及び設計瞳位置に関する情報を取得し、瞳位置判定部11dの判定結果に従って、像信号を補正することなくAF信号算出部11eに出力するか、又は、図9乃至図11のいずれかの補正方法を採用してAF画素の像信号を補正し、補正像信号をAF信号算出部11eに出力する。   The correction unit 11c acquires information on the actual exit pupil position and exit pupil diameter from the lens memory 27 via the communication unit 12, and acquires information on the distance h and the design pupil position of each AF pixel from the main body memory 19, According to the determination result of the pupil position determination unit 11d, the image signal is output to the AF signal calculation unit 11e without being corrected, or the image signal of the AF pixel is selected by using any one of the correction methods shown in FIGS. It corrects and outputs the corrected image signal to the AF signal calculation unit 11e.

AF信号算出部11eは、AF画素の補正像信号が与えられ、補正像信号の相関を求めて、瞳分割位相差法によるAF信号を算出する。信号処理及び制御部11は、AF信号算出部11eによって算出されたAF信号を通信部12,23を介して駆動部25に供給することで、ピント合わせを行うようになっている。   The AF signal calculation unit 11e is supplied with the corrected image signal of the AF pixel, calculates the correlation of the corrected image signal, and calculates the AF signal by the pupil division phase difference method. The signal processing and control unit 11 performs focusing by supplying the AF signal calculated by the AF signal calculating unit 11e to the driving unit 25 via the communication units 12 and 23.

信号処理及び制御部11の画像処理部11bは、信号抽出部11aからの像信号に対して、所定の信号処理、例えば、色信号生成処理、マトリックス変換処理、その他各種のデジタル処理を行う。信号処理及び制御部11は、画像信号及び音声信号等の記録に際して、符号化処理を施して圧縮した画像情報及び音声情報等を出力することもできるようになっている。   The image processing unit 11b of the signal processing and control unit 11 performs predetermined signal processing, such as color signal generation processing, matrix conversion processing, and other various digital processing, on the image signal from the signal extraction unit 11a. The signal processing and control unit 11 can output image information, audio information, and the like compressed by performing an encoding process when recording an image signal, an audio signal, and the like.

また、本体回路部10には、時計部15、操作判定部16も配設されている。時計部15は信号処理及び制御部11が用いる時間情報を発生する。操作判定部16は、撮像装置1に設けられた撮像開始終了ボタンや撮影モード設定等の図示しない各種スイッチに対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。信号処理及び制御部11は、操作信号に基づいて、各部を制御する。   The main body circuit unit 10 is also provided with a clock unit 15 and an operation determination unit 16. The clock unit 15 generates time information used by the signal processing and control unit 11. The operation determination unit 16 generates an operation signal based on a user operation with respect to various switches (not shown) such as an imaging start / end button and a shooting mode setting provided in the imaging apparatus 1 and outputs the operation signal to the signal processing and control unit 11. It has become. The signal processing and control unit 11 controls each unit based on the operation signal.

また、本体回路部10には、記録再生部17及び表示部18が設けられている。記録再生部17は、信号処理及び制御部11からの画像情報及び音声情報を図示しない記録媒体に記録することができるようになっている。なお、記録再生部17としては例えばカードインターフェースを採用することができ、記録再生部17はメモリカード等に画像情報及び音声情報等を記録可能である。また、記録再生部17は、記録媒体に記録された画像情報及び音声情報を読み出して信号処理及び制御部11に供給することができる。信号処理及び制御部11は、記録再生部17からの画像情報及び音声情報を復号化して、画像信号及び音声信号を得ることができるようになっている。   The main body circuit unit 10 is provided with a recording / reproducing unit 17 and a display unit 18. The recording / reproducing unit 17 can record image information and audio information from the signal processing and control unit 11 on a recording medium (not shown). For example, a card interface can be employed as the recording / reproducing unit 17, and the recording / reproducing unit 17 can record image information, audio information, and the like on a memory card or the like. Further, the recording / reproducing unit 17 can read out image information and audio information recorded on the recording medium and supply them to the signal processing and control unit 11. The signal processing and control unit 11 can decode the image information and the audio information from the recording / reproducing unit 17 to obtain an image signal and an audio signal.

表示部18は、撮像部14からの撮像画像や記録再生部17からの再生画像が信号処理及び制御部11から供給されて、これらの画像表示を行うことができる。また、表示部18は信号処理及び制御部11に制御されて、撮影機器1の操作を行うためのメニュー表示等を表示することもできるようになっている。   The display unit 18 is supplied with the captured image from the imaging unit 14 and the reproduced image from the recording / reproducing unit 17 from the signal processing and control unit 11 and can display these images. Further, the display unit 18 can be controlled by the signal processing and control unit 11 to display a menu display or the like for operating the photographing apparatus 1.

信号処理及び制御部11は、生成した映像信号を記録再生部17に与えて記録させる場合には、ユーザ操作に基づいて記録した映像信号のファイル化を行うようになっている。なお、ファイル化によって、記録再生部17に記録されてファイル化された映像信号(以下、映像ファイルという)に対してユーザ操作に基づく各種処理、例えば再生処理が可能となる。   When the generated video signal is supplied to the recording / playback unit 17 for recording, the signal processing and control unit 11 converts the recorded video signal into a file based on a user operation. Note that, by making a file, various processes based on a user operation, such as a playback process, can be performed on the video signal recorded in the recording / playback unit 17 (hereinafter referred to as a video file).

次に、このように構成された実施の形態の作用について図13及び図14を参照して説明する。図13は本実施の形態におけるカメラ制御を説明するためのフローチャートであり、図14は図13中のAF処理を具体的に示すフローチャートである。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. 13 and 14. FIG. 13 is a flowchart for explaining camera control in the present embodiment, and FIG. 14 is a flowchart specifically showing the AF processing in FIG.

撮像装置1に電源が投入されると、信号処理及び制御部11は、図13のステップS21において、撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、信号処理及び制御部11は、ステップS22において、再生モードが指示されたか否かを判定する。再生モードが指示されると、信号処理及び制御部11は、ステップS23において、サムネイルの一覧表示を行う。サムネイル一覧を参照したユーザによる画像の選択が行われると、ステップS24からステップS25に処理を移行して、信号処理及び制御部11は選択画像の再生を行う。ファイル選択が行われない場合には、ステップS26において再生モードの終了を判定する。   When the image pickup apparatus 1 is turned on, the signal processing and control unit 11 determines whether or not the shooting mode is instructed in step S21 of FIG. If the shooting mode is not instructed, the signal processing and control unit 11 determines in step S22 whether or not the playback mode is instructed. When the reproduction mode is instructed, the signal processing and control unit 11 displays a list of thumbnails in step S23. When the user selects an image with reference to the thumbnail list, the process proceeds from step S24 to step S25, and the signal processing and control unit 11 reproduces the selected image. If no file is selected, it is determined in step S26 that the playback mode has ended.

一方、撮影モードが指示されると、信号処理及び制御部11は、ステップS31において、撮像部14からの画像信号に基づいて、表示部18に撮像画像(スルー画)をライブビュー表示させる。なお、この場合には、信号処理及び制御部11は、撮像部14からの撮像画像を、表示部18の表示画素数に応じて間引き処理した後、表示部18に与える。   On the other hand, when the shooting mode is instructed, the signal processing and control unit 11 causes the display unit 18 to display the captured image (through image) in live view based on the image signal from the imaging unit 14 in step S31. In this case, the signal processing and control unit 11 performs the thinning process on the captured image from the imaging unit 14 according to the number of display pixels of the display unit 18 and then supplies the thinned image to the display unit 18.

次のステップS32においては、AF処理によって、ピント合わせが行われる。即ち、信号処理及び制御部11は、図14のステップS51において、通信部12,23を介してレンズメモリ27に記憶されているレンズ情報を取得する。また、信号処理及び制御部11は、ステップS52において、本体メモリ19に記憶されているAF画素に関する情報を取得する。   In the next step S32, focusing is performed by AF processing. That is, the signal processing and control unit 11 acquires lens information stored in the lens memory 27 via the communication units 12 and 23 in step S51 of FIG. Further, in step S52, the signal processing and control unit 11 acquires information regarding the AF pixels stored in the main body memory 19.

次に、信号処理及び制御部11の瞳位置判定部11dは、ステップS53において、実際の射出瞳位置が設計瞳位置に一致しているか否かを判定し、判定結果を補正部11cに出力する。瞳位置判定部11dは、本体メモリ19から各AF画素に設定された設計瞳位置の情報を取得しており、レンズ情報に含まれる実際の射出瞳位置の情報を用いて、射出瞳位置と設計瞳位置との一致判定を行う。例えば、焦点距離が固定の単焦点レンズを採用している場合等、射出瞳位置が設計瞳位置に一致することがある。   Next, the pupil position determination unit 11d of the signal processing and control unit 11 determines whether or not the actual exit pupil position matches the design pupil position in step S53, and outputs the determination result to the correction unit 11c. . The pupil position determination unit 11d acquires information on the design pupil position set for each AF pixel from the main body memory 19, and uses the information on the actual exit pupil position included in the lens information to determine the exit pupil position and the design. The coincidence with the pupil position is determined. For example, when a single focal lens having a fixed focal length is employed, the exit pupil position may coincide with the designed pupil position.

この場合には、補正部11cは、実際の射出瞳位置に一致した設計瞳位置に対応するAF画素の像信号を読み出して、そのままAF信号算出部11eに出力する(ステップS54)。AF信号算出部11eは、読出された像信号を用いた相関演算によってAF信号を生成する。このAF信号は、通信部12,23を介して駆動部25に供給されて、ピント合わせが行われる(ステップS60)。   In this case, the correction unit 11c reads out the image signal of the AF pixel corresponding to the design pupil position that matches the actual exit pupil position, and outputs it as it is to the AF signal calculation unit 11e (step S54). The AF signal calculation unit 11e generates an AF signal by correlation calculation using the read image signal. The AF signal is supplied to the drive unit 25 via the communication units 12 and 23, and focusing is performed (step S60).

瞳位置判定部11dは、実際の射出瞳位置が設計瞳位置に一致しない場合には、処理をステップS55に移行して、射出瞳位置と設計瞳位置との差が所定の閾値以内であるか否かを判定し判定結果を補正部11cに出力する。射出瞳位置と設計瞳位置との差が所定の閾値以内である場合には、補正部11cは、図9又は図10に示す補正方法を採用して像信号を補正する(ステップS56)。即ち、補正部11cは、射出瞳に関する情報、設計瞳位置に関する情報及びAF画素の距離hに関する情報を用いて、例えば上記(4)式又は(8)式の演算によって、像信号を補正する。次いで、ステップS60においてAF信号が生成され、ピント合わせが行われる。   If the actual exit pupil position does not match the design pupil position, the pupil position determination unit 11d moves the process to step S55, and determines whether the difference between the exit pupil position and the design pupil position is within a predetermined threshold. It is determined whether or not, and the determination result is output to the correction unit 11c. When the difference between the exit pupil position and the designed pupil position is within a predetermined threshold, the correction unit 11c corrects the image signal by using the correction method shown in FIG. 9 or FIG. 10 (step S56). That is, the correction unit 11c corrects the image signal by, for example, the calculation of the above formula (4) or (8) using the information about the exit pupil, the information about the design pupil position, and the information about the distance h of the AF pixel. Next, in step S60, an AF signal is generated and focusing is performed.

補正部11cは、瞳位置判定部11dによって、射出瞳位置と設計瞳位置との差が所定の閾値を超えたことを示す判定結果が与えられた場合には、図11に示す補正方法を採用して像信号を補正する。即ち、補正部11cは、先ず、実際の射出瞳位置に近い複数の設計瞳位置に夫々対応する複数の画素の像信号を読み出す(ステップS57)。次に、補正部11cは、各像信号に対して、上記(4)式又は(8)式の演算によって補正を行う(ステップS58)。次に、補正部11cは、補正像信号に、射出瞳位置と設計瞳位置との距離に基づく重みを付して加算し平均を求める。こうして、複数のAF画素から1つの像信号を生成する。次いで、ステップS60においてAF信号を生成して、ピント合わせを行う。   When the pupil position determination unit 11d gives a determination result indicating that the difference between the exit pupil position and the design pupil position exceeds a predetermined threshold, the correction unit 11c employs the correction method illustrated in FIG. Then, the image signal is corrected. That is, the correction unit 11c first reads out image signals of a plurality of pixels respectively corresponding to a plurality of design pupil positions close to the actual exit pupil position (step S57). Next, the correction unit 11c corrects each image signal by the calculation of the above expression (4) or (8) (step S58). Next, the correcting unit 11c adds the weight based on the distance between the exit pupil position and the designed pupil position to the corrected image signal and calculates the average. Thus, one image signal is generated from the plurality of AF pixels. Next, in step S60, an AF signal is generated and focusing is performed.

ステップS61,62によって、合焦となるまでフォーカス制御が続けられる。   By steps S61 and S62, the focus control is continued until focusing is achieved.

次に、図13のステップS33において、シャッターレリーズ操作により撮影が指示されると、信号処理及び制御部11は、撮像部14からの像信号に対して所定の信号処理を施して記録用の画像を生成する。信号処理及び制御部11は、生成した撮像画像を図示しないメモリに記録する(ステップS34)。信号処理及び制御部11は、記録された撮像画像中のAF画素については、当該AF画素の周囲の画素を用いた補正処理によって、このAF画素を撮像用画素で構成した場合の像信号を求めて、AF画素位置の像信号とする(ステップS36)。   Next, in step S33 in FIG. 13, when shooting is instructed by a shutter release operation, the signal processing and control unit 11 performs predetermined signal processing on the image signal from the imaging unit 14 to record an image for recording. Is generated. The signal processing and control unit 11 records the generated captured image in a memory (not shown) (step S34). For the AF pixel in the recorded captured image, the signal processing and control unit 11 obtains an image signal when the AF pixel is configured by the imaging pixel by correction processing using pixels around the AF pixel. Thus, an image signal at the AF pixel position is set (step S36).

信号処理及び制御部11は、AF画素の像信号が補正された撮像画像を記録再生部17に与えてファイル化する(ステップS36)。また、信号処理及び制御部11は、記録した撮像画像を表示部18に与えて、レックビュー表示を行う(ステップS37)。   The signal processing and control unit 11 gives the captured image in which the image signal of the AF pixel is corrected to the recording / reproducing unit 17 to create a file (step S36). In addition, the signal processing and control unit 11 gives the recorded captured image to the display unit 18 to perform REC view display (step S37).

信号処理及び制御部11は、ステップS41において、電源オフ操作が行われた否かを判定する。電源オフ操作が行われていない場合には、信号処理及び制御部11は、撮影・再生モードの変更操作を受付けた後(ステップS42)、処理をステップS21に戻す。電源オフ操作が行われた場合には、信号処理及び制御部11は電源をオフにする(ステップS43)。   In step S41, the signal processing and control unit 11 determines whether or not a power-off operation has been performed. When the power-off operation is not performed, the signal processing and control unit 11 receives the photographing / playback mode changing operation (step S42), and then returns the process to step S21. When the power-off operation is performed, the signal processing and control unit 11 turns off the power (step S43).

なお、図14のAF処理においては、射出瞳位置と設計瞳位置とが一致した場合には、一致した設計瞳位置に対応するAF画素のみを用いて相関演算を行う例について説明したが、一致していない設計瞳位置に対応するAF画素についても図9乃至図11の補正方法によって補正して相関演算に用いるようにしてもよい。また、射出瞳位置と設計瞳位置との差が所定の閾値内であるか否かに拘わらず、図9又は図10に示す補正方法或いは図11に示す補正方法を採用してもよい。   In the AF process of FIG. 14, an example has been described in which the correlation calculation is performed using only the AF pixels corresponding to the matched design pupil position when the exit pupil position matches the design pupil position. An AF pixel corresponding to a design pupil position that has not been corrected may be corrected by the correction method shown in FIGS. 9 to 11 and used for correlation calculation. Further, the correction method shown in FIG. 9 or 10 or the correction method shown in FIG. 11 may be adopted regardless of whether or not the difference between the exit pupil position and the designed pupil position is within a predetermined threshold.

このように本実施の形態においては、撮像素子は、複数の設計瞳位置に対応して夫々受光領域が設定された複数種類のAF画素が形成される。これにより、射出瞳位置が変化する場合でも、左右の瞳分割を均等に行うことが可能となり、AF精度が劣化することを防止することができる。また、射出瞳位置に比較的近い位置の設計瞳位置に対応するAF画素の像信号を用いて補正を行うことにより、AF信号の補正精度を向上させることができ、十分なAF精度を得ることが可能となる。   As described above, in the present embodiment, the image sensor is formed with a plurality of types of AF pixels each having a light receiving area set corresponding to a plurality of designed pupil positions. Thereby, even when the exit pupil position changes, the left and right pupil divisions can be performed equally, and the AF accuracy can be prevented from deteriorating. Further, by performing correction using the image signal of the AF pixel corresponding to the designed pupil position that is relatively close to the exit pupil position, the correction accuracy of the AF signal can be improved, and sufficient AF accuracy can be obtained. Is possible.

10…本体回路部、11…信号処理及び制御部、11a…信号抽出部、11c…補正部、11d…瞳位置判定部、11e…AF信号算出部、12,23…通信部、14…撮像部、14a…受光部、17…記録再生部、18…表示部、19…本体メモリ、27…レンズメモリ。     DESCRIPTION OF SYMBOLS 10 ... Main body circuit part, 11 ... Signal processing and control part, 11a ... Signal extraction part, 11c ... Correction | amendment part, 11d ... Pupil position determination part, 11e ... AF signal calculation part, 12, 23 ... Communication part, 14 ... Imaging part , 14a ... light receiving part, 17 ... recording / reproducing part, 18 ... display part, 19 ... main body memory, 27 ... lens memory.

Claims (4)

撮像用の画素及び焦点検出用の画素を有する複数の画素がマトリクス状に配列された撮像素子であって、上記画素は、撮影レンズからの光が入射する受光領域と、上記撮影レンズからの光を上記受光領域に導くマイクロレンズとを具備し、上記焦点検出用の画素としては、想定される複数の設計瞳位置に対応して複数種類構成され、上記焦点検出用の画素の受光領域は、上記設計瞳位置と上記マイクロレンズとの位置関係に対応して領域の一端の位置が規定される撮像素子と、
複数の異なる設計瞳位置に対応する焦点検出用の画素からの複数の像信号を、上記撮影レンズの射出瞳位置と上記複数の設計瞳位置とのそれぞれの距離に応じ、上記射出瞳位置に関して重み付け加算を行うことにより補正像信号を得る補正部と、
上記補正部によって補正された補正像信号を用いて焦点検出を行う焦点検出部と、
を具備することを特徴とする撮像装置。
An imaging element in which a plurality of pixels each having an imaging pixel and a focus detection pixel are arranged in a matrix, wherein the pixel includes a light receiving region where light from a photographing lens is incident and light from the photographing lens The focus detection pixels are configured in a plurality of types corresponding to a plurality of assumed pupil positions, and the focus detection pixels have a light reception area, An image sensor in which the position of one end of the region is defined corresponding to the positional relationship between the design pupil position and the microlens ;
A plurality of image signals from focus detection pixels corresponding to a plurality of different design pupil positions are weighted with respect to the exit pupil positions in accordance with respective distances between the exit pupil position of the photographing lens and the plurality of design pupil positions. A correction unit that obtains a corrected image signal by performing addition;
A focus detection unit that performs focus detection using the corrected image signal corrected by the correction unit;
An imaging apparatus comprising:
上記焦点検出部は、上記射出瞳位置と上記設計瞳位置の差が所定範囲内ではないと判定する場合に、上記補正部により補正された補正像信号を用いて焦点検出を行うことを特徴とする請求項1に記載の撮像装置。The focus detection unit performs focus detection using the corrected image signal corrected by the correction unit when determining that the difference between the exit pupil position and the design pupil position is not within a predetermined range. The imaging device according to claim 1. 上記補正部は、上記複数の設計瞳のうちで上記射出瞳位置の近傍に位置する設計瞳を選択し、上記近傍に位置する設計瞳に対応する焦点検出用の画素からの複数の像信号より補正像信号を得ることを特徴とする請求項1または2に記載の撮像装置。The correction unit selects a design pupil located in the vicinity of the exit pupil position from the plurality of design pupils, and uses a plurality of image signals from focus detection pixels corresponding to the design pupil located in the vicinity. The imaging apparatus according to claim 1, wherein a corrected image signal is obtained. 上記射出瞳位置の情報を取得する通信部と、
上記複数の設計瞳の位置に関する情報を記憶するメモリと
を具備したことを特徴とする請求項1乃至3のいずれか1つに記載の撮像装置。
A communication unit for obtaining information of the exit pupil position;
The imaging apparatus according to any one of claims 1 to 3, characterized by comprising a memory for storing information relating to the position of the plurality of design pupil.
JP2011175317A 2011-07-13 2011-08-10 Imaging device Expired - Fee Related JP5885421B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011175317A JP5885421B2 (en) 2011-08-10 2011-08-10 Imaging device
US13/545,400 US8810713B2 (en) 2011-07-13 2012-07-10 Image pickup apparatus and image pickup device for performing auto-focusing
CN201210240803.5A CN102883093B (en) 2011-07-13 2012-07-11 Camera head and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011175317A JP5885421B2 (en) 2011-08-10 2011-08-10 Imaging device

Publications (2)

Publication Number Publication Date
JP2013037295A JP2013037295A (en) 2013-02-21
JP5885421B2 true JP5885421B2 (en) 2016-03-15

Family

ID=47886927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011175317A Expired - Fee Related JP5885421B2 (en) 2011-07-13 2011-08-10 Imaging device

Country Status (1)

Country Link
JP (1) JP5885421B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5769773B2 (en) * 2013-09-30 2015-08-26 オリンパス株式会社 Camera system and focus detection pixel correction method
JP6639208B2 (en) * 2015-11-30 2020-02-05 キヤノン株式会社 Imaging device and control method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191629A (en) * 2002-12-11 2004-07-08 Canon Inc Focus detector
JP4984491B2 (en) * 2005-10-31 2012-07-25 株式会社ニコン Focus detection apparatus and optical system
JP4946059B2 (en) * 2006-01-11 2012-06-06 株式会社ニコン Imaging device
JP5375010B2 (en) * 2007-10-02 2013-12-25 株式会社ニコン Imaging device
JP5050928B2 (en) * 2008-02-28 2012-10-17 ソニー株式会社 Imaging device and imaging device
JP5169499B2 (en) * 2008-06-02 2013-03-27 株式会社ニコン Imaging device and imaging apparatus

Also Published As

Publication number Publication date
JP2013037295A (en) 2013-02-21

Similar Documents

Publication Publication Date Title
JP4720508B2 (en) Imaging device and imaging apparatus
JP5066851B2 (en) Imaging device
JP2013037296A (en) Image pickup apparatus and image pickup device
JP4867552B2 (en) Imaging device
US8810713B2 (en) Image pickup apparatus and image pickup device for performing auto-focusing
JP5722975B2 (en) Imaging device, shading correction method for imaging device, and program for imaging device
JP5243666B2 (en) Imaging apparatus, imaging apparatus main body, and shading correction method
JP6264284B2 (en) Imaging device
JP5157400B2 (en) Imaging device
JP4867566B2 (en) Imaging device, focus detection device, and imaging device
US20100165176A1 (en) Image sensing apparatus
JP6682310B2 (en) Focus detection apparatus and method, and imaging apparatus
JP2010220192A (en) Imaging element and imaging apparatus
JP5657184B2 (en) Imaging apparatus and signal processing method
JP2012015819A (en) Stereoscopic image imaging apparatus
JP5348258B2 (en) Imaging device
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP2012133194A (en) Imaging apparatus
JP5885421B2 (en) Imaging device
JP2020046482A (en) Imaging apparatus
JP2013210507A (en) Imaging device
JP2013021616A (en) Imaging apparatus
JP6071748B2 (en) Imaging apparatus and control method thereof
JP7079161B2 (en) Imaging device and its control method
JP5597273B2 (en) Imaging apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140807

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160209

R151 Written notification of patent or utility model registration

Ref document number: 5885421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees