JP2009244662A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2009244662A
JP2009244662A JP2008092141A JP2008092141A JP2009244662A JP 2009244662 A JP2009244662 A JP 2009244662A JP 2008092141 A JP2008092141 A JP 2008092141A JP 2008092141 A JP2008092141 A JP 2008092141A JP 2009244662 A JP2009244662 A JP 2009244662A
Authority
JP
Japan
Prior art keywords
microlens
optical system
light
shape
diaphragm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008092141A
Other languages
Japanese (ja)
Inventor
Yukio Watanabe
由紀夫 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008092141A priority Critical patent/JP2009244662A/en
Publication of JP2009244662A publication Critical patent/JP2009244662A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus of a plenoptic camera system effectively utilizing a pixel of an image sensor. <P>SOLUTION: The imaging apparatus 10 includes: an imaging lens 1 which condenses light from an object surface; a microlens array 2 where a plurality of microlenses 2m receiving light from the imaging lens 1 are arranged; the image sensor 3 which forms a plurality of focal plane images based on the light from the plurality of microlenses 2m; and a diaphragm 4. The aperture shape of the diaphragm 4 is designed so as to be similar to the shape of a pixel group of the image sensor 3 corresponding to each microlens. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、撮像装置に関し、特に、マイクロレンズを用いた撮像装置に関する。   The present invention relates to an imaging device, and more particularly, to an imaging device using a microlens.

非特許文献1において、プレノプティックカメラの原理を用いて、取得した画像データを再構成してリフォーカシングされた画像データを生成する、ライトフィールドカメラが提案されている。   Non-Patent Document 1 proposes a light field camera that reconstructs acquired image data and generates refocused image data using the principle of a plenoptic camera.

図1は、非特許文献1で用いられている従来のプレノプティックカメラ100の光学系の構成を示した図である。図1を参照して、従来のプレノプティックカメラ100は、撮像レンズ11と、マイクロレンズアレイ12と、撮像素子13とを備える。   FIG. 1 is a diagram showing a configuration of an optical system of a conventional plenoptic camera 100 used in Non-Patent Document 1. Referring to FIG. 1, a conventional plenoptic camera 100 includes an imaging lens 11, a microlens array 12, and an imaging element 13.

撮像レンズ11は、物体からの光(物体光)を集光する。マイクロレンズアレイ12上には、二次元平面上にマイクロメータオーダのピッチでマイクロレンズ12a,12b,12c,・・・が規則的に配置されている。なお、マイクロレンズアレイ12は、撮像レンズ11が物体像を結像する位置の近傍に配置される。撮像素子13は、マイクロレンズアレイ12を通して得られる物体像を取得する。   The imaging lens 11 collects light from the object (object light). On the microlens array 12, microlenses 12a, 12b, 12c,... Are regularly arranged on a two-dimensional plane with a pitch of micrometer order. The microlens array 12 is disposed in the vicinity of the position where the imaging lens 11 forms an object image. The image sensor 13 acquires an object image obtained through the microlens array 12.

次に、プレノプティックカメラ100で得られる画像の特徴を、図1〜4を用いて説明する。   Next, the characteristics of the image obtained by the plenoptic camera 100 will be described with reference to FIGS.

ここでは、物体が図1に示す物体面Ak、Bk、Ckのそれぞれにある場合に得られる画像について説明する。図1において、物体面Akは、マイクロレンズアレイ12上で結像する、すなわち、物体面Akと撮像レンズ11との間の距離と、撮像レンズ11とマイクロレンズアレイ12との間の距離とは、結像関係にあるとする。物体面Bkは、物体面Akの位置よりも撮像レンズ11側に位置している。物体面Ckは、撮像レンズ11から見て物体面Akよりも遠い距離に位置している。   Here, an image obtained when an object is on each of the object planes Ak, Bk, and Ck shown in FIG. 1 will be described. In FIG. 1, the object plane Ak forms an image on the microlens array 12, that is, the distance between the object plane Ak and the imaging lens 11 and the distance between the imaging lens 11 and the microlens array 12 are as follows. Suppose that they are in an imaging relationship. The object plane Bk is located closer to the imaging lens 11 than the position of the object plane Ak. The object plane Ck is located at a distance farther than the object plane Ak when viewed from the imaging lens 11.

図1では、物体面Ak上の点光源から出た光線は、撮像レンズ11を通過後、マイクロレンズアレイ12の1つのマイクロレンズ12aに集光する。マイクロレンズ12aに集光した光は、その後広がって、マイクロレンズアレイ12の直後に配置されている撮像素子13上の一部の領域に広がって検出される。   In FIG. 1, the light beam emitted from the point light source on the object plane Ak passes through the imaging lens 11 and is then collected on one microlens 12 a of the microlens array 12. The light condensed on the microlens 12a then spreads and is detected by spreading over a part of the area on the image sensor 13 arranged immediately after the microlens array 12.

図2は、マイクロレンズアレイ12に集光した光が撮像素子13上の一部の領域に広がって検出される状態を示した図である。図2(a)は、図1において点光源が物体面Ak上に位置する場合を示す。図2(b)は、図1において点光源が物体面Bk上に位置する場合を示す。   FIG. 2 is a diagram illustrating a state in which the light collected on the microlens array 12 is detected by spreading over a part of the area on the image sensor 13. FIG. 2A shows a case where the point light source is located on the object plane Ak in FIG. FIG. 2B shows a case where the point light source is located on the object plane Bk in FIG.

図2(a)に示すように、点光源が物体面Akにある場合、撮像素子13の斜線部の画素13aにおいてマイクロレンズアレイ12からの光が検出される。このように、点光源が物体面Akにある場合、マイクロレンズ12m(m=a,b,c,・・・)に対応する撮像素子13の画素領域は決まっている。   As shown in FIG. 2A, when the point light source is on the object plane Ak, light from the microlens array 12 is detected at the pixel 13a in the shaded area of the image sensor 13. Thus, when the point light source is on the object plane Ak, the pixel area of the image sensor 13 corresponding to the microlens 12m (m = a, b, c,...) Is determined.

一方、物体面Bk上にある点光源から出た光線は、マイクロレンズアレイ12上でスポットの広がった分布となる。図1では、物体面Bk上の点光源から出た光線は、撮像レンズ11を通過後、マイクロレンズアレイ12の複数のマイクロレンズ12a〜12eに入射する。マイクロレンズ12a〜12eに入射した光は、その後個々に収束または発散して、マイクロレンズアレイ12の直後に配置されている撮像素子13上の複数の一部領域において検出される。   On the other hand, a light beam emitted from a point light source on the object plane Bk has a distribution in which spots are spread on the microlens array 12. In FIG. 1, the light beam emitted from the point light source on the object plane Bk passes through the imaging lens 11 and then enters the plurality of microlenses 12 a to 12 e of the microlens array 12. The light incident on the microlenses 12 a to 12 e is then converged or diverged individually and detected in a plurality of partial areas on the image sensor 13 arranged immediately after the microlens array 12.

図2(b)に示すように、点光源が物体面Bkにある場合、撮像素子13の斜線部の複数の画素13b〜13fにおいてマイクロレンズアレイ12からの光が検出される。このように、点光源が物体面Bkにある場合、マイクロレンズ12m(m=a〜e)に対応する撮像素子13の画素全てで光が検出されるわけではなく、対応する画素のうち、一部の画素領域にのみ光は入射する。   As shown in FIG. 2B, when the point light source is on the object plane Bk, light from the microlens array 12 is detected in the plurality of pixels 13 b to 13 f in the shaded portion of the image sensor 13. Thus, when the point light source is on the object plane Bk, light is not detected by all the pixels of the image sensor 13 corresponding to the microlens 12m (m = a to e). Light is incident only on the pixel region of the part.

図3は、撮像レンズ11の光軸近傍に位置するマイクロレンズ12a,12b,12d上を通った光が撮像素子13のどの画素に入射するかを示す図である。図3では、1マイクロレンズあたり、10×10の画素が割り当てられている。図3の(a)〜(c)において、斜線部は、光の入射する部分である。   FIG. 3 is a diagram showing to which pixel of the image sensor 13 light that has passed through the microlenses 12 a, 12 b, and 12 d located in the vicinity of the optical axis of the imaging lens 11 is incident. In FIG. 3, 10 × 10 pixels are assigned to one microlens. In (a) to (c) of FIG. 3, the hatched portion is a portion where light enters.

図3(a)は、撮像レンズ11から見て物体面Akよりも距離の近い物体面Bk上の点光源から出た光線がマイクロレンズ12a,12b,12dを通って撮像素子13に入射する様子を示す。図3(a)に示すように、物体面Bk上の点光源から出た光線は、マイクロレンズ12aに対応する方形領域141の他に、マイクロレンズ12b,12dに対応する領域142,143の中の画素で検出される。   FIG. 3A shows a state in which a light beam emitted from a point light source on the object plane Bk closer to the object plane Ak as viewed from the imaging lens 11 enters the image sensor 13 through the microlenses 12a, 12b, and 12d. Indicates. As shown in FIG. 3A, the light rays emitted from the point light source on the object plane Bk are in the regions 142 and 143 corresponding to the microlenses 12b and 12d in addition to the square region 141 corresponding to the microlens 12a. It is detected by the pixel.

図3(b)は、物体面Ak上の点光源から出た光線がマイクロレンズ12aを通って撮像素子13に入射する様子を示す。図3(b)に示すように、物体面Ak上の点光源から出た光線は、マイクロレンズ12aに対応する円形領域144の中の画素で検出される。   FIG. 3B shows a state in which a light beam emitted from a point light source on the object plane Ak enters the image sensor 13 through the microlens 12a. As shown in FIG. 3B, the light beam emitted from the point light source on the object plane Ak is detected by the pixels in the circular area 144 corresponding to the microlens 12a.

図3(c)は、撮像レンズ11から見て物体面Akよりも距離の遠い物体面Ck上の点光源から出た光線がマイクロレンズ12a,12b,12dを通って撮像素子13に入射する様子を示す。図3(c)に示すように、物体面Ck上の点光源から出た光線は、マイクロレンズ12aに対応する方形領域145の他に、マイクロレンズ12b,12dに対応する領域146,147の中の画素で検出される。   FIG. 3C shows a state in which a light beam emitted from a point light source on the object plane Ck that is farther from the object plane Ak as viewed from the imaging lens 11 enters the imaging element 13 through the microlenses 12a, 12b, and 12d. Indicates. As shown in FIG. 3C, the light beam emitted from the point light source on the object plane Ck is in the regions 146 and 147 corresponding to the microlenses 12b and 12d in addition to the square region 145 corresponding to the microlens 12a. It is detected by the pixel.

図3(a)と図3(c)とを比較すると、物体面Bkでの領域142,143は方形領域141に近い側に分布するのに対し、物体面Ckでの領域146,147は方形領域145から遠い側に分布することが分かる。このように、マイクロレンズアレイ12の共役面である物体面Akから近いか遠いかで、撮像素子13上で検出される光の分布の状態が変化する。   Comparing FIG. 3A and FIG. 3C, the areas 142 and 143 on the object plane Bk are distributed on the side closer to the square area 141, whereas the areas 146 and 147 on the object plane Ck are square. It can be seen that it is distributed on the side far from the region 145. In this way, the state of the distribution of light detected on the image sensor 13 changes depending on whether it is near or far from the object plane Ak that is a conjugate plane of the microlens array 12.

図3で説明した光の分布特性により、プレノプティックカメラ方式による撮像装置では、撮像素子13の各画素は、光線の輝度値だけではなく、光線の方向の情報をも表わす。このことを図4を参照して、説明しておく。図4は、マイクロレンズアレイ12に垂直方向および斜め方向から光線が入射した場合の撮像素子13上の画素の状態を示した図である。   With the light distribution characteristics described with reference to FIG. 3, in the imaging device using the plenoptic camera system, each pixel of the imaging element 13 represents not only the luminance value of the light beam but also the information on the direction of the light beam. This will be described with reference to FIG. FIG. 4 is a diagram illustrating the state of the pixels on the image sensor 13 when light rays are incident on the microlens array 12 from the vertical direction and the oblique direction.

たとえば、図4の画素130a,130bは、それぞれ、実線の光線Laおよび破線の光線Lbの方向からマイクロレンズ12aに入射する光線の輝度値を記録していると考えることができる。それぞれの画素によって検出される光は、撮像素子13上の点と、マイクロレンズアレイ12上の点とを結ぶ直線(ベクトル)として記述される。   For example, it can be considered that the pixels 130a and 130b in FIG. 4 record the luminance values of the light rays incident on the microlens 12a from the directions of the solid light ray La and the broken light ray Lb, respectively. The light detected by each pixel is described as a straight line (vector) connecting a point on the image sensor 13 and a point on the microlens array 12.

被写体である物体からの構成が撮像素子13上のどの位置の画素に入射するかは、プレノプティックカメラ100の光学系のパラメータによって決定される。したがって、当該光学系のパラメータ情報が既知であれば、各画素で検出される光の方向を決めることができる。これにより、プレノプティックカメラ100のマイクロレンズアレイ12の位置以外の焦点面(仮想焦点面)での画像を、画素配列の再構成によって一意的に取得することが可能となる。
レン・Ng(Ren Ng) 外5名、「携帯型プレノプティックカメラを備えた光電界写真技術(Light Field Photography with a Hand-held Plenoptic Camera)」、スタンフォード・テクニカルレポート(Stanford Tech Report)、CTSR2005−02
The position of the pixel on the image sensor 13 on which the configuration from the object that is the subject is incident is determined by the parameters of the optical system of the plenoptic camera 100. Therefore, if the parameter information of the optical system is known, the direction of light detected at each pixel can be determined. Accordingly, an image on a focal plane (virtual focal plane) other than the position of the microlens array 12 of the plenoptic camera 100 can be uniquely acquired by reconfiguring the pixel array.
Ren Ng and five others, “Light Field Photography with a Hand-held Plenoptic Camera”, Stanford Tech Report, CTSR2005-02

従来のプレノプティックカメラ100では、図3に示すように、各マイクロレンズには、矩形形状の画素群が割り当てられる。しかし、実際に撮像される光スポット形状は、図3に示すように円形である。このため、光が入射しない画素が生じ、撮像素子の画素を有効に活用できていない。   In the conventional plenoptic camera 100, as shown in FIG. 3, a rectangular pixel group is assigned to each microlens. However, the light spot shape that is actually imaged is circular as shown in FIG. For this reason, the pixel which light does not enter arises and the pixel of an image sensor cannot be utilized effectively.

それゆえに、この発明の目的は、撮像素子の画素を有効に活用することのできるプレノプティックカメラ方式の撮像装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a plenoptic camera type imaging apparatus capable of effectively utilizing pixels of an imaging element.

1つの局面に係る本願発明は、物体の複数の焦点面画像を画像処理により生成可能な画像を撮影するための撮像装置であって、物体からの物体光を集光する光学系と、それぞれが光学系により集光された物体光を受ける複数のマイクロレンズが形成されたマイクロレンズアレイと、マイクロレンズアレイの焦点距離の位置に配置された撮像素子とを備え、撮像素子は、それぞれが互いに異なるマイクロレンズを透過する物体光を受ける複数の画素群に分割された複数の画素を含み、光学系は、光学系の射出瞳形状を画素群の形状と相似にするための整形手段を含む。   The present invention according to one aspect is an imaging device for capturing an image that can generate a plurality of focal plane images of an object by image processing, and an optical system that collects object light from the object, A microlens array in which a plurality of microlenses receiving object light collected by an optical system is formed, and an image pickup device disposed at a focal length of the microlens array, and the image pickup devices are different from each other. The optical system includes a plurality of pixels divided into a plurality of pixel groups that receive object light transmitted through the microlens, and the optical system includes shaping means for making the exit pupil shape of the optical system similar to the shape of the pixel groups.

好ましくは、光学系のFナンバーと、各マイクロレンズのFナンバーとが等しい。
好ましくは、各画素群に含まれる画素の数がn×n個であり、光学系の主平面とマイクロレンズアレイとの間隔Gと、各マイクロレンズの焦点距離fと、マイクロレンズアレイのレンズピッチpと、撮像素子の素子ピッチgが、 g/p = (1+f/G)/n の関係を満たす。
Preferably, the F number of the optical system is equal to the F number of each microlens.
Preferably, the number of pixels included in each pixel group is n × n, the distance G between the main plane of the optical system and the microlens array, the focal length f of each microlens, and the lens pitch of the microlens array p and the element pitch g of the image sensor satisfy the relationship of g / p = (1 + f / G) / n.

好ましくは、整形手段は、画素群の形状と相似の開口形状をもつ絞りである。
好ましくは、光学系は、複数のレンズを含み、整形手段は、それぞれの開口形状が、光学系の射出瞳形状が画素群の形状と相似となるように設計されている、複数の絞りである。
Preferably, the shaping means is a stop having an opening shape similar to the shape of the pixel group.
Preferably, the optical system includes a plurality of lenses, and the shaping unit is a plurality of apertures each having an aperture shape designed so that the exit pupil shape of the optical system is similar to the shape of the pixel group. .

好ましくは、絞りは、絞りの中心位置をシフトする機構を含む。
好ましくは、絞りは、開口形状が可変な可変絞りである。
Preferably, the stop includes a mechanism for shifting the center position of the stop.
Preferably, the diaphragm is a variable diaphragm whose opening shape is variable.

本発明によれば、プレノプティックカメラ方式の撮像装置において、撮像素子上の画素を有効に活用することができる。   According to the present invention, in the plenoptic camera type imaging apparatus, the pixels on the imaging element can be effectively used.

以下、この発明の実施の形態について図面を参照して詳しく説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.

図5は、この発明の実施の形態に係る撮像装置10の光学系の概略的な構成を示した図である。図5を参照して、撮像装置10は、撮像レンズ1と、マイクロレンズアレイ2と、撮像素子3と、絞り4とを備える。   FIG. 5 is a diagram showing a schematic configuration of the optical system of the imaging apparatus 10 according to the embodiment of the present invention. With reference to FIG. 5, the imaging apparatus 10 includes an imaging lens 1, a microlens array 2, an imaging element 3, and a diaphragm 4.

撮像レンズ1は、物体光を集光する。図5に示すように、撮像レンズ1の径をHと表わすことにする。   The imaging lens 1 collects object light. As shown in FIG. 5, the diameter of the imaging lens 1 is represented as H.

マイクロレンズアレイ2には、2次元平面上にマイクロメータオーダのピッチでマイクロレンズ2m(m=a,b,c,・・・)が規則的に配置されている。本実施の形態においては、碁盤目状に配置されているものとする。すなわち、マイクロレンズアレイ2上でのマイクロレンズ2mの中心は、各軸がxおよびy方向に平行な格子の交点に形成されてものとする。したがって、各マイクロレンズの占める領域は矩形形状になる。特に、各マイクロレンズの占める領域が正方形で、画素のxおよびy方向のピッチが同じ場合には、撮像素子3上の画素群は、n×n個の画素から構成される正方形となる。ただし、マイクロレンズの配置は、これに限られるものではない。例えば、ハニカム状にマイクロレンズが配置されていてもよい。   In the microlens array 2, microlenses 2m (m = a, b, c,...) Are regularly arranged on a two-dimensional plane with a pitch of micrometer order. In the present embodiment, it is assumed that they are arranged in a grid pattern. That is, the center of the microlens 2m on the microlens array 2 is assumed to be formed at the intersection of the lattices whose axes are parallel to the x and y directions. Therefore, the area occupied by each microlens is rectangular. In particular, when the area occupied by each microlens is a square and the pitches of the pixels in the x and y directions are the same, the pixel group on the image sensor 3 is a square composed of n × n pixels. However, the arrangement of the microlens is not limited to this. For example, microlenses may be arranged in a honeycomb shape.

物体面Akとマイクロレンズアレイ2との位置は共役関係にあり、物体像はマイクロレンズアレイ2上で結像する。図5において、物体面Akと撮像レンズ1との間隔をD、撮像レンズ1とマイクロレンズアレイ2との間隔をG、撮像レンズ1の焦点距離をfとすると、結像関係の式から、次の式(1)の関係が成り立つ。   The position of the object plane Ak and the microlens array 2 is conjugate, and the object image is formed on the microlens array 2. In FIG. 5, when the distance between the object plane Ak and the imaging lens 1 is D, the distance between the imaging lens 1 and the microlens array 2 is G, and the focal length of the imaging lens 1 is f, The relationship of the formula (1) is established.

1/D + 1/G = 1/f (1)
撮像装置10は、撮像レンズ1およびマイクロレンズアレイ2を通した像を撮像素子3によって取得する。撮像素子3は、マイクロレンズアレイ2においてレンズ形状が形成されている面から、マイクロレンズ2mの焦点距離だけ離れた位置に配置される。撮像素子3は複数の画素を含む。そして、複数の画素は、各々が各マイクロレンズに対応する複数の画素群に分割される。
1 / D + 1 / G = 1 / f (1)
The imaging device 10 acquires an image that has passed through the imaging lens 1 and the microlens array 2 by the imaging device 3. The imaging device 3 is disposed at a position away from the surface of the microlens array 2 where the lens shape is formed by the focal length of the microlens 2m. The image sensor 3 includes a plurality of pixels. The plurality of pixels are divided into a plurality of pixel groups each corresponding to each microlens.

絞り4は、物体光を整形する。本実施の形態に係る絞り4の開口形状は図6に示すように、通常用いられる丸型とは異なり、矩形であるとする。また、開口の横および縦の一辺の方向はそれぞれx、y方向に沿うように配置する。この絞り4の開口部の対角方向の長さは、撮像レンズ1の径より小さく、撮像レンズ1を通過する光束の開口絞りとして作用する。   The diaphragm 4 shapes the object light. As shown in FIG. 6, the aperture shape of the diaphragm 4 according to the present embodiment is assumed to be rectangular, unlike a normally used round shape. Further, the horizontal and vertical sides of the opening are arranged along the x and y directions, respectively. The diagonal length of the opening of the diaphragm 4 is smaller than the diameter of the imaging lens 1 and acts as an aperture diaphragm for the light beam passing through the imaging lens 1.

絞り4の開口部が上述のような形状であることにより、撮像素子3の画素を有効に利用することができる。このことを図7を参照して説明する。図7は、絞り4がある場合とない場合のそれぞれにおける、撮像素子3への光の入射の様子を示す図である。   Since the opening of the diaphragm 4 has the shape as described above, the pixels of the image sensor 3 can be used effectively. This will be described with reference to FIG. FIG. 7 is a diagram illustrating the state of light incident on the image sensor 3 with and without the diaphragm 4.

図7(a)は、絞り4がない場合の、撮像素子3への光の入射の様子を示す図である。撮像レンズ1を通過した光72は、マイクロレンズ2mを通って、撮像素子3に入射する。したがって、撮像素子3上の光74は、撮像レンズ1を通過した光72と相似形状、すなわち円形となる。   FIG. 7A is a diagram illustrating a state of incidence of light on the image sensor 3 when the diaphragm 4 is not provided. The light 72 that has passed through the imaging lens 1 enters the imaging device 3 through the microlens 2m. Therefore, the light 74 on the image sensor 3 has a similar shape to the light 72 that has passed through the imaging lens 1, that is, a circular shape.

一方、図7(b)は、絞り4がある場合の、撮像素子3への光の入射の様子を示す図である。撮像レンズ1および絞り4を通過した光76は、マイクロレンズ2mを通って、撮像素子3に入射する。したがって、撮像素子3上の光78は、撮像レンズ1および絞り4を通過した光76と相似形状、すなわち矩形状となる。よって、画素を有効に利用することができる。   On the other hand, FIG. 7B is a diagram illustrating a state of incidence of light on the image sensor 3 when the diaphragm 4 is provided. The light 76 that has passed through the imaging lens 1 and the diaphragm 4 passes through the microlens 2 m and enters the imaging device 3. Therefore, the light 78 on the image sensor 3 has a similar shape to the light 76 that has passed through the imaging lens 1 and the diaphragm 4, that is, a rectangular shape. Therefore, the pixels can be used effectively.

なお、絞り4の開口形状は正方形に限るものではない。例えば、この形はマイクロレンズの配置がハニカム状に形成されている場合には、1マイクロレンズに対応する画素群の領域は六角形となる。この場合、絞り4の開口形状もこれにあわせて六角形とする。また、画素群領域が他の形状であってもそれに合わせて開口の形状を設定する。   The aperture shape of the diaphragm 4 is not limited to a square. For example, in the case where the arrangement of microlenses is formed in a honeycomb shape, the pixel group region corresponding to one microlens is a hexagon. In this case, the aperture shape of the diaphragm 4 is also a hexagon according to this. Further, even if the pixel group region has another shape, the shape of the opening is set in accordance with the shape.

このように、マイクロレンズアレイ2に形成された1つのマイクロレンズ2mに対応する撮像素子上の画素群の占める領域と相似な形状の開口部をもつ絞り4を用いることにより、画素の有効利用を実現できる。   In this way, effective use of pixels can be achieved by using the diaphragm 4 having an opening similar to the area occupied by the pixel group on the image sensor corresponding to one microlens 2 m formed in the microlens array 2. realizable.

また、撮像素子の画素を有効に活用することができるため、取得した画像のコントラストが明確になる。よって、再構成した画像を複数生成した場合、合焦、非合焦の識別精度が向上する。   In addition, since the pixels of the image sensor can be used effectively, the contrast of the acquired image becomes clear. Therefore, when a plurality of reconstructed images are generated, in-focus and out-of-focus identification accuracy is improved.

さらに、撮像レンズ1と絞り4によって構成される光学系(撮像レンズ光学系とよぶ)の実効的なFナンバーを、マイクロレンズ2mのFナンバーに一致させることによって、1つのマイクロレンズ2mに対応する画素群をより有効に活用することができる。   Furthermore, by matching the effective F number of an optical system (referred to as an imaging lens optical system) constituted by the imaging lens 1 and the diaphragm 4 with the F number of the micro lens 2m, it corresponds to one micro lens 2m. Pixel groups can be used more effectively.

図8は、マイクロレンズ2mのFナンバーFNmと撮像レンズ光学系のFナンバーFNとの大小関係による撮像素子3への光の入射状態の違いを説明するための図である。   FIG. 8 is a diagram for explaining the difference in the incident state of light on the image sensor 3 due to the magnitude relationship between the F number FNm of the micro lens 2m and the F number FN of the imaging lens optical system.

図8(a)は、マイクロレンズ2mのFナンバーFNmが撮像レンズ光学系のFナンバーFNよりも小さい(FNm<FN)場合を示した図である。この場合、図8(a)に示すように、撮像素子3上の一部の画素において、隣り合うマイクロレンズを通過してきた光が重なり合ってしまう。具体的には、図8(a)の撮像素子3は、斜線部31,32の画素において、異なるマイクロレンズ2mからの光が重なって検出される。   FIG. 8A is a diagram showing a case where the F number FNm of the microlens 2m is smaller than the F number FN of the imaging lens optical system (FNm <FN). In this case, as shown in FIG. 8A, in some pixels on the image sensor 3, the light that has passed through the adjacent microlenses overlaps. Specifically, the image pickup device 3 in FIG. 8A is detected by overlapping light from different microlenses 2 m in the pixels of the shaded portions 31 and 32.

前述したように、撮像素子3のそれぞれの画素は、特定方向の光を検出する役割を果たす。しかしながら、上記のように光が重なって検出される場合、異なる2つの方向から入射する光線を同時に検出することになり、光線の情報を特定することができなくなる。よって、このようにマイクロレンズ2mおよび撮像レンズ光学系のFナンバーを定めると、画像の再構成に不具合が生じる。   As described above, each pixel of the image sensor 3 plays a role of detecting light in a specific direction. However, when light is detected as overlapped as described above, light rays incident from two different directions are detected at the same time, and information on the light rays cannot be specified. Therefore, when the F number of the microlens 2m and the imaging lens optical system is determined in this way, a problem occurs in image reconstruction.

図8(c)は、マイクロレンズ2mのFナンバーFNmが撮像レンズ1のFナンバーFNよりも大きい(FNm>FN)場合を示した図である。この場合、図8(a)のように光が重なって検出されるのは避けることができる。しかしながら、図8(c)の場合、撮像素子3上の一部の画素に光が入射しなくなる。具体的には、図8(c)の撮像素子3は、斜線部41,42の画素において、マイクロレンズ2mからの光が入射しない。すなわち、この場合、撮像素子3の画素を有効に利用できていないことになる。   FIG. 8C is a diagram showing a case where the F number FNm of the microlens 2m is larger than the F number FN of the imaging lens 1 (FNm> FN). In this case, it is possible to avoid detection of overlapping light as shown in FIG. However, in the case of FIG. 8C, light is not incident on some pixels on the image sensor 3. Specifically, in the imaging device 3 in FIG. 8C, light from the microlens 2m does not enter the pixels of the shaded portions 41 and 42. That is, in this case, the pixels of the image sensor 3 cannot be used effectively.

図8(b)は、被写体の物体が有限の距離にある場合において、マイクロレンズ2mのFナンバーFNmが撮像レンズ1の像側FナンバーFNと等しい(FNm=FN)場合を示した図である。この場合、図8(b)に示すように、撮像素子3上の一部の画素において光が重なったり入射しなかったりすることがない。このとき、撮像素子3の画素を最も有効に使うことができる。   FIG. 8B shows a case where the F number FNm of the microlens 2m is equal to the image side F number FN of the imaging lens 1 (FNm = FN) when the object of the subject is at a finite distance. . In this case, as shown in FIG. 8B, the light does not overlap or do not enter in some pixels on the image sensor 3. At this time, the pixels of the image sensor 3 can be used most effectively.

ところで、各マイクロレンズ2mのレンズ径をHmとし、各マイクロレンズ2mのFナンバーをFNmとすると、各マイクロレンズ2mの焦点距離fmは、次の式(2)で表わされる。   By the way, if the lens diameter of each microlens 2m is Hm and the F number of each microlens 2m is FNm, the focal length fm of each microlens 2m is expressed by the following equation (2).

fm = Hm・FNm (2)
一方、再び図5を参照して、撮像レンズ1の倍率βは、β=G/Dと表わされる。さらに、撮像レンズ1の主点と瞳面との位置差が物体までの距離に比べて無視できるという条件下では、撮像レンズ光学系の実効的なFナンバーは、FN(1+β)と表わされる。
fm = Hm · FNm (2)
On the other hand, referring to FIG. 5 again, the magnification β of the imaging lens 1 is expressed as β = G / D. Furthermore, under the condition that the positional difference between the principal point of the imaging lens 1 and the pupil plane is negligible compared to the distance to the object, the effective F number of the imaging lens optical system is expressed as FN (1 + β).

よって、撮像レンズ光学系の実効的なFナンバーFN(1+β)とマイクロレンズ2mのFナンバーFNmとが一致している場合、
fm = Hm・FNm
= Hm・FN(1+β) (3)
を満たす。逆に、式(3)を満たすように、マイクロレンズ2mの焦点距離fmを設定し、撮像素子3をマイクロレンズアレイ2から当該焦点距離fmだけ離して配置すれば、画素を有効に利用できる。
Therefore, when the effective F number FN (1 + β) of the imaging lens optical system and the F number FNm of the microlens 2m match,
fm = Hm · FNm
= Hm · FN (1 + β) (3)
Meet. Conversely, if the focal length fm of the microlens 2m is set so as to satisfy the expression (3), and the imaging device 3 is arranged away from the microlens array 2 by the focal length fm, the pixels can be used effectively.

特に、レンズ径Hmとレンズピッチpとが等しいマイクロレンズアレイ2を用いる場合は、次の式(4)を満たすようにマイクロレンズ2mの焦点距離fmを設定し、撮像素子3をマイクロレンズアレイ2から当該焦点距離fmだけ離して配置すればよい。   In particular, when the microlens array 2 having the same lens diameter Hm and the lens pitch p is used, the focal length fm of the microlens 2m is set so as to satisfy the following formula (4), and the imaging element 3 is connected to the microlens array 2: It is only necessary that the focal distance fm be spaced from the lens.

fm = Hm・FNm
= p・FN(1+β) (4)
このようなマイクロレンズアレイ2を用いることは、物体光を有効に用いるために好ましい。
fm = Hm · FNm
= P · FN (1 + β) (4)
Use of such a microlens array 2 is preferable in order to effectively use object light.

なお、撮像レンズ1と絞り4を一つの撮像レンズ光学系として考えたとき、撮像レンズ光学系の径は絞り4の開口が矩形のため方向により異なり(例えば、x(y)方向と対角方向で異なり)、撮像レンズ光学系のFナンバーの値も方向により異なる。しかし、マイクロレンズの形状も矩形であり、マイクロレンズのFナンバーの値も、撮像レンズ光学系のFナンバーの値と同様に方向により異なる。したがって、方向によらず、式(3)が画素を有効利用するための条件式となる。   When the imaging lens 1 and the diaphragm 4 are considered as one imaging lens optical system, the diameter of the imaging lens optical system varies depending on the direction because the aperture of the diaphragm 4 is rectangular (for example, the x (y) direction and the diagonal direction). The F-number value of the imaging lens optical system also varies depending on the direction. However, the shape of the microlens is also rectangular, and the F-number value of the microlens is different depending on the direction, like the F-number value of the imaging lens optical system. Therefore, regardless of the direction, Expression (3) is a conditional expression for effectively using the pixels.

さらに、マイクロレンズアレイ2の所定の方向(格子状にマイクロレンズが配置されている場合、x方向またはy方向)のレンズピッチpと、対応する撮像素子の所定の方向の画素ピッチgとは、各マイクロレンズ2mに割り当てられた画素群の所定の方向の画素数をnとして、次の式(5)を満たすことが望ましい。   Furthermore, a lens pitch p in a predetermined direction of the microlens array 2 (in the case where microlenses are arranged in a lattice shape, an x direction or a y direction) and a pixel pitch g in a predetermined direction of the corresponding imaging element are: It is desirable to satisfy the following formula (5), where n is the number of pixels in a predetermined direction of the pixel group assigned to each microlens 2m.

g/p = (1+f/G)/n (5)
以下、この理由について説明する。本撮像装置10では、撮像レンズ1を通過した対象物体からの光は、マイクロレンズアレイ2上の各マイクロレンズを介して撮像素子3に入射する。ところで、周辺部にある各マイクロレンズの光軸は、撮像レンズの光軸と一致しない。したがって、周辺部のマイクロレンズを通して撮像される画像の中心は、マイクロレンズの光軸からずれる。このずれは、マイクロレンズアレイ2の周辺部により近い(つまり、撮像レンズ1の光軸から、より離れた位置にある)マイクロレンズほど大きくなる。よって、各マイクロレンズの真後ろに位置し、マイクロレンズと同面積の領域の画素を、各マイクロレンズに割り当てると、各マイクロレンズに割り当てられた画素に、各マイクロレンズを透過した光が入射しないこととなり、正確な再構成画像が得られないという問題が生じる。
g / p = (1 + f / G) / n (5)
Hereinafter, this reason will be described. In the imaging apparatus 10, the light from the target object that has passed through the imaging lens 1 enters the imaging element 3 via each microlens on the microlens array 2. By the way, the optical axis of each microlens in the periphery does not coincide with the optical axis of the imaging lens. Therefore, the center of the image taken through the peripheral microlens is deviated from the optical axis of the microlens. This deviation becomes larger as the microlens is closer to the periphery of the microlens array 2 (that is, at a position farther from the optical axis of the imaging lens 1). Therefore, if a pixel located in the back of each microlens and having the same area as the microlens is assigned to each microlens, the light transmitted through each microlens does not enter the pixels assigned to each microlens. Thus, there arises a problem that an accurate reconstructed image cannot be obtained.

図9を参照しつつ、このことについて詳しく説明する。図9(a)は、撮像レンズ1の光軸上にあるマイクロレンズを通過する光の光路と、撮像レンズ1の光軸から離れた位置にあるマイクロレンズを通過する光の光路とを示した図である。撮像レンズ1の光軸上にあるマイクロレンズを通過する光は、撮像素子3の領域1000に入射する。撮像レンズ1の光軸から離れた位置にあるマイクロレンズを通過する光は、撮像素子3の領域1010に入射する。   This will be described in detail with reference to FIG. FIG. 9A shows an optical path of light that passes through the microlens on the optical axis of the imaging lens 1 and an optical path of light that passes through the microlens located away from the optical axis of the imaging lens 1. FIG. The light passing through the microlenses on the optical axis of the imaging lens 1 enters the region 1000 of the imaging element 3. The light passing through the microlens located at a position away from the optical axis of the imaging lens 1 is incident on the area 1010 of the imaging element 3.

図9(b)は、撮像レンズ1の光軸上にあるマイクロレンズを通過する光の光路の拡大図である。この光は、図9(b)に示されるようにマイクロレンズの真後ろの領域に入射する。   FIG. 9B is an enlarged view of an optical path of light passing through a microlens on the optical axis of the imaging lens 1. This light is incident on a region directly behind the microlens as shown in FIG.

一方、図9(c)は、撮像レンズ1の光軸から離れた位置にあるマイクロレンズを透過する光の光路の拡大図である。この光は、図9(c)に示すように、マイクロレンズの真後ろの領域には入射しない。よって、マイクロレンズの真後ろの領域に含まれる画素を、マイクロレンズに対応する画素とすることは、不適切である。   On the other hand, FIG. 9C is an enlarged view of an optical path of light that passes through the microlens located at a position away from the optical axis of the imaging lens 1. As shown in FIG. 9C, this light does not enter the region immediately behind the microlens. Therefore, it is inappropriate to make the pixel included in the region immediately behind the microlens a pixel corresponding to the microlens.

この影響を低減するためには、画素群に入射する光の軸の傾きを考慮して、各マイクロレンズに対応する画素群の大きさを定めればよい。上の式(5)にしたがえば、例えば、図9(d)に示すように、適切な画素群を設定できる。このようにすることで、各マイクロレンズに対応する画素が明確になり、良好な再構成画像を得ることができる。   In order to reduce this influence, the size of the pixel group corresponding to each microlens may be determined in consideration of the inclination of the axis of light incident on the pixel group. According to the above equation (5), for example, an appropriate pixel group can be set as shown in FIG. By doing in this way, the pixel corresponding to each microlens becomes clear, and a favorable reconstructed image can be obtained.

ところで、式(3)(4)から分かるように、撮像レンズ光学系のFナンバーの適切な値は、撮像レンズ1とマイクロレンズアレイ2との位置関係などの光学系パラメータの変更によって変化する。このような変化に対応できるように、絞り4は、開口の大きさを調節することができる機構を備える可変絞りであるとする。図6に示すように、絞り4は、可動の羽根4aおよび羽根4bとを備える。羽根4aおよび羽根4bを対角方向に移動させることで、開口の大きさを変更できる。ただし、開口形状を変化させることができれば、この可変方式にかぎるものではない。   By the way, as can be seen from the equations (3) and (4), the appropriate value of the F number of the imaging lens optical system is changed by changing the optical system parameters such as the positional relationship between the imaging lens 1 and the microlens array 2. It is assumed that the diaphragm 4 is a variable diaphragm provided with a mechanism capable of adjusting the size of the opening so as to cope with such a change. As shown in FIG. 6, the diaphragm 4 includes movable blades 4a and blades 4b. The size of the opening can be changed by moving the blade 4a and the blade 4b diagonally. However, if the opening shape can be changed, it is not limited to this variable method.

また、絞りの位置をシフトさせることによって、撮像装置の組立て時などに起因する画素ずれによる画素使用効率の低減を抑えることができる。これについて説明する。   In addition, by shifting the position of the diaphragm, it is possible to suppress reduction in pixel use efficiency due to pixel shift caused by assembling the imaging device. This will be described.

本方式のカメラは、撮像素子3の画素の再配置によって異なる焦点面の画像を生成する。このとき撮像素子3上の各画素はひとつのマイクロレンズアレイ2を通過する光だけを受光することになる。しかしながら、マイクロレンズアレイ2と撮像素子3の取り付け方によっては、1つのマイクロレンズ2mからの光スポットの領域Kと対応する画素群Lの範囲が図10のようにずれてしまう場合がある。このとき、画素群の領域の最外周の画素に、隣のマイクロレンズからの画素を含むことになるため、正確な再構成像が得られないという問題が生じる。   The camera of this system generates different focal plane images by rearranging the pixels of the image sensor 3. At this time, each pixel on the image sensor 3 receives only light passing through one microlens array 2. However, depending on how the microlens array 2 and the image sensor 3 are attached, the range of the pixel group L corresponding to the light spot region K from one microlens 2m may be shifted as shown in FIG. At this time, since the pixel from the adjacent microlens is included in the outermost peripheral pixel of the pixel group region, there arises a problem that an accurate reconstructed image cannot be obtained.

これを避けるための1つの方法として、マイクロレンズアレイ2の各マイクロレンズに対応する画素群の位置を、1画素の精度で組立て調整することが考えられる。しかし、この方法では、組立て時に大きな負荷がかかる。また、たとえ1画素の精度で組み立てたとしても、撮像レンズ光学系の中心位置とマイクロレンズアレイ2と撮像素子3の中心位置のずれがある場合には、図10に示すような変位がおきる場合がある。この様な場合、最外周画素は計算に用いることができないため、得られる光線の情報が制限され、ひいては再構成できる焦点面画像の数が制限されるなどの影響を受ける。   One method for avoiding this is to assemble and adjust the position of the pixel group corresponding to each microlens of the microlens array 2 with an accuracy of one pixel. However, this method places a heavy load on assembly. Further, even when assembled with an accuracy of one pixel, if there is a shift between the center position of the imaging lens optical system and the center positions of the microlens array 2 and the imaging element 3, a displacement as shown in FIG. 10 occurs. There is. In such a case, since the outermost peripheral pixel cannot be used for calculation, the information on the obtained light rays is limited, and as a result, the number of focal plane images that can be reconstructed is limited.

このような組立て時の課題を避けるために、絞り4は、中心位置を調整できる機構を備えていてもよい。絞り4の中心位置を調整することにより、撮像素子3上に生成される像の位置をシフトさせることができるので、カメラを組立てた後にも撮像素子3の画素群に正確に一つのマイクロレンズからの光を入射させることが可能になり、すべての画素を有効に利用できるようになる。   In order to avoid such problems during assembly, the diaphragm 4 may be provided with a mechanism capable of adjusting the center position. By adjusting the center position of the diaphragm 4, the position of the image generated on the image sensor 3 can be shifted. Therefore, even after the camera is assembled, the pixel group of the image sensor 3 can be accurately moved from one microlens. It becomes possible to make the light incident, and all the pixels can be used effectively.

また、撮像レンズを支持する支持体に、絞り4の機能を持たせてもよい。つまり、支持体により、周囲の不要な光を遮るようにすることもできる。絞りとレンズ支持の機能を一体とすることで、部材の削減や組立て時の工程を減らすことが可能になる。   In addition, the support that supports the imaging lens may have the function of the diaphragm 4. In other words, the surrounding light can be blocked by the support. By integrating the functions of the aperture and the lens support, it is possible to reduce the number of members and the number of assembly processes.

なお、物体光をマイクロレンズに集光するための光学系(撮像光学系とよぶ)は、図5に示すものに限られるわけではない。   Note that the optical system (referred to as an imaging optical system) for condensing the object light on the microlens is not limited to that shown in FIG.

例えば、撮像レンズ1と絞り4の位置関係が逆、すなわち、撮像レンズ1から見て被写体側に絞り4が配置されていてもよい。   For example, the positional relationship between the imaging lens 1 and the diaphragm 4 may be reversed, that is, the diaphragm 4 may be disposed on the subject side when viewed from the imaging lens 1.

あるいは、撮像光学系は、複数のレンズを含むものであってもよい。撮像光学系が複数のレンズを含む場合、絞り4と各レンズとの位置関係は、特に限られるものではない。   Alternatively, the imaging optical system may include a plurality of lenses. When the imaging optical system includes a plurality of lenses, the positional relationship between the diaphragm 4 and each lens is not particularly limited.

さらに、複数のレンズと複数の絞りを含む撮像光学系を用いてもよい。レンズ系が複雑な場合には、1つの絞りの開口だけでは、撮像光学系の最終的な瞳形状(射出瞳)を画素群と相似にできない場合がある。複数の絞りを用いれば、そのような場合にも、所望の開口形状をつくることができる。   Furthermore, an imaging optical system including a plurality of lenses and a plurality of stops may be used. When the lens system is complicated, the final pupil shape (exit pupil) of the imaging optical system may not be similar to the pixel group with only one aperture stop. If a plurality of stops are used, a desired opening shape can be created even in such a case.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and is intended to include meanings equivalent to the scope of claims for patent and all modifications within the scope.

非特許文献1で用いられている従来のプレノプティックカメラ100の光学系の構成を示した図である。It is the figure which showed the structure of the optical system of the conventional plenoptic camera 100 used by the nonpatent literature 1. FIG. マイクロレンズアレイ12に集光した光が撮像素子13上の一部の領域に広がって検出される状態を示した図である。FIG. 4 is a diagram illustrating a state in which light collected on a microlens array 12 is detected by spreading over a partial area on the image sensor 13. マイクロレンズ12a,12b,12d上での集光状態および撮像素子13に光が入射する画素の状態を示した図である。It is the figure which showed the condensing state on micro lens 12a, 12b, 12d, and the state of the pixel in which light injects into the image pick-up element 13. FIG. マイクロレンズアレイ12に垂直方向および斜め方向から光線が入射した場合の撮像素子13上の画素の状態を示した図である。3 is a diagram illustrating a state of pixels on an image sensor 13 when light rays are incident on a microlens array 12 from a vertical direction and an oblique direction. FIG. この発明の実施の形態による撮像装置10の光学系の概略的な構成を示した図である。1 is a diagram illustrating a schematic configuration of an optical system of an imaging apparatus 10 according to an embodiment of the present invention. この発明の実施の形態による絞り4の開口形状を示した図である。It is the figure which showed the opening shape of the aperture_diaphragm | restriction 4 by embodiment of this invention. 絞り4がある場合とない場合のそれぞれにおける、撮像素子3への光の入射の様子を説明するための図である。It is a figure for demonstrating the mode of the incidence | injection of the light to the image pick-up element 3 in each with and without the aperture_diaphragm | restriction 4. FIG. マイクロレンズ2mのFナンバーFNmと撮像レンズ1のFナンバーFNとの大小関係による撮像素子3への光の入射状態の違いを説明するための図である。It is a figure for demonstrating the difference in the incident state of the light to the image pick-up element 3 by the magnitude relationship of F number FNm of the micro lens 2m, and F number FN of the imaging lens 1. FIG. 物体光が入射する画素領域を示す図である。It is a figure which shows the pixel area | region into which object light injects. この発明の実施の形態によるマイクロレンズを通して撮像素子3上に形成されるスポットとマイクロレンズに割り当てられた画素群のずれを示した図である。It is the figure which showed the shift | offset | difference of the pixel group allocated to the spot formed on the image pick-up element 3 through the micro lens by embodiment of this invention, and a micro lens.

符号の説明Explanation of symbols

1,11 撮像レンズ、2,12 マイクロレンズアレイ、2m,12a〜12e,12m マイクロレンズ、3,13 撮像素子、10 撮像装置、100 プレノプティックカメラ。   DESCRIPTION OF SYMBOLS 1,11 Imaging lens, 2,12 Micro lens array, 2m, 12a-12e, 12m Micro lens, 3, 13 Image sensor, 10 Imaging device, 100 Plenoptic camera.

Claims (7)

物体の複数の焦点面画像を画像処理により生成可能な画像を撮影するための撮像装置であって、
前記物体からの物体光を集光する光学系と、
それぞれが前記光学系により集光された前記物体光を受ける複数のマイクロレンズが形成されたマイクロレンズアレイと、
前記マイクロレンズアレイの焦点距離の位置に配置された撮像素子とを備え、
前記撮像素子は、それぞれが互いに異なる前記マイクロレンズを透過する前記物体光を受ける複数の画素群に分割された複数の画素を含み、
前記光学系は、前記光学系の射出瞳形状を前記画素群の形状と相似にするための整形手段を含む、撮像装置。
An imaging apparatus for capturing an image capable of generating a plurality of focal plane images of an object by image processing,
An optical system for collecting object light from the object;
A microlens array formed with a plurality of microlenses each receiving the object light collected by the optical system;
An image sensor disposed at a focal length of the microlens array;
The imaging device includes a plurality of pixels divided into a plurality of pixel groups that receive the object light that passes through the different microlenses, respectively.
The image pickup apparatus, wherein the optical system includes shaping means for making the exit pupil shape of the optical system similar to the shape of the pixel group.
前記光学系のFナンバーと、各前記マイクロレンズのFナンバーとが等しい、請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein an F number of the optical system is equal to an F number of each of the micro lenses. 各前記画素群に含まれる前記画素の数がn×n個であり、
前記光学系の主平面と前記マイクロレンズアレイとの間隔Gと、各前記マイクロレンズの焦点距離fと、前記マイクロレンズアレイのレンズピッチpと、前記撮像素子の素子ピッチgが、
g/p = (1+f/G)/n
の関係を満たす、請求項1または2に記載の撮像装置。
The number of the pixels included in each of the pixel groups is n × n,
An interval G between the main plane of the optical system and the microlens array, a focal length f of each microlens, a lens pitch p of the microlens array, and an element pitch g of the image sensor
g / p = (1 + f / G) / n
The imaging device according to claim 1 or 2, satisfying the relationship:
前記整形手段は、前記画素群の形状と相似の開口形状をもつ絞りである、請求項1から3のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the shaping unit is a stop having an opening shape similar to the shape of the pixel group. 前記光学系は、複数のレンズを含み、
前記整形手段は、それぞれの開口形状が、前記光学系の射出瞳形状が前記画素群の形状と相似となるように設計されている、複数の絞りである、請求項1から3のいずれか1項に記載の撮像装置。
The optical system includes a plurality of lenses,
4. The shaping device according to claim 1, wherein each of the shaping means is a plurality of apertures each having an aperture shape designed so that an exit pupil shape of the optical system is similar to the shape of the pixel group. The imaging device according to item.
前記絞りは、前記絞りの中心位置をシフトする機構を含む、請求項4または5に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the diaphragm includes a mechanism that shifts a center position of the diaphragm. 前記絞りは、前記開口形状が可変な可変絞りである、請求項4または5に記載の撮像装置。   The imaging device according to claim 4, wherein the diaphragm is a variable diaphragm whose opening shape is variable.
JP2008092141A 2008-03-31 2008-03-31 Imaging apparatus Withdrawn JP2009244662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008092141A JP2009244662A (en) 2008-03-31 2008-03-31 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008092141A JP2009244662A (en) 2008-03-31 2008-03-31 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009244662A true JP2009244662A (en) 2009-10-22

Family

ID=41306603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008092141A Withdrawn JP2009244662A (en) 2008-03-31 2008-03-31 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009244662A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058379A (en) * 2010-09-07 2012-03-22 Toshiba Corp Solid-state image pickup device
JP2012191376A (en) * 2011-03-10 2012-10-04 Canon Inc Image pickup apparatus and image pickup optical system
JP2012205111A (en) * 2011-03-25 2012-10-22 Casio Comput Co Ltd Imaging apparatus
JP2014059509A (en) * 2012-09-19 2014-04-03 Nippon Hoso Kyokai <Nhk> Apparatus and method for photographing stereo image
JP2014126694A (en) * 2012-12-26 2014-07-07 Nippon Hoso Kyokai <Nhk> Apparatus and method for obtaining stereoscopic image
JP2016042191A (en) * 2015-11-02 2016-03-31 オリンパス株式会社 Imaging device
EP3157244A1 (en) * 2015-10-16 2017-04-19 Thomson Licensing Plenoptic camera and method of controlling the opening of the diaphragm
WO2021184324A1 (en) * 2020-03-19 2021-09-23 京东方科技集团股份有限公司 Display device and display method therefor

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058379A (en) * 2010-09-07 2012-03-22 Toshiba Corp Solid-state image pickup device
US9094594B2 (en) 2010-09-07 2015-07-28 Kabushiki Kaisha Toshiba Solid-state imaging device
JP2012191376A (en) * 2011-03-10 2012-10-04 Canon Inc Image pickup apparatus and image pickup optical system
JP2012205111A (en) * 2011-03-25 2012-10-22 Casio Comput Co Ltd Imaging apparatus
JP2014059509A (en) * 2012-09-19 2014-04-03 Nippon Hoso Kyokai <Nhk> Apparatus and method for photographing stereo image
JP2014126694A (en) * 2012-12-26 2014-07-07 Nippon Hoso Kyokai <Nhk> Apparatus and method for obtaining stereoscopic image
EP3157244A1 (en) * 2015-10-16 2017-04-19 Thomson Licensing Plenoptic camera and method of controlling the opening of the diaphragm
JP2016042191A (en) * 2015-11-02 2016-03-31 オリンパス株式会社 Imaging device
WO2021184324A1 (en) * 2020-03-19 2021-09-23 京东方科技集团股份有限公司 Display device and display method therefor
CN113692547A (en) * 2020-03-19 2021-11-23 京东方科技集团股份有限公司 Display device and display method thereof
CN113692547B (en) * 2020-03-19 2022-12-02 京东方科技集团股份有限公司 Display device and display method thereof
US11980055B2 (en) 2020-03-19 2024-05-07 Boe Technology Group Co., Ltd. Display device and display method thereof

Similar Documents

Publication Publication Date Title
JP5375010B2 (en) Imaging device
JP2009244662A (en) Imaging apparatus
WO2011152531A1 (en) Image capture device
JP6220125B2 (en) Imaging apparatus and control method thereof
JP5448731B2 (en) Focus detection device
JP5406383B2 (en) Imaging device
US10321044B2 (en) Image pickup apparatus and image pickup system with point image intensity distribution calculation
JP5459337B2 (en) Imaging apparatus, image processing method, and program
JP2009105717A (en) Imaging device
JP4981359B2 (en) Element image group imaging device and stereoscopic image display device
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP6516045B2 (en) Image processing device
US7847226B2 (en) Focus detection device and method with honeycomb lens array and imaging device
JP2007139935A (en) Focus detecting device and imaging device having the focus detecting device
JPH0338570B2 (en)
JP6376206B2 (en) Image processing apparatus and imaging apparatus
JP6036799B2 (en) Image processing device
US9794468B2 (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus using pupil division in different directions
JP5220375B2 (en) Imaging apparatus and imaging apparatus having the same
JP2008145121A (en) Three-dimensional shape measuring apparatus
JP2009250685A (en) Distance measuring device and distance measuring method
JP5427904B2 (en) Element image group imaging device
JP2010109921A (en) Image synthesizing apparatus
JP6344996B2 (en) Imaging device
JP5527491B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101013

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110509