JP2013106265A - Image processor, imaging apparatus, image processing program and control program of imaging apparatus - Google Patents

Image processor, imaging apparatus, image processing program and control program of imaging apparatus Download PDF

Info

Publication number
JP2013106265A
JP2013106265A JP2011249927A JP2011249927A JP2013106265A JP 2013106265 A JP2013106265 A JP 2013106265A JP 2011249927 A JP2011249927 A JP 2011249927A JP 2011249927 A JP2011249927 A JP 2011249927A JP 2013106265 A JP2013106265 A JP 2013106265A
Authority
JP
Japan
Prior art keywords
parallax
image
image data
area
parallax image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011249927A
Other languages
Japanese (ja)
Other versions
JP5874334B2 (en
Inventor
Kiyoshige Shibazaki
清茂 芝崎
Muneki Hamashima
宗樹 浜島
Susumu Mori
晋 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011249927A priority Critical patent/JP5874334B2/en
Publication of JP2013106265A publication Critical patent/JP2013106265A/en
Application granted granted Critical
Publication of JP5874334B2 publication Critical patent/JP5874334B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that luminous flux passing a peripheral part of the pupil does not reach a peripheral part of an imaging element due to vignetting.SOLUTION: An image processor includes: an image data acquisition section for acquiring a plurality of pieces of parallax image data having parallax to the same scene; and a region determining section for determining a valid image region whose size differs from other parallax image data for at least partial parallax image data in the plurality of pieces of parallax image data. An imaging apparatus includes: an imaging element which can output a parallax image signal for generating the plurality of pieces of parallax image data having the parallax to the same scene; and an output control section for controlling output of the parallax image signal so that at least the partial parallax image data in the plurality of pieces of parallax image data has the valid image region whose size differs from other parallax image data.

Description

本発明は、画像処理装置、撮像装置、画像処理プログラムおよび撮像装置の制御プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing program, and a control program for the imaging device.

2つの撮影光学系を用いて、右目用の画像と左目用の画像とから成るステレオ画像を撮像するステレオ撮像装置が知られている。このようなステレオ撮像装置は、2つの撮像光学系を一定の間隔で配置することにより、同一の被写体を撮像して得られる2つの画像に視差を生じさせる。
[先行技術文献]
[特許文献]
[特許文献1] 特開平8−47001号公報
A stereo imaging device that captures a stereo image composed of a right-eye image and a left-eye image using two imaging optical systems is known. Such a stereo imaging device causes parallax to occur in two images obtained by imaging the same subject by arranging two imaging optical systems at regular intervals.
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-8-47001

複数の視差画像をそれぞれ独立した撮像系で取得する場合であれば、口径食の影響を事実上無視し得る。しかし、ひとつの撮像系から一度の露光動作により複数の視差画像を生成するための画像信号を出力する撮像素子の場合、口径食に起因して瞳の周辺部を通過する光束が撮像素子の周辺部に到達しないという課題がある。   If a plurality of parallax images are acquired by independent imaging systems, the effects of vignetting can be virtually ignored. However, in the case of an image sensor that outputs an image signal for generating a plurality of parallax images by one exposure operation from one image pickup system, the light flux that passes through the periphery of the pupil due to vignetting is the periphery of the image sensor. There is a problem of not reaching the department.

本発明の第1の態様における画像処理装置は、同一シーンに対して互いに視差を有する複数の視差画像データを取得する画像データ取得部と、複数の視差画像データのうちの少なくとも一部の視差画像データに対して、他の視差画像データと大きさが異なる有効画像領域を定める領域制定部とを備える。   An image processing apparatus according to a first aspect of the present invention includes an image data acquisition unit that acquires a plurality of parallax image data having parallax with respect to the same scene, and at least a part of the parallax image data And an area establishing unit that determines an effective image area having a size different from that of other parallax image data.

本発明の第2の態様における撮像装置は、同一シーンに対して互いに視差を有する複数の視差画像データを生成するための視差画像信号を出力可能な撮像素子と、複数の視差画像データのうちの少なくとも一部の視差画像データが、他の視差画像データと大きさが異なる有効画像領域を有するように、視差画像信号の出力を制御する出力制御部とを備える。   An imaging device according to a second aspect of the present invention includes an imaging device capable of outputting parallax image signals for generating a plurality of parallax image data having parallax with respect to the same scene, and a plurality of parallax image data. An output control unit that controls the output of the parallax image signal so that at least a part of the parallax image data has an effective image area having a size different from that of the other parallax image data.

本発明の第3の態様における画像処理プログラムは、同一シーンに対して互いに視差を有する複数の視差画像データを取得する画像データ取得ステップと、複数の視差画像データのうちの少なくとも一部の視差画像データに対して、他の視差画像データと大きさが異なる有効画像領域を定める領域制定ステップとをコンピュータに実行させる。   An image processing program according to a third aspect of the present invention includes an image data acquisition step of acquiring a plurality of parallax image data having parallax with respect to the same scene, and at least a part of the parallax images of the plurality of parallax image data The computer is caused to execute an area establishing step for determining an effective image area having a size different from that of other parallax image data.

本発明の第4の態様における撮像装置の制御プログラムは、同一シーンに対して互いに視差を有する複数の視差画像データを生成するための視差画像信号を出力可能な撮像素子を備える撮像装置の制御プログラムであって、複数の視差画像データのうちの少なくとも一部の視差画像データが、他の視差画像データと大きさが異なる有効画像領域を有するように、視差画像信号の出力を制御する出力制御ステップをコンピュータに実行させる。   An imaging device control program according to a fourth aspect of the present invention is an imaging device control program including an imaging device capable of outputting parallax image signals for generating a plurality of parallax image data having parallax with respect to the same scene. An output control step for controlling the output of the parallax image signal so that at least a part of the parallax image data among the plurality of parallax image data has an effective image area having a size different from that of the other parallax image data. Is executed on the computer.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本発明の実施形態に係るデジタルカメラの構成を説明する図である。It is a figure explaining the structure of the digital camera which concerns on embodiment of this invention. 本発明の実施形態に係る撮像素子の断面を表す概略図である。It is the schematic showing the cross section of the image pick-up element which concerns on embodiment of this invention. 撮像素子の一部を拡大した様子を表す概略図である。It is the schematic showing a mode that a part of imaging device was expanded. 撮像素子の中心部における視差画素と被写体の関係を説明する概念図である。It is a conceptual diagram explaining the relationship between the parallax pixel in a center part of an image sensor, and a to-be-photographed object. 撮像素子の周辺部における視差画素と被写体の関係を説明する概念図である。It is a conceptual diagram explaining the relationship between the parallax pixel in a peripheral part of an image sensor, and a to-be-photographed object. 撮像素子の各領域における繰り返しパターンが口径食の影響を受ける様子を説明する説明図である。It is explanatory drawing explaining a mode that the repeating pattern in each area | region of an image pick-up element receives the influence of a vignetting. 有効画像領域が定められた視差画像を生成する処理を説明する概念図である。It is a conceptual diagram explaining the process which produces | generates the parallax image in which the effective image area | region was defined. 繰り返しパターンの他の例を示す図である。It is a figure which shows the other example of a repeating pattern. 縦視差画像を出力する撮像素子の各領域における繰り返しパターンが口径食の影響を受ける様子を説明する説明図である。It is explanatory drawing explaining a mode that the repetitive pattern in each area | region of the image pick-up element which outputs a vertical parallax image receives the influence of a vignetting. 有効画像領域設定テーブルを説明する概念図である。It is a conceptual diagram explaining an effective image area | region setting table. カラーフィルタ配列を説明する図である。It is a figure explaining a color filter arrangement | sequence. カラーフィルタ配列と視差画素の関係を示す図である。It is a figure which shows the relationship between a color filter arrangement | sequence and a parallax pixel. 視差画像と2D画像の生成過程を示す概念図である。It is a conceptual diagram which shows the production | generation process of a parallax image and 2D image. 視差画像数を設定するメニュー画面の例である。It is an example of the menu screen which sets the number of parallax images.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

画像処理装置および撮像装置の一形態である本実施形態に係るデジタルカメラは、1つのシーンについて複数の視点数の画像を一度の撮影により生成できるように構成されている。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。   The digital camera according to the present embodiment, which is a form of the image processing apparatus and the imaging apparatus, is configured to be able to generate images with a plurality of viewpoints for one scene by one shooting. Each image having a different viewpoint is called a parallax image.

図1は、本発明の実施形態に係るデジタルカメラ10の構成を説明する図である。デジタルカメラ10は、撮影光学系としての絞り19および撮影レンズ20を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、メモリカードIF207、操作部208、表示部209およびLCD駆動回路210を備える。   FIG. 1 is a diagram illustrating the configuration of a digital camera 10 according to an embodiment of the present invention. The digital camera 10 includes a diaphragm 19 and a photographing lens 20 as a photographing optical system, and guides a subject light beam incident along the optical axis 21 to the image sensor 100. The digital camera 10 includes an image sensor 100, a control unit 201, an A / D conversion circuit 202, a memory 203, a drive unit 204, a memory card IF 207, an operation unit 208, a display unit 209, and an LCD drive circuit 210.

なお、図示するように、撮像素子100へ向かう光軸21に平行な方向をZ軸プラス方向と定め、Z軸と直交する平面において紙面手前へ向かう方向をX軸プラス方向、紙面上方向をY軸プラス方向と定める。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in the figure, the direction parallel to the optical axis 21 toward the image sensor 100 is defined as the Z-axis plus direction, the direction toward the front of the drawing on the plane orthogonal to the Z-axis is the X-axis plus direction, and the upward direction on the drawing is Y. The axis is defined as the plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

絞り19は、制御部201の制御に従って、設定された絞り値(f値)に対応する開口を形成する。撮影レンズ20は、複数の光学レンズ群から構成される。なお、図1では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。シーンからの被写体光束は、撮影レンズ20を透過し、その一部が絞り19の開口に制限されて、撮像素子100へ到達する。撮像素子100は、撮影レンズ20の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。   The diaphragm 19 forms an opening corresponding to the set diaphragm value (f value) according to the control of the control unit 201. The taking lens 20 is composed of a plurality of optical lens groups. In FIG. 1, for convenience of explanation, the photographic lens 20 is represented by a single virtual lens arranged in the vicinity of the pupil. The subject luminous flux from the scene passes through the photographic lens 20, a part of which is limited by the aperture 19 and reaches the image sensor 100. The image sensor 100 is disposed near the focal plane of the photographic lens 20. The image sensor 100 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged. The image sensor 100 is controlled in timing by the drive unit 204, converts the subject image formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 202.

A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。制御部201の一部である画像処理部205は、メモリ203をワークスペースとして種々の画像処理を施し、画像データを生成する。例えば、JPEGファイル形式の画像データを生成する場合は、ホワイトバランス処理、ガンマ処理等を施した後に圧縮処理を実行する。生成された画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示される。また、メモリカードIF207に装着されているメモリカード220に記録される。   The A / D conversion circuit 202 converts the image signal output from the image sensor 100 into a digital image signal and outputs the digital image signal to the memory 203. An image processing unit 205, which is a part of the control unit 201, performs various image processing using the memory 203 as a work space, and generates image data. For example, when generating image data in JPEG file format, compression processing is executed after white balance processing, gamma processing, and the like are performed. The generated image data is converted into a display signal by the LCD drive circuit 210 and displayed on the display unit 209. The data is recorded on the memory card 220 attached to the memory card IF 207.

一連の撮影シーケンスは、操作部208がユーザの操作を受け付けて、制御部201へ操作信号を出力することにより開始される。撮影シーケンスに付随するAF、AE等の各種動作は、演算部206の演算結果に応じて実行される。演算部206は、操作部208を介してユーザから指定された撮影条件に従って、演算を実行する。   A series of shooting sequences is started when the operation unit 208 receives a user operation and outputs an operation signal to the control unit 201. Various operations such as AF and AE accompanying the imaging sequence are executed according to the calculation result of the calculation unit 206. The computing unit 206 performs computations according to shooting conditions designated by the user via the operation unit 208.

デジタルカメラ10は、通常の撮影モードの他に視差画像撮影モードを備える。ユーザは、これらのいずれかのモードを、メニュー画面が表示された表示部209を視認しながら、操作部208を操作することにより選択することができる。   The digital camera 10 includes a parallax image shooting mode in addition to the normal shooting mode. The user can select one of these modes by operating the operation unit 208 while viewing the display unit 209 on which the menu screen is displayed.

デジタルカメラ10は、システムメモリ221を備える。システムメモリ221は、電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM(登録商標)等により構成される。システムメモリ221は、デジタルカメラ10の動作時に必要な定数、変数、プログラム等を、デジタルカメラ10の非動作時にも失われないように記録している。制御部201は、定数、変数、プログラム等を適宜メモリ203に展開して、デジタルカメラ10の制御に利用する。   The digital camera 10 includes a system memory 221. The system memory 221 is an electrically erasable / recordable nonvolatile memory, and is configured by, for example, an EEPROM (registered trademark). The system memory 221 records constants, variables, programs, and the like necessary for the operation of the digital camera 10 so that they are not lost even when the digital camera 10 is not operating. The control unit 201 appropriately expands constants, variables, programs, and the like in the memory 203 and uses them for controlling the digital camera 10.

次に、撮像素子100の構成について詳細に説明する。図2は、本実施形態に係る撮像素子の断面を表す概略図である。図2(a)は、カラーフィルタ102と開口マスク103が別体で構成される撮像素子100の断面概略図である。また、図2(b)は、撮像素子100の変形例として、カラーフィルタ部122と開口マスク部123が一体的に構成されたスクリーンフィルタ121を備える撮像素子120の断面外略図である。   Next, the configuration of the image sensor 100 will be described in detail. FIG. 2 is a schematic diagram illustrating a cross section of the image sensor according to the present embodiment. FIG. 2A is a schematic cross-sectional view of the image sensor 100 in which the color filter 102 and the aperture mask 103 are separately formed. FIG. 2B is a schematic cross-sectional view of an image pickup device 120 including a screen filter 121 in which a color filter portion 122 and an opening mask portion 123 are integrally formed as a modification of the image pickup device 100.

図2(a)に示すように、撮像素子100は、被写体側から順に、マイクロレンズ101、カラーフィルタ102、開口マスク103、配線層105および光電変換素子108が配列されて構成されている。光電変換素子108は、入射する光を電気信号に変換するフォトダイオードにより構成される。光電変換素子108は、基板109の表面に二次元的に複数配列されている。   As shown in FIG. 2A, the image sensor 100 is configured by arranging a micro lens 101, a color filter 102, an aperture mask 103, a wiring layer 105, and a photoelectric conversion element 108 in this order from the subject side. The photoelectric conversion element 108 is configured by a photodiode that converts incident light into an electrical signal. A plurality of photoelectric conversion elements 108 are two-dimensionally arranged on the surface of the substrate 109.

光電変換素子108により変換された画像信号、光電変換素子108を制御する制御信号等は、配線層105に設けられた配線106を介して送受信される。また、各光電変換素子108に一対一に対応して設けられた開口部104を有する開口マスク103が、配線層に接して設けられている。開口部104は、後述するように、対応する光電変換素子108ごとにシフトさせて、相対的な位置が厳密に定められている。詳しくは後述するが、この開口部104を備える開口マスク103の作用により、光電変換素子108が受光する被写体光束に視差が生じる。   An image signal converted by the photoelectric conversion element 108, a control signal for controlling the photoelectric conversion element 108, and the like are transmitted and received through the wiring 106 provided in the wiring layer 105. In addition, an opening mask 103 having openings 104 provided in one-to-one correspondence with each photoelectric conversion element 108 is provided in contact with the wiring layer. As will be described later, the opening 104 is shifted for each corresponding photoelectric conversion element 108 so that the relative position is precisely determined. As will be described in detail later, parallax occurs in the subject light beam received by the photoelectric conversion element 108 by the action of the opening mask 103 including the opening 104.

一方、視差を生じさせない光電変換素子108上には、開口マスク103が存在しない。別言すれば、対応する光電変換素子108に対して入射する被写体光束を制限しない、つまり有効光束の全体を通過させる開口部104を有する開口マスク103が設けられているとも言える。視差を生じさせることはないが、実質的には配線106によって形成される開口107が入射する被写体光束を規定するので、配線106を、視差を生じさせない有効光束の全体を通過させる開口マスクと捉えることもできる。開口マスク103は、各光電変換素子108に対応して別個独立に配列しても良いし、カラーフィルタ102の製造プロセスと同様に複数の光電変換素子108に対して一括して形成しても良い。   On the other hand, the aperture mask 103 does not exist on the photoelectric conversion element 108 that does not generate parallax. In other words, it can be said that the aperture mask 103 having the aperture 104 that does not limit the subject luminous flux incident on the corresponding photoelectric conversion element 108, that is, allows the entire effective luminous flux to pass therethrough is provided. Although no parallax is generated, the aperture 107 formed by the wiring 106 defines the subject luminous flux that is incident, so the wiring 106 is regarded as an aperture mask that allows the entire effective luminous flux that does not cause parallax to pass. You can also. The opening mask 103 may be arranged separately and independently corresponding to each photoelectric conversion element 108, or may be formed collectively for a plurality of photoelectric conversion elements 108 in the same manner as the manufacturing process of the color filter 102. .

カラーフィルタ102は、開口マスク103上に設けられている。カラーフィルタ102は、各光電変換素子108に対して特定の波長帯域を透過させるように着色された、光電変換素子108のそれぞれに一対一に対応して設けられるフィルタである。カラー画像を出力するには、互いに異なる少なくとも3種類のカラーフィルタが配列されれば良い。これらのカラーフィルタは、カラー画像を生成するための原色フィルタと言える。原色フィルタの組み合わせは、例えば赤色波長帯を透過させる赤フィルタ、緑色波長帯を透過させる緑フィルタ、および青色波長帯を透過させる青フィルタである。これらのカラーフィルタは、後述するように、光電変換素子108に対応して格子状に配列される。   The color filter 102 is provided on the opening mask 103. The color filter 102 is a filter provided in a one-to-one correspondence with each photoelectric conversion element 108, which is colored so as to transmit a specific wavelength band to each photoelectric conversion element 108. In order to output a color image, it is only necessary to arrange at least three different color filters. These color filters can be said to be primary color filters for generating a color image. The primary color filter combination is, for example, a red filter that transmits the red wavelength band, a green filter that transmits the green wavelength band, and a blue filter that transmits the blue wavelength band. As will be described later, these color filters are arranged in a lattice pattern corresponding to the photoelectric conversion elements 108.

マイクロレンズ101は、カラーフィルタ102上に設けられている。マイクロレンズ101は、入射する被写体光束のより多くを光電変換素子108へ導くための集光レンズである。マイクロレンズ101は、光電変換素子108のそれぞれに一対一に対応して設けられている。マイクロレンズ101は、撮影レンズ20の瞳中心と光電変換素子108の相対的な位置関係を考慮して、より多くの被写体光束が光電変換素子108に導かれるようにその光軸がシフトされていることが好ましい。さらには、開口マスク103の開口部104の位置と共に、後述の特定の被写体光束がより多く入射するように配置位置が調整されても良い。   The microlens 101 is provided on the color filter 102. The microlens 101 is a condensing lens for guiding more incident subject light flux to the photoelectric conversion element 108. The microlenses 101 are provided in a one-to-one correspondence with the photoelectric conversion elements 108. In consideration of the relative positional relationship between the pupil center of the taking lens 20 and the photoelectric conversion element 108, the optical axis of the microlens 101 is shifted so that more subject light flux is guided to the photoelectric conversion element 108. It is preferable. Furthermore, the arrangement position may be adjusted so that more specific subject light beam, which will be described later, is incident along with the position of the opening 104 of the opening mask 103.

このように、各々の光電変換素子108に対応して一対一に設けられる開口マスク103、カラーフィルタ102およびマイクロレンズ101の一単位を画素と呼ぶ。特に、視差を生じさせる開口マスク103が設けられた画素を視差画素、視差を生じさせる開口マスク103が設けられていない画素を視差なし画素と呼ぶ。例えば、撮像素子100の有効画素領域が24mm×16mm程度の場合、画素数は1200万程度に及ぶ。   As described above, one unit of the aperture mask 103, the color filter 102, and the microlens 101 provided in one-to-one correspondence with each photoelectric conversion element 108 is referred to as a pixel. In particular, a pixel provided with the opening mask 103 that generates parallax is referred to as a parallax pixel, and a pixel that is not provided with the opening mask 103 that generates parallax is referred to as a non-parallax pixel. For example, when the effective pixel area of the image sensor 100 is about 24 mm × 16 mm, the number of pixels reaches about 12 million.

なお、集光効率、光電変換効率が良いイメージセンサの場合は、マイクロレンズ101を設けなくても良い。また、裏面照射型イメージセンサの場合は、配線層105が光電変換素子108とは反対側に設けられる。   Note that in the case of an image sensor with good light collection efficiency and photoelectric conversion efficiency, the microlens 101 may not be provided. In the case of a back-illuminated image sensor, the wiring layer 105 is provided on the side opposite to the photoelectric conversion element 108.

カラーフィルタ102と開口マスク103の組み合わせには、さまざまなバリエーションが存在する。図2(a)において、開口マスク103の開口部104に色成分を持たせれば、カラーフィルタ102と開口マスク103を一体的に形成することができる。また、特定の画素を被写体の輝度情報を取得する画素とする場合、その画素には、対応するカラーフィルタ102を設けなくても良い。あるいは、可視光のおよそ全ての波長帯域を透過させるように、着色を施さない透明フィルタを配列しても良い。   There are various variations in the combination of the color filter 102 and the aperture mask 103. In FIG. 2A, the color filter 102 and the opening mask 103 can be integrally formed if the opening 104 of the opening mask 103 has a color component. In addition, when a specific pixel is a pixel that acquires luminance information of a subject, the corresponding color filter 102 may not be provided for the pixel. Or you may arrange | position the transparent filter which does not give coloring so that the substantially all wavelength band of visible light may be permeate | transmitted.

輝度情報を取得する画素を視差画素とする場合、つまり、視差画像を少なくとも一旦はモノクロ画像として出力するのであれば、図2(b)として示す撮像素子120の構成を採用し得る。すなわち、カラーフィルタとして機能するカラーフィルタ部122と、開口部104を有する開口マスク部123とが一体的に構成されたスクリーンフィルタ121を、マイクロレンズ101と配線層105の間に配設することができる。   When the pixel from which luminance information is acquired is a parallax pixel, that is, when the parallax image is output at least once as a monochrome image, the configuration of the image sensor 120 shown in FIG. 2B can be employed. That is, the screen filter 121 in which the color filter part 122 that functions as a color filter and the opening mask part 123 having the opening 104 are integrally formed may be disposed between the microlens 101 and the wiring layer 105. it can.

スクリーンフィルタ121は、カラーフィルタ部122において例えば青緑赤の着色が施され、開口マスク部123において開口部104以外のマスク部分が黒の着色が施されて形成される。スクリーンフィルタ121を採用する撮像素子120は、撮像素子100に比較して、マイクロレンズ101から光電変換素子108までの距離が短いので、被写体光束の集光効率が高い。   The screen filter 121 is formed by, for example, blue-green-red coloring in the color filter portion 122 and black in the opening mask portion 123 other than the opening portion 104. Since the image sensor 120 that employs the screen filter 121 has a shorter distance from the microlens 101 to the photoelectric conversion element 108 than the image sensor 100, the light collection efficiency of the subject light flux is high.

次に、開口マスク103の開口部104と、生じる視差の関係について説明する。図3は、撮像素子100の中央部付近の一部を拡大した様子を表す概略図である。ここでは、説明を簡単にすべく、カラーフィルタ102の配色については後に言及を再開するまで考慮しない。撮像素子100がカラーフィルタ102を備えない場合は、モノクロイメージセンサとしてモノクロの視差画像を生成することができる。また、カラーフィルタ102の配色に言及しない以下の説明においては、同色のカラーフィルタ102を有する視差画素のみを寄せ集めたイメージセンサであると捉えることもできる。したがって、以下に説明する繰り返しパターンは、同色のカラーフィルタ102における隣接画素として考えても良い。   Next, the relationship between the opening 104 of the opening mask 103 and the generated parallax will be described. FIG. 3 is a schematic diagram illustrating a state in which a part near the center of the image sensor 100 is enlarged. Here, in order to simplify the explanation, the color arrangement of the color filter 102 is not considered until the reference is resumed later. When the image sensor 100 does not include the color filter 102, a monochrome parallax image can be generated as a monochrome image sensor. Further, in the following description that does not refer to the color arrangement of the color filter 102, it can be considered that the image sensor is a collection of only parallax pixels having the color filter 102 of the same color. Therefore, the repetitive pattern described below may be considered as an adjacent pixel in the color filter 102 of the same color.

図3に示すように、開口マスク103の開口部104は、それぞれの画素に対して相対的にシフトして設けられている。そして、隣接する画素同士においても、それぞれの開口部104は互いに変位した位置に設けられている。   As shown in FIG. 3, the opening 104 of the opening mask 103 is provided so as to be relatively shifted with respect to each pixel. In the adjacent pixels, the openings 104 are provided at positions displaced from each other.

図の例においては、それぞれの画素に対する開口部104の位置として、互いに左右方向にシフトした6種類の開口マスク103が用意されている。そして、撮像素子100の全体は、紙面左側から右側へ徐々にシフトする開口部104をそれぞれ有する6つの視差画素を一組とする光電変換素子群が、二次元的かつ周期的に配列されている。つまり、撮像素子100は、一組の光電変換素子群を含む繰り返しパターン110が、周期的かつ連続的に敷き詰められて構成されていると言える。なお、図の例においては、開口部104の形状を縦長の長方形とするが、これに限らない。画素の中心に対して偏位して、瞳上の特定の部分領域を見込む開口であれば、さまざまな形状を採用し得る。   In the example shown in the drawing, six types of opening masks 103 that are shifted in the left-right direction are prepared as the positions of the openings 104 for the respective pixels. The entire image sensor 100 has a two-dimensional and periodic array of photoelectric conversion element groups each including six parallax pixels each having an opening 104 that gradually shifts from the left side to the right side of the drawing. . That is, it can be said that the image sensor 100 is configured by periodically and continuously laying a repeating pattern 110 including a set of photoelectric conversion element groups. In the example shown in the figure, the shape of the opening 104 is a vertically long rectangle, but is not limited thereto. Various shapes can be adopted as long as the opening is deviated with respect to the center of the pixel and looks into a specific partial region on the pupil.

図4は、撮像素子100の中心部における視差画素と被写体の関係を説明する概念図である。特に図4(a)は、撮像素子100のうち撮影光軸21と直交する中心に配列されている繰り返しパターン110tの光電変換素子群が、撮影レンズ20に対して合焦位置に存在する被写体30を捉えた場合の様子を模式的に示す。図4(b)は、図4(a)に対応して、撮影レンズ20に対して非合焦位置に存在する被写体31を捉えた場合の関係を模式的に示している。   FIG. 4 is a conceptual diagram illustrating the relationship between the parallax pixels and the subject at the center of the image sensor 100. In particular, FIG. 4A shows the subject 30 in which the photoelectric conversion element group of the repetitive pattern 110 t arranged at the center orthogonal to the imaging optical axis 21 in the imaging element 100 exists at the in-focus position with respect to the imaging lens 20. A state in the case of capturing is schematically shown. FIG. 4B schematically shows a relationship when the subject 31 existing at the out-of-focus position with respect to the photographing lens 20 is captured corresponding to FIG.

まず、撮像素子100が合焦状態に存在する被写体30を捉えている場合の、視差画素と被写体の関係を説明する。被写体光束は、撮影レンズ20の瞳を通過して撮像素子100へ導かれるが、被写体光束が通過する全体の断面領域に対して、6つの部分領域Pa〜Pfが規定されている。そして、例えば繰り返しパターン110tを構成する光電変換素子群の紙面左端の画素は、拡大図からもわかるように、部分領域Pfから射出された被写体光束のみが光電変換素子108へ到達するように、開口マスク103の開口部104fの位置が定められている。同様に、右端の画素に向かって、部分領域Peに対応して開口部104eの位置が、部分領域Pdに対応して開口部104dの位置が、部分領域Pcに対応して開口部104cの位置が、部分領域Pbに対応して開口部104bの位置が、部分領域Paに対応して開口部104aの位置がそれぞれ定められている。   First, the relationship between the parallax pixels and the subject when the image sensor 100 captures the subject 30 that is in focus will be described. The subject luminous flux passes through the pupil of the photographic lens 20 and is guided to the image sensor 100. Six partial areas Pa to Pf are defined for the entire cross-sectional area through which the subject luminous flux passes. Then, for example, the pixel at the left end of the sheet of the photoelectric conversion element group constituting the repetitive pattern 110t has an opening so that only the subject luminous flux emitted from the partial region Pf reaches the photoelectric conversion element 108 as can be seen from the enlarged view. The position of the opening 104f of the mask 103 is determined. Similarly, toward the rightmost pixel, the position of the opening 104e corresponding to the partial area Pe, the position of the opening 104d corresponding to the partial area Pd, and the position of the opening 104c corresponding to the partial area Pc. However, the position of the opening 104b is determined corresponding to the partial area Pb, and the position of the opening 104a is determined corresponding to the partial area Pa.

別言すれば、例えば部分領域Pfと左端画素の相対的な位置関係によって定義される、部分領域Pfから射出される被写体光束の主光線Rfの傾きにより、開口部104fの位置が定められていると言っても良い。そして、合焦位置に存在する被写体30からの被写体光束を、開口部104fを介して光電変換素子108が受光する場合、その被写体光束は、点線で図示するように、光電変換素子108上で結像する。同様に、右端の画素に向かって、主光線Reの傾きにより開口部104eの位置が、主光線Rdの傾きにより開口部104dの位置が、主光線Rcの傾きにより開口部104cの位置が、主光線Rbの傾きにより開口部104bの位置が、主光線Raの傾きにより開口部104aの位置がそれぞれ定められていると言える。   In other words, the position of the opening 104f is determined by the inclination of the principal ray Rf of the subject light beam emitted from the partial region Pf, which is defined by the relative positional relationship between the partial region Pf and the leftmost pixel, for example. You can say. Then, when the photoelectric conversion element 108 receives the subject luminous flux from the subject 30 existing at the in-focus position via the opening 104f, the subject luminous flux is coupled on the photoelectric conversion element 108 as shown by the dotted line. Image. Similarly, toward the rightmost pixel, the position of the opening 104e is determined by the inclination of the principal ray Re, the position of the opening 104d is determined by the inclination of the principal ray Rd, and the position of the opening 104c is determined by the inclination of the principal ray Rc. It can be said that the position of the opening 104b is determined by the inclination of the light ray Rb, and the position of the opening 104a is determined by the inclination of the principal ray Ra.

図4(a)で示すように、合焦位置に存在する被写体30のうち、光軸21と交差する被写体30上の微小領域Otから放射される光束は、撮影レンズ20の瞳を通過して、繰り返しパターン110tを構成する光電変換素子群の各画素に到達する。すなわち、繰り返しパターン110tを構成する光電変換素子群の各画素は、それぞれ6つの部分領域Pa〜Pfを介して、一つの微小領域Otから放射される光束を受光している。微小領域Otは、繰り返しパターン110tを構成する光電変換素子群の各画素の位置ずれに対応する分だけの広がりを有するが、実質的には、ほぼ同一の物点と近似することができる。   As shown in FIG. 4A, the light beam emitted from the minute region Ot on the subject 30 that intersects the optical axis 21 among the subject 30 existing at the in-focus position passes through the pupil of the photographing lens 20. Then, each pixel of the photoelectric conversion element group constituting the repetitive pattern 110t is reached. That is, each pixel of the photoelectric conversion element group constituting the repetitive pattern 110t receives a light beam emitted from one minute region Ot through each of the six partial regions Pa to Pf. Although the minute region Ot has an extent corresponding to the positional deviation of each pixel of the photoelectric conversion element group constituting the repetitive pattern 110t, it can be approximated to substantially the same object point.

次に、撮影レンズ20が非合焦状態に存在する被写体31を捉えている場合の、視差画素と被写体の関係を説明する。この場合も、非合焦位置に存在する被写体31からの被写体光束は、撮影レンズ20の瞳の6つの部分領域Pa〜Pfを通過して、撮像素子100へ到達する。ただし、非合焦位置に存在する被写体31からの被写体光束は、光電変換素子108上ではなく他の位置で結像する。例えば、図4(b)に示すように、被写体31が被写体30よりも撮像素子100に対して遠い位置に存在すると、被写体光束は、光電変換素子108よりも被写体31側で結像する。逆に、被写体31が被写体30よりも撮像素子100に対して近い位置に存在すると、被写体光束は、光電変換素子108よりも被写体31とは反対側で結像する。   Next, the relationship between the parallax pixels and the subject when the photographing lens 20 captures the subject 31 existing in the out-of-focus state will be described. Also in this case, the subject luminous flux from the subject 31 present at the out-of-focus position passes through the six partial areas Pa to Pf of the pupil of the photographing lens 20 and reaches the image sensor 100. However, the subject light flux from the subject 31 existing at the out-of-focus position forms an image at another position, not on the photoelectric conversion element 108. For example, as shown in FIG. 4B, when the subject 31 exists at a position farther from the image sensor 100 than the subject 30, the subject luminous flux forms an image on the subject 31 side with respect to the photoelectric conversion element 108. Conversely, when the subject 31 is present at a position closer to the image sensor 100 than the subject 30, the subject luminous flux forms an image on the opposite side of the subject 31 from the photoelectric conversion element 108.

したがって、非合焦位置に存在する被写体31のうち、微小領域Ot'から放射される被写体光束は、6つの部分領域Pa〜Pfのいずれを通過するかにより、異なる組の繰り返しパターン110における対応画素に到達する。例えば、部分領域Pdを通過した被写体光束は、図4(b)の拡大図に示すように、主光線Rd'として、繰り返しパターン110t'に含まれる、開口部104dを有する光電変換素子108へ入射する。そして、微小領域Ot'から放射された被写体光束であっても、他の部分領域を通過した被写体光束は、繰り返しパターン110t'に含まれる光電変換素子108へは入射せず、他の繰り返しパターンにおける対応する開口部を有する光電変換素子108へ入射する。換言すると、繰り返しパターン110t'を構成する各光電変換素子108へ到達する被写体光束は、被写体31の互いに異なる微小領域から放射された被写体光束である。すなわち、開口部104dに対応する108へは主光線をRd'とする被写体光束が入射し、他の開口部に対応する光電変換素子108へは主光線をRa、Rb、Rc、Re、Rfとする被写体光束が入射するが、これらの被写体光束は、被写体31の互いに異なる微小領域から放射された被写体光束である。 Therefore, the subject luminous flux emitted from the minute region Ot ′ among the subjects 31 existing at the out-of-focus position depends on which of the six partial regions Pa to Pf, the corresponding pixels in the different sets of repetitive patterns 110. To reach. For example, as shown in the enlarged view of FIG. 4B, the subject luminous flux that has passed through the partial region Pd enters the photoelectric conversion element 108 having the opening 104d included in the repeated pattern 110t ′ as the principal ray Rd ′. To do. Even if the subject light beam is emitted from the minute region Ot ′, the subject light beam that has passed through another partial region does not enter the photoelectric conversion element 108 included in the repetitive pattern 110t ′, and the repetitive pattern in the other repetitive pattern. The light enters the photoelectric conversion element 108 having a corresponding opening. In other words, the subject luminous flux reaching each photoelectric conversion element 108 constituting the repetitive pattern 110t ′ is a subject luminous flux radiated from different minute areas of the subject 31. That is, a subject luminous flux having a principal ray as Rd ′ is incident on 108 corresponding to the opening 104d, and the principal rays are incident on Ra + , Rb + , Rc + , Re to the photoelectric conversion elements 108 corresponding to the other openings. +, although subject light flux to Rf + is incident, these object light is a subject light flux emitted from different micro region of the object 31.

図5は、撮像素子100の周辺部における視差画素と被写体の関係を説明する概念図である。図5における被写体30は、図4(a)と同様に、撮影レンズ20に対して合焦位置に存在する。ここで、後述する口径食の影響がないとすれば、合焦位置に存在する被写体30のうち、光軸21から離間した被写体30上の微小領域Ouから放射される光束は、撮影レンズ20の瞳を通過して、繰り返しパターン110uを構成する光電変換素子群の各画素に到達する。すなわち、繰り返しパターン110uを構成する光電変換素子群の各画素は、それぞれ6つの部分領域Pa〜Pfを介して、一つの微小領域Ouから放射される光束を受光する。微小領域Ouも、微小領域Otと同様に、繰り返しパターン110uを構成する光電変換素子群の各画素の位置ずれに対応する分だけの広がりを有するが、実質的には、ほぼ同一の物点と近似することができる。   FIG. 5 is a conceptual diagram illustrating the relationship between the parallax pixels and the subject in the peripheral portion of the image sensor 100. The subject 30 in FIG. 5 exists at the in-focus position with respect to the taking lens 20 as in FIG. Here, if there is no influence of vignetting, which will be described later, among the subject 30 present at the in-focus position, the light beam emitted from the minute region Ou on the subject 30 that is separated from the optical axis 21 It passes through the pupil and reaches each pixel of the photoelectric conversion element group constituting the repetitive pattern 110u. That is, each pixel of the photoelectric conversion element group constituting the repetitive pattern 110u receives a light beam emitted from one minute region Ou through each of the six partial regions Pa to Pf. Similarly to the micro area Ot, the micro area Ou has an extent corresponding to the positional deviation of each pixel of the photoelectric conversion element group constituting the repetitive pattern 110u, but substantially the same object point. Can be approximated.

つまり、被写体30が合焦位置に存在する限りは、撮像素子100上における繰り返しパターン110の位置に応じて、光電変換素子群が捉える微小領域が異なり、かつ、光電変換素子群を構成する各画素は互いに異なる部分領域を介して同一の微小領域を捉えている。そして、それぞれの繰り返しパターン110において、対応する画素同士は同じ部分領域からの被写体光束を受光している。例えば繰り返しパターン110t、110uのそれぞれの左端の画素(開口部104fを有する視差画素)は、同じ部分領域Pfからの被写体光束を受光している。   In other words, as long as the subject 30 exists at the in-focus position, the minute area captured by the photoelectric conversion element group differs according to the position of the repetitive pattern 110 on the image sensor 100, and each pixel constituting the photoelectric conversion element group Captures the same minute region through different partial regions. In each repetitive pattern 110, corresponding pixels receive the subject luminous flux from the same partial area. For example, the leftmost pixel (the parallax pixel having the opening 104f) of each of the repeated patterns 110t and 110u receives the subject luminous flux from the same partial region Pf.

撮影光軸21と直交する中心に配列されている繰り返しパターン110tにおいて左端画素が部分領域Pfからの被写体光束を受光する開口部104fの位置と、周辺部分に配列されている繰り返しパターン110uにおいて左端画素が部分領域Pfからの被写体光束を受光する開口部104fの位置は厳密には異なる。しかしながら、機能的な観点からは、部分領域Pfからの被写体光束を受光するための開口マスクという点で、これらを同一種類の開口マスクとして扱うことができる。したがって、繰り返しパターン110tおよび110uにおける視差画素のそれぞれは、6種類の開口マスクの一つを備えると言える。   In the repetitive pattern 110t arranged in the center orthogonal to the photographing optical axis 21, the left end pixel in the repetitive pattern 110u arranged in the peripheral portion and the position of the opening 104f where the left end pixel receives the subject light beam from the partial region Pf. However, the position of the opening 104f that receives the subject luminous flux from the partial region Pf is strictly different. However, from a functional point of view, these can be treated as the same type of aperture mask in terms of an aperture mask for receiving the subject light flux from the partial region Pf. Therefore, it can be said that each of the parallax pixels in the repetitive patterns 110t and 110u includes one of six types of opening masks.

撮像素子100の全体で見た場合、例えば、開口部104aに対応する光電変換素子108で捉えた被写体像Aと、開口部104dに対応する光電変換素子108で捉えた被写体像Dは、合焦位置に存在する被写体に対する像であれば互いにずれが無く、非合焦位置に存在する被写体に対する像であればずれが生じることになる。そして、そのずれは、非合焦位置に存在する被写体が合焦位置に対してどちら側にどれだけずれているかにより、また、部分領域Paと部分領域Pdの距離により、方向と量が定まる。つまり、被写体像Aと被写体像Dは、互いに視差像となる。この関係は、他の開口部に対しても同様であるので、開口部104aから104fに対応して、6つの視差像が形成されることになる。   When viewed as a whole of the imaging element 100, for example, the subject image A captured by the photoelectric conversion element 108 corresponding to the opening 104a and the subject image D captured by the photoelectric conversion element 108 corresponding to the opening 104d are in focus. If the image is for the subject existing at the position, there is no shift, and if the image is for the subject present at the out-of-focus position, there is a shift. Then, the direction and amount of the shift are determined by how much the subject existing at the out-of-focus position is shifted from the focus position and by the distance between the partial area Pa and the partial area Pd. That is, the subject image A and the subject image D are parallax images. Since this relationship is the same for the other openings, six parallax images are formed corresponding to the openings 104a to 104f.

したがって、このように構成されたそれぞれの繰り返しパターン110において、互いに対応する画素の出力を寄せ集めると、視差画像が得られる。つまり、6つの部分領域Pa〜Pfうちの特定の部分領域から射出された被写体光束を受光した画素の出力は、視差画像を形成する。   Therefore, when the outputs of the pixels corresponding to each other in each of the repetitive patterns 110 configured in this way are collected, a parallax image is obtained. That is, the output of the pixel that has received the subject light beam emitted from a specific partial area among the six partial areas Pa to Pf forms a parallax image.

ところで、撮影レンズ20の瞳に設定された特定の部分領域が、撮影レンズ20の光軸から遠い位置に存在すると、本来であれば撮像素子100の周辺部へ到達する一部の光束が、撮影レンズ20を支持する鏡筒枠などに遮断される。つまり、瞳の周辺領域に設定された部分領域は、いわゆる口径食の影響を受ける。図において、網点で示す瞳の周辺領域Vにおいては、微小領域Ouから放射される被写体光束が口径食により遮断される。   By the way, if a specific partial region set in the pupil of the photographic lens 20 exists at a position far from the optical axis of the photographic lens 20, a part of the light flux that originally reaches the peripheral portion of the image sensor 100 is captured. The lens 20 is blocked by a lens barrel frame that supports the lens 20. That is, the partial area set in the peripheral area of the pupil is affected by so-called vignetting. In the figure, in the peripheral area V of the pupil indicated by halftone dots, the subject luminous flux emitted from the minute area Ou is blocked by vignetting.

したがって、周辺領域Vに包含される部分領域Paを通過するはずであった、主光線をRaとする被写体光束は、実際には開口部104aを有する視差画素には到達しない。このような関係は、図において微小領域Ouが光軸21に対して対称の位置に存在する場合も同様である。すなわち、微小領域OuがX軸プラス側に存在する場合は、周辺領域Vが部分領域Pfを包含する。すると、部分領域Pfを通過するはずであった、主光線をRfとする被写体光束は、撮像素子100のX軸マイナス側である周辺部に位置する、開口部104fを有する視差画素には到達しない。   Therefore, the subject luminous flux having Ra as the principal ray that should have passed through the partial area Pa included in the peripheral area V does not actually reach the parallax pixel having the opening 104a. Such a relationship is the same when the minute region Ou exists in a symmetrical position with respect to the optical axis 21 in the drawing. That is, when the minute region Ou exists on the X axis plus side, the peripheral region V includes the partial region Pf. Then, the subject luminous flux having the principal ray Rf that should have passed through the partial region Pf does not reach the parallax pixel having the opening 104 f located in the peripheral portion on the X axis minus side of the image sensor 100. .

つまり、被写界の周辺部から撮影レンズ20へ入射する光束は、撮像素子100の周辺部において開口部104aまたは開口部104fを有する視差画素に到達しない。口径食の影響をどの程度受けるかは、撮影レンズ20の瞳において設定された部分領域の位置と、撮像素子100に対して当該部分領域からの光束を通過させる開口部104を有する視差画素が存在する位置等に依存する。具体的には、撮像素子100において中心部から離れるほど口径食の陰となる領域が大きくなるので、視差画素がより周辺部に存在するほど、開口部104の偏位量が小さい視差画素にまで被写体光束が届かなくなる。この関係を更に説明する。   That is, the light beam incident on the photographing lens 20 from the peripheral portion of the object scene does not reach the parallax pixel having the opening 104 a or the opening 104 f in the peripheral portion of the image sensor 100. The degree of influence of vignetting depends on the position of the partial area set in the pupil of the photographing lens 20 and the parallax pixel having the opening 104 that allows the image sensor 100 to pass the light beam from the partial area. Depends on the position to be performed. Specifically, since the area of vignetting becomes larger as the distance from the center of the image sensor 100 increases, the more the parallax pixels are located in the periphery, the smaller the amount of deviation of the opening 104 is. Subject luminous flux does not reach. This relationship will be further described.

図6は、撮像素子100の各領域における繰り返しパターン110が口径食の影響を受ける様子を説明する説明図である。図6は、図3と同様に撮像素子100を撮影レンズ20側から見たときの様子を示すが、図3に対して開口マスク103の斜線とマイクロレンズ101の形状を省いている。   FIG. 6 is an explanatory diagram for explaining how the repetitive pattern 110 in each region of the image sensor 100 is affected by vignetting. FIG. 6 shows a state when the image sensor 100 is viewed from the photographic lens 20 side as in FIG. 3, but the oblique lines of the aperture mask 103 and the shape of the microlens 101 are omitted from FIG. 3.

開口部104がどのように口径食の影響を受けるかにより、撮像素子100の受光面は、縦ストライプ状に例えば5つの領域に分割される。中心部を含む縦ストライプ状の領域Aに配列されている繰り返しパターン110tにおいては、開口部104a〜104fをそれぞれ有する6つの視差画素のいずれもが、部分的にも口径食の陰になることは無い。   Depending on how the opening 104 is affected by vignetting, the light receiving surface of the image sensor 100 is divided into, for example, five regions in a vertical stripe shape. In the repetitive pattern 110t arranged in the vertical stripe region A including the center, any of the six parallax pixels each having the openings 104a to 104f is partially shaded by vignetting. No.

領域Aの右側(X軸プラス側)に隣接する領域Bに配列されている繰り返しパターン110uにおいては、口径食の陰を網点で表すように、6つの視差画素のそれぞれ一部が口径食の陰になる。このとき、開口部104aは、口径食の陰と重なる。つまり、開口部104aに対応する光電変換素子108には、被写体光束が届かない。他方、開口部104b〜104fは、口径食の陰とは重ならず、それぞれに対応する光電変換素子108は、各部分領域からの被写体光束を受光する。 In repeating pattern 110 u R, which is arranged in the area B R which is adjacent to the right side (X-axis positive side) of the region A, the shade of the vignetting as represented by dots, some respective diameter of six parallax pixels Be the shade of food. At this time, the opening 104a overlaps the shadow of vignetting. That is, the subject luminous flux does not reach the photoelectric conversion element 108 corresponding to the opening 104a. On the other hand, the openings 104b to 104f do not overlap with the shadow of vignetting, and the corresponding photoelectric conversion elements 108 receive the subject light flux from each partial region.

領域Aの左側(X軸マイナス側)に隣接する領域Bにおける現象は、領域Bでの現象に対して左右対称となる。すなわち、領域Bに配列されている繰り返しパターン110uにおいては、開口部104fが、口径食の陰と重なる。つまり、開口部104fに対応する光電変換素子108には、被写体光束が届かない。他方、開口部104a〜104eは、口径食の陰とは重ならず、それぞれに対応する光電変換素子108は、各部分領域からの被写体光束を受光する。 Phenomena in the region B L adjacent to the left side (X-axis negative side) of the region A becomes symmetrical with respect to a phenomenon in the area B R. That is, in the repeated pattern 110u L arranged in the region BL , the opening 104f overlaps the shadow of vignetting. That is, the subject luminous flux does not reach the photoelectric conversion element 108 corresponding to the opening 104f. On the other hand, the openings 104a to 104e do not overlap with the shadow of vignetting, and the corresponding photoelectric conversion elements 108 receive the subject light flux from each partial region.

領域Bの右側に隣接する領域Cに配列されている繰り返しパターン110vにおいては、同様に網点で表すように、領域Bに比較してさらに広く、6つの視差画素のそれぞれ一部が口径食の陰になる。このとき、開口部104aと104bは、口径食の陰と重なる。つまり、開口部104aと104bに対応する光電変換素子108には、被写体光束が届かない。他方、開口部104c〜104fは、口径食の陰とは重ならず、それぞれに対応する光電変換素子108は、各部分領域からの被写体光束を受光する。 In repeating pattern 110v R which are arranged in a region C R adjacent to the right area B R, similarly as represented by dots, wider compared to the area B R, respectively a part of the six parallax pixels Is behind vignetting. At this time, the openings 104a and 104b overlap with the shadow of vignetting. That is, the subject luminous flux does not reach the photoelectric conversion elements 108 corresponding to the openings 104a and 104b. On the other hand, the openings 104c to 104f do not overlap with the shadow of vignetting, and the corresponding photoelectric conversion elements 108 receive the subject light flux from each partial region.

領域Bの左側に隣接する領域Cにおける現象は、領域Cでの現象に対して左右対称となる。すなわち、領域Cに配列されている繰り返しパターン110vにおいては、開口部104fと104eが、口径食の陰と重なる。つまり、開口部104fと104eに対応する光電変換素子108には、被写体光束が届かない。他方、開口部104a〜104dは、口径食の陰とは重ならず、それぞれに対応する光電変換素子108は、各部分領域からの被写体光束を受光する。 Phenomena in the region C L adjacent to the left side of the region B L becomes symmetrical with respect to a phenomenon in the area C R. That is, in the repetitive pattern 110v L that is arranged in the area C L, the opening 104f and 104e overlaps a shadow of vignetting. That is, the subject luminous flux does not reach the photoelectric conversion elements 108 corresponding to the openings 104f and 104e. On the other hand, the openings 104a to 104d do not overlap with the shadow of vignetting, and the corresponding photoelectric conversion elements 108 receive the subject light flux from each partial region.

口径食の影響をどの程度受けるかは、撮影レンズ20の瞳において設定された部分領域の位置等に加え、鏡筒形状、焦点距離など使用される撮影レンズ20の性質、更には、絞り値など撮影条件によっても異なる。したがって、図6で示した例は一例であり、いずれの開口部104が口径食の陰と重なるかは、これらの条件に依存する。   The degree of influence of vignetting is determined in addition to the position of the partial region set in the pupil of the photographing lens 20, the properties of the photographing lens 20 used such as the lens barrel shape and focal length, and the aperture value. It depends on the shooting conditions. Therefore, the example shown in FIG. 6 is an example, and which opening 104 overlaps the shadow of vignetting depends on these conditions.

しかし、一般的に、繰り返しパターン110に含まれる視差画素の開口部104のうち、瞳の周辺領域に設定された部分領域を見込む、偏位量が大きい開口部104ほど口径食の陰と重なる可能性が高いと言える。また、繰り返しパターン110が撮像素子100の受光面に対して周辺部に配列されるほど、口径食の陰と重なる開口部104を有する視差画素の数が増える傾向にあると言える。なお、このとき、撮像素子100の中心部の領域と周辺部の領域とを結ぶ方向は、開口部104の偏位方向(図においてはX軸方向)と平行である。すなわち、生成される複数の視差画像データが視差を与える方向と平行である。また、開口部104がどのように口径食の影響を受けるかにより撮像素子100の受光面を複数の領域に分割するのであれば、図6で示したように、開口部104の偏位方向に直交する方向で分割し得る。   However, in general, among the apertures 104 of the parallax pixels included in the repetitive pattern 110, the aperture 104 with a larger deviation amount that anticipates a partial region set in the peripheral region of the pupil can overlap with the shadow of vignetting. It can be said that the nature is high. Moreover, it can be said that the number of parallax pixels having the opening 104 overlapping the shadow of vignetting tends to increase as the repeated pattern 110 is arranged in the peripheral portion with respect to the light receiving surface of the image sensor 100. At this time, the direction connecting the central region and the peripheral region of the image sensor 100 is parallel to the displacement direction of the opening 104 (X-axis direction in the drawing). That is, the plurality of generated parallax image data are parallel to the direction in which the parallax is given. Further, if the light receiving surface of the image sensor 100 is divided into a plurality of regions depending on how the aperture 104 is affected by vignetting, as shown in FIG. It is possible to divide in the orthogonal direction.

図7は、視差画像を生成する処理を説明する概念図である。図は、左列から順に、開口部104fに対応する視差画素の出力を集めて生成される視差画像データIm_fの生成の様子、開口部104eの出力による視差画像データIm_eの生成の様子、開口部104dの出力による視差画像データIm_dの生成の様子、開口部104cの出力による視差画像データIm_cの生成の様子、開口部104bの出力による視差画像データIm_bの生成の様子、開口部104aの出力による視差画像データIm_aの生成の様子を表す。まず開口部104fの出力による視差画像データIm_fの生成の様子について説明する。   FIG. 7 is a conceptual diagram illustrating processing for generating a parallax image. The figure shows, in order from the left column, the generation of the parallax image data Im_f generated by collecting the outputs of the parallax pixels corresponding to the opening 104f, the generation of the parallax image data Im_e by the output of the opening 104e, the opening State of generation of parallax image data Im_d by output of 104d, state of generation of parallax image data Im_c by output of opening 104c, state of generation of parallax image data Im_b by output of opening 104b, parallax by output of opening 104a This represents how the image data Im_a is generated. First, how the parallax image data Im_f is generated by the output of the opening 104f will be described.

6つの視差画素を一組とする光電変換素子群から成る繰り返しパターン110は、横一列に配列されている。したがって、開口部104fを有する視差画素は、撮像素子100上において、左右方向に6画素おき、かつ、上下方向に連続して存在する。これら各画素は、上述のようにそれぞれ異なる微小領域からの被写体光束を受光している。したがって、これらの視差画素の出力を寄せ集めて配列すると、視差画像が得られる。   A repeating pattern 110 composed of a group of photoelectric conversion elements each including six parallax pixels is arranged in a horizontal row. Accordingly, the parallax pixels having the opening 104f exist every six pixels in the left-right direction and continuously in the vertical direction on the image sensor 100. Each of these pixels receives the subject luminous flux from different microregions as described above. Therefore, when the outputs of these parallax pixels are collected and arranged, a parallax image is obtained.

しかし、本実施形態における撮像素子100の各画素は正方画素であるので、単に寄せ集めただけでは、横方向の画素数が1/6に間引かれた結果となり、縦長の画像データが生成されてしまう。そこで、補間処理を施して横方向に6倍の画素数とすることにより、本来のアスペクト比の画像として視差画像データIm_fを生成する。ただし、そもそも補間処理前の視差画像データが横方向に1/6に間引かれた画像であるので、横方向の解像度は、縦方向の解像度よりも低下している。つまり、生成される視差画像データの数と、解像度の向上は相反関係にあると言える。   However, since each pixel of the image sensor 100 according to the present embodiment is a square pixel, simply gathering results in the result that the number of pixels in the horizontal direction is reduced to 1/6, and vertically long image data is generated. End up. Therefore, by performing an interpolation process to obtain the number of pixels 6 times in the horizontal direction, the parallax image data Im_f is generated as an image with an original aspect ratio. However, since the parallax image data before the interpolation processing is an image that is thinned by 1/6 in the horizontal direction, the resolution in the horizontal direction is lower than the resolution in the vertical direction. That is, it can be said that the number of generated parallax image data and the improvement in resolution are in a conflicting relationship.

ここで、開口部104fは、図6で示したように、領域Cおよび領域Bに存在する場合に口径食の陰と重なるので、これらの開口部104fを有する視差画素は、被写体像に対応する画像信号を出力し得ない。つまり、生成される視差画像データIm_fは、撮像素子100の領域A、Bおよび領域Cに対応する画像領域には撮影したシーンに対応する被写体像が現れるものの、領域Cおよび領域Bに対応する画像領域は黒潰れとなる。そこで、下段の太枠で示すように、撮像素子100の領域A、領域Bおよび領域Cに対応する、被写体像が現れる画像領域を有効画像領域と定める。有効画像領域は、全画像領域に含まれる領域として座標値で定義され、視差画像データIm_fの付帯情報として記録される。あるいは、黒潰れとなった領域を切り落とし、定められた有効画像領域を残すクロップ処理を施して視差画像データIm_fを再構築しても良い。この場合は、クロップ処理前の画像領域に対する中心座標値を付帯情報として記録しておくと良い。 Here, as shown in FIG. 6, the opening 104f overlaps the shadow of vignetting when it exists in the region CL and the region BL , so that the parallax pixels having these openings 104f are included in the subject image. The corresponding image signal cannot be output. That is, the parallax image data Im_f to be produced, the area A of the imaging device 100, although the image area corresponding to the B R and region C R appearing object image corresponding to the photographed scene, region C L and the region B L The image area corresponding to is blacked out. Therefore, as shown in the lower of the thick frame, region A of the imaging element 100, corresponding to the region B R and the region C R, defined as the effective image region image region subject image appears. The effective image area is defined as a coordinate value as an area included in the entire image area, and is recorded as incidental information of the parallax image data Im_f. Alternatively, it is possible to reconstruct the parallax image data Im_f by cropping the blackened area and applying a crop process that leaves a defined effective image area. In this case, it is preferable to record the center coordinate value for the image area before the crop processing as supplementary information.

次に開口部104eの出力による視差画像データIm_eの生成の様子について説明する。開口部104eを有する視差画素の出力を寄せ集めて配列し、横方向に6倍の補間処理を施して視差画像データIm_eを生成するまでは、視差画像データIm_fを生成する処理と同様である。   Next, how the parallax image data Im_e is generated by the output of the opening 104e will be described. The process is similar to the process of generating the parallax image data Im_f until the outputs of the parallax pixels having the opening 104e are gathered and arranged and the parallax image data Im_e is generated by performing the interpolation process 6 times in the horizontal direction.

ここで、開口部104eは、図6で示したように、領域Cに存在する場合に口径食の陰と重なるので、この開口部104eを有する視差画素は、被写体像に対応する画像信号を出力し得ない。つまり、生成される視差画像データIm_eは、撮像素子100の領域B、領域A、領域Bおよび領域Cに対応する画像領域には撮影したシーンに対応する被写体像が現れるものの、領域Cに対応する画像領域は黒潰れとなる。そこで、下段の太枠で示すように、撮像素子100の領域B、領域A、領域Bおよび領域Cに対応する、被写体像が現れる画像領域を有効画像領域と定める。 Here, the openings 104e, as shown in FIG. 6, the overlap with the shade of vignetting when present in area C L, parallax pixels having the opening 104e is an image signal corresponding to the subject image Cannot output. That is, the parallax image data Im_e to be generated region B L of the imaging element 100, the area A, although the subject image corresponding to a captured scene appears in the image area corresponding to the area B R and the region C R, region C The image area corresponding to L is blacked out. Therefore, as shown in the lower of the thick frame, region B L of the imaging element 100, the area A, corresponding to the region B R and the region C R, defined as the effective image region image region subject image appears.

次に開口部104dの出力による視差画像データIm_dの生成の様子について説明する。開口部104dを有する視差画素の出力を寄せ集めて配列し、横方向に6倍の補間処理を施して視差画像データIm_dを生成するまでは、視差画像データIm_fを生成する処理と同様である。また、開口部104dは、撮像素子100上のいずれの領域に存在したとしても口径食の陰とは重ならない。したがって、被写体像が現れる全画像領域を有効画像領域と定める。   Next, how the parallax image data Im_d is generated by the output of the opening 104d will be described. The process is similar to the process of generating the parallax image data Im_f until the outputs of the parallax pixels having the opening 104d are gathered and arranged and subjected to the interpolation process 6 times in the horizontal direction to generate the parallax image data Im_d. Further, the opening 104d does not overlap with the shadow of vignetting in any region on the image sensor 100. Therefore, the entire image area where the subject image appears is defined as the effective image area.

次に開口部104cの出力による視差画像データIm_cの生成の様子について説明する。開口部104cを有する視差画素の出力を寄せ集めて配列し、横方向に6倍の補間処理を施して視差画像データIm_cを生成するまでは、視差画像データIm_fを生成する処理と同様である。また、開口部104cは、撮像素子100上のいずれの領域に存在したとしても口径食の陰とは重ならない。したがって、被写体像が現れる全画像領域を有効画像領域と定める。   Next, how the parallax image data Im_c is generated by the output of the opening 104c will be described. The process is similar to the process of generating the parallax image data Im_f until the outputs of the parallax pixels having the openings 104c are gathered and arranged and subjected to the interpolation process 6 times in the horizontal direction to generate the parallax image data Im_c. Further, the opening 104c does not overlap with the shadow of vignetting in any region on the image sensor 100. Therefore, the entire image area where the subject image appears is defined as the effective image area.

次に開口部104bの出力による視差画像データIm_bの生成の様子について説明する。開口部104bを有する視差画素の出力を寄せ集めて配列し、横方向に6倍の補間処理を施して視差画像データIm_bを生成するまでは、視差画像データIm_fを生成する処理と同様である。   Next, how the parallax image data Im_b is generated by the output of the opening 104b will be described. The process is similar to the process of generating the parallax image data Im_f until the outputs of the parallax pixels having the openings 104b are collected and arranged and subjected to the interpolation process 6 times in the horizontal direction to generate the parallax image data Im_b.

ここで、開口部104bは、図6で示したように、領域Cに存在する場合に口径食の陰と重なるので、この開口部104bを有する視差画素は、被写体像に対応する画像信号を出力し得ない。つまり、生成される視差画像データIm_bは、撮像素子100の領域C、領域B、領域Aおよび領域Bに対応する画像領域には撮影したシーンに対応する被写体像が現れるものの、領域Cに対応する画像領域は黒潰れとなる。そこで、下段の太枠で示すように、撮像素子100の領域C、領域B、領域Aおよび領域Bに対応する、被写体像が現れる画像領域を有効画像領域と定める。 Here, the opening 104b, as shown in FIG. 6, the overlap with the shade of vignetting when present in the region C R, parallax pixels having the opening 104b is an image signal corresponding to the subject image Cannot output. That is, the parallax image data Im_b to be generated region C L of the image pickup device 100, region B L, although the object image corresponding to the photographic scene appears in the image area corresponding to the regions A and B R, region C The image area corresponding to R is blacked out. Therefore, as shown in the lower of the thick frame, region C L of the image pickup device 100, region B L, corresponding to the regions A and B R, defined as the effective image region image region subject image appears.

次に開口部104aの出力による視差画像データIm_aの生成の様子について説明する。開口部104aを有する視差画素の出力を寄せ集めて配列し、横方向に6倍の補間処理を施して視差画像データIm_aを生成するまでは、視差画像データIm_fを生成する処理と同様である。   Next, how the parallax image data Im_a is generated by the output of the opening 104a will be described. The process is similar to the process of generating the parallax image data Im_f until the outputs of the parallax pixels having the openings 104a are gathered and arranged and the parallax image data Im_a is generated by performing the interpolation process 6 times in the horizontal direction.

ここで、開口部104aは、図6で示したように、領域Bおよび領域Cに存在する場合に口径食の陰と重なるので、これらの開口部104aを有する視差画素は、被写体像に対応する画像信号を出力し得ない。つまり、生成される視差画像データIm_aは、撮像素子100の領域C、領域Bおよび領域Aに対応する画像領域には撮影したシーンに対応する被写体像が現れるものの、領域Bおよび領域Cに対応する画像領域は黒潰れとなる。そこで、下段の太枠で示すように、撮像素子100の領域C、領域Bおよび領域Aに対応する、被写体像が現れる画像領域を有効画像領域と定める。 Here, the openings 104a, as shown in FIG. 6, the overlap with the shade of vignetting when present in area B R and the region C R, the parallax pixels having these openings 104a, the object image The corresponding image signal cannot be output. That is, the parallax image data Im_a to be generated region C L of the imaging device 100, although the subject image corresponding to a captured scene appears in the image area corresponding to the region B L and area A, area B R and the region C The image area corresponding to R is blacked out. Therefore, as shown by the lower thick frame, the image area where the subject image appears corresponding to the area C L , the area B L, and the area A of the image sensor 100 is determined as an effective image area.

以上のように、画像処理部205による画像処理により、横方向に視差を与える6つの視差画像データを生成することができる。上述の通り、それぞれの視差画像は、出力を寄せ集めた視差画素の撮像素子100上の配列に起因して、互いに画角が異なり得る。したがって、これらの視差画像データを3D表示装置で再生する場合、観察者は、被写体の中心付近で6視点の3D画像として視認し、その両側付近で4視点、さらに周辺部で2視点の3D画像として視認する。   As described above, by the image processing by the image processing unit 205, it is possible to generate six pieces of parallax image data that give parallax in the horizontal direction. As described above, the respective parallax images may have different angles of view due to the arrangement of the parallax pixels on which the outputs are gathered on the image sensor 100. Therefore, when reproducing these parallax image data on a 3D display device, an observer visually recognizes a 3D image with 6 viewpoints near the center of the subject, 4 viewpoints near both sides, and a 2D 3D image at the periphery. As visually recognized.

なお、3D表示装置は、それぞれの視差画像データに付帯情報として記録されている有効画像領域の情報を参照して、各々の視差画像を表示する。具体的には、3D表示装置は、有効画像領域の情報として含まれる座標情報を読み出して、視差画像間の相対的な位置合わせを行う。また、有効画像領域以外の領域を、例えば透明色として扱う、あるいは、他の視差画像により補間するなどの画像処理を施すこともできる。有効画像領域以外の領域が切り落とされている場合は、付帯情報として記録されている中心座標値により、視差画像間の相対的な位置合わせを行うことができる。また、切り落とされた領域に対しては、同様に透明化、補間処理などを行っても良い。   Note that the 3D display device displays each parallax image with reference to information on the effective image area recorded as supplementary information in each parallax image data. Specifically, the 3D display device reads coordinate information included as information on the effective image area, and performs relative alignment between parallax images. It is also possible to perform image processing such as handling an area other than the effective image area as, for example, a transparent color or interpolating with another parallax image. When an area other than the effective image area is cut off, relative alignment between parallax images can be performed based on the central coordinate value recorded as supplementary information. In addition, the cut-off area may be subjected to transparency and interpolation processing in the same manner.

上述の例では、横一列を繰り返しパターン110として周期的に配列される例を説明したが、繰り返しパターン110はこれに限らない。図8は、繰り返しパターン110の他の例を示す図である。   In the above-described example, the example in which one horizontal row is periodically arranged as the repeating pattern 110 has been described, but the repeating pattern 110 is not limited to this. FIG. 8 is a diagram illustrating another example of the repeated pattern 110.

図8(a)は、縦6画素を繰り返しパターン110とした例である。ただし、それぞれの開口部104は、紙面上端の視差画素から下に向かって、紙面左側から右側へ徐々にシフトするように位置が定められている。このように配列された繰り返しパターン110によっても、横方向に視差を与える6視点の視差画像を生成することができる。この場合は、図3の繰り返しパターン110に比較すると、縦方向の解像度を犠牲にする代わりに横方向の解像度を維持する繰り返しパターンであると言える。   FIG. 8A shows an example in which a vertical pattern of six pixels is used as a repeating pattern 110. However, the positions of the respective openings 104 are determined so as to gradually shift from the left side to the right side of the drawing from the parallax pixel at the top of the drawing to the bottom. Also with the repeated pattern 110 arranged in this way, it is possible to generate a six-view parallax image that gives parallax in the horizontal direction. In this case, compared to the repetitive pattern 110 in FIG. 3, it can be said that the repetitive pattern maintains the horizontal resolution instead of sacrificing the vertical resolution.

図8(b)は、斜め方向に隣接する6画素を繰り返しパターン110とした例である。それぞれの開口部104は、紙面左上端の視差画素から右下に向かって、紙面左側から右側へ徐々にシフトするように位置が定められている。このように配列された繰り返しパターン110によっても、横方向に視差を与える6視点の視差画像を生成することができる。この場合は、図3の繰り返しパターン110に比較すると、縦方向の解像度および横方向の解像度をある程度維持しつつ、視差画像の数を増やす繰り返しパターンであると言える。   FIG. 8B shows an example in which six pixels adjacent in the oblique direction are used as the repeated pattern 110. The positions of the openings 104 are determined so as to gradually shift from the left side to the right side of the drawing from the parallax pixel at the upper left corner of the drawing toward the lower right. Also with the repeated pattern 110 arranged in this way, it is possible to generate a six-view parallax image that gives parallax in the horizontal direction. In this case, compared to the repetitive pattern 110 in FIG. 3, it can be said that the repetitive pattern increases the number of parallax images while maintaining the vertical resolution and the horizontal resolution to some extent.

図3の繰り返しパターン110、および図6(a)(b)の繰り返しパターン110をそれぞれ比較すると、いずれも6視点の視差画像を生成する場合において、視差画像でない全体から一枚の画像を出力する場合の解像度に対し、縦方向、横方向のいずれの方向の解像度を犠牲にするかの違いであると言える。図3の繰り返しパターン110の場合は、横方向の解像度を1/6とする構成である。図6(a)の繰り返しパターン110の場合は、縦方向の解像度を1/6とする構成である。また、図6(b)の繰り返しパターン110の場合は、縦方向を1/3、横方向を1/2とする構成である。いずれの場合も、一つのパターン内には、各画素に対応して開口部104a〜104fが一つずつ設けられており、それぞれが対応する部分領域Pa〜Pfのいずれかから被写体光束を受光するように構成されている。したがって、いずれの繰り返しパターン110であっても視差量は同等である。   When the repeating pattern 110 in FIG. 3 and the repeating pattern 110 in FIGS. 6A and 6B are respectively compared, when generating parallax images with six viewpoints, a single image is output from the whole that is not a parallax image. It can be said that this is the difference between sacrificing the resolution in the vertical direction and the horizontal direction with respect to the resolution in the case. In the case of the repetitive pattern 110 in FIG. 3, the horizontal resolution is set to 1/6. In the case of the repetitive pattern 110 in FIG. 6A, the vertical resolution is 1/6. 6B has a configuration in which the vertical direction is 1/3 and the horizontal direction is 1/2. In any case, one opening 104a to 104f is provided corresponding to each pixel in one pattern, and the subject luminous flux is received from one of the corresponding partial areas Pa to Pf. It is configured as follows. Accordingly, the parallax amount is the same for any of the repeated patterns 110.

また、図6(a)(b)の繰り返しパターン110における口径食が視差画素に与える影響は、図3の繰り返しパターン110と同様である。したがって、図7で説明した各処理を施せば、同様に有効画像領域が定められた6つの視差画像データを生成することができる。   Further, the influence of vignetting on the parallax pixels in the repetitive pattern 110 of FIGS. 6A and 6B is the same as that of the repetitive pattern 110 of FIG. Therefore, by performing each process described with reference to FIG. 7, it is possible to generate six pieces of parallax image data in which effective image areas are similarly defined.

上述の例では、左右方向に視差を与える視差画像を生成する場合について説明したが、もちろん上下方向に視差を与える視差画像を生成することもできる。図9は、上下方向に視差を与える縦視差画像を出力する撮像素子100の各領域における繰り返しパターン110が口径食の影響を受ける様子を説明する説明図である。図9は、図3と同様に表した図である。撮像素子100の全体は、紙面上側から下側へ徐々にシフトする開口部104a〜104fをそれぞれ有する6つの視差画素を一組の繰り返しパターン110とする光電変換素子群が、二次元的かつ周期的に配列されている。   In the example described above, the case of generating a parallax image that gives a parallax in the left-right direction has been described. Of course, a parallax image that gives a parallax in the vertical direction can also be generated. FIG. 9 is an explanatory diagram for explaining how the repetitive pattern 110 in each region of the image sensor 100 that outputs a vertical parallax image that gives parallax in the vertical direction is affected by vignetting. FIG. 9 is a view similar to FIG. The entire image sensor 100 is a two-dimensional and periodic photoelectric conversion element group in which a set of six parallax pixels each having openings 104a to 104f that gradually shift from the upper side to the lower side of the drawing sheet as a set of repetitive patterns 110. Is arranged.

開口部104がどのように口径食の影響を受けるかにより、撮像素子100の受光面は、横ストライプ状に例えば3つの領域に分割される。中心部を含む横ストライプ状の領域Aに配列されている繰り返しパターン110tにおいては、開口部104a〜104fをそれぞれ有する6つの視差画素のいずれもが、部分的にも口径食の陰になることは無い。   Depending on how the opening 104 is affected by vignetting, the light receiving surface of the image sensor 100 is divided into, for example, three regions in a horizontal stripe shape. In the repetitive pattern 110t arranged in the horizontal stripe-shaped region A including the center, any of the six parallax pixels respectively having the openings 104a to 104f is partially shaded by vignetting. No.

領域Aの上側(Y軸プラス側)に隣接する領域Bに配列されている繰り返しパターン110uにおいては、口径食の陰を網点で表すように、6つの視差画素のそれぞれ一部が口径食の陰になる。このとき、開口部104aは、口径食の陰と重なる。つまり、開口部104aに対応する光電変換素子108には、被写体光束が届かない。他方、開口部104b〜104fは、口径食の陰とは重ならず、それぞれに対応する光電変換素子108は、各部分領域からの被写体光束を受光する。 In repeating pattern 110 u U that are arranged in the region B U adjacent to the upper region A (Y-axis positive side), the shadow of vignetting as represented by dots, some respective diameter of six parallax pixels Be the shade of food. At this time, the opening 104a overlaps the shadow of vignetting. That is, the subject luminous flux does not reach the photoelectric conversion element 108 corresponding to the opening 104a. On the other hand, the openings 104b to 104f do not overlap with the shadow of vignetting, and the corresponding photoelectric conversion elements 108 receive the subject light flux from each partial region.

領域Aの下側(Y軸マイナス側)に隣接する領域Bにおける現象は、領域Bでの現象に対して上下対称となる。すなわち、領域Bに配列されている繰り返しパターン110uにおいては、開口部104fが、口径食の陰と重なる。つまり、開口部104fに対応する光電変換素子108には、被写体光束が届かない。他方、開口部104a〜104eは、口径食の陰とは重ならず、それぞれに対応する光電変換素子108は、各部分領域からの被写体光束を受光する。 Phenomena in the region B D adjacent to the lower side (Y-axis negative side) of the region A is vertically symmetrical with respect to a phenomenon in the area B U. That is, in the repeating pattern 110 u D which are arranged in the area B D, opening 104f overlaps a shadow of vignetting. That is, the subject luminous flux does not reach the photoelectric conversion element 108 corresponding to the opening 104f. On the other hand, the openings 104a to 104e do not overlap with the shadow of vignetting, and the corresponding photoelectric conversion elements 108 receive the subject light flux from each partial region.

このような撮像素子100において、開口部104a〜104fに対応する視差画素の出力をそれぞれ寄せ集めて図7の処理と同様の処理を施すと、互いに縦方向に視差を与える視差画像データIm_a〜Im_fを生成することができる。ただし、開口部104aが領域Bに存在する場合に口径食の陰と重なるので、これらの開口部104aを有する視差画素は、被写体像に対応する画像信号を出力し得ない。つまり、生成される視差画像データIm_aは、撮像素子100の領域AおよびBに対応する画像領域には撮影したシーンに対応する被写体像が現れるものの、領域Bに対応する画像領域は黒潰れとなる。したがって、視差画像データIm_aについては、撮像素子100の領域Aおよび領域Bに対応する、被写体像が現れる画像領域を有効画像領域と定める。 In such an image sensor 100, when the outputs of the parallax pixels corresponding to the openings 104a to 104f are gathered and the same processing as the processing of FIG. Can be generated. However, since the opening portion 104a overlaps with the shade of vignetting when present in area B U, parallax pixels having these openings 104a may not output the image signal corresponding to the subject image. That is, the parallax image data Im_a to be generated, although the subject image corresponding to a captured scene appears in the image area corresponding to the regions A and B D of the image pickup device 100, an image region corresponding to the region B U is black crushing It becomes. Thus, the parallax image data Im_a, corresponding to the areas A and B D of the image pickup element 100, defining an effective image area of the image area the object image appears.

同様に、開口部104fが領域Bに存在する場合に口径食の陰と重なるので、これらの開口部104fを有する視差画素は、被写体像に対応する画像信号を出力し得ない。つまり、生成される視差画像データIm_fは、撮像素子100の領域AおよびBに対応する画像領域には撮影したシーンに対応する被写体像が現れるものの、領域Bに対応する画像領域は黒潰れとなる。したがって、視差画像データIm_fについては、撮像素子100の領域Aおよび領域Bに対応する、被写体像が現れる画像領域を有効画像領域と定める。開口部104b〜104eについては口径食の陰と重なることが無いので、これらの画像信号から生成される視差画像データIm_b〜Im_eについては、被写体像が現れる全画像領域を有効画像領域と定める。 Similarly, when the opening 104f is present in the region BD , it overlaps with the shadow of vignetting, so that the parallax pixel having these openings 104f cannot output an image signal corresponding to the subject image. That is, the parallax image data Im_f to be generated, although the subject image corresponding to a captured scene appears in the image area corresponding to the regions A and B U of the image pickup device 100, an image region corresponding to the region B D are black crushing It becomes. Thus, the parallax image data Im_f, corresponding to the areas A and B U of the image pickup element 100, defining an effective image area of the image area the object image appears. Since the openings 104b to 104e do not overlap with the shadow of vignetting, for the parallax image data Im_b to Im_e generated from these image signals, the entire image area where the subject image appears is determined as the effective image area.

上述のように、口径食の影響をどの程度受けるかは、撮影レンズ20の瞳において設定された部分領域の位置等に加え、鏡筒形状、焦点距離など使用される撮影レンズ20の性質、更には、絞り値など撮影条件によっても異なる。そこで、デジタルカメラ10は、システムメモリ221に、装着され得る撮影レンズ20ごとに絞り値と有効画像領域を対応付ける有効画像領域設定テーブルを保持している。図10は、デジタルカメラ10が図3および図6を用いて説明した撮像素子100を備える場合の、有効画像領域設定テーブルを説明する概念図である。   As described above, the degree of influence of vignetting depends on the properties of the photographic lens 20 used, such as the lens barrel shape and focal length, in addition to the position of the partial region set in the pupil of the photographic lens 20, and the like. Varies depending on shooting conditions such as aperture value. Therefore, the digital camera 10 holds in the system memory 221 an effective image area setting table that associates an aperture value and an effective image area for each photographic lens 20 that can be mounted. FIG. 10 is a conceptual diagram illustrating an effective image area setting table when the digital camera 10 includes the image sensor 100 described with reference to FIGS. 3 and 6.

図は、例として焦点距離が50mmであって、設定可能な絞り値の範囲がf1.8〜f22.0の撮影レンズ20についての有効画像領域設定テーブルの概念を表す。口径食の影響は、撮影時の絞り値が開放絞り値に近づくほど大きくなり、逆に、絞り値が大きくなるほど小さくなる。   The figure shows a concept of an effective image area setting table for the photographing lens 20 having a focal length of 50 mm as an example and a settable aperture value range of f1.8 to f22.0. The effect of vignetting increases as the aperture value at the time of shooting approaches the open aperture value, and conversely decreases as the aperture value increases.

図は、例えば撮影時の絞り値がf4.0未満である場合に、視差画像データIm_fの有効画像領域が、撮像素子100の領域A、領域Bおよび領域Cに対応する画像領域であることを示す。そして、視差画像データIm_eの有効画像領域が、撮像素子100の領域B、領域A、領域Bおよび領域Cに対応する画像領域であり、視差画像データIm_dおよびIm_cの有効画像領域が、撮像素子100の全領域に対応する画像領域であり、視差画像データIm_bの有効画像領域が、撮像素子100の領域C、領域B、領域Aおよび領域Bに対応する画像領域であり、視差画像データIm_aの有効画像領域が、撮像素子100の領域C、領域Bおよび領域Aに対応する画像領域であることを示す。 Figure, for example, when the aperture value at the time of photographing is less than f4.0, the effective image area of the parallax image data Im_f is, is an image region corresponding to the region A, region B R and the region C R of the imaging device 100 It shows that. The effective image area of the parallax image data Im_e is, regions B L of the imaging element 100, the area A, an image area corresponding to the area B R and the region C R, the effective image area of the parallax image data Im_d and IM_C, an image area corresponding to the entire area of the image sensor 100, the effective image area of the parallax image data Im_b is, area C L, region B L of the image pickup device 100, an image area corresponding to the regions a and B R, It shows that the effective image area of the parallax image data Im_a is an image area corresponding to the area C L , the area BL, and the area A of the image sensor 100.

同様に、撮影時の絞り値がf4.0以上であってf8.0未満である場合に、視差画像データIm_fの有効画像領域が、撮像素子100の領域B、領域A、領域Bおよび領域Cに対応する画像領域であることを示す。そして、視差画像データIm_e、Im_d、Im_cおよびIm_bの有効画像領域が、撮像素子100の全領域に対応する画像領域であり、視差画像データIm_aの有効画像領域が、撮像素子100の領域C、領域B、領域Aおよび領域Bに対応する画像領域であることを示す。さらに、撮影時の絞り値がf8.0以上である場合に、全ての視差画像データの有効画像領域が、撮像素子100の全領域に対応する画像領域であることを示す。 Similarly, when the aperture value at the time of photographing is less than f8.0 be at f4.0 or more, the effective image region of the parallax image data Im_f is, regions B L of the imaging element 100, the area A, area B R and indicates that the image area corresponding to the area C R. Then, the parallax image data Im_e, Im_d, the effective image area of Im_c and Im_b is, an image region corresponding to the entire area of the image sensor 100, the effective image area of the parallax image data Im_a is, a region C L of the imaging element 100, region B L, indicating that the image regions corresponding to the regions a and B R. Further, when the aperture value at the time of shooting is f8.0 or more, it indicates that the effective image area of all the parallax image data is an image area corresponding to the entire area of the image sensor 100.

画像処理部205は、装着された撮影レンズ20の情報を取得し、これに対応する有効画像領域設定テーブルをシステムメモリ211から読み出す。そして、撮影時に設定されていた撮影条件としての絞り値を有効画像領域設定テーブルに適用して、生成する各々の視差画像データに対して、有効画像領域を定める。   The image processing unit 205 acquires information on the mounted photographic lens 20 and reads an effective image area setting table corresponding to the information from the system memory 211. Then, an aperture value as a shooting condition set at the time of shooting is applied to the effective image region setting table to determine an effective image region for each parallax image data to be generated.

なお、上述の例では、視差画像データの有効画像領域を視覚的に概念図で示したが、有効画像領域を撮像素子100が出力する全画像領域に対する座標値で定義すれば良い。また、上述の例では、焦点距離が50mmの単焦点レンズの場合を説明したが、例えば撮影レンズ20がズームレンズである場合、焦点距離ごとに口径食の影響が異なることに対応して、一定の焦点距離範囲ごとに有効画像領域設定テーブルを持つように構成しても良い。この場合、広角側の方が望遠側よりも口径食の影響が大きいので、広角側の焦点距離範囲を望遠側よりも狭く設定すると良い。例えば、28mm−135mmのズームレンズの場合、28mm−40mm、40mm−75mm、75mm−135mmのように焦点距離範囲を設定することができる。   In the above-described example, the effective image area of the parallax image data is visually shown in a conceptual diagram, but the effective image area may be defined by coordinate values for all image areas output by the image sensor 100. In the above example, the case of a single focal lens having a focal length of 50 mm has been described. However, for example, when the photographing lens 20 is a zoom lens, the influence of vignetting varies depending on the focal length. Alternatively, an effective image area setting table may be provided for each focal length range. In this case, since the influence of vignetting is larger on the wide angle side than on the telephoto side, it is preferable to set the focal length range on the wide angle side narrower than that on the telephoto side. For example, in the case of a 28 mm-135 mm zoom lens, the focal length range can be set to 28 mm-40 mm, 40 mm-75 mm, 75 mm-135 mm.

次に、カラーフィルタ102と視差画像について説明する。図11は、カラーフィルタ配列を説明する図である。図示するカラーフィルタ配列は、いわゆるベイヤー配列の4画素のうち右下画素を緑フィルタが割り当てられるG画素として維持する一方、左上画素をカラーフィルタが割り当てられないW画素に変更した配列である。右上画素に青色フィルタを割り当ててB画素とし、左下画素に赤色フィルタを割り当ててR画素とする配列は、ベイヤー配列と同様である。なお、W画素は、上述のように、可視光のおよそ全ての波長帯域を透過させるように、着色を施さない透明フィルタが配列されていても良い。   Next, the color filter 102 and the parallax image will be described. FIG. 11 is a diagram for explaining a color filter array. The color filter array shown in the figure is an array in which the lower right pixel among the four pixels in the so-called Bayer array is maintained as a G pixel to which a green filter is assigned, while the upper left pixel is changed to a W pixel to which no color filter is assigned. An array in which a blue filter is assigned to the upper right pixel to be a B pixel and a red filter is assigned to the lower left pixel to be an R pixel is the same as the Bayer array. Note that, as described above, the W pixel may be arranged with a transparent filter that is not colored so as to transmit substantially all the wavelength band of visible light.

ベイヤー配列および図11のようなカラーフィルタ配列など、いずれのカラーフィルタ配列を採用するにしても、視差画素と視差なし画素を、何色の画素にどのような周期で割り振っていくかにより、膨大な数の組み合わせパターンが設定され得る。視差なし画素の出力を集めれば、通常の撮影画像と同じく視差のない撮影画像データを生成することができる。したがって、相対的に視差なし画素の割合を増やせば、解像度の高い2D画像を出力させることができる。この場合、視差画素は相対的に少ない割合となるので、複数の視差画像からなる3D画像としては画質が低下する。逆に、視差画素の割合を増やせば、3D画像としては画質が向上するが、視差なし画素は相対的に減少するので、解像度の低い2D画像が出力される。   Regardless of which color filter array such as the Bayer array and the color filter array as shown in FIG. 11 is adopted, the number of pixels varies depending on how many pixels the parallax pixels and non-parallax pixels are allocated in what cycle. Any number of combination patterns can be set. If the outputs of pixels without parallax are collected, photographic image data having no parallax can be generated in the same way as normal photographic images. Therefore, if the ratio of pixels without parallax is relatively increased, a 2D image with high resolution can be output. In this case, since the number of parallax pixels is relatively small, the image quality is degraded as a 3D image including a plurality of parallax images. Conversely, if the ratio of the parallax pixels is increased, the image quality is improved as a 3D image, but the non-parallax pixels are relatively reduced, so that a 2D image with low resolution is output.

このようなトレードオフの関係において、何れの画素を視差画素とするか、あるいは視差なし画素とするかにより、様々な特徴を有する組み合わせパターンが設定される。例えば、視差なし画素が多く割り振られていれば高解像度の2D画像データとなり、RGBのいずれの画素に対しても均等に割り振られていれば、色ずれの少ない高画質の2D画像データとなる。視差画素の出力も利用して2D画像データを生成する場合、ずれた被写体像を周辺画素の出力を参照して補正する。したがって、例えば全部のR画素が視差画素であったとしても2D画像を生成することはできるものの、その画質は自ずと低下する。   In such a trade-off relationship, a combination pattern having various characteristics is set depending on which pixel is a parallax pixel or a non-parallax pixel. For example, if many non-parallax pixels are allocated, high-resolution 2D image data is obtained, and if all pixels of RGB are equally allocated, high-quality 2D image data with little color shift is obtained. When 2D image data is generated using the output of the parallax pixels, the shifted subject image is corrected with reference to the output of the peripheral pixels. Therefore, for example, even if all R pixels are parallax pixels, a 2D image can be generated, but the image quality is naturally lowered.

一方、視差画素が多く割り振られていれば高解像度の3D画像データとなり、RGBのいずれの画素に対しても均等に割り振られていれば、3D画像でありながら、色再現性の良い高品質のカラー画像データとなる。視差なし画素の出力も利用して3D画像データを生成する場合、視差のない被写体像から周辺の視差画素の出力を参照してずれた被写体像を生成する。したがって、例えば全部のR画素が視差なし画素であったとしてもカラーの3D画像を生成することはできるものの、やはりその品質は低下する。   On the other hand, if a large number of parallax pixels are allocated, high-resolution 3D image data is obtained, and if all the RGB pixels are allocated equally, a high-quality image with good color reproducibility can be obtained while being a 3D image. Color image data. When 3D image data is generated using the output of pixels without parallax, a subject image shifted from a subject image without parallax is generated with reference to the output of peripheral parallax pixels. Therefore, for example, even if all the R pixels are non-parallax pixels, a color 3D image can be generated, but the quality is still deteriorated.

また、W画素を含むカラーフィルタ配列を採用すれば、撮像素子が出力するカラー情報の精度は若干低下するものの、W画素が受光する光量はカラーフィルタが設けられている場合に比較して多いので、精度の高い輝度情報を取得できる。W画素の出力を寄せ集めれば、モノクロ画像を形成することもできる。   If a color filter array including W pixels is employed, the accuracy of color information output from the image sensor is slightly reduced, but the amount of light received by the W pixels is larger than when a color filter is provided. Highly accurate luminance information can be acquired. A monochrome image can also be formed by gathering the outputs of W pixels.

W画素を含むカラーフィルタ配列の場合、視差画素と視差なし画素の組み合わせパターンは、さらなるバリエーションが存在する。例えば、比較的暗い環境下で撮影された画像であっても、カラー画素から出力された画像に比較してW画素から出力された画像であれば、被写体像のコントラストが高い。そこで、W画素に視差画素を割り振れば、複数の視差画像間で行うマッチング処理において、精度の高い演算結果が期待できる。マッチング処理は、画像データに写り込む被写体像の距離情報を取得する処理の一環として実行される。したがって、2D画像の解像度および視差画像の画質への影響に加え、抽出される他の情報への利害得失も考慮して、視差画素と視差なし画素の組み合わせパターンが設定される。   In the case of a color filter array including W pixels, there are further variations in the combination pattern of parallax pixels and non-parallax pixels. For example, even if the image is captured in a relatively dark environment, the contrast of the subject image is higher if the image is output from the W pixel as compared to the image output from the color pixel. Therefore, if a parallax pixel is assigned to a W pixel, a highly accurate calculation result can be expected in a matching process performed between a plurality of parallax images. The matching process is executed as part of the process for acquiring the distance information of the subject image reflected in the image data. Therefore, in addition to the influence on the resolution of the 2D image and the image quality of the parallax image, the combination pattern of the parallax pixel and the non-parallax pixel is set in consideration of the interest in other extracted information.

図12は、カラーフィルタ配列と視差画素の関係を示す図である。特に、図11のカラーフィルタ配列を採用する場合の、W画素と視差画素の配列の一例を示す。図の例においては、図11のカラーフィルタ配列の4画素が左右方向に6組続く24画素を組み合わせパターンとする。組み合わせパターンを構成するそれぞれのW画素において、左端に位置するW画素から右端に位置するW画素に向かって順に、開口部104f、104e、…104aを有する視差画素を割り当てる。このような配列において撮像素子100は、視差画像をモノクロ画像として出力し、2D画像をカラー画像として出力する。   FIG. 12 is a diagram illustrating the relationship between the color filter array and the parallax pixels. In particular, an example of an array of W pixels and parallax pixels when the color filter array of FIG. 11 is employed is shown. In the example shown in the figure, 24 pixels in which 6 sets of 4 pixels in the color filter array of FIG. In each W pixel constituting the combination pattern, parallax pixels having openings 104f, 104e,... 104a are assigned in order from the W pixel located at the left end to the W pixel located at the right end. In such an arrangement, the image sensor 100 outputs a parallax image as a monochrome image and outputs a 2D image as a color image.

ここで、モノクロ画像としての視差画像の生成と、カラー画像としての2D画像の生成について説明する。   Here, generation of a parallax image as a monochrome image and generation of a 2D image as a color image will be described.

図13は、視差画像と2D画像の生成過程を示す概念図である。図示するように、開口部104fを有する視差画素の出力が、撮像素子100上の相対的な位置関係を維持しながら寄せ集められて、Im_f画像データが生成される。一つの繰り返しパターン110に含まれる開口部104fを有する視差画素は一つであるので、Im_f画像データを形成する各々の開口部104fを有する視差画素は、それぞれ異なる繰り返しパターン110から寄せ集められていると言える。すなわち、寄せ集められたそれぞれの出力は、被写体の互いに異なる微小領域から放射された光が光電変換された結果であるので、Im_f画像データは、特定の視点(f視点)から被写体を捉えた一つの視差画像データとなる。そして、この視差画素は、W画素に割り振られているので、Im_f画像データは、カラー情報を持たず、モノクロ画像として生成される。   FIG. 13 is a conceptual diagram illustrating a process of generating a parallax image and a 2D image. As shown in the drawing, the outputs of the parallax pixels having the opening 104f are gathered together while maintaining the relative positional relationship on the image sensor 100, and Im_f image data is generated. Since there is one parallax pixel having the opening 104f included in one repeating pattern 110, the parallax pixels having each opening 104f forming the Im_f image data are collected from different repeating patterns 110, respectively. It can be said. That is, each collected output is a result of photoelectric conversion of light radiated from different small areas of the subject, and thus Im_f image data is obtained by capturing a subject from a specific viewpoint (f viewpoint). It becomes one parallax image data. Since this parallax pixel is allocated to the W pixel, the Im_f image data does not have color information and is generated as a monochrome image.

同様に、開口部104e〜104aを有する視差画素の出力が、撮像素子100上の相対的な位置関係を維持しながら寄せ集められて、Im_e画像データ〜Im_a画像データが生成される。   Similarly, the outputs of the parallax pixels having the openings 104e to 104a are gathered together while maintaining the relative positional relationship on the image sensor 100, and Im_e image data to Im_a image data are generated.

また、視差なし画素の出力が、撮像素子100上の相対的な位置関係を維持しながら寄せ集められて、2D画像データが生成される。このとき、W画素は視差画素であるので、視差なし画素のみで構成されるベイヤー配列からの出力に対して、左上画素の出力に相当する出力が欠落する。そこで、例えば、この欠落した出力の値として、G画素の出力値を代入する。つまり、G画素の出力で補間処理を行う。このように、補間処理を施せば、ベイヤー配列の出力に対する画像処理を採用して2D画像データを生成することができる。   Further, the outputs of pixels without parallax are gathered together while maintaining the relative positional relationship on the image sensor 100, and 2D image data is generated. At this time, since the W pixel is a parallax pixel, an output corresponding to the output of the upper left pixel is lost with respect to the output from the Bayer array including only the pixels without parallax. Therefore, for example, the output value of the G pixel is substituted as the missing output value. That is, interpolation processing is performed with the output of the G pixel. As described above, if the interpolation process is performed, 2D image data can be generated by employing the image process for the output of the Bayer array.

なお、以上の画像処理は、画像処理部205によって実行される。画像処理部205は、制御部201を介して撮像素子100から出力される画像信号を受け取り、上述のようにそれぞれの画素の出力ごとに分配して視差画像データおよび2D画像データを生成する。   Note that the above image processing is executed by the image processing unit 205. The image processing unit 205 receives the image signal output from the image sensor 100 via the control unit 201 and distributes it for each pixel output as described above to generate parallax image data and 2D image data.

以上の実施形態においては、撮像素子100は、一組の光電変換素子群を含む繰り返しパターン110が、周期的かつ連続的に敷き詰められて構成されていると説明した。しかし、視差画素のそれぞれが被写体の離散的な微小領域を捉えて視差画像を出力すれば良いので、例えば、周期的な繰り返しパターン110の間に視差なし画素が連続していても良い。つまり、視差画素を含む繰り返しパターン110は、連続していなくても、周期的であれば視差画像を出力し得る。   In the above embodiment, it has been described that the image sensor 100 is configured such that the repeated pattern 110 including a set of photoelectric conversion element groups is periodically and continuously spread. However, since each of the parallax pixels only needs to capture a discrete minute region of the subject and output a parallax image, for example, pixels without parallax may be continuous between the periodic repeating patterns 110. That is, even if the repetitive pattern 110 including the parallax pixels is not continuous, a parallax image can be output if it is periodic.

以上の実施形態においては、図10を用いて説明したように、画像処理部205は、撮影時に設定された絞り値に従って各視差画像データの有効画像領域を定めた。すなわち、ユーザは、装着した撮影レンズ20および撮影時に設定した絞り値等の結果として、シーンにおけるどの領域にいくつの視差画像を得たのかを撮影後に知ることになる。   In the above embodiment, as described with reference to FIG. 10, the image processing unit 205 determines the effective image area of each parallax image data according to the aperture value set at the time of shooting. That is, the user knows how many parallax images have been obtained in which area in the scene as a result of the mounted photographing lens 20 and the aperture value set at the time of photographing.

例えば図10の例において、絞り値をf2.0に設定して撮影した場合、撮像素子100の領域Aに対応するシーンについては、視差画像データIm_a〜Im_fの6視差画像を得る。撮像素子100の領域Bおよび領域Bに対応するシーンについては、領域Aに対してそれぞれ視差画像データIm_f、Im_aが欠けるので、得られる視差画像数は5視差画像となる。撮像素子100の領域Cおよび領域Cに対応するシーンについては、領域Aに対してそれぞれ視差画像データIm_fとIm_e、Im_bとIm_aが欠けるので、得られる視差画像数は4視差画像となる。 For example, in the example of FIG. 10, when shooting is performed with the aperture value set to f2.0, six parallax images of parallax image data Im_a to Im_f are obtained for the scene corresponding to the area A of the image sensor 100. The scene corresponding to the region B L and the region B R of the image pickup device 100, each parallax image data Im_f the region A, since Im_a is absent, the number of parallax images obtained becomes 5 parallax images. The scene corresponding to the region C L and the area C R of the image pickup device 100, each parallax image data Im_f and Im_e the region A, since Im_b and Im_a is absent, the number of parallax images obtained is 4 parallax images.

ユーザは、シーンにおけるどの領域にいくつの視差画像が得られるのかを、撮影前に決めておきたい場合がある。ユーザのこのような希望に応えるべく、操作部208を介してユーザの希望を受け入れ、そのような視差画像数となるように、絞り値、焦点距離等を制限して撮影シーケンスを実行するようにデジタルカメラ10を構成しても良い。   The user may want to determine how many parallax images are obtained in which area in the scene before shooting. In order to respond to the user's desires, the user's wishes are accepted via the operation unit 208, and the shooting sequence is executed with the aperture value, the focal length, and the like limited so that the number of such parallax images is obtained. The digital camera 10 may be configured.

図14は、視差画像数を設定するメニュー画面の例である。ユーザは、撮影指示をデジタルカメラ10に与える前に、表示部209に視差画像数設定画面を呼び出す。そして、擬似的なシーンに対して重畳された太枠を、操作部208の十字ボタンを操作することにより左右方向に拡縮して、6視差を与えるシーン領域を決定する。決定ボタンを押すと、太枠が5視差を与える領域の大きさに切り替わり、ユーザは、同様に5視差を与える領域を決定できる。このような操作を繰り返して、ユーザは、撮影前に、シーンに対する各領域の出力視差画像数を決定することができる。   FIG. 14 is an example of a menu screen for setting the number of parallax images. The user calls the parallax image number setting screen on the display unit 209 before giving a shooting instruction to the digital camera 10. Then, the thick frame superimposed on the pseudo scene is expanded or contracted in the left-right direction by operating the cross button of the operation unit 208, and a scene area giving 6 parallaxes is determined. When the determination button is pressed, the thick frame switches to the size of the area that gives 5 parallaxes, and the user can similarly determine the area that gives 5 parallaxes. By repeating such an operation, the user can determine the number of output parallax images of each region with respect to the scene before shooting.

制御部201は、ユーザにより設定された視差画像数に対して、システムメモリ211に記憶された有効画像領域設定テーブルを参照し、これを満たす制限絞り値を決定する。例えば、図示するように、中央領域の視差画像数が6、その両隣の周辺領域の視差画像数が5と設定された場合、制御部201は、図10の有効画像領域設定テーブルを参照して、制限絞り値をf4.0以上f8.0未満と決定する。表示部209は、この制限絞り値を表示する。そして、制御部201は、撮影シーケンスを実行するにあたり、撮影制御部として、絞り値をこの範囲に制限して露出値を決定する。なお、この例において、ユーザが太枠を擬似的なシーン全体を含むように設定した場合は、制御部201は、シーンの全体が6視差となるように、図10の有効画像領域設定テーブルを参照して、制限絞り値をf8.0以上と決定する。なお、図においては、中央領域の視差画像数を最大の6としたが、この数以下であれば、視差画像数もユーザが変更できるように構成しても良い。   The control unit 201 refers to the effective image area setting table stored in the system memory 211 with respect to the number of parallax images set by the user, and determines a limiting aperture value that satisfies this. For example, as shown in the figure, when the number of parallax images in the central region is set to 6 and the number of parallax images in the neighboring regions on both sides thereof is set to 5, the control unit 201 refers to the effective image region setting table in FIG. The limiting aperture value is determined to be f4.0 or more and less than f8.0. The display unit 209 displays the limit aperture value. Then, when executing the shooting sequence, the control unit 201 determines the exposure value by limiting the aperture value to this range as the shooting control unit. In this example, when the user sets the thick frame so as to include the entire pseudo scene, the control unit 201 sets the effective image area setting table in FIG. 10 so that the entire scene has 6 parallaxes. Referring to the limit aperture value, f8.0 or more is determined. In the figure, the maximum number of parallax images in the central region is six. However, the number of parallax images may be changed by the user as long as the number is less than this number.

以上の実施形態では、例えば図6において、撮像素子100を6つの領域に分けたが、もちろんこの数に限定されるわけではない。撮像素子100をどのように領域分割するかは、繰り返しパターン110を構成する開口部104の数、撮影条件、撮影レンズ20とこれを支持する鏡筒の相対的な位置関係等に基づいて決定される。したがって、各領域の境界は、図6および図9で示したような、撮像素子の長辺あるいは短辺に平行な直線でなくてもよく、口径食に合わせた曲線であっても良い。   In the above embodiment, for example, in FIG. 6, the image sensor 100 is divided into six regions, but of course the number is not limited to this. How to divide the image sensor 100 into regions is determined based on the number of openings 104 constituting the repetitive pattern 110, imaging conditions, the relative positional relationship between the imaging lens 20 and the lens barrel that supports the imaging lens 20, and the like. The Therefore, the boundary of each area | region may not be a straight line parallel to the long side or short side of an image pick-up element as shown in FIG. 6 and FIG.

以上の実施形態においては、デジタルカメラ10が備える制御部201および制御部201が含む画像処理部205が、複数の視差画像データを取得する画像データ取得部および有効画像領域を定める領域制定部として機能する。この場合、撮像素子100は、同一シーンに対して互いに視差を有する複数の視差画像データを生成するための視差画像信号を出力可能な撮像素子として機能する。上述のデジタルカメラ10は、一つの素子として視差画像信号を出力する撮像素子100を採用したが、例えば、撮影レンズ20を通過した被写体光束を、ハーフミラー等で分割して、複数の撮像素子で受光するように構成しても良い。   In the above embodiment, the control unit 201 included in the digital camera 10 and the image processing unit 205 included in the control unit 201 function as an image data acquisition unit that acquires a plurality of parallax image data and an area establishment unit that determines an effective image area. To do. In this case, the image sensor 100 functions as an image sensor that can output parallax image signals for generating a plurality of parallax image data having parallax with respect to the same scene. The above-described digital camera 10 employs the image sensor 100 that outputs a parallax image signal as one element. However, for example, a subject light flux that has passed through the photographing lens 20 is divided by a half mirror or the like, and a plurality of image sensors are used. It may be configured to receive light.

また、以上の実施形態においては、デジタルカメラ10を画像処理装置そのものとして説明したが、システムの構成はこれに限らない。撮像装置としてのデジタルカメラ10を、口径食の影響によって黒潰れする画像領域を含む視差画像データを生成させるに留め、外部のパーソナルコンピュータなどを画像処理装置として有効画像領域の設定を行わせても良い。この場合、画像処理装置としてのパーソナルコンピュータは、画像データ取得部を介してデジタルカメラ10が生成した視差画像データを受け取り、領域制定部として機能するCPUが、付随して受け取る撮像素子100の情報等に基づいて有効画像領域を定める。   In the above embodiment, the digital camera 10 has been described as the image processing apparatus itself, but the system configuration is not limited thereto. Even if the digital camera 10 as the imaging apparatus generates parallax image data including an image area that is crushed black due to the effect of vignetting, an effective image area is set using an external personal computer or the like as an image processing apparatus. good. In this case, the personal computer as the image processing apparatus receives the parallax image data generated by the digital camera 10 via the image data acquisition unit, and the CPU 100 functioning as the area setting unit receives information about the image sensor 100 and the like accompanying thereto. The effective image area is determined based on

また、パーソナルコンピュータを画像処理装置として機能させる場合は、取得する視差画像データの生成に用いられた撮影レンズ20のレンズ情報、特に口径食に関する情報を併せてデジタルカメラ10から取得すると良い。口径食に関する情報としては、絞り値と各画素に対応する陰領域の情報でも良いし、図10を用いて説明した有効画像領域設定テーブルであっても良い。   When the personal computer is caused to function as an image processing apparatus, it is preferable to acquire from the digital camera 10 lens information of the photographing lens 20 used for generating the parallax image data to be acquired, particularly information related to vignetting. Information on vignetting may be aperture value and shadow area information corresponding to each pixel, or the effective image area setting table described with reference to FIG.

また、パーソナルコンピュータを画像処理装置として機能させる場合は、取得する視差画像データの生成時における撮影条件、特に絞り値に関する条件を併せてデジタルカメラ10から取得すると良い。パーソナルコンピュータのCPUはこれらの条件に基づいて、より正確に有効画像領域を定めることができる。なお、デジタルカメラ10がレンズ一体型の撮像装置であったり、視差画像データを取得する場合の撮影条件が固定的であったりする場合は、パーソナルコンピュータは、デジタルカメラ10から各種情報を取得しなくても良い。このような場合は、パーソナルコンピュータは、内部メモリに予めこららの情報を保持しておけば良い。   When the personal computer is caused to function as an image processing apparatus, it is preferable to acquire from the digital camera 10 the shooting conditions at the time of generating the parallax image data to be acquired, particularly conditions relating to the aperture value. The CPU of the personal computer can determine the effective image area more accurately based on these conditions. If the digital camera 10 is a lens-integrated imaging device or the shooting conditions for acquiring parallax image data are fixed, the personal computer does not acquire various information from the digital camera 10. May be. In such a case, the personal computer may hold these information in the internal memory in advance.

上記の実施形態においては、画像処理部205が、生成した視差画像データの各々に対して有効画像領域を定めた。しかし、有効画像領域を、撮像素子100から出力される視差画像信号の段階で定めることもできる。すなわち、制御部201は、撮影時の絞り値等を有効画像領域設定テーブルに当てはめ、撮像素子100が有効画像領域を形成する視差画像信号のみを出力するように、駆動部204を駆動させる。より具体的には、制御部201は、口径食の影響により黒潰れしていると予測される画像領域に対応する視差画像信号を読み飛ばす。このような構成により、複数の視差画像データのうちの少なくとも一部の視差画像データが、他の視差画像データと大きさが異なる有効画像領域を有するように、視差画像信号を出力段階で制御することができる。   In the above embodiment, the image processing unit 205 determines an effective image area for each of the generated parallax image data. However, the effective image area can be determined at the stage of the parallax image signal output from the image sensor 100. That is, the control unit 201 applies the aperture value at the time of shooting to the effective image region setting table, and drives the driving unit 204 so that the image sensor 100 outputs only the parallax image signal that forms the effective image region. More specifically, the control unit 201 skips a parallax image signal corresponding to an image region predicted to be blacked out due to the effect of vignetting. With such a configuration, the parallax image signal is controlled at the output stage so that at least some of the parallax image data has an effective image area having a size different from that of the other parallax image data. be able to.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10 デジタルカメラ、19 絞り、20 撮影レンズ、21 光軸、30、31 被写体、100 撮像素子、101 マイクロレンズ、102 カラーフィルタ、103 開口マスク、104 開口部、105 配線層、106 配線、107 開口、108 光電変換素子、109 基板、110 繰り返しパターン、120 撮像素子、121 スクリーンフィルタ、122 カラーフィルタ部、123 開口マスク部、201 制御部、202 A/D変換回路、203 メモリ、204 駆動部、205 画像処理部、206 演算部、207 メモリカードIF、208 操作部、209 表示部、210 LCD駆動回路、211 システムメモリ、220 メモリカード DESCRIPTION OF SYMBOLS 10 Digital camera, 19 Aperture, 20 Shooting lens, 21 Optical axis, 30, 31 Subject, 100 Image sensor, 101 Micro lens, 102 Color filter, 103 Aperture mask, 104 Aperture, 105 Wiring layer, 106 Wiring, 107 Aperture, 108 photoelectric conversion elements, 109 substrates, 110 repetitive patterns, 120 imaging elements, 121 screen filters, 122 color filter sections, 123 aperture mask sections, 201 control sections, 202 A / D conversion circuits, 203 memories, 204 drive sections, 205 images Processing unit, 206 arithmetic unit, 207 memory card IF, 208 operation unit, 209 display unit, 210 LCD drive circuit, 211 system memory, 220 memory card

Claims (24)

同一シーンに対して互いに視差を有する複数の視差画像データを取得する画像データ取得部と、
前記複数の視差画像データのうちの少なくとも一部の視差画像データに対して、他の視差画像データと大きさが異なる有効画像領域を定める領域制定部と
を備える画像処理装置。
An image data acquisition unit for acquiring a plurality of parallax image data having parallax with respect to the same scene;
An image processing apparatus comprising: an area establishing unit that determines an effective image area having a size different from that of other parallax image data with respect to at least some of the parallax image data.
前記領域制定部は、前記同一シーンに対応する画像領域において少なくとも一部の周辺領域を除外した領域を前記有効画像領域と定める請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area establishing unit determines an area excluding at least a part of a peripheral area in the image area corresponding to the same scene as the effective image area. 前記同一シーンに対応する画像領域の中心領域と前記周辺領域を結ぶ方向は、前記複数の視差画像データが視差を与える方向と平行である請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein a direction connecting a central area of the image area corresponding to the same scene and the peripheral area is parallel to a direction in which the plurality of parallax image data gives parallax. 前記領域制定部は、前記視差画像データの生成に用いられた撮影レンズのレンズ情報に基づいて前記有効画像領域を定める請求項1から3のいずれか1項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the area establishing unit determines the effective image area based on lens information of a photographing lens used for generating the parallax image data. 5. 前記レンズ情報は、口径食に関する情報を含む請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the lens information includes information related to vignetting. 前記画像データ取得部は、前記レンズ情報を併せて取得する請求項4または5に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the image data acquisition unit acquires the lens information together. 前記領域制定部は、前記視差画像データの生成時における撮影条件に基づいて前記有効画像領域を定める請求項1から6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area establishing unit determines the effective image area based on a shooting condition when the parallax image data is generated. 前記撮影条件は、絞り値に関する条件を含む請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the photographing condition includes a condition related to an aperture value. 前記画像データ取得部は、前記撮影条件に関する情報を併せて取得する請求項7または8に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the image data acquisition unit acquires information related to the shooting conditions. 前記領域制定部が定めた前記有効画像領域を切り出して視差画像ファイルを生成するファイル生成部を備える請求項1から9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a file generation unit that generates a parallax image file by cutting out the effective image region determined by the region establishment unit. 前記複数の視差画像データは、ひとつの撮像素子が出力する視差画像信号から生成される請求項1から10のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of parallax image data are generated from a parallax image signal output from one image sensor. 前記撮像素子は、
入射光を電気信号に光電変換する複数の光電変換素子を一組とする光電変換素子群が二次元的かつ周期的に配列され、
前記光電変換素子群を構成する前記複数の光電変換素子のそれぞれに対応して設けられた開口マスクの開口が、前記入射光の断面領域に含まれる互いに異なる部分領域からの光束を通過させるように位置づけられた請求項11に記載の画像処理装置。
The image sensor is
A group of photoelectric conversion elements each having a set of a plurality of photoelectric conversion elements that photoelectrically convert incident light into an electrical signal is arranged two-dimensionally and periodically,
An opening of an opening mask provided corresponding to each of the plurality of photoelectric conversion elements constituting the photoelectric conversion element group is configured to pass light beams from different partial areas included in a cross-sectional area of the incident light. The image processing apparatus according to claim 11, which is positioned.
同一シーンに対して互いに視差を有する複数の視差画像データを生成するための視差画像信号を出力可能な撮像素子と、
前記複数の視差画像データのうちの少なくとも一部の視差画像データが、他の視差画像データと大きさが異なる有効画像領域を有するように、前記視差画像信号の出力を制御する出力制御部と
を備える撮像装置。
An imaging device capable of outputting parallax image signals for generating a plurality of parallax image data having parallax with respect to the same scene;
An output control unit that controls the output of the parallax image signal so that at least some of the parallax image data has an effective image area having a size different from that of the other parallax image data. An imaging apparatus provided.
前記出力制御部は、前記同一シーンに対応する画像領域において少なくとも一部の周辺領域を除外した領域を前記有効画像領域と定め、前記視差画像信号の出力を制御する請求項13に記載の撮像装置。   The imaging apparatus according to claim 13, wherein the output control unit determines an area excluding at least a part of a peripheral area in the image area corresponding to the same scene as the effective image area, and controls the output of the parallax image signal. . 前記同一シーンに対応する画像領域の中心領域と前記周辺領域を結ぶ方向は、前記複数の視差画像データが視差を与える方向と平行である請求項14に記載の撮像装置。   The imaging apparatus according to claim 14, wherein a direction connecting a central area of the image area corresponding to the same scene and the peripheral area is parallel to a direction in which the plurality of parallax image data gives parallax. 前記出力制御部は、撮影レンズのレンズ情報に基づいて前記有効画像領域を定め、前記視差画像信号の出力を制御する請求項13から15のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 13 to 15, wherein the output control unit determines the effective image area based on lens information of a photographing lens and controls output of the parallax image signal. 前記レンズ情報は、口径食に関する情報を含む請求項16に記載の撮像装置。   The imaging device according to claim 16, wherein the lens information includes information related to vignetting. 前記出力制御部は、撮影条件に基づいて前記有効画像領域を定め、前記視差画像信号の出力を制御する請求項13から17のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 13 to 17, wherein the output control unit determines the effective image area based on a shooting condition and controls output of the parallax image signal. 前記撮影条件は、絞り値に関する条件を含む請求項18に記載の撮像装置。   The imaging apparatus according to claim 18, wherein the imaging condition includes a condition related to an aperture value. 前記出力制御部が定める前記有効画像領域に基づいて撮影条件を制限し、撮影動作を制御する撮影制御部を備える請求項13から17のいずれか1項に記載の撮像装置。   The imaging device according to any one of claims 13 to 17, further comprising a shooting control unit that limits shooting conditions based on the effective image area defined by the output control unit and controls a shooting operation. 前記撮影制御部は、絞り値に関する条件を制限する請求項20に記載の撮像装置。   The imaging apparatus according to claim 20, wherein the imaging control unit limits a condition related to an aperture value. 前記撮像素子は、
入射光を電気信号に光電変換する複数の光電変換素子を一組とする光電変換素子群が二次元的かつ周期的に配列され、
前記光電変換素子群を構成する前記複数の光電変換素子のそれぞれに対応して設けられた開口マスクの開口が、前記入射光の断面領域に含まれる互いに異なる部分領域からの光束を通過させるように位置づけられた請求項13から21のいずれか1項に記載の撮像装置。
The image sensor is
A group of photoelectric conversion elements each having a set of a plurality of photoelectric conversion elements that photoelectrically convert incident light into an electrical signal is arranged two-dimensionally and periodically,
An opening of an opening mask provided corresponding to each of the plurality of photoelectric conversion elements constituting the photoelectric conversion element group is configured to pass light beams from different partial areas included in a cross-sectional area of the incident light. The imaging device according to any one of claims 13 to 21, wherein the imaging device is positioned.
同一シーンに対して互いに視差を有する複数の視差画像データを取得する画像データ取得ステップと、
前記複数の視差画像データのうちの少なくとも一部の視差画像データに対して、他の視差画像データと大きさが異なる有効画像領域を定める領域制定ステップと
をコンピュータに実行させる画像処理プログラム。
An image data acquisition step of acquiring a plurality of parallax image data having parallax with respect to the same scene;
An image processing program for causing a computer to execute an area establishing step for determining an effective image area having a size different from that of other parallax image data with respect to at least a part of the plurality of parallax image data.
同一シーンに対して互いに視差を有する複数の視差画像データを生成するための視差画像信号を出力可能な撮像素子を備える撮像装置の制御プログラムであって、
前記複数の視差画像データのうちの少なくとも一部の視差画像データが、他の視差画像データと大きさが異なる有効画像領域を有するように、前記視差画像信号の出力を制御する出力制御ステップを
コンピュータに実行させる撮像装置の制御プログラム。
A control program for an imaging apparatus including an imaging element capable of outputting parallax image signals for generating a plurality of parallax image data having parallax with respect to the same scene,
An output control step for controlling the output of the parallax image signal such that at least a part of the parallax image data among the plurality of parallax image data has an effective image area having a size different from that of the other parallax image data. A control program for the imaging apparatus to be executed by the computer.
JP2011249927A 2011-11-15 2011-11-15 Image processing apparatus, imaging apparatus, image processing program, and imaging apparatus control program Active JP5874334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011249927A JP5874334B2 (en) 2011-11-15 2011-11-15 Image processing apparatus, imaging apparatus, image processing program, and imaging apparatus control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011249927A JP5874334B2 (en) 2011-11-15 2011-11-15 Image processing apparatus, imaging apparatus, image processing program, and imaging apparatus control program

Publications (2)

Publication Number Publication Date
JP2013106265A true JP2013106265A (en) 2013-05-30
JP5874334B2 JP5874334B2 (en) 2016-03-02

Family

ID=48625484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011249927A Active JP5874334B2 (en) 2011-11-15 2011-11-15 Image processing apparatus, imaging apparatus, image processing program, and imaging apparatus control program

Country Status (1)

Country Link
JP (1) JP5874334B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9787972B2 (en) 2013-09-27 2017-10-10 Panasonic Intellectual Property Management Co., Ltd. Image display device
CN112529773A (en) * 2020-12-17 2021-03-19 豪威科技(武汉)有限公司 QPD image post-processing method and QPD camera
JP2022003817A (en) * 2017-09-15 2022-01-11 株式会社ソニー・インタラクティブエンタテインメント Imaging apparatus, image generation method, and computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182317A (en) * 2010-03-03 2011-09-15 Nikon Corp Imaging apparatus
WO2013057859A1 (en) * 2011-10-21 2013-04-25 株式会社ニコン Image capture element

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182317A (en) * 2010-03-03 2011-09-15 Nikon Corp Imaging apparatus
US20120300041A1 (en) * 2010-03-03 2012-11-29 Nikon Corporation Image capturing device
WO2013057859A1 (en) * 2011-10-21 2013-04-25 株式会社ニコン Image capture element

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9787972B2 (en) 2013-09-27 2017-10-10 Panasonic Intellectual Property Management Co., Ltd. Image display device
JP2022003817A (en) * 2017-09-15 2022-01-11 株式会社ソニー・インタラクティブエンタテインメント Imaging apparatus, image generation method, and computer program
JP7170810B2 (en) 2017-09-15 2022-11-14 株式会社ソニー・インタラクティブエンタテインメント IMAGING DEVICE, IMAGE GENERATING METHOD AND COMPUTER PROGRAM
JP7393498B2 (en) 2017-09-15 2023-12-06 株式会社ソニー・インタラクティブエンタテインメント Imaging device, image generation method and computer program
CN112529773A (en) * 2020-12-17 2021-03-19 豪威科技(武汉)有限公司 QPD image post-processing method and QPD camera
CN112529773B (en) * 2020-12-17 2024-02-02 豪威科技(武汉)有限公司 QPD image post-processing method and QPD camera

Also Published As

Publication number Publication date
JP5874334B2 (en) 2016-03-02

Similar Documents

Publication Publication Date Title
JP5915537B2 (en) IMAGING ELEMENT AND IMAGING DEVICE
JP5804055B2 (en) Image processing apparatus, image processing method, and program
JP5979134B2 (en) Image processing apparatus and image processing program
WO2013114895A1 (en) Imaging device
JP5942984B2 (en) Image processing apparatus, imaging apparatus, and image processing program
WO2013057859A1 (en) Image capture element
JP5874334B2 (en) Image processing apparatus, imaging apparatus, image processing program, and imaging apparatus control program
US9414046B2 (en) Image sensor, imaging device and image processing device
JP5979137B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
JP2014060694A (en) Imaging element and imaging device
JP2013175812A (en) Image sensor and image pickup device
JP5887845B2 (en) Image processing method and image processing program
JP6476630B2 (en) Imaging device
JP5978737B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2012212975A (en) Imaging device and control program for imaging device
JP6019611B2 (en) Imaging device
JP5978735B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5991461B2 (en) Imaging apparatus and imaging program thereof
JP6051570B2 (en) Imaging device and imaging apparatus
JP2013090265A (en) Image processing apparatus and image processing program
JP2013162362A (en) Image pickup device and image pickup program
JP2013150055A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R150 Certificate of patent or registration of utility model

Ref document number: 5874334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250