JP2000236480A - Image pickup device and shading correction method - Google Patents

Image pickup device and shading correction method

Info

Publication number
JP2000236480A
JP2000236480A JP11037610A JP3761099A JP2000236480A JP 2000236480 A JP2000236480 A JP 2000236480A JP 11037610 A JP11037610 A JP 11037610A JP 3761099 A JP3761099 A JP 3761099A JP 2000236480 A JP2000236480 A JP 2000236480A
Authority
JP
Japan
Prior art keywords
correction
light receiving
incident
optical system
receiving element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11037610A
Other languages
Japanese (ja)
Other versions
JP3733771B2 (en
Inventor
Fumiko Uchino
文子 内野
Mutsuhiro Yamanaka
睦裕 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP03761099A priority Critical patent/JP3733771B2/en
Publication of JP2000236480A publication Critical patent/JP2000236480A/en
Application granted granted Critical
Publication of JP3733771B2 publication Critical patent/JP3733771B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Facsimile Heads (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Picture Signal Circuits (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device that properly corrects shading changed complicatedly resulting from the effect of a state of an optical system and to provide a shading correction method. SOLUTION: A relation between an incident direction of luminous flux to a light receiving element of a CCD and a correction coefficient is prepared for correction information (step S11) and the incident direction of the luminous flux to the light receiving element that is a correction object is obtained from a state of an optical system (step S12). Then the correction coefficient is obtained from the obtained incident direction by referencing the correction information (step S13) to correct an output from the light receiving element that is the correction object (step S14). Thus, reduction in an output changed complicatedly resulting from the effect of the incident direction of the luminous flux to the light receiving element, that is shading caused in an image can properly be corrected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えば、デジタ
ルカメラ、ビデオカメラ等のようにマイクロレンズが形
成されて配列配置される複数の受光素子を有する撮像装
置およびこのような撮像装置におけるシェーディング補
正方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus having a plurality of light receiving elements arranged and arranged with micro lenses, such as a digital camera and a video camera, and a shading correction method in such an image pickup apparatus. About.

【0002】[0002]

【従来の技術】従来より、電気的信号にて画像を取得す
るために複数の受光素子を配列配置したデバイスである
CCD(Charge Coupled Device)が利用されている。さ
らに近年、CCDの高解像度化を実現するために個々の
受光素子の大きさを縮小し、1つのCCDに多数の受光
素子を配列する技術が研究されている。
2. Description of the Related Art Conventionally, a CCD (Charge Coupled Device), which is a device in which a plurality of light receiving elements are arranged and arranged, to acquire an image by an electric signal has been used. Furthermore, in recent years, a technology for reducing the size of each light receiving element and arranging a large number of light receiving elements on one CCD has been studied in order to realize a higher resolution of the CCD.

【0003】ここで、受光素子の縮小化はCCDの感度
の低下および出力電圧の低下をもたらす。そこで、各受
光素子に微小なレンズ(以下、「マイクロレンズ」とい
う。)を積層し、受光部位に光を集光させることにより
CCDの感度の低下および出力電圧の低下を防止する技
術が開発されている。
Here, the reduction in the size of the light receiving element causes a decrease in the sensitivity of the CCD and a decrease in the output voltage. Therefore, a technology has been developed in which a minute lens (hereinafter, referred to as a “micro lens”) is stacked on each light receiving element and light is condensed on a light receiving portion to prevent a decrease in CCD sensitivity and a decrease in output voltage. ing.

【0004】[0004]

【発明が解決しようとする課題】マイクロレンズが形成
されたCCDを用いて撮影を行う場合、マイクロレンズ
の影響を受けて光の入射方向により受光素子からの出力
が大きく変化する。一般的には、CCDの周縁部の受光
素子では光が傾斜して入射し、CCDの中央部の受光素
子に比べて周縁部の受光素子からの出力が低下する。そ
の結果、得られる画像の周縁部の輝度が低下するという
いわゆるシェーディングが発生する。そこで、このよう
なシェーディングをなくす技術の開発が求められてい
る。
When photographing is performed using a CCD having a micro lens formed thereon, the output from the light receiving element greatly changes depending on the incident direction of light due to the influence of the micro lens. In general, light enters the light receiving element at the periphery of the CCD obliquely, and the output from the light receiving element at the periphery is lower than that at the center of the CCD. As a result, so-called shading occurs in which the luminance of the peripheral portion of the obtained image is reduced. Therefore, development of a technique for eliminating such shading is demanded.

【0005】図31ないし図33はこのようなマイクロ
レンズの影響によるシェーディングの発生の様子を説明
するための図である。ただし、光学系のレンズによる周
辺光量落ちおよび受光素子の光電変換特性のばらつきは
ないものとする。図31はCCD900上の光軸中心Z
に対する左右方向の端点Ca,Cbおよび上下方向の端
点Cc,Cdの位置を示す図である。
FIGS. 31 to 33 are diagrams for explaining how shading occurs due to the influence of such microlenses. However, it is assumed that there is no drop in the peripheral light amount due to the lens of the optical system and no variation in the photoelectric conversion characteristics of the light receiving element. FIG. 31 shows the optical axis center Z on the CCD 900.
It is a figure which shows the position of end point Ca, Cb of the horizontal direction with respect to, and end point Cc, Cd of an up-down direction.

【0006】図32中の符号901にて示すグラフは、
CCD900を用いて均一照明された均一濃度の被写体
を撮影した場合の端点Ca,中心Z,端点Cbに沿う直
線上に並ぶ受光素子からの出力に応じた画像中の輝度分
布を示しており、中心Zに対して両端点Ca,Cbにお
ける輝度が低下する様子を示す。図33中の符号902
にて示すグラフは同様の条件で撮影を行った場合の端点
Cc,中心Z,端点Cdに沿う直線上に並ぶ受光素子か
らの出力に応じた画像中の輝度分布を示し、中心Zに対
して両端点Cc,Cdにおける輝度が低下する様子を示
す。
The graph indicated by reference numeral 901 in FIG.
The figure shows the luminance distribution in an image according to the output from the light receiving elements arranged in a straight line along the end point Ca, the center Z, and the end point Cb when an image of a uniform-density illuminated object is photographed using the CCD 900. The state where the luminance at both end points Ca and Cb with respect to Z decreases is shown. Reference numeral 902 in FIG.
The graph shown by indicates the luminance distribution in the image according to the output from the light receiving elements arranged on a straight line along the end point Cc, the center Z, and the end point Cd when the image is taken under the same conditions. This shows how the luminance at both end points Cc and Cd decreases.

【0007】このように、マイクロレンズを有するCC
D900にて撮影を行う場合、画像の周縁部での輝度の
低下、すなわちシェーディングが顕著に発生する。
As described above, a CC having a microlens
When photographing is performed at D900, a decrease in luminance at the peripheral portion of the image, that is, shading occurs significantly.

【0008】マイクロレンズによるシェーディングの影
響を取り除くには各受光素子からの出力の低下量を補正
することにより取り除くことができる。例えば、図32
における中心Zでの輝度を1とした場合に、端点Caで
の輝度がLaであったとすると、端点Caに位置する受
光素子の出力を1/La倍することにより端点Caにお
ける輝度を適正に補正することができる。また、図33
においても端点Ccにおける輝度がLcであるとする
と、端点Ccに位置する受光素子の出力を1/Lc倍す
ることにより端点Ccにおける輝度を適正に補正するこ
とができる。同様の補正を図32および図33に示すグ
ラフ901,902に基づいて各受光素子に行うことに
より両端点Ca,Cb間および両端点Cc,Cd間に並
ぶ受光素子からの出力が適正に補正され、図32および
図33中に符号903,904にて示すグラフのように
均一な輝度特性を得ることができる。
[0008] In order to remove the influence of shading by the microlens, it can be removed by correcting the amount of decrease in the output from each light receiving element. For example, FIG.
If the luminance at the end point Ca is La when the luminance at the center Z is 1, then the luminance at the end point Ca is properly corrected by multiplying the output of the light receiving element located at the end point Ca by 1 / La. can do. FIG. 33
In this case, assuming that the luminance at the end point Cc is Lc, the luminance at the end point Cc can be appropriately corrected by multiplying the output of the light receiving element located at the end point Cc by 1 / Lc. By performing the same correction for each light receiving element based on the graphs 901 and 902 shown in FIGS. 32 and 33, the outputs from the light receiving elements arranged between the end points Ca and Cb and between the end points Cc and Cd are appropriately corrected. 32 and 33, uniform luminance characteristics can be obtained as shown by the graphs denoted by reference numerals 903 and 904.

【0009】したがって、均一照明された均一濃度の被
写体を撮影した際に各受光素子からの出力が均一となる
ような補正を他の被写体の撮影時に行うことにより、他
の被写体の画像のシェーディングを補正することができ
る。
Therefore, when an image of a uniformly illuminated subject having a uniform density is taken, a correction is made at the time of taking another subject so that the output from each light receiving element becomes uniform, thereby shading the image of the other subject. Can be corrected.

【0010】ところで、マイクロレンズによるシェーデ
ィングの発生はマイクロレンズの形状誤差および位置ず
れ、並びに撮影光学系の状態の影響を受ける。すなわ
ち、受光素子に入射する光束の光束中心の方向(3次元
ベクトルにて表現可能な方向)に応じて受光素子からの
出力は複雑に変化するとともに光学系の絞りの状態によ
っても複雑に変化する。その結果、ある光学系の状態で
均一照明された均一濃度の被写体を撮影して得られるシ
ェーディング補正のための情報は、光学系が同様の状態
であるときの撮影画像の補正にしか用いることができな
い。
[0010] The occurrence of shading by the microlenses is affected by the shape error and positional deviation of the microlenses and the state of the photographing optical system. That is, the output from the light receiving element changes in a complicated manner according to the direction of the light beam center of the light beam incident on the light receiving element (the direction that can be expressed by a three-dimensional vector), and also changes in a complicated manner depending on the state of the aperture of the optical system. . As a result, information for shading correction obtained by photographing a uniform-density subject that is uniformly illuminated in a certain optical system state can be used only for correcting a captured image when the optical system is in a similar state. Can not.

【0011】この発明は上記課題に鑑みなされたもので
あり、光学系の状態の影響を受けて複雑に変化するシェ
ーディングに対して適切に補正を行うことができる撮像
装置およびシェーディング補正方法を提供することを目
的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides an image pickup apparatus and a shading correction method capable of appropriately correcting shading that changes complicatedly under the influence of the state of an optical system. It is intended to be.

【0012】なお、マイクロレンズの影響によるシェー
ディングの度合いは撮影レンズの瞳位置や絞りの状態に
よって変化する。瞳位置は撮影レンズの焦点距離および
繰り出し量により変化し、さらに、撮影レンズの種類に
よっても異なる。したがって、ズームレンズを使用する
場合や一眼レフ方式のように複数のレンズユニットが使
用できるカメラにおいては瞳位置と絞りの組合せは膨大
な量となり、光学系の全ての状態に対応した補正のため
の膨大な情報を予め記憶しておくことは現実には不可能
である。
The degree of shading due to the influence of the micro lens changes depending on the pupil position of the taking lens and the state of the aperture. The pupil position changes depending on the focal length and the amount of extension of the photographing lens, and further varies depending on the type of the photographing lens. Therefore, in the case of using a zoom lens or a camera that can use a plurality of lens units such as a single-lens reflex camera, the number of combinations of the pupil position and the aperture becomes enormous, and correction for all states of the optical system is performed. It is actually impossible to store a large amount of information in advance.

【0013】そこで、この発明は光学系の状態の影響を
受けて複雑に変化するシェーディングを限定された基本
情報に基づいて適切に補正することができる撮像装置を
提供することも目的としている。
It is another object of the present invention to provide an image pickup apparatus capable of appropriately correcting shading, which changes complicatedly under the influence of the state of the optical system, based on limited basic information.

【0014】[0014]

【課題を解決するための手段】請求項1の発明は、被写
体からの光を所定の受光面へと導く光学系と、それぞれ
にマイクロレンズが形成された複数の受光素子を前記受
光面に配列配置し、当該複数の受光素子からの出力に基
づいて前記被写体の画像を取得する撮像手段と、受光素
子に入射する光束の入射方向と当該受光素子からの出力
に対する補正係数との関係である補正情報を予め記憶す
る補正情報記憶手段と、前記受光面に複数の基準位置が
設定されており、前記光学系の状態を示す情報に基づい
て基準位置に入射する光束の入射方向を取得する入射方
向取得手段と、基準位置への光束の入射方向および前記
補正情報に基づいて当該基準位置に関連する受光素子か
らの出力を補正する補正手段とを備える。
According to a first aspect of the present invention, there is provided an optical system for guiding light from a subject to a predetermined light receiving surface, and a plurality of light receiving elements each having a microlens formed thereon are arranged on the light receiving surface. Imaging means for arranging and acquiring an image of the subject based on the outputs from the plurality of light receiving elements, and correcting the relationship between the incident direction of the light beam incident on the light receiving elements and the correction coefficient for the output from the light receiving elements Correction information storage means for storing information in advance, and a plurality of reference positions are set on the light receiving surface, and an incident direction for acquiring an incident direction of a light beam incident on the reference position based on information indicating a state of the optical system. An acquisition unit that corrects an output from the light receiving element related to the reference position based on the incident direction of the light beam to the reference position and the correction information.

【0015】請求項2の発明は、請求項1に記載の撮像
装置であって、前記補正情報が、前記光学系の所定のレ
ンズ配置において、前記受光面上の位置と当該位置へと
入射する光束の入射方向との関係を示す補正用入射角情
報と、前記所定のレンズ配置において前記受光面上の位
置に関連づけられた補正係数の集合である補正テーブル
とを有する。
According to a second aspect of the present invention, in the imaging apparatus according to the first aspect, the correction information is incident on the position on the light receiving surface and the position in a predetermined lens arrangement of the optical system. It has correction incident angle information indicating a relationship with the incident direction of the light beam, and a correction table which is a set of correction coefficients associated with positions on the light receiving surface in the predetermined lens arrangement.

【0016】請求項3の発明は、請求項2に記載の撮像
装置であって、前記補正手段が、基準位置に対応する前
記補正テーブル上の位置に近接する複数の補正係数を内
挿することにより、当該基準位置における補正係数を求
める手段を有する。
According to a third aspect of the present invention, in the imaging apparatus according to the second aspect, the correction means interpolates a plurality of correction coefficients close to a position on the correction table corresponding to a reference position. And means for obtaining a correction coefficient at the reference position.

【0017】請求項4の発明は、請求項1ないし3のい
ずれかに記載の撮像装置であって、光束が前記光学系の
光軸に漸次近づく場合と漸次離れる場合の2つの補正情
報が準備されており、前記入射方向取得手段により取得
される入射方向に基づいて前記2つの補正情報のうちの
1つが選択される。
According to a fourth aspect of the present invention, there is provided the image pickup apparatus according to any one of the first to third aspects, wherein two correction information are prepared for a case where the light flux gradually approaches the optical axis of the optical system and a case where the light flux gradually separates. One of the two pieces of correction information is selected based on the incident direction acquired by the incident direction acquiring means.

【0018】請求項5の発明は、請求項1ないし4のい
ずれかに記載の撮像装置であって、前記光学系のレンズ
配置および絞りに関する複数の状態における前記受光面
上の光軸中心からの距離と入射光束の前記光軸に対する
傾きとの関係を示す複数の基本テーブルを記憶する手段
をさらに備え、前記入射方向取得手段が、前記複数の基
本テーブルを内挿することにより、前記光学系の撮影時
の状態における基準位置に入射する光束の入射方向を取
得する。
According to a fifth aspect of the present invention, there is provided the image pickup apparatus according to any one of the first to fourth aspects, wherein a plurality of states related to a lens arrangement and a stop of the optical system are measured from an optical axis center on the light receiving surface. The optical system further includes means for storing a plurality of basic tables indicating a relationship between a distance and an inclination of the incident light beam with respect to the optical axis, wherein the incident direction obtaining means interpolates the plurality of basic tables, The incident direction of the light beam incident on the reference position in the state at the time of shooting is acquired.

【0019】請求項6の発明は、請求項1ないし5のい
ずれかに記載の撮像装置であって、前記光学系の全部ま
たは一部が交換可能な交換ユニットとされ、前記補正手
段による補正に利用される値であって交換ユニットの種
類に固有のものを当該種類に対応付けて記憶するユニッ
ト変数記憶手段をさらに備える。
According to a sixth aspect of the present invention, there is provided the imaging apparatus according to any one of the first to fifth aspects, wherein all or a part of the optical system is an exchangeable exchange unit. Further provided is a unit variable storage means for storing a value used and specific to the type of the exchange unit in association with the type.

【0020】請求項7の発明は、請求項1ないし5のい
ずれかに記載の撮像装置であって、前記光学系の全部ま
たは一部が交換可能な交換ユニットとされ、前記交換ユ
ニットが、前記補正手段による補正に利用される値であ
って前記交換ユニットの種類に固有のものを記憶する手
段を有する。
According to a seventh aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects, all or a part of the optical system is an exchangeable exchange unit, and the exchange unit is There is provided a means for storing a value used for correction by the correction means and specific to the type of the replacement unit.

【0021】請求項8の発明は、請求項1ないし7のい
ずれかに記載の撮像装置であって、前記補正手段が、前
記複数の基準位置の補正係数をノイズ成分を与えつつ補
間することにより前記複数の受光素子に対応する補正係
数を求める手段を有する。
According to an eighth aspect of the present invention, in the imaging apparatus according to any one of the first to seventh aspects, the correction means interpolates the correction coefficients of the plurality of reference positions while giving a noise component. Means for determining correction coefficients corresponding to the plurality of light receiving elements.

【0022】請求項9の発明は、所定の受光面に配列配
置されるとともにそれぞれにマイクロレンズが形成され
た複数の受光素子を有し、被写体からの光を光学系を介
して当該複数の受光素子へと導くことにより当該被写体
の画像を取得する撮像装置において、取得される画像の
シェーディングを補正するシェーディング補正方法であ
って、受光素子に入射する光束の入射方向と当該受光素
子からの出力に対する補正係数との関係である補正情報
を準備する工程と、前記受光面に複数の基準位置が設定
されており、前記光学系の状態を示す情報に基づいて基
準位置に入射する光束の入射方向を取得する工程と、基
準位置への光束の入射方向および前記補正情報に基づい
て当該基準位置に関連する受光素子からの出力を補正す
る工程とを有する。
According to a ninth aspect of the present invention, there are provided a plurality of light receiving elements which are arranged and arranged on a predetermined light receiving surface and each of which has a micro lens formed thereon, and which receives light from a subject through an optical system. A shading correction method for correcting shading of an obtained image in an imaging apparatus that obtains an image of the subject by guiding the light to an element. A step of preparing correction information that is a relationship with a correction coefficient, and a plurality of reference positions are set on the light receiving surface, and an incident direction of a light beam incident on the reference position is determined based on information indicating a state of the optical system. Acquiring, and correcting the output from the light receiving element related to the reference position based on the incident direction of the light beam to the reference position and the correction information.

【0023】[0023]

【発明の実施の形態】<1. 発明の原理>マイクロレ
ンズを有するCCDにて撮影を行う場合、CCDの各受
光素子からの出力はマイクロレンズの影響を受けて複雑
に変化する。また、マイクロレンズの形状はCCDの個
体ごとに誤差を有しており、マイクロレンズの影響によ
るシェーディングの発生を一層複雑なものとしている。
なお、一般的には1つのCCD内の各マイクロレンズの
形状はある程度均一となるように形成される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <1. Principle of the Invention> When an image is taken with a CCD having a microlens, the output from each light receiving element of the CCD changes in a complicated manner under the influence of the microlens. In addition, the shape of the microlenses has an error for each CCD individual, which makes shading caused by the microlenses more complicated.
Generally, the shape of each micro lens in one CCD is formed to be uniform to some extent.

【0024】ここで、マイクロレンズの影響によるシェ
ーディングとは、光をCCDへと導く光学系の状態の影
響を受けるシェーディングをいい、光学系の状態の影響
を受けないシェーディング(例えば、光電変換特性のば
らつきに起因する感度ムラ)を除いたものをいう。以下
の説明では、「マイクロレンズの影響によるシェーディ
ング」のことを適宜、単に、「シェーディング」とい
う。
Here, the shading due to the influence of the microlens means a shading which is affected by the state of the optical system for guiding light to the CCD, and a shading which is not affected by the state of the optical system (for example, of the photoelectric conversion characteristic). This is a value excluding sensitivity unevenness caused by variation. In the following description, “shading due to the influence of the microlens” is simply referred to as “shading” as appropriate.

【0025】図1(a)ないし(d)は1つの受光素子
10の構造を示す図であり、図1(a)は平面図であ
り、図1(b)ないし(d)は縦断面図である。図1
(a)および(b)に示すように、1つの受光素子10
は基台11上に受光部12を有しており、この受光部1
2での受光感度を増すために受光部12を覆うマイクロ
レンズ13が形成される。
FIGS. 1A to 1D are views showing the structure of one light receiving element 10, FIG. 1A is a plan view, and FIGS. 1B to 1D are longitudinal sectional views. It is. FIG.
As shown in (a) and (b), one light receiving element 10
Has a light receiving section 12 on a base 11, and this light receiving section 1
A microlens 13 that covers the light receiving unit 12 is formed in order to increase the light receiving sensitivity of the light receiving unit 2.

【0026】1つの受光素子10において、撮影光学系
(以下、単に「光学系」という。)のレンズ配置の変化
により図1(b)ないし(d)にて示すように入射する
光束の光束中心Lの方向(以下、「光束の入射方向」と
いう。)が様々に変化する。これにより、入射する光束
が受光部12に対して様々な位置に集光される。このと
き、基台11上の集光範囲は光束の入射方向によっては
受光部12の上面に全て含まれるとは限らないことか
ら、光束の入射方向により受光素子10からの出力は複
雑に変化する。
In one light receiving element 10, as shown in FIGS. 1 (b) to 1 (d), due to a change in the lens arrangement of a photographing optical system (hereinafter, simply referred to as "optical system"), the center of the incident light beam is changed. The direction of L (hereinafter, referred to as “incident direction of light beam”) changes variously. As a result, the incident light flux is focused on the light receiving unit 12 at various positions. At this time, the output from the light receiving element 10 varies in a complicated manner depending on the incident direction of the light beam, because the condensed range on the base 11 is not always included in the upper surface of the light receiving unit 12 depending on the incident direction of the light beam. .

【0027】図2(a)ないし(c)はCCDの個体ご
とに様々な形状に形成されたマイクロレンズ13の例を
示す図である。ここで、図2(a)または(b)に示す
ように、図1(b)に示す受光素子10に比べてマイク
ロレンズ13の高さが低かったり高かったりする場合に
は、入射する光束の集光範囲の大きさが変化する。その
結果、光束の入射方向と受光素子10からの出力との関
係は図1(b)に示すものと異なったものとなる。すな
わち、受光素子10からの出力の補正をCCDの個体ご
とに行う必要がある。
FIGS. 2A to 2C are views showing examples of the microlenses 13 formed in various shapes for each individual CCD. Here, as shown in FIG. 2A or 2B, when the height of the microlens 13 is lower or higher than that of the light receiving element 10 shown in FIG. The size of the focusing area changes. As a result, the relationship between the incident direction of the light beam and the output from the light receiving element 10 is different from that shown in FIG. That is, it is necessary to correct the output from the light receiving element 10 for each CCD.

【0028】さらに、CCDの製造の際の誤差により、
マイクロレンズ13が図2(c)に示すように受光部1
2とずれて形成された場合には、入射光束の集光範囲と
受光部12の上面との重なりの度合いは光束の入射方向
(3次元ベクトルとして表現可能な入射方向)に大きく
依存する。したがって、単に、受光素子10が配列され
る面(以下、「受光面」という。)の法線と光束の入射
方向とがなす角(すなわち、入射光束の傾き)と受光素
子10からの出力に対する補正係数との関係を準備した
のでは、受光素子10からの出力を適切に補正すること
ができない。なお、補正係数とは、出力を適正な値に補
正する際に利用する値をいい、例えば、出力と掛け合わ
せることにより適正な出力となる係数をいう。
Further, due to an error in the manufacture of the CCD,
As shown in FIG. 2C, the micro lens 13 is
In the case where the light flux is formed so as to deviate from 2, the degree of overlap between the condensing range of the incident light beam and the upper surface of the light receiving unit 12 largely depends on the incident direction of the light beam (the incident direction that can be expressed as a three-dimensional vector). Therefore, the angle between the normal line of the surface on which the light receiving elements 10 are arranged (hereinafter referred to as “light receiving surface”) and the incident direction of the light beam (ie, the inclination of the incident light beam) and the output from the light receiving element 10 If the relationship with the correction coefficient is prepared, the output from the light receiving element 10 cannot be properly corrected. Note that the correction coefficient refers to a value used when correcting an output to an appropriate value, for example, a coefficient that becomes an appropriate output when multiplied by the output.

【0029】この発明では、マイクロレンズを有する受
光素子配列を用いた撮影の際に生じるシェーディングに
対して、光束の入射方向と受光素子の出力に対する補正
係数との関係を準備しておくことで適切な補正を実現し
ている。
According to the present invention, the relationship between the incident direction of the light beam and the correction coefficient for the output of the light receiving element is appropriately prepared for shading generated at the time of photographing using the light receiving element array having the microlenses. Correction is realized.

【0030】図3はこの発明に係るシェーディング補正
方法の基本的流れを示す流れ図である。図3に示すよう
に、この発明では、光束の入射方向と受光素子の出力に
対する補正係数との関係が予め準備される(ステップS
11)。なお、マイクロレンズ13を有する受光素子1
0の場合、光学系の絞りを変化させると受光部12の上
面と集光範囲との重なりの程度が複雑に変化するが、画
像の撮影の際の絞りの状態に対応した補正情報がステッ
プS11にて準備されるものとする。
FIG. 3 is a flowchart showing a basic flow of the shading correction method according to the present invention. As shown in FIG. 3, in the present invention, the relationship between the incident direction of the light beam and the correction coefficient for the output of the light receiving element is prepared in advance (Step S).
11). The light receiving element 1 having the micro lens 13
In the case of 0, when the aperture of the optical system is changed, the degree of overlap between the upper surface of the light receiving unit 12 and the light condensing range changes in a complicated manner. Shall be prepared at

【0031】補正情報が準備されると、出力の補正対象
となる受光素子10への光束の入射方向が求められる
(ステップS12)。3次元ベクトルとして表現可能な
入射方向は、例えば、光学系のレンズの配置状態および
受光素子10のCCD上の位置から計算により求めるこ
とが可能である。なお、ステップS12における入射方
向を求める処理は、入射方向と同等な情報を求める処理
であってもよい。
When the correction information is prepared, the direction of incidence of the light beam on the light receiving element 10 whose output is to be corrected is determined (step S12). The incident direction that can be expressed as a three-dimensional vector can be obtained by calculation, for example, from the arrangement state of the lens of the optical system and the position of the light receiving element 10 on the CCD. Note that the process of obtaining the incident direction in step S12 may be a process of obtaining information equivalent to the incident direction.

【0032】補正情報は光束の入射方向と補正係数との
関係を示すものであることから、ステップS12にて求
められた入射方向から受光素子10の出力を補正するた
めの補正係数が求められる(ステップS13)。その
後、この補正係数に基づいて受光素子10からの出力を
補正することにより、適正な出力が得られる(ステップ
S14)。
Since the correction information indicates the relationship between the incident direction of the light beam and the correction coefficient, a correction coefficient for correcting the output of the light receiving element 10 is obtained from the incident direction obtained in step S12 ( Step S13). Thereafter, the output from the light receiving element 10 is corrected based on the correction coefficient, so that an appropriate output is obtained (step S14).

【0033】以上に説明した補正をCCD上の全ての受
光素子10に対して実質的に行うことにより、CCDか
ら得られる画像に現れるマイクロレンズの影響によるシ
ェーディングに対して適切な補正が行われる。
By performing the above-described correction substantially on all the light receiving elements 10 on the CCD, appropriate correction is performed for shading due to the influence of microlenses appearing in an image obtained from the CCD.

【0034】<2. 第1の実施の形態> <2.1 デジタルカメラの全体構成>図4はこの発明の
第1の実施の形態に係る撮像装置であるデジタルカメラ
100の外観を示す斜視図である。デジタルカメラ10
0はカメラ本体を構成する本体部101に交換可能なレ
ンズユニット102を取り付けた構成となっている。
<2. First Embodiment><2.1 Overall Configuration of Digital Camera> FIG. 4 is a perspective view showing an appearance of a digital camera 100 which is an image pickup apparatus according to a first embodiment of the present invention. Digital camera 10
Reference numeral 0 denotes a configuration in which a replaceable lens unit 102 is attached to a main body 101 constituting a camera main body.

【0035】本体部101内部にはレンズユニット10
2により被写体の像が形成されるCCD111が設けら
れており、デジタルカメラ100の操作者がファインダ
用窓112から所望の被写体を覗きながらシャッタボタ
ン113を押すと被写体のデジタル画像がメモリスロッ
ト114内のメモリカードに記憶される。画像を記憶し
たメモリカードは操作者が取出ボタン115を押すこと
により本体部101から取り出すことができる。
The lens unit 10 is provided inside the main body 101.
2 is provided with a CCD 111 on which an image of a subject is formed. When an operator of the digital camera 100 presses a shutter button 113 while looking into a desired subject from the finder window 112, a digital image of the subject is stored in the memory slot 114. Stored on a memory card. The memory card storing the image can be removed from the main body 101 by the operator pressing the removal button 115.

【0036】図5はデジタルカメラ100の機械的構成
を示すブロック図である。レンズユニット102内には
被写体からの光LaをCCD111へと導き、CCD1
11上に被写体の像を形成するための撮影用の光学系1
21が格納されており、光学系121内の複数のレンズ
配置や絞りの状態がドライバ122により制御される。
FIG. 5 is a block diagram showing a mechanical configuration of the digital camera 100. In the lens unit 102, light La from the subject is guided to the CCD 111,
Optical system 1 for photographing for forming an image of a subject on 11
21 are stored, and the arrangement of a plurality of lenses in the optical system 121 and the state of the aperture are controlled by the driver 122.

【0037】CCD111、シャッタボタン113、メ
モリスロット114およびドライバ122は適宜インタ
ーフェイスを介する等してバスライン130に接続され
る。バスライン130にはさらに各種演算処理を行うC
PU131、基本的プログラムを記憶するROM13
2、補正に必要な情報を記憶するRAM133、CCD
111からの画像信号をデジタル画像信号に変換するA
/D変換回路134、および、画像のシェーディングを
補正するための補正回路135が適宜インターフェイス
を介する等して接続される。なお、補正回路135の機
能の全部または一部がCPU131、ROM132およ
びRAM133の動作により実現されてもよく、CPU
131、ROM132およびRAM133により実現さ
れる機能の全部または一部がハードウェア的に構築され
ていてもよい。
The CCD 111, the shutter button 113, the memory slot 114, and the driver 122 are connected to a bus line 130 via an interface as appropriate. The bus line 130 further includes C for performing various arithmetic processing.
PU 131, ROM 13 for storing basic programs
2. RAM 133 and CCD for storing information necessary for correction
A which converts the image signal from the digital camera 111 into a digital image signal
The / D conversion circuit 134 and a correction circuit 135 for correcting image shading are connected via an interface as appropriate. Note that all or a part of the function of the correction circuit 135 may be realized by the operation of the CPU 131, the ROM 132, and the RAM 133.
All or a part of the functions realized by the 131, the ROM 132, and the RAM 133 may be configured by hardware.

【0038】操作者がシャッタボタン113を押すとC
CD111からの信号がA/D変換回路134を介して
デジタル画像として取り込まれる。そして、この画像は
ドライバ122からの情報やRAM133内の情報に基
づいてCPU131や補正回路135によりシェーディ
ング補正され、メモリスロット114を介してメモリカ
ード114aに記憶される。
When the operator presses the shutter button 113, C
A signal from the CD 111 is captured as a digital image via the A / D conversion circuit 134. This image is subjected to shading correction by the CPU 131 and the correction circuit 135 based on information from the driver 122 and information in the RAM 133, and is stored in the memory card 114 a via the memory slot 114.

【0039】図6は図5に示すCPU131、ROM1
32、RAM133および補正回路135により行われ
るシェーディング補正動を機能ごとに分けて示すブロッ
ク図である。また、図6には図5に示したレンズユニッ
ト102、CCD111およびA/D変換回路134も
同様に示す。
FIG. 6 shows the CPU 131 and the ROM 1 shown in FIG.
32 is a block diagram showing shading correction operations performed by a RAM 32, a RAM 133, and a correction circuit 135 for each function. FIG. 6 also shows the lens unit 102, the CCD 111, and the A / D conversion circuit 134 shown in FIG.

【0040】図6に示すように、デジタルカメラ100
におけるシェーディング補正に係る機能構成は大きく補
正部140と入射角算出部150とに分けられる。
As shown in FIG. 6, the digital camera 100
The functional configuration related to the shading correction in is roughly divided into a correction unit 140 and an incident angle calculation unit 150.

【0041】補正部140は画像のシェーディング補正
等を行うものであり、補正に必要な補正情報の生成も行
う。すなわち、図3に示す流れ図のステップS11,S
13およびS14の処理に相当する処理を行う。入射角
算出部150は補正の対象となる受光素子に入射する光
束の入射方向を求めるものであり、図3に示す流れ図の
ステップS12に相当する処理を行う。
The correction section 140 performs shading correction of an image and the like, and also generates correction information necessary for correction. That is, steps S11 and S11 in the flowchart shown in FIG.
13 and processing corresponding to the processing of S14 are performed. The incident angle calculation unit 150 calculates the incident direction of the light beam incident on the light receiving element to be corrected, and performs a process corresponding to step S12 in the flowchart shown in FIG.

【0042】さらに、補正部140は補正テーブル算出
部141、基準補正係数算出部142および補正係数補
間部143を有する。補正テーブル算出部141は実質
的に補正情報としての役割を果たす補正用入射角テーブ
ル144および補正テーブル145を生成し、ステップ
S11に相当する処理を行う。なお、これらのテーブル
の内容については後述する。基準補正係数算出部142
は基準となる所定の受光素子に入射する光束の入射方向
を入射角算出部150から受け取り、補正用入射角テー
ブル144および補正テーブル145を参照して基準補
正係数を求め、ステップS13に相当する処理を行う。
また、補正係数補間部143は求められた基準補正係数
を補間することにより全ての受光素子に対応する補正係
数を算出する。
Further, the correction section 140 has a correction table calculation section 141, a reference correction coefficient calculation section 142, and a correction coefficient interpolation section 143. The correction table calculation unit 141 generates a correction incident angle table 144 and a correction table 145 that substantially serve as correction information, and performs a process corresponding to step S11. The contents of these tables will be described later. Reference correction coefficient calculation unit 142
Receives the incident direction of the light beam incident on the predetermined light receiving element serving as a reference from the incident angle calculating unit 150, determines a reference correction coefficient by referring to the correction incident angle table 144 and the correction table 145, and performs processing corresponding to step S13. I do.
Further, the correction coefficient interpolation unit 143 calculates the correction coefficients corresponding to all the light receiving elements by interpolating the obtained reference correction coefficients.

【0043】入射角算出部150はドライバ122から
の情報を受けて後述する入射角テーブル152を生成す
る入射角テーブル算出部151を有する。そして、入射
角算出部150はこの入射角テーブル152を参照して
補正の対象となる受光素子への光束の入射方向に相当す
る情報を求め、ステップS12に相当する処理を行う。
The incident angle calculator 150 has an incident angle table calculator 151 which receives information from the driver 122 and generates an incident angle table 152 which will be described later. Then, the incident angle calculation unit 150 refers to the incident angle table 152 to obtain information corresponding to the direction of incidence of the light beam on the light receiving element to be corrected, and performs a process corresponding to step S12.

【0044】以上、デジタルカメラ100の機械的構成
および機能的構成について説明してきたが、次に、デジ
タルカメラ100におけるシェーディング補正の具体的
動作について詳説する。
The mechanical and functional configuration of the digital camera 100 has been described above. Next, the specific operation of shading correction in the digital camera 100 will be described in detail.

【0045】<2.2 シェーディング補正の動作>図7
はデジタルカメラ100におけるシェーディング補正動
作の概略を示す流れ図である。デジタルカメラ100で
は、CCD111の受光面を所定の矩形のブロックに予
め区分けしておき、各ブロックの中心(以下、「基準位
置」という。)に位置する受光素子に対応する補正係数
を基準補正係数として求める。その後、基準補正係数を
補間することにより、全ての受光素子に対応する補正係
数を求める。以下、図7を参照しながらシェーディング
補正動作について説明する。
<2.2 Shading Correction Operation> FIG.
3 is a flowchart showing an outline of a shading correction operation in the digital camera 100. In the digital camera 100, the light receiving surface of the CCD 111 is divided into predetermined rectangular blocks in advance, and a correction coefficient corresponding to a light receiving element located at the center of each block (hereinafter, referred to as a “reference position”) is referred to as a reference correction coefficient. Asking. Thereafter, by interpolating the reference correction coefficients, correction coefficients corresponding to all the light receiving elements are obtained. Hereinafter, the shading correction operation will be described with reference to FIG.

【0046】<2.2.1 補正情報の生成>シェーディン
グ補正の準備として、まず、図6に示す補正テーブル算
出部141が補正用入射角テーブル144および補正テ
ーブル145を生成し、図5に示す記憶手段であるRA
M133に記憶する(ステップS21)。
<2.2.1 Generation of Correction Information> As preparation for shading correction, first, the correction table calculation section 141 shown in FIG. 6 generates the correction incident angle table 144 and the correction table 145, and the storage means shown in FIG. RA
It is stored in M133 (step S21).

【0047】補正用入射角テーブル144とは、光学系
121のレンズ配置や絞りの状態が所定の状態であると
きに、図8に示すようにCCD111の受光面と光学系
121の光軸121aとの交点(以下、「光軸中心」と
いう。)121bから補正の対象となる受光素子111
aまでの距離Rcと、入射光束の光束中心Lcと光軸1
21aとのなす角θ(光軸121aに対する光束の傾き
を表すいわゆる「軸外光の主光線角度」であり、θ>0
のときに光束中心Lcが光軸121aから漸次離れるも
のとする。)との関係を示すテーブルである。また、補
正テーブル145とは、光学系121が同様の所定の状
態であるときの受光素子111aの2次元座標にて表さ
れる位置と補正係数との関係を示すテーブルである。
As shown in FIG. 8, when the lens arrangement of the optical system 121 and the state of the diaphragm are in a predetermined state, the incident angle table 144 for correction includes the light receiving surface of the CCD 111 and the optical axis 121a of the optical system 121. (Hereinafter referred to as “optical axis center”) 121b from the light receiving element 111 to be corrected
a, the center Rc of the incident light beam and the optical axis 1
21a (the so-called “principal ray angle of off-axis light” representing the inclination of the light beam with respect to the optical axis 121a, and θ> 0).
In this case, it is assumed that the light beam center Lc gradually moves away from the optical axis 121a. 6 is a table showing the relationship with the table. Further, the correction table 145 is a table showing the relationship between the position represented by the two-dimensional coordinates of the light receiving element 111a and the correction coefficient when the optical system 121 is in the same predetermined state.

【0048】なお、以下の説明における距離RcはCC
D111上の実際の距離を表しており、また、補正テー
ブル145中に2次元配列される補正係数の各格納位置
にはCCD111上の受光素子配列に基づく座標が対応
付けられる。したがって、補正用入射角テーブル144
と補正テーブル145とを対応付ける際には実際の距離
と座標との間の変換処理が行われる。
The distance Rc in the following description is CC
It represents the actual distance on the D111, and the coordinates based on the light receiving element array on the CCD 111 are associated with each storage position of the correction coefficients arranged two-dimensionally in the correction table 145. Therefore, the correction incident angle table 144
When associating the correction table with the correction table 145, a conversion process between the actual distance and the coordinates is performed.

【0049】ここで、光束中心Lcは光学系121の光
軸121aを含む1つの面に沿う方向を向くことから、
距離Rcと角θとの関係を示す情報は受光素子111a
が配列される受光面上の位置とこの位置へ入射する光束
の入射方向(3次元ベクトルとして表現可能な入射方
向)との関係を実質的に表す情報である。また、補正テ
ーブル145により受光面上の位置と補正係数とが関係
付けられていることから、補正用入射角テーブル144
および補正テーブル145は受光素子111aに入射す
る光束の入射方向と補正係数との関係を表す情報であ
り、これらの情報は図3中のステップS11における補
正情報に相当する。
Here, since the light beam center Lc is oriented along one surface including the optical axis 121a of the optical system 121,
The information indicating the relationship between the distance Rc and the angle θ is the light receiving element 111a
Are information that substantially represents the relationship between the position on the light receiving surface where the light is arranged and the incident direction of the light beam incident on this position (the incident direction that can be expressed as a three-dimensional vector). Further, since the position on the light receiving surface and the correction coefficient are related by the correction table 145, the correction incident angle table 144
The correction table 145 is information indicating the relationship between the incident direction of the light beam incident on the light receiving element 111a and the correction coefficient, and these information correspond to the correction information in step S11 in FIG.

【0050】図9は図7中のステップS21の動作の詳
細を示す流れ図である。また、図10は補正用入射角テ
ーブル144を生成する様子を示す図であり、図11は
補正テーブル145を生成する様子を示す図である。
FIG. 9 is a flowchart showing details of the operation in step S21 in FIG. FIG. 10 is a diagram showing how the correction incident angle table 144 is generated, and FIG. 11 is a diagram showing how the correction table 145 is generated.

【0051】図10(a)および(b)に示すように補
正用入射角テーブル144は予めRAM133に記憶さ
れている4つの基本入射角テーブル161(図10中、
符号「161a」、「161b」、「161c」、「1
61d」を付す。)から2種類(符号「144a」、
「144b」を付す。)生成される。また、図11
(a)および(b)に示すように補正テーブル145も
4つの基本補正テーブル162(図11中、符号「16
2a」、「162b」、「162c」、「162d」を
付す。)から2種類(符号「145a」、「145b」
を付す。)生成される。
As shown in FIGS. 10A and 10B, the correction incident angle table 144 includes four basic incident angle tables 161 (in FIG.
Symbols “161a”, “161b”, “161c”, “1”
61d ". ) To two types (symbol “144a”,
"144b" is added. ) Generated. FIG.
As shown in FIGS. 11A and 11B, the correction table 145 also has four basic correction tables 162 (in FIG.
2a "," 162b "," 162c ", and" 162d ". ) To two types (reference numbers “145a” and “145b”).
Is attached. ) Generated.

【0052】2種類の補正用入射角テーブル144およ
び2種類の補正テーブル145は1つのブロック内の基
準補正係数を求める際にいずれか1種類のみが利用され
る。このように2種類準備される理由については後述す
る。
Only one of the two types of correction incident angle table 144 and the two types of correction table 145 is used when obtaining the reference correction coefficient in one block. The reason why the two types are prepared will be described later.

【0053】4つの基本入射角テーブル161は、光軸
中心121bから受光素子111aまでの距離Rcと、
光軸121aと光束中心Lcとがなす角θとの関係を光
学系121の4つの状態に関して示すテーブルであり、
4つの状態としては、カメラレンズである光学系121
の瞳の位置が最も近くなるズーム位置(以下、「瞳近」
という。)であって絞りが最も絞られた状態(以下、F
ナンバーを用いて「F22」という。)、瞳近であって
絞りが最も開放された状態(以下、Fナンバーを用いて
「F6.7」という。)、瞳の位置が最も遠くなるズー
ム位置(以下、「瞳遠」という。)であってF22の状
態、および、瞳遠であってF6.7の状態が採用され
る。なお、これらの基本入射角テーブル161は、光学
系121の仕様に基づく理論的計算により予め算出され
てRAM133に記憶される。
The four basic incident angle tables 161 include a distance Rc from the optical axis center 121b to the light receiving element 111a,
6 is a table showing the relationship between the angle θ between the optical axis 121a and the light beam center Lc with respect to four states of the optical system 121;
The four states include an optical system 121 that is a camera lens.
Zoom position where the position of the pupil is closest (hereinafter referred to as
That. ) And the state where the aperture is most narrowed (hereinafter, F
Called "F22" using the number. ), Near the pupil and with the aperture fully opened (hereinafter referred to as “F6.7” using the F-number), and at the zoom position where the pupil position is furthest (hereinafter referred to as “pupil far”). And the state of F22 and the state of F6.7 far from the pupil are adopted. Note that these basic incident angle tables 161 are calculated in advance by theoretical calculations based on the specifications of the optical system 121 and stored in the RAM 133.

【0054】補正用入射角テーブル144を求めるに際
し、まず、レンズユニット102のドライバ122から
撮影時の絞りの状態を示す値(以下、具体例として「F
11」とする。)が取得される(図9:ステップS3
1)。そして、図10(a)に示すように、補正テーブ
ル算出部141は瞳近であってF22の状態に対応する
基本入射角テーブル161aおよび瞳近であってF6.
7の状態に対応する基本入射角テーブル161bを内挿
することにより、瞳近であってF11の状態に対応する
補正用入射角テーブル144aを生成する(ステップS
32)。すなわち、各距離RcにおけるF22とF6.
7とに対応するθの値をF11を基準として内挿する。
When obtaining the correction incident angle table 144, first, the driver 122 of the lens unit 102 supplies a value indicating the state of the aperture at the time of photographing (hereinafter referred to as "F
11 ". ) Is acquired (FIG. 9: step S3).
1). Then, as shown in FIG. 10A, the correction table calculation unit 141 determines that the basic incident angle table 161a is close to the pupil and corresponds to the state of F22 and that the close pupil is F6.
By interpolating the basic incident angle table 161b corresponding to the state of No. 7, a correction incident angle table 144a close to the pupil and corresponding to the state of F11 is generated (step S).
32). That is, F22 and F6.
The value of θ corresponding to 7 is interpolated with reference to F11.

【0055】続いて同様の処理により、図10(b)に
示すように、瞳遠であってF22の状態に対応する基本
入射角テーブル161cおよび瞳遠であってF6.7の
状態に対応する基本入射角テーブル161dを内挿する
ことにより、瞳遠であってF11の状態に対応する補正
用入射角テーブル144bを生成する(ステップS3
3)。
Subsequently, by the same processing, as shown in FIG. 10B, the basic incident angle table 161c which is far from the pupil and corresponds to the state of F22 and the far pupil corresponds to the state of F6.7. By interpolating the basic incident angle table 161d, a correction incident angle table 144b far from the pupil and corresponding to the state of F11 is generated (step S3).
3).

【0056】以上の処理により、瞳近と瞳遠とのそれぞ
れについて撮影時の絞りの状態に対応する2つの補正用
入射角テーブル144a,144bが生成される。な
お、後述する基準補正係数を求める際に角θから距離R
cを求める処理を行うことから、距離Rcの増加に対し
て角θの変化が単調ではない場合には角θの算出を中断
し、距離Rcと角θとを強制的に1対1に対応させる。
By the above processing, two correction incident angle tables 144a and 144b corresponding to the aperture state at the time of photographing are generated for the near pupil and the far pupil, respectively. Note that when calculating a reference correction coefficient described later, the distance R is calculated from the angle θ.
When the change of the angle θ is not monotonic with respect to the increase of the distance Rc, the calculation of the angle θ is interrupted, and the distance Rc and the angle θ are forcibly corresponded to one-to-one. Let it.

【0057】補正用入射角テーブル144の生成が完了
すると、次に、4つの基本補正テーブル162から2つ
の補正テーブル145が生成される。4つの基本補正テ
ーブル162は4つの基本入射角テーブル161に対応
しており、それぞれ光学系121が瞳近であってF22
の状態、瞳近であってF6.7の状態、瞳遠であってF
22の状態、および、瞳遠であってF6.7の状態に対
応している。なお、これらの基本補正テーブル162は
これらの状態にて均一照明された均一濃度の被写体を撮
影し、この画像がCCDの感度ムラを考慮した上で均一
の輝度となる補正係数の2次元配列として予め求められ
てRAM133に記憶されている。このような作業はデ
ジタルカメラ100の組立時等に行われる。
When the generation of the correction incident angle table 144 is completed, two correction tables 145 are next generated from the four basic correction tables 162. The four basic correction tables 162 correspond to the four basic incident angle tables 161, and the optical system 121 is close to the pupil and the F22
State, near pupil and F6.7 state, far pupil and F
The state corresponds to the state of No. 22 and the state of F6.7 which is far from the pupil. Note that these basic correction tables 162 photograph a subject of uniform density illuminated uniformly in these conditions, and this image is formed as a two-dimensional array of correction coefficients with which uniform luminance is obtained in consideration of the sensitivity unevenness of the CCD. It is obtained in advance and stored in the RAM 133. Such an operation is performed when the digital camera 100 is assembled.

【0058】そして、図11(a)に示すように、撮影
時の絞りの状態であるF11を基準に、瞳近であってF
22の状態に対応する基本補正テーブル162aおよび
瞳近であってF6.7の状態に対応する基本補正テーブ
ル162bの各補正係数を内挿することにより、瞳近で
あってF11の状態に対応する補正テーブル145aを
生成する(ステップS34)。また、図11(b)に示
すように、瞳遠であってF22の状態に対応する基本補
正テーブル162cおよび瞳遠であってF6.7の状態
に対応する基本補正テーブル162dの各補正係数を内
挿することにより、瞳遠であってF11の状態に対応す
る補正テーブル145bを生成する(ステップS3
5)。なお、上記ステップS32ないしS35の処理は
任意の順序で行われてよい。
Then, as shown in FIG. 11 (a), the pupil is close to the pupil with respect to F11 which is the aperture state at the time of photographing.
By interpolating the respective correction coefficients of the basic correction table 162a corresponding to the state 22 and the basic correction table 162b near the pupil and corresponding to the state of F6.7, it is close to the pupil and corresponds to the state of F11. A correction table 145a is generated (Step S34). Further, as shown in FIG. 11B, the correction coefficients of the basic correction table 162c which is far from the pupil and corresponds to the state of F22 and the basic correction table 162d which is far and which corresponds to the state of F6.7 are shown in FIG. By performing interpolation, a correction table 145b that is far from the pupil and corresponds to the state of F11 is generated (step S3).
5). The processes of steps S32 to S35 may be performed in any order.

【0059】以上の処理により、瞳近と瞳遠とのそれぞ
れについて撮影時の絞りの状態における2つの補正テー
ブル145a,145bが2つの補正用入射角テーブル
144a,144bに対応して生成される。
By the above processing, two correction tables 145a and 145b in the aperture state at the time of photographing for the near pupil and the far pupil are generated corresponding to the two correction incident angle tables 144a and 144b.

【0060】このデジタルカメラ100では補正情報と
して補正用入射角テーブル144と補正テーブル145
との組合せを2種類準備する。そして、CCD111上
の各ブロックにおける基準補正係数を求める際にはこれ
らの組合せの一方のみを利用する。これは、特殊な光学
系にも対応することを目的としている。
In the digital camera 100, the correction angle table 144 and the correction table 145 are used as correction information.
And two combinations are prepared. Then, when determining the reference correction coefficient for each block on the CCD 111, only one of these combinations is used. This is intended to cope with a special optical system.

【0061】図12は瞳近の状態と瞳遠の状態とにおい
て光学系121の光軸121aと入射光束の光束中心L
cとがなす角θが、CCD111の受光面の光軸中12
1b心から隅の方へと遠ざかるにつれて変化する様子を
示す図である。グラフ201は瞳近の状態において図1
3(a)に示すように光束中心Lcが光軸121aから
漸次遠ざかる場合を示し、グラフ202は瞳遠の状態に
おいて図13(b)に示すように光束中心Lcが光軸1
21aに漸次近づく場合を示す。また、グラフ203は
瞳近と瞳遠との間の状態における角θの変化の様子を示
す。
FIG. 12 shows the optical axis 121a of the optical system 121 and the luminous flux center L of the incident luminous flux when the pupil is near and far from the pupil.
c is equal to 12 in the optical axis of the light receiving surface of the CCD 111.
It is a figure which shows a mode that changes as it goes away from a 1b heart toward a corner. Graph 201 shows FIG. 1 in a state near the pupil.
3 (a) shows a case where the light beam center Lc gradually moves away from the optical axis 121a, and the graph 202 shows that the light beam center Lc is shifted from the optical axis 1 as shown in FIG.
21a shows a case where it gradually approaches 21a. A graph 203 shows how the angle θ changes in the state between the near pupil and the far pupil.

【0062】図12に示すように、このデジタルカメラ
100では瞳近の状態と瞳遠の状態とでは光軸中心から
離れるに従って角θの変化の様子が大きく異なる。した
がって、ブロックの基準補正係数を求める際にブロック
の中心である基準位置に入射する光束の光束中心Lcが
光軸121aから漸次離れる場合には瞳近の状態に関す
る補正用入射角テーブル144aおよび補正テーブル1
45aを利用し、光束中心Lcが光軸121aに漸次近
づく場合には瞳遠の状態に関する補正用入射角テーブル
144bおよび補正テーブル145bを利用する。以上
の理由により、デジタルカメラ100では2種類の補正
情報を準備してこれらを使い分けてより適切なシェーデ
ィング補正を実現している。
As shown in FIG. 12, in the digital camera 100, the state of the angle θ changes greatly as the distance from the optical axis center increases between the near-pupil state and the far-pupil state. Therefore, when the center Lc of the light beam incident on the reference position, which is the center of the block, gradually deviates from the optical axis 121a when obtaining the reference correction coefficient of the block, the correction incident angle table 144a and the correction table for the state near the pupil are used. 1
When the light beam center Lc gradually approaches the optical axis 121a using the 45a, the correction incident angle table 144b and the correction table 145b related to the distant pupil state are used. For the reasons described above, the digital camera 100 prepares two types of correction information and uses them separately to realize more appropriate shading correction.

【0063】なお、一般のカメラレンズでは、図13
(a)にて示すように受光素子に入射する光束の光束中
心Lcは漸次光軸121aから離れるため、準備する補
正情報は瞳近の状態の補正用入射角テーブル144aお
よび補正テーブル145aのみでよい。
In a general camera lens, FIG.
As shown in (a), the luminous flux center Lc of the luminous flux incident on the light receiving element gradually moves away from the optical axis 121a, so that the correction information to be prepared is only the correction incident angle table 144a and the correction table 145a in the state near the pupil. .

【0064】<2.2.2 入射方向の算出>図7に示すス
テップS21が完了すると、次に、図6に示す入射角テ
ーブル算出部151が入射角テーブル152を生成する
(ステップS22)。入射角テーブル152とは、撮影
時のズーム位置および絞りの状態においてCCD111
の光軸中心121bから受光素子111aまでの距離R
cと、この受光素子111aに入射する光束の光束中心
Lcと光軸121aとがなす角θとの関係を示すテーブ
ルである。
<2.2.2 Calculation of Incident Direction> When step S21 shown in FIG. 7 is completed, next, the incident angle table calculator 151 shown in FIG. 6 generates the incident angle table 152 (step S22). The incident angle table 152 indicates the position of the CCD 111 at the zoom position and aperture state during shooting.
Distance R from the optical axis center 121b to the light receiving element 111a
4 is a table showing a relationship between the light flux center Lc of the light flux incident on the light receiving element 111a and the angle θ formed by the optical axis 121a.

【0065】図14は入射角テーブル152を生成する
処理の流れを示す流れ図である。入射角テーブル152
は既述の4つの基本入射角テーブル161を内挿するこ
とにより生成されるが、内挿の条件を取得するために、
まず、入射角テーブル算出部151がレンズユニット1
02からレンズユニットの種類を取得し(ステップS4
1)、さらに、レンズユニット102から撮影時のズー
ム位置および撮影時の絞りの状態を示す値(この例の場
合、F11)を取得する(ステップS42)。
FIG. 14 is a flowchart showing the flow of processing for generating the incident angle table 152. Incident angle table 152
Is generated by interpolating the four basic incident angle tables 161 described above. In order to obtain the interpolation conditions,
First, the incident angle table calculator 151 sets the lens unit 1
02, the type of the lens unit is obtained (step S4).
1) Further, a value (F11 in this example) indicating the zoom position at the time of shooting and the state of the aperture at the time of shooting is acquired from the lens unit 102 (step S42).

【0066】次に、入射角テーブル算出部151は取得
したレンズユニットの種類からレンズユニットテーブル
163を参照してユニット標準角θuを取得する(ステ
ップS43)。ユニット標準角θuとは絞りが最も絞ら
れた状態(具体的には、F22)にてCCD111上の
光軸中心121bから所定距離だけ離れた位置に入射す
る光束の光束中心Lcが光軸121aとなす角を示す値
であり、光学系121の種類およびズーム位置に応じて
光束全体がどれだけの程度で漸次広がりつつ(あるい
は、漸次収束しつつ)CCD111へと導かれるのかを
示す指標値である。なお、絞りが最も絞られた状態にて
ユニット標準角θuが規定されるのは、光学系121の
レンズの外周や光学部品の縁による影響を受けることな
く指標となる角を規定することができるからである。
Next, the incident angle table calculator 151 obtains the unit standard angle θu from the obtained lens unit type by referring to the lens unit table 163 (step S43). The unit standard angle θu means that the light beam center Lc of a light beam incident on the CCD 111 at a position separated by a predetermined distance from the optical axis center 121b on the CCD 111 in the state where the stop is most narrowed (specifically, F22) is the same as the optical axis 121a. It is a value indicating the angle to be formed, and is an index value indicating to what extent the entire light flux is gradually spread (or gradually converged) to the CCD 111 according to the type of the optical system 121 and the zoom position. . Note that the unit standard angle θu is defined in the state where the aperture is most narrowed, and the angle serving as an index can be defined without being affected by the outer periphery of the lens of the optical system 121 or the edge of the optical component. Because.

【0067】図15はレンズユニットテーブル163の
具体例を示す図である。レンズユニットテーブル163
のユニット番号は交換可能なレンズユニット102の種
類を示す番号である。ズーム位置は2桁の16進数にて
表されており、情報量を低減するために1桁目が0の場
合だけがレンズユニットテーブル163に記録されてい
る。そして、各行にはユニット番号に対応するレンズユ
ニット102ついて、各ズーム位置のユニット標準角θ
uが格納される。
FIG. 15 is a diagram showing a specific example of the lens unit table 163. Lens unit table 163
Is a number indicating the type of the interchangeable lens unit 102. The zoom position is represented by a two-digit hexadecimal number, and only the case where the first digit is 0 is recorded in the lens unit table 163 in order to reduce the amount of information. In each row, the lens unit 102 corresponding to the unit number, the unit standard angle θ at each zoom position
u is stored.

【0068】例えば、撮影時にレンズユニット102か
らユニット番号が「02」であり、ズーム位置が「3
0」に設定されているとの情報が取得されると、入射角
テーブル算出部151が現在のユニット標準角θuを
「−1.0」であると特定する。なお、図15では他の
欄のユニット標準角θuの値の記載を省略している。
For example, at the time of photographing, the unit number is “02” from the lens unit 102 and the zoom position is “3”.
When the information indicating that it is set to “0” is acquired, the incident angle table calculation unit 151 specifies that the current unit standard angle θu is “−1.0”. In FIG. 15, the description of the values of the unit standard angle θu in other columns is omitted.

【0069】ユニット標準角θuを取得すると、次に、
図16に示すように既述の4つの基本入射角テーブル1
61のうち、絞りの状態がF22である2つの基本入射
角テーブル161a,161cをユニット標準角θuに
基づいて内挿し、撮影時のズーム位置であってF22の
状態に対応する入射角テーブル161eを一時的に生成
する(ステップS44)。具体的には、ユニット標準角
θuは光軸中心121bから所定の距離Rc(この例の
場合、Rc=3.0)に位置する受光素子111aに入
射する光束の光軸121aに対する傾きを表すことか
ら、この距離Rc(=3.0)における角θの値が取得
したユニット標準角θu(=−1.0)となるように両
基本入射角テーブル161a,161cのそれぞれの角
θを内挿する。
After obtaining the unit standard angle θu,
As shown in FIG. 16, the above-described four basic incident angle tables 1
Of the 61, two basic incident angle tables 161a and 161c whose aperture state is F22 are interpolated based on the unit standard angle θu, and the incident angle table 161e corresponding to the zoom position at the time of photographing and corresponding to the state of F22 is obtained. It is generated temporarily (step S44). Specifically, the unit standard angle θu represents the inclination of the light beam incident on the light receiving element 111a located at a predetermined distance Rc (Rc = 3.0 in this example) from the optical axis center 121b with respect to the optical axis 121a. Therefore, the angles θ of the two basic incident angle tables 161a and 161c are interpolated so that the value of the angle θ at this distance Rc (= 3.0) becomes the acquired unit standard angle θu (= −1.0). I do.

【0070】同様の内挿比により、絞りの状態がF6.
7である2つの基本入射角テーブル161b,161d
を内挿し、撮影時のズーム位置であってF6.7の状態
に対応する入射角テーブル161fを一時的に生成する
(ステップS45)。
By the same interpolation ratio, the state of the diaphragm is changed to F6.
7, two basic incident angle tables 161b and 161d
Is interpolated to temporarily generate the incident angle table 161f corresponding to the zoom position at the time of shooting and the state of F6.7 (step S45).

【0071】さらに、生成した2つの一時的な入射角テ
ーブル161e,161fを絞りの状態に関して内挿
し、撮影時のズーム位置であってF11の状態に対応す
る最終的な入射角テーブル152を生成する(ステップ
S46)。これにより、撮影時の光学系121の状態に
おける光軸中心121bからの距離Rcと距離Rcの位
置に入射する光束の光束中心Lcと光軸121aとがな
す角θとの関係が求められる。
Further, the two generated incident angle tables 161e and 161f are interpolated with respect to the state of the aperture, and a final incident angle table 152 corresponding to the zoom position at the time of photographing and the state of F11 is generated. (Step S46). Thus, the relationship between the distance Rc from the optical axis center 121b in the state of the optical system 121 at the time of photographing and the angle θ formed by the optical axis 121a and the light beam center Lc of the light beam incident on the position at the distance Rc is obtained.

【0072】なお、入射角テーブル152を生成するに
あたり、ズーム位置の2つの状態(すなわち、瞳近、瞳
遠)に関する基本入射角テーブル161のみならずそれ
ぞれのズーム位置について絞りの2つの状態に関する計
4つの基本入射角テーブル161を予め準備している
が、これは、光学系121が複数枚のレンズを有する場
合に、あるいは、光学系121の機構上の制約を受ける
ことにより、絞りの状態に応じて光束中心Lcの傾きが
変化することを考慮するためである。
In generating the incident angle table 152, not only the basic incident angle table 161 relating to the two states of the zoom position (ie, near pupil and far pupil) but also the total state relating to the two states of the aperture at each zoom position. The four basic incident angle tables 161 are prepared in advance. However, this is necessary when the optical system 121 has a plurality of lenses, or when the optical system 121 is restricted by the mechanism, the state of the aperture is reduced. This is for considering that the inclination of the light beam center Lc changes accordingly.

【0073】<2.2.3 補正係数の算出およびシェーデ
ィング補正>図7に示すステップS22の処理が完了す
ると、次に、入射角算出部150がCCD111上の予
め区分けされている複数のブロックのうちの1つに注目
し、このブロックの中心を基準位置として特定するとと
もに、基準位置へ入射する光束(すなわち、光束中心L
c)の傾きを求める(ステップS23)。
<2.2.3 Calculation of Correction Coefficient and Shading Correction> When the processing in step S22 shown in FIG. 7 is completed, the incident angle calculation unit 150 Focusing on one, the center of this block is specified as the reference position, and the light flux entering the reference position (that is, the light flux center L
The inclination of c) is obtained (step S23).

【0074】図17はステップS23の処理の流れを示
す流れ図である。また、図18はCCD111上の1つ
のブロック300を例示する図である。
FIG. 17 is a flowchart showing the flow of the process in step S23. FIG. 18 is a diagram illustrating one block 300 on the CCD 111.

【0075】ステップS23では、まず、CCD111
上の光軸中心121bの座標を(0,0)とし、注目す
るブロック300の中心の座標(Xs,Ys)を基準位
置310として求める(ステップS51)。そして、光
軸中心121bから基準位置310までの実際の距離
(すなわち、光軸121aから基準位置310までの距
離)を基準距離Rsとして求める(ステップS52)。
例えば、基準位置310の座標が(−200,400)
であり、CCD111の各受光素子の縦横の幅(すなわ
ち、画素ピッチ)が6.25[μm]である場合には、
基準距離Rsは2.8[mm]となる。
In step S23, first, the CCD 111
The coordinates of the upper optical axis center 121b are set to (0, 0), and the coordinates (Xs, Ys) of the center of the block 300 of interest are obtained as the reference position 310 (step S51). Then, an actual distance from the optical axis center 121b to the reference position 310 (that is, a distance from the optical axis 121a to the reference position 310) is obtained as a reference distance Rs (step S52).
For example, the coordinates of the reference position 310 are (−200, 400).
In the case where the vertical and horizontal width (ie, pixel pitch) of each light receiving element of the CCD 111 is 6.25 [μm],
The reference distance Rs is 2.8 [mm].

【0076】基準距離Rsが求められると、次に、入射
角算出部150が入射角テーブル152を参照して基準
距離Rsに位置する受光素子に入射する光束の光束中心
Lcが光軸121aとなす角を基準入射角θsとして求
める(ステップS53)。具体的には、図16に示す入
射角テーブル152における距離Rcに関して2.5と
3.0との間で内挿を行い、距離Rcが基準距離Rs
(=2.8[mm])であるときの角θ(=−1.1
[゜])を基準入射角θsとして求める。
After the reference distance Rs is obtained, the incident angle calculation unit 150 refers to the incident angle table 152, and the luminous flux center Lc of the luminous flux incident on the light receiving element located at the reference distance Rs forms the optical axis 121a. The angle is obtained as the reference incident angle θs (step S53). Specifically, the distance Rc in the incident angle table 152 shown in FIG. 16 is interpolated between 2.5 and 3.0, and the distance Rc becomes equal to the reference distance Rs.
(= 2.8 [mm]), the angle θ (= −1.1
[゜]) is obtained as the reference incident angle θs.

【0077】なお、図8を用いて説明したように、光束
中心Lcは光軸121aを含む1つの面に沿う方向を向
くことから、基準入射角θsを求めることにより基準位
置310に入射する光束の入射方向(3次元ベクトルに
て表現可能な入射方向)を特定することができる。すな
わち、基準入射角θsを求める処理は実質的には基準位
置310に位置する受光素子への光束の入射方向を求め
ることに相当し、図3中のステップS12に相当する処
理といえる。
As described with reference to FIG. 8, since the light beam center Lc is directed along one surface including the optical axis 121a, the light beam incident on the reference position 310 by determining the reference incident angle θs. (The incident direction that can be expressed by a three-dimensional vector) can be specified. That is, the process of obtaining the reference incident angle θs substantially corresponds to obtaining the incident direction of the light beam on the light receiving element located at the reference position 310, and can be said to be the process corresponding to step S12 in FIG.

【0078】図7中のステップS23により基準入射角
θsが求められると、この基準入射角θsが図6に示す
入射角算出部150から補正部140の基準補正係数算
出部142へと送られ、補正用入射角テーブル144お
よび補正テーブル145を参照して基準位置310にお
ける補正係数が基準補正係数として求められる(ステッ
プS24)。図19はステップS24の内容を示す流れ
図である。
When the reference incident angle θs is obtained in step S23 in FIG. 7, the reference incident angle θs is sent from the incident angle calculating section 150 shown in FIG. 6 to the reference correction coefficient calculating section 142 of the correcting section 140. The correction coefficient at the reference position 310 is obtained as a reference correction coefficient with reference to the correction incident angle table 144 and the correction table 145 (step S24). FIG. 19 is a flowchart showing the contents of step S24.

【0079】まず、基準入射角θsを受け取った基準補
正係数算出部142は、基準入射角θsの符号を確認し
(ステップS61)、基準入射角θsが正(または、
0)である場合には瞳近の状態に関する補正用入射角テ
ーブル144aおよび補正テーブル145aを選択する
(ステップS62)。一方、基準入射角θsが負の場合
には瞳遠の状態に関する補正用入射角テーブル144b
および補正テーブル145bを選択する(ステップS6
3)。
First, the reference correction coefficient calculation unit 142, which has received the reference incident angle θs, checks the sign of the reference incident angle θs (step S61), and determines that the reference incident angle θs is positive (or
If it is 0), the correction incident angle table 144a and the correction table 145a relating to the state near the pupil are selected (step S62). On the other hand, when the reference incident angle θs is negative, the correction incident angle table 144b for the distant pupil state
And the correction table 145b (step S6).
3).

【0080】次に、選択された補正用入射角テーブル
(以下、単に「補正用入射角テーブル144」とい
う。)および選択された補正テーブル(以下、単に「補
正テーブル145」という。)を参照して基準補正係数
が求められる(ステップS64〜S66)。
Next, the selected correction angle table (hereinafter simply referred to as “correction angle table 144”) and the selected correction table (hereinafter simply referred to as “correction table 145”) are referred to. Thus, a reference correction coefficient is obtained (steps S64 to S66).

【0081】図20は基準補正係数を求める方法(ステ
ップS64〜S66)の原理を説明するための図であ
り、図20(a)は撮影時の光学系121の状態におけ
る光束中心LcのCCD111への広がりの様子を示
し、図20(b)は瞳遠であって撮影時の絞りの状態
(すなわち、補正用入射角テーブル144aおよび補正
テーブル145aに対応する状態)における光束中心L
cのCCD111への広がりの様子を示し、図20
(c)はCCD111を光軸121aに沿う方向から見
たときの様子を示す図である。
FIG. 20 is a diagram for explaining the principle of the method (steps S64 to S66) for obtaining the reference correction coefficient. FIG. 20 (a) shows the state of the optical system 121 at the time of photographing. FIG. 20B shows the luminous flux center L in the distant pupil state and the aperture state at the time of photographing (that is, the state corresponding to the correction incident angle table 144a and the correction table 145a).
FIG. 20 shows a state in which c is spread on the CCD 111, and FIG.
(C) is a diagram showing a state when the CCD 111 is viewed from a direction along the optical axis 121a.

【0082】図20(a)および(b)に示すように、
撮影時の光束中心Lcの広がりの度合いは瞳が最も近づ
くズーム位置の場合の光束中心Lcの広がりの度合いよ
りも小さい。ここで、図20(c)にて示すように、光
軸中心121bから基準位置310へと向かう半直線上
のある位置320において、図20(b)に示すように
入射する光束の光束中心Lcが光軸121aに対して基
準入射角θsだけ傾く場合には、この位置320に対応
する補正係数を補正テーブル145から求め、これを基
準位置310に対応する基準補正係数とすることができ
る。位置320では基準位置310と同方向から光束が
入射するからである。なお、撮影時に光束中心Lcが光
軸121aに漸次近接する場合には、図20(b)は瞳
遠であって撮影時の絞りの状態(すなわち、補正用入射
角テーブル144bおよび補正テーブル145bに対応
する状態)における図となる。
As shown in FIGS. 20A and 20B,
The degree of spread of the light beam center Lc at the time of shooting is smaller than the degree of spread of the light beam center Lc at the zoom position where the pupil is closest. Here, as shown in FIG. 20C, at a certain position 320 on a semi-linear line from the optical axis center 121b to the reference position 310, the light beam center Lc of the light beam incident as shown in FIG. Is tilted by the reference incident angle θs with respect to the optical axis 121a, a correction coefficient corresponding to the position 320 is obtained from the correction table 145, and this can be used as a reference correction coefficient corresponding to the reference position 310. This is because the light flux enters the position 320 from the same direction as the reference position 310. When the light beam center Lc gradually approaches the optical axis 121a at the time of photographing, FIG. 20B shows that the pupil is far away and the aperture state at the time of photographing (that is, the correction incident angle table 144b and the correction table 145b (Corresponding state).

【0083】以上のことから、基準補正係数を求める際
には、まず、図20(b)に示す位置320と光軸中心
121bとの距離を補正用距離Rmとして求める(ステ
ップS64)。例えば、基準入射角θsが−1.1
[゜]である場合には、補正用入射角テーブル144b
が参照され、θが−1.1[゜]となるときの距離Rc
(=1.0[mm])が補正用距離Rmとして求められ
る。
As described above, when determining the reference correction coefficient, first, the distance between the position 320 shown in FIG. 20B and the optical axis center 121b is determined as the correction distance Rm (step S64). For example, when the reference incident angle θs is −1.1
If [゜], the incident angle table for correction 144b
Is referred to, and the distance Rc when θ becomes −1.1 [゜]
(= 1.0 [mm]) is obtained as the correction distance Rm.

【0084】次に、位置(以下、「補正用位置」とい
う。)320の座標を基準位置310の座標に、
Next, the coordinates of the position (hereinafter referred to as “correction position”) 320 are used as the coordinates of the reference position 310.

【0085】[0085]

【数1】 (Equation 1)

【0086】を乗じて求める(ステップS65)。例え
ば、基準距離Rsが2.8[mm]、補正用距離Rmが
1.0[mm]、基準位置310の座標(Xs,Ys)
が(−200,400)である場合には補正用位置32
0の座標(Xm,Ym)は(−71,142)と求めら
れる。
Is multiplied (step S65). For example, the reference distance Rs is 2.8 [mm], the correction distance Rm is 1.0 [mm], and the coordinates (Xs, Ys) of the reference position 310.
Is (-200, 400), the correction position 32
The coordinates (Xm, Ym) of 0 are obtained as (−71, 142).

【0087】補正テーブル145の各補正係数は、この
補正係数が用いられるべき受光素子の座標に関連づけら
れている。図21は補正テーブル145に記憶されてい
る補正係数と座標との関係の例の一部を図示したもので
ある。図21に示すように、補正テーブル145では全
ての座標位置(縦方向、横方向に1ずつ離れた全ての座
標位置)と補正係数が対応付けられている訳ではなく、
適宜間隔をおいた位置と補正係数とが関連づけられてい
る。これは近接する画素間ではシェーディングの度合い
が大きく変化しないことを利用して補正テーブル145
の情報量を削減することによるコスト削減を目的として
いる。例えば、均一照明された均一濃度の被写体を撮影
して基本補正テーブル162を生成する際に適宜間引き
処理、あるいは、代表する座標位置の補正係数を周囲の
補正係数の平均値とする処理等を行うことで基本補正テ
ーブル162の生成時点で情報量の削減が図られてい
る。
Each correction coefficient in the correction table 145 is associated with the coordinates of the light receiving element where this correction coefficient is to be used. FIG. 21 illustrates a part of an example of the relationship between the correction coefficients stored in the correction table 145 and the coordinates. As shown in FIG. 21, in the correction table 145, not all coordinate positions (all coordinate positions separated by one in the vertical and horizontal directions) are associated with the correction coefficients.
Positions at appropriate intervals are associated with correction coefficients. This is based on the fact that the degree of shading does not greatly change between adjacent pixels, and the correction table 145 is used.
It aims to reduce costs by reducing the amount of information. For example, when the basic correction table 162 is generated by photographing a uniformly illuminated subject having a uniform density, a thinning process is appropriately performed, or a process of setting a correction coefficient of a representative coordinate position to an average value of surrounding correction coefficients is performed. Thus, the amount of information is reduced at the time of generation of the basic correction table 162.

【0088】したがって、求められた補正用位置320
の座標は必ずしも補正係数に関連づけられた座標と一致
するとは限らない。そこで、補正用位置320が求めら
れると、この補正用位置320に近接する4つの座標に
関連づけられた補正係数を補正テーブル145から読み
出し、これらの4つの補正係数を座標に関して内挿し、
補正用位置320における補正係数を基準位置310に
対応する基準補正係数として求める(ステップS6
6)。図21に示す4つの補正係数の例の場合、座標
(−71,142)の補正用位置320の補正係数が
1.06として求められる。
Therefore, the obtained correction position 320
Does not always coincide with the coordinates associated with the correction coefficient. Therefore, when the correction position 320 is obtained, the correction coefficients associated with the four coordinates close to the correction position 320 are read from the correction table 145, and these four correction coefficients are interpolated with respect to the coordinates.
The correction coefficient at the correction position 320 is obtained as a reference correction coefficient corresponding to the reference position 310 (step S6).
6). In the case of the example of four correction coefficients shown in FIG. 21, the correction coefficient of the correction position 320 at the coordinates (-71, 142) is obtained as 1.06.

【0089】以上に説明した基準入射角θsの算出(図
7:ステップS23)および基準補正係数の算出(ステ
ップS24)を全てのブロックについて繰り返し行うこ
とにより、全ブロックの基準補正係数が求められる(ス
テップS25)。
The above-described calculation of the reference incident angle θs (FIG. 7: step S23) and calculation of the reference correction coefficient (step S24) are repeatedly performed for all the blocks, whereby the reference correction coefficients of all the blocks are obtained (FIG. 7). Step S25).

【0090】全てのブロックの基準補正係数が求められ
ると、基準位置に位置する受光素子以外の受光素子に対
する補正係数が補正係数補間部143による補間処理に
より求められる。なお、1つのブロック内の受光素子か
らの出力は基準補正係数により一律に補正されてもよい
が、ブロック間の境界を目立たなくさせてより適切な補
正を行うためにこのデジタルカメラ100では各受光素
子に対応する補正係数を周囲の基準位置の基準補正係数
を線形補間して求めるようにしている。
When the reference correction coefficients of all the blocks are obtained, the correction coefficients for the light receiving elements other than the light receiving element located at the reference position are obtained by the interpolation processing by the correction coefficient interpolating unit 143. The output from the light receiving element in one block may be uniformly corrected by the reference correction coefficient. However, in order to make the boundary between the blocks inconspicuous and to perform more appropriate correction, the digital camera 100 uses each light receiving element. The correction coefficient corresponding to the element is obtained by linearly interpolating the reference correction coefficient at the surrounding reference position.

【0091】図22は補正係数を求める対象となる受光
素子の位置330について、周囲の基準位置310a,
310b,310c,310dの基準補正係数に基づい
て補正係数を求める処理を説明するための図である。補
正係数を求めるに際し、まず、対象となる受光素子の位
置330と各基準位置310aないし310dとを対角
線上の頂点として有する矩形の面積が求められる。これ
により、図22中に示す矩形310a,311a,33
0,311d、矩形310b,311b,330,31
1a、矩形310c,311c,330,311b、矩
形310d,311d,330,311cのそれぞれの
面積がAa,Ab,Ac,Adとして求められるものと
する。
FIG. 22 shows a position 330 of a light receiving element for which a correction coefficient is to be obtained.
It is a figure for explaining processing which calculates a correction coefficient based on 310b, 310c, and 310d standard correction coefficients. In obtaining the correction coefficient, first, an area of a rectangle having the position 330 of the light receiving element to be targeted and each of the reference positions 310a to 310d as diagonal vertices is obtained. Thereby, the rectangles 310a, 311a, and 33 shown in FIG.
0, 311d, rectangles 310b, 311b, 330, 31
1a, the areas of the rectangles 310c, 311c, 330, 311b, and the rectangles 310d, 311d, 330, 311c are obtained as Aa, Ab, Ac, Ad.

【0092】次に、基準位置310a,310b,31
0c,310dの基準補正係数がそれぞれKa,Kb,
Kc,Kdであるものとして、
Next, the reference positions 310a, 310b, 31
The reference correction coefficients of 0c and 310d are Ka, Kb,
Kc and Kd,

【0093】[0093]

【数2】 (Equation 2)

【0094】にて示される演算を行って位置330に位
置する受光素子に対する補正係数を求める。この処理に
より、各補正係数の値が位置330に対して反対側に位
置する矩形の面積の割合に応じて加算されて位置330
における補正係数が求められることとなる。
The correction coefficient for the light receiving element located at the position 330 is obtained by performing the calculation shown in the above. By this processing, the value of each correction coefficient is added according to the ratio of the area of the rectangle located on the opposite side to the position 330, and the position 330
Is determined.

【0095】以上の補間処理を全ての受光素子に関して
行うことにより、マイクロレンズの影響によるシェーデ
ィングを補正するための補正係数が全受光素子について
求められる(ステップS26)。
By performing the above-described interpolation processing for all the light receiving elements, a correction coefficient for correcting shading due to the influence of the microlens is obtained for all the light receiving elements (step S26).

【0096】さらに、予め求められている各受光素子の
光電変換特性のばらつき(光学系121の状態変化に依
存しないばらつきであり、いわゆる、感度ムラをい
う。)を補正するための補正係数がステップS26にて
求められた補正係数に乗算され、マイクロレンズによる
シェーディングおよび光電変換特性のばらつきの双方を
考慮した最終的な補正係数が求められる(ステップS2
7)。例えば、マイクロレンズによるシェーディングに
対する補正係数が1.3であり、光電変換特性のばらつ
きに対する補正係数が1.2の場合には最終的な補正係
数は1.56となる。なお、光電変換特性のばらつきを
補正するための補正係数は、予めCCD111に均一な
平行光線を照射し、このとき各受光素子からの出力が同
一となる係数として求められRAM133に記憶され
る。
Further, a correction coefficient for correcting the variation of the photoelectric conversion characteristic of each light receiving element which is obtained in advance (variation that does not depend on a change in the state of the optical system 121, so-called sensitivity unevenness) is set in steps. The final correction coefficient is obtained by multiplying the correction coefficient obtained in S26 by taking into account both the shading by the microlens and the variation in the photoelectric conversion characteristics (step S2).
7). For example, when the correction coefficient for shading by the microlens is 1.3 and the correction coefficient for variation in photoelectric conversion characteristics is 1.2, the final correction coefficient is 1.56. A correction coefficient for correcting the variation in the photoelectric conversion characteristics is obtained in advance by irradiating the CCD 111 with a uniform parallel light beam, and at this time, the output from each light receiving element is obtained as the same coefficient and stored in the RAM 133.

【0097】最終的な補正係数が求められると、各受光
素子からの出力である画像中の各画素の画素値に補正係
数が乗算され、マイクロレンズによるシェーディングお
よび光電変換特性のばらつきについて補正された画像が
得られる(ステップS28)。その後、さらに必要な処
理が画像に適宜施され、図5に示すメモリスロット11
4を介してメモリカード114aに記憶される。
When the final correction coefficient is obtained, the pixel value of each pixel in the image output from each light receiving element is multiplied by the correction coefficient, and the shading by the microlens and the variation in the photoelectric conversion characteristics are corrected. An image is obtained (step S28). Thereafter, necessary processing is appropriately performed on the image, and the memory slot 11 shown in FIG.
4 is stored in the memory card 114a.

【0098】また、撮影ごとに図7に示した処理が行わ
れ、撮影ごとに異なる光学系121の種類および状態に
応じて適切な補正が行われる。
Further, the processing shown in FIG. 7 is performed for each photographing, and an appropriate correction is performed according to the type and state of the optical system 121 which differs for each photographing.

【0099】以上、この発明の第1の実施の形態である
デジタルカメラ100の構成およびシェーディング補正
等の動作について説明してきたが、デジタルカメラ10
0では受光素子への光束の入射方向と補正係数との関係
を表す情報として補正用入射角テーブル144および補
正テーブル145を予め記憶しているので、受光素子へ
の光束の入射方向により複雑に変化するマイクロレンズ
の影響によるシェーディングを適切に補正することがで
きる。
The configuration and operation of the digital camera 100 according to the first embodiment of the present invention such as shading correction have been described above.
In the case of 0, since the correction incident angle table 144 and the correction table 145 are stored in advance as information indicating the relationship between the direction of incidence of the light beam on the light receiving element and the correction coefficient, it changes complicatedly depending on the direction of incidence of the light beam on the light receiving element. The shading due to the influence of the microlenses can be appropriately corrected.

【0100】また、所定のレンズ配置(例えば、瞳近や
瞳遠)における受光素子の位置と補正係数との関係を補
正テーブル145として記憶し、また、このレンズ配置
にて各受光素子へと入射する光束の光束中心が光軸12
1aとなす角、すなわち、受光素子の位置と入射光束の
入射方向との関係を示す情報を補正用入射角テーブル1
44として記憶することから、ズーム位置(すなわち、
レンズ配置)の変化により複雑に変化するシェーディン
グをこれらのテーブルを用いて補正することができる。
その結果、少ない記憶容量にて任意のズーム位置におけ
る適切な補正を行うことができる。
The relationship between the position of the light receiving element and the correction coefficient in a predetermined lens arrangement (for example, near the pupil or far from the pupil) is stored as a correction table 145, and incident on each light receiving element with this lens arrangement. The center of the luminous flux is the optical axis 12
1a, that is, information indicating the relationship between the position of the light receiving element and the incident direction of the incident light beam.
44, the zoom position (ie,
Shading that changes in a complex manner due to a change in the lens arrangement can be corrected using these tables.
As a result, appropriate correction at an arbitrary zoom position can be performed with a small storage capacity.

【0101】また、補正テーブル145は均一照明され
る均一濃度の被写体を実際に撮影することにより求めら
れるので、CCD111の個体差の影響を受けないシェ
ーディング補正が実現される。なお、光電変換特性のば
らつきの補正も実際の撮影を通じて補正係数が求められ
るので、光電変換特性のばらつきについてもCCD11
1の個体差の影響を受けない補正が実現され、過補正お
よび補正不足が防止される。
Further, since the correction table 145 is obtained by actually photographing an object of uniform density which is uniformly illuminated, shading correction which is not affected by individual differences of the CCD 111 is realized. The correction coefficient for the variation in the photoelectric conversion characteristic is also obtained through actual photographing.
Correction not affected by the individual difference of 1 is realized, and overcorrection and undercorrection are prevented.

【0102】また、デジタルカメラ100ではCCD1
11の受光面を複数のブロックに区分けし、これらのブ
ロックにおける基準位置の補正係数を基準補正係数とし
て求め、基準補正係数を補間して全ての受光素子に対す
る補正係数を求めている。これにより、補正情報に基づ
く補正係数の算出処理の負担を軽減し、補正係数の迅速
な算出を実現している。
In the digital camera 100, the CCD 1
Eleven light receiving surfaces are divided into a plurality of blocks, correction coefficients at reference positions in these blocks are obtained as reference correction coefficients, and correction coefficients for all light receiving elements are obtained by interpolating the reference correction coefficients. As a result, the burden on the process of calculating the correction coefficient based on the correction information is reduced, and quick calculation of the correction coefficient is realized.

【0103】また、受光素子に入射する光束の光束中心
が光学系121の光軸に漸次近接する場合と漸次離れる
場合とのそれぞれについて2種類の補正情報を適宜使い
分けるので、より適切な補正を実現している。
Further, two kinds of correction information are appropriately used for the case where the light beam center of the light beam incident on the light receiving element gradually approaches the optical axis of the optical system 121 and the case where the light beam center gradually separates, so that more appropriate correction is realized. are doing.

【0104】また、光学系121においてレンズ配置お
よび絞りの状態が互いに異なる場合の4つの基本入射角
テーブル161を内挿することにより入射角テーブル1
52を求めるので、撮影時の光学系121のレンズ配置
および絞りの状態での基準位置に入射する光束の入射方
向を容易に求めることができる。
Further, by interpolating the four basic incident angle tables 161 in the case where the lens arrangement and the aperture state are different from each other in the optical system 121, the incident angle table 1 is obtained.
Since 52 is obtained, it is possible to easily obtain the lens arrangement of the optical system 121 at the time of photographing and the incident direction of the light beam incident on the reference position in the state of the stop.

【0105】さらに、デジタルカメラ100では補正係
数の算出に際してレンズユニット102の種類に固有の
情報をレンズユニットテーブル163として記憶するこ
とにより、レンズユニット102の交換に対しても適切
に対応することができる。
Further, in the digital camera 100, information unique to the type of the lens unit 102 is stored as the lens unit table 163 when calculating the correction coefficient, so that the replacement of the lens unit 102 can be appropriately dealt with. .

【0106】<3. 第2の実施の形態>図23はこの
発明の第2の実施の形態であるデジタルカメラ100a
の外観を示す斜視図である。デジタルカメラ100aは
第1の実施の形態に係るデジタルカメラ100とほぼ同
様の構成であり、図15に示したレンズユニットテーブ
ル163に関する部分についてのみ異なる。図23では
図4に示したデジタルカメラ100と同様の構成につい
ては同様の符号を付している。
<3. Second Embodiment> FIG. 23 shows a digital camera 100a according to a second embodiment of the present invention.
FIG. The digital camera 100a has substantially the same configuration as the digital camera 100 according to the first embodiment, and differs only in a portion relating to the lens unit table 163 shown in FIG. In FIG. 23, the same components as those of the digital camera 100 shown in FIG. 4 are denoted by the same reference numerals.

【0107】第1の実施の形態では、交換可能なレンズ
ユニット102の種類に応じた固有の値であって補正係
数を求める際に利用されるものをレンズユニットテーブ
ル163として本体部101内に記憶しておくようにな
っているが、第2の実施の形態に係るデジタルカメラ1
00aでは、レンズユニット102内部にレンズユニッ
ト102固有の情報を記憶する。
In the first embodiment, a unique value corresponding to the type of the interchangeable lens unit 102 and used for obtaining the correction coefficient is stored in the main body 101 as the lens unit table 163. The digital camera 1 according to the second embodiment
At 00a, information unique to the lens unit 102 is stored inside the lens unit 102.

【0108】具体的には、図15に示すレンズユニット
テーブル163のうち、レンズユニットの種類に対応す
る部分(図15のレンズユニットテーブル163の1行
分)をレンズユニット102内の回路基板123上に配
置されたメモリ124に記憶する。
Specifically, of the lens unit table 163 shown in FIG. 15, a portion corresponding to the type of the lens unit (for one row of the lens unit table 163 in FIG. 15) is placed on the circuit board 123 in the lens unit 102. Is stored in the memory 124 arranged at

【0109】このように、レンズユニット102固有の
情報をレンズユニット102に持たせることにより、本
体部101ではレンズユニットテーブル163を記憶す
る必要がなくなり、本体部101に設けられるメモリの
記憶容量を低減することができる。
As described above, by providing information unique to the lens unit 102 to the lens unit 102, the main unit 101 does not need to store the lens unit table 163, and the storage capacity of the memory provided in the main unit 101 is reduced. can do.

【0110】また、本体部101とは別にレンズユニッ
ト102が後発的に開発された場合であっても、本体部
101の設計変更やメモリの書き換えを行うことなく適
切にシェーディング補正を行うことができる。
Further, even if the lens unit 102 is later developed separately from the main body 101, shading correction can be appropriately performed without changing the design of the main body 101 or rewriting the memory. .

【0111】<4. 第3の実施の形態>次に、第3の
実施の形態として、第1の実施の形態において説明した
補正係数補間部143による基準補正係数の補間処理
(図7:ステップS26)の他の例を説明する。
<4. Third Embodiment> Next, as a third embodiment, another example of the interpolation processing of the reference correction coefficient by the correction coefficient interpolation unit 143 described in the first embodiment (FIG. 7: step S26). Will be described.

【0112】図24に示す縦横に配列された各矩形領域
はCCD111上の受光素子の配列を模式的に表したも
のであり、各矩形領域は1つの受光素子に対応してい
る。また、符号310a,310b,310c,310
dを付す4つの矩形領域は基準位置310を表してお
り、これら4つの矩形領域内に記入された数値は基準補
正係数を示す。なお、便宜上、実際の補正係数を100
倍して記入している。
Each of the rectangular areas arranged in the vertical and horizontal directions shown in FIG. 24 schematically represents the arrangement of the light receiving elements on the CCD 111, and each rectangular area corresponds to one light receiving element. Reference numerals 310a, 310b, 310c, 310
The four rectangular areas denoted by d represent the reference position 310, and the numerical values entered in these four rectangular areas indicate the reference correction coefficients. For convenience, the actual correction coefficient is set to 100
Doubled and filled.

【0113】図24に示すように、基準補正係数が縦方
向に同一である場合には、これら4つの基準補正係数を
線形補間(例えば、図22および数2を用いて説明した
補間)を行い、4つの基準位置310aないし310d
により規定される領域312(図24中、太線にて囲む
4×4個の矩形領域)の各補正係数を求めると補正係数
の値が縦方向に同一となる。図25は図24と同様に基
準補正係数が縦方向に同一であり、左右方向で1だけ異
なる場合の補間例を示す図である。なお、これらの図に
おいて補正係数の値に応じて領域312内の各矩形領域
に平行斜線を付している。
As shown in FIG. 24, when the reference correction coefficients are the same in the vertical direction, these four reference correction coefficients are subjected to linear interpolation (for example, the interpolation described with reference to FIG. 22 and Equation 2). , Four reference positions 310a to 310d
When the respective correction coefficients of the area 312 (4 × 4 rectangular areas surrounded by a thick line in FIG. 24) defined by are obtained, the values of the correction coefficients become the same in the vertical direction. FIG. 25 is a diagram showing an example of interpolation in the case where the reference correction coefficient is the same in the vertical direction as in FIG. In these figures, each rectangular area in the area 312 is hatched in parallel according to the value of the correction coefficient.

【0114】図24および図25に示すように、単に基
準補正係数を線形的に補間するのみであると、基準補正
係数が縦方向あるいは横方向等に揃ってしまう可能性が
ある。これにより、シェーディング補正により画像に縞
模様が現れる。このような縞模様は画像の品質を低下さ
せる原因となる。そこで、第3の実施の形態では補間処
理の際に人為的にノイズ成分を付与することにより、補
正後の画像を観察者の目に違和感のないものとしてい
る。
As shown in FIGS. 24 and 25, if the reference correction coefficients are simply linearly interpolated, the reference correction coefficients may be aligned vertically or horizontally. Thereby, a stripe pattern appears in the image due to the shading correction. Such a striped pattern causes deterioration in image quality. Therefore, in the third embodiment, a noise image is artificially added at the time of the interpolation processing, so that the corrected image does not cause an uncomfortable feeling to the observer.

【0115】図26(a)ないし(d)はノイズ成分を
与えた補間に用いられるテーブルを示し、図26
(a),(b),(c),(d)のテーブルはそれぞれ
基準位置310a,310b,310c,310dに対
応付けられる。また、各テーブル中の数値の位置は4つ
の基準位置310aないし310dの位置に対応してい
る。
FIGS. 26 (a) through 26 (d) show tables used for interpolation with noise components.
The tables (a), (b), (c), and (d) are associated with reference positions 310a, 310b, 310c, and 310d, respectively. The positions of numerical values in each table correspond to the positions of the four reference positions 310a to 310d.

【0116】図27は図26(a)ないし(d)に示す
テーブルを用いて基準補正係数を補間して補正係数を求
めた結果を示す図である。例えば、図27の領域312
における左から3番目、上から2番目の矩形領域の補正
係数を求める際には、左上の基準位置310aの基準補
正係数「137」に図26(a)に示すテーブル中の左
から3番目、上から2番目の数値「0.09」を乗じ、
同様に、右上の基準位置310bの基準補正係数「13
3」に図26(b)に示すテーブル中の同位置の数値
「0.21」を乗じ、右下の基準位置310cの基準補
正係数「133」に図26(c)に示すテーブル中の同
位置の数値「0.49」を乗じ、左下の基準位置310
dの基準補正係数「137」に図26(d)に示すテー
ブル中の同位置の数値「0.21」を乗じ、これらの値
の和をこの位置における補正係数「134」として求め
る。
FIG. 27 is a diagram showing a result of obtaining a correction coefficient by interpolating a reference correction coefficient using the tables shown in FIGS. For example, the region 312 in FIG.
When calculating the correction coefficient of the third rectangular area from the left and the second from the top in FIG. 26, the reference correction coefficient “137” of the upper left reference position 310a is set in the table shown in FIG. Multiply by the second number from the top "0.09"
Similarly, the reference correction coefficient “13” at the upper right reference position 310b.
26 is multiplied by the numerical value “0.21” at the same position in the table shown in FIG. 26B, and the reference correction coefficient “133” at the lower right reference position 310c is multiplied by the same value in the table shown in FIG. The reference value 310 at the lower left is multiplied by the value “0.49” of the position.
The reference correction coefficient “137” of d is multiplied by the numerical value “0.21” at the same position in the table shown in FIG. 26D, and the sum of these values is determined as the correction coefficient “134” at this position.

【0117】同様の手法により補正係数を求めた他の例
を図28に示す。また、図29に例示すように基準位置
310および基準補正係数が存在し、これらの基準位置
310により規定される8×8個の矩形領域(図29
中、符号313にて示す平行斜線にて縁取りされた領
域)の補正係数を求めた場合において、求められた補正
係数の値を高さとして立体的に表現したものを図30に
示す。
FIG. 28 shows another example in which the correction coefficient is obtained by the same method. Further, as shown in FIG. 29, there are a reference position 310 and a reference correction coefficient, and 8 × 8 rectangular areas defined by these reference positions 310 (FIG. 29).
FIG. 30 shows a three-dimensional representation of the obtained correction coefficient value as a height when the correction coefficient of the medium (area bordered by the parallel oblique line indicated by reference numeral 313) is obtained.

【0118】図26(a)ないし(d)のテーブルは、
通常の線形補間に用いる係数から若干異なった値を格納
している。したがって、これらのテーブルを用いて補間
を行った結果である図27および図28では、基準補正
係数が縦方向に同一であるにもかかわらず領域312内
の補正係数は縦方向に揃わない。図30に示す補間結果
においても同様である。すなわち、補間の際に人為的に
ノイズ成分を付与することにより、補間による縞模様の
発生を防止することができ、観察者に違和感のない画像
を得ることができる。
The tables shown in FIGS. 26A to 26D are as follows.
Values slightly different from the coefficients used for normal linear interpolation are stored. Therefore, in FIGS. 27 and 28, which are the results of performing interpolation using these tables, the correction coefficients in the area 312 are not aligned in the vertical direction even though the reference correction coefficients are the same in the vertical direction. The same applies to the interpolation result shown in FIG. That is, by artificially adding a noise component at the time of interpolation, it is possible to prevent the occurrence of a striped pattern due to the interpolation, and it is possible to obtain an image without a sense of incongruity for an observer.

【0119】<5. 変形例>以上この発明に係る実施
の形態について説明してきたが、この発明は上記実施の
形態に限定されるものではなく様々な変形が可能であ
る。
<5. Modifications> Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-discussed preferred embodiments, but allows various modifications.

【0120】例えば、上記実施の形態では、基準位置3
10をブロックの中心としているが、基準位置310は
ブロックの中心に限定されるものではない。また、画素
数が多くないとき、高精度に補正したいとき、あるい
は、補正時間に余裕があるときは1つの受光素子に1つ
の基準位置310が対応付けられるものとして、全受光
素子に対して図7に示すステップS23およびS24を
繰り返し行ってもよい。この場合、補間処理(ステップ
S26)は不要となる。すなわち、基準位置310は任
意に設定されてよく、基準位置310に関連する受光素
子に対する補正係数が求められればよい。
For example, in the above embodiment, the reference position 3
Although 10 is set as the center of the block, the reference position 310 is not limited to the center of the block. When the number of pixels is not large, when correction is desired with high accuracy, or when there is enough time for correction, it is assumed that one reference position 310 is associated with one light receiving element. Steps S23 and S24 shown in FIG. 7 may be repeatedly performed. In this case, the interpolation processing (step S26) becomes unnecessary. That is, the reference position 310 may be set arbitrarily, and a correction coefficient for the light receiving element related to the reference position 310 may be obtained.

【0121】また、画像に対する補正は、A/D変換回
路134から1画素の情報が取得されるごとに行われて
もよく、画像全体の情報が取得されてから一括して行わ
れてもよい。
The correction for the image may be performed each time information of one pixel is obtained from the A / D conversion circuit 134, or may be collectively performed after the information of the entire image is obtained. .

【0122】また、上記実施の形態では補正用入射角テ
ーブル144および補正テーブル145を補正情報とし
て利用しているが、補正情報は受光素子に入射する光束
の入射方向と出力に対する補正係数との関係を実質的に
表すものであればどのようなものであってもよい。
In the above embodiment, the correction incident angle table 144 and the correction table 145 are used as correction information. The correction information relates to the relationship between the incident direction of the light beam incident on the light receiving element and the correction coefficient for the output. May be anything as long as it substantially represents.

【0123】また、上記実施の形態では、光学系121
のズーム位置および絞りの状態から受光素子への光束の
入射方向を求めているが、光学系121からの他の情報
を利用して受光素子への光束の入射方向を求めてもよ
い。
In the above embodiment, the optical system 121 is used.
Although the incident direction of the light beam to the light receiving element is obtained from the zoom position and the state of the stop, the incident direction of the light beam to the light receiving element may be obtained by using other information from the optical system 121.

【0124】また、上記実施の形態では、絞りに対して
補正係数が線形に変化するという前提に基づいて2つの
基本補正テーブル162から1つの補正テーブル145
を求めているが、より厳密な補正テーブル145を求め
るために3以上の基本補正テーブル162から、あるい
は、非線形な内挿を行って1つの補正テーブル145を
求めるようにしてもよい。
Further, in the above embodiment, the two basic correction tables 162 to one correction table 145 are used on the assumption that the correction coefficient changes linearly with respect to the aperture.
However, in order to obtain a more precise correction table 145, one correction table 145 may be obtained from three or more basic correction tables 162 or by performing nonlinear interpolation.

【0125】同様に、上記実施の形態では、ズーム位置
および絞りに対して角θが線形に変化するという前提に
基づいて4つの基本入射角テーブル161から1つの入
射角テーブル152および2つの補正用入射角テーブル
144を求めているが、さらに多くの基本入射角テーブ
ル161から、あるいは、非線形な内挿を行って入射角
テーブル152や補正用入射角テーブル144を求める
ようにしてもよい。
Similarly, in the above embodiment, the four basic incident angle tables 161 to one incident angle table 152 and two correction angle Although the incident angle table 144 is obtained, the incident angle table 152 and the correction incident angle table 144 may be obtained from more basic incident angle tables 161 or by performing nonlinear interpolation.

【0126】また、上記実施の形態では、瞳近の場合と
瞳遠の場合とに分けて2種類の補正用入射角テーブル1
44および補正テーブル145を生成しているが、既述
のように、通常のカメラレンズでは、基準入射角θsが
正となることから1種類の補正用入射角テーブル144
および補正テーブル145が生成されてもよい。逆に、
基準入射角θsの範囲に応じて3種類以上の補正用入射
角テーブル144および補正テーブル145が使い分け
られてもよい。
In the above-described embodiment, two types of correction incident angle tables 1 are provided for the near pupil and the far pupil.
44 and the correction table 145 are generated. As described above, in a normal camera lens, since the reference incident angle θs is positive, one type of the correction incident angle table 144 is used.
And a correction table 145 may be generated. vice versa,
Three or more types of correction incidence angle table 144 and correction table 145 may be selectively used depending on the range of the reference incident angle θs.

【0127】また、上記実施の形態では、レンズユニッ
ト102に光学系121が設けられるものとして説明し
たが、光学系121の一部のみがレンズユニット102
に設けられ、他の部分が本体部101に設けられてもよ
い。
In the above embodiment, the optical system 121 is provided in the lens unit 102. However, only a part of the optical system 121 is provided in the lens unit 102.
And another part may be provided in the main body 101.

【0128】また、上記実施の形態では、図26(a)
ないし(d)に示すテーブルを用いてノイズ成分を与え
た基準補正係数の補間を行っているが、これらのテーブ
ルの数値およびテーブルの大きさは一例にすぎず、適宜
決定されてよい。
In the above embodiment, FIG.
Although the interpolation of the reference correction coefficient to which the noise component is given is performed using the tables shown in (d), the numerical values of these tables and the sizes of the tables are merely examples, and may be determined as appropriate.

【0129】また、上記実施の形態では、ステップS2
1において補正情報が生成されてからステップS22に
おいて入射角テーブル152が生成されると説明した
が、これらのステップは並行に行われてもよく、逆順に
行われてもよい。
In the above embodiment, step S2
Although it has been described that the incidence information table 152 is generated in step S22 after the correction information is generated in step 1, the steps may be performed in parallel or in reverse order.

【0130】また、上記実施の形態ではデジタルカメラ
が1つのCCD111を有するが、複数のCCDにより
画像を取得し、これらの画像を継ぎ合わせて1つの画像
を生成するデジタルカメラにもこの発明は利用可能であ
る。この場合、ユニット標準角θuに対応する位置(C
CDの中心からの距離)をCCDの隅とすることによ
り、画像の継ぎ合わせ位置を目立たなくすることができ
る。なお、複数のCCDを用いる場合には、基本補正テ
ーブル162の個数はCCDの個数の4倍となる。
In the above embodiment, the digital camera has one CCD 111. However, the present invention is also applicable to a digital camera that acquires images by a plurality of CCDs and joins these images to generate one image. It is possible. In this case, the position corresponding to the unit standard angle θu (C
By setting (the distance from the center of the CD) the corner of the CCD, the joining position of the images can be made inconspicuous. When a plurality of CCDs are used, the number of basic correction tables 162 is four times the number of CCDs.

【0131】さらに、この発明はデジタルカメラにおけ
るシェーディング補正に限定されるものではなく、ビデ
オカメラ等の各種撮像装置に利用可能である。また、2
次元的な画像のシェーディング補正に限定されるもので
はなく、1次元画像のシェーディング補正にも利用可能
である。
Further, the present invention is not limited to shading correction in a digital camera, but can be applied to various image pickup devices such as a video camera. Also, 2
The present invention is not limited to the shading correction of a one-dimensional image, and can be used for the shading correction of a one-dimensional image.

【0132】[0132]

【発明の効果】請求項1ないし9に記載の発明では、マ
イクロレンズが形成された複数の受光素子を用いて画像
を取得する際に、光学系の状態の変化により複雑に変化
するシェーディングを適切に補正することができる。
According to the first to ninth aspects of the present invention, when an image is obtained using a plurality of light receiving elements provided with microlenses, shading that changes in a complicated manner due to a change in the state of the optical system is appropriately performed. Can be corrected.

【0133】また、請求項2に記載の発明では、補正用
入射角情報および補正テーブルにより、補正情報の量を
低減することができる。
According to the second aspect of the present invention, the amount of correction information can be reduced by using the correction incident angle information and the correction table.

【0134】また、請求項3に記載の発明では、補正テ
ーブルに格納される補正係数の数を削減できるので、補
正情報の量を低減することができる。
According to the third aspect of the present invention, the number of correction coefficients stored in the correction table can be reduced, so that the amount of correction information can be reduced.

【0135】また、請求項4に記載の発明では、2つの
補正情報のうちの1つを選択して用いるので、補正をよ
り適切に行うことができる。
In the invention according to claim 4, one of the two pieces of correction information is selected and used, so that the correction can be performed more appropriately.

【0136】また、請求項5に記載の発明では、複数の
基本テーブルの内挿を行うことにより、基準位置に入射
する光束の入射方向を容易に取得することができる。
According to the fifth aspect of the present invention, by interpolating a plurality of basic tables, it is possible to easily obtain the incident direction of the light beam incident on the reference position.

【0137】また、請求項6に記載の発明では、交換ユ
ニットの種類に応じて適切に補正を行うことができる。
Further, according to the invention of claim 6, it is possible to appropriately perform the correction in accordance with the type of the replacement unit.

【0138】また、請求項7に記載の発明では、撮像装
置本体とは別に開発される交換ユニットに容易に対応す
ることができる。
Further, according to the present invention, it is possible to easily cope with a replacement unit developed separately from the imaging apparatus main body.

【0139】また、請求項8に記載の発明では、基準位
置の補正係数の補間による画像中の縞模様の発生を防止
することができ、観察者に違和感のない画像を得ること
ができる。
Further, according to the present invention, it is possible to prevent the occurrence of a stripe pattern in the image due to the interpolation of the correction coefficient at the reference position, and to obtain an image that does not give a viewer an uncomfortable feeling.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)はマイクロレンズを有する受光素子の平
面図であり、(b)ないし(d)は縦断面図である。
FIG. 1A is a plan view of a light receiving element having a microlens, and FIGS. 1B to 1D are longitudinal sectional views.

【図2】(a)ないし(c)は様々な形状のマイクロレ
ンズを有する受光素子の縦断面図である。
FIGS. 2A to 2C are longitudinal sectional views of light receiving elements having microlenses of various shapes.

【図3】この発明におけるシェーディング補正の処理の
流れの概要を示す流れ図である。
FIG. 3 is a flowchart showing an outline of a flow of a shading correction process in the present invention.

【図4】この発明の第1の実施の形態に係るデジタルカ
メラの外観を示す斜視図である。
FIG. 4 is a perspective view showing an appearance of the digital camera according to the first embodiment of the present invention.

【図5】図4に示すデジタルカメラの機械的構成を示す
ブロック図である。
FIG. 5 is a block diagram showing a mechanical configuration of the digital camera shown in FIG.

【図6】図4に示すデジタルカメラの機能面からの構成
を示すブロック図である。
FIG. 6 is a block diagram showing a functional configuration of the digital camera shown in FIG. 4;

【図7】図4に示すデジタルカメラにおけるシェーディ
ング補正の処理の流れを示す流れ図である。
FIG. 7 is a flowchart showing a flow of shading correction processing in the digital camera shown in FIG. 4;

【図8】CCD上の光軸中心からの距離と入射光束の光
束中心の傾きとの関係を示す斜視図である。
FIG. 8 is a perspective view showing the relationship between the distance from the center of the optical axis on the CCD and the inclination of the center of the light beam of the incident light beam.

【図9】補正用入射角テーブルおよび補正テーブルを生
成する処理の流れを示す流れ図である。
FIG. 9 is a flowchart showing a flow of processing for generating a correction incident angle table and a correction table.

【図10】補正用入射角テーブルを生成する様子を示す
図である。
FIG. 10 is a diagram showing how a correction incident angle table is generated.

【図11】補正テーブルを生成する様子を示す図であ
る。
FIG. 11 is a diagram showing how a correction table is generated.

【図12】瞳近の状態と瞳遠の状態における光軸中心か
らの距離と入射光束の傾きとの関係を示す図である。
FIG. 12 is a diagram illustrating a relationship between a distance from an optical axis center and a tilt of an incident light beam in a state near the pupil and a state far from the pupil.

【図13】(a)は瞳近の状態におけるCCD上の各位
置への光束の入射の様子を示す図であり、(b)は瞳遠
の状態におけるCCD上の各位置への光束の入射の様子
を示す図である。
13A is a diagram showing a state of light beams entering each position on the CCD near the pupil, and FIG. 13B is a diagram showing light beams entering each position on the CCD near the pupil. FIG.

【図14】入射角テーブルを生成する処理の流れを示す
流れ図である。
FIG. 14 is a flowchart showing the flow of processing for generating an incident angle table.

【図15】レンズユニットテーブルの例を示す図であ
る。
FIG. 15 is a diagram illustrating an example of a lens unit table.

【図16】入射角テーブルを生成する様子を示す図であ
る。
FIG. 16 is a diagram showing how an incident angle table is generated.

【図17】基準位置に入射する光束の傾きを求める処理
の流れを示す流れ図である。
FIG. 17 is a flowchart showing a flow of a process for obtaining an inclination of a light beam incident on a reference position.

【図18】CCD上のブロックと基準位置とを示す図で
ある。
FIG. 18 is a diagram showing blocks on a CCD and reference positions.

【図19】基準補正係数を求める処理の流れを示す流れ
図である。
FIG. 19 is a flowchart showing the flow of a process for obtaining a reference correction coefficient.

【図20】(a)は撮影時に基準位置に入射する光束の
様子を示す図であり、(b)は瞳近の状態において補正
用位置に入射する光束の様子を示す図であり、(c)は
基準位置と補正用位置との関係を示す図である。
20A is a diagram illustrating a state of a light beam incident on a reference position during photographing, FIG. 20B is a diagram illustrating a state of a light beam incident on a correction position in a state near a pupil, and FIG. () Is a diagram showing the relationship between the reference position and the correction position.

【図21】補正テーブル内の補正係数に関連づけられた
位置と補正用位置とを示す図である。
FIG. 21 is a diagram illustrating a position associated with a correction coefficient in a correction table and a correction position.

【図22】4つの基準位置の基準補正係数を補間して補
正係数を求める際の処理を説明するための図である。
FIG. 22 is a diagram for describing processing when a correction coefficient is obtained by interpolating reference correction coefficients at four reference positions.

【図23】この発明の第2の実施の形態に係るデジタル
カメラの外観を示す斜視図である。
FIG. 23 is a perspective view showing an appearance of a digital camera according to a second embodiment of the present invention.

【図24】基準補正係数を線形補間した例を示す図であ
る。
FIG. 24 is a diagram showing an example in which a reference correction coefficient is linearly interpolated.

【図25】基準補正係数を線形補間した他の例を示す図
である。
FIG. 25 is a diagram showing another example of linearly interpolating the reference correction coefficient.

【図26】(a)ないし(d)は4つの基準補正係数を
ノイズ成分を与えながら補間する際に用いられるテーブ
ルを示す図である。
FIGS. 26A to 26D are tables showing tables used when interpolating four reference correction coefficients while giving noise components.

【図27】基準補正係数をノイズ成分を与えながら補間
した例を示す図である。
FIG. 27 is a diagram showing an example in which a reference correction coefficient is interpolated while giving a noise component.

【図28】基準補正係数をノイズ成分を与えながら補間
した他の例を示す図である。
FIG. 28 is a diagram showing another example of interpolating a reference correction coefficient while giving a noise component.

【図29】基準位置と補間される領域とを示す図であ
る。
FIG. 29 is a diagram showing a reference position and an area to be interpolated.

【図30】基準補正係数をノイズ成分を与えながら補間
したさらに他の例を示す立体図である。
FIG. 30 is a three-dimensional view showing still another example in which a reference correction coefficient is interpolated while giving a noise component.

【図31】CCDの受光面を示す図である。FIG. 31 is a diagram showing a light receiving surface of a CCD.

【図32】図31中のCa−Z−Cb間の受光素子から
の出力に基づく輝度分布を示す図である。
32 is a diagram showing a luminance distribution based on an output from the light receiving element between Ca-Z-Cb in FIG. 31.

【図33】図31中のCc−Z−Cd間の受光素子から
の出力に基づく輝度分布を示す図である。
FIG. 33 is a diagram showing a luminance distribution based on the output from the light receiving element between Cc-Z-Cd in FIG. 31;

【符号の説明】[Explanation of symbols]

10 受光素子 13 マイクロレンズ 100,100a デジタルカメラ 102 レンズユニット 111 CCD 121 光学系 124 メモリ 131 CPU 132 ROM 133 RAM 134 A/D変換回路 135 補正回路 140 補正部 142 基準補正係数算出部 143 補正係数補間部 144a,144b 補正用入射角テーブル 145a,145b 補正テーブル 152 入射角算出部 161a〜161d 基本入射角テーブル 163 レンズユニットテーブル 310 基準位置 S11〜S14,S21〜S27 ステップ Reference Signs List 10 light receiving element 13 micro lens 100, 100a digital camera 102 lens unit 111 CCD 121 optical system 124 memory 131 CPU 132 ROM 133 RAM 134 A / D conversion circuit 135 correction circuit 140 correction unit 142 reference correction coefficient calculation unit 143 correction coefficient interpolation unit 144a, 144b Correction incident angle table 145a, 145b Correction table 152 Incident angle calculator 161a-161d Basic incident angle table 163 Lens unit table 310 Reference position S11-S14, S21-S27 Step

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/16 H04N 1/04 103E 5C072 5/335 1/40 101A 5C077 Fターム(参考) 5B047 AA01 AB02 BB04 BC05 CB08 CB30 DA04 5C021 PA66 PA67 PA80 XA67 5C022 AA13 AB51 AC42 AC54 AC69 5C024 AA01 BA01 CA10 DA05 EA04 FA01 GA11 HA17 HA19 HA25 5C051 AA01 BA03 DA06 DB01 DB04 DB22 DC04 DE18 FA00 5C072 AA01 BA08 DA03 DA21 EA05 EA08 FB12 UA02 UA11 XA10 5C077 LL04 MM03 MP01 PP08 PP09 PP74 PQ23 SS03 TT09 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/16 H04N 1/04 103E 5C072 5/335 1/40 101A 5C077 F term (reference) 5B047 AA01 AB02 BB04 BC05 CB08 CB30 DA04 5C021 PA66 PA67 PA80 XA67 5C022 AA13 AB51 AC42 AC54 AC69 5C024 AA01 BA01 CA10 DA05 EA04 FA01 GA11 HA17 HA19 HA25 5C051 AA01 BA03 DA06 DB01 DB04 DB22 DC04 DE18 FA00 5C072 AA01 EA08 EA11 EA08 MP01 PP08 PP09 PP74 PQ23 SS03 TT09

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 被写体からの光を所定の受光面へと導く
光学系と、 それぞれにマイクロレンズが形成された複数の受光素子
を前記受光面に配列配置し、当該複数の受光素子からの
出力に基づいて前記被写体の画像を取得する撮像手段
と、 受光素子に入射する光束の入射方向と当該受光素子から
の出力に対する補正係数との関係である補正情報を予め
記憶する補正情報記憶手段と、 前記受光面に複数の基準位置が設定されており、前記光
学系の状態を示す情報に基づいて基準位置に入射する光
束の入射方向を取得する入射方向取得手段と、 基準位置への光束の入射方向および前記補正情報に基づ
いて当該基準位置に関連する受光素子からの出力を補正
する補正手段と、を備えることを特徴とする撮像装置。
1. An optical system for guiding light from a subject to a predetermined light receiving surface, and a plurality of light receiving elements each having a microlens formed thereon are arranged and arranged on the light receiving surface, and outputs from the plurality of light receiving elements are provided. Imaging means for acquiring the image of the subject based on the correction information storage means for storing in advance the correction information that is the relationship between the incident direction of the light beam incident on the light receiving element and the correction coefficient for the output from the light receiving element, A plurality of reference positions are set on the light receiving surface, and an incident direction acquisition unit that acquires an incident direction of a light beam incident on the reference position based on information indicating a state of the optical system, and an incidence of the light beam on the reference position. An image pickup apparatus comprising: a correction unit configured to correct an output from a light receiving element related to the reference position based on a direction and the correction information.
【請求項2】 請求項1に記載の撮像装置であって、 前記補正情報が、 前記光学系の所定のレンズ配置において、前記受光面上
の位置と当該位置へと入射する光束の入射方向との関係
を示す補正用入射角情報と、 前記所定のレンズ配置において前記受光面上の位置に関
連づけられた補正係数の集合である補正テーブルと、を
有することを特徴とする撮像装置。
2. The imaging apparatus according to claim 1, wherein the correction information is a position on the light receiving surface and an incident direction of a light beam incident on the position in a predetermined lens arrangement of the optical system. And a correction table which is a set of correction coefficients associated with a position on the light receiving surface in the predetermined lens arrangement.
【請求項3】 請求項2に記載の撮像装置であって、 前記補正手段が、 基準位置に対応する前記補正テーブル上の位置に近接す
る複数の補正係数を内挿することにより、当該基準位置
における補正係数を求める手段、を有することを特徴と
する撮像装置。
3. The imaging device according to claim 2, wherein the correction unit interpolates a plurality of correction coefficients close to a position on the correction table corresponding to the reference position, thereby obtaining the reference position. An image pickup apparatus comprising: means for obtaining a correction coefficient in the above.
【請求項4】 請求項1ないし3のいずれかに記載の撮
像装置であって、 光束が前記光学系の光軸に漸次近づく場合と漸次離れる
場合の2つの補正情報が準備されており、 前記入射方向取得手段により取得される入射方向に基づ
いて前記2つの補正情報のうちの1つが選択されること
を特徴とする撮像装置。
4. The imaging apparatus according to claim 1, wherein two pieces of correction information are prepared for a case where the light flux gradually approaches the optical axis of the optical system and a case where the light flux gradually separates from the optical axis. An imaging apparatus, wherein one of the two pieces of correction information is selected based on an incident direction acquired by an incident direction acquiring unit.
【請求項5】 請求項1ないし4のいずれかに記載の撮
像装置であって、 前記光学系のレンズ配置および絞りに関する複数の状態
における前記受光面上の光軸中心からの距離と入射光束
の前記光軸に対する傾きとの関係を示す複数の基本テー
ブルを記憶する手段、をさらに備え、 前記入射方向取得手段が、前記複数の基本テーブルを内
挿することにより、前記光学系の撮影時の状態における
基準位置に入射する光束の入射方向を取得することを特
徴とする撮像装置。
5. The imaging device according to claim 1, wherein a distance from an optical axis center on the light receiving surface and an incident light flux in a plurality of states related to a lens arrangement and a stop of the optical system. Means for storing a plurality of basic tables indicating a relationship with the inclination with respect to the optical axis, wherein the incident direction obtaining means interpolates the plurality of basic tables to obtain a state of the optical system at the time of shooting. An image capturing apparatus for acquiring an incident direction of a light beam incident on a reference position in (1).
【請求項6】 請求項1ないし5のいずれかに記載の撮
像装置であって、前記光学系の全部または一部が交換可
能な交換ユニットとされ、 前記補正手段による補正に利用される値であって交換ユ
ニットの種類に固有のものを当該種類に対応付けて記憶
するユニット変数記憶手段、をさらに備えることを特徴
とする撮像装置。
6. The image pickup apparatus according to claim 1, wherein all or a part of the optical system is a replaceable exchange unit, and a value used for correction by the correction unit. And a unit variable storage unit for storing a unit specific to the type of the replacement unit in association with the type.
【請求項7】 請求項1ないし5のいずれかに記載の撮
像装置であって、前記光学系の全部または一部が交換可
能な交換ユニットとされ、 前記交換ユニットが、 前記補正手段による補正に利用される値であって前記交
換ユニットの種類に固有のものを記憶する手段、を有す
ることを特徴とする撮像装置。
7. The imaging apparatus according to claim 1, wherein all or a part of the optical system is a replaceable exchange unit, and the exchange unit is configured to perform the correction by the correction unit. Means for storing a value used and specific to the type of the exchange unit.
【請求項8】 請求項1ないし7のいずれかに記載の撮
像装置であって、 前記補正手段が、 前記複数の基準位置の補正係数をノイズ成分を与えつつ
補間することにより前記複数の受光素子に対応する補正
係数を求める手段、を有することを特徴とする撮像装
置。
8. The imaging device according to claim 1, wherein the correction unit interpolates a correction coefficient of the plurality of reference positions while giving a noise component to the plurality of light receiving elements. An image pickup apparatus, comprising: means for obtaining a correction coefficient corresponding to (i).
【請求項9】 所定の受光面に配列配置されるとともに
それぞれにマイクロレンズが形成された複数の受光素子
を有し、被写体からの光を光学系を介して当該複数の受
光素子へと導くことにより当該被写体の画像を取得する
撮像装置において、取得される画像のシェーディングを
補正するシェーディング補正方法であって、 受光素子に入射する光束の入射方向と当該受光素子から
の出力に対する補正係数との関係である補正情報を準備
する工程と、 前記受光面に複数の基準位置が設定されており、前記光
学系の状態を示す情報に基づいて基準位置に入射する光
束の入射方向を取得する工程と、 基準位置への光束の入射方向および前記補正情報に基づ
いて当該基準位置に関連する受光素子からの出力を補正
する工程と、を有することを特徴とするシェーディング
補正方法。
9. A plurality of light receiving elements arranged and arranged on a predetermined light receiving surface and each having a micro lens formed therein, and guiding light from a subject to the plurality of light receiving elements via an optical system. A shading correction method for correcting shading of an image to be obtained in an imaging apparatus for obtaining an image of the subject by using a method, wherein a relationship between an incident direction of a light beam incident on a light receiving element and a correction coefficient for an output from the light receiving element is provided. A step of preparing correction information that is, a plurality of reference positions are set on the light receiving surface, and a step of acquiring an incident direction of a light beam incident on the reference position based on information indicating a state of the optical system, Correcting the output from the light receiving element associated with the reference position based on the incident direction of the light beam to the reference position and the correction information. Shading correction method.
JP03761099A 1999-02-16 1999-02-16 Imaging apparatus and shading correction method Expired - Fee Related JP3733771B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03761099A JP3733771B2 (en) 1999-02-16 1999-02-16 Imaging apparatus and shading correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03761099A JP3733771B2 (en) 1999-02-16 1999-02-16 Imaging apparatus and shading correction method

Publications (2)

Publication Number Publication Date
JP2000236480A true JP2000236480A (en) 2000-08-29
JP3733771B2 JP3733771B2 (en) 2006-01-11

Family

ID=12502378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03761099A Expired - Fee Related JP3733771B2 (en) 1999-02-16 1999-02-16 Imaging apparatus and shading correction method

Country Status (1)

Country Link
JP (1) JP3733771B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1227669A2 (en) * 2001-01-17 2002-07-31 Canon Kabushiki Kaisha Image sensing apparatus, shading correction method, program, and storage medium
WO2005043891A1 (en) * 2003-10-31 2005-05-12 Mitsubishi Denki Kabushiki Kaisha Image correcting method and imaging apparatus
JP2007189312A (en) * 2006-01-11 2007-07-26 Nikon Corp Imaging apparatus, imaging method, and camera
JP2009055442A (en) * 2007-08-28 2009-03-12 Mitsubishi Electric Corp Image correcting device
JP2012186764A (en) * 2011-03-08 2012-09-27 Toshiba Corp Solid-state imaging device and portable information terminal
JP2012244239A (en) * 2011-05-16 2012-12-10 Sigma Corp Imaging apparatus
WO2013099613A1 (en) * 2011-12-28 2013-07-04 富士フイルム株式会社 Imaging device, image correction method, interchangeable lens, and imaging device body

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218298A (en) * 2001-01-17 2002-08-02 Canon Inc Image pickup device, shading correcting method and storage medium
EP1227669A3 (en) * 2001-01-17 2008-06-04 Canon Kabushiki Kaisha Image sensing apparatus, shading correction method, program, and storage medium
JP4574022B2 (en) * 2001-01-17 2010-11-04 キヤノン株式会社 Imaging apparatus and shading correction method
EP1227669A2 (en) * 2001-01-17 2002-07-31 Canon Kabushiki Kaisha Image sensing apparatus, shading correction method, program, and storage medium
US8478066B2 (en) 2003-10-31 2013-07-02 Mitsubishi Denki Kabushiki Kaisha Image-correction method and image pickup apparatus
WO2005043891A1 (en) * 2003-10-31 2005-05-12 Mitsubishi Denki Kabushiki Kaisha Image correcting method and imaging apparatus
JPWO2005043891A1 (en) * 2003-10-31 2007-05-10 三菱電機株式会社 Image correction method and imaging apparatus
JP2007189312A (en) * 2006-01-11 2007-07-26 Nikon Corp Imaging apparatus, imaging method, and camera
JP2009055442A (en) * 2007-08-28 2009-03-12 Mitsubishi Electric Corp Image correcting device
JP2012186764A (en) * 2011-03-08 2012-09-27 Toshiba Corp Solid-state imaging device and portable information terminal
US8681249B2 (en) 2011-03-08 2014-03-25 Kabushiki Kaisha Toshiba Solid-state imaging device and portable information terminal
JP2012244239A (en) * 2011-05-16 2012-12-10 Sigma Corp Imaging apparatus
WO2013099613A1 (en) * 2011-12-28 2013-07-04 富士フイルム株式会社 Imaging device, image correction method, interchangeable lens, and imaging device body
JP5597776B2 (en) * 2011-12-28 2014-10-01 富士フイルム株式会社 Imaging device, image quality correction method thereof, interchangeable lens, and imaging device main body
CN104205818A (en) * 2011-12-28 2014-12-10 富士胶片株式会社 Imaging device, image correction method, interchangeable lens, and imaging device body
US8970741B2 (en) 2011-12-28 2015-03-03 Fujifilm Corporation Imaging apparatus, image quality correction method of imaging apparatus, interchangeable lens and imaging apparatus body
CN104205818B (en) * 2011-12-28 2016-02-24 富士胶片株式会社 Filming apparatus and image quality bearing calibration thereof and interchangeable lenses and filming apparatus main body

Also Published As

Publication number Publication date
JP3733771B2 (en) 2006-01-11

Similar Documents

Publication Publication Date Title
Green et al. Multi-aperture photography
US8390728B2 (en) Image processing apparatus and method
US7215364B2 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
US8810713B2 (en) Image pickup apparatus and image pickup device for performing auto-focusing
US6571022B2 (en) Image processing apparatus for generating a single image of an object using overlapping partial images
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP6489932B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6047025B2 (en) Imaging apparatus and control method thereof
US9369693B2 (en) Stereoscopic imaging device and shading correction method
JP3461275B2 (en) Photoelectric conversion device and camera using the same
JP2008294741A (en) Imaging system
EP2709352A2 (en) Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
JP2008092297A (en) Image processor, image processing program, image manufacturing method, and recording medium
JP2000196939A (en) Device and method for forming image without distortion and facial direction chromatic aberration
CN104427225A (en) Image pickup apparatus, and method of controlling image pickup apparatus
JP2013258500A (en) Imaging device
JP2000236480A (en) Image pickup device and shading correction method
JP2013145982A (en) Imaging apparatus, image processing apparatus and method
US10341580B2 (en) Image processing device configured to correct an image so as to decrease output data
CN111127379B (en) Rendering method of light field camera 2.0 and electronic equipment
JP4299561B2 (en) Imaging device
JP2017034682A (en) Image generation apparatus, image processing apparatus, image generation method, and image processing program
JP6330955B2 (en) Imaging apparatus and imaging method
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP6569769B2 (en) Arbitrary viewpoint image composition method and image processing apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051010

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101028

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101028

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111028

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111028

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121028

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121028

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131028

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees