JP2011039293A - Photometric device and imaging apparatus - Google Patents

Photometric device and imaging apparatus Download PDF

Info

Publication number
JP2011039293A
JP2011039293A JP2009186601A JP2009186601A JP2011039293A JP 2011039293 A JP2011039293 A JP 2011039293A JP 2009186601 A JP2009186601 A JP 2009186601A JP 2009186601 A JP2009186601 A JP 2009186601A JP 2011039293 A JP2011039293 A JP 2011039293A
Authority
JP
Japan
Prior art keywords
correction
correction value
photometric
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009186601A
Other languages
Japanese (ja)
Other versions
JP5444928B2 (en
Inventor
Shiho Sadamune
志穂 貞宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009186601A priority Critical patent/JP5444928B2/en
Publication of JP2011039293A publication Critical patent/JP2011039293A/en
Application granted granted Critical
Publication of JP5444928B2 publication Critical patent/JP5444928B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem that accuracy of correction is deteriorated because optical distribution is complicated according to an optical system in the conventional technique. <P>SOLUTION: The photometric device includes: a light receiving means (photometric sensor 113) that divides and receives luminous flux incident through the optical system (zoom lens 102) in a plurality of areas, and outputs a light receiving signal; a storage means (memory 108) that stores a first correction value corresponding to the light receiving signal decided in accordance with the light receiving means (photometric sensor 113) for a first area out of the plurality of areas; a detection means (lens information acquiring part 151) detecting information of the optical system (zoom lens 102); an arithmetic calculation means (second correction part 153) that obtains a second correction value corresponding to the light receiving signal for a second area different from the first area out of the plurality of areas based on the information of the optical system (zoom lens 102); and a correction means (photometry correction part 154) that corrects the light receiving signal based on the first correction value and the second correction value. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、測光装置および撮像装置に関する。   The present invention relates to a photometric device and an imaging device.

従来、光学系から入射する光を複数の領域に分割して測光する分割測光装置において、分割された測光素子の中央にある所定の分割測光素子の測光値を基準として、所定の分割測光素子から各分割測光素子までの距離に応じて測光誤差補正量を求める技術が知られている(例えば、特許文献1参照)。   Conventionally, in a split photometry device that divides light incident from an optical system into a plurality of areas and performs photometry, from a predetermined split photometry element based on a photometric value of a predetermined split photometry element at the center of the divided photometry element A technique for obtaining a photometric error correction amount according to the distance to each divided photometric element is known (for example, see Patent Document 1).

特開平04−215631号公報Japanese Patent Laid-Open No. 04-215631

ところが、光学系によっては複雑な光学分布となり、補正の精度が悪くなるという問題があった。   However, depending on the optical system, there is a problem that the optical distribution becomes complicated and the accuracy of correction deteriorates.

本発明の目的は、精度の高い測光装置および撮像装置を提供することである。   An object of the present invention is to provide a photometric device and an imaging device with high accuracy.

本発明は、以下のような解決手段により前記課題を解決する。尚、理解を容易にするために、本発明の一実施例を示す図面に対応する符号を付して説明するが、これに限定されるものではない。   The present invention solves the above problems by the following means. For ease of understanding, reference numerals corresponding to the drawings showing an embodiment of the present invention are given and described, but the present invention is not limited to this.

請求項1に記載の発明は、光学系(ズームレンズ102)を介して入射する光束を複数の領域に分割して受光し、受光信号を出力する受光手段(測光センサ113)と、前記受光手段(測光センサ113)に応じて決められた前記受光信号に対する第1補正値を前記複数の領域のうちの第1領域に対して記憶する記憶手段(メモリ108)と、前記光学系(ズームレンズ102)の情報を検出する検出手段(レンズ情報取得部151)と、前記光学系(ズームレンズ102)の情報に基づいて前記受光信号に対する第2補正値を前記複数の領域のうちの前記第1領域と異なる第2領域に対して求める演算手段(第2補正部153)と、前記第1補正値と前記第2補正値とに基づいて前記受光信号を補正する補正手段(測光補正部154)とを有することを特徴とする。   According to the first aspect of the present invention, a light receiving means (photometric sensor 113) that receives a light beam incident through an optical system (zoom lens 102) by dividing it into a plurality of regions and outputs a light reception signal, and the light receiving means. Storage means (memory 108) that stores a first correction value for the received light signal determined according to (photometric sensor 113) in the first area of the plurality of areas, and the optical system (zoom lens 102). ) Detecting means (lens information acquisition unit 151) for detecting information of the optical system (zoom lens 102) and a second correction value for the received light signal based on the information of the optical system (zoom lens 102). Calculating means (second correction unit 153) for obtaining a second area different from the above, and correction means (photometry correction unit 154) for correcting the received light signal based on the first correction value and the second correction value. The Characterized in that it.

請求項2に記載の発明は、請求項1に記載の測光装置(測光装置121)において、前記補正手段(測光補正部154)は、前記複数の第2補正値から前記第1領域に対する第2補正値を求め、求めた第2補正値と前記第1領域の第1補正値とに基づいて前記受光信号を補正することを特徴とする。   According to a second aspect of the present invention, in the photometric device (photometric device 121) according to the first aspect, the correction unit (photometric correction unit 154) is configured to perform a second operation on the first region from the plurality of second correction values. A correction value is obtained, and the received light signal is corrected based on the obtained second correction value and the first correction value of the first region.

請求項3に記載の発明は、請求項1または2に記載の測光装置(測光装置121)において、前記第1領域と前記第2領域は、前記複数の領域に離散的に配置された複数の領域であって、前記第1領域と前記第2領域の少なくとも一方は、前記複数の領域の中央部よりも周辺部に高密度に配置されることを特徴とする。   According to a third aspect of the present invention, in the photometric device (photometric device 121) according to the first or second aspect, the first region and the second region are a plurality of discretely arranged in the plurality of regions. It is an area | region, Comprising: At least one of the said 1st area | region and the said 2nd area | region is arrange | positioned more densely in a peripheral part rather than the center part of these area | regions, It is characterized by the above-mentioned.

請求項4に記載の発明は、請求項1から3のいずれか一項に記載の測光装置(測光装置121)と、前記光学系を介して入射する像を撮像する撮像部(撮像素子104)と、前記補正手段が補正した前記受光信号に基づいて前記撮像部(撮像素子104)の露出制御を行う露出制御部(露出制御部155)とを有することを特徴とする。   According to a fourth aspect of the present invention, there is provided a photometric device (photometric device 121) according to any one of the first to third aspects and an imaging unit (imaging element 104) that captures an image incident via the optical system. And an exposure control unit (exposure control unit 155) that performs exposure control of the imaging unit (imaging element 104) based on the light reception signal corrected by the correction unit.

請求項5に記載の発明は、請求項4に記載の撮像装置(撮像装置100)において、前記受光手段(測光センサ113)は、前記光学系(ズームレンズ102)による像を結像する焦点板からの散乱光を受光することを特徴とする。   According to a fifth aspect of the present invention, in the imaging apparatus (imaging apparatus 100) according to the fourth aspect, the light receiving means (photometric sensor 113) forms a focusing plate for forming an image by the optical system (zoom lens 102). It is characterized by receiving the scattered light from.

請求項6に記載の発明は、請求項4または5に記載の撮像装置(撮像装置100)において、前記補正手段(測光補正部154)が補正した前記受光信号に基づいて、前記光学系(ズームレンズ102)による像のうちの特定の対象の像を検出する像検出手段(追尾部122)を備えることを特徴とする。   According to a sixth aspect of the present invention, in the imaging apparatus (imaging apparatus 100) according to the fourth or fifth aspect, the optical system (zoom) is based on the received light signal corrected by the correction unit (photometric correction unit 154). It is characterized by comprising image detecting means (tracking unit 122) for detecting a specific target image among the images of the lens 102).

尚、符号を付して説明した構成は適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。   Note that the configuration described with reference numerals may be improved as appropriate, or at least a part thereof may be replaced with another component.

本発明に係る測光装置および撮像装置は、所定の分割測光素子から各分割測光素子までの距離が長い場合でも精度の高い測光を行うことができる。   The photometric device and the imaging device according to the present invention can perform highly accurate photometry even when the distance from a predetermined divided photometric element to each divided photometric element is long.

本実施形態に係る撮像装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device 100 which concerns on this embodiment. 測光センサ113の受光面の様子を示す説明図である。It is explanatory drawing which shows the mode of the light-receiving surface of the photometry sensor. 測光センサ113の測光値の偏りを示す説明図である。It is explanatory drawing which shows the bias | inclination of the photometry value of the photometry sensor 113. FIG. 本実施形態に係る撮像装置100の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the imaging apparatus 100 according to the present embodiment. 第1所定画素の例を示す説明図である。It is explanatory drawing which shows the example of a 1st predetermined pixel. 補間処理を説明するための説明図である。It is explanatory drawing for demonstrating an interpolation process. 第1所定画素と第2所定画素の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of a 1st predetermined pixel and a 2nd predetermined pixel. 第1所定画素または第2所定画素の配置例を示す説明図である。It is explanatory drawing which shows the example of arrangement | positioning of a 1st predetermined pixel or a 2nd predetermined pixel. 本実施形態に係る撮像装置100の応用例を示すブロック図である。It is a block diagram which shows the application example of the imaging device 100 which concerns on this embodiment.

以下、図面を参照して本発明に係る測光装置および撮像装置について説明する。尚、本実施形態では、測光装置を含む撮像装置として説明するが、専用の測光装置として利用しても構わない。   Hereinafter, a photometric device and an imaging device according to the present invention will be described with reference to the drawings. In the present embodiment, the imaging device including the photometric device is described. However, the imaging device may be used as a dedicated photometric device.

図1は、本実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、カメラ本体101と、カメラ本体101に脱着可能なズームレンズ102とで構成される一眼レフ型のカメラである。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 100 according to the present embodiment. The imaging apparatus 100 is a single-lens reflex camera that includes a camera body 101 and a zoom lens 102 that can be attached to and detached from the camera body 101.

[カメラ本体101の構成]
図1において、カメラ本体101は、メカニカルシャッタ103と、撮像素子104と、AFE(アナログフロントエンド)105と、画像バッファ106と、制御部107と、メモリ108と、表示部109と、メモリカードI/F110と、操作部111と、シャッタ駆動部112と、測光センサ113と、AFセンサ114と、ミラー駆動部115と、絞り駆動部116と、モータ117と、タイミング発生部(TG)118とで構成される。
[Configuration of Camera Body 101]
In FIG. 1, a camera body 101 includes a mechanical shutter 103, an image sensor 104, an AFE (analog front end) 105, an image buffer 106, a control unit 107, a memory 108, a display unit 109, and a memory card I. / F110, operation unit 111, shutter drive unit 112, photometric sensor 113, AF sensor 114, mirror drive unit 115, aperture drive unit 116, motor 117, and timing generation unit (TG) 118 Composed.

図1において、撮影時、ズームレンズ102に入射された被写体光は、ミラーボックス201およびメカニカルシャッタ103を介して撮像素子104の受光面に入射される。尚、測光時の動作については後で説明する。   In FIG. 1, the subject light incident on the zoom lens 102 is incident on the light receiving surface of the image sensor 104 via the mirror box 201 and the mechanical shutter 103 during photographing. The operation during metering will be described later.

撮像素子104の受光面には二次元状に光電変換部が配置されており、各光電変換部に入射された光量に応じた電気信号をAFE105に出力する。   A photoelectric conversion unit is two-dimensionally arranged on the light receiving surface of the image sensor 104, and an electric signal corresponding to the amount of light incident on each photoelectric conversion unit is output to the AFE 105.

AFE105は、撮像素子104から出力される電気信号のノイズ除去や増幅などを行い、A/D変換部でデジタル信号に変換する。そして、1画面分のデジタル信号を画像データとして画像バッファ106に一時的に記憶する。   The AFE 105 performs noise removal and amplification of the electrical signal output from the image sensor 104, and converts it into a digital signal by an A / D conversion unit. Then, the digital signal for one screen is temporarily stored in the image buffer 106 as image data.

制御部107は、内部に予め記憶されているプログラムに従って動作し、撮像装置100の各部を制御する。例えば、測光センサ113で受光した被写体の明るさを示す測光値に応じて、ズームレンズ102の絞り値やメカニカルシャッタ103を開閉するシャッタ速度を決定する露出制御を行う。そして、制御部107は、絞り駆動部116に算出した絞り値に設定するよう指令し、またシャッタ駆動部112には算出したシャッタ速度で開閉するよう指令する。   The control unit 107 operates according to a program stored therein in advance, and controls each unit of the imaging apparatus 100. For example, exposure control is performed to determine the aperture value of the zoom lens 102 and the shutter speed for opening and closing the mechanical shutter 103 in accordance with the photometric value indicating the brightness of the subject received by the photometric sensor 113. Then, the control unit 107 instructs the aperture driving unit 116 to set the calculated aperture value, and instructs the shutter driving unit 112 to open and close at the calculated shutter speed.

特に本実施形態では、測光センサ113は複数の領域に分割して受光する分割測光センサで構成され、制御部107はズームレンズ102の射出瞳位置や光学系の個体差などによる測光値のずれを補正し、補正後の測光値を用いて露出制御を行う。このような補正を行うために、制御部107は、レンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154と、露出制御部155とを有している。ここで、測光装置121は、図1の点線で囲んだ部分で構成され、レンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154とを少なくとも有する制御部107と、測光センサ113およびメモリ108とで構成される。   In particular, in the present embodiment, the photometric sensor 113 is composed of a divided photometric sensor that divides light into a plurality of areas, and the control unit 107 detects a shift in photometric values due to the exit pupil position of the zoom lens 102 or individual differences in the optical system. Correct and perform exposure control using the photometric value after correction. In order to perform such correction, the control unit 107 includes a lens information acquisition unit 151, a first correction unit 152, a second correction unit 153, a photometric correction unit 154, and an exposure control unit 155. Yes. Here, the photometric device 121 is configured by a portion surrounded by a dotted line in FIG. 1, and includes at least a lens information acquisition unit 151, a first correction unit 152, a second correction unit 153, and a photometry correction unit 154. The unit 107, the photometric sensor 113, and the memory 108.

また、制御部107は、画像バッファ106に一時的に取り込まれた撮影画像に対して、ホワイトバランス処理や色補正処理およびガンマ補正処理などを行った後、JPEG圧縮処理などの画像処理を実行する。そして、制御部107は、JPEG圧縮後の画像データをメモリカードI/F110を介してメモリカード110aに保存する。   The control unit 107 performs image processing such as JPEG compression after performing white balance processing, color correction processing, gamma correction processing, and the like on the captured image temporarily captured in the image buffer 106. . Then, the control unit 107 stores the image data after JPEG compression in the memory card 110a via the memory card I / F 110.

メモリ108は、撮像装置100に予め設定されている撮影モード毎のパラメータなどを記憶する。また、メモリ108は、画像バッファ106に一時的に記憶されている画像やメモリカード110aに保存されている画像を表示部109に表示する際の表示用バッファとしても使用される。特に本実施形態では、測光センサ113の測光値を補正するための第1補正値がメモリ108に記憶されている。第1補正値は、出荷前検査やユーザによるキャリブレーションによって測定された基準レンズとの差を示す補正値で、撮像装置100の個体差による測光センサ113の測光値のずれを補正するためのものである。尚、第1補正値ついては、後で詳しく説明する。   The memory 108 stores parameters for each shooting mode set in the imaging apparatus 100 in advance. The memory 108 is also used as a display buffer when displaying an image temporarily stored in the image buffer 106 or an image stored in the memory card 110 a on the display unit 109. Particularly in the present embodiment, a first correction value for correcting the photometric value of the photometric sensor 113 is stored in the memory 108. The first correction value is a correction value indicating a difference from a reference lens measured by a pre-shipment inspection or a calibration by a user, and is used for correcting a shift in the photometric value of the photometric sensor 113 due to an individual difference of the imaging apparatus 100. It is. The first correction value will be described in detail later.

表示部109は、制御部107が出力するライブビュー画像や撮影画像、或いは撮像装置100の操作情報やメニュー画面などを表示する。   The display unit 109 displays a live view image or a captured image output from the control unit 107, operation information of the imaging apparatus 100, a menu screen, or the like.

メモリカードI/F110は、メモリカード110aを装着するためのインターフェースで、制御部107が出力する画像データをメモリカード110aに書き込んだり、逆にメモリカード110aに保存されている画像データを制御部107に読み出す。尚、メモリカード110aは、フラッシュメモリなどの不揮発性メモリで構成され、撮像装置100で撮影した画像データが保存される。   The memory card I / F 110 is an interface for mounting the memory card 110a. The memory card I / F 110 writes the image data output from the control unit 107 to the memory card 110a, and conversely the image data stored in the memory card 110a. Read to. Note that the memory card 110a is configured by a non-volatile memory such as a flash memory, and stores image data captured by the imaging apparatus 100.

操作部111は、電源ボタン,レリーズボタン,撮影モード選択ダイヤルやカーソルキーなどの操作部材で構成される。ユーザーはこれらの操作部材を用いて撮像装置100を操作し、操作情報は制御部107に出力される。そして、制御部107は、操作部111から入力する操作情報に応じて、撮像装置100全体の動作を制御する。   The operation unit 111 includes operation members such as a power button, a release button, a shooting mode selection dial, and a cursor key. The user operates the imaging apparatus 100 using these operation members, and the operation information is output to the control unit 107. The control unit 107 controls the overall operation of the imaging apparatus 100 according to operation information input from the operation unit 111.

シャッタ駆動部112は、制御部107の指令に応じて、所定のシャッタ速度でメカニカルシャッタ103を開閉する。尚、所定のシャッタ速度は、測光センサ113の測光値に基づいて制御部107の露出制御部155が決定する。   The shutter drive unit 112 opens and closes the mechanical shutter 103 at a predetermined shutter speed in response to a command from the control unit 107. The predetermined shutter speed is determined by the exposure control unit 155 of the control unit 107 based on the photometric value of the photometric sensor 113.

測光センサ113は、ズームレンズ102を介して入力する被写体光の明るさを測光し制御部107に出力する。制御部107は、先に説明したように、測光センサ113の測光値を補正して露出制御を行い、適正露出になるようにズームレンズ102の絞り値やメカニカルシャッタ103のシャッタ速度などを算出する。   The photometric sensor 113 measures the brightness of the subject light input via the zoom lens 102 and outputs it to the control unit 107. As described above, the control unit 107 performs exposure control by correcting the photometric value of the photometric sensor 113, and calculates the aperture value of the zoom lens 102, the shutter speed of the mechanical shutter 103, and the like so as to obtain an appropriate exposure. .

ここで、測光センサ113について詳しく説明する。測光センサ113は、CCDやCMOSなどで構成されるセンサで、図2に示すようなマトリクス状に配置された複数の画素(複数の領域)で構成される分割測光センサである。そして、各画素には光電変換部が配置され、画素毎に受光する光量に応じた電気信号に変換し、制御部107に出力する。図2の例では、縦100画素、横150画素程度の分解能を有する分割測光センサである。尚、本実施形態では、1画素を1つの分割領域として説明するが、複数の画素を1つの分割領域として扱っても構わない。例えば、縦2画素と横2画素の4画素を1つの分割領域とし、4画素の測光値の平均値をその分割領域の測光値としても構わないし、4画素置の中に1つの画素の測光値を用いるようにしても構わない。   Here, the photometric sensor 113 will be described in detail. The photometric sensor 113 is a sensor composed of a CCD, a CMOS, or the like, and is a divided photometric sensor composed of a plurality of pixels (a plurality of regions) arranged in a matrix as shown in FIG. Each pixel is provided with a photoelectric conversion unit, which converts it into an electrical signal corresponding to the amount of light received for each pixel, and outputs it to the control unit 107. In the example of FIG. 2, it is a divided photometric sensor having a resolution of about 100 pixels vertically and 150 pixels horizontally. In the present embodiment, one pixel is described as one divided region, but a plurality of pixels may be handled as one divided region. For example, four pixels of two vertical pixels and two horizontal pixels may be used as one divided region, and an average value of the photometric values of the four pixels may be used as the photometric value of the divided region. A value may be used.

AFセンサ114は、ズームレンズ102を介して入力する被写体光のデフォーカス量を瞳分割方式などによって計測し、制御部107に出力する。制御部107は、AFセンサ114から入力するデフォーカス量に応じてズームレンズ102のフォーカスレンズの位置を求め、フォーカスレンズ位置を調整するようズームレンズ102側に指令する。尚、ズームレンズ102側の構成については後で説明する。   The AF sensor 114 measures the defocus amount of the subject light input via the zoom lens 102 by the pupil division method or the like, and outputs it to the control unit 107. The control unit 107 obtains the position of the focus lens of the zoom lens 102 according to the defocus amount input from the AF sensor 114, and instructs the zoom lens 102 side to adjust the focus lens position. The configuration on the zoom lens 102 side will be described later.

ミラー駆動部115は、制御部107の指令に応じて、ミラーボックス201内の跳ね上げ式のミラー206を上下する。尚、撮影時や測光時のミラーボックス201の状態については後で詳しく説明する。   The mirror driving unit 115 moves up and down the flip-up type mirror 206 in the mirror box 201 in accordance with a command from the control unit 107. The state of the mirror box 201 at the time of shooting or photometry will be described in detail later.

絞り駆動部116は、制御部107の指令に応じて、モータ(M)117を動作させ、ズームレンズ102側の絞りの開閉と連動する連動ピン301を介してズームレンズ側の絞り302を開閉し、所定の絞り値に調節する。尚、所定の絞り値は、測光センサ113の測光値に基づいて制御部107が決定する。   The diaphragm driving unit 116 operates the motor (M) 117 in response to a command from the control unit 107, and opens and closes the zoom lens side diaphragm 302 via an interlocking pin 301 that is interlocked with the opening and closing of the zoom lens 102 side diaphragm. , Adjust to a predetermined aperture value. Note that the predetermined aperture value is determined by the control unit 107 based on the photometric value of the photometric sensor 113.

タイミング発生部(TG)118は、制御部107の指令に応じて、撮像素子104やAFE105および画像バッファ106にタイミング信号を出力する。そして、このタイミング信号に応じて撮像素子104から画像信号を読み出し、画像バッファ106に取り込む。   A timing generator (TG) 118 outputs a timing signal to the image sensor 104, the AFE 105, and the image buffer 106 in accordance with an instruction from the controller 107. Then, an image signal is read from the image sensor 104 in accordance with this timing signal and is taken into the image buffer 106.

[カメラ本体101の光学系の構造]
次に、カメラ本体101の光学系の構造について説明する。図1において、カメラ本体101の中心部には、光軸に沿ってミラーボックス201がメカニカルシャッタ103とズームレンズ102との間に配置されている。また、カメラ本体101の上部領域には、光学ファインダ系を構成する焦点板202と、コンデンサレンズ203と、ペンタプリズム204と、接眼レンズ205とが配置されている。焦点板202は、ミラーボックス201の上方に位置し、ミラー206で反射された光束を一旦結像させる。焦点板202上で結像した光束はコンデンサレンズ203およびペンタプリズム204を通過し、ペンタプリズム204の入射面に対して所定角度だけ偏向した射出面からカメラ本体101の後方に導かれ、接眼レンズ205を介してファインダを覗く撮影者の眼に投影される。尚、ミラー206の中央部は光を透過するハーフミラーになっており、ミラー206を透過した光束はサブミラー207によって下方に反射され、AFセンサ114に導かれる。
[Structure of optical system of camera body 101]
Next, the structure of the optical system of the camera body 101 will be described. In FIG. 1, a mirror box 201 is disposed between the mechanical shutter 103 and the zoom lens 102 along the optical axis at the center of the camera body 101. In the upper region of the camera body 101, a focusing screen 202, a condenser lens 203, a pentaprism 204, and an eyepiece lens 205 constituting an optical viewfinder system are disposed. The focusing screen 202 is positioned above the mirror box 201 and once forms an image of the light beam reflected by the mirror 206. The light beam formed on the focusing screen 202 passes through the condenser lens 203 and the pentaprism 204, and is guided to the rear of the camera body 101 from the exit surface deflected by a predetermined angle with respect to the incident surface of the pentaprism 204. Is projected onto the photographer's eye looking through the viewfinder. The central portion of the mirror 206 is a half mirror that transmits light, and the light beam that has passed through the mirror 206 is reflected downward by the sub mirror 207 and guided to the AF sensor 114.

測光時は、ミラー206で反射され焦点板202上で結像した光の散乱光がコンデンサレンズ203およびペンタプリズム204を通過して、ペンタプリズム204の近傍に設けられた測光センサ113に導かれ、測光センサ113で複数の領域に分割して領域毎の測光値を制御部107に出力する。   At the time of photometry, the scattered light of the light reflected by the mirror 206 and imaged on the focusing screen 202 passes through the condenser lens 203 and the pentaprism 204 and is guided to the photometry sensor 113 provided in the vicinity of the pentaprism 204, The photometric sensor 113 divides the image into a plurality of areas and outputs the photometric value for each area to the control unit 107.

撮影時は、制御部107の指令に応じてミラー駆動部115を介してミラー206およびサブミラー207を跳ね上げ、ズームレンズ102から入射する被写体光はメカニカルシャッタ103を介して撮像素子104に結像される。撮影後は、メカニカルシャッタ103が閉じられると同時にミラー206は跳ね上げ前の位置に戻る。   At the time of shooting, the mirror 206 and the sub mirror 207 are flipped up through the mirror driving unit 115 in accordance with a command from the control unit 107, and the subject light incident from the zoom lens 102 is imaged on the image sensor 104 through the mechanical shutter 103. The After photographing, the mechanical shutter 103 is closed and the mirror 206 returns to the position before the flip-up.

ここで、表示部109にライブビュー画像を表示して撮影する場合は、ミラー206は跳ね上げたままの状態で、メカニカルシャッタ103も開いた状態にしておき、電子シャッタによってライブビュー画像を撮影して表示部109にライブビュー画像を表示する。そして、操作部111のレリーズボタンが押下されると、一旦、メカニカルシャッタ103を閉じると共に、ミラー206を元の位置に戻して測光センサ113で測光後、再びミラー206を跳ね上げて、メカニカルシャッタ103を設定されたシャッタ速度で開閉し、撮像素子104で本撮影を行う。   Here, when a live view image is displayed and photographed on the display unit 109, the mirror 206 is kept in a state of being flipped up and the mechanical shutter 103 is also opened, and the live view image is photographed with an electronic shutter. The live view image is displayed on the display unit 109. When the release button of the operation unit 111 is pressed, the mechanical shutter 103 is once closed, the mirror 206 is returned to the original position, the photometric sensor 113 performs photometry, the mirror 206 is flipped up again, and the mechanical shutter 103 is returned. Are opened and closed at the set shutter speed, and the image pickup device 104 performs the main photographing.

[ズームレンズ102の構成]
次に、ズームレンズ102の構造について説明する。図1において、ズームレンズ102は、先に説明した絞り駆動用の連動ピン301と、絞り302と、フォーカスレンズおよびズームレンズなどを構成する複数枚のレンズ303と、レンズ制御部304と、フォーカス駆動部305と、モータ(M)306と、フォーカス位置検出部307と、ズームリング308と、ズーム位置検出部309と、接点コネクタ310と、メモリ311とで構成される。
[Configuration of Zoom Lens 102]
Next, the structure of the zoom lens 102 will be described. In FIG. 1, the zoom lens 102 includes an interlock driving pin 301 for aperture driving described above, an aperture 302, a plurality of lenses 303 constituting a focus lens, a zoom lens, and the like, a lens control unit 304, and focus driving. A unit 305, a motor (M) 306, a focus position detection unit 307, a zoom ring 308, a zoom position detection unit 309, a contact connector 310, and a memory 311 are configured.

レンズ制御部304は、接点コネクタ310を介してカメラ本体101側に接続され、カメラ本体101側から電源の供給を受けると共に、制御部107から受ける指令に応じてズームレンズ102の各部の動作を制御する。或いは、レンズ制御部304は、製造時にメモリ311に記憶されているズームレンズ102の製造番号や型番およびズーム範囲や焦点距離範囲などの静的なレンズ情報を読み出して制御部107に出力する。特に本実施形態では、ズーム操作やフォーカス操作に応じて逐次変化するフォーカスレンズ位置やズームレンズ位置、射出瞳位置などの動的なレンズ情報を制御部107に出力する。尚、本実施形態の説明では、これらの静的なレンズ情報と動的なレンズ情報を総称してレンズ情報と称する。   The lens control unit 304 is connected to the camera body 101 side via the contact connector 310, receives power supply from the camera body 101 side, and controls the operation of each part of the zoom lens 102 according to a command received from the control unit 107. To do. Alternatively, the lens control unit 304 reads out static lens information such as the manufacturing number, model number, zoom range, and focal length range of the zoom lens 102 stored in the memory 311 at the time of manufacture and outputs the static lens information to the control unit 107. In particular, in the present embodiment, dynamic lens information such as a focus lens position, a zoom lens position, and an exit pupil position that sequentially change according to a zoom operation or a focus operation is output to the control unit 107. In the description of this embodiment, the static lens information and the dynamic lens information are collectively referred to as lens information.

フォーカス駆動部305は、レンズ制御部304の指令に応じて、レンズ303内のフォーカスレンズが所定位置になるようモータ306を駆動する。尚、フォーカスレンズの所定位置は、先に説明したように、カメラ本体101の制御部107が求めたフォーカスレンズ位置である。   The focus driving unit 305 drives the motor 306 in accordance with a command from the lens control unit 304 so that the focus lens in the lens 303 becomes a predetermined position. The predetermined position of the focus lens is the focus lens position obtained by the control unit 107 of the camera body 101 as described above.

フォーカス位置検出部307は、フォーカス駆動部305がモータ306を駆動して調整するフォーカスレンズの位置を読み取って、レンズ制御部304に出力する。これによって、レンズ制御部304はフォーカスレンズの位置を取得し、フォーカス駆動部305に指令した所定位置にフォーカスレンズが移動されたか否かを確認する。   The focus position detection unit 307 reads the position of the focus lens adjusted by the focus driving unit 305 by driving the motor 306 and outputs the read position to the lens control unit 304. As a result, the lens control unit 304 acquires the position of the focus lens, and checks whether or not the focus lens has been moved to a predetermined position commanded to the focus driving unit 305.

ズームリング308は、ズームレンズ102の鏡筒の周囲に設けられたリング状の操作部材で、撮影者が手動で回転してレンズ303内のズームレンズの位置を可変する。   The zoom ring 308 is a ring-shaped operation member provided around the lens barrel of the zoom lens 102, and is manually rotated by the photographer to change the position of the zoom lens in the lens 303.

ズーム位置検出部309は、ズームリング308の操作によって可変されたズームレンズの位置を読み取って、レンズ制御部304に出力する。これによって、レンズ制御部304はズーム位置を取得する。   The zoom position detection unit 309 reads the position of the zoom lens changed by the operation of the zoom ring 308 and outputs it to the lens control unit 304. Thereby, the lens control unit 304 acquires a zoom position.

接点コネクタ310は、ズームレンズ102側の金属接点とカメラ本体101側の金属接点とで構成され、ズームレンズ102の鏡筒をカメラ本体101に装着した時に両側の金属接点が接続され、カメラ本体101側からズームレンズ102側への電源の供給や、制御部107とレンズ制御部304との間で制御信号の通信を行うことができる。   The contact connector 310 includes a metal contact on the zoom lens 102 side and a metal contact on the camera body 101 side. When the lens barrel of the zoom lens 102 is attached to the camera body 101, the metal contacts on both sides are connected. It is possible to supply power from the zoom lens 102 to the zoom lens 102 and to communicate control signals between the control unit 107 and the lens control unit 304.

メモリ311は、先に説明したように、ズームレンズ102の静的なレンズ情報が製造時に記憶されている。   As described above, the memory 311 stores static lens information of the zoom lens 102 at the time of manufacture.

[測光センサ113の測光値の補正について]
次に、図1の測光センサ113が出力する測光値を補正する処理について詳しく説明する。測光センサ113は、図2で説明したように、マトリクス状に配置された複数の画素(複数の領域)で構成される分割測光センサである。そして、測光センサ113が受光する光は、図1のズームレンズ102の光学系と、カメラ本体101のミラー206,焦点板202,コンデンサレンズ203およびペンタプリズム204などの光学系を介して入射されるので、仮に一様な輝度の光を入射させた場合でも、これらの光学系の特性に応じて複数の領域で受光される光の測光値にずれや偏りが生じ、例えば図3に示すような輝度分布になる。尚、図3は測光センサ113の測光値をメッシュの濃さで表現した図で、同じ輝度範囲のエリアを同じ濃さのメッシュで塗り潰してある。例えばエリア113aの楕円内は測光値が同じ輝度範囲であることを示し、エリア113bの楕円内でエリア113aを覗く部分は測光値が同じ輝度範囲であることを示している。図3の例のように、一様な輝度の光を入射させた場合でも、測光センサ113が出力する測光値は一様ではなく、中心のずれや偏りのある分布になる。そこで、適正な露出制御を行うためには、測光センサ113が出力する測光値を適切な補正値で補正する必要がある。
[Correction of photometric value of photometric sensor 113]
Next, the process of correcting the photometric value output from the photometric sensor 113 in FIG. 1 will be described in detail. As described with reference to FIG. 2, the photometric sensor 113 is a divided photometric sensor composed of a plurality of pixels (a plurality of regions) arranged in a matrix. The light received by the photometric sensor 113 is incident through the optical system of the zoom lens 102 in FIG. 1 and the optical system such as the mirror 206, the focusing screen 202, the condenser lens 203, and the pentaprism 204 of the camera body 101. Therefore, even when light of uniform brightness is incident, the photometric values of light received in a plurality of regions are shifted or biased according to the characteristics of these optical systems. For example, as shown in FIG. It becomes luminance distribution. FIG. 3 is a diagram in which the photometric value of the photometric sensor 113 is expressed by the density of the mesh, and the area of the same luminance range is filled with the mesh of the same density. For example, the area 113a within the ellipse indicates that the photometric value is in the same luminance range, and the area 113b within the ellipse of the area 113b indicates that the photometric value is within the same luminance range. As in the example of FIG. 3, even when light of uniform luminance is incident, the photometric value output from the photometric sensor 113 is not uniform, and has a distribution with a deviation or bias in the center. Therefore, in order to perform appropriate exposure control, it is necessary to correct the photometric value output from the photometric sensor 113 with an appropriate correction value.

本実施形態では、測光センサ113の測光値を2段階に分けて補正する。1段目の補正に用いる補正値は、基準レンズ(例えば焦点距離が50mmの標準レンズなど)をカメラ本体101に装着した時の測光センサ113の測光値を基準として、カメラ本体101の測光センサ113までの光学系の個体差による偏りを補正して一様な測光値が得られるようにするための第1補正値である。これは、工場出荷時などにキャリブレーションした基準レンズとの差分データを第1補正値としてメモリ108に予め記憶しておく。2段目の補正に用いる補正値は、カメラ本体101に装着されているズームレンズ102からレンズ情報(開放絞り値や射出瞳位置などの情報)を取得して、これらのレンズ情報から測光センサ113の測光値を補正する第2補正値である。特に第2補正値は、カメラ本体101に装着されるズームレンズ102が交換された時や、ズームレンズ102のズーム位置やフォーカス位置が変わった時などに更新される。このように、第2補正値はズームレンズ102のレンズ303の状態によって変化するので、露出制御を行う毎にレンズ情報を取得し、取得したレンズ情報を入力パラメータとしてファジイ処理やニューラルネットワーク処理などを用いて第2補正値を求める。或いは、レンズ情報毎に測光センサ113が出力する測光値に対する補正値を予め実験やシミュレーションなどによって求めておき、レンズ情報と第2補正値とを対応させたテーブルをメモリ108に記憶しておいても構わない。但し、レンズ情報の組合せが多い場合はメモリ容量が多くなるだけでなく、新しいレンズが開発される度に、メモリ108のテーブルを更新する必要がある。   In the present embodiment, the photometric value of the photometric sensor 113 is corrected in two stages. The correction value used for the first correction is based on the photometric value of the photometric sensor 113 when a reference lens (for example, a standard lens with a focal length of 50 mm) is attached to the camera main body 101. This is a first correction value for correcting a bias due to individual differences in the optical system until a uniform photometric value is obtained. In this case, difference data from a reference lens calibrated at the time of factory shipment or the like is stored in advance in the memory 108 as a first correction value. The correction value used for the second-stage correction is obtained by acquiring lens information (information such as the open aperture value and exit pupil position) from the zoom lens 102 mounted on the camera body 101, and using the lens information from the lens information. This is the second correction value for correcting the photometric value. In particular, the second correction value is updated when the zoom lens 102 attached to the camera body 101 is replaced or when the zoom position or focus position of the zoom lens 102 is changed. As described above, since the second correction value varies depending on the state of the lens 303 of the zoom lens 102, lens information is acquired every time exposure control is performed, and fuzzy processing, neural network processing, and the like are performed using the acquired lens information as input parameters. To obtain the second correction value. Alternatively, a correction value for the photometric value output from the photometric sensor 113 for each lens information is obtained in advance by experiment or simulation, and a table in which the lens information and the second correction value are associated is stored in the memory 108. It doesn't matter. However, when there are many combinations of lens information, not only the memory capacity increases, but it is necessary to update the table in the memory 108 each time a new lens is developed.

[測光値の補正処理]
次に、第1補正値と第2補正値とを用いて測光センサ113が出力する測光値を補正する処理について詳しく説明する。図4は、測光値の補正処理を示すフローチャートである。尚、図4のフローチャートの処理は、制御部107のレンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154と、露出制御部155とで行われる。以下、フローチャートに従って順に説明する。
[Photometric value correction]
Next, the process of correcting the photometric value output from the photometric sensor 113 using the first correction value and the second correction value will be described in detail. FIG. 4 is a flowchart showing photometric value correction processing. 4 is performed by the lens information acquisition unit 151, the first correction unit 152, the second correction unit 153, the photometry correction unit 154, and the exposure control unit 155 of the control unit 107. Hereinafter, it demonstrates in order according to a flowchart.

(ステップS101)第1補正部152は、基準レンズとの差分データである第1補正値をメモリ108から読み出す。尚、メモリ108に記憶されている第1補正値は、図2で説明した全画素に対する補正値であっても構わないが、ここでは全画素の中の所定の画素(以下、第1所定画素と称する)に対する第1補正値だけがメモリ108に記憶されているものとする。図5に第1所定画素の一例を示す。図5は、図2で説明した測光センサ113の左上の画素部分を拡大した図である。図5において、画素の座標を座標(y軸方向の画素位置,x軸方向の画素位置)で表記すると、例えば測光センサ113の紙面左上の画素の座標はp(1,1)となる。ここで、例えば図5の画素の中で黒色で示したp(1,1),p(1,5),p(1,10),p(4,1),p(4,5),p(4,10),(8,1),p(8,5),p(8,10)の各画素が第1所定画素となる。そして、これらの画素の第1補正値のみがメモリ108に記憶されている。従って、例えばp(1,2)やp(6,7)などの白色で示した画素に対する第1補正値はメモリ108に記憶されていない。   (Step S <b> 101) The first correction unit 152 reads a first correction value, which is difference data from the reference lens, from the memory 108. The first correction value stored in the memory 108 may be a correction value for all the pixels described with reference to FIG. 2, but here, a predetermined pixel (hereinafter referred to as a first predetermined pixel) among all the pixels. Only the first correction value is stored in the memory 108. FIG. 5 shows an example of the first predetermined pixel. FIG. 5 is an enlarged view of the upper left pixel portion of the photometric sensor 113 described in FIG. In FIG. 5, when the coordinates of the pixel are expressed by coordinates (pixel position in the y-axis direction, pixel position in the x-axis direction), for example, the coordinate of the pixel on the upper left side of the photometric sensor 113 is p (1, 1). Here, for example, p (1,1), p (1,5), p (1,10), p (4,1), p (4,5) shown in black in the pixel of FIG. Each pixel of p (4, 10), (8, 1), p (8, 5), p (8, 10) is the first predetermined pixel. Only the first correction values of these pixels are stored in the memory 108. Accordingly, for example, the first correction value for the pixel shown in white, such as p (1,2) or p (6,7), is not stored in the memory 108.

ここで、第1所定画素の第1補正値をZm1(x,y)と表記する。例えば第1所定画素の画素p(4,5)の第1補正値はZm1(4,5)と表記される。尚、第1補正値は、先に説明したように、基準レンズを用いて得られる測光センサ113の測光値の偏りを補正する補正値で、出荷前検査やユーザによるキャリブレーションによってメモリ108に予め書き込まれた値である。   Here, the first correction value of the first predetermined pixel is expressed as Zm1 (x, y). For example, the first correction value of the pixel p (4, 5) of the first predetermined pixel is denoted as Zm1 (4, 5). As described above, the first correction value is a correction value for correcting the deviation of the photometric value of the photometric sensor 113 obtained using the reference lens, and is previously stored in the memory 108 by a pre-shipment inspection or user calibration. This is the written value.

(ステップS102)第1補正部152は、測光センサ113から出力された複数の画素の測光値を画素単位で補正するために、補正しようとしている画素が第1所定画素であるか否かを判別する。そして、第1所定画素である場合はステップS103に進み、第1所定画素ではない場合はステップS104に進む。例えば、先に説明した図5の例では、補正しようとする画素がp(1,1)の場合はステップS103に進み、p(1,2)の場合はステップS104に進む。   (Step S102) The first correction unit 152 determines whether or not the pixel to be corrected is the first predetermined pixel in order to correct the photometric values of the plurality of pixels output from the photometric sensor 113 in units of pixels. To do. If it is the first predetermined pixel, the process proceeds to step S103, and if it is not the first predetermined pixel, the process proceeds to step S104. For example, in the example of FIG. 5 described above, if the pixel to be corrected is p (1, 1), the process proceeds to step S103, and if it is p (1, 2), the process proceeds to step S104.

(ステップS103)補正しようとしている画素が第1所定画素の場合、第1補正部152は、メモリ108から読み出した当該画素の第1補正値をそのまま当該画素の第1補正値とする。   (Step S103) When the pixel to be corrected is the first predetermined pixel, the first correction unit 152 sets the first correction value of the pixel read from the memory 108 as the first correction value of the pixel as it is.

この様子を図6(a)に示す。図6(a)は図5を拡大した図で、画素p(X,Y)を基準とする黒く塗り潰された4つの第1所定画素(p(X,Y),p(X+n,Y),p(X,Y+k),p(X+n,Y+k))に対する第1補正値はメモリ108に記憶されているが、白色の画素に対する第1補正値はメモリ108に記憶されていない。本処理ステップでは、図6(a)において、p(X,Y),p(X+n,Y),p(X,Y+k)およびp(X+n,Y+k)の4つの第1所定画素に対する第1補正値は、それぞれメモリ108から読み出した第1補正値Zm1(X,Y),Zm1(X+n,Y),Zm1(X,Y+k)およびZm1(X+n,Y+k)がそのまま適用される。尚、図6(a)において、nはx軸方向の画素p(X,Y+k)とp(X+n,Y+k)の画素間隔を示す自然数で、kはy軸方向の画素p(X,Y)とp(X+n,Y)の画素間隔を示す自然数である。図6(a)の例では、n=6,k=4となっている。   This is shown in FIG. FIG. 6A is an enlarged view of FIG. 5, and four first predetermined pixels (p (X, Y), p (X + n, Y), black) with reference to the pixel p (X, Y), The first correction values for p (X, Y + k) and p (X + n, Y + k)) are stored in the memory 108, but the first correction values for white pixels are not stored in the memory 108. In this processing step, the first correction for the four first predetermined pixels p (X, Y), p (X + n, Y), p (X, Y + k), and p (X + n, Y + k) in FIG. As the values, the first correction values Zm1 (X, Y), Zm1 (X + n, Y), Zm1 (X, Y + k), and Zm1 (X + n, Y + k) read from the memory 108 are applied as they are. In FIG. 6A, n is a natural number indicating the pixel interval between the pixels p (X, Y + k) and p (X + n, Y + k) in the x-axis direction, and k is the pixel p (X, Y) in the y-axis direction. And p (X + n, Y) is a natural number indicating the pixel interval. In the example of FIG. 6A, n = 6 and k = 4.

(ステップS104)補正しようとしている画素が第1所定画素ではない場合、当該画素の第1補正値がメモリ108に記憶されていないので、第1補正部152は、周辺の第1所定画素の第1補正値を用いて補間した近似値を当該画素の第1補正値とする。   (Step S104) When the pixel to be corrected is not the first predetermined pixel, the first correction value of the pixel is not stored in the memory 108, so the first correction unit 152 sets the first correction value of the surrounding first predetermined pixel. The approximate value interpolated using one correction value is set as the first correction value of the pixel.

この様子を図6(a)を用いて説明する。図6(a)において、メモリ108に第1補正値が記憶されていない第1所定画素以外の画素p(X+n’,Y+k’)の第1補正値の近似値Z’m1(X+n’,Y+k’)を、当該画素p(X+n’,Y+k’)の周辺の4つの第1所定画素(p(X,Y),p(X+n,Y),p(X,Y+k)およびp(X+n,Y+k))から補間して求める。尚、図6(a)において、n’はx軸方向の画素p(X,Y)およびp(X,Y+k)から画素p(X+n’,Y+k’)までの画素間隔を示す自然数で、k’はy軸方向の画素p(X,Y)およびp(X+n,Y)から画素p(X+n’,Y+k’)までの画素間隔を示す自然数である。従って、図6(a)の例では、n=6,k=4,n’=4,k’=1となっている。   This state will be described with reference to FIG. In FIG. 6A, the approximate value Z′m1 (X + n ′, Y + k) of the first correction value of the pixel p (X + n ′, Y + k ′) other than the first predetermined pixel for which the first correction value is not stored in the memory 108. ') Is replaced with four first predetermined pixels (p (X, Y), p (X + n, Y), p (X, Y + k) and p (X + n, Y + k) around the pixel p (X + n', Y + k '). )). In FIG. 6A, n ′ is a natural number indicating the pixel interval from the pixels p (X, Y) and p (X, Y + k) to the pixel p (X + n ′, Y + k ′) in the x-axis direction. 'Is a natural number indicating a pixel interval from the pixels p (X, Y) and p (X + n, Y) to the pixel p (X + n', Y + k ') in the y-axis direction. Therefore, in the example of FIG. 6A, n = 6, k = 4, n ′ = 4, k ′ = 1.

本処理ステップでは、第1補正値がメモリ108に記憶されていない第1所定画素以外の画素の第1補正値の近似値を(式1)を用いて算出する。尚、(式1)は、画素p(X+n’,Y+k’)の第1補正値の近似値Z’m1(X+n’,Y+k’)を求める場合の近似式である。そして、求めた近似値Z’m1(X+n’,Y+k’)を当該画素p(X+n’,Y+k’)の第1補正値Zm1(X+n’,Y+k’)とする。このようにして、第1所定画素以外の画素の第1補正値を求めることができる。   In this processing step, an approximate value of the first correction value of a pixel other than the first predetermined pixel whose first correction value is not stored in the memory 108 is calculated using (Equation 1). (Expression 1) is an approximate expression for obtaining an approximate value Z′m1 (X + n ′, Y + k ′) of the first correction value of the pixel p (X + n ′, Y + k ′). Then, the obtained approximate value Z′m1 (X + n ′, Y + k ′) is set as the first correction value Zm1 (X + n ′, Y + k ′) of the pixel p (X + n ′, Y + k ′). In this way, the first correction value of pixels other than the first predetermined pixel can be obtained.

Figure 2011039293
Figure 2011039293

尚、(式1)では、周辺の第1所定画素からの画素間隔に応じて比例配分する直線補間を行うようにしたが、二次式や高次式あるいは三角関数など他の方法によって補間するようにしても構わない。また、図6(a)では、周辺の4つの第1所定画素の第1補正値から補間するようにしたが、周辺の3つの第1所定画素の第1補正値から求めるようにしても構わない。   In (Expression 1), linear interpolation is performed that is proportionally distributed according to the pixel interval from the surrounding first predetermined pixel. However, interpolation is performed by other methods such as a quadratic expression, a high-order expression, or a trigonometric function. It doesn't matter if you do. In FIG. 6A, interpolation is performed from the first correction values of the four surrounding first predetermined pixels. However, the interpolation may be performed from the first correction values of the three surrounding first predetermined pixels. Absent.

このようにして、ステップS103またはステップS104が終了した時点で、測光センサ113の全画素に対する第1補正値Zm1(x,y)が求まる。ここで、変数x,yは、例えば図2の場合、xは1から150の自然数、yは1から100の自然数である。尚、ステップS101からステップS104までの第1補正値を求める処理は測光センサ113の全画素について行われる。この時、1画素ずつ順番に処理しても構わないし、複数画素毎に並列処理で求めても構わない。   In this way, when step S103 or step S104 is completed, the first correction value Zm1 (x, y) for all the pixels of the photometric sensor 113 is obtained. Here, the variables x and y are, for example, in FIG. 2, x is a natural number from 1 to 150, and y is a natural number from 1 to 100. Note that the processing for obtaining the first correction value from step S101 to step S104 is performed for all the pixels of the photometric sensor 113. At this time, the processing may be performed sequentially for each pixel, or may be obtained by parallel processing for each of a plurality of pixels.

引き続き説明する以下のステップは、第2補正値を求める処理である。   The following steps to be described subsequently are processes for obtaining the second correction value.

(ステップS105)レンズ情報取得部151は、ズームレンズ102からレンズ情報を読み出す。レンズ情報は、先に説明したように、ズーム位置,フォーカス位置,射出瞳位置,開放絞り値など測光センサ113の測光値の分布に影響する光学情報である。これらの値はズームレンズ102が交換された時やズーム位置やフォーカス位置が変更される毎に更新されている。   (Step S <b> 105) The lens information acquisition unit 151 reads lens information from the zoom lens 102. As described above, the lens information is optical information that affects the distribution of the photometric values of the photometric sensor 113 such as the zoom position, the focus position, the exit pupil position, and the open aperture value. These values are updated when the zoom lens 102 is replaced or whenever the zoom position or focus position is changed.

(ステップS106)第2補正部153は、ステップS105で取得したレンズ情報に応じて、第2所定画素毎に第2補正値Zm2(x,y)を算出する。   (Step S106) The second correction unit 153 calculates a second correction value Zm2 (x, y) for each second predetermined pixel in accordance with the lens information acquired in Step S105.

ここで、第2所定画素について図7を用いて説明する。図7は、先に説明した図5に第2所定画素を追加した図である。従って、図7の中で黒で塗り潰した画素は第1所定画素を示している。図7において、第2所定画素は、横縞模様で示した画素p(1,3),p(1,8),p(4,3),p(4,8),p(7,3),(7,8)の6つの画素である。そして、ステップS106では、これらの画素の第2補正値を算出する。第2補正値は、ステップS105で取得したレンズ情報を入力パラメータとしてファジイ処理やニューラルネットワーク処理などによって求める。例えば、フォーカス位置,射出瞳位置,開放絞り値,レンズ構成などの光学情報をパラメータとして入力し、測光センサ113の第2所定画素の位置での補正値(第2補正値)を求める。尚、ファジイ処理やニューラルネットワーク処理については周知なので詳しい説明は省略する。尚、第2所定画素についてのみ第2補正値を求める理由は、全画素について第2補正値を求める場合、ファジイ処理やニューラルネットワーク処理などの複雑な処理を全画素について行わなければならず、測光時の制御部107の処理負荷が増えるからである。   Here, the second predetermined pixel will be described with reference to FIG. FIG. 7 is a diagram in which a second predetermined pixel is added to FIG. 5 described above. Accordingly, the pixels filled in black in FIG. 7 indicate the first predetermined pixels. In FIG. 7, the second predetermined pixels are pixels p (1,3), p (1,8), p (4,3), p (4,8), p (7,3) shown in a horizontal stripe pattern. , (7, 8). In step S106, the second correction values of these pixels are calculated. The second correction value is obtained by fuzzy processing or neural network processing using the lens information acquired in step S105 as an input parameter. For example, optical information such as a focus position, an exit pupil position, an open aperture value, and a lens configuration is input as parameters, and a correction value (second correction value) at the position of the second predetermined pixel of the photometric sensor 113 is obtained. Since fuzzy processing and neural network processing are well known, detailed description thereof is omitted. The reason for obtaining the second correction value only for the second predetermined pixel is that, when obtaining the second correction value for all the pixels, complicated processing such as fuzzy processing and neural network processing must be performed for all the pixels. This is because the processing load of the control unit 107 increases.

或いは、レンズ情報毎に測光センサ113が出力する第2所定画素の測光値に対する第2補正値を予め実験やシミュレーションなどによって求めておき、レンズ情報のパラメータの組み合わせと第2補正値とを対応させたテーブルを第1補正値と同様に予めメモリ108に記憶しておいても構わない。但し、この場合は、レンズ情報の組合せ数分の第2補正値を予めメモリ108に記憶しておかなければならず、メモリ容量が多くなるだけでなく、新しいレンズが開発される度に、メモリ108のテーブルを更新する必要がある。   Alternatively, a second correction value for the photometric value of the second predetermined pixel output from the photometric sensor 113 for each lens information is obtained in advance by experiments or simulations, and the combination of lens information parameters and the second correction value are associated with each other. The table may be stored in advance in the memory 108 in the same manner as the first correction value. However, in this case, the second correction values for the number of combinations of lens information must be stored in the memory 108 in advance, which not only increases the memory capacity but also increases the memory each time a new lens is developed. 108 tables need to be updated.

このようにして、第2補正部153は、ステップS105で取得したレンズ情報に応じて、第2所定画素毎に第2補正値Zm2(x,y)を算出する。   In this way, the second correction unit 153 calculates the second correction value Zm2 (x, y) for each second predetermined pixel according to the lens information acquired in step S105.

(ステップS107)第2補正部153は、測光センサ113から出力された複数の画素の測光値を画素単位で補正するために、補正しようとしている画素が第2所定画素であるか否かを判別する。そして、第2所定画素である場合はステップS108に進み、第2所定画素ではない場合はステップS109に進む。例えば、先に説明した図7の例では、補正しようとする画素がp(1,3)の場合はステップS108に進み、p(2,4)の場合はステップS109に進む。   (Step S107) The second correction unit 153 determines whether or not the pixel to be corrected is the second predetermined pixel in order to correct the photometric values of the plurality of pixels output from the photometric sensor 113 in units of pixels. To do. If it is the second predetermined pixel, the process proceeds to step S108, and if it is not the second predetermined pixel, the process proceeds to step S109. For example, in the example of FIG. 7 described above, if the pixel to be corrected is p (1, 3), the process proceeds to step S108, and if it is p (2, 4), the process proceeds to step S109.

(ステップS108)補正しようとしている画素が第2所定画素の場合、第2補正部153は、ステップS106で算出した当該画素の第2補正値をそのまま当該画素の第2補正値とする。   (Step S108) When the pixel to be corrected is the second predetermined pixel, the second correction unit 153 directly uses the second correction value of the pixel calculated in Step S106 as the second correction value of the pixel.

この様子は先に第1補正値の説明で用いた図6(a)と同様に求める。例えば図6(b)の例では、画素p(X,Y)を基準とする横縞模様に塗り潰された4つの画素(p(X,Y),p(X+n,Y),p(X,Y+k),p(X+n,Y+k))に対する第2補正値Zm2(X,Y),Zm2(X+n,Y),Zm2(X,Y+k),Zm2(X+n,Y+k))はステップS106で既に算出されている。これに対して、白色の画素は第2補正値Zm2が算出されていない画素である。尚、図6(b)は第2所定画素の第2補正値を求める以外は、図6(a)の例と同じであり、符号X,Y,n,kについても同様である。   This state is obtained in the same manner as in FIG. 6A used in the description of the first correction value. For example, in the example of FIG. 6B, four pixels (p (X, Y), p (X + n, Y), p (X, Y + k) filled in a horizontal stripe pattern with the pixel p (X, Y) as a reference. ), P (X + n, Y + k)) for the second correction values Zm2 (X, Y), Zm2 (X + n, Y), Zm2 (X, Y + k), Zm2 (X + n, Y + k)) are already calculated in step S106. Yes. On the other hand, white pixels are pixels for which the second correction value Zm2 has not been calculated. FIG. 6B is the same as the example of FIG. 6A except that the second correction value of the second predetermined pixel is obtained, and the same applies to the symbols X, Y, n, and k.

(ステップS109)補正しようとしている画素が第2所定画素ではない場合、当該画素の第2補正値が算出されていないので、第2補正部153は、周辺の第2所定画素の第2補正値を用いて補間した値を当該画素の第2補正値とする。   (Step S109) When the pixel to be corrected is not the second predetermined pixel, the second correction value of the pixel is not calculated, so the second correction unit 153 sets the second correction value of the surrounding second predetermined pixel. The value interpolated using is used as the second correction value of the pixel.

この様子は先に説明した第1補正値の場合と同様に近似式によって補間する。例えば、図6(b)において、第2補正値が算出されていない画素p(X+n’,Y+k’)の第2補正値の近似値Z’m2(X+n’,Y+k’)を、当該画素p(X+n’,Y+k’)の周辺の第2補正値が算出されている4つの第2所定画素(p(X,Y),p(X+n,Y),p(X,Y+k)およびp(X+n,Y+k))から補間して求める。補間の方法は、第1所定画素を補間する場合の(式1)と同様の(式2)を用いて算出することができる。そして、求めた近似値Z’m2(X+n’,Y+k’)を画素p(X+n’,Y+k’)の第2補正値Zm2(X+n’,Y+k’)とする。このようにして、第2所定画素以外の画素の第2補正値を求めることができる。   This state is interpolated by an approximate expression as in the case of the first correction value described above. For example, in FIG. 6B, the approximate value Z′m2 (X + n ′, Y + k ′) of the second correction value of the pixel p (X + n ′, Y + k ′) for which the second correction value has not been calculated is used as the pixel p. Four second predetermined pixels (p (X, Y), p (X + n, Y), p (X, Y + k), and p (X + n) whose second correction values around (X + n ′, Y + k ′) are calculated. , Y + k)). The interpolation method can be calculated using (Expression 2) similar to (Expression 1) in the case of interpolating the first predetermined pixel. Then, the obtained approximate value Z′m2 (X + n ′, Y + k ′) is set as the second correction value Zm2 (X + n ′, Y + k ′) of the pixel p (X + n ′, Y + k ′). In this way, the second correction value of pixels other than the second predetermined pixel can be obtained.

Figure 2011039293
Figure 2011039293

尚、(式2)では、周辺の第2所定画素からの画素間隔に応じて比例配分する直線補間を行うようにしたが、(式1)と同様に、二次式や高次式あるいは三角関数など他の方法によって補間するようにしても構わない。また、図6(b)では、周辺の4つの第2所定画素の第2補正値から補間するようにしたが、周辺の3つの第2所定画素の第2補正値から求めるようにしても構わない。   In (Expression 2), linear interpolation is performed that is proportionally distributed according to the pixel interval from the surrounding second predetermined pixel. However, as in (Expression 1), a quadratic expression, a higher order expression, or a triangular expression is used. You may make it interpolate by other methods, such as a function. In FIG. 6B, the interpolation is performed from the second correction values of the four neighboring second predetermined pixels, but may be obtained from the second correction values of the three neighboring second predetermined pixels. Absent.

このようにして、ステップS106またはステップS109の処理が終了した時点で、測光センサ113の全画素に対する第2補正値Zm2(x,y)が求まる。ここで、変数x,yは、例えば図2の場合、xは1から150の自然数、yは1から100の自然数である。尚、ステップS106からステップS109までの第2補正値を求める処理は測光センサ113の全画素について行われる。この時、1画素ずつ順番に処理しても構わないし、複数画素毎に並列処理で求めても構わない。   In this way, the second correction value Zm2 (x, y) for all the pixels of the photometric sensor 113 is obtained when the processing of step S106 or step S109 is completed. Here, the variables x and y are, for example, in FIG. 2, x is a natural number from 1 to 150, and y is a natural number from 1 to 100. Note that the processing for obtaining the second correction value from step S106 to step S109 is performed for all the pixels of the photometric sensor 113. At this time, the processing may be performed sequentially for each pixel, or may be obtained by parallel processing for each of a plurality of pixels.

(ステップS110)測光補正部154は、第1補正値Zm1(x,y)と、第2補正値Zm2(x,y)とを用いて、測光センサ113が出力する測光値を補正する最終的な測光補正値Zm(x,y)を(式3)によって求める。   (Step S110) The photometric correction unit 154 finally corrects the photometric value output from the photometric sensor 113 using the first correction value Zm1 (x, y) and the second correction value Zm2 (x, y). An appropriate photometric correction value Zm (x, y) is obtained by (Equation 3).

Zm(x,y)=Zm1(x,y)×Zm2(x,y) …(式3)
(ステップS111)測光補正部154は、(式3)で求めた測光補正値Zm(x,y)を用いて、測光センサ113が出力する複数の画素毎の測光値(B(x,y))を補正し、撮影時に用いる補正済みの測光値(Bm(x,y))を求める(式4)。
Zm (x, y) = Zm1 (x, y) × Zm2 (x, y) (Formula 3)
(Step S111) The photometric correction unit 154 uses the photometric correction value Zm (x, y) obtained in (Equation 3) to output photometric values (B (x, y)) for each of the plurality of pixels output from the photometric sensor 113. ) To obtain a corrected photometric value (Bm (x, y)) to be used at the time of photographing (Formula 4).

Bm(x,y)=B(x,y)×Zm(x,y) …(式4)
(ステップS112)露出制御部155は、(式4)で求めた補正済の測光値(Bm(x,y))によって適正な露出を得るための絞り値やシャッタ速度を求めて露出制御を行う。
Bm (x, y) = B (x, y) × Zm (x, y) (Formula 4)
(Step S112) The exposure control unit 155 performs exposure control by obtaining an aperture value and a shutter speed for obtaining an appropriate exposure based on the corrected photometric value (Bm (x, y)) obtained in (Expression 4). .

このようにして、本実施形態に係る撮像装置100および測光センサ113と、メモリ108と、レンズ情報取得部151と、第1補正部152と、第2補正部153と、測光補正部154とで構成される測光装置121は、光学系の個体差やズーム位置や射出瞳位置などレンズ情報の変化による測光センサ113の測光値のずれを補正することができる。   In this way, the imaging device 100 and the photometric sensor 113, the memory 108, the lens information acquisition unit 151, the first correction unit 152, the second correction unit 153, and the photometry correction unit 154 according to the present embodiment are used. The configured photometric device 121 can correct a shift in the photometric value of the photometric sensor 113 due to individual differences in the optical system, changes in lens information such as a zoom position and an exit pupil position.

特に、本実施形態では、図7に示すように、第1所定画素と第2所定画素の位置が異なるように配置しているので、第1所定画素の第1補正値と第2所定画素の第2補正値とを用いて算出される測光補正値の精度を高くすることができる。   In particular, in the present embodiment, as shown in FIG. 7, the first predetermined pixel and the second predetermined pixel are arranged so that the positions thereof are different from each other. Therefore, the first correction value of the first predetermined pixel and the second predetermined pixel The accuracy of the photometric correction value calculated using the second correction value can be increased.

ここで、この理由について説明する。図4のフローチャートにおいて、ステップS104で行う第1補正値の補間処理と、ステップS109で行う第2補正値の補間処理は近似式を用いるので、第1所定画素または第2所定画素から離れた位置の画素の補間値は誤差が大きくなる可能性が高い。一方、第1所定画素と第2所定画素の位置が同じである場合は、第1所定画素から離れた位置の画素は第2所定画素からも離れた位置にあるので、ステップS110で第1補正値と第2補正値とを用いて最終的な測光補正値を算出する際に、補間値の誤差が大きいもの同士を用いることになるので測光補正値の誤差が更に大きくなってしまう。従って、図7で説明したように第1所定画素と第2所定画素の位置をずらすことによって補間誤差の影響を低減することができる。但し、第1所定画素と第2所定画素の位置が全て異なっている必要はなく、特に測光センサ113の周辺部分の画素においては、第1所定画素と第2所定画素の位置が同じ位置であっても構わない。例えば、図7において、画素p(1,1),p(1,4)およびp(4,1)などを第1所定画素および第2所定画素としても構わない。   Here, the reason will be described. In the flowchart of FIG. 4, since the interpolation process of the first correction value performed in step S104 and the interpolation process of the second correction value performed in step S109 use approximate expressions, the position is away from the first predetermined pixel or the second predetermined pixel. There is a high possibility that the interpolation value of this pixel will have a large error. On the other hand, if the positions of the first predetermined pixel and the second predetermined pixel are the same, the pixel at a position away from the first predetermined pixel is also at a position away from the second predetermined pixel. When the final photometric correction value is calculated using the value and the second correction value, those having a large error in the interpolated value are used, so that the error in the photometric correction value is further increased. Therefore, as described with reference to FIG. 7, the influence of the interpolation error can be reduced by shifting the positions of the first predetermined pixel and the second predetermined pixel. However, it is not necessary that the positions of the first predetermined pixel and the second predetermined pixel are all different. In particular, in the peripheral pixels of the photometric sensor 113, the positions of the first predetermined pixel and the second predetermined pixel are the same position. It doesn't matter. For example, in FIG. 7, the pixels p (1,1), p (1,4), and p (4,1) may be used as the first predetermined pixel and the second predetermined pixel.

また、第1所定画素または第2所定画素の配置は、測光センサ113の受光面に均等配置(同じ密度で配置)する必要はない。例えば、図8に示すように、第1所定画素または第2所定画素を配置する際の密度を測光センサ113の中央部分より周辺部分を相対的に高くするようにしても構わない。特に、一般的な測光センサは周辺部分の誤差が中央部分よりも大きくなる傾向にあるので、図8のように第1所定画素または第2所定画素を配置するのが好ましい。   Further, it is not necessary to arrange the first predetermined pixels or the second predetermined pixels equally on the light receiving surface of the photometric sensor 113 (with the same density). For example, as shown in FIG. 8, the density at the time of arranging the first predetermined pixel or the second predetermined pixel may be set so that the peripheral portion is relatively higher than the central portion of the photometric sensor 113. In particular, a general photometric sensor tends to have an error in a peripheral portion larger than that in a central portion. Therefore, it is preferable to arrange the first predetermined pixel or the second predetermined pixel as shown in FIG.

さらに、図4のフローチャートでは、第1補正値を全部決定してから第2補正値を求めるように処理しているが、画素毎に第1補正値と第2補正値とを求めるようにしても構わない。或いは、第1補正値と第2補正値とが求まり次第、順次、当該画素の測光補正値までを求めるようにしても構わない。また、第1補正値と第2補正値とを求める順番を逆にしても構わない。   Further, in the flowchart of FIG. 4, processing is performed so as to obtain the second correction value after determining all the first correction values. However, the first correction value and the second correction value are obtained for each pixel. It doesn't matter. Alternatively, as soon as the first correction value and the second correction value are obtained, the photometric correction value of the pixel may be obtained sequentially. Further, the order of obtaining the first correction value and the second correction value may be reversed.

このように、本実施形態に係る撮像装置100および測光装置121は、少なくとも一部の画素の位置が異なる第1所定画素の第1補正値と第2所定画素の第2補正値とを別々に求めて測光センサ113の測光値を補正することにより、精度の高い測光補正を行うことができる。   As described above, the imaging device 100 and the photometry device 121 according to the present embodiment separately set the first correction value of the first predetermined pixel and the second correction value of the second predetermined pixel, which are different in at least some of the pixel positions. By obtaining and correcting the photometric value of the photometric sensor 113, highly accurate photometric correction can be performed.

[被写体追尾機能への応用例]
次に、上記で説明した撮像装置100および測光装置121の応用例について説明する。本応用例は、予め登録した特定の被写体を追尾する被写体追尾機能を有する撮像装置への適用例である。尚、被写体追尾に関する処理は制御部107で行うものとし、図9に示したように制御部107に追尾部122を設ける。尚、追尾部122以外は図1と同じである。
[Example of application to subject tracking function]
Next, application examples of the imaging device 100 and the photometry device 121 described above will be described. This application example is an application example to an imaging apparatus having a subject tracking function for tracking a specific subject registered in advance. Note that the processing related to subject tracking is performed by the control unit 107, and a tracking unit 122 is provided in the control unit 107 as shown in FIG. Except for the tracking unit 122, the configuration is the same as in FIG.

ここでは、測光センサ113の測光値を補正した図9の測光補正部154が出力する測光値(図4のステップS111が求めた測光値)を利用した簡単な被写体追尾機能の例を挙げて説明する。先ず、撮影者は、追尾したい特定の被写体(追尾被写体)を登録する操作を行う。例えば、図1において、撮影者は、接眼レンズ205を介してファインダを覗きながら追尾したい被写体を画面中央に配置し、操作部111のレリーズボタンを半押しする。これにより、画面中央部の被写体が追尾被写体として登録される。この時、追尾部122は、測光センサ113の補正後の受光面中央部分の分割測光値をメモリ108に記憶する。例えば中央部分の15画素×15画素の測光値がメモリ108に記憶される。尚、この時、追尾部122は、メモリ108に記憶される測光値に対してエッジ抽出処理などの画像処理を行って、追尾被写体の特徴が明確になるようにしても構わない。   Here, an example of a simple subject tracking function using the photometric value output by the photometric correction unit 154 in FIG. 9 (the photometric value obtained in step S111 in FIG. 4) obtained by correcting the photometric value of the photometric sensor 113 will be described. To do. First, the photographer performs an operation of registering a specific subject (tracking subject) to be tracked. For example, in FIG. 1, the photographer places the subject to be tracked in the center of the screen while looking through the viewfinder through the eyepiece lens 205, and presses the release button of the operation unit 111 halfway. Thereby, the subject at the center of the screen is registered as the tracking subject. At this time, the tracking unit 122 stores the divided photometric value of the center portion of the light receiving surface after correction of the photometric sensor 113 in the memory 108. For example, the photometric value of 15 pixels × 15 pixels in the central portion is stored in the memory 108. At this time, the tracking unit 122 may perform image processing such as edge extraction processing on the photometric value stored in the memory 108 to clarify the characteristics of the tracking subject.

そして、追尾部122が被写体追尾処理を開始すると、測光センサ113で分割測光される補正後の測光値を解析して、メモリ108に登録されている追尾被写体の測光値に類似している部分を検索する。類似部分の検索は、例えば、図2の測光センサ113の受光面において、15画素×15画素のブロックを左端から順番に1画素ずつスライドしながらブロック内の相関値を求め、相関値が最も高い部分を追尾被写体の位置とする。或いは、エッジ抽出した形状と類似した形状をパターン認識して、追尾被写体の位置を判定するようにしても構わない。   Then, when the tracking unit 122 starts the subject tracking process, the photometric value after correction that is divided by the photometric sensor 113 is analyzed, and a portion similar to the photometric value of the tracking subject registered in the memory 108 is analyzed. Search for. For the search for similar parts, for example, on the light receiving surface of the photometric sensor 113 in FIG. 2, the correlation value in the block is obtained by sliding a block of 15 pixels × 15 pixels one pixel at a time from the left end in order, and the correlation value is the highest The portion is set as the position of the tracking subject. Alternatively, the position of the tracking subject may be determined by pattern recognition of a shape similar to the shape extracted from the edge.

このようにして、追尾部122は、測光センサ113の測光値を用いて被写体追尾を行うことができる。特に、被写体追尾を行う際の測光値は、先の実施形態で説明したように、測光装置121で補正後の測光値を用いるので、追尾被写体が測光センサ113の中央部分から測光値誤差の大きい周辺部分に移動した場合でも、精度良く追尾被写体を検出することができる。   In this way, the tracking unit 122 can perform subject tracking using the photometric value of the photometric sensor 113. In particular, as described in the previous embodiment, since the photometric value corrected by the photometric device 121 is used as the photometric value at the time of subject tracking, the tracking subject has a large photometric value error from the central portion of the photometric sensor 113. Even when moving to the peripheral portion, the tracking subject can be detected with high accuracy.

以上、本発明に係る測光装置および撮像装置について、各実施例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施例はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   The photometric device and the imaging device according to the present invention have been described with reference to the embodiments. However, the present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

100・・・撮像装置;101・・・カメラ本体;101・・・カメラ本体;102・・・ズームレンズ;103・・・メカニカルシャッタ;104・・・撮像素子;105・・・AFE(アナログフロントエンド);106・・・画像バッファ;107・・・制御部;108・・・メモリ;109・・・表示部;110・・・メモリカードI/F;111・・・操作部;112・・・シャッタ駆動部;113・・・測光センサ;114・・・AFセンサ;115・・・ミラー駆動部;116・・・絞り駆動部;117・・・モータ;118・・・タイミング発生部(TG);151・・・レンズ情報取得部;152・・・第1補正部;153・・・第2補正部;154・・・測光補正部;155・・・露出制御部;121・・・測光装置;201・・・ミラーボックス;202・・・焦点板;203・・・コンデンサレンズ;204・・・ペンタプリズム;205・・・接眼レンズ;206・・・ミラー;207・・・サブミラー;301・・・連動ピン;302・・・絞り;303・・・レンズ;304・・・レンズ制御部;305・・・フォーカス駆動部;306・・・モータ(M);307・・・フォーカス位置検出部;308・・・ズームリング;309・・・ズーム位置検出部;310・・・接点コネクタ;311・・・メモリ DESCRIPTION OF SYMBOLS 100 ... Imaging device; 101 ... Camera body; 101 ... Camera body; 102 ... Zoom lens; 103 ... Mechanical shutter; 104 ... Image sensor; 106) Image buffer; 107 ... Control unit; 108 ... Memory; 109 ... Display unit; 110 ... Memory card I / F; 111 ... Operation unit; Shutter drive unit; 113 ... Photometric sensor; 114 ... AF sensor; 115 ... Mirror drive unit; 116 ... Aperture drive unit; 117 ... Motor; 118 ... Timing generator (TG) 151 ... Lens information acquisition unit; 152 ... First correction unit; 153 ... Second correction unit; 154 ... Photometry correction unit; 155 ... Exposure control unit; 121 ... Photometry apparatus; 01 ... Mirror box; 202 ... Focus plate; 203 ... Condenser lens; 204 ... Pentaprism; 205 ... Eyepiece; 206 ... Mirror; 207 ... Submirror; Interlocking pin; 302 ... Aperture; 303 ... Lens; 304 ... Lens control unit; 305 ... Focus drive unit; 306 ... Motor (M); 307 ... Focus position detection unit; 308 ... Zoom ring; 309 ... Zoom position detector; 310 ... Contact connector; 311 ... Memory

Claims (6)

光学系を介して入射する光束を複数の領域に分割して受光し、受光信号を出力する受光手段と、
前記受光手段に応じて決められた前記受光信号に対する第1補正値を前記複数の領域のうちの第1領域に対して記憶する記憶手段と、
前記光学系の情報を検出する検出手段と、
前記光学系の情報に基づいて前記受光信号に対する第2補正値を前記複数の領域のうちの前記第1領域と異なる第2領域に対して求める演算手段と、
前記第1補正値と前記第2補正値とに基づいて前記受光信号を補正する補正手段と
を有することを特徴とする測光装置。
A light receiving means for dividing a light beam incident via an optical system into a plurality of regions, receiving the light, and outputting a light reception signal;
Storage means for storing a first correction value for the received light signal determined according to the light receiving means in a first area of the plurality of areas;
Detecting means for detecting information of the optical system;
An arithmetic means for obtaining a second correction value for the light reception signal for a second region different from the first region of the plurality of regions based on information of the optical system;
A photometric device comprising: correction means for correcting the light reception signal based on the first correction value and the second correction value.
請求項1に記載の測光装置において、
前記補正手段は、前記複数の第2補正値から前記第1領域に対する第2補正値を求め、求めた第2補正値と前記第1領域の第1補正値とに基づいて前記受光信号を補正する
ことを特徴とする測光装置。
The photometric device according to claim 1,
The correction means calculates a second correction value for the first region from the plurality of second correction values, and corrects the light reception signal based on the calculated second correction value and the first correction value of the first region. A photometric device characterized by that.
請求項1または2に記載の測光装置において、
前記第1領域と前記第2領域は、前記複数の領域に離散的に配置された複数の領域であって、前記第1領域と前記第2領域の少なくとも一方は、前記複数の領域の中央部よりも周辺部に高密度に配置される
ことを特徴とする測光装置。
In the photometric device according to claim 1 or 2,
The first region and the second region are a plurality of regions discretely arranged in the plurality of regions, and at least one of the first region and the second region is a central portion of the plurality of regions. A photometric device characterized by being arranged at a higher density in the periphery.
請求項1から3のいずれか一項に記載の測光装置と、
前記光学系を介して入射する像を撮像する撮像手段と、
前記補正手段が補正した前記受光信号に基づいて前記撮像手段の露出制御を行う露出制御手段と
を有することを特徴とする撮像装置。
A photometric device according to any one of claims 1 to 3;
Imaging means for imaging an image incident through the optical system;
An image pickup apparatus comprising: an exposure control unit that performs exposure control of the image pickup unit based on the light reception signal corrected by the correction unit.
請求項4に記載の撮像装置において、
前記受光手段は、前記光学系による像を結像する焦点板からの散乱光を受光することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The imaging device, wherein the light receiving means receives scattered light from a focusing screen that forms an image by the optical system.
請求項4または5に記載の撮像装置において、
前記補正手段が補正した前記受光信号に基づいて、前記光学系による像のうちの特定の対象の像を検出する像検出手段を備えることを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
An image pickup apparatus, comprising: an image detection unit configured to detect an image of a specific target among images by the optical system based on the light reception signal corrected by the correction unit.
JP2009186601A 2009-08-11 2009-08-11 Photometric device and imaging device Active JP5444928B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009186601A JP5444928B2 (en) 2009-08-11 2009-08-11 Photometric device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009186601A JP5444928B2 (en) 2009-08-11 2009-08-11 Photometric device and imaging device

Publications (2)

Publication Number Publication Date
JP2011039293A true JP2011039293A (en) 2011-02-24
JP5444928B2 JP5444928B2 (en) 2014-03-19

Family

ID=43767126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009186601A Active JP5444928B2 (en) 2009-08-11 2009-08-11 Photometric device and imaging device

Country Status (1)

Country Link
JP (1) JP5444928B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012233952A (en) * 2011-04-28 2012-11-29 Canon Inc Imaging device, control method of the same and program
JP2012242731A (en) * 2011-05-23 2012-12-10 Sigma Corp Photometric device for lens-interchangeable camera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01267620A (en) * 1988-04-20 1989-10-25 Minolta Camera Co Ltd Exposure control device of camera
JPH01308925A (en) * 1989-03-29 1989-12-13 Minolta Camera Co Ltd Photometric apparatus of camera
JP2001318399A (en) * 2000-05-09 2001-11-16 Nikon Corp Photometric device for camera
JP2006084863A (en) * 2004-09-16 2006-03-30 Nikon Corp Electronic camera and image processing program
JP2006314038A (en) * 2005-05-09 2006-11-16 Nikon Corp Electronic camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01267620A (en) * 1988-04-20 1989-10-25 Minolta Camera Co Ltd Exposure control device of camera
JPH01308925A (en) * 1989-03-29 1989-12-13 Minolta Camera Co Ltd Photometric apparatus of camera
JP2001318399A (en) * 2000-05-09 2001-11-16 Nikon Corp Photometric device for camera
JP2006084863A (en) * 2004-09-16 2006-03-30 Nikon Corp Electronic camera and image processing program
JP2006314038A (en) * 2005-05-09 2006-11-16 Nikon Corp Electronic camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012233952A (en) * 2011-04-28 2012-11-29 Canon Inc Imaging device, control method of the same and program
JP2012242731A (en) * 2011-05-23 2012-12-10 Sigma Corp Photometric device for lens-interchangeable camera

Also Published As

Publication number Publication date
JP5444928B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
US8730374B2 (en) Focus detection apparatus
JP5901246B2 (en) Imaging device
JP6405243B2 (en) Focus detection apparatus and control method thereof
JP5361535B2 (en) Imaging device
JP5966426B2 (en) Focus detection device
JP2008209761A (en) Focus detecting device and imaging apparatus
JP2015079193A (en) Image capturing device, image capturing system, method of controlling image capturing device, program, and recording medium
JP2012234152A (en) Imaging apparatus and control method thereof
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
US7805068B2 (en) Imaging apparatus
US11115581B2 (en) Focus adjustment method and device using a determined reliability of a detected phase difference
JP5444928B2 (en) Photometric device and imaging device
JP6615258B2 (en) Control device, imaging device, control method, program, and storage medium
JP6346484B2 (en) Image processing apparatus and control method thereof
JP2012256964A (en) Imaging apparatus
JP2010272957A (en) Image correction apparatus and program thereof
JP6576114B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014194502A (en) Imaging apparatus and imaging system
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2018018032A (en) Focus detection device, focus detection method, imaging device, program, and storage medium
JP6395790B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
JP6237858B2 (en) Focus detection apparatus and imaging apparatus
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP2008040084A (en) Optical device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

R150 Certificate of patent or registration of utility model

Ref document number: 5444928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250