JP3710864B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP3710864B2
JP3710864B2 JP1337096A JP1337096A JP3710864B2 JP 3710864 B2 JP3710864 B2 JP 3710864B2 JP 1337096 A JP1337096 A JP 1337096A JP 1337096 A JP1337096 A JP 1337096A JP 3710864 B2 JP3710864 B2 JP 3710864B2
Authority
JP
Japan
Prior art keywords
data
light source
area
photometric
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1337096A
Other languages
Japanese (ja)
Other versions
JPH09203857A (en
Inventor
弘 向井
和実 陰山
明 白石
恭一 宮崎
善則 杉山
Original Assignee
コニカミノルタフォトイメージング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタフォトイメージング株式会社 filed Critical コニカミノルタフォトイメージング株式会社
Priority to JP1337096A priority Critical patent/JP3710864B2/en
Priority to US08/789,805 priority patent/US6215961B1/en
Publication of JPH09203857A publication Critical patent/JPH09203857A/en
Application granted granted Critical
Publication of JP3710864B2 publication Critical patent/JP3710864B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自動焦点調節(AF)用の測距センサを自動露出(AE)用の測光センサとして兼用し、測距センサの出力を用いて画面中央のスポット測光情報を演算するカメラに関するものである。
【0002】
【従来の技術】
従来、AE用の測光センサをAF用の測距センサと兼用し、測距センサの出力を用いてスポット測光データを得るカメラが提案されている。AFセンサの分光感度は一般に赤外領域に偏っているので、AFセンサの出力を用いて測光情報を得た場合、その測光情報は可視領域に分光感度を有する通常のAEセンサの出力を用いて得られる測光情報と異なり、そのまま測光情報として使用するには測光精度の点で問題がある。特に、撮影画面全体の平均的な測光情報を得る測光センサを別個に有し、この測光センサの出力から得られる平均測光データと上記測距センサの出力から得られるスポット測光データとに基づき制御露出値を設定する場合は、測光レベルの調整が必要になる。
【0003】
従来、測距センサの出力に基づいて算出した測光情報を補正して測光精度を高めるようにした測光装置が提案されている。例えば特開平3−1030727号公報には、測距センサの出力に基づいて得られた測光情報を測距センサの測距領域と同一位置で得た被写体輝度の補正データで補正することにより上記測光情報の精度を向上させるようにしたものが示されている。すなわち、測距センサの撮像面の近傍位置にこの撮像面からの反射光を受光して被写体輝度をモニタする測光素子を設け、測距センサからの出力を用いて測距情報を演算するとともに、スポット測光情報を演算し、このスポット測光情報の演算結果を上記測光素子の出力から算出された被写体輝度の補正データで補正するようにしたものである。
【0004】
【発明が解決しようとする課題】
上記特開平3−1030727号公報のものは、測距センサの近傍位置に被写体輝度をモニタする測光センサを配置しているので、スポット測光を兼用する測距装置が大型化する欠点がある。測距センサに直接、IRカットフィルタを設けて測距センサの出力を補正する方法もあるが、このようにすると、▲1▼IRカットフィルタで入射光の反射が生じ、本来の測距用のセンサとしては不適切となる、▲2▼部材が増加してコスト高になる等の問題が生じ、可及的に測距センサの構成を変更することなく測距センサとして兼用できることが望ましい。
【0005】
本発明は、上記課題に鑑みてなされたものであり、測距センサを測光センサと兼用したカメラにおいて、測距センサの分光感度に起因する測光誤差を低減し、測距センサの正確なスポット測光情報を得ることのできるカメラを提供するものである。
【0006】
請求項1に記載された発明は、撮影画面内の明るさ全体を平均して測光する測光部と、線状に配列された複数の光電変換素子を含み、分光感度が可視領域と可視領域から偏差した領域にあって上記測光部とは異なる分光感度特性を有し、撮影画面の一部を撮像する撮像手段と、上記撮像手段により取り込まれた被写体の画像データに基づいて自動焦点調節のための測距情報を演算する距離演算手段と、上記画像データを用いて自動露出調節のための測光情報を演算する測光演算手段と、撮影光の分光特性における、上記測光部と上記撮像手段の分光感度特性の違いに基づく上記測光情報の誤差を補正する補正データが記憶された記憶手段と、上記測光演算手段の演算結果を上記補正データで補正する補正手段とを備えたものである。
【0007】
上記構成によれば、測距情報を得るための撮像手段で取り込まれた被写体の画像データを用いて自動露出調節のための測光情報が演算され、この演算結果は撮影画面内の明るさ全体を平均して測光する測光部と上記撮像手段の分光感度特性の違いに基づく上記測光情報の誤差を補正する補正データで補正される。これにより撮像手段の分光感度特性に基づく測光情報の誤差が補正される。
【0008】
請求項2に記載された発明は、分光感度が可視領域である測光部と、線状に配列された複数の光電変換素子を含み、分光感度が可視領域と可視領域から偏差した領域にある撮像手段と、上記撮像手段により取り込まれた被写体の画像データに基づいて自動焦点調節のための測距情報を演算する距離演算手段と、上記画像データを用いて自動露出調節のための測光情報を演算する測光演算手段と、上記測光部と上記撮像手段を調整した調整光の分光特性と撮影光の分光特性の相違と、上記測光部と上記撮像手段の分光感度特性の相違と、に基づく上記測光情報の誤差を補正する補正データが記憶された記憶手段と、上記測光演算手段の演算結果を上記補正データで補正する補正手段とを備えたものである。
【0009】
上記構成によれば、測距情報を得るための撮像手段で取り込まれた被写体の画像データを用いて自動露出調節のための測光情報が演算され、この演算結果は分光感度が可視領域である測光部と上記撮像手段の分光感度特性の違いに基づく上記測光情報の誤差を補正する補正データで補正される。これにより撮像手段の分光感度特性に基づく測光情報の誤差が補正される。
【0010】
なお、上記撮像手段は標準光源Aを基準に出力調整されているとよい(請求項3)。この構成にすれば、別個に測光専用の受光手段を備えた場合、同一の標準光源Aにより受光手段と撮像手段とを同時に出力調整することができるとともに、受光手段と撮像手段間の出力誤差を低減することができる。
【0011】
また、上記カメラにおいて、上記補正データは、標準光源Aを受光したときの上記撮像手段の出力と標準光源Bを受光したときの上記撮像手段の出力との出力差、または、標準光源Aで照明された被写体を撮像したときの上記撮像手段の出力と標準光源Bで照明された被写体を撮像したときの上記撮像手段の出力との出力差としてもよい(請求項4)。この構成によれば、屋外の太陽光を光源とする撮影シーンでは、被写体の画像データを用いて演算された測光情報の光源の相違に基づく誤差が適正に補正される。
【0012】
また、上記カメラにおいて、被写体の光源を検知する光源検知手段をさらに備え、上記記憶手段には複数の光源に対する補正データが記憶され、上記補正手段は検知された光源に対応する補正データで上記測光演算手段の演算結果を補正するものである(請求項5)。この構成によれば、被写体の光源が検知され、被写体の画像データを用いて演算された測光情報の光源の相違に基づく誤差が、光源に対応する補正データで補正される。
【0013】
また、上記カメラにおいて、上記光源検知手段は、上記撮像手段を所定周期で駆動して得られる画像データのレベル変動に基づき被写体の光源が人工光源であるか否かを判別するものである(請求項6)。この構成によれば、上記撮像手段を所定周期で駆動し、被写体の画像データが複数回取り込まれ、これら画像データのレベル変動に基づき被写体の光源が人工光源であるか否かが判別される。例えば被写体の光源が蛍光灯等のちらつきを生じる人工光源の場合、上記画像データの基づき光源のちらつきが検出され、これにより被写体の光源が人工光源であるか否かが識別される。
【0014】
【発明の実施の形態】
本発明の一実施形態におけるカメラのAE機能について図を用いて説明する。
【0015】
図1は、本実施形態におけるカメラの外観を示す正面図である。本実施形態のカメラ1は、撮影画面全体を平均測光する平均測光部と撮影画面の中央をスポット測光するスポット測光部とを有し、平均測光情報とスポット測光情報とに基づいて写真撮影のための露出制御値が自動設定されるようになされ、しかも、スポット測光部の測光センサは自動焦点調節(AF)用の測距センサが兼用するように構成されている。
【0016】
カメラ1は、カメラ本体2の正面略中央にレンズシャッタを備えた撮影レンズ3を有し、その斜め左上部に測光部4が設けられている。また、撮影レンズ3の上部に測距部5が設けられ、向かって右側にファインダー対物窓6が設けられている。
【0017】
測光部4は、SPC(Silicon Photo Cell)等からなる受光素子(以下、AEセンサという。)を有し、被写体からの反射光を受光し、図2に示すように、撮影画面7内の明るさ全体を平均して測光する平均測光部である。なお、AEセンサは撮像面にIRカットフィルタを有し、その分光感度が可視領域となるようにに調整されている。
【0018】
測距部5は、撮影画面7の中央に測距領域8を有し、この測距領域8に含まれる被写体からの反射光を受光して得られる画像情報から被写体までの距離(以下、被写体距離という。)D(m)を検出するものである。また、測距部5は、図3に示すように、主として一対のラインイメージセンサ91,92からなるAFセンサ9とこれらラインイメージセンサ91,92の前方位置にそれぞれ配置された一対の微小レンズアレイ101,102からなるレンズ系10とからなる。ラインイメージセンサ91,92は同一ライン上に所定の間隔を設けて配置されている。また、ラインイメージセンサ91,92は、例えば多数の電荷結合素子(以下、画素という。)を線状に配列してなるCCDラインセンサからなり、測距部5は、各ラインイメージセンサ91,92で被写体の一部光像を受光し、両光像を構成するデータ(各画素から出力されるデータ。以下、画素データという。)を用いて被写体距離D(m)を検出する。
【0019】
被写体距離Dは、ラインイメージセンサ91,92の内、ファインダー光学系11の光軸Lに近い側のラインイメージセンサ91の撮像部を基準部、光軸Lに遠い側のラインイメージセンサ92の撮像部を参照部とし、基準部の線状画像と参照部の線状画像とを比較して両画像の位置のずれ量から算出される。
【0020】
また、測距部5のラインイメージセンサ91は撮影画面中央をスポット測光するための測光素子として共用され、後述するように、基準部の線状画像を構成する画素データを用いて撮影画面中央のスポット測光データが演算される。なお、ラインイメージセンサ92を測光素子として共用することも可能であるが、ファインダ光学系11の視野範囲とAFセンサ9による測光範囲とのパララックスを可及的低減するため、本実施形態ではファインダー光学系11の光軸Lに近い側のラインイメージセンサ91をスポット測光素子としている。
【0021】
図4は、カメラの測光及び測距の制御系を示すブロック図である。
【0022】
同図において、CPU12は、AF、AE及びレリーズ等のカメラの一連の撮影動作を集中制御するマイクロコンピュータである。CPU12は内部にAF制御のための距離演算部121、AE制御のための測光演算部122及び光源補正部123並びに上記演算処理のためのメモリ124を有している。
【0023】
メモリ124は基準部データエリア124a、参照部データエリア124b、AFデータエリア124c、AEデータエリア124d及び補正データエリア124eを有し、基準部データエリア124a及び参照部データエリア124bにはAFセンサ9のラインイメージセンサ91で撮像された被写体の線状画像を構成する画素データ(以下、基準部データという。)とラインイメージセンサ92で撮像された被写体の線状画像を構成する画素データ(以下、参照部データという。)とがそれぞれ格納され、AFデータエリア124cには基準部データ及び参照部データを用いて算出された被写体距離に関するデータ(以下、AFデータという。)が格納され、AEデータエリア124dには基準部データを用いて算出された被写体輝度に関するデータ(以下、AEデータという。)と測光部4で算出された平均測光データとが格納されるようになっている。また、補正データエリア124eには予め設定された被写体の光源に関する補正データが記憶されている。この補正データは上記AEデータを補正するためのもので、詳細は後述する。
【0024】
なお、AFデータは基準部の撮像領域を複数のAFエリアに分割し、各AFエリア毎に演算され、この演算結果が各AFエリアに対応させてAFデータエリア124cに記憶され、AEデータは基準部の撮像領域を複数のAEエリアに分割し、各AEエリア毎に演算され、この演算結果が各AEエリアに対応させてAEデータエリア124dに記憶される。
【0025】
図5は、ラインイメージセンサ91の撮像領域に設定されたAFエリア及びAEエリアの一例を示す図である。
【0026】
ラインイメージセンサ91の撮像領域には6個のAEエリアと6個のAFエリアとが設定されている。AEエリアAE1〜AE6は、ラインイメージセンサ91の撮像領域を均等に6分割して構成されている。また、AFエリアAF1〜AF6は、ラインイメージセンサ91の撮像領域を均等に6分割してなる分割エリアAR1〜AR6を、AF1=AR1+AR2、AF2=AR2+AR3、AF3=AR3+AR4、AF4=AR4+AR5、AF5=AR5+AR6、AF6=AR1+AR2+AR3+AR4+AR5+AR6のように組み合わせて構成されている。
【0027】
本実施形態では、AEエリアAE1〜AE6の各エリアが分割エリアAR1〜AR6の各エリアに対応するようにしているので、各AFエリアAF1〜AF6がAEエリアAE1〜AE6を組み合わせて構成されるようになっている。これはAFエリアAF1〜AF6のいずれかを選択してAF制御を行う場合、選択されたAFエリア内の被写体に対するAEデータを検出可能にし、このAEデータに基づき露出制御できるようにするためである。
【0028】
従って、AFエリア及びAEエリアの設定は、最小サイズのAEエリアが最小サイズのAFエリアと略同一もしくはそれより小さいサイズを有し、かつ、各AFエリアに少なくとも1個のAEエリアが略全部含まれるように構成されていれば、他の方法でラインイメージセンサ91の撮像領域を分割し、AEエリア及びAFエリアを構成するようにしてもよい。なお、少なくとも1個のAEエリアが略全部各AFエリアに含まれるようにするとは、AEエリアがAFエリアより僅かに大きくてもAFエリアからはみ出す部分が当該AFエリアに対応するAEエリアにおけるAEデータに影響を与えない場合は、AEデータとしてはAEエリアのサイズを等価的にAFエリアのサイズと同一に扱い得るので、かかる場合はAEエリアとAFエリアとの厳密なサイズ関係を要しないということである。
【0029】
図4に戻り、距離演算部121は、基準部データと参照部データとを用いて各測距エリアAF1〜AF6毎にAFデータを演算し、その演算結果をメモリ124の各測距エリアAF1〜AF6に対応するアドレスに格納するものである。また、測光演算部122は、基準部データを用いて各測光エリアAE1〜AE6毎にAEデータを演算し、その演算結果をメモリ124の各測光エリアAE1〜AE6に対応するアドレスに格納するものである。
【0030】
なお、AEデータの演算及び記憶は、AFデータの演算の影響を受けないようにAFデータの演算前に行われ、これによりAFセンサ9をスポット測光用のAEセンサと兼用した場合にもメモリ124における両演算のためのデータの記憶エリアが可及的増大しないようにしている。すなわち、AFデータは、後述するように、基準部データ及び参照部データをそれぞれ差分データ、重心データ等に変換した後、基準部データと参照部データとの相関値を演算することにより算出されるので、AFデータ演算をAEデータ演算と独立に行なうようにすると、AEデータ演算のために基準部データ及び参照部データを別個に保存しておく必要があるが、本実施形態では、AFデータ演算の前にAEデータを演算することにより不必要に基準部データ及び参照部データの保存をせず、この分メモリ容量の増加を低減している。また、AEエリアAE1〜AE6毎に1個のAEデータを算出するようしているので、最終的にAE制御のための制御輝度値(以下、AE制御データという。)を算出するためのAEデータ数は6個で済み、AEデータ保存用のメモリを可及的少なくしている。
【0031】
光源補正部123は、上記補正データを用いてAE制御データを補正するものである。また、AF制御部13は、撮影レンズ3の駆動を制御し、撮影レンズ3の焦点調節を行なうものである。
【0032】
次に、AFセンサ9による撮像画像を用いたAFデータ及びAEデータの演算について説明する。
【0033】
図6は、AFセンサ9による撮像画像を用いたAFデータ及びAEデータの演算制御のメインフローである。このフローは、レリーズボタンの半押しで行われる撮影準備の処理で実行される。
【0034】
まず、AFセンサ9が予め設定された所定時間だけ駆動され、ラインイメージセンサ91,92の各画素に受光量に応じた電荷が蓄積される(#1)。ラインイメージセンサ91,92の全画素データはCPU12に読み出され、基準部の画素データはメモリ124の基準部データエリア124aに格納され、参照部の画素データはメモリ124の参照部データエリア124bに格納される(#2)。
【0035】
続いて、メモリ124の基準部データエリア124aから各AEエリアAE1〜AE6毎に基準部データが読み出され、各AEエリアAE1〜AE6に対応したAEデータDAE1〜DAE6が演算される(#3)。このAEデータDAE1〜DAE6の演算には、例えば下記表1に示す種々の方法を採用することができる。表1の各データ内容はそれぞれ同表に示す演算式により演算される。
【0036】
【表1】

Figure 0003710864
【0037】
表1において、「平均値1」の方法はAEエリア内の全画素データの算術平均値を当該AEエリアのAEデータとするものである。「平均値1」の方法はエリア内の明るさ全体を平均化するので、エリア内の輝度バランスが一定範囲内にあるときは適正な露出制御が可能となる。「平均値2」の方法はAEエリア内の画素データのうち、最大輝度と最小輝度を有する画素データを除いた残りの全画素データの算術平均値を当該AEエリアのAEデータとするものである。「平均値2」の方法は、エリア内の輝度バランスが一定範囲を越える場合、異常に明るい部分と暗い部分の影響が除去されるので、エリア内の輝度バランスが一定範囲を越える場合にも適正な露出制御が得られるもので、「平均値1」の方法を改善した方法である。
【0038】
また、「平均値3,4」の方法は、AEエリア内の画素データのうち、平均測光値に応じて設される所定の閾値以下又は閾値以上の輝度値を有する画素データのみによる算術平均値を当該AEエリアのAEデータとするもので、AE制御のための演算処理の簡素化が可能な方法である。すなわち、「平均値3,4」の方法では平均測光値に基づく閾値を基準に明部分又は暗部分を抽出しているので、AEデータの演算後に別途撮影シーンの逆光判定を行なう必要がなく、AEデータを用いてAE制御のためのAE制御データを演算する際の演算処理の簡素化が可能になる。
【0039】
また、「最小値」の方法は、AEエリア内の画素データのうち、最小輝度を有する画素データを当該AEエリアのAEデータとし、「最大値」の方法は、AEエリア内の画素データのうち、最大輝度を有する画素データを当該AEエリアのAEデータとするものである。「最小値」の方法はオーバー気味に露出制御する場合に、また、「最大値」の方法はアンダー気味に露出制御する場合にそれぞれ適した方法である。
【0040】
続いて、演算されたAEデータがメモリ124のAEデータエリア124dに格納された後(#4)、メモリ124に格納された基準部データ及び参照部データを用いてAF制御用のAFエリア(AF制御に使用されるAFエリア。以下、AF制御エリアという。)とこのAF制御エリア内の被写体に対する被写体距離Dとが演算され、この演算結果は、メモリ124のAFデータエリア124cに格納される(#5)。なお、被写体距離Dは、基準部データエリア124aの基準部データ及び参照部データエリア124bの参照部データを、例えば差分データ又は輝度重心データにデータ変換した後、各AFエリア毎の基準部のデータと参照部のデータとを比較して得られる相関値から算出される。そして、例えば各AFエリアAF1〜AF6のうち、最も被写体距離Dの小さいAFエリアがAF制御エリアとして選択される。
【0041】
続いて、AF制御エリア及び被写体距離Dに基づきAE制御用のAEエリア(AE制御に使用されるAEエリア。以下、AE制御エリアという。)が設定される(#6)。
【0042】
図7は、AF制御エリア及び被写体距離Dに基づきAE制御エリアを選択するチャート図の一例である。
【0043】
同図において、「AEエリア」の欄の「1」,「2」,…,「6」はAE1,AE2,…,AE6を示し、「AFエリア」の欄の「1」,「2」,…,「6」はAF1,AF2,…,AF6を示している。「全てローコン」は、AFエリアAF1〜AF6の全てがローコントラストにより合焦位置が検出できかなった場合である。また、「●」は選択されたAEエリアを示し、「−」は選択されなかったAEエリアを示している。
【0044】
同図に示すAEエリアの選択方法では、被写体距離Dを「近距離」、「中距離」及び「遠距離」の3段階に分け、AF制御エリアとして同一のAFエリアが選択された場合でも被写体距離Dが「近距離」側に近づくほど、AE制御エリアの選択範囲を段階的に広くするようにしている。例えばAF制御エリアとしてAFエリアAF3が選択された場合、被写体距離Dが「遠距離」ではAFエリアAF3内に含まれるAEエリアAE3,AE4がAE制御エリアとして選択されるが、被写体距離Dが「中距離」ではAFエリアAF3外のAEエリアAE2,AE5がAE制御エリアとして追加され、更に被写体距離Dが「近距離」になると全AEエリアAE1〜AE6がAE制御エリアとして選択される。
【0045】
これは、AE制御エリアの範囲は可及的広い方が望ましいが、遠距離の被写体では撮影画面に対する被写体像のサイズが小さく(図8参照)、AF制御エリア外のAEエリアをAE制御エリアに含めると、このAE制御エリア内に被写体と背景とが含まれ、AE制御エリア内のAEデータに基づいて算出されたAE制御データが背景輝度の影響を受ける可能性があるので、AF制御エリア内のAEエリアをAE制御エリアとして選択するのに対し、中距離又は近距離の被写体では撮影画面に対する被写体像のサイズが段階的に大きくなり、AF制御エリア外のAEエリアをAE制御エリアに含めても背景がAE制御エリア内に含まれる可能性が少なく、AE制御データが背景輝度の影響を受ける可能性も少ないと考えられるから、AF制御エリア外のAEエリアもAE制御エリアとして選択するものである。
【0046】
また、本実施形態の場合、ローコンでも撮影可能に制御させるようにしたものなので、「全てローコン」や「全てローコン」に近いAFエリアAF6が選択された場合でもAEエリアAE1〜AE6をAE制御エリアとしてAE制御データを演算するようにしている。
【0047】
なお、被写体のスポット測光の位置を固定した場合、被写体距離Dが長くなるのに応じて撮影画面内の被写体像のサイズが小さくなるから、正確なAE制御データを得るには被写体像のスポット測光位置(すなわち、被写体距離D)に応じてAE制御エリアの最大サイズを変更する必要がある。
【0048】
例えば被写体として標準的な大きさの人間を想定し、スポット測光の位置として人間の顔を設定した場合は、被写体距離Dと好適なAE制御エリアの最大画素データ数との関係は図9の点線で示す▲1▼のようになり、スポット測光の位置として人間の胴を設定した場合は、被写体距離Dと好適なAE制御エリアの最大画素データ数との関係は図9の一点鎖線で示す▲2▼のようになる。従って、スポット測光の位置として人間の顔を想定し、被写体距離Dに応じて制御AEエリアの最大サイズを設定した場合、遠距離の被写体ではAE制御エリアのサイズが極めて小さいものとなる。
【0049】
しかし、被写体が人間の場合、撮影者の被写体に対するフレーミングは、図8に示すように、一般に近距離では撮影画面7中央に被写体Kの顔が入るように行われるが、遠距離では撮影画面7内に可及的に被写体K全体が入るように行われ、被写体距離Dによって被写体のスポット測光の位置が変化するので、ある距離D1以下の近距離の被写体Kに対しては被写体Kの顔に対してスポット測光を行う必要があるが、ある距離D1より遠距離の被写体Kに対しては被写体Kの胴に対してスポット測光を行うことができる。
【0050】
従って、被写体距離Dに応じた好適なAE制御エリアの画素データ数は、図9において、ある距離D1で▲1▼から▲2▼に切換え、ある距離D1より遠距離では▲2▼に示す関係の画素データ数に拡大することができる。図7のAE制御エリアの範囲の設定では、上記のことを考慮し、被写体が遠距離の場合にもAF制御エリア内に含まれる2個のAEエリアをAE制御エリアとして選択し、できるだけAE制御エリアを広くして好適なAEデータが得られるようにしている。
【0051】
なお、図9において、▲3▼に示す関係(距離D1で▲1▼から▲2▼に切り換えるように▲1▼と▲2▼の関係を連結したもの)は、AE制御エリアの最大画素データ数を与えるもので、この画素データ数以下の範囲は背景の影響を受けることの少ないAE制御エリアの範囲を示している。本実施形態では、外光式の測距部5を兼用してスポット測光を行っているので、被写体距離Dに応じてAE制御エリアを設定するようにしているが、測距部5がTTL(Through The Lens)方式で構成されている場合は、被写体距離Dに代えて像倍率βに応じてAE制御エリアを設定するようにするとよい。
【0052】
図10及び図11は、AF制御エリア及び被写体距離Dに基づきAE制御エリアを選択する「AEエリア選択」のサブルーチンで、図7に示すAE制御エリアの選択方法の実行手順を示したものである。
【0053】
まず、全てのAFエリアがローコンであるか否か、あるいは、AFエリアAF6がAF制御エリアに設定されたか否かが順次、判別され(#11,#12)、全てローコンもしくはAFエリアAF6がAF制御エリアに設定されていれば(#11,#12でYES)、AEエリアAE1〜AE6がAE制御エリアとして設定されて(#24)、リターンする。
【0054】
全てローコンでなく、AFエリアAF6がAF制御エリアに設定されていなければ(#11,#12でNO)、被写体距離Dから被写体の距離範囲が判別される(#13,#14)。被写体距離が「近距離」(b>D)であれば(#13でYES)、AEエリアAE1〜AE6がAE制御エリアとして設定されて(#24)、リターンし、被写体距離が「遠距離」(D≧a)であれば(#14でNO)、AFエリアAF1〜AFエリアAF4の各AFエリアについてAF制御エリアとして選択された否かが順次、判別される(#15,#17,#19,#21)。
【0055】
そして、AFエリアAF1がAF制御エリアに設定されていれば(#15でYES)、AEエリアAE1,AE2がAE制御エリアとして設定され(#16)、AFエリアAF2がAF制御エリアに設定されていれば(#17でYES)、AEエリアAE2,AE3がAE制御エリアとして設定され(#18)、AFエリアAF3がAF制御エリアに設定されていれば(#19でYES)、AEエリアAE3,AE4がAE制御エリアとして設定され(#20)、AFエリアAF4がAF制御エリアに設定されていれば(#21でYES)、AEエリアAE4,AE5がAE制御エリアとして設定されて(#22)、リターンし、AFエリアAF1〜AF4のいずれも選択されていない、すなわち、AFエリアAF5がAF制御エリアに設定されていれば(#21でNO)、AEエリアAE5,AE6がAE制御エリアとして設定されて(#23)、リターンする。
【0056】
被写体距離が「中距離」(a>D≧b)であれば(#14でYES)、AFエリアAF1又はAF2がAF制御エリアに設定されているか否かが判別され(#25)、AFエリアAF1又はAF2がAF制御エリアに設定されていれば(#25でYES)、AEエリアAE1〜AE4がAE制御エリアとして設定されて(#26)、リターンする。また、AFエリアAF1,AF2はAF制御エリアに設定されていなければ(#25でNO)、続いて、AFエリアAF3がAF制御エリアに設定されているか否かが判別され(#27)、AFエリアAF3がAF制御エリアに設定されていれば(#27でYES)、AEエリアAE2〜AE5がAE制御エリアとして設定され(#28)、AFエリアAF3がAF制御エリアに設定されていなければ(#27でNO)、AEエリアAE3〜AE6がAE制御エリアとして設定されて(#29)、リターンする。
【0057】
図6のフローチャートに戻り、AE制御エリアの設定が終了すると、続いて、設定されたAE制御エリア内のAEデータを用いてAE制御データが演算される(#7)。
【0058】
図12は、AE制御データの演算を行うサブルーチンの一例で、被写体距離DによりAE制御データの演算を切り換えるようにしたものである。すなわち、被写体距離Dが、例えば4m以上の適当な所定の距離a′(>a)を越えているか否かが判別され(#31)、被写体距離Dが所定の距離a′を越えていれば(#31でYES)、AE制御エリアとして選択されたAEエリアの輝度値B1,B2,…の内、最も低い輝度値min{B1,B2,…}がAE制御データとして設定され(#32)、被写体距離Dが所定の距離a′以下であれば(#31でNO)、AE制御エリアとして選択されたAEエリアの輝度値B1,B2,…の平均値BAVE(=ΣBi/m、Bi;i番目の輝度値,m;輝度値の数)がAE制御データとして設定されて(#33)、リターンする。
【0059】
上記方法は、被写体が遠距離にある場合、撮影画面内の被写体像が小さく、被写体のエッジの影響を受ける割合が大きくなるので、被写体距離Dが所定距離a′より長い場合は、最も低い輝度値をAE制御データとすることにより被写体のエッジの影響を低減するようにしたものである。なお、この場合も被写体距離Dに代えて像倍率βにより被写体の遠近を判別することができる。
【0060】
また、被写体距離Dに関係なく一定の演算式、例えば上記表1に示す(1)「平均値1」〜(5)「最小値」の演算式によりAE制御データを算出するようにしてもよい。
【0061】
「平均値1」の方法は、AE制御エリア内の輝度が平均されるので、可及的広いエリアでAE制御データを演算した場合にも演算結果のバラツキを小さくすることができる。「平均値2」の方法は、「平均値1」を改善した方法で、輝度バランスが異常に大きい場合にも異常値の影響を低減することができる。また、「最小値」の方法は、測光部4で得られた撮影画面全体の平均輝度値とAE制御データとを比較することにより逆行シーンの判別を行う場合、「平均値1」の方法より容易に逆光判別を行うことができる利点がある。また、「平均値3」及び「平均値4」の方法は、平均測光値に基づく閾値を基準に明部分又は暗部分を抽出しているので、逆光判別を容易かつ正確に行うことができる利点がある。
【0062】
AE制御データが算出されると、続いて、このAE制御データの補正が行われる(#8)。この補正は、被写体の光源がAFセンサ9の調整光源と異なる場合に生じるAE制御データの誤差を被写体の光源に応じて補正するものである。
【0063】
測色用の標準光源A、標準光源B及び標準光源Cはそれぞれ図13に示す分光特性を有し、標準光源Aの分光特性は標準光源B,Cのものに比してかなり赤外領域に偏っている。一方、ラインイメージセンサ91,92の撮像面に光電変換素子として配列されているSPCは、例えば図14に示す比感度分布を有し、このSPCで標準光源A,B及びCをそれぞれ受光したときのSPC出力は図15に示すようになり、標準光源B,Cに対するSPC出力は標準光源Aに対するSPC出力に比して半分以下となる。
【0064】
AFセンサ9をスポット測光のAEセンサとして共用する場合、AFセンサ9によるスポット測光値と測光部4のAEセンサによる平均測光値とのレベル合わせを行う必要があり、通常、測光部4のAEセンサの出力特性は標準光源Aに対して調整されていることから、AFセンサ9の出力特性も標準光源Aに対して調整される。
【0065】
このため、屋外で太陽光を光源とした写真撮影を行うと、AFセンサ9の出力特性が調整された光源(標準光源A)と実際の光源(標準光源B,Cに近い光源)とが異なるので、AFセンサ9の出力から得られた制御輝度値は、実際の輝度値より小さくなる。上記AE制御データの補正は、かかる被写体光源の相違によるAFセンサ9からの出力レベルを補正するもので、この補正のためにメモリ124の補正データエリア124eに、標準光源Aを受光したときのAFセンサ9の出力と標準光源Bを受光したときのAFセンサ9の出力との差を補正する補正データΔBB(≒1.21EV)と、標準光源Aを受光したときのAFセンサ9の出力と標準光源Cを受光したときのAFセンサ9の出力との差を補正する補正データΔBC(≒1.51EV)とが予め算出されて記憶されている。
【0066】
そして、AE制御データに上記補正データΔBB又は補正データΔBCを加算して補正が行われる。
【0067】
なお、図6のフローチャートは、屋外の太陽光による撮影を標準とし、常にAE制御データに上記補正データΔBB又は補正データΔBCにより補正を行うようにしたものであるが、好ましくはカメラに光源検知機能を設け、検出された光源に応じてAE制御データの補正を行うようにするとよい。
【0068】
この場合は、ステップ#8に代えて図16に示す処理を行う。すなわち、AE制御データの算出後、被写体の光源検知を行い(#41)、検知された光源が標準光源Aであるか、あるいは標準光源Bであるかの判別を行ない(#42,#43)、被写体の光源が標準光源Aであれば(#42でYES)、補正することなく処理を終了する。また、被写体の光源が標準光源Bであれば(#43でYES)、AE制御データに補正データΔBBを加算し(#44)、写体の光源が標準光源Cであれば(#43でYES)、AE制御データに補正データΔBCを加算して(#45)、処理を終了する。
【0069】
なお、光源検知は、例えばWB用の測光センサを設け、この測光センサから出力されるR(赤),G(緑)、B(青)の色成分データにより光源を直接検出するとよい。あるいは、蛍光灯のちらつき周期よりも高周波でAFセンサ9を駆動し、サンプリングレベルの変動の有無を確認することにより蛍光灯か否かのみを識別するようにしてもよい。
【0070】
また、本実施形態では、補正データとして標準光源A,B,CをAFセンサ9で直接受光したときの標準光源Aに対する標準光源B又は標準光源Cのレベル差を用いていたが、標準光源A,B,Cを実際の被写体に照射し、標準光源Aの反射光を受光したときのAFセンサ9の出力と標準光源Bの反射光を受光したときのAFセンサ9の出力との差ΔBB′及び標準光源Aの反射光を受光したときのAFセンサ9の出力と標準光源Cの反射光を受光したときのAFセンサ9の出力との差ΔBC′を補正データとしてもよい。前者の場合は、標準光源の光を直接受光しているので、反射率18%の標準反射率における補正データとなるが、後者の場合は、被写体からの反射光を受光しているので、実際の被写体に対する補正データにより近くなり、より高い精度でAE制御データの補正を行なうことができる。
【0071】
なお、測距部5のAFセンサ9及び測光部4のAEセンサの出力調整は標準光源Aに対して行なわれるので、図17のフローチャートに示すように同一の標準光源を用いて同時に行なうとよい。
【0072】
すなわち、まず、カメラを調整器に取り付け(#51)、標準光源Aの発光輝度を所定値S(EV)に設定した後、点灯する(#52,#53)。続いて、AFセンサ9及びAEセンサの出力が上記所定値Sとなるように、両センサの感度を調節する(#54,#55)。この感度調節はセンサ出力のオフセットレベルを変更することにより行なわれる。
【0073】
この後、標準光源Aの発光輝度を上記所定値S以外の値S′に変更し(#56)、AFセンサ9及びAEセンサの出力の変化を確認する(#57,#58)。AFセンサ9及びAEセンサの出力がそれぞれ所定値S′でなければ(#57又は#58でNO)、#52に戻り、再調整を行ない、AFセンサ9及びAEセンサの出力がそれぞれ所定値S′になると(#57,#58でYES)、標準光源Aを消灯し(#59)、調整器からカメラを取り外して調整を終了する(#60)。
【0074】
このように同時調整を行なうことにより、調整作業が簡素化できるとともに、AFセンサ9とAEセンサ間での調整誤差を低減することができる。
【0075】
【発明の効果】
以上説明したように、本発明のカメラによれば、撮影画面内の明るさ全体を平均して測光する測光部と自動焦点調節のための被写体の画像データを取り込む撮像手段の分光感度特性の違いに基づく上記測光情報の誤差が適正に補正され、正確な測光情報を得ることができる。また、分光感度が可視領域である測光部と自動焦点調節のための被写体の画像データを取り込む撮像手段の分光感度特性の違いに基づく上記測光情報の誤差が適正に補正され、正確な測光情報を得ることができる。
【0076】
上記撮像手段は標準光源Aを基準に出力調整するようにしたので、別個に測光専用の受光手段を備えた場合にも同一の標準光源Aにより受光手段と撮像手段とを同時に出力調整することができるとともに、受光手段と撮像手段間の出力誤差を低減することができる。
【0077】
上記補正データは標準光源Aを受光したときの上記撮像手段の出力と標準光源Bを受光したときの上記撮像手段の出力との出力差としたので、屋外の太陽光を光源とする標準的な反射率(18%)の被写体に対して好適なスポット測光情報が得られる。あるいは、上記補正データは標準光源Aで照明された被写体を撮像したときの上記撮像手段の出力と標準光源Bで照明された被写体を撮像したときの上記撮像手段の出力との出力差としたので、屋外の太陽光を光源とする人物に対してより正確なスポット測光情報を得ることができる。
【0078】
被写体の光源を検知する光源検知手段をさらに備え、上記記憶手段に複数の光源に対する補正データを記憶し、検知された光源に対応する補正データで上記測光演算手段の演算結果を補正するようにしたので、光源が異なる場合にも正確なスポット測光情報を得ることができる。
【0079】
また、上記撮像手段を所定周期で駆動して得られる画像データのレベル変動に基づき人工光源であるか否かを判別するようにしたので、簡単な構成で容易に光源判別を行なうことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るカメラの外観を示す正面図である。
【図2】撮影画面内の測距領域を示す図である。
【図3】測距部の概略構成を示す図である。
【図4】カメラの測光及び測距の制御系を示すブロック図である。
【図5】基準部のラインイメージセンサの撮像領域に設定されたAFエリア及びAEエリアの一例を示す図である。
【図6】AFセンサによる撮像画像を用いたAFデータ及びAEデータの演算制御のメインフローである。
【図7】AF制御エリア及び被写体距離に基づきAE制御エリアを選択する方法のチャート図である。
【図8】各被写体距離における測距センサによるスポット測光位置を示す図である。
【図9】被写体距離に対する好適なAE制御エリアの最大画素データ数を示す図である。
【図10】「AE制御エリア設定」のサブルーチンである。
【図11】「AE制御エリア設定」のサブルーチンである。
【図12】AE制御データの演算を行うサブルーチンである。
【図13】標準光源A,B,Cの分光特性を示す図である。
【図14】AFセンサの比感度分布を示す図である。
【図15】標準光源に対するAFセンサの受光特性を示す図である。
【図16】光源検知に応じたAE制御データの補正処理を示す図である。
【図17】AFセンサ及AEセンサの出力調整を行なうフローチャートである。
【符号の説明】
1 カメラ
2 カメラ本体
3 撮影レンズ
4 測光部
5 測距部
6 ファインダー対物窓
7 撮影画面
8 測距領域
9 AFセンサ(撮像手段)
91,92 ラインイメージセンサ
10 レンズ系
101,102 微小レンズアレイ
11 ファインダ光学系
12 CPU(演算手段,補正手段,光源検知手段)
121 距離演算部
122 測光演算部
123 光源補正部
124 メモリ(記憶手段)
124a 基準部データエリア
124b 参照部データエリア
124c AFデータエリア
124d AEデータエリア
124e 補正データエリア
13 AF制御部
K 被写体
L 光軸[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera that uses a distance measuring sensor for automatic focus adjustment (AF) as a photometric sensor for automatic exposure (AE) and calculates spot photometric information at the center of the screen using the output of the distance measuring sensor. is there.
[0002]
[Prior art]
Conventionally, a camera has been proposed in which an AE photometric sensor is also used as an AF range sensor and spot photometry data is obtained using the output of the range sensor. Since the spectral sensitivity of the AF sensor is generally biased to the infrared region, when photometric information is obtained using the output of the AF sensor, the photometric information is obtained using the output of a normal AE sensor having spectral sensitivity in the visible region. Unlike the obtained photometric information, there is a problem in terms of photometric accuracy in using it as it is. In particular, it has a separate photometric sensor that obtains average photometric information of the entire shooting screen, and controls exposure based on average photometric data obtained from the output of this photometric sensor and spot photometric data obtained from the output of the distance measuring sensor. When setting a value, it is necessary to adjust the metering level.
[0003]
Conventionally, a photometric device has been proposed in which photometric information calculated based on the output of a distance measuring sensor is corrected to improve photometric accuracy. For example, in Japanese Patent Laid-Open No. 3-1030727, the photometry is corrected by correcting photometry information obtained based on the output of the range sensor with subject brightness correction data obtained at the same position as the range area of the range sensor. It shows what improves the accuracy of information. That is, a photometric element that receives the reflected light from the imaging surface and monitors the subject brightness is provided at a position near the imaging surface of the distance measuring sensor, calculates distance information using the output from the distance sensor, Spot photometric information is calculated, and the calculation result of the spot photometric information is corrected by subject luminance correction data calculated from the output of the photometric element.
[0004]
[Problems to be solved by the invention]
The above-mentioned Japanese Patent Laid-Open No. 3-1030727 has a disadvantage that a distance measuring device that also uses spot metering is increased in size because a photometric sensor that monitors subject brightness is disposed in the vicinity of the distance measuring sensor. There is also a method of correcting the output of the distance measuring sensor by directly providing the distance measuring sensor with an IR cut filter. However, in this way, (1) reflection of incident light occurs in the IR cut filter, and the original distance measuring sensor is used. It would be desirable to be able to use the sensor as a distance measuring sensor without changing the configuration of the distance measuring sensor as much as possible.
[0005]
The present invention has been made in view of the above problems, and in a camera in which a distance measuring sensor is also used as a photometric sensor, the photometric error due to the spectral sensitivity of the distance measuring sensor is reduced, and accurate spot photometry of the distance measuring sensor is achieved. A camera capable of obtaining information is provided.
[0006]
The invention described in claim 1 includes a photometry unit that performs photometry by averaging the entire brightness in the photographing screen, and a plurality of photoelectric conversion elements arranged in a line, and has a spectral sensitivity from the visible region and the visible region. An imaging unit that has a spectral sensitivity characteristic that is different from that of the photometry unit in the deviated region and that captures a part of the shooting screen, and for automatic focus adjustment based on the image data of the subject captured by the imaging unit A distance calculation means for calculating the distance measurement information, a photometry calculation means for calculating the photometry information for automatic exposure adjustment using the image data, and the spectral characteristics of the photometry section and the imaging means in the spectral characteristics of the photographing light. A storage unit storing correction data for correcting an error in the photometric information based on a difference in sensitivity characteristics, and a correction unit for correcting a calculation result of the photometric calculation unit with the correction data are provided.
[0007]
According to the above configuration, the photometric information for automatic exposure adjustment is calculated using the image data of the subject captured by the imaging means for obtaining the distance measuring information, and the result of the calculation is the entire brightness in the shooting screen. Correction is performed with correction data for correcting an error in the photometric information based on the difference in spectral sensitivity characteristics between the photometric unit that performs photometry on average and the imaging means. As a result, an error in the photometric information based on the spectral sensitivity characteristic of the imaging means is corrected.
[0008]
The invention described in claim 2 includes a photometric unit whose spectral sensitivity is in the visible region and a plurality of photoelectric conversion elements arranged in a line, and the spectral sensitivity is in a region deviated from the visible region and the visible region. Means, distance calculating means for calculating distance measurement information for automatic focus adjustment based on the image data of the subject captured by the imaging means, and calculating photometric information for automatic exposure adjustment using the image data The photometric calculation means, the difference between the spectral characteristics of the adjustment light and the spectral characteristics of the photographing light adjusted by the photometry section and the imaging means, and the difference in the spectral sensitivity characteristics of the photometry section and the imaging means. It comprises storage means for storing correction data for correcting information errors, and correction means for correcting the calculation result of the photometric calculation means with the correction data.
[0009]
According to the above configuration, the photometric information for automatic exposure adjustment is calculated using the image data of the subject captured by the imaging means for obtaining the distance measuring information, and the calculation result is a photometric value whose spectral sensitivity is in the visible region. Correction is performed with correction data for correcting an error in the photometric information based on the difference in spectral sensitivity characteristics between the image pickup unit and the imaging means. As a result, an error in the photometric information based on the spectral sensitivity characteristic of the imaging means is corrected.
[0010]
The output of the imaging means is preferably adjusted with reference to the standard light source A (claim 3). According to this configuration, when the light receiving means dedicated to photometry is separately provided, the light receiving means and the imaging means can be simultaneously adjusted by the same standard light source A, and the output error between the light receiving means and the imaging means can be reduced. Can be reduced.
[0011]
In the camera, the correction data is an output difference between an output of the imaging unit when the standard light source A is received and an output of the imaging unit when the standard light source B is received, or illumination with the standard light source A. An output difference between the output of the imaging unit when the captured subject is imaged and the output of the imaging unit when the subject illuminated with the standard light source B is captured may be used. According to this configuration, in a shooting scene using outdoor sunlight as a light source, an error based on the difference in the light source of the photometric information calculated using the image data of the subject is appropriately corrected.
[0012]
The camera further includes light source detection means for detecting a light source of a subject, wherein the storage means stores correction data for a plurality of light sources, and the correction means uses the correction data corresponding to the detected light sources for the photometry. The calculation result of the calculation means is corrected (claim 5). According to this configuration, the light source of the subject is detected, and an error based on the difference in the light source of the photometric information calculated using the image data of the subject is corrected with the correction data corresponding to the light source.
[0013]
Further, in the camera, the light source detection unit determines whether or not the light source of the subject is an artificial light source based on a level fluctuation of image data obtained by driving the imaging unit at a predetermined period (claim). Item 6). According to this configuration, the image pickup unit is driven at a predetermined cycle, the image data of the subject is captured a plurality of times, and whether or not the light source of the subject is an artificial light source is determined based on the level fluctuation of these image data. For example, when the light source of the subject is an artificial light source that causes flickering such as a fluorescent lamp, the flickering of the light source is detected based on the image data, and it is identified whether or not the light source of the subject is an artificial light source.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
An AE function of a camera according to an embodiment of the present invention will be described with reference to the drawings.
[0015]
FIG. 1 is a front view showing the appearance of the camera in the present embodiment. The camera 1 according to the present embodiment includes an average metering unit that performs average metering on the entire shooting screen and a spot metering unit that performs spot metering on the center of the shooting screen, and for taking a picture based on the average metering information and the spot metering information. The exposure control value is automatically set, and the photometry sensor of the spot photometry unit is also configured to be used as a distance measurement sensor for automatic focus adjustment (AF).
[0016]
The camera 1 has a photographic lens 3 provided with a lens shutter substantially at the front center of the camera body 2, and a photometric unit 4 is provided on the upper left side thereof. In addition, a distance measuring unit 5 is provided on the upper side of the photographing lens 3, and a finder objective window 6 is provided on the right side.
[0017]
The photometry unit 4 has a light receiving element (hereinafter referred to as an AE sensor) composed of an SPC (Silicon Photo Cell) or the like, receives reflected light from the subject, and as shown in FIG. This is an average metering unit that averages the entire beam and measures the light. The AE sensor has an IR cut filter on the imaging surface and is adjusted so that its spectral sensitivity is in the visible region.
[0018]
The distance measuring unit 5 has a distance measuring area 8 in the center of the shooting screen 7 and the distance from the image information obtained by receiving the reflected light from the object included in the distance measuring area 8 (hereinafter referred to as the object). This is to detect D (m). In addition, as shown in FIG. 3, the distance measuring unit 5 includes an AF sensor 9 mainly composed of a pair of line image sensors 91 and 92, and a pair of minute lens arrays respectively disposed in front of the line image sensors 91 and 92. The lens system 10 includes 101 and 102. The line image sensors 91 and 92 are arranged on the same line with a predetermined interval. The line image sensors 91 and 92 are, for example, CCD line sensors in which a large number of charge coupled devices (hereinafter referred to as pixels) are arranged in a line, and the distance measuring unit 5 includes the line image sensors 91 and 92. A partial light image of the subject is received, and the subject distance D (m) is detected using data (data output from each pixel, hereinafter referred to as pixel data) constituting both light images.
[0019]
The subject distance D is determined by the imaging unit of the line image sensor 91 on the side close to the optical axis L of the finder optical system 11 among the line image sensors 91 and 92, and the imaging of the line image sensor 92 on the side far from the optical axis L. The reference part is used as a reference part, and the linear image of the reference part is compared with the linear image of the reference part, and is calculated from the amount of displacement of the positions of both images.
[0020]
Further, the line image sensor 91 of the distance measuring unit 5 is commonly used as a photometric element for spot metering the center of the shooting screen, and, as will be described later, using the pixel data constituting the linear image of the reference unit, Spot metering data is calculated. Although the line image sensor 92 can be shared as a photometric element, in order to reduce the parallax between the visual field range of the finder optical system 11 and the photometric range by the AF sensor 9 as much as possible, in the present embodiment, a finder is used. The line image sensor 91 on the side close to the optical axis L of the optical system 11 is a spot photometric element.
[0021]
FIG. 4 is a block diagram showing a camera photometry and distance measurement control system.
[0022]
In the figure, a CPU 12 is a microcomputer that centrally controls a series of photographing operations of cameras such as AF, AE, and release. The CPU 12 includes a distance calculation unit 121 for AF control, a photometry calculation unit 122 and a light source correction unit 123 for AE control, and a memory 124 for the calculation process.
[0023]
The memory 124 includes a reference portion data area 124a, a reference portion data area 124b, an AF data area 124c, an AE data area 124d, and a correction data area 124e. The reference portion data area 124a and the reference portion data area 124b include the AF sensor 9. Pixel data (hereinafter referred to as reference data) constituting a linear image of a subject imaged by the line image sensor 91 and pixel data (hereinafter referred to as reference data) constituting a linear image of the subject imaged by the line image sensor 92. And data related to the subject distance calculated using the standard part data and the reference part data (hereinafter referred to as AF data) are stored in the AF data area 124c, and the AE data area 124d. For the subject brightness calculated using the reference data Data (hereinafter, referred to as AE data.) And the average photometric data calculated by the photometric unit 4 is adapted to be stored. Further, correction data relating to a preset light source of the subject is stored in the correction data area 124e. This correction data is for correcting the AE data, and details will be described later.
[0024]
The AF data is obtained by dividing the imaging area of the reference portion into a plurality of AF areas and is calculated for each AF area, and the calculation result is stored in the AF data area 124c corresponding to each AF area. The image capturing area of each part is divided into a plurality of AE areas, calculated for each AE area, and the calculation result is stored in the AE data area 124d in association with each AE area.
[0025]
FIG. 5 is a diagram illustrating an example of the AF area and the AE area set in the imaging area of the line image sensor 91.
[0026]
In the imaging area of the line image sensor 91, six AE areas and six AF areas are set. The AE areas AE1 to AE6 are configured by equally dividing the imaging region of the line image sensor 91 into six. Also, the AF areas AF1 to AF6 are divided areas AR1 to AR6 obtained by equally dividing the imaging area of the line image sensor 91 into AF1 = AR1 + AR2, AF2 = AR2 + AR3, AF3 = AR3 + AR4, AF4 = AR4 + AR5, AF5 = AR5 + AR6. , AF6 = AR1 + AR2 + AR3 + AR4 + AR5 + AR6.
[0027]
In the present embodiment, each area of the AE areas AE1 to AE6 corresponds to each of the divided areas AR1 to AR6, so that each AF area AF1 to AF6 is configured by combining the AE areas AE1 to AE6. It has become. This is because, when AF control is performed by selecting any of the AF areas AF1 to AF6, it is possible to detect AE data for a subject in the selected AF area and to perform exposure control based on the AE data. .
[0028]
Therefore, the setting of the AF area and the AE area is such that the minimum size AE area is substantially the same as or smaller than the minimum size AF area, and each AF area includes at least one AE area. As long as it is configured, the imaging area of the line image sensor 91 may be divided by another method to configure the AE area and the AF area. Note that when at least one AE area is almost entirely included in each AF area, even if the AE area is slightly larger than the AF area, the portion that protrudes from the AF area is the AE data in the AE area corresponding to the AF area. If AE data is not affected, the size of the AE area can be treated as equivalent to the size of the AF area as AE data. In such a case, a strict size relationship between the AE area and the AF area is not required. It is.
[0029]
Returning to FIG. 4, the distance calculation unit 121 calculates AF data for each of the distance measurement areas AF1 to AF6 using the standard part data and the reference part data, and the calculation result is stored in each distance measurement area AF1 of the memory 124. It is stored at an address corresponding to AF6. The photometric calculation unit 122 calculates AE data for each photometric area AE1 to AE6 using the reference unit data, and stores the calculation result at an address corresponding to each photometric area AE1 to AE6 in the memory 124. is there.
[0030]
The calculation and storage of the AE data is performed before the calculation of the AF data so as not to be affected by the calculation of the AF data. As a result, the memory 124 is used even when the AF sensor 9 is also used as the AE sensor for spot photometry. Thus, the data storage area for both operations is prevented from increasing as much as possible. That is, as will be described later, the AF data is calculated by calculating the correlation value between the standard part data and the reference part data after converting the standard part data and the reference part data into difference data, centroid data, etc., respectively. Therefore, if the AF data calculation is performed independently of the AE data calculation, it is necessary to store the reference part data and the reference part data separately for the AE data calculation. In the present embodiment, the AF data calculation is performed. By calculating the AE data before the time, the base part data and the reference part data are not unnecessarily saved, and the increase in the memory capacity is reduced accordingly. Since one AE data is calculated for each of the AE areas AE1 to AE6, AE data for finally calculating a control luminance value for AE control (hereinafter referred to as AE control data). The number is six, and the memory for storing AE data is reduced as much as possible.
[0031]
The light source correction unit 123 corrects the AE control data using the correction data. The AF control unit 13 controls the driving of the photographic lens 3 and adjusts the focus of the photographic lens 3.
[0032]
Next, calculation of AF data and AE data using a captured image by the AF sensor 9 will be described.
[0033]
FIG. 6 is a main flow of calculation control of AF data and AE data using an image captured by the AF sensor 9. This flow is executed in a shooting preparation process performed by half-pressing the release button.
[0034]
First, the AF sensor 9 is driven for a predetermined time set in advance, and charges corresponding to the amount of received light are accumulated in the pixels of the line image sensors 91 and 92 (# 1). All pixel data of the line image sensors 91 and 92 is read out by the CPU 12, the pixel data of the standard part is stored in the standard part data area 124 a of the memory 124, and the pixel data of the reference part is stored in the reference part data area 124 b of the memory 124. Stored (# 2).
[0035]
Subsequently, the reference portion data is read for each of the AE areas AE1 to AE6 from the reference portion data area 124a of the memory 124, and the AE data DAE1 to DAE6 corresponding to the AE areas AE1 to AE6 are calculated (# 3). . For the calculation of the AE data DAE1 to DAE6, for example, various methods shown in Table 1 below can be adopted. The contents of each data in Table 1 are calculated by the arithmetic expressions shown in the same table.
[0036]
[Table 1]
Figure 0003710864
[0037]
In Table 1, the “average value 1” method uses the arithmetic average value of all pixel data in the AE area as the AE data in the AE area. Since the method of “average value 1” averages the entire brightness in the area, appropriate exposure control is possible when the luminance balance in the area is within a certain range. In the method of “average value 2”, the arithmetic average value of all the remaining pixel data except the pixel data having the maximum luminance and the minimum luminance among the pixel data in the AE area is used as the AE data of the AE area. . The method of “average value 2” is appropriate even when the brightness balance in the area exceeds a certain range, because the influence of abnormally bright and dark areas is eliminated when the brightness balance in the area exceeds a certain range. This is an improved method of the “average value 1” method.
[0038]
In addition, the method of “average values 3 and 4” is an arithmetic average value based only on pixel data having a luminance value less than or equal to a predetermined threshold set according to the average photometric value among pixel data in the AE area. Is the AE data of the AE area, which is a method capable of simplifying arithmetic processing for AE control. That is, in the method of “average value 3, 4”, since the bright part or the dark part is extracted with reference to the threshold value based on the average photometric value, it is not necessary to separately determine the backlight of the shooting scene after calculating the AE data. It is possible to simplify the calculation processing when calculating the AE control data for AE control using the AE data.
[0039]
Also, the “minimum value” method uses pixel data having the minimum luminance among the pixel data in the AE area as AE data of the AE area, and the “maximum value” method uses the pixel data in the AE area. The pixel data having the maximum luminance is used as the AE data of the AE area. The “minimum value” method is suitable for overexposure control, and the “maximum value” method is suitable for underexposure control.
[0040]
Subsequently, after the calculated AE data is stored in the AE data area 124d of the memory 124 (# 4), the reference area data and the reference part data stored in the memory 124 are used to perform an AF area for AF control (AF An AF area used for control (hereinafter referred to as an AF control area) and a subject distance D with respect to a subject in the AF control area are calculated, and the calculation result is stored in the AF data area 124c of the memory 124 ( # 5). Note that the subject distance D is obtained by converting the reference portion data in the reference portion data area 124a and the reference portion data in the reference portion data area 124b into, for example, difference data or luminance centroid data, and then data in the reference portion for each AF area. And the correlation value obtained by comparing the data of the reference portion. For example, among the AF areas AF1 to AF6, the AF area with the smallest subject distance D is selected as the AF control area.
[0041]
Subsequently, an AE area for AE control (AE area used for AE control, hereinafter referred to as AE control area) is set based on the AF control area and the subject distance D (# 6).
[0042]
FIG. 7 is an example of a chart diagram for selecting an AE control area based on the AF control area and the subject distance D.
[0043]
In the figure, “1”, “2”,..., “6” in the “AE area” column indicate AE1, AE2,... AE6, and “1”, “2”, “AE” in the “AF area” column. .., “6” indicates AF1, AF2,. “All low contrast” is a case where the in-focus positions of all the AF areas AF1 to AF6 cannot be detected due to the low contrast. “●” indicates the selected AE area, and “−” indicates the AE area that is not selected.
[0044]
In the AE area selection method shown in the figure, the subject distance D is divided into three steps of “short distance”, “medium distance”, and “far distance”, and the subject is selected even when the same AF area is selected as the AF control area. The closer the distance D is to the “short distance” side, the wider the selection range of the AE control area is. For example, when the AF area AF3 is selected as the AF control area, the AE areas AE3 and AE4 included in the AF area AF3 are selected as the AE control area when the subject distance D is “far”, but the subject distance D is “ In the “medium distance”, AE areas AE2 and AE5 outside the AF area AF3 are added as AE control areas, and when the subject distance D becomes “short distance”, all AE areas AE1 to AE6 are selected as AE control areas.
[0045]
This is because it is desirable that the range of the AE control area is as wide as possible. However, in the case of a long-distance subject, the size of the subject image relative to the shooting screen is small (see FIG. 8), and the AE area outside the AF control area is set as the AE control area. If included, the subject and background are included in this AE control area, and the AE control data calculated based on the AE data in the AE control area may be affected by the background luminance. While the AE area is selected as the AE control area, the size of the subject image with respect to the shooting screen gradually increases for a subject at a medium distance or a short distance, and the AE area outside the AF control area is included in the AE control area. However, since it is unlikely that the background is included in the AE control area and the AE control data is less likely to be affected by the background brightness, the AF control error AE area outside A is also used to select the AE control area.
[0046]
Further, in the present embodiment, control is performed so that photographing can be performed even with a low contrast. Therefore, even when the AF area AF6 close to “all low contrast” or “all low contrast” is selected, the AE areas AE1 to AE6 are controlled in the AE control area. AE control data is calculated as follows.
[0047]
If the position of the spot metering of the subject is fixed, the size of the subject image in the shooting screen becomes smaller as the subject distance D becomes longer. Therefore, in order to obtain accurate AE control data, spot metering of the subject image is performed. It is necessary to change the maximum size of the AE control area according to the position (that is, the subject distance D).
[0048]
For example, when a standard size human is assumed as the subject, and a human face is set as the spot photometry position, the relationship between the subject distance D and the maximum number of pixel data in a suitable AE control area is the dotted line in FIG. When the human torso is set as the spot metering position, the relationship between the subject distance D and the maximum number of pixel data in a suitable AE control area is indicated by a one-dot chain line in FIG. It becomes like 2 ▼. Therefore, assuming a human face as the spot metering position and setting the maximum size of the control AE area according to the subject distance D, the size of the AE control area is extremely small for a subject at a long distance.
[0049]
However, when the subject is a human being, the framing of the photographer with respect to the subject is generally performed such that the face of the subject K enters the center of the photographing screen 7 at a short distance, as shown in FIG. The subject K is placed so that the entire subject K is contained as much as possible, and the position of the subject's spot photometry is changed according to the subject distance D. On the other hand, it is necessary to perform spot metering. However, spot metering can be performed on the body of the subject K with respect to the subject K farther than a certain distance D1.
[0050]
Accordingly, the preferred number of pixel data in the AE control area corresponding to the subject distance D is changed from (1) to (2) at a certain distance D1 in FIG. 9, and (2) at a distance farther than a certain distance D1. The number of pixel data can be increased. In setting the range of the AE control area in FIG. 7, in consideration of the above, even when the subject is at a long distance, two AE areas included in the AF control area are selected as the AE control areas, and AE control is performed as much as possible. The area is widened so that suitable AE data can be obtained.
[0051]
In FIG. 9, the relationship indicated by (3) (the relationship between (1) and (2) is connected so that the distance D1 is switched from (1) to (2)) is the maximum pixel data in the AE control area. The range below the number of pixel data indicates the range of the AE control area that is less affected by the background. In the present embodiment, spot light measurement is performed by using the external light type distance measuring unit 5 as well, so that the AE control area is set according to the subject distance D. In the case where the AE control area is configured, an AE control area may be set in accordance with the image magnification β instead of the subject distance D.
[0052]
FIGS. 10 and 11 show the execution procedure of the AE control area selection method shown in FIG. 7 in the “AE area selection” subroutine for selecting the AE control area based on the AF control area and the subject distance D. .
[0053]
First, it is sequentially determined whether or not all the AF areas are low contrast, or whether or not the AF area AF6 is set as an AF control area (# 11, # 12), and all the low contrast or AF area AF6 is AF. If it is set as a control area (YES in # 11 and # 12), AE areas AE1 to AE6 are set as AE control areas (# 24), and the process returns.
[0054]
If all are not low contrast and the AF area AF6 is not set as an AF control area (NO in # 11 and # 12), the distance range of the subject is determined from the subject distance D (# 13, # 14). If the subject distance is “short distance” (b> D) (YES in # 13), AE areas AE1 to AE6 are set as AE control areas (# 24), and the process returns and the subject distance is “far”. If (D ≧ a) (NO in # 14), it is sequentially determined whether or not each of the AF areas AF1 to AF4 is selected as an AF control area (# 15, # 17, # 19, # 21).
[0055]
If AF area AF1 is set as an AF control area (YES in # 15), AE areas AE1 and AE2 are set as AE control areas (# 16), and AF area AF2 is set as an AF control area. If so (YES in # 17), AE areas AE2 and AE3 are set as AE control areas (# 18), and if AF area AF3 is set as an AF control area (YES in # 19), AE areas AE3 and AE3 If AE4 is set as an AE control area (# 20) and AF area AF4 is set as an AF control area (YES in # 21), AE areas AE4 and AE5 are set as AE control areas (# 22). Returning, none of the AF areas AF1 to AF4 is selected, that is, the AF area AF5 is set as the AF control area If so (NO in # 21), AE area AE5, AE6 is set as an AE control area (# 23), the process returns.
[0056]
If the subject distance is “medium distance” (a> D ≧ b) (YES in # 14), it is determined whether the AF area AF1 or AF2 is set as the AF control area (# 25), and the AF area. If AF1 or AF2 is set as an AF control area (YES in # 25), AE areas AE1 to AE4 are set as AE control areas (# 26), and the process returns. If the AF areas AF1 and AF2 are not set in the AF control area (NO in # 25), then it is determined whether or not the AF area AF3 is set in the AF control area (# 27). If area AF3 is set as an AF control area (YES in # 27), AE areas AE2 to AE5 are set as AE control areas (# 28), and if AF area AF3 is not set as an AF control area (# 28) If NO in # 27, AE areas AE3 to AE6 are set as AE control areas (# 29), and the process returns.
[0057]
Returning to the flowchart of FIG. 6, when the setting of the AE control area is completed, the AE control data is calculated using the AE data in the set AE control area (# 7).
[0058]
FIG. 12 shows an example of a subroutine for calculating the AE control data, in which the calculation of the AE control data is switched depending on the subject distance D. That is, it is determined whether or not the subject distance D exceeds an appropriate predetermined distance a ′ (> a) of, for example, 4 m or more (# 31), and if the subject distance D exceeds the predetermined distance a ′. (YES in # 31), among the luminance values B1, B2,... Of the AE area selected as the AE control area, the lowest luminance value min {B1, B2,...} Is set as the AE control data (# 32). If the subject distance D is equal to or smaller than the predetermined distance a ′ (NO in # 31), the average value BAVE (= ΣBi / m, Bi;) of the luminance values B1, B2,... Of the AE area selected as the AE control area. The i-th luminance value, m; the number of luminance values) is set as the AE control data (# 33), and the process returns.
[0059]
In the above method, when the subject is at a long distance, the subject image in the shooting screen is small, and the proportion affected by the edge of the subject is large. Therefore, when the subject distance D is longer than the predetermined distance a ′, the lowest luminance is obtained. By using the value as AE control data, the influence of the edge of the subject is reduced. In this case as well, the perspective of the subject can be determined by the image magnification β instead of the subject distance D.
[0060]
Further, the AE control data may be calculated by a fixed calculation formula regardless of the subject distance D, for example, the calculation formulas (1) “average value 1” to (5) “minimum value” shown in Table 1 above. .
[0061]
In the method of “average value 1”, since the luminance in the AE control area is averaged, even when the AE control data is calculated in as wide an area as possible, the variation in the calculation result can be reduced. The method of “average value 2” is an improved method of “average value 1”, and can reduce the influence of the abnormal value even when the luminance balance is abnormally large. In addition, the “minimum value” method is more effective than the “average value 1” method in the case of determining a retrograde scene by comparing the average luminance value of the entire photographing screen obtained by the photometry unit 4 with the AE control data. There is an advantage that backlight discrimination can be easily performed. Further, the methods of “average value 3” and “average value 4” extract the bright part or the dark part based on the threshold value based on the average photometric value, so that the backlight can be easily and accurately distinguished. There is.
[0062]
When the AE control data is calculated, the AE control data is subsequently corrected (# 8). In this correction, an error in the AE control data that occurs when the light source of the subject is different from the adjustment light source of the AF sensor 9 is corrected according to the light source of the subject.
[0063]
Standard light source A, standard light source B, and standard light source C for colorimetry each have the spectral characteristics shown in FIG. 13, and the spectral characteristics of standard light source A are considerably in the infrared region as compared with those of standard light sources B and C. Is biased. On the other hand, the SPC arranged as a photoelectric conversion element on the imaging surface of the line image sensors 91 and 92 has a specific sensitivity distribution shown in FIG. 14, for example, and when the standard light sources A, B, and C are received by the SPC, respectively. The SPC output is as shown in FIG. 15, and the SPC output for the standard light sources B and C is less than half the SPC output for the standard light source A.
[0064]
When the AF sensor 9 is shared as an AE sensor for spot metering, it is necessary to perform level matching between the spot metering value by the AF sensor 9 and the average metering value by the AE sensor of the metering unit 4, and usually the AE sensor of the metering unit 4 Since the output characteristics of the AF sensor 9 are adjusted with respect to the standard light source A, the output characteristics of the AF sensor 9 are also adjusted with respect to the standard light source A.
[0065]
For this reason, when taking a photograph using sunlight as a light source outdoors, the light source (standard light source A) in which the output characteristics of the AF sensor 9 are adjusted differs from the actual light source (light sources close to the standard light sources B and C). Therefore, the control luminance value obtained from the output of the AF sensor 9 is smaller than the actual luminance value. The correction of the AE control data is to correct the output level from the AF sensor 9 due to the difference in the subject light source. For this correction, the AF when the standard light source A is received in the correction data area 124e of the memory 124. Correction data ΔBB (≈1.21 EV) for correcting the difference between the output of the sensor 9 and the output of the AF sensor 9 when the standard light source B is received, and the output and standard of the AF sensor 9 when the standard light source A is received Correction data ΔBC (≈1.51 EV) for correcting a difference from the output of the AF sensor 9 when the light source C is received is calculated and stored in advance.
[0066]
Then, the correction is performed by adding the correction data ΔBB or the correction data ΔBC to the AE control data.
[0067]
In the flowchart of FIG. 6, shooting with outdoor sunlight is standard, and the AE control data is always corrected by the correction data ΔBB or the correction data ΔBC. Preferably, the camera has a light source detection function. It is preferable to correct the AE control data in accordance with the detected light source.
[0068]
In this case, the process shown in FIG. 16 is performed instead of step # 8. That is, after calculating the AE control data, the light source of the subject is detected (# 41), and it is determined whether the detected light source is the standard light source A or the standard light source B (# 42, # 43). If the light source of the subject is the standard light source A (YES in # 42), the process is terminated without correction. If the light source of the subject is the standard light source B (YES in # 43), the correction data ΔBB is added to the AE control data (# 44), and if the light source of the subject is the standard light source C (YES in # 43). ), The correction data ΔBC is added to the AE control data (# 45), and the process is terminated.
[0069]
For light source detection, for example, a photometric sensor for WB is provided, and the light source may be directly detected by color component data of R (red), G (green), and B (blue) output from the photometric sensor. Or at a higher frequency than the flicker cycle of a fluorescent lamp AF center The sensor 9 may be driven to check only whether the lamp is a fluorescent lamp or not by checking whether the sampling level has changed.
[0070]
In the present embodiment, the standard light source A, B, or C is used as the correction data, but the level difference of the standard light source B or the standard light source C with respect to the standard light source A when directly received by the AF sensor 9 is used. , B and C are irradiated onto an actual subject, and the difference ΔBB ′ between the output of the AF sensor 9 when the reflected light of the standard light source A is received and the output of the AF sensor 9 when the reflected light of the standard light source B is received. The difference ΔBC ′ between the output of the AF sensor 9 when the reflected light of the standard light source A is received and the output of the AF sensor 9 when the reflected light of the standard light source C is received may be used as the correction data. In the former case, since the light of the standard light source is directly received, the correction data is obtained with the standard reflectance of 18%. However, in the latter case, the reflected light from the subject is actually received. Therefore, the correction of the AE control data can be performed with higher accuracy.
[0071]
Since the output adjustment of the AF sensor 9 of the distance measuring unit 5 and the AE sensor of the photometric unit 4 is performed with respect to the standard light source A, it is preferable to perform the adjustment simultaneously using the same standard light source as shown in the flowchart of FIG. .
[0072]
That is, first, the camera is attached to the adjuster (# 51), the light emission luminance of the standard light source A is set to a predetermined value S (EV), and then lighted up (# 52, # 53). continue, AF center The sensitivity of both sensors is adjusted so that the outputs of the sensor 9 and the AE sensor become the predetermined value S (# 54, # 55). This sensitivity adjustment is performed by changing the offset level of the sensor output.
[0073]
Thereafter, the emission luminance of the standard light source A is changed to a value S ′ other than the predetermined value S (# 56), AF center Changes in the outputs of the sensor 9 and the AE sensor are confirmed (# 57, # 58). AF center If the outputs of the sensor 9 and the AE sensor are not the predetermined values S ′ (NO in # 57 or # 58), the process returns to # 52 and readjustment is performed. AF center When the outputs of the sensor 9 and the AE sensor reach predetermined values S ′ (YES in # 57 and # 58), the standard light source A is turned off (# 59), the camera is removed from the adjuster, and the adjustment is finished (# 60). ).
[0074]
By performing simultaneous adjustment in this way, the adjustment work can be simplified and the adjustment error between the AF sensor 9 and the AE sensor can be reduced.
[0075]
【The invention's effect】
As described above, according to the camera of the present invention, the difference between the spectral sensitivity characteristics of the photometry unit that averages the entire brightness in the shooting screen and the image pickup unit that captures subject image data for automatic focus adjustment. The error of the photometric information based on the above is corrected appropriately, and accurate photometric information can be obtained. In addition, the above-mentioned photometric information error based on the difference in spectral sensitivity characteristics between the photometric unit where the spectral sensitivity is in the visible region and the imaging means that captures the image data of the subject for automatic focus adjustment is appropriately corrected, and accurate photometric information is obtained. Obtainable.
[0076]
Since the imaging means adjusts the output based on the standard light source A, the output of the light receiving means and the imaging means can be adjusted simultaneously by the same standard light source A even when the light receiving means dedicated to photometry is separately provided. In addition, the output error between the light receiving means and the imaging means can be reduced.
[0077]
Since the correction data is an output difference between the output of the imaging means when receiving the standard light source A and the output of the imaging means when receiving the standard light source B, the correction data is a standard using outdoor sunlight as the light source. Suitable spot photometric information can be obtained for a subject with a reflectance (18%). Alternatively, the correction data is an output difference between the output of the imaging unit when the subject illuminated with the standard light source A is imaged and the output of the imaging unit when the subject illuminated with the standard light source B is imaged. More accurate spot photometry information can be obtained for a person who uses outdoor sunlight as a light source.
[0078]
The apparatus further includes a light source detection unit that detects a light source of the subject, stores correction data for a plurality of light sources in the storage unit, and corrects a calculation result of the photometry calculation unit with correction data corresponding to the detected light source. Therefore, accurate spot photometric information can be obtained even when the light sources are different.
[0079]
Further, since it is determined whether or not the light source is an artificial light source based on the level fluctuation of the image data obtained by driving the imaging means at a predetermined cycle, the light source can be easily determined with a simple configuration.
[Brief description of the drawings]
FIG. 1 is a front view showing an appearance of a camera according to an embodiment of the present invention.
FIG. 2 is a diagram showing a distance measurement area in a shooting screen.
FIG. 3 is a diagram illustrating a schematic configuration of a distance measuring unit.
FIG. 4 is a block diagram showing a camera photometry and distance measurement control system;
FIG. 5 is a diagram illustrating an example of an AF area and an AE area set in an imaging region of a line image sensor of a reference unit.
FIG. 6 is a main flow of calculation control of AF data and AE data using an image captured by an AF sensor.
FIG. 7 is a chart of a method for selecting an AE control area based on an AF control area and a subject distance.
FIG. 8 is a diagram illustrating spot photometry positions by a distance measuring sensor at each subject distance.
FIG. 9 is a diagram illustrating a maximum number of pixel data in a preferred AE control area with respect to a subject distance.
FIG. 10 is a subroutine of “AE control area setting”.
FIG. 11 is a subroutine of “AE control area setting”.
FIG. 12 is a subroutine for calculating AE control data.
13 is a diagram showing spectral characteristics of standard light sources A, B, and C. FIG.
FIG. 14 is a diagram showing a specific sensitivity distribution of an AF sensor.
FIG. 15 is a diagram showing a light receiving characteristic of an AF sensor with respect to a standard light source.
FIG. 16 is a diagram showing correction processing of AE control data according to light source detection.
FIG. 17 is a flowchart for adjusting output of an AF sensor and an AE sensor.
[Explanation of symbols]
1 Camera
2 Camera body
3 Shooting lens
4 Metering unit
5 Ranging section
6 Viewfinder objective window
7 Shooting screen
8 Distance measurement area
9 AF sensor (imaging means)
91,92 line image sensor
10 Lens system
101,102 micro lens array
11 Viewfinder optical system
12 CPU (calculation means, correction means, light source detection means)
121 Distance calculator
122 Metering calculation unit
123 Light source correction unit
124 memory (storage means)
124a Reference data area
124b Reference section data area
124c AF data area
124d AE data area
124e Correction data area
13 AF controller
K Subject
L Optical axis

Claims (6)

撮影画面内の明るさ全体を平均して測光する測光部と、
線状に配列された複数の光電変換素子を含み、分光感度が可視領域と可視領域から偏差した領域にあって上記測光部とは異なる分光感度特性を有し、撮影画面の一部を撮像する撮像手段と、
上記撮像手段により取り込まれた被写体の画像データに基づいて自動焦点調節のための測距情報を演算する距離演算手段と、
上記画像データを用いて自動露出調節のための測光情報を演算する測光演算手段と、
撮影光の分光特性における、上記測光部と上記撮像手段の分光感度特性の違いに基づく上記測光情報の誤差を補正する補正データが記憶された記憶手段と、
上記測光演算手段の演算結果を上記補正データで補正する補正手段とを備えたことを特徴とするカメラ。
A metering unit that measures the average brightness of the entire shooting screen,
Includes a plurality of photoelectric conversion elements arranged in a linear, spectral sensitivity is in the region deviates from the visible region and the visible region have a different spectral sensitivity characteristics from the photometric unit captures the portion of the imaging screen Imaging means;
Distance calculating means for calculating distance measurement information for automatic focus adjustment based on the image data of the subject captured by the imaging means;
Photometric calculation means for calculating photometric information for automatic exposure adjustment using the image data;
Storage means storing correction data for correcting an error in the photometric information based on a difference in spectral sensitivity characteristics between the photometric unit and the imaging means in the spectral characteristics of the photographing light ;
A camera comprising correction means for correcting a calculation result of the photometry calculation means with the correction data.
分光感度が可視領域である測光部と、
線状に配列された複数の光電変換素子を含み、分光感度が可視領域と可視領域から偏差した領域にある撮像手段と、
上記撮像手段により取り込まれた被写体の画像データに基づいて自動焦点調節のための測距情報を演算する距離演算手段と、
上記画像データを用いて自動露出調節のための測光情報を演算する測光演算手段と、
上記測光部と上記撮像手段を調整した調整光の分光特性と撮影光の分光特性の相違と、上記測光部と上記撮像手段の分光感度特性の相違と、に基づく上記測光情報の誤差を補正する補正データが記憶された記憶手段と、
上記測光演算手段の演算結果を上記補正データで補正する補正手段とを備えたことを特徴とするカメラ。
A photometric unit whose spectral sensitivity is in the visible region;
An image pickup means including a plurality of photoelectric conversion elements arranged in a line and having a spectral sensitivity in a visible region and a region deviating from the visible region ;
Distance calculating means for calculating distance measurement information for automatic focus adjustment based on the image data of the subject captured by the imaging means;
Photometric calculation means for calculating photometric information for automatic exposure adjustment using the image data;
An error in the photometric information based on the difference between the spectral characteristics of the adjustment light and the spectral characteristics of the photographing light adjusted by adjusting the photometric unit and the imaging unit, and the spectral sensitivity characteristic of the photometric unit and the imaging unit is corrected. Storage means for storing correction data;
A camera comprising correction means for correcting a calculation result of the photometry calculation means with the correction data.
上記撮像手段は標準光源Aを基準に出力調整されていることを特徴とする請求項1又は2記載のカメラ。  3. The camera according to claim 1, wherein the image pickup means is output adjusted with reference to a standard light source A. 上記補正データは、標準光源Aを受光したときの上記撮像手段の出力と標準光源Bを受光したときの上記撮像手段の出力との出力差、または、標準光源Aで照明された被写体を撮像したときの上記撮像手段の出力と標準光源Bで照明された被写体を撮像したときの上記撮像手段の出力との出力差であることを特徴とする請求項3記載のカメラ。  The correction data is an output difference between the output of the imaging unit when the standard light source A is received and the output of the imaging unit when the standard light source B is received, or the subject illuminated by the standard light source A is captured. 4. The camera according to claim 3, wherein the output difference between the output of the image pickup means and the output of the image pickup means when the subject illuminated by the standard light source B is picked up. 被写体の光源を検知する光源検知手段をさらに備え、上記記憶手段には複数の光源に対する補正データが記憶され、上記補正手段は検知された光源に対応する補正データで上記測光演算手段の演算結果を補正するものであることを特徴とする請求項1又は2記載のカメラ。  Light source detection means for detecting the light source of the subject is further provided, and the storage means stores correction data for a plurality of light sources, and the correction means uses the correction data corresponding to the detected light sources to calculate the calculation result of the photometry calculation means. The camera according to claim 1, wherein the camera is corrected. 上記光源検知手段は、上記撮像手段を所定周期で駆動して得られる画像データのレベル変動に基づき被写体の光源が人工光源であるか否かを判別するものであることを特徴とする請求項5記載のカメラ。  6. The light source detection means determines whether or not a light source of an object is an artificial light source based on a level fluctuation of image data obtained by driving the imaging means at a predetermined cycle. The listed camera.
JP1337096A 1996-01-29 1996-01-29 camera Expired - Fee Related JP3710864B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1337096A JP3710864B2 (en) 1996-01-29 1996-01-29 camera
US08/789,805 US6215961B1 (en) 1996-01-29 1997-01-28 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1337096A JP3710864B2 (en) 1996-01-29 1996-01-29 camera

Publications (2)

Publication Number Publication Date
JPH09203857A JPH09203857A (en) 1997-08-05
JP3710864B2 true JP3710864B2 (en) 2005-10-26

Family

ID=11831212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1337096A Expired - Fee Related JP3710864B2 (en) 1996-01-29 1996-01-29 camera

Country Status (1)

Country Link
JP (1) JP3710864B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4845720B2 (en) * 2006-12-25 2011-12-28 キヤノン株式会社 Focus detection apparatus and imaging apparatus
CN107995416B (en) * 2017-11-14 2019-10-18 维沃移动通信有限公司 A kind of focus adjustment method and mobile terminal

Also Published As

Publication number Publication date
JPH09203857A (en) 1997-08-05

Similar Documents

Publication Publication Date Title
US6215961B1 (en) Camera
US7009641B2 (en) Electronic camera with gain adjustment
JP4288395B2 (en) Electronic camera with white balance adjustment function
US8150252B2 (en) Imaging apparatus and imaging apparatus control method
US6424805B2 (en) Exposure control device for use in camera
JP2013214878A (en) Imaging apparatus, exposure control method, and program
JP4232498B2 (en) Subject photographing state determination device, image quality adjustment device, and image photographing device
KR20100078654A (en) Single lens reflex camera comprising a focus detecting apparatus and method for photographing
JP2012242676A (en) Imaging apparatus, and control method
US10986282B2 (en) Image pickup apparatus that performs flash shooting suitable for both main subject and background, control method therefor, and light emission control apparatus
JP2926597B2 (en) Automatic light control device for camera
JP3710864B2 (en) camera
US20120189290A1 (en) Image capture apparatus, light emitting device, and light emission amount calculation method
JP3346337B2 (en) Digital camera
CN109387992B (en) Image pickup apparatus capable of sufficiently ensuring light emission accuracy and control method thereof
JP3384577B2 (en) Microscope photography equipment
JPH09203927A (en) Camera
JP6005955B2 (en) Photometric device and imaging device
JPH09203926A (en) Camera
JP5417032B2 (en) Camera photometric device
JP4995133B2 (en) Imaging apparatus and control method
JP2002006360A (en) Flash photographing controller and camera
JP4288407B2 (en) Camera, electronic flash device, and camera system
JPH03287240A (en) Ttl automatic dimming camera
JP2001103367A (en) Digital still camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20041119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20041119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050811

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130819

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees