JP2814945B2 - Automatic focus detection device - Google Patents

Automatic focus detection device

Info

Publication number
JP2814945B2
JP2814945B2 JP7043868A JP4386895A JP2814945B2 JP 2814945 B2 JP2814945 B2 JP 2814945B2 JP 7043868 A JP7043868 A JP 7043868A JP 4386895 A JP4386895 A JP 4386895A JP 2814945 B2 JP2814945 B2 JP 2814945B2
Authority
JP
Japan
Prior art keywords
vignetting
output
state
image
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7043868A
Other languages
Japanese (ja)
Other versions
JPH0854560A (en
Inventor
洋介 日下
健 歌川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP7043868A priority Critical patent/JP2814945B2/en
Publication of JPH0854560A publication Critical patent/JPH0854560A/en
Application granted granted Critical
Publication of JP2814945B2 publication Critical patent/JP2814945B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、TTLカメラの自動焦
点検出装置に関する。 【0002】 【従来の技術】従来、TTLカメラの焦点検出装置とし
て、撮影光学系の瞳の異なる領域から到来する光束が生
ずる複数の被写体像の相対的偏位量から前記撮影光学系
の焦点調節状態を検出するいわゆる瞳分割方式の自動焦
点検出装置が知られている。例えば、特公昭57−49
841号公報には、一次像面近傍に配置されたレンズア
レイとその直後に配置された受光素子アレイとのペアア
レイで構成されたこの種の自動焦点検出装置が開示され
ている。 【0003】また、特開昭54−104859号公報に
は、一次像面に配置されたフイールドレンズと一次像面
にできる像を二次像面に再結像する二つの再結像レンズ
と二次像面上に配置された二つのイメージセンサアレイ
で構成されたこの種の自動焦点検出装置が開示されてい
る。 【0004】 【発明が解決しようとする課題】しかしながら、このよ
うな従来の瞳分割方式の自動焦点検出装置にあっては、
次に述べるような欠点を有していた。すなわち、この種
の自動焦点検出装置においては、焦点検出側の光学系に
よって光軸上の所定の位置に直交する平面上に所定のF
ナンバーの瞳を特定しているため、射出瞳のFナンバー
がこの所定のFナンバーより大きいか、あるいは射出瞳
のFナンバーがこの所定のFナンバーと同じか小さくて
も、射出瞳位置が前記所定の位置と異なる交換レンズを
前記自動焦点検出装置を有するカメラ本体に装着した場
合には、その射出瞳により焦点検出光束にケラレが生じ
る場合があり、そのケラレが焦点検出光学系側の像面上
で不均一となる場合には被写体像に歪ができて、正確な
焦点検出を行なうことができなかった。 【0005】この欠点を特公昭57−49841号公報
に開示された従来例をあげて図1により詳しく説明す
る。図1(A) は装置の模式的側面図であり、(B) は光電
変換素子の正面配置図である。 【0006】撮影レンズ(11)の後方にフイールドレンズ
(12)が配置され、フイールドレンズ(12)の後の焦点面近
傍に複数の微小レンズ(13),(14),(15)…が配され、微小
レンズ(13),(14),(15)…に対応してそれらの後方に対を
なした光電変換素子である受光部((13a),(13b)),((14
a),(14b)),((15a),(15b)) …が配設されている。 【0007】受光部(13a) …は添字のa列とb列とが夫
々イメージセンサアレイをなしており、各微小レンズの
後方の一対の光電変換素子である受光部の位置と撮影レ
ンズ(11)の射出瞳位置とが各微小レンズに対して概略共
役の位置にくるように各微小レンズの曲率を形成してあ
る。また、フイールドレンズ(12)は、図1中、上端およ
び下端に近い微小レンズほど光路を強く曲げる必要があ
り、撮影レンズ(11)の射出瞳位置が所定の位置(16)にあ
るときに各一対の光電変換素子の受光面の像が射出瞳上
で相互に完全に重なりあって存在するように、すなわ
ち、受光部(13a),(14a),(15a) …の像が撮影レンズ(11)
の位置(11a) に光電変換素子(13b),(14b),(15b) …の像
が位置(11b) にそれぞれ重なり合って存在するように微
小レンズの曲率が定められている(以後、各光電変換素
子の受光部のフイールドレンズ(12)、微小レンズ(13)等
焦点検出光学系による像が互いに重なり合う位置を設定
瞳位置と呼ぶ)。 【0008】この自動焦点検出装置では、焦点検出に用
いられる光束が撮影レンズの射出瞳によってほとんどケ
ラれることのない場合のみしか、すなわち、Fナンバー
の小さい明るい撮影レンズあるいは、Fナンバーが大き
くても射出瞳位置が前記設定位置に等しいためにケラレ
の影響が検出素子上に一様に生ずるようなレンズに対し
てしか有効に焦点検出を行なうことができない。 【0009】例えば、35mm一眼レフカメラの場合につ
いて考えてみると、撮影レンズたる交換レンズの射出瞳
位置は焦点面から50mm程度のものから400mmを越え
るものまで千差万別であり、そのFナンバーもF1.2
程度からF11を越す暗いものまで存在している。 【0010】もし、図1に相当する自動焦点検出装置に
おいて、前記設定瞳位置(16)を焦点面から100mm(以
後、設定瞳位置と焦点面との間隔をPOであらわす。した
がってこの場合PO=100mm)の所に設計し、検出に使
用する光束の広がり、すなわち、受光部((13a),(13b)),
((14a),(14b)),((15a), (15b))…の受光部の形状により
限定される検出光束の広がりをF4に設計するとするな
らば、F4より暗くかつ射出瞳位置と焦点面との間隔
(以後、これをPO′とあらわす。)が100mmでない交
換レンズに関しては自動焦点検出装置の検出精度は著し
く低下することになる。 【0011】このことを図2により説明しよう、図2は
各種撮影レンズによるケラレの様子と程度とを対照して
示した説明図であり、上記設計値について検出光束をF
4,設定瞳位置をPO= 100mmとしたときに、撮影レン
ズの明るさがF6でPO′=100mm,50mm,∞のもの
について示してある。 【0012】図2(A) はPO′=100mmの場合であり、
それぞれF4の広がりの光束を受ける各光電変換素子の
受光部((15a),(15b)),((14a),(14b)) …には撮影レンズ
のF6の瞳を通過してきた光束がそれぞれ受光部((15
a),(15b)),((14a),(14b)) …の対に対して偏ることなく
等しく割り当てられる。従って被写体が一様輝度の場合
には、図2(D) に示すように、各受光部(15a) …の出力
(15a1),(15b1),(14a1)…は一様となる。つまり、この場
合にはケラレが存在しているにもかかわらず検出精度の
低下は生じない。すなわち、光電変換素子対の列により
2像のズレを検出することが可能である。 【0013】図2(B) はPO′=50mmの場合で、前記の
ように撮影レンズのF6の瞳を通過してきた光束が各受
光部(15a) …の場所ごとに異なった比率で分配されてい
る。よって、このときの各受光部(15a) …の出力は図2
(E) に示すように、出力(15a1)…の如くに本来均一であ
るべき出力が著しく異なったものになっている。 【0014】ここで、両端の微小レンズ(13)および微小
レンズ(15)の位置が中心の微小レンズ(14)からそれぞれ
+2.5mm,−2.5mmの位置にある場合について図2
(E)のケラレの程度δを求めてみると、平均を1として
およそ 【0015】 【数1】 【0016】と非常に大きい値になる。すなわち、対を
なす光電変換素子の光電出力が、一様輝度の被写体にも
かかわらずケラレによって大きく異なった出力となって
しまい、このような状況の下においては光電変換素子の
対により2像のズレを検出することは非常に困難とな
る。 【0017】図2(C) はPo′=∞の場合であり、この場
合のケラレは図2(B),(E) の場合とは全く逆になる。す
なわち、一様の輝度の被写体に対する光電出力は図2
(F) のようになり、ケラレの程度δは±2.5mmの位置
で 【0018】 【数2】 【0019】程度になる。すなわち、図2(B) の場合と
同様に光電変換素子の対の列の光電出力が一様輝度の被
写体にもかかわらずケラレによって大きく異なった出力
となり、2像のズレを検出することは非常に困難とな
る。 【0020】上述のような焦点検出精度に悪影響を与え
る事態を避けるための手段としては、設定瞳位置は共通
で設定瞳の大きさが異なるもの、従ってFナンバーの異
なる焦点検出手段を複数設け、これらを切り換える方
式、設定瞳位置の異なる焦点検出手段を複数設け、これ
らを適宜切り換える方式、焦点検出光学系の絞りを切り
換える方式、焦点検出に悪影響を与える事態であること
が判明したときイメージセンサ出力の処理系統を切り換
えるもの、例えばフイルタの特性を切り換えたり焦点検
出のアルゴリズムを切り換える方式、など使用撮影レン
ズ等からあらかじめ焦点検出に悪影響を与える事態を予
測して手動により切り換える諸方式、また、装着レンズ
の開放Fナンバーを検出して自動的に切り換える方式、
さらには、Fナンバーと瞳位置とを検出して自動的に切
り換える方式のものなどが考えられる。 【0021】しかしながら、このような諸方式にもなお
次のような欠点がある。すなわち、手動の場合には、使
用者がどのように切り換えるか判断しなければならず、
煩雑であるばかりてりでなく、切り換えを忘れたり、間
違えたりするおそれがあった。 【0022】また、自動切り換えするものであっても、
装着レンズの仕様により一義的に切り換えるものであっ
たので、実際に生ずるケラレは、レンズの開放Fナンバ
ーおよび射出瞳位置だけでなく、レンズの繰出量や絞り
以外のレンズの制限部分の径や位置、レンズ表面の汚れ
等による不均一な透過率等種々の要因が複雑にからみあ
って生じるものであり、そのような場合に真に実態に即
した調節ができず、また、レンズの開放Fナンバーや射
出瞳位置をレンズ側からカメラ本体側に伝達する機構が
必要となり、高価なものになってしまうという欠点があ
った。 【0023】本発明は、前記のような従来の欠点を解消
し、ケラレ等の焦点検出光学系により形成される一対の
被写体像のアンバランス状態を検知して自動的に補正し
て正確に焦点検出ができるようにした自動焦点検出装置
を提供することを目的としている。 【0024】 【課題を解決するための手段】かかる目的を達成するた
めの要旨とするところは、撮影光学系の瞳の異なる領域
から入射する光束から一対の被写体像を形成する焦点検
出光学系と、該一対の被写体像を受光する一対のイメー
ジセンサーアレイを有するイメージ検知手段と、前記イ
メージ検知手段からの一対の出力の相対的偏位量から、
前記撮影光学系の焦点調節状態を検出する焦点検出手段
と、前記イメージ検知手段からの一対の出力の相関度を
検出する相関度検出手段と、前記相関度検出手段により
検出された相関度に応じて、前記イメージ検知手段から
の一対の出力の範囲を変更する変更手段とを備えること
を特徴とする自動焦点検出装置、に存する。 【0025】 【作用】本発明に係る自動焦点検出装置によれば、相関
度検出手段は、イメージ検知手段からの一対の出力の相
関度を検出し、それにより、イメージセンサのどの出力
範囲の焦点検出精度が悪いのかが判断され、変更手段
が、相関度検出手段により検出された相関度に応じて、
イメージ検知手段からの一対の出力の範囲を変更するこ
とで、焦点検出精度のよい領域での焦点演算がなされ
る。 【0026】 【実施例】以下、図面に基づき本発明の各種実施例を説
明する。図3は本発明の実施例に共通するブロック図で
あり、前記撮影レンズ(11)等が構成している被写体像を
形成するための撮影光学系(10)に、前記フイールドレン
ズ(12)等が構成している焦点検出光学系(20)が続き、焦
点検出光学系(20)に一対のイメージセンサアレイを有す
るイメージ検知手段(30),イメージ検知手段(30)にフイ
ルター手段(34)および焦点検出手段(40)が続き、焦点検
出手段(40)にケラレ状態検出手段(50)が続き、さらに、
ケラレ状態検出手段(50)の出力を受けて各種作動切換機
構を制御する検出状態制御手段(60)がケラレ状態検出手
段(50)に接続し、焦点検出手段(40)の出力を受けるとと
もに検出状態制御手段(60)の出力により制御されて撮影
光学系(10)を駆動制御するオートフオーカス制御手段(7
0)が設けられており、オートフオーカス制御手段(70)の
出力(71)は図示省略したレンズ駆動手段に出力してい
る。また、検出状態制御手段(60)の出力の一部は破線矢
示(61)を介して図示省略したケラレ状態警告表示手段に
出力している。 【0027】ケラレ状態検出手段(50)は本発明の主要部
でありその詳細については後述するがその要点だけを図
5により説明する。図5は焦点検出光学系によりイメー
ジセンサアレイ上に形成される被写体像の強度分布をあ
らわしており、説明を簡単にするため撮影光学系(10)は
合焦状態にあるものとする。 【0028】図5(A) はケラレがなく適正状態にある被
写体像F(x) を示す図であり、図5(B) は、ケラレ状態
が生じているときの一様輝度の被写体に対する一対のイ
メージセンサアレイを構成する光電変換素子列をaセン
サー列とbセンサー列としてこれを添字としてあらわ
し、それぞれのアレイ上に形成される被写体像の強度分
布Va(x),Vb(x)(以後、これらをケラレ関数と呼ぶこ
とにする。)を示したものである。 【0029】従ってケラレ状態が生じている場合、図5
(A) の被写体を焦点検出光学系を介してイメージセンサ
アレイに投影すると、図5(C) に示すように、aセンサ
ー列上にはFa(x)=Va(x)×F(x) が結像し、bセンサ
ー列上にはFb(x)=Vb(x)×F(x) が結像する。 【0030】しかして、非合焦状態では、各列上の被写
体像が各列上にて互いにずれるので、そのズレ量を2Δ
とすれば、aセンサー列上にはFa(x)=Va(x)×F(x+
Δ)が結像し、bセンサー列上にはFb(x) =Vb(x)×
F(x−Δ) が結像する。 【0031】この非合焦状態での被写体像の出力は光学
系がケラレのない適正状態にあれば、ズレこそあれ強度
分布は同一であって重ねることができるはずであるが、
ケラレがあって不適正状態であると重ねることができな
い。 【0032】そこで、ケラレ状態検出手段(50)ではイメ
ージセンサーa列の出力a0 〜aNとb列の出力b0 〜
bN とを比較してケラレ状態を検出するものである。 【0033】焦点検出光学系(20),イメージ検知手段(3
0)または焦点検出手段(40)はケラレ状態検出手段(50)あ
るいは検出状態制御手段(60)の出力によりケラレ状態を
解消すべく特性を切り換えられるように構成されるので
あるが、まずイメージ検知手段(30)がそのように構成さ
れる場合を第1実施例として説明する。 【0034】焦点検出光学系(20)およびイメージ検知手
段(30)は、例えば図1で説明した従来例のように構成さ
れる。このような場合、焦点検出光学系(20)は同一でも
イメージセンサーの受光部形状を変えただけで、前記設
定瞳位置は共通でその瞳の大きさが異なるものが構成で
きる。従って、以下の第1実施例においては、異なる受
光部形状を持つイメージセンサーアレイ((31a),(32a)),
((31b),(32b)) が備えられているとし、また、焦点検出
光学系(20)は同一なものが配置されているとし、イメー
ジセンサーアレイを切り換えることでケラレ状態を解消
すべく特性が切り換えられるものとして説明を行なう。 【0035】イメージセンサーアレイ(31a) とイメージ
センサーアレイ(31b) とは等しい特性を有し互いに対を
なし、(図1のアレイ(13a〜15a)とアレイ(13b〜15b)の
対に相当)通常使用されるものである。また、イメージ
センサーアレイ(32a) とイメージセンサーアレイ(32b)
とも等しい特性を有し互いに対をなしている。アレイ(3
2a)とアレイ(32b)の受光部形状はイメージセンサーアレ
イ(31a),(31b)のそれより小さく形成されており、(す
なわち、イメージセンサーアレイ(31a),(31b)とは特性
が異なり)、このアレイ(32a),(32b) はケラレ状態が生
じた時に使用されるものである。 【0036】従って、イメージセンサーアレイ(32a),(3
2b) を使用する場合には設定瞳の大きさが小さくなり、
すなわち焦点検出のFナンバーが大きくなるので、イメ
ージセンサーアレイ(31a),(31b) を使用した時に焦点検
出光束がケラレていても、イメージセンサーアレイ(32
a),(32b) に切り換えれば焦点検出光束がケラレる可能
性が少なくなる。 【0037】イメージセンサアレイ(31a,(31b)はスイッ
チ手段(33a),(33b) に接続され、スイッチ手段(33a),(3
3b) は連動しており、スイッチ手段(33a) がイメージセ
ンサアレイ(31a) 側に切り換えられているときスイッチ
手段(33b) はイメージセンサアレイ(31b) 側に切り換え
られるようになっている。 【0038】スイッチ手段(33a) ,スイッチ手段(33b)
により切り換えられたイメージセンサアレイ(31a) の出
力を調整するフイルター手段(34)がスイッチ手段(33a),
スイッチ手段(33b) の後に設けられ、前記焦点検出手段
(40)はフイルター手段(34)を介してイメージ検知手段(3
0)に接続している。 【0039】焦点検出手段(40)はイメージ検知手段(30)
のフイルター手段(34)を介して伝達される出力から所定
のアルゴリズムに基づいて前記イメージセンサアレイ上
の一対の被写体像を比較して該一対の被写体像の相対偏
位量を求めるとともにその量をピントズレ量に換算して
求めるものである。 【0040】次に、この第1実施例の動作を説明する。
通常スイッチ手段(33a),(33b) はイメージセンサアレイ
(31a),(31b) を選択しているので、フイルター手段(34)
にはその出力が送出されている。 【0041】ケラレ状態が発生していない場合において
は、ケラレ状態検出手段(50)の出力は適正状態の出力
(例えば低レベル出力)に対応している。 【0042】従って、検出状態制御手段(60)はこの出力
を受け、スレッショルドレベルと比較するなどしてケラ
レ状態が発生しておらず適正状態にあると判断し、各作
動切換機構(スイッチ手段(33a) 等)に対して現在の状
態を保持するような制御信号を出力するとともに内部メ
モリーに現在選択している状態すなわちイメージセンサ
アレイ(31a),(31b) を選択していることを記憶する。 【0043】これにより、スイッチ手段(33a),(33b) は
引き続きイメージセンサアレイ(31a) ,(31b)を選択し、
その出力はフイルター手段(34)を介してそれ以後に伝達
され、オートフオーカス制御手段(70)も焦点検出手段(4
0)の出力であるピントズレ情報と検出状態制御手段(60)
の出力である適正状態にあるという情報に基づいてレン
ズ駆動手段にレンズ駆動制御信号を送出する。 【0044】一方、ケラレ状態が発生した場合には、ケ
ラレ状態検出手段(50)の出力は不適正状態が発生したこ
とを示す出力(例えば高レベル出力)を検出状態制御手
段(60)に送出し、検出状態制御手段(60)ではこの出力を
スレッショルドレベルと比較するなどしてケラレ状態が
限界を越えているものであることを判断し、各作動切換
機構に対してケラレ状態に対応するよう切り換える制御
信号を出力するとともに内部メモリーにそのことを記憶
する。 【0045】従って、スイッチ手段(33a),(33b) は検出
状態制御手段(60)の信号を受け、イメージセンサアレイ
(32a),(32b) を選択してその出力をフイルター手段(34)
に送出する。また、オートフオーカス制御手段(70)は検
出状態制御手段(60)からのケラレ状態にあるという制御
信号に基づきレンズ駆動制御モードを切り換える。例え
ば、低速モードあるいは停止モードとなる。 【0046】また一方、切り換えられたイメージセンサ
アレイ(32a),(32b) の出力がフイルター手段(34)を介し
て焦点検出手段(40)ケラレ状態検出手段(50)に送出さ
れ、それに基づきケラレ状態検出手段(50)はさらにケラ
レ状態の有無を判断し、検出状態制御手段(60)が適正状
態になったという制御信号を出力した場合には、オート
フオーカス制御手段(70)はその出力に基づき適正状態の
レンズ駆動制御モードに戻り、イメージセンサアレイ(3
2a),(32b) の出力により焦点検出手段(40)が検出したピ
ントズレ量に基づいて撮影光学系(10)を駆動すべくレン
ズ駆動手段にレンズ駆動制御信号を送出する。 【0047】また、検出状態制御手段(60)はイメージセ
ンサアレイ(32a),(32b) を選択している状態において
は、一定時間後にイメージセンサアレイ(31a),(31b) を
選択する状態に反転し、その状態で再びケラレ状態検出
手段(50)の出力によりケラレ状態の程度を検出する。こ
のようにすることによりレンズ交換等によりケラレ状態
が解消していたような場合には、検出精度のよいイメー
ジセンサアレイ(31a),(31b) に切り換えて選択すること
が可能となる。もし、一定時間後にイメージセンサアレ
イ(31a),(31b) を選択したときケラレ状態検出手段(50)
がケラレ状態を検出し、検出状態制御手段(60)でそれが
限界を越えていると判断したときはイメージセンサアレ
イ(32a),(32b) が再び選択される。 【0048】さらに、イメージセンサアレイ(32a),(32
b) を選択している状態において、なおケラレ状態検出
手段(50)の出力がケラレ状態を示し、検出状態制御手段
(60)においてそれが限度を越えていると判断した場合に
は、検出状態制御手段(60)は破線矢示(61)を介してケラ
レ状態警告表示手段に出力し、使用者に警告する。 【0049】また、一対のイメージセンサアレイ(31a),
(31b) ともう一対のイメージセンサアレイ(32a),(32b)
とのいずれを選択するかで、焦点検出の検出Fナンバー
が異なり、一対の被写体像の相対偏位量からピントズレ
量に換算する際の係数の値が異なってくるので検出状態
制御手段(60)がイメージセンサアレイのいずれの対を選
択しているかという信号が検出状態制御手段(60)から焦
点検出手段(40)に送られ、前記相対偏位量とピントズレ
量の換算係数を切り換える。 【0050】なお、上記第1実施例においては、イメー
ジセンサアレイを2組備えたものを示したが、2組以上
設け、ケラレ状態検出手段(50),検出状態制御手段(60)
の出力に応じて適宜選択的に切り換えるようにしてもよ
い。また、ケラレ状態検出手段(50)はスイッチ手段(33
a),(33b) の出力を直接受けるようにしてもよい。さら
に、特開昭54−104859号公報に開示された装置
の場合には、イメージセンサアレイを複数組備えるので
はなく、焦点検出光学系中の絞りやフイールドレンズを
切り換えるようにしてもよい。 【0051】次に焦点検出光学系(20)を第1実施例と同
様に固定し、イメージセンサアレイも1組にした第2実
施例につき説明する。この第2実施例においては、第1
実施例におけるイメージセンサーアレイ(32a),(32b) お
よびスイッチ手段(33a),(33b) は不必要である。 【0052】図3に示すように、フイルター手段(34)に
はフイルター特性の異なる第1フイルタ(34a) と第2フ
イルタ(34b) との二つのフイルターが用意されている。 【0053】例えば、正常状態について使用する第1フ
イルタ(34a) においては、人の顔のように低周波成分を
含む被写体についても焦点検出が可能にするため、図4
(A)に示すように、低周波でかなり高い値を示す伝達関
数H1(w)を有するものとし、ケラレ状態が生じたとき使
用する第2フイルタ(34b) では、一般的にケラレが発生
した場合その影響は低周波成分に効いてくるので、図4
(B) に示すように、低周波でかなり小さな値を示す伝達
関数H2(w)を有するものにしてある。なお、図4におい
てfn はイメージセンサを構成する光電変換素子のピッ
チをdmmとしたときのナイキスト周波数1/(2d)
(本/mm)である。 【0054】また、焦点検出手段(40)は第1フイルタ(3
4a),第2フイルタ(34b) に応じ、検出状態制御手段(60)
の出力に応じて切り換えられる複数のアルゴリズム(40
a),(40b) を具備している。 【0055】アルゴリズム(40a),(40b) は、例えば、前
述のようにケラレ状態の発生の有無によってフイルター
手段(34)の特性を切り換えて低周波成分の除去を行なう
のと同様にフイルター手段(34)の出力を焦点検出手段に
とりこむときのサンプリング間隔を焦点検出手段(40)に
フィルター手段(34)の出力が入力した時点で切り換えた
り、ケラレの影響の大きい画面中心から離れた点でのデ
ータを切り捨てること、すなわち測距エリアを可変にす
るよう構成されている。また、ケラレの発生している場
合には低周波成分に影響がでるので、通常はそのまま焦
点検出に用いているフイルター手段(34)の出力を例えば
対数変換して焦点検出することも考えられる。 【0056】第2実施例におけるその他の構成は第1実
施例と同様である。次に、第2実施例の動作を説明す
る。基本的動作は前記第1実施例と同様である。ケラレ
状態が生じていないときは、フイルター手段(34)では第
1フイルタ(34a) が選択され、焦点検出手段(40)でアル
ゴリズム(40a) が選択されている(この状態を今後通常
モードと呼ぶ)。 【0057】通常モードにおいては、イメージセンサア
レイからの被写体像情報出力は第1フイルタ(34a) でフ
イルタリングされ、焦点検出手段(40)のアルゴリズム(4
0a)でピントズレ量が検出され、その後のケラレ状態検
出手段(50),検出状態制御手段(60),オートフオーカス
制御手段(70)の動作は第1実施例と同様であり、検出状
態制御手段(60)は通常モードを選択していることを記憶
している。 【0058】ケラレ状態が発生したときは、ケラレ状態
検出手段(50)が先ずこれを検出し、これを受けた検出状
態制御手段(60)が制御信号を出力し、これによりフイル
ター手段(34)では、第2フイルタ(34b) に、焦点検出手
段(40)では、アルゴリズム(40b) に切り換えられる(こ
の状態を今後不適正モードと呼ぶ) 。また、検出状態制
御手段(60)は不適正モードを選択していることを記憶し
ている。 【0059】不適正モードになると、第1実施例と同様
に、オートフオーカス制御手段(70)はレンズ駆動制御モ
ードを低速モードあるいは停止モードに切り換える。そ
して、不適正モードにおける状態を再度ケラレ状態検出
手段(50)が検出し、不適正状態が解消しているときは、
不適正モードのままでオートフオーカス制御手段(70)は
レンズ駆動制御モードを通常状態に戻し、撮影光学系(1
0)を焦点検出手段(40)からのピントズレ量情報に基づき
駆動する。 【0060】さらに、検出状態制御手段(60)が一定時間
後に通常モードに反転して再検出を行ない、また、不適
正モードによってもなおケラレ状態が解消しないとき、
ケラレ状態警告表示手段により使用者に警告するのも第
1実施例と同様である。 【0061】なお、ケラレ状態検出手段(50)はフイルタ
ー手段(34)を介することなくイメージセンサアレイの出
力を直接受けるようにしてもよい。この場合には、検出
状態制御手段(60)は不適正モードを選択している状態で
一定時間後に反転する必要はなく、ケラレ状態検出手段
(50)の出力に応じて反転すればよく、オートフオーカス
制御手段(70)もケラレ状態検出手段(50)の出力するケラ
レ状態の程度を示す信号に応じてそのモードを切り換え
ればよい。 【0062】また、フイルター手段(34)と焦点検出手段
(40)とを同時に切り換えることなく、いずれか一方のみ
を切り換えるようにしてもよく、焦点検出手段(40)のみ
による場合はフイルター手段(34)を介さない信号を解析
できる複数のアルゴリズムを用意する。また、フイルタ
ー手段(34)の前に対数変換手段等を設けて組み合わせて
もよい。さらに、第1実施例におけるイメージセンサア
レイを切り換えるものと組み合わせてもよく、フイルタ
ー手段(34)を切り換えるものと組み合わせる場合、不適
正モード用のイメージセンサアレイに切り換えてもなお
ケラレ状態が解消しないとき、フイルター手段(34)に強
力に低周波成分を除去するフイルターを備えるとよい。 【0063】次にケラレ状態検出手段(50)の詳細な内容
をいくつかの実施例をあげて説明する。先ず、第1の実
施例の原理は、ケラレ状態が生じているときは、対にな
っているイメージセンサアレイの出力同志の相関度を示
す関数の最大値(あるいは最小値)がケラレ状態が生じ
ていない場合の最大値(あるいは最小値)よりも小さく
(あるいは大きく)なるという事実に基づいている。 【0064】図6(A) は図1で説明したようなaセンサ
ー列とbセンサー列とが対をなしているイメージセンサ
アレイの夫々の列の出力をaセンサー列は〇印で、bセ
ンサー列は×印であらわしたもので、ケラレ状態は発生
しておらず、被写体像はaセンサー列およびbセンサー
列上に互いにずれて(合焦している場合には重なって)
結像している。 【0065】そこで(1) 式のように相関関数を定義す
る。各センサー列はa0 〜aN ,b0〜bN のN+1個
のデータを出力するものとし、 【0066】 【数3】 【0067】 T=K-(S+1)/2 …S:奇数,T=K-S/2 …S:偶数 (1) 式において変数Sを動かす範囲をSmin 〜Smax と
すると、定数K,Lはそれぞれ、 Tmin ≧1,Tmin+Smin ≧1, Tmax+L≦N,Tmax+L+ Smax ≦N の条件を満足するものとする。 【0068】なお、(1) 式の相関関数の定義において
は、差の絶対値の項の加算の数をLに固定して考えてあ
るが、加算項数Lを変数Sによって変化させてもよく、
その場合に加算項数Lで(1) 式を規格化するようにして
もよい。 【0069】しかして、図6(A) に示す場合の相関関数
C(S) は図6(B) に示すように、点Sm において最小値
C(Sm)をとる。 【0070】C(S) はSが整数の場合について計算され
るので、最小値C(Sm)は一般に適当な内挿により求めら
れる。 【0071】例えば、図6(B) に示すように、Sが整数
における最小値をC(So)とし、また、その隣接する相関
値をそれぞれC(So-1), C(So+1)とし、これらよりC(S
o)とC( So-1) あるいはC(So+1)とを結ぶ直線と傾きが
等しく符号が異なる2直線でC(Sm ) を内挿した場合に
は次の(2) 式のように最小値C(Sm)を求めることができ
る。 【0072】 【数4】 【0073】一般にケラレ状態が生じていない場合には 【0074】 【数5】 【0075】である。 【0076】ところが、ケラレ状態が生じている場合に
同様にして各センサー列の出力から最小値C(Sm)を求め
ると、相関度が低くなり、最小値C(Sm)も0にはなら
ず、かなり大きな値となる。 【0077】従って、(1) 式,(2) 式により各センサー
列の相関の最小値を常に求めてモニターし、最小値C(S
m)が所定値よりも大きくなったことを検出することによ
りケラレに状態が生じていることを検出することができ
る。そして、その値の大きさによってケラレ状態の程度
を検出することができる。 【0078】この最小値C(Sm)の値はまさに図5(C) に
示す合焦時の両パターンの差の部分の面積を示してお
り、ケラレ状態の程度を正しく反映している。 【0079】もし、光電変換素子出力の平均値を一定と
するようにAGC(Auto Gain Control) がかかっている
場合には、直接C(Sm)の値をケラレ状態の程度の量のパ
ラメータとして用いることができ、また、そのようなA
GCがかかっていない場合には前記光電変換素子出力の
平均値を割り算してやればやはりケラレ状態の程度の非
常によい指標となる。 【0080】この最小値C(Sm)を指標として用いるやり
方は、この量が焦点検出手段(40)での焦点検出演算の結
果自動的に算出される量なので特にケラレ状態検出のた
めの演算が不要となり非常に都合がよい。 【0081】また、さらに、光電変換素子出力を対数化
したデータに関して上記C(Sm)を用いた場合について考
えると、図5に示したように、ケラレ状態の乗った各セ
ンサー列上の被写体像の関数の対数化は次の(2-1) 式の
ようになる。 【0082】 【数6】 【0083】上式に示すようにケラレ状態の成分を完全
に分離して抽出できるので非常に好都合である。また、
上式の差の絶対値をとると被写体像の項は差し引かれ、
次式のようにケラレ状態の成分だけとなる。 【0084】 【数7】 【0085】従って、このように対数化されたデータよ
り求められたC(Sm)の量を相関の加算の項数に関連した
量で割ることにより簡単に後述のケラレ状態を直線で近
似したときの傾き(後述するγ)に相当する量が求めら
れる。このように最小値C(Sm)を用いればわずかの演算
量でケラレ状態量をモニターしかつ補正量の算出も容易
に行なうことができる。 【0086】なお、第1の実施例においては、イメージ
センサーアレイを構成するaセンサー列とbセンサー列
との出力により相関を求めていたが各センサーの出力を
フイルタリングした出力から相関を求めることもでき
る。 【0087】また、被写体によって相関関数C(S) の値
が大きく異なるのでC(S) を規格化して用いることもで
きる。例えば、相関関数の最大値Cmax によって(1) 式
で求めた相関関数C(S)を割ることによって次の(3)式の
ような相関関数が得られる。 【0088】 【数8】 【0089】さらにまた、相関関数C(S) を求める方法
としては(1) 式以外のものでも2組の出力の相関関係が
求められるものであればよい。例えば、次の(4) 式に示
すような乗算型の相関関数であってもよい。 【0090】 【数9】 【0091】この場合には、相関度の高い点はピークと
してあらわれ、被写体像によってこのピークがばらつい
てしまうが、例えばピーク値をaセンサー出力あるいは
bセンサー出力の自己相関関数のピーク値によって規格
化すれば、この規格化されたピーク値の高さをモニター
することによりケラレ状態の程度を検出することができ
る。 【0092】図8(a) は上記説明したケラレ状態検出手
段(50)の第1の実施例の具体的なブロック図である。イ
メージセンサーアレイ(31a),(31b) または(32a),(32b)
の一対の出力あるいはフィルター手段(34)の一対の出力
は、相関値計算手段(51)に入力され、相関値計算手段(5
1)は一対の入力の相関関数の最小値(または最大値)C
(Sm)を比較手段(53)に出力する。一方、基準値発生手段
(52)は基準値(Qc)を比較手段(53)に出力しているので、
比較手段(53)は相関関数の最小値(または最大値)C(S
m)と基準値(Qc)とを比較して、相関関数の最小値(また
は最大値)C(Sm)が基準値(Qc)より大きい(あるいは小
さい)場合には、前記検出状態制御手段(60)に対しケラ
レが発生していることを示す信号を送出する。なお、上
記装置は相関値計算手段(51)により相関関数の最小値
(または最大値)C(Sm)を求めたが、焦点検出手段(40)
の内部で相関関数の最小値(または最大値)C(Sm)を得
る場合にはその計算された相関値をそのまま比較手段(5
3)へ導いてもよい。 【0093】上記のケラレ状態検出手段(50)において
は、相関関数の最大値(あるいは最小値)の値よりケラ
レ状態の程度を検出するものであったが、適正状態にあ
っても、例えば、aセンサー列とbセンサー列とのバイ
アスレベルに違いがあったような場合でも、相関関数の
最大値(あるいは最小値)の値が下がり(あるいは上が
り)ケラレ状態が発生しているものと誤って検出してし
まうおそれがある。 【0094】このようなおそれを回避したケラレ状態検
出手段(50)の第2の実施例を次に説明する。 【0095】この実施例は、ケラレ状態関数は一般に図
5(B) に示すごとく、画面中心部を測距部とする各セン
サー列において中心部に対して対象的な形になっている
ことを利用している。 【0096】図7は、相関度の一番高い位置へケラレ状
態が生じている場合の各センサーの出力を互いにずらし
て重ね合わせた状態を示している。互いにずらす量は図
6(C) に示す相関関数C(S) の最小値をとる点Sm より
簡単に換算できる。 【0097】図7において、〇印はaセンサー列出力,
×印はbセンサー列出力を示している。一般に互いのず
らし量はセンサー列を構成する光電変換素子ピッチの整
数倍にはならないので、図においてδ(0<δ<1)で示す
偏位量を有している。 【0098】両センサー列の出力を比較すると、中心部
から左側ではbセンサー列の出力がaセンサー列の出力
より大きく、中心部から右側では逆になっている。従っ
て、ケラレ状態が生じている場合には両センサーの出力
の差を積分すれば中心部の左側の領域と右側の領域とで
はその積分値の符号が反対になる。 【0099】一方、ケラレ状態は生じていないのに、両
センサーの出力のバイアスレベルに違いがあった場合に
は前記積分値は中心部の左側の領域でも右側の領域でも
同じ符号をとるのでケラレ状態が生じている場合とは区
別することができる。 【0100】図7において、a センサー出力aM に対す
る、同位置でのbセンサー出力bMをa センサー出力aM
をはさむbセンサー出力bK およびb(K+1) とセンサ
ーピッチを単位とした場合の偏位量の小数部δ(0 ≦δ
<1)とにより補間で求めると、(5) 式のようになる。 【0101】 【数10】 【0102】従って、次の(6) 式のようにケラレ状態検
出関数Hを定めると、この関数Hの大小によってケラレ
状態を検出することが可能である。 【0103】今、K=M+q(qは最大相関を得るずら
し量によって定まる定数)とすれば、関数Hは、所定の
点をあらわす定数Mを一般的な位置をあらわす変数nに
置きかえることにより、 【0104】 【数11】 【0105】としてあらわされる。したがって、この値
Hが所定の値を越えたことを検出することによりケラレ
状態の生じていることを検出することができる。 【0106】なお、前記第2の実施例においては、両セ
ンサー列の出力の積分をする領域を中心部から左右の区
間としたが、ケラレ状態の影響が大きくでる中心部から
離れた区間だけを各々積分区間としてもよく、区間を2
つ以上の複数設けて各々の積分値を比較するようにして
もよい。 【0107】さらに、第2の実施例においてセンサー列
出力の差が出力の大きさに関係してしまうので、出力の
差を各々のセンサー列出力の和によって規格化するよう
にしてもよい。またさらに、両センサー列の出力をフイ
ルタリングした出力により関数Hを求めてもよい。 【0108】図8(b) は上記説明したケラレ状態検出手
段(50)の第2の実施例の具体的なブロック図である。イ
メージセンサーアレイ(31a),(31b) または(32a),(32b)
の一対の出力(フィルター手段(34)を介さない場合はこ
の出力)あるいはフィルター手段(34)の一対の出力が、
相関値計算手段(51)と偏位手段(54)に入力される。相関
値計算手段(51)は一対の入力の相関関数の最小値(また
は最大値)C(Sm)を求め、その時の偏位量Sm を偏位手
段(54)に出力する。偏位手段(54)は前記一対の入力を偏
位量Sm だけ相対偏位させて積分手段(55)および(56)に
出力する。積分手段(55)は相対偏位させられた一対の入
力間の差の積分を入力関数の中心から一方の領域Rで行
ない、積分値Sgrを差分手段(57)に出力する。 【0109】同様に、積分手段(56)は相対偏位させられ
た一対の入力間の差の積分を積分手段(55)の場合とは反
対側の領域Lで行ない、積分値Sglを差分手段(57)に出
力する。差分手段(57)は入力された上記2つの積分値の
差Sg =Sgr−Sglを求め、絶対値化手段(58)に出力
し、絶対値化手段(58)は積分値差Sg の絶対値│Sg │
を比較手段(53)に出力する。一方、基準値発生手段(52)
は基準値Qs を比較手段(53)に出力しているので、比較
手段(53)は2つの出力を比較して絶対値│Sg │が基準
値Qs より大きい場合には前記、検出状態制御手段(60)
に対しケラレが発生していることを示す信号を送出す
る。 【0110】なお、焦点検出手段(40)の内部で相関値C
(Sm)を得る偏位量Sm を求める場合には、この値Sm を
直接、偏位手段(54)へ入力し、相関値計算手段(51)を省
略してもよい。 【0111】次に、ケラレ状態検出手段(50)の第3の実
施例について説明する。この第3の実施例の原理は、図
5(B) に示されているケラレ関数Va(x),Vb(x)が一般
的には次の(7) 式で示すような傾きγを持つ直線であら
わされることが多いので、両センサー列の出力より傾き
γを求め、このγの値の大小によりケラレ状態の程度を
検出するものである。 【0112】 【数12】 【0113】従って、aセンサー列、bセンサー列上の
被写体像Fa(x),Fb(x)は、合焦している場合には、被
写体像関数をF(x)として次の(8)式のようにあらわされ
る。 【0114】 【数13】 【0115】(8) 式よりF(x) を消去してγを求めると
次の(9) 式のようになる。 【0116】 【数14】【0117】よって、Fa(x)としてaセンサー列n番目
素子の出力an ,Fb(x)としてbセンサー列n番目素子
の出力bn ,xとして中心部からそのセンサー素子位置
までの距離Sを(9) 式に代入すれば、次の(10)式のよう
に各センサー素子位置でのケラレ関数の傾きγを求める
ことができる。 【0118】 【数15】 【0119】(10)式において、Pはセンサー列形成素子
のピッチ、cはセンサー列中心素子の番号である。 【0120】一方、合焦していない場合は、第2の実施
例において図7で説明したように、相関度の一番高い位
置へ両センサー列の出力を互いにずらせて重ね合わせて
から合焦時の場合と同様にして傾きγを求めることがで
きる。 【0121】この場合、両センサー列の素子の位置が必
ずしも整数分ずれるとは限らないので、一方の出力は前
記(5) 式により補間して求めるようにすればよい。 【0122】従って、両センサー列の出力を常にモニタ
ーすることにより、適宜な位置での出力をサンプリング
して(10)式により傾きγを容易に求めることができ、そ
の大小によりケラレ状態の有無を検出することができ
る。よって、傾きγが所定値より大きいことを検出する
ことによりケラレ状態が生じていることを検出すること
ができる。そして、この傾きγの大小によりケラレの程
度を検出することもできる。 【0123】なお、傾きγは一点で求めるだけでなく複
数の素子位置間で求め、その平均値により定めたほうが
精度はよい。 【0124】また、素子位置が中心部より離れているほ
うが出力間の差が大きく出るために精度が上がるので、
中心部を除いた領域で傾きγを求めることが望ましい。 【0125】同様に、被写体像F(x) が大きな値を持つ
領域、すなわちFa(x)とFb(x)との和が大きな値を持つ
素子間で傾きγを求めた方が精度がよいので、an +b
n が所定値以上の点での傾きγを求めて平均するとよ
い。 【0126】また、この第3の実施例においても、両セ
ンサー列の出力を直接用いることなく、フイルタリング
した出力を用いてもよいことはいうまでもない。 【0127】さらにまた、ケラレ関数の傾きγを求める
ことができると、これを焦点検出手段(40)にフイードバ
ックしてケラレ状態の影響を補正することができる。 【0128】すなわち、焦点検出手段(40)に入力するイ
メージセンサーアレイ対の出力(あるいはフイルタリン
グ手段の出力)をAn,Bn とすれば、次の(11)式により
補正した出力An1,Bn1を求めることができ、それによ
り出力を補正することができる。 【0129】 【数16】 【0130】nはセンサー列出力あるいはフイタリング
出力の順番を示す番号、cはnのうちで画面中心に対応
している位置の番号、Pは素子ピッチあるいはフイルタ
リング出力のサンプリング間隔を画面上の距離に換算し
た値である。 【0131】図8(c) は上記説明したケラレ状態検出手
段(50)の第3の実施例の具体的なブロック図である。イ
メージセンサーアレイ(31a),(31b) または(32a),(32b)
の一対の出力(フィルター手段(34)を介さない場合はこ
の出力)あるいはフィルター手段(34)の一対の出力が、
相関値計算手段(51)と偏位手段(54)に入力される。相関
値計算手段(51)は一対の入力の相関関数の最小値(また
は最大値)C(Sm)を求め、その時の偏位量Sm を偏位手
段(54)に出力する。偏位手段(54)は前記一対の入力を偏
位量Sm だけ相対偏位させて傾き検出手段(59)に出力す
る。 【0132】傾き検出手段(59)は、相対偏位させられた
一対の入力より(10)式に基づいて傾きγを検出し、絶対
値化手段(58)に出力する。絶対値化手段(58)は傾きγの
絶対値│γ│を比較手段(53)に出力する。一方、基準値
発生手段(52)は基準値Qg を比較手段(53)に出力してい
るので、比較手段(53)は2つの入力を比較し、絶対値│
γ│が基準値Qg より大きい場合には、ケラレが発生し
ていることを示す信号を前記検出状態制御手段(60)に送
出する。 【0133】なお、前記傾き検出手段(59)の出力、すな
わち傾きγを前記焦点検出手段(40)にフィードバックし
て一対の入力を傾きγによって補正するようにしてもか
まわない。 【0134】以上、ケラレ状態検出手段(50)の3つの実
施例について説明したが、これらに限られることなく、
実際にケラレ状態を発生する要因が重畳してくるイメー
ジセンサアレイ対の出力からケラレ状態を検出するもの
であればよい。また、装着レンズからのレンズ情報(開
放Fナンバーや射出瞳位置等)を検出する手段を組み合
わせてもよい。 【0135】次に、ケラレ状態検出手段および検出状態
制御手段を実現する手法としては、これらが比較、演算
する機能を要することから、マイクロコンピュータで実
現することができる。また、個別の、あるいは一体的に
した回路で実現することもできる。一般に焦点検出手段
をマイクロコンピュータ内のプログラムとして構成する
場合には、センサー出力のメモリー上での共有あるいは
各手段間のインターフエイス等を考慮するとケラレ状態
検出手段および検出状態制御手段もプログラムとして構
成した方が有利である。 【0136】また、実施例ではアンバランス状態として
ケラレを挙げて説明したが、ゴーストあるいは一対のイ
メージセンサアレイの劣化による能力差等から来るノイ
ズ等のアンバランス状態に対しても本発明を適用できる
ことはいうまでもない。 【0137】この場合、センサー出力のメモリーはフイ
ルタリング手段の前、または後あるいは双方について置
かれることになり、記憶されたこれらセンサー出力デー
タあるいはフイルタリング手段出力データを用いて焦点
検出演算、検出状態検出演算をマイクロコンピユータに
より行なう。 【0138】 【発明の効果】本発明に係る、自動焦点検出装置によれ
ば、相関度検出手段により相関度を検出することで、イ
メージセンサのどの出力範囲の焦点検出精度が悪いのか
を判断することができ、焦点検出精度のよい領域での焦
点演算が可能となる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic focusing system for a TTL camera.
The present invention relates to a point detection device. 2. Description of the Related Art Conventionally, a focus detection device for a TTL camera has been used.
The luminous flux coming from different areas of the pupil of the imaging optical system
The photographing optical system is determined based on the relative displacement of the plurality of subject images.
Of the so-called pupil division method that detects the focus adjustment
Point detection devices are known. For example, Japanese Patent Publication No. 57-49
No. 841 discloses a lens holder disposed near the primary image plane.
Pair with the light-receiving element array
An automatic focus detection device of this kind composed of rays is disclosed.
ing. Further, Japanese Patent Application Laid-Open No. 54-104859 discloses
Is the field lens located on the primary image plane and the primary image plane
Re-imaging lenses for re-imaging the formed image on the secondary image plane
And two image sensor arrays arranged on the secondary image plane
This type of automatic focus detection device is disclosed.
You. [0004] However, this is not the case.
In such a conventional pupil division type automatic focus detection device,
It had the following disadvantages. That is, this species
In the automatic focus detection device, the optical system on the focus detection side
Therefore, a predetermined F is set on a plane orthogonal to a predetermined position on the optical axis.
Since the number pupil is specified, the F number of the exit pupil
Is greater than the given F-number or the exit pupil
F number is the same or smaller than this predetermined F number
Also, an interchangeable lens whose exit pupil position is different from the predetermined position
When mounted on a camera body having the automatic focus detection device
In that case, the exit pupil causes vignetting in the focus detection light beam.
Vignetting may occur on the image plane on the focus detection optical system side.
If the image is not uniform, the image of the subject will be distorted,
Focus detection could not be performed. [0005] This disadvantage is disclosed in Japanese Patent Publication No. 57-49841.
1 will be described in more detail with reference to a conventional example disclosed in US Pat.
You. FIG. 1A is a schematic side view of the device, and FIG.
FIG. 4 is a front view of a conversion element. A field lens behind the taking lens (11)
(12) is located near the focal plane after the field lens (12).
A plurality of micro lenses (13), (14), (15) ...
Pairs behind them corresponding to lenses (13), (14), (15) ...
Photodetectors ((13a), (13b)), ((14
a), (14b)), ((15a), (15b))... The light receiving sections (13a)... Have the subscripts a and b
Image sensor array, each micro lens
The position of the light receiving unit, which is a pair of photoelectric conversion
The exit pupil position of the lens (11) is approximately the same for each microlens.
The curvature of each micro lens is formed so as to come to the position of the role.
You. In addition, the field lens (12)
The closer the microlens is to the lower end, the more the optical path needs to be bent.
The exit pupil of the taking lens (11) is at the predetermined position (16).
When the image on the light receiving surface of each pair of photoelectric conversion elements
So that they exist completely overlapping each other
The image of the light receiving sections (13a), (14a), (15a).
Images of the photoelectric conversion elements (13b), (14b), (15b) ... at the position (11a)
Are positioned so that they overlap each other at position (11b).
The curvature of the small lens is determined (hereinafter each photoelectric conversion element
Field lens (12), micro lens (13) etc.
Set the position where the images from the focus detection optics overlap each other
Eye position). [0008] In this automatic focus detection device,
The luminous flux that is inserted is almost
Only when there is no failure, that is, F number
Small bright lens or large F-number
Even if the exit pupil position is equal to the set position, vignetting
For a lens in which the effect of
Focus detection can only be performed effectively. For example, in the case of a 35 mm single-lens reflex camera,
If you think about it, the exit pupil of an interchangeable lens that is a shooting lens
The position is from about 50mm from the focal plane to over 400mm
The F-number is also F1.2
There are dark objects that range from F11 to F11. If an automatic focus detection device corresponding to FIG.
In this case, the set pupil position (16) is set at 100 mm from the focal plane (hereinafter referred to as the pupil position).
Thereafter, the distance between the set pupil position and the focal plane is represented by PO. did
Therefore, in this case, design at PO = 100 mm) and use it for detection.
Spread of the luminous flux to be used, that is, the light receiving portion ((13a), (13b)),
((14a), (14b)), ((15a), (15b))
Do not design the limited spread of the detection light beam to F4.
If it is darker than F4 and the distance between the exit pupil position and the focal plane
(Hereafter, this will be referred to as PO '.)
With regard to interchangeable lenses, the detection accuracy of the automatic focus detection
It will be much lower. This will be described with reference to FIG.
Compare the appearance and degree of vignetting with various shooting lenses
FIG. 4 is an explanatory diagram showing the detection light flux with respect to the above design value.
4. When the set pupil position is PO = 100mm,
Size is F6 and PO '= 100mm, 50mm, ∞
Is shown. FIG. 2A shows a case where PO '= 100 mm.
Each of the photoelectric conversion elements receiving the light beam having the spread of F4
The light-receiving parts ((15a), (15b)), ((14a), (14b))
The light beams that have passed through the pupil of F6 at the light receiving portions ((15
a), (15b)), ((14a), (14b)) ...
Equally assigned. Therefore, when the subject has uniform brightness
As shown in FIG. 2 (D), the output of each light receiving section (15a).
(15a1), (15b1), (14a1)... Become uniform. In other words, this place
The detection accuracy despite vignetting
No degradation occurs. That is, by the row of the photoelectric conversion element pairs,
It is possible to detect a shift between two images. FIG. 2B shows the case where PO '= 50 mm, and
Light passing through the pupil of the photographic lens at F6 as shown in FIG.
Light section (15a) ... distributed at different ratios for each location
You. Therefore, the output of each light receiving section (15a) at this time is shown in FIG.
As shown in (E), the output is (15a1) ...
The output to be done is significantly different. Here, the minute lenses (13) at both ends and the minute lenses (13)
The position of the lens (15) is from the center micro lens (14)
Fig. 2 for the case of + 2.5mm and -2.5mm
When the degree δ of vignetting in (E) is calculated, the average is 1
Approximately, Is a very large value. That is, the pair
The photoelectric output of the photoelectric conversion element
Regardless, the output varies greatly depending on vignetting
In such a situation, the photoelectric conversion element
It is very difficult to detect a shift between two images by a pair.
You. FIG. 2C shows a case where Po '= ∞.
The vignetting in this case is completely opposite to that in FIGS. 2 (B) and 2 (E). You
That is, the photoelectric output for a subject of uniform brightness is shown in FIG.
(F), the degree of vignetting δ is ± 2.5mm
In [0018] [Equation 2] Approximately. That is, the case of FIG.
Similarly, the photoelectric output of the pair of columns of the photoelectric conversion elements has a uniform luminance.
Despite vignetting, output varies greatly with vignetting
And it is very difficult to detect a shift between two images.
You. As described above, the accuracy of focus detection is adversely affected.
In order to avoid the situation, the set pupil position is common
With different pupil sizes, and therefore different F-numbers
Providing multiple focus detection means and switching between them
A plurality of focus detection means having different formulas and set pupil positions are provided.
The aperture of the focus detection optical system
The method of changing the focus and the situation that adversely affects the focus detection
Switch the processing system of the image sensor output when
Switching, such as changing the filter characteristics or focusing
The method used to switch the algorithm
The situation that adversely affects the focus detection is predicted in advance
Various methods of measuring and switching manually, and attached lenses
System that automatically detects the open F-number of the
Furthermore, the F-number and pupil position are detected and automatically turned off.
An alternative method is conceivable. [0021] However, these methods still have
It has the following disadvantages. That is, in the case of manual operation,
The user has to decide how to switch,
Not only is it cumbersome,
There was a risk of being wrong. Further, even if the automatic switching is performed,
It can be switched uniquely depending on the specifications of the attached lens.
Therefore, the vignetting that actually occurs depends on the open F number of the lens.
Lens and exit pupil position, as well as lens extension and aperture
Diameter and position of restricted part of lens other than, dirt on lens surface
Various factors such as non-uniform transmittance due to
In such a case, it is truly immediate
Adjustments cannot be made, and the lens
A mechanism that transmits the exit pupil position from the lens side to the camera body side
Required and expensive.
Was. The present invention eliminates the above-mentioned conventional disadvantages.
And a pair of focus detection optical systems such as vignetting.
Detects imbalance in the subject image and automatically corrects it
Focus detection device that enables accurate and accurate focus detection
It is intended to provide. In order to achieve the above object,
The main point is that the pupil of the imaging optical system has different areas
Focus detection that forms a pair of subject images from light beams incident from
An output optical system and a pair of images for receiving the pair of subject images.
Image sensing means having a sensor array;
From the relative displacement of a pair of outputs from the image detection means,
Focus detection means for detecting a focus adjustment state of the photographing optical system
And the degree of correlation between a pair of outputs from the image detecting means.
The correlation degree detecting means for detecting, and the correlation degree detecting means
Depending on the detected degree of correlation,
Changing means for changing the range of a pair of outputs of
An automatic focus detection device. According to the automatic focus detection device of the present invention, the correlation
Means for detecting the degree of output of a pair of outputs from the image detecting means.
Detects the degree of relevance, thereby determining which output of the image sensor
It is determined whether the focus detection accuracy of the range is poor, and the
According to the degree of correlation detected by the degree of correlation detection means,
Changing the range of a pair of outputs from the image detection means
With this, the focus calculation is performed in the area where the focus detection accuracy is good.
You. Hereinafter, various embodiments of the present invention will be described with reference to the drawings.
I will tell. FIG. 3 is a block diagram common to the embodiments of the present invention.
There is a subject image constituted by the photographing lens (11) and the like.
The field optical system (10) for forming
The focus detection optical system (20) composed of the lens (12)
The point detection optical system (20) has a pair of image sensor arrays
Image detection means (30)
Filter means (34) and focus detection means (40)
The vignetting state detection means (50) follows the output means (40), and further,
Various operation switching machines in response to the output of vignetting state detection means (50)
The detection state control means (60) for controlling the structure is a vignetting state detection means.
When connected to the step (50) and receiving the output of the focus detection means (40)
Shooting controlled by the output of the detection state control means (60)
Auto focus control means (7) for driving and controlling the optical system (10)
0) is provided, and the auto focus control means (70) is
The output (71) is output to a lens driving means (not shown).
You. A part of the output of the detection state control means (60) is indicated by a broken arrow.
(61) to the vignetting state warning display means (not shown)
Output. The vignetting state detecting means (50) is a main part of the present invention.
The details will be described later, but only the main points
5 will be described. FIG. 5 shows the image by the focus detection optical system.
The intensity distribution of the subject image formed on the
For simplicity of explanation, the shooting optical system (10) is
It is assumed that the camera is in focus. FIG. 5 (A) shows a case where there is no vignetting and the state is proper.
FIG. 5B is a diagram showing a mapping image F (x), and FIG.
A pair of images for a subject with uniform brightness when
The photoelectric conversion element array forming the image sensor array is a
Expressed as subscripts for the seri row and b sensor row
The intensity of the subject image formed on each array.
Cloth Va (x), Vb (x) (hereinafter referred to as vignetting function)
And ). Therefore, when the vignetting state occurs, FIG.
(A) image sensor through focus detection optical system
When projected onto the array, as shown in FIG.
-On the row, Fa (x) = Va (x) × F (x) forms an image and the b sensor
Fb (x) = Vb (x) × F (x) forms an image on the column. In the out-of-focus state, the object on each row
Since the body images are shifted from each other on each row, the shift amount is 2Δ
Then, Fa (x) = Va (x) × F (x +
Δ) forms an image, and Fb (x) = Vb (x) ×
F (x−Δ) forms an image. The output of the subject image in this out-of-focus state is optical.
If the system is in the proper state without vignetting, the deviation is the strength
The distributions should be identical and can be overlapped,
If there is vignetting and it is in an inappropriate state, it can not be repeated
No. Therefore, the vignetting state detection means (50)
Output a0 to aN of column a and output b0 of column b
This is to detect the vignetting state by comparing with bN. The focus detecting optical system (20) and the image detecting means (3
0) or the focus detection means (40) is the same as the vignetting state detection means (50).
Or vignetting state by the output of the detection state control means (60).
It is configured so that the characteristics can be switched to eliminate
First, the image detection means (30) is configured as such.
This case will be described as a first embodiment. Focus detecting optical system (20) and image detecting means
The stage (30) is configured, for example, as in the conventional example described with reference to FIG.
It is. In such a case, even if the focus detection optical system (20) is the same,
By simply changing the shape of the light receiving part of the image sensor,
The fixed pupil position is common and the pupil size is different
Wear. Therefore, in the following first embodiment, a different receiving
Image sensor array with optical part shape ((31a), (32a)),
((31b), (32b)) is provided, and focus detection
Assuming that the same optical system (20) is arranged,
Eliminates vignetting by switching di-sensor arrays
The description will be made assuming that the characteristics can be switched as much as possible. Image sensor array (31a) and image
It has the same characteristics as the sensor array (31b) and
None, (arrays (13a to 15a) and arrays (13b to 15b) in FIG. 1)
It is usually used. Also the image
Sensor array (32a) and image sensor array (32b)
Have the same characteristics and are paired with each other. Array (3
2a) and the array (32b)
(31a) and (31b) are smaller than those of
That is, the characteristics of the image sensor arrays (31a) and (31b)
The arrays (32a) and (32b) are vignetting.
It is used when it is broken. Therefore, the image sensor arrays (32a), (3
When using 2b), the size of the set pupil becomes smaller,
That is, since the F number of the focus detection becomes large,
Focus detection when using the image sensor arrays (31a) and (31b).
The image sensor array (32
Switching to a) or (32b) can cause vignetting of the focus detection light beam
Less likely. The image sensor arrays (31a, 31b) are switches.
Switch means (33a) and (3b) connected to the switch means (33a) and (33b).
3b) is linked, and the switch means (33a) is
Switch when it is set to the sensor array (31a) side
Switch the means (33b) to the image sensor array (31b)
It is supposed to be. Switch means (33a), switch means (33b)
Of the image sensor array (31a) switched by
Filter means (34) for adjusting the force is switch means (33a),
The focus detection means is provided after the switch means (33b).
(40) is an image detecting means (3) through a filter means (34).
0). The focus detecting means (40) is an image detecting means (30)
From the output transmitted through the filter means (34)
On the image sensor array based on the algorithm of
The pair of subject images are compared to determine the relative bias of the pair of subject images.
Calculate the position amount and convert the amount to the defocus amount
Is what you want. Next, the operation of the first embodiment will be described.
Normal switch means (33a) and (33b) are image sensor arrays
Since (31a) and (31b) are selected, the filter means (34)
Has its output sent. When no vignetting occurs
Is the output of the vignetting state detection means (50)
(For example, low-level output). Therefore, the detection state control means (60)
Received and compared with the threshold level
Status is not occurring and it is determined that the
Current switching mechanism (switch means (33a) etc.)
Output a control signal to maintain the
The currently selected state of Molly, ie the image sensor
The fact that the arrays (31a) and (31b) are selected is stored. Thus, the switch means (33a), (33b)
Continue to select the image sensor arrays (31a) and (31b),
The output is subsequently transmitted via the filter means (34)
The auto focus control means (70) is also
Out-of-focus information which is the output of (0) and detection state control means (60)
Based on the output of the
A lens drive control signal is sent to the lens drive means. On the other hand, if the vignetting state occurs,
The output of the rare condition detection means (50) indicates that an improper condition has occurred.
(For example, high level output)
Stage (60), and the detection state control means (60) outputs this output.
The vignetting state is compared with the threshold level.
Judge that the limit has been exceeded and switch each operation
Control for switching the mechanism to respond to vignetting
Outputs signals and stores them in internal memory
I do. Therefore, the switch means (33a) and (33b)
Receiving the signal of the state control means (60), the image sensor array
Select (32a) and (32b) and output the output to filter means (34)
To send to. The auto focus control means (70) is
Control of vignetting from output state control means (60)
The lens drive control mode is switched based on the signal. example
For example, a low-speed mode or a stop mode is set. On the other hand, a switched image sensor
The outputs of the arrays (32a) and (32b) are passed through the filter means (34).
Is sent to the focus detection means (40) and the vignetting state detection means (50).
Vignetting state detection means (50) further
The presence or absence of the state is judged, and the detection state control means (60)
If a control signal indicating that the
The focus control means (70) sets the proper state based on the output.
Return to the lens drive control mode and return to the image sensor array (3
2a) and (32b), the focus detection means (40)
Lens to drive the imaging optical system (10) based on the amount of misalignment.
A lens drive control signal is sent to the lens drive means. Further, the detection state control means (60)
Sensor arrays (32a) and (32b) are selected.
After a certain period of time, the image sensor arrays (31a) and (31b)
Inverts to the selected state, and then detects vignetting state again in that state
The degree of vignetting is detected from the output of the means (50). This
Vignetting due to lens replacement etc.
If the error has been resolved,
Switch to disensor array (31a), (31b) and select
Becomes possible. If the image sensor array
B) When (31a) or (31b) is selected, vignetting state detection means (50)
Detects the vignetting state, and the detection state control means (60) detects it.
If it is determined that the limit is exceeded,
(32a) and (32b) are selected again. Further, the image sensor arrays (32a), (32
b) In the state where is selected, still vignetting state detection
The output of the means (50) indicates the vignetting state, and the detection state control means
If it is determined in (60) that it exceeds the limit,
Means that the detection state control means (60)
Output to the state warning display means to warn the user. Further, a pair of image sensor arrays (31a),
(31b) and another pair of image sensor arrays (32a), (32b)
F-number for focus detection by selecting either
Is different from the relative displacement of a pair of subject images.
Since the value of the coefficient when converting to the amount differs, the detection state
The control means (60) selects any pair of the image sensor array.
Signal from the detection state control means (60).
Is sent to the point detecting means (40),
Switch the conversion factor for the quantity. In the first embodiment, the image
Shown is the one equipped with two sets of disensor arrays, but two or more sets
Provided, vignetting state detection means (50), detection state control means (60)
May be selectively switched appropriately according to the output of
No. In addition, the vignetting state detecting means (50) is connected to the switch means (33
The outputs of a) and (33b) may be directly received. Further
An apparatus disclosed in Japanese Patent Application Laid-Open No. 54-104859.
In the case of, since there are multiple sets of image sensor arrays,
Instead of the aperture and field lens in the focus detection optical system.
Switching may be performed. Next, the focus detection optical system (20) is the same as in the first embodiment.
And the image sensor array is also a set.
An example will be described. In the second embodiment, the first
Image sensor arrays (32a), (32b) and
The switch means (33a) and (33b) are unnecessary. As shown in FIG. 3, the filter means (34)
Are the first filter (34a) and the second filter having different filter characteristics.
There are two filters, Iruta (34b). For example, the first file used for the normal state
In Iruta (34a), low-frequency components like a human face
In order to enable focus detection for the included subject, FIG.
As shown in (A), the transfer function shows a fairly high value at low frequency.
H1 (w) shall be used when vignetting occurs.
Vignetting generally occurs at the second filter (34b) used
In that case, the effect will affect the low frequency components.
As shown in (B), the transmission shows a fairly small value at low frequency.
It has a function H2 (w). Note that in FIG.
Fn is the pitch of the photoelectric conversion element that constitutes the image sensor.
Nyquist frequency 1 / (2d) when h is dmm
(Book / mm). The focus detecting means (40) is provided with a first filter (3).
4a) According to the second filter (34b), the detection state control means (60)
Multiple algorithms (40
a) and (40b) are provided. The algorithms (40a) and (40b) are, for example,
As described above, depending on the presence or absence of vignetting
Switching the characteristics of the means (34) to remove low frequency components
Similarly, the output of the filter means (34) is used as the focus detection means.
The sampling interval at the time of capture is set to the focus detection means (40).
Switched when the output of the filter means (34) is input
Data at a point distant from the center of the screen
Data, i.e., make the ranging area variable.
It is configured to: Also, if vignetting occurs
In this case, the low-frequency component is affected,
The output of the filter means (34) used for point detection is, for example,
It is also conceivable to perform logarithmic conversion and focus detection. The other configuration in the second embodiment is similar to the first embodiment.
It is the same as the embodiment. Next, the operation of the second embodiment will be described.
You. The basic operation is the same as in the first embodiment. Vignetting
If no condition has occurred, the filter means (34)
One filter (34a) is selected, and the focus detection means (40) selects
Algorithm (40a) is selected.
Mode). In the normal mode, the image sensor
The subject image information output from the ray is filtered by the first filter (34a).
Filtered by the algorithm of the focus detection means (40) (4
0a) detects the out-of-focus amount, and then detects the vignetting state.
Output means (50), detection state control means (60), auto focus
The operation of the control means (70) is the same as in the first embodiment,
State control means (60) stores that the normal mode is selected.
doing. When vignetting occurs, vignetting occurs
The detection means (50) first detects this, and the detection
State control means (60) outputs a control signal, thereby
In the filter means (34), the focus detection means is provided to the second filter (34b).
In step (40), it is switched to algorithm (40b) (this
This state will be referred to as inappropriate mode hereinafter). Also, the detection status system
The control means (60) memorizes that the incorrect mode has been selected.
ing. When the mode is changed to the inappropriate mode, the same as in the first embodiment is performed.
In addition, the auto focus control means (70) controls the lens drive control mode.
Switch the mode to low speed mode or stop mode. So
To detect the vignetting state again in the inappropriate mode.
If the means (50) detects and the inappropriate state has been resolved,
In the inappropriate mode, the auto focus control means (70)
Return the lens drive control mode to the normal state and set the shooting optical system (1
0) based on the information on the amount of defocus from the focus detection means (40).
Drive. Further, the detection state control means (60)
After reverting to the normal mode and performing re-detection,
If the vignetting state is still not resolved by the normal mode,
Warning to the user by vignetting state warning display means
This is the same as in the first embodiment. The vignetting state detecting means (50) is a filter.
Output of the image sensor array without through the means (34)
You may receive power directly. In this case, the detection
The state control means (60) is in a state where the inappropriate mode is selected.
There is no need to reverse after a certain time, and vignetting state detection means
What is necessary is just to invert according to the output of (50).
The control means (70) also has vignetting output from the vignetting state detecting means (50).
The mode is switched according to the signal indicating the degree of the state
Just do it. The filter means (34) and the focus detection means
(40) and only one of them without switching at the same time
May be switched, and only the focus detection means (40)
If not, analyze the signal that does not pass through the filter means (34)
Prepare multiple algorithms that can be used. Also, filter
-Log conversion means etc. are provided before means (34) and combined
Is also good. Further, the image sensor in the first embodiment
It may be combined with one that switches rays,
-When combined with a means that switches means (34),
Even after switching to the image sensor array for the normal mode,
If the vignetting condition persists, apply the filter
It is preferable to provide a filter for removing low frequency components from the force. Next, the detailed contents of the vignetting state detecting means (50)
Will be described with reference to some examples. First, the first fruit
The principle of the embodiment is that when vignetting occurs,
The degree of correlation between the outputs of the image sensor arrays
Vignetting occurs when the maximum (or minimum) of the function
Less than maximum (or minimum) if not
(Or bigger). FIG. 6A shows an a sensor as described with reference to FIG.
Image sensor in which a row and a b-sensor row form a pair
The output of each column of the array is indicated by a triangle for the a sensor column, and
The sensor row is represented by a cross, and vignetting occurs.
And the subject image is a sensor row and b sensor row
Offset from each other on the row (overlap when in focus)
I have an image. Therefore, a correlation function is defined as in equation (1).
You. Each sensor row is N + 1 of a0 to aN and b0 to bN
, And outputs the following data: T = K− (S + 1) / 2... S: odd number, T = KS / 2... S: even number In equation (1), the range in which the variable S is moved is represented by Smin to Smax.
Then, the constants K and L satisfy the conditions of Tmin ≧ 1, Tmin + Smin ≧ 1, Tmax + L ≦ N, and Tmax + L + Smax ≦ N, respectively. In the definition of the correlation function of the equation (1),
Is assumed that the number of additions of the term of the absolute value of the difference is fixed to L.
However, the number L of addition terms may be changed by the variable S,
In that case, normalize the equation (1) with the number of addition terms L
Is also good. Thus, the correlation function in the case shown in FIG.
C (S) is the minimum value at the point Sm as shown in FIG.
Take C (Sm). C (S) is calculated for the case where S is an integer.
Therefore, the minimum value C (Sm) is generally obtained by appropriate interpolation.
It is. For example, as shown in FIG. 6B, S is an integer.
Is defined as C (So), and its adjacent correlation
The values are C (So-1) and C (So + 1), respectively.
o) and C (So-1) or C (So + 1)
When C (Sm) is interpolated by two straight lines with different signs
Can find the minimum value C (Sm) as shown in the following equation (2).
You. [Mathematical formula-see original document] Generally, when no vignetting state occurs, the following expression is obtained. Is as follows. However, when vignetting occurs,
Similarly, find the minimum value C (Sm) from the output of each sensor row.
Then, if the degree of correlation is low and the minimum value C (Sm) is also 0,
Rather, it is a considerably large value. Therefore, each sensor can be obtained by the equations (1) and (2).
The minimum value of the column correlation is always determined and monitored, and the minimum value C (S
m) is greater than a predetermined value.
Can detect that a vignetting condition has occurred.
You. And the degree of vignetting depends on the magnitude of that value
Can be detected. The value of the minimum value C (Sm) is exactly as shown in FIG.
Indicate the area of the difference between the two patterns during focusing.
And accurately reflects the degree of vignetting. If the average value of the output of the photoelectric conversion element is fixed,
AGC (Auto Gain Control) is applied
In this case, the value of C (Sm) is directly
Parameters, and such A
When GC is not applied, the output of the photoelectric conversion element
If you divide the average value, the degree of vignetting
It is always a good indicator. Using the minimum value C (Sm) as an index,
In other words, this amount is the result of the focus detection calculation in the focus detection means (40).
The amount is automatically calculated, especially for vignetting detection.
This is very convenient because it does not require any calculation. Further, the output of the photoelectric conversion element is made logarithmic.
Consider the case where the above C (Sm) is used for the data
As a result, as shown in FIG.
The logarithm of the function of the subject image on the sensor row is expressed by the following equation (2-1).
Become like (Equation 6) As shown in the above equation, the components in the vignetting state are completely
This is very convenient because it can be separated and extracted. Also,
When the absolute value of the difference in the above equation is taken, the term of the subject image is subtracted,
Only the components in the vignetting state are obtained as in the following equation. ## EQU7 ## Therefore, the logarithmic data is
The amount of C (Sm) obtained is related to the number of terms in the correlation addition.
By dividing by the amount, the vignetting state described later can be easily approximated by a straight line.
The amount corresponding to the similarity slope (γ described later) is calculated.
It is. If the minimum value C (Sm) is used, a small amount of calculation can be performed.
The amount of vignetting is monitored by the amount and the correction amount can be easily calculated.
Can be performed. In the first embodiment, the image
A sensor row and b sensor row constituting the sensor array
Was used to calculate the correlation, but the output of each sensor was
Correlation can be calculated from filtered output.
You. The value of the correlation function C (S) depends on the subject.
Can be used by standardizing C (S).
Wear. For example, according to the maximum value Cmax of the correlation function, equation (1)
By dividing the correlation function C (S) obtained in
Such a correlation function is obtained. ## EQU8 ## Further, a method for obtaining the correlation function C (S)
The correlation between the two sets of outputs even for equations other than equation (1)
Whatever is required is required. For example, the following equation (4) shows
Such a multiplication type correlation function may be used. ## EQU9 ## In this case, a point having a high correlation is a peak.
And this peak varies depending on the subject image
However, for example, the peak value is output from the a sensor or
Specified by the peak value of the autocorrelation function of the sensor output
Monitor the height of this normalized peak value.
Can detect the degree of vignetting.
You. FIG. 8A shows the vignetting state detection method described above.
FIG. 4 is a specific block diagram of the first embodiment of the stage (50). I
Image sensor array (31a), (31b) or (32a), (32b)
Or a pair of outputs of the filter means (34)
Is input to the correlation value calculating means (51), and the correlation value calculating means (5
1) is the minimum (or maximum) C of the correlation function of a pair of inputs
(Sm) is output to the comparing means (53). On the other hand, reference value generation means
(52) outputs the reference value (Qc) to the comparison means (53),
The comparing means (53) outputs a minimum value (or a maximum value) C (S
m) and the reference value (Qc) to determine the minimum value of the correlation function (and
Is the maximum value) C (Sm) is larger (or smaller) than the reference value (Qc)
In this case, vignetting is applied to the detection state control means (60).
A signal indicating that an error has occurred is transmitted. In addition, above
The notation device calculates the minimum value of the correlation function by the correlation value calculating means (51).
(Or the maximum value) C (Sm) was obtained, but the focus detection means (40)
The minimum (or maximum) C (Sm) of the correlation function inside
If the calculated correlation value is
You may lead to 3). In the vignetting state detecting means (50),
Is smaller than the maximum (or minimum) value of the correlation function.
Was used to detect the degree of
However, for example, by-pass between the a sensor row and the b sensor row
Even if there is a difference in assembling level, the correlation function
The maximum (or minimum) value decreases (or the upper
Misdetection that vignetting has occurred.
There is a risk of spilling. [0094] Vignetting state detection avoiding such fears
Next, a second embodiment of the output means (50) will be described. In this embodiment, the vignetting state function is generally
As shown in Fig. 5 (B), each sensor with the distance measurement unit at the center of the screen
It is symmetrical to the center in the sir row
Use that thing. FIG. 7 shows vignetting to the position having the highest correlation.
The output of each sensor when it is
FIG. The amount of shift from each other
From the point Sm which takes the minimum value of the correlation function C (S) shown in FIG. 6 (C)
It can be easily converted. In FIG. 7, the symbol “〇” represents the output of the sensor row a,
The crosses indicate the output of the b sensor array. Generally each other
The amount of deviation is determined by adjusting the pitch of the photoelectric conversion elements that make up the sensor row.
Since it does not become several times, δ (0 <δ <1)
It has a deviation amount. When the outputs of the two sensor arrays are compared,
On the left side, the output of the b sensor row is the output of the a sensor row
It is larger and reversed on the right from the center. Follow
If vignetting occurs, output of both sensors
Integrating the difference between
Has the opposite sign of its integral value. On the other hand, although no vignetting state has occurred,
If there is a difference in the bias level of the sensor output
Means that the integral is in the left and right regions of the center
Since the same sign is used, it is different from the case where vignetting occurs.
Can be different. In FIG. 7, the relationship between a sensor output aM and
B sensor output bM at the same position is a sensor output aM
Sensor outputs bK and b (K + 1) and sensor
-Decimal part δ of deviation amount in the case of pitch (0 ≦ δ
The value obtained by interpolation according to <1) is as shown in Expression (5). (Equation 10) Therefore, the vignetting state detection is performed as shown in the following equation (6).
Determining the output function H, vignetting depends on the magnitude of this function H.
It is possible to detect the state. Now, K = M + q (q is a shift for obtaining the maximum correlation)
The constant H is determined by a predetermined amount).
A constant M representing a point is converted to a variable n representing a general position.
By substituting, This is expressed as So this value
Vignetting is detected by detecting that H exceeds a predetermined value.
The occurrence of a state can be detected. In the second embodiment, both sections are used.
The area where the output of the sensor train is integrated
But from the center where the vignetting effect is great
Only distant sections may be used as integration sections.
More than one and compare each integral value
Is also good. Further, in the second embodiment, the sensor array
Since the difference in output is related to the size of the output,
Normalize the difference by the sum of the output of each sensor array
It may be. In addition, the outputs of both sensor rows are
The function H may be obtained from the filtered output. FIG. 8B shows a method for detecting the vignetting state described above.
FIG. 9 is a specific block diagram of a second embodiment of the stage (50). I
Image sensor array (31a), (31b) or (32a), (32b)
Pair of outputs (when not passing through the filter means (34),
Output) or a pair of outputs of the filter means (34)
It is input to the correlation value calculation means (51) and the deviation means (54). correlation
The value calculation means (51) calculates the minimum value of the correlation function of a pair of inputs (and
Is the maximum value) C (Sm) is obtained, and the deviation amount Sm at that time is calculated as the deviation value.
Output to stage (54). The displacement means (54) biases the pair of inputs.
Relative to the integration means (55) and (56).
Output. The integrating means (55) is a pair of relatively displaced inputs.
Integrate the difference between forces in one region R from the center of the input function
No, outputs the integral value Sgr to the difference means (57). Similarly, the integrating means (56) is relatively displaced.
The integration of the difference between the pair of inputs is
This is performed in the area L on the opposite side, and the integrated value Sgl is output to the difference means (57).
Power. The difference means (57) calculates the difference between the above two integrated values.
Find the difference Sg = Sgr-Sgl and output to absolute value means (58)
The absolute value converting means (58) calculates the absolute value | Sg |
Is output to the comparing means (53). On the other hand, reference value generating means (52)
Is outputting the reference value Qs to the comparing means (53).
The means (53) compares the two outputs and determines the absolute value | Sg |
If it is larger than the value Qs, the detection state control means (60)
Sends a signal indicating that vignetting has occurred
You. The correlation value C inside the focus detecting means (40)
When calculating the deviation amount Sm for obtaining (Sm), this value Sm is
Directly input to the deviation means (54) and omit the correlation value calculation means (51).
It may be omitted. Next, the third actual operation of the vignetting state detecting means (50) will be described.
An example will be described. The principle of the third embodiment is shown in FIG.
The vignetting functions Va (x) and Vb (x) shown in FIG.
In general, a straight line with a slope γ as shown in the following equation (7)
Of the output from both sensor rows.
γ is determined, and the degree of vignetting is determined by the magnitude of the value of γ.
It is to detect. (Equation 12) Therefore, the a sensor row and the b sensor row
When the subject images Fa (x) and Fb (x) are in focus,
Let F (x) be the mapping function and expressed as the following equation (8).
You. (Equation 13) From equation (8), F (x) is eliminated to obtain γ.
The following equation (9) is obtained. (14) Therefore, as the Fa (x), the n-th sensor row
The sensor outputs n and Fb (x) are the n-th element in sensor array b.
Of the sensor element from the center as output bn, x of
By substituting the distance S to equation (9), the following equation (10) is obtained.
Of the vignetting function at each sensor element position
be able to. (Equation 15) In equation (10), P is a sensor row forming element
Is the number of the sensor row central element. On the other hand, if the camera is out of focus, the second embodiment
As described in FIG. 7 in the example, the highest correlation
The output of both sensor rows to each other
Can be obtained in the same way as when focusing.
Wear. In this case, the positions of the elements in both sensor rows are required.
Since one is not necessarily offset by an integer, one output is
What is necessary is just to interpolate and obtain | require by Formula (5). Therefore, the outputs of both sensor rows are constantly monitored.
To sample the output at the appropriate location
Then, the slope γ can be easily obtained by equation (10).
Vignetting can be detected by the size of
You. Therefore, it is detected that the inclination γ is larger than the predetermined value.
To detect that vignetting is occurring
Can be. And the degree of the vignetting depends on the magnitude of this inclination γ.
Degree can also be detected. Note that the slope γ can be obtained not only at one point but also
It is better to find between the number of element positions and determine the average value.
Accuracy is good. Further, as the element position is farther from the center,
However, since the difference between the outputs is large, the accuracy increases,
It is desirable to obtain the slope γ in a region excluding the center. Similarly, the subject image F (x) has a large value.
Area, ie, the sum of Fa (x) and Fb (x) has a large value
Since it is more accurate to obtain the slope γ between the elements, an + b
Find the slope γ at a point where n is equal to or greater than a predetermined value and average it.
No. Also in the third embodiment, both cells
Filtering without directly using the output of the sensor train
Needless to say, the output may be used. Further, the gradient γ of the vignetting function is obtained.
If this is possible, feed it to the focus detection means (40).
To correct the effect of vignetting. That is, the input to the focus detection means (40)
The output of the image sensor array pair (or the filter
Assuming that the output of the switching means is An, Bn, the following equation (11) is used.
The corrected outputs An1 and Bn1 can be obtained, and
Output can be corrected. (Equation 16) N is sensor row output or filtering
Number indicating output order, c corresponds to the center of the screen among n
The number of the position where the filter is being performed, P is the element pitch or filter
Convert the ring output sampling interval to the distance on the screen
Value. FIG. 8C shows the vignetting state detecting method described above.
FIG. 14 is a specific block diagram of the third embodiment of the stage (50). I
Image sensor array (31a), (31b) or (32a), (32b)
Pair of outputs (when not passing through the filter means (34),
Output) or a pair of outputs of the filter means (34)
It is input to the correlation value calculation means (51) and the deviation means (54). correlation
The value calculation means (51) calculates the minimum value of the correlation function of a pair of inputs (and
Is the maximum value) C (Sm) is obtained, and the deviation amount Sm at that time is calculated as the deviation value.
Output to stage (54). The displacement means (54) biases the pair of inputs.
Relative displacement by the shift amount Sm and output it to the inclination detecting means (59).
You. The inclination detecting means (59) has a relatively deviated position.
The slope γ is detected based on equation (10) from a pair of inputs, and absolute
Output to the value conversion means (58). The absolute value conversion means (58)
The absolute value | γ | is output to the comparison means (53). On the other hand, the reference value
The generating means (52) outputs the reference value Qg to the comparing means (53).
Therefore, the comparing means (53) compares the two inputs and obtains the absolute value |
If γ | is larger than the reference value Qg, vignetting will occur.
Is transmitted to the detection state control means (60).
Put out. The output of the inclination detecting means (59),
The inclination γ is fed back to the focus detection means (40).
May be used to correct a pair of inputs using the slope γ.
I don't know. As described above, the three states of the vignetting state detecting means (50)
Although the examples have been described, without being limited to these,
Images that actually cause the vignetting state are superimposed
Detects vignetting from the output of a pair of disensor arrays
Should be fine. Also, the lens information (open
Combination of means to detect emission F number and exit pupil position)
You may let it. Next, the vignetting state detecting means and the detecting state
As a method of realizing control means, these are comparison, calculation
To perform functions with a microcomputer.
Can be manifested. Also, individually or integrally
It can also be realized with a circuit that has been implemented. Generally focus detection means
As a program in the microcomputer
In some cases, the sensor output can be shared on memory or
Vignetting state when considering the interface between each means
The detection means and the detection state control means are also configured as programs.
It is more advantageous to do so. In the embodiment, the unbalanced state is set.
Although explained with vignetting, a ghost or a pair of
Noise coming from performance differences due to deterioration of the image sensor array
The present invention can be applied to an unbalanced state such as noise.
Needless to say. In this case, the memory of the sensor output is
Before or after or both
The sensor output data stored
Focus using filter or filtering means output data
Detection calculation, detection state detection calculation to micro computer
Do more. According to the automatic focus detecting device according to the present invention,
For example, by detecting the degree of correlation by the degree of correlation detection means,
Which output range of the image sensor has poor focus detection accuracy
Can be determined, and focus in an area with good focus detection accuracy can be determined.
Point calculation becomes possible.

【図面の簡単な説明】 【図1】自動焦点検出装置を説明するもので、(A) は模
式的側面図、(B) はイメージセンサーアレイを構成する
光電変換素子列対の正面図である。 【図2】ケラレ状態が生じる場合の光電変換素子の状態
とその出力を対応させて示した説明図である。 【図3】本発明の実施例のブロック図である。 【図4】実施例に用いられるフイルタリング手段のフイ
ルター特性図である。 【図5】ケラレ状態の被写体像に与える影響を説明する
ための線図である。 【図6】光電変換素子の相関関係検出処理を説明するた
めの線図である。 【図7】ケラレ状態が発生しているために被写体像が一
致せずその相関関係を検出するために重畳して示した線
図である。 【図8】ケラレ状態検出手段(50)の具体的な例を示すブ
ロック図である。 【符号の説明】 (10)…撮影光学系 (11)…撮影レンズ (12)…フイールドレンズ (13)…微小レンズ (20)…焦点検出光学系 (30)…イメージ検知手段 (33a),(33b) …スイッチ手段 (34)…フイルター手段 (40)…焦点検出手段 (50)…ケラレ状態検出手段 (60)…検出状態制御手段 (70)…オートフオーカス制御手段
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a view for explaining an automatic focus detection device, in which (A) is a schematic side view, and (B) is a front view of a pair of photoelectric conversion element rows constituting an image sensor array. . FIG. 2 is an explanatory diagram showing a state of a photoelectric conversion element and an output thereof in a case where a vignetting state occurs. FIG. 3 is a block diagram of an embodiment of the present invention. FIG. 4 is a filter characteristic diagram of a filtering means used in the embodiment. FIG. 5 is a diagram for explaining an effect of a vignetting state on a subject image. FIG. 6 is a diagram for explaining a correlation detection process of a photoelectric conversion element. FIG. 7 is a diagram superimposed to detect a correlation between subject images because the vignetting state has occurred and to detect a correlation therebetween. FIG. 8 is a block diagram showing a specific example of vignetting state detection means (50). [Explanation of References] (10) ... photographing optical system (11) ... photographing lens (12) ... field lens (13) ... minute lens (20) ... focus detection optical system (30) ... image detecting means (33a), ( 33b) Switch means (34) Filter means (40) Focus detection means (50) Vignetting state detection means (60) Detection state control means (70) Auto focus control means

Claims (1)

(57)【特許請求の範囲】 1.撮影光学系の瞳の異なる領域から入射する光束から
一対の被写体像を形成する焦点検出光学系と、 該一対の被写体像を受光する一対のイメージセンサーア
レイを有するイメージ検知手段と、 前記イメージ検知手段からの一対の出力の相対的偏位量
から、前記撮影光学系の焦点調節状態を検出する焦点検
出手段と、 前記イメージ検知手段からの一対の出力の相関度を検出
する相関度検出手段と、 前記相関度検出手段により検出された相関度に応じて、
前記イメージ検知手段からの一対の出力の範囲を変更す
る変更手段とを備えることを特徴とする自動焦点検出装
置。
(57) [Claims] A focus detection optical system that forms a pair of subject images from light beams incident from different regions of the pupil of the photographing optical system; an image detection unit having a pair of image sensor arrays that receives the pair of subject images; and the image detection unit From the relative deviation amount of a pair of outputs from the focus detection means for detecting the focus adjustment state of the imaging optical system, Correlation degree detection means for detecting the degree of correlation between the pair of outputs from the image detection means, According to the degree of correlation detected by the degree of correlation detection means,
Changing means for changing the range of a pair of outputs from the image detecting means.
JP7043868A 1995-03-03 1995-03-03 Automatic focus detection device Expired - Lifetime JP2814945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7043868A JP2814945B2 (en) 1995-03-03 1995-03-03 Automatic focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7043868A JP2814945B2 (en) 1995-03-03 1995-03-03 Automatic focus detection device

Publications (2)

Publication Number Publication Date
JPH0854560A JPH0854560A (en) 1996-02-27
JP2814945B2 true JP2814945B2 (en) 1998-10-27

Family

ID=12675685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7043868A Expired - Lifetime JP2814945B2 (en) 1995-03-03 1995-03-03 Automatic focus detection device

Country Status (1)

Country Link
JP (1) JP2814945B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4804194B2 (en) * 2006-03-30 2011-11-02 キヤノン株式会社 LENS DEVICE AND IMAGING DEVICE
JP4429328B2 (en) 2007-02-09 2010-03-10 キヤノン株式会社 Automatic focusing device, control method therefor, and imaging device
JP5147645B2 (en) * 2008-10-30 2013-02-20 キヤノン株式会社 Imaging device
JP5300414B2 (en) 2008-10-30 2013-09-25 キヤノン株式会社 Camera and camera system
JP5230388B2 (en) 2008-12-10 2013-07-10 キヤノン株式会社 Focus detection apparatus and control method thereof
JP5302663B2 (en) * 2008-12-24 2013-10-02 キヤノン株式会社 Focus detection apparatus and method, and imaging apparatus
JP5059214B2 (en) * 2011-05-16 2012-10-24 キヤノン株式会社 Lens device
JP5340468B2 (en) * 2012-10-12 2013-11-13 キヤノン株式会社 Focus detection apparatus and control method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5928886B2 (en) * 1979-02-28 1984-07-17 株式会社リコー automatic focus detection device
JPS57133414A (en) * 1981-02-12 1982-08-18 Nippon Kogaku Kk <Nikon> Correcting device for focus detecting device
JPS6014211A (en) * 1983-07-06 1985-01-24 Olympus Optical Co Ltd Focusing detecting device

Also Published As

Publication number Publication date
JPH0854560A (en) 1996-02-27

Similar Documents

Publication Publication Date Title
US4716434A (en) Focus condition detecting device
US7536094B2 (en) Focus detection apparatus and image taking apparatus
US8417106B2 (en) Focus detection device
US4851657A (en) Focus condition detecting device using weighted center or contrast evaluation
JP4054422B2 (en) Camera and interchangeable lens device
US7933510B2 (en) Focus detection apparatus and focus detention method
US6973262B2 (en) Camera and wide-angle field distance-measuring camera
JP2715958B2 (en) Focus detection device
US6308014B1 (en) Ranging apparatus installed in camera
JP2814945B2 (en) Automatic focus detection device
EP0440170B1 (en) Camera
US5721977A (en) Distance measuring apparatus of camera improved in measuring process
JP3806489B2 (en) Ranging device
US6404986B1 (en) Focus detecting device and apparatus having the same
JPH0762731B2 (en) Automatic focus detection device
JPH04235512A (en) Focus detecting device having grouping function
JP4950634B2 (en) Imaging apparatus and imaging system
JP2757853B2 (en) Focus detection device
US6118948A (en) Focus detector
JPH1123957A (en) Focus detector
JP5846245B2 (en) Automatic focus detection device
JP3938989B2 (en) Ranging device
JP3798866B2 (en) Ranging device
JPH09311269A (en) Focus detector
JP4495333B2 (en) Photometric device