JPH04211213A - Focus detecting device - Google Patents

Focus detecting device

Info

Publication number
JPH04211213A
JPH04211213A JP3050714A JP5071491A JPH04211213A JP H04211213 A JPH04211213 A JP H04211213A JP 3050714 A JP3050714 A JP 3050714A JP 5071491 A JP5071491 A JP 5071491A JP H04211213 A JPH04211213 A JP H04211213A
Authority
JP
Japan
Prior art keywords
image sensor
focus detection
block
pair
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3050714A
Other languages
Japanese (ja)
Inventor
Shigeyuki Uchiyama
内山 重之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP3050714A priority Critical patent/JPH04211213A/en
Publication of JPH04211213A publication Critical patent/JPH04211213A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To provide a focus detecting device having improved focus detecting accuracy by dividing an image sensor into suitable-sized detecting blocks for a spatial frequency element of a subject. CONSTITUTION:A focus detecting optical system 30 to introduce two images formed of light transmitted through two different parts of a lens 20 onto a pair of image sensor array 40, a dividing means 53 to divide the pair of image sensor array 40 respectively into small blocks and take out image outputs with every block, a focus detecting operation means 54 to carry out operation on relative dislocation volume of the two images by shifting mutually the image outputs obtained respectively from the pair of image sensor array 40 and a changing means 52 to change breadth of width of the blocks are provided. Furthermore, a judgment means 51 is provided to improve focus detecting accuracy by controlling in such a way that a fact is judged that a high frequency element is contained therein by analyzing a spatial frequency element possessed by a subject, the blocks is made narrow through the changing means 52, and when the fact is judged that a low frequency element is contained, the blocks is made wide.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、一眼レフレックスカメ
ラ等に用いられる焦点検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detection device used in single-lens reflex cameras and the like.

【0002】0002

【従来の技術】[Conventional technology]

従来から、一眼レフレックスカメラにおける焦点検出方
式として位相差検出方式が知られている。図10によっ
てこの方式を説明する。対物レンズ21の領域21aを
透過して入射した光束は視野マスク31、フィールドレ
ンズ32、絞り開口部33aおよび再結像レンズ34を
通りイメージセンサアレイ41a上に結像する。同様に
対物レンズ21の領域21bを透過して入射した光束は
視野マスク31、フィールドレンズ32、絞り開口部3
3bおよび再結像レンズ35を通りイメージセンサアレ
イ41b上に結像する。
A phase difference detection method has been known as a focus detection method for single-lens reflex cameras. This method will be explained with reference to FIG. The light flux that has passed through the region 21a of the objective lens 21 and entered the field passes through the field mask 31, the field lens 32, the aperture aperture 33a, and the re-imaging lens 34, and forms an image on the image sensor array 41a. Similarly, the light flux that has passed through the area 21b of the objective lens 21 and entered the field mask 31, the field lens 32, and the aperture aperture 3.
3b and a re-imaging lens 35 to form an image on the image sensor array 41b.

【0003】ここで、対物レンズ21が予定焦点面より
も前に被写体の鮮鋭像を結ぶいわゆる前ピン状態におい
ては、イメージセンサアレイ41a,41b上に結像し
た一対の被写体像は互いに遠ざかり、逆に、予定焦点面
より後ろに被写体の鮮鋭像を結ぶいわゆる後ピン状態で
はそれらは互いに近づく。対物レンズ21が被写体の鮮
鋭像を予定焦点面上に結ぶいわゆる合焦時には、イメー
ジセンサアレイ41a,41b上の被写体像は相対的に
一致する。従って、この一対の被写体像をイメージセン
サアレイ41a,41bで光電変換して電気信号に変え
、さらに、不図示のマイクロコンピュ−タでこれらの信
号を演算処理して一対の被写体像の相対位置を求めると
、これによって対物レンズ21の焦点調節状態、ここで
は合焦状態からのずれ量とそのずれ方向(以後、デフォ
ーカス量DFと呼ぶ)が得られる。
[0003] In a so-called front-focus state in which the objective lens 21 forms a sharp image of the subject in front of the intended focal plane, the pair of subject images formed on the image sensor arrays 41a and 41b move away from each other and are opposite to each other. In the so-called back-focus state, in which a sharp image of the subject is formed behind the intended focal plane, they approach each other. When the objective lens 21 forms a sharp image of the subject on a predetermined focal plane, so-called focusing, the subject images on the image sensor arrays 41a and 41b relatively coincide with each other. Therefore, the image sensor arrays 41a and 41b photoelectrically convert the pair of subject images into electrical signals, and a microcomputer (not shown) processes these signals to determine the relative positions of the pair of subject images. Once determined, the focus adjustment state of the objective lens 21, here the amount of deviation from the focused state and the direction of the deviation (hereinafter referred to as defocus amount DF), can be obtained.

【0004】次にデフォーカス量を求める演算処理方法
について説明する。一対のイメージセンサアレイ41a
,41bはそれぞれ複数の光電変換素子から形成されて
おり、図11(a),(b)に示すように複数の光電変
換出力a1...an,b1...bnを出力する。 次にそれぞれのデータ列を相対的に所定のデータ分(以
下、シフト量と呼び記号Lで表す)ずつシフトさせなが
ら相関演算を行う。ここに、相関量C(L)は次式によ
り算出される。     C(L)=  Σ |ai−bj|     
                         
・・・(1)    ここで、  はi=k〜rの範囲
の総和を示し、            j−i=L,
L=−lmax,..,−2,−1,0,1,2,. 
           .,lmaxなお、シフト量L
は整数値をとり、初項kと最終項rはこのシフト量Lに
依存して増減しても良い。こうして得られた相関量C(
L)の中で極小値となる相関量C(L)を与えるシフト
量Lに、図10に示す焦点検出光学系31,32,33
,34,35、およびイメージセンサアレイ41の光電
変換素子のピッチ幅によって定まる定数Kfを掛けたも
のがデフォーカス量DFとなる。
Next, a calculation method for determining the defocus amount will be explained. A pair of image sensor arrays 41a
, 41b are each formed from a plurality of photoelectric conversion elements, and as shown in FIGS. 11(a) and 11(b), a plurality of photoelectric conversion outputs a1. .. .. an, b1. .. .. Output bn. Next, a correlation calculation is performed while each data string is relatively shifted by a predetermined amount of data (hereinafter referred to as a shift amount and a reference symbol L). Here, the correlation amount C(L) is calculated by the following equation. C(L)=Σ |ai−bj|

...(1) Here, indicates the sum of the range of i=k to r, and ji=L,
L=-lmax,. .. ,-2,-1,0,1,2,.
.. , lmax Note that the shift amount L
takes an integer value, and the initial term k and final term r may increase or decrease depending on this shift amount L. The correlation amount C(
Focus detection optical systems 31, 32, 33 shown in FIG.
, 34, 35, and a constant Kf determined by the pitch width of the photoelectric conversion elements of the image sensor array 41 becomes the defocus amount DF.

【0005】しかしながら相関量C(L)は図12(a
)に示すように離散的な値であり、検出可能なデフォー
カス量DFの最小単位はイメージセンサアレイ41a,
41bの光電変換素子のピッチ幅によって制限されてし
まう。そこで、離散的な相関量C(L)に基づいて補間
演算を行い新たに極小値Cexを算出して、綿密な焦点
検出を行う方法が特開昭60−37513号公報で本出
願人によって開示されている。これは図12(d)に示
されるように極小値である相関量C(0)と、その両側
のシフト量Lでの相関量C(1),C(−1)とに基づ
いて極小値Cexを算出する方法で、極小値Cexを与
えるシフト量Fmとデフォーカス量DFは次の式により
求められる。   DF=Kf×Fm   Fm=L+DL/E              
                         
 ・・・(2)  ここで、DL={C(−1)−C(
1)}/2          Cex=C(0)−D
L          E=MAX{C(1)−C(0
),C(−1)−C(0)}        上式の中
でMAX{A,B}はAとBの中で大なる方を選択する
ことを表す。
However, the correlation amount C(L) is
), the minimum unit of detectable defocus amount DF is the image sensor array 41a,
It is limited by the pitch width of the photoelectric conversion element 41b. Therefore, the applicant disclosed in Japanese Patent Application Laid-Open No. 60-37513 a method of performing interpolation calculation based on the discrete correlation amount C(L) and calculating a new minimum value Cex to perform detailed focus detection. has been done. As shown in FIG. 12(d), this is the minimum value based on the correlation amount C(0), which is the minimum value, and the correlation amounts C(1) and C(-1) at the shift amount L on both sides. In the method of calculating Cex, the shift amount Fm and defocus amount DF that give the minimum value Cex are determined by the following equations. DF=Kf×Fm Fm=L+DL/E

...(2) Here, DL={C(-1)-C(
1)}/2 Cex=C(0)-D
L E=MAX{C(1)-C(0
), C(-1)-C(0)} In the above formula, MAX{A, B} represents selecting the larger one of A and B.

【0006】こうして得られたデフォーカス量DFが信
頼できる値か、それともノイズ等による相関量の揺らぎ
に影響を受けた値かを判定する必要があり、次の条件を
満たしたとき、デフォーカス量DFは信頼ありとされる
。   E>E1  かつ  Cex/E<G1     
                 ・・・条件(1)
ここで、E1,G1はある所定値 Eは被写体のコントラストに依存する値であり、値が大
きいほどコントラストが高く信頼性が高い。また、Ce
x/Eはノイズ成分に主に依存し、0に近いほど信頼性
が高いことになる。条件(1)の演算の結果から信頼あ
りと判定されると、このデフォーカス量DFに基づいて
対物レンズ21が合焦位置に駆動される。
It is necessary to judge whether the defocus amount DF obtained in this way is a reliable value or a value affected by fluctuations in the correlation amount due to noise, etc. When the following conditions are met, the defocus amount DF is considered reliable. E>E1 and Cex/E<G1
...Condition (1)
Here, the predetermined value E of E1 and G1 is a value that depends on the contrast of the subject, and the larger the value, the higher the contrast and the higher the reliability. Also, Ce
x/E mainly depends on the noise component, and the closer it is to 0, the higher the reliability. If it is determined that there is reliability based on the calculation result of condition (1), the objective lens 21 is driven to the in-focus position based on this defocus amount DF.

【0007】以上説明したような焦点検出方式では、イ
メージセンサアレイ41上に結像される被写体像にある
程度以上のコントラストが無いと信頼性のある焦点検出
ができない。一般に、写真撮影の被写体としては、水平
方向のコントラストが垂直方向のコントラストよりも高
いことが多いので、一対のイメージセンサアレイ41a
,41bを撮影画面に対して水平方向に配置し、水平方
向のコントラストによって焦点検出が行われている。
In the focus detection method as described above, reliable focus detection cannot be performed unless the object image formed on the image sensor array 41 has a certain level of contrast. Generally, as a subject for photography, the contrast in the horizontal direction is often higher than the contrast in the vertical direction, so the pair of image sensor arrays 41a
, 41b are arranged horizontally with respect to the photographing screen, and focus detection is performed based on the contrast in the horizontal direction.

【0008】また、水平方向のコントラストが低く、垂
直方向のコントラストが高い場合や、カメラを縦位置に
して使う場合を考慮して、図13に示すように水平方向
と垂直方向にそれぞれ一対のイメージセンサアレイ43
a,43bおよび43c,43dを配置して、どちらの
方向のコントラストに対しても正確な焦点検出を可能と
する方式も知られている。
[0008] Furthermore, in consideration of cases where the contrast in the horizontal direction is low and the contrast in the vertical direction is high, or when the camera is used in a vertical position, a pair of images are created in the horizontal and vertical directions as shown in FIG. Sensor array 43
A method is also known in which the lenses a, 43b and 43c, 43d are arranged to enable accurate focus detection for contrast in either direction.

【0009】上述のような水平方向と垂直方向にイメー
ジセンサアレイをそれぞれ配置して焦点検出を行う場合
の光学系は図14(a)に示される。対物レンズ22の
光軸上に視野マスク36、フィールドレンズ37、絞り
38、再結像レンズ39、イメージセンサアレイ42が
図の如く配置される。視野マスク36は十字形の開口部
を有しており、対物レンズ22の予定焦点面近傍に配置
されて対物レンズ22によって結像した被写体の空中像
を規制するものである。絞り38は38a、38b、3
8c、38dの4つの開口部を有する。
An optical system in which focus detection is performed by arranging image sensor arrays in the horizontal and vertical directions as described above is shown in FIG. 14(a). A field mask 36, a field lens 37, an aperture 38, a reimaging lens 39, and an image sensor array 42 are arranged on the optical axis of the objective lens 22 as shown in the figure. The field mask 36 has a cross-shaped opening and is arranged near the intended focal plane of the objective lens 22 to restrict the aerial image of the subject imaged by the objective lens 22. The aperture 38 is 38a, 38b, 3
It has four openings 8c and 38d.

【0010】再結像レンズ39は、図14(b)に示す
ように39a,39b,39c,39dの4つのレンズ
からなり、視野マスク36によって規制された像をイメ
ージセンサアレイ42上に結像する。従って対物レンズ
22の領域22aから入射した光束は視野マスク36、
フィールドレンズ37、絞り38の開口部38a、再結
像レンズ39のレンズ39aを通りイメージセンサアレ
イ42a上に結像する。同様に、対物レンズ22の領域
22b,22c,22dより入射した光束は、それぞれ
イメージセンサアレイ42b,42c,42d上に結像
する。そしてイメージセンサアレイ42a,42bに結
像した被写体像は対物レンズ22が前ピンの時は互いに
遠ざかり、後ピンの時は互いに近ずき、合焦時にはある
所定の間隔に並ぶ。したがって、イメージセンサアレイ
42a,42bの信号を演算処理することにより、対物
レンズの水平方向の焦点調節状態を検出することができ
る。同様に、イメージセンサアレイ42c,42dに結
像した被写体像は、対物レンズ22が前ピンの時は互い
に遠ざかり、後ピンの時は互いに近ずき、合焦時にはあ
る所定の間隔に並ぶ。したがって、イメージセンサアレ
イ42c,42dの信号を演算処理することにより、対
物レンズ22の垂直方向の焦点調節状態を検出すること
ができる。
The re-imaging lens 39 consists of four lenses 39a, 39b, 39c, and 39d as shown in FIG. 14(b), and forms an image regulated by the field mask 36 onto the image sensor array 42. do. Therefore, the light flux incident from the area 22a of the objective lens 22 is transmitted through the field mask 36,
The light passes through the field lens 37, the aperture 38a of the diaphragm 38, and the lens 39a of the re-imaging lens 39, and is imaged onto the image sensor array 42a. Similarly, the light beams incident from the regions 22b, 22c, and 22d of the objective lens 22 form images on the image sensor arrays 42b, 42c, and 42d, respectively. The object images formed on the image sensor arrays 42a and 42b move away from each other when the objective lens 22 is focused on the front, approach each other when the objective lens 22 is focused on the rear, and are lined up at a predetermined interval when in focus. Therefore, by processing the signals from the image sensor arrays 42a and 42b, it is possible to detect the horizontal focus adjustment state of the objective lens. Similarly, the subject images formed on the image sensor arrays 42c and 42d move away from each other when the objective lens 22 is in the front focus, approach each other when the objective lens 22 is in the rear focus, and are lined up at a predetermined interval when in focus. Therefore, the vertical focus adjustment state of the objective lens 22 can be detected by processing the signals of the image sensor arrays 42c and 42d.

【0011】上述の水平方向と垂直方向の焦点調節状態
の検出結果の中で、どちらの方向の検出結果に基づいて
レンズ駆動を行うかについては、例えば次のような方式
が知られている。 (1)信頼性の高い方を選択する(例えば前述のEの値
の大きい方)。 (2)一方向を優先して使用し(例えば水平方 向)、
信頼性のある結果が得られなかった場合、もしくは前述
の極小値C(0)が存在しなくて演算が不能である場合
に他方向(垂直方向)で焦点検出を行う。 (3)両方向の演算結果を平均する。
For example, the following method is known for determining which direction of the detection results of the focus adjustment state in the horizontal direction and the vertical direction is used to drive the lens. (1) Select the one with higher reliability (for example, the one with the larger value of E mentioned above). (2) Prioritize use in one direction (for example, horizontal direction),
If a reliable result cannot be obtained, or if the above-mentioned minimum value C(0) does not exist and calculation is impossible, focus detection is performed in another direction (vertical direction). (3) Average the calculation results in both directions.

【0012】ところで、このような焦点検出装置におい
て、距離の異なる複数の被写体がイメージセンサアレイ
上に結像した時には、前後した被写体の中間距離で合焦
と判定してしまったり、焦点検出が不能となってしまう
という不具合がある。そこで、一対のイメージセンサア
レイをそれぞれ複数のブロックに分割することにより被
写体像を細分化し、それぞれのブロックについて焦点検
出演算を行い、これによって求められる複数の演算結果
から、例えば最至近に存在する被写体やあるいはコント
ラストが最大の被写体の存在するブロックを選択し、そ
のブロックの演算結果に基づいて焦点調節を行うカメラ
が提案されている(例えば、特開昭60−262004
号、特開昭61−55618号、特開昭62−1630
07号、特開昭62−155608号公報参照)。
By the way, in such a focus detection device, when a plurality of objects at different distances are imaged on the image sensor array, focus may be determined to be at an intermediate distance between the front and rear objects, or focus detection may become impossible. There is a problem that this happens. Therefore, by dividing a pair of image sensor arrays into multiple blocks, the subject image is subdivided, a focus detection calculation is performed on each block, and from the multiple calculation results obtained, for example, the nearest object A camera has been proposed that selects a block containing a subject with the highest contrast and adjusts the focus based on the calculation result of that block (for example, Japanese Patent Application Laid-Open No. 60-262004
No., JP-A-61-55618, JP-A-62-1630
No. 07, JP-A No. 62-155608).

【0013】ここで、ブロックに分割するとは、例えば
前述の(1)式でシフト量L=0における初項kと最終
項rの組を複数定めて行う。図15(a)に示すように
イメージセンサアレイを6個のブロックに分割するには
、ブロック1はシフト量L=0においてk=1,r=6
と設定して(1)式によって相関量C(L)を演算し、
さらにこれらの演算結果に基づいて(2)式によってデ
フォーカス量DFを演算する。同様に、ブロック2,3
,4,5,6ではそれぞれシフト量L=0において(k
=7,r=12),(k=13,r=18),(k=1
9,r=24),(k=25,r=30),(k=31
,r=36)と設定して(1)、(2)式によりデフォ
ーカス量DFを演算する。図15(b)ではブロック数
を3個とし、(a)の場合より個々のブロックの幅が広
くなっている。
Here, dividing into blocks is performed by defining a plurality of sets of the first term k and the last term r for the shift amount L=0 using the above-mentioned equation (1), for example. To divide the image sensor array into six blocks as shown in FIG. 15(a), block 1 has k=1, r=6 at shift amount L=0.
Calculate the correlation amount C(L) using equation (1) by setting
Furthermore, based on these calculation results, the defocus amount DF is calculated using equation (2). Similarly, blocks 2 and 3
, 4, 5, and 6, the shift amount L=0 (k
=7, r=12), (k=13, r=18), (k=1
9, r=24), (k=25, r=30), (k=31
, r=36), and the defocus amount DF is calculated using equations (1) and (2). In FIG. 15(b), the number of blocks is three, and the width of each block is wider than in the case of FIG. 15(a).

【0014】[0014]

【発明が解決しようとする課題】[Problem to be solved by the invention]

しかしながら、一対のイメージセンサアレイをそれぞれ
複数のブロックに分割してそれぞれのブロックについて
焦点検出演算を行う上述の方法には次のような不具合が
ある。コントラストが強くはっきりしたエッジのある被
写体の有する空間周波数成分は高周波成分を含んでおり
、一方、コントラストのはっきりしない全体的にのっぺ
りとした被写体では低周波成分のみを含む。従って、後
者のような被写体に対して上述の小ブロックに分割する
演算方法では、それぞれのブロックにおいて信頼性のあ
る演算結果が得られない。
However, the above method of dividing a pair of image sensor arrays into a plurality of blocks and performing focus detection calculations on each block has the following drawbacks. The spatial frequency components of a subject with strong contrast and clear edges include high frequency components, while a generally flat subject with poor contrast includes only low frequency components. Therefore, with the calculation method of dividing the latter type of subject into small blocks as described above, reliable calculation results cannot be obtained for each block.

【0015】これについて図16、図17を用いて詳述
する。図16はコントラストが強くはっきりしたエッジ
のある被写体の場合のイメージセンサアレイ40の画像
出力を示す。いま、一対のイメージセンサアレイのデー
タ列をA(図中、実線で示す)、B(図中、破線で示す
)とする。図16(a)はシフト量L=0でA、B列が
一致している場合であり、(b)はB列を1ピッチだけ
右にシフト(仮にこの方向を+とする)した場合である
。相関量C(L)が最小となるのはA、B列のデータが
一致した(a)の場合であり、この場合、前述の(2)
式におけるC(0)は0となる。相関量C(1)は片方
のデータ列を1シフトずらしたときの差であるから、図
16(b)における斜線で示した部分の面積に相当する
。また、シフト量L=0においてA、B列が完全に一致
しているので、シフト量L=−1における相関量C(−
1)はC(1)に等しくなる。よって、C(1)−C(
0)=C(−1)−C(0)となり、(2)式により、
E=C(1)−C(0)=C(1)となる。すなわち、
図16(b)において斜線で示した部分の面積がEに相
当する事になる。
This will be explained in detail using FIGS. 16 and 17. FIG. 16 shows the image output of the image sensor array 40 for a subject with strong contrast and sharp edges. Let us now assume that the data strings of the pair of image sensor arrays are A (indicated by a solid line in the figure) and B (indicated by a broken line in the figure). Figure 16 (a) shows the case where the shift amount L = 0 and columns A and B match, and (b) shows the case where column B is shifted to the right by one pitch (assuming that this direction is +). be. The correlation amount C(L) is the minimum in case (a) where the data in columns A and B match, and in this case, the above-mentioned (2)
C(0) in the formula is 0. Since the correlation amount C(1) is the difference when one data string is shifted by one, it corresponds to the area of the shaded portion in FIG. 16(b). Furthermore, since the A and B columns completely match at the shift amount L=0, the correlation amount C(-
1) will be equal to C(1). Therefore, C(1)-C(
0)=C(-1)-C(0), and according to equation (2),
E=C(1)-C(0)=C(1). That is,
The area of the shaded portion in FIG. 16(b) corresponds to E.

【0016】ここで図16(b)に示す狭いブロックN
と広いブロックWについて考える。この場合はブロック
NもブロックWも斜線部を全部含む範囲となっているの
で、ブロックN、ブロックWのどちらで(1)、(2)
式の演算を行ってもEの値は同じとなる。従って、どち
らのブロックを採用しても同じ精度でデフォーカス量が
得られるので、被写体を細分化するブロック分割をどの
ように行っても問題はない。次に図17について同じよ
うに考えてみる。この場合の被写体パターンは図16の
ようにはっきりとしたエッジ部がなく全体的にのっぺり
とした低周波パターンである。(a)は上述のA列(図
中、実線で示す)、B列(図中破線で示す)のデータが
完全に一致した場合であり、(b)はB列のデータを1
ピッチだけ右にシフトした場合である。図16の場合と
同様に(b)に示す斜線部の面積がEの値となるが、図
16の場合と異なるのはブロックNよりもブロックWの
範囲に含まれる斜線部の面積の方が大きいということで
ある。 従って、Eの値はブロックWの方が大きくなり、これは
すなわちブロックWの方が精度良くデフォーカス量の演
算が行えることを示している。ここで、ブロックの幅を
狭くして行くとその範囲に含まれる斜線部の面積は次第
に減少し、それにつれてEの値も減少する。そしてつい
には前述の条件(1)におけるEの閾値であるE1より
もEの値が小さくなってしまい、焦点検出不能となる。
Here, the narrow block N shown in FIG. 16(b)
Consider a wide block W. In this case, both block N and block W include the entire shaded area, so (1) and (2) can be determined for either block N or block W.
Even if the formula is calculated, the value of E remains the same. Therefore, no matter which block is used, the amount of defocus can be obtained with the same accuracy, so there is no problem no matter how the block division for dividing the subject is performed. Next, consider FIG. 17 in the same way. The object pattern in this case is a low-frequency pattern that has no clear edges and is flat as a whole, as shown in FIG. (a) is a case in which the data in column A (indicated by a solid line in the figure) and column B (indicated by a broken line in the figure) are completely identical, and (b) is a case in which the data in column B is
This is a case where only the pitch is shifted to the right. As in the case of FIG. 16, the area of the shaded area shown in (b) is the value of E, but the difference from the case of FIG. It means it's big. Therefore, the value of E is larger in the block W, which indicates that the defocus amount can be calculated more accurately in the block W. Here, as the width of the block is narrowed, the area of the shaded area included in the range gradually decreases, and the value of E also decreases accordingly. Finally, the value of E becomes smaller than E1, which is the threshold value of E under the above-mentioned condition (1), and focus detection becomes impossible.

【0017】このように低周波成分のみを含むような被
写体に対しては焦点検出領域が広い方がよく、複数の小
ブロックのいずれのブロックにおいても信頼性のある演
算結果が得られなかった場合には、より幅の広いブロッ
クを新たに形成し再度演算を行うことが考えられる。し
かしこれでは演算時間の増大を招き、使用感が悪くなっ
てしまう。
[0017] For objects that contain only low frequency components, it is better to have a wider focus detection area, and if reliable calculation results cannot be obtained for any of the multiple small blocks. In this case, it is conceivable to create a new block with a wider width and perform the calculation again. However, this results in an increase in calculation time and a poor usability.

【0018】本発明の目的は、イメ−ジセンサをブロッ
クに分割するにあたって被写体の空間周波数成分に適し
た大きさのブロックに分割して焦点検出精度を向上させ
ることにある。
An object of the present invention is to improve focus detection accuracy by dividing an image sensor into blocks of a size suitable for the spatial frequency components of an object.

【0019】[0019]

【課題を解決するための手段】[Means to solve the problem]

一実施例を示す図1に対応づけて本発明を説明すると、
本発明はレンズ20の異なる2つの部分を透過した光よ
り作られる2像を一対のイメージセンサアレイ40上に
導く焦点検出光学系30と、一対のイメージセンサアレ
イ40をそれぞれ小ブロックに分割し、画像出力を各ブ
ロックごとに取り出す分割手段53と、一対のイメ−ジ
センサセンサアレイ40のそれぞれから得られる画像出
力を相互にシフトして2像の相対ずれ量を演算する焦点
検出演算手段54と、ブロックの幅の広さを変更する変
更手段52とを備える焦点検出装置に適用され、被写体
の有する空間周波数成分を分析して高い周波数成分を含
んでいると判定すると変更手段52を介してブロックを
狭くし、低い周波数成分であると判定するとブロックを
広くする判定手段51を具備することにより、上記目的
が達成される。
The present invention will be explained in conjunction with FIG. 1 showing one embodiment.
The present invention includes a focus detection optical system 30 that guides two images created by light transmitted through two different parts of a lens 20 onto a pair of image sensor arrays 40, and a focus detection optical system 30 that divides the pair of image sensor arrays 40 into small blocks. a dividing means 53 for extracting the image output for each block; a focus detection calculating means 54 for calculating the relative shift amount of the two images by mutually shifting the image outputs obtained from each of the pair of image sensor sensor arrays 40; It is applied to a focus detection device equipped with a changing means 52 that changes the width of the block, and when it analyzes the spatial frequency component of the object and determines that it contains a high frequency component, the block is changed via the changing means 52. The above object is achieved by providing a determining means 51 that widens the block when it is determined that the block is narrow and that it is a low frequency component.

【0020】[0020]

【作用】[Effect]

対物レンズ20の異なる2つの部分を透過した光より作
られる被写体の2像は、焦点検出光学系30によって一
対のイメージセンサアレイ40上に結像する。一対のイ
メージセンサアレイ40の画像出力は判定手段51に送
られ、判定手段51はこのイメージセンサアレイ40の
画像出力を分析し、被写体の有する空間周波数成分に高
い周波数成分が含まれていると判定すると、変更手段5
2を介してブロックの幅を狭くする旨を分割手段53に
指令し、逆に低い周波数成分であると判定するとブロッ
クの幅を広くする旨を指令する。このような指令により
分割手段53はこの一対のイメージセンサアレイ40の
画像出力をそれぞれ小ブロックに分割し、各ブロック毎
に取り出す。焦点検出演算手段54は、このようにして
決められた幅のブロックのそれぞれの画像出力を相互に
シフトして前記2像の相対ずれ量を演算し、焦点を検出
する。
Two images of the object created from the light transmitted through two different parts of the objective lens 20 are formed on a pair of image sensor arrays 40 by the focus detection optical system 30. The image outputs of the pair of image sensor arrays 40 are sent to the determining means 51, and the determining means 51 analyzes the image outputs of the image sensor arrays 40 and determines that the spatial frequency components of the subject include high frequency components. Then, changing means 5
2, the dividing means 53 is instructed to narrow the width of the block, and conversely, when it is determined that the frequency component is a low frequency component, it is instructed to widen the width of the block. In response to such a command, the dividing means 53 divides the image output of the pair of image sensor arrays 40 into small blocks, and takes out each block. The focus detection calculation means 54 mutually shifts the image outputs of the blocks having the width determined in this way, calculates the relative shift amount between the two images, and detects the focus.

【0021】なお、本発明の構成を説明する上記課題を
解決するための手段および作用の項では、本発明を分り
やすくするために実施例の図を用いたが、これにより本
発明が実施例に限定されるものではない。
[0021] In the section of means and effects for solving the above-mentioned problems that explains the structure of the present invention, figures of embodiments are used to make the present invention easier to understand. It is not limited to.

【0022】[0022]

【実施例】 図1は本発明の一実施例を示す構成図である。 10は被写体、20は対物レンズ、30は例えば図10
、あるいは図14に示す焦点検出光学系であり、視野マ
スク,フィールドレンズ,絞り開口部および再結像レン
ズから構成される。40は図10に示す一対のイメージ
センサアレイ、もしくは図13に示すように複数の方向
にそれぞれ一対のイメージセンサアレイを配置したイメ
ージセンサアレイ、50は種々の演算とカメラの制御を
行うマイクロコンピュ−タを含む制御回路である。
Embodiment FIG. 1 is a configuration diagram showing an embodiment of the present invention. 10 is a subject, 20 is an objective lens, and 30 is, for example, FIG.
, or the focus detection optical system shown in FIG. 14, which is composed of a field mask, a field lens, an aperture aperture, and a reimaging lens. 40 is a pair of image sensor arrays shown in FIG. 10, or an image sensor array in which a pair of image sensor arrays are arranged in a plurality of directions as shown in FIG. 13, and 50 is a microcomputer that performs various calculations and controls the camera. This is a control circuit that includes a controller.

【0023】図1においては、マイクロコンピュ−タが
行う各種の演算処理を機能ごとの要素51〜56として
示してあり、以下、これらの各要素51〜56について
詳述する。パターン判定部51は、イメージセンサアレ
イ40の画像出力から被写体の画像パターンに含まれる
周波数成分を検出し、これに基づいてイメ−ジセンサア
レイ40を分割するブロックの幅の広さを決定する。具
体的には、イメージセンサアレイ40の出力データに対
して空間周波数のバンドパス特性を有するフィルタ処理
の演算を行う。このフィルタ処理は一対のイメージセン
サアレイ40の内のどちらか一方の出力に対して行う。 いま、その処理前のデータをdaとしフィルタ処理後の
データをFとすると、データFは次式によって求められ
る。   F(i)=−da(i)+2×da(i+2)− 
 da(i+4)+128             
                         
                      ・・・
(3)  ここで、i=1,2,3,4,5,・・・・
In FIG. 1, various types of arithmetic processing performed by the microcomputer are shown as elements 51 to 56 for each function, and each of these elements 51 to 56 will be described in detail below. The pattern determination unit 51 detects frequency components included in the image pattern of the subject from the image output of the image sensor array 40, and determines the width of the blocks into which the image sensor array 40 is divided based on this. Specifically, the output data of the image sensor array 40 is subjected to filter processing having spatial frequency bandpass characteristics. This filter processing is performed on the output of one of the pair of image sensor arrays 40. Now, assuming that the data before processing is da and the data after filter processing is F, data F is obtained by the following equation. F(i)=-da(i)+2×da(i+2)-
da(i+4)+128

...
(3) Here, i=1, 2, 3, 4, 5,...

【0024】このフィルター処理によるMTFを図2
に示す。イメージセンサアレイ40の画素のピッチをP
iとすると(1/4Pi)本/mmをピークとしたMT
Fが得られ、例えばPi=100μmであるとすると2
.5本/mmがピークとなる。このフィルタ処理を図3
(a)に示すような高周波成分を含む画像パターンに対
して施すと、図3(b)に示すようなコントラストを持
つデータが得られる。一方、図4(a)のような低周波
成分のみからなる画像パターンの時は、フィルター処理
を施すと図4(b)に示すようにコントラストが消えて
しまう。従って、フィルタ処理を行ったデータ列Fの最
大値と最小値の差(以下、P−P値と略す)が所定値以
上であれば、被写体は十分に高周波成分を含んでいると
判断する。逆に、所定値以下の時には被写体は低周波成
分のみからなるパターンであると判断する。
FIG. 2 shows the MTF resulting from this filtering process.
Shown below. The pixel pitch of the image sensor array 40 is P
If i is (1/4Pi) MT with a peak of 1/mm
If F is obtained and, for example, Pi = 100 μm, then 2
.. The peak is 5 lines/mm. This filtering process is shown in Figure 3.
When applied to an image pattern including high frequency components as shown in FIG. 3(a), data having contrast as shown in FIG. 3(b) is obtained. On the other hand, in the case of an image pattern consisting only of low frequency components as shown in FIG. 4(a), when filter processing is applied, the contrast disappears as shown in FIG. 4(b). Therefore, if the difference between the maximum value and the minimum value (hereinafter abbreviated as P-P value) of the data string F subjected to filter processing is greater than or equal to a predetermined value, it is determined that the subject contains sufficiently high frequency components. On the other hand, when it is less than a predetermined value, it is determined that the object has a pattern consisting only of low frequency components.

【0025】変更部52は、パターン判定部51での判
定結果に従ってイメ−ジセンサアレイ40上で分割する
ブロックの幅を変更すべく分割部53を制御する。分割
部53は、一対のイメージセンサアレイ40をそれぞれ
小ブロックに分割し、各画像出力a1..an,b1.
.bnを各ブロック毎に取り出す。焦点検出演算部54
は、それぞれのブロックから取り出された画像出力ごと
に、前述の相関演算、補間演算等のデフォーカス量DF
算出に関する処理を行う。条件判定部55は、焦点検出
演算部54で算出されたデフォーカス量DFが前述の条
件(1)を満たしているか否かの判定を行う。選択部5
6は、条件判定部55によって条件(1)を満たしてい
ると判定されたデフォーカス量DFのなかから所定の条
件を満たすものを選択する。これらの各要素51〜56
はマイクロコンピュ−タのプログラム処理によって実現
される。
The changing section 52 controls the dividing section 53 to change the width of the blocks to be divided on the image sensor array 40 according to the determination result by the pattern determining section 51. The dividing unit 53 divides the pair of image sensor arrays 40 into small blocks, and outputs each image a1. .. an, b1.
.. bn for each block. Focus detection calculation unit 54
is the defocus amount DF of the above-mentioned correlation calculation, interpolation calculation, etc. for each image output extracted from each block.
Performs processing related to calculation. The condition determination unit 55 determines whether the defocus amount DF calculated by the focus detection calculation unit 54 satisfies the above-mentioned condition (1). Selection section 5
6 selects one that satisfies a predetermined condition from among the defocus amounts DF determined by the condition determination unit 55 to satisfy condition (1). Each of these elements 51 to 56
is realized by program processing of a microcomputer.

【0026】60は、選択部56が選択したデフォーカ
ス量DFに基づいて駆動モーター70を駆動する駆動制
御部である。このように構成される焦点検出装置の動作
を図6のフローチャートに従って説明する。なお、以下
の説明においては、焦点検出光学系30およびイメージ
センサアレイ40を例えば図10に示すものとし、水平
方向について焦点検出を行うものとする。また、一対の
イメージセンサアレイ41a,41bはそれぞれ図5に
示すように72個の画素から成っているものとし、その
出力は図5(a)のようにそれぞれ6個の画素からなる
幅の狭い12組のブロックまたは図5(b)のようにそ
れぞれ12個の画素からなる幅の広い6組のブロックに
分割するものとする。
Reference numeral 60 denotes a drive control section that drives the drive motor 70 based on the defocus amount DF selected by the selection section 56. The operation of the focus detection device configured as described above will be explained according to the flowchart of FIG. In the following description, the focus detection optical system 30 and the image sensor array 40 are shown in FIG. 10, for example, and focus detection is performed in the horizontal direction. Furthermore, it is assumed that the pair of image sensor arrays 41a and 41b each consist of 72 pixels as shown in FIG. It is assumed that the image is divided into 12 sets of blocks or 6 sets of wide blocks each consisting of 12 pixels as shown in FIG. 5(b).

【0027】図6は、このように構成される焦点検出装
置の焦点検出動作を示すフローチャートである。ステッ
プS101においてイメージセンサアレイ41の画像デ
ータの蓄積が終了したらステップS102へ進み、マイ
クロコンピュータ50はそれぞれの画素の出力を取り込
みステップS103に進む。ステップS103において
パターン判定部51は、図10に示す一方のイメージセ
ンサアレイ41aの出力に対して前述のようなフィルタ
処理を施す。そしてステップS104でP−P値が所定
の値Cthよりも大きいか否かを判定する。大きいとき
には被写体は十分に高周波成分を含んでいると判定して
ステップS105へ進み、分割部53は変更部52の制
御の下で各イメ−ジセンサアレイ41a,41bの出力
を幅の狭い小ブロックに分割し、焦点検出演算部54は
それらの小ブロックごとの出力について前述した焦点検
出演算を行い、複数のデフォーカス量DFを求める。P
−P≦Cthの時には被写体は低周波成分のみからなる
パターンであるとしてステップS106へ進み、変更部
52の制御の下に分割部53は各イメ−ジセンサアレイ
41a,41bの出力を幅の広いブロックに分割し、演
算部54は幅の広い各ブロックごとに焦点検出演算を行
い複数のデフォーカス量DFを求める。
FIG. 6 is a flowchart showing the focus detection operation of the focus detection device configured as described above. When the accumulation of image data in the image sensor array 41 is completed in step S101, the process proceeds to step S102, where the microcomputer 50 captures the output of each pixel and proceeds to step S103. In step S103, the pattern determination unit 51 performs the above-described filtering process on the output of one of the image sensor arrays 41a shown in FIG. Then, in step S104, it is determined whether the P-P value is larger than a predetermined value Cth. If the size is large, it is determined that the object contains sufficiently high frequency components, and the process proceeds to step S105, where the dividing section 53 divides the outputs of the image sensor arrays 41a and 41b into narrow small blocks under the control of the changing section 52. The focus detection calculation section 54 performs the focus detection calculation described above on the output of each of these small blocks to obtain a plurality of defocus amounts DF. P
-P≦Cth, it is assumed that the object has a pattern consisting only of low frequency components, and the process proceeds to step S106. Under the control of the changing unit 52, the dividing unit 53 divides the outputs of the image sensor arrays 41a and 41b into wide blocks. The calculation unit 54 performs focus detection calculation for each wide block to obtain a plurality of defocus amounts DF.

【0028】続いてステップS107において、こうし
て演算された複数のデフォーカス量DFの中で信頼でき
るものがあるかどうかを判定し、信頼できるものがあれ
ばステップS108へ進み、信頼できるものがなければ
ステップS110へ進む。このステップS107が条件
判定部55に相当する。ステップS108では、信頼で
きると判定されたデフォーカス量DFの中から、所定の
条件(例えば最も至近を示すデフォーカス量)を満たす
ものを選択する。このステップが選択部56に相当する
。そしてステップS109で駆動制御部60は、選択部
56が選択したデフォーカス量DFだけ対物レンズ20
が駆動されるようにモーター70を制御する。もしステ
ップS107で、信頼性のあるデフォーカス量DFが一
つも得られなかったときには、ステップS110におい
て駆動制御部60は対物レンズ20をスキャン動作させ
る。これは、対物レンズ20をいったん最至近撮影位置
まで駆動し、次に駆動方向を逆転して無限遠方撮影位置
まで駆動し、その間に信頼性のあるデフォーカス量DF
が得られるレンズ位置を捜す動作である。
Next, in step S107, it is determined whether or not there is a reliable one among the plurality of defocus amounts DF calculated in this way, and if there is a reliable one, the process advances to step S108; The process advances to step S110. This step S107 corresponds to the condition determination section 55. In step S108, one that satisfies a predetermined condition (for example, the closest defocus amount) is selected from among the defocus amounts DF determined to be reliable. This step corresponds to the selection section 56. Then, in step S109, the drive control unit 60 controls the objective lens 20 by the defocus amount DF selected by the selection unit 56.
The motor 70 is controlled so that the motor 70 is driven. If no reliable defocus amount DF is obtained in step S107, the drive control unit 60 causes the objective lens 20 to perform a scanning operation in step S110. This is done by first driving the objective lens 20 to the closest photographing position, then reversing the driving direction and driving it to the infinitely far photographing position.
This is an operation to search for a lens position that can be obtained.

【0029】なお、ステップS104に於てP−P値が
所定の値を越えているるとしてステップS105に進み
小ブロックで焦点検出演算を行ったとき、一つも信頼性
のあるデフォーカス量が得られなかったときには大ブロ
ックモードに設定し直して再度焦点検出演算を行うよう
にしてもよい。
Note that when it is determined in step S104 that the P-P value exceeds a predetermined value, the process proceeds to step S105 and a focus detection calculation is performed on a small block. If not, the focus detection calculation may be performed again by resetting to the large block mode.

【0030】次に、焦点検出光学系30とイメージセン
サアレイ40を図14に示す構成とした場合、すなわち
水平方向と垂直方向の二方向についてそれぞれ焦点検出
を行う場合について説明する。水平方向の焦点検出を行
う一対のイメージセンサアレイ42a,42bはそれぞ
れ図5に示すように72個の画素から成っており、上述
したと同様に(a)のように6個の画素からなる幅の狭
い12組のブロック分割または、(b)のように12個
の画素からなる幅の広い6組のブロック分割を行って焦
点検出演算が行われる。また、垂直方向の焦点検出を行
う一対のイメージセンサアレイ42c,42dはそれぞ
れ図15に示すように36個の画素から成っており、(
a)のように6個の画素からなる幅の狭い6組のブロッ
クに分割される小ブロックモード、または(b)のよう
に12個の画素からなる幅の広い3組のブロックによる
大ブロックモードが選択される。
Next, a case where the focus detection optical system 30 and the image sensor array 40 are configured as shown in FIG. 14, that is, a case where focus detection is performed in two directions, horizontal direction and vertical direction, will be explained. A pair of image sensor arrays 42a and 42b that perform focus detection in the horizontal direction each consist of 72 pixels as shown in FIG. Focus detection calculations are performed by dividing into 12 narrow blocks or by dividing into 6 wide blocks each consisting of 12 pixels as shown in (b). Furthermore, the pair of image sensor arrays 42c and 42d that perform focus detection in the vertical direction each consist of 36 pixels as shown in FIG.
Small block mode divided into 6 narrow blocks of 6 pixels as shown in a), or large block mode divided into 3 wide blocks of 12 pixels as shown in (b) is selected.

【0031】このように構成した場合の焦点検出演算動
作を図7によって説明する。ステップS201において
イメージセンサアレイ42での蓄積が終了したら、ステ
ップS202でそれぞれの画素の出力を取り込み、さら
にステップS203でパターン判別部51は水平方向の
一対のイメージセンサアレイの内42a列に対して前述
のようにフィルター処理を施す。ステップS204で前
述のP−P値が所定の値Cthよりも大きいか否かを判
定し、大きいときには被写体は十分に高周波成分を含ん
でいるとしてステップS205へ進み、幅の狭い小ブロ
ックモードによる焦点検出演算を前述と同じ手順で行う
。所定値以下の時には被写体は低周波成分のみからなる
パターンであるとして、ステップS206で幅の広い大
ブロックモードによる焦点検出演算を行う。
The focus detection calculation operation in the case of this configuration will be explained with reference to FIG. When the accumulation in the image sensor array 42 is completed in step S201, the output of each pixel is taken in in step S202, and further in step S203, the pattern discrimination unit 51 performs the Apply filter processing like this. In step S204, it is determined whether the above-mentioned P-P value is larger than a predetermined value Cth, and if it is larger, it is determined that the subject contains sufficiently high frequency components, and the process proceeds to step S205, where the focus is set in the narrow small block mode. The detection calculation is performed in the same procedure as described above. When the value is less than the predetermined value, it is assumed that the object has a pattern consisting only of low frequency components, and focus detection calculation is performed in a wide large block mode in step S206.

【0032】続いてステップS207へ進み、パターン
判別部51は垂直方向の一対のイメージセンサアレイの
内42c列に対してフィルター処理を施す。そしてステ
ップS208において、前述のP−P値が所定の値Ct
hよりも大きいか否かを判定し、大きいときにはステッ
プS209へ進み被写体は十分に高周波成分を含んでい
るとして、幅の狭い小ブロックモードによる焦点検出演
算を実行する。所定値以下の時にはステップS210へ
進み被写体は低周波成分のみからなるパターンであると
して、幅の広い大ブロックモードによる焦点検出演算を
行う。
The process then proceeds to step S207, where the pattern discrimination section 51 performs filter processing on column 42c of the pair of image sensor arrays in the vertical direction. Then, in step S208, the above-mentioned P-P value is set to a predetermined value Ct.
It is determined whether or not it is larger than h, and if it is larger, the process proceeds to step S209, where it is assumed that the subject contains sufficiently high frequency components, and a focus detection calculation is performed in a narrow small block mode. When the value is less than the predetermined value, the process proceeds to step S210, where it is assumed that the object has a pattern consisting only of low frequency components, and focus detection calculation is performed in a wide large block mode.

【0033】次にステップS211で、上述のようにし
て演算された水平方向、垂直方向の複数のデフォーカス
量DFの中から条件判定部55は信頼できるデータを判
定し、信頼できるデフォーカス量があればステップS2
12へ進む。そして、このステップS212において、
それらの中から選択部56は所定の条件(例えば最も至
近を示すデフォーカス量)を満たすものを選択する。ス
テップS213で駆動制御部60は選択部56が選択し
たデフォーカス量DFだけ対物レンズ20を駆動するよ
うにモーター70を制御する。
Next, in step S211, the condition determining unit 55 determines reliable data from among the plurality of horizontal and vertical defocus amounts DF calculated as described above, and determines whether the reliable defocus amount is If so, step S2
Proceed to step 12. Then, in this step S212,
Among them, the selection unit 56 selects one that satisfies a predetermined condition (for example, the amount of defocus indicating the closest distance). In step S213, the drive control unit 60 controls the motor 70 to drive the objective lens 20 by the defocus amount DF selected by the selection unit 56.

【0034】もし、ステップS211で信頼性のあるデ
フォーカス量DFが一つも得られなかったときは、ステ
ップS214へ進み、駆動制御部60は対物レンズ20
を前述と同様にスキャン動作させ、その間に信頼性のあ
るデフォーカス量DFが得られるレンズ位置を捜す
If no reliable defocus amount DF is obtained in step S211, the process advances to step S214, and the drive control section 60 controls the objective lens 20.
Perform the scanning operation in the same manner as described above, and during that time search for a lens position where a reliable defocus amount DF can be obtained.

【0
035】なお、ステップS204またはステップS20
8においてP−P値が所定の値より大であるとしてステ
ップS205またはステップS209で小ブロック演算
を行った結果、信頼性のあるデフォーカス量DFが得ら
れなかったときに、その方向に関して大ブロックモード
に設定し直して再度演算を行うようにしてもよい。
0
[035] Note that step S204 or step S20
8, when the P-P value is larger than a predetermined value and a reliable defocus amount DF is not obtained as a result of performing small block calculation in step S205 or step S209, a large block is calculated in that direction. It is also possible to reset the mode and perform the calculation again.

【0036】上述の図7による焦点検出によれば、水平
方向と垂直方向とで異なるブロックモードが選択される
場合もありえるが、2方向に対して同じブロックモード
を適用するようにしてもよい。このような場合の動作を
図8,図9を用いて説明する。ステップS301でイメ
ージセンサアレイ42の蓄積が終了したら、ステップS
302でそれぞれの画素の出力を取り込み、ステップS
303においてパターン判別部51は水平方向の一対の
イメージセンサアレイのうち一方のアレイ42aと垂直
方向の一対のイメージセンサアレイのうち一方のアレイ
42cに対して前述のようにフィルタ処理を施す。そし
てステップS305で、水平方向と垂直方向のP−P値
の中で少なくともどちらか一方が所定の値Cthよりも
大きいか否かを判定して、二方向の内のどちらか一方で
も所定値よりも大きいP−P値があればステップS30
6へ進み、幅の狭い小ブロックモードによる焦点検出演
算を水平、垂直の両方向に対して行う。どちらの方向も
所定値以下の時にはステップS307へ進み、幅の広い
大ブロックモードによる焦点検出演算を水平、垂直の両
方向に対して行う。そしてステップS308で条件判定
部55によって信頼できるデフォーカス量DFが存在す
るか否かを判定して、存在するときにはステップS31
2に進み、選択部56は複数のデフォーカス量DFの中
から所定の条件(例えば、最も至近を示すデフォーカス
量)を満たすものを選択する。次いでステップS313
に進み、駆動制御部60は選択部56が選択したデフォ
ーカス量DFだけ対物レンズ20が駆動されるようにモ
ータ70を制御する。
According to the focus detection shown in FIG. 7 described above, different block modes may be selected for the horizontal direction and the vertical direction, but the same block mode may be applied to the two directions. The operation in such a case will be explained using FIGS. 8 and 9. When the storage of the image sensor array 42 is completed in step S301, step S301 is completed.
In 302, the output of each pixel is captured, and in step S
In 303, the pattern discrimination unit 51 performs the filtering process as described above on one array 42a of the pair of horizontal image sensor arrays and one array 42c of the pair of vertical image sensor arrays. Then, in step S305, it is determined whether at least one of the horizontal and vertical P-P values is larger than a predetermined value Cth, and either one of the two directions is also larger than the predetermined value. If there is a large P-P value, step S30
Proceeding to step 6, focus detection calculations in narrow small block mode are performed in both the horizontal and vertical directions. If both directions are below the predetermined value, the process proceeds to step S307, and focus detection calculations in wide large block mode are performed in both the horizontal and vertical directions. Then, in step S308, the condition determining unit 55 determines whether or not a reliable defocus amount DF exists, and if it exists, step S31
Proceeding to step 2, the selection unit 56 selects one that satisfies a predetermined condition (for example, the closest defocus amount) from among the plurality of defocus amounts DF. Then step S313
The drive control unit 60 controls the motor 70 so that the objective lens 20 is driven by the defocus amount DF selected by the selection unit 56.

【0037】ステップS308において信頼できるデフ
ォーカス量DFが存在しないと判定されたときにはステ
ップS309へ進み、大ブロック演算を行ったか否かを
判定して、大ブロック演算を行っていない場合にはステ
ップS310で幅の広い大ブロックモードによる焦点検
出演算を水平、垂直の両方向について演算する。次いで
、ステップS311に進み、ここで信頼のあるデフォー
カス量DFが一つも得られなかったとき、およびステッ
プS309で既に大ブロック演算が行われていたと判定
された時には、ステップS314で対物レンズ20をス
キャン動作させ、その間に信頼性のあるデフォーカス量
DFが得られるレンズ位置を捜す。なお、ステップS3
11で信頼性のあるデフォーカス量DFが得られたなら
ば、ステップS312、ステップS313で上述と同様
に選択したデフォーカス量DFに基づいて対物レンズ2
0を駆動する。
If it is determined in step S308 that a reliable defocus amount DF does not exist, the process advances to step S309, where it is determined whether or not a large block calculation has been performed, and if the large block calculation has not been performed, the process proceeds to step S310. Focus detection calculations in wide large block mode are performed in both horizontal and vertical directions. Next, the process advances to step S311, and if no reliable defocus amount DF is obtained here, and if it is determined that large block calculation has already been performed in step S309, the objective lens 20 is changed in step S314. A scanning operation is performed, during which a lens position where a reliable defocus amount DF can be obtained is searched. Note that step S3
If a reliable defocus amount DF is obtained in step S312 and step S313, the objective lens 2 is adjusted based on the defocus amount DF selected in the same manner as described above.
Drive 0.

【0038】上記実施例では、小ブロックモードまたは
大ブロックモードのいずれかを選択して焦点検出演算を
行なう方法を示した。しかし、図18(a)に示すよう
に、焦点検出領域内に低周波パターンの被写体と高周波
パターンの被写体とが混在する場合には、高周波パター
ンがあるためにP−P値が所定値Cthを越えて小ブロ
ックモードが選択されてしまい、図18(b)に示すよ
うに、高周波パターンの被写体に対しては焦点検出が可
能であるが、低周波パターンの被写体に対しては焦点検
出不能になる。従って、撮影レンズは高周波パターンの
被写体に合焦する。もし、撮影者の意図する被写体が、
高周波パターンの被写体でなく低周波パターンの被写体
であった場合は、不所望な被写体に合焦してしまうこと
になる。
In the above embodiment, a method was shown in which the focus detection calculation was performed by selecting either the small block mode or the large block mode. However, as shown in FIG. 18(a), when a subject with a low frequency pattern and a subject with a high frequency pattern coexist in the focus detection area, the P-P value will exceed the predetermined value Cth due to the presence of the high frequency pattern. As shown in Figure 18(b), focus detection is possible for subjects with high frequency patterns, but focus detection is impossible for subjects with low frequency patterns. Become. Therefore, the photographing lens focuses on the subject of the high frequency pattern. If the photographer's intended subject is
If the object is not a high-frequency pattern object but a low-frequency pattern object, an undesired object will be in focus.

【0039】このような場合には、図19に示すように
、(1)式によるフィルター処理データの中でコントラ
ストの変化が大きいセンサ位置では狭いブロック幅を設
定し、コントラストの変化の小さいセンサ位置では広い
ブロック幅を設定して、それぞれのブロックで焦点検出
演算を行なうようにしてもよい。
In such a case, as shown in FIG. 19, a narrow block width is set for the sensor position where the contrast change is large among the filtered data using equation (1), and the sensor position where the contrast change is small is set. Then, a wide block width may be set and focus detection calculations may be performed for each block.

【0040】また、ブロックの境界に被写体パターンの
コントラストのエッジが位置すると、焦点検出演算結果
が不安定になることがある。このような場合には、本出
願人により特開平2−135311号公報に開示された
方法、すなわちブロックの境界近傍のイメージセンサア
レイ出力のコントラストに応じて、ブロックの境界を移
動させることにより、この問題を解決することができる
Furthermore, if the contrast edge of the subject pattern is located at the boundary of the block, the focus detection calculation result may become unstable. In such a case, the method disclosed in Japanese Patent Application Laid-Open No. 2-135311 by the present applicant, that is, by moving the block boundary according to the contrast of the image sensor array output near the block boundary, can be used to solve this problem. be able to solve problems.

【0041】なお本発明は、上記実施例に示す1次元イ
メージセンサアレイを用いた焦点検出装置に限定されな
く、イメージセンサアレイを2次元に配列した焦点検出
装置に対しても適用できる。
The present invention is not limited to the focus detection device using the one-dimensional image sensor array shown in the above embodiment, but can also be applied to a focus detection device in which the image sensor array is arranged two-dimensionally.

【0042】以上の実施例の構成において、分割部53
が分割手段を、焦点検出演算部54が焦点検出演算手段
を、変更部52が変更手段を、パターン判定部51が判
定手段をそれぞれ構成する。
In the configuration of the above embodiment, the dividing section 53
constitutes a dividing means, the focus detection calculating section 54 constitutes a focus detecting calculating means, the changing section 52 constitutes a changing means, and the pattern determining section 51 constitutes a determining means.

【0043】[0043]

【発明の効果】以上説明したように本発明によれば、被
写体の有する空間周波数成分を分析して高い周波数成分
を含んでいると判定すると、イメージセンサアレイの画
像出力を狭い小ブロックに分割し、逆に低い周波数成分
であると判定すると広い大ブロックに分割して焦点検出
演算を行うように構成したことにより、コントラストの
はっきりした被写体からコントラストの弱い全体的にの
っぺりした被写体まで、あらゆる被写体に対して精度の
高い焦点検出演算を迅速に行うことができる。
As explained above, according to the present invention, when the spatial frequency components of an object are analyzed and it is determined that the object contains high frequency components, the image output of the image sensor array is divided into narrow small blocks. On the other hand, if it is determined that it is a low frequency component, it is divided into wide large blocks and focus detection calculations are performed.This makes it possible to capture all kinds of subjects, from subjects with sharp contrast to flat subjects with weak contrast. In contrast, highly accurate focus detection calculations can be performed quickly.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例の構成を示す図である。FIG. 1 is a diagram showing the configuration of an embodiment of the present invention.

【図2】フィルタ処理によるMTF特性を示す図である
FIG. 2 is a diagram showing MTF characteristics due to filter processing.

【図3】(a)は高周波成分の画像パターンを示す図で
あり、(b)は(a)の画像パターンのフィルタ処理結
果を示す図である。
FIG. 3(a) is a diagram showing an image pattern of high frequency components, and FIG. 3(b) is a diagram showing a filter processing result of the image pattern in FIG. 3(a).

【図4】(a)は低周波成分の画像パターンを示す図で
あり、(b)は(a)の画像パターンのフィルタ処理結
果を示す図である。
FIG. 4(a) is a diagram showing an image pattern of a low frequency component, and FIG. 4(b) is a diagram showing a filter processing result of the image pattern in (a).

【図5】ブロックの分割方法を示す図であり、(a)は
72個の画素を12分割する場合、(b)は6分割する
場合をそれぞれ示す。
FIG. 5 is a diagram illustrating a method of dividing a block; (a) shows a case where 72 pixels are divided into 12 parts, and (b) shows a case where 72 pixels are divided into 6 parts.

【図6】水平方向のみに対して焦点検出を行う手順を示
すフローチャート。
FIG. 6 is a flowchart showing a procedure for performing focus detection only in the horizontal direction.

【図7】水平方向および垂直方向の二方向に対して焦点
検出を行う手順を示すフローチャート。
FIG. 7 is a flowchart showing a procedure for performing focus detection in two directions, horizontal and vertical.

【図8】二方向に対して焦点検出を行う場合の手順の別
例を示すフローチャート。
FIG. 8 is a flowchart showing another example of the procedure when performing focus detection in two directions.

【図9】二方向に対して焦点検出を行う場合の手順の別
例を示すフローチャート。
FIG. 9 is a flowchart showing another example of the procedure when focus detection is performed in two directions.

【図10】一方向に対して焦点検出を行う場合の焦点検
出光学系の構成を示す図である。
FIG. 10 is a diagram showing the configuration of a focus detection optical system when focus detection is performed in one direction.

【図11】(a)は、一対のイメージセンサアレイの内
の一方の光電変換出力を示す図であり、(b)は、他方
の光電変換出力を示す図である。
FIG. 11(a) is a diagram showing the photoelectric conversion output of one of a pair of image sensor arrays, and FIG. 11(b) is a diagram showing the photoelectric conversion output of the other image sensor array.

【図12】(a)は、シフト量Lに対する相関量C(L
)を示す図であり、(b)は、極小値Cexを算出する
方法を示す図である。
FIG. 12(a) shows the correlation amount C(L
), and (b) is a diagram showing a method of calculating the local minimum value Cex.

【図13】本発明に係るイメージセンサアレイの一例を
示す図である。
FIG. 13 is a diagram showing an example of an image sensor array according to the present invention.

【図14】(a)は、複数の方向に対して焦点検出を行
う場合の焦点検出光学系を示す図であり、(b)は、そ
の再結像レンズを示す図である。
FIG. 14(a) is a diagram showing a focus detection optical system when performing focus detection in a plurality of directions, and FIG. 14(b) is a diagram showing a re-imaging lens thereof.

【図15】ブロックの分割方法を示す図であり、(a)
は36個の画素を6分割する場合、(b)は36個の画
素を3分割する場合をそれぞれ示す。
FIG. 15 is a diagram showing a block division method, (a)
(b) shows the case where 36 pixels are divided into 6, and (b) shows the case where 36 pixels are divided into 3.

【図16】(a)は、コントラストのはっきりした被写
体パターンを示す図であり、(b)は、(a)の被写体
パターンに対するブロック幅を示す図である。
16(a) is a diagram showing an object pattern with clear contrast, and FIG. 16(b) is a diagram showing the block width for the object pattern in FIG. 16(a).

【図17】(a)は、コントラストのない全体的にのっ
ぺりした被写体パターンを示す図であり、(b)は、(
a)の被写体パターンに対するブロック幅を示す図であ
る。
FIG. 17(a) is a diagram showing an overall flat subject pattern with no contrast, and FIG. 17(b) is a diagram showing (
FIG. 7 is a diagram showing block widths for the subject pattern in a).

【図18】(a)は、焦点検出領域内に高周波および低
周波の被写体パターンが混在する場合を示す図であり、
(b)は、(a)に示す被写体パターンに対するフィル
ター処理後のデータを示す図である。
FIG. 18(a) is a diagram showing a case where high-frequency and low-frequency subject patterns coexist within the focus detection area;
(b) is a diagram showing data after filter processing for the subject pattern shown in (a).

【図19】焦点検出領域内に、高周波数および低周波数
の被写体パターンが混在する場合のブロックの分割例を
示す図である。
FIG. 19 is a diagram showing an example of block division when high-frequency and low-frequency subject patterns coexist within the focus detection area.

【符号の説明】[Explanation of symbols]

20,21,22  対物レンズ 30  焦点検出光学系 31,36  視野マスク 32,37  フィールドレンズ 33,38  絞り 34,35,39  再結像レンズ 40,41,42,43  イメージセンサアレイ50
  マイクロコンピュ−タ 51  パターン判定部 52  変更部 53  分割部 54  焦点検出演算部 55  条件判定部 56  選択部 60  駆動制御部 70  駆動モータ
20, 21, 22 Objective lens 30 Focus detection optical system 31, 36 Field mask 32, 37 Field lens 33, 38 Aperture 34, 35, 39 Reimaging lens 40, 41, 42, 43 Image sensor array 50
Microcomputer 51 Pattern judgment section 52 Changing section 53 Division section 54 Focus detection calculation section 55 Condition judgment section 56 Selection section 60 Drive control section 70 Drive motor

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】レンズの異なる2つの部分を透過した光よ
り作られる2像を一対のイメージセンサアレイ上に導く
焦点検出光学系と、前記一対のイメージセンサアレイを
それぞれ小ブロックに分割し、画像出力を各ブロックご
とに取り出す分割手段と、前記一対のイメ−ジセンサア
レイのそれぞれから得られる画像出力を相互にシフトし
て前記2像の相対ずれ量を演算する焦点検出演算手段と
、前記ブロックの幅の広さを変更する変更手段とを備え
る焦点検出装置において、前記被写体の有する空間周波
数成分を分析して高い周波数成分を含んでいると判定す
ると前記変更手段を介して前記ブロックを狭くし、低い
周波数成分であると判定すると前記ブロックを広くする
判定手段を具備することを特徴とする焦点検出装置。
1. A focus detection optical system that guides two images formed by light transmitted through two different parts of a lens onto a pair of image sensor arrays; and a focus detection optical system that divides each of the pair of image sensor arrays into small blocks, and a dividing means for extracting an output for each block; a focus detection calculation means for mutually shifting image outputs obtained from each of the pair of image sensor arrays to calculate a relative shift amount of the two images; In a focus detection device comprising a changing means for changing the width of the block, if a spatial frequency component of the subject is analyzed and it is determined that the block contains a high frequency component, the block is narrowed via the changing means; A focus detection device characterized by comprising determining means that widens the block when determining that it is a low frequency component.
JP3050714A 1990-03-01 1991-02-22 Focus detecting device Pending JPH04211213A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3050714A JPH04211213A (en) 1990-03-01 1991-02-22 Focus detecting device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5223090 1990-03-01
JP2-52230 1990-03-01
JP3050714A JPH04211213A (en) 1990-03-01 1991-02-22 Focus detecting device

Publications (1)

Publication Number Publication Date
JPH04211213A true JPH04211213A (en) 1992-08-03

Family

ID=26391166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3050714A Pending JPH04211213A (en) 1990-03-01 1991-02-22 Focus detecting device

Country Status (1)

Country Link
JP (1) JPH04211213A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195655A (en) * 2003-12-26 2005-07-21 Kyocera Corp Automatic focus detecting device and electronic camera equipped with the same
CN103837959A (en) * 2012-11-21 2014-06-04 佳能株式会社 Focus detection apparatus, focus detection method, and image capturing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195655A (en) * 2003-12-26 2005-07-21 Kyocera Corp Automatic focus detecting device and electronic camera equipped with the same
CN103837959A (en) * 2012-11-21 2014-06-04 佳能株式会社 Focus detection apparatus, focus detection method, and image capturing apparatus
US9160918B2 (en) 2012-11-21 2015-10-13 Canon Kabushiki Kaisha Focus control apparatus and method for performing focus control by phase difference detection, and image capturing apparatus

Similar Documents

Publication Publication Date Title
US5396336A (en) In-focus detecting device
JP2605282B2 (en) Automatic focusing device
JP3823328B2 (en) Focus detection device
US5623707A (en) Auto focus adjustment system and auto focus adjustment method
US5654790A (en) Focus state detection device and method
US6636699B2 (en) Focus detection device and distance measurement device
US5572282A (en) Focus detecting apparatus
JPH04211213A (en) Focus detecting device
JPH07181369A (en) Automatic focusing camera, and automatic focusing method of camera
EP1882966A1 (en) Focus detection apparatus
JP6512989B2 (en) Focus detection apparatus and method, and imaging apparatus
JPH11337814A (en) Optical device
JP2850336B2 (en) Focus detection device
JP4967826B2 (en) Focus detection apparatus and imaging apparatus
JP4935380B2 (en) Image tracking device and imaging device
JP2969642B2 (en) Focus detection device
JPS63194240A (en) Automatic focus detector
JP2001008085A (en) Image pickup device
JPH0875548A (en) Image sensor system and automatic focal point detector
JP3244863B2 (en) Automatic focusing device
JP2526884B2 (en) Focus detection device
JP3963535B2 (en) Multi-point distance measuring device
JP7147887B2 (en) Imaging device
JP2005128292A (en) Focus detector and camera
JP2000147363A (en) Focus detector