JPH0584485B2 - - Google Patents

Info

Publication number
JPH0584485B2
JPH0584485B2 JP59150408A JP15040884A JPH0584485B2 JP H0584485 B2 JPH0584485 B2 JP H0584485B2 JP 59150408 A JP59150408 A JP 59150408A JP 15040884 A JP15040884 A JP 15040884A JP H0584485 B2 JPH0584485 B2 JP H0584485B2
Authority
JP
Japan
Prior art keywords
light
receiving element
focus
focus detection
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59150408A
Other languages
Japanese (ja)
Other versions
JPS6128913A (en
Inventor
Juji Imai
Junichi Nakamura
Asao Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP15040884A priority Critical patent/JPS6128913A/en
Publication of JPS6128913A publication Critical patent/JPS6128913A/en
Publication of JPH0584485B2 publication Critical patent/JPH0584485B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】 (技術分野) 本発明は、合焦検出装置、詳しくはカメラや顕
微鏡などの光学装置の焦点状態を検出する合焦検
出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Technical Field) The present invention relates to a focus detection device, and more particularly to a focus detection device that detects the focus state of an optical device such as a camera or a microscope.

(従来技術) 第8図は、像の横ズレを利用した従来の合焦検
出装置を一眼レフレツクスカメラに適用した場合
の拡大断面図である。結像レンズ1から入射した
光はフイルム面5に結像するが、その間に設けた
クイツクリターンミラー3の半透鏡部と全反射鏡
のサブミラー4によりフイルム面と共役な面6に
結像されるようになつている。この面6上には受
光素子群Aの受光素子81−A、82−A,…,8
−Aと受光素子群Bの受光素子81−B,82
B,…,8o−Bとが順次交互に配置されており、
この受光素子群8の光入射側には遮光部と開口部
とが順次交互に配列されたストライプ・マスク7
が配設されている。なお、符号2は結像レンズ1
の光軸を示す。
(Prior Art) FIG. 8 is an enlarged sectional view of a conventional focus detection device that utilizes lateral image shift applied to a single-lens reflex camera. The light incident from the imaging lens 1 forms an image on the film surface 5, and is imaged on a surface 6 that is conjugate with the film surface by the semi-transparent mirror part of the quick return mirror 3 and the sub-mirror 4 of the total reflection mirror provided between them. It is becoming more and more like this. On this surface 6 are light receiving elements 8 1 -A, 8 2 -A,..., 8 of light receiving element group A.
o -A and light receiving elements 8 1 -B, 8 2 - of light receiving element group B
B,...,8 o -B are arranged alternately,
On the light incident side of this light-receiving element group 8, there is a stripe mask 7 in which light-shielding parts and openings are sequentially and alternately arranged.
is installed. In addition, the code 2 is the imaging lens 1
shows the optical axis of

次に、このように構成された装置で横ズレが起
る原理を簡単に説明する。受光素子群Aの受光素
子は主として結像レンズ1の光軸2から上半分1
Aを通過してきた光束を受光するようにし、受光
素子群Bの受光素子は主として結像レンズ1の光
軸2から下半分1Bを通過してきた光束を受光す
るように構成されている。
Next, the principle by which lateral displacement occurs in a device configured as described above will be briefly explained. The light receiving elements of the light receiving element group A are mainly located in the upper half 1 from the optical axis 2 of the imaging lens 1.
The light receiving elements of the light receiving element group B are configured to mainly receive the light flux that has passed through the lower half 1B from the optical axis 2 of the imaging lens 1.

ここで、第9図に示すように、光軸上の1点よ
り出た光束が結像レンズ1によつてフイルム面5
と共役な面6の、例えば後方の位置9に像が結像
する場合、すなわち、後ピン状態の場合には、受
光素子群Aに入射する光束の主光線10Aと受光
素子群Bに入射する光束の主光線10Bとがフイ
ルム面と共役な面6上で一致しないで距離dだけ
ずれて、それぞれ11A,11Bを通過する。こ
の距離dが像の横ズレに相当する。
Here, as shown in FIG.
When an image is formed, for example, at a rear position 9 of the surface 6 that is conjugate with The principal ray 10B of the luminous flux does not coincide with the surface 6 conjugate to the film surface, but deviates by a distance d and passes through 11A and 11B, respectively. This distance d corresponds to the lateral shift of the image.

よつて、被写体輝度がなだらかに変化するよう
な被写体、すなわち、フイルム面と共役な面6上
に第10図に示すような強度分布の像を形成する
被写体が、第9図に示すような後ピン状態にある
とき、受光素子群8の出力は、第11図に示すよ
うになる。すなわち、受光素子群Aの出力の包絡
線は実線12のようになり、受光素子群Bの出力
の包絡線は破線13で示すようになる。ここで、
包絡線12と13は横ズレし、その横ズレ量がd
となる。いま、Aiを受光素子群Aのi番目の受
光素子の出力とし、Biを受光素子群Bのi番目
の受光素子の出力とすると、 F=o-1i=1 (|Ai+1−Bi|−|Ai−Bi|) …(1) なる評価関数Fを考えたとき、この(1)式の意味す
るところは、第11図において、受光素子の出力
Aiのサンプリング点と受光素子の出力Ai+1のサン
プリング点の間隔を1ピツチとすると、受光素子
群Aの出力の包絡線12を半ピツチだけ左にずら
した線12Aと受光素子群Bの出力の包絡線13
とで囲まれる面積と、包絡線12を半ピツチだけ
右にずらせた線12Bと包絡線13とで囲まれる
面積との差である。すなわち、このような後ピン
状態では、評価関数Fの値は、線12Aと12B
とで囲まれる面積に相当し、正の値となる。
Therefore, a subject whose subject brightness changes gradually, that is, a subject which forms an image with an intensity distribution as shown in FIG. 10 on the surface 6 conjugate to the film surface, is When in the pin state, the output of the light receiving element group 8 is as shown in FIG. That is, the envelope of the output of the light-receiving element group A becomes as shown by a solid line 12, and the envelope of the output of the light-receiving element group B becomes as shown by a broken line 13. here,
Envelopes 12 and 13 are laterally shifted, and the amount of lateral shift is d
becomes. Now, if Ai is the output of the i-th light-receiving element in the light-receiving element group A, and Bi is the output of the i-th light-receiving element in the light-receiving element group B, then F= o-1i=1 (|A i+1 −B i | − | A i −B i |) …(1) When considering the evaluation function F, the meaning of this equation (1) is that in Fig. 11, the output of the light receiving element is
Assuming that the interval between the sampling point of A i and the sampling point of photodetector output A i+1 is 1 pitch, a line 12A obtained by shifting the envelope 12 of the output of photodetector group A to the left by half a pitch and photodetector group B Envelope 13 of the output of
This is the difference between the area surrounded by , and the area surrounded by envelope 13 and line 12B, which is obtained by shifting envelope 12 to the right by a half pitch. That is, in such a rear pin state, the value of the evaluation function F is equal to the lines 12A and 12B.
It corresponds to the area surrounded by and is a positive value.

今、このような被写体の像が合焦状態にあると
きについて考える。このようなとき、第12図に
示すように受光素子群Aの出力の包絡線14と、
受光素子群Bの出力の包絡線15は一致する。従
つて、評価関数Fの値、すなわち包絡線14を半
ピツチだけ左にずらせた14Aと、15(14)
で囲まれる面積と、包絡線14を半ピツチだけ右
にずらせた14Bと15(14)とで囲まれる面
積との差は零となる。従つて、評価関数Fの値は
デフオーカス量に対して第13図に示すように変
化する。すなわち、評価関数Fの値は、前ピンで
負、後ピンで正、合焦で零となる。
Now, let us consider a situation when the image of such a subject is in focus. In such a case, as shown in FIG. 12, the envelope 14 of the output of the light receiving element group A,
The envelopes 15 of the outputs of the light receiving element group B match. Therefore, the value of the evaluation function F, that is, the envelope 14 shifted to the left by a half pitch, 14A, and 15(14)
The difference between the area surrounded by and the area surrounded by 14B and 15 (14), which are obtained by shifting the envelope 14 by half a pitch to the right, is zero. Therefore, the value of the evaluation function F changes as shown in FIG. 13 with respect to the amount of defocus. That is, the value of the evaluation function F is negative when the front focus is on, positive when the rear focus is on, and zero when in focus.

ところで、この合焦検出装置においては次に述
べるような欠点がある。被写体輝度が急激に変化
するような被写体、すなわち、第15図に示すよ
うな像面強度分布がステツプ状に変化する被写体
に対しては、次のような不都合が生じることにな
る。例えば、像面上でステツプのエツジがストラ
イプ・マスクに対して、第14図Aの16Aで示
すような位置にあるとき、合焦状態においては、
第14図Bに示すような受光素子の出力となる。
すなわち、Biより左側の出力は全てステツプ像の
シヤドー部分の出力となり、Ai+1より右側の出力
は全てステツプ像のハイライト部分の出力とな
る。第14図Bより明らかなように、受光素子群
Aの出力の包絡線17と、受光素子群Bの出力の
包絡線18は、合焦状態においても一致せず、ま
るで後ピン状態であるかのように横ズレする。従
つて、評価関数Fの値は、合焦状態であるのに正
の値となる。このような被写体に対して評価関数
の値はデフオーカスに対して第16図の実線21
Aのように変化する。すなわち、評価関数Fは、
合焦点付近で乱れ、評価関数Fの値は前ピン位置
(点22A)で零となり、この位置で合焦の判定
を行なつてしまうことになる。
However, this focus detection device has the following drawbacks. For a subject whose subject brightness changes rapidly, that is, a subject whose image plane intensity distribution changes stepwise as shown in FIG. 15, the following problems will occur. For example, when the edge of the step on the image plane is at a position as shown at 16A in FIG. 14A with respect to the stripe mask, in the focused state,
The output of the light receiving element is as shown in FIG. 14B.
That is, all outputs to the left of B i become outputs of the shadow portion of the step image, and all outputs to the right of A i+1 become outputs of the highlight portion of the step image. As is clear from FIG. 14B, the envelope 17 of the output of the light-receiving element group A and the envelope 18 of the output of the light-receiving element group B do not match even in the in-focus state, and it seems as if the output is in a rear-focus state. It shifts horizontally like this. Therefore, the value of the evaluation function F is a positive value even in the in-focus state. The value of the evaluation function for such a subject is the solid line 21 in Fig. 16 for the defocus.
It changes like A. That is, the evaluation function F is
There is a disturbance in the vicinity of the in-focus point, and the value of the evaluation function F becomes zero at the front focus position (point 22A), resulting in the determination of focus being made at this position.

一方、ステツプ像のエツジの位置が第14図A
の16Bで示すような位置にあるときは、合焦状
態において受光素子の出力は第14図Cに示すよ
うになり、受光素子群Aの出力の包絡線19と、
受光素子群Bの出力の包絡線20とは合焦状態に
おいても一致せず、像は前ピン状態であるかのよ
うに横ズレする。従つて、評価関数Fの値はデフ
オーカスに対して第16図の一点鎖線21Bのよ
うに変化する。
On the other hand, the position of the edge of the step image is
When the position is as shown by 16B in FIG. 14, the output of the light receiving element in the focused state becomes as shown in FIG.
The envelope 20 of the output of the light-receiving element group B does not match even in the focused state, and the image shifts laterally as if in a front-focus state. Therefore, the value of the evaluation function F changes as indicated by the dashed-dotted line 21B in FIG. 16 with respect to the defocus.

このように、ステツプ像のエツジの位置は、第
14図Aの16Aと16Bの間のいかなる位置に
も置かれる可能性がある。よつて、この合焦検出
装置による合焦点は第16図の22Aと22Bの
間で変動する。このため、このような被写体に対
しては、合焦精度が悪くなるばかりでなく、手ぶ
れなどにより表示のちらつきが発生するような問
題があつた。
Thus, the position of the step image edge may be placed anywhere between 16A and 16B in FIG. 14A. Therefore, the focus point determined by this focus detection device varies between 22A and 22B in FIG. 16. For this reason, for such a subject, there are problems such as not only poor focusing accuracy but also flickering of the display due to camera shake and the like.

なお、第16図の特性線21A,21Bで示す
ように、これらの評価関数の値は合焦点付近では
乱れるが、大きくボケたところでは乱れない。こ
れは、大ボケのときには像面の強度分布が低周波
化されるためである。このため特性線21A,2
1Bは大ボケのときには一致することになる。
Note that, as shown by characteristic lines 21A and 21B in FIG. 16, the values of these evaluation functions are disturbed near the in-focus point, but are not disturbed when the image is largely blurred. This is because the intensity distribution on the image plane is reduced in frequency when the blur is large. Therefore, the characteristic line 21A, 2
1B will match when the blur is large.

また、この問題点を軽減させるためには、受光
素子のピツチおよびストライプ・マスクのピツチ
を小さくする必要があるが、光学系の製作上ある
いは受光素子と光学系の位置合せの上で無理が生
じ、小さくするのには限界があつた。
In addition, in order to alleviate this problem, it is necessary to reduce the pitch of the light-receiving element and the pitch of the stripe mask, but this may be difficult in manufacturing the optical system or in aligning the light-receiving element and the optical system. , there was a limit to how small it could be made.

(目的) 本発明は、上記従来の欠点を解消し合焦精度を
向上させることを目的とし、輝度分布が急激に変
化するような被写体すなわち、高周波状の被写体
に対しては、従来のものは合焦精度が悪いという
欠点を除去し、高周波状の被写体においても精度
よく合焦検出が可能な横ズレ光学系を備えた合焦
検出装置を提供するにある。
(Purpose) The purpose of the present invention is to eliminate the above-mentioned drawbacks of the conventional methods and improve focusing accuracy. It is an object of the present invention to provide a focus detection device equipped with a lateral shift optical system that eliminates the drawback of poor focus accuracy and enables accurate focus detection even for high-frequency objects.

(概要) 本発明は、上記目的を達成するために、横ズレ
の検出においては、受光素子および横ズレ光学系
のピツチを小さくする程高周波状の被写体に対し
ては合焦精度は向上するが、このピツチを小さく
することは製作上の限度が存在していたので、本
発明では、二列の受光素子と二列の横ズレ光学系
を使用し、その横ズレ光学系の位相を半ピツチず
らすことにより、それ程細かいピツチでなくとも
精度よく合焦検出ができるようにしたものであ
る。
(Summary) In order to achieve the above object, the present invention aims to improve the focusing accuracy for high-frequency objects by reducing the pitch of the light-receiving element and the lateral deviation optical system in the detection of lateral deviation. , there was a manufacturing limit to reducing this pitch, so in the present invention, two rows of light receiving elements and two rows of lateral shift optical systems are used, and the phase of the lateral shift optical system is reduced by half the pitch. By shifting the focus, it is possible to accurately detect focus even if the pitch is not very fine.

(実施例) 以下、本発明を図示の実施例に基づいて説明す
る。第1図は本発明の一実施例を示す横ズレを利
用した合焦検出装置を、一眼レフレツクスカメラ
に適用した概略断面図である。この実施例では受
光素子群は31A,31Bの二列で形成されてお
り、ストライプ・マスクもそれに伴つて30A,
30Bの二列が配置されている。なお、32はス
トライプ・マスクを支持する透明基板である。
(Examples) The present invention will be described below based on illustrated examples. FIG. 1 is a schematic cross-sectional view of a single-lens reflex camera in which a focus detection device using lateral displacement, which is an embodiment of the present invention, is applied. In this embodiment, the light receiving element group is formed in two rows 31A and 31B, and the stripe mask is also formed in two rows 30A and 31B.
Two rows of 30B are arranged. Note that 32 is a transparent substrate that supports the stripe mask.

このストライプ・マスク30A,30Bおよび
受光素子群31A,31Bをサブミラー4側より
見たところの部分拡大図を第2図に示す。この第
2図に示すように、一列目のストライプ・マスク
30Aと二列目のストライプ・マスク30Bの位
相は半ピツチだけ位相がずれている。それぞれの
受光素子列とストライプ・マスクの役割は上記従
来例で述べたものと同じであるが、ストライプ・
マスク30A,30Bの位相が互に半ピツチだけ
ずれているため、次のような効果が生ずる。すな
わち、ステツプ像のエツジが第2図のA0−A0′で
示す線上にある場合には、受光素子群31Aの出
力により得られる評価関数値F1は、デフオーカ
スに対して第16の実線21Aのように変化し、
受光素子群31Bの出力によつて得られる評価関
数F2は、デフオーカスに対して第16図の一点
鎖線21Bのように変化する。従つて、それらの
評価関数F1とF2を加算することにより Ft=F1+F2 新しい評価関数Ftを求めると、Ftはデフオーカ
スに対して、第16図の点線33で示すように変
化する。なお、ステツプ像のエツジの位置が、第
2図のB0−B0′線の位置にある場合においても評
価関数Ftのデフオーカスに対する変化は第16
図の点線33と同じになる。
FIG. 2 shows a partially enlarged view of the stripe masks 30A, 30B and the light receiving element groups 31A, 31B viewed from the submirror 4 side. As shown in FIG. 2, the phases of the stripe mask 30A in the first row and the stripe mask 30B in the second row are out of phase by a half pitch. The roles of each light-receiving element array and stripe mask are the same as those described in the conventional example above, but the stripe mask
Since the phases of the masks 30A and 30B are shifted from each other by half a pitch, the following effect occurs. That is, when the edge of the step image is on the line indicated by A 0 -A 0 ' in FIG . Changes like 21A,
The evaluation function F 2 obtained from the output of the light-receiving element group 31B changes as indicated by the dashed-dotted line 21B in FIG. 16 with respect to the differential focus. Therefore, by adding these evaluation functions F 1 and F 2 , Ft = F 1 + F 2 When a new evaluation function Ft is obtained, Ft changes with respect to the defocus as shown by the dotted line 33 in Figure 16. . Note that even when the edge position of the step image is at the position of the B 0 −B 0 ' line in FIG.
This is the same as the dotted line 33 in the figure.

このように、評価関数F1とF2を加算すること
により、それぞれの評価関数の合焦点付近での乱
れをキヤンセルすることができる。
In this way, by adding the evaluation functions F 1 and F 2 , it is possible to cancel disturbances in the vicinity of the focal point of each evaluation function.

次に、この実施例の電気処理系のブロツク図を
第3図に示す。符号50は受光素子の基板であ
り、二列に配置されたそれぞれ符号31A,31
Bで示す第1および第2の受光素子群(ホト・ダ
イオード・アレイ)がその上に配設されている。
符号51A,51Bはそれぞれ第1および第2の
CCD転送路で、これらのCCDドライバ56によ
つて駆動される。CCD転送路51A,51Bか
らの出力は、アンプ52A,52Bに入力され
る。ここで、光電変換出力は、A/D変換するの
に適正なレベルの信号に変換された後に、A/D
変換器53A,53Bに入力される。A/D変換
器53A,53Bの出力は演算回路54に入力さ
れ、ここで、評価関数Ftが演算される。制御回
路55は上記演算回路54で演算されたFtの値
により前ピン、後ピンおよび合焦などの合焦判定
を行ない、この判定結果をもとにして、図示しな
い合焦表示回路あるいはレンズ駆動回路を制御す
る。また、上記CCDドライバ56、A/D変換
器53A,53Bおよび演算回路54は制御回路
55によつて制御されている。
Next, a block diagram of the electrical processing system of this embodiment is shown in FIG. Reference numeral 50 is a substrate of a light receiving element, and reference numerals 31A and 31 are arranged in two rows.
First and second light receiving element groups (photodiode arrays) indicated by B are arranged thereon.
Symbols 51A and 51B are the first and second
These CCD drivers 56 drive the CCD transfer path. Outputs from the CCD transfer paths 51A and 51B are input to amplifiers 52A and 52B. Here, the photoelectric conversion output is converted into a signal at an appropriate level for A/D conversion, and then converted into an A/D converter.
It is input to converters 53A and 53B. The outputs of the A/D converters 53A and 53B are input to the calculation circuit 54, where the evaluation function Ft is calculated. The control circuit 55 makes focus judgments such as front focus, back focus, and focus based on the Ft value calculated by the calculation circuit 54, and based on the judgment results, controls the focus display circuit (not shown) or lens drive. Control the circuit. Further, the CCD driver 56, A/D converters 53A, 53B, and arithmetic circuit 54 are controlled by a control circuit 55.

この電気処理系のブロツク図は、ほんの一例で
あつて、種々の変更が可能である。例えば、受光
素子群31A,31Bとしての上記CCD撮像素
子の代りにMOS撮像素子を使用してもかまわな
い。また、第4図に示すように、二列に配列され
たCCD転送路57を合流させて、アンプ52お
よびA/D変換器53の数をそれぞれ一つに減ら
すこともできる。また、マイクロコンピユータな
どを使用することにより、演算回路54および制
御回路55を共用してもよい。
This block diagram of the electrical processing system is just an example, and various changes are possible. For example, MOS image sensors may be used instead of the CCD image sensors described above as the light receiving element groups 31A and 31B. Furthermore, as shown in FIG. 4, the number of amplifiers 52 and A/D converters 53 can be reduced to one each by merging the CCD transfer paths 57 arranged in two rows. Further, the arithmetic circuit 54 and the control circuit 55 may be shared by using a microcomputer or the like.

また、前記式(1)で示す評価関数Fは、前ピン、
後ピンおよび合焦を求める関数であり、レンズの
デフオーカス量を直接求めるためのものではな
い。もし、ここで、受光素子群Aの出力A1,A2
…Aoと、受光素子群Bの出力B1,B2,…Boとの
相互相関を求めれば、受光素子群Aの出力の包絡
線と受光素子群Bの出力の包絡線の横ズレ量を直
接求めることもできる。ここで、レンズのデフオ
ーカス量ΔZは、像の横ズレ量dと結像光学系の
F値の関数であるため、 ΔZ=f(d,F) の関係式が成立する。
In addition, the evaluation function F shown in the above formula (1) is
This is a function for determining the rear focus and focus, and is not for directly determining the amount of defocus of the lens. If the outputs A 1 , A 2 ,
...A o and the outputs B 1 , B 2 , ...B o of the light-receiving element group B, the horizontal deviation between the envelope of the output of the light-receiving element group A and the output envelope of the light-receiving element group B can be found. You can also calculate the amount directly. Here, since the lens defocus amount ΔZ is a function of the lateral shift amount d of the image and the F value of the imaging optical system, the relational expression ΔZ=f(d,F) holds true.

もし、F値が既知であるならば、像の横ズレ量
dより直接レンズのデフオーカス量ΔZを求める
ことができる。このような評価法を用いた場合
は、第2図の受光素子群31Aより第1のデフオ
ーカス量ΔZ1を求め、受光素子列31Bより第2
のデフオーカス量ΔZ2を求め、その平均値を求め
る次式により ΔZt=(ΔZ1+ΔZ2)/2 新たにΔZtを求めてやつてもよい。
If the F-number is known, the lens's defocus amount ΔZ can be directly determined from the image lateral shift amount d. When such an evaluation method is used, the first defocus amount ΔZ 1 is obtained from the light receiving element group 31A in FIG. 2, and the second
ΔZ t = (ΔZ 1 +ΔZ 2 )/2 You may also calculate a new ΔZ t using the following formula, which calculates the defocus amount ΔZ 2 and calculates its average value.

ただし、このようにΔZ1,ΔZ2を求め、さらに
ΔZtを求めるということは、レンズのデフオーカ
ス量が小さい時(合焦点付近)において必要なこ
とであつて、デフオーカス量が大きいとき(大ボ
ケのとき)においては不要である。これは、大ボ
ケのときにおいては、像面の強度分布が低周波化
されてしまつて、 ΔZ1ΔZ2ΔZt となるためである。
However, determining ΔZ 1 and ΔZ 2 in this way, and then determining ΔZ t , is necessary when the amount of defocus of the lens is small (near the in-focus point), but when the amount of defocus is large (near the large blur). ), it is not necessary. This is because when there is a large blur, the intensity distribution on the image plane is lowered in frequency and becomes ΔZ 1 ΔZ 2 ΔZ t .

このように、レンズのデフオーカス量を直接求
めるという評価法は、レンズの駆動まで含めたオ
ートフオーカスにおいては重要である。これは、
レンズを合焦位置に移動するまでに要する時間が
短くなるためである。
In this way, the evaluation method of directly determining the amount of lens defocus is important in autofocus, which includes driving the lens. this is,
This is because the time required to move the lens to the in-focus position becomes shorter.

次に、第1図および第2図に示すような光学系
および受光素子を使用し、かつ、レンズのデフオ
ーカス量を直接求める評価法を使用した場合のオ
ートフオーカスのアルゴリズムの1例を第5図に
示す。すなわち、まず始めに第1合焦検出を行な
う。この場合、レンズは大ボケの状態にあること
が多く、第1の受光素子だけを活かして、その出
力よりΔZ1を求める。そして、ΔZ1に従つてレン
ズを駆動する。ここまでの過程は、レンズの粗調
節に当り、次の第2合焦検出によつて微調節を行
なう。すなわち、第2の合焦検出においては、第
1および第2の受光素子列を活かして、ΔZtを求
め、この量だけレンズを駆動する。このようなア
ルゴリズムを使用することによつて、演算時間と
消費電力を節約することができる。
Next, an example of an autofocus algorithm using the optical system and light receiving element as shown in Figs. As shown in the figure. That is, first, first focus detection is performed. In this case, the lens is often in a state of great blur, so only the first light receiving element is utilized and ΔZ 1 is determined from its output. Then, drive the lens according to ΔZ1 . The process up to this point corresponds to coarse adjustment of the lens, and fine adjustment is performed by the next second focus detection. That is, in the second focus detection, ΔZ t is determined by utilizing the first and second light receiving element arrays, and the lens is driven by this amount. By using such an algorithm, calculation time and power consumption can be saved.

また、第5図では、2回のレンズ駆動によつて
オートフオーカスを終了させているが、3回のレ
ンズ駆動を行なつてオートフオーカスを行なつて
もよい。この場合には、最初の2回を粗調節に当
て、最後の1回を微調節に当ててもよいし、粗調
節と微調節の回数を逆にしてもよい。
Further, in FIG. 5, autofocus is completed by driving the lens twice, but autofocus may be performed by driving the lens three times. In this case, the first two times may be used for coarse adjustment and the last time may be used for fine adjustment, or the times of coarse adjustment and fine adjustment may be reversed.

次に、第6図および第7図は、像の横ズレ光学
系としてストライプ・マスクの代りに臨界角プリ
ズムアレイを使用した実施例である。第6図は一
眼レフレツクスカメラにこの像の横ズレ光学系を
利用した合焦検出装置を適用した場合の拡大断面
図であり、結像レンズ1から入射した光はフイル
ム面5に結像するが、その間に設けたクイツクリ
ターンミラー3の半透鏡部と全反射鏡のサブミラ
ー4によりフイルム面5と共役な面6に結像す
る。この面6上には二列に配置された受光素子群
101A,101Bが設けられ、光の入射面側の
上記受光素子群101A,101B上にはやはり
二列の臨界角プリズムアレイ100A,100B
がそれぞれ設けられている。そして、この臨界角
プリズムアレイ100A,100Bは第7図に示
されるように、その一列目と二列目の臨界角プリ
ズムの位相が半ピツチずらされている。
Next, FIGS. 6 and 7 show an embodiment in which a critical angle prism array is used instead of a stripe mask as an optical system for lateral image shift. FIG. 6 is an enlarged cross-sectional view of a single-lens reflex camera in which a focus detection device that utilizes a horizontal image shift optical system is applied, and the light incident from the imaging lens 1 forms an image on the film surface 5. However, an image is formed on a surface 6 that is conjugate with the film surface 5 by the semi-transparent mirror portion of the quick return mirror 3 and the sub-mirror 4, which is a total reflection mirror, provided between them. On this surface 6, two rows of light receiving element groups 101A and 101B are provided, and on the light incident surface side of the light receiving element groups 101A and 101B there are also two rows of critical angle prism arrays 100A and 100B.
are provided for each. As shown in FIG. 7, in the critical angle prism arrays 100A and 100B, the phases of the critical angle prisms in the first and second rows are shifted by half a pitch.

この構成からでも容易に理解できるように、本
実施例においても前記したストライプ・マスクを
使用した場合と全く同様の作用・効果が期待でき
る。
As can be easily understood from this configuration, the same operation and effect as in the case of using the above-described striped mask can be expected in this embodiment as well.

(発明の効果) 以上述べたように、本発明によれば横ズレの検
出においてそれぞれ二列に配置した受光素子およ
び横ズレ光学系を使用し、その横ズレ光学系の位
相を半ピツチずらせることにより、精度よく合焦
検出ができ、殊にステツプ関数状の高周波状の被
写体であつても合焦精度を向上させることができ
る。
(Effects of the Invention) As described above, according to the present invention, in detecting lateral deviation, the light receiving elements and the lateral deviation optical system arranged in two rows are used, and the phase of the lateral deviation optical system is shifted by half a pitch. As a result, focus detection can be performed with high precision, and the focus precision can be particularly improved even when a step function-like high-frequency object is to be photographed.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の一実施例を示す合焦検出装
置を、一眼レフレツクスカメラに適用した場合の
拡大概略断面図、第2図は、上記合焦検出装置に
おけるストライプ・マスクと受光素子をサブミラ
ー側より見た部分拡大平面図、第3図は、本発明
の合焦検出装置の電気処理系を示すブロツク図、
第4図は、上記第3図中のCCD撮像素子部分の
変形例を示すブロツク図、第5図は、オートフオ
ーカスのアルゴリズムを示すフローチヤート、第
6図は、本発明の他の実施例を示す合焦検出装置
を、一眼レフレツクスカメラに適用した場合の拡
大概略断面図、第7図は、上記第6図中の臨界角
プリズムと受光素子との関係を拡大して示した断
面図、第8図は、像の横ズレを利用した、従来の
合焦検出装置を一眼レフレツクスカメラに適用し
た場合の拡大概略断面図、第9図は、上記第8図
の装置における後ピン状態を示す拡大概略断面
図、第10図は、被写体の輝度分布を示す線図、
第11図、第12図は、受光素子の出力をそれぞ
れ示した線図、第13図は、評価関数とデフオー
カス量の関係を示した線図、第14図A,B,C
は、高周波状の被写体と横ズレ光学系および受光
素子の関係を説明するための線図、第15図は、
被写体の輝度分布を示す線図、第16図は、評価
関数とデフオーカス量の関係を示した線図であ
る。 1…結像光学系、6…焦平面、30A,30B
…ストライプ・マスク、31A,31B…受光素
子列、100A,100B…臨界角プリズムアレ
イ、101A,101B…受光素子列。
FIG. 1 is an enlarged schematic sectional view of a focus detection device according to an embodiment of the present invention applied to a single-lens reflex camera, and FIG. 2 shows a stripe mask and light receiving device in the focus detection device. FIG. 3 is a partially enlarged plan view of the element viewed from the submirror side, and FIG. 3 is a block diagram showing the electrical processing system of the focus detection device of the present invention.
FIG. 4 is a block diagram showing a modified example of the CCD image sensor portion in FIG. 3, FIG. 5 is a flowchart showing an autofocus algorithm, and FIG. 6 is another embodiment of the present invention. FIG. 7 is an enlarged schematic cross-sectional view of the focus detection device applied to a single-lens reflex camera, and FIG. Figure 8 is an enlarged schematic sectional view of a conventional focus detection device that utilizes lateral image shift applied to a single-lens reflex camera, and Figure 9 is a rear view of the device shown in Figure 8 above. An enlarged schematic cross-sectional view showing the pin state, FIG. 10 is a diagram showing the brightness distribution of the subject,
Figures 11 and 12 are diagrams showing the output of the light-receiving element, Figure 13 is a diagram showing the relationship between the evaluation function and the amount of defocus, and Figure 14 is A, B, and C.
15 is a diagram for explaining the relationship between a high-frequency object, a lateral shift optical system, and a light receiving element, and FIG.
FIG. 16, which is a diagram showing the luminance distribution of the subject, is a diagram showing the relationship between the evaluation function and the amount of defocus. 1... Imaging optical system, 6... Focal plane, 30A, 30B
... Stripe mask, 31A, 31B... Light receiving element row, 100A, 100B... Critical angle prism array, 101A, 101B... Light receiving element row.

Claims (1)

【特許請求の範囲】 1 結像光学系の焦平面の共役な位置に配置され
た第1および第2の受光素子列と、 それぞれ第1および第2の受光素子列の光入射
側に配置され、前記各受光素子列の素子に前記結
像光学系の異なる2つの瞳領域からの光束が交互
に結像するように透光部と遮光部とが繰り返すパ
ターンが前記受光素子列の半分のピツチで形成さ
れ、かつ互いに半ピツチだけ位相がずれているス
トライプマスクからなる第1および第2の像の横
ズレ手段と、 この横ズレ手段を介して入射した第1および第
2の受光素子列からの信号出力を受け、それぞれ
の受光素子列の出力に基づいて演算された評価関
数値の加算値、またはそれぞれの受光素子列の出
力に基づいて演算されたデフオーカス量の平均値
に基づいて合焦状態を検出する合焦検出手段と、 を具備することを特徴とする合焦検出装置。
[Scope of Claims] 1. First and second light-receiving element arrays arranged at positions conjugate to the focal plane of the imaging optical system; , a repeating pattern of light-transmitting portions and light-blocking portions is arranged at half the pitch of the light-receiving element row so that light beams from two different pupil regions of the imaging optical system are alternately imaged on the elements of each light-receiving element row. from the first and second light-receiving element arrays incident through the horizontal shift means, and the first and second images are formed by stripe masks whose phases are shifted by half a pitch from each other. Focus is based on the sum of the evaluation function values calculated based on the output of each light-receiving element array, or the average value of the defocus amount calculated based on the output of each light-receiving element array. A focus detection device comprising: a focus detection means for detecting a state; and a focus detection device.
JP15040884A 1984-07-19 1984-07-19 Focusing detecting device Granted JPS6128913A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15040884A JPS6128913A (en) 1984-07-19 1984-07-19 Focusing detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15040884A JPS6128913A (en) 1984-07-19 1984-07-19 Focusing detecting device

Publications (2)

Publication Number Publication Date
JPS6128913A JPS6128913A (en) 1986-02-08
JPH0584485B2 true JPH0584485B2 (en) 1993-12-02

Family

ID=15496302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15040884A Granted JPS6128913A (en) 1984-07-19 1984-07-19 Focusing detecting device

Country Status (1)

Country Link
JP (1) JPS6128913A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2960606B2 (en) * 1991-10-31 1999-10-12 株式会社トクヤマ Method for producing conductive tin oxide fiber
JP2005300844A (en) * 2004-04-09 2005-10-27 Canon Inc Solid-state imaging device for autofocusing, and autofocusing camera using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS595213A (en) * 1982-06-30 1984-01-12 Canon Inc Detector of focusing state

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS595213A (en) * 1982-06-30 1984-01-12 Canon Inc Detector of focusing state

Also Published As

Publication number Publication date
JPS6128913A (en) 1986-02-08

Similar Documents

Publication Publication Date Title
US4857720A (en) Focus detecting system using multiple portions of the image to be focussed
JPS62103615A (en) Focus detector
US4670645A (en) Focus detecting device with shading reduction optical filter
JPS6355043B2 (en)
US4982219A (en) Focus detecting device
JP2643326B2 (en) Single-lens reflex camera with focus detection device
US4733062A (en) Focus detecting device
US4572476A (en) Method for detecting a focus condition of an imaging optical system employing interpolated signal values
JPH0145883B2 (en)
US4562345A (en) Method and apparatus for detecting focus conditions of a photographic optical system
JPH0584485B2 (en)
JPS6129813A (en) Sampling correction device of focus detector
US4593188A (en) Apparatus and method for detecting focus condition of an imaging optical system
JP2000075201A (en) Focus detector, focusing device and camera
JP3674975B2 (en) Focus detection device
JPS61137115A (en) Focus detecting device
JPH02190808A (en) Automatic focusing device for microscope
JPH0522883B2 (en)
JPS6219828A (en) Focus position detector
JPS6130034A (en) Focusing apparatus
JPS5919913A (en) Focus controller
JPS6280635A (en) Photometric device for camera
JPS5994712A (en) Focusing detecting method
JPH0460602A (en) Focus detector and observation device equipped with the same
JPS61162017A (en) Automatic focus detector

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term