JPS5933408A - Autofocusing device - Google Patents

Autofocusing device

Info

Publication number
JPS5933408A
JPS5933408A JP57143575A JP14357582A JPS5933408A JP S5933408 A JPS5933408 A JP S5933408A JP 57143575 A JP57143575 A JP 57143575A JP 14357582 A JP14357582 A JP 14357582A JP S5933408 A JPS5933408 A JP S5933408A
Authority
JP
Japan
Prior art keywords
image
sub
main
image sensing
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP57143575A
Other languages
Japanese (ja)
Inventor
Takeshi Kutaragi
久多良木 健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP57143575A priority Critical patent/JPS5933408A/en
Publication of JPS5933408A publication Critical patent/JPS5933408A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To enable the high-speed response in the stage of changing from infinity to close-up, by determining the evaluation value for the sharpness of an image from the information of an auxiliary image sensing element during movement for displacement and changing the distance between the main image sensing plane and a lens at the point where the evaluation value is maximal. CONSTITUTION:An auxiliary image sensing element 15 corresponding to the part where a portion of the angle of image on the main image sensing plane is cut off is provided in the position separate from the main image sensing plane of a main image sensing element 14. The main image sensing plane and the element 15 are so positioned that the incident light from the same optical system can image respectively thereon. The element 15 is moved in the optical axis direction from the position equiv. to the main image sensing plane according to the focal length of the optical system, and the evaluation value for the sharpness of the image is calculated 35 from the information on the respective picture elements of the element 15. The max. value of the evaluation value is determined as a focal point and the image is formed on the main image sensing element, whereby the image is focussed.

Description

【発明の詳細な説明】 産業上の利用分野 この発明は、撮像素子として固体撮像素子や撮像管を用
いたムービーカメラやスチルカメラ、あるいは−眼し 
カメラに用いられるオートフォーカス装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application This invention is applicable to movie cameras, still cameras, or eye cameras that use a solid-state image sensor or an image pickup tube as an image sensor.
The present invention relates to an autofocus device used in a camera.

背景技術とその問題点 この種のオートツメ−カス装置としては、超音波、赤外
線の照射による三角測量方式等のアクティブ方式やコン
トラスト検出、一致像検出等によるパッシブ方式等があ
る。そして、そのうぢのパッシブ方式のオートツメ−カ
ス装置の一例として次のようなものが知られζいる。
BACKGROUND TECHNOLOGY AND PROBLEMS This type of automatic nailing device includes active methods such as a triangulation method using ultrasonic waves and infrared rays, and passive methods using contrast detection, coincident image detection, etc. The following is known as an example of a passive type auto-tweaking device.

第1図はその概要を府ずもので、これはTTL方式の一
眼レフカメラに使用されているものである。
Figure 1 provides an overview of the system, which is used in TTL single-lens reflex cameras.

第1図において、レンス(11を通った光はサブミラー
(2)に入射し、その透過光はフィルム面(3)に人射
する。一方、サブミラー(2)で反射された光はビーム
スプリッタ−(4)に入射する。このビームスプリッタ
−(4)に対し本来のフィルム面(図中、(5)はその
等価フィルム面である)に相当するピント位置の前後に
わずかずれた2ケ所の位置に、それぞれ1列ずつの絵素
(センサー)が1次元配列の固体撮像素子例えばCCD
からなる副撮像素子S1と副撮像素子S2とが設けられ
る。図中、破線(6)、(7)で示すのはフィルム面(
3)に対する副撮像素子Sl、S2の等価位置で、フィ
ルム面(3)に対して、その前後に等距離lだり離れた
位置関係となっている。
In Fig. 1, the light that passes through the lens (11) is incident on the sub-mirror (2), and the transmitted light is incident on the film surface (3).On the other hand, the light reflected on the sub-mirror (2) is transmitted to the beam splitter. (4).With respect to this beam splitter (4), there are two positions slightly shifted before and after the focus position corresponding to the original film plane ((5) in the figure is its equivalent film plane). A solid-state image sensor, such as a CCD, has a one-dimensional array of picture elements (sensors) in each row.
A sub-image sensor S1 and a sub-image sensor S2 are provided. In the figure, the broken lines (6) and (7) indicate the film surface (
The equivalent positions of the sub-imaging elements S1 and S2 with respect to 3) are such that they are spaced from the film surface (3) by an equal distance l in front and behind the film surface (3).

なお、サブミラー(2)とレンズ(11との間には、図
示しないがメインミラーがザフミラ−(2)の面方向に
対して直交するように設けられ、入射光が、サブミラー
(2)に対し°ζ副撮像素子S1、S2とは、反対側に
設けられるピント板に入射するようにされている。
Although not shown, a main mirror is provided between the sub-mirror (2) and the lens (11) so as to be perpendicular to the surface direction of the mirror (2), so that the incident light is directed toward the sub-mirror (2). °ζ The light is incident on a focusing plate provided on the opposite side from the sub-imaging elements S1 and S2.

とごろで、ピントが合ったかどうかは画像が鮮明である
かどうかということで評価できる。画像が鮮明であるか
どうかは画像の空間周波数を求め、振幅に対するMTF
 (変調伝達関数)を評価すれば求まることは周知の通
りであるが、カメラに内蔵可能な程小型で、かつ、重速
処理ができ、安価であるという条件を考えると、実際上
は難しい。
You can evaluate whether the image is in focus or not by looking at whether the image is clear or not. To determine whether the image is clear, determine the spatial frequency of the image, and calculate the MTF for the amplitude.
It is well known that it can be found by evaluating the modulation transfer function (modulation transfer function), but it is difficult in practice given that it is small enough to be built into a camera, capable of high-speed processing, and inexpensive.

一方、一般に、画像が鮮明であるかどうかは被写体の輪
郭がシャープかどうかということで判断できることが多
い。
On the other hand, in general, whether an image is clear or not can often be determined by whether or not the outline of the subject is sharp.

この輪郭情報は微分により得られるが計算機処理では上
記副撮像素子の絵素(センサー)間の出力の差分を用い
゛ζ得°ζいる。
This contour information can be obtained by differentiation, but in computer processing, the difference in output between picture elements (sensors) of the sub-imaging device is used.

ここで、説明の簡単のため、画面の半分が白、残りの半
分が黒というように明るさが段階的に変化する被写体を
考えると、第2図に示すように、正確にピントが合った
ところ(合焦点)で、コントラストEは最も強く、この
位置から前ピンにずらしても後ピンにすらし°Cもコン
トラストEは低下する。
For the sake of simplicity, let's consider a subject whose brightness changes gradually, with half of the screen being white and the other half being black.As shown in Figure 2, if the subject is accurately focused, However, the contrast E is the strongest (at the focused point), and even if you shift the focus from this position to the front or back, the contrast E decreases even if you shift the focus from this position to the front.

このコントラストを表ず評(面関数を考えれば、これは
上述のような1次元固体撮像素子S1、S2で像を得た
とき、その01に目とこれに隣り合うn+1番目のセン
サーの出力InとIn+1との差としζ表ずごとができ
る。すなわち、 −1 は無関係となっ”ζしまう。この欠点を回避するために
は、(1)式のInローInに対して非線形の処理を何
等かの方法で行わなけれはならない。この非線形処理の
ためには、アナログ演算を施したり、撮像素子の非線形
性を利用しζいる。
Expressing this contrast (if we consider the surface function, this means that when an image is obtained with the one-dimensional solid-state image sensors S1 and S2 as described above, the output of the eye and the n+1th sensor adjacent to it is In). The difference between For this nonlinear processing, analog calculations are performed or the nonlinearity of the image sensor is utilized.

以」二のよ・うな非線形処理を行っ−ζコン1−ラスト
の評価関数Eが得られたとする。この評価関数Eを子連
の副撮像素子S1とS2の出力に対して適応し、横軸に
ピントずれ、縦軸にコントラストをとって関数曲線を求
めると第3図に示すようになる。第3図においζ、曲線
(8)は素子S1のコントラスト曲線曲線、曲線(9)
は素子S2のコントラス)C2曲線をそれぞれ示してい
る。
Assume that the evaluation function E of ζcon1-last is obtained by performing non-linear processing as shown in Section 2 below. When this evaluation function E is applied to the outputs of the secondary image pickup devices S1 and S2, and the horizontal axis represents the focus shift and the vertical axis represents the contrast, a function curve is obtained as shown in FIG. In FIG. 3, ζ, curve (8) is the contrast curve curve of element S1, and curve (9)
(contrast)C2 curves of the element S2 are respectively shown.

すなわち、副撮像素子S1及びS2は本来のピントの前
後でコントラストを測っているから、レンズ(11を移
動させてフォーカシングをするにつれて位相のずれた2
つのコントラスト曲線が得られる。そして、この装置に
おいては、前述したように前ビン側撮像素子S1と後ピ
ン側撮像素子S2とのちょうど中間に正しいピント位置
がくるように構成されているので、コントラスト曲線(
8)と+91とが同じ値をとったときが合焦位置となる
ものである。また、 コントラストC1>コントラストC2 ならば、現状は前ピンであることを示し、コントラスト
C,<コントラストC2 ならば、現状は後ピンであることを示すものである。
That is, since the sub-imaging elements S1 and S2 measure the contrast before and after the original focus, as the lens (11) is moved and focusing is performed, the contrast of the sub-imaging elements S1 and S2 is shifted.
Two contrast curves are obtained. As described above, this device is configured so that the correct focus position is located exactly midway between the front bin side image sensor S1 and the rear focus side image sensor S2, so the contrast curve (
The in-focus position is when 8) and +91 take the same value. Further, if contrast C1>contrast C2, it indicates that the current focus is on the front, and if contrast C,<contrast C2, it indicates that the current focus is on the rear.

こうしζ、本来のピントに対して前後にずれた位置に配
置した2つの撮像素子S1、S2の出力のコントラスト
情報を用いるごとによりオートフォーカスが可能となる
In this way, autofocus becomes possible by using the contrast information of the outputs of the two image sensors S1 and S2, which are arranged at positions shifted forward and backward relative to the original focus.

しかしながら、以上述べたようなオートフメーカス装置
の場合、測距に伴わないレンズ系を動かずものであるた
め、動作速度が遅くなり、動きが不自然であった。
However, in the case of the above-described autofocus device, since the lens system does not move during distance measurement, the operating speed is slow and the movement is unnatural.

また、ピントが大きくはずれてしまい、それが第3図の
検出不可領域になってしまっていると、もはや測距不能
となっ°ζしまう欠点がある。
Furthermore, if the focus is greatly out of focus and the focus falls into the undetectable area shown in FIG. 3, there is a drawback that distance measurement is no longer possible.

また、ビームスプリッタ−を用いているため、その段数
に応じ°ζ入射光量が減少し、オートフォーカスの動作
範囲が狭いという欠点もある。
Furthermore, since a beam splitter is used, the amount of incident light decreases depending on the number of beam splitters, and there is also a drawback that the autofocus operation range is narrow.

発明の目的 この売゛明1よ」−記の点にかんがみ、測距スピードが
早く、しかも無限遠からクローズアンプに急に変化した
としても^速応答が可能なオートフォーカス装置を提供
しようとするものである。
OBJECT OF THE INVENTION In view of the above-mentioned points, it is an object to provide an autofocus device that has a fast ranging speed and is capable of responding quickly even when suddenly changing from infinity to a close amplifier. It is.

発明の概要 この発明は、主撮像面位置とは別の位置に、この主撮像
面の画角の一部を切り取った部分に相当する副撮像素子
が設けられ、この主撮像面及び副撮像素子には同一の光
学系からの入射光がそれぞれ結像し得るようにされ、上
記副撮像素子は上記主撮像面と等価の位置から光学系の
焦点距離に応じて光軸方向に移動させられるとともにそ
の移動変移中の各位置において上記副撮像素子の各絵素
よりの情報からその画像の鮮明度の評価値が求められ、
その評価値の極大値が合焦点とされて上記主撮像面とレ
ンズとの距離が変えられて、上記主撮像面上に像を合焦
するようにして焦点を合わセるようにしたもので、高速
応答で、測距速度も早く不自然な動きを起ごさないとい
う特長がある。
SUMMARY OF THE INVENTION This invention provides a sub-imaging element corresponding to a part of the field angle of the main imaging surface, which is provided at a position different from the main imaging surface, and the main imaging surface and the sub-imaging element The incident light beams from the same optical system are respectively formed into images, and the sub-imaging device is moved in the optical axis direction from a position equivalent to the main imaging plane according to the focal length of the optical system. At each position during the movement, an evaluation value of the sharpness of the image is obtained from information from each picture element of the sub-imaging device,
The maximum value of the evaluation value is set as the focal point, and the distance between the main imaging surface and the lens is changed to focus the image on the main imaging surface. It has the features of fast response, fast ranging speed, and no unnatural movement.

実施例 以下、この発明の一実施例を第4図以下を参照しながら
説明しよう。
EXAMPLE Hereinafter, an example of the present invention will be described with reference to FIG. 4 and subsequent figures.

第4図はこの発明の一例の光学系を示し、(11)はレ
ンズ、(12)はメインミラー、(13)はサブミラー
、(14)は例えばCODからなる主撮像素子、(15
)は同じく例えばCCDからなる副撮像素子で、副撮像
素子(15)はオートフォーカスの測距用として用いら
れるものである。
FIG. 4 shows an optical system according to an example of the present invention, in which (11) is a lens, (12) is a main mirror, (13) is a sub-mirror, (14) is a main image pickup device consisting of, for example, a COD, and (15) is a main image sensor.
) is a sub-imaging element (15) which is also made of, for example, a CCD, and the sub-imaging element (15) is used for distance measurement in autofocus.

この副撮像素子(15)は前述した従来例と同様の1次
元的配列のラインセンサーであっ°ζもよいが、この例
ではセンサーが2次ノc的に配列された面撮像素子とさ
れる。また、ごの副撮像素子(15)はその使用目的か
らいって主撮像素子(14)と同じ規模のものである必
要はなく、主撮像素子(14)の内角の−・部を切り取
ったような部分的なものでよい。この副撮像素子(15
)の絵素(センサー)数は、例えば縦64×横64個と
される。
This sub-imaging device (15) may be a one-dimensionally arranged line sensor similar to the conventional example described above, but in this example it is a surface imaging device in which the sensors are arranged in a quadratic pattern. . In addition, considering the purpose of use, the sub-image sensor (15) does not need to be of the same scale as the main image sensor (14), and may be made by cutting out the inner corner of the main image sensor (14). It can be a partial one. This sub-image sensor (15
The number of picture elements (sensors) in ) is, for example, 64 vertically by 64 horizontally.

TTL方式によりレンズ(11)を通過した光はメイン
、ミラー(12)を介して主撮像素子(14)に入射す
る。レンズ(11)を通過した光の−81;は、また、
メインミラー(■2)で反射され゛Cファインダーに導
かれる−また、メインミラー(12)を通過した光の一
部は、サブミラー(13)で反射されて副撮像素子(1
5)に入射するようにされる。
Light that has passed through the lens (11) using the TTL method enters the main image sensor (14) via the main mirror (12). -81; of the light passing through the lens (11) is also
A part of the light that has passed through the main mirror (12) is reflected by the sub-mirror (13) and is guided to the sub-image sensor (1).
5).

そして、この発明においては、従来のようにオートフォ
ーカスのための測距のためにはレンズ(11)を動かず
のではなく、副撮像素子(I5)を光軸方向に±Δdだ
け移動するようにする。このため、この例では副撮像素
子(15)は第5図に示すようなアクチェエイター上に
取りつけられる。
In this invention, instead of keeping the lens (11) stationary for distance measurement for autofocus as in the past, the sub-imaging device (I5) is moved by ±Δd in the optical axis direction. Make it. Therefore, in this example, the sub-imaging element (15) is mounted on an actuator as shown in FIG.

このアクチェエイターは、例えばS極に着磁された円柱
(16)を取り囲むようにこの円柱(16)よりの若干
の距離をおいてN極に着磁された環状体(17)が形成
され、これら円柱(16)と環状体(17)との間に形
成される凹−a(18)内にボイスコイル(19)が挿
入される。このボイスコイル(19)は、副撮像素子(
15)が固定された基台(20)に対してとりつけられ
ており、このボイスコイル(19)に供給される電流に
応して基台(20)、したがって副撮像素子(15)が
図中矢印で示す方向(第4図で矢印で示した光軸方向)
にピストン運動するようになされている。
In this actuator, for example, an annular body (17) magnetized to the north pole is formed at a certain distance from the cylinder (16) so as to surround a cylinder (16) magnetized to the south pole. A voice coil (19) is inserted into a recess-a (18) formed between the cylinder (16) and the annular body (17). This voice coil (19) is connected to the sub-imaging device (
15) is attached to a fixed base (20), and depending on the current supplied to this voice coil (19), the base (20) and therefore the sub-imaging device (15) move as shown in the figure. Direction indicated by arrow (optical axis direction indicated by arrow in Figure 4)
It is designed to move like a piston.

この場合、副撮像素子(15)の原点位置は主撮像素子
(14)の焦点距離と同し位置にあり、アクチェエイタ
ーによっζ、光学系の全焦点距離に応じた移動量りを副
撮像素子(15)が走査するようにピストン運動をする
。そして、この場合の走査は、第6図に示すような階段
波によりてステ・ノブ駆動的になされるもので、この例
の場合、副撮像素子(15)はその移動量りの間にステ
・ノブ的に16階段の位置をとるようにされる。すなわ
ち、移動量■)の間に時間Tかかるとすると、副撮像素
子(15)はT / 16=τの時間毎に光軸方向にそ
の位IWを移動するよ・)になるもの乙1611ffi
の位置do +d1.d2  ・・・ d15をとり、
各位置でての時間停止しているごとになる。ここで、d
oは光学系の最近焦yji位置、d15は無限遠の焦点
位置に対応する。
In this case, the origin position of the sub-image sensor (15) is at the same position as the focal length of the main image sensor (14), and the actuator moves the amount of movement corresponding to the total focal length of the optical system into the sub-image sensor. The element (15) makes a piston movement so as to scan. Scanning in this case is performed in a stair-knob drive manner using a staircase wave as shown in FIG. The knob has 16 steps. In other words, if it takes time T for the amount of movement (■), then the sub-image sensor (15) will move IW by that amount in the optical axis direction every time T / 16 = τ.
Position do +d1. d2 ... take d15,
It will be stopped for a certain amount of time at each position. Here, d
o corresponds to the closest focus yji position of the optical system, and d15 corresponds to the infinity focus position.

そして、do = d+sの各焦点位置において、それ
ぞれ停止している時間τにおい′乙その各位置この割振
1象素子(15)の画像の鮮明度が求められ、その各位
置での鮮明度を表す情報がメモリーに記憶される。そし
て、そのメモリーに記憶された鮮明度の情報のうち、極
大、つまり他位置に対して鮮明度の高い位置が見い出さ
れ、これに基づいて↑撮像素子(14)またはレンズ(
11)が動かされて、その対応する焦点位置にくるよう
にされる。
Then, at each focus position of do = d + s, the sharpness of the image of this allocated 1-elephant element (15) is determined based on the period of time τ during which it has stopped, and the sharpness of the image at each position is expressed. Information is stored in memory. Then, among the sharpness information stored in the memory, the maximum position, that is, the position with high sharpness compared to other positions, is found, and based on this, the image sensor (14) or the lens (
11) is moved to its corresponding focal position.

こうし°ζオートフォーカスがなされる。なお、移動量
り中の極大鮮明度の焦点位置を見い出すための上述のよ
うな副撮像素子(15)による測距の走査速度は、例え
ば3回/秒程度とされる。
In this way, °ζ autofocus is performed. Note that the scanning speed of distance measurement by the sub-imaging device (15) as described above for finding the focal position of maximum sharpness during movement measurement is, for example, about 3 times/second.

ところで、副撮像素子(15)のdo ” dv5の各
位置におklる被写体の解明度を求める演算処理として
は、ごの副撮像素子(15)として面撮像素子を用いた
ことを利用して副撮像素子(15)の画像の2次元微分
処理が用いられる。第7図は副撮像素子(15)の一部
の絵素(センサー)を示すもので、図におけるある絵素
(i、j)の周囲の8(固の絵素との間の2次元微分の
値をd7!とすると、で表される。そして、dO〜do
sの光学系の各焦点位置での微分値総量が、その各位置
での被写体の鮮明度の・情報としてメモリーに記憶され
る。
By the way, the arithmetic processing for calculating the resolution of the object located at each position of the sub-imaging device (15) is based on the fact that a surface imaging device is used as the sub-imaging device (15). Two-dimensional differential processing of the image of the sub-imaging device (15) is used. Fig. 7 shows some picture elements (sensors) of the sub-imaging device (15). ) around 8 (solid picture element) is expressed as d7!, then dO~do
The total amount of differential values at each focal position of the optical system of s is stored in the memory as information on the sharpness of the object at each position.

例えば第9図に示すようにカメラ(21)前方に、人(
22) 、柱(23) 、本棚(24)が順次並んでい
た場合、これら人(22)、柱(23)、本棚(24)
の位置が例えば位置d3+  dv +  d+oで鮮
明′に像を結ぶようなときには、第8図に示すように微
分値総量りはそのd3+  dv +  d+oの各位
置で極大になる。つまり撮像レンズ(11)の画角内に
複数の被写体があればその数に応じ、かつ、その位置に
応じたカメラの光学系の各焦点位置において微分量総量
が極大になりそれがメモリーに記憶されるから、この極
大点となる各焦点位置に、レンズ(11)または撮像素
子(14)を移動させるようにすればツメ−カスされる
For example, as shown in Fig. 9, a person (
22), pillar (23), and bookshelf (24) are lined up in sequence, these people (22), pillar (23), and bookshelf (24)
For example, when a clear image is formed at position d3+dv+d+o, the total differential value becomes maximum at each position of d3+dv+d+o, as shown in FIG. In other words, if there are multiple subjects within the field of view of the imaging lens (11), the total differential amount will be maximum at each focal position of the camera's optical system according to the number and position of the subject, and this will be stored in the memory. Therefore, by moving the lens (11) or the image pickup device (14) to each focal point that becomes the maximum point, the focus can be adjusted.

複数の被写体物が画角内に入ったときそのうちの所望の
1つの被写体にツメ−カスしたいとするのが通當である
。このように、複数の極大点がある場合にそのうちの所
望の被写体にフォーカスさせるようにするには、次のよ
うにすればよい。
When a plurality of objects come within the angle of view, it is common to want to focus on a desired one of them. In this way, when there are a plurality of maximum points, in order to focus on a desired subject among them, the following may be done.

すなわち、一般に所望のフォーカスしたい被写体はカメ
ラに一番近い位置となることが多いので、先ず、この一
番近い位置の被褐体、第9図の例では人(22)にフォ
ーカスするようにし、それが所望のものでないときは、
他の極大点に移動させるようにして當に所望の被写体に
フォーカスできるようにすればよい。
In other words, since the desired subject to focus on is often the closest to the camera, first, focus on the closest subject, in the example of Figure 9, the person (22). If it's not what you want,
What is necessary is to move it to another maximum point so that the desired subject can be focused on.

以上のことを考慮したこの発明装置の制御系の一例のブ
ロック図を第10図に示す。
FIG. 10 shows a block diagram of an example of the control system of the device of the present invention in consideration of the above.

第10図において、(31)はツメ−カスコントロール
回路で、これは演算器、レジスタ、デジタル比較器、カ
ウンタ、表示駆動回路等から成っている。
In FIG. 10, reference numeral (31) denotes a thumb control circuit, which consists of an arithmetic unit, a register, a digital comparator, a counter, a display drive circuit, and the like.

このフォーカスコントロール回路(31)からは第6図
に示したような副撮像素子(15)を測距走査させるた
めの階段状信号がデジタル信号の状態で得られる。上記
カウンタがそのために用いられるもので、このカウンタ
には周期τのクロックが供給される。そして、このカウ
ンタの出力がD//1変換器(32)に供給されてアナ
ログ信号とされ、これが第5図に示したアクチェタイタ
ーのボイスコイル(19)に供給されζ、副撮像素子(
I5)が光学系の所定の焦点位置に持ち来される。そし
て、この位置において、この割損(象素子(15)から
得られる画像出力が対数圧縮回路(33)に供給される
。この対数圧縮回路(33)は、光の距離に対する特性
が対数的であることからそれをリニアに変換するための
ものである。
From this focus control circuit (31), a stepped signal for causing the sub-imaging element (15) to scan for distance measurement as shown in FIG. 6 is obtained in the form of a digital signal. The counter described above is used for this purpose, and is supplied with a clock having a period τ. The output of this counter is then supplied to the D//1 converter (32) and converted into an analog signal, which is then supplied to the voice coil (19) of the actuator shown in Fig.
I5) is brought to a predetermined focal position of the optical system. At this position, the image output obtained from the quadrature element (15) is supplied to the logarithmic compression circuit (33). It is used to convert something into a linear form.

対数圧縮回路(33)の出力はD/A変換器(34)に
てデジタル信号に変換された後、演算回路(35)に供
給されて上述した画像の2次元微分の微分値総♀pが求
められ、これがメモリー(36)の、その位置にl:1
に対応するアドレスにその位置の画像の鮮明度の評価値
として記憶される。
The output of the logarithmic compression circuit (33) is converted into a digital signal by the D/A converter (34), and then supplied to the arithmetic circuit (35) to calculate the total differential value ♀p of the two-dimensional differential of the image mentioned above. This is stored at that location in memory (36) l:1
The evaluation value of the sharpness of the image at that position is stored in the address corresponding to the image.

次ニ、時間τ経過すると、フォーカスコントロール回路
(31)においては上記カウンタが歩進し、そのカウン
ト値が変化する。すると、 D/A変換器(32)の出
力が変わり、副撮像素子(15)の位置が光軸方向に移
動される。そして、この変更された位置において、上述
と同様の操作が行われ、その位置における鮮明度のif
 111i値である画像出力の微分値総量がメモリー(
36)の対応するアドレスに書き込まれる。以上の操作
が、上述の16個の各位置do ” do5の全てにお
いこなされ、これによりメモリー(36)の記憶内容と
して第8図に相当するものが得られる。以下これが繰り
返される。
Second, when the time τ has elapsed, the counter in the focus control circuit (31) increments and its count value changes. Then, the output of the D/A converter (32) changes, and the position of the sub-image sensor (15) is moved in the optical axis direction. Then, at this changed position, the same operation as described above is performed, and the sharpness if
The total amount of differential values of the image output, which is the 111i value, is stored in the memory (
36) is written to the corresponding address. The above operations are performed at all of the above-mentioned 16 positions do'' do5, and as a result, the contents of the memory (36) corresponding to those shown in FIG. 8 are obtained.This process is repeated thereafter.

このメモリー(36)中の16111+’lの情報に対
し、極大値の検出がなされ、極大値である場合にはその
情報にマーカーが付される。すなわち、メモリー(36
)に各位置の鮮明度の情報を書き込む際に、フォーカス
コントロール回路(31)内に設LJられたデジタル比
較器によってその前後の位置の情報と、その位置の情報
を比較してそれが極大値であると検出されたとき、その
情報にマーカーを伺加しζ書き込むようにされる。ある
いは、メモリー(36)に全ての情報が書き込まれた後
、これを順次読み出し、デジタル比較器を用いて極大値
を見い出し、マーカーをイ」シて、再び元の(0置に書
き込むようにしてもよい。
A local maximum value is detected for the information 16111+'l in this memory (36), and if it is a local maximum value, a marker is attached to the information. That is, memory (36
), when writing information on the sharpness of each position, a digital comparator installed in the focus control circuit (31) compares the information on the previous and following positions with the information on that position and determines the maximum value. When it is detected, a marker is added to that information and written. Alternatively, after all the information has been written to the memory (36), read it out sequentially, use a digital comparator to find the maximum value, erase the marker, and write it back to the original position (0). Good too.

カメラ位置に対して第9図に示したような被写体のとき
は、 d3.  dv、  d+oの位置の解明度の情
報が極大になり、前述したように先ず、手前の被写体に
オートフォーカスするとすれば、d3の位置の情報に付
加された極大値マーカーに従っζ、この位FRの情報が
フォーカスコントロール回路(31)より得られ、これ
がD/A変換器(37)にてアナログ信号にされ、この
アナログ信号によって、この例では撮像レンズ(11)
が移動されて、光学系がd3の焦点位置にくるようにさ
れる。ごのd3の位置が、所望の被゛!j体に対するフ
ォーカス位置でないときは、フA−カスセレクトスイッ
チ(38)を操作すると、次の極大値マーカーの付され
たメモリー位置に移り、その位置情報がフォーカスコン
トロール回路(3I)より得られ、レンズ(II)がそ
れに追随する位置に移動するものである。
When the subject is as shown in FIG. 9 relative to the camera position, d3. If the information on the resolution of the positions of dv and d+o becomes maximum, and as mentioned above, first autofocus is performed on the subject in the foreground, the FR will be adjusted to this extent according to the maximum value marker added to the information on the position of d3. information is obtained from the focus control circuit (31), this is converted into an analog signal by the D/A converter (37), and this analog signal is used to control the image pickup lens (11) in this example.
is moved so that the optical system is at the focal position of d3. The position of d3 is the desired target! When the focus position is not for body j, operating the focus select switch (38) moves to the memory position with the next maximum value marker, and the position information is obtained from the focus control circuit (3I). The lens (II) moves to a position that follows it.

このフォーカスセレクトスイノヂ(38)は、例えば第
11図に示すようにカメラ本体(4o)のレンズの近傍
の位置に配され、図のR側にスイッチ(38)を倒すと
、フォーカス位置がカメラよりも遠い方の被写***置に
順次移動し、図のF側にスイッチ(38)を倒すと、ツ
メ−カス位置がカメラに近づく方向に順次移動するよ・
うにするごとが可能である。
This focus select switch (38) is placed near the lens of the camera body (4o) as shown in FIG. 11, for example, and when the switch (38) is turned to the R side in the figure, the focus position If you move sequentially to the subject position farther from the camera and turn the switch (38) to the F side in the figure, the claw position will move sequentially in the direction closer to the camera.
It is possible to do this.

なお、D/A変換器(37)の出力によってレンズ系を
動かすかわりに主撮像素子(14)を動がずようにして
ももちろんよい。
Note that, instead of moving the lens system using the output of the D/A converter (37), the main image sensor (14) may of course be kept stationary.

発明の効果 以上述べたこの発明によれば、従来のように測距に伴い
レンズ系を動かずのではなく、慣性質量の小さい撮像素
子を動がし、合焦点がみっがるまでは、他のレンズ系は
固定しておくので、測距速度が上がり、不自然な動作と
はならない。また、この発明の場合、全焦点距離につい
て同時に合焦点を検出するので、無限遠がらクローズア
ップに被写***置が急激に変化しても応答が早いという
効果がある。
Effects of the Invention According to the invention described above, instead of keeping the lens system stationary during distance measurement as in the conventional case, the image sensor with a small inertial mass is moved, and until the focused point is found, the lens system is not moved. Since the lens system is fixed, the distance measurement speed is increased and unnatural movements occur. Further, in the case of the present invention, since the in-focus point is detected at the same time for all focal lengths, there is an effect that the response is quick even if the subject position suddenly changes from infinity to close-up.

また、副Wi像素子を合焦のため動かずもので、レンズ
基はその測距には用いないから、レンズ系としてはいか
なる交換レンズも使用可能となる。
Further, since the sub Wi image element does not move for focusing and the lens base is not used for distance measurement, any interchangeable lens can be used as the lens system.

なお、従来の場合、測距用の撮像素子は1次元的ライン
センサーであるため、各絵素の配列方向にコントラス1
−の変化がある像に対しては測距可能となるが、配列方
向にコントラスト変化がないとき、つまりラインセンサ
ーが水平方向のとき、水平方向のコントラスト変化がな
く、縦方向のめ変化するような被写体は測距不能となる
In the conventional case, since the image sensor for distance measurement is a one-dimensional line sensor, there is a contrast of 1 in the arrangement direction of each picture element.
Distance measurement is possible for images with - changes, but when there is no contrast change in the array direction, that is, when the line sensor is in the horizontal direction, there is no contrast change in the horizontal direction, but there is a change in the vertical direction. It becomes impossible to measure the distance of the subject.

これに対し、上述のように、測距用の撮像素子として面
撮像素子を用い”ζ2次几的にコントラスト変化を求め
るようにした場合には、上記のような方向依存性がない
。また、評価関数も2次元微分であ4か゛ら、第1図の
従来例の場合のように非直線処理をわざわざ行わなくて
もよく、さらに2次元の二1ントラス目負出を行うから
全方向につい゛(の正確なコントラスト検出ができるも
のである。
On the other hand, as described above, when a surface image sensor is used as the image sensor for distance measurement and the contrast change is determined in a ζ2-order manner, there is no directional dependence as described above. Since the evaluation function is also a two-dimensional differential, there is no need to take the trouble of performing non-linear processing as in the conventional example shown in Fig. (Accurate contrast detection can be performed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来のオートフォーカス装置の一例の光学系を
示す図、第2図及び第3図はその説明のための図、第4
図はこの発明の光学系の一例を示す図、第5図はその要
部の構成の一例を示す図、第6図〜第9図はその説明の
ための図、第10図はこの発明の制御系の一例のブロッ
ク図、第11図はその一部の構成を説明するための図で
ある。 (11)は撮像レンズ、(12)はメインミラー、(1
3)はサフミラー、(14)は主撮1象素子、(工5)
は副撮像素子である。 第1図 第10図 第11図 便   If
FIG. 1 is a diagram showing an optical system of an example of a conventional autofocus device, FIGS. 2 and 3 are diagrams for explaining the same, and FIG.
The figure shows an example of the optical system of this invention, FIG. 5 shows an example of the configuration of its main parts, FIGS. 6 to 9 are illustrations for explaining the same, and FIG. FIG. 11, which is a block diagram of an example of the control system, is a diagram for explaining the configuration of a part thereof. (11) is the imaging lens, (12) is the main mirror, (1
3) is a surface mirror, (14) is a main camera element, (engineering 5)
is a sub-image sensor. Figure 1 Figure 10 Figure 11 Flight If

Claims (1)

【特許請求の範囲】 1、 主撮像面位置とは別の位置に、この主撮像面の画
角の一部を切り取った部分に相当する副撮像素子が設&
Jられ、この主ti像面及び副撮像素子には同一の光学
系からの入射光がそれぞれ結像し得るようにされ、上記
副撮像素子は上記主撮像面と等1所の位置から光学系の
焦点距別に応じて光軸方向に移動させられるとともにそ
の移動変移中の各位置において上記副撮像素子の各絵素
よりの情報からその画像の鮮明度の評価値が求められ、
その評価値のli犬値が合焦点とされて上記主撮像面と
レンスとの距離が変えられて、」二記主撮像面」二に像
を合焦するようにして焦点を合わせるようにしたオート
フォーカス装e 2、 副撮像素子として2次元の面1最像素子が用いら
れ、上記鮮明度の評価値として、上記面撮像素子の画像
情報の2次元数分の、その面内での総量が用いられるよ
うにされた特許請求の範囲第1項記載のオートフォーカ
ス装置。
[Claims] 1. A sub-imaging element corresponding to a portion of the main imaging surface where a part of the angle of view is cut out is provided at a position different from the main imaging surface position.
The incident light from the same optical system can be imaged on the main image plane and the sub-imaging element, respectively, and the sub-imaging element is arranged to form an image of the optical system from one position such as the main image plane. is moved in the optical axis direction according to the focal length of the image sensor, and at each position during the movement, an evaluation value of the sharpness of the image is determined from information from each pixel of the sub-imaging device,
The li value of the evaluation value is set as the focusing point, and the distance between the main imaging surface and the lens is changed to focus the image on the "2 main imaging surface" 2. Autofocus device e 2. A two-dimensional plane 1 most image element is used as the sub-imaging element, and the evaluation value of the sharpness is the total amount of image information of the plane image sensor for the two-dimensional number within that plane. An autofocus device according to claim 1, wherein the autofocus device is adapted to be used.
JP57143575A 1982-08-19 1982-08-19 Autofocusing device Pending JPS5933408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57143575A JPS5933408A (en) 1982-08-19 1982-08-19 Autofocusing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57143575A JPS5933408A (en) 1982-08-19 1982-08-19 Autofocusing device

Publications (1)

Publication Number Publication Date
JPS5933408A true JPS5933408A (en) 1984-02-23

Family

ID=15341923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57143575A Pending JPS5933408A (en) 1982-08-19 1982-08-19 Autofocusing device

Country Status (1)

Country Link
JP (1) JPS5933408A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4835487A (en) * 1970-09-14 1973-05-24
JPS4974534A (en) * 1972-11-15 1974-07-18
JPS50129220A (en) * 1974-04-01 1975-10-13
JPS5325431A (en) * 1976-08-23 1978-03-09 Hitachi Ltd Automati c focusing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4835487A (en) * 1970-09-14 1973-05-24
JPS4974534A (en) * 1972-11-15 1974-07-18
JPS50129220A (en) * 1974-04-01 1975-10-13
JPS5325431A (en) * 1976-08-23 1978-03-09 Hitachi Ltd Automati c focusing device

Similar Documents

Publication Publication Date Title
US4183642A (en) Automatic focusing devices
JPH11190816A (en) Optical device and focusing point selecting method
US4500778A (en) Image plane deviation amount detecting device
JPH01216306A (en) Focus detecting device having image pickup means
US4855777A (en) Apparatus for detecting the focus adjusted state of an objective lens
JPS6155618A (en) Automatic focusing device
JP4011738B2 (en) Optical device
JPS5934504A (en) Autofocusing device
JPS5926708A (en) Focusing method of zoom lens
US4259688A (en) TV camera
JPS5933408A (en) Autofocusing device
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
JPH01131508A (en) Photographing system
JPS5936203A (en) Picture processing device
JPS6113566B2 (en)
JP2916202B2 (en) Focus position detection device
JPH04145406A (en) Autofocus microscope and three-dimensional shape measuring instrument using thereof
JPS6155620A (en) Automatic focusing device
JPH03220515A (en) Focus position detection system
JP2964586B2 (en) Camera image blur detection device
JP2006184321A (en) Focus detecting device and optical equipment equipped with focus detecting device
JPS6153614A (en) Automatic focusing device
JPS5937510A (en) Autofocus device
JPH1038559A (en) Measurement of distance
JPH05164523A (en) Three-dimensional object depth detector