JPH1068865A - Automatic focusing device - Google Patents

Automatic focusing device

Info

Publication number
JPH1068865A
JPH1068865A JP15095197A JP15095197A JPH1068865A JP H1068865 A JPH1068865 A JP H1068865A JP 15095197 A JP15095197 A JP 15095197A JP 15095197 A JP15095197 A JP 15095197A JP H1068865 A JPH1068865 A JP H1068865A
Authority
JP
Japan
Prior art keywords
area
lens
point
image plane
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP15095197A
Other languages
Japanese (ja)
Other versions
JP2974637B2 (en
Inventor
Masaki Higashihara
正樹 東原
Ichiro Onuki
一朗 大貫
Akira Akashi
彰 明石
Terutake Kadohara
輝岳 門原
Hidehiko Fukahori
英彦 深堀
Yasuo Suda
康夫 須田
Kenji Ito
健二 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP15095197A priority Critical patent/JP2974637B2/en
Publication of JPH1068865A publication Critical patent/JPH1068865A/en
Application granted granted Critical
Publication of JP2974637B2 publication Critical patent/JP2974637B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an autofocusing operation suitable for photographing a moving body by bringing an object caught by an area in the center of an image plane into focus when the object caught by each area is different from the previous object. SOLUTION: The controller PRS of a camera is a one-chip microcomputer having a CPU(central control unit), a ROM, a RAM and an A/D converting function inside. It performs focusing based on data calculated by an arithmetic operation circuit and selects the area where the object suitable to perform predicting arithmetic operation exists out of plural measuring areas. The detection data from the selected area is set as the newest detection data used for the predicting arithmetic operation. Furthermore, when the area where the object suitable for the predicting arithmetic operation exists can not be selected, the specified area at the center position of the image plane out of the area is set as the area for the autofocusing operation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はカメラ等に用いられ
る複数の測距点を有する自動焦点調節装置に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic focusing device having a plurality of distance measuring points used for a camera or the like.

【0002】[0002]

【従来の技術】従来、一眼レフ・カメラの自動焦点調節
方式の多くは「焦点検出(センサ信号入力、焦点検出演
算)、レンズ駆動」のサイクルを繰り返し行うことによ
って、被写体にピントを合わせようとするものである。
各サイクルにおけるレンズ駆動量はそのサイクルで焦点
検出を行った時点でのデフォーカス量に基づいており、
これはレンズ駆動終了時に焦点検出時のデフォーカス量
が解消されることを期待している。
2. Description of the Related Art Conventionally, most automatic focusing systems of a single-lens reflex camera attempt to focus on a subject by repeating a cycle of "focus detection (sensor signal input, focus detection calculation), lens driving". Is what you do.
The lens drive amount in each cycle is based on the defocus amount at the time of performing focus detection in that cycle,
This is expected to eliminate the defocus amount at the time of focus detection at the end of lens driving.

【0003】当然のことながら、焦点検出、レンズ駆動
にはそれ相当の時間を必要とするわけであるが、静止し
た被写体の場合には、レンズを駆動しない限りデフォー
カス量の変化がないので、レンズ駆動が終了した時点に
解消すべきデフォーカス量は、焦点検出時点でのデフォ
ーカス量に等しく、正しい焦点調節が行われる。
Naturally, it takes a considerable amount of time for focus detection and lens drive. However, in the case of a stationary subject, the amount of defocus does not change unless the lens is driven. The defocus amount to be eliminated when the lens driving is completed is equal to the defocus amount at the time of focus detection, and correct focus adjustment is performed.

【0004】ところが、動きの大きな被写体の場合に
は、焦点検出、レンズ駆動中にデフォーカス量が変化
し、前記解消すべきデフォーカス量と検出デフォーカス
量が著しく異なることがあり、結果として、レンズ駆動
終了後に被写体にピントが合っていないという問題にな
る。
However, in the case of a moving subject, the defocus amount changes during focus detection and lens driving, and the defocus amount to be eliminated and the detected defocus amount may be significantly different. As a result, There is a problem that the subject is not focused after the lens driving is completed.

【0005】上記問題の解決を目的とした自動焦点調節
方法として、特開昭62−125311号公報、同62
−139512号公報、同62−139511号公報等
や特願昭62−328233号公報が提示されている。
As an automatic focusing method for solving the above-mentioned problem, Japanese Patent Laid-Open Publication Nos.
Japanese Patent Application Laid-Open Nos. 139512 and 62-139511 and Japanese Patent Application No. 62-328233 are disclosed.

【0006】該特願昭によって開示されている方法の要
旨は、上記各サイクルにおける検出デフォーカス変化と
各サイクルの時間間隔を鑑みて、被写体の移動に起因す
るデフォーカス変化を予測してレンズ駆動量に補正をか
けようとするもの(以下追従補正と称す。)であり、レ
ンズの駆動終了時のピント精度という見地からは、同方
法により上記問題の改善が期待される。
[0006] The gist of the method disclosed in the Japanese Patent Application No. Sho-A-58-28139 is that, in consideration of the detected defocus change in each cycle and the time interval of each cycle, a defocus change caused by the movement of the subject is predicted. This method is intended to correct the amount (hereinafter, referred to as “follow-up correction”), and from the viewpoint of focusing accuracy at the end of driving the lens, the above method is expected to improve the above problem.

【0007】しかしながら、前記追従補正を実際に行っ
た場合、次のような問題が生じてくる。
However, when the following correction is actually performed, the following problem occurs.

【0008】即ち、追従補正モードで被写体を追ってい
る時に、測距視野内の被写体が別の被写体に移った場
合、像面位置の変化の連続性が失われるため、そのま
ま、過去の被写体のデータと新しい被写体のデータによ
って予測を行うと、誤った予測を行い、結果として全く
別の所にレンズを駆動してしまう。
That is, if the subject in the ranging field moves to another subject while the subject is being tracked in the tracking correction mode, the continuity of the change of the image plane position is lost. If the prediction is made based on the data of the new subject, an incorrect prediction is made, and as a result, the lens is driven to a completely different place.

【0009】このように、測距視野内の被写体が別の被
写体に移った場合、誤予測をしてしまい、これは古い被
写体のデータを使って予測制御を行っている間、解消さ
れることがないという問題が存在する。
As described above, when a subject within the range-finding field moves to another subject, erroneous prediction is made, and this is solved while performing prediction control using data of an old subject. There is a problem that there is no.

【0010】以下図面を用いて上記特願昭に示される装
置の動作につき説明する。
The operation of the device shown in the above-mentioned Japanese Patent Application will be described below with reference to the drawings.

【0011】図3は上記特願昭に示されるレンズ駆動補
正方法を説明するための図である。図中の横軸は時刻
t、縦軸は被写体の像面位置xを表わしている。
FIG. 3 is a diagram for explaining the lens drive correction method disclosed in the above-mentioned Japanese Patent Application. The horizontal axis in the figure represents time t, and the vertical axis represents the image plane position x of the subject.

【0012】実線で表わした曲線x(t)は撮影レンズ
が無限遠にあるときに、カメラに対して光軸方向に接近
してくる被写体の時刻tにおける像面位置を意味してい
る。破線で表したl(t)は時刻tにおける撮影レンズ
位置を意味しており、x(t)とl(t)が一致したと
きに合焦となる。そして〔ti ,ti ′〕が焦点検出動
作、〔ti ′,ti1 〕がレンズ駆動動作である。ま
た、同図に示した従来例では、像面位置が2次関数に従
って変化するという仮定をおいている。即ち、時刻t3
において現在および過去3回の像面位置(t1 ,x1
(t2 ,x2 )(t3 ,x3 )がわかれば、上記式x
(t)=at2 +bt+cに基づき、時刻t3 よりTL
(AFタイムラグ+レリーズタイムラグ)後の時刻t4
での像面位置x4 が予測できるものである。
A curve x (t) represented by a solid line indicates an image plane position at time t of a subject approaching the camera in the optical axis direction when the taking lens is at infinity. L (t) represented by a broken line indicates the position of the photographing lens at time t, and focusing is achieved when x (t) and l (t) match. Then [t i, t i '] focus detection operation, [t i' is, t i + 1] is the lens driving operation. Further, in the conventional example shown in FIG. 1, it is assumed that the image plane position changes according to a quadratic function. That is, at time t 3
At the current and past three image plane positions (t 1 , x 1 )
If (t 2 , x 2 ) (t 3 , x 3 ) is known, the above equation x
Based on (t) = at 2 + bt + c, TL starts at time t 3.
Time t 4 after (AF time lag + release time lag)
Image plane position x 4 in those which can be predicted.

【0013】ところが、実際にカメラに検知し得るのは
像面位置x1 ,x2 ,x3 ではなく、デフォーカス量D
1 ,DF2 ,DF3 ならびに、像面移動量換算のレン
ズ駆動量DL1 ,DL2 である。そして時刻t4 はあく
まで将来の値であり、実際には、被写体輝度によって蓄
積型のセンサの蓄積時間が変化すると、それに伴って変
化する値であるが、ここでは簡単のため、次のように仮
定する。
However, what can be actually detected by the camera is not the image plane position x 1 , x 2 , x 3 but the defocus amount D
F 1 , DF 2 , DF 3 and lens drive amounts DL 1 , DL 2 in terms of image plane movement amount. The time t 4 is a value in the future, and is actually a value that changes with the change in the accumulation time of the accumulation type sensor depending on the luminance of the subject. Assume.

【0014】 t4 −t3 =TL=TM2 +(レリーズタイムラグ) (1)T 4 −t 3 = TL = TM 2 + (release time lag) (1)

【0015】以上の仮定の下に、時間t3 での焦点検出
結果から算出されたレンズ駆動量DL3 は以下のように
求まる。
Under the above assumption, the lens driving amount DL 3 calculated from the focus detection result at the time t 3 is obtained as follows.

【0016】 x(t)=at2 +bt+c (2) そして、図中の(t1 ,l1 )を原点と考えると、 t1 =0 x1 =DF1 (3) t2 =TM12 =DF2 +DL1 (4) t3 =TM1 +TM23 =DF3 +DL1 +DL2 (5) (2)式に(3),(4),(5)式を代入してa,
b,cを求めると、
X (t) = at 2 + bt + c (2) Assuming that (t 1 , l 1 ) in the figure is the origin, t 1 = 0 x 1 = DF 1 (3) t 2 = TM 1 x 2 = DF 2 + DL 1 (4) t 3 = TM 1 + TM 2 × 3 = DF 3 + DL 1 + DL 2 (5) Substituting the equations (3), (4) and (5) into the equation (2), a ,
When b and c are obtained,

【0017】[0017]

【外1】 c=DF1 (8) よって時刻t4 における像面移動量換算のレンズ駆動量
DL3 は、 DL3 =x4 −l3 =x4 −x3 +DF3 =a{(TM1 +TM2 +TL)2 −(TM1 +TM22 } +b・TL+DF3 (9) のように求まる。
[Outside 1] c = DF 1 (8) Therefore, the lens driving amount DL 3 in terms of the image plane movement amount at the time t 4 is DL 3 = x 4 −l 3 = x 4 −x 3 + DF 3 = a {(TM 1 + TM 2 + TL) ) 2 − (TM 1 + TM 2 ) 2 + + b · TL + DF 3 (9)

【0018】次に、測距視野内の被写体が、別の被写体
に移った場合に発生する問題について図3を使って説明
する。
Next, a problem that occurs when an object within the distance measurement field moves to another object will be described with reference to FIG.

【0019】図4は時間と像面位置の関係を示したもの
であり、実線は第1の被写体の像面位置、一点差線は第
2の被写体の像面位置である。
FIG. 4 shows the relationship between the time and the image plane position. The solid line indicates the image plane position of the first object, and the dashed line indicates the image plane position of the second object.

【0020】ここで、時刻t1 ,t2 では第1の被写体
に対して焦点検出を行いレンズを駆動し、t3 では第2
の被写体に対して焦点検出を行ったとする。
Here, at times t 1 and t 2 , focus detection is performed on the first object to drive the lens, and at time t 3 , the second object is detected.
It is assumed that focus detection has been performed on the subject.

【0021】すると、カメラ側では焦点検出により得ら
れたデフォーカス量とレンズ駆動量から、時刻t1 ,t
2 ,t3 での像面位置x1 ,x2 ,x3 ′を算出し、
(t1,x1 )(t2 ,x2 )(t3 ,x3 ′)を通る
二次関数f(t)を算出し、このf(t)によって時刻
4 での像面位置x4 ″を予測する。
Then, on the camera side, based on the defocus amount and the lens driving amount obtained by the focus detection, the times t 1 and t
2 and t 3 , image plane positions x 1 , x 2 and x 3 ′ are calculated,
A quadratic function f (t) passing through (t 1 , x 1 ) (t 2 , x 2 ) (t 3 , x 3 ′) is calculated, and the image plane position x at time t 4 is calculated by the f (t). Predict 4 ″.

【0022】しかしながら、時刻t4 での第1の被写体
の像面位置はx4 、第2の被写体の像面位置はx4 ′で
あり、予測によって得られたx4 ″はどちらの被写体の
像面位置とも違った位置となってしまう。
However, the image plane position of the first object at time t 4 is x 4 , the image plane position of the second object is x 4 ′, and x 4 ″ obtained by the prediction is The position is different from the image plane position.

【0023】これは、第1の被写体の像面位置x4 を予
測するためには(t1 ,x1 )(t2 ,x2 )(t3
3 )を通る関数を求める必要があり、第2の被写体の
像面位置x4 ′を予測するためには(t1 ,x1 ′)
(t2 ,x2 ′)(t3 ,x3′)を通る関数を求める
必要がある。
[0023] This is because in order to predict the image plane position x 4 of the first object (t 1, x 1) ( t 2, x 2) (t 3,
It is necessary to find a function that passes through x 3 ), and to estimate the image plane position x 4 ′ of the second object, (t 1 , x 1 ′)
It is necessary to find a function passing through (t 2 , x 2 ′) (t 3 , x 3 ′).

【0024】しかしながら、カメラ側では第1の被写体
と第2の被写体との区別ができないために、時刻t3
焦点検出によって得られたデフォーカス量を使って予測
演算を行う。その結果、予測関数は、第1の被写体の像
面位置の近似関数でもなく、また第2の被写体の近似関
数とも違ったものになってしまい、その予測したレンズ
駆動位置も誤ったものとなってしまう。これは予測に用
いるデータの中に主被写体以外の被写体に対して焦点検
出を行ったデータが存在すると上記のような誤った予測
を行ってしまうため、撮影者が第1の被写体を追ってい
る最中に主被写体を第2の被写体に切換えると必ず発生
する問題である。
[0024] However, in the camera side because it can not be distinguished from the first object and the second object performs a prediction calculation with the defocus amount obtained by the focus detection time t 3. As a result, the prediction function is not an approximation function of the image plane position of the first subject, and is different from the approximation function of the second subject, and the predicted lens driving position is also incorrect. Would. This is because if the data used for the prediction includes data obtained by performing focus detection on an object other than the main object, the above-described incorrect prediction is performed. This is a problem that always occurs when the main subject is switched to the second subject during operation.

【0025】このような問題に対する対策技術としては
特願昭62−328233号公報、あるいは特開昭62
−139511号公報,特開昭62−139512号公
報によって開示されている。これらの要旨は像面位置変
化の連続性が失われたり、被写体が低輝度であるなど
の、予測に不向きな条件の場合には、ただちに追従モー
ドを一旦中止するものである。
Techniques for solving such a problem are disclosed in Japanese Patent Application No. 62-328233 or Japanese Patent Application Laid-Open No. Sho 62-328233.
No. 139511 and Japanese Patent Application Laid-Open No. 62-139512. The gist of the invention is to immediately suspend the following mode immediately when conditions unsuitable for prediction, such as loss of continuity of image plane position change or low brightness of a subject.

【0026】[0026]

【発明が解決しようとする課題】しかしながら画面の異
なるエリアに対してそれぞれ被写体のフォーカス状態を
検出する多点AFでは、それまで、あるエリアでとらえ
ていた被写体が別のエリアに移行する状況が発生し、こ
の場合には追従モードを中止する必要がないにもかかわ
らず、従来の方式では直ちに追従モードを中止してしま
う不都合が生じる。又、この多点AFにおいても各エリ
アでそれまでの被写体と異なる被写体をとらえてしまっ
た場合には、ただちに追従モードを中止させる必要があ
るが、その中止後の測距エリアをどのエリアに設定して
処理を行なわせれば適正な処理が行なえるかが問題とな
る。
However, in the multi-point AF for detecting the focus state of a subject in each of different areas of the screen, a situation occurs in which a subject captured in a certain area is shifted to another area. However, in this case, although there is no need to stop the following mode, there is a disadvantage that the following mode is immediately stopped in the conventional method. Also, in this multi-point AF, if a subject different from the previous subject is captured in each area, it is necessary to immediately stop the tracking mode. Then, if the processing is performed, it is a problem whether proper processing can be performed.

【0027】[0027]

【課題を解決するための手段】請求項1に記載の発明
は、その構成として、複数の測定エリアでのフォーカス
状態に応じた検出データを繰り返し求める焦点検出回路
と、該焦点検出回路にて求められた検出データに基づい
てフォーカシング機構を駆動するフォーカシング機構駆
動回路とを備え、繰り返しオートフォーカス動作を行う
自動焦点調節装置において、オートフォーカス動作のた
めに行われる最新の検知動作で求められた検出データと
過去の検出データに基づき所定時間後の対象物の像の像
面位置に対応する位置にフォーカシング機構を移動させ
るためのデータを予測演算する演算回路を設け、該演算
回路にて演算された前記データに基づいてフォーカシン
グを行うとともに、前記複数の測定エリアのうち予測演
算を行うのに適した対象物の存在するエリアを選択する
選択手段を設け、該選択手段にて選択されたエリアから
の検出データを前記予測演算に用いる前記最新の検出デ
ータとし、更に選択手段にて予測演算に適して対象物の
存在するエリアを選択できない時に前記エリアのうち画
面の中央位置の特定のエリアをオートフォーカス動作の
ためのエリアとして設定する設定手段を設け、画面に対
して対象物が移動してもその対象に対しての予測演算を
可能にするとともに、各エリアで捕らえている対象物が
以前の対象物と異なる物となった時には画面中央のエリ
アで捕らえている対象物に対してのピント合わせを行う
ようにして上記の問題を解決したものである。
According to a first aspect of the present invention, there is provided a focus detection circuit for repeatedly detecting detection data corresponding to a focus state in a plurality of measurement areas, and a focus detection circuit for obtaining the detection data. A focusing mechanism driving circuit for driving a focusing mechanism based on the detected data, and an automatic focus adjustment device that repeatedly performs an autofocus operation, the detection data obtained by the latest detection operation performed for the autofocus operation. And a calculation circuit for predicting and calculating data for moving the focusing mechanism to a position corresponding to the image plane position of the image of the target object after a predetermined time based on the past detection data, and the calculation circuit calculated by the calculation circuit While performing focusing based on data, it is suitable for performing a prediction calculation among the plurality of measurement areas. A selection unit for selecting an area where an elephant is present is provided, and the detection data from the area selected by the selection unit is used as the latest detection data used for the prediction calculation, and the selection unit is suitable for the prediction calculation. When the area where the object is present cannot be selected, a setting unit is provided for setting a specific area at the center position of the screen as an area for the autofocus operation among the areas, and even if the object moves with respect to the screen, In addition to enabling prediction calculation for the target, if the target captured in each area is different from the previous target, focus on the target captured in the area in the center of the screen This solves the above problem.

【0028】請求項2に記載の発明は、複数の測定エリ
アでのフォーカス状態に応じた検出データを繰り返し求
める焦点検出回路と、該焦点検出回路にて求められた検
出データに基づいてフォーカシング機構を駆動するフォ
ーカシング機構駆動回路とを備え、繰り返しオートフォ
ーカス動作を行う自動焦点調節装置において、オートフ
ォーカス動作のために行われる最新の検知動作で求めら
れた検出データと過去の検出データに基づき所定時間後
の対象物の像の像面位置に対応する位置にフォーカシン
グ機構を移動させるためのデータを予測演算する演算回
路を設け、該演算回路にて演算された前記データに基づ
いてフォーカシングを行うとともに、前記複数の測定エ
リアのうち予測演算を行うのに適した対象物の存在する
エリアを選択する選択手段を設け、該選択手段にて選択
されたエリアからの検出データを前記予測演算に用いる
前記最新の検出データとし、更に選択手段にて予測演算
に適して対象物の存在するエリアを選択できない時に前
記エリアのうち最後のオートフォーカス動作のための検
出データを形成したエリアを次回のオートフォーカス動
作のためエリアとして設定する設定手段を設け、画面に
対して対象物が移動してもその対象に対しての予測演算
を可能にするとともに、各エリアで捕らえている対象物
が以前の対象物と異なる物となった時には最後のオート
フォーカス動作でのエリアで捕らえている対象物に対し
てのピント合わせを行うようにして上記の問題を解消し
たものである。
According to a second aspect of the present invention, there is provided a focus detection circuit for repeatedly detecting detection data corresponding to a focus state in a plurality of measurement areas, and a focusing mechanism based on the detection data obtained by the focus detection circuit. A focusing mechanism driving circuit for driving, and an auto-focusing device that repeatedly performs an auto-focus operation, after a predetermined time based on detection data obtained by the latest detection operation performed for the auto-focus operation and past detection data. An arithmetic circuit for predicting and calculating data for moving the focusing mechanism to a position corresponding to the image plane position of the image of the object is provided, and focusing is performed based on the data calculated by the arithmetic circuit. Select the area where the target object suitable for performing the prediction calculation exists from the multiple measurement areas Selection means, the detection data from the area selected by the selection means is used as the latest detection data used for the prediction calculation, and further, the selection means cannot select an area where the target object is present suitable for the prediction calculation. Sometimes setting means is provided for setting an area in which the detection data for the last autofocus operation is formed as an area for the next autofocus operation. Predictive calculation is possible, and when the object captured in each area is different from the previous one, focus on the object captured in the area in the last autofocus operation The above problem has been solved by performing matching.

【0029】[0029]

【発明の実施の形態】次いで本発明につき説明する。ま
ず本発明の実施例としてファインダーの中央とその左右
の3点の測距が可能な焦点検出系を有する自動焦点調節
装置を採用した場合につき説明する。
Next, the present invention will be described. First, as an embodiment of the present invention, a case will be described in which an automatic focus adjustment device having a focus detection system capable of measuring a distance between the center of a viewfinder and three points on the left and right thereof is employed.

【0030】図9、図10は上記3点の焦点検出が可能
な焦点検出装置の実施例を示す光学配置図である。
FIGS. 9 and 10 are optical arrangement diagrams showing an embodiment of a focus detecting device capable of detecting the above three points.

【0031】図9は斜視形態、図10は縦断面形状を示
している。
FIG. 9 shows a perspective view, and FIG. 10 shows a longitudinal sectional shape.

【0032】図9中42は多孔視野マスクで、図中、横
方向に長辺を持ち、並列された矩形開口を具え、対物レ
ンズの予定結像面近傍に配される。43は近赤外光より
長波長光を遮断するフィルター、50は分割フィールド
レンズで、対物レンズの予定結像面から若干ずらして配
置する。分割フィールドレンズ50は後述する様に光学
作用を異にするレンズ部50c,50d,50eから成
っており、これらの部分はレンズ厚又はレンズ面の曲率
半径の一方あるいは両方を変えることで形成される。
尚、各レンズ部を別体で構成する場合は屈折率を異にす
る素材で作ることもできる。
In FIG. 9, reference numeral 42 denotes a perforated field mask, which has long sides in the horizontal direction, has rectangular openings arranged in parallel, and is arranged in the vicinity of a predetermined image forming plane of the objective lens. Reference numeral 43 denotes a filter that blocks light having a wavelength longer than that of near-infrared light, and reference numeral 50 denotes a split field lens, which is disposed slightly shifted from a predetermined imaging plane of the objective lens. The split field lens 50 includes lens portions 50c, 50d, and 50e having different optical functions as described later, and these portions are formed by changing one or both of the lens thickness and the radius of curvature of the lens surface. .
When each lens portion is formed separately, it can be made of a material having a different refractive index.

【0033】51と53は2孔絞り52を挟んで再結像
レンズユニットを形成し、凸レンズ51は入射光を平行
光に近い状態に変換し(光学作用は特公昭62−335
64号公報に述べられている)、また2枚の凸レンズ5
3a,53bを並べて接合した2像形成レンズ53は対
物レンズで結像された物体像の2次像を2つ形成する。
前述の2孔絞り52は、図面中、横方向に並んだ縦に長
い楕円開口52a,52bを具える。
The lenses 51 and 53 form a re-imaging lens unit with a two-hole aperture 52 interposed therebetween, and the convex lens 51 converts incident light into a state close to parallel light (the optical function is described in Japanese Patent Publication No. Sho 62-335).
No. 64) and two convex lenses 5
The two-image forming lens 53 formed by joining 3a and 53b side by side forms two secondary images of the object image formed by the objective lens.
The above-described two-hole stop 52 has vertically long elliptical openings 52a and 52b arranged in the horizontal direction in the drawing.

【0034】54は像面湾曲補正用の凹レンズで、光電
変換デバイス55を収容する透明プラスチックパッケー
ジ56上に配設される。尚、分割フィールドレンズ5
0、再結像レンズユニットの凸レンズ51、凹レンズ5
4は縦長に整形されているが、いずれも回転対称の球面
レンズ系である。
Numeral 54 denotes a concave lens for correcting the curvature of field, which is disposed on a transparent plastic package 56 for accommodating a photoelectric conversion device 55. The split field lens 5
0, convex lens 51, concave lens 5 of the re-imaging lens unit
Reference numeral 4 denotes a spherical lens system which is shaped vertically and is rotationally symmetric.

【0035】多孔視野マスク42の開口42…42gを
通った光束は、図10に示すように分割フィールドレン
ズ50のレンズ部50c,50b,50eを透過して、
光電変換デバイス上に夫々、物体の2次像を形成する。
The light beam passing through the apertures 42... 42 g of the perforated field mask 42 passes through the lens portions 50 c, 50 b and 50 e of the split field lens 50 as shown in FIG.
A secondary image of the object is formed on each of the photoelectric conversion devices.

【0036】この2次像は対物レンズ(撮影レンズ)の
焦点状態によって、1対の2つの像の相対位置が変化す
る。そして、この2次像を光電変換デバイスによって像
信号に変換し、この像信号から各測距点の焦点状態を検
出するものである。
In the secondary image, the relative position of the pair of two images changes depending on the focus state of the objective lens (photographing lens). Then, the secondary image is converted into an image signal by a photoelectric conversion device, and the focus state of each ranging point is detected from the image signal.

【0037】図5は本発明に関わる自動焦点装置を備え
たカメラの実施例を示す回路図である。
FIG. 5 is a circuit diagram showing an embodiment of a camera provided with an automatic focusing device according to the present invention.

【0038】図においてPRSはカメラの制御装置で、
例えば内部にCPU(中央処理装置),ROM,RA
M,A/D変換機能を有する1チップ・マイクロコンピ
ュータである。コンピュータPRSはROMに格納され
たカメラのシーケンス・プログラムに従って、自動露出
制御機能、自動焦点検出機能、フィルムの巻き上げ等の
カメラの一連の動作を行う。そのために、PRSは同期
式通信用信号SO,SI,SCLK、通信選択信号CL
CM,CSDR,CDDRを用いて、カメラ本体内の周
辺回路およびレンズと通信して、各々の回路やレンズの
動作を制御する。
In the figure, PRS is a camera control device.
For example, CPU (central processing unit), ROM, RA
This is a one-chip microcomputer having an M / A / D conversion function. The computer PRS performs a series of camera operations such as an automatic exposure control function, an automatic focus detection function, and film winding according to a camera sequence program stored in the ROM. For this purpose, PRS includes synchronous communication signals SO, SI, SCLK and communication selection signal CL.
The CM, CSDR, and CDDR are used to communicate with peripheral circuits and lenses in the camera body to control the operation of each circuit and lens.

【0039】SOはコンピュータPRSから出力される
データ信号、SIはコンピュータPRSへ入力されるデ
ータ信号、SCLKは信号SO,SIの同期クロックで
ある。
SO is a data signal output from the computer PRS, SI is a data signal input to the computer PRS, and SCLK is a synchronous clock of the signals SO and SI.

【0040】LCMはレンズ通信バッファ回路であり、
カメラが動作中のときにはレンズ用電源端子に電力を供
給すると共に、コンピュータPRSからの選択信号CL
CMが高電位レベル(以下‘H’と略記する)のときに
はカメラとレンズ間通信バッファとなる。
LCM is a lens communication buffer circuit,
When the camera is in operation, power is supplied to the lens power supply terminal and a selection signal CL from the computer PRS is supplied.
When the CM is at a high potential level (hereinafter abbreviated as “H”), it serves as a communication buffer between the camera and the lens.

【0041】即ち、コンピュータPRSがCLCMを
‘H’にして、SCLKに同期して所定のデータをSO
から送出すると、LCMはカメラ・レンズ間接点を介し
て、SCLK,SOの各々のバッファ信号LCK,DC
Lをレンズへ出力する。それと同時にレンズからの信号
DLCのバッファ信号をSIとして出力し、コンピュー
タPRSはSCLKに同期して上記SIをレンズからの
データとして入力する。
That is, the computer PRS sets CLCM to “H”, and synchronizes predetermined data with SO
Transmitted from the LCM, the buffer signals LCK and DC of SCLK and SO are transmitted via the camera / lens indirect point.
L is output to the lens. At the same time, the buffer signal of the signal DLC from the lens is output as SI, and the computer PRS inputs the SI as data from the lens in synchronization with SCLK.

【0042】SDRはCCD等から構成される焦点検出
用のラインセンサ装置SNSの駆動回路であり、信号C
SDRが‘H’のとき選択されて、SO,SI,SCL
Kを用いてPRSから制御される。
SDR is a drive circuit of a focus detection line sensor device SNS composed of a CCD or the like.
Selected when SDR is 'H', SO, SI, SCL
It is controlled from the PRS using K.

【0043】信号CKはCCD駆動用クロックφ1,φ
2を生成するためのクロックであり、信号INTEND
は蓄積動作が終了したことをPRSへ知らせる信号であ
る。
The signal CK is a CCD driving clock φ1, φ
2 for generating the signal INTEND
Is a signal notifying the PRS that the accumulation operation has been completed.

【0044】SNSの出力信号OSはクロックφ1,φ
2に同期した時系列の像信号であり、SDR内の増幅回
路で増幅された後、AOSとしてコンピュータPRSに
出力される。コンピュータPRSはAOSをアナログ入
力端子から入力し、CKに同期して、内部のA/D変換
機能でA/D変換後、RAMの所定のアドレスに順次格
納する。
The output signal OS of the SNS includes clocks φ1, φ
2 is a time-series image signal synchronized with 2, and after being amplified by an amplifier circuit in the SDR, is output to the computer PRS as AOS. The computer PRS inputs AOS from an analog input terminal, and after synchronizing with CK, performs A / D conversion by an internal A / D conversion function, and sequentially stores the AOS at a predetermined address in RAM.

【0045】同じくセンサ装置SNSの出力信号である
SAGCは、センサ装置SNS内のAGC(自動利得制
御:Auto Gain Control)用センサの
出力であり、駆動回路SDRに入力されてセンサ装置S
NSでの像信号蓄積制御に用いられる。
SAGC, which is an output signal of the sensor device SNS, is an output of an AGC (Auto Gain Control) sensor in the sensor device SNS.
Used for image signal accumulation control in NS.

【0046】SPCは撮影レンズを介した被写体からの
光を受光する露光制御用の測光センサであり、その出力
SSPCはコンピュータPRSのアナログ入力端子に入
力され、A/D変換後、所定のプログラムに従って自動
露出制御(AE)に用いられる。
SPC is an exposure control photometric sensor for receiving light from a subject through a photographic lens, and its output SSPC is input to an analog input terminal of a computer PRS, and after A / D conversion, according to a predetermined program. Used for automatic exposure control (AE).

【0047】DDRはスイッチ検知および表示用回路で
あり、信号CDDRが‘H’のとき選択されて、SO,
SI,SCLKを用いてPRSから制御される。即ち、
PRSから送られてくるデータに基づいてカメラの表示
部材DSPの表示を切り替えたり、カメラの各種操作部
材に連動するスイッチSWSのオン・オフ状態を通信に
よってコンピュータPRSへ報知する。
DDR is a switch detection and display circuit, which is selected when the signal CDDR is "H", and
It is controlled from the PRS using SI and SCLK. That is,
The display of the display member DSP of the camera is switched based on the data sent from the PRS, and the ON / OFF state of the switch SWS linked to various operation members of the camera is notified to the computer PRS by communication.

【0048】スイッチSW1,SW2は不図示のレリー
ズボタンに連動したスイッチで、レリーズボタンの第1
段階の押下によりSW1がオンし、引き続いて第2段階
までの押下でSW2がオンする。コンピュータPRSは
後述するように、SW1オンで測光、自動焦点調節動作
を行い、SW2オンをトリガとして露出制御とフィルム
の巻き上げを行う。尚、SW2はマイクロコンピュータ
PRSの「割込み入力端子」に接続され、SW1オン時
のプログラム実行中でもSW2オンによって割込みがか
かり、直ちに所定の割込みプログラムへ移行することが
出来る。
The switches SW1 and SW2 are linked to a release button (not shown).
SW1 is turned on by pressing down the stage, and SW2 is subsequently turned on by pressing down to the second stage. As will be described later, the computer PRS performs photometry and automatic focus adjustment operation when SW1 is turned on, and performs exposure control and film winding by using SW2 as a trigger. The SW2 is connected to the "interrupt input terminal" of the microcomputer PRS. Even when the program is executed when the SW1 is turned on, an interrupt is generated by turning on the SW2, and the process can immediately proceed to a predetermined interrupt program.

【0049】MTR1はフィルム給送用、MTR2はミ
ラーアップ・ダウンおよびシャッタばねチャージ用のモ
ータであり、各々の駆動回路MDR1,MDR2により
正転・逆転の制御が行われる。PRSからMDR1,M
DR2に入力されている信号M1F,M1R,M2F,
M2Rはモータ制御用の信号である。
MTR1 is a motor for feeding the film, and MTR2 is a motor for mirror up / down and shutter spring charging. The control of forward rotation / reverse rotation is performed by respective drive circuits MDR1 and MDR2. PRS to MDR1, M
The signals M1F, M1R, M2F,
M2R is a signal for motor control.

【0050】MG1,MG2は各々シャッタ先幕・後幕
走行開始用マグネットで、信号SMG1,SMG2、増
幅トランジスタTR1,TR2で通電され、PRSによ
りシャッタ制御が行われる。
MG1, MG2 are magnets for starting the movement of the first and second curtains of the shutter, respectively, are energized by signals SMG1, SMG2 and amplification transistors TR1, TR2, and the shutter is controlled by PRS.

【0051】尚、スイッチ検知および表示用回路DD
R、モータ駆動回路MDR1,MDR2、シャッタ制御
は、本発明と直接関わりがないので、詳しい説明は省略
する。
The switch detection and display circuit DD
R, the motor drive circuits MDR1 and MDR2, and the shutter control are not directly related to the present invention, and a detailed description thereof will be omitted.

【0052】レンズ内制御回路LPRSにLCKに同期
して入力される信号DCLは、カメラからレンズFLN
Sに対する命令のデータであり、命令に対するレンズの
動作が予め決められている。
A signal DCL input to the in-lens control circuit LPRS in synchronization with LCK is transmitted from the camera to the lens FLN.
This is data of a command for S, and the operation of the lens for the command is predetermined.

【0053】LPRSは、所定の手続きに従ってその命
令を解析し、焦点調節や絞り制御の動作や、出力DLC
からのレンズの各種パラメータ(開放Fナンバー,焦点
距離,デフォーカス量対繰り出し量の係数等)の出力を
行う。
The LPRS analyzes the instruction in accordance with a predetermined procedure, and performs operations of focus adjustment and aperture control, and output DLC.
Output various parameters (open F number, focal length, defocus amount vs. extension amount coefficient, etc.) of the lens.

【0054】実施例では、ズームレンズの例を示してお
り、カメラから焦点調節の命令が送られた場合には、同
時に送られてくる駆動量・方向に従って、焦点調節用モ
ータLMTRを信号LMF,LMRによって駆動して、
光学系を光軸方向移動させて焦点調節を行う。光学系の
移動量はエンコーダ回路ENCFのパルス信号SENC
Fでモニターして、LPRS内のカウンタで計数してお
り、所定の移動が完了した時点で、LPRS自身が信号
LMF,LMRを‘L’にしてモータLMTRを制動す
る。
The embodiment shows an example of a zoom lens. When a focus adjustment command is sent from a camera, a focus adjustment motor LMTR is sent to the signals LMF and LMF in accordance with the drive amount and direction sent at the same time. Driven by LMR,
The focus is adjusted by moving the optical system in the optical axis direction. The moving amount of the optical system is determined by the pulse signal SENC of the encoder circuit ENCF.
At F, the counter is counted by a counter in the LPRS, and when the predetermined movement is completed, the LPRS itself sets the signals LMF, LMR to 'L' to brake the motor LMTR.

【0055】このため、一旦カメラから焦点調節の命令
が送られた後は、カメラ内の制御装置PRSはレンズの
駆動が終了するまで、レンズ駆動に関して全く関与する
必要がない。
Therefore, once the focus adjustment command is sent from the camera, the control device PRS in the camera does not need to be involved in driving the lens at all until the driving of the lens is completed.

【0056】又、カメラから絞り制御の命令が送られた
場合には、同時に送られてくる絞り段数に従って、絞り
駆動用としては公知のステッピング・モータDMTRを
駆動する。尚、ステッピング・モータはオープン制御が
可能なため、動作をモニターするためのエンコーダを必
要としない。
When an aperture control command is sent from the camera, a well-known stepping motor DMTR for driving the aperture is driven in accordance with the number of aperture stages sent at the same time. Incidentally, since the stepping motor can be controlled to be open, an encoder for monitoring the operation is not required.

【0057】ENCZはズーム光学系に付随したエンコ
ーダ回路であり、レンズ内制御回路LPRSはエンコー
ダ回路ENCZからの信号SENCZを入力してズーム
位置を検出する。レンズ内制御回路LPRS内には各ズ
ーム位置におけるレンズパラメータが格納されており、
カメラ側のコンピュータPRSから要求があった場合に
は、現在のズーム位置に対応したパラメータをカメラへ
送出する。尚、センサ装置SNS内には3組の光電変換
デバイスがそれぞれ一対の2像用に設けられ、3点の測
距が可能となっている。
ENCZ is an encoder circuit attached to the zoom optical system, and the in-lens control circuit LPRS receives the signal SENCZ from the encoder circuit ENCZ to detect the zoom position. Lens parameters at each zoom position are stored in the in-lens control circuit LPRS,
When there is a request from the computer PRS on the camera side, a parameter corresponding to the current zoom position is sent to the camera. Note that three sets of photoelectric conversion devices are provided in the sensor device SNS for a pair of two images, respectively, and three points can be measured.

【0058】上記構成によるカメラの動作について図6
以下のフローチャートに従って説明する。
FIG. 6 shows the operation of the camera having the above configuration.
This will be described according to the following flowchart.

【0059】不図示の電源スイッチがオンとなると、マ
イクロコンピュータPRSへの給電が開始され、コンピ
ュータPRSはROMに格納されたシーケンスプログラ
ムの実行を開始する。
When a power switch (not shown) is turned on, power supply to the microcomputer PRS is started, and the computer PRS starts executing a sequence program stored in the ROM.

【0060】図6は上記プログラムの全体の流れを表わ
すフローチャートである。上記操作にてプログラムの実
行が開始されると、ステップ(001)を経て、ステッ
プ(002)においてレリーズボタンの第1段階押下に
よりオンとなるスイッチSW1の状態検知がなされ、S
W1オフのときにはステップ(003)へ移行して、コ
ンピュータPRS内のRAMに設定されている制御用の
フラグ、変数を全てクリアし、初期化する。
FIG. 6 is a flowchart showing the entire flow of the above program. When the execution of the program is started by the above operation, the state of the switch SW1 which is turned on by pressing the release button in the first stage is detected in step (002) through step (001).
When W1 is off, the process proceeds to step (003) to clear and initialize all control flags and variables set in the RAM in the computer PRS.

【0061】上記ステップ(002),(003)はス
イッチSW1がオンとなるか、あるいは電源スイッチが
オフとなるまでくり返し実行される。SW1がオンする
ことによりステップ(002)からステップ(005)
へ移行する。
The above steps (002) and (003) are repeatedly executed until the switch SW1 is turned on or the power switch is turned off. When the switch SW1 is turned on, steps (002) to (005) are performed.
Move to.

【0062】ステップ(005)では露出制御のための
「測光」サブルーチンを実行する。コンピュータPRS
は図5に示した測光用センサSPCの出力SSPCをア
ナログ入力端子に入力し、A/D変換を行って、そのデ
イジタル測光値から最適なシャッタ制御値,絞り制御値
を演算して、RAMの所定アドレスへ格納する。そし
て、レリーズ動作時にはこれら値に基づいてシャッタお
よび絞りの制御を行う。
In step (005), a "photometry" subroutine for exposure control is executed. Computer PRS
Inputs the output SSPC of the photometric sensor SPC shown in FIG. 5 to an analog input terminal, performs A / D conversion, calculates the optimal shutter control value and aperture control value from the digital photometric value, and Store at a predetermined address. During the release operation, the shutter and the aperture are controlled based on these values.

【0063】続いてステップ(006)で「像信号入
力」サブルーチンを実行する。このサブルーチンのフロ
ーは図7に示しているが、コンピュータPRSは焦点検
出用センサ装置SNSの3組のセンサーアレイの像信号
の入力を行う。詳細は後述する。
Subsequently, in step (006), an "image signal input" subroutine is executed. Although the flow of this subroutine is shown in FIG. 7, the computer PRS inputs image signals of three sets of sensor arrays of the focus detection sensor device SNS. Details will be described later.

【0064】次のステップ(007)で、入力した3組
の像信号に基づいて撮影レンズのそれぞれの像信号に基
づく3つの測距点のデフォーカス量DEFをそれぞれ演
算する。具体的な演算方法は本出願人によって特願昭6
1−160824号公報等に開示されているので詳細な
説明は省略する。
In the next step (007), the defocus amounts DEF of the three ranging points based on the respective image signals of the photographing lens are calculated based on the input three sets of image signals. The specific calculation method is described in Japanese Patent Application No.
The detailed description is omitted since it is disclosed in Japanese Patent Application Laid-Open No. 1-160824.

【0065】ステップ(008)では「予測演算」サブ
ルーチンを実行する。この「予測演算」サブルーチンで
はレンズ駆動量の補正を行うものであり、詳細は後述す
る。
In step (008), a "prediction calculation" subroutine is executed. In the “prediction calculation” subroutine, the lens drive amount is corrected, and the details will be described later.

【0066】次のステップ(009)では「レンズ駆
動」サブルーチンを実行し、先のステップ(008)で
補正されたレンズ駆動量に基づいてレンズ駆動を行う。
この「レンズ駆動」サブルーチンは図8にそのフローを
示している。レンズ駆動終了後は再びステップ(00
2)へ移動して、SW1がオフか不図示のレリーズスイ
ッチの第2ストロークSW2がオンするまで、ステップ
(005)〜(009)がくり返して実行され動いてい
る被写体に対しても好ましい焦点調節が行われる。
In the next step (009), the "lens drive" subroutine is executed, and the lens is driven based on the lens drive amount corrected in the previous step (008).
This "lens drive" subroutine is shown in FIG. After the lens driving is completed, step (00) is performed again.
Steps (005) to (009) are repeated until the switch SW1 is turned off or the second stroke SW2 of the release switch (not shown) is turned on. Is performed.

【0067】さて、レリーズボタンがさらに押しこまれ
てスイッチSW2がオンすると、割込み機能によって、
いずれのステップにあっても直ちにステップ(010)
へ移行してレリーズ動作を開始する。
When the release button is further depressed and the switch SW2 is turned on, the interrupt function causes
Regardless of the step, immediately step (010)
Then, the release operation is started.

【0068】ステップ(011)ではレンズ駆動を実行
中かどうか判別し、駆動中であれば、ステップ(01
2)に移行し、レンズ駆動停止命令を送出し、レンズを
停止させ、ステップ(013)に進み、レンズを駆動し
ていなければ、直にステップ(013)に移行する。
In step (011), it is determined whether or not lens driving is being executed.
The process proceeds to 2), a lens drive stop command is transmitted, the lens is stopped, and the process proceeds to step (013). If the lens is not driven, the process directly proceeds to step (013).

【0069】ステップ(013)ではカメラのクイック
リターンミラーのミラーアップを行う。これは、図5に
示したモータ制御用信号M2F,M2Rを制御すること
で実行される。次のステップ(014)では先のステッ
プ(005)の測光サブルーチンで既に格納されている
絞り制御値をSO信号として回路LCMを介してレンズ
内制御回路LPRSへ送出して絞り制御を行わせる。
In step (013), the quick return mirror of the camera is mirrored up. This is executed by controlling the motor control signals M2F and M2R shown in FIG. In the next step (014), the aperture control value already stored in the photometry subroutine in the previous step (005) is sent as an SO signal to the in-lens control circuit LPRS via the circuit LCM to perform aperture control.

【0070】ステップ(013),(014)のミラー
アップと絞り制御が完了したか否かはステップ(01
5)で検知するわけであるが、ミラーアップはミラーに
付随した不図示の検知スイッチにて確認することが出
来、絞り制御は、レンズに対して所定の絞り値まで駆動
したか否かを通信で確認する。いずれかが未完了の場合
には、このステップで待機し、引き続き状態検知を行
う。両者の制御終了が確認されるとステップ(016)
へ移行される。
It is determined in step (013) or (014) whether or not the mirror up and aperture control have been completed.
The mirror-up can be confirmed by a detection switch (not shown) attached to the mirror, and the aperture control communicates whether the lens has been driven to a predetermined aperture value. Confirm with. If any of them is not completed, the process stands by at this step and continues to detect the state. When both control ends are confirmed, step (016) is performed.
Is moved to

【0071】ステップ(016)では先のステップ(0
05)の測光サブルーチンで既に格納されているシャッ
タ秒時にてシャッタの制御を行いフィルムを露光する。
In step (016), the previous step (0
The shutter is controlled at the shutter time already stored in the photometry subroutine of 05) to expose the film.

【0072】シャッタの制御が終了すると次のステップ
(017)ではレンズに対して、絞りを開放状態にする
ように命令を前述の通信動作にて送り、引き続いてステ
ップ(018)でミラーダウンを行う。ミラーダウンは
ミラーアップと同様にモータ制御用信号M2F,M2R
を用いてモータMTR2を制御することで実行される。
When the shutter control is completed, in the next step (017), a command is sent to the lens to open the aperture through the above-mentioned communication operation, and then the mirror is lowered in step (018). . Mirror down is similar to mirror up, and the motor control signals M2F and M2R
This is executed by controlling the motor MTR2 using.

【0073】次のステップ(019)ではステップ(0
15)と同様にミラーダウンと絞り開放が完了するのを
待つ、ミラーダウンと絞り開放制御がともに完了すると
ステップ(020)へ移行する。
In the next step (019), step (0)
Wait for mirror down and aperture opening to be completed as in 15). When both mirror down and aperture opening control are completed, the process proceeds to step (020).

【0074】ステップ(020)では図5に示したモー
タ制御用信号M1F,M1Rを適正に制御することでフ
ィルム1駒分が巻き上げられる。
In step (020), the motor control signals M1F and M1R shown in FIG. 5 are appropriately controlled to wind up one frame of the film.

【0075】以上が予測AFを実施したカメラの全体シ
ーケンスである。
The above is the entire sequence of the camera that has performed the prediction AF.

【0076】次に図7に示した「像信号入力」サブルー
チンについて説明する。
Next, the "image signal input" subroutine shown in FIG. 7 will be described.

【0077】「像信号入力」は新たな焦点検出動作の最
初に実行される動作であり、このサブルーチンがコール
されると、ステップ(101)を経てステップ(10
2)にてフラグINA,INB,INCをリセットす
る。このフラグは3点を測距する各光電変換デバイスと
しての各3組のラインセンサの蓄積が終了したかどうか
を判定するものであり、このため、まず蓄積を開始する
前にリセットを行う。
The "image signal input" is an operation executed at the beginning of a new focus detection operation. When this subroutine is called, the process proceeds to the step (101) and then to the step (10).
In 2), the flags INA, INB, INC are reset. This flag determines whether or not the accumulation of each of the three sets of line sensors as each photoelectric conversion device for measuring the distance of three points has been completed. Therefore, the flag is first reset before the accumulation is started.

【0078】ステップ(102)を終了すると、ステッ
プ(103)へ移行する。このステップ(103)では
マイクロコンピュータPRS自身が有している自走タイ
マのタイマ値TIMERをRAM上の記憶領域TNに格
納することによって、焦点検出動作の開始時刻を記憶し
ている。
When the step (102) is completed, the process proceeds to a step (103). In this step (103), the start time of the focus detection operation is stored by storing the timer value TIMER of the self-running timer of the microcomputer PRS itself in the storage area TN on the RAM.

【0079】次のステップ(104)では、レンズ駆動
量補正式(6),(7),(9)中の時間間隔TM
,TM をメモリするメモリTM ,TM
の内容を更新する。ステップ(104)を実行する以前
には、TM ,TM には前前回及び前回の焦点検
出動作における時間間隔が記憶されており、またTN
には前回の焦点検出動作を開始した事項が記憶されてい
る。
In the next step (104), the time interval TM in the lens drive amount correction equations (6), (7) and (9) is used.
1, memory TM 1 of the TM 2 to memory, TM 2
Update the contents of Before executing step (104), TM 1 and TM 2 store time intervals in the previous and previous focus detection operations, and TN 1
Stores the items that have started the previous focus detection operation.

【0080】よってステップ(104)の実行にてTN
−TNは前回から今回までの焦点検出動作の時間間
隔を表わし、これがメモリTM に入力され、TM
には前前回の時間間隔がメモリされる。そしてTN
には次回の焦点検出動作のために今回の焦点検出開始
時刻TNが格納される。即ち、ステップ(104)にて
メモリTM には前前回の時間間隔が、TM には
前回の時間間隔が、TN には今回の焦点検出開始時
刻が常に格納される。
Therefore, the execution of step (104) causes the TN
1 -TN represents the time interval of the focus detecting operation to the current from the previous, which is input to the memory TM 2, TM 1
Stores the previous and previous time intervals. And TN 1
Stores the current focus detection start time TN for the next focus detection operation. That is, the last time interval before the memory TM 1 at step (104), the last time interval to the TM 2 is the TN 1 focus detection start time of this time is always stored.

【0081】さて、次のステップ(105)でセンサ装
置SNSに光像の蓄積を開始させる。具体的にはマイク
ロコンピュータPRSがセンサ駆動回路SDRに通信に
て「蓄積開始コマンド」を送出して、これを受けて駆動
回路SDRはセンサ装置SNSの光電変換素子部のクリ
ア信号CLRを‘L’にして電荷の蓄積を開始させる。
In the next step (105), the sensor device SNS is started to store an optical image. Specifically, the microcomputer PRS sends an “accumulation start command” to the sensor drive circuit SDR by communication, and in response to this, the drive circuit SDR changes the clear signal CLR of the photoelectric conversion element of the sensor device SNS to “L”. To start charge accumulation.

【0082】ステップ(106)では自走タイマのタイ
マ値を変数TIに格納して現在の時刻を記憶する。
In step (106), the timer value of the self-running timer is stored in a variable TI, and the current time is stored.

【0083】ステップ(107)では第1のラインセン
サの蓄積及び像信号のAD変換が終了しているかどうか
を判定し、蓄積が終了していればステップ(109)へ
移行し、未完であればステップ(108)へ移行する。
In step (107), it is determined whether or not the accumulation of the first line sensor and the A / D conversion of the image signal have been completed. If the accumulation has been completed, the process proceeds to step (109). Move to step (108).

【0084】ステップ(108)ではコンピュータPR
Sの入力INTEND端子Aの状態を検知し、蓄積が終
了したか否かを調べる。センサ駆動回路SDRは蓄積開
始と同時に信号INTENDを“L”にし、センサ装置
SNSからのAGC信号SAGCをモニタし、該SAG
Cが所定レベルに達すると、信号INTENDを“H”
にし、同時に電荷転送信号SHを所定時間“H”にして
光電変換素子部の電荷をCCD部に転送させる構造を有
している。
In step (108), the computer PR
The state of the S input INTEND terminal A is detected, and it is checked whether or not the accumulation is completed. The sensor drive circuit SDR sets the signal INTEND to “L” at the same time as the start of accumulation, monitors the AGC signal SAGC from the sensor device SNS, and
When C reaches a predetermined level, the signal INTEND is set to "H".
At the same time, the charge transfer signal SH is set to "H" for a predetermined time to transfer the charge of the photoelectric conversion element unit to the CCD unit.

【0085】ステップ(108)でINTEND端子A
が“H”ならば第1のラインセンサの蓄積が終了したと
いうことでステップ(115)へ移行し、“L”ならば
未だ蓄積が終了していないということでステップ(10
9)へ移行する。
In the step (108), the INTEND terminal A
Is "H", it means that the accumulation of the first line sensor has been completed, and the process proceeds to step (115), and if "L", it means that the accumulation has not been completed yet (step (10)).
Go to 9).

【0086】ステップ(109)では第2のラインセン
サーの蓄積及び像信号のA/D変換が終了しているかど
うかを判定し、終了していればステップ(111)へ移
行し、そうでなければステップ(110)へ移行する。
In step (109), it is determined whether the accumulation of the second line sensor and the A / D conversion of the image signal have been completed, and if completed, the process proceeds to step (111). Move to step (110).

【0087】ステップ(110)ではステップ(10
8)と同様にINTEND端子Bが“H”ならば第2の
ラインセンサの蓄積が終了したということでステップ
(116)へ移行し、“L”ならば未だ蓄積が終了して
いないということでステップ(111)へ移行する。
In step (110), step (10)
Similarly to 8), if the INTEND terminal B is "H", the accumulation of the second line sensor is completed, and the process proceeds to step (116). If "L", the accumulation is not completed yet. Move to step (111).

【0088】ステップ(111)では第3のラインセン
サの蓄積、像信号のA/D変換が終了しているかどうか
を判定し、終了していればステップ(113)へ移し、
そうでなければステップ(112)へ移行する。
In step (111), it is determined whether the accumulation of the third line sensor and the A / D conversion of the image signal have been completed, and if completed, the process proceeds to step (113).
If not, the process proceeds to step (112).

【0089】ステップ(112)では、ステップ(10
8)と同様にINTEND端子Cが“H”ならば、第3
のラインセンサの蓄積が終了したということでステップ
(117)へ移行し、“L”ならば未だ蓄積が終了して
いないということでステップ(113)へ移行する。
In step (112), step (10)
Similarly to 8), if the INTEND terminal C is "H", the third
The process proceeds to step (117) when the accumulation of the line sensor has been completed, and proceeds to step (113) if the accumulation is not completed if it is "L".

【0090】ステップ(115),(116),(11
7)ではそれぞれのラインセンサの蓄積が終了した場合
に実行されるステップで、各蓄積終了のフラグINA,
INB,INCのフラグに「1」を入力する。そして各
ラインセンサの蓄積時間を表わすパラメータTEA,T
EB,TECにその時点での蓄積時間TEを入力する。
そして、これらのステップを終了するとステップ(12
5)へ移行する。
Steps (115), (116) and (11)
7) is a step which is executed when the accumulation of each line sensor is completed.
"1" is input to the flags of INB and INC. And parameters TEA, T representing the accumulation time of each line sensor.
The storage time TE at that time is input to EB and TEC.
When these steps are completed, step (12)
Go to 5).

【0091】ステップ(113)では自走タイマのタイ
マ値TIMERから、ステップ(106)で記憶した時
刻TIを減じて変数TEに格納する。従ってTEには蓄
積開始してからここまでの時刻、いわゆる蓄積時間が格
納されることになる。次のステップ(114)ではTE
と定数MAXINTを比較し、TEがMAXINT未満
ならばステップ(107)へ戻り、再び蓄積終了待ちと
なる。TEがMAXINT以上になるとステップ(11
8)へ移行して、強制的に蓄積終了させる。強制蓄積終
了はコンピュータPRSから回路SDRへ「蓄積終了コ
マンド」を送出することで実行される、SDRはPRS
から「蓄積終了コマンド」が送られると、電荷転送信号
SHを所定時間“H”にして光電変換部の電荷をCCD
部へ転送させる。ステップ(118)までのフローでセ
ンサの蓄積は終了することになる。
In step (113), the time TI stored in step (106) is subtracted from the timer value TIMER of the self-propelled timer and stored in a variable TE. Therefore, the time from the start of the accumulation to the TE, that is, the so-called accumulation time, is stored in the TE. In the next step (114), TE
Is compared with the constant MAXINT. If TE is less than MAXINT, the process returns to step (107) and again waits for the end of accumulation. When TE becomes MAXINT or more, step (11)
The process moves to 8) to forcibly end the accumulation. The forced accumulation end is executed by sending an “accumulation end command” from the computer PRS to the circuit SDR.
, The charge transfer signal SH is set to “H” for a predetermined time, and the charge of the photoelectric conversion unit is transferred to the CCD.
To the department. The accumulation of the sensors ends in the flow up to step (118).

【0092】ステップ(119)では第1のラインセン
サの蓄積、A/D変換が終了したかどうかを判定し、終
了していればステップ(121)へ移行し、そうでなけ
ればステップ(120)へ移行する。
In step (119), it is determined whether or not the accumulation and A / D conversion of the first line sensor have been completed, and if completed, the process proceeds to step (121), and if not, the process proceeds to step (120). Move to.

【0093】ステップ(121)では第2のラインセン
サの蓄積、A/D変換が終了したかどうかを判定し、終
了していればステップ(123)へ移行し、そうでなけ
ればステップ(122)へ移行する。
In step (121), it is determined whether or not the accumulation and A / D conversion of the second line sensor have been completed. If the conversion has been completed, the process proceeds to step (123), and if not, the process proceeds to step (122). Move to.

【0094】ステップ(123)では第3のラインセン
サの蓄積、A/D変換が終了したかどうかを判定し、終
了していればステップ(125)へ移行し、そうでなけ
ればステップ(124)へ移行する。
In step (123), it is determined whether or not the accumulation and A / D conversion of the third line sensor have been completed. If the conversion has been completed, the process proceeds to step (125), and if not, the process proceeds to step (124). Move to.

【0095】ステップ(120),(122),(12
4)は第1及び第2,第3のラインセンサの蓄積時間T
EA,TEB,TECにその時点での蓄積時間TEを入
力し、各ラインセンサの蓄積終了フラグINA,IN
B,INCに「1」を入力する。
Steps (120), (122) and (12)
4) is the accumulation time T of the first, second and third line sensors.
The current accumulation time TE is input to EA, TEB, and TEC, and the accumulation end flags INA, IN of each line sensor are input.
"1" is input to B and INC.

【0096】ステップ(125)ではセンサ装置SNS
の蓄積が終了した各ラインセンサの像信号OSをセンサ
駆動回路SDRで増幅した信号AOSのA/D変換およ
びそのデイジタル信号のRAM格納を行う。より詳しく
述べるならば、SDRはPRSからのクロックCKに同
期してCCD駆動用クロックφ1,φ2を生成してセン
サ位置SNSへ与え、センサ装置SNSはφ1,φ2に
よってCCD部が駆動され、CCD内の電荷は、像信号
として出力OSから時系列的に出力される。この信号は
駆動回路SDR内部の増巾器で増巾された後に、AOS
としてコンピュータPRSのアナログ入力端子へ入力さ
れる。コンピュータPRSは自らが出力しているクロッ
クCKに同期してA/D変換を行い、A/D変換後のデ
イジタル像信号を順次RAMの所定アドレスに格納して
ゆく。
In step (125), the sensor device SNS
A / D conversion of the signal AOS, which is obtained by amplifying the image signal OS of each line sensor by the sensor drive circuit SDR after the completion of the accumulation, is stored in the RAM. More specifically, the SDR generates the clocks φ1 and φ2 for driving the CCD in synchronization with the clock CK from the PRS and supplies the clocks to the sensor position SNS. The CCD unit is driven by the φ1 and φ2 in the sensor device SNS. Are output in time series from the output OS as image signals. This signal is amplified by the amplifier inside the drive circuit SDR, and then AOS
Is input to the analog input terminal of the computer PRS. The computer PRS performs A / D conversion in synchronization with the clock CK outputted by itself, and sequentially stores the digital image signals after A / D conversion at predetermined addresses in the RAM.

【0097】ステップ(126)〜(128)では各ラ
インセンサの蓄積、A/D変換が終了したかどうかを判
定し、全てのラインセンサの蓄積、A/D変換が終了し
ていれば、ステップ(129)へ移行し、このサブルー
チンをリターンし、終了していなければステップ(10
7)へ移行し、蓄積未完のラインセンサの蓄積を続行す
る。
In steps (126) to (128), it is determined whether or not the accumulation and A / D conversion of each line sensor have been completed. If the accumulation and A / D conversion of all the line sensors have been completed, the process proceeds to step (128). The process returns to (129), returns to this subroutine, and if not completed, returns to step (10).
The process proceeds to step 7), and the accumulation of the line sensor that has not been completed is continued.

【0098】図8に「レンズ駆動」サブルーチンのフロ
ーチャートを示す。
FIG. 8 shows a flowchart of the "lens drive" subroutine.

【0099】このサブルーチンが実行されると、ステッ
プ(202)においてレンズと通信して、2つのデータ
「S」「PTH」を入力する。「S」は撮影レンズ固有
の「デフォーカス量対焦点調節レンズくり出し量の係
数」であり、例えば全体くり出し型の単レンズの場合に
は、撮影レンズ全体が焦点調節レンズであるからS=1
であり、本願の如くズームレンズの場合にはエンコーダ
回路ENCZにて各ズーム位置を検知し制御回路LPR
Sにてズーム位置に応じたSを決定する。「PTH」は
焦点調節レンズLNSの光軸方向の移動に連動したエン
コーダENCFからの出力パルス1パルス当たりの焦点
調節レンズのくり出し量である。
When this subroutine is executed, two data "S" and "PTH" are input in step (202) by communicating with the lens. “S” is a “defocus amount vs. a coefficient of the focus adjustment lens protrusion amount” unique to the photographing lens. For example, in the case of a single lens of the whole protrusion type, S = 1 because the entire photographing lens is a focus adjustment lens.
In the case of a zoom lens as in the present application, each zoom position is detected by an encoder circuit ENCZ, and a control circuit LPR
At S, S is determined according to the zoom position. “PTH” is the amount of focus adjustment lens per pulse output from the encoder ENCF in conjunction with the movement of the focus adjustment lens LNS in the optical axis direction.

【0100】従って焦点調節すべきデフォーカス量D
L,上記S,PTHにより焦点調節レンズのくり出し量
をエンコーダの出力パルス数に換算した値、いわゆるレ
ンズ駆動量FPは次式で与えられることになる。
Therefore, the defocus amount D to be adjusted is
The value obtained by converting the amount of protrusion of the focusing lens by L, S, and PTH into the number of output pulses of the encoder, that is, the so-called lens drive amount FP, is given by the following equation.

【0101】FP=DL×S/PTH ステップ(203)は上式をそのまま実行している。FP = DL × S / PTH Step (203) executes the above equation as it is.

【0102】ステップ(204)ではステップ(20
3)で求めたFPをレンズに送出して焦点調節レンズ
(全体くり出し型単レンズの場合には撮影レンズ全体)
の駆動を命令する。
In step (204), step (20)
The FP obtained in 3) is sent to the lens, and the focusing lens (in the case of a whole single lens, the entire photographing lens)
Command to drive.

【0103】次のステップ(205)で、レンズと通信
してステップ(205)で命令したレンズ駆動量FPの
駆動が終了したか否かを検知し、駆動が終了するとステ
ップ(206)へ移行して「レンズ駆動」サブルーチン
をリターンする。このレンズ駆動完了検知は上述の如く
制御回路LPRS内のカウンターで上記エンコーダEN
CFのパルス信号をカウントしており、該カウント値が
上記レンズ駆動量FPと一致したか否かを上述の通信に
て検知することで実行される。
In the next step (205), it is communicated with the lens to detect whether or not the driving of the lens driving amount FP commanded in the step (205) has been completed, and when the driving has been completed, the flow proceeds to step (206). To return the "lens drive" subroutine. This lens drive completion detection is performed by the encoder EN by the counter in the control circuit LPRS as described above.
The pulse signal of the CF is counted, and is executed by detecting whether or not the count value coincides with the lens drive amount FP by the above-described communication.

【0104】次に「予測演算」サブルーチンのフローを
図1を用いて説明する。図1は「予測演算」サブルーチ
ンのフローを示したものであり、予測演算の可否を判定
し、予測可能であれば、AFタイムラグとレリーズタイ
ムラグを考慮したレンズ駆動量を計算するものである。
Next, the flow of the "prediction calculation" subroutine will be described with reference to FIG. FIG. 1 shows the flow of the "prediction calculation" subroutine, in which it is determined whether or not prediction calculation is possible. If prediction is possible, the lens driving amount is calculated in consideration of the AF time lag and the release time lag.

【0105】ステップ(302)は、予測に必要なデー
タの蓄積がなされたかどうかを判定するためのカウンタ
ーCOUNTをカウントアップするかどうかを判定す
る。本実施例では3回以上の測距データ・レンズ駆動デ
ータが蓄積されている場合、すなわちCOUNT>2で
あれば予測演算可能であり、これ以上のカウントアップ
は必要ないので、COUNT>2であればステップ(3
04)へ進む。また、COUNT<3であればステップ
(303)でCOUNTをカウントアップした後ステッ
プ(304)へ進む。
In step (302), it is determined whether or not a counter COUNT for determining whether data necessary for prediction has been accumulated is counted up. In this embodiment, when distance measurement data and lens drive data are accumulated three or more times, that is, when COUNT> 2, prediction calculation can be performed, and further counting up is not required. BA step (3
Go to 04). If COUNT <3, COUNT is counted up in step (303), and then the process proceeds to step (304).

【0106】ステップ(304)では、今回の予測演算
のためのデータの更新を行っている。即ち予測演算は
(6),(7),(8),(9)式に基づいて行われる
ため、そのデータとしては図3における前回及び前前回
のデフォーカス量DF ,DF 、前回のレンズ駆
動量DL 、今回のレンズ駆動量DL 、前前回及
び前回の時間間隔TM ,TM 、見込みタイムラ
グTLを必要とする。よってステップ(304)では焦
点検出が行われるごとに前回のデフォーカス量を記憶領
域DF に、又前前回のデフォーカス量を記憶領域D
に入力し、更に前回の像面移動量換算のレンズ駆
動力DLを記憶領域DL に、前前回の像面移動量換
算のレンズ駆動量DL を記憶領域DL に入力
し、各記憶領域のデータを今回の予測演算に必要なデー
タに更新する。
In step (304), data for the current prediction operation is updated. That is, since the prediction calculation is performed based on the equations (6), (7), (8), and (9), the data includes the previous and previous defocus amounts DF 2 , DF 1 , FIG. The lens drive amount DL 1 , the current lens drive amount DL 2 , the previous and previous and previous time intervals TM 1 and TM 2 , and the expected time lag TL are required. Thus the previous defocus amount in each step (304) in which focus detection is performed in the storage area DF 2, also stores the previous previous defocus amount region D
Fill in F 1, enter further lens driving force DL in the preceding image plane movement amount converted into the memory area DL 2, the lens drive amount DL 1 before the previous image plane movement amount converted into the memory area DL 1, each The data in the storage area is updated to the data necessary for the current prediction operation.

【0107】ステップ(305)では使用している測距
点の位置を表わすAFPが「0」かどうか判定する。こ
こでAFPが「−1」のときは左側の測距点、「0」の
ときには中央の測距点、「1」のときには右側の測距点
を使用していることを示している。すなわちステップ
(305)では中央の測距点を使用中かどうかを判定
し、中央の測距点を使用していればステップ(306)
へ移行し、そうでなければステップ(307)へ移行す
る。
At step (305), it is determined whether or not the AFP indicating the position of the used distance measuring point is "0". Here, when the AFP is “−1”, the left ranging point is used, when the AFP is “0”, the center ranging point is used, and when the AFP is “1”, the right ranging point is used. That is, in step (305), it is determined whether or not the center ranging point is being used. If the center ranging point is being used, step (306) is performed.
Otherwise, to step (307).

【0108】ステップ(307)ではステップ(30
5)と同様にして、左側の測距点を使用しているかどう
かを判定し、左側の測距点を使用していればステップ
(308)へ移行し、右側の測距点を使用していればス
テップ(309)へ移行する。
In step (307), step (30)
In the same manner as in 5), it is determined whether or not the left ranging point is used. If the left ranging point is used, the process proceeds to step (308), and the right ranging point is used. If so, the process proceeds to step (309).

【0109】ステップ(306),(308),(30
9)では今回使用した測距点で今回測距したデフォーカ
ス量をRAM上の記憶領域DF に入力し、データの
更新を行う。ここでステップ(306)では中央の測距
点のセンサの像信号に基づくデフォーカス量DFB、ス
テップ(308)では左側の測距点のセンサの像信号に
基づくデフォーカス量DFA、ステップ(309)では
右側の測距点のセンサの像信号に基づくデフォーカス量
DFCを入力している。そして上記ステップを終了する
とステップ(310)へ移行する。
Steps (306), (308), (30)
9) Enter the defocus amount obtained by the distance measuring time distance measuring point used this time in the storage area DF 3 on RAM, to update the data. Here, in step (306), the defocus amount DFB based on the image signal of the sensor at the center ranging point, and in step (308), the defocus amount DFA based on the image signal of the sensor at the left ranging point, and step (309). Inputs a defocus amount DFC based on the image signal of the sensor at the right distance measuring point. When the above steps are completed, the process proceeds to step (310).

【0110】ステップ(310)では予測演算に必要な
データが上記各記憶領域に入力されているか否かを判別
する。上記の如く予測演算は今回,前回,前々回のデフ
ォーカス量と前回,前々回のレンズ駆動量を必要とし、
過去3回以上の焦点調節動作が行われていることを条件
としている。よってステップ(303)にて焦点調節動
作が行われるごとにカウンターCOUNTに+1を行
い、カウンターに焦点調節動作が行われた回数をカウン
トさせ、その回数が2より大きいか否か、即ち3回以上
の動作が行われたか否かを判別し、3回以上行われ、予
測演算が可能な場合にはステップ(312)へ、又、不
可能な場合にはステップ(319)へ移行させる。
In step (310), it is determined whether or not data necessary for the prediction operation has been input to each of the storage areas. As described above, the prediction calculation requires the current, previous, and last two times of defocus amount and the last, last and last time of lens drive amount,
The condition is that three or more focus adjustment operations have been performed in the past. Therefore, each time the focus adjustment operation is performed in step (303), the counter COUNT is incremented by one, and the counter is made to count the number of times the focus adjustment operation has been performed. It is determined whether or not the above operation has been performed, and the operation is performed three times or more. If the prediction calculation is possible, the process proceeds to step (312), and if not, the process proceeds to step (319).

【0111】ステップ(312)では今回更新されたデ
フォーカス量が予測に適しているかどうかについて「像
面位置の連続性」について判定し、連続性があると判定
されればステップ(313)へ移行し、そうでなければ
ステップ(314)へ移行する。ここで「像面位置の連
続性」の判定方法については後述する。
In step (312), it is determined whether or not the continuity of the image plane position is determined as to whether the defocus amount updated this time is suitable for prediction. If it is determined that there is continuity, the process proceeds to step (313). Otherwise, the process proceeds to step (314). Here, the method of determining the “continuity of the image plane position” will be described later.

【0112】ステップ(312)において像面位置の連
続性が無いと判断され、ステップ(314)へ移行する
と、このステップにて「測距点変更」のサブルーチンに
て使用する測距点を変更する。またこのサブルーチンの
詳細な説明については後述する。
In step (312), it is determined that there is no continuity of the image plane position. When the process proceeds to step (314), the distance measuring point used in the subroutine "change distance measuring point" is changed in this step. . A detailed description of this subroutine will be described later.

【0113】ステップ(315)では測距点を変更後、
ANGによって予測可能になったかどうかを判定し、可
能であればステップ(313)へ移行し、予測不可能
(不適切なデータ)であればステップ(316)へ移行
する。
In step (315), after changing the distance measuring point,
It is determined whether or not prediction is possible by ANG, and if possible, the process proceeds to step (313), and if unpredictable (inappropriate data), the process proceeds to step (316).

【0114】ステップ(316)では一度予測制御を中
止するため、データの蓄積がなされた回数をカウントす
るCOUNTをリセットする。そしてステップ(31
7)では、予測可否判定のフラグANGをリセットす
る。
In step (316), the COUNT for counting the number of times data has been accumulated is reset to temporarily stop the prediction control. And step (31)
In 7), the flag ANG of the prediction possibility determination is reset.

【0115】ステップ(318)では像面移動量換算の
レンズ駆動量DLに中央の測距点のデフォーカス量DF
Bを入力する。これは、1度予測不能となった場合、再
度AFをスタートするときに使用する測距点を中央の測
距点としたものであるが、これは、中央の測距点である
必要はなく、例えば最初に選択した測距点、あるいは最
後に使用した測距点を使用しても良い。
In step (318), the defocus amount DF of the center distance measuring point is added to the lens drive amount DL in terms of the image plane movement amount.
Enter B. In this case, once the prediction becomes unpredictable, the distance measuring point used when restarting the AF is set as the center distance measuring point. However, this need not be the center distance measuring point. For example, the distance measuring point selected first or the distance measuring point used last may be used.

【0116】又、初回と2回目の測距ではステップ(3
19)に移行しステップ(319)にて像面移動量換算
のレンズ駆動量DLに今回更新されたデフォーカス量D
を入力する。
In the first and second distance measurement, step (3)
19), and in step (319), the defocus amount D which has been updated this time to the lens drive amount DL in terms of the image plane movement amount.
To enter the F 3.

【0117】又、ステップ(312)で予測可能と判断
され、ステップ(313)へ移行した場合には、ステッ
プ(313)で見込みタイムラグTLの計算を行う。記
憶領域TM には前述の如く、前回から今回の焦点検
出動作までの時間が記憶されており、今回の焦点調節に
要する時間もTM と一致しているものとの仮定のも
とで、見込みタイムラグTL=TM +TRを求め
る。ここでTRはレリーズタイムラグである。
If it is determined in step (312) that prediction is possible and the process proceeds to step (313), the expected time lag TL is calculated in step (313). Storage area TM to 2 as described above, and the time until the current focus detection operation is stored from the previous, under the assumption that a match also TM 2 time required for focus adjustment of the time, Obtain the expected time lag TL = TM 2 + TR. Here, TR is a release time lag.

【0118】次のステップ(320),(321)では
各記憶領域DF 〜DF ,DL ,DL
TM ,TM に格納されたデータに基づき
(6),(7)式のa,b項を表わすA,Bを求めステ
ップ(322)へ移行する。
In the next steps (320) and (321), each of the storage areas DF 1 to DF 3 , DL 1 , DL 2 ,
Based on the data stored in TM 1 and TM 2 , A and B representing the terms a and b in the equations (6) and (7) are obtained, and the process proceeds to step (322).

【0119】ステップ(322)では各記憶手段のデー
タ及びステップ(313)及びステップ(320),
(321)の演算値にもとづき(9)式の演算値を求
め、これを今回の像面移動量換算のレンズ駆動量DLを
求める。
In the step (322), the data of each storage means and the steps (313) and (320),
Based on the calculated value of (321), the calculated value of formula (9) is obtained, and this is used to obtain the lens drive amount DL in terms of the current image plane movement amount.

【0120】次のステップ(323)では、ステップ
(322),(318),(319)で求まったレンズ
駆動量DLと撮影レンズの開放FナンバーFN及び所定
の係数δ(本実施例では0.035mm)の積FN・δ
を比較し、DL<FN・δであればステップ(324)
へ移行し、そうでなければステップ(325)にてリタ
ーンする。
In the next step (323), the lens drive amount DL determined in steps (322), (318), and (319), the open F number FN of the taking lens, and a predetermined coefficient δ (0. 035mm) product FN · δ
And if DL <FN · δ, step (324)
Otherwise, return to step (325).

【0121】ステップ(324)では先のステップ(3
23)にて、像面深度FN・δよりレンズ駆動量DLが
小さい、すなわちレンズ駆動の必要性がないと判断し、
レンズ駆動量DL=0とし、レンズの駆動を禁止する。
これにより不必要な微小レンズ駆動を行うことがなくな
り、使用感及び電力消費の両面を改善することができ
る。また、本実施例ではFNを撮影レンズの開放Fナン
バーとしたが、これを撮影絞り値としても何ら問題はな
く、δも0.035mmに限定するものではない。そし
て、このステップを終了すると、次のステップ(32
5)にてこのサブルーチンをリターンする。
In step (324), the previous step (3)
23), it is determined that the lens driving amount DL is smaller than the image plane depth FN · δ, that is, it is not necessary to drive the lens,
The lens driving amount DL is set to 0, and the driving of the lens is prohibited.
Accordingly, unnecessary driving of the minute lens is not performed, and both the usability and the power consumption can be improved. In the present embodiment, FN is the open F number of the taking lens. However, there is no problem even if this is used as the taking aperture value, and δ is not limited to 0.035 mm. When this step is completed, the next step (32
In 5), this subroutine is returned.

【0122】次に「測距点変更」サブルーチンのフロー
を図2を用いて説明する。図2は「測距点変更」サブル
ーチンのフローを示したものであり、今回、選択された
測距点のデフォーカス量が予測制御に適さないと判断さ
れたため、予測制御可能な他の測距点に変更するサブル
ーチンである。
Next, the flow of the "change distance measuring point" subroutine will be described with reference to FIG. FIG. 2 shows the flow of the "change ranging point" subroutine. Since it is determined that the defocus amount of the selected ranging point is not suitable for the prediction control, another distance measurement that can be predicted and controlled is performed. This is a subroutine for changing to points.

【0123】ステップ(402)では、今回使用した測
距点が中央の測距点であるかどうかをAFPによって判
定し、中央の測距点を使用していればステップ(40
3)へ移行し、そうでなければステップ(413)へ移
行する。
In step (402), it is determined by the AFP whether or not the currently used ranging point is the central ranging point. If the central ranging point is used, the process proceeds to step (40).
Go to 3), otherwise go to step (413).

【0124】ステップ(413)では、ステップ(40
2)と同様にして、今回、使用測距点が左側の測距点で
あるかどうかを判定し、左側の測距を使用していれば、
ステップ(414)へ移行し、右側の測距点を使用して
いればステップ(425)へ移行する。
In step (413), step (40)
In the same manner as in 2), it is determined whether or not the used ranging point is the left ranging point, and if the left ranging point is used,
The process proceeds to step (414), and if the right distance measuring point is used, the process proceeds to step (425).

【0125】ステップ(403)〜(412),(41
4)〜(423),(425)〜(434)はそれぞれ
今回使用した測距点以外の測距点のデフォーカス量か
ら、前回までの像面位置変換に近い像面位置変化をして
いる測距点を選択するものである。
Steps (403) to (412), (41)
4) to (423) and (425) to (434) indicate changes in the image plane position close to the previous image plane position conversion from the defocus amounts of the ranging points other than the currently used ranging point. This is for selecting a ranging point.

【0126】ステップ(403)では、前々回の測距か
ら前回の測距までの像面移動速度V1を計算する。そし
て、次のステップ(404)では左側の測距点のデフォ
ーカス量DFAを使用して、前回の測距からの今回の測
距までの像面移動速度V2を計算する。
In step (403), the image plane moving speed V1 from the distance measurement two times before to the previous distance measurement is calculated. In the next step (404), the image plane moving speed V2 from the previous distance measurement to the current distance measurement is calculated using the defocus amount DFA of the left distance measurement point.

【0127】ステップ(405)では、ステップ(40
3),(404)で算出されたV1,V2の差の絶対値
VAを計算している。これは今までの像面移動速度V1
と新しい左側の測距点での像面移動速度V2との差、つ
まり連続性を表わすものであり、VAの値が小さいほど
連続性が高い。
In step (405), step (40)
The absolute value VA of the difference between V1 and V2 calculated in 3) and (404) is calculated. This is the conventional image plane moving speed V1
And the continuity of the image plane moving speed V2 at the new left ranging point, that is, the continuity. The smaller the value of VA, the higher the continuity.

【0128】ステップ(406)では、右側の測距点の
デフォーカス量DFCを使用して、前回の測距から今回
の測距までの像面移動速度V3を計算する。そして、ス
テップ(407)では、ステップ(405)と同様にし
て右側の測距点を使用した場合の連続性を表わすVCを
計算する。
In step (406), the image plane moving speed V3 from the previous distance measurement to the current distance measurement is calculated using the defocus amount DFC of the right distance measurement point. Then, in step (407), VC representing the continuity when the right ranging point is used is calculated in the same manner as in step (405).

【0129】次のステップ(408)では、像面位置変
化の連続性を評価するVAとVCを比較し、VA<V
C、すなわち左側の測距点での連続性の方が高ければス
テップ(411)へ移行し、そうでなければステップ
(409)へ移行する。
In the next step (408), VA and VC for evaluating the continuity of image plane position change are compared, and VA <V
If C, that is, the continuity at the left ranging point is higher, the process proceeds to step (411), and if not, the process proceeds to step (409).

【0130】ステップ(409)では、右側の測距点の
方が連続性が高いということから、RAM上の記憶領域
DF3 に右側の測距点のデフォーカス量DFCを入力す
る。そして、ステップ(410)では、使用する測距点
を表わすAFPに右側の測距点を表わす「1」を入力す
る。
[0130] At step (409), from the fact that towards the right side of the distance measuring point is higher continuity, enter the defocus amount DFC of the right distance-measuring point in the storage area DF 3 on RAM. In step (410), "1" representing the right ranging point is input to the AFP representing the ranging point to be used.

【0131】ステップ(411)では、左側の測距点の
方が連続性が高いということから、RAM上の記憶領域
DF3 に左側の測距点のデフォーカス量DFAを入力す
る。そしてステップ(412)にて、左側の測距点を表
わす「−1」をAFPに入力する。
[0131] At step (411), from the fact that towards the left distance measuring point is higher continuity, enter the defocus amount DFA of the left distance measuring point in the storage area DF 3 on RAM. In step (412), "-1" representing the left ranging point is input to the AFP.

【0132】ステップ(410)あるいは(412)を
終了すると、ステップ(435)へ移行する。また、ス
テップ(414)〜(423),(425)〜(43
4)も同様にして、前々回から前回までの像面位置変化
に近い、連続性の高い測距点を選択するものであり、そ
の動作はステップ(403)〜(412)と同様であ
り、その詳細な説明は省略する。
When the step (410) or (412) is completed, the routine goes to a step (435). Steps (414) to (423) and (425) to (43)
Similarly, 4) selects a ranging point having high continuity, which is close to the change in the image plane position from the previous two times to the previous time. The operation is the same as steps (403) to (412). Detailed description is omitted.

【0133】ステップ(435)では変更された測距点
のデフォーカス量から像面位置の連続性が予測制御に適
しているかどうかを判定し、適していればステップ(4
38)へ移行し、適していなければステップ(436)
へ移行する。
In step (435), it is determined whether or not the continuity of the image plane position is suitable for predictive control based on the defocus amount of the changed ranging point.
38), if not suitable, step (436)
Move to.

【0134】ステップ(436)では測距点を最も適し
た点に変更したにもかかわらず、予測制御に適していな
いと判定されたことから、予測制御を一度中止するフラ
グANGに「1」を入力する。そしてステップ(43
7)では、使用する測距点を中央の測距点に戻すためA
FPに「0」を入力する。そして、このステップを終了
するとステップ(438)に移行し、このサブルーチン
をリターンする。
In step (436), since it is determined that the distance measurement point is not suitable for the prediction control even though the distance measurement point has been changed to the most suitable point, "1" is set to the flag ANG for temporarily stopping the prediction control. input. And step (43)
7) In order to return the used ranging point to the center ranging point,
"0" is input to FP. Then, when this step ends, the flow shifts to the step (438), and this subroutine is returned.

【0135】上述の予測演算及び測距点変更サブルーチ
ンにて、最初に使用した測距点のデフォーカスデータで
ステップ(312)にて像の連続性が認められない時に
測距点変更がなされ、3測距点のうち最も連続性の高い
測距点でのデフォーカスデータが検知され、このデータ
に基づいてステップ(435)にて再度連続性有無の判
定がなされ、連続性が認められれば上記最も連続性の高
いデフォーカスデータに基づく予測演算が(313)〜
(322)のステップで実行され続ける。尚、この時上
記デフォーカスデータの測距点を示すAFPの値が、そ
のデータの測距点に応じた値となり、以後の焦点検出は
変更された測距点からのデフォーカスデータに応じて行
われ測距点の変更がなされる。又、ステップ(435)
でも連続性が認められない時にはANG=1となされ予
測処理を一時中止し、中央の測距点のデータによるレン
ズ駆動が行われる。
In the above-described prediction calculation and ranging point change subroutine, when the continuity of the image is not recognized in step (312) with the defocus data of the ranging point used first, the ranging point is changed. The defocus data at the ranging point having the highest continuity among the three ranging points is detected, and the presence or absence of continuity is determined again in step (435) based on this data. The prediction calculation based on the most continuous defocus data is (313)-
Execution is continued in the step (322). At this time, the value of AFP indicating the ranging point of the defocus data becomes a value corresponding to the ranging point of the data, and the subsequent focus detection is performed according to the defocus data from the changed ranging point. Then, the distance measuring point is changed. Step (435)
However, when the continuity is not recognized, ANG = 1 is set, the prediction process is temporarily stopped, and the lens is driven by the data of the center ranging point.

【0136】次に図11を用いて「像面位置の連続性判
定」サブルーチンについて説明する。
Next, the "determination of continuity of image plane position" subroutine will be described with reference to FIG.

【0137】ステップ(502)は各記憶領域のデータ
に基づき(DF2 +DL1 −DF1)/TM1 なる演算
を行う。この演算は図3の時刻t1 とt2 間の像面移動
速度の平均値V1を計算するステップである。次のステ
ップ(503)での演算は同様に時刻t2 とt3 間の像
面移動速度の平均値V2を計算するステップである。こ
の後ステップ(504)へ進む。
In step (502), an operation of (DF 2 + DL 1 -DF 1 ) / TM 1 is performed based on the data in each storage area. This operation is a step of calculating the average value V1 of the image plane movement velocity between time t 1 and t 2 of FIG. Calculation in the next step (503) is a step of calculating an average value V2 of the image plane movement velocity between time t 2 and t 3 as well. Thereafter, the process proceeds to step (504).

【0138】ステップ(504)では、ステップ(50
2),(503)で求めた像面移動速度V1,V2の差
の絶対値VAを計算し、ステップ(505)へ移行す
る。
In step (504), step (50)
2) The absolute value VA of the difference between the image plane moving speeds V1 and V2 obtained in (503) is calculated, and the process proceeds to step (505).

【0139】ステップ(505)ではステップ(50
4)で求まったVAとあらかじめ設定された数AXを比
較し、VAがAXより大のときは像面位置の連続性無
し、VAがAXより小のときには連続性有りと判断され
る。
In step (505), step (50)
The VA obtained in 4) is compared with a preset number AX. When VA is larger than AX, it is determined that there is no continuity of the image plane position, and when VA is smaller than AX, it is determined that there is continuity.

【0140】上記フローによる連続性の有り、無しの判
定原理は同一被写体を追っていればその時の像面移動速
度も連続的に変化することになることに基づいている。
そこで、時間的に隣接した、像面移動速度を算出し、こ
の差が小さければ像面移動速度が連続的に変化している
ものと見做し、同一の被写体を測距していると判断して
予測演算を行う。これに対し像面移動速度の変化が十分
大きい場合には、像面移動速度が連続的に変化していな
いと見做している。
The principle of judging presence / absence of continuity according to the above flow is based on the fact that if the same object is followed, the image plane moving speed at that time also changes continuously.
Therefore, the image plane moving speeds that are temporally adjacent to each other are calculated, and if this difference is small, it is considered that the image plane moving speed is continuously changing, and it is determined that the same subject is being measured. And perform a prediction calculation. On the other hand, when the change in the image plane moving speed is sufficiently large, it is considered that the image plane moving speed does not continuously change.

【0141】図12は本実施例による3点の測距点を持
つカメラのファインダーであるが、図のa,b,cの測
距わくはそれぞれ3点の測距エリアを示すものである。
FIG. 12 is a viewfinder of a camera having three distance measuring points according to the present embodiment. The distance measuring areas a, b and c in FIG. 12 show three distance measuring areas, respectively.

【0142】そして、本実施例では3点の測距点の中で
予測制御に適した測距点を自動的に選択するようになっ
ている。そこで撮影者に対して、どの測距点を使用して
いるかを表示可能なファインダー表示を有するカメラで
は、その測距点を表示し、撮影者に知らせることによ
り、撮影者の目的に合った被写体に対して予測制御を行
なっているかどうか、撮影者が確認することができる。
また、2点以上の測距点が同じ測距データであり、その
中の測距点を使用している場合には、同じ測距データの
測距点全てを表示することにより、更に撮影者はどの範
囲のものにピントが合っているかを容易に認識すること
が可能となる。
In this embodiment, a distance measuring point suitable for predictive control is automatically selected from the three distance measuring points. Therefore, a camera that has a viewfinder display that can indicate to the photographer which ranging point is being used, displays the ranging point and informs the photographer of the subject, so that the subject matching the photographer's purpose can be obtained. The photographer can confirm whether or not the prediction control is being performed on the image.
If two or more ranging points are the same ranging data and the ranging points are used, all the ranging points of the same ranging data are displayed, so that the photographer can be further photographed. Can easily recognize which range is in focus.

【0143】以上の実施例においては像面位置の連続性
の大小に基づき測距点の選択を行った。以下、各測距点
の像信号のコントラストを検出し、このコントラストか
ら、予測制御に適した測距点を選択する例について説明
する。但し、カメラ全体のシステム及びメインフローに
ついては上述の実施例と同じであり、ここでは説明を省
略し、予測演算と測距点変更サブルーチンについてのみ
説明する。
In the above embodiment, the distance measuring point is selected based on the degree of continuity of the image plane position. Hereinafter, an example in which the contrast of the image signal at each ranging point is detected and a ranging point suitable for predictive control is selected from the contrast will be described. However, the system and main flow of the entire camera are the same as those in the above-described embodiment, and a description thereof will be omitted, and only the prediction calculation and the ranging point changing subroutine will be described.

【0144】図13は上記方法による測距点変更を行う
「予測演算」サブルーチンのフローを示したものであ
る。
FIG. 13 shows the flow of the "prediction calculation" subroutine for changing the distance measuring point by the above method.

【0145】ステップ(602)は各測距点の像信号の
コントラストをそれぞれ算出するサブルーチンであり、
コントラストの検出方法については、すでに公知であ
り、本実施例では、詳細な説明は省略する。
Step (602) is a subroutine for calculating the contrast of the image signal at each distance measuring point.
The method of detecting the contrast is already known, and a detailed description thereof will be omitted in this embodiment.

【0146】ステップ(603)は、予測に必要なデー
タの蓄積がなされたかどうかを判定するためのカウンタ
ーCOUNTをカウントアップするかどうかを判定す
る。本実施例では3回以上の測距データ・レンズ駆動デ
ータが蓄積されている場合、すなわちCOUNT>2で
あれば予測演算可能であり、これ以上のカウントアップ
は必要ないので、COUNT>2であればステップ(6
05)へ進む。また、COUNT<3であればステップ
(604)でCOUNTをカウントアップした後ステッ
プ(605)へ進む。
In the step (603), it is determined whether or not a counter COUNT for determining whether or not data necessary for prediction has been accumulated is counted up. In this embodiment, when distance measurement data and lens drive data are accumulated three or more times, that is, when COUNT> 2, prediction calculation can be performed, and further counting up is not required. BA step (6
Go to 05). If COUNT <3, COUNT is counted up in step (604), and then the process proceeds to step (605).

【0147】ステップ(605)では、今回の予測演算
のためのデータの更新を行っている。即ち予測演算は
(6),(7),(8),(9)式に基づいて行われる
ため、そのデータとしては図3における前回及び前前回
のデフォーカス量DF2 ,DF1 、前回のレンズ駆動量
DL1 、今回のレンズ駆動量DL2 、前前回及び前回の
時間間隔TM1 ,TM2 、見込みタイムラグTLを必要
とする。よってステップ(605)では焦点検出が行わ
れるごとに前回のデフォーカス量を記憶領域DF2 に、
又前前回のデフォーカス量を記憶領域DF1 に入力し、
更に前回の像面移動量換算のレンズ駆動量DLを記憶領
域DL2 に、前前回の像面移動量換算のレンズ駆動量D
1 を記憶領域DL1 に入力し、各記憶領域のデータを
今回の予測演算に必要なデータに更新する。
In step (605), the data for the current prediction operation is updated. That is, since the prediction calculation is performed based on the equations (6), (7), (8), and (9), the data includes the previous and previous defocus amounts DF 2 and DF 1 in FIG. The lens drive amount DL 1 , the current lens drive amount DL 2 , the previous and previous and previous time intervals TM 1 and TM 2 , and the expected time lag TL are required. Thus the previous defocus amount in each step (605) in which focus detection is performed in the storage area DF 2,
The type a previous defocus amount in the storage area DF 1,
Furthermore the amount of lens driving DL of the previous image plane movement amount converted into the memory area DL 2, the lens drive amount D of the previous last image plane movement amount conversion
Enter the L 1 in the storage area DL 1, and updates the data necessary data for each storage area in the current prediction calculation.

【0148】ステップ(606)では使用している測距
点の位置を表わすAFPが「0」かどうか判定する。こ
こでAFPが「−1」のときは左側の測距点、「0」の
ときには中央の測距点、「1」のときには右側の測距点
を使用していることを示している。すなわちステップ
(606)では中央の測距点を使用中かどうかを判定
し、中央の測距点を使用していればステップ(608)
へ移行し、そうでなければステップ(607)へ移行す
る。
In the step (606), it is determined whether or not the AFP indicating the position of the distance measuring point used is "0". Here, when the AFP is “−1”, the left ranging point is used, when the AFP is “0”, the center ranging point is used, and when the AFP is “1”, the right ranging point is used. That is, in step (606), it is determined whether or not the center ranging point is being used. If the center ranging point is being used, step (608) is performed.
Otherwise, to step (607).

【0149】ステップ(607)ではステップ(60
6)と同様にして、左側の測距点を使用しているかどう
かを判定し、左側の測距点を使用していればステップ
(609)へ移行し、右側の測距点を使用していればス
テップ(610)へ移行する。
In step (607), step (60)
In the same manner as in 6), it is determined whether the left ranging point is used. If the left ranging point is used, the process proceeds to step (609), and the right ranging point is used. If so, the process proceeds to step (610).

【0150】ステップ(608),(609),(61
0)では今回使用した測距点で測距したデフォーカス量
をRAM上の記憶領域DF3 に入力し、データの更新を
行う。ここでステップ(608)では中央の測距点のデ
フォーカス量DFB、ステップ(609)では左側の測
距点のデフォーカス量DFA、ステップ(610)では
右側の測距点のデフォーカス量DFCを入力している。
そして上記ステップを終了するとステップ(611)へ
移行する。
Steps (608), (609), (61)
0) Enter the defocus amount obtained by the distance measurement in the distance measuring point used this time in the storage area DF 3 on RAM, to update the data. Here, in step (608), the defocus amount DFB of the center ranging point, in step (609), the defocus amount DFA of the left ranging point, and in step (610), the defocus amount DFC of the right ranging point. You are typing.
When the above steps are completed, the process moves to step (611).

【0151】ステップ(611)では予測演算に必要な
データが上記各記憶領域に入力されているか否かを判別
する。上記の如く予測演算は今回,前回,前々回のデフ
ォーカス量と前回,前々回のレンズ駆動量を必要とし、
過去3回以上の焦点調節動作が行われていることを条件
としている。よってステップ(604)にて焦点調節動
作が行われるごとにカウンターCOUNTに+1を行
い、カウンターに焦点調節動作が行われた回数をカウン
トさせ、その回数が2より大きいか否か、即ち3回以上
の動作が行われたか否かを判別し、3回以上行われ、予
測演算が可能な場合にはステップ(612)へ、又、不
可能な場合にはステップ(618)へ移行させる。
In the step (611), it is determined whether or not data necessary for the prediction operation has been input to each of the storage areas. As described above, the prediction calculation requires the current, previous, and last two times of defocus amount and the last, last and last time of lens drive amount,
The condition is that three or more focus adjustment operations have been performed in the past. Therefore, every time the focus adjustment operation is performed in step (604), the counter COUNT is incremented by one, and the counter is made to count the number of times the focus adjustment operation has been performed. It is determined whether or not the above operation has been performed, and the operation is performed three times or more. If the prediction calculation is possible, the process proceeds to step (612). If the prediction operation is not possible, the process proceeds to step (618).

【0152】ステップ(612)では予測に用いた測距
点の像信号のコントラストが焦点検出を行うのに十分か
どうか判定し、十分であればステップ(619)へ移行
し、不十分すなわち低コントラストであればステップ
(613)へ移行する。
In step (612), it is determined whether or not the contrast of the image signal at the distance measuring point used for prediction is sufficient to perform focus detection. If so, the process proceeds to step (613).

【0153】ステップ(613)では、今回使用した測
距点では測距できないために測距可能な測距点を選択す
る。この「測距点変更」サブルーチンの説明は後述す
る。
In step (613), a distance measuring point that can be measured is selected because the distance measuring point used this time cannot be measured. The description of the "change ranging point" subroutine will be described later.

【0154】ステップ(614)では測距点変更後、A
NGによって予測可能になったかどうかを判定し、可能
であればステップ(619)へ移行し、予測不可能すな
わち測距点変更後も像信号が低コントラスト(不適説な
データ)であればステップ(615)へ移行する。
In the step (614), after changing the distance measuring point, A
It is determined whether or not it is possible to predict by NG. If possible, the process proceeds to step (619). 615).

【0155】ステップ(615)では一度予測制御を中
心するため、データの蓄積がなされた回数をカウントす
るCOUNTをリセットする。そしてステップ(61
6)では、予測可否判定のフラグANGをリセットす
る。
In step (615), COUNT for counting the number of times data has been accumulated is reset so that the prediction control is once performed. And step (61)
In 6), the flag ANG of the prediction possibility determination is reset.

【0156】ステップ(617)では像面移動量換算の
レンズ駆動量DLに中央の測距点のデフォーカス量DF
Bを入力する。これは、1度予測不能となった場合、再
度AFをスタートするときに使用する測距点を中央の測
距点としたものであるが、これは、中央の測距点である
必要はなく、例えば最初に選択した測距点、あるいは最
後に使用した測距点を使用しても良い。
In the step (617), the defocus amount DF of the center distance measuring point is added to the lens drive amount DL in terms of the image plane movement amount.
Enter B. In this case, once the prediction becomes unpredictable, the distance measuring point used when restarting the AF is set as the center distance measuring point. However, this need not be the center distance measuring point. For example, the distance measuring point selected first or the distance measuring point used last may be used.

【0157】ステップ(618)では、像面移動量換算
のレンズ駆動量DLに今回更新されたデフォーカス量D
3 を入力する。
In step (618), the defocus amount D which has been updated this time to the lens drive amount DL converted into the image plane movement amount.
To enter the F 3.

【0158】そして、ステップ(617)あるいは(6
18)を終了するとステップ(628)へ移行する。
Then, step (617) or (6)
After the end of (18), the flow shifts to step (628).

【0159】ステップ(619),(620)では、ス
テップ(606),(607)と同様にAFPによっ
て、今回使用される測距点の判別を行う。そして、中央
の測距点が選択されている場合にはステップ(621)
へ移行し、左側の測距点が選択されている場合にはステ
ップ(622)へ移行し、右側の測距点が選択されてい
る場合にはステップ(623)へ移行する。
In steps (619) and (620), similarly to steps (606) and (607), the distance measuring point used this time is determined by the AFP. If the center ranging point is selected, step (621) is performed.
The process proceeds to step (622) if the left ranging point is selected, and proceeds to step (623) if the right ranging point is selected.

【0160】ステップ(621)では、前回の測距に用
いた測距点のコントラスト値を格納するRAM上の記憶
領域CNTに今回使用した中央の測距点のコントラスト
値CNTBを入力する。
In step (621), the contrast value CNTB of the center ranging point used this time is input to the storage area CNT on the RAM for storing the contrast value of the ranging point used for the previous ranging.

【0161】ステップ(622),(623)もステッ
プ(621)と同様に左側あるいは右側の測距点のコン
トラスト値CNTA,CNTCを入力する。そしてステ
ップ(621)あるいは(622),(623)を終了
するとステップ(624)へ移行する。これにCNTに
今回使用した測距点のコントラスト値が次回のデータと
して格納される。
In steps (622) and (623), similarly to step (621), the contrast values CNTA and CNTC of the left or right distance measuring point are input. When step (621) or (622) or (623) is completed, the process proceeds to step (624). The contrast value of the ranging point used this time is stored in the CNT as the next data.

【0162】又、ステップ(612),(614)で予
測可能と判断され、ステップ(619)へ移行した場合
には、ステップ(624)で見込みタイムラグTLの計
算を行う。記憶領域TM2 には前述の如く、前回から今
回の焦点検出動作までの時間が記憶されており、今回の
焦点調節に要する時間もTM2 と一致しているものとの
仮定のもとで、タイムラグTL=TM2 +TRを求め
る。
If it is determined in steps (612) and (614) that prediction is possible and the process proceeds to step (619), an expected time lag TL is calculated in step (624). Storage area TM to 2 as described above, and the time until the current focus detection operation is stored from the previous, under the assumption that a match also TM 2 time required for focus adjustment of the time, Time lag TL = TM 2 + TR is determined.

【0163】次のステップ(625),(626)では
各記憶領域DF1 〜DF3 ,DL1,DL2 ,TM1
TM2 に格納されたデータに基づき(6),(7)式の
a,b項を表わすA,Bを求めステップ(627)へ移
行する。
[0163] The next step (625) and (626) each storage area DF 1 ~DF 3, DL 1, DL 2, TM 1,
Based on the data stored in the TM 2 (6), the process proceeds to (7) of a, A representing the section b, the step obtains the B (627).

【0164】ステップ(627)では各記憶手段のデー
タ及びステップ(624)及びステップ(625),
(626)の演算値にもとづき(9)式の演算値を求
め、これを今回の像面移動量換算のレンズ駆動量DLと
する。
In step (627), the data of each storage means, step (624) and step (625),
The calculated value of Expression (9) is obtained based on the calculated value of (626), and this is set as the lens drive amount DL in terms of the current image plane movement amount.

【0165】次のステップ(628)では、ステップ
(627),(617),(618)で求まったレンズ
駆動量DLと撮影レンズの開放FナンバーFN及び所定
の係数δ(本実施例では0.035mm)の積FN・δ
を比較し、DL<FN・δであればステップ(629)
へ移行し、そうでなければステップ(630)にてリタ
ーンする。
In the next step (628), the lens drive amount DL obtained in steps (627), (617), and (618), the open F-number FN of the photographing lens, and a predetermined coefficient δ (0. 035mm) product FN · δ
And if DL <FN · δ, step (629)
Otherwise, return to step (630).

【0166】次に、図13に用いる「測距点変更」サブ
ルーチンのフローを図14を用いて説明する。図14は
「測距点変更」サブルーチンのフローを示したものであ
り、今回、選択された測距点のコントラストが低く、焦
点検出ができないと判断されたため、焦点検出可能な他
の測距点に変更するサブルーチンである。
Next, the flow of the "change ranging point" subroutine used in FIG. 13 will be described with reference to FIG. FIG. 14 shows the flow of the "change focus detection point" subroutine. Since the contrast of the focus detection point selected this time is low and it is determined that focus detection cannot be performed, other focus detection points capable of focus detection can be used. Is a subroutine for changing to

【0167】ステップ(702)では、今回使用した測
距点が中央の測距点であるかどうかをAFPによって判
定し、中央の測距点を使用していればステップ(70
4)へ移行し、そうでなければステップ(703)へ移
行する。
In step (702), it is determined by the AFP whether or not the currently used ranging point is the center ranging point. If the center ranging point is used, step (70) is performed.
Go to 4), otherwise go to step (703).

【0168】ステップ(703)では、ステップ(70
2)と同様にして、今回、使用した測距点が左側の測距
点であるかどうかを判定し、左側の測距点を使用してい
ればステップ(717)へ移行し、右側の測距点を使用
していればステップ(730)へ移行する。
In step (703), step (70)
In the same manner as in 2), it is determined whether the currently used ranging point is the left ranging point. If the left ranging point is used, the process proceeds to step (717), and the right ranging point is determined. If the distance point has been used, the process proceeds to step (730).

【0169】ステップ(704)〜(716),(71
7)〜(729),(730)〜(742)は、それぞ
れ今回使用した測距点以外の今回の測距点のコントラス
トと、前回使用した測距点の前回のコントラストCNT
を比較し、CNTに近いコントラストの測距点を選択す
る。これは同一の被写体であれば、その像信号のコント
ラストも近いと考え、予測制御においてコントラストに
よって同一被写体であるかどうかを判定し、測距点を選
択するものである。
Steps (704) to (716), (71)
7) to (729) and (730) to (742) respectively represent the contrast of the current ranging point other than the currently used ranging point and the previous contrast CNT of the previously used ranging point.
Are compared, and a distance measuring point having a contrast close to CNT is selected. This means that if the objects are the same, it is considered that the contrast of the image signal is also close, and in the predictive control, whether or not the objects are the same is determined based on the contrast, and a distance measuring point is selected.

【0170】ステップ(704)では、今回の左側の測
距点のコントラスト値CNTAと前回使用した測距点の
コントラスト値CNTの差CN1を算出する。尚、CN
Tには前回使用したコントラスト値がステップ(62
1)〜(623)にて格納されている。そして、ステッ
プ(705)ではステップ(704)と同様に今回の右
側の測距点のコントラストCNTCと前回使用した測距
点のCNTの差、CN2を算出する。
In step (704), a difference CN1 between the contrast value CNTA of the current left ranging point and the contrast value CNT of the previously used ranging point is calculated. In addition, CN
T is the contrast value used last time in step (62).
1) to (623). In step (705), similarly to step (704), a difference between the contrast CNTC of the current right distance measuring point and the CNT of the previously used distance measuring point, CN2, is calculated.

【0171】次のステップ(706)では、CN1とC
N2の絶対値を比較し、|CN1|<|CN2|であれ
ば、ステップ(709)へ移行し、そうでなければステ
ップ(707)へ移行する。ここでCN1,CN2は今
回測距を行った各測距点のコントラストと前回使用した
像信号のコントラストCNTとの差であり、この値の絶
対値が小さいほど、前回、使用した像信号に近い、すな
わち同一の被写体を測距していると判断している。この
ため、左側の測距点に前回と同じ被写体が入ればステッ
プ(709)へ移行し、右側の測距点に入ればステップ
(707)へ移行する。
In the next step (706), CN1 and C
The absolute value of N2 is compared, and if | CN1 | <| CN2 |, the process proceeds to step (709); otherwise, the process proceeds to step (707). Here, CN1 and CN2 are the differences between the contrast of each ranging point for which the current distance measurement is performed and the contrast CNT of the previously used image signal. The smaller the absolute value of this value, the closer to the previously used image signal. That is, it is determined that the same subject is measured for distance. Therefore, if the same subject as the previous one enters the left ranging point, the process proceeds to step (709), and if the same subject enters the right ranging point, the process proceeds to step (707).

【0172】ステップ(707)では、予測演算に使用
する今回のデフォーカス量を格納するRAM上の記憶領
域DF3 に、右側の測距点のデフォーカス量DFCを入
力する。次のステップ(708)では、右側の測距点を
使用することを表わす「1」をAFPに入力し、ステッ
プ(711)へ移行する。
[0172] At step (707), the memory area DF 3 on the RAM storing the defocus amount of time to be used for prediction calculation, and inputs the defocus amount DFC of the right distance-measuring point. In the next step (708), "1" indicating that the right ranging point is to be used is input to the AFP, and the flow advances to step (711).

【0173】ステップ(709)では、ステップ(70
7)と同様に左側の測距点のデフォーカス量DFAをD
3 に入力する。そして、次のステップ(710)で
は、AFPに左側の測距点を使用することを示す「−
1」を入力し、ステップ(711)へ移行する。
In step (709), step (70)
Similarly to 7), the defocus amount DFA of the left ranging point is set to D.
Input to F 3. Then, in the next step (710), "-" indicating that the left ranging point is used for the AFP.
"1", and the routine goes to Step (711).

【0174】ステップ(711)では変更された測距点
のコントラストが焦点検出を行うのに十分かどうかを判
定する。そして、十分であればステップ(743)へ移
行し、そうでなければステップ(712)へ移行し、測
距点を変更する。
In step (711), it is determined whether or not the contrast of the changed distance measuring point is sufficient for performing focus detection. If it is sufficient, the process proceeds to step (743), and if not, the process proceeds to step (712) to change the ranging point.

【0175】ステップ(712)では、変更された測距
点が左側の測距点かどうかを判定し、左側の測距点であ
ればステップ(715)へ移行し、右側の測距点であれ
ばステップ(713)へ移行する。
In step (712), it is determined whether or not the changed ranging point is the left ranging point. If the changed ranging point is the left ranging point, the process proceeds to step (715), and if the changed ranging point is the right ranging point. If so, the process proceeds to step (713).

【0176】ステップ(713)では、測距点を左側に
変更するためAFPに「−1」を入力する。そして、ス
テップ(714)ではDF3 に左側の測距点のデフォー
カス量、DFAを入力する。
In step (713), "-1" is input to the AFP to change the distance measuring point to the left. Then, the defocus amount of the left distance measuring point in step (714) in DF 3, inputs the DFA.

【0177】ステップ(715)では、測距点を右側に
変更するためAFPに「1」を入力する。そして、ステ
ップ(716)ではDF3 に右側の測距点のデフォーカ
ス量、DFCを入力する。
In the step (715), "1" is inputted to the AFP to change the distance measuring point to the right. Then, the defocus amount of the right distance measuring point to DF 3 step (716), and inputs the DFC.

【0178】ステップ(714)あるいは(716)を
終了すると、ステップ(743)へ移行する。
After the step (714) or (716) is completed, the flow shifts to the step (743).

【0179】また、ステップ(717)〜(729)及
び(730)〜(742)では、ステップ(704)〜
(716)と同様にして測距点の変更を行うが、ここで
はその説明は省略する。
In steps (717) to (729) and (730) to (742), steps (704) to (742)
The ranging point is changed in the same manner as in (716), but the description is omitted here.

【0180】ステップ(743)では最終的に選択され
た測距点のコントラストが、焦点検出を行うのに十分で
あるか、どうかの判定を行い、十分であればステップ
(746)へ移行し、不十分すなわち低コントラストで
あればステップ(744)へ移行する。
In step (743), it is determined whether or not the contrast of the finally selected distance measuring point is sufficient to perform focus detection. If sufficient, the process proceeds to step (746). If the contrast is insufficient, that is, the contrast is low, the flow proceeds to step (744).

【0181】ステップ(744)では焦点検出不能を示
すフラグANGに「1」を入力し、焦点検出不能状態で
あることを検知する。そしてステップ(745)では、
測距点を中央に戻すためAFPに「0」を入力し、ステ
ップ(746)でのこのサブルーチンをリターンする。
In step (744), "1" is input to the flag ANG indicating that the focus cannot be detected, and it is detected that the focus cannot be detected. And in step (745)
To return the ranging point to the center, "0" is input to the AFP, and this subroutine in step (746) is returned.

【0182】以上の動作にて今回使用される測距点のコ
ントラストデータが低い時には、他の測距点でのコント
ラストデータから像の同一性を確率の高い測距点を(7
04)〜(710)にて求め、この測距点でのコントラ
ストが高ければ、このコントラストを示す測距点でのデ
フォーカス信号に基づき予測演算を行い、以後この変更
後の測距点でのデータにて予測演算レンズ駆動を行う。
又ステップ(704)〜(710)にて変更された測距
点でのコントラストが低い時には測距点を更に変更し、
この再変更の測距点でのコントラストが高い時には、こ
の再変更の測距点でのデータにより上記予測演算を続け
る、又再変更の測距点でのコントラストも低い時には予
測処理を一時中止し中央の測距点でのデータによる通常
のサーボAFのレンズ駆動を行う。
In the above operation, when the contrast data of the distance measuring point used this time is low, the distance measuring point having a high probability is determined based on the contrast data of the other distance measuring points by using the distance measuring point (7).
04) to (710), if the contrast at this ranging point is high, a prediction calculation is performed based on the defocus signal at the ranging point indicating this contrast, and thereafter, the prediction calculation at the changed ranging point is performed. The prediction calculation lens is driven by the data.
If the contrast at the ranging point changed in steps (704) to (710) is low, the ranging point is further changed,
When the contrast at the re-changed ranging point is high, the prediction calculation is continued with the data at the re-changed ranging point. When the contrast at the re-changed ranging point is also low, the prediction process is temporarily stopped. The lens driving of the normal servo AF based on the data at the center ranging point is performed.

【0183】図15は図13,図14での像信号のコン
トラストが焦点検出可能なレベルにあるかどうか、すな
わち低コントラストであるかどうかを判定する「低コン
判定」サブルーチンのフローを示した図である。
FIG. 15 is a diagram showing the flow of a "low contrast determination" subroutine for determining whether the contrast of the image signal in FIGS. 13 and 14 is at a level at which focus can be detected, that is, whether the contrast is low. It is.

【0184】ステップ(802)では、使用する測距点
のコントラストが低コントラストであるかどうかを判定
するフラグCNNをリセットする。
In step (802), the flag CNN for judging whether the contrast of the distance measuring point to be used is low or not is reset.

【0185】ステップ(803)では、使用する測距点
が中央であるかどうかをAFPによって判定し、中央の
測距点を使用していれば、ステップ(805)へ移行
し、そうでなければステップ(804)へ移行する。
In step (803), it is determined by the AFP whether or not the focus detection point to be used is at the center. If the focus detection point at the center is used, the process proceeds to step (805). Move to step (804).

【0186】ステップ(804)では、使用する測距点
が右側の測距点であるかどうか、AFPによって判定
し、左側の測距点を使用していればステップ(807)
へ移行し、右側の測距点を使用していればステップ(8
09)へ移行する。
In step (804), it is determined by the AFP whether or not the ranging point to be used is the right ranging point. If the left ranging point is used, step (807) is performed.
To step (8) if the right AF point is used.
09).

【0187】ステップ(805)では、中央の測距点の
コントラストCNTBと所定の数BXを比較しCNTB
>BXであればステップ(811)へ移行し、そうでな
ければステップ(806)へ移行する。ここでBXは焦
点検出可能なコントラストの下限値であり、この値より
コントラストが高ければ十分な精度の焦点検出が可能で
ある。
In step (805), the contrast CNTB at the center distance measuring point is compared with a predetermined number BX, and CNTB is compared.
If> BX, the process proceeds to step (811); otherwise, the process proceeds to step (806). Here, BX is the lower limit of the contrast at which the focus can be detected. If the contrast is higher than this value, the focus can be detected with sufficient accuracy.

【0188】ステップ(805)で中央の測距点のコン
トラストが低コントラストであると判定され、ステップ
(806)へ移行すると、ステップ(806)では低コ
ントラスト状態を示すフラグCNNに「1」を入力し、
ステップ(811)へ移行する。
At step (805), it is determined that the contrast of the center distance measuring point is low contrast. When the process proceeds to step (806), "1" is input to the flag CNN indicating the low contrast state at step (806). And
Move to step (811).

【0189】ステップ(807),(808)および
(809),(810)もステップ(805),(80
6)と同様にして、左側の測距点および右側の測距点の
コントラストかどうかを判定し、低コントラストであれ
ばCNNに「1」を入力してステップ(811)へ移行
する。
Steps (807), (808) and (809), (810) are also performed in steps (805), (80)
In the same manner as in 6), it is determined whether or not the contrast is between the left ranging point and the right ranging point. If the contrast is low, "1" is input to CNN, and the flow shifts to step (811).

【0190】ステップ(811)では低コントラスト状
態であるかどうかCNNによって判定し、低コントラス
ト状態であればステップ(813)へ移行し、そうでな
ければステップ(812)へ移行し、このサブルーチン
をリターンする。
In step (811), the CNN determines whether or not the camera is in the low contrast state. If the camera is in the low contrast state, the process proceeds to step (813). If not, the process proceeds to step (812). I do.

【0191】図16、図17、図18は他の予測演算及
び測距点変更サブルーチンの実施例を説明するための図
であり、図16は「予測演算」サブルーチンのフローを
示したもの、図17は「測距点変更」サブルーチンのフ
ローを示したもの、図18「低輝度判定」サブルーチン
のフローを示したものである。
FIGS. 16, 17 and 18 are diagrams for explaining another embodiment of the prediction calculation and the ranging point changing subroutine. FIG. 16 shows the flow of the "prediction calculation" subroutine. Reference numeral 17 denotes the flow of the "change ranging point" subroutine, and FIG. 18 shows the flow of the "low brightness determination" subroutine.

【0192】該実施例の要旨は、被写体の輝度判定によ
って測距不能あるいは、予測に不適切な低輝度の被写体
を測距した場合には、測距点を変更するものである。そ
して前回の測距点の被写体輝度に近い輝度を持つ被写体
が存在する測距点を選択するようにしている。また、こ
の輝度の測定、判定の方法としては各測距点のラインセ
ンサの蓄積時間TEA,TEB,TECを用いており、
これは蓄積時間が短いほど高輝度であり、TEA,TE
B,TECの値が大きいと低輝度の被写体である。
The gist of the present embodiment is to change the distance measurement point when the distance of a low-luminance object that cannot be measured or is inappropriate for prediction is determined by the luminance determination of the object. Then, a ranging point where a subject having a luminance close to the subject luminance at the previous ranging point exists is selected. As a method of measuring and judging the luminance, the accumulation times TEA, TEB, and TEC of the line sensors at each ranging point are used.
This is because the shorter the accumulation time, the higher the brightness, and the TEA, TE
When the values of B and TEC are large, the subject has low brightness.

【0193】そして、図16,図17,図18のフロー
はコントラストデータに代て蓄積時間データを用いて処
理した点が異なり図13,図14,図15のコントラス
トによる判定とほぼ同じフローにて処理されるので詳細
な説明は省略する。
The flow shown in FIGS. 16, 17, and 18 is different from the flow shown in FIGS. 13, 14, and 15 in that the processing is performed using the accumulation time data instead of the contrast data. Since it is processed, a detailed description is omitted.

【0194】次いで予測演算の他の例として各測距点の
被写体の像面位置変化を検出し、像面位置変化の大きい
測距点を選択するようにした予測演算サブルーチンにつ
いて説明する該サブルーチンは予測制御自身が、動きの
速い被写体に追従させるためのものであり、撮影者がこ
の予測モードを選択したということは、主被写体が動き
の速い被写体であることを前提としてなされたサブルー
チンである。即ち、像面位置変化が大きな測距点が正し
い被写体をとらえているものとの考え方に基づくサブル
ーチンである。図19,図20は上記サブルーチンの説
明図であり、メインフロー及びカメラ全体のシステムは
前述の各実施例と同様に共通のフローとなるので、ここ
では説明を省略する。
Next, as another example of the prediction calculation, a subroutine for explaining a prediction calculation subroutine for detecting a change in the image plane position of the subject at each ranging point and selecting a ranging point having a large change in the image plane position will be described. The prediction control itself is for causing a fast-moving subject to follow, and the fact that the photographer has selected this prediction mode is a subroutine performed on the assumption that the main subject is a fast-moving subject. In other words, this subroutine is based on the idea that the ranging point having a large change in the image plane position captures the correct subject. FIGS. 19 and 20 are explanatory diagrams of the above subroutine. Since the main flow and the entire camera system share the same flow as in the above-described embodiments, the description is omitted here.

【0195】図19においてステップ(1202)は、
予測に必要なデータの蓄積がなされたかどうかを判定す
るためのカウンターCOUNTをカウントアップするか
どうかを判定する。本実施例では3回以上の測距デー
タ、レンズ駆動データが蓄積されている場合、すなわち
COUNT>2であれば予測演算可能であり、これ以上
のカウントアップは必要ないので、COUNT>2であ
ればステップ(1204)へ進む。またCOUNT<3
であればステップ(1203)でCOUNTをカウント
アップした後、ステップ(1204)へ進む。
In FIG. 19, step (1202)
It is determined whether or not a counter COUNT for determining whether data necessary for prediction has been accumulated is counted up. In the present embodiment, when distance measurement data and lens drive data are accumulated three or more times, that is, when COUNT> 2, prediction calculation can be performed, and further count-up is not required. If so, proceed to step (1204). Also, COUNT <3
If so, after counting up COUNT in step (1203), the process proceeds to step (1204).

【0196】ステップ(1204),(1205)では
今回の予測演算のためのデータの更新を行っている。
In steps (1204) and (1205), the data for the current prediction calculation is updated.

【0197】即ち、予測演算は(6),(7),
(8),(9)式に基づいて行われるため、そのデータ
としては第2図における、今回のデフォーカス量のDF
3 、前回及び前回のデフォーカスDF2 ,DF1 、前回
のレンズ駆動量DL1 、今回のレンズ駆動量DL2 、前
前回及び前記の時間間隔TM1 ,TM2 、見込みタイム
ラグTLを必要とする。そこでステップ(1204)で
は、焦点検出動作がお行われるごとに、前回の像面移動
量換算のレンズ駆動量DLをRAM上の記憶領域DL2
に入力し、前前回の像面移動量換算のレンズ駆動量DL
2 を記憶領域DL1 に入力する。そしてステップ(12
05)では、各距離点で今回検出されたデフォーカス量
DFA,DFB,DFCをそれぞれ記憶領域DFA3,
DFB3,DFC3に入力し、前回検出された各デフォ
ーカス量をDFA2,DFB2,DFC2に入力し、前
前回検出された各デフォーカス量をDFA1,DFB
1,DFC1に入力し、今回の予測演算に必要なデータ
に更新する。
That is, the predictive operations are (6), (7),
Since the calculation is performed based on equations (8) and (9), the data is the DF of the current defocus amount in FIG.
3 , the previous and previous defocuses DF 2 and DF 1 , the previous lens drive amount DL 1 , the current lens drive amount DL 2 , the previous and previous time intervals TM 1 and TM 2 , and the expected time lag TL are required. . Therefore, in step (1204), every time the focus detection operation is performed, the previous lens drive amount DL converted into the image plane movement amount is stored in the storage area DL 2 in the RAM.
And the lens drive amount DL in terms of the previous and previous image plane movement amounts
Inputs 2 in the storage area DL 1. And step (12)
05), the defocus amounts DFA, DFB, and DFC detected this time at the respective distance points are stored in the storage areas DFA3 and DFA3, respectively.
DFB3 and DFC3 are input, and the previously detected defocus amounts are input to DFA2, DFB2 and DFC2, and the previously detected defocus amounts are input to DFA1 and DFB.
1, input to DFC1, and updated to data necessary for the current prediction operation.

【0198】ステップ(1206)では、予測演算に必
要なデータが上記各記憶領域に入力されているか否かを
判別する。上記の如く、予測演算は、今回、前回、前前
回のデフォーカス量と前回、前前回のレンズ駆動量を必
要とし、過去3回以上の焦点調節動作が行われているこ
とを条件としている。よってステップ(1203)に
て、焦点調節動作が行われるごとにカウンターCOUN
Tに+1を行い、カウンターに焦点調節動作が行われた
回数をカウントさせ、その回数が2より大きいか否か、
即ち3回以上の動作が行われたか否かを判別し、3回以
上行われ、予測演算が可能な場合にはステップ(120
7)へ、又、不可能な場合にはステップ(1209)へ
移行させる。
In the step (1206), it is determined whether or not data necessary for the prediction operation has been input to each of the storage areas. As described above, the prediction calculation requires the current, previous, previous and previous defocus amounts and the previous and previous and previous lens drive amounts, and is conditioned on the fact that three or more past focus adjustment operations have been performed. Therefore, in step (1203), every time the focus adjustment operation is performed, the counter COUN is set.
T is incremented by one, and the counter is made to count the number of times the focus adjustment operation is performed.
That is, it is determined whether or not the operation has been performed three or more times. If the operation has been performed three or more times and the prediction calculation is possible, step (120)
The process proceeds to step 7), or if not possible, to step (1209).

【0199】ステップ(1207)では、予測制御を行
う、測距点選択を行う「測距点選択」サブルーチンであ
り、詳細は後述する。
Step (1207) is a "ranging point selection" subroutine for performing predictive control and selecting ranging points, the details of which will be described later.

【0200】ステップ(1208)では、蓄積されたデ
ータの数をカウントするカウンターがリセットされてい
るかどうかを判定し、リセットされていればステップ
(1209)へ移行し、そうでなければステップ(12
19)へ移行する。これは、ステップ(1207)の
「測距点選択]サブルーチンで前測距点が予測制御に不
適当であると判断された場合には、カウンターCOUN
Tがリセットされ、予測演算を行わないためである。
In the step (1208), it is determined whether or not the counter for counting the number of stored data has been reset. If the counter has been reset, the process proceeds to the step (1209).
Go to 19). This is because when the previous ranging point is determined to be inappropriate for the predictive control in the "ranging point selection" subroutine of step (1207), the counter COUNT is determined.
This is because T is reset and the prediction calculation is not performed.

【0201】ステップ(1209)では、予測に必要な
データの蓄積が2回なされているかどうか判定し、デー
タの蓄積が2回なされているときには、ステップ(12
10)へ移行し、そうでない場合には、ステップ(12
18)へ移行し、レンズ駆動量DLに中央の測距点のデ
フォーカス量DLを入力する。
In the step (1209), it is determined whether or not the data necessary for the prediction has been stored twice. If the data has been stored twice, the process proceeds to the step (1210).
Go to step 10), otherwise, go to step (12)
The process proceeds to 18), and the defocus amount DL of the center distance measuring point is input to the lens drive amount DL.

【0202】ステップ(1210)〜(1218)は、
2回の測距データからの像面位置変化の最も大きな測距
点を検出するものであり、ステップ(1210)では、
左側の測距点での像面移動速度VA2を計算し、次のス
テップ(1211)では中央の測距点の像面移動速度V
B2、ステップ(1212)では右側の測距点の像面移
動速度VC2を計算する。
Steps (1210) to (1218)
A distance measuring point having the largest change in the image plane position from the two distance measurement data is detected. In step (1210),
The image plane moving speed VA2 at the left ranging point is calculated, and in the next step (1211), the image plane moving velocity V at the central ranging point is calculated.
B2, In a step (1212), the image plane moving speed VC2 of the right distance measuring point is calculated.

【0203】ステップ(1213)では左側の測距点の
像面移動速度VA2と、中央の測距点の像面移動速度V
B2を比較し、|VA2|>|VB2|であれば、ステ
ップ(1215)へ移行し、そうでなければステップ
(1214)へ移行する。ステップ(1215)では、
左の測距点と右側の測距点の像面移動速度を比較し、|
VA2|>|VC2|であれば、ステップ(1216)
へ移行し、そうでなければステップ(1217)へ移行
する。
In step (1213), the image plane moving speed VA2 of the left ranging point and the image plane moving speed V of the central ranging point are calculated.
B2 is compared, and if | VA2 |> | VB2 |, the process proceeds to step (1215); otherwise, the process proceeds to step (1214). In step (1215),
Compare the image plane moving speed of the left ranging point and the right ranging point,
If VA2 |> | VC2 |, step (1216)
Otherwise, to step (1217).

【0204】ステップ(1214)では、中央の測距点
と右側の測距点の像面移動速度を比較し|VB2|>|
VC2|であればステップ(1218)へ移行し、そう
でなければステップ(1217)へ移行する。
In step (1214), the image plane moving speeds of the center ranging point and the right ranging point are compared, and | VB2 |> |
If VC2 |, the process proceeds to step (1218); otherwise, the process proceeds to step (1217).

【0205】上記ステップ(1210)〜(1215)
により、左側の測距点の像面積移動速度VA2が最大で
あればステップ(1216)へ移行し、中央の測距点の
像面移動速度VB2が最大であればステップ(121
8)へ移行し、右側の測距点の像面移動速度VC2が最
大であればステップ(1217)へ移行する。
The above steps (1210) to (1215)
Accordingly, if the image area moving speed VA2 of the left ranging point is the maximum, the process proceeds to step (1216), and if the image plane moving speed VB2 of the central ranging point is the maximum, the step (121) is performed.
The process proceeds to 8), and if the image plane moving speed VC2 of the right distance measuring point is the maximum, the process proceeds to step (1217).

【0206】そして、ステップ(1216),(121
7)(1218)では、像面移動速度が最大となる測距
点のデフォーカス量をレンズ駆動量DLに入力しステッ
プ(1223)へ移行する。
Then, steps (1216) and (121)
7) In (1218), the defocus amount of the distance measuring point at which the image plane moving speed becomes the maximum is input to the lens drive amount DL, and the flow shifts to step (1223).

【0207】又、ステップ(1208)で予測可能と判
断され、ステップ(1219)へ移行した場合には、ス
テップ(1219)で見込みタイムラグTLの計算を行
う。記憶領域TM2 には前述のごとく、前回から今回の
焦点検出動作までの時間が記憶されており、今回の焦点
調節に要する時間もTM2 と一致しているものとの仮定
のもとで、タイムラグTL=TM2 +TRを求める。
If it is determined in step (1208) that prediction is possible and the process proceeds to step (1219), the expected time lag TL is calculated in step (1219). Storage area TM to 2 as described above, and the time until the current focus detection operation is stored from the previous, under the assumption that a match also TM 2 time required for focus adjustment of the time, Time lag TL = TM 2 + TR is determined.

【0208】次のステップ(1220),(1221)
では各記憶領域、DF1 〜DF3 ,DL1 ,DL2 ,T
1 ,TM2 に格納されたデータに基づき(6),
(7)式のa,b項を表わすA,Bを求め、ステップ
(1222)へ移行する。
Next steps (1220) and (1221)
In each storage area, DF 1 ~DF 3, DL 1 , DL 2, T
Based on the data stored in M 1 and TM 2 (6),
A and B representing the a and b terms of the equation (7) are obtained, and the flow proceeds to step (1222).

【0209】ステップ(1222)では各記憶手段のデ
ータ及びステップ(1219)及びステップ(122
0),(1221)の演算値にもとづき(9)式の演算
値を求め、これを今回の像面移動量換算のレンズ駆動量
DLを求める。
In the step (1222), the data of each storage means and the steps (1219) and (122)
The calculated value of equation (9) is calculated based on the calculated values of (0) and (1221), and this is used to determine the lens drive amount DL in terms of the current image plane movement amount.

【0210】次のステップ(1223)では、ステップ
(1223),(1216),(1217),(121
8)で求まったレンズ駆動量DLと撮影レンズの開放F
ナンバーFN及び所定の係数δ(本実施例では0.03
5mm)の積FN・δを比較し、DL<FN・δであれ
ば、ステップ(1224)へ移行し、そうでなければス
テップ(1225)にてリターンする。
In the next step (1223), steps (1223), (1216), (1217) and (121)
Lens drive amount DL obtained in 8) and shooting lens opening F
The number FN and the predetermined coefficient δ (0.03 in this embodiment)
The product FN · δ of 5 mm) is compared, and if DL <FN · δ, the flow shifts to step (1224); otherwise, the flow returns to step (1225).

【0211】図20は図19の「測距点選択」サブルー
チンのフローを示したものであり、このサブルーチンで
は、像面移動量が大きく、予測に適した測距点を検出す
るものである。
FIG. 20 shows the flow of the "distance-measuring point selection" subroutine shown in FIG. 19. In this subroutine, a distance-measuring point having a large image plane movement amount and suitable for prediction is detected.

【0212】ステップ(1302)では、左側の測距点
における、前前回の測距から前回の測距までの像面移動
速度VA1と、前回の測距から今回の測距までの像面移
動速度VA2を計算し、次のステップ(1303)へ移
行する。
In step (1302), the image plane moving speed VA1 from the previous previous distance measurement to the previous distance measurement and the image plane moving speed from the previous distance measurement to the current distance measurement at the left distance measuring point are determined. VA2 is calculated, and the routine goes to the next step (1303).

【0213】ステップ(1303)ではステップ(13
02)の計算結果をもとに左側の測距点での像面移動速
度の変化量VDAを算出し、ステップ(1304)へ移
行する。
In step (1303), step (13)
The change amount VDA of the image plane moving speed at the left ranging point is calculated based on the calculation result of 02), and the flow shifts to step (1304).

【0214】ステップ(1304)ではステップ(13
02)と同様に中央の測距点での像面移動速度VB1,
VB2を計算し、この値をもとにステップ(1305)
で中央の測距点の像面移動速度変化量VDBを計算す
る。
In step (1304), step (13)
02), the image plane moving speed VB1, at the center ranging point.
VB2 is calculated, and step (1305) is performed based on this value.
Calculates the image plane moving speed change amount VDB at the center ranging point.

【0215】ステップ(1306)もステップ(130
2)と同様にして右側の測距点での像面移動速度VC
1,VC2を計算する。そしてこの値をもとに、次のス
テップ(1307)において、右側の測距点の像面移動
速度の変化量VDCを計算する。
Step (1306) is also performed at step (130).
Image plane moving speed VC at the right ranging point in the same manner as in 2)
1, VC2 is calculated. Then, based on this value, in the next step (1307), the change amount VDC of the image plane moving speed of the right distance measuring point is calculated.

【0216】ステップ(1308)ではステップ(13
03)で求まった左側の測距点の像面移動速度変化量V
DAと所定の数AXと比較し、VDA<AXであればス
テップ(1310)へ移行し、そうでなければステップ
(1309)へ移行する。ここで、同一被写体を測距し
ていれば、像面移動速度も連続的に変化する。そこで、
像面移動速度の変化量がAX以下であれば、連続的に変
化している、すなわち同一被写体を測距していると判断
し、そうでなければ別の被写体を測距したと判断してい
る。
In step (1308), step (13)
03) The image plane moving speed change amount V of the left ranging point obtained in step 03)
DA is compared with a predetermined number AX, and if VDA <AX, the process proceeds to step (1310); otherwise, the process proceeds to step (1309). Here, if the same subject is measured, the image plane moving speed also changes continuously. Therefore,
If the change amount of the image plane moving speed is equal to or less than AX, it is determined that the distance is continuously changing, that is, it is determined that the same subject is being measured. I have.

【0217】ステップ(1308)において、別の被写
体を測距したと判断した場合には、左側の測距点のデー
タを予測に使うことがないようにステップ(1309)
において、VA2に「−1」を入力する。そして、この
ステップを終了すると、ステップ(1310)へ移行す
る。
If it is determined in step (1308) that the distance of another object has been measured, step (1309) is performed so that the data of the left ranging point is not used for prediction.
, "-1" is input to VA2. When this step ends, the process moves to step (1310).

【0218】ステップ(1310),(1311)およ
び(1312),(1313)ではステップ(130
8),(1309)と同様にして、中央の測距点および
右側の測距点のデータが、予測制御に使用できるものか
どうかを判定しており、詳細な説明は省略する。
In steps (1310), (1311) and (1312), (1313), step (130)
8) and (1309), it is determined whether the data of the center ranging point and the right ranging point data can be used for predictive control, and a detailed description thereof will be omitted.

【0219】次のステップ(1314)では、左側の測
距点の像面移動速度VA2と中央の測距点の像面移動速
度VB2を比較し、|VA2|>|VB2|であればス
テップ(1315)へ移行し、そうでなければステップ
(1316)へ移行する。
In the next step (1314), the image plane moving speed VA2 of the left ranging point is compared with the image plane moving speed VB2 of the central ranging point. If | VA2 |> | VB2 | Go to 1315), otherwise go to step (1316).

【0220】ステップ(1315)では、左側と右側の
測距点の像面移動速度VA2とVC2を比較し、|VA
2|>|VC2|であればステップ(1317)へ移行
し、そうでなければステップ(1321)へ移行する。
ステップ(1316)でもVB2とVC2を比較し、|
VB2|>|VC2|であればステップ(1324)
へ、そうでなければステップ(1321)へ移行する。
In step (1315), the image plane moving speeds VA2 and VC2 of the left and right distance measuring points are compared, and | VA
If 2 |> | VC2 |, the process proceeds to step (1317); otherwise, the process proceeds to step (1321).
In step (1316), VB2 is compared with VC2, and |
If VB2 |> | VC2 |, step (1324)
Otherwise, to step (1321).

【0221】ステップ(1314)〜(1316)によ
って予測制御に適して、かつ像面移動速度が最大となる
測距点を選択し、その測距点が左側の測距点であればス
テップ(1317)へ、中央の測距点であればステップ
(1321)へ、右側の測距点であればステップ(13
24)へ移行する。
In steps (1314) to (1316), a focus detection point suitable for predictive control and having the maximum image plane moving speed is selected. If the focus detection point is the left focus detection point, step (1317) is executed. ), To the step (1321) if it is the center ranging point, and to step (13) if it is the right ranging point.
Go to 24).

【0222】ステップ(1317)では、選択された左
側の測距点が予測に適しているかどうか判定し、VA2
=−1であれば、ステップ(1308)で予測に不適当
と判断されたものであるのでステップ(1318)でカ
ウンターをリセットしてステップ(1328)へ移行す
る。そうでなければステップ(1319)へ移行する。
At step (1317), it is determined whether or not the selected left ranging point is suitable for prediction.
If = -1, it is determined in step (1308) that it is inappropriate for prediction, so the counter is reset in step (1318), and the flow advances to step (1328). If not, the process proceeds to step (1319).

【0223】ステップ(1319)では使用する測距点
を表わすAFPに左側の測距点を使用することを示すよ
うに「−1」を入力し、ステップ(1320)へ移行す
る。ステップ(1320)では、予測に用いるデータD
1 ,DF2 ,DF3 に左側の測距点のデータに更新し
ている。
In step (1319), "-1" is input to AFP representing the ranging point to be used to indicate that the left ranging point is to be used, and the flow advances to step (1320). In step (1320), data D used for prediction is
F 1 , DF 2 , and DF 3 are updated with the data of the left ranging point.

【0224】ステップ(1321)〜(1325)及び
(1325)〜(1327)では、ステップ(131
7)〜(1320)と同様にして、中央あるいは右側の
測距点のデータに更新し、ステップ(1328)に移行
し、このサブルーチンをリターンする。ここで、ステッ
プ(1321)〜(1325),(1325)〜(13
27)のフローは(1317)〜(1320)と同じあ
り、詳細な説明は省略する。
In steps (1321) to (1325) and (1325) to (1327), step (131)
In the same manner as in 7) to (1320), the data is updated to the data of the center or right distance measuring point, and the flow shifts to step (1328) to return this subroutine. Here, steps (1321) to (1325) and (1325) to (1325)
The flow of (27) is the same as (1317) to (1320), and a detailed description will be omitted.

【0225】以上のようにして、この実施例では、動い
ている被写体を検出し、その被写体に対して予測制御を
行うことが可能となる。
As described above, in this embodiment, it is possible to detect a moving subject and perform predictive control on the subject.

【0226】上記図19,図20による実施例では1回
目の焦点検出動作では中央の測距部からのデフォーカス
量によりレンズを駆動し、2回目のレーズ駆動は最も高
速で移動する像を測距している測距部からのデフォーカ
スに基づきレンズ駆動し、3回目以後は前述の予測駆動
を行う。そして予測駆動に際して、最も高速で動く像を
測距している測距部にて検知された過去及び今回のデー
タに基づき上述の予測演算駆動処理を行っている。その
際前前回と前回の像の移動速度が大きくずれている時に
は予測駆動を一時禁止し、いままでの被写体と異なる被
写体に対してのデータに基づく予測駆動を禁止してい
る。
In the embodiments shown in FIGS. 19 and 20, in the first focus detection operation, the lens is driven by the defocus amount from the center distance measuring unit, and in the second laser drive, the image moving at the highest speed is measured. The lens is driven based on the defocus from the distance measuring unit that has moved, and the above-described predictive driving is performed after the third time. At the time of predictive driving, the above-described predictive calculation driving process is performed based on past and present data detected by a distance measuring unit that measures the image moving at the highest speed. At this time, when the moving speed of the previous image is greatly different from the moving speed of the previous image, the predictive driving is temporarily prohibited, and the predictive driving based on data for a subject different from the current subject is prohibited.

【0227】以上の実施例は全て別の判定基準によっ
て、測距点の選択を行ったが、これらの判定手段を複合
させて利用しても本発明が有効なことは明らかである。
In all of the above embodiments, the distance measuring points are selected based on different criteria. However, it is clear that the present invention is effective even if these determining means are combined and used.

【0228】また、上述の実施例では一度測距点を変更
すると、その測距点での予測制御が不可能となるまで、
測距点の変更を行わないが、最初に使用する測距点が撮
影者に選択されていたり、中央の測距点を主として使用
したい場合には、撮影者が選択した測距点あるいは、中
央の測距点によって、予測制御が可能であれば、その測
距点に復帰するようにしても良い。
Further, in the above-described embodiment, once the ranging point is changed, until the prediction control at the ranging point becomes impossible,
If you do not change the AF point, but the photographer selects the initial AF point, or if you want to mainly use the center AF point, the AF point selected by the photographer or the center If predictive control is possible with the distance measuring point, the control may return to the distance measuring point.

【0229】[0229]

【発明の効果】請求項1では画面の異なる位置に対象物
に移動しても、適切にその対象物に対しての予測演算を
行うことが出来るとともに、各焦点検知エリアで捕らえ
ている対象物が以前の対象物とは異なるものになって
も、画面中央のエリアでの対象物に対してピント合わせ
を行わせるので、撮影者が両面の中央に対象物を捕らえ
て対象物を追いながら撮影を行う機会が多い動体に対し
ての撮影に適したオートフォーカス動作を実現すること
が出来る。
According to the first aspect, even if the target is moved to a different position on the screen, the prediction calculation for the target can be appropriately performed and the target captured in each focus detection area can be calculated. Even if the object is different from the previous object, the camera focuses on the object in the center area of the screen, so the photographer captures the object in the center of both sides and shoots while following the object Thus, it is possible to realize an autofocus operation suitable for photographing a moving object having a lot of chances of performing.

【0230】又、請求項2では、図面の異なる位置に対
象物に移動しても、適切にその対象物に対しての予測演
算を行うことが出来るとともに、手振れ等により一時的
に各焦点検知エリアで捕らえている対象物が以前の対象
物とは異なるものになっても、最後のオートフォーカス
において捕らえていた対象物を捕らえていたエリアでの
対象物に対してピント合わせを行わせるので、それまで
の対象物に対してのオートフォーカス動作を実現するこ
とが出来る。
Further, according to the present invention, even if the target is moved to a different position in the drawing, it is possible to appropriately perform the prediction calculation for the target and temporarily detect each focus due to camera shake or the like. Even if the target captured in the area is different from the previous target, the target in the area where the target captured in the last autofocus was captured is focused, so It is possible to realize the autofocus operation for the object up to that time.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る焦点調節装置における制御フロー
としての「予測演算」サブルーチンのフローを示す説明
図である。
FIG. 1 is an explanatory diagram showing a flow of a “prediction calculation” subroutine as a control flow in a focus adjustment device according to the present invention.

【図2】図19「測距点変更」サブルーチンのフローを
示す説明図である。
FIG. 2 is an explanatory diagram showing a flow of a “change ranging point” subroutine in FIG. 19;

【図3】予測によるレンズ駆動の原理を示す説明図であ
る。
FIG. 3 is an explanatory diagram showing the principle of lens driving based on prediction.

【図4】図3によるレンズ駆動の問題点を説明するため
の説明図である。
FIG. 4 is an explanatory diagram for explaining a problem of lens driving according to FIG. 3;

【図5】本発明に係る焦点調節装置の一実施例を示す回
路図である。
FIG. 5 is a circuit diagram showing an embodiment of a focus adjustment device according to the present invention.

【図6】図5の装置の動作を説明するメインフローチャ
ートを示す説明図である。
FIG. 6 is an explanatory diagram showing a main flowchart for explaining the operation of the apparatus shown in FIG. 5;

【図7】図6における「像信号入力」サブルーチンフロ
ーチャートを示す説明図である。
FIG. 7 is an explanatory diagram showing a flowchart of an “image signal input” subroutine in FIG. 6;

【図8】図6における「レンズ駆動」サブルーチンのフ
ローチャートを示す説明図である。
FIG. 8 is an explanatory diagram showing a flowchart of a “lens drive” subroutine in FIG. 6;

【図9】本発明の実施例である焦点検出装置の構造を示
す斜視図である。
FIG. 9 is a perspective view illustrating a structure of a focus detection device according to an embodiment of the present invention.

【図10】図9に示した焦点検出点の断面図である。FIG. 10 is a cross-sectional view of the focus detection point shown in FIG.

【図11】図1,図2における「像面位置の連続性判
定」サブルーチンのフローチャートを示す説明図であ
る。
FIG. 11 is an explanatory diagram showing a flowchart of a “determination of continuity of image plane position” subroutine in FIGS. 1 and 2;

【図12】図5の焦点調節位置を有するカメラファイン
ダーを示す説明図である。
FIG. 12 is an explanatory diagram showing a camera finder having the focus adjustment position of FIG.

【図13】他の「予測演算」サブルーチンのフローチャ
ートを示す説明図である。
FIG. 13 is an explanatory diagram showing a flowchart of another “prediction calculation” subroutine.

【図14】図13における「測距点変更」サブルーチン
のフローチャートを示す説明図である。
FIG. 14 is an explanatory diagram showing a flowchart of a “ranging point change” subroutine in FIG. 13;

【図15】図13,図14における「低コン判定」サブ
ルーチンのフローチャートを示す説明図である。
FIG. 15 is an explanatory diagram showing a flowchart of a “low contrast determination” subroutine in FIGS. 13 and 14;

【図16】他の「予測演算」サブルーチンのフローチャ
ートを示す説明図である。
FIG. 16 is an explanatory diagram showing a flowchart of another “prediction calculation” subroutine.

【図17】図16における「測距点変更」サブルーチン
のフローチャートを示す説明図である。
FIG. 17 is an explanatory diagram showing a flowchart of a “ranging point change” subroutine in FIG. 16;

【図18】図16,図17における「低輝度判定」サブ
ルーチンのフローチャートを示す説明図である。
FIG. 18 is an explanatory diagram showing a flowchart of a “low luminance determination” subroutine in FIGS. 16 and 17;

【図19】他の「予測演算」サブルーチンのフローチャ
ートを示す説明図である。
FIG. 19 is an explanatory diagram showing a flowchart of another “prediction calculation” subroutine.

【図20】図19における「測距点選択」サブルーチン
のフローチャートを示す説明図である。
FIG. 20 is an explanatory diagram showing a flowchart of a “ranging point selection” subroutine in FIG. 19;

【符号の説明】[Explanation of symbols]

PRS コンピュータ SNS センサ装置 LPRS 制御回路 PRS Computer SNS Sensor device LPRS Control circuit

フロントページの続き (72)発明者 門原 輝岳 神奈川県川崎市高津区下野毛770番地キヤ ノン株式会社玉川事業所内 (72)発明者 深堀 英彦 神奈川県川崎市高津区下野毛770番地キヤ ノン株式会社玉川事業所内 (72)発明者 須田 康夫 神奈川県川崎市高津区下野毛770番地キヤ ノン株式会社玉川事業所内 (72)発明者 伊藤 健二 神奈川県川崎市高津区下野毛770番地キヤ ノン株式会社玉川事業所内Continuing on the front page (72) Inventor Terutake Kadohara 770 Shimonoge, Takatsu-ku, Kawasaki-shi, Kanagawa Prefecture Inside the Tamagawa Office (72) Inventor Hidehiko Fukahori 770 Shimo-noge, Takatsu-ku, Kawasaki-shi, Kanagawa Tamagawa Corporation Inside the business site (72) Inventor Yasuo Suda 770 Shimonoge, Takatsu-ku, Kawasaki City, Kanagawa Prefecture Inside Canon Inc. (72) Inventor Kenji Ito 770 Shimo-noge, Takatsu-ku, Kawasaki City, Kanagawa Prefecture Within Canon Inc.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数の測定エリアでのフォーカス状態に
応じた検出データを繰り返し求める焦点検出回路と、該
焦点検出回路にて求められた検出データに基づいてフォ
ーカシング機構を駆動するフォーカシング機構駆動回路
とを備え、繰り返しオートフォーカス動作を行う自動焦
点調節装置において、 オートフォーカス動作のために行われる最新の検知動作
で求められた検出データと過去の検出データに基づき所
定時間後の対象物の像の像面位置に対応する位置にフォ
ーカシング機構を移動させるためのデータを予測演算す
る演算回路を設け、該演算回路にて演算された前記デー
タに基づいてフォーカシングを行うとともに、前記複数
の測定エリアのうち予測演算を行うのに適した対象物の
存在するエリアを選択する選択手段を設け、該選択手段
にて選択されたエリアからの検出データを前記予測演算
に用いる前記最新の検出データとし、更に選択手段にて
予測演算に適して対象物の存在するエリアを選択できな
い時に前記エリアのうち画面の中央位置の特性のエリア
をオートフォーカス動作のためのエリアとして設定する
設定手段を設けたことを特徴とする自動焦点調節装置。
A focus detection circuit for repeatedly detecting detection data according to a focus state in a plurality of measurement areas; a focusing mechanism driving circuit for driving a focusing mechanism based on the detection data obtained by the focus detection circuit; An automatic focus adjustment device that repeatedly performs an autofocus operation, wherein an image of an image of an object after a predetermined time based on detection data obtained by the latest detection operation performed for the autofocus operation and past detection data An arithmetic circuit for predicting and calculating data for moving the focusing mechanism to a position corresponding to the surface position is provided, and focusing is performed based on the data calculated by the arithmetic circuit, and prediction is performed among the plurality of measurement areas. Selecting means for selecting an area where an object suitable for performing an operation is provided; The detection data from the area selected in the step is the latest detection data used for the prediction calculation, and when the selection unit cannot select the area where the target object is present suitable for the prediction calculation, An automatic focus adjustment device, further comprising setting means for setting an area having a characteristic at a center position as an area for an autofocus operation.
【請求項2】 複数の測定エリアでのフォーカス状態に
応じた検出データを繰り返し求める焦点検出回路と、該
焦点検出回路にて求められた検出データに基づいてフォ
ーカシング機構を駆動するフォーカシング機構駆動回路
とを備え、繰り返しオートフォーカス動作を行う自動焦
点調節装置において、 オートフォーカス動作のために行われる最新の検知動作
で求められた検出データと過去の検出データに基づき所
定時間後の対象物の像の像面位置に対応する位置にフォ
ーカシング機構を移動させるためのデータを予測演算す
る演算回路を設け、該演算回路にて演算された前記デー
タに基づいてフォーカシングを行うとともに、前記複数
の測定エリアのうち予測演算を行うのに適した対象物の
存在するエリアを選択する選択手段を設け、該選択手段
にて選択されたエリアからの検出データを前記予測演算
に用いる前記最新の検出データとし、更に選択手段にて
予測演算に適して対象物の存在するエリアを選択できな
い時に前記エリアのうち最後のオートフォーカス動作の
ための検出データを形成したエリアを次回のオートフォ
ーカス動作のためのエリアとして設定する設定手段を設
けたことを特徴とする自動焦点調節装置。
2. A focus detection circuit for repeatedly detecting detection data according to focus states in a plurality of measurement areas, and a focusing mechanism driving circuit for driving a focusing mechanism based on the detection data obtained by the focus detection circuit. An automatic focus adjustment device that repeatedly performs an autofocus operation, wherein an image of an image of an object after a predetermined time based on detection data obtained by the latest detection operation performed for the autofocus operation and past detection data An arithmetic circuit for predicting and calculating data for moving the focusing mechanism to a position corresponding to the surface position is provided, and focusing is performed based on the data calculated by the arithmetic circuit, and prediction is performed among the plurality of measurement areas. Selecting means for selecting an area where an object suitable for performing an operation is provided; The detection data from the area selected in the step is used as the latest detection data used for the prediction calculation, and when the area where the target object is present cannot be selected by the selection means suitable for the prediction calculation, the last of the areas is selected. An automatic focus adjustment device comprising a setting unit for setting an area in which detection data for an autofocus operation is formed as an area for a next autofocus operation.
JP15095197A 1997-06-09 1997-06-09 Automatic focusing device Expired - Lifetime JP2974637B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15095197A JP2974637B2 (en) 1997-06-09 1997-06-09 Automatic focusing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15095197A JP2974637B2 (en) 1997-06-09 1997-06-09 Automatic focusing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP63118821A Division JP2832006B2 (en) 1988-05-16 1988-05-16 Automatic focusing device

Publications (2)

Publication Number Publication Date
JPH1068865A true JPH1068865A (en) 1998-03-10
JP2974637B2 JP2974637B2 (en) 1999-11-10

Family

ID=15507999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15095197A Expired - Lifetime JP2974637B2 (en) 1997-06-09 1997-06-09 Automatic focusing device

Country Status (1)

Country Link
JP (1) JP2974637B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139520A (en) * 2008-12-09 2010-06-24 Canon Inc Hybrid af device and method for controlling the same
JP2011018070A (en) * 2010-09-03 2011-01-27 Casio Computer Co Ltd Camera, camera control program and camera control method
JP2013054375A (en) * 2012-11-01 2013-03-21 Casio Comput Co Ltd Camera, camera control program, and camera control method
JP2013205787A (en) * 2012-03-29 2013-10-07 Olympus Imaging Corp Focusing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139520A (en) * 2008-12-09 2010-06-24 Canon Inc Hybrid af device and method for controlling the same
JP2011018070A (en) * 2010-09-03 2011-01-27 Casio Computer Co Ltd Camera, camera control program and camera control method
JP2013205787A (en) * 2012-03-29 2013-10-07 Olympus Imaging Corp Focusing device
JP2013054375A (en) * 2012-11-01 2013-03-21 Casio Comput Co Ltd Camera, camera control program, and camera control method

Also Published As

Publication number Publication date
JP2974637B2 (en) 1999-11-10

Similar Documents

Publication Publication Date Title
JP3210027B2 (en) camera
JP2713978B2 (en) Automatic focusing device for camera
JP2597961B2 (en) Automatic focusing device
JPH0617935B2 (en) Automatic focus adjustment device
US5005037A (en) Auto focus adjusting device
US4801962A (en) Camera incorporating automatic focusing apparatus
US5140359A (en) Multi-point distance measuring apparatus
US4792821A (en) Auto-focus apparatus in a camera
JP2974637B2 (en) Automatic focusing device
JP2832006B2 (en) Automatic focusing device
EP0438140B1 (en) Focus detecting device in a camera
JPH11337814A (en) Optical device
US4825238A (en) Focus detecting device
JP3352453B2 (en) camera
JPH05346536A (en) Focal point detecting device
JP3486464B2 (en) Automatic focusing device
JP2762513B2 (en) Automatic focusing device
JP3294636B2 (en) Auto focus camera
JP3278397B2 (en) Camera with gaze detection function
JP4262034B2 (en) Optical device and camera
JPH0829670A (en) Automatic focusing device and camera
JPH0829671A (en) Automatic focusing device and camera
JP2832054B2 (en) Focus detection device
JPH11295587A (en) Focusing device
JPH06148510A (en) Camera with line-of-sight detector

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20080903

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9