JPH1010415A - Focusing device - Google Patents

Focusing device

Info

Publication number
JPH1010415A
JPH1010415A JP8165980A JP16598096A JPH1010415A JP H1010415 A JPH1010415 A JP H1010415A JP 8165980 A JP8165980 A JP 8165980A JP 16598096 A JP16598096 A JP 16598096A JP H1010415 A JPH1010415 A JP H1010415A
Authority
JP
Japan
Prior art keywords
image plane
motion
equation
plane position
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8165980A
Other languages
Japanese (ja)
Inventor
Toru Iwane
透 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP8165980A priority Critical patent/JPH1010415A/en
Priority to US08/869,089 priority patent/US5873006A/en
Publication of JPH1010415A publication Critical patent/JPH1010415A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately and easily predict an image surface position just by deciding an undetermined coefficient even for a complicated motion of the image surface position by deciding the undetermined coefficient of an equation of motion assumed previously and predicting the image surface position. SOLUTION: A focus detection means 1 detects the defocusing amount of a photographing optical system and a lens position detection means 2 detects the lens position of the photographing optical system, then an image surface position detection means 3 calculates the image surface position of a subject image, based on the defocusing amount and the lens position. The detection means 3 and an image surface velocity calculation means 4 calculates image surface velocity, based on the temporal change of the image surface position. Then, the calculation means 4 and a statistics means 5 perform statistical analysis concerning sample space consisting of the image surface position and the image surface velocity so as to decide the undetermined coefficient of the equation of motion including the image surface position of the image surface velocity fixed previously. The statistics means 5 and a prediction means 6 calculate the predicted value of the image surface position and perform focus control, based on the predicted value together with a focus control means 7.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラその他の光
学機器において、焦点状態の自動調節を行う焦点調節装
置に関し、特に、像面位置の複雑な運動を正確かつ簡便
に予測する焦点調節装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus adjusting device for automatically adjusting a focus state in a camera or other optical equipment, and more particularly to a focus adjusting device for accurately and easily predicting a complicated movement of an image plane position. .

【0002】[0002]

【従来の技術】従来、カメラなどの光学機器には、撮影
光学系の焦点調節を自動的に行うために、焦点調節装置
が搭載される。これらの焦点調節装置では、公知の位相
差検出方式などを用いて、被写体像面と撮像面との間隔
(以下、この間隔を「デフォーカス量」という)が検出
される。
2. Description of the Related Art Conventionally, an optical apparatus such as a camera is equipped with a focus adjusting device for automatically adjusting the focus of a photographing optical system. In these focus adjusting devices, an interval between a subject image plane and an imaging plane (hereinafter, this interval is referred to as “defocus amount”) is detected by using a known phase difference detection method or the like.

【0003】焦点調節装置は、このデフォーカス量に応
じて、撮影光学系を前後に繰り出すことにより、焦点調
節を行う。通常、このような焦点調節では、「シングル
AFモード」と「連続AFモード」という2通りの動作
モードが用意される。すなわち、シングルAFモードで
は、焦点調節期間において合焦判定した時点で焦点調節
が即時停止する(フォーカスロック)。カメラ側では、
このフォーカスロック状態を待って撮影動作が開始され
る。このようなシングルAFモードは、主としてピント
優先の撮影に使用される。
The focus adjusting device adjusts the focus by moving the photographing optical system back and forth in accordance with the defocus amount. Usually, in such focus adjustment, two operation modes, a “single AF mode” and a “continuous AF mode”, are prepared. That is, in the single AF mode, the focus adjustment is immediately stopped when the focus is determined during the focus adjustment period (focus lock). On the camera side,
The photographing operation is started after waiting for the focus lock state. Such a single AF mode is mainly used for focus priority photographing.

【0004】また、一方の連続AFモードは、合焦判定
にかかわらず、焦点調節を継続する。カメラ側では、撮
影者のレリーズ釦動作に即応して撮像動作を実行する。
このような連続AFモードは、主としてシャッタチャン
ス優先の撮影に使用される。ところで、被写体が動体の
場合には、レリーズ釦が全押しされてから撮像動作が行
われるまでの期間(いわゆる、レリーズタイムラグ)
に、被写体が余分に移動し、ピントずれが生じる。
[0004] In one continuous AF mode, focus adjustment is continued irrespective of focus determination. On the camera side, the imaging operation is executed in response to the release button operation of the photographer.
Such a continuous AF mode is mainly used for photographing with priority given to a photo opportunity. By the way, when the subject is a moving object, a period from when the release button is fully pressed to when an imaging operation is performed (a so-called release time lag).
At the same time, the subject moves excessively and the focus shifts.

【0005】そこで、上述の焦点調節装置の一種とし
て、連続AFモード時またはシングルAFモード時に、
レリーズ前の焦点検出情報の動向を外延し、レリーズタ
イムラグ間の像面移動を予測するものが知られている。
この予測に基づいて焦点調節を行うことにより、レリー
ズタイムラグに起因するピントずれを補正することが可
能となる。
Therefore, as one type of the above-mentioned focus adjusting device, in the continuous AF mode or the single AF mode,
There is known a method of extending a trend of focus detection information before release and predicting an image plane movement between release time lags.
By performing focus adjustment based on this prediction, it is possible to correct a focus shift caused by a release time lag.

【0006】また、一般に、デフォーカス量は、受光素
子列における光電荷の蓄積処理や演算処理を介して、逐
一検出されるため、離散的にかつ遅延して検出されるデ
ータとなる。このようなデータの遅延は、制御動作上の
むだ時間(dead time)となるため、焦点調節
の追従動作に不足やゆきすぎ(オーバーシュート)を生
じやすく、十分な追従性能を得ることが困難となる。
In general, the amount of defocus is detected one by one through a process of accumulating photocharges in a light receiving element row and an arithmetic process, so that it becomes data that is detected discretely and with a delay. Such a data delay is a dead time in the control operation, so that the follow-up operation of the focus adjustment is likely to be insufficient or too long (overshoot), and it is difficult to obtain a sufficient follow-up performance. Become.

【0007】そこで、上述の焦点調節装置の一種とし
て、連続AFモード時に、過去の焦点検出情報の動向を
外延して現時点の像面位置を逐次予測するものが知られ
ている。この予測値に合わせて焦点調節を連続的に行う
ことにより、焦点調節の制御動作に生じる不足やゆきす
ぎを修正し、十分な追従性能を得ることができる。以上
説明したように、焦点調節の性能向上を図る上で、像面
位置を適確に予測することが非常に重要となる。
Therefore, as one type of the above-mentioned focus adjusting device, there is known a device which extrapolates past trends of focus detection information and sequentially predicts the current image plane position in the continuous AF mode. By continuously performing the focus adjustment in accordance with the predicted value, it is possible to correct a shortage or an excessively long distance generated in the control operation of the focus adjustment, and to obtain a sufficient tracking performance. As described above, in order to improve the performance of focus adjustment, it is very important to accurately predict the image plane position.

【0008】従来から、このような像面位置の予測方式
としては、像面位置の過去データに基づいて、像面位置
を線形予測(いわゆる、離散値の一次ホールドや二次ホ
ールド)するものが、知られている(例えば、特願昭6
2−263728号公報)。
Conventionally, as a method of predicting such an image plane position, a method of linearly predicting the image plane position (so-called primary hold or secondary hold of discrete values) based on past data of the image plane position is known. Is known (for example, Japanese Patent Application
2-263728).

【0009】[0009]

【発明が解決しようとする課題】ところで、このような
従来例では、像面速度が一定もしくは、像面加速度が一
定という想定に基づいて、像面位置を予測している。
By the way, in such a conventional example, the image plane position is predicted on the assumption that the image plane velocity is constant or the image plane acceleration is constant.

【0010】そのため、像面速度や像面加速度が変化す
るような実際のケースでは、像面位置を正確に予測でき
ないという問題点があった。特に、物空間側において被
写体が等速運動するような、比較的単純な運動モデルで
あっても、共役関係にある像面位置は複雑に運動する。
そのため、比較的単純な運動をする被写体においても、
像面位置の運動を正確に予測することは、非常に困難で
あった。
Therefore, in an actual case where the image plane speed and the image plane acceleration change, there is a problem that the image plane position cannot be accurately predicted. In particular, even with a relatively simple motion model in which the subject moves at a constant velocity in the object space, the image plane position in a conjugate relationship moves in a complicated manner.
Therefore, even for subjects that perform relatively simple movements,
It has been very difficult to accurately predict the motion of the image plane position.

【0011】さらに、像面加速度は、像面位置の2回差
分から算出されるため、像面位置との位相遅れや、高域
ノイズ成分の影響を受けやすい。そのため、従来の予測
方式では、焦点検出情報の検出ばらつきの影響を鋭敏に
反映し、予測値の精度が低いという問題点があった。そ
こで、請求項1,2に記載の発明では、上述した問題点
を解決するために、複雑な像面位置の変動を正確かつ簡
便に予測することができる焦点調節装置を提供すること
を目的とする。
Further, since the image plane acceleration is calculated from the twice difference of the image plane position, it is easily affected by a phase lag with respect to the image plane position and a high frequency noise component. Therefore, the conventional prediction method has a problem that the accuracy of the predicted value is low because the influence of the detection variation of the focus detection information is sharply reflected. Therefore, in order to solve the above-mentioned problems, it is an object of the present invention to provide a focus adjustment device capable of accurately and easily predicting a change in a complicated image plane position. I do.

【0012】請求項3に記載の発明では、請求項1の目
的と併せて、所定距離だけ離れた通過軌道上を等速度で
通過する被写体(以下「通過被写体」という)に関し
て、像面位置の変動を正確かつ簡便に予測することがで
きる焦点調節装置を提供することを目的とする。請求項
4に記載の発明では、請求項1の目的と併せて、等速度
で接近もしくは遠ざかる被写体(以下「衝突被写体」と
いう)に関して、像面位置の変動を正確かつ簡便に予測
することができる焦点調節装置を提供することを目的と
する。
According to the third aspect of the present invention, in addition to the object of the first aspect, with respect to a subject (hereinafter, referred to as a “passing subject”) passing at a constant speed on a passing trajectory separated by a predetermined distance, an image plane position is determined. It is an object of the present invention to provide a focus adjustment device capable of accurately and easily predicting a change. According to the fourth aspect of the present invention, in addition to the object of the first aspect, it is possible to accurately and easily predict a change in the image plane position of a subject approaching or moving away at a constant speed (hereinafter referred to as a “colliding subject”). It is an object to provide a focusing device.

【0013】請求項5に記載の発明では、請求項1の目
的と併せて、多様な被写体の動きに適応して、像面位置
を予測することができる焦点調節装置を提供することを
目的とする。請求項6に記載の発明では、請求項1の目
的と併せて、通過被写体に関する像面位置の予測演算
と、衝突被写体に関する像面位置の予測演算とを、円滑
に切り換える焦点調節装置を提供することを目的とす
る。
According to a fifth aspect of the present invention, in addition to the object of the first aspect, it is an object of the present invention to provide a focus adjusting device capable of predicting an image plane position by adapting to various movements of a subject. I do. According to a sixth aspect of the present invention, in addition to the object of the first aspect, there is provided a focus adjustment device which smoothly switches between a prediction calculation of an image plane position for a passing subject and a prediction calculation of an image plane position for a collision subject. The purpose is to:

【0014】請求項7に記載の発明では、請求項1の目
的と併せて、高い近似精度で像面位置を線形予測するこ
とができる焦点調節装置を提供することを目的とする。
A further object of the present invention is to provide a focus adjusting device capable of linearly predicting an image plane position with high approximation accuracy.

【0015】[0015]

【課題を解決するための手段】図1は、請求項1〜7に
記載の発明に対応する原理ブロック図である。以下、図
1に対応付けて、解決するための手段を説明する。
FIG. 1 is a principle block diagram corresponding to the first to seventh aspects of the present invention. Hereinafter, the means for solving the problem will be described with reference to FIG.

【0016】請求項1に記載の発明は、撮影光学系のデ
フォーカス量を検出する焦点検出手段1と、撮影光学系
のレンズ位置を検出するレンズ位置検出手段2と、デフ
ォーカス量とレンズ位置とに基づいて、被写体像の像面
位置を算出する像面位置算出手段3と、像面位置算出手
段3により算出された像面位置の時間変化に基づいて、
像面速度を算出する像面速度算出手段4と、像面位置と
像面速度とからなる標本空間について統計分析を行い、
予め定められた「像面位置と像面速度とを含む運動方程
式」の未定係数を決定する統計手段5と、統計手段5に
より決定された未定係数を持つ運動方程式の解(時間関
数)に基づいて、像面位置の予測値を算出する予測手段
6と、予測手段6により算出された像面位置の予測値に
基づいて、焦点制御を行う焦点制御手段7とを備えたこ
とを特徴とする。
According to a first aspect of the present invention, there is provided a focus detecting means for detecting a defocus amount of a photographing optical system, a lens position detecting means for detecting a lens position of the photographing optical system, a defocus amount and a lens position. Based on the image plane position calculating means 3 for calculating the image plane position of the subject image based on the above, based on the time change of the image plane position calculated by the image plane position calculating means 3,
Image plane speed calculating means 4 for calculating an image plane speed, and statistical analysis on a sample space including an image plane position and an image plane speed,
Statistical means 5 for determining an undetermined coefficient of a predetermined “equation of motion including an image plane position and an image plane velocity” and a solution (time function) of the equation of motion having the undetermined coefficient determined by the statistical means 5 A prediction unit for calculating a predicted value of the image plane position; and a focus control unit for performing focus control based on the predicted value of the image plane position calculated by the prediction unit. .

【0017】請求項2に記載の発明は、請求項1に記載
の焦点調節装置において、運動方程式は、物空間側にお
いて想定される被写体の運動モデルを、撮影光学系の像
空間側に写像変換して得た「像空間側の運動方程式」で
あることを特徴とする。請求項3に記載の発明は、請求
項2に記載の焦点調節装置において、運動方程式が、カ
メラから距離hだけ離れた通過軌道上を速度vで通過す
る被写体の運動モデルを、撮影光学系の像空間側に近似
的に写像変換した式であり、 Vim/Y3=α・(tc−τ)・・・(1) (ただし、Yは焦点と像面とのズレ量,Vimは像面速
度,tcは検出時刻,αおよびτは未定係数)であるこ
とを特徴とする。
According to a second aspect of the present invention, in the focus adjustment apparatus according to the first aspect, the motion equation is obtained by mapping a motion model of a subject assumed on the object space side to the image space side of the photographing optical system. It is the "equation of motion on the image space side" obtained by the above. According to a third aspect of the present invention, in the focusing apparatus according to the second aspect, the equation of motion includes a motion model of a subject passing at a speed v on a passing trajectory separated by a distance h from the camera. Vim / Y 3 = α · (tc−τ) (1) (where Y is the amount of shift between the focal point and the image plane, and Vim is the image plane) (Velocity, tc is detection time, α and τ are undecided coefficients).

【0018】請求項4に記載の発明は、請求項2に記載
の焦点調節装置において、運動方程式が、カメラに向か
って速度vで接近する被写体の運動モデルを、撮影光学
系の像空間側に近似的に写像変換した式であり、 Yc=β・|Vim|1/2+Cp・・・(2) (ただし、Ycは像面位置,Vimは像面速度,βおよび
Cpは未定係数)であることを特徴とする。
According to a fourth aspect of the present invention, in the focus adjustment device according to the second aspect, the motion equation is such that a motion model of a subject approaching the camera at a speed v is located on the image space side of the photographing optical system. Yc = β · | Vim | 1/2 + Cp (2) (where Yc is the image plane position, Vim is the image plane velocity, and β and Cp are undetermined coefficients) There is a feature.

【0019】請求項5に記載の発明は、請求項2に記載
の焦点調節装置において、統計手段5は、複数の運動方
程式について回帰分析を行い、回帰分析の寄与率が高い
運動方程式を採用して未定係数を決定することを特徴と
する。請求項6に記載の発明は、請求項5に記載の焦点
調節装置において、複数の運動方程式は、 Yc=β・|Vim|1/2+Cp・・・(2) (ただし、Ycは像面位置,Vimは像面速度,βおよび
Cpは未定係数)および、 Vim/(Yc−Cp)3=α・(tc−τ)・・・(3) (ただし、Ycは像面位置,Vimは像面速度,tcは検
出時刻,αおよびτは未定係数)であり、統計手段5
は、(2)式に基づく回帰分析を行い、その回帰分析に
おける寄与率の低下に伴って、(3)式に基づく回帰分
析に移行することを特徴とする。
According to a fifth aspect of the present invention, in the focus adjustment apparatus of the second aspect, the statistical means 5 performs a regression analysis on a plurality of equations of motion, and employs a motion equation having a high contribution rate of the regression analysis. In this case, the undetermined coefficient is determined. According to a sixth aspect of the present invention, in the focusing apparatus according to the fifth aspect, the plurality of equations of motion are as follows: Yc = β · | Vim | 1/2 + Cp (2) (where Yc is the image plane) Position, Vim is the image surface speed, β and Cp are undetermined coefficients), and Vim / (Yc−Cp) 3 = α · (tc−τ) (3) (where Yc is the image surface position and Vim is The image plane speed, tc is the detection time, α and τ are undetermined coefficients),
Is characterized by performing a regression analysis based on the equation (2), and shifting to a regression analysis based on the equation (3) as the contribution rate in the regression analysis decreases.

【0020】請求項7に記載の発明は、請求項1乃至請
求項6のいずれか1項に記載の焦点調節装置において、
予測手段6は、統計手段5により決定された未定係数を
持つ運動方程式の解(時間関数)を線形近似して、像面
位置の予測値を算出することを特徴とする。
According to a seventh aspect of the present invention, in the focus adjustment apparatus according to any one of the first to sixth aspects,
The prediction means 6 is characterized in that a solution (time function) of a motion equation having an undetermined coefficient determined by the statistical means 5 is linearly approximated to calculate a predicted value of an image plane position.

【0021】(作用)請求項1の焦点調節装置では、像
面位置算出手段3が、デフォーカス量とレンズ位置とを
用いて、被写体像の像面位置を算出する。
(Function) In the focus adjusting apparatus of the first aspect, the image plane position calculating means 3 calculates the image plane position of the subject image using the defocus amount and the lens position.

【0022】像面速度算出手段4は、像面位置の時間変
化を算出して像面速度を求める。統計手段5は、上記の
ように得られる「像面位置」と「像面速度」とを標本デ
ータとして蓄積する。ここで、物空間側における「像面
位置と像面速度とを含む運動方程式」を予め想定する。
The image plane speed calculating means 4 calculates the time change of the image plane position to obtain the image plane speed. The statistical means 5 accumulates the “image plane position” and “image plane velocity” obtained as described above as sample data. Here, “an equation of motion including the image plane position and the image plane velocity” on the object space side is assumed in advance.

【0023】この運動方程式は、被写体の移動速度や位
置、レンズ位置の測定原点などの状況が不明なために、
未定係数を含む式となる。これらの未定係数は、像面位
置と像面速度とからなる過去の標本データを複数代入し
て連立方程式を立てることにより決定することができ
る。しかし、これらの標本データは検出ばらつきを含む
ため、連立方程式から得た未定係数は信頼性が低い。
This equation of motion is obtained because the conditions such as the moving speed and position of the subject and the measurement origin of the lens position are unknown.
It becomes an expression including an undetermined coefficient. These undetermined coefficients can be determined by substituting a plurality of past sample data consisting of the image plane position and the image plane velocity and establishing simultaneous equations. However, since these sample data include detection variations, undetermined coefficients obtained from the simultaneous equations have low reliability.

【0024】そこで、統計手段5は、統計演算を用い
て、運動方程式の未定係数を決定する。予測手段6は、
決定された未定係数を含む運動方程式の解(時間関数と
なる)を求め、像面位置の時間関数を得る。一般的に
は、運動方程式は予め定められているので、既知の一般
解に未定係数をそのまま代入して、過去の標本データに
基づいて「残りの任意定数」を決定するだけでよい。
Therefore, the statistical means 5 determines an undetermined coefficient of the equation of motion by using a statistical operation. The prediction means 6
The solution of the equation of motion including the determined undetermined coefficients (which is a time function) is obtained to obtain the time function of the image plane position. Generally, since the equation of motion is predetermined, it is only necessary to substitute an undetermined coefficient as it is into a known general solution and determine “the remaining arbitrary constant” based on past sample data.

【0025】この特殊解に、予測したい所望の時間を代
入することにより、像面位置の予測値を即座に求めるこ
とができる。焦点制御手段7は、この像面位置の予測値
に基づいて、焦点制御を行う。請求項2の焦点調節装置
では、物空間における被写体の運動モデルが予め想定さ
れる。この運動モデルを実測や結像公式や光線追跡など
を用いて写像変換し、像空間側の運動方程式を定める。
By substituting a desired time to be predicted into this special solution, a predicted value of the image plane position can be immediately obtained. The focus control means 7 performs focus control based on the predicted value of the image plane position. In the focus adjusting device according to the second aspect, a motion model of the subject in the object space is assumed in advance. This motion model is mapped using actual measurement, an imaging formula, ray tracing, or the like to determine a motion equation on the image space side.

【0026】このように定められた「像空間側の運動方
程式」について、上述した予測演算が実行される。請求
項3の焦点調節装置では、図2に示すように、カメラか
ら距離hだけ離れた通過軌道上を速度vで通過する被写
体を想定する。この被写体の最至近時刻をτとし、検出
時刻をtcとすると、被写体までの距離aは、 a=[h2+{v(tc−τ)}21/2 ・・・(5) となる。
The above-described prediction calculation is performed on the “equation of motion on the image space side” determined in this manner. In the focus adjusting device according to the third aspect, as shown in FIG. 2, it is assumed that a subject passes at a speed v on a passing trajectory at a distance h from a camera. Assuming that the closest time of the subject is τ and the detection time is tc, the distance a to the subject is as follows: a = [h 2 + {v (tc−τ)} 2 ] 1/2 (5) Become.

【0027】(5)式に示される物空間側の運動モデル
を、図3に示すように、撮影光学系の焦点距離をfと
し、焦点と像面とのズレ量(像面位置の一種である)を
Yとして、近軸領域において写像変換すると、 Y=f2/[[h2+{v(tc−τ)}21/2−f] ・・・(6) となる。なお、通常の撮影では(a>>f)なので、 Y≒f2/[h2+{v(tc−τ)}21/2 ・・・(7) と近似できる。
As shown in FIG. 3, the motion model on the object space side expressed by the equation (5) is represented by the focal length f of the photographing optical system, and the shift amount between the focus and the image plane (a kind of image plane position). When Y is defined as Y and the mapping transformation is performed in the paraxial region, Y = f 2 / [[h 2 + {v (tc−τ)} 2 ] 1/2 −f] (6) Since (a >> f) in normal shooting, it can be approximated as Y と f 2 / [h 2 + {v (tc−τ)} 2 ] 1/2 (7).

【0028】(7)式のズレ量Yを時間微分して、像面
速度Vimを求めると、 Vim=−f22t/[h2+{v(tc−τ)}23/2 ・・(8) となる。上記の(8)式に(7)式を代入して,「ズレ
量Yと像面速度Vimとを含む運動方程式」を立てると、 Vim/Y3=−v2(tc−τ)/f4 ・・・(9) となる。
When the image plane velocity Vim is obtained by differentiating the deviation amount Y in the equation (7) with respect to time, Vim = −f 2 v 2 t / [h 2 + {v (tc−τ)} 2 ] 3 / 2 · (8) By substituting equation (7) into equation (8) above and formulating a “motion equation including the displacement amount Y and the image surface speed Vim”, Vim / Y 3 = −v 2 (tc−τ) / f 4 ... (9)

【0029】ここで、(9)式の未定係数を整理統合す
ることにより、2つの未定係数α,τを含む運動方程式
(1)が得られる。 Vim/Y3=α・(tc−τ) ・・・(1) ここで、像面位置算出手段3から得られたズレ量Yと、
像面速度算出手段4から得られた像面速度Vimとに基づ
いて、(1)式の左辺(Vim/Y3)を算出する。する
と、左辺(Vim/Y3)の値は、検出時刻tcの一次関
数の軌道上に乗る。
Here, the motion equation (1) including the two undetermined coefficients α and τ is obtained by consolidating the undetermined coefficients of the equation (9). Vim / Y 3 = α · (tc−τ) (1) Here, the deviation amount Y obtained from the image plane position calculation means 3 is expressed as follows:
The left side (Vim / Y 3 ) of the equation (1) is calculated based on the image plane speed Vim obtained from the image plane speed calculation means 4. Then, the value of the left side (Vim / Y 3 ) is on the trajectory of the linear function of the detection time tc.

【0030】そこで、統計手段5は、左辺(Vim/
3)と検出時刻tcとを入力変数として、次のような
一次回帰分析を行い、未定係数α,τを決定する。
Therefore, the statistical means 5 sets the left side (Vim /
Using the Y 3 ) and the detection time tc as input variables, the following linear regression analysis is performed to determine the undetermined coefficients α and τ.

【数1】 (Equation 1)

【数2】 (Equation 2)

【数3】 (Equation 3)

【数4】 上記の(10)〜(13)式の値を用いて、未定係数α,τ
は、 α=Sut/Stt ・・・(14) τ=Tav−Uav/α ・・・(15) により算出される。
(Equation 4) Using the values of the above equations (10) to (13), the undetermined coefficients α and τ
Is calculated as follows: α = Sut / Stt (14) τ = Tav−Uav / α (15)

【0031】ここで、運動方程式(1)の一般解は、 Y(tc)=1/[C−α(tc−τ)2]1/2 ・・・(16) となる。(16)式において、未定係数α,τはすでに決
定されている。(16)式中における唯一の未定係数C
は、カメラと通過軌道との距離hにかかわる値であり、
任意定数である。
Here, the general solution of the equation of motion (1) is as follows: Y (tc) = 1 / [C−α (tc−τ) 2 ] 1/2 (16) In equation (16), the undetermined coefficients α and τ have already been determined. (16) The only undetermined coefficient C in the equation
Is a value related to the distance h between the camera and the passing trajectory,
It is an arbitrary constant.

【0032】この任意定数Cは、過去のズレ量Yと検出
時刻tcとを(16)式に代入することにより即座に決定
できる。以上の演算処理により、(16)式に示すような
「ズレ量Yの時間関数」が特定される。予測手段6は、
(16)式に所望の予測時間tcを代入することにより、
ズレ量Yの予測値を算出することができる。焦点制御手
段7は、この像面位置の予測値に基づいて、焦点制御を
行う。
The arbitrary constant C can be determined immediately by substituting the past deviation amount Y and the detection time tc into the equation (16). Through the above calculation processing, the “time function of the shift amount Y” as shown in the equation (16) is specified. The prediction means 6
By substituting the desired prediction time tc into equation (16),
A predicted value of the deviation amount Y can be calculated. The focus control means 7 performs focus control based on the predicted value of the image plane position.

【0033】請求項4の焦点調節装置では、図4に示す
ように、カメラに向かって速度vで接近もしくは遠ざか
る被写体を想定する。この被写体の最至近時刻をτと
し、検出時刻をtcとすると、被写体までの距離aは、 a=v|(tc−τ)| ・・・(17) となる。
In the focus adjusting device according to the fourth aspect, as shown in FIG. 4, a subject approaching or moving away from the camera at a speed v is assumed. Assuming that the closest time of the subject is τ and the detection time is tc, the distance a to the subject is as follows: a = v | (tc−τ) | (17)

【0034】(17)式に示される物空間側の運動モデル
を、図5に示すように、撮影光学系の焦点距離をfと
し、焦点と像面とのズレ量をYとして、近軸領域におい
て写像変換すると、 Y=f2/[v|tc−τ|−f] ・・・(18) となる。なお、通常の撮影では(a>>f)なので、Y
≒f2/[v|tc−τ|] ・・・(19) と近似できる。
As shown in FIG. 5, the motion model on the object space side expressed by the equation (17) is represented by the paraxial region where the focal length of the photographing optical system is f, and the shift amount between the focal point and the image plane is Y. , The following equation is obtained: Y = f 2 / [v | tc−τ | −f] (18) Incidentally, since (a >> f) in normal shooting, Y
≒ f 2 / [v | tc−τ |] (19)

【0035】ここで、像面位置算出手段3は、同じ単位
系に換算されたレンズ位置Lとデフォーカス量DFとを
用いて、 Yc=L+DF ・・・(20) を算出し、像面位置Ycを求める。このような場合、図
5に示すように、像面位置Ycとズレ量Yとは、 Y=Yc−Cp ・・・(21) の関係を有する。
Here, the image plane position calculating means 3 calculates Yc = L + DF (20) using the lens position L and the defocus amount DF converted into the same unit system, and calculates the image plane position. Find Yc. In such a case, as shown in FIG. 5, the image plane position Yc and the shift amount Y have a relationship of Y = Yc-Cp (21).

【0036】ここでは、レンズ位置検出手段2における
測定オフセットが、焦点調節装置側において不明である
場合を想定して、Cpを未定係数として取り扱う。もち
ろん、測定オフセットが既知の場合は、Cpを即座に決
定することができる。ここで、(19)式に(21)式を代
入して、 Yc=f2/[v|tc−τ|]+Cp ・・・(22) となる。
Here, Cp is treated as an undetermined coefficient on the assumption that the measurement offset in the lens position detecting means 2 is unknown on the focus adjusting device side. Of course, if the measurement offset is known, Cp can be determined immediately. Here, the equation (21) is substituted into the equation (19), and Yc = f 2 / [v | tc−τ |] + Cp (22)

【0037】(22)式の像面位置Ycを時間微分して、
像面速度の大きさ|Vim|を求めると、 |Vim|=f2/[v(tc−τ)2] ・・・(23) となる。上記の(22)式に(23)式を代入して、「像面
位置Ycと像面速度Vimとを含む運動方程式」を立てる
と、 Yc=f・(|Vim|/v)1/2+Cp ・・・(24) となる。
The image plane position Yc in equation (22) is differentiated with respect to time,
When the magnitude | Vim | of the image plane velocity is obtained, | Vim | = f 2 / [v (tc−τ) 2 ] (23) By substituting equation (23) into equation (22) above and formulating a “motion equation including the image plane position Yc and the image plane velocity Vim”, Yc = f · (| Vim | / v) 1/2 + Cp (24)

【0038】ここで、(24)式の未定係数を整理統合す
ることにより、2つの未定係数β,Cpを含む運動方程
式(2)が得られる。 Yc=β・|Vim|1/2+Cp ・・・(2) ここで、統計手段5は、像面位置Ycと、像面速度の平
方根(|Vim|1/2)とを入力変数として、次のような
一次回帰分析を行い、未定係数β,Cpを適正に決定す
る。
Here, the motion equation (2) including the two undetermined coefficients β and Cp is obtained by consolidating the undetermined coefficients of the equation (24). Yc = β · | Vim | 1/2 + Cp (2) Here, the statistical means 5 uses the image plane position Yc and the square root of the image plane velocity (| Vim | 1/2 ) as input variables. The following linear regression analysis is performed to determine the undetermined coefficients β and Cp properly.

【数5】 (Equation 5)

【数6】 (Equation 6)

【数7】 (Equation 7)

【数8】 上記の(25)〜(28)式の値を用いて、未定係数β,C
pは、 β=Syy/Syr ・・・(29) τ=Yav−β・Rav ・・・(30) により算出される。
(Equation 8) Using the values of the above equations (25) to (28), the undetermined coefficients β, C
p is calculated as follows: β = Syy / Syr (29) τ = Yav−β · Rav (30)

【0039】ここで、運動方程式(2)の一般解は、 Yc(tc)=β2/|tc−τ|+Cp ・・・(31) となる。Here, the general solution of the equation of motion (2) is as follows: Yc (tc) = β 2 / | tc−τ | + Cp (31)

【0040】(31)式中における唯一の未定係数τは、
被写体の最至近時刻τにかかわる値であり、任意定数で
ある。この任意定数τは、過去の像面位置Ycと検出時
刻tcとを(31)式に代入することにより即座に決定で
きる。以上の演算処理により、(31)式に示すような
「像面位置Ycの時間関数」が特定される。
The only undetermined coefficient τ in equation (31) is
This is a value related to the closest time τ of the subject, and is an arbitrary constant. The arbitrary constant τ can be immediately determined by substituting the past image plane position Yc and the detection time tc into the equation (31). Through the above calculation processing, the “time function of the image plane position Yc” as shown in Expression (31) is specified.

【0041】予測手段6は、(31)式に所望の予測時間
tcを代入することにより、像面位置Ycの予測値を算
出することができる。焦点制御手段7は、この像面位置
の予測値に基づいて、焦点制御を行う。請求項5の焦点
調節装置では、統計手段5が、複数の運動方程式につい
て回帰分析を行う。統計手段5は、これらの回帰分析を
行う過程において、寄与率の高い運動方程式を採用す
る。
The prediction means 6 can calculate a predicted value of the image plane position Yc by substituting a desired prediction time tc into the equation (31). The focus control means 7 performs focus control based on the predicted value of the image plane position. According to a fifth aspect of the present invention, the statistical means performs regression analysis on a plurality of equations of motion. In the process of performing these regression analyses, the statistical means 5 employs a motion equation having a high contribution rate.

【0042】このような作用により、統計手段5は、被
写体の運動と合致する運動方程式をを、寄与率に基づい
て適確に選択することができる。したがって、予測手段
6は、適確な運動方程式の解(時間関数)を用いて、像
面位置の予測値を確実に的中させ、焦点の合焦精度を格
段に向上させることができる。
With such an operation, the statistical means 5 can properly select a motion equation that matches the motion of the subject based on the contribution rate. Therefore, the predicting means 6 can reliably hit the predicted value of the image plane position by using an accurate solution (time function) of the equation of motion, and can remarkably improve the focus focusing accuracy.

【0043】請求項6の焦点調節装置では、複数の運動
方程式として、衝突被写体を想定した(2)式と、通過
被写体を想定した(3)式とを使用する。統計手段5
は、まず、(2)式に基づく回帰分析を行って、未定係
数β,Cpを決定する。この回帰分析の寄与率Ctが高
く保持されている期間中は、統計手段5および予測手段
6は、衝突被写体の運動方程式(2)に基づく予測演算
を実行する。
In the focus adjusting apparatus according to the sixth aspect, the equations (2) assuming a collision subject and the equations (3) assuming a passing subject are used as a plurality of equations of motion. Statistical means 5
First, a regression analysis based on the equation (2) is performed to determine the undetermined coefficients β and Cp. During the period when the contribution ratio Ct of the regression analysis is kept high, the statistical means 5 and the prediction means 6 execute a prediction calculation based on the equation of motion (2) of the collision subject.

【0044】一方、この回帰分析の寄与率Ctが低下す
ると、統計手段5および予測手段6は、通過被写体の運
動方程式(3)に基づく予測に移行する。通常、被写体
までの距離aが十分離れている状況下では、「通過被写
体の運動モデル」は「衝突被写体の運動モデル」と略一
致する。また、焦点制御の開始時には、被写体がカメラ
から十分離れている公算が高い。
On the other hand, when the contribution ratio Ct of the regression analysis decreases, the statistical means 5 and the prediction means 6 shift to the prediction based on the equation of motion (3) of the passing subject. Normally, under a situation where the distance a to the subject is sufficiently large, the “motion model of the passing subject” substantially matches the “motion model of the collision subject”. At the start of the focus control, the subject is likely to be sufficiently away from the camera.

【0045】したがって、焦点制御の開始時に、衝突被
写体であると専断して予測を開始することにより、通過
被写体および衝突被写体のどちらについても、確実な予
測演算を迅速に開始することができる。さらに、寄与率
Ctの低下に伴って、通過被写体の運動方程式(3)に
基づく予測に移行するので、通過被写体については、適
確な予測演算に円滑に移行することができる。
Therefore, when the focus control is started, the prediction is started exclusively by deciding that the subject is a collision subject, so that a reliable prediction calculation can be quickly started for both the passing subject and the collision subject. Furthermore, since the process shifts to prediction based on the equation of motion (3) of the passing subject with a decrease in the contribution ratio Ct, it is possible to smoothly shift to an accurate prediction calculation for the passing subject.

【0046】請求項7の焦点調節装置では、予測手段6
が、運動方程式の解を線形近似して求める。例えば、通
過被写体を想定して未定係数α,τを決定することによ
り、運動方程式は、 Vim(Y,tc)=α・(tc−τ)・Y3・・・(32) となる。
According to the seventh aspect of the present invention, the predicting means 6
Is obtained by linearly approximating the solution of the equation of motion. For example, by determining the undetermined coefficients α and τ assuming a passing subject, the equation of motion is as follows: Vim (Y, tc) = α · (tc−τ) · Y 3 (32)

【0047】この(32)式の両辺を時間微分することに
より、像面加速度Aimは、 Aim(Y,tc)=α・Y3+3α(tc−τ)・Y2・Vim =α・Y3・[1+3{α(tc−τ)・Y}2]・・(33) となる。したがって、検出時刻t0において像面位置Y0
とすると、所定時間Δt後の像面位置は、 Y(t0+Δt)=Y0+Vim(Y0,t0)・Δt+Aim(Y0,t0)・Δt2/2 ・・(34) の形に線形近似される。
By time-differentiating both sides of the equation (32), the image plane acceleration Aim is calculated as follows: Aim (Y, tc) = α · Y 3 + 3α (tc−τ) · Y 2 · Vim = α · Y 3 [1 + 3 {α (tc-τ) ・ Y} 2 ] (33) Therefore, at the detection time t0, the image plane position Y0
When the image plane position after a predetermined time Delta] t is, Y (t0 + Δt) = Y0 + Vim (Y0, t0) · Δt + Aim (Y0, t0) · Δt is linearly approximated in the form of 2/2 ... (34).

【0048】一般的には、運動方程式を複数回微分して
n次の微分係数を求め、テイラー級数に代入することに
より、n次の剰余項の誤差範囲で、所定時間後の像面位
置を線形近似することができる。従来例の線形予測で
は、像面位置Yの前回差分から像面速度Vimを算出して
いる。そのため、像面位置Yと像面速度Vimとの間に
は、位相差が生じる。像面加速度Aimの算出では、さら
に過去の3時点の像面位置Yが必要となるため、より大
きな位相差が生じる。
In general, the nth order differential coefficient is obtained by differentiating the equation of motion a plurality of times and substituted into the Taylor series, so that the image plane position after a predetermined time can be obtained within the error range of the nth order remainder term. It can be linearly approximated. In the conventional linear prediction, the image plane speed Vim is calculated from the previous difference of the image plane position Y. Therefore, a phase difference occurs between the image plane position Y and the image plane velocity Vim. In the calculation of the image plane acceleration Aim, the image plane position Y at the past three time points is further required, so that a larger phase difference occurs.

【0049】したがって、従来の線形予測では、これら
の位相差が誤差として累積されるため、近似精度が低か
った。しかし、本発明の線形近似では、運動方程式から
n次の微分係数を直接求めているので、前述の位相差が
誤差として累積することがなく、高い近似精度を得るこ
とができる。
Therefore, in the conventional linear prediction, since these phase differences are accumulated as errors, the approximation accuracy is low. However, in the linear approximation of the present invention, since the n-th order differential coefficient is directly obtained from the equation of motion, the above-described phase difference does not accumulate as an error, and a high approximation accuracy can be obtained.

【0050】なお、ここでは線形近似としてテイラー級
数を採用した場合について代表的に説明したが、それに
限定されるものではない。例えば、線形近似としては、
ニュートン・ラフソン法その他の漸近的手法を使用して
もよい。これらの場合も、漸近を繰り返すたびに、前述
の位相差が誤差として累積することがないので、高い近
似精度を得ることができる。
Although the case where the Taylor series is employed as the linear approximation has been described above, the present invention is not limited to this. For example, as a linear approximation:
Newton-Raphson methods and other asymptotic techniques may be used. Also in these cases, the above-described phase difference does not accumulate as an error each time asymptotics are repeated, so that high approximation accuracy can be obtained.

【0051】[0051]

【発明の実施の形態】以下、図面に基づいて本発明にお
ける実施の形態を説明する。図6は、請求項1〜6に対
応する実施形態を示す図である。図6において、カメラ
ボディ11の前面には鏡筒12が取り付けられ、鏡筒1
2の内部には撮影光学系13が配置される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 6 is a diagram showing an embodiment corresponding to the first to sixth aspects. In FIG. 6, a lens barrel 12 is attached to a front surface of a camera body 11, and a lens barrel 1 is provided.
An imaging optical system 13 is disposed inside the camera 2.

【0052】撮影光学系13の光軸上には、ミラー14
およびサブミラー15が順に配置され、サブミラー15
の反射方向には焦点検出部16が配置される。この焦点
検出部16の光電出力は、A/D変換部17を介してマ
イクロプロセッサ18に接続される。
A mirror 14 is provided on the optical axis of the photographing optical system 13.
And the sub-mirror 15 are arranged in order.
The focus detection unit 16 is arranged in the reflection direction of. The photoelectric output of the focus detector 16 is connected to a microprocessor 18 via an A / D converter 17.

【0053】また、マイクロプロセッサ18のPWM
(パルス幅変調)出力は、ドライブ回路19aを介して
モータ19に接続され、モータ19の駆動力は、鏡筒1
2内のレンズ駆動機構20に伝達される。このレンズ駆
動機構20は、撮影光学系13の焦点調節用レンズ群を
前後に繰り出す。モータ19の駆動軸には、回転数を検
出するエンコーダ21が設置され、エンコーダ21のパ
ルス出力は、マイクロプロセッサ18に接続される。ま
た、マイクロプロセッサ18には、レリーズ釦22が接
続される。
The PWM of the microprocessor 18
The (pulse width modulation) output is connected to a motor 19 via a drive circuit 19a.
2 is transmitted to the lens drive mechanism 20. The lens drive mechanism 20 extends the focus adjusting lens group of the photographing optical system 13 forward and backward. An encoder 21 for detecting the number of rotations is provided on a drive shaft of the motor 19, and a pulse output of the encoder 21 is connected to the microprocessor 18. A release button 22 is connected to the microprocessor 18.

【0054】図7は、マイクロプロセッサ18の内部機
能を説明するブロック図である。以下、マイクロプロセ
ッサ18の内部動作を図7に対応付けて説明する。ま
ず、焦点検出部16の光電出力は、デフォーカス量算出
部31に伝達される。デフォーカス量算出部31は公知
の相関演算を用いてデフォーカス量の算出を行う。
FIG. 7 is a block diagram for explaining the internal functions of the microprocessor 18. Hereinafter, the internal operation of the microprocessor 18 will be described with reference to FIG. First, the photoelectric output of the focus detection unit 16 is transmitted to the defocus amount calculation unit 31. The defocus amount calculation unit 31 calculates the defocus amount using a known correlation operation.

【0055】また、エンコーダ21のパルス出力は、レ
ンズ位置算出部32に伝達される。レンズ位置算出部3
2は、パルス出力を計数してレンズ位置の算出を行う。
このように算出されたデフォーカス量およびレンズ位置
は、像面位置算出部33に伝達される。像面位置算出部
33は、これらの値を同一単位に換算した後に加算し
て、像面位置Ycを算出する。
The pulse output of the encoder 21 is transmitted to the lens position calculator 32. Lens position calculator 3
Reference numeral 2 calculates the lens position by counting the pulse output.
The defocus amount and the lens position calculated in this way are transmitted to the image plane position calculation unit 33. The image plane position calculation unit 33 calculates the image plane position Yc by converting these values into the same unit and adding them.

【0056】この像面位置Ycは、像面速度算出部34
に伝達される。像面速度算出部34は、像面位置Ycの
時間変化を算出して、像面速度Vimを求める。これらの
像面位置Ycおよび像面速度Vimは、検出時刻tcと共
にデータ格納部35に蓄積される。このように蓄積され
た標本データは、回帰分析部36に逐次読み出される。
回帰分析部36は、運動モデル選択部37を介して、運
動モデル格納部38から回帰分析の演算手順を取り込
む。回帰分析部36は、この演算手順に基づいて、上記
の標本データに対する回帰分析を実行する。
The image plane position Yc is calculated by the image plane speed calculation unit 34.
Is transmitted to The image plane speed calculation unit 34 calculates the time change of the image plane position Yc to obtain the image plane velocity Vim. The image plane position Yc and the image plane speed Vim are stored in the data storage unit 35 together with the detection time tc. The sample data thus accumulated is sequentially read out to the regression analysis unit 36.
The regression analysis unit 36 fetches a regression analysis calculation procedure from the exercise model storage unit 38 via the exercise model selection unit 37. The regression analysis unit 36 performs a regression analysis on the sample data based on the calculation procedure.

【0057】回帰分析の演算過程で求められた寄与率C
tは、運動モデル選択部37に帰還される。運動モデル
選択部37は、この寄与率Ctの値に応じて、運動モデ
ル格納部38の演算手順を切り換える。回帰分析部36
において決定された未定係数は、像面位置予測部39に
伝達される。像面位置予測部39は、未定係数に基づい
て像面位置の時間関数を求め、像面位置を予測する。
The contribution rate C obtained in the calculation process of the regression analysis
t is returned to the exercise model selection unit 37. The exercise model selection unit 37 switches the operation procedure of the exercise model storage unit 38 according to the value of the contribution ratio Ct. Regression analysis unit 36
The undetermined coefficient determined in is transmitted to the image plane position prediction unit 39. The image plane position prediction unit 39 calculates the time function of the image plane position based on the undetermined coefficient, and predicts the image plane position.

【0058】像面位置予測部39において予測された像
面位置は、モータ駆動量算出部40に伝達される。モー
タ駆動量算出部40は、この像面位置の予測値などに基
づいてモータ駆動量を決定し、ドライブ回路19aに出
力する。なお、請求項1〜6に記載の発明と本実施形態
との対応関係については、焦点検出手段1は焦点検出部
16およびデフォーカス量算出部31に対応し、レンズ
位置検出手段2はエンコーダ21およびレンズ位置算出
部32に対応し、像面位置算出手段3は像面位置算出部
33に対応し、像面速度算出手段4は像面速度算出部3
4に対応し、統計手段5はデータ格納部35,回帰分析
部36,運動モデル選択部37および運動モデル格納部
38に対応し、予測手段6は像面位置予測部39に対応
し、焦点制御手段7はモータ駆動量算出部40,モータ
19およびレンズ駆動機構20に対応する。
The image plane position predicted by the image plane position prediction section 39 is transmitted to the motor drive amount calculation section 40. The motor drive amount calculation unit 40 determines the motor drive amount based on the predicted value of the image plane position and outputs the motor drive amount to the drive circuit 19a. As for the correspondence between the invention described in claims 1 to 6 and the present embodiment, the focus detection means 1 corresponds to the focus detection section 16 and the defocus amount calculation section 31, and the lens position detection means 2 corresponds to the encoder 21. The image plane position calculation unit 3 corresponds to the image plane position calculation unit 33, and the image plane speed calculation unit 4 corresponds to the image plane speed calculation unit 3.
4, the statistical unit 5 corresponds to the data storage unit 35, the regression analysis unit 36, the motion model selection unit 37, and the motion model storage unit 38, the prediction unit 6 corresponds to the image plane position prediction unit 39, and the focus control. The means 7 corresponds to the motor drive amount calculation section 40, the motor 19, and the lens drive mechanism 20.

【0059】図8および図9は、本実施形態の動作を示
す流れ図である。以下、流れ図に沿って、マイクロプロ
セッサ18の処理手順と演算例とを順に説明する。ま
ず、レリーズ釦22が半押しされると(ステップS
1)、焦点検出部16ににおいて、光電荷の蓄積が開始
される。蓄積された光電荷は転送され、光電出力として
マイクロプロセッサ18に取り込まれる。
FIGS. 8 and 9 are flowcharts showing the operation of the present embodiment. Hereinafter, the processing procedure of the microprocessor 18 and a calculation example will be sequentially described with reference to a flowchart. First, when the release button 22 is half-pressed (step S
1) In the focus detection unit 16, accumulation of photocharge is started. The accumulated photocharge is transferred and taken into the microprocessor 18 as a photoelectric output.

【0060】マイクロプロセッサ18は、この光電出力
に対して公知の相関演算を行い、撮像面と被写体像面と
の間隔に相当するデフォーカス量DFを算出する(ステ
ップS2)。一方、エンコーダ21からは、モータ19
の回転量がパルス出力として出力され、マイクロプロセ
ッサ18に伝達される。マイクロプロセッサ18は、こ
のパルス出力を数えて、焦点検出部16の蓄積中心時刻
(以下、この蓄積中心時刻を「検出時刻tc」とする)
におけるレンズ位置Lを検出する(ステップS3)。な
お、このレンズ位置Lは、一般に測定原点が不明な相対
値である。
The microprocessor 18 performs a well-known correlation operation on the photoelectric output to calculate a defocus amount DF corresponding to a distance between the imaging surface and the subject image surface (step S2). On the other hand, from the encoder 21, the motor 19
Is output as a pulse output and transmitted to the microprocessor 18. The microprocessor 18 counts the pulse output and calculates the accumulation center time of the focus detection unit 16 (hereinafter, this accumulation center time is referred to as “detection time tc”).
Is detected (step S3). The lens position L is a relative value whose measurement origin is generally unknown.

【0061】ここで、マイクロプロセッサ18は、これ
らのデフォーカス量DFとレンズ位置Lとを加算して、
像面位置Ycを求める(ステップS4)。図10は、通
過被写体の像面位置Ycの時間変化を示した図である。
以下、図中の黒点を標本データとして演算例を算出す
る。次に、マイクロプロセッサ18は、像面位置Ycの
前回差分に基づいて、像面速度Vimを算出する(ステッ
プS5)。
Here, the microprocessor 18 adds the defocus amount DF and the lens position L, and
The image plane position Yc is obtained (step S4). FIG. 10 is a diagram showing a temporal change of the image plane position Yc of the passing subject.
Hereinafter, a calculation example is calculated using the black points in the figure as sample data. Next, the microprocessor 18 calculates the image plane speed Vim based on the previous difference of the image plane position Yc (Step S5).

【0062】このように算出された像面位置Ycおよび
像面速度Vimは、標本データとして、検出時刻tcと共
にマイクロプロセッサ18の内部記憶領域に蓄積される
(ステップS6)。この状態で、マイクロプロセッサ1
8は、標本データの数が所定数を超えるか否かを判定し
(ステップS7)、所定値を超えるまで従来通りの焦点
制御を実行する(ステップS8)。
The image plane position Yc and the image plane speed Vim calculated in this way are stored as sample data in the internal storage area of the microprocessor 18 together with the detection time tc (step S6). In this state, the microprocessor 1
8 judges whether or not the number of sample data exceeds a predetermined number (step S7), and executes conventional focus control until the number exceeds a predetermined value (step S8).

【0063】一方、標本データの数が所定数を超えると
(ステップS7)、マイクロプロセッサ18は、衝突被
写体を想定した回帰分析を次のように開始する。まず、
マイクロプロセッサ18は、回帰分析の入力変数とし
て、像面位置Ycと、像面速度の大きさの平方根(|V
im|1/2)とをそれぞれ求める。図11は、縦軸に像面
位置Ycをとり、横軸に(|Vim|1/2)をとって、像
面位置の状態軌跡を描いた図である。衝突被写体の場
合、この状態軌道は直線軌道となる。図11に示した被
写体は、通過被写体であるため、カメラに近づくに従っ
て、この直線軌道から外れる。
On the other hand, when the number of sample data exceeds a predetermined number (step S7), the microprocessor 18 starts a regression analysis assuming a collision subject as follows. First,
The microprocessor 18 inputs the image plane position Yc and the square root of the magnitude of the image plane velocity (| V
im | 1/2 ). FIG. 11 is a diagram illustrating the state locus of the image plane position, with the image plane position Yc taken on the vertical axis and (| Vim | 1/2 ) taken on the horizontal axis. In the case of a collision object, this state trajectory is a straight trajectory. Since the subject shown in FIG. 11 is a passing subject, it deviates from this linear trajectory as approaching the camera.

【0064】マイクロプロセッサ18は、2つの入力変
数について、上述の(25)〜(30)式を算出し、下記の
運動方程式(2)の未定係数β,Cpを決定する(ステ
ップS9)。 Yc=β・|Vim|1/2+Cp ・・・(2) 次に、マイクロプロセッサ18は、
The microprocessor 18 calculates the above equations (25) to (30) for the two input variables, and determines the undetermined coefficients β and Cp of the following equation of motion (2) (step S9). Yc = β · | Vim | 1/2 + Cp (2) Next, the microprocessor 18

【数9】 を算出し、上述の(27)式,(28)式,(35)式の値に
基づいて、 Ct=Syr2/(Syy・Srr) ・・・(36) を算出し、回帰分析の寄与率Ctを求める。
(Equation 9) Is calculated, and Ct = Syr 2 / (Syy · Srr) (36) is calculated based on the values of the above equations (27), (28) and (35), and the contribution of the regression analysis is calculated. Determine the rate Ct.

【0065】マイクロプロセッサ18は、この寄与率C
tを閾値判定する(ステップS10)。寄与率Ctが閾
値(例えば、0.8)以上の場合、マイクロプロセッサ
18は、被写体を衝突被写体と判定する。そこで、運動
方程式(2)の一般解(37)式に対して、過去の標本デ
ータを代入して、残りの任意定数τを決定する(ステッ
プS11)。
The microprocessor 18 calculates the contribution rate C
The threshold value of t is determined (step S10). If the contribution ratio Ct is equal to or greater than a threshold value (for example, 0.8), the microprocessor 18 determines that the subject is a collision subject. Therefore, the remaining arbitrary constant τ is determined by substituting the past sample data into the general solution equation (37) of the equation of motion (2) (step S11).

【0066】 Yc(tc)=β2/|tc−τ|+Cp ・・・(37) 以上説明した演算処理により、(37)式に示す「像面位
置Ycの時間関数」が特定される。マイクロプロセッサ
18は、(37)式に所望の予測時間tcを代入すること
により、像面位置Ycの予測値を算出する(ステップS
12)。この予測値に基づいて焦点制御が実行される
(ステップS13)。
Yc (tc) = β 2 / | tc−τ | + Cp (37) The “time function of the image plane position Yc” shown in Expression (37) is specified by the above-described arithmetic processing. The microprocessor 18 calculates a predicted value of the image plane position Yc by substituting a desired predicted time tc into the equation (37) (Step S).
12). Focus control is performed based on the predicted value (step S13).

【0067】一方、ステップS10において、寄与率C
tが閾値(例えば、0.8)を下回ると、マイクロプロ
セッサ18は、被写体を通過被写体と判定する。そこ
で、マイクロプロセッサ18は、衝突被写体を想定した
運動方程式(2)から、通過被写体を想定した運動方程
式(3)に切り換える。
On the other hand, in step S10, the contribution rate C
When t falls below a threshold value (for example, 0.8), the microprocessor 18 determines that the subject is a passing subject. Therefore, the microprocessor 18 switches from the equation of motion (2) assuming a collision subject to the equation of motion (3) assuming a passing subject.

【0068】まず、マイクロプロセッサ18は、衝突被
写体の判定時に求めておいた未定係数Cpを用いて、 Y=Yc−Cp ・・・(38) を算出し、焦点と像面とのズレ量Yを算出する(ステッ
プS14)。次に、マイクロプロセッサ18は、回帰分
析の入力変数として、検出時刻tcと、(Vim/Y3
とをそれぞれ求める。
First, the microprocessor 18 calculates Y = Yc−Cp (38) using the undetermined coefficient Cp obtained at the time of determining the collision subject, and calculates the amount of deviation Y between the focal point and the image plane. Is calculated (step S14). Next, the microprocessor 18 detects the detection time tc and (Vim / Y 3 ) as input variables for the regression analysis.
And ask for each.

【0069】図12は、縦軸に(Vim/Y3)をとり、
横軸に検出時刻tcをとって、像面位置の状態軌跡を描
いた図である。通過被写体の場合、この状態軌道は直線
軌道となる。マイクロプロセッサ18は、これらの入力
変数について、上述の(10)〜(15)式を算出し、下記
の運動方程式(3)の未定係数α,τを決定する(ステ
ップS15)。
FIG. 12 shows (Vim / Y 3 ) on the vertical axis,
FIG. 7 is a diagram illustrating a state trajectory of an image plane position with a detection time tc taken on a horizontal axis. In the case of a passing subject, this state trajectory is a straight trajectory. The microprocessor 18 calculates the above equations (10) to (15) for these input variables, and determines the undetermined coefficients α and τ of the following equation of motion (3) (step S15).

【0070】 Vim/(Yc−Cp)3=α・(tc−τ) ・・・(3) 次に、マイクロプロセッサ18は、Vim / (Yc−Cp) 3 = α · (tc−τ) (3) Next, the microprocessor 18

【数10】 を算出し、上述の(12)式,(13)式,(39)式の各分
散値に基づいて、 Ct′=Sut2/(Suu・Stt) ・・・(36) を算出し、回帰分析の寄与率Ct′を求める。
(Equation 10) Is calculated, and Ct ′ = Sut 2 / (Suu · Stt) (36) is calculated based on the respective variance values of the above-described equations (12), (13), and (39), and regression is performed. The contribution ratio Ct 'of the analysis is obtained.

【0071】マイクロプロセッサ18は、この寄与率C
t′を閾値判定する(ステップS16)。寄与率Ct′
が閾値(例えば、0.8)を下回る場合、想定した運動
方程式に被写体の動きが適合しないので、従来通りの焦
点制御を実施する(ステップS17)。
The microprocessor 18 calculates the contribution rate C
The threshold value of t 'is determined (step S16). Contribution ratio Ct '
Is smaller than a threshold value (for example, 0.8), since the motion of the subject does not conform to the assumed equation of motion, the conventional focus control is performed (step S17).

【0072】一方、寄与率Ct′が閾値(例えば、0.
8)以上の場合、マイクロプロセッサ18は、被写体を
通過被写体と判定する。そこで、マイクロプロセッサ1
8は、運動方程式(3)の一般解(40)式に、対し、過
去の標本データを代入して、残りの任意定数Cを決定す
る(ステップS18)。
On the other hand, when the contribution ratio Ct 'is a threshold (for example, 0.
8) In the above case, the microprocessor 18 determines that the subject is a passing subject. Therefore, the microprocessor 1
8 determines the remaining constant C by substituting the past sample data into the general solution (40) of the equation of motion (3) (step S18).

【0073】 Yc(tc)=1/[C−α(tc−τ)2]1/2+Cp ・・・(40) 図13は、過去の標本データにおける任意定数Cのばら
つきを示す図である。以上説明した演算処理により、
(40)式に示す「像面位置Ycの時間関数」が特定され
る。マイクロプロセッサ18は、(40)式に所望の予測
時間tcを代入することにより、像面位置Ycの予測値
を算出する(ステップS19)。この予測値に基づく焦
点制御が実行される(ステップS20)。
Yc (tc) = 1 / [C−α (tc−τ) 2 ] 1/2 + Cp (40) FIG. 13 is a diagram showing the variation of the arbitrary constant C in the past sample data. . By the above-described arithmetic processing,
The “time function of the image plane position Yc” shown in Expression (40) is specified. The microprocessor 18 calculates a predicted value of the image plane position Yc by substituting a desired predicted time tc into the equation (40) (step S19). Focus control based on the predicted value is performed (step S20).

【0074】図14は、上述の演算処理の結果を示す図
である。標本データ(図中の黒点)に基づいて上述の演
算処理を行った結果、像面位置Ycの予測関数(図中の
曲線)が得られる。この予測関数は、未来の像面位置
(図中の白点)と極めて精度よく一致する。以上説明し
た動作により、本実施形態の焦点調節装置では、予め想
定された運動方程式の未定係数を決定することにより、
像面位置を正確かつ簡便に予測することができる。
FIG. 14 is a diagram showing the result of the above-described arithmetic processing. As a result of performing the above-described arithmetic processing based on the sample data (black points in the figure), a prediction function (curve in the figure) of the image plane position Yc is obtained. This prediction function matches the future image plane position (white point in the figure) with extremely high accuracy. By the operation described above, the focus adjusting device of the present embodiment determines the undetermined coefficient of the motion equation assumed in advance,
It is possible to accurately and easily predict the image plane position.

【0075】また、運動方程式の未定係数を統計演算に
より決定するので、低照度の被写体もしくは低コントラ
ストの被写体のようにデフォーカス量DFが大きくばら
つく場合も、高精度に像面位置を予測することができ
る。さらに、物空間側において想定される被写体の運動
モデルを写像変換した「像空間側の運動方程式」を採用
しているので、現実の像面位置の複雑な運動を精度よく
近似する。したがって、このような運動方程式を採用す
ることにより、精細かつ的確に像面位置を予測すること
ができる。
Further, since the undetermined coefficient of the equation of motion is determined by a statistical operation, the image plane position can be predicted with high accuracy even when the defocus amount DF greatly varies, such as a low-illuminance subject or a low-contrast subject. Can be. Furthermore, since the "motion equation on the image space side" obtained by mapping-converting the motion model of the subject assumed on the object space side is adopted, the complicated motion of the actual image plane position is accurately approximated. Therefore, by employing such an equation of motion, it is possible to precisely and accurately predict an image plane position.

【0076】また、運動方程式(1)および運動方程式
(2)は、高次の微分項(像面加速度など)を含まない
ので、演算過程において高域ノイズや位相遅れの影響を
受けず、像面位置を高精度に予測することができる。さ
らに、回帰分析の寄与率に従って、運動方程式を選択す
るので、被写体の運動と合致する運動方程式を適確かつ
柔軟に切り換えることができる。
Since the equations of motion (1) and (2) do not include higher-order differential terms (image plane acceleration, etc.), they are not affected by high-frequency noise or phase delay in the calculation process, and The surface position can be predicted with high accuracy. Further, since the motion equation is selected according to the contribution rate of the regression analysis, the motion equation that matches the motion of the subject can be switched accurately and flexibly.

【0077】また、本実施形態では、焦点制御の開始時
に、衝突被写体との前提にたって予測を開始するので、
遠方において運動が近似する通過被写体および衝突被写
体の両者について、的確な予測演算を迅速に開始するこ
とができる。なお、上述した実施形態では、2つの入力
変数を使用した回帰分析について述べたが、運動方程式
によっては入力変数を2種類以上とってもよく、その場
合には、多重回帰分析の手法を使用することができる。
In the present embodiment, at the time of starting the focus control, the prediction is started on the assumption that the subject is a collision object.
Accurate prediction calculations can be quickly started for both the passing subject and the colliding subject whose motions are similar in the distance. In the above-described embodiment, the regression analysis using two input variables has been described. However, two or more input variables may be used depending on the equation of motion. In this case, a multiple regression analysis method may be used. it can.

【0078】また、上述した実施形態では、運動方程式
を一次関数の形に変形して一次回帰分析を行っている
が、一次関数の形に限定されるものではない。一般的
に、所定の関数形について最小二乗誤差を得る未定係数
を特定すればよいので、二次関数,指数関数その他の多
様な関数の形を採用することができる。さらに、上述し
た実施形態では、寄与率Ctに基づいて、運動方程式を
選択しているが、寄与率Ctに限定されるものではな
く、寄与率Ctに換算可能な値であればよい。例えば、
相関係数,最小二乗誤差などに基づいて運動方程式を選
択してよい。
In the above embodiment, the equation of motion is transformed into a linear function to perform the linear regression analysis. However, the present invention is not limited to the linear function. In general, it is sufficient to specify an undetermined coefficient for obtaining a least square error for a predetermined function form, so that a form of a quadratic function, an exponential function, or other various functions can be adopted. Further, in the above-described embodiment, the equation of motion is selected based on the contribution ratio Ct, but the present invention is not limited to the contribution ratio Ct, and may be any value that can be converted to the contribution ratio Ct. For example,
The equation of motion may be selected based on a correlation coefficient, a least square error, or the like.

【0079】また、上述した実施形態では、運動方程式
の解に所望の予測時間を直接代入して像面位置を予測し
ているが、それに限定されるものではない。請求項7に
記載の発明のように、運動方程式の解を線形近似して求
めることにより、像面位置の予測値を算出してもよい。
例えば、ニュートン・ラフソン法や、上述した(34)式
などを用いて像面位置を予測することができる。
In the above-described embodiment, the image plane position is predicted by directly substituting the desired prediction time into the solution of the equation of motion. However, the present invention is not limited to this. As in the seventh aspect of the present invention, the predicted value of the image plane position may be calculated by obtaining the solution of the equation of motion by linear approximation.
For example, the image plane position can be predicted using the Newton-Raphson method, the above-described equation (34), or the like.

【0080】[0080]

【発明の効果】以上説明したように、請求項1に記載の
発明では、予め想定された運動方程式の未定係数を決定
することにより、像面位置を予測する。したがって、像
面位置の複雑な運動に対しても、上記の未定係数を決定
するだけで、像面位置を正確かつ簡便に予測することが
できる。
As described above, according to the first aspect of the present invention, the image plane position is predicted by determining the undetermined coefficient of the motion equation assumed in advance. Therefore, even for a complicated movement of the image plane position, the image plane position can be accurately and simply predicted simply by determining the undetermined coefficient.

【0081】特に、カメラの近くまで接近する被写体,
または高速に移動する被写体では、像面速度や像面加速
度が複雑に変化する。本発明では、このような被写体に
ついて、特に高い予測精度を得ることができる。また、
運動方程式の未定係数を統計演算により決定しているの
で、デフォーカス量の測定ばらつきの影響を受けず、未
定係数を正確に決定することができる。
In particular, a subject approaching the camera
Alternatively, for an object moving at high speed, the image plane speed and the image plane acceleration change in a complicated manner. According to the present invention, particularly high prediction accuracy can be obtained for such a subject. Also,
Since the undetermined coefficient of the equation of motion is determined by the statistical calculation, the undetermined coefficient can be accurately determined without being affected by the measurement variation of the defocus amount.

【0082】したがって、低照度の被写体もしくは低コ
ントラストの被写体のように、デフォーカス量の測定バ
ラツキが大きくなる被写体についても、高精度に像面位
置を予測することができる。請求項2に記載の発明で
は、物空間側において想定される被写体の運動モデル
を、前記撮影光学系の像空間側に写像変換して「像空間
側の運動方程式」を定める。
Therefore, the image plane position can be predicted with high accuracy even for a subject having a large measurement variation of the defocus amount, such as a subject having a low illuminance or a subject having a low contrast. According to the second aspect of the invention, the motion model of the subject assumed on the object space side is mapped to the image space side of the photographing optical system to determine the “motion equation on the image space side”.

【0083】従来例では、像面速度が一定もしくは、像
面加速度が一定という想定に基づいて、像面位置を予測
している。そのため、実際の像面位置とのズレが大きく
なり、十分な予測精度を得ることが困難であった。しか
しながら、請求項2の発明では、被写体の運動モデルを
像空間側に写像変換した運動方程式を採用する。そのた
め、運動方程式は現実の像面位置の運動に極めて近似
し、像面位置を高精度に予測することが可能となる。
In the conventional example, the image plane position is predicted on the assumption that the image plane velocity is constant or the image plane acceleration is constant. Therefore, the deviation from the actual image plane position becomes large, and it is difficult to obtain sufficient prediction accuracy. However, according to the second aspect of the present invention, a motion equation obtained by transforming a motion model of a subject into an image space is adopted. Therefore, the equation of motion is very close to the motion of the actual image plane position, and the image plane position can be predicted with high accuracy.

【0084】請求項3に記載の発明では、通過被写体の
像面位置を予測するために、運動方程式(1)を採用す
る。 Vim/Y3=α・(tc−τ) ・・・(1) 運動方程式(1)では、左辺(Vim/Y3)が検出時刻
tcの一次関数で表されるので、一次回帰分析の手法を
用いて未定係数α,τを簡便に決定することができる。
According to the third aspect of the present invention, the equation of motion (1) is used to predict the image plane position of the passing subject. Vim / Y 3 = α · (tc−τ) (1) In the equation of motion (1), the left side (Vim / Y 3 ) is represented by a linear function of the detection time tc. Can be used to easily determine the undetermined coefficients α and τ.

【0085】また、運動方程式(1)は、像面加速度の
項を持たない。一般に、像面加速度は、像面位置の2回
差分から算出されるため、高域ノイズや位相遅れが大き
くなる。しかしながら、運動方程式(1)は、像面加速
度の項を持たないので、位相遅れや高域ノイズを多く含
む像面加速度によって像面位置の予測精度が低くなるこ
とがない。
The equation of motion (1) has no term of the image plane acceleration. Generally, since the image plane acceleration is calculated from the two-time difference between the image plane positions, high-frequency noise and phase lag increase. However, since the equation of motion (1) has no term of the image plane acceleration, the prediction accuracy of the image plane position does not decrease due to the image plane acceleration including a lot of phase lag and high-frequency noise.

【0086】請求項4に記載の発明では、衝突被写体の
像面位置を予測するために、運動方程式(2)を採用す
る。 Yc=β・|Vim|1/2+Cp ・・・(2) 運動方程式(1)では、(Yc)が(|Vim|1/2)の
一次関数で表されるので、一次回帰分析の手法を用いて
未定係数β,Cpを簡便に決定することができる。
According to the fourth aspect of the present invention, the equation of motion (2) is employed to predict the image plane position of the collision subject. Yc = β · | Vim | 1/2 + Cp (2) In the equation of motion (1), since (Yc) is represented by a linear function of (| Vim | 1/2 ), a method of linear regression analysis Can be used to easily determine the undetermined coefficients β and Cp.

【0087】また、運動方程式(2)は、像面加速度の
項を持たない。一般に、像面加速度は、像面位置の2回
差分から算出されるため、高域ノイズや位相遅れが大き
くなる。しかしながら、運動方程式(2)は、像面加速
度の項を持たないので、位相遅れや高域ノイズを多く含
む像面加速度によって像面位置の予測精度が低くなるこ
とがない。
The equation of motion (2) has no term of the image plane acceleration. Generally, since the image plane acceleration is calculated from the two-time difference between the image plane positions, high-frequency noise and phase lag increase. However, since the equation of motion (2) has no term of the image plane acceleration, the prediction accuracy of the image plane position does not decrease due to the image plane acceleration including a lot of phase delay and high-frequency noise.

【0088】請求項5に記載の発明では、複数の運動方
程式について回帰分析を行って、寄与率の高い運動方程
式を採用する。このような作用により、被写体の実際の
運動に応じて、運動方程式を適切に切り換えることがで
きる。したがって、像面位置の予測精度が格段に向上
し、焦点の合焦精度を格段に向上させることができる。
According to the fifth aspect of the present invention, regression analysis is performed on a plurality of equations of motion, and a motion equation having a high contribution ratio is adopted. With such an operation, the equation of motion can be appropriately switched according to the actual motion of the subject. Therefore, the prediction accuracy of the image plane position is significantly improved, and the focusing accuracy of the focus can be significantly improved.

【0089】請求項6の焦点調節装置では、複数の運動
方程式として、衝突被写体を想定した(2)式と、通過
被写体を想定した(3)式とを使用する。通常、被写体
までの距離aが十分離れている状況下では、「通過被写
体の運動モデル」は「衝突被写体の運動モデル」と略一
致する。また、焦点制御の開始時には、被写体がカメラ
から十分離れている公算が高い。
The focus adjusting device according to the sixth aspect uses, as a plurality of equations of motion, Expression (2) assuming a collision subject and Expression (3) assuming a passing subject. Normally, under a situation where the distance a to the subject is sufficiently large, the “motion model of the passing subject” substantially matches the “motion model of the collision subject”. At the start of the focus control, the subject is likely to be sufficiently away from the camera.

【0090】したがって、焦点制御の開始時に、衝突被
写体であると専断して予測を開始することにより、通過
被写体および衝突被写体のどちらについても、確実な予
測演算を円滑に開始することができる。さらに、寄与率
Ctの低下に伴って、通過被写体の運動方程式(3)に
基づく予測に移行するので、通過被写体については、適
確な予測演算に円滑に移行することができる。
Therefore, when the focus control is started, the prediction is started exclusively by deciding that the subject is a collision subject, so that a reliable prediction calculation can be smoothly started for both the passing subject and the collision subject. Furthermore, since the process shifts to prediction based on the equation of motion (3) of the passing subject with a decrease in the contribution ratio Ct, it is possible to smoothly shift to an accurate prediction calculation for the passing subject.

【0091】また、衝突被写体を想定した予測演算によ
り、像面位置のオフセットCpが算出される。したがっ
て、通過被写体を想定した後半の予測演算では、このオ
フセットCpの値をそのまま使用することができる。そ
のため、演算処理量を効率的に低減することができる。
請求項7の焦点調節装置では、未定係数を決定した運動
方程式から微分係数を直接求め、所定時間後の像面位置
を線形近似により算出する。
Further, an offset Cp of the image plane position is calculated by a prediction operation assuming a collision subject. Therefore, the value of the offset Cp can be used as it is in the latter half of the prediction calculation assuming the passing subject. Therefore, the amount of calculation processing can be efficiently reduced.
According to a seventh aspect of the present invention, the differential coefficient is directly obtained from the equation of motion for which the undetermined coefficient has been determined, and the image plane position after a predetermined time is calculated by linear approximation.

【0092】このような線形近似では、従来例のように
微分係数(像面速度,像面加速度など)を差分演算で求
める場合と異なり、像面位置とこれらの微分係数との間
に位相差が生じない。したがって、請求項7の発明で
は、線形近似において前述の位相差が誤差として累積す
ることがなく、高い近似精度を得ることができる。以上
説明したように、本発明を使用した焦点調節装置では、
複雑な像面位置の動きを正確かつ簡便に予測することが
できるので、予測値の的中度が格段に高められ、焦点調
節の性能を大幅に向上させることができる。
In such a linear approximation, unlike a conventional example in which differential coefficients (image surface speed, image surface acceleration, etc.) are obtained by a difference operation, the phase difference between the image plane position and these differential coefficients is obtained. Does not occur. Therefore, in the invention of claim 7, the above-described phase difference does not accumulate as an error in the linear approximation, and a high approximation accuracy can be obtained. As described above, in the focus adjustment device using the present invention,
Since the movement of a complicated image plane position can be accurately and simply predicted, the predictive value is significantly improved, and the performance of focus adjustment can be greatly improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1〜7に記載の発明に対応する原理ブロ
ック図である。
FIG. 1 is a principle block diagram corresponding to the first to seventh aspects of the present invention.

【図2】請求項3において想定される通過被写体の運動
を示す図である。
FIG. 2 is a diagram showing a motion of a passing subject assumed in claim 3;

【図3】撮影光学系により形成される像空間を説明する
図である(レンズ位置の測定原点が既知の場合)。
FIG. 3 is a diagram illustrating an image space formed by a photographing optical system (when a measurement origin of a lens position is known).

【図4】請求項4において想定される衝突被写体の運動
を示す図である。
FIG. 4 is a diagram showing a motion of a collision subject assumed in claim 4;

【図5】撮影光学系により形成される像空間を説明する
図である(レンズ位置の測定原点が未知の場合)。
FIG. 5 is a diagram for explaining an image space formed by the photographing optical system (when the measurement origin of the lens position is unknown).

【図6】請求項1〜6に対応する実施形態を示す図であ
る。
FIG. 6 is a diagram showing an embodiment corresponding to claims 1 to 6;

【図7】マイクロプロセッサ18の内部機能を説明する
ブロック図である。
FIG. 7 is a block diagram illustrating an internal function of the microprocessor 18.

【図8】本実施形態の動作を示す流れ図である。FIG. 8 is a flowchart showing the operation of the present embodiment.

【図9】本実施形態の動作を示す流れ図である。FIG. 9 is a flowchart showing the operation of the present embodiment.

【図10】像面位置Ycの検出値を示す図である。FIG. 10 is a diagram illustrating a detection value of an image plane position Yc.

【図11】衝突被写体を想定した場合の状態軌道を示す
図である。
FIG. 11 is a diagram illustrating a state trajectory when a collision subject is assumed.

【図12】通過被写体を想定した場合の状態軌道を示す
図である。
FIG. 12 is a diagram illustrating a state trajectory when a passing subject is assumed.

【図13】任意定数Cのばらつきを示す図である。FIG. 13 is a diagram showing a variation of an arbitrary constant C;

【図14】像面位置Ycの予測関数を示す図である。FIG. 14 is a diagram illustrating a prediction function of an image plane position Yc.

【符号の説明】[Explanation of symbols]

1 焦点検出手段 2 レンズ位置検出手段 3 像面位置算出手段 4 像面速度算出手段 5 統計手段 6 予測手段 7 焦点制御手段 11 カメラボディ 12 鏡筒 13 撮影光学系 14 ミラー 15 サブミラー 16 焦点検出部 17 A/D変換部 18 マイクロプロセッサ 19 モータ 19a ドライブ回路 20 レンズ駆動機構 21 エンコーダ 22 レリーズ釦 31 デフォーカス量算出部 32 レンズ位置算出部 33 像面位置算出部 34 像面速度算出部 35 データ格納部 36 回帰分析部 37 運動モデル選択部 38 運動モデル格納部 39 像面位置予測部 40 モータ駆動量算出部 REFERENCE SIGNS LIST 1 focus detection means 2 lens position detection means 3 image plane position calculation means 4 image plane velocity calculation means 5 statistical means 6 prediction means 7 focus control means 11 camera body 12 lens barrel 13 shooting optical system 14 mirror 15 sub-mirror 16 focus detection unit 17 A / D conversion section 18 Microprocessor 19 Motor 19a Drive circuit 20 Lens drive mechanism 21 Encoder 22 Release button 31 Defocus amount calculation section 32 Lens position calculation section 33 Image plane position calculation section 34 Image plane speed calculation section 35 Data storage section 36 Regression analysis unit 37 Motion model selection unit 38 Motion model storage unit 39 Image plane position prediction unit 40 Motor drive amount calculation unit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 撮影光学系のデフォーカス量を検出する
焦点検出手段と、 撮影光学系のレンズ位置を検出するレンズ位置検出手段
と、 前記デフォーカス量と前記レンズ位置とに基づいて、被
写体像の像面位置を算出する像面位置算出手段と、 前記像面位置算出手段により算出された像面位置の時間
変化に基づいて、像面速度を算出する像面速度算出手段
と、 前記像面位置と前記像面速度とからなる標本空間につい
て統計分析を行い、予め定められた「像面位置と像面速
度とを含む運動方程式」の未定係数を決定する統計手段
と、 前記統計手段により決定された未定係数を持つ前記運動
方程式の解(時間関数)に基づいて、像面位置の予測値
を算出する予測手段と、 前記予測手段により算出された像面位置の予測値に基づ
いて、焦点制御を行う焦点制御手段とを備えたことを特
徴とする焦点調節装置。
A focus detection unit for detecting a defocus amount of a photographic optical system; a lens position detection unit for detecting a lens position of the photographic optical system; and a subject image based on the defocus amount and the lens position. An image plane position calculating unit that calculates an image plane position of the image plane; an image plane speed calculating unit that calculates an image plane speed based on a time change of the image plane position calculated by the image plane position calculating unit; Statistical analysis is performed on a sample space consisting of a position and the image plane speed, and statistical means for determining an undetermined coefficient of a predetermined “equation of motion including an image plane position and an image plane speed”; Prediction means for calculating a predicted value of the image plane position based on a solution (time function) of the equation of motion having the determined undetermined coefficient; and a focus based on the predicted value of the image plane position calculated by the prediction means. Take control And a focus control device.
【請求項2】 請求項1に記載の焦点調節装置におい
て、 前記運動方程式は、 物空間側において想定される被写体の運動モデルを、前
記撮影光学系の像空間側に写像変換して得た「像空間側
の運動方程式」であることを特徴とする焦点調節装置。
2. The focus adjustment apparatus according to claim 1, wherein the equation of motion is obtained by mapping a motion model of a subject assumed on an object space side to an image space side of the photographing optical system. A focus adjustment device, which is “an equation of motion on the image space side”.
【請求項3】 請求項2に記載の焦点調節装置におい
て、 前記運動方程式は、 カメラから距離hだけ離れた通過軌道上を速度vで通過
する被写体の運動モデルを、前記撮影光学系の像空間側
に近似的に写像変換した式であり、 Vim/Y3=α・(tc−τ) ・・・(1) (ただし、Yは焦点と像面とのズレ量,Vimは像面速
度,tcは検出時刻,αおよびτは未定係数)であるこ
とを特徴とする焦点調節装置。
3. The focus adjustment apparatus according to claim 2, wherein the equation of motion is: a motion model of an object passing at a speed v on a passage trajectory separated from the camera by a distance h, in an image space of the photographing optical system. Vim / Y 3 = α · (tc−τ) (1) (where Y is the amount of deviation between the focal point and the image plane, Vim is the image plane speed, tc is a detection time, and α and τ are undetermined coefficients).
【請求項4】 請求項2に記載の焦点調節装置におい
て、 前記運動方程式は、 カメラに向かって速度vで接近する被写体の運動モデル
を、前記撮影光学系の像空間側に近似的に写像変換した
式であり、 Yc=β・|Vim|1/2+Cp ・・・(2) (ただし、Ycは像面位置,Vimは像面速度,βおよび
Cpは未定係数)であることを特徴とする焦点調節装
置。
4. The focusing apparatus according to claim 2, wherein the equation of motion is a mapping transformation of a motion model of a subject approaching the camera at a speed v to an image space side of the photographing optical system. Yc = β · | Vim | 1/2 + Cp (2) (where Yc is the image plane position, Vim is the image plane velocity, and β and Cp are undetermined coefficients) Focus adjustment device.
【請求項5】 請求項2に記載の焦点調節装置におい
て、 前記統計手段は、 複数の運動方程式について回帰分析を行い、回帰分析の
寄与率が高い運動方程式を採用して前記未定係数を決定
することを特徴とする焦点調節装置。
5. The focus adjustment apparatus according to claim 2, wherein the statistical unit performs a regression analysis on a plurality of equations of motion, and determines the undetermined coefficient by using an equation of motion having a high contribution rate of the regression analysis. A focus adjustment device characterized by the above-mentioned.
【請求項6】 請求項5に記載の焦点調節装置におい
て、 前記複数の運動方程式は、 Yc=β・|Vim|1/2+Cp ・・・(2) (ただし、Ycは像面位置,Vimは像面速度,βおよび
Cpは未定係数)および、 Vim/(Yc−Cp)3=α・(tc−τ) ・・・(3) (ただし、Ycは像面位置,Vimは像面速度,tcは検
出時刻,αおよびτは未定係数)であり、前記統計手段
は、 (2)式に基づく回帰分析を行い、その回帰分析におけ
る寄与率の低下に伴って、(3)式に基づく回帰分析に
移行することを特徴とする焦点調節装置。
6. The focus adjustment apparatus according to claim 5, wherein the plurality of equations of motion are: Yc = β · | Vim | 1/2 + Cp (2) (where Yc is an image plane position and Vim Is the image plane speed, β and Cp are undetermined coefficients) and Vim / (Yc−Cp) 3 = α · (tc−τ) (3) (where Yc is the image plane position, and Vim is the image plane velocity) , Tc are detection times, α and τ are undecided coefficients), and the statistical means performs a regression analysis based on the equation (2). A focus adjustment device characterized by shifting to regression analysis.
【請求項7】 請求項1乃至請求項6のいずれか1項に
記載の焦点調節装置において、 前記予測手段は、 前記統計手段により決定された未定係数を持つ前記運動
方程式の解(時間関数)を線形近似して、像面位置の予
測値を算出することを特徴とする焦点調節装置。
7. The focus adjustment apparatus according to claim 1, wherein the predicting unit is a solution (time function) of the equation of motion having an undetermined coefficient determined by the statistical unit. Is a linear approximation to calculate a predicted value of the image plane position.
JP8165980A 1996-06-26 1996-06-26 Focusing device Pending JPH1010415A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8165980A JPH1010415A (en) 1996-06-26 1996-06-26 Focusing device
US08/869,089 US5873006A (en) 1996-06-26 1997-06-04 Focusing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8165980A JPH1010415A (en) 1996-06-26 1996-06-26 Focusing device

Publications (1)

Publication Number Publication Date
JPH1010415A true JPH1010415A (en) 1998-01-16

Family

ID=15822650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8165980A Pending JPH1010415A (en) 1996-06-26 1996-06-26 Focusing device

Country Status (1)

Country Link
JP (1) JPH1010415A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2336905A (en) * 1998-04-29 1999-11-03 Wrc Plc Method and apparatus for monitoring bubbles in a liquid

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2336905A (en) * 1998-04-29 1999-11-03 Wrc Plc Method and apparatus for monitoring bubbles in a liquid

Similar Documents

Publication Publication Date Title
US7777802B2 (en) Imaging apparatus including an auto focusing function
US5502537A (en) Focus adjustment device having predictive function
JP2008009341A (en) Autofocus device and method, and imaging apparatus
JP2001021794A (en) Auto-focusing adjusting device, and optical instrument
JPH0875989A (en) Automatic focusing device
JPH0862484A (en) Focusing device
JP5183241B2 (en) Camera, taking lens and camera system
JP3891224B2 (en) Automatic focusing device
US5239332A (en) Automatic focusing device of camera for moving object photography
US5873006A (en) Focusing device
JPH07119880B2 (en) Autofocus camera
US5625434A (en) Automatic focus device and method
JP2004085843A (en) Camera
JPH1010415A (en) Focusing device
US5862417A (en) Automatic focus adjustment apparatus
US5548370A (en) Vibration compensation device for a camera
JP3817774B2 (en) Moving body determination apparatus, focus adjustment apparatus including the moving body determination apparatus, and camera
JP2554051B2 (en) Autofocus device
JP3028563B2 (en) Camera autofocus device
JP2709486B2 (en) Image plane moving speed prediction device and automatic focus adjustment device
US5727238A (en) Automatic focus adjustment device
JPH01140109A (en) Camera with automatic focusing function
JP2003131119A (en) Automatic focusing device and camera system
JP2906238B2 (en) Automatic focusing device
JP3834874B2 (en) Camera autofocus device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050621