JP3278397B2 - Camera with gaze detection function - Google Patents

Camera with gaze detection function

Info

Publication number
JP3278397B2
JP3278397B2 JP09333998A JP9333998A JP3278397B2 JP 3278397 B2 JP3278397 B2 JP 3278397B2 JP 09333998 A JP09333998 A JP 09333998A JP 9333998 A JP9333998 A JP 9333998A JP 3278397 B2 JP3278397 B2 JP 3278397B2
Authority
JP
Japan
Prior art keywords
lens
focus detection
focus
subroutine
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP09333998A
Other languages
Japanese (ja)
Other versions
JPH10268186A (en
Inventor
康夫 須田
明彦 長野
一樹 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP09333998A priority Critical patent/JP3278397B2/en
Publication of JPH10268186A publication Critical patent/JPH10268186A/en
Application granted granted Critical
Publication of JP3278397B2 publication Critical patent/JP3278397B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、銀塩フィルムを使
用するカメラあるいはビデオカメラもしくは産業機器と
協同する撮影装置に関し、特に操作者の視線を検出して
視線を向けられた物体に焦点調節し得る様なカメラ(カ
メラ・ボディも含むものとする)に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera using a silver halide film or a video camera or an image pickup apparatus cooperating with industrial equipment. It relates to a camera (including a camera body) that can be obtained.

【0002】[0002]

【従来の技術】従来のカメラには、ワンショットモード
とサーボモードが設けられており、対象の動きによって
使い分けられている。例えばワンショットモードは主に
静止した被写体に対して使用され、一旦合焦した後はレ
ンズ駆動が禁止され(AFロック状態)、もし必要なら
その後にフレーミングを行うモードであり、サーボモー
ドは主に動く被写体に対して使用され、被写体距離の変
化に付随して連続したレンズ駆動を行うモードである。
2. Description of the Related Art Conventional cameras have a one-shot mode.
And servo mode are provided, depending on the movement of the target
They are used properly. For example, one shot mode is mainly
Used for stationary subjects.
Lens drive is prohibited (AF locked state), if necessary
After that, framing is performed.
Is used mainly for moving subjects and changes in subject distance
This is a mode in which continuous lens driving is performed in association with image formation.

【0003】また、一眼レフレックスカメラで動きのあ
る被写体に対してピントを追従させるための技術とし
て、予測制御を行うことや多数の検出領域を配置するこ
とが考えられる。従来のカメラで行われている予測制御
は、被写体情報を得てから、測距演算を経て撮影レンズ
の駆動を行い、更にシャッター走行を行うというタイム
ラグを考慮し、被写体の動きに対するレンズ駆動の追従
の遅れを過去の焦点検出データから予測し、レンズ駆動
データの補正を行うものである。一方、多数の検出領域
を配置することで、動いている被写体を画面の中央に捉
えなくとも焦点を合わせることが可能となる。上記の2
つの技術をあわせて用いることにより、中央以外に存在
する被写体の動きを遅れることなく追従して駆動を行う
ことが出来る。
[0003] Also, with a single-lens reflex camera,
Technology to make the subject follow the focus
To perform predictive control and arrange a large number of detection areas.
You could think so. Predictive control performed by conventional cameras
Is the shooting lens
Time to drive and then run the shutter
Tracking of lens drive to subject movement considering lag
Lens delay based on prediction of past focus detection data
This is to correct the data. On the other hand, many detection areas
To capture the moving subject in the center of the screen.
Focusing is possible at all costs. 2 above
Exist in the center by using two technologies together
Driving without following the movement of the subject
I can do it.

【0004】[0004]

【0005】[0005]

【0006】[0006]

【0007】[0007]

【0008】[0008]

【0009】[0009]

【0010】[0010]

【0011】[0011]

【0012】[0012]

【0013】[0013]

【発明が解決しようとする課題】しかし、多数の検出領
域を配置することで被写体以外の物体情報も検出されて
しまい、その結果、誤って背景等にピントが合うことも
起こり得る。予測制御では過去のデフォーカス情報を用
いて、レリーズボタンを押したときに最適になるであろ
う位置まで撮影レンズを駆動するため、適切な検出領域
を選択していることが極めて重要となる。したがって、
動く被写体に正確に焦点を合わせ、かつ被写体の動きに
遅れることなく精度良く追従してレンズ駆動を行う機能
が必要となる。
However, a large number of detection areas are required.
By locating the area, object information other than the subject is also detected
As a result, you may accidentally focus on the background, etc.
It can happen. Predictive control uses past defocus information
And it will be best when you press the release button
The appropriate detection area to drive the taking lens to the position
Is very important. Therefore,
Accurately focus on a moving subject and move the subject
Function to follow and drive the lens accurately without delay
Is required.

【0014】本発明は、画面の広い範囲で被写体の動き
を正確に捉え、被写体の動きをより精度良く追従してレ
ンズ駆動を行うことができるカメラを提供することを課
題とする。なお、本願では、撮影レンズを固着したカメ
ラ、撮影レンズを着脱するカメラそして撮影レンズを離
脱させた所謂カメラボディを、言葉の煩雑さを避けるた
めに全てカメラと言うこととする。
According to the present invention, the motion of a subject can be
And accurately follow the movement of the subject
To provide a camera that can perform lens driving.
The title. Note that in this application, the camera
Camera, detaching the camera lens
Removed the so-called camera body to avoid the complexity of words
I call them all cameras.

【0015】[0015]

【課題を解決するための手段】上記課題を解決するた
め、本願の請求項1に記載の発明は、レンズ駆動により
レンズの焦点調節を制御するレンズ制御手段と、観察者
の視線位置情報を検出する視線検出手段と、被写界面内
に複数存在する焦点検出領域のうち前記視線位置情報を
用いて選択された焦点検出領域の焦点検出を行う焦点検
出手段とを備え、被写体との距離変化に伴う結像面位置
の変化を追従して補正するサーボモードでは、毎回の焦
点検出に先立って視線検出を行い、前記レンズ制御手段
は複数の時点における焦点検出結果に基づいてレンズの
駆動量を演算し連続的にレンズの焦点調節を制御するカ
メラにおいて、前記サーボモードにおいて検出された視
線位置情報の信頼性が低い場合は、前記焦点検出手段は
信頼性の低い視線位置情報が検出される以前に検出され
た視線位置情報に基づいて焦点検出を行い、前記レンズ
制御手段は該焦点検出結果を含む複数の焦点検出結果に
基づいてレンズの駆動量を演算するものである。
According to a first aspect of the present invention, there is provided a lens control unit for controlling a focus adjustment of a lens by driving a lens, and detecting line-of-sight position information of an observer. Line of sight detecting means, and focus detecting means for performing focus detection of a focus detecting area selected using the line of sight position information among a plurality of focus detecting areas present in the interface of the subject. In the servo mode in which the change in the imaging plane position is corrected by following the change in the imaging plane position, the line-of-sight detection is performed prior to each focus detection, and the lens control unit calculates the lens driving amount based on the focus detection results at a plurality of time points. When the reliability of the line-of-sight position information detected in the servo mode is low in a camera that continuously controls the focus adjustment of the lens, the focus detection unit may control the line-of-sight position with low reliability. Focus detection is performed based on the line-of-sight position information detected before the information is detected, and the lens control unit calculates a lens driving amount based on a plurality of focus detection results including the focus detection result. .

【0016】[0016]

【0017】[0017]

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【発明の実施の形態】以下、図面に従って本発明の実施
例を説明するもので、図1から図11は装置の動作を説
明するためのフローチャートであり、図12は視線方向
の検出装置を具えたカメラの光学配置を示し、図13か
ら図16は視線方向の検出方法を説明する図である。ま
た、図17から図20は焦点検出装置の構成を説明する
ための図、図24はカメラの主に電気系を示す図であ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIGS. 1 to 11 are flowcharts for explaining the operation of the apparatus, and FIG. 12 is provided with a gaze direction detecting apparatus. 13 to 16 are diagrams illustrating a method of detecting a line-of-sight direction. 17 to 20 are diagrams for explaining the configuration of the focus detection device, and FIG. 24 is a diagram mainly showing an electric system of the camera.

【0022】まず図12において、4は一眼レフレック
スカメラのカメラ本体で、5はレンズ鏡筒であり、カメ
ラ本体4に着脱自在もしくは固設されているものとす
る。1は撮影レンズを図式的に示しており、レンズ鏡筒
5内に収納されており、図示しない駆動モータの駆動力
により光軸x方向へ移動しフォーカシングが実行され
る。
First, in FIG. 12, reference numeral 4 denotes a camera body of a single-lens reflex camera, and reference numeral 5 denotes a lens barrel, which is detachable or fixed to the camera body 4. Reference numeral 1 schematically shows a photographing lens, which is housed in a lens barrel 5 and is moved in the optical axis x direction by the driving force of a driving motor (not shown) to perform focusing.

【0023】2はクイックリターンミラー(主ミラー)
で、3はサブミラーであり、サブミラー3は主ミラー2
に支持されているものとする。続く6は焦点検出装置
で、詳細は後述するが、撮影レンズ1を屈折通過し、主
ミラー2を透過してサブミラー3で反射した光を受け
る。一方、主ミラー2の反射光路上に配されたはフォ
ーカシングスクリーン、8はベンタゴナルプリズム、1
5は接眼レンズで、これらはファインダー系を構成す
る。9は光分割器で、内部には赤外光を反射し可視光を
透過するダイクロイックミラーが斜設されており、ファ
インダー系光路に設けられる。11は投受光レンズ、1
2はハーフミラー、13は赤外光を発光する、LEDの
様な照明点光源である。光源13は投受光レンズ11と
接眼レンズ15を合成した系の一方の焦点位置にあるも
のとし、光源13を発した光束はハーフミラー12、投
受光レンズ11、光分割器9を経て、接眼レンズ15か
ら平行光として移出する。14は素子配列を具える光電
変換器で、接眼レンズ15と投受光レンズ11により前
眼部が結像される位置に配され、眼球像と光源の角膜反
射像を受像する。部材9,11,12,13,14そし
て接眼レンズ15が視線検出装置の光学系を構成する。
2 is a quick return mirror (primary mirror)
3 is a submirror , and submirror 3 is the main mirror 2.
Shall be supported by The subsequent 6 is a focus detection device, which will be described later in detail, receives light reflected by the main mirror 2 and reflected by the sub-mirror 3 while refracting and passing through the taking lens 1. On the other hand, 7 arranged on the reflected light path of the main mirror 2 is a focusing screen, 8 is a bentagonal prism , 1
Reference numeral 5 denotes an eyepiece, which constitutes a finder system. Reference numeral 9 denotes a light splitter, which is internally provided with a dichroic mirror that reflects infrared light and transmits visible light, and is provided on a finder optical path. 11 is a light emitting and receiving lens, 1
Reference numeral 2 denotes a half mirror, and 13 denotes an illumination point light source such as an LED that emits infrared light. The light source 13 is located at one focal position of a system in which the light projecting / receiving lens 11 and the eyepiece 15 are combined, and the light beam emitted from the light source 13 passes through the half mirror 12, the light projecting / receiving lens 11, the light splitter 9, and the eyepiece. The light exits from 15 as parallel light. Reference numeral 14 denotes a photoelectric converter having an element array, which is arranged at a position where the anterior segment is formed by the eyepiece lens 15 and the light projecting / receiving lens 11, and receives an eyeball image and a corneal reflection image of a light source. The members 9, 11, 12, 13, 14 and the eyepiece 15 constitute an optical system of the eye-gaze detecting device.

【0024】続いて視線の方向の検出方法を図13を使
って説明する。図中20は投受光レンズ11と接眼レン
ズ15を合成したレンズを示すものとし、22は観察者
の眼球を模型眼的に示すもので、21は角膜、23は虹
彩である。
Next, a method of detecting the direction of the line of sight will be described with reference to FIG. In the figure, reference numeral 20 denotes a combined lens of the light projecting / receiving lens 11 and the eyepiece 15, reference numeral 22 denotes a model eye of an observer, reference numeral 21 denotes a cornea, and reference numeral 23 denotes an iris.

【0025】LED13より放射された赤外光はレンズ
20により平行光となり眼球の角膜21を照明する。こ
のとき角膜21の表面で反射した赤外光の一部により形
成される角膜反射像dは虹彩23の近傍に生じレンズ2
0により集光されハーフミラー12を透過し光電変換器
14上の位置d′に再結像する。
The infrared light emitted from the LED 13 becomes parallel light by the lens 20 and illuminates the cornea 21 of the eyeball. At this time, a corneal reflection image d formed by a part of the infrared light reflected on the surface of the cornea 21 occurs near the iris 23 and the lens 2
The light is condensed by 0, passes through the half mirror 12, and is re-imaged at the position d 'on the photoelectric converter 14.

【0026】また虹彩23の端部a、bからの光束は受
光レンズ20、ハーフミラー12を介して光電変換器1
4上の位置a′、b′に該端部a、bの像を結像する。
レンズ20の光軸アに対する眼球の光軸イの回転角θが
小さい場合、虹彩23の端部a、bのZ座標をZa、Z
bとすると、虹彩23の中心位置cの座標Zcは、 Zc≒(Za+Zb)/2 と表わされる。
The light beams from the ends a and b of the iris 23 are transmitted through the light receiving lens 20 and the half mirror 12 to the photoelectric converter 1.
An image of the end portions a and b is formed at positions a 'and b' on the upper side 4.
When the rotation angle θ of the optical axis a of the eyeball with respect to the optical axis a of the lens 20 is small, the Z coordinates of the ends a and b of the iris 23 are Za and Z
Assuming that b, the coordinate Zc of the center position c of the iris 23 is expressed as Zc ≒ (Za + Zb) / 2.

【0027】また、角膜反射像の発生位置dのZ座標を
Zd、角膜21の曲率中心Oと虹彩23の中心Cまでの
距離をOCとすると眼球光軸イの回転角θは、 OC*SINθ≒Zc−Zd(1) の関係式を略満足する。ここで角膜反射像の位置dのZ
座標Zdと角膜21の曲率中心のOのZ座標Zoとは一
致している。このため光電変換器14上に投影された各
特異点(角膜反射像dおよび虹彩の端部a、b)の位置
を検出することにより眼球光軸イの回転角θを求めるこ
とができる。この時(1)式は、 β*OC*SINθ≒(Za′+Zb′)/2−Zd′(2) とかきかえられる。ただし、βは角膜反射像の発生位置
dとレンズ20との距離L1とレンズ20と光電変換器
14との距離L0とで決まる倍率である。
If the Z coordinate of the position d where the corneal reflection image is generated is Zd, and the distance between the center of curvature O of the cornea 21 and the center C of the iris 23 is OC, the rotation angle θ of the optical axis A of the eyeball is OC * SINθ.関係 Zc−Zd (1) is substantially satisfied. Here, Z at the position d of the corneal reflection image
The coordinate Zd coincides with the Z coordinate Zo of O at the center of curvature of the cornea 21. Therefore, by detecting the position of each singular point (the corneal reflection image d and the end portions a and b of the iris) projected on the photoelectric converter 14, the rotation angle θ of the optical axis a of the eyeball can be obtained. At this time, equation (1) can be rewritten as β * OC * SINθ ≒ (Za ′ + Zb ′) / 2−Zd ′ (2). Here, β is a magnification determined by the distance L1 between the generation position d of the corneal reflection image, the lens 20, and the distance L0 between the lens 20 and the photoelectric converter 14.

【0028】なお、ここでは角膜における反射像いわゆ
るプルキンエ第1像を用いた視線検出方法を示したが、
人眼の構造から水晶体の反射像等、4個のプルキンエ像
の形成が知られており、光電変換器14上にはこれらの
像も形成されることになるがプルキンエ第1像以外は比
較的光強度が低いので、適当な電気処理を施すことで検
出の妨げになることはない。また実際に人が物を見る場
合、黄斑が視界の中央になるため眼球の幾何学的な光軸
と視軸(視線)の間には偏差が存在するが、演算の際に
一定量の修正を施すことで実用上問題がなく、精密な修
正を要する場合には特開平1−241511号公報で説
明した方法が採用できる。
Here, the gaze detection method using the reflected image on the cornea, the so-called Purkinje first image, has been described.
The formation of four Purkinje images, such as a reflection image of a crystalline lens, is known from the structure of the human eye. These images are also formed on the photoelectric converter 14, but other than the Purkinje first image are relatively formed. Since the light intensity is low, detection is not hindered by performing appropriate electric treatment. Also, when a person actually looks at an object, there is a deviation between the geometric optical axis of the eyeball and the visual axis (line of sight) because the macula is at the center of the field of view, but a certain amount of correction When there is no practical problem by applying the method described above, and precise correction is required, the method described in Japanese Patent Application Laid-Open No. 1-241511 can be employed.

【0029】図13の配置で、光電変換器14は図中上
下方向に素子を一次元的に配列しているものとし、検出
装置の単純化のために図14に描く通り各素子14は縦
幅が横幅の数倍以上の短冊形状になっている。これによ
り縦方向の検出は困難となるが、眼球の縦方向の平行移
動もしくは回転に対してほとんど不感にすることができ
て信号処理は簡単になる。なお、類似の作用を得るため
素子の並び方向と垂直な方向に屈折力を持つ円柱レンズ
を光電変換器の前面に接着しても良い。
In the arrangement shown in FIG. 13, it is assumed that the photoelectric converter 14 has one-dimensionally arranged elements in the vertical direction in the figure, and each element 14 is vertically arranged as shown in FIG. It has a strip shape whose width is several times or more the width. This makes it difficult to detect in the vertical direction, but makes it almost insensitive to vertical translation or rotation of the eyeball and simplifies signal processing. In order to obtain a similar effect, a cylindrical lens having a refractive power in a direction perpendicular to the arrangement direction of the elements may be bonded to the front surface of the photoelectric converter.

【0030】図14は光電変換器に瞳孔像61とプルキ
ンエ第1像62が形成された様子を描いており、図15
は正面から見た時の観察眼の像を示す。
FIG. 14 illustrates a state in which a pupil image 61 and a Purkinje first image 62 are formed on the photoelectric converter.
Indicates an image of the observation eye when viewed from the front.

【0031】光電変換器で観察眼の像を受像すると図1
6に示す出力が得られ、65はプリキンエ第1像62に
相当する出力、67と68は虹彩のエッジ部に当り、両
側の高い出力値は強膜(白目)に当る。
When the image of the observation eye is received by the photoelectric converter, FIG.
The output shown in FIG. 6 is obtained, 65 corresponds to the Prekinje first image 62, 67 and 68 correspond to the edges of the iris, and high output values on both sides correspond to the sclera (white eye).

【0032】瞳孔中心はエッジ部67、68の位置情報
から得られる。最も簡単にはエッジ部において、虹彩部
81平均の半値に近い出力を生ずる画素番号をi1 ,i
2 とする瞳孔中心の位置座標は i0 =(i1 +i2 )/2 で与えられる。プルキンエ第1像の位置は、瞳孔暗部に
おいて局部的に現われる最大のピークから求められるの
で、この位置と先の瞳孔中心との相対位置関係により、
眼球の回転状況、従って、視線の方向を知ることができ
る。なお、82、83は上下のまぶたである。続いて図
17を使って焦点検出装置の構成を説明するが、本焦点
検出装置は、夫々、複数の検出視野を有するブロックの
1つを選択し得る様になっている。図18は軸上ブロッ
クを選択した場合、図19は軸外ブロックを選択した場
合の光学作用を示している。
The pupil center is obtained from the position information of the edge portions 67 and 68. In the simplest case, in the edge portion, the pixel numbers that produce an output close to the half value of the average of the iris portion 81 are i 1 , i
Position coordinates of the pupil center to 2 is given by i 0 = (i 1 + i 2) / 2. Since the position of the Purkinje first image is determined from the maximum peak locally appearing in the pupil dark part, the relative position relationship between this position and the center of the previous pupil gives:
It is possible to know the rotation state of the eyeball, and thus the direction of the line of sight. In addition, 82 and 83 are upper and lower eyelids. Next, the configuration of the focus detection device will be described with reference to FIG. 17. The focus detection device can select one of blocks having a plurality of detection fields, respectively. FIG. 18 shows the optical action when the on-axis block is selected, and FIG. 19 shows the optical action when the off-axis block is selected.

【0033】図中Xは光軸で、図12のサブ・ミラー3
で反射した後の部位に当る。破線と実践で描かれた部材
81は視野マスクで、軸上ブロックの検出視野を極める
矩形開口81a,81b,81c左軸外ブロック81
d,81e,81f,右軸外ブロック81g,81h,
81iを具え、撮影レンズの予定結像面またはその近傍
に配される。80は可動マスクで、軸上もしくは両軸外
ブロックの1つを選択するための矩形開口80aを具
え、視野マスク81に接近して図示しない保持部材に摺
動自在に支持されているものとする。また可動マスク8
0の端部には駆動片122が固設されており、駆動片に
は雌ねじが形成されている。121はステッピングモー
タで、モータの回転軸にリードスクリュー121aが連
結される。リードスクリュー121aは先程の駆動片の
雌ねじに螺合しているので、ステッピングモータに給電
されるとリードスクリュー121aが回転し、駆動片1
22そして可動マスク80が矢印A方向に移動する。
In the figure, X is the optical axis, and the sub mirror 3 shown in FIG.
Hits the site after reflection. A member 81 drawn by a broken line and practiced is a visual field mask, and rectangular apertures 81a, 81b, 81c for excluding the detection visual field of the on-axis block are left off-axis blocks 81.
d, 81e, 81f, right off-axis blocks 81g, 81h,
81i, and is arranged at or near a predetermined imaging plane of the taking lens. A movable mask 80 has a rectangular opening 80a for selecting one of an on-axis or off-axis block, and is slidably supported by a holding member (not shown) close to the field mask 81. . Movable mask 8
A drive piece 122 is fixedly provided at the end of the zero, and a female screw is formed on the drive piece. A stepping motor 121 has a lead screw 121a connected to a rotating shaft of the motor. Since the lead screw 121a is screwed into the female screw of the driving piece, the lead screw 121a rotates when power is supplied to the stepping motor, and the driving piece 1
22 and the movable mask 80 moves in the direction of arrow A.

【0034】従ってステッピングモータ121を正逆転
することで可動マスクの開口は視野マスク81の3つの
ブロックに対応した3つの位置を選択し得る。
Therefore, by rotating the stepping motor 121 forward and backward, the opening of the movable mask can select three positions corresponding to the three blocks of the visual field mask 81.

【0035】82は分割フィールドレンズで、軸上ブロ
ックを通過した光束と軸外ブロックを通過した光束に互
いに異なった屈折力を付与し、後述する光電変換素子8
5が良好な状態で光束を受ける様に調整している。84
は2次結像レンズ群で、84aから84dまでの正レン
ズが一体的に作られている。正レンズ84a乃至84d
は3通りの対、即ち84aと84d、84bと84c、
84cと84dを構成する。
Reference numeral 82 denotes a split field lens which gives different refractive powers to the light beam passing through the on-axis block and the light beam passing through the off-axis block, and
5 is adjusted to receive a light beam in a good state. 84
Denotes a secondary imaging lens group, in which positive lenses 84a to 84d are integrally formed. Positive lenses 84a to 84d
Are three pairs: 84a and 84d, 84b and 84c,
84c and 84d.

【0036】83は多孔マスクで、正レンズ84a乃至
84dを通過する光束を規制するため夫々の正レンズに
対応する楕円開口を備える。85は光電変換素子で、組
をなす画素の配列SNS3とSNS4、SNS5とSN
S6、SNS7とSNS8を有し、透明樹脂製のパッケ
ージ86に封入されている。なお、視野マスク81の各
ブロックの上段、中段、下段の検出視野を通過した光束
は光電変換素子85の下段、中段、上段のアレイの組に
夫々、入射することになる。
Reference numeral 83 denotes a multi-hole mask, which has elliptical apertures corresponding to the respective positive lenses for restricting a light beam passing through the positive lenses 84a to 84d. Reference numeral 85 denotes a photoelectric conversion element, which is an array of pixels SNS3 and SNS4, and SNS5 and SN
It has S6, SNS7 and SNS8, and is enclosed in a package 86 made of transparent resin. The light beams that have passed through the upper, middle, and lower detection visual fields of each block of the visual field mask 81 are incident on the lower, middle, and upper arrays of the photoelectric conversion elements 85, respectively.

【0037】図18は可動マスク80の開口80aが対
物レンズ1の光軸上にある場合の例で、焦点検出のため
の光束は、可動マスク開口80a、固定マスク開口81
bを通った後、分割フィールドレンズの中央部82aに
入射する。この分割フィールドレンズ82は中央部にお
いて、多孔マスク83と対物レンズの射出瞳面38とを
共役関係におき、特に、多孔マスクの2つの開口83
b、83cの中心を射出瞳の中心に投影している。ま
た、多孔マスクの開口83b、83cを通った光束は、
その背後に置かれた再結像レンズ84のレンズ部84
b、84cに夫々入射する。2次結像レンズ群のレンズ
84b、84cは対物レンズ1の予定結像面と光電変換
素子85の受光面とを共役な関係におき、一対の物体の
2次像を光電変換素子の受光面上に形成する。この2次
結像レンズによって固定マスクの開口81bの像が形成
される光電変換素子上に配された多数の画素から成る一
対の画素列SNS5、SNS6の逆投影像が測距視野と
なる。上記の2次像は撮影レンズ1の予定結像面に対す
る結像状態に応じて、その相対的間隔が変化するため、
これを光電変換した後、所定の演算を施すことで撮影レ
ンズの結像状態を知ることができる。図20のAiとB
iは光電変換した信号の1例である。
FIG. 18 shows an example in which the opening 80a of the movable mask 80 is located on the optical axis of the objective lens 1. The light beam for focus detection is formed by the movable mask opening 80a and the fixed mask opening 81.
After passing through b, the light enters the central portion 82a of the split field lens. The split field lens 82 has a conjugate relationship between the aperture mask 83 and the exit pupil plane 38 of the objective lens at the center, and in particular, the two apertures 83 of the aperture mask.
The centers of b and 83c are projected on the center of the exit pupil. Further, the luminous flux passing through the openings 83b and 83c of the porous mask is
The lens portion 84 of the re-imaging lens 84 placed behind it
b and 84c. The lenses 84b and 84c of the secondary imaging lens group place the planned imaging surface of the objective lens 1 and the light receiving surface of the photoelectric conversion element 85 in a conjugate relationship, and transfer the secondary images of the pair of objects to the light receiving surface of the photoelectric conversion element. Form on top. A back projection image of a pair of pixel rows SNS5 and SNS6 composed of a number of pixels arranged on the photoelectric conversion element on which an image of the opening 81b of the fixed mask is formed by the secondary imaging lens is a distance measurement field. Since the relative distance between the secondary images changes according to the state of image formation of the imaging lens 1 on the predetermined image formation plane,
After the photoelectric conversion, a predetermined operation is performed to determine the image forming state of the photographing lens. Ai and B in FIG.
i is an example of a signal obtained by photoelectric conversion.

【0038】また、視野マスク81bの上下の開口より
焦点検出系に入射した光束は、2次結像レンズ84b、
84cの作用により、光電変換素子の画素列SNS3、
SNS4、SNS7、SNS8の上に結像し、物体の2
次像を形成する。これらの像も同様に対物レンズの結像
状態に応じて、相対的間隔が変化することを利用して固
定マスク81a、81c部におけるが可能である。
The light beams incident on the focus detection system from the upper and lower openings of the field mask 81b are incident on the secondary imaging lens 84b.
84c, the pixel column SNS3 of the photoelectric conversion element
Image on SNS4, SNS7, SNS8, 2
The next image is formed. Similarly, these images can be formed on the fixed masks 81a and 81c by utilizing the fact that the relative distance changes according to the image forming state of the objective lens.

【0039】図19は、可動マスク80の開口80aが
対物レンズ1の光軸から外れた位置にある場合の例で、
焦点検出のための光束は、可動マスク開口80a、固定
マスク開口81eを通った後、分割フィールドレンズ8
2の周辺部82bに入射している。分割フィールドレン
ズの周辺部82bの光軸88は対物レンズの光軸とは異
なり、多孔マスク83と対物レンズ1の射出瞳面38と
を共役関係におくとともに、多孔マスクの開口83a、
83bの中心を射出瞳の中心に投影している。多孔マス
ク83a、83bを通った光束は、2次結像レンズ84
のレンズ部に84a、84bに夫々入射し、光電変換素
子の一対の画素列SNS5、SNS6上に夫々物体の2
次像を形成する。従って図18を使って説明した軸上検
出視野の場合と同様に、一対の2次像を画素列SNS
5、SNS6によって光電変換した信号に対し所定の演
算を施すことによって対物レンズの結像状態を知ること
ができる。また、視野マスク81eの上下の開口につい
ては画素列SNS3、SNS4、SNS7、SNS8上
の像を光電変換することで検出可能である。
FIG. 19 shows an example in which the opening 80a of the movable mask 80 is located off the optical axis of the objective lens 1.
The light beam for focus detection passes through the movable mask opening 80a and the fixed mask opening 81e, and then is split into the divided field lens 8
2 is incident on the peripheral portion 82b. The optical axis 88 of the peripheral portion 82b of the split field lens is different from the optical axis of the objective lens, and the porous mask 83 and the exit pupil plane 38 of the objective lens 1 are conjugated with each other.
The center of 83b is projected on the center of the exit pupil. The light beam that has passed through the porous masks 83a and 83b is
Respectively enter the lens portions 84a and 84b of the photoelectric conversion element, and the object 2 is placed on the pair of pixel rows SNS5 and SNS6 of the photoelectric conversion element.
The next image is formed. Therefore, similarly to the case of the on-axis detection visual field described with reference to FIG.
5. By performing a predetermined operation on the signal photoelectrically converted by the SNS 6, the imaging state of the objective lens can be known. The upper and lower openings of the field mask 81e can be detected by photoelectrically converting images on the pixel rows SNS3, SNS4, SNS7, and SNS8.

【0040】なお、視野マスク81g,81h,81i
側の検出系については、軸対称であるための説明を省略
する。
The field masks 81g, 81h, 81i
A description of the detection system on the side is omitted because it is axially symmetric.

【0041】以上のように、画素列SNS3,SNS4
は視野マスク開口81d,81a,81gの位置におけ
る焦点検出に供され、画素列SNS5,SNS6は開口
81e,81b,81hの位置、画素列SNS7,SN
S8は開口81f,81c,81iの位置での焦点検出
に供される。合計9か所の位置における焦点検出が3対
の画素列で可能になっている。いずれも画素列の2次結
像レンズによる逆投影像が実際の検出視野であって、こ
れらをファインダー視野内に図21の様に表示すれば操
作者に都合が良い。但し、検出枠94a乃至94iを
12のフォーカシングスクリーンの内1面に書き込んで
も良いし、別にフォーカシングスクリーンの上方に隣接
して例えば液晶表示板16を設け、選択したブロックの
検出視野を表示しても良い。
As described above, the pixel rows SNS3, SNS4
Is used for focus detection at the positions of the field mask openings 81d, 81a, 81g, and the pixel columns SNS5, SNS6 are provided at the positions of the openings 81e, 81b, 81h, and the pixel columns SNS7, SN.
S8 is used for focus detection at the positions of the openings 81f, 81c, 81i. Focus detection at nine positions in total is possible with three pairs of pixel rows. In any case, the back-projected image of the pixel array by the secondary imaging lens is the actual detection visual field, and if these are displayed in the finder visual field as shown in FIG. 21 , it is convenient for the operator. However, the detection frames 94a to 94i are illustrated in FIG.
The information may be written on one of the twelve focusing screens. Alternatively, for example, a liquid crystal display panel 16 may be provided adjacently above the focusing screen to display the detection field of the selected block.

【0042】図22は、多孔マスク83の詳細図で、特
に射出瞳像との位置関係を示すものである。図中90
a,90b,90cはそれぞれ、分割フィールドレンズ
の中央部82a、周辺部82b、82cによる対物レン
ズ1の射出瞳の像で、視野マスク81の9つの開口を通
して得られたものである。射出瞳像90aの内部には、
多孔マスク開口83b、83cが、射出瞳像90bの内
部には、多孔マスク開口83a、83bが、射出瞳像9
0cの内部には多孔マスク開口83c、83dが夫々置
かれている。多孔マスク開口83b、83cは2つの射
出瞳像の共通する領域にあり、これらには2つの検出視
野からの光束が、可動マスク80の位置により選択的に
入射する。このように、一つのマスク開口が2つの検出
視野からの光束を受けるように構成することによって、
撮影レンズの予定結像面と光電変換素子との投影を縮小
結像として、センサー面積を小さくしつつ、更に視野マ
スク81a乃至81iの光束を光電変換素子上に導くこ
とが可能となった。
FIG. 22 is a detailed view of the multi-hole mask 83, particularly showing the positional relationship with the exit pupil image. 90 in the figure
Reference numerals a, 90b, and 90c denote images of the exit pupil of the objective lens 1 by the central portion 82a and the peripheral portions 82b and 82c of the split field lens, respectively, obtained through nine openings of the field mask 81. Inside the exit pupil image 90a,
The multi-aperture mask openings 83b and 83c are inside the exit pupil image 90b, and the multi-aperture mask openings 83a and 83b are
Inside of Oc, porous mask openings 83c and 83d are respectively placed. The multi-aperture mask openings 83b and 83c are located in a common region of the two exit pupil images, and light beams from two detection fields are selectively incident on the positions depending on the position of the movable mask 80. As described above, by configuring one mask opening to receive light beams from two detection fields,
It is possible to guide the luminous fluxes of the field masks 81a to 81i onto the photoelectric conversion element while reducing the sensor area by using the projected image plane of the imaging lens and the photoelectric conversion element as a reduced image.

【0043】次に、図23はカメラを横に構えている
か、縦に構えているかを検知するためのスイッチを示
す。図12に示す視線検知装置で光電変換器14に2次
元のエリア・センサを採用すれば、カメラの構えに応じ
てエリアセンサの縦の辺の出力と横の辺の出力を切替え
れば水平の視線方向を検出することは可能である。しか
しながら本実施例は光電変換器14に1次元センサを採
用しているため、カメラを縦に構えたときは誤検出を生
じるため、検出を中止する構成を取っている。
Next, FIG. 23 shows a switch for detecting whether the camera is held horizontally or vertically. If a two-dimensional area sensor is used for the photoelectric converter 14 in the eye-gaze detecting device shown in FIG. 12, if the output of the vertical side and the output of the horizontal side of the area sensor are switched in accordance with the attitude of the camera, the horizontal It is possible to detect the gaze direction. However, since the present embodiment employs a one-dimensional sensor for the photoelectric converter 14, erroneous detection occurs when the camera is held vertically, so that the detection is stopped.

【0044】本図は重力を利用した検出スイッチの一例
であって、107は回転軸で、軸支されたレバーの1端
には重り108が、他端には摩擦が少なくなる様に構成
したマイクロブラシ106aが設けられる。109、1
10、111は同一円上に配されたわん曲した電極で、
マイクロブラシ106aと電極109が接触していると
きには横位置信号が発生し、マイクロブラシ106aと
電極110または111が接触しているときは縦位置信
号が発生する。
This figure is an example of a detection switch using gravity. Reference numeral 107 denotes a rotating shaft, and a weight 108 is provided at one end of a shaft-supported lever, and the friction is reduced at the other end. A micro brush 106a is provided. 109, 1
10, 111 are curved electrodes arranged on the same circle.
When the microbrush 106a is in contact with the electrode 109, a horizontal position signal is generated, and when the microbrush 106a is in contact with the electrode 110 or 111, a vertical position signal is generated.

【0045】図24は電気系を主に示す。但し、FLN
は図12の鏡筒5に対応し、1はLNSに対応する。
又、LEDは同じく図12の照明光源13、SAは光電
変換器14に当る。またSNSは図12の部材6、詳細
には図17の焦点検出装置の光電源変換素子85に対応
し、MTR3は図17のステッピングモータ121に当
る。因みにMTR1はフィルム給送用モータ、MTR2
はシャッターばね巻上げモータである。またSW1とS
W2は、図示しないレリーズボタンの押し下げで順次閉
成されるスイッチを示し、SPCは露光制御用の測光セ
ンサを示す。DSPはカメラの諸情報を表示する表示板
を示す。
FIG. 24 mainly shows the electric system. However, FLN
S corresponds to the lens barrel 5 in FIG. 12, and 1 corresponds to LNS.
Also, the LED corresponds to the illumination light source 13 in FIG. Further, SNS corresponds to the member 6 in FIG. 12, specifically, the optical power conversion element 85 of the focus detection device in FIG. 17, and MTR3 corresponds to the stepping motor 121 in FIG. MTR1 is a film feed motor, MTR2
Is a shutter spring winding motor. SW1 and S
W2 indicates a switch that is sequentially closed by pressing a release button (not shown), and SPC indicates a photometric sensor for exposure control. DSP indicates a display panel for displaying various information of the camera.

【0046】一方、PRSはカメラの制御装置で、例え
ば、内部にCPU(中央処理装置)、ROM、RAM、
EEPROM(電気的消去可能プログラムマブルRO
M)、A/D変換機能を持つ1チップのマイクロ・コン
ピュータであり、ROMに格納されたカメラのシーケン
スプログラムに従って、自動露出制御機能、自動焦点検
出機能、フィルムの巻上げ・巻戻し等のカメラの動作を
行っている。EEPROMは不揮発性メモリの一種で、
各種の調整データが工程において書き込まれている。カ
メラの制御装置PRSは通信用信号SO、SI、SCL
Kを用いて、周辺回路およびレンズと通信し、各々の回
路やレンズの動作を制御する。
On the other hand, PRS is a camera control device, for example, a CPU (central processing unit), ROM, RAM,
EEPROM (Electrically Erasable Programmable RO)
M) A one-chip microcomputer having an A / D conversion function. The camera has an automatic exposure control function, an automatic focus detection function, and a film winding / rewinding function in accordance with a camera sequence program stored in a ROM. Is working. EEPROM is a type of nonvolatile memory.
Various adjustment data are written in the process. The camera control device PRS includes communication signals SO, SI, SCL
K is used to communicate with peripheral circuits and lenses and control the operation of each circuit and lens.

【0047】SOはPRSから出力されるデータ信号、
SIはPRSに入力されるデータ信号、SCLKは信号
SO、SIの同期信号である。
SO is a data signal output from the PRS,
SI is a data signal input to the PRS, and SCLK is a synchronization signal of the signals SO and SI.

【0048】LCMはレンズ通信バッファ回路であり、
カメラの動作中のときはレンズ用電源VLをレンズに与
え、PRSからの信号CLCMが高電位レベルのとき
は、カメラとレンズ間通信のバッファとなる。
LCM is a lens communication buffer circuit,
When the camera is in operation, the lens power supply VL is supplied to the lens. When the signal CLCM from the PRS is at a high potential level, it serves as a buffer for communication between the camera and the lens.

【0049】PRSがCLCMを“H”にして、SCL
Kに同期して所定のデータをSOから送出すると、LC
Mはカメラ・レンズ間接点を介して、SCLK、SOの
各々のバッファ信号LCK、DCLをレンズへ出力す
る。それと同時にレンズからの信号DLCのバッファ信
号をSIに出力し、PRSはSCLKに同期してSIか
らレンズのデータを入力する。
The PRS sets the CLCM to "H" and sets the SCL
When predetermined data is transmitted from SO in synchronization with K, LC
M outputs buffer signals LCK and DCL of SCLK and SO to the lens via the camera / lens indirect point. At the same time, a buffer signal of the signal DLC from the lens is output to SI, and the PRS inputs lens data from SI in synchronization with SCLK.

【0050】SDR1は焦点検出用のラインセンサ装置
SNSの駆動回路であり、信号CSDR1が“H”のと
き選択されて、SO、SI、SCLKを用いてPRSか
ら制御される。
SDR1 is a drive circuit of the line sensor device SNS for focus detection, which is selected when the signal CSDR1 is "H" and is controlled by the PRS using SO, SI and SCLK.

【0051】信号CK1はCCD駆動用クロックφ1
1、φ12を生成するためのクロックであり、信号IN
TEND1は蓄積動作が終了したことをPRSへ知らせ
る信号である。
The signal CK1 is a clock φ1 for driving the CCD.
1, a clock for generating φ12, and a signal IN
TEND1 is a signal for notifying the PRS that the accumulation operation has been completed.

【0052】SNSの出力信号OS1はクロックφ1
1、φ12に同期した時系列の像信号であり、SDR1
内の増幅回路で増幅された後、AOS1としてPRSに
出力される。PRSはAOS1をアナログ入力端子から
入力し、CK1に同期して、内部のA/D変換機能でA
/D変換後RAMの所定のアドレスに順次格納する。
The output signal OS1 of the SNS is clock φ1
1, a time-series image signal synchronized with φ12, and SDR1
After being amplified by the internal amplifier circuit, the signal is output to the PRS as AOS1. The PRS inputs AOS1 from the analog input terminal, and synchronizes with ACK1 by synchronizing with CK1.
After the / D conversion, the data is sequentially stored at a predetermined address of the RAM.

【0053】同じくSNSの出力信号であるAGC1
は、SNS内のAGC制御用センサの出力であり、SD
R1に入力されて、SNSの蓄積制御に用いられる。
AGC1 which is the output signal of SNS
Is the output of the AGC control sensor in the SNS, and SD
It is input to R1 and used for SNS accumulation control.

【0054】対となるセンサ列上に形成された2像の光
電変換出力の、一方の出力をA(i),他方の出力をB
(i)として図20にした。尚、この例ではセンサの画
素数を40画素(i=0,・・・,39)としている。
One of the photoelectric conversion outputs of the two images formed on the pair of sensor arrays is denoted by A (i), and the other is denoted by B.
FIG. 20 is shown as (i). In this example, the number of pixels of the sensor is 40 pixels (i = 0,..., 39).

【0055】像信号A(i)、B(i)から像ずれ量P
Rを検出する信号処理方法としては特開昭58−142
306号公報、特開昭59−107313号公報、特開
昭60−101513号公報、あるいは特開昭63−1
8314号などが開示されている。
From the image signals A (i) and B (i), the image shift amount P
Japanese Patent Application Laid-Open No. 58-142 discloses a signal processing method for detecting R.
No. 306, JP-A-59-107313, JP-A-60-101513, and JP-A-63-1
No. 8314 is disclosed.

【0056】SDR2は視線検出用のラインセンサ装置
SAの駆動回路であり、信号CSDR2が“H”のとき
選択されて、SO、SI、SCLKを用いてPRSから
制御される。
SDR2 is a drive circuit of the line sensor device SA for line-of-sight detection, which is selected when the signal CSDR2 is "H" and is controlled by the PRS using SO, SI and SCLK.

【0057】信号CK2はCCD駆動用クロックφ2
1、φ22を生成するためのクロックであり、信号IN
TEND2は蓄積動作が終了したことをPRSへ知らせ
る信号である。
The signal CK2 is a CCD driving clock φ2.
1, a clock for generating φ22, and a signal IN
TEND2 is a signal for notifying the PRS that the accumulation operation has been completed.

【0058】SAの出力信号OS2はクロックφ21、
φ22に同期した時系列の像信号であり、SDR2内の
増幅回路で増幅された後、AOS2としてPRSに出力
される。PRSはAOS2をアナログ入力端子から入力
し、CK2に同期して、内部のA/D変換機能でA/D
変換後RAMの所定のアドレスに順次格納する。
The SA output signal OS2 is clock φ21,
This is a time-series image signal synchronized with φ22, amplified by an amplifier circuit in SDR2, and output to the PRS as AOS2. The PRS inputs AOS2 from the analog input terminal, and synchronizes with ACK2 in synchronization with CK2.
After conversion, the data is sequentially stored at a predetermined address in the RAM.

【0059】同じくSNS2の出力信号であるAGC2
は、SA内のAGC制御用センサの出力であり、SDR
2に入力されて、SNSの蓄積制御に用いられる。
AGC2 which is the output signal of SNS2
Is the output of the AGC control sensor in the SA, and SDR
2 and used for SNS accumulation control.

【0060】LED(図12の13)は人眼照明用のL
EDで、光電素子SA(図12の14)の蓄積と同期し
てトランジスタTR3によって通電され視線の検出に供
される。
The LED (13 in FIG. 12) is an L for human eye illumination.
In the ED, the current is supplied to the transistor TR3 in synchronization with the accumulation of the photoelectric element SA (14 in FIG. 12), and is used for detecting the line of sight.

【0061】SPCは撮影レンズを介した光を受光する
露出制御用の測光センサであり、その出力SSPCはP
RSのアナログ入力端子に入力され、A/D変換後、自
動露出制御(AE)に用いられる。
SPC is an exposure control photometric sensor for receiving light through the taking lens, and its output SSPC is P
The signal is input to the analog input terminal of the RS and is used for automatic exposure control (AE) after A / D conversion.

【0062】DDRはスイッチ・センスおよび表示用回
路であり、信号CDDRが“H”のとき選択されて、S
O、SI、SCLKを用いてPRSから制御される。即
ち、PRSから送られてくるデータに基づいてカメラの
表示部材DSPの表示を切替えたり、不図示のレリーズ
ボタン(スイッチSW1、SW2に連動)をはじめモー
ド設定ボタン等各種操作部材のオン・オフ状態、また図
23に示した重力検出スイッチSWCの状態をPRSに
連絡する。
DDR is a switch sense and display circuit, which is selected when the signal CDDR is "H", and
It is controlled from the PRS using O, SI, and SCLK. That is, the display of the display member DSP of the camera is switched based on the data transmitted from the PRS, and the ON / OFF state of various operation members such as a release button (not shown) (linked with the switches SW1 and SW2) and a mode setting button. The state of the gravity detection switch SWC shown in FIG. 23 is notified to the PRS.

【0063】MDR1、MDR2はフィルム給送、シャ
ッターばね巻上げ用モータMTR1、MTR2の駆動回
路で、信号M1F、M1R、M2F、M2Rでモータの
正転・逆転を実行する。
MDR1 and MDR2 are driving circuits for the motors MTR1 and MTR2 for film feeding and shutter spring winding, and perform forward and reverse rotations of the motors by signals M1F, M1R, M2F and M2R.

【0064】MDR3は、焦点検出装置の可動マスク8
0移動用ステッピングモータMTR3(図9の121)
の駆動回路で信号M3Pで駆動ステップ数、信号M3D
で駆動方向指示を受け、ステッピングモータの各相にパ
ルスを分配し、励磁のための電流増幅を行う。
The MDR 3 is a movable mask 8 of the focus detection device.
Zero-movement stepping motor MTR3 (121 in FIG. 9)
The number of driving steps and the signal M3D with the signal M3P
Receives a drive direction instruction, distributes a pulse to each phase of the stepping motor, and performs current amplification for excitation.

【0065】MG1、MG2は各々シャッター先幕・後
幕走行開始用マグネットで、信号SMG1、SMG2、
増幅トランジスタTR1、TR2で通電され、PRSに
よりシャッター制御が行われる。
MG1 and MG2 are magnets for starting the driving of the first and second curtains of the shutter, respectively, and the signals SMG1, SMG2,
Electric current is supplied to the amplification transistors TR1 and TR2, and shutter control is performed by the PRS.

【0066】SW1、SW2はレリーズボタン87に連
動したスイッチで、レリーズボタン87の第一段階の押
下によりSW1がオンし、引き続いて第2段階の押下で
SW2がオンする。制御装置PRSはSW1オンで測光
・視線検出・自動焦点調節を行い、SW2オンをトリガ
として露出制御とその後のフィルムの巻き上げを行う。
SW1 and SW2 are switches linked to the release button 87. SW1 is turned on when the release button 87 is pressed in the first stage, and SW2 is subsequently turned on when pressed in the second stage. The control device PRS performs photometry, line-of-sight detection, and automatic focus adjustment when SW1 is turned on, and performs exposure control and subsequent film winding with SW2 turned on as a trigger.

【0067】なお、前記SW2はマイクロコンピュータ
である制御装置PRSの「割り込み入力端子」に接続さ
れ、SW1オン時のプログラム実行中でもSW2オンに
よって割り込みがかかり、直ちに所定の割り込みプログ
ラムへ制御を移すことができる。
The switch SW2 is connected to the "interrupt input terminal" of the control device PRS, which is a microcomputer. Even when the program is executed when the switch SW1 is turned on, an interrupt is generated by turning on the switch SW2, and the control is immediately transferred to a predetermined interrupt program. it can.

【0068】なお、スイッチ・センス表示用回路DD
R、モータ駆動回路MDR1、MDR2、シャッター制
御は、本発明と直接関わりがないので、詳しい説明は省
略する。
The switch sense display circuit DD
R, the motor drive circuits MDR1 and MDR2, and the shutter control are not directly related to the present invention, and thus detailed description is omitted.

【0069】LCKに同期してレンズ内制御回路LPR
Sに入力される信号DCLは、カメラからレンズFLN
Sに対する命令のデータであり、命令に対するレンズの
動作が予め決められている。
In-lens control circuit LPR in synchronization with LCK
The signal DCL input to S is transmitted from the camera to the lens FLN.
This is data of a command for S, and the operation of the lens for the command is predetermined.

【0070】LPRSは、所定の手続きに従ってその命
令を解析し、焦点調節や絞り制御の動作や、出力DLC
からのレンズの各種パラメータ(開放Fナンバー、焦点
距離、デフォーカス量対繰り出し量の係数等)の出力を
行う。
The LPRS analyzes the command according to a predetermined procedure, and performs operations of focus adjustment and aperture control, and outputs DLC.
Output various parameters of the lens (open F number, focal length, coefficient of defocus amount vs. extension amount, etc.).

【0071】実施例では、全体繰り出しの単レンズの例
を示しており、カメラから焦点調節の命令が送られた場
合には、同時に送られてくる駆動量・方向に従って、焦
点調節用モータLMTRを信号LMF、LMRによって
駆動して、光学系を光軸方向移動させて焦点調節を行
う。光学系の移動量はエンコーダ回路ENCのパルス信
号SENCでモニターして、LPRS内のカウンタで係
数しており、所定の移動が完了した時点で、信号LM
F、LMRを“L”にしてモータLMTRをS制御す
る。
The embodiment shows an example of a single lens which is fully extended. When a focus adjustment command is sent from the camera, the focus adjustment motor LMTR is controlled according to the drive amount and direction sent at the same time. Driven by the signals LMF and LMR, the optical system is moved in the optical axis direction to perform focus adjustment. The amount of movement of the optical system is monitored by a pulse signal SENC of the encoder circuit ENC, and is counted by a counter in the LPRS. When a predetermined movement is completed, the signal LM
F and LMR are set to “L” to S-control the motor LMTR.

【0072】カメラから絞り制御の命令が送られた場合
には、同時に送られてくる絞り段数に従って、絞り駆動
用としては公知のステッピング・モータDMTRを駆動
する。なお、ステッピング・モータはオープン制御が可
能なため、動作をモニターするためのエンコーダを必要
としない。
When an aperture control command is sent from the camera, a well-known stepping motor DMTR for driving the aperture is driven in accordance with the number of aperture stages sent at the same time. Since the stepping motor can be controlled open, it does not require an encoder for monitoring the operation.

【0073】次に図1〜図11を用いてカメラの動作を
説明する。図1はPRSに格納されたプログラムの全体
の流れを表わすフローチャートである。上記操作にてプ
ログラムの実行が開始されると、ステップ(002)に
おいてレリーズボタンの第1ストロークにてオンとなる
スイッチSW1の状態検知がなされスイッチSW1がオ
フのときは、ステップ(005)において、レンズに対
して「駆動停止命令」を送出することによって、駆動停
止の指示がなされる。ステップ(005)でPRS内の
RAMに設定されている制御用のフラグが、全てクリア
される。上記ステップ(002)、(005)はスイッ
チSW1がオンとなるか、あるいは電源スイッチがオフ
となるまで繰り返し実行され、従って、レンズ駆動中で
あっても、SW1がオンするとレンズは駆動を停止する
ことになる。SW1がオンとなることによってステップ
(003)へ移行する。ステップ(003)は「AE制
御」のサブルーチンを意味している。この「AE制御」
サブルーチンでは測光演算処理、露光制御ならびに露光
後のシャッタチャージ、フィルム巻き上げ等の一連のカ
メラ動作制御が行われる。なお、「AE制御」サブルー
チンは本発明とは直接関わりがないので詳細な説明は省
略するが、このサブルーチンの機能の概要は次の通りで
ある。
Next, the operation of the camera will be described with reference to FIGS. FIG. 1 is a flowchart showing the entire flow of the program stored in the PRS. When the execution of the program is started by the above operation, the state of the switch SW1 which is turned on by the first stroke of the release button is detected in step (002), and when the switch SW1 is turned off, in step (005), By sending a “drive stop command” to the lens, a drive stop instruction is issued. At step (005), all the control flags set in the RAM in the PRS are cleared. The above steps (002) and (005) are repeatedly executed until the switch SW1 is turned on or the power switch is turned off. Therefore, even when the lens is being driven, when the switch SW1 is turned on, the lens stops driving. Will be. When SW1 is turned on, the process proceeds to step (003). Step (003) means a subroutine of "AE control". This "AE control"
In the subroutine, a series of camera operation controls such as photometric calculation processing, exposure control, shutter charge after exposure, and film winding are performed. The "AE control" subroutine is not directly related to the present invention, and therefore detailed description is omitted, but the outline of the function of this subroutine is as follows.

【0074】SW1がオン中はこの「AE制御」サブル
ーチンが実行され、その度に測光および露光制御演算、
表示が行われる。不図示のレリーズボタンの第2ストロ
ークでスイッチSW2がオンになると、マイクロコンピ
ュータDRSの持つ割り込み処理機能によってレリーズ
動作が開始され、上記露光制御演算で求められた露光量
に基づいて絞りあるいはシャッタ秒時の制御を行い、露
光終了後にはシャッタ・チャージおよびフィルム給送動
作を行うことによってフィルム1コマの撮影が完了す
る。
While the switch SW1 is ON, the "AE control" subroutine is executed.
Display is performed. When the switch SW2 is turned on by the second stroke of the release button (not shown), the release operation is started by the interrupt processing function of the microcomputer DRS, and the aperture or the shutter time is set based on the exposure amount obtained by the above exposure control calculation. After the exposure is completed, the shutter charge and the film feeding operation are performed to complete the shooting of one frame of the film.

【0075】なお本発明の実施例のカメラはAFのモー
ドとして、いわゆる「ワンショット」と「サーボ」とい
う2つのモードを有し、被写体に応じて自動的に切換わ
ようになっている。AFモードがワンショットのときに
は、一旦合焦するとスイッチSW1をオフするまでは再
びレンズ駆動動作を行わず、また合焦するまではレリー
ズもできないようになっている。
The camera according to the embodiment of the present invention has two AF modes, so-called "one-shot" and "servo", which are automatically switched according to the subject. When the AF mode is one-shot, once focus is achieved, the lens driving operation is not performed again until the switch SW1 is turned off, and release is not possible until focus is achieved.

【0076】サーボモードの場合には、合焦後も引き続
き被写体の追きに追従したレンズ駆動を行い、後述する
動体予測制御によるレンズ駆動が終了した時点でレリー
ズが許可される。
In the case of the servo mode, the lens is driven to follow the tracking of the object even after focusing, and the release is permitted when the lens driving by the moving object prediction control described later is completed.

【0077】先に述べたように、レリーズ動作はスイッ
チSW2オンによって行われるが、フィルム1コマの撮
影が完了した後もSW2をオンさせたままの場合も、
「AE制御」は一旦終了されたものとしてリターンす
る。従って、SW2をオンさせたままの動作を説明する
と、ワンショットの場合には、合焦するまではレリーズ
できず、合焦すると初めてレリーズ可となり、1コマの
撮影を行う、その後はワンショットなので焦点調節は行
わず、同じレンズ位置のまま次のコマの撮影が行われ、
スイッチSW2がオンしている間は引き続いて撮影が実
行される。
As described above, the release operation is performed by turning on the switch SW2. However, even when the switch SW2 is kept on even after the photographing of one frame of the film is completed, the release operation is performed.
The “AE control” returns assuming that it has been once ended. Therefore, the operation with the SW2 turned on will be described. In the case of a one-shot, the release cannot be performed until the in-focus state is reached. The focus adjustment is not performed, the next frame is shot with the same lens position,
While the switch SW2 is on, shooting is continuously performed.

【0078】サーボ・モードの場合はスイッチSW2が
オンしている間は、「レリーズ動作」「AF制御」「レ
リーズ動作」「AF制御」というように交互に繰り返さ
れることになる。
In the case of the servo mode, while the switch SW2 is on, the operation is repeated alternately such as "release operation", "AF control", "release operation", "AF control".

【0079】さて、以上述べたようにステップ(00
3)において「AF制御」サブルーチンが終了すると、
ステップ(004)の「AF制御」サブルーチンが実行
される。
Now, as described above, step (00)
When the “AF control” subroutine ends in 3),
The "AF control" subroutine of step (004) is executed.

【0080】図2に「AF制御」サブルーチンのフロー
チャートを示す。
FIG. 2 shows a flowchart of the "AF control" subroutine.

【0081】まずステップ(108)ではフラグPRM
Vの状態判別を行う。PRMVは後で述べるように、レ
ンズ制御に関わるフラグで、前回の「AF制御」におい
てレンズ駆動を行ったときに1にセットされるフラグで
ある。いまはスイッチSW1オンから一回目のフローに
ついて述べているのでフラグPRMVは0であり、ステ
ップ(112)に移行する。
First, in step (108), the flag PRM is set.
The state of V is determined. PRMV is a flag related to lens control, which will be set to 1 when the lens is driven in the previous “AF control”, as described later. Since the first flow since the switch SW1 is turned on has been described, the flag PRMV is 0, and the flow shifts to step (112).

【0082】ステップ(112)ではフラグSRMVの
状態を検知しているが、SRMVもレンズ制御に関わる
フラグであり、いまはSRMV=0なのでステップ(1
55)へ移行する。ステップ(155)ではフラグLM
VDIを検知し、やはりであるのでステップ(15
0)へ移行する。
In step (112), the state of the flag SRMV is detected. However, SRMV is also a flag related to lens control.
Go to 55). In step (155), the flag LM
VDI is detected, and since it is also 0 , step (15)
Go to 0).

【0083】ステップ(150)では「視線検出」サブ
ルーチンを実行する。このサブルーチンを図4に示して
いる。ここで撮影者の視線の位置を検出する。なお、こ
のサブルーチンおよび続くサブルーチンの詳細は後述す
る。
At step (150), a "line-of-sight detection" subroutine is executed. This subroutine is shown in FIG. Here, the position of the line of sight of the photographer is detected. The details of this subroutine and the following subroutine will be described later.

【0084】ステップ(151)では、図11に示した
測距視野範囲設定サブルーチンに従い視線検出結果に基
づいて、図17に示した3ブロック9ヵ所測距視野のう
ち、視線位置に最も近い一ブロックを選択し、ステッピ
ングモータ121を制御して可動マスク80の開口を所
望の位置にセットする。
In step (151), based on the line-of-sight detection result in accordance with the distance-measuring visual-field range setting subroutine shown in FIG. 11, one block closest to the line-of-sight position among the three blocks of nine distance-measuring visual fields shown in FIG. Is selected, and the stepping motor 121 is controlled to set the opening of the movable mask 80 at a desired position.

【0085】次のステップ(129)では、「焦点検
出」サブルーチンを実行する。このサブルーチンのフロ
ーチャートは図5に示しているが、このサブルーチン内
で撮影レンズの焦点状態を3つの測距視野について検出
する。これに続くステップ(102)では図3に示すサ
ブルーチンにて被写体が動いているか、静止しているか
を検知してAFモードを設定するが、一回目のフローに
おいては、ワンショットモードとしてAFOFLGはク
リアされてリターンされる。
In the next step (129), a "focus detection" subroutine is executed. The flowchart of this subroutine is shown in FIG. 5. In this subroutine, the focus state of the photographing lens is detected for three distance measurement fields. In the subsequent step (102), the AF mode is set by detecting whether the subject is moving or stationary in the subroutine shown in FIG. 3. In the first flow, AFOFLG is cleared as the one-shot mode. Returned.

【0086】ステップ(152)ではフラグAFOFL
Gの状態検知を行い、一回目のフローではであるので
ステップ(130)に移行する。
In step (152), the flag AFOFL
The state of G is detected, and since it is 0 in the first flow, the flow proceeds to step (130).

【0087】次のステップ(130)では「判定」サブ
ルーチンを実行する。このサブルーチンのフローチャー
トは図7に示している。「判定」サブルーチンは「焦点
検出」サブルーチンの結果に基づいて、3つの測距視野
のうち、焦点調節に用いる一つの測距視野を選択すると
ともに、合焦あるいは焦点検出不能等の判定を行い、さ
らにレンズ駆動が必要ない場合には、レンズ駆動禁止フ
ラグLMVDI0にセットする。
In the next step (130), a "determination" subroutine is executed. A flowchart of this subroutine is shown in FIG. The “judgment” subroutine selects one of the three distance measurement fields of view used for focus adjustment based on the result of the “focus detection” subroutine, and determines whether focusing or focus detection is impossible, and the like. If lens drive is not required, the lens drive inhibition flag LMVDI is set to 0.

【0088】次にステップ(131)では、合焦または
焦点検出不能を表示するための「表示」サブルーチンを
実行する。これは表示用回路DDR(図13)に所定の
データを通信して、表示装置DSPに表示せしめるわけ
であるが、この動作は本発明とは直接関わりがないの
で、これ以上の説明は省略する。
Next, at step (131), a "display" subroutine for displaying the in-focus state or the inability to detect the focus is executed. This means that predetermined data is communicated to the display circuit DDR (FIG. 13) and displayed on the display device DSP. However, since this operation is not directly related to the present invention, further description is omitted. .

【0089】ステップ(132)ではフラグLMVDI
の状態を検知する。先に述べたように、レンズ駆動が必
要ない場合にはLMVDIが1にセットされるので、ス
テップ(132)においてLMVDI=1ならばステッ
プ(133)へ移行して「AF制御」サブルーチンをリ
ターンする。フラグLMVDIが0ならば、ステップ
(134)へ移行して、フラグLCFLGの状態検知を
行う。
In step (132), the flag LMVDI
Detect the state of. As described above, if lens drive is not required, LMVDI is set to 1, and if LMVDI = 1 in step (132), the flow advances to step (133) to return to the "AF control" subroutine. . If the flag LMVDI is 0, the process proceeds to step (134) to detect the state of the flag LCFLG.

【0090】LCFLGは、ステップ(129)の「焦
点検出」サブルーチン内で設定される低コントラストフ
ラグで、像信号のコントラストが所定値より低い場合に
1にセットされている。ステップ(134)においてL
CFLGが0ならば、焦点検出するにコントラスト充分
であったということになり、ステップ(135)におい
て後述の「レンズ駆動」を行ったのち、ステップ(13
6)でレンズ駆動フラグPRMVを1にセットし、ステ
ップ(137)で「AF制御」サブルーチンをリターン
する。
LCFLG is a low contrast flag set in the "focus detection" subroutine of step (129), and is set to 1 when the contrast of the image signal is lower than a predetermined value. In step (134), L
If CFLG is 0, it means that the contrast is sufficient for focus detection, and after performing "lens drive" described later in step (135), step (13)
In step 6), the lens drive flag PRMV is set to 1, and in step (137), the "AF control" subroutine is returned.

【0091】ステップ(134)においてLCFLGが
1ならば、低コントラストであったとして、ステップ
(138)へ移行する。
If LCFLG is 1 in step (134), it is determined that the contrast is low, and the routine goes to step (138).

【0092】ステップ(138)以降のステップは、い
わゆる「サーチ動作」の最初の制御フローである。
The steps after step (138) are the first control flow of the so-called "search operation".

【0093】さて、ステップ(138)では、レンズと
通信して、焦点調節レンズの移動量をそれに連動したエ
ンコーダの出力パルスで計数する「距離環カウンタ」の
カウント値FCNTをレンズ内制御装置LPRSから入
力する。このカウンタはレンズ用の電源VLの供給開始
時に0にリセットされ、繰り出し方向はアップカウン
ト、繰り込み方向はダウンカウントというように決めら
れている。
In step (138), the count value FCNT of the "distance ring counter" which communicates with the lens and counts the amount of movement of the focus adjustment lens by the output pulse of the encoder associated therewith is transmitted from the in-lens control device LPRS. input. This counter is reset to 0 at the start of the supply of the power supply VL for the lens, and the extension direction is determined to be up-count, and the extension direction is determined to be down-count.

【0094】従って、距離環カウンタのカウント値FC
NTによってレンズ内の焦点調節レンズの光軸方向に対
する相対位置を知ることができる。
Therefore, the count value FC of the distance ring counter
The relative position of the focus adjusting lens in the lens with respect to the optical axis direction can be known by NT.

【0095】次のステップ(139)において、カウン
ト値FCNTをマイクロコンピュータPRS内部のRA
M上の変換領域LPOSに格納・記憶しておく、このカ
ウント値はサーチ動作を開始したときのレンズの相対位
置を表わし、後で述べるように、サーチ動作によってコ
ントラスト充分な被写体を検知できなかった場合に、こ
のサーチ開始レンズ位置にレンズを戻すために使われ
る。
In the next step (139), the count value FCNT is stored in the RA inside the microcomputer PRS.
This count value is stored and stored in the conversion area LPOS on M. This count value indicates the relative position of the lens at the start of the search operation. As will be described later, an object having sufficient contrast cannot be detected by the search operation. In this case, it is used to return the lens to the search start lens position.

【0096】続いて、ステップ(140)でレンズに対
して「至近方向駆動命令」を送出し、これによりサーチ
動作が開始される。レンズはこの命令を受けて、焦点調
節レンズを至近方向へ駆動させる。この命令は駆動量は
指定せずに、単に駆動方向のみを指示する命令であり、
焦点調節レンズが至近端の機械的限界にくれば、レンズ
内制御回路LPRSがそれを検知してレンズ自身が駆動
を停止する。なお、機械的限界位置の検知は、エンコー
ダパルスSENCの時間間隔によって認識する。ステッ
プ(141)では変数SRCNT、フラグSRMVを1
にセットする。SRCNTはサーチ動作の状態を表わす
変数で、サーチ動作を行っていないときには0、レンズ
が至近方向へ駆動しているときには1、無限方向へ駆動
しているときには2、サーチ開始レンズ位置に向かって
駆動しているときには3に設定される。いまここではレ
ンズを至近方向へ駆動させたので、変数SRCNTには
1を設定する。またSRMVはサーチ動作のレンズ駆動
を行ったことを表わすフラグである。
Subsequently, in step (140), a "close-direction driving command" is transmitted to the lens, whereby the search operation is started. The lens receives this command and drives the focusing lens in the closest direction. This command does not specify the driving amount, but simply indicates the driving direction.
When the focus adjustment lens reaches the mechanical limit at the near end, the lens control circuit LPRS detects this and stops driving the lens itself. The detection of the mechanical limit position is recognized based on the time interval of the encoder pulse SENC. In step (141), the variable SRCNT and the flag SRMV are set to 1
Set to. SRCNT is a variable indicating the state of the search operation, and is 0 when the search operation is not performed, 1 when the lens is driven in the close direction, 2 when the lens is driven in the infinite direction, and is driven toward the search start lens position. Is set to 3. Here, since the lens is driven in the close direction, the variable SRCNT is set to 1. SRMV is a flag indicating that the lens drive for the search operation has been performed.

【0097】ステップ(138)〜(141)にてサー
チ動作の最初の制御を行われ、ステップ(142)で
「AF制御」サブルーチンをリターンする。
At steps (138) to (141), the first control of the search operation is performed, and at step (142), the "AF control" subroutine is returned.

【0098】図1にてステップ(003)の「AF制
御」サブルーチンが終了すると、再びステップ(00
2)でスイッチSW1の状態判別を行っている。ここ
で、SW1がオフされていればステップ(003)でレ
ンズに対して「駆動停止命令」を送出する。即ち、前回
の「AF制御」サブルーチンで何らかのレンズ駆動命令
を出していたとしても、スイッチSW1がオフしたとき
にはレンズ駆動を停止させる。そして、次のステップ
(005)で全フラグをクリアする。
When the "AF control" subroutine of step (003) is completed in FIG.
In step 2), the state of the switch SW1 is determined. If the switch SW1 is turned off, a "drive stop command" is sent to the lens in step (003). That is, even if a certain lens driving command is issued in the previous “AF control” subroutine, the lens driving is stopped when the switch SW1 is turned off. Then, in the next step (005), all flags are cleared.

【0099】ステップ(002)でスイッチSW1がオ
ンのままならば、ステップ(003)の「AE制御」サ
ブルーチンを実行後、ステップ(005)で再び「AF
制御」サブルーチンの実行を開始する。
If the switch SW1 remains on at step (002), the "AE control" subroutine of step (003) is executed, and then "AF" is again executed at step (005).
Control ”subroutine is started.

【0100】スイッチSW1がオン中の「AF制御」サ
ブルーチン(図2)の流れを、場合分けして以下に説明
してゆく。
The flow of the "AF control" subroutine (FIG. 2) while the switch SW1 is on will be described below for each case.

【0101】(A)先ず、過去の「AF制御」サブルー
チンで、低コントラストでなく(フラグLCFLG(1
34)が0)、レンズ駆動が行われた(フラグPRMV
(108)が1)場合について述べる。
(A) First, in the past “AF control” subroutine, instead of low contrast (flag LCFLG (1
34) is 0), the lens is driven (flag PRMV
The case where (108) is 1) will be described.

【0102】「AF制御」サブルーチンが実行される
と、ステップ(108)にてフラグPRMVの状態判別
を行い、ステップ(109)へ移行する。ステップ(1
09)ではレンズと通信して、レンズ内制御回路LPR
Sからレンズ駆動状態の情報を入力する。ここで所定の
駆動を完了しレンズが既に停止していれば、ステップ
(110)へ移行してフラグPRMVをクリアした後、
ステップ(129)以降の新たな焦点調節動作を開始す
る。但し、ワンショットモードとサーボモードで測距視
野決定の取扱いが異なり、ステップ(156)におい
て、フラグAFOFLGが1であれば、ステップ(15
0)に移行して再び視線検出を行い、0であれば、ステ
ップ(129)に移行して前回を同じ測距視野範囲にて
焦点検出を行う。レンズが未だ停止していなければステ
ップ(111)へ移行して「AF制御」サブルーチンを
リターンする。即ち、過去の「AF制御」のステップ
(135)でレンズに対して指示した量の駆動が終了す
るまでは、新たな焦点調節動作は行わないことになる。
When the "AF control" subroutine is executed, the state of the flag PRMV is determined in step (108), and the flow advances to step (109). Step (1
09) communicates with the lens, and the control circuit LPR in the lens.
From S, information on the lens driving state is input. If the predetermined drive is completed and the lens has already stopped, the process proceeds to step (110) to clear the flag PRMV,
A new focus adjustment operation after step (129) is started. However, in the one-shot mode and the servo mode, the handling of the distance measurement visual field determination is different, and if the flag AFOFLG is 1 in step (156), step (15)
Go to step 0) to perform line-of-sight detection again. If it is 0, go to step (129) to perform focus detection in the same distance measurement field of view in the previous time. If the lens has not been stopped, the process proceeds to step (111) and the "AF control" subroutine is returned. That is, a new focus adjustment operation is not performed until the drive of the amount specified for the lens in the past “AF control” step (135) is completed.

【0103】(B)次に、前回の「AF制御」サブルー
チンで、低コントラスト(フラグLCFLGが1)で、
サーチ動作が行われた(フラグSRMVが1)場合につ
いて述べる。
(B) Next, in the previous “AF control” subroutine, with low contrast (the flag LCFLG is 1),
The case where the search operation is performed (the flag SRMV is 1) will be described.

【0104】「AF制御」サブルーチンが実行される
と、ステップ(112)にてフラグSRMVの状態検知
を行い、ステップ(113)へ移行する。
When the "AF control" subroutine is executed, the state of the flag SRMV is detected in step (112), and the flow advances to step (113).

【0105】ステップ(113)ではレンズからレンズ
駆動状態の情報を入力し、レンズが既に停止していれば
ステップ(119)へ移行し、駆動中ならばステップ
(153)へ移行する。前述したようにサーチ動作は レンズを至近方向へ駆動する(変数SRCNT=1) の駆動中にコントラストのある被写体を発見できず
に、焦点調節レンズが至近側機械的限界に達すれば、今
後はレンズを無限方向へ駆動する(変数SRCNT=
2) の駆動中にコントラストのある被写体を発見できず
に、焦点調節レンズが無限側機械的限界に達すれば、今
後はレンズをサーチ開始レンズ位置へ駆動する(変数S
RCNT=3)という制御を行っている。
In step (113), information on the lens driving state is input from the lens. If the lens has already stopped, the flow proceeds to step (119), and if the lens is being driven, the flow proceeds to step (153). As described above, the search operation is to drive the lens in the close direction (variable SRCNT = 1). If a subject with contrast cannot be found during driving, and the focusing lens reaches the mechanical limit on the close side, the lens will not be used in the future. In the infinite direction (variable SRCNT =
2) If the focusing lens reaches the mechanical limit on the infinity side without finding a subject with contrast during the driving of (2), the lens is driven to the search start lens position in the future (variable S
RCNT = 3).

【0106】サーチ動作中においては、焦点検出の前段
に必ず視線検出を行い、そのつど測距視野範囲を設定し
直す。これは一回目のフローで視線位置に基づいて測距
視野範囲を設定したにもかかわらず、焦点検出の結果が
低コントラストであり、サーチ動作に入ったということ
は、撮影レンズの初期デフォーカスが極めて大きく、撮
影者が被写体を正確に知覚していなかった可能性を示し
ており、この状態での視線検出結果は意味を持たないた
めのものである。上記ステップ(153)とステップ
(154)における視線検出と測距視野範囲の設定サブ
ルーチンがこの動作である。
During the search operation, the line of sight is always detected prior to the focus detection, and the range of the distance measurement visual field is reset each time. This is because despite the fact that the range of the field of view was set based on the line-of-sight position in the first flow, the focus detection result was low contrast, and the search operation was started. This is extremely large, indicating that the photographer may not have correctly perceived the subject, and the gaze detection result in this state has no meaning. The line of sight detection and the subroutine for setting the distance measurement visual field range in the above steps (153) and (154) are this operation.

【0107】ステップ(114)にて「焦点検出」サブ
ルーチンを実行する。このサブルーチンでは被写体のデ
フォーカス量とコントラストを検出する。次にステップ
(115)において低コントラストフラグLCFLGの
状態判定を行い、LCFLGが1で低コントラストなら
ばステップ(117)で「AF制御」サブルーチンをリ
ターンする。即ち、サーチ動作において焦点検出を行っ
たとき、低コントラストならば何もしないことになる。
At step (114), a "focus detection" subroutine is executed. In this subroutine, the defocus amount and the contrast of the subject are detected. Next, in step (115), the state of the low contrast flag LCFLG is determined, and if LCFLG is 1 and the contrast is low, the "AF control" subroutine is returned in step (117). That is, when focus detection is performed in the search operation, nothing is performed if the contrast is low.

【0108】ここでフラグLDFLGが0で低コントラ
ストでないと判定されたときには、ステップ(116)
へ移行し、レンズに対して「駆動停止命令」を送出す
る。次にステップ(118)でフラグSRMVをクリア
した後、ステップ(129)で新たな焦点調節制御を行
うことになる。即ち、サーチ動作中の焦点検出で低コン
トラストでない、つまり焦点検出するに充分なコントラ
ストを検出した場合には、レンズを停止させてサーチ動
作を終了(SRMVを0とする)し、同じ測距視野範囲
にて新たな焦点調節を行うのである。
If the flag LDFLG is 0 and it is determined that the contrast is not low, step (116) is executed.
Then, a “drive stop command” is sent to the lens. Next, after clearing the flag SRMV in step (118), new focus adjustment control is performed in step (129). That is, when the focus detection during the search operation is not low contrast, that is, when a contrast sufficient for focus detection is detected, the lens is stopped and the search operation is terminated (SRMV is set to 0), and the same distance measurement field of view is set. A new focus adjustment is made in the range.

【0109】上述したの動作でコントラストを検出で
きないときには、レンズの焦点調節レンズが至近側の機
械的限界にたっするまで、「AF制御」サブルーチンが
実行される度にステップ(117)で「AF制御」サブ
ルーチンをリターンすることになる。
If the contrast cannot be detected by the above-described operation, the "AF control" subroutine is executed every time the "AF control" subroutine is executed until the focusing lens of the lens reaches the mechanical limit on the closest side. The subroutine is returned.

【0110】レンズが至近端に達すると、ステップ(1
13)でレンズ停止を検知してステップ(119)へ移
行する。いま上記?の場合について述べているからステ
ップ(120)へ移行する。なお、(ロ)の場合ならば
ステップ(119)からステップ(123)へ移行し、
ここでステップ(124)へ移行する。(ハ)の場合に
はここでステップ(161)へ移行してサーチ動作を終
了するわけであるが、(ロ)(ハ)の場合については後
述する。
When the lens reaches the near end, step (1)
At 13), the lens stop is detected, and the routine proceeds to step (119). Since the above case is described, the process proceeds to step (120). In the case of (b), the process proceeds from step (119) to step (123),
Here, the process proceeds to step (124). In the case of (c), the process shifts to step ( 161 ) to end the search operation. The cases of (b) and (c) will be described later.

【0111】さて、ステップ(120)では変数SRC
NTに1を加えている。これはレンズが至近端に達した
ので、次に無限方向へ駆動させるためで、次のステップ
(121)でレンズに「無限方向駆動命令」を送出し、
上記サーチ動作が開始される。そしてステップ(12
2)で「AF制御」サブルーチンをリターンする。動
作中にもコントラストが得られない場合の制御は先に述
べたの場合と同じく、「AF制御」サブルーチンが実
行される度に、ステップ(117)でリターンし、コン
トラストが検出された場合もと同様である。
In step (120), the variable SRC
One is added to NT. This is because the lens has reached the near end, so that the lens is driven in the infinite direction next. In the next step (121), an "infinite direction driving command" is sent to the lens.
The search operation is started. And step (12)
In 2), the "AF control" subroutine is returned. The control in the case where the contrast cannot be obtained even during the operation is the same as the above-mentioned case, the routine returns to the step (117) every time the "AF control" subroutine is executed, and if the contrast is detected, The same is true.

【0112】レンズの焦点調節レンズが無限側の機械的
限界に達すると、ステップ(113)でレンズ停止を検
知し、ステップ(119)を経てステップ(123)へ
移行する。いまサーチ動作はであるからSRCNTは
2であり、ステップ(123)からステップ(124)
へ移行する。ステップ(124)では変数SRCNTに
1を加えており、これによりサーチ動作の動作とな
る。
When the focusing lens of the lens reaches the mechanical limit on the infinity side, the stop of the lens is detected in step (113), and the process proceeds to step (123) via step (119). Since the search operation is now performed, SRCNT is 2, and steps (123) to (124) are performed.
Move to. In step (124), 1 is added to the variable SRCNT, and the search operation is performed.

【0113】ステップ(125)では前述した距離環カ
ウンタ値FCNTを入力し、ステップ(126)で変数
FPにLPOS−FCNTの値を格納する。変数LPO
Sはサーチ動作をしたときの距離環カウンタの値が格納
されており、これから現在のカウンタ値を減算したFP
は、現在のレンズ位置からサーチ開始位置までの距離環
カウンタ値を表わしている。このFPをステップ(12
7)にてレンズへ送出して、距離環カウンタ値でFPな
る量のレンズ駆動を命令する。即ち、レンズをサーチ開
始位置へ駆動するわけである。そしてステップ(12
8)で「AF制御」サブルーチンをリターンする。サー
チ動作の動作中の制御はこれまで述べたの場合と
同様である。
In step (125), the above-mentioned distance ring counter value FCNT is input, and in step (126), the value of LPOS-FCNT is stored in the variable FP. Variable LPO
S stores the value of the distance ring counter at the time of the search operation, and subtracts the current counter value from this value.
Represents the distance ring counter value from the current lens position to the search start position. This FP is transferred to step (12
At 7), the lens is sent to the lens to instruct the lens to be driven by the amount of FP by the distance ring counter value. That is, the lens is driven to the search start position. And step (12)
In step 8), the "AF control" subroutine is returned. The control during the search operation is the same as that described above.

【0114】焦点調節レンズがサーチ開始位置に達する
と、ステップ(113)でレンズ停止が検知され、ステ
ップ(119)、(123)を経て、ステップ(11
8)でフラグSRMVをクリアしてサーチ動作を終了し
た後、ステップ(129)以降で新たな焦点調節動作を
開始する。
When the focus adjusting lens reaches the search start position, the stop of the lens is detected in step (113), and the process proceeds to steps (119) and (123), and then to step (11).
After the flag SRMV is cleared in 8) and the search operation is completed, a new focus adjustment operation is started in step (129) and subsequent steps.

【0115】次に2回目以降のAF制御のフローについ
て述べる。そのためにまずステップ(102)の動体検
知サブルーチンについて詳述する。
Next, the flow of AF control after the second time will be described. For this purpose, the moving object detection subroutine of step (102) will be described in detail first.

【0116】図3に動体検知サブルーチンを示す。この
フローはワンショットモードで合焦後、あるいはワンシ
ョットモードで合焦に致らない場合に、像面上における
被写体の連続した移動を検知することによって、AFモ
ードをサーボに変更する機能を有する。
FIG. 3 shows a moving object detection subroutine. This flow has a function of changing the AF mode to servo by detecting continuous movement of the subject on the image plane after focusing in the one-shot mode or when focusing is not achieved in the one-shot mode. .

【0117】まずステップ(624)において、フラグ
AFOFLGの状態を検知し、1であればステップ(6
23)へ移行し、ただちにサブルーチンをリターンす
る。これは一度サーボモードに入ったらワンショットモ
ードへ戻らないようにするためであり、モード間のハン
チング現象を防止するための処置である。
First, in step (624), the state of the flag AFOFLG is detected.
Go to 23), and immediately return to the subroutine. This is to prevent returning to the one-shot mode once the servo mode is entered, and is a measure for preventing a hunting phenomenon between modes.

【0118】ステップ(602)では、図2のステップ
(129)での焦点検出で前回のフローにて選択した測
距視野において焦点検出が可能か否かを判別し、焦点検
出が可能であればステップ(603)へ進みそうでなけ
れば、動体検知動作を初期状態に戻すべく、ステップ
(620)へ移行する。
In step (602), it is determined whether or not focus detection is possible in the focus detection field selected in the previous flow by the focus detection in step (129) in FIG. If the process does not proceed to step (603), the process proceeds to step (620) to return the moving object detection operation to the initial state.

【0119】以降の説明において、デフォーカス量とは
前回あるいは前々回のフローにおいては、選択された測
距視野での値である。
In the following description, the defocus amount is a value in the selected distance-measuring visual field in the previous or last two-time flow.

【0120】ステップ(603)では、前々回検出のデ
フォーカス量DF2をDF1へ、前回のデフォーカス量
DF3をDF2へ、今回のデフォーカス量DEFをDF
3に入力し、データの更新を行う。次のステップ(60
4)では焦点検出が3回連続して行えたかどうかを判別
し、ACNT=3であればステップ(607)へ移行
し、そうでなければステップ(605)へ移行する。
In the step (603), the defocus amount DF2 detected two times before is set to DF1 , the previous defocus amount DF3 is set to DF2, and the current defocus amount DEF is set to DF1.
3 and update the data. Next step (60
In 4), it is determined whether or not focus detection has been performed three times in succession. If ACNT = 3, the flow shifts to step (607); otherwise, the flow shifts to step (605).

【0121】ステップ(605)では、カウンターAC
NTを1カウントアップし、ステップ(606)へ移行
する。次のステップ(605)では、再度焦点検出が3
回連続して行えたかどうかを判別し、ACNT=3であ
ればステップ(607)へ進んで動体検知動作を行い、
そうでなければ、ステップ(623)へ移行し、このサ
ブルーチンをリターンする。
In step (605), the counter AC
NT is incremented by one, and the routine goes to step (606). In the next step (605), the focus detection again
It is determined whether or not the operation has been performed consecutively, and if ACNT = 3, the process proceeds to step (607) to perform the moving object detection operation.
If not, the process proceeds to step (623) and returns to this subroutine.

【0122】ステップ(607)では、前々回の焦点検
出から前回の焦点検出までのデフォーカス変化量DFA
および前回の焦点検出から今回の焦点検出までのデフォ
ーカス変化量DFBを演算する。
In step (607), the defocus change amount DFA from the focus detection two times before to the previous focus detection
And the defocus change amount DFB from the previous focus detection to the current focus detection is calculated.

【0123】次のステップ(608)では、前回の焦点
検出から今回の焦点検出までのデフォーカス変化量DF
Bが所定値ADより小さいかどうかを判別し、ADより
小さければステップ(609)へ進み、そうでなければ
ステップ(620)へ移行する。そこでデフォーカス変
化量DFBが所定値ADより大きいときには、被写体の
移動ではなく、障害物の視野への侵入やフレーミング変
更によってデフォーカス量が変化したと考え、このよう
な場合には、動体検知動作をリセットすべくステップ
(620)へ移行する。ADの値の一例として0.5m
m程度の値を用いているが、時間の要素を考慮したデフ
ォーカス変化速度によって、上記判定を行うと、焦点検
出の時間間隔による影響を取り除くことができ、更に正
確な判定が可能になる。
In the next step (608), the defocus change amount DF from the previous focus detection to the current focus detection is calculated.
It is determined whether or not B is smaller than a predetermined value AD. If B is smaller than AD, the process proceeds to step (609); otherwise, the process proceeds to step (620). Therefore, when the defocus change amount DFB is larger than the predetermined value AD, it is considered that the defocus amount has changed due to the invasion of the obstacle into the field of view or the framing change, not the movement of the subject. To step (620) to reset. 0.5m as an example of the value of AD
Although a value of about m is used, if the above-described determination is performed based on the defocus change speed in consideration of the time factor, the influence of the time interval of focus detection can be removed, and more accurate determination can be performed.

【0124】ステップ(609)では、撮影レンズの焦
点距離をLF2に入力し、次のステップ(610)で
は、合焦となった時点での撮影レンズの焦点距離LF1
と現在の焦点距離LF2の変化率AIZを計算する。
In step (609), the focal length of the photographing lens is input to LF2. In the next step (610), the focal length LF1 of the photographing lens at the time of focusing is obtained.
And the change rate AIZ of the current focal length LF2 are calculated.

【0125】ステップ(611)では、ステップ(61
0)で演算された焦点距離変化率AIZが0.2より小
さいか否かを判別し、小さければステップ(612)へ
移行し、そうでなければステップ(620)へ進み、動
体検知動作をリセットする。ここで焦点距離変化率が大
きいとき、すなわち、撮影レンズが部分フォーカスであ
るとかズームレンズ等で大きくズーミングをしたときに
は、ズーミングによってデフォーカス量が変化する可能
性があり、このようなデフォーカス変化によって誤って
動体と判断されることを防止するためである。
In step (611), step (61)
It is determined whether the focal length change rate AIZ calculated in 0) is smaller than 0.2, and if it is smaller, the process proceeds to step (612); otherwise, the process proceeds to step (620) to reset the moving object detection operation. I do. Here, when the focal length change rate is large, that is, when the photographing lens is partially focused or when zooming is greatly performed with a zoom lens or the like, the defocus amount may change due to zooming. This is to prevent the moving object from being erroneously determined.

【0126】ステップ(612)では、デフォーカス変
化量DFAとDFBの値が同じかどうか判別するもので
あり、DFA/DFB>0であれば、同方向であると判
断し、ステップ(613)に移行し、そうでなければ、
ステップ(620)へ進み、動体検知動作をリセットす
る。これは、被写体が一方向に移動していれば、デフォ
ーカス量の変化する方向も同じなので、これによって動
体と判断し、そうでなければ動体検知をやり直すため、
各パラメータをリセットする。
In step (612), it is determined whether or not the values of the defocus change amounts DFA and DFB are the same. If DFA / DFB> 0, it is determined that the directions are the same, and the process proceeds to step (613). Migrate, otherwise
Proceeding to step (620), the motion detection operation is reset. This is because if the subject is moving in one direction, the direction in which the defocus amount changes is the same, so it is determined that it is a moving object, and if not, the moving object detection is redone,
Reset each parameter.

【0127】ステップ(613)では、動体の判定を行
うためのパラメータMOVECNTを1カウントアップ
し、ステップ(614)へ進む。
In step (613), the parameter MOVECNT for determining the moving object is counted up by one, and the flow advances to step (614).

【0128】ステップ(614)では、デフォーカス変
化量DFBが所定値BDより大きいかどうかを判別し、
BDより大きいときステップ(615)へ進み、そうで
ないとき、ステップ(616)へ移行する。ステップ
(615)では、MOVECNTを1カウントアップ
し、ステップ(616)へ移行する。これはデフォーカ
ス変化量DFBが所定値BD(例えば0.08mm)よ
り大きい、すなわち速い被写体に対してはMOVECN
Tのカウントスピードを上げ、サーボ制御への移行を早
くするためのものである。そして、この判定はデフォー
カス変化量以外のパラメータ、例えばでフォーカス変化
速度を使えば、焦点検出の時間間隔による影響を取り除
くことができ、より正確な判定を行うことができる。
In the step (614), it is determined whether or not the defocus change amount DFB is larger than a predetermined value BD.
If it is larger than BD, proceed to step (615); otherwise, proceed to step (616). In step (615), MOVECNT is counted up by one, and the routine goes to step (616). This is because the defocus change amount DFB is larger than a predetermined value BD (for example, 0.08 mm).
This is to increase the count speed of T and to speed up the transition to servo control. If a parameter other than the defocus change amount, such as a focus change speed, is used for this determination, the influence of the time interval of focus detection can be removed, and more accurate determination can be made.

【0129】ステップ(616)では、今回検出したデ
フォーカス量DF3が所定値CD(例えば0.2mm)
より大きい(後ピン)かどうかを判定し、CDより大き
ければステップ(617)へ進み、そうでなければ、ス
テップ(618)へ移行する。ステップ(617)では
MOVECNTを1カウントアップしてステップ(61
8)へ進む。ここでは、画面中央にある被写体が、ある
程度以上後ピン状態となれば、サーボ制御への移行を早
くするため、MOVECNTのカウントアップスピード
を速くしている。
In step (616), the currently detected defocus amount DF3 is set to a predetermined value CD (for example, 0.2 mm).
It is determined whether or not the size is larger (back focus). If the size is larger than the CD, the process proceeds to step (617); otherwise, the process proceeds to step (618). In step (617), MOVECNT is counted up by one, and step (61) is performed.
Proceed to 8). Here, if the subject at the center of the screen is in the back focus state to some extent, the count-up speed of MOVECNT is increased in order to speed up the transition to the servo control.

【0130】ステップ(618)では動体判定のパラメ
ータMOVECNTが6以上かどうかを判定し、6以上
であれば動体と判断し、ステップ(619)へ移行し、
そうでなければステップ(623)へ進み、このサブル
ーチンをリターンする。
In step (618), it is determined whether the moving object determination parameter MOVECNT is 6 or more. If it is 6 or more, it is determined that the object is a moving object, and the flow advances to step (619).
If not, proceed to step (623) and return this subroutine.

【0131】ステップ(619)では、焦点検出の制御
モードをサーボ制御にするため、AFOFLGに1を入
力し、ステップ(623)でこのサブルーチンをリター
ンする。次にステップ(620)〜(622)は、動体
検知動作を初期状態に戻すものであり、ステップ(62
0)では焦点検出の回数をカウントするACNTをリセ
ットし、次にステップ(621)では、撮影レンズの現
在の焦点距離をLF1に入力する。そしてステップ(6
22)では、MOVECNTをリセットし、ステップ
(623)にて、このサブルーチンをリターンする。そ
して、このサブルーチンは、動体と検知されるかあるい
はレリーズスイッチSW2オンかSW1がオフするまで
繰り返される。
In step (619), 1 is input to AFOFLG to set the focus detection control mode to servo control, and the subroutine is returned in step (623). Next, steps (620) to (622) are for returning the moving object detection operation to the initial state.
At 0), ACNT for counting the number of times of focus detection is reset, and then at step (621), the current focal length of the photographing lens is input to LF1. And step (6)
At 22), MOVECNT is reset, and at step (623), this subroutine is returned. This subroutine is repeated until a moving object is detected or the release switch SW2 is turned on or SW1 is turned off.

【0132】また、図2のフローにより一度合焦してか
ら、以上説明した動体検知サブルーチンにおいて、AF
OFLGに1がセットされるまでは、レンズ駆動禁止フ
ラグLMVDIに1がセットされており、ステップ(1
55)に続いてはステップ(129)が実行され、視線
検出を行うことなく、同一の測距視野の焦点検出結果に
基づいた動体検知を行う。
After focusing once according to the flow of FIG. 2, the AF is executed in the moving object detection subroutine described above.
Until OFLG is set to 1, 1 is set to the lens drive inhibition flag LMVDI, and step (1) is performed.
After step 55), step (129) is executed, and a moving object is detected based on the focus detection result of the same distance measurement field of view without performing line-of-sight detection.

【0133】動体であることが検知され、AFOLFL
Gに1がセットされると、ステップ(152)において
分岐し、ステップ(104)へと移行する。ステップ
(104)においてレンズ駆動禁止フラグLMVDIが
クリアされ、続いてステップ(157)においてサーボ
動作に必要な撮影レンズの予測駆動の演算が行われる。
A moving object is detected and AFOLFL
When 1 is set to G, the process branches at step (152) and proceeds to step (104). In step (104), the lens drive prohibition flag LMVDI is cleared, and then, in step (157), the calculation of the predictive drive of the photographing lens required for the servo operation is performed.

【0134】ステップ(158)では予測演算の結果に
基づいたレンズ駆動が行われ、ステップ(159)にお
いて、フラグPRMVに1をセットして、ステップ16
0でサブルーチンをリターンする。
In step (158), the lens is driven based on the result of the prediction operation. In step (159), 1 is set in the flag PRMV, and in step 16
Return the subroutine with 0.

【0135】続いて図4の「視線検出」サブルーチンの
フローチャートを説明する。
Next, the flow chart of the “line-of-sight detection” subroutine of FIG. 4 will be described.

【0136】まず、ステップ(201)においては、図
23、図24に示したカメラの縦横検出用スイッチSW
Cの状態を検知することにより、カメラの姿勢を判別す
る。この結果縦位置であれば視線検出動作をせずにステ
ップ(214)に移行する。また、横位置であれば、ス
テップ(203)に移行し、視線検出を開始する。ステ
ップ(214)では視線VPに光軸上であることを意味
する0を入力し、ステップ(213)でリターンする。
First, in step (201), the vertical / horizontal detection switch SW of the camera shown in FIGS.
The posture of the camera is determined by detecting the state of C. If the result is the vertical position, the flow shifts to step (214) without performing the line-of-sight detection operation. If the position is the horizontal position, the flow shifts to step (203) to start gaze detection. In step (214), 0, which means on the optical axis, is input to the line of sight VP, and the process returns in step (213).

【0137】ステップ(203)では、LED(図12
の13)を点灯させ、眼球を照明すると同時に、視線検
出用光電変換素子SA(図12の14)の蓄積を開始さ
せる。具体的には、図15の制御装置PRSがセンサ駆
動回路SDR2に蓄積開始コマンドを送出し、SDR2
が光電変換素子SAのクリア信号CLRを“L”にして
電荷の蓄積が始まる。
In step (203), the LED (FIG. 12)
13) is turned on to illuminate the eyeball, and at the same time, the accumulation of the eye-gaze detecting photoelectric conversion element SA (14 in FIG. 12) is started. Specifically, the control device PRS of FIG. 15 sends an accumulation start command to the sensor drive circuit SDR2,
Sets the clear signal CLR of the photoelectric conversion element SA to "L", and the accumulation of charges starts.

【0138】ステップ(204)では、PRSの入力I
NTEND2端子の状態を検知し、蓄積が終了したかど
うかを調べる。センサ駆動回路SDR2は蓄積開始と同
時に信号INTEND2を“L”にし、SAからのAG
C信号SAGC2をモニターし、SAGC2が所定のレ
ベルに達すると、信号INTEND2を“H”にし、同
時に電荷転送信号SH2を所定時間“H”にして、蓄積
された電荷をCCD部に転送させる構造を有している。
In step (204), the PRS input I
The state of the NTEND2 terminal is detected, and it is checked whether the accumulation is completed. The sensor drive circuit SDR2 sets the signal INTEND2 to "L" at the same time as the accumulation starts,
The C signal SAGC2 is monitored. When the SAGC2 reaches a predetermined level, the signal INTEND2 is set to "H", and at the same time, the charge transfer signal SH2 is set to "H" for a predetermined time to transfer the accumulated charges to the CCD unit. Have.

【0139】ステップ(204)でINTEND2端子
が“H”ならば、蓄積が終了したということでステップ
(205)に移行し、“L”ならば蓄積未終了というこ
とで、もう一度ステップ(204)を実行する。
If the INTEND2 terminal is "H" in step (204), the process proceeds to step (205) because the accumulation is completed, and if "L", the accumulation is not completed and the process in step (204) is performed again. Execute.

【0140】ステップ(205)では、光電変換素子S
Aの像信号OS2をセンサ駆動回路SDR2で増巾した
信号AOS2のA/D変換および、そのデジタル信号の
RAM格納を行う。より詳しく述べるならば、SDR2
はPRSからのクロックCK2に同期してCCD駆動用
クロックφ21、φ22を生成してSA内部の制御回路
へ与え、SAはφ21、φ22によって、CCD部が駆
動され、CCD内の電荷は、像信号として出力OS2か
ら時系列的に出力される。この信号はSDR2内部の増
巾器で増巾された後に、AOS2として、PRSのアナ
ログ入力端子へ入力される。PRSは自らが出力してい
るクロックCK2に同期してA/D変換を行い、A/D
変換後のデジタル像信号を順次RAMの所定アドレスに
格納していく。
In the step (205), the photoelectric conversion element S
The A / D conversion of the signal AOS2 obtained by amplifying the A image signal OS2 by the sensor drive circuit SDR2 and the digital signal storage in the RAM are performed. More specifically, SDR2
Generates the CCD driving clocks φ21 and φ22 in synchronization with the clock CK2 from the PRS and supplies the clocks to the control circuit inside the SA. The SA drives the CCD unit by φ21 and φ22, and the electric charge in the CCD is the image signal. Are output in time series from the output OS2. This signal is amplified by the amplifier inside the SDR2 and then input to the analog input terminal of the PRS as AOS2. The PRS performs A / D conversion in synchronization with the clock CK2 output by itself, and
The converted digital image signals are sequentially stored at predetermined addresses in the RAM.

【0141】ステップ(206)においては、ステップ
(205)において得られた眼球の情報に基づき、瞳孔
のエッジを検出する。前述したように、これは虹彩部の
出力平均の半値に近い出力を生ずる画素を抽出すること
によって行われる。
In step (206), the edge of the pupil is detected based on the information of the eyeball obtained in step (205). As mentioned above, this is done by extracting the pixels that produce an output close to half the average of the output of the iris.

【0142】ステップ(207)においては、ステップ
(206)の処理中に得られた、像のコントラスト値、
およびSPC(図21)出力に対応したファインダー輝
度から算出される予測瞳孔径と検出瞳孔径との差等によ
って、瞳孔径検出結果の信頼性を判断する。なお、予測
瞳孔径とは、外界の明るさに応じて収縮、拡大する瞳孔
径の標準的な値である。すなわち、眼球の跳躍運動中に
蓄積が行われて、瞳の像が不鮮明であった場合や、まつ
げによる像出力の低下を瞳孔と取り違えた場合等を排除
する。信頼性充分と判断されたときは、ステップ(20
8)へ移行し、信頼性が不十分と判断されたときは、ス
テップ(212)へ移行する。
In step (207), the contrast value of the image obtained during the processing in step (206)
And the difference between the predicted pupil diameter calculated from the finder brightness corresponding to the SPC (FIG. 21) output and the detected pupil diameter, etc., to determine the reliability of the pupil diameter detection result. The predicted pupil diameter is a standard value of the pupil diameter that contracts and expands according to the brightness of the external world. That is, accumulation is performed during the jumping movement of the eyeball, and the case where the image of the pupil is unclear or the case where the decrease in the image output due to eyelashes is mistaken for the pupil is excluded. If it is determined that the reliability is sufficient, the step (20)
The process proceeds to 8), and when it is determined that the reliability is insufficient, the process proceeds to step (212).

【0143】次にステップ(208)では、第1プルキ
ンエ像の抽出を行う。これは瞳孔あるいは虹彩上に現わ
れた輝度ピークを検出することによって行われる。
Next, at step (208), the first Purkinje image is extracted. This is done by detecting a luminance peak appearing on the pupil or iris.

【0144】ステップ(209)では、検出した第1プ
ルキンエ像のコントラストを所定値と比較することによ
って、メガネ等によるゴースト光がプルキンエ像と重な
った場合あるいは、まばたきによってプルキンエ像が半
分欠けた場合等を検出し、このときには信頼性不十分と
してステップ(212)へ分岐し、信頼性が充分なとき
はステップ(210)へ移行する。
In step (209), the contrast of the detected first Purkinje image is compared with a predetermined value to determine whether the ghost light from the glasses or the like overlaps with the Purkinje image or that the Purkinje image is partially missing due to blinking. Is detected, and at this time, it is determined that the reliability is insufficient, and the process branches to step (212). If the reliability is sufficient, the process proceeds to step (210).

【0145】続くステップ(210)では、(2)式に
基づいて眼球の回転角を演算する。
In the following step (210), the rotation angle of the eyeball is calculated based on the equation (2).

【0146】ステップ(211)ではステップ(21
0)で得られた眼球の回転角と、ファインダー光学系の
既定値からピント板上の視点(線)VPを算出し、ステ
ップ(213)においてサブルーチンをリターンする。
In step (211), step (21)
The viewpoint (line) VP on the focus plate is calculated from the rotation angle of the eyeball obtained in step 0) and the default value of the finder optical system, and the subroutine is returned in step (213).

【0147】第1プルキンエ像と瞳孔エッジの抽出にお
いて、信頼性不十分と判定された場合分岐したステップ
(212)では、視線検出不能を表すフラグVLNGに
1をセットし、ステップ(212)においてサブルーチ
ンをリターンする様になっている。
In the extraction of the first Purkinje image and the pupil edge, if it is determined that the reliability is insufficient, the branching step (212) sets 1 to a flag VLNG indicating that the line of sight cannot be detected. Is to be returned.

【0148】次に図11に「測距視野範囲設定」サブル
ーチンのフローチャートに示す。このサブルーチンは、
視線検出結果に基づいて、測距視野を持つ3つのブロッ
クのうち、どれを選択するか決定するものである。
Next, FIG. 11 is a flowchart of a “ranging field-of-view range setting” subroutine. This subroutine
Based on the gaze detection result, it is determined which of the three blocks having the distance measurement field is to be selected.

【0149】まずステップ(902)において、視線検
出サブルーチン内で設定された視線検出不能フラグVL
NGの状態を検知し、0であれば、ステップ(903)
に移行し、1であればステップ(906)に分岐して、
サブルーチンをリターンする。これは、視線検出不能時
は、測距視野範囲を前回のフローと同一位置に設定する
ことを意味している。
First, in step (902), the gaze detection disable flag VL set in the gaze detection subroutine is set.
NG state is detected, and if it is 0, step (903)
And if it is 1, branch to step (906),
Return the subroutine. This means that when the line of sight cannot be detected, the range-finding visual field range is set to the same position as in the previous flow.

【0150】ステップ(903)において、ピント板上
の視点VP情報(光軸からの距離)と所定の値a、例え
ばファインダー視野の半分35mmカメラにおいては1
8mmとを比較する。aよりも大なる場合は撮影者は被
写体像以外の撮影情報等を見ていたと判断し、このとき
の視線位置に基づく測距視野範囲の設定はせず、ステッ
プ(906)にてリターンする。
In step (903), the viewpoint VP information (distance from the optical axis) on the focus plate and a predetermined value a, for example, 1 in the case of a 35 mm camera that is half the finder field of view.
Compare with 8 mm. If it is larger than a, it is determined that the photographer has been looking at photographing information and the like other than the subject image, and the range of the distance measurement field of view is not set based on the line of sight at this time, and the process returns to step (906).

【0151】ステップ(904)では、視点VPに最も
近い測距視野範囲を3つのうちから選択する。
In step (904), the range of the distance measurement visual field closest to the viewpoint VP is selected from three ranges.

【0152】ステップ(905)では、可動マスク80
の移動用ステッピングモータMTR3を駆動制御して、
選択された視野範囲の焦点検出を可能にする。
In the step (905), the movable mask 80
Drive control of the moving stepping motor MTR3 of
Enables focus detection for a selected field of view.

【0153】図5に「焦点検出」サブルーチンのフロー
チャートを示す。ステップ(802)〜(804)にお
いて、選択したブロック内の上、中央、下の各測距視野
について、撮影レンズのデフォーカス量DF(1)、D
F(2)、DF(3)と像信号のコントラストを演算す
る。
FIG. 5 shows a flowchart of the "focus detection" subroutine. In steps (802) to (804), the defocus amounts DF (1) and D of the photographing lens for the upper, middle, and lower distance measurement fields in the selected block.
The contrast between F (2) and DF (3) and the image signal is calculated.

【0154】ステップ(805)においては、ステップ
(802)〜(804)で演算されたコントラストがす
べて所定値以下であった場合に、ステップ(806)に
分岐する。またどれか一つでも所定値以上のコントラス
トがあれば、ステップ(807)に移行し、サブルーチ
ンをリターンする。
In step (805), if all the contrasts calculated in steps (802) to (804) are equal to or smaller than the predetermined value, the flow branches to step (806). If any one of the contrasts is equal to or greater than the predetermined value, the process proceeds to step (807) and returns to the subroutine.

【0155】続いて「判定」サブルーチンおよび「予測
演算」サブルーチンについて説明する。これらは、視線
検出の結果によって測距視野ブロックが決まった後、そ
の範囲内にある複数の測距視野の情報を焦点調節に用い
るためのサブルーチンで、カメラの焦点調節動作モード
に応じて使い分けられる。
Next, the "determination" subroutine and the "prediction calculation" subroutine will be described. These are subroutines for using the information of a plurality of ranging visual fields within the range for focus adjustment after the ranging field block is determined based on the result of the eye gaze detection, and are selectively used according to the focusing operation mode of the camera. .

【0156】まず図6で「判定」サブルーチンのフロー
チャートを説明する。
First, the flowchart of the "determination" subroutine will be described with reference to FIG.

【0157】ステップ701では最初の測距演算かどう
かをここで判定する。最初の測距演算の場合ステップ7
02へそうでないときはステップ704へ分岐する。
In step 701, it is determined here whether or not this is the first distance measurement calculation. Step 7 in the case of the first distance calculation
If not, the flow branches to step 704.

【0158】ステップ702ではレンズとFLNSとの
通信を行ってレンズの情報をマイコン内へ入力する。レ
ンズから焦点距離、至近距離、敏感度係数、くし歯ピッ
チ、などの情報を読み込む。
In step 702, communication between the lens and the FLNS is performed to input lens information into the microcomputer. Information such as focal length, close distance, sensitivity coefficient, and comb pitch is read from the lens.

【0159】ステップ703、ステップ702で読み込
んだ情報をもとに、測距視野別に至近しきい値を計算
(TH(1)、TH(2)、TH(3))する。
Based on the information read in Steps 703 and 702, the closest threshold value is calculated for each distance measurement field of view (TH (1), TH (2), TH (3)).

【0160】これらしきい値は測距点によって異なった
値が設定される。たとえば、上下の測距点に対するしき
い値は、その時のレンズの焦点距離fを使って、 TH(1)=TH(3)=20f を設定する。中央に対するしきい値は、上下の測距点の
しきい値より近く設定して、例えば、 TH(2)=10f と設定する。これは画面の中央、近距離に撮影者の意図
しないものが入ってしまうことが少ないことを考慮した
ものである。さらにマイクロレンズなど接写状態にある
と想定される場合は、このしきい値に一定の倍率(1よ
り小さい)をかけてしきい値を下げる。
These thresholds are set to different values depending on the distance measuring points. For example, TH (1) = TH (3) = 20f is set as the threshold value for the upper and lower ranging points using the focal length f of the lens at that time. The threshold value for the center is set closer to the threshold value of the upper and lower distance measurement points, and for example, TH (2) = 10f. This is in consideration of the fact that an unintended object of the photographer rarely enters the center or a short distance of the screen. Further, when it is assumed that a macro lens is in a close-up state, the threshold value is reduced by multiplying the threshold value by a certain magnification (smaller than 1).

【0161】ステップ704は現在のレンズ絶対位置
(フォーカス値)をレンズから読み込むレンズに絶対位
置の情報がない場合、電源ON時など適当な時に一度レ
ンズを無限端につきあて、それからのレンズの動きを所
定のメモリに記憶しておくことにより、現在のレンズ位
置を求めることができる。
Step 704 is to read the current lens absolute position (focus value) from the lens. If there is no information on the absolute position of the lens, the lens is once applied to the infinite end at an appropriate time such as when the power is turned on, and the movement of the lens from that point is determined. By storing in a predetermined memory, the current lens position can be obtained.

【0162】ステップ714ではコントラストが所定値
以上であった測距視野について、デフォーカス量DF
(1)〜DF(3)とS4で記憶したレンズ位置から各
測距点の焦点検出している絶対距離AD(1)〜AD
(3)を求める。また、絶対距離データの個数をNNに
記憶する。
In step 714, the defocus amount DF is determined for the distance measurement field of view whose contrast is equal to or greater than the predetermined value.
(1) to DF (3) and absolute distances AD (1) to AD at which the focus of each ranging point is detected from the lens position stored in S4
Find (3). The number of absolute distance data is stored in NN.

【0163】ステップ715ではAD(1)〜AD
(3)を比較して近い距離順の順番をつける。N1にA
D(1)〜AD(3)の最も近い距離の測距点番号を入
れ、2番目の距離の測距点番号はN2へ、N3には最も
遠い距離の測距点番号を入れる。
At step 715, AD (1) to AD (1)
(3) is compared and the order of the closest distance is assigned. A in N1
The distance measuring point number of the closest distance from D (1) to AD (3) is entered, the distance measuring point number of the second distance is entered into N2, and the distance measuring point number of the furthest distance is entered into N3.

【0164】ステップ724ではNN=1であればステ
ップ(719)に分岐する。
In step 724, if NN = 1, the flow branches to step (719).

【0165】ステップ716では測距した点の中で最も
近い距離のものとしきい値を比較する。ステップ715
で最も近い距離の測距点番号(N1)を求めてあるので
測距点N1の測距距離としきい値AD(N1)とTH
(N1)の比較を行う。しきい値TH(N1)より測距
距離AD(N1)が小さければステップ717へ分岐す
る。大きければステップ720へ分岐する。
At step 716, the threshold value is compared with the point having the closest distance among the measured points. Step 715
, The distance measuring point number (N1) of the closest distance is obtained, so that the distance measuring distance of the distance measuring point N1, the threshold AD (N1), and TH
(N1) is compared. If the distance measurement distance AD (N1) is smaller than the threshold value TH (N1), the flow branches to step 717. If it is larger, the process branches to step 720.

【0166】ステップ725はNN=2であれば、ステ
ップ(719)に分岐する。
At step 725, if NN = 2, the flow branches to step (719).

【0167】ステップ720では測距距離が連続的に遠
ざかっているかを判定する。測距点は上から順に番号が
ついているので、近距離順にならべたN1〜N3が小さ
い順か大きい順に並んでいれば測距離が連続的に遠ざか
っていることが判定できる。連続的に遠ざかっている場
合ステップ718に分岐し、そうでなければステップ7
19に分岐する。
In step 720, it is determined whether or not the distance measurement distance is continuously increasing. Since the ranging points are numbered in order from the top, if the N1 to N3 arranged in the short distance order are arranged in ascending or descending order, it can be determined that the ranging distances are continuously increasing. If it is continuously away, the process branches to step 718;
Branch to 19.

【0168】ステップ717は近距離点がしきい値より
小さかった場合なので2番目に近い点を選択する。2番
目の距離の測距点番号N2をOPに記憶する。
In step 717, the second closest point is selected because the short distance point is smaller than the threshold value. The distance measuring point number N2 of the second distance is stored in OP.

【0169】ステップ718において、被写体が連続的
に並んでいる場合、測距点を中央(測距点番号2)にす
る。選択された測距点番号2をOPに記憶する。
In step 718, if the subjects are continuously arranged, the distance measuring point is set to the center (ranging point number 2). The selected ranging point number 2 is stored in the OP.

【0170】ステップ719はステップ716、ステッ
プ720の判定により分岐しなかった場合、最近距離点
をOPに記憶する。
In the step 719, if no branch is made by the judgments in the steps 716 and 720, the nearest distance point is stored in the OP.

【0171】ステップ721では選択点の選択が終了し
たら、選択した測距点が合焦であるかどうかを判定す
る。合焦時はステップ722に分岐し合焦でなければス
テップ723に分岐する。
In step 721, when the selection of the selected point is completed, it is determined whether or not the selected distance measuring point is in focus. At the time of focusing, the flow branches to step 722, and when not focused, the flow branches to step 723.

【0172】ステップ722において合焦フラグJFF
LDに1をセットし、ステップ723においてサブルー
チンをリターンする。
In step 722, the focus flag JFF
LD is set to 1 and the subroutine is returned in step 723.

【0173】次に「予測演算」サブルーチンのフローを
図7を用いて説明する。図7は「予測演算」サブルーチ
ンのフローを示したものであり、予測演算の可否を判定
し、予測可能であれば、AFタイムラグとレリーズタイ
ムラグを考慮したレンズ駆動量を計算するものである。
Next, the flow of the "prediction calculation" subroutine will be described.
This will be described with reference to FIG. FIG. 7 shows the flow of the "prediction calculation" subroutine, in which it is determined whether or not the prediction calculation is possible. If the prediction is possible, the lens driving amount is calculated in consideration of the AF time lag and the release time lag.

【0174】ステップ(302)は、予測に必要なデー
タの蓄積がなされたかどうかを判定するためのカウンタ
ーCOUNTをカウントアップするかどうかを判定す
る。本実施例では3回以上の測距データ・レンズ駆動デ
ータが蓄積されている場合、すなわちCOUNT>2で
あれば予測演算可能であり、これ以上のカウントアップ
は必要ないので、COUNT>2であればステップ(3
04)へ進む。また、COUNT<3であればステップ
(303)でCOUNTをカウントアップした後ステッ
プ(304)へ進む。
In step (302), it is determined whether or not a counter COUNT for determining whether data necessary for prediction has been accumulated is counted up. In this embodiment, when distance measurement data and lens drive data are accumulated three or more times, that is, when COUNT> 2, prediction calculation can be performed, and further counting up is not required. BA step (3
Go to 04). If COUNT <3, COUNT is counted up in step (303), and then the process proceeds to step (304).

【0175】ステップ(304)では、今回の予測演算
のためのデータの更新を行っている。即ち予測演算は特
開平1-288816に記載の(6)、(7)、
(8)、(9)式に基づいて行われるため、そのデータ
としては前回および前々回のデフォーカス量としてDF
2 ,DF1 、前回および前々回のレンズ駆動量として
DL2,DL1 、前回および前々回の時間間隔として
TM2 ,TM1 、見込タイムラグTLを必要とする。
よってステップ(304)では焦点検出が行われるごと
前々回に得られたデフォーカス量DF2を記憶領域D
F1 に、また前回に得られたデフォーカス量DLを記
憶領域DF2 に入力し、更に前々回に得られた像面移
動量換算のレンズ駆動量DL2を記憶領域DL1 に、
前回に得られた像面移動量換算のレンズ駆動量DLを記
憶領域DL2 に入力し、各記憶領域のデータを今回の
予測演算に必要なデータに更新する。
In step (304), the data for the current prediction operation is updated. That is, the prediction calculation is performed according to (6), (7), and
Since the calculation is performed based on the equations (8) and (9), the data includes the DF
2, DF1, as the last and last two times lens drive amount
DL2, DL1, as the last and two previous time intervals
TM2, TM1, and expected time lag TL are required.
Therefore, in step (304), each time the focus detection is performed, the defocus amount DF2 obtained two times before is stored in the storage area D.
F1 and the previously obtained defocus amount DL
Input to the storage area DF2, and the image plane shift obtained two or more times before
The movement amount conversion lens drive amount DL2 is stored in the storage area DL1.
The lens driving amount DL converted in the image plane movement amount obtained last time is recorded.
The data is input to the storage area DL2, and the data in each storage area is updated to the data necessary for the current prediction operation.

【0176】ステップ(305)では使用している測距
点の位置を表わすAFPが「0」かどうか判定する。こ
こでAFPが「−1」のときは下側の測距視野、「0」
のときには中央の測距点、「1」のときには上側の測距
視野を使用していることを示している。すなわちステッ
プ(305)では中央の測距視野を使用中かどうかを判
定し、中央の測距視野を使用していればステップ(30
6)へ移行し、そうでなければステップ(307)へ移
行する。
In the step (305), it is determined whether or not the AFP indicating the position of the used distance measuring point is "0". Here, when the AFP is “−1”, the lower distance measurement field of view, “0”
Indicates that the center ranging point is used, and "1" indicates that the upper ranging field is used. That is, in step (305), it is determined whether or not the center ranging field of view is being used. If the center ranging field of view is being used, step (30) is performed.
Go to 6), otherwise go to step (307).

【0177】ステップ(307)ではステップ(30
5)と同様にして、下側の測距視野を使用しているかど
うかを判定し、下側の測距視野を使用していればステッ
プ(308)へ移行し、上側の測距視野を使用していれ
ばステップ(309)へ移行する。
At step (307), step (30)
In the same manner as in 5), it is determined whether or not the lower ranging field of view is used. If the lower ranging field of view is used, the process proceeds to step (308), and the upper ranging field is used. If so, the process proceeds to step (309).

【0178】ステップ(306)、(308)、(30
9)では今回使用した測距視野で今回測距したデフォー
カス量をRAM上の記憶領域DF3 に入力し、データの
更新を行う。ここでステップ(306)では中央の測距
視野のセンサの像信号に基づくデフォーカス量DFB、
ステップ(308)では下側の測距点のセンサ像信号に
基づくデフォーカス量DFA、ステップ(309)では
上側の測距点のセンサの像信号に基づくデフォーカス量
DFCを入力している。そして上記ステップを終了する
とステップ(310)へ移行する。
Steps (306), (308), (30)
9) Enter the defocus amount obtained by the ranging time in the distance measuring field used this time in the storage area DF 3 on RAM, to update the data. Here, in step (306), the defocus amount DFB based on the image signal of the sensor in the center distance measurement field,
In step (308), the defocus amount DFA based on the sensor image signal of the lower ranging point is input, and in step (309), the defocus amount DFC based on the image signal of the sensor of the upper ranging point is input. When the above steps are completed, the process proceeds to step (310).

【0179】ステップ(310)では予測演算に必要な
データが上記各記憶領域に入力されているか否かを判別
する。上記の如く予測演算は今回、前回、前々回のデフ
ォーカス量と前回、前々回のレンズ駆動量を必要とし、
過去3回以上の焦点調節動作が行われていることを条件
としている。よってステップ(303)にて焦点調節動
作が行われるごとにカウンターCOUNTに+1を行
い、カウンターに焦点調節動作が行われた回数をカウン
トさせ、その回数が2より大きいか否か、即ち3回以上
の動作が行われたか否かを判別し、3回以上行われ、予
測演算が可能な場合にはステップ(312)へ、また、
不可能な場合にはステップ(319)へ移行させる。
In step (310), it is determined whether or not data necessary for the prediction operation has been input to each of the storage areas. As described above, the prediction calculation requires the defocus amount this time, the previous time and the previous two times and the lens driving amount last time and the previous two times,
The condition is that three or more focus adjustment operations have been performed in the past. Therefore, each time the focus adjustment operation is performed in step (303), the counter COUNT is incremented by one, and the counter is made to count the number of times the focus adjustment operation has been performed. It is determined whether or not the operation has been performed. If the operation is performed three times or more and the prediction calculation is possible, the process proceeds to step (312).
If not possible, the process proceeds to step (319).

【0180】ステップ(312)では今回更新されたデ
フォーカス量が予測に適しているかどうかについて「像
面位置の連続性」について判定し、連続性があると判定
されればステップ(313)へ移行し、そうでなければ
ステップ(314)へ移行する。ここで「像面位置の連
続性」の判定方法については後述する。
In step (312), it is determined whether or not the continuity of the image plane position is determined as to whether the defocus amount updated this time is suitable for prediction. If it is determined that there is continuity, the process proceeds to step (313). Otherwise, the process proceeds to step (314). Here, the method of determining the “continuity of the image plane position” will be described later.

【0181】ステップ(312)において像面位置の連
続性が無いと判断され、ステップ(314)へ移行する
と、このステップにて「測距視野変更」のサブルーチン
で使用する測距視野を変更する。またこのサブルーチン
の詳細な説明については後述する。
In step (312), it is determined that the continuity of the image plane position is not present. When the process proceeds to step (314), the distance measurement field used in the subroutine "change distance measurement field" is changed in this step. A detailed description of this subroutine will be described later.

【0182】ステップ(315)では測距視野を変更
後、ANGによって予測可能になったかどうかを判定
し、可能であればステップ(313)へ移行し、予測不
可能(不適切なデータ)であればステップ(316)へ
移行する。
In step (315), after changing the distance measurement field, it is determined whether or not the prediction is possible by ANG. If possible, the process proceeds to step (313), and if the prediction is impossible (unsuitable data). If so, the process proceeds to step (316).

【0183】ステップ(316)では一度予測制御を中
止するため、データの蓄積がなされた回数をカウントす
るCOUNTをリセットする。そしてステップ(31
7)では、予測可否判定のフラグANGをリセットす
る。
In step (316), COUNT, which counts the number of times data has been accumulated, is reset to stop the prediction control once. And step (31)
In 7), the flag ANG of the prediction possibility determination is reset.

【0184】ステップ(318)では像面移動量換算の
レンズ駆動量DLに中央の測距視野のデフォーカス量D
FBを入力する。これは、1度予測不能となった場合、
再度AFをスタートするときに使用する測距視野を中央
の測距視野としたものであるが、これは、中央の測距視
野である必要はなく、例えば最初に選択した測距視野、
あるいは最後に使用した測距視野を使用しても良い。
In the step (318), the defocus amount D of the center distance measurement field is added to the lens drive amount DL in terms of the image plane movement amount.
Enter FB. This means that once it becomes unpredictable,
The distance measurement field used when starting AF again is the center distance measurement field, but this need not be the center distance measurement field. For example, the distance measurement field selected first,
Alternatively, the ranging field used last may be used.

【0185】また、初回と2回目の測距ではステップ
(319)に移行しステップ(319)にて像面移動量
換算のレンズ駆動量DLに今回更新されたデフォーカス
量DF3 を入力する。
[0185] Further, to enter the first and the defocus amount DF 3 which is updated this time in the amount of lens driving DL of image plane movement amount conversion step (319) proceeds to step (319) is in the second ranging.

【0186】また、ステップ(312)で予測可能と判
断され、ステップ(313)へ移行した場合には、ステ
ップ(313)で見込みタイムラグTLの計算を行う。
記憶領域TM2 には前述の如く、前回から今回の焦点検
出動作までの時間が記憶されており、今回の焦点調節に
要する時間もTM2 と一致しているものと仮定のもと
で、見込みタイムラグTL=TM2 +TRを求める。こ
こでTRはレリーズタイムラグである。
When it is determined in step (312) that prediction is possible and the process proceeds to step (313), the expected time lag TL is calculated in step (313).
Storage area TM to 2 as described above, and the time until the current focus detection operation is stored from the previous, under the assumed match also TM 2 time required for focus adjustment of the time, estimated Time lag TL = TM 2 + TR is determined. Here, TR is a release time lag.

【0187】次のステップ(320)、(321)では
各記憶領域DF1 〜DF3 、DL1、DL2 、TM1
TM2 に格納されたデータに基づき(6)、(7)式の
a,b項を表わすA,Bを求めステップ(322)へ移
行する。
[0187] The next step (320) and (321) each storage area DF 1 ~DF 3, DL 1, DL 2, TM 1,
Based on the data stored in the TM 2 (6), the process proceeds to (7) of a, A representing the section b, the step obtains the B (322).

【0188】ステップ(322)では各記憶手段のデー
タおよびステップ(313)およびステップ(32
0)、(321)の演算値に基づき(9)式の演算値を
求め、これを今回の像面移動量換算のレンズ駆動量DL
を求める。
In the step (322), the data of each storage means and the steps (313) and (32)
(9) is calculated based on the calculated values of (0) and (321), and this is calculated as the lens driving amount DL in terms of the current image plane movement amount.
Ask for.

【0189】次のステップ(323)では、ステップ
(322)、(318)、(319)で求まったレンズ
駆動量DLと撮影レンズの開放FナンバーFNおよび所
定の係数δ(本実施例では0.035mm)の積FN・
δを比較し、DL<FN・δであればステップ(32
4)へ移行し、そうでなければステップ(325)にて
リターンする。
In the next step (323), the lens drive amount DL obtained in steps (322), (318), and (319), the open F-number FN of the taking lens, and a predetermined coefficient δ (in this embodiment, 0. 035mm) product FN
δ are compared, and if DL <FN · δ, step (32)
Go to 4), otherwise return in step (325).

【0190】ステップ(324)では先のステップ(3
23)にて、像面深度FN・δよりレンズ駆動量DLが
小さい、すなわちレンズ駆動の必要性がないと判断し、
レンズ駆動量DL=0とし、レンズの駆動を禁止する。
これにより不必要な微小レンズ駆動を行うことがなくな
り、使用感および電力消費の両面を改善することができ
る。また、本実施例ではFNを撮影レンズの開放Fナン
バーとしたが、これを撮影絞り値としても何ら問題はな
く、δも0.035mmに限定するものではない。そし
て、このステップを終了すると、次のステップ(32
5)にてこのサブルーチンをリターンする。
In step (324), the previous step (3)
23), it is determined that the lens driving amount DL is smaller than the image plane depth FN · δ, that is, it is not necessary to drive the lens,
The lens driving amount DL is set to 0, and the driving of the lens is prohibited.
As a result, unnecessary driving of the minute lens is not performed, and both of usability and power consumption can be improved. In the present embodiment, FN is the open F number of the taking lens. However, there is no problem even if this is used as the taking aperture value, and δ is not limited to 0.035 mm. When this step is completed, the next step (32
In 5), this subroutine is returned.

【0191】次に「測距点変更」サブルーチンのフロー
を図8を用いて説明する。図は「測距視野変更」サブル
ーチンのフローを示したものであり、今回、選択された
測距視野のデフォーカス量が予測制御に適さないと判断
されたため、予測制御可能な他の測距点に変更するサブ
ルーチンである。
Next, the flow of the "change distance measuring point" subroutine will be described with reference to FIG. The figure shows the flow of the “change distance measurement field of view” subroutine. Since it is determined that the defocus amount of the selected distance measurement field of view is not suitable for the prediction control, other distance measurement points that can be predicted and controlled can be used. Is a subroutine for changing to

【0192】ステップ(402)では、今回使用した測
距視野が中央の測距視野であるかどうかをAFPによっ
て判定し、中央の測距視野を使用していればステップ
(403)へ移行し、そうでなければステップ(41
3)へ移行する。
In step (402), it is determined by the AFP whether or not the currently used ranging field of view is the center ranging field. If the center ranging field of view is used, the process proceeds to step (403). Otherwise, step (41)
Go to 3).

【0193】ステップ(413)では、ステップ(40
2)と同様にして、今回、使用測距視野が下側の測距視
野であるかどうかを判定し、下側の測距視野を使用して
いれば、ステップ(414)へ移行し、上側の測距視野
を使用していればステップ(425)へ移行する。
In step (413), step (40)
In the same manner as in 2), it is determined whether the currently used ranging field of view is the lower ranging field of view. If the lower ranging field of view is being used, the process proceeds to step (414), and If the distance measurement field of view is used, the process proceeds to step (425).

【0194】ステップ(403)〜(412)、(41
4)〜(423)、(425)〜(434)はそれぞれ
今回使用した測距視野以外の測距視野のデフォーカス量
から、前回までの像面一変化に近い像面位置変化をして
いる測距視野を選択するものである。
Steps (403) to (412), (41)
4) to (423) and (425) to (434) indicate changes in the image plane position close to the previous image plane change from the defocus amount of the ranging field other than the currently used ranging field. This is to select the distance measurement field of view.

【0195】ステップ(403)では、前々回の測距か
ら前回の測距までの像面移動速度V1を計算する。そし
て、次のステップ(404)では左側の測距視野のデフ
ォーカス量DFAを使用して、前回の測距から今回の測
距までの像面移動速度V2を計算する。
In step (403), the image plane moving speed V1 from the distance measurement two times before to the previous distance measurement is calculated. In the next step (404), the image plane moving speed V2 from the previous distance measurement to the current distance measurement is calculated using the defocus amount DFA of the left distance measurement field of view.

【0196】ステップ(405)では、ステップ(40
3)、(404)で算出されたV1、V2の差の絶対値
VAを計算している。これは今までの像面移動速度V1
と新しい左側の測距視野での像面移動度V2との差、つ
まり連続性を表わすものであり、VAの値が小さいほど
連続性が高い。
In step (405), step (40)
3), the absolute value VA of the difference between V1 and V2 calculated in (404) is calculated. This is the conventional image plane moving speed V1
And the continuity of the image plane mobility V2 in the new left ranging field of view, that is, the continuity. The smaller the value of VA, the higher the continuity.

【0197】ステップ(406)では、上側の測距視野
のデフォーカス量DFCを使用して、前回の測距から今
回の測距までの像面移動度V3を計算する。そして、ス
テップ(407)では、ステップ(405)と同様にし
て上側の測距視野を使用した場合の連続性を表わすVC
を計算する。
In step (406), the image plane mobility V3 from the previous distance measurement to the current distance measurement is calculated using the defocus amount DFC in the upper distance measurement field of view. Then, in step (407), VC indicating the continuity when the upper distance measurement field of view is used in the same manner as in step (405).
Is calculated.

【0198】次のステップ(408)では、像面位置変
化の連続性を評価するVAとVCを比較し、VA<V
C、すなわち下側の測距視野での連続性の方が高ければ
ステップ(411)へ移行し、そうでなければステップ
(409)へ移行する。
In the next step (408), VA and VC for evaluating the continuity of image plane position change are compared, and VA <V
If C, that is, the continuity in the lower distance measurement field is higher, the process proceeds to step (411), and if not, the process proceeds to step (409).

【0199】ステップ(409)では、上側の測距視野
の方が連続性が高いということから、RAM上の記憶領
域DF3 に上側の測距視野のデフォーカス量DFCを入
力する。そして、ステップ(410)では、使用する測
距点を表わすAFPに上側の測距視野を表わす「1」を
入力する。
[0199] At step (409), from the fact that towards the upper distance measuring field is higher continuity, enter the defocus amount DFC of the upper distance measuring fields in the storage area DF 3 on RAM. Then, in step (410), "1" representing the upper ranging field of view is input to the AFP representing the ranging point to be used.

【0200】ステップ(411)では、下側の測距視野
の方が連続性が高いということから、RAM上の記憶領
域DF3 に下側の測距視野のデフォーカス量DFAを入
力する。そしてステップ(412)にて、下側の測距視
野を表わす「−1」をAFPに入力する。
[0200] At step (411), from the fact that the bottom side of the distance measuring field is higher continuity, enter the defocus amount DFA of the lower distance measuring fields in the storage area DF 3 on RAM. Then, in step (412), "-1" representing the lower distance measurement field of view is input to the AFP.

【0201】ステップ(410)あるいは(412)を
終了すると、ステップ(435)へ移行する。また、ス
テップ(414)〜(423)、(425)〜(43
4)も同様にして、前々回から前回までの像面位置変化
に使い、連続性の高い測距点を選択するものであり、そ
の動作はステップ(403)〜(412)と同様であ
り、その詳細な説明は省略する。
When the step (410) or (412) is completed, the process moves to a step (435). Steps (414) to (423) and (425) to (43)
Similarly, 4) is used for selecting a ranging point having high continuity by using the image plane position change from the last two times to the previous time, and the operation is the same as steps (403) to (412). Detailed description is omitted.

【0202】ステップ(435)では変更された測距視
野のデフォーカス量から像面位置の連続性が予測制御に
適しているかどうかを判定し、適していればステップ
(438)へ移行し、適していなければステップ(43
6)へ移行する。
In step (435), it is determined whether the continuity of the image plane position is suitable for predictive control based on the changed defocus amount of the ranging field, and if so, the process proceeds to step (438). If not, step (43)
Go to 6).

【0203】ステップ(436)では測距視野を最も適
した点に変更したにもかかわらず、予測制御に適してい
ないと判定されたことから、予測制御を一度中止するフ
ラグANGに「1」を入力する。そしてステップ(43
7)では、使用する測距視野を中央の測距視野に戻すた
めAFPに「0」を入力する。そして、このステップを
終了するとステップ(438)に移行し、このサブルー
チンをリターンする。
In step (436), it is determined that the field of view is not suitable for predictive control even though the range-finding field has been changed to the most suitable point. Therefore, "1" is set to the flag ANG for temporarily suspending predictive control. input. And step (43)
In 7), "0" is input to the AFP in order to return the used distance measurement field to the center distance measurement field. Then, when this step ends, the flow shifts to the step (438), and this subroutine is returned.

【0204】上述の予測演算および測距点変更サブルー
チンにて、最初に使用した測距点のデフォーカスデータ
でステップ(312)にて像の連続性が認められない時
に測距視野変更がなされ、3測距点のうち最も連続性の
高い測距視野でのデフォーカスデータが検知され、この
データに基づいてステップ(435)にて再度連続性有
無の判定がなされ、連続性が認められれば上記最も連続
性の高いデフォーカスデータに基づく予測演算が(31
3)〜(322)のステップで実行され続ける。なお、
このとき上記デフォーカスデータの測距点を示すAFP
の値が、そのデータの測距点に応じた値となり、以後の
焦点検出は変更された測距点からのデフォーカスデータ
に応じて行われ測距点の変更がなされる。また、ステッ
プ(435)でも連続性が認められない時にはANG=
1となされ予測処理を一時中止し、中央の測距視野のデ
ータによるレンズ駆動が行われる。
In the above-described prediction calculation and ranging point change subroutine, when the continuity of the image is not recognized in step (312) with the defocus data of the ranging point used first, the ranging field is changed. The defocus data in the field of view having the highest continuity among the three distance measuring points is detected. Based on this data, the presence or absence of continuity is determined again in step (435). The prediction calculation based on the most continuous defocus data is (31
3) to (322) are continuously executed. In addition,
At this time, the AFP indicating the ranging point of the defocus data
Becomes a value corresponding to the ranging point of the data, and the subsequent focus detection is performed according to the defocus data from the changed ranging point, and the ranging point is changed. When continuity is not recognized even in step (435), ANG =
The prediction processing is temporarily stopped, and the lens is driven based on the data of the center distance measurement field.

【0205】次に図9を用いて「像面位置の連続性判
定」サブルーチンについて説明する。
Next, the "determination of continuity of image plane position" subroutine will be described with reference to FIG.

【0206】ステップ(502)は各記憶領域のデータ
に基づき(DF2 +DL1 −DF1)/TM1 なる演算
を行う。この演算は図2の時刻t1 とt2 間の像面移動
速度の平均値V1を計算するステップである。次のステ
ップ(503)での演算は同様に時刻t2 とt3 間の像
面移動速度の平均値V2を計算するステップである。こ
の後ステップ(504)へ進む。
In step (502), an operation of (DF 2 + DL 1 -DF 1 ) / TM 1 is performed based on the data in each storage area. This operation is a step of calculating the average value V1 of the image plane movement velocity between time t 1 and t 2 in Figure 2. Calculation in the next step (503) is a step of calculating an average value V2 of the image plane movement velocity between time t 2 and t 3 as well. Thereafter, the process proceeds to step (504).

【0207】ステップ(504)では、ステップ(50
2)、(503)で求めた像面移動速度V1、V2の差
の絶対値VAを計算し、ステップ(505)へ移行す
る。
In step (504), step (50)
2), calculate the absolute value VA of the difference between the image plane moving speeds V1 and V2 obtained in (503), and proceed to step (505).

【0208】ステップ(505)ではステップ(50
4)で求まったVAとあらかじめ設定された数AXを比
較し、VAがAXより大のときは像面位置の連続性無
し、VAがAXより小のときには連続性有りと判断され
る。
In step (505), step (50)
The VA obtained in 4) is compared with a preset number AX. When VA is larger than AX, it is determined that there is no continuity of the image plane position, and when VA is smaller than AX, it is determined that there is continuity.

【0209】上記フローによる連続性の有り、無しの判
定原理は同一の被写体を追っていればその時の像面移動
速度も連続的に変化することになることに基づいてい
る。そこで、時間的に隣接した、像面移動速度を算出
し、この差が小さければ像面移動速度が連続的に変化し
ているものとみなし、同一の被写体を測距していると判
断して予測演算を行う。これに対し像面移動速度の変化
が十分大きい場合には、像面移動速度が連続的に変化し
ていないとみなしている。
The principle of determining whether or not there is continuity according to the above flow is based on the fact that if the same object is tracked, the image plane moving speed at that time will also change continuously. Therefore, the image plane moving speeds that are temporally adjacent to each other are calculated, and if this difference is small, it is assumed that the image plane moving speed is continuously changing, and it is determined that the same subject is being measured. Perform a prediction operation. On the other hand, when the change in the image plane moving speed is sufficiently large, it is considered that the image plane moving speed does not continuously change.

【0210】図10に「レンズ駆動」サブルーチンのフ
ローチャートを示す。
FIG. 10 shows a flowchart of the "lens drive" subroutine.

【0211】このサブルーチンが実行されると、ステッ
プ(1502)においてレンズと通信して、2つのデー
タ「S」「PTH」を入力する。「S」は撮影レンズ固
有の「デフォーカス量対焦点調節レンズくり出し量の係
数」であり、例えば全体くり出し型の単レンズの場合に
は、撮影レンズ全体が焦点調節レンズであるからS=1
であり、ズームレンズの場合には各ズーム位置によって
Sは変化する。「PTH」は焦点調節レンズLNSの光
軸方向の移動に連動したエンコーダENCの出力1パル
ス当たりの焦点調節レンズのくり出し量である。
When this subroutine is executed, in step (1502), two data "S" and "PTH" are input by communicating with the lens. “S” is a “defocus amount vs. a coefficient of the focus adjustment lens protrusion amount” unique to the photographing lens. For example, in the case of a single lens of the whole protrusion type, S = 1 because the entire photographing lens is a focus adjustment lens.
In the case of a zoom lens, S changes depending on each zoom position. “PTH” is the amount of focus adjustment lens per pulse output from the encoder ENC that is interlocked with the movement of the focus adjustment lens LNS in the optical axis direction.

【0212】従って現在の撮影レンズのデフォーカス量
DEF、上記S、PTHにより焦点調節レンズのくり出
し量をエンコーダの出力パルス数に換算した値、いわゆ
るレンズ駆動量FPは次式で与えられることになる。
Accordingly, the current defocus amount DEF of the photographing lens, and a value obtained by converting the amount of protrusion of the focus adjustment lens into the number of output pulses of the encoder by the above S and PTH, that is, the so-called lens drive amount FP, is given by the following equation. .

【0213】FP=DEF×S/PTH ステップ(1503)は上式をそのまま実行している。FP = DEF × S / PTH Step (1503) executes the above equation as it is.

【0214】ステップ(1504)ではステップ(50
3)で求めたFPをレンズに送出して焦点調節レンズ
(全体くり出し型単レンズの場合には撮影レンズ全体)
の駆動を命令する。
In step (1504), step (50)
The FP obtained in 3) is sent to the lens, and the focusing lens (in the case of a whole single lens, the entire photographing lens)
Command to drive.

【0215】以上の説明においては、選択された測距視
野ブロックの中に垂直方向に3つの独立した測距視野が
ある例を用いたが、これらの測距視野は複数の測距視野
を連ねた一続きの測距視野であってもよく、これを元の
複数の領域に分割して、例えば右、中央、左を上、中
央、下に置き換えて前述したと同様の処理が適用でき
る。
In the above description, an example in which there are three independent distance measurement fields in the selected distance measurement field block in the vertical direction has been used, but these distance measurement fields are formed by connecting a plurality of distance measurement fields. A series of distance measurement fields may be used, which is divided into a plurality of original areas, and the same processing as described above can be applied, for example, by replacing the right, center, and left with upper, center, and lower.

【0216】なお、これまで説明した実施例は受動方式
の焦点検出装置を示したが能動方式の焦点検出装置であ
っても良い。一方、至近距離が比較的長くパララックス
を無視できる場合、あるいはそれを補償できるカメラの
機種では外部測距の検出装置を使用できるケースがあ
る。
In the embodiments described so far, a passive type focus detecting device is shown, but an active type focus detecting device may be used. On the other hand, when the close distance is relatively long and parallax can be ignored, or a camera model that can compensate for it, there is a case where a detection device for external distance measurement can be used.

【0217】[0219]

【発明の効果】以上、本発明によれば、視線検出により
動く被写体の位置に適した焦点検出領域を選択でき、視
線位置情報の信頼性が低い場合でも、前回検出された視
線位置情報を用いて焦点検出領域を選択する。よって、
視線位置情報を用いることで、容易に主被写体を捉える
ことができ、且つ視線位置情報の信頼性が低い場合で
も、精度良く被写体の動きを追従したレンズ駆動を行う
ことができる。
As described above, according to the present invention, it is possible to select a focus detection area suitable for the position of a moving subject by gaze detection, and to use the previously detected gaze position information even when the reliability of the gaze position information is low. To select the focus detection area. Therefore,
By using the line-of-sight position information, the main subject can be easily captured, and even when the reliability of the line-of-sight position information is low, it is possible to perform lens driving that accurately follows the movement of the object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】カメラの全体の動作を概略示すフローチャー
ト。
FIG. 1 is a flowchart schematically showing the overall operation of a camera.

【図2】本発明の実施例に係る制御動を説明するための
フローチャート。
FIG. 2 is a flowchart for explaining a control operation according to the embodiment of the present invention.

【図3】動体検知のサブルーチンを説明するためのフロ
ーチャート。
FIG. 3 is a flowchart illustrating a subroutine of moving object detection.

【図4】視線検出のサブルーチンを説明するためのフロ
ーチャート。
FIG. 4 is a flowchart for explaining a subroutine of line-of-sight detection.

【図5】焦点検出のサブルーチンを説明するためのフロ
ーチャート。
FIG. 5 is a flowchart illustrating a focus detection subroutine.

【図6】判定のサブルーチンを説明するためのフローチ
ャート。
FIG. 6 is a flowchart illustrating a subroutine for determination.

【図7】予測演算のサブルーチンを説明するためのフロ
ーチャート。
FIG. 7 is a flowchart illustrating a prediction calculation subroutine.

【図8】測距点変更のサブルーチンを説明するためのフ
ローチャート。
FIG. 8 is a flowchart for explaining a subroutine for changing a ranging point .

【図9】像面位置の連続性に関するサブルーチンを説明
するためのフローチヤート。
FIG. 9 is a flowchart for explaining a subroutine relating to continuity of an image plane position.

【図10】レンズ駆動に関するサブルーチンを説明する
ためのフローチヤート。
FIG. 10 is a flowchart for explaining a subroutine relating to lens driving.

【図11】測距視野範囲設定のサブルーチンを説明する
ためのフローチャート。
FIG. 11 is a flowchart illustrating a subroutine for setting a distance measurement visual field range.

【図12】実施例に係る一眼レフカメラの断面図。FIG. 12 is a cross-sectional view of the single-lens reflex camera according to the embodiment.

【図13】視線検出の方法を説明するための図。FIG. 13 is a view for explaining a method of gaze detection.

【図14】前眼部反射像と光電変換素子の画素列との光
学関係を示す図。
FIG. 14 is a diagram illustrating an optical relationship between a reflected image of an anterior ocular segment and a pixel row of a photoelectric conversion element.

【図15】前眼部とプルキンエ反射像との光学関係を示
す図。
FIG. 15 is a diagram showing an optical relationship between an anterior segment and a Purkinje reflection image.

【図16】光電変換素子の出力を示す図。FIG. 16 illustrates an output of a photoelectric conversion element.

【図17】焦点検出装置の斜視図。FIG. 17 is a perspective view of a focus detection device.

【図18】軸上検出視野の検出の際の光学挙動を示す
図。
FIG. 18 is a diagram showing an optical behavior when detecting an on-axis detection visual field.

【図19】軸外検出視野の検出の際の光学挙動を示す
図。
FIG. 19 is a diagram showing an optical behavior when detecting an off-axis detection visual field.

【図20】焦点検出装置の任意の一視野に関する出力信
号の例を示す図。
FIG. 20 is a diagram showing an example of an output signal for an arbitrary field of view of the focus detection device.

【図21】一眼レフカメラのファインダー視野に検出視
野を表示した様子を示す図。
FIG. 21 is a diagram showing a state in which a detection visual field is displayed in a finder visual field of a single-lens reflex camera.

【図22】焦点検出装置の多孔マスクの正面図。FIG. 22 is a front view of a multi-hole mask of the focus detection device.

【図23】カメラの姿勢検出スイッチの正面図。FIG. 23 is a front view of a posture detection switch of the camera.

【図24】カメラの電気系ブロック図。FIG. 24 is an electric block diagram of the camera.

【符号の説明】[Explanation of symbols]

2 主ミラー 3 サブミラー 4 カメラ本体 5 レンズ鏡筒 6 焦点検出装置 9 光分割器 13 光源 14 光電変換器 80 可動マスク 81 視野マスク 83 多孔マスク 84 2次結像レンズ群 Reference Signs List 2 Main mirror 3 Sub mirror 4 Camera body 5 Lens barrel 6 Focus detection device 9 Light splitter 13 Light source 14 Photoelectric converter 80 Movable mask 81 Field mask 83 Porous mask 84 Secondary imaging lens group

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平1−241511(JP,A) 特開 昭55−105230(JP,A) (58)調査した分野(Int.Cl.7,DB名) G02B 7/28 - 7/40 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-1-241511 (JP, A) JP-A-55-105230 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G02B 7/28-7/40

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 レンズ駆動によりレンズの焦点調節を制
御するレンズ制御手段と、観察者の視線位置情報を検出
する視線検出手段と、被写界面内に複数存在する焦点検
出領域のうち前記視線位置情報を用いて選択された焦点
検出領域の焦点検出を行う焦点検出手段とを備え、被写
体との距離変化に伴う結像面位置の変化を追従して補正
するサーボモードでは、毎回の焦点検出に先立って視線
検出を行い、前記レンズ制御手段は複数の時点における
焦点検出結果に基づいてレンズの駆動量を演算し連続的
にレンズの焦点調節を制御するカメラにおいて、 前記サーボモードにおいて検出された視線位置情報の信
頼性が低い場合は、前記焦点検出手段は信頼性の低い視
線位置情報が検出される以前に検出された視線位置情報
に基づいて焦点検出を行い、前記レンズ制御手段は該焦
点検出結果を含む複数の焦点検出結果に基づいてレンズ
の駆動量を演算することを特徴とするカメラ。
A lens control unit that controls focus adjustment of the lens by driving the lens; a line-of-sight detection unit that detects line-of-sight position information of an observer; A focus detection means for performing focus detection of a focus detection area selected using the information, and a servo mode for following and correcting a change in an image plane position due to a change in a distance to a subject. In a camera that performs line-of-sight detection in advance and the lens control unit calculates the amount of drive of the lens based on the focus detection results at a plurality of time points and continuously controls the focus adjustment of the lens, When the reliability of the detected gaze position information is low, the focus detection unit performs focus detection based on the gaze position information detected before the low-reliability gaze position information is detected. Wherein the lens control means calculates a lens drive amount based on a plurality of focus detection results including the focus detection results.
【請求項2】 前記複数の焦点検出領域はそれぞれが複
数の焦点検出領域から成る複数の焦点検出ブロックを構
成しており、 前記焦点検出手段は前記視線位置情報に基づいて1つの
焦点検出ブロックを選択し、更に選択された焦点検出ブ
ロックに含まれる焦点検出領域の中から各々の焦点検出
領域で形成されるピント情報に基づいて1つの焦点検出
領域を選択することを特徴とする請求項1に記載のカメ
ラ。
2. The method according to claim 1, wherein the plurality of focus detection areas form a plurality of focus detection blocks each including a plurality of focus detection areas, and the focus detection unit determines one focus detection block based on the line-of-sight position information. The method according to claim 1, wherein one focus detection area is selected based on focus information formed in each focus detection area from among the focus detection areas included in the selected focus detection block. Camera described.
【請求項3】 前記サーボモードにおいて検出された視
線位置情報の信頼性が低い場合は、前記焦点検出手段は
信頼性の低い視線位置情報が検出される直前に検出され
た視線位置情報に基づいて1つの焦点検出ブロックを選
択することを特徴とする請求項2に記載のカメラ。
3. If the reliability of the line-of-sight position information detected in the servo mode is low, the focus detection unit determines the position of the line-of-sight position information based on the line-of-sight position information detected immediately before the low reliability line-of-sight position information is detected. The camera according to claim 2, wherein one focus detection block is selected.
JP09333998A 1998-04-06 1998-04-06 Camera with gaze detection function Expired - Fee Related JP3278397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09333998A JP3278397B2 (en) 1998-04-06 1998-04-06 Camera with gaze detection function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09333998A JP3278397B2 (en) 1998-04-06 1998-04-06 Camera with gaze detection function

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP07313091A Division JP3210027B2 (en) 1991-04-05 1991-04-05 camera

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2000353088A Division JP2001188163A (en) 2000-11-20 2000-11-20 Camera provided with function of detecting line of sight
JP2000353089A Division JP3352453B2 (en) 2000-11-20 2000-11-20 camera

Publications (2)

Publication Number Publication Date
JPH10268186A JPH10268186A (en) 1998-10-09
JP3278397B2 true JP3278397B2 (en) 2002-04-30

Family

ID=14079521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09333998A Expired - Fee Related JP3278397B2 (en) 1998-04-06 1998-04-06 Camera with gaze detection function

Country Status (1)

Country Link
JP (1) JP3278397B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2315063A4 (en) 2008-08-19 2011-08-17 Rohm Co Ltd Camera

Also Published As

Publication number Publication date
JPH10268186A (en) 1998-10-09

Similar Documents

Publication Publication Date Title
JP3210027B2 (en) camera
JP2597961B2 (en) Automatic focusing device
US5091742A (en) Camera having an auto focusing device
EP0438116B1 (en) Focus detection apparatus
US5983030A (en) Optical apparatus having a visual axis detector
US5140359A (en) Multi-point distance measuring apparatus
JP3352453B2 (en) camera
JP4560173B2 (en) Focus detection device
US5402199A (en) Visual axis detecting apparatus
JP3278397B2 (en) Camera with gaze detection function
EP0438140B1 (en) Focus detecting device in a camera
JPH11337814A (en) Optical device
JP2974637B2 (en) Automatic focusing device
JP2832006B2 (en) Automatic focusing device
JPH0618772A (en) Camera provided with function for detecting line of sight
JP2001188163A (en) Camera provided with function of detecting line of sight
JPH05107454A (en) Camera having focus detecting means and sight line detecting means
JP4054436B2 (en) Optical device
US4967225A (en) Camera incorporating automatic focusing apparatus
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
JPH05210040A (en) Camera provided with sight-line detection device
JP3486464B2 (en) Automatic focusing device
JP4594402B2 (en) Auto focus camera
JP3495824B2 (en) Optical equipment having a line-of-sight detection device
JP4262034B2 (en) Optical device and camera

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090215

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100215

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100215

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees