JP2952071B2 - Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means - Google Patents

Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means

Info

Publication number
JP2952071B2
JP2952071B2 JP3107316A JP10731691A JP2952071B2 JP 2952071 B2 JP2952071 B2 JP 2952071B2 JP 3107316 A JP3107316 A JP 3107316A JP 10731691 A JP10731691 A JP 10731691A JP 2952071 B2 JP2952071 B2 JP 2952071B2
Authority
JP
Japan
Prior art keywords
line
sight
area
gaze
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3107316A
Other languages
Japanese (ja)
Other versions
JPH04335606A (en
Inventor
一樹 小西
明彦 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP3107316A priority Critical patent/JP2952071B2/en
Priority to DE4215523A priority patent/DE4215523C2/en
Publication of JPH04335606A publication Critical patent/JPH04335606A/en
Priority to US08/445,718 priority patent/US5546158A/en
Application granted granted Critical
Publication of JP2952071B2 publication Critical patent/JP2952071B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は視線検出装置および視線
検出手段を備えた光学機器に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line-of-sight detecting device and an optical apparatus having a line-of-sight detecting means.

【0002】[0002]

【従来の技術】カメラの諸動作を制御する領域を決定す
るのに、撮影者の視線を用いるアイディア(いわゆる視
線を用いた自動追尾)は種々提案されており、例えば特
開昭63−94232には以下の通り記載されている。
2. Description of the Related Art Various ideas using the line of sight of a photographer (so-called automatic tracking using a line of sight) have been proposed to determine areas for controlling various operations of a camera. Is described as follows.

【0003】図8は従来の構成ブロック図を示す。FIG. 8 shows a block diagram of a conventional configuration.

【0004】従来例では、撮影映像をファインダやモニ
タ装置により観察する撮影者の眼球運動をモニタし、撮
影者の注視する画面部分を含む領域で自動合焦動作及び
自動露出制御を行う。30がそのための眼球運動検出器
であり、この検出器30は、詳細は後述するが、撮影者
の眼球32の運動を検出し、眼の見ている部分が画面の
どの位置であるかの位置信号(水平位置及び垂直位置)
をゲート制御回路34に送る。ゲート制御回路34は、
クロック回路28からの水平同期信号Hsync及び垂
直同期信号Vsyncと、眼球運動検出器30からの位
置信号とを比較し、ゲート回路14を制御して、画面上
での相応領域の映像信号のみを通過させる。
In a conventional example, an eye movement of a photographer who observes a photographed image with a finder or a monitor device is monitored, and an automatic focusing operation and an automatic exposure control are performed in a region including a screen portion watched by the photographer. Reference numeral 30 denotes an eye movement detector for this purpose, which will be described in detail later. The detector 30 detects the movement of the eye 32 of the photographer, and determines the position of the part on which the eye is watching on the screen. Signal (horizontal position and vertical position)
To the gate control circuit 34. The gate control circuit 34
The horizontal synchronizing signal Hsync and the vertical synchronizing signal Vsync from the clock circuit 28 are compared with the position signal from the eye movement detector 30, and the gate circuit 14 is controlled to pass only the video signal in the corresponding area on the screen. Let it.

【0005】眼球運動を検出する原理としては種々ある
が、ここでは、日本放送協会による方式を例にとって説
明する(テレビジョン学会誌Vol.No.2(198
6)第41頁以降を参照)。NHKの方式の光学系部分
を図9に示し、図8の実施例の眼球運動検出器30に適
用した場合の具体的回路を、ゲート制御回路34と共に
図10に示した。図9に示すように、眼球に近接配置し
た赤外光源40(40X、40Y)から眼球に赤外光を
照射し、その反射光を光電変換素子42(42R、42
L;42U、42D)で受光して、黒目の左右及び上下
への移動を検出する。黒目の左右の動きを検出する光電
変換素子42R、42Lは、正面を向いた状態でそれぞ
れ黒目の右側及び左側からの反射光を受光するように配
置され、その出力は減算増幅器44で減算増幅される。
また、黒目上下方向の動きを検出する光電変換素子42
U、42Dは共に、正面を向いた状態で黒目の斜め下位
置からの反射光を受光するように配置され、その出力
は、加算増幅器46で加算増幅される。
[0005] There are various principles for detecting eye movements. Here, a method by the Japan Broadcasting Corporation will be described as an example (Television Society Journal, Vol. No. 2 (198).
6) See page 41 et seq.). FIG. 9 shows an optical system portion of the NHK system, and FIG. 10 shows a specific circuit together with a gate control circuit 34 when applied to the eye movement detector 30 of the embodiment of FIG. As shown in FIG. 9, an infrared light is radiated to an eyeball from an infrared light source 40 (40X, 40Y) arranged close to the eyeball, and the reflected light is reflected by a photoelectric conversion element 42 (42R, 42R).
L; 42U, 42D) to detect the movement of the iris to the left and right and up and down. The photoelectric conversion elements 42R and 42L for detecting the left and right movement of the iris are arranged so as to receive the reflected light from the right and left sides of the iris, respectively, in a state facing the front, and the output thereof is subtracted and amplified by the subtraction amplifier 44. You.
Also, a photoelectric conversion element 42 for detecting the vertical movement of the iris
Both U and 42D are arranged so as to receive the reflected light from the diagonally lower position of the iris while facing the front, and the output thereof is added and amplified by the addition amplifier 46.

【0006】減算増幅器44の出力は、黒目の左右運動
に対し図11(a)に図示する特性を示し、加算増幅器
46は、黒目の上下方向の運動に対し図11(b)に図
示する特性を示す。結局、減算増幅器44の出力は、水
平面での黒目の向く方向(観察者の観察している観察画
面でいえばその水平位置)を指示し、加算増幅器46の
出力は、垂直面での黒目の向く方向(観察画面でいえば
その垂直位置)を指示する。しかし実際には、減算増幅
器44及び加算増幅器46の出力は、多少の非線形性を
示すので、検出精度を高めるために、リニアリティ補償
回路48,50を設けるのが好ましい。
The output of the subtraction amplifier 44 has the characteristic shown in FIG. 11A for the left-right movement of the iris, and the addition amplifier 46 has the characteristic shown in FIG. 11B for the vertical movement of the iris. Is shown. After all, the output of the subtraction amplifier 44 indicates the direction of the black eye on the horizontal plane (the horizontal position in the observation screen observed by the observer), and the output of the addition amplifier 46 is the black eye on the vertical plane. The direction to face (the vertical position in the observation screen) is specified. However, in practice, the outputs of the subtraction amplifier 44 and the addition amplifier 46 show some non-linearity. Therefore, it is preferable to provide linearity compensation circuits 48 and 50 in order to increase the detection accuracy.

【0007】従って、図10において、補償回路48の
出力は画面イメージでの水平位置xを示し、補償回路5
0の出力はその垂直位置yを示す。
Therefore, in FIG. 10, the output of the compensation circuit 48 indicates the horizontal position x in the screen image,
An output of 0 indicates its vertical position y.

【0008】[0008]

【発明が解決しようとしている課題】しかしながら上記
従来例では仮に撮影者の視線が検出できたとしても、撮
影画面の枠外を一瞬だけ見た時も同じように視線が移っ
たとして検出してしまい、視線に基づくAF領域の切換
え等を行ってしまうので視線検出を用いたことによる逆
効果がでてしまう。
However, in the above-mentioned conventional example, even if the line of sight of the photographer can be detected, the line of sight is similarly detected when the outside of the frame of the photographing screen is viewed for a moment. Since the AF area is switched based on the line of sight, an adverse effect of using the line of sight detection is produced.

【0009】[0009]

【課題を解決するための手段】請求項1に記載した発明
は、視線検出装置において、連続的に視線位置を検出す
る視線検出手段と、前記視線検出手段によって検出され
る第1の視線位置と、これより後に検出される第2の視
線位置との変化量を演算する演算手段と、前記変化量が
眼球の跳躍的運動を考慮して設定される所定の基準値を
超えるかどうかを判断する判断手段と、前記変化量が前
記所定の基準値を超える場合には第1の視線位置から注
視位置を有効な視線位置として処理し、前記変化量が前
記所定の基準値を超えない場合には、第2の視線位置を
有効な視線位置として処理する処理手段とを有すること
を特徴としている。請求項2に記載した発明は、連続的
に視線位置を検出する視線検出手段を備え、前記視線検
出手段の出力に基づいて、画面内に設定された複数のエ
リアのうち何れかのエリアを選択する光学機器におい
て、前記視線検出手段によって検出される第1の視線位
置と、これより後に検出される第2の視線位置との変化
量を演算する演算手段と、前記変化量が眼球の跳躍的運
動を考慮して設定される所定の基準値を超えるかどうか
を判断する判断手段と、前記変化量が前記所定の基準値
を超える場合には第1の視線位置に基づいてエリアを選
択し、前記変化量が前記所定の基準値を超えない場合に
は、第2の視線位置に基づいてエリアを選択する選択手
段とを有することを特徴としている。
According to a first aspect of the present invention, there is provided a line-of-sight detecting apparatus, wherein a line-of-sight detecting means for continuously detecting a line-of-sight position, and a first line-of-sight position detected by the line-of-sight detecting means. Calculating means for calculating an amount of change from the second gaze position detected after this, and determining whether the amount of change exceeds a predetermined reference value set in consideration of jumping movement of the eyeball Judging means, if the amount of change exceeds the predetermined reference value, process the gaze position from the first gaze position as an effective gaze position; if the amount of change does not exceed the predetermined reference value, And processing means for processing the second line-of-sight position as an effective line-of-sight position. The invention described in claim 2 includes a line-of-sight detection unit that continuously detects a line-of-sight position, and selects one of a plurality of areas set in the screen based on an output of the line-of-sight detection unit. Calculating means for calculating an amount of change between a first line-of-sight position detected by said line-of-sight detecting means and a second line-of-sight position detected thereafter; Judging means for judging whether or not exceeds a predetermined reference value set in consideration of exercise, and if the amount of change exceeds the predetermined reference value, selects an area based on the first line-of-sight position, When the amount of change does not exceed the predetermined reference value, there is provided a selecting means for selecting an area based on a second line-of-sight position.

【0010】[0010]

【実施例】本発明の実施例の構成の概略を図1に示す。FIG. 1 schematically shows the structure of an embodiment of the present invention.

【0011】図1は本発明実施例のブロック図で、1は
M.P.U、2はメモリー、3はA/D変換機能を有す
るインターフェイス回路、4は撮影者の眼球を観察する
ためのイメージセンサー及びその駆動回路よりなるセン
サーユニット、7は発光素子としての赤外発光ダイオー
ド、5は発光制御回路、6はカメラの縦位置・横位置を
検知する位置センサ、10はAFセンサー、11はレン
ズ駆動ユニット、12は測光センサ、13は絞り駆動ユ
ニットである。
FIG. 1 is a block diagram of an embodiment of the present invention. P. U, 2 are memories, 3 is an interface circuit having an A / D conversion function, 4 is a sensor unit composed of an image sensor for observing the photographer's eyeball and its driving circuit, 7 is an infrared light emitting diode as a light emitting element 5, a light emission control circuit; 6, a position sensor for detecting the vertical and horizontal positions of the camera; 10, an AF sensor; 11, a lens drive unit; 12, a photometric sensor;

【0012】本実施例においては、イメージセンサーか
らの画像信号を演算することにより撮影者の視線を求め
るわけであるが、その原理は以下の通りである。撮影者
の眼球に平行光(もしくは発散光)を照射すると、この
光が角膜前面で反射し、発光ダイオードの虚像が生じ
る。この虚像は、プルキンエ像と呼ばれるが、その発生
位置は眼球の回転角が零の際は瞳孔中心と一致し、眼球
が回転するにつれ、プルキニエ像を瞳孔中心の間隔は、
回転角の正弦にほぼ比例する形で拡がってゆく。よって
イメージセンサー上の画像信号より、プルキンエ像の位
置、瞳孔中心の位置、さらにその間隔を算出してやれ
ば、眼球の回転角、さらには撮影者の視点を知ることが
できる(カメラのファインダーの光学的な特性により、
頭部がカメラに対して動いても、眼球の回転角が等しけ
れば、ピント板上の視点は同じである。)。
In this embodiment, the line of sight of the photographer is obtained by calculating the image signal from the image sensor. The principle is as follows. When the photographer's eye is irradiated with parallel light (or divergent light), this light is reflected on the front surface of the cornea, and a virtual image of the light emitting diode is generated. This virtual image is called a Purkinje image, and its generation position coincides with the center of the pupil when the rotation angle of the eyeball is zero, and as the eyeball rotates, the distance between the center of the pupil and the Purkinje image becomes
It spreads in a form almost proportional to the sine of the rotation angle. Therefore, if the position of the Purkinje image, the position of the center of the pupil, and the distance between them are calculated from the image signal on the image sensor, the rotation angle of the eyeball, and further, the viewpoint of the photographer can be known. Characteristics
Even if the head moves with respect to the camera, the viewpoint on the focusing screen is the same if the rotation angles of the eyeballs are equal. ).

【0013】次に上記の原理を用いた本実施例の動作に
ついて図2のフローチャートを用いて説明する。
Next, the operation of this embodiment using the above principle will be described with reference to the flowchart of FIG.

【0014】カメラのメインスイッチ(不図示)がオン
するなどして、視線検出の開始が指示されると、M.
P.U1は、視線検出のルーチンへ制御を移す(ステッ
プ10)。
When the start of line-of-sight detection is instructed by turning on a main switch (not shown) of the camera or the like, M.P.
P. U1 transfers the control to the line of sight detection routine (step 10).

【0015】視線検出のルーチンに入るとまず、初期化
の処理を行い視線検出に関わる全ての変数の値を零にす
る(ステップ11)。そしてそのときのカメラの位置
(縦位置か横位置か)の情報を位置センサ6から受け、
発光制御回路5は、赤外発光ダイオード(iRED)群
7のうちどれを発光するかの設定を行う。同時にM.
P.U1は、インターフェイス回路3を介して、イメー
ジセンサー駆動回路4に積分信号を、発光制御回路5に
積分信号に同期した発光制御信号を与える。これによ
り、そのときのカメラの位置に対応した赤外発光ダイオ
ードがイメージセンサーの蓄積に同期して発光される
(ステップ12)。ついで、イメージセンサー4上に結
像したプルキンエ像の生じた眼球前眼部の画像をインタ
ーフェイス回路3を介して読み込む(ステップ13)。
そしてこの画像を処理することにより、プルキンエ像の
位置Pを少なくとも3つの瞳孔輪部(いわゆる瞳孔エッ
ジ)の位置D1、D2、D3を検出する(ステップ1
4)。この検出された諸量より眼球の水平方向、鉛直方
向の回転角θH、θVを算出する。眼球の回転角が算出さ
れたならば、視軸補正などの個人差補正を行い、撮影者
のピント板上での視点を求め、その滞留時間等により注
視点を求める(ステップ15)。さらにこの注視点から
AFの指示がなされた際に焦点検出を行うエリア、いわ
ゆるAFエリア並びに露出制御を行うAEエリアを決定
する(ステップ16)。
When the routine for the line of sight detection is entered, an initialization process is performed first, and the values of all variables relating to the line of sight detection are set to zero (step 11). Then, information about the position of the camera (vertical position or horizontal position) at that time is received from the position sensor 6,
The light emission control circuit 5 sets which of the infrared light emitting diode (iRED) groups 7 emits light. At the same time, M.
P. U1 supplies an integration signal to the image sensor driving circuit 4 and a light emission control signal synchronized with the integration signal to the light emission control circuit 5 via the interface circuit 3. Thereby, the infrared light emitting diode corresponding to the position of the camera at that time is emitted in synchronization with the accumulation of the image sensor (step 12). Next, the image of the anterior segment of the eyeball on which the Purkinje image formed on the image sensor 4 has occurred is read via the interface circuit 3 (step 13).
By processing this image, the position P of the Purkinje image is detected as the positions D 1 , D 2 , and D 3 of at least three pupil limbs (so-called pupil edges) (step 1).
4). From the detected amounts, the horizontal and vertical rotation angles θ H and θ V of the eyeball are calculated. When the rotation angle of the eyeball is calculated, individual differences such as visual axis correction are performed, a viewpoint on the focus plate of the photographer is obtained, and a gazing point is obtained based on the staying time or the like (step 15). Further, when an AF instruction is given from this point of gaze, an area for focus detection, a so-called AF area, and an AE area for exposure control are determined (step 16).

【0016】ところで、一般に銀塩フィルムを用いるカ
メラにおいては、AFポイントを増せば、それを同数の
測距ユニットを必要とする。そのため、コスト的・スペ
ース的デメリットからAFポイントの数は制限される。
したがって、ピント板上の視点位置に対応するAFポイ
ントが存在しない可能性がある。そこで以下の様に補間
処理を行う。
In general, in a camera using a silver halide film, increasing the number of AF points requires the same number of distance measurement units. Therefore, the number of AF points is limited due to cost and space disadvantages.
Therefore, there is a possibility that there is no AF point corresponding to the viewpoint position on the focus plate. Therefore, interpolation processing is performed as follows.

【0017】第一の方法は、ピント板上の視点に対応す
るAFエリアが存在しない場合は、ピント板上の注視点
から最も近いAFポイントをその視点のAFポイントと
する方法である。例えば図3(A)に示すようにAFポ
イントが設定されている場合、注視点位置の座標(x,
y)をA〜Gの7点のAFポイントの中央の座標
(xA,yA)(xB,yB)(xC,yC)(xD,yD
(xE,yE)(xF,yF)(xG,yG)の距離lを次式
で求め、その値が最小となるものを、その注視位置のA
Fポイントとする。
In the first method, when there is no AF area corresponding to the viewpoint on the focus plate, the AF point closest to the point of interest on the focus plate is set as the AF point of the viewpoint. For example, when the AF point is set as shown in FIG. 3A, the coordinates (x,
center coordinates of the AF point 7 point A~G a y) (x A, y A ) (x B, y B) (x C, y C) (x D, y D)
The distance 1 of (x E , y E ) (x F , y F ) (x G , y G ) is obtained by the following equation, and the distance that minimizes the value is determined by the gaze position A
F point.

【0018】[0018]

【外1】 [Outside 1]

【0019】第二の方法はあらかじめAFポイントと共
にそのAFポイントを選択するエリアを設定しておくも
のである。例えば、図3(B)に示す様にAFポイント
A〜Gとそれを選択するエリアを設定する。
In the second method, an AF point and an area for selecting the AF point are set in advance. For example, as shown in FIG. 3B, AF points A to G and an area for selecting the AF points are set.

【0020】AEエリアの決定に関しても同様のことが
言えるが、測光センサーはエリア分割をされたものを用
いることが多い為、第二の方法が主になる。すなわち、
図3(B)の7つのエリアに各々対応するように分割測
光する測光装置を設ける。
The same can be said for the determination of the AE area. However, since the photometric sensor is often divided into areas, the second method is mainly used. That is,
A photometric device that performs split photometry is provided so as to correspond to each of the seven areas in FIG.

【0021】ところで、実際の撮影者の視点は常に被写
体にあるわけではなく、ある程度ふらついたり、画面外
の表示を見たりする。そこで視点が画面外にある場合は
追尾動作の対象外にしたり、公知の手法で撮影者の注視
点を抽出するなどの処理が必要となる。さらに、本実施
例においては、効果的に追尾動作を行うため、視点の移
動量がある一定値を越えた場合には、AF−AEエリア
の移動を行わない様にしている。その動作手順を図4に
示す。注視位置からAF・AEエリア決定のルーチンに
入ると、まずメモリーに記憶されている前回の注視位置
でのAF・AEエリアの情報を読み込む(ステップ2
1)。もしそれが初期化された値であったなら、すなわ
ち初めてのエリア決定の動作であったなら(ステップ2
2)、そのときの注視点の位置を基にして、上述の様な
補間処理を行うなどしてエリアを決定し(ステップ2
5)、その情報をメモリーに記憶する(ステップ2
6)。そして二度目以降の場合は、前回のAF・AEエ
リアの情報との比較を行い、大きな移動があったか否か
の判定を行う。これはAF・AEエリアの情報として、
その決定の際に用いた注視点位置のx座標・y座標をメ
モリーしている場合は、今回求められた視点位置座標
(xi,yi)と前回の視点位置座標(xi-1,yi-1)と
の距離Δl
By the way, the actual photographer's viewpoint is not always at the subject, but fluctuates to some extent or looks at a display outside the screen. Therefore, when the viewpoint is outside the screen, it is necessary to perform processing such as excluding the object of the tracking operation or extracting the gazing point of the photographer by a known method. Further, in the present embodiment, in order to effectively perform the tracking operation, the movement of the AF-AE area is not performed when the movement amount of the viewpoint exceeds a certain value. The operation procedure is shown in FIG. When the AF / AE area determination routine is entered from the gaze position, first, information on the AF / AE area at the previous gaze position stored in the memory is read (step 2).
1). If it is the initialized value, that is, if it is the first area determination operation (step 2)
2) Based on the position of the gazing point at that time, an area is determined by performing the above-described interpolation processing (step 2).
5) Store the information in the memory (step 2)
6). Then, in the case of the second time or later, comparison with the information of the previous AF / AE area is performed, and it is determined whether a large movement has occurred. This is the AF / AE area information
If you memorize the x-coordinate · y coordinate of the gazing point position used when the decision is currently obtained viewpoint position coordinates (x i, y i) and the previous viewpoint position coordinates (x i-1, y i-1 ) distance Δl

【0022】[0022]

【外2】 を求め(ステップ23)、この値がある一定値lcon
st以下であったなら(ステップ24)、今回求められ
た視点の座標を用い、さらに上述の補間処理を行うなど
して、新しい注視位置のエリアを決定し、その情報をメ
モリーに記憶する。逆にΔlがlconstを超える場
合は前回求められたエリア情報を更新せずにそのまま用
いる。
[Outside 2] (Step 23), and this value is a certain value lcon
If it is smaller than st (step 24), the area of the new gaze position is determined by using the coordinates of the viewpoint obtained this time and by performing the above-mentioned interpolation processing, and the information is stored in the memory. Conversely, when Δl exceeds lconst, the area information obtained last time is used without updating.

【0023】この様な処理を行うのは人間の眼球運動の
特性に起因する検出誤差を最小にし、かつ煩雑にAF・
AEエリアを切換えることにより生じるレンズの煩雑な
駆動などの不都合の抑止を目的としている。
Performing such processing minimizes a detection error caused by the characteristics of human eye movements, and complicates AF /
The purpose is to suppress inconvenience such as complicated driving of a lens caused by switching the AE area.

【0024】ここで問題とする眼球運動の特性は跳躍的
運動である。跳躍的運動は読書時や画像特徴を注視する
際に生じる眼球運動で移動時間は1/20〜1/100
秒、最高速度は、300度/秒にも達する。ただ発生周
期は0.2秒以下の短い間隔にはならず、さらに運動発
生の50msec前から運動終了までの移動状態ではS
accadic抑制と呼ばれる視機能の極端に低下する
現像が見られる。
The characteristic of the eye movement concerned here is a jump movement. Jumping movement is an eye movement that occurs when reading or gazing at image features, and the movement time is 1/20 to 1/100.
Seconds, the maximum speed reaches as much as 300 degrees / second. However, the generation cycle does not become a short interval of 0.2 seconds or less, and in the moving state from 50 msec before the movement occurs to the end of the movement, S
There is development called "accadic suppression", in which the visual function is extremely reduced.

【0025】したがって、跳躍的運動が生じた際に運動
終了点への移動途中の点を検知してしまうことにより生
じる誤動作、特にファインダー視野外の表示を見るため
に生じた跳躍的運動については移動途中の点を検知する
と大きな不都合が起こると予想される。よって定数lc
onstは随従運動(移動物体をゆっくり追跡する際に
生じる低速平滑な眼球運動で30〜35度/秒以下の移
動対象に対して生じる)と視線検出間隔によって定めら
れる随従運動によって生じるカメラピント板上での視点
の移動量lsmothと視線検出間隔Tsampleの
積の形で定数lconstは定められる。
Therefore, a malfunction caused by detecting a point in the middle of the movement to the end point of the movement when the jumping movement occurs, particularly a jumping movement caused by seeing a display outside the viewfinder visual field, is moved. If a point on the way is detected, it is expected that a great inconvenience will occur. Therefore the constant lc
onst is a camera movement caused by a follow-up movement (a slow smooth eye movement that occurs when slowly tracking a moving object and occurs for a moving object of 30 to 35 degrees / second or less) and a follow-up movement defined by a gaze detection interval. The constant lconst is determined in the form of the product of the viewpoint movement amount lsmoth and the line-of-sight detection interval Tsample.

【0026】そして測光スイッチSW1がオンになった
なら(ステップ17)、AF動作を測光を行う(ステッ
プ18、19)。AF動作はまずMPUが注視位置に対
応するエリア内のAFセンサーからの信号を読み込み、
その信号を演算することにより、レンズ駆動量を求め
る。そしてその後レンズ駆動ユニットを制御し、焦点調
整を行う。またM.P.Uは注視位置に対応するエリア
を重み付けして全エリアの分割測光センサーからの信号
に基づき、測光値を求め、指定された撮影モードにした
がって露出定数(シャッター速度絞り値…)を決定す
る。
When the photometric switch SW1 is turned on (step 17), the AF operation is photometrically performed (steps 18 and 19). In the AF operation, first, the MPU reads a signal from the AF sensor in an area corresponding to the gaze position,
By calculating the signal, a lens drive amount is obtained. Then, the lens drive unit is controlled to adjust the focus. M. P. U weights an area corresponding to the gaze position, obtains a photometric value based on signals from the divided photometric sensors in all areas, and determines an exposure constant (shutter speed aperture value...) In accordance with a designated shooting mode.

【0027】そしてレリーズ釦の第2段操作が行われて
レリーズの要求がなされたならば(ステップ20)、算
出された絞り値への絞りの駆動、ミラー動作、シャッタ
ーの開閉、フィルムの巻き上げなどのレリーズに関する
一連の動作を行う。
If the release button is requested by performing the second-stage operation of the release button (step 20), the aperture is driven to the calculated aperture value, the mirror is operated, the shutter is opened and closed, the film is wound, and the like. Performs a series of operations related to the release.

【0028】今までの説明においては、AF動作(信号
読み込み→演算→レンズ駆動)と測光をほぼ同時に行っ
ているが、実際のカメラにおいてはカメラにおいて設定
されているモードに従うものである。すなわちカメラの
モード設定で、レリーズ直前に測光を行い、その測光値
に基づいて露出値を定めても良い。
In the description so far, the AF operation (signal reading → calculation → lens drive) and photometry are performed almost simultaneously, but in an actual camera, the mode follows the mode set in the camera. That is, in the mode setting of the camera, photometry may be performed immediately before the release, and the exposure value may be determined based on the photometric value.

【0029】また、AF動作のうちレンズ駆動のみをレ
リーズ要求のあったのちに行っても構わない。
In the AF operation, only the lens drive may be performed after the release request.

【0030】以上説明してきた様に、実施例は撮影者の
視線の動きを検知し、視線の存在するエリアでAF・A
Eを行う、いわゆる被写体の自動追尾を行うものであ
る。
As described above, in the embodiment, the movement of the line of sight of the photographer is detected, and AF / A is detected in the area where the line of sight exists.
E is performed, that is, so-called automatic tracking of the subject is performed.

【0031】(他の実施例)第二実施例のブロック図を
図5に示す。
(Other Embodiment) FIG. 5 shows a block diagram of the second embodiment.

【0032】1は、M.P.U、2はメモリー3はイン
ターフェイス回路、4は視線検出用のイメージセンサー
並びにその駆動回路、5は発光制御回路、7は赤外発光
ダイオード、9はレンズ駆動ユニット、11は絞り駆動
ユニット、15は撮影用の撮像素子、16は撮影レン
ズ、17は絞りユニット、14はゲートである。
1 is based on M. P. U, 2 is a memory 3 is an interface circuit, 4 is an image sensor for detecting a line of sight and its driving circuit, 5 is a light emission control circuit, 7 is an infrared light emitting diode, 9 is a lens driving unit, 11 is an aperture driving unit, 15 is An imaging element for photographing, 16 is a photographing lens, 17 is an aperture unit, and 14 is a gate.

【0033】第一実施例が銀塩スチルカメラに好適なシ
ステムであるのに対し、第二実施例はビデオ・カム・コ
ーダーなどに好適なシステムである。また視線検出の原
理は第一実施例と同じプルキニエ像と、瞳孔中心を用い
るものである。
The first embodiment is a system suitable for a silver halide still camera, while the second embodiment is a system suitable for a video cam coder or the like. The principle of line of sight detection uses the same Purkinje image and the center of the pupil as in the first embodiment.

【0034】本実施例の動作手順を図6に示す。FIG. 6 shows the operation procedure of this embodiment.

【0035】カメラの視線検出要求スイッチ(例えば自
動追尾スイッチ)SW3がオンするなどして視線検出の
開始が指示されると、M.P.U1は視線検出のルーチ
ンへ制御を移す(ステップ30)。
When the start of the line-of-sight detection is instructed by turning on the line-of-sight detection request switch (for example, an automatic tracking switch) SW3 of the camera, the M.P. P. U1 transfers control to a line-of-sight detection routine (step 30).

【0036】視線検出のルーチンへ入るとまず、初期化
処理を行い、視線検出に関わる全ての変数を零にする
(ステップ31)。その後M.P.U1はイメージセン
サー駆動回路4に、積分信号を、そしてこれに同期した
発光制御信号を、発光制御回路5に各々インターフェイ
ス回路3を介して与える。これにより赤外発光ダイオー
ド7がイメージセンサー4の蓄積に同期して発光される
(ステップ32)。ついでイメージセンサー4上に結像
したプルキニエ像の生じた眼球前眼部の画像をインター
フェイス回路3を介して読み込む(ステップ33)。そ
してこの画像を処理することにより眼球の水平方向・鉛
直方向の回転角、さらに個人差補正を行うことにより撮
影者の画面上での注視点を求める(ステップ35)。そ
してこの注視点を基にAF・AEを行うエリア(図3
(B)に近似した)を決定し(ステップ36)、このエ
リアの情報に基づきAF・AE等が行われる(ステップ
37)。なお、ステップ32〜37の動作は視線検出要
求が続くかぎり繰り返される(ステップ38)。この場
合も第一実施例と同様の理由で、視点が画面外にある場
合は、追尾動作の対象外にしたり、公知の手法(例えば
滞留時間)や先に提案した特願平2−220790によ
って撮影者の注視点を抽出するなどの処理が必要とな
る。
When the routine enters the line-of-sight detection routine, an initialization process is performed first, and all variables relating to line-of-sight detection are set to zero (step 31). After that, M. P. U <b> 1 supplies an integration signal to the image sensor drive circuit 4 and a light emission control signal synchronized with the integration signal to the light emission control circuit 5 via the interface circuit 3. Thus, the infrared light emitting diode 7 emits light in synchronization with the accumulation of the image sensor 4 (step 32). Next, the image of the anterior segment of the eyeball where the Purkinje image formed on the image sensor 4 occurs is read via the interface circuit 3 (step 33). Then, by processing this image, the horizontal and vertical rotation angles of the eyeball and the individual difference correction are performed to obtain the gazing point on the screen of the photographer (step 35). An area for performing AF / AE based on this point of gaze (FIG. 3)
(Approximate to (B)) is determined (step 36), and AF / AE is performed based on the information of this area (step 37). The operations in steps 32 to 37 are repeated as long as the line-of-sight detection request continues (step 38). In this case as well, for the same reason as in the first embodiment, if the viewpoint is outside the screen, it is excluded from the target of the tracking operation, or a known method (for example, a dwell time) or a previously proposed Japanese Patent Application No. 2-220790. Processing such as extracting the point of interest of the photographer is required.

【0037】そして本実施例においても効果的に追尾動
作を行うために、第一実施例と同様に視点の移動量があ
る一定値を超えた場合には、AF・AEエリアの移動を
行わない様にしている。その動作手順を図7に示す。視
点位置からAF・AEエリア決定のルーチンに入ると、
まずメモリーに記憶されている前回のAF・AEエリア
決定に用いた視点位置情報を読み込む(ステップ4
0)。もしそれが初期化された値であったなら(ステッ
プ41)、そのときの視点位置をエリア決定の為の視点
位置(x0,y0)としてメモリーに記憶したのち、エリ
ア設定のルーチンへ進む(ステップ44)。また二度目
以降の場合は、前回のエリア決定の為の視点位置との比
較を行う。すなわち、今回の視点位置(xi,yi)と前
回の視点位置(xi-1,yi-1)との距離Δl
In this embodiment, in order to effectively perform the tracking operation, the AF / AE area is not moved when the amount of movement of the viewpoint exceeds a certain value as in the first embodiment. I am doing it. FIG. 7 shows the operation procedure. When entering the AF / AE area determination routine from the viewpoint position,
First, the viewpoint position information used in the previous AF / AE area determination stored in the memory is read (step 4).
0). If it is the initialized value (step 41), the viewpoint position at that time is stored in the memory as the viewpoint position (x 0 , y 0 ) for area determination, and then the routine proceeds to the area setting routine. (Step 44). In the case of the second time or later, comparison with the viewpoint position for the previous area determination is performed. That is, the distance Δl between the current viewpoint position (x i , y i ) and the previous viewpoint position (x i-1 , y i-1 )

【0038】[0038]

【外3】 を求め(ステップ42)、この値がある一定値lcon
st以下であったなら、今回の視点位置(xi,yi)を
エリア決定の為の視点位置(xo,yo)としてメモリー
に記憶したのち次のルーチンへ進む。逆にΔlがlco
nstを超える場合はエリア決定の為の視点位置
(xo、yo)を更新せずに次のルーチンへ進む(ステッ
プ43)。
[Outside 3] (Step 42), and this value is a certain value lcon
If it is less than or equal to st, the current viewpoint position (x i , y i ) is stored in the memory as the viewpoint position (x o , y o ) for area determination, and then the routine proceeds to the next routine. Conversely, Δl is lco
If it exceeds nst, the process proceeds to the next routine without updating the viewpoint position (x o , y o ) for area determination (step 43).

【0039】AF・AEエリアの決定は、エリア決定の
為の視点位置(xo,yo)を用いて次の様にして決定す
る。まず、そのときの撮影レンズの焦点距離、絞り値か
ら被写界深度を求め(ステップ45)、その値に応じて
エリアの大きさを定める(ステップ46)。これは被写
界深度が浅いときは小さく深いときは大きくなる様に設
定される。そして、前段階で求めたエリア決定の為の視
点位置(xo,yo)を中心に、被写界深度に応じた大き
さを持つエリアを定め、これをAF・AEエリアとする
(ステップ47)。
The AF / AE area is determined using the viewpoint position (x o , y o ) for area determination as follows. First, the depth of field is determined from the focal length and aperture value of the taking lens at that time (step 45), and the size of the area is determined according to the value (step 46). This is set to be small when the depth of field is shallow and large when the depth of field is deep. Then, an area having a size corresponding to the depth of field is determined around the viewpoint position (x o , y o ) for area determination obtained in the previous stage, and this area is defined as an AF / AE area (step 47).

【0040】追尾動作が行われている間は上記の様に、
AF・AEエリアが決定され被写体の動き(撮影者の画
面上のでの視点の動き)に合わせて移動する、追尾動作
中はM.P.U1は上記の様にして決定したAF・AE
エリア情報をゲート14に出力する。これによりゲート
14からA/D変換機能を有するインターフェイス回路
3に出力される映像信号の範囲(AF・AEを行うエリ
ア)が設定される。そして、ゲート14を通して出力さ
れた撮像素子15のエリア内の信号は、インターフェイ
ス回路3で、ディジタル信号に変換したのち、M.P.
U1に読み込む。M.P.U1は、この信号を用いてA
F演算、AE演算を行い、レンズ駆動量、絞り駆動量を
算出し、その値をレンズ駆動回路9、絞り駆動回路11
へ出力する。両駆動回路では、その値に基づいて、レン
ズ絞りを駆動する。そして再び視線検出のルーチンに入
り、算出された撮影者の画面上での視点並びに被写界深
度を用いて、新たなAF・AEエリアを設定し、そのエ
リアからの信号を用いてAF・AE等を行う。
During the tracking operation, as described above,
The AF / AE area is determined and moves in accordance with the movement of the subject (the movement of the viewpoint on the screen of the photographer). P. U1 is the AF / AE determined as described above.
The area information is output to the gate 14. As a result, the range of the video signal (the area for performing AF / AE) output from the gate 14 to the interface circuit 3 having the A / D conversion function is set. Then, the signal in the area of the image sensor 15 output through the gate 14 is converted into a digital signal by the interface circuit 3 and then converted into a digital signal. P.
Read into U1. M. P. U1 uses this signal to
An F calculation and an AE calculation are performed to calculate a lens drive amount and an aperture drive amount, and the values are used as the lens drive circuit 9 and the aperture drive circuit 11
Output to Both drive circuits drive the lens diaphragm based on the value. Then, the routine enters a line-of-sight detection routine again, sets a new AF / AE area using the calculated viewpoint and depth of field on the photographer's screen, and uses the signal from the area to set a new AF / AE area. And so on.

【0041】以上の動作を繰り返し行うことにより追尾
動作が行われる。
The tracking operation is performed by repeating the above operation.

【0042】なお、ビデオ・カム・コーダーにおいて
は、撮像素子から出力される像信号を用いてAF演算、
AE演算が行われるので、基本的に全面画のどこのエリ
アであっても測距、測光が可能であり、銀塩カメラの様
なAFポイント・AEポイントの補間処理は原則として
不要である。
In a video camcorder, an AF operation is performed using an image signal output from an image sensor.
Since the AE calculation is performed, distance measurement and photometry can be performed basically in any area of the entire image, and interpolation processing of AF points and AE points as in a silver halide camera is basically unnecessary.

【0043】[0043]

【発明の効果】以上、説明したように、請求項1に記載
した発明は、視線検出装置において、連続的に視線位置
を検出する視線検出手段と、前記視線検出手段によって
検出される第1の視線位置と、これより後に検出される
第2の視線位置との変化量を演算する演算手段と、前記
変化量が眼球の跳躍的運動を考慮して設定される所定の
基準値を超えるかどうかを判断する判断手段と、前記変
化量が前記所定の基準値を超える場合には第1の視線位
置から注視位置を有効な視線位置として処理し、前記変
化量が前記所定の基準値を超えない場合には、第2の視
線位置を有効な視線位置として処理する処理手段とを有
することで、無意識な眼球運動による影響を少なくする
ことができ、使用者の意志に応じた正確な注視位置を得
ることができる。請求項2に記載した発明は、連続的に
視線位置を検出する視線検出手段を備え、前記視線検出
手段の出力に基づいて、画面内に設定された複数のエリ
アのうち何れかのエリアを選択する光学機器において、
前記視線検出手段によって検出される第1の視線位置
と、これより後に検出される第2の視線位置との変化量
を演算する演算手段と、前記変化量が眼球の跳躍的運動
を考慮して設定される所定の基準値を超えるかどうかを
判断する判断手段と、前記変化量が前記所定の基準値を
超える場合には第1の視線位置に基づいてエリアを選択
し、前記変化量が前記所定の基準値を超えない場合に
は、第2の視線位置に基づいてエリアを選択する選択手
段とを有することで、無意識な眼球運動に基づいてエリ
アを選択してしまう不具合を解消することができ、使用
者の意志を正しく反映させたエリア選択が可能になる。
As described above, according to the first aspect of the present invention, in the gaze detecting device, the gaze detecting means for continuously detecting the gaze position and the first gaze detected by the gaze detecting means are provided. Calculating means for calculating an amount of change between the line of sight position and a second line of sight position detected thereafter; and whether or not the amount of change exceeds a predetermined reference value set in consideration of jumping movement of the eyeball Determining means for determining, when the change amount exceeds the predetermined reference value, processing the gaze position from the first gaze position as an effective gaze position, and the change amount does not exceed the predetermined reference value. In this case, by having a processing unit that processes the second line-of-sight position as an effective line-of-sight position, it is possible to reduce the influence of unconscious eye movement, and to set an accurate gaze position according to the user's will. Obtainable. The invention described in claim 2 includes a line-of-sight detection unit that continuously detects a line-of-sight position, and selects one of a plurality of areas set in the screen based on an output of the line-of-sight detection unit. Optical equipment
Calculating means for calculating an amount of change between a first line-of-sight position detected by the line-of-sight detecting means and a second line-of-sight position detected thereafter; and the amount of change taking into account the jumping movement of the eyeball Determining means for determining whether or not a predetermined reference value to be set is exceeded; and, when the change amount exceeds the predetermined reference value, selecting an area based on a first line-of-sight position, wherein the change amount is When a predetermined reference value is not exceeded, a selection unit for selecting an area based on the second line-of-sight position is provided, so that an inconvenience of selecting an area based on unconscious eye movement can be solved. It is possible to select an area that properly reflects the user's will.

【0044】また、実施例では、カメラの様に撮影者の
頭部の運動と眼球の回転運動が混在するファインダーを
のぞく撮影者の視線を正しく検出することが可能な「プ
ルキンエ像と瞳孔中心を用いる検出原理」を採用した視
線検出手段を設けることにより、動きのある被写体に対
する視線の動きより主被写体を推定し、自動追尾を行う
ことを可能とした。
In the embodiment, the Purkinje image and the center of the pupil, which can correctly detect the line of sight of the photographer except for a finder in which the movement of the photographer's head and the rotational movement of the eyeball coexist like a camera, can be detected. By providing a line-of-sight detection unit that employs the “detection principle used”, it is possible to estimate the main subject from the movement of the line of sight to a moving object and perform automatic tracking.

【0045】さらに実施例では画像処理によりAF・A
Eエリアの変更を行う自動追尾方式ではうまく追尾の行
えない 「背景に一番輝度の高いものが存在する場合」 「全体が暗いところ」 「同じ輝度の複数の被写体が画面内でバラバラに動いて
いる場合」 「被写体のコントラストが低い場合」 「同様の距離で追尾している被写体と別の被写体が交又
した場合(別の被写体の方が輝度の高い場合)」 などの場合でも正しく追尾(AF・AEエリアの移動)
が行える。
Further, in the embodiment, AF / A
The automatic tracking method that changes the E area does not track well. "When there is the object with the highest brightness in the background.""Dark in the whole area.""Multiple subjects with the same brightness move in the screen. If the subject is low in contrast, if the subject being tracked at the same distance crosses another subject (if another subject has higher brightness), etc. Movement of AF / AE area)
Can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明第一実施例のブロック図。FIG. 1 is a block diagram of a first embodiment of the present invention.

【図2】第一実施例のフローチャート。FIG. 2 is a flowchart of the first embodiment.

【図3】AF・AEエリアを示す図。FIG. 3 is a diagram showing an AF / AE area.

【図4】第一実施例のエリア決定を行う動作のフローチ
ヤート。
FIG. 4 is a flowchart of an operation for determining an area according to the first embodiment.

【図5】第二実施例のブロック図。FIG. 5 is a block diagram of a second embodiment.

【図6】第二実施例のフローチヤート。FIG. 6 is a flow chart of a second embodiment.

【図7】第二実施例のエリア決定を行う動作のフローチ
ヤート。
FIG. 7 is a flowchart of an operation for determining an area according to the second embodiment.

【図8】従来例の構成図。FIG. 8 is a configuration diagram of a conventional example.

【図9】従来例の原理図。FIG. 9 is a principle diagram of a conventional example.

【図10】従来例の回路図。FIG. 10 is a circuit diagram of a conventional example.

【図11】従来例の説明図。FIG. 11 is an explanatory view of a conventional example.

【符号の説明】[Explanation of symbols]

1 マイクロ・プロセッシング・ユニット(M.P.
U) 4 イメージセンサー及びその駆動回路 5 発光制御回路 6 姿勢位置センサー 7 赤外発光ダイオード 8 AFセンサー 10 測光センサー 15 撮像素子 16 撮影レンズ
1 Micro Processing Unit (MP.
U) 4 Image sensor and its driving circuit 5 Light emission control circuit 6 Attitude / position sensor 7 Infrared light emitting diode 8 AF sensor 10 Photometry sensor 15 Image sensor 16 Photographing lens

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 連続的に視線位置を検出する視線検出手
段と、 前記視線検出手段によって検出される第1の視線位置
と、これより後に検出される第2の視線位置との変化量
を演算する演算手段と、 前記変化量が眼球の跳躍的運動を考慮して設定される所
定の基準値を超えるかどうかを判断する判断手段と、 前記変化量が前記所定の基準値を超える場合には第1の
視線位置から注視位置を有効な視線位置として処理し、
前記変化量が前記所定の基準値を超えない場合には、第
2の視線位置を有効な視線位置として処理する処理手段
とを有することを特徴とする視線検出装置。
1. A gaze detection means for continuously detecting a gaze position, and a change amount between a first gaze position detected by the gaze detection means and a second gaze position detected after the first gaze position is calculated. Calculating means for determining whether the amount of change exceeds a predetermined reference value set in consideration of jumping movement of the eyeball, and when the amount of change exceeds the predetermined reference value, Processing the gaze position from the first gaze position as a valid gaze position,
Processing means for processing the second line of sight position as an effective line of sight position when the amount of change does not exceed the predetermined reference value.
【請求項2】 連続的に視線位置を検出する視線検出手
段を備え、前記視線検出手段の出力に基づいて、画面内
に設定された複数のエリアのうち何れかのエリアを選択
する光学機器において、 前記視線検出手段によって検出される第1の視線位置
と、これより後に検出される第2の視線位置との変化量
を演算する演算手段と、 前記変化量が眼球の跳躍的運動を考慮して設定される所
定の基準値を超えるかどうかを判断する判断手段と、 前記変化量が前記所定の基準値を超える場合には第1の
視線位置に基づいてエリアを選択し、前記変化量が前記
所定の基準値を超えない場合には、第2の視線位置に基
づいてエリアを選択する選択手段とを有することを特徴
とする視線検出手段を備えた光学機器。
2. An optical apparatus comprising a line-of-sight detecting means for continuously detecting a line-of-sight position, and selecting one of a plurality of areas set in a screen based on an output of the line-of-sight detecting means. Calculating means for calculating an amount of change between a first line-of-sight position detected by the line-of-sight detecting means and a second line-of-sight position detected after the first line-of-sight position; Determining means for determining whether or not the change exceeds a predetermined reference value. If the change amount exceeds the predetermined reference value, an area is selected based on a first line-of-sight position, and the change amount is determined. Selecting means for selecting an area based on a second line-of-sight position if the predetermined reference value is not exceeded.
JP3107316A 1991-05-13 1991-05-13 Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means Expired - Lifetime JP2952071B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP3107316A JP2952071B2 (en) 1991-05-13 1991-05-13 Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
DE4215523A DE4215523C2 (en) 1991-05-13 1992-05-12 Viewpoint detection device for a camera
US08/445,718 US5546158A (en) 1991-05-13 1995-05-22 View point detecting apparatus wherein first and subsequent view point data are compared

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3107316A JP2952071B2 (en) 1991-05-13 1991-05-13 Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means

Publications (2)

Publication Number Publication Date
JPH04335606A JPH04335606A (en) 1992-11-24
JP2952071B2 true JP2952071B2 (en) 1999-09-20

Family

ID=14455984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3107316A Expired - Lifetime JP2952071B2 (en) 1991-05-13 1991-05-13 Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means

Country Status (1)

Country Link
JP (1) JP2952071B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5828070B2 (en) 2010-08-20 2015-12-02 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JPH04335606A (en) 1992-11-24

Similar Documents

Publication Publication Date Title
US5546158A (en) View point detecting apparatus wherein first and subsequent view point data are compared
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JP3102825B2 (en) camera
US11509816B2 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
JP3192483B2 (en) Optical equipment
JP2952071B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
JP2002214659A (en) Camera with shake correcting function
JP2952072B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
JP2952070B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
JP3130905B2 (en) Optical equipment
JPH07199046A (en) Device provided with sight-line detecting function
US20230186520A1 (en) Gaze detection apparatus
JP7358130B2 (en) Electronic equipment and its control method
JPH0564061A (en) Video camera
JP3180458B2 (en) Camera having line-of-sight detection means
WO2022091664A1 (en) Electronic apparatus and control method therefor
JP3571744B2 (en) Camera with gaze detection means
JPH07284003A (en) Image pickup device
JP2023178092A (en) Information processing apparatus, imaging apparatus, information processing method, and method for controlling imaging apparatus
JP2000075198A (en) Device provided with function of detecting line-of-sight
JP3024628B2 (en) Eye gaze detection device and camera
JP2956543B2 (en) Camera with gaze detection function
JP2023063023A (en) Electronic device and control method for the same
JPH06308373A (en) Camera with line of sight detecting function
JP2022185313A (en) Imaging device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070709

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 11