JPH08194154A - Observing device with line of sight detecting function - Google Patents

Observing device with line of sight detecting function

Info

Publication number
JPH08194154A
JPH08194154A JP7019972A JP1997295A JPH08194154A JP H08194154 A JPH08194154 A JP H08194154A JP 7019972 A JP7019972 A JP 7019972A JP 1997295 A JP1997295 A JP 1997295A JP H08194154 A JPH08194154 A JP H08194154A
Authority
JP
Japan
Prior art keywords
illumination
line
posture
photographer
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7019972A
Other languages
Japanese (ja)
Inventor
Akihiko Nagano
明彦 長野
Yoshiaki Irie
良昭 入江
Akira Yamada
山田  晃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7019972A priority Critical patent/JPH08194154A/en
Priority to US08/408,281 priority patent/US5797046A/en
Publication of JPH08194154A publication Critical patent/JPH08194154A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PURPOSE: To detect the line of sight with high accuracy, even if the distance between the eye of an observer and an eyepiece part is changed due to the attitude for holding an observing device such as a camera. CONSTITUTION: This observing device is provided with illuminating means 13a-13b having plural illuminating forms for each attitude of the device, a storage means storing the illuminating forms for each attitude of the device and an illumination setting means for setting the illuminating forms of the illuminating means 13a-13h, based on information of the attitude detected by an attitude detecting means and the information stored in the storage means. For instance, the illuminating forms of the illuminating means 13a-13h are set based on the illuminating form information stored in accordance with the posture for holding the camera and the present attitude information detected by the attitude detecting means. In order words, the quantity of light emitted from a light source is made different or the position and light quantity of the light source are made different, for instance.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ファインダを覗く撮影
者の視線を算出し、該視線情報に基づいて各種の機能の
制御を行うカメラ等の視線検出機能付き観察装置の改良
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of an observation apparatus having a visual axis detecting function, such as a camera, which calculates the visual axis of a photographer looking through a viewfinder and controls various functions based on the visual axis information. .

【0002】[0002]

【従来の技術】従来より、ファインダを覗く撮影者の視
線を検出しその視線情報に基づいて撮影レンズの自動焦
点調節等の機能を制御するカメラが市販されている。
2. Description of the Related Art Conventionally, a camera is commercially available which detects the line of sight of a photographer looking into a finder and controls functions such as automatic focusing of a photographing lens based on the line-of-sight information.

【0003】この種のカメラは、撮影者の視線の個人差
に関する情報を予め検出して記憶手段に記憶しておき、
撮影者の視線の情報から各種機能を制御する時には、予
め記憶された視線の個人差情報を視線補正情報として用
いて観察面上の注視位置を演算し、その位置情報に基づ
いて制御を行っている。
In this type of camera, information relating to individual differences in the line of sight of the photographer is detected in advance and stored in storage means,
When controlling various functions from the photographer's line-of-sight information, the gaze position on the viewing surface is calculated using the previously stored individual difference information of the line-of-sight as line-of-sight correction information, and control is performed based on the position information. There is.

【0004】また、本願出願人は特願平6−76567
号において、カメラの姿勢に対応した撮影者の視線の個
人差に関する情報を検出し、その情報を記憶可能なカメ
ラを開示している。同カメラにおいて、撮影者の視線を
検出する為の撮影者の眼球を照明する照明手段として、
カメラの姿勢毎に裸眼撮影者用の照明光源と眼鏡装着者
用の照明光源とを具備している。一般に裸眼撮影者用の
照明光源の発光量は眼鏡装着者用の照明光源の発光量よ
りも小さく設定され、各照明光源は撮影者の視線の個人
差に関する情報に基づいて選択される。また、撮影者の
眼球からの反射光はレンズ,センサから成る受光手段に
よって受光され、得られた眼球像情報を解析することに
より、撮影者の視線が算出される。
Further, the applicant of the present application filed Japanese Patent Application No. 6-76567.
Japanese Patent Laid-Open Publication No. 2003-242242 discloses a camera capable of detecting information regarding individual differences in the line of sight of a photographer corresponding to the posture of the camera and storing the information. In the camera, as an illuminating means for illuminating the eyeball of the photographer for detecting the line of sight of the photographer,
An illumination light source for a naked eye photographer and an illumination light source for a spectacle wearer are provided for each posture of the camera. Generally, the light emission amount of the illumination light source for the naked eye photographer is set to be smaller than the light emission amount of the illumination light source for the eyeglass wearer, and each illumination light source is selected based on the information regarding the individual difference in the line of sight of the photographer. Further, the reflected light from the eyeball of the photographer is received by the light receiving means including a lens and a sensor, and the eye line of the photographer is calculated by analyzing the obtained eyeball image information.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来に
おいては、撮影者の視線の個人差に関する情報の中には
設定される照明光源のカメラの姿勢毎の情報は含まれて
いないため、カメラのある姿勢において照明光源の設定
方法が決定すると、他の姿勢においても同一の設定方法
に基づいて照明光源が設定されていた。その為、撮影者
がカメラの接眼部に近づいた状態でファインダを覗いた
時に、裸眼撮影者用の発光量の比較的小さい照明光源が
設定されると、撮影者がカメラの姿勢を変えて撮影する
場合も裸眼撮影者用の照明光源に設定される。
However, in the prior art, since the information regarding the individual differences in the line of sight of the photographer does not include the information for each posture of the illumination light source camera, there is a camera. When the setting method of the illumination light source is determined in the posture, the illumination light source is set in the other postures based on the same setting method. Therefore, when the photographer is looking into the viewfinder while approaching the eyepiece of the camera, if an illumination light source with a relatively small amount of light emission for the naked eye photographer is set, the photographer changes the posture of the camera. When taking a picture, the illumination light source is set for the naked eye photographer.

【0006】ところが、カメラの姿勢によっては撮影者
の鼻、あるいはカメラを保持する手が邪魔になって撮影
者の眼がカメラの接眼部から離れてしまい、その結果発
光量の小さい照明光源で照明すると、撮影者の眼に到達
してさらにそこで反射して受光手段に戻ってくる光の量
は少なくなり、良好な眼球像が得られないことから高精
度の視線検出ができないという問題点があった。
However, depending on the posture of the camera, the nose of the photographer or the hand holding the camera interferes and the photographer's eyes move away from the eyepiece of the camera. When illuminated, the amount of light that reaches the photographer's eye, is further reflected there, and returns to the light-receiving means is small, and it is not possible to obtain a good eyeball image. there were.

【0007】(発明の目的)本発明の目的は、該装置を
構える姿勢によって観察者の眼と接眼部との距離が変化
しても、精度の高い視線検出を行うことのできる視線検
出機能付き観察装置を提供することである。
(Object of the Invention) An object of the present invention is to detect the line of sight with high accuracy even if the distance between the observer's eye and the eyepiece changes depending on the posture of the apparatus. It is to provide an attached observation device.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めに、請求項1〜8記載の本発明は、視線検出手段内
に、該装置の姿勢毎に複数の照明形態を有する照明手段
と、該装置の姿勢毎の照明形態を記憶する記憶手段、姿
勢検知手段にて検知される姿勢情報と前記記憶手段に記
憶された情報とに基づいて前記照明手段の照明形態を設
定する照明設定手段とを具備し、該装置を構える姿勢に
対応して記憶された照明形態情報と姿勢検知手段によっ
て検知される現在の姿勢情報とに基づいて、照明手段の
照明形態を設定、つまり例えば、光源の発光量を異なら
せたり、光源の位置及び光量を異ならせたりするように
している。
In order to achieve the above-mentioned object, the present invention according to claims 1 to 8 provides an illuminating means having a plurality of illuminating forms for each posture of the device in the line-of-sight detecting means. A storage means for storing an illumination form for each orientation of the apparatus, and an illumination setting means for setting the illumination form of the illumination means based on the orientation information detected by the orientation detection means and the information stored in the storage means. And setting the illumination form of the illumination means based on the illumination form information stored corresponding to the posture of holding the device and the current posture information detected by the posture detection means, that is, for example, of the light source. The amount of light emission is made different, and the position and the amount of light of the light source are made different.

【0009】[0009]

【実施例】以下、本発明を図示の実施例に基づいて詳細
に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below based on the illustrated embodiments.

【0010】図1は本発明を一眼レフカメラに適用した
ときの一実施例を示す要部概略図であり、図2(A),
(B)は同じくその上面と後面の概略図、図3は図1の
ファインダ視野内の説明図である。
FIG. 1 is a schematic view of an essential part showing an embodiment when the present invention is applied to a single-lens reflex camera.
FIG. 3B is a schematic view of the upper surface and the rear surface of the same, and FIG. 3 is an explanatory view in the viewfinder field of FIG.

【0011】これらの図において、1は撮影レンズで、
便宜上2枚のレンズで示したが、実際はさらに多数のレ
ンズから構成されている。2は主ミラーで、ファインダ
系による被写体像の観察状態と被写体像の撮影状態に応
じて撮影光路へ斜設され、或は、退去される。3はサブ
ミラーで、主ミラー2を透過した光束をカメラボディの
下方の後述する焦点検出装置6へ向けて反射する。
In these figures, 1 is a taking lens,
Although shown as two lenses for convenience, it is actually composed of a larger number of lenses. Reference numeral 2 denotes a main mirror, which is obliquely installed in the photographing optical path or is retreated according to the observation state of the subject image by the finder system and the photographing state of the subject image. Reference numeral 3 denotes a sub-mirror, which reflects the light flux transmitted through the main mirror 2 toward a focus detection device 6 described below below the camera body.

【0012】4はシャッタ、5は感光部材で、銀塩フィ
ルム、或は、CCDやMOS型等の固体撮像素子、或
は、ビディコン等の撮像管である。
Reference numeral 4 is a shutter, 5 is a photosensitive member, and is a silver salt film, a solid-state image pickup device such as CCD or MOS type, or an image pickup tube such as a vidicon.

【0013】6は焦点検出装置であり、結像面近傍に配
置されたフィールドレンズ6a,反射ミラー6b及び6
c,二次結像レンズ6d,絞り6e、複数のCCDから
成るラインセンサ6f等から構成されている。
Reference numeral 6 denotes a focus detection device, which is a field lens 6a and reflection mirrors 6b and 6 arranged near the image plane.
c, a secondary imaging lens 6d, a diaphragm 6e, a line sensor 6f including a plurality of CCDs, and the like.

【0014】本実施例における焦点検出装置6は、周知
の位相差方式にて焦点検出を行うものであり、図3に示
すように、観察画面内(ファインダ視野内)213の複
数の領域(200〜204に示す5箇所)を焦点検出可
能となるように構成されている。
The focus detection device 6 in the present embodiment performs focus detection by a well-known phase difference method, and as shown in FIG. 3, a plurality of regions (200) in an observation screen (in the viewfinder field) 213. It is configured so that focus detection can be performed at five points (denoted by 204).

【0015】7は撮影レンズ1の予定結像面に配置され
たピント板、8はファイダ光路変更用のペンタプリズム
である。9,10は各々観察画面内の被写体輝度を測定
するための結像レンズと測光センサであり、結像レンズ
9はペンタプリズム8内の反射光路を介してピント板7
と測光センサ10を共役に関係付けている。
Reference numeral 7 is a focusing plate disposed on the planned image forming surface of the taking lens 1, and 8 is a pentaprism for changing the optical path of the finder. Reference numerals 9 and 10 respectively denote an imaging lens and a photometric sensor for measuring the brightness of a subject within the observation screen.
And the photometric sensor 10 are associated with each other.

【0016】次に、ペンタプリズム8の射出後方には光
分割器11aを備えた接眼レンズ11が配置され、撮影
者の眼15によるピント板7の観察に使用される。光分
割器11aは、例えば可視光を透過し赤外光を反射する
ダイクロイックミラーより成っている。
Next, an eyepiece lens 11 having a light splitter 11a is arranged behind the exit of the pentaprism 8 and is used for observing the focusing plate 7 by a photographer's eye 15. The light splitter 11a includes, for example, a dichroic mirror that transmits visible light and reflects infrared light.

【0017】12は受光レンズ、14はCCD等の光電
変換素子列を二次元的に配したイメージセンサ(CCD
とも記す)で、受光レンズ12に関して所定の位置にあ
る撮影者の眼球15の瞳孔近傍と共役になるように配置
されている。
Reference numeral 12 is a light receiving lens, and 14 is an image sensor (CCD) in which a photoelectric conversion element array such as CCD is two-dimensionally arranged.
(Also referred to as), the light receiving lens 12 is arranged so as to be conjugate with the vicinity of the pupil of the eyeball 15 of the photographer at a predetermined position.

【0018】13a〜13hは各々撮影者の眼15の照
明光源であるところの赤外発光ダイオード(IREDと
記す)で、図2(B)に示すように接眼レンズ11の回
りに配置されている。
Reference numerals 13a to 13h denote infrared light emitting diodes (referred to as IRED), which are illumination light sources for the photographer's eyes 15, and are arranged around the eyepiece lens 11 as shown in FIG. 2B. .

【0019】ここで、IRED13a,13b,13
e,13fは裸眼の撮影者等の、接眼レンズ11と撮影
者の眼15との距離が近い撮影者に対して設定されるも
ので、各IREDは接眼レンズ11の光軸と一致する該
光学系であるファインダの光軸に近い位置に配置され、
その発光量は比較的小さく設定されている。一方、IR
ED13c,13d,13g,13hは眼鏡を装着して
いる撮影者等の、接眼レンズ11と撮影者の眼15との
距離が遠い撮影者に対して設定されるもので、各IRE
Dは接眼レンズ11の光軸と一致するファインダ光軸に
離れた位置に配置され、その発光量は比較的大きく設定
されている。
Here, the IREDs 13a, 13b, 13
e and 13f are set for a photographer such as a naked-eye photographer whose distance between the eyepiece lens 11 and the photographer's eye 15 is short, and each IRED matches the optical axis of the eyepiece lens 11. It is placed near the optical axis of the viewfinder,
The light emission amount is set to be relatively small. On the other hand, IR
The EDs 13c, 13d, 13g, and 13h are set for a photographer wearing eyeglasses, such as a photographer whose distance between the eyepiece lens 11 and the photographer's eye 15 is long.
D is arranged at a position apart from the finder optical axis that coincides with the optical axis of the eyepiece lens 11, and its light emission amount is set to be relatively large.

【0020】21は明るい被写体の中でも視認できる高
輝度のスーパーインポーズ用LEDで、ここから発光さ
れた光は投光用プリズム22を介し、主ミラー2で反射
されてピント板7の表示部に設けた微小プリズムアレイ
7aで垂直方向に曲げられ、ペンタプリズム8,接眼レ
ンズ11を通って撮影者の眼球15に達する。
Reference numeral 21 is a high-intensity superimposing LED that can be visually recognized even in a bright subject, and the light emitted from this LED is reflected by the main mirror 2 via the projection prism 22 and is displayed on the display portion of the focus plate 7. It is bent in the vertical direction by the provided micro prism array 7a, passes through the penta prism 8 and the eyepiece lens 11 and reaches the eyeball 15 of the photographer.

【0021】そこで、ピント板7の焦点検出領域に対応
する複数の位置にこの微小プリズムアレイ7aを枠状に
形成し、これを各々に対応した5つのスーパーインポー
ズ用LED21(各々をLED−L1,LED−L2,
LED−C,LED−R1,LED−R2とする)によ
って照明する。これによって図3に示したファインダ視
野から判かるように、各々の測距点マーク200,20
1,202,203,204がファインダ視野内で光
り、焦点検出領域(以下、測距点とも記す)を表示させ
ることができるものである(以下、これをスーパーイン
ポーズ表示という)。
Therefore, the micro prism array 7a is formed in a frame shape at a plurality of positions corresponding to the focus detection area of the focusing plate 7, and five superimposing LEDs 21 (each of which is LED-L1) corresponding to the micro prism array 7a are formed. , LED-L2
LED-C, LED-R1, LED-R2). As a result, as can be seen from the viewfinder field shown in FIG.
Numerals 1, 202, 203, and 204 illuminate in the finder field, and a focus detection area (hereinafter, also referred to as a focus detection point) can be displayed (hereinafter, this is referred to as superimpose display).

【0022】23はファインダ視野領域を形成する視野
マスク、24はファインダ視野外に撮影情報を表示する
ためのファインダ内LCDで、照明用LED(F−LE
D)25によって照明される。このファインダ内LCD
24を透過した光は三角プリズム26によってファイン
ダ視野内に導かれ、図3の207で示したようにファイ
ンダ視野外に表示され、撮影者は撮影情報を知ることが
できる。27,28(不図示)はカメラの姿勢を検知す
る水銀スイッチである。
Reference numeral 23 is a field mask for forming a field of view of the finder, and 24 is an LCD in the finder for displaying photographing information outside the field of view of the finder.
D) Illuminated by 25. LCD in this finder
The light transmitted through 24 is guided into the viewfinder field by the triangular prism 26 and displayed outside the viewfinder field as shown by 207 in FIG. 3, so that the photographer can know the shooting information. 27 and 28 (not shown) are mercury switches for detecting the attitude of the camera.

【0023】31は撮影レンズ1内に設けた絞り、32
は後述する絞り駆動回路111を含む絞り駆動装置、3
3はレンズ駆動用モータ、34は駆動ギヤ等から成るレ
ンズ駆動部材である。35はフォトカプラで、前記レン
ズ駆動部材34に連動するパルス板36の回転を検知し
てレンズ焦点調節回路110に伝えている。焦点調節回
路110は、この情報とカメラ側からのレンズ駆動量の
情報に基づいて前記レンズ駆動用モータ33を所定量駆
動させ、撮影レンズ1を合焦位置に移動させるようにな
っている。37は公知のカメラとレンズとのインターフ
ェイスとなるマウント接点である。
Reference numeral 31 denotes an aperture provided in the taking lens 1, 32
Is a diaphragm driving device including a diaphragm driving circuit 111 described later, 3
Reference numeral 3 is a lens driving motor, and 34 is a lens driving member including a driving gear and the like. Reference numeral 35 is a photocoupler, which detects the rotation of the pulse plate 36 interlocked with the lens driving member 34 and transmits it to the lens focus adjustment circuit 110. The focus adjustment circuit 110 drives the lens driving motor 33 by a predetermined amount based on this information and the information on the lens driving amount from the camera side to move the taking lens 1 to the in-focus position. A mount contact 37 serves as an interface between a known camera and lens.

【0024】図2において、41はレリーズ釦、42は
外部モニタ表示装置としてのモニタ用LCDで、予め決
められたパターンを表示する固定セグメント表示部42
aと、可変数値表示用の7セグメント表示部42bとか
ら成っている。44はモードダイヤルで、撮影モード等
の選択を行うためのものである。55は指標である。他
の操作部材については本発明とは直接関係ないので、そ
の説明は省略する。
In FIG. 2, 41 is a release button, 42 is a monitor LCD as an external monitor display device, and a fixed segment display section 42 for displaying a predetermined pattern.
a and a 7-segment display section 42b for displaying variable numerical values. Reference numeral 44 is a mode dial for selecting a shooting mode and the like. 55 is an index. The other operating members are not directly related to the present invention, and therefore their explanations are omitted.

【0025】図4は、上記図2に示したモードダイヤル
44の詳細を示す図であり、該モードダイヤル44はカ
メラ本体に刻印された指標55に表示を合せることによ
って、その表示内容で撮影モードが設定される。
FIG. 4 is a diagram showing the details of the mode dial 44 shown in FIG. 2 described above. The mode dial 44 is adjusted to the index 55 engraved on the camera body so that the display mode allows the photographing mode to be set. Is set.

【0026】図4において、44aはカメラを不作動と
するロックポジション、44bはカメラが予め設定した
撮影プログラムによって制御される自動撮影モードのポ
ジション、44cは撮影者が撮影内容を設定できるマニ
ュアル撮影モードで、プログラムAE,シャッタ優先A
E,絞り優先AE,被写体深度優先AE,マニュアル露
出の各撮影モードをもっている。44dは後述する注視
点のキャリブレーションを行うキャリブレーションモー
ドとなる「CAL」ポジションである。
In FIG. 4, 44a is a lock position for deactivating the camera, 44b is a position in an automatic photographing mode controlled by a photographing program preset by the camera, 44c is a manual photographing mode in which the photographer can set photographing contents. Then, program AE, shutter priority A
It has E, aperture priority AE, subject depth priority AE, and manual exposure shooting modes. 44d is a "CAL" position which is in a calibration mode for performing a calibration of a gazing point described later.

【0027】再び図2に戻って、45は電子ダイヤル
で、回転してクリックパルスを発生させることによって
モードダイヤル44で選択されたモードの中でさらに選
択し得る設定値を設定するためのものであるファインダ
内LCD24及びモニタ用LCD42には、現在設定さ
れているシャッタスピードが表示される。撮影者が電子
ダイヤル45を回転させるとその回転方向に従って現在
設定されているシャッタスピードから順次シャッタスピ
ードが変化していくように構成されている。
Returning to FIG. 2 again, numeral 45 is an electronic dial for rotating and generating a click pulse to set a set value which can be further selected in the mode selected by the mode dial 44. On a certain finder LCD 24 and monitor LCD 42, the currently set shutter speed is displayed. When the photographer rotates the electronic dial 45, the shutter speed is sequentially changed from the currently set shutter speed according to the rotation direction.

【0028】図5は上記構成の一眼レフカメラに内蔵さ
れた電気的構成を示すブロック図であり、図1と同じ部
分は同一符号を付してある。
FIG. 5 is a block diagram showing an electrical structure incorporated in the single-lens reflex camera having the above-mentioned structure. The same parts as those in FIG. 1 are designated by the same reference numerals.

【0029】カメラ本体に内蔵されたマイクロコンピュ
ータの中央処理装置(以下、CPUと記す)100に
は、視線検出回路101,測光回路102,自動焦点検
出回路103,信号入力回路104,LCD駆動回路1
05,LED駆動回路106,IRED駆動回路10
7,シャッタ制御回路108,モータ制御回路109が
接続されている。また、撮影レンズ1内に配置された焦
点調節回路110,絞り駆動回路111とは、図1で示
したマウント接点37を介して信号の伝達がなされる。
A central processing unit (hereinafter referred to as CPU) 100 of a microcomputer incorporated in the camera body includes a visual axis detection circuit 101, a photometric circuit 102, an automatic focus detection circuit 103, a signal input circuit 104, and an LCD drive circuit 1.
05, LED drive circuit 106, IRED drive circuit 10
7, a shutter control circuit 108, and a motor control circuit 109 are connected. Further, signals are transmitted to the focus adjustment circuit 110 and the diaphragm drive circuit 111 arranged in the photographing lens 1 through the mount contact 37 shown in FIG.

【0030】CPU100に付随したEEPROM10
0aは記憶手段としての視線の個人差を補正する視線補
正データの記憶機能を有している。記憶されたキャリブ
レーションデータの詳細については後述する。モードダ
イヤル44の「CAL」ポジションを指標55に合わせ
ると、視線の個人差の補正を行う為の視線補正データを
採取するキャリブレーションモードが選択可能であり、
各キャリブレーションデータに対応したキャリブレーシ
ョンナンバーの選択及びキャリブレーション動作のOF
Fと視線検出の禁止モードの設定が電子ダイヤル45に
て可能になっている。キャリブレーションデータは複数
設定可能で、カメラを使用する人物で区別したり、同一
の使用者であっても観察の状態が異なる場合、例えば眼
鏡を使用する場合とそうでない場合、あるいは視度補正
レンズを使用する場合とそうでない場合とで区別して設
定するのに有効である。また、この時選択されたキャリ
ブレーションナンバー(1,2,3……)、あるいは設
定された視線禁止モードの状態もEEPROM100a
に記憶される。
EEPROM 10 associated with CPU 100
Reference numeral 0a has a function of storing the line-of-sight correction data as a storage unit for correcting individual differences in line-of-sight. Details of the stored calibration data will be described later. When the "CAL" position of the mode dial 44 is adjusted to the index 55, a calibration mode for collecting the line-of-sight correction data for correcting individual differences in the line of sight can be selected.
Selection of calibration number corresponding to each calibration data and OF of calibration operation
The electronic dial 45 can be used to set the F and line-of-sight detection prohibition modes. Multiple sets of calibration data can be set and can be distinguished by the person who uses the camera, or even when the same user has different observation states, for example, when eyeglasses are used and when they are not, or when a diopter correction lens is used. It is effective to distinguish between when using and when not using. Further, the calibration number (1, 2, 3 ...) Selected at this time or the state of the set line-of-sight prohibition mode is also set in the EEPROM 100a.
Is stored.

【0031】視線検出回路101は、イメージセンサ1
4(CCD−EYE)からの眼球像の出力をA/D変換
し、この像情報をCPU100に送信する。視線検出回
路101とイメージセンサ14は受光レンズ12等の光
学部材と併せて受光手段を構成している。CPU100
は視線検出に必要な眼球像の各特徴点を所定のアルゴリ
ズムに従って抽出し、さらに各特徴点の位置から撮影者
の眼球の回転角を算出する。
The line-of-sight detection circuit 101 is the image sensor 1
4 (CCD-EYE) output of the eyeball image is A / D converted, and this image information is transmitted to the CPU 100. The line-of-sight detection circuit 101 and the image sensor 14 together with an optical member such as the light-receiving lens 12 form a light-receiving unit. CPU100
Extracts each feature point of the eyeball image required for the sight line detection according to a predetermined algorithm, and further calculates the rotation angle of the eyeball of the photographer from the position of each feature point.

【0032】測光回路102は、測光センサ10からの
出力を増幅後、対数圧縮,A/D変換し、各センサの輝
度情報としてCPU100に送られる。測光センサ10
は図3に示したファインダ画面内の左側測距点200,
201を含む左領域210を測光するSPC−Lと、中
央の測距点202を含む中央領域211を測光するSP
C−Cと、右側の測距点203,204を含む右側領域
212を測光するSPC−Rと、これらの周辺領域21
3を測光するSPC−Aとの4つのフォトダイオードか
ら構成されている。
The photometric circuit 102, after amplifying the output from the photometric sensor 10, performs logarithmic compression and A / D conversion, and sends it to the CPU 100 as luminance information of each sensor. Photometric sensor 10
Is the left focus point 200 in the viewfinder screen shown in FIG.
SPC-L for photometry of the left area 210 including 201, and SP for photometry of the central area 211 including the central distance measuring point 202
C-C, an SPC-R that measures the right area 212 including the right distance measuring points 203 and 204, and a peripheral area 21 of these.
It is composed of four photodiodes with SPC-A for photometry of light.

【0033】ラインセンサ6fは、前述のように画面内
の5つの測距点200〜204に対応した5組のライン
センサCCD−L2,CCD−L1,CCD−C,CC
D−R1,CCD−R2から構成される公知のCCDラ
インセンサである。自動焦点検出回路103は、これら
ラインセンサ6fから得た電圧をA/D変換し、CPU
100に送る。
The line sensor 6f includes five sets of line sensors CCD-L2, CCD-L1, CCD-C and CC corresponding to the five distance measuring points 200 to 204 on the screen as described above.
This is a known CCD line sensor composed of D-R1 and CCD-R2. The automatic focus detection circuit 103 A / D-converts the voltage obtained from these line sensors 6f, and the CPU
Send to 100.

【0034】SW1はレリーズ釦41の第1ストローク
でONし、測光,AF,視線検出動作を開始するスイッ
チ、SW2はレリーズ釦の第2ストロークでONするレ
リーズスイッチ、SW−ANG1,SW−ANG2は水
銀スイッチ27及び不図示の水銀スイッチ28によって
検知されるところの姿勢検知スイッチ、SW−DIAL
1とSW−DIAL2は電子ダイヤル45内に設けたダ
イヤルスイッチで、信号入力回路104のアップダウン
カウンタに入力され、電子ダイヤル45の回転クリック
量をカウントする。SW−M1〜M4はモードダイヤル
内に設けたダイヤルスイッチである。
SW1 is a switch which is turned on by the first stroke of the release button 41 to start photometry, AF and line-of-sight detection operation, SW2 is a release switch which is turned on by the second stroke of the release button, and SW-ANG1 and SW-ANG2 are SW-DIAL, a posture detection switch that is detected by the mercury switch 27 and a mercury switch 28 (not shown).
1 and SW-DIAL2 are dial switches provided in the electronic dial 45, and are input to the up / down counter of the signal input circuit 104 to count the rotation click amount of the electronic dial 45. SW-M1 to M4 are dial switches provided in the mode dial.

【0035】これらのスイッチの信号が信号入力回路1
04に入力され、データバスによってCPU100に送
信される。
The signals of these switches are the signal input circuit 1
04, and is transmitted to the CPU 100 via the data bus.

【0036】液晶表示素子LCDを表示駆動させるため
の公知のLCD駆動回路105は、CPU100からの
信号に従って絞り値,シャッタ秒時,設定した撮影モー
ド等の表示をモニタ用LCD42とファインダ内LCD
24の両方に同時に表示させている。
A known LCD drive circuit 105 for driving the liquid crystal display device LCD to display an aperture value, a shutter speed, a set photographing mode and the like according to a signal from the CPU 100 is displayed on the monitor LCD 42 and the in-viewfinder LCD.
It is displayed on both 24 at the same time.

【0037】LED駆動回路106は、照明用LED
(F−LED)22とスーパーインポーズ用LED21
を点灯・点滅制御する。IRED駆動回路107は、赤
外発光ダイオード(IRED1〜8)13a〜13hを
状況に応じて選択的に点灯させる。シャッタ制御回路1
08は、通電する先幕を走行させるマグネットMG−1
と後幕を走行させるマグネットMG−2を制御し、感光
部材に所定光量を露光させる。
The LED drive circuit 106 is an LED for illumination.
(F-LED) 22 and LED 21 for superimposing
Control lighting and blinking. The IRED drive circuit 107 selectively lights the infrared light emitting diodes (IRED1 to 8) 13a to 13h according to the situation. Shutter control circuit 1
Reference numeral 08 is a magnet MG-1 for running the energized front curtain.
Then, the magnet MG-2 for moving the rear curtain is controlled to expose the photosensitive member with a predetermined amount of light.

【0038】モータ制御回路109は、フィルムの巻上
げ,巻戻しを行うモータM1と主ミラ及びシャッタ4の
チャージを行うモータM2を制御している。
The motor control circuit 109 controls the motor M1 for winding and rewinding the film and the motor M2 for charging the main mirror and the shutter 4.

【0039】上記のシャッタ制御回路108,モータ制
御回路109によって一連のカメラのレリーズシーケン
スが進行する。
The above shutter control circuit 108 and motor control circuit 109 advance a series of camera release sequences.

【0040】本発明の視線検出手段は、この第1の実施
例においては、照明手段を構成するIRED13a〜1
3h,各IREDを駆動するIRED駆動回路107
と、前記IRED駆動回路107を制御するCPU10
0,受光手段を構成する接眼レンズ11,受光レンズ1
2,イメージセンサ14,該イメージセンサ14を制御
する視線検出回路101と、前記視線検出回路101を
制御するCPU100,演算処理手段を構成する視線検
出回路101及びCPU100と、記憶手段を構成する
EEPROM100aと、照明設定手段を構成するCP
U100とから構成されている。
In the first embodiment, the line-of-sight detecting means of the present invention is the IREDs 13a to 1 which constitute the illuminating means.
3h, IRED drive circuit 107 for driving each IRED
And a CPU 10 for controlling the IRED drive circuit 107
0, eyepiece lens 11 constituting the light receiving means, light receiving lens 1
2, an image sensor 14, a line-of-sight detection circuit 101 for controlling the image sensor 14, a CPU 100 for controlling the line-of-sight detection circuit 101, a line-of-sight detection circuit 101 and CPU 100 for forming an arithmetic processing unit, and an EEPROM 100a for forming a storage unit. , CP that constitutes lighting setting means
It is composed of U100.

【0041】また、姿勢検知手段は、水銀スイッチ2
7,28、信号入力回路104、及び、CPU100か
ら構成されている。
The attitude detecting means is the mercury switch 2
7, 28, the signal input circuit 104, and the CPU 100.

【0042】次に、上記の構成より成る視線検出手段を
有したカメラの動作について、カメラの各姿勢における
照明手段の照明形態の設定状態とファインダ視野内の状
態を示した図7を参照しながら、図6のフローチャート
により説明する。
Next, regarding the operation of the camera having the line-of-sight detecting means having the above-mentioned configuration, referring to FIG. 7, which shows the setting state of the illumination form of the illuminating means in each posture of the camera and the state within the viewfinder field. 6 will be described with reference to the flowchart of FIG.

【0043】モードダイヤル44を回転させてカメラを
不作動状態(ロック状態)から所定の撮影モードに設定
すると、カメラの電源がONされる(#200)。
When the mode dial 44 is rotated to set the camera from the inoperative state (locked state) to the predetermined photographing mode, the power of the camera is turned on (# 200).

【0044】すると、CPU100は信号入力回路10
4を介してモードダイヤル44がどのモードに設定され
ているか確認する(#201)。モードダイヤル44が
注視点のキャリブレーションモードに設定されていれば
(#202)、撮影者の視線に関するの個人情報を取得
するために注視点のキャリブレーションを実行する(#
225)。
Then, the CPU 100 makes the signal input circuit 10
Check which mode the mode dial 44 is set to via # 4 (# 201). If the mode dial 44 is set to the calibration mode of the gazing point (# 202), the gazing point is calibrated in order to acquire the personal information regarding the line of sight of the photographer (# 202).
225).

【0045】注視点のキャリブレーションのフローチャ
ートを図8に示す。以下、同図を用いて撮影者の視線に
関する個人情報の取得方法を説明する。
FIG. 8 shows a flowchart of calibration of the gazing point. Hereinafter, a method of acquiring personal information regarding the line of sight of the photographer will be described with reference to FIG.

【0046】撮影者がモードダイヤル44を回転させ、
CALポジション44dに指標55を合せると、注視点
のキャリブレーションモードに設定される(#22
5)。
The photographer rotates the mode dial 44,
When the index 55 is aligned with the CAL position 44d, the gazing point calibration mode is set (# 22).
5).

【0047】注視点のキャリブレーションモードはキャ
リブレーション動作を行う「ON」モードとキャリブレ
ーション動作を行わない「OFF」モードとがある。各
モードは電子ダイヤル45を回転させることによって選
択できる。「ON」モードにおいては、例えば5つのキ
ャリブレーションナンバー(CAL1〜CAL5)が選
択可能で、EEPROM100aには、選択されたキャ
リブレーションナンバーに対応したアドレス上に、図1
0(A)に示したキャリブレーションデータが5組記憶
可能となっている。また、この時選択されたキャリブレ
ーションナンバーはキャリブレーションデータナンバー
(CAL1〜CAL5)としてEEPROM100aに
記憶される。
The gazing point calibration mode includes an “ON” mode in which the calibration operation is performed and an “OFF” mode in which the calibration operation is not performed. Each mode can be selected by rotating the electronic dial 45. In the "ON" mode, for example, five calibration numbers (CAL1 to CAL5) can be selected. In the EEPROM 100a, an address corresponding to the selected calibration number is displayed in FIG.
Five sets of calibration data shown in 0 (A) can be stored. The calibration number selected at this time is stored in the EEPROM 100a as the calibration data number (CAL1 to CAL5).

【0048】また、電子ダイヤル45によって「OF
F」モードを選択すると、EEPROM100aに記憶
されるキャリブレーションデータナンバーが例えば
「0」に設定され、視線禁止モードに設定される。
The electronic dial 45 is used to display "OF
When the "F" mode is selected, the calibration data number stored in the EEPROM 100a is set to "0", for example, and the line-of-sight prohibition mode is set.

【0049】信号入力回路104はCPU100を介し
てLCD駆動回路105に信号を送信し、ファインダ内
LCD24及びモニタ用LCD42にキャリブレーショ
ンモードのいずれに入ったかを示す表示を行う。
The signal input circuit 104 transmits a signal to the LCD drive circuit 105 via the CPU 100 to display on the in-finder LCD 24 and the monitor LCD 42 which one of the calibration modes has been entered.

【0050】ファインダ内LCD24及びモニタ用LC
D42には、前記キャリブレーションデータナンバーに
したがった表示が行われる。キャリブレーション「O
N」モードにおいて、設定されたキャリブレーションナ
ンバーのキャリブレーションデータが初期値の場合は、
ファインダ内LCD24及びモニタ用LCD42に示さ
れたキャリブレーションナンバーが点滅する。一方、設
定されたキャリブレーションナンバーにおいて既にキャ
リブレーションが行われ、キャリブレーションナンバー
に対応したEEPROM100aのアドレス上に初期値
と異なるキャリブレーションデータが入っていれば、フ
ァインダ内LCD24及びモニタ用LCD42に表示さ
れたキャリブレーションナンバーがフル点灯するように
なっている。
LCD 24 in viewfinder and LC for monitor
The display according to the calibration data number is displayed on D42. Calibration "O
In the “N” mode, if the calibration data of the set calibration number is the initial value,
The calibration numbers shown on the LCD 24 in the finder and the LCD 42 for monitor blink. On the other hand, if calibration has already been performed with the set calibration number and calibration data different from the initial value is contained in the address of the EEPROM 100a corresponding to the calibration number, it is displayed on the in-finder LCD 24 and the monitor LCD 42. The calibration number is fully lit.

【0051】従って、撮影者は現在設定されているキャ
リブレーションナンバーに既にキャリブレーションデー
タが入っているかどうかを認識できるようになってい
る。
Therefore, the photographer can recognize whether or not the currently set calibration number already contains calibration data.

【0052】また、「OFF」モードにおいては、ファ
インダ内LCD24及びモニタ用LCD42に7セグメ
ントを用いて「OFF」と表示されるようになっている
(#226)。
Further, in the "OFF" mode, "OFF" is displayed on the LCD 24 in the finder and the LCD 42 for monitor by using 7 segments (# 226).

【0053】撮影者が電子ダイヤル45を回転させる
と、その回転を検知した信号入力回路104はCPU1
00を介してLCD駆動回路105に信号を送信する。
その結果、電子ダイヤル45の回転に同期してファイン
ダ内LCD24及びモニタ用LCD42に表示されたキ
ャリブレーションナンバーが変化する。撮影者がファイ
ンダ内LCD24あるいはモニタ用LCD42に表示さ
れたキャリブレーションナンバーを見ながら所望のキャ
リブレーションナンバーを選択したら、CPU100は
選択されたキャリブレーションナンバーを選択する(#
227)。確認されたキャリブレーションナンバーはキ
ャリブレーションデータナンバーとしてEEPROM1
00aの所定のアドレス上に記憶される。
When the photographer rotates the electronic dial 45, the signal input circuit 104, which detects the rotation, causes the CPU 1
A signal is transmitted to the LCD drive circuit 105 via 00.
As a result, the calibration numbers displayed on the in-finder LCD 24 and the monitor LCD 42 change in synchronization with the rotation of the electronic dial 45. When the photographer selects a desired calibration number while looking at the calibration number displayed on the in-viewfinder LCD 24 or the monitor LCD 42, the CPU 100 selects the selected calibration number (#
227). The confirmed calibration number is the EEPROM 1 as the calibration data number.
It is stored on a predetermined address of 00a.

【0054】続いてCPU100は信号入力回路104
を介して撮影モードの確認を行う。撮影者がモードダイ
ヤル44を回転させて注視点のキャリブレーションモー
ド以外の撮影モードに切り換えていることを確認したら
(#228)、ファインダ内外のキャリブレーション用
表示を消灯させて(#230)、メインのルーチンであ
るカメラの撮影動作に復帰する(#262)。そして、
キャリブレーションナンバー「CAL1〜CAL5」が
表示されている状態でモードダイヤル44を他の撮影モ
ードに切り換えれば、そのキャリブレーションナンバー
のキャリブレーションデータを用いて視線検出を行いそ
の視線情報を用いた撮影動作が行えるようになってい
る。
Subsequently, the CPU 100 operates the signal input circuit 104.
Confirm the shooting mode via. After confirming that the photographer has rotated the mode dial 44 to switch to a shooting mode other than the gazing point calibration mode (# 228), the calibration display inside and outside the viewfinder is turned off (# 230), Then, the operation returns to the shooting operation of the camera, which is the routine of (# 262). And
If the mode dial 44 is switched to another shooting mode while the calibration numbers "CAL1 to CAL5" are displayed, the line-of-sight detection is performed using the calibration data of the calibration number, and the shooting is performed using the line-of-sight information. It can be operated.

【0055】一方、CPU100が注視点のキャリブレ
ーションモードに設定されたままであることを確認する
と(#228)、電子ダイヤル45にて設定されたキャ
リブレーションデータナンバーの確認を再度行う(#2
29)。このとき、EEPROM100aに記憶された
キャリブレーションデータナンバーが「0」に設定さ
れ、視線禁止モードが選択されていれば(#229)、
再度キャリブレーションナンバーの確認を行い(#22
7)、撮影モードが変更されるまで待機する。即ち、フ
ァインダ内LCD24及びモニタ用LCD42に「OF
F」が表示されている状態でモードダイヤル44を切り
換えれば、視線検出を行わないで撮影動作を行うように
なっている。
On the other hand, when the CPU 100 confirms that the calibration mode of the gazing point is still set (# 228), the calibration data number set by the electronic dial 45 is confirmed again (# 2).
29). At this time, if the calibration data number stored in the EEPROM 100a is set to "0" and the line-of-sight prohibition mode is selected (# 229),
Check the calibration number again (# 22
7) Wait until the shooting mode is changed. That is, "OF" is displayed on the LCD 24 in the viewfinder and the monitor LCD 42.
If the mode dial 44 is switched while "F" is displayed, the photographing operation is performed without detecting the line of sight.

【0056】キャリブレーションデータナンバーが
「0」以外の値に設定されていれば(#229)、引続
きCPU100及び信号入力104より構成された姿勢
検知手段によってカメラの姿勢の検知を行う(#23
1)。
If the calibration data number is set to a value other than "0"(# 229), the attitude of the camera is continuously detected by the attitude detecting means composed of the CPU 100 and the signal input 104 (# 23).
1).

【0057】姿勢検知手段は信号入力回路104を介し
て姿勢検知スイッチSW−ANG1、SW−ANG2で
あるところの水銀スイッチ27,28の出力信号を処理
して、カメラが横位置であるか縦位置であるか、また縦
位置である場合はレリーズ釦41が天方向にあるか地方
向にあるかを判断する。
The attitude detecting means processes the output signals of the mercury switches 27 and 28, which are the attitude detecting switches SW-ANG1 and SW-ANG2, via the signal input circuit 104, and the camera is in the horizontal position or the vertical position. If the release button 41 is in the vertical position, it is determined whether the release button 41 is in the top direction or the ground direction.

【0058】図7(A−1),(A−2)(以下、単に
図7(A)と記す)は、カメラが横位置の状態を示した
もので、この時姿勢検知スイッチSW−ANG1及びS
W−ANG2は両方ともON状態になるように設定され
ている。また、図7(B−1),(B−2)(以下、単
に図7(B)と記す)は、カメラが第1の縦位置の状態
(レリーズ釦41が天方向にある状態)を示したもの
で、この時姿勢検知スイッチSW−ANG1はON,S
W−ANG2はOFF状態になるように設定されてい
る。更に図7(C−1),(C−2)(以下、単に図7
(C)と記す)は、カメラが第2の縦位置の状態(レリ
ーズ釦41が地方向にある状態)を示したもので、この
時姿勢検知スイッチSW−ANG1はOFF,SW−A
NG2はON状態になるように設定されている。
FIGS. 7A-1 and 7A-2 (hereinafter simply referred to as FIG. 7A) show a state in which the camera is in the horizontal position. At this time, the attitude detection switch SW-ANG1 is shown. And S
Both W-ANG2 are set to be in the ON state. 7 (B-1) and 7 (B-2) (hereinafter, simply referred to as FIG. 7B) shows the state where the camera is in the first vertical position (the state where the release button 41 is in the top direction). At this time, the posture detection switch SW-ANG1 is ON, S
W-ANG2 is set to be in the OFF state. 7 (C-1) and (C-2) (hereinafter, simply referred to as FIG.
(C) is a state in which the camera is in the second vertical position (state in which the release button 41 is in the ground direction). At this time, the posture detection switch SW-ANG1 is OFF, SW-A.
NG2 is set to be in the ON state.

【0059】カメラの姿勢を検知すると(#231)、
カメラの姿勢に応じて撮影者の眼15を照明する為のI
REDを設定する(#232)。この時照明用IRED
は撮影者の眼球を下方から照明できる位置にあるものが
選択されるが、撮影者が裸眼であるか眼鏡装着者である
かわからないため、最初は裸眼撮影者用のIREDが設
定される。
When the posture of the camera is detected (# 231),
I for illuminating the eye 15 of the photographer according to the posture of the camera
The RED is set (# 232). IRED for lighting at this time
Is selected such that the photographer's eyeballs can be illuminated from below, but since it is not known whether the photographer is the naked eye or a spectacle wearer, an IRED for the naked eye photographer is initially set.

【0060】従って、視線検知手段によって検知された
カメラの姿勢が横位置(図7(A)参照)の状態であれ
ば、IRED13a,13bが選択される。一方、カメ
ラの姿勢がレリーズ釦41が天方向にある第1の縦位置
(図7(B)参照)の状態であれば、IRED13a,
13eが選択される。また、カメラの姿勢がレリーズ釦
41が地方向にある第2の縦位置(図7(C)参照)の
状態であれば、IRED13b,13fが選択される。
Therefore, if the posture of the camera detected by the line-of-sight detecting means is in the lateral position (see FIG. 7A), the IREDs 13a and 13b are selected. On the other hand, if the camera is in the first vertical position (see FIG. 7B) with the release button 41 facing up, the IRED 13a,
13e is selected. If the camera is in the second vertical position in which the release button 41 is in the ground direction (see FIG. 7C), the IREDs 13b and 13f are selected.

【0061】注視点のキャリブレーションは、スイッチ
SW1をONする事により開始されるように設定されて
いる。撮影者が、注視点のキャリブレーションを行う準
備が整う以前にカメラ側がキャリブレーションを開始す
るのを防ぐために、CPU100はスイッチSW1の状
態の確認を行い、スイッチSW1がレリーズ釦41によ
って押されていてON状態であれば、スイッチがOFF
状態になるまで待機する(#233)。
The calibration of the gazing point is set to be started by turning on the switch SW1. In order to prevent the camera from starting the calibration before the photographer is ready to calibrate the gazing point, the CPU 100 confirms the state of the switch SW1, and the switch SW1 is pressed by the release button 41. If it is ON, the switch is OFF
Wait until the state is reached (# 233).

【0062】CPU100は信号入力回路104を介し
てスイッチSW1がOFF状態であることを確認すると
(#233)、視線検出回数nを「0」に設定するとと
もに注視点算出に用いる変数をリセットする。
When the CPU 100 confirms that the switch SW1 is in the OFF state via the signal input circuit 104 (# 233), it sets the line-of-sight detection number n to "0" and resets the variable used for gazing point calculation.

【0063】さらに、CPU100はLED駆動回路1
06に信号を送信して注視点のキャリブレーション用視
標1を点滅させる(#234)。注視点のキャリブレー
ション用視標は測距点(測距点マークとも記す)20
0,204を兼用しており、ファインダ内にスーパーイ
ンポーズ表示される。また、キャリブレーションを実行
する際に最初に提示される第1の視標は、カメラの姿勢
によって選択される。
Further, the CPU 100 is the LED drive circuit 1
A signal is transmitted to 06 to blink the calibration target 1 of the gazing point (# 234). The target for calibration of the gazing point is a distance measuring point (also referred to as a distance measuring point mark) 20.
It also serves as 0 and 204, and is displayed superimposed in the finder. Further, the first visual target presented first when performing the calibration is selected according to the posture of the camera.

【0064】カメラの姿勢が横位置(図7(A)参照)
の状態では、キャリブレーション用視標は右端の測距点
マーク204から点滅を開始する。また、カメラの姿勢
がレリーズ釦41が天方向にある第1の縦位置(図7
(B)参照)の状態であれば、キャリブレーション用視
標は撮影者に対して上端の測距点マーク204から点滅
を開始する。同様に、カメラの姿勢がレリーズ釦41が
地方向にある第2の縦位置(図7(C)参照)の状態で
あれば、キャリブレーション用視標は撮影者に対して上
端に測距点マーク200から点滅を開始する。
The posture of the camera is in the lateral position (see FIG. 7A).
In this state, the calibration target starts blinking from the distance measuring point mark 204 at the right end. In addition, as for the attitude of the camera, the first vertical position in which the release button 41 is in the upward direction (see FIG.
In the state of (B)), the calibration target starts blinking to the photographer from the distance measuring point mark 204 at the upper end. Similarly, when the camera is in the second vertical position (see FIG. 7C) in which the release button 41 is in the ground direction, the calibration target is the distance measuring point at the upper end with respect to the photographer. Blinking starts from the mark 200.

【0065】注視点のキャリブレーションの開始のトリ
ガ信号であるスイッチSW1のON信号が入ってなけれ
ば、カメラは待機する(#235)。点滅を開始した視
標を撮影者が注視しスイッチSW1がONされたら(#
235)、CPU100はLED駆動回路106に信号
を送信してキャリブレーション用視標1を点灯させる
(#236)。
If the ON signal of the switch SW1 which is the trigger signal for starting the calibration of the gazing point is not inputted, the camera stands by (# 235). When the photographer gazes at the target that has started blinking and the switch SW1 is turned on (#
235), the CPU 100 sends a signal to the LED drive circuit 106 to turn on the calibration target 1 (# 236).

【0066】まず視線検出手段は、撮影者の視線を検出
する際の個人差情報である照明手段の照明形態の判断を
行う(#237)。照明手段の照明形態によって設定さ
れるIREDと記憶手段であるEEPROM100aに
記憶される照明形態のフラグ(IREDh,IREDv
1,IREDv2)設定値を示したものが図10(B)
である。
First, the line-of-sight detecting means determines the illumination form of the illuminating means which is the individual difference information when detecting the line of sight of the photographer (# 237). The IRED set by the illumination mode of the illumination means and the illumination mode flags (IREDh, IREDv) stored in the EEPROM 100a which is the storage means.
1, IREDv2) The set values are shown in FIG. 10 (B).
Is.

【0067】図10(B)に示すように、カメラの各姿
勢毎に裸眼用IREDと眼鏡用IREDのどちらかの照
明形態を設定可能になっているため、例えば、カメラの
姿勢が横位置で裸眼用の照明形態が設定されても、第1
の横位置で撮影者の眼15がカメラから離れた状態であ
ればIREDの発光量の大きい眼鏡用の照明形態が設定
される。
As shown in FIG. 10B, it is possible to set either the naked eye IRED or the glasses IRED illumination mode for each posture of the camera. Even if the lighting form for the naked eye is set,
If the photographer's eyes 15 are away from the camera at the horizontal position of, the illumination mode for glasses with large light emission amount of IRED is set.

【0068】その結果、撮影者の眼15とカメラの距離
が近い場合においても、逆に撮影者の眼15とカメラの
距離が遠い場合においても、受光手段で得られる眼球像
強度はほぼ一定となり、カメラの姿勢に依らない安定し
た画像情報により精度の高い視線検出が可能となる。
As a result, even when the distance between the camera 15 and the eye 15 of the photographer is short, and conversely, when the distance between the camera 15 and the eye 15 of the photographer is long, the eyeball image intensity obtained by the light receiving means is substantially constant. With the stable image information that does not depend on the posture of the camera, it is possible to detect the line of sight with high accuracy.

【0069】照明手段の照明形態の判定方法は、以下の
通りである。
The method of determining the illumination form of the illumination means is as follows.

【0070】照明手段においては、前述のように姿勢検
知手段によって検知されたカメラの姿勢に対応した裸眼
撮影者用のIREDが点灯して撮影者の眼球を照明す
る。撮影者の眼15で反射した赤外光は受光手段である
ところの接眼レンズ11の光分割器11a,受光レンズ
12を介してイメージセンサセンサ14に導かれる。演
算処理手段において、視線検出回路101はイメージセ
ンサ14からの眼球像の出力をA/D変換し、この像情
報をCPU100に送信する。CPU100は得られた
眼球像情報から、撮影者の眼15の接眼レンズ11から
の距離と眼鏡によるゴーストが発生しているかどうかを
解析する。
In the illumination means, the naked eye photographer's IRED corresponding to the posture of the camera detected by the posture detecting means is turned on to illuminate the photographer's eyeball. The infrared light reflected by the eye 15 of the photographer is guided to the image sensor 14 via the light splitter 11a of the eyepiece lens 11 which is a light receiving means and the light receiving lens 12. In the arithmetic processing means, the line-of-sight detection circuit 101 A / D-converts the output of the eyeball image from the image sensor 14 and sends this image information to the CPU 100. From the obtained eyeball image information, the CPU 100 analyzes the distance of the photographer's eye 15 from the eyepiece lens 11 and whether or not a ghost due to glasses has occurred.

【0071】ここで、撮影者の眼15と接眼レンズ11
との距離が近くて眼鏡によるゴーストも検出されなけれ
ば、CPU100は撮影者は裸眼であると判定する。そ
して、このときのカメラの姿勢が横位置であれば、照明
形態のフラグIREDhを“0”に設定し、カメラの姿
勢が第1の縦位置であれば、照明形態のフラグIRED
v1を“0”に設定し、カメラの姿勢が第2の縦位置で
あれば、照明形態のフラグIREDv2を“0”に設定
する。
Here, the eye 15 and the eyepiece 11 of the photographer
If the ghost due to the eyeglasses is not detected due to the close distance to the CPU, the CPU 100 determines that the photographer has the naked eye. If the camera posture at this time is the horizontal position, the illumination form flag IREDh is set to "0", and if the camera posture is the first vertical position, the illumination form flag IRED is set.
If v1 is set to "0" and the attitude of the camera is the second vertical position, the illumination mode flag IREDv2 is set to "0".

【0072】一方、撮影者の眼15と接眼レンズ11と
の距離が遠いかあるいは眼鏡によるゴーストが検出され
れば、CPU100は撮影者は眼鏡装着者かあるいは裸
眼の撮影者でもアイポイントが遠い撮影者であると判定
する。そして、このときのカメラの姿勢が横位置であれ
ば、照明形態のフラグIREDhを“1”に設定し、カ
メラに姿勢が第1の縦位置であれば、照明形態のフラグ
IREDv1を“1”に設定し、カメラの姿勢が第2の
縦位置であれば、照明形態のフラグIREDv2を
“1”に設定する。
On the other hand, if the distance between the eye 15 of the photographer and the eyepiece lens 11 is long, or if a ghost due to the eyeglasses is detected, the CPU 100 takes an image with a long eye point even if the photographer is a person wearing eyeglasses or a naked eye photographer. Determined to be a person. Then, if the orientation of the camera at this time is the horizontal position, the illumination form flag IREDh is set to "1", and if the orientation of the camera is the first vertical position, the illumination form flag IREDv1 is set to "1". When the camera posture is the second vertical position, the illumination mode flag IREDv2 is set to "1".

【0073】照明形態を判定すると(#237)、その
判定結果に基づいて視線検出を行うための照明用IRE
Dを再設定する(#238)。
When the illumination form is determined (# 237), the illumination IRE for detecting the line of sight based on the determination result.
D is reset (# 238).

【0074】引続き視線検出手段によって撮影者の眼1
5の視線(眼球の回転角)の検出を行う(#239)。
このとき検出されるのは眼球の回転角(θx,θy)及
び瞳孔径Rpである。
Subsequently, the eye 1 of the photographer is detected by the visual axis detecting means.
The line of sight of 5 (the rotation angle of the eyeball) is detected (# 239).
At this time, the rotation angles (θx, θy) of the eyeball and the pupil diameter Rp are detected.

【0075】視標1を撮影者が注視しているとき眼球の
回転角を検出すると、視線検出回数nに「1」を加算す
る(#240)。本実施例において、1つの視標に対す
る視線検出回数は10回に設定されているため、視線検
出回数nが「10」より小さいならば(#241)、視
標1に対する視標検出を続行する(#239)。また、
視線検出回数nが「10」に達すると(#241)、視
標1に対する視線検出を終了する。CPU100は、視
標1に対する視標検出が終了したことを撮影者に認識さ
せるために、図示されていない発音体を用いて電子音を
数回鳴らす。同時にCPU100は、LED駆動回路1
06を介して視標1を消灯させる(#242)。
If the rotation angle of the eyeball is detected while the photographer is gazing at the visual target 1, "1" is added to the number of times of gaze detection n (# 240). In the present embodiment, the number of visual axis detections for one visual target is set to 10. Therefore, if the visual line detection number n is smaller than "10"(# 241), the visual target detection for the visual target 1 is continued. (# 239). Also,
When the line-of-sight detection number n reaches “10” (# 241), the line-of-sight detection for the visual target 1 is terminated. The CPU 100 emits an electronic sound several times using a sounding body (not shown) in order to let the photographer recognize that the target detection for the target 1 has been completed. At the same time, the CPU 100 controls the LED drive circuit 1
The visual target 1 is turned off via 06 (# 242).

【0076】さらにCPU100は、検出された10組
の眼球回転角(θx,θy)、瞳孔径Rpのデータ処理
を行う(#243)。これは撮影者が視標を注視してい
るとき、本人の意志に反して視線が動いたときに検出し
たデータを除外する為の処理である。CPU100は検
出データの平均値に対して偏差の大きいデータを除外し
て、残ったデータの平均値を算出する。
Further, the CPU 100 carries out data processing of the detected 10 sets of eyeball rotation angles (θx, θy) and pupil diameter Rp (# 243). This is a process for excluding data detected when the photographer is gazing at the target and the line of sight moves against the will of the person. The CPU 100 excludes data having a large deviation from the average value of the detected data and calculates the average value of the remaining data.

【0077】更にCPU100は、データ処理された後
のデータが有効であるかどうかの判定を行う(#24
4)。この判定は、10組の検出データのうち有効であ
ったデータの数及びその平均値を基準値と比較して行わ
れる。例えば、有効なデータ数が「5」以下であった
り、その平均値が所定の範囲を超えていた場合は、第1
の視標に対するキャリブレーションデータを取得するの
に失敗したと判定して(#244)、CPU100は図
示されていない発音体を用いて電子音を所定時間鳴ら
し、さらにLCD駆動回路105に信号を送信してファ
インダ内LCD24及びモニター用LCD42において
「CAL」表示を点滅させて撮影者に警告する(#26
1)。
Further, the CPU 100 determines whether the data after the data processing is valid (# 24).
4). This determination is performed by comparing the number of valid data among the 10 sets of detection data and the average value thereof with the reference value. For example, if the number of valid data is “5” or less, or if the average value exceeds the predetermined range, the first
CPU 100 determines that it failed to acquire the calibration data for the target (# 244), makes an electronic sound for a predetermined time using a sounding body (not shown), and further transmits a signal to the LCD drive circuit 105. Then, the "CAL" display is blinked on the LCD 24 in the viewfinder and the LCD 42 for monitor to warn the photographer (# 26
1).

【0078】一方、有効なデータ数が「5」より多く、
かつ、その平均値が所定の範囲内であった場合は、デー
タ処理後のデータは有効であると判定して(#24
4)、CPU100は処理データをEEPROM100
aの所定のアドレス上に記憶する(#245)。このと
き、照明手段の照明形態のフラグの設定値も記憶手段で
あるEEPRPM100aに記憶する。
On the other hand, the number of valid data is more than "5",
If the average value is within the predetermined range, it is determined that the data after data processing is valid (# 24
4), the CPU 100 stores the processed data in the EEPROM 100
It is stored on a predetermined address of a (# 245). At this time, the setting value of the flag of the illumination form of the illumination means is also stored in the EEPRPM 100a which is the storage means.

【0079】EEPROM100aに記憶されるキャリ
ブレーションデータは、眼球の回転角の平均値、瞳孔径
の平均値及びそれらの値の積であるが、キャリブレーシ
ョンデータはキャリブレーション毎に更新はされずに既
に記憶されている値に対して加算されるようになってい
る(図10(A)参照)。例えば、注視点キャリブレー
ション時のカメラの姿勢が横位置(図7(A)参照)の
状態であったときは、データ処理後の眼球の回転を(θ
x1,θy1)、瞳孔径をRpx1 とすると、「(θx1,Rpx
1 *θx1,Rpx1,Rpx1 ^2)」がそれぞれのデータに
対応したアドレス上の記憶値に対して加算される。この
時、垂直方向の回転角θy1は後述するように、第2の視
標に対する注視点キャリブレーション終了後にデータの
加工をされて記憶される。
The calibration data stored in the EEPROM 100a is the average value of the rotation angle of the eyeball, the average value of the pupil diameter, and the product of these values. However, the calibration data is not updated for each calibration and has already been updated. The value is added to the stored value (see FIG. 10 (A)). For example, when the posture of the camera at the time of gazing point calibration is in the lateral position (see FIG. 7A), the rotation of the eyeball after the data processing is changed to (θ
x1, θy1) and the pupil diameter is Rpx1, “(θx1, Rpx
1 * θx1, Rpx1, Rpx1 ^ 2) ”is added to the stored value on the address corresponding to each data. At this time, as will be described later, the vertical rotation angle θy1 is processed and stored after the end of the gazing point calibration for the second visual target.

【0080】また、注視点キャリブレーション時のカメ
ラの姿勢が第1の縦位置(図7(B)参照)の状態であ
ったときは、データ処理後の眼球の回転角を(θx1v1、
θy1v1)、瞳孔径をRpy1v1 とすると、「(θy1v1, R
py1v1 *θy1v1,Rpy1v1 ,Rpy1v1 ^2)」がそれぞ
れのデータに対応したアドレス上の記憶値に対して加算
される。この時、水平方向の回転角θx1v1は後述するよ
うに、第2の視標に対応する注視点キャリブレーション
終了後にデータの加工をされて記憶される。
When the posture of the camera at the time of gazing point calibration is in the first vertical position (see FIG. 7B), the rotation angle of the eyeball after the data processing is (θx1v1,
θy1v1) and the pupil diameter is Rpy1v1, then “(θy1v1, R
py1v1 * θy1v1, Rpy1v1, Rpy1v1 ^ 2) ”is added to the stored value on the address corresponding to each data. At this time, as will be described later, the rotation angle θx1v1 in the horizontal direction is processed and stored after the end of the gazing point calibration corresponding to the second visual target.

【0081】同様に、注視点キャリブレーション時のカ
メラの姿勢が第2の縦位置(図7(C)参照)の状態で
あったときは、データ処理後の眼球回転角を(θx1v2,
θy1v2)、瞳孔径をRpy1v2 とすると、「(θy1v2, R
py1v2 *θy1v2, Rpy1v2,Rpy1v2 ^2)」がそれぞれ
のデータに対応したアドレス上の記憶値に対して加算さ
れる。この時、水平方向の回転角θx1v2は後述するよう
に、第2の視標に対する注視点キャリブレーション終了
後にデータの加工をされて記憶される。
Similarly, when the posture of the camera at the time of gazing point calibration is in the second vertical position (see FIG. 7C), the eyeball rotation angle after data processing is (θx1v2,
θy1v2) and the pupil diameter is Rpy1v2, then “(θy1v2, R
py1v2 * θy1v2, Rpy1v2, Rpy1v2 ^ 2) ”is added to the stored value on the address corresponding to each data. At this time, the rotation angle θx1v2 in the horizontal direction is processed and stored after completion of the gazing point calibration for the second visual target, as described later.

【0082】第1の視標に対する注視点のキャリブレー
ションデータと照明形態のメモリが終了すると(#24
5)、CPU100はスイッチSW1の状態の確認を行
い、スイッチSW1がレリーズ釦41によって押されて
いてON状態であればスイッチSW1がOFF状態にな
るまで待機する(#246)。
When the memory of the calibration data of the gazing point and the illumination form for the first visual target is completed (# 24
5), the CPU 100 confirms the state of the switch SW1, and if the switch SW1 is pressed by the release button 41 and is in the ON state, waits until the switch SW1 is in the OFF state (# 246).

【0083】CPU100は、信号入力回路104を介
してスイッチSW1がOFF状態であることを確認する
と(#246)、LED駆動回路106に信号を送信し
て注視点のキャリブレーション用視標2を点滅させる
(#247)。注視点のキャリブレーション用視標は測
距点マークを兼用したマーク200,204で、第1の
視標として使用されなかった方のマークが使用される。
例えば、カメラの姿勢が横位置(図7(A)参照)の状
態では、キャリブレーション用視標として左端の測距点
マーク200が点滅を開始する。また、カメラの姿勢が
レリーズ釦41が天方向にある第1の縦位置(図7
(B)参照)の状態であれば、キャリブレーション用視
標として撮影者に対して下端の測距点マーク200が点
滅を開始する。同様に、カメラの姿勢がレリーズ釦41
が地方向にある第2の縦位置(図7(C)参照)の状態
であれば、キャリブレーション用視標として撮影者に対
して下端に測距点マーク204が点滅を開始する。
When the CPU 100 confirms that the switch SW1 is in the OFF state via the signal input circuit 104 (# 246), it sends a signal to the LED drive circuit 106 to blink the calibration target 2 for the gazing point. (# 247). The target for calibration of the gazing point is the marks 200 and 204 which also serve as the focus detection marks, and the mark which is not used as the first target is used.
For example, when the posture of the camera is in the horizontal position (see FIG. 7A), the distance measuring point mark 200 at the left end as the calibration target starts blinking. In addition, as for the attitude of the camera, the first vertical position in which the release button 41 is in the upward direction (see FIG.
In the state of (B)), the distance measuring point mark 200 at the lower end starts blinking to the photographer as a calibration target. Similarly, the posture of the camera is the release button 41.
Is in the second vertical position in the ground direction (see FIG. 7C), the distance measuring point mark 204 starts blinking at the lower end of the photographer as a calibration target.

【0084】さらにCPU100は、第2の視標に対す
る注視点のキャリブレーションの開始のトリガ信号であ
るスイッチSWがONされているかどうかの確認を信号
入力回路104を介して行う(#248)。スイッチS
W1のON信号が入ってなければカメラは待機する(#
248)。点滅を開始した視標を撮影者が注視しレリー
ズ釦41を押してスイッチSW1をONしたら(#24
8)、CPU100はLED駆動回路106に信号を送
信してキャリブレーション用視標2を点灯させる(#2
49)。さらに、視線検出手段によって視線(眼球の回
転角)検出が行われる(#250)。このとき検出され
るのは眼球の回転角(θx,θy)及び瞳孔径Rpであ
る。
Further, the CPU 100 confirms via the signal input circuit 104 whether or not the switch SW, which is a trigger signal for starting the calibration of the gazing point for the second visual target, is turned on (# 248). Switch S
If there is no W1 ON signal, the camera will wait (#
248). When the photographer gazes at the blinking target, presses the release button 41 and turns on the switch SW1 (# 24
8), the CPU 100 sends a signal to the LED drive circuit 106 to turn on the calibration target 2 (# 2).
49). Further, the line-of-sight detection means detects the line of sight (angle of rotation of the eyeball) (# 250). At this time, the rotation angles (θx, θy) of the eyeball and the pupil diameter Rp are detected.

【0085】視標2を撮影者が注視しているときの眼球
の回転角が検出されると、視線検出回数nに「1」を加
算する(#251)。本実施例において、1つの視標に
対する視線検出回数は10回に設定されているため、視
線検出回数nが「20」より小さいならば(#25
2)、視標2に対する視線検出を続行する(#25
0)。また、視線検出回数nが「20」に達すると(#
252)、視標2に対する視線検出を終了する。CPU
100は、視標2に対する視線検出が終了したことを撮
影者に認識させるため、図示されていない発音体を用い
て電子音を数回鳴らす。同時にCPU100は、LED
駆動回路106を介して視標2を消灯させる(#25
3)。
When the rotation angle of the eyeball when the photographer is gazing at the target 2 is detected, "1" is added to the number of gaze detections n (# 251). In the present embodiment, the number of gaze detection times for one target is set to 10, so if the number of gaze detection times n is smaller than "20"(# 25).
2), the line-of-sight detection for the visual target 2 is continued (# 25
0). Further, when the number of gaze detections n reaches “20” (#
252), the line-of-sight detection for the visual target 2 ends. CPU
In order to let the photographer recognize that the sight line detection for the visual target 2 has been completed, 100 emits an electronic sound several times using a sounding body (not shown). At the same time, the CPU 100 is
The optotype 2 is turned off via the drive circuit 106 (# 25
3).

【0086】さらにCPU100は、検出された10組
の眼球回転角(θx,θy)、瞳孔Rpのデータ処理を
行う(#254)。CPU100は検出データの平均値
に対して偏差の大きいデータを除外して、残ったデータ
の平均値を算出する。さらにCPU100は、データ処
理された後のデータが有効であるかどうかの判定を行う
(#255)。この判定は、10組の検出データのない
有効であったデータの数及びその平均値を基準値と比較
して行われる。例えば、有効なデータ数が「5」以下で
あったり、その平均値が所定の範囲を超えていた場合
は、第2の視標に対するキャリブレーションデータを取
得するのに失敗したと判定して(#255)、CPU1
00は図示されていない発音体を用いて電子音を所定時
間鳴らし、さらにLCD駆動回路105に信号を送信し
てファインダ内LCD24及びモニタ用LCD42にお
いて「CAL」表示を点滅させて撮影者に警告する(#
261)。このとき視標1に対するキャリブレーション
データ及び照明形態が記憶されていれば、それらのデー
タはリセットされる。
Further, the CPU 100 carries out data processing of the detected 10 sets of eyeball rotation angles (θx, θy) and the pupil Rp (# 254). The CPU 100 excludes data having a large deviation from the average value of the detected data and calculates the average value of the remaining data. Further, the CPU 100 determines whether the data after the data processing is valid (# 255). This determination is made by comparing the number of valid data without 10 sets of detected data and the average value thereof with a reference value. For example, when the number of valid data is “5” or less, or when the average value thereof exceeds the predetermined range, it is determined that acquisition of the calibration data for the second visual target has failed ( # 255), CPU1
Reference numeral 00 indicates an electronic sound for a predetermined time by using a sounding body (not shown), and further transmits a signal to the LCD driving circuit 105 to blink the "CAL" display on the LCD 24 in the finder and the monitor LCD 42 to warn the photographer. (#
261). At this time, if the calibration data and the illumination form for the visual target 1 are stored, those data are reset.

【0087】一方、有効なデータ数が「5」より多く、
かつ、その平均値が所定の範囲内であった場合は、デー
タ処理後のデータは有効であると判定して(#22
5)、CPU100は処理データ及びキャリブレーショ
ン回数をEEPROM100aの所定のアドレス上に加
算して記憶する(#256)。
On the other hand, the number of valid data is more than "5",
If the average value is within the predetermined range, it is determined that the data after data processing is valid (# 22
5), the CPU 100 adds the processed data and the number of calibrations to a predetermined address of the EEPROM 100a and stores it (# 256).

【0088】例えば、注視点キャリブレーション時のカ
メラの姿勢が横位置(図7(A)参照)の状態であった
ときは、図10(A)に示す様に、データ処理後の眼球
の回転角を(θx2,θy2)、瞳孔径をRpx2 とすると、
「(θx2,Rpx2 *θx2,Rpx2 ,Rpx2 ^2)」がそ
れぞれのデータに対応したアドレス上の記憶値に対して
加算される。また、垂直方向の回転に対応するデータθ
yh,Rpyh は、 θyh=(θy1+θy2) /2 Rpyh =(Rpx1 +Rpx2 )/2 と算出され、キャリブレーションデータ(θyh, Rpyh
*θyh, Rpyh,Rpyh ^2)としてそれぞれのデータに
対応したアドレス上の記憶値に対して加算される。
For example, when the posture of the camera at the time of gazing point calibration is in the lateral position (see FIG. 7A), the rotation of the eyeball after data processing is performed as shown in FIG. 10A. If the angle is (θx2, θy2) and the pupil diameter is Rpx2,
“(Θx2, Rpx2 * θx2, Rpx2, Rpx2 ^ 2)” is added to the stored value at the address corresponding to each data. Also, the data θ corresponding to the rotation in the vertical direction
yh and Rpyh are calculated as θyh = (θy1 + θy2) / 2 Rpyh = (Rpx1 + Rpx2) / 2, and the calibration data (θyh, Rpyh
* Θyh, Rpyh, Rpyh ^ 2) is added to the stored value at the address corresponding to each data.

【0089】また、注視点キャリブレーション時のカメ
ラの姿勢が第1の縦位置(図7(B)参照)の状態であ
ったときは、データ処理後の眼球の回転角を(θx2v1,
θy2v1) 、瞳孔径をRpy2v1 とすると、「(θy2v1, R
py2v1 *θy2v1, Rpy2v1,Rpy2v1 ^2)」がそれぞれ
のデータに対応したアドレス上の記憶値に対して加算さ
れる。また、水平方向の回転に対するデータθxv1,Rpx
v1は、 θxv1 =(θx1v1+θx2v1) /2 Rpxv1=(Rpy1v1 +Rpx2v1)/2 と算出され、キャリブレーションデータ(θxv1,Rpxv1
*θxv1,Rpxy1, Rpxv1^2)としてぞれぞれのデータ
に対応したアドレス上の記憶値に対して加算される。
When the posture of the camera during the gazing point calibration is in the first vertical position (see FIG. 7B), the rotation angle of the eyeball after the data processing is (θx2v1,
θy2v1) and the pupil diameter is Rpy2v1.
py2v1 * θy2v1, Rpy2v1, Rpy2v1 ^ 2) ”is added to the stored value at the address corresponding to each data. Also, data θxv1, Rpx for horizontal rotation
v1 is calculated as θxv1 = (θx1v1 + θx2v1) / 2 Rpxv1 = (Rpy1v1 + Rpx2v1) / 2, and the calibration data (θxv1, Rpxv1
* Θxv1, Rpxy1, Rpxv1 ^ 2) is added to the stored value at the address corresponding to each data.

【0090】同様に、注視点キャリブレーション時のカ
メラの姿勢が第2の縦位置(図7(C)参照)の状態で
あったときは、データ処理後の眼球の回転角を(θx2v
2,θy2v2) 、瞳孔径をRpy2v2 とすると、「(θy2v
2,Rpy2v2 *θy2v2,Rpy2v2,Rpy2v2 ^2)」がそ
れぞれのデータに対応したアドレス上の記憶値に対して
加算される。また、水平方向の回転に対するデータθxv
2,Rpxv2は、 θxv2 =(θx1v2+θx2v2) /2 Rpxv2=(Rpy1v2 +Rpx2v2)/2 と算出され、キャリブレーションデータ(θxv2,Rpxv2
*θxv2,Rpxy2, Rpxv2^2)としてそれぞれのデータ
に対応したアドレス上の記憶値に対して加算される。
Similarly, when the posture of the camera at the time of gazing point calibration is in the second vertical position (see FIG. 7C), the rotation angle of the eyeball after data processing is (θx2v
2, θy2v2) and the pupil diameter is Rpy2v2, then "(θy2v2
2, Rpy2v2 * θy2v2, Rpy2v2, Rpy2v2 ^ 2) ”is added to the stored value on the address corresponding to each data. Also, the data for horizontal rotation θxv
2, Rpxv2 is calculated as θxv2 = (θx1v2 + θx2v2) / 2 Rpxv2 = (Rpy1v2 + Rpx2v2) / 2, and the calibration data (θxv2, Rpxv2
* Θxv2, Rpxy2, Rpxv2 ^ 2) is added to the stored value at the address corresponding to each data.

【0091】第2の視標に対するキャリブレーションデ
ータ及びキャリブレーション回数のメモリが終了すると
(#256)、CPU100はLCD駆動回路105,
LED駆動回路106を介して注視点のキャリブレーシ
ョン終了表示を行う(#257)。LED駆動回路10
6はスーパーインポーズ用LED21に通電して視標
1,視標2を数回点滅させ、LCD駆動回路105はL
CD24,42に信号を送信して「END」の表示を所
定時間実行するようになっている。
When the memory of the calibration data and the number of calibrations for the second visual target is completed (# 256), the CPU 100 causes the LCD drive circuit 105,
The calibration completion display of the gazing point is performed via the LED drive circuit 106 (# 257). LED drive circuit 10
6 energizes the superimposing LED 21 to blink the visual target 1 and the visual target 2 several times, and the LCD drive circuit 105 becomes L.
A signal is transmitted to the CDs 24 and 42 to display "END" for a predetermined time.

【0092】一連の注視点のキャリブレーション終了
後、カメラは撮影者によって電子ダイヤル45かモード
ダイヤル44が操作されるまで待機する。撮影者が電子
ダイヤル45を回転させて他のキャリブレーションナン
バーを選択したならば、CPU100は信号入力回路1
04を介してキャリブレーションナンバーの変更を検知
して(#258)、注視点のキャリブレーションルーチ
ンの初期ステップ(#226)に移行する。
After the calibration of a series of gazing points, the camera waits until the photographer operates the electronic dial 45 or the mode dial 44. If the photographer rotates the electronic dial 45 to select another calibration number, the CPU 100 determines that the signal input circuit 1
A change in the calibration number is detected via 04 (# 258), and the process proceeds to the initial step (# 226) of the gazing point calibration routine.

【0093】また、撮影者が連続して注視点のキャリブ
レーションを行おうとしてスイッチSW1をONした
ら、CPU100は信号入力回路104を介してスイッ
チSW1のON信号を検知して(#259)、注視点キ
ャリブレーションブレーションの開始ステップ(#23
4)に移行する。
When the photographer continuously turns on the switch SW1 to calibrate the gazing point, the CPU 100 detects the ON signal of the switch SW1 via the signal input circuit 104 (# 259), View Calibration Calibration Start Step (# 23
Go to 4).

【0094】また、撮影者がモードダイヤル44を回転
させて他の撮影モードを選択したならば、CPU100
は信号入力回路104を介して撮影モードの変更を検知
して(#260)メインのルーチンに復帰する(#26
2)。
If the photographer rotates the mode dial 44 to select another photographing mode, the CPU 100
Detects a change of the photographing mode via the signal input circuit 104 (# 260) and returns to the main routine (# 26).
2).

【0095】図6に戻って、視線に関する個人情報の検
出が終了すると(#225)、カメラはレリーズ釦41
が押込まれてスイッチSW1がONされるまで待機する
(#204)。また、モードダイヤル44が注視点キャ
リブレーションモードに設定されておらず(#20
2)、電源ロックモードにも設定されていれば(#20
3)、カメラの電源はOFFされる(#226)。
Returning to FIG. 6, when the detection of the personal information regarding the line of sight is completed (# 225), the camera releases the release button 41.
It waits until is pressed and the switch SW1 is turned on (# 204). Also, the mode dial 44 is not set to the gazing point calibration mode (# 20
2) If the power lock mode is also set (# 20
3), the power of the camera is turned off (# 226).

【0096】一方、モードダイヤル44が通常の撮影モ
ードに設定されていれば、カメラはレリーズ釦41が押
込まれてスイッチSW1がONされるまで待機する(#
204)。
On the other hand, if the mode dial 44 is set to the normal photographing mode, the camera waits until the release button 41 is pressed and the switch SW1 is turned on (#
204).

【0097】レリーズ釦41が押込まれスイッチSW1
がONされたことを信号入力回路104が検知すると
(#204)、姿勢検知手段によってカメラの姿勢がど
の状態になっているかを検知する(#205)。姿勢検
知手段は、CPU100,信号入力回路104から構成
され、CPU100は信号入力回路104を介して送信
されてくる姿勢検知スイッチSW−ANG1,SW−A
NG2の信号を分析してカメラの姿勢が横位置か、ある
いは縦位置か判断する。
The release button 41 is pushed and the switch SW1
When the signal input circuit 104 detects that the is turned on (# 204), the posture detecting means detects which state the camera is in (# 205). The attitude detecting means includes a CPU 100 and a signal input circuit 104, and the CPU 100 transmits the attitude detecting switches SW-ANG1 and SW-A via the signal input circuit 104.
The signal of NG2 is analyzed to determine whether the camera is in the horizontal position or the vertical position.

【0098】さらにCPU100は、視線検出を行う際
にどのキャリブレーションデータを使用するかをEEP
ROM100aにて確認する(#206)。この時確認
されたキャリブレーションデータナンバーが視線禁止モ
ードの「0」に設定されていれば(#207)、視線検
出動作は行われずに直ちに各測距点に対する焦点検出を
実行する(#213)。
Further, the CPU 100 determines which calibration data is to be used when detecting the line of sight.
Confirm in the ROM 100a (# 206). If the calibration data number confirmed at this time is set to "0" in the line-of-sight prohibition mode (# 207), the line-of-sight detection operation is not performed and focus detection is immediately executed for each focus detection point (# 213). .

【0099】一方、前記キャリブレーションデータナン
バーが「0」でない所定の値に設定されていれば(#2
07)、CPU100は撮影者の眼15を照明するIR
EDを設定する(#208)。
On the other hand, if the calibration data number is set to a predetermined value other than "0"(# 2
07), the CPU 100 irradiates the photographer's eyes 15 with IR
The ED is set (# 208).

【0100】照明用IREDの設定のフローチャートを
図9に示す。
FIG. 9 shows a flowchart for setting the illumination IRED.

【0101】同図において、CPU100は姿勢検出手
段にて検知されたカメラの現姿勢に対応したキャリブレ
ーションが実行されているかどうかを確認する(#27
0)。この確認は、記憶手段であるEEPROM100
aの所定のアドレスに記憶されているキャリブレーショ
ン回数(図10(A)におけるnh,nv1,nv2)
を読出すことによりなされる。カメラの現姿勢でのキャ
リブレーションが実行されていれば(#270)、その
姿勢に対応した照明形態を設定する(#271)。
In the figure, the CPU 100 confirms whether or not the calibration corresponding to the current posture of the camera detected by the posture detecting means is executed (# 27).
0). This confirmation is made by the EEPROM 100 which is a storage means.
Number of calibrations stored in a predetermined address of a (nh, nv1, nv2 in FIG. 10A)
Is read. If the calibration is executed in the current posture of the camera (# 270), the illumination form corresponding to the posture is set (# 271).

【0102】つまり、図7(A)に示すようにカメラの
姿勢が横位置の場合に、照明形態のフラグIREDhが
“0”に設定されていれば、裸眼撮影者用のIRED1
3a,13bを設定する。一方、照明形態のフラグIR
EDhが“1”に設定されていれば、眼鏡装着者用のI
RED13c,13dを設定する。また、図7(B)に
示すようにカメラの姿勢がレリーズ釦41が天方向にあ
る第1の縦位置の場合に、照明形態のフラグIREDv
1が“0”に設定されていれば、裸眼撮影者用のIRE
D13a,13eを設定する。一方、照明形態のフラグ
IREDv1が“1”に設定されていれば、眼鏡装着者
用のIRED13c,13gを設定する。さらに、図7
(C)に示すようにカメラの姿勢がレリーズ釦41が地
方向にある第2の縦位置の場合は、照明形態のフラグI
REDv2が“0”に設定されていれば、裸眼撮影者用
のIRED13b,13fを設定する。一方、照明形態
のフラグIREDv2が“1”に設定されていれば、眼
鏡装着者用のIRED13d,13hを設定する。
That is, as shown in FIG. 7A, when the posture of the camera is in the horizontal position and the illumination mode flag IREDh is set to "0", the IRED1 for the naked eye photographer is obtained.
3a and 13b are set. On the other hand, the illumination type flag IR
If EDh is set to "1", I for eyeglass wearer
Set the REDs 13c and 13d. Further, as shown in FIG. 7B, when the camera is in the first vertical position in which the release button 41 is in the upward direction, the illumination mode flag IREDv is set.
If 1 is set to “0”, IRE for naked eye photographers
D13a and 13e are set. On the other hand, if the illumination mode flag IREDv1 is set to "1", the IREDs 13c and 13g for the spectacle wearer are set. Furthermore, FIG.
As shown in (C), when the camera is in the second vertical position in which the release button 41 is in the ground direction, the illumination mode flag I is set.
If REDv2 is set to "0", the IREDs 13b and 13f for the naked eye photographer are set. On the other hand, if the illumination mode flag IREDv2 is set to "1", the IREDs 13d and 13h for the spectacle wearer are set.

【0103】このように、カメラの姿勢毎に裸眼撮影者
用の発光量の小さいIREDと眼鏡装着者用の発光量の
大きいIREDを設定可能なため、カメラの姿勢によっ
てファインダを覗く撮影者のアイポイントが変化して
も、視線検出手段において良好な眼球像が得られる。
As described above, since the IRED having a small light emission amount for the naked eye photographer and the IRED having a large light emission amount for the eyeglass wearer can be set for each camera posture, the eye of the photographer looking into the viewfinder depending on the camera posture. Even if the points change, a good eyeball image can be obtained by the line-of-sight detection means.

【0104】一方、カメラの現姿勢でのキャリブレーシ
ョンが実行されていなければ(#270)、他の2つの
姿勢での照明形態の比較を行う。この際、他の2つの姿
勢での照明形態が一致しているか、他の2姿勢のうち1
つの姿勢しか照明形態が記憶されていなければ(#27
2)、その一致している照明形態が記憶されている照明
形態に設定する(#273)。また、他の2つの姿勢で
の照明形態が一致していなければ(#272)、裸眼撮
影者用のIREDに設定する(#274)。
On the other hand, if the calibration in the current posture of the camera is not executed (# 270), the illumination forms in the other two postures are compared. At this time, whether the illumination forms in the other two postures match or one of the other two postures
If the illumination form is stored in only one posture (# 27
2), the matching illumination form is set to the stored illumination form (# 273). If the illumination forms in the other two postures do not match (# 272), the IRED for the naked eye photographer is set (# 274).

【0105】再び図6に戻って、カメラの姿勢に対応し
た照明用IREDが設定されると(#208)、CPU
100はファインダの被写体を注視している撮影者の視
線の検出を実行する(#209)。実際には、視線検出
手段によって撮影者の眼球の回転角が検出される。CP
U100は設定されたIREDを点灯させるためにIR
ED駆動回路107に信号を送信する。同時にCPU1
00は、視線検出回路101に信号を送出してイメージ
センサ14の光蓄積を開始させる。所定時間の光蓄積が
終了すると視線検出回路101はイメージセンサ14の
像出力をA/D変換してCPU100に送信する。CP
U100は、眼球像信号を所定のアルゴリズムに従って
画像処理して眼球像の特徴点(角膜反射像及び瞳孔のエ
ッジ)を抽出する。抽出された1組の角膜反射像の中点
の座表を(xpo,ypo)、瞳孔のエッジより求めら
れる瞳孔の中心座標を(xic,yic)とすると、撮
影者の眼球の回転角θは、 β*OC*SINθx≒(xpo−δx)−xic ……(1) β*OC*SINθy≒(ypo−δy)−yic ……(2) の関係を満足する。ここで、θxは撮影者に対して水平
方向の回転角、θyは垂直方向の回転角である。また、
δx,δyは角膜反射像の中点の位置を補正する補正
項、βは結像倍率、OCは角膜の曲率中心と瞳孔までの
距離である。
Returning to FIG. 6 again, when the illumination IRED corresponding to the posture of the camera is set (# 208), the CPU
100 detects the line of sight of the photographer who is gazing at the subject in the finder (# 209). In reality, the line-of-sight detection means detects the rotation angle of the eyeball of the photographer. CP
U100 uses IR to light the set IRED
A signal is transmitted to the ED drive circuit 107. CPU1 at the same time
00 sends a signal to the visual axis detection circuit 101 to start the light accumulation of the image sensor 14. When the light accumulation for a predetermined time is completed, the line-of-sight detection circuit 101 A / D converts the image output of the image sensor 14 and sends it to the CPU 100. CP
U100 image-processes the eyeball image signal according to a predetermined algorithm to extract the feature points (corneal reflection image and pupil edge) of the eyeball image. Letting (xpo, ypo) be the coordinates of the midpoint of the extracted one set of corneal reflection images and (xic, yic) be the center coordinates of the pupil obtained from the edge of the pupil, the rotation angle θ of the eyeball of the photographer is , Β * OC * SINθx≈ (xpo−δx) −xic (1) β * OC * SINθy≈ (ypo−δy) −yic (2). Here, θx is a rotation angle in the horizontal direction with respect to the photographer, and θy is a rotation angle in the vertical direction. Also,
δx and δy are correction terms for correcting the position of the midpoint of the corneal reflection image, β is the imaging magnification, and OC is the distance between the center of curvature of the cornea and the pupil.

【0106】眼球の回転角が算出されると、撮影者の視
線に関する個人情報を用いて撮影者のファインダ内の注
視点を算出する(#210)。ファインダ内注視点の座
標(x,y)は、 x=m*{θx−(cx*Rp+dx)}/(ax*Rp+bx) ……(3) y=m*{θy−(cy*Rp+dy)}/(ay*Rp+by) ……(4) と表される。ここで、x方向は撮影者に対して水平方
向、y方向は撮影者に対して垂直方向を示している。m
は眼球の回転角からピント板上の座標に変換する変換係
数、Rpは瞳孔径である。また、ax,bx,cx,d
x,ay,by,cy,dyはキャリブレーション係数
で、EEPROM100aに記憶されたキャリブレーシ
ョンブレーションデータに基づいて算出される。算出方
法は、本願出願人による特願平6−76567号等に記
載されているので、ここでは省略する。
When the rotation angle of the eyeball is calculated, the gazing point in the viewfinder of the photographer is calculated using the personal information regarding the line of sight of the photographer (# 210). The coordinates (x, y) of the gazing point in the finder are: x = m * {θx− (cx * Rp + dx)} / (ax * Rp + bx) (3) y = m * {θy− (cy * Rp + dy)} / (Ay * Rp + by) ... (4) Here, the x direction is horizontal to the photographer and the y direction is vertical to the photographer. m
Is a conversion coefficient for converting the rotation angle of the eyeball into coordinates on the focus plate, and Rp is a pupil diameter. Also, ax, bx, cx, d
x, ay, by, cy, and dy are calibration coefficients, which are calculated based on the calibration blazing data stored in the EEPROM 100a. Since the calculation method is described in Japanese Patent Application No. 6-76567 by the applicant of the present application, the description thereof is omitted here.

【0107】撮影者が注視しているファインダ内注視点
を算出すると(#210)、その注視点座標から焦点検
出を行う測距点を選択する(#211)。測距点は注視
点座標から最も近い測距点が選択される。さらに、CP
U100は、選択された測距点をファインダ内に表示す
る。
When the gazing point in the viewfinder which the photographer is gazing is calculated (# 210), the focus detection point for focus detection is selected from the gazing point coordinates (# 211). The closest distance measuring point is selected from the gazing point coordinates. Furthermore, CP
U100 displays the selected focus detection point in the viewfinder.

【0108】撮影者がファインダ内にスーパーインポー
ズ表示された測距点を見て、その測距点が撮影者の意図
したものと異なることを認識してレリーズ釦41から手
を離してスイッチSW1をOFFすると(#212)、
CPU100は再度モード確認を行って(#201)、
通常の撮影モードであればスイッチSW1がONされる
まで待機する(#204)。
The photographer looks at the focus detection point displayed in the viewfinder in a superimposed manner, recognizes that the focus detection point is different from what the photographer intended, and releases the release button 41 to release the switch SW1. When turned off (# 212),
The CPU 100 checks the mode again (# 201),
In the normal shooting mode, the process waits until the switch SW1 is turned on (# 204).

【0109】また、撮影者が視線によって選択された測
距点がスーパーインポーズ表示されたのを見て引続きス
イッチSW1をONし続けたならば(#212)、自動
焦点検出回路103は視線情報より選択された測距点の
焦点検出を実行する(#213)。
If the photographer continues to turn on the switch SW1 after seeing that the distance measuring point selected by the line of sight is superimposed (# 212), the automatic focus detection circuit 103 causes the line of sight information to be displayed. The focus detection of the selected focus detection point is executed (# 213).

【0110】焦点検出が行われると(#213)、実際
に撮影レンズ1の焦点調節を行う測距点が決定される
(#214)。
When focus detection is performed (# 213), the focus detection point for actually adjusting the focus of the taking lens 1 is determined (# 214).

【0111】視線情報によって決定された測距点が測距
不能である場合は(#215)、CPU100はLCD
駆動回路105に信号を送ってファインダ内LCD24
の合焦マーク50を点滅させ、測距がNG(不能)であ
ることを撮影者に警告し(#223)、該警告表示はス
イッチSW1が離されるまで続けられる(#224)。
When the distance measuring point determined by the line-of-sight information cannot be measured (# 215), the CPU 100 causes the LCD
LCD 24 in the finder by sending a signal to the drive circuit 105
The in-focus mark 50 is flashed to warn the photographer that the distance measurement is NG (disabled) (# 223), and the warning display is continued until the switch SW1 is released (# 224).

【0112】決定された測距点が測距可能であり(#2
15)、該測距点に対応する撮影レンズ1の焦点調節状
態が合焦していなければ(#216)、CPU100は
レンズ焦点調節回路110に信号を送って撮影レンズ1
の合焦レンズ1aを所定量駆動させる(#222)。レ
ンズ駆動後に自動焦点検出回路103は決定されている
1つの測距点について再度焦点検出を行い(#21
3)、撮影レンズ1が合焦しているか否かの判定を行う
(#216)。撮影レンズが合焦していたならば(#2
16)、CPU100はLCD駆動回路105に信号を
送ってファインダ内LCD24の合焦マーク50を点灯
させると共に、LED駆動回路106にも信号を送って
合焦している測距点に合焦表示させる(#217)。
It is possible to measure the determined distance measuring point (# 2
15) If the focus adjustment state of the taking lens 1 corresponding to the focus detection point is out of focus (# 216), the CPU 100 sends a signal to the lens focusing circuit 110 to take the taking lens 1
The focusing lens 1a is driven by a predetermined amount (# 222). After the lens is driven, the automatic focus detection circuit 103 performs focus detection again for one determined focus detection point (# 21
3), it is determined whether or not the taking lens 1 is in focus (# 216). If the shooting lens is in focus (# 2
16), the CPU 100 sends a signal to the LCD drive circuit 105 to turn on the focusing mark 50 of the LCD 24 in the finder, and also sends a signal to the LED drive circuit 106 to display an in-focus state at the focus detection point. (# 217).

【0113】このとき、前記視線によって選択された測
距点の点滅表示は消灯し、合焦したことを撮影者に認識
させるための合焦測距点が点灯状態に設定される。合焦
した測距点がファインダ内に表示されたのを撮影者が見
て、その測距点が正しくないと認識してレリーズ釦41
から手を離してスイッチSW1をOFFすると(#21
8)、CPU100は再度モード確認を行って(#20
1)、通常の撮影モードであればスイッチSW1がON
されるまで待機する(#204)。
At this time, the blinking display of the focus detection point selected by the line of sight is turned off, and the focus detection focus point for making the photographer recognize that the focus is achieved is set to the lit state. The photographer sees that the focusing point is displayed in the viewfinder, recognizes that the focusing point is not correct, and releases the release button 41.
Remove your hand from and turn off the switch SW1 (# 21
8) The CPU 100 checks the mode again (# 20
1), switch SW1 is ON in normal shooting mode
Wait until it is done (# 204).

【0114】また、撮影者が合焦表示された測距点を見
て、引続きSW1をONし続けたならば(#218)、
CPU100は測光回路102に信号を送信して測光を
行わせる(#219)。このとき合焦した測距点を含む
測光領域210〜213に重み付けを行った露光値が演
算される。
If the photographer looks at the focus detection point and continues to turn on SW1 (# 218),
The CPU 100 sends a signal to the photometry circuit 102 to perform photometry (# 219). At this time, the exposure value is calculated by weighting the photometric areas 210 to 213 including the in-focus distance measuring points.

【0115】さらに、レリーズ釦41が押込まれてスイ
ッチSW2がONされているかどうかの判定を行い(#
220)、スイッチSW2がOFF状態であれば、再び
スイッチSW1の状態の確認を行う(#218)。スイ
ッチSW2がONされたならばCPU100は、シャッ
タ制御回路108,モータ制御回路109,絞り駆動回
路111にそれぞれ信号を送信する。
Further, it is determined whether or not the release button 41 is pushed and the switch SW2 is turned on (#
220), if the switch SW2 is in the OFF state, the state of the switch SW1 is checked again (# 218). When the switch SW2 is turned on, the CPU 100 sends signals to the shutter control circuit 108, the motor control circuit 109, and the diaphragm drive circuit 111, respectively.

【0116】カメラのシャッタレリーズ動作が終了する
と(#220)、CPU100は再度モード確認を行っ
て(#201)、通常の撮影モードであればスイッチS
W1がONされるまで待機する(#204)。
When the shutter release operation of the camera is completed (# 220), the CPU 100 checks the mode again (# 201), and if it is the normal photographing mode, the switch S is pressed.
It waits until W1 is turned on (# 204).

【0117】(第2の実施例)図11〜図13は本発明
の第2の実施例に係る図で、図11は図5に示したIR
ED駆動回路107と各IREDの接続関係を示す回路
図、図12は視線に関する個人情報を取得するための注
視点のキャリブレーションのフローチャート、図13は
照明用IREDの設定方法を示すフローチャート、図1
4は第2の実施例においてカメラの姿勢に対する照明形
態フラグと各IREDとの関係を示す図である。
(Second Embodiment) FIGS. 11 to 13 are views according to a second embodiment of the present invention, and FIG. 11 shows the IR shown in FIG.
FIG. 12 is a circuit diagram showing a connection relationship between the ED drive circuit 107 and each IRED, FIG. 12 is a flowchart of a gazing point calibration for acquiring personal information about a line of sight, FIG. 13 is a flowchart showing a method of setting an illumination IRED, and FIG.
FIG. 4 is a diagram showing a relationship between an illumination form flag and each IRED with respect to a camera posture in the second embodiment.

【0118】本実施例を適用した一眼レフカメラの構成
は、図11の構成部分を除いては、第1の実施例にて図
示したもの(図1〜図5)と同様なので図面は省略す
る。
The configuration of the single-lens reflex camera to which this embodiment is applied is the same as that shown in the first embodiment (FIGS. 1 to 5) except for the components shown in FIG. .

【0119】本発明の視線検出手段は、図1〜図5及び
図11に示す、照明手段を構成するIRED13a〜1
3h,抵抗R1〜R3,各IREDを駆動するIRED
駆動回路107と、前記IRED駆動回路107を制御
するCPU100,受光手段を構成する接眼レンズ1
1,受光レンズ12,イメージセンサ14,該イメージ
センサ14を制御する視線検出回路101と、前記視線
検出回路を制御するCPU100,演算処理手段を構成
する視線検出回路101及びCPU100と、記憶手段
を構成するEEPROM100aと、照明設定手段を構
成するCPU100,スイッチ46(図2(B)参照)
及び抵抗R1〜R3とから構成されている。
The line-of-sight detecting means of the present invention is the IREDs 13a to 1 which constitute the illuminating means shown in FIGS. 1 to 5 and 11.
3h, resistors R1 to R3, IRED driving each IRED
Drive circuit 107, CPU 100 for controlling the IRED drive circuit 107, and eyepiece 1 that constitutes a light receiving means
1, a light-receiving lens 12, an image sensor 14, a line-of-sight detection circuit 101 for controlling the image sensor 14, a CPU 100 for controlling the line-of-sight detection circuit, a line-of-sight detection circuit 101 and CPU 100 forming an arithmetic processing unit, and a storage unit EEPROM 100a, CPU 100 and switch 46 that constitute the illumination setting means (see FIG. 2B)
And resistors R1 to R3.

【0120】また、視線検知手段は、水銀スイッチ2
7,28、信号入力回路104及びCPU100から構
成されている。
The line-of-sight detecting means is the mercury switch 2
7, 28, the signal input circuit 104, and the CPU 100.

【0121】本実施例において、図11に示すように、
裸眼撮影者用のIRED13a,13b,13e,13
fは、2種類の抵抗R1,R2を選択することにより2
種類の発光量を設定できるようになっている。実際に
は、アイポイントの近い裸眼撮影者に対しては発光量が
小さくなる抵抗が選択され、逆にアイポイントの遠い裸
眼撮影者に対しては発光量が大きくなる抵抗が選択され
るようになっている。また、眼鏡を装着した撮影者に対
するIRED13c,13d,13g,13hは常時大
きな発光量で照明するようになっている。
In this embodiment, as shown in FIG.
IRED 13a, 13b, 13e, 13 for naked eye photographers
f is 2 by selecting two types of resistors R1 and R2.
It is possible to set the type of light emission. In practice, a resistor with a small light emission amount is selected for a naked eye photographer with a close eye point, and conversely, a resistor with a large light emission amount is selected for a naked eye photographer with a far eye point. Has become. Further, the IREDs 13c, 13d, 13g, 13h for the photographer wearing the glasses are always illuminated with a large amount of light emission.

【0122】次に、上記の構成より成る視線検出手段を
有したカメラの動作について説明する。なお、カメラの
メイン動作、及び、カメラの各姿勢における照明手段の
照明形態の設定状態とファインダ視野内の状態は、上記
の図6及び図7と同様であるので、必要に応じてこれら
を用いて説明する。
Next, the operation of the camera having the line-of-sight detecting means having the above structure will be described. The main operation of the camera, the setting state of the illumination form of the illuminating means in each posture of the camera, and the state in the viewfinder are the same as those in FIGS. 6 and 7 described above. Explain.

【0123】図6において、モードダイヤル44を回転
させてカメラを不作動状態(ロック状態)から所定の撮
影モードに設定すると、カメラの電源がONされる(#
200)。
In FIG. 6, when the mode dial 44 is rotated to set the camera from the inoperative state (locked state) to the predetermined photographing mode, the power of the camera is turned on (#
200).

【0124】すると、CPU100は信号入力回路10
4を介してモードダイヤル44がどのモードに設定され
ているか確認する(#201)。モードダイヤル44が
注視点のキャリブレーションモードに設定されていれば
(#202)、撮影者の視線に関するの個人情報を取得
するために注視点のキャリブレーションを実行する(#
225)。
Then, the CPU 100 determines that the signal input circuit 10
Check which mode the mode dial 44 is set to via # 4 (# 201). If the mode dial 44 is set to the calibration mode of the gazing point (# 202), the gazing point is calibrated in order to acquire the personal information regarding the line of sight of the photographer (# 202).
225).

【0125】この実施例における注視点のキャリブレー
ションのフローチャートを図12に示し、以下、同図を
用いて撮影者の視線に関する個人情報の取得方法を説明
する。
FIG. 12 shows a flow chart of the gazing point calibration in this embodiment, and the method of acquiring the personal information regarding the line of sight of the photographer will be described below with reference to FIG.

【0126】撮影者がモードダイヤル44を回転させ、
CALポジション44dに指標55を合せると、注視点
のキャリブレーションモードに設定される(#32
5)。
The photographer rotates the mode dial 44,
When the index 55 is aligned with the CAL position 44d, the gazing point calibration mode is set (# 32).
5).

【0127】信号入力回路104はCPU100を介し
てLCD駆動回路105に信号を送信し、ファインダ内
LCD24及びモニタ用LCD42にキャリブレーショ
ンモードのいずれに入ったかを示す表示を行う(#32
6)。
The signal input circuit 104 transmits a signal to the LCD drive circuit 105 via the CPU 100, and displays on the in-finder LCD 24 and the monitor LCD 42 which one of the calibration modes has been entered (# 32).
6).

【0128】撮影者が電子ダイヤル45を回転させる
と、その回転を検知した信号入力回路104はCPU1
00を介してLCD駆動回路105に信号を送信する。
その結果、電子ダイヤル45の回転に同期してファイン
ダ内LCD24及びモニタ用LCD42に表示されたキ
ャリブレーションナンバーが変化する。撮影者がファイ
ンダ内LCD24あるいはモニタ用LCD42に表示さ
れたキャリブレーションナンバーを見ながら所望のキャ
リブレーションナンバーを選択したら、CPU100は
選択されたキャリブレーションナンバーを確認する(#
327)。
When the photographer rotates the electronic dial 45, the signal input circuit 104 that detects the rotation causes the CPU 1
A signal is transmitted to the LCD drive circuit 105 via 00.
As a result, the calibration numbers displayed on the in-finder LCD 24 and the monitor LCD 42 change in synchronization with the rotation of the electronic dial 45. When the photographer selects a desired calibration number while looking at the calibration number displayed on the in-viewfinder LCD 24 or the monitor LCD 42, the CPU 100 confirms the selected calibration number (#
327).

【0129】続いてCPU100は信号入力回路104
を介して撮影モードの確認を行う。撮影者がモードダイ
ヤル44を回転させて注視点のキャリブレーションモー
ド以外の撮影モードに切り換えていることを確認したら
(#328)、ファインダ内外のキャリブレーション用
表示を消灯させて(#230)、メインのルーチンであ
るカメラの撮影動作に復帰する(#362)。
Subsequently, the CPU 100 causes the signal input circuit 104
Confirm the shooting mode via. When the photographer confirms that the mode dial 44 has been rotated to switch to a shooting mode other than the gazing point calibration mode (# 328), the calibration display inside and outside the viewfinder is turned off (# 230), and the main display is turned off. The process returns to the shooting operation of the camera, which is the routine of (# 362).

【0130】一方、CPU100が注視点のキャリブレ
ーションモードに設定されたままであることを確認する
と(#328)、電子ダイヤル45にて設定されたキャ
リブレーションデータナンバーの確認を再度行う(#3
29)。このとき、EEPROM100aに記憶された
キャリブレーションデータナンバーが「0」に設定さ
れ、視線禁止モードが選択されていれば(#329)、
再度キャリブレーションナンバーの確認を行い(#32
7)、撮影モードが変更されるまで待機する。
On the other hand, when the CPU 100 confirms that the calibration mode of the gazing point is still set (# 328), the calibration data number set by the electronic dial 45 is confirmed again (# 3).
29). At this time, if the calibration data number stored in the EEPROM 100a is set to "0" and the line-of-sight prohibition mode is selected (# 329),
Check the calibration number again (# 32
7) Wait until the shooting mode is changed.

【0131】キャリブレーションデータナンバーが
「0」以外の値に設定されていれば(#329)、引続
きCPU100及び信号入力104より構成された視線
検知手段によってカメラの姿勢の検知を行う(#23
1)。
If the calibration data number is set to a value other than "0"(# 329), the posture of the camera is continuously detected by the line-of-sight detecting means composed of the CPU 100 and the signal input 104 (# 23).
1).

【0132】姿勢検知手段は信号入力回路104を介し
て姿勢検知スイッチSW−ANG1、SW−ANG2で
あるところの水銀スイッチ27,28の出力信号を処理
して、カメラが横位置であるか縦位置であるか、また縦
位置である場合はレリーズ釦41が天方向にあるか地方
向にあるかを判断する。
The attitude detecting means processes the output signals of the mercury switches 27 and 28, which are the attitude detecting switches SW-ANG1 and SW-ANG2, via the signal input circuit 104, and the camera is in the horizontal position or the vertical position. If the release button 41 is in the vertical position, it is determined whether the release button 41 is in the top direction or the ground direction.

【0133】カメラの姿勢を検知すると(#331)、
撮影者は照明用IREDを設定する為の情報入力を行
う。撮影者は、自分自身が眼鏡をかけているか、裸眼の
場合はアイポイントが近いか遠いかを入力する。入力
は、スイッチ46を押しながら電子ダイヤル45を回転
させることによって行われる。
When the posture of the camera is detected (# 331),
The photographer inputs information for setting the illumination IRED. The photographer inputs whether he / she wears glasses, or the eye point is near or far in the case of naked eyes. The input is performed by rotating the electronic dial 45 while pressing the switch 46.

【0134】撮影者の入力情報に基づいて設定された照
明手段の照明形態は記憶手段であるEEPROM100
aに記憶される(#332)。EEPROM100aに
記憶される照明形態のフラグ(IREDh,IREDv
1,IREDv2)設定値を示したものが図14であ
る。
The illuminating form of the illuminating means set based on the photographer's input information is the EEPROM 100 which is a storing means.
It is stored in a (# 332). Illumination form flags (IREDh, IREDv) stored in the EEPROM 100a
1, IREDv2) set values are shown in FIG.

【0135】カメラの姿勢に応じて撮影者の眼15を照
明する為のIREDを設定すると(#332)、スイッ
チSW1の状態の確認を行い、スイッチSW1がレリー
ズ釦41によって押されていてON状態であれば、スイ
ッチがOFF状態になるまで待機する(#333)。
When the IRED for illuminating the eye 15 of the photographer is set according to the posture of the camera (# 332), the state of the switch SW1 is confirmed, and the switch SW1 is pressed by the release button 41 to be in the ON state. If so, it waits until the switch is turned off (# 333).

【0136】CPU100は信号入力回路104を介し
てスイッチSW1がOFF状態であることを確認すると
(#333)、視線検出回数nを「0」に設定するとと
もに注視点算出に用いる変数をリセットする。
When the CPU 100 confirms via the signal input circuit 104 that the switch SW1 is in the OFF state (# 333), it sets the line-of-sight detection number n to "0" and resets the variable used for gazing point calculation.

【0137】さらに、CPU100はLED駆動回路1
06に信号を送信して注視点のキャリブレーション用視
標1を点滅させる(#334)。
Further, the CPU 100 is the LED drive circuit 1
A signal is transmitted to 06 to blink the calibration target 1 of the gazing point (# 334).

【0138】注視点のキャリブレーションの開始のトリ
ガ信号であるスイッチSW1のON信号が入ってなけれ
ば、カメラは待機する(#335)。点滅を開始した視
標を撮影者が注視しスイッチSW1がONされたら(#
335)、CPU100はLED駆動回路106に信号
を送信してキャリブレーション用視標1を点灯させる
(#336)。
If the ON signal of the switch SW1 which is the trigger signal for starting the calibration of the gazing point is not inputted, the camera stands by (# 335). When the photographer gazes at the target that has started blinking and the switch SW1 is turned on (#
335), the CPU 100 sends a signal to the LED drive circuit 106 to turn on the calibration target 1 (# 336).

【0139】引続き視線検出手段によって撮影者の眼1
5の視線(眼球の回転角)の検出を行う(#339)。
このとき検出されるのは眼球の回転角(θx,θy)及
び瞳孔径Rpである。
Subsequently, the eyes 1 of the photographer are detected by the visual axis detecting means.
The line of sight of 5 (the angle of rotation of the eyeball) is detected (# 339).
At this time, the rotation angles (θx, θy) of the eyeball and the pupil diameter Rp are detected.

【0140】視標1を撮影者が注視しているとき眼球の
回転角を検出すると、視線検出回数nに「1」を加算す
る(#340)。本実施例において、1つの視標に対す
る視線検出回数は10回に設定されているため、視線検
出回数nが「10」より小さいならば(#341)、視
標1に対する視標検出を続行する(#339)。また、
視線検出回数nが「10」に達すると(#341)、視
標1に対する視線検出を終了する。CPU100は、視
標1に対する視標検出が終了したことを撮影者に認識さ
せるために、図示されていない発音体を用いて電子音を
数回鳴らす。同時にCPU100は、LED駆動回路1
06を介して視標1を消灯させる(#342)。
When the angle of rotation of the eyeball is detected while the photographer is gazing at the visual target 1, "1" is added to the number of gaze detections n (# 340). In the present embodiment, the number of visual axis detections for one visual target is set to 10. Therefore, if the visual line detection number n is smaller than "10"(# 341), the visual target detection for the visual target 1 is continued. (# 339). Also,
When the line-of-sight detection number n reaches “10” (# 341), the line-of-sight detection for the visual target 1 ends. The CPU 100 emits an electronic sound several times using a sounding body (not shown) in order to let the photographer recognize that the target detection for the target 1 has been completed. At the same time, the CPU 100 controls the LED drive circuit 1
The optotype 1 is turned off via 06 (# 342).

【0141】さらにCPU100は、検出された10組
の眼球回転角(θx,θy)、瞳孔径Rpのデータ処理
を行う(#343)。これは撮影者が視標を注視してい
るとき、本人の意志に反して視線が動いたときに検出し
たデータを除外する為の処理である。CPU100は検
出データの平均値に対して偏差の大きいデータを除外し
て、残ったデータの平均値を算出する。
Further, the CPU 100 performs data processing of the detected 10 sets of eyeball rotation angles (θx, θy) and pupil diameter Rp (# 343). This is a process for excluding data detected when the photographer is gazing at the target and the line of sight moves against the will of the person. The CPU 100 excludes data having a large deviation from the average value of the detected data and calculates the average value of the remaining data.

【0142】更にCPU100は、データ処理された後
のデータが有効であるかどうかの判定を行う(#34
4)。この判定は、10組の検出データのうち有効であ
ったデータの数及びその平均値を基準値と比較して行わ
れる。例えば、有効なデータ数が「5」以下であった
り、その平均値が所定の範囲を超えていた場合は、第1
の視標に対するキャリブレーションデータを取得するの
に失敗したと判定して(#344)、CPU100は図
示されていない発音体を用いて電子音を所定時間鳴ら
し、さらにLCD駆動回路105に信号を送信してファ
インダ内LCD24及びモニター用LCD42において
「CAL」表示を点滅させて撮影者に警告する(#36
1)。
Further, the CPU 100 determines whether or not the data after the data processing is valid (# 34).
4). This determination is performed by comparing the number of valid data among the 10 sets of detection data and the average value thereof with the reference value. For example, if the number of valid data is “5” or less, or if the average value exceeds the predetermined range, the first
It is determined that acquisition of the calibration data for the target is failed (# 344), the CPU 100 sounds an electronic sound for a predetermined time using a sounding body (not shown), and further transmits a signal to the LCD drive circuit 105. Then, the "CAL" display is blinked on the LCD 24 in the viewfinder and the LCD 42 for monitor to warn the photographer (# 36).
1).

【0143】一方、有効なデータ数が「5」より多く、
かつ、その平均値が所定の範囲内であった場合は、デー
タ処理後のデータは有効であると判定して(#34
4)、CPU100は処理データをEEPROM100
aの所定のアドレス上に記憶する(#345)。このと
き、照明手段の照明形態のフラグの設定値も記憶手段で
あるEEPRPM100aに記憶する。
On the other hand, the number of valid data is more than "5",
If the average value is within the predetermined range, it is determined that the data after data processing is valid (# 34
4), the CPU 100 stores the processed data in the EEPROM 100
It is stored on a predetermined address of a (# 345). At this time, the setting value of the flag of the illumination form of the illumination means is also stored in the EEPRPM 100a which is the storage means.

【0144】第1の視標に対する注視点のキャリブレー
ションデータと照明形態のメモリが終了すると(#34
5)、CPU100はスイッチSW1の状態の確認を行
い、スイッチSW1がレリーズ釦41によって押されて
いてON状態であればスイッチSW1がOFF状態にな
るまで待機する(#346)。
When the calibration data of the gazing point for the first optotype and the memory of the illumination form are completed (# 34
5), the CPU 100 confirms the state of the switch SW1, and if the switch SW1 is pressed by the release button 41 and is in the ON state, waits until the switch SW1 is in the OFF state (# 346).

【0145】CPU100は、信号入力回路104を介
してスイッチSW1がOFF状態であることを確認する
と(#346)、LED駆動回路106に信号を送信し
て注視点のキャリブレーション用視標2を点滅させる
(#347)。注視点のキャリブレーション用視標は測
距点マークを兼用したマーク200,204で、第1の
視標として使用されなかった方のマークが使用される。
When the CPU 100 confirms that the switch SW1 is in the OFF state via the signal input circuit 104 (# 346), it sends a signal to the LED drive circuit 106 to blink the calibration target 2 of the gazing point. (# 347). The target for calibration of the gazing point is the marks 200 and 204 which also serve as the focus detection marks, and the mark which is not used as the first target is used.

【0146】さらにCPU100は、第2の視標に対す
る注視点のキャリブレーションの開始のトリガ信号であ
るスイッチSWがONされているかどうかの確認を信号
入力回路104を介して行う(#348)。スイッチS
W1のON信号が入ってなければカメラは待機する(#
348)。点滅を開始した視標を撮影者が注視しレリー
ズ釦41を押してスイッチSW1をONしたら(#34
8)、CPU100はLED駆動回路106に信号を送
信してキャリブレーション用視標2を点灯させる(#3
49)。さらに、視線検出手段によって視線(眼球の回
転角)検出が行われる(#350)。このとき検出され
るのは眼球の回転角(θx,θy)及び瞳孔径Rpであ
る。
Further, the CPU 100 confirms via the signal input circuit 104 whether or not the switch SW, which is the trigger signal for starting the calibration of the gazing point for the second visual target, is turned on (# 348). Switch S
If there is no W1 ON signal, the camera will wait (#
348). When the photographer gazes at the target that has started blinking, presses the release button 41 and turns on the switch SW1 (# 34
8), the CPU 100 sends a signal to the LED drive circuit 106 to turn on the calibration target 2 (# 3).
49). Further, the line-of-sight detection means detects the line of sight (angle of rotation of the eyeball) (# 350). At this time, the rotation angles (θx, θy) of the eyeball and the pupil diameter Rp are detected.

【0147】視標2を撮影者が注視しているときの眼球
の回転角が検出されると、視線検出回数nに「1」を加
算する(#351)。本実施例において、1つの視標に
対する視線検出回数は10回に設定されているため、視
線検出回数nが「20」より小さいならば(#35
2)、視標2に対する視線検出を続行する(#35
0)。また、視線検出回数nが「20」に達すると(#
352)、視標2に対する視線検出を終了する。CPU
100は、視標2に対する視線検出が終了したことを撮
影者に認識させるため、図示されていない発音体を用い
て電子音を数回鳴らす。同時にCPU100は、LED
駆動回路106を介して視標2を消灯させる(#35
3)。
When the rotation angle of the eyeball when the photographer is gazing at the target 2 is detected, "1" is added to the number of gaze detections n (# 351). In the present embodiment, the number of sight line detections for one visual target is set to 10, so if the number of sight line detections n is smaller than "20"(# 35).
2), the visual axis detection for the visual target 2 is continued (# 35).
0). Further, when the number of gaze detections n reaches “20” (#
352) and the line-of-sight detection for the visual target 2 ends. CPU
In order to let the photographer recognize that the sight line detection for the visual target 2 has been completed, 100 emits an electronic sound several times using a sounding body (not shown). At the same time, the CPU 100 is
The optotype 2 is turned off via the drive circuit 106 (# 35).
3).

【0148】さらにCPU100は、検出された10組
の眼球回転角(θx,θy)、瞳孔Rpのデータ処理を
行う(#354)。CPU100は検出データの平均値
に対して偏差の大きいデータを除外して、残ったデータ
の平均値を算出する。さらにCPU100は、データ処
理された後のデータが有効であるかどうかの判定を行う
(#355)。この判定は、10組の検出データのない
有効であったデータの数及びその平均値を基準値と比較
して行われる。例えば、有効なデータ数が「5」以下で
あったり、その平均値が所定の範囲を超えていた場合
は、第2の視標に対するキャリブレーションデータを取
得するのに失敗したと判定して(#355)、CPU1
00は図示されていない発音体を用いて電子音を所定時
間鳴らし、さらにLCD駆動回路105に信号を送信し
てファインダ内LCD24及びモニタ用LCD42にお
いて「CAL」表示を点滅させて撮影者に警告する(#
261)。このとき視標1に対するキャリブレーション
データが記憶されていれば、それらのデータはリセット
される。
Further, the CPU 100 carries out data processing of the 10 sets of detected eyeball rotation angles (θx, θy) and pupil Rp (# 354). The CPU 100 excludes data having a large deviation from the average value of the detected data and calculates the average value of the remaining data. Further, the CPU 100 determines whether the data after the data processing is valid (# 355). This determination is made by comparing the number of valid data without 10 sets of detected data and the average value thereof with a reference value. For example, if the number of valid data is less than or equal to “5” or the average value exceeds the predetermined range, it is determined that acquisition of the calibration data for the second visual target has failed ( # 355), CPU1
Reference numeral 00 indicates an electronic sound for a predetermined time by using a sounding body (not shown), and further transmits a signal to the LCD driving circuit 105 to blink the "CAL" display on the LCD 24 in the finder and the monitor LCD 42 to warn the photographer. (#
261). At this time, if the calibration data for the optotype 1 is stored, those data are reset.

【0149】一方、有効なデータ数が「5」より多く、
かつ、その平均値が所定の範囲内であった場合は、デー
タ処理後のデータは有効であると判定して(#32
5)、CPU100は処理データ及びキャリブレーショ
ン回数をEEPROM100aの所定のアドレス上に加
算して記憶する(#356)。
On the other hand, the number of valid data is more than "5",
If the average value is within the predetermined range, it is determined that the data after data processing is valid (# 32
5), the CPU 100 adds the processed data and the number of calibrations to a predetermined address of the EEPROM 100a and stores it (# 356).

【0150】第2の視標に対するキャリブレーションデ
ータ及びキャリブレーション回数のメモリが終了すると
(#356)、CPU100はLCD駆動回路105,
LED駆動回路106を介して注視点のキャリブレーシ
ョン終了表示を行う(#357)。LED駆動回路10
6はスーパーインポーズ用LED21に通電して視標
1,視標2を数回点滅させ、LCD駆動回路105はL
CD24,42に信号を送信して「END」の表示を所
定時間実行するようになっている。
When the memory of the calibration data and the number of calibrations for the second visual target is completed (# 356), the CPU 100 causes the LCD drive circuit 105,
Calibration completion display of the gazing point is performed via the LED drive circuit 106 (# 357). LED drive circuit 10
6 energizes the superimposing LED 21 to blink the visual target 1 and the visual target 2 several times, and the LCD drive circuit 105 becomes L.
A signal is transmitted to the CDs 24 and 42 to display "END" for a predetermined time.

【0151】一連の注視点のキャリブレーション終了
後、カメラは撮影者によって電子ダイヤル45かモード
ダイヤル44が操作されるまで待機する。撮影者が電子
ダイヤル45を回転させて他のキャリブレーションナン
バーを選択したならば、CPU100は信号入力回路1
04を介してキャリブレーションナンバーの変更を検知
して(#358)、注視点のキャリブレーションルーチ
ンの初期ステップ(#326)に移行する。
After the series of calibration of the gazing point, the camera waits until the photographer operates the electronic dial 45 or the mode dial 44. If the photographer rotates the electronic dial 45 to select another calibration number, the CPU 100 determines that the signal input circuit 1
A change in the calibration number is detected via 04 (# 358), and the process proceeds to the initial step (# 326) of the gazing point calibration routine.

【0152】また、撮影者が連続して注視点のキャリブ
レーションを行おうとしてスイッチSW1をONした
ら、CPU100は信号入力回路104を介してスイッ
チSW1のON信号を検知して(#359)、注視点キ
ャリブレーションブレーションの開始ステップ(#33
4)に移行する。
When the photographer continuously turns on the switch SW1 to calibrate the gazing point, the CPU 100 detects the ON signal of the switch SW1 via the signal input circuit 104 (# 359), and View Calibration Calibration Start Step (# 33
Go to 4).

【0153】また、撮影者がモードダイヤル44を回転
させて他の撮影モードを選択したならば、CPU100
は信号入力回路104を介して撮影モードの変更を検知
して(#360)メインのルーチンに復帰する(#36
2)。
If the photographer rotates the mode dial 44 to select another photographing mode, the CPU 100
Detects a change of the photographing mode via the signal input circuit 104 (# 360) and returns to the main routine (# 36).
2).

【0154】図6に戻って、視線に関する個人情報の検
出が終了すると(#325)、カメラはレリーズ釦41
が押込まれてスイッチSW1がONされるまで待機する
(#204)。また、モードダイヤル44が注視点キャ
リブレーションモードに設定されておらず(#20
2)、電源ロックモードにも設定されていれば(#20
3)、カメラの電源はOFFされる(#226)。
Returning to FIG. 6, when the detection of the personal information regarding the line of sight is completed (# 325), the camera releases the release button 41.
It waits until is pressed and the switch SW1 is turned on (# 204). Also, the mode dial 44 is not set to the gazing point calibration mode (# 20
2) If the power lock mode is also set (# 20
3), the power of the camera is turned off (# 226).

【0155】一方、モードダイヤル44が通常の撮影モ
ードに設定されていれば、カメラはレリーズ釦41が押
込まれてスイッチSW1がONされるまで待機する(#
204)。
On the other hand, if the mode dial 44 is set to the normal photographing mode, the camera waits until the release button 41 is pressed and the switch SW1 is turned on (#
204).

【0156】レリーズ釦41が押込まれスイッチSW1
がONされたことを信号入力回路104が検知すると
(#204)、姿勢検知手段によってカメラの姿勢がど
の状態になっているかを検知する(#205)。姿勢検
知手段は、CPU100,信号入力回路104から構成
され、CPU100は信号入力回路104を介して送信
されてくる姿勢検知スイッチSW−ANG1,SW−A
NG2の信号を分析してカメラの姿勢が横位置か、ある
いは縦位置か判断する。
The release button 41 is pressed and the switch SW1
When the signal input circuit 104 detects that the is turned on (# 204), the posture detecting means detects which state the camera is in (# 205). The attitude detecting means includes a CPU 100 and a signal input circuit 104, and the CPU 100 transmits the attitude detecting switches SW-ANG1 and SW-A via the signal input circuit 104.
The signal of NG2 is analyzed to determine whether the camera is in the horizontal position or the vertical position.

【0157】さらにCPU100は、視線検出を行う際
にどのキャリブレーションデータを使用するかをEEP
ROM100aにて確認する(#206)。この時確認
されたキャリブレーションデータナンバーが視線禁止モ
ードの「0」に設定されていれば(#207)、視線検
出動作は行われずに直ちに各測距点に対する焦点検出を
実行する(#213)。
Further, the CPU 100 determines which calibration data is to be used when detecting the line of sight.
Confirm in the ROM 100a (# 206). If the calibration data number confirmed at this time is set to "0" in the line-of-sight prohibition mode (# 207), the line-of-sight detection operation is not performed and focus detection is immediately executed for each focus detection point (# 213). .

【0158】一方、前記キャリブレーションデータナン
バーが「0」でない所定の値に設定されていれば(#2
07)、CPU100は撮影者の眼15を照明するIR
EDを設定する(#208)。
On the other hand, if the calibration data number is set to a predetermined value other than "0"(# 2
07), the CPU 100 irradiates the photographer's eyes 15 with IR
The ED is set (# 208).

【0159】照明用IREDの設定のフローチャートを
図13に示す。
FIG. 13 shows a flowchart for setting the illumination IRED.

【0160】同図において、CPU100は姿勢検出手
段にて検知されたカメラの現姿勢に対応したキャリブレ
ーションが実行されているかどうかを確認する(#37
0)。この確認は、記憶手段であるEEPROM100
aの所定のアドレスに記憶されているキャリブレーショ
ン回数(図14におけるIREDh,IREDv1,I
REDv2)を読出すことによりなされる。カメラの現
姿勢でのキャリブレーションが実行されていれば(#3
70)、その姿勢に対応した照明形態を設定する(#3
71)。
In the figure, the CPU 100 confirms whether or not the calibration corresponding to the current posture of the camera detected by the posture detecting means is executed (# 37).
0). This confirmation is made by the EEPROM 100 which is a storage means.
The number of calibrations stored in a predetermined address of a (IREDh, IREDv1, I in FIG. 14)
This is done by reading REDv2). If the calibration in the current posture of the camera has been executed (# 3
70), and set the illumination form corresponding to the posture (# 3)
71).

【0161】つまり、図7(A)に示すようにカメラの
姿勢が横位置の場合に、照明形態のフラグIREDhが
“0”に設定されていれば、裸眼撮影者用のIRED1
3a,13bを小さい発光量で発光するように設定す
る。また、照明形態のフラグIREDhが“2”に設定
されていれば、裸眼撮影者用のIRED13a,13b
を大きい発光量で発光するように設定する。一方、照明
形態のフラグIREDhが“1”に設定されていれば、
眼鏡装着者用のIRED13c,13dを設定する。
In other words, as shown in FIG. 7A, when the posture of the camera is in the lateral position and the illumination mode flag IREDh is set to "0", the IRED1 for the naked eye photographer.
3a and 13b are set to emit a small amount of light. Further, if the illumination form flag IREDh is set to "2", the IREDs 13a and 13b for naked-eye photographers are provided.
Is set to emit a large amount of light. On the other hand, if the illumination type flag IREDh is set to “1”,
Set IREDs 13c and 13d for eyeglass wearers.

【0162】また、図7(B)に示すようにカメラの姿
勢がレリーズ釦41が天方向にある第1の縦位置の場合
に、照明形態のフラグIREDv1が“0”に設定され
ていれば、裸眼撮影者用のIRED13a,13eが小
さい発光量で発光するように設定する。また、照明形態
のフラグIREDv1が“2”に設定されていれば、裸
眼撮影者用のIRED13a,13eが大きい発光量で
発光するように設定する。一方、照明形態のフラグIR
EDv1が“1”に設定されていれば、眼鏡装着者用の
IRED13c,13gを設定する。
As shown in FIG. 7B, when the camera is in the first vertical position where the release button 41 is in the top direction, and the illumination mode flag IREDv1 is set to "0". The IREDs 13a and 13e for the naked eye photographer are set to emit light with a small light emission amount. If the illumination mode flag IREDv1 is set to "2", the IREDs 13a and 13e for the naked eye photographer are set to emit a large amount of light. On the other hand, the illumination type flag IR
If EDv1 is set to "1", IREDs 13c and 13g for eyeglass wearers are set.

【0163】さらに、図7(C)に示すようにカメラの
姿勢がレリーズ釦41が地方向にある第2の縦位置の場
合は、照明形態のフラグIREDv2が“0”に設定さ
れていれば、裸眼撮影者用のIRED13b,13fが
小さい発光量で発光するように設定する。また、照明形
態のフラグIREDv2が“2”に設定されていれば、
裸眼撮影者用のIRED13b,13fが大きい発光量
で発光するように設定する。一方、照明形態のフラグI
REDv2が“1”に設定されていれば、眼鏡装着者用
のIRED13d,13hを設定する。
Further, as shown in FIG. 7C, when the camera is in the second vertical position where the release button 41 is in the ground direction, if the illumination mode flag IREDv2 is set to "0". The IREDs 13b and 13f for the naked eye photographer are set to emit light with a small light emission amount. If the illumination type flag IREDv2 is set to “2”,
The IREDs 13b and 13f for the naked eye photographer are set to emit a large amount of light. On the other hand, the illumination form flag I
If REDv2 is set to "1", IREDs 13d and 13h for eyeglass wearers are set.

【0164】このように、カメラの姿勢毎に裸眼撮影者
用の発光量の小さいIREDと発光量の大きいIRED
と、眼鏡装着者用の発光量の大きいIREDを設定可能
なため、カメラの姿勢によってファインダを覗く撮影者
のアイポイントが変化しても、視線検出手段において良
好な眼球像が得られる。
As described above, the IRED with a small light emission amount and the IRED with a large light emission amount for the naked-eye photographer for each camera posture.
Since it is possible to set an IRED having a large light emission amount for the eyeglass wearer, a good eyeball image can be obtained by the line-of-sight detection means even if the eyepoint of the photographer looking into the finder changes depending on the posture of the camera.

【0165】一方、カメラの現姿勢でのキャリブレーシ
ョンが実行されていなければ(#370)、他の2つの
姿勢での照明形態の比較を行う。この際、他の2つの姿
勢での照明形態が一致しているか、他の2姿勢のうち1
つの姿勢しか照明形態が記憶されていなければ(#37
2)、その一致している照明形態が記憶されている照明
形態に設定する(#373)。また、他の2つの姿勢で
の照明形態が一致していなければ(#372)、近距離
撮影者用のIRED(裸眼撮影者用のIREDで発光量
は小さい設定)に設定する(#374)。
On the other hand, if the calibration in the current posture of the camera is not executed (# 370), the illumination forms in the other two postures are compared. At this time, whether the illumination forms in the other two postures match or one of the other two postures
If the illumination form is stored in only one posture (# 37
2), the matching illumination form is set to the stored illumination form (# 373). If the illumination forms in the other two postures do not match (# 372), the IRED is set for the close-up photographer (the IRED for the naked-eye photographer and the light emission amount is set small) (# 374). .

【0166】再び図6に戻って、カメラの姿勢に対応し
た照明用IREDが設定されると(#208)、CPU
100はファインダの被写体を注視している撮影者の視
線の検出を実行する(#209)。実際には、視線検出
手段によって撮影者の眼球の回転角が検出される。眼球
の回転角が算出されると、撮影者の視線に関する個人情
報を用いて撮影者のファインダ内の注視点を算出する
(#210)。
Returning to FIG. 6 again, when the illumination IRED corresponding to the attitude of the camera is set (# 208), the CPU
100 detects the line of sight of the photographer who is gazing at the subject in the finder (# 209). In reality, the line-of-sight detection means detects the rotation angle of the eyeball of the photographer. When the rotation angle of the eyeball is calculated, the gazing point in the viewfinder of the photographer is calculated using the personal information about the line of sight of the photographer (# 210).

【0167】撮影者が注視しているファインダ内注視点
を算出すると(#210)、その注視点座標から焦点検
出を行う測距点を選択する(#211)。測距点は注視
点座標から最も近い測距点が選択される。さらに、CP
U100は、選択された測距点をファインダ内に表示す
る。
When the gazing point in the viewfinder which the photographer is gazing is calculated (# 210), the focus detection point for focus detection is selected from the gazing point coordinates (# 211). The closest distance measuring point is selected from the gazing point coordinates. Furthermore, CP
U100 displays the selected focus detection point in the viewfinder.

【0168】撮影者がファインダ内にスーパーインポー
ズ表示された測距点を見て、その測距点が撮影者の意図
したものと異なることを認識してレリーズ釦41から手
を離してスイッチSW1をOFFすると(#212)、
CPU100は再度モード確認を行って(#201)、
通常の撮影モードであればスイッチSW1がONされる
まで待機する(#204)。
When the photographer looks at the focus detection point displayed in the viewfinder in a superimposed manner and recognizes that the focus detection point is different from what the photographer intended, the user releases the release button 41 and switches SW1. When turned off (# 212),
The CPU 100 checks the mode again (# 201),
In the normal shooting mode, the process waits until the switch SW1 is turned on (# 204).

【0169】また、撮影者が視線によって選択された測
距点がスーパーインポーズ表示されたのを見て引続きス
イッチSW1をONし続けたならば(#212)、自動
焦点検出回路103は視線情報より選択された測距点の
焦点検出を実行する(#213)。
If the photographer continues to turn on the switch SW1 after seeing that the distance measuring point selected by the line of sight is superimposed (# 212), the automatic focus detection circuit 103 causes the line of sight information. The focus detection of the selected focus detection point is executed (# 213).

【0170】焦点検出が行われると(#213)、実際
に撮影レンズ1の焦点調節を行う測距点が決定される
(#214)。
When focus detection is performed (# 213), the focus detection point for actually adjusting the focus of the taking lens 1 is determined (# 214).

【0171】視線情報によって決定された測距点が測距
不能である場合は(#215)、CPU100はLCD
駆動回路105に信号を送ってファインダ内LCD24
の合焦マーク50を点滅させ、測距がNG(不能)であ
ることを撮影者に警告し(#223)、該警告表示はス
イッチSW1が離されるまで続けられる(#224)。
If the distance measuring point determined by the line-of-sight information cannot be measured (# 215), the CPU 100 causes the LCD
LCD 24 in the finder by sending a signal to the drive circuit 105
The in-focus mark 50 is flashed to warn the photographer that the distance measurement is NG (disabled) (# 223), and the warning display is continued until the switch SW1 is released (# 224).

【0172】決定された測距点が測距可能であり(#2
15)、該測距点に対応する撮影レンズ1の焦点調節状
態が合焦していなければ(#216)、CPU100は
レンズ焦点調節回路110に信号を送って撮影レンズ1
の合焦レンズ1aを所定量駆動させる(#322)。レ
ンズ駆動後に自動焦点検出回路103は決定されている
1つの測距点について再度焦点検出を行い(#21
3)、撮影レンズ1が合焦しているか否かの判定を行う
(#216)。撮影レンズが合焦していたならば(#2
16)、CPU100はLCD駆動回路105に信号を
送ってファインダ内LCD24の合焦マーク50を点灯
させると共に、LED駆動回路106にも信号を送って
合焦している測距点に合焦表示させる(#217)。
The determined distance measuring point can measure the distance (# 2
15) If the focus adjustment state of the taking lens 1 corresponding to the focus detection point is out of focus (# 216), the CPU 100 sends a signal to the lens focusing circuit 110 to take the taking lens 1
The focusing lens 1a is driven by a predetermined amount (# 322). After the lens is driven, the automatic focus detection circuit 103 performs focus detection again for one determined focus detection point (# 21
3), it is determined whether or not the taking lens 1 is in focus (# 216). If the shooting lens is in focus (# 2
16), the CPU 100 sends a signal to the LCD drive circuit 105 to turn on the focusing mark 50 of the LCD 24 in the finder, and also sends a signal to the LED drive circuit 106 to display an in-focus state at the focus detection point. (# 217).

【0173】このとき、前記視線によって選択された測
距点の点滅表示は消灯し、合焦したことを撮影者に認識
させるための合焦測距点が点灯状態に設定される。合焦
した測距点がファインダ内に表示されたのを撮影者が見
て、その測距点が正しくないと認識してレリーズ釦41
から手を離してスイッチSW1をOFFすると(#21
8)、CPU100は再度モード確認を行って(#20
1)、通常の撮影モードであればスイッチSW1がON
されるまで待機する(#204)。
At this time, the blinking display of the focus detection point selected by the line of sight is turned off, and the focus detection point for making the photographer recognize that the focus is achieved is set to the lit state. The photographer sees that the focusing point is displayed in the viewfinder, recognizes that the focusing point is not correct, and releases the release button 41.
Remove your hand from and turn off the switch SW1 (# 21
8) The CPU 100 checks the mode again (# 20
1), switch SW1 is ON in normal shooting mode
Wait until it is done (# 204).

【0174】また、撮影者が合焦表示された測距点を見
て、引続きSW1をONし続けたならば(#218)、
CPU100は測光回路102に信号を送信して測光を
行わせる(#219)。このとき合焦した測距点を含む
測光領域210〜213に重み付けを行った露光値が演
算される。
Further, if the photographer looks at the focusing point displayed in focus and continues to turn on SW1 (# 218),
The CPU 100 sends a signal to the photometry circuit 102 to perform photometry (# 219). At this time, the exposure value is calculated by weighting the photometric areas 210 to 213 including the in-focus distance measuring points.

【0175】さらに、レリーズ釦41が押込まれてスイ
ッチSW2がONされているかどうかの判定を行い(#
220)、スイッチSW2がOFF状態であれば、再び
スイッチSW1の状態の確認を行う(#218)。スイ
ッチSW2がONされたならばCPU100は、シャッ
タ制御回路108,モータ制御回路109,絞り駆動回
路111にそれぞれ信号を送信する。
Further, it is determined whether or not the release button 41 is pushed and the switch SW2 is turned on (#
220), if the switch SW2 is in the OFF state, the state of the switch SW1 is checked again (# 218). When the switch SW2 is turned on, the CPU 100 sends signals to the shutter control circuit 108, the motor control circuit 109, and the diaphragm drive circuit 111, respectively.

【0176】カメラのシャッタレリーズ動作が終了する
と(#220)、CPU100は再度モード確認を行っ
て(#201)、通常の撮影モードであればスイッチS
W1がONされるまで待機する(#204)。
When the shutter release operation of the camera is completed (# 220), the CPU 100 checks the mode again (# 201), and if it is the normal photographing mode, the switch S is pressed.
It waits until W1 is turned on (# 204).

【0177】ここで、本実施例の各構成と本発明の各構
成の対応関係は既に述べた通りであるが、本発明は、こ
れら実施例の構成に限定されるものではなく、請求項で
示した機能、又は実施例がもつ機能が達成できる構成で
あればどのようなものであってもよいことは言うまでも
ない。
Here, the correspondence relationship between each configuration of the present embodiment and each configuration of the present invention is as described above, but the present invention is not limited to the configurations of these embodiments, and is claimed. It goes without saying that any structure may be used as long as it can achieve the functions shown or the functions of the embodiments.

【0178】(変形例)本発明は、一眼レフカメラに適
用した例を述べているが、レンズシャッタカメラ,ビデ
オカメラ,スチルビデオカメラ等のカメラにも適用であ
る。更に、カメラに限定されるものではなく、視線検出
機能を持ち、使用者によって用いられる姿勢が変更可能
な観察装置であれば、同様に適用することができるもの
である。
(Modification) The present invention is described as applied to a single-lens reflex camera, but is also applicable to cameras such as lens shutter cameras, video cameras, and still video cameras. Further, the present invention is not limited to the camera, and can be similarly applied to any observation device having a visual line detection function and capable of changing the posture used by the user.

【0179】更に、本発明は、以上の各実施例、又はそ
れらの技術を適当に組み合わせた構成にしてもよい。
Furthermore, the present invention may be constructed by appropriately combining the above-described embodiments or their techniques.

【0180】[0180]

【発明の効果】以上説明したように、本発明によれば、
視線検出手段内に、該装置の姿勢毎に複数の照明形態を
有する照明手段と、該装置の姿勢毎の照明形態を記憶す
る記憶手段、姿勢検知手段にて検知される姿勢情報と前
記記憶手段に記憶された情報とに基づいて前記照明手段
の照明形態を設定する照明設定手段とを具備し、該装置
を構える姿勢に対応して記憶された照明形態情報と姿勢
検知手段によって検知される現在の姿勢情報とに基づい
て、照明手段の照明形態を設定、つまり例えば、光源の
発光量を異ならせたり、光源の位置及び光量を異ならせ
たりするようにしている。
As described above, according to the present invention,
Illumination means having a plurality of illumination forms for each posture of the device, storage means for storing illumination forms for each posture of the device, posture information detected by the posture detection means, and the storage means A lighting setting means for setting a lighting form of the lighting means based on the information stored in the lighting means, the lighting form information stored corresponding to the posture of holding the device, and the current state detected by the posture detecting means. On the basis of the posture information, the illumination mode of the illumination means is set, that is, the light emission amount of the light source is made different, or the position and the light amount of the light source are made different.

【0181】よって、観察装置を構える姿勢によって観
察者の眼と接眼部との距離が変化しても、精度の高い視
線検出を行うことができる。
Therefore, even if the distance between the observer's eye and the eyepiece portion changes depending on the posture of the observer, the eye gaze can be detected with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を一眼レフカメラに適用
した場合の概略を示す機構図である。
FIG. 1 is a mechanism diagram showing an outline when a first embodiment of the present invention is applied to a single-lens reflex camera.

【図2】図1のカメラの上面及び背面を示す外観図であ
る。
FIG. 2 is an external view showing a top surface and a back surface of the camera of FIG.

【図3】図1のカメラのファインダ内を示す図である。3 is a diagram showing the inside of a viewfinder of the camera of FIG. 1. FIG.

【図4】図2のモードダイヤルを示す平面図である。FIG. 4 is a plan view showing the mode dial of FIG.

【図5】図1のカメラの要部構成を示すブロック図であ
る。
5 is a block diagram showing a main configuration of the camera of FIG. 1. FIG.

【図6】図1のカメラのメイン動作を示すフローチャー
トである。
FIG. 6 is a flowchart showing a main operation of the camera of FIG.

【図7】本発明の第1の実施例においてカメラの姿勢と
設定される照明用IREDとの関係について説明する為
の図である。
FIG. 7 is a diagram for explaining the relationship between the attitude of the camera and the set illumination IRED in the first embodiment of the present invention.

【図8】図6のキャリブレーション時の動作を示すフロ
ーチャートである。
FIG. 8 is a flowchart showing an operation at the time of calibration in FIG.

【図9】図8の照明用IRED設定時の動作を示すフロ
ーチャートである。
9 is a flowchart showing an operation when setting the illumination IRED of FIG.

【図10】本発明の第1の実施例においてキャリブレー
ション時に用いられるデータ及びカメラの姿勢と照明形
態フラグとの関係を示す図である。
FIG. 10 is a diagram showing a relationship between data used in calibration and a camera attitude and an illumination form flag in the first embodiment of the present invention.

【図11】本発明の第2の実施例を一眼レフカメラに適
用した場合の主要部の構成を示す回路図である。
FIG. 11 is a circuit diagram showing a configuration of a main part when a second embodiment of the present invention is applied to a single-lens reflex camera.

【図12】本発明の第2の実施例におけるキャリブレー
ション時の動作を示すフローチャートである。
FIG. 12 is a flowchart showing an operation at the time of calibration in the second embodiment of the present invention.

【図13】図12の照明用IRED設定時の動作を示す
フローチャートである。
FIG. 13 is a flowchart showing an operation when setting the illumination IRED of FIG.

【図14】本発明の第2の実施例においてカメラの姿勢
と照明形態フラグとの関係を示す図である。
FIG. 14 is a diagram showing a relationship between a camera attitude and an illumination form flag in the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 接眼レンズ 12 受光レンズ 13a〜13h IRED 14 イメージセンサ 27,28 水銀スイッチ 49 スイッチ 100 CPU 100a EEPROM 101 視線検出回路 104 信号入力回路 107 IRED駆動回路 R1〜R3 抵抗 11 eyepiece lens 12 light receiving lens 13a to 13h IRED 14 image sensor 27, 28 mercury switch 49 switch 100 CPU 100a EEPROM 101 line-of-sight detection circuit 104 signal input circuit 107 IRED drive circuit R1 to R3 resistance

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 観察画面を覗く観察者の眼球を照明する
照明手段、前記照明光の観察者の眼球での反射光を受光
する受光手段、記憶手段、及び、該受光手段にて得られ
た眼球像信号を画像処理して観察者の視線を算出する画
像処理手段を有する視線検出手段と、該装置の姿勢を検
知する姿勢検知手段とを備えた視線検出機能付き観察装
置において、前記照明手段はカメラの姿勢毎に複数の照
明形態を有しており、前記記憶手段は該装置の姿勢毎の
照明形態を記憶可能であり、前記視線検出手段は、前記
姿勢検知手段にて検知される姿勢情報と前記記憶手段に
記憶された情報とに基づいて前記照明手段の照明形態を
設定する照明設定手段を具備していることを特徴とする
視線検出機能付き観察装置。
1. An illumination means for illuminating an eyeball of an observer looking into an observation screen, a light receiving means for receiving reflected light of the illumination light on the eyeball of the observer, a storage means, and the light receiving means. In the observation device with a line-of-sight detection function, the line-of-sight detection unit has an image processing unit for image-processing an eyeball image signal to calculate the line of sight of an observer, and a posture detection unit for detecting the posture of the device. Has a plurality of illumination forms for each posture of the camera, the storage means can store the illumination form for each posture of the device, and the line-of-sight detection means detects the posture detected by the posture detection means. An observation apparatus with a line-of-sight detection function, comprising: an illumination setting unit that sets an illumination form of the illumination unit based on information and information stored in the storage unit.
【請求項2】 前記視線検出手段は、該装置の姿勢毎に
観察者の視線の個人差に関する情報を検出するときに、
観察者に対する最適な照明形態を選び、該照明形態とこ
の時の該装置の姿勢との関係を前記記憶手段に記憶させ
る手段であることを特徴とする請求項1記載の視線検出
機能付き観察装置。
2. The line-of-sight detection means, when detecting information regarding individual differences in line-of-sight of an observer for each posture of the apparatus,
2. An observation apparatus with a line-of-sight detection function according to claim 1, further comprising means for selecting an optimum illumination mode for the observer and storing the relationship between the illumination mode and the posture of the apparatus at this time in the storage means. .
【請求項3】 前記照明設定手段の照明形態の設定と
は、該照明手段を構成する光源の発光量を異ならせる事
であることを特徴とする請求項1又は2記載の視線検出
機能付き観察装置。
3. The observation with a line-of-sight detection function according to claim 1 or 2, wherein the setting of the illumination form of the illumination setting means means that the light emission amount of a light source forming the illumination means is different. apparatus.
【請求項4】 前記照明設定手段の照明形態の設定と
は、該照明手段を構成する光源の位置及び発光量を異な
らせる事であることを特徴とする請求項1又は2記載の
視線検出機能付き観察装置。
4. The line-of-sight detection function according to claim 1, wherein the setting of the illumination mode of the illumination setting means means that the position and the amount of light emission of the light source forming the illumination means are different. Observation device.
【請求項5】 前記照明設定手段は、前記姿勢検知手段
にて検知された姿勢情報に対応する該装置の姿勢での照
明形態が前記記憶手段に記憶されていない場合は、前記
記憶手段に記憶された該装置の他の姿勢の情報に基づい
て前記照明手段の照明形態を設定する手段であることを
特徴とする請求項1,2,3又は4記載の視線検出機能
付き観察装置。
5. The illumination setting means stores the illumination form in the posture of the device corresponding to the posture information detected by the posture detection means in the storage means if the storage form is not stored in the storage means. 5. The observation apparatus with a line-of-sight detection function according to claim 1, 2, 3, or 4, which is means for setting an illumination form of the illumination means based on information of the other posture of the apparatus.
【請求項6】 前記照明設定手段は、前記姿勢検知手段
にて検知された姿勢情報に対応する該装置の姿勢での照
明形態が前記記憶手段に記憶されておらず、前記記憶手
段に記憶された該装置の他の複数の姿勢での照明形態が
異なる場合は、前記照明手段を所定の照明形態に設定す
る手段であることを特徴とする請求項1,2,3又は4
記載の視線検出機能付き観察装置。
6. The illumination setting means does not store in the storage means the illumination form in the posture of the apparatus corresponding to the posture information detected by the posture detection means, but stores it in the storage means. When the illumination form in different postures of the apparatus is different, it is means for setting the illumination means to a predetermined illumination form.
An observation device with the line-of-sight detection function described.
【請求項7】 前記所定の照明形態の設定とは、前記照
明手段を構成する光源の発光量を小さくした照明形態に
することを特徴とする請求項6記載の視線検出機能付き
観察装置。
7. The observation device with a line-of-sight detection function according to claim 6, wherein the setting of the predetermined illumination form is an illumination form in which a light emission amount of a light source forming the illumination means is reduced.
【請求項8】 前記所定の照明形態の設定とは、前記照
明手段を構成するうちの、観察光学系の光軸近くの光源
の発光量を小さくした照明形態にすることを特徴とする
請求項6記載の視線検出機能付き観察装置。
8. The setting of the predetermined illumination form is an illumination form in which the light emission amount of a light source near the optical axis of the observation optical system among the illumination means is reduced. 6. An observation device with a line-of-sight detection function according to item 6.
JP7019972A 1994-03-23 1995-01-13 Observing device with line of sight detecting function Pending JPH08194154A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP7019972A JPH08194154A (en) 1995-01-13 1995-01-13 Observing device with line of sight detecting function
US08/408,281 US5797046A (en) 1994-03-23 1995-03-22 Visual axis controllable optical apparatus including a visual axis detecting device for detecting a visual axis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7019972A JPH08194154A (en) 1995-01-13 1995-01-13 Observing device with line of sight detecting function

Publications (1)

Publication Number Publication Date
JPH08194154A true JPH08194154A (en) 1996-07-30

Family

ID=12014117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7019972A Pending JPH08194154A (en) 1994-03-23 1995-01-13 Observing device with line of sight detecting function

Country Status (1)

Country Link
JP (1) JPH08194154A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182527A (en) * 2011-02-28 2012-09-20 Toshiba Corp Electronic apparatus and indicator control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182527A (en) * 2011-02-28 2012-09-20 Toshiba Corp Electronic apparatus and indicator control method

Similar Documents

Publication Publication Date Title
JP2002345756A (en) Visual line detector and optical equipment
JPH08563A (en) Optical device and camera
JPH05333259A (en) Optical device provided with means for detecting line of sight
JP2004008323A (en) Optical device with visual axis function
JP3304408B2 (en) Gaze detection device and device having gaze detection device
JP2002301030A (en) Equipment to detect sight line
JP2003307774A (en) Optical apparatus with line-of-sight detecting function
JP3184634B2 (en) Optical device having line-of-sight detection device
JP3372646B2 (en) Optical device having line-of-sight detection device
JPH08194154A (en) Observing device with line of sight detecting function
JP3605080B2 (en) Eye gaze detection device
JP3605081B2 (en) Eye gaze detection device
JP2003339642A (en) Visual line detector and optical apparatus having the same
JP3219491B2 (en) Eye gaze detection device
JP3309439B2 (en) Optical device
JP3211427B2 (en) Eye gaze detection device
JP3186249B2 (en) Eye gaze detection device and eye gaze detection method
JP3492324B2 (en) Optical device
JP3530648B2 (en) Eye gaze detecting device and optical device
JPH08191798A (en) Observation device with sight-line detecting function
JP2002341239A (en) Sight line detecting device
JP2002058644A (en) Visual line detector, optical device, and camera
JPH07323008A (en) Line of sight detecting apparatus, camera and method for correcting line of sight
JPH0951873A (en) Line of sight detector and optical device
JPH0688934A (en) Optical device having detecting function for line of sight