JP2023074878A - Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program - Google Patents

Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program Download PDF

Info

Publication number
JP2023074878A
JP2023074878A JP2021188045A JP2021188045A JP2023074878A JP 2023074878 A JP2023074878 A JP 2023074878A JP 2021188045 A JP2021188045 A JP 2021188045A JP 2021188045 A JP2021188045 A JP 2021188045A JP 2023074878 A JP2023074878 A JP 2023074878A
Authority
JP
Japan
Prior art keywords
line
sight
index
display
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021188045A
Other languages
Japanese (ja)
Inventor
雄一 有賀
Yuichi Ariga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021188045A priority Critical patent/JP2023074878A/en
Publication of JP2023074878A publication Critical patent/JP2023074878A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a visual line detecting apparatus, a method of controlling the visual line detecting apparatus, and a program which can display a visual line display index at a precise position of a moving body on a display unit.SOLUTION: A visual line detecting apparatus 5 according to the present invention has a visual line detection circuit 201 for detecting a position of a visual line of a user visually recognizing a moving body, and a display device 10 capable of displaying a visual line position display index 603 for indicating the position of the visual line and a subject 602b. The visual line detecting apparatus 5 has control means for controlling display of the visual line tracking detection index on the display device 10, and correction means for correcting a position of the visual line position display index 603 relative to the subject 602b on the display device 10. The correction means detects a position relation between a position of the visual line and the visual line tracking detection index when the user tracks the visual tracking detection index with the visual line, and, upon display of the visual line position display index 603 and the subject 602b on the display device 10, corrects the position of the visual line position display index 603 based on the positional relation.SELECTED DRAWING: Figure 12

Description

本発明は、視線検出装置、視線検出装置の制御方法およびプログラムに関する。 The present invention relates to a line-of-sight detection device, a line-of-sight detection device control method, and a program.

視線を検出する視線検出装置が従来から知られている(例えば、特許文献1および特許文献2参照)。特許文献1に記載の視線検出装置では、被験者に注視させるための指標を表示装置に複数表示させて、当該複数の指標の相対位置と、各指標を見せたときの眼の角膜反射像の相対位置とに基づいて、被験者の視機能の評価データを出力している。また、特許文献1に記載の視線検出装置では、表示装置上での各指標は静止している。特許文献2に記載の視線検出装置では、表示装置(画像表示装置)に表示される映像(スルー画像)から被写体の顔検出、視線検出を順に行い、その検出結果に基づいて、被写体のカメラ目線を判断している。 A line-of-sight detection device that detects a line of sight is conventionally known (see, for example, Patent Documents 1 and 2). In the line-of-sight detection device described in Patent Document 1, a display device displays a plurality of indicators for the subject to gaze at, and the relative positions of the plurality of indicators and the relative corneal reflection image of the eye when each indicator is shown. Evaluation data of the subject's visual function is output based on the position. Further, in the line-of-sight detection device described in Patent Document 1, each index on the display device is stationary. The line-of-sight detection device described in Patent Document 2 performs face detection and line-of-sight detection in order from an image (through-the-lens image) displayed on a display device (image display device). is judging.

特許第6677156号公報Japanese Patent No. 6677156 特開2010-206523号公報JP 2010-206523 A

視線の位置を示す指標を表示装置に表示する場合、例えば視線検出装置の制御部での処理時間や視線検出対象者の眼の固視微動等の諸条件によって、表示装置上では、指標の位置と、実際の(現在の)視線の位置とがズレる、すなわち、異なることがある。 When an index indicating the position of the line of sight is displayed on the display device, the position of the index on the display device may vary depending on various conditions, such as the processing time in the control unit of the line of sight detection device and the involuntary eye movement of the eye of the target of the line of sight detection. and the actual (current) line-of-sight position may deviate, that is, be different.

本発明は、表示部上での移動体に対して、視線位置表示用指標を正確な位置に表示することができる視線検出装置、視線検出装置の制御方法およびプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a line-of-sight detection device, a control method for the line-of-sight detection device, and a program capable of displaying a line-of-sight position indicator at an accurate position with respect to a moving object on a display unit. .

上記目的を達成するために、本発明の視線検出装置は、移動体を視認しているユーザの瞳の画像を撮影する撮影部と、画像に基づいてユーザの視線の位置を検出する視線検出部と、視線の位置を示す視線位置表示用指標と移動体とを表示可能な表示部と、を備える視線検出装置であって、ユーザに視線で追跡させる視線追跡検出用指標を表示部に表示させつつ、移動させる制御を行う制御手段と、表示部上での移動体に対する視線位置表示用指標の位置を補正する補正手段と、を備え、補正手段は、ユーザが視線追跡検出用指標を視線で追跡した際に、視線の位置と視線追跡検出用指標との位置関係を検出し、視線位置表示用指標と移動体とを表示部に表示する際に、位置関係に基づいて、視線位置表示用指標の位置を補正することを特徴とする。 In order to achieve the above object, the line-of-sight detection device of the present invention includes a photographing unit for capturing an image of the eyes of a user who is visually recognizing a moving object, and a line-of-sight detection unit for detecting the position of the user's line of sight based on the image. and a display unit capable of displaying a line-of-sight position display index indicating the line-of-sight position and a moving object, wherein the display unit displays the line-of-sight tracking detection index to be tracked by the user's line of sight. and a correction means for correcting the position of the line-of-sight position display index with respect to the moving object on the display unit. At the time of tracking, the positional relationship between the line-of-sight position and the eye-tracking detection index is detected, and when the line-of-sight position display index and the moving object are displayed on the display unit, the line-of-sight position display indicator is calculated based on the positional relationship. It is characterized by correcting the position of the index.

本発明によれば、表示部上での移動体に対して、視線位置表示用指標を正確な位置に表示することができる。 According to the present invention, the line-of-sight position indicator can be displayed at an accurate position with respect to the moving object on the display unit.

視線検出装置が搭載されたデジタルスチルカメラの内部構成を示す概略図である。1 is a schematic diagram showing an internal configuration of a digital still camera equipped with a line-of-sight detection device; FIG. 図1に示すデジタルスチルカメラの電気的な構成を示すブロック図である。2 is a block diagram showing an electrical configuration of the digital still camera shown in FIG. 1; FIG. 光源から眼球に赤外線が照射されている状態を示す模式図である。It is a schematic diagram which shows the state by which the infrared rays are irradiated to the eyeball from the light source. 図3に示す状態の下で視線の位置(視線)を検出する原理を説明するための図((a)は眼球用撮像素子に投影される眼球像の概略図、(b)は眼球像の輝度分布を示した図)である。A diagram for explaining the principle of detecting the position of the line of sight (line of sight) under the state shown in FIG. FIG. 11 is a diagram showing a luminance distribution). 移動している被写体(移動体)をユーザが視線で追跡している状態を示す模式図である。FIG. 3 is a schematic diagram showing a state in which a user is tracking a moving subject (moving object) with his or her line of sight; 視線位置表示用指標が表示されるタイミングを説明するための図である。FIG. 11 is a diagram for explaining the timing at which gaze position display indicators are displayed; FIG. 静止した物体を視認しているとき視線の動きを示す模式図である。FIG. 4 is a schematic diagram showing movement of the line of sight when viewing a stationary object; 移動体を視認しているときの視線の動きを示す模式図である。FIG. 4 is a schematic diagram showing movement of a line of sight when viewing a moving object; 速度が変化する視線追跡検出用指標を視認しているときの視線の動きを示す模式図である。FIG. 10 is a schematic diagram showing the movement of the line of sight when viewing the line-of-sight tracking detection index whose speed changes. 速度が変化する視線追跡検出用指標を視認しているときの視線の動きのその他の例を示す模式図である。FIG. 10 is a schematic diagram showing another example of movement of the line of sight when viewing the line-of-sight tracking detection index whose speed changes. キャリブレーション動作後に移動体の追跡を行うときのフローチャートである。FIG. 10 is a flow chart when tracking a moving object after a calibration operation; FIG. 視線位置表示用指標の位置補正を行った際の表示素子での表示状態を示す模式図である。FIG. 10 is a schematic diagram showing a display state on a display element when the position of the gaze position display index is corrected; ユーザの視点が移動して測距点を選択する場合の模式図である。FIG. 10 is a schematic diagram when the user's viewpoint moves to select a range-finding point;

以下、本発明の実施形態について図1~図13を参照しながら詳細に説明する。しかしながら、以下の実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施形態に記載されている構成によって限定されることはない。 Embodiments of the present invention will be described in detail below with reference to FIGS. 1 to 13. FIG. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.

図1は、視線検出装置が搭載されたデジタルスチルカメラの内部構成を示す概略図である。図1に示すように、デジタルスチルカメラ(撮像装置)1は、撮影レンズ1Aと、撮影レンズ1Aが着脱自在に装着されるカメラ本体のカメラ筐体1Bと、を有するレンズ交換式カメラである。カメラ筐体1Bには、撮像素子2、CPU3、メモリ部4、表示素子(表示部)10、表示素子駆動回路11、接眼レンズ12、視線検出装置5が内蔵されている。CPU3は、マイクロコンピュータの中央処理装置であり、カメラ全体の作動を制御する。また、図示は省略するが、メモリ部4とは別のメモリ部もカメラ筐体1Bに内蔵されている。このメモリ部には、視線検出装置5を含むデジタルスチルカメラ1の各部や各手段等の作動(視線検出装置の制御方法)をCPU3(コンピュータ)に実行させるためのプログラムが記憶されている。撮像素子2は、デジタルスチルカメラ1の撮影レンズ1Aの予定結像面に配置されており、被写体を撮像することができる。メモリ部4は、撮像素子2および眼球用撮像素子(撮影部)17で撮像された被写体の画像を記録する、すなわち、撮像素子2および眼球用撮像素子17からの撮像信号の記憶機能を有する。また、メモリ部4は、後述する視線の個人差を補正する視線補正データの記憶機能を有する。表示素子10は、液晶等で構成され、例えば撮像素子2で撮像された被写体の画像等を表示することができる。表示素子駆動回路11は、表示素子10を駆動する。これにより、表示素子10に画像等が表示される。接眼レンズ12は、ユーザ(撮影者)が表示素子10に表示された被写体の画像を観察する際に、ユーザが覗き込むレンズである。また、カメラ筐体1Bの背面側には、操作部材41、操作部材42、操作部材43が配置されている。操作部材41~操作部材43は、例えば、デジタルスチルカメラ1の撮像条件(作動条件)等を設定する際に用いられる。 FIG. 1 is a schematic diagram showing the internal configuration of a digital still camera equipped with a line-of-sight detection device. As shown in FIG. 1, a digital still camera (imaging device) 1 is an interchangeable lens type camera having a photographing lens 1A and a camera housing 1B of a camera body to which the photographing lens 1A is detachably mounted. An imaging element 2, a CPU 3, a memory section 4, a display element (display section) 10, a display element drive circuit 11, an eyepiece lens 12, and a line-of-sight detection device 5 are incorporated in the camera housing 1B. A CPU 3 is a central processing unit of a microcomputer and controls the operation of the entire camera. Although not shown, a memory section other than the memory section 4 is also built in the camera housing 1B. This memory section stores a program for causing the CPU 3 (computer) to execute the operation of each section and means of the digital still camera 1 including the line-of-sight detection device 5 (control method of the line-of-sight detection device). The imaging element 2 is arranged on a planned imaging plane of the photographing lens 1A of the digital still camera 1, and is capable of imaging a subject. The memory unit 4 has a function of recording an image of a subject captured by the image pickup device 2 and the eye image pickup device (image pickup unit) 17 , that is, storing image pickup signals from the image pickup device 2 and the eye image pickup device 17 . The memory unit 4 also has a function of storing line-of-sight correction data for correcting individual differences in line of sight, which will be described later. The display device 10 is made of liquid crystal or the like, and can display an image of a subject captured by the imaging device 2, for example. The display element drive circuit 11 drives the display element 10 . Accordingly, an image or the like is displayed on the display element 10 . The eyepiece lens 12 is a lens through which the user (photographer) looks into when observing the image of the subject displayed on the display element 10 . Further, an operating member 41, an operating member 42, and an operating member 43 are arranged on the rear side of the camera housing 1B. The operating members 41 to 43 are used, for example, when setting imaging conditions (operating conditions) of the digital still camera 1 and the like.

カメラ筐体1Bには、視線検出装置5が内蔵されている。視線検出装置5は、ユーザの視線の位置を検出する装置であり、光源13a、光源13b、光分割器15、受光レンズ16、眼球用撮像素子17を有する。光源13a、光源13bは、角膜反射による反射像と瞳孔との関係に基づいて、視線方向を検出するためにユーザの眼球(瞳)14を照明するための装置である。光源13a、光源13bは、接眼レンズ12の周囲に配置された赤外発光ダイオードで構成されている。光源13a、光源13bで照明された眼球像と、光源13a、光源13bの角膜反射による像とは、接眼レンズ12を透過して、光分割器15で反射される。そして、これらの像は、受光レンズ16によって眼球用撮像素子17上に結像される。眼球用撮像素子17は、CMOS等の光電素子列が2次元的に配置された素子である。受光レンズ16は、撮影者の眼球14の瞳孔と眼球用撮像素子17とを共役な結像関係に位置付けている。視線検出装置5では、眼球用撮像素子17上に結像された眼球14と、光源13a、光源13bの角膜反射による像との位置関係に基づいて、後述する所定のアルゴリズムで視線の位置(視線方向)を検出することができる。なお、光源13a、光源13bで照明された眼球14を、接眼レンズ12と光分割器15を介さずに、直接眼球用撮像素子17で撮像する構成としてもよい。この場合、表示素子10と干渉しない位置に眼球用撮像素子17と受光レンズ16とを配置して、分取得画像に光学補正をかければよい。 A line-of-sight detection device 5 is incorporated in the camera housing 1B. The line-of-sight detection device 5 is a device for detecting the position of the user's line of sight, and includes a light source 13 a , a light source 13 b , a light splitter 15 , a light receiving lens 16 , and an eyeball imaging device 17 . The light source 13a and the light source 13b are devices for illuminating the user's eyeball (pupil) 14 in order to detect the line-of-sight direction based on the relationship between the reflected image by corneal reflection and the pupil. The light sources 13 a and 13 b are composed of infrared light emitting diodes arranged around the eyepiece 12 . The eyeball image illuminated by the light sources 13 a and 13 b and the corneal reflection image of the light sources 13 a and 13 b pass through the eyepiece 12 and are reflected by the light splitter 15 . These images are formed on the eyeball imaging device 17 by the light receiving lens 16 . The eyeball imaging device 17 is a device in which photoelectric element arrays such as CMOS are two-dimensionally arranged. The light-receiving lens 16 positions the pupil of the photographer's eyeball 14 and the eyeball imaging element 17 in a conjugate imaging relationship. Based on the positional relationship between the eyeball 14 imaged on the eyeball imaging element 17 and the images of the light sources 13a and 13b due to corneal reflection, the visual line detection device 5 uses a predetermined algorithm to be described later to determine the position of the visual line (line of sight). direction) can be detected. The eyeball 14 illuminated by the light source 13a and the light source 13b may be directly imaged by the eyeball imaging element 17 without the eyepiece 12 and the light splitter 15 intervening. In this case, the eyeball imaging element 17 and the light receiving lens 16 may be placed at positions that do not interfere with the display element 10, and optical correction may be applied to the acquired image.

撮影レンズ1Aは、レンズ101、レンズ102、絞り111、絞り駆動装置112、レンズ駆動用モータ113、レンズ駆動部材114、フォトカプラ115、パルス板116、マウント接点117、焦点調節回路118を有する。撮影レンズ1Aは、本実施形態ではレンズ101およびレンズ102の2枚のレンズを有するが、レンズの枚数については、2枚に限定されない。レンズ101とレンズ102との間には、絞り111が配置されている。絞り駆動装置112は、絞り111を駆動させる装置である。レンズ駆動用モータ113は、駆動ギヤ等からなるレンズ駆動部材114に連結され、このレンズ駆動部材114を介して、レンズ101およびレンズ102のうちの少なくとも一方のレンズを移動させるモータである。フォトカプラ115は、レンズ駆動部材114に連動するパルス板116の回転を検出して、その検出結果を焦点調節回路118に伝える。焦点調節回路118は、フォトカプラ115の検出結果とカメラ本体側からのレンズ駆動量の情報とに基づいて、レンズ駆動用モータ113を所定量駆動させる。これにより、前記一方のレンズを合焦点位置に移動させることができる。マウント接点117は、カメラ本体と撮影レンズ1Aとの通信可能に接続するインターフェイスとなる。 The photographing lens 1A has a lens 101, a lens 102, an aperture 111, an aperture drive device 112, a lens drive motor 113, a lens drive member 114, a photocoupler 115, a pulse plate 116, a mount contact 117, and a focus adjustment circuit 118. The photographing lens 1A has two lenses, a lens 101 and a lens 102, in this embodiment, but the number of lenses is not limited to two. A diaphragm 111 is arranged between the lens 101 and the lens 102 . A diaphragm driving device 112 is a device that drives the diaphragm 111 . The lens driving motor 113 is a motor that is connected to a lens driving member 114 that is composed of a driving gear or the like, and that moves at least one of the lenses 101 and 102 via the lens driving member 114 . Photocoupler 115 detects the rotation of pulse plate 116 interlocked with lens drive member 114 and transmits the detection result to focus adjustment circuit 118 . The focus adjustment circuit 118 drives the lens driving motor 113 by a predetermined amount based on the detection result of the photocoupler 115 and the lens driving amount information from the camera body side. As a result, the one lens can be moved to the in-focus position. A mount contact 117 serves as an interface for communicably connecting the camera body and the photographing lens 1A.

図2は、図1に示すデジタルスチルカメラの電気的な構成を示すブロック図である。図2に示すように、カメラ筐体1B内では、視線検出回路(視線検出部)201、測光回路202、自動焦点検出回路203、信号入力回路204、表示素子駆動回路11、光源駆動回路205がそれぞれCPU3と通信可能に接続されている。また、撮影レンズ1A内には、絞り駆動装置112に含まれる絞り制御回路206と、焦点調節回路118とが配置されており、これらの回路は、マウント接点117を介してカメラ本体と間で信号の伝達がなされる。視線検出回路201は、眼球用撮像素子17で眼球像が結像することによる出力をA/D変換し、この像情報をCPU3に送信する。CPU3は、視線検出に必要な眼球像の各特徴点を、後述する所定のアルゴリズムに従って抽出する。そして、CPU3は、各特徴点の位置からユーザの視線を算出する。このように、視線検出回路201は、ユーザの眼球の画像に基づいて、ユーザの視線の位置を検出する視線検出部となっており、視線検出装置5の一部を構成している。測光回路202は、測光センサの機能も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、この情報を被写界輝度情報として、CPU3に送る。自動焦点検出回路203は、撮像素子2におけるCMOS等の光電変換素子列の中に含まれる、位相差検出の為に使用される複数の画素からの信号電圧をA/D変換し、CPU3に送る。CPU3は、前記複数の画素の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは位相差AFとして知られる公知の技術である。信号入力回路204には、不図示のレリーズボタンの第1ストロークでONし、カメラの測光、測距、視線検出動作等を開始するためのスイッチであるSW1が電気的に接続される。また、信号入力回路204には、レリーズボタンの第2ストロークでONし、レリーズ動作を開始するためのスイッチであるSW2が電気的に接続される。そして、各スイッチからの信号が信号入力回路204に入力され、CPU3に送信される。光源駆動回路205は、光源13a、光源13bを駆動させる回路である。これにより、光源13a、光源13bは、それぞれ、ユーザ(眼球14)にとって不感の赤外線IFを照射する発光ダイオードである。 FIG. 2 is a block diagram showing the electrical configuration of the digital still camera shown in FIG. As shown in FIG. 2, a line-of-sight detection circuit (line-of-sight detection unit) 201, a photometry circuit 202, an automatic focus detection circuit 203, a signal input circuit 204, a display element drive circuit 11, and a light source drive circuit 205 are provided in the camera housing 1B. Each of them is connected so as to be communicable with the CPU 3 . An aperture control circuit 206 included in the aperture drive device 112 and a focus adjustment circuit 118 are arranged in the photographing lens 1A. is communicated. The line-of-sight detection circuit 201 A/D-converts the output of the eyeball image formed by the eyeball imaging device 17 and transmits this image information to the CPU 3 . The CPU 3 extracts each feature point of the eyeball image required for line-of-sight detection according to a predetermined algorithm, which will be described later. Then, the CPU 3 calculates the line of sight of the user from the position of each feature point. Thus, the line-of-sight detection circuit 201 serves as a line-of-sight detection unit that detects the position of the user's line of sight based on the image of the user's eyeball, and constitutes a part of the line-of-sight detection device 5 . The photometry circuit 202 amplifies the luminance signal output corresponding to the brightness of the object scene based on the signal obtained from the image pickup device 2 which also functions as a photometry sensor, and then logarithmically compresses and A/D converts it, and converts this information. It is sent to the CPU 3 as field luminance information. The autofocus detection circuit 203 A/D-converts signal voltages from a plurality of pixels used for phase difference detection, which are included in a photoelectric conversion element array such as CMOS in the image pickup device 2, and sends them to the CPU 3. . The CPU 3 calculates the distance to the object corresponding to each focus detection point from the signals of the plurality of pixels. This is a known technique known as phase difference AF. The signal input circuit 204 is electrically connected to a switch SW1 which is turned on by the first stroke of a release button (not shown) to start photometry, distance measurement, line-of-sight detection, and the like of the camera. Further, the signal input circuit 204 is electrically connected to a switch SW2 which is turned on by the second stroke of the release button to start the release operation. A signal from each switch is input to the signal input circuit 204 and transmitted to the CPU 3 . The light source driving circuit 205 is a circuit that drives the light sources 13a and 13b. Thereby, the light source 13a and the light source 13b are light emitting diodes that emit an infrared IF that is imperceptible to the user (eyeball 14).

図3は、光源から眼球に赤外線が照射されている状態を示す模式図である。図4は、図3に示す状態の下で視線の位置(視線)を検出する原理を説明するための図である。なお、図4(a)は、眼球用撮像素子に投影される眼球像の概略図であり、図4(b)は、眼球像の輝度分布を示した図である。また、図3および図4では、それぞれ、X軸方向が水平方向、Y軸方向が鉛直方向となっており、Z軸方向がX軸方向およびY軸方向と直交する方向(受光レンズ16の光軸方向)となっている。 FIG. 3 is a schematic diagram showing a state in which an eyeball is irradiated with infrared light from a light source. FIG. 4 is a diagram for explaining the principle of detecting the line-of-sight position (line-of-sight) under the condition shown in FIG. FIG. 4(a) is a schematic diagram of an eyeball image projected onto an eyeball imaging element, and FIG. 4(b) is a diagram showing the luminance distribution of the eyeball image. 3 and 4, the X-axis direction is the horizontal direction, the Y-axis direction is the vertical direction, and the Z-axis direction is the direction orthogonal to the X-axis direction and the Y-axis direction (the direction of the light from the light receiving lens 16). axial direction).

図3に示すように、光源13aと光源13bとは、受光レンズ16の光軸を対称の軸として、線対称に配置されている。なお、この配置構成は、視線検出原理の理解を容易にするために、図1に示す配置構成とは異なっている。光源13aおよび光源13bからは、それぞれ、ユーザの眼球14に向かって赤外線IFが照射されている。そして、眼球14の角膜142で反射した赤外線IFの一部は、受光レンズ16で集光されて、眼球用撮像素子17で結像する。 As shown in FIG. 3, the light sources 13a and 13b are arranged line-symmetrically with the optical axis of the light receiving lens 16 as the axis of symmetry. Note that this arrangement differs from that shown in FIG. 1 in order to facilitate understanding of the line-of-sight detection principle. Infrared IF is emitted from the light source 13a and the light source 13b toward the user's eyeball 14, respectively. Part of the infrared IF reflected by the cornea 142 of the eyeball 14 is condensed by the light receiving lens 16 and formed into an image by the eyeball imaging device 17 .

図4を参照して、ユーザの視線の位置を検出する原理について説明する。この原理の流れとしては、眼球像の中から、特徴点として、光源13a、13bによる角膜反射像Pd、角膜反射像Peおよび瞳孔中心(瞳孔の輪郭中心)cを検出する。そして、この検出結果に基づいて、眼球14の回転角(回転角θ、回転角θy)を算出する。この回転角とキャリブレーションデータとより、表示素子10上におけるユーザの視線の位置を検出することができる。 The principle of detecting the position of the user's line of sight will be described with reference to FIG. As a flow of this principle, the corneal reflection image Pd by the light sources 13a and 13b, the corneal reflection image Pe, and the center of the pupil (contour center of the pupil) c are detected as feature points from the eyeball image. Then, based on this detection result, the rotation angle (rotation angle θ, rotation angle θy) of the eyeball 14 is calculated. The position of the user's line of sight on the display element 10 can be detected from this rotation angle and the calibration data.

まず、角膜反射像Pd、角膜反射像Peの検出について説明する。図4(a)では、眼球用撮像素子17上で、角膜反射像Pdが結像した位置を座標(Xa,Ya)とし、角膜反射像Peが結像した位置を座標(Xb,Yb)とする。なお、一例として、Ya=Ybとする。そして、図4(a)における眼球像のX軸方向に沿った任意の1行分(以下「検索行」と言う)の輝度分布(輝度情報)を示すと、座標(Xa,Ya)および座標(Xb,Yb)を含む検索行では、図4(b)に示す輝度分布が得られる。図4(b)に示すように、座標(Xa,Ya)および座標(Xb,Yb)では、輝度閾値TH1以上の極端に強いレベルの輝度が得られている。そして、検索行をY軸方向に沿って走査して、各検索行での輝度のレベル判定を順次処理する。この処理に基づいて、眼球像全体に対して輝度閾値TH1以上となった座標を検出して、当該検出された座標群の重心を演算することにより、角膜反射像Pdの座標(Xa,Ya)と角膜反射像Peの座標(Xb,Yb)とを検出することができる。 First, detection of the corneal reflection image Pd and the corneal reflection image Pe will be described. In FIG. 4A, the position where the corneal reflection image Pd is formed on the eyeball imaging device 17 is defined as coordinates (Xa, Ya), and the position where the corneal reflection image Pe is formed as coordinates (Xb, Yb). do. As an example, Ya=Yb. The luminance distribution (luminance information) of an arbitrary row along the X-axis direction of the eyeball image in FIG. In the search line containing (Xb, Yb), the luminance distribution shown in FIG. 4(b) is obtained. As shown in FIG. 4B, at the coordinates (Xa, Ya) and the coordinates (Xb, Yb), extremely high levels of luminance equal to or higher than the luminance threshold TH1 are obtained. Then, the search rows are scanned along the Y-axis direction, and luminance level determination in each search row is sequentially processed. Based on this processing, the coordinates (Xa, Ya) of the corneal reflection image Pd are calculated by detecting the coordinates that are equal to or greater than the luminance threshold TH1 for the entire eyeball image and calculating the center of gravity of the detected coordinate group. and the coordinates (Xb, Yb) of the corneal reflection image Pe can be detected.

次に、瞳孔141の瞳孔中心cの検出について説明する。図4(b)では、瞳孔141の輪郭部の一部である瞳孔端aの座標を(Xc,Yc)、瞳孔端bの座標を(Xd,Yd)とする。図4(b)に示すように、瞳孔141の領域は、座標(Xa,Ya)、(Xb,Yb)を除き、輝度閾値TH2以下の低いレベルの輝度が得られる。これに対し、瞳孔141の外側の光彩143の領域に相当する部分では、輝度閾値TH1と輝度閾値TH2との間である中間レベルの輝度が得られる。つまり、輝度閾値TH1以下である輝度閾値TH2近傍で輝度変化があり、かつ、輝度閾値TH2と同じ輝度レベルの画素座標(Xc,Yc)、(Xd,Yd)を瞳孔141の輪郭部と判定する。この判定を前記検索行と、眼球像のY軸方向に沿った検索列とを変えて、輝度のレベル判定を順次処理することにより、眼球像全体に対して瞳孔141の輪郭部全体の座標を検出することができる。この瞳孔141の輪郭座標に対して真円近似法を用いることにより、瞳孔中心cの座標および瞳孔141の半径rを演算することができる。例えば輪郭座標が20個あるとし、各輪郭座標(Xi,Yi)、i=1~20で表した場合、瞳孔中心cの座標(X0、Y0)と半径rとは、次式より求めることができる。 Next, detection of the pupil center c of the pupil 141 will be described. In FIG. 4B, the coordinates of the pupil edge a, which is a part of the outline of the pupil 141, are (Xc, Yc), and the coordinates of the pupil edge b are (Xd, Yd). As shown in FIG. 4B, the region of the pupil 141 has a low luminance level equal to or lower than the luminance threshold TH2 except for the coordinates (Xa, Ya) and (Xb, Yb). On the other hand, in the portion corresponding to the area of the iris 143 outside the pupil 141, an intermediate level of luminance between the luminance threshold TH1 and the luminance threshold TH2 is obtained. That is, the pixel coordinates (Xc, Yc) and (Xd, Yd) that have luminance changes in the vicinity of the luminance threshold TH2 that is equal to or less than the luminance threshold TH1 and that have the same luminance level as the luminance threshold TH2 are determined as the contour portion of the pupil 141. . By changing the search row and the search column along the Y-axis direction of the eyeball image for this determination, and sequentially processing luminance level determination, the coordinates of the entire outline of the pupil 141 for the entire eyeball image are obtained. can be detected. By using the perfect circle approximation method for the contour coordinates of the pupil 141, the coordinates of the pupil center c and the radius r of the pupil 141 can be calculated. For example, if there are 20 contour coordinates and each contour coordinate (Xi, Yi) is represented by i=1 to 20, the coordinates (X0, Y0) of the pupil center c and the radius r can be obtained from the following equation. can.

Figure 2023074878000002
式(1)をX0、Y0、rについて解くと、式(2)となる。
Figure 2023074878000002
Solving equation (1) for X0, Y0, and r yields equation (2).

Figure 2023074878000003
Figure 2023074878000003

なお、αは、X0を算出するための一時変数、βは、Y0を算出するための一時変数、γは、rを算出するための一時変数である。 is a temporary variable for calculating X0, .beta. is a temporary variable for calculating Y0, and .gamma. is a temporary variable for calculating r.

次に、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、実質的には角膜反射像Pd、角膜反射像Peの間隔の関数として求めることができる。 Next, the imaging magnification β of the eyeball image is calculated. β is a magnification determined by the position of the eyeball 14 with respect to the light receiving lens 16, and can be obtained substantially as a function of the distance between the corneal reflection images Pd and Pe.

角膜反射像Pdと角膜反射像Peとの中点の座標と、角膜142の曲率中心Oの座標とは、ほぼ一致する。そのため、角膜142の曲率中心Oと瞳孔141の瞳孔中心cまでの標準的な距離をOcとすると、眼球14の光軸のY軸回り回転角θxは、次式より求めることができる。
β*Oc*SINθx≒((Xa+Xb)/2)-X0・・・(3)
The coordinates of the midpoint between the corneal reflection image Pd and the corneal reflection image Pe and the coordinates of the center of curvature O of the cornea 142 substantially match. Therefore, if the standard distance between the center of curvature O of the cornea 142 and the pupil center c of the pupil 141 is Oc, the rotation angle θx of the optical axis of the eyeball 14 around the Y axis can be obtained from the following equation.
β*Oc*SINθx≈((Xa+Xb)/2)-X0 (3)

また、図3では、ユーザの眼球14がY軸回りに回転する場合の回転角θxを算出する例を示しているが、ユーザの眼球14がX軸回りに回転する場合の回転角θyは、次式より求めることができる。
β*Oc*SINθy≒((Ya+Yb)/2)-Y0・・・(4)
FIG. 3 shows an example of calculating the rotation angle θx when the user's eyeball 14 rotates around the Y-axis, but the rotation angle θy when the user's eyeball 14 rotates around the X-axis is It can be obtained from the following formula.
β*Oc*SINθy≈((Ya+Yb)/2)-Y0 (4)

そして、回転角θ、回転角θyを用いて、表示素子10上でユーザの視線の位置を求める。その際、注視点位置を表示素子10上での瞳孔中心cに対応する座標を(Hx,Hy)とすると、
Hx=m×(θx-(θx_cal))・・・(5)
Hy=m×(θy-(θy_cal))・・・(6)
となる。なお、係数mは、デジタルスチルカメラ1のファインダ光学系の構成で定まる定数で、回転角θx、回転角θyを、表示素子10上での瞳孔中心cに対応する座標に変換する変換係数である。係数mは、予めメモリ部4に記憶されている。また、θx_cal、θy_calは、それぞれ、後述するキャリブレーション動作時に演算した回転角であり、視線検出ルーチンが開始する前にメモリ部4に記憶されている。
Then, the position of the user's line of sight on the display element 10 is obtained using the rotation angle θ and the rotation angle θy. At that time, if the coordinates corresponding to the gaze point position and the pupil center c on the display element 10 are (Hx, Hy),
Hx=m×(θx−(θx_cal)) (5)
Hy=m×(θy−(θy_cal)) (6)
becomes. Note that the coefficient m is a constant determined by the configuration of the finder optical system of the digital still camera 1, and is a conversion coefficient for converting the rotation angles θx and θy into coordinates corresponding to the pupil center c on the display device 10. . The coefficient m is stored in the memory unit 4 in advance. Also, θx_cal and θy_cal are rotation angles calculated during a calibration operation, which will be described later, and are stored in the memory unit 4 before the line-of-sight detection routine starts.

ここで、「キャリブレーション動作」とは、人間の眼球形状の個人差等の要因により、ユーザが実際に注視している位置と、演算された推定注視点の位置とのズレを抑制するためのオフセット量を記憶する動作である。キャリブレーション動作時に表示素子10にキャリブレーション用画像を表示する。画像は、ユーザが注視するためのターゲット枠である。そのときの回転角θx_cal、θy_calを取得し、オフセット量としてメモリ部4に記憶させている。なお、キャリブレーション動作では、ターゲット枠を複数の位置に表示し、各位置のそれぞれの回転角で、位置同士の間を補間することにより、精度向上が可能である。 Here, the “calibration operation” is an operation for suppressing the deviation between the position where the user is actually gazing and the position of the calculated estimated gazing point due to factors such as individual differences in the shape of human eyeballs. This is the operation of storing the offset amount. An image for calibration is displayed on the display element 10 during the calibration operation. The image is the target frame for the user's gaze. The rotation angles θx_cal and θy_cal at that time are acquired and stored in the memory unit 4 as offset amounts. It should be noted that in the calibration operation, accuracy can be improved by displaying the target frame at a plurality of positions and interpolating between the positions at each rotation angle of each position.

図5は、移動している被写体(移動体)をユーザが視線で追跡している状態を示す模式図である。図5に示す状態では、ユーザ501が被写体202aまたは被写体202bを見ている視線の位置を前述した視線検出によって検出している。そして、この視線の位置を示す視線位置表示用指標503がファインダイメージ200(表示素子10)上に表示された状態となっている。図5に示すように、被写体202aが被写体202bに移動しており、この移動をユーザ501は、視線201aから視線201bで追跡している。このように、被写体202a、被写体202bは、同一の移動体であり、この移動体をユーザが視認している。そして、移動体を視認しているユーザ501の眼球14の画像が、眼球用撮像素子17で撮影されて、ユーザ501の視線位置検出に用いられている。また、ファインダイメージ200(表示素子10)は、検出された視線位置を示す視線位置表示用指標503と、移動体とを表示することができ、視線検出装置5の一部を構成している。ファインダイメージ200では、視線位置表示用指標503は、被写体202bと同じ位置に表示されるのが好ましいが、被写体202bよりも遅れた位置に表示されてしまう。その理由について、図6を参照して説明する。 FIG. 5 is a schematic diagram showing a state in which a user is tracking a moving subject (moving object) with his or her line of sight. In the state shown in FIG. 5, the line-of-sight position of the user 501 looking at the subject 202a or the subject 202b is detected by the above-described line-of-sight detection. The line-of-sight position display index 503 indicating the line-of-sight position is displayed on the finder image 200 (display element 10). As shown in FIG. 5, the subject 202a is moving to the subject 202b, and the user 501 tracks this movement from the line of sight 201a to the line of sight 201b. In this way, the subject 202a and the subject 202b are the same moving body, and the user visually recognizes this moving body. An image of the eyeball 14 of the user 501 who is visually recognizing the moving object is captured by the eyeball imaging device 17 and used for detecting the line-of-sight position of the user 501 . The finder image 200 (display element 10 ) can display the line-of-sight position display index 503 indicating the detected line-of-sight position and the moving body, and constitutes a part of the line-of-sight detection device 5 . In the finder image 200, the line-of-sight position display index 503 is preferably displayed at the same position as the subject 202b, but is displayed at a position behind the subject 202b. The reason will be described with reference to FIG.

図6は、視線位置表示用指標が表示されるタイミングを説明するための図である。図6(a)に示す状態では、ファインダイメージ300(表示素子10)上でユーザに視線で追跡させる視線追跡検出用指標302aが視線追跡検出用指標302bに移動しており、その移動をユーザ301は、視線301aから視線301bで追跡している。視線追跡検出用指標302a、視線追跡検出用指標302bは、移動体を模した指標であり、本実施形態では星形をなす。 FIG. 6 is a diagram for explaining the timing at which the line-of-sight position indicator is displayed. In the state shown in FIG. 6(a), the eye-tracking detection index 302a, which the user is allowed to track with his/her eye on the finder image 300 (display element 10), has moved to the eye-tracking detection index 302b. is tracked from line of sight 301a to line of sight 301b. The eye-tracking detection indicator 302a and the eye-tracking detection indicator 302b are indicators imitating a moving object, and form a star shape in this embodiment.

図6(c)に示す状態では、ファインダイメージ300’上で視線追跡検出用指標302a’の移動をユーザ301が視線301a’で追跡しているかまたは視線追跡検出用指標302b’の移動をユーザ301が視線301b’で追跡している。また、視線追跡検出用指標302a’を視線301a’で追跡しているとき、視線位置表示用指標303aがファインダイメージ300’に表示されている。同様に、視線追跡検出用指標302b’の移動を視線301b’で追跡しているとき、視線位置表示用指標303bがファインダイメージ300’に表示されている。なお、本実施形態では、CPU3は、視線追跡検出用指標を表示素子10に表示させつつ、移動させる制御(制御工程)を行う制御手段として機能するが、これに限定されない。例えば、視線検出装置5は、CPU3とは別に、当該制御手段として機能するCPUを有していてもよい。 In the state shown in FIG. 6(c), the user 301 is tracking the movement of the eye-tracking detection index 302a' on the finder image 300' or the user 301 is tracking the movement of the eye-tracking detection index 302b' on the finder image 300'. is tracking with line of sight 301b'. Further, when the line-of-sight tracking detection index 302a' is being tracked with the line of sight 301a', the line-of-sight position display index 303a is displayed in the finder image 300'. Similarly, when the movement of the eye-tracking detection index 302b' is being tracked by the line of sight 301b', the eye-gaze position display index 303b is displayed in the finder image 300'. In the present embodiment, the CPU 3 functions as control means for performing control (control process) to move the eye-tracking detection index while displaying it on the display element 10, but the present invention is not limited to this. For example, the line-of-sight detection device 5 may have a CPU functioning as the control means separately from the CPU 3 .

図6(b)は、視線追跡検出用指標を表示してから、視線位置検出を経て、視線位置表示用指標を表示するまでの処理を示すタイミングチャートである。なお、この処理は、CPU3や視線検出回路201等で行なわれる。視線追跡検出用指標302aがファインダイメージ300の図6(a)に示す箇所に位置する(表示される)タイミングで、タイミングチャート310に示すように、眼球14の画像を蓄積して(斜め線ハッチング参照)、読み出す(直線の矢印参照)。次いで、読み出された眼球画像用いて、タイミングチャート311に示すように、視線位置の演算を行う(縦線ハッチング参照)。次いで、タイミングチャート312に示すように、表示素子10に視線位置表示用指標303aを表示する(横線ハッチング参照)。 FIG. 6B is a timing chart showing the processing from displaying the eye-tracking detection index to displaying the eye-gaze position display index through eye-gaze position detection. This processing is performed by the CPU 3, the line-of-sight detection circuit 201, and the like. At the timing when the eye-tracking detection index 302a is positioned (displayed) at the location shown in FIG. ), read out (see straight arrow). Next, using the read eyeball image, as shown in a timing chart 311, the line-of-sight position is calculated (see vertical hatching). Next, as shown in a timing chart 312, the display element 10 displays the line-of-sight position display index 303a (see horizontal hatching).

視線位置表示用指標303aは、ファインダイメージ300’の図6(c)に示す箇所に位置しており、この位置は、図6(a)に示す視線追跡検出用指標302aと同じ位置である。しかしながら、視線追跡検出用指標302a’が移動しているため、実際には、視線追跡検出用指標302a’を追跡している視線301a’も、移動してしまっている。ファインダイメージ300’では、視線位置表示用指標303aは、視線追跡検出用指標302a’と同じ位置に表示されるのが好ましいが、CPU3等での前述した処理に時間を要するため、視線追跡検出用指標302a’よりも遅れた位置に表示されてしまう。 The line-of-sight position display index 303a is located at the location shown in FIG. 6(c) of the finder image 300', which is the same position as the line-of-sight tracking detection index 302a shown in FIG. 6(a). However, since the eye-tracking detection index 302a' is moving, the line-of-sight 301a' tracking the eye-tracking detection index 302a' is actually also moved. In the finder image 300', the line-of-sight position display index 303a is preferably displayed at the same position as the line-of-sight tracking detection index 302a'. It will be displayed at a position behind the index 302a'.

同様に、視線位置表示用指標303bは、ファインダイメージ300’の図6(c)に示す箇所に位置しており、この位置は、図6(a)に示す視線追跡検出用指標302bと同じ位置である。しかしながら、視線追跡検出用指標302b’が移動しているため、実際には、視線追跡検出用指標302b’を追跡している視線301b’も、移動してしまっている。ファインダイメージ300’では、視線位置表示用指標303bは、視線追跡検出用指標302b’と同じ位置に表示されるのが好ましいが、CPU3等での前述した処理に時間を要するため、視線追跡検出用指標302b’よりも遅れた位置に表示されてしまう。 Similarly, the line-of-sight position display index 303b is located at the location shown in FIG. is. However, since the eye-tracking detection index 302b' is moving, the line-of-sight 301b' tracking the eye-tracking detection index 302b' is actually also moved. In the viewfinder image 300', the line-of-sight position display index 303b is preferably displayed at the same position as the line-of-sight tracking detection index 302b'. It will be displayed at a position behind the index 302b'.

以上のように、視線追跡検出用指標の追跡時には、CPU3や視線検出回路201等で行なわれる処理に時間を要することに起因する(図6(b)参照)、視線位置表示用指標の表示の遅れが生じることが分かる。以下、この遅れを「システム遅れ」と言うことがある。 As described above, when the eye-tracking detection index is tracked, the processing performed by the CPU 3, the eye-gaze detection circuit 201, etc. takes time (see FIG. 6B). I know there will be delays. Hereinafter, this delay may be referred to as "system delay".

図7は、静止した物体を見ている場合の視線の動きを示す模式図である。視野410内で静止した物体を模した注視指標702をユーザが観察している場合、図7に示すように、視線701は、微小なトレモア411(0.02°程度)によって揺れていて、そのトレモア411を行いながらゆっくりとドリフト413していく。ドリフト413によって視線701が注視指標702からズある程度レると、大きいフリックであるマイクロサッカード412(0.33°程度)によって視線701の位置を戻そうとする。このように、視線701は、絶えず微小な動きを繰り返していて、止まることがない。この視線701の移動は、「固視微動」と呼ばれている。固視微動は、生理現象の1つである。 FIG. 7 is a schematic diagram showing movement of the line of sight when looking at a stationary object. When the user observes a fixation index 702 imitating a stationary object in the field of view 410, as shown in FIG. Drift 413 slowly while performing tremor 411 . When the line of sight 701 deviates from the gaze index 702 due to the drift 413, the position of the line of sight 701 is returned by the micro saccade 412 (about 0.33°), which is a large flick. In this way, the line of sight 701 constantly repeats minute movements and never stops. This movement of the line of sight 701 is called "fixational eye movement". A fixational eye tremor is one of the physiological phenomena.

図8は、移動体を視認しているときの視線の動きを示す模式図である。図8(a)に示すように、ファインダイメージ400(表示素子10)上で被写体402aが被写体402bに移動しており、この移動をユーザ401は、視線401aから視線401bで追跡している。図8(b)は、被写体402aが被写体402bに移動する際の位置の変化(横軸)と時間経過(縦軸)との関係を示すグラフ420である。図8(b)に示すように、被写体402aが被写体402bに等速移動している(点線422参照)。この場合、視線は、固視微動があるため、そのまま等速で追従せず、ドリフト414(トレモアを含む)であまり移動しない状態と、被写体が離れていくにつれて、マイクロサッカード412で追いつく状態とを繰り返しながら追従する(実線421参照)。 FIG. 8 is a schematic diagram showing movement of the line of sight when viewing a moving object. As shown in FIG. 8(a), a subject 402a moves to a subject 402b on the finder image 400 (display element 10), and the user 401 tracks this movement from the line of sight 401a to the line of sight 401b. FIG. 8B is a graph 420 showing the relationship between the change in position (horizontal axis) and the passage of time (vertical axis) when the subject 402a moves to the subject 402b. As shown in FIG. 8B, the subject 402a is moving toward the subject 402b at a constant speed (see dotted line 422). In this case, since there is involuntary eye movement, the line of sight does not follow the subject at a constant speed and does not move much due to drift 414 (including tremour). (see solid line 421).

このように、移動体の追跡時には、固視微動があるため(図8(b)参照)、移動体の移動速度の程度によっては、視線の移動の遅れが生じることが分かる。以下、この遅れを「視線遅れ(視線追跡特性)」と言うことがある。なお、視線遅れは、視線追跡検出用指標の追跡時にも同様に生じる。そして、視線遅れは、システム遅れに加えて、視線位置表示用指標の表示の遅れのさらなる原因にもなる。 As described above, when tracking a moving object, there is a slight involuntary eye movement (see FIG. 8(b)), so it can be seen that the movement of the line of sight is delayed depending on the moving speed of the moving object. Hereinafter, this delay may be referred to as "line-of-sight delay (line-of-sight tracking characteristic)". Note that the line-of-sight delay similarly occurs when the line-of-sight tracking detection index is tracked. In addition to the system delay, the line-of-sight delay also causes a delay in the display of the line-of-sight position indicator.

以上のように、移動体の追跡時には、システム遅れや視線遅れが生じて、視線位置表示用指標の表示が遅れるおそれがある(視線追跡検出用指標の追跡時についても同様)。そこで、デジタルスチルカメラ1(視線検出装置5)では、このような不具合を低減可能に構成されている。以下、この構成および作用について説明する。 As described above, when tracking a moving object, a system delay or a line-of-sight delay may occur, and display of the line-of-sight position display index may be delayed (the same applies when tracking the line-of-sight tracking detection index). Therefore, the digital still camera 1 (line-of-sight detection device 5) is configured to be able to reduce such problems. This configuration and operation will be described below.

デジタルスチルカメラ1は、移動体追跡時の視線位置表示用指標の表示に先立って、キャリブレーション動作を行う。なお、キャリブレーション動作は、不図示のキャリブレーション動作開始用の画面を操作することによって行われる。このキャリブレーション動作では、表示素子10上での視線位置表示用指標の位置を補正する(補正工程)。本実施形態では、CPU3は、補正工程を行う補正手段として機能するが、これに限定されない。例えば、デジタルスチルカメラ1は、CPU3とは別に、当該補正手段として機能するCPUを有していてもよい。まず、キャリブレーション動作時には、ユーザが注視するためのターゲット枠であるキャリブレーション用画像として、視線追跡検出用指標を表示素子10に表示する。例えば、図6(a)に示すように、視線追跡検出用指標302aをファインダイメージ300に表示する。視線追跡検出用指標302aが例えば等速移動することにより、ユーザ301が視線追跡検出用指標302aを視線301aで追跡する。その追跡の際、図6(b)および(c)に示すように、システム遅れ(視線位置表示用指標の表示の遅れ)を起因として、視線位置表示用指標303a(視線の位置)と視線追跡検出用指標302a’との間に位置ズレが生じる。CPU3は、この位置ズレの程度(位置関係)を検出して、オフセット量(第1オフセット量)OA1としてメモリ部4に記憶させる。そして、CPU3は、移動体追跡時に視線位置表示用指標303aと移動体とを表示素子10に表示する際、前述した位置関係に基づいたオフセット量OA1分だけ、移動体に対する視線位置表示用指標303aの位置を移動させる補正を行う。この補正により、例えば図12に示すように、ファインダイメージ600(表示素子10)上での被写体602b(移動体)に対して、視線位置表示用指標603を正確な位置に、すなわち、重ねて表示することができる。 The digital still camera 1 performs a calibration operation prior to displaying the line-of-sight position indicator during tracking of a moving object. The calibration operation is performed by operating a calibration operation start screen (not shown). In this calibration operation, the position of the line-of-sight position display index on the display element 10 is corrected (correction step). In this embodiment, the CPU 3 functions as correction means that performs a correction process, but is not limited to this. For example, the digital still camera 1 may have a CPU functioning as the correcting means separately from the CPU 3 . First, during the calibration operation, the eye-tracking detection index is displayed on the display element 10 as a calibration image, which is a target frame for the user to gaze at. For example, as shown in FIG. 6A, the eye-tracking detection index 302a is displayed in the finder image 300. FIG. The user 301 tracks the eye-tracking detection index 302a with the eye-gaze 301a by moving the eye-tracking detection index 302a at a constant speed, for example. At the time of tracking, as shown in FIGS. 6B and 6C, due to system delay (delay in display of the eye-gaze position display index), the eye-gaze position display index 303a (position of the eye-gaze) and the eye-gaze tracking A positional deviation occurs between the detection index 302a'. The CPU 3 detects the degree of this positional deviation (positional relationship) and stores it in the memory section 4 as an offset amount (first offset amount) OA1. Then, when displaying the line-of-sight position display index 303a and the moving object on the display element 10 during tracking of the moving object, the CPU 3 shifts the line-of-sight position display index 303a with respect to the moving object by the offset amount OA1 based on the positional relationship described above. Perform correction by moving the position of . As a result of this correction, for example, as shown in FIG. 12, the line-of-sight position display index 603 is displayed at an accurate position, that is, superimposed on the object 602b (moving object) on the finder image 600 (display element 10). can do.

なお、オフセット量OA1は、ファインダイメージ300上での視線追跡検出用指標302aの移動速度に応じて変化する。そのため、キャリブレーション動作時に、例えば視線追跡検出用指標302aの移動速度を大、中、小の3段階に分けて、各段階でのオフセット量OA1をメモリ部4に記憶する。そして、移動体追跡時に視線位置表示用指標を表示する際、表示素子10上での移動体の移動速度が「大」の場合には、オフセット量OA1として、「大」段階でのオフセット量OA1を用いる。また、表示素子10上での移動体の移動速度が「中」の場合には、オフセット量OA1として、「中」段階でのオフセット量OA1を用いる。また、表示素子10上での移動体の移動速度が「小」の場合には、オフセット量OA1として、「小」段階でのオフセット量OA1を用いる。このようにオフセット量OA1を使い分けることにより、視線位置表示用指標603を正確な位置に表示することができる。 The offset amount OA1 changes according to the moving speed of the eye-tracking detection index 302a on the finder image 300. FIG. Therefore, during the calibration operation, for example, the movement speed of the eye-tracking detection index 302a is divided into three stages of high, medium, and low, and the offset amount OA1 at each stage is stored in the memory unit 4. FIG. Then, when displaying the line-of-sight position display index during tracking of the moving object, if the moving speed of the moving object on the display element 10 is "high", the offset amount OA1 at the "high" stage is set as the offset amount OA1 Use Further, when the moving speed of the moving object on the display element 10 is "medium", the offset amount OA1 at the "medium" stage is used as the offset amount OA1. Further, when the moving speed of the moving body on the display element 10 is "small", the offset amount OA1 at the "small" stage is used as the offset amount OA1. By properly using the offset amount OA1 in this manner, the line-of-sight position display index 603 can be displayed at an accurate position.

図9は、速度が変化する視線追跡検出用指標を視認しているときの視線の動きを示す模式図である。CPU3は、視線追跡検出用指標を移動させる際、視線追跡検出用指標の移動速度および移動方向のうちの少なくとも一方を変化させることができる。例えば図9に示すように、視線追跡検出用指標は、図9中の左側から右側に向かって直線的に移動しており、その際、移動速度が変化している。視線追跡検出用指標502aは、停止している状態を示す。視線追跡検出用指標502bは、視線追跡検出用指標502aの状態から移動速度上げて、そのまま移動中の状態を示す。視線追跡検出用指標502cは、視線追跡検出用指標502bの状態から移動速度を下げて、再び停止している状態を示す。また、ユーザ501は、視線追跡検出用指標502aを視線501aで追跡し、視線追跡検出用指標502bを視線501bで追跡し、視線追跡検出用指標502cを視線501cで追跡している。視線検出回路201は、視線501a~視線501cの位置を検出する。 FIG. 9 is a schematic diagram showing the movement of the line of sight when viewing the line-of-sight tracking detection index whose speed changes. When moving the eye-tracking detection index, the CPU 3 can change at least one of the moving speed and moving direction of the eye-tracking detection index. For example, as shown in FIG. 9, the eye-tracking detection index moves linearly from left to right in FIG. The eye-tracking detection indicator 502a indicates a stopped state. The eye-tracking detection index 502b indicates a state in which the moving speed is increased from the state of the eye-tracking detection index 502a and the state is still moving. The eye-tracking detection index 502c indicates a state in which the movement speed is reduced from the state of the eye-tracking detection index 502b and is stopped again. The user 501 tracks the eye-tracking detection index 502a with the line of sight 501a, tracks the eye-tracking detection index 502b with the line of sight 501b, and tracks the eye-tracking detection index 502c with the line of sight 501c. The sight line detection circuit 201 detects the positions of the sight lines 501a to 501c.

図9に示す一例では、視線追跡検出用指標502bの移動速度が高速である分、視線501bが固視微動等により追従しきれず、視線501bでの視線遅れ(視線の移動の遅れ)が生じている。そして、この視線遅れを起因として、視線501bの位置と視線追跡検出用指標502bとの間に位置ズレが生じる。CPU3は、この位置ズレの程度(位置関係)を検出して、オフセット量(第2オフセット量)OA2としてメモリ部4に記憶させる。なお、オフセット量OA2は、システム遅れによるオフセット量OA1分も含まれている。そして、システム遅れの場合と同様に、CPU3は、移動体追跡時に視線位置表示用指標と移動体とを表示素子10に表示する際、オフセット量OA2分だけ、移動体に対する視線位置表示用指標の位置を移動させる補正を行う。この補正により、表示素子10上での移動体に対して、視線位置表示用指標を正確な位置に表示することができる。 In the example shown in FIG. 9, since the movement speed of the eye-tracking detection index 502b is high, the line-of-sight 501b cannot fully follow due to involuntary eye movement or the like, resulting in a line-of-sight delay (delay in movement of the line of sight) in the line-of-sight 501b. there is Due to this line-of-sight delay, a positional deviation occurs between the position of the line-of-sight 501b and the line-of-sight tracking detection index 502b. The CPU 3 detects the degree of this positional deviation (positional relationship) and stores it in the memory section 4 as an offset amount (second offset amount) OA2. The offset amount OA2 also includes the offset amount OA1 due to system delay. Then, as in the case of system delay, when displaying the line-of-sight position display index and the moving object on the display element 10 during tracking of the moving object, the CPU 3 shifts the line-of-sight position display index for the moving object by the offset amount OA2. Perform correction by moving the position. With this correction, the line-of-sight position display index can be displayed at an accurate position with respect to the moving object on the display element 10 .

図10は、速度が変化する視線追跡検出用指標を視認しているときの視線の動きのその他の例を示す模式図である。CPU3は、視線追跡検出用指標を移動させる際、視線追跡検出用指標の移動方向を変化させることができる。例えば、図10(a)では、図9と同様に、視線追跡検出用指標が速度を変更しつつ、図中の左側から右側に向かって直線的に移動している状態を示す。図10(b)では、視線追跡検出用指標が速度を変更しつつ、図中の上側から下側に向かって直線的に移動している状態を示す。固視微動による視線遅れの程度は、表示素子10での縦方向の移動(「上側から下側へ」および「下側から上側へ」)と、表示素子10での横方向の移動(「左側から右側へ」および「右側から左側へ」)とで異なる。従って、各移動に応じて、オフセット量OA2をメモリ部4に記憶しておく。これにより、移動体の移動方向に応じて、オフセット量OA2を使い分けることができ、視線位置表示用指標を正確な位置に表示することができる。以上のように、本実施形態では、CPU3は、視線追跡検出用指標を移動させる際、視線追跡検出用指標の移動速度および移動方向のうちの少なくとも一方を変化させることができる。 FIG. 10 is a schematic diagram showing another example of the movement of the line of sight when viewing the line-of-sight tracking detection index whose speed changes. When moving the eye-tracking detection index, the CPU 3 can change the movement direction of the eye-tracking detection index. For example, FIG. 10A shows a state in which the eye-tracking detection index is moving linearly from the left side to the right side in the drawing while changing the speed, similarly to FIG. FIG. 10(b) shows a state in which the eye-tracking detection index changes its speed and moves linearly from the upper side to the lower side in the drawing. The degree of line-of-sight delay due to involuntary eye movement depends on the vertical movement of the display element 10 (“from top to bottom” and “bottom to top”) and the horizontal movement of the display element 10 (“left side”). to the right" and "from the right to the left"). Therefore, the offset amount OA2 is stored in the memory unit 4 for each movement. As a result, the offset amount OA2 can be selectively used according to the moving direction of the moving object, and the line-of-sight position display index can be displayed at an accurate position. As described above, in this embodiment, when moving the eye-tracking detection index, the CPU 3 can change at least one of the moving speed and moving direction of the eye-tracking detection index.

図11は、キャリブレーション動作後に移動体の追跡を行うときのフローチャートである。ステップS101では、CPU3は、視線検出回路201によって視線を検出し、その検出結果に基づいて、移動体の移動に伴う視線追跡の速度(視線の移動速度)を計測する。また、ステップS102では、CPU3は、視線検出回路201での検出結果に基づいて、視線追跡の方向(視線の移動方向)を計測する。なお、表示素子10上での移動体の移動速度や移動方向については、公知の方法により計測可能(検出可能)である。また、ステップS102では、CPU3が視線追跡の方向を計測しているが、これに限定されない。例えば、CPU3が、デジタルスチルカメラ1で撮影された画像から視線位置に対応した移動体を認識し、移動体の移動方向から視線追跡の方向を予測してもよい。 FIG. 11 is a flow chart when tracking a moving object after the calibration operation. In step S101, the CPU 3 detects the line of sight by the line of sight detection circuit 201, and measures the line of sight tracking speed (moving speed of the line of sight) associated with the movement of the moving object based on the detection result. In step S<b>102 , the CPU 3 measures the line-of-sight tracking direction (line-of-sight movement direction) based on the detection result of the line-of-sight detection circuit 201 . Note that the moving speed and moving direction of the moving object on the display device 10 can be measured (detected) by a known method. Also, in step S102, the CPU 3 measures the eye-tracking direction, but the present invention is not limited to this. For example, the CPU 3 may recognize the moving body corresponding to the line-of-sight position from the image captured by the digital still camera 1 and predict the direction of line-of-sight tracking from the moving direction of the moving body.

ステップS103では、CPU3は、ステップS102で計測した視線追跡の方向のばらつきを求めて、当該ばらつきが所定値(第1閾値)よりも多いか否かを判断する。ステップS103での判断の結果、CPU3が、ばらつきが所定値よりも多いと判断した場合には、処理はステップS107に進む。一方、ステップS103での判断の結果、CPU3が、ばらつきが所定値よりも多くはない、すなわち、ばらつきが所定値よりも少ないと判断した場合には、処理はステップS104に進む。 In step S103, the CPU 3 obtains the variation in the eye-tracking direction measured in step S102, and determines whether or not the variation is greater than a predetermined value (first threshold). As a result of the determination in step S103, when the CPU 3 determines that the variation is greater than the predetermined value, the process proceeds to step S107. On the other hand, as a result of the determination in step S103, if the CPU 3 determines that the variation is not greater than the predetermined value, ie, that the variation is less than the predetermined value, the process proceeds to step S104.

ステップS107では、CPU3は、視線位置表示用指標の補正を行わずに、視線が検出された位置に視線位置表示用指標を表示する。ステップS104では、CPU3は、ステップS101で計測した視線追跡の速度が所定値(第2閾値)以上であるか否かを判断する。ステップS104での判断の結果、CPU3が、視線追跡の速度が所定値以上であると判断した場合には、処理はステップS106に進む。一方、ステップS104での判断の結果、CPU3が、視線追跡の速度が所定値以上ではない、すなわち、所定値未満であると判断した場合には、処理はステップS105に進む。 In step S107, the CPU 3 displays the line-of-sight position display index at the position where the line of sight is detected without correcting the line-of-sight position display index. In step S104, the CPU 3 determines whether or not the eye-tracking speed measured in step S101 is equal to or greater than a predetermined value (second threshold). As a result of the determination in step S104, when the CPU 3 determines that the speed of line-of-sight tracking is equal to or higher than the predetermined value, the process proceeds to step S106. On the other hand, as a result of the determination in step S104, when the CPU 3 determines that the eye-gaze tracking speed is not equal to or greater than the predetermined value, that is, is less than the predetermined value, the process proceeds to step S105.

ステップS106では、CPU3は、システム遅れと視線遅れとを加味して、オフセット量OA2分だけ視線位置表示用指標を移動させる補正を行う。ステップS105では、CPU3は、視線遅れのみを加味して、オフセット量OA1分だけ視線位置表示用指標の位置を移動させる補正(以下「指標位置補正」と言う)を行う。 In step S106, the CPU 3 takes into consideration the system delay and the line-of-sight delay, and performs correction by moving the line-of-sight position indicator by the offset amount OA2. In step S105, the CPU 3 performs correction (hereinafter referred to as "index position correction") for moving the position of the line-of-sight position display index by the offset amount OA1, taking into consideration only the line-of-sight delay.

以上のように、デジタルスチルカメラ1では、CPU3は、システム遅れおよび視線遅れのうち、少なくともシステム遅れを含む位置関係に基づいて、視線位置表示用指標の位置を補正する(ステップS105、ステップS106参照)。具体的には、CPU3は、視線位置表示用指標と移動体とに表示する際に、視線の移動速度が所定値以上の場合には、視線遅れおよびシステム遅れを含む位置関係に基づいて、視線位置表示用指標の位置を補正する(ステップS104、ステップS106参照)。また、CPU3は、視線の移動速度が所定値未満の場合には、システム遅れを含む位置関係に基づいて、視線位置表示用指標の位置を補正する(ステップS104、ステップS105参照)。このような指標位置補正の結果、図12に示す状態が得られる。 As described above, in the digital still camera 1, the CPU 3 corrects the position of the line-of-sight position display index based on the positional relationship including at least the system delay among the system delay and the line-of-sight delay (see steps S105 and S106). ). Specifically, when displaying on the line-of-sight position display index and the moving body, if the line-of-sight movement speed is equal to or greater than a predetermined value, the CPU 3 displays the line-of-sight position based on the positional relationship including line-of-sight delay and system delay. The position of the position display index is corrected (see steps S104 and S106). Further, when the line-of-sight movement speed is less than a predetermined value, the CPU 3 corrects the position of the line-of-sight position display index based on the positional relationship including the system delay (see steps S104 and S105). As a result of such index position correction, the state shown in FIG. 12 is obtained.

図12は、指標位置補正を行った際の表示素子での表示状態を示す模式図である。図12に示すように、ファインダイメージ600(表示素子10)上で被写体602aが被写体602bに移動しており、この移動をユーザ601は、視線601aから視線601bで追跡している。このとき、仮に指標位置補正を行っていない場合には、被写体602bから遅れた位置に視線位置表示用指標603aが表示される。しかしながら、指標位置補正が行われていることにより、被写体602bと同じ位置に視線位置表示用指標603が表示される。従って、デジタルスチルカメラ1では、ファインダイメージ600上での被写体602bに対して、視線位置表示用指標603を正確な位置に表示することができる。 FIG. 12 is a schematic diagram showing a display state on the display element when index position correction is performed. As shown in FIG. 12, a subject 602a is moving to a subject 602b on a finder image 600 (display element 10), and the user 601 tracks this movement from a line of sight 601a to a line of sight 601b. At this time, if index position correction is not performed, the line-of-sight position display index 603a is displayed at a position behind the object 602b. However, since the index position correction is performed, the line-of-sight position display index 603 is displayed at the same position as the subject 602b. Therefore, the digital still camera 1 can display the line-of-sight position display index 603 at an accurate position with respect to the subject 602b on the finder image 600. FIG.

図13は、ユーザの視点が移動して測距点を選択する場合の模式図ある。ファインダイメージ700(表示素子10)は、測距点を表示可能である。図13に示すように、ユーザ1301が測距点704aを見ている視線701aの状態から、斜め左下方の視線701bを移した場合に、システム遅れおよび視線遅れ(前述した位置関係)を用いて、測距点704bへの移動が予測される。これにより、視線が移動する前に測距点704bを選択することが可能となる。このように、ユーザ1301が視認している測距点が移動する場合に、測距点の移動先の予測(予測工程)を行うことができる。例えば、本実施形態では、CPU3が、予測工程を行う予測手段として機能する。 FIG. 13 is a schematic diagram of the case where the user's viewpoint moves to select a range-finding point. A finder image 700 (display element 10) can display a distance measuring point. As shown in FIG. 13, when the user 1301 shifts the line of sight 701a from the state of the line of sight 701a looking at the distance measuring point 704a to the line of sight 701b obliquely to the lower left, using the system delay and the line of sight delay (positional relationship described above), , to the ranging point 704b. This makes it possible to select the ranging point 704b before the line of sight moves. In this manner, when the focus detection point visually recognized by the user 1301 moves, the destination of the focus detection point can be predicted (prediction step). For example, in this embodiment, the CPU 3 functions as prediction means that performs a prediction step.

以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、本発明は、本実施形態では撮像装置に適用された例となっているが、適用される装置としては、撮像装置に限定されず、例えば、ヘッドマウントディスプレイにも適用可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes are possible within the scope of the gist thereof. The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors of the computer of the system or device reads the program. It can also be realized by executing processing. The invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions. Moreover, although the present invention is applied to an imaging device in this embodiment, the device to which the invention is applied is not limited to the imaging device, and can also be applied to, for example, a head-mounted display.

1 デジタルスチルカメラ(撮像装置)
5 視線検出装置
10 表示素子(表示部)
17 眼球用撮像素子(撮影部)
201 視線検出回路(視線検出部)
302a 視線追跡検出用指標
302b 視線追跡検出用指標
303a 視線位置表示用指標
303b 視線位置表示用指標
1 Digital still camera (imaging device)
5 line-of-sight detection device 10 display element (display unit)
17 eyeball imaging device (imaging unit)
201 line-of-sight detection circuit (line-of-sight detection unit)
302a Eye-tracking detection index 302b Eye-tracking detection index 303a Eye-gaze position display index 303b Eye-gaze position display index

Claims (9)

移動体を視認しているユーザの瞳の画像を撮影する撮影部と、前記画像に基づいて前記ユーザの視線の位置を検出する視線検出部と、前記視線の位置を示す視線位置表示用指標と前記移動体とを表示可能な表示部と、を備える視線検出装置であって、
前記ユーザに視線で追跡させる視線追跡検出用指標を前記表示部に表示させつつ、移動させる制御を行う制御手段と、
前記表示部上での前記移動体に対する前記視線位置表示用指標の位置を補正する補正手段と、を備え、
前記補正手段は、前記ユーザが前記視線追跡検出用指標を視線で追跡した際に、該視線の位置と前記視線追跡検出用指標との位置関係を検出し、前記視線位置表示用指標と前記移動体とを前記表示部に表示する際に、前記位置関係に基づいて、前記視線位置表示用指標の位置を補正することを特徴とする視線検出装置。
an imaging unit that captures an image of the eyes of a user viewing a moving object; a line-of-sight detection unit that detects the line-of-sight position of the user based on the image; and a line-of-sight position display index that indicates the line-of-sight position. A line-of-sight detection device comprising a display unit capable of displaying the moving object,
a control means for performing control to move while displaying on the display unit an index for eye-tracking detection that is to be tracked by the user's eye;
correction means for correcting the position of the line-of-sight position display index with respect to the moving object on the display unit;
The correcting means detects a positional relationship between a position of a line of sight and the eye-tracking detection index when the user tracks the eye-tracking detection index with a line of sight, and correcting the position of the index for displaying the line-of-sight position based on the positional relationship when the body is displayed on the display unit.
前記視線追跡検出用指標の追跡時には、前記視線位置表示用指標の表示の遅れが生じ、
前記補正手段は、前記視線位置表示用指標の表示の遅れを前記位置関係として検出することを特徴とする請求項1に記載の視線検出装置。
When tracking the eye-tracking detection indicator, a delay occurs in the display of the eye-gaze position display indicator,
2. The line-of-sight detection apparatus according to claim 1, wherein the correction means detects a delay in display of the line-of-sight position display index as the positional relationship.
前記視線追跡検出用指標の追跡時には、前記視線の移動の遅れが生じ、
前記補正手段は、前記視線の移動の遅れを前記位置関係として検出することを特徴とする請求項2に記載の視線検出装置。
When tracking the eye-tracking detection index, a delay occurs in movement of the line of sight,
3. The line-of-sight detection apparatus according to claim 2, wherein the correction means detects a delay in movement of the line of sight as the positional relationship.
前記補正手段は、前記視線位置表示用指標の表示の遅れおよび前記視線の移動の遅れのうち、少なくとも前記視線位置表示用指標の表示の遅れを含む前記位置関係に基づいて、前記視線位置表示用指標の位置を補正する請求項3に記載の視線検出装置。 The correction means corrects the line-of-sight position display indicator based on the positional relationship including at least the display delay of the line-of-sight position display indicator out of the display delay of the line-of-sight position display indicator and the movement of the line of sight. 4. The line-of-sight detection device according to claim 3, wherein the position of the index is corrected. 前記補正手段は、前記視線位置表示用指標と前記移動体とを前記表示部に表示する際に、前記視線の移動速度が所定値以上の場合には、前記視線の移動の遅れおよび前記視線位置表示用指標の表示の遅れを含む前記位置関係に基づいて、前記視線位置表示用指標の位置を補正し、前記視線の移動速度が所定値未満の場合には、前記視線位置表示用指標の表示の遅れを含む前記位置関係に基づいて、前記視線位置表示用指標の位置を補正する請求項4に記載の視線検出装置。 When the sight line position display index and the moving body are displayed on the display unit, the correction means corrects the movement delay of the sight line and the sight line position if the movement speed of the sight line is equal to or higher than a predetermined value. correcting the position of the line-of-sight position display indicator based on the positional relationship including the display delay of the display indicator, and displaying the line-of-sight position display indicator when the line-of-sight movement speed is less than a predetermined value; 5. The line-of-sight detection device according to claim 4, wherein the position of the line-of-sight position display index is corrected based on the positional relationship including the delay of . 前記制御手段は、前記視線追跡検出用指標を移動させる際、該視線追跡検出用指標の移動速度および移動方向のうちの少なくとも一方を変化させることを特徴とする請求項1乃至5のうちの何れか1項に記載の視線検出装置。 6. The controlling means, when moving the eye-tracking detection index, changes at least one of a moving speed and a moving direction of the eye-tracking detection index. 1. A line-of-sight detection device according to claim 1. 前記表示部は、測距点を表示可能であり、
前記ユーザが視認している前記測距点が移動する場合に、前記位置関係に基づいて、前記測距点の移動先を予測する予測手段を備えることを特徴とする請求項1乃至6のうちの何れか1項に記載の視線検出装置。
The display unit is capable of displaying a distance measuring point,
7. Among any of claims 1 to 6, further comprising prediction means for predicting a destination of said focus detection point based on said positional relationship when said focus detection point visually recognized by said user moves. The line-of-sight detection device according to any one of 1.
移動体を視認しているユーザの瞳の画像を撮影する撮影部と、前記画像に基づいて前記ユーザの視線の位置を検出する視線検出部と、前記視線の位置を示す視線位置表示用指標と前記移動体とを表示可能な表示部と、を備える視線検出装置を制御する方法であって、
前記ユーザに視線で追跡させる視線追跡検出用指標を前記表示部に表示させつつ、移動させる制御を行う制御工程と、
前記表示部上での前記移動体に対する前記視線位置表示用指標の位置を補正する補正工程と、を有し、
前記補正工程では、前記ユーザが前記視線追跡検出用指標を視線で追跡した際に、該視線の位置と前記視線追跡検出用指標との位置関係を検出し、前記視線位置表示用指標と前記移動体とを前記表示部に表示する際に、前記位置関係に基づいて、前記視線位置表示用指標の位置を補正することを特徴とする視線検出装置の制御方法。
an imaging unit that captures an image of the eyes of a user viewing a moving object; a line-of-sight detection unit that detects the line-of-sight position of the user based on the image; and a line-of-sight position display index that indicates the line-of-sight position. A method of controlling a line-of-sight detection device comprising a display unit capable of displaying the moving object,
a control step of performing control to move while displaying on the display unit an index for eye-tracking detection that is to be tracked by the user's line of sight;
a correction step of correcting the position of the line-of-sight position display index with respect to the moving object on the display unit;
In the correcting step, when the user tracks the eye-tracking detection index with his or her line of sight, the positional relationship between the line-of-sight position and the eye-tracking detection index is detected, and the line-of-sight position display index and the movement are detected. A control method for a line-of-sight detection device, comprising: correcting a position of the line-of-sight position display index based on the positional relationship when displaying a body on the display unit.
請求項1乃至7の何れか1項に記載の視線検出装置の各手段をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute each means of the line-of-sight detection device according to any one of claims 1 to 7.
JP2021188045A 2021-11-18 2021-11-18 Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program Pending JP2023074878A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021188045A JP2023074878A (en) 2021-11-18 2021-11-18 Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021188045A JP2023074878A (en) 2021-11-18 2021-11-18 Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program

Publications (1)

Publication Number Publication Date
JP2023074878A true JP2023074878A (en) 2023-05-30

Family

ID=86541222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021188045A Pending JP2023074878A (en) 2021-11-18 2021-11-18 Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program

Country Status (1)

Country Link
JP (1) JP2023074878A (en)

Similar Documents

Publication Publication Date Title
JP7358530B2 (en) Object recognition device and method of controlling the object recognition device
JP2803222B2 (en) Eye gaze detection device
JPH07151950A (en) Camera
JPH11338041A (en) Optical device and camera provided with line-of-sight detecting function
US11829052B2 (en) Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP2023074878A (en) Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program
JPH10307314A (en) Observation optical device
JPH0556924A (en) Video camera
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
JP7358130B2 (en) Electronic equipment and its control method
US20220277590A1 (en) Line-of-sight detection device and control method for controlling the same
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
US11632496B2 (en) Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
JP2023063023A (en) Electronic device and control method for the same
JP2023006629A (en) Control device and control method
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP3363492B2 (en) Eye gaze detection apparatus and eye gaze detection method
JP2023073758A (en) Electronic device and control method
JPH05232372A (en) Camera provided with device for detecting line of sight
JP2952070B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
JPH0938038A (en) Sight line detection device and optical instrument therewith
JP2023087377A (en) Visual line detection device
JP2023069526A (en) Electronic device and control method and program for the same