JP2023074878A - Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program - Google Patents
Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program Download PDFInfo
- Publication number
- JP2023074878A JP2023074878A JP2021188045A JP2021188045A JP2023074878A JP 2023074878 A JP2023074878 A JP 2023074878A JP 2021188045 A JP2021188045 A JP 2021188045A JP 2021188045 A JP2021188045 A JP 2021188045A JP 2023074878 A JP2023074878 A JP 2023074878A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- index
- display
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、視線検出装置、視線検出装置の制御方法およびプログラムに関する。 The present invention relates to a line-of-sight detection device, a line-of-sight detection device control method, and a program.
視線を検出する視線検出装置が従来から知られている(例えば、特許文献1および特許文献2参照)。特許文献1に記載の視線検出装置では、被験者に注視させるための指標を表示装置に複数表示させて、当該複数の指標の相対位置と、各指標を見せたときの眼の角膜反射像の相対位置とに基づいて、被験者の視機能の評価データを出力している。また、特許文献1に記載の視線検出装置では、表示装置上での各指標は静止している。特許文献2に記載の視線検出装置では、表示装置(画像表示装置)に表示される映像(スルー画像)から被写体の顔検出、視線検出を順に行い、その検出結果に基づいて、被写体のカメラ目線を判断している。
A line-of-sight detection device that detects a line of sight is conventionally known (see, for example,
視線の位置を示す指標を表示装置に表示する場合、例えば視線検出装置の制御部での処理時間や視線検出対象者の眼の固視微動等の諸条件によって、表示装置上では、指標の位置と、実際の(現在の)視線の位置とがズレる、すなわち、異なることがある。 When an index indicating the position of the line of sight is displayed on the display device, the position of the index on the display device may vary depending on various conditions, such as the processing time in the control unit of the line of sight detection device and the involuntary eye movement of the eye of the target of the line of sight detection. and the actual (current) line-of-sight position may deviate, that is, be different.
本発明は、表示部上での移動体に対して、視線位置表示用指標を正確な位置に表示することができる視線検出装置、視線検出装置の制御方法およびプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a line-of-sight detection device, a control method for the line-of-sight detection device, and a program capable of displaying a line-of-sight position indicator at an accurate position with respect to a moving object on a display unit. .
上記目的を達成するために、本発明の視線検出装置は、移動体を視認しているユーザの瞳の画像を撮影する撮影部と、画像に基づいてユーザの視線の位置を検出する視線検出部と、視線の位置を示す視線位置表示用指標と移動体とを表示可能な表示部と、を備える視線検出装置であって、ユーザに視線で追跡させる視線追跡検出用指標を表示部に表示させつつ、移動させる制御を行う制御手段と、表示部上での移動体に対する視線位置表示用指標の位置を補正する補正手段と、を備え、補正手段は、ユーザが視線追跡検出用指標を視線で追跡した際に、視線の位置と視線追跡検出用指標との位置関係を検出し、視線位置表示用指標と移動体とを表示部に表示する際に、位置関係に基づいて、視線位置表示用指標の位置を補正することを特徴とする。 In order to achieve the above object, the line-of-sight detection device of the present invention includes a photographing unit for capturing an image of the eyes of a user who is visually recognizing a moving object, and a line-of-sight detection unit for detecting the position of the user's line of sight based on the image. and a display unit capable of displaying a line-of-sight position display index indicating the line-of-sight position and a moving object, wherein the display unit displays the line-of-sight tracking detection index to be tracked by the user's line of sight. and a correction means for correcting the position of the line-of-sight position display index with respect to the moving object on the display unit. At the time of tracking, the positional relationship between the line-of-sight position and the eye-tracking detection index is detected, and when the line-of-sight position display index and the moving object are displayed on the display unit, the line-of-sight position display indicator is calculated based on the positional relationship. It is characterized by correcting the position of the index.
本発明によれば、表示部上での移動体に対して、視線位置表示用指標を正確な位置に表示することができる。 According to the present invention, the line-of-sight position indicator can be displayed at an accurate position with respect to the moving object on the display unit.
以下、本発明の実施形態について図1~図13を参照しながら詳細に説明する。しかしながら、以下の実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施形態に記載されている構成によって限定されることはない。 Embodiments of the present invention will be described in detail below with reference to FIGS. 1 to 13. FIG. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.
図1は、視線検出装置が搭載されたデジタルスチルカメラの内部構成を示す概略図である。図1に示すように、デジタルスチルカメラ(撮像装置)1は、撮影レンズ1Aと、撮影レンズ1Aが着脱自在に装着されるカメラ本体のカメラ筐体1Bと、を有するレンズ交換式カメラである。カメラ筐体1Bには、撮像素子2、CPU3、メモリ部4、表示素子(表示部)10、表示素子駆動回路11、接眼レンズ12、視線検出装置5が内蔵されている。CPU3は、マイクロコンピュータの中央処理装置であり、カメラ全体の作動を制御する。また、図示は省略するが、メモリ部4とは別のメモリ部もカメラ筐体1Bに内蔵されている。このメモリ部には、視線検出装置5を含むデジタルスチルカメラ1の各部や各手段等の作動(視線検出装置の制御方法)をCPU3(コンピュータ)に実行させるためのプログラムが記憶されている。撮像素子2は、デジタルスチルカメラ1の撮影レンズ1Aの予定結像面に配置されており、被写体を撮像することができる。メモリ部4は、撮像素子2および眼球用撮像素子(撮影部)17で撮像された被写体の画像を記録する、すなわち、撮像素子2および眼球用撮像素子17からの撮像信号の記憶機能を有する。また、メモリ部4は、後述する視線の個人差を補正する視線補正データの記憶機能を有する。表示素子10は、液晶等で構成され、例えば撮像素子2で撮像された被写体の画像等を表示することができる。表示素子駆動回路11は、表示素子10を駆動する。これにより、表示素子10に画像等が表示される。接眼レンズ12は、ユーザ(撮影者)が表示素子10に表示された被写体の画像を観察する際に、ユーザが覗き込むレンズである。また、カメラ筐体1Bの背面側には、操作部材41、操作部材42、操作部材43が配置されている。操作部材41~操作部材43は、例えば、デジタルスチルカメラ1の撮像条件(作動条件)等を設定する際に用いられる。
FIG. 1 is a schematic diagram showing the internal configuration of a digital still camera equipped with a line-of-sight detection device. As shown in FIG. 1, a digital still camera (imaging device) 1 is an interchangeable lens type camera having a photographing
カメラ筐体1Bには、視線検出装置5が内蔵されている。視線検出装置5は、ユーザの視線の位置を検出する装置であり、光源13a、光源13b、光分割器15、受光レンズ16、眼球用撮像素子17を有する。光源13a、光源13bは、角膜反射による反射像と瞳孔との関係に基づいて、視線方向を検出するためにユーザの眼球(瞳)14を照明するための装置である。光源13a、光源13bは、接眼レンズ12の周囲に配置された赤外発光ダイオードで構成されている。光源13a、光源13bで照明された眼球像と、光源13a、光源13bの角膜反射による像とは、接眼レンズ12を透過して、光分割器15で反射される。そして、これらの像は、受光レンズ16によって眼球用撮像素子17上に結像される。眼球用撮像素子17は、CMOS等の光電素子列が2次元的に配置された素子である。受光レンズ16は、撮影者の眼球14の瞳孔と眼球用撮像素子17とを共役な結像関係に位置付けている。視線検出装置5では、眼球用撮像素子17上に結像された眼球14と、光源13a、光源13bの角膜反射による像との位置関係に基づいて、後述する所定のアルゴリズムで視線の位置(視線方向)を検出することができる。なお、光源13a、光源13bで照明された眼球14を、接眼レンズ12と光分割器15を介さずに、直接眼球用撮像素子17で撮像する構成としてもよい。この場合、表示素子10と干渉しない位置に眼球用撮像素子17と受光レンズ16とを配置して、分取得画像に光学補正をかければよい。
A line-of-
撮影レンズ1Aは、レンズ101、レンズ102、絞り111、絞り駆動装置112、レンズ駆動用モータ113、レンズ駆動部材114、フォトカプラ115、パルス板116、マウント接点117、焦点調節回路118を有する。撮影レンズ1Aは、本実施形態ではレンズ101およびレンズ102の2枚のレンズを有するが、レンズの枚数については、2枚に限定されない。レンズ101とレンズ102との間には、絞り111が配置されている。絞り駆動装置112は、絞り111を駆動させる装置である。レンズ駆動用モータ113は、駆動ギヤ等からなるレンズ駆動部材114に連結され、このレンズ駆動部材114を介して、レンズ101およびレンズ102のうちの少なくとも一方のレンズを移動させるモータである。フォトカプラ115は、レンズ駆動部材114に連動するパルス板116の回転を検出して、その検出結果を焦点調節回路118に伝える。焦点調節回路118は、フォトカプラ115の検出結果とカメラ本体側からのレンズ駆動量の情報とに基づいて、レンズ駆動用モータ113を所定量駆動させる。これにより、前記一方のレンズを合焦点位置に移動させることができる。マウント接点117は、カメラ本体と撮影レンズ1Aとの通信可能に接続するインターフェイスとなる。
The photographing
図2は、図1に示すデジタルスチルカメラの電気的な構成を示すブロック図である。図2に示すように、カメラ筐体1B内では、視線検出回路(視線検出部)201、測光回路202、自動焦点検出回路203、信号入力回路204、表示素子駆動回路11、光源駆動回路205がそれぞれCPU3と通信可能に接続されている。また、撮影レンズ1A内には、絞り駆動装置112に含まれる絞り制御回路206と、焦点調節回路118とが配置されており、これらの回路は、マウント接点117を介してカメラ本体と間で信号の伝達がなされる。視線検出回路201は、眼球用撮像素子17で眼球像が結像することによる出力をA/D変換し、この像情報をCPU3に送信する。CPU3は、視線検出に必要な眼球像の各特徴点を、後述する所定のアルゴリズムに従って抽出する。そして、CPU3は、各特徴点の位置からユーザの視線を算出する。このように、視線検出回路201は、ユーザの眼球の画像に基づいて、ユーザの視線の位置を検出する視線検出部となっており、視線検出装置5の一部を構成している。測光回路202は、測光センサの機能も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、この情報を被写界輝度情報として、CPU3に送る。自動焦点検出回路203は、撮像素子2におけるCMOS等の光電変換素子列の中に含まれる、位相差検出の為に使用される複数の画素からの信号電圧をA/D変換し、CPU3に送る。CPU3は、前記複数の画素の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは位相差AFとして知られる公知の技術である。信号入力回路204には、不図示のレリーズボタンの第1ストロークでONし、カメラの測光、測距、視線検出動作等を開始するためのスイッチであるSW1が電気的に接続される。また、信号入力回路204には、レリーズボタンの第2ストロークでONし、レリーズ動作を開始するためのスイッチであるSW2が電気的に接続される。そして、各スイッチからの信号が信号入力回路204に入力され、CPU3に送信される。光源駆動回路205は、光源13a、光源13bを駆動させる回路である。これにより、光源13a、光源13bは、それぞれ、ユーザ(眼球14)にとって不感の赤外線IFを照射する発光ダイオードである。
FIG. 2 is a block diagram showing the electrical configuration of the digital still camera shown in FIG. As shown in FIG. 2, a line-of-sight detection circuit (line-of-sight detection unit) 201, a
図3は、光源から眼球に赤外線が照射されている状態を示す模式図である。図4は、図3に示す状態の下で視線の位置(視線)を検出する原理を説明するための図である。なお、図4(a)は、眼球用撮像素子に投影される眼球像の概略図であり、図4(b)は、眼球像の輝度分布を示した図である。また、図3および図4では、それぞれ、X軸方向が水平方向、Y軸方向が鉛直方向となっており、Z軸方向がX軸方向およびY軸方向と直交する方向(受光レンズ16の光軸方向)となっている。 FIG. 3 is a schematic diagram showing a state in which an eyeball is irradiated with infrared light from a light source. FIG. 4 is a diagram for explaining the principle of detecting the line-of-sight position (line-of-sight) under the condition shown in FIG. FIG. 4(a) is a schematic diagram of an eyeball image projected onto an eyeball imaging element, and FIG. 4(b) is a diagram showing the luminance distribution of the eyeball image. 3 and 4, the X-axis direction is the horizontal direction, the Y-axis direction is the vertical direction, and the Z-axis direction is the direction orthogonal to the X-axis direction and the Y-axis direction (the direction of the light from the light receiving lens 16). axial direction).
図3に示すように、光源13aと光源13bとは、受光レンズ16の光軸を対称の軸として、線対称に配置されている。なお、この配置構成は、視線検出原理の理解を容易にするために、図1に示す配置構成とは異なっている。光源13aおよび光源13bからは、それぞれ、ユーザの眼球14に向かって赤外線IFが照射されている。そして、眼球14の角膜142で反射した赤外線IFの一部は、受光レンズ16で集光されて、眼球用撮像素子17で結像する。
As shown in FIG. 3, the
図4を参照して、ユーザの視線の位置を検出する原理について説明する。この原理の流れとしては、眼球像の中から、特徴点として、光源13a、13bによる角膜反射像Pd、角膜反射像Peおよび瞳孔中心(瞳孔の輪郭中心)cを検出する。そして、この検出結果に基づいて、眼球14の回転角(回転角θ、回転角θy)を算出する。この回転角とキャリブレーションデータとより、表示素子10上におけるユーザの視線の位置を検出することができる。
The principle of detecting the position of the user's line of sight will be described with reference to FIG. As a flow of this principle, the corneal reflection image Pd by the
まず、角膜反射像Pd、角膜反射像Peの検出について説明する。図4(a)では、眼球用撮像素子17上で、角膜反射像Pdが結像した位置を座標(Xa,Ya)とし、角膜反射像Peが結像した位置を座標(Xb,Yb)とする。なお、一例として、Ya=Ybとする。そして、図4(a)における眼球像のX軸方向に沿った任意の1行分(以下「検索行」と言う)の輝度分布(輝度情報)を示すと、座標(Xa,Ya)および座標(Xb,Yb)を含む検索行では、図4(b)に示す輝度分布が得られる。図4(b)に示すように、座標(Xa,Ya)および座標(Xb,Yb)では、輝度閾値TH1以上の極端に強いレベルの輝度が得られている。そして、検索行をY軸方向に沿って走査して、各検索行での輝度のレベル判定を順次処理する。この処理に基づいて、眼球像全体に対して輝度閾値TH1以上となった座標を検出して、当該検出された座標群の重心を演算することにより、角膜反射像Pdの座標(Xa,Ya)と角膜反射像Peの座標(Xb,Yb)とを検出することができる。
First, detection of the corneal reflection image Pd and the corneal reflection image Pe will be described. In FIG. 4A, the position where the corneal reflection image Pd is formed on the
次に、瞳孔141の瞳孔中心cの検出について説明する。図4(b)では、瞳孔141の輪郭部の一部である瞳孔端aの座標を(Xc,Yc)、瞳孔端bの座標を(Xd,Yd)とする。図4(b)に示すように、瞳孔141の領域は、座標(Xa,Ya)、(Xb,Yb)を除き、輝度閾値TH2以下の低いレベルの輝度が得られる。これに対し、瞳孔141の外側の光彩143の領域に相当する部分では、輝度閾値TH1と輝度閾値TH2との間である中間レベルの輝度が得られる。つまり、輝度閾値TH1以下である輝度閾値TH2近傍で輝度変化があり、かつ、輝度閾値TH2と同じ輝度レベルの画素座標(Xc,Yc)、(Xd,Yd)を瞳孔141の輪郭部と判定する。この判定を前記検索行と、眼球像のY軸方向に沿った検索列とを変えて、輝度のレベル判定を順次処理することにより、眼球像全体に対して瞳孔141の輪郭部全体の座標を検出することができる。この瞳孔141の輪郭座標に対して真円近似法を用いることにより、瞳孔中心cの座標および瞳孔141の半径rを演算することができる。例えば輪郭座標が20個あるとし、各輪郭座標(Xi,Yi)、i=1~20で表した場合、瞳孔中心cの座標(X0、Y0)と半径rとは、次式より求めることができる。
Next, detection of the pupil center c of the
なお、αは、X0を算出するための一時変数、βは、Y0を算出するための一時変数、γは、rを算出するための一時変数である。 is a temporary variable for calculating X0, .beta. is a temporary variable for calculating Y0, and .gamma. is a temporary variable for calculating r.
次に、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、実質的には角膜反射像Pd、角膜反射像Peの間隔の関数として求めることができる。
Next, the imaging magnification β of the eyeball image is calculated. β is a magnification determined by the position of the
角膜反射像Pdと角膜反射像Peとの中点の座標と、角膜142の曲率中心Oの座標とは、ほぼ一致する。そのため、角膜142の曲率中心Oと瞳孔141の瞳孔中心cまでの標準的な距離をOcとすると、眼球14の光軸のY軸回り回転角θxは、次式より求めることができる。
β*Oc*SINθx≒((Xa+Xb)/2)-X0・・・(3)
The coordinates of the midpoint between the corneal reflection image Pd and the corneal reflection image Pe and the coordinates of the center of curvature O of the cornea 142 substantially match. Therefore, if the standard distance between the center of curvature O of the cornea 142 and the pupil center c of the
β*Oc*SINθx≈((Xa+Xb)/2)-X0 (3)
また、図3では、ユーザの眼球14がY軸回りに回転する場合の回転角θxを算出する例を示しているが、ユーザの眼球14がX軸回りに回転する場合の回転角θyは、次式より求めることができる。
β*Oc*SINθy≒((Ya+Yb)/2)-Y0・・・(4)
FIG. 3 shows an example of calculating the rotation angle θx when the user's
β*Oc*SINθy≈((Ya+Yb)/2)-Y0 (4)
そして、回転角θ、回転角θyを用いて、表示素子10上でユーザの視線の位置を求める。その際、注視点位置を表示素子10上での瞳孔中心cに対応する座標を(Hx,Hy)とすると、
Hx=m×(θx-(θx_cal))・・・(5)
Hy=m×(θy-(θy_cal))・・・(6)
となる。なお、係数mは、デジタルスチルカメラ1のファインダ光学系の構成で定まる定数で、回転角θx、回転角θyを、表示素子10上での瞳孔中心cに対応する座標に変換する変換係数である。係数mは、予めメモリ部4に記憶されている。また、θx_cal、θy_calは、それぞれ、後述するキャリブレーション動作時に演算した回転角であり、視線検出ルーチンが開始する前にメモリ部4に記憶されている。
Then, the position of the user's line of sight on the
Hx=m×(θx−(θx_cal)) (5)
Hy=m×(θy−(θy_cal)) (6)
becomes. Note that the coefficient m is a constant determined by the configuration of the finder optical system of the digital
ここで、「キャリブレーション動作」とは、人間の眼球形状の個人差等の要因により、ユーザが実際に注視している位置と、演算された推定注視点の位置とのズレを抑制するためのオフセット量を記憶する動作である。キャリブレーション動作時に表示素子10にキャリブレーション用画像を表示する。画像は、ユーザが注視するためのターゲット枠である。そのときの回転角θx_cal、θy_calを取得し、オフセット量としてメモリ部4に記憶させている。なお、キャリブレーション動作では、ターゲット枠を複数の位置に表示し、各位置のそれぞれの回転角で、位置同士の間を補間することにより、精度向上が可能である。
Here, the “calibration operation” is an operation for suppressing the deviation between the position where the user is actually gazing and the position of the calculated estimated gazing point due to factors such as individual differences in the shape of human eyeballs. This is the operation of storing the offset amount. An image for calibration is displayed on the
図5は、移動している被写体(移動体)をユーザが視線で追跡している状態を示す模式図である。図5に示す状態では、ユーザ501が被写体202aまたは被写体202bを見ている視線の位置を前述した視線検出によって検出している。そして、この視線の位置を示す視線位置表示用指標503がファインダイメージ200(表示素子10)上に表示された状態となっている。図5に示すように、被写体202aが被写体202bに移動しており、この移動をユーザ501は、視線201aから視線201bで追跡している。このように、被写体202a、被写体202bは、同一の移動体であり、この移動体をユーザが視認している。そして、移動体を視認しているユーザ501の眼球14の画像が、眼球用撮像素子17で撮影されて、ユーザ501の視線位置検出に用いられている。また、ファインダイメージ200(表示素子10)は、検出された視線位置を示す視線位置表示用指標503と、移動体とを表示することができ、視線検出装置5の一部を構成している。ファインダイメージ200では、視線位置表示用指標503は、被写体202bと同じ位置に表示されるのが好ましいが、被写体202bよりも遅れた位置に表示されてしまう。その理由について、図6を参照して説明する。
FIG. 5 is a schematic diagram showing a state in which a user is tracking a moving subject (moving object) with his or her line of sight. In the state shown in FIG. 5, the line-of-sight position of the
図6は、視線位置表示用指標が表示されるタイミングを説明するための図である。図6(a)に示す状態では、ファインダイメージ300(表示素子10)上でユーザに視線で追跡させる視線追跡検出用指標302aが視線追跡検出用指標302bに移動しており、その移動をユーザ301は、視線301aから視線301bで追跡している。視線追跡検出用指標302a、視線追跡検出用指標302bは、移動体を模した指標であり、本実施形態では星形をなす。
FIG. 6 is a diagram for explaining the timing at which the line-of-sight position indicator is displayed. In the state shown in FIG. 6(a), the eye-tracking
図6(c)に示す状態では、ファインダイメージ300’上で視線追跡検出用指標302a’の移動をユーザ301が視線301a’で追跡しているかまたは視線追跡検出用指標302b’の移動をユーザ301が視線301b’で追跡している。また、視線追跡検出用指標302a’を視線301a’で追跡しているとき、視線位置表示用指標303aがファインダイメージ300’に表示されている。同様に、視線追跡検出用指標302b’の移動を視線301b’で追跡しているとき、視線位置表示用指標303bがファインダイメージ300’に表示されている。なお、本実施形態では、CPU3は、視線追跡検出用指標を表示素子10に表示させつつ、移動させる制御(制御工程)を行う制御手段として機能するが、これに限定されない。例えば、視線検出装置5は、CPU3とは別に、当該制御手段として機能するCPUを有していてもよい。
In the state shown in FIG. 6(c), the
図6(b)は、視線追跡検出用指標を表示してから、視線位置検出を経て、視線位置表示用指標を表示するまでの処理を示すタイミングチャートである。なお、この処理は、CPU3や視線検出回路201等で行なわれる。視線追跡検出用指標302aがファインダイメージ300の図6(a)に示す箇所に位置する(表示される)タイミングで、タイミングチャート310に示すように、眼球14の画像を蓄積して(斜め線ハッチング参照)、読み出す(直線の矢印参照)。次いで、読み出された眼球画像用いて、タイミングチャート311に示すように、視線位置の演算を行う(縦線ハッチング参照)。次いで、タイミングチャート312に示すように、表示素子10に視線位置表示用指標303aを表示する(横線ハッチング参照)。
FIG. 6B is a timing chart showing the processing from displaying the eye-tracking detection index to displaying the eye-gaze position display index through eye-gaze position detection. This processing is performed by the
視線位置表示用指標303aは、ファインダイメージ300’の図6(c)に示す箇所に位置しており、この位置は、図6(a)に示す視線追跡検出用指標302aと同じ位置である。しかしながら、視線追跡検出用指標302a’が移動しているため、実際には、視線追跡検出用指標302a’を追跡している視線301a’も、移動してしまっている。ファインダイメージ300’では、視線位置表示用指標303aは、視線追跡検出用指標302a’と同じ位置に表示されるのが好ましいが、CPU3等での前述した処理に時間を要するため、視線追跡検出用指標302a’よりも遅れた位置に表示されてしまう。
The line-of-sight
同様に、視線位置表示用指標303bは、ファインダイメージ300’の図6(c)に示す箇所に位置しており、この位置は、図6(a)に示す視線追跡検出用指標302bと同じ位置である。しかしながら、視線追跡検出用指標302b’が移動しているため、実際には、視線追跡検出用指標302b’を追跡している視線301b’も、移動してしまっている。ファインダイメージ300’では、視線位置表示用指標303bは、視線追跡検出用指標302b’と同じ位置に表示されるのが好ましいが、CPU3等での前述した処理に時間を要するため、視線追跡検出用指標302b’よりも遅れた位置に表示されてしまう。
Similarly, the line-of-sight
以上のように、視線追跡検出用指標の追跡時には、CPU3や視線検出回路201等で行なわれる処理に時間を要することに起因する(図6(b)参照)、視線位置表示用指標の表示の遅れが生じることが分かる。以下、この遅れを「システム遅れ」と言うことがある。
As described above, when the eye-tracking detection index is tracked, the processing performed by the
図7は、静止した物体を見ている場合の視線の動きを示す模式図である。視野410内で静止した物体を模した注視指標702をユーザが観察している場合、図7に示すように、視線701は、微小なトレモア411(0.02°程度)によって揺れていて、そのトレモア411を行いながらゆっくりとドリフト413していく。ドリフト413によって視線701が注視指標702からズある程度レると、大きいフリックであるマイクロサッカード412(0.33°程度)によって視線701の位置を戻そうとする。このように、視線701は、絶えず微小な動きを繰り返していて、止まることがない。この視線701の移動は、「固視微動」と呼ばれている。固視微動は、生理現象の1つである。
FIG. 7 is a schematic diagram showing movement of the line of sight when looking at a stationary object. When the user observes a
図8は、移動体を視認しているときの視線の動きを示す模式図である。図8(a)に示すように、ファインダイメージ400(表示素子10)上で被写体402aが被写体402bに移動しており、この移動をユーザ401は、視線401aから視線401bで追跡している。図8(b)は、被写体402aが被写体402bに移動する際の位置の変化(横軸)と時間経過(縦軸)との関係を示すグラフ420である。図8(b)に示すように、被写体402aが被写体402bに等速移動している(点線422参照)。この場合、視線は、固視微動があるため、そのまま等速で追従せず、ドリフト414(トレモアを含む)であまり移動しない状態と、被写体が離れていくにつれて、マイクロサッカード412で追いつく状態とを繰り返しながら追従する(実線421参照)。
FIG. 8 is a schematic diagram showing movement of the line of sight when viewing a moving object. As shown in FIG. 8(a), a subject 402a moves to a subject 402b on the finder image 400 (display element 10), and the
このように、移動体の追跡時には、固視微動があるため(図8(b)参照)、移動体の移動速度の程度によっては、視線の移動の遅れが生じることが分かる。以下、この遅れを「視線遅れ(視線追跡特性)」と言うことがある。なお、視線遅れは、視線追跡検出用指標の追跡時にも同様に生じる。そして、視線遅れは、システム遅れに加えて、視線位置表示用指標の表示の遅れのさらなる原因にもなる。 As described above, when tracking a moving object, there is a slight involuntary eye movement (see FIG. 8(b)), so it can be seen that the movement of the line of sight is delayed depending on the moving speed of the moving object. Hereinafter, this delay may be referred to as "line-of-sight delay (line-of-sight tracking characteristic)". Note that the line-of-sight delay similarly occurs when the line-of-sight tracking detection index is tracked. In addition to the system delay, the line-of-sight delay also causes a delay in the display of the line-of-sight position indicator.
以上のように、移動体の追跡時には、システム遅れや視線遅れが生じて、視線位置表示用指標の表示が遅れるおそれがある(視線追跡検出用指標の追跡時についても同様)。そこで、デジタルスチルカメラ1(視線検出装置5)では、このような不具合を低減可能に構成されている。以下、この構成および作用について説明する。 As described above, when tracking a moving object, a system delay or a line-of-sight delay may occur, and display of the line-of-sight position display index may be delayed (the same applies when tracking the line-of-sight tracking detection index). Therefore, the digital still camera 1 (line-of-sight detection device 5) is configured to be able to reduce such problems. This configuration and operation will be described below.
デジタルスチルカメラ1は、移動体追跡時の視線位置表示用指標の表示に先立って、キャリブレーション動作を行う。なお、キャリブレーション動作は、不図示のキャリブレーション動作開始用の画面を操作することによって行われる。このキャリブレーション動作では、表示素子10上での視線位置表示用指標の位置を補正する(補正工程)。本実施形態では、CPU3は、補正工程を行う補正手段として機能するが、これに限定されない。例えば、デジタルスチルカメラ1は、CPU3とは別に、当該補正手段として機能するCPUを有していてもよい。まず、キャリブレーション動作時には、ユーザが注視するためのターゲット枠であるキャリブレーション用画像として、視線追跡検出用指標を表示素子10に表示する。例えば、図6(a)に示すように、視線追跡検出用指標302aをファインダイメージ300に表示する。視線追跡検出用指標302aが例えば等速移動することにより、ユーザ301が視線追跡検出用指標302aを視線301aで追跡する。その追跡の際、図6(b)および(c)に示すように、システム遅れ(視線位置表示用指標の表示の遅れ)を起因として、視線位置表示用指標303a(視線の位置)と視線追跡検出用指標302a’との間に位置ズレが生じる。CPU3は、この位置ズレの程度(位置関係)を検出して、オフセット量(第1オフセット量)OA1としてメモリ部4に記憶させる。そして、CPU3は、移動体追跡時に視線位置表示用指標303aと移動体とを表示素子10に表示する際、前述した位置関係に基づいたオフセット量OA1分だけ、移動体に対する視線位置表示用指標303aの位置を移動させる補正を行う。この補正により、例えば図12に示すように、ファインダイメージ600(表示素子10)上での被写体602b(移動体)に対して、視線位置表示用指標603を正確な位置に、すなわち、重ねて表示することができる。
The digital
なお、オフセット量OA1は、ファインダイメージ300上での視線追跡検出用指標302aの移動速度に応じて変化する。そのため、キャリブレーション動作時に、例えば視線追跡検出用指標302aの移動速度を大、中、小の3段階に分けて、各段階でのオフセット量OA1をメモリ部4に記憶する。そして、移動体追跡時に視線位置表示用指標を表示する際、表示素子10上での移動体の移動速度が「大」の場合には、オフセット量OA1として、「大」段階でのオフセット量OA1を用いる。また、表示素子10上での移動体の移動速度が「中」の場合には、オフセット量OA1として、「中」段階でのオフセット量OA1を用いる。また、表示素子10上での移動体の移動速度が「小」の場合には、オフセット量OA1として、「小」段階でのオフセット量OA1を用いる。このようにオフセット量OA1を使い分けることにより、視線位置表示用指標603を正確な位置に表示することができる。
The offset amount OA1 changes according to the moving speed of the eye-tracking
図9は、速度が変化する視線追跡検出用指標を視認しているときの視線の動きを示す模式図である。CPU3は、視線追跡検出用指標を移動させる際、視線追跡検出用指標の移動速度および移動方向のうちの少なくとも一方を変化させることができる。例えば図9に示すように、視線追跡検出用指標は、図9中の左側から右側に向かって直線的に移動しており、その際、移動速度が変化している。視線追跡検出用指標502aは、停止している状態を示す。視線追跡検出用指標502bは、視線追跡検出用指標502aの状態から移動速度上げて、そのまま移動中の状態を示す。視線追跡検出用指標502cは、視線追跡検出用指標502bの状態から移動速度を下げて、再び停止している状態を示す。また、ユーザ501は、視線追跡検出用指標502aを視線501aで追跡し、視線追跡検出用指標502bを視線501bで追跡し、視線追跡検出用指標502cを視線501cで追跡している。視線検出回路201は、視線501a~視線501cの位置を検出する。
FIG. 9 is a schematic diagram showing the movement of the line of sight when viewing the line-of-sight tracking detection index whose speed changes. When moving the eye-tracking detection index, the
図9に示す一例では、視線追跡検出用指標502bの移動速度が高速である分、視線501bが固視微動等により追従しきれず、視線501bでの視線遅れ(視線の移動の遅れ)が生じている。そして、この視線遅れを起因として、視線501bの位置と視線追跡検出用指標502bとの間に位置ズレが生じる。CPU3は、この位置ズレの程度(位置関係)を検出して、オフセット量(第2オフセット量)OA2としてメモリ部4に記憶させる。なお、オフセット量OA2は、システム遅れによるオフセット量OA1分も含まれている。そして、システム遅れの場合と同様に、CPU3は、移動体追跡時に視線位置表示用指標と移動体とを表示素子10に表示する際、オフセット量OA2分だけ、移動体に対する視線位置表示用指標の位置を移動させる補正を行う。この補正により、表示素子10上での移動体に対して、視線位置表示用指標を正確な位置に表示することができる。
In the example shown in FIG. 9, since the movement speed of the eye-tracking
図10は、速度が変化する視線追跡検出用指標を視認しているときの視線の動きのその他の例を示す模式図である。CPU3は、視線追跡検出用指標を移動させる際、視線追跡検出用指標の移動方向を変化させることができる。例えば、図10(a)では、図9と同様に、視線追跡検出用指標が速度を変更しつつ、図中の左側から右側に向かって直線的に移動している状態を示す。図10(b)では、視線追跡検出用指標が速度を変更しつつ、図中の上側から下側に向かって直線的に移動している状態を示す。固視微動による視線遅れの程度は、表示素子10での縦方向の移動(「上側から下側へ」および「下側から上側へ」)と、表示素子10での横方向の移動(「左側から右側へ」および「右側から左側へ」)とで異なる。従って、各移動に応じて、オフセット量OA2をメモリ部4に記憶しておく。これにより、移動体の移動方向に応じて、オフセット量OA2を使い分けることができ、視線位置表示用指標を正確な位置に表示することができる。以上のように、本実施形態では、CPU3は、視線追跡検出用指標を移動させる際、視線追跡検出用指標の移動速度および移動方向のうちの少なくとも一方を変化させることができる。
FIG. 10 is a schematic diagram showing another example of the movement of the line of sight when viewing the line-of-sight tracking detection index whose speed changes. When moving the eye-tracking detection index, the
図11は、キャリブレーション動作後に移動体の追跡を行うときのフローチャートである。ステップS101では、CPU3は、視線検出回路201によって視線を検出し、その検出結果に基づいて、移動体の移動に伴う視線追跡の速度(視線の移動速度)を計測する。また、ステップS102では、CPU3は、視線検出回路201での検出結果に基づいて、視線追跡の方向(視線の移動方向)を計測する。なお、表示素子10上での移動体の移動速度や移動方向については、公知の方法により計測可能(検出可能)である。また、ステップS102では、CPU3が視線追跡の方向を計測しているが、これに限定されない。例えば、CPU3が、デジタルスチルカメラ1で撮影された画像から視線位置に対応した移動体を認識し、移動体の移動方向から視線追跡の方向を予測してもよい。
FIG. 11 is a flow chart when tracking a moving object after the calibration operation. In step S101, the
ステップS103では、CPU3は、ステップS102で計測した視線追跡の方向のばらつきを求めて、当該ばらつきが所定値(第1閾値)よりも多いか否かを判断する。ステップS103での判断の結果、CPU3が、ばらつきが所定値よりも多いと判断した場合には、処理はステップS107に進む。一方、ステップS103での判断の結果、CPU3が、ばらつきが所定値よりも多くはない、すなわち、ばらつきが所定値よりも少ないと判断した場合には、処理はステップS104に進む。
In step S103, the
ステップS107では、CPU3は、視線位置表示用指標の補正を行わずに、視線が検出された位置に視線位置表示用指標を表示する。ステップS104では、CPU3は、ステップS101で計測した視線追跡の速度が所定値(第2閾値)以上であるか否かを判断する。ステップS104での判断の結果、CPU3が、視線追跡の速度が所定値以上であると判断した場合には、処理はステップS106に進む。一方、ステップS104での判断の結果、CPU3が、視線追跡の速度が所定値以上ではない、すなわち、所定値未満であると判断した場合には、処理はステップS105に進む。
In step S107, the
ステップS106では、CPU3は、システム遅れと視線遅れとを加味して、オフセット量OA2分だけ視線位置表示用指標を移動させる補正を行う。ステップS105では、CPU3は、視線遅れのみを加味して、オフセット量OA1分だけ視線位置表示用指標の位置を移動させる補正(以下「指標位置補正」と言う)を行う。
In step S106, the
以上のように、デジタルスチルカメラ1では、CPU3は、システム遅れおよび視線遅れのうち、少なくともシステム遅れを含む位置関係に基づいて、視線位置表示用指標の位置を補正する(ステップS105、ステップS106参照)。具体的には、CPU3は、視線位置表示用指標と移動体とに表示する際に、視線の移動速度が所定値以上の場合には、視線遅れおよびシステム遅れを含む位置関係に基づいて、視線位置表示用指標の位置を補正する(ステップS104、ステップS106参照)。また、CPU3は、視線の移動速度が所定値未満の場合には、システム遅れを含む位置関係に基づいて、視線位置表示用指標の位置を補正する(ステップS104、ステップS105参照)。このような指標位置補正の結果、図12に示す状態が得られる。
As described above, in the digital
図12は、指標位置補正を行った際の表示素子での表示状態を示す模式図である。図12に示すように、ファインダイメージ600(表示素子10)上で被写体602aが被写体602bに移動しており、この移動をユーザ601は、視線601aから視線601bで追跡している。このとき、仮に指標位置補正を行っていない場合には、被写体602bから遅れた位置に視線位置表示用指標603aが表示される。しかしながら、指標位置補正が行われていることにより、被写体602bと同じ位置に視線位置表示用指標603が表示される。従って、デジタルスチルカメラ1では、ファインダイメージ600上での被写体602bに対して、視線位置表示用指標603を正確な位置に表示することができる。
FIG. 12 is a schematic diagram showing a display state on the display element when index position correction is performed. As shown in FIG. 12, a subject 602a is moving to a subject 602b on a finder image 600 (display element 10), and the
図13は、ユーザの視点が移動して測距点を選択する場合の模式図ある。ファインダイメージ700(表示素子10)は、測距点を表示可能である。図13に示すように、ユーザ1301が測距点704aを見ている視線701aの状態から、斜め左下方の視線701bを移した場合に、システム遅れおよび視線遅れ(前述した位置関係)を用いて、測距点704bへの移動が予測される。これにより、視線が移動する前に測距点704bを選択することが可能となる。このように、ユーザ1301が視認している測距点が移動する場合に、測距点の移動先の予測(予測工程)を行うことができる。例えば、本実施形態では、CPU3が、予測工程を行う予測手段として機能する。
FIG. 13 is a schematic diagram of the case where the user's viewpoint moves to select a range-finding point. A finder image 700 (display element 10) can display a distance measuring point. As shown in FIG. 13, when the
以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、本発明は、本実施形態では撮像装置に適用された例となっているが、適用される装置としては、撮像装置に限定されず、例えば、ヘッドマウントディスプレイにも適用可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes are possible within the scope of the gist thereof. The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors of the computer of the system or device reads the program. It can also be realized by executing processing. The invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions. Moreover, although the present invention is applied to an imaging device in this embodiment, the device to which the invention is applied is not limited to the imaging device, and can also be applied to, for example, a head-mounted display.
1 デジタルスチルカメラ(撮像装置)
5 視線検出装置
10 表示素子(表示部)
17 眼球用撮像素子(撮影部)
201 視線検出回路(視線検出部)
302a 視線追跡検出用指標
302b 視線追跡検出用指標
303a 視線位置表示用指標
303b 視線位置表示用指標
1 Digital still camera (imaging device)
5 line-of-
17 eyeball imaging device (imaging unit)
201 line-of-sight detection circuit (line-of-sight detection unit)
302a Eye-tracking
Claims (9)
前記ユーザに視線で追跡させる視線追跡検出用指標を前記表示部に表示させつつ、移動させる制御を行う制御手段と、
前記表示部上での前記移動体に対する前記視線位置表示用指標の位置を補正する補正手段と、を備え、
前記補正手段は、前記ユーザが前記視線追跡検出用指標を視線で追跡した際に、該視線の位置と前記視線追跡検出用指標との位置関係を検出し、前記視線位置表示用指標と前記移動体とを前記表示部に表示する際に、前記位置関係に基づいて、前記視線位置表示用指標の位置を補正することを特徴とする視線検出装置。 an imaging unit that captures an image of the eyes of a user viewing a moving object; a line-of-sight detection unit that detects the line-of-sight position of the user based on the image; and a line-of-sight position display index that indicates the line-of-sight position. A line-of-sight detection device comprising a display unit capable of displaying the moving object,
a control means for performing control to move while displaying on the display unit an index for eye-tracking detection that is to be tracked by the user's eye;
correction means for correcting the position of the line-of-sight position display index with respect to the moving object on the display unit;
The correcting means detects a positional relationship between a position of a line of sight and the eye-tracking detection index when the user tracks the eye-tracking detection index with a line of sight, and correcting the position of the index for displaying the line-of-sight position based on the positional relationship when the body is displayed on the display unit.
前記補正手段は、前記視線位置表示用指標の表示の遅れを前記位置関係として検出することを特徴とする請求項1に記載の視線検出装置。 When tracking the eye-tracking detection indicator, a delay occurs in the display of the eye-gaze position display indicator,
2. The line-of-sight detection apparatus according to claim 1, wherein the correction means detects a delay in display of the line-of-sight position display index as the positional relationship.
前記補正手段は、前記視線の移動の遅れを前記位置関係として検出することを特徴とする請求項2に記載の視線検出装置。 When tracking the eye-tracking detection index, a delay occurs in movement of the line of sight,
3. The line-of-sight detection apparatus according to claim 2, wherein the correction means detects a delay in movement of the line of sight as the positional relationship.
前記ユーザが視認している前記測距点が移動する場合に、前記位置関係に基づいて、前記測距点の移動先を予測する予測手段を備えることを特徴とする請求項1乃至6のうちの何れか1項に記載の視線検出装置。 The display unit is capable of displaying a distance measuring point,
7. Among any of claims 1 to 6, further comprising prediction means for predicting a destination of said focus detection point based on said positional relationship when said focus detection point visually recognized by said user moves. The line-of-sight detection device according to any one of 1.
前記ユーザに視線で追跡させる視線追跡検出用指標を前記表示部に表示させつつ、移動させる制御を行う制御工程と、
前記表示部上での前記移動体に対する前記視線位置表示用指標の位置を補正する補正工程と、を有し、
前記補正工程では、前記ユーザが前記視線追跡検出用指標を視線で追跡した際に、該視線の位置と前記視線追跡検出用指標との位置関係を検出し、前記視線位置表示用指標と前記移動体とを前記表示部に表示する際に、前記位置関係に基づいて、前記視線位置表示用指標の位置を補正することを特徴とする視線検出装置の制御方法。 an imaging unit that captures an image of the eyes of a user viewing a moving object; a line-of-sight detection unit that detects the line-of-sight position of the user based on the image; and a line-of-sight position display index that indicates the line-of-sight position. A method of controlling a line-of-sight detection device comprising a display unit capable of displaying the moving object,
a control step of performing control to move while displaying on the display unit an index for eye-tracking detection that is to be tracked by the user's line of sight;
a correction step of correcting the position of the line-of-sight position display index with respect to the moving object on the display unit;
In the correcting step, when the user tracks the eye-tracking detection index with his or her line of sight, the positional relationship between the line-of-sight position and the eye-tracking detection index is detected, and the line-of-sight position display index and the movement are detected. A control method for a line-of-sight detection device, comprising: correcting a position of the line-of-sight position display index based on the positional relationship when displaying a body on the display unit.
A program for causing a computer to execute each means of the line-of-sight detection device according to any one of claims 1 to 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021188045A JP2023074878A (en) | 2021-11-18 | 2021-11-18 | Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021188045A JP2023074878A (en) | 2021-11-18 | 2021-11-18 | Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023074878A true JP2023074878A (en) | 2023-05-30 |
Family
ID=86541222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021188045A Pending JP2023074878A (en) | 2021-11-18 | 2021-11-18 | Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023074878A (en) |
-
2021
- 2021-11-18 JP JP2021188045A patent/JP2023074878A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7358530B2 (en) | Object recognition device and method of controlling the object recognition device | |
JP2803222B2 (en) | Eye gaze detection device | |
JPH07151950A (en) | Camera | |
JPH11338041A (en) | Optical device and camera provided with line-of-sight detecting function | |
US11829052B2 (en) | Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium | |
US20220329740A1 (en) | Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium | |
JP2023074878A (en) | Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program | |
JPH10307314A (en) | Observation optical device | |
JPH0556924A (en) | Video camera | |
US20240114228A1 (en) | Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium | |
JP7358130B2 (en) | Electronic equipment and its control method | |
US20220277590A1 (en) | Line-of-sight detection device and control method for controlling the same | |
US20230092593A1 (en) | Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor | |
US11632496B2 (en) | Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium | |
US20240085979A1 (en) | Recording device, image-capturing apparatus, control method, and recording system | |
JP2023063023A (en) | Electronic device and control method for the same | |
JP2023006629A (en) | Control device and control method | |
JP3391892B2 (en) | Eye gaze detecting device, optical device, and eye gaze detecting method | |
JP3363492B2 (en) | Eye gaze detection apparatus and eye gaze detection method | |
JP2023073758A (en) | Electronic device and control method | |
JPH05232372A (en) | Camera provided with device for detecting line of sight | |
JP2952070B2 (en) | Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means | |
JPH0938038A (en) | Sight line detection device and optical instrument therewith | |
JP2023087377A (en) | Visual line detection device | |
JP2023069526A (en) | Electronic device and control method and program for the same |