JP2011172853A - Device, method and program for measuring visual axis - Google Patents

Device, method and program for measuring visual axis Download PDF

Info

Publication number
JP2011172853A
JP2011172853A JP2010041039A JP2010041039A JP2011172853A JP 2011172853 A JP2011172853 A JP 2011172853A JP 2010041039 A JP2010041039 A JP 2010041039A JP 2010041039 A JP2010041039 A JP 2010041039A JP 2011172853 A JP2011172853 A JP 2011172853A
Authority
JP
Japan
Prior art keywords
eyeball
camera
optical axis
model
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010041039A
Other languages
Japanese (ja)
Other versions
JP5371051B2 (en
Inventor
Takashi Nagamatsu
隆 長松
Junzo Kamahara
淳三 鎌原
Michiya Yamamoto
倫也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe University NUC
Kwansei Gakuin Educational Foundation
Original Assignee
Kobe University NUC
Kwansei Gakuin Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe University NUC, Kwansei Gakuin Educational Foundation filed Critical Kobe University NUC
Priority to JP2010041039A priority Critical patent/JP5371051B2/en
Publication of JP2011172853A publication Critical patent/JP2011172853A/en
Application granted granted Critical
Publication of JP5371051B2 publication Critical patent/JP5371051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device, a method and a program which can accurately measure a user's visual axis. <P>SOLUTION: The device 1 for measuring the visual axis includes an imaging means for imaging a reflected light of light applied to eyeballs of the user from light sources 7 and 7 by cameras 2 and 2, and a means for measuring the visual axis of the user to an object to be gazed by applying the imaged data to an eyeball model. The eyeball model is a non-spherical rotating body model composed of a rotating surface formed by rotating a free curve about an optical axis of the eyeball. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザの視線を精度よく計測できる視線計測装置、方法及びプログラムに関するものである。   The present invention relates to a line-of-sight measurement apparatus, method, and program that can accurately measure a user's line of sight.

人間の視線は、操作対象や関心、意図などを反映する。両手が使えないような環境等、視線で操作できるインタフェースがあれば、このような環境でも機器を利用することができる。近年、かかるインタフェースの実現を目指したさまざまな研究・開発がなされている。特に、ユーザによるキャリブレーションを簡素化するために、角膜の球面モデルを用いた手法がいくつか研究・開発されている。   The human gaze reflects the operation target, interest, intention, and the like. If there is an interface that can be operated with a line of sight, such as an environment where both hands cannot be used, the device can be used in such an environment. In recent years, various research and development aimed at realizing such an interface have been conducted. In particular, in order to simplify the calibration by the user, several methods using a spherical model of the cornea have been researched and developed.

たとえば特許文献1では、ユーザの眼球に赤外線を照射して眼球を撮影し、撮影した画像の角膜表面における赤外線の反射光と瞳孔との位置から算出される方向データからユーザの推定視線データを検出するが、その際に角膜の球面モデルのみを用いており、2つのカメラと3つの光源とで実装した視線計測装置を記載している。   For example, in Patent Document 1, an eyeball is photographed by irradiating the user's eyeball with infrared rays, and the estimated gaze data of the user is detected from the direction data calculated from the position of the reflected infrared light and the pupil on the cornea surface of the photographed image However, in this case, only a spherical model of the cornea is used, and a line-of-sight measuring device mounted with two cameras and three light sources is described.

非特許文献1では、角膜の球面モデルのみを用いて、光源2つ(カメラと光源とは別の位置)での視線計測手法を初めて示している。当該手法を適用した装置には、2つのカメラと3つの光源とで実装している。非特許文献2では、角膜の球面モデルのみを用いており、かつ光源を取り付けたカメラを2つ使っているが、各カメラの中心点に光源の中心を一致させている。非特許文献3では、角膜の球面モデルのみを用いており、2つのカメラと2つ以上の光源(実装例は4つの光源である。)を用いているが、基本的には上記非特許文献1と同じ手法である。非特許文献4,5では、角膜の球面モデルのみを用いており、かつ光軸を求める手法は上記非特許文献1と同じ手法であるが、視軸を用いる時にリスティングの法則を利用している。   Non-Patent Document 1 shows for the first time a gaze measurement method using two light sources (positions separate from the camera and the light source) using only a spherical model of the cornea. The apparatus to which the method is applied is mounted with two cameras and three light sources. In Non-Patent Document 2, only the spherical model of the cornea is used and two cameras with a light source attached are used, but the center of the light source is made to coincide with the center point of each camera. Non-Patent Document 3 uses only a spherical model of the cornea and uses two cameras and two or more light sources (the mounting example is four light sources). 1 is the same method. In Non-Patent Documents 4 and 5, only the spherical model of the cornea is used, and the method for obtaining the optical axis is the same as that of Non-Patent Document 1 described above, but the listing law is used when using the visual axis. .

図10は角膜の球面モデルを示す図である。たとえば特許文献1では、注視点(Point of Gaze:POG)を推定してコンピュータのディスプレイに表示するシステムを提案しているが、これは図10に示されるような角膜の球面モデルに基づくものであった。他の文献についても同様であった。角膜の球面モデルに基づく手法では、ディスプレイ全体で高い精度を実現するためには、光源を増やす、カメラを増やすなどして多重化することが必要であった。   FIG. 10 shows a spherical model of the cornea. For example, Patent Document 1 proposes a system for estimating a point of gaze (POG) and displaying it on a computer display, which is based on a spherical model of the cornea as shown in FIG. there were. The same applies to other documents. In the method based on the spherical model of the cornea, in order to realize high accuracy in the entire display, it is necessary to multiplex by increasing the number of light sources and the number of cameras.

図11は角膜の球面モデルに基づく推定手法により、2個のカメラと2つの光源を使用したシステムの被験者3名(a,b,c)がコンピュータのディスプレイを見た場合の評価結果を示す図である。図11に示すように、ディスプレイの下半分を見た場合の評価結果は良好である。ところが、ディスプレイの左上と右上の周りでPOGを推定する精度が低下するものであった。かかる評価結果は、実際の角膜がモデルと異なり球面でない、あるいは、光源(LED)からの光がモデル化されていない強膜(白目)から反射されたことに起因するものであると推察される。   FIG. 11 is a diagram showing an evaluation result when three subjects (a, b, c) of a system using two cameras and two light sources look at a computer display by an estimation method based on a spherical model of the cornea. It is. As shown in FIG. 11, the evaluation result when the lower half of the display is viewed is good. However, the accuracy of estimating the POG around the upper left and upper right of the display is reduced. This evaluation result is presumed to be caused by the fact that the actual cornea is not spherical, unlike the model, or that the light from the light source (LED) is reflected from an unmodeled sclera (white eye). .

本発明は、上記事情に鑑みてなされたものであり、その目的とするところは、ユーザの視線を精度よく計測できる視線計測装置、方法及びプログラムを提供することである。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a line-of-sight measurement device, method, and program capable of accurately measuring a user's line of sight.

本発明(装置)は、光源からユーザの眼球に向けて照射された光の反射光をカメラで撮像する撮像手段と、この撮像データを眼球モデルに適用することにより、前記ユーザの注視対象に対する視線を計測する視線計測手段とを備えた装置であって、前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであることを特徴とするものである。   According to the present invention (apparatus), an imaging unit that captures reflected light of light emitted from a light source toward a user's eyeball with a camera, and a line of sight of the user's gaze target by applying this imaging data to an eyeball model The eyeball model is an aspherical rotator model composed of a rotation surface configured by rotating a free curve around the optical axis of the eyeball. It is a feature.

本発明(方法)は、光源からユーザの眼球に向けて照射された光の反射光をカメラで撮像し、これらの撮像データを眼球モデルに適用することにより、前記ユーザの注視対象に対する視線を計測する方法であって、前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであることを特徴とするものである。   The present invention (method) measures the line of sight of the user's gaze target by capturing reflected light of light emitted from a light source toward the user's eyeball with a camera and applying the captured image data to an eyeball model. In this method, the eyeball model is an aspherical rotator model composed of a rotating surface formed by rotating a free curve around the optical axis of the eyeball.

本発明(プログラム)は、光源からユーザの眼球に向けて照射された光の反射光をカメラで撮像する機能と、この撮像データを眼球モデルに適用することにより、前記ユーザの注視対象に対する視線を計測する機能とをコンピュータに実現させる視線計測プログラムであって、前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであることを特徴とするものである。   The present invention (program) is configured to capture a reflected light of light emitted from a light source toward a user's eyeball with a camera, and to apply the imaging data to an eyeball model so that the line of sight of the user's gaze target is obtained. A gaze measurement program for causing a computer to realize a measurement function, wherein the eyeball model is an aspherical rotator model composed of a rotation surface configured by rotating a free curve around the optical axis of the eyeball It is characterized by.

本発明によれば、前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであるので、実際の角膜形状との差異が少なくなる。また、強膜(白目)もモデル化している。したがって、従来例におけるような、ディスプレイの左上と右上の周りで注視点を推定する精度の低下現象がほとんど生じなくなる。その結果、ユーザの視線を精度よく計測できるようになる。   According to the present invention, since the eyeball model is an aspherical rotator model composed of a rotating surface formed by rotating a free curve around the optical axis of the eyeball, there is little difference from the actual corneal shape. Become. The sclera (white eye) is also modeled. Therefore, there is almost no reduction in the accuracy of estimating the gazing point around the upper left and upper right of the display as in the conventional example. As a result, the user's line of sight can be accurately measured.

請求項2記載の発明のように、前記眼球の非球面回転体モデルに基づいて、前記眼球の光軸を決定する光軸決定手段と、空間座標がわかっている1点をユーザが注視したときの、前記撮像データに基づいて、当該ユーザに依存するパラメータを推定するパラメータ推定手段と、前記決定した光軸と、前記推定したパラメータとに基づいて、眼球の視軸を推定するとともに、前記推定した眼球の視軸と、注視対象の3次元モデルとに基づいて、注視点の空間座標を推定する視軸推定手段とを備えることが好ましい。   When the user gazes at an optical axis determining means for determining the optical axis of the eyeball based on the aspheric rotating body model of the eyeball and one point whose spatial coordinates are known, And estimating the visual axis of the eyeball based on the parameter estimation means for estimating a parameter depending on the user based on the imaging data, the determined optical axis, and the estimated parameter, and the estimation It is preferable to include visual axis estimation means for estimating the spatial coordinates of the gaze point based on the visual axis of the eyeball and the three-dimensional model of the gaze target.

また、請求項6記載の発明のように、光軸決定手段は、前記眼球の非球面回転体モデルに基づいて、前記眼球の光軸を決定し、パラメータ推定手段は、空間座標がわかっている1点をユーザが注視したときの、前記撮像データに基づいて、当該ユーザに依存するパラメータを推定し、視軸推定手段は、前記決定した光軸と、前記推定したパラメータとに基づいて、眼球の視軸を推定するとともに、前記推定した眼球の視軸と、注視対象の3次元モデルとに基づいて、注視点の空間座標を推定することが好ましい。   The optical axis determination means determines the optical axis of the eyeball based on the aspherical rotating body model of the eyeball, and the parameter estimation means knows the spatial coordinates. Based on the imaging data when the user gazes at one point, a parameter depending on the user is estimated, and the visual axis estimation means determines the eyeball based on the determined optical axis and the estimated parameter. It is preferable to estimate the spatial coordinate of the gaze point based on the estimated visual axis of the eyeball and the three-dimensional model of the gaze target.

さらに、請求項10記載の発明のように、前記眼球の非球面回転体モデルに基づいて、前記眼球の光軸を決定する機能と、空間座標がわかっている1点をユーザが注視したときの、前記撮像データに基づいて、当該ユーザに依存するパラメータを推定する機能と、前記決定した光軸と、前記推定したパラメータとに基づいて、眼球の視軸を推定するとともに、前記推定した眼球の視軸と、注視対象の3次元モデルとに基づいて、注視点の空間座標を推定する機能とをコンピュータに実現させることが好ましい。   Furthermore, as in the invention described in claim 10, when the user gazes at a point where the optical axis of the eyeball is determined based on the aspheric rotating body model of the eyeball and the spatial coordinates are known. Based on the imaging data, the function of estimating the parameter depending on the user, the determined optical axis, and the estimated parameter, the visual axis of the eyeball is estimated, and the estimated eyeball It is preferable that the computer realizes the function of estimating the spatial coordinates of the gazing point based on the visual axis and the three-dimensional model of the gaze target.

請求項2,6,10記載の発明によれば、前記眼球の非球面回転体モデルに基づいて、前記眼球の光軸が決定され、空間座標がわかっている1点をユーザが注視したときの、前記撮像データに基づいて、当該ユーザに依存するパラメータが推定され、前記決定された光軸と、前記推定したパラメータとに基づいて、眼球の視軸が推定されるとともに、前記推定された眼球の視軸と、注視対象の3次元モデルとに基づいて、注視点の空間座標が推定されるので、実際の角膜形状との差異が少なくなる。したがって、従来例におけるような、ディスプレイの左上と右上の周りで注視点を推定する精度の低下現象がほとんど生じなくなる。その結果、ユーザの視線を精度よく計測できるようになる。   According to the second, sixth, and tenth aspects of the present invention, when the optical axis of the eyeball is determined based on the aspheric rotating body model of the eyeball and the user gazes at one point whose spatial coordinates are known. Based on the imaging data, a parameter depending on the user is estimated, and based on the determined optical axis and the estimated parameter, the visual axis of the eyeball is estimated, and the estimated eyeball Since the spatial coordinates of the gazing point are estimated based on the visual axis and the three-dimensional model of the gaze target, the difference from the actual corneal shape is reduced. Therefore, there is almost no reduction in the accuracy of estimating the gazing point around the upper left and upper right of the display as in the conventional example. As a result, the user's line of sight can be accurately measured.

ところで、光源を3個以上設けたときには、ユーザの手などで光源からの光線をさえぎってしまうことがあり不具合である。そこで、請求項3記載の発明のように、前記光源は2個、前記カメラは2台で構成できることが好ましい。   By the way, when three or more light sources are provided, the light from the light source may be blocked by the user's hand or the like. Accordingly, it is preferable that two light sources and two cameras can be configured as in the invention described in claim 3.

また、請求項7記載の発明のように、前記光源は2個、前記カメラは2台で構成できる条件下であることが好ましい。   According to a seventh aspect of the present invention, it is preferable that the number of the light sources is two and the number of the cameras is two.

さらに、請求項11記載の発明のように、前記光源は2個、前記カメラは2台で構成できる条件下であることが好ましい。   Further, as in the invention described in claim 11, it is preferable that the number of the light sources is two and the number of the cameras is two.

請求項3,7,11記載の発明によれば、前記光源を2個、前記カメラを2台で構成できるので、光源を3個以上設けたときのように、ユーザの手などで光源からの光線をさえぎってしまうおそれが少ない。その結果、ユーザの視線を常に精度よく計測できるようになる。   According to the third, seventh, and eleventh aspects of the invention, since the two light sources and the two cameras can be configured, it is possible to remove the light source from the light source by a user's hand or the like as when three or more light sources are provided. There is little risk of blocking light. As a result, the user's line of sight can always be accurately measured.

請求項4記載の発明のように、光源の中心をカメラの中心点に一致させるように、あるいは前記光源が前記カメラの中心近傍になるように、前記光源と前記カメラとを配置することが好ましい。   Preferably, the light source and the camera are arranged so that the center of the light source coincides with the center point of the camera, or so that the light source is near the center of the camera. .

また、請求項8記載の発明のように、光源の中心をカメラの中心点に一致させるように、あるいは前記光源が前記カメラの中心近傍になるように、前記光源と前記カメラとを配置する条件下であることが好ましい。   Further, as in the invention described in claim 8, the condition for arranging the light source and the camera so that the center of the light source coincides with the center point of the camera or so that the light source is near the center of the camera. Preferably it is below.

さらに、請求項12記載の発明のように、光源の中心をカメラの中心点に一致させるように、あるいは前記光源が前記カメラの中心近傍になるように、前記光源と前記カメラとを配置する条件下であることが好ましい。   Furthermore, as in the invention described in claim 12, the condition for disposing the light source and the camera so that the center of the light source coincides with the center point of the camera or so that the light source is near the center of the camera. Preferably it is below.

請求項4,8,12記載の発明によれば、光源の中心をカメラの中心点に一致させるように、あるいは前記光源が前記カメラの中心近傍になるように、前記光源と前記カメラとを配置するので、ユーザの手などで光源からの光線をさえぎってしまうおそれがさらに少なくなる。   According to the fourth, eighth, and twelfth aspects of the present invention, the light source and the camera are arranged so that the center of the light source coincides with the center point of the camera or so that the light source is near the center of the camera. Therefore, the possibility that the light from the light source is blocked by the user's hand or the like is further reduced.

本発明によれば、前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであるので、実際の角膜形状との差異が少なくなる。また、強膜(白目)もモデル化している。したがって、従来例におけるような、ディスプレイの左上と右上の周りで注視点を推定する精度の低下現象がほとんど生じなくなる。その結果、ユーザの視線を精度よく計測できるようになる。   According to the present invention, since the eyeball model is an aspherical rotator model composed of a rotating surface formed by rotating a free curve around the optical axis of the eyeball, there is little difference from the actual corneal shape. Become. The sclera (white eye) is also modeled. Therefore, there is almost no reduction in the accuracy of estimating the gazing point around the upper left and upper right of the display as in the conventional example. As a result, the user's line of sight can be accurately measured.

本発明の一実施形態に係る視線計測装置の全体構成を示すブロック図である。It is a block diagram showing the whole line-of-sight measuring device composition concerning one embodiment of the present invention. 眼球の非球面回転体モデルを示す図である。It is a figure which shows the aspherical rotary body model of an eyeball. ディスプレイ上の注視点を計測している場合に、カメラに取り付けられた光源から赤外線を眼球に照射し、カメラで撮影した画像を示す図であって、(a)は中央付近を注視した場合、(b)は左上を注視した場合である。In the case of measuring the point of interest on the display, it is a diagram showing an image shot by irradiating the eyeball with infrared rays from a light source attached to the camera, and (a) is a case where the vicinity of the center is observed, (B) is a case where the upper left is observed. 眼球の部分断面を示す図である。It is a figure which shows the partial cross section of an eyeball. 角膜曲率の中心、2個の光源の位置、2台のカメラの中心位置を含む角膜の断面を示す図である。It is a figure which shows the cross section of the cornea containing the center of a cornea curvature, the position of two light sources, and the center position of two cameras. 角膜での屈折を示す図である。It is a figure which shows the refraction in a cornea. 本装置の動作を示すフローチャートであって、(a)はメインフローチャート、(b)はステップS2のサブフローチャートである。It is a flowchart which shows operation | movement of this apparatus, Comprising: (a) is a main flowchart, (b) is a subflowchart of step S2. 本装置の動作を示すフローチャートであって、(a)はステップS3のサブフローチャート、(b)はステップS3aのさらなるサブフローチャートである。It is a flowchart which shows operation | movement of this apparatus, Comprising: (a) is a subflowchart of step S3, (b) is a further subflowchart of step S3a. 本方法とチェンらの方法との比較による評価結果を示す図である。It is a figure which shows the evaluation result by the comparison with this method and the method of Chen et al. 角膜の球面モデルを示す図である。It is a figure which shows the spherical model of a cornea. 従来の球面の角膜モデルを利用して2個のカメラと2つの光源を使用したときの評価結果を示す図である。It is a figure which shows the evaluation result when using two cameras and two light sources using the conventional spherical cornea model.

図1は本発明の一実施形態に係る視線計測装置(以下、本装置という。)1の全体構成を示すブロック図である。本装置1は、図1に示すように、2台の同期しているカメラ(撮像手段に相当する。)2,2と、ディスプレイ(注視対象に相当する。)3と、キーボード4と、マウス5と、コンピュータ(視線測定手段に相当する。)6とからなっている。   FIG. 1 is a block diagram showing the overall configuration of a line-of-sight measurement device (hereinafter referred to as this device) 1 according to an embodiment of the present invention. As shown in FIG. 1, the apparatus 1 includes two synchronized cameras (corresponding to imaging means) 2 and 2, a display (corresponding to a gaze target) 3, a keyboard 4, and a mouse. 5 and a computer 6 (corresponding to line-of-sight measuring means) 6.

各カメラ2,2は、イメージセンサを備えており、その解像度は752×480ピクセルである。35mmのレンズとIRフィルタとが、各カメラ2,2に取り付けられている。光源(たとえば赤外線LEDである。)7,7が、カメラの中心点と一致するように、各カメラ2,2に取り付けられている。これらのカメラ2,2はディスプレイ3の下に配置されている。本装置1をセットアップする前に、カメラ2,2の固有パラメータは決定されている。   Each of the cameras 2 and 2 includes an image sensor, and the resolution thereof is 752 × 480 pixels. A 35 mm lens and an IR filter are attached to each camera 2 and 2. Light sources (for example, infrared LEDs) 7 and 7 are attached to the cameras 2 and 2 so as to coincide with the center point of the camera. These cameras 2 and 2 are arranged below the display 3. Prior to setting up the device 1, the intrinsic parameters of the cameras 2 and 2 have been determined.

コンピュータ6は、メモリ6aと、ハードディスク6bと、CPU6cと、光学式ドライブ6dといったハードウエアで構成されている。メモリ6aは、データを一時的に記憶するものであり、ハードディスク6bは、本発明方法を記述したプログラムを含む各種プログラムや各種データを記憶するものである。この本発明方法を記述したプログラムを呼び出して実行することにより、CPU6cには、光軸決定手段61と、パラメータ推定手段62(曲率半径推定手段63、中心間距離推定手段64及びオフセット推定手段65を含む。)と、視軸推定手段66(曲率中心推定手段67及びPOG(注視点)推定手段68を含む。)とが構築される。なお、光学式ドライブ6dは、たとえばCDドライブやDVDドライブであって、上記プログラムのバージョンアップ版をインストールするときなどに用いられる。   The computer 6 includes hardware such as a memory 6a, a hard disk 6b, a CPU 6c, and an optical drive 6d. The memory 6a temporarily stores data, and the hard disk 6b stores various programs and various data including a program describing the method of the present invention. By calling and executing the program describing the method of the present invention, the CPU 6c has the optical axis determining means 61 and the parameter estimating means 62 (the curvature radius estimating means 63, the center distance estimating means 64, and the offset estimating means 65). And a visual axis estimating means 66 (including a curvature center estimating means 67 and a POG (gazing point) estimating means 68) are constructed. The optical drive 6d is, for example, a CD drive or a DVD drive, and is used when an upgraded version of the above program is installed.

光軸決定手段61は、眼球の非球面回転体モデルに基づいて、前記眼球の光軸を決定するものである。   The optical axis determination means 61 determines the optical axis of the eyeball based on the aspherical rotating body model of the eyeball.

図2は眼球の非球面回転体モデルを示す図である。図2に示すように、眼球の非球面回転体モデルは眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなるモデルであって、このモデルによりスムーズに角膜と強膜との間の境界を与えることができる。実際の眼球の形状には個人差があるが、光軸まわりの回転面であればどのような曲面でもかまわない。   FIG. 2 is a view showing an aspheric rotating body model of an eyeball. As shown in FIG. 2, the aspherical rotator model of the eyeball is a model composed of a rotating surface formed by rotating a free curve around the optical axis of the eyeball. A boundary between can be given. The actual shape of the eyeball varies from person to person, but any curved surface may be used as long as it is a rotating surface around the optical axis.

光軸決定手段61は、眼球の非球面回転体モデルに基づく眼球の光軸の決定を行うために、2台のカメラ2,2と、各カメラに取り付けられる光源7,7とを使用する。それぞれの光源の位置は、カメラの中心点と同じであるとする。かかる対応関係を説明するために、以下では、向かって右側のカメラをカメラ0と記述し、向かって左側のカメラをカメラ1と記述し、向かって右側の光源を光源0と記述し、向かって左側の光源を光源1と記述するとともに、各ポイント(位置ベクトル)についても、必要な場合それらの添字を付して記述することとする。0,1どちらにも適用可能な場合は添え字をjとして記述することとする。   The optical axis determination means 61 uses two cameras 2 and 2 and light sources 7 and 7 attached to each camera in order to determine the optical axis of the eyeball based on the aspheric rotating body model of the eyeball. Assume that the position of each light source is the same as the center point of the camera. In order to explain this correspondence, in the following, the right-hand camera is described as camera 0, the left-hand camera is described as camera 1, the right-hand light source is described as light source 0, and The light source on the left side is described as the light source 1, and each point (position vector) is also described with the suffix attached if necessary. When applicable to both 0 and 1, the subscript is described as j.

図3はカメラjに取り付けられた光源から赤外線を眼球に照射し、カメラjで撮影した画像を示す図であって、(a)は中央付近を注視した場合、(b)は左上を注視した場合である。図3(a)(b)において、周囲の白目部分を強膜、その内側の円環領域を虹彩、さらに内側の楕円領域を瞳孔とし、瞳孔中心から最も近い輝点2つをプルキニエ像と推定する。このうち、カメラjに取り付けられてある光源jによるプルキニエ像は、向かって左側のカメラの場合は右側、向かって右側のカメラの場合は左側である。このプルキニエ像をカメラのイメージセンサ上の3次元位置に変換した点がポイントP’となる。 FIG. 3 is a diagram showing an image captured by the camera j by irradiating the eyeball with infrared rays from a light source attached to the camera j, where (a) looks at the vicinity of the center and (b) looks at the upper left. Is the case. 3 (a) and 3 (b), the surrounding white eye portion is the sclera, the inner ring region is the iris, the inner ellipse region is the pupil, and the two bright spots closest to the pupil center are estimated as Purkinje images. To do. Among these, the Purkinje image by the light source j attached to the camera j is the right side in the case of the left side camera, and the left side in the case of the right side camera. A point P ′ j is obtained by converting the Purkinje image into a three-dimensional position on the image sensor of the camera.

図4は、カメラjの中心と眼球の光軸を通る眼球の部分断面を示す図である。図4において、ポイントAは光軸の近くの角膜曲率の中心である。ポイントLとポイントCとは、それぞれ光源jの位置とカメラjの中心点とを示している。CはLと同じ位置であるとする。C(=L)の値は、あらかじめカメラjをキャリブレーションすることによって決定される。瞳孔中心位置のポイントBからの光線は、ポイントB”で屈折して、Cを通り抜けて、ポイントB’でイメージセンサと交差する。 FIG. 4 is a diagram showing a partial cross section of the eyeball passing through the center of the camera j and the optical axis of the eyeball. In FIG. 4, point A is the center of corneal curvature near the optical axis. Point L j and point C j indicate the position of light source j and the center point of camera j, respectively. Let C j be the same position as L j . The value of C j (= L j ) is determined by calibrating camera j in advance. Rays from point B at the center of the pupil are refracted at point B ″ j , pass through C j , and intersect the image sensor at point B ′ j .

からの光線は、角膜表面のポイントPで反射され、元の経路を戻り、この反射された光線は、Cを通り抜けて、ポイントP’でイメージセンサと交差する。もし、角膜が完全に球面であるならば、光源jの位置LとポイントPとを接続する線はAを通るので、Aは2個のカメラを使用することによって決定できる。しかしながら、角膜の縁付近などの非球面の眼球の表面から反射するとき、正確にAの位置を推定することができない。この不正確なAの位置を用いて光軸の推定を行うと視軸(視線)や注視点の推定には大きな誤差が含まれてしまう。 Rays from L j are reflected at point P j on the corneal surface and return to the original path, and the reflected rays pass through C j and intersect the image sensor at point P ′ j . If the cornea is perfectly spherical, the line connecting the position L j of the light source j and the point P j passes through A, so A can be determined by using two cameras. However, when reflecting from the surface of an aspheric eyeball such as near the edge of the cornea, the position of A cannot be estimated accurately. If the optical axis is estimated using the inaccurate position A, a large error is included in the estimation of the visual axis (line of sight) and the gaze point.

そこで、眼球の光軸周りの回転面からなる非球面回転体モデルを使用することとする。このモデルによれば、Lからの光線は、眼球の表面において、眼球の光軸を含む平面内で反射し、カメラjで撮影される。それゆえ、A,B,B’,B”,C,L,P,P’,および眼球の光軸とは同一平面上にある(coplanar)。 Therefore, an aspheric rotating body model including a rotating surface around the optical axis of the eyeball is used. According to this model, the light rays from L j are reflected on the surface of the eyeball within a plane including the optical axis of the eyeball and photographed by the camera j. Therefore, A, B, B ′ j , B ″ j , C j , L j , P j , P ′ j , and the optical axis of the eyeball are coplanar.

眼球の光軸を含んでいる平面の法線ベクトルは、{(C−B’)×(P’−C)}であり、その平面は(1)式で表現される。
{(C−B’)×(P’−C)}・(X−C)=0 ・・・(1)
ここに、X(=(x,y,z))が平面上のポイントである。2個のカメラ(j=0,1)を使用するときは、2つの平面が得られる。眼球の光軸は2平面の交線から決定できる。
The normal vector of the plane including the optical axis of the eyeball is {(C j −B ′ j ) × (P ′ j −C j )}, and the plane is expressed by the equation (1).
{(C j −B ′ j ) × (P ′ j −C j )} · (X−C j ) = 0 (1)
Here, X (= (x, y, z) T ) is a point on the plane. When using two cameras (j = 0, 1), two planes are obtained. The optical axis of the eyeball can be determined from the intersection of two planes.

この眼球の光軸を中心とした回転モデルを用いた計算手法では、任意の回転面で眼球の光軸を計算できるので、眼球の表面で光が反射する場所(角膜表面の中央部の領域、角膜の境界領域、強膜領域など)に関係なく、眼球の光軸は数学的に決定できる。強膜(白目)で反射する場合も反射の位置が特定できれば計算可能である。   In this calculation method using a rotation model centered on the optical axis of the eyeball, the optical axis of the eyeball can be calculated on an arbitrary rotation plane, so the place where the light is reflected on the surface of the eyeball (the area at the center of the cornea surface, The optical axis of the eyeball can be determined mathematically regardless of the boundary region of the cornea, the sclera region, etc. In the case of reflection by the sclera (white eye), calculation is possible if the position of reflection can be specified.

一般に眼球の視軸と光軸とはAで交差するとされているので、眼球の視軸を決定するためには、Aを決定することが必要である。眼球の視軸は、tをパラメータとして、X=A+tcと記述できる。ここで、cは、眼球の視軸の単位方向ベクトルである。   In general, since the visual axis of the eyeball and the optical axis intersect at A, it is necessary to determine A in order to determine the visual axis of the eyeball. The visual axis of the eyeball can be described as X = A + tc with t as a parameter. Here, c is a unit direction vector of the visual axis of the eyeball.

2本の直線(X=C+t(C−B’),j=0,1)の交点は、Aの近似位置を与えるが、その近似誤差は、約7.8mm(角膜の半径の平均値)未満である。Aの推定誤差は、眼球の視軸の平行移動を生じる。したがって、ユーザとその注視対象であるオブジェクトとの間の距離の増大につれて、視野角としてのオブジェクト上のPOGの推定誤差は減少する。オブジェクトが十分遠くにある場合は、この計算で十分な精度が得られる。 The intersection of two straight lines (X = C j + t j (C j −B ′ j ), j = 0, 1) gives an approximate position of A, but the approximate error is about 7.8 mm (of the cornea) Less than the average radius). The estimation error of A causes the translation of the visual axis of the eyeball. Therefore, as the distance between the user and the object being watched increases, the POG estimation error on the object as the viewing angle decreases. If the object is far enough away, this calculation will provide sufficient accuracy.

しかしながら、ユーザとオブジェクトとの間の距離が近いときに、Aの推定誤差に起因するPOGの推定誤差は視野角では無視できなくなる場合があると考えられる。この問題を解決するためには、正確なAの推定方法と眼球の視軸の決定とが必要である。   However, when the distance between the user and the object is short, it is considered that the POG estimation error due to the A estimation error may not be ignored at the viewing angle. In order to solve this problem, an accurate estimation method of A and determination of the visual axis of the eyeball are necessary.

パラメータ推定手段62は、この正確なAの推定方法と眼球の視軸の決定のために、ユーザに依存するパラメ−タの推定(ユーザキャリブレーション)を行うものである。ここで、ユーザに依存するパラメ−タとは、眼球の光軸近くの角膜曲率の半径R、角膜曲率と瞳孔との中心間の距離K、そして、光軸と視軸との間のオフセットα,βである。   The parameter estimation means 62 performs parameter estimation (user calibration) depending on the user in order to accurately determine A and determine the visual axis of the eyeball. Here, the parameters depending on the user are the radius R of the corneal curvature near the optical axis of the eyeball, the distance K between the corneal curvature and the center of the pupil, and the offset α between the optical axis and the visual axis. , Β.

これらのユーザに依存するパラメ−タを推定するために、ユーザは、位置がわかっている1点(キャリブレーションポイント)を凝視するよう指示される。キャリブレーションポイントの位置は、眼球の光軸付近で球として近似できる角膜表面で、光源からの光線が反射するように選択される。この時、球として近似できる角膜表面を通して瞳孔を観察できる。したがって、角膜表面での屈折は、角膜の球面モデルに基づいて決定される。   To estimate these user-dependent parameters, the user is instructed to stare at one point (calibration point) whose position is known. The position of the calibration point is selected so that light rays from the light source are reflected on the corneal surface that can be approximated as a sphere near the optical axis of the eyeball. At this time, the pupil can be observed through the corneal surface that can be approximated as a sphere. Therefore, refraction at the corneal surface is determined based on a spherical model of the cornea.

曲率半径推定手段63は、角膜の球面モデルに基づいた角膜曲率の半径の推定を行うものである。上記キャリブレーションプロセスにおいて、ユーザがカメラの近くでキャリブレーションポイントを凝視するとき、光は、それを球面と近似しても問題がない角膜の表面から反射する。この場合には、角膜の球面モデルを使用できる。   The curvature radius estimation means 63 estimates the radius of the corneal curvature based on a spherical model of the cornea. In the above calibration process, when the user stares at the calibration point near the camera, the light reflects from the surface of the cornea, which can be approximated as a spherical surface. In this case, a spherical model of the cornea can be used.

この曲率半径推定手段63は、角膜曲率の中心の位置Aを推定する。図5は角膜曲率の中心A、光源1の位置であるポイントL、光源0の位置であるポイントL、カメラ1の中心位置であるポイントC、およびカメラ0の中心位置であるポイントCを含む角膜の断面を示す図である。C(=L)と、C(=L)との各位置はカメラキャリブレーションにより事前に求めてあるものとする。図5に示すように、角膜表面で反射したLからの光線は、角膜表面で反射してCへ戻り、それからポイントP’11に到達するといった経路を辿る。角膜表面は球とみなされるので、この経路の延長線上にAがある。同様に、CとポイントP’00とを結ぶ直線はAを含む。したがって、以下の2本の線の交点からAを推定することができる。
X=C+t11(C−P’11) ・・・(2)
X=C+t00(C−P’00) ・・・(3)
ここに、t11とt00とはパラメータである。
The curvature radius estimation means 63 estimates the center position A of the corneal curvature. FIG. 5 shows the center A of the corneal curvature, the point L 1 that is the position of the light source 1, the point L 0 that is the position of the light source 0, the point C 1 that is the center position of the camera 1 , and the point C that is the center position of the camera 0. It is a figure which shows the cross section of the cornea containing 0 . Assume that the positions of C 1 (= L 1 ) and C 0 (= L 0 ) are obtained in advance by camera calibration. As shown in FIG. 5, the light beam from L 1 reflected on the corneal surface is reflected on the corneal surface, returns to C 1 , and then reaches a point P ′ 11 . Since the corneal surface is considered a sphere, there is an A on the extension of this pathway. Similarly, the straight line connecting C 0 and the point P ′ 00 includes A. Therefore, A can be estimated from the intersection of the following two lines.
X = C 1 + t 11 (C 1 −P ′ 11 ) (2)
X = C 0 + t 00 (C 0 −P ′ 00 ) (3)
Here, the t 11 and t 00, which is a parameter.

からの光線は、角膜表面のポイントP01で反射され、その反射光線がCを通り、ポイントP’01でカメラ0のイメージセンサと交差する。同様に、Lからの光線は、角膜表面においてポイントP10で反射され、その反射光線がCを通り、ポイントP’10でカメラ1のイメージセンサと交差する。角膜の半径を推定するために、反射点P01(=P10)、すなわち、以下の線の交点を推定する。
X=C+t10(C−P’10) ・・・(4)
X=C+t01(C−P’01) ・・・(5)
ここに、t10とt01とはパラメータである。したがって、角膜曲率の半径Rは、R=||P01−A||として、決定される。
Rays from L 1 is reflected at point P 01 of the corneal surface, the reflected light passes through the C 0, intersects the image sensor of the camera 0 at point P '01. Similarly, the light from L 0 is reflected at point P 10 on the corneal surface, the reflected light passes through C 1 and intersects the image sensor of camera 1 at point P ′ 10 . In order to estimate the radius of the cornea, the reflection point P 01 (= P 10 ), that is, the intersection of the following lines is estimated.
X = C 1 + t 10 (C 1 −P ′ 10 ) (4)
X = C 0 + t 01 (C 0 −P ′ 01 ) (5)
Here, the t 10 and t 01, which is a parameter. Therefore, the radius R of the corneal curvature is determined as R = || P 01 -A ||.

中心間距離推定手段64は、角膜曲率と瞳孔の中心間の距離の推定を行うものである。図6はカメラjと眼球の光軸とを含む面での屈折を示す図である。図6に示すように、瞳孔中心Bからの光は、ポイントB”で屈折し、カメラjの中心点Cを通り、ポイントB’でイメージセンサと交差する。B”は、以下に与えられた方程式を解くことにより決定できる。
X=C+t(C−B’) ・・・(6)
R=||X−A|| ・・・(7)
これらの方程式には、2つの解がありうる。そこで、Cにより近いものを選択する。
The center distance estimation means 64 estimates the distance between the corneal curvature and the center of the pupil. FIG. 6 is a diagram showing refraction on a plane including the camera j and the optical axis of the eyeball. As shown in FIG. 6, light from pupil center B is refracted at point B ″ j , passes through center point C j of camera j, and intersects the image sensor at point B ′ j. B ″ j Can be determined by solving the equations given in.
X = C j + t j (C j −B ′ j ) (6)
R = || X−A || (7)
These equations can have two solutions. Therefore, the one closer to C j is selected.

以下のスネルの法則を用いて、ベクトルt(図6において、B”で屈折してBに向かうベクトルである。)の方程式が得られる。
=(−ρn・v−√(1−ρ(1−(n・v))n+ρv
・・・(8)
ここで、屈折のポイントにおける入射ベクトルv=(C−B’)/||C−B’||、法線ベクトルn=(B”−A)/||B”−A||、そして、ρ=n1/n2 (n1は空気の屈折率≒1、n2は実効屈折率≒1.3375)である。
Using the following Snell's law, an equation of a vector t j (in FIG. 6, a vector refracted by B ″ j and directed to B) is obtained.
t j = (− ρn j · v j −√ (1−ρ 2 (1− (n j · v j ) 2 )) n j + ρv j
... (8)
Here, the incident vector v j = (C j −B ′ j ) / || C j −B ′ || and the normal vector n j = (B ″ j −A) / || B ″ j at the point of refraction. −A ||, and ρ = n1 / n2 (where n1 is the refractive index of air≈1, and n2 is the effective refractive index≈1.3375).

瞳孔中心Bは2台のカメラからの2本の角膜内の光線
X=B”+s・t (j=0,1) ・・・(9)
の交点として決定できる。ここに、sはパラメータである。したがって、角膜曲率と瞳孔の各中心間の距離Kは、K=||B−A||として決定される。
Pupil center B is two rays in two corneas from two cameras X = B ″ j + s j · t j (j = 0, 1) (9)
Can be determined as the intersection of Here, s j is a parameter. Therefore, the distance K between the corneal curvature and the center of the pupil is determined as K = || B−A ||.

オフセット推定手段65は、光軸と視軸との間のオフセットの推定を行うものである。光軸と視軸との間のオフセットは2つのパラメータによって表現される。たとえば、水平角と垂直角である。光軸と視軸との間のオフセットは、上記光軸決定手段61で計算された光軸と、空間座標がわかっている1点をユーザが注視することにより求めた視軸との位置関係から計算されるが、たとえば、非特許文献5に記述された方法ではリスティングの法則に基づき計算できる。   The offset estimation unit 65 estimates an offset between the optical axis and the visual axis. The offset between the optical axis and the visual axis is expressed by two parameters. For example, a horizontal angle and a vertical angle. The offset between the optical axis and the visual axis is based on the positional relationship between the optical axis calculated by the optical axis determining means 61 and the visual axis obtained by gazing at one point whose spatial coordinates are known. For example, the method described in Non-Patent Document 5 can be calculated based on the law of listing.

視軸推定手段66は、ユーザキャリブレーション後の眼球の視軸の推定を行うものである。ユーザキャリブレーション後に、ユーザは自由にその人の眼球を動かす。眼球の光軸については、上記光軸決定手段61で計算できる。R,K、および眼球の光軸と視軸との間のオフセットは、ユーザキャリブレーションからわかっている。角膜曲率の中心の位置A、および眼球の視軸に沿った単位方向ベクトルcは、眼球の視軸の計算に必要である。   The visual axis estimation means 66 estimates the visual axis of the eyeball after user calibration. After the user calibration, the user freely moves his / her eyeball. The optical axis of the eyeball can be calculated by the optical axis determination means 61. R, K, and the offset between the optical axis of the eyeball and the visual axis are known from user calibration. The center position A of the corneal curvature and the unit direction vector c along the visual axis of the eyeball are necessary for the calculation of the visual axis of the eyeball.

曲率中心推定手段67は、角膜曲率の中心の推定を行うものである。光源からの光が反射する眼球表面は非球面であるが、瞳孔が観察される角膜表面は球面に近似できるとする。Aの位置を捜すためのアルゴリズムは以下の通りである。   The curvature center estimation means 67 estimates the center of the corneal curvature. It is assumed that the eyeball surface on which light from the light source is reflected is an aspherical surface, but the corneal surface on which the pupil is observed can approximate a spherical surface. The algorithm for finding the position of A is as follows.

1)光軸の上にAの位置を設定する。2本の線、X=C+t(C−B’) (j=0,1)の交点に最も近い位置を選択する。
2)方程式(6)、(7)および(8)を用いて、B”を計算する。Rはユーザキャリブレーションから既にわかっている。
3)方程式(9)を用いて、2本の線の交点から、瞳孔中心の位置Bを計算する。
4)BとAとの間の距離を計算し、その計算した距離とユーザキャリブレーションの間に推定されたKとを比較する。
5)眼球の光軸に沿って、眼球の回転中心の方に向かってAの位置を移行させ、そして、Aの正確な位置を決定するために1)〜4)を繰り返す。角膜の平均した半径が約7.8mmであるので、10mmの長さの間でAの位置を捜すことで十分である。この探索は、||B−A||=Kとなったときに終了する。
1) A position is set on the optical axis. The position closest to the intersection of the two lines, X = C j + t j (C j −B ′ j ) (j = 0, 1) is selected.
2) Calculate B ″ j using equations (6), (7) and (8). R is already known from user calibration.
3) The position B of the pupil center is calculated from the intersection of the two lines using equation (9).
4) Calculate the distance between B and A, and compare the calculated distance with K estimated during user calibration.
5) Move the position of A along the optical axis of the eyeball toward the center of rotation of the eyeball, and repeat 1) to 4) to determine the exact position of A. Since the average radius of the cornea is about 7.8 mm, it is sufficient to find the position of A between 10 mm lengths. This search ends when || B−A || = K.

POG推定手段68は、眼球の視軸とPOGとの推定を行うものである。眼球の視軸の単位方向ベクトルcは、たとえば、リスティングの法則に基づいて、眼球の光軸の単位方向ベクトルd、および眼球の光軸と視軸とのオフセットから決定される。これは、非特許文献5に記述された方法によって計算できる。これにより、眼球の視軸(X=A+tc)とオブジェクトとの交点としてPOGを与えることができる。ここで、リスティングの法則とは、第一眼位と呼ばれる眼球の位置があって、どのような眼球の位置でも第一眼位からのただ一つの回転で達することができ、どの向きへの回転軸も、ある平面(リスティング平面)内にあるというものである。   The POG estimation means 68 estimates the visual axis of the eyeball and POG. The unit direction vector c of the visual axis of the eyeball is determined from the unit direction vector d of the optical axis of the eyeball and the offset between the optical axis of the eyeball and the visual axis based on, for example, the law of listing. This can be calculated by the method described in Non-Patent Document 5. Thereby, POG can be given as the intersection of the visual axis (X = A + tc) of the eyeball and the object. Here, the law of listing is the position of the eyeball called the first eye position, and any eyeball position can be reached with a single rotation from the first eye position, and the rotation in any direction The axis is also in a certain plane (listing plane).

以下、本装置1の動作について説明する。図7および図8は本装置1の動作を示すフローチャートである。かかる動作を通じて本方法の各ステップやプログラムの各機能が具現化される。実験室における評価では、ディスプレイから眼球までの距離を約500mmとし、ディスプレイに表示されるマーカ25点を注視して、データを記録した。   Hereinafter, the operation of the apparatus 1 will be described. 7 and 8 are flowcharts showing the operation of the apparatus 1. Through this operation, each step of the present method and each function of the program are realized. In the evaluation in the laboratory, the distance from the display to the eyeball was about 500 mm, and data was recorded by gazing at 25 markers displayed on the display.

本装置1では、図7(a)に示すように、光軸決定手段61は、2台のカメラ2,2と、各カメラに取り付けられる光源7,7とを使用して、角膜の非球面回転体モデルに基づく眼球の光軸の決定を行う(ステップS1)。パラメータ推定手段62は、ユーザに依存するパラメータの推定を行う(ステップS2)。ここでは、図7(b)に示すように、曲率半径推定手段63は、角膜曲率の半径の推定を行う(ステップS21)。中心間距離推定手段64は、角膜曲率と瞳孔との中心間距離の推定を行う(ステップS22)。オフセット推定手段65は、光軸と視軸との間のオフセットの推定を行う(ステップS23)。そして、図7(a)に戻り、視軸推定手段66は、ユーザキャリブレーション後の眼球の視軸の推定を行う(ステップS3)。ここでは、図8(a)に示すように、曲率中心推定手段67は、角膜曲率の中心の推定を行う(ステップS3a)。   In this apparatus 1, as shown in FIG. 7 (a), the optical axis determining means 61 uses two cameras 2 and 2 and light sources 7 and 7 attached to the cameras, and the aspherical surface of the cornea. The optical axis of the eyeball is determined based on the rotating body model (step S1). The parameter estimation unit 62 estimates a parameter depending on the user (step S2). Here, as shown in FIG. 7B, the curvature radius estimation means 63 estimates the radius of the corneal curvature (step S21). The center distance estimation means 64 estimates the center distance between the corneal curvature and the pupil (step S22). The offset estimation unit 65 estimates an offset between the optical axis and the visual axis (step S23). Then, returning to FIG. 7A, the visual axis estimation means 66 estimates the visual axis of the eyeball after user calibration (step S3). Here, as shown in FIG. 8A, the curvature center estimation means 67 estimates the center of the corneal curvature (step S3a).

具体的には、図8(b)に示すように、光軸にA位置を設定する(ステップS31)。ポイントB”を計算する(ステップS32)。瞳孔中心位置Bを計算する(ステップS33)。AとBの距離を計算する(ステップS34)。AとBの距離がKとなるまで、上記ステップS31〜S34を繰り返し、A位置を徐々に移行していく。そして、AとBの距離がKとなると、図8(a)のステップS3aの直後にリターンする。POG推定手段68は、眼球の視軸とPOGとの推定を行い(ステップS3b)、図7(a)のステップ3の直後に戻って、すべてのプロセスを終了する。 Specifically, as shown in FIG. 8B, the A position is set on the optical axis (step S31). The point B ″ j is calculated (step S32). The pupil center position B is calculated (step S33). The distance between A and B is calculated (step S34). The above steps until the distance between A and B becomes K. Steps S31 to S34 are repeated to gradually shift the position A. Then, when the distance between A and B becomes K, the process returns immediately after step S3a in Fig. 8A. The visual axis and POG are estimated (step S3b), and the process returns immediately after step 3 in FIG. 7A to complete all processes.

本装置1の動作で具現化された本方法の有効性を確認するために、非特許文献2のチェンらの方法と比較した。この方法では、角膜の球面モデルに基づき視軸が決定された。図9は、その評価結果を示す図である。図中の×字形は本方法、三角形はチェンの方法でそれぞれ推定されたPOGを示した。本方法によって推定されたPOGは、図9に示すように、ディスプレイの左上と右上とでPOGを決定する場合において、チェンの方法で推定されたPOGより正確なものであった。RとKとは、それぞれ8.04mmと4.43mmと推定された。なお、左上を注視した時の様子を図3(b)に示す。眼球が大きく傾くと、プルキニエ像が虹彩と強膜との境に達し、球面モデルでは実際の眼球形状から乖離し、計算に大きなずれが生じるため、誤差が大きくなっている。   In order to confirm the effectiveness of the method embodied by the operation of the apparatus 1, the method was compared with the method of Chen et al. In this method, the visual axis was determined based on a spherical model of the cornea. FIG. 9 is a diagram showing the evaluation results. In the figure, the X shape represents the POG estimated by this method, and the triangle represents the POG estimated by the Chen method. As shown in FIG. 9, the POG estimated by the present method was more accurate than the POG estimated by the Chen method when the POG was determined at the upper left and upper right of the display. R and K were estimated to be 8.04 mm and 4.43 mm, respectively. Note that FIG. 3B shows a state when the upper left is observed. When the eyeball is tilted greatly, the Purkinje image reaches the boundary between the iris and the sclera, and the spherical model deviates from the actual eyeball shape, resulting in a large deviation in the calculation, resulting in a large error.

以上説明したように、本発明は、注視点(POG)を追跡するために眼球の新しい物理的なモデルを提案するものである。このモデルは眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルである。かかるモデルに基づいてPOGを推定するための数式を決定するとともに、本発明に基づいて開発された装置などを評価することによって、コンピュータのディスプレイの全範囲についてPOGを正確に推定できることがわかった。   As described above, the present invention proposes a new physical model of the eyeball for tracking a point of interest (POG). This model is an aspherical rotator model composed of a rotating surface formed by rotating a free curve around the optical axis of the eyeball. It has been found that the POG can be accurately estimated for the entire range of the computer display by determining a mathematical formula for estimating the POG based on such a model and evaluating the device developed based on the present invention.

なお、上記実施形態における装置1は、実験室での評価に用いたプロトタイプ(原型)として位置付けられるものである。したがって、実機においては、ハードウエア及びソフトウエアの両方において、さらなる改良が加えられる。   In addition, the apparatus 1 in the said embodiment is positioned as a prototype (prototype) used for evaluation in a laboratory. Therefore, in the actual machine, further improvements are added in both hardware and software.

1 視線計測装置(本装置という。)
2 カメラ(撮像手段に相当する。)
3 ディスプレイ(注視対象に相当する。)
4 キーボード
5 マウス
6 コンピュータ(視線計測手段に相当する。)
61 光軸決定手段
62 パラメータ推定手段
63 曲率半径推定手段
64 中心間距離推定手段
65 オフセット推定手段
66 視軸推定手段
67 曲率中心推定手段
68 POG(注視点)推定手段
7 赤外線LED(光源)
1 eye gaze measuring device (referred to as this device)
2 Camera (corresponds to imaging means)
3 Display (corresponds to the gaze target)
4 Keyboard 5 Mouse 6 Computer (corresponds to eye gaze measuring means)
61 Optical axis determination means 62 Parameter estimation means 63 Curvature radius estimation means 64 Center distance estimation means 65 Offset estimation means 66 Visual axis estimation means 67 Curvature center estimation means 68 POG (gaze point) estimation means 7 Infrared LED (light source)

特開2009−297323号公報JP 2009-297323 A

SHIH,S.W.,AND LIU,J.2004.A Novel Approach to 3−D Gaze Tracking Using Stereo Cameras.IEEE Transactions on Systems,Man and Cybernetics,Part B34,1,234−235.SHIH, S.M. W. , AND LIU, J. et al. 2004. A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras. IEEE Transactions on Systems, Man and Cybernetics, Part B34, 1,234-235. CHEN,J.,TONG,Y.,GRAY,W.,AND JI,Q.2008.A Robust 3D Eye Gaze Tracking System using Noise Reduction.In Proceedings of the 2008 Symposium on Eye Tracking Research & Applications,189−196.CHEN, J. et al. , TONG, Y. , GRAY, W .; , AND JI, Q. 2008. A Robust 3D Eye Gaze Tracking System using Noise Reduction. In Proceedings of the 2008 Symposium on Eye Tracking Research & Applications, 189-196. GUESTRIN,E.D.,AND EIZENMAN,M.2007.Remote Point−of−Gaze Estimation with Free Head Movements Requiring a Single−Point Calibration.In Proceedings of the 29th Annual International Conference of the IEEE EMBS,4556−4560.GUESTRIN, E.G. D. , AND EIZENMAN, M. 2007. Remote Point-of-Gage Estimate with Free Head Movements Requiring a Single-Point Calibration. In Proceedings of the 29th Annual International Conference of the IEEE EMBS, 4556-4560. NAGAMATSU,T.,KAMAHARA,J.,IKO,T.,TANAKA,N.2008.One−point Calibration Gaze Tracking Based on Eyeball Kinematics Using Stereo Cameras.In Proceedings of the 2008 Symposium on Eye Tracking Research & Applications,95−98.NAGAMATSU, T.A. , KAMAHARA, J. et al. , IKO, T .; TANAKA, N .; 2008. One-point Calibration Gaze Tracking Based on Eyeball Kinetics USing Stereo Cameras. In Proceedings of the 2008 Symposium on Eye Tracking Research & Applications, 95-98. NAGAMATSU,T.,KAMAHARA,J.,TANAKA,N.2008.3D Gaze Tracking with Easy Calibration Using Stereo Cameras for Robot and Human Communicaton.In Proceedings of IEEE RO−MAN 2008,59−64.NAGAMATSU, T.A. , KAMAHARA, J. et al. TANAKA, N .; 2008. 3D Gaze Tracking with Easy Calibration Using Stereo Cameras for Robot and Human Communicon. In Proceedings of IEEE RO-MAN 2008, 59-64.

Claims (12)

光源からユーザの眼球に向けて照射された光の反射光をカメラで撮像する撮像手段と、この撮像データを眼球モデルに適用することにより、前記ユーザの注視対象に対する視線を計測する視線計測手段とを備えた装置であって、
前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであることを特徴とする視線計測装置。
An imaging unit that captures, with a camera, reflected light of light emitted from a light source toward the user's eyeball, and a line-of-sight measuring unit that measures the line of sight of the user's gaze target by applying this imaging data to an eyeball model; A device comprising:
The eyeball model is an aspherical surface rotator model comprising a rotating surface configured by rotating a free curve around the optical axis of the eyeball.
前記眼球の非球面回転体モデルに基づいて、前記眼球の光軸を決定する光軸決定手段と、
空間座標がわかっている1点をユーザが注視したときの、前記撮像データに基づいて、当該ユーザに依存するパラメータを推定するパラメータ推定手段と、
前記決定した光軸と、前記推定したパラメータとに基づいて、眼球の視軸を推定するとともに、前記推定した眼球の視軸と、注視対象の3次元モデルとに基づいて、注視点の空間座標を推定する視軸推定手段とを備えたことを特徴とする請求項1記載の視線計測装置。
An optical axis determining means for determining an optical axis of the eyeball based on the aspherical rotating body model of the eyeball;
Parameter estimation means for estimating a parameter depending on the user based on the imaging data when the user gazes at one point whose spatial coordinates are known;
Based on the determined optical axis and the estimated parameter, the visual axis of the eyeball is estimated, and based on the estimated visual axis of the eyeball and the three-dimensional model of the gaze target, spatial coordinates of the gazing point The visual axis measuring device according to claim 1, further comprising: a visual axis estimating means for estimating the visual axis.
前記光源は2個、前記カメラは2台で構成できることを特徴とする請求項1又は2記載の視線計測装置。   The line-of-sight measurement apparatus according to claim 1, wherein two light sources and two cameras are configured. 光源の中心をカメラの中心点に一致させるように、あるいは前記光源が前記カメラの中心近傍になるように、前記光源と前記カメラとを配置することを特徴とする請求項3記載の視線計測装置。   4. The line-of-sight measurement device according to claim 3, wherein the light source and the camera are arranged so that a center of the light source coincides with a center point of the camera or so that the light source is near the center of the camera. . 光源からユーザの眼球に向けて照射された光の反射光をカメラで撮像し、これらの撮像データを眼球モデルに適用することにより、前記ユーザの注視対象に対する視線を計測する方法であって、
前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであることを特徴とする視線計測方法。
A method of measuring the line of sight of the user's gaze target by imaging reflected light of light emitted from a light source toward the user's eyeball with a camera and applying these imaging data to an eyeball model,
The eyeball model is a gaze measurement method, characterized in that the eyeball model is an aspherical rotator model composed of a rotation surface formed by rotating a free curve around the optical axis of the eyeball.
光軸決定手段は、前記眼球の非球面回転体モデルに基づいて、前記眼球の光軸を決定し、
パラメータ推定手段は、空間座標がわかっている1点をユーザが注視したときの、前記撮像データに基づいて、当該ユーザに依存するパラメータを推定し、
視軸推定手段は、前記決定した光軸と、前記推定したパラメータとに基づいて、眼球の視軸を推定するとともに、前記推定した眼球の視軸と、注視対象の3次元モデルとに基づいて、注視点の空間座標を推定することを特徴とする請求項5記載の視線計測方法。
The optical axis determination means determines the optical axis of the eyeball based on the aspherical rotating body model of the eyeball,
The parameter estimation means estimates a parameter depending on the user based on the imaging data when the user gazes at one point whose spatial coordinates are known,
The visual axis estimating means estimates the visual axis of the eyeball based on the determined optical axis and the estimated parameter, and based on the estimated visual axis of the eyeball and the three-dimensional model of the gaze target. The gaze measurement method according to claim 5, wherein spatial coordinates of the gazing point are estimated.
前記光源は2個、前記カメラは2台で構成できる条件下であることを特徴とする請求項5又は6記載の視線計測方法。   The line-of-sight measurement method according to claim 5, wherein the number of the light sources is two and the number of the cameras is two. 光源の中心をカメラの中心点に一致させるように、あるいは前記光源が前記カメラの中心近傍になるように、前記光源と前記カメラとを配置する条件下であることを特徴とする請求項7記載の視線計測方法。   8. The condition under which the light source and the camera are arranged so that the center of the light source coincides with the center point of the camera or so that the light source is near the center of the camera. Gaze measurement method. 光源からユーザの眼球に向けて照射された光の反射光をカメラで撮像する機能と、この撮像データを眼球モデルに適用することにより、前記ユーザの注視対象に対する視線を計測する機能とをコンピュータに実現させる視線計測プログラムであって、
前記眼球モデルは、眼球の光軸を中心として自由曲線を回転することによって構成される回転面からなる非球面回転体モデルであることを特徴とする視線計測プログラム。
A computer has a function of capturing reflected light of light emitted from a light source toward the user's eyeball with a camera, and a function of measuring the line of sight of the user's gaze target by applying this imaging data to an eyeball model. A gaze measurement program to be realized,
The eyeball model is a gaze measurement program characterized in that it is an aspherical rotator model composed of a rotation surface formed by rotating a free curve around the optical axis of the eyeball.
前記眼球の非球面回転体モデルに基づいて、前記眼球の光軸を決定する機能と、
空間座標がわかっている1点をユーザが注視したときの、前記撮像データに基づいて、当該ユーザに依存するパラメータを推定する機能と、
前記決定した光軸と、前記推定したパラメータとに基づいて、眼球の視軸を推定するとともに、前記推定した眼球の視軸と、注視対象の3次元モデルとに基づいて、注視点の空間座標を推定する機能とをコンピュータにさらに実現させることを特徴とする請求項9記載の視線計測プログラム。
A function of determining the optical axis of the eyeball based on the aspheric rotating body model of the eyeball;
A function for estimating a parameter depending on the user based on the imaging data when the user gazes at one point whose spatial coordinates are known;
Based on the determined optical axis and the estimated parameter, the visual axis of the eyeball is estimated, and based on the estimated visual axis of the eyeball and the three-dimensional model of the gaze target, spatial coordinates of the gazing point The line-of-sight measurement program according to claim 9, further causing a computer to realize a function of estimating the eye movement.
前記光源は2個、前記カメラは2台で構成できる条件下であることを特徴とする請求項9又は10記載の視線計測プログラム。   The line-of-sight measurement program according to claim 9 or 10, wherein the number of the light sources is two and the number of the cameras is two. 光源の中心をカメラの中心点に一致させるように、あるいは前記光源が前記カメラの中心近傍になるように、前記光源と前記カメラとを配置する条件下であることを特徴とする請求項11記載の視線計測プログラム。   12. The condition under which the light source and the camera are arranged so that the center of the light source coincides with the center point of the camera or so that the light source is near the center of the camera. Gaze measurement program.
JP2010041039A 2010-02-25 2010-02-25 Gaze measurement apparatus, method, and program Active JP5371051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010041039A JP5371051B2 (en) 2010-02-25 2010-02-25 Gaze measurement apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010041039A JP5371051B2 (en) 2010-02-25 2010-02-25 Gaze measurement apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2011172853A true JP2011172853A (en) 2011-09-08
JP5371051B2 JP5371051B2 (en) 2013-12-18

Family

ID=44686297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010041039A Active JP5371051B2 (en) 2010-02-25 2010-02-25 Gaze measurement apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5371051B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013190942A (en) * 2012-03-13 2013-09-26 Nippon Hoso Kyokai <Nhk> Visual axis error correcting device, program thereof, and method thereof
WO2014021169A1 (en) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 Point of gaze detection device, point of gaze detection method, individual parameter computation device, individual parameter computation method, program, and computer-readable recording medium
KR101745077B1 (en) * 2015-04-08 2017-06-08 현대자동차주식회사 Gaze tracker and method for tracking graze thereof
JP2017162420A (en) * 2016-03-13 2017-09-14 学校法人関西学院 Personal authentication method and personal authentication system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08238222A (en) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd Apparatus for recognizing line of gaze
JP2009297323A (en) * 2008-06-16 2009-12-24 Kobe Univ Visual axis measuring apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08238222A (en) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd Apparatus for recognizing line of gaze
JP2009297323A (en) * 2008-06-16 2009-12-24 Kobe Univ Visual axis measuring apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013039872; 岩本由貴奈 外: '非球面角膜モデルを用いた視線計測手法の提案' 第72回(平成22年)全国大会 講演論文集(4) 巻72nd 号4, 20100308, P.4.101-4.102, (社)情報処理学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013190942A (en) * 2012-03-13 2013-09-26 Nippon Hoso Kyokai <Nhk> Visual axis error correcting device, program thereof, and method thereof
WO2014021169A1 (en) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 Point of gaze detection device, point of gaze detection method, individual parameter computation device, individual parameter computation method, program, and computer-readable recording medium
JP5467303B1 (en) * 2012-07-31 2014-04-09 独立行政法人科学技術振興機構 Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium
CN104244807A (en) * 2012-07-31 2014-12-24 独立行政法人科学技术振兴机构 Point of gaze detection device, point of gaze detection method, individual parameter computation device, individual parameter computation method, program, and computer-readable recording medium
TWI489969B (en) * 2012-07-31 2015-07-01 Japan Science & Tech Agency Point-of-gaze detection device, point-of-gaze detecting method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable recording medium
US9262680B2 (en) 2012-07-31 2016-02-16 Japan Science And Technology Agency Point-of-gaze detection device, point-of-gaze detecting method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium
KR101745077B1 (en) * 2015-04-08 2017-06-08 현대자동차주식회사 Gaze tracker and method for tracking graze thereof
JP2017162420A (en) * 2016-03-13 2017-09-14 学校法人関西学院 Personal authentication method and personal authentication system

Also Published As

Publication number Publication date
JP5371051B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
CN108351514B (en) Use the eye tracks of structure light
KR102062658B1 (en) Sphere tracking of the cornea to create an ocular model
US9785233B2 (en) Systems and methods of eye tracking calibration
JP5467303B1 (en) Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium
US7686451B2 (en) Explicit raytracing for gimbal-based gazepoint trackers
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
JP6014931B2 (en) Gaze measurement method
KR101094766B1 (en) Apparatus and mehtod for tracking eye
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP2015528359A (en) Method and apparatus for determining a point of interest on a three-dimensional object
JP2005185431A (en) Line-of-sight detection method and line-of-sight detector
JP2018099174A (en) Pupil detector and pupil detection method
US20220100268A1 (en) Eye tracking device and a method thereof
US11624907B2 (en) Method and device for eye metric acquisition
TWI570638B (en) Gaze analysis method and apparatus
JP2009297323A (en) Visual axis measuring apparatus
JP5371051B2 (en) Gaze measurement apparatus, method, and program
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
Nagamatsu et al. Calibration-free gaze tracking using a binocular 3D eye model
JP5818233B2 (en) Gaze measurement apparatus and method
JP5590487B2 (en) Gaze measurement method and gaze measurement device
JP5719216B2 (en) Gaze measurement apparatus and gaze measurement program
Borsato et al. Episcleral surface tracking: challenges and possibilities for using mice sensors for wearable eye tracking
JP6430813B2 (en) Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus
JP2016057906A (en) Measurement method and system of viewpoint position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130912

R150 Certificate of patent or registration of utility model

Ref document number: 5371051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250