JP2013190942A - Visual axis error correcting device, program thereof, and method thereof - Google Patents

Visual axis error correcting device, program thereof, and method thereof Download PDF

Info

Publication number
JP2013190942A
JP2013190942A JP2012056073A JP2012056073A JP2013190942A JP 2013190942 A JP2013190942 A JP 2013190942A JP 2012056073 A JP2012056073 A JP 2012056073A JP 2012056073 A JP2012056073 A JP 2012056073A JP 2013190942 A JP2013190942 A JP 2013190942A
Authority
JP
Japan
Prior art keywords
line
sight
marker
eyeball model
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012056073A
Other languages
Japanese (ja)
Other versions
JP5873362B2 (en
Inventor
Shuichi Umeda
修一 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012056073A priority Critical patent/JP5873362B2/en
Publication of JP2013190942A publication Critical patent/JP2013190942A/en
Application granted granted Critical
Publication of JP5873362B2 publication Critical patent/JP5873362B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a visual axis error correcting device minimizing a visual axis error with little workload.SOLUTION: A visual axis error correcting device 20 for correcting a visual axis error measured by a visual axis measuring apparatus 10A includes: input/output control means 21 that inputs a marker visual axis and error information, and outputs an image; distortion vector calculating means 22 that generates a distortion plane, with a pointer matching a maker, on the basis of the error information, and calculates a distortion vector; aspheric-surface eyeball model generating means 23 that generates an aspheric-surface eyeball model corresponding to each user on the basis of the distortion vector; and visual axis error correcting means 24 that corrects the visual axis error on the basis of the aspheric-surface eyeball model.

Description

本発明は、球面眼球モデルによる瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正装置、そのプログラム及びその方法に関する。   The present invention relates to a line-of-sight error correction apparatus that corrects a line-of-sight error measured by a pupil-corneal reflection method using a spherical eyeball model, a program thereof, and a method thereof.

例えば、表示画面に表示される対象物の中から目をひくものを調べたいときに、視線の測定が行われている。また、PC(パーソナルコンピュータ)では、マウスに代わるポインティングデバイスとして、視線の測定が行われる。このとき、ユーザの頭部を拘束しない自然な状態で正確に視線を測定するため、瞳孔−角膜反射法が広く利用されている(非特許文献1)。   For example, when it is desired to examine an eye-catching object among objects displayed on the display screen, the line of sight is measured. Further, in a PC (personal computer), the line of sight is measured as a pointing device instead of a mouse. At this time, in order to accurately measure the line of sight in a natural state where the user's head is not restrained, the pupil-corneal reflection method is widely used (Non-Patent Document 1).

以下、図16を参照して、非特許文献1に記載の視線測定装置10の構成について説明する。
図16に示すように、視線測定装置10は、瞳孔−角膜反射法で視線を測定するものであり、瞳孔・プルキニエ像検出手段11と、視線ベクトル・基準点算出手段12と、個人キャリブレーション手段13と、視線座標変換・出力手段14とを備える。
この視線測定装置10は、視線を測定するために、後記する赤外線光源90と、撮影カメラ91と、表示手段92とが必要になる。
Hereinafter, the configuration of the line-of-sight measurement device 10 described in Non-Patent Document 1 will be described with reference to FIG.
As shown in FIG. 16, the line-of-sight measurement apparatus 10 measures the line of sight by the pupil-corneal reflection method, and includes a pupil / Purkinje image detection unit 11, a line-of-sight vector / reference point calculation unit 12, and a personal calibration unit. 13 and line-of-sight coordinate conversion / output means 14.
The line-of-sight measurement apparatus 10 requires an infrared light source 90, a photographing camera 91, and display means 92, which will be described later, in order to measure the line of sight.

赤外線光源90は、例えば、ユーザの眼球900(図17)に赤外線を照射する赤外線LED(Light Emitting Diode)である。
撮影カメラ91は、例えば、赤外線光源90が赤外線を照射した状態で、ユーザの眼球900を撮影する赤外線CCD(Charge Coupled Device)である。
ここで、撮影カメラ91は、Tsaiのカメラキャリブレーション(非特許文献2)によって、内部パラメータ(例えば、焦点距離、レンズ歪み、画像の光軸中心位置、CCD画素の縦横比)と、外部パラメータ(例えば、位置、回転角)を予め求めておく。
表示手段92は、例えば、視線測定装置10が測定した視線の位置を表示画面に表示するディスプレイである。
The infrared light source 90 is, for example, an infrared LED (Light Emitting Diode) that irradiates the user's eyeball 900 (FIG. 17) with infrared rays.
The photographing camera 91 is, for example, an infrared CCD (Charge Coupled Device) that photographs the user's eyeball 900 in a state where the infrared light source 90 emits infrared rays.
Here, the photographic camera 91 uses internal parameters (for example, focal length, lens distortion, optical axis center position of the image, aspect ratio of CCD pixels) and external parameters (for example, by Tsai camera calibration (Non-Patent Document 2)). For example, the position and rotation angle) are obtained in advance.
The display unit 92 is, for example, a display that displays the position of the line of sight measured by the line-of-sight measurement device 10 on a display screen.

瞳孔・プルキニエ像検出手段11は、図17(a)に示すように、撮影カメラ91で眼球900を撮影した眼球画像93から、プルキニエ像(角膜反射像)u及び瞳孔902を検出するものである。
例えば、瞳孔902は、虹彩903に比べ、眼球画像93で暗い像として映る。従って、瞳孔・プルキニエ像検出手段11は、眼球画像93を類似輝度の領域別にセグメント化し、セグメント化された各領域の中から瞳孔領域を検出する。そして、瞳孔・プルキニエ像検出手段11は、図17(b)に示すように、検出した瞳孔領域に対して、瞳孔輪郭を誤差二乗和による楕円近似を行い、領域中心を瞳孔中心eとして求める。さらに、瞳孔・プルキニエ像検出手段11は、瞳孔中心eから一定距離内でプルキニエ像の位置uを検出する。このとき、プルキニエ像は、面積を持たない点として検出されることが多い。
なお、図17(a)では、説明を簡易にするため、ユーザの眼球900のみを図示した。
また、図17(b)では、眼球画像93のうち瞳孔902の部分のみを図示した。
The pupil / Purkinje image detecting means 11 detects a Purkinje image (corneal reflection image) u and a pupil 902 from an eyeball image 93 obtained by photographing the eyeball 900 with the photographing camera 91 as shown in FIG. .
For example, the pupil 902 appears as a darker image in the eyeball image 93 than the iris 903. Accordingly, the pupil / Purkinje image detection means 11 segments the eyeball image 93 into regions of similar luminance, and detects pupil regions from the segmented regions. Then, as shown in FIG. 17 (b), the pupil / Purkinje image detecting means 11 performs elliptical approximation of the pupil contour on the detected pupil region by the sum of squared errors, and obtains the region center as the pupil center e. Further, the pupil / Purkinje image detecting means 11 detects the position u of the Purkinje image within a certain distance from the pupil center e. At this time, the Purkinje image is often detected as a point having no area.
In FIG. 17A, only the user's eyeball 900 is shown for the sake of simplicity.
In FIG. 17B, only the pupil 902 portion of the eyeball image 93 is shown.

視線ベクトル・基準点算出手段12は、瞳孔・プルキニエ像検出手段11が検出したプルキニエ像の位置u及び瞳孔中心eを用いて、図18に示すように、視線(視線ベクトルv)を算出するものである。
つまり、視線ベクトル・基準点算出手段12は、3次元空間上における眼球位置を測定し、この眼球位置に基づいて、基準点(角膜曲率中心c)と、視線を示すベクトルである視線ベクトルv=e−cとを算出する。
The line-of-sight vector / reference point calculation means 12 calculates the line of sight (line-of-sight vector v) as shown in FIG. 18 using the position u of the Purkinje image detected by the pupil / Purkinje image detection means 11 and the pupil center e. It is.
That is, the line-of-sight vector / reference point calculation means 12 measures the eyeball position in the three-dimensional space, and based on the eyeball position, the line-of-sight vector v == the vector indicating the line of sight and the reference point (corneal curvature center c). ec is calculated.

ここで、図18には、角膜曲率中心cと、角膜曲率中心cから実際の瞳孔輪郭へのベクトルdと、瞳孔輪郭像pにおいて角膜表面に接する平面の法線ベクトルの単位ベクトルnと、角膜表面における瞳孔輪郭像pと、瞳孔輪郭像の位置ベクトルpと、観察された瞳孔輪郭qと、補正された瞳孔輪郭q’とを図示した。
なお、図18では、図面を見やすくするため、瞳孔輪郭像の位置ベクトルpを点として図示した。
また、図18では、瞳孔輪郭q,q’は、正面視した際に円状となる瞳孔輪郭の断面を示すため、線状になっている。
Here, in FIG. 18, the corneal curvature center c, the vector d from the corneal curvature center c to the actual pupil contour, the unit vector n of the normal vector of the plane in contact with the corneal surface in the pupil contour image p, and the cornea The pupil contour image p on the surface, the position vector p 0 of the pupil contour image, the observed pupil contour q, and the corrected pupil contour q ′ are illustrated.
In FIG. 18, the position vector p 0 of the pupil contour image is shown as a point for easy viewing of the drawing.
In FIG. 18, the pupil contours q and q ′ are linear in order to show a cross section of the pupil contour that is circular when viewed from the front.

また、図18には、撮影カメラ91から瞳孔輪郭像の位置ベクトルpまでの方向ベクトルの単位ベクトルrを図示した。ここで、上側の単位ベクトルrは、瞳孔輪郭像の位置ベクトルpから単位ベクトルrを求めることを説明するために図示した。また、下側の単位ベクトルrは、上側の単位ベクトルrをプルキニエ像の位置uを指すように移動させて図示した。 FIG. 18 shows a unit vector r of the direction vector from the photographing camera 91 to the position vector p 0 of the pupil contour image. Here, the upper unit vector r is illustrated to explain that the unit vector r is obtained from the position vector p 0 of the pupil contour image. The lower unit vector r is illustrated by moving the upper unit vector r so as to point to the position u of the Purkinje image.

また、図18には、瞳孔輪郭像pにおいて屈折後の撮影カメラ91からの光線の単位ベクトルtと、角膜曲率半径Cと、角膜曲率中心cから瞳孔輪郭までの距離Dと、瞳孔輪郭像の位置ベクトルpからプルキニエ像の位置uまでの距離Mと、瞳孔の半径Rとを図示した。これら各項目は、必要に応じて説明を後記する。 FIG. 18 shows a unit vector t of light rays from the camera 91 after refraction in the pupil contour image p, a corneal curvature radius C, a distance D from the corneal curvature center c to the pupil contour, and a pupil contour image. The distance M from the position vector p 0 to the position u of the Purkinje image and the radius R of the pupil are illustrated. These items will be described later if necessary.

ここで、瞳孔−角膜反射法では、瞳孔中心eと、プルキニエ像の位置uの位置関係から視線を推定する。このとき、赤外線光源90と撮影カメラ91との位置関係は、事前に測定されているため、既知である。従って、眼球900の位置は、カメラキャリブレーションにより導くことができる。   Here, in the pupil-corneal reflection method, the line of sight is estimated from the positional relationship between the pupil center e and the position u of the Purkinje image. At this time, the positional relationship between the infrared light source 90 and the photographing camera 91 is known because it is measured in advance. Therefore, the position of the eyeball 900 can be derived by camera calibration.

つまり、カメラ座標系において、プルキニエ像の位置u及び瞳孔中心eの2次元座標(x,y)を求めることができる。また、奥行座標zは、撮影カメラ91の焦点距離やステレオ画像の視差により、高い精度で求めることができる。従って、図18に示すように、世界座標系において、角膜曲率中心c及び瞳孔中心eの位置ベクトルを求めることができる。   That is, the two-dimensional coordinates (x, y) of the position u of the Purkinje image and the pupil center e can be obtained in the camera coordinate system. Further, the depth coordinate z can be obtained with high accuracy from the focal length of the photographing camera 91 and the parallax of the stereo image. Therefore, as shown in FIG. 18, the position vectors of the corneal curvature center c and the pupil center e can be obtained in the world coordinate system.

個人キャリブレーション手段13は、図19に示すように、視線ベクトル・基準点算出手段12が算出した視線ベクトルvに、個人キャリブレーションによる補正を施すものである。
図19の距離L及び角膜曲率半径Cは、個人差のある定数である。そこで、個人キャリブレーション手段13は、角膜曲率中心cから瞳孔中心eまでの距離Lと、角膜曲率半径Cとを求める個人キャリブレーションを行う。
なお、図19では、角膜曲率中心cを中心として、角膜曲率半径Cを有する円を破線で図示した。
As shown in FIG. 19, the personal calibration unit 13 performs correction by personal calibration on the line-of-sight vector v calculated by the line-of-sight vector / reference point calculation unit 12.
The distance L and the corneal curvature radius C in FIG. 19 are constants with individual differences. Therefore, the personal calibration means 13 performs personal calibration to obtain the distance L from the corneal curvature center c to the pupil center e and the corneal curvature radius C.
In FIG. 19, a circle having a corneal curvature radius C with the corneal curvature center c as a center is illustrated by a broken line.

ここで、個人キャリブレーションでは、図20に示すように、ヒトの眼球900の形状を想定した球面眼球モデル910を用いる。この図20では、図面を見やすくするため、角膜901の一部について、角膜901の表面を、角膜曲率中心cを基準とする極座標系において等角度で分割した球面眼球モデル910を図示した。つまり、球面眼球モデル910は、角膜901の形状を球面状としている。   Here, in the personal calibration, as shown in FIG. 20, a spherical eyeball model 910 that assumes the shape of a human eyeball 900 is used. FIG. 20 shows a spherical eyeball model 910 in which the surface of the cornea 901 is divided at an equal angle in a polar coordinate system with the cornea curvature center c as a reference for a part of the cornea 901 in order to make the drawing easy to see. That is, in the spherical eyeball model 910, the shape of the cornea 901 is spherical.

そして、個人キャリブレーションでは、球面眼球モデル910を用いて、距離L及び角膜曲率半径Cを求める。具体的には、個人キャリブレーションでは、表示画面上で基準となるマーカに視線を向けた際の測定データを、2次以上の曲面で表した眼球モデルに対して最小二乗法を適用して近似する。ここで、非特許文献1には、3次以上の近似を行っても誤差が増大すると記載されている。従って、個人キャリブレーションでは、2次の曲面、つまり、球面を組み合わせて、眼球及び角膜からなる球面眼球モデルを作成し、視線ベクトルvの補正に用いる。   In the personal calibration, the distance L and the corneal curvature radius C are obtained using the spherical eyeball model 910. Specifically, in personal calibration, the measurement data when the line of sight is directed to the reference marker on the display screen is approximated by applying the least square method to an eyeball model represented by a quadratic or higher-order curved surface. To do. Here, Non-Patent Document 1 describes that the error increases even when approximation of the third order or higher is performed. Therefore, in personal calibration, a spherical surface model composed of an eyeball and a cornea is created by combining secondary curved surfaces, that is, spherical surfaces, and used for correcting the line-of-sight vector v.

視線座標変換・出力手段14は、個人キャリブレーション手段13で補正した視線ベクトルvを任意の座標系に座標変換して出力するものである。
ここで、瞳孔−角膜反射法では、図21に示すように、世界座標系(x’,y’,z’)と、カメラ座標系(x,y,z)と、画像座標系(x,y)とを用いている。
この世界座標系は、表示手段92に対して固定された3次元座標系であり、例えば、表示手段92の表示画面下部を原点とする。
また、カメラ座標系は、例えば、撮影カメラ91の光学主点を原点とする3次元座標系である。
また、画像座標系は、表示手段92の表示画面(つまり、眼球画像93)を指す2次元座標系であり、例えば、世界座標系の奥行位置をゼロとした座標系である。
なお、図21では、表示手段92において、眼球900からの視線ベクトルvの延長線と表示手段92の表示画面との交点を点92aとして図示した。
The line-of-sight coordinate conversion / output unit 14 converts the line-of-sight vector v corrected by the personal calibration unit 13 into an arbitrary coordinate system and outputs it.
Here, in the pupil-cornea reflection method, as shown in FIG. 21, the world coordinate system (x ′, y ′, z ′), the camera coordinate system (x, y, z), and the image coordinate system (x 0). , Y 0 ).
This world coordinate system is a three-dimensional coordinate system fixed with respect to the display means 92. For example, the lower part of the display screen of the display means 92 is the origin.
The camera coordinate system is, for example, a three-dimensional coordinate system having the optical principal point of the photographing camera 91 as the origin.
The image coordinate system is a two-dimensional coordinate system that points to the display screen (that is, the eyeball image 93) of the display unit 92. For example, the image coordinate system is a coordinate system in which the depth position of the world coordinate system is zero.
In FIG. 21, in the display unit 92, the intersection of the extension line of the line-of-sight vector v from the eyeball 900 and the display screen of the display unit 92 is shown as a point 92a.

そして、画像座標系における位置ベクトルp、世界座標系における位置ベクトルp’、および、カメラ座標系における位置ベクトルpは、Tsaiのカメラキャリブレーションで得られる変換行列Rw,Rcを用いて、以下の(1)式のように座標変換できる(非特許文献3)。
つまり、視線座標変換・出力手段14は、この(1)式によって、世界座標系と、カメラ座標系と、画像座標系との間で、自在に座標変換を行うことができる。なお、(1)式では、Tが転置行列である。
Then, the position vector p 0 in the image coordinate system, the position vector p ′ in the world coordinate system, and the position vector p in the camera coordinate system are converted into the following using transformation matrices Rw and Rc obtained by camera calibration of Tsai: Coordinate conversion can be performed as in equation (1) (Non-Patent Document 3).
That is, the line-of-sight coordinate conversion / output unit 14 can freely perform coordinate conversion among the world coordinate system, the camera coordinate system, and the image coordinate system according to the equation (1). In Equation (1), T is a transposed matrix.

Figure 2013190942
Figure 2013190942

「2点補正による簡易キャリブレーションを実現した視線測定システム」、大野他、情報処理学会論文誌、2003、Vol.44、No.4"Gaze measurement system that achieves simple calibration by two-point correction", Ohno et al., IPSJ Journal, 2003, Vol.44, No.4 “A versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision”,Tsai,R.Y.,IEEE Journal on Robotics and Automation (1987),Volume 3, Issue 4,P323-344“A versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision”, Tsai, R.Y., IEEE Journal on Robotics and Automation (1987), Volume 3, Issue 4, P323-344 「眼球形状モデルに基づく視線測定システム−視線入力デバイスの実現に向けて−」、大野、情処研報2001-HI-93、2001、pp.47-54"Gaze measurement system based on eyeball shape model-Toward the realization of gaze input device", Ohno, Jishokenho 2001-HI-93, 2001, pp.47-54

しかし、非特許文献1に記載の技術では、測定された視線の誤差が大きいという問題がある。
例えば、測定した視線を用いて、PC上でポインティング操作を行う場合を考える。この場合、視線に1度でも誤差があると、ユーザが表示画面上のアイコンを指定する際、違和感を覚えることになる。つまり、視線によるポインティングでは、少しでも誤差があると、視線の中心でポインタを捉えることが原理的に不可能であり、この誤差の修正が困難である。
また、テレビやPCの表示画面は、臨場感及び操作性の高さを追及するため、広視野化が進んでいる。広視野な表示画面において視線測定を行う場合、その周辺部でも誤差を小さく抑える必要がある。
However, the technique described in Non-Patent Document 1 has a problem that the error of the measured line of sight is large.
For example, consider a case where a pointing operation is performed on a PC using a measured line of sight. In this case, if there is even an error in the line of sight, the user will feel uncomfortable when specifying an icon on the display screen. In other words, in the pointing by the line of sight, if there is even a slight error, it is impossible in principle to capture the pointer at the center of the line of sight, and it is difficult to correct this error.
In addition, display screens of televisions and PCs have been widened in view of realism and high operability. When line-of-sight measurement is performed on a display screen with a wide field of view, it is necessary to reduce the error even in the periphery.

そこで、視線の誤差を小さくするため、従来の瞳孔−角膜反射法は、個人キャリブレーションを何度も行うことが多い。従って、個人キャリブレーションの作業にかかる手間が、視線測定を行う際に大きな負担となる。さらに、一旦、個人キャリブレーションを終了した後、どのくらい正確に視線を測定できているかの判断が極めて困難である。言い換えるなら、測定した視線を後で分析する際、測定前の個人キャリブレーションの結果を、唯一無比な正解データとして信用せざるを得ない。このため、個人キャリブレーション作業は、丁寧に行わねばならず、視線測定の作業負担が大きくなる原因となっている。   Therefore, in order to reduce the line-of-sight error, the conventional pupil-corneal reflection method often performs personal calibration many times. Therefore, the labor required for the personal calibration work becomes a heavy burden when performing the line-of-sight measurement. Furthermore, it is very difficult to determine how accurately the line of sight can be measured once personal calibration is completed. In other words, when the measured line of sight is analyzed later, the result of personal calibration before measurement must be trusted as unique and correct data. For this reason, the personal calibration work has to be performed carefully, which causes a large work load for eye gaze measurement.

ここで、個人キャリブレーションが一度で済まない原因は、角膜を球面とした球面眼球モデルを用いるため、表示画面の中心部及び周辺部の両方で視線の誤差をゼロにできないことと考えられる。図22(a)に示すように、眼球画像93は、例えば、角膜901と、瞳孔902と、虹彩903とが撮影される。また、図22(b)に示すように、眼球900は、角膜901と、瞳孔902と、虹彩903と、強膜904と、房水905と、水晶体906と、網膜907と、中心窩908とで構成される。そして、この角膜901は、その曲率が一様ではなく、周辺になるほど曲率半径が大きくなる人が多い。さらに、角膜901は、同じ個人でも曲率変化が一様ではない。このため、個人キャリブレーションが一度で済むような、万人に最適化された眼球モデルは、その生成が極めて困難である。   Here, it is considered that the reason why the personal calibration is not completed once is that the gaze error cannot be made zero at both the central portion and the peripheral portion of the display screen because the spherical eyeball model having the cornea as a spherical surface is used. As shown in FIG. 22A, for example, a cornea 901, a pupil 902, and an iris 903 are photographed in the eyeball image 93. As shown in FIG. 22B, the eyeball 900 includes a cornea 901, a pupil 902, an iris 903, a sclera 904, an aqueous humor 905, a lens 906, a retina 907, and a fovea 908. Consists of. The curvature of the cornea 901 is not uniform, and there are many people whose radius of curvature increases toward the periphery. Further, the curvature of the cornea 901 is not uniform even for the same individual. For this reason, it is extremely difficult to generate an eyeball model that is optimized for all people so that personal calibration is performed only once.

そこで、本発明は、作業負担が少なく、視線の誤差を小さく抑える視線誤差補正装置、そのプログラム及びその方法を提供することを課題とする。   Therefore, an object of the present invention is to provide a gaze error correction apparatus, a program for the gaze error correction apparatus, and a method for reducing the gaze error with a small work load.

本発明者は、前記した個人キャリブレーションにおいて、球面眼球モデルの球面性と、角膜形状の非球面性との相違に起因した誤差が生じ、かつ、この誤差が座標変換を経ても残ることに着目し、座標変換後に視線の誤差を補正するための非球面眼球モデルを生成すれば、前記した課題を解決できることを見出し、本発明を完成させた。   The present inventor noted that in the above-described personal calibration, an error due to the difference between the sphericality of the spherical eyeball model and the asphericity of the corneal shape occurs, and this error remains even after coordinate conversion. The present inventors have found that the above-described problems can be solved by generating an aspheric eyeball model for correcting a line-of-sight error after coordinate conversion.

すなわち、本願第1発明に係る視線誤差補正装置は、球面眼球モデルによる瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正装置であって、表示制御手段と、誤差情報入力手段と、歪ベクトル算出手段と、非球面眼球モデル生成手段と、視線誤差補正手段と、を備えることを特徴とする。   That is, the line-of-sight error correction apparatus according to the first invention of the present application is a line-of-sight error correction apparatus that corrects a line-of-sight error measured by a pupil-corneal reflection method using a spherical eyeball model, including a display control unit and an error information input unit. And a distortion vector calculation means, an aspheric eyeball model generation means, and a line-of-sight error correction means.

かかる構成によれば、視線誤差補正装置は、表示制御手段によって、所定位置にマーカが配置されたマーカ画像と、前記瞳孔−角膜反射法で測定された前記マーカに対するマーカ視線の位置とを表示手段に表示させる。ここで、マーカ視線は、画像座標系において、ユーザがマーカを注視したときの視線が瞳孔−角膜反射法で測定されたものである。   According to this configuration, the line-of-sight error correction device displays, by the display control unit, a marker image in which a marker is arranged at a predetermined position and a position of the marker line of sight with respect to the marker measured by the pupil-corneal reflection method. To display. Here, the marker line of sight is obtained by measuring the line of sight when the user gazes at the marker in the image coordinate system by the pupil-corneal reflection method.

また、視線誤差補正装置は、誤差情報入力手段によって、表示手段に表示されたマーカとマーカ視線との位置ずれを示す誤差情報が入力される。この誤差情報入力手段に入力された誤差情報は、ユーザがマーカを注視したとき、瞳孔−角膜反射法で測定した視線と、実際の視線との位置ずれを示している。   Also, in the line-of-sight error correction device, error information indicating the positional deviation between the marker displayed on the display unit and the marker line of sight is input by the error information input unit. The error information input to the error information input means indicates a positional deviation between the line of sight measured by the pupil-cornea reflection method and the actual line of sight when the user gazes at the marker.

また、視線誤差補正装置は、歪ベクトル算出手段によって、誤差情報入力手段に入力された誤差情報に基づいて、マーカ画像と同一サイズでマーカ視線の位置を示した平面画像から、マーカ視線の位置を前記マーカに一致させるように歪ませた歪み平面を生成し、画像座標系で歪み平面の歪みを示す歪ベクトルを算出する。この歪ベクトル算出手段で算出された歪ベクトルは、平面画像と歪み平面との対応点の位置ずれ量及び位置ずれ方向を示している。   Further, the line-of-sight error correction device calculates the position of the marker line of sight from the planar image showing the position of the marker line of sight with the same size as the marker image based on the error information input to the error information input unit by the distortion vector calculation unit. A distortion plane distorted so as to coincide with the marker is generated, and a distortion vector indicating the distortion of the distortion plane is calculated in the image coordinate system. The distortion vector calculated by the distortion vector calculating means indicates the amount of displacement and the direction of displacement of the corresponding point between the planar image and the distortion plane.

また、視線誤差補正装置は、非球面眼球モデル生成手段によって、歪ベクトルに基づいて、球面な球面眼球モデルに起因する視線の誤差を補正するために、非球面な角膜形状を示す非球面眼球モデルを生成する。そして、視線誤差補正装置は、視線誤差補正手段によって、非球面眼球モデル生成手段で生成された非球面眼球モデルに基づく回転により、瞳孔−角膜反射法で測定された視線の誤差を補正する。このように、視線誤差補正装置は、座標変換後に生成された非球面眼球モデルを用いて、視線の誤差を補正する。   In addition, the gaze error correction device uses the aspheric eyeball model generation means to correct the gaze error caused by the spherical spherical eyeball model based on the distortion vector, so that the aspheric eyeball model showing an aspheric corneal shape is provided. Is generated. Then, the line-of-sight error correction device corrects the line-of-sight error measured by the pupil-corneal reflection method by the rotation based on the aspheric eyeball model generated by the aspheric eyeball model generation unit. Thus, the line-of-sight error correction apparatus corrects the line-of-sight error using the aspheric eyeball model generated after coordinate conversion.

また、本願第2発明に係る視線誤差補正装置は、非球面眼球モデル生成手段が、非球面眼球モデルとして、画像座標系の歪ベクトルを、眼球中心を原点とする眼球中心極座標系に座標変換することで、球面眼球モデルに対する視線の差分角度を示す差分角度眼球モデルを生成する差分角度眼球モデル生成手段、を備え、視線誤差補正手段が、差分角度眼球モデルを参照して、眼球中心極座標系の原点を中心として、瞳孔−角膜反射法で測定された視線を差分角度だけ回転させることで、視線の誤差を補正する差分角度眼球モデル視線誤差補正手段、を備えることを特徴とする。
かかる構成によれば、視線誤差補正装置は、簡易な座標変換で差分角度眼球モデルを生成することができる。
In the gaze error correction device according to the second invention of the present application, the aspheric eyeball model generation means performs coordinate conversion of the distortion vector of the image coordinate system into an eyeball center polar coordinate system with the eyeball center as the origin as an aspheric eyeball model. Thus, a difference angle eyeball model generation unit that generates a difference angle eyeball model indicating a difference angle of the line of sight with respect to the spherical eyeball model, the line of sight error correction unit refers to the difference angle eyeball model, and A difference angle eyeball model line-of-sight error correcting means is provided for correcting a line-of-sight error by rotating the line of sight measured by the pupil-corneal reflection method around the origin by a difference angle.
According to such a configuration, the line-of-sight error correction apparatus can generate a difference angle eyeball model by simple coordinate conversion.

また、本願第3発明に係る視線誤差補正装置は、非球面眼球モデル生成手段が、瞳孔−角膜反射法で測定された視線を測定するための撮影カメラの位置lと、眼球の回転角度θと、角膜表面上でプルキニエ像の位置u’θと、瞳孔中心の位置(xθ,yθ,zθ)と、撮影カメラの位置lを基点に歪ベクトルが示す撮影カメラの仮想位置l’とし、瞳孔中心を原点とした瞳孔中心極座標系において、以下の(3)式で法線ベクトルnθが定義された法線ベクトル眼球モデルを非球面眼球モデルとして生成する法線ベクトル眼球モデル生成手段、を備え、視線誤差補正手段が、法線ベクトル眼球モデルを参照して、プルキニエ像の位置にある法線ベクトルが撮影カメラを向く回転角を算出し、算出した回転角だけ法線ベクトル眼球モデルを回転させ、回転後の法線ベクトル眼球モデルにおいて、角膜曲率中心から瞳孔中心を向くベクトルを、誤差が補正された前記視線として出力する法線ベクトル眼球モデル視線誤差補正手段、を備えることを特徴とする。 Further, the gaze error correction device according to the third invention of the present application is such that the aspherical eyeball model generation means has a photographing camera position l for measuring the gaze measured by the pupil-corneal reflection method, and the rotation angle θ of the eyeball. The position of the Purkinje image u ′ θ on the cornea surface, the position of the pupil center (x θ , y θ , z θ ), and the virtual position l ′ of the photographing camera indicated by the distortion vector based on the position l of the photographing camera in pupil center polar coordinate system with the origin of the pupil center, the following (3) normal vectors eyeball model generating unit normal vector n theta generates normal vector eyeball model defined as a non-spherical eye model equation, The line-of-sight error correction means refers to the normal vector eyeball model, calculates a rotation angle at which the normal vector at the position of the Purkinje image faces the photographing camera, and calculates the normal vector eyeball model by the calculated rotation angle. Rotated The normal vector eyeball model after rotation includes a normal vector eyeball model line-of-sight error correction means for outputting a vector directed from the corneal curvature center to the pupil center as the line of sight in which the error is corrected. .

ここで、瞳孔−角膜反射法は、瞳孔中心を基準として視線を測定する。また、法線ベクトル眼球モデルは、瞳孔中心を基準(原点)とした瞳孔中心極座標系である。このように、視線誤差補正装置は、瞳孔−角膜反射法と法線ベクトル眼球モデルとの基準位置を同一にできるため、視線測定時に頭部が動いた場合でも、視線の誤差を補正することができる。   Here, the pupil-corneal reflection method measures the line of sight with reference to the center of the pupil. The normal vector eyeball model is a pupil center polar coordinate system with the pupil center as a reference (origin). In this way, the gaze error correction device can make the reference positions of the pupil-corneal reflection method and the normal vector eyeball model the same, and therefore can correct gaze errors even when the head moves during gaze measurement. it can.

また、本願第4発明に係る視線誤差補正装置は、歪ベクトル算出手段で算出された歪ベクトルを、画像座標系で予め設定されたサイズの領域に対応付けることで、ルックアップテーブルを生成するルックアップテーブル生成手段、を備え、非球面眼球モデル生成手段が、ルックアップテーブル生成手段が生成したルックアップテーブルを参照して、非球面眼球モデルを生成することを特徴とする。
かかる構成によれば、視線誤差補正装置は、ルックアップテーブルを参照することで、補間計算を都度行う必要がなくなる。
The line-of-sight error correction apparatus according to the fourth invention of the present application generates a lookup table by associating the distortion vector calculated by the distortion vector calculation means with a region having a size set in advance in the image coordinate system. A table generation means, wherein the aspheric eyeball model generation means generates an aspheric eyeball model with reference to the lookup table generated by the lookup table generation means.
According to such a configuration, the line-of-sight error correction device does not need to perform interpolation calculation each time by referring to the lookup table.

また、本願第5発明に係る視線誤差補正プログラムは、球面眼球モデルによる瞳孔−角膜反射法で測定された視線の誤差を補正するために、一般的なコンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、表示制御手段、誤差情報入力手段、歪ベクトル算出手段、非球面眼球モデル生成手段、視線誤差補正手段、として機能させることを特徴とする。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   The line-of-sight error correction program according to the fifth invention of the present application is a hardware such as a CPU, memory, and hard disk provided in a general computer in order to correct the line-of-sight error measured by the pupil-corneal reflection method using a spherical eyeball model. The hardware resource functions as display control means, error information input means, distortion vector calculation means, aspheric eyeball model generation means, and line-of-sight error correction means. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

また、本願第6発明に係る視線誤差補正方法は、球面眼球モデルによる瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正装置の視線誤差補正方法であって、マーカ表示ステップと、マーカ視線入力ステップと、マーカ視線表示ステップと、誤差情報入力ステップと、歪ベクトル算出ステップと、非球面眼球モデル生成ステップと、視線誤差補正ステップと、を順に実行することを特徴とする。   A line-of-sight error correction method according to the sixth invention of the present application is a line-of-sight error correction method for a line-of-sight error correction apparatus that corrects a line-of-sight error measured by a pupil-corneal reflection method using a spherical eyeball model. A marker line-of-sight input step, a marker line-of-sight display step, an error information input step, a distortion vector calculation step, an aspheric eyeball model generation step, and a line-of-sight error correction step.

本発明によれば、以下のような優れた効果を奏する。
本願第1,5,6発明によれば、座標変換後に生成された非球面眼球モデルにより、瞳孔−角膜反射法で測定された視線の誤差を補正するため、個人キャリブレーションを繰り返し行う必要がなく、作業負担を少なくすることができる。さらに、本願第1,5,6発明によれば、非球面眼球モデルを用いて、球面眼球モデルの球面性と角膜形状の非球面性との相違に起因する誤差も補正できるため、視線の誤差を小さく抑えることができる
According to the present invention, the following excellent effects can be obtained.
According to the first, fifth, and sixth inventions of the present application, it is not necessary to repeatedly perform personal calibration in order to correct the error of the line of sight measured by the pupil-corneal reflection method using the aspheric eyeball model generated after the coordinate conversion. , Work load can be reduced. Furthermore, according to the first, fifth, and sixth inventions of the present application, since an aspheric eyeball model can be used to correct errors caused by the difference between the sphericality of the spherical eyeball model and the asphericity of the corneal shape, Can be kept small

本願第2発明によれば、簡易な座標変換で差分角度眼球モデルを生成することができる。
本願第3発明によれば、瞳孔−角膜反射法と法線ベクトル眼球モデルとの基準位置が同一のため、視線測定時に頭部が動いた場合でも、視線の誤差を補正することができる。
本願第4発明によれば、ルックアップテーブルを参照することで、補間計算を都度行う必要がなくなり、演算処理の高速化を図ることができる。
According to the second invention of the present application, a difference angle eyeball model can be generated by simple coordinate conversion.
According to the third invention of the present application, since the reference positions of the pupil-corneal reflection method and the normal vector eyeball model are the same, even when the head moves during the gaze measurement, the gaze error can be corrected.
According to the fourth invention of the present application, by referring to the lookup table, it is not necessary to perform the interpolation calculation each time, and the calculation process can be speeded up.

本発明の実施形態に係る視線誤差補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze error correction apparatus which concerns on embodiment of this invention. 図1の視線誤差補正装置において、マーカ及びポインタの表示を説明する図である。It is a figure explaining the display of a marker and a pointer in the gaze error correction device of FIG. 図1の視線誤差補正装置において、誤差情報の入力を説明する図である。FIG. 3 is a diagram for explaining error information input in the line-of-sight error correction apparatus of FIG. 1. 図1の視線誤差補正装置において歪み平面の生成を説明する図であり、(a)は平面を歪ませる前を示し、(b)平面を歪ませた後を示す。FIGS. 2A and 2B are diagrams for explaining generation of a distortion plane in the line-of-sight error correction apparatus of FIG. 1, in which FIG. 1A shows before the plane is distorted, and FIG. 図1の視線誤差補正装置において、極座標系への座標変換を説明する図である。It is a figure explaining the coordinate conversion to a polar coordinate system in the gaze error correction device of FIG. 図1の視線誤差補正装置において、差分角度眼球モデルの生成を説明する図である。FIG. 2 is a diagram for explaining generation of a differential angle eyeball model in the gaze error correction device of FIG. 1. 図1の視線誤差補正装置において、差分角度眼球モデルによる補正を説明する図である。FIG. 3 is a diagram for explaining correction by a differential angle eyeball model in the gaze error correction device of FIG. 1. 図1の視線誤差補正装置において、法線ベクトル眼球モデルの生成を説明する第1図である。FIG. 2 is a first diagram illustrating generation of a normal vector eyeball model in the gaze error correction device of FIG. 1. 図1の視線誤差補正装置において、法線ベクトル眼球モデルの生成を説明する第2図である。FIG. 3 is a second diagram illustrating generation of a normal vector eyeball model in the gaze error correction device of FIG. 1. 図1の視線誤差補正装置において、法線ベクトル眼球モデルの生成を説明する第3図である。FIG. 4 is a third diagram illustrating generation of a normal vector eyeball model in the gaze error correction device of FIG. 1. 図1の視線誤差補正装置において、法線ベクトル眼球モデルによる補正を説明する第1図である。FIG. 2 is a first diagram illustrating correction by a normal vector eyeball model in the gaze error correction apparatus of FIG. 1. 図1の視線誤差補正装置において、法線ベクトル眼球モデルによる補正を説明する第2図である。FIG. 5 is a second diagram illustrating correction by a normal vector eyeball model in the gaze error correction apparatus of FIG. 1. 図1の視線誤差補正装置において、法線ベクトル眼球モデルによる補正を説明する第3図である。FIG. 4 is a third diagram for explaining correction by a normal vector eyeball model in the gaze error correction apparatus of FIG. 1. 図1の視線誤差補正装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the gaze error correction apparatus of FIG. 本発明の変形例に係る視線誤差補正装置の構成を示すブロック図である。It is a block diagram which shows the structure of the gaze error correction apparatus which concerns on the modification of this invention. 従来の視線測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional gaze measuring apparatus. 従来の瞳孔−角膜反射法を説明する図であり、(a)は撮影カメラ及び赤外線光源の配置を示し、(b)は瞳孔中心及びプルキニエ像の位置関係を示す。It is a figure explaining the conventional pupil-corneal reflection method, (a) shows arrangement | positioning of an imaging camera and an infrared light source, (b) shows the positional relationship of a pupil center and a Purkinje image. 従来の瞳孔−角膜反射法において、視線ベクトルの算出を説明する図である。It is a figure explaining calculation of a look vector in the conventional pupil-corneal reflection method. 従来の個人キャリブレーションを説明する図である。It is a figure explaining the conventional personal calibration. 従来の視線測定装置で用いられる球面眼球モデルを説明する図である。It is a figure explaining the spherical eyeball model used with the conventional gaze measuring device. 従来の視線測定装置における座標変換を説明する図である。It is a figure explaining the coordinate transformation in the conventional gaze measuring device. 眼球の構造を説明する図であり、(a)は眼球を撮影した眼球画像の一例であり、(b)は眼球の断面を示す。It is a figure explaining the structure of an eyeball, (a) is an example of the eyeball image which image | photographed the eyeball, (b) shows the cross section of an eyeball.

(実施形態)
[視線測定・誤差補正装置の構成]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、同一の機能を有する手段には同一の符号を付し、説明を省略した。
図1を参照して、本発明の実施形態に係る視線測定・誤差補正装置1の構成について、説明する。
図1に示すように、視線測定・誤差補正装置1は、球面眼球モデルによる瞳孔−角膜反射法で視線を測定すると共に、測定した視線の誤差を補正するものであり、視線測定装置10Aと、視線誤差補正装置20とを備える。
(Embodiment)
[Configuration of eye gaze measurement and error correction device]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In addition, the same code | symbol was attached | subjected to the means which has the same function, and description was abbreviate | omitted.
With reference to FIG. 1, the configuration of a line-of-sight measurement / error correction apparatus 1 according to an embodiment of the present invention will be described.
As shown in FIG. 1, the line-of-sight measurement / error correction apparatus 1 measures a line of sight by a pupil-corneal reflection method using a spherical eyeball model, and corrects an error of the measured line of sight. And a line-of-sight error correction device 20.

視線測定装置10Aは、瞳孔−角膜反射法でユーザ(不図示)の視線(視線ベクトル)を測定するものであり、瞳孔・プルキニエ像検出手段11と、視線ベクトル・基準点算出手段12と、視線座標変換・出力手段14とを備える。   The line-of-sight measurement device 10A measures a line of sight (line-of-sight vector) of a user (not shown) by a pupil-corneal reflection method, and includes a pupil / Purkinje image detection unit 11, a line-of-sight vector / reference point calculation unit 12, a line of sight Coordinate conversion / output means 14.

ここで、視線誤差補正装置20で非球面眼球モデルを生成するとき(以後、「モデル生成」)、視線測定装置10Aは、ユーザがマーカMk(図2)を注視しているときの視線(マーカ視線)を測定する。そして、視線測定装置10Aは、このマーカ視線を画像座標系に座標変換して、マーカ視線入力手段21aに出力する。   Here, when an aspheric eyeball model is generated by the line-of-sight error correction apparatus 20 (hereinafter referred to as “model generation”), the line-of-sight measurement apparatus 10A uses the line of sight (marker) when the user is gazing at the marker Mk (FIG. 2). Gaze) is measured. Then, the line-of-sight measurement device 10A converts the marker line of sight into the image coordinate system, and outputs it to the marker line-of-sight input means 21a.

一方、非球面眼球モデルを用いて視線誤差補正装置20で視線の誤差を補正するとき(以後、「視線誤差補正」)、視線測定装置10Aは、ユーザが任意のオブジェクト(例えば、表示画面内のアイコン)を注視しているときの視線を測定する。そして、視線測定装置10Aは、後記する極座標系に視線を座標変換して、視線誤差補正手段24に出力する。   On the other hand, when correcting the line-of-sight error by the line-of-sight error correction apparatus 20 using the aspheric eyeball model (hereinafter referred to as “line-of-sight error correction”), the line-of-sight measurement apparatus 10A allows the user to select an arbitrary object (for example, in the display screen). Measure the line of sight while gazing at the icon. Then, the line-of-sight measurement device 10 </ b> A performs coordinate conversion of the line of sight to a polar coordinate system to be described later, and outputs it to the line-of-sight error correction means 24.

なお、視線測定・誤差補正装置1は、モデル生成又は視線誤差補正の何れの動作を行うか、ユーザが手動で切り替えることができる。
また、視線測定装置10Aは、図16の個人キャリブレーション手段13を備えない以外、図16の視線測定装置10と同様のため、詳細な説明を省略する。
The line-of-sight measurement / error correction apparatus 1 can be manually switched by the user to perform either model generation or line-of-sight error correction.
The line-of-sight measurement apparatus 10A is the same as the line-of-sight measurement apparatus 10 of FIG. 16 except that it does not include the personal calibration unit 13 of FIG.

[視線誤差補正装置の構成]
視線誤差補正装置20は、視線測定装置10Aで測定された視線の誤差を補正するものであり、入出力制御手段21と、歪ベクトル算出手段22と、非球面眼球モデル生成手段23と、視線誤差補正手段24とを備える。
この入出力制御手段21、歪ベクトル算出手段22及び非球面眼球モデル生成手段23は、モデル生成に用いる手段である。一方、視線誤差補正手段24は、視線誤差補正に用いる手段である。
[Configuration of eye gaze error correction device]
The line-of-sight error correction apparatus 20 corrects the line-of-sight error measured by the line-of-sight measurement apparatus 10A. The line-of-sight error correction apparatus 20 corrects the line-of-sight error, input / output control means 21, distortion vector calculation means 22, aspheric eyeball model generation means 23, and line-of-sight error. And correction means 24.
The input / output control unit 21, the strain vector calculation unit 22, and the aspheric eyeball model generation unit 23 are units used for model generation. On the other hand, the line-of-sight error correction unit 24 is a unit used for line-of-sight error correction.

入出力制御手段21は、モデル生成時、マーカ視線及び誤差情報の入力と、マーカ画像等の各画像の出力とを行うものであり、マーカ視線入力手段21aと、表示制御手段21bと、誤差情報入力手段21cとを備える。   The input / output control unit 21 inputs a marker line of sight and error information and outputs each image such as a marker image at the time of model generation. The marker line of sight input unit 21a, the display control unit 21b, and error information Input means 21c.

マーカ視線入力手段21aは、視線測定装置10Aからマーカ視線が入力され、入力されたマーカ視線を表示制御手段21bに出力するものである。
表示制御手段21bは、後記するマーカ画像と、マーカ視線入力手段21aから入力されたマーカ視線の位置を示すポインタPt(図2)とを、表示手段92に表示させるものである。
誤差情報入力手段21cは、外部(例えば、ユーザ)から、誤差情報が入力され、入力された誤差情報を、歪ベクトル算出手段22に出力するものである。
The marker line-of-sight input unit 21a receives a marker line of sight from the line-of-sight measurement device 10A and outputs the input marker line of sight to the display control unit 21b.
The display control unit 21b causes the display unit 92 to display a marker image to be described later and a pointer Pt (FIG. 2) indicating the position of the marker line of sight input from the marker line-of-sight input unit 21a.
The error information input means 21 c is for inputting error information from the outside (for example, a user) and outputting the input error information to the distortion vector calculation means 22.

<マーカ及びポインタの表示、誤差情報の入力>
図2,図3を参照して、マーカ及びポインタの表示と、誤差情報の入力とについて、詳細に説明する(適宜図1参照)。
図2に示すように、モデル生成時、表示制御手段21bは、マーカ画像94を表示手段92に表示させる。このマーカ画像94は、所定位置にマーカMkが配置された画像である。図2の例では、マーカ画像94は、9個のマーカMk〜Mkがマトリクス状に配置されている。また、マーカ画像94は、後記する歪み平面を生成する都合上、表示手段92の表示画面と同じサイズ又はより小さなサイズとする。
<Display of marker and pointer, input of error information>
With reference to FIGS. 2 and 3, the display of markers and pointers and the input of error information will be described in detail (see FIG. 1 as appropriate).
As shown in FIG. 2, at the time of model generation, the display control unit 21 b displays the marker image 94 on the display unit 92. The marker image 94 is an image in which a marker Mk is arranged at a predetermined position. In the example of FIG. 2, the marker image 94 has nine markers Mk 1 to Mk 9 arranged in a matrix. The marker image 94 has the same size as the display screen of the display unit 92 or a smaller size for the purpose of generating a distortion plane described later.

ここで、ユーザは、表示手段92に表示されたマーカ画像94のマーカMkの何れかを注視する。すると、マーカ視線入力手段21aは、視線測定装置10Aから、マーカMkに対する視線であるマーカ視線が入力され、入力されたマーカ視線を表示制御手段21bに出力する。そして、表示制御手段21bは、このマーカ視線の位置を示すポインタPtを表示手段92に表示させる。図2の例では、マーカMkに対するポインタPtが、表示手段92に表示されている。 Here, the user gazes at any of the markers Mk of the marker image 94 displayed on the display unit 92. Then, the marker line-of-sight input unit 21a receives a marker line of sight that is a line of sight with respect to the marker Mk from the line-of-sight measurement device 10A, and outputs the input marker line of sight to the display control unit 21b. Then, the display control unit 21b causes the display unit 92 to display a pointer Pt indicating the position of the marker line of sight. In the example of FIG. 2, the pointer Pt for the marker Mk 5 is displayed on the display means 92.

さらに、ユーザは、表示手段92に表示されたマーカMkとポインタPtとの位置ずれを確認し、図示を省略したマウスを操作して、この位置ずれ(誤差情報)を誤差情報入力手段21cに入力する。図3の例では、ユーザがマーカMkを注視したときのポインタPtは、マーカMkの左下に位置している。従って、ユーザは、ポインタPtの中心がマーカMkに一致するように、ポインタPtをマウスでドラッグする。つまり、ポインタPtは、ユーザの操作により、ポインタPt’の位置に移動する。この例では、誤差情報は、マーカMkに対するポインタPtの位置ずれを示しており、マーカMkとポインタPtとポインタPt’との座標情報で表すことができる。 Further, the user confirms the positional deviation between the marker Mk and the pointer Pt displayed on the display unit 92, operates the mouse (not shown), and inputs this positional deviation (error information) to the error information input unit 21c. To do. In the example of FIG. 3, the pointer Pt when the user gazes the marker Mk 5 is located at the lower left of the marker Mk 5. Thus, the user, the center of the pointer Pt is to match the marker Mk 5, drag the pointer Pt in mice. That is, the pointer Pt moves to the position of the pointer Pt ′ by the user's operation. In this example, the error information indicates a positional deviation of the pointer Pt with respect to the marker Mk 5 and can be represented by coordinate information of the marker Mk, the pointer Pt, and the pointer Pt ′.

なお、表示制御手段21bは、視線誤差補正時、ポインタPtを表示手段92にリアルタイムに表示させる。さらに、表示制御手段21bは、視線誤差補正後であっても、誤差の補正が正確に行われたか否かを確認するため、ポインタPtを表示手段92に表示させてもよい。
また、ユーザは、マーカMkと同様、全てのマーカMkを注視して、全てのマーカMkに対する誤差情報を入力する。
The display control unit 21b displays the pointer Pt on the display unit 92 in real time when the line-of-sight error is corrected. Further, the display control unit 21b may display the pointer Pt on the display unit 92 in order to confirm whether or not the error correction has been accurately performed even after the line-of-sight error correction.
Further, the user gazes at all the markers Mk as in the case of the marker Mk 5 and inputs error information for all the markers Mk.

<歪ベクトルの算出>
以下、図4を参照して、図1の歪ベクトル算出手段22について、詳細に説明する(適宜図1参照)。
歪ベクトル算出手段22は、モデル生成時、誤差情報入力手段21cから入力された誤差情報に基づいて、マーカ画像94と同一サイズでポインタPtの位置を示した平面画像95から、ポインタPtをマーカMkに一致させた歪み平面95’を生成して、歪ベクトルを算出するものである。
<Calculation of distortion vector>
Hereinafter, the distortion vector calculation means 22 of FIG. 1 will be described in detail with reference to FIG. 4 (see FIG. 1 as appropriate).
At the time of model generation, the distortion vector calculation unit 22 uses the error information input from the error information input unit 21c, the pointer Pt to the marker Mk from the planar image 95 showing the position of the pointer Pt with the same size as the marker image 94. A distortion plane 95 ′ matched with the above is generated, and a distortion vector is calculated.

最初に、歪ベクトル算出手段22による歪み平面95’の生成を詳細に説明する。
歪ベクトル算出手段22は、図4(a)に示すように、誤差情報のポインタPtの座標情報により、平面画像95を生成する。図4(a)の例では、平面画像95は、図2及び図3のマーカ画像94と同一サイズであり、9個のマーカMkのそれぞれに対して、ポインタPtの位置を示している。また、図4(a)では、説明をわかりやすくするため、マーカ画像94と平面画像95とを重ねて図示した。
First, the generation of the distortion plane 95 ′ by the distortion vector calculation means 22 will be described in detail.
As shown in FIG. 4A, the distortion vector calculation means 22 generates a flat image 95 based on the coordinate information of the error information pointer Pt. In the example of FIG. 4A, the planar image 95 is the same size as the marker image 94 of FIGS. 2 and 3, and indicates the position of the pointer Pt for each of the nine markers Mk. Further, in FIG. 4A, the marker image 94 and the planar image 95 are shown in an overlapping manner for easy understanding.

次に、歪ベクトル算出手段22は、図4(b)に示すように、誤差情報のマーカMk及びポインタPtの座標情報により、9個のポインタPtがそれぞれに対応するマーカMkに一致するように平面画像95を歪ませて、歪み平面95’を生成する。この歪み平面95’は、複数の曲線で構成される曲面として表すことができる。例えば、歪ベクトル算出手段22は、ベジエ曲線又はBスプライン曲線で構成される曲面によって歪み平面95’を生成する。また、歪ベクトル算出手段22は、NURBS(Non-Uniform Rational B-Spline)曲面、UV(曲面上のXY座標)平面を歪ませた曲面、又は、多角形(ポリゴン)を用いた擬似曲線によって、歪み平面95’を生成してもよい。   Next, as shown in FIG. 4B, the distortion vector calculation means 22 uses the error information marker Mk and the coordinate information of the pointer Pt so that the nine pointers Pt coincide with the corresponding markers Mk. The plane image 95 is distorted to generate a distorted plane 95 ′. This distortion plane 95 'can be represented as a curved surface composed of a plurality of curves. For example, the distortion vector calculation means 22 generates the distortion plane 95 'by a curved surface constituted by a Bezier curve or a B-spline curve. Further, the strain vector calculation means 22 is a NURBS (Non-Uniform Rational B-Spline) curved surface, a curved surface obtained by distorting a UV (XY coordinate on the curved surface) plane, or a pseudo curve using a polygon (polygon). A strain plane 95 ′ may be generated.

本実施形態では、歪ベクトル算出手段22は、NURBS曲面によって、歪み平面95’を生成することとする。また、歪ベクトル算出手段22は、表示制御手段21bを介して、生成した歪み平面95’を表示手段92に表示させてもよい。さらに、歪ベクトル算出手段22は、表示手段92に表示された歪み平面95’を、各ユーザが変形可能としてもよい。
なお、マーカMkは表示画面に対して固定される。一方、ポインタPtは、歪み平面95’にテクスチャマッピングして表示されるため、図4(b)のように歪んでしまう。
In the present embodiment, the distortion vector calculation means 22 generates a distortion plane 95 ′ by a NURBS curved surface. Further, the strain vector calculation unit 22 may display the generated strain plane 95 ′ on the display unit 92 via the display control unit 21b. Further, the strain vector calculation unit 22 may allow each user to deform the strain plane 95 ′ displayed on the display unit 92.
The marker Mk is fixed with respect to the display screen. On the other hand, the pointer Pt is distorted as shown in FIG. 4B because it is displayed by texture mapping on the distortion plane 95 ′.

このNURBS曲面は、複数のコントロールポイント(CVコントロールポイント)を持つ曲面である。このコントロールポイントは、表示画面内で任意位置に配置できる。また、NURBS曲面は、次数の値によって、何次の方程式で曲面を表すかが決まる。   This NURBS curved surface is a curved surface having a plurality of control points (CV control points). This control point can be arranged at an arbitrary position in the display screen. In addition, the NURBS curved surface is determined by what order equation the curved surface is represented by the value of the degree.

また、NURBS曲面において、それぞれのマーカMkは、1個〜4個のコントロールポイントにリンクされている。このコントロールポイントは、ポインタPtと一定距離よりも近いマーカMkにリンクされたものが、コントロール権を有する。このコントロール権は、ユーザによりコントロール(移動)可能なコントロールポイントだけに付加される。つまり、ユーザがコントロールできるのは、1個のマーカMkにリンクされたコントロールポイントだけである。そして、コントロール権を有するコントロールポイントは、ドラックアンドドロップ操作によって、歪み平面95’上を移動させることができる。このコントロールポイントの移動に応じて、NURBS曲面が変形する。さらに、コントロール権は、ドラッグ操作中のコントロールポイントから、他のコントロールポイントに付加されないこととする。さらに、コントロールポイントの数を増やせば、表示画面の周辺部に位置するポインタPtを移動させたとき、他のポインタPtがマーカMkに一致しなくなる事態を解消できる。
なお、NURBS曲面は、例えば、参考文献“「Maya教科書1−モデリング&質感設定の基礎」、川上、2009”に詳細に記載されている。
In the NURBS curved surface, each marker Mk is linked to 1 to 4 control points. The control point linked to the marker Mk closer than the fixed distance from the pointer Pt has the control right. This control right is added only to control points that can be controlled (moved) by the user. That is, the user can control only the control points linked to one marker Mk. The control point having the control right can be moved on the distortion plane 95 ′ by a drag-and-drop operation. The NURBS curved surface is deformed in accordance with the movement of the control point. Further, it is assumed that the control right is not added to other control points from the control point being dragged. Furthermore, if the number of control points is increased, when the pointer Pt located at the periphery of the display screen is moved, the situation where the other pointers Pt do not coincide with the marker Mk can be solved.
The NURBS curved surface is described in detail, for example, in a reference document ““ Maya Textbook 1—Basics of Modeling & Texture Setting ”, Kawakami, 2009”.

次に、歪ベクトル算出手段22による歪ベクトルの算出を詳細に説明する。
歪ベクトル算出手段22は、画像座標系で歪み平面95’の歪みを示す歪ベクトルを算出する。ここで、歪ベクトル算出手段22は、平面画像95と歪み平面95’との間で、対応する点(画素)である対応点の位置ずれを求める。そして、歪ベクトル算出手段22は、画像座標系において、対応点の位置ずれ量及び位置ずれ方向を示すベクトルを、歪ベクトルとして算出する。
Next, the calculation of the distortion vector by the distortion vector calculation means 22 will be described in detail.
The distortion vector calculation means 22 calculates a distortion vector indicating the distortion of the distortion plane 95 ′ in the image coordinate system. Here, the distortion vector calculation means 22 obtains the positional deviation of the corresponding point, which is the corresponding point (pixel), between the plane image 95 and the distortion plane 95 ′. And the distortion vector calculation means 22 calculates the vector which shows the positional offset amount and positional offset direction of a corresponding point as a distortion vector in an image coordinate system.

このとき、歪ベクトル算出手段22は、全ての対応点から歪ベクトルを算出する、マーカMkの位置にある対応点から歪ベクトルを算出するというように、任意の対応点から歪ベクトルを算出すればよい。本実施形態では、マーカMkの位置にある対応点から歪ベクトルを算出することとする。その後、歪ベクトル算出手段22は、算出した歪ベクトルを非球面眼球モデル生成手段23に出力する。   At this time, if the distortion vector calculation means 22 calculates a distortion vector from arbitrary corresponding points, such as calculating a distortion vector from all corresponding points, or calculating a distortion vector from corresponding points at the position of the marker Mk. Good. In the present embodiment, the distortion vector is calculated from the corresponding point at the position of the marker Mk. Thereafter, the strain vector calculation unit 22 outputs the calculated strain vector to the aspheric eyeball model generation unit 23.

図1に戻り、視線誤差補正装置20の構成について、説明を続ける。
非球面眼球モデル生成手段23は、モデル生成時、歪ベクトル算出手段22から入力された歪ベクトルに基づいて、各ユーザに対応した非球面眼球モデルを生成するものである。
この非球面眼球モデルは、非球面な角膜形状を示した眼球モデルであり、差分角度眼球モデル及び法線ベクトル眼球モデルの2種類がある。従って、非球面眼球モデル生成手段23は、それぞれの非球面眼球モデルを生成するために、差分角度眼球モデル生成手段23aと、法線ベクトル眼球モデル生成手段23bとを備える。
なお、差分角度眼球モデル生成手段23a及び法線ベクトル眼球モデル生成手段23bの詳細は、後記する。
Returning to FIG. 1, the description of the configuration of the line-of-sight error correction device 20 will be continued.
The aspheric eyeball model generation unit 23 generates an aspheric eyeball model corresponding to each user based on the strain vector input from the strain vector calculation unit 22 during model generation.
This aspheric eyeball model is an eyeball model showing an aspherical corneal shape, and there are two types, a differential angle eyeball model and a normal vector eyeball model. Therefore, the aspheric eyeball model generation means 23 includes a difference angle eyeball model generation means 23a and a normal vector eyeball model generation means 23b in order to generate each aspheric eyeball model.
Details of the difference angle eyeball model generation unit 23a and the normal vector eyeball model generation unit 23b will be described later.

視線誤差補正手段24は、視線誤差補正時、非球面眼球モデル生成手段23で生成された非球面眼球モデルに基づく回転により、視線の誤差を補正するものである。
また、視線誤差補正手段24は、2種類の非球面眼球モデルで視線の補正方法が異なるために、差分角度眼球モデル視線誤差補正手段24aと、法線ベクトル眼球モデル視線誤差補正手段24bとを備える。
The line-of-sight error correction means 24 corrects the line-of-sight error by rotation based on the aspheric eyeball model generated by the aspheric eyeball model generation means 23 at the time of line-of-sight error correction.
The line-of-sight error correction unit 24 includes a difference angle eyeball model line-of-sight error correction unit 24a and a normal vector eyeball model line-of-sight error correction unit 24b because the line-of-sight correction method differs between the two types of aspheric eyeball models. .

まず、非球面眼球モデルの前提となる極座標系への座標変換を説明した後、差分角度眼球モデルの生成と、差分角度眼球モデルによる補正と、法線ベクトル眼球モデルの生成と、法線ベクトル眼球モデルによる補正とを順に説明する。   First, after explaining the coordinate transformation to the polar coordinate system that is the premise of the aspheric eyeball model, the generation of the difference angle eyeball model, the correction by the difference angle eyeball model, the generation of the normal vector eyeball model, and the normal vector eyeball The correction by the model will be described in order.

<極座標系への座標変換>
以下、図5を参照して、極座標系への座標変換について、詳細に説明する。
差分角度眼球モデルは、眼球中心を原点とする眼球中心極座標系で表される。このため、視線誤差補正装置20は、眼球中心極座標系への座標変換を行う必要がある。
<Coordinate conversion to polar coordinate system>
Hereinafter, coordinate conversion to the polar coordinate system will be described in detail with reference to FIG.
The difference angle eyeball model is represented by an eyeball center polar coordinate system with the eyeball center as the origin. Therefore, the line-of-sight error correction device 20 needs to perform coordinate conversion to the eyeball central polar coordinate system.

図5に示すように、空間上で点α,点βの位置が既知であるとする。例えば、点αが撮影カメラ91の位置(光学主点)であり、世界座標系で(x’,y’)に位置する。また、点βが、眼球中心、つまり、眼球中心極座標系の原点(x,y)である。さらに、点α,点βの距離をz’とする。
なお、図5では、図面の重複を避けるため、2軸回りの回転を1枚の図面にまとめて図示した。
As shown in FIG. 5, it is assumed that the positions of the points α and β are known in the space. For example, the point α is the position (optical principal point) of the photographing camera 91 and is located at (x ′, y ′) in the world coordinate system. Further, the point β is the eyeball center, that is, the origin (x 0 , y 0 ) of the eyeball center polar coordinate system. Further, the distance between the points α and β is z ′.
In FIG. 5, the rotation about two axes is shown in a single drawing in order to avoid duplication of drawings.

このとき、例えば、点αを向いている眼球900が、目標物γを向くために必要なx軸回転角θ及びy軸回転角φは、以下の(2)式で定義される。この(2)式において、fi−wは、Tsaiのカメラキャリブレーションで得ることができる。つまり、空間上で点α,点βが既知であれば、(1)式及び(2)式を用いて、世界座標系と、カメラ座標系と、画像座標系と、眼球中心極座標系との間で、自在に座標変換を行うことができる。これと同様、点βを瞳孔中心とすれば、(1)式及び(2)式を瞳孔中心極座標系にも適用することができる。 At this time, for example, the x-axis rotation angle θ and the y-axis rotation angle φ necessary for the eyeball 900 facing the point α to face the target γ are defined by the following equation (2). In the equation (2), f i-w can be obtained by Tsai camera calibration. That is, if the points α and β are known in the space, using the equations (1) and (2), the world coordinate system, the camera coordinate system, the image coordinate system, and the eyeball central polar coordinate system Coordinate conversion can be performed freely between the two. Similarly, if the point β is the pupil center, the equations (1) and (2) can be applied to the pupil center polar coordinate system.

Figure 2013190942
Figure 2013190942

<差分角度眼球モデルの生成>
以下、図6を参照して、差分角度眼球モデル生成手段23aによる差分角度眼球モデルの生成について、詳細に説明する(適宜図1参照)。
図6に示すように、差分角度眼球モデル生成手段23aは、歪ベクトル算出手段22から入力された画像座標系の歪ベクトルを、眼球中心極座標系に座標変換することで、差分角度眼球モデル96を生成するものである。
<Generation of differential angle eyeball model>
Hereinafter, the generation of the difference angle eyeball model by the difference angle eyeball model generation unit 23a will be described in detail (refer to FIG. 1 as appropriate).
As shown in FIG. 6, the difference angle eyeball model generation unit 23 a converts the distortion vector of the image coordinate system input from the strain vector calculation unit 22 into the eyeball central polar coordinate system, thereby converting the difference angle eyeball model 96. Is to be generated.

ここで、差分角度眼球モデル生成手段23aは、マーカMk(図2)の位置にある歪ベクトルから差分角度眼球モデルを生成する。図6では、説明を簡易にするため、マーカMk(歪ベクトル)が5個であることとする。また、図6では、図面を見やすくするため、角膜901の一部について、差分角度眼球モデル96を図示した。   Here, the difference angle eyeball model generation unit 23a generates a difference angle eyeball model from the strain vector at the position of the marker Mk (FIG. 2). In FIG. 6, it is assumed that there are five markers Mk (distortion vectors) for the sake of simplicity. Further, in FIG. 6, the difference angle eyeball model 96 is illustrated for a part of the cornea 901 in order to make the drawing easy to see.

まず、差分角度眼球モデル生成手段23aは、球面眼球モデル910(図20)と同様、角膜表面の中心を極として、球面表面を領域に分割する。この領域のサイズは、予め任意に設定される。そして、差分角度眼球モデル96の精度は、領域のサイズに比例し、この領域が小さくなるほど向上する。   First, the difference angle eyeball model generation unit 23a divides the spherical surface into regions with the center of the corneal surface as a pole, similarly to the spherical eyeball model 910 (FIG. 20). The size of this area is arbitrarily set in advance. The accuracy of the differential angle eyeball model 96 is proportional to the size of the region, and improves as the region becomes smaller.

また、差分角度眼球モデル生成手段23aは、マーカMkの位置に対応する領域を求める。つまり、差分角度眼球モデル生成手段23aは、画像座標系で表されたマーカMkの座標を眼球中心極座標系に座標変換して、座標変換後のマーカMkが含まれる領域を5個求める。そして、差分角度眼球モデル生成手段23aは、この5個の領域に対して、後記する差分角度ベクトルを対応付けるマッピングを行う。   Further, the difference angle eyeball model generation unit 23a obtains an area corresponding to the position of the marker Mk. That is, the difference angle eyeball model generation unit 23a performs coordinate conversion of the coordinates of the marker Mk represented in the image coordinate system into the eyeball central polar coordinate system, and obtains five regions including the marker Mk after coordinate conversion. Then, the difference angle eyeball model generation unit 23a performs mapping for associating the difference angle vector described later to these five regions.

また、差分角度眼球モデル生成手段23aは、マーカMkの位置にある歪ベクトルを眼球中心極座標系に座標変換して差分角度ベクトル96aを求める。つまり、差分角度眼球モデル生成手段23aは、5個の歪ベクトルの先端及び終端を、画像座標系から眼球中心極座標系へ座標変換する。そして、差分角度眼球モデル生成手段23aは、座標変換後の先端位置と終端位置とを結ぶベクトルを、眼球中心極座標系での差分角度ベクトル96aとして求める。さらに、差分角度眼球モデル生成手段23aは、図6に示すように、5個の領域に対して、5個の差分角度ベクトル96aを対応付けるマッピングを行う。   Further, the difference angle eyeball model generation means 23a obtains the difference angle vector 96a by converting the distortion vector at the position of the marker Mk into the eyeball central polar coordinate system. That is, the difference angle eyeball model generation unit 23a performs coordinate conversion from the image coordinate system to the eyeball central polar coordinate system for the five distortion vectors. Then, the difference angle eyeball model generation unit 23a obtains a vector connecting the tip position and the end position after coordinate conversion as a difference angle vector 96a in the eyeball central polar coordinate system. Further, as shown in FIG. 6, the difference angle eyeball model generation unit 23a performs mapping that associates the five difference angle vectors 96a with the five regions.

その後、差分角度眼球モデル生成手段23aは、差分角度ベクトル96aが存在しない空の領域について、線形補間等の補間手法により、差分角度ベクトル96aを補間する(不図示)。このようにして、差分角度眼球モデル生成手段23aは、全ての領域に差分角度ベクトル96aが対応付けられた差分角度眼球モデル96を生成する。   Thereafter, the difference angle eyeball model generation unit 23a interpolates the difference angle vector 96a by an interpolation method such as linear interpolation for an empty region where the difference angle vector 96a does not exist (not shown). In this way, the difference angle eyeball model generation unit 23a generates the difference angle eyeball model 96 in which the difference angle vector 96a is associated with all regions.

この差分角度ベクトル96aは、球面眼球モデル910(図20)に対する視線の差分角度(補正回転角度)を示したものである。
つまり、差分角度眼球モデル96は、球面眼球モデル910の球面性と、角膜901の非球面性との相違に起因した誤差を、領域ごとの差分角度ベクトル96aで示したものである。
The difference angle vector 96a indicates the difference angle (corrected rotation angle) of the line of sight with respect to the spherical eyeball model 910 (FIG. 20).
In other words, the difference angle eyeball model 96 represents an error caused by a difference between the sphericality of the spherical eyeball model 910 and the asphericity of the cornea 901 by a difference angle vector 96a for each region.

<差分角度眼球モデルによる補正>
以下、図7を参照して、差分角度眼球モデル視線誤差補正手段24aで行われる差分角度眼球モデルによる補正について、詳細に説明する(適宜図1参照)。
図7に示すように、差分角度眼球モデル視線誤差補正手段24aは、差分角度眼球モデル96(図6)を参照して、眼球中心極座標系の原点(眼球中心b)を中心として、瞳孔−角膜反射法で測定された視線を差分角度だけ回転させることで、視線の誤差を補正するものである。
<Correction by differential angle eyeball model>
Hereinafter, with reference to FIG. 7, the correction by the difference angle eyeball model performed by the difference angle eyeball model line-of-sight error correction unit 24a will be described in detail (see FIG. 1 as appropriate).
As shown in FIG. 7, the difference angle eyeball model line-of-sight error correction means 24a refers to the difference angle eyeball model 96 (FIG. 6), and the pupil-cornea with the origin (eyeball center b) of the eyeball center polar coordinate system as the center. The line-of-sight error is corrected by rotating the line-of-sight measured by the reflection method by the difference angle.

この図7では、説明を簡易にするため、2次元方向の差分角度(Δθ,Δφ)を1次元方向の差分角度Δφとして図示し、赤外線光源90及び撮影カメラ91が同一の位置であることとした。
また、図7では、平面画像95の点(画素)P、及び、歪み平面95’の点(画素)P’が、対応点(対応画素)であることとする。つまり、歪ベクトルがP−P’となる。
In FIG. 7, for ease of explanation, the difference angle (Δθ, Δφ) in the two-dimensional direction is illustrated as the difference angle Δφ in the one-dimensional direction, and the infrared light source 90 and the photographing camera 91 are at the same position. did.
In FIG. 7, the point (pixel) P of the planar image 95 and the point (pixel) P ′ of the distortion plane 95 ′ are corresponding points (corresponding pixels). That is, the distortion vector is PP ′.

ここで、差分角度眼球モデル視線誤差補正手段24aは、視線誤差補正時、ユーザが任意のオブジェクトを注視しているときの視線(視線ベクトル)が入力される。また、差分角度眼球モデル視線誤差補正手段24aは、座標変換の視線ベクトルvが、差分角度眼球モデル96で何れの領域(図6)に含まれるか求める。そして、差分角度眼球モデル視線誤差補正手段24aは、差分角度眼球モデル96から、視線ベクトルvが含まれる領域の差分角度Δφを取得する。   Here, the differential angle eyeball model line-of-sight error correction means 24a receives the line of sight (line-of-sight vector) when the user is gazing at an arbitrary object during line-of-sight error correction. Further, the difference angle eyeball model line-of-sight error correction means 24a obtains which region (FIG. 6) the line-of-sight vector v of coordinate transformation is included in the difference angle eyeball model 96. Then, the difference angle eyeball model line-of-sight error correction unit 24 a acquires the difference angle Δφ of the region including the line-of-sight vector v from the difference angle eyeball model 96.

そして、差分角度眼球モデル視線誤差補正手段24aは、眼球中心bを中心として、視線ベクトルvを差分角度Δφだけ回転させて、誤差を補正した視線ベクトルv’を求める。言い換えるなら、差分角度眼球モデル視線誤差補正手段24aは、角膜901を角膜901’まで回転させ、プルキニエ像の位置uで求めた視線ベクトルvを、プルキニエ像の位置u’で求めた視線ベクトルv’に補正する。つまり、図7では、角膜901の回転に伴い、赤外線光源90、撮影カメラ91及び角膜曲率中心cの位置が、赤外線光源90’、撮影カメラ91’及び角膜曲率中心c’の位置まで移動することになる。   Then, the difference angle eyeball model line-of-sight error correction unit 24a rotates the line-of-sight vector v by the difference angle Δφ around the eyeball center b to obtain a line-of-sight vector v ′ in which the error is corrected. In other words, the differential angle eyeball model line-of-sight error correction means 24a rotates the cornea 901 to the cornea 901 ′, and the line-of-sight vector v ′ obtained at the position u ′ of the Purkinje image is the line-of-sight vector v ′ obtained at the position u ′ of the Purkinje image. To correct. That is, in FIG. 7, as the cornea 901 rotates, the positions of the infrared light source 90, the photographing camera 91, and the corneal curvature center c move to the positions of the infrared light source 90 ′, the photographing camera 91 ′, and the corneal curvature center c ′. become.

その後、差分角度眼球モデル視線誤差補正手段24aは、誤差が補正された視線(視線ベクトルv’)を出力する。本実施形態では、差分角度眼球モデル視線誤差補正手段24aは、誤差が補正された視線(「補正後の視線」と図示)を表示制御手段21bに出力して、この視線を表示手段92に表示させる。
なお、差分角度眼球モデル視線誤差補正手段24aは、誤差が補正された視線の利用方法に応じて、様々な出力先に対して、任意の座標系で視線を出力できる。
Thereafter, the differential angle eyeball model line-of-sight error correction unit 24a outputs a line of sight (line-of-sight vector v ′) with the error corrected. In the present embodiment, the differential angle eyeball model line-of-sight error correction unit 24 a outputs the line of sight with the corrected error (shown as “corrected line of sight”) to the display control unit 21 b and displays the line of sight on the display unit 92. Let
The difference angle eyeball model line-of-sight error correction unit 24a can output the line of sight in an arbitrary coordinate system to various output destinations according to the method of using the line of sight in which the error is corrected.

<法線ベクトル眼球モデルの生成>
以下、図8〜図10を参照して、法線ベクトル眼球モデル生成手段23bによる法線ベクトル眼球モデルの生成について、説明する(適宜図1参照)。
図8に示すように、法線ベクトル眼球モデル生成手段23bは、瞳孔中心極座標系において、以下の(3)式で法線ベクトルnθが定義された法線ベクトル眼球モデル97(図9)を生成するものである。
<Generation of normal vector eyeball model>
Hereinafter, generation of a normal vector eyeball model by the normal vector eyeball model generation unit 23b will be described with reference to FIGS. 8 to 10 (see FIG. 1 as appropriate).
As shown in FIG. 8, the normal vectors eyeball model generating unit 23b, in the pupil center polar coordinate system, the following (3) normal normal vector n theta is defined by the formula vector eyeball model 97 (FIG. 9) Is to be generated.

Figure 2013190942
Figure 2013190942

この(3)式では、撮影カメラ91(図1)の位置lと、眼球の回転角度θと、角膜表面上でプルキニエ像の位置u’θと、瞳孔中心eの位置(xθ,yθ,zθ)と、仮想カメラの位置l’とである。また、(3)式では、‘|| ||’がノルムである。
また、撮影カメラ91の仮想位置l’は、角膜が理想的な球面の場合において、撮影カメラ91の位置lを基点に歪ベクトルが示す位置である。言い換えるなら、歪ベクトルは、撮影カメラ91の位置lから仮想位置l’までを結ぶベクトルである。
また、法線ベクトルnθは、プルキニエ像の位置u’θから撮影カメラ91の位置lまでを結ぶベクトルである。
In this equation (3), the position 1 of the photographing camera 91 (FIG. 1), the rotation angle θ of the eyeball, the position u ′ θ of the Purkinje image on the cornea surface, and the position of the pupil center e (x θ , y θ , Z θ ) and the virtual camera position l ′. In the expression (3), '|| ||' is a norm.
Further, the virtual position l ′ of the photographing camera 91 is a position indicated by a distortion vector with the position l of the photographing camera 91 as a base point when the cornea is an ideal spherical surface. In other words, the distortion vector is a vector connecting the position 1 of the photographing camera 91 to the virtual position l ′.
Further, the normal vector n theta, a vector connecting to the position l of the imaging camera 91 from the position u 'theta of Purkinje image.

なお、図8では、説明を簡易にするため、2次元方向の眼球の回転角度(θ,φ)を1次元方向の回転角度θとして図示した。ここで、眼球の回転角度θ及び、瞳孔中心eの位置(xθ,yθ,zθ)は、Tsaiのカメラキャリブレーションで予め求めておく。
また、図8では、瞳孔中心eを中心とし、瞳孔中心eからプルキニエ像の位置u’θまでの半径を有する円を図示した。このとき、法線ベクトルnθは、非球面な角膜形状に対し、球面眼球モデルに誤差があるため、プルキニエ像の位置u’θで球面表面の接線に対して垂直になっていない。言い換えるなら、法線ベクトルnθは、非球面な角膜の表面に対する法線を示す。
In FIG. 8, for ease of explanation, the rotation angle (θ, φ) of the eyeball in the two-dimensional direction is illustrated as the rotation angle θ in the one-dimensional direction. Here, the rotation angle θ of the eyeball and the position (x θ , y θ , z θ ) of the pupil center e are obtained in advance by Tsai camera calibration.
FIG. 8 shows a circle having a radius from the pupil center e to the position u ′ θ of the Purkinje image centered on the pupil center e. At this time, the normal vector n θ is not perpendicular to the tangent to the spherical surface at the position u ′ θ of the Purkinje image because there is an error in the spherical eyeball model with respect to the aspherical cornea shape. Other words, the normal vector n theta, indicating the normal to the surface of the aspheric cornea.

つまり、仮想カメラの位置l’で撮影されるべきプルキニエ像が、球面眼球モデルの球面性と、角膜形状の非球面性との相違に起因した誤差のために、撮影カメラ91(現実のカメラ)の位置lで撮影されることを意味する。この誤差を補正するには、位置u’θにおいて、図8に示すように、法線ベクトルnθを定義すればよい。 In other words, the Purkinje image to be photographed at the position l ′ of the virtual camera has a photographing camera 91 (real camera) due to an error caused by the difference between the sphericality of the spherical eyeball model and the asphericity of the corneal shape. That is, the image is taken at position l. In order to correct this error, a normal vector n θ may be defined at the position u ′ θ as shown in FIG.

図8に示すように、法線ベクトルnθ=l−u’θとなる。また、撮影カメラの位置lは、Tsaiのカメラキャリブレーションにより世界座標系での位置を求めて、瞳孔中心極座標系に座標変換する。従って、法線ベクトルnθを算出するために、プルキニエ像の位置u’θを求めればよい。また、プルキニエ像の位置u’θは、瞳孔中心極座標系において、仮想カメラの位置l’と、瞳孔中心eの位置(xθ,yθ,zθ)とを結ぶ直線上にある。また、プルキニエ像の位置u’θは、瞳孔中心eの位置(xθ,yθ,zθ)との距離は、一定であり、1とする。すると、プルキニエ像の位置u’θは、前記した(3)式で定義できる。 As shown in FIG. 8, the normal vector n θ = l−u ′ θ . Further, the position l of the photographing camera is obtained by obtaining the position in the world coordinate system by Tsai camera calibration, and coordinate-converted into the pupil center polar coordinate system. Accordingly, the position u ′ θ of the Purkinje image may be obtained in order to calculate the normal vector n θ . Further, the position u ′ θ of the Purkinje image is on a straight line connecting the position l ′ of the virtual camera and the position (x θ , y θ , z θ ) of the pupil center e in the pupil center polar coordinate system. Further, the position u ′ θ of the Purkinje image is set to 1 because the distance from the position (x θ , y θ , z θ ) of the pupil center e is constant. Then, the position u ′ θ of the Purkinje image can be defined by the above equation (3).

ここで、法線ベクトル眼球モデル生成手段23bは、図9に示すように、差分角度眼球モデル生成手段23aと同様、角膜表面の中心を極として、球面表面を各領域に分割する。そして、法線ベクトル眼球モデル生成手段23bは、眼球の回転角度θを変化させながら、法線ベクトルn(nθ)を求め、各領域に対応づけるマッピングを行う。図9の例では、法線ベクトル眼球モデル生成手段23bは、マーカMk(図2)の位置に対応する5個の領域について、5個の法線ベクトルnを求める。 Here, as shown in FIG. 9, the normal vector eyeball model generation unit 23b divides the spherical surface into regions, with the center of the cornea surface serving as a pole, like the difference angle eyeball model generation unit 23a. Then, the normal vector eyeball model generation unit 23b obtains the normal vector n (n θ ) while changing the rotation angle θ of the eyeball, and performs mapping corresponding to each region. In the example of FIG. 9, the normal vector eyeball model generation unit 23b obtains five normal vectors n for the five regions corresponding to the positions of the markers Mk (FIG. 2).

その後、法線ベクトル眼球モデル生成手段23bは、法線ベクトルnが存在しない空き領域について、線形補間等の補間手法により、法線ベクトルnを補間する(不図示)。このようにして、法線ベクトル眼球モデル生成手段23bは、全ての領域に法線ベクトルnが対応付けられた法線ベクトル眼球モデル97を生成する。   Thereafter, the normal vector eyeball model generation unit 23b interpolates the normal vector n by an interpolation method such as linear interpolation for an empty area where the normal vector n does not exist (not shown). In this way, the normal vector eyeball model generation unit 23b generates the normal vector eyeball model 97 in which the normal vector n is associated with all regions.

この法線ベクトルnは、領域ごとに角膜901の表面の法線を示したものである。
この法線ベクトル眼球モデル97は、角膜表面の光学的な反射特性の違いを角膜表面の形状(傾斜)の違いとして示したものである。つまり、法線ベクトル眼球モデル97は、各領域の傾斜が、角膜形状の非球面性を表わしている。
This normal vector n indicates the normal of the surface of the cornea 901 for each region.
The normal vector eyeball model 97 shows a difference in optical reflection characteristics on the corneal surface as a difference in shape (tilt) on the corneal surface. That is, in the normal vector eyeball model 97, the inclination of each region represents the corneal asphericity.

言い換えるなら、図10に示すように、法線ベクトル眼球モデル97は、眼球900を眼球900’まで回転させて、プルキニエ像の位置uで求めた視線ベクトルvを、プルキニエ像の位置u’で求めた視線ベクトルv’に補正する眼球モデルである。つまり、図10では、眼球900の回転に伴い、赤外線光源90、撮影カメラ91及び角膜曲率中心cの位置が、赤外線光源90’、撮影カメラ91’及び角膜曲率中心c’の位置まで移動することになる。   In other words, as shown in FIG. 10, the normal vector eyeball model 97 rotates the eyeball 900 to the eyeball 900 ′, and obtains the line-of-sight vector v obtained at the position of the Purkinje image u at the position u ′ of the Purkinje image. The eyeball model is corrected to the line-of-sight vector v ′. That is, in FIG. 10, as the eyeball 900 rotates, the positions of the infrared light source 90, the photographing camera 91, and the corneal curvature center c move to the positions of the infrared light source 90 ′, the photographing camera 91 ′, and the corneal curvature center c ′. become.

<法線ベクトル眼球モデルによる補正>
以下、図11〜図13を参照して、法線ベクトル眼球モデル視線誤差補正手段24bで行われる法線ベクトル眼球モデルによる補正について、詳細に説明する(適宜図1参照)。
<Correction by normal vector eyeball model>
Hereinafter, the normal vector eyeball model correction performed by the normal vector eyeball model line-of-sight error correction unit 24b will be described in detail with reference to FIGS. 11 to 13 (see FIG. 1 as appropriate).

法線ベクトル眼球モデル視線誤差補正手段24bは、法線ベクトル眼球モデル97を参照して、プルキニエ像の位置uにある法線ベクトルnが撮影カメラ91を向く回転角を算出し、算出した回転角だけ法線ベクトル眼球モデル97を回転させ、回転後の法線ベクトル眼球モデル97において、角膜曲率中心c’(図13)から瞳孔中心eを向くベクトルを、誤差が補正された視線ベクトルv’として出力するものである。   The normal vector eyeball model line-of-sight error correction means 24b refers to the normal vector eyeball model 97 to calculate the rotation angle at which the normal vector n at the position u of the Purkinje image faces the photographing camera 91, and the calculated rotation angle Only the normal vector eyeball model 97 is rotated, and in the rotated normal vector eyeball model 97, a vector directed from the corneal curvature center c ′ (FIG. 13) to the pupil center e is set as a line-of-sight vector v ′ in which the error is corrected. Output.

図11に示すように、法線ベクトル眼球モデル視線誤差補正手段24bは、視線誤差補正時、ユーザが任意のオブジェクトを注視しているときの視線(視線ベクトルv)が入力される。ここで、瞳孔中心e及び角膜曲率中心cは、瞳孔−角膜反射法において、瞳孔中心eとプルキニエ像の位置uとの位置関係から求められる。また、視線ベクトルvは、世界座標系において、角膜曲率中心cと瞳孔中心eとの差になる(v=e−c)。
なお、図11では、眼球中心bと、瞳孔中心極座標系(一点鎖線)とを図示した(図12,図13も同様)。
As shown in FIG. 11, the normal vector eyeball model line-of-sight error correction means 24b receives the line of sight (line-of-sight vector v) when the user is gazing at an arbitrary object during line-of-sight error correction. Here, the pupil center e and the corneal curvature center c are obtained from the positional relationship between the pupil center e and the position u of the Purkinje image in the pupil-corneal reflection method. The line-of-sight vector v is the difference between the corneal curvature center c and the pupil center e in the world coordinate system (v = ec).
In addition, in FIG. 11, the eyeball center b and the pupil center polar coordinate system (one-dot chain line) are illustrated (the same applies to FIGS. 12 and 13).

また、図12に示すように、プルキニエ像の位置uにある法線ベクトルnは、視線の誤差を補正する前、撮影カメラ91の方向を向いていない。従って、法線ベクトル眼球モデル視線誤差補正手段24bは、プルキニエ像の位置uにある法線ベクトルnが撮影カメラ91を向く回転角を算出する。   Further, as shown in FIG. 12, the normal vector n at the position u of the Purkinje image does not face the direction of the photographing camera 91 before correcting the line-of-sight error. Accordingly, the normal vector eyeball model line-of-sight error correction unit 24 b calculates the rotation angle at which the normal vector n at the position u of the Purkinje image faces the photographing camera 91.

そして、図13に示すように、法線ベクトル眼球モデル視線誤差補正手段24bは、算出した回転角だけ法線ベクトル眼球モデル97を回転させて、補正する前のプルキニエ像の位置uから見て、プルキニエ像の位置uにある法線ベクトルnが、撮影カメラ91を向くようにする。さらに、法線ベクトル眼球モデル視線誤差補正手段24bは、図13の法線ベクトル眼球モデル97において、角膜曲率中心c’から瞳孔中心eを向くベクトルを、誤差が補正された視線ベクトルv’として求める。このようにして、視線ベクトルvが視線ベクトルv’に補正される。
なお、図13では、眼球900を眼球900’まで回転させることで、角膜曲率中心cの位置が角膜曲率中心c’の位置まで移動することになる。
Then, as shown in FIG. 13, the normal vector eyeball model line-of-sight error correction means 24b rotates the normal vector eyeball model 97 by the calculated rotation angle and sees it from the position u of the Purkinje image before correction. The normal vector n at the position u of the Purkinje image is set to face the photographing camera 91. Further, the normal vector eyeball model line-of-sight error correction means 24b obtains a vector that faces the pupil center e from the corneal curvature center c ′ as the line-of-sight vector v ′ with corrected error in the normal vector eyeball model 97 of FIG. . In this way, the line-of-sight vector v is corrected to the line-of-sight vector v ′.
In FIG. 13, by rotating the eyeball 900 to the eyeball 900 ′, the position of the corneal curvature center c moves to the position of the corneal curvature center c ′.

その後、法線ベクトル眼球モデル視線誤差補正手段24bは、誤差が補正された視線(視線ベクトルv’)を出力する。本実施形態では、法線ベクトル眼球モデル視線誤差補正手段24bは、誤差が補正された視線を表示制御手段21bに出力して、この視線を表示手段92に表示させる。
なお、法線ベクトル眼球モデル視線誤差補正手段24bは、誤差が補正された視線の利用方法に応じて、様々な出力先に対して、任意の座標系で視線を出力できる。
Thereafter, the normal vector eyeball model line-of-sight error correction means 24b outputs the line of sight (line-of-sight vector v ′) with the error corrected. In the present embodiment, the normal vector eyeball model line-of-sight error correction unit 24b outputs the line of sight with the corrected error to the display control unit 21b and causes the display unit 92 to display the line of sight.
Note that the normal vector eyeball model line-of-sight error correction unit 24b can output the line of sight in an arbitrary coordinate system to various output destinations according to the method of using the line of sight in which the error is corrected.

[視線誤差補正装置の動作]
以下、図14を参照して、図1の視線誤差補正装置20の動作について、説明する(適宜図1参照)。
視線誤差補正装置20は、表示制御手段21bによって、マーカ画像を、表示手段92に表示させる(ステップS1:マーカ表示ステップ)。
視線誤差補正装置20は、マーカ視線入力手段21aによって、視線測定装置10Aからマーカ視線が入力される(ステップS2:マーカ視線入力ステップ)。
[Operation of line-of-sight error correction device]
Hereinafter, the operation of the line-of-sight error correction apparatus 20 of FIG. 1 will be described with reference to FIG. 14 (see FIG. 1 as appropriate).
The line-of-sight error correction device 20 causes the display control unit 21b to display the marker image on the display unit 92 (step S1: marker display step).
In the line-of-sight error correction device 20, the marker line-of-sight is input from the line-of-sight measurement device 10A by the marker line-of-sight input means 21a (step S2: marker line-of-sight input step).

視線誤差補正装置20は、表示制御手段21bによって、マーカ画像とポインタとを表示手段92に表示させる(ステップS3:マーカ視線表示ステップ)。
視線誤差補正装置20は、誤差情報入力手段21cによって、外部から、誤差情報が入力される(ステップS4:誤差情報入力ステップ)。
The line-of-sight error correction device 20 causes the display control unit 21b to display the marker image and the pointer on the display unit 92 (step S3: marker line-of-sight display step).
The line-of-sight error correction device 20 receives error information from the outside by the error information input means 21c (step S4: error information input step).

視線誤差補正装置20は、歪ベクトル算出手段22によって、誤差情報に基づいて、マーカ画像と同一サイズでポインタの位置を示した平面画像から、ポインタをマーカに一致させた歪み平面を生成し、歪ベクトルを算出する(ステップS5:歪ベクトル算出ステップ)。   Based on the error information, the line-of-sight error correction device 20 generates a distortion plane in which the pointer coincides with the marker from the plane image showing the position of the pointer with the same size as the marker image, based on the error information. A vector is calculated (step S5: distortion vector calculation step).

視線誤差補正装置20は、非球面眼球モデル生成手段23によって、歪ベクトルに基づいて、各ユーザに対応した非球面眼球モデルを生成する。
つまり、差分角度眼球モデル生成手段23aは、画像座標系の歪ベクトルを眼球中心極座標系に座標変換することで、差分角度眼球モデルを生成する。
また、法線ベクトル眼球モデル生成手段23bは、瞳孔中心極座標系において、前記した(3)式で法線ベクトルが定義された法線ベクトル眼球モデルを生成する(ステップS6:非球面眼球モデル生成ステップ)。
The line-of-sight error correction device 20 generates an aspheric eyeball model corresponding to each user based on the distortion vector by the aspheric eyeball model generation means 23.
That is, the difference angle eyeball model generation unit 23a generates a difference angle eyeball model by performing coordinate conversion of the distortion vector of the image coordinate system into the eyeball center polar coordinate system.
Further, the normal vector eyeball model generation means 23b generates a normal vector eyeball model in which the normal vector is defined by the above-described equation (3) in the pupil center polar coordinate system (step S6: aspheric eyeball model generation step). ).

視線誤差補正装置20は、視線誤差補正手段24によって、非球面眼球モデルに基づいて、視線の誤差を補正する。
つまり、差分角度眼球モデル視線誤差補正手段24aは、差分角度眼球モデルを参照して、眼球中心極座標系の原点を中心として、視線を差分角度だけ回転させることで、視線の誤差を補正する。
また、法線ベクトル眼球モデル視線誤差補正手段24bは、法線ベクトル眼球モデルを参照して、プルキニエ像の位置にある法線ベクトルnが撮影カメラを向くように法線ベクトル眼球モデルを回転させ、回転後の法線ベクトル眼球モデルにおいて、角膜曲率中心から瞳孔中心を向くベクトルを求めて、誤差が補正された視線として出力する(ステップS7:視線誤差補正ステップ)。
なお、ステップS1〜S6がモデル生成時の処理であり、ステップS7が視線誤差補正時の動作である。
The line-of-sight error correction device 20 corrects the line-of-sight error based on the aspheric eyeball model by the line-of-sight error correction means 24.
That is, the difference angle eyeball model line-of-sight error correction unit 24a refers to the difference angle eyeball model and corrects the line-of-sight error by rotating the line of sight by the difference angle around the origin of the eyeball central polar coordinate system.
Further, the normal vector eyeball model line-of-sight error correcting means 24b refers to the normal vector eyeball model, rotates the normal vector eyeball model so that the normal vector n at the position of the Purkinje image faces the photographing camera, In the rotated normal vector eyeball model, a vector directed from the corneal curvature center to the pupil center is obtained and output as a line of sight with corrected error (step S7: line of sight error correction step).
Steps S1 to S6 are processes at the time of model generation, and step S7 is an operation at the time of line-of-sight error correction.

以上のように、本発明の実施形態に係る視線誤差補正装置20は、視線座標変換・出力手段14で座標変換されたマーカ視線を用いて、非球面眼球モデルを生成する。そして、視線誤差補正装置20は、この非球面眼球モデルを視線誤差補正時に用いるため、個人キャリブレーションを繰り返し行う必要がなく、作業負担を少なくすることができる。さらに、視線誤差補正装置20は、この非球面眼球モデルを用いて、球面眼球モデルの球面性と角膜形状の非球面性との相違に起因する誤差も補正できるため、視線の誤差を小さく抑えることができる   As described above, the line-of-sight error correction device 20 according to the embodiment of the present invention generates an aspheric eyeball model using the marker line of sight coordinate-converted by the line-of-sight coordinate conversion / output unit 14. Since the line-of-sight error correction device 20 uses this aspherical eyeball model for line-of-sight error correction, it is not necessary to repeatedly perform personal calibration, and the work burden can be reduced. Furthermore, the line-of-sight error correction device 20 can correct errors caused by the difference between the sphericality of the spherical eyeball model and the asphericity of the corneal shape by using the aspheric eyeball model, and thus suppresses the line-of-sight error to be small. Can

さらに、視線誤差補正装置20は、簡易な座標変換で差分角度眼球モデルを生成することができる。
さらに、視線誤差補正装置20は、瞳孔−角膜反射法と法線ベクトル眼球モデルとの基準位置が同一のため、視線誤差補正時に頭部が動いた場合でも、視線の誤差を補正することができる。
Furthermore, the line-of-sight error correction device 20 can generate a difference angle eyeball model by simple coordinate conversion.
Furthermore, since the reference position of the pupil-corneal reflection method and the normal vector eyeball model is the same, the gaze error correction device 20 can correct gaze errors even when the head moves during gaze error correction. .

例えば、従来の瞳孔−角膜反射法では、個人キャリブレーションを繰返し行って、最良のデータを用いた場合でも、表示画面の周辺部で視線に1°以上の誤差が発生する。一方、視線誤差補正装置20では、表示画面の周辺部であっても視線の誤差を無視することができる。このように、視線誤差補正装置20では、従来の瞳孔−角膜反射法に比べて、視線の誤差を小さく抑えることができる。   For example, in the conventional pupil-corneal reflection method, even when personal calibration is repeatedly performed and the best data is used, an error of 1 ° or more occurs in the line of sight at the periphery of the display screen. On the other hand, the line-of-sight error correction device 20 can ignore the line-of-sight error even at the periphery of the display screen. As described above, the line-of-sight error correction device 20 can suppress the line-of-sight error to be smaller than that of the conventional pupil-corneal reflection method.

ここで、法線ベクトル眼球モデルは、角膜表面の一様でない形状を法線ベクトルのマップで示した絶対的な非球面眼球モデルと言うこともできる。一方、差分角度眼球モデルは、瞳孔−角膜反射法の球面眼球モデルに対する相対的な差分角度(補正回転角度)を示す非球面眼球モデルと言うこともできる。何れの非球面眼球モデルを用いた場合でも、視線誤差補正装置20は、視線の誤差を極めて小さくすることができる。以上の点を考慮して、視線誤差補正装置20は、差分角度眼球モデル又は法線ベクトル眼球モデルの何れを用いるか、ユーザが手動で切り替えることができる。   Here, the normal vector eyeball model can also be said to be an absolute aspheric eyeball model in which the non-uniform shape of the corneal surface is shown by a map of normal vectors. On the other hand, the differential angle eyeball model can also be referred to as an aspherical eyeball model indicating a relative difference angle (corrected rotation angle) with respect to the spherical eyeball model of the pupil-corneal reflection method. Regardless of which aspheric eyeball model is used, the line-of-sight error correction device 20 can extremely reduce the line-of-sight error. In consideration of the above points, the gaze error correction device 20 can be manually switched by the user to use either the differential angle eyeball model or the normal vector eyeball model.

なお、本実施形態では、視線誤差補正装置20は、差分角度眼球モデル及び法線ベクトル眼球モデルの両方を用いることとして説明したが、何れか一方のみを用いてもよい。つまり、視線誤差補正装置20は、差分角度眼球モデル生成手段23aと差分角度眼球モデル視線誤差補正手段24aとの組み合わせ、又は、法線ベクトル眼球モデル生成手段23bと法線ベクトル眼球モデル視線誤差補正手段24bとの組み合わせの何れか一方のみを備えてもよい。さらに、視線誤差補正装置20は、差分角度眼球モデル及び法線ベクトル眼球モデルの両方を組み合わせた非球面眼球モデル、例えば、瞳孔中心を基準とした極座標で、差分角度を保持する中間的な非球面眼球モデルを用いてもよい。   In the present embodiment, the line-of-sight error correction device 20 has been described as using both the differential angle eyeball model and the normal vector eyeball model, but only one of them may be used. That is, the line-of-sight error correction device 20 is a combination of the difference angle eyeball model generation unit 23a and the difference angle eyeball model line-of-sight error correction unit 24a, or the normal vector eyeball model generation unit 23b and the normal vector eyeball model line-of-sight error correction unit. Only one of the combinations with 24b may be provided. Furthermore, the line-of-sight error correction device 20 is an aspheric eyeball model that combines both the difference angle eyeball model and the normal vector eyeball model, for example, an intermediate aspheric surface that holds the difference angle with polar coordinates based on the pupil center. An eyeball model may be used.

なお、本実施形態では、視線誤差補正装置20は、非球面眼球モデル生成手段23において、差分角度ベクトル及び法線ベクトルの補間を行うこととして説明したが、本発明は、これに限定されない。つまり、視線誤差補正装置20は、歪ベクトル算出手段22において、マーカの位置で算出された歪ベクトルを用いて、線形補間等の補間手法により、マーカがない位置の歪ベクトルを補間してもよい。   In the present embodiment, the line-of-sight error correction apparatus 20 has been described as performing the interpolation of the difference angle vector and the normal vector in the aspheric eyeball model generation unit 23, but the present invention is not limited to this. That is, the line-of-sight error correction device 20 may use the distortion vector calculation unit 22 to interpolate a distortion vector at a position where there is no marker by an interpolation method such as linear interpolation using the distortion vector calculated at the marker position. .

なお、本実施形態では、視線誤差補正装置20は、モデル生成を行った後、視線誤差補正を行うという一連の処理で説明したが、視線誤差補正の都度、非球面眼球モデルを生成しなくともよい。
例えば、視線誤差補正装置20は、認証機能(ログイン機能)により各ユーザを認証する。そして、視線誤差補正装置20は、各ユーザに対応する非球面眼球モデルが存在しない場合、そのユーザに対応する非球面眼球モデルを生成し、図示を省略した非球面眼球モデル記憶手段に格納する。以後、視線誤差補正装置20は、そのユーザに対応する非球面眼球モデルを非球面眼球モデル記憶手段から読み出して、視線誤差補正を行えばよい。
In the present embodiment, the line-of-sight error correction apparatus 20 has been described with a series of processes of performing line-of-sight error correction after generating a model. However, it is not necessary to generate an aspheric eyeball model for each line-of-sight error correction. Good.
For example, the line-of-sight error correction device 20 authenticates each user with an authentication function (login function). Then, when there is no aspheric eyeball model corresponding to each user, the line-of-sight error correction device 20 generates an aspheric eyeball model corresponding to the user and stores it in the aspheric eyeball model storage unit (not shown). Thereafter, the line-of-sight error correction device 20 may read the aspheric eyeball model corresponding to the user from the aspheric eyeball model storage means and perform the line-of-sight error correction.

なお、本実施形態では、歪み平面がNURBS曲面であることとして説明したが、本発明は、これに限定されない。つまり、本発明において、歪み平面は、ベジエ曲線又はBスプライン曲線で構成される曲面といった、コントロールポイントにより変形できるパラメトリック曲面であればよい。何れの曲面を用いた場合でも、視線誤差補正装置20は、コントロールポイントの数を増やせば、任意の歪み曲面を表現可能である。   In the present embodiment, the strain plane is described as a NURBS curved surface, but the present invention is not limited to this. That is, in the present invention, the distortion plane may be a parametric curved surface that can be deformed by a control point, such as a curved surface constituted by a Bezier curve or a B-spline curve. Regardless of which curved surface is used, the line-of-sight error correction device 20 can express an arbitrary distorted curved surface by increasing the number of control points.

なお、本実施形態では、ポインタをテクスチャマッピングとして表示することとして説明した。このとき、円形のポインタは、平面画像を歪ませると、これに伴って歪んでしまう。これを回避したい場合、視線誤差補正装置20は、ポインタのUV座標を導いて、このUV座標に円形のポインタを配置すればよい。   In the present embodiment, the pointer has been described as being displayed as texture mapping. At this time, when the planar pointer is distorted, the circular pointer is distorted accordingly. When it is desired to avoid this, the line-of-sight error correction device 20 may guide the UV coordinates of the pointer and place a circular pointer at the UV coordinates.

なお、本実施形態では、従来の球面眼球モデルを前提とした個人キャリブレーションを行わないこととして説明してが、本発明は、前記した個人キャリブレーションを行ってもよい。つまり、視線測定装置10Aは、個人キャリブレーション手段13を備えてもよい。   In the present embodiment, it is described that the personal calibration based on the conventional spherical eyeball model is not performed, but the present invention may perform the above-described personal calibration. That is, the line-of-sight measurement device 10 </ b> A may include the personal calibration unit 13.

なお、本実施形態では、視線測定・誤差補正装置1を独立した装置として説明したが、本発明は、これに限定されない。つまり、本発明は、一般的なコンピュータを視線測定・誤差補正装置1の各手段として動作させる視線誤差補正プログラムにより、実現することもできる。   In the present embodiment, the line-of-sight measurement / error correction apparatus 1 has been described as an independent apparatus, but the present invention is not limited to this. That is, the present invention can also be realized by a line-of-sight error correction program that causes a general computer to operate as each unit of the line-of-sight measurement / error correction apparatus 1.

また、本発明では、スマートフォン又はタブレット端末に視線誤差補正プログラムをインストールしてもよい。この場合、ユーザは、ポインタの中心をマーカに一致させるように、スマートフォン又はタブレット端末の表示画面(表示手段92)を指でなぞる操作を行うことで、誤差情報を入力できる。そして、本発明をスマートフォン又はタブレット端末で実現した場合、ユーザがスマートフォン又はタブレット端末を大きく動かすことで、表示画面とユーザの頭部との位置関係が大きく変化する場合でも、正確な視線を測定することができる。   In the present invention, a line-of-sight error correction program may be installed in a smartphone or tablet terminal. In this case, the user can input error information by performing an operation of tracing the display screen (display unit 92) of the smartphone or tablet terminal with a finger so that the center of the pointer matches the marker. And when this invention is implement | achieved with the smart phone or the tablet terminal, even when the positional relationship of a display screen and a user's head changes a lot because a user moves a smart phone or a tablet terminal largely, an exact eyes | visual_axis is measured. be able to.

(変形例)
以下、図15を参照して、本発明の変形例に係る視線誤差補正装置20Bについて、第1実施形態と異なる点を説明する。
図1の視線誤差補正装置20は、ユーザがマーカと異なる位置を見た場合に補間計算を行う必要がある。そこで、視線誤差補正装置20Bは、予め補間演算を行って、その演算結果をルックアップテーブルに格納する。
(Modification)
Hereinafter, with reference to FIG. 15, a difference from the first embodiment regarding the line-of-sight error correction device 20 </ b> B according to the modification of the present invention will be described.
The line-of-sight error correction device 20 in FIG. 1 needs to perform interpolation calculation when the user sees a position different from the marker. Therefore, the line-of-sight error correction device 20B performs an interpolation calculation in advance and stores the calculation result in a lookup table.

ルックアップテーブル生成手段25は、歪ベクトル算出手段22から歪ベクトルが入力され、この歪ベクトルを画像座標系で予め設定されたサイズの小領域に対応付けることで、ルックアップテーブルを生成するものである。
ここで、ルックアップテーブル生成手段25は、1以上の画素で構成される小領域に画像座標系を分割する。そして、ルックアップテーブル生成手段25は、画素単位で算出された歪ベクトルを各小領域に対応付けて、ルックアップテーブルを生成する。このとき、ルックアップテーブル生成手段25は、歪ベクトルを対応付けできなかった各小領域について、線形補間等の補間手法により、その小領域の歪ベクトルを補間してもよい。
The look-up table generation unit 25 receives the distortion vector from the distortion vector calculation unit 22, and generates a lookup table by associating the distortion vector with a small area having a size set in advance in the image coordinate system. .
Here, the look-up table generating means 25 divides the image coordinate system into small areas composed of one or more pixels. Then, the look-up table generating means 25 generates a look-up table by associating the distortion vector calculated for each pixel with each small region. At this time, the look-up table generating means 25 may interpolate the distortion vectors of the small areas for each small area that could not be associated with the distortion vectors by an interpolation method such as linear interpolation.

なお、視線誤差補正装置20Bは、入出力制御手段21、歪ベクトル算出手段22及び視線誤差補正手段24が図1の各手段と同様のため、詳細な説明を省略する。
また、非球面眼球モデル生成手段23Bは、ルックアップテーブル生成手段25が生成したルックアップテーブルの歪ベクトルを用いる以外、図1と同様のため、詳細な説明を省略する。
In the line-of-sight error correction device 20B, the input / output control unit 21, the distortion vector calculation unit 22, and the line-of-sight error correction unit 24 are the same as the respective units in FIG.
Further, the aspheric eyeball model generation unit 23B is the same as FIG. 1 except that the distortion vector of the lookup table generated by the lookup table generation unit 25 is used, and thus detailed description thereof is omitted.

以上のように、本発明の変形例に係る視線誤差補正装置20Bは、ルックアップテーブルを参照することで、補間計算を都度行う必要がなくなり、演算処理の高速化を図ることができる。
なお、視線誤差補正装置20Bは、2次元の画像処理しか行っていないため、頭部が動くと誤差が生じることになる。
As described above, the line-of-sight error correction apparatus 20B according to the modified example of the present invention does not need to perform interpolation calculation each time by referring to the lookup table, and can speed up the arithmetic processing.
Since the line-of-sight error correction device 20B performs only two-dimensional image processing, an error occurs when the head moves.

1,1B 視線測定・誤差補正装置
10,10A 視線測定装置
11 瞳孔・プルキニエ像検出手段
12 視線ベクトル・基準点算出手段
13 個人キャリブレーション手段
14 視線座標変換・出力手段
20,20B 視線誤差補正装置
21 入出力制御手段
22 歪ベクトル算出手段
23,23B 非球面眼球モデル生成手段
24 視線誤差補正手段
25 ルックアップテーブル生成手段
1,1B Gaze measurement / error correction device 10, 10A Gaze measurement device 11 Pupil / Purkinje image detection means 12 Gaze vector / reference point calculation means 13 Personal calibration means 14 Gaze coordinate conversion / output means 20, 20B Gaze error correction apparatus 21 Input / output control means 22 Strain vector calculation means 23, 23B Aspheric eyeball model generation means 24 Gaze error correction means 25 Look-up table generation means

Claims (6)

球面眼球モデルによる瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正装置であって、
所定位置にマーカが配置されたマーカ画像と、前記瞳孔−角膜反射法で測定された前記マーカに対するマーカ視線の位置とを表示手段に表示させる表示制御手段と、
前記表示手段に表示されたマーカとマーカ視線との位置ずれを示す誤差情報が入力される誤差情報入力手段と、
前記誤差情報入力手段に入力された誤差情報に基づいて、前記マーカ画像と同一サイズで前記マーカ視線の位置を示した平面画像から、前記マーカ視線の位置を前記マーカに一致させるように歪ませた歪み平面を生成し、画像座標系で前記歪み平面の歪みを示す歪ベクトルを算出する歪ベクトル算出手段と、
前記歪ベクトルに基づいて、非球面な角膜形状を示す非球面眼球モデルを生成する非球面眼球モデル生成手段と、
前記非球面眼球モデル生成手段で生成された非球面眼球モデルに基づく回転により、前記瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正手段と、
を備えることを特徴とする視線誤差補正装置。
A gaze error correction device that corrects a gaze error measured by a pupil-corneal reflection method using a spherical eyeball model,
Display control means for displaying on the display means a marker image in which a marker is arranged at a predetermined position and the position of the marker line of sight with respect to the marker measured by the pupil-corneal reflection method;
Error information input means for inputting error information indicating a positional deviation between the marker displayed on the display means and the marker line of sight;
Based on the error information input to the error information input means, from the plane image showing the position of the marker line of sight with the same size as the marker image, the position of the marker line of sight is distorted to match the marker A strain vector calculating means for generating a strain plane and calculating a strain vector indicating the strain of the strain plane in an image coordinate system;
An aspheric eyeball model generating means for generating an aspheric eyeball model indicating an aspheric cornea shape based on the strain vector;
Gaze error correction means for correcting a gaze error measured by the pupil-corneal reflection method by rotation based on the aspheric eyeball model generated by the aspheric eyeball model generation means;
A line-of-sight error correction device comprising:
前記非球面眼球モデル生成手段は、
前記非球面眼球モデルとして、前記画像座標系の歪ベクトルを、眼球中心を原点とする眼球中心極座標系に座標変換することで、前記球面眼球モデルに対する視線の差分角度を示す差分角度眼球モデルを生成する差分角度眼球モデル生成手段、を備え、
前記視線誤差補正手段は、
前記差分角度眼球モデルを参照して、前記眼球中心極座標系の原点を中心として、前記瞳孔−角膜反射法で測定された視線を前記差分角度だけ回転させることで、当該視線の誤差を補正する差分角度眼球モデル視線誤差補正手段、
を備えることを特徴とする請求項1に記載の視線誤差補正装置。
The aspheric eyeball model generation means includes
As the aspheric eyeball model, a distortion angle vector of the image coordinate system is transformed to an eyeball center polar coordinate system with the eyeball center as an origin, thereby generating a difference angle eyeball model indicating a difference angle of the line of sight with respect to the spherical eyeball model. Differential angle eyeball model generating means for
The line-of-sight error correcting means includes
Referring to the difference angle eyeball model, a difference for correcting an error of the line of sight by rotating the line of sight measured by the pupil-corneal reflection method by the difference angle around the origin of the eyeball central polar coordinate system Angle eyeball model gaze error correction means,
The line-of-sight error correction apparatus according to claim 1, comprising:
前記非球面眼球モデル生成手段は、
前記瞳孔−角膜反射法で測定された視線を測定するための撮影カメラの位置lと、眼球の回転角度θと、角膜表面上でプルキニエ像の位置u’θと、瞳孔中心の位置(xθ,yθ,zθ)と、前記撮影カメラの位置lを基点に前記歪ベクトルが示す当該撮影カメラの仮想位置l’とし、前記瞳孔中心を原点とした瞳孔中心極座標系において、以下の(3)式で法線ベクトルnθが定義された法線ベクトル眼球モデルを前記非球面眼球モデルとして生成する法線ベクトル眼球モデル生成手段、を備え、
前記視線誤差補正手段は、
前記法線ベクトル眼球モデルを参照して、前記プルキニエ像の位置にある法線ベクトルが前記撮影カメラを向く回転角を算出し、算出した前記回転角だけ前記法線ベクトル眼球モデルを回転させ、回転後の前記法線ベクトル眼球モデルにおいて、角膜曲率中心から前記瞳孔中心を向くベクトルを、誤差が補正された前記視線として出力する法線ベクトル眼球モデル視線誤差補正手段、
を備えることを特徴とする請求項1に記載の視線誤差補正装置。
Figure 2013190942
The aspheric eyeball model generation means includes
The position 1 of the photographing camera for measuring the line of sight measured by the pupil-corneal reflection method, the rotation angle θ of the eyeball, the position u ′ θ of the Purkinje image on the cornea surface, and the position of the pupil center (x θ , Y θ , z θ ) and a virtual position l ′ of the photographing camera indicated by the distortion vector with the position l of the photographing camera as a base point, in the pupil center polar coordinate system with the pupil center as the origin, the following (3 A normal vector eyeball model generating means for generating, as the aspheric eyeball model, a normal vector eyeball model in which a normal vector n θ is defined by
The line-of-sight error correcting means includes
Referring to the normal vector eyeball model, calculate a rotation angle at which the normal vector at the position of the Purkinje image faces the imaging camera, rotate the normal vector eyeball model by the calculated rotation angle, and rotate In the normal vector eyeball model later, a normal vector eyeball model line-of-sight error correction means for outputting a vector directed from the corneal curvature center to the pupil center as the line of sight in which the error is corrected,
The line-of-sight error correction apparatus according to claim 1, comprising:
Figure 2013190942
前記歪ベクトル算出手段で算出された歪ベクトルを、前記画像座標系で予め設定されたサイズの小領域に対応付けることで、ルックアップテーブルを生成するルックアップテーブル生成手段、を備え、
前記非球面眼球モデル生成手段は、前記テーブル生成手段が生成したルックアップテーブルを参照して、前記非球面眼球モデルを生成することを特徴とする請求項1から請求項3の何れか一項に記載の視線誤差補正装置。
Lookup table generation means for generating a lookup table by associating the distortion vector calculated by the distortion vector calculation means with a small area having a size set in advance in the image coordinate system,
4. The aspheric eyeball model generation unit generates the aspheric eyeball model with reference to a lookup table generated by the table generation unit. The line-of-sight error correction device described.
球面眼球モデルによる瞳孔−角膜反射法で測定された視線の誤差を補正するために、コンピュータを、
所定位置にマーカが配置されたマーカ画像と、前記瞳孔−角膜反射法で測定された前記マーカに対するマーカ視線の位置とを表示手段に表示させる表示制御手段、
前記表示手段に表示されたマーカとマーカ視線との位置ずれを示す誤差情報が入力される誤差情報入力手段、
前記誤差情報入力手段に入力された誤差情報に基づいて、前記マーカ画像と同一サイズで前記マーカ視線の位置を示した平面画像から、前記マーカ視線の位置を前記マーカに一致させるように歪ませた歪み平面を生成し、画像座標系で前記歪み平面の歪みを示す歪ベクトルを算出する歪ベクトル算出手段、
前記歪ベクトルに基づいて、非球面な角膜形状を示す非球面眼球モデルを生成する非球面眼球モデル生成手段、
前記非球面眼球モデル生成手段で生成された非球面眼球モデルに基づく回転により、前記瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正手段、
として機能させるための視線誤差補正プログラム。
In order to correct gaze errors measured by pupil-corneal reflection method using a spherical eyeball model,
Display control means for displaying on the display means a marker image in which a marker is arranged at a predetermined position and a position of the marker line of sight with respect to the marker measured by the pupil-corneal reflection method;
Error information input means for inputting error information indicating a positional deviation between the marker displayed on the display means and the marker line of sight;
Based on the error information input to the error information input means, from the plane image showing the position of the marker line of sight with the same size as the marker image, the position of the marker line of sight is distorted to match the marker A strain vector calculating means for generating a strain plane and calculating a strain vector indicating the strain of the strain plane in an image coordinate system;
An aspheric eyeball model generating means for generating an aspheric eyeball model showing an aspheric cornea shape based on the strain vector;
A line-of-sight error correction unit that corrects a line-of-sight error measured by the pupil-corneal reflection method by rotation based on the aspherical eyeball model generated by the aspherical eyeball model generation unit;
Line-of-sight error correction program to function as
球面眼球モデルによる瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正装置の視線誤差補正方法であって、
表示制御手段が、所定位置にマーカが配置されたマーカ画像を表示手段に表示させるマーカ表示ステップと、
マーカ視線入力手段が、前記瞳孔−角膜反射法で測定された前記マーカに対するマーカ視線が入力されるマーカ視線入力ステップと、
前記表示制御手段が、前記マーカ画像と、前記マーカ視線の位置とを前記表示手段に表示させるマーカ視線表示ステップと、
誤差情報入力手段が、前記表示手段に表示されたマーカとマーカ視線との位置ずれを示す誤差情報が入力される誤差情報入力ステップと、
歪ベクトル算出手段が、前記誤差情報に基づいて、前記マーカ画像と同一サイズで前記マーカ視線の位置を示した平面画像から、前記マーカ視線の位置を前記マーカに一致させるように歪ませた歪み平面を生成し、画像座標系で前記歪み平面の歪みを示す歪ベクトルを算出する歪ベクトル算出ステップと、
非球面眼球モデル生成手段が、前記歪ベクトルに基づいて、非球面な角膜形状を示す非球面眼球モデルを生成する非球面眼球モデル生成ステップと、
視線誤差補正手段が、前記非球面眼球モデルに基づく回転により、前記瞳孔−角膜反射法で測定された視線の誤差を補正する視線誤差補正ステップと、
を順に実行することを特徴とする視線誤差補正方法。
A line-of-sight error correction method of a line-of-sight error correction apparatus for correcting line-of-sight error measured by a pupil-corneal reflection method using a spherical eyeball model,
A marker display step for causing the display means to display a marker image in which the marker is arranged at a predetermined position on the display means;
A marker line-of-sight input step in which a marker line-of-sight input to the marker measured by the pupil-corneal reflection method is input;
A marker visual line display step in which the display control means causes the display means to display the marker image and the position of the marker visual line;
An error information input step in which error information input means inputs error information indicating a positional deviation between the marker displayed on the display means and the marker line of sight;
A distortion plane in which a distortion vector calculation unit is distorted so as to match the position of the marker line of sight with the marker from a plane image showing the position of the marker line of sight with the same size as the marker image based on the error information And a distortion vector calculation step of calculating a distortion vector indicating distortion of the distortion plane in the image coordinate system;
An aspheric eyeball model generating means for generating an aspheric eyeball model showing an aspheric cornea shape based on the strain vector;
A line-of-sight error correcting step, wherein the line-of-sight error correcting means corrects a line-of-sight error measured by the pupil-corneal reflection method by rotation based on the aspheric eyeball model;
A line-of-sight error correction method characterized by sequentially executing.
JP2012056073A 2012-03-13 2012-03-13 Gaze error correction apparatus, program thereof, and method thereof Expired - Fee Related JP5873362B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012056073A JP5873362B2 (en) 2012-03-13 2012-03-13 Gaze error correction apparatus, program thereof, and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012056073A JP5873362B2 (en) 2012-03-13 2012-03-13 Gaze error correction apparatus, program thereof, and method thereof

Publications (2)

Publication Number Publication Date
JP2013190942A true JP2013190942A (en) 2013-09-26
JP5873362B2 JP5873362B2 (en) 2016-03-01

Family

ID=49391130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012056073A Expired - Fee Related JP5873362B2 (en) 2012-03-13 2012-03-13 Gaze error correction apparatus, program thereof, and method thereof

Country Status (1)

Country Link
JP (1) JP5873362B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018505457A (en) * 2014-11-06 2018-02-22 インテル コーポレイション Improved calibration for eye tracking system
JP2019000136A (en) * 2017-06-09 2019-01-10 株式会社豊田中央研究所 Visual line measurement device and program
CN109669396A (en) * 2018-12-04 2019-04-23 天津津航技术物理研究所 A kind of changing distance line interpolation method of axisymmetric aspheric surface
JP2020099699A (en) * 2013-03-12 2020-07-02 オプターネイティヴ インコーポレイテッド Computer readable medium for determination of corrective lens prescription for patient
CN111493809A (en) * 2014-12-17 2020-08-07 索尼公司 Information processing apparatus and method, glasses-type terminal, and storage medium
JP2021035630A (en) * 2020-12-02 2021-03-04 株式会社トプコン Ophthalmologic examination apparatus
JP2021037385A (en) * 2020-12-09 2021-03-11 株式会社トプコン Ophthalmologic examination device
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features
JP7492951B2 (en) 2018-09-21 2024-05-30 ニューラブル インコーポレイテッド Human/Computer Interface Using Fast and Accurate Tracking of User Interactions - Patent application
US12001602B2 (en) 2017-11-13 2024-06-04 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003079577A (en) * 2001-09-12 2003-03-18 Nippon Telegr & Teleph Corp <Ntt> Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
JP2006285715A (en) * 2005-04-01 2006-10-19 Konica Minolta Holdings Inc Sight line detection system
JP2010259605A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Visual line measuring device and visual line measuring program
JP2011172853A (en) * 2010-02-25 2011-09-08 Kobe Univ Device, method and program for measuring visual axis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003079577A (en) * 2001-09-12 2003-03-18 Nippon Telegr & Teleph Corp <Ntt> Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
JP2006285715A (en) * 2005-04-01 2006-10-19 Konica Minolta Holdings Inc Sight line detection system
JP2010259605A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Visual line measuring device and visual line measuring program
JP2011172853A (en) * 2010-02-25 2011-09-08 Kobe Univ Device, method and program for measuring visual axis

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020099699A (en) * 2013-03-12 2020-07-02 オプターネイティヴ インコーポレイテッド Computer readable medium for determination of corrective lens prescription for patient
JP2018505457A (en) * 2014-11-06 2018-02-22 インテル コーポレイション Improved calibration for eye tracking system
US11635806B2 (en) 2014-12-17 2023-04-25 Sony Corporation Information processing apparatus and information processing method
CN111493809A (en) * 2014-12-17 2020-08-07 索尼公司 Information processing apparatus and method, glasses-type terminal, and storage medium
JP2019000136A (en) * 2017-06-09 2019-01-10 株式会社豊田中央研究所 Visual line measurement device and program
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features
US12001602B2 (en) 2017-11-13 2024-06-04 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
JP7492951B2 (en) 2018-09-21 2024-05-30 ニューラブル インコーポレイテッド Human/Computer Interface Using Fast and Accurate Tracking of User Interactions - Patent application
CN109669396A (en) * 2018-12-04 2019-04-23 天津津航技术物理研究所 A kind of changing distance line interpolation method of axisymmetric aspheric surface
CN109669396B (en) * 2018-12-04 2021-11-05 天津津航技术物理研究所 Variable interval linear interpolation method for axisymmetric aspheric surface
JP7034242B2 (en) 2020-12-02 2022-03-11 株式会社トプコン Ophthalmic examination equipment
JP2021035630A (en) * 2020-12-02 2021-03-04 株式会社トプコン Ophthalmologic examination apparatus
JP7034243B2 (en) 2020-12-09 2022-03-11 株式会社トプコン Ophthalmic examination equipment
JP2021037385A (en) * 2020-12-09 2021-03-11 株式会社トプコン Ophthalmologic examination device

Also Published As

Publication number Publication date
JP5873362B2 (en) 2016-03-01

Similar Documents

Publication Publication Date Title
JP5873362B2 (en) Gaze error correction apparatus, program thereof, and method thereof
US9244529B2 (en) Point-of-gaze estimation robust to head rotations and/or device rotations
WO2017186016A1 (en) Method and device for image warping processing and computer storage medium
JP6594129B2 (en) Information processing apparatus, information processing method, and program
US10623721B2 (en) Methods and systems for multiple access to a single hardware data stream
WO2015190204A1 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
JP6008397B2 (en) AR system using optical see-through HMD
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
JP2010259605A (en) Visual line measuring device and visual line measuring program
WO2018106220A1 (en) Systems and methods for tracking motion and gesture of heads and eyes
JP2020525844A (en) Method, device and computer program for virtual adaptation of eyeglass frames
CN109615664B (en) Calibration method and device for optical perspective augmented reality display
CN109947253B (en) Eyeball tracking model establishing method, eyeball tracking method, equipment and medium
US11181978B2 (en) System and method for gaze estimation
US20230255476A1 (en) Methods, devices and systems enabling determination of eye state variables
JP2009297323A (en) Visual axis measuring apparatus
US20180031868A1 (en) Spectacle wearing parameter measurement system, measurement program, measurement method thereof, and manufacturing method of spectacle lens
US11568555B2 (en) Dense depth computations aided by sparse feature matching
KR20200006621A (en) Methods, apparatus, and computer programs for determining near vision points
CN109308472B (en) Three-dimensional sight estimation method based on iris projection matching function
Kang et al. A robust extrinsic calibration method for non-contact gaze tracking in the 3-D space
JP2016130693A (en) Image data processing method, image data processing apparatus, and image data processing program
Lee et al. A calibration method for eye-gaze estimation systems based on 3D geometrical optics
WO2022262201A1 (en) Facial three-dimensional model visualization method and apparatus, electronic device, and storage medium
CN115100257A (en) Sleeve alignment method and device, computer equipment and storage medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150202

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160115

R150 Certificate of patent or registration of utility model

Ref document number: 5873362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees