JP2017107511A - Information processing system, information processing method, and information processing program - Google Patents

Information processing system, information processing method, and information processing program Download PDF

Info

Publication number
JP2017107511A
JP2017107511A JP2015242657A JP2015242657A JP2017107511A JP 2017107511 A JP2017107511 A JP 2017107511A JP 2015242657 A JP2015242657 A JP 2015242657A JP 2015242657 A JP2015242657 A JP 2015242657A JP 2017107511 A JP2017107511 A JP 2017107511A
Authority
JP
Japan
Prior art keywords
display
gaze position
image
observer
display image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015242657A
Other languages
Japanese (ja)
Other versions
JP6540490B2 (en
Inventor
小田切 淳一
Junichi Odagiri
淳一 小田切
哲典 田口
Tetsunori Taguchi
哲典 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015242657A priority Critical patent/JP6540490B2/en
Publication of JP2017107511A publication Critical patent/JP2017107511A/en
Application granted granted Critical
Publication of JP6540490B2 publication Critical patent/JP6540490B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce user's burden when correcting the gaze position of the user in an information processing system capable of inputting information by using a line of sight.SOLUTION: An information processing system includes a gaze position calculation part, a display image generation part, and a correction amount calculation part. The gaze position calculation part calculates the gaze position of an observer in the display surface of a display device by using an image including the eyeball of the observer observing the display device captured by an imaging apparatus. The display image generation part generates a second display image into which a first display image is changed on the basis of a first gaze position calculated by the gaze position calculation part for the observer, when the first display image is displayed on the display device. The correction amount calculation part calculates a correction amount with respect to the gaze position for the observer on the basis of the second gaze position calculated by the gaze position calculation part for the observer when the second display image is displayed on the display device, the change amount of the second display image with respect to the first display image, and the first gaze position.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理システム、情報処理方法、及び情報処理プログラムに関する。   The present invention relates to an information processing system, an information processing method, and an information processing program.

コンピュータ等の情報処理装置における情報の入力方法の1つとして、利用者(オペレータ)の視線を利用した入力方法が知られている。この種の入力方法では、利用者が表示装置の表示面内における所定の位置を注視することにより、その位置と対応付けられた情報が情報処理装置に入力される。利用者が注視している位置は、撮像装置で撮像した利用者の眼球の画像から検出した利用者の視線に基づいて算出する。   As one of information input methods in an information processing apparatus such as a computer, an input method using a user's (operator) line of sight is known. In this type of input method, when a user gazes at a predetermined position in the display surface of the display device, information associated with the position is input to the information processing device. The position where the user is gazing is calculated based on the line of sight of the user detected from the image of the user's eyeball imaged by the imaging device.

利用者の視線の検出方法の1つに、瞳孔−角膜反射法と呼ばれる方法がある。瞳孔−角膜反射法では、利用者の眼球の画像における所定の光源からの光に対する角膜反射の位置と、瞳孔の中心位置との位置関係に基づいて、利用者の視線を検出する。   One method of detecting the user's line of sight is a method called pupil-corneal reflection method. In the pupil-cornea reflection method, the user's line of sight is detected based on the positional relationship between the position of corneal reflection with respect to light from a predetermined light source in the image of the user's eyeball and the center position of the pupil.

ところが、角膜の曲率半径、瞳孔間距離等は利用者毎に個人差がある。そのため、瞳孔−角膜反射法で検出した利用者の視線に基づいて利用者が注視している位置を算出した場合、利用者が実際に注視している位置と、情報処理装置が算出した注視位置とにずれが生じることがある。利用者が実際に注視している位置と、情報処理装置が算出した注視位置とにずれが生じている場合、情報処理装置に正しい情報を入力することが難しくなる。したがって、視線を利用した入力方法では、事前に、利用者が実際に注視している位置と、情報処理装置が算出した注視位置とのずれを解消するための注視位置の較正を行う。   However, the radius of curvature of the cornea, the interpupillary distance, and the like vary among individuals. Therefore, when the position where the user is gazing based on the user's line of sight detected by the pupil-corneal reflection method is calculated, the position where the user is actually gazing and the gazing position calculated by the information processing device Deviation may occur. If there is a difference between the position where the user is actually gazing and the gazing position calculated by the information processing apparatus, it is difficult to input correct information to the information processing apparatus. Therefore, in the input method using the line of sight, the gaze position is calibrated in advance in order to eliminate the deviation between the position where the user is actually gazing and the gaze position calculated by the information processing apparatus.

注視位置の較正方法の1つとして、視線を利用した入力方法と、マウス装置等の入力装置を利用した入力方法とを併用して行う較正方法が知られている。この種の較正方法では、利用者が入力装置を操作して表示装置に表示された像(オブジェクト)を選択した際の表示面内における操作位置と、利用者の視線に基づいて算出した注視位置とに基づいて注視位置のずれを補正する(例えば、特許文献1を参照)。   As one method for calibrating the gaze position, a calibration method is known in which an input method using a line of sight and an input method using an input device such as a mouse device are used in combination. In this type of calibration method, the gaze position calculated based on the operation position on the display surface when the user selects the image (object) displayed on the display device by operating the input device, and the user's line of sight Based on the above, the gaze position shift is corrected (see, for example, Patent Document 1).

また、注視位置の較正方法として、利用者がテスト画像を観察する際の眼球運動と、利用者の視野データとに基づいて眼球運動データを較正し、注視位置を較正する方法が知られている(例えば、特許文献2を参照)。   Further, as a method for calibrating the gaze position, a method for calibrating the gaze position by calibrating the eye movement data based on the eye movement when the user observes the test image and the visual field data of the user is known. (For example, see Patent Document 2).

更に、注視位置の較正方法として、利用者の眼球の画像における眼球の位置から表示装置の表示面内の注視位置に向かうベクトルと、画像から算出した視線のベクトルとに基づいて較正する方法が知られている(例えば、特許文献3を参照)。   Further, as a method for calibrating the gaze position, a method is known in which calibration is performed based on a vector from the position of the eyeball in the image of the user's eyeball to the gaze position in the display surface of the display device and a gaze vector calculated from the image. (For example, see Patent Document 3).

特開2012−065781号公報JP 2012-065781 A 特開2000−005130号公報JP 2000-005130 A 特開2011−217764号公報JP 2011-217764 A

しかしながら、視線を利用した入力方法と、マウス装置等の入力装置を利用した入力方法とを併用して行う注視位置の較正方法では、注視位置を構成する際に利用者が視線による入力操作と入力装置による入力操作をしなければならない。そのため、注視位置の較正に手間がかかる。更に、入力方法が視線を利用した入力方法のみである場合、入力装置を用いた注視位置の較正方法は適用対象外となる。   However, in the gaze position calibration method that uses both the gaze-based input method and the input method that uses an input device such as a mouse device, when the gaze position is configured, the user performs the gaze input operation and input. The input operation must be performed by the device. Therefore, it takes time to calibrate the gaze position. Furthermore, when the input method is only the input method using the line of sight, the gaze position calibration method using the input device is not applicable.

また、テスト画像等を用いた注視位置の較正方法では、利用者に注視させるための特徴的な部分を含む画像を用意する必要があり、かつその特徴的な部分を利用者に注視させる必要がある。そのため、利用者が実際に注視した部分と、利用者に注視させたい部分とが一致していない場合には注視位置を適正に較正することが難しくなり、注視位置の較正をやり直さなければならないことがある。   In addition, in the method for calibrating the gaze position using the test image or the like, it is necessary to prepare an image including a characteristic part for letting the user gaze, and it is necessary to make the user gaze at the characteristic part. is there. Therefore, it is difficult to properly calibrate the gaze position when the part that the user actually gazes and the part that the user wants to gaze are not matched, and the gaze position must be calibrated again There is.

1つの側面において、本発明は、視線を利用した情報の入力が可能な情報処理システムにおける利用者の注視位置を補正する際の利用者の手間を軽減することを目的とする。   In one aspect, an object of the present invention is to reduce a user's trouble when correcting a gaze position of a user in an information processing system capable of inputting information using a line of sight.

1つの態様の情報処理システムは、注視位置算出部と、表示画像生成部と、補正量算出部と、を備える。注視位置算出部は、撮像装置により撮像された表示装置を観察する観察者の眼球を含む画像を用いて、表示装置の表示面内における観察者の注視位置を算出する。表示画像生成部は、第1の表示画像を表示装置に表示させているときに、観察者について注視位置算出部で算出した第1の注視位置に基づいて第1の表示画像を変化させた第2の表示画像を生成する。補正量算出部は、第2の表示画像を表示装置に表示させているときに観察者について注視位置算出部で算出した第2の注視位置と、第1の表示画像に対する第2の表示画像の変化量と、第1の注視位置とに基づいて、観察者についての注視位置に対する補正量を算出する。   An information processing system according to one aspect includes a gaze position calculation unit, a display image generation unit, and a correction amount calculation unit. The gaze position calculation unit calculates the gaze position of the observer within the display surface of the display device using an image including the eyeball of the observer who observes the display device imaged by the imaging device. The display image generation unit changes the first display image based on the first gaze position calculated by the gaze position calculation unit for the observer while the first display image is displayed on the display device. 2 display images are generated. The correction amount calculation unit calculates the second gaze position calculated by the gaze position calculation unit for the observer while the second display image is displayed on the display device, and the second display image with respect to the first display image. Based on the change amount and the first gaze position, a correction amount for the gaze position for the observer is calculated.

上述の態様によれば、視線を利用した情報の入力が可能な情報処理システムにおける利用者の注視位置を補正する際の利用者の手間を軽減することができる。   According to the above-described aspect, it is possible to reduce the labor of the user when correcting the gaze position of the user in the information processing system capable of inputting information using the line of sight.

第1の実施形態に係る情報処理システムの構成を示す図である。It is a figure showing composition of an information processing system concerning a 1st embodiment. 観察者の視線の検出方法を説明する図である。It is a figure explaining the detection method of an observer's gaze. 注視位置のずれを説明する図である。It is a figure explaining the shift | offset | difference of a gaze position. 第1の実施形態に係る情報処理装置の機能的構成を示す図である。It is a figure which shows the functional structure of the information processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining the correction method of the calculation formula of the gaze position concerning a 1st embodiment. 第1の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。It is a flowchart (the 2) explaining the correction method of the calculation formula of the gaze position which concerns on 1st Embodiment. 拡大表示の例を示す図である。It is a figure which shows the example of an enlarged display. シフト量の算出方法を説明する図(その1)である。It is FIG. (1) explaining the calculation method of shift amount. シフト量の算出方法を説明する図(その2)である。It is FIG. (2) explaining the calculation method of shift amount. シフト量算出領域を説明する図である。It is a figure explaining a shift amount calculation area. 第2の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining the correction | amendment method of the calculation formula of the gaze position which concerns on 2nd Embodiment. 第2の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。It is a flowchart (the 2) explaining the correction method of the calculation formula of the gaze position which concerns on 2nd Embodiment. スクロールの例を示す図である。It is a figure which shows the example of a scroll. スクロールの前後で生じるシフト量の変動を説明する図である。It is a figure explaining the fluctuation | variation of the shift amount which arises before and after scrolling. 変動率算出領域を説明する図である。It is a figure explaining a fluctuation rate calculation area. 第3の実施形態に係る情報処理装置の機能的構成を示す図である。It is a figure which shows the functional structure of the information processing apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining the correction | amendment method of the calculation formula of the gaze position which concerns on 3rd Embodiment. 第3の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。It is a flowchart (the 2) explaining the correction method of the calculation formula of the gaze position which concerns on 3rd Embodiment. コンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a computer.

[第1の実施形態]
図1は、第1の実施形態に係る情報処理システムの構成を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of an information processing system according to the first embodiment.

図1に示すように、情報処理システム1は、情報処理装置2と、表示装置3と、光源4と、撮像装置5と、を備える。   As illustrated in FIG. 1, the information processing system 1 includes an information processing device 2, a display device 3, a light source 4, and an imaging device 5.

情報処理装置2は、表示装置3に表示させる表示画像の生成処理を含む各種の情報処理を行う。表示装置3は、情報処理装置2が生成した表示画像を表示する。   The information processing device 2 performs various types of information processing including processing for generating a display image to be displayed on the display device 3. The display device 3 displays the display image generated by the information processing device 2.

光源4及び撮像装置5は、観察者の視線の検出に用いる画像を撮像するためのものである。観察者の視線の検出は、情報処理装置2が行う。ここで、観察者は、表示装置3の表示面301を観察する者である。また、観察者の視線は、表示装置3の表示面301内における観察者が見ている位置を表す。以下の説明では、視線のことを視線位置ともいう。   The light source 4 and the imaging device 5 are for capturing an image used to detect the observer's line of sight. The information processing apparatus 2 detects the observer's line of sight. Here, the observer is an observer who observes the display surface 301 of the display device 3. Further, the line of sight of the observer represents a position where the observer is looking in the display surface 301 of the display device 3. In the following description, the line of sight is also referred to as the line-of-sight position.

光源4及び撮像装置5は、例えば、図1に示したように、表示装置3における表示面301の下方、かつ表示面301における水平方向の中心となる位置に近接させて配置してある。なお、光源4は観察者の顔に光が照射される向きで配置してあり、撮像装置5は観察者の顔を撮像する向きで配置してある。   For example, as illustrated in FIG. 1, the light source 4 and the imaging device 5 are arranged below the display surface 301 in the display device 3 and close to a position that is the center in the horizontal direction on the display surface 301. The light source 4 is arranged in a direction in which light is applied to the face of the observer, and the imaging device 5 is arranged in a direction in which the face of the observer is imaged.

本実施形態の情報処理装置2は、瞳孔−角膜反射法により観察者の視線を検出する。瞳孔−角膜反射法は、光源4からの光を観察者の顔に照射した状態で撮像した観察者の眼球の画像における角膜反射の位置と瞳孔の中心位置とに基づいて、観察者の視線を検出する方法である。瞳孔−角膜反射法では、光源4として赤外線発光ダイオード(IR LED)等の赤外線光源を用い、撮像装置5として赤外線カメラを用いる。   The information processing apparatus 2 according to the present embodiment detects an observer's line of sight by a pupil-corneal reflection method. In the pupil-corneal reflection method, the observer's line of sight is determined based on the position of the corneal reflection in the image of the eyeball of the observer and the center position of the pupil, which are captured while the light from the light source 4 is irradiated on the face of the observer. It is a method of detection. In the pupil-corneal reflection method, an infrared light source such as an infrared light emitting diode (IR LED) is used as the light source 4, and an infrared camera is used as the imaging device 5.

図2は、観察者の視線の検出方法を説明する図である。
図2の(a)に示すように、表示装置3の表示面301と向かい合う位置に観察者6がいる場合、光源4が発した光の一部は観察者6の眼球601で反射する。そのため、図2の(b)に示すように、撮像装置5で撮像した画像7における観察者の眼球601の部分には、光源4からの光による角膜反射602が見られる。瞳孔−角膜反射法では、画像7内における、角膜反射602の位置(PrkX,PrkY)に対する瞳孔603の中心位置(PupX,PupY)に基づいて観察者6の視線を検出する。観察者6が表示装置3の表示面301を観察している場合、観察者6の視線位置(X,Y)は、例えば、下記式(1−1)及び(1−2)で与えられる。
X=A・(PupX−PrkX)+(DPX/2) ・・・(1−1)
Y=DPY+B・(PupY-PrkY) ・・・(1−2)
FIG. 2 is a diagram for explaining a method for detecting an observer's line of sight.
As shown in FIG. 2A, when the observer 6 is at a position facing the display surface 301 of the display device 3, part of the light emitted from the light source 4 is reflected by the eyeball 601 of the observer 6. Therefore, as shown in FIG. 2B, a corneal reflection 602 due to the light from the light source 4 is seen in the portion of the eyeball 601 of the observer in the image 7 captured by the imaging device 5. In the pupil-corneal reflection method, the line of sight of the observer 6 is detected based on the center position (PupX, PupY) of the pupil 603 with respect to the position (PrkX, PrkY) of the corneal reflection 602 in the image 7. When the observer 6 is observing the display surface 301 of the display device 3, the line-of-sight position (X, Y) of the observer 6 is given by, for example, the following formulas (1-1) and (1-2).
X = A · (PupX−PrkX) + (DPX / 2) (1-1)
Y = DPY + B ・ (PupY-PrkY) (1-2)

式(1−1)のDPXは、表示面301のx方向(水平方向)の解像度(表示画素数)である。式(1−2)のDPYは、表示面301のy方向(垂直方向)の解像度である。また、式(1−1)のA及び式(1−2)のBは、それぞれx方向の換算係数及びy方向の換算係数である。換算係数は、例えば、撮像装置5から観察者6までの距離、眼球601のサイズ、角膜曲率半径、角膜反射位置と瞳孔中心位置との差等を用いた統計処理の結果に基づいて設定される値である。   DPX in Expression (1-1) is the resolution (the number of display pixels) in the x direction (horizontal direction) of the display surface 301. DPY in Expression (1-2) is the resolution of the display surface 301 in the y direction (vertical direction). Moreover, A of Formula (1-1) and B of Formula (1-2) are a conversion factor in the x direction and a conversion factor in the y direction, respectively. The conversion coefficient is set based on the result of statistical processing using, for example, the distance from the imaging device 5 to the observer 6, the size of the eyeball 601, the corneal curvature radius, the difference between the corneal reflection position and the pupil center position, and the like. Value.

本実施形態の情報処理装置2は、一定期間内に撮像された複数の画像から検出した視線位置(X,Y)の分布が所定の範囲内である場合、視線位置の分布に基づいて観察者6が注視している位置を算出する。そして、観察者6が注視している位置が表示装置3の表示面301内における所定の位置である場合、情報処理装置2は、当該所定の位置と対応付けられた情報の入力を受け付ける。例えば、表示装置3に地図を表示している状態で観察者6が地図内のある箇所を注視している場合、情報処理装置2は「観察者が注視している位置を中心として地図(表示画像)を拡大表示する」という情報の入力を受け付ける。以下の説明では、観察者が注視している位置を観察者の注視位置ともいう。   In the information processing apparatus 2 according to the present embodiment, when the distribution of the line-of-sight positions (X, Y) detected from a plurality of images captured within a certain period is within a predetermined range, the observer is based on the distribution of the line-of-sight positions. The position at which 6 is gazing is calculated. When the position at which the observer 6 is gazing is a predetermined position in the display surface 301 of the display device 3, the information processing apparatus 2 receives input of information associated with the predetermined position. For example, when the viewer 6 is gazing at a certain location in the map while the map is displayed on the display device 3, the information processing device 2 reads “the map (displays centering on the position where the viewer is gazing). The input of the information “enlarged display of image)” is accepted. In the following description, the position where the observer is gazing is also referred to as the observer's gazing position.

図3は、注視位置のずれを説明する図である。
本実施形態に係る情報処理システム1においては、画像7から算出した観察者6の注視位置と、観察者6が実際に注視している位置とに、個人差によるずれが生じることがある。例えば、図3に示すように、画像7から抽出した視線位置801が所定の範囲802内に分布している場合、注視位置811の座標(X1,Y1)は各視線位置801の座標の平均を取ることで求められる。ところが、視線位置801の算出式における換算係数A,Bは統計処理の結果に基づいて設定される値であり、観察者6に対する換算係数として最適な値ではない可能性が高い。そのため、図3に示したように、算出した注視位置811の座標(X1,Y1)と、観察者6の実際の注視位置803を示す座標(XR,YR)とにはずれが生じる。このように算出した注視位置と観察者の実際の注視位置とにずれが生じている場合、情報処理装置2は、観察者の意図している処理とは異なる処理を行ってしまう可能性がある。例えば、表示装置3に表示された画像に含まれる入力釦の像の近傍を観察者が注視している場合、実際の注視位置803が入力釦の像の表示領域の外側であっても、算出した注視位置811が入力釦の像の表示領域内になることがある。この場合、情報処理装置2には、観察者が意図しない、入力釦と対応した情報が入力される。したがって、この種の情報処理システム1における情報処理装置2は、算出した注視位置と、観察者の実際の注視位置とのずれを解消する補正(キャリブレーション)を行う。本実施形態では、算出した注視位置を補正する代わりに、視線位置(X,Y)の算出式に対する補正を行う。すなわち、本実施形態では、ズーム、スクロールといったような画像変化前後でユーザーは表示面内で同じ対象物に追従、注視し続けることに着目し、画像変化前後での注視位置の変化量と情報処理装置側の画像変化量とをもとに、注視位置の較正(補正)を実施する。以下の説明では、画像から算出した注視位置を算出注視位置ともいう。
FIG. 3 is a diagram for explaining the shift of the gaze position.
In the information processing system 1 according to the present embodiment, there may be a difference due to individual differences between the gaze position of the observer 6 calculated from the image 7 and the position where the observer 6 is actually gazing. For example, as shown in FIG. 3, when the line-of-sight position 801 extracted from the image 7 is distributed within a predetermined range 802, the coordinates (X1, Y1) of the gaze position 811 are the average of the coordinates of each line-of-sight position 801. Required by taking. However, the conversion coefficients A and B in the calculation formula for the line-of-sight position 801 are values set based on the result of statistical processing, and are not likely to be optimal values as conversion coefficients for the observer 6. Therefore, as shown in FIG. 3, there is a difference between the calculated coordinates (X1, Y1) of the gaze position 811 and the coordinates (XR, YR) indicating the actual gaze position 803 of the observer 6. When there is a difference between the gaze position calculated in this way and the actual gaze position of the observer, the information processing apparatus 2 may perform a process different from the process intended by the observer. . For example, when the observer is gazing near the input button image included in the image displayed on the display device 3, the calculation is performed even if the actual gaze position 803 is outside the input button image display area. The gaze position 811 may be within the display area of the input button image. In this case, information corresponding to the input button, which is not intended by the observer, is input to the information processing apparatus 2. Therefore, the information processing apparatus 2 in this type of information processing system 1 performs correction (calibration) to eliminate a deviation between the calculated gaze position and the actual gaze position of the observer. In this embodiment, instead of correcting the calculated gaze position, correction is performed on the calculation formula for the gaze position (X, Y). That is, in this embodiment, attention is paid to the fact that the user keeps following and gazing at the same object on the display surface before and after the image change such as zooming and scrolling. The gaze position is calibrated (corrected) based on the image change amount on the apparatus side. In the following description, the gaze position calculated from the image is also referred to as a calculated gaze position.

図4は、第1の実施形態に係る情報処理装置の機能的構成を示す図である。
図4に示すように、情報処理装置2は、画像取得部201と、表示制御部202と、表示画像生成部203と、表示画像出力部204と、記憶部205と、を備える。
FIG. 4 is a diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment.
As illustrated in FIG. 4, the information processing apparatus 2 includes an image acquisition unit 201, a display control unit 202, a display image generation unit 203, a display image output unit 204, and a storage unit 205.

画像取得部201は、撮像装置5から画像データを取得する。以下の説明では、画像データのことを単に画像ともいう。   The image acquisition unit 201 acquires image data from the imaging device 5. In the following description, the image data is also simply referred to as an image.

表示制御部202は、取得した画像から観察者6の視線位置(X,Y)を検出する処理を行い、検出処理の結果に基づいて表示画像生成部203における表示画像の生成処理を制御する。情報処理システム1を起動させた直後等、画像から観察者6の視線位置(X,Y)が検出されない場合、表示制御部202は、表示画像生成部203に対し初期画面の表示画像を生成する制御信号を出力する。また、画像から観察者6の視線位置(X,Y)が検出された場合、表示制御部202は、観察者6が表示装置3の表示面301を注視しているか否かを判定する。観察者6が表示面301を注視している場合、表示制御部202は、表示画像生成部203に対し、観察者6の注視位置(算出注視位置)を中心として表示面301に表示された像(表示像)を拡大又は縮小させた表示画像を生成する制御信号を出力する。更に、表示制御部202は、表示装置3の表示面301に表示された像を、算出注視位置を中心として拡大表示させたときに、観察者6の視線位置の算出式を補正する処理を行う。この表示制御部202は、視線検出部202aと、注視位置算出部202bと、補正量算出部202cと、を含む。視線検出部202aは、取得した画像から観察者6の視線位置(X,Y)を検出する処理を行う。注視位置算出部202bは、一定期間内における観察者6の視線位置(X,Y)の分布に基づいて観察者6の注視位置を算出する。補正量算出部202cは、表示面301の像を拡大する前の注視位置と拡大した後の注視位置とに基づいて、視線位置(X,Y)の算出式における換算係数A,Bの補正値を算出する。   The display control unit 202 performs processing for detecting the line-of-sight position (X, Y) of the observer 6 from the acquired image, and controls display image generation processing in the display image generation unit 203 based on the result of the detection processing. When the line-of-sight position (X, Y) of the observer 6 is not detected from the image, such as immediately after starting the information processing system 1, the display control unit 202 generates a display image of the initial screen for the display image generation unit 203. Output a control signal. When the line-of-sight position (X, Y) of the observer 6 is detected from the image, the display control unit 202 determines whether or not the observer 6 is gazing at the display surface 301 of the display device 3. When the observer 6 is gazing at the display surface 301, the display control unit 202 displays an image displayed on the display surface 301 around the gazing position (calculated gazing position) of the observer 6 with respect to the display image generation unit 203. A control signal for generating a display image obtained by enlarging or reducing (display image) is output. Furthermore, the display control unit 202 performs a process of correcting the calculation formula for the gaze position of the observer 6 when the image displayed on the display surface 301 of the display device 3 is enlarged and displayed around the calculated gaze position. . The display control unit 202 includes a line-of-sight detection unit 202a, a gaze position calculation unit 202b, and a correction amount calculation unit 202c. The line-of-sight detection unit 202a performs processing for detecting the line-of-sight position (X, Y) of the observer 6 from the acquired image. The gaze position calculation unit 202b calculates the gaze position of the observer 6 based on the distribution of the gaze position (X, Y) of the observer 6 within a certain period. The correction amount calculation unit 202c corrects the conversion coefficients A and B in the calculation formula for the line-of-sight position (X, Y) based on the gaze position before enlarging the image on the display surface 301 and the gaze position after enlarging. Is calculated.

表示画像生成部203は、表示制御部202からの制御信号に基づいて、表示装置3に表示させる表示画像を生成する。表示画像生成部203は、表示面301に表示させる画像のデータを記憶部205の表示用データ205aを読み出して表示画像を生成する。   The display image generation unit 203 generates a display image to be displayed on the display device 3 based on a control signal from the display control unit 202. The display image generation unit 203 reads the display data 205 a of the storage unit 205 from the image data to be displayed on the display surface 301 and generates a display image.

表示画像出力部204は、表示画像生成部203が生成した表示画像を表示装置3に出力する。   The display image output unit 204 outputs the display image generated by the display image generation unit 203 to the display device 3.

記憶部205には、表示用データ205aに加え、表示制御部202が参照する各種のデータを記憶させる。記憶部205に記憶させる各種のデータには、係数初期値205bと、前注視位置205cと、係数補正値205dと、が含まれる。係数初期値205bは、視線位置の算出式(1−1)及び式(1−2)における換算係数A,Bの初期値である。前注視位置205cは、注視位置算出部202bが算出した過去の注視位置である。係数補正値205dは、補正量算出部202cが算出した換算係数A,Bの補正値である。   The storage unit 205 stores various data referred to by the display control unit 202 in addition to the display data 205a. Various data stored in the storage unit 205 includes a coefficient initial value 205b, a front gaze position 205c, and a coefficient correction value 205d. The coefficient initial value 205b is an initial value of the conversion coefficients A and B in the line-of-sight position calculation formulas (1-1) and (1-2). The front gaze position 205c is a past gaze position calculated by the gaze position calculation unit 202b. The coefficient correction value 205d is a correction value of the conversion coefficients A and B calculated by the correction amount calculation unit 202c.

なお、図4においては、画像取得部201、表示制御部202、表示画像生成部203、表示画像出力部204、記憶部205が1台の情報処理装置2に搭載されている例を示しているが、実装のされ方はこれに限る必要はない。例えば、ネットワークを介して接続された複数のコンピュータ上に、各処理部が分散されて配置されても構わない。すなわち、情報処理装置2はコンピュータシステムとして実現されてもよい。   4 illustrates an example in which the image acquisition unit 201, the display control unit 202, the display image generation unit 203, the display image output unit 204, and the storage unit 205 are mounted on one information processing apparatus 2. However, the implementation is not limited to this. For example, the processing units may be distributed and arranged on a plurality of computers connected via a network. That is, the information processing apparatus 2 may be realized as a computer system.

本実施形態の情報処理システム1を稼動させると、情報処理装置2は、まず初期画面の表示画像を生成して表示装置3に表示させる。初期画面の表示画像は、表示画像生成部203が生成する。表示画像生成部203が生成した初期画面の表示画像は、表示画像出力部204を介して表示装置3に出力される。その後、情報処理装置2は、図5A及び図5Bに示したような処理を行う。   When the information processing system 1 of the present embodiment is operated, the information processing apparatus 2 first generates a display image of the initial screen and displays it on the display apparatus 3. The display image generation unit 203 generates a display image of the initial screen. The display image of the initial screen generated by the display image generation unit 203 is output to the display device 3 via the display image output unit 204. Thereafter, the information processing apparatus 2 performs processing as illustrated in FIGS. 5A and 5B.

図5Aは、第1の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。図5Bは、第1の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。   FIG. 5A is a flowchart (No. 1) for explaining a method of correcting a gaze position calculation formula according to the first embodiment. FIG. 5B is a flowchart (part 2) for explaining the correction method for the gaze position calculation formula according to the first embodiment.

情報処理装置2は、図5Aに示すように、まず、撮像装置5から画像を取得して視線を検出する処理(ステップS1)を行う。ステップS1の処理は、画像取得部201と、表示制御部202の視線検出部202aとが行う。画像取得部201は、撮像装置5から画像を取得して視線検出部202aに転送する。視線検出部202aは、取得した画像に含まれる観察者の眼球の部分から角膜反射の位置(PrkX,PrkY)及び瞳孔の中心位置(PupX,PupY)を検出し、式(1−1)及び式(1−2)を用いて観察者の視線位置(X,Y)を算出する。また、1回のステップS1の処理において、視線検出部202aは、N秒分(例えば1秒分)の複数の画像のそれぞれから観察者の視線位置(X,Y)を検出する処理を行う。   As illustrated in FIG. 5A, the information processing apparatus 2 first performs processing (step S1) of acquiring an image from the imaging device 5 and detecting a line of sight. The processing in step S1 is performed by the image acquisition unit 201 and the line-of-sight detection unit 202a of the display control unit 202. The image acquisition unit 201 acquires an image from the imaging device 5 and transfers it to the line-of-sight detection unit 202a. The line-of-sight detection unit 202a detects the position of corneal reflection (PrkX, PrkY) and the center position of the pupil (PupX, PupY) from the part of the eyeball of the observer included in the acquired image, and the expressions (1-1) and (1) The line-of-sight position (X, Y) of the observer is calculated using (1-2). Further, in one process of step S1, the line-of-sight detection unit 202a performs a process of detecting the observer's line-of-sight position (X, Y) from each of a plurality of images for N seconds (for example, 1 second).

次に、情報処理装置2は、観察者が表示装置3の表示面301を注視しているか否かを判定する(ステップS2)。ステップS2の判定は、例えば、視線検出部202aが行う。視線検出部202aは、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)が所定の視野角範囲(例えば3度)の円内に含まれる場合に、観察者6が表示面301を注視していると判定する。観察者6が表示面301を注視していないと判定した場合(ステップS2;No)、情報処理装置2が行う処理はステップS1に戻る。なお、ステップS2の判定は、観察者6の有無の判定を含む。すなわち、観察者6がおらず取得した画像から視線が検出されなかった場合も、ステップS2の判定結果は「No」となる。   Next, the information processing device 2 determines whether or not the observer is gazing at the display surface 301 of the display device 3 (step S2). The determination in step S2 is performed by, for example, the line-of-sight detection unit 202a. The line-of-sight detection unit 202a displays the observer 6 when the line-of-sight position (X, Y) detected from each of the plurality of images for N seconds is included in a circle with a predetermined viewing angle range (for example, 3 degrees). It is determined that the surface 301 is being watched. When it determines with the observer 6 not gazing at the display surface 301 (step S2; No), the process which the information processing apparatus 2 performs returns to step S1. Note that the determination in step S2 includes determination of the presence or absence of the observer 6. That is, even when the observer 6 is not present and the line of sight is not detected from the acquired image, the determination result in step S2 is “No”.

一方、観察者6が表示面301を注視していると判定した場合(ステップS2;Yes)、情報処理装置2は、次に、観察者6の注視位置を算出する(ステップS3)。ステップS3の処理は、注視位置算出部202bが行う。注視位置算出部202bは、観察者6の注視位置(X1,Y1)として、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)の平均値を算出する。   On the other hand, when it is determined that the observer 6 is gazing at the display surface 301 (step S2; Yes), the information processing apparatus 2 next calculates the gazing position of the observer 6 (step S3). The gaze position calculation unit 202b performs the process of step S3. The gaze position calculation unit 202b calculates the average value of the gaze position (X, Y) detected from each of a plurality of images for N seconds as the gaze position (X1, Y1) of the observer 6.

観察者6の注視位置(X1,Y1)を算出すると、情報処理装置2は、次に、注視位置を中心として表示像を拡大表示させる(ステップS4)。ステップS4の処理は、表示画像制御部202、表示画像生成部203、及び表示画像出力部204が行う。表示画像制御部202は、ステップS3で観察者6の注視位置(X1,Y1)を算出した後、注視位置(X1,Y1)を中心として表示像を拡大させる制御信号を表示画像生成部203に出力する。表示画像生成部203は、制御信号に従って、現在表示装置3に表示させている像(表示像)についての表示用データを記憶部205の表示用データ205aから読み出し、注視位置を中心として所定の拡大率で拡大した表示画像を生成する。表示画像出力部205は、表示画像生成部204が生成した表示画像を表示装置3に出力する。   When the gaze position (X1, Y1) of the observer 6 is calculated, the information processing apparatus 2 next enlarges and displays the display image around the gaze position (step S4). The process of step S4 is performed by the display image control unit 202, the display image generation unit 203, and the display image output unit 204. The display image control unit 202 calculates a gaze position (X1, Y1) of the observer 6 in step S3, and then sends a control signal for enlarging the display image around the gaze position (X1, Y1) to the display image generation unit 203. Output. The display image generation unit 203 reads display data about an image (display image) currently displayed on the display device 3 from the display data 205a of the storage unit 205 according to the control signal, and performs a predetermined enlargement with the gaze position as the center. A display image enlarged at a rate is generated. The display image output unit 205 outputs the display image generated by the display image generation unit 204 to the display device 3.

なお、ステップS4において表示画像を拡大させる場合、拡大前の表示画像における像が所定の拡大率まで段階的(連続的)に拡大されるよう表示画像を変化させることが好ましい。   In addition, when enlarging a display image in step S4, it is preferable to change a display image so that the image in the display image before expansion is expanded stepwise (continuously) to a predetermined magnification.

ステップS4の後、情報処理装置2は、表示像を拡大する前の注視位置がシフト量算出領域内であるか否かを判定する(ステップS5)。ステップS5の判定は、例えば、注視位置算出部202bが行う。シフト量算出領域は、視線位置の算出式を補正するか否かの判定基準として表示面301内に設定した領域である。拡大する前の注視位置がシフト量算出領域の外側である場合(ステップS5;No)、情報処理装置2は、図5Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。   After step S4, the information processing apparatus 2 determines whether or not the gaze position before enlarging the display image is within the shift amount calculation region (step S5). The determination in step S5 is performed by, for example, the gaze position calculation unit 202b. The shift amount calculation area is an area set in the display screen 301 as a criterion for determining whether or not to correct the gaze position calculation formula. When the gaze position before enlargement is outside the shift amount calculation region (step S5; No), the information processing apparatus 2 ends the process without correcting the coefficient of the gaze position calculation formula as illustrated in FIG. 5B. To do.

一方、拡大する前の注視位置がシフト量算出領域内である場合(ステップS5;Yes)、情報処理装置2は、次に、拡大する前の注視位置を保持する(ステップS6)。ステップS6の処理は、注視位置算出部202bが行う。注視位置算出部202bは、ステップS3で算出した注視位置(X1,Y1)を、前注視位置205cとして記憶部205に記憶させる。   On the other hand, when the gaze position before enlargement is within the shift amount calculation region (step S5; Yes), the information processing apparatus 2 next holds the gaze position before enlargement (step S6). The gaze position calculation unit 202b performs the process of step S6. The gaze position calculation unit 202b stores the gaze position (X1, Y1) calculated in step S3 in the storage unit 205 as the front gaze position 205c.

ステップS6の後、情報処理装置2は、撮像装置5から画像を取得して視線を検出する処理(ステップS7)を行い、観察者6が表示面301を注視しているか否かを判定する(ステップS8)。ステップS7の処理は、ステップS2の処理と同様、画像取得部201と視線検出部202aが行う。また、ステップS8の判定は、ステップS2の判定と同様、視線検出部202aが行う。   After step S6, the information processing apparatus 2 performs processing (step S7) of acquiring an image from the imaging device 5 and detecting a line of sight (step S7), and determines whether or not the observer 6 is gazing at the display surface 301 (step S7). Step S8). The process in step S7 is performed by the image acquisition unit 201 and the line-of-sight detection unit 202a as in the process in step S2. The determination in step S8 is performed by the line-of-sight detection unit 202a as in the determination in step S2.

表示像を拡大した後、観察者6が表示面301を注視していない場合(ステップS8;No)、情報処理装置2は、図5Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。   After the display image is enlarged, when the observer 6 is not gazing at the display surface 301 (step S8; No), the information processing apparatus 2 does not correct the coefficient of the line-of-sight position calculation formula as shown in FIG. 5B. The process ends.

一方、表示像を拡大した後も観察者6が表示面301を注視している場合(ステップS8;Yes)、情報処理装置2は、次に、拡大後の注視位置(X2,Y2)を算出する(ステップS9)。ステップS9の処理は、ステップS3の処理と同様、注視位置算出部202bが行う。   On the other hand, when the observer 6 is gazing at the display surface 301 even after enlarging the display image (step S8; Yes), the information processing apparatus 2 next calculates the gaze position (X2, Y2) after enlargement. (Step S9). The gaze position calculation unit 202b performs the process in step S9 as in the process in step S3.

表示像を拡大した後の注視位置(X2,Y2)を算出すると、情報処理装置2は、次に、図5Bに示すように、算出した注視位置(X1,Y1)と観察者6の実際の注視位置とのずれ量(シフト量)を算出する(ステップS10)。ステップS10の処理は、補正量算出部202cが行う。補正量算出部202cは、表示画像を拡大する前に算出した第1の注視位置(X1,Y1)と、拡大した後に算出した第2の注視位置と、拡大率とに基づいて、x方向のシフト量diffX及びy方向のシフト量diffYを算出する。   When the gaze position (X2, Y2) after enlarging the display image is calculated, the information processing apparatus 2 next displays the calculated gaze position (X1, Y1) and the actual viewer 6 as shown in FIG. 5B. A deviation amount (shift amount) from the gaze position is calculated (step S10). The correction amount calculation unit 202c performs the process of step S10. Based on the first gaze position (X1, Y1) calculated before enlarging the display image, the second gaze position calculated after enlarging, and the magnification rate, the correction amount calculation unit 202c The shift amount diffX and the shift amount diffY in the y direction are calculated.

シフト量diffX,diffYを算出すると、情報処理装置2は、次に、算出したシフト量が閾値以上であるか否かを判定する(ステップS11)。シフト量が閾値よりも小さい場合(ステップS11;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。   After calculating the shift amounts diffX and diffY, the information processing apparatus 2 next determines whether or not the calculated shift amount is equal to or greater than a threshold value (step S11). If the shift amount is smaller than the threshold (step S11; No), the information processing apparatus 2 ends the process without correcting the coefficient of the line-of-sight position calculation formula.

一方、シフト量が閾値以上である場合(ステップS11;Yes)、情報処理装置2は、次に、視線位置算出式の換算係数A,Bを補正する(ステップS12)。ステップS12の処理は、補正量算出部202cが行う。補正量算出部202cは、拡大前の注視位置(X1,Y1)と、表示像の拡大率と、算出したシフト量diffX,diffYとを用いて、式(1−1)の換算係数A及び式(1−2)の換算係数Bを補正する。   On the other hand, when the shift amount is equal to or greater than the threshold (step S11; Yes), the information processing apparatus 2 next corrects the conversion coefficients A and B of the line-of-sight position calculation formula (step S12). The correction amount calculation unit 202c performs the process in step S12. The correction amount calculation unit 202c uses the gaze position (X1, Y1) before enlargement, the enlargement ratio of the display image, and the calculated shift amounts diffX, diffY, and the conversion coefficient A and the equation (1-1). The conversion coefficient B of (1-2) is corrected.

補正量算出部202cは、換算係数の補正値A’,B’を係数補正値205dとして記憶部205に記憶させる。これにより、表示像を拡大する処理と連動した視線位置算出式の係数を補正する処理が終了する。   The correction amount calculating unit 202c stores the correction values A ′ and B ′ of the conversion coefficient in the storage unit 205 as the coefficient correction value 205d. Thereby, the process of correcting the coefficient of the line-of-sight position calculation formula linked with the process of enlarging the display image is completed.

図6は、拡大表示の例を示す図である。
本実施形態の情報処理システム1は、例えば、地図を表示するサイネージ等に適用可能である。この種のサイネージにおいては、例えば、図6の(a)に示すように、表示装置3の表示面301に近隣の地図が表示されている。そして、表示面301と向かい合う位置にいる観察者6が表示面301に表示された地図上のある点811を注視すると、図示しない情報処理装置2は注視位置811の座標(X1,Y1)を算出する。その後、情報処理装置2は、注視位置811の座標(X1,Y1)を中心として地図を拡大表示させる処理(ステップS4)を行う。このとき、情報処理装置2は、図6の(a)に示した領域821内の像が注視位置811を中心としてズームアップされるよう段階的に拡大させた複数の表示画像を生成して表示装置3に順次表示させる。すなわち、観察者6が表示面301に表示された地図上のある点811を注視した場合、表示装置3の表示面301に表示される像は、図6の(b)に示すように、注視位置811及びその周囲を拡大した像に段階的に変化する。なお、注視位置811を中心として地図を拡大させる場合、領域821のx方向の寸法及びy方向の寸法は、それぞれ、表示面301の寸法と拡大率の逆数とから算出する。また、領域821の左上の角部の位置(X5,Y5)は、注視位置811から表示面の左上の角部までの距離及び方向と、拡大率の逆数とから算出する。
FIG. 6 is a diagram illustrating an example of enlarged display.
The information processing system 1 according to the present embodiment is applicable to, for example, a signage that displays a map. In this type of signage, for example, a neighboring map is displayed on the display surface 301 of the display device 3 as shown in FIG. When the viewer 6 at the position facing the display surface 301 gazes at a certain point 811 on the map displayed on the display surface 301, the information processing apparatus 2 (not shown) calculates the coordinates (X1, Y1) of the gaze position 811. To do. Thereafter, the information processing apparatus 2 performs a process of displaying the map in an enlarged manner around the coordinates (X1, Y1) of the gaze position 811 (step S4). At this time, the information processing apparatus 2 generates and displays a plurality of display images that are enlarged step by step so that the image in the area 821 shown in FIG. 6A is zoomed up around the gaze position 811. The information is sequentially displayed on the device 3. That is, when the observer 6 gazes at a certain point 811 on the map displayed on the display surface 301, the image displayed on the display surface 301 of the display device 3 is as shown in (b) of FIG. The position 811 and its surroundings gradually change to an enlarged image. When the map is enlarged with the gaze position 811 as the center, the size in the x direction and the size in the y direction of the region 821 are calculated from the size of the display surface 301 and the reciprocal of the magnification rate, respectively. Further, the position (X5, Y5) of the upper left corner of the region 821 is calculated from the distance and direction from the gaze position 811 to the upper left corner of the display surface and the reciprocal of the enlargement ratio.

このように、観察者6の注視位置811を中心として地図を拡大することにより、拡大の前後において表示面301内の注視位置811が変わらないため、拡大後に観察者6が注視していた位置を見失う可能性が低くなる。   In this way, by enlarging the map around the gaze position 811 of the observer 6, the gaze position 811 in the display surface 301 does not change before and after the enlargement. The possibility of losing sight is reduced.

ところが、情報処理装置2が算出した注視位置と、観察者6の実際の注視位置とには、上記のように角膜反射の個人差によるずれが生じる。そのため、情報処理装置2は、注視位置に対する補正量を算出する処理を行う。本実施形態では、補正量を算出する処理として、算出した注視位置と、観察者の実際の注視位置とのずれ量(シフト量)を求め、当該シフト量に基づいて視線位置算出式の換算係数A,Bを観察者6に適した値に補正する処理を行う。   However, as described above, a shift due to individual differences in corneal reflection occurs between the gaze position calculated by the information processing apparatus 2 and the actual gaze position of the observer 6. Therefore, the information processing device 2 performs a process of calculating a correction amount for the gaze position. In the present embodiment, as the process of calculating the correction amount, a deviation amount (shift amount) between the calculated gaze position and the actual gaze position of the observer is obtained, and the conversion coefficient of the gaze position calculation formula based on the shift amount A process of correcting A and B to values suitable for the observer 6 is performed.

図7Aは、シフト量の算出方法を説明する図(その1)である。図7Bは、シフト量の算出方法を説明する図(その2)である。   FIG. 7A is a diagram (part 1) illustrating a method for calculating a shift amount. FIG. 7B is a diagram (part 2) for explaining the shift amount calculation method.

上記のように、情報処理装置2は、まず、換算係数A,Bの初期値(係数初期値)を用いた視線位置算出式により、観察者6の注視位置811の座標(X1,Y1)を算出する。ここで、図7Aの(a)に示すように、算出した注視位置811と観察者6の実際の注視位置813とにずれが生じているとする。この場合、観察者6の実際の注視位置813が座標(XR,YR)であるとすると、シフト量diffX及びdiffYは、下記式(2−1)及び式(2−2)で与えられる。
diffX=XR−X1 ・・・(2−1)
diffY=YR−Y1 ・・・(2−2)
As described above, the information processing apparatus 2 first determines the coordinates (X1, Y1) of the gaze position 811 of the observer 6 by the gaze position calculation formula using the initial values (coefficient initial values) of the conversion coefficients A and B. calculate. Here, as shown in FIG. 7A (a), it is assumed that there is a deviation between the calculated gaze position 811 and the actual gaze position 813 of the observer 6. In this case, assuming that the actual gaze position 813 of the observer 6 is the coordinates (XR, YR), the shift amounts diffX and diffY are given by the following equations (2-1) and (2-2).
diffX = XR−X1 (2-1)
diffY = YR−Y1 (2-2)

しかしながら、観察者6の実際の注視位置813の座標(XR,YR)は未知であるため、下記式(2−1)及び式(2−2)からシフト量diffX及びdiffYを算出することはできない。そのため、情報処理装置2は、注視位置811を中心として表示像を拡大するときの拡大率zoomと、拡大する前後における算出注視位置の移動量とに基づいて、シフト量diffX及びdiffYを算出する。   However, since the coordinates (XR, YR) of the actual gaze position 813 of the observer 6 are unknown, the shift amounts diffX and diffY cannot be calculated from the following expressions (2-1) and (2-2). . Therefore, the information processing apparatus 2 calculates the shift amounts diffX and diffY based on the zoom ratio zoom when the display image is enlarged around the gaze position 811 and the movement amount of the calculated gaze position before and after the enlargement.

拡大前の算出注視位置811を中心として表示像を拡大すると、図7の(b)に示したように、拡大前に注視位置813に表示されていた像815の表示位置(X0,Y0)は、算出注視位置811及び拡大前の注視位置813を通る直線上に位置する。そのため、図7Aの(b)に示すように、拡大前の算出注視位置811と実際の注視位置813との距離をLとすると、算出注視位置811と像815の表示位置との距離はzoom・Lとなる。このように、算出注視位置811を中心として表示像を拡大したことにより、観察者6が実際に注視している像の表示位置がずれる。そのため、観察者6は、注視位置(視線位置)を座標(XR,YR)から座標(X0,Y0)に移動させる。この注視位置の移動の前後において、シフト量diffX及びdiffYは略同一である。したがって、図7Bの(c)に示すように、観察者6が座標(X0,Y0)を注視しているときの算出注視位置816の座標は、実際の注視位置から距離Lの座標(X2,Y2)となる。   When the display image is enlarged around the calculated gaze position 811 before enlargement, the display position (X0, Y0) of the image 815 displayed at the gaze position 813 before enlargement is as shown in FIG. , Located on a straight line passing through the calculated gaze position 811 and the gaze position 813 before enlargement. Therefore, as shown in FIG. 7A (b), when the distance between the calculated gaze position 811 before enlargement and the actual gaze position 813 is L, the distance between the calculated gaze position 811 and the display position of the image 815 is zoom · L. Thus, by enlarging the display image with the calculated gaze position 811 as the center, the display position of the image that the observer 6 is actually gazing is shifted. Therefore, the observer 6 moves the gaze position (gaze position) from the coordinates (XR, YR) to the coordinates (X0, Y0). Before and after the movement of the gaze position, the shift amounts diffX and diffY are substantially the same. Therefore, as shown in (c) of FIG. 7B, the coordinates of the calculated gaze position 816 when the observer 6 is gazing at the coordinates (X0, Y0) are the coordinates (X2, Y2).

上記のように、拡大前に注視位置813に表示されていた像815の表示位置(X0,Y0)は、算出注視位置811及び拡大前の注視位置813を通る直線上に位置する。そのため、像815の表示位置(X0,Y0)と、拡大前の算出注視位置811の座標(X1,Y1)と、拡大後の算出注視位置816の座標(X2,Y2)とは、同一直線上の点とみなすことができる。したがって、これら3点の座標を用いることにより、シフト量diffX及びdiffYは、下記式(3−1)及び式(3−2)で表すことができる。
diffX=(X2−X1)/(zoom−1) ・・・(3−1)
diffY=(Y2−Y1)/(zoom−1) ・・・(3−2)
As described above, the display position (X0, Y0) of the image 815 displayed at the gaze position 813 before enlargement is located on a straight line passing through the calculated gaze position 811 and the gaze position 813 before enlargement. Therefore, the display position (X0, Y0) of the image 815, the coordinates (X1, Y1) of the calculated gaze position 811 before enlargement, and the coordinates (X2, Y2) of the calculated gaze position 816 after enlargement are on the same straight line. It can be regarded as a point. Therefore, by using the coordinates of these three points, the shift amounts diffX and diffY can be expressed by the following formulas (3-1) and (3-2).
diffX = (X2-X1) / (zoom-1) (3-1)
diffY = (Y2−Y1) / (zoom−1) (3-2)

情報処理装置2は、式(3−1)により算出したシフト量diffXが閾値以上である場合、式(1−1)の視線位置計算式における換算係数Aを補正する。視線位置のx方向の座標値を算出する式(1−1)は、下記式(4−1)を満たす式に補正する。
XR=X1+diffX
=A'・(PupX1−PrkX1)+DPX/2 ・・・(4−1)
The information processing device 2 corrects the conversion coefficient A in the gaze position calculation formula of Formula (1-1) when the shift amount diffX calculated by Formula (3-1) is greater than or equal to the threshold value. Formula (1-1) for calculating the coordinate value of the line-of-sight position in the x direction is corrected to a formula that satisfies the following formula (4-1).
XR = X1 + diffX
= A '· (PupX1−PrkX1) + DPX / 2 (4-1)

式(4−1)の換算係数A'は、下記式(5−1)及び式(6−1)により算出する。
A'・(PupX1−PrkX1)=A・(PupX1−PrkX1)+diffX ・・・(5−1)
A'={A・(PupX1−PrkX1)+diffX}/(PupX1−PrkX1) ・・・(6−1)
The conversion coefficient A ′ in the formula (4-1) is calculated by the following formula (5-1) and formula (6-1).
A ′ · (PupX1−PrkX1) = A · (PupX1−PrkX1) + diffX (5-1)
A ′ = {A · (PupX1−PrkX1) + diffX} / (PupX1−PrkX1) (6-1)

また、情報処理装置2は、式(3−2)により算出したシフト量diffYが閾値以上である場合、式(1−2)の視線位置計算式における換算係数Bを補正する。視線位置のy方向の座標値を算出する式(1−2)は、下記式(4−2)を満たす式に補正する。
YR=Y1+diffY
=DPY+B'・(PupY1−PrkY1) ・・・(4−2)
Further, when the shift amount diffY calculated by the equation (3-2) is equal to or larger than the threshold value, the information processing apparatus 2 corrects the conversion coefficient B in the gaze position calculation equation of the equation (1-2). Formula (1-2) for calculating the coordinate value in the y direction of the line-of-sight position is corrected to a formula that satisfies the following formula (4-2).
YR = Y1 + diffY
= DPY + B '・ (PupY1-PrkY1) (4-2)

式(4−2)の換算係数B'は、下記式(5−2)及び式(6−2)により算出する。
B'・(PupY1−PrkY1)=B・(PupY1−PrkY1)+diffY ・・・(5−2)
B'={B・(PupY1−PrkY1)+diffY}/(PupY1−PrkY1) ・・・(6−2)
The conversion coefficient B ′ in the formula (4-2) is calculated by the following formula (5-2) and formula (6-2).
B ′ · (PupY1−PrkY1) = B · (PupY1−PrkY1) + diffY (5-2)
B ′ = {B · (PupY1−PrkY1) + diffY} / (PupY1−PrkY1) (6-2)

すなわち、情報処理装置2は、式(4−1)及び式(6−1)を用いて算出した換算係数A’と、式(4−2)及び式(6−2)を用いて算出した換算係数B’とを、係数補正値205eとして記憶部205に記憶させる。以後、情報処理装置2は、観察者6の注視位置が算出されなくなるか、又は観察者6の注視位置を中心として表示像を拡大し視線位置算出式が再度補正されるまで、補正後の換算係数A’,B’(係数補正値)を用いて観察者6の視線位置を算出する。   That is, the information processing apparatus 2 calculates using the conversion coefficient A ′ calculated using the equations (4-1) and (6-1), and the equations (4-2) and (6-2). The conversion coefficient B ′ is stored in the storage unit 205 as the coefficient correction value 205e. Thereafter, the information processing device 2 performs the conversion after the correction until the gaze position of the observer 6 is not calculated, or the display image is enlarged around the gaze position of the observer 6 and the gaze position calculation formula is corrected again. The line-of-sight position of the observer 6 is calculated using the coefficients A ′ and B ′ (coefficient correction values).

なお、上記のような方法でシフト量を算出し視線位置算出式の換算係数を正確に補正することができるのは、拡大前に観察者6が実際に注視している位置813に表示されている像が拡大後も表示面301に表示されている場合に限られる。そのため、本実施形態の視線位置算出式の補正方法では、上記のように表示面301内にシフト量算出領域を設定し、拡大前の注視位置がシフト量算出領域内である場合にのみ、シフト量を算出して視線位置算出式の換算係数を補正する。   Note that the shift amount can be calculated by the method as described above, and the conversion coefficient of the gaze position calculation formula can be accurately corrected, which is displayed at the position 813 where the observer 6 is actually gazing before enlargement. This is limited to the case where the displayed image is still displayed on the display surface 301 after being enlarged. Therefore, in the correction method of the line-of-sight position calculation formula of this embodiment, the shift amount calculation area is set in the display surface 301 as described above, and the shift is performed only when the gaze position before enlargement is within the shift amount calculation area. The amount is calculated to correct the conversion coefficient of the gaze position calculation formula.

図8は、シフト量算出領域を説明する図である。
算出注視位置811を中心として表示像を拡大させる場合、観察者の実際の注視位置813が、注視位置811と、表示面301における注視位置811から最も近い辺との間に位置していると、拡大前の注視位置の像が拡大後に表示されない可能性が高い。特に、算出した注視位置811から表示面301の辺までの距離が短い場合に、拡大前の注視位置の像が拡大後に表示されない可能性が高い。拡大前の注視位置の像が拡大後に表示されない場合、拡大後も観察者6が表示面301を注視していたとしても、拡大の前後において観察者6が注視している像が異なる。よって、正確なシフト量diffX,diffYを算出することができず、視線位置算出式の換算係数A,Bに対し誤った補正を行ってしまう可能性がある。
FIG. 8 is a diagram for explaining the shift amount calculation region.
When enlarging the display image around the calculated gaze position 811, the actual gaze position 813 of the observer is located between the gaze position 811 and the side closest to the gaze position 811 on the display surface 301. There is a high possibility that the image at the gaze position before enlargement is not displayed after enlargement. In particular, when the calculated distance from the gaze position 811 to the side of the display surface 301 is short, there is a high possibility that the image at the gaze position before magnification is not displayed after the magnification. When the image at the gaze position before the enlargement is not displayed after the enlargement, even if the observer 6 is gazing at the display surface 301 even after the enlargement, the images that the observer 6 is gazing before and after the enlargement are different. Therefore, the accurate shift amounts diffX and diffY cannot be calculated, and there is a possibility that the correction coefficients A and B in the gaze position calculation formula are erroneously corrected.

そこで、本実施形態に係る視線位置の算出式の補正方法では、図8に示すように、表示装置3の表示面301内にシフト量算出領域301aを設定する。シフト量算出領域301aを設定する際には、上記のような理由から、表示面301における正確なシフト量を算出することができない可能性の高い領域(言い換えるとシフト量を算出しない領域)を基準に設定する。例えば、図8に示したように、表示面301のx方向(水平方向)の各辺からそれぞれ距離CEXの範囲と、表示面301の上辺から距離CEYの範囲とをシフト量を算出しない領域に設定することにより、シフト量算出領域301aが定まる。シフト量を算出しない領域の範囲を表す距離CEX,CEYは、それぞれ、拡大率zoomと、補正対象とするシフト量の値とに基づいて設定する。例えば、拡大率が1.5倍であり、補正後の換算係数A',B'が初期値A,Bの0.8倍程度となるシフト量を補正対象とした場合、距離CEX及びCEYは、それぞれ、下記式(7−1)及び式(7−2)に基づいて算出する。
CEX={DPX・(1-0.8)・1.5}/2 ・・・(7−1)
CEY=DPY・(1-0.8)・1.5 ・・・(7−2)
Therefore, in the method for correcting the gaze position calculation formula according to the present embodiment, a shift amount calculation area 301a is set in the display surface 301 of the display device 3 as shown in FIG. When setting the shift amount calculation region 301a, for the reason described above, a region that is highly unlikely to be able to calculate an accurate shift amount on the display surface 301 (in other words, a region that does not calculate the shift amount) is used as a reference. Set to. For example, as shown in FIG. 8, the range of the distance CEX from each side in the x direction (horizontal direction) of the display surface 301 and the range of the distance CEY from the upper side of the display surface 301 are areas where the shift amount is not calculated. By setting, the shift amount calculation area 301a is determined. The distances CEX and CEY representing the range of the region where the shift amount is not calculated are set based on the enlargement ratio zoom and the shift amount value to be corrected. For example, when the enlargement ratio is 1.5 times, and the shift amount for which the corrected conversion coefficients A ′ and B ′ are about 0.8 times the initial values A and B is to be corrected, the distances CEX and CEY are , Respectively, based on the following formula (7-1) and formula (7-2).
CEX = {DPX ・ (1-0.8) ・ 1.5} / 2 (7-1)
CEY = DPY ・ (1-0.8) ・ 1.5 (7-2)

例えば、表示装置3の表示面301の解像度が1920×1080画素である場合、式(7−1)からCEX=288となり、式(7−2)からCEY=324となる。そのため、表示面301の左端及び右端から幅288画素の範囲、並びに表示面301の上端から幅324画素の範囲を、シフト量を算出しない領域に設定する。   For example, when the resolution of the display surface 301 of the display device 3 is 1920 × 1080 pixels, CEX = 288 from Expression (7-1), and CEY = 324 from Expression (7-2). For this reason, a range of 288 pixels wide from the left and right ends of the display surface 301 and a range of 324 pixels wide from the upper end of the display surface 301 are set as regions where the shift amount is not calculated.

なお、シフト量算出範囲301aは、図8に示した領域に限らず、表示面301内の任意の位置に任意の寸法で設定することが可能である。例えば、表示面301の上下方向についても、左右方向と同様、シフト量算出範囲301aの上方及び下方にシフト量を算出しない範囲を設定してもよい。また、拡大表示の対象となる像を表示する領域が表示面301内の一部の領域に限定されている場合、拡大表示の対象となる像を表示する領域の位置及び寸法に合わせてシフト量算出範囲301aを設定してもよい。例えば、表示面301を左右に2分割して左半分の領域のみに拡大表示の対象となる像を表示させる場合、表示面301の左半分の領域内のみにシフト量算出範囲を設定してもよい。   Note that the shift amount calculation range 301a is not limited to the area shown in FIG. 8, and can be set at an arbitrary position in the display surface 301 with an arbitrary dimension. For example, in the vertical direction of the display surface 301, similarly to the horizontal direction, a range in which the shift amount is not calculated may be set above and below the shift amount calculation range 301a. In addition, when the area for displaying the image to be enlarged is limited to a part of the area on the display surface 301, the shift amount is adjusted in accordance with the position and size of the area for displaying the image to be enlarged. The calculation range 301a may be set. For example, when the display surface 301 is divided into left and right parts and an image to be enlarged is displayed only in the left half region, the shift amount calculation range may be set only in the left half region of the display surface 301. Good.

以上のように、本実施形態に係る情報処理装置2は、観察者6が表示面301を注視した際の拡大表示と連動して視線位置の算出式を補正する。この際、視線位置の算出式は拡大前後の注視位置と拡大率とに基づいて補正するので、観察者6に補正のための装置を操作させることなく視線位置の算出式を補正することができる。また、本実施形態に係る情報処理装置2では、拡大前後の注視位置と拡大率とに基づいて視線位置の算出式を補正するので、補正用のテスト画像に限らず、任意の画像を表示装置に表示させた状態で補正することが可能となる。例えば、地図等のコンテンツを観察者6に提供する情報処理システム1の場合、上記のように、表示装置3に表示させた地図を拡大表示する際に視線位置の算出式を補正することができる。そのため、表示装置3に表示させたテスト画面内の特徴点を所定の順序で注視する等の動作を観察者に行わせることなく、視線位置の算出式を補正することができる。したがって、本実施形態の情報処理システム1によれば、観察者6が視線位置の算出式を補正するための処理を行う手間を省くことができる。   As described above, the information processing apparatus 2 according to the present embodiment corrects the calculation formula for the line-of-sight position in conjunction with the enlarged display when the viewer 6 looks at the display surface 301. At this time, since the gaze position calculation formula is corrected based on the gaze position before and after the magnification and the magnification rate, the gaze position calculation formula can be corrected without causing the observer 6 to operate the correction device. . Moreover, in the information processing apparatus 2 according to the present embodiment, the gaze position calculation formula is corrected based on the gaze position before and after the enlargement and the enlargement rate, so that the display device is not limited to the correction test image. It is possible to correct the image displayed on the screen. For example, in the case of the information processing system 1 that provides content such as a map to the observer 6, the gaze position calculation formula can be corrected when the map displayed on the display device 3 is enlarged as described above. . Therefore, the gaze position calculation formula can be corrected without causing the observer to perform an operation such as gazing at the feature points in the test screen displayed on the display device 3 in a predetermined order. Therefore, according to the information processing system 1 of the present embodiment, it is possible to save labor for the observer 6 to perform a process for correcting the gaze position calculation formula.

なお、視線位置の算出式を補正するタイミングは、表示画像を拡大するときに限らず、例えば、観察者6の注視位置を中心として表示画像を縮小するときであってもよい。また、拡大又は縮小する表示画像は、観察者6に提供するコンテンツの像に限らず、補正用の画像であってもよい。補正用画像は、例えば、観察者に注視させる位置が一点だけ示された画像でよい。また、観察者6は、補正用画像内の指定位置を注視するだけでよい。そのため、観察者6が行う動作は、画像内の複数の特徴点を所定の順序で注視するような動作と比べて非常に少なくなる。よって、補正用の画像を用いて視線位置の算出式を補正する際の処理が軽減される。   The timing for correcting the gaze position calculation formula is not limited to when the display image is enlarged, but may be, for example, when the display image is reduced around the gaze position of the observer 6. The display image to be enlarged or reduced is not limited to the content image provided to the viewer 6 but may be a correction image. The correction image may be, for example, an image in which only one position indicated by the observer is shown. Further, the observer 6 only needs to gaze at the designated position in the correction image. Therefore, the operation performed by the observer 6 is extremely less than an operation in which a plurality of feature points in the image are watched in a predetermined order. Therefore, the processing for correcting the gaze position calculation formula using the correction image is reduced.

また、観察者6の視線の検出方法は、本実施形態で挙げた瞳孔−角膜反射法に限らず、他の方法(例えば画像内の目頭の位置と虹彩の中心位置とに基づいて検出する方法)であってもよい。   Further, the method of detecting the line of sight of the observer 6 is not limited to the pupil-corneal reflection method described in the present embodiment, and other methods (for example, a method of detecting based on the position of the eye head in the image and the center position of the iris). ).

更に、図1及び図4に示した情報処理装置2は、観察者6の視線位置に基づいて情報の入力を受け付けるだけでなく、キーボード装置、マウス装置、及びタッチパネル装置等の入力装置からの情報の入力も受け付けるものであってもよい。これらの入力装置は、本実施形態の情報処理システム1に必須の構成ではない。しかしながら、これらの入力装置を併用することでより多くの種類の情報を入力可能となり、観察者の利便性を向上させることが可能となる。   Further, the information processing apparatus 2 shown in FIGS. 1 and 4 not only accepts input of information based on the line-of-sight position of the observer 6, but also information from input devices such as a keyboard device, a mouse device, and a touch panel device. May also be accepted. These input devices are not essential components for the information processing system 1 of the present embodiment. However, by using these input devices in combination, it is possible to input more types of information, and it is possible to improve the convenience for the observer.

[実施形態2]
本実施形態に係る情報処理システム1では、情報処理装置2が行う表示画像のスクロールと連動して視線位置の算出式を補正する。本実施形態に係る情報処理システム1は、図1に示したような構成であり、情報処理装置2と、表示装置3と、光源4と、撮像装置5と、を備える。また、情報処理装置2の機能的構成は、図4に示したような構成であり、画像取得部201と、表示制御部202と、表示画像生成部203と、表示画像出力部204と、記憶部205と、を備える。なお、情報処理装置2の表示制御部202は、観察者6が表示面301内の所定位置を注視した場合に、表示している像が所定の方向に所定の移動量だけ並進移動した表示画像を生成する制御信号を表示画像生成部203に転送する。
[Embodiment 2]
In the information processing system 1 according to the present embodiment, the gaze position calculation formula is corrected in conjunction with the scrolling of the display image performed by the information processing apparatus 2. The information processing system 1 according to the present embodiment has a configuration as illustrated in FIG. 1 and includes an information processing device 2, a display device 3, a light source 4, and an imaging device 5. The functional configuration of the information processing apparatus 2 is the configuration as shown in FIG. 4. The image acquisition unit 201, the display control unit 202, the display image generation unit 203, the display image output unit 204, and the storage Unit 205. Note that the display control unit 202 of the information processing device 2 displays a display image in which the displayed image is translated by a predetermined amount of movement in a predetermined direction when the observer 6 gazes at a predetermined position in the display surface 301. Is transferred to the display image generation unit 203.

図9Aは、第2の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。図9Bは、第2の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。   FIG. 9A is a flowchart (No. 1) for explaining a method of correcting a gaze position calculation formula according to the second embodiment. FIG. 9B is a flowchart (No. 2) for explaining the correction method of the gaze position calculation formula according to the second embodiment.

本実施形態の情報処理装置2は、図9Aに示すように、まず、撮像装置5から画像を取得して視線を検出する処理(ステップS1)を行う。ステップS1の処理は、画像取得部201と、表示制御部202の視線検出部202aとが行う。画像取得部201は、撮像装置5から画像を取得して視線検出部202aに転送する。視線検出部202aは、取得した画像に含まれる観察者の眼球の部分から角膜反射の位置(PrkX,PrkY)及び瞳孔の中心位置(PupX,PupY)を検出し、式(1−1)及び式(1−2)を用いて観察者の視線位置(X,Y)を算出する。また、1回のステップS1の処理において、視線検出部202aは、N秒分(例えば1秒分)の複数の画像のそれぞれから観察者の視線位置(X,Y)を検出する処理を行う。   As illustrated in FIG. 9A, the information processing apparatus 2 according to the present embodiment first performs processing (step S1) of acquiring an image from the imaging device 5 and detecting a line of sight. The processing in step S1 is performed by the image acquisition unit 201 and the line-of-sight detection unit 202a of the display control unit 202. The image acquisition unit 201 acquires an image from the imaging device 5 and transfers it to the line-of-sight detection unit 202a. The line-of-sight detection unit 202a detects the position of corneal reflection (PrkX, PrkY) and the center position of the pupil (PupX, PupY) from the part of the eyeball of the observer included in the acquired image, and the expressions (1-1) and (1) The line-of-sight position (X, Y) of the observer is calculated using (1-2). Further, in one process of step S1, the line-of-sight detection unit 202a performs a process of detecting the observer's line-of-sight position (X, Y) from each of a plurality of images for N seconds (for example, 1 second).

次に、情報処理装置2は、観察者が表示装置3の表示面301を注視しているか否かを判定する(ステップS2)。ステップS2の判定は、例えば、視線検出部202aが行う。視線検出部202aは、例えば、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)が所定の視野角範囲(例えば3度)の円内に含まれる場合に、観察者6が表示面301を注視していると判定する。観察者6が表示面301を注視していないと判定した場合(ステップS2;No)、情報処理装置2が行う処理はステップS1に戻る。なお、ステップS2の判定は、観察者6の有無の判定を含む。すなわち、観察者6がおらず取得した画像から視線が検出されなかった場合も、ステップS2の判定結果は「No」となる。   Next, the information processing device 2 determines whether or not the observer is gazing at the display surface 301 of the display device 3 (step S2). The determination in step S2 is performed by, for example, the line-of-sight detection unit 202a. The line-of-sight detection unit 202a, for example, when the line-of-sight position (X, Y) detected from each of a plurality of images for N seconds is included in a circle within a predetermined viewing angle range (for example, 3 degrees), Is determined to be gazing at the display surface 301. When it determines with the observer 6 not gazing at the display surface 301 (step S2; No), the process which the information processing apparatus 2 performs returns to step S1. Note that the determination in step S2 includes determination of the presence or absence of the observer 6. That is, even when the observer 6 is not present and the line of sight is not detected from the acquired image, the determination result in step S2 is “No”.

一方、観察者6が表示面301を注視していると判定した場合(ステップS2;Yes)、情報処理装置2は、次に、観察者6の注視位置を算出する(ステップS3)。ステップS3の処理は、注視位置算出部202bが行う。注視位置算出部202bは、観察者6の注視位置(X1,Y1)として、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)の平均値を算出する。   On the other hand, when it is determined that the observer 6 is gazing at the display surface 301 (step S2; Yes), the information processing apparatus 2 next calculates the gazing position of the observer 6 (step S3). The gaze position calculation unit 202b performs the process of step S3. The gaze position calculation unit 202b calculates the average value of the gaze position (X, Y) detected from each of a plurality of images for N seconds as the gaze position (X1, Y1) of the observer 6.

観察者6の注視位置(X1,Y1)を算出すると、情報処理装置2は、次に、表示像をスクロールさせる(ステップS21)。ステップS21の処理は、表示画像制御部202、表示画像生成部203、及び表示画像出力部204が行う。表示画像制御部202は、ステップS3で観察者6の注視位置(X1,Y1)を算出した後、表示像を所定方向に所定の移動量だけ並進移動(スクロール)させる制御信号を表示画像生成部203に出力する。表示画像生成部203は、制御信号に従って、現在表示装置3に表示させている像(表示像)についての表示用データを記憶部205の表示用データ205aから読み出し、並進移動させた表示画像を生成する。なお、表示画像生成部203は、表示像をスクロールさせることにより生じた空白領域に表示像と連続する像、或いは表示像と重なって非表示になっていた像が表示された表示画像を生成する。表示画像出力部205は、表示画像生成部204が生成した表示画像を表示装置3に出力する。   When the gaze position (X1, Y1) of the observer 6 is calculated, the information processing apparatus 2 next scrolls the display image (step S21). The process of step S21 is performed by the display image control unit 202, the display image generation unit 203, and the display image output unit 204. The display image control unit 202 calculates a gaze position (X1, Y1) of the observer 6 in step S3, and then generates a control signal for translating (scrolling) the display image in a predetermined direction by a predetermined movement amount. It outputs to 203. The display image generation unit 203 reads display data for the image (display image) currently displayed on the display device 3 from the display data 205a of the storage unit 205 according to the control signal, and generates a translated display image. To do. Note that the display image generation unit 203 generates a display image in which an image that is continuous with the display image or an image that has been hidden by overlapping with the display image is displayed in a blank area generated by scrolling the display image. . The display image output unit 205 outputs the display image generated by the display image generation unit 204 to the display device 3.

なお、ステップS21において表示画像をスクロールする場合、スクロール前の表示画像における像が所定の移動量だけ移動するまで段階的(連続的)に表示位置が移動するよう表示画像を変化させることが好ましい。   When the display image is scrolled in step S21, it is preferable to change the display image so that the display position moves stepwise (continuously) until the image in the display image before scrolling moves by a predetermined movement amount.

ステップS21の後、情報処理装置2は、スクロールする前の注視位置が変動量算出領域内であるか否かを判定する(ステップS22)。ステップS22の判定は、例えば、注視位置算出部202bが行う。変動量算出領域は、視線位置の算出式を補正するか否かの判定基準として表示面301内に設定した領域である。スクロールする前の注視位置が変動量算出領域の外側である場合(ステップS22;No)、情報処理装置2は、図9Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。   After step S21, the information processing apparatus 2 determines whether or not the gaze position before scrolling is within the fluctuation amount calculation region (step S22). The determination in step S22 is performed by, for example, the gaze position calculation unit 202b. The fluctuation amount calculation area is an area set in the display surface 301 as a criterion for determining whether or not to correct the gaze position calculation formula. When the gaze position before scrolling is outside the fluctuation amount calculation region (step S22; No), the information processing apparatus 2 ends the process without correcting the coefficient of the gaze position calculation formula as illustrated in FIG. 9B. To do.

一方、スクロールする前の注視位置が変動量算出領域内である場合(ステップS22;Yes)、情報処理装置2は、次に、スクロールする前の注視位置を保持する(ステップS23)。ステップS23の処理は、注視位置算出部202bが行う。注視位置算出部202bは、ステップS3で算出した注視位置(X1,Y1)を、前注視位置205cとして記憶部205に記憶させる。   On the other hand, when the gaze position before scrolling is within the fluctuation amount calculation region (step S22; Yes), the information processing apparatus 2 next holds the gaze position before scrolling (step S23). The gaze position calculation unit 202b performs the process in step S23. The gaze position calculation unit 202b stores the gaze position (X1, Y1) calculated in step S3 in the storage unit 205 as the front gaze position 205c.

ステップS23の後、情報処理装置2は、撮像装置5から画像を取得して視線を検出する処理(ステップS7)を行い、観察者6が表示面301を注視しているか否かを判定する(ステップS8)。ステップS7の処理は、ステップS2の処理と同様、画像取得部201と視線検出部202aが行う。また、ステップS8の判定は、ステップS3の判定と同様、視線検出部202aが行う。   After step S23, the information processing apparatus 2 performs processing (step S7) of acquiring an image from the imaging device 5 and detecting a line of sight (step S7), and determines whether or not the observer 6 is gazing at the display surface 301 ( Step S8). The process in step S7 is performed by the image acquisition unit 201 and the line-of-sight detection unit 202a as in the process in step S2. The determination in step S8 is performed by the line-of-sight detection unit 202a as in the determination in step S3.

表示像をスクロールした後、観察者6が表示面301を注視していない場合(ステップS8;No)、情報処理装置2は、図9Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。   After the display image is scrolled, when the observer 6 is not gazing at the display surface 301 (step S8; No), the information processing apparatus 2 does not correct the coefficient of the line-of-sight position calculation formula as shown in FIG. 9B. The process ends.

一方、表示像をスクロールした後も観察者6が表示面301を注視している場合(ステップS8;Yes)、情報処理装置2は、次に、注視位置を算出する(ステップS9)。ステップS9の処理は、ステップS3の処理と同様、注視位置算出部202bが行う。   On the other hand, if the observer 6 is still gazing at the display surface 301 even after scrolling the display image (step S8; Yes), the information processing apparatus 2 next calculates the gazing position (step S9). The gaze position calculation unit 202b performs the process in step S9 as in the process in step S3.

表示像をスクロールした後の注視位置(X2,Y2)を算出すると、情報処理装置2は、次に、図9Bに示すように、スクロールの前後で生じるシフト量の変動量を算出する(ステップS24)。ステップS24の処理は、補正量算出部202cが行う。補正量算出部202cは、スクロール前の注視位置(X1,Y1)と、スクロール後の注視位置(X2,Y2)と、スクロール時の表示像の移動量とに基づいて、シフト量の変動率を算出する。シフト量の変動率は、スクロール前の注視位置のシフト量に対するスクロール後の注視位置のシフト量の変化率である。シフト量の変動率を算出すると、情報処理装置2は、次に、算出した変動率が閾値以上であるか否かを判定する(ステップS25)。変動率が閾値よりも小さい場合(ステップS25;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。   When the gaze position (X2, Y2) after scrolling the display image is calculated, the information processing apparatus 2 next calculates the amount of change in the shift amount that occurs before and after scrolling as shown in FIG. 9B (step S24). ). The correction amount calculation unit 202c performs the process of step S24. The correction amount calculation unit 202c calculates the change rate of the shift amount based on the gaze position (X1, Y1) before scrolling, the gaze position (X2, Y2) after scrolling, and the movement amount of the display image during scrolling. calculate. The variation rate of the shift amount is a change rate of the shift amount of the gaze position after scrolling with respect to the shift amount of the gaze position before scrolling. When the variation rate of the shift amount is calculated, the information processing apparatus 2 next determines whether or not the calculated variation rate is equal to or greater than a threshold value (step S25). When the variation rate is smaller than the threshold (step S25; No), the information processing apparatus 2 ends the process without correcting the coefficient of the line-of-sight position calculation formula.

一方、変動率が閾値以上である場合(ステップS25;Yes)、情報処理装置2は、次に、視線位置算出式の換算係数を補正する(ステップS26)。ステップS26の処理は、補正量算出部202cが行う。補正量算出部202cは、スクロール時の表示像の移動方向と、シフト量の変動率とに基づいて、視線位置算出式における換算係数A,Bを補正する。スクロール時の表示像の移動方向がy方向(垂直方向)の場合、補正量算出部202cは、換算係数Bのみを補正する。スクロール時の表示像の移動方向がx方向(水平方向)の場合、補正量算出部202cは、換算係数Aのみを補正する。スクロール時の表示像の移動方向がx方向成分とy方向成分とを含む場合、補正量算出部202cは、換算係数A,Bを補正する。   On the other hand, when the variation rate is equal to or greater than the threshold (step S25; Yes), the information processing apparatus 2 next corrects the conversion coefficient of the line-of-sight position calculation formula (step S26). The correction amount calculation unit 202c performs the process of step S26. The correction amount calculation unit 202c corrects the conversion coefficients A and B in the line-of-sight position calculation formula based on the moving direction of the display image during scrolling and the variation rate of the shift amount. When the moving direction of the display image during scrolling is the y direction (vertical direction), the correction amount calculation unit 202c corrects only the conversion coefficient B. When the moving direction of the display image during scrolling is the x direction (horizontal direction), the correction amount calculation unit 202c corrects only the conversion coefficient A. When the moving direction of the display image during scrolling includes an x-direction component and a y-direction component, the correction amount calculation unit 202c corrects the conversion coefficients A and B.

補正量算出部202cは、換算係数の補正値を係数補正値205dとして記憶部205に記憶させる。これにより、表示画像をスクロールさせる処理と連動した視線位置算出式の補正処理が終了する。   The correction amount calculation unit 202c stores the correction value of the conversion coefficient in the storage unit 205 as the coefficient correction value 205d. Thereby, the correction process of the gaze position calculation formula linked with the process of scrolling the display image ends.

図10は、スクロールの例を示す図である。
図10には、表示画像をスクロールする画面表示の例として、表示面301全体にwebページが表示された表示装置3を示している。スクロールする前の表示面301には、図10の(a)に示すように、画像301dやテキスト301eを含むwebページが表示されている。このような表示状態であるときに、例えば、観察者6が表示面301の垂直方向の中心よりも下方となる座標(X1,Y1)の付近を注視すると、情報処理装置2は、注視位置811の座標(X1,Y1)を算出する処理(ステップS3)を行う。その後、情報処理装置2は、図10の(b)に示すように、表示面301に表示させている画像301dやテキスト301eを含むwebページの像を画面上方にΔYだけスクロール(並進移動)させる処理(ステップS21)を行う。この際、表示面301における下端側の高さΔYの領域には、webページの続きの部分に含まれる画像301f等が表示される。このように、webページを画面上方にスクロール量ΔYだけスクロールさせた場合、観察者6の注視位置811も、画面上方に移動する。このとき観察者6の注視位置の移動量は、スクロール量ΔYと同一の移動量になると考えられる。ところが、実際には、角膜反射の個人差によりスクロールの前後におけるシフト量が変動し、観察者6の注視位置の移動量がスクロール量とは異なる値になることがある。
FIG. 10 is a diagram illustrating an example of scrolling.
FIG. 10 shows a display device 3 in which a web page is displayed on the entire display surface 301 as an example of a screen display for scrolling a display image. A web page including an image 301d and text 301e is displayed on the display surface 301 before scrolling, as shown in FIG. In such a display state, for example, when the observer 6 gazes near the coordinates (X1, Y1) below the center of the display surface 301 in the vertical direction, the information processing apparatus 2 causes the gaze position 811 to be Processing for calculating the coordinates (X1, Y1) is performed (step S3). Thereafter, as illustrated in FIG. 10B, the information processing apparatus 2 scrolls (translates) the image of the web page including the image 301d and the text 301e displayed on the display surface 301 by ΔY on the upper side of the screen. Processing (step S21) is performed. At this time, an image 301f and the like included in a continuation portion of the web page are displayed in a region of height ΔY on the lower end side of the display surface 301. In this way, when the web page is scrolled upward by the scroll amount ΔY, the gaze position 811 of the observer 6 also moves upward. At this time, the movement amount of the gaze position of the observer 6 is considered to be the same movement amount as the scroll amount ΔY. However, in practice, the shift amount before and after scrolling varies due to individual differences in corneal reflection, and the amount of movement of the gaze position of the observer 6 may be different from the scroll amount.

図11は、スクロールの前後で生じるシフト量の変動を説明する図である。
図11に示すように、表示画像をスクロールする前における算出注視位置811と観察者6の実際の注視位置813との間には、シフト量diffYのずれが生じる。また、表示面301の表示画像を画面上方にスクロール量ΔYだけスクロールさせると、観察者6の実際の注視位置813に表示されていた像はΔYだけ上方の座標(X0,Y0)の位置815に移動する。そのため、スクロール後の観察者6の実際の注視位置は座標(X0,Y0)の位置815に移動する。ここで、観察者6が注視位置815を注視しているときのシフト量と、注視位置813を注視していたときのシフト量diffYとが同じであれば、スクロール後に情報処理装置2が算出する注視位置は、座標(X1,Y1−ΔY)の位置816となる。
FIG. 11 is a diagram for explaining the variation of the shift amount occurring before and after scrolling.
As shown in FIG. 11, there is a shift of the shift amount diffY between the calculated gaze position 811 before scrolling the display image and the actual gaze position 813 of the observer 6. When the display image on the display surface 301 is scrolled upward by the scroll amount ΔY, the image displayed at the actual gaze position 813 of the observer 6 is moved to the position 815 of the coordinates (X0, Y0) above by ΔY. Moving. Therefore, the actual gaze position of the viewer 6 after scrolling moves to the position 815 of the coordinates (X0, Y0). Here, if the shift amount when the observer 6 is gazing at the gaze position 815 and the shift amount diffY when gazing at the gaze position 813 are the same, the information processing apparatus 2 calculates after scrolling. The gaze position is a position 816 of coordinates (X1, Y1−ΔY).

ところが、スクロールにより観察者6の視線(注視する方向)が変化した場合、角膜反射の個人差等によりスクロールの前後でシフト量が変動し、図11に示したように、算出する注視位置817が位置816とは異なる位置になることがある。すなわち、表示面301の表示像を画面上方にスクロール量ΔYだけスクロールさせたときに、スクロール後の注視位置817とスクロール前の注視位置811とのy方向の距離Y2−Y1がスクロール量Δyとは異なる値になることがある。そのため、本実施形態の視線位置の算出式の補正方法では、スクロールの前後で生じるシフト量の変動率に応じて視線位置の算出式の換算係数A,Bを補正する。y方向のスクロールにより生じるシフト量の変動率diffY0はdiffY0=(Y2−Y1)/ΔYと表せる。ここで、角膜反射に個人差がなければdiffY0=1でありY2−Y1=ΔYとなるが、実際には、diffY0≠1であるため、スクロールの前後による注視位置の移動量は(Y2−Y1)=diffY0・ΔYとなる。よって、視線位置の算出式(1−2)における換算係数Bを、下記式(8)を満たす換算係数B'に補正する。
diffY0・ΔY=B'・(PupY2−PrkY2)−B'・(PupY1−PrkY1) ・・・(8)
However, when the line of sight of the viewer 6 (the direction of gaze) changes due to scrolling, the shift amount fluctuates before and after scrolling due to individual differences in corneal reflection, and the gaze position 817 to be calculated is, as shown in FIG. The position may be different from the position 816. That is, when the display image on the display surface 301 is scrolled upward by the scroll amount ΔY, the distance Y2−Y1 between the gaze position 817 after scrolling and the gaze position 811 before scrolling is the scroll amount Δy. May have different values. Therefore, in the correction method for the gaze position calculation formula of this embodiment, the conversion factors A and B of the gaze position calculation formula are corrected according to the variation rate of the shift amount generated before and after scrolling. The variation rate diffY0 of the shift amount generated by scrolling in the y direction can be expressed as diffY0 = (Y2−Y1) / ΔY. Here, if there is no individual difference in corneal reflection, diffY0 = 1 and Y2−Y1 = ΔY. However, since diffY0 ≠ 1, actually, the amount of movement of the gaze position before and after scrolling is (Y2−Y1). ) = DiffY0 · ΔY. Therefore, the conversion coefficient B in the gaze position calculation formula (1-2) is corrected to the conversion coefficient B ′ that satisfies the following formula (8).
diffY0 · ΔY = B '· (PupY2-PrkY2)-B' · (PupY1-PrkY1) (8)

すなわち、情報処理装置2は、式(8)を用いて算出した換算係数B'を、係数補正値205eとして記憶部205に記憶させる。以後、情報処理装置2は、観察者の注視位置が検出されなくなるか、又は表示像をスクロールし視線位置算出式が再度補正されるまで、換算係数A,B'を用いて観察者6の視線位置を算出する。   That is, the information processing apparatus 2 stores the conversion coefficient B ′ calculated using Expression (8) in the storage unit 205 as the coefficient correction value 205e. Thereafter, the information processing apparatus 2 uses the conversion coefficients A and B ′ until the observer's gaze position is no longer detected or the display image is scrolled and the gaze position calculation formula is corrected again. Calculate the position.

図12は、変動率算出領域を説明する図である。
本実施形態の視線位置算出式の補正方法においても、スクロールする前に観察者6の実際の注視位置に表示されていた像がスクロール後にも表示されていないと、スクロールの前後で観察者6の注視している像が異なるため、視線位置算出式の換算係数に対し誤った補正を行ってしまうこととなる。
FIG. 12 is a diagram illustrating the variation rate calculation area.
Also in the correction method of the gaze position calculation formula of the present embodiment, if the image displayed at the actual gaze position of the observer 6 before scrolling is not displayed even after scrolling, the observer's 6 before and after scrolling. Since the gaze image is different, an incorrect correction is made to the conversion coefficient of the gaze position calculation formula.

そこで、本実施形態に係る視線位置の算出方法では、図12に示すように、表示面301の上辺から距離CEYの範囲をシフト量の変動率を算出しない領域とすることで、変動率算出領域301bを設定する。シフト量の変動率を算出しない領域の幅CEYは、スクロール量ΔYと、補正対象とする変動率の値とに基づいて設定する。例えば、スクロール量ΔYが216画素であり、補正後の換算係数B’が初期値Bの0.8倍程度となる変動率を補正対象とした場合、CEY=270(=216/0.8)とする。   Therefore, in the method of calculating the line-of-sight position according to the present embodiment, as shown in FIG. 12, the range of the distance CEY from the upper side of the display surface 301 is set as a region where the variation rate of the shift amount is not calculated. 301b is set. The width CEY of the region where the shift amount variation rate is not calculated is set based on the scroll amount ΔY and the value of the variation rate to be corrected. For example, when the scroll amount ΔY is 216 pixels and the variation rate at which the corrected conversion coefficient B ′ is about 0.8 times the initial value B is targeted for correction, CEY = 270 (= 216 / 0.8) And

なお、変動量算出領域301bは、図12に示した領域に限らず、表示面301内の任意の位置に任意の寸法で設定することが可能である。例えば、表示面301の下方側にスクロールした場合にも視線位置算出式の換算係数を補正する場合、表示面の下辺側にも幅CEYのシフト量の変動率を算出しない領域が存在するよう変動量算出領域301bを設定してもよい。また、表示面301の水平方向(左右方向)にもスクロール可能な場合、表示面の右辺側及び左辺側にもシフト量の変動率を算出しない領域が存在するよう変動量算出領域301bを設定してもよい。   Note that the fluctuation amount calculation area 301b is not limited to the area shown in FIG. 12, and can be set at an arbitrary position in the display surface 301 with an arbitrary dimension. For example, when the conversion coefficient of the line-of-sight position calculation formula is corrected even when scrolling to the lower side of the display surface 301, there is a change so that there is an area where the variation rate of the shift amount of the width CEY is not calculated on the lower side of the display surface The amount calculation area 301b may be set. In addition, when scrolling is also possible in the horizontal direction (left and right direction) of the display surface 301, the variation amount calculation region 301b is set so that there are regions where the variation rate of the shift amount is not calculated on the right side and the left side of the display surface. May be.

以上のように、本実施形態に係る情報処理装置2は、観察者6が表示面301を注視した際のスクロールと連動して視線位置の算出式を補正する。この際、視線位置の算出式はスクロールの前後の注視位置とスクロール量とに基づいて補正するので、観察者に補正のための装置を操作させることなく視線位置の算出式を補正することができる。また、本実施形態に係る情報処理装置2では、スクロールの前後の注視位置とスクロール量とに基づいて視線位置の算出式を補正するので、補正用のテスト画像に限らず、任意の画像を表示装置に表示させた状態で補正することが可能となる。そのため、表示装置に表示させたテスト画像内の特徴点を所定の順序で注視する等の動作を観察者に行わせることなく、視線位置の算出式を補正することができる。したがって、本実施形態の情報処理システム1によれば、観察者が視線位置の算出式を補正するための処理を行う手間を省くことができる。   As described above, the information processing apparatus 2 according to the present embodiment corrects the formula for calculating the line-of-sight position in conjunction with scrolling when the viewer 6 gazes at the display surface 301. At this time, since the gaze position calculation formula is corrected based on the gaze position before and after the scroll and the scroll amount, the gaze position calculation formula can be corrected without causing the observer to operate the correction device. . Further, in the information processing apparatus 2 according to the present embodiment, the gaze position calculation formula is corrected based on the gaze position before and after scrolling and the scroll amount, so that not only the correction test image but also any image is displayed. It is possible to correct the image displayed on the apparatus. Therefore, the gaze position calculation formula can be corrected without causing the observer to perform an operation such as gazing at the feature points in the test image displayed on the display device in a predetermined order. Therefore, according to the information processing system 1 of the present embodiment, it is possible to save labor for the observer to perform processing for correcting the gaze position calculation formula.

なお、本実施形態では、表示画像をスクロールするとき、すなわち表示されている像を所定の方向に並進移動させるときに視線位置の算出式を補正しているが、これに限らず、表示画像を拡大又は縮小するときにも視線位置の算出式を補正してもよい。更に、例えば、表示画像の拡大と所定の方向への並進移動(スクロール)とを続けて行った場合に視線位置の算出式の補正を行うようにしてもよい。   In the present embodiment, when the display image is scrolled, that is, when the displayed image is translated in a predetermined direction, the gaze position calculation formula is corrected. The calculation formula of the line-of-sight position may be corrected when enlarging or reducing. Further, for example, when the enlargement of the display image and the translational movement (scrolling) in a predetermined direction are continuously performed, the gaze position calculation formula may be corrected.

[第3の実施形態]
図13は、第3の実施形態に係る情報処理装置の機能的構成を示す図である。
[Third Embodiment]
FIG. 13 is a diagram illustrating a functional configuration of the information processing apparatus according to the third embodiment.

図13に示すように、本実施形態の情報処理装置2は、画像取得部201と、表示制御部202と、表示画像生成部203と、表示画像出力部204と、記憶部205と、を備える。情報処理装置2は、第1の実施形態で説明した情報処理システム1(図1を参照)の構成要素の1つであり、表示画像生成部203で生成した表示画像を表示装置3に表示させる。また、情報処理装置2は、撮像装置5で撮像した観察者6の眼球を含む画像を取得し、観察者の注視位置に基づいて表示画像の拡大等の処理を行う。   As illustrated in FIG. 13, the information processing apparatus 2 according to the present embodiment includes an image acquisition unit 201, a display control unit 202, a display image generation unit 203, a display image output unit 204, and a storage unit 205. . The information processing device 2 is one of the components of the information processing system 1 (see FIG. 1) described in the first embodiment, and causes the display device 3 to display the display image generated by the display image generation unit 203. . Further, the information processing apparatus 2 acquires an image including the eyeball of the observer 6 imaged by the imaging apparatus 5, and performs processing such as enlargement of a display image based on the gaze position of the observer.

本実施形態の情報処理装置2は、第1の実施形態の情報処理装置2と同様、表示装置3の表示面301の表示像を拡大するときに、観察者の注視位置のシフト量に基づいて視線位置の算出式を補正する。そのため、本実施形態の情報処理装置2における表示制御部202は、視線検出部202aと、注視位置算出部202bと、補正量算出部202cと、を含む。また、本実施形態の情報処理装置2における記憶部205には、表示用データ205aとともに、係数初期値205bと、前注視位置205cと、係数補正値205dとが記憶される。   Similar to the information processing apparatus 2 of the first embodiment, the information processing apparatus 2 of the present embodiment is based on the shift amount of the observer's gaze position when the display image of the display surface 301 of the display apparatus 3 is enlarged. Correct the gaze position calculation formula. Therefore, the display control unit 202 in the information processing apparatus 2 of the present embodiment includes a line-of-sight detection unit 202a, a gaze position calculation unit 202b, and a correction amount calculation unit 202c. In addition, the storage unit 205 in the information processing apparatus 2 of the present embodiment stores the coefficient initial value 205b, the front gaze position 205c, and the coefficient correction value 205d along with the display data 205a.

更に、本実施形態の情報処理装置2は、表示画像を拡大する処理を繰り返し行う際に、現在の観察者が直前の処理を行った際の観察者と同一人物であるか否かを判定する。そして、同一人物である場合には、表示画像を拡大する処理と連動した視線位置の算出式を補正する処理を省略する。このため、本実施形態の情報処理装置2における表示制御部202は、人物情報抽出部202dを更に含む。また、本実施形態の情報処理装置2における記憶部205には、人物情報205eが記憶される。   Furthermore, when the information processing apparatus 2 of the present embodiment repeatedly performs the process of enlarging the display image, the information processing apparatus 2 determines whether or not the current observer is the same person as the observer who performed the previous process. . If the person is the same person, the process of correcting the gaze position calculation formula linked with the process of enlarging the display image is omitted. For this reason, the display control unit 202 in the information processing apparatus 2 of the present embodiment further includes a person information extraction unit 202d. In addition, person information 205e is stored in the storage unit 205 in the information processing apparatus 2 of the present embodiment.

人物情報抽出部202dは、例えば、撮像装置5から取得した画像における人物(観察者6)についての所定の特徴量を抽出し、抽出した特徴量を人物情報205eとして記憶部205に記憶させる。また、人物情報抽出部202dは、視線位置の算出式を補正した際には補正後の換算係数A’,B’(係数補正値)と、補正時の人物情報とを対応付ける。更に、人物情報抽出部202dは、表示画像を拡大する際に、抽出した特徴量と記憶部205の人物情報205eとを照合し視線位置の算出式を補正するか否かを判定する。   For example, the person information extraction unit 202d extracts a predetermined feature amount of the person (observer 6) in the image acquired from the imaging device 5, and stores the extracted feature amount in the storage unit 205 as the person information 205e. In addition, when the gaze position calculation formula is corrected, the person information extraction unit 202d associates the corrected conversion coefficients A ′ and B ′ (coefficient correction values) with the corrected person information. Furthermore, when the display information is enlarged, the person information extraction unit 202d collates the extracted feature amount with the person information 205e in the storage unit 205, and determines whether to correct the gaze position calculation formula.

なお、図13においては、画像取得部201、表示制御部202、表示画像生成部203、表示画像出力部204、記憶部205が1台の情報処理装置2に搭載されている例を示しているが、実装のされ方はこれに限る必要はない。例えば、ネットワークを介して接続された複数のコンピュータ上に、各処理部が分散されて配置されても構わない。すなわち、情報処理装置2はコンピュータシステムとして実現されてもよい。   FIG. 13 shows an example in which the image acquisition unit 201, the display control unit 202, the display image generation unit 203, the display image output unit 204, and the storage unit 205 are mounted on one information processing apparatus 2. However, the implementation is not limited to this. For example, the processing units may be distributed and arranged on a plurality of computers connected via a network. That is, the information processing apparatus 2 may be realized as a computer system.

図14Aは、第3の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。図14Bは、第3の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。   FIG. 14A is a flowchart (No. 1) for explaining a method of correcting a gaze position calculation formula according to the third embodiment. FIG. 14B is a flowchart (No. 2) for explaining the correction method of the gaze position calculation formula according to the third embodiment.

本実施形態の情報処理装置2は、図14Aに示すように、まず、撮像装置5から画像を取得して人物情報を抽出する処理(ステップS31)を行う。ステップS31の処理は、画像取得部201と、表示制御部202の人物情報抽出部202dとが行う。画像取得部201は、撮像装置5から取得した画像を表示制御部202に転送する。人物情報検出部202dは、人物情報として、例えば、取得した画像における観察者の目頭等についての特徴量を抽出する。   As illustrated in FIG. 14A, the information processing apparatus 2 according to the present embodiment first performs processing (step S31) of acquiring an image from the imaging device 5 and extracting personal information. The process of step S31 is performed by the image acquisition unit 201 and the person information extraction unit 202d of the display control unit 202. The image acquisition unit 201 transfers the image acquired from the imaging device 5 to the display control unit 202. The person information detection unit 202d extracts, as the person information, for example, a feature amount regarding the observer's eyes in the acquired image.

次に、情報処理装置2は、人物情報の抽出結果に応じた視線位置の算出式で観察者の視線を検出する(ステップS32)。ステップS32の処理は、表示制御部202の視線検出部202aが行う。視線検出部202aは、ステップS31の人物情報の抽出結果を取得し、記憶部205の人物情報205eと合致するか否かを判定する。人物情報の抽出結果と記憶部205の人物情報205eとが合致する場合、視線検出部202eは、記憶部205の係数補正値205dを換算係数とする視線位置の算出式を用いて観察者の視線位置(X,Y)を算出する。人物情報の抽出結果と記憶部205の人物情報205eとが合致しない場合、視線検出部202eは、記憶部205の係数初期値205bを換算係数とする視線位置の算出式を用いて観察者の視線位置(X,Y)を算出する。また、1回のステップS1の処理において、視線検出部202aは、N秒分の複数の画像のそれぞれから観察者の視線位置(X,Y)を検出する処理を行う。   Next, the information processing apparatus 2 detects the line of sight of the observer using a line-of-sight position calculation formula corresponding to the person information extraction result (step S32). The process of step S32 is performed by the line-of-sight detection unit 202a of the display control unit 202. The line-of-sight detection unit 202a acquires the extraction result of the person information in step S31 and determines whether or not it matches the person information 205e in the storage unit 205. When the person information extraction result matches the person information 205e in the storage unit 205, the line-of-sight detection unit 202e uses the line-of-sight position calculation formula using the coefficient correction value 205d in the storage unit 205 as a conversion coefficient. Calculate the position (X, Y). When the person information extraction result and the person information 205e in the storage unit 205 do not match, the line-of-sight detection unit 202e uses the line-of-sight position calculation formula using the coefficient initial value 205b in the storage unit 205 as a conversion coefficient. Calculate the position (X, Y). Further, in one process of step S1, the line-of-sight detection unit 202a performs a process of detecting the observer's line-of-sight position (X, Y) from each of a plurality of images for N seconds.

次に、情報処理装置2は、観察者が表示装置3の表示面301を注視しているか否かを判定する(ステップS33)。ステップS33の判定は、例えば、視線検出部202aが行う。視線検出部202aは、例えば、N秒分(例えば1秒分)の複数の画像のそれぞれから検出した視線位置(X,Y)が所定の視野角範囲(例えば3度)の円内に含まれる場合に、観察者6が表示面301を注視していると判定する。観察者6が表示面301を注視していないと判定した場合(ステップS33;No)、情報処理装置2が行う処理はステップS31に戻る。なお、ステップS33の判定は、観察者6の有無の判定を含む。すなわち、観察者6がおらず取得した画像から視線が検出されなかった場合も、ステップS33の判定結果は「No」となる。   Next, the information processing device 2 determines whether or not the observer is gazing at the display surface 301 of the display device 3 (step S33). The determination in step S33 is performed by, for example, the line-of-sight detection unit 202a. For example, the line-of-sight detection unit 202a includes a line-of-sight position (X, Y) detected from each of a plurality of images for N seconds (for example, 1 second) within a circle with a predetermined viewing angle range (for example, 3 degrees). In this case, it is determined that the observer 6 is gazing at the display surface 301. When it determines with the observer 6 not gazing at the display surface 301 (step S33; No), the process which the information processing apparatus 2 performs returns to step S31. Note that the determination in step S33 includes the determination of the presence or absence of the observer 6. That is, even when the observer 6 is not present and the line of sight is not detected from the acquired image, the determination result in step S33 is “No”.

一方、観察者6が表示面301を注視していると判定した場合(ステップS33;Yes)、情報処理装置2は、次に、観察者6の注視位置を算出する(ステップS34)。ステップS34の処理は、注視位置算出部202bが行う。注視位置算出部202bは、観察者6の注視位置(X1,Y1)として、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)の平均値を算出する。   On the other hand, when it is determined that the observer 6 is gazing at the display surface 301 (step S33; Yes), the information processing apparatus 2 next calculates the gazing position of the observer 6 (step S34). The gaze position calculation unit 202b performs the process of step S34. The gaze position calculation unit 202b calculates the average value of the gaze position (X, Y) detected from each of a plurality of images for N seconds as the gaze position (X1, Y1) of the observer 6.

観察者6の注視位置(X1,Y1)を算出すると、情報処理装置2は、次に、注視位置を中心として表示している像(表示像)を拡大させる(ステップS35)。ステップS35の処理は、表示画像制御部202、表示画像生成部203、及び表示画像出力部204が行う。表示画像制御部202は、ステップS34で観察者6の注視位置(X1,Y1)を算出した後、注視位置(X1,Y1)を中心として表示像を拡大させる制御信号を表示画像生成部203に出力する。表示画像生成部203は、制御信号に従って、現在表示装置に表示させている像(表示像)についての表示用データを記憶部205の表示用データ205aから読み出し、注視位置を中心として所定の拡大率で拡大した表示画像を生成する。表示画像出力部205は、表示画像生成部204が生成した表示画像を表示装置3に出力する。   When the gaze position (X1, Y1) of the observer 6 is calculated, the information processing apparatus 2 next enlarges the image (display image) displayed around the gaze position (step S35). The process of step S35 is performed by the display image control unit 202, the display image generation unit 203, and the display image output unit 204. The display image control unit 202 calculates a gaze position (X1, Y1) of the observer 6 in step S34, and then sends a control signal for enlarging the display image around the gaze position (X1, Y1) to the display image generation unit 203. Output. The display image generation unit 203 reads display data for an image (display image) currently displayed on the display device from the display data 205a of the storage unit 205 in accordance with the control signal, and a predetermined enlargement rate centering on the gaze position. An enlarged display image is generated by. The display image output unit 205 outputs the display image generated by the display image generation unit 204 to the display device 3.

ステップS35の後、情報処理装置2は、現在の処理における観察者6が直前の処理のときと同じ人物であるか否かを判定する(ステップS36)。ステップS36の判定は、例えば、注視位置算出部202bが行う。注視位置算出部202bは、ステップS31で抽出した人物情報と記憶部の人物情報205eとが合致する場合、現在の処理における観察者6が直前の処理のときと同じ人物であると判定する。観察者6が直前の処理と同じ人物である場合(ステップS36;Yes)、情報処理装置2は、図14Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。一方、観察者6が直前の処理と同じ人物ではない場合(ステップS36;No)、情報処理装置2は、図14Bに示すように、次に、表示像を拡大する前の注視位置がシフト量算出領域内であるか否かを判定する(ステップS37)。ステップS37の判定は、例えば、注視位置算出部202bが行う。シフト量算出領域は、視線位置の算出式を補正するか否かの判定基準として表示面301内に設定した領域である。拡大する前の注視位置がシフト量算出領域の外側である場合(ステップS37;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。   After step S35, the information processing apparatus 2 determines whether or not the observer 6 in the current process is the same person as in the previous process (step S36). The determination in step S36 is performed by, for example, the gaze position calculation unit 202b. When the person information extracted in step S31 matches the person information 205e in the storage unit, the gaze position calculation unit 202b determines that the observer 6 in the current process is the same person as in the previous process. When the observer 6 is the same person as the previous process (step S36; Yes), the information processing apparatus 2 ends the process without correcting the coefficient of the line-of-sight position calculation formula, as illustrated in FIG. 14B. On the other hand, when the observer 6 is not the same person as the immediately preceding process (step S36; No), the information processing apparatus 2 next shifts the gaze position before enlarging the display image as shown in FIG. 14B. It is determined whether or not it is within the calculation area (step S37). The determination in step S37 is performed by, for example, the gaze position calculation unit 202b. The shift amount calculation area is an area set in the display screen 301 as a criterion for determining whether or not to correct the gaze position calculation formula. When the gaze position before enlargement is outside the shift amount calculation region (step S37; No), the information processing apparatus 2 ends the process without correcting the coefficient of the gaze position calculation formula.

一方、拡大する前の注視位置がシフト量算出領域内である場合(ステップS37;Yes)、情報処理装置2は、次に、拡大する前の注視位置を保持する(ステップS38)。ステップS38の処理は、注視位置算出部202bが行う。注視位置算出部202bは、ステップS34で算出した注視位置(X1,Y1)を、前注視位置205cとして記憶部205に記憶させる。   On the other hand, when the gaze position before enlargement is within the shift amount calculation region (step S37; Yes), the information processing apparatus 2 next holds the gaze position before enlargement (step S38). The gaze position calculation unit 202b performs the process in step S38. The gaze position calculation unit 202b stores the gaze position (X1, Y1) calculated in step S34 in the storage unit 205 as the front gaze position 205c.

ステップS38の後、情報処理装置2は、撮像装置5から画像を取得して視線を検出する処理(ステップS39)を行い、観察者6が表示面301を注視しているか否かを判定する(ステップS40)。ステップS39の処理は、画像取得部201と視線検出部202aが行う。視線検出部202aは、ステップS32の処理を行った際の算出式と同じ算出式を用いて視線位置(X,Y)を算出する。また、ステップS40の判定は、視線検出部202aが行う。表示している像を拡大した後、観察者6が表示面301を注視していない場合(ステップS40;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。   After step S <b> 38, the information processing apparatus 2 performs processing (step S <b> 39) to acquire an image from the imaging device 5 and detect a line of sight (step S <b> 39), and determines whether the observer 6 is gazing at the display surface 301 ( Step S40). The process of step S39 is performed by the image acquisition unit 201 and the line-of-sight detection unit 202a. The line-of-sight detection unit 202a calculates the line-of-sight position (X, Y) using the same calculation formula as the calculation formula used when performing the process of step S32. The determination in step S40 is performed by the line-of-sight detection unit 202a. After the displayed image is enlarged, when the observer 6 is not gazing at the display surface 301 (step S40; No), the information processing apparatus 2 ends the process without correcting the coefficient of the line-of-sight position calculation formula. To do.

一方、表示している像を拡大した後も観察者6が表示面301を注視している場合(ステップS40;Yes)、情報処理装置2は、次に、注視位置(X2,Y2)を算出する(ステップS41)。ステップS41の処理は、ステップS34の処理と同様、注視位置算出部202bが行う。   On the other hand, when the observer 6 is gazing at the display surface 301 even after enlarging the displayed image (step S40; Yes), the information processing apparatus 2 calculates the gaze position (X2, Y2) next. (Step S41). The gaze position calculation unit 202b performs the process in step S41 as in the process in step S34.

表示している像を拡大した後の注視位置(X2,Y2)を算出すると、情報処理装置2は、次に、算出した注視位置と観察者6が実際に注視している位置とのずれ量(シフト量)を算出する(ステップS42)。ステップS42の処理は、補正量算出部202cが行う。補正量算出部202cは、第1の実施形態で説明したような方法でx方向のシフト量diffX及びy方向のシフト量diffYを算出する。   When the gaze position (X2, Y2) after enlarging the displayed image is calculated, the information processing apparatus 2 next shifts the calculated gaze position from the position where the observer 6 is actually gazing. (Shift amount) is calculated (step S42). The correction amount calculation unit 202c performs the process of step S42. The correction amount calculation unit 202c calculates the shift amount diffX in the x direction and the shift amount diffY in the y direction by the method described in the first embodiment.

シフト量diffX,diffYを算出すると、情報処理装置2は、次に、算出したシフト量が閾値以上であるか否かを判定する(ステップS43)。シフト量が閾値よりも小さい場合(ステップS43;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。   After calculating the shift amounts diffX and diffY, the information processing apparatus 2 next determines whether or not the calculated shift amount is equal to or greater than a threshold value (step S43). When the shift amount is smaller than the threshold (step S43; No), the information processing apparatus 2 ends the process without correcting the coefficient of the line-of-sight position calculation formula.

一方、シフト量が閾値以上である場合(ステップS43;Yes)、情報処理装置2は、次に、視線位置算出式の換算係数A,Bを補正する(ステップS44)。ステップS44の処理は、補正量算出部202cが行う。補正量算出部202cは、拡大前の注視位置(X1,Y1)と、表示像の拡大率と、算出したシフト量diffX,diffYとを用いて、視線位置算出式における換算係数A,Bを補正する。補正量算出部202cは、例えば、下記式(6−1)及び式(6−2)を用いて、換算係数の補正値A',B'を算出する。   On the other hand, when the shift amount is equal to or larger than the threshold (step S43; Yes), the information processing apparatus 2 next corrects the conversion coefficients A and B of the line-of-sight position calculation formula (step S44). The correction amount calculation unit 202c performs the process of step S44. The correction amount calculation unit 202c corrects the conversion coefficients A and B in the gaze position calculation formula using the gaze position (X1, Y1) before enlargement, the magnification of the display image, and the calculated shift amounts diffX and diffY. To do. The correction amount calculation unit 202c calculates the correction coefficient correction values A ′ and B ′ using, for example, the following formulas (6-1) and (6-2).

換算係数の補正値A',B'を算出すると、補正量算出部202cは、算出した換算係数の補正値A',B'を係数補正値205dとして記憶部205に記憶させる。この際、補正量算出部202cは、人物情報と視線位置算出式の換算係数との対応付けを更新する(ステップS45)。これにより、表示している像を拡大する処理と連動した視線位置算出式の係数を補正する処理が終了する。   When the correction values A ′ and B ′ of the conversion coefficient are calculated, the correction amount calculation unit 202c stores the calculated conversion coefficient correction values A ′ and B ′ in the storage unit 205 as the coefficient correction value 205d. At this time, the correction amount calculation unit 202c updates the association between the person information and the conversion coefficient of the gaze position calculation formula (step S45). Thereby, the process of correcting the coefficient of the line-of-sight position calculation formula linked with the process of enlarging the displayed image ends.

このように、本実施形態の視線位置の算出式の補正方法では、画像から抽出した人物情報に基づいて、現在の観察者6が直前の処理を行ったときの観察者と同一人物であるか否かを判定する。そして、現在の観察者6が直前の処理を行ったときの観察者と同一人物である場合、情報処理装置2は、視線位置算出式の換算係数を補正する処理を省略する。現在の観察者が直前の処理を行ったときの観察者と同一人物である場合、当該観察者が表示面301を注視したときのシフト量及び視線位置算出式の換算係数を補正する処理は、直前の処理或いは更に前の処理で行われている。そのため、ステップS32及びS34の処理により算出される観察者の注視位置は、観察者6の実際の注視位置と略同一となる。よって、現在の観察者6が直前の処理を行ったときの観察者と同一人物である場合、表示像を拡大した後のステップS37〜S45の処理を省略することが可能となる。これにより、同一の観察者6が表示像を拡大する処理を繰り返し行った場合の情報処理装置2の処理負荷を軽減することが可能となる。   As described above, in the method of correcting the gaze position calculation formula according to the present embodiment, based on the person information extracted from the image, is the current observer 6 the same person as the observer when the previous process is performed? Determine whether or not. When the current observer 6 is the same person as the observer when the previous process is performed, the information processing apparatus 2 omits the process of correcting the conversion coefficient of the line-of-sight position calculation formula. When the current observer is the same person as the observer when the previous process was performed, the process of correcting the shift amount and the conversion factor of the gaze position calculation formula when the observer gazes at the display surface 301, It is performed in the immediately preceding process or in the preceding process. Therefore, the observer's gaze position calculated by the processes in steps S32 and S34 is substantially the same as the actual gaze position of the observer 6. Therefore, when the current observer 6 is the same person as the observer when the previous process is performed, the processes in steps S37 to S45 after the display image is enlarged can be omitted. Thereby, it becomes possible to reduce the processing load of the information processing apparatus 2 when the same observer 6 repeatedly performs the process of enlarging the display image.

なお、図14A及び図14Bの処理は一例に過ぎず、必要に応じて一部の処理の内容を変更してもよいし、他の処理を追加してもよい。例えば、人物情報と視線位置算出式の係数との対応付けは、更新せずに蓄積してもよい。人物情報と視線位置算出式の係数との対応付けを蓄積する場合、例えば、タイムスタンプにより人物情報を抽出した時刻を特定する。また、ステップS32で視線位置算出式の換算係数を決定する際や、ステップS36の判定の際には、タイムスタンプに基づいて直前(最新)の処理を行ったときの人物情報を特定する。このように人物情報と視線位置算出式の係数とを対応付けて蓄積することにより、例えば、視線位置算出式の換算係数の初期値の見直しや学習を行うことが可能となる。   Note that the processes in FIGS. 14A and 14B are merely examples, and the contents of some processes may be changed as necessary, and other processes may be added. For example, the association between the person information and the coefficient of the gaze position calculation formula may be accumulated without being updated. When the association between the person information and the coefficient of the gaze position calculation formula is accumulated, for example, the time at which the person information is extracted is specified by a time stamp. Further, when determining the conversion coefficient of the line-of-sight position calculation formula in step S32 or in the determination in step S36, the person information when the immediately preceding (latest) process is performed is specified based on the time stamp. Thus, by storing the personal information and the coefficient of the gaze position calculation formula in association with each other, for example, it is possible to review and learn the initial value of the conversion coefficient of the gaze position calculation formula.

また、観察者6が直前の処理のときと同一人物であるか否かの判定に用いる人物情報は、撮像装置5で撮像した画像から抽出した特徴量に限らず、他の情報であってもよい。例えば、人感センサを用いて所定の空間内の人物の有無を検知し、その検知結果に基づいて観察者6が直前の処理のときと同一人物であるか否かを判定してもよい。   In addition, the person information used for determining whether or not the observer 6 is the same person as in the previous process is not limited to the feature amount extracted from the image captured by the imaging device 5, but may be other information. Good. For example, a human sensor may be used to detect the presence or absence of a person in a predetermined space, and based on the detection result, it may be determined whether or not the observer 6 is the same person as in the previous process.

第1〜第3の実施形態に係る情報処理システム1では、1個の情報処理装置2において観察者の注視位置の算出、表示画像の生成、及び視線位置の算出式の補正の各処理を行っている。しかしながら、情報処理システム1は、これに限らず、注視位置の算出及び表示画像の生成を行う情報処理装置とは別個に、視線位置の算出式を補正する処理を行う情報処理装置を設けてもよい。また、情報処理システム1は、表示装置3、光源4及び撮像装置5の組が1個の情報処理装置2に複数組接続された構成であってもよい。   In the information processing system 1 according to the first to third embodiments, each processing of calculation of an observer's gaze position, generation of a display image, and correction of a gaze position calculation formula is performed in one information processing apparatus 2. ing. However, the information processing system 1 is not limited to this, and an information processing device that performs a process of correcting the gaze position calculation formula may be provided separately from the information processing device that calculates the gaze position and generates the display image. Good. Further, the information processing system 1 may have a configuration in which a plurality of sets of the display device 3, the light source 4, and the imaging device 5 are connected to one information processing device 2.

また第1〜第3の実施形態に係る情報処理装置2は、例えば、コンピュータと、当該コンピュータに実行させるプログラムとを用いて実現することが可能である。以下、コンピュータとプログラムとを用いて実現される情報処理装置2について、図15を参照して説明する。   The information processing apparatus 2 according to the first to third embodiments can be realized using, for example, a computer and a program executed by the computer. Hereinafter, the information processing apparatus 2 realized using a computer and a program will be described with reference to FIG.

図15は、コンピュータのハードウェア構成を示す図である。
図15に示すように、コンピュータ10は、プロセッサ1001と、主記憶装置1002と、補助記憶装置1003と、表示装置1004と、インタフェース装置1005と、通信装置1006と、記憶媒体駆動装置1007と、を備える。コンピュータ10におけるこれらの要素1001〜1007は、バス1010により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
FIG. 15 is a diagram illustrating a hardware configuration of a computer.
As illustrated in FIG. 15, the computer 10 includes a processor 1001, a main storage device 1002, an auxiliary storage device 1003, a display device 1004, an interface device 1005, a communication device 1006, and a storage medium drive device 1007. Prepare. These elements 1001 to 1007 in the computer 10 are connected to each other via a bus 1010 so that data can be exchanged between the elements.

プロセッサ1001は、Central Processing Unit(CPU)等の演算処理装置であり、オペレーティングシステムを含む各種のプログラムを実行することによりコンピュータ10の全体の動作を制御する。   The processor 1001 is an arithmetic processing unit such as a central processing unit (CPU), and controls the overall operation of the computer 10 by executing various programs including an operating system.

主記憶装置1002は、図示しないRead Only Memory(ROM)及びRandom Access Memory(RAM)を含む。主記憶装置1002のROMには、例えばコンピュータ10の起動時にプロセッサ1001が読み出す所定の基本制御プログラム等が予め記録されている。また、主記憶装置1002のRAM は、プロセッサ1001が各種のプログラムを実行する際に、必要に応じて作業用記憶領域として使用する。主記憶装置1002のRAMは、例えば、視線位置算出式の換算係数(係数初期値205b及び係数補正値205d)、注視位置の算出に用いる複数の視線位置、及び前注視位置205cの記憶に利用可能である。   The main storage device 1002 includes a read only memory (ROM) and a random access memory (RAM) not shown. In the ROM of the main storage device 1002, for example, a predetermined basic control program that is read by the processor 1001 when the computer 10 is activated is recorded in advance. The RAM of the main storage device 1002 is used as a working storage area as necessary when the processor 1001 executes various programs. The RAM of the main storage device 1002 can be used for storing, for example, the conversion coefficient (coefficient initial value 205b and coefficient correction value 205d) of the gaze position calculation formula, a plurality of gaze positions used for calculating the gaze position, and the front gaze position 205c. It is.

補助記憶装置1003は、Hard Disk Drive(HDD)やSolid State Drive(SSD)等の主記憶装置1002に比べて容量の大きい記憶装置である。補助記憶装置1003には、プロセッサ1001によって実行される各種のプログラムや各種のデータ等を記憶させることができる。補助記憶装置1003は、例えば、図5A及び図5Bの処理を含むプログラム、図9A及び図9Bの処理を含むプログラム、図14A及び図14Bの処理を含むプログラム等の記憶に利用可能である。また、補助記憶装置1003は、例えば、表示用データ205a、視線位置算出式の換算係数(係数初期値205b)、注視位置の算出に用いる複数の視線位置、前注視位置205c、人物情報205e等の記憶に利用可能である。   The auxiliary storage device 1003 is a storage device having a larger capacity than the main storage device 1002 such as a hard disk drive (HDD) or a solid state drive (SSD). The auxiliary storage device 1003 can store various programs executed by the processor 1001 and various data. The auxiliary storage device 1003 can be used to store, for example, a program including the processes of FIGS. 5A and 5B, a program including the processes of FIGS. 9A and 9B, and a program including the processes of FIGS. 14A and 14B. In addition, the auxiliary storage device 1003 includes, for example, display data 205a, a conversion coefficient (coefficient initial value 205b) of the gaze position calculation formula, a plurality of gaze positions used for calculating the gaze position, the front gaze position 205c, the person information 205e, and the like. Available for memory.

表示装置1004は、例えば液晶ディスプレイである。表示装置1004は、プロセッサ1001等から送信される表示画像のデータに従って各種のテキスト画面、画像等を含む表示画像を表示する。   The display device 1004 is, for example, a liquid crystal display. The display device 1004 displays a display image including various text screens, images, and the like according to display image data transmitted from the processor 1001 or the like.

インタフェース装置1005は、コンピュータ10と他の電子装置とを接続する装置であり、Universal Serial Bus(USB)規格のコネクタ等を備える。インタフェース装置1005によりコンピュータ10と接続可能な電子装置の1つは、撮像装置5である。   The interface device 1005 is a device that connects the computer 10 to another electronic device, and includes a Universal Serial Bus (USB) standard connector or the like. One electronic device that can be connected to the computer 10 by the interface device 1005 is the imaging device 5.

通信装置1006は、インターネット等の通信ネットワークを介して他のコンピュータ等の外部装置と各種通信を行う装置である。コンピュータ10は、例えば、通信装置1006を介して、他のコンピュータから各種の表示用データ205aを取得することが可能である。   The communication device 1006 is a device that performs various communications with an external device such as another computer via a communication network such as the Internet. The computer 10 can obtain various display data 205a from another computer, for example, via the communication device 1006.

記憶媒体駆動装置1007は、図示しない可搬型記憶媒体に記録されているプログラムやデータの読み出し、補助記憶装置1003に記憶されたデータ等の可搬型記憶媒体への書き込みを行う。可搬型記憶媒体としては、例えば、USB規格のコネクタが備えられているフラッシュメモリが利用可能である。また、可搬型記憶媒体としては、Compact Disk(CD)、Digital Versatile Disc(DVD)、Blu-ray Disc(Blu-rayは登録商標)等の光ディスクも利用可能である。   The storage medium driving device 1007 reads programs and data recorded in a portable storage medium (not shown), and writes data stored in the auxiliary storage device 1003 to the portable storage medium. As the portable storage medium, for example, a flash memory equipped with a USB standard connector can be used. Further, as a portable storage medium, an optical disc such as a Compact Disk (CD), a Digital Versatile Disc (DVD), and a Blu-ray Disc (Blu-ray is a registered trademark) can be used.

コンピュータ10は、プロセッサ1001が補助記憶装置1003等から上記の視線位置算出式の補正処理を含むプログラムを読み出し、撮像装置5から取得した画像を用いた注視位置の算出処理、表示画像を変化させる処理、算出式を補正する処理等を行う。   In the computer 10, the processor 1001 reads a program including the correction processing of the above-described line-of-sight position calculation formula from the auxiliary storage device 1003 and the like, processing for calculating a gaze position using an image acquired from the imaging device 5, and processing for changing a display image Then, processing for correcting the calculation formula is performed.

なお、情報処理装置2として用いるコンピュータ10は、図15に示した全ての構成要素を含む必要はなく、用途や条件に応じて一部の構成要素を省略することも可能である。例えば、サイネージ等で通信ネットワークを利用して表示用データをコンピュータ10(情報処理装置2)に供給する場合、記憶媒体駆動装置1007を省略することが可能である。   Note that the computer 10 used as the information processing apparatus 2 does not have to include all the components illustrated in FIG. 15, and some components may be omitted depending on the application and conditions. For example, when the display data is supplied to the computer 10 (information processing apparatus 2) using a communication network by signage or the like, the storage medium driving apparatus 1007 can be omitted.

また、情報処理装置2として用いるコンピュータ10は、図示しない入力装置を備えたものであってもよい。ここで、入力装置は、例えばキーボード装置やマウス装置であり、コンピュータ10のオペレータ(観察者6)により操作されると、その操作内容と対応付けられている入力情報をプロセッサ1001に送信する。また、入力装置には、例えば、表示装置1003の表示面に重ねて配置されたタッチパネル装置を利用することも可能である。   Further, the computer 10 used as the information processing apparatus 2 may include an input device (not shown). Here, the input device is, for example, a keyboard device or a mouse device, and when operated by an operator (observer 6) of the computer 10, the input information associated with the operation content is transmitted to the processor 1001. As the input device, for example, a touch panel device arranged on the display surface of the display device 1003 can be used.

また、コンピュータ10は、種々のプログラムを実行することにより複数の機能を実現する汎用型のものに限らず、上記の実施形態で説明した処理に特化した専用の装置でもよい。   The computer 10 is not limited to a general-purpose computer that realizes a plurality of functions by executing various programs, and may be a dedicated device specialized for the processing described in the above embodiment.

以上記載した各実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
撮像装置により撮像された表示装置を観察する観察者の眼球を含む画像を用いて、前記表示装置の表示面内における前記観察者の注視位置を算出する注視位置算出部と、
第1の表示画像を前記表示装置に表示させているときに、観察者について前記注視位置算出部で算出した第1の注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成する表示画像生成部と、
前記第2の表示画像を前記表示装置に表示させているときに前記観察者について前記注視位置算出部で算出した第2の注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、前記第1の注視位置とに基づいて、前記観察者についての注視位置に対する補正量を算出する補正量算出部と、を備える、
ことを特徴とする情報処理システム。
(付記2)
前記表示画像生成部は、前記第1の表示画像において前記第1の注視位置の周囲に存在する像の表示位置を変化させた前記第2の表示画像を生成する、
ことを特徴とする付記1に記載の情報処理システム。
(付記3)
前記表示画像生成部は、前記第1の表示画像における前記第1の注視位置を中心として前記第1の表示画像を拡大又は縮小して前記第2の表示画像を生成する、
ことを特徴とする付記1に記載の情報処理システム。
(付記4)
前記表示画像生成部は、前記第1の表示画像に含まれる像の表示位置を所定の距離だけ並進移動させて前記第2の表示画像を生成する、
ことを特徴とする付記1に記載の情報処理システム。
(付記5)
前記表示画像生成部は、前記第2の表示画像を生成して前記表示装置に表示させる前に、前記第1の表示画像及び前記第2の表示画像に含まれる像の表示位置が前記第1の表示画像における表示位置から前記第2の表示画像における表示位置に向かって段階的に変化する複数の表示画像を順次生成して前記表示装置に表示させる、
ことを特徴とする付記1に記載の情報処理システム。
(付記6)
前記注視位置算出部は、所定期間内に前記撮像装置で撮像した複数の前記画像のそれぞれから算出した前記表示装置の表示面内における前記観察者の視線位置の分布に基づいて前記観察者の注視位置を算出し、
前記補正量算出部は、前記第1の注視位置と、前記第2の注視位置と、前記第1の表示画像に対する前記第2の表示画像の変化量とに基づいて、前記視線位置の算出に用いる算出式を補正する、
ことを特徴とする付記1に記載の情報処理システム。
(付記7)
前記情報処理システムは、前記観察者についての人物情報を抽出する人物情報抽出部を、更に備え、
当該情報処理システムは、前記注視位置に対する補正量と前記人物情報とを対応付けて保持し、前記第1の注視位置を算出する際の前記観察者の人物情報と同一の人物情報を保持している場合に当該人物情報と対応付けられた前記補正量を用いて前記第1の注視位置を算出する、
ことを特徴とする付記1に記載の情報処理システム。
(付記8)
前記情報処理システムは、前記撮像装置で撮像した画像に含まれる前記観察者の眼球部分における角膜反射の位置と瞳孔の中心位置との位置関係に基づいて前記観察者の視線を検出する視線検出部、を更に備える、
ことを特徴とする付記1に記載の情報処理システム。
(付記9)
前記情報処理システムは、
前記第1の注視位置が前記表示装置の表示面内における所定の範囲内である場合にのみ、前記第2の注視位置を算出し前記注視位置に対する補正量を算出する、
ことを特徴とする付記1に記載の情報処理システム。
(付記10)
コンピュータが、
第1の表示画像を表示させた表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第1の注視位置を算出し、
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理を実行することを特徴とする情報処理方法。
(付記11)
前記第2の表示画像を生成する処理では、前記コンピュータは、前記第1の表示画像において前記第1の注視位置の周囲に存在する像の表示位置を変化させた前記第2の表示画像を生成する、
ことを特徴とする付記10に記載の情報処理方法。
(付記12)
前記第2の表示画像を生成する処理では、前記コンピュータは、前記第1の表示画像における前記第1の注視位置を中心として前記第1の表示画像を拡大又は縮小して前記第2の表示画像を生成する、
ことを特徴とする付記10に記載の情報処理方法。
(付記13)
前記第2の表示画像を生成する処理では、前記コンピュータは、前記第1の表示画像に含まれる像の表示位置を所定方向に所定の距離だけ並進移動させて前記第2の表示画像を生成する、
ことを特徴とする付記10に記載の情報処理方法。
(付記14)
前記コンピュータが、前記第2の表示画像を生成して前記表示装置に表示させる前に、前記第1の表示画像及び前記第2の表示画像に含まれる像の表示位置が第1の表示画像における表示位置から第2の表示画像における表示位置に向かって段階的に変化する複数の表示画像を順次生成して前記表示装置に表示させる、
処理を実行することを特徴とする付記10に記載の情報処理方法。
(付記15)
前記第1の注視位置及び前記第2の注視位置を算出する処理では、前記コンピュータは、一定期間内に前記撮像装置で撮像した複数の前記画像のそれぞれから算出した前記表示装置の表示面内における前記観察者の視線位置の分布に基づいて前記注視位置を算出し、
前記注視位置に対する補正量を算出する処理では、前記コンピュータは、前記第1の注視位置と、前記第2の注視位置と、前記第1の表示画像に対する前記第2の画像の変化量とに基づいて、前記視線位置の算出に用いる算出式を補正する、
ことを特徴とする付記10に記載の情報処理方法。
(付記16)
前記コンピュータが、前記観察者についての人物情報を抽出する処理、及び抽出した前記人物情報と前記注視位置に対する補正量とを対応付けて保持する処理、を更に実行し、
前記第1の注視位置を算出する処理では、前記コンピュータは、抽出した前記観察者の人物情報と同一の人物情報を保持している場合に当該人物情報と対応付けられた前記補正量を用いて前記第1の注視位置を算出する、
ことを特徴とする付記10に記載の情報処理方法。
(付記17)
前記コンピュータが、前記撮像装置で撮像した画像に含まれる前記観察者の眼球部分における角膜反射の位置と瞳孔の中心位置との位置関係に基づいて前記観察者の視線を検出し、所定の算出式を用いて前記表示装置の表示面における前記観察者の視線位置を算出する、
処理を更に実行することを特徴とする付記10に記載の情報処理方法。
(付記18)
前記コンピュータは、前記第1の注視位置が前記表示装置の表示面内における所定の範囲内である場合にのみ、前記第2の注視位置を算出し前記注視位置に対する補正量を算出する、
処理を実行することを特徴とする付記10に記載の情報処理方法。
(付記19)
第1の表示画像を表示させた表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第1の注視位置を算出し、
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理をコンピュータに実行させる情報処理プログラム。
The following additional notes are further disclosed with respect to the embodiments including the examples described above.
(Appendix 1)
A gaze position calculation unit that calculates the gaze position of the observer in the display surface of the display device, using an image including an eyeball of an observer observing the display device imaged by the imaging device;
The second display in which the first display image is changed based on the first gaze position calculated by the gaze position calculation unit for the observer while the first display image is displayed on the display device. A display image generation unit for generating an image;
The second gaze position calculated by the gaze position calculation unit for the observer while the second display image is displayed on the display device, and the change of the second image with respect to the first display image A correction amount calculation unit that calculates a correction amount for the gaze position of the observer based on the amount and the first gaze position;
An information processing system characterized by this.
(Appendix 2)
The display image generation unit generates the second display image in which a display position of an image existing around the first gaze position in the first display image is changed.
The information processing system according to attachment 1, wherein
(Appendix 3)
The display image generation unit generates the second display image by enlarging or reducing the first display image around the first gaze position in the first display image.
The information processing system according to attachment 1, wherein
(Appendix 4)
The display image generation unit translates a display position of an image included in the first display image by a predetermined distance to generate the second display image;
The information processing system according to attachment 1, wherein
(Appendix 5)
The display image generation unit generates the second display image and displays the first display image and an image included in the second display image on the first display image before displaying the second display image on the display device. Sequentially generating a plurality of display images that gradually change from a display position in the display image toward a display position in the second display image, and displaying the display image on the display device.
The information processing system according to attachment 1, wherein
(Appendix 6)
The gaze position calculation unit gazes the observer based on a distribution of the gaze position of the observer in the display surface of the display device calculated from each of the plurality of images captured by the imaging device within a predetermined period. Calculate the position,
The correction amount calculation unit calculates the line-of-sight position based on the first gaze position, the second gaze position, and a change amount of the second display image with respect to the first display image. Correct the calculation formula used,
The information processing system according to attachment 1, wherein
(Appendix 7)
The information processing system further includes a person information extraction unit that extracts person information about the observer,
The information processing system holds the correction amount for the gaze position and the person information in association with each other, and holds the same person information as the person information of the observer at the time of calculating the first gaze position. The first gaze position is calculated using the correction amount associated with the person information when
The information processing system according to attachment 1, wherein
(Appendix 8)
The information processing system detects a line of sight of the observer based on a positional relationship between a position of corneal reflection in a portion of the eyeball of the observer included in an image captured by the imaging device and a center position of a pupil , Further comprising
The information processing system according to attachment 1, wherein
(Appendix 9)
The information processing system includes:
Only when the first gaze position is within a predetermined range in the display surface of the display device, the second gaze position is calculated and a correction amount for the gaze position is calculated.
The information processing system according to attachment 1, wherein
(Appendix 10)
Computer
An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing method characterized by executing processing.
(Appendix 11)
In the process of generating the second display image, the computer generates the second display image by changing a display position of an image existing around the first gaze position in the first display image. To
The information processing method according to supplementary note 10, wherein:
(Appendix 12)
In the process of generating the second display image, the computer enlarges or reduces the first display image with the first gaze position in the first display image as a center, and the second display image. Generate
The information processing method according to supplementary note 10, wherein:
(Appendix 13)
In the process of generating the second display image, the computer generates the second display image by translating the display position of the image included in the first display image by a predetermined distance in a predetermined direction. ,
The information processing method according to supplementary note 10, wherein:
(Appendix 14)
Before the computer generates the second display image and displays the second display image on the display device, the display positions of the first display image and the image included in the second display image are in the first display image. A plurality of display images that change stepwise from the display position toward the display position in the second display image are sequentially generated and displayed on the display device;
The information processing method according to appendix 10, wherein the processing is executed.
(Appendix 15)
In the process of calculating the first gaze position and the second gaze position, the computer is configured to calculate the first gaze position and the second gaze position within the display surface of the display device calculated from each of the plurality of images captured by the imaging device within a predetermined period. Calculating the gaze position based on the gaze position distribution of the observer;
In the process of calculating the correction amount for the gaze position, the computer is based on the first gaze position, the second gaze position, and the amount of change in the second image with respect to the first display image. And correcting the calculation formula used to calculate the line-of-sight position,
The information processing method according to supplementary note 10, wherein:
(Appendix 16)
The computer further executes a process of extracting person information about the observer, and a process of associating and holding the extracted person information and a correction amount for the gaze position,
In the process of calculating the first gaze position, the computer uses the correction amount associated with the person information when the computer holds the same person information as the extracted person information of the observer. Calculating the first gaze position;
The information processing method according to supplementary note 10, wherein:
(Appendix 17)
The computer detects the line of sight of the observer based on the positional relationship between the position of corneal reflection in the eyeball portion of the observer included in the image captured by the imaging device and the center position of the pupil, and a predetermined calculation formula Calculating the line-of-sight position of the observer on the display surface of the display device using
The information processing method according to appendix 10, wherein the processing is further executed.
(Appendix 18)
The computer calculates the second gaze position and calculates a correction amount for the gaze position only when the first gaze position is within a predetermined range in the display surface of the display device.
The information processing method according to appendix 10, wherein the processing is executed.
(Appendix 19)
An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing program that causes a computer to execute processing.

1 情報処理システム
2 情報処理装置
201 画像取得部
202 表示制御部
202a 視線検出部
202b 注視位置算出部
202c 補正量算出部
202d 人物情報抽出部
203 表示画像生成部
204 表示画像出力部
205 記憶部
3,1004 表示装置
301 表示面
4 光源
5 撮像装置
6 観察者
601 眼球
602 角膜反射
603 瞳孔
7 画像
801,811 算出した注視位置
803,813 実際の注視位置
10 コンピュータ
1001 プロセッサ
1002 主記憶装置
1003 補助記憶装置
1005 インタフェース装置
1006 通信装置
1007 記憶媒体駆動装置
DESCRIPTION OF SYMBOLS 1 Information processing system 2 Information processing apparatus 201 Image acquisition part 202 Display control part 202a Gaze detection part 202b Gaze position calculation part 202c Correction amount calculation part 202d Person information extraction part 203 Display image generation part 204 Display image output part 205 Storage part 3, 1004 Display device 301 Display surface 4 Light source 5 Imaging device 6 Observer 601 Eyeball 602 Corneal reflection 603 Pupil 7 Images 801 and 811 Calculated gaze position 803 and 813 Actual gaze position 10 Computer 1001 Processor 1002 Main storage device 1003 Auxiliary storage device 1005 Interface device 1006 Communication device 1007 Storage medium drive device

Claims (9)

撮像装置により撮像された表示装置を観察する観察者の眼球を含む画像を用いて、前記表示装置の表示面内における前記観察者の注視位置を算出する注視位置算出部と、
第1の表示画像を前記表示装置に表示させているときに、観察者について前記注視位置算出部で算出した第1の注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成する表示画像生成部と、
前記第2の表示画像を前記表示装置に表示させているときに前記観察者について前記注視位置算出部で算出した第2の注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、前記第1の注視位置とに基づいて、前記観察者についての注視位置に対する補正量を算出する補正量算出部と、を備える、
ことを特徴とする情報処理システム。
A gaze position calculation unit that calculates the gaze position of the observer in the display surface of the display device, using an image including an eyeball of an observer observing the display device imaged by the imaging device;
The second display in which the first display image is changed based on the first gaze position calculated by the gaze position calculation unit for the observer while the first display image is displayed on the display device. A display image generation unit for generating an image;
The second gaze position calculated by the gaze position calculation unit for the observer while the second display image is displayed on the display device, and the change of the second image with respect to the first display image A correction amount calculation unit that calculates a correction amount for the gaze position of the observer based on the amount and the first gaze position;
An information processing system characterized by this.
前記表示画像生成部は、前記第1の表示画像において前記第1の注視位置の周囲に存在する像の表示位置を変化させた前記第2の表示画像を生成する、
ことを特徴とする請求項1に記載の情報処理システム。
The display image generation unit generates the second display image in which a display position of an image existing around the first gaze position in the first display image is changed.
The information processing system according to claim 1.
前記表示画像生成部は、前記第1の表示画像における前記第1の注視位置を中心として前記第1の表示画像を拡大又は縮小して前記第2の表示画像を生成する、
ことを特徴とする請求項1に記載の情報処理システム。
The display image generation unit generates the second display image by enlarging or reducing the first display image around the first gaze position in the first display image.
The information processing system according to claim 1.
前記表示画像生成部は、前記第1の表示画像に含まれる像の表示位置を所定の距離だけ並進移動させて前記第2の表示画像を生成する、
ことを特徴とする請求項1に記載の情報処理システム。
The display image generation unit translates a display position of an image included in the first display image by a predetermined distance to generate the second display image;
The information processing system according to claim 1.
前記表示画像生成部は、前記第2の表示画像を生成して前記表示装置に表示させる前に、前記第1の表示画像及び前記第2の表示画像に含まれる像の表示位置が前記第1の表示画像における表示位置から前記第2の表示画像における表示位置に向かって段階的に変化する複数の表示画像を順次生成して前記表示装置に表示させる、
ことを特徴とする請求項1に記載の情報処理システム。
The display image generation unit generates the second display image and displays the first display image and an image included in the second display image on the first display image before displaying the second display image on the display device. Sequentially generating a plurality of display images that gradually change from a display position in the display image toward a display position in the second display image, and displaying the display image on the display device.
The information processing system according to claim 1.
前記情報処理システムは、前記観察者についての人物情報を抽出する人物情報抽出部を、更に備え、
当該情報処理システムは、前記注視位置に対する補正量と前記人物情報とを対応付けて保持し、前記第1の注視位置を算出する際の前記観察者の人物情報と同一の人物情報を保持している場合に当該人物情報と対応付けられた前記補正量を用いて前記第1の注視位置を算出する、
ことを特徴とする請求項1に記載の情報処理システム。
The information processing system further includes a person information extraction unit that extracts person information about the observer,
The information processing system holds the correction amount for the gaze position and the person information in association with each other, and holds the same person information as the person information of the observer at the time of calculating the first gaze position. The first gaze position is calculated using the correction amount associated with the person information when
The information processing system according to claim 1.
前記情報処理システムは、
前記第1の注視位置が前記表示装置の表示面内における所定の範囲内である場合にのみ、前記第2の注視位置を算出し前記注視位置に対する補正量を算出する、
ことを特徴とする請求項1に記載の情報処理システム。
The information processing system includes:
Only when the first gaze position is within a predetermined range in the display surface of the display device, the second gaze position is calculated and a correction amount for the gaze position is calculated.
The information processing system according to claim 1.
コンピュータが、
第1の表示画像を表示させた表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第1の注視位置を算出し、
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理を実行することを特徴とする情報処理方法。
Computer
An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing method characterized by executing processing.
第1の表示画像を表示させた表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第1の注視位置を算出し、
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理をコンピュータに実行させる情報処理プログラム。
An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing program that causes a computer to execute processing.
JP2015242657A 2015-12-11 2015-12-11 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM Expired - Fee Related JP6540490B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015242657A JP6540490B2 (en) 2015-12-11 2015-12-11 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015242657A JP6540490B2 (en) 2015-12-11 2015-12-11 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP2017107511A true JP2017107511A (en) 2017-06-15
JP6540490B2 JP6540490B2 (en) 2019-07-10

Family

ID=59059931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242657A Expired - Fee Related JP6540490B2 (en) 2015-12-11 2015-12-11 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP6540490B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6285068B1 (en) * 2017-05-31 2018-02-28 キッコーマン株式会社 Nucleic acid-containing fermented seasoning and method for producing the same
JP2019161508A (en) * 2018-03-14 2019-09-19 カシオ計算機株式会社 Display device, display processing method, and display processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1176165A (en) * 1997-09-02 1999-03-23 Sanyo Electric Co Ltd Visual axis detection device
JP2012065781A (en) * 2010-09-22 2012-04-05 Fujitsu Ltd Line-of-sight detection device, and correction coefficient determination program
JP2013255781A (en) * 2012-05-16 2013-12-26 Taika:Kk Method for adjusting point-of-gaze for visual line detection unit and pointing device for display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1176165A (en) * 1997-09-02 1999-03-23 Sanyo Electric Co Ltd Visual axis detection device
JP2012065781A (en) * 2010-09-22 2012-04-05 Fujitsu Ltd Line-of-sight detection device, and correction coefficient determination program
JP2013255781A (en) * 2012-05-16 2013-12-26 Taika:Kk Method for adjusting point-of-gaze for visual line detection unit and pointing device for display

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6285068B1 (en) * 2017-05-31 2018-02-28 キッコーマン株式会社 Nucleic acid-containing fermented seasoning and method for producing the same
JP2018201352A (en) * 2017-05-31 2018-12-27 キッコーマン株式会社 Nucleic acid-containing fermentation seasoning and manufacturing method therefor
JP2019161508A (en) * 2018-03-14 2019-09-19 カシオ計算機株式会社 Display device, display processing method, and display processing program
JP7077684B2 (en) 2018-03-14 2022-05-31 カシオ計算機株式会社 Display device, display processing method, and display processing program

Also Published As

Publication number Publication date
JP6540490B2 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
JP6480434B2 (en) System and method for direct pointing detection for interaction with digital devices
EP3367214A1 (en) Line-of-sight input device, line-of-sight input method, and line-of-sight input program
US10051244B2 (en) Display image formation device and display image formation method
KR20130108643A (en) Systems and methods for a gaze and gesture interface
JP2015118531A (en) Display control device and program
JP6123694B2 (en) Information processing apparatus, information processing method, and program
JP2014188322A (en) Visual line detection device, visual line detection method and program
JP2006267604A (en) Composite information display device
JP2006285715A (en) Sight line detection system
JP5857082B2 (en) Display device and electronic device
JP5868128B2 (en) Information processing apparatus and control method thereof
JP5949389B2 (en) Detection apparatus, detection program, and detection method
JP6540490B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
JP2013101524A (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information recording medium
JP6500570B2 (en) Image display apparatus and image display method
JP2019128748A (en) Line-of-sight calibration data generation device, line-of-sight measurement apparatus, and program thereof
JP2010258603A (en) Communication terminal and method of adjusting display size
JPH11238124A (en) Image display method and device
JP6647150B2 (en) Information display device
KR102118505B1 (en) System and method for measurement of visual acuity based on the analysis of user eye movements
JP2016076853A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2015046111A (en) Viewpoint detection device and viewpoint detection method
KR20110100987A (en) User interface method using eye-gaze tracking and terminal thereof
JP2013257830A (en) Information processor
JP2020096703A (en) Medical image management device and medical image management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees