JP2017107511A - Information processing system, information processing method, and information processing program - Google Patents
Information processing system, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2017107511A JP2017107511A JP2015242657A JP2015242657A JP2017107511A JP 2017107511 A JP2017107511 A JP 2017107511A JP 2015242657 A JP2015242657 A JP 2015242657A JP 2015242657 A JP2015242657 A JP 2015242657A JP 2017107511 A JP2017107511 A JP 2017107511A
- Authority
- JP
- Japan
- Prior art keywords
- display
- gaze position
- image
- observer
- display image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 190
- 238000003672 processing method Methods 0.000 title claims description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 204
- 238000012937 correction Methods 0.000 claims abstract description 100
- 238000003384 imaging method Methods 0.000 claims abstract description 34
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims description 39
- 238000000605 extraction Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 description 149
- 238000006243 chemical reaction Methods 0.000 description 49
- 238000001514 detection method Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 238000001028 reflection method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 101100244967 Mus musculus Prkx gene Proteins 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、情報処理システム、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing system, an information processing method, and an information processing program.
コンピュータ等の情報処理装置における情報の入力方法の1つとして、利用者(オペレータ)の視線を利用した入力方法が知られている。この種の入力方法では、利用者が表示装置の表示面内における所定の位置を注視することにより、その位置と対応付けられた情報が情報処理装置に入力される。利用者が注視している位置は、撮像装置で撮像した利用者の眼球の画像から検出した利用者の視線に基づいて算出する。 As one of information input methods in an information processing apparatus such as a computer, an input method using a user's (operator) line of sight is known. In this type of input method, when a user gazes at a predetermined position in the display surface of the display device, information associated with the position is input to the information processing device. The position where the user is gazing is calculated based on the line of sight of the user detected from the image of the user's eyeball imaged by the imaging device.
利用者の視線の検出方法の1つに、瞳孔−角膜反射法と呼ばれる方法がある。瞳孔−角膜反射法では、利用者の眼球の画像における所定の光源からの光に対する角膜反射の位置と、瞳孔の中心位置との位置関係に基づいて、利用者の視線を検出する。 One method of detecting the user's line of sight is a method called pupil-corneal reflection method. In the pupil-cornea reflection method, the user's line of sight is detected based on the positional relationship between the position of corneal reflection with respect to light from a predetermined light source in the image of the user's eyeball and the center position of the pupil.
ところが、角膜の曲率半径、瞳孔間距離等は利用者毎に個人差がある。そのため、瞳孔−角膜反射法で検出した利用者の視線に基づいて利用者が注視している位置を算出した場合、利用者が実際に注視している位置と、情報処理装置が算出した注視位置とにずれが生じることがある。利用者が実際に注視している位置と、情報処理装置が算出した注視位置とにずれが生じている場合、情報処理装置に正しい情報を入力することが難しくなる。したがって、視線を利用した入力方法では、事前に、利用者が実際に注視している位置と、情報処理装置が算出した注視位置とのずれを解消するための注視位置の較正を行う。 However, the radius of curvature of the cornea, the interpupillary distance, and the like vary among individuals. Therefore, when the position where the user is gazing based on the user's line of sight detected by the pupil-corneal reflection method is calculated, the position where the user is actually gazing and the gazing position calculated by the information processing device Deviation may occur. If there is a difference between the position where the user is actually gazing and the gazing position calculated by the information processing apparatus, it is difficult to input correct information to the information processing apparatus. Therefore, in the input method using the line of sight, the gaze position is calibrated in advance in order to eliminate the deviation between the position where the user is actually gazing and the gaze position calculated by the information processing apparatus.
注視位置の較正方法の1つとして、視線を利用した入力方法と、マウス装置等の入力装置を利用した入力方法とを併用して行う較正方法が知られている。この種の較正方法では、利用者が入力装置を操作して表示装置に表示された像(オブジェクト)を選択した際の表示面内における操作位置と、利用者の視線に基づいて算出した注視位置とに基づいて注視位置のずれを補正する(例えば、特許文献1を参照)。 As one method for calibrating the gaze position, a calibration method is known in which an input method using a line of sight and an input method using an input device such as a mouse device are used in combination. In this type of calibration method, the gaze position calculated based on the operation position on the display surface when the user selects the image (object) displayed on the display device by operating the input device, and the user's line of sight Based on the above, the gaze position shift is corrected (see, for example, Patent Document 1).
また、注視位置の較正方法として、利用者がテスト画像を観察する際の眼球運動と、利用者の視野データとに基づいて眼球運動データを較正し、注視位置を較正する方法が知られている(例えば、特許文献2を参照)。 Further, as a method for calibrating the gaze position, a method for calibrating the gaze position by calibrating the eye movement data based on the eye movement when the user observes the test image and the visual field data of the user is known. (For example, see Patent Document 2).
更に、注視位置の較正方法として、利用者の眼球の画像における眼球の位置から表示装置の表示面内の注視位置に向かうベクトルと、画像から算出した視線のベクトルとに基づいて較正する方法が知られている(例えば、特許文献3を参照)。 Further, as a method for calibrating the gaze position, a method is known in which calibration is performed based on a vector from the position of the eyeball in the image of the user's eyeball to the gaze position in the display surface of the display device and a gaze vector calculated from the image. (For example, see Patent Document 3).
しかしながら、視線を利用した入力方法と、マウス装置等の入力装置を利用した入力方法とを併用して行う注視位置の較正方法では、注視位置を構成する際に利用者が視線による入力操作と入力装置による入力操作をしなければならない。そのため、注視位置の較正に手間がかかる。更に、入力方法が視線を利用した入力方法のみである場合、入力装置を用いた注視位置の較正方法は適用対象外となる。 However, in the gaze position calibration method that uses both the gaze-based input method and the input method that uses an input device such as a mouse device, when the gaze position is configured, the user performs the gaze input operation and input. The input operation must be performed by the device. Therefore, it takes time to calibrate the gaze position. Furthermore, when the input method is only the input method using the line of sight, the gaze position calibration method using the input device is not applicable.
また、テスト画像等を用いた注視位置の較正方法では、利用者に注視させるための特徴的な部分を含む画像を用意する必要があり、かつその特徴的な部分を利用者に注視させる必要がある。そのため、利用者が実際に注視した部分と、利用者に注視させたい部分とが一致していない場合には注視位置を適正に較正することが難しくなり、注視位置の較正をやり直さなければならないことがある。 In addition, in the method for calibrating the gaze position using the test image or the like, it is necessary to prepare an image including a characteristic part for letting the user gaze, and it is necessary to make the user gaze at the characteristic part. is there. Therefore, it is difficult to properly calibrate the gaze position when the part that the user actually gazes and the part that the user wants to gaze are not matched, and the gaze position must be calibrated again There is.
1つの側面において、本発明は、視線を利用した情報の入力が可能な情報処理システムにおける利用者の注視位置を補正する際の利用者の手間を軽減することを目的とする。 In one aspect, an object of the present invention is to reduce a user's trouble when correcting a gaze position of a user in an information processing system capable of inputting information using a line of sight.
1つの態様の情報処理システムは、注視位置算出部と、表示画像生成部と、補正量算出部と、を備える。注視位置算出部は、撮像装置により撮像された表示装置を観察する観察者の眼球を含む画像を用いて、表示装置の表示面内における観察者の注視位置を算出する。表示画像生成部は、第1の表示画像を表示装置に表示させているときに、観察者について注視位置算出部で算出した第1の注視位置に基づいて第1の表示画像を変化させた第2の表示画像を生成する。補正量算出部は、第2の表示画像を表示装置に表示させているときに観察者について注視位置算出部で算出した第2の注視位置と、第1の表示画像に対する第2の表示画像の変化量と、第1の注視位置とに基づいて、観察者についての注視位置に対する補正量を算出する。 An information processing system according to one aspect includes a gaze position calculation unit, a display image generation unit, and a correction amount calculation unit. The gaze position calculation unit calculates the gaze position of the observer within the display surface of the display device using an image including the eyeball of the observer who observes the display device imaged by the imaging device. The display image generation unit changes the first display image based on the first gaze position calculated by the gaze position calculation unit for the observer while the first display image is displayed on the display device. 2 display images are generated. The correction amount calculation unit calculates the second gaze position calculated by the gaze position calculation unit for the observer while the second display image is displayed on the display device, and the second display image with respect to the first display image. Based on the change amount and the first gaze position, a correction amount for the gaze position for the observer is calculated.
上述の態様によれば、視線を利用した情報の入力が可能な情報処理システムにおける利用者の注視位置を補正する際の利用者の手間を軽減することができる。 According to the above-described aspect, it is possible to reduce the labor of the user when correcting the gaze position of the user in the information processing system capable of inputting information using the line of sight.
[第1の実施形態]
図1は、第1の実施形態に係る情報処理システムの構成を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of an information processing system according to the first embodiment.
図1に示すように、情報処理システム1は、情報処理装置2と、表示装置3と、光源4と、撮像装置5と、を備える。
As illustrated in FIG. 1, the
情報処理装置2は、表示装置3に表示させる表示画像の生成処理を含む各種の情報処理を行う。表示装置3は、情報処理装置2が生成した表示画像を表示する。
The
光源4及び撮像装置5は、観察者の視線の検出に用いる画像を撮像するためのものである。観察者の視線の検出は、情報処理装置2が行う。ここで、観察者は、表示装置3の表示面301を観察する者である。また、観察者の視線は、表示装置3の表示面301内における観察者が見ている位置を表す。以下の説明では、視線のことを視線位置ともいう。
The
光源4及び撮像装置5は、例えば、図1に示したように、表示装置3における表示面301の下方、かつ表示面301における水平方向の中心となる位置に近接させて配置してある。なお、光源4は観察者の顔に光が照射される向きで配置してあり、撮像装置5は観察者の顔を撮像する向きで配置してある。
For example, as illustrated in FIG. 1, the
本実施形態の情報処理装置2は、瞳孔−角膜反射法により観察者の視線を検出する。瞳孔−角膜反射法は、光源4からの光を観察者の顔に照射した状態で撮像した観察者の眼球の画像における角膜反射の位置と瞳孔の中心位置とに基づいて、観察者の視線を検出する方法である。瞳孔−角膜反射法では、光源4として赤外線発光ダイオード(IR LED)等の赤外線光源を用い、撮像装置5として赤外線カメラを用いる。
The
図2は、観察者の視線の検出方法を説明する図である。
図2の(a)に示すように、表示装置3の表示面301と向かい合う位置に観察者6がいる場合、光源4が発した光の一部は観察者6の眼球601で反射する。そのため、図2の(b)に示すように、撮像装置5で撮像した画像7における観察者の眼球601の部分には、光源4からの光による角膜反射602が見られる。瞳孔−角膜反射法では、画像7内における、角膜反射602の位置(PrkX,PrkY)に対する瞳孔603の中心位置(PupX,PupY)に基づいて観察者6の視線を検出する。観察者6が表示装置3の表示面301を観察している場合、観察者6の視線位置(X,Y)は、例えば、下記式(1−1)及び(1−2)で与えられる。
X=A・(PupX−PrkX)+(DPX/2) ・・・(1−1)
Y=DPY+B・(PupY-PrkY) ・・・(1−2)
FIG. 2 is a diagram for explaining a method for detecting an observer's line of sight.
As shown in FIG. 2A, when the observer 6 is at a position facing the
X = A · (PupX−PrkX) + (DPX / 2) (1-1)
Y = DPY + B ・ (PupY-PrkY) (1-2)
式(1−1)のDPXは、表示面301のx方向(水平方向)の解像度(表示画素数)である。式(1−2)のDPYは、表示面301のy方向(垂直方向)の解像度である。また、式(1−1)のA及び式(1−2)のBは、それぞれx方向の換算係数及びy方向の換算係数である。換算係数は、例えば、撮像装置5から観察者6までの距離、眼球601のサイズ、角膜曲率半径、角膜反射位置と瞳孔中心位置との差等を用いた統計処理の結果に基づいて設定される値である。
DPX in Expression (1-1) is the resolution (the number of display pixels) in the x direction (horizontal direction) of the
本実施形態の情報処理装置2は、一定期間内に撮像された複数の画像から検出した視線位置(X,Y)の分布が所定の範囲内である場合、視線位置の分布に基づいて観察者6が注視している位置を算出する。そして、観察者6が注視している位置が表示装置3の表示面301内における所定の位置である場合、情報処理装置2は、当該所定の位置と対応付けられた情報の入力を受け付ける。例えば、表示装置3に地図を表示している状態で観察者6が地図内のある箇所を注視している場合、情報処理装置2は「観察者が注視している位置を中心として地図(表示画像)を拡大表示する」という情報の入力を受け付ける。以下の説明では、観察者が注視している位置を観察者の注視位置ともいう。
In the
図3は、注視位置のずれを説明する図である。
本実施形態に係る情報処理システム1においては、画像7から算出した観察者6の注視位置と、観察者6が実際に注視している位置とに、個人差によるずれが生じることがある。例えば、図3に示すように、画像7から抽出した視線位置801が所定の範囲802内に分布している場合、注視位置811の座標(X1,Y1)は各視線位置801の座標の平均を取ることで求められる。ところが、視線位置801の算出式における換算係数A,Bは統計処理の結果に基づいて設定される値であり、観察者6に対する換算係数として最適な値ではない可能性が高い。そのため、図3に示したように、算出した注視位置811の座標(X1,Y1)と、観察者6の実際の注視位置803を示す座標(XR,YR)とにはずれが生じる。このように算出した注視位置と観察者の実際の注視位置とにずれが生じている場合、情報処理装置2は、観察者の意図している処理とは異なる処理を行ってしまう可能性がある。例えば、表示装置3に表示された画像に含まれる入力釦の像の近傍を観察者が注視している場合、実際の注視位置803が入力釦の像の表示領域の外側であっても、算出した注視位置811が入力釦の像の表示領域内になることがある。この場合、情報処理装置2には、観察者が意図しない、入力釦と対応した情報が入力される。したがって、この種の情報処理システム1における情報処理装置2は、算出した注視位置と、観察者の実際の注視位置とのずれを解消する補正(キャリブレーション)を行う。本実施形態では、算出した注視位置を補正する代わりに、視線位置(X,Y)の算出式に対する補正を行う。すなわち、本実施形態では、ズーム、スクロールといったような画像変化前後でユーザーは表示面内で同じ対象物に追従、注視し続けることに着目し、画像変化前後での注視位置の変化量と情報処理装置側の画像変化量とをもとに、注視位置の較正(補正)を実施する。以下の説明では、画像から算出した注視位置を算出注視位置ともいう。
FIG. 3 is a diagram for explaining the shift of the gaze position.
In the
図4は、第1の実施形態に係る情報処理装置の機能的構成を示す図である。
図4に示すように、情報処理装置2は、画像取得部201と、表示制御部202と、表示画像生成部203と、表示画像出力部204と、記憶部205と、を備える。
FIG. 4 is a diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment.
As illustrated in FIG. 4, the
画像取得部201は、撮像装置5から画像データを取得する。以下の説明では、画像データのことを単に画像ともいう。
The
表示制御部202は、取得した画像から観察者6の視線位置(X,Y)を検出する処理を行い、検出処理の結果に基づいて表示画像生成部203における表示画像の生成処理を制御する。情報処理システム1を起動させた直後等、画像から観察者6の視線位置(X,Y)が検出されない場合、表示制御部202は、表示画像生成部203に対し初期画面の表示画像を生成する制御信号を出力する。また、画像から観察者6の視線位置(X,Y)が検出された場合、表示制御部202は、観察者6が表示装置3の表示面301を注視しているか否かを判定する。観察者6が表示面301を注視している場合、表示制御部202は、表示画像生成部203に対し、観察者6の注視位置(算出注視位置)を中心として表示面301に表示された像(表示像)を拡大又は縮小させた表示画像を生成する制御信号を出力する。更に、表示制御部202は、表示装置3の表示面301に表示された像を、算出注視位置を中心として拡大表示させたときに、観察者6の視線位置の算出式を補正する処理を行う。この表示制御部202は、視線検出部202aと、注視位置算出部202bと、補正量算出部202cと、を含む。視線検出部202aは、取得した画像から観察者6の視線位置(X,Y)を検出する処理を行う。注視位置算出部202bは、一定期間内における観察者6の視線位置(X,Y)の分布に基づいて観察者6の注視位置を算出する。補正量算出部202cは、表示面301の像を拡大する前の注視位置と拡大した後の注視位置とに基づいて、視線位置(X,Y)の算出式における換算係数A,Bの補正値を算出する。
The
表示画像生成部203は、表示制御部202からの制御信号に基づいて、表示装置3に表示させる表示画像を生成する。表示画像生成部203は、表示面301に表示させる画像のデータを記憶部205の表示用データ205aを読み出して表示画像を生成する。
The display
表示画像出力部204は、表示画像生成部203が生成した表示画像を表示装置3に出力する。
The display
記憶部205には、表示用データ205aに加え、表示制御部202が参照する各種のデータを記憶させる。記憶部205に記憶させる各種のデータには、係数初期値205bと、前注視位置205cと、係数補正値205dと、が含まれる。係数初期値205bは、視線位置の算出式(1−1)及び式(1−2)における換算係数A,Bの初期値である。前注視位置205cは、注視位置算出部202bが算出した過去の注視位置である。係数補正値205dは、補正量算出部202cが算出した換算係数A,Bの補正値である。
The
なお、図4においては、画像取得部201、表示制御部202、表示画像生成部203、表示画像出力部204、記憶部205が1台の情報処理装置2に搭載されている例を示しているが、実装のされ方はこれに限る必要はない。例えば、ネットワークを介して接続された複数のコンピュータ上に、各処理部が分散されて配置されても構わない。すなわち、情報処理装置2はコンピュータシステムとして実現されてもよい。
4 illustrates an example in which the
本実施形態の情報処理システム1を稼動させると、情報処理装置2は、まず初期画面の表示画像を生成して表示装置3に表示させる。初期画面の表示画像は、表示画像生成部203が生成する。表示画像生成部203が生成した初期画面の表示画像は、表示画像出力部204を介して表示装置3に出力される。その後、情報処理装置2は、図5A及び図5Bに示したような処理を行う。
When the
図5Aは、第1の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。図5Bは、第1の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。 FIG. 5A is a flowchart (No. 1) for explaining a method of correcting a gaze position calculation formula according to the first embodiment. FIG. 5B is a flowchart (part 2) for explaining the correction method for the gaze position calculation formula according to the first embodiment.
情報処理装置2は、図5Aに示すように、まず、撮像装置5から画像を取得して視線を検出する処理(ステップS1)を行う。ステップS1の処理は、画像取得部201と、表示制御部202の視線検出部202aとが行う。画像取得部201は、撮像装置5から画像を取得して視線検出部202aに転送する。視線検出部202aは、取得した画像に含まれる観察者の眼球の部分から角膜反射の位置(PrkX,PrkY)及び瞳孔の中心位置(PupX,PupY)を検出し、式(1−1)及び式(1−2)を用いて観察者の視線位置(X,Y)を算出する。また、1回のステップS1の処理において、視線検出部202aは、N秒分(例えば1秒分)の複数の画像のそれぞれから観察者の視線位置(X,Y)を検出する処理を行う。
As illustrated in FIG. 5A, the
次に、情報処理装置2は、観察者が表示装置3の表示面301を注視しているか否かを判定する(ステップS2)。ステップS2の判定は、例えば、視線検出部202aが行う。視線検出部202aは、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)が所定の視野角範囲(例えば3度)の円内に含まれる場合に、観察者6が表示面301を注視していると判定する。観察者6が表示面301を注視していないと判定した場合(ステップS2;No)、情報処理装置2が行う処理はステップS1に戻る。なお、ステップS2の判定は、観察者6の有無の判定を含む。すなわち、観察者6がおらず取得した画像から視線が検出されなかった場合も、ステップS2の判定結果は「No」となる。
Next, the
一方、観察者6が表示面301を注視していると判定した場合(ステップS2;Yes)、情報処理装置2は、次に、観察者6の注視位置を算出する(ステップS3)。ステップS3の処理は、注視位置算出部202bが行う。注視位置算出部202bは、観察者6の注視位置(X1,Y1)として、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)の平均値を算出する。
On the other hand, when it is determined that the observer 6 is gazing at the display surface 301 (step S2; Yes), the
観察者6の注視位置(X1,Y1)を算出すると、情報処理装置2は、次に、注視位置を中心として表示像を拡大表示させる(ステップS4)。ステップS4の処理は、表示画像制御部202、表示画像生成部203、及び表示画像出力部204が行う。表示画像制御部202は、ステップS3で観察者6の注視位置(X1,Y1)を算出した後、注視位置(X1,Y1)を中心として表示像を拡大させる制御信号を表示画像生成部203に出力する。表示画像生成部203は、制御信号に従って、現在表示装置3に表示させている像(表示像)についての表示用データを記憶部205の表示用データ205aから読み出し、注視位置を中心として所定の拡大率で拡大した表示画像を生成する。表示画像出力部205は、表示画像生成部204が生成した表示画像を表示装置3に出力する。
When the gaze position (X1, Y1) of the observer 6 is calculated, the
なお、ステップS4において表示画像を拡大させる場合、拡大前の表示画像における像が所定の拡大率まで段階的(連続的)に拡大されるよう表示画像を変化させることが好ましい。 In addition, when enlarging a display image in step S4, it is preferable to change a display image so that the image in the display image before expansion is expanded stepwise (continuously) to a predetermined magnification.
ステップS4の後、情報処理装置2は、表示像を拡大する前の注視位置がシフト量算出領域内であるか否かを判定する(ステップS5)。ステップS5の判定は、例えば、注視位置算出部202bが行う。シフト量算出領域は、視線位置の算出式を補正するか否かの判定基準として表示面301内に設定した領域である。拡大する前の注視位置がシフト量算出領域の外側である場合(ステップS5;No)、情報処理装置2は、図5Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。
After step S4, the
一方、拡大する前の注視位置がシフト量算出領域内である場合(ステップS5;Yes)、情報処理装置2は、次に、拡大する前の注視位置を保持する(ステップS6)。ステップS6の処理は、注視位置算出部202bが行う。注視位置算出部202bは、ステップS3で算出した注視位置(X1,Y1)を、前注視位置205cとして記憶部205に記憶させる。
On the other hand, when the gaze position before enlargement is within the shift amount calculation region (step S5; Yes), the
ステップS6の後、情報処理装置2は、撮像装置5から画像を取得して視線を検出する処理(ステップS7)を行い、観察者6が表示面301を注視しているか否かを判定する(ステップS8)。ステップS7の処理は、ステップS2の処理と同様、画像取得部201と視線検出部202aが行う。また、ステップS8の判定は、ステップS2の判定と同様、視線検出部202aが行う。
After step S6, the
表示像を拡大した後、観察者6が表示面301を注視していない場合(ステップS8;No)、情報処理装置2は、図5Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。
After the display image is enlarged, when the observer 6 is not gazing at the display surface 301 (step S8; No), the
一方、表示像を拡大した後も観察者6が表示面301を注視している場合(ステップS8;Yes)、情報処理装置2は、次に、拡大後の注視位置(X2,Y2)を算出する(ステップS9)。ステップS9の処理は、ステップS3の処理と同様、注視位置算出部202bが行う。
On the other hand, when the observer 6 is gazing at the
表示像を拡大した後の注視位置(X2,Y2)を算出すると、情報処理装置2は、次に、図5Bに示すように、算出した注視位置(X1,Y1)と観察者6の実際の注視位置とのずれ量(シフト量)を算出する(ステップS10)。ステップS10の処理は、補正量算出部202cが行う。補正量算出部202cは、表示画像を拡大する前に算出した第1の注視位置(X1,Y1)と、拡大した後に算出した第2の注視位置と、拡大率とに基づいて、x方向のシフト量diffX及びy方向のシフト量diffYを算出する。
When the gaze position (X2, Y2) after enlarging the display image is calculated, the
シフト量diffX,diffYを算出すると、情報処理装置2は、次に、算出したシフト量が閾値以上であるか否かを判定する(ステップS11)。シフト量が閾値よりも小さい場合(ステップS11;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。
After calculating the shift amounts diffX and diffY, the
一方、シフト量が閾値以上である場合(ステップS11;Yes)、情報処理装置2は、次に、視線位置算出式の換算係数A,Bを補正する(ステップS12)。ステップS12の処理は、補正量算出部202cが行う。補正量算出部202cは、拡大前の注視位置(X1,Y1)と、表示像の拡大率と、算出したシフト量diffX,diffYとを用いて、式(1−1)の換算係数A及び式(1−2)の換算係数Bを補正する。
On the other hand, when the shift amount is equal to or greater than the threshold (step S11; Yes), the
補正量算出部202cは、換算係数の補正値A’,B’を係数補正値205dとして記憶部205に記憶させる。これにより、表示像を拡大する処理と連動した視線位置算出式の係数を補正する処理が終了する。
The correction
図6は、拡大表示の例を示す図である。
本実施形態の情報処理システム1は、例えば、地図を表示するサイネージ等に適用可能である。この種のサイネージにおいては、例えば、図6の(a)に示すように、表示装置3の表示面301に近隣の地図が表示されている。そして、表示面301と向かい合う位置にいる観察者6が表示面301に表示された地図上のある点811を注視すると、図示しない情報処理装置2は注視位置811の座標(X1,Y1)を算出する。その後、情報処理装置2は、注視位置811の座標(X1,Y1)を中心として地図を拡大表示させる処理(ステップS4)を行う。このとき、情報処理装置2は、図6の(a)に示した領域821内の像が注視位置811を中心としてズームアップされるよう段階的に拡大させた複数の表示画像を生成して表示装置3に順次表示させる。すなわち、観察者6が表示面301に表示された地図上のある点811を注視した場合、表示装置3の表示面301に表示される像は、図6の(b)に示すように、注視位置811及びその周囲を拡大した像に段階的に変化する。なお、注視位置811を中心として地図を拡大させる場合、領域821のx方向の寸法及びy方向の寸法は、それぞれ、表示面301の寸法と拡大率の逆数とから算出する。また、領域821の左上の角部の位置(X5,Y5)は、注視位置811から表示面の左上の角部までの距離及び方向と、拡大率の逆数とから算出する。
FIG. 6 is a diagram illustrating an example of enlarged display.
The
このように、観察者6の注視位置811を中心として地図を拡大することにより、拡大の前後において表示面301内の注視位置811が変わらないため、拡大後に観察者6が注視していた位置を見失う可能性が低くなる。
In this way, by enlarging the map around the
ところが、情報処理装置2が算出した注視位置と、観察者6の実際の注視位置とには、上記のように角膜反射の個人差によるずれが生じる。そのため、情報処理装置2は、注視位置に対する補正量を算出する処理を行う。本実施形態では、補正量を算出する処理として、算出した注視位置と、観察者の実際の注視位置とのずれ量(シフト量)を求め、当該シフト量に基づいて視線位置算出式の換算係数A,Bを観察者6に適した値に補正する処理を行う。
However, as described above, a shift due to individual differences in corneal reflection occurs between the gaze position calculated by the
図7Aは、シフト量の算出方法を説明する図(その1)である。図7Bは、シフト量の算出方法を説明する図(その2)である。 FIG. 7A is a diagram (part 1) illustrating a method for calculating a shift amount. FIG. 7B is a diagram (part 2) for explaining the shift amount calculation method.
上記のように、情報処理装置2は、まず、換算係数A,Bの初期値(係数初期値)を用いた視線位置算出式により、観察者6の注視位置811の座標(X1,Y1)を算出する。ここで、図7Aの(a)に示すように、算出した注視位置811と観察者6の実際の注視位置813とにずれが生じているとする。この場合、観察者6の実際の注視位置813が座標(XR,YR)であるとすると、シフト量diffX及びdiffYは、下記式(2−1)及び式(2−2)で与えられる。
diffX=XR−X1 ・・・(2−1)
diffY=YR−Y1 ・・・(2−2)
As described above, the
diffX = XR−X1 (2-1)
diffY = YR−Y1 (2-2)
しかしながら、観察者6の実際の注視位置813の座標(XR,YR)は未知であるため、下記式(2−1)及び式(2−2)からシフト量diffX及びdiffYを算出することはできない。そのため、情報処理装置2は、注視位置811を中心として表示像を拡大するときの拡大率zoomと、拡大する前後における算出注視位置の移動量とに基づいて、シフト量diffX及びdiffYを算出する。
However, since the coordinates (XR, YR) of the
拡大前の算出注視位置811を中心として表示像を拡大すると、図7の(b)に示したように、拡大前に注視位置813に表示されていた像815の表示位置(X0,Y0)は、算出注視位置811及び拡大前の注視位置813を通る直線上に位置する。そのため、図7Aの(b)に示すように、拡大前の算出注視位置811と実際の注視位置813との距離をLとすると、算出注視位置811と像815の表示位置との距離はzoom・Lとなる。このように、算出注視位置811を中心として表示像を拡大したことにより、観察者6が実際に注視している像の表示位置がずれる。そのため、観察者6は、注視位置(視線位置)を座標(XR,YR)から座標(X0,Y0)に移動させる。この注視位置の移動の前後において、シフト量diffX及びdiffYは略同一である。したがって、図7Bの(c)に示すように、観察者6が座標(X0,Y0)を注視しているときの算出注視位置816の座標は、実際の注視位置から距離Lの座標(X2,Y2)となる。
When the display image is enlarged around the calculated
上記のように、拡大前に注視位置813に表示されていた像815の表示位置(X0,Y0)は、算出注視位置811及び拡大前の注視位置813を通る直線上に位置する。そのため、像815の表示位置(X0,Y0)と、拡大前の算出注視位置811の座標(X1,Y1)と、拡大後の算出注視位置816の座標(X2,Y2)とは、同一直線上の点とみなすことができる。したがって、これら3点の座標を用いることにより、シフト量diffX及びdiffYは、下記式(3−1)及び式(3−2)で表すことができる。
diffX=(X2−X1)/(zoom−1) ・・・(3−1)
diffY=(Y2−Y1)/(zoom−1) ・・・(3−2)
As described above, the display position (X0, Y0) of the
diffX = (X2-X1) / (zoom-1) (3-1)
diffY = (Y2−Y1) / (zoom−1) (3-2)
情報処理装置2は、式(3−1)により算出したシフト量diffXが閾値以上である場合、式(1−1)の視線位置計算式における換算係数Aを補正する。視線位置のx方向の座標値を算出する式(1−1)は、下記式(4−1)を満たす式に補正する。
XR=X1+diffX
=A'・(PupX1−PrkX1)+DPX/2 ・・・(4−1)
The
XR = X1 + diffX
= A '· (PupX1−PrkX1) + DPX / 2 (4-1)
式(4−1)の換算係数A'は、下記式(5−1)及び式(6−1)により算出する。
A'・(PupX1−PrkX1)=A・(PupX1−PrkX1)+diffX ・・・(5−1)
A'={A・(PupX1−PrkX1)+diffX}/(PupX1−PrkX1) ・・・(6−1)
The conversion coefficient A ′ in the formula (4-1) is calculated by the following formula (5-1) and formula (6-1).
A ′ · (PupX1−PrkX1) = A · (PupX1−PrkX1) + diffX (5-1)
A ′ = {A · (PupX1−PrkX1) + diffX} / (PupX1−PrkX1) (6-1)
また、情報処理装置2は、式(3−2)により算出したシフト量diffYが閾値以上である場合、式(1−2)の視線位置計算式における換算係数Bを補正する。視線位置のy方向の座標値を算出する式(1−2)は、下記式(4−2)を満たす式に補正する。
YR=Y1+diffY
=DPY+B'・(PupY1−PrkY1) ・・・(4−2)
Further, when the shift amount diffY calculated by the equation (3-2) is equal to or larger than the threshold value, the
YR = Y1 + diffY
= DPY + B '・ (PupY1-PrkY1) (4-2)
式(4−2)の換算係数B'は、下記式(5−2)及び式(6−2)により算出する。
B'・(PupY1−PrkY1)=B・(PupY1−PrkY1)+diffY ・・・(5−2)
B'={B・(PupY1−PrkY1)+diffY}/(PupY1−PrkY1) ・・・(6−2)
The conversion coefficient B ′ in the formula (4-2) is calculated by the following formula (5-2) and formula (6-2).
B ′ · (PupY1−PrkY1) = B · (PupY1−PrkY1) + diffY (5-2)
B ′ = {B · (PupY1−PrkY1) + diffY} / (PupY1−PrkY1) (6-2)
すなわち、情報処理装置2は、式(4−1)及び式(6−1)を用いて算出した換算係数A’と、式(4−2)及び式(6−2)を用いて算出した換算係数B’とを、係数補正値205eとして記憶部205に記憶させる。以後、情報処理装置2は、観察者6の注視位置が算出されなくなるか、又は観察者6の注視位置を中心として表示像を拡大し視線位置算出式が再度補正されるまで、補正後の換算係数A’,B’(係数補正値)を用いて観察者6の視線位置を算出する。
That is, the
なお、上記のような方法でシフト量を算出し視線位置算出式の換算係数を正確に補正することができるのは、拡大前に観察者6が実際に注視している位置813に表示されている像が拡大後も表示面301に表示されている場合に限られる。そのため、本実施形態の視線位置算出式の補正方法では、上記のように表示面301内にシフト量算出領域を設定し、拡大前の注視位置がシフト量算出領域内である場合にのみ、シフト量を算出して視線位置算出式の換算係数を補正する。
Note that the shift amount can be calculated by the method as described above, and the conversion coefficient of the gaze position calculation formula can be accurately corrected, which is displayed at the
図8は、シフト量算出領域を説明する図である。
算出注視位置811を中心として表示像を拡大させる場合、観察者の実際の注視位置813が、注視位置811と、表示面301における注視位置811から最も近い辺との間に位置していると、拡大前の注視位置の像が拡大後に表示されない可能性が高い。特に、算出した注視位置811から表示面301の辺までの距離が短い場合に、拡大前の注視位置の像が拡大後に表示されない可能性が高い。拡大前の注視位置の像が拡大後に表示されない場合、拡大後も観察者6が表示面301を注視していたとしても、拡大の前後において観察者6が注視している像が異なる。よって、正確なシフト量diffX,diffYを算出することができず、視線位置算出式の換算係数A,Bに対し誤った補正を行ってしまう可能性がある。
FIG. 8 is a diagram for explaining the shift amount calculation region.
When enlarging the display image around the calculated
そこで、本実施形態に係る視線位置の算出式の補正方法では、図8に示すように、表示装置3の表示面301内にシフト量算出領域301aを設定する。シフト量算出領域301aを設定する際には、上記のような理由から、表示面301における正確なシフト量を算出することができない可能性の高い領域(言い換えるとシフト量を算出しない領域)を基準に設定する。例えば、図8に示したように、表示面301のx方向(水平方向)の各辺からそれぞれ距離CEXの範囲と、表示面301の上辺から距離CEYの範囲とをシフト量を算出しない領域に設定することにより、シフト量算出領域301aが定まる。シフト量を算出しない領域の範囲を表す距離CEX,CEYは、それぞれ、拡大率zoomと、補正対象とするシフト量の値とに基づいて設定する。例えば、拡大率が1.5倍であり、補正後の換算係数A',B'が初期値A,Bの0.8倍程度となるシフト量を補正対象とした場合、距離CEX及びCEYは、それぞれ、下記式(7−1)及び式(7−2)に基づいて算出する。
CEX={DPX・(1-0.8)・1.5}/2 ・・・(7−1)
CEY=DPY・(1-0.8)・1.5 ・・・(7−2)
Therefore, in the method for correcting the gaze position calculation formula according to the present embodiment, a shift
CEX = {DPX ・ (1-0.8) ・ 1.5} / 2 (7-1)
CEY = DPY ・ (1-0.8) ・ 1.5 (7-2)
例えば、表示装置3の表示面301の解像度が1920×1080画素である場合、式(7−1)からCEX=288となり、式(7−2)からCEY=324となる。そのため、表示面301の左端及び右端から幅288画素の範囲、並びに表示面301の上端から幅324画素の範囲を、シフト量を算出しない領域に設定する。
For example, when the resolution of the
なお、シフト量算出範囲301aは、図8に示した領域に限らず、表示面301内の任意の位置に任意の寸法で設定することが可能である。例えば、表示面301の上下方向についても、左右方向と同様、シフト量算出範囲301aの上方及び下方にシフト量を算出しない範囲を設定してもよい。また、拡大表示の対象となる像を表示する領域が表示面301内の一部の領域に限定されている場合、拡大表示の対象となる像を表示する領域の位置及び寸法に合わせてシフト量算出範囲301aを設定してもよい。例えば、表示面301を左右に2分割して左半分の領域のみに拡大表示の対象となる像を表示させる場合、表示面301の左半分の領域内のみにシフト量算出範囲を設定してもよい。
Note that the shift
以上のように、本実施形態に係る情報処理装置2は、観察者6が表示面301を注視した際の拡大表示と連動して視線位置の算出式を補正する。この際、視線位置の算出式は拡大前後の注視位置と拡大率とに基づいて補正するので、観察者6に補正のための装置を操作させることなく視線位置の算出式を補正することができる。また、本実施形態に係る情報処理装置2では、拡大前後の注視位置と拡大率とに基づいて視線位置の算出式を補正するので、補正用のテスト画像に限らず、任意の画像を表示装置に表示させた状態で補正することが可能となる。例えば、地図等のコンテンツを観察者6に提供する情報処理システム1の場合、上記のように、表示装置3に表示させた地図を拡大表示する際に視線位置の算出式を補正することができる。そのため、表示装置3に表示させたテスト画面内の特徴点を所定の順序で注視する等の動作を観察者に行わせることなく、視線位置の算出式を補正することができる。したがって、本実施形態の情報処理システム1によれば、観察者6が視線位置の算出式を補正するための処理を行う手間を省くことができる。
As described above, the
なお、視線位置の算出式を補正するタイミングは、表示画像を拡大するときに限らず、例えば、観察者6の注視位置を中心として表示画像を縮小するときであってもよい。また、拡大又は縮小する表示画像は、観察者6に提供するコンテンツの像に限らず、補正用の画像であってもよい。補正用画像は、例えば、観察者に注視させる位置が一点だけ示された画像でよい。また、観察者6は、補正用画像内の指定位置を注視するだけでよい。そのため、観察者6が行う動作は、画像内の複数の特徴点を所定の順序で注視するような動作と比べて非常に少なくなる。よって、補正用の画像を用いて視線位置の算出式を補正する際の処理が軽減される。 The timing for correcting the gaze position calculation formula is not limited to when the display image is enlarged, but may be, for example, when the display image is reduced around the gaze position of the observer 6. The display image to be enlarged or reduced is not limited to the content image provided to the viewer 6 but may be a correction image. The correction image may be, for example, an image in which only one position indicated by the observer is shown. Further, the observer 6 only needs to gaze at the designated position in the correction image. Therefore, the operation performed by the observer 6 is extremely less than an operation in which a plurality of feature points in the image are watched in a predetermined order. Therefore, the processing for correcting the gaze position calculation formula using the correction image is reduced.
また、観察者6の視線の検出方法は、本実施形態で挙げた瞳孔−角膜反射法に限らず、他の方法(例えば画像内の目頭の位置と虹彩の中心位置とに基づいて検出する方法)であってもよい。 Further, the method of detecting the line of sight of the observer 6 is not limited to the pupil-corneal reflection method described in the present embodiment, and other methods (for example, a method of detecting based on the position of the eye head in the image and the center position of the iris). ).
更に、図1及び図4に示した情報処理装置2は、観察者6の視線位置に基づいて情報の入力を受け付けるだけでなく、キーボード装置、マウス装置、及びタッチパネル装置等の入力装置からの情報の入力も受け付けるものであってもよい。これらの入力装置は、本実施形態の情報処理システム1に必須の構成ではない。しかしながら、これらの入力装置を併用することでより多くの種類の情報を入力可能となり、観察者の利便性を向上させることが可能となる。
Further, the
[実施形態2]
本実施形態に係る情報処理システム1では、情報処理装置2が行う表示画像のスクロールと連動して視線位置の算出式を補正する。本実施形態に係る情報処理システム1は、図1に示したような構成であり、情報処理装置2と、表示装置3と、光源4と、撮像装置5と、を備える。また、情報処理装置2の機能的構成は、図4に示したような構成であり、画像取得部201と、表示制御部202と、表示画像生成部203と、表示画像出力部204と、記憶部205と、を備える。なお、情報処理装置2の表示制御部202は、観察者6が表示面301内の所定位置を注視した場合に、表示している像が所定の方向に所定の移動量だけ並進移動した表示画像を生成する制御信号を表示画像生成部203に転送する。
[Embodiment 2]
In the
図9Aは、第2の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。図9Bは、第2の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。 FIG. 9A is a flowchart (No. 1) for explaining a method of correcting a gaze position calculation formula according to the second embodiment. FIG. 9B is a flowchart (No. 2) for explaining the correction method of the gaze position calculation formula according to the second embodiment.
本実施形態の情報処理装置2は、図9Aに示すように、まず、撮像装置5から画像を取得して視線を検出する処理(ステップS1)を行う。ステップS1の処理は、画像取得部201と、表示制御部202の視線検出部202aとが行う。画像取得部201は、撮像装置5から画像を取得して視線検出部202aに転送する。視線検出部202aは、取得した画像に含まれる観察者の眼球の部分から角膜反射の位置(PrkX,PrkY)及び瞳孔の中心位置(PupX,PupY)を検出し、式(1−1)及び式(1−2)を用いて観察者の視線位置(X,Y)を算出する。また、1回のステップS1の処理において、視線検出部202aは、N秒分(例えば1秒分)の複数の画像のそれぞれから観察者の視線位置(X,Y)を検出する処理を行う。
As illustrated in FIG. 9A, the
次に、情報処理装置2は、観察者が表示装置3の表示面301を注視しているか否かを判定する(ステップS2)。ステップS2の判定は、例えば、視線検出部202aが行う。視線検出部202aは、例えば、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)が所定の視野角範囲(例えば3度)の円内に含まれる場合に、観察者6が表示面301を注視していると判定する。観察者6が表示面301を注視していないと判定した場合(ステップS2;No)、情報処理装置2が行う処理はステップS1に戻る。なお、ステップS2の判定は、観察者6の有無の判定を含む。すなわち、観察者6がおらず取得した画像から視線が検出されなかった場合も、ステップS2の判定結果は「No」となる。
Next, the
一方、観察者6が表示面301を注視していると判定した場合(ステップS2;Yes)、情報処理装置2は、次に、観察者6の注視位置を算出する(ステップS3)。ステップS3の処理は、注視位置算出部202bが行う。注視位置算出部202bは、観察者6の注視位置(X1,Y1)として、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)の平均値を算出する。
On the other hand, when it is determined that the observer 6 is gazing at the display surface 301 (step S2; Yes), the
観察者6の注視位置(X1,Y1)を算出すると、情報処理装置2は、次に、表示像をスクロールさせる(ステップS21)。ステップS21の処理は、表示画像制御部202、表示画像生成部203、及び表示画像出力部204が行う。表示画像制御部202は、ステップS3で観察者6の注視位置(X1,Y1)を算出した後、表示像を所定方向に所定の移動量だけ並進移動(スクロール)させる制御信号を表示画像生成部203に出力する。表示画像生成部203は、制御信号に従って、現在表示装置3に表示させている像(表示像)についての表示用データを記憶部205の表示用データ205aから読み出し、並進移動させた表示画像を生成する。なお、表示画像生成部203は、表示像をスクロールさせることにより生じた空白領域に表示像と連続する像、或いは表示像と重なって非表示になっていた像が表示された表示画像を生成する。表示画像出力部205は、表示画像生成部204が生成した表示画像を表示装置3に出力する。
When the gaze position (X1, Y1) of the observer 6 is calculated, the
なお、ステップS21において表示画像をスクロールする場合、スクロール前の表示画像における像が所定の移動量だけ移動するまで段階的(連続的)に表示位置が移動するよう表示画像を変化させることが好ましい。 When the display image is scrolled in step S21, it is preferable to change the display image so that the display position moves stepwise (continuously) until the image in the display image before scrolling moves by a predetermined movement amount.
ステップS21の後、情報処理装置2は、スクロールする前の注視位置が変動量算出領域内であるか否かを判定する(ステップS22)。ステップS22の判定は、例えば、注視位置算出部202bが行う。変動量算出領域は、視線位置の算出式を補正するか否かの判定基準として表示面301内に設定した領域である。スクロールする前の注視位置が変動量算出領域の外側である場合(ステップS22;No)、情報処理装置2は、図9Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。
After step S21, the
一方、スクロールする前の注視位置が変動量算出領域内である場合(ステップS22;Yes)、情報処理装置2は、次に、スクロールする前の注視位置を保持する(ステップS23)。ステップS23の処理は、注視位置算出部202bが行う。注視位置算出部202bは、ステップS3で算出した注視位置(X1,Y1)を、前注視位置205cとして記憶部205に記憶させる。
On the other hand, when the gaze position before scrolling is within the fluctuation amount calculation region (step S22; Yes), the
ステップS23の後、情報処理装置2は、撮像装置5から画像を取得して視線を検出する処理(ステップS7)を行い、観察者6が表示面301を注視しているか否かを判定する(ステップS8)。ステップS7の処理は、ステップS2の処理と同様、画像取得部201と視線検出部202aが行う。また、ステップS8の判定は、ステップS3の判定と同様、視線検出部202aが行う。
After step S23, the
表示像をスクロールした後、観察者6が表示面301を注視していない場合(ステップS8;No)、情報処理装置2は、図9Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。
After the display image is scrolled, when the observer 6 is not gazing at the display surface 301 (step S8; No), the
一方、表示像をスクロールした後も観察者6が表示面301を注視している場合(ステップS8;Yes)、情報処理装置2は、次に、注視位置を算出する(ステップS9)。ステップS9の処理は、ステップS3の処理と同様、注視位置算出部202bが行う。
On the other hand, if the observer 6 is still gazing at the
表示像をスクロールした後の注視位置(X2,Y2)を算出すると、情報処理装置2は、次に、図9Bに示すように、スクロールの前後で生じるシフト量の変動量を算出する(ステップS24)。ステップS24の処理は、補正量算出部202cが行う。補正量算出部202cは、スクロール前の注視位置(X1,Y1)と、スクロール後の注視位置(X2,Y2)と、スクロール時の表示像の移動量とに基づいて、シフト量の変動率を算出する。シフト量の変動率は、スクロール前の注視位置のシフト量に対するスクロール後の注視位置のシフト量の変化率である。シフト量の変動率を算出すると、情報処理装置2は、次に、算出した変動率が閾値以上であるか否かを判定する(ステップS25)。変動率が閾値よりも小さい場合(ステップS25;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。
When the gaze position (X2, Y2) after scrolling the display image is calculated, the
一方、変動率が閾値以上である場合(ステップS25;Yes)、情報処理装置2は、次に、視線位置算出式の換算係数を補正する(ステップS26)。ステップS26の処理は、補正量算出部202cが行う。補正量算出部202cは、スクロール時の表示像の移動方向と、シフト量の変動率とに基づいて、視線位置算出式における換算係数A,Bを補正する。スクロール時の表示像の移動方向がy方向(垂直方向)の場合、補正量算出部202cは、換算係数Bのみを補正する。スクロール時の表示像の移動方向がx方向(水平方向)の場合、補正量算出部202cは、換算係数Aのみを補正する。スクロール時の表示像の移動方向がx方向成分とy方向成分とを含む場合、補正量算出部202cは、換算係数A,Bを補正する。
On the other hand, when the variation rate is equal to or greater than the threshold (step S25; Yes), the
補正量算出部202cは、換算係数の補正値を係数補正値205dとして記憶部205に記憶させる。これにより、表示画像をスクロールさせる処理と連動した視線位置算出式の補正処理が終了する。
The correction
図10は、スクロールの例を示す図である。
図10には、表示画像をスクロールする画面表示の例として、表示面301全体にwebページが表示された表示装置3を示している。スクロールする前の表示面301には、図10の(a)に示すように、画像301dやテキスト301eを含むwebページが表示されている。このような表示状態であるときに、例えば、観察者6が表示面301の垂直方向の中心よりも下方となる座標(X1,Y1)の付近を注視すると、情報処理装置2は、注視位置811の座標(X1,Y1)を算出する処理(ステップS3)を行う。その後、情報処理装置2は、図10の(b)に示すように、表示面301に表示させている画像301dやテキスト301eを含むwebページの像を画面上方にΔYだけスクロール(並進移動)させる処理(ステップS21)を行う。この際、表示面301における下端側の高さΔYの領域には、webページの続きの部分に含まれる画像301f等が表示される。このように、webページを画面上方にスクロール量ΔYだけスクロールさせた場合、観察者6の注視位置811も、画面上方に移動する。このとき観察者6の注視位置の移動量は、スクロール量ΔYと同一の移動量になると考えられる。ところが、実際には、角膜反射の個人差によりスクロールの前後におけるシフト量が変動し、観察者6の注視位置の移動量がスクロール量とは異なる値になることがある。
FIG. 10 is a diagram illustrating an example of scrolling.
FIG. 10 shows a
図11は、スクロールの前後で生じるシフト量の変動を説明する図である。
図11に示すように、表示画像をスクロールする前における算出注視位置811と観察者6の実際の注視位置813との間には、シフト量diffYのずれが生じる。また、表示面301の表示画像を画面上方にスクロール量ΔYだけスクロールさせると、観察者6の実際の注視位置813に表示されていた像はΔYだけ上方の座標(X0,Y0)の位置815に移動する。そのため、スクロール後の観察者6の実際の注視位置は座標(X0,Y0)の位置815に移動する。ここで、観察者6が注視位置815を注視しているときのシフト量と、注視位置813を注視していたときのシフト量diffYとが同じであれば、スクロール後に情報処理装置2が算出する注視位置は、座標(X1,Y1−ΔY)の位置816となる。
FIG. 11 is a diagram for explaining the variation of the shift amount occurring before and after scrolling.
As shown in FIG. 11, there is a shift of the shift amount diffY between the
ところが、スクロールにより観察者6の視線(注視する方向)が変化した場合、角膜反射の個人差等によりスクロールの前後でシフト量が変動し、図11に示したように、算出する注視位置817が位置816とは異なる位置になることがある。すなわち、表示面301の表示像を画面上方にスクロール量ΔYだけスクロールさせたときに、スクロール後の注視位置817とスクロール前の注視位置811とのy方向の距離Y2−Y1がスクロール量Δyとは異なる値になることがある。そのため、本実施形態の視線位置の算出式の補正方法では、スクロールの前後で生じるシフト量の変動率に応じて視線位置の算出式の換算係数A,Bを補正する。y方向のスクロールにより生じるシフト量の変動率diffY0はdiffY0=(Y2−Y1)/ΔYと表せる。ここで、角膜反射に個人差がなければdiffY0=1でありY2−Y1=ΔYとなるが、実際には、diffY0≠1であるため、スクロールの前後による注視位置の移動量は(Y2−Y1)=diffY0・ΔYとなる。よって、視線位置の算出式(1−2)における換算係数Bを、下記式(8)を満たす換算係数B'に補正する。
diffY0・ΔY=B'・(PupY2−PrkY2)−B'・(PupY1−PrkY1) ・・・(8)
However, when the line of sight of the viewer 6 (the direction of gaze) changes due to scrolling, the shift amount fluctuates before and after scrolling due to individual differences in corneal reflection, and the
diffY0 · ΔY = B '· (PupY2-PrkY2)-B' · (PupY1-PrkY1) (8)
すなわち、情報処理装置2は、式(8)を用いて算出した換算係数B'を、係数補正値205eとして記憶部205に記憶させる。以後、情報処理装置2は、観察者の注視位置が検出されなくなるか、又は表示像をスクロールし視線位置算出式が再度補正されるまで、換算係数A,B'を用いて観察者6の視線位置を算出する。
That is, the
図12は、変動率算出領域を説明する図である。
本実施形態の視線位置算出式の補正方法においても、スクロールする前に観察者6の実際の注視位置に表示されていた像がスクロール後にも表示されていないと、スクロールの前後で観察者6の注視している像が異なるため、視線位置算出式の換算係数に対し誤った補正を行ってしまうこととなる。
FIG. 12 is a diagram illustrating the variation rate calculation area.
Also in the correction method of the gaze position calculation formula of the present embodiment, if the image displayed at the actual gaze position of the observer 6 before scrolling is not displayed even after scrolling, the observer's 6 before and after scrolling. Since the gaze image is different, an incorrect correction is made to the conversion coefficient of the gaze position calculation formula.
そこで、本実施形態に係る視線位置の算出方法では、図12に示すように、表示面301の上辺から距離CEYの範囲をシフト量の変動率を算出しない領域とすることで、変動率算出領域301bを設定する。シフト量の変動率を算出しない領域の幅CEYは、スクロール量ΔYと、補正対象とする変動率の値とに基づいて設定する。例えば、スクロール量ΔYが216画素であり、補正後の換算係数B’が初期値Bの0.8倍程度となる変動率を補正対象とした場合、CEY=270(=216/0.8)とする。
Therefore, in the method of calculating the line-of-sight position according to the present embodiment, as shown in FIG. 12, the range of the distance CEY from the upper side of the
なお、変動量算出領域301bは、図12に示した領域に限らず、表示面301内の任意の位置に任意の寸法で設定することが可能である。例えば、表示面301の下方側にスクロールした場合にも視線位置算出式の換算係数を補正する場合、表示面の下辺側にも幅CEYのシフト量の変動率を算出しない領域が存在するよう変動量算出領域301bを設定してもよい。また、表示面301の水平方向(左右方向)にもスクロール可能な場合、表示面の右辺側及び左辺側にもシフト量の変動率を算出しない領域が存在するよう変動量算出領域301bを設定してもよい。
Note that the fluctuation
以上のように、本実施形態に係る情報処理装置2は、観察者6が表示面301を注視した際のスクロールと連動して視線位置の算出式を補正する。この際、視線位置の算出式はスクロールの前後の注視位置とスクロール量とに基づいて補正するので、観察者に補正のための装置を操作させることなく視線位置の算出式を補正することができる。また、本実施形態に係る情報処理装置2では、スクロールの前後の注視位置とスクロール量とに基づいて視線位置の算出式を補正するので、補正用のテスト画像に限らず、任意の画像を表示装置に表示させた状態で補正することが可能となる。そのため、表示装置に表示させたテスト画像内の特徴点を所定の順序で注視する等の動作を観察者に行わせることなく、視線位置の算出式を補正することができる。したがって、本実施形態の情報処理システム1によれば、観察者が視線位置の算出式を補正するための処理を行う手間を省くことができる。
As described above, the
なお、本実施形態では、表示画像をスクロールするとき、すなわち表示されている像を所定の方向に並進移動させるときに視線位置の算出式を補正しているが、これに限らず、表示画像を拡大又は縮小するときにも視線位置の算出式を補正してもよい。更に、例えば、表示画像の拡大と所定の方向への並進移動(スクロール)とを続けて行った場合に視線位置の算出式の補正を行うようにしてもよい。 In the present embodiment, when the display image is scrolled, that is, when the displayed image is translated in a predetermined direction, the gaze position calculation formula is corrected. The calculation formula of the line-of-sight position may be corrected when enlarging or reducing. Further, for example, when the enlargement of the display image and the translational movement (scrolling) in a predetermined direction are continuously performed, the gaze position calculation formula may be corrected.
[第3の実施形態]
図13は、第3の実施形態に係る情報処理装置の機能的構成を示す図である。
[Third Embodiment]
FIG. 13 is a diagram illustrating a functional configuration of the information processing apparatus according to the third embodiment.
図13に示すように、本実施形態の情報処理装置2は、画像取得部201と、表示制御部202と、表示画像生成部203と、表示画像出力部204と、記憶部205と、を備える。情報処理装置2は、第1の実施形態で説明した情報処理システム1(図1を参照)の構成要素の1つであり、表示画像生成部203で生成した表示画像を表示装置3に表示させる。また、情報処理装置2は、撮像装置5で撮像した観察者6の眼球を含む画像を取得し、観察者の注視位置に基づいて表示画像の拡大等の処理を行う。
As illustrated in FIG. 13, the
本実施形態の情報処理装置2は、第1の実施形態の情報処理装置2と同様、表示装置3の表示面301の表示像を拡大するときに、観察者の注視位置のシフト量に基づいて視線位置の算出式を補正する。そのため、本実施形態の情報処理装置2における表示制御部202は、視線検出部202aと、注視位置算出部202bと、補正量算出部202cと、を含む。また、本実施形態の情報処理装置2における記憶部205には、表示用データ205aとともに、係数初期値205bと、前注視位置205cと、係数補正値205dとが記憶される。
Similar to the
更に、本実施形態の情報処理装置2は、表示画像を拡大する処理を繰り返し行う際に、現在の観察者が直前の処理を行った際の観察者と同一人物であるか否かを判定する。そして、同一人物である場合には、表示画像を拡大する処理と連動した視線位置の算出式を補正する処理を省略する。このため、本実施形態の情報処理装置2における表示制御部202は、人物情報抽出部202dを更に含む。また、本実施形態の情報処理装置2における記憶部205には、人物情報205eが記憶される。
Furthermore, when the
人物情報抽出部202dは、例えば、撮像装置5から取得した画像における人物(観察者6)についての所定の特徴量を抽出し、抽出した特徴量を人物情報205eとして記憶部205に記憶させる。また、人物情報抽出部202dは、視線位置の算出式を補正した際には補正後の換算係数A’,B’(係数補正値)と、補正時の人物情報とを対応付ける。更に、人物情報抽出部202dは、表示画像を拡大する際に、抽出した特徴量と記憶部205の人物情報205eとを照合し視線位置の算出式を補正するか否かを判定する。
For example, the person
なお、図13においては、画像取得部201、表示制御部202、表示画像生成部203、表示画像出力部204、記憶部205が1台の情報処理装置2に搭載されている例を示しているが、実装のされ方はこれに限る必要はない。例えば、ネットワークを介して接続された複数のコンピュータ上に、各処理部が分散されて配置されても構わない。すなわち、情報処理装置2はコンピュータシステムとして実現されてもよい。
FIG. 13 shows an example in which the
図14Aは、第3の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その1)である。図14Bは、第3の実施形態に係る視線位置の算出式の補正方法を説明するフローチャート(その2)である。 FIG. 14A is a flowchart (No. 1) for explaining a method of correcting a gaze position calculation formula according to the third embodiment. FIG. 14B is a flowchart (No. 2) for explaining the correction method of the gaze position calculation formula according to the third embodiment.
本実施形態の情報処理装置2は、図14Aに示すように、まず、撮像装置5から画像を取得して人物情報を抽出する処理(ステップS31)を行う。ステップS31の処理は、画像取得部201と、表示制御部202の人物情報抽出部202dとが行う。画像取得部201は、撮像装置5から取得した画像を表示制御部202に転送する。人物情報検出部202dは、人物情報として、例えば、取得した画像における観察者の目頭等についての特徴量を抽出する。
As illustrated in FIG. 14A, the
次に、情報処理装置2は、人物情報の抽出結果に応じた視線位置の算出式で観察者の視線を検出する(ステップS32)。ステップS32の処理は、表示制御部202の視線検出部202aが行う。視線検出部202aは、ステップS31の人物情報の抽出結果を取得し、記憶部205の人物情報205eと合致するか否かを判定する。人物情報の抽出結果と記憶部205の人物情報205eとが合致する場合、視線検出部202eは、記憶部205の係数補正値205dを換算係数とする視線位置の算出式を用いて観察者の視線位置(X,Y)を算出する。人物情報の抽出結果と記憶部205の人物情報205eとが合致しない場合、視線検出部202eは、記憶部205の係数初期値205bを換算係数とする視線位置の算出式を用いて観察者の視線位置(X,Y)を算出する。また、1回のステップS1の処理において、視線検出部202aは、N秒分の複数の画像のそれぞれから観察者の視線位置(X,Y)を検出する処理を行う。
Next, the
次に、情報処理装置2は、観察者が表示装置3の表示面301を注視しているか否かを判定する(ステップS33)。ステップS33の判定は、例えば、視線検出部202aが行う。視線検出部202aは、例えば、N秒分(例えば1秒分)の複数の画像のそれぞれから検出した視線位置(X,Y)が所定の視野角範囲(例えば3度)の円内に含まれる場合に、観察者6が表示面301を注視していると判定する。観察者6が表示面301を注視していないと判定した場合(ステップS33;No)、情報処理装置2が行う処理はステップS31に戻る。なお、ステップS33の判定は、観察者6の有無の判定を含む。すなわち、観察者6がおらず取得した画像から視線が検出されなかった場合も、ステップS33の判定結果は「No」となる。
Next, the
一方、観察者6が表示面301を注視していると判定した場合(ステップS33;Yes)、情報処理装置2は、次に、観察者6の注視位置を算出する(ステップS34)。ステップS34の処理は、注視位置算出部202bが行う。注視位置算出部202bは、観察者6の注視位置(X1,Y1)として、N秒分の複数の画像のそれぞれから検出した視線位置(X,Y)の平均値を算出する。
On the other hand, when it is determined that the observer 6 is gazing at the display surface 301 (step S33; Yes), the
観察者6の注視位置(X1,Y1)を算出すると、情報処理装置2は、次に、注視位置を中心として表示している像(表示像)を拡大させる(ステップS35)。ステップS35の処理は、表示画像制御部202、表示画像生成部203、及び表示画像出力部204が行う。表示画像制御部202は、ステップS34で観察者6の注視位置(X1,Y1)を算出した後、注視位置(X1,Y1)を中心として表示像を拡大させる制御信号を表示画像生成部203に出力する。表示画像生成部203は、制御信号に従って、現在表示装置に表示させている像(表示像)についての表示用データを記憶部205の表示用データ205aから読み出し、注視位置を中心として所定の拡大率で拡大した表示画像を生成する。表示画像出力部205は、表示画像生成部204が生成した表示画像を表示装置3に出力する。
When the gaze position (X1, Y1) of the observer 6 is calculated, the
ステップS35の後、情報処理装置2は、現在の処理における観察者6が直前の処理のときと同じ人物であるか否かを判定する(ステップS36)。ステップS36の判定は、例えば、注視位置算出部202bが行う。注視位置算出部202bは、ステップS31で抽出した人物情報と記憶部の人物情報205eとが合致する場合、現在の処理における観察者6が直前の処理のときと同じ人物であると判定する。観察者6が直前の処理と同じ人物である場合(ステップS36;Yes)、情報処理装置2は、図14Bに示すように、視線位置算出式の係数を補正せずに処理を終了する。一方、観察者6が直前の処理と同じ人物ではない場合(ステップS36;No)、情報処理装置2は、図14Bに示すように、次に、表示像を拡大する前の注視位置がシフト量算出領域内であるか否かを判定する(ステップS37)。ステップS37の判定は、例えば、注視位置算出部202bが行う。シフト量算出領域は、視線位置の算出式を補正するか否かの判定基準として表示面301内に設定した領域である。拡大する前の注視位置がシフト量算出領域の外側である場合(ステップS37;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。
After step S35, the
一方、拡大する前の注視位置がシフト量算出領域内である場合(ステップS37;Yes)、情報処理装置2は、次に、拡大する前の注視位置を保持する(ステップS38)。ステップS38の処理は、注視位置算出部202bが行う。注視位置算出部202bは、ステップS34で算出した注視位置(X1,Y1)を、前注視位置205cとして記憶部205に記憶させる。
On the other hand, when the gaze position before enlargement is within the shift amount calculation region (step S37; Yes), the
ステップS38の後、情報処理装置2は、撮像装置5から画像を取得して視線を検出する処理(ステップS39)を行い、観察者6が表示面301を注視しているか否かを判定する(ステップS40)。ステップS39の処理は、画像取得部201と視線検出部202aが行う。視線検出部202aは、ステップS32の処理を行った際の算出式と同じ算出式を用いて視線位置(X,Y)を算出する。また、ステップS40の判定は、視線検出部202aが行う。表示している像を拡大した後、観察者6が表示面301を注視していない場合(ステップS40;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。
After step S <b> 38, the
一方、表示している像を拡大した後も観察者6が表示面301を注視している場合(ステップS40;Yes)、情報処理装置2は、次に、注視位置(X2,Y2)を算出する(ステップS41)。ステップS41の処理は、ステップS34の処理と同様、注視位置算出部202bが行う。
On the other hand, when the observer 6 is gazing at the
表示している像を拡大した後の注視位置(X2,Y2)を算出すると、情報処理装置2は、次に、算出した注視位置と観察者6が実際に注視している位置とのずれ量(シフト量)を算出する(ステップS42)。ステップS42の処理は、補正量算出部202cが行う。補正量算出部202cは、第1の実施形態で説明したような方法でx方向のシフト量diffX及びy方向のシフト量diffYを算出する。
When the gaze position (X2, Y2) after enlarging the displayed image is calculated, the
シフト量diffX,diffYを算出すると、情報処理装置2は、次に、算出したシフト量が閾値以上であるか否かを判定する(ステップS43)。シフト量が閾値よりも小さい場合(ステップS43;No)、情報処理装置2は、視線位置算出式の係数を補正せずに処理を終了する。
After calculating the shift amounts diffX and diffY, the
一方、シフト量が閾値以上である場合(ステップS43;Yes)、情報処理装置2は、次に、視線位置算出式の換算係数A,Bを補正する(ステップS44)。ステップS44の処理は、補正量算出部202cが行う。補正量算出部202cは、拡大前の注視位置(X1,Y1)と、表示像の拡大率と、算出したシフト量diffX,diffYとを用いて、視線位置算出式における換算係数A,Bを補正する。補正量算出部202cは、例えば、下記式(6−1)及び式(6−2)を用いて、換算係数の補正値A',B'を算出する。
On the other hand, when the shift amount is equal to or larger than the threshold (step S43; Yes), the
換算係数の補正値A',B'を算出すると、補正量算出部202cは、算出した換算係数の補正値A',B'を係数補正値205dとして記憶部205に記憶させる。この際、補正量算出部202cは、人物情報と視線位置算出式の換算係数との対応付けを更新する(ステップS45)。これにより、表示している像を拡大する処理と連動した視線位置算出式の係数を補正する処理が終了する。
When the correction values A ′ and B ′ of the conversion coefficient are calculated, the correction
このように、本実施形態の視線位置の算出式の補正方法では、画像から抽出した人物情報に基づいて、現在の観察者6が直前の処理を行ったときの観察者と同一人物であるか否かを判定する。そして、現在の観察者6が直前の処理を行ったときの観察者と同一人物である場合、情報処理装置2は、視線位置算出式の換算係数を補正する処理を省略する。現在の観察者が直前の処理を行ったときの観察者と同一人物である場合、当該観察者が表示面301を注視したときのシフト量及び視線位置算出式の換算係数を補正する処理は、直前の処理或いは更に前の処理で行われている。そのため、ステップS32及びS34の処理により算出される観察者の注視位置は、観察者6の実際の注視位置と略同一となる。よって、現在の観察者6が直前の処理を行ったときの観察者と同一人物である場合、表示像を拡大した後のステップS37〜S45の処理を省略することが可能となる。これにより、同一の観察者6が表示像を拡大する処理を繰り返し行った場合の情報処理装置2の処理負荷を軽減することが可能となる。
As described above, in the method of correcting the gaze position calculation formula according to the present embodiment, based on the person information extracted from the image, is the current observer 6 the same person as the observer when the previous process is performed? Determine whether or not. When the current observer 6 is the same person as the observer when the previous process is performed, the
なお、図14A及び図14Bの処理は一例に過ぎず、必要に応じて一部の処理の内容を変更してもよいし、他の処理を追加してもよい。例えば、人物情報と視線位置算出式の係数との対応付けは、更新せずに蓄積してもよい。人物情報と視線位置算出式の係数との対応付けを蓄積する場合、例えば、タイムスタンプにより人物情報を抽出した時刻を特定する。また、ステップS32で視線位置算出式の換算係数を決定する際や、ステップS36の判定の際には、タイムスタンプに基づいて直前(最新)の処理を行ったときの人物情報を特定する。このように人物情報と視線位置算出式の係数とを対応付けて蓄積することにより、例えば、視線位置算出式の換算係数の初期値の見直しや学習を行うことが可能となる。 Note that the processes in FIGS. 14A and 14B are merely examples, and the contents of some processes may be changed as necessary, and other processes may be added. For example, the association between the person information and the coefficient of the gaze position calculation formula may be accumulated without being updated. When the association between the person information and the coefficient of the gaze position calculation formula is accumulated, for example, the time at which the person information is extracted is specified by a time stamp. Further, when determining the conversion coefficient of the line-of-sight position calculation formula in step S32 or in the determination in step S36, the person information when the immediately preceding (latest) process is performed is specified based on the time stamp. Thus, by storing the personal information and the coefficient of the gaze position calculation formula in association with each other, for example, it is possible to review and learn the initial value of the conversion coefficient of the gaze position calculation formula.
また、観察者6が直前の処理のときと同一人物であるか否かの判定に用いる人物情報は、撮像装置5で撮像した画像から抽出した特徴量に限らず、他の情報であってもよい。例えば、人感センサを用いて所定の空間内の人物の有無を検知し、その検知結果に基づいて観察者6が直前の処理のときと同一人物であるか否かを判定してもよい。
In addition, the person information used for determining whether or not the observer 6 is the same person as in the previous process is not limited to the feature amount extracted from the image captured by the
第1〜第3の実施形態に係る情報処理システム1では、1個の情報処理装置2において観察者の注視位置の算出、表示画像の生成、及び視線位置の算出式の補正の各処理を行っている。しかしながら、情報処理システム1は、これに限らず、注視位置の算出及び表示画像の生成を行う情報処理装置とは別個に、視線位置の算出式を補正する処理を行う情報処理装置を設けてもよい。また、情報処理システム1は、表示装置3、光源4及び撮像装置5の組が1個の情報処理装置2に複数組接続された構成であってもよい。
In the
また第1〜第3の実施形態に係る情報処理装置2は、例えば、コンピュータと、当該コンピュータに実行させるプログラムとを用いて実現することが可能である。以下、コンピュータとプログラムとを用いて実現される情報処理装置2について、図15を参照して説明する。
The
図15は、コンピュータのハードウェア構成を示す図である。
図15に示すように、コンピュータ10は、プロセッサ1001と、主記憶装置1002と、補助記憶装置1003と、表示装置1004と、インタフェース装置1005と、通信装置1006と、記憶媒体駆動装置1007と、を備える。コンピュータ10におけるこれらの要素1001〜1007は、バス1010により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
FIG. 15 is a diagram illustrating a hardware configuration of a computer.
As illustrated in FIG. 15, the
プロセッサ1001は、Central Processing Unit(CPU)等の演算処理装置であり、オペレーティングシステムを含む各種のプログラムを実行することによりコンピュータ10の全体の動作を制御する。
The
主記憶装置1002は、図示しないRead Only Memory(ROM)及びRandom Access Memory(RAM)を含む。主記憶装置1002のROMには、例えばコンピュータ10の起動時にプロセッサ1001が読み出す所定の基本制御プログラム等が予め記録されている。また、主記憶装置1002のRAM は、プロセッサ1001が各種のプログラムを実行する際に、必要に応じて作業用記憶領域として使用する。主記憶装置1002のRAMは、例えば、視線位置算出式の換算係数(係数初期値205b及び係数補正値205d)、注視位置の算出に用いる複数の視線位置、及び前注視位置205cの記憶に利用可能である。
The
補助記憶装置1003は、Hard Disk Drive(HDD)やSolid State Drive(SSD)等の主記憶装置1002に比べて容量の大きい記憶装置である。補助記憶装置1003には、プロセッサ1001によって実行される各種のプログラムや各種のデータ等を記憶させることができる。補助記憶装置1003は、例えば、図5A及び図5Bの処理を含むプログラム、図9A及び図9Bの処理を含むプログラム、図14A及び図14Bの処理を含むプログラム等の記憶に利用可能である。また、補助記憶装置1003は、例えば、表示用データ205a、視線位置算出式の換算係数(係数初期値205b)、注視位置の算出に用いる複数の視線位置、前注視位置205c、人物情報205e等の記憶に利用可能である。
The
表示装置1004は、例えば液晶ディスプレイである。表示装置1004は、プロセッサ1001等から送信される表示画像のデータに従って各種のテキスト画面、画像等を含む表示画像を表示する。
The
インタフェース装置1005は、コンピュータ10と他の電子装置とを接続する装置であり、Universal Serial Bus(USB)規格のコネクタ等を備える。インタフェース装置1005によりコンピュータ10と接続可能な電子装置の1つは、撮像装置5である。
The
通信装置1006は、インターネット等の通信ネットワークを介して他のコンピュータ等の外部装置と各種通信を行う装置である。コンピュータ10は、例えば、通信装置1006を介して、他のコンピュータから各種の表示用データ205aを取得することが可能である。
The
記憶媒体駆動装置1007は、図示しない可搬型記憶媒体に記録されているプログラムやデータの読み出し、補助記憶装置1003に記憶されたデータ等の可搬型記憶媒体への書き込みを行う。可搬型記憶媒体としては、例えば、USB規格のコネクタが備えられているフラッシュメモリが利用可能である。また、可搬型記憶媒体としては、Compact Disk(CD)、Digital Versatile Disc(DVD)、Blu-ray Disc(Blu-rayは登録商標)等の光ディスクも利用可能である。
The storage
コンピュータ10は、プロセッサ1001が補助記憶装置1003等から上記の視線位置算出式の補正処理を含むプログラムを読み出し、撮像装置5から取得した画像を用いた注視位置の算出処理、表示画像を変化させる処理、算出式を補正する処理等を行う。
In the
なお、情報処理装置2として用いるコンピュータ10は、図15に示した全ての構成要素を含む必要はなく、用途や条件に応じて一部の構成要素を省略することも可能である。例えば、サイネージ等で通信ネットワークを利用して表示用データをコンピュータ10(情報処理装置2)に供給する場合、記憶媒体駆動装置1007を省略することが可能である。
Note that the
また、情報処理装置2として用いるコンピュータ10は、図示しない入力装置を備えたものであってもよい。ここで、入力装置は、例えばキーボード装置やマウス装置であり、コンピュータ10のオペレータ(観察者6)により操作されると、その操作内容と対応付けられている入力情報をプロセッサ1001に送信する。また、入力装置には、例えば、表示装置1003の表示面に重ねて配置されたタッチパネル装置を利用することも可能である。
Further, the
また、コンピュータ10は、種々のプログラムを実行することにより複数の機能を実現する汎用型のものに限らず、上記の実施形態で説明した処理に特化した専用の装置でもよい。
The
以上記載した各実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
撮像装置により撮像された表示装置を観察する観察者の眼球を含む画像を用いて、前記表示装置の表示面内における前記観察者の注視位置を算出する注視位置算出部と、
第1の表示画像を前記表示装置に表示させているときに、観察者について前記注視位置算出部で算出した第1の注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成する表示画像生成部と、
前記第2の表示画像を前記表示装置に表示させているときに前記観察者について前記注視位置算出部で算出した第2の注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、前記第1の注視位置とに基づいて、前記観察者についての注視位置に対する補正量を算出する補正量算出部と、を備える、
ことを特徴とする情報処理システム。
(付記2)
前記表示画像生成部は、前記第1の表示画像において前記第1の注視位置の周囲に存在する像の表示位置を変化させた前記第2の表示画像を生成する、
ことを特徴とする付記1に記載の情報処理システム。
(付記3)
前記表示画像生成部は、前記第1の表示画像における前記第1の注視位置を中心として前記第1の表示画像を拡大又は縮小して前記第2の表示画像を生成する、
ことを特徴とする付記1に記載の情報処理システム。
(付記4)
前記表示画像生成部は、前記第1の表示画像に含まれる像の表示位置を所定の距離だけ並進移動させて前記第2の表示画像を生成する、
ことを特徴とする付記1に記載の情報処理システム。
(付記5)
前記表示画像生成部は、前記第2の表示画像を生成して前記表示装置に表示させる前に、前記第1の表示画像及び前記第2の表示画像に含まれる像の表示位置が前記第1の表示画像における表示位置から前記第2の表示画像における表示位置に向かって段階的に変化する複数の表示画像を順次生成して前記表示装置に表示させる、
ことを特徴とする付記1に記載の情報処理システム。
(付記6)
前記注視位置算出部は、所定期間内に前記撮像装置で撮像した複数の前記画像のそれぞれから算出した前記表示装置の表示面内における前記観察者の視線位置の分布に基づいて前記観察者の注視位置を算出し、
前記補正量算出部は、前記第1の注視位置と、前記第2の注視位置と、前記第1の表示画像に対する前記第2の表示画像の変化量とに基づいて、前記視線位置の算出に用いる算出式を補正する、
ことを特徴とする付記1に記載の情報処理システム。
(付記7)
前記情報処理システムは、前記観察者についての人物情報を抽出する人物情報抽出部を、更に備え、
当該情報処理システムは、前記注視位置に対する補正量と前記人物情報とを対応付けて保持し、前記第1の注視位置を算出する際の前記観察者の人物情報と同一の人物情報を保持している場合に当該人物情報と対応付けられた前記補正量を用いて前記第1の注視位置を算出する、
ことを特徴とする付記1に記載の情報処理システム。
(付記8)
前記情報処理システムは、前記撮像装置で撮像した画像に含まれる前記観察者の眼球部分における角膜反射の位置と瞳孔の中心位置との位置関係に基づいて前記観察者の視線を検出する視線検出部、を更に備える、
ことを特徴とする付記1に記載の情報処理システム。
(付記9)
前記情報処理システムは、
前記第1の注視位置が前記表示装置の表示面内における所定の範囲内である場合にのみ、前記第2の注視位置を算出し前記注視位置に対する補正量を算出する、
ことを特徴とする付記1に記載の情報処理システム。
(付記10)
コンピュータが、
第1の表示画像を表示させた表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第1の注視位置を算出し、
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理を実行することを特徴とする情報処理方法。
(付記11)
前記第2の表示画像を生成する処理では、前記コンピュータは、前記第1の表示画像において前記第1の注視位置の周囲に存在する像の表示位置を変化させた前記第2の表示画像を生成する、
ことを特徴とする付記10に記載の情報処理方法。
(付記12)
前記第2の表示画像を生成する処理では、前記コンピュータは、前記第1の表示画像における前記第1の注視位置を中心として前記第1の表示画像を拡大又は縮小して前記第2の表示画像を生成する、
ことを特徴とする付記10に記載の情報処理方法。
(付記13)
前記第2の表示画像を生成する処理では、前記コンピュータは、前記第1の表示画像に含まれる像の表示位置を所定方向に所定の距離だけ並進移動させて前記第2の表示画像を生成する、
ことを特徴とする付記10に記載の情報処理方法。
(付記14)
前記コンピュータが、前記第2の表示画像を生成して前記表示装置に表示させる前に、前記第1の表示画像及び前記第2の表示画像に含まれる像の表示位置が第1の表示画像における表示位置から第2の表示画像における表示位置に向かって段階的に変化する複数の表示画像を順次生成して前記表示装置に表示させる、
処理を実行することを特徴とする付記10に記載の情報処理方法。
(付記15)
前記第1の注視位置及び前記第2の注視位置を算出する処理では、前記コンピュータは、一定期間内に前記撮像装置で撮像した複数の前記画像のそれぞれから算出した前記表示装置の表示面内における前記観察者の視線位置の分布に基づいて前記注視位置を算出し、
前記注視位置に対する補正量を算出する処理では、前記コンピュータは、前記第1の注視位置と、前記第2の注視位置と、前記第1の表示画像に対する前記第2の画像の変化量とに基づいて、前記視線位置の算出に用いる算出式を補正する、
ことを特徴とする付記10に記載の情報処理方法。
(付記16)
前記コンピュータが、前記観察者についての人物情報を抽出する処理、及び抽出した前記人物情報と前記注視位置に対する補正量とを対応付けて保持する処理、を更に実行し、
前記第1の注視位置を算出する処理では、前記コンピュータは、抽出した前記観察者の人物情報と同一の人物情報を保持している場合に当該人物情報と対応付けられた前記補正量を用いて前記第1の注視位置を算出する、
ことを特徴とする付記10に記載の情報処理方法。
(付記17)
前記コンピュータが、前記撮像装置で撮像した画像に含まれる前記観察者の眼球部分における角膜反射の位置と瞳孔の中心位置との位置関係に基づいて前記観察者の視線を検出し、所定の算出式を用いて前記表示装置の表示面における前記観察者の視線位置を算出する、
処理を更に実行することを特徴とする付記10に記載の情報処理方法。
(付記18)
前記コンピュータは、前記第1の注視位置が前記表示装置の表示面内における所定の範囲内である場合にのみ、前記第2の注視位置を算出し前記注視位置に対する補正量を算出する、
処理を実行することを特徴とする付記10に記載の情報処理方法。
(付記19)
第1の表示画像を表示させた表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第1の注視位置を算出し、
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理をコンピュータに実行させる情報処理プログラム。
The following additional notes are further disclosed with respect to the embodiments including the examples described above.
(Appendix 1)
A gaze position calculation unit that calculates the gaze position of the observer in the display surface of the display device, using an image including an eyeball of an observer observing the display device imaged by the imaging device;
The second display in which the first display image is changed based on the first gaze position calculated by the gaze position calculation unit for the observer while the first display image is displayed on the display device. A display image generation unit for generating an image;
The second gaze position calculated by the gaze position calculation unit for the observer while the second display image is displayed on the display device, and the change of the second image with respect to the first display image A correction amount calculation unit that calculates a correction amount for the gaze position of the observer based on the amount and the first gaze position;
An information processing system characterized by this.
(Appendix 2)
The display image generation unit generates the second display image in which a display position of an image existing around the first gaze position in the first display image is changed.
The information processing system according to
(Appendix 3)
The display image generation unit generates the second display image by enlarging or reducing the first display image around the first gaze position in the first display image.
The information processing system according to
(Appendix 4)
The display image generation unit translates a display position of an image included in the first display image by a predetermined distance to generate the second display image;
The information processing system according to
(Appendix 5)
The display image generation unit generates the second display image and displays the first display image and an image included in the second display image on the first display image before displaying the second display image on the display device. Sequentially generating a plurality of display images that gradually change from a display position in the display image toward a display position in the second display image, and displaying the display image on the display device.
The information processing system according to
(Appendix 6)
The gaze position calculation unit gazes the observer based on a distribution of the gaze position of the observer in the display surface of the display device calculated from each of the plurality of images captured by the imaging device within a predetermined period. Calculate the position,
The correction amount calculation unit calculates the line-of-sight position based on the first gaze position, the second gaze position, and a change amount of the second display image with respect to the first display image. Correct the calculation formula used,
The information processing system according to
(Appendix 7)
The information processing system further includes a person information extraction unit that extracts person information about the observer,
The information processing system holds the correction amount for the gaze position and the person information in association with each other, and holds the same person information as the person information of the observer at the time of calculating the first gaze position. The first gaze position is calculated using the correction amount associated with the person information when
The information processing system according to
(Appendix 8)
The information processing system detects a line of sight of the observer based on a positional relationship between a position of corneal reflection in a portion of the eyeball of the observer included in an image captured by the imaging device and a center position of a pupil , Further comprising
The information processing system according to
(Appendix 9)
The information processing system includes:
Only when the first gaze position is within a predetermined range in the display surface of the display device, the second gaze position is calculated and a correction amount for the gaze position is calculated.
The information processing system according to
(Appendix 10)
Computer
An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing method characterized by executing processing.
(Appendix 11)
In the process of generating the second display image, the computer generates the second display image by changing a display position of an image existing around the first gaze position in the first display image. To
The information processing method according to
(Appendix 12)
In the process of generating the second display image, the computer enlarges or reduces the first display image with the first gaze position in the first display image as a center, and the second display image. Generate
The information processing method according to
(Appendix 13)
In the process of generating the second display image, the computer generates the second display image by translating the display position of the image included in the first display image by a predetermined distance in a predetermined direction. ,
The information processing method according to
(Appendix 14)
Before the computer generates the second display image and displays the second display image on the display device, the display positions of the first display image and the image included in the second display image are in the first display image. A plurality of display images that change stepwise from the display position toward the display position in the second display image are sequentially generated and displayed on the display device;
The information processing method according to
(Appendix 15)
In the process of calculating the first gaze position and the second gaze position, the computer is configured to calculate the first gaze position and the second gaze position within the display surface of the display device calculated from each of the plurality of images captured by the imaging device within a predetermined period. Calculating the gaze position based on the gaze position distribution of the observer;
In the process of calculating the correction amount for the gaze position, the computer is based on the first gaze position, the second gaze position, and the amount of change in the second image with respect to the first display image. And correcting the calculation formula used to calculate the line-of-sight position,
The information processing method according to
(Appendix 16)
The computer further executes a process of extracting person information about the observer, and a process of associating and holding the extracted person information and a correction amount for the gaze position,
In the process of calculating the first gaze position, the computer uses the correction amount associated with the person information when the computer holds the same person information as the extracted person information of the observer. Calculating the first gaze position;
The information processing method according to
(Appendix 17)
The computer detects the line of sight of the observer based on the positional relationship between the position of corneal reflection in the eyeball portion of the observer included in the image captured by the imaging device and the center position of the pupil, and a predetermined calculation formula Calculating the line-of-sight position of the observer on the display surface of the display device using
The information processing method according to
(Appendix 18)
The computer calculates the second gaze position and calculates a correction amount for the gaze position only when the first gaze position is within a predetermined range in the display surface of the display device.
The information processing method according to
(Appendix 19)
An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing program that causes a computer to execute processing.
1 情報処理システム
2 情報処理装置
201 画像取得部
202 表示制御部
202a 視線検出部
202b 注視位置算出部
202c 補正量算出部
202d 人物情報抽出部
203 表示画像生成部
204 表示画像出力部
205 記憶部
3,1004 表示装置
301 表示面
4 光源
5 撮像装置
6 観察者
601 眼球
602 角膜反射
603 瞳孔
7 画像
801,811 算出した注視位置
803,813 実際の注視位置
10 コンピュータ
1001 プロセッサ
1002 主記憶装置
1003 補助記憶装置
1005 インタフェース装置
1006 通信装置
1007 記憶媒体駆動装置
DESCRIPTION OF
Claims (9)
第1の表示画像を前記表示装置に表示させているときに、観察者について前記注視位置算出部で算出した第1の注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成する表示画像生成部と、
前記第2の表示画像を前記表示装置に表示させているときに前記観察者について前記注視位置算出部で算出した第2の注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、前記第1の注視位置とに基づいて、前記観察者についての注視位置に対する補正量を算出する補正量算出部と、を備える、
ことを特徴とする情報処理システム。 A gaze position calculation unit that calculates the gaze position of the observer in the display surface of the display device, using an image including an eyeball of an observer observing the display device imaged by the imaging device;
The second display in which the first display image is changed based on the first gaze position calculated by the gaze position calculation unit for the observer while the first display image is displayed on the display device. A display image generation unit for generating an image;
The second gaze position calculated by the gaze position calculation unit for the observer while the second display image is displayed on the display device, and the change of the second image with respect to the first display image A correction amount calculation unit that calculates a correction amount for the gaze position of the observer based on the amount and the first gaze position;
An information processing system characterized by this.
ことを特徴とする請求項1に記載の情報処理システム。 The display image generation unit generates the second display image in which a display position of an image existing around the first gaze position in the first display image is changed.
The information processing system according to claim 1.
ことを特徴とする請求項1に記載の情報処理システム。 The display image generation unit generates the second display image by enlarging or reducing the first display image around the first gaze position in the first display image.
The information processing system according to claim 1.
ことを特徴とする請求項1に記載の情報処理システム。 The display image generation unit translates a display position of an image included in the first display image by a predetermined distance to generate the second display image;
The information processing system according to claim 1.
ことを特徴とする請求項1に記載の情報処理システム。 The display image generation unit generates the second display image and displays the first display image and an image included in the second display image on the first display image before displaying the second display image on the display device. Sequentially generating a plurality of display images that gradually change from a display position in the display image toward a display position in the second display image, and displaying the display image on the display device.
The information processing system according to claim 1.
当該情報処理システムは、前記注視位置に対する補正量と前記人物情報とを対応付けて保持し、前記第1の注視位置を算出する際の前記観察者の人物情報と同一の人物情報を保持している場合に当該人物情報と対応付けられた前記補正量を用いて前記第1の注視位置を算出する、
ことを特徴とする請求項1に記載の情報処理システム。 The information processing system further includes a person information extraction unit that extracts person information about the observer,
The information processing system holds the correction amount for the gaze position and the person information in association with each other, and holds the same person information as the person information of the observer at the time of calculating the first gaze position. The first gaze position is calculated using the correction amount associated with the person information when
The information processing system according to claim 1.
前記第1の注視位置が前記表示装置の表示面内における所定の範囲内である場合にのみ、前記第2の注視位置を算出し前記注視位置に対する補正量を算出する、
ことを特徴とする請求項1に記載の情報処理システム。 The information processing system includes:
Only when the first gaze position is within a predetermined range in the display surface of the display device, the second gaze position is calculated and a correction amount for the gaze position is calculated.
The information processing system according to claim 1.
第1の表示画像を表示させた表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第1の注視位置を算出し、
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理を実行することを特徴とする情報処理方法。 Computer
An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing method characterized by executing processing.
算出した前記注視位置に基づいて前記第1の表示画像を変化させた第2の表示画像を生成して前記表示装置に表示させ、
第2の表示画像を表示させた前記表示装置を観察する観察者の眼球を含む画像を取得し、当該画像を用いて前記表示装置の表示面内における前記観察者の第2の注視位置を算出し、
前記第1の注視位置と、前記第2注視位置と、前記第1の表示画像に対する前記第2の画像の変化量と、に基づいて、前記注視位置に対する補正量を算出する、
処理をコンピュータに実行させる情報処理プログラム。 An image including an eyeball of an observer observing the display device displaying the first display image is acquired, and a first gaze position of the observer in the display surface of the display device is calculated using the image. ,
Generating a second display image obtained by changing the first display image based on the calculated gaze position and displaying the second display image on the display device;
An image including an eyeball of an observer observing the display device on which the second display image is displayed is acquired, and a second gaze position of the observer in the display surface of the display device is calculated using the image And
A correction amount for the gaze position is calculated based on the first gaze position, the second gaze position, and a change amount of the second image with respect to the first display image.
An information processing program that causes a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015242657A JP6540490B2 (en) | 2015-12-11 | 2015-12-11 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015242657A JP6540490B2 (en) | 2015-12-11 | 2015-12-11 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017107511A true JP2017107511A (en) | 2017-06-15 |
JP6540490B2 JP6540490B2 (en) | 2019-07-10 |
Family
ID=59059931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015242657A Expired - Fee Related JP6540490B2 (en) | 2015-12-11 | 2015-12-11 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6540490B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6285068B1 (en) * | 2017-05-31 | 2018-02-28 | キッコーマン株式会社 | Nucleic acid-containing fermented seasoning and method for producing the same |
JP2019161508A (en) * | 2018-03-14 | 2019-09-19 | カシオ計算機株式会社 | Display device, display processing method, and display processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176165A (en) * | 1997-09-02 | 1999-03-23 | Sanyo Electric Co Ltd | Visual axis detection device |
JP2012065781A (en) * | 2010-09-22 | 2012-04-05 | Fujitsu Ltd | Line-of-sight detection device, and correction coefficient determination program |
JP2013255781A (en) * | 2012-05-16 | 2013-12-26 | Taika:Kk | Method for adjusting point-of-gaze for visual line detection unit and pointing device for display |
-
2015
- 2015-12-11 JP JP2015242657A patent/JP6540490B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1176165A (en) * | 1997-09-02 | 1999-03-23 | Sanyo Electric Co Ltd | Visual axis detection device |
JP2012065781A (en) * | 2010-09-22 | 2012-04-05 | Fujitsu Ltd | Line-of-sight detection device, and correction coefficient determination program |
JP2013255781A (en) * | 2012-05-16 | 2013-12-26 | Taika:Kk | Method for adjusting point-of-gaze for visual line detection unit and pointing device for display |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6285068B1 (en) * | 2017-05-31 | 2018-02-28 | キッコーマン株式会社 | Nucleic acid-containing fermented seasoning and method for producing the same |
JP2018201352A (en) * | 2017-05-31 | 2018-12-27 | キッコーマン株式会社 | Nucleic acid-containing fermentation seasoning and manufacturing method therefor |
JP2019161508A (en) * | 2018-03-14 | 2019-09-19 | カシオ計算機株式会社 | Display device, display processing method, and display processing program |
JP7077684B2 (en) | 2018-03-14 | 2022-05-31 | カシオ計算機株式会社 | Display device, display processing method, and display processing program |
Also Published As
Publication number | Publication date |
---|---|
JP6540490B2 (en) | 2019-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6480434B2 (en) | System and method for direct pointing detection for interaction with digital devices | |
EP3367214A1 (en) | Line-of-sight input device, line-of-sight input method, and line-of-sight input program | |
US10051244B2 (en) | Display image formation device and display image formation method | |
KR20130108643A (en) | Systems and methods for a gaze and gesture interface | |
JP2015118531A (en) | Display control device and program | |
JP6123694B2 (en) | Information processing apparatus, information processing method, and program | |
JP2014188322A (en) | Visual line detection device, visual line detection method and program | |
JP2006267604A (en) | Composite information display device | |
JP2006285715A (en) | Sight line detection system | |
JP5857082B2 (en) | Display device and electronic device | |
JP5868128B2 (en) | Information processing apparatus and control method thereof | |
JP5949389B2 (en) | Detection apparatus, detection program, and detection method | |
JP6540490B2 (en) | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM | |
JP2013101524A (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information recording medium | |
JP6500570B2 (en) | Image display apparatus and image display method | |
JP2019128748A (en) | Line-of-sight calibration data generation device, line-of-sight measurement apparatus, and program thereof | |
JP2010258603A (en) | Communication terminal and method of adjusting display size | |
JPH11238124A (en) | Image display method and device | |
JP6647150B2 (en) | Information display device | |
KR102118505B1 (en) | System and method for measurement of visual acuity based on the analysis of user eye movements | |
JP2016076853A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2015046111A (en) | Viewpoint detection device and viewpoint detection method | |
KR20110100987A (en) | User interface method using eye-gaze tracking and terminal thereof | |
JP2013257830A (en) | Information processor | |
JP2020096703A (en) | Medical image management device and medical image management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190320 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190527 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6540490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |