JP2018026120A - 視線検出システム、ずれ検出方法、ずれ検出プログラム - Google Patents
視線検出システム、ずれ検出方法、ずれ検出プログラム Download PDFInfo
- Publication number
- JP2018026120A JP2018026120A JP2017143702A JP2017143702A JP2018026120A JP 2018026120 A JP2018026120 A JP 2018026120A JP 2017143702 A JP2017143702 A JP 2017143702A JP 2017143702 A JP2017143702 A JP 2017143702A JP 2018026120 A JP2018026120 A JP 2018026120A
- Authority
- JP
- Japan
- Prior art keywords
- user
- vector
- unit
- line
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 215
- 238000006073 displacement reaction Methods 0.000 title claims abstract description 17
- 239000013598 vector Substances 0.000 claims abstract description 222
- 210000001747 pupil Anatomy 0.000 claims abstract description 42
- 230000001678 irradiating effect Effects 0.000 claims abstract description 4
- 210000001508 eye Anatomy 0.000 claims description 105
- 210000004087 cornea Anatomy 0.000 claims description 49
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000012937 correction Methods 0.000 claims description 23
- 230000005540 biological transmission Effects 0.000 claims description 5
- 210000003128 head Anatomy 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 45
- 238000000034 method Methods 0.000 description 38
- 239000003550 marker Substances 0.000 description 35
- 230000006870 function Effects 0.000 description 29
- 239000011159 matrix material Substances 0.000 description 24
- 238000013507 mapping Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000017105 transposition Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Signal Processing (AREA)
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
- Optics & Photonics (AREA)
Abstract
Description
<構成>
図1に示すように、本発明に係る視線検出システム1は、装着具100を含む。
以下、視線検出システム1について更に詳細に説明する。
QN=MPN (N=1,・・・,9) (2)
xopt=(ATA)−1ATy (6)
ここで「−1」は逆行列を示す。
以下、図12のフローチャートを用いて視線検出装置200の動作を説明する。図12は、視線検出装置200が、ユーザが頭部に装着したヘッドマウントディスプレイ100の装着状態のずれを検出する処理を示したフローチャートである。
ステップS1201において、視線検出装置200は、ヘッドマウントディスプレイ100から時刻tにおける撮像画像を取得する。第2通信部220は、時刻tにおける撮像画像を受信すると、記憶部228に記憶するとともに、視線検出部221、瞳孔特定部223、取得部224に伝達する。視線検出部221は、伝達された撮像画像を用いて、ユーザ300の注視箇所を特定する。その後に視線検出装置200は、処理をステップS1202に移行する。
ステップS1202において、撮像画像を伝達された瞳孔特定部223は、撮像画像に画像解析をかけて、撮像画像中のユーザの目の瞳孔中心の座標を特定する。瞳孔特定部223は、特定した瞳孔中心の座標をベクトル特定部225に伝達して、ステップS1203に移行する。
ステップS1203において、撮像画像を伝達された取得部224は、上述した手法を用いて、ユーザ300の角膜曲率の中心を通る交線を特定する。取得部224は、特定した交線をベクトル特定部225に伝達して、ステップS1204に移行する。
ステップS1204において、瞳孔中心と、角膜曲率の中心を通る交線と、を伝達されたベクトル特定部225は、まず、角膜曲率の中心を通る交線が、カメラ116のイメージセンサと交わる交点の座標を特定する、そして、ベクトル特定部225は、特定した交点から、伝達された瞳孔中心へ向かうベクトルV1を算出する。ベクトル特定部225は特定したベクトルV1をずれ検出部226に伝達し、ステップS1205に移行する。
ステップS1205において、第2通信部220は、新たなユーザの目を撮像する撮像画像を得たか否かを判定する。新たな時刻t+1の撮像画像を得るまでは待機する(NO)。新たな時刻t+1の撮像画像を得た場合には(YES)、ステップS1206に移行する。
ステップS1206において、新たな撮像画像を伝達された瞳孔特定部223は、撮像画像に画像解析をかけて、撮像画像中のユーザの目の瞳孔中心の座標を特定する。瞳孔特定部223は、特定した瞳孔中心の座標をベクトル特定部225に伝達して、ステップS1207に移行する。
ステップS1207において、新たな撮像画像を伝達された取得部224は、上述した手法を用いて、ユーザ300の角膜曲率の中心を通る交線を特定する。取得部224は、特定した交線をベクトル特定部225に伝達して、ステップS1208に移行する。
ステップS1208において、瞳孔中心と、角膜曲率の中心を通る交線と、を伝達されたベクトル特定部225は、まず、角膜曲率の中心を通る交線が、カメラ116のイメージセンサと交わる交点の座標を特定する、そして、ベクトル特定部225は、特定した交点から、伝達された瞳孔中心へ向かうベクトルV1を算出する。ベクトル特定部225は特定したベクトルV1をずれ検出部226に伝達し、ステップS1209に移行する。
ステップS1209からステップS1210にかけてずれ検出部226は、ユーザ300が装着しているヘッドマウントディスプレイ100がずれたか否かを判定する。ステップS1209において、ずれ検出部226は、ステップS1204で特定したベクトルV1とステップS1208で特定したベクトルV2との長さが(誤差の範囲内で)等しいか否かを判定する。ベクトルV1とベクトルV2との長さが等しい場合には(YES)、ステップS1210に移行し、等しくない場合には(NO)、処理を終了する。
ステップS1210において、ずれ検出部226は、ベクトルV1の向きとベクトルV2の向きが(誤差の範囲内で)同じか否かを判定する。ベクトルV1の向きとベクトルV2の向きが同じである場合には(YES)、ステップS1211に移行し、同じでない場合には(NO)、処理を終了する。
ステップS1211において、ずれ検出部226は、ベクトルV1とベクトルV2との座標位置が異なるか否かを判定する。ずれ検出部226は、ベクトルV1とベクトルV2との間の距離が所定以上であるか否かを判定することによって、座標位置が異なるか否かを判定することとしてもよいし、ベクトルV1とベクトルV2の始端(又は終端)の座標位置が異なるか否かで判定することとしてもよい。ベクトルV1の座標位置と、ベクトルV2の座標位置とが異なる場合には(YES)、ステップS1212に移行し、異ならない、即ち、ベクトルV1とベクトルV2との座標位置が(誤差の範囲内で)同じである場合には(NO)、処理を終了する。
ステップS1212において、ステップS1209からステップS1211の判定の結果、ずれ検出部226は、ユーザ300が装着しているヘッドマウントディスプレイ100が初期状態から(キャリブレーションを行った時点の装着状態から)、ずれていると判定する。ずれ検出部226は、ベクトルV1とベクトルV2との間のずれ量を補正部227に伝達し、ステップS1213に移行する。ここで、ずれ量は、ベクトルV1からベクトルV2へ向かうベクトルであって、ベクトルV1の始点(又は終点)からベクトルV2の始点(又は終点)に向かうベクトルで示される。
ステップS1213において、補正部227は、ずれ検出部226から伝達されたずれ量に基づいて、視線検出部221が検出した注視位置を補正する。具体的には、補正部227は、視線検出部221が検出した注視位置の座標に対して、ずれ量で示されるベクトルの逆ベクトルを加算した座標位置を、注視位置として出力する。
上述のように、視線検出システム1は、撮像した撮像画像において、ユーザ300の角膜曲率の中心805のカメラ116のイメージセンサ116pへの仮想の写像815から、瞳孔中心804のイメージセンサ116pへの瞳孔写像814へのベクトル840に基づいて、ユーザ300へのヘッドマウントディスプレイ100の装着状態のずれを検出することができる。ユーザ300は、ヘッドマウントディスプレイ100がずれた瞬間においては、ユーザ300の眼はその直前と同じ状態を保っていることになる。したがって、その直前の撮像画像におけるベクトル840と、ずれた瞬間における撮像画像におけるベクトル840とは、共に同じ長さ、同じ向きになっているはずである。そのような異なる時間におけるベクトル840の長さと向きと座標とを比較することで、ずれ検出部226は、ユーザ300におけるヘッドマウントディスプレイ100の装着状態のずれを検出することができる。このずれの検出にあたっては、角膜曲率の中心805の3次元空間上の座標や、眼球801の中心の3次元空間上での座標を算出するといった複雑な計算が必要ない。そのため、計算量の少ない演算で、ユーザ300におけるヘッドマウントディスプレイ100の装着状態のずれを検出することができる。また、この検出は、ヘッドマウントディスプレイ100に対して、接触センサ等の新たなセンサを設けることなく実現することができるという利点がある。
上記実施の形態1においては、視線検出装置200によるずれの検出及び補正について述べた。しかしながら、上記実施の形態1に係るずれの検出及び補正は、特定のレンズにおいて適用可能となることがある。そこで、本実施の形態2においては、どのような形状のレンズにおいても、装着したヘッドマウントディスプレイのずれを検出し、補正を行う手法について説明する。
まず、(例1)では、一ユーザ30について、キャリブレーションを行う手法について述べる。この(例1)においては、上記実施の形態1に示した場合と同様に9つのマーカー画像を表示し、それぞれのマーカー画像を注視するユーザ30の眼を撮像し、その時の瞳孔中心の撮像系における座標値を特定し、マーカー画像の撮像系における座標値と対応付けてキャリブレーションデータを取得する。
上記(例1)においては、ユーザ自身のキャリブレーション時のデータを用いた推測を行うこととした。この(例2)においては、ユーザ自身のキャリブレーションデータが少ない状態でも、注視位置の推定を行うことができる例を説明する。
上記の最適化後の変換係数は、最適なキャリブレーションデータを選択している場合に、1に近くなる。即ち、下記数式を満たす。
上記の最適化後の変換係数を用いて行った2つマーカー画像を注視する注視点への変換誤差は、最小となる(最も0に近くなる)。即ち、以下の数式を満たす。
推定された瞳孔中心の座標位置と、変換された瞳孔中心の座標位置との誤差は、最小となる(最も0に近くなる)。即ち、以下の数式を満たす。
上記(例1)及び(例2)においては、ユーザに対して装着したHMDが固定の状態の際にキャリブレーションを行った場合の、写像座標位置の算出方法を説明した。この(例3)では、HMDが固定でない場合の例を説明する。この(例3)においては、前提として、以下の条件でキャリブレーションを行うことが必要となる。
(例4)においては、上記(例3)の変形例を示す。(例4)では、(例3)のずれ検出の簡易版であり、(例2)と同様に、他人のキャリブレーションデータを利用してヘッドマウントディスプレイの装着のずれを吸収して注視点を特定する手法を示す。この(例4)では、角膜曲率の中心を、取得した瞳孔中心と、その画像表示素子108における写像座標とから最適化する手法について説明する。これは、人によって、瞳孔中心に対する角膜曲率の中心が異なるため、他人のキャリブレーションデータを利用する際には、角膜曲率の中心の補正が必要となるためである。
(例1)+(例3)
(例2)+(例3)
(例1)+(例4)
(例2)+(例4)
の組み合わせでの運用が考えられ、(例1)と(例2)の組み合わせが最もユーザに特化した注視点の特定ができるので、視線検出の精度が最も高いと言える。即ち、ヘッドマウントディスプレイ100を個人で利用する場合に最も適した運用になると言える。一方、キャリブレーションに要する時間を最も短縮できるのが、(例2)と(例4)との組み合わせである。この場合には、ヘッドマウントディスプレイ100を短時間で、複数のユーザで使いまわすような状況、例えば、ヘッドマウントディスプレイ100をイベントなどで運用する場合に適したキャリブレーションを行うことができる。
本発明に係る視線検出システムは、上記実施の形態に限定されるものではなく、その発明の思想を実現するための他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
Claims (10)
- ユーザが装着して使用する装着具を含む視線検出システムであって、
ユーザの眼に非可視光を照射する複数の照射部と、
前記非可視光に基づいて前記ユーザの眼を撮像するカメラと、
前記カメラが撮像した撮像画像から前記ユーザの瞳孔中心を特定する瞳孔特定部と、
前記複数の照射部の配置位置と、前記複数の照射部から前記ユーザの眼に照射した照射光の照射位置と、前記カメラの配置位置とに基づいて、前記ユーザの角膜曲率の中心の位置に関する情報を取得する取得部と、
前記撮像画像における、前記ユーザの角膜曲率の中心と、前記瞳孔中心とを結ぶベクトルを特定するベクトル特定部と、
前記ベクトルに基づいて前記ユーザが装着する前記装着具の装着状態のずれを検出するずれ検出部とを備える視線検出システム。 - 前記視線検出システムは、さらに、
前記複数の照射部と、前記カメラとの配置位置を示す配置情報を記憶する記憶部を備え、
前記取得部は、前記記憶部に記憶した前記複数の照射部のうちの第1の照射部の配置情報と、前記第1の照射部から照射された非可視光の前記ユーザの眼に対する第1照射位置と、前記記憶部に記憶した前記複数の照射部のうち前記第1の照射部とは異なる第2の照射部の配置情報と、前記第2の照射部から照射された非可視光の前記ユーザの眼に対する第2照射位置と、前記カメラの配置位置とに基づいて前記ユーザの角膜曲率の中心の位置に関する情報を取得することを特徴とする請求項1に記載の視線検出システム。 - 前記取得部は、前記カメラの中心位置から前記第1の照射部への第1ベクトルと、前記カメラの中心位置から前記第1照射位置への第2ベクトルとを含む第1平面、及び、前記カメラの中心位置から前記第2の照射部への第3ベクトルと、前記カメラの中心位置から前記第2照射位置への第4ベクトルとを含む第2平面の交線を、前記ユーザの角膜曲率の中心の位置に関する情報として取得することを特徴とする請求項2に記載の視線検出システム。
- 前記ベクトル特定部は、前記交線と前記カメラのイメージセンサとの交点を前記撮像画像における、前記ユーザの角膜曲率の中心として前記ベクトルを特定することを特徴とする請求項3に記載の視線検出システム。
- 前記ずれ検出部は、第1の時刻において前記ベクトル特定部が前記ベクトルとして特定した第1ベクトルの位置と、前記第1の時刻から所定時間内の第2の時刻において前記ベクトル特定部が前記ベクトルとして特定した第2ベクトルの位置と、が異なる位置にある場合にずれがあることを検出することを特徴とする請求項1から4のいずれか1項に記載の視線検出システム。
- 前記装着具は、ヘッドマウントディスプレイであり、
前記視線検出システムは、更に、視線検出装置を含み、
前記装着具は、
前記照射部と、
前記カメラと、
前記撮像画像を前記視線検出装置に送信する送信部を備え、
前記視線検出装置は、
前記撮像画像を受信する受信部と、
前記瞳孔特定部と、
前記取得部と、
前記ベクトル特定部と、
前記ずれ検出部と、を備えることを特徴とする請求項1から5のいずれか1項に記載の視線検出システム。 - 前記装着具は、更に、前記ユーザに画像を提示する表示部を備え、
前記視線検出装置は、更に、前記撮像画像に基づいて、前記画像を注視するユーザの注視位置を検出する視線検出部を備えることを特徴とする請求項6に記載の視線検出システム。 - 前記視線検出装置は、さらに、
前記ずれ検出部が検出したずれに基づいて、前記視線検出部が検出したユーザの注視位置を補正する補正部を備えることを特徴とする請求項7に記載の視線検出システム。 - ユーザの眼に非可視光を複数の照射部から照射する照射ステップと、
前記非可視光に基づいて前記ユーザの眼を撮像するカメラを用いて撮像する撮像ステップと、
前記撮像ステップにおいて撮像した撮像画像から前記ユーザの瞳孔中心を特定する瞳孔特定ステップと、
前記複数の照射部の配置位置と、前記複数の照射部から前記ユーザの眼に照射した照射光の照射位置と、前記カメラの配置位置とに基づいて、前記ユーザの角膜曲率の中心の位置に関する情報を取得する取得ステップと、
前記撮像画像における、前記ユーザの角膜曲率の中心と、前記瞳孔中心とを結ぶベクトルを特定するベクトル特定ステップと、
前記ベクトルに基づいて前記ユーザが装着する装着具の装着状態のずれを検出するずれ検出ステップとを含むずれ検出方法。 - ユーザが装着して使用する装着具の装着状態のずれを検出するずれ検出プログラムであって、
コンピュータに、
ユーザの眼に非可視光を照射する複数の照射から照射した前記非可視光に基づいて前記ユーザの眼を撮像するカメラから撮像した撮像画像を取得する撮像画像取得機能と、
前記撮像画像から前記ユーザの瞳孔中心を特定する瞳孔特定機能と、
前記複数の照射部の配置位置と、前記複数の照射部から前記ユーザの眼に照射した照射光の照射位置と、前記カメラの配置位置とに基づいて、前記ユーザの角膜曲率の中心の位置に関する情報を取得する取得機能と、
前記撮像画像における、前記ユーザの角膜曲率の中心と、前記瞳孔中心とを結ぶベクトルを特定するベクトル特定機能と、
前記ベクトルに基づいて前記ユーザが装着する前記装着具の装着状態のずれを検出するずれ検出機能とを実現させるずれ検出プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106125372A TW201816547A (zh) | 2016-07-27 | 2017-07-27 | 視線檢測系統、偏移檢測方法、偏移檢測程序 |
KR1020170095026A KR20180012713A (ko) | 2016-07-27 | 2017-07-27 | 시선 검출 시스템, 변위 검출 방법, 변위 검출 프로그램 |
US15/661,467 US10409368B2 (en) | 2016-07-27 | 2017-07-27 | Eye-gaze detection system, displacement detection method, and displacement detection program |
CN201710623538.1A CN107665040A (zh) | 2016-07-27 | 2017-07-27 | 视线检测***、偏移检测方法、偏移检测程序 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016147519 | 2016-07-27 | ||
JP2016147519 | 2016-07-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018026120A true JP2018026120A (ja) | 2018-02-15 |
JP6485819B2 JP6485819B2 (ja) | 2019-03-20 |
Family
ID=61194138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143702A Active JP6485819B2 (ja) | 2016-07-27 | 2017-07-25 | 視線検出システム、ずれ検出方法、ずれ検出プログラム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6485819B2 (ja) |
KR (1) | KR20180012713A (ja) |
TW (1) | TW201816547A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020081557A (ja) * | 2018-11-28 | 2020-06-04 | フォーブ インコーポレーテッド | 眼の角膜中心の位置を特定する装置、方法、及びプログラム |
CN112955933A (zh) * | 2018-11-05 | 2021-06-11 | 京瓷株式会社 | 控制器、位置判定装置、位置判定***、显示***、程序以及记录介质 |
JP2021525036A (ja) * | 2018-06-06 | 2021-09-16 | 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. | スマートグラス、眼球軌跡の追跡方法、装置及び記憶媒体 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6943913B2 (ja) * | 2019-03-18 | 2021-10-06 | Necプラットフォームズ株式会社 | 情報表示システムおよびウェアラブルデバイス |
CN113283329B (zh) * | 2021-05-19 | 2024-06-07 | 北京京东方光电科技有限公司 | 视线追踪***、眼动仪、视线追踪方法、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000146553A (ja) * | 1998-11-17 | 2000-05-26 | Univ Kyoto | 視線方向検出方法及びその検出装置 |
JP2011115460A (ja) * | 2009-12-04 | 2011-06-16 | Saga Univ | 視線制御装置、視線制御方法、及びそのプログラム |
JP4824420B2 (ja) * | 2006-02-07 | 2011-11-30 | アイテック株式会社 | 視線ベクトル検出方法及び同装置 |
JP2014188322A (ja) * | 2013-03-28 | 2014-10-06 | Panasonic Corp | 視線検出装置、視線検出方法及びプログラム |
WO2014188727A1 (ja) * | 2013-05-22 | 2014-11-27 | 国立大学法人神戸大学 | 視線計測装置、視線計測方法および視線計測プログラム |
WO2016088418A1 (ja) * | 2014-12-02 | 2016-06-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
-
2017
- 2017-07-25 JP JP2017143702A patent/JP6485819B2/ja active Active
- 2017-07-27 KR KR1020170095026A patent/KR20180012713A/ko unknown
- 2017-07-27 TW TW106125372A patent/TW201816547A/zh unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000146553A (ja) * | 1998-11-17 | 2000-05-26 | Univ Kyoto | 視線方向検出方法及びその検出装置 |
JP4824420B2 (ja) * | 2006-02-07 | 2011-11-30 | アイテック株式会社 | 視線ベクトル検出方法及び同装置 |
JP2011115460A (ja) * | 2009-12-04 | 2011-06-16 | Saga Univ | 視線制御装置、視線制御方法、及びそのプログラム |
JP2014188322A (ja) * | 2013-03-28 | 2014-10-06 | Panasonic Corp | 視線検出装置、視線検出方法及びプログラム |
WO2014188727A1 (ja) * | 2013-05-22 | 2014-11-27 | 国立大学法人神戸大学 | 視線計測装置、視線計測方法および視線計測プログラム |
WO2016088418A1 (ja) * | 2014-12-02 | 2016-06-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021525036A (ja) * | 2018-06-06 | 2021-09-16 | 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. | スマートグラス、眼球軌跡の追跡方法、装置及び記憶媒体 |
US11334155B2 (en) | 2018-06-06 | 2022-05-17 | Beijing 7Invensun Technology Co., Ltd. | Smart glasses, method and device for tracking eyeball trajectory, and storage medium |
JP7096369B2 (ja) | 2018-06-06 | 2022-07-05 | 北京七▲しん▼易▲維▼信息技▲術▼有限公司 | スマートグラス、眼球軌跡の追跡方法、装置及び記憶媒体 |
CN112955933A (zh) * | 2018-11-05 | 2021-06-11 | 京瓷株式会社 | 控制器、位置判定装置、位置判定***、显示***、程序以及记录介质 |
CN112955933B (zh) * | 2018-11-05 | 2024-05-24 | 京瓷株式会社 | 控制器、位置判定装置、位置判定***、显示***、程序以及记录介质 |
JP2020081557A (ja) * | 2018-11-28 | 2020-06-04 | フォーブ インコーポレーテッド | 眼の角膜中心の位置を特定する装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20180012713A (ko) | 2018-02-06 |
JP6485819B2 (ja) | 2019-03-20 |
TW201816547A (zh) | 2018-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10409368B2 (en) | Eye-gaze detection system, displacement detection method, and displacement detection program | |
JP6485819B2 (ja) | 視線検出システム、ずれ検出方法、ずれ検出プログラム | |
US9213163B2 (en) | Aligning inter-pupillary distance in a near-eye display system | |
US11200646B2 (en) | Compensation for deformation in head mounted display systems | |
US20180004289A1 (en) | Video display system, video display method, video display program | |
EP3334148A1 (en) | Ocular video stabilization | |
US10269139B2 (en) | Computer program, head-mounted display device, and calibration method | |
US20170344112A1 (en) | Gaze detection device | |
WO2017090203A1 (ja) | 視線検出システム、注視点特定方法及び注視点特定プログラム | |
US20180007258A1 (en) | External imaging system, external imaging method, external imaging program | |
US20170011555A1 (en) | Head-mounted display device and computer program | |
JP6112583B2 (ja) | ヘッドマウントディスプレイ | |
CN108139806A (zh) | 相对于可穿戴设备跟踪穿戴者的眼睛 | |
TW201802642A (zh) | 視線檢測系統 | |
JP2024069461A (ja) | 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 | |
JP2018055589A (ja) | プログラム、物体の追跡方法、表示装置 | |
US20200213467A1 (en) | Image display system, image display method, and image display program | |
US20170371408A1 (en) | Video display device system, heartbeat specifying method, heartbeat specifying program | |
US20180182124A1 (en) | Estimation system, estimation method, and estimation program | |
US20200319709A1 (en) | Information processing system, operation method, and operation program | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
CN113138664A (zh) | 基于光场感知的眼球追踪***、方法 | |
CN117957479A (zh) | 使用空间定位的自由形式光学部件进行失真补偿和图像清晰度增强的紧凑型成像光学器件 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180531 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180328 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180906 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20180911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190115 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6485819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |