JP6374107B2 - アイトラッキングシステムのための改良されたキャリブレーション - Google Patents
アイトラッキングシステムのための改良されたキャリブレーション Download PDFInfo
- Publication number
- JP6374107B2 JP6374107B2 JP2017523820A JP2017523820A JP6374107B2 JP 6374107 B2 JP6374107 B2 JP 6374107B2 JP 2017523820 A JP2017523820 A JP 2017523820A JP 2017523820 A JP2017523820 A JP 2017523820A JP 6374107 B2 JP6374107 B2 JP 6374107B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- calibration
- tracking
- facing camera
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
Description
(a)オブジェクト視覚サイズ − 大きなオブジェクトは、ユーザ視点に関する不確実性を増加させる可能性がある。
(b)オブジェクト視覚速度 − 滑らかな追跡速度は、通常、最大約30度/秒に制限される。
(c)オブジェクト動作 − 比較的小さなオブジェクト動作は、固視か衝動性運動か区別がつかない場合がある。
(d)オブジェクト自己閉塞(self−occlusion) − 閉塞したオブジェクト(例えば、自身の軸の周りの回転)は、オブジェクトの本体の全体的動作と矛盾する注視パターンを生成することがある。
(e)オブジェクトコントラスト − コントラストが比較的低いオブジェクトは、ユーザの注視点に関する不確実性を増加させる可能性がある。
(f)オブジェクトの識別性 − 多くのオブジェクトが同様のパターンで動作する場合、その動作は、どのオブジェクトをユーザの視線がトラッキングしているかに関して不確実性を増大させる可能性がある。
Claims (23)
- シーンフェイシングカメラからビデオストリームを受信し、移動するオブジェクトを検出するために前記ビデオストリームを解析し、一期間にわたって前記移動するオブジェクトの角度位置を推定するシーン解析モジュールと、
アイトラッキングカメラから画像を受信し、前記画像に基づいて、前記一期間にわたって、ユーザの目の注視角度を推定する注視推定モジュールと、
前記移動するオブジェクトの各々に対して、前記オブジェクトの角度位置と前記注視角度との間の第1の距離測定値を計算し、さらに、前記移動するオブジェクトの各々をキャリブレーションに使用するために受け入れるか否かについて、前記第1の距離測定値の距離測定閾値との比較に基づいて決定するオブジェクト軌跡適合モジュールと、
第2の距離測定値の最小化に基づいてアイトラッキングキャリブレーション角度を推定するキャリブレーションモジュールであって、前記第2の距離測定値は、受け入れられた前記移動するオブジェクトの前記角度位置と前記注視角度との間で計算されるキャリブレーションモジュールと、
を備えるアイトラッキングキャリブレーションシステム。 - 前記シーン解析モジュールは、さらに、テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング及び/又はポジティブ‐ネガティブトラッキングに基づいて前記移動するオブジェクトを検出する、請求項1に記載のシステム。
- 前記シーン解析モジュールはさらに、前記移動するオブジェクトの視覚的サイズがサイズ閾値を超えることに基づいて前記移動するオブジェクトを拒否することを特徴とする、請求項1に記載のシステム。
- 前記シーン解析モジュールは、さらに、前記移動するオブジェクトの視覚速度が速度閾値を超えることに基づいて前記移動するオブジェクトを拒否することを特徴とする、請求項1に記載のシステム。
- 前記シーン解析モジュールは、さらに、前記移動するオブジェクトに関連付けられている前記注視角度の極値が移動閾値の範囲を超えないという決定に基づいて、前記移動するオブジェクトを拒否することを特徴とする、請求項1乃至4いずれか1項に記載のシステム。
- 前記シーンフェイシングカメラの動作をトラッキングするための慣性センサをさらに備え、前記シーン解析モジュールが、前記オブジェクトの動作の前記シーンフェイシングカメラの動作との相関に基づいて前記移動するオブジェクトをさらに拒否する、請求項1乃至4いずれか1項に記載のシステム。
- 前記最小化は、ニュートン・ガウスアルゴリズム又はレーベンバーグ・マーカードアルゴリズムに基づく、請求項1乃至4のいずれか1項に記載のシステム。
- 前記移動するオブジェクトの位置をワールド座標系からアイ座標系へ変換するために、前記移動するオブジェクトと前記シーンフェイシングカメラとの間の距離を推定する深さ測定装置、をさらに備える、請求項1乃至4のいずれか1項に記載のシステム。
- 前記オブジェクト軌跡適合モジュールは、さらに、推定された前記オブジェクトの角度位置及び推定された前記注視角度を共通の時間座標系に再サンプリングする、請求項1乃至4のいずれか1項に記載のシステム。
- アイトラッキングキャリブレーションのための方法であって、
シーンフェイシングカメラからビデオストリームを受信するステップと、
移動するオブジェクトを検出するために前記ビデオストリームを解析し、一期間にわたって前記移動するオブジェクトの角度位置を推定するステップと、
アイトラッキングカメラから画像を受信し、前記画像に基づいて、前記一期間にわたってユーザの目の注視角度を推定するステップと、
各前記移動するオブジェクトに対して、前記オブジェクトの角度位置と前記注視角度との間の第1の距離測定値を計算するステップと、
キャリブレーションに使用するために各前記移動するオブジェクトを受け入れるか否かについて、前記第1の距離測定値の距離測定値閾値との比較に基づいて決定するステップと、
第2の距離測定値の最小化に基づいてアイトラッキングキャリブレーション角度を推定するステップであって、前記第2の距離測定値は、受け入れられた前記移動するオブジェクトの前記角度位置と前記注視角度との間で計算されるステップと、
を含む、アイトラッキングキャリブレーションのための方法。 - テンプレート適合、オプティカルフロートラッキング、背景セグメンテーション、スケール不変特徴変換(SIFT)適合、パーティクルフィルタリング及び/又はポジティブ‐ネガティブトラッキングに基づいて前記移動するオブジェクトを検出するステップをさらに含む、請求項10に記載の方法。
- 前記移動するオブジェクトの視覚的サイズがサイズ閾値を超えることに基づいて前記移動するオブジェクトを拒否するステップをさらに含む、請求項10に記載の方法。
- 前記移動するオブジェクトの視覚速度が速度閾値を超えることに基づいて前記移動するオブジェクトを拒否するステップをさらに含む、請求項10に記載の方法。
- 前記移動するオブジェクトに関連付けられている前記注視角度の極値が移動閾値の範囲を超えないという決定に基づいて、前記移動するオブジェクトを拒否するステップをさらに含む、請求項10乃至13いずれか1項に記載の方法。
- 前記シーンフェイシングカメラの動作をトラッキングするステップと、
前記オブジェクトの動作と前記シーンフェイシングカメラの動作との相関に基づいて前記移動するオブジェクトを拒否するステップと、
をさらに含む、請求項10乃至13いずれか1項に記載の方法。 - 前記移動するオブジェクトの位置をワールド座標系からアイ座標系へ変換するために、前記移動するオブジェクトと前記シーンフェイシングカメラとの間の距離を推定するステップをさらに含む、請求項10乃至13のいずれか1項に記載の方法。
- 推定された前記オブジェクト角度位置と推定された前記注視角度とを共通の時間座標系に再サンプリングするステップをさらに含む、請求項10乃至13のいずれか1項に記載の方法。
- プロセッサによって実行されたときに、請求項10乃至13のいずれか1項に記載の方法を実行するための工程をもたらす命令を有するプログラム。
- 前記移動するオブジェクトに関連付けられている前記注視角度の極値が移動閾値の範囲を超えないという決定に基づいて、前記移動するオブジェクトを拒絶する工程をさらに含む、請求項18に記載のプログラム。
- 前記シーンフェイシングカメラの動作をトラッキングする工程と、
前記オブジェクトの動作と前記シーンフェイシングカメラの動作との相関に基づいて前記移動するオブジェクトを拒否する工程と、
をさらに含む、請求項18に記載のプログラム。 - 前記移動するオブジェクトの位置をワールド座標系からアイ座標系に変換するために、前記移動するオブジェクトと前記シーンフェイシングカメラとの間の距離を推定する工程をさらに含む、請求項18に記載のプログラム。
- 推定された前記オブジェクト角度位置と推定された前記注視角度とを共通の時間座標系に再サンプリングする工程をさらに含む、請求項18に記載のプログラム。
- 請求項18乃至22のうちいずれか1項記載のコンピュータプログラムを記憶したコンピュータ読取り可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/534,333 US9936195B2 (en) | 2014-11-06 | 2014-11-06 | Calibration for eye tracking systems |
US14/534,333 | 2014-11-06 | ||
PCT/US2015/054621 WO2016073131A1 (en) | 2014-11-06 | 2015-10-08 | Improved calibration for eye tracking systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018505457A JP2018505457A (ja) | 2018-02-22 |
JP6374107B2 true JP6374107B2 (ja) | 2018-08-15 |
Family
ID=55909603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017523820A Active JP6374107B2 (ja) | 2014-11-06 | 2015-10-08 | アイトラッキングシステムのための改良されたキャリブレーション |
Country Status (6)
Country | Link |
---|---|
US (1) | US9936195B2 (ja) |
EP (1) | EP3215914B1 (ja) |
JP (1) | JP6374107B2 (ja) |
KR (1) | KR102307941B1 (ja) |
CN (1) | CN107003721B (ja) |
WO (1) | WO2016073131A1 (ja) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11138793B2 (en) * | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
US10115205B2 (en) * | 2016-03-11 | 2018-10-30 | Facebook Technologies, Llc | Eye tracking system with single point calibration |
WO2017216118A1 (en) * | 2016-06-13 | 2017-12-21 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Method and eye tracking system for performing a calibration procedure for calibrating an eye tracking device |
WO2018000184A1 (en) | 2016-06-28 | 2018-01-04 | Intel Corporation | Iris or other body part identification on a computing device |
EP3488282A4 (en) * | 2016-07-19 | 2019-08-07 | Supereye, Inc. | SYSTEMS AND METHODS FOR PREDICTIVE VISUAL RENDERING |
US10379612B1 (en) * | 2016-12-16 | 2019-08-13 | Apple Inc. | Electronic device with gaze tracking system |
US10452138B1 (en) * | 2017-01-30 | 2019-10-22 | Facebook Technologies, Llc | Scanning retinal imaging system for characterization of eye trackers |
US10839520B2 (en) * | 2017-03-03 | 2020-11-17 | The United States Of America, As Represented By The Secretary, Department Of Health & Human Services | Eye tracking applications in computer aided diagnosis and image processing in radiology |
US10761602B1 (en) | 2017-03-14 | 2020-09-01 | Facebook Technologies, Llc | Full field retinal imaging system for characterization of eye trackers |
CN107103293B (zh) * | 2017-04-13 | 2019-01-29 | 西安交通大学 | 一种基于相关熵的注视点估计方法 |
US10304209B2 (en) | 2017-04-19 | 2019-05-28 | The Nielsen Company (Us), Llc | Methods and systems to increase accuracy of eye tracking |
US10642352B2 (en) | 2017-05-18 | 2020-05-05 | Tectus Coporation | Gaze calibration via motion detection for eye-mounted displays |
EP3672478A4 (en) | 2017-08-23 | 2021-05-19 | Neurable Inc. | BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING |
CN108038884B (zh) * | 2017-11-01 | 2020-12-11 | 北京七鑫易维信息技术有限公司 | 校准方法、装置、存储介质和处理器 |
JP7496776B2 (ja) | 2017-11-13 | 2024-06-07 | ニューラブル インコーポレイテッド | 高速、正確及び直観的なユーザ対話のための適合を有する脳-コンピュータインターフェース |
KR102476757B1 (ko) | 2017-12-21 | 2022-12-09 | 삼성전자주식회사 | 반사를 검출하는 장치 및 방법 |
US11029756B2 (en) | 2018-01-12 | 2021-06-08 | Intel Corporation | Display with pixel level eye tracking |
EP3750029A1 (en) | 2018-02-09 | 2020-12-16 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters using a neural network |
US11393251B2 (en) | 2018-02-09 | 2022-07-19 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
EP3750028B1 (en) | 2018-02-09 | 2022-10-19 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
WO2019204765A1 (en) * | 2018-04-19 | 2019-10-24 | Magic Leap, Inc. | Systems and methods for operating a display system based on user perceptibility |
US10863812B2 (en) | 2018-07-18 | 2020-12-15 | L'oreal | Makeup compact with eye tracking for guidance of makeup application |
CN109218562B (zh) * | 2018-09-07 | 2021-04-27 | 百度在线网络技术(北京)有限公司 | 时钟同步方法、装置、设备、存储介质和车辆 |
US10664050B2 (en) * | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
EP3656285B1 (en) * | 2018-11-15 | 2023-04-19 | Tobii AB | Method and device for calibrating an eye tracker |
EP3912013A1 (en) | 2019-01-16 | 2021-11-24 | Pupil Labs GmbH | Methods for generating calibration data for head-wearable devices and eye tracking system |
WO2020185219A1 (en) * | 2019-03-13 | 2020-09-17 | Hewlett-Packard Development Company, L.P. | Detecting eye tracking calibration errors |
DE112019007085T5 (de) | 2019-03-27 | 2022-01-20 | Intel Corporation | Intelligente Anzeigetafeleinrichtung und verwandte Verfahren |
US10936057B2 (en) * | 2019-04-09 | 2021-03-02 | Samsung Electronics Co., Ltd. | System and method for natural three-dimensional calibration for robust eye tracking |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
US11676422B2 (en) | 2019-06-05 | 2023-06-13 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
CN110266881B (zh) * | 2019-06-18 | 2021-03-12 | Oppo广东移动通信有限公司 | 应用控制方法及相关产品 |
EP3786764B1 (en) * | 2019-08-27 | 2022-11-23 | Aptiv Technologies Limited | Method and localization device for localizing an image sensor mounted on a vehicle |
US11216065B2 (en) * | 2019-09-26 | 2022-01-04 | Lenovo (Singapore) Pte. Ltd. | Input control display based on eye gaze |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11360528B2 (en) | 2019-12-27 | 2022-06-14 | Intel Corporation | Apparatus and methods for thermal management of electronic user devices based on user activity |
CN114868102A (zh) | 2020-01-06 | 2022-08-05 | 索尼集团公司 | 信息处理装置、信息处理方法和计算机可读记录介质 |
CN111309144B (zh) * | 2020-01-20 | 2022-02-01 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
JP7446913B2 (ja) * | 2020-05-21 | 2024-03-11 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム |
CN112698725B (zh) * | 2020-12-30 | 2022-02-11 | 山东大学 | 一种基于眼动仪跟踪的穿透式屏幕***的实现方法 |
GB2603947A (en) * | 2021-02-22 | 2022-08-24 | Nokia Technologies Oy | Method and apparatus for depth estimation relative to a mobile terminal |
CN112926523B (zh) * | 2021-03-30 | 2022-07-26 | 青岛小鸟看看科技有限公司 | 基于虚拟现实的眼球追踪方法、*** |
SE545129C2 (en) * | 2021-03-31 | 2023-04-11 | Tobii Ab | Method and system for eye-tracker calibration |
US11663836B2 (en) * | 2021-05-17 | 2023-05-30 | GM Global Technology Operations LLC | Eye gaze tracking calibration |
US20240103618A1 (en) * | 2022-09-23 | 2024-03-28 | Apple Inc. | Corrected Gaze Direction and Origin |
WO2024138044A1 (en) * | 2022-12-22 | 2024-06-27 | Apple Inc. | Visual axis enrollment |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0119859D0 (en) * | 2001-08-15 | 2001-10-10 | Qinetiq Ltd | Eye tracking system |
US7651220B1 (en) | 2005-11-07 | 2010-01-26 | Ram Pattikonda | Selective system for blocking glare in a specific location of a user's field of vision |
US7825797B2 (en) * | 2006-06-02 | 2010-11-02 | Synaptics Incorporated | Proximity sensor device and method with adjustment selection tabs |
USRE47534E1 (en) * | 2007-04-23 | 2019-07-23 | Ramot At Tel Aviv University Ltd. | System, method and a computer readable medium for providing an output image |
WO2009016614A2 (en) * | 2007-08-02 | 2009-02-05 | Emza Visual Sense Ltd. | Universal counting and measurement system |
JP4384697B2 (ja) * | 2008-03-26 | 2009-12-16 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム処理方法、ならびに、プログラム |
US7736000B2 (en) * | 2008-08-27 | 2010-06-15 | Locarna Systems, Inc. | Method and apparatus for tracking eye movement |
JP2010273091A (ja) * | 2009-05-21 | 2010-12-02 | Nippon Telegr & Teleph Corp <Ntt> | 広域多視点カメラ校正方法、広域多視点カメラ校正装置、およびプログラム |
US8982160B2 (en) * | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
WO2011133548A2 (en) * | 2010-04-19 | 2011-10-27 | Innerscope Research, Inc. | Short imagery task (sit) research method |
US9001196B2 (en) * | 2010-10-05 | 2015-04-07 | Echostar Technologies L.L.C. | Apparatus, systems and methods for synchronization of 3-D shutter glasses to one of a plurality of presentation devices |
US8866889B2 (en) * | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
WO2012083415A1 (en) * | 2010-11-15 | 2012-06-28 | Tandemlaunch Technologies Inc. | System and method for interacting with and analyzing media on a display using eye gaze tracking |
US20130154913A1 (en) | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
US8885877B2 (en) * | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
CA2853709C (en) | 2011-10-27 | 2020-09-01 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
TW201325200A (zh) * | 2011-12-02 | 2013-06-16 | Ind Tech Res Inst | 三維視訊的景深圖的壓縮方法、裝置、電腦可讀取記錄媒體及電腦程式產品 |
JP5873362B2 (ja) * | 2012-03-13 | 2016-03-01 | 日本放送協会 | 視線誤差補正装置、そのプログラム及びその方法 |
GB2504492A (en) * | 2012-07-30 | 2014-02-05 | John Haddon | Gaze detection and physical input for cursor symbol |
US9164580B2 (en) * | 2012-08-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Calibration of eye tracking system |
JP6014931B2 (ja) * | 2012-09-06 | 2016-10-26 | 公立大学法人広島市立大学 | 視線計測方法 |
KR101467529B1 (ko) * | 2012-09-19 | 2014-12-05 | 유남구 | 착용형 정보 제공 시스템 |
KR20140090552A (ko) * | 2013-01-09 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법 |
US9596508B2 (en) * | 2013-03-15 | 2017-03-14 | Sony Corporation | Device for acquisition of viewer interest when viewing content |
JP6094305B2 (ja) * | 2013-03-26 | 2017-03-15 | セイコーエプソン株式会社 | 頭部装着型表示装置、および、頭部装着型表示装置の制御方法 |
US9965062B2 (en) * | 2013-06-06 | 2018-05-08 | Microsoft Technology Licensing, Llc | Visual enhancements based on eye tracking |
KR102098277B1 (ko) * | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
WO2015072997A1 (en) * | 2013-11-14 | 2015-05-21 | Empire Technology Development, Llc | Reduction of glare in augmented reality |
US9754415B2 (en) * | 2014-03-27 | 2017-09-05 | Microsoft Technology Licensing, Llc | Display relative motion compensation |
-
2014
- 2014-11-06 US US14/534,333 patent/US9936195B2/en not_active Expired - Fee Related
-
2015
- 2015-10-08 KR KR1020177011016A patent/KR102307941B1/ko active IP Right Grant
- 2015-10-08 WO PCT/US2015/054621 patent/WO2016073131A1/en active Application Filing
- 2015-10-08 EP EP15857497.0A patent/EP3215914B1/en active Active
- 2015-10-08 CN CN201580054479.XA patent/CN107003721B/zh active Active
- 2015-10-08 JP JP2017523820A patent/JP6374107B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20160134863A1 (en) | 2016-05-12 |
EP3215914A1 (en) | 2017-09-13 |
EP3215914B1 (en) | 2020-03-11 |
KR102307941B1 (ko) | 2021-10-05 |
CN107003721B (zh) | 2020-03-17 |
US9936195B2 (en) | 2018-04-03 |
JP2018505457A (ja) | 2018-02-22 |
KR20170065573A (ko) | 2017-06-13 |
WO2016073131A1 (en) | 2016-05-12 |
CN107003721A (zh) | 2017-08-01 |
EP3215914A4 (en) | 2018-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6374107B2 (ja) | アイトラッキングシステムのための改良されたキャリブレーション | |
US9406137B2 (en) | Robust tracking using point and line features | |
JP5722502B2 (ja) | モバイルデバイスのための平面マッピングおよびトラッキング | |
JP5950973B2 (ja) | フレームを選択する方法、装置、及びシステム | |
EP2509070B1 (en) | Apparatus and method for determining relevance of input speech | |
US9582707B2 (en) | Head pose estimation using RGBD camera | |
JP6140278B2 (ja) | ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え | |
US10891473B2 (en) | Method and device for use in hand gesture recognition | |
JP5538160B2 (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
US20190026922A1 (en) | Markerless augmented reality (ar) system | |
WO2016199605A1 (ja) | 画像処理装置および方法、並びにプログラム | |
CN104981680A (zh) | 相机辅助的运动方向和速度估计 | |
US20160061581A1 (en) | Scale estimating method using smart device | |
US9412012B2 (en) | Z-axis determination in a 2D gesture system | |
US11042984B2 (en) | Systems and methods for providing image depth information | |
US20180314893A1 (en) | Information processing device, video image monitoring system, information processing method, and recording medium | |
JP6276713B2 (ja) | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム | |
JP5482412B2 (ja) | ロボット、位置推定方法及びプログラム | |
US10852138B2 (en) | Scalabale simultaneous localization and mapping (SLAM) in virtual, augmented, and mixed reality (xR) applications | |
JP2016513842A (ja) | 異なる精度のソフトウェアアルゴリズム及びハードウェアアルゴリズムを実施する評価層を備えた画像プロセッサ | |
US9245343B1 (en) | Real-time image geo-registration processing | |
JP5559749B2 (ja) | 位置検出装置、位置検出方法及びコンピュータプログラム | |
KR101909326B1 (ko) | 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템 | |
JP2014092886A (ja) | 画像処理装置、プログラム、及び方法 | |
US11605206B2 (en) | Method and apparatus with human body estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6374107 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |