JP6106684B2 - 高分解能視線検出のためのシステムおよび方法 - Google Patents

高分解能視線検出のためのシステムおよび方法 Download PDF

Info

Publication number
JP6106684B2
JP6106684B2 JP2014541208A JP2014541208A JP6106684B2 JP 6106684 B2 JP6106684 B2 JP 6106684B2 JP 2014541208 A JP2014541208 A JP 2014541208A JP 2014541208 A JP2014541208 A JP 2014541208A JP 6106684 B2 JP6106684 B2 JP 6106684B2
Authority
JP
Japan
Prior art keywords
eye
wearer
camera
image
light sources
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014541208A
Other languages
English (en)
Other versions
JP2014532542A (ja
JP2014532542A5 (ja
Inventor
パブリカバー,ネルソン,ジー.
トーチ,ウィリアム,シー.
スピトラー,クリストファー,エヌ.
Original Assignee
アイフリューエンス,インコーポレイテッド.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイフリューエンス,インコーポレイテッド. filed Critical アイフリューエンス,インコーポレイテッド.
Publication of JP2014532542A publication Critical patent/JP2014532542A/ja
Publication of JP2014532542A5 publication Critical patent/JP2014532542A5/ja
Application granted granted Critical
Publication of JP6106684B2 publication Critical patent/JP6106684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Eye Examination Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

連邦支援による研究開発についての声明
米国政府は、本発明における一括払いライセンスと、限られた状況下において妥当な条件(例えば、国防総省(米陸軍)契約番号No.W81XWH−05−C−0045、米国国防総省議会研究構想No.W81XWH−06−2−0037、W81XWH−09−2−0141およびW81XWH−11−2−0156ならびに米国運輸省議会研究構想契約付与No.DTNH22−05−H−01424中に記載の条件)に基づいて他者にライセンス付与することを特許権者に要求する権利とを持ち得る。
本発明は、眼監視および/または制御用途のための、目立たないアイウェアまたはヘッドウェアデバイスを用いた高精度の視線検出を得るための装置、システムおよび方法に関する。
本明細書中のシステムおよび方法は、監視者が視認している位置および/または物体を検出するための機械視覚技術を用いる。従来、視線検出アルゴリズムは、検出結果を生成するために2つの連続データストリームを必要とするものとしてみなされている:1)3次元世界内の頭部の位置および方向探索するための頭部検出方法、および2)照明光源による閃光発生と、瞳孔の縁部または眼表面上の他の特定可能な基準点とを検出することにより、閃光に相対する眼の旋回角度および視認方向を計算する眼検出方法。目立たないアイウェアまたはヘッドウェアデバイスを用いた高精度視線検出の場合、デバイス(全てのカメラおよびデバイスに固定された照明光源を含む)の(眼の表面に相対する)位置を連続的に監視することは、頭部生体構造の個々の変動と、使用時におけるアイウェアまたはヘッドウェアの小さな動きとを考慮するためのさらなる入力となる。機械視覚を用いた用途は、ますます普及してきている。部分的には、このような状況は、電子およびソフトウェア開発業界における技術発展に起因して発生し、このような状況により、カメラ、情報処理ユニットおよび他の電子コンポーネントのコストが低下する。特に、視線検出は、複数の診断用途、人間性能用途および制御用途において普及してきている。少数の例を挙げると、個人の疲労レベルの監視、運転者またはパイロットの覚醒評価、薬剤またはアルコールによる影響の評価、心的外傷後ストレス障害の診断、年齢による人間性能の検出、トレーニングまたはエクササイズがパフォーマンスに及ぼす効果の決定、眼球ドウェル時間測定によるテレビ広告またはウェブページ設計の効果の評価、観測されている特定の物体または画像(例えば、単語および文章)の輝度の拡大または変更、ゲーム多様な局面の制御、神経障害または認識障害の評価のための基礎臨床データの取得、変性眼状態の診断および監視、および頚部より下側の移動が限定されているかまたは不可能な個人が(1つ以上の眼およびまぶたを用いたコンピュータカーソルの制御により)通信を可能にすることがある。視線検出を利用するセクターおよび業界を挙げると、軍事、医療、セキュリティ、人間性能、ゲーム、スポーツ医学、リハビリテーション工学、警察、研究機関および玩具がある。
ほとんどの場合、視線検出精度が上がると、ほとんどの場合において、性能および使いやすさ双方が上がる。例えば、精度が上昇した場合、より小型の物体または物体のコンポーネント上における位置および固定時間を定量化するための眼球ドウェル時間も、より高精度に測定することができる。より小型の画面を用いたポータブルデバイス(例えば、携帯電話およびハンドヘルドディスプレイ)と共に、視線検出をより効果的に用いることができる。視線検出は、画面内の複数の仮想物体またはアイコンからの選択を用いたコンピュータカーソルの制御に用いられるが、現在では、より小型の仮想物体またはアイコンを選択することが可能となっているため、同時に表示することが可能な選択可能な物体数も増加している。各選択プロセスレベル内における物体数が増加すると、仮想物体および関連付けられたアクションを選択することが可能な効率も増加し得る(すなわち、選択レベル数の低下および/または時間低減)。
今日のマイクロ電子およびマイクロ光学の登場により、視線検出のためのコンポーネントをアイウェア(例えば、眼鏡フレーム)またはヘッドウェア(例えば、ヘルメット、マスク、ゴーグル、仮想現実ディスプレイ)(例えば、米国特許第6,163,281号、第6,542,081号または第7,488,294号、第7,515,054号中に記載のようなデバイス)上に目立たない様態で取り付けることが可能となる。1つ以上のデバイスが取り付けられたシーンカメラを用いて環境内における基準位置を検出する頭部検出に関連する方法が、出願シリアル番号第13/113,003号(出願日:2011年5月20日)中に開示されている。カメラ画像に基づいたシーン照明の制御に関連する方法について、出願シリアル番号第12/715,177号(出願日:2010年3月1日、米国公開第2011/0211056号として公開)中に開示がある。デバイス装着者の応答時間および反応時間の測定に関連する方法について、出願シリアル番号第13/113,006号(出願日:2011年5月20日)中に開示がある。この方法において、本出願中に記載のような空間精度の向上により、反応時間測定の時間的精度の向上に貢献することができる。
アイウェアまたはヘッドウェアシステム内のカメラに固定された高精度マイクロ光学を用いて、眼表面上における構造および反射ならびにデバイス装着者によって視認されるシーンを画像化することができる。低出力の小型カメラおよび電子機器を用いることにより、頭部に取り付けられたシステムを用いた全範囲における移動が可能となる。この頭部に取り付けられたシステムは、他のデバイスへ連結されるか、あるいは、連結されずに(任意選択的に)電池によって電力供給される。さらに、無線電気通信における最近の発展により、他のコンピューティングデバイス、データ記憶デバイスおよび/または制御デバイスへ視線検出結果をリアルタイムで伝送することが可能となっている。複数の分野におけるこれらの技術発展の結果、アイウェアまたはヘッドウェアに基づいた視線検出システムを目立たない様態の、軽量であり、ポータブルであり、かつ無限の移動度で簡便に利用することが可能となっている。
本発明は、眼監視用途および/または制御用途のための目立たないアイウェアまたはヘッドウェアデバイス(例えば、複数の眼検出カメラを用いたもの)を用いた高精度の視線検出を生成するための装置、システムおよび方法に関連する。
アイウェアまたはヘッドウェア上に取り付けられた複数の眼検出用カメラの利用、本用途のシステムおよび方法のコンポーネントは、頭部から何らかの距離を空けて配置されたヘッドウェアまたは複数のカメラへ固定された単一のカメラに比べて、複数の利点を持ち得る。第1に、異なる角度から眼へと方向付けられたカメラを「範囲ファインダー」モードにおいて用いて、照明光源から発生した閃光位置を検出することができる。複数の角度から見た閃光位置を用いて、眼表面に相対するカメラ位置を決定することができる。これは、使用時におけるアイウェアまたはヘッドウェアの初期位置および動きを考慮する際において特に有用であり得る。第2に、眼に向けられた個々のカメラからは2次元画像が生成される一方、発生する眼球および他の構造(例えば、まぶた、顔の筋肉)の動きは、3つの空間次元全てにおいて発生する。眼に対して異なる方向から方向付けられた複数のカメラからの画像測定を解剖学的モデルアプローチにおいて用いることにより、眼および他の基準位置(例えば、閃光、まぶた)の全寸法における動きを仮想的に再構築することができる。第3に、眼の極端な動き(すなわち、上方または下方、左または右)が有った場合、瞳孔または他の基準位置を高精度に検出する能力に歪みが発生する場合があるか、または、眼球の曲率および/または他の構造による干渉に起因して、単一の近接場カメラによって瞳孔を観察する能力が完全に失われ得る。複数のカメラを用いることにより、眼位置の生理学的範囲全体にわたって瞳孔および他の基準位置の生理学的範囲を行うことが可能になる。
複数の照明光源をアイウェアまたはヘッドウェア上に取り付けて、眼に方向つけて用いることにより、頭部から何らかの距離をあけて配置されたヘッドウェアまたは1つ以上の照明光源へ固定された個々の照明光源の場合よりも複数のさらなる利点が得られ得る。例えば、複数の照明光源を用いることにより、機械画像処理アルゴリズムを混乱させる影または他のアーチファクトの発生無しに、眼の3次元構造周囲の全領域を確実に照射することが可能になる。加えて、十分に大型の照明光源アレイをアイウェアまたはヘッドウェア上に取り付けて用いることにより、生理学的範囲全体において眼が移動している間、少なくとも1つの閃光を眼の角膜領域上に確実に投射させることが可能になる。この角膜領域においては、(眼の残り部分と比較して)ジオメトリが比較的より簡単であり、また、カメラ画像内の角膜からの閃光角度を計算するための反射特性が既知である。さらに、上記した「範囲ファインダー」モードにおいて複数のカメラを用いるのと同様に、複数の照明光源を用いて、眼表面に相対するアイウェアまたはヘッドウェアデバイスの位置を連続的に測定することができる。少なくともいくつかの照明光源をデバイス装着者の通常の視線内に直接配置することにより、デバイス装着者の凝視ベクトル(すなわち、視軸)を閃光を用いて生成される既知の基準ベクトルに近接させることも可能になり、これにより、視線検出精度が向上する。
加えて、アイウェアまたはヘッドウェアに固定された照明光源は、デバイス装着者とともに移動する。その結果、頭部が広範囲にわたって動く場合でも、眼領域の照明が確実になる。このように頭部が動いている間、閃光およびさらには照明全体が、頭部から何らかの距離をあけて取り付けられた照明光源から失われ得る。
カメラ処理ユニットおよび照明制御電子機器も、照明光源を含むアイウェアまたはヘッドウェアデバイス上へ取り付けられ得る。その結果、照明光源およびカメラ制御の直接オン/オフおよび/または強度制御が可能となり、外部制御デバイス、通信プロトコルおよび/または配線延長が不要となる。
本出願のシステムおよび方法は、広範囲の条件(例えば、1)頭部、2)カメラおよび照明光源を含むアイウェアまたはヘッドウェアならびに/あるいは3)デバイス装着者の眼の有意な動きがある場合)下において、高精度の視線検出を維持することができる。
視線検出とは、監視者によって視認されている位置および/または物体を連続的に特定できる能力である。視線検出は、3次元世界内において特定された基準位置に相対する眼検出および頭部検出の組み合わせから計算することができる。本出願のシステムおよび方法において、アイウェアまたはヘッドウェア上に取り付けられた複数の照明光源および/または複数のカメラを用いることにより、アイウェアまたはヘッドウェア上に取り付けられた照明光源から発生する閃光の位置に相対する瞳孔および眼の他の構造の位置を高精度に検出することができる。閃光および関連付けられた照明光源は監視者の直接的視線内にあり得るが、視線検出プロセスを行うことが可能な本明細書中に記載される方法は、デバイス装着者に気づかれることはほとんど無い。
より詳細には、本発明は、デバイス装着者の眼表面上の閃光および解剖学的構造の位置を眼監視、制御および他の用途のために目立たない様態で特定するための装置、システム、および方法に関する。デバイスは、ロバストな眼検出のためのプラットフォームとして構成され得、頭部、鼻部および眼領域の生体構造が異なる広範囲の個人によって用いられ得る。複数の角度から視認される異なる角度および/または個々の閃光から投射される複数の閃光を用いて、眼表面に相対する照明源およびカメラの位置を推定することができる。本明細書中のシステムおよび方法は、照明光源および眼検出用カメラを含むアイウェアまたはヘッドウェアの位置を実質的に連続的に監視することができる。
視線検出デバイスの分解能および/または指向精度が増加した場合、多数の有利な結果が広範囲の用途(例えば、医療診断、広告、人的要因、コンピュータゲーム、安全、リハビリテーション工学、および/またはコンピュータカーソルの制御(すなわち、コンピュータマウス操作の代替または補強)において得られ得る。
よって、本明細書中の装置、システムおよび方法により、向上した(すなわち、高分解能かつロバストな)視線検出方法およびシステムを多様な用途のために得ることができる。
例示的実施形態において、アイウェアまたはヘッドウェアへ固定された複数の照明光源を用いることを含む方法が提供され、これにより、眼の周囲の実質的に全ての領域が完全に照明される。単一のまたは少数の照明光源の場合、照明を遮断し得る眼および解剖学的構造(例えば、まぶた、まつげ)の領域内の複数の曲線状表面に起因して、高精度の眼検出のための適切な照明を提供することができない。照明光源アレイを用いた眼の領域の照明の場合、眼表面全体における複数の基準閃光の生成および/または曲線状表面のより均等な照明が可能となるため、例えば、影および/または機械視覚技術の劣化の原因となり得る他の照明効果の発生が回避される。
同様に、アイウェアまたはヘッドウェアへ固定された複数のカメラを用いることにより、眼領域内の複雑なジオメトリの補償も可能になる。単一よりも多くのカメラから収集された画像を用いて、眼検出時においてカメラの視野を遮断し得る構造(例えば、まぶた、まつげ)を解消することができる。加えて、3次元世界内において動き回る物体(例えば、瞳孔、虹彩)から発生するジオメトリ歪みを2次元画像のみを収集するカメラによって画像化した場合、解釈が不明瞭になり得る。カメラが動きの近隣(すなわち、3センチメートル(3cm)以内)であり、これらの動きに小半径(すなわち、1.5センチメートル(1.5cm)未満)の周囲における眼球回転が含まれる場合、この問題は特に重要となる。これらの状態はどちらとも、目立たないカメラがアイウェアまたはヘッドウェア上に取り付けられた場合に存在し得る。アイウェアまたはヘッドウェア上に取り付けられた複数のカメラからの画像を用い、これらのカメラを異なる角度から眼へ方向付けることにより、複雑な3次元眼動きを実質的に連続に検出および/または再構築することができる。
一実施形態によれば、照明光源アレイ内の各照明光源により、眼の表面上に閃光を生成することができる。この閃光は、閃光から照明光源の位置を通じて通過するベクトルを生成するための開始位置として用いられ得る。アイウェアまたはヘッドウェア上の他の照明光源およびカメラに相対する照明光源の位置が既知である。アレイ内の各照明要素を用いて類似の計算を行うことにより、既知のベクトルのアレイを、眼表面上における既知の開始位置(すなわち、閃光)によって計算することができる。次に、眼表面から投射された瞳孔位置情報を用いた視線検出ベクトルをこれらの近隣の既知のベクトルに相対して表現することができ、これにより、視線検出精度が向上する。
別の実施形態によれば、複数の照明光源および/または複数のカメラを用いて、デバイスと、眼表面上の閃光との間の距離を計算することができる。これらの距離は、視線検出プロセスにおける別個の計算操作として計算してもよいし、あるいは、視線検出ベクトルの計算全体に測定を埋設してもよい。いずれの場合も、照明光源および眼検出用カメラの眼表面に相対する正確な位置は、特にアイウェアまたはヘッドウェア上の取り付けられた構造と関連付けられた短距離(すなわち、3センチメートル(3cm)未満)上において、視線検出精度に影響を与える。これらの距離測定を視線検出計算において実質的に連続して取り入れることにより、ユーザ間のこの変動性および長時間使用時におけるアイウェアまたはヘッドウェアの動きによる影響を無くすことができる。
別の実施形態によれば、照明光源は、デバイス装着者の環境内の物体の視認に通常用いられる方向に配置され得る。これは、典型的な眼鏡またはヘッドウェア内のレンズによって通常占有される領域内に照明光源を埋設することを含む。これらの照明光源は、デバイス装着者による通常の観測活動時において、瞳孔、角膜、および/または周囲領域の照射においてきわめて有効であり得る。加えて、レンズ内(または補正レンズ機能が不要である場合は単純な透明材料内)に埋設された照明光源から発生した閃光を用いて、視線検出ベクトルの近隣にある既知のベクトルを生成することができ、これにより、視線検出精度が向上する。
別の実施形態によれば、システムおよび方法が提供される。これらのシステムおよび方法において、デバイス装着者からは視認することのできない光を照明光源によって用いる。一般的に、電磁スペクトルの近赤外領域内の波長は、デバイス装着者からは視認できない。しかし、これらの照明光源から生成される照明および閃光全てを固体カメラによって検出することができる。固体カメラは、アイウェアまたはヘッドウェアへ固定される。ここでも、眼からは視認できない照明を用いることにより、アイウェアまたはヘッドウェアデバイスの目立たないという特質全体を支援することができる。
さらに別の実施形態によれば、アイウェアまたはヘッドウェアのレンズ領域内に配置された照明光源がデバイス装着者から本質的に視認することができないシステムおよび方法が提供される。これは、複数の戦略を用いて達成することができる。発光ダイオードおよび他の発光固体デバイスの本質的コンポーネントは、小型である。この原理を、LEDおよびOLEDSによって電力供給される表示デバイスにおいて利用することができる。これらの表示デバイスにおいて、0.2ミリメートル未満の画素サイズがラップトップコンピュータ内にある状態で市販されている。側部あたりの寸法が0.01ミリメートルであるLED源が、特殊用途用に利用可能となっている。よって、発光LEDを構成する半導体材料は、最大でも小型の外観にすることができる。さらに、眼の照射のために用いられる光は視認不能であり、例えば波長約800〜2500ナノメートルの近赤外範囲において視認不能である。そのため、デバイス装着者は、照明光源から出射される電磁放射を認識することができない。一方、特にCMOSカメラは、人間の眼からは視認不能な近赤外スペクトル中の電磁放射を検出することができる。また、CMOSカメラは、低出力および小型化が要求される用途において特に適している。
これらの要素に加えて、照明光源への電力供給に用いられる導電性経路は、本質的に透明に構成することができる。透明導電性膜は、デバイス(例えば、太陽電池およびスイッチャブルガラス(窓の構築に用いられるスマートガラスとしても公知)の製造においても公知である。透明導電性経路において用いられる一般的な材料として、インジウムスズ酸化物(ITO)がある。より廉価な代替物(例えば、アルミニウムドープ酸化亜鉛およびインジウムドープ酸化カドミウム)は、透明導電性経路に利用可能な材料のさらなる例を示す。
要旨として、照明光源をデバイス装着者にとってほとんど視認不能にすることができる理由として、1)照明光源は、人間の眼にとって視認不能な波長で光を生成することができる点、2)固体照明光源の寸法を、(光分解能上限に近い)小型にすることができる点、3)導電性経路を本質的に透明に構成することができる点、および/または、4)ほとんどの個人の焦点距離を実質的に下回る距離において、照明光源を眼(典型的な1組の眼鏡フレームから離隔方向においてほぼ2センチメートル(2cm)の距離で)眼に近接させることができる点。よって、これらの小型構造から反射され得る全ての光を焦点外のバックグラウンドとして認識することができ、デバイス装着者の妨害とならない。その結果、視界を実質的に妨害することがなくなり、アイウェアまたはヘッドウェアデバイスの目立たない特質全体を支援することができる。
さらに別の実施形態によれば、システムおよび方法において、アイウェアまたはヘッドウェアのレンズ領域から発生する照明を、各レンズ内に埋設された小型反射面から発生させることができる。レンズの縁部周囲に配置されかつ反射面において方向付けられた照明光源から、光が生成され得る。その後、これらの反射面は、この光を眼へ方向付け得る。この構成により、これらのデバイスへの給電のための照明デバイスおよび導電性経路の配置を監視者の視覚経路から無くすことができ、これにより、デバイスの目立たない特性が支援される。
さらに別の実施形態によれば、照明光源の強度を制御するシステムおよび方法が提供される。この照明光源は、眼表面上の照明全体および閃光基準点を生成する。ビデオ画像取得のタイミングに相対する照明タイミングを制御することにより、基準閃光の照明があっても無くても画像を取得することが可能になる。照明がオンにされたときの画像を照明がオフにされたときの画像から減算することにより、眼検出用カメラ(単数または複数)からの画像内からの閃光を分離するための(いくつかの例示的な)戦略のうちの1つが得られる。さらに、複数の照明光源システム内において単一の照明光源がオンにされた場合、(すなわち、複数の閃光を含む画像と比較して)閃光の正確な中心位置を容易に決定することができ、特定の閃光位置を特定の照明光源と関連付けることができる。
任意選択的に、処理ユニットは、デバイス装着者の環境において眼から実質的に離隔方向に方向付けられた1つ以上のシーンカメラと、眼の領域の画像を受信して例えば閃光位置および瞳孔縁部を監視するカメラとへ接続され得る。処理ユニットおよびシーン検出処理ユニットは、1つ以上の別個のプロセッサであってもよいし、あるいは、単一のプロセッサでありかつ/または照明コントローラを含んでもよい。
単一の眼に方向付けられた複数の眼検出用カメラを用いることにより、眼領域内の基準位置(例えば、閃光、瞳孔縁部、まぶた)の複数のまたは冗長な測定を生成することができる。この状況が発生した場合、処理ユニット(単数または複数)は、検出精度に影響し得る他の要素を考慮に入れることができる。例えば、基準位置の画像が1つのカメラの視野中心に最も近い場合、眼検出および当該カメラからの測定に基づいたその後の視線検出計算が、特定された位置がカメラ画像の縁部により近接した他のカメラからの測定に基づいた計算よりも高精度であると推定することができる。あるいは、基準位置の測定が全てのカメラ画像の縁部の近隣において行われる場合、基準位置の最終的決定は、異なるカメラからの画像を用いた位置の平均として計算することができる。このアプローチは、1つのカメラからの画像縁部近隣の空間歪みが隣接カメラによって測定されたものと反対になり得る場合において、隣接するカメラからの視野重複を考慮に入れることができる。この平均化プロセスにより、このような歪みをキャンセルすることができる。代替的にまたは追加的に、既知の歪み(例えば、(ほとんどのレンズにおいて何らかのレベルで発生する)球面収差またはカメラ画像の特定の領域中の眼球曲率がある場合、補正空間マッピング関数を適用しかつ/または測定に重み付けを行った後に平均化を行うことができる。このようなアプローチまたはアプローチの組み合わせは、当業者に理解される。
別の実施形態において、照明コントローラは、光源に対して電流および電圧のうち少なくとも1つのの振幅変調を行って、眼検出用カメラ画像の各領域内において所望の輝度レベルが得られるようにするように、構成され得る。これは、一般的に「振幅変調」と呼ばれる。別の実施形態において、電圧または電流の制御の持続時間または「ドウェル時間」を変更して、光強度を制御することができる。これは、一般的に「パルス幅変調」と呼ばれる。任意選択的に、双方のスキームを同時に行うことも可能である。
これらの例のいずれにおいても、照明、基準位置検出、眼検出および視線検出は、実質的に連続してまたは間欠的に行うことができる。例えば、眼検出用カメラが動作不能となった場合、照明光源を不活性化することができる。これは、カメラ画像取得間の時間を含み得る。電力節約のため、不使用時にプロセッサ、カメラおよび/または照明を不活性化してもよい。安全向上のため、照明光源および/または他の電子機器の出力を低減するかまたはオフにしてもよい。
例示的実施形態において、システムは、アイウェアまたはヘッドウェアフレームと、基準位置を特定するように監視者から実質的に離隔方向に方向付けられたシーンカメラと、シーンカメラへ接続されたシーン処理ユニットと、眼に方向付けられた少なくとも1つの眼検出用カメラと、眼に方向付けられた1つ以上の照明光源と、(シーン処理ユニットと同じかまたは異なる)処理ユニットであって、眼検出用カメラへ接続された処理ユニットとを含み得る。機械視覚技術を眼検出処理ユニット内にて用いて、閃光位置および眼基準位置を決定することができる。その後、閃光位置および関連照明光源によって生成されたベクトルと、眼検出処理ユニット内において特定された眼基準位置とを視線検出計算において用いることができる。
別の実施形態によれば、視線検出位置を決定するためのシステムが提供される。このシステムは、装着者の頭部上に装着されるように構成されたデバイスと、デバイスを着用している装着者の眼の視野内においてデバイス上に取り付けられかつ眼を照明するように配置された1つ以上の照明光源と、眼検出用カメラと、プロセッサとを含む。1つ以上の照明光源は、視野内において装着者の視覚との干渉を最小化するように構成される。眼検出用カメラは、デバイス上に取り付けられ、眼をビューするように配置される。プロセッサは、眼検出用カメラへ接続されて、眼検出用カメラによって取得された眼画像を分析して、1つ以上の照明光源から眼から反射された1つ以上の閃光を特定し、1つ以上の閃光に相対する眼の特徴の位置を特定して、装着者が視認している位置を決定する。
さらに別の実施形態によれば、視線検出位置を決定するシステムが提供される。このシステムは、装着者の頭部上に装着されるように構成されたデバイスと、装着者の眼を照射するようにデバイス上に取り付けられた1つ以上の照明光源と、デバイス上に取り付けられかつ眼をビューするように配置された複数の眼検出用カメラとを含む。プロセッサが眼検出用カメラへと接続されて、眼検出用カメラによって取得された眼の画像を分析して、1つ以上の照明光源から眼から反射された1つ以上の閃光を特定し、1つ以上の閃光に相対する眼の特徴の位置を特定して、装着者によって視認されている位置を決定する。眼検出用カメラは、相互に十分に間隔を空けて配置され、これにより、眼が通常の移動範囲全体内において移動すると、眼検出用カメラの少なくとも1つからの眼検出用カメラ画像内に眼検出用カメラ画像が出現する。
さらに別の実施形態によれば、視線検出位置を決定するシステムが提供される。このシステムは、装着者の頭部上に装着されるように構成されたデバイスと、シーンカメラと、複数の照明光源と、複数の眼検出用カメラとを含む。デバイスは、デバイス装着時において装着者の眼の前方に配置されたレンズを含む。シーンカメラは、デバイス上に取り付けられ、装着者の環境内の視認基準位置に合わせて配置される。複数の照明光源は、レンズ上に取り付けられて、装着者の眼を照射する。複数の眼検出用カメラは、デバイス上に取り付けられ、眼をビューするように配置される。プロセッサは、シーンカメラおよび眼検出用カメラへと接続されて、これらのカメラからの画像を分析する。この分析において、シーンカメラ画像からのシーン基準位置と、眼検出用カメラ画像からの眼検出位置とを用いて、装着者によって視認されている位置を決定する。
さらに別の実施形態によれば、視線検出方法が提供される。この方法は、装着者の頭部上にデバイスを配置することを含む。デバイスは、1つ以上の照明光源と、装着者の眼に向かって方向付けられた複数の眼検出用カメラとを含む。眼検出用カメラは、デバイス上の異なる位置に配置されて、眼の視野の重複を提供する。この方法は、眼検出用カメラによって取得された眼の画像を分析して、1つ以上の照明光源から眼から反射された1つ以上の閃光を特定し、1つ以上の閃光に相対する眼の特徴の位置を特定して、装着者によって視認されている位置を決定することを含む。
さらに別の実施形態によれば、視線検出方法が提供される。この方法は、装着者の頭部上にデバイスを配置することを含む。デバイスは、複数の照明光源と、装着者の眼に向かって方向付けられた眼検出用カメラとを含む。照明光源は、装着者の視野内に配置され、視野内における装着者の視覚との干渉を最小化するように構成される。この方法は、眼検出用カメラによって取得された眼の画像を分析して、照明光源のうち1つ以上から反射された1つ以上の閃光を特定し、1つ以上の閃光に相対する眼の特徴の位置を特定して、装着者によって視認されている位置を決定することを含む。
本発明の他の態様および特徴は、以下の記載を添付図面とともに参照すれば明らかとなる。
図面は、本発明の例示的実施形態を示す。
システムの例示的実施形態の切り取り図である。システムは、一対の眼鏡を含む。一対の眼鏡は、眼鏡フレーム上に取り付けられた複数のカメラおよび複数の照明光源を含む。 図1のシステムのクローズアップ図であり、照明光源は、フレーム上とレンズ領域内に取り付けられる。レンズ領域内において、デバイス装着者は、環境を視認する。 アイウェアシステムの別の実施形態の正面図である。アイウェアシステムは、眼鏡フレーム上に取り付けられた複数のカメラと、眼鏡フレームのレンズ領域内に取り付けられた複数の照明光源とを含む。図3はまた、眼鏡のレンズ領域内に取り付けられた照明光源への給電に用いられる配線構成の異なる例を示す。 例示的システムのレンズ領域のクローズアップ図であり、照明がリモートに生成され、レンズ内の小型反射面からの反射に起因して眼の照明が発生する。 計算の例示的ジオメトリコンポーネントを示す模式図であり、眼球表面とカメラとの間の距離を三角測量を用いて実質的に連続的に計算することができる。 複数のカメラ(図6A)および/または複数の照明光源(図6B)を用いて測定される眼球表面への距離の計算において用いられる例示的コンポーネントの模式図である。 複数のカメラ(図6A)および/または複数の照明光源(図6B)を用いて測定される眼球表面への距離の計算において用いられる例示的コンポーネントの模式図である。 眼球の旋回に起因して単一のカメラのビューが不明瞭になった結果、高精度の視線検出測定の能力が限定される一方、複数のカメラを用いれば、眼の動きの範囲全体において高精度の眼検出測定が可能となる様子を示す。 眼球の旋回に起因して単一のカメラのビューが不明瞭になった結果、高精度の視線検出測定の能力が限定される一方、複数のカメラを用いれば、眼の動きの範囲全体において高精度の眼検出測定が可能となる様子を示す。
図面を参照して、図1は、システム10の例示的実施形態を示す。システム10は、眼鏡フレーム11を3つの眼検出用カメラ12a、12bおよび12cと共に含む。眼検出用カメラ12a、12bおよび12cは、デバイス装着者の左眼(図示せず)へ方向付けられる。デバイス装着者の左眼へは、3つの照明光源13a、13bおよび13cも方向付けられる。これらの照明光源13a、13bおよび13cは、眼鏡フレーム11上に取り付けられる。眼検出用カメラ12a、12bおよび12cによって収集された画像は、処理ユニット14へ送られる。この例示的実施形態において、処理ユニットは、フレーム11の左ステム15内において取り付けられ、カメラ12a、12bおよび12cへ接続される。任意選択的に、眼鏡フレーム11内において重量をより均等に分配するために、電源(例えば、電池、図示せず)および/または他の電子機器を処理ユニット14(図示せず)を含む側と反対側の眼鏡フレーム11のステム内に配置することができる。
処理ユニット14は、カメラ(単数または複数)12a、12bおよび12cから画像信号を保存するメモリと、画像信号を編集および/または処理するためのデジタルフィルタなども含み得る。任意選択的に、眼鏡フレーム11および/または処理ユニット14は、データ送信、命令の受信などのために、1つ以上のトランシーバ、送信器および/または受信器(図示せず)を含み得る。追加的にまたは代替的に、処理は、本明細書中の他の場所に記載された参照文献中に開示された実施形態と同様に、フレーム11および/または処理ユニット14からリモートであるコンポーネントを含み得る。例えば、システム10は、処理ユニット14および/またはフレーム11からの1つ以上のリモート位置において(例えば、同じ室内、近隣の監視ステーション、またはより離隔位置において)、1つ以上の送信器、受信器、プロセッサおよび/またはディスプレイ(図示せず)を含み得る。このようなディスプレイは、眼検出用カメラ12a、12bおよび12cおよび/またはフレーム11上の1つ以上のシーンカメラ(図示せず)によって生成されたビューを含み得る。
眼検出用カメラ12a、12bおよび12cは、画像化されている眼領域(単数または複数)内の瞳孔、まぶた、虹彩、閃光、および/または他の基準点の位置を検出するように、頭部に向かって方向付けられ得る。例示的実施形態において、眼検出用カメラ12a、12bおよび12cは、電荷結合素子(CCD)、相補型金属酸化膜半導体(CMOS)、あるいは、活性化領域(例えば、画像および/または画像を表すビデオ信号をキャプチャするための矩形または他の画素アレイを含むもの)を含む他の検出器を含み得る。カメラ12a、12bおよび12cそれぞれの活性化領域は、任意の所望の形状を持ち得る(例えば、四角形または矩形、円形)。1つ以上のカメラの活性化領域の表面も所望であれば曲線状にすることができ、これにより、例えば画像取得時において画像化されている眼および周囲構造の近隣3次元曲率を補償することができる。
加えて、カメラ12a、12bおよび12cは、所望であれば、1つ以上のフィルタ、レンズなど(例えば、図5に示すようなフィルタ57およびレンズ56)を含み得、これにより、例えば、望ましくない強度および/または波長の光、活性化領域上の焦点画像などをフィルタリングすることができる。任意選択的に、レンズは、視野領域を伸縮させるように構成することもでき、これにより、眼および周囲構造の近隣の3次元曲率を少なくとも何らかのレベルまで補償することができる。
複数のカメラをフレーム11上の異なる位置に配置することにより、全方向における眼の3次元構造の動きを実質的に連続的に監視することが促進される。例えば、図1に示す実施形態において、カメラ12bおよび12cは、特に眼の動きを良好に検出するように配置される。なぜならば、眼の動きは、水平軸(すなわち、通常の直立頭部位置を仮定した軸)において発生するからである。同様に、眼の上方動き(例えば、「正面を向いた」方向に相対する動き)時において、高精度の眼検出データをカメラ12aを用いて収集することができる。一方、カメラ12bおよび12cは、下方を向いた場合に眼表面上の基準位置を監視するように、良好に配置される。
図1に示す実施形態において、単一の処理ユニット14は、システム10内の多様なカメラから画像を取得するために用いられる。処理および/または他の制御電子機器は、単一のデバイスまたは複数のデバイスを含み得る(例えば、マイクロコントローラ、単一のまたはマルチコア中央処理装置(CPU)、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC))。
電子処理および制御要素を収容するための他の位置を挙げると、眼鏡フレーム11の鼻部領域16の上方、フレーム11の右ステム(図示せず)内、アイウェアまたはヘッドウェアと電気的に接続されかつ/または無線通信する外部コンパートメント内(例えば、デバイス装着者のベルトまたはヘッドバンドへ締結されたもの)、またはシステム10のフレーム内の他の場所がある。あるいは、電子的処理および制御要素をシステム10内の異なる位置に分配することにより、例えば重量をさらに均等に分散させ、放熱を行い、ケーブル長さを短縮し、および/または電力消費を低減することができる。
図1に示す実施形態において、3つの照明光源13a、13bおよび13cは、アイウェアまたはヘッドウェアの固体フレームへ固定される。例示的実施形態において、照明光源13a、13bおよび13cは、発光ダイオード(LED)、有機LED(OLED)、レーザLED、または電気エネルギーを光子へ変換する他のデバイスを含み得る。各照明光源13a、13bおよび13cを用いて眼を照明して、カメラ12a、12bおよび12cのうちいずれかを用いて画像を取得しかつ/または測定目的のために基準閃光を生成して、視線検出精度を向上させることができる。例示的実施形態において、各光源13a、13bおよび13cは、比較的狭いかまたは幅広の帯域幅の光(例えば、約640から700ナノメートルの1つ以上の波長における赤外光)を出射するように、構成され得る。任意選択的に、1つ以上の光源13a、13bおよび13cは、レンズ、フィルタ、拡散器、反射器および/または他の特徴(図示せず)(例えば、眼へ投射される光の均等性を促進および/または制御するためのもの)を含み得る。照明光源は、個々に活性化(すなわち、給電)してもよいし、同時に活性化してもよいし、あるいは任意の組み合わせで活性化してもよい。
アイウェアまたはヘッドウェアフレーム11内に埋設されたケーブル(単数または複数)は、個々のケーブルまたは複数組のワイヤを含み得る(例えば、カメラ12a、12bおよび12c、電池、光源13a、13bおよび13c、および/またはフレーム11上の他のコンポーネントおよび/または処理ユニット(単数または複数)14に接続されたいわゆる「フレックスストリップ」)。例えば、ケーブル(単数または複数)は、アイウェアまたはヘッドウェアデバイス内のヒンジ領域17を横断するように十分な可撓性を有し、これにより、例えばヒンジ17が移動範囲の限界を超えて撓んだ場合も、破壊が回避される。
図2は、図1に示すものと同様のシステム10’の眼鏡フレーム11のレンズ領域のクローズアップ図である。この場合、さらなる照明光源20a、20b、20cおよび20dが、通常のレンズ21によって占有される眼鏡フレーム11の領域内に配置される。デバイス装着者が視覚化支援のために光学補正を必要とする場合、適切なレンズを構築し、視力検査法分野において周知のプロセスを用いて挿入することができる。デバイス装着者に視覚矯正が不要である場合、レンズ領域は、視線照明光源20a、20b、20cおよび20dを支持するための平坦なガラスピースまたは光学的に透明なプラスチックによって占有されるだけである。よって、本明細書中において用いられる「レンズ」という用語は、補正レンズ(すなわち、光を屈折させるかまたは装着者の視覚をレンズを通じて矯正するもの)を指し得るか、あるいは、実質的に平坦であるか、曲線状であるかまたは他の実質的に透明な材料のパネルを指す。このパネルは、光を実質的に屈折させないかまたはレンズを通じて見ているフレーム11の装着者の視界を実質的に変更しない。
さらなるまたは代替的な照明光源20a、20b、20cおよび20dが、眼鏡フレーム11のレンズ領域内に取り付けられ得る。これらの照明光源20a、20b、20cおよび20dを用いて、眼鏡フレーム11上に取り付けられた源13a、13bおよび13cから提供される眼照明を補強または代替することができる。デバイス装着者の視線内に取り付けられた源20a、20b、20cおよび20dは一般的には、通常の視覚活動時において眼の重要領域(すなわち、例えば図7Aおよび図7Bに示すような角膜内および角膜周囲の重要領域)を実質的により均等に照明することができる。加えて、これらの同じ照明光源20a、20b、20cおよび20dは、関連付けられたポインティングベクトルにより、閃光を生成することができる。これらのポインティングベクトルは、視覚化時において(すなわち、眼鏡フレーム11上に軸外に取り付けられた源13a、13bおよび13cと比較して)通常の眼の視線にずっと近接する(例えば、図7Aおよび図7Bを参照)。
凝視ベクトルが以下のような閃光に相対して計算される場合、凝視ベクトルをより高精度に計算することができる:1)角膜内の瞳孔上またはその近隣に配置された閃光、および/または2)監視者の視線または視軸とほぼ同じ方向を向く照明光源によって生成された閃光。よって、レンズ内の照明光源20a、20b、20cおよび20dによって生成された眼表面上の閃光を用いて計算された凝視ベクトルは一般的には、(例えばフレーム11上のいずれかの位置に配置された源(例えば、図1および図2に示す源13a、13bおよび13c)よりも)より高レベルの指向精度を有する。他で述べるように、照明光源20a、20b、20cおよび20dは、デバイス装着者の通常の視覚と干渉しないように構築され得る。
照明光源20a、20b、20cおよび20dのうち1つ以上へ給電するために、少なくとも2つの導電性経路が設けられ得る。図2に示す1つの配線パターンにより、全ての照明光源20a、20b、20cおよび20dの個々の制御またはグループ制御が可能となる。図示のように、導電性経路は、垂直導体21aおよび21bならびに水平導体22aおよび22bを含み得る。水平導電性経路22aまたは22bに相対する垂直導電性経路21aまたは21bへ電圧を付加することにより、電位差(すなわち、電圧)が2つの活性化された導電性経路の交差部の位置において利用可能となる。この電位差を用いて、個々の照明光源を給電することができる。所望の照明光源と関連付けられていない他の全ての導電性経路は、高インピーダンス(すなわち非導電性)モードとすることができ、これにより、さらなる照明光源への給電または不要な電流の引き出しが回避される。垂直導電性経路21aおよび21bならびに水平導電性経路22aおよび22bは、交差点において相互に絶縁することができる(照明光源要素そのものは除く)。
図2に示す実施形態をさらに参照して、全ての照明要素を活性化させる必要がある場合、全ての垂直導電性経路21aおよび21bならびに水平導電性経路22aおよび22bに電位差を付加することができる。同様に、垂直導電性経路21aまたは21bと、全ての水平経路22aおよび22bとの間に電位差を付加することにより、列状に配置された照明光源を活性化させることができる。あるいは、水平導電性経路22aまたは22bと全ての垂直経路21aおよび21bとの間に電位差を付加することにより、行状に配置された照明光源を活性化させることができる。他でより詳細に述べるように、肉薄にしかつ/または透明材料(例えばITO)によって構成することにより、導電性経路を実質的に透明しかつ/または目立たなくすることができる。
図3は、視線検出システム10’’の実施形態を示す。視線検出システム10’’は、前方(すなわち、デバイス装着者を前方からみた時に)、アイウェアプラットフォーム11内に埋設された1つ以上のコンポーネントを含む。この場合、アイウェアプラットフォーム11は、右眼鏡フレーム30aに取り付けられたコンポーネントを用いて右眼そして左眼鏡フレーム30bに取り付けられたコンポーネントを用いて左眼をそれぞれ検出できるように、装備される。図3のシステム10’’の視点から、右眼31aおよび31bならびに左眼32aおよび32bの検出に用いられるカメラのうちいくつかの後側をみることができる。他の場所でより詳細に述べるように、処理および制御電子機器および/または電源を、アイウェア11の右ステム33aおよび左ステム33bのうち片方または双方に任意選択的に埋設することができる。
また、図3中、(図2と比較した場合の)2つの別の導電性経路パターンが図示される。これらの導電性経路パターンをアイウェア11上に設けて、デバイス装着者の視野全体内に配置された照明光源を給電する。個々の照明光源の制御が不要である場合、右眼鏡フレーム30a内に示す源のパターンを用いることができる。本例において、電位差(すなわち、電圧)を導電性経路35aおよび35b上に付加することにより、照明光源34a、34bおよび34cの水平行を同時に活性化させることができる。この並列接続されたデバイスを導電性経路へ用いて、任意の数の照明光源(図3中では3つの源34a、34bおよび34cを図示)を各行内に設けることができる。加えて、任意の数の行を設けることができる。導電性経路の配置構成としては、例えば、図示のような水平行、垂直列、ラジアルパターン(図示せず)などがある。(図2に示すパターンと比べた場合の)これらのパターンのさらなる利点として、交差部が無いため、交差点において導電性経路を絶縁する必要が無い点がある。その結果、透明ガラスまたは光学的に透明なプラスチックレンズ表面上への導電性経路の配置を促進することができる。
左眼鏡フレーム30bは、照明光源の活性化に用いることが可能な導電性経路のさらに別のパターンを示す。この場合、導電性経路37aおよび37b上に付加された電位差により、照明光源36を個々に制御することができる。少なくとも1つの別個の導電性経路が、各照明光源において方向付けられる。所望であれば、導電性経路37bによって示すような各照明光源を給電する経路のうち1つをいくつかの照明光源間で共有することができる。電子分野において、これは、基準または接地経路と呼ばれる場合が多い。左眼鏡フレーム30b内に示す導電性経路パターンの利点として、構築時において経路の電気的絶縁状態を保持するための絶縁層を必要とする導電性経路任意の交差部の必要無しに、個々の照明光源を制御できる点がある。
図3に示すシステム10’’はまた、配置例と、外方を向くシーンカメラ38の使用とを示す。シーンカメラ38は、デバイス装着者の環境の画像を収集する(シーンカメラ38は、本明細書中の他の実施形態のうち任意の実施形態において設けることも可能である)。シーンカメラ画像の処理および用途に関連する方法(例えば、デバイス装着者の環境内の基準位置の検出)について、本明細書中のいずれかの場所において特定された参考文献中に開示される実施形態中に開示がある。シーンカメラ画像を用いてデバイス装着者の頭部内の眼および他の構造の動きの応答時間および/または反応時間を測定する方法についても、本明細書中のいずれかの箇所に記載された参考文献中に開示がある。
次に図5〜図7に関連してより詳細に説明するように、デバイス装着者の鼻部上に配置されたアイウェアまたはヘッドウェアの位置は、視線検出精度を確保するための有用な変数である。図5〜図7は、デバイスコンポーネントと眼表面との間の距離を測定する方法を示す。個人の(眼に対する)鼻部のサイズおよび/または位置の変動性のうち一部を軽減するために、調節可能な鼻ピース39を図3に示すようにアイウェアまたはヘッドウェア11のフレーム内に取り入れることができる。交換可能な鼻ピースインサート(図示せず)の利用と、個々の鼻ピース39内の支持構造および/またはパディングの可撓化または調節とにより、調節可能性を得ることができる。加えて、例えば多様な標準的サイズの提供および/または特定の個人に合わせたカスタムサイズの提供により、異なるサイズのアイウェアまたはヘッドウェアフレームを個人に合わせることができる。
図4に示す実施形態は、照明の複数の点源をアイウェアまたはヘッドウェア(図示せず)のレンズ40内から目立たない様態で生成するための別の方法を示す。この場合、照明は、レンズの中心領域からリモートに生成される。例えば、1つ以上の光源41aおよび41b(例えば、LED)は、電磁放射をレンズ40の1つ以上の側部に沿ってレンズ(すなわち、一般的にはガラスまたは透明プラスチック)を含む材料に結合させ得る。電磁放射は、レンズ媒体を通じて伝搬した後、レンズ40内の所望の位置に設けられた小型反射面42a、42b、42cおよび42dにより、眼に向かって反射する(4つの小型反射面が相互に実質的に均等間隔を空けて配置されている様子が図示されているが、より少数またはより多数の反射面を所望に設けてよい)。図4に示す図において、反射面42のサイズは、反射面42の構造的特徴の視覚化のために、レンズの全体的サイズに相対して拡大して図示されている。電磁放射リモート源と、赤外光の反射によってレンズ領域内の導電性経路を完全に無くすための小型の埋設反射面42とを用いることにより、デバイス装着者にとって実質的に透明な視線照明システムを得ることができる。
さらに図4を参照して、反射面は、フォトリソグラフィーおよび半導体作製の分野において周知の複数の技術を用いて構築することができる。このような方法においては、エッチングまたはマイクロマシニングを用いて、レンズを伝搬する電磁放射が眼43へ方向付けられるように表面を角度付ける。エッチングまたはマイクロマシニングプロセスは、レンズ40の後面(すなわち、眼に近い面)または前面(すなわち、眼から遠い面)から方向付けられ得る。その後、例えば反射面42a、42b、42cおよび42d上において周知の蒸着、スパッタリングおよび/または化学沈殿技術を用いて、反射材料を堆積させることができる。最も一般的には、金属(例えば、銀、アルミニウムなど)を用いて、反射する鏡面を生成することができる。
任意選択的に、エッチングまたはマイクロマシニングプロセスによって除去された体積をレンズ材料の屈折率と整合する材料で再充填することにより、さらなる不要な光の屈折または反射が眼43へ方向付けられる事態および/または小型凹部42a、42b、42cおよび42d内に埃が蓄積する事態を回避することができる。
いくつかの実施形態において、反射面を金属でコーティングすることは不要である。反射は、光の屈折率が異なる2つの材料間に界面が存在する限り発生し得る。そのため、レンズを構成する材料と異なる屈折率を有する材料を意図的に選択して、エッチングまたはマイクロマシニングによって除去された体積をこの材料で再充填することができる。この同じ原理を用いて、(ガラスと空気の屈折率が異なる)プリズム内の光および光ファイバー伝送を反射することができる。コーティングの屈折率および/または厚さを適切に選択することにより、レンズ構造内の表面を部分的または全体的に反射させることができる。
さらに図4を参照して、反射面42からの光を用いて、瞳孔44および眼の他の構造を検出目的のために照明することおよび/または眼表面上に基準閃光45を生成することを行うことができる。瞳孔44および閃光45を1つ以上の眼検出用カメラ46(1つを図示)によって検出できる場合、いずれかの箇所により詳述するように、小型レンズ47により、カメラ(単数または複数)46の感知アレイ上の画像が集束される。任意選択的に、光学ノッチフィルタ48を用いて、ほとんどの環境光源を排除しつつ、光源41から発生して眼表面から反射された光を実質的に分離することもできる。レンズ内に直接埋設された照明光源(例えば、図3および図4に示すようなもの)を用いるのと同様に、デバイス装着者の視線内の反射面42a、42b、42cおよび42dにより、角膜上に直接閃光を生成することができ、これにより、視線検出ベクトルの計算時におけるジオメトリ考慮事項が簡略化される。視線検出ベクトルはまた、閃光および反射面42を通過する線として計算される基準ベクトル43にも近いため、視線検出精度が向上する。
図5は、1つ以上の眼検出用カメラ(およびよってアイウェアまたはヘッドウェアデバイス(図示せず))の眼表面に相対する位置を推測するための、「範囲ファインダー」のコンポーネントまたは三角測量方法の一部を示す。この測定は、頭部の生体構造の顔変化(特に、鼻部のブリッジ上に配置されたアイウェアの使用時における鼻部のサイズの変化)と、(使用時における頭部の滑脱または高速加速に起因する)アイウェアまたはヘッドウェアの任意の動的動きがあるか否かとを考慮に入れることにより、視線検出計算の精度に貢献し得る。
図5において、(本明細書中のいずれかの箇所において記載の照明光源および/または反射面のうちいずれかであり得る)照明光源50は、眼表面上に閃光51を生成する。照明光源50のビームは、眼の中心領域内における照明(特に閃光生成)を最大化するように、全ての3つの次元(角度54aとして図示)において配置および方向付けられ得る。閃光が角膜内にある(図7を参照)かあるいは瞳孔53またはその近隣にある場合、高精度の視線検出を最も容易に計算することができる。しかし、眼検出用カメラ55によって収集された画像内において、閃光51が、眼52の強膜または白色部および/または瞳孔周囲の虹彩(明確さのため、図5中では図示せず)上において発生し得る。
さらに図5を参照して、眼の中心領域の画像をレンズ56によってカメラ55上において集束させることができる。ほとんどの用途において、ノッチ(すなわち、バンドパス)光学フィルタ57を(赤外)光経路内に設けることにより、照明光源50から生成された波長の光を透過させ、眼表面から反射させてカメラ55へ到達させることが可能になる。一般的に周囲環境から発生する他の全ての波長の光は、閃光51の画像と干渉得、かつ/または、瞳孔53からの反射はフィルタによって吸収され得、カメラ55に到達しない。
閃光51は、カメラ55からの強い輝点中において、(いくつかのカメラ画素を飽和させる場合が多い)画像内の強い輝点として出現する。閃光の中心位置を決定することは一般的には、比較的容易な画像処理ステップとしてみなされる。例えば、選択された(すなわち、閾)強度値を超える全画素の平均的な水平位置および垂直位置を計算することができる。この方法によれば、各次元における明るい閃光の位置のサブ画素空間分解能を得ることができる。アイウェアまたはヘッドウェアに取り付けられた各カメラ55の既知の方向が得られると、視野中心に相対する(すなわち、カメラ画像中心に相対する)各閃光の測定位置は、閃光に対する角度54cおよびカメラ55の視野中心に比例する。
照明光源50は、眼の角膜領域を標的とする(図7を参照)。眼の表面全体は複雑な形態をしているものの、角膜形状を、平滑な表面を有する球体の一部として近似することができる。照明光源の反射54bの角度をモデル化する方法は複数存在し得(最も簡単な方法としては、鏡面反射を仮定して)、入射角度が反射角度と等しいと仮定する。光散乱の拡散をより考慮に入れるために、ランベルトの余弦法則を方程式にすることもできる。
カメラ(単数または複数)55および照明光源(単数または複数)50双方をアイウェアまたはヘッドウェアに実質的にリジッド固定することができる。よって、全カメラ(単数または複数)55と照明光源(単数または複数)50との間の(全三次元における)3次元方向および分離距離58を知ることができる。2つの角度および分離距離58が分かることにより、光源50、閃光51、およびカメラ55および関連付けられた角度を分離する全距離を周知の三角測量技術を用いて計算することが可能になる。例えば範囲ファインダー器具内、測量方法および空間内の物体への距離の推定時において、類似のアプローチが用いられる。
図6Aおよび図6Bに示す実施形態は、複数のカメラ(図6A)を用いて異なる位置および/または複数の照明光源からの閃光を画像化して複数の閃光(図6B)を生成して、距離および/または角度測定の精度をさらに向上させる方法を示す。図5に関連する記載に述べたように、眼表面の3次元曲率の微小変動および眼表面からの光の反射対拡散反射の結果、何らかのレベルの不確実性が発生する。2つ以上の閃光を測定することにより、測定の不確実性を視線検出方程式においてキャンセルすることができ、その結果、全3次元における位置測定精度が向上する。
図6Aにおいて、単一の照明光源50により、単一の閃光51が眼表面上に生成される。上記したように、ほとんどの有用な閃光は、角膜の領域内の瞳孔53上またはその近隣上にある(図7A中の80を参照)。閃光51の位置は、2つ以上のカメラ55aおよび55bからの画像内において決定される。カメラは、全3次元における既知の距離だけ分離される(図6Aに示すカメラ55aおよび55b間の分離距離の場合は60)。カメラおよび光源によって規定される面に相対する視認角度も既知である。複数のカメラ55aおよび55bからの画像内の閃光51の位置の差を測定することにより、カメラ55aおよび55bと眼表面上の閃光51との間の距離を三角測量を用いて推定することができる。
図6Bに示す方法において、類似のアプローチを用いることができる(この場合、複数の照明光源50a、50bおよび50cにより眼表面上に複数の閃光51a、51bおよび51cを生成する点を除く)。複数の照明光源50a、50bおよび50cが活性化されるのと同時に、閃光を生成することができる。この技術に起因して、強度値および形状が類似する複数の閃光の位置を単一の画像から抽出する必要のある画像処理アルゴリズムがより複雑になる。
単一の閃光50aまたは50bまたは50cのみの位置を一度に決定する必要のある場合、各照明光源を選択されたタイミングでオンにすることにより、一連の画像を生成することも可能である。その結果、画像処理方法を信頼性を以てより容易に実行して、個々の閃光(およびその対応する照明光源)の画像内における位置を決定することができる。
照明光源の実際の分離によって正規化された閃光の測定位置の分離は、カメラと眼表面との間の距離に反比例する。例えば、閃光51aおよび51b間の分離62aを照明光源50aおよび50b間の既知の分離61aによって除算した値は、カメラと眼表面との間の距離に反比例する。同様に、閃光51bおよび51c間において測定された分離62bを照明光源50bおよび50c間の既知の分離61bによって除算した値は、カメラと眼表面との間の距離に反比例する。よって、当業者であれば理解するように、照明光源50aおよび50b、眼ならびにカメラ55間の関係を特定するアルゴリズムを容易に生成して、カメラ55によって取得される画像中の眼の高精度の視線検出を促進することができる。
図7Aおよび図7Bに示す実施形態は、複数の角度から眼表面へ方向付けられた複数のカメラにより、視線検出精度と、眼の通常の動き時における眼内の基準構造を実質的に連続的に検出する能力をどれほど改善し得るかということを示す。眼の動きは、眼球70の中心旋回点71の周囲における回転として近似することができる。中心旋回点71は、眼の光軸72に沿って存在する。光軸は一般的には、眼のレンズ73の中心を通過し、中心においてレンズ表面に対して実質的に垂直である。
レンズは、虹彩74によって包囲される。虹彩74は、独自の微細な解剖学的構造を各眼(個人の左眼および右眼を含む)内に有し、レンズ73の前方の開口サイズを制御し、よって、レンズ73を通過する光量を制御する。虹彩74およびレンズ73の外部には、半球状の角膜80がある。平滑な角膜表面に起因し、また視線または視軸77は角膜80を通過する必要があるため、角膜表面は、高精度の視線検出測定のために基準閃光を生成するための主要ターゲットである(図4〜図6を参照)。
ほとんどの照明条件下において、光がレンズに入る領域は暗色として現れ、瞳孔と呼ばれる。瞳孔が暗色として現れない状況の一例として、いわゆる「赤目」現象がある。「赤目」現象は典型的には、光経路がほぼ平行なフラッシュ光源およびカメラ検出器を用いて何らかの距離を空けて人物を撮影した場合に発生する。本発明の場合、カメラおよび光源が(例えば図1に示すように)良好に分離されているため、「赤目」現象は概して発生しない。
図7Aおよび図7Bにおいて、破線78aおよび78bを挿入して、各カメラアセンブリ79aおよび79bによって観察されているような暗い瞳孔の縁部を示す。多数の画像処理アプローチにおいて、暗い瞳孔領域と虹彩74との間のコントラストによって特定された瞳孔縁部を特定可能な位置として用い、その後、視線検出計算のための基本的入力として用いる。あるいは、例えばカメラ画像内の閾光強度値未満(すなわち、より暗色である)暗色画素の平均位置を計算することにより、瞳孔中心を特定することもできる。
眼科(すなわち、眼の生理学の研究)の分野において、物体74を視認しているときの焦点中心は光軸72に沿っていないことが周知である。すなわち、窩(すなわち、窩中心76)は、約1ミリメートル(1mm)直径構造(人間の場合)であり、網膜の黄斑領域中心に配置され、はっきりとした視界を司る。そのため、窩76と視認物体75との間の線である視軸77は、物理的中心においてレンズ73と交差しない場合がほとんどである。換言すれば、監視者の瞳孔中心は、視認されているターゲット物体75の中心を高精度に検出しない場合が多い。
視覚および光軸の非共線的アライメントをさらに複合的にさせるものとして、眼表面の3次元ジオメトリおよび眼球の回転動きがある。カメラ79aまたは79bが(瞳孔の画像が円形として出現する)光軸に沿って正確に配置されない限り、瞳孔縁部のカメラ画像は、ほぼ楕円形として出現する。軸からさらに離れたカメラ79aまたは79bによって瞳孔画像が記録された場合、当該画像はさらに伸長する(すなわち、円形ではなくなる)。このような伸長に起因して、光学72と視覚77軸との間の分離が誇張され得る。
図7Aにおいて、カメラアセンブリ79aおよび79b双方が、(光学72および視覚77の軸双方がほぼ(高精度ではないにしろ)ほぼ瞳孔画像中心の近隣に出現する)瞳孔78aおよび78bの縁部を容易にビューすることができる。しかし、図7Bに示すように眼が少しでも動いた後は、カメラ79aによって観測される瞳孔画像が大きく伸長する。さらに、視軸77が瞳孔縁部の中心から大きく離隔する(すなわち、破線78aによって形成される視野中心から大きく離隔する)。実際、視軸77は、カメラ79aによって収集された画像内の虹彩縁部の近隣に出現する。
眼がさらに回転した場合、カメラアセンブリ79aの瞳孔検出能力が完全に失われ得る。個人においてこの問題を複雑にする要素として、解剖学的構造(例えば、腫れたまぶたまたは部分的に閉じたまぶたならびに/あるいは眼の下部の「膨れ」)があり、その結果、眼の実質的な連続検出がさらに不明瞭になり得る。アイウェアまたはヘッドウェア上に取り付けられたカメラの近接場位置は、(例えば車のダッシュボード上またはコンピュータの表示モニタ近隣においてさらに離隔位置に配置されたカメラと比較した場合において)この問題を悪化させる。しかし、複数のカメラ(例えば、図7B中の79aおよび79b)は、全次元における眼の全移動範囲をキャプチャするように先着的に配置されており、これにより、眼および顔の他の解剖学的構造による不明瞭化を低減しつつ、生理学的移動範囲全体における瞳孔動きの実質的に連続しかつ/または高精度の監視が可能となる。
例示的実施形態の上記の開示は、例示および記述目的のために記載したものであり、網羅的なものではなく、また、本発明を開示の形態そのものに限定することを意図していない。当業者にとって、上記開示を鑑みれば、本明細書中の実施形態の多数の変更および改変が明確であろう。
さらに、代表的な実施形態の記載において、本明細書において、特定の順序のステップとして方法および/またはプロセスを述べてきた。しかし、方法またはプロセスが本明細書中に記載の特定の順序のステップに依存しない限りにおいて、方法またはプロセスは、記載の特定の順序のステップに限定されるべきではない。当業者であれば理解するように、他の順序のステップも可能である。よって、本明細書中に記載の特定の順序のステップは、特許請求の範囲を限定するものとして解釈されるべきではない。
本発明において多様な改変および代替的形態が可能であるが、その特定の例について、図面中に図示し、本明細書中に詳述している。しかし、本発明は、特定の開示の形態または方法に限定されるのではなく、添付の特許請求の範囲内に収まるすべての変更例、改変例および代替例を網羅することが理解される。

Claims (31)

  1. 視線検出位置を決定するためのシステムであって、前記システムは、
    装着者の頭部上に装着されるように構成されたデバイスと、
    前記装着者の眼を照射するように方向付けられた前記デバイス上に取り付けられた1つ以上の照明光源と、
    前記デバイス上に取り付けられかつ前記眼を視認するために配置された複数の眼検出用カメラと、
    前記眼検出用カメラによって取得された前記眼の画像を分析して、前記1つ以上の照明光源から前記眼から反射された1つ以上の閃光を特定し、前記1つ以上の閃光に相対する前記眼の特徴の位置を特定して、前記装着者によって視認されている位置を決定するように、前記眼検出用カメラへ接続されたプロセッサと、を含み、
    前記眼検出用カメラは、前記眼が通常の移動範囲全体において移動した際に前記眼の瞳孔が前記眼検出用カメラのうち少なくとも1つからの眼検出用カメラ画像内に出現するように、相互に十分に間隔を空けて配置され、
    前記デバイス上に取り付けられ、前記装着者の環境内の基準位置を視認するために配置されたシーンカメラであって、前記プロセッサは、前記視野のシーン画像を取得することと、前記1つ以上の閃光に相対する前記眼の特徴の位置を特定して、前記装着者によって視認されている位置を前記シーン画像内において決定することとを行うように前記シーンカメラへ接続される、シーンカメラ、
    をさらに含む、システム。
  2. 視線検出位置を決定するためのシステムであって、
    装着者の頭部上に装着されるように構成されたデバイスと、
    前記デバイスを装着している装着者の眼の視野内において前記デバイス上に取り付けられた1つ以上の照明光源であって、前記1つ以上の照明光源は、前記眼を照明するように配置され、前記1つ以上の照明光源は、前記視野内の前記装着者の視覚との干渉を最小化するように構成される、照明光源と、
    前記デバイス上に取り付けられかつ前記眼を視認するために配置された眼検出用カメラと、
    前記眼検出用カメラによって取得された前記眼の画像を分析して、前記1つ以上の照明光源から前記眼から反射された1つ以上の閃光を特定し、前記1つ以上の閃光に相対する前記眼の特徴の位置を特定して、前記装着者によって視認されている位置を決定するように前記眼検出用カメラに接続されたプロセッサと、
    を含み、
    前記デバイス上に取り付けられ、前記眼を視認するために配置された1つ以上のさらなる眼検出用カメラであって、前記プロセッサは、異なる視認角度から前記眼の位置を検出するように前記1つ以上のさらなる眼検出用カメラへ接続される、さらなる眼検出用カメラ、
    をさらに含み、
    前記眼検出用カメラは、前記眼が通常の移動範囲全体を移動した場合に前記眼の瞳孔が前記眼検出用カメラのうち少なくとも1つからの眼検出用カメラ画像内に出現するように、相互に十分に間隔を空けて配置される、システム。
  3. 前記1つ以上の照明光源は、LEDおよびOLEDエミッタのうち1つを含む、請求項1またはに記載のシステム。
  4. 前記デバイスは、前記装着者の視線内において前記デバイスに取り付けられたレンズを含み、前記1つ以上の照明光源は、前記眼を照明するように前記レンズ上に設けられた複数の光源を含む、請求項1またはに記載のシステム。
  5. 前記光源は、0.2ミリメートルより幅が小さい、請求項に記載のシステム。
  6. 前記システムは、前記光源を電源へ電気的に接続するための導線を前記レンズ上にさらに含み、前記導線は、前記視野内の前記装着者の視覚との干渉を最小化するように構成される、請求項に記載のシステム。
  7. 前記導線は透明である、請求項に記載のシステム。
  8. 前記導線は、0.2ミリメートルより幅が小さい、請求項に記載のシステム。
  9. 前記複数の光源は、相互に十分に間隔を空けて配置され、前記眼が通常の移動範囲全体を移動した際、光源からの少なくとも1つの閃光が前記眼検出用カメラからの画像内の前記眼の前記角膜領域の表面上に確実に出現する、請求項に記載のシステム。
  10. 前記光源は、前記レンズ上の2次元アレイ内に設けられる、請求項に記載のシステム。
  11. 前記アレイの1つ以上の光源を選択的に活性化させるように前記光源に接続された前記レンズ上の導線をさらに含む、請求項10に記載のシステム。
  12. 前記1つ以上の照明光源は、前記装着者の眼の前方において前記デバイスに取り付けられたレンズ内に埋設された複数の反射面と、光を前記レンズ内へ方向付けて前記複数の反射面から前記眼に向かって反射させるように構成された1つ以上の光源とを含む、請求項1またはに記載のシステム。
  13. 前記1つ以上の光源の輝度レベルを調節して、前記眼検出用カメラの視野内において所望の輝度レベルを提供するように、前記照明光源の1つ以上の光源へ接続されたコントローラをさらに含む、請求項1またはに記載のシステム。
  14. 前記コントローラは、単一の光源を照明して単一の閃光を生成するように構成され、前記プロセッサは、前記視線検出カメラ画像内の前記単一の閃光を分離するように構成される、請求項13に記載のシステム。
  15. 前記眼検出用カメラは、CCDおよびCMOS検出器のうち1つを含む、請求項1またはに記載のシステム。
  16. 前記眼検出用カメラは、眼検出用カメラ画像の生成のための活性化領域を含み、前記活性化領域表面は曲線状である、請求項1またはに記載のシステム。
  17. 前記デバイス上に取り付けられ、前記装着者の環境内の基準位置を視認するために配置されたシーンカメラであって、前記プロセッサは、前記視野のシーン画像を取得することと、前記1つ以上の閃光に相対する前記眼の特徴の位置を相関付けて、前記装着者によって視認されている位置を前記シーン画像内において決定することとを行うように前記シーンカメラへ接続される、シーンカメラ、
    をさらに含む、請求項1またはに記載のシステム。
  18. 視線検出位置を決定するためのシステムであって、
    装着者の頭部上に装着されるように構成されたデバイスであって、前記デバイスは、前記デバイスの装着時において前記装着者の眼の前方に配置されたレンズを含む、デバイスと、
    前記デバイス上に取り付けられかつ前記装着者の環境内の基準位置を視認するために配置されたシーンカメラと、
    前記装着者の眼を照明するように前記レンズ上に取り付けられた複数の照明光源と、
    前記デバイス上に取り付けられかつ前記眼を視認するために配置された複数の眼検出用カメラと、
    前記シーンカメラおよび眼検出用カメラに接続されたプロセッサであって、前記プロセッサは、前記シーンカメラおよび眼検出用カメラからの画像を分析して、シーンカメラ画像からのシーン基準位置および眼検出用カメラ画像からの眼検出位置を用いて、前記装着者によって視認されている位置を決定する、プロセッサと、
    を含み、
    前記レンズ上の複数の光源は、前記眼が通常の移動範囲全体において移動した際に、光源からの少なくとも1つの閃光が前記眼検出用カメラからの画像内の前記眼の角膜領域の表面上に確実に出現するように、相互に十分に間隔を空けて配置される、システム。
  19. 前記照明光源は、前記レンズ内に埋設された複数の反射面と、1つ以上の光源とを含み、前記1つ以上の光源は、光を前記レンズ内に方向付けて、前記複数の反射面から前記眼へと反射させるように構成される、請求項18に記載のシステム。
  20. 前記照明光源は、前記デバイスを装着している前記装着者にとって視認不能である、請求項18に記載のシステム。
  21. 前記照明光源は、前記レンズ上の複数の光源と、前記光源へ接続された前記レンズ上の複数の導電性経路とを含み、前記システムは、前記光源を選択的に活性化させるように前記経路へ接続されたコントローラをさらに含む、請求項18に記載のシステム。
  22. 前記コントローラは、単一の光源を照明して単一の閃光を生成するように構成され、前記プロセッサは、前記視線検出カメラ画像内の前記単一の閃光を分離するように構成される、請求項21に記載のシステム。
  23. 視線検出のための方法であって、
    装着者の頭部上にデバイスを配置することであって、前記デバイスは、1つ以上の照明光源と、前記装着者の眼に向かって方向付けられた複数の眼検出用カメラとを含み、前記眼検出用カメラは、前記眼の視野の重複を提供するように、前記デバイス上の異なる位置に配置されることと、
    前記眼検出用カメラによって取得された前記眼の画像を分析して、前記1つ以上の照明光源から前記眼から反射された1つ以上の閃光を特定し、前記1つ以上の閃光に相対する前記眼の特徴の位置を特定して、前記装着者によって視認されている位置を決定することと、
    前記デバイス上にシーンカメラを取り付けることであって、前記シーンカメラは前記装着者の環境内の基準位置を視認するために配置されることと、
    プロセッサは、前記シーンカメラへ接続されて、視野のシーン画像を取得することと、前記1つ以上の閃光に相対する前記眼の特徴の位置を特定して、前記装着者によって視認されている位置を前記シーン画像内において決定することとを行うように配置されることと、
    を含む、方法。
  24. 前記眼の特徴の位置は、前記眼検出用カメラの画像から監視され、前記眼の特徴がその他の眼検出用カメラに相対して前記視野の中心に最も近接する眼検出用カメラを特定し、前記眼の画像を分析することは、前記特定された眼検出用カメラからの画像を分析して、前記装着者によって視認されている位置を決定することを含む、請求項23に記載の方法。
  25. 前記方法は、前記眼の特徴がその他の眼検出用カメラに相対して前記視野の中心に最も近接する眼検出用カメラを定期的に特定することをさらに含み、前記特定された眼検出用カメラからの画像を分析して、前記装着者によって視認されている位置を決定することを含む、請求項24に記載の方法。
  26. 前記眼の特徴の位置は、前記眼検出用カメラの画像から監視され、前記眼の画像を分析することは、前記画像内の前記眼の特徴の位置を異なる位置の前記眼検出用カメラからの画像を用いた位置の平均として計算することで、前記装着者によって視認されている位置を決定することを含む、請求項23に記載の方法。
  27. 補正空間マッピング関数を前記画像に適用して、前記眼の球面収差および曲率のうち少なくとも1つによる前記画像の歪みを補正することをさらに含む、請求項26に記載の方法。
  28. 前記眼検出用カメラの画像からの前記眼の特徴の位置は、平均化より前に、前記眼の球面収差および曲率のうち少なくとも1つによる前記画像の歪みを補正するように重み付けされる、請求項26に記載の方法。
  29. 視線検出のための方法であって、
    装着者の頭部上にデバイスを配置することであって、前記デバイスは、複数の照明光源と、前記装着者の眼に向かって方向付けられた眼検出用カメラとを含み、前記照明光源は、前記装着者の視野内に配置され、前記視野内の前記装着者の視覚との干渉を最小化するように構成されることと、
    前記眼検出用カメラによって取得された前記眼の画像を分析して、前記照明光源のうち1つ以上から前記眼から反射された1つ以上の閃光を特定し、前記1つ以上の閃光に相対する前記眼の特徴の位置を特定して、前記装着者によって視認されている位置を決定することと、
    前記デバイス上にシーンカメラを取り付けることであって、前記シーンカメラは前記装着者の環境内の基準位置を視認するために配置されることと、
    プロセッサは、前記シーンカメラへ接続されて、視野のシーン画像を取得することと、前記1つ以上の閃光に相対する前記眼の特徴の位置を特定して、前記装着者によって視認されている位置を前記シーン画像内において決定することとを行うように配置されることと、
    を含む、方法。
  30. 前記照明光源のうち1つのみが一度に活性化され、それにより、前記眼の画像内に単一の閃光を生成し、前記眼の特徴の位置を前記単一の閃光に相対して特定して、前記装着者によって視認されている位置を決定する、請求項29に記載の方法。
  31. 複数の前記照明光源が一度に活性化され、それにより、複数の同時閃光を前記眼の画像内に生成し、前記眼の特徴の位置を前記複数の閃光に相対して特定して、前記装着者によって視認されている位置を決定する、請求項29に記載の方法。
JP2014541208A 2011-11-07 2012-11-07 高分解能視線検出のためのシステムおよび方法 Active JP6106684B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/290,948 US8929589B2 (en) 2011-11-07 2011-11-07 Systems and methods for high-resolution gaze tracking
US13/290,948 2011-11-07
PCT/US2012/063973 WO2013070788A1 (en) 2011-11-07 2012-11-07 Systems and methods for high-resolution gaze tracking

Publications (3)

Publication Number Publication Date
JP2014532542A JP2014532542A (ja) 2014-12-08
JP2014532542A5 JP2014532542A5 (ja) 2016-01-21
JP6106684B2 true JP6106684B2 (ja) 2017-04-05

Family

ID=48223733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014541208A Active JP6106684B2 (ja) 2011-11-07 2012-11-07 高分解能視線検出のためのシステムおよび方法

Country Status (6)

Country Link
US (3) US8929589B2 (ja)
EP (1) EP2776978B1 (ja)
JP (1) JP6106684B2 (ja)
KR (1) KR101990559B1 (ja)
CN (1) CN104094280A (ja)
WO (1) WO2013070788A1 (ja)

Families Citing this family (272)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8781162B2 (en) * 2011-01-05 2014-07-15 Ailive Inc. Method and system for head tracking and pose estimation
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
CN102292017B (zh) * 2009-01-26 2015-08-05 托比股份公司 由光学基准信号辅助的对凝视点的检测
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
US9402682B2 (en) 2010-09-24 2016-08-02 Ethicon Endo-Surgery, Llc Articulation joint features for articulating surgical device
KR101046677B1 (ko) * 2011-03-15 2011-07-06 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프
WO2016020630A2 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Waveguide laser illuminator incorporating a despeckler
RU2621633C2 (ru) 2011-10-28 2017-06-06 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
KR101891786B1 (ko) * 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US8941722B2 (en) * 2012-01-03 2015-01-27 Sony Corporation Automatic intelligent focus control of video
US8913789B1 (en) * 2012-01-06 2014-12-16 Google Inc. Input methods and systems for eye positioning using plural glints
EP2812775A1 (en) * 2012-02-06 2014-12-17 Sony Mobile Communications AB Gaze tracking with projector
WO2013167864A1 (en) 2012-05-11 2013-11-14 Milan Momcilo Popovich Apparatus for eye tracking
JP5689850B2 (ja) * 2012-05-25 2015-03-25 株式会社ソニー・コンピュータエンタテインメント 映像解析装置、映像解析方法、および注視点表示システム
US9933684B2 (en) * 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
CN104903818B (zh) 2012-12-06 2018-12-14 谷歌有限责任公司 眼睛跟踪佩戴式设备和使用方法
US9699433B2 (en) * 2013-01-24 2017-07-04 Yuchen Zhou Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye
US9179833B2 (en) 2013-02-28 2015-11-10 Carl Zeiss Meditec, Inc. Systems and methods for improved ease and accuracy of gaze tracking
US9380295B2 (en) * 2013-04-21 2016-06-28 Zspace, Inc. Non-linear navigation of a three dimensional stereoscopic display
WO2014188149A1 (en) 2013-05-20 2014-11-27 Milan Momcilo Popovich Holographic waveguide eye tracker
JP6265348B2 (ja) 2013-05-22 2018-01-24 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
CN103356163B (zh) * 2013-07-08 2016-03-30 东北电力大学 基于视频图像和人工神经网络的凝视点测量装置及其方法
US10345903B2 (en) * 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
US10073518B2 (en) * 2013-08-19 2018-09-11 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display
WO2015025306A1 (en) * 2013-08-20 2015-02-26 Assi Raid Eyeglasses for driver
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
KR101882594B1 (ko) 2013-09-03 2018-07-26 토비 에이비 휴대용 눈 추적 디바이스
CN105518514B (zh) 2013-09-06 2019-07-05 3M创新有限公司 具有眼睛跟踪的头戴式显示器
US11327302B2 (en) 2013-09-18 2022-05-10 Beth Holst Secure capture and transfer of image and audio data
US10008124B1 (en) 2013-09-18 2018-06-26 Beth Holst Method and system for providing secure remote testing
WO2015060869A1 (en) * 2013-10-25 2015-04-30 Intel Corporation Dynamic optimization of light source power
EP3079357B1 (en) * 2013-12-05 2022-07-27 Sony Group Corporation Display device
US9292765B2 (en) * 2014-01-07 2016-03-22 Microsoft Technology Licensing, Llc Mapping glints to light sources
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20160085072A1 (en) 2014-01-24 2016-03-24 Osterhout Group, Inc. See-through computer display systems
WO2015116640A1 (en) * 2014-01-29 2015-08-06 Shazly Tarek A Eye and head tracking device
US10758121B2 (en) * 2014-02-28 2020-09-01 Board Of Regents, The University Of Texas System System for traumatic brain injury detection using oculomotor tests
WO2015131198A1 (en) * 2014-02-28 2015-09-03 Lrs Identity, Inc. Dual iris and color camera in a mobile computing device
JP6689203B2 (ja) 2014-03-19 2020-04-28 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 立体ビューワのための視線追跡を統合する医療システム
EP3119286B1 (en) 2014-03-19 2024-05-01 Intuitive Surgical Operations, Inc. Medical devices and systems using eye gaze tracking
US9361519B2 (en) * 2014-03-28 2016-06-07 Intel Corporation Computational array camera with dynamic illumination for eye tracking
JP6637440B2 (ja) 2014-04-09 2020-01-29 スリーエム イノベイティブ プロパティズ カンパニー ヘッドマウントディスプレイ及び目立ちにくい瞳孔イルミネーター
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
US9454699B2 (en) * 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR102173699B1 (ko) * 2014-05-09 2020-11-03 아이플루언스, 인크. 안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들
EP2946720A1 (en) * 2014-05-23 2015-11-25 GN Otometrics A/S Head mountable device for measuring eye movement
US10206568B2 (en) 2014-05-23 2019-02-19 Natus Medical Incorporated Head mountable device for measuring eye movement
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
CN105279750B (zh) * 2014-07-09 2019-02-01 中国人民解放军装甲兵工程学院 一种基于ir-uwb和图像矩的装备展示导览***
JPWO2016013269A1 (ja) * 2014-07-22 2017-04-27 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9465991B2 (en) * 2014-08-11 2016-10-11 Microsoft Technology Licensing, Llc Determining lens characteristics
US9829708B1 (en) * 2014-08-19 2017-11-28 Boston Incubator Center, LLC Method and apparatus of wearable eye pointing system
US9547365B2 (en) * 2014-09-15 2017-01-17 Google Inc. Managing information display
WO2016042283A1 (en) 2014-09-19 2016-03-24 Milan Momcilo Popovich Method and apparatus for generating input images for holographic waveguide displays
WO2016048245A1 (en) * 2014-09-25 2016-03-31 Nanyang Technological University Probe for iridocorneal angle imaging
US10423222B2 (en) 2014-09-26 2019-09-24 Digilens Inc. Holographic waveguide optical tracker
DE102014115341B4 (de) * 2014-10-21 2016-11-03 Carl Zeiss Smart Optics Gmbh Abbildungsoptik und Datenbrille
WO2016085212A1 (ko) * 2014-11-24 2016-06-02 삼성전자 주식회사 디스플레이를 제어하는 전자 장치 및 방법
DE102014226185B4 (de) * 2014-12-17 2022-09-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Blickrichtungserkennungssystem zum Bestimmen einer Blickrichtung einer Person, sowie Verwendung des Blickrichtungserkennungssystems in einem Kraftfahrzeug
US20160180143A1 (en) * 2014-12-17 2016-06-23 Intel Corporation Eye tracking with 3d eye position estimations and psf models
JP6447108B2 (ja) * 2014-12-24 2019-01-09 富士通株式会社 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
CN107873086B (zh) 2015-01-12 2020-03-20 迪吉伦斯公司 环境隔离的波导显示器
WO2016113533A2 (en) 2015-01-12 2016-07-21 Milan Momcilo Popovich Holographic waveguide light field displays
CN107533137A (zh) 2015-01-20 2018-01-02 迪吉伦斯公司 全息波导激光雷达
EP3248049B8 (en) * 2015-01-21 2020-12-30 Tesseland LLC Imaging optics adapted to the human eye resolution
CN104615978B (zh) * 2015-01-23 2017-09-22 清华大学 视线方向跟踪方法及装置
KR101646449B1 (ko) 2015-02-12 2016-08-05 현대자동차주식회사 시선 인식 시스템 및 방법
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US11048466B2 (en) * 2015-04-10 2021-06-29 Andy Bevilacqua Cognitive improvement system and method of testing
KR102110208B1 (ko) * 2015-05-08 2020-05-13 엘지전자 주식회사 안경형 단말기 및 이의 제어방법
IL255713B (en) 2015-05-19 2022-09-01 Magic Leap Inc Dual integrated light field device
EP3298452B1 (en) * 2015-05-20 2022-11-02 Magic Leap, Inc. Tilt shift iris imaging
CN104905764B (zh) * 2015-06-08 2017-09-12 四川大学华西医院 一种基于fpga的高速视线跟踪方法
CN104905765B (zh) * 2015-06-08 2017-01-18 四川大学华西医院 眼动跟踪中基于CamShift算法的FPGA实现方法
EP3112922A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing A gaze tracking device and a head mounted device embedding said gaze tracking device
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US9870049B2 (en) * 2015-07-31 2018-01-16 Google Llc Reflective lenses to auto-calibrate a wearable system
US10459305B2 (en) 2015-08-03 2019-10-29 Facebook Technologies, Llc Time-domain adjustment of phase retardation in a liquid crystal grating for a color display
US10338451B2 (en) 2015-08-03 2019-07-02 Facebook Technologies, Llc Devices and methods for removing zeroth order leakage in beam steering devices
US10552676B2 (en) * 2015-08-03 2020-02-04 Facebook Technologies, Llc Methods and devices for eye tracking based on depth sensing
US10534173B2 (en) 2015-08-03 2020-01-14 Facebook Technologies, Llc Display with a tunable mask for augmented reality
US10297180B2 (en) 2015-08-03 2019-05-21 Facebook Technologies, Llc Compensation of chromatic dispersion in a tunable beam steering device for improved display
US10016130B2 (en) 2015-09-04 2018-07-10 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
CN105159460B (zh) * 2015-09-10 2018-01-23 哈尔滨理工大学 基于眼动跟踪的智能家居控制器的控制方法
FR3041230B1 (fr) 2015-09-18 2022-04-15 Suricog Procede de determination de parametres anatomiques
FR3041231B1 (fr) * 2015-09-18 2017-10-20 Suricog Systeme portatif comportant un support deformable
KR20180057668A (ko) 2015-09-24 2018-05-30 토비 에이비 눈 추적 가능한 웨어러블 디바이스들
US10565446B2 (en) 2015-09-24 2020-02-18 Tobii Ab Eye-tracking enabled wearable devices
WO2017060665A1 (en) 2015-10-05 2017-04-13 Milan Momcilo Popovich Waveguide display
US10247858B2 (en) 2015-10-25 2019-04-02 Facebook Technologies, Llc Liquid crystal half-wave plate lens
US10416454B2 (en) 2015-10-25 2019-09-17 Facebook Technologies, Llc Combination prism array for focusing light
WO2017079343A1 (en) * 2015-11-02 2017-05-11 Focure, Inc. Continuous autofocusing eyewear using structured light
US10048513B2 (en) 2015-11-02 2018-08-14 Focure Inc. Continuous autofocusing eyewear
CN106681480A (zh) * 2015-11-05 2017-05-17 丰唐物联技术(深圳)有限公司 基于头戴设备的头部运动轨迹的检测方法及装置
US10043075B2 (en) * 2015-11-19 2018-08-07 Microsoft Technology Licensing, Llc Eye feature identification
US10444972B2 (en) 2015-11-28 2019-10-15 International Business Machines Corporation Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries
US10203566B2 (en) 2015-12-21 2019-02-12 Facebook Technologies, Llc Enhanced spatial resolution using a segmented electrode array
US9785234B2 (en) * 2015-12-26 2017-10-10 Intel Corporation Analysis of ambient light for gaze tracking
EP3438882B1 (en) * 2015-12-28 2023-07-26 Artilux Inc. Eye gesture tracking
US9924866B2 (en) 2016-01-11 2018-03-27 Heptagon Micro Optics Pte. Ltd. Compact remote eye tracking system including depth sensing capacity
KR102567431B1 (ko) * 2016-01-19 2023-08-14 매직 립, 인코포레이티드 눈 이미지 수집, 선택 및 결합
US10983340B2 (en) 2016-02-04 2021-04-20 Digilens Inc. Holographic waveguide optical tracker
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
US10379356B2 (en) * 2016-04-07 2019-08-13 Facebook Technologies, Llc Accommodation based optical correction
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10739851B2 (en) 2016-04-29 2020-08-11 Tobii Ab Eye-tracking enabled wearable devices
US10088140B2 (en) 2016-06-07 2018-10-02 Heptagon Micro Optics Pte. Ltd. Eye-safe optoelectronic module
CN106056092B (zh) * 2016-06-08 2019-08-20 华南理工大学 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
US9999805B2 (en) 2016-06-16 2018-06-19 International Business Machines Corporation Analyzing team game play interactions using gaze data
US10304022B2 (en) 2016-06-16 2019-05-28 International Business Machines Corporation Determining player performance statistics using gaze data
CN106168853B (zh) * 2016-06-23 2019-10-01 中国科学技术大学 一种自由空间头戴式视线跟踪***
CN107536598A (zh) * 2016-06-29 2018-01-05 沈阳新松机器人自动化股份有限公司 双目视觉瞳孔定位方法及相关设备
CN206178658U (zh) 2016-08-10 2017-05-17 北京七鑫易维信息技术有限公司 视频眼镜的眼球追踪模组
CN109791346B (zh) 2016-09-27 2021-04-20 斯纳普公司 眼镜装置模式指示
KR102402467B1 (ko) 2016-10-05 2022-05-25 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
US10877556B2 (en) * 2016-10-21 2020-12-29 Apple Inc. Eye tracking system
US10373297B2 (en) * 2016-10-26 2019-08-06 Valve Corporation Using pupil location to correct optical lens distortion
CN206301289U (zh) * 2016-11-29 2017-07-04 阿里巴巴集团控股有限公司 Vr终端设备
CN107066079A (zh) 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务实现方法及装置
US10395111B2 (en) 2016-12-01 2019-08-27 Varjo Technologies Oy Gaze-tracking system and method
TWI645366B (zh) * 2016-12-13 2018-12-21 國立勤益科技大學 Image semantic conversion system and method applied to home care
US10120442B2 (en) * 2016-12-21 2018-11-06 Oculus Vr, Llc Eye tracking using a light field camera on a head-mounted display
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US20200125167A1 (en) * 2016-12-30 2020-04-23 Tobii Ab Eye/Gaze Tracking System and Method
US10545346B2 (en) 2017-01-05 2020-01-28 Digilens Inc. Wearable heads up displays
US10485420B2 (en) * 2017-02-17 2019-11-26 Analog Devices Global Unlimited Company Eye gaze tracking
CN107122642A (zh) 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 基于虚拟现实环境的身份认证方法及装置
US10977858B2 (en) 2017-03-30 2021-04-13 Magic Leap, Inc. Centralized rendering
WO2018183836A1 (en) 2017-03-30 2018-10-04 Magic Leap, Inc. Non-blocking dual driver earphones
EP3610359B1 (en) 2017-04-14 2023-09-20 Magic Leap, Inc. Multimodal eye tracking
US10303248B2 (en) * 2017-04-28 2019-05-28 Microsoft Technology Licensing, Llc Eye tracking using scanned beam and multiple detectors
US11079522B1 (en) 2017-05-31 2021-08-03 Magic Leap, Inc. Fiducial design
CN110913751B (zh) * 2017-06-30 2022-05-24 聂小春 具有滑动检测和校正功能的可穿戴眼睛跟踪***
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
CN107392156B (zh) * 2017-07-25 2020-08-25 北京七鑫易维信息技术有限公司 一种视线估计方法及装置
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
JP6953247B2 (ja) * 2017-09-08 2021-10-27 ラピスセミコンダクタ株式会社 ゴーグル型表示装置、視線検出方法及び視線検出システム
CN111263925B (zh) * 2017-09-28 2022-06-14 苹果公司 用于使用事件相机数据的眼动跟踪的方法和设备
CN115175064A (zh) 2017-10-17 2022-10-11 奇跃公司 混合现实空间音频
CN109725418B (zh) 2017-10-30 2020-10-16 华为技术有限公司 显示设备、用于调整显示设备的图像呈现的方法及装置
US11042994B2 (en) 2017-11-15 2021-06-22 Toyota Research Institute, Inc. Systems and methods for gaze tracking from arbitrary viewpoints
US11181977B2 (en) 2017-11-17 2021-11-23 Dolby Laboratories Licensing Corporation Slippage compensation in eye tracking
CN108095720B (zh) * 2017-12-14 2020-03-06 广州德科投资咨询有限公司 一种基于智能眼镜的酒驾预警方法及智能眼镜
KR102476757B1 (ko) * 2017-12-21 2022-12-09 삼성전자주식회사 반사를 검출하는 장치 및 방법
EP3740847B1 (en) 2018-01-17 2024-03-13 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
KR20200110367A (ko) * 2018-01-17 2020-09-23 매직 립, 인코포레이티드 디스플레이 시스템들에서의 눈 회전 중심 결정, 깊이 평면 선택, 및 렌더 카메라 포지셔닝
US10564429B2 (en) * 2018-02-01 2020-02-18 Varjo Technologies Oy Gaze-tracking system using illuminators emitting different wavelengths
US10452911B2 (en) 2018-02-01 2019-10-22 Varjo Technologies Oy Gaze-tracking system using curved photo-sensitive chip
US11194161B2 (en) 2018-02-09 2021-12-07 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154510A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
IL276511B2 (en) 2018-02-15 2024-01-01 Magic Leap Inc Musical instruments in mixed reality
IL276510B2 (en) 2018-02-15 2024-02-01 Magic Leap Inc Virtual reverberation in mixed reality
JP7252965B2 (ja) 2018-02-15 2023-04-05 マジック リープ, インコーポレイテッド 複合現実のための二重聴取者位置
JP2019154815A (ja) * 2018-03-13 2019-09-19 株式会社リコー 眼球の傾き位置検知装置、表示装置、及び検眼装置
US10775616B1 (en) 2018-03-21 2020-09-15 Facebook Technologies, Llc Lenses integrated with micro-light emitting diodes
EP3785067A4 (en) 2018-04-24 2021-06-23 Mentor Acquisition One, LLC CLEAR COMPUTER DISPLAY SYSTEMS WITH VISUAL CORRECTION AND INCREASED CONTENT DENSITY
US10928900B2 (en) * 2018-04-27 2021-02-23 Technology Against Als Communication systems and methods
US10788892B2 (en) 2018-05-23 2020-09-29 Facebook Technologies, Llc In-field illumination and imaging for eye tracking
US11455031B1 (en) * 2018-06-04 2022-09-27 Meta Platforms Technologies, Llc In-field illumination for eye tracking
US10667072B2 (en) 2018-06-12 2020-05-26 Magic Leap, Inc. Efficient rendering of virtual soundfields
US10602292B2 (en) 2018-06-14 2020-03-24 Magic Leap, Inc. Methods and systems for audio signal filtering
CN112534498A (zh) 2018-06-14 2021-03-19 奇跃公司 混响增益归一化
JP2021528001A (ja) 2018-06-18 2021-10-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. 双方向オーディオ環境のための空間オーディオ
EP3811360A4 (en) 2018-06-21 2021-11-24 Magic Leap, Inc. PORTABLE SYSTEM VOICE PROCESSING
US11201953B2 (en) 2018-07-24 2021-12-14 Magic Leap, Inc. Application sharing
EP3827426A4 (en) * 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
WO2020028867A1 (en) 2018-08-03 2020-02-06 Magic Leap, Inc. Depth plane selection for multi-depth plane display systems by user categorization
US10942349B2 (en) * 2018-08-21 2021-03-09 Facebook Technologies, Llc Illumination assembly with in-field micro devices
JP7227989B2 (ja) * 2018-08-21 2023-02-22 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 視野内マイクロデバイスを備えた照明アセンブリ
KR102574995B1 (ko) * 2018-09-21 2023-09-06 돌비 레버러토리즈 라이쎈싱 코오포레이션 헤드마운트 디바이스의 광학 스택 내로 구성요소 통합
JP7316360B2 (ja) 2018-09-25 2023-07-27 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
CN113170273B (zh) 2018-10-05 2023-03-28 奇跃公司 用于双耳音频渲染的耳间时间差交叉渐变器
CN116320907A (zh) 2018-10-05 2023-06-23 奇跃公司 近场音频渲染
CN113168526A (zh) 2018-10-09 2021-07-23 奇跃公司 用于虚拟和增强现实的***和方法
US20200125169A1 (en) * 2018-10-18 2020-04-23 Eyetech Digital Systems, Inc. Systems and Methods for Correcting Lens Distortion in Head Mounted Displays
CN113227935A (zh) 2018-10-24 2021-08-06 奇跃公司 异步asic
US20200150425A1 (en) * 2018-11-09 2020-05-14 Facebook Technologies, Llc Inconspicuous near-eye electrical components
US10914945B2 (en) 2018-11-09 2021-02-09 Facebook Technologies, Llc Inconspicuous near-eye electrical circuits
US11353952B2 (en) 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
US10880542B1 (en) * 2018-12-19 2020-12-29 Facebook Technologies, Llc Near-eye optical element with embedded hot mirror
SE543240C2 (en) * 2018-12-21 2020-10-27 Tobii Ab Classification of glints using an eye tracking system
US11221814B2 (en) 2018-12-27 2022-01-11 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11537202B2 (en) 2019-01-16 2022-12-27 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
JP2022520472A (ja) 2019-02-15 2022-03-30 ディジレンズ インコーポレイテッド 統合された格子を使用してホログラフィック導波管ディスプレイを提供するための方法および装置
US11587563B2 (en) 2019-03-01 2023-02-21 Magic Leap, Inc. Determining input for speech processing engine
US10948729B2 (en) * 2019-04-16 2021-03-16 Facebook Technologies, Llc Keep-out zone for in-field light sources of a head mounted display
US10877268B2 (en) 2019-04-16 2020-12-29 Facebook Technologies, Llc Active control of in-field light sources of a head mounted display
US10860095B2 (en) 2019-05-02 2020-12-08 Cognixion Dynamic eye-tracking camera alignment utilizing eye-tracking maps
US11650426B2 (en) * 2019-05-09 2023-05-16 Meta Platforms Technologies, Llc Holographic optical elements for eye-tracking illumination
CN110083251A (zh) * 2019-06-03 2019-08-02 北京七鑫易维科技有限公司 眼球追踪装置及眼球追踪设备
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US11151766B2 (en) 2019-06-06 2021-10-19 Magic Leap, Inc. Photoreal character configurations for spatial computing
KR20220016990A (ko) 2019-06-07 2022-02-10 디지렌즈 인코포레이티드. 투과 및 반사 격자를 통합하는 도파관 및 관련 제조 방법
US11372251B2 (en) * 2019-06-17 2022-06-28 Google Llc Systems, devices, and methods for electrical pathways between components in wearable heads-up displays
JP2022540675A (ja) * 2019-07-16 2022-09-16 マジック リープ, インコーポレイテッド 1つ以上の眼追跡カメラを用いた眼回転中心の決定
JP7499466B2 (ja) * 2019-08-06 2024-06-14 パナソニックIpマネジメント株式会社 表示装置
US11704874B2 (en) 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
US11328740B2 (en) 2019-08-07 2022-05-10 Magic Leap, Inc. Voice onset detection
WO2021041949A1 (en) 2019-08-29 2021-03-04 Digilens Inc. Evacuating bragg gratings and methods of manufacturing
CN114830182A (zh) 2019-10-18 2022-07-29 奇跃公司 视觉惯性里程计的重力估计和光束法平差
EP4049466A4 (en) 2019-10-25 2022-12-28 Magic Leap, Inc. REVERBER FOOTPRINT ESTIMATION
EP4049117A4 (en) 2019-10-25 2022-12-14 Magic Leap, Inc. NON-UNIFORM STEREOSCOPIC RENDERING
US11959997B2 (en) 2019-11-22 2024-04-16 Magic Leap, Inc. System and method for tracking a wearable device
EP4070159A4 (en) 2019-12-04 2023-01-18 Magic Leap, Inc. VARIABLE PITCH COLOR EMISSION DISPLAY DEVICE
JP7481446B2 (ja) 2019-12-06 2024-05-10 マジック リープ, インコーポレイテッド 環境音響持続性
US11269181B2 (en) 2019-12-09 2022-03-08 Magic Leap, Inc. Systems and methods for operating a head-mounted display system based on user identity
US11337023B2 (en) 2019-12-20 2022-05-17 Magic Leap, Inc. Physics-based audio and haptic synthesis
CN111007665B (zh) * 2019-12-25 2022-03-04 常州欣盛半导体技术股份有限公司 一种眼球追踪感测器的线路结构及其加工方法
EP4104456A4 (en) 2020-02-14 2023-07-19 Magic Leap, Inc. AUDIO PLAYBACK WITH MULTIPLE APPLICATIONS
US11475644B2 (en) 2020-02-14 2022-10-18 Magic Leap, Inc. Session manager
US11778410B2 (en) 2020-02-14 2023-10-03 Magic Leap, Inc. Delayed audio following
CN115516364B (zh) 2020-02-14 2024-04-26 奇跃公司 工具桥
US11763559B2 (en) 2020-02-14 2023-09-19 Magic Leap, Inc. 3D object annotation
WO2021164867A1 (en) * 2020-02-19 2021-08-26 Pupil Labs Gmbh Eye tracking module and head-wearable device
JP2023515886A (ja) 2020-03-02 2023-04-14 マジック リープ, インコーポレイテッド 没入型のオーディオプラットフォーム
US11917384B2 (en) 2020-03-27 2024-02-27 Magic Leap, Inc. Method of waking a device using spoken voice commands
US11828944B1 (en) 2020-04-09 2023-11-28 Apple Inc. Head-mounted device with optical module illumination systems
CN116113867B (zh) * 2020-05-14 2024-04-26 视觉***有限责任公司 用于确定瞳孔中心的方法和眼镜
WO2021234832A1 (ja) * 2020-05-20 2021-11-25 ヤマハ発動機株式会社 視線検出装置
EP4158615A4 (en) 2020-05-29 2023-11-15 Magic Leap, Inc. DETERMINATION OF ANGULAR ACCELERATION
CN117044234A (zh) 2020-05-29 2023-11-10 奇跃公司 表面适当碰撞
GB2595909B (en) * 2020-06-11 2022-08-24 Sony Interactive Entertainment Inc Gaze tracking apparatus and systems
US11994751B1 (en) 2020-12-30 2024-05-28 Snap Inc. Dual system on a chip eyewear
CN112754420A (zh) * 2021-01-08 2021-05-07 瑞尔明康(杭州)视光科技有限公司 波前像差测量***、相关联的视知觉学习训练***和方法
EP4268008A1 (en) * 2021-02-11 2023-11-01 Apple Inc. Waveguide display with gaze tracking
CN114967904A (zh) * 2021-02-19 2022-08-30 北京京东方光电科技有限公司 视线定位方法、头戴显示设备、计算机设备及存储介质
US20220343534A1 (en) * 2021-04-23 2022-10-27 Google Llc Image based detection of display fit and ophthalmic fit measurements
US12019240B2 (en) 2021-08-06 2024-06-25 Hong Kong Applied Science and Technology Research Institute Company Limited Imaging apparatus integrated with display for head-mounted display
JPWO2023021724A1 (ja) * 2021-08-18 2023-02-23
CN113693553A (zh) * 2021-09-14 2021-11-26 首都医科大学附属北京儿童医院 消除眼动检测中冷效应干扰的方法及装置
US20230124748A1 (en) * 2021-10-14 2023-04-20 Jason Heger Dual system on a chip eyewear
US20230117720A1 (en) * 2021-10-14 2023-04-20 Jason Heger Dual system on a chip eyewear
US11997249B2 (en) * 2021-10-14 2024-05-28 Snap Inc. Dual system on a chip eyewear
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device

Family Cites Families (162)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4300818A (en) * 1978-03-13 1981-11-17 Schachar Ronald A Multifocal ophthalmic lens
US4595990A (en) 1980-12-31 1986-06-17 International Business Machines Corporation Eye controlled information transfer
US4439157A (en) 1982-05-03 1984-03-27 The United States Of America As Represented By The Secretary Of The Navy Helmet mounted display projector
US4568159A (en) 1982-11-26 1986-02-04 The United States Of America As Represented By The Secretary Of The Navy CCD Head and eye position indicator
EP0125808A3 (en) 1983-04-18 1986-01-29 Lee S. Weinblatt Eye movement monitoring technique
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
US4950069A (en) 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5231674A (en) 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
JPH03109030A (ja) 1989-09-22 1991-05-09 Canon Inc 注視点検出装置
US5367315A (en) 1990-11-15 1994-11-22 Eyetech Corporation Method and apparatus for controlling cursor movement
US5331149A (en) 1990-12-31 1994-07-19 Kopin Corporation Eye tracking system having an array of photodetectors aligned respectively with an array of pixels
US5270748A (en) 1992-01-30 1993-12-14 Mak Technologies, Inc. High-speed eye tracking device and method
US5583590A (en) 1992-05-04 1996-12-10 Wabash Scientific Corp. Alert monitoring system
US5345281A (en) 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5517021A (en) 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5471542A (en) 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
GB9323970D0 (en) 1993-11-22 1994-01-12 Toad Innovations Ltd Safety device
US5481622A (en) 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JPH07313460A (ja) * 1994-05-24 1995-12-05 Olympus Optical Co Ltd カメラの視線検出装置
US5583795A (en) 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5585871A (en) 1995-05-26 1996-12-17 Linden; Harry Multi-function display apparatus
US6373961B1 (en) 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5861936A (en) 1996-07-26 1999-01-19 Gillan Holdings Limited Regulating focus in accordance with relationship of features of a person's eyes
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6070098A (en) 1997-01-11 2000-05-30 Circadian Technologies, Inc. Method of and apparatus for evaluation and mitigation of microsleep events
WO1998049028A1 (en) 1997-04-25 1998-11-05 Applied Science Group, Inc. An alertness monitor
WO1999005988A2 (en) 1997-07-30 1999-02-11 Applied Science Laboratories An eye tracker using an off-axis, ring illumination source
JP2001522063A (ja) 1997-10-30 2001-11-13 ザ マイクロオプティカル コーポレイション 眼鏡インターフェースシステム
AUPP048097A0 (en) * 1997-11-21 1997-12-18 Xenotech Research Pty Ltd Eye tracking apparatus
US6055322A (en) 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
US6088470A (en) 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6614408B1 (en) 1998-03-25 2003-09-02 W. Stephen G. Mann Eye-tap for electronic newsgathering, documentary video, photojournalism, and personal safety
US6204828B1 (en) 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US6091378A (en) 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US6282553B1 (en) 1998-11-04 2001-08-28 International Business Machines Corporation Gaze-based secure keypad entry system
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US6346887B1 (en) 1999-09-14 2002-02-12 The United States Of America As Represented By The Secretary Of The Navy Eye activity monitor
US6864912B1 (en) 1999-12-16 2005-03-08 International Business Machines Corp. Computer system providing hands free user input via optical means for navigation or zooming
US6758563B2 (en) 1999-12-30 2004-07-06 Nokia Corporation Eye-gaze tracking
AUPQ896000A0 (en) 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US6873314B1 (en) 2000-08-29 2005-03-29 International Business Machines Corporation Method and system for the recognition of reading skimming and scanning from eye-gaze patterns
GB0023172D0 (en) 2000-09-20 2000-11-01 Minter Kemp Martin J Wakeup vizor
JP2002143094A (ja) 2000-11-07 2002-05-21 Nac Image Technology Inc 視線検出装置
WO2002064031A2 (en) 2001-02-09 2002-08-22 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
DE10108064A1 (de) 2001-02-20 2002-09-05 Siemens Ag Verknüpfte Eye-Tracking-Information innerhalb eines Augmented-Reality-Systems
GB2372683A (en) 2001-02-23 2002-08-28 Ibm Eye tracking display apparatus
US6959102B2 (en) 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
US6886137B2 (en) 2001-05-29 2005-04-26 International Business Machines Corporation Eye gaze control of dynamic information presentation
GB0113533D0 (en) 2001-06-05 2001-07-25 Brigantia Software Ltd Apparatus and method for testing visual response
US20030043268A1 (en) 2001-06-26 2003-03-06 Mann W. Stephen G. EyeTap vehicle or vehicle controlled by headworn camera, or the like
GB0119859D0 (en) 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
US6927694B1 (en) 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US6997556B2 (en) 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
AUPR872301A0 (en) 2001-11-08 2001-11-29 Sleep Diagnostics Pty Ltd Alertness monitor
WO2003053228A2 (en) 2001-12-21 2003-07-03 Sensomotoric Instruments Gmbh Method and apparatus for eye registration
US6659611B2 (en) 2001-12-28 2003-12-09 International Business Machines Corporation System and method for eye gaze tracking using corneal image mapping
US7197165B2 (en) 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
IL148804A (en) * 2002-03-21 2007-02-11 Yaacov Amitai Optical device
US7206435B2 (en) 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US6919907B2 (en) 2002-06-20 2005-07-19 International Business Machines Corporation Anticipatory image capture for stereoscopic remote viewing with foveal priority
US20150150455A9 (en) 2002-07-03 2015-06-04 Epley Research, Llc Stimulus-evoked vestibular evaluation system, method and apparatus
US20040061680A1 (en) 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
NL1021496C2 (nl) 2002-09-19 2004-03-22 Joannes Hermanus Heiligers Signaleringsinrichting en werkwijze voor het monitoren van alertheid van personen.
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
SE524003C2 (sv) 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US7206022B2 (en) 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
US6637883B1 (en) 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7306337B2 (en) 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US7762665B2 (en) * 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
AU2003901528A0 (en) 2003-03-31 2003-05-01 Seeing Machines Pty Ltd Eye tracking system and method
JP2004310470A (ja) 2003-04-07 2004-11-04 Advanced Telecommunication Research Institute International 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US7391888B2 (en) 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
US7145550B2 (en) 2003-08-08 2006-12-05 Lucent Technologies Inc. Method and apparatus for reducing repetitive motion injuries in a computer user
US20050047629A1 (en) 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
KR20050025927A (ko) 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
US7809160B2 (en) 2003-11-14 2010-10-05 Queen's University At Kingston Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7365738B2 (en) 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
US7561143B1 (en) 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
GB2412431B (en) 2004-03-25 2007-11-07 Hewlett Packard Development Co Self-calibration for an eye tracker
US7331671B2 (en) 2004-03-29 2008-02-19 Delphi Technologies, Inc. Eye tracking method based on correlation and detected eye movement
US20110077548A1 (en) 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
ZA200608191B (en) * 2004-04-01 2008-07-30 William C Torch Biosensors, communicators, and controllers monitoring eye movement and methods for using them
PT1607840E (pt) 2004-06-18 2015-05-20 Tobii Ab Controlo ocular de um computador
JP4560368B2 (ja) 2004-10-08 2010-10-13 キヤノン株式会社 眼検出装置および画像表示装置
US7676063B2 (en) 2005-03-22 2010-03-09 Microsoft Corp. System and method for eye-tracking and blink detection
CA2613999C (en) 2005-08-11 2013-01-15 Sleep Diagnostics Pty Ltd Alertness sensing spectacles
US7580545B2 (en) 2005-10-03 2009-08-25 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for determining gaze direction in a pupil detection system
WO2007056287A2 (en) 2005-11-04 2007-05-18 Eye Tracking, Inc. Generation of test stimuli in visual media
WO2007062478A1 (en) 2005-11-30 2007-06-07 Seeing Machines Pty Ltd Visual tracking of eye glasses in visual head and eye tracking systems
US7522344B1 (en) 2005-12-14 2009-04-21 University Of Central Florida Research Foundation, Inc. Projection-based head-mounted display with eye-tracking capabilities
DE102006002001B4 (de) 2006-01-16 2009-07-23 Sensomotoric Instruments Gmbh Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung
US7747068B1 (en) 2006-01-20 2010-06-29 Andrew Paul Smyth Systems and methods for tracking the eye
US9213404B2 (en) 2006-02-01 2015-12-15 Tobii Technology Ab Generation of graphical feedback in a computer system
WO2007092512A2 (en) 2006-02-07 2007-08-16 Attention Technologies, Inc. Driver drowsiness and distraction monitor
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US7986816B1 (en) 2006-09-27 2011-07-26 University Of Alaska Methods and systems for multiple factor authentication using gaze tracking and iris scanning
US7646422B2 (en) 2006-10-04 2010-01-12 Branislav Kisacanin Illumination and imaging system with glare reduction and method therefor
US8225229B2 (en) 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US7783077B2 (en) 2006-12-01 2010-08-24 The Boeing Company Eye gaze tracker system and method
KR100850357B1 (ko) 2006-12-06 2008-08-04 한국전자통신연구원 시선 위치 추적 방법 및 그 장치
US20080166052A1 (en) 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
CA2685976C (en) 2007-05-23 2013-02-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
US7556377B2 (en) 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
US20090196460A1 (en) 2008-01-17 2009-08-06 Thomas Jakobs Eye tracking system and method
US8494229B2 (en) 2008-02-14 2013-07-23 Nokia Corporation Device and method for determining gaze direction
CN101340562A (zh) * 2008-04-28 2009-01-07 安防科技(中国)有限公司 监控***与监控方法
TW200947262A (en) 2008-05-05 2009-11-16 Utechzone Co Ltd Non-contact type cursor control method using human eye, pupil tracking system and storage media
JP2010250789A (ja) * 2008-06-10 2010-11-04 Akira Tomono カメラ付き表示装置
TW201001236A (en) 2008-06-17 2010-01-01 Utechzone Co Ltd Method of determining direction of eye movement, control device and man-machine interaction system
WO2010003410A1 (en) 2008-07-08 2010-01-14 It-University Of Copenhagen Eye gaze tracking
US9007220B2 (en) 2008-07-18 2015-04-14 Optalert Pty Ltd Alertness sensing device
US7736000B2 (en) 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
TWI432172B (zh) 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
WO2010054473A1 (en) 2008-11-13 2010-05-20 Queen's University At Kingston System and method for integrating gaze tracking with virtual reality or augmented reality
US20100128118A1 (en) 2008-11-26 2010-05-27 Locarna Systems, Inc. Identification of visual fixations in a video stream
WO2010071928A1 (en) 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
CN102292017B (zh) 2009-01-26 2015-08-05 托比股份公司 由光学基准信号辅助的对凝视点的检测
US7819525B2 (en) 2009-02-15 2010-10-26 International Business Machines Corporation Automatic direct gaze detection based on pupil symmetry
CN101807110B (zh) 2009-02-17 2012-07-04 由田新技股份有限公司 瞳孔定位方法及***
US8398239B2 (en) * 2009-03-02 2013-03-19 Honeywell International Inc. Wearable eye tracking system
US20120007772A1 (en) 2009-03-16 2012-01-12 Paerssinen Aarno Tapio Controller for a Directional Antenna and Associated Apparatus and Methods
KR100949743B1 (ko) * 2009-03-20 2010-03-25 동국대학교 산학협력단 고글 형태를 갖는 착용형 시선 추적 장치 및 방법
TWI398796B (zh) 2009-03-27 2013-06-11 Utechzone Co Ltd Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
EP2237237B1 (en) 2009-03-30 2013-03-20 Tobii Technology AB Eye closure detection using structured illumination
ES2880475T3 (es) 2009-04-01 2021-11-24 Tobii Ab Sistema de representación visual con iluminadores para el seguimiento de la mirada
EP2238889B1 (en) 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker
WO2010118292A1 (en) 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
DE102009019476A1 (de) 2009-05-04 2010-11-11 Biametrics Marken Und Rechte Gmbh Wiedererkennbarer Träger für optische Meßverfahren
US20100295774A1 (en) 2009-05-19 2010-11-25 Mirametrix Research Incorporated Method for Automatic Mapping of Eye Tracker Data to Hypermedia Content
GB0909126D0 (en) 2009-05-27 2009-07-01 Qinetiq Ltd Eye tracking apparatus
US8320623B2 (en) 2009-06-17 2012-11-27 Lc Technologies, Inc. Systems and methods for 3-D target location
ES2669058T3 (es) 2009-07-16 2018-05-23 Tobii Ab Sistema y método de detección ocular que usa flujo de datos secuencial
TWI397865B (zh) 2009-08-12 2013-06-01 Utechzone Co Ltd Security personnel to monitor the degree of focus monitoring system
US20120314045A1 (en) 2009-08-26 2012-12-13 Ecole Polytechnique Federale De Lausanne (Epfl) Wearable systems for audio, visual and gaze monitoring
CN201477518U (zh) * 2009-08-31 2010-05-19 北京科技大学 一种基于瞳孔角膜反射方法的视线追踪装置
US8323216B2 (en) 2009-09-29 2012-12-04 William Fabian System and method for applied kinesiology feedback
CN101788848B (zh) * 2009-09-29 2012-05-23 北京科技大学 用于视线追踪***的眼部特征参数检测方法
KR101094766B1 (ko) * 2009-10-08 2011-12-20 동국대학교 산학협력단 시선 위치 추적 장치 및 방법
EP2309307B1 (en) 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
JP5613025B2 (ja) * 2009-11-18 2014-10-22 パナソニック株式会社 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置
EP2502410B1 (en) 2009-11-19 2019-05-01 eSight Corporation A method for augmenting sight
US20110170061A1 (en) 2010-01-08 2011-07-14 Gordon Gary B Gaze Point Tracking Using Polarized Light
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US8552850B2 (en) 2010-02-17 2013-10-08 Honeywell International Inc. Near-to-eye tracking for adaptive operation
KR101213596B1 (ko) * 2010-04-19 2012-12-24 국방과학연구소 헤드 트랙커 및 아이 트랙커가 통합된 시선 추적 시스템 및 그 방법
US20110262887A1 (en) 2010-04-21 2011-10-27 Lc Technologies Inc. Systems and methods for gaze based attention training
RU2016102317A (ru) * 2010-05-29 2018-11-21 Вэньюй ЦЗЯН Системы, способы и аппарат для создания и использования очков с адаптивной линзой на основе определения расстояния наблюдения и отслеживания взгляда в условиях низкого энергопотребления
CN101901485B (zh) 2010-08-11 2014-12-03 华中科技大学 3d自由头动式视线跟踪***
WO2012021967A1 (en) 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
WO2012083415A1 (en) 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking

Also Published As

Publication number Publication date
KR20140099899A (ko) 2014-08-13
US20150220779A1 (en) 2015-08-06
US10032074B2 (en) 2018-07-24
CN104094280A (zh) 2014-10-08
US20130114850A1 (en) 2013-05-09
JP2014532542A (ja) 2014-12-08
EP2776978A4 (en) 2015-08-05
WO2013070788A1 (en) 2013-05-16
US9390326B2 (en) 2016-07-12
US8929589B2 (en) 2015-01-06
EP2776978B1 (en) 2018-08-01
US20170116476A1 (en) 2017-04-27
KR101990559B1 (ko) 2019-06-18
EP2776978A1 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
JP6106684B2 (ja) 高分解能視線検出のためのシステムおよび方法
JP7443332B2 (ja) ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択
US10307053B2 (en) Method for calibrating a head-mounted eye tracking device
US20200241635A1 (en) Eye-tracking using images having different exposure times
JP6159263B2 (ja) 照射特性を調整可能にして少なくとも1つの眼における少なくとも1つのパラメータを捕捉する光学的測定装置及び方法
JP7423659B2 (ja) 眼姿勢を推定するためのシステムおよび技法
KR20200110367A (ko) 디스플레이 시스템들에서의 눈 회전 중심 결정, 깊이 평면 선택, 및 렌더 카메라 포지셔닝
US10698483B1 (en) Eye-tracking systems, head-mounted displays including the same, and related methods
US10599215B2 (en) Off-axis eye tracker
CN112602003B (zh) 具有场内微器件的照明组件
JP2022540675A (ja) 1つ以上の眼追跡カメラを用いた眼回転中心の決定
US11559201B1 (en) Systems and methods for eye tracking using modulated radiation
EP3614193A1 (en) Illumination assembly with in-field micro devices
JP6687195B2 (ja) 眼部画像処理装置
CN117836694A (zh) 眼镜设备和相关方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170306

R150 Certificate of patent or registration of utility model

Ref document number: 6106684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250