JP6329635B2 - 視線追跡 - Google Patents

視線追跡 Download PDF

Info

Publication number
JP6329635B2
JP6329635B2 JP2016553832A JP2016553832A JP6329635B2 JP 6329635 B2 JP6329635 B2 JP 6329635B2 JP 2016553832 A JP2016553832 A JP 2016553832A JP 2016553832 A JP2016553832 A JP 2016553832A JP 6329635 B2 JP6329635 B2 JP 6329635B2
Authority
JP
Japan
Prior art keywords
eye
stable
point
image
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016553832A
Other languages
English (en)
Other versions
JP2017515182A5 (ja
JP2017515182A (ja
Inventor
サシ ケー. サリパル,
サシ ケー. サリパル,
レザ アール. デラクシャニ,
レザ アール. デラクシャニ,
ヴィカス ゴッテムクラ,
ヴィカス ゴッテムクラ,
Original Assignee
アイベリファイ インコーポレイテッド
アイベリファイ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイベリファイ インコーポレイテッド, アイベリファイ インコーポレイテッド filed Critical アイベリファイ インコーポレイテッド
Publication of JP2017515182A publication Critical patent/JP2017515182A/ja
Publication of JP2017515182A5 publication Critical patent/JP2017515182A5/ja
Application granted granted Critical
Publication of JP6329635B2 publication Critical patent/JP6329635B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本願は、“Eyeprint Gaze Tracking”と題された、2014年2月25日に出願された、米国仮特許出願第61/944,438号に対する優先権および利益を主張するものであり、該仮出願の全体は、参照により本明細書中に援用される。
本開示は、概して、画像分析に関し、より具体的には、リアルタイム視線追跡のためのシステムおよび方法に関する。
眼追跡とは、眼の視線または移動を識別するプロセスを指す。最近、眼追跡技術のアクセス可能性は、ユーザインターフェース制御、ウェブ設計、広告、自動車工学、および多くの他の分野等の種々の分野において、その使用の急増をもたらしている。眼追跡技術の現在および潜在的用途の数を考慮して、眼追跡技法の正確度および効率の改良が、眼追跡機能性がウェアラブルおよび他のモバイルデバイス等の種々のタイプのデバイスの中に容易に組み込まれ得ることを確実にするためには、必須である。
白眼領域上の可視血管系の位置に基づく、視線追跡のためのシステムおよび方法が、説明される。追跡のために使用されるデジタル画像は、ウェアラブルコンピューティングデバイスまたはスマートフォンもしくはラップトップ等の他のデバイスの一部である、画像センサハードウェアから入手されることができる。
一側面では、コンピュータ実装方法は、少なくとも片方の眼の複数の画像を受信するステップと、少なくとも片方の眼の受信された画像毎に、少なくとも片方の眼の血管系と関連付けられた複数の安定血管点を識別するステップと、少なくとも片方の眼の受信された画像内で識別された安定血管点に基づいて、少なくとも片方の眼の凝視角を判定するステップとを含む。本側面の他の実施形態は、対応するシステムおよびコンピュータプログラムを含む。
一実装では、本方法はさらに、識別された安定血管点の周囲の複数の特徴記述子を抽出するステップと、特徴記述子および識別された安定血管点に基づいて、複数のテンプレートを作成するステップとを含む。本方法はさらに、テンプレートのうちの1つまたはそれを上回るものと1つまたはそれを上回る登録テンプレートをマッチングさせ、凝視角を判定することによって、凝視角を判定するステップを含むことができる。
別の実装では、本方法はさらに、眼の受信された画像のうちの1つまたはそれを上回るものに基づいて、1つまたはそれを上回る安定眼周囲アンカ点を識別するステップを含む。凝視角を判定するステップは、識別された安定血管点のうちの1つまたはそれを上回るものを経時的に追跡するステップと、安定眼周囲アンカ点のうちの1つまたはそれを上回るものに対する識別された安定血管点のうちの1つまたはそれを上回るものの変位に基づいて、凝視角を判定するステップとを含むことができる。特定の安定眼周囲アンカ点は、眼角および/または鼻柱等の眼球外部の他の目印を含むことができる。
さらなる実装では、本方法は、眼の特定の受信された画像内の白眼部分のコントラストを向上させるステップ、および/または眼の特定の受信された画像内の白眼部分から雑音(例えば、睫毛)を除去するステップを含む。本方法はさらに、眼の特定の受信された画像に基づいて、眼の虹彩の近似場所を判定するステップを含むことができる。
本明細書に説明される主題の1つまたはそれを上回る実装の詳細は、付随の図面および以下の説明に記載される。本主題の他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
コンピュータ実装方法であって、
少なくとも片方の眼の複数の画像を受信するステップと、
前記少なくとも片方の眼の受信された画像毎に、前記少なくとも片方の眼の血管系と関連付けられた複数の安定血管点を識別するステップと、
前記少なくとも片方の眼の前記受信された画像内の前記識別された安定血管点に基づいて、前記少なくとも片方の眼の凝視角を判定するステップと、
を含む、方法。
(項目2)
前記識別された安定血管点の周囲の複数の特徴記述子を抽出するステップと、
前記特徴記述子および識別された安定血管点に基づいて、複数のテンプレートを作成するステップと、
をさらに含む、項目1に記載の方法。
(項目3)
前記凝視角を判定するステップは、前記テンプレートのうちの1つまたはそれを上回るものと1つまたはそれを上回る登録テンプレートとをマッチングさせ、前記凝視角を判定するステップを含む、項目2に記載の方法。
(項目4)
前記少なくとも片方の眼の前記受信された画像のうちの1つまたはそれを上回るものに基づいて、1つまたはそれを上回る安定眼周囲アンカ点を識別するステップをさらに含む、項目1に記載の方法。
(項目5)
前記凝視角を判定するステップは、
前記識別された安定血管点のうちの1つまたはそれを上回るものを経時的に追跡するステップと、
前記安定眼周囲アンカ点のうちの1つまたはそれを上回るものに対する前記識別された安定血管点のうちの1つまたはそれを上回るものの変位に基づいて、前記凝視角を判定するステップと、
を含む、項目4に記載の方法。
(項目6)
特定の安定眼周囲アンカ点は、前記少なくとも片方の眼の眼角を含む、項目5に記載の方法。
(項目7)
前記識別された安定血管点は、左眼および右眼上の安定血管点を含み、前記安定眼周囲アンカ点は、前記左眼および前記右眼に対する安定眼周囲アンカ点を含む、項目5に記載の方法。
(項目8)
前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分のコントラストを向上させるステップと、
前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分から雑音を除去するステップと、
をさらに含む、項目1に記載の方法。
(項目9)
前記雑音は、睫毛を含む、項目8に記載の方法。
(項目10)
前記少なくとも片方の眼の特定の受信された画像に基づいて、前記少なくとも片方の眼の虹彩の近似場所を判定するステップをさらに含む、項目1に記載の方法。
(項目11)
システムであって、
少なくとも片方の眼の複数の画像を受信するステップと、
前記少なくとも片方の眼の受信された画像毎に、前記少なくとも片方の眼の血管系と関連付けられた複数の安定血管点を識別するステップと、
前記少なくとも片方の眼の前記受信された画像内の前記識別された安定血管点に基づいて、前記少なくとも片方の眼の凝視角を判定するステップと、
を含む、動作を行うようにプログラムされる1つまたはそれを上回るコンピュータを備える、システム。
(項目12)
前記動作はさらに、
前記識別された安定血管点の周囲の複数の特徴記述子を抽出するステップと、
前記特徴記述子および識別された安定血管点に基づいて、複数のテンプレートを作成するステップと、
を含む、項目11に記載のシステム。
(項目13)
前記凝視角を判定するステップは、前記テンプレートのうちの1つまたはそれを上回るものと1つまたはそれを上回る登録テンプレートとをマッチングさせ、前記凝視角を判定するステップを含む、項目12に記載のシステム。
(項目14)
前記動作はさらに、前記少なくとも片方の眼の前記受信された画像のうちの1つまたはそれを上回るものに基づいて、1つまたはそれを上回る安定眼周囲アンカ点を識別するステップを含む、項目11に記載のシステム。
(項目15)
前記凝視角を判定するステップは、
前記識別された安定血管点のうちの1つまたはそれを上回るものを経時的に追跡するステップと、
前記安定眼周囲アンカ点のうちの1つまたはそれを上回るものに対する前記識別された安定血管点のうちの1つまたはそれを上回るものの変位に基づいて、前記凝視角を判定するステップと、
を含む、項目14に記載のシステム。
(項目16)
特定の安定眼周囲アンカ点は、前記少なくとも片方の眼の眼角を含む、項目15に記載のシステム。
(項目17)
前記識別された安定血管点は、左眼および右眼上の安定血管点を含み、前記安定眼周囲アンカ点は、前記左眼および前記右眼に対する安定眼周囲アンカ点を含む、項目15に記載のシステム。
(項目18)
前記動作はさらに、
前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分のコントラストを向上させるステップと、
前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分から雑音を除去するステップと、
を含む、項目11に記載のシステム。
(項目19)
前記雑音は、睫毛を含む、項目18に記載のシステム。
(項目20)
前記動作はさらに、前記少なくとも片方の眼の特定の受信された画像に基づいて、前記少なくとも片方の眼の虹彩の近似場所を判定するステップを含む、項目11に記載のシステム。
図面中、同様の参照文字は、概して、異なる図全体を通して、同一部分を指す。また、図面は、必ずしも、正確な縮尺ではなく、代わりに、概して実装の原理の例証に強調が置かれる。以下の説明では、種々の実装は、以下の図面を参照して説明される。
図1は、ある実装による、視線追跡のためのシステムの例示的アーキテクチャを描写する、略図である。 図2−4は、種々の実装による、視線追跡のための例示的方法を描写する、フロー図である。 図2−4は、種々の実装による、視線追跡のための例示的方法を描写する、フロー図である。 図2−4は、種々の実装による、視線追跡のための例示的方法を描写する、フロー図である。 図5−6は、それぞれ、左および右眼の測定された視野角を描写する、略図である。 図5−6は、それぞれ、左および右眼の測定された視野角を描写する、略図である。 図7は、眼の画像上で行われる画像処理技法の例示的結果を描写する。
白眼内の可視血管系の固有の特徴は、眼の移動を追跡し、および/または視線(すなわち、方向点)を判定するために使用されることができる。例えば、個人の眼の白眼の画像が、複数の時間インスタンスにわたって得られ、着目血管点および他の眼特徴を識別するために分析されることができる。これらの特徴における経時的な移動または変化は、個人が特定の時間点に見ていた場所を判定するために使用されることができる。
可視血管系は、白眼内に見られる血管系に対応する。白眼は、いくつかの層を有する。強膜は、コラーゲンおよび弾性線維を含有する、主として不透明で線維性の眼の保護層である。強膜は、特に、それを通して、かつそれを覆って及ぶ、多数の血管および静脈を有する、結膜によって被覆される。上強膜は、瞼または瞼が開放されると環境と界面接触する薄い透明の膜である、眼球結膜によって被覆される。血管(一般に、血管系)、特に、眼球結膜および上強膜内のもののうちのいくつかは、可視であって、眼の画像内で検出されることができる。
図1は、視線追跡のための局在システムの一実装を図示する。ユーザデバイス100は、画像センサ130と、プロセッサ140と、メモリ150と、眼追跡構成要素160と、メモリ150を含む種々のシステム構成要素をプロセッサ140に結合する、システムバスとを含む。眼追跡構成要素160は、画像センサ130によって捕捉された画像上で動作を行う、ハードウェアおよび/またはソフトウェアモジュールを含むことができる。例えば、眼追跡構成要素160は、眼画像を処理および分析し、血管点を識別し、着目点周囲の特徴記述子を抽出し、血管点および特徴に基づいて、テンプレートを作成し、経時的にテンプレートに基づいて、眼移動を判定することができる。眼追跡構成要素160によって提供される機能性は、以下にさらに説明される視線追跡のための種々の方法を含むことができる。
ユーザの眼または複数の眼の画像は、画像センサ130、例えば、ユーザデバイス100と関連付けられたカメラを使用して捕捉される。ユーザデバイス100は、例えば、ウェアラブルデバイスおよび/またはモバイルデバイスを含むことができる。ユーザデバイス100の実施例として、限定ではないが、スマートフォン、スマートウォッチ、スマートグラス、タブレットコンピュータ、ラップトップ、ゲームデバイス、パームトップ、ポータブルコンピュータ、テレビ、携帯情報端末、ワイヤレスデバイス、ワークステーション、または本明細書に説明される機能性を実行することができる、汎用コンピュータもしくは特殊目的ハードウェアデバイスとして動作される、他のコンピューティングデバイスが挙げられ得る。
例証として、カメラは、デジタルカメラ、3次元(3D)カメラ、またはライトフィールドセンサであることができる。いくつかの実装では、カメラは、眼鏡の形状因子を伴うウェアラブルデバイス内の内向きモジュールであって、白眼の画像を捕捉するために使用されることができる。いくつかの実装では、ウェアラブルデバイス上の種々の場所における複数のカメラが、両方の眼の白眼を捕捉するためにともに使用されることができる。画像は、静止モードまたはビデオモードのいずれかで捕捉されることができる。ユーザが左または右を見ると、データ捕捉のために、白眼のより大きい面積が虹彩の右または左に暴露され得る一方、ユーザがカメラを真っ直ぐに見ると、白眼の2つのより小さい区画を各眼内の虹彩の左および右にもたらし得る。いくつかの実装では、取得された画像は、一方または両方の眼のRGB画像を得るためにクロップされる。したがって、本明細書で使用されるように、「画像」または「捕捉された画像」はまた、眼のクロップされたRGB画像も指し得る。
眼の画像に基づいて特徴を識別するために非常に好適な技術は、2013年2月5日に発行され、「Texture Features for Biometric Authentication」と題された米国特許第8,369,595号と、2014年5月9日に出願され、「Feature Extraction and Matching for Biometric Authentication」と題された米国特許出願第14/274,385号とに見出され得る(それらの全体が、参照することによって本明細書に組み込まれる)。例えば、画像鮮鋭化技法は、効率的特徴検出を補助することができる。血管点検出(VPD)技法は、眼の可視血管系から着目点を検出することができ、拡張多半径ローカルバイナリパターンのパターンヒストグラム(PH−EMR−LBP)、拡張多半径ローカルバイナリパターン(EMR−LBP)、拡張多半径中心対称ローカルバイナリパターン(EMR−CS−LBP)、および/または拡張多半径中心対称ローカルバイナリパターンのパターンヒストグラム(PH−EMR−CS−LBP)は、血管系の着目点を囲繞する画像の部分の特徴記述を効率的に提供することができる。可視血管系は、白眼を含むバイナリ画像マスクであって、眼球画像から白眼を囲繞する画像部分を除外することができる、強膜マスク内に封入される。マッチング技法は、外れ値検出を使用することによって、距離または相関ベースのマッチングの効率および/または正確度を改善することができる。組み込まれる参考文献に説明される技法もまた、参照画像(例えば、多くの場合、バイオメトリック認証のために使用される、登録および検証テンプレートを含む)から導出される、テンプレートの作成、更新、およびマッチングを可能にする。特定のテンプレートは、血管点等の着目点の集合ならびに対応する特徴記述子を含むことができる。
本明細書に説明されるシステムの実装は、適切なハードウェアまたはソフトウェアを使用することができる。例えば、システムは、Microsoft Windows(登録商標)オペレーティングシステム、Apple OSX(登録商標)オペレーティングシステム、Apple iOS(登録商標)プラットフォーム、Google Android(TM)プラットフォーム、Linux(登録商標)オペレーティングシステム、およびUNIX(登録商標)オペレーティングシステムの他のバリアント、ならびに同等物等のオペレーティングシステムを起動可能なソフトウェア上で実行することができる。システムは、メモリ150内に記憶され、プロセッサ140上で実行される、複数のソフトウェア処理モジュールを含むことができる。例証として、プログラムモジュールは、機械言語またはオブジェクトコードに変換され、プロセッサまたは複数のプロセッサが命令を実行することを可能にする、1つまたはそれを上回る好適なプログラミング言語の形態であることができる。ソフトウェアは、好適なプログラミング言語またはフレームワークで実装される、スタンドアロンアプリケーションの形態であることができる。
加えて、または代替として、機能性の一部または全部は、遠隔で、クラウド内で、またはサービスとしてのソフトウェア(Software−as−a−Service)を介して、行われることができる。例えば、ある機能(例えば、画像処理、テンプレート作成、テンプレートマッチング等)は、1つまたはそれを上回る遠隔サーバまたはユーザデバイス100と通信する他のデバイス上で行われることができる。遠隔機能性は、十分なメモリ、データ記憶、および処理能力を有し、サーバクラスオペレーティングシステム(例えば、Oracle(登録商標) Solaris(登録商標)、GNU/Linux(登録商標)、およびMicrosoft(登録商標) Windows(登録商標)系のオペレーティングシステム)を起動させる、サーバクラスコンピュータ上で実行することができる。サーバとユーザデバイスとの間の通信は、例えば、標準的電話回線、LANまたはWANリンク(例えば、Tl、T3、56kb、X.25)、ブロードバンド接続(ISDN、フレームリレー、ATM)、ワイヤレスリンク(802.11(Wi−Fi)、Bluetooth(登録商標)、GSM(登録商標)、CDMA等)等の媒体を経由して生じることができる。他の通信媒体も、検討される。ネットワークは、TCP/IPプロトコル通信およびウェブブラウザによって行われるHTTP/HTTPS要求を搬送することができ、ユーザデバイスとサーバとの間の接続は、そのようなTCP/IPネットワークを経由して通信されることができる。他の通信プロトコルも、検討される。
本明細書に説明される技法の方法ステップは、1つまたはそれを上回るコンピュータプログラムを実行し、入力データを操作し、出力を生成することによって、機能を果たす、1つまたはそれを上回るプログラマブルプロセッサによって行われることができる。方法ステップはまた、特殊目的論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によって行われることができ、モジュールは、そのようなものとして実装されることができる。モジュールは、コンピュータプログラムおよび/またはその機能性を実装するプロセッサ/特殊回路の一部を指すことができる。
コンピュータプログラムの実行のために好適なプロセッサは、一例として、汎用および特殊目的マイクロプロセッサの両方を含む。概して、プロセッサは、読取専用メモリまたはランダムアクセスメモリもしくは両方から命令およびデータを受信するであろう。コンピュータの必須要素は、命令を実行するためのプロセッサと、命令およびデータを記憶するための1つまたはそれを上回るメモリデバイスである。コンピュータプログラム命令およびデータを具現化するために好適な情報担体は、一例として、半導体メモリデバイス、例えば、EPROM、EEPROM、およびフラッシュメモリデバイス、磁気ディスク、例えば、内部ハードディスクまたは可撤性ディスク、光磁気ディスク、ならびにCD−ROMおよびDVD−ROMディスクを含む、あらゆる形態の不揮発性メモリを含む。1つまたはそれを上回るメモリは、プロセッサによって実行されると、モジュールおよび本明細書に説明される他の構成要素を形成し、構成要素と関連付けられた機能性を果たす、命令を記憶することができる。プロセッサおよびメモリは、特殊目的論理回路によって補完される、またはその中に組み込まれることができる。
システムはまた、分散型コンピューティング環境において実践されることができ、タスクは、通信ネットワークを通してリンクされる遠隔処理デバイスによって行われる。分散型コンピューティング環境では、プログラムモジュールは、メモリ記憶デバイスを含む、ローカルおよび遠隔両方のコンピュータ記憶媒体内に位置することができる。本明細書に説明されるもの以外のタイプのシステムハードウェアおよびソフトウェアもまた、デバイスの容量および要求されるデータ処理能力の量に応じて、使用されることができる。システムはまた、前述のもの等の仮想化されたオペレーティングシステムを実行し、本明細書に説明されるもの等のハードウェアを有する1つまたはそれを上回るコンピュータ上で動作する、1つまたはそれを上回る仮想機械上に実装されることができる。
また、システムおよび方法の実装は、1つまたはそれを上回る製造品上もしくはその中に具現化される1つまたはそれを上回るコンピュータ可読プログラムとして提供されることができることに留意されたい。プログラム命令は、データ処理装置による実行のために好適な受信機装置への伝送のために、情報をエンコードするために生成される、人工的に生成される伝搬信号、例えば、機械生成電気、光学、または電磁信号上にエンコードされることができる。コンピュータ記憶媒体は、コンピュータ可読記憶デバイス、コンピュータ可読記憶基板、ランダムまたはシリアルアクセスメモリアレイもしくはデバイス、またはそれらのうちの1つまたはそれを上回るものの組み合わせである、またはその中に含まれることができる。さらに、コンピュータ記憶媒体は、伝搬信号ではないが、コンピュータ記憶媒体は、人工的に生成される伝搬信号内にエンコードされるコンピュータプログラム命令源またはその宛先であることができる。コンピュータ記憶媒体はまた、1つまたはそれを上回る別個の物理的構成要素もしくは媒体(例えば、複数のCD、ディスク、または他の記憶デバイス)である、またはその中に含まれることができる。
図2は、視線追跡のための方法の一実装を描写する。ステップ202では、眼追跡構成要素160は、眼の画像を受信する。画像は、例えば、ユーザデバイス100の画像センサ130から受信されることができる。画像は、カラーまたはグレースケールであることができる。ステップ206では、眼追跡構成要素160は、コンピュータ視覚アルゴリズムを実行し、1つまたはそれを上回る安定眼周囲アンカ点(例えば、下瞼、眼角、鼻柱等上の点)を検出し、画像をレジスタする。眼角の検出は、例えば、テンプレート相関または眼形状検出方法を使用して達成されることができる。画像処理アルゴリズムが、実行され、画像内の白眼部分のコントラストを向上させ(ステップ210)、例えば、所定のGaborフィルタを使用して、白眼部分から睫毛等の雑音要素を除去する(ステップ214)ことができる。
ステップ218では、眼追跡構成要素160は、虹彩を含む画像内の白眼部分の垂直投影を計算する。垂直投影は、強膜および虹彩マスク内の領域を利用したグレースケールまたはカラー画像のいずれかにおける強度画素の列平均である。マスクは、画像の虹彩構造の瞳孔領域および他の部分を除外する、バイナリマスクであることができる。強膜および虹彩マスク内の画像領域の投影は、強膜マスク幅に基づいてある長さを伴う、単次元ベクトルをもたらす。信号の長さをNとする。一実装では、スライディングウィンドウ技法が、垂直投影(M=m1、m2、m3、...、mN)の平均値を計算するために、単次元ベクトルの長さの1/10に等しいウィンドウサイズと併用される。結果として生じる信号は、ある閾値を上回って留保され、信号内の平均値の残りは、抑制される。閾値は、閾値=最大値(M)=範囲(M)として計算されることができる。閾値化後に留保された平均値内のピークは、虹彩辺縁境界の近似場所および虹彩の長軸と短軸等の他の情報を提供する。
虹彩の周囲の辺縁境界および虹彩自体の中心もまた、付加的補助点として使用され、例えば、十分なVPD点が利用可能ではないとき、凝視角検出を向上させることができる。余剰眼球参照点は、瞼下または鼻柱上の肌質等の眼角または他の安定構造等の眼周囲目印から生成されることができる。一実装では、ユーザの眼周囲着目領域からの画像テンプレートは、アンカ点テンプレートとしてレジスタおよび記憶されることができる。視線追跡の間、これらのテンプレートは、頭部の移動にかかわらず、視線情報を入手するために、それらの余剰眼球参照点の場所を正確に復元するためにマッチングされることができる。種々の方法が、次いで、可視血管系上にラッチされた血管着目点を識別し(ステップ224)、視線を判定する(ステップ226)ために使用されることができる。例えば、安定かつ確実な血管系点を識別するために、血管点検出器(VPD)または加速セグメントテストに基づく特徴抽出(FAST)等の着目点検出器が、使用されることができる。
図3は、ステップ226における視線を判定するステップの一実装を描写する。眼追跡構成要素160は、検出された着目点の周囲の1つまたはそれを上回る特徴記述子を抽出する(ステップ302)。一実施例では、使用される特徴記述子は、PH−EMR−LBPおよび/またはPH−EMR−CS−LBPである。これらの記述子は、白眼上の血管系の可視性が一貫しておらず環境およびセンサ雑音が予期されることを考慮して使用される。ステップ306では、1つまたはそれを上回るテンプレートが、視線毎に作成され、各テンプレートは、着目点場所および対応する局所特徴を含む。登録プロセスでは、ユーザは、視覚的キューによって補助されながら、種々の角度で凝視するように求められる。一実施例では、これらの視覚的キューは、ウェアラブルデバイスのレンズ上に投影される。視線毎に、可視白眼の面積が変化し、可視血管系の異なるパターンをもたらす。可視血管系の情報の変化に起因して、テンプレートまたは複数のテンプレートが、各視線に付随する。作成されたテンプレートは、眼周囲参照点の前述のテンプレートとともに、次いで、対応する検証テンプレートとマッチングされ、凝視角を判定することができる(ステップ310)。
図4は、ステップ226における視線を判定するステップの別の実装を描写する。眼追跡構成要素160は、着目点検出器を使用して識別された安定血管系点を経時的に追跡する(ステップ402)。血管系点は、リアルタイムで継続的に、または測定間に遅延を伴って周期的ベースで追跡されることができる。ステップ406では、視線は、安定眼周囲点に対する複数の点の変位(オプティカルフロー)に基づいて判定される。例えば、視線は、前述のように、眼角(アンカ点)と1つまたはそれを上回る安定血管系点との間の相対的な距離および角度の測定値に基づいて、追跡されることができる。
眼角は、種々の技法を使用して測定されることができる。一実装では、目頭および目尻(内側眼角および外側眼角)の近似場所が、Gaborカーネルによってフィルタ処理された前処理画像上の上瞼および下瞼に適合された放物線の交差点を使用して推定されることができる。別の実装では、前述のプロセスから計算される内側眼角および外側眼角の場所は、以下の技法を使用して改善されることができる。ユーザを登録する際、眼角の(マルチスケール)テンプレートを見出す(例えば、ローカルバイナリパターン(LBP)、指向性LBP(OLBP)、PH−EMR−CS−LBP、またはPH−EMR−LBPを使用して)。検証時、マルチスケールスライディング相関を介してそれらをその登録テンプレートとマッチングすることにより、検証眼角場所を調整することによって、登録の際の眼角テンプレートを使用して放物線適合から導出されたアンカ点の場所を微調整する。辺縁境界、虹彩中心、鼻、肌質等の他の安定場所も、アンカ点として、類似方式で使用されることができる。他の実装では、これらのアンカ点は、オプティカルフロー等の方法を使用して、リアルタイムで追跡されることができる。
一実装では、はっきりとした血管点は、識別された血管点の周囲の局所記述子(例えば、PH−EMR−LBP、PH−EMR−CS−LBP、加速ロバスト特徴(SURF)、LBP、および勾配方向ヒストグラム(HoG))からの情報(例えば、FAST、VPD等を使用して得られた)を使用して識別されることができる。別の実装では、辺縁境界近傍の単一安定点の代わりに、着目領域からの複数の安定点が、1つまたはそれを上回るアンカ点からの変位および角度に基づいて、視線を判定するために使用されることができる。
(例示的実装)
(較正およびデータ収集)
一実装では、システムを較正するために、標的が、眼の照準線から5度間隔で置かれた。対象は、その際、他方の眼を閉じて、片眼を使用して標的を見るように求められた。左眼の可動範囲は、−45度〜+30度(図5参照)であって、右眼の可動範囲は、−30度〜+45度(図6参照)であることが観察された。
ビデオモードにおいて120フレーム/秒(fps)のApple(登録商標)iPhone(登録商標)5Sからの裏面内蔵カメラが、データを収集するために使用された(しかしながら、異なるfpsでビデオモードにおいて種々の分解能を伴うビデオカメラもまた、使用されることができることに留意されたい)。眼領域が、フルフレームから手動でクロップされた。代替として、HaarまたはHaar様フィルタを使用した眼クロップ方法も、眼領域を自動的に検出するように訓練されることができる。楕円形の推定に基づく、セグメント化アルゴリズムが、白眼(着目領域(ROI))を抽出するために使用された。図7に示されるように、睫毛が、検出され、Gaborベースのフィルタ処理方法を使用して、抽出されたROIから除去された。Gaborフィルタ後に、ヒストグラムクリッピングもさらに、ROI内の雑音画素(睫毛)を排除するために使用された。xおよびy方向に調節可能波長ならびに拡散を伴う、種々の配向における一式の複合Gaborフィルタが、ROI内の線および曲線構造を検出するために使用されることができる。さらに、検出された画素は、クリッピングされたある閾値を上回るヒストグラムおよび値に群化されることができる。
(着目点検出および特徴抽出)
種々の点検出アルゴリズムが、潜在的に、ROI内の血管系点近傍として識別する、突出点を識別するために使用されることができる。一実施例は、ROI内の血管構造および安定血管点を識別することができる画像構文解析アルゴリズムである、VPDアルゴリズムである。SURFアルゴリズムは、Hessianマトリクスの行列式を使用して、着目点を識別するために使用されることができる、別の点検出アルゴリズムである。FASTアルゴリズムは、所定の画素近傍内のある数の連続的画素が中心点より明るいまたは暗い場合、画素を「角(corner)」点として標識する、別の着目点ファインダである。Harris and Stephens(HS)アルゴリズムは、それらに小規模ウィンドウを合わせ、異なる方向にウィンドウを移動させ、局所近傍内の自己相関を計算することによって、着目点を見出す、別の角検出アルゴリズムである。前述の近傍自己相関マトリクスの固有値に基づいて、着目点が、角に割り当てられる。
着目点が、前述のもの等の1つまたはそれを上回る点検出アルゴリズムを使用して識別された後、一式の局所画像記述子が、各候補点を囲繞するROI位置関係から得られる。これらの局所画像パッチ記述子は、種々のアルゴリズムを使用して生成されることができる。HoGは、勾配方向のヒストグラムを計算する、そのようなアルゴリズムの1つである。SURFは、スケール不変特徴変換(SIFT)記述子を構築するが、Haarウェーブレットおよび積分画像を使用して、より優れた算出効率を伴う。ローカルバイナリパターン(LBP)および指向性ローカルバイナリパターン(DLBP)は、2つの他のバイナリ画像特徴抽出器である。一実装では、LBPヒストグラム(HLBP)およびDLBPヒストグラム(HDLBP)が、以下にさらに詳細に説明される、特徴記述子アルゴリズムとして使用される。他の特徴記述子アルゴリズムまたはそのようなアルゴリズムの組み合わせも、ROIの着目点周辺の画像記述子を生成するために使用されることができる。
LBP記述子は、以下のように、着目点の周囲で計算されることができる。現在の着目点が画素場所(x0,y0)にあると仮定する。中心点(x0,y0)の直近の8つの近傍{(xi,yi)}(i=1,2,...,8)の強度値が、中心点のものと比較され、結果(0または1)が、Ki内に記憶される。最終的に、(x0,y0)のLBP8(8ビットコード)が、以下のように求められる。
一実装では、同一プロセスが、LBP8の外側正方形内の画素に対して繰り返され、同一の所与の着目点に対して16ビット(2バイト)LBP16コードを作成することができる。したがって、着目点毎に合計3バイトのLBPコードを生成する。プロセスは、(x0,y0)の5×5画素近傍に繰り返され、所与の中心点の周囲に前述のLBP8(1バイト)+LBP16(2バイト)計算の合計5×5=25反復をもたらし、(x0,y0)等の着目点毎に3x25=75バイトバイナリ記述子を生じさせる。
前述のように、DLBPは、LBPに類似するが、しかしながら、対の画素比較毎の参照点は、中心点の強度値の代わりに、着目中心点の8または16近傍内の対角線上に対向する画素であって、LBP特徴と比較して半分のビット数をもたらす。LBPおよびDLBP記述子は両方とも、バイナリ数である。
前述のように、HoGは、着目点の周囲に定義されたあるサイズ(画素単位)の近傍を使用して計算される。その近傍は、所定の数のサブ領域に分割され、ある角度におけるエッジ配向のヒストグラムが、作成され、集合的に、その着目点に対するローカル記述子として使用される。これらのヒストグラムベースの記述子は、実数ベクトルである。一実装では、サイズ4×4画素の近傍は、それぞれ30度離れた6つにビン化された配向のヒストグラムを伴う、2×2のサブ領域にタイル化され、特徴記述子として使用される。一実装では、6つのビン(それぞれ30度離れている)にビン化された配向のヒストグラムを伴う、3×3サブ領域にタイル化されたサイズ4×4画素の近傍が、特徴記述子として使用されることができる。
前述のように、HoGに類似する、HLBP記述子は、着目点の周囲のあるサイズ(画素単位)の近傍を使用して計算される。その近傍は、所定の数のサブ領域に分割され、その中で、LBPコードが、上記につき作成される。次に、ヒストグラムを作成するために、各ビット位置の発生に関するカウントが、生成される。LBPコードのこれらのヒストグラムの連結は、HLBP特徴を作成する。これらの記述子は、実数ベクトルである。サイズm×m(m=4,5,…,11)画素の近傍が、n×n(n=2,3,…,7)の重複サブ領域(タイル)にタイル化され、各LBPビット位置の発生のヒストグラムは、特徴記述子として使用される。
一実装では、サイズ9×9画素(そのLBP8およびLBP16コードは、すでに生成されている)の近傍は、それぞれ1画素重複して、16の3×3サブ領域にタイル化される。LBP8およびLBP16の各サブ領域のストリングは、長さ9の符号なし8ビット数に変換される。これらの符号なし8ビット数は、符号なし16ビット数のストリングに変換され、さらに、各ビット位置の発生のヒストグラムが、計算される(長さ16ビットのベクトルをもたらす)。最後に、各サブ領域は、16サブ領域を使用して512の最終HLBP長さをもたらすように連結される、LBP8およびLBP16からの長さ16の2つのベクトルを有するであろう。
PH−EMR−LBP記述子は、着目点の周囲のあるサイズ(画素単位)の近傍を使用して計算される。近傍内の画素毎に、LBPが、3×3および5×5ブロック等の複数の半径にわたって計算され、単一特徴を得るために連結される(EMR−LBP)。定義された近傍はさらに、重複サブ領域に分割される。サブ領域内の各ビット位置の発生に関するカウントが、計算され、ヒストグラムを生成する。全サブ領域を横断するEMR−LBPコードのこれらのヒストグラムの連結は、PH−EMR−LBP特徴として定義される。
PH−EMR−CS−LBPは、着目点周囲の固定近隣内で計算される。最初に、本実装では、対の画素比較毎の参照点は、中心点の強度値の代わりに、着目中心点の8画素または16画素近傍内の対角線上に対向する画素を含み、それによって、EMR−LBP特徴と比較して半分のビット数をもたらす(EMR−CS−LBP)。次に、定義された近傍は、所定の数の重複サブ領域に分割される。サブ領域内の各ビット位置の発生に関するカウントが、生成される。EMR−CS−LBPコードのこれらのヒストグラムの連結は、PH−EMR−CS−LBP特徴を提供することができる。
いくつかの実装では、着目点の周囲の画像パッチに関する特徴記述子は、前述のように、単一特徴記述子アルゴリズムまたは複数の異なる特徴記述子アルゴリズムから導出されることができる。他の実装では、特徴記述子は、複数の画像スケールにおいて、候補点の周囲で導出されることができる(マルチスケール特徴抽出)。例えば、3段階ガウス画像ピラミッドを使用して、着目点およびその対応するローカル画像記述子を検出してもよい。
(テンプレートマッチング)
テンプレートマッチングは、ユーザに対する(1つまたはそれを上回る)保存された登録テンプレートと(1つまたはそれを上回る)検証テンプレートとの間の類似性を見出すプロセスである。検証テンプレートと登録テンプレートの類似性(マッチスコアとして表される)が、閾値を超える場合、検証は、成功である。そうでなければ、検証は、失敗である。ハミング距離(短いほど良好である)が、登録テンプレートと検証テンプレートとの間の最良マッチング点対を見出すために、バイナリ記述子(高速網膜キーポイント(FREAK)、DLBP、LBP)に対して計算される。実数値記述子ベクトルのために、登録テンプレートのSURF、HoG、PH−EMR−LBP、および/またはPH−EMR−CS−LBP記述子間のユークリッド、マンハッタン、相関、またはマハラノビス距離が、検証テンプレートの個別のSURF、HoG、PH−EMR−LBP、および/またはPH−EMR−CS−LBP記述子と比較され、所与の閾値を満たすかどうかを判定することができる。他の距離測定も、検討される。視線が、次いで、一部または全部の視線方向に関して記憶されたテンプレートに対して得られた最高マッチスコアに基づいて判定されることができる。
本明細書に採用される用語および表現は、限定ではなく、説明の用語および表現として使用され、そのような用語および表現の使用において、図示および説明される特徴またはその一部の任意の均等物を除外することを意図するものではない。加えて、本開示においてある実装が説明されたが、本明細書に開示される概念を組み込む他の実装も、本発明の精神および範囲から逸脱することなく、使用されることができることが当業者に明白となるであろう。種々の実装の特徴および機能は、種々の組み合わせおよび順列において配列されることができ、全て、開示される発明の範囲内にあると見なされるべきである。故に、説明される実装は、あらゆる点において、制限ではなく、例証であると見なされるものとする。本明細書に説明される構成、材料、および寸法もまた、いかようにも限定として意図されず、例証として意図される。同様に、物理的説明が、説明目的のために提供されたが、任意の特定の理論またはメカニズムによって制限されることは意図されておらず、または、そのような理論またはメカニズムそれに従って請求項を限定することは意図されていない。

Claims (18)

  1. コンピュータ実装方法であって、
    複数の定義された角度で凝視するようにユーザに指示することと、
    第1の期間中に、前記複数の定義された角度内の各角度に対して、前記角度で凝視する前記ユーザの少なくとも片方の眼の少なくとも1つの画像を受信することと、
    前記複数の定義された角度内の各角度に対して、前記角度で凝視する前記ユーザの少なくとも片方の眼の少なくとも1つの画像に基づいて、眼血管の着目点場所と、対応する局在特徴とを備える少なくとも1つの登録テンプレートを作成することと、
    第2の、後の期間中に、前記ユーザの少なくとも片方の眼の少なくとも1つの画像を受信することと、
    前記第2の、後の期間中に受信された前記少なくとも片方の眼の少なくとも1つの画像に対して、前記少なくとも片方の眼の血管系と関連付けられた複数の安定血管点を識別することと、
    前記第2の、後の期間中に受信された前記少なくとも1つの画像において識別された前記安定血管点に基づいて、少なくとも1つの検証テンプレートを作成することと、
    前記少なくとも1つの検証テンプレートを前記少なくとも1つの登録テンプレートにマッチングさせることに基づいて、前記少なくとも片方の眼の凝視角を判定することと
    を含む、方法。
  2. 前記識別された安定血管点の周囲の複数の特徴記述子を抽出することをさらに含み、前記少なくとも1つの検証テンプレートを作成することは、前記特徴記述子および識別された安定血管点に基づいて、複数のテンプレートを作成することを含む、請求項1に記載の方法。
  3. 前記少なくとも片方の眼の前記受信された画像のうちの1つ以上に基づいて、1つ以上の安定眼周囲アンカ点を識別することをさらに含む、請求項1に記載の方法。
  4. 記識別された安定血管点のうちの1つ以上を経時的に追跡することと、
    前記安定眼周囲アンカ点のうちの1つ以上に対する前記識別された安定血管点のうちの1つ以上の変位に基づいて、前記少なくとも片方の眼の凝視角を判定することと
    さらに含む、請求項に記載の方法。
  5. 特定の安定眼周囲アンカ点は、前記少なくとも片方の眼の眼角を含む、請求項に記載の方法。
  6. 前記識別された安定血管点は、左眼および右眼上の安定血管点を含み、前記安定眼周囲アンカ点は、前記左眼および前記右眼に対する安定眼周囲アンカ点を含む、請求項に記載の方法。
  7. 前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分のコントラストを向上させることと、
    前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分から雑音を除去することと
    をさらに含む、請求項1に記載の方法。
  8. 前記雑音は、睫毛を含む、請求項に記載の方法。
  9. 前記少なくとも片方の眼の特定の受信された画像に基づいて、前記少なくとも片方の眼の虹彩の近似場所を判定することをさらに含む、請求項1に記載の方法。
  10. システムであって、
    複数の定義された角度で凝視するようにユーザに指示することと、
    第1の期間中に、前記複数の定義された角度内の各角度に対して、前記角度で凝視する前記ユーザの少なくとも片方の眼の少なくとも1つの画像を受信することと、
    前記複数の定義された角度内の各角度に対して、前記角度で凝視する前記ユーザの少なくとも片方の眼の少なくとも1つの画像に基づいて、眼血管の着目点場所と、対応する局在特徴とを備える少なくとも1つの登録テンプレートを作成することと、
    第2の、後の期間中に、前記ユーザの少なくとも片方の眼の少なくとも1つの画像を受信することと、
    前記第2の、後の期間中に受信された前記少なくとも片方の眼の少なくとも1つの画像に対して、前記少なくとも片方の眼の血管系と関連付けられた複数の安定血管点を識別することと、
    前記第2の、後の期間中に受信された前記少なくとも1つの画像において識別された前記安定血管点に基づいて、少なくとも1つの検証テンプレートを作成することと、
    前記少なくとも1つの検証テンプレートを前記少なくとも1つの登録テンプレートにマッチングさせることに基づいて、前記少なくとも片方の眼の凝視角を判定することと
    を含む動作を行うようにプログラムされ1つ以上のコンピュータを備える、システム。
  11. 前記動作はさらに、前記識別された安定血管点の周囲の複数の特徴記述子を抽出することを含み、前記少なくとも1つの検証テンプレートを作成することは、前記特徴記述子および識別された安定血管点に基づいて、複数のテンプレートを作成することを含む、請求項10に記載のシステム。
  12. 前記動作はさらに、前記少なくとも片方の眼の前記受信された画像のうちの1つ以上に基づいて、1つ以上の安定眼周囲アンカ点を識別することを含む、請求項10に記載のシステム。
  13. 前記動作さらに
    前記識別された安定血管点のうちの1つ以上を経時的に追跡することと、
    前記安定眼周囲アンカ点のうちの1つ以上に対する前記識別された安定血管点のうちの1つ以上の変位に基づいて、前記少なくとも片方の眼の凝視角を判定することと
    を含む、請求項12に記載のシステム。
  14. 特定の安定眼周囲アンカ点は、前記少なくとも片方の眼の眼角を含む、請求項13に記載のシステム。
  15. 前記識別された安定血管点は、左眼および右眼上の安定血管点を含み、前記安定眼周囲アンカ点は、前記左眼および前記右眼に対する安定眼周囲アンカ点を含む、請求項13に記載のシステム。
  16. 前記動作はさらに、
    前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分のコントラストを向上させることと、
    前記少なくとも片方の眼の特定の受信された画像内の前記少なくとも片方の眼の白眼部分から雑音を除去することと
    を含む、請求項10に記載のシステム。
  17. 前記雑音は、睫毛を含む、請求項16に記載のシステム。
  18. 前記動作はさらに、前記少なくとも片方の眼の特定の受信された画像に基づいて、前記少なくとも片方の眼の虹彩の近似場所を判定することを含む、請求項10に記載のシステム。
JP2016553832A 2014-02-25 2015-02-25 視線追跡 Active JP6329635B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461944438P 2014-02-25 2014-02-25
US61/944,438 2014-02-25
PCT/US2015/017604 WO2015130849A1 (en) 2014-02-25 2015-02-25 Eye gaze tracking

Publications (3)

Publication Number Publication Date
JP2017515182A JP2017515182A (ja) 2017-06-08
JP2017515182A5 JP2017515182A5 (ja) 2018-04-05
JP6329635B2 true JP6329635B2 (ja) 2018-05-23

Family

ID=52669667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016553832A Active JP6329635B2 (ja) 2014-02-25 2015-02-25 視線追跡

Country Status (8)

Country Link
US (1) US9939893B2 (ja)
EP (1) EP3111421A1 (ja)
JP (1) JP6329635B2 (ja)
KR (1) KR101950562B1 (ja)
CN (1) CN106133752B (ja)
BR (1) BR112016019529B1 (ja)
MY (1) MY180872A (ja)
WO (1) WO2015130849A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529428B1 (en) * 2014-03-28 2016-12-27 Amazon Technologies, Inc. Using head movement to adjust focus on content of a display
EP3112922A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing A gaze tracking device and a head mounted device embedding said gaze tracking device
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
EP3347853A1 (en) * 2015-09-11 2018-07-18 EyeVerify Inc. Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric systems
US10445606B2 (en) * 2015-10-08 2019-10-15 Microsoft Technology Licensing, Llc Iris recognition
CN105577886A (zh) * 2015-12-16 2016-05-11 努比亚技术有限公司 移动终端解锁装置及方法
JP2017151556A (ja) * 2016-02-22 2017-08-31 富士通株式会社 電子機器、認証方法および認証プログラム
NZ756561A (en) 2016-03-04 2023-04-28 Magic Leap Inc Current drain reduction in ar/vr display systems
NZ746514A (en) 2016-03-25 2020-03-27 Magic Leap Inc Virtual and augmented reality systems and methods
US10372205B2 (en) * 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
WO2017205789A1 (en) 2016-05-27 2017-11-30 Pelz Jeff B System and method for eye tracking
WO2018016209A1 (ja) * 2016-07-20 2018-01-25 富士フイルム株式会社 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム
US10573042B2 (en) * 2016-10-05 2020-02-25 Magic Leap, Inc. Periocular test for mixed reality calibration
CN106990839B (zh) * 2017-03-21 2020-06-05 张文庆 一种眼球识别多媒体播放器及其实现方法
CN107862673B (zh) * 2017-10-31 2021-08-24 北京小米移动软件有限公司 图像处理方法及装置
JP7320283B2 (ja) * 2018-06-12 2023-08-03 国立大学法人 筑波大学 眼球運動測定装置、眼球運動測定方法及び眼球運動測定プログラム
US11966055B2 (en) 2018-07-19 2024-04-23 Magic Leap, Inc. Content interaction driven by eye metrics
JP7382387B2 (ja) 2018-07-24 2023-11-16 マジック リープ, インコーポレイテッド ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
TWI685772B (zh) * 2018-11-23 2020-02-21 國立臺灣大學 取得眼球追蹤位置的影像運算方法和其系統
JP2021039654A (ja) * 2019-09-05 2021-03-11 フリュー株式会社 画像処理装置、画像処理方法、およびプログラム
CN110969084B (zh) * 2019-10-29 2021-03-05 深圳云天励飞技术有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备
CN112883767B (zh) * 2019-11-29 2024-03-12 Oppo广东移动通信有限公司 眼跳图像的处理方法及相关产品
KR102396519B1 (ko) 2020-08-18 2022-05-11 고려대학교 산학협력단 Mri 환경에서 실시간 시야 변화 추적 기반 360° 파노라마 비디오 제공 방법, 이를 수행하기 위한 기록 매체 및 장치
WO2022066431A1 (en) * 2020-09-22 2022-03-31 Sterling Labs Llc Multiple gaze dependent illumination sources for retinal eye tracking
US20230222197A1 (en) 2022-01-07 2023-07-13 Jumio Corporation Biometric Authentication Using Head-Mounted Devices
CN115984952B (zh) * 2023-03-20 2023-11-24 杭州叶蓁科技有限公司 基于球结膜血管图像识别的眼动跟踪***及其方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10297574B4 (de) * 2001-12-21 2009-09-10 Sensomotoric Instruments Gmbh Verfahren und Vorrichtung zur Augenerfassung
US20040196399A1 (en) * 2003-04-01 2004-10-07 Stavely Donald J. Device incorporating retina tracking
ES2253139T3 (es) * 2003-04-11 2011-07-06 BAUSCH & LOMB INCORPORATED Sistema y método para adquirir datos de un ojo.
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
JP5092120B2 (ja) * 2006-10-17 2012-12-05 国立大学法人東京工業大学 眼球運動計測装置
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
CN102245085B (zh) * 2008-10-14 2015-10-07 俄亥俄大学 利用眼跟踪的认知和语言评估
CN201767950U (zh) * 2009-10-22 2011-03-23 哈尔滨理工大学 球结膜微循环生物信息采集用眼球固定器
US9433345B2 (en) * 2012-02-24 2016-09-06 University Of Tsukuba Cycloduction measurement device, cycloduction measurement method, and cycloduction measurement program
US8369595B1 (en) 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication

Also Published As

Publication number Publication date
KR20160124870A (ko) 2016-10-28
US20150241967A1 (en) 2015-08-27
US9939893B2 (en) 2018-04-10
MY180872A (en) 2020-12-10
WO2015130849A1 (en) 2015-09-03
BR112016019529A2 (ja) 2017-08-15
KR101950562B1 (ko) 2019-02-20
EP3111421A1 (en) 2017-01-04
BR112016019529A8 (pt) 2022-12-13
CN106133752A (zh) 2016-11-16
CN106133752B (zh) 2019-08-30
BR112016019529B1 (pt) 2023-03-07
JP2017515182A (ja) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6329635B2 (ja) 視線追跡
US11227158B2 (en) Detailed eye shape model for robust biometric applications
JP7136875B2 (ja) 眼の特徴を用いる眼ポーズ識別
CN107111753B (zh) 用于注视跟踪模型的注视检测偏移
JP6039863B2 (ja) バイオメトリック認証のための特徴抽出およびマッチングおよびテンプレート更新
US9286694B2 (en) Apparatus and method for detecting multiple arms and hands by using three-dimensional image
KR102290392B1 (ko) 얼굴 등록 방법 및 장치, 얼굴 인식 방법 및 장치
US20220301217A1 (en) Eye tracking latency enhancements
CA3071819A1 (en) Detailed eye shape model for robust biometric applications
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
KR101628493B1 (ko) 안경 착용자의 시선 추적 장치 및 그 방법
Jillela et al. Iris segmentation for challenging periocular images
KR20180090072A (ko) 홍채 인식 장치 및 방법
US10176374B2 (en) Image processing method and apparatus
Mehrübeoglu et al. Real-time iris tracking with a smart camera
Roy et al. Improvement of iris recognition performance using region-based active contours, genetic algorithms and SVMs
KR101828340B1 (ko) 객체 추출 방법 및 그 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180222

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180222

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180420

R150 Certificate of patent or registration of utility model

Ref document number: 6329635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250