JP2015207290A - 自動ゲイズ・キャリブレーション - Google Patents

自動ゲイズ・キャリブレーション Download PDF

Info

Publication number
JP2015207290A
JP2015207290A JP2015086896A JP2015086896A JP2015207290A JP 2015207290 A JP2015207290 A JP 2015207290A JP 2015086896 A JP2015086896 A JP 2015086896A JP 2015086896 A JP2015086896 A JP 2015086896A JP 2015207290 A JP2015207290 A JP 2015207290A
Authority
JP
Japan
Prior art keywords
touch input
user
input event
screen
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015086896A
Other languages
English (en)
Inventor
スペイト ヴァンブロン ラッセル
Speight Vanblon Russell
スペイト ヴァンブロン ラッセル
エス. ウェクスラー アーノルド
S Weksler Arnold
エス. ウェクスラー アーノルド
ジェイ. ピーターソン ネイサン
j peterson Nathan
ジェイ. ピーターソン ネイサン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of JP2015207290A publication Critical patent/JP2015207290A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ゲイズ・トラッキング(視線追跡)入力装置において、自動ゲイズ・キャリブレーション機能を提供する。
【解決手段】デバイスのプロセッサを使用して、デバイスのタッチ入力イベントの発生を判定する工程301と、デバイスのセンサを使用して、ユーザの画像データをキャプチャーする工程302と、プロセッサを使用してタッチ入力イベントに対応するスクリーン位置を特定する工程303と、プロセッサを用いてタッチ入力イベントの発生、ユーザの画像データ及びタッチ入力イベントに対応するスクリーン位置を使用して、デバイスのゲイズ・トラッキングシステムをキャリブレーションする工程304、305、306と、を含む。
【選択図】図3

Description

本発明は、自動ゲイズ・キャリブレーションに関する。
ゲイズ・トラッキング(gaze tracking:視線追跡)やアイ・トラッキング(eye tracking:目追跡)のテクノロジーは、単独又は他の電子デバイス(例えば、タブレット、ラップトップ・コンピュータ、スマートテレビジョン、ゲームコンソール等)に接続しての使用が増加している。ゲイズ・トラッキングシステムは、入力デバイスとして使用することができ、例えば、あるアクション(例えば、スクリーン上のコンテンツのスクロール、スクリーンのエレメント上でのハイライト/選択等)を実行するための入力手方法として、ユーザの目のフォーカスや視線(gaze)のフォーカスのトラッキングを使用することができる。
従来、ゲイズ・トラッキングシステムは使用のためにキャリブレーションする必要があった。そのため、システムをキャリブレーションするために、ユーザが共通して初期の処理やエクササイズを行って、サンプルデータやトレイニングデータが取得される。この処理は、スクリーン上に配置される所定のターゲットを見るユーザの目の画像キャプチャーを使用して、システムをキャリブレートすることが不可欠であることを意味している。これにより、システムはスクリーンに対してユーザのゲイズを計算するのに使用するパラメータを決定することが可能となる。例えば、ユーザがスクリーンに近づいたり離れたりした場合、又は、デバイスに対して向きを変えたりして、パラメータが変化すると、キャリブレーション処理はゲイズ・トラッキングシステムの正確さや精密さを維持するために、再稼働が必要となる場合がある
本発明は、自動ゲイズ・キャリブレーションを提供することを目的とする。
要約すると、1つの態様では、デバイスのプロセッサを使用して、前記デバイスのタッチ入力イベントの発生を判定する工程と、前記デバイスのセンサを使用して、ユーザの画像データをキャプチャーする工程と、プロセッサを使用して、前記タッチ入力イベントに対応するスクリーン位置を特定する工程と、プロセッサを用いて、前記タッチ入力イベントの発生、前記ユーザの画像データ、及び前記タッチ入力イベントに対応するスクリーン位置を使用する、前記デバイスのゲイズ・トラッキングシステムをキャリブレーションする工程とを含む方法を提供する。
別の態様では、タッチ入力デバイスと、タッチ入力デバイスと、情報を表示するスクリーンと、前記タッチ入力デバイスのユーザの画像データをキャプチャーするセンサと、前記タッチ入力デバイス、前記スクリーン、及び前記センサと動作可能に接続されたプロセッサと、プロセッサにより実行可能な指令を格納したメモリと、を備え、プロセッサは、前記メモリに格納された指令を実行することにより、前記タッチ入力デバイスでのタッチ入力イベントの発生を判定し、前記センサを用いてユーザの画像データをキャプチャーし、前記タッチ入力イベントに対応するスクリーン位置を特定し、前記タッチ入力イベントの発生、前記ユーザの画像データ、及び前記スクリーン位置を用いて、装置のゲイズ・トラッキングシステムをキャリブレートする装置を提供する。
さらに別の態様では、プロセッサにより実行可能なコードを格納するストレージデバイスを備え、前記コードは、デバイスのプロセッサを使用して、タッチ入力デバイスでのタッチ入力イベントの発生を判定し、デバイスのセンサを使用してユーザの画像データをキャプチャーし、プロセッサを使用して前記タッチ入力イベントに対応するスクリーン位置を特定し、前記タッチ入力イベントの発生、前記ユーザの画像データ、及び前記スクリーン位置を用いて、前記デバイスのゲイズ・トラッキングシステムをキャリブレートするコンピュータプログラムプロダクトを提供する。
上述した内容は、要約であり、そのため、簡素化、一般化、詳細の省略を行ってもよい。当業者は、この要約は、単に説明であってその態様を制限する意図ではないことを理解できる。
より実施の態様を理解するために、そのさらなる特徴と利点は、以下の記載と添付した図面を一緒に参照することで理解できる。発明の範囲は、特許請求の範囲において指摘されている。
図1は、情報処理デバイスの一例を説明するための図である。 図2は、情報処理デバイスの他の例を説明するための図である。 図3は、自動ゲイズ・キャリブレーション方法の一例を説明するための図である。
図面で一般的に説明しているような実施の形態のコンポーネントは、ここで記載する実施の形態に加えて、広く異なる各種構成として構成及び設計してもよい。従って、図面に記載されているような以下の実施の形態の詳細な記載は、特許請求の範囲の制限を意図するものではなく、単なる実施例である。
明細書を通じて、実施の形態に関連して記載された特定の図、構成、特徴を意味する1つの実施の形態又はある実施の形態等の参照は、少なくとも1つの実施の形態である。従って、いろいろな場所において、1つの実施の形態又はある実施の形態等という用語は、明細書を通じて、必ずしも全て同じ実施の形態を参照しているわけではない。
さらに、記載される特徴、構成、又は特性は、1又は複数の実施の形態において、好ましい態様で組み合わせることができる。以下の記載において、多数の詳細な説明が、実施の形態の理解を通じて提供される。関連する技術の当業者は、各種の実施の形態を、詳細な説明がなくても、他の方法や、コンポーネント、材料を用いて実施することができる。換言すると、公知の構成、材料、オペレーションは、難解となるのを避けるため詳細には記載していない。以下の記載は、単に実施例の態様を意図するものであり、簡単に特定の実施例について説明している。
ここで記載されるように、アイ・トラッキング(また、ここでは「ゲイズ・トラッキング」と称する)は、最初のキャリブレーションが必要である。アイ・トラッキングは、例えば、ユーザのヘッドが動いた場合などには、再キャリブレーションが必要となる。キャリブレーョンでは、一般に、ユーザがスクリーン上の様々な位置に移動するオブジェクトを目で追う(follow)必要がある。現在の手法では、ユーザがアイ・トラッキングのキャリブレーションを実行できるようになっているが、ユーザにとって不便である。さらに、ユーザがヘッド(head)を動かすと、現在の手法では、システムが正確さ及び精密さを維持するために、再キャリブレーションが必要となる。
実施の形態では、ゲイズ・トラッキングシステム外(outside of the gaze tracking system)のコンポーネントから利用可能なシステムの情報(knowledge)を使用して、ユーザが見ているものを推測することによって、ユーザがスクリーン上で見ている公知の位置を用いてアイ・トラッキングをキャリブレートする。以下は、ユーザが特定のスクリーン位置を見ているかを判定することを可能とするシステム情報の複数の非制限的な例である。
実施の形態では、ユーザがデバイスのスクリーンにタッチしたという事実(例えば、ホバーリング(hovering)や近接検出(close proximity sensing)等のタッチスクリーンへの入力)を活用して、ユーザが特定のタッチスクリーンの位置を見ていると推定してもよい。実施の形態では、ユーザが特定のタッチスクリーンの位置を見ていることを推定するために、ユーザが他の非光学的入力デバイスを用いて、マウスボタンのクリック又は何かを選択した事実を使用してもよい。実施の形態では、例えば、ユーザがテキストをタイプ又は入力した場合に、ユーザがスクリーン上に表示されるカーソル位置又はワード位置を見ている又はフォーカシングしていると推定することができる。実施の形態では、ユーザが選択可能なエレメント(例えば、ウエブページのリンク)をクリックする前に、非光学的な入力デバイスを介したマウス又はカーソル位置のスクリーン位置の移動が発生したという事実を活用して、ユーザが特定のタッチスクリーンの位置を見ていると推定してもよい。実施の形態では、ユーザがマウス又はカーソルの位置ボタン(例えば、コントロールキー)を押したという事実を活用して、ユーザが特定のタッチスクリーンの位置を見ていると推定してもよい。実施の形態では、ユーザが、アクションを実行するコントロール(例えば、メニューオープン、リストドロップダウンと等)に対してカーソル又は他の選択エレメントをハーバーした(例えば、ペン、スタイラス、指先等を用いて)という事実を活用して、ユーザが特定のタッチスクリーンの位置を見ていると推定してもよい。同様に、実施の形態では、ユーザはその目がカーソルの位置や移動に追従する(目で追いかける)と推定してもよい。アイ・トラッキングシステム又はゲイズ・トラッキングシステムの各々は、実施の形態によれば、ユーザが見ている既知のスクリーン位置(the known screen location)をマッチングすることによって、自己キャリブレートすることができる。これにより、ユーザが、キャリブレーションのエクササイズ(calibration exercise)を実行しないで、普通にデバイスを使用することができる。
実施の形態において、タイミング情報(timing information)は、例えば、ユーザの目が、特定の非光学的入力等の位置をフォーカスしている又はフォーカスしていた等の所定の状況(given the context)を考慮したものとしてもよい。いくつかの実施の形態では、タイミング情報は、ある使用ケースのシナリオを好適に調整する(accommodate)ために、補正(offset)を実行してもよい。例えば、目の位置(目の画像データ)は、マウスの選択をする前の瞬間に巻き戻される(rewound)必要があるかもしれない。例えば、ユーザは、マウスの選択をする前に、キーボード/マウスに視線を落とすためである。同様に、実施の形態では、例えば、ユーザがカーソル位置入力の後にカーソルの位置を見るので、アクション(例えば、カーソルの位置入力)後にキャプチャーされるユーザの目のフォーカスに対応する画像データを使用してもよい。
アイ・トラッキングは、例えば、アイ・トラッキングの記録、ユーザの特定の所定の位置データ点はキャリブレーション用に正確であるか又は捨てる/使用できないといった信頼性レベルを判定してもよい。一旦、十分なスクリーン位置が集められると、アイ・トラッキングの特徴では、初期のキャリブレーションは必要なく、自動的に行うことが可能となる。従って、実施の形態では、ゲイズ・トラッキングシステムの初期化/キャリブレーションのステップの全体をスキップして、ゲイズ・トラッキングシステムを使用している間に、キャリブレーションが実行されていると(例えば、バックグラウンド・タスクとしてキャリブレーションが実行されていると)、単にユーザに通知することにしてもよい。
キャリブレーションは、ポリシーによって維持又はアップデートすること(例えば、アイ・トラッキングの正確性を維持するために、未来のイベントを比較することにより)が可能である。最初のキャリブレーションをスキップするために十分なスクリーンデータを特定できない場合は、従来のアイ・トラッキングキャリブレーションでは、集めたデータ点を用いて少なくともキャリブレーションを縮小するかも知れない。この点において、実施の形態では、ゲイズ・トラッキングシステムの必要なキャリブレーションを簡素化して、よりユーザ・フレンドリーなエクスペリエンスを提供する。
説明する実施の形態では、図面を参照することによってよく理解することができる。以下の記載は、単なる一例であり、単に実施例を説明することを意図している。
図1は、スマートフォン及び/又はタブレット(smart phone and/or tablet)の回路(circuitry)又はシステム(systems)100に関する情報処理デバイス(また、ここでは、装置、電子デバイス、又は、単にデバイスと称する)に利用できる各種の回路又はコンポーネントであり、タブレット又は他のモバイルコンピューティングプラットフォームの一例と見ることができる回路デザイン上のシステムを含んでいる。ソフトウェア及びプロセッサ(Software and processor(s))は、単一の回路(single circuit)110に組み込まれている。プロセッサは、この分野の公知である、内部アーキテクチャユニット、レジスタ、キャッシュメモリ、バス、I/Oポート等を備えている。内部バス等は、異なるベンダーに依拠したものであるが、本質的に全ての周辺デバイス(peripheral(Additional) devices)120は、単一の回路110に接続することができる。回路100では、プロセッサ、メモリコントロール、及びI/Oコントローラハブの全てが単一の回路110に組み込まれている。また、このタイプのシステム100は、典型的には、SATA、PCI、又はLPCを使用していない。共通のインターフェイスは、SDIO及びI2Cを備えている。
電力管理チップ(power management chip(s))130は、例えば、電源(不図示)に接続されることによってリチャージすることができるリチャージ可能な(rechargeable)バッテリ(battery)140を介して供給される電力を管理するバッテリ管理ユニット(BMU:battery management unit)140を備えている。少なくとも1つのデザイン、110のようなシングル回路において、BIOSのような機能やDRAMメモリを提供するのに使用されてもよい。
システム100は、典型的には、電話回線、無線インターネットデバイス(例えば、アクセスポイント)のような各種のネットワークと接続するための、1または複数のWWANトランシーバ(WWAN transceiver)150やWLANトランシーバ(WLAN transceiver)160を備えている。周辺デバイス120は、一般的に、例えば、ゲイズ・トラッキングシステムに渡すことができる画像データをキャプチャーするカメラを含んでいる。システム100は、データ入力及び表示/レンダリング用のタッチスクリーン(touch screen)170を備えている。システム100は、また、典型的には、例えば、フラッシュメモリ(flash memory)180,SDRAM190のような各種メモリデバイスを備えている。
図2は、情報処理デバイスの回路やコンポーネントの一例を示すブロック図である。これに限られるものではなく、他の回路やコンポーネントを使用してもよい。図2に示す例は、例えば、Lenovo(US) Inc. of Morrisvilleで販売されているパーソナルコンピュータのTHINKPADシリーズ、NC、又は他のデバイスのようなコンピューティングシステムとすることができる。ここでの記載から明らかなように、実施の形態では、図2に示す構成以外の構成を含んでもよく、また、図2に示す構成のうちの一部だけを含んでいてもよい。
図2の例では、製造業者(例えば、INTEL(登録商標)、AMD(登録商標)、ARM等)に応じて変更できるアーキテクチャを有するいわゆるチップセット(chipset)210(集積回路、チップ、又はチップセットのグループ等)を備えている。チップセット210のアーキテクチャは、DMI(direct management interface)242又はリンクコントローラ(link controller)244を介して情報(例えば、データ、信号、及びコマンド等)を交換するコア・メモリコントロールグループ(core and memory control group)220及びI/Oコントローラハブ(I/O controller hub)250を備えている。図2において、DMI242は、chip-to-chipインターフェイスである(ノースブリッジ(north-bridge)とサウスブリッジ(south-bridge)間のリンクとして参照する場合がある)。コア・メモリコントロールグループ220は、FSB(front side bus)224を介して情報を交換する1又は複数のプロセッサ(processors)222(例えば、シングル又はマルチコア)及びメモリコントローラハブ(memory controller hub)226を備えている。コア・メモリコントロールグループ220は、従来のノースブリッジ(north-bridge)式のアーキテクチャに取って代わるチップがインテグレィトされてもよい。1又は複数のプロセッサ222は、内部アーキテクチャユニット、レジスタ、キャッシュメモリ、バス、I/Oポート等の当該分野で公知のものを備えている。
図2において、メモリコントローラハブ226は、メモリ(memory)240とのインターフェイスを行う(例えば、システムメモリまたはメモリとして参照できるRAM形式としてサポートを提供する)。メモリコントローラハブ226は、さらに、ディスプレイデバイス(例えば、CRT、フラットパネル、プロジェクタ等)292用のLVDSインターフェイス(LVDS interface)232を備えている。ブロック(block)238はLVDSインターフェイス232を介してサポートされるテクノロジー(例えば、SDVO(serial digital video)、 HDMI(登録商標)/DVI、ディスプレイポート(display port))を備えている。メモリコントローラハブ226は、また、ディスクリートグラフィックス(discrete graphics)236をサポートするPCIe−E(PCI-express interface)234を備えている。
図2において、I/Oコントローラハブ250は、SATAインターフェイス251(例えば、HDD/SDD280用等)、PCI−Eインターフェイス252(例えば、無線接続282用等)、USBインターフェイス253(例えば、デジタイザ、キーボード、マウス、カメラ、電話、ストレージ、他の接続デバイス等の入力デバイス(input devices)284用)、ネットワークインターフェイス254 (例えば、LAN)、GPIOインターフェイス255、LPCインターフェイス270(ASICs271、TPM272、superI/O273、ファームウェアハブ274、BIOSサポート275、ROM277、Flash278、及びNVRAM279のような各種タイプのメモリ276用)、パワーマネージメントインターフェイス(power management interface)261、クロックジェネレータインターフェイス(clock generator interface)262、オーディオインターフェイス(audio interface)263(例えば、スピーカ294用)、TCOインターフェイス(TCO interface)264、システムマネージメントバスインターフェイス(system management bus interface)265、 BIOS265及びブートコード290を含むことができるSPI Flash266等を備えている。I/Oコントローラハブ250は、ギガビット・イーサネット(登録商標)サポートを含んでいてもよい。
コンピュータシステムは、パワーオン後にSPI Flash266に格納されているBIOS268がブートコード290を実行し、その後、1又は複数のオペレーティングシステム及びアプリケーションソフトウェア(例えば、メモリ240に格納されている)のコントロール下でデータを処理するように構成してもよい。オペレーティングシステムは、各種の記憶場所に格納でき、例えば、BIOS268の指令に応じてアクセスされるようにしてもよい。ここで記載したように、デバイスは図2のコンピュータシステムに示されるよりも少なくまたは多くの構成を含んでいてもよい。
回路、例えば、概説した図1又は図2は、ゲイズ・トラッキングを実行するデバイスと接続して使用することにしてもよい。従って、概説した図1及び/又は図2の回路(又はそれらのいくつかの組み合わせ)は、ゲイズ・トラッキングシステム又はゲイズ・トラッキングサブシステムを備えたシステムにおいて使用されることにしてもよい。
図3を参照して、自動ゲイズ・キャリブレーション方法の一例を説明する。ここで説明するように、実施の形態では、ブロック301において、デバイスでの非光学的な入力イベントの発生(例えば、ある意味において特定のスクリーン位置に対応するユーザによる、タッチスクリーンやマウス等の使用)を判定する。実施の形態では、ブロック302において、内蔵カメラのようなセンサを使用して、ユーザの画像データをキャプチャーしてもよい。以下のように、このユーザの画像データは、ブロック301で判定された非光学的入力イベントの発生と関連させて使用してもよい。
実施の形態では、ブロック303において、非光学的な入力イベントに対応するスクリーン位置(例えば、タッチ入力イベントの特定の位置、スクリーン上のカーソルの特定の位置、ウエブページリンク又はドロップダウンメニューのような選択可能なアイテムの特定の位置等)を特定してもよい。この情報が与えられると、実施の形態では、非光学的な入力イベントの発生、ユーザの画像データ、それらと対応するスクリーン位置を使用して、デバイスのゲイズ・トラッキングシステムをキャリブレートすることにしてもよい。実施の形態では、他のシステムのイベントを使用してクリーン上の位置を推測することで、このようなデータを収集することを目的とした専用のエクササイズにユーザを参加させなくても、スタンダードなキャリブレーション処理を実行することが可能となる。換言すると、ユーザを、特定のスクリーン上のアニメーションを使用した、スクリーン上の位置を判定するキャリブレーションのエクササイズに参加させる代わりに、実施の形態では、ここで記載するように、非光学的な入力イベントを使用してスクリーン上の位置を推測する。
実施の形態では、ブロック304において、キャリブレーション情報が収集されると、ゲイズ・トラッキングの設定(gaze tracking setting(s))のキャリブレーションが必要か否かを判定する。必要な場合は、ブロック305において、ゲイズ・トラッキングの設定をアップロードしてもよい。必要でない場合は、ブロック306において、ゲイズ・トラッキングの設定を維持してもよい。
さらに、実施の形態では、この処理を様々なタイミングで実行してもよく、例えば、デバイス又はゲイズ・トラッキングシステム自体のスタートアップ時、キャリブレーションが要求された場合、デバイス及び/又はゲイズ・トラッキングシステム自体の使用中に定期的に、ゲイズ・トラッキングの設定のキャリブレーションが必要な場合や必要無い場合に(例えば、現在の利用可能な情報が与えられた場合にブロック304で判定されたゲイズ・トラッキングシステムの正確性に応じて)等に実行してもよい。
キャリブレーションはポリシーに従って実行してもよい。ポリシーは、デバイスのスタートアップ、ゲイズ・トラッキングシステムのスタートアップ、ゲイズ・トラッキングエラーのイベント、及びユーザの開始トリガーのグループから選択されるトリガーに応じてキャリブレーションを開始してもよい。ユーザの開始トリガーは、デバイスに対するヘッド(head)の移動が所定の閾値を超えること、及び/又は、キャリブレーションを要求するユーザから提供される入力を含むことにしてもよい。ポリシーは、デバイスのユーザに気づかれることなく(transparently)キャリブレーションを実行するように、デバイスが使用されている間にバックグランドタスクとして繰り返しキャリブレーションを開始(initiate)してもよい。
キャリブレーションは、推定されたスクリーン位置の情報を用いて、ユーザがスクリーンに対して自身を再ポジショニングするような所定のイベントを調整するように、スクリーンに対するユーザの視線(gaze)のフォーカスの判定を含む。非光学的な入力イベントは、スクリーン位置に対して論理的(logical)な関係を有する入力イベント(例えば、タッチスクリーン、マウス、タッチパッド、スタイラス、及び物理キーボードのグループから選ばれる入力デバイスを用いたスクリーン位置の入力)を含むユーザのフォーカスのスクリーン上の位置の便利な(convenient)判定を可能とする。
ここで記載したように、非光学的な入力イベントに対応するスクリーン位置の特定では、例えば、非光学的な入力イベントの発生及びユーザの画像データのキャプチャリングのタイミング情報を調整すること(coordinating)を含んでいてもよい。タイミング情報の調整では、そのため、特定の共通の使用ケースについての、ユーザの画像データ及び非光学的な入力イベントの時間を補正(例えば、カーソルの位置を特定するキー入力を提供した後にカーソルを探す等)すること(offsetting)を含んでいてもよい。
従って、実施の形態では、よりユーザフレンドリーなゲイズ・トラッキングシステムのキャリブレーションを提供し、ゲイズ・トラッキングシステムのスタート時のキャリブレーションのエクササイズを実施する必要性を完全に又は部分的に取り除くことができる。さらに、実施の形態では、ゲイズ・トラッキングシステムのテクノロジーを改善するために、容易にシステムの情報を利用することが可能である。すなわち、キャリブレーションの代わりに、ゲイズ・トラッキングシステムの正確性又は精密性が失われた場合でも、例えば、ユーザの再ポジショニングにより、ユーザの再ゲイズ・トラッキングシステム自体の外で利用できるシステムの入力を用いて(すなわち、特定のキャリブレーションエクササイズを実行しないでも)直ぐに再取得することができる。
当業者が理解するように、各種態様は、システム、方法、コンピュータプロダクト(コンピュータプログラム)として実装してもよい。従って、ここでは全てを一般的に「回路」、「モジュール」、「システム」として説明したように、ある局面では、全体としてハードウェアの形態、ソフトウェア及び/又はハードウェアを含む形態を取ることができる。さらに、ある局面では、ここで具体化されたコンピュータ読み取り可能なプログラムコードを格納した1つ以上のコンピュータ読み取り可能な記録媒体を実装したコンピュータプログラムプロダクトの形態を取ることができる。
ここで説明した各種機能は、プロセッサによって実行される非信号ストレージデバイス(non-signal storage device)のようなデバイスが読み取り可能なストレージ媒体(storage medium)に格納された指令を使用して、実行してもよい。ストレージデバイスは、例えば、電気・磁気・光学・電磁気・赤外線・半導体のシステム、装置(apparatus)、デバイス、又はこれらの好適な組み合わせとしてもよい。ストレージ媒体の特定の例としては、ポータブルコンピューターディスケット(portable computer diskette)、ハードディスク、RAM、ROM、EPROM、Flashメモリ、光ファイバー、CD−ROM、光学ストレージデバイス、磁気ストレージデバイス、又はこれらの好適な組み合わせである。この明細書のコンテキストでは、ストレージデバイスは、信号(signal)ではなく、信号媒体(signal media)を除く全ての媒体を含むノン・トランジトリ(non-transitory)なものである。
ストレージ媒体に格納されるプログラムコードは、これらには限定されないが、無線、有線、光ファイバーケーブル、RF、又はこれらの好適な組み合わせを含む好適な媒体を用いて転送することができる。
オペレーションを実行するためのコンピュータプログラムコードは、1又は複数のプログラミング言語の組み合わせで記述してもよい。コンピュータプログラムコードは、スタンドアロンソフトウェアパッケージとして単一のデバイスで全体又は一部を、単一のデバイスで一部を及び他のデバイスで一部を、又は、他のデバイスで全体を実行することにしてもよい。ある場合は、デバイスは、LANやWANを含む各種ネットワークを介して接続されてもよく、この接続は他のデバイスを介して(例えば、インターネットサービスプロバイダを用いたインターネットを介して)、無線接続を介して(例えば、NFC(Near Field Communication))、又は、USB接続のようなハードワイヤー接続を介してなされてもよい。
各種の態様を、各種実施の形態にしたがって、「方法」、「デバイス」、「プログラムプロダクト」を例示して、図面を参照して説明した。説明した動作及び機能は、少なくとも一部をプログラム指令によって実現することができる。プログラム指令は、汎用目的の情報処理デバイス、特定目的の情報処理デバイス、又は、他のプログラマブルデータ処理デバイスのプロセッサに、そのプロセッサが特定の機能や作用を実行するマシンを生成するように提供されてもよい。
図面では、特定のブロック、ブロックの特定の順序が使用されているが、これらは非制限的な例であることに留意すべきある。状況(context)により、必要に応じて、2又はそれ以上のブロックを結合してもよく、1つのブロックを2又はそれ以上のブロックに分割してもよく、また、あるブロックの順番の変更や再構成してもよく、記載した例は、単に説明を目的としたものであり、構成を制限するものではない。
本明細書において、数を規定しない場合("a" and "an")は、明確に他のことを意味する場合を除き、1又は複数であることを意味する。
この開示は、説明や記述を目的として提供されており、消尽や制限を意図していない。多くの変更や変形が可能であることは当業者にとって明らかである。ここでの実施の形態は原理や実用的な用途を説明するために選択して記述したものであって、さまざまな実施のため、考えられる特定の使用に適するようにこの開示に各種の変更を加えることが可能であることを当業者は理解できる。
従って、本実施の形態を、図面を参照して説明してきたが、ここでの記載は制限的なものではなく、この開示の範囲及び精神を逸脱することなく、当業者によって各種の変形や変更が可能であることが理解されるべきである。
100 回路(circuitry)又はシステム(systems)
110 単一の回路(single circuit)
120 周辺デバイス(peripheral(Additional) devices)
130 電力管理チップ(power management chip(s))
140 バッテリ(battery)
150 WANトランシーバ(WWAN transceiver)
160 WLANトランシーバ(WLAN transceiver)
170 タッチスクリーン(touch screen)
180 フラッシュメモリ(flash memory)
190 SDRAM

Claims (20)

  1. デバイスのプロセッサを使用して、前記デバイスのタッチ入力イベントの発生を判定する工程と、
    前記デバイスのセンサを使用して、ユーザの画像データをキャプチャーする工程と、
    プロセッサを使用して、前記タッチ入力イベントに対応するスクリーン位置を特定する工程と、
    プロセッサを用いて、前記タッチ入力イベントの発生、前記ユーザの画像データ、及び前記タッチ入力イベントに対応するスクリーン位置を使用して、前記デバイスのゲイズ・トラッキングシステムをキャリブレーションする工程と、
    を含む方法。
  2. 前記キャリブレーションする工程は、前記スクリーンに対してユーザの視線のフォーカスを判定することを含む請求項1に記載の方法。
  3. 前記タッチ入力イベントは、タッチスクリーン、マウス、タッチパッド、スタイラス、物理キーボードのグループから選択される入力デバイスを使用したタッチスクリーン入力に対応する入力イベントを含む請求項1に記載の方法。
  4. 前記タッチ入力イベントに対応するスクリーン位置を特定する工程は、前記タッチ入力イベントの発生の判定及び前記ユーザの画像データのキャプチャーのタイミング情報を調整することを含む請求項1に記載の方法。
  5. 前記タイミング情報を調整することは、前記ユーザの画像データ及び前記タッチ入力イベントの発生のタイミングを補正することを含む請求項4に記載の方法。
  6. 前記キャリブレーションは、ポリシーに従って行われる請求項1に記載の方法。
  7. 前記ポリシーは、前記デバイスのスタートアップ、前記ゲイズ・トラッキングシステムのスタートアップ、ゲイズ・トラッキングエラーのイベント、及びユーザの開始トリガーのグループから選択されるトリガーに応じて前記キャリブレーションを開始する請求項6に記載の方法。
  8. 前記ユーザの開始トリガーは、前記デバイスに対するヘッドの移動が所定の閾値を超えることを含む請求項7に記載の方法。
  9. 前記ポリシーは、前記デバイスが使用されている間にバックグランドタスクとして前記キャリブレーションを繰り返して開始することを含む請求項8に記載の方法。
  10. 前記ポリシーは、前記デバイスのユーザに気づかれることなく前記キャリブレーションを開始することを含む請求項8に記載の方法。
  11. タッチ入力デバイスと、
    情報を表示するスクリーンと、
    前記タッチ入力デバイスのユーザの画像データをキャプチャーするセンサと、
    前記タッチ入力デバイス、前記スクリーン、及び前記センサと動作可能に接続されたプロセッサと、
    前記プロセッサにより実行可能な指令を格納したメモリと、を備え、
    前記プロセッサは、前記メモリに格納された指令を実行することにより、
    前記タッチ入力デバイスでのタッチ入力イベントの発生を判定し、
    前記センサを使用して、ユーザの画像データをキャプチャーし、
    前記タッチ入力イベントに対応するスクリーン位置を特定し、
    前記タッチ入力イベントの発生、前記ユーザの画像データ、及び前記スクリーン位置を用いて、装置のゲイズ・トラッキングシステムをキャリブレーションする装置。
  12. 前記キャリブレーションは、前記スクリーンに対するユーザの視線のフォーカスを判定することを含む請求項11に記載の装置。
  13. 前記タッチ入力イベントは、タッチスクリーン、マウス、タッチパッド、スタイラス、物理キーボードのグループから選択されるタッチ入力デバイスを使用したスクリーン位置入力に対応する入力イベントを含む請求項11に記載の装置。
  14. 前記タッチ入力イベントに対応するスクリーン位置の特定は、前記タッチ入力イベントの発生の判定及び前記ユーザの画像データのキャプチャーのタイミング情報を調整することを含む請求項11に記載の装置。
  15. 前記タイミング情報を調整することは、前記タッチ入力イベントの発生の判定及び前記ユーザの画像データのキャプチャーのタイミングを補正することを含む請求項14に記載の装置。
  16. 前記キャリブレーションは、ポリシーに従って実行される請求項11に記載の装置。
  17. 前記ポリシーは、前記装置のスタートアップ、前記ゲイズ・トラッキングシステムのスタートアップ、ゲイズ・トラッキングエラーのイベント、及びユーザの開始トリガーのグループから選択されるトリガーに応じて前記キャリブレーションを開始する請求項16に記載の装置。
  18. 前記ユーザの開始トリガーは、前記タッチ入力デバイスに対するヘッドの移動が所定の閾値を超えることを含む請求項17に記載の装置。
  19. 前記ポリシーは、前記装置が使用されている間にバックグランドタスクとして繰り返し前記キャリブレーションすることを含む請求項18に記載の装置。
  20. コンピュータが実行可能なプログラムであって、
    デバイスのタッチ入力イベントの発生を判定する工程と、
    前記デバイスのセンサを使用して、ユーザの画像データをキャプチャーする工程と、
    前記タッチ入力イベントに対応するスクリーン位置を特定する工程と、
    前記タッチ入力イベントの発生、前記ユーザの画像データ、及び前記タッチ入力イベントに対応するスクリーン位置を使用して、前記デバイスのゲイズ・トラッキングシステムをキャリブレーションする工程と、
    をコンピュータに実行させることを特徴とするコンピュータが実行可能なプログラム。
JP2015086896A 2014-04-22 2015-04-21 自動ゲイズ・キャリブレーション Pending JP2015207290A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/258,372 2014-04-22
US14/258,372 US20150302585A1 (en) 2014-04-22 2014-04-22 Automatic gaze calibration

Publications (1)

Publication Number Publication Date
JP2015207290A true JP2015207290A (ja) 2015-11-19

Family

ID=52991643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015086896A Pending JP2015207290A (ja) 2014-04-22 2015-04-21 自動ゲイズ・キャリブレーション

Country Status (4)

Country Link
US (1) US20150302585A1 (ja)
EP (1) EP2940555B1 (ja)
JP (1) JP2015207290A (ja)
CN (1) CN105045374B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11538191B2 (en) 2020-05-26 2022-12-27 Canon Kabushiki Kaisha Electronic apparatus using calibration of a line of sight input, control method of electronic apparatus using calibration of a line of sight input, and non-transitory computer readable medium thereof

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150301598A1 (en) * 2014-04-22 2015-10-22 Kabushiki Kaisha Toshiba Method, electronic device, and computer program product
US9778736B2 (en) * 2014-09-22 2017-10-03 Rovi Guides, Inc. Methods and systems for calibrating user devices
CN105262956A (zh) * 2015-11-23 2016-01-20 屈国栋 一种显示器随动***和设备
DE102016210288A1 (de) 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
US11157073B2 (en) * 2017-10-04 2021-10-26 Tectus Corporation Gaze calibration for eye-mounted displays
EP3506055A1 (en) * 2017-12-28 2019-07-03 Vestel Elektronik Sanayi ve Ticaret A.S. Method for eye-tracking calibration with splash screen
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3750028B1 (en) 2018-02-09 2022-10-19 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
CN109240497B (zh) * 2018-08-28 2021-07-13 北京航空航天大学青岛研究院 一种在虚拟现实场景中的眼动追踪自动校准方法
CN109766007B (zh) * 2019-01-03 2022-05-27 京东方科技集团股份有限公司 一种显示设备的注视点补偿方法及补偿装置、显示设备
EP3912013A1 (en) 2019-01-16 2021-11-24 Pupil Labs GmbH Methods for generating calibration data for head-wearable devices and eye tracking system
US10983591B1 (en) * 2019-02-25 2021-04-20 Facebook Technologies, Llc Eye rank
US10936057B2 (en) 2019-04-09 2021-03-02 Samsung Electronics Co., Ltd. System and method for natural three-dimensional calibration for robust eye tracking
CN109976535B (zh) * 2019-05-05 2022-12-02 北京七鑫易维信息技术有限公司 一种校准方法、装置、设备及存储介质
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN113495613B (zh) * 2020-03-18 2023-11-21 北京七鑫易维信息技术有限公司 眼球追踪校准方法及装置
CN111432131B (zh) * 2020-04-30 2022-03-08 广东小天才科技有限公司 一种拍照框选的方法、装置、电子设备及存储介质
GB2596541B (en) * 2020-06-30 2023-09-13 Sony Interactive Entertainment Inc Video processing
US11269667B2 (en) * 2020-07-16 2022-03-08 Lenovo (Singapore) Pte. Ltd. Techniques to switch between different types of virtual assistance based on threshold being met
US20230359330A1 (en) * 2022-05-03 2023-11-09 Mimecast Services Ltd. Systems and methods for analysis of visually-selected information resources

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285715A (ja) * 2005-04-01 2006-10-19 Konica Minolta Holdings Inc 視線検出システム
JP2012065781A (ja) * 2010-09-22 2012-04-05 Fujitsu Ltd 視線検出装置および補正係数算出プログラム
JP2014064784A (ja) * 2012-09-26 2014-04-17 Renesas Microsystem:Kk 視線検出装置、視線検出方法及びプログラム
US20150227789A1 (en) * 2014-02-10 2015-08-13 Sony Corporation Information processing apparatus, information processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2396001B (en) * 2002-10-09 2005-10-26 Canon Kk Gaze tracking system
WO2010071928A1 (en) * 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
CN101872237B (zh) * 2009-04-23 2012-04-18 由田新技股份有限公司 瞳孔追踪方法与***及用于瞳孔追踪的校正方法与模组
CN102125422A (zh) * 2010-01-12 2011-07-20 北京科技大学 视线追踪***中基于瞳孔-角膜反射的视线估计方法
WO2012052061A1 (en) * 2010-10-22 2012-04-26 Institut für Rundfunktechnik GmbH Method and system for calibrating a gaze detector system
FR2989874B1 (fr) * 2012-04-25 2015-07-31 Thales Sa Procede de calibrage d'un oculometre et dispositif associe

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285715A (ja) * 2005-04-01 2006-10-19 Konica Minolta Holdings Inc 視線検出システム
JP2012065781A (ja) * 2010-09-22 2012-04-05 Fujitsu Ltd 視線検出装置および補正係数算出プログラム
JP2014064784A (ja) * 2012-09-26 2014-04-17 Renesas Microsystem:Kk 視線検出装置、視線検出方法及びプログラム
US20150227789A1 (en) * 2014-02-10 2015-08-13 Sony Corporation Information processing apparatus, information processing method, and program
JP2015152938A (ja) * 2014-02-10 2015-08-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11538191B2 (en) 2020-05-26 2022-12-27 Canon Kabushiki Kaisha Electronic apparatus using calibration of a line of sight input, control method of electronic apparatus using calibration of a line of sight input, and non-transitory computer readable medium thereof

Also Published As

Publication number Publication date
US20150302585A1 (en) 2015-10-22
CN105045374B (zh) 2019-10-29
CN105045374A (zh) 2015-11-11
EP2940555B1 (en) 2019-06-19
EP2940555A1 (en) 2015-11-04

Similar Documents

Publication Publication Date Title
JP2015207290A (ja) 自動ゲイズ・キャリブレーション
US9110635B2 (en) Initiating personal assistant application based on eye tracking and gestures
US9430045B2 (en) Special gestures for camera control and image processing operations
US10922862B2 (en) Presentation of content on headset display based on one or more condition(s)
US9213659B2 (en) Devices and methods to receive input at a first device and present output in response on a second device different from the first device
US9813662B2 (en) Transfer to target disambiguation
KR20200101207A (ko) 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법
US9998665B2 (en) Camera mode selection based on context
US20170169611A1 (en) Augmented reality workspace transitions based on contextual environment
WO2016078405A1 (zh) 调整对象属性信息的方法及装置
US20170344111A1 (en) Eye gaze calibration method and electronic device therefor
KR102504308B1 (ko) 디스플레이의 밝기를 제어하는 방법, 전자 장치 및 컴퓨터 판독가능 기록매체
US20180374501A1 (en) Detecting pause in audible input to device
US20180260044A1 (en) Information processing apparatus, information processing method, and program
US10845884B2 (en) Detecting inadvertent gesture controls
US10416856B2 (en) Handedness for hand-held devices
US10515270B2 (en) Systems and methods to enable and disable scrolling using camera input
US10694242B2 (en) Mechanisms for casting content
US10936057B2 (en) System and method for natural three-dimensional calibration for robust eye tracking
US9122323B2 (en) Sensor control
US10345927B2 (en) Pen/stylus offset modification
US10416759B2 (en) Eye tracking laser pointer
US20160337598A1 (en) Usage of first camera to determine parameter for action associated with second camera
US20150362990A1 (en) Displaying a user input modality
US11928264B2 (en) Fixed user interface navigation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161101