JP2015130173A - ディスプレイ上の両眼転導検出 - Google Patents

ディスプレイ上の両眼転導検出 Download PDF

Info

Publication number
JP2015130173A
JP2015130173A JP2014267022A JP2014267022A JP2015130173A JP 2015130173 A JP2015130173 A JP 2015130173A JP 2014267022 A JP2014267022 A JP 2014267022A JP 2014267022 A JP2014267022 A JP 2014267022A JP 2015130173 A JP2015130173 A JP 2015130173A
Authority
JP
Japan
Prior art keywords
display
distance
image
eye
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014267022A
Other languages
English (en)
Other versions
JP6608137B2 (ja
Inventor
ディ チェンソ ダヴィデ
Di Censo Davide
ディ チェンソ ダヴィデ
マルティ シュテファン
Marti Stefan
マルティ シュテファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman International Industries Inc
Original Assignee
Harman International Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman International Industries Inc filed Critical Harman International Industries Inc
Publication of JP2015130173A publication Critical patent/JP2015130173A/ja
Application granted granted Critical
Publication of JP6608137B2 publication Critical patent/JP6608137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ディスプレイ上の両眼転導検出の提供。
【解決手段】両眼転導に基づいて画像を表示するための方法であって、ユーザの片目または両目から表示位置まで第1の距離を決定することと、前記ユーザの前記目に関連する視線ベクトルに基づいて、目の輻輳距離を決定することと、前記目の輻輳距離が前記第1の距離と実質的に同じ場合に、前記画像を表示させることと、前記目の輻輳距離が前記第1の距離と実質的に同じではない場合に、前記画像の表示を終了させることとを含む、方法。
【選択図】図6

Description

関連出願の相互参照
本願は、代理人整理番号第HRMN/0079USL号を有する、2014年1月3日出願の米国特許仮出願第61/923,567号の利益を主張する。この関連出願の主題は参照によって本明細書に組み込まれる。
本発明の実施形態は、一般にグラフィカル・ユーザインターフェースに関し、より詳細にはディスプレイ上の両眼転導検出に関する。
電子工業における技術的進歩により、日常生活のほぼすべての面において、様々なタイプのグラフィカル・ユーザインターフェース(GUI)の普及が広がっている。多くの国々で、今や大多数の人々が、様々なタイプの情報に便利なアクセスを提供する、パーソナルコンピュータ、スマートフォン、スマートウォッチなどの少なくとも1つを持ち運ぶ。加えて、多くの車両は、車両統計、経路誘導、およびメディア情報などを提供するGUIを、(例えば、センターコンソール・ディスプレイ、電子計器クラスタ・ディスプレイ、ヘッドアップ・ディスプレイ、および/またはナビゲーションシステムディスプレイ上に)提供する。
上述のデバイスなどの、従来の電子機器によって表示されるGUIは、通常ユーザが、ほとんど気を逸らされることなく、特定の状態に「接続」したままでいられるように、特定の使用に適合することを目指している。しかし、ほとんどの電子機器は、ユーザが周囲環境から(例えば、表示画面を見るために)目を逸らす必要があるので、このような機器は、ある特定の使用では、依然として容認できないレベルで気を逸らさせる。例えば、センターコンソール・ナビゲーション画面および/またはダッシュボード・ディスプレイを介して提供される車両GUIは、ユーザが道路から目を離す必要があり、それによって不注意な運転の危険性が増加する。さらに、ヘッドアップ・ディスプレイ(HUD)などのある特定の表示技術は、ユーザが視覚を望ましい方向(例えば、道路に向かって)維持させることができるが、このようなディスプレイによって生成された画像は、ユーザの視覚の一部を不明瞭にさせる。したがって、従来の電子機器によって表示されたGUIは、人が運転中、および他の同様の状況での使用にあまり適さない。
上記に示すように、ユーザが運転中に、ユーザがディスプレイによって生成された画像をより効果的に見て、画像と相互作用できる、1つ以上の手法が有益であると思われる。
本発明の一実施形態は、両眼転導に基づいて画像を表示するための方法を記載する。この方法は、ユーザの片目または両目から表示位置まで第1の距離を決定すること、およびユーザの目に関連する視線ベクトルに基づいて、目の輻輳距離を決定することを含む。方法は、目の輻輳距離が第1の距離と実質的に同じ場合に、画像を表示させること、または目の輻輳距離が第1の距離と実質的に同じではない場合に、画像の表示を終了させることをさらに含む。
さらなる実施形態は、特に、上に記載した方法を実施するように構成された、システムおよび非一時的コンピュータ可読媒体を提供する。
各種実施形態の少なくとも1つの利点は、ユーザが目の焦点をディスプレイに合わせているかどうかに基づいて、ユーザが画像を表示させるか、または隠すことができることである。加えて、画像は、透過型ディスプレイおよび/またはヘッドアップ・ディスプレイ(HUD)を介して表示されてもよく、ユーザは画像を隠し、次いで視線方向を変えることなく、画像の背後の周囲環境を見ることが可能になる。
例えば、本願発明は以下の項目を提供する。
(項目1)
両眼転導に基づいて画像を表示するための方法であって、
ユーザの片目または両目から表示位置まで第1の距離を決定することと、
上記ユーザの上記目に関連する視線ベクトルに基づいて、目の輻輳距離を決定することと、
上記目の輻輳距離が上記第1の距離と実質的に同じ場合に、上記画像を表示させることと、
上記目の輻輳距離が上記第1の距離と実質的に同じではない場合に、上記画像の表示を終了させることと
を含む、方法。
(項目2)
上記画像の上記表示を終了させることは、上記目の輻輳距離が上記第1の距離より実質的に長い場合に、上記画像の上記表示を終了させることを含む、上記項目に記載の方法。
(項目3)
上記画像は透過型ディスプレイ上に表示され、上記画像の上記表示を終了させることは、上記ユーザの上記目が上記透過型ディスプレイを通過して焦点を合わせていると判定することに基づいて、上記画像の上記表示を終了させることを含む、上記項目のいずれか一項に記載の方法。
(項目4)
上記ユーザの上記目に関連する少なくとも1つの角膜反射画像に基づいて、左目視線ベクトルおよび右目視線ベクトルを演算することにより、上記ユーザの上記目に関連する上記視線ベクトルを演算することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目5)
上記左目視線ベクトルが上記表示位置に関連する平面と交差する第1の位置を決定することと、
上記右目視線ベクトルが上記表示位置に関連する上記平面と交差する第2の位置を決定することと
をさらに含む、上記項目のいずれか一項に記載の方法。
(項目6)
上記目の輻輳距離を決定することは、上記左目視線ベクトルが上記平面と交差する上記第1の位置と、上記右目視線ベクトルが上記平面と交差する上記第2の位置との間の第2の距離に基づいて、上記目の輻輳距離を決定することを含む、上記項目のいずれか一項に記載の方法。
(項目7)
上記表示位置は、透過型ディスプレイの表示面に対応する、上記項目のいずれか一項に記載の方法。
(項目8)
上記表示位置は、ヘッドアップ・ディスプレイによって生成される仮想画像位置に対応する、上記項目のいずれか一項に記載の方法。
(項目9)
上記目の輻輳距離が上記第1の距離と実質的に同じではない場合に、第2の画像を上記表示位置でディスプレイ上に表示させたままにすることをさらに含む、上記項目のいずれか一項に記載の方法。
(項目10)
両眼転導に基づいて画像を表示するためのシステムであって、
ユーザの目に関連するセンサデータを取得するように構成された少なくとも1つのセンサと、
上記少なくとも1つのセンサに結合されたプロセッサであって、
上記センサデータに基づいて、上記ユーザの上記目に関連する視線ベクトルを演算する、
上記視線ベクトルに基づいて、目の輻輳距離を決定する、
上記ユーザの上記片目または両目から表示位置までの第1の距離を決定する、
上記目の輻輳距離が上記第1の距離と実質的に同じ場合に、上記画像をディスプレイによって表示させるか、または、
上記目の輻輳距離が上記第1の距離と実質的に同じではない場合に、上記画像を上記ディスプレイに表示させることを終了させるように構成されたプロセッサと、
上記プロセッサに結合され、上記表示位置で上記画像を表示するように構成された上記ディスプレイと
を備える、システム。
(項目11)
上記センサデータは、上記ユーザの上記目に関連する少なくとも1つの角膜反射画像を含み、上記プロセッサは、上記少なくとも1つの角膜反射画像に基づいて、左目視線ベクトルおよび右目視線ベクトルを演算することにより、上記ユーザの上記目に関連する上記視線ベクトルを演算するように構成される、上記項目に記載のシステム。
(項目12)
上記プロセッサは、
上記左目視線ベクトルが上記表示位置に関連する平面と交差する第1の位置を決定することと、
上記右目視線ベクトルが上記表示位置に関連する上記平面と交差する第2の位置を決定することと、
上記左目視線ベクトルが上記平面と交差する上記第1の位置と、上記右目視線ベクトルが上記平面と交差する上記第2の位置との間の第2の距離を決定することと、
上記第2の距離に基づいて、上記目の輻輳距離を決定することと
によって、上記目の輻輳距離を決定するように構成される、上記項目のいずれか一項に記載のシステム。
(項目13)
上記少なくとも1つのセンサは、上記ユーザの上記片目または両目から上記表示位置までの上記第1の距離を決定するように構成された、深度センサを備える、上記項目のいずれか一項に記載のシステム。
(項目14)
上記ディスプレイは透過型ディスプレイを備え、上記プロセッサは、上記目の輻輳距離が上記第1の距離より実質的に長い場合に、上記ディスプレイに上記画像を表示することを終了させるように構成される、上記項目のいずれか一項に記載のシステム。
(項目15)
上記透過型ディスプレイは、一次表示領域および二次表示領域を備え、上記ディスプレイは、上記画像を上記一次表示領域に表示することにより、上記画像を上記表示位置で表示するように構成される、上記項目のいずれか一項に記載のシステム。
(項目16)
上記プロセッサは、上記目の輻輳距離が上記第1の距離と実質的に同じではない場合に、第2の画像を上記二次表示領域に表示させる、または表示されたままにさせるようにさらに構成される、上記項目のいずれか一項に記載のシステム。
(項目17)
上記ディスプレイはヘッドアップ・ディスプレイを備え、上記表示位置は、上記ユーザが上記画像に気付く範囲内の量に対応する、上記項目のいずれか一項に記載のシステム。
(項目18)
上記ディスプレイはヘッドアップ・ディスプレイを備え、上記表示位置は、その上に上記画像が上記ヘッドアップ・ディスプレイによって投影される表面に対応する、上記項目のいずれか一項に記載のシステム。
(項目19)
非一時的コンピュータ可読記憶媒体であって、プロセッサによって実行される際に、
ユーザの片目または両目から透過型ディスプレイの表面までの第1の距離を決定するステップと、
センサデータに基づいて、上記ユーザの上記目に関連する視線ベクトルを演算するステップと、
上記視線ベクトルに基づいて、目の輻輳距離を決定するステップと、
上記目の輻輳距離が上記第1の距離と実質的に同じ場合に、上記画像を表示させるステップと、
上記目の輻輳距離が上記第1の距離より実質的に長い場合に、上記画像の上記表示を終了させるステップと
を実行することにより、上記プロセッサに両眼転導に基づいて画像を表示させる命令を含む、非一時的コンピュータ可読記憶媒体。
(項目20)
上記画像の上記表示を終了させることは、上記ユーザの上記目が上記透過型ディスプレイを通過して焦点を合わせていると決定することに基づいて、上記画像の上記表示を終了させることを含む、上記項目に記載の非一時的コンピュータ可読記憶媒体。
(摘要)
本発明の一実施形態は、両眼転導に基づいて画像を表示するための手法を記載する。手法は、ユーザの片目または両目から表示位置までの第1の距離を決定すること、およびユーザの目に関連する視線ベクトルに基づいて、目の輻輳距離を決定することを含む。手法は、目の輻輳距離が第1の距離と実質的に同じ場合に画像を表示させること、または目の輻輳距離が第1の距離と実質的に同じではない場合に、画像の表示を終了させることをさらに含む。
上に列挙した本発明の特徴の手法を詳細に理解できるように、上に簡単に要約した本発明のより具体的な記載が実施形態を参照してもよく、実施形態の一部は添付の図面に示されている。しかし、添付図面は、本発明の典型的な実施形態のみを示し、したがってその範囲を限定するとみなされるべきではなく、それ故、本発明は他の等しい有効な実施形態を認めてもよいことに留意されたい。
各種実施形態に係る、視線ベクトルを決定し、ディスプレイを修正するための両眼転導検出システムを示す図である。 各種実施形態に係る、画像を表示させる、または隠すために、図1Aの両眼転導検出システムと相互作用するユーザを示す図である。 図2Aおよび図2Bは、各種実施形態に係る、透過型ディスプレイと共に図1Aの両眼転導検出システムを作動するための手法を示す図である。 図3Aおよび図3Bは、各種実施形態に係る、ヘッドアップ・ディスプレイ(HUD)と共に、図1Aの両眼転導検出システムを作動するための手法を示す図である。 各種実施形態に係る、目の輻輳距離を決定するための手法を示す概念図である。 図5A〜図5Dは、各種実施形態に係る、図1Aの両眼転導検出システムを有するグラフィカル・ユーザインターフェース(GUI)を実装するための手法を示す図である。 各種実施形態に係る、両眼転導検出に基づいて、画像を表示するための方法ステップの流れ図である。 各種実施形態に係る、図1Aの両眼転導検出システムと共に実装され得るコンピューティング・デバイスのブロック図である。
以下の記述において、多くの具体的詳細は、実施形態のより完全な理解を提供するために記載されている。しかし、実施形態は、1つ以上のこれらの具体的詳細なしに実行されてもよいことが当業者には明らかになろう。
図1Aは、各種実施形態に係る、視線ベクトルを決定し、ディスプレイ130を修正するための両眼転導検出システム100を示す。示したように、両眼転導検出システム100は、限定するものではないが、1つ以上のセンサ110およびディスプレイ130を含んでもよい。センサ110は、ユーザの画像を取得する、および/またはユーザの位置を決定するように構成される。1つ以上のセンサによって取得された画像は、両眼転導検出システム100に含まれるコンピューティング・デバイス120、および/または両眼転導検出システム100から分離されたコンピューティング・デバイス120によって分析されてもよい。ディスプレイ130は、グラフィカル・ユーザインターフェース(GUI)、メディアコンテンツ、車両統計、および/または他のタイプの情報などの1つ以上の画像をユーザに表示するように構成される。
各種実施形態では、センサ110は、各種実施形態に係る、画像を表示させるか、または画像を隠すために、図1Aの両眼転導検出システム100と相互作用するユーザを示す、図1Bに示したように、ユーザの目の画像を取得するように構成された1つ以上のカメラを含む。次いで画像は、目の位置、目の輻輳角、二次元(2D)の視線ベクトル、三次元(3D)の視線ベクトル、瞳孔距離、および/または両眼が輻輳する距離を決定するために分析される。一部の実施形態では、ユーザの目の画像は、トビー・テクノロジー(TOBII TECHNOLOGY)(商標)(Karlsrovagen 2D,Danderyd 18253,Sweden,SE556613965401)によって生成された「アイトラッカー(Eye Tracker)」に実装された手法などの、瞳孔中心・角膜反射視線追跡手法を使用して処理される。しかし、画像は、限定するものではないが、可視光手法および赤外光手法を含む、あらゆる有益な撮像法を介して取得され処理されてもよい。
一部の実施形態では、両眼転導検出システム100は2つ(以上)のカメラを含み、それぞれのカメラは、ユーザの片目または両目を追跡するように構成される。さらに追加のセンサ110(例えば、光センサ、画像センサ、深度センサなど)が、ユーザから両眼転導検出システム100までの距離、ならびに両眼転導検出システム100から様々な対象および表示位置(例えば、ディスプレイ130の表面および/または仮想画像位置)の距離などを測定するために、両眼転導検出システム100に含まれてもよい。加えて、一部の実施形態では、両眼転導検出システム100(例えば、1つ以上のセンサ110)の少なくとも一部は、ユーザによって着用される。例えば、限定するものではないが、両眼転導検出システム100は、ユーザによって着用されるヘッドセットまたはメガネであってもよい。このような実施形態では、センサ110を、ユーザのそれぞれの目に近いヘッドセットまたはメガネなどの、ユーザの目に接近した両眼転導検出システム100内に配置することができる。
ディスプレイ130は、透過型ディスプレイ(例えば、有機発光ダイオード(OLED)ディスプレイ、液晶ディスプレイ(LCD)など)、ヘッドアップ・ディスプレイ(HUD)(例えば、反射ディスプレイ、立体ディスプレイなど)、またはユーザが表示画像を見ることができ、また周囲環境を見るためにディスプレイ130の少なくとも一部を透視できる、あらゆる他のタイプのデバイスを含んでもよい。一部の実施形態では、ディスプレイ130は、車のダッシュボードもしくはフロントガラスの頂部内または頂部上などの、ユーザの前に配置され、あるいはメガネに結合されたディスプレイ130などのヘッドマウント・ディスプレイ(HMD)である。他の実施形態では、ディスプレイ130は、ユーザが表示画像に気付く、反射面などの表示位置に向かって表示画像を投影するプロジェクタを含む。したがって、このような実施形態では、ディスプレイ130および表示位置は、別の位置にあってもよい。
上述したように、従来の透過型ディスプレイおよびHUDは、ユーザが表示位置(例えば、ディスプレイ面もしくは仮想画像の位置)に焦点を合わせているか、または表示位置の方を見ているに過ぎないかを検出することができる。したがって、従来のディスプレイは、一般に、情報が目障りであるか、無関係であるか、あるいはユーザによって望まれていないときに情報を表示する。さらに、ユーザが運転しているときなど多くの場合に、ユーザに望まれていない情報を表示することは、ユーザが周囲を見て、周囲と相互作用できることを妨げることがある。例えば、限定するものではないが、図2Bを参照すると、ユーザの頭部および目はディスプレイ130の方を向いているが、ユーザの目は、ディスプレイ130を透視しており、周囲環境(例えば、車道または車両の周囲)に焦点を合わせようとしているかもしれない。その結果として、画像をディスプレイ130上に表示することは、ユーザの気を逸らすことがある。
このような状況下では、両眼転導検出システム100を使用して、ユーザの目は表示位置に焦点を合わせていないが、その代わりに表示位置を通過して焦点を合わせていることを判定する。次いで、ユーザの目は表示位置に焦点を合わせていないと判定すると、両眼転導検出システム100は、ディスプレイ130によって表示された画像の少なくとも一部を隠し、ユーザがディスプレイ130を透視し、周囲をより効果的に見ることが可能になる。
各種実施形態では、センサ110は、ユーザの目から画像が表示される表示位置(例えば、ディスプレイ130の表面またはHUDに関連する仮想画像位置)までの距離を決定する、深度センサを含む。次いで両眼転導検出システム100は、ユーザの目の1つ以上の画像を取得し、両眼が輻輳する距離および/または位置を決定するために画像を分析する。次いで目から表示位置までの距離を目の輻輳距離と比較して、目が表示位置に焦点を合わせているかどうかを判定する。ユーザの目が表示位置に焦点を合わせていない場合は、両目転導検出システム100は、1つ以上の画像をディスプレイ130から隠す。一方、ユーザの目が表示位置に焦点を合わせている場合は、両目転導検出システム100は、1つ以上の画像をディスプレイ130によって表示させる、または再表示させる。
深度センサは、ユーザの目の位置に対して様々な位置に配置されてもよい。例えば、図1Aおよび1Bは、深度センサを両目転導検出システム100に結合され、ユーザの前に配置されるように示しているが、深度センサが、車両のボンネット上、車両の内部、または車両の外部などの他の位置に配置されてもよい。さらに深度センサが車両の内部に配置される際、深度センサは、運転者の前、運転者の背後、または運転者の横に配置されてもよい。各種実施形態では、深度センサは、ユーザの目の付近、またはユーザの目に一致した位置に配置される。
図2Aおよび2Bは、各種実施形態に係る、透過型ディスプレイと共に図1Aの両眼転導検出システム100を作動するための手法を示す。上述したように、一部の実施形態では、ディスプレイ130は、それを通過してユーザが周囲を見ることができる透過型ディスプレイである。運転中、両目転導検出システム100は、1つ以上のセンサ110を介して、ユーザの左目視線ベクトル210および/または右目視線ベクトル210を追跡して、目の輻輳距離220を決定する。両目転導検出システム100は、ユーザの目から表示位置230(図2Aおよび2Bにおいて、その上に画像が表示された表面)までの距離を(例えば、深度センサを介して)さらに追跡する。次いで、両目転導検出システム100は、目の輻輳距離220を、ユーザの目から表示位置230までの距離と比較する。
目の輻輳距離220が、図2Aに示したように、ユーザの目のから表示位置230までの距離と実質的に同じ場合は、両目転導検出システム100は、1つ以上の画像をディスプレイ130によって表示させる、または再表示させる。目の輻輳距離220が、図2Bに示したように、ユーザの目のから表示位置230までの距離と実質的に同じではない場合は、両目転導検出システム100は、1つ以上の画像をディスプレイ130から隠す。例えば、限定するものではないが、1つ以上の画像の表示は、目の輻輳距離220がユーザの目から表示位置230までの距離より実質的に長いという決定に応答して、両目転導検出システム100によって終了されることが可能である。このような状況では、両目転導検出システム100は、ユーザはディスプレイ130を通過して(例えば、ディスプレイ130の他の側部上の対象に)焦点を合わせていると決定することができ、それ故、該1つ以上の画像はディスプレイ130上に表示されるべきではない。
一部の実施形態では、目の輻輳距離220は、それぞれの目の視線ベクトル210に関連する交点240の位置を検出することによって決定される。図2Aおよび2Bに示したように、一旦視線ベクトル210が決定されると、視線ベクトル210と、ディスプレイ130の平面または表面などの表示位置との交点が決定されてもよい。次いで両眼が輻輳する位置は、交点240が互いに近接した位置を決定することによって検出されてもよい。例えば、限定するものではないが、図2Aでは、視線ベクトル210と表示位置230(例えば、その上に画像が示されるディスプレイ130の表面)との交点240は、互いに隣接しており、ユーザは表示位置230に焦点を合わせていることを示す。対照的に、図2Bでは、視線ベクトル210と表示位置230との交点240は、互いに隣接しておらず、ユーザは、表示位置230を通過して表示位置230の背後に配置された対象に向かって焦点を合わせていることを示す。したがって、一部の実施形態では、両目転導検出システム100は、視線ベクトル210と表示位置230との交点240に基づいて、目の輻輳距離220が、ユーザの目から表示位置230までの距離と実質的に同じであると決定してもよい。
一部の実施形態では、両目転導検出システム100は、目の輻輳距離220またはユーザの目から表示位置230までの距離を決定することなく、ユーザの目が表示位置230に焦点を合わせているかどうか(例えば、ユーザの目が表示位置230に輻輳するかどうか)を判定してもよい。その代わりに、両目転導検出システム100は、ユーザの左目視線ベクトルが表示位置230に関連する平面で交差する第1の位置、およびユーザの右目視線ベクトルが表示位置230に関連する平面で交差する第2の位置を決定してもよい。第1の位置および第2の位置が、互いに実質的に同じまたは近接する場合は、両目転導検出システム100は、ユーザの目が表示位置230に焦点を合わせていると決定してもよい。第1の位置と第2の位置が互いに近接していない場合は、両目転導検出システム100は、ユーザの目が表示位置230に焦点を合わせていないと決定してもよい。概して、左目視線ベクトルおよび右目視線ベクトルは、ユーザの目に関連する1つ以上の角膜反射画像を演算することなどにより、本明細書に記載されたあらゆる手法に基づいて決定されてもよい。有利なことに、このような実施形態では、両目転導検出システム100は、ユーザの視線ベクトルを追跡することができ、目の輻輳距離220またはユーザの目から表示位置230までの距離を決定する必要がないはずである。
図3Aおよび3Bは、各種実施形態に係る、ヘッドアップ・ディスプレイ(HUD)と共に、図1Aの両眼転導検出システム100を作動するための手法を示す。上述したように、一部の実施形態では、ディスプレイ130は、画像をユーザに向かっておよび/または周囲環境上に投影するHUDを含む。このような実施形態では、両目転導検出システム100は、視線ベクトル210およびユーザの位置を追跡して、目の輻輳距離220およびユーザの目から表示位置230(例えば、その上に画像がHUDによって表示される仮想画像位置)までの距離を決定する。次いで両目転導検出システム100は、目の輻輳距離220をユーザの目から表示位置230までの距離と比較する。
目の輻輳距離220が、図3Aに示したように、ユーザの目から表示位置230までの距離と実質的に同じ場合は、両目転導検出システム100は、1つ以上の画像をディスプレイ130によって表示させる、または再表示させる。目の輻輳距離220が、図3Bに示したように、ユーザの目のから表示位置230までの距離と実質的に同じではない場合は、両目転導検出システム100は、1つ以上の画像をディスプレイ130から隠す。加えて、目の輻輳距離220は、上述したように、視線ベクトル210に関連する交点240の位置を検出することによって決定されてもよい。
一部のタイプの透過型ディスプレイと対照的に、一部のタイプのHUDは、ユーザが、HUDハードウェアの物理的な位置と一致しない表示位置230に配置されていると気づく画像を生成する。例えば、限定するものではないが、図3Aおよび3Bに示したように、ユーザが、HUDによって投影された画像を見るために目の焦点を合わせなければならない表示位置230は、HUDハードウェアから一定距離離れることが可能である。さらに、一部の実施形態では、表示位置230は、HUDによって生成された画像を見るために、その中でユーザが目の焦点を合わせるはずである領域または量を含む。すなわち、一部の実施形態では、ユーザがHUDによって生成された画像に焦点を合わせているかどうかを判定するために、両目転導検出システム100は、ユーザの両眼が輻輳する位置が、表示位置230に対応する領域または量内に収まるかどうかを判定してもよい。したがって、このような実施形態では、両目転導検出システム100は、目の輻輳距離220が、ユーザの目から表示位置230の範囲までの距離に関連する、指定された範囲に包含されるかどうかを判定することにより、画像を表示するか、または隠すかを判定してもよい。
一般に、ユーザが、画像を隠させるために目を表示位置230の前または背後に焦点を合わせなければならない程度は、両目転導検出システム100の感度に依存する。例えば、限定するものではないが、高精度センサが両目転導検出システム100で実施される場合は、視線ベクトル210、目の輻輳距離220、および/または目から表示位置230までの距離は、より正確に決定され得る。それ故、両目転導検出システム100は、目の輻輳距離220が目から表示位置230までの距離より6インチのみ長い、または目の輻輳距離220が目から表示位置230までの距離より短いとき、ユーザはもはや表示位置230に焦点を合わせていないことを正確に決定できるはずである。それに反して、両目転導検出システム100で実施されたセンサが、精度が劣る、または中程度の精度である場合は、両目転導検出システム100は、目の輻輳距離220が目から表示位置230までの距離よりはるかに長い、またははるかに短い(例えば、1もしくは2フィート長いまたは短い)場合でない限り、ユーザはもはや表示位置230に焦点を合わせていないことを正確に判定できないはずである。したがって、各種実施形態では、目の輻輳距離220が、画像を隠すためにユーザの目から表示位置230までの距離と異なる必要がある程度は、センサ110が、目の輻輳距離220およびユーザの目から表示位置230までの距離をどのくらい正確に判定できるかに依存する。しかし一般に、両目転導検出システム100は、その距離の約5パーセント以下だけ異なるとき、またはより低い精度の実施形態では、その距離の約10パーセント以下だけ異なるとき、これらの距離は実質的に同じであると判定してもよい。
図4は、各種実施形態に係る、目の輻輳距離220を決定するための手法を示す概念図である。示したように、輻輳角411、412は、両目の視線ベクトル210に対して決定されてもよい。次いで輻輳角411、412およびユーザの目に関連する瞳孔距離415を使用して、以下に表す式1によって目の輻輳距離220(Deye)を決定し、式中、αはユーザの左目の輻輳角であり、βはユーザの右目の輻輳角であり、dは眼球内距離であり、α’はαに対する補角であり、β’はβに対する補角であり、ε’は(180−α’−β’)に等しく、Deyeは[(d/2*sinα’)/(ε’/2)]に等しい。他の実施形態では、他の式またはアルゴリズム、およびルックアップテーブルなどを使用して、目の輻輳距離220を決定してもよい。
eye=(d/2*sinα’)/sin((180−α’−β’)/2) (式1)
図5A〜5Dは、各種実施形態に係る、図1Aの両眼転導検出システム100を有するグラフィカル・ユーザインターフェース(GUI)510を実施するための手法を示す。示したように、ユーザの目が表示位置230に焦点を合わせているとき、GUI510などの1つ以上の画像は、ディスプレイ130を介して表示されてもよい。一部の実施形態では、GUI510は、一次表示領域530、およびアイコン520を含んでもよい二次表示領域を含む。アイコン520は、一次表示領域530に表示された情報を修正するために、ユーザによって(例えば、ユーザが目をアイコン520に焦点を合わせることによって)選択されてもよい。例えば、限定するものではないが、両目転導検出システム100が、ユーザの目が速度計アイコン520に焦点を合わせていると(例えば、本明細書に記載されたあらゆる輻輳手法を使用して、目がアイコン520に輻輳していると決定することにより)決定すると、車両の速度を、図5Bに示したように一次表示領域530に表示できる。加えて、ユーザは、両目転導検出システム100に、経路誘導、メディア情報、および/または天気予報のそれぞれを一次表示領域530に表示させるために、ナビゲーション、音楽、および/または天気アイコンに焦点を合わせることができる。
さらに、両目転導検出システム100が、ユーザがもはや表示位置230に焦点を合わせていないと(例えば、目の輻輳距離220、目から表示位置230までの距離、および/または交点240に基づいて)決定すると、アイコン520および/または一次表示領域530内に生成された画像は、図5Cおよび5Dに示したように隠されてもよい。
一部の実施形態では、画像を表示または再表示させるために、ユーザが表示位置230により容易に焦点を合わせることができるために、ユーザが表示位置230に焦点を合わせていないときでさえ、1つ以上の画像(例えば、アイコン520)はディスプレイ130上に残っていてもよい。すなわち、ユーザが目を、透過型表示画面および/またはほとんどもしくはまったく情報が表示されていない他の表示位置230に、特に暗闇(例えば、夜間)および高コントラストの背景(例えば、日没)において焦点を合わせることは困難であることがある。したがって、透過型ディスプレイおよび/またはHUDが、1つ以上の画像をディスプレイ130から隠す際に、ディスプレイ130の二次部分は照射されたままであってもよい。例えば、限定するものではないが、図5Bを参照すると、ユーザが目を表示位置230により容易に焦点を合わせることができ、したがって、画像が一次表示領域530内に表示される、または再表示されるために、一次表示領域530が隠されるとき、アイコン520は、ディスプレイ130上に残ることができる。
図6は、各種実施形態に係る、両眼転導検出に基づいて、画像を表示するための方法ステップの流れ図である。方法ステップは、図1A〜5Dのシステムと共に記載されたが、方法ステップを実行するように構成されたあらゆるシステムが、いかなる順序でも本発明の範囲に包含されることが、当業者には理解されよう。
示したように、方法600はステップ610で開始し、ステップ610では両目転導検出システム100は、1つ以上のセンサ110を介してユーザの目に関連するセンサデータ(例えば、画像、深さデータなど)を取得する。ステップ620では、両目転導検出システム100は、1つ以上の視線ベクトル210、目の輻輳距離220、および/またはユーザの目から表示位置230までの距離を決定するためにセンサデータを分析する。
次にステップ630では、両眼転導検出システム100は、目の輻輳距離220をユーザの目から表示位置230までの距離と比較して、目の輻輳距離220が、目から表示位置230までの距離と実質的に同じであるかどうかを判定する。目の輻輳距離220が、目から表示位置230までの距離と実質的に同じである場合は、方法600はステップ640に進み、ステップ640では両眼転導検出システム100は、ディスプレイ130を介して画像を表示させる、または再表示させる。一部の実施形態では、ステップ640では、両眼転導検出システム100は、すでに表示されている画像をディスプレイ130上に表示させたままにする。次いで方法600は終了する。
目の輻輳距離220が、目から表示位置230までの距離と実質的に同じではない場合は、方法600はステップ650に進み、ステップ650では両眼転導検出システム100は、画像をディスプレイ130から隠す。次いで方法600は終了する。
図7は、各種実施形態に係る、図1Aの両眼転導検出システム100と共に実装され得るコンピューティング・デバイス120のブロック図である。示したように、コンピューティング・デバイス120は、処理装置702、入出力(I/O)装置704、および記憶装置710を含む。記憶装置710は、データベース714と相互作用するように構成されたアプリケーション712を含む。
処理装置702は、中央処理装置(CPU)およびデジタル信号処理装置(DSP)などを含んでもよい。I/O装置704は、入力装置、出力装置、および入力の受信および出力の提供の両方が可能な装置を含んでもよい。記憶装置710は、メモリモジュールまたはメモリモジュールの集合体を含んでもよい。記憶装置710内のソフトウェア・アプリケーション712は、コンピューティング・デバイス120の機能性全体を実施し、したがって、両眼転導検出システム100、センサ110、および/またはディスプレイ130の作動を全体として調整するために、処理装置702によって実行されてもよい。データベース714は、画像データ、GUI、瞳孔距離、対象位置、対象距離、ルックアップテーブル、および目の輻輳距離220を演算し他のタイプの距離と比較するための他のデータを記憶してもよい。
コンピューティング・デバイス120は、1つ以上のカメラおよび/もしくは深度センサなどの、1つ以上のセンサ110に結合されてもよい。センサ110は、ユーザが存在する範囲内の環境の様々な特性、ならびにユーザに関連する様々な特性(例えば、配向、目の輻輳角、視線方向、表示位置までの目の距離)を測定するように構成される。センサ110は、あらゆる数のカメラ、深度センサ、光センサ、電界検出器、コンパス、ジャイロスコープ、無線送受信機、全地球測位システム(GPS)受信機、またはあらゆる他のタイプのセンサを含んでもよい。概して、センサ110は、環境に関連する感覚データ、およびユーザに関連する感覚データを捕捉し、そのデータをコンピューティング・デバイス120に提供する。
コンピューティング・デバイス120は全体として、マイクロプロセッサ、特定用途向け集積回路(ASIC)、システム・オン・チップ(SoC)、タブレットコンピュータまたは携帯電話などの携帯コンピューティング・デバイス、およびメディアプレーヤなどであってもよい。概して、コンピューティング・デバイス120は、両眼転導検出システム100および/またはセンサ110の作動全体を調整するように構成される。両眼転導検出システム100および/またはセンサ110の機能性を実施するように構成されたあらゆる技術的に可能なシステムは、本発明の範囲に包含される。
以上まとめると、両眼転導検出システムは、目の輻輳距離およびユーザの目から表示位置までの距離を決定する。次いで両眼転導検出システムは、目の輻輳距離をユーザの目から表示位置までの距離と比較して、ユーザが表示位置に焦点を合わせているかどうかを判定する。ユーザが表示位置に焦点を合わせている場合は、両眼転導検出システムは、ディスプレイを介して画像を表示させる。ユーザが表示位置に焦点を合わせていない場合は、両眼転導検出システムは、画像をディスプレイから隠す。
本明細書に記載された手法の少なくとも1つの利点は、ユーザが目をディスプレイまたは表示された画像に焦点を合わせているかどうかに基づいて、ユーザが画像を表示させるか、または隠すことができることである。加えて、画像は透過型ディスプレイおよび/またはヘッドアップ・ディスプレイ(HUD)を介して表示されてもよく、ユーザが画像を隠し、次いで見る方向を変えることなく画像の背後の周囲環境を見ることができる。
各種実施形態の記載が例示目的で提示されたが、網羅的であること、または開示された実施形態に限定することが意図されてはいない。多くの修正形態および変形形態が、記載された実施形態の範囲および趣旨から逸脱することなく、当業者には明らかになろう。
本実施形態の態様は、システム、方法またはコンピュータ・プログラム製品として実装されてもよい。したがって、本開示の態様は、専らハードウェアの実施形態、専らソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはすべてが概ね本明細書で「回路」、「モジュール」もしくは「システム」と呼ばれ得る、ソフトウェアとハードウェアの態様を組み合わせた実施形態の形をとってもよい。さらに、本開示の態様は、その上に実装されたコンピュータ可読プログラムコードを有する、1つ以上のコンピュータ可読媒体内に実装されたコンピュータ・プログラム製品の形をとってもよい。
1つ以上のコンピュータ可読媒体のあらゆる組合せを利用してもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は、例えば、電子、磁気、光学、電磁気、赤外線、もしくは半導体のシステム、装置、またはデバイス、あるいは前記のあらゆる適切な組合せであってもよいが、これに限定されない。コンピュータ可読記憶媒体のより具体的な例(非包括的リスト)は、1つ以上の有線電気接続、携帯用コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、携帯用コンパクトディスク読取り専用メモリ(CD−ROM)、光学記憶デバイス、磁気記憶デバイス、または前述のあらゆる適切な組合せを含むはずである。本文書において、コンピュータ可読記憶媒体は、命令実行システム、装置、もしくはデバイスによって、または命令実行システム、装置、もしくはデバイスに関連して、使用するためのプログラムを含む、あるいは記憶することができるあらゆる有形の媒体であってもよい。
本開示の態様を、本開示の実施形態による、方法、装置(システム)およびコンピュータ・プログラム製品のフローチャート図ならびに/またはブロック図を参照して上に記載した。フローチャート図および/またはブロック図のそれぞれのブロック、ならびにフローチャート図および/またはブロック図におけるブロックの組合せを、コンピュータ・プログラム命令によって実施できることが理解されよう。これらのコンピュータ・プログラム命令は、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサに提供されて機械を生成し得るので、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行する命令は、フローチャートおよび/またはブロック図の1つもしくは複数のブロックに指定された機能/作用の実行を可能にする。このようなプロセッサは、限定するものではないが、汎用プロセッサ、専用プロセッサ、特別用途向けプロセッサ、またはフィールド・プログラマブル・プロセッサであってもよい。
図におけるフローチャートおよびブロック図は、本開示の各種実施形態に係る、システム、方法およびコンピュータ・プログラム製品の可能な実装のアーキテクチャ、機能性、および作動を示す。これについて、フローチャートまたはブロック図内の各ブロックは、指定された論理機能を実行するための1つもしくは複数の実行可能な命令を含む、モジュール、セグメント、またはコードの一部を表してもよい。また一部の代替的実装形態では、ブロック内に記された機能は、図内に記された順序以外で生じてもよいことにも留意されたい。例えば、連続して示された2つのブロックが、実際には、実質的に同時に実行されてもよく、またはブロックが、関与した機能に応じて、場合によって逆の順序で実行されてもよい。またブロック図および/またはフローチャート図のそれぞれのブロック、ならびにブロック図および/またはフローチャート図におけるブロックの組合せを、指定された機能もしくは作用、または専用ハードウェアとコンピュータ命令の組合せを実行する、専用ハードウェアベースのシステムによって実行することができることにも留意されよう。
本発明は、特定の実施形態を参照に上に記載された。しかし、当業者には、添付の特許請求の範囲に記載されたような、本発明の趣旨および範囲から逸脱することなく、様々な修正および変更がなされてよいことが理解されよう。例えば、限定するものではないが、本明細書の記載の多くは、ディスプレイまたはユーザの目に関連するデータを取得し得る特定のタイプのセンサを指すが、本明細書に記載されたシステムおよび手法は、他のタイプのセンサに適用可能であることが、当業者には理解されよう。したがって前述の記載および図面は、限定的意味ではなく、例示的意味とみなされるべきである。
上記は本開示の実施形態を対象とするが、本開示の他の実施形態およびさらなる実施形態を、その基本的範囲から逸脱することなく考案してもよく、その範囲は以下の特許請求の範囲によって決定される。

Claims (20)

  1. 両眼転導に基づいて画像を表示するための方法であって、
    ユーザの片目または両目から表示位置まで第1の距離を決定することと、
    前記ユーザの前記目に関連する視線ベクトルに基づいて、目の輻輳距離を決定することと、
    前記目の輻輳距離が前記第1の距離と実質的に同じ場合に、前記画像を表示させることと、
    前記目の輻輳距離が前記第1の距離と実質的に同じではない場合に、前記画像の表示を終了させることと
    を含む、方法。
  2. 前記画像の前記表示を終了させることは、前記目の輻輳距離が前記第1の距離より実質的に長い場合に、前記画像の前記表示を終了させることを含む、請求項1に記載の方法。
  3. 前記画像は透過型ディスプレイ上に表示され、前記画像の前記表示を終了させることは、前記ユーザの前記目が前記透過型ディスプレイを通過して焦点を合わせていると判定することに基づいて、前記画像の前記表示を終了させることを含む、請求項1に記載の方法。
  4. 前記ユーザの前記目に関連する少なくとも1つの角膜反射画像に基づいて、左目視線ベクトルおよび右目視線ベクトルを演算することにより、前記ユーザの前記目に関連する前記視線ベクトルを演算することをさらに含む、請求項1に記載の方法。
  5. 前記左目視線ベクトルが前記表示位置に関連する平面と交差する第1の位置を決定することと、
    前記右目視線ベクトルが前記表示位置に関連する前記平面と交差する第2の位置を決定することと
    をさらに含む、請求項4に記載の方法。
  6. 前記目の輻輳距離を決定することは、前記左目視線ベクトルが前記平面と交差する前記第1の位置と、前記右目視線ベクトルが前記平面と交差する前記第2の位置との間の第2の距離に基づいて、前記目の輻輳距離を決定することを含む、請求項5に記載の方法。
  7. 前記表示位置は、透過型ディスプレイの表示面に対応する、請求項1に記載の方法。
  8. 前記表示位置は、ヘッドアップ・ディスプレイによって生成される仮想画像位置に対応する、請求項1に記載の方法。
  9. 前記目の輻輳距離が前記第1の距離と実質的に同じではない場合に、第2の画像を前記表示位置でディスプレイ上に表示させたままにすることをさらに含む、請求項1に記載の方法。
  10. 両眼転導に基づいて画像を表示するためのシステムであって、
    ユーザの目に関連するセンサデータを取得するように構成された少なくとも1つのセンサと、
    前記少なくとも1つのセンサに結合されたプロセッサであって、
    前記センサデータに基づいて、前記ユーザの前記目に関連する視線ベクトルを演算する、
    前記視線ベクトルに基づいて、目の輻輳距離を決定する、
    前記ユーザの前記片目または両目から表示位置までの第1の距離を決定する、
    前記目の輻輳距離が前記第1の距離と実質的に同じ場合に、前記画像をディスプレイによって表示させるか、または、
    前記目の輻輳距離が前記第1の距離と実質的に同じではない場合に、前記画像を前記ディスプレイに表示させることを終了させるように構成されたプロセッサと、
    前記プロセッサに結合され、前記表示位置で前記画像を表示するように構成された前記ディスプレイと
    を備える、システム。
  11. 前記センサデータは、前記ユーザの前記目に関連する少なくとも1つの角膜反射画像を含み、前記プロセッサは、前記少なくとも1つの角膜反射画像に基づいて、左目視線ベクトルおよび右目視線ベクトルを演算することにより、前記ユーザの前記目に関連する前記視線ベクトルを演算するように構成される、請求項10に記載のシステム。
  12. 前記プロセッサは、
    前記左目視線ベクトルが前記表示位置に関連する平面と交差する第1の位置を決定することと、
    前記右目視線ベクトルが前記表示位置に関連する前記平面と交差する第2の位置を決定することと、
    前記左目視線ベクトルが前記平面と交差する前記第1の位置と、前記右目視線ベクトルが前記平面と交差する前記第2の位置との間の第2の距離を決定することと、
    前記第2の距離に基づいて、前記目の輻輳距離を決定することと
    によって、前記目の輻輳距離を決定するように構成される、請求項11に記載のシステム。
  13. 前記少なくとも1つのセンサは、前記ユーザの前記片目または両目から前記表示位置までの前記第1の距離を決定するように構成された、深度センサを備える、請求項10に記載のシステム。
  14. 前記ディスプレイは透過型ディスプレイを備え、前記プロセッサは、前記目の輻輳距離が前記第1の距離より実質的に長い場合に、前記ディスプレイに前記画像を表示することを終了させるように構成される、請求項10に記載のシステム。
  15. 前記透過型ディスプレイは、一次表示領域および二次表示領域を備え、前記ディスプレイは、前記画像を前記一次表示領域に表示することにより、前記画像を前記表示位置で表示するように構成される、請求項14に記載のシステム。
  16. 前記プロセッサは、前記目の輻輳距離が前記第1の距離と実質的に同じではない場合に、第2の画像を前記二次表示領域に表示させる、または表示されたままにさせるようにさらに構成される、請求項15に記載のシステム。
  17. 前記ディスプレイはヘッドアップ・ディスプレイを備え、前記表示位置は、前記ユーザが前記画像に気付く範囲内の量に対応する、請求項10に記載のシステム。
  18. 前記ディスプレイはヘッドアップ・ディスプレイを備え、前記表示位置は、その上に前記画像が前記ヘッドアップ・ディスプレイによって投影される表面に対応する、請求項10に記載のシステム。
  19. 非一時的コンピュータ可読記憶媒体であって、プロセッサによって実行される際に、
    ユーザの片目または両目から透過型ディスプレイの表面までの第1の距離を決定するステップと、
    センサデータに基づいて、前記ユーザの前記目に関連する視線ベクトルを演算するステップと、
    前記視線ベクトルに基づいて、目の輻輳距離を決定するステップと、
    前記目の輻輳距離が前記第1の距離と実質的に同じ場合に、前記画像を表示させるステップと、
    前記目の輻輳距離が前記第1の距離より実質的に長い場合に、前記画像の前記表示を終了させるステップと
    を実行することにより、前記プロセッサに両眼転導に基づいて画像を表示させる命令を含む、非一時的コンピュータ可読記憶媒体。
  20. 前記画像の前記表示を終了させることは、前記ユーザの前記目が前記透過型ディスプレイを通過して焦点を合わせていると決定することに基づいて、前記画像の前記表示を終了させることを含む、請求項19に記載の非一時的コンピュータ可読記憶媒体。
JP2014267022A 2014-01-03 2014-12-29 ディスプレイ上の両眼転導検出 Active JP6608137B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461923567P 2014-01-03 2014-01-03
US61/923,567 2014-01-03

Publications (2)

Publication Number Publication Date
JP2015130173A true JP2015130173A (ja) 2015-07-16
JP6608137B2 JP6608137B2 (ja) 2019-11-20

Family

ID=52273018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014267022A Active JP6608137B2 (ja) 2014-01-03 2014-12-29 ディスプレイ上の両眼転導検出

Country Status (4)

Country Link
US (1) US9952665B2 (ja)
EP (1) EP2891953B1 (ja)
JP (1) JP6608137B2 (ja)
CN (1) CN104765445B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017056933A (ja) * 2015-09-18 2017-03-23 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
WO2017090203A1 (ja) * 2015-11-27 2017-06-01 フォーブ インコーポレーテッド 視線検出システム、注視点特定方法及び注視点特定プログラム
JP2019162251A (ja) * 2018-03-19 2019-09-26 株式会社東芝 眼球回転検出装置、電子機器及びシステム

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106659441B (zh) * 2014-06-17 2019-11-26 皇家飞利浦有限公司 评价医生注意力
KR102172388B1 (ko) * 2014-09-11 2020-10-30 엘지디스플레이 주식회사 곡면 디스플레이 및 이의 영상 처리 방법
US10067561B2 (en) * 2014-09-22 2018-09-04 Facebook, Inc. Display visibility based on eye convergence
US10061383B1 (en) * 2015-09-16 2018-08-28 Mirametrix Inc. Multi-feature gaze tracking system and method
WO2017075100A1 (en) * 2015-10-26 2017-05-04 Pillantas Inc. Systems and methods for eye vergence control
US10466780B1 (en) * 2015-10-26 2019-11-05 Pillantas Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor
DE102015222388A1 (de) * 2015-11-13 2017-05-18 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Steuern einer Anzeigeeinrichtung in einem Kraftfahrzeug
CN105866950A (zh) * 2016-04-26 2016-08-17 乐视控股(北京)有限公司 数据处理的方法及装置
EP3249497A1 (en) 2016-05-24 2017-11-29 Harman Becker Automotive Systems GmbH Eye tracking
KR102520108B1 (ko) 2016-06-07 2023-04-11 삼성디스플레이 주식회사 투명 표시 장치, 이의 구동 방법, 및 이미지 취득 장치
JPWO2017212610A1 (ja) * 2016-06-09 2018-09-06 三菱電機株式会社 表示制御装置、表示装置、車載ディスプレイシステムおよび表示制御方法
JP6834537B2 (ja) 2017-01-30 2021-02-24 株式会社リコー 表示装置、移動体装置、表示装置の製造方法及び表示方法。
US10373592B2 (en) * 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
JP2018036993A (ja) * 2016-09-02 2018-03-08 オリンパス株式会社 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム
US10188291B2 (en) * 2016-09-08 2019-01-29 Howard P. Apple Device for screening convergence insufficiency and related methods
US10277943B2 (en) * 2017-03-27 2019-04-30 Microsoft Technology Licensing, Llc Selective rendering of sparse peripheral displays based on user movements
CN111801249A (zh) * 2018-02-22 2020-10-20 三菱电机株式会社 操作限制控制装置以及操作限制控制方法
DE102018110644B4 (de) * 2018-05-03 2024-02-15 Carl Zeiss Meditec Ag Digitales Mikroskop und digitales Mikroskopieverfahren
DE102018216613A1 (de) * 2018-09-27 2020-04-02 Bayerische Motoren Werke Aktiengesellschaft Datenbrillen mit automatischer Ausblendung von angezeigten Inhalten für Fahrzeuge
US10855979B2 (en) 2018-10-23 2020-12-01 Microsoft Technology Licensing, Llc Interpreting eye gaze direction as user input to near-eye-display (NED) devices for enabling hands free positioning of virtual items
US10852823B2 (en) 2018-10-23 2020-12-01 Microsoft Technology Licensing, Llc User-specific eye tracking calibration for near-eye-display (NED) devices
US10838490B2 (en) 2018-10-23 2020-11-17 Microsoft Technology Licensing, Llc Translating combinations of user gaze direction and predetermined facial gestures into user input instructions for near-eye-display (NED) devices
US10996746B2 (en) 2018-10-23 2021-05-04 Microsoft Technology Licensing, Llc Real-time computational solutions to a three-dimensional eye tracking framework
US10718942B2 (en) 2018-10-23 2020-07-21 Microsoft Technology Licensing, Llc Eye tracking systems and methods for near-eye-display (NED) devices
US11907417B2 (en) * 2019-07-25 2024-02-20 Tectus Corporation Glance and reveal within a virtual environment
US11662807B2 (en) 2020-01-06 2023-05-30 Tectus Corporation Eye-tracking user interface for virtual tool control
CN111772573B (zh) * 2020-07-06 2023-06-06 重庆能能科技有限公司 双眼聚散灵敏度检测装置及其数据处理方法
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device
US11720380B1 (en) 2022-05-18 2023-08-08 Bank Of America Corporation System and method for updating augmented reality navigation instructions based on a detected error
US11586286B1 (en) 2022-05-18 2023-02-21 Bank Of America Corporation System and method for navigating on an augmented reality display

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (ja) * 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
JP2005198743A (ja) * 2004-01-14 2005-07-28 National Univ Corp Shizuoka Univ 三次元視点計測装置
JP2007008382A (ja) * 2005-07-01 2007-01-18 Nissan Motor Co Ltd 視覚情報呈示装置及び視覚情報呈示方法
US20120215403A1 (en) * 2011-02-20 2012-08-23 General Motors Llc Method of monitoring a vehicle driver
DE102012006966A1 (de) * 2012-04-04 2012-11-08 Daimler Ag Verfahren zum Auslösen einer Fahrzeugfunktion durch blickgesteuerte Bedienung und Kraftfahrzeug
JP2013082445A (ja) * 2011-10-12 2013-05-09 Visteon Global Technologies Inc 適応表示システムの表示コンポーネントの制御方法
JP2013205526A (ja) * 2012-03-28 2013-10-07 Sony Corp 表示装置および表示制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6426740B1 (en) * 1997-08-27 2002-07-30 Canon Kabushiki Kaisha Visual-axis entry transmission apparatus and method therefor
US20060066567A1 (en) * 2004-09-29 2006-03-30 Scharenbroch Gregory K System and method of controlling scrolling text display
US8344894B2 (en) * 2009-04-02 2013-01-01 GM Global Technology Operations LLC Driver drowsy alert on full-windshield head-up display
JP5299866B2 (ja) * 2009-05-19 2013-09-25 日立コンシューマエレクトロニクス株式会社 映像表示装置
US8953242B2 (en) * 2011-03-31 2015-02-10 Honeywell International Inc. Varible focus stereoscopic display system and method
CN102830505B (zh) * 2012-09-08 2013-12-18 苏州科技学院 一种个性化渐进多焦点眼用镜片的制备方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (ja) * 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
JP2005198743A (ja) * 2004-01-14 2005-07-28 National Univ Corp Shizuoka Univ 三次元視点計測装置
JP2007008382A (ja) * 2005-07-01 2007-01-18 Nissan Motor Co Ltd 視覚情報呈示装置及び視覚情報呈示方法
US20120215403A1 (en) * 2011-02-20 2012-08-23 General Motors Llc Method of monitoring a vehicle driver
JP2013082445A (ja) * 2011-10-12 2013-05-09 Visteon Global Technologies Inc 適応表示システムの表示コンポーネントの制御方法
JP2013205526A (ja) * 2012-03-28 2013-10-07 Sony Corp 表示装置および表示制御方法
DE102012006966A1 (de) * 2012-04-04 2012-11-08 Daimler Ag Verfahren zum Auslösen einer Fahrzeugfunktion durch blickgesteuerte Bedienung und Kraftfahrzeug

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017056933A (ja) * 2015-09-18 2017-03-23 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
WO2017090203A1 (ja) * 2015-11-27 2017-06-01 フォーブ インコーポレーテッド 視線検出システム、注視点特定方法及び注視点特定プログラム
CN107111381A (zh) * 2015-11-27 2017-08-29 Fove股份有限公司 视线检测***、凝视点确认方法以及凝视点确认程序
US9880384B2 (en) 2015-11-27 2018-01-30 Fove, Inc. Gaze detection system, gaze point detection method, and gaze point detection program
JP2019162251A (ja) * 2018-03-19 2019-09-26 株式会社東芝 眼球回転検出装置、電子機器及びシステム

Also Published As

Publication number Publication date
CN104765445A (zh) 2015-07-08
US9952665B2 (en) 2018-04-24
EP2891953B1 (en) 2021-07-28
JP6608137B2 (ja) 2019-11-20
CN104765445B (zh) 2022-11-01
US20150192992A1 (en) 2015-07-09
EP2891953A1 (en) 2015-07-08

Similar Documents

Publication Publication Date Title
JP6608137B2 (ja) ディスプレイ上の両眼転導検出
US10067561B2 (en) Display visibility based on eye convergence
US9784971B2 (en) Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
KR102283747B1 (ko) 시선 추적을 갖는 타겟 위치결정
EP2933707B1 (en) Head mounted display presentation adjustment
US11127380B2 (en) Content stabilization for head-mounted displays
US10885819B1 (en) In-vehicle augmented reality system
US10613323B1 (en) Transition feature for framing multizone optics
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
US20220326766A1 (en) Object selection based on eye tracking in wearable device
US11024040B2 (en) Dynamic object tracking
WO2019142560A1 (ja) 視線を誘導する情報処理装置
CN110895433B (zh) 用于增强现实中用户交互的方法和装置
KR20150068276A (ko) 헤드 마운트 디스플레이 및 그 제어 방법
KR102366242B1 (ko) 미러 디스플레이 시스템에서 객체의 깊이를 제어하기 위한 방법
JP2017126009A (ja) 表示制御装置、表示制御方法、およびプログラム
CN113661433A (zh) 头戴式显示设备及其操作方法
US20220114811A1 (en) Method and device for processing image
KR20240028897A (ko) HMD(head mounted display) 장치에서 가상키보드를 표시하는 방법 및 장치
KR20230115184A (ko) 전자 장치 및 이의 제어 방법
JP2023076044A (ja) 画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190823

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191023

R150 Certificate of patent or registration of utility model

Ref document number: 6608137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250