JP7491926B2 - 拡張現実ヘッドセットの動的収束調整 - Google Patents

拡張現実ヘッドセットの動的収束調整 Download PDF

Info

Publication number
JP7491926B2
JP7491926B2 JP2021533175A JP2021533175A JP7491926B2 JP 7491926 B2 JP7491926 B2 JP 7491926B2 JP 2021533175 A JP2021533175 A JP 2021533175A JP 2021533175 A JP2021533175 A JP 2021533175A JP 7491926 B2 JP7491926 B2 JP 7491926B2
Authority
JP
Japan
Prior art keywords
virtual
display
depth
distance
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021533175A
Other languages
English (en)
Other versions
JP2022511571A (ja
JPWO2020123357A5 (ja
Inventor
ユ-ジェン リン
パトリック ジョン ゲルゲン
マーティン エヴァン グラハム
Original Assignee
ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー filed Critical ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Publication of JP2022511571A publication Critical patent/JP2022511571A/ja
Publication of JPWO2020123357A5 publication Critical patent/JPWO2020123357A5/ja
Application granted granted Critical
Publication of JP7491926B2 publication Critical patent/JP7491926B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

(関連出願に対する相互参照)
本出願は、2018年12月10日に出願された「拡張現実ヘッドセットにおける動的収束調整」と題された米国仮出願第62/777,545号の利益を主張し、当該仮出願は、あらゆる目的で引用により全体が本明細書に組み込まれる。
(技術分野)
本開示は、一般に、拡張現実、仮想現実、複合現実、又はシミュレートされた環境内で行われる他の何れかの好適な対話型コンピュータ生成体験に関する。より具体的には、本開示の特定の実施形態は、対話型コンピュータ生成体験を提供するヘッドセットの動作特徴に関する。
一例として、拡張現実システムの人気が高まっている。拡張現実ヘッドセットなどの拡張現実システムを提供する従来の技術は、システム構成要素及び機能の改善から恩恵を受けることが現在認識されている。詳細には、拡張現実の視覚効果を提供するための特定の従来のシステム及び技術は、感覚の不一致を引き起こす可能性があることが現在認識されている。従って、このようなセンサの感覚の不一致を制限又は阻止するように構成された改善された拡張現実システムを提供する必要がある。
このセクションは、以下に記載及び/又は特許請求される本技術の様々な態様に関連することができる技術の様々な態様を読み手に紹介することを意図している。この議論は、本開示の様々な態様のより良い理解を容易にするための背景情報を読み手に提供するのに役立つと考えられる。従って、これらの記載は、先行技術を認めるものとしてではなく、上記の観点から読まれるべきであることを理解されたい。
最初に請求項に記載された本発明の範囲内にある一部の実施形態について以下で要約する。これらの実施形態は、本開示の範囲を限定することを意図するものではなく、むしろ、これらの実施形態は、特定の開示された実施形態の概要を提供することのみを意図する。実際に、本開示は、以下に記載される実施形態と類似した又は異なる可能性がある様々な形態を包含することができる。
詳細には、一実施形態では、拡張現実システムは、ユーザの左眼に左仮想イメージを表示する左ディスプレイを有する拡張現実ヘッドセットを含む。拡張現実ヘッドセットはまた、ユーザの右眼に右仮想イメージを表示する右ディスプレイを含む。左仮想イメージ及び右仮想イメージを見るときに、左仮想イメージ及び右仮想イメージは、ユーザには単一の仮想イメージとして見える。拡張現実ヘッドセットは更に、ユーザの瞳孔位置を検出してその指標を提示する瞳孔追跡センサを含む。拡張現実システムはまた、瞳孔位置の指標を受信することに基づいてユーザの瞳孔間距離を決定する瞳孔間距離決定エンジンを有する収束調整システムを含む。収束調整システムはまた、瞳孔間距離及び仮想オブジェクトが仮想深度を変化させていることの指標に基づいて、仮想イメージの仮想オブジェクトの表示の調整をもたらす表示調整エンジンを含む。収束調整システムは更に、ディスプレイ調整エンジンからの調整に基づいて仮想オブジェクトを表示するプロセッサを含む。
別の実施形態では、有形の非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、それぞれの第1の仮想深度からそれぞれの第2の仮想深度に移動するように仮想オブジェクトが表示されることになる指標をプロセッサに受け取らせる、仮想オブジェクトの表示を調整するための命令を有する。この命令はまた、プロセッサに、瞳孔間距離を決定させ、瞳孔間距離に基づいて、それぞれの第1の仮想深度にて各仮想オブジェクトに関連付けられたそれぞれの第1の視線と、それぞれの第2の仮想深度にて仮想オブジェクトに関連付けられたそれぞれの第2の視線との間のそれぞれの横方向距離を動的に決定させる。命令は更に、プロセッサに、それぞれの横方向距離に基づいて、それぞれの第1の仮想深度からそれぞれの第2の仮想深度に移動するように各仮想オブジェクトを表示させる。
更に別の実施形態では、仮想オブジェクトの表示を調整する方法は、1又は2以上の表示されたオブジェクトが第1の仮想深度から第2の仮想深度に移動するように表示されるという指標を受け取ることを含む。本方法はまた、瞳孔間距離を決定すること、及び瞳孔間距離に基づいて、第1の仮想深度にて表示されたオブジェクトに関連する第1の収束ベクトルと、第2の仮想深度にて表示されたオブジェクトに関連する第2の収束ベクトルとの間の横方向距離を決定することを含む。本方法は更に、横方向距離に基づいて、第1の仮想深度から第2の仮想深度に移動するように表示されたオブジェクトを表示することを含む。
本開示のこれら及び他の特徴、態様、並びに利点は、図面全体を通じて同様の参照符号が同様の要素を示す添付図面を参照しながら以下の詳細な説明を読むと更に理解できるであろう。
本開示の実施形態による、拡張現実ヘッドセットを装着しているユーザの斜視図である。 本開示の実施形態による、ユーザの視点からの図1の拡張現実ヘッドセットの斜視図である。 本開示の実施形態による、図1の拡張現実ヘッドセットを組み込んだ拡張現実システムのブロック図である。 図1の拡張現実ヘッドセットを通して仮想オブジェクトを見ているユーザの概略平面図である。 本開示の実施形態による、拡張現実ヘッドセットを通して見た図4の仮想オブジェクトのユーザの視点の概略図である。 本開示の実施形態による、仮想深度を変更する際の拡張現実ヘッドセットを通して図4の仮想オブジェクトを見ているユーザの概略平面図である。 本開示の実施形態による、仮想オブジェクトが仮想深度を変更する際の拡張現実ヘッドセットを通して見た図6の仮想オブジェクトのユーザの視点の概略図である。 本開示の実施形態による、仮想オブジェクトの表示を調整するプロセスのフローチャートである。
現実の世界では、人が自分の真正面にあるオブジェクトを見るとき、人は、眼を互いに反対方向に同時に移動させ、各眼の視線がオブジェクトに収束し、又は各眼の瞳孔がオブジェクトと一直線に並び(両眼転導と呼ばれるプロセス)、眼の屈折力を変更してオブジェクトの鮮明な画像を維持し、又はオブジェクトの焦点を合わせる(調節と呼ばれるプロセス)ようにする。このように、人は、鮮明な画像を維持するために同時に眼の焦点を合わせている同じ固定点に視線を向けることに慣れている。人が接近するときにオブジェクトを見る場合、各眼の視線が更に共に収束し、眼の屈折力が変化してオブジェクトの鮮明な画像が維持される。人が離れるときにオブジェクトを見る場合、各眼の視線が発散し、眼の屈折力が変化して、オブジェクトの鮮明な画像が維持される。拡張現実ヘッドセットは通常、被写界深度をシミュレートするディスプレイを使用する。詳細には、ディスプレイは、右眼が見るための右ディスプレイと、左眼が見るための左ディスプレイとに分割することができる。ディスプレイが略矩形であると仮定すると、拡張現実ヘッドセットは、左右のディスプレイの各々に仮想オブジェクトを有する仮想イメージ(例えば、右仮想オブジェクトを有する右仮想イメージ及び左仮想オブジェクトを有する左仮想イメージ)を表示することによって、ユーザの真正面に仮想オブジェクトを有する仮想イメージを表示することができ、それぞれの仮想オブジェクトのそれぞれの基準点(例えば、中心又は略中心)が各ディスプレイの外側縁部よりも内側縁部に近い。更に、仮想オブジェクトのそれぞれの基準点は、各ディスプレイの内側縁部から等距離に存在することができる。これは、現実世界のオブジェクトを見たときに、各人の眼の視線が、その人が見ているオブジェクトに収束することになることに起因する。
仮想オブジェクトがユーザにより接近して見えるようにするために、拡張現実ヘッドセットは、仮想オブジェクトのそれぞれの基準点から各ディスプレイの内側縁部までの等距離を維持しながら、ディスプレイ上の仮想オブジェクトを拡大することができる。仮想オブジェクトをユーザからより離れて見えるようにするために、拡張現実ヘッドセットは、仮想オブジェクトのそれぞれの基準点から各ディスプレイの内側縁部までの等距離を維持しながら、ディスプレイ上の仮想オブジェクトを縮小することができる。しかしながら、仮想オブジェクトのそれぞれの基準点は、ユーザに接近しているとき又は遠ざかっているように見えるときに、各ディスプレイの内側縁部まで等距離を維持するので、ユーザの眼が収束する点は、仮想オブジェクトが存在するように見える場所ではない可能性があることが認識されている。すなわち、ユーザの眼が収束する点は、仮想オブジェクトが存在するように見える場所の前方又は後方にある可能性がある。これは、仮想オブジェクトを見るときにぼけ又は二重像効果を引き起こす可能性があり、ユーザ体験が低下する結果となる。
同時に、ユーザの焦点は、仮想オブジェクトが存在するように見える場所に向けることができる。このため、ユーザは、鮮明な画像を維持するために、眼の焦点を合わせる場所とは異なる場所に視線を向けることができる。これは、両眼転導と調節の競合を生じる可能性があり、不快感、疲労感、持続性頭痛、及び/又は吐き気につながる可能性がある。
本実施形態によれば、仮想現実ヘッドセットのディスプレイは、仮想オブジェクトを提示/表示することができる。このようなオブジェクトの基準点(例えば、オブジェクトの特定の寸法に沿った幾何学的中心点)を利用して、本実施形態の動作上の特徴を説明することができる。詳細には、このような基準点と拡張現実ヘッドセットの特徴との間の距離は、ユーザ体験を改善するために、本実施形態に従って制御される。例えば、仮想オブジェクトが第1の仮想深度から第2の仮想深度に変化するものとして提示されるときに、仮想オブジェクトの中心から拡張現実ヘッドセットのディスプレイの内側縁部までの距離を維持するのではなく、本実施形態は、それぞれの仮想オブジェクトが第1の仮想深度から第2の仮想深度へと変化するものとして提示されるときにそれぞれの距離だけ各仮想オブジェクトを動的且つ横方向にシフトする。それぞれの距離は、ディスプレイに沿って、第1の仮想深度にあるそれぞれの仮想オブジェクトとのユーザの眼の第1の収束ベクトルと、第2の仮想深度にあるそれぞれの仮想オブジェクトとのユーザの眼の第2の収束ベクトルとの間の横方向距離に基づいて動的に決定することができ、また、瞳孔間距離に基づくことができる。このようにして、仮想オブジェクトの表示は、仮想オブジェクトが存在するように見える場所にユーザの眼の視線が収束することができるように調整することができる。このため、ユーザは、鮮明な画像を維持するために眼の焦点を合わせる場所と同じ点に視線を向けることができる。従って、現在開示されているシステム及び方法は、仮想オブジェクトの仮想深度の変化を表示するときの両眼転導と調節の競合を低減又は排除し、仮想オブジェクトを見るときに起こり得るぼけ又は二重像効果、不快感、疲労感、持続する頭痛、及び/又は吐き気を低減又は回避し、より良いユーザ体験をもたらすことができる。
本開示は、拡張現実及び拡張現実ヘッドセットの使用について論じているが、開示された技術はまた、仮想現実、複合現実、又はシミュレートされた環境内で行われる他の何れかの好適な対話型コンピュータ生成体験に適用できることを理解されたい。更に、仮想オブジェクトに関連する「深度」という用語の使用は、仮想オブジェクトの仮想深度を指すと理解されるべきである。すなわち、「深度」及び「仮想深度」という用語は、拡張現実ヘッドセットを通して仮想オブジェクトを見ることに基づいて、仮想オブジェクトが(例えば、ユーザの視点から)位置又は配置されるように見える深度を指す。
これを念頭に置いて、図1は、本開示の実施形態による、拡張現実ヘッドセット12を装着しているユーザ10の斜視図である。拡張現実ヘッドセット12は、現実世界環境に重ねて又は組み合わせて、シミュレートされた視覚環境を提供することができる。図示のように、拡張現実ヘッドセット12は、現実世界環境の表示をユーザ10に提供する正面カメラ14を含むことができる。追加の又は代替の実施形態では、拡張現実ヘッドセット12は、代わりにレンズ又は透明ディスプレイを含むことができ、ユーザ10は、現実世界環境を直接視認する。すなわち、拡張現実ヘッドセット12は、ディスプレイを介して現実世界環境を再現することなく、ユーザ10に提供することができる。
図2は、本開示の実施形態による、ユーザ10の視点からの拡張現実ヘッドセット12の斜視図である。図示のように、拡張現実ヘッドセット12は、ディスプレイ20を含み、ディスプレイ20は、2つの別個のディスプレイ22、24に分割することができる。詳細には、左ディスプレイ22は、ユーザの左眼で見ることができ、右ディスプレイ24は、ユーザの右眼で見ることができる。幾つかの実施形態では、左ディスプレイ22及び右ディスプレイ24は、2つの異なる物理的ディスプレイであり、単一のディスプレイ20の一部ではないものとすることができる。ディスプレイ20は、図1に示される前面カメラ14を介して受信した画像を介してユーザ10に現実世界環境を再現する、不透明スクリーンを含むことができる。例えば、ディスプレイ20は、拡張現実ヘッドセット12に挿入されるか、又は取り外し可能に結合することができる(例えば、取り外し可能で繰り返し結合することが可能)スマートフォン又はタブレットとすることができる。幾つかの実施形態では、ディスプレイ20は、拡張現実ヘッドセットの固定構成要素とすることができる。更に、追加の又は代替の実施形態では、ディスプレイ20は、透明又は半透明のスクリーン又はレンズを含み、これにより、ユーザ10は、スクリーン又はレンズを通して実際の環境を直接見ることができる。次いで、シミュレートされた視覚環境は、可視の現実世界環境に重ね合わせるか、又は共に表示することができる。幾つかの実施形態では、拡張現実ヘッドセット12は、ユーザの眼又は瞳孔の位置を決定する、及び/又はユーザの眼又は瞳孔の位置を示す1又は2以上の信号を送信する、眼又は瞳孔追跡センサ26を含むことができる。
図3は、本開示の実施形態による、拡張現実システム38のブロック図である。図示のように、拡張現実システム38は、1又は2以上のプロセッサ44及び1又は2以上のメモリデバイス46を含むコントローラ42を有する収束調整システム40を含む。プロセッサ44は、仮想オブジェクトの表示を調整するためのソフトウェアプログラム及び/又は命令を実行することができる。更に、プロセッサ44は、複数のマイクロプロセッサ、1又は2以上の「汎用」マイクロプロセッサ、1又は2以上の専用マイクロプロセッサ、及び/又は1又は2以上の特定用途向け集積回路(ASICS)、及び/又は1又は2以上の縮小命令セット(RISC)プロセッサを含むことができる。メモリデバイス46は、1又は2以上の記憶装置を含むことができ、仮想オブジェクトの表示の調整に関連する命令など、プロセッサ44が実行するための機械可読及び/又はプロセッサ実行可能命令(例えば、ファームウェア又はソフトウェア)を格納することができる。このため、メモリデバイス46は、例えば、制御ソフトウェア、ルックアップテーブル、構成データ及びその他を格納して、仮想オブジェクトの表示の調整を容易にすることができる。幾つかの実施形態では、プロセッサ44及びメモリデバイス46は、コントローラ42の外部にあることができる。メモリデバイス46は、揮発性メモリ(例えば、ランダムアクセスメモリ(RAM)))などの有形の非一時的な機械可読媒体、及び/又は揮発性メモリ(例えば、読み取り専用メモリ(ROM)、フラッシュメモリ、ハードドライブ、及び/又は他の何れかの好適な光、磁気、又はソリッドステート記憶媒体)を含むことができる。
収束調整システム40はまた、ユーザ10の瞳孔間距離を動的に決定する瞳孔間距離決定エンジン48を含むことができる。瞳孔間距離は、ユーザの瞳孔間の距離とすることができる。幾つかの実施形態では、瞳孔間距離決定エンジン48は、瞳孔間距離を示す拡張現実ヘッドセット12の瞳孔追跡センサ26から信号を受信することができる。次に、瞳孔間距離決定エンジン48は、受信信号に基づいて瞳孔間距離を決定することができる。
追加の又は代替の実施形態では、瞳孔間距離決定エンジン48は、較正プロセスに基づいて瞳孔間距離を推定することができる。すなわち、ユーザ10が最初に拡張現実ヘッドセット12を装備するとき、収束調整システム40のコントローラ42は、較正プロセスを実行することができる。較正プロセスは、異なる仮想深度にある複数の仮想オブジェクトを示すこと、及びユーザ10がそれぞれの仮想オブジェクトの単一像対二重像を見たときに応答するようにユーザ10にプロンプトすることを含むことができる。単一像を見ることに対応するユーザの応答を使用して、仮想オブジェクトが表示される様々な仮想深度でのユーザの眼の推定位置を三角測量することにより、ユーザの眼の位置を推定することができる。瞳孔間距離決定エンジン48は、ユーザの眼の推定位置に基づいて、様々な仮想深度での瞳孔間距離のセットを決定することができる。このようにして、瞳孔間距離の決定を保存することができ、瞳孔間距離決定エンジン48は、回帰分析又は他の何れかの好適な形式の推定分析を実行して、保存された瞳孔間距離の決定のセットに基づく仮想オブジェクトの仮想深度に応じて瞳孔間距離を予測する数学モデル又は数式を生成することができる。瞳孔間距離決定エンジン48は、ユーザ10が様々なオブジェクト(仮想又は実在)を見るときに瞳孔間距離が変化する可能性があるので、ユーザ10の瞳孔間距離を動的に決定又は推定することができる。このため、ユーザ10の瞳孔間距離を更新することは、常に、定期的に、又は特定の時間又は関心のあるポイント(例えば、異なる仮想オブジェクトが表示されたとき、又は実在オブジェクトが見えてきたとき)に役立つことができる。本開示で使用される場合の「エンジン」という用語は、ハードウェア(回路など)、ソフトウェア(プロセッサ44によって実行するためにメモリデバイス46に格納された命令など)、又はこの2つの組み合わせを含むことができることを理解されたい。例えば、瞳孔間距離決定エンジン48は、瞳孔追跡センサ26と、瞳孔追跡センサ26に結合された回路とを含むことができ、瞳孔追跡センサ26は、瞳孔追跡センサ26からの瞳孔追跡情報を受信し、瞳孔追跡情報に基づいてユーザ10の瞳孔間距離を決定する。
収束調整システム40は更に、仮想オブジェクトの表示を調整する、及び/又はユーザ10の瞳孔間距離に基づいて仮想オブジェクトの表示に対する調整を提供する表示調整エンジン50を含むことができる。詳細には、ディスプレイ調整エンジン50は、入力画像データ52を受信することができ、これは、1又は2以上の仮想オブジェクト54を含むことができる。各仮想オブジェクト54は、それぞれの仮想深度にて表示することができる。ディスプレイ調整エンジン50はまた、瞳孔間距離決定エンジン48によって決定される瞳孔間距離を受け取ることができる。次に、ディスプレイ調整エンジン50は、瞳孔間距離に基づいて各仮想オブジェクト54の表示を調整することができる。
場合によっては、収束調整システム40は、拡張現実ヘッドセット12の一部とすることができる。追加の又は代替の実施形態では、収束調整システム40は、拡張現実ヘッドセット12の外部にあり、何れかの好適な通信ネットワーク及び/又はプロトコルを介して拡張現実ヘッドセット12と通信することができる。例えば、拡張現実ヘッドセット12及び収束調整システム40の各々は、通信インターフェースを含むことができ、通信インターフェースは、通信ネットワークに接続することができる。通信ネットワークは、モバイルネットワーク、WiFi、LAN、WAN、インターネット及び/又は同様のものなどの有線及び/又は無線とすることができ、拡張現実ヘッドセット12及び収束調整システム40が互いに通信することを可能にすることができる。
一例として、図4は、本開示の実施形態による、拡張現実ヘッドセット12を介して仮想オブジェクト54を見るユーザ10の概略平面図である。仮想オブジェクト54は、仮想位置68と、ユーザの瞳孔72、74と仮想オブジェクト54の基準点(例えば、中心)71との間の中心点Cを通過する中心線70に沿った仮想距離DOBJ1をシミュレートする仮想深度にて表示される。中心点Cは、ユーザの瞳孔72、74との間の点など、ユーザ10が視界源として経験する何れかの好適な点とすることができ、点Cと第1のユーザの瞳孔72との間の距離が、点Cと第2のユーザの瞳孔74との間の距離にほぼ等しいようになる。本開示は、仮想オブジェクトの中心として仮想オブジェクトの基準点を示しているが、仮想オブジェクトの中心以外の基準点は、仮想オブジェクトが不規則又は非対称の形状とすることができる場合に特に使用することができる(例えば、仮想オブジェクトの表面、内部、本体、又は縁部に沿った何れかの好適な点など)ことを理解されたい。
ユーザの瞳孔72、74間の瞳孔間距離は、図4のIPDとしてユーザの瞳孔72、74を通過する瞳孔間線76に沿って示され、中心点Cと瞳孔間線76に沿ったユーザの瞳孔70、72の何れかとの間の距離は、図4においてIPD/2として示されている。更に、図4に示されるように、ユーザの瞳孔72、74の何れかと仮想オブジェクト54との間の視線又は収束ベクトル78は、中心線70と角度θ1をなす。図4はまた、拡張現実ヘッドセット12のディスプレイ22、24を通過する(例えば、一般にその中心を通過する)ディスプレイライン80を示す。ユーザの瞳孔72、74の何れかとディスプレイライン80との間のディスプレイ距離DDISPは、ディスプレイライン80と交差するディスプレイ距離ライン82に沿って示される。ディスプレイ距離ライン82と中心線70は平行であるので、図4に示されるように、ディスプレイ距離ライン82と視線78もまた角度θ1で交差する。ディスプレイライン80に沿ったディスプレイ距離ライン82と視線78との間の距離は、X1として示され(これは、位置68で仮想オブジェクト54を見るための横方向瞳孔距離と呼ぶことができる)、相似三角形のルールに基づいて決定することができる。詳細には、X1は次式を使用して決定することができる。
X1=((IPD/2)/DOBJ1)*DDISP (式1)
図5は、本開示の実施形態による、拡張現実ヘッドセット12を通して見られている、図4の仮想オブジェクト54のユーザの視点の概略図である。収束調整システム40のコントローラ42は、仮想オブジェクト54を、ユーザの左眼が見るための左ディスプレイ22上の左位置101に左仮想オブジェクト100として表示し、ユーザの右眼が見るための右ディスプレイ24上の右位置103に右仮想オブジェクト102として表示する。拡張現実ヘッドセット12は、仮想オブジェクト54を、ユーザ10の真正面に(例えば、図4の中心線70に沿って)見えるように表示する。このため、コントローラ42は、左仮想オブジェクト100の基準点(例えば、中心)104を、外側(例えば、最左)縁部108よりも左ディスプレイ22の内側(例えば、最右)縁部106に近接して表示することができ、右仮想オブジェクト102の基準点(例えば、中央)110を、外側(例えば、最右)縁部114よりも右ディスプレイ24の内側(例えば、最左)縁部112に近接して表示することができる。更に、仮想オブジェクト100、102の基準点104、110は、各ディスプレイ22の内側縁部106、112から離れて等距離Y1にあることができる。これは、視線の収束点又はユーザの眼の収束ベクトル78にて仮想オブジェクト100、102を表示し、従って、仮想オブジェクト100、102を単一の仮想オブジェクト(図4において仮想オブジェクト54として識別される)として見えるようにすることである。従って、コントローラ42は、仮想オブジェクト100、102を、各ディスプレイ22、24の内側縁部106、112から距離Y1離れて表示して、仮想オブジェクト54が、ユーザの瞳孔72、74の視線78の収束点にて仮想位置68にあるように見せることができる。
更なる例として、図6は、本開示の実施形態による、深度が変化したときの拡張現実ヘッドセット12を介して図4の仮想オブジェクト54を見ているユーザ10の概略平面図である。詳細には、収束調整システム40のコントローラ42は、中心線70に沿った第1の仮想距離DOBJ1をシミュレートする第1の深度での当初の位置68から、第2の仮想距離DOBJ2をシミュレートする第2の深度での第2の位置128に仮想オブジェクト54の深度を変更するように見える場合がある。仮想オブジェクト54が深度を変更するように見えるようにするために、コントローラ42は、仮想オブジェクト54のサイズを変更することができる。この場合、コントローラ42は、仮想オブジェクト54を縮小して、仮想オブジェクト54が当初の位置68にあったときよりも仮想オブジェクトが遠くに見えるようにする。コントローラ42が仮想オブジェクト54をより深い深度からより近い深度に移動させるように見える場合、コントローラ42は、代わりに、仮想オブジェクト54が当初の位置68にあったときから仮想オブジェクト54を拡大することができる。
中心線70と角度θ1をなす第1の仮想距離DOBJ1における、ユーザの瞳孔72、74の何れかと仮想オブジェクト54の基準点71との間の第1の視線又は収束ベクトル78は、仮想オブジェクト54の深度が変化するにつれて、中心線70と角度θ2をなす第2の仮想距離DOBJ2におけるユーザの瞳孔72、74の何れかと仮想オブジェクト54の基準点132との間の第2の視線又は収束ベクトル130に変化する。ディスプレイライン80に沿ったディスプレイ距離ライン82と第2の視線130との間の距離は、X2として示され(これは、位置128にて仮想オブジェクト54を見るための第2の横方向瞳孔距離と呼ぶことができる)、相似三角形のルールに基づいて決定することができる。詳細には、X2は、次式を使用して決定することができる。
X2=((IPD/2)/DOBJ2)*DDISP (式2)
このようにして、仮想オブジェクト54の深度の変化に起因して瞳孔がディスプレイライン80にて移動する距離は、ディスプレイライン80(例えば、X1)に沿ったディスプレイ距離ライン82と視線78との間の距離と、ディスプレイ距離ライン82と、ディスプレイライン80(例えば、X2)に沿った第2の視線130との間の距離との差として表すことができ、これは、以下の式を使用してXDIFFと呼ぶことができる。
XDIFF=|X1-X2| (式3)
図6の深度を変化させる例示の実施例は、仮想オブジェクト54をより近い深度からより深い深度に移動させるので、ディスプレイライン80に沿ったディスプレイ距離ライン82とより近い深度に対応する視線78との間の距離(例えば、X1)は、ディスプレイライン80に沿ったディスプレイ距離ライン82と更なる深度に対応する第2の視線130(例えば、X2)との間の距離よりも大きいとすることができる。このため、2つの間の差異(例えば、XDIFF)は正の値とすることができる。しかしながら、仮想オブジェクト54がより深い深度からより近い深度に移動するときには、2つの間の差異(例えば、XDIFF)は負とすることができる。このため、式3に示すように、正の値を取得するよう、絶対値を取ることができる。
図7は、本開示の実施形態による、仮想オブジェクトが深度を変化させるときに拡張現実ヘッドセット12を通して見たときの図6の仮想オブジェクト54のユーザの視点の概略図である。収束調整システム40のコントローラ42は、ユーザの左眼が見るため左ディスプレイ22上で当初の左位置101から第2の左位置140に移動する左仮想オブジェクト100を表示し、ユーザの右眼が観るため右ディスプレイ上の当初の右位置103から第2の右位置142まで移動する右仮想オブジェクト102を表示する。拡張現実ヘッドセット12は、ユーザ10の真正面に(例えば、図6の中心線70に沿って)見えるように仮想オブジェクト54を表示する。従って、コントローラ42は、外側(例えば、最左)の縁部108よりも左ディスプレイ22の内側(例えば、最右)縁部106に近接して、左仮想オブジェクト100(例えば、第2の左位置140にて)の基準点(例えば、中心)144を表示することができ、外側(例えば、最右)の縁部114よりも右ディスプレイ24の内側(例えば、最右)の縁部112に近接して、右仮想オブジェクト102(第2の右位置142)の基準点(例えば、中央)146を表示することができる。更に、仮想オブジェクト100、102の基準点144、146(第2の左及び右位置140、142にて)は、各ディスプレイ22、24の内側縁部106から等距離Y2に存在することができる。これは、ユーザの眼の視線又は収束ベクトル78の収束点にて仮想オブジェクト100、102を表示し、従って、仮想オブジェクト100、102を単一の仮想オブジェクト(図4では仮想オブジェクト54として識別される)として表示可能にすることである。従って、コントローラ42は、仮想オブジェクト104を、各ディスプレイ22、24の内側縁部106、112から距離Y2離れて表示して、仮想オブジェクト54がユーザの瞳孔72、74の視線130の収束点の第2の仮想位置128にあるように見せることができる。
各ディスプレイ22、24の内側縁部106、112から左右の仮想オブジェクト100、102の基準点144、146までの距離Y2を決定するために、コントローラ42は、各ディスプレイ22、24の内側縁部106、112からの仮想オブジェクト100、102の基準点104、110からの距離Y1を決定することができる。コントローラ42はまた、ディスプレイライン80に沿ったディスプレイ距離線82と視線78との間の距離X1と、ディスプレイラインに沿ったディスプレイ距離ライン82と第2の視線130との間の距離X2との間の差異XDIFFを決定することができる。詳細には、この場合、コントローラ42は、仮想オブジェクト54が当初の位置68にあったときよりも仮想オブジェクト54を遠くに見えるようにする場合、コントローラ42は、各ディスプレイ22、24の外縁108、114に向けて左右の仮想オブジェクト100、102の各々を移動させることができる。このようにして、コントローラ42は、差異XDIFFを距離Y1に追加して、距離Y2を決定することができる。コントローラ42が、仮想オブジェクト54が当初の位置68にあったときよりも仮想オブジェクト54をより近くに見えるようにする場合、コントローラ42は、各ディスプレイ22、24の内縁106、112に向かって左右の仮想オブジェクト100、102の各々を移動させることができる。従って、コントローラ42は、距離Y1から差異XDIFFを差し引いて、距離Y2を決定することができる。
従って、コントローラ42は、各ディスプレイ22、24の内側縁部106、112から離れた距離Y1から離れた差異XDIFFで仮想オブジェクト100、102を表示して、仮想オブジェクト54がユーザの瞳孔72、74の視線又は収束ベクトル130の収束点での第2の仮想位置128にあるように見えるようにすることができる。
コントローラ42は、ディスプレイライン80(例えば、X1)に沿ったより近い深度に対応するディスプレイ距離ライン82と視線78との間の距離と、複数の仮想オブジェクト54のディスプレイライン80(例えば、X2)に沿った更なる深度に対応するディスプレイ距離ライン82と第2の視線130との間の距離との間の差異XDIFFを決定し、各々それぞれの差異XDIFFに基づく複数の仮想オブジェクト54の深度の変化を表示することができる。実際に、状況によっては、異なる深度の複数の仮想オブジェクト54がそれぞれの深度を変更し、それぞれの差異XDIFFが決定されず、各仮想オブジェクト54に適用されない場合(例えば、同じ差異XDIFFが各仮想オブジェクト54に適用される)、ユーザ10は、複数の仮想オブジェクト54の少なくとも幾つかの仮想オブジェクトの不自然で非現実的なシフトに起因して、複数の仮想オブジェクト54の少なくとも幾つかの仮想オブジェクトの「ジャンプ」効果を経験する可能性がある。従って、コントローラ42が、それぞれの仮想オブジェクト54が深度を変更しているという指標を受信すると、コントローラ42は、仮想オブジェクト54毎に別々に差分XDIFFを動的に決定することができる。
更に、図示のように、コントローラ42は、仮想オブジェクト100、102を第2の位置140、142で収縮させて、仮想オブジェクト100、102がそれぞれの当初の位置101、103にあったときよりも、仮想オブジェクト100、102をより遠くに見えるようにする。コントローラ42が仮想オブジェクト100、102をより深い深度からより近い深度に移動させるように見える場合、コントローラ42は、代わりに、仮想オブジェクト100、102がそれぞれの当初の位置101、103にあったときから仮想オブジェクト100、102を拡大することができる。
ユーザ10が仮想オブジェクト54を見るのを主として期待していると想定することができるので、横方向距離XDIFFの決定は、中心線70及びディスプレイライン80が瞳孔間線76に垂直であることに依存することができる。他の物体を見るために眼を移動させるのでなく、ユーザ10は、他の物体を見るために頭を転回させることができると想定できる。従って、同じ深度の全ての仮想オブジェクトは、同じ横方向距離XDIFFを同じ方向に向けて横方向にシフトすることができる。ユーザ10が主に仮想オブジェクト54を見ることを期待していると想定されない場合、コントローラ42は、仮想オブジェクト54の異なる焦点距離に基づいて、及び/又はこれを補償するために、仮想オブジェクト54の表示をシフト変形する、又は漸進的に調整することができる。
図8は、本開示の実施形態による、仮想オブジェクト54の表示を調整するためのプロセス160のフローチャートである。詳細には、収束調整システム40は、仮想オブジェクト54の表示を調整するプロセス160を実装することができる。プロセス160は、瞳孔間距離決定エンジン48及び/又はディスプレイ調整エンジン50を介してコントローラ42のプロセッサ44などの少なくとも1つの好適なプロセッサによって実行される命令を含む1又は2以上のソフトウェアアプリケーションの形態とすることができる。図示のプロセス160は、単に例として提供され、他の実施形態では、プロセス160の特定の図示のステップは、本開示に従って他の順序で実行され、スキップされ、繰り返され、又は示されないようにすることができる。
図示のように、プロセスブロック162において、プロセッサ44は、1又は2以上の表示されたオブジェクトが、第1の深度から第2の深度に移動するものとして表示されるという指標を受け取る。例えば、プロセッサ44は、ディスプレイ20が1又は2以上の仮想オブジェクト54を表示していると決定することができる。プロセッサ44は、深度を変える1又は2以上の仮想オブジェクト54を含むことができる入力イメージデータ52を受信することができる。結果として、プロセッサ44は、1又は2以上の仮想オブジェクト54が、それぞれの深度をそれぞれの第1の深度からそれぞれの第2の深度に変更していると決定することができる。追加の又は代替の実施形態では、プロセッサ44は、1又は2以上の仮想オブジェクト54がそれぞれの深度を変更していることを直接示す1又は2以上の入力信号(例えば、1又は2以上の深度変更指標信号)を受信することができる。図6を参照すると、プロセッサ44は、仮想オブジェクト54が第1の深度の第1の位置68から第2の深度の第2の位置128に深度を変更しているという指標を受信することができる。
プロセスブロック164において、プロセッサ44は、ユーザの瞳孔間距離を決定する。例えば、プロセッサ44は、図3に示される瞳孔追跡センサ26から瞳孔位置情報を受信し、瞳孔間距離決定エンジン48に、瞳孔位置情報に基づいて瞳孔間距離(例えば、図4に示されるようなIPD)を決定するように指示することができる。追加の又は代替の実施形態では、プロセッサ44は、瞳孔間距離決定エンジン48に、較正プロセスに基づいて、及び/又は回帰分析又は他の何れかの好適な形式の推定分析を実行することに基づいて、瞳孔間距離を推定するように指示することができる。すなわち、プロセッサ44は、ディスプレイ20上で異なる仮想深度にて幾つかの仮想オブジェクトを示し、ユーザ10がそれぞれの仮想オブジェクトの単一像対二重像を見たときに応答するようにユーザ10にプロンプトすることができる。単一像を見ることに対応するユーザの応答を使用して、仮想オブジェクトが表示される様々な仮想深度にてユーザの眼の推定位置を三角測量することにより、ユーザの眼の位置を推定することができる。プロセッサ44は、ユーザの眼の推定位置に基づいて、異なる仮想深度にて瞳孔間距離のセットを決定することができる。瞳孔間距離の決定は保存することができ、プロセッサ44は、回帰分析又は他の何れかの好適な形式の推定分析を実行して、保存された瞳孔間距離決定に基づいて、仮想オブジェクトの仮想深度に応じて瞳孔間距離を予測する数学モデル又は数式を生成することができる。瞳孔間距離決定エンジン48は、ユーザ10が様々なオブジェクト(仮想又は実在)を見るときに瞳孔間距離が変化する可能性があるので、ユーザ10の瞳孔間距離を動的に決定又は推定することができる。このため、ユーザ10の瞳孔間距離を更新することは、常に、定期的に、又は特定の時間又は関心のあるポイント(例えば、異なる仮想オブジェクトが表示されたとき、又は実在オブジェクトが見えてきたとき)に役立つことができる。
プロセスブロック166において、プロセッサ44は、瞳孔間距離に基づいて、ディスプレイに沿って、第1の深度で表示されたオブジェクトに関連付けられた第1の収束ベクトルと、第2の深度で表示されたオブジェクトに関連付けられた第2の収束ベクトルとの間の横方向距離を決定する。図6を参照すると、第1の収束ベクトル又は視線78は、第1の深度の第1の位置68で仮想オブジェクト54に関連付けられている。第2の収束ベクトル又は視線130は、第2の深度の第2の位置128で仮想オブジェクト54に関連付けられている。
横方向距離XDIFFは、ディスプレイライン80に沿った第1の収束ベクトル78と第2の収束ベクトル130との間の差異である。プロセッサ44は、ディスプレイライン80に沿ったディスプレイ距離ライン82と第1の収束ベクトル78との間の距離を決定することによって横方向距離XDIFFを決定することができる。詳細には、プロセッサ44は、上記の式1で表されるように、瞳孔間距離(IPD/2)の半分をユーザの瞳孔72、74間の中心点Cと第1の位置68にある仮想オブジェクト54の基準点(例えば、中心)71との間の第1の仮想距離(DOBJ1)で除算し、その結果をユーザの瞳孔72、74の何れかとディスプレイライン80との間のディスプレイ距離DDISPと乗算することによってX1を決定することができる。プロセッサ44は、上記の式2で表されるように、瞳孔間距離(IPD/2)の半分を、ユーザの瞳孔72、74間の中心点Cと第2の位置128にある仮想オブジェクト54の基準点(例えば、中心)132との間の第2の仮想距離(DOBJ2)で除算し、その結果をユーザの瞳孔72、74の何れかとディスプレイライン80との間のディスプレイ距離DDISPと乗算することによってX2を決定することができる。幾つかの実施形態では、上記の式3に示されるように、X1とX2との間の差異の絶対値を取り、正の値を確実にすることができる。プロセッサ44は、メモリデバイス46などの何れかの好適なメモリ又はストレージデバイスに横方向距離XDIFFを保存することができる。
決定ブロック168において、プロセッサ44は、それぞれの第1の深度からそれぞれの第2の深度へ移動するものとして表示される別の表示されたオブジェクトがあるかどうかを決定する。オブジェクトがある場合、プロセッサ44は、プロセスブロック166を繰り返して、瞳孔間距離に基づいてディスプレイ20に沿って、それぞれの第1の深度で追加の仮想オブジェクトに関連付けられた第1の収束ベクトルと、それぞれの第2の深度で追加の仮想オブジェクトに関連付けられた第2の収束ベクトルとの間の横方向距離XDIFFを決定する。このようにして、プロセッサ44は、各仮想オブジェクト54が様々な横方向差異XDIFF値に対応することができるように、各仮想オブジェクト54の差異XDIFFを個別に動的に決定することができる。
プロセッサ44が、それぞれの第1の深度からそれぞれの第2の深度へ移動するものとして表示される別の表示されたオブジェクトがないと判断した場合、プロセッサ44は、プロセスブロック170において、それぞれの横方向の距離に基づくそれぞれの第1の深度からそれぞれの第2の深度まで移動するものとして各表示されたオブジェクトを表示する。詳細には、プロセッサ44は、ディスプレイ22、24に表示された各仮想オブジェクト100、102の基準点144、146を横方向の距離XDIFFだけシフトすることができる。例えば、図7に示されるように、第1の深度が第2の深度よりもユーザ10に近接している場合、プロセッサ44は、左右の仮想オブジェクト100、102の各々を、横方向差異XDIFFによって各ディスプレイ22、24の外縁108、114に向かって移動させることができる(従って、距離Y1に横方向の差異XDIFFを追加して、距離Y2を決定する)。第1の深度が第2の深度よりもユーザ10から離れている場合、プロセッサ44は、左右の仮想オブジェクト100、102の各々を、横方向差異XDIFF(従って、距離Y1から横方向の差異XDIFFを差し引いて、距離Y2を決定します)によって各ディスプレイ22、24の内側縁部106、112に向かって移動させることができる。このようにして、プロセッサ44は、プロセス160を実装して、仮想オブジェクト54の表示を調整して、仮想オブジェクト54がユーザの瞳孔72、74の収束ベクトル130の収束点に現れるようにし、仮想オブジェクト54を見るときの起こり得るぼけ又は二重像効果、不快感、疲労感、持続する頭痛、及び/又は吐き気を低減又は回避し、より良いユーザ体験をもたらすことができる。
本明細書で提示され請求項に記載された手法は、本発明の技術分野を明らかに改善する実際的な性質の実質的な目的及び具体的な実施例に参照及び適用され、このため、抽象的、無形、又は真に理論的でもない。更に、本明細書の終わりに添付した何れかの請求項が「機能」を「実行」する手段」又は「機能」を「実行」するステップ」として指定された1又は2以上の要素を含む場合、このような要素は、米国特許法第112条(f)に従って解釈されるものとする。しかしながら、任意の他の方法で指定された要素を含む何れかの請求項については、このような要素は、米国特許法第112条(f)に従って解釈されないものとする。
10 ユーザ
12 拡張現実ヘッドセット
54 仮想オブジェクト
68 仮想位置
71 基準点
72、74 ユーザの瞳孔
76 瞳孔間線
78 視線
80 ディスプレイライン
82 ディスプレイ距離ライン

Claims (21)

  1. 拡張現実システムであって、
    拡張現実ヘッドセットを備え、
    前記拡張現実ヘッドセットが、
    ユーザの左眼に左仮想イメージ及び左仮想オブジェクトを表示するように構成された左ディスプレイと、
    前記ユーザの右眼に右仮想イメージ及び右仮想オブジェクトを表示するように構成された右ディスプレイであって、前記左仮想イメージ及び前記右仮想イメージを見たときに、前記左仮想イメージ及び前記右仮想イメージが、前記ユーザに第1の仮想イメージとして見えるようになり、前記左仮想オブジェクト及び前記右仮想オブジェクトを見たときに、前記左仮想オブジェクト及び前記右仮想オブジェクトが、前記ユーザに前記第1の仮想イメージの第1の仮想オブジェクトとして見えるようになる、右ディスプレイと、
    前記ユーザの瞳孔位置の指標を検出及び提供するように構成された瞳孔追跡センサと、
    を含み、
    前記拡張現実システムが更に、
    プロセッサ及びメモリを備え、
    前記メモリが、前記プロセッサによって実行されたときに、前記プロセッサに、
    前記瞳孔位置の指標に基づいて、前記ユーザの瞳孔間距離を決定し、
    前記瞳孔間距離に基づいて前記第1の仮想イメージから第2の仮想イメージに仮想深度を変化させるものとして前記第1の仮想イメージを表示するための第1の調整を提供し、前記第1の調整が、前記左ディスプレイの第1の内側縁部又は第1の外側縁部に向かって前記左ディスプレイ上に表示される前記左仮想オブジェクトの左横方向調整と、前記右ディスプレイの第2の内側縁部又は第2の外側縁部に向かって前記右ディスプレイ上に表示される前記右仮想オブジェクトの右横方向調整とを含むようにし、
    前記瞳孔間距離に基づいて前記第1の仮想イメージから前記第2の仮想イメージに仮想深度を変更するように第2の仮想オブジェクトを表示するための第2の調整を提供し、
    前記拡張現実ヘッドセットに、前記第1の調整に基づいて前記第2の仮想イメージにおける前記第1の仮想オブジェクトを表示させ、
    前記拡張現実ヘッドセットに、前記第2の調整に基づいて前記第2の仮想イメージにおける前記第2の仮想オブジェクトを表示させ、前記第1の仮想オブジェクトに対する前記第1の調整は、前記第2の仮想オブジェクトに対する前記第2の調整とは異なるようにする、
    ようにさせる命令を含む、拡張現実システム。
  2. 前記第1の仮想オブジェクトは、前記仮想深度を第1の仮想深度から第2の仮想深度に変更するように構成され、前記左横方向調整及び前記右横方向調整が距離を含み、前記プロセッサが、前記左仮想オブジェクト及び前記右仮想オブジェクトを前記距離だけ横方向にシフトすることにより、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成されている、請求項1に記載の拡張現実システム。
  3. 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも大きい場合に、前記左仮想オブジェクトを前記左ディスプレイの前記第1の外側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
  4. 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも小さい場合に、前記左仮想オブジェクトを前記左ディスプレイの前記第1の内側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
  5. 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも大きい場合に、前記右仮想オブジェクトを前記右ディスプレイの第2の外側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
  6. 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも小さい場合に、前記右仮想オブジェクトを前記右ディスプレイの前記第2の内側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
  7. 前記プロセッサは、前記左仮想オブジェクトの第1の中心を横方向にシフトすることによって、前記右仮想オブジェクトの第2の中心を横方向にシフトすることによって、又はこれらの両方によって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項1に記載の拡張現実システム。
  8. 前記左ディスプレイ及び前記右ディスプレイが透明ディスプレイを含み、前記左ディスプレイは、現実世界環境に重ね合わせて前記左仮想イメージ及び前記左仮想オブジェクトを表示するように構成され、前記右ディスプレイは、前記現実世界環境に重ね合わせて前記右仮想イメージ及び前記右仮想オブジェクトを表示するように構成される、請求項1に記載の拡張現実システム。
  9. 複数の仮想オブジェクトの表示を調整するための命令を含む、有形の非一時的なコンピュータ可読媒体であって、
    前記命令が、プロセッサによって実行されたときに、前記プロセッサに、
    前記複数の仮想オブジェクトの各仮想オブジェクトが、それぞれの第1の仮想深度からそれぞれの第2の仮想深度に移動するように表示されるべきであるという指標を受け取り、
    瞳孔間距離を決定し、
    前記瞳孔間距離に基づいて、それぞれの前記第1の仮想深度での前記複数の仮想オブジェクトの各仮想オブジェクトに関連付けられたそれぞれの第1の視線と、それぞれの前記第2の仮想深度での前記仮想オブジェクトに関連付けられたそれぞれの第2の視線との間のそれぞれの横方向距離を動的に決定し、
    拡張現実ヘッドセットの複数のディスプレイを通過するディスプレイラインに沿った前記それぞれの横方向距離だけ前記複数の仮想オブジェクトの各仮想オブジェクトを横方向に調整することにより、前記それぞれの横方向距離に基づいて前記それぞれの第1の仮想深度から前記それぞれの第2の仮想深度に移動するように前記複数の仮想オブジェクトの各仮想オブジェクトを前記拡張現実ヘッドセットに表示させる、
    ようにし、
    前記複数の仮想オブジェクトが、第1の仮想オブジェクト及び第2の仮想オブジェクトを含み、前記第1の仮想オブジェクトに対する前記それぞれの横方向距離が、第1の横方向距離を含み、前記第2の仮想オブジェクトに対する前記それぞれの横方向距離が、第2の横方向距離を含み、前記第1の横方向距離は、前記第2の横方向距離とは異なる、有形の非一時的なコンピュータ可読媒体。
  10. 前記プロセッサに前記それぞれの横方向距離を動的に決定させる命令は、前記プロセッサに、
    前記瞳孔間距離の半分を、ユーザの瞳孔間の中心点と前記第1のそれぞれの仮想深度での各仮想オブジェクトの基準点との間のそれぞれの第1の仮想距離で除算して、それぞれの第1の商を決定し、
    前記それぞれの第1の商に、前記ユーザの瞳孔と前記複数のディスプレイのうちのディスプレイとの間のそれぞれの第1のディスプレイ距離を乗算して、それぞれの第1の横方向の瞳孔間距離を決定する、
    ようにさせることを含む、請求項9に記載の有形の非一時的なコンピュータ可読媒体。
  11. 前記基準点は、前記それぞれの仮想オブジェクトの略中心点である、請求項10に記載の有形の非一時的なコンピュータ可読媒体。
  12. 前記プロセッサに前記それぞれの横方向距離を動的に決定させる命令は、前記プロセッサに、
    前記瞳孔間距離の半分を、前記ユーザの瞳孔間の中心点と前記第2のそれぞれの仮想深度での各仮想オブジェクトの基準点との間のそれぞれの第2の仮想距離で除算して、それぞれの第2の商を決定し、
    前記それぞれの第2の商に、前記ユーザの瞳孔と前記複数のディスプレイとの間のそれぞれの第2のディスプレイ距離を乗算して、それぞれの第2の横方向の瞳孔間距離を決定する、
    ようにさせることを含む、請求項10に記載の有形の非一時的なコンピュータ可読媒体。
  13. 前記それぞれの横方向距離は、前記それぞれの第1の横方向瞳孔距離と前記それぞれの第2の横方向瞳孔距離との間の差異を含む、請求項12に記載の有形の非一時的なコンピュータ可読媒体。
  14. 前記ディスプレイラインは、前記拡張現実ヘッドセットの前記複数のディスプレイのそれぞれの中心を通過する、請求項9に記載の有形の非一時的なコンピュータ可読媒体。
  15. 仮想オブジェクトの表示を調整するための方法であって、
    第1の表示されたオブジェクトが、第1の仮想イメージにおける第1の仮想深度から第2の仮想イメージにおける第2の仮想深度に移動するように表示されるべきであるという第1の指標を受信するステップと、
    第2の表示されたオブジェクトが、前記第1の仮想イメージにおける第3の仮想深度から前記第2の仮想イメージにおける第4の仮想深度に移動するように表示されるべきであるという第2の指標を受け取るステップと、
    瞳孔間距離を決定するステップと、
    前記瞳孔間距離に基づいて、前記第1の仮想深度にて前記第1の表示されたオブジェクトに関連付けられた第1の収束ベクトルと、前記第2の仮想深度にて前記第1の表示されたオブジェクトに関連付けられた第2の収束ベクトルとの間の第1の横方向距離を決定するステップと、
    前記瞳孔間距離に基づいて、前記第3の仮想深度にて前記第2の表示されたオブジェクトに関連付けられた第3の収束ベクトルと、前記第4の仮想深度にて前記第2の表示されたオブジェクトに関連付けられた第4の収束ベクトルとの間の、前記第1の横方向距離とは異なる第2の横方向距離を決定するステップと、
    拡張現実ヘッドセットのディスプレイの内側縁部に向かって前記第1の横方向距離だけ、又は前記ディスプレイの外側縁部に向かって前記第1の横方向距離だけ前記第1の表示されたオブジェクトを横方向に調整することによって、前記第1の横方向距離に基づいて前記第1の仮想イメージにおける前記第1の仮想深度から前記第2の仮想イメージにおける前記第2の仮想深度に移動するように前記第1の表示されたオブジェクトを表示するステップと、
    前記ディスプレイの内側縁部に向かって前記第2の横方向距離だけ又は前記ディスプレイの外側縁部に向かって前記第2の横方向距離だけ前記第2の表示されたオブジェクトを横方向に調整することによって、前記第1の仮想イメージにおける前記第3の仮想深度から前記第2の仮想イメージにおける前記第4の仮想深度に移動するように前記第2の表示されたオブジェクトを表示するステップと、
    を含む、方法。
  16. 前記第1の収束ベクトルは、ユーザの眼と、前記第1の仮想深度にて前記第1の表示されたオブジェクトの基準点を通過し、前記第2の収束ベクトルは、前記ユーザの眼を通り、前記第2の仮想深度にて前記第1の表示されたオブジェクトの前記基準点まで通過する、請求項15に記載の方法。
  17. 前記第1の横方向距離が、前記ディスプレイ上の距離として決定される、請求項15に記載の方法。
  18. 前記第1の表示されたオブジェクトは、拡張現実ヘッドセットの左ディスプレイ上に表示された左オブジェクトとして部分的に表示され、前記拡張現実ヘッドセットの右ディスプレイ上に表示された右オブジェクトとして部分的に表示される、請求項15に記載の方法。
  19. 前記第1の表示された物体を前記第1の仮想深度から前記第2の仮想深度に移動するように表示する前記ステップは、前記第2の仮想深度が前記第1の仮想深度よりも大きい場合に、前記表示された左オブジェクトを前記左ディスプレイの外側縁部に向かって前記第1の横方向距離だけ横方向にシフトするステップを含む、請求項18に記載の方法。
  20. 前記第1の表示された物体を前記第1の仮想深度から前記第2の仮想深度に移動するように表示する前記ステップは、前記第2の仮想深度が前記第1の仮想深度よりも小さいと決定されたことに応答して、前記表示された左オブジェクトを前記左ディスプレイの内側縁部に向かって前記第1の横方向距離だけ横方向にシフトするステップを含む、請求項18に記載の方法。
  21. 前記第1の表示された物体を前記第1の仮想深度から前記第2の仮想深度に移動するように表示する前記ステップは、前記第2の仮想深度が前記第1の仮想深度よりも大きいと決定されたことに応答して、前記表示された右オブジェクトを前記右ディスプレイの外側縁部に向かって前記第1の横方向距離だけ横方向にシフトするステップを含む、請求項18に記載の方法。
JP2021533175A 2018-12-10 2019-12-09 拡張現実ヘッドセットの動的収束調整 Active JP7491926B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862777545P 2018-12-10 2018-12-10
US62/777,545 2018-12-10
US16/226,471 2018-12-19
US16/226,471 US10778953B2 (en) 2018-12-10 2018-12-19 Dynamic convergence adjustment in augmented reality headsets
PCT/US2019/065184 WO2020123357A1 (en) 2018-12-10 2019-12-09 Dynamic convergence adjustment in virtual reality headsets

Publications (3)

Publication Number Publication Date
JP2022511571A JP2022511571A (ja) 2022-01-31
JPWO2020123357A5 JPWO2020123357A5 (ja) 2022-12-05
JP7491926B2 true JP7491926B2 (ja) 2024-05-28

Family

ID=70970302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021533175A Active JP7491926B2 (ja) 2018-12-10 2019-12-09 拡張現実ヘッドセットの動的収束調整

Country Status (8)

Country Link
US (3) US10778953B2 (ja)
EP (1) EP3894935A1 (ja)
JP (1) JP7491926B2 (ja)
KR (1) KR20210100690A (ja)
CN (1) CN113196136B (ja)
CA (1) CA3121182A1 (ja)
SG (1) SG11202105492TA (ja)
WO (1) WO2020123357A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082482A1 (en) * 2016-09-22 2018-03-22 Apple Inc. Display system having world and user sensors
US20200275087A1 (en) * 2019-02-25 2020-08-27 Kazuhiro Asakura Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance
CN111929893B (zh) * 2020-07-24 2022-11-04 闪耀现实(无锡)科技有限公司 一种增强现实显示装置及其设备
US11249314B1 (en) * 2020-08-04 2022-02-15 Htc Corporation Method for switching input devices, head-mounted display and computer readable storage medium
US11808939B2 (en) * 2021-11-30 2023-11-07 Heru Inc. Pupil characteristic detection and spectacles correction/adjustment based thereon

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060250322A1 (en) 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US20070248260A1 (en) * 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
CN107179607B (zh) 2010-12-24 2019-12-13 奇跃公司 人体工程学头戴式显示设备和光学***
US20130300635A1 (en) * 2012-05-09 2013-11-14 Nokia Corporation Method and apparatus for providing focus correction of displayed information
JP6225546B2 (ja) 2013-08-02 2017-11-08 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、表示システムおよび表示装置の制御方法
US9313481B2 (en) * 2014-02-19 2016-04-12 Microsoft Technology Licensing, Llc Stereoscopic display responsive to focal-point shift
CN111856755B (zh) 2014-05-30 2022-07-19 奇跃公司 用于显示虚拟和增强现实的立体视觉的方法和***
WO2016032973A1 (en) * 2014-08-25 2016-03-03 Schepens Eye Research Institute Compensating 3d stereoscopic imagery
WO2016073986A1 (en) 2014-11-07 2016-05-12 Eye Labs, LLC Visual stabilization system for head-mounted displays
CN107003734B (zh) 2014-12-23 2019-12-17 美达视野股份有限公司 将视觉调节和视觉会聚耦合到感兴趣对象的任何深度处的同一平面的设备、方法和***
CN105072436A (zh) 2015-08-28 2015-11-18 胡东海 虚拟现实及增强现实成像景深自动调节方法以及调节装置
US10147235B2 (en) 2015-12-10 2018-12-04 Microsoft Technology Licensing, Llc AR display with adjustable stereo overlap zone
CN105629475A (zh) 2016-03-16 2016-06-01 成都理想境界科技有限公司 一种增强现实显示设备
NZ747005A (en) 2016-04-08 2020-04-24 Magic Leap Inc Augmented reality systems and methods with variable focus lens elements
IL292911B2 (en) * 2016-08-11 2023-11-01 Magic Leap Inc Automatic positioning of a virtual object in three-dimensional space
US9983412B1 (en) 2017-02-02 2018-05-29 The University Of North Carolina At Chapel Hill Wide field of view augmented reality see through head mountable display with distance accommodation
US10488920B2 (en) 2017-06-02 2019-11-26 Htc Corporation Immersive headset system and control method thereof
CN109491087B (zh) 2017-09-11 2022-09-20 杜比实验室特许公司 用于ar/vr/mr的模块化拆卸式可穿戴装置
CN107861248B (zh) 2017-12-25 2023-12-26 歌尔光学科技有限公司 激光束扫描显示设备及增强现实眼镜
CN207663150U (zh) 2017-12-25 2018-07-27 歌尔科技有限公司 激光束扫描显示设备及增强现实眼镜

Also Published As

Publication number Publication date
JP2022511571A (ja) 2022-01-31
EP3894935A1 (en) 2021-10-20
CN113196136A (zh) 2021-07-30
US20200186775A1 (en) 2020-06-11
CA3121182A1 (en) 2020-06-18
US20200413023A1 (en) 2020-12-31
US11122249B2 (en) 2021-09-14
CN113196136B (zh) 2024-05-07
US20210400250A1 (en) 2021-12-23
US10778953B2 (en) 2020-09-15
SG11202105492TA (en) 2021-06-29
WO2020123357A1 (en) 2020-06-18
KR20210100690A (ko) 2021-08-17
US11736674B2 (en) 2023-08-22

Similar Documents

Publication Publication Date Title
JP7491926B2 (ja) 拡張現実ヘッドセットの動的収束調整
JP7094266B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
US10317680B1 (en) Optical aberration correction based on user eye position in head mounted displays
CN105992965B (zh) 响应于焦点移位的立体显示
US9984507B2 (en) Eye tracking for mitigating vergence and accommodation conflicts
JP2019091051A (ja) 表示装置、およびフォーカスディスプレイとコンテキストディスプレイを用いた表示方法
US20150312558A1 (en) Stereoscopic rendering to eye positions
US20150187115A1 (en) Dynamically adjustable 3d goggles
EP3409013B1 (en) Viewing device adjustment based on eye accommodation in relation to a display
US20130293531A1 (en) User perception of visual effects
US9681122B2 (en) Modifying displayed images in the coupled zone of a stereoscopic display based on user comfort
US10616567B1 (en) Frustum change in projection stereo rendering
US11445170B2 (en) Eyeball camera system and methods for display system calibration
US11570426B2 (en) Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance
US20180374258A1 (en) Image generating method, device and computer executable non-volatile storage medium
US10523930B2 (en) Mitigating binocular rivalry in near-eye displays
US11237413B1 (en) Multi-focal display based on polarization switches and geometric phase lenses
US11543655B1 (en) Rendering for multi-focus display systems
EP4286994A1 (en) Electronic device that displays virtual objects
CN111757089A (zh) 利用眼睛的瞳孔增强调节来渲染图像的方法和***

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240516

R150 Certificate of patent or registration of utility model

Ref document number: 7491926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150