JP7491926B2 - 拡張現実ヘッドセットの動的収束調整 - Google Patents
拡張現実ヘッドセットの動的収束調整 Download PDFInfo
- Publication number
- JP7491926B2 JP7491926B2 JP2021533175A JP2021533175A JP7491926B2 JP 7491926 B2 JP7491926 B2 JP 7491926B2 JP 2021533175 A JP2021533175 A JP 2021533175A JP 2021533175 A JP2021533175 A JP 2021533175A JP 7491926 B2 JP7491926 B2 JP 7491926B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- display
- depth
- distance
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims description 83
- 210000001747 pupil Anatomy 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 33
- 239000013598 vector Substances 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 4
- 230000001179 pupillary effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 206010019233 Headaches Diseases 0.000 description 3
- 206010028813 Nausea Diseases 0.000 description 3
- 230000004308 accommodation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 231100000869 headache Toxicity 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000008693 nausea Effects 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 238000000611 regression analysis Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/371—Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本出願は、2018年12月10日に出願された「拡張現実ヘッドセットにおける動的収束調整」と題された米国仮出願第62/777,545号の利益を主張し、当該仮出願は、あらゆる目的で引用により全体が本明細書に組み込まれる。
本開示は、一般に、拡張現実、仮想現実、複合現実、又はシミュレートされた環境内で行われる他の何れかの好適な対話型コンピュータ生成体験に関する。より具体的には、本開示の特定の実施形態は、対話型コンピュータ生成体験を提供するヘッドセットの動作特徴に関する。
X1=((IPD/2)/DOBJ1)*DDISP (式1)
X2=((IPD/2)/DOBJ2)*DDISP (式2)
XDIFF=|X1-X2| (式3)
12 拡張現実ヘッドセット
54 仮想オブジェクト
68 仮想位置
71 基準点
72、74 ユーザの瞳孔
76 瞳孔間線
78 視線
80 ディスプレイライン
82 ディスプレイ距離ライン
Claims (21)
- 拡張現実システムであって、
拡張現実ヘッドセットを備え、
前記拡張現実ヘッドセットが、
ユーザの左眼に左仮想イメージ及び左仮想オブジェクトを表示するように構成された左ディスプレイと、
前記ユーザの右眼に右仮想イメージ及び右仮想オブジェクトを表示するように構成された右ディスプレイであって、前記左仮想イメージ及び前記右仮想イメージを見たときに、前記左仮想イメージ及び前記右仮想イメージが、前記ユーザに第1の仮想イメージとして見えるようになり、前記左仮想オブジェクト及び前記右仮想オブジェクトを見たときに、前記左仮想オブジェクト及び前記右仮想オブジェクトが、前記ユーザに前記第1の仮想イメージの第1の仮想オブジェクトとして見えるようになる、右ディスプレイと、
前記ユーザの瞳孔位置の指標を検出及び提供するように構成された瞳孔追跡センサと、
を含み、
前記拡張現実システムが更に、
プロセッサ及びメモリを備え、
前記メモリが、前記プロセッサによって実行されたときに、前記プロセッサに、
前記瞳孔位置の指標に基づいて、前記ユーザの瞳孔間距離を決定し、
前記瞳孔間距離に基づいて前記第1の仮想イメージから第2の仮想イメージに仮想深度を変化させるものとして前記第1の仮想イメージを表示するための第1の調整を提供し、前記第1の調整が、前記左ディスプレイの第1の内側縁部又は第1の外側縁部に向かって前記左ディスプレイ上に表示される前記左仮想オブジェクトの左横方向調整と、前記右ディスプレイの第2の内側縁部又は第2の外側縁部に向かって前記右ディスプレイ上に表示される前記右仮想オブジェクトの右横方向調整とを含むようにし、
前記瞳孔間距離に基づいて前記第1の仮想イメージから前記第2の仮想イメージに仮想深度を変更するように第2の仮想オブジェクトを表示するための第2の調整を提供し、
前記拡張現実ヘッドセットに、前記第1の調整に基づいて前記第2の仮想イメージにおける前記第1の仮想オブジェクトを表示させ、
前記拡張現実ヘッドセットに、前記第2の調整に基づいて前記第2の仮想イメージにおける前記第2の仮想オブジェクトを表示させ、前記第1の仮想オブジェクトに対する前記第1の調整は、前記第2の仮想オブジェクトに対する前記第2の調整とは異なるようにする、
ようにさせる命令を含む、拡張現実システム。 - 前記第1の仮想オブジェクトは、前記仮想深度を第1の仮想深度から第2の仮想深度に変更するように構成され、前記左横方向調整及び前記右横方向調整が距離を含み、前記プロセッサが、前記左仮想オブジェクト及び前記右仮想オブジェクトを前記距離だけ横方向にシフトすることにより、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成されている、請求項1に記載の拡張現実システム。
- 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも大きい場合に、前記左仮想オブジェクトを前記左ディスプレイの前記第1の外側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
- 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも小さい場合に、前記左仮想オブジェクトを前記左ディスプレイの前記第1の内側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
- 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも大きい場合に、前記右仮想オブジェクトを前記右ディスプレイの第2の外側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
- 前記プロセッサは、前記第2の仮想深度が前記第1の仮想深度よりも小さい場合に、前記右仮想オブジェクトを前記右ディスプレイの前記第2の内側縁部に向かって前記距離だけ横方向にシフトすることによって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項2に記載の拡張現実システム。
- 前記プロセッサは、前記左仮想オブジェクトの第1の中心を横方向にシフトすることによって、前記右仮想オブジェクトの第2の中心を横方向にシフトすることによって、又はこれらの両方によって、前記拡張現実ヘッドセットに前記第1の仮想オブジェクトを表示させるように構成される、請求項1に記載の拡張現実システム。
- 前記左ディスプレイ及び前記右ディスプレイが透明ディスプレイを含み、前記左ディスプレイは、現実世界環境に重ね合わせて前記左仮想イメージ及び前記左仮想オブジェクトを表示するように構成され、前記右ディスプレイは、前記現実世界環境に重ね合わせて前記右仮想イメージ及び前記右仮想オブジェクトを表示するように構成される、請求項1に記載の拡張現実システム。
- 複数の仮想オブジェクトの表示を調整するための命令を含む、有形の非一時的なコンピュータ可読媒体であって、
前記命令が、プロセッサによって実行されたときに、前記プロセッサに、
前記複数の仮想オブジェクトの各仮想オブジェクトが、それぞれの第1の仮想深度からそれぞれの第2の仮想深度に移動するように表示されるべきであるという指標を受け取り、
瞳孔間距離を決定し、
前記瞳孔間距離に基づいて、それぞれの前記第1の仮想深度での前記複数の仮想オブジェクトの各仮想オブジェクトに関連付けられたそれぞれの第1の視線と、それぞれの前記第2の仮想深度での前記仮想オブジェクトに関連付けられたそれぞれの第2の視線との間のそれぞれの横方向距離を動的に決定し、
拡張現実ヘッドセットの複数のディスプレイを通過するディスプレイラインに沿った前記それぞれの横方向距離だけ前記複数の仮想オブジェクトの各仮想オブジェクトを横方向に調整することにより、前記それぞれの横方向距離に基づいて前記それぞれの第1の仮想深度から前記それぞれの第2の仮想深度に移動するように前記複数の仮想オブジェクトの各仮想オブジェクトを前記拡張現実ヘッドセットに表示させる、
ようにし、
前記複数の仮想オブジェクトが、第1の仮想オブジェクト及び第2の仮想オブジェクトを含み、前記第1の仮想オブジェクトに対する前記それぞれの横方向距離が、第1の横方向距離を含み、前記第2の仮想オブジェクトに対する前記それぞれの横方向距離が、第2の横方向距離を含み、前記第1の横方向距離は、前記第2の横方向距離とは異なる、有形の非一時的なコンピュータ可読媒体。 - 前記プロセッサに前記それぞれの横方向距離を動的に決定させる命令は、前記プロセッサに、
前記瞳孔間距離の半分を、ユーザの瞳孔間の中心点と前記第1のそれぞれの仮想深度での各仮想オブジェクトの基準点との間のそれぞれの第1の仮想距離で除算して、それぞれの第1の商を決定し、
前記それぞれの第1の商に、前記ユーザの瞳孔と前記複数のディスプレイのうちのディスプレイとの間のそれぞれの第1のディスプレイ距離を乗算して、それぞれの第1の横方向の瞳孔間距離を決定する、
ようにさせることを含む、請求項9に記載の有形の非一時的なコンピュータ可読媒体。 - 前記基準点は、前記それぞれの仮想オブジェクトの略中心点である、請求項10に記載の有形の非一時的なコンピュータ可読媒体。
- 前記プロセッサに前記それぞれの横方向距離を動的に決定させる命令は、前記プロセッサに、
前記瞳孔間距離の半分を、前記ユーザの瞳孔間の中心点と前記第2のそれぞれの仮想深度での各仮想オブジェクトの基準点との間のそれぞれの第2の仮想距離で除算して、それぞれの第2の商を決定し、
前記それぞれの第2の商に、前記ユーザの瞳孔と前記複数のディスプレイとの間のそれぞれの第2のディスプレイ距離を乗算して、それぞれの第2の横方向の瞳孔間距離を決定する、
ようにさせることを含む、請求項10に記載の有形の非一時的なコンピュータ可読媒体。 - 前記それぞれの横方向距離は、前記それぞれの第1の横方向瞳孔距離と前記それぞれの第2の横方向瞳孔距離との間の差異を含む、請求項12に記載の有形の非一時的なコンピュータ可読媒体。
- 前記ディスプレイラインは、前記拡張現実ヘッドセットの前記複数のディスプレイのそれぞれの中心を通過する、請求項9に記載の有形の非一時的なコンピュータ可読媒体。
- 仮想オブジェクトの表示を調整するための方法であって、
第1の表示されたオブジェクトが、第1の仮想イメージにおける第1の仮想深度から第2の仮想イメージにおける第2の仮想深度に移動するように表示されるべきであるという第1の指標を受信するステップと、
第2の表示されたオブジェクトが、前記第1の仮想イメージにおける第3の仮想深度から前記第2の仮想イメージにおける第4の仮想深度に移動するように表示されるべきであるという第2の指標を受け取るステップと、
瞳孔間距離を決定するステップと、
前記瞳孔間距離に基づいて、前記第1の仮想深度にて前記第1の表示されたオブジェクトに関連付けられた第1の収束ベクトルと、前記第2の仮想深度にて前記第1の表示されたオブジェクトに関連付けられた第2の収束ベクトルとの間の第1の横方向距離を決定するステップと、
前記瞳孔間距離に基づいて、前記第3の仮想深度にて前記第2の表示されたオブジェクトに関連付けられた第3の収束ベクトルと、前記第4の仮想深度にて前記第2の表示されたオブジェクトに関連付けられた第4の収束ベクトルとの間の、前記第1の横方向距離とは異なる第2の横方向距離を決定するステップと、
拡張現実ヘッドセットのディスプレイの内側縁部に向かって前記第1の横方向距離だけ、又は前記ディスプレイの外側縁部に向かって前記第1の横方向距離だけ前記第1の表示されたオブジェクトを横方向に調整することによって、前記第1の横方向距離に基づいて前記第1の仮想イメージにおける前記第1の仮想深度から前記第2の仮想イメージにおける前記第2の仮想深度に移動するように前記第1の表示されたオブジェクトを表示するステップと、
前記ディスプレイの内側縁部に向かって前記第2の横方向距離だけ又は前記ディスプレイの外側縁部に向かって前記第2の横方向距離だけ前記第2の表示されたオブジェクトを横方向に調整することによって、前記第1の仮想イメージにおける前記第3の仮想深度から前記第2の仮想イメージにおける前記第4の仮想深度に移動するように前記第2の表示されたオブジェクトを表示するステップと、
を含む、方法。 - 前記第1の収束ベクトルは、ユーザの眼と、前記第1の仮想深度にて前記第1の表示されたオブジェクトの基準点を通過し、前記第2の収束ベクトルは、前記ユーザの眼を通り、前記第2の仮想深度にて前記第1の表示されたオブジェクトの前記基準点まで通過する、請求項15に記載の方法。
- 前記第1の横方向距離が、前記ディスプレイ上の距離として決定される、請求項15に記載の方法。
- 前記第1の表示されたオブジェクトは、拡張現実ヘッドセットの左ディスプレイ上に表示された左オブジェクトとして部分的に表示され、前記拡張現実ヘッドセットの右ディスプレイ上に表示された右オブジェクトとして部分的に表示される、請求項15に記載の方法。
- 前記第1の表示された物体を前記第1の仮想深度から前記第2の仮想深度に移動するように表示する前記ステップは、前記第2の仮想深度が前記第1の仮想深度よりも大きい場合に、前記表示された左オブジェクトを前記左ディスプレイの外側縁部に向かって前記第1の横方向距離だけ横方向にシフトするステップを含む、請求項18に記載の方法。
- 前記第1の表示された物体を前記第1の仮想深度から前記第2の仮想深度に移動するように表示する前記ステップは、前記第2の仮想深度が前記第1の仮想深度よりも小さいと決定されたことに応答して、前記表示された左オブジェクトを前記左ディスプレイの内側縁部に向かって前記第1の横方向距離だけ横方向にシフトするステップを含む、請求項18に記載の方法。
- 前記第1の表示された物体を前記第1の仮想深度から前記第2の仮想深度に移動するように表示する前記ステップは、前記第2の仮想深度が前記第1の仮想深度よりも大きいと決定されたことに応答して、前記表示された右オブジェクトを前記右ディスプレイの外側縁部に向かって前記第1の横方向距離だけ横方向にシフトするステップを含む、請求項18に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862777545P | 2018-12-10 | 2018-12-10 | |
US62/777,545 | 2018-12-10 | ||
US16/226,471 | 2018-12-19 | ||
US16/226,471 US10778953B2 (en) | 2018-12-10 | 2018-12-19 | Dynamic convergence adjustment in augmented reality headsets |
PCT/US2019/065184 WO2020123357A1 (en) | 2018-12-10 | 2019-12-09 | Dynamic convergence adjustment in virtual reality headsets |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022511571A JP2022511571A (ja) | 2022-01-31 |
JPWO2020123357A5 JPWO2020123357A5 (ja) | 2022-12-05 |
JP7491926B2 true JP7491926B2 (ja) | 2024-05-28 |
Family
ID=70970302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533175A Active JP7491926B2 (ja) | 2018-12-10 | 2019-12-09 | 拡張現実ヘッドセットの動的収束調整 |
Country Status (8)
Country | Link |
---|---|
US (3) | US10778953B2 (ja) |
EP (1) | EP3894935A1 (ja) |
JP (1) | JP7491926B2 (ja) |
KR (1) | KR20210100690A (ja) |
CN (1) | CN113196136B (ja) |
CA (1) | CA3121182A1 (ja) |
SG (1) | SG11202105492TA (ja) |
WO (1) | WO2020123357A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180082482A1 (en) * | 2016-09-22 | 2018-03-22 | Apple Inc. | Display system having world and user sensors |
US20200275087A1 (en) * | 2019-02-25 | 2020-08-27 | Kazuhiro Asakura | Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance |
CN111929893B (zh) * | 2020-07-24 | 2022-11-04 | 闪耀现实(无锡)科技有限公司 | 一种增强现实显示装置及其设备 |
US11249314B1 (en) * | 2020-08-04 | 2022-02-15 | Htc Corporation | Method for switching input devices, head-mounted display and computer readable storage medium |
US11808939B2 (en) * | 2021-11-30 | 2023-11-07 | Heru Inc. | Pupil characteristic detection and spectacles correction/adjustment based thereon |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060250322A1 (en) | 2005-05-09 | 2006-11-09 | Optics 1, Inc. | Dynamic vergence and focus control for head-mounted displays |
US20070248260A1 (en) * | 2006-04-20 | 2007-10-25 | Nokia Corporation | Supporting a 3D presentation |
CN107179607B (zh) | 2010-12-24 | 2019-12-13 | 奇跃公司 | 人体工程学头戴式显示设备和光学*** |
US20130300635A1 (en) * | 2012-05-09 | 2013-11-14 | Nokia Corporation | Method and apparatus for providing focus correction of displayed information |
JP6225546B2 (ja) | 2013-08-02 | 2017-11-08 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、表示システムおよび表示装置の制御方法 |
US9313481B2 (en) * | 2014-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Stereoscopic display responsive to focal-point shift |
CN111856755B (zh) | 2014-05-30 | 2022-07-19 | 奇跃公司 | 用于显示虚拟和增强现实的立体视觉的方法和*** |
WO2016032973A1 (en) * | 2014-08-25 | 2016-03-03 | Schepens Eye Research Institute | Compensating 3d stereoscopic imagery |
WO2016073986A1 (en) | 2014-11-07 | 2016-05-12 | Eye Labs, LLC | Visual stabilization system for head-mounted displays |
CN107003734B (zh) | 2014-12-23 | 2019-12-17 | 美达视野股份有限公司 | 将视觉调节和视觉会聚耦合到感兴趣对象的任何深度处的同一平面的设备、方法和*** |
CN105072436A (zh) | 2015-08-28 | 2015-11-18 | 胡东海 | 虚拟现实及增强现实成像景深自动调节方法以及调节装置 |
US10147235B2 (en) | 2015-12-10 | 2018-12-04 | Microsoft Technology Licensing, Llc | AR display with adjustable stereo overlap zone |
CN105629475A (zh) | 2016-03-16 | 2016-06-01 | 成都理想境界科技有限公司 | 一种增强现实显示设备 |
NZ747005A (en) | 2016-04-08 | 2020-04-24 | Magic Leap Inc | Augmented reality systems and methods with variable focus lens elements |
IL292911B2 (en) * | 2016-08-11 | 2023-11-01 | Magic Leap Inc | Automatic positioning of a virtual object in three-dimensional space |
US9983412B1 (en) | 2017-02-02 | 2018-05-29 | The University Of North Carolina At Chapel Hill | Wide field of view augmented reality see through head mountable display with distance accommodation |
US10488920B2 (en) | 2017-06-02 | 2019-11-26 | Htc Corporation | Immersive headset system and control method thereof |
CN109491087B (zh) | 2017-09-11 | 2022-09-20 | 杜比实验室特许公司 | 用于ar/vr/mr的模块化拆卸式可穿戴装置 |
CN107861248B (zh) | 2017-12-25 | 2023-12-26 | 歌尔光学科技有限公司 | 激光束扫描显示设备及增强现实眼镜 |
CN207663150U (zh) | 2017-12-25 | 2018-07-27 | 歌尔科技有限公司 | 激光束扫描显示设备及增强现实眼镜 |
-
2018
- 2018-12-19 US US16/226,471 patent/US10778953B2/en active Active
-
2019
- 2019-12-09 CA CA3121182A patent/CA3121182A1/en active Pending
- 2019-12-09 SG SG11202105492TA patent/SG11202105492TA/en unknown
- 2019-12-09 JP JP2021533175A patent/JP7491926B2/ja active Active
- 2019-12-09 KR KR1020217021409A patent/KR20210100690A/ko unknown
- 2019-12-09 WO PCT/US2019/065184 patent/WO2020123357A1/en unknown
- 2019-12-09 CN CN201980081841.0A patent/CN113196136B/zh active Active
- 2019-12-09 EP EP19828948.0A patent/EP3894935A1/en active Pending
-
2020
- 2020-09-14 US US17/019,980 patent/US11122249B2/en active Active
-
2021
- 2021-09-02 US US17/465,043 patent/US11736674B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022511571A (ja) | 2022-01-31 |
EP3894935A1 (en) | 2021-10-20 |
CN113196136A (zh) | 2021-07-30 |
US20200186775A1 (en) | 2020-06-11 |
CA3121182A1 (en) | 2020-06-18 |
US20200413023A1 (en) | 2020-12-31 |
US11122249B2 (en) | 2021-09-14 |
CN113196136B (zh) | 2024-05-07 |
US20210400250A1 (en) | 2021-12-23 |
US10778953B2 (en) | 2020-09-15 |
SG11202105492TA (en) | 2021-06-29 |
WO2020123357A1 (en) | 2020-06-18 |
KR20210100690A (ko) | 2021-08-17 |
US11736674B2 (en) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7491926B2 (ja) | 拡張現実ヘッドセットの動的収束調整 | |
JP7094266B2 (ja) | 単一深度追跡型の遠近調節-両眼転導ソリューション | |
US10317680B1 (en) | Optical aberration correction based on user eye position in head mounted displays | |
CN105992965B (zh) | 响应于焦点移位的立体显示 | |
US9984507B2 (en) | Eye tracking for mitigating vergence and accommodation conflicts | |
JP2019091051A (ja) | 表示装置、およびフォーカスディスプレイとコンテキストディスプレイを用いた表示方法 | |
US20150312558A1 (en) | Stereoscopic rendering to eye positions | |
US20150187115A1 (en) | Dynamically adjustable 3d goggles | |
EP3409013B1 (en) | Viewing device adjustment based on eye accommodation in relation to a display | |
US20130293531A1 (en) | User perception of visual effects | |
US9681122B2 (en) | Modifying displayed images in the coupled zone of a stereoscopic display based on user comfort | |
US10616567B1 (en) | Frustum change in projection stereo rendering | |
US11445170B2 (en) | Eyeball camera system and methods for display system calibration | |
US11570426B2 (en) | Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance | |
US20180374258A1 (en) | Image generating method, device and computer executable non-volatile storage medium | |
US10523930B2 (en) | Mitigating binocular rivalry in near-eye displays | |
US11237413B1 (en) | Multi-focal display based on polarization switches and geometric phase lenses | |
US11543655B1 (en) | Rendering for multi-focus display systems | |
EP4286994A1 (en) | Electronic device that displays virtual objects | |
CN111757089A (zh) | 利用眼睛的瞳孔增强调节来渲染图像的方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7491926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |