JP7273940B2 - 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム - Google Patents
深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム Download PDFInfo
- Publication number
- JP7273940B2 JP7273940B2 JP2021212125A JP2021212125A JP7273940B2 JP 7273940 B2 JP7273940 B2 JP 7273940B2 JP 2021212125 A JP2021212125 A JP 2021212125A JP 2021212125 A JP2021212125 A JP 2021212125A JP 7273940 B2 JP7273940 B2 JP 7273940B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- virtual object
- user
- cues
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002829 reductive effect Effects 0.000 title description 5
- 238000000034 method Methods 0.000 claims description 61
- 230000004044 response Effects 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 9
- 230000002350 accommodative effect Effects 0.000 claims description 5
- 238000010494 dissociation reaction Methods 0.000 claims description 5
- 230000005593 dissociations Effects 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 description 83
- 230000004308 accommodation Effects 0.000 description 40
- 238000012545 processing Methods 0.000 description 38
- 238000010168 coupling process Methods 0.000 description 24
- 238000005859 coupling reaction Methods 0.000 description 24
- 210000000695 crystalline len Anatomy 0.000 description 22
- 230000008569 process Effects 0.000 description 21
- 238000009826 distribution Methods 0.000 description 17
- 230000003190 augmentative effect Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 14
- 239000000463 material Substances 0.000 description 14
- 238000000926 separation method Methods 0.000 description 14
- 210000001747 pupil Anatomy 0.000 description 11
- 239000003086 colorant Substances 0.000 description 10
- 239000000835 fiber Substances 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 7
- 241000153282 Theope Species 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012800 visualization Methods 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000005253 cladding Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006461 physiological response Effects 0.000 description 3
- 206010019233 Headaches Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 231100000869 headache Toxicity 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000035790 physiological processes and functions Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0013—Means for improving the coupling-in of light from the light source into the light guide
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0033—Means for improving the coupling-out of light from the light guide
- G02B6/0035—Means for improving the coupling-out of light from the light guide provided on the surface of the light guide or in the bulk of it
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0033—Means for improving the coupling-out of light from the light guide
- G02B6/005—Means for improving the coupling-out of light from the light guide provided by one optical element, or plurality thereof, placed on the light output side of the light guide
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0075—Arrangements of multiple light guides
- G02B6/0076—Stacked arrangements of multiple light guides of the same or different cross-sectional area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
- H04N13/395—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0112—Head-up displays characterised by optical features comprising device for genereting colour display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0185—Displaying image at variable distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- User Interface Of Digital Computer (AREA)
- Eyeglasses (AREA)
- Mechanical Optical Scanning Systems (AREA)
- Diffracting Gratings Or Hologram Optical Elements (AREA)
Description
本願は、米国特許法§119(e)に基づき、米国仮出願第62/294,147号(2016年2月11日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING VIEWER REFLECTIONS」)、米国仮出願第62/366,533号(2016年7月25日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING REFLECTIONS」)、米国仮出願第62/440,336号(2016年12月29日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING REFLECTIONS」)、米国仮出願第62/445,630号(2017年1月12日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING REFLECTIONS」)、米国仮出願第62/366,599号(2016年7月25日出願、名称「IMAGING MODIFICATION,DISPLAY AND VISUALIZATION USING AUGMENTED AND VIRTUAL REALITY EYEWEAR」)、米国仮出願第62/396,071号(2016年7月16日出願、名称「IMAGING MODIFICATION,DISPLAY AND VISUALIZATION USING AUGMENTED AND VIRTUAL REALITY EYEWEAR」)、および米国仮出願第62/440,332号(2016年12月29日出願、名称「IMAGING MODIFICATION,DISPLAY AND VISUALIZATION USING AUGMENTED AND VIRTUAL REALITY EYEWEAR」)の優先権に対する利益を主張し、上記出願の各々は、あらゆる目的のために参照により本明細書に引用される。
本開示は、拡張現実結像および可視化システムを含むディスプレイシステムに関する。
本発明は、例えば、以下を提供する。
(項目1)
1つ以上のプロセッサと命令を記憶している1つ以上のコンピュータ記憶媒体とを備えているシステムであって、前記命令は、前記1つ以上のプロセッサによって実行されると、
ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、関連付けられた前記ユーザからの深度を有する、ことと、
前記第1の仮想オブジェクトの1つ以上の深度キューを調節し、前記第1の仮想オブジェクトの深度キューと前記凝視点のための深度キューとの間の差異を低減させることと、
ディスプレイデバイスを介して、前記調節された1つ以上の深度キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
を含む動作を前記1つ以上のプロセッサに行わせる、システム。
(項目2)
前記深度キューは、サイズ、遠近調節キュー、および/または両眼キューを備えている、項目1に記載のシステム。
(項目3)
1つ以上の深度キューを調節することは、前記調節された1つ以上の深度キューに対応する深度平面を前記凝視点の深度平面と合致させることを含む、項目1に記載のシステム。
(項目4)
前記動作は、前記ユーザが、閾値頻度を上回る頻度で、前記第1の仮想オブジェクトと第2のオブジェクトとの間で凝視点を交互させていることを決定することをさらに含み、
前記凝視点は、前記第2のオブジェクトの3次元場所と一致し、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、項目3に記載のシステム。
(項目5)
前記動作は、ユーザ選好の指示に基づいて、または、前記第1の仮想オブジェクトが第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトよりも少なく凝視されていることの決定に基づいて、前記第1の仮想オブジェクトのための1つ以上の深度キューが調節されるべきことを識別することをさらに含み、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、項目1に記載のシステム。
(項目6)
前記1つ以上の深度キューを調節することは、遠近調節キューを調節することを含み、前記動作は、
前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、両眼キューを調節することと
をさらに含む、項目1に記載のシステム。
(項目7)
前記ディスプレイデバイスをさらに備え、前記ディスプレイデバイスは、複数のスタックされた導波管を備え、
前記複数のスタックされた導波管は、ディスプレイエリアを形成し、前記ディスプレイエリアを通して周囲環境のビューを提供し、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、各導波管は、深度平面に関連付けられている、項目1に記載のシステム。
(項目8)
1つ以上の深度キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含む、項目7に記載のシステム。
(項目9)
ディスプレイシステムであって、前記ディスプレイシステムは、
仮想オブジェクトをユーザに提示するように構成されているディスプレイデバイスであって、各仮想オブジェクトは、複数の深度平面の1つ以上の深度平面上にある、ディスプレイデバイスと、
1つ以上のプロセッサと、
命令を記憶している1つ以上のコンピュータ記憶媒体と
を備え、
前記命令は、前記ディスプレイシステムによって実行されると、
前記ユーザの眼移動に関連付けられた情報を監視することと、
前記監視される情報に基づいて、前記ユーザの眼の凝視点を決定することであって、各凝視点は、前記ユーザの眼によって凝視されている3次元場所を示し、経時的に追跡される、ことと、
前記決定された凝視点に基づいて、少なくとも1つの仮想オブジェクトを調節することと
を含む動作を前記ディスプレイシステムに行わせ、
前記少なくとも1つの仮想オブジェクトは、前記決定された凝視点が含まれる深度平面領域に対応する同一深度平面上に表示され、前記決定された凝視点は、閾値メトリックを上回って前記深度平面領域内に含まれるように決定されている、ディスプレイシステム。
(項目10)
前記ユーザが閾値メトリックを上回って凝視している凝視点は、特定の仮想オブジェクトの場所に対応している、項目9に記載のディスプレイシステム。
(項目11)
前記動作は、少なくとも1つの仮想オブジェクトが前記特定のオブジェクトより少なく凝視されていることの決定に基づいて、前記少なくとも1つの仮想オブジェクトが調節されるべきことを識別することをさらに含む、項目10に記載のディスプレイシステム。
(項目12)
前記ユーザが閾値メトリックを上回って凝視している前記凝視点は、実世界オブジェクトの場所に対応している、項目9に記載のディスプレイシステム。
(項目13)
前記少なくとも1つの仮想オブジェクトを調節することは、遠近調節キューおよび両眼キューの一方または両方を調節することを含む、項目9に記載のディスプレイシステム。
(項目14)
前記遠近調節キューは、調節されており、前記動作は、
前記調節された遠近調節キューを用いた前記少なくとも1つの仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、両眼キューを調節することと
をさらに含む、項目13に記載のディスプレイシステム。
(項目15)
閾値メトリックは、閾値時間量または閾値頻度を備えている、項目9に記載のディスプレイシステム。
(項目16)
方法であって、前記方法は、
1つ以上のプロセッサを備えているシステムによって、
ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、関連付けられた前記ユーザからの深度を有する、ことと、
前記第1の仮想オブジェクトの1つ以上の深度キューを調節し、前記第1の仮想オブジェクトの深度キューと前記凝視点のための深度キューとの間の差異を低減させることと、
ディスプレイデバイスを介して、前記調節された1つ以上の深度キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
を含む、方法。
(項目17)
1つ以上の深度キューを調節することは、前記調節された1つ以上の深度キューに対応する深度平面を前記凝視点の深度平面と合致させることを含む、項目15に記載の方法。
(項目18)
前記ユーザが、閾値頻度を上回る頻度で、前記第1の仮想オブジェクトと第2のオブジェクトとの間で凝視点を交互させていることを決定することであって、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
前記1つ以上の深度キューを調節することと
をさらに含む、項目15に記載の方法。
(項目19)
前記1つ以上の深度キューを調節することは、遠近調節キューを調節することを含み、前記動作は、
前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、両眼キューを調節することと
をさらに含む、項目15に記載の方法。
(項目20)
前記ディスプレイデバイスは、複数のスタックされた導波管を備え、
前記複数のスタックされた導波管は、ディスプレイエリアを形成し、前記ディスプレイエリアを通して周囲環境のビューを提供し、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、各導波管は、深度平面に関連付けられており、
1つ以上の深度キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含む、項目15に記載の方法。
Claims (18)
- 1つ以上のプロセッサと、命令を記憶している1つ以上のコンピュータ記憶媒体とを備えているシステムであって、前記命令は、前記1つ以上のプロセッサによって実行されると、
ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、ディスプレイデバイスを介して、前記ユーザからの深度に関連付けられた深度キューを用いて提示されるように構成されており、前記深度キューは、遠近調節キューを備えている、ことと、
前記凝視点の1つ以上の遠近調節キューに対応するように前記第1の仮想オブジェクトの1つ以上の遠近調節キューを調節することであって、前記凝視点は、前記第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトに対応し、調節することは、他の仮想オブジェクトが前記第2のオブジェクトと同一深度にあるように調節されるようにするためのユーザ入力の指示、または、前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定に基づき、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
ディスプレイデバイスを介して、前記調節された1つ以上の遠近調節キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
を含む動作を前記1つ以上のプロセッサに行わせる、システム。 - 前記ディスプレイデバイスは、複数のスタックされた導波管を備え、各々が、ディスプレイエリアを有し、前記ディスプレイエリアを通して周囲環境のビューを提供し、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、異なる波面発散量が、異なる深度平面に対応する、請求項1に記載のシステム。
- 1つ以上の遠近調節キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含む、請求項2に記載のシステム。
- 前記深度キューは、サイズキューおよび/または両眼キューをさらに備えている、請求項1に記載のシステム。
- 前記動作は、
前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、1つ以上の両眼キューを調節することと
をさらに含む、請求項4に記載のシステム。 - 前記両眼キューの調節は、前記ユーザからの前記第1の仮想オブジェクトの知覚された深度における調節を生じさせ、前記動作は、前記第1の仮想オブジェクトの1つ以上のサイズキューを調節することをさらに含む、請求項5に記載のシステム。
- 前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定は、前記第1の仮想オブジェクトおよび前記第2のオブジェクトが凝視されているそれぞれの時間量に基づく、請求項1に記載のシステム。
- 前記第1の仮想オブジェクトの場所は、前記ユーザ入力の指示に基づいて調節され、前記指示を受信することは、1つ以上の手のジェスチャを含むユーザ入力を受信することを含む、請求項1に記載のシステム。
- 前記1つ以上の手のジェスチャは、特定の3次元場所を示し、前記第1の仮想オブジェクトの前記深度キューは、前記特定の3次元場所に対応するように調節される、請求項8に記載のシステム。
- 方法であって、
1つ以上のプロセッサを備えているシステムによって、
ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、ディスプレイデバイスを介して、前記ユーザからの深度に関連付けられた深度キューを用いて提示されるように構成されており、前記深度キューは、遠近調節キューを備えている、ことと、
前記凝視点の1つ以上の遠近調節キューに対応するように前記第1の仮想オブジェクトの1つ以上の遠近調節キューを調節することであって、前記凝視点は、前記第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトに対応し、調節することは、他の仮想オブジェクトが前記第2のオブジェクトと同一深度にあるように調節されるようにするためのユーザ入力の指示、または、前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定に基づき、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
ディスプレイデバイスを介して、前記調節された1つ以上の遠近調節キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
を実行することを含む、方法。 - 前記ディスプレイデバイスは、複数のスタックされた導波管を備え、1つ以上の遠近調節キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含み、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、異なる波面発散量が、異なる深度平面に対応する、請求項10に記載の方法。
- 前記深度キューは、サイズキューおよび/または両眼キューをさらに備えている、請求項10に記載の方法。
- 前記方法は、
前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、1つ以上の両眼キューを調節することと
をさらに含む、請求項12に記載の方法。 - 前記両眼キューの調節は、前記ユーザからの前記第1の仮想オブジェクトの知覚された深度における調節を生じさせ、前記方法は、前記第1の仮想オブジェクトの1つ以上のサイズキューを調節することをさらに含む、請求項13に記載の方法。
- 前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定は、前記第1の仮想オブジェクトおよび前記第2のオブジェクトが凝視されているそれぞれの時間量に基づく、請求項10に記載の方法。
- 前記第1の仮想オブジェクトの場所は、前記ユーザ入力の指示に基づいて調節され、前記指示を受信することは、1つ以上の手のジェスチャを含むユーザ入力を受信することを含む、請求項10に記載の方法。
- 前記1つ以上の手のジェスチャは、特定の3次元場所を示し、前記第1の仮想オブジェクトの前記深度キューは、前記特定の3次元場所に対応するように調節される、請求項16に記載の方法。
- 命令を記憶している非一過性コンピュータ記憶媒体であって、前記命令は、1つ以上のコンピュータのシステムによって実行されると、
ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、ディスプレイデバイスを介して、前記ユーザからの深度に関連付けられた深度キューを用いて提示されるように構成されており、前記深度キューは、遠近調節キューを備えている、ことと、
前記凝視点の1つ以上の遠近調節キューに対応するように前記第1の仮想オブジェクトの1つ以上の遠近調節キューを調節することであって、前記凝視点は、前記第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトに対応し、調節することは、他の仮想オブジェクトが前記第2のオブジェクトと同一深度にあるように調節されるようにするためのユーザ入力の指示、または、前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定に基づき、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
ディスプレイデバイスを介して、前記調節された1つ以上の遠近調節キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
を含む動作を前記1つ以上のコンピュータに行わせる、非一過性コンピュータ記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023074418A JP2023109774A (ja) | 2016-02-11 | 2023-04-28 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
Applications Claiming Priority (16)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662294147P | 2016-02-11 | 2016-02-11 | |
US62/294,147 | 2016-02-11 | ||
US201662366599P | 2016-07-25 | 2016-07-25 | |
US201662366533P | 2016-07-25 | 2016-07-25 | |
US62/366,599 | 2016-07-25 | ||
US62/366,533 | 2016-07-25 | ||
US201662396071P | 2016-09-16 | 2016-09-16 | |
US62/396,071 | 2016-09-16 | ||
US201662440336P | 2016-12-29 | 2016-12-29 | |
US201662440332P | 2016-12-29 | 2016-12-29 | |
US62/440,336 | 2016-12-29 | ||
US62/440,332 | 2016-12-29 | ||
US201762445630P | 2017-01-12 | 2017-01-12 | |
US62/445,630 | 2017-01-12 | ||
JP2018540761A JP7089475B2 (ja) | 2016-02-11 | 2017-02-10 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
PCT/US2017/017505 WO2017139667A1 (en) | 2016-02-11 | 2017-02-10 | Multi-depth plane display system with reduced switching between depth planes |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018540761A Division JP7089475B2 (ja) | 2016-02-11 | 2017-02-10 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023074418A Division JP2023109774A (ja) | 2016-02-11 | 2023-04-28 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022033232A JP2022033232A (ja) | 2022-02-28 |
JP2022033232A5 JP2022033232A5 (ja) | 2022-04-01 |
JP7273940B2 true JP7273940B2 (ja) | 2023-05-15 |
Family
ID=59563501
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018540761A Active JP7089475B2 (ja) | 2016-02-11 | 2017-02-10 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
JP2021212125A Active JP7273940B2 (ja) | 2016-02-11 | 2021-12-27 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
JP2023074418A Pending JP2023109774A (ja) | 2016-02-11 | 2023-04-28 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018540761A Active JP7089475B2 (ja) | 2016-02-11 | 2017-02-10 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023074418A Pending JP2023109774A (ja) | 2016-02-11 | 2023-04-28 | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム |
Country Status (10)
Country | Link |
---|---|
US (1) | US20220028175A1 (ja) |
EP (1) | EP3414899A4 (ja) |
JP (3) | JP7089475B2 (ja) |
KR (3) | KR20230144666A (ja) |
CN (2) | CN108886612B (ja) |
AU (2) | AU2017217972B2 (ja) |
CA (1) | CA3014189A1 (ja) |
IL (3) | IL302656B1 (ja) |
NZ (2) | NZ744822A (ja) |
WO (1) | WO2017139667A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11138793B2 (en) | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
IL291915B2 (en) | 2016-03-04 | 2024-03-01 | Magic Leap Inc | Reducing current leakage in AR/VR display systems |
CA3017930A1 (en) | 2016-03-25 | 2017-09-28 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
KR102402467B1 (ko) | 2016-10-05 | 2022-05-25 | 매직 립, 인코포레이티드 | 혼합 현실 교정을 위한 안구주위 테스트 |
KR102170123B1 (ko) | 2016-12-14 | 2020-10-26 | 주식회사 엘지화학 | 차광막이 형성되어 있는 도파관 및 이의 제조방법 |
US10373936B2 (en) * | 2017-08-22 | 2019-08-06 | Facebook Technologies, Llc | Pixel elements including light emitters of variable heights |
CN107835403B (zh) | 2017-10-20 | 2020-06-26 | 华为技术有限公司 | 一种以3d视差效果显示的方法及装置 |
EP3740847B1 (en) | 2018-01-17 | 2024-03-13 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
KR20200110367A (ko) | 2018-01-17 | 2020-09-23 | 매직 립, 인코포레이티드 | 디스플레이 시스템들에서의 눈 회전 중심 결정, 깊이 평면 선택, 및 렌더 카메라 포지셔닝 |
US10284753B1 (en) | 2018-07-03 | 2019-05-07 | Sony Corporation | Virtual reality media content generation in multi-layer structure based on depth of field |
WO2020018938A1 (en) | 2018-07-19 | 2020-01-23 | Magic Leap, Inc. | Content interaction driven by eye metrics |
EP3827426A4 (en) | 2018-07-24 | 2022-07-27 | Magic Leap, Inc. | AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES |
WO2020028867A1 (en) | 2018-08-03 | 2020-02-06 | Magic Leap, Inc. | Depth plane selection for multi-depth plane display systems by user categorization |
CN109803133B (zh) * | 2019-03-15 | 2023-04-11 | 京东方科技集团股份有限公司 | 一种图像处理方法及装置、显示装置 |
CN111726602B (zh) * | 2019-03-22 | 2022-04-22 | 舜宇光学(浙江)研究院有限公司 | 异视场角摄像-显像***的匹配方法及其***和计算*** |
WO2020209491A1 (en) | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head-mounted display device and operating method of the same |
CN110244839B (zh) * | 2019-05-20 | 2022-11-18 | 联想(上海)信息技术有限公司 | 控制方法、电子设备和存储介质 |
JP7426413B2 (ja) * | 2019-05-23 | 2024-02-01 | マジック リープ, インコーポレイテッド | ブレンドモード3次元ディスプレイシステムおよび方法 |
JP2023505791A (ja) | 2019-12-10 | 2023-02-13 | マジック リープ, インコーポレイテッド | 複合現実ディスプレイのための増加された被写界深度 |
US11662810B2 (en) * | 2020-06-05 | 2023-05-30 | Magic Leap, Inc. | Enhanced eye tracking techniques based on neural network analysis of images |
CN113419350B (zh) * | 2021-06-18 | 2023-05-23 | 深圳市腾讯计算机***有限公司 | 虚拟现实显示设备、画面呈现方法、装置及存储介质 |
CN113426110B (zh) * | 2021-06-24 | 2023-11-17 | 腾讯科技(上海)有限公司 | 虚拟角色交互方法、装置、计算机设备和存储介质 |
CN115251827B (zh) * | 2022-09-26 | 2022-12-30 | 广东视明科技发展有限公司 | 基于虚实结合的深度知觉评估方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011064760A (ja) | 2009-09-15 | 2011-03-31 | Nippon Seiki Co Ltd | 車両用表示装置 |
WO2014158633A1 (en) | 2013-03-14 | 2014-10-02 | Qualcomm Incorporated | User interface for a head mounted display |
JP2015005972A (ja) | 2013-05-22 | 2015-01-08 | 株式会社テレパシーホールディングス | 撮影画像のプライバシー保護機能を有するウェアラブルデバイス及びその制御方法並びに画像共有システム |
US20150178939A1 (en) | 2013-11-27 | 2015-06-25 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
WO2015184412A1 (en) | 2014-05-30 | 2015-12-03 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3298082B2 (ja) * | 1994-12-13 | 2002-07-02 | 日本電信電話株式会社 | ヘッドマウントディスプレィ装置 |
JP3651204B2 (ja) * | 1996-12-18 | 2005-05-25 | トヨタ自動車株式会社 | 立体画像表示装置、立体画像表示方法及び記録媒体 |
JP3882273B2 (ja) * | 1997-06-03 | 2007-02-14 | 日産自動車株式会社 | 両眼立体視表示装置 |
JPH11109279A (ja) * | 1997-10-03 | 1999-04-23 | Minolta Co Ltd | 映像表示装置 |
WO2003034705A2 (en) * | 2001-10-19 | 2003-04-24 | University Of North Carolina At Chapel Hill | Methods and systems for dynamic virtual convergence and head mountable display |
US20110075257A1 (en) * | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
JP5799521B2 (ja) * | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
US20150097772A1 (en) * | 2012-01-06 | 2015-04-09 | Thad Eugene Starner | Gaze Signal Based on Physical Characteristics of the Eye |
CN103472909B (zh) * | 2012-04-10 | 2017-04-12 | 微软技术许可有限责任公司 | 用于头戴式、增强现实显示器的逼真遮挡 |
JP6393254B2 (ja) * | 2012-04-19 | 2018-09-19 | トムソン ライセンシングThomson Licensing | 立体視ディスプレイにおける調節効果による歪み誤差を補正する方法および装置 |
AU2013274359B2 (en) * | 2012-06-11 | 2017-05-25 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9310611B2 (en) * | 2012-09-18 | 2016-04-12 | Qualcomm Incorporated | Methods and systems for making the use of head-mounted displays less obvious to non-users |
US20140092006A1 (en) * | 2012-09-28 | 2014-04-03 | Joshua Boelter | Device and method for modifying rendering based on viewer focus area from eye tracking |
US9448404B2 (en) * | 2012-11-13 | 2016-09-20 | Qualcomm Incorporated | Modifying virtual object display properties to increase power performance of augmented reality devices |
US10228242B2 (en) * | 2013-07-12 | 2019-03-12 | Magic Leap, Inc. | Method and system for determining user input based on gesture |
JP5825328B2 (ja) * | 2013-11-07 | 2015-12-02 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
AU2014354673B2 (en) * | 2013-11-27 | 2019-04-11 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9857591B2 (en) * | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US9313481B2 (en) | 2014-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Stereoscopic display responsive to focal-point shift |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
-
2017
- 2017-02-10 NZ NZ744822A patent/NZ744822A/en unknown
- 2017-02-10 IL IL302656A patent/IL302656B1/en unknown
- 2017-02-10 WO PCT/US2017/017505 patent/WO2017139667A1/en active Application Filing
- 2017-02-10 IL IL260939A patent/IL260939B2/en unknown
- 2017-02-10 KR KR1020237034082A patent/KR20230144666A/ko active Application Filing
- 2017-02-10 CN CN201780022733.7A patent/CN108886612B/zh active Active
- 2017-02-10 CA CA3014189A patent/CA3014189A1/en active Pending
- 2017-02-10 AU AU2017217972A patent/AU2017217972B2/en active Active
- 2017-02-10 JP JP2018540761A patent/JP7089475B2/ja active Active
- 2017-02-10 EP EP17750889.2A patent/EP3414899A4/en active Pending
- 2017-02-10 CN CN202110498429.8A patent/CN113225547A/zh active Pending
- 2017-02-10 KR KR1020237005780A patent/KR102587841B1/ko active IP Right Grant
- 2017-02-10 NZ NZ758505A patent/NZ758505A/en unknown
- 2017-02-10 KR KR1020187026210A patent/KR102503155B1/ko active IP Right Grant
-
2021
- 2021-10-04 US US17/493,163 patent/US20220028175A1/en active Pending
- 2021-12-27 JP JP2021212125A patent/JP7273940B2/ja active Active
-
2022
- 2022-05-09 AU AU2022203090A patent/AU2022203090A1/en active Pending
-
2023
- 2023-04-28 JP JP2023074418A patent/JP2023109774A/ja active Pending
-
2024
- 2024-04-30 IL IL312473A patent/IL312473A/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011064760A (ja) | 2009-09-15 | 2011-03-31 | Nippon Seiki Co Ltd | 車両用表示装置 |
WO2014158633A1 (en) | 2013-03-14 | 2014-10-02 | Qualcomm Incorporated | User interface for a head mounted display |
JP2015005972A (ja) | 2013-05-22 | 2015-01-08 | 株式会社テレパシーホールディングス | 撮影画像のプライバシー保護機能を有するウェアラブルデバイス及びその制御方法並びに画像共有システム |
US20150178939A1 (en) | 2013-11-27 | 2015-06-25 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
WO2015184412A1 (en) | 2014-05-30 | 2015-12-03 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
Also Published As
Publication number | Publication date |
---|---|
IL260939B2 (en) | 2023-10-01 |
KR20180111988A (ko) | 2018-10-11 |
KR102503155B1 (ko) | 2023-02-22 |
AU2022203090A1 (en) | 2022-05-26 |
IL302656B1 (en) | 2024-06-01 |
IL260939A (ja) | 2018-09-20 |
KR20230144666A (ko) | 2023-10-16 |
KR102587841B1 (ko) | 2023-10-10 |
JP2022033232A (ja) | 2022-02-28 |
WO2017139667A1 (en) | 2017-08-17 |
JP7089475B2 (ja) | 2022-06-22 |
JP2019507902A (ja) | 2019-03-22 |
IL312473A (en) | 2024-07-01 |
CN108886612B (zh) | 2021-05-25 |
NZ758505A (en) | 2021-07-30 |
JP2023109774A (ja) | 2023-08-08 |
CA3014189A1 (en) | 2017-08-17 |
IL260939B1 (en) | 2023-06-01 |
CN108886612A (zh) | 2018-11-23 |
NZ744822A (en) | 2020-01-31 |
KR20230030030A (ko) | 2023-03-03 |
CN113225547A (zh) | 2021-08-06 |
AU2017217972A1 (en) | 2018-08-16 |
IL302656A (en) | 2023-07-01 |
EP3414899A1 (en) | 2018-12-19 |
US20220028175A1 (en) | 2022-01-27 |
EP3414899A4 (en) | 2019-11-06 |
AU2017217972B2 (en) | 2022-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7273940B2 (ja) | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム | |
US11138793B2 (en) | Multi-depth plane display system with reduced switching between depth planes | |
JP7398507B2 (ja) | 仮想および拡張現実システムおよび方法 | |
JP7171849B2 (ja) | 可変焦点レンズ要素を用いた拡張現実システムおよび方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7273940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |