KR20180102119A - 가상/증강 현실 시스템에서 빔 각도 센서 - Google Patents

가상/증강 현실 시스템에서 빔 각도 센서 Download PDF

Info

Publication number
KR20180102119A
KR20180102119A KR1020187022711A KR20187022711A KR20180102119A KR 20180102119 A KR20180102119 A KR 20180102119A KR 1020187022711 A KR1020187022711 A KR 1020187022711A KR 20187022711 A KR20187022711 A KR 20187022711A KR 20180102119 A KR20180102119 A KR 20180102119A
Authority
KR
South Korea
Prior art keywords
virtual image
end user
generation system
image generation
orthogonal
Prior art date
Application number
KR1020187022711A
Other languages
English (en)
Inventor
이반 엘. 여
리오넬 어니스트 에드윈
로버트 데일 테콜스트
Original Assignee
매직 립, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 매직 립, 인코포레이티드 filed Critical 매직 립, 인코포레이티드
Publication of KR20180102119A publication Critical patent/KR20180102119A/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/27Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
    • G01B11/272Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes using photoelectric detection means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/103Scanning systems having movable or deformable optical fibres, light guides or waveguides as scanning elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/30Collimators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • G02B6/0015Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it
    • G02B6/0016Grooves, prisms, gratings, scattering particles or rough surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • G02B2027/0125Field-of-view increase by wavefront division
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/24Coupling light guides
    • G02B6/26Optical coupling means
    • G02B6/34Optical coupling means utilising prism or grating

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Mechanical Light Control Or Optical Switches (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)
  • Processing Or Creating Images (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

최종 사용자가 사용하기 위한 가상 이미지 생성 시스템은 시준된 광빔을 생성하도록 구성된 투사 서브시스템, 및 이미지 프레임의 픽셀을 최종 사용자에게 디스플레이하기 위해 시준된 광빔에 대한 응답으로 광선들을 방출하도록 구성된 디스플레이를 포함한다. 픽셀은 방출된 광선들의 각도들로 인코딩된 위치를 가진다. 가상 이미지 생성 시스템은 방출된 광선 각도들 중 적어도 하나를 표시하는 적어도 하나의 파라미터를 감지하도록 구성된 감지 어셈블리, 및 픽셀의 위치를 정의하는 이미지 데이터를 생성하고, 그리고 픽셀의 정의된 위치와 감지된 파라미터(들)에 기반하여 디스플레이에 관하여 광빔의 각도를 제어하도록 구성된 제어 서브시스템을 더 포함한다.

Description

가상/증강 현실 시스템에서 빔 각도 센서
[0001] 이 출원은 대리인 번호 ML.30053.00 하에서 2016년 1월 12일에 출원되고 발명의 명칭이 "BEAM ANGLE SENSOR IN VIRTUAL/AUGMENTED REALITY SYSTEM"인 미국 가특허 출원 일련 번호 제 62/277,865호를 우선권 주장한다. 이로써, 위에서 언급된 특허 출원의 내용은 그 전체가 인용에 의해 명시적으로 통합된다.
[0002] 본 발명은 일반적으로 하나 또는 그 초과의 사용자들에 대해 상호작용하는 가상 또는 증강 현실 환경들을 가능하게 하도록 구성된 시스템들 및 방법들에 관한 것이다.
[0003] 현대 컴퓨팅 및 디스플레이 기술들은 소위 "가상 현실" 또는 "증강 현실" 경험들을 위한 시스템들의 개발을 가능하게 하였고, 여기서 디지털적으로 재생된 이미지들 또는 이미지들의 부분들은, 그들이 실제인 것으로 보이거나, 실제로서 인식될 수 있는 방식으로 사용자에게 제시된다. 가상 현실(VR) 시나리오는 통상적으로 다른 실제 실세계 시각적 입력에 대한 투명성(transparency) 없이 디지털 또는 가상 이미지 정보의 프리젠테이션(presentation)을 수반하는 반면, 증강 현실(AR) 시나리오는 통상적으로 최종 사용자 주위 실제 세계의 시각화에 대한 증강으로서 디지털 또는 가상 이미지 정보의 프리젠테이션을 수반한다.
[0004] 예컨대, 도 1을 참조하면, 증강 현실 장면(4)이 도시되고, AR 기술의 사용자는 배경 내의 사람들, 나무들, 빌딩들, 및 콘크리트 플랫폼(8)을 특징으로 하는 실세계 공원형 세팅(6)을 본다. 이들 아이템들에 외에, AR 기술의 최종 사용자는 또한, 그가 실세계 플랫폼(8) 상에 서있는 로봇 동상(10), 및 호박벌의 의인화인 것으로 보여지는 날고 있는 만화형 아바타 캐릭터(12)(비록 이들 엘리먼트들(10, 12)이 실세계에 존재하지 않을지라도)를 보는 것을 인식한다. 밝혀진 바와 같이, 인간 시각 인식 시스템은 매우 복잡하고, 다른 가상 또는 실세계 이미저리(imagery) 엘리먼트들 사이에서 가상 이미지 엘리먼트들의 편안하고, 자연스럽고, 풍부한 프리젠테이션을 가능하게 하는 VR 또는 AR 기술을 생성하는 것은 난제이다.
[0005] VR 및 AR 시스템들은 통상적으로 사용자의 머리에 적어도 느슨하게 커플링되고, 따라서 최종 사용자의 머리가 움직일 때 움직이는 머리-착용 디스플레이들(또는 헬멧-장착 디스플레이들, 또는 스마트 안경)을 이용한다. 최종 사용자의 머리 모션(motion)들이 디스플레이 서브시스템에 의해 검출되면, 디스플레이되는 데이터는 머리 포즈(즉, 사용자의 머리의 배향 및/또는 위치)의 변화를 고려하기 위하여 업데이트될 수 있다.
[0006] 예로서, 머리-착용 디스플레이를 착용한 사용자가 디스플레이상의 3차원(3D) 객체의 가상 표현을 보면서 3D 객체가 나타나는 영역을 둘러보면, 그 3D 객체는 각각의 뷰포인트(viewpoint)에 대해 재-렌더링될 수 있고, 이는 최종 사용자가 실제 공간을 차지하는 객체를 둘러본다는 인식을 최종 사용자에게 제공한다. 머리-착용 디스플레이가 가상 공간(예컨대, 풍부한 가상 세계) 내의 다수의 객체들을 제시하는데 사용되면, 머리 포즈의 측정들은 최종 사용자의 동적으로 변화하는 머리 위치 및 배향을 매칭시키기 위하여 장면을 재-렌더링하고 그리고 가상 공간에서의 증가된 몰입감을 제공하기 위해 사용될 수 있다.
[0007] AR을 인에이블하는(즉, 실제 및 가상 엘리먼트들의 동시 보기) 머리-착용 디스플레이들은 몇몇 상이한 타입들의 구성들을 가질 수 있다. 종종 "비디오 시-스루(see-through)" 디스플레이라 지칭되는 하나의 그런 구성에서, 카메라는 실제 장면의 엘리먼트들을 캡처하고, 컴퓨팅 시스템은 가상 엘리먼트들을 캡처된 실제 장면 상에 슈퍼임포즈(superimpose)하고, 그리고 불-투명 디스플레이는 합성 이미지를 눈들에 제시한다. 다른 구성은 종종 "광학 시-스루" 디스플레이로서 지칭되고, 여기서 최종 사용자는 디스플레이 서브시스템 내의 투명(또는 반-투명) 엘리먼트들을 시 스루하여 환경 내의 실제 객체들로부터의 광을 직접 뷰잉(view)할 수 있다. 종종 "컴바이너(combiner)"로서 지칭되는 투명 엘리먼트는 디스플레이로부터의 광을 실세계의 최종 사용자의 뷰 위에 슈퍼임포즈한다.
[0008] VR 및 AR 시스템들은 통상적으로 투사 서브시스템, 및 최종 사용자의 시야의 전면에 포지셔닝되고, 투사 서브시스템이 순차적으로 이미지 프레임들을 투사하는 디스플레이 표면을 이용한다. 진정한 3차원 시스템들에서, 디스플레이 표면의 깊이는 프레임 레이트들 또는 서브-프레임 레이트들로 제어될 수 있다. 투사 서브시스템은 하나 또는 그 초과의 광섬유들 ― 하나 또는 그 초과의 광섬유들에 하나 또는 그 초과의 광 소스들로부터의 광이 정의된 패턴들로 상이한 컬러들의 광을 방출함 ―, 및 최종 사용자에게 순차적으로 디스플레이되는 이미지 프레임들을 생성하기 위해 미리결정된 패턴으로 광섬유(들)를 스캐닝하는 스캐닝 디바이스를 포함할 수 있다.
[0009] 일 실시예에서, 디스플레이 서브시스템은, 일반적으로 사용자의 시야에 평행한 하나 또는 그 초과의 평면 광학 도파관들을 포함하고, 하나 또는 그 초과의 평면 광학 도파관들로 광섬유(들)로부터의 광이 주입된다. 하나 또는 그 초과의 선형 회절 격자들은 도파관(들)을 따라 전파되는 입사 광의 각도를 변화시키기 위해 도파관(들) 내에 임베딩된다. TIR(total internal reflection)의 임계치를 넘어 광의 각도를 변화시킴으로써, 광은 도파관(들)의 하나 또는 그 초과의 측면들로부터 탈출한다. 선형 회절 격자(들)는 낮은 회절 효율성을 가져서, 광이 선형 회절 격자(들)를 만날때마다, 광 에너지의 일부만이 도파관(들) 밖으로 지향된다. 격자(들)를 따라 다수의 위치들에서 광을 아웃커플링(outcoupling)함으로써, 디스플레이 서브시스템의 사출 동공은 효과적으로 증가된다. 디스플레이 서브시스템은 광섬유(들)로부터 오는 광을 시준하는 하나 또는 그 초과의 시준 엘리먼트들, 및 도파관(들)의 에지로 또는 도파관(들)의 에지로부터, 시준된 광을 광학적으로 커플링하는 광학 입력 장치를 더 포함할 수 있다.
[0010] 도 2를 참조하면, 디스플레이 서브시스템(20)의 일 실시예는 광을 생성하는 하나 또는 그 초과의 광 소스들(22), 광을 방출하는 광섬유(24) 및 광섬유(24)의 원위(distal) 단부를 떠나는 광을 광빔(36)으로 시준하는 시준 엘리먼트(26)를 포함한다. 디스플레이 서브시스템(20)은, 광섬유(24)가 비고정식 유연한 캔틸레버로서 장착되는 압전기 엘리먼트(28), 및 압전기 엘리먼트(28)를 전기적으로 자극하여 활성화시키기 위해 압전기 엘리먼트(22)에 전기적으로 커플링된 드라이브 전자장치(30)를 더 포함하여, 광섬유(24)의 원위 단부는 지주(34)를 중심으로 편향들(32)을 생성하는 미리결정된 스캔 패턴으로 진동하게 되고, 이에 의해 스캔 패턴에 따라 시준된 광빔(36)이 스캐닝된다.
[0011] 디스플레이 서브시스템(20)은 일반적으로 최종 사용자의 시야에 평행한 평면 광학 도파관(40)을 포함하는 도파관 장치(38), 평면 광학 도파관들(40)과 연관된 DOE(diffractive optical element)(42), 및 평면 광학 도파관(40)의 단부 내에 통합된 ICE(in-coupling element)(42)(DOE의 형태를 취함)를 포함한다. ICE(42)는 시준 엘리먼트(26)로부터 시준된 광(36)을 평면 광학 도파관(40)에 인-커플링하고 재지향시킨다. 시준 엘리먼트(26)로부터 시준된 광빔(36)은 평면 광학 도파관(40)을 따라 전파되고 DOE(42)와 교차하여, 광의 일부가 평면 광학 도파관(40)의 렌징 팩터(lensing factor)에 따라 뷰잉 거리에 포커싱되는, 최종 사용자의 눈들을 향하는 광선들(46)로서 도파관 장치(38)의 면을 떠나게 한다. 따라서, 드라이브 전자장치(30)와 함께 광 소스(들)(22)는 공간적으로 그리고/또는 시간적으로 변화하는 광의 형태로 인코딩된 이미지 데이터를 생성한다.
[0012] 최종 사용자에 의해 가시화되는 각각의 픽셀의 위치는 평면 광학 도파관(40)을 떠나는 광선들(48)의 각도에 크게 의존한다. 따라서, 상이한 각도들로 도파관(40)을 떠나는 광선들(48)은 최종 사용자의 시야의 상이한 위치들에 픽셀들을 생성할 것이다. 예컨대, 최종 사용자의 시야의 우측 상단에 픽셀을 위치시키는 것이 원해지면, 시준된 광빔(36)은 하나의 각도로 도파관 장치(38)에 입력될 수 있고, 그리고 최종 사용자의 시야의 중앙에 픽셀을 위치시키는 것이 원해지면, 시준된 광빔(36)은 제2 상이한 각도로 도파관 장치(38)에 입력될 수 있다. 따라서, 광섬유(24)가 스캔 패턴에 따라 스캐닝될 때, 광섬유(24)로부터 발생하는 광빔(36)은 상이한 각도들로 도파관 장치(38)로 입력될 것이고, 이에 의해 최종 사용자의 시야의 상이한 위치들에 픽셀들이 생성된다. 따라서, 최종 사용자의 시야의 각각의 픽셀의 위치는 평면 광학 도파관(40)을 떠나는 광선들(48)의 각도에 크게 의존하고, 따라서 이들 픽셀들의 위치들은 디스플레이 서브시스템(20)에 의해 생성된 이미지 데이터 내에서 인코딩된다.
[0013] 도파관 장치(38)에 진입하는 광빔(36)의 각도 및 따라서 평면 광학 도파관(40)에 진입하는 광빔(36)의 각도가 평면 광학 도파관(40)을 떠나는 광선들(48)의 각도들과 상이할 것이지만, 도파관 장치(38)에 진입하는 광빔(36)의 각도와 평면 광학 도파관(40)을 떠나는 광선들(48)의 각도들 사이의 관계들은 잘 알려져 있고 예측가능하며, 따라서 평면 광학 도파관(40)을 떠나는 광선들(48)의 각도들은 도파관 장치(38)에 진입하는 시준된 광빔(36)의 각도로부터 쉽게 예측될 수 있다.
[0014] 광섬유(24)로부터 도파관 장치(38)로 진입하는 광빔들(36)의 실제 각도들 및 따라서 최종 사용자를 향해 도파관(40)을 떠나는 광선들(48)의 실제 각도가 동일하거나 거의 동일하거나 떠나는 광선들(48)의 설계된 각도들에 대해 일-대-일 관계이어서, 최종 사용자에 의해 가시화되는 픽셀들의 위치들이 디스플레이 서브시스템(20)에 의해 생성된 이미지 데이터에서 적절히 인코딩되는 것이 위로부터 인지될 수 있다. 그러나, 상이한 스캐너들 사이의 제조 허용오차들 뿐 아니라, 디스플레이 서브시스템(20)을 함께 통합하는데 사용되는 본딩 재료들의 일관성을 변화시킬 수 있는 온도의 변동들 같은 변화하는 환경 조건들로 인해, 떠나는 광선들(48)의 실제 각도들은 보정 없이는 떠나는 광선들(48)의 설계된 각도들로부터 변화할 것이고, 이에 의해 최종 사용자의 시야 내의 올바르지 않은 위치들에 존재하는 픽셀들이 생성되어, 이미지 왜곡이 초래된다.
[0015] 따라서, 가상 현실 또는 증강 현실 환경에서 디스플레이 서브시스템의 도파관을 떠나는 광선들의 실제 각도가 디스플레이 서브시스템에 의해 생성된 이미지 데이터 내에 인코딩된 설계된 각도들과 거의 동일한 것을 보장하는 것이 필요하다.
[0016] 본 발명의 실시예들은 하나 또는 그 초과의 사용자들에 대한 가상 현실 및/또는 증강 현실 상호작용을 가능하게 하기 위한 디바이스들, 시스템들 및 방법들에 관한 것이다.
[0017] 본 발명의 제1 양상에 따라, 최종 사용자가 사용하기 위한 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템이 제공된다. 디스플레이 서브시스템은 도파관 장치를 포함한다. 일 실시예에서, 도파관 장치는 최종 사용자의 눈들의 전면에 포지셔닝되도록 구성된다. 다른 실시예에서, 도파관 장치는 최종 사용자의 눈들과 주위 환경 사이의 시야에 포지셔닝되도록 구성된 부분적으로 투명한 디스플레이 표면을 가진다. 또 다른 실시예에서, 디스플레이 서브시스템은 최종 사용자가 착용하도록 구성된 프레임 구조를 포함한다. 이 경우에, 프레임 구조는 도파관 장치를 지지한다.
[0018] 디스플레이 서브시스템은 광을 방출하도록 구성된 이미징 엘리먼트, 및 이미징 엘리먼트로부터의 광을 광빔으로 시준하도록 구성된 시준 엘리먼트를 더 포함한다. 일 실시예에서, 이미징 엘리먼트는 광을 생성하도록 구성된 적어도 하나의 광 소스, 광을 방출하도록 구성된 광섬유, 및 광섬유가 장착되는 기계적 드라이브 어셈블리를 포함한다. 기계적 드라이브 어셈블리는 스캔 패턴에 따라 광섬유를 변위시키도록 구성된다. 일 실시예에서, 기계적 드라이브 어셈블리는, 광섬유가 장착되는 압전기 엘리먼트 및 전기 신호들을 압전기 엘리먼트에 전달하도록 구성된 드라이브 전자장치를 포함하고, 이에 의해 광섬유가 스캔 패턴에 따라 진동하게 된다.
[0019] 디스플레이 서브시스템은, 광선들이 도파관 장치를 떠나 이미지 프레임의 픽셀을 최종 사용자에게 디스플레이하도록, 시준 엘리먼트로부터의 광빔을 도파관 장치 아래로 지향시키도록 구성된 ICE(in-coupling element)를 더 포함한다. 픽셀은 떠나는 광선들의 각도들로 인코딩된 위치를 가진다. 일 실시예에서, 도파관 장치는 평면 광학 도파관(예컨대, 광학적으로 투명한 재료의 단일 팬(pan)으로 형성된 것)을 포함하고, 이 경우에, ICE는 이미징 엘리먼트로부터 시준된 광빔을 인-커플링(in-couple)된 광빔으로서 평면 광학 도파관에 광학적으로 커플링하도록 구성된다. 도파관 장치는 인-커플링된 광빔을 복수의 직교 광빔들로 분할하기 위해 평면 광학 도파관과 연관된 OPE(orthogonal pupil expansion) 엘리먼트, 및 복수의 직교 광빔들을 평면 광학 도파관을 떠나는 광선들로 분할하기 위해 평면 광학 도파관과 연관된 EPE(exit pupil expansion) 엘리먼트를 더 포함할 수 있다.
[0020] 디스플레이 서브시스템은 떠나는 광선 각도들 중 적어도 하나의 각도를 표시하는 적어도 하나의 파라미터를 감지하도록 구성된 감지 어셈블리를 더 포함한다. 일 실시예에서, 감지된 파라미터(들)는 도파관 장치의 외부 표면과 일치하는 평면에 직교하는 적어도 하나의 평면(예컨대, 서로 직교하는 2개의 직교 평면들)에 투사되는 떠나는 광선 각도(들)를 표시한다.
[0021] 다른 실시예에서, 감지된 파라미터(들)는 복수의 떠나는 광선들을 대표하는 적어도 하나의 광선의 세기를 포함한다. 대표 광선(들)은 복수의 떠나는 광선들과 상이할 수 있다. 이 경우에, 대표 광선(들)은 최종 사용자의 시야 외측의 복수의 떠나는 광선들과 상이한 위치에서 도파관 장치를 떠날 수 있다. 대안적으로, 복수의 떠나는 광선들은 대표 광선(들)을 포함할 수 있다.
[0022] 어떤 경우든지, 감지 어셈블리는 적어도 하나의 각도 센서를 포함할 수 있고, 적어도 하나의 각도 센서 각각은 포토(photo)-세기 센서 및 도파관 장치와 포토-세기 센서 사이에 장착된 각도 선택 층을 포함한다. 일 실시예에서, 각도 센서(들)는 대표 광선(들)의 제1 및 제2 직교 세기 성분들을 감지하도록 각각 구성된 직교 센서들의 쌍을 포함한다. 직교 센서들의 쌍은 대표 광선(들)의 제1 및 제2 직교 세기 성분들을 각각 통과시키도록 구성된 제1 및 제2 원통형 렌즈들을 각각 포함할 수 있다. 또는, 직교 센서들의 쌍은 대표 광선(들)의 제1 및 제2 직교 세기 성분들을 각각 통과시키도록 구성된 제1 및 제2 회절 광학 엘리먼트들을 각각 포함할 수 있다. 또는, 직교 센서들의 쌍은 대표 광선(들)의 각각을 직교 편광 광선들로 각각 편광시키도록 구성된 제1 및 제2 편광 엘리먼트들을 각각 포함할 수 있다. 또는, 각도 선택 층들은 직교 배향들로 변형될 수 있다.
[0023] 또 다른 실시예에서, 감지된 파라미터(들)는, 제1 및 제2 직교 세기 성분들이 정규화될 수 있도록, 적어도 하나의 대표 광선의 절대 세기를 포함할 수 있다. 이 경우에, 감지 어셈블리는 적어도 하나의 대표 광선의 절대 세기를 측정하도록 구성된 다른 포토-세기 센서를 포함할 수 있다. 또 다른 실시예에서, 감지된 파라미터(들)는 복수의 떠나는 광선들의 상대적인 각도들을 표시한다. 예컨대, 감지된 파라미터(들)는, 시준된 광빔이 평면에 투사되는 사분면을 포함할 수 있다. 이 경우에, 감지 어셈블리는 기준 평면 또는 사분면 PSD(position sensing detector)의 사분면들에서 이격된 복수의 센서들을 포함할 수 있다.
[0024] 본 발명들의 제2 양상에 따라, 가상 이미지 생성 시스템은 이전에-설명된 디스플레이 서브시스템, 및 픽셀의 위치를 정의하는 이미지 데이터를 생성하고, 그리고 픽셀의 정의된 위치 및 감지된 파라미터(들)에 기반하여 ICE에 관하여 광빔의 각도를 제어하도록 구성된 제어 서브시스템을 포함한다. 가상 이미지 생성 시스템은 3차원 장면을 저장하는 메모리를 더 포함할 수 있고, 이 경우에, 제어 서브시스템은 3차원 장면의 복수의 합성 이미지 프레임들을 렌더링하도록 구성될 수 있고, 그리고 디스플레이 서브시스템은 복수의 이미지 프레임들을 최종 사용자에게 순차적으로 디스플레이하도록 구성될 수 있다. 제어 서브시스템은 GPU(graphics processing unit)를 포함할 수 있다.
[0025] 본 발명들의 제3 양상에 따라, 최종 사용자가 사용하기 위한 가상 이미지 생성 시스템이 제공된다. 가상 이미지 생성 시스템은 시준된 광빔을 생성하도록 구성된 투사 서브시스템을 포함한다. 일 실시예에서, 투사 서브시스템은 광을 생성하도록 구성된 적어도 하나의 광 소스, 광을 방출하도록 구성된 광섬유, 광섬유로부터의 광을 시준된 광빔으로 시준하도록 구성된 시준 엘리먼트, 및 광섬유가 장착되는 기계적 드라이브 어셈블리를 포함한다. 기계적 드라이브 어셈블리는 스캔 패턴에 따라 광섬유를 변위시키도록 구성된다. 일 실시예에서, 기계적 드라이브 어셈블리는, 광섬유가 장착되는 압전기 엘리먼트 및 전기 신호들을 압전기 엘리먼트에 전달하도록 구성된 드라이브 전자장치를 포함할 수 있고, 이에 의해 광섬유가 스캔 패턴에 따라 진동하게 된다.
[0026] 가상 이미지 생성 시스템은 이미지 프레임의 픽셀을 최종 사용자에게 디스플레이하기 위해 시준된 광빔에 대한 응답으로 광선들을 방출하도록 구성된 디스플레이를 더 포함한다. 픽셀은 방출된 광선들의 각도들로 인코딩된 위치를 가진다. 일 실시예에서, 디스플레이는 복수의 상이한 초점들 중 하나에서 이미지 프레임의 픽셀을 최종 사용자에게 선택적으로 디스플레이하도록 구성된다. 디스플레이는 최종 사용자의 눈들의 전면에 포지셔닝되도록 구성될 수 있다. 디스플레이는 최종 사용자의 눈들과 주위 환경 사이의 시야에 포지셔닝되도록 구성된 부분적으로 투명한 디스플레이 표면을 가질 수 있다. 다른 실시예에서, 가상 이미지 생성 시스템은 최종 사용자가 착용하도록 구성된 프레임 구조를 더 포함하고, 프레임 구조는 디스플레이를 지지한다.
[0027] 가상 이미지 생성 시스템은 방출된 광선 각도(들)를 표시하는 적어도 하나의 파라미터를 감지하도록 구성된 감지 어셈블리를 더 포함한다. 일 실시예에서, 감지 어셈블리에 의해 감지된 파라미터(들)는 도파관 장치의 외부 표면과 일치하는 평면에 직교하는 적어도 하나의 평면(예컨대, 서로 직교하는 2개의 직교 평면들)에 투사되는 떠나는 광선 각도(들)를 표시한다.
[0028] 다른 실시예에서, 감지된 파라미터(들)는 도파관 장치의 외부 표면과 일치하는 평면에 직교하는 적어도 하나의 평면(예컨대, 서로 직교하는 2개의 직교 평면들)에 투사되는 방출된 광선 각도(들)를 표시한다.
[0029] 또 다른 실시예에서, 감지된 파라미터(들)는 복수의 방출된 광선들을 대표하는 적어도 하나의 광선의 세기를 포함한다. 대표 광선(들)은 복수의 방출된 광선들과 상이할 수 있다. 이 경우에, 대표 광선(들)은 최종 사용자의 시야 외측의 복수의 방출된 광선들과 상이한 위치에서 도파관 장치를 떠날 수 있다. 대안적으로, 복수의 방출된 광선들은 대표 광선(들)을 포함할 수 있다.
[0030] 어떤 경우든지, 감지 어셈블리는 적어도 하나의 각도 센서를 포함할 수 있고, 적어도 하나의 각도 센서 각각은 포토(photo)-세기 센서 및 도파관 장치와 포토-세기 센서 사이에 장착된 각도 선택 층을 포함할 수 있다. 일 실시예에서, 각도 센서(들)는 대표 광선(들)의 제1 및 제2 직교 세기 성분들을 감지하도록 각각 구성된 직교 센서들의 쌍을 포함한다. 직교 센서들의 쌍은 대표 광선(들)의 제1 및 제2 직교 세기 성분들을 각각 통과시키도록 구성된 제1 및 제2 원통형 렌즈들을 각각 포함할 수 있다. 또는, 직교 센서들의 쌍은 대표 광선(들)의 제1 및 제2 직교 세기 성분들을 각각 통과시키도록 구성된 제1 및 제2 회절 광학 엘리먼트들을 각각 포함할 수 있다. 또는, 직교 센서들의 쌍은 대표 광선(들)의 각각을 직교 편광 광선들로 각각 편광시키도록 구성된 제1 및 제2 편광 엘리먼트들을 각각 포함할 수 있다. 또는, 각도 선택 층들은 직교 배향들로 변형될 수 있다.
[0031] 또 다른 실시예에서, 감지된 파라미터(들)는, 제1 및 제2 직교 세기 성분들이 정규화될 수 있도록, 적어도 하나의 대표 광선의 절대 세기를 포함할 수 있다. 이 경우에, 감지 어셈블리는 적어도 하나의 대표 광선의 절대 세기를 측정하도록 구성된 다른 포토-세기 센서를 포함할 수 있다. 또 다른 실시예에서, 감지된 파라미터(들)는 복수의 방출된 광선들의 상대적인 각도들을 표시한다. 예컨대, 감지된 파라미터(들)는, 시준된 광빔이 평면에 투사되는 사분면을 포함할 수 있다. 이 경우에, 감지 어셈블리는 기준 평면 또는 사분면 PSD(position sensing detector)의 사분면들에서 이격된 복수의 센서들을 포함할 수 있다.
[0032] 가상 이미지 생성 시스템은 픽셀의 위치를 정의하는 이미지 데이터를 생성하고, 그리고 픽셀의 정의된 위치 및 감지된 파라미터(들)에 기반하여 디스플레이에 관하여 광빔의 각도를 제어하도록 구성된 제어 서브시스템을 더 포함한다. 가상 이미지 생성 시스템은 3차원 장면을 저장하는 메모리를 더 포함할 수 있고, 이 경우에, 제어 서브시스템은 3차원 장면의 복수의 합성 이미지 프레임들을 렌더링하도록 구성될 수 있고, 그리고 디스플레이는 복수의 이미지 프레임들을 최종 사용자에게 순차적으로 디스플레이하도록 구성될 수 있다. 제어 서브시스템은 GPU(graphics processing unit)를 포함할 수 있다.
[0033] 본 발명의 부가적인 목적 및 다른 목적, 특징들, 및 장점들은 상세한 설명, 도면들, 및 청구항들에 설명된다.
[0034] 도면들은 본 발명의 바람직한 실시예들의 설계 및 유용성을 예시하고, 여기서 유사한 엘리먼트들은 공통 참조 번호들에 의해 지칭된다. 본 발명들의 위에 언급된 장점 및 다른 장점 및 목적들을 획득하기 위한 방법을 더 잘 인지하기 위하여, 위에서 간략하게 설명된 본 발명들의 더 특정한 설명은 첨부 도면들에 예시된 본 발명들의 특정 실시예들을 참조하여 제공될 것이다. 이들 도면들이 단지 본 발명의 통상적인 실시예들을 도시하고 그러므로 그 범위를 제한하는 것으로 고려되지 않는다는 것이 이해되기 때문에, 본 발명은 첨부 도면들의 사용을 통해 부가적인 특이성 및 세부사항들로 서술되고 설명될 것이다.
[0035] 도 1은 종래 기술의 증강 현실 생성 디바이스에 의해 최종 사용자에게 디스플레이될 수 있는 3차원 증강 현실 장면의 화면이다.
[0036] 도 2는 증강 현실 생성 디바이스에 사용될 수 있는 종래 기술 디스플레이 서브시스템의 일 실시예의 평면도이다.
[0037] 도 3은 본 발명들의 일 실시예에 따라 구성된 가상 이미지 생성 시스템의 블록 다이어그램이다.
[0038] 도 4a는 도 3의 가상 이미지 생성 시스템을 착용하는데 사용될 수 있는 하나의 기법의 평면도이다.
[0039] 도 4b는 도 3의 가상 이미지 생성 시스템을 착용하는데 사용될 수 있는 다른 기법의 평면도이다.
[0040] 도 4c는 도 3의 가상 이미지 생성 시스템을 착용하는데 사용될 수 있는 또 다른 기법의 평면도이다.
[0041] 도 4d는 도 3의 가상 이미지 생성 시스템을 착용하는데 사용될 수 있는 또 다른 기법의 평면도이다.
[0042] 도 5는 도 3의 가상 이미지 생성 시스템에 사용하기 위한 디스플레이 서브시스템의 일 실시예의 평면도이다.
[0043] 도 6은 도 5의 디스플레이 서브시스템에 사용하기 위한 평면 광학 도파관의 일 실시예이다.
[0044] 도 7은 도 3의 가상 이미지 생성 시스템에 의해 생성된 예시적인 프레임의 평면도이다.
[0045] 도 8은 도 7의 예시적인 프레임을 생성하는데 사용될 수 있는 하나의 스캐닝 패턴의 평면도다.
[0046] 도 9는 다른 예시적인 프레임을 생성하는데 사용될 수 있는 또 다른 스캐닝 패턴의 평면도다.
[0047] 도 10은 또 다른 예시적인 프레임을 생성하는데 사용될 수 있는 또 다른 스캐닝 패턴의 평면도다.
[0048] 도 11은 또 다른 예시적인 프레임을 생성하는데 사용될 수 있는 또 다른 스캐닝 패턴의 평면도다.
[0049] 도 12는 특히 광선 각도 감지 어셈블리의 하나의 어레인지먼트를 도시하는, 도 5의 디스플레이 서브시스템에 사용하기 위한 도파관 장치의 일 실시예의 평면도이다.
[0050] 도 13은 라인 13-13을 따라 취해진, 도 12의 도파관 장치의 단면도이다.
[0051] 도 14는 라인 14-14를 따라 취해진, 도 12의 도파관 장치의 단면도이다.
[0052] 도 15는 도 5의 디스플레이 서브시스템에 사용하기 위한 도파관 장치의 다른 실시예의 평면도이다.
[0053] 도 16은 도 5의 디스플레이 서브시스템에 사용하기 위한 도파관 장치의 또 다른 실시예의 평면도이다.
[0054] 도 17a는 특히 무한 뷰잉 거리에 포커싱된 떠나는 광선들을 도시하는, 도 12의 도파관 장치의 사시도이다.
[0055] 도 17b는 특히 제1-유한 뷰잉 거리에 포커싱된 떠나는 광선들을 도시하는, 도 12의 도파관 장치의 사시도이다.
[0056] 도 17c는 특히 제2-유한 뷰잉 거리에 포커싱된 떠나는 광선들을 도시하는, 도 12의 도파관 장치의 사시도이다.
[0057] 도 18a는 시준된 광빔의 하나의 빔-각도와 최종 사용자의 FOV(field of view)의 픽셀 사이의 대응을 도시하는 디스플레이 스크린의 사시도이다.
[0058] 도 18b는 시준된 광빔의 다른 빔-각도와 최종 사용자의 FOV(field of view)의 픽셀 사이의 대응을 도시하는 디스플레이 스크린의 사시도이다.
[0059] 도 19는 x-z 평면 및 y-z 평면상에 투사되는, 도 18a의 디스플레이 스크린을 떠나는 광선의 각도의 투사의 사시도이다.
[0060] 도 20a는 도 12의 감지 어셈블리의 직교 센서들의 일 실시예의 평면도이다.
[0061] 도 20b는 도 12의 감지 어셈블리의 직교 센서들의 다른 실시예의 평면도이다.
[0062] 도 20c는 도 12의 감지 어셈블리의 직교 센서들의 또 다른 실시예의 평면도이다.
[0063] 도 21a는 예시적인 유전체 층 투과-각도 관계의 다이어그램이다.
[0064] 도 21b는 광검출기 세기-전압 관계의 다이어그램이다.
[0065] 도 22a는 x-y 평면에 관하여 평면 광학 도파관 장치를 떠나는 광선을 예시하는 다이어그램의 사시도이다.
[0066] 도 22b는 x-y 평면상에 투사되는 도 23a의 광선을 예시하는 다이어그램의 평면도이다.
[0067] 도 23a는 도 12의 감지 어셈블리의 4개의 사분면 센서들의 일 실시예의 평면도이다.
[0068] 도 23b는 도 12의 감지 어셈블리의 PSD(position sensing detector)의 일 실시예의 평면도이다.
[0069] 도 24는 특히 광선 각도 감지 어셈블리의 다른 어레인지먼트를 도시하는, 도 5의 디스플레이 서브시스템에 사용하기 위한 도파관 장치의 일 실시예의 프로파일 도면이다.
[0070] 뒤따르는 설명은 가상 현실 및/또는 증강 현실 시스템들에 사용될 디스플레이 서브시스템들 및 방법들에 관한 것이다. 그러나, 본 발명은 그 자체가 가상 또는 증강 현실 시스템들의 애플리케이션들에 매우 적합하지만, 본 발명이, 자신의 가장 넓은 양상들에서, 그렇게 제한되지 않을 수 있다는 것이 이해될 것이다.
[0071] 도 3을 참조하면, 본 발명들에 따라 구성된 가상 이미지 생성 시스템(100)의 일 실시예가 이제 설명될 것이다. 가상 이미지 생성 시스템(100)은 최종 사용자(50)의 시야 내 물리적 객체들과 인터믹싱(intermix)되는 가상 객체들의 이미지들을 제공하는 증강 현실 서브시스템으로서 동작될 수 있다. 가상 이미지 생성 시스템(100)을 동작시킬 때 2개의 근본적인 접근법들이 있다. 제1 접근법은 주위 환경의 이미지들을 캡처하기 위하여 하나 또는 그 초과의 이미저(imager)들(예컨대, 카메라들)을 이용한다. 가상 이미지 생성 시스템(100)은 가상 이미지들을 주위 환경의 이미지들을 표현하는 데이터에 인터믹싱한다. 제2 접근법은, 주위 환경이 보여질 수 있게 하고 그리고 가상 이미지 생성 시스템(100)이 가상 객체들의 이미지들을 생성하는 하나 또는 그 초과의 적어도 부분적으로 투명한 표면들을 이용한다.
[0072] 본원에 교시된 가상 이미지 생성 시스템(100), 및 다양한 교시들은 증강 현실 및 가상 현실 서브시스템들 이외의 애플리케이션들에 이용될 수 있다. 예컨대, 다양한 기법들은, 임의의 투사 또는 디스플레이 서브시스템에 적용될 수 있거나, 또는 움직임이 머리보다 오히려 최종 사용자의 손에 의해 이루어질 수 있는 피코(pico) 투사기들에 적용될 수 있다. 따라서, 교시들은 종종 증강 현실 서브시스템 또는 가상 현실 서브시스템의 측면에서 본원에 설명되지만, 그런 용도들의 그런 서브시스템들로 제한되지 않아야 한다.
[0073] 적어도 증강 현실 애플리케이션들에 대해, 최종 사용자(50)의 시야에 있는 각각의 물리적 객체들에 관하여 다양한 가상 객체들을 공간적으로 포지셔닝하는 것이 바람직할 수 있다. 본원에서 또한 가상 태그(tag)들 또는 태그 또는 콜 아웃(call out)들로 지칭되는 가상 객체들은 매우 다양한 형태들, 기본적으로 임의의 다양한 데이터, 정보, 개념, 또는 이미지로서 표현될 수 있는 로지컬 구성 중 임의의 것을 취할 수 있다. 가상 객체들의 비제한적 예들은: 가상 텍스트 객체, 가상 수치 객체, 가상 알파뉴메릭(alphanumeric) 객체, 가상 태그 객체, 가상 필드 객체, 가상 차트 객체, 가상 맵 객체, 가상 기기장치 객체, 또는 물리적 객체의 가상 시각 표현을 포함할 수 있다.
[0074] 가상 이미지 생성 시스템(100)은 최종 사용자(50)에 의해 착용된 프레임 구조(102), 디스플레이 서브시스템(104)이 최종 사용자(50)의 눈들(52)의 전면에 포지셔닝되도록 프레임 구조(102)에 의해 지지되는 디스플레이 서브시스템(104), 및 스피커(106)가 최종 사용자(50)의 외이도(ear canal)에 인접하게 포지셔닝되도록 프레임 구조(102)에 의해 지지되는 스피커(106)(선택적으로, 다른 스피커(도시되지 않음)는 스테레오/성형가능 사운드 제어를 제공하도록 최종 사용자(50)의 다른 외이도에 인접하게 포지셔닝됨)를 포함한다. 디스플레이 서브시스템(104)은 높은-레벨들의 이미지 품질 및 3-차원 인식뿐 아니라, 2-차원 콘텐츠를 제시할 수 있는 물리적 현실성에 대한 증강들로서 편안하게 인식될 수 있는 포토-기반 방사 패턴들을 최종 사용자(50)의 눈들(52)에 제시하도록 설계된다. 디스플레이 서브시스템(104)은 단일 코히어런트(coherent) 장면의 인식을 제공하는 프레임들의 시퀀스를 고주파수로 제시한다.
[0075] 예시된 실시예에서, 디스플레이 서브시스템(104)은 "광학 시-스루(see-through)" 디스플레이를 이용하고, "광학 시-스루" 디스플레이를 통해, 사용자는 투명(또는 반-투명) 엘리먼트들을 경유하여 실제 객체들로부터의 광을 직접 볼 수 있다. 종종 "컴바이너(combiner)"로서 지칭되는 투명 엘리먼트는 디스플레이로부터의 광을 실 세계의 사용자의 뷰 위에 슈퍼임포즈한다. 이 목적을 위해, 디스플레이 서브시스템(104)은 투사 서브시스템(108) 및 투사 서브시스템(108)이 이미지들을 투사하는 부분적으로 투명한 디스플레이 스크린(110)을 포함한다. 디스플레이 스크린(110)은 최종 사용자(50)의 눈들(52)과 주위 환경 사이의 최종 사용자(50)의 시야에 포지셔닝되어, 주위 환경으로부터의 직접적인 광은 디스플레이 스크린(110)을 통해 최종 사용자(50)의 눈들(52)로 전송된다.
[0076] 예시된 실시예에서, 투사 어셈블리(108)는 스캐닝된 광을 부분적으로 투명한 디스플레이 스크린(110)에 제공하고, 이에 의해 주위 환경으로부터의 직접적인 광과 결합되고, 그리고 디스플레이 스크린(110)으로부터 사용자(50)의 눈들(52)로 전송된다. 예시된 실시예에서, 투사 서브시스템(108)은 광섬유 스캔-기반 투사 디바이스의 형태를 취하고, 디스플레이 스크린(110)은 예컨대, 무한대보다 더 가까운 단일 광학 뷰잉 거리(예컨대, 팔의 길이)의 이미지들, 다수의, 이산 광학 뷰잉 거리들 또는 초점 평면들의 이미지들, 및/또는 볼류메트릭(volumetric) 3D 객체들을 표현하기 위해 다수의 뷰잉 거리들 또는 초점 평면들에 적층된 이미지 층들을 생성하기 위해, 투사 서브시스템(108)으로부터의 스캐닝된 광이 주입되는 도파관-기반 디스플레이의 형태를 취한다. 광 필드에서 이들 층들은 인간 시각 서브시스템에 연속적으로 보이도록 함께 충분히 가깝게 적층될 수 있다(즉, 하나의 층은 인접한 층의 컨퓨전의 콘(cone of confusion) 내에 있음). 부가적으로 또는 대안적으로, 이들 층들이 더 성기게 적층되더라도(즉, 하나의 층이 인접한 층의 컨퓨전의 콘 외측에 있다 하더라도), 픽처 엘리먼트(picture element)들은 광 필드의 층들 사이의 전이의 인식된 연속성을 증가시키기 위해 2 또는 그 초과의 층들에 걸쳐 블렌딩(blend)될 수 있다. 디스플레이 서브시스템(104)은 단안용 또는 쌍안용일 수 있다.
[0077] 가상 이미지 생성 시스템(100)은 최종 사용자(50)의 머리(54)의 포지션 및 움직임 및/또는 최종 사용자(50)의 눈 포지션 및 눈-사이 거리를 검출하기 위해 프레임 구조(102)에 장착된 하나 또는 그 초과의 센서들(도시되지 않음)을 더 포함한다. 그런 센서(들)는 이미지 캡처 디바이스들(이를테면 카메라들), 마이크로폰들, 관성 측정 유닛들, 가속도계들, 컴파스들, GPS 유닛들, 라디오 디바이스들, 및/또는 자이로(gyro)들을 포함할 수 있다.
[0078] 가상 이미지 생성 시스템(100)은 사용자 배향 검출 모듈(112)을 더 포함한다. 사용자 배향 모듈(112)은 최종 사용자(50)의 머리(54)의 순시 포지션을 검출하고 센서(들)로부터 수신된 포지션 데이터에 기반하여 최종 사용자(50)의 머리(54)의 포지션을 예측할 수 있다. 최종 사용자(50)의 머리(54)의 순시 포지션을 검출하는 것은, 최종 사용자(50)가 보고 있는 특정 실제 객체의 결정을 가능하게 하고, 이에 의해 그 실제 객체에 대해 생성될 특정 텍스트 메시지의 표시가 제공되고 그리고 추가로 텍스트 메시지가 스트리밍될 텍스트 지역의 표시가 제공된다. 사용자 배향 모듈(112)은 또한 센서(들)로부터 수신된 추적 데이터에 기반하여 최종 사용자(50)의 눈들(52)을 추적한다.
[0079] 가상 이미지 생성 시스템(100)은 매우 다양한 형태들 중 임의의 형태를 취할 수 있는 제어 서브시스템을 더 포함한다. 제어 서브시스템은 다수의 제어기들, 예컨대 하나 또는 그 초과의 마이크로제어기들, 마이크로프로세서들 또는 CPU(central processing unit)들, 디지털 신호 프로세서들, GPU(graphics processing unit)들, 다른 집적 회로 제어기들, 이를테면 ASIC(application specific integrated circuit)들, PGA(programmable gate array)들, 예컨대 FPGA(field PGA)들, 및/또는 PLU(programmable logic controller)들을 포함한다.
[0080] 가상 이미지 생성 시스템(100)의 제어 서브시스템은 CPU(central processing unit)(114), GPU(graphics processing unit)(116), 하나 또는 그 초과의 프레임 버퍼들(118), 및 3차원 장면 데이터를 저장하기 위한 3차원 데이터베이스(120)를 포함한다. CPU(114)는 전체 동작을 제어하는 반면, GPU(116)는 3차원 데이터베이스(120)에 저장된 3차원 데이터로부터 프레임들을 렌더링(즉, 3차원 장면을 2차원 이미지로 변환)하고 이들 프레임들을 프레임 버퍼(들)(116)에 저장한다. 예시되지 않았지만, 하나 또는 그 초과의 부가적인 집적 회로들은 프레임 버퍼(들)(116)에 프레임들을 입력하고 그리고/또는 프레임 버퍼(들)(116)로부터 프레임들을 판독하는 것 및 디스플레이 서브시스템(104)의 투사 어셈블리(108)의 동작을 제어할 수 있다.
[0081] 본 발명들에 더 중요하게도, 가상 이미지 생성 시스템(100)은 최종 사용자(50)의 눈들(52)을 향해 디스플레이 스크린(100)을 떠나는 하나 또는 그 초과의 광선들의 각도를 직접적으로 또는 간접적으로 감지하는 광선 각도 감지 어셈블리(122)를 더 포함한다. 아래에서 더 상세히 설명될 바와 같이, 최종 사용자(50)의 시야 내의 이미지 프레임의 각각의 픽셀의 원하는 위치는 디스플레이 스크린(110)을 떠나는 광선들의 각도들에 크게 상관되고, 따라서 떠나는 광선들의 감지된 각도들은, 떠나는 광선들의 실제 각도들이 디스플레이 서브시스템(104)에 의해 생성된 이미지 데이터 내에 인코딩된 떠나는 광선들의 설계된 각도들과 거의 동일한 것을 보장하도록 디스플레이 서브시스템(104)을 교정하는데 사용될 수 있다.
[0082] 가상 이미지 생성 시스템(100)의 다양한 프로세싱 컴포넌트들은 물리적으로 분산 서브시스템에 포함될 수 있다. 예컨대, 도 4a-도 4d에 예시된 바와 같이, 가상 이미지 생성 시스템(100)은 이를테면 유선 리드 또는 무선 연결성(136)에 의해 디스플레이 서브시스템(104) 및 센서들에 동작가능하게 커플링되는 로컬 프로세싱 및 데이터 모듈(130)을 포함한다. 로컬 프로세싱 및 데이터 모듈(130)은 다양한 구성들로 장착될 수 있는데, 이를테면 프레임 구조(102)에 고정되게 부착되거나(도 4a), 헬멧 또는 모자(56)에 고정되게 부착되거나(도 4b), 헤드폰들 내에 임베딩되거나, 최종 사용자(50)의 몸통(58)에 제거가능하게 부착되거나(도 4c), 또는 벨트-커플링 스타일 구성으로 최종 사용자(50)의 엉덩이(60)에 제거가능하게 부착(도 4d)될 수 있다. 가상 이미지 생성 시스템(100)은 이를테면 유선 리드 또는 무선 연결성(138, 140)에 의해 로컬 프로세싱 및 데이터 모듈(130)에 동작가능하게 커플링된 원격 프로세싱 모듈(132) 및 원격 데이터 저장소(134)를 더 포함하여, 이들 원격 모듈들(132, 134)은 서로 동작가능하게 커플링되고 로컬 프로세싱 및 데이터 모듈(130)에 대한 리소스들로서 이용가능하다.
[0083] 로컬 프로세싱 및 데이터 모듈(130)은 전력-효율적 프로세서 또는 제어기뿐 아니라, 디지털 메모리, 이를테면 플래시 메모리를 포함할 수 있고, 이 둘 모두는 센서들로부터 캡처되고 그리고/또는 원격 프로세싱 모듈(132) 및/또는 원격 데이터 저장소(134)를 사용하여 획득되고 그리고/또는 프로세싱되는 데이터의 프로세싱, 캐싱 및 저장을 돕는데 활용될 수 있으며, 데이터는 가능한 경우 그런 프로세싱 또는 리트리벌(retrieval) 이후 디스플레이 서브시스템(104)에 전달된다. 원격 프로세싱 모듈(132)은 데이터 및/또는 이미지 정보를 분석 및 프로세싱하도록 구성된 하나 또는 그 초과의 비교적 강력한 프로세서들 또는 제어기들을 포함할 수 있다. 원격 데이터 저장소(134)는 "클라우드" 리소스 구성으로 인터넷 또는 다른 네트워킹 구성을 통하여 이용가능할 수 있는 비교적 큰 규모의 디지털 데이터 저장 설비를 포함할 수 있다. 일 실시예에서, 모든 데이터는 저장되고 모든 컴퓨테이션은 로컬 프로세싱 및 데이터 모듈(130)에서 수행되고, 이는 임의의 원격 모듈들로부터 완전히 자율적인 사용을 허용한다.
[0084] 위에서 설명된 다양한 컴포넌트들 사이의 커플링들(136, 138, 140)은 유선들 또는 광학 통신들을 제공하기 위한 하나 또는 그 초과의 유선 인터페이스들 또는 포트들, 또는 이를테면 무선 통신들을 제공하기 위한 RF, 마이크로파, 및 IR을 통한 하나 또는 그 초과의 무선 인터페이스들 또는 포트들을 포함할 수 있다. 일부 구현들에서, 모든 통신들은 유선일 수 있지만, 다른 구현들에서 모든 통신들은 무선일 수 있다. 또 다른 구현들에서, 유선 및 무선 통신들의 선정은 도 4a-도 4d에 예시된 것과 상이할 수 있다. 따라서, 유선 또는 무선 통신들의 특정 선정은 제한적인 것으로 고려되지 않아야 한다.
[0085] 예시된 실시예에서, 사용자 배향 모듈(112)은 로컬 프로세싱 및 데이터 모듈(130)에 포함되는 반면, CPU(114) 및 GPU(116)는 원격 프로세싱 모듈(132)에 포함되지만, 대안적인 실시예들에서, CPU(114), GPU(124) 또는 이들의 부분들이 로컬 프로세싱 및 데이터 모듈(130)에 포함될 수 있다. 3D 데이터베이스(120)는 원격 데이터 저장소(134)와 연관될 수 있다.
[0086] 이제 도 5를 참조하면, 투사 어셈블리(108)는 광을 생성하는(예컨대, 정의된 패턴들로 상이한 컬러들의 광을 방출하는) 하나 또는 그 초과의 광 소스들(150)을 포함한다. 광 소스(들)(150)는 매우 다양한 형태들 중 임의의 형태, 예컨대 픽셀 정보 또는 데이터의 각각의 프레임들에서 특정된 정의된 픽셀 패턴들에 따라 각각 적색, 녹색, 및 청색 코히어런트(coherent) 시준 광을 생성하도록 동작가능한 RGB 레이저들(예컨대, 적색, 녹색 및 청색 광을 출력할 수 있는 레이저 다이오드들)의 세트를 취할 수 있다. 레이저 광은 높은 컬러 포화도를 제공하고 매우 에너지 효율적이다.
[0087] 투사 어셈블리(108)는 제어 신호들에 대한 응답으로 미리결정된 스캔 패턴으로 광을 스캐닝하는 스캐닝 디바이스(152)를 더 포함한다. 스캐닝 디바이스(152)는 하나 또는 그 초과의 광섬유들(154)(예컨대, 단일 모드 광섬유)을 포함하고, 광섬유들(154) 각각은, 광이 광 소스(들)(150)로부터 수신되는 근위 단부(proximal end)(154a) 및 광이 디스플레이 스크린(110)에 제공되는 원위(distal) 단부(154b)를 가진다. 스캐닝 디바이스(152)는, 광섬유(들)(154)가 장착된 기계적 드라이브 어셈블리(156)를 더 포함한다. 드라이브 어셈블리(156)는 스캔 패턴에 따라 지주(fulcrum)(158)를 중심으로 각각의 광섬유(154)의 원위 단부(154b)를 변위시키도록 구성된다.
[0088] 이 목적을 위해, 드라이브 어셈블리(156)는, 광섬유(들)(154)가 장착되는 압전기 엘리먼트(160), 및 전기 신호들을 압전기 엘리먼트(160)에 전달하도록 구성된 드라이브 전자장치(162)를 포함하고, 이에 의해 광섬유(154)의 원위 단부(154b)가 스캔 패턴에 따라 진동하게 된다. 따라서, 광 소스(들)(150) 및 드라이브 전자장치(162)의 동작은 공간적으로 그리고/또는 시간적으로 변화하는 광의 형태로 인코딩되는 이미지 데이터를 생성하는 방식으로 조정된다. 광섬유 스캐닝 기법들의 설명들은 인용에 의해 본원에 명시적으로 통합된 미국 특허 번호 제 2015/0309264호에 제공된다.
[0089] 투사 어셈블리(108)는 스캐닝 디바이스(152)로부터의 광을 디스플레이 스크린(110)에 커플링하는 광학 커플링 어셈블리(164)를 더 포함한다. 광학 커플링 어셈블리(164)는 스캐닝 디바이스(152)에 의해 방출된 광을 시준된 광빔(200)으로 시준하는 시준 엘리먼트(166)를 포함한다. 비록 시준 엘리먼트(166)가 도 5에서 광섬유(들)(154)로부터 물리적으로 분리된 것으로 예시되지만, 시준 엘리먼트는, 인용에 의해 본원에 명시적으로 통합된 발명의 명칭이 "Microlens Collimator for Scanning Optical Fiber in Virtual/Augmented Reality System"인 미국 특허 출원 일련 번호 제 15/286,215호에 설명된 바와 같이, "마이크로렌즈" 어레인지먼트의 각각의 광섬유(154)의 원위 단부(154b)에 물리적으로 장착될 수 있다. 광학 커플링 서브시스템(164)은 광을 디스플레이 스크린(110)의 단부에 광학적으로 커플링하기 위해 ICE(in-coupling element)(168), 예컨대 하나 또는 그 초과의 반사 표면들, 회절 격자들, 미러들, 이색성 미러들, 또는 프리즘들을 더 포함한다.
[0090] 디스플레이 스크린(110)은 평면 광학 도파관(172) 및 평면 광학 도파관(172)과 연관된 하나 또는 그 초과의 DOE(diffractive optical element)(174)들을 포함하는 도파관 장치(170)의 형태를 취한다. 대안적인 실시예들에서, 도파관 장치(170)는 다수의 평면 광학 도파관들(172) 및 평면 광학 도파관들(172)과 각각 연관된 DOE들(174)을 포함할 수 있다. 도 6에 가장 잘 예시된 바와 같이, 평면 광학 도파관(172)은 제1 단부(176a) 및 제2 단부(176b)를 가지며, 제2 단부(176b)는 평면 광학 도파관(172)의 길이(178)를 따라 제1 단부(176a)에 대향한다. 평면 광학 도파관(172)은 제1 면(180a) 및 제2 면(180b)을 가지며, 적어도 제1 면(180a) 및 제2 면(180b)(총체적으로, 180)은 평면 광학 도파관(172)의 길이(178)의 적어도 일부를 따라 적어도 부분적으로 내부 반사 광학 경로(실선 화살표(182a) 및 파선 화살표(182b)에 의해 예시되고, 총체적으로 182)를 형성한다. 평면 광학 도파관(172)은 정의된 임계 각도 미만으로 면들(180)을 때리는 광에 대해 실질적으로 내부 전반사(TIR)를 제공하는 다양한 형태들을 취할 수 있다.
[0091] DOE(들)(174)(도 5 및 도 6에서 쇄선 이중 라인들에 의해 예시됨)는 TIR 광학 경로(182)를 차단하는 다수의 다양한 형태들을 취할 수 있고, 이는 평면 광학 도파관(172)의 길이(176)의 적어도 일부를 따라 연장되는 평면 광학 도파관(172)의 내부(186)와 외부(188) 간에 복수의 광학 경로들(실선 화살표들(184a) 및 파선 화살표들(184b)에 의해 예시되고, 총체적으로 184)을 제공한다. 예시된 실시예에서, DOE(들)(174)는 하나 또는 그 초과의 회절 격자들을 포함하고, 회절 격자들 각각은 광을 분할하고 상이한 방향들로 이동하는 몇 개의 빔들로 회절시키는 광 파장의 순서로 주기적 구조를 가진 광학 컴포넌트로 특성화될 수 있다. 회절 격자들은 예컨대 기판상에 포토리소그래픽적으로 프린팅될 수 있는 표면 나노-리지(ridge)들, 나노-패턴들, 슬릿들 등으로 구성될 수 있다. DOE(들)(174)는 명백한 객체들의 포지셔닝 및 명백한 객체들의 포커스 평면을 허용할 수 있다. 그것은 프레임 단위, 서브프레임 단위, 또는 심지어 픽셀 단위에 기반하여 달성될 수 있다.
[0092] 도 6에 예시된 바와 같이, 광은 평면 광학 도파관(172)을 따라 전파되고, 적어도 일부 반사들 또는 "바운스(bounce)들"은 TIR 전파로부터 발생한다. 일부 구현들이 내부 광학 경로에 하나 또는 그 초과의 반사기들, 예컨대 반사를 가능하게 할 수 있는 박막들, 유전체 코팅들, 금속화된 코팅들 등을 이용할 수 있다는 것이 주목된다. 광은 평면 광학 도파관(172)의 길이(178)를 따라 전파되고, 길이(178)를 따라 다양한 포지션들에서 DOE(들)(174)와 교차한다. DOE(들)(174)는 평면 광학 도파관(172) 내에 또는 평면 광학 도파관(172)의 면들(180) 중 하나 또는 그 초과의 면들에 가깝거나 인접하게 통합될 수 있다. DOE(들)(174)는 적어도 2개의 기능들을 달성한다. DOE(들)(174)는 광의 각도를 시프트하고, 이는 광의 일부가 TIR을 탈출하게 하고, 그리고 내부(216)로부터 평면 광학 도파관(172)의 면(180)의 외부로 나오게 한다. DOE(들)(174)는 뷰잉 거리에 아웃-커플링된(out-coupled) 광을 포커싱한다. 따라서, 평면 광학 도파관들(172)의 면(180)을 통하여 보고 있는 누군가는 하나 또는 그 초과의 뷰잉 거리들에 있는 디지털 이미저리(imagery)를 볼 수 있다.
[0093] 2개의 상이한 각도들 중 하나의 각도로 도파관(172)에 진입하는 시준된 광빔(200)은 2개의 TIR 광학 경로들(182a, 182b) 중 하나를 따를 것이고, 이는 광선들(202)이 외부 광학 경로들의 2개의 세트들 중 하나를 따라 평면 광학 도파관(172)을 떠나게 한다. 즉, TIR 광학 경로(182a)에 의해 표현되는 각도로 도파관(172)에 진입하는 시준된 광빔(200a)은 광선들(202a)이 외부 광학 경로들의 세트를 따라 평면 광학 도파관(172)을 떠나게 할 것이고, TIR 광학 경로(182b)에 의해 표현된 각도로 도파관(172)에 진입하는 시준된 광빔(200b)은 광선들(202b)이 외부 광학 경로들의 세트를 따라 평면 광학 도파관(172)을 떠나게 할 것이다. 도 5에 도시된 바와 같이, 광선 각도 감지 어셈블리(122)는, 비록 감지 어셈블리(122)가 시준된 광빔(200)의 광학 경로를 따라 어딘가에 위치될 수 있지만, 도파관 장치(170)를 떠나는 광선들(202)의 각도를 직접적으로 또는 간접적으로 감지하기 위해 ICE(168)와 DOE(들)(174) 사이에 위치된다. 감지 어셈블리(122)를 논의하는 추가 세부사항들은 아래에서 더 상세히 설명될 것이다.
[0094] 전술한 것으로부터 인식될 수 있는 바와 같이, 디스플레이 서브시스템(104)은 하나 또는 그 초과의 가상 객체들의 이미지를 사용자에게 제시하는 픽셀 정보의 일련의 합성 이미지 프레임들을 생성한다. 예컨대, 도 7을 참조하면, 합성 이미지 프레임(250)은 셀들(252a-252m)이 수평 행들 또는 라인들(254a-254n)로 분할된 것이 개략적으로 예시된다. 프레임(250)의 각각의 셀(252)은, 셀(252)이 대응하는 각각의 픽셀에 대한 복수의 컬러들 각각에 대한 값들 및/또는 세기들을 특정할 수 있다. 예컨대, 프레임(250)은 각각의 픽셀에 대해 적색에 대한 하나 또는 그 초과의 값들(256a), 녹색에 대한 하나 또는 그 초과의 값들(256b), 및 청색에 대한 하나 또는 그 초과의 값들(256c)을 특정할 수 있다. 값들(256)은 컬러들 각각에 대해 이진 표현들로서, 예컨대 각각의 컬러에 대해 각각 4-비트 수로서 특정될 수 있다. 프레임(250)의 각각의 셀(252)은 진폭을 특정하는 값(256d)을 부가적으로 포함할 수 있다.
[0095] 프레임(250)은 하나 또는 그 초과의 필드들, 총체적으로 258을 포함할 수 있다. 프레임(250)은 단일 필드로 이루어질 수 있다. 대안적으로, 프레임(250)은 2개 또는 심지어 그 초과의 필드들(258a-258b)을 포함할 수 있다. 프레임(250)의 완전한 제1 필드(258a)에 대한 픽셀 정보는 완전한 제2 필드(258b)에 대한 픽셀 정보 이전에 특정될 수 있는데, 예컨대 어레이, 순서화된 리스트 또는 다른 데이터 구조(예컨대, 레코드, 링크된 리스트)에서 제2 필드(258b)에 대한 픽셀 정보 이전에 발생된다. 프리젠테이션 서브시스템이 2개보다 많은 필드들(258a-258b)을 핸들링하도록 구성되는 것을 가정하면, 제3 또는 심지어 제4 필드가 제2 필드(258b)를 뒤따를 수 있다.
[0096] 이제 도 8을 참조하면, 프레임(250)은 래스터(raster) 스캔 패턴(260)을 사용하여 생성된다. 래스터 스캔 패턴(260)에서, 픽셀들(268)(단지 하나만 콜 아웃됨)이 순차적으로 제시된다. 래스터 스캔 패턴(260)은 통상적으로 좌측으로부터 우측으로(화살표들(262a, 262b)에 의해 표시됨), 이어서 최상부로부터 최하부로(화살표(264)에 의해 표시됨) 픽셀들(268)을 제시한다. 따라서, 프리젠테이션은 상부 우측 모서리에서 시작되고 라인의 끝에 도달될 때까지 제1 라인(266a)을 가로질러 좌측으로 횡단할 수 있다. 이어서, 래스터 스캔 패턴(260)은 통상적으로 아래의 다음 라인의 좌측으로부터 시작된다. 프리젠테이션은, 하나의 라인의 끝으로부터 다음 라인의 시작으로 리턴할 때, 일시적으로 블랙 아웃(black out)되거나 블랭킹(blank)될 수 있다. 이 프로세스는, 최하부 라인(266n)이 완료될 때까지, 예컨대 최하부 최우측 픽셀(268)로 라인 단위로 반복된다. 프레임(250)이 완료되면, 새로운 프레임이 시작되고, 다시 다음 프레임의 최상부 라인의 우측으로 리턴한다. 다시, 프리젠테이션은, 다음 프레임을 제시하기 위해 최하부 좌측으로부터 최상부 우측으로 리턴하는 동안 블랭킹될 수 있다.
[0097] 래스터 스캐닝의 많은 구현들은 인터레이싱된(interlaced) 스캔 패턴으로 칭해지는 것을 이용한다. 인터레이싱된 래스터 스캔 패턴들에서, 제1 및 제2 필드들(258a, 258b)로부터의 라인들이 인터레이싱된다. 예컨대, 제1 필드(258a)의 라인들을 제시할 때, 제1 필드(258a)에 대한 픽셀 정보는 단지 홀수 라인들에 대해서만 사용될 수 있는 반면, 제2 필드(258b)에 대한 픽셀 정보는 단지 짝수 라인들에 대해서만 사용될 수 있다. 따라서, 프레임(250)의 제1 필드(258a)의 라인들 모두(도 7)는 통상적으로, 제2 필드(258b)의 라인들 이전에 제시된다. 제1 필드(258a)는 라인(1), 라인(3), 라인(5) 등을 순차적으로 제시하기 위하여 제1 필드(258a)의 픽셀 정보를 사용하여 제시될 수 있다. 이어서, 프레임(250)의 제2 필드(258b)(도 7)는 라인(2), 라인(4), 라인(6) 등을 순차적으로 제시하기 위해 제2 필드(258b)의 픽셀 정보를 사용함으로써, 제1 필드(258a) 다음에 제시될 수 있다.
[0098] 도 9를 참조하면, 나선형 스캔 패턴(270)은 프레임(250)을 생성하기 위해 래스터 스캔 패턴(260) 대신 사용될 수 있다. 나선형 스캔 패턴(270)은 단일 나선형 스캔 라인(272)으로 이루어질 수 있고, 단일 나선형 스캔 라인(272)은 코일들 또는 루프들로서 명명될 수 있는 하나 또는 그 초과의 완전한 각도 사이클들(예컨대, 360 도)을 포함할 수 있다. 도 8에 예시된 래스터 스캔 패턴(260)에서와 같이, 나선형 스캔 패턴(270)의 픽셀 정보는, 각도가 증가함에 따라, 각각의 순차적 픽셀의 컬러 및/또는 세기를 특정하는데 사용된다. 진폭 또는 반경 값(274)은 나선형 스캔 라인(272)의 시작점(276)으로부터의 반경 치수를 특정한다.
[0099] 도 10을 참조하면, 리사주(Lissajous) 스캔 패턴(280)은 프레임(250)을 생성하는데 대안적으로 사용될 수 있다. 리사주 스캔 패턴(280)은 단일 리사주 스캔 라인(282)으로 이루어질 수 있고, 단일 리사주 스캔 라인(282)은 코일들 또는 루프들로서 명명될 수 있는 하나 또는 그 초과의 완전한 각도 사이클들(예컨대, 360 도)을 포함할 수 있다. 대안적으로, 리사주 스캔 패턴(280)은 리사주 스캔 라인들(282)을 네스팅(nest)하기 위해 서로에 대해 각각 위상 시프트되는 2개 또는 그 초과의 리사주 스캔 라인들(282)을 포함할 수 있다. 픽셀 정보는, 각도가 증가함에 따라, 각각의 순차적 픽셀의 컬러 및/또는 세기를 특정하는데 사용된다. 진폭 또는 반경 값은 리사주 스캔 라인(282)의 시작점(286)으로부터의 반경 치수(284)를 특정한다.
[00100] 도 11을 참조하면, 다중-필드 나선형 스캔 패턴(290)은 프레임(250)을 생성하는데 대안적으로 사용될 수 있다. 다중-필드 나선형 스캔 패턴(290)은 2 또는 그 초과의 별개의 나선형 라인들, 총체적으로 160, 및 구체적으로 4개의 나선형 스캔 라인들(292a-292d)을 포함한다. 각각의 나선형 스캔 라인(292)에 대한 픽셀 정보는 프레임의 각각의 필드에 의해 특정될 수 있다. 유리하게, 다수의 나선형 스캔 라인들(292)은 나선형 스캔 라인들(292) 중 각각 연속적인 라인들 사이의 위상을 시프팅함으로써 간단히 네스팅될 수 있다. 나선형 스캔 라인들(292) 사이의 위상 차이는 이용될 나선형 스캔 라인들(292)의 총 수의 함수이어야 한다. 예컨대, 4개의 나선형 스캔 라인들(292a-292d)은 90도 위상 시프트만큼 분리될 수 있다. 예시적인 실시예는 10개의 별개의 나선형 스캔 라인들(즉, 서브나선들)을 가지고 100 Hz 리프레시(refresh) 레이트로 동작할 수 있다. 도 9의 실시예와 유사하게, 하나 또는 그 초과의 진폭 또는 반경 값들은 나선형 스캔 라인들(292)의 시작점(296)으로부터의 반경 치수(294)를 특정한다.
[00101] 디스플레이 서브시스템들을 설명하는 추가 세부사항들은 인용에 의해 본원에 명시적으로 통합된 발명의 명칭이 "Display Subsystem and Method"인 미국 특허 출원 일련 번호 제 14/212,961호, 및 발명의 명칭이 "Planar optical waveguide Apparatus With Diffraction Element(s) and Subsystem Employing Same"인 미국 특허 출원 일련 번호 제 14/696,347호에서 제공된다.
[00102] 이제 도 12-도 14를 참조하면, 디스플레이 스크린(110) 및 연관된 광선 각도 감지 어셈블리(122)의 하나의 특정 실시예가 설명될 것이다. 도파관 장치(170)의 평면 광학 도파관(172)은 광학적으로 투명한 평면 기판 형태를 취한다. 도 12에 도시된 바와 같이, 기판(172)은, 비록 대안적인 실시예들에서, 기판(172)이 동일한 평면 또는 상이한 평면들에서 함께 본딩되는 광학적으로 투명한 재료의 분리된 별개의 페인(pane)들로 구성될 수 있지만, 광학적으로 투명한 재료, 이를테면, 예컨대 유리, 용융 실리카, 아크릴, 또는 폴리카보네이트의 단일의 일원화된 기판 또는 평면이다. ICE(168)는, 비록 대안적인 실시예들에서, ICE(168)가 시준된 광빔(200)을 인-커플링된 광빔으로서 기판(172)에 커플링하기 위해 기판(172)의 다른 면(180a) 또는 심지어 에지에 임베딩될 수 있지만, 투사 어셈블리(108)로부터 시준된 광빔(200)을 면(180b)을 통해 기판(172)에 수용하기 위해 기판(172)의 면(180b)에 임베딩된다.
[00103] DOE(들)(174)는 기판(172)에 광학적으로 커플링된 시준된 광빔(200)의 유효 사출동(exit pupil)을 2차원적으로 확장시키기 위해 기판(172)과 연관된다(예컨대, 기판(172) 내에 통합되거나 기판(172)의 면들(180a, 180b) 중 하나 또는 그 초과에 인접하거나 가까이에 있음). 이 목적을 위해, DOE(들)(174)는 인-커플링된 광빔(200)을 직교 광빔들(201)로 분할하기 위해 기판(172)의 면(180b)에 인접한 하나 또는 그 초과의 OPE(orthogonal pupil expansion) 엘리먼트들(174a)(도 12에 단지 하나만 도시됨), 및 최종 사용자(50)의 눈(들)(52)을 향해 기판(172)의 면(180b)을 떠나는 아웃-커플링된 광선들(202)로 각각의 직교 광빔(201)을 분할하기 위해 기판(172)과 연관된 EPE(exit pupil expansion) 엘리먼트(174b)를 포함한다. 기판(172)이 별개의 페인들로 구성되는 대안적인 실시예에서, OPE 엘리먼트(들)(174) 및 EPE 엘리먼트(174b)는 기판(172)의 상이한 페인들에 통합될 수 있다.
[00104] OPE 엘리먼트(174a)는 제1 축(도 5의 수평 또는 x-축)을 따라 광을 중계하고, 제2 축(도 5의 수직 또는 y-축)을 따라 광의 유효 사출동을 확장시킨다. 특히, ICE(168)는 내부 반사 광학 경로(204a)를 따라(이 경우에, 수직 또는 y-축을 따라) TIR을 통해 기판(172) 내에서 전파되도록 시준된 광빔(200)을 광학적으로 인-커플링하고, 그렇게 하여, 반복적으로 OPE 엘리먼트(174a)와 교차한다. 예시된 실시예에서, OPE 엘리먼트(174a)는 비교적 낮은 회절 효율(예컨대, 50% 미만)을 가지며, 일련의 대각 회절 엘리먼트들(x-축에 관하여 45도)을 포함하여, OPE 엘리먼트(174a)와의 각각의 교차점에서, 인-커플링된 광빔(200)의 일부(예컨대, 90% 초과)는 내부 반사 광학 경로(204a)를 따라 TIR을 통해 기판(172) 내에서 계속 전파되고, 인-커플링된 광빔(200)의 나머지 부분(예컨대, 10% 미만)은 EPE 엘리먼트(174b)를 향해 내부 반사 광학 경로(204b)를 따라(이 경우에, 수평 또는 x-축을 따라) TIR을 통해 기판(172) 내에서 전파되는 직교 광빔(201)으로서 회절된다. 비록 광학 경로들(204b)이 광학 경로(204a)에 대해 수직 또는 직교인 것으로 설명되지만, 광학 경로들(204b)이 대안적으로 광학 경로(204a)에 대해 비스듬하게 배향될 수 있다는 것이 인지되어야 한다. 따라서, 인-커플링된 광빔(200)을 평행한 내부 반사 광학 경로들(204b)을 따라 전파되는 다수의 직교 빔들(201)로 분할함으로써, 도파관 장치(170)에 인-커플링된 시준된 광빔(200)의 사출동은 OPE 엘리먼트(174a)에 의해 y-축을 따라 수직으로 확장된다.
[00105] 차례로, EPE 엘리먼트(174b)는 제1 축(도 12의 수평 x-축)을 따라 광의 유효 사출동을 추가로 확장시킨다. 특히, 도 13 및 도 14에 예시된 바와 같이, OPE 엘리먼트(174a) 같은 EPE 엘리먼트(174b)는 비교적 낮은 회절 효율(예컨대, 50% 미만)을 가져서, EPE 엘리먼트(174b)와의 각각의 교차점에서, 각각의 직교 광빔(201)의 일부(예컨대, 90% 초과)는 개별 내부 반사 광학 경로(204b)를 따라 계속 전파되고, 각각의 직교 광빔(201)의 나머지 부분은 (z-축을 따라) 기판(172)의 면(180b)을 떠나는 아웃-커플링된 광선(202)으로서 회절된다. 즉, 광빔이 EPE 엘리먼트(174b)를 히팅(hit)할때마다, 광빔의 일부는 기판(172)의 면(180b)을 향해 회절될 것인 반면, 나머지 부분은 각각의 내부 반사 광학 경로(204b)를 따라 계속 전파될 것이다.
[00106] 따라서, 각각의 직교 광빔(201)을 다수의 아웃-커플링된 광선들(202)로 분할함으로써, 인-커플링된 광 빔(200)의 사출동은 EPE 엘리먼트(174b)에 의해 x-축을 따라 수평으로 추가로 확장되고, 이는 원래 인-커플링된 광빔(200)의 더 큰 버전과 유사한 아웃-커플링된 광선들(202)의 2차원 어레이를 초래한다. 비록 OPE 엘리먼트(174a) 및 EPE 엘리먼트(174b)가 x-y 평면에서 오버래핑하지 않는 것으로서 도 12에 예시되지만, OPE 엘리먼트(174a) 및 EPE 엘리먼트(174b)는 도 15에 예시된 바와 같이, x-y 평면에서 서로 완전히 오버랩할 수 있거나, 도 16에 예시된 바와 같이, x-y 평면에서 서로 부분적으로 오버랩할 수 있다는 것이 주목되어야 한다. 이들 경우들에서, OPE 엘리먼트(174a) 및 EPE 엘리먼트(174b)는 기판(172)의 대향 면들(180a, 180b) 상에 각각 배치될 필요가 있을 것이다.
[00107] 기판(172)의 면(180b)으로부터 광 빔릿들을 아웃-커플링하는 기능 외에, EPE 엘리먼트(174b)는 주어진 초점 평면을 따라 광 빔릿들의 출력 세트를 포커싱하는 역할을 하여, 이미지 또는 가상 객체의 일부는 그 초점 평면에 매칭하는 뷰잉 거리에서 최종 사용자(50)에 의해 보여진다. 예컨대, EPE 엘리먼트(174b)가 선형 회절 패턴만을 가지면, 최종 사용자(50)의 눈(들)(52)을 향해 기판(172)의 면(180b)을 떠나는 아웃-커플링된 광선들(202)은 도 17a에 도시된 바와 같이 실질적으로 평행할 것이고, 이는 광학 무한대에 있는 뷰잉 거리(초점 평면)로부터의 광으로서 최종 사용자(50)의 뇌에 의해 해석될 것이다. 그러나, 도 17b에 도시된 바와 같이, EPE 엘리먼트(174b)가 선형 회절 패턴 성분 및 방사상 대칭 회절 패턴 성분 둘 모두를 가지면, 기판(172)의 면(180b)을 떠나는 아웃-커플링된 광선들(202)은 최종 사용자(50)의 눈(들)(52)의 관점에서 더 발산되게 될 것이고(즉, 볼록 곡률이 광 파면 상에 부여될 것임), 그리고 결과적인 이미지를 망막 상으로 포커싱되게 하도록 더 가까운 거리에 눈(들)(52)이 수렴할 것을 요구하고 그리고 광학 무한대보다 눈(들)(52)에 더 가까운 뷰잉 거리(예컨대, 4 미터)로부터의 광으로서 최종 사용자(50)의 뇌에 의해 해석될 것이다. 도 17c에 도시된 바와 같이, 기판(172)의 면(180b)을 떠나는 아웃-커플링된 광선들(202)은 최종 사용자(50)의 눈(들)(52)의 관점에서 훨씬 더 발산되게 될 수 있고(즉, 더 볼록한 곡률이 광 파면 상에 부여될 것임), 그리고 결과적인 이미지를 망막 상으로 포커싱되게 하도록 훨씬 더 가까운 거리에 눈(들)(52)이 수렴할 것을 요구하고 그리고 눈(들)(52)에 더 가까운 뷰잉 거리(예컨대, 0.5 미터)로부터의 광으로서 최종 사용자(50)의 뇌에 의해 해석될 것이다.
[00108] 비록 도파관 장치(170)가 단지 하나의 초점 평면만을 가지는 것으로 본원에 설명되었지만, 연관된 OPE들(178) 및 EPE들(180)을 가진 다수의 평면 광학 도파관들(172)이, 인용에 의해 본원에 명시적으로 통합된 미국 특허 공개 번호들 제 2015/0309264호 및 제 2015/0346490호에 논의된 바와 같이, 다수의 초점 평면들에 이미지들을 동시에 또는 함께 생성하는데 사용될 수 있다는 것이 인지되어야 한다.
[00109] 위에서 간단히 논의된 바와 같이, 디스플레이 서브시스템(104)은 도파관 장치(170)를 떠나는 광선들(202) 중 적어도 하나의 각도를 표시하는 적어도 하나의 파라미터를 감지하도록 구성된 감지 어셈블리(122)를 포함한다. 예시된 실시예에서, 감지 어셈블리(122)는 하나 또는 그 초과의 기준 평면들에 관하여 광선(들)(202)의 각도를 표시하는 파라미터(들)를 감지한다. 예컨대, 이들 기준 평면들은 아래에서 더 상세히 설명되는 바와 같이, x-z 평면, y-z 평면 및 x-y 평면을 포함할 수 있다. 특히, 이들 기준 평면들은 편평할 수 있지만, 도파관 장치(170)의 외부 표면이 대안적으로 사용자(50)의 머리(54)에 따르도록 곡선질 수 있기 때문에, 이들 기준 평면들은 곡선질 수도 있다.
[00110] 또한 위에서 간단히 논의된 바와 같이, 떠나는 광선(들)의 각도들은 이미지 프레임 내의 픽셀들의 포지션들에 크게 상관된다. 예컨대, 도 18a 및 도 18b에 예시된 바와 같이, 투사 서브시스템(108)으로부터 시준된 광빔(200)은 ICE(168)를 통해 도파관 장치(170)에 진입하고 평면 광학 도파관(172) 내에서 전파된다. 전파되는 광빔(200)의 사출동은 DOE(들)(174)에 의해 x-축 및 y-축을 따라 확장되고, 이는, 예컨대 도 12-도 14에 대해 위에서 설명된 바와 같이, 평면 광학 도파관(172)의 면(180b)을 떠나는 광선(202)이다. 비록 도파관 장치(170)로 입력되는 시준된 광빔(200)에 대응하는 단지 하나의 광선(202)만이 간략화의 목적들을 위해 도시되지만, 통상적으로 단일 시준된 광빔(200)과 대응하는 도파관 장치(170)를 떠나는 많은 광선들(202)이 존재할 것이고, 이때 모든 떠나는 광선들(202)의 모든 각도들이 시준된 광빔(200)의 스캔 각도에 관련되는 것이 인지되어야 한다.
[00111] 시준된 광빔(200)은 광의 입력 콘(cone)(210a)을 생성하기 위해 투사 서브시스템(108)에 의해 스캐닝되고, 이 콘에서의 각각의 빔-각도는 사용자의 시야(FOV)(214)의 픽셀(212)에 대응한다. 도 18a에 도시된 바와 같이, 시준된 광빔(200)이 하나의 특정 빔-각도를 가지면, 대응하는 픽셀(212a)은 FOV(214)의 최하부-좌측 지역에 생성되는 반면, 시준된 광빔(200)이 다른 특정 빔-각도를 가지면, 대응하는 픽셀(212b)은 FOV(214)의 최상부-우측 지역에 생성된다. 도파관 장치(170)는 입력 광 콘(210a)을 평면 광학 도파관(172)의 방사 면(180b)에 전송함으로써 최종 사용자에게 출력 광 콘(210b)의 x-y 이미지 평면을 제시한다.
[00112] CPU(114)(도 3에 도시됨)는, 픽셀들의 컬러들 및 세기들을 정의하는 것 외에, 픽셀들의 위치들을 정의하는 이미지 데이터를 생성하고, 따라서 픽셀들의 정의된 위치들에 대응하는 떠난 광선들(202)의 설계된 각도들뿐 아니라, 감지 어셈블리(122)에 의해 감지된 떠나는 광선들(202)의 실제 각도들에 기반하여, 디스플레이 스크린(110)에 관하여 투사 서브시스템(108)에 의해 생성되는 광빔들(200)의 각도들을 제어하고, 이에 의해 떠나는 광선들(202)의 실제 각도들이 떠나는 광선들(202)의 설계된 각도들에 가능한 거의 동일한 것이 보장된다.
[00113] 예컨대, 도 19를 참조하면, 3차원 공간에서 원점으로부터 떠나는 광선(202)의 배향은 하나가 x-z 평면(216a) 상에 있고 다른 하나가 y-z 평면(216b) 상에 있는 2개의 각도들에 의해 정의될 수 있고, 이는 FOV(214)의 x-y 평면에서 픽셀(212)의 각각의 x- 및 y-좌표들에 밀접하게 상응한다. CPU(114)는 감지 어셈블리(122)에 의해 감지된 파라미터들에 기반하여 x-z 및 y-z 평면들(216a, 216b)에서 떠나는 광선(202)의 실제 각도들을 결정하고, 떠나는 광선(202)의 실제 각도들과 대응하는 픽셀(212)에 대한 떠나는 광선(202)의 설계된 바와 같은 각도들 사이의 편차를 컴퓨팅하고, 그리고 떠나는 광선(202)의 실제 각도들과 떠나는 광선(202)의 설계된 바와 같은 각도들 사이의 차이를 보상하기 위해 투사 서브시스템(108)의 동작을 수정할 수 있다.
[00114] 예컨대, CPU(114)는 시준된 광빔(200)의 스캔 포지션을 조정하도록 투사 서브시스템(108)에게 명령할 수 있다. 예시된 실시예에서, 시준된 광빔(200)의 스캔 포지션은 스캐닝 디바이스(156)의 작동/드라이브 프로파일(예컨대, 드라이브 전자장치(162)에 의해 압전기 엘리먼트(160)에 제공된 드라이브 전압들, 드라이브 신호들, 드라이브 패턴들 등)을 수정함으로써 조정될 수 있어서(도 5 참조), 스캐닝 디바이스(156)의 기계적 응답은 원하는 픽셀 포지션들에 대한 원하는 기계적 응답에 더 일치한다. 다른 예로서, CPU(114)는 스캐닝 디바이스(156)의 기계적 스캔 응답과 원하는 스캔 응답 사이의 알려진 미스매치를 보상하기 위해 (예컨대, 픽셀 변조/픽셀 동기화를 수정함으로써) 이미지 데이터를 수정할 수 있다. 이 경우에, 떠나는 광선(202)의 "올바르지 않은 각도들"이 측정되지만 보정되지 않는다. 또 다른 예로서, 시준된 광빔(200)의 스캔 포지션을 수정하는 것과 이미지 데이터를 수정하는 것의 조합은 CPU(114)에 의해 이용될 수 있다.
[00115] 시준된 광빔(200)의 스캔 포지션 및/또는 이미지 데이터는, 실시간으로 각도 측정들을 모니터링하고, 그리고 프로세싱 및 인과관계로 인한 지연을 최소화하도록 가능한 한 빨리 투사 서브시스템(108)에 대한 조정을 달성하는 소프트웨어/하드웨어 제어기(예컨대, PID(proportional-integral-derivative)와 유사함)를 이용함으로써 떠나는 광선(202)의 실제 각도들과 떠나는 광선(202)의 원하는 각도들 사이의 미스매치를 보상하도록 수정될 수 있다. 대안적으로, 디스플레이 서브시스템(104)이 반복 시스템이기 때문에, 동일한 타겟 스캔 패턴이 각각의 이미지 프레임을 생성하는데 사용되는 경우, 이전 이미지 프레임에 대해 획득된 각도 측정치들이 컴퓨팅되어, 저장될 수 있고 이어서 보정들이 후속 이미지 프레임에 적용될 수 있다. 이미지 프레임 레이트가 높은 경우에, 몇 밀리초 정도의 지연이 발생될 수 있다.
[00116] 감지 어셈블리(122)에 의해 검출된 파라미터들은 x-z 및 y-z 평면들(216a, 216b)에 관하여 광선들(202) 중 적어도 하나의 세기를 포함한다. 도 12-도 14에 예시된 실시예에서, 감지 어셈블리(122)는 도파관 장치(170)로부터 떠나거나 방출되는 광선들(202)을 대표하는 적어도 하나의 광선(203)(본원에서 단지 하나만 설명됨)의 세기를 측정한다. 이 실시예에서, 대표 광선(203)은 떠나는 광선들(202)과 상이하고, 그리고 떠나는 광선들(202)과 상이한 위치에서, 바람직하게 최종 사용자(50)의 FOV(214)의 외측에서 도파관 장치(170)를 떠날 것이다. 이 목적을 위해, 도파관 장치(170)는, 도 12-도 14에 예시된 바와 같이, 도파관 장치(170)로부터의 광을 대표 광선(203)으로서 감지 어셈블리(122)에 아웃-커플링하기 위한 부가적인 DOE(190)를 더 포함한다.
[00117] 도 14에 가장 잘 도시된 바와 같이, 감지 어셈블리(122)는 도파관 장치(170)를 떠나는 대표 광선(203)의 직교 성분들을 감지하도록 구성된 직교 각도 센서들의 쌍(220a 및 220b)(총체적으로, 220), 및 대표 광선(203)의 절대 세기를 감지하도록 구성된 정규화 센서(222)를 포함하여, 직교 각도 센서들(220)로부터의 판독치들은 평면 광학 도파관(172)의 광의 세기로 정규화될 수 있다. 즉, 이미지가 생성될 때, 픽셀 세기들은 상이한 픽셀들의 컬러에 대응하게 변조된다. 따라서, 포토-세기 센서(222)에 의해 측정된 픽셀 세기 변조는, 각도 센서들(220)의 측정들을 해석할 때 고려될 수 있다.
[00118] 예시된 실시예에서, 각도 센서들(220) 및 정규화 센서(222)는 DOE(190)와 근접하게 연관하여 도파관 장치(170)의 평면 광학 도파관(172)에 장착되어, DOE(190)를 통과하는 광선(202)은 센서들(220, 222) 상에 입사된다. 센서들(220, 222)은 바람직하게 최종 사용자(50)의 FOV(214) 외측에 위치되어, 이들은 최종 사용자(50)에 의해 경험되는 이미지를 간섭하지 않는다.
[00119] 도 20a를 더 참조하면, 각도 센서들(220a, 220b)의 쌍은 각각 포토-세기 센서들의 쌍(224a, 224b)(총체적으로, 306), 각도 선택 유전체 층들의 쌍(226a, 226b)(총체적으로, 226), 및 원통형 렌즈들(예컨대, GRIN 렌즈들)의 쌍(228a, 228b)(총체적으로, 228)을 포함한다. GRIN 렌즈들(228)은 DOE(190)의 외향 표면에 직접 장착되고, 유전체 층들(226)은 각각 GRIN 렌즈들(228)의 외향 표면에 직접 장착되고, 그리고 포토-세기 센서들(224)은 각각 유전체 층들(226)의 외향 표면에 직접 장착된다.
[00120] 중요하게도, 각각의 유전체 층(226)의 지향 특성들은, 광 에너지가 유전체 층(226)(x-y 평면에 위치됨)의 평면상에 입사하는 각도의 알려진 함수로서 광 에너지를 전송한다. 예컨대, 도 21a에 예시된 예시적인 유전체 층 투과-각도 관계로부터 알 수 있는 바와 같이, 대표 광선(203)의 각도가 유전체 층(226)의 평면(0도)의 수직에 가까울수록, 대표 광선(203)의 에너지는 포토-세기 센서(224)에 더 많이 투과된다. 게다가, 각각의 포토-세기 센서(224)는 각각의 유전체 층(226)의 평면에 수직 각도로 입사하는 광 에너지의 세기의 알려진 함수인 전압을 생성할 것이다. 예컨대, 도 21b에 예시된 예시적인 광검출기 세기-전압 관계로부터 알 수 있는 바와 같이, 유전체 층(226) 상에 입사하는 광 에너지의 세기가 클수록, 유전체 층(226)에 의해 생성되는 전압이 더 크다. 결과로서, 대표 광선(203)이 포토-세기 센서(224)의 평면상에 입사하는 각도는 아래에서 더 상세히 설명될 바와 같이, 이들 관계 곡선들로부터 결정될 수 있다. 도 21a 및 도 21b에 예시된 관계 곡선들이 분석적으로 생성될 수 있거나, 단위당 관련 값들을 측정하거나 교정함으로써 생성될 수 있고, 이에 의해 더 정확하고 교정된 관계 곡선들이 초래된다는 것이 주목되어야 한다.
[00121] 입사 광에 수직인 평면에 대한 센서 애퍼처(aperture)의 투사가 영역에서 감소하는 "코사인 저하"로 인해, 입사 광의 입사 각도뿐 아니라, 광 센서의 광학-물리적 특징들이 높을수록, 포토-세기 센서들(224) 그 자체들은 어느 정도의 각도 의존성을 가질 것이고, 이는 대표 광선(203)의 각도를 감지하는 주 수단으로서 활용될 수 있고, 이 경우에, 각도 센서들(220)은 유전체 층들(226)을 포함하지 않을 수 있거나, 또는 각도 센서들(220)에 유전체 층들(226)의 사용 외에 대표 광선(203)의 각도를 감지하는 2차 또는 보조 수단으로서 활용될 수 있다는 것이 또한 주목되어야 한다. 어느 경우에나, 각각의 포토-세기 센서(224)에 의해 감지된 전압을 다양한 광 입사 각도들에 상관시키는 광검출기 세기-각도 관계(도시되지 않음)가 생성될 수 있다. 이 광검출기 세기-각도 관계는 그 자체로 대표 광선(203)의 각도를 결정하는데 사용될 수 있거나, 유전체 층 투과-각도 관계(도 21a) 및 광검출기 세기-전압 관계(도 21b)로부터 결정된 대표 광선(203)의 각도를 확인하는데 사용될 수 있다.
[00122] 특히, 유전체 층들(226)이, 동일한 입사 각도이지만 상이한 방사상 방향들로 대표 광선(203)으로부터 에너지를 똑같이 전송할 것이라는 점에서 본질적으로 등방성이기 때문에, 감지 어셈블리(122)는 유전체 층들(226)의 원형 대칭을 파괴하고, 이에 의해 대표 광선(203)의 배향이 x-z 및 y-z 평면들(216a, 216b)로 투사되는 것이 허용된다. 이 목적을 위해, 원통형 렌즈들(228a, 228b)은 대표 광선(203)의 제1 및 제2 직교 성분들(x-z 및 y-z 평면들(216a, 216b)에 대응함)을 각각의 유전체 층들(226a, 226b)로 각각 통과시키도록 구성된다.
[00123] 따라서, 하나의 렌즈(228a)는 대표 광선(203a)의 에너지를 수평(x-) 성분으로 분리하고 다른 렌즈(228b)는 대표 광선(203b)의 에너지를 수직(y-) 성분으로 분리한다. 따라서, 하나의 포토-세기 센서(224a)는 DOE(190)를 떠나는 대표 광선(203a)의 수평 에너지 성분만을 수신할 것이고, 다른 포토-세기 센서(224b)는 DOE(190)를 통해 대표 광선(203b)의 수직 에너지 성분만을 수신할 것이다. 이어서, x-z 및 y-z 평면들(216a, 216b) 상에 투사되는 대표 광선(202)의 각도는 아래에서 논의될 바와 같이, 대표 광선(203)의 이들 수평 및 수직 성분들로부터 결정될 수 있다.
[00124] 특히, 각각의 각도 센서(220)가 예시의 간략성 및 명확성의 목적들을 위해 하나의 대표 광선(203)을 검출하는 것으로 설명되지만, 실제로, 각도 센서들(220) 각각은 많은 광선들을 검출하고, 그러므로 각도 센서들(220)의 전압 출력들은 대표 광선(203)의 수평 성분(203a) 또는 수직 성분(203b)의 합성을 나타낼 것이다. 그러나, DOE(190)는, 인-커플링된 시준된 빔(200)의 특정 각도가 주어지면, DOE(190)를 떠나는 대표 광선(203)의 각도들이 균일하도록, 바람직하게 선형 회절 패턴을 가진다.
[00125] 도 20b에 예시된 대안적인 실시예에서, 이미 존재하는 DOE(190)와 연관하여 원통형 렌즈들(310)을 사용하기보다, DOE(190) 자체는, 위에서 설명된 원통형 렌즈들(228)과 동일한 방식으로 하나의 직교 성분을 각도 센서(220a)로 통과시키는 부분 및 다른 직교 성분을 각도 센서(220b)로 통과시키는 다른 부분으로 세그먼트화될 수 있다. 도 20c에 예시된 또 다른 대안적인 실시예에서, 각도 센서들(220)은 대표 광선(203)을 수직으로 편광된 광선들로 편광시키도록 구성된 편광 엘리먼트들의 쌍(230a, 230b)(총체적으로, 230)을 각각 포함하고, 이어서 편광된 광선들은 유전체 층들(226a, 226b)을 통해 각각의 포토-세기 센서들(224a, 224b)로 통과된다.
[00126] 또 다른 대안적인 실시예에서, 원통형 렌즈들 또는 위에서 설명된 다른 디바이스들 중 임의의 디바이스 대신, 유전체 층들(226a, 226b) 자체들은 직교 배향들로 변형될 수 있어서, 유전체 층들(226)은 더 이상 등방성이 아니라, 오히려 이방성이고, 그리고 대표 광선(203)을 다른 직교 방향보다 하나의 직교 방향으로 더 많이 통과시키는 경향이 있고, 그 반대도 가능하다. 비록 이방성 유전체 층들(226)이 직교 방식들로 대표 광선(203)을 완벽하게 전송하지 않지만, x-z 및 y-z 평면들(216a, 216b) 상에 투영될 때, 대표 광선(203)의 각도는 여전히 유전체 층들(226)의 알려진 직교 투과율(즉, 다른 직교 방향에 관하여 하나의 직교 방향으로 각각의 유전체 층(226)에 의해 투과되는 광 에너지의 비율)의 측면에서 결정될 수 있다.
[00127] 각도 센서들(220)의 각각이 DOE(190)와 밀접하게 연관되는 것으로 설명되지만, 각도 센서들(220) 중 하나 또는 둘 모두가, 평면 광학 도파관들(172)이 구성되는 재료와 상이한 굴절률을 가진 격자 또는 재료의 형태를 취하는 임의의 인터페이스에서 도파관 장치(170)에 장착될 수 있고, 이에 의해 광선들이 센서들(220)을 탈출하고 진입하는 것이 허용되는 것이 인지되어야 한다. 그러나, DOE(190)를 떠나는 대표 광선(203)의 각도는 인-커플링된 시준된 빔(200)의 임의의 주어진 스캔 각도에 대해 EPE 엘리먼트(174b)를 떠나는 광선들(202)의 공칭 각도에 밀접하게 매칭할 것이다.
[00128] 전술한 내용에도 불구하고, 각도 센서들(220)은 대안적으로 EPE 엘리먼트(174b)와 밀접하게 연관될 수 있다. 이 경우에, 도파관 장치(170)를 떠나는 광선들(202)은 각도 센서들(220)에 의해 감지되는 대표 광선을 포함할 것이다. 이 경우에, EPE 엘리먼트(174b)가 광학-무한대가 아닌 초점 평면을 생성하는 방사상 대칭 회절 패턴을 가질 수 있기 때문에, 각도 센서들(220)에 의해 감지되는 광선들(202)은, 임의의 특정 각도의 인-커플링된 시준된 빔(200)이 주어지면, 발산할 수 있고, 따라서 다소 비균일하다. 이 경우에, 각도 센서들(220)의 사이즈는 바람직하게 비교적 작을 것이고, 따라서 각도 센서(220) 상에 충돌하는 광선들 사이의 각도 변화는 중요하지 않을 것이다.
[00129] 동일한 토큰(token)에 의해, 각도 센서들(220)이 EPE 엘리먼트(174b)와 밀접하게 연관되면, 각각의 각도 센서들(220) 사이의 간격은 상대적으로 작아서, 각도 센서들(220a, 220b)에 의해 검출된 떠나는 광선(202)의 수평 및 수직 광 성분들이 본질적으로 도파관 장치(170)를 떠나는 공칭 광선의 성분들로서 역할을 하는 것이 원해진다. 그 목적에서, x-z 및 y-z 평면들(216a, 216b) 상에 투사되는 광선들(202a, 202b)의 각도들의 함수는 본질적으로, 각도 센서들(220) 상에 충돌하는 모든 광선들(202)의 각도들의 평균에 근접할 것이고, 이는 각도들 사이의 작은 변화로 인해, 도파관 장치(170)를 떠나는 광선들(202)의 공칭 각도를 대표한다. 대안적인 실시예에서, 각도 센서들(220)은 광학 무한대(즉, 렌징 없음) 또는 렌징 없이 도파관 장치(170) 상의 특정 영역에 이미지들을 생성하는 도파관(302) 상에 배치될 수 있고, 이에 의해 광선들의 각도들이 서로 평행하다.
[00130] 특히, 개시된 바와 같은 각도 센서들(220)은, x-z 평면(216a) 또는 y-z 평면(216b)에서 떠나는 광선들(202)의 절대 각도가 획득될 수 있는(예컨대, 30°의 절대 각도는 +30° 또는 -30°일 수 있음) 정보만을 감지할 수 있다. 따라서, 감지 어셈블리(122)는 x-z 평면(216a) 또는 y-z 평면(216b)에서 떠나는 광선들(202)의 상대적 각도를 표시하는 다른 파라미터를 감지한다. 예시된 실시예에서, 이 감지된 파라미터는, 시준된 광빔(200)이 평면에 투사되는 사분면을 포함하여, x-z 및 y-z 평면들(216a, 216b) 상으로 투사되는 광선들(202)의 각도들의 부호가 결정될 수 있다.
[00131] 예컨대, 도 22a에 예시된 바와 같이, 하나의 떠나는 광선(202)은 x-y 평면(216c)에 관한 각도를 형성한다. 즉, x-y 평면(216c) 상으로 투사될 때, 떠나는 광선(202)은 도 22b에 예시된 바와 같이, x-y 평면(216c)에서 각도를 형성할 수 있다. 여기에 도시된 바와 같이, 떠나는 광선(202)의 각도는 x-y 평면(216c)의 제2 사분면 내에 투사되고 그러므로, 떠나는 광선(202)이 x-z 평면(216a)에서 만드는 각도는 음의 부호를 가지며, 떠나는 광선(202)이 y-z 평면(216b)에서 만드는 각도는 양의 부호를 가져야 하는 것이 결정될 수 있다.
[00132] 감지 어셈블리(122)는, 시준 엘리먼트(274)로부터 ICE(168)에 진입하는 시준된 광빔(200)이 지향되는 사분면을 검출함으로써, 떠나는 광선(202)이 투사되는 사분면을 간접적으로 검출하도록 구성된다(도 5에 도시됨). 특히, 도 13 및 도 14를 다시 참조하면, 감지 어셈블리(122)는 ICE(168)에 장착된 하나 또는 그 초과의 사분면 센서들(232)을 포함한다. 도 23a에 예시된 바와 같이, 4개의 사분면 센서들(232)은 기준 평면(234)의 사분면들에서 이격되어, 시준된 광빔(200)에 의한 센서들(232) 중 하나의 작동은, 광빔(200)이 현재 지향되는 사분면을 표시할 것이다. 대안적으로, 도 23b에 예시된 바와 같이, 감지 어셈블리(122)는 사분면들의 교차점에 중심을 둔 사분면 PSD(position sensing detector)(236)를 포함할 수 있다. 임의의 이벤트에서, 시준된 광빔(200)의 각도 포지션이 도파관 장치(170)를 떠나는 광선들(202)의 각도에 상관가능하기 때문에, 광선들(202)이 x-y 평면(216c)에 투사되는 사분면은, 시준된 광빔(200)이 지향되는 기준 평면(234)의 사분면으로부터 유도될 수 있다.
[00133] 대안적인 실시예에서, 광선들(202)이 x-y 평면(216c)에 투사되는 사분면은, 떠나는 광선들(202)의 세기가 감지 어셈블리(122)에 의해 감지될 때 스캔 패턴의 현재 스캔 포지션의 사분면으로부터 간단히 추론될 수 있다.
[00134] 비록 떠나는 광선들(202)의 각도를 검출하는 센서들이 평면 광학 도파관들(200)과 밀접하게 연관된 것으로 설명되었지만, 하나 또는 그 초과의 각도 검출 센서들은, 도파관 장치(170)를 떠나는 광선들의 각도들에 상관가능한 광선 또는 빔이 검출될 수 있는 디스플레이 서브시스템(104)의 임의의 부분에 통합될 수 있다. 예컨대, x-z 및 y-z 평면들(216a, 216b) 상에 투사되는 시준된 광빔(200)의 각도뿐 아니라, 시준된 광빔(200)이 투사되는 x-y 평면(216c)의 사분면 둘 모두를 검출하는 PSD(236)는 도 24에 예시된 바와 같이 ICE(168)에 장착될 수 있다.
[00135] PSD(236)는 도파관 장치(170)를 떠나는 광선들(202)보다 오히려, 시준된 빔(200)의 각도를 직접 감지한다. 그러나, 시준된 빔(200)의 각도가 도파관 장치(170)를 떠나는 광선들(202)의 각도들에 매우 상관가능하기 때문에, PSD(236)는 시준된 빔(200)의 각도를 직접적으로 감지함으로써 도파관 장치(170)를 떠나는 광선들(202)의 각도들을 간접적으로 감지한다.
[00136] x-z 평면(216a) 및 y-z 평면(216b) 상에 투사되는 광선(202)의 각도들을 결정하는 하나의 방법이 이제 설명될 것이다. 포토-세기 센서(222)가 90 mV의 전압을 측정하는 것을 가정하자. 이어서, 도 22b에 예시된 예시적인 광검출기 세기-전압 관계에 따라, 대표 광선(203)의 절대 세기는 100 니트(nit)인 것으로 결정될 수 있다.
[00137] 각도 센서(220a)가 70 mV의 전압을 측정하는 것을 가정하자. 이어서, 도 21b에 예시된 예시적인 광검출기 세기-전압 관계에 따라, 각도 선택 유전체 층(226a)에 의해 포토-세기 센서(224a)로 투과되는 대표 광선(203)의 세기는 80 니트인 것으로 결정될 수 있다. 따라서, 100 니트의 알려진 광선의 세기에 기반하여, 유전체 층(226a)이 광 에너지의 80/100 = 80%를 포토-세기 센서(224a)에 투과시키는 것이 결정될 수 있다. 이어서, 도 21a에 예시된 예시적인 유전체 층 투과-각도 관계에 따라, x-z 평면(216a)에 투사된 대표 광선(203)의 절대 각도는 20도인 것으로 결정될 수 있다.
[00138] 유사하게, 각도 센서(220b)가 65 mV의 전압을 측정하는 것을 가정하자. 이어서, 도 21b에 예시된 예시적인 광검출기 세기-전압 관계에 따라, 각도 선택 유전체 층(226b)에 의해 포토-세기 센서(224b)로 투과되는 대표 광선(203)의 세기는 75 니트인 것으로 결정될 수 있다. 따라서, 100 니트의 알려진 광선의 세기에 기반하여, 유전체 층(226b)이 광 에너지의 75/100 = 75%를 포토-세기 센서(224b)에 투과시키는 것이 결정될 수 있다. 이어서, 도 21a에 예시된 예시적인 유전체 층 투과-각도 관계에 따라, x-z 평면(216a)에 투사된 대표 광선(203)의 절대 각도는 35도인 것으로 결정될 수 있다.
[00139] 센서들(232) 또는 PSD(236)가, x-y 평면(216c) 상에 투사된 대표 광선(203)의 각도가 제3 사분면에 있다는 것을 검출하거나, 그렇지 않으면 x-y 평면(216c) 상에 투사된 대표 광선(203)의 각도가 시준된 빔(200)의 알려진 스캔 각도의 정보로부터 유도된 제3 사분면에 있다는 것이 알려지면, x-z 평면(216a) 및 y-z 평면(216b)에 각각 투사되는 대표 광선(203)의 각도들이 둘 모두 음이어야 하고, 따라서 -20도 및 -35도인 것이 결정될 수 있다.
[00140] 비록 본 발명들의 특정 실시예들이 도시되고 설명되었지만, 이것이 본 발명들을 바람직한 실시예들로 제한하도록 의도되지 않는 것이 이해될 것이고, 그리고 다양한 변화들 및 수정들이 본 발명들의 사상 및 범위에서 벗어나지 않고 이루어질 수 있다는 것이 당업자들에게 자명할 것이다. 따라서, 본 발명들은 청구항들에 의해 정의된 바와 같은 본 발명들의 사상 및 범위 내에 포함될 수 있는 대안들, 수정들, 및 등가물들을 커버하도록 의도된다.

Claims (58)

  1. 최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템으로서,
    도파관 장치;
    광을 방출하도록 구성된 이미징 엘리먼트;
    상기 이미징 엘리먼트로부터의 광을 광빔으로 시준하도록 구성된 시준 엘리먼트;
    복수의 광선들이 이미지 프레임의 픽셀을 최종 사용자에게 디스플레이하기 위해 상기 도파관 장치를 떠나도록, 상기 시준 엘리먼트로부터 시준된 광빔을 상기 도파관 장치 아래로 지향시키도록 구성된 ICE(in-coupling element) ― 상기 픽셀은 복수의 떠나는 광선들의 각도들로 인코딩된 위치를 가짐 ―; 및
    떠나는 광선 각도들을 표시하는 적어도 하나의 파라미터를 감지하도록 구성된 감지 어셈블리
    를 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  2. 제1 항에 있어서,
    상기 이미징 엘리먼트는:
    상기 광을 생성하도록 구성된 적어도 하나의 광 소스;
    상기 광을 방출하도록 구성된 광섬유; 및
    상기 광섬유가 장착되는 기계적 드라이브 어셈블리
    를 포함하고,
    상기 기계적 드라이브 어셈블리는 스캔 패턴에 따라 상기 광섬유를 변위시키도록 구성되는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  3. 제2 항에 있어서,
    상기 기계적 드라이브 어셈블리는, 상기 광섬유가 장착되는 압전기 엘리먼트 및 전기 신호들을 상기 압전기 엘리먼트에 전달하도록 구성된 드라이브 전자장치를 포함하고, 이에 의해 상기 광섬유가 상기 스캔 패턴에 따라 진동하게 되는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  4. 제1 항에 있어서,
    상기 도파관 장치는 상기 최종 사용자의 눈들의 전면에 포지셔닝되도록 구성되는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  5. 제1 항에 있어서,
    상기 도파관 장치는 상기 최종 사용자의 눈들과 주위 환경 사이의 시야에 포지셔닝되도록 구성된 부분적으로 투명한 디스플레이 표면을 가지는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  6. 제1 항에 있어서,
    상기 최종 사용자가 착용하도록 구성된 프레임 구조를 더 포함하고, 상기 프레임 구조는 상기 도파관 장치를 지지하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  7. 제1 항에 있어서,
    상기 도파관 장치는:
    평면 광학 도파관 ― 상기 ICE는 상기 이미지 엘리먼트로부터의 상기 시준된 광 빔을 인-커플링된(in-coupled) 광빔으로서 상기 평면 광학 도파관에 광학적으로 커플링하도록 구성됨 ―;
    상기 인-커플링된 광빔을 복수의 직교 광빔들로 분할하기 위해 상기 평면 광학 도파관과 연관된 OPE(orthogonal pupil expansion) 엘리먼트; 및
    상기 복수의 직교 광빔들을 상기 평면 광학 도파관을 떠나는 광선들로 분할하기 위해 상기 평면 광학 도파관과 연관된 EPE(exit pupil expansion) 엘리먼트
    를 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  8. 제7 항에 있어서,
    상기 평면 광학 도파관은 광학적으로 투명한 재료의 단일 페인(pane)으로 형성된 단일 기판을 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  9. 제1 항에 있어서,
    적어도 하나의 감지된 파라미터는 상기 도파관 장치의 외부 표면과 일치하는 평면에 직교하는 적어도 하나의 평면에 투사되는 상기 떠나는 광선 각도들을 표시하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  10. 제9 항에 있어서,
    상기 적어도 하나의 평면은 서로 직교하는 2개의 평면들을 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  11. 제9 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는 상기 복수의 떠나는 광선들을 대표하는 적어도 하나의 광선의 세기를 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  12. 제11 항에 있어서,
    적어도 하나의 대표 광선은 상기 복수의 떠나는 광선들과 상이한,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  13. 제12 항에 있어서,
    상기 적어도 하나의 대표 광선은 상기 최종 사용자의 시야의 외측의 상기 복수의 떠나는 광선들과 상이한 위치에서 상기 도파관 장치를 떠나는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  14. 제11 항에 있어서,
    상기 복수의 떠나는 광선들은 적어도 하나의 대표 광선을 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  15. 제11 항에 있어서,
    상기 감지 어셈블리는 적어도 하나의 각도 센서를 포함하고, 상기 적어도 하나의 각도 센서 각각은 포토(photo)-세기 센서 및 상기 도파관 장치와 상기 포토-세기 센서 사이에 장착된 각도 선택 층을 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  16. 제15 항에 있어서,
    상기 적어도 하나의 각도 센서는 적어도 하나의 대표 광선의 제1 직교 세기 성분 및 제2 직교 세기 성분을 감지하도록 각각 구성된 직교 센서들의 쌍을 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  17. 제16 항에 있어서,
    상기 직교 센서들의 쌍은 상기 적어도 하나의 대표 광선의 상기 제1 직교 세기 성분 및 상기 제2 직교 세기 성분을 각각 통과시키도록 구성된 제1 원통형 렌즈 및 제2 원통형 렌즈를 각각 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  18. 제16 항에 있어서,
    상기 직교 센서들의 쌍은 상기 적어도 하나의 대표 광선의 상기 제1 직교 세기 성분 및 상기 제2 직교 세기 성분을 각각 통과시키도록 구성된 제1 회절 광학 엘리먼트 및 제2 회절 광학 엘리먼트를 각각 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  19. 제16 항에 있어서,
    상기 직교 센서들의 쌍은 상기 적어도 하나의 대표 광선의 각각을 직교적으로 편광된 광선들로 각각 편광시키도록 구성된 제1 편광 엘리먼트 및 제2 편광 엘리먼트를 각각 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  20. 제16 항에 있어서,
    각도 선택 층들은 직교 배향들로 변형되는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  21. 제16 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는, 상기 제1 직교 세기 성분 및 상기 제2 직교 세기 성분이 정규화될 수 있도록, 상기 적어도 하나의 대표 광선의 절대 세기를 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  22. 제21 항에 있어서,
    상기 감지 어셈블리는 상기 적어도 하나의 대표 광선의 절대 세기를 측정하도록 구성된 다른 포토-세기 센서를 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  23. 제16 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는 상기 복수의 떠나는 광선들의 상대적 각도들을 표시하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  24. 제23 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는, 상기 시준된 광빔이 평면에 투사되는 사분면을 더 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  25. 제24 항에 있어서,
    상기 감지 어셈블리는 기준 평면의 사분면들에서 이격된 복수의 센서들을 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  26. 제24 항에 있어서,
    상기 감지 어셈블리는 사분면 PSD(position sensing detector)를 포함하는,
    최종 사용자에 의해 사용되는 가상 이미지 생성 시스템에 대한 디스플레이 서브시스템.
  27. 가상 이미지 생성 시스템으로서,
    제1 항의 디스플레이 서브시스템; 및
    픽셀의 위치를 정의하는 이미지 데이터를 생성하고, 그리고 상기 픽셀의 정의된 위치 및 적어도 하나의 감지된 파라미터에 기반하여 ICE에 관하여 광빔의 각도를 제어하도록 구성된 제어 서브시스템
    을 포함하는,
    가상 이미지 생성 시스템.
  28. 제27 항에 있어서,
    3차원 장면을 저장하는 메모리를 더 포함하고, 상기 제어 서브시스템은 상기 3차원 장면의 복수의 합성 이미지 프레임들을 렌더링하도록 구성되고, 그리고 상기 디스플레이 서브시스템은 상기 복수의 이미지 프레임들을 최종 사용자에게 순차적으로 디스플레이하도록 구성되는,
    가상 이미지 생성 시스템.
  29. 제27 항에 있어서,
    상기 제어 서브시스템은 GPU(graphics processing unit)를 포함하는,
    가상 이미지 생성 시스템.
  30. 최종 사용자가 사용하기 위한 가상 이미지 생성 시스템으로서,
    시준된 광빔을 생성하도록 구성된 투사 서브시스템;
    이미지 프레임의 픽셀을 상기 최종 사용자에게 디스플레이하기 위해 상기 시준된 광빔에 대한 응답으로 광선들을 방출하도록 구성된 디스플레이 ― 상기 픽셀은 방출된 광선들의 각도들로 인코딩된 위치를 가짐 ―;
    방출된 광선 각도들 중 적어도 하나를 표시하는 적어도 하나의 파라미터를 감지하도록 구성된 감지 어셈블리; 및
    상기 픽셀의 위치를 정의하는 이미지 데이터를 생성하고, 그리고 상기 픽셀의 정의된 위치 및 적어도 하나의 감지된 파라미터에 기반하여 상기 디스플레이에 관하여 상기 광빔의 각도를 제어하도록 구성된 제어 서브시스템
    을 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  31. 제30 항에 있어서,
    상기 투사 서브시스템은:
    광을 생성하도록 구성된 적어도 하나의 광 소스;
    상기 광을 방출하도록 구성된 광섬유;
    상기 광섬유로부터의 광을 상기 시준된 광빔으로 시준하도록 구성된 시준 엘리먼트; 및
    상기 광섬유가 장착되는 기계적 드라이브 어셈블리
    를 포함하고,
    상기 기계적 드라이브 어셈블리는 스캔 패턴에 따라 상기 광섬유를 변위시키도록 구성되는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  32. 제30 항에 있어서,
    기계적 드라이브 어셈블리는, 광섬유가 장착되는 압전기 엘리먼트 및 전기 신호들을 상기 압전기 엘리먼트에 전달하도록 구성된 드라이브 전자장치를 포함하고, 이에 의해 상기 광섬유가 스캔 패턴에 따라 진동하게 되는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  33. 제30 항에 있어서,
    상기 디스플레이는 복수의 상이한 초점들 중 하나에서 상기 이미지 프레임의 픽셀을 상기 최종 사용자에게 선택적으로 디스플레이하도록 구성되는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  34. 제30 항에 있어서,
    상기 디스플레이는 상기 최종 사용자의 눈들의 전면에 포지셔닝되도록 구성되는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  35. 제30 항에 있어서,
    상기 디스플레이는 상기 최종 사용자의 눈들과 주위 환경 사이의 시야에 포지셔닝되도록 구성된 부분적으로 투명한 디스플레이 표면을 가지는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  36. 제30 항에 있어서,
    상기 최종 사용자에 의해 착용되도록 구성된 프레임 구조를 더 포함하고, 상기 프레임 구조는 상기 디스플레이를 지지하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  37. 제30 항에 있어서,
    3차원 장면을 저장하는 메모리를 더 포함하고, 상기 제어 서브시스템은 상기 3차원 장면의 복수의 합성 이미지 프레임들을 렌더링하도록 구성되고, 그리고 상기 디스플레이는 상기 복수의 이미지 프레임들을 상기 최종 사용자에게 순차적으로 디스플레이하도록 구성되는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  38. 제30 항에 있어서,
    상기 제어 서브시스템은 GPU(graphics processing unit)를 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  39. 제30 항에 있어서,
    도파관 장치는:
    평면 광학 도파관 ― ICE는 이미징 엘리먼트로부터의 상기 시준된 광 빔을 인-커플링된 광빔으로서 상기 평면 광학 도파관에 광학적으로 커플링하도록 구성됨 ―;
    상기 인-커플링된 광빔을 복수의 직교 광빔들로 분할하기 위해 상기 평면 광학 도파관과 연관된 OPE(orthogonal pupil expansion) 엘리먼트; 및
    상기 복수의 직교 광빔들을 상기 평면 광학 도파관으로부터 방출되는 광선들로 분할하기 위해 상기 평면 광학 도파관과 연관된 EPE(exit pupil expansion) 엘리먼트
    를 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  40. 제39 항에 있어서,
    상기 평면 광학 도파관은 광학적으로 투명한 재료의 단일 페인으로 형성된 단일 기판을 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  41. 제30 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는 도파관 장치의 외부 표면과 일치하는 평면에 직교하는 적어도 하나의 평면에 투사되는 방출된 광선 각도들을 표시하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  42. 제41 항에 있어서,
    상기 적어도 하나의 평면은 서로 직교하는 2개의 평면들을 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  43. 제41 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는 복수의 떠나는 광선들을 대표하는 적어도 하나의 광선의 세기를 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  44. 제43 항에 있어서,
    적어도 하나의 대표 광선은 상기 방출된 광선들과 상이한,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  45. 제44 항에 있어서,
    상기 적어도 하나의 대표 광선은 상기 최종 사용자의 시야의 외측의 상기 복수의 떠나는 광선들과 상이한 위치에서 상기 도파관 장치에 의해 방출되는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  46. 제43 항에 있어서,
    복수의 방출된 광선들은 적어도 하나의 대표 광선을 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  47. 제43 항에 있어서,
    상기 감지 어셈블리는 적어도 하나의 각도 센서를 포함하고, 상기 적어도 하나의 각도 센서 각각은 포토-세기 센서 및 상기 도파관 장치와 상기 포토-세기 센서 사이에 장착된 각도 선택 층을 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  48. 제47 항에 있어서,
    상기 적어도 하나의 각도 센서는 적어도 하나의 대표 광선의 제1 직교 세기 성분 및 제2 직교 세기 성분을 감지하도록 각각 구성된 직교 센서들의 쌍을 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  49. 제48 항에 있어서,
    상기 직교 센서들의 쌍은 상기 적어도 하나의 대표 광선의 상기 제1 직교 세기 성분 및 상기 제2 직교 세기 성분을 각각 통과시키도록 구성된 제1 원통형 렌즈 및 제2 원통형 렌즈를 각각 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  50. 제48 항에 있어서,
    상기 직교 센서들의 쌍은 상기 적어도 하나의 대표 광선의 상기 제1 직교 세기 성분 및 상기 제2 직교 세기 성분을 각각 통과시키도록 구성된 제1 회절 광학 엘리먼트 및 제2 회절 광학 엘리먼트를 각각 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  51. 제48 항에 있어서,
    상기 직교 센서들의 쌍은 상기 적어도 하나의 대표 광선의 각각을 직교적으로 편광된 광선들로 각각 편광시키도록 구성된 제1 편광 엘리먼트 및 제2 편광 엘리먼트를 각각 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  52. 제48 항에 있어서,
    각도 선택 층들은 직교 배향들로 변형되는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  53. 제48 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는, 상기 제1 직교 세기 성분 및 상기 제2 직교 세기 성분이 정규화될 수 있도록, 상기 적어도 하나의 대표 광선의 절대 세기를 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  54. 제53 항에 있어서,
    상기 감지 어셈블리는 상기 적어도 하나의 대표 광선의 절대 세기를 측정하도록 구성된 다른 포토-세기 센서를 더 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  55. 제48 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는 상기 방출된 광선들의 상대적 각도들을 표시하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  56. 제55 항에 있어서,
    상기 적어도 하나의 감지된 파라미터는, 시준된 광빔이 평면에 투사되는 사분면을 더 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  57. 제56 항에 있어서,
    상기 감지 어셈블리는 기준 평면의 사분면들에서 이격된 복수의 센서들을 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
  58. 제56 항에 있어서,
    상기 감지 어셈블리는 사분면 PSD(position sensing detector)를 포함하는,
    최종 사용자가 사용하기 위한 가상 이미지 생성 시스템.
KR1020187022711A 2016-01-12 2017-01-12 가상/증강 현실 시스템에서 빔 각도 센서 KR20180102119A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662277865P 2016-01-12 2016-01-12
US62/277,865 2016-01-12
PCT/US2017/013234 WO2017123793A1 (en) 2016-01-12 2017-01-12 Beam angle sensor in virtual/augmented reality system

Publications (1)

Publication Number Publication Date
KR20180102119A true KR20180102119A (ko) 2018-09-14

Family

ID=59275567

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187022711A KR20180102119A (ko) 2016-01-12 2017-01-12 가상/증강 현실 시스템에서 빔 각도 센서

Country Status (10)

Country Link
US (6) US10042166B2 (ko)
EP (2) EP3403133B1 (ko)
JP (4) JP7029399B2 (ko)
KR (1) KR20180102119A (ko)
CN (2) CN113777789B (ko)
AU (2) AU2017207827B2 (ko)
CA (1) CA3008032A1 (ko)
IL (3) IL302232B2 (ko)
NZ (2) NZ784100A (ko)
WO (1) WO2017123793A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028594A (ko) * 2020-08-31 2022-03-08 한국전자기술연구원 시역 확장을 위한 프리즘 접합형 도파관 디스플레이 구조체 및 방법

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180102119A (ko) 2016-01-12 2018-09-14 매직 립, 인코포레이티드 가상/증강 현실 시스템에서 빔 각도 센서
TWI728175B (zh) 2016-08-22 2021-05-21 美商魔法飛躍股份有限公司 用於可穿戴顯示裝置的抖動方法及設備
IL266677B2 (en) 2016-11-18 2023-11-01 Magic Leap Inc A waveguide light multiplexer using crossed gratings
WO2018136892A1 (en) 2017-01-23 2018-07-26 Magic Leap, Inc. Eyepiece for virtual, augmented, or mixed reality systems
WO2018231754A1 (en) 2017-06-13 2018-12-20 Vuzix Corporation Image light guide with expanded light distribution overlapping gratings
US10338400B2 (en) 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
US10859834B2 (en) 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
US10534176B1 (en) 2017-10-09 2020-01-14 Facebook Technologies, Llc Waveguide display with gratings for improved diffraction efficiency
CA3236968A1 (en) * 2017-12-15 2019-06-20 Magic Leap, Inc. Eyepieces for augmented reality display system
US10572731B1 (en) * 2018-03-13 2020-02-25 Facebook Technologies, Llc Infrared transparent backlight device for eye tracking applications
CN117369133A (zh) 2018-07-13 2024-01-09 奇跃公司 用于显示双目变形补偿的***和方法
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
US10890770B2 (en) * 2018-11-15 2021-01-12 Facebook Technologies, Llc Waveguide having partial reflector
EP3884337A4 (en) 2018-11-20 2022-08-17 Magic Leap, Inc. EYEPIECES FOR AN AUGMENTED REALITY DISPLAY SYSTEM
US11650423B2 (en) 2019-06-20 2023-05-16 Magic Leap, Inc. Eyepieces for augmented reality display system
US11467660B2 (en) * 2020-02-06 2022-10-11 Valve Corporation Position tracking system for head-mounted display systems
EP4377632A1 (en) * 2021-07-26 2024-06-05 Lumus Ltd. Optical-based validation of parallelism between internal facets

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880461A (en) * 1996-06-12 1999-03-09 The Regents Of The University Of California Low noise optical position sensor
US6721053B1 (en) * 1999-05-19 2004-04-13 Corning Intellisense Corporation System for high resolution chemical and biological sensing
CN1682147A (zh) * 2002-09-18 2005-10-12 皇家飞利浦电子股份有限公司 具有扫描背灯的显示装置
EP1639394A2 (en) 2003-06-10 2006-03-29 Elop Electro-Optics Industries Ltd. Method and system for displaying an informative image against a background image
JP2006039271A (ja) 2004-07-28 2006-02-09 Brother Ind Ltd 画像表示装置、その反射鏡及び画像表示方法
JP5190267B2 (ja) * 2004-10-01 2013-04-24 ユニバーシティ・オブ・ワシントン イメージの歪みを減らす再マッピング法
US7206107B2 (en) 2004-12-13 2007-04-17 Nokia Corporation Method and system for beam expansion in a display device
US20060126181A1 (en) * 2004-12-13 2006-06-15 Nokia Corporation Method and system for beam expansion in a display device
WO2006064334A1 (en) * 2004-12-13 2006-06-22 Nokia Corporation General diffractive optics method for expanding an exit pupil
JP2007219106A (ja) 2006-02-16 2007-08-30 Konica Minolta Holdings Inc 光束径拡大光学素子、映像表示装置およびヘッドマウントディスプレイ
US9423397B2 (en) * 2006-03-10 2016-08-23 Indx Lifecare, Inc. Waveguide-based detection system with scanning light source
KR20100030022A (ko) * 2008-09-09 2010-03-18 삼성전기주식회사 광 터치 스크린
US20130181896A1 (en) * 2009-01-23 2013-07-18 Qualcomm Mems Technologies, Inc. Integrated light emitting and light detecting device
JP5281923B2 (ja) * 2009-02-26 2013-09-04 株式会社日立製作所 投射型表示装置
US8072686B2 (en) * 2009-04-02 2011-12-06 GM Global Technology Operations LLC UV laser beamlett on full-windshield head-up display
JP2010271554A (ja) 2009-05-22 2010-12-02 Konica Minolta Opto Inc ホログラム光学素子を用いた映像表示装置
WO2010141453A2 (en) * 2009-06-01 2010-12-09 Han Jefferson Y Touch sensing
JP2011217326A (ja) 2010-04-02 2011-10-27 Seiko Epson Corp 画像処理装置、プロジェクター、画像処理方法
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
US8582209B1 (en) * 2010-11-03 2013-11-12 Google Inc. Curved near-to-eye display
DE102011109999A1 (de) * 2011-08-11 2013-02-14 Lavision Biotec Gmbh Laseranordnung
US20140140091A1 (en) * 2012-11-20 2014-05-22 Sergiy Victorovich Vasylyev Waveguide illumination system
JP5867186B2 (ja) * 2012-03-09 2016-02-24 セイコーエプソン株式会社 虚像表示装置
US9274338B2 (en) * 2012-03-21 2016-03-01 Microsoft Technology Licensing, Llc Increasing field of view of reflective waveguide
JP5998578B2 (ja) * 2012-03-29 2016-09-28 日本精機株式会社 ヘッドアップディスプレイ装置
EP2850482B1 (en) * 2012-05-18 2022-07-27 RealD Spark, LLC Controlling light sources of a directional backlight
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
JP2015528634A (ja) * 2012-08-31 2015-09-28 コーニンクレッカ フィリップス エヌ ヴェ 光散乱粒子を有するライトガイド及び光角度選択モジュールに基づいた照明デバイス
FI128503B (en) * 2013-02-27 2020-06-30 Teknologian Tutkimuskeskus Vtt Oy Sample plate and assay procedure
JP6123365B2 (ja) * 2013-03-11 2017-05-10 セイコーエプソン株式会社 画像表示システム及び頭部装着型表示装置
JP2015015563A (ja) * 2013-07-04 2015-01-22 セイコーエプソン株式会社 画像表示装置
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US20150049122A1 (en) * 2013-08-19 2015-02-19 Pixtronix, Inc. Display Apparatus Configured For Image Formation With Variable Subframes
JP6150253B2 (ja) * 2013-09-26 2017-06-21 アルプス電気株式会社 映像表示装置
US8879858B1 (en) * 2013-10-01 2014-11-04 Gopro, Inc. Multi-channel bit packing engine
US9164290B2 (en) * 2013-11-06 2015-10-20 Microsoft Corporation Grating configurations for a tiled waveguide display
KR20240042677A (ko) * 2013-11-27 2024-04-02 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
JP6295635B2 (ja) 2013-12-18 2018-03-20 株式会社リコー 画像投影装置、画像投影システムおよび画像投影方法
JP6314518B2 (ja) 2014-02-10 2018-04-25 ソニー株式会社 画像表示装置及び表示装置
US9423552B2 (en) * 2014-02-24 2016-08-23 Google Inc. Lightguide device with outcoupling structures
US9465215B2 (en) * 2014-03-28 2016-10-11 Google Inc. Lightguide with multiple in-coupling holograms for head wearable display
US10459241B2 (en) * 2014-04-30 2019-10-29 Hewlett-Packard Development Company, L.P. Imaging apparatus and methods using diffraction-based illumination
CA2950432C (en) * 2014-05-30 2022-01-04 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
EP3165959B1 (en) * 2014-07-01 2018-11-07 Ricoh Company, Ltd. Vehicular display device with improved brightness adjustment regarding to the background illuminance
CN104076519B (zh) * 2014-07-14 2016-08-24 中国科学院自动化研究所 一种方向性背光产生方法和***
US9927614B2 (en) * 2015-12-29 2018-03-27 Microsoft Technology Licensing, Llc Augmented reality display system with variable focus
KR20180102119A (ko) 2016-01-12 2018-09-14 매직 립, 인코포레이티드 가상/증강 현실 시스템에서 빔 각도 센서
AU2017340609B2 (en) * 2016-10-05 2021-12-16 Magic Leap, Inc. Surface modeling systems and methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028594A (ko) * 2020-08-31 2022-03-08 한국전자기술연구원 시역 확장을 위한 프리즘 접합형 도파관 디스플레이 구조체 및 방법

Also Published As

Publication number Publication date
US20190293941A1 (en) 2019-09-26
JP7219242B2 (ja) 2023-02-07
NZ743790A (en) 2023-01-27
US20200333602A1 (en) 2020-10-22
AU2021286374A1 (en) 2022-01-20
CN113777789B (zh) 2023-05-05
EP3403133A1 (en) 2018-11-21
CN113777789A (zh) 2021-12-10
EP3403133B1 (en) 2022-05-11
CN108463767A (zh) 2018-08-28
IL260048B1 (en) 2023-05-01
US10359634B2 (en) 2019-07-23
IL260048B2 (en) 2023-09-01
JP2022010172A (ja) 2022-01-14
JP7394817B2 (ja) 2023-12-08
EP4043944A1 (en) 2022-08-17
WO2017123793A1 (en) 2017-07-20
WO2017123793A9 (en) 2017-10-05
US20200081258A1 (en) 2020-03-12
CA3008032A1 (en) 2017-07-20
US20170199384A1 (en) 2017-07-13
US20180341112A1 (en) 2018-11-29
IL308786A (en) 2024-01-01
JP7029399B2 (ja) 2022-03-03
IL260048A (en) 2018-07-31
CN108463767B (zh) 2021-10-01
US20210116709A1 (en) 2021-04-22
IL302232B1 (en) 2024-01-01
IL302232A (en) 2023-06-01
JP2019503509A (ja) 2019-02-07
AU2017207827B2 (en) 2021-09-30
US10520737B2 (en) 2019-12-31
US10649218B2 (en) 2020-05-12
US11366322B2 (en) 2022-06-21
US10042166B2 (en) 2018-08-07
US10901223B2 (en) 2021-01-26
NZ784100A (en) 2023-01-27
AU2017207827A1 (en) 2018-07-12
JP2020101831A (ja) 2020-07-02
JP2024026190A (ja) 2024-02-28
EP3403133A4 (en) 2019-01-23
IL302232B2 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
US11366322B2 (en) Beam angle sensor in virtual/augmented reality system
EP3821289B1 (en) Systems and methods for display binocular deformation compensation
US10338391B2 (en) Virtual/augmented reality system having reverse angle diffraction grating

Legal Events

Date Code Title Description
E902 Notification of reason for refusal