KR20190118846A - 다초점 증강현실 장치 - Google Patents

다초점 증강현실 장치 Download PDF

Info

Publication number
KR20190118846A
KR20190118846A KR1020180042256A KR20180042256A KR20190118846A KR 20190118846 A KR20190118846 A KR 20190118846A KR 1020180042256 A KR1020180042256 A KR 1020180042256A KR 20180042256 A KR20180042256 A KR 20180042256A KR 20190118846 A KR20190118846 A KR 20190118846A
Authority
KR
South Korea
Prior art keywords
image
augmented reality
multifocal
beam splitter
image providing
Prior art date
Application number
KR1020180042256A
Other languages
English (en)
Inventor
박순기
강민구
김성규
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020180042256A priority Critical patent/KR20190118846A/ko
Priority to US16/129,636 priority patent/US10746990B2/en
Publication of KR20190118846A publication Critical patent/KR20190118846A/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0905Dividing and/or superposing multiple light beams
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/144Beam splitting or combining systems operating by reflection only using partially transparent surfaces without spectral selectivity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/40Optical focusing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/013Head-up displays characterised by optical features comprising a combiner of particular shape, e.g. curvature
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 다초점 증강현실 장치로서, 복수의 영상 제공 장치들로부터 출력되는 서로 다른 깊이에 위치한 복수의 영상들을 제공하는 다초점 디스플레이부; 및 상기 다초점 디스플레이부에서 제공된 영상과 외부 영상을 합성하여 출력하는 증강현실 영상 합성부를 포함한다.

Description

다초점 증강현실 장치{MULTI-FOCAL AUGMENTED REALITY DEVICE}
본 발명은 증강현실 장치에 관한 것으로서, 보다 상세하게는 증강현실을 제공하는 두부 장착형 다초점 조절 3차원 디스플레이 장치에 관한 것이다.
종래의 증강현실 또는 가상현실 HMD(Head Mounted Display) 상용 제품은 양안 시차방식의 입체 영상을 제공할 수는 있지만, 각각의 눈의 조절 정보를 제공할 수 없어, 눈의 피로현상과 주시 깊이에 따른 영상의 흐려짐 등에 대한 근본적인 문제로 인하여 대중화에 지장을 초래한다. 또한, 종래의 증강현실 디스플레이 방식은 무한대 깊이 내지는 중거리 이상의 깊이에 단일 초점 만을 제공하는바, 사용자가 손과 인터랙션하게 되는 근거리(0.3-0.8m)에 위치한 물체를 관찰할 때에 영상의 초점 위치와 사용자가 응시하는 물체의 초점 위치가 어긋나게 되어 시각 피로를 유발하는 문제가 있다.
예를 들어, 사바르트(Savart)판을 이용한 소형 3차원 두부 장착형 디스플레이는 편광에 따라 서로 다른 광경로를 갖는 사바르트판을 이용하여 다초점을 제공하나, 시간 다중화 방식을 사용하므로 구현되는 영상의 비디오 프레임 레이트(video frame rate)가 감소하고, 진동/온도 변화에 민감함 복굴절 소재(예를 들어, 방해석)를 사용하므로 시스템의 장기적 안정성이 떨어지는 문제가 있다. 다른 예를 들어, 적층 액정 패널 구조와 압축 광계 디스플레이 방식을 적용하여 초점 조절요인을 제공하는 두부 장착형 디스플레이 장치는 밀폐형(Closed-type)이므로 증강현실 구현을 위한 시스루(see-through) 광학계가 추가적으로 요구되고, 적층형 액정 구조로 인한 회절효과 발생으로 영상의 화질 감소요인이 발생하는 문제가 있다. 다른 예를 들어, 투시형 디스플레이 장치는 복수의 경로에 따른 복수의 영상을 사용자에게 전달하는 다중 경로 광학 부재 및 이방성 광학 부재를 포함하는 것으로서, 다초점 영상의 구현이 아닌 이방성 광학부재를 사용한 두 경로영상의 합성에 초점이 맞추어진 문제가 있다.
한국공개특허 제10-2017-0107750호
본 발명의 목적은 근거리 영상을 담당하는 추가 영상 제공 장치와 안구 추적 센서를 이용하여, 사용자의 응시점이 근거리영역에 위치하게 되면 구동되는 영상 제공 장치를 변경하여 초점이 어긋나는 문제를 완화하는 다초점 증강현실 장치를 제공하는데 있다.
본 발명의 목적은 복수의 영상 제공 장치들을 이용하여 추가적인 깊이 평면을 제공하고, 빔 스플리터를 적용한 광경로의 합성으로 추가적인 깊이 평면을 제공하고, 안구 추적을 통해 사용자의 응시점과 가장 가까운 깊이에 있는 영상만을 구동하여 조절-수렴 불일치 문제를 최소화하고, 초점 조절로 인한 시각 피로 최소화로 증강현실 또는 가상현실 헤드 마운티드 디스플레이(HMD)의 장시간 사용의 편의성을 획기적으로 높이는 다초점 증강현실 장치를 제공하는데 있다.
상기 목적을 달성하기 위한 본 발명의 제1 측면은, 다초점 증강현실 장치로서, 복수의 영상 제공 장치들로부터 출력되는 서로 다른 깊이에 위치한 복수의 영상들을 제공하는 다초점 디스플레이부; 및 상기 다초점 디스플레이부에서 제공된 영상과 외부 영상을 합성하여 출력하는 증강현실 영상 합성부를 포함한다.
바람직하게, 상기 복수의 영상 제공 장치들 각각은, 서로 다른 깊이에 위치한 복수의 영상들을 제공하기 위하여, 상기 다초점 디스플레이부 및 상기 증강현실 영상 합성부 사이에 배치된 렌즈와의 거리가 서로 다르게 배치될 수 있다.
바람직하게, 상기 다초점 디스플레이부는, 상기 복수의 영상 제공 장치들로부터 제공된 복수의 영상들이 사용자에 의하여 동일한 위치에서 관찰될 수 있도록, 상기 복수의 영상 중 일부는 투과시키고 다른 일부는 반사시켜 복수의 영상들의 진행 방향을 일치시키는 빔 스플리터를 포함할 수 있다.
바람직하게, 상기 빔 스플리터는 상기 복수의 영상 제공 장치들의 개수보다 1개 적을 수 있다.
바람직하게, 상기 증강현실 영상 합성부는, 상기 다초점 디스플레이부에서 제공된 영상과 외부 영상을 합성하기 위한 빔 스플리터를 포함하되, 상기 빔 스플리터는, 상기 다초점 디스플레이부에서 제공된 영상은 반사시키고 상기 외부 영상은 투과하도록 배치될 수 있고, 상기 빔 스플리터를 통하여 합성된 영상은 스테레오스코픽 3차원 방식으로 제공될 수 있다.
바람직하게, 상기 증강현실 영상 합성부는, 상기 다초점 디스플레이부에서 제공된 영상과 외부 영상을 합성하기 위한 빔 스플리터 및 오목거울을 포함하되, 상기 빔 스플리터는, 상기 다초점 디스플레이부에서 제공되어 상기 빔 스플리터를 투과한 후 상기 오목거울에 의하여 반사된 영상을 반사시키고, 상기 외부 영상은 투과하도록 배치될 수 있다.
바람직하게, 상기 증강현실 영상 합성부를 통하여 출력된 영상이 기설정된 특정 깊이에서 관찰될 수 있도록, 상기 복수의 영상 제공 장치들로부터 제공된 영상들을 처리하는 제어부를 더 포함할 수 있다.
바람직하게, 상기 제어부는, 상기 복수의 영상 제공 장치들로부터 제공된 영상들의 밝기 비율을 조정하는 선형 깊이 혼합법(depth-fused 3D), 또는 상기 영상들을 구성하는 각 광선을 상기 특정 깊이에 위치한 화소의 합 또는 곱으로 표현하는 압축 광계 표시법(compressive light field display)을 적용할 수 있다.
바람직하게, 상기 증강현실 영상 합성부에서 출력되는 영상을 응시하는 사용자의 안구를 추적하는 안구 추적 센서; 및 상기 안구 추적 센서와 연동하여, 상기 안구 추적 센서로부터 수신한 정보들을 기초로 상기 복수의 영상 제공 장치들 중 일부만을 선택적으로 구동시키는 제어부를 더 포함할 수 있다.
바람직하게, 상기 제어부는, 상기 안구 추적 센서로부터 획득된 양안의 동공 중심간의 거리와 양안 수렴 각도를 기초로 상기 사용자의 안구 응시 깊이를 측정하고, 상기 복수의 영상 제공 장치들 중 상기 안구 응시 깊이와 가장 가깝게 위치하는 영상을 제공하는 영상 제공 장치만 구동시킬 수 있다.
바람직하게, 상기 복수의 영상 제공 장치들은, OLED(organic light emitting diode), LCD(liquid crystal display), LCoS(liquid crystal on silicon), DMD(digital micro mirror), 또는 MEMS(micro-electro-mechanical system) 주사 거울에 해당할 수 있다.
상기한 바와 같이 본 발명에 의하면, 근거리 증강현실 영상 관찰시 시각피로를 줄일 수 있고, 빔 스플리터를 사용한 간단한 구성으로 구현이 용이하여 다양한 가상현실 장치 또는 증강현실 장치에 응용 가능성이 높고, 시점 추적과 연동하거나, 깊이 융합 3차원, 압축 광계 표시법 등을 적용하여 최적의 가상 영상을 구현하는 것이 가능한 효과가 있다.
도 1은 본 발명의 바람직한 실시예에 따른 다초점 증강현실 장치를 나타내는 구성도이다.
도 2는 도 1의 다초점 증강현실 장치를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 다초점 증강현실 장치를 나타내는 구성도이다.
도 4는 다른 실시예에 따른 다초점 증강현실 장치를 나타내는 구성도이다.
도 5 및 6은 다초점 증강현실을 제공하는 방법을 설명하기 위한 예시도이다.
이하, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 “포함한다(comprises)" 및/또는 “포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 다초점 증강현실 장치를 나타내는 구성도이다.
도 1을 참조하면, 다초점 증강현실 장치(100)는 다초점 디스플레이부(110), 증강현실 영상 합성부(120), 다초점 디스플레이부(110) 및 증강현실 영상 합성부(120) 사이에 배치된 렌즈(130), 및 사용자의 안구의 움직임을 추적하는 안구 추적 센서(140)를 포함할 수 있다.
다초점 디스플레이부(110)는 복수의 영상 제공장치들(111 및 112)로부터 출력되는 서로 다른 깊이에 위치한 복수의 영상들을 제공하는 구성으로서, 복수의 영상 제공 장치들(111 및 112) 및 빔 스플리터(113)를 포함할 수 있다.
바람직하게, 복수의 영상 제공 장치들(111 및 112) 각각은 렌즈(130)와의 거리가 서로 다르게 배치되어 서로 다른 깊이에 위치한 복수의 가상 영상들을 제공할 수 있고, 렌즈(130)에 의하여 가상 영상들은 사용자가 원하는 깊이에 위치될 수 있다. 예를 들어, 영상 제공 장치는 OLED(organic light emitting diode), LCD(liquid crystal display), LCoS(liquid crystal on silicon), DMD(digital micro mirror), 또는 MEMS(micro-electro-mechanical system) 주사 거울에 해당할 수 있다.
일 실시예에서, 복수의 영상 제공 장치들(111 및 112)의 밝기 균일도, 색상 균일도, 또는 수차 왜곡은 보정될 수 있고, 관찰 영역이 동일하게 관찰되도록 정렬될 수 있다. 보다 구체적으로, 복수의 영상 제공 장치들(111 및 112)의 밝기 균일도의 차이는 종래의 영상 처리 방법을 적용하여 보정이 가능하고, 예를 들어, 영상 제공 장치(111)는 100 cd/m2, 영상 제공 장치(112)는 200 cd/m2의 밝기를 갖는 경우, 영상 제공 장치(112)에 입력되는 영상 자체의 입력값을 1/2로 하는 방식으로 밝기 균일도의 차이가 조정될 수 있다. 즉, 영상 제공 장치(111)의 영상 밝기 입력값이 100일 때, 영상 제공 장치(112)의 영상 밝기 입력값을 50으로 수정함으로써, 복수의 영상 제공 장치들(111 및 112)이 모두 100 cd/m2의 밝기를 갖도록 하는 것이다. 색상 균일도의 경우, 복수의 영상 제공 장치들(111 및 112)의 각 색상에 대해 밝기 균일도를 보정함으로써 구현이 가능하다. 수차 왜곡 보정의 경우, 렌즈(130)에 의하여 왜곡 되는 것과 반대되는 정도의 사전 왜곡(pre-distorted) 영상을 표시함으로써 구현이 가능하며, 여기에는 HMD에서 일반적으로 이용되는 영상 처리 방법이 적용될 수 있다. 관찰 영역(즉, 관찰되는 영상의 크기)이 동일하게 관찰되도록 정렬하는 경우, 복수의 영상 제공 장치들(111 및 112) 중 더 작게 보이는 영상 제공 장치의 영역에 맞추어 크게 보이는 영상 제공 장치의 영역을 크롭(crop)하는 것을 통하여 복수의 영상 제공 장치들(111 및 112)에 의하여 출력되는 영상의 크기를 일치시킬 수 있다.바람직하게, 빔 스플리터(113)는 복수의 영상 제공 장치들(111 및 112)로부터 제공된 복수의 영상들이 사용자에 의하여 동일한 위치에서 관찰될 수 있도록, 복수의 영상들 중 일부는 투과시키고 다른 일부는 반사시켜 복수의 영상들의 진행방향을 일치시킨다. 여기에서, 빔 스플리터(113)는 반거울에 해당할 수 있고, 빔 스플리터(113)의 개수는 영상 제공 장치의 개수보다 1개 적다.
증강현실 영상 합성부(120)는 다초점 디스플레이부(110)에서 제공된 영상과 외부 영상을 합성하여 출력하는 구성으로서, 빔 스플리터(121)를 포함할 수 있다.
바람직하게, 빔 스플리터(121)는 다초점 디스플레이부(110)에서 제공된 영상을 반사시키고 외부 영상은 투과하도록 배치되어 다초점 디스플레이부(110)에서 제공된 영상과 외부 영상을 합성시킨다. 여기에서, 빔 스플리터(121)에 의하여 합성된 영상은 스테레오스코픽 3차원 방식으로 제공될 수 있다. 또한, 복수의 영상 제공 장치들(111 및 112)이 편광을 적용하는 LCD, LCoS, 또는 OLED에 해당하는 경우, 빔 스플리터(121)는 편광 빔 스플리터가 사용되어 영상의 밝기 손실이 최소화 되도록 할 수 있다.
바람직하게, 빔 스플리터(113 및 121)의 투과 및 반사 비율은 사용자가 관찰할 때 각 영상 제공 장치에서 출력된 영상의 밝기가 동일하도록 조절될 수 있고, 예를 들어, 빔 스플리터(113 및 121)의 투과 및 반사 비율은 50:50에 해당할 수 있다. 여기에서, 빔 스플리터(113 및 121)의 투과 및 반사 비율은 빔 스플리터의 제작시 금속 코팅의 두께를 조절하는 것에 의하여 결정될 수 있고, 예를 들어, 금속 코팅 두께를 두껍게 하면 반사율은 높아지고 투과율은 낮아지며, 금속 코팅 두께를 얇게 하면 반사율은 높아지고 투과율은 낮아질 수 있다.
보다 구체적으로, 도 2를 참조하면, 다초점 디스플레이부(110)의 영상 제공 장치(111)로부터 출력된 영상은 빔 스플리터(113)에 반사된 후 렌즈(130)를 통과하여 증강현실 영상 합성부(120)에 제공되고, 영상 제공 장치(112)로부터 출력된 영상은 빔 스플리터(113)를 투과한 후 렌즈(13)를 통과하여 증강현실 영상 합성부(120)에 제공된다. 그 다음, 다초점 디스플레이부(110)에서 제공된 영상들은 증강현실 영상 합성부(120)의 빔 스플리터(121)에 반사되고 외부 영상은 빔 스플리터(121)를 투과하여 서로 합성되고, 사용자는 복수의 영상 제공 장치들(111 및 112)로부터 출력된 영상과 외부 영상이 합성된 가상 영상을 관찰할 수 있게 된다.
여기에서, 영상 제공 장치로부터 출력되는 가상 영상의 깊이는 각 영상 제공 장치와 렌즈(130)와의 거리에 따라 결정된다. 바람직하게, 렌즈(130)의 초점거리가 f인 경우, 렌즈(130)로부터 dn 만큼 떨어진 영상 제공 장치의 가상 깊이 vn은 아래의 [식 1]에 따라 결정될 수 있다.
[식 1]
Figure pat00001
도 2를 참조하면, d1은 영상 제공 장치(111-1)와 렌즈(130)간의 거리로서, 영상 제공 장치(111-1)는 빔 스플리터(113)에 의한 영상 제공 장치(111)의 상에 해당하고, v1은 [식 1]에 따라 결정된, 빔 스플리터(121)에 의한 영상 제공 장치(111)로부터 출력된 영상(111-2)의 가상 깊이이며, d2는 영상 제공 장치(112)와 렌즈(130) 간의 거리이고 v2는 [식 1]에 따라 결정된, 빔 스플리터(121)에 의한 영상 제공 장치(112)로부터 출력된 영상(112-2)의 가상 깊이이다.
이하에서는, 도 1 및 2에 도시된 다초점 증강현실 장치(100)를 기초로 변형 가능한 다초점 증강현실 장치의 실시예들에 대하여 설명한다. 또한, 이하에서 설명될 일 실시예에 따른 다초점 증강현실 장치들에서, 상기 도 1 및 2를 참조하여 설명된 구성과 동일한 구성에 대하여는 상세한 설명을 생략한다.
도 3은 일 실시예에 따른 다초점 증강현실 장치를 나타내는 구성도이다.
도 3을 참조하면, 다초점 증강현실 장치(200)의 다초점 디스플레이부(110)는 복수의 영상 제공 장치들(111 및 112), 및 빔 스플리터(113)를 포함하고, 증강현실 영상 합성부(120)는 다초점 디스플레이부(110)에서 제공된 영상과 외부 영상을 합성하기 위한 빔 스플리터(121) 및 오목거울(122)을 포함한다. 여기에서, 빔 스플리터(121)는 다초점 디스플레이부(110)에서 제공되어 빔 스플리터(121)를 투과한 후 오목거울(122)에 의하여 반사된 영상을 반사시키고, 외부 영상은 투과하도록 배치될 수 있다. 또한, 도 3의 실시예에서 수차 보정 등을 위하여, 렌즈가 추가적으로 배치될 수도 있다.
보다 구체적으로, 다초점 디스플레이부(110)의 영상 제공 장치(111)로부터 출력된 영상은 빔 스플리터(113)에 반사된 후 증강현실 영상 합성부(120)에 제공되고, 영상 제공 장치(112)로부터 출력된 영상은 빔 스플리터(113)를 투과한 후 증강현실 영상 합성부(120)에 제공된다. 그 다음, 다초점 디스플레이부(110)에서 제공된 영상들은 증강현실 영상 합성부(120)의 빔 스플리터(121)를 투과하여 오목거울(122)에 도달하고 오목거울(122)에 의하여 반사된 영상들은 빔 스플리터(121)에 반사되며, 빔 스플리터(121)를 투과한 외부 영상과 합성된다. 이에 따라 사용자는 복수의 영상 제공 장치들(111 및 112)로부터 출력된 영상과 외부 영상이 합성된 가상 영상을 관찰할 수 있게 된다.
도 4는 다른 실시예에 따른 다초점 증강현실 장치를 나타내는 구성도이다.
도 4를 참조하면, 다초점 증강현실 장치(300)의 다초점 디스플레이부(110)는 복수의 영상 제공 장치들(111, 112, 및 114), 및 복수의 빔 스플리터들(113 및 115)을 포함하고, 증강현실 영상 합성부(120)는 다초점 디스플레이부(110)에서 제공된 영상과 외부 영상을 합성하기 위한 빔 스플리터(121) 및 오목거울(122)을 포함한다. 여기에서, 증강현실 영상 합성부(120)의 구성은 도 3에 도시된 다초점 증강현실 장치(300)의 증강현실 영상 합성부(120)의 구성과 동일하다.
도 4에 도시된 바와 같이 3개 이상의 복수의 영상 제공 장치들(111, 112, 및 114)이 사용되는 경우, 추가적인 빔 스플리터(115)가 사용될 수 있고, 복수의 영상 제공 장치들(111, 112, 및 114)로부터 출력되는 영상의 합성을 위해 요구되는 빔 스플리터의 개수는 아래의 [식 2]에 따라 결정될 수 있다.
[식 2]
Figure pat00002
여기에서, nm은 빔 스플리터의 개수이고, nd는 영상 제공 장치의 개수이다.
바람직하게, 복수의 빔 스플리터들(113 및 115)의 투과 및 반사 비율은 복수의 영상 제공 장치들(111, 112, 및 114)의 개수에 따라 변경될 수 있다. 보다 구체적으로, 복수의 빔 스플리터들(113 및 115) 각각의 투과 및 반사비율은 각각의 영상 제공 장치들로부터 출력된 영상이 안구에 도달하기 까지 투과 및 반사되는 회수와 해당 빔 스플리터에서의 투과 및 반사율을 곱한 값이 일치하도록 결정될 수 있다. 예를 들어, 동일한 밝기의 복수의 빔 스플리터들(113 및 115)이 사용된다고 가정할 때, 도 4의 빔 스플리터(113)의 경우에는 2개의 영상 제공 장치들(111 및 112)로부터 출력된 영상을 직접 투과 및 반사시키므로 1:1의 비율을 가져야 하고, 빔 스플리터(115)의 경우에는 빔 스플리터(113)를 지나 밝기가 1/2로 감소한 투과 영상과 직접 반사된 영상, 즉, 영상 제공 장치(114)로부터 출력된 영상을 합성하게 되므로 투과 및 반사 비율은 2:1로 결정될 수 있다. 이를 일반화하면, nd개의 영상 제공 장치를 사용할 때, 가장 마지막에 배치되는 빔 스플리터의 투과 및 반사율의 비는 nm:1이 될 수 있고, 이 때, 최종적으로 관찰되는 다초점 영상의 밝기는 원래 디스플레이 밝기의 1/nm으로 감소하게 된다.
바람직하게, 다초점 디스플레이(110)의 영상 제공 장치(111)로부터 출력된 영상은 빔 스플리터(113)에 반사되고 빔 스플리터(115)를 투과한 후 증강현실 영상 합성부(120)에 제공되고, 영상 제공 장치(112)로부터 출력된 영상은 복수의 빔 스플리터들(113 및 115)을 투과한 후 증강현실 영상 합성부(120)에 제공되고, 영상 제공 장치(114)로부터 출력된 영상은 빔 스플리터(115)를 투과한 후 증강현실 영상 합성부(120)에 제공된다. 그 다음, 다초점 디스플레이부(110)에서 제공된 영상들은 증강현실 영상 합성부(120)의 빔 스플리터(121)를 투과하고 오목거울(122)에 의하여 반사되고 다시 빔 스플리터(121)에 의하여 반사되고, 빔 스플리터(121)를 투과한 외부 영상과 합성 된 후 사용자에게 제공된다.
일 실시예에서, 도 1 내지 4를 참조하여 설명한 다초점 증강현실 장치는 제어부(도면에 도시되지 않음)를 더 포함할 수 있고, 제어부는, 사용자에 의한 근거리 증강현실 영상 관찰시 시각피로를 줄일 수 있도록, 복수의 영상 제공 장치들을 선택적으로 구동시키거나 또는 복수의 영상 제공 장치들로부터 출력되는 영상을 처리하여 특정 깊이에서 증강현실 영상이 관찰될 수 있도록 할 수 있다. 이하에서는, 도 5 및 도 6을 참조하여, 제어부에서 수행되는 동작을 설명한다. 도 5 및 도 6에서는 복수의 영상 제공 장치들(111 및 112)의 가상 영상(111-2 및 112-2)이 특정 깊이에서 출력된 경우를 예시로 도시한 것으로서, 이하의 설명은 도 1 내지 4를 참조하여 설명한 다초점 증강현실 장치에 모두 적용될 수 있고, 영상 제공 장치의 개수가 3개 이상인 경우에도 동일하게 적용될 수 있다.
도 5를 참조하면, 제어부에 의하여 복수의 영상 장치들이 선택적으로 구동되는 경우의 예시를 나타낸 것으로서, 제어부는 안구 추적 센서(140)와 연동하여, 안구 추적 센서(140)로부터 수신한 정보들을 기초로 복수의 영상 제공 장치들 중 일부만을 선택적으로 구동시킬 수 있다. 바람직하게, 제어부는 안구 추적 센서(140)로부터 획득된 양안의 동공 중심간의 거리와 양안 수렴 각도를 기초로 사용자의 안구 응시 깊이를 측정하고, 복수의 영상 제공 장치들 중 안구 응시 깊이와 가장 가깝게 위치하는 영상을 제공하는 영상 제공 장치만 구동시킬 수 있다. 예를 들어, 도 5에서 안구 응시 깊이와 가장 가깝에 위치하는 영상은 영상 제공 장치(112)로부터 제공된 가상 영상(112-2)에 해당하는 바, 제어부는 영상 제공 장치(111)는 구동시키기 않고, 영상 제공 장치(112)만이 구동되도록 할 수 있다.
바람직하게, 제어부는 안구 응시 깊이와 가상 영상 깊이를 각각 디옵터로 환산한 후 디옵터 환산 수치를 이용하여 선택적으로 구동시킬 특정 영상 제공 장치를 결정할 수 있다. 예를 들어, 제어부는 안구 응시 깊이 및 가상 영상 깊이 각각을 디옵터로 환산하고, 안구 응시 깊이의 디옵터 환산 수치와 가상 영상 깊이의 디옵터 환산 수치의 차이가 사용자 눈의 심도 범위(예를 들어, 0.3디옵터(D)) 이내가 되도록 복수의 영상 제공 장치들 중 1개를 선택적으로 구동시킬 수 있다. 또는, 위의 조건을 만족하는 영상 제공 장치가 없는 경우, 제어부는 안구 응시 깊이의 디옵터 환산 수치와 가상 영상 깊이의 디옵터 환산 수치의 차이가 사용자의 시각 피로 저감 범위(예를 들어, 0.5D) 이내가 되도록 복수의 영상 제공 장치들 중 1개를 선택적으로 구동시킬 수 있다. 또는 위의 두 조건을 만족하는 영상 제공 장치가 없는 경우, 제어부는 안구 응시 깊이의 디옵터 환산 수치와 가상 영상 깊이의 디옵터 환산 수치의 차이가 최소가 되도록 하는 영상 제공 장치를 1개 선택하여 구동시킬 수 있다.
도 6을 참조하면, 특정 깊이에서 증강현실 영상이 관찰되도록, 제어부가 영상들을 처리하는 경우의 예시를 나타낸 것으로서, 이 경우, 도 1 내지 도 4를 참조하여 설명된 다초점 증강현실 장치에서 안구 추적 센서(140)는 구비되지 않아도 무관하다. 바람직하게, 제어부는 복수의 영상 제공 장치들(111 및 112)로부터 제공된 영상들의 밝기 비율을 조정하는 선형 깊이 혼합법(depth-fused 3D), 또는 영상들을 구성하는 각 광선을 특정 깊이에 위치한 화소의 합 또는 곱으로 표현하는 압축 광계 표시법(compressive light field display)을 이용하여 복수의 영상 제공 장치들(111 및 112)로부터 제공된 영상들을 처리하여 증강현실 영상 합성부(120)를 통하여 출력된 영상이 기설정된 특정 깊이에서 관찰될 수 있도록 할 수 있다. 즉, 도 6에서 영상 제공 장치들로부터 제공된 가상 영상들(111-2 및 112-2)의 깊이 사이의 어느 지점에 가상 영상이 위치한 것처럼 영상이 처리될 수 있는 것이다.
여기에서, 선형 깊이 혼합법은 서로 다른 깊이에 위치한 영상 평면에서, 동일한 시선축 상에 위치한 영상의 밝기 비율을 조정하여, 두 깊이 사이의 어느 지점에 영상이 위치한 것처럼 보이도록 하는 것이다. 압축 광계 표시법은 공간을 통과하는 광선 1개를 서로 다른 깊이에 위치한 각각의 깊이 영상면에 위치한 화소의 합 또는 곱으로 표현하는 방법으로서, 공간을 통과하는 실제 3차원 영상에서 나오는 빛은 광선 다발로 모사될 수 있는 바, 각 광선은 수학적으로 벡터의 곱으로 표현될 수 있고 광선 다발의 경우 광선 벡터가 여러 개가 되므로 벡터가 합쳐진 광선 투사 행렬로 표현될 수 있다. 본 발명에서는 가산 압축 광계법(additive compressive light field)이 적용될 수 있고, 아래의 [식 3]과 같이 광선 다발은 광선 투사 행렬과 화소 벡터의 행렬 곱으로 표현될 수 있다.
[식 3]
Figure pat00003
여기에서, L(g, h1)은 광선을 나타내는 벡터이고, δi는 i번째가 1이고 나머지는 0의 값을 갖는 투사벡터이고, I(x)는 화소벡터이다.
본 발명은, 위에서 설명된 바와 같이, 제어부에서 수행되는 영상 제공 장치의 선택적 구동 및 영상 처리를 통하여, 근거리 관찰시 사용자의 응시점과 가상 영상이 제공되는 깊이의 차이를 최소화하거나 또는 일치시키므로, 초점이 어긋남으로 인한 시각 피로를 최소화할 수 있다.
전술한 본 발명에 따른 다초점 증강현실 장치에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.
100, 200, 및 300: 다초점 증강현실 장치
110: 다초점 디스플레이부
111, 112, 및 114: 영상 제공 장치
113 및 115: 빔 스플리터
120: 증강현실 영상 합성부
121: 빔 스플리터
122: 오목 거울
130: 렌즈
140: 안구 추적 센서

Claims (11)

  1. 복수의 영상 제공 장치들로부터 출력되는 서로 다른 깊이에 위치한 복수의 영상들을 제공하는 다초점 디스플레이부; 및
    상기 다초점 디스플레이부에서 제공된 영상과 외부 영상을 합성하여 출력하는 증강현실 영상 합성부를 포함하는 다초점 증강현실 장치.
  2. 제1항에 있어서,
    상기 복수의 영상 제공 장치들 각각은, 서로 다른 깊이에 위치한 복수의 영상들을 제공하기 위하여, 상기 다초점 디스플레이부 및 상기 증강현실 영상 합성부 사이에 배치된 렌즈와의 거리가 서로 다르게 배치되는 것을 특징으로 하는 다초점 증강현실 장치.
  3. 제1항에 있어서, 상기 다초점 디스플레이부는,
    상기 복수의 영상 제공 장치들로부터 제공된 복수의 영상들이 사용자에 의하여 동일한 위치에서 관찰될 수 있도록, 상기 복수의 영상들 중 일부는 투과시키고 다른 일부는 반사시켜 복수의 영상들의 진행 방향을 일치시키는 빔 스플리터를 포함하는 것을 특징으로 하는 다초점 증강현실 장치.
  4. 제3항에 있어서,
    상기 빔 스플리터는 상기 복수의 영상 제공 장치들의 개수보다 1개 적은 것을 특징으로 하는 다초점 증강현실 장치.
  5. 제1항에 있어서, 상기 증강현실 영상 합성부는,
    상기 다초점 디스플레이부에서 제공된 영상과 외부 영상을 합성하기 위한 빔 스플리터를 포함하되,
    상기 빔 스플리터는, 상기 다초점 디스플레이부에서 제공된 영상은 반사시키고 상기 외부 영상은 투과하도록 배치될 수 있고, 상기 빔 스플리터를 통하여 합성된 영상은 스테레오스코픽 3차원 방식으로 제공되는 것을 특징으로 하는 다초점 증강현실 장치.
  6. 제1항에 있어서, 상기 증강현실 영상 합성부는,
    상기 다초점 디스플레이부에서 제공된 영상과 외부 영상을 합성하기 위한 빔 스플리터 및 오목거울을 포함하되,
    상기 빔 스플리터는, 상기 다초점 디스플레이부에서 제공되어 상기 빔 스플리터를 투과한 후 상기 오목거울에 의하여 반사된 영상을 반사시키고, 상기 외부 영상은 투과하도록 배치되는 것을 특징으로 하는 다초점 증강현실 장치.
  7. 제1항에 있어서,
    상기 증강현실 영상 합성부를 통하여 출력된 영상이 기설정된 특정 깊이에서 관찰될 수 있도록, 상기 복수의 영상 제공 장치들로부터 제공된 영상들을 처리하는 제어부를 더 포함하는 것을 특징으로 하는 다초점 증강현실 장치.
  8. 제7항에 있어서, 상기 제어부는,
    상기 복수의 영상 제공 장치들로부터 제공된 영상들의 밝기 비율을 조정하는 선형 깊이 혼합법(depth-fused 3D), 또는 상기 영상들을 구성하는 각 광선을 상기 특정 깊이에 위치한 화소의 합 또는 곱으로 표현하는 압축 광계 표시법(compressive light field display)을 적용하는 것을 특징으로 하는 다초점 증강현실 장치.
  9. 제1항에 있어서,
    상기 증강현실 영상 합성부에서 출력되는 영상을 응시하는 사용자의 안구를 추적하는 안구 추적 센서; 및
    상기 안구 추적 센서와 연동하여, 상기 안구 추적 센서로부터 수신한 정보들을 기초로 상기 복수의 영상 제공 장치들 중 일부만을 선택적으로 구동시키는 제어부를 더 포함하는 것을 특징으로 하는 다초점 증강현실 장치.
  10. 제9항에 있어서, 상기 제어부는,
    상기 안구 추적 센서로부터 획득된 양안의 동공 중심간의 거리와 양안 수렴 각도를 기초로 상기 사용자의 안구 응시 깊이를 측정하고, 상기 복수의 영상 제공 장치들 중 상기 안구 응시 깊이와 가장 가깝게 위치하는 영상을 제공하는 영상 제공 장치만 구동시키는 것을 특징으로 하는 다초점 증강현실 장치.
  11. 제1항에 있어서, 상기 복수의 영상 제공 장치들은,
    OLED(organic light emitting diode), LCD(liquid crystal display), LCoS(liquid crystal on silicon), DMD(digital micro mirror), 또는 MEMS(micro-electro-mechanical system) 주사 거울에 해당하는 것을 특징으로 하는 다초점 증강현실 장치.
KR1020180042256A 2018-04-11 2018-04-11 다초점 증강현실 장치 KR20190118846A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180042256A KR20190118846A (ko) 2018-04-11 2018-04-11 다초점 증강현실 장치
US16/129,636 US10746990B2 (en) 2018-04-11 2018-09-12 Multi-focal augmented reality device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180042256A KR20190118846A (ko) 2018-04-11 2018-04-11 다초점 증강현실 장치

Publications (1)

Publication Number Publication Date
KR20190118846A true KR20190118846A (ko) 2019-10-21

Family

ID=68161519

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180042256A KR20190118846A (ko) 2018-04-11 2018-04-11 다초점 증강현실 장치

Country Status (2)

Country Link
US (1) US10746990B2 (ko)
KR (1) KR20190118846A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11553171B2 (en) 2020-09-04 2023-01-10 Samsung Display Co., Ltd. Light field display device and method of processing image of the same
US11852823B2 (en) 2020-10-08 2023-12-26 Samsung Electronics Co., Ltd. Device and method for measuring depth of object
WO2024029680A1 (ko) * 2022-08-05 2024-02-08 숙명여자대학교산학협력단 자동차 내부 카메라를 이용한 hud 캘리브레이션 방법 및 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109683320A (zh) * 2019-02-20 2019-04-26 京东方科技集团股份有限公司 显示装置和显示方法
US10819898B1 (en) * 2019-06-21 2020-10-27 Facebook Technologies, Llc Imaging device with field-of-view shift control
CN111338081A (zh) * 2020-03-12 2020-06-26 京东方科技集团股份有限公司 Ar光学***和ar显示设备
CN113419350B (zh) * 2021-06-18 2023-05-23 深圳市腾讯计算机***有限公司 虚拟现实显示设备、画面呈现方法、装置及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107750A (ko) 2016-03-16 2017-09-26 삼성전자주식회사 투시형 디스플레이 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09331552A (ja) 1996-06-10 1997-12-22 Atr Tsushin Syst Kenkyusho:Kk 多焦点式頭部搭載型ディスプレイ
CA2885563C (en) 2012-10-18 2021-02-09 The Arizona Board Of Regents On Behalf Of The University Of Arizona Stereoscopic displays with addressable focus cues
AU2015227092B2 (en) 2014-03-05 2019-07-04 Arizona Board Of Regents On Behalf Of The University Of Arizona Wearable 3D augmented reality display
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6391423B2 (ja) 2014-10-24 2018-09-19 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像抽出装置、画像生成方法、および画像抽出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107750A (ko) 2016-03-16 2017-09-26 삼성전자주식회사 투시형 디스플레이 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
C.-K. Lee et al., "Compact three-dimensional head-mounted display system with Savart plate," Opt. Express 24, 19531-19544 (2016)
F. Huang et al., ""The light field stereoscope: Immersive computer graphics via factored near-eye light field displays with focus cues,"" ACM SIGGRAPH, vol. 33, no. 5, 2015.

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11553171B2 (en) 2020-09-04 2023-01-10 Samsung Display Co., Ltd. Light field display device and method of processing image of the same
US11852823B2 (en) 2020-10-08 2023-12-26 Samsung Electronics Co., Ltd. Device and method for measuring depth of object
WO2024029680A1 (ko) * 2022-08-05 2024-02-08 숙명여자대학교산학협력단 자동차 내부 카메라를 이용한 hud 캘리브레이션 방법 및 장치

Also Published As

Publication number Publication date
US10746990B2 (en) 2020-08-18
US20190317320A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
KR20190118846A (ko) 다초점 증강현실 장치
US20220413300A1 (en) Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
US10156722B2 (en) Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
KR102139268B1 (ko) 눈 투영 시스템
US5926318A (en) Biocular viewing system with intermediate image planes for an electronic display device
US7414792B2 (en) Method of changing the inter-pupilar distance of a head mounted display while maintaining a constant optical path length
CN107111142B (zh) 具有弯曲的微透镜阵列的头戴式成像装置
WO2015145119A1 (en) Display system
CN104220921B (zh) 用于从单个投影仪流送多个图像的***和方法
AU2008227081A1 (en) Multiple imaging arrangements for head mounted displays
US8009949B1 (en) Fiber bundle head up display
JP7093729B2 (ja) シースルー表示システム
US20170176750A1 (en) Display apparatus
KR102098287B1 (ko) 편광 변조 다초점 두부 장착형 디스플레이 장치
JP2001512849A (ja) 三次元的像ディスプレイ
TW201546490A (zh) 陣列式寬屏抬頭顯示裝置
Yoshikaie et al. 68‐1: Invited Paper: A Waveguide‐type Retinal Scan AR Display with Pupil Expansion System
JP2019049724A (ja) 目用投影システム
KR102524150B1 (ko) 투명 디스플레이를 이용한 대화면 직시형 증강현실 영상 제공 장치 및 방법
JP2019179083A (ja) 画像表示装置
CN108375832B (zh) 增强现实显示光学模组及增强现实显示***
JP3355779B2 (ja) Hmd用光学系
CN108398792B (zh) 增强现实显示光学模组及***
KR100245332B1 (ko) 헤드 마운트 디스플레이
유찬형 Enhanced waveguide-based near-eye displays with polarization multiplexing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E902 Notification of reason for refusal
E601 Decision to refuse application