KR102523433B1 - 깊이 정보를 결정하는 방법 및 광학 시스템 - Google Patents

깊이 정보를 결정하는 방법 및 광학 시스템 Download PDF

Info

Publication number
KR102523433B1
KR102523433B1 KR1020180003444A KR20180003444A KR102523433B1 KR 102523433 B1 KR102523433 B1 KR 102523433B1 KR 1020180003444 A KR1020180003444 A KR 1020180003444A KR 20180003444 A KR20180003444 A KR 20180003444A KR 102523433 B1 KR102523433 B1 KR 102523433B1
Authority
KR
South Korea
Prior art keywords
light
image signal
camera
optical system
depth information
Prior art date
Application number
KR1020180003444A
Other languages
English (en)
Other versions
KR20190085377A (ko
Inventor
윤치열
염지운
강재은
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180003444A priority Critical patent/KR102523433B1/ko
Priority to US16/238,066 priority patent/US11488316B2/en
Priority to PCT/KR2019/000325 priority patent/WO2019139344A1/en
Priority to EP19738514.9A priority patent/EP3717960B1/en
Publication of KR20190085377A publication Critical patent/KR20190085377A/ko
Application granted granted Critical
Publication of KR102523433B1 publication Critical patent/KR102523433B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/0944Diffractive optical elements, e.g. gratings, holograms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4272Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having plural diffractive elements positioned sequentially along the optical path
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • G02B5/1842Gratings for image generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/24Coupling light guides
    • G02B6/42Coupling light guides with opto-electronic elements
    • G02B6/4201Packages, e.g. shape, construction, internal or external details
    • G02B6/4204Packages, e.g. shape, construction, internal or external details the coupling comprising intermediate optical elements, e.g. lenses, holograms
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/1313Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells specially adapted for a particular application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/29Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the position or the direction of light beams, i.e. deflection

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nonlinear Science (AREA)
  • Computer Hardware Design (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)

Abstract

본 개시는 가상 영상을 구성하는 R 영상 신호, G 영상 신호, B 영상 신호 각각과 IR 광원으로부터 획득한 IR 영상 신호로부터 광을 출력하는 영상 생성기, 광을 가이드하는 다중 경로 광학 소자, 다중 경로 광학 소자의 내부에 위치하고, 출력된 광의 일부는 회절시키고 나머지는 투과시키는 회절 격자, 다중 경로 광학 소자의 내부에 위치하고 회절된 광을 다중 경로 광학 소자 외부로 내보내는 아웃 커플러, 아웃 커플러에서 내보내진 광이 반사된 IR 광을 센싱하는 제 1 카메라, 투과된 광에서 IR 광을 통과시켜 실세계 객체에 투사하는 IR 필터 회절 소자, 실세계에 투사된 IR 광이 반사되는 패턴을 센싱하는 제 2 카메라 및 제 1 카메라에서 센싱된 패턴에 기초하여 사용자의 시선을 결정하고, 제 2 카메라에서 센싱된 패턴에 기초하여 실세계 객체의 깊이 정보를 결정하는 프로세서를 포함하는, 광학 시스템에 관한 것이다.

Description

깊이 정보를 결정하는 방법 및 광학 시스템 {Method and optical system for determining depth information}
개시된 실시예는 깊이 정보를 결정하는 방법, 깊이 정보를 결정하는 광학 시스템 및 깊이 정보를 결정하는 방법을 수행하는 프로그램이 기록된 기록매체에 관한 것이다.
증강 현실(augmented reality, AR) 기술은 현실의 환경에 가상 사물이나 정보를 합성하여, 가상 사물이나 정보가 현실의 환경에 존재하는 사물처럼 보이도록 하는 기술이다. 증강 현실 기술은 군대, 항공, 의학, 비디오 게임, 엔터테인먼트, 스포츠 등을 포함하는 다양한 애플리케이션에서 사용될 수 있다.
한편, 증강 현실 기술에 대한 관심이 높아짐에 따라, 증강 현실을 구현하는 다양한 기술들에 대한 개발이 활발하게 이루어지고 있다. 특히, 가상 영상의 투사를 통해 증강 현실을 보다 실감나게 구현하기 위해서는 가상 영상이 실제 사물과 잘 어우러질 수 있도록 실제 사물의 깊이 정보를 결정할 필요가 있다. 이에 따라, 증강 현실 구현에 있어서, 실제 사물의 깊이 정보를 획득하기 위한 다양한 연구가 진행되고 있는 실정이다.
개시된 실시예는 IR 광원을 통해 사용자의 시선 뿐만 아니라, 실세계의 깊이 정보를 결정함으로써, 증강 현실 구현 시 전력 소모, 시스템 복잡도 및 비용 등을 효과적으로 줄일 수 있는 깊이 정보를 결정하는 방법 및 디바이스를 제공하고자 한다.
일 실시예에 따른 광학 시스템은, 가상 영상을 구성하는 R 영상 신호, G 영상 신호, B 영상 신호 각각과 IR(Infrared) 광원으로부터 획득한 IR 영상 신호로부터 광을 출력하는 영상 생성기;광을 가이드(guide)하는 다중 경로 광학 소자; 다중 경로 광학 소자의 내부에 위치하고, 출력된 광의 일부는 회절시키고 나머지는 투과시키는 회절 격자(diffraction grating); 다중 경로 광학 소자의 내부에 위치하고 회절된 광을 다중 경로 광학 소자 외부로 내보내는(exit) 아웃 커플러; 아웃 커플러에서 내보내진 광이 반사된 IR 광을 센싱하는 제 1 카메라; 투과된 광에서 IR 광을 통과시켜 실세계 객체에 투사하는 IR 필터 회절 소자; 실세계 객체에 투사된 IR 광이 반사되는 패턴을 센싱하는 제 2 카메라; 및 제 1 카메라에서 센싱된 패턴에 기초하여 사용자의 시선을 결정하고, 제 2 카메라에서 센싱된 패턴에 기초하여 실세계 객체의 깊이 정보를 결정하는 프로세서를 포함할 수 있다.
일 실시예에 따른 광학 시스템은, IR 필터 회절 소자의 일측면에 배열되고, IR 필터 회절 소자에서 투사된 IR 광이 실세계에 투사되는 방향을 사용자의 시선에 따라 제어하는 빔 스티어링(beam steering) 소자를 더 포함할 수 있다.
일 실시예에 따른 광학 시스템에 있어서, 프로세서는, 결정된 사용자의 시선에 따라 빔 스티어링 소자를 구성하는 액정에 인가되는 전기적 신호를 결정할 수 있다.
일 실시예에 따른 광학 시스템에 있어서, 프로세서는, 결정된 사용자의 시선에 따라 빔 스티어링 소자의 각도를 제어할 수 있다..
일 실시예에 따른 광학 시스템에 있어서, 프로세서는, 제 2 카메라에서 센싱된 패턴과 실세계에 투사된 IR 광의 패턴을 비교하여, 제 2 카메라에서 센싱된 패턴의 왜곡을 결정하고, 결정된 왜곡에 기초하여, 실세계의 깊이 정보를 결정할 수 있다.
일 실시예에 따른 광학 시스템에 있어서, IR 필터 회절 소자에서 투사된 IR 광은, IR 필터 회절 소자의 구조(structure)에 따라 특정 구조를 갖도록 변환될 수 있다.
일 실시예에 따른 광학 시스템에 있어서, 프로세서는, IR 필터 회절 소자의 구조를 기 설정된 시간 주기에 따라 변경하고, IR 필터 회절 소자의 구조 변경에 따라 투사된 서로 다른 구조를 갖는 IR 광이 반사되는 패턴을 비교하여 패턴에서 IR 영역을 결정할 수 있다.
일 실시예에 따른 광학 시스템은, 사용자의 움직임을 측정하는 센싱부를 더 포함하고, 프로세서는, 사용자의 움직임에 따라, 실세계의 깊이 정보를 결정하는 주기를 결정할 수 있다.
일 실시예에 따른 광학 시스템에 있어서, 영상 생성기는, R 영상 신호, G 영상 신호, B 영상 신호 및 IR 영상 신호로부터 각각 시간에 따라 순차적으로 광을 출력할 수 있다.
일 실시예에 따른 광학 시스템에 있어서, 영상 생성기는, R 영상 신호, G 영상 신호 및 B 영상 신호에 각각 IR 영상 신호를 결합하여 광을 출력하는 광 출력 소자를 포함할 수 있다.
일 실시예에 따른 깊이 정보를 결정하는 방법은, 가상 영상을 획득하는 단계; 가상 영상을 구성하는 R 영상 신호, G 영상 신호, B 영상 신호 각각과 IR 광원으로부터 획득한 IR 영상 신호로부터 광을 출력하는 단계; 및 출력된 광 중 다중 경로 광학 소자를 따라 사용자의 눈에 가이드 되는 IR 광이 제 1 카메라에서 센싱된 패턴에 기초하여 사용자의 시선을 결정하고, 출력된 광 중 IR 필터 회절 소자를 통해 실세계에 투사되는 IR 광이 제 2 카메라에서 센싱된 패턴에 기초하여 실세계의 깊이 정보를 결정하는 단계를 포함할 수 있다.
도 1은 일 실시예에 따라 결정된 깊이 정보를 이용하여 증강 현실을 제공하는 방법을 설명하기 위한 개념도이다.
도 2는 일 실시예에 따른 광학 시스템의 블록도이다.
도 3은 다른 실시예에 따른 광학 시스템의 블록도이다.
도 4 및 도 5는 일 실시예에 따른 광학 시스템의 구조를 보다 구체적으로 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 광학 시스템이 깊이 정보를 결정하는 방법을 설명하기 위한 흐름도이다.
도 7은 다른 실시예에 따른 광학 시스템이 깊이 정보를 결정하는 방법을 설명하기 위한 흐름도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 특성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시예에 따라 결정된 깊이 정보를 이용하여 증강 현실을 제공하는 방법을 설명하기 위한 개념도이다.
도 1을 참조하면, 깊이 정보를 결정하는 디바이스(100, 이하, 디바이스)는 사용자가 증강 현실을 체험할 수 있도록, 실세계에 중첩하여 가상 영상(10, 20, 30)을 출력할 수 있다. 예를 들어, 디바이스(100)는 사용자가 원하는 실세계의 위치에 요리 프로그램 동영상(10), 레시피 이미지(20), 냉장고에 있는 재료 목록(30) 등을 출력함으로써 증강 현실을 제공할 수 있다.
한편, 증강 현실을 보다 실감나게 구현하기 위해서는, 가상 영상이 실세계의 사물과 어우러지게 표시될 수 있도록 공간에 관한 정보가 필요할 수 있다. 여기에서, 공간에 관한 정보는 사용자 또는 기 설정된 지점과 실세계의 사물 간의 거리를 나타내는 깊이 정보를 통해 나타낼 수 있다.
깊이 정보를 결정하기 위해 별도의 깊이 센서를 이용하는 경우, 디바이스(100)의 비용이 증가될 뿐만 아니라, 무게, 전력 소모 또한 증가되어, 증강 현실을 제공하는데 있어 효율성이 낮아질 수 있다. 일 실시예에 따른 디바이스(100)는 깊이 정보의 획득을 위해 별도의 깊이 센서를 이용하지 않고도, 디바이스(100)에 포함된 IR 광원으로부터 발생되는 IR 광을 기초로 깊이 정보를 획득할 수 있다. 구체적으로, 디바이스(100)는 IR 광이 기 설정된 구조를 갖도록 실세계에 투사시키고, 투사된 IR 광이 실세계로부터 반사되어 발생하는 패턴을 기초로 깊이 정보를 결정할 수 있다. 이에 대해서는, 도 2 내지 도 7을 참조하여 구체적으로 후술하도록 한다. 한편, 도 2 내지 도 7에서 설명하고 있는 광학 시스템은 도 1에서의 디바이스(100)와 동일한 의미로 사용될 수 있다.
한편, 일 실시예에 따른 디바이스(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 디바이스(100)는 스마트 글래스(Smart Glass), HMD(Head Mounted Display), 근안 디스플레이(near-eye display), 3차원 디스플레이 등이 있을 수 있으나, 이는 일 실시예일 뿐, 디바이스(100)가 이에 한정되는 것은 아니다.
도 2는 일 실시예에 따른 광학 시스템(100)의 블록도이다.
도 2를 참조하면, 광학 시스템(100)은 영상 생성기(110), 다중 경로 광학 소자(120), 제 1 카메라(130), 제 2 카메라(140), IR 필터 회절 소자(150) 및 프로세서(160)를 포함할 수 있다. 다만, 이는 일 실시예일 뿐, 광학 시스템(100)의 구성 요소가 전술한 예에 한정되는 것은 아니다.
영상 생성기(110)는 실세계 장면에 중첩하여 출력하기 위한 가상 영상(210)을 획득할 수 있다. 예를 들어, 영상 생성기(110)는 외부 디바이스로부터 가상 영상(210)을 획득하거나, 직접 가상 영상(210)을 생성할 수 있다. 또한, 영상 생성기(110)는 IR 광원으로부터 IR 영상 신호를 획득할 수 있다. 여기에서, IR 광원은 영상 생성기(110)에 포함될 수 있으나, 이는 일 예일 뿐, IR 광원은 영상 생성기(110)의 외부에 위치하여 항상 켜져 있을 수도 있다.
일 실시예에 따른 영상 생성기(110)는 가상 영상(210)을 구성하는 R 영상 신호, G 영상 신호, B 영상 신호 각각과 IR 광원으로부터 획득한 IR 영상 신호로부터 광을 출력할 수 있다. 예를 들어, 영상 생성기(110)는 도 2의 그래프(112)에 도시된 바와 같이, R 영상 신호, G 영상 신호, B 영상 신호 및 IR 영상 신호로부터 광을 시간에 따라 순차적으로 출력할 수 있다. 다른 예에 따라, 영상 생성기(110)는 내부에 포함된 광 출력 소자를 통해, R 영상 신호, G 영상 신호 및 B 영상 신호에 각각 IR 영상 신호를 결합하여 광을 출력할 수도 있다.
또한, 영상 생성기(110)는 DLP(Digital Light Processing) 방식, LCoS(Liquid Crystal on Silicon) 방식 및 레이저 스캐닝 방식 중 적어도 하나를 이용하여 복수의 영상 신호로부터 광을 출력할 수 있다. 다만, 이는 일 예일 뿐, 영상 생성기(110)에서 광을 출력하는 방식이 전술한 예에 한정되는 것은 아니다.
다중 경로 광학 소자(120)는 영상 생성기(110)로부터 출력된 복수의 영상 신호 중 적어도 일부 영상 신호가 사용자의 눈에 입사되도록 가이드(guide) 할 수 있다. 다중 경로 광학 소자(120)는 굴절률이 큰 매질의 주변을 굴절률이 작은 매질이 감싸는 구조로 구성될 수 있다.
영상 생성기(110)로부터 출력된 복수의 영상 신호 중 적어도 일부는 다중 경로 광학 소자(120)의 격자(grating) 구조에 의해 꺾이면서, 다중 경로 광학 소자(120)를 따라 사용자의 눈으로 전달될 수 있다. 예를 들어, 다중 경로 광학 소자(120)의 내부에 위치한 회절 격자(diffraction grating)에 의해 출력된 광의 일부는 회절되고, 나머지는 투과될 수 있다. 또한, 다중 경로 광학 소자(120)의 내부에 위치한 아웃 커플러를 통해, 회절된 광은 다중 경로 광학 소자의 외부로 출력될 수 있다.
사용자의 눈에 입사되도록 가이드 된 광 중 R 영상 신호, G 영상 신호 및 B 영상 신호에 따른 광에 의해 사용자는 가상 영상을 인지할 수 있다. 또한, 가이드 된 광 중 IR 광은 제 1 카메라(130)에서 사용자의 시선을 추적하는데 이용될 수 있다.
제 1 카메라(130)는 가이드 된 광 중 사용자의 눈에 균일하게 투사되는 IR 광을 광원으로 이용하여 사용자의 눈을 검출할 수 있다. 예를 들어, 제 1 카메라(130)는 IR 광 투사 결과, 사용자의 눈에 반사된 IR 광을 센싱하여 사용자의 눈을 검출하고, 검출된 사용자의 눈의 중심점 또는 동공을 기초로 사용자의 시선을 결정할 수 있다.
한편, 영상 생성기(110)로부터 출력된 광 중 대부분은 IR 필터 회절 소자(150)에 입사될 수 있다. 일 실시예에 따른 IR 필터 회절 소자(150)는 입사된 광 중 IR 광만을 실세계에 투사할 수 있다. 또한, IR 필터 회절 소자(150)는 특정 구조를 가지고 있을 수 있다. 이에 따라, IR 필터 회절 소자(150)에 입사한 IR 광은 IR 필터 회절 소자(150)의 구조에 대응되는 특정 구조를 가지도록 변환되어 실세계에 투사될 수 있다. 예를 들어, IR 필터 회절 소자(150)는 입사한 IR 광을 그리드(grid), 도트(dot), 어레이(array) 등의 구조를 갖도록 변환하여 실세계에 투사할 수 있다.
제 2 카메라(140)는 실세계에 투사된 IR 광이 실제 사물로부터 반사됨에 따라 발생되는 패턴을 센싱할 수 있다. 실세계에 투사된 IR 신호는 실제 사물로부터 반사됨에 따라, 기존에 가지고 있던 특정 구조가 왜곡될 수 있다. 제 2 카메라는 패턴 센싱을 통해, 패턴의 왜곡에 관한 정보를 획득할 수 있다.
프로세서(160)는 제 2 카메라(140)를 통해 센싱된 패턴에 기초하여 실세계의 깊이 정보를 결정할 수 있다. 프로세서(160)는 센싱된 패턴과 투사된 IR 신호의 특정 패턴을 비교할 수 있다. 프로세서(160)는 비교 결과, 센싱된 패턴의 왜곡 정도에 기초하여, 실세계의 깊이 정보를 결정할 수 있다.
한편, 프로세서(160)는 센싱된 패턴에 포함되어 있는 가시광 영역과 IR 영역을 구별하여, IR 영역을 보다 정확하게 검출하기 위해, 서로 다른 구조를 갖는 IR 광이 투사되도록 IR 필터 회절 소자의 구조를 변경할 수 있다. 예를 들어, 프로세서(160)는 IR 필터 회절 소자에 인가되는 전기적 신호를 제어함으로써, IR 필터 회절 소자의 구조를 변경할 수 있다. 다만, 이는 일 예일 뿐, IR 필터 회절 소자의 구조를 변경하는 방법이 전술한 예에 한정되는 것은 아니다.
프로세서(160)는 그리드 구조의 IR 광, 도트 구조의 IR 광 및 어레이 구조의 IR 광이 투사된 경우에 발생되는 패턴을 각각 센싱하여, 센싱된 각각의 패턴을 비교할 수 있다. 프로세서(160)는 비교 결과를 기초로 패턴 내에서의 IR 영역을 식별할 수 있다.
일 실시예에 따른 프로세서(160)는 센싱부(미도시)에서 측정된 사용자의 움직임에 관한 정보를 획득할 수 있다. 프로세서(160)는 사용자의 움직임에 관한 정보를 기초로 깊이 정보를 결정하는 주기를 특정할 수 있다. 또한, 다른 실시예에 따라, 프로세서(160)는 실세계에 대한 정합 정밀도와 같은 가상 영상의 특성을 고려하여, 깊이 정보를 결정하는 주기를 특정할 수도 있다. 예를 들어, 프로세서(160)는 높은 정합 정밀도가 요구되는 가상 영상의 경우, 깊이 정보를 결정하는 주기를 상대적으로 빠르게 설정할 수 있다.
도 3은 다른 실시예에 따른 광학 시스템(100)의 블록도이다.
도 3을 참조하면, 광학 시스템(100)은 영상 생성기(110), 다중 경로 광학 소자(120), 제 1 카메라(130), 제 2 카메라(140), IR 필터 회절 소자(150), 프로세서(160) 및 빔 스티어링 소자(170)를 포함할 수 있다. 다만, 이는 일 실시예일 뿐, 광학 시스템(100)의 구성 요소가 전술한 예에 한정되는 것은 아니다.
본 실시예에서, 영상 생성기(110), 다중 경로 광학 소자(120), 제 1 카메라(130), 제 2 카메라(140) 및 IR 필터 회절 소자(150)는 도 2의 영상 생성기(110), 다중 경로 광학 소자(120), 제 1 카메라(130), 제 2 카메라(140) 및 IR 필터 회절 소자(150)에 대응되므로, 자세한 설명은 생략한다.
프로세서(160)는 제 1 카메라(130)에서 촬영된 사용자의 눈 영상을 기초로 사용자의 시선을 결정할 수 있다. 프로세서(140)는 촬영된 눈 영상으로부터 추출된 눈의 중심점을 기초로, 사용자의 시선이 수렴하는 방향 및 거리를 결정할 수 있다.
프로세서(160)는 사용자의 시선이 결정됨에 따라, IR 필터 회절 소자를 통과하는 IR 광이 사용자의 시선 방향으로 투사되도록 빔 스티어링 소자(170)를 제어할 수 있다.
빔 스티어링 소자(170)는 입사된 IR 광의 투사 방향을 전기적으로 제어할 수 있는 제 1 타입의 빔 스티어링 소자 및 액츄에이터 등을 통해 기계적으로 제어할 수 있는 제 2 타입의 빔 스티어링 소자 중 어느 하나일 수 있으나, 빔 스티어링 소자(170)의 타입이 전술한 예에 한정되는 것은 아니다.
투사 방향을 전기적으로 제어할 수 있는 제 1 타입의 빔 스티어링 소자는 인가되는 전기적 신호에 따라 액정의 배향이 변경될 수 있다. 예를 들어, 프로세서(160)는 사용자의 시선에 대응되는 방향으로 IR 광이 투사될 수 있도록 빔 스티어링 소자에 전기적 신호를 인가하여 IR 광의 투사 방향(320, 330)을 제어할 수 있다. 또한, 투사 방향을 기계적으로 제어할 수 있는 제 2 타입의 빔 스티어링 소자는 프로세서(160)에서 결정된 사용자의 시선에 따라 제 2 타입의 빔 스티어링 소자의 각도를 제어할 수 있다.
도 4 및 도 5는 일 실시예에 따른 광학 시스템(400)의 구조를 보다 구체적으로 설명하기 위한 도면이다.
도 4를 참조하면, 사용자의 시선 방향으로 광학 시스템(400)이 도시된 것을 확인할 수 있다. 광학 시스템(400)은 도 2 및 도 3을 참조하여 전술한 바와 같이, 영상 생성기, 다중 경로 광학 소자, 제 1 카메라, 제 2 카메라, IR 필터 회절 소자, 프로세서 및 빔 스티어링 소자 등을 포함할 수 있으나, 본 실시예에서는 영상 생성기(410) 및 복수의 제 1 카메라(422, 424) 만이 도시되어 있는 것으로 가정한다.
영상 생성기(410)는 광학 시스템(400)을 사용자의 머리에 고정시켜주는 지지대가 위치한 측면에 배치될 수 있다. 본 실시예에서는 영상 생성기(410)가 광학 시스템(400)의 우측에 배치되는 것으로 가정하였으나, 이는 일 예일 뿐, 영상 생성기(410)는 광학 시스템(400)의 좌측에 배치될 수도 있다. 또한, 다른 실시예에 따라, 광학 시스템(400)의 전면에 영상 생성기(410)가 위치할 수도 있다.
영상 생성기(410)는 가상 영상을 구성하는 R 영상 신호, G 영상 신호 및 B 영상 신호 이외에 IR 광원으로부터 획득한 IR 영상 신호로부터 광을 출력할 수 있다. 여기에서, IR 광원은 영상 생성기(410)에 포함될 수 있으나, 이는 일 예일 뿐 다른 예에 따라, IR 광원은 영상 생성기(410)의 외부에 위치할 수도 있다. 영상 생성기(410)로부터 출력된 IR 광(440)은 사용자의 전면에 균일하게 투사될 수 있다.
복수의 제 1 카메라(422, 424)는 영상 생성기(410)로부터 출력된 복수의 영상 신호 중 사용자의 눈쪽으로 투사되는 IR 광을 광원으로 눈 영상을 획득할 수 있다. 이 때, 사용자의 눈쪽으로 투사되는 광에는 가상 영상을 구성하는 R 영상 신호에 따른 광의 일부, G 영상 신호에 따른 광의 일부, B 영상 신호에 따른 광의 일부가 IR 광과 함께 포함될 수 있다.
한편, 일 실시예에 따른 복수의 제 1 카메라(422, 424)는 각각 눈꺼풀과 눈썹이 눈 영상의 획득을 방해하지 않도록 눈의 바깥 아래쪽에 배치될 수 있다. 또한, 복수의 제 1 카메라(422, 424)의 화각은 눈동자 거리 및 눈의 안구 영역의 크기에 따라 결정될 수 있다. 예를 들어, 복수의 제 1 카메라(422, 424)의 화각은 눈동자 거리가 1.5cm 및 눈의 안구 영역이 5*3cm인 경우, FoV 75도로 설정될 수 있다.
한편, 도 5를 참조하면, 사용자의 시선 반대 방향으로 광학 시스템(400)이 도시된 것을 확인할 수 있다. 광학 시스템(400)은 도 2 및 도 3을 참조하여 전술한 바와 같이, 영상 생성기, 다중 경로 광학 소자, 제 1 카메라, 제 2 카메라, IR 필터 회절 소자, 프로세서 및 빔 스티어링 소자 등을 포함할 수 있으나, 본 실시예에서는 제 2 카메라(450) 만이 도시되어 있는 것으로 가정한다.
영상 생성기(미도시)로부터 시간에 따라 순차적으로 출력되는 광 중 일부(432, 434)는 다중 경로 광학 소자(미도시)를 따라 사용자의 눈 방향으로 투사되고, 나머지 영상 신호는 IR 필터 회절 소자(미도시)로 투사될 수 있다. 이 때, IR 필터 회절 소자에 의해 투사된 복수의 영상 신호 중 IR 광(440) 만이 실세계로 투사될 수 있다. IR 필터 회절 소자를 통과한 IR 광(440)은 실세계에 균일하게 투사될 수 있다. 또한, IR 필터 회절 소자를 통과한 IR 광(440)은 IR 필터 회절 소자의 구조에 따라 특정 구조를 갖도록 변환될 수 있다.
제 2 카메라(450)는 IR 광(440)이 실세계에서 반사된 결과 발생된 패턴을 촬영할 수 있다. 이 때, IR 광(440)의 특정 구조는 실세계에 존재하는 실제 사물에 반사되어 왜곡될 수 있다. 제 2 카메라(450)는 발생된 왜곡의 패턴을 촬영하여, 프로세서(미도시)에 제공할 수 있다. 프로세서(미도시)는 이를 기초로 깊이 정보를 결정할 수 있다.
한편, 일 실시예에 따른 제 2 카메라(450)는 싱글(single) 카메라인 경우, 광학 시스템(400)의 중앙에 위치할 수 있다. 또한, 제 2 카메라(450)는 주요 인지 범위에 해당하는 30도의 2배인 60도로 화각이 설정될 수 있다. 다만, 이는 일 실시예일 뿐, 제 2 카메라로 스테레오 카메라가 이용될 수 있다. 제 2 카메라가 스테레오 카메라인 경우, 제 2 카메라는 광학 시스템(400)의 좌측과 우측 양단 끝에 각각 위치할 수 있다.
도 4 및 도 5를 참조하여 전술한 광학 시스템(400)는 일 실시예에 따른 깊이 정보를 결정하기 위한 광학 시스템의 구조의 일 예일 뿐, 개시된 기술적 사상이 전술한 예에 한정되는 것은 아니다.
도 6은 일 실시예에 따른 광학 시스템이 깊이 정보를 결정하는 방법을 설명하기 위한 흐름도이다.
단계 S610에서, 광학 시스템은 가상 영상을 획득할 수 있다. 일 실시예에 따른 광학 시스템은 외부 디바이스로부터 가상 영상을 획득하거나, 가상 영상을 직접 생성할 수 있다. 또한, 광학 시스템은 사용자의 입력 또는 사용자의 상황을 고려하여 획득되는 가상 영상의 종류를 결정할 수 있다. 예를 들어, 사용자가 요리 프로그램 동영상을 선택하는 경우, 광학 시스템은 가상 영상으로 요리 프로그램 동영상을 획득할 수 있다.
단계 S620에서, 광학 시스템은 가상 영상을 구성하는 R 영상 신호, G 영상 신호, B 영상 신호 각각과 IR 광원으로부터 획득한 IR 영상 신호로부터 광을 출력할 수 있다.
예를 들어, 광학 시스템은 시간에 R 영상 신호에 따른 광, G 영상 신호에 따른 광, B 영상 신호에 따른 광 및 IR 영상 신호에 따른 광의 순서로 광을 반복적으로 출력할 수 있다. 여기에서, R 영상 신호, G 영상 신호 및 B 영상 신호는 가상 영상의 특성에 따라, 영상을 구성하는 픽셀별로 그 값 또는 세기가 상이할 수 있으나, IR 영상 신호는 영상 전체 영역에 걸쳐 균일한 세기를 가질 수 있다. 다른 예에 따라, 광학 시스템은 R 영상 신호, G 영상 신호 및 B 영상 신호에 각각 IR 영상 신호를 결합하여, 광을 출력할 수 있다.
또한, 광학 시스템은 도 2를 참조하여 전술한 바와 같이 DLP 방식, LCoS 방식 및 레이저 스캐닝 방식 중 적어도 하나를 이용하여 복수의 영상 신호를 출력할 수 있으나, 이는 일 예일 뿐, 복수의 영상 신호를 출력하는 방식이 전술한 예에 한정되는 것은 아니다.
단계 S630에서, 광학 시스템은 출력된 광 중 다중 경로 광학 소자를 따라 사용자의 눈에 가이드 되는 IR 광이 제 1 카메라에서 센싱된 패턴에 기초하여 사용자의 시선을 결정하고, 출력된 광 중 IR 필터 회절 소자를 통해 실세계에 투사되는 IR 광이 제 2 카메라에서 센싱된 패턴에 기초하여 실세계의 깊이 정보를 결정할 수 있다.
출력된 광 중 대부분은 IR 필터 회절 소자에 투사되나, 그 중 일부가 다중 경로 광학 소자를 통해 사용자의 눈에 가이드 될 수 있다. 구체적으로, 출력된 광 중 일부는 다중 경로 광학 소자의 표면의 그레이팅 구조에 의해, 꺾이면서 다중 경로 광학 소자를 타고 눈쪽으로 전달될 수 있다.
광학 시스템은 눈쪽으로 전달되는 광 중 IR 광을 광원으로 이용하여 사용자의 눈을 센싱할 수 있다. 광학 시스템은 센싱 결과 획득된, 사용자의 눈의 영상을 기초로 사용자의 시선의 방향 및 사용자의 시선이 수렴하는 지점 등을 결정할 수 있다.
또한, 광학 시스템에서 출력된 광 중 IR 필터 회절 소자에 입사된 광은 IR 필터 회절 소자에 의해, IR 광만이 실세계에 투사될 수 있다. 이 때, 실세계에 투사되는 IR 광은 IR 필터 회절 소자의 구조에 따라 특정 구조를 가질 수 있다.
광학 시스템은 실세계에 투사된 IR 광이 실제 사물에 의해 반사됨에 따라 발생되는 패턴을 기초로 실세계의 깊이 정보를 결정할 수 있다.
한편, 다른 실시예에 따라, 광학 시스템은 IR 필터 회절 소자의 구조를 시간에 따라 변경하여, 서로 다른 구조를 갖는 IR 광이 실세계에 투사되도록 제어할 수 있다. 광학 시스템은 서로 다른 구조를 갖는 IR 광이 반사되어 발생하는 각각의 패턴을 비교하여, 패턴 내에 포함된 가시광 영역 및 IR 영역 중 IR 영역을 식별할 수 있다. 광학 시스템은 IR 영역에 대해 패턴의 왜곡을 식별함으로써, 깊이 정보의 정확도를 보다 높일 수 있다.
다른 실시예에 따라, 광학 시스템은 사용자의 움직임을 감지할 수 있다. 광학 시스템은 감지된 사용자의 움직임에 따라 깊이 정보를 결정하는 주기를 특정할 수 있다. 또한, 다른 실시예에 따라, 광학 시스템은 실세계에 대한 정합 정밀도와 같은 가상 영상의 특성을 고려하여, 깊이 정보를 결정하는 주기를 특정할 수도 있다.
도 7은 다른 실시예에 따른 광학 시스템이 깊이 정보를 결정하는 방법을 설명하기 위한 흐름도이다.
단계 S710에서, 광학 시스템은 가상 영상을 획득할 수 있다.
한편, 단계 S710은 도 6을 참조하여 전술한 단계 S610과 대응될 수 있다.
단계 S720에서, 광학 시스템은 가상 영상을 구성하는 R 영상 신호, G 영상 신호, B 영상 신호 각각과 IR 광원으로부터 획득한 IR 영상 신호로부터 광을 출력할 수 있다.
한편, 단계 S720은 도 6을 참조하여 전술한 단계 S620과 대응될 수 있다.
단계 S730에서, 광학 시스템은 출력된 광 중 다중 경로 광학 소자를 따라 사용자의 눈에 전달되는 IR 광에 기초하여 사용자의 시선을 결정할 수 있다.
일 실시예에 따른 광학 시스템은 사용자의 눈에 전달되는 IR 광을 기초로 사용자의 눈을 센싱할 수 있다. 광학 시스템은 센싱된 사용자의 눈 영상을 기초로 사용자의 시선을 결정할 수 있다.
단계 S740에서, 광학 시스템은 출력된 광 중 IR 필터 회절 소자를 통과하여 실세계에 투사되는 IR 광을 사용자의 시선에 대응되는 방향으로 출력하기 위한 빔 스티어링 소자의 투사 각도를 제어할 수 있다.
예를 들어, 빔 스티어링 소자의 투사 각도가 전기적으로 제어 가능한 경우, 광학 시스템은 투사 각도가 사용자의 시선에 대응될 수 있도록 빔 스티어링 소자에 전기적 신호를 인가할 수 있다. 다른 예에 따라, 빔 스티어링 소자의 투사 각도가 기계적으로 제어 가능한 경우, 광학 시스템은 빔 스티어링 소자가 배치된 각도 등을 사용자의 시선에 대응되도록 빔 스티어링 소자를 제어할 수 있다.
단계 S750에서, 광학 시스템은 빔 스티어링 소자를 통해 실세계에 투사되는 IR 광의 반사 패턴에 기초하여 사용자의 시선에 대응되는 실세계의 깊이 정보를 결정할 수 있다.
일 실시예에 따른 광학 시스템에 포함된 빔 스티어링 소자의 투사 각도가 제어됨에 따라, 광학 시스템은 사용자의 시선 방향으로 IR 광을 투사할 수 있다. 광학 시스템은 사용자의 시선 방향으로 투사된 IR 광이 실세계의 객체에 의해 반사되어 발생한 패턴에 관한 정보를 획득할 수 있다. 광학 시스템은 패턴에 관한 정보와 투사된 IR 광의 구조를 비교하여, 사용자의 시선 방향에 대응되는 실세계의 깊이 정보를 결정할 수 있다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
도면에 도시된 실시 예들에서 참고부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 또한, 실시예는 동종의 또는 서로 다른 종류의 코어들, 서로 다른 종류의 CPU들을 채용할 수도 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (21)

  1. 가상 영상을 구성하기 위한 R 영상 신호, G 영상 신호, B 영상 신호와 IR(Infrared) 광원으로부터 획득된 IR 영상 신호에 대응되는 광을 출력하는 영상 생성기;
    회절 격자 및 아웃커플러(outcoupler)를 포함하는 다중 경로 광학 소자;
    상기 출력된 광의 일부는 상기 회절 격자에 의해 회절되고, 상기 출력된 광의 다른 일부는 상기 다중 경로 광학 소자를 투과하며,
    상기 회절된 광은 상기 아웃커플러에 의해 상기 다중 경로 광학 소자로부터 출력되고;
    상기 다중 경로 광학 소자로부터 출력된 광 중 IR 광의 반사 패턴을 검출하는 제 1 카메라;
    상기 다중 경로 광학 소자를 투과한 광 중 IR 광을 투과시키고 실세계 객체에 투사하기 위한 IR 필터 회절 소자;
    상기 IR 필터 회절 소자에서 투과된 상기 IR 광이 상기 실세계 객체에 투사되는 방향을 변경하는 빔 스티어링(beam steering) 소자;
    상기 투사된 IR 광의 상기 실세계 객체에 의한 반사 패턴을 검출하는 제 2 카메라; 및
    상기 제 1 카메라에서 검출된 반사 패턴에 기초하여 사용자의 시선 방향을 결정하고, 상기 빔 스티어링 소자를 제어하여 상기 IR 필터 회절 소자에서 투과된 상기 IR 광이 상기 실세계 객체에 투사되는 방향을 상기 결정된 사용자의 시선 방향에 대응되도록 변경하고, 상기 제 2 카메라에서 검출된 반사 패턴에 기초하여 상기 실세계 객체의 깊이 정보를 결정하는 프로세서;
    를 포함하는, 광학 시스템.
  2. 제 1항에 있어서,
    상기 빔 스티어링 소자는 상기 IR 필터 회절 소자의 일측면에 배치되는, 광학 시스템.
  3. 제 1항에 있어서, 상기 프로세서는,
    상기 결정된 사용자의 시선 방향에 따라 상기 빔 스티어링 소자를 구성하는 액정에 인가되는 전기적 신호를 결정하는, 광학 시스템.
  4. 삭제
  5. 제 1항에 있어서, 상기 프로세서는,
    상기 제 2 카메라에서 검출된 반사 패턴과 상기 투사된 IR 광의 패턴을 비교하여, 상기 제 2 카메라에서 검출된 반사 패턴의 왜곡을 결정하고, 상기 결정된 왜곡에 기초하여, 상기 실세계 객체의 깊이 정보를 결정하는, 광학 시스템.
  6. 제 1 항에 있어서, 상기 IR 필터 회절 소자에서 투사된 IR 광은,
    상기 IR 필터 회절 소자의 구조(structure)에 따라 특정 구조를 갖도록 변환되는, 광학 시스템.
  7. 제 1 항에 있어서, 상기 프로세서는,
    상기 IR 필터 회절 소자의 구조를 기 설정된 시간 주기에 따라 변경하고, 상기 IR 필터 회절 소자의 구조 변경에 따라 투사된 서로 다른 구조를 갖는 IR 광의 반사 패턴을 비교하여 상기 비교된 반사 패턴에서 IR 영역을 결정하는, 광학 시스템.
  8. 제 1 항에 있어서,
    상기 사용자의 움직임을 측정하는 센싱부를 더 포함하고,
    상기 프로세서는,
    상기 사용자의 움직임에 따라, 상기 실세계 객체의 깊이 정보를 결정하는 주기를 결정하는, 광학 시스템.
  9. 제 1 항에 있어서, 상기 영상 생성기는,
    상기 R 영상 신호, 상기 G 영상 신호, 상기 B 영상 신호 및 상기 IR 영상 신호로부터 각각 시간에 따라 순차적으로 광을 출력하는, 광학 시스템.
  10. 제 1 항에 있어서, 상기 영상 생성기는,
    상기 R 영상 신호, 상기 G 영상 신호 및 상기 B 영상 신호에 각각 상기 IR 영상 신호를 결합하여 상기 광을 출력하는 광 출력 소자를 포함하는, 광학 시스템.
  11. 가상 영상을 획득하는 단계;
    상기 가상 영상을 구성하기 위한 R 영상 신호, G 영상 신호, B 영상 신호와 IR 광원으로부터 획득된 IR 영상 신호에 대응되는 광을 출력하는 단계;
    상기 출력된 광의 일부가 회절 격자에 의해 회절되어, 다중 경로 광학 소자로부터 출력되고, 상기 다중 경로 광학 소자로부터 출력된 광 중 IR 광의 반사 패턴을 제 1 카메라를 통해 검출하는 단계;
    상기 제 1 카메라를 통해 검출된 반사 패턴에 기초하여 사용자의 시선 방향을 결정하는 단계;
    빔 스티어링(beam steering) 소자를 제어하여 상기 다중 경로 광학 소자를 투과한 광 중 IR 필터 회절 소자에서 투과된 IR 광이 실세계 객체에 투사되는 방향을 상기 결정된 사용자의 시선 방향에 대응되도록 변경하는 단계;
    상기 투사된 IR 광의 상기 실세계 객체에 의한 반사 패턴을 제2 카메라를 통해 검출하고, 상기 제 2 카메라를 통해 검출된 반사 패턴에 기초하여 상기 실세계 객체의 깊이 정보를 결정하는 단계;
    를 포함하는, 깊이 정보를 결정하는 방법.
  12. 제 11항에 있어서,
    상기 빔 스티어링 소자는 상기 IR 필터 회절 소자의 일측면에 배치되는 방법.
  13. 제 11항에 있어서, 상기 제어하는 단계는,
    상기 결정된 사용자의 시선 방향에 따라 상기 빔 스티어링 소자를 구성하는 액정에 인가되는 전기적 신호를 결정하는 단계를 포함하는, 깊이 정보를 결정하는 방법.
  14. 삭제
  15. 제 11항에 있어서, 상기 결정하는 단계는,
    상기 제 2 카메라를 통해 검출된 반사 패턴과 상기 투사된 IR 광의 패턴을 비교하여, 상기 제 2 카메라를 통해 검출된 반사 패턴의 왜곡을 결정하는 단계; 및
    상기 결정된 왜곡에 기초하여, 상기 실세계 객체의 깊이 정보를 결정하는 단계를 포함하는, 깊이 정보를 결정하는 방법.
  16. 제 11항에 있어서, 상기 IR 필터 회절 소자에서 투사된 IR 광은,
    상기 IR 필터 회절 소자의 구조(structure)에 따라 특정 구조를 갖도록 변환되는, 깊이 정보를 결정하는 방법.
  17. 제 11항에 있어서,
    상기 IR 필터 회절 소자의 구조를 기 설정된 시간 주기에 따라 변경하는 단계; 및
    상기 IR 필터 회절 소자의 구조 변경에 따라 투사된 서로 다른 구조를 갖는 IR 광의 반사 패턴을 비교하여, 상기 비교된 반사 패턴에서 IR 영역을 결정하는 단계를 더 포함하는, 깊이 정보를 결정하는 방법.
  18. 제 11항에 있어서,
    상기 사용자의 움직임을 측정하는 단계; 및
    상기 사용자의 움직임에 따라, 상기 실세계 객체의 깊이 정보를 획득하는 주기를 결정하는 단계를 더 포함하는, 깊이 정보를 결정하는 방법.
  19. 제 11 항에 있어서, 상기 출력하는 단계는,
    상기 R 영상 신호, 상기 G 영상 신호, 상기 B 영상 신호 및 상기 IR 영상 신호로부터 각각 시간에 따라 순차적으로 광을 출력하는, 깊이 정보를 결정하는 방법.
  20. 제 11 항에 있어서, 상기 출력하는 단계는,
    상기 R 영상 신호, 상기 G 영상 신호 및 상기 B 영상 신호에 각각 상기 IR 영상 신호를 결합하여, 상기 광을 출력하는, 깊이 정보를 결정하는 방법.
  21. 제 11항 내지 제 13항 및 제 15항 내지 제 20항 중 어느 하나의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020180003444A 2018-01-10 2018-01-10 깊이 정보를 결정하는 방법 및 광학 시스템 KR102523433B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020180003444A KR102523433B1 (ko) 2018-01-10 2018-01-10 깊이 정보를 결정하는 방법 및 광학 시스템
US16/238,066 US11488316B2 (en) 2018-01-10 2019-01-02 Method and optical system for determining depth information
PCT/KR2019/000325 WO2019139344A1 (en) 2018-01-10 2019-01-09 Method and optical system for determining depth information
EP19738514.9A EP3717960B1 (en) 2018-01-10 2019-01-09 Method and optical system for determining depth information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003444A KR102523433B1 (ko) 2018-01-10 2018-01-10 깊이 정보를 결정하는 방법 및 광학 시스템

Publications (2)

Publication Number Publication Date
KR20190085377A KR20190085377A (ko) 2019-07-18
KR102523433B1 true KR102523433B1 (ko) 2023-04-19

Family

ID=67139880

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003444A KR102523433B1 (ko) 2018-01-10 2018-01-10 깊이 정보를 결정하는 방법 및 광학 시스템

Country Status (4)

Country Link
US (1) US11488316B2 (ko)
EP (1) EP3717960B1 (ko)
KR (1) KR102523433B1 (ko)
WO (1) WO2019139344A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8028885B2 (en) 2006-05-19 2011-10-04 Ethicon Endo-Surgery, Inc. Electric surgical instrument with optimized power supply and drive
CN110830781B (zh) 2019-10-30 2021-03-23 歌尔科技有限公司 一种基于双目视觉的投影图像自动校正方法及***
CN112926523B (zh) * 2021-03-30 2022-07-26 青岛小鸟看看科技有限公司 基于虚拟现实的眼球追踪方法、***
WO2024019273A1 (ko) * 2022-07-22 2024-01-25 삼성전자 주식회사 증강 현실을 제공하는 전자 장치 및 전자 장치의 이미지 보상 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170004655A1 (en) * 2013-04-29 2017-01-05 Microsoft Technology Licensing, Llc Mixed reality interactions
WO2017127571A1 (en) 2016-01-19 2017-07-27 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US20170295362A1 (en) * 2016-04-12 2017-10-12 Microsoft Technology Licensing, Llc Binocular image alignment for near-eye display

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3309602A1 (en) 2011-08-29 2018-04-18 Vuzix Corporation Controllable waveguide for near-eye display applications
US9558590B2 (en) * 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
KR101374316B1 (ko) * 2012-05-02 2014-03-14 (주) 미디어인터랙티브 시스루 디스플레이를 이용한 동작인식 장치 및 그 방법
US9030495B2 (en) 2012-11-21 2015-05-12 Microsoft Technology Licensing, Llc Augmented reality help
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CN112651288B (zh) 2014-06-14 2022-09-20 奇跃公司 用于产生虚拟和增强现实的方法和***
US9626803B2 (en) 2014-12-12 2017-04-18 Qualcomm Incorporated Method and apparatus for image processing in augmented reality systems
US9541998B2 (en) * 2015-01-29 2017-01-10 Samsung Electronics Co., Ltd. Electronic system with gaze alignment mechanism and method of operation thereof
WO2016187483A1 (en) 2015-05-20 2016-11-24 Brian Mullins Light-based radar system for augmented reality
US9927614B2 (en) 2015-12-29 2018-03-27 Microsoft Technology Licensing, Llc Augmented reality display system with variable focus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170004655A1 (en) * 2013-04-29 2017-01-05 Microsoft Technology Licensing, Llc Mixed reality interactions
WO2017127571A1 (en) 2016-01-19 2017-07-27 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US20170295362A1 (en) * 2016-04-12 2017-10-12 Microsoft Technology Licensing, Llc Binocular image alignment for near-eye display

Also Published As

Publication number Publication date
KR20190085377A (ko) 2019-07-18
WO2019139344A1 (en) 2019-07-18
EP3717960A1 (en) 2020-10-07
US11488316B2 (en) 2022-11-01
US20190213745A1 (en) 2019-07-11
EP3717960B1 (en) 2023-05-10
EP3717960A4 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
US11828946B2 (en) Systems and methods for retinal imaging and tracking
KR102523433B1 (ko) 깊이 정보를 결정하는 방법 및 광학 시스템
US11868522B2 (en) Method for ascertaining a viewing direction of an eye
US10178378B2 (en) Binocular image alignment for near-eye display
US10878236B2 (en) Eye tracking using time multiplexing
KR102231910B1 (ko) 초점 이동에 반응하는 입체적 디스플레이
US11698533B2 (en) Tiled waveguide display with a wide field-of-view
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
JP7302592B2 (ja) 情報検出装置、映像投影装置、情報検出方法、及び映像投影方法
US11716456B2 (en) Autocalibrated near-eye display
US11458040B2 (en) Corneal topography mapping with dense illumination
CN117043658A (zh) 通过波导的眼睛***照明
US20200110361A1 (en) Holographic display system
EP3333480A1 (en) Tiled waveguide display
KR102481884B1 (ko) 가상 영상을 표시하는 방법 및 장치
EP4345531A1 (en) Eye tracking system with in-plane illumination
US20240210677A1 (en) Ultrafast illumination for structured light based eye tracking
US20230319428A1 (en) Camera comprising lens array
US20240069347A1 (en) System and method using eye tracking illumination
KR20230021551A (ko) 사용자의 시선을 검출하는 증강 현실 장치 및 방법
KR20240074348A (ko) 증강 현실에서 이미지 획득 장치 및 방법
CN117724240A (zh) 具有面内照明的眼睛追踪***

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right