KR20200056721A - 증강현실 기기의 광학 특성 측정 방법 및 장치 - Google Patents

증강현실 기기의 광학 특성 측정 방법 및 장치 Download PDF

Info

Publication number
KR20200056721A
KR20200056721A KR1020180140736A KR20180140736A KR20200056721A KR 20200056721 A KR20200056721 A KR 20200056721A KR 1020180140736 A KR1020180140736 A KR 1020180140736A KR 20180140736 A KR20180140736 A KR 20180140736A KR 20200056721 A KR20200056721 A KR 20200056721A
Authority
KR
South Korea
Prior art keywords
patterns
coordinates
measurement reference
reference position
augmented reality
Prior art date
Application number
KR1020180140736A
Other languages
English (en)
Inventor
정영주
정혜인
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020180140736A priority Critical patent/KR20200056721A/ko
Priority to US17/294,579 priority patent/US11953401B2/en
Priority to PCT/KR2019/015628 priority patent/WO2020101420A1/ko
Publication of KR20200056721A publication Critical patent/KR20200056721A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0257Testing optical properties by measuring geometrical properties or aberrations by analyzing the image formed by the object to be tested
    • G01M11/0264Testing optical properties by measuring geometrical properties or aberrations by analyzing the image formed by the object to be tested by using targets or reference patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0207Details of measuring devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

증강현실 기기의 광학 특성 측정 방법을 개시한다. 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 방법은 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영하는 단계; 상기 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 상기 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득하는 단계; 및 상기 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 측정기준위치를 기준으로 하는 상기 복수의 패턴의 좌표를 산출하는 단계를 포함한다.

Description

증강현실 기기의 광학 특성 측정 방법 및 장치{METHOD AND APPARATUS FOR MEASURING OPTICAL PROPERTIES OF AUGMENTED REALITY DEVICE}
본 발명은 증강현실 기기의 광학 특성 측정 방법 및 장치에 관한 것으로, 보다 상세하게는 증강현실 기기에 의해 생성되는 3차원 가상이미지의 광학적 특성을 측정하기 위한 방법 및 장치에 관한 것이다.
증강현실(augmented reality, AR)은 가상현실(AR)의 한 분야로 실제 환경에 가상의 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법으로, 디지털 미디어에서 빈번하게 사용된다.
증강현실은 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(mixed reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국을 중심으로 연구 및 개발이 진행되고 있다.
예컨대, 증강현실은 원격의료진단, 방송, 건축설계, 제조공정관리 등에 활용될 수 있다. 또한, 최근 스마트폰이 널리 보급되면서 본격적인 상업화 단계에 들어섰으며, 게임 및 모바일 솔루션 업계 및 교육 분야 등에서도 다양한 제품을 개발하고 있다.
한편, 증강현실을 실외에서 실현하는 것이 웨어러블 컴퓨터(wearable computer)일 수 있다. 특히, 머리에 쓰는 형태의 디스플레이 장치(head mounted display, HMD)는 사용자가 보는 실제 환경에 컴퓨터 그래픽 및 문자 등을 겹쳐 실시간으로 보여줌으로써 증강현실을 가능하게 한다. 또한, 헤드업 디스플레이(head up display, HUD)는 차량의 윈드실드 외부에 차량의 운행에 필요한 각종 정보를 보여줌으로써 증강현실을 가능하게 한다.
예컨대, 헤드업 디스플레이는 차량의 내부에서 윈드실드의 외부로 출력된 광원을 차량의 윈드실드 외부에 위치한 가상의 평면 상에 나타냄으로써, 운전자가 운전 중에 시선을 이동시키지 않고서도 그 가상의 평면에서 차량의 운행에 필요한 정보를 얻을 수 있도록 하여 증강현실을 구현할 수 있다.
이때, HMD 및 HUD 등과 같은 개별 증강현실 기기의 광학적 특성에 따라서 해당 증강현실 기기에 의해 형성되는 가상의 평면의 위치를 비롯한 기하학적 특성들이 결정될 수 있다.
따라서, 증강현실 기기의 출력에 대하여 광학적 특성을 측정할 수 있는 방법 및 장치에 관한 필요성이 대두되고 있다.
관련 선행기술로는 한국공개특허 제10-2017-0114375호(발명의 명칭: 가상현실 컨텐츠 표시 방법 및 장치, 공개일자: 2017년 10월 16일)가 있다.
본 발명은 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 측정하는 방법 및 장치를 제공하고자 한다.
또한, 본 발명은 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 이용하여, 증강현실 기기의 사용자를 기준으로 가상이미지까지의 거리(virtual image distance), 가상이미지의 룩다운/업 각도(look down/up angle), 수평/수직 화각(horizontal/vertical field of view), 정적 왜곡(static distortion), 고스팅 레벨(ghosting level) 등을 산출하는 방법 및 장치를 제공하고자 한다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위해, 본 발명에서 제공하는 증강현실 기기의 광학 특성 측정 방법은 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영하는 단계; 상기 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 상기 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득하는 단계; 및 상기 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 측정기준위치를 기준으로 하는 상기 복수의 패턴의 좌표를 산출하는 단계를 포함한다.
바람직하게는, 상기 복수의 카메라가 상기 측정기준위치에 위치한 중앙카메라, 상기 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 상기 테스트이미지에 상기 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 상기 복수의 패턴의 좌표를 산출하는 단계는 상기 복수의 촬영이미지의 가로 픽셀수, 상기 복수의 촬영이미지에서의 상기 복수의 패턴의 좌표, 상기 화각정보에 포함된 상기 복수의 카메라의 화각 및 상기 배치정보에 포함된 상기 좌측카메라와 상기 우측카메라 간의 거리를 이용하여, 상기 복수의 패턴의 좌표를 산출할 수 있다.
바람직하게는, 상기 복수의 패턴의 좌표를 산출하는 단계는 수학식 1을 이용하여 상기 복수의 패턴의 좌표를 산출할 수 있다.
[수학식 1]
Figure pat00001
Figure pat00002
Figure pat00003
여기서, xij, yij, zij는 상기 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 상기 좌측카메라와 상기 우측카메라 간의 거리이고, M는 상기 복수의 촬영이미지의 가로 픽셀수이고, θ는 상기 복수의 카메라의 화각이고, mL ij는 상기 좌측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 상기 우측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 상기 중심카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.
바람직하게는, 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치와 상기 가상평면 간의 가상이미지거리(virtual image distance)를 산출하는 단계를 더 포함할 수 있다.
바람직하게는, 상기 가상이미지거리를 산출하는 단계는 수학식 2를 이용하여 상기 가상이미지거리를 산출할 수 있다.
[수학식 2]
Figure pat00004
여기서, DVI는 상기 가상이미지거리이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
바람직하게는, 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치로부터 상기 가상평면에 대한 룩다운/업각도(look down/up angle)를 산출하는 단계를 더 포함할 수 있다.
바람직하게는, 상기 룩다운/업각도를 산출하는 단계는 수학식 3을 이용하여 상기 룩다운/업각도를 산출할 수 있다.
[수학식 3]
Figure pat00005
여기서, θdown/up은 상기 룩다운/업각도이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
바람직하게는, 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수평시야각(horizontal field of view)을 산출하는 단계를 더 포함할 수 있다.
바람직하게는, 상기 수평시야각을 산출하는 단계는 수학식 4를 이용하여 상기 수평시야각을 산출할 수 있다.
[수학식 4]
Figure pat00006
여기서, θH FOV는 상기 수평시야각이고, O는 상기 측정기준위치의 좌표이고, P21 및 P23은 상기 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
바람직하게는, 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수직시야각(vertical field of view)을 산출하는 단계를 더 포함할 수 있다.
바람직하게는, 상기 수직시야각을 산출하는 단계는 수학식 5를 이용하여 상기 수직시야각을 산출할 수 있다.
[수학식 5]
Figure pat00007
여기서, θV FOV는 상기 수직시야각이고, O는 상기 측정기준위치의 좌표이고, P12 및 P32은 상기 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
바람직하게는, 상기 가상평면 상의 상기 복수의 패턴의 좌표에 기초하여, 상기 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡(static distortion)을 산출하는 단계를 더 포함할 수 있다.
바람직하게는, 상기 복수의 패턴의 좌표를 산출하는 단계는 상기 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고, 상기 복수의 패턴의 좌표 및 상기 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨(ghosting level)을 산출하는 단계를 더 포함할 수 있다.
또한, 상기 목적을 달성하기 위해, 본 발명에서 제공하는 증강현실 기기의 광학 특성 측정 장치는 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영하는 촬영부; 상기 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 상기 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득하는 획득부; 및 상기 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 측정기준위치를 기준으로 하는 상기 복수의 패턴의 좌표를 산출하는 산출부를 포함한다.
바람직하게는, 상기 복수의 카메라가 상기 측정기준위치에 위치한 중앙카메라, 상기 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 상기 테스트이미지에 상기 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 상기 산출부는 상기 복수의 촬영이미지의 가로 픽셀수, 상기 복수의 촬영이미지에서의 상기 복수의 패턴의 좌표, 상기 화각정보에 포함된 상기 복수의 카메라의 화각 및 상기 배치정보에 포함된 상기 좌측카메라와 상기 우측카메라 간의 거리를 이용하여, 상기 복수의 패턴의 좌표를 산출할 수 있다.
바람직하게는, 상기 산출부는 수학식 6을 이용하여 상기 복수의 패턴의 좌표를 산출할 수 있다.
[수학식 6]
Figure pat00008
Figure pat00009
Figure pat00010
여기서, xij, yij, zij는 상기 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 상기 좌측카메라와 상기 우측카메라 간의 거리이고, M는 상기 복수의 촬영이미지의 가로 픽셀수이고, θ는 상기 복수의 카메라의 화각이고, mL ij는 상기 좌측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 상기 우측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 상기 중심카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.
바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치와 상기 가상평면 간의 가상이미지거리를 더 산출할 수 있다.
바람직하게는, 상기 산출부는 수학식 7을 이용하여 상기 가상이미지거리를 산출할 수 있다.
[수학식 7]
Figure pat00011
여기서, DVI는 상기 가상이미지거리이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치로부터 상기 가상평면에 대한 룩다운/업각도를 더 산출할 수 있다.
바람직하게는, 상기 산출부는 수학식 8을 이용하여 상기 룩다운/업각도를 산출할 수 있다.
[수학식 8]
Figure pat00012
여기서, θdown/up은 상기 룩다운/업각도이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수평시야각을 더 산출할 수 있다.
바람직하게는, 상기 산출부는 수학식 9를 이용하여 상기 수평시야각을 산출할 수 있다.
[수학식 9]
Figure pat00013
여기서, θH FOV는 상기 수평시야각이고, O는 상기 측정기준위치의 좌표이고, P21 및 P23은 상기 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수직시야각을 더 산출할 수 있다.
바람직하게는, 상기 산출부는 수학식 10을 이용하여 상기 수직시야각을 산출할 수 있다.
[수학식 10]
Figure pat00014
여기서, θV FOV는 상기 수직시야각이고, O는 상기 측정기준위치의 좌표이고, P12 및 P32은 상기 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
바람직하게는, 상기 산출부는 상기 가상평면 상의 상기 복수의 패턴의 좌표에 기초하여, 상기 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡을 더 산출할 수 있다.
바람직하게는, 상기 산출부가 상기 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고, 상기 복수의 패턴의 좌표 및 상기 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨을 더 산출할 수 있다.
본 발명은 복수의 카메라를 이용함으로써, 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 용이하게 측정할 수 있는 효과가 있다.
또한, 본 발명은 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 이용하여, 증강현실 기기의 사용자를 기준으로 가상이미지까지의 거리(virtual image distance), 가상이미지의 룩다운/업 각도(look down/up angle), 수평/수직 화각(horizontal/vertical field of view), 정적 왜곡(static distortion), 고스팅 레벨(ghosting level) 등을 산출할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 방법을 나타내는 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 가상이미지거리 산출 방법을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 룩다운/업각도 산출 방법을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 수평시야각 산출 방법을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 수직시야각 산출 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 정적 왜곡 산출 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 고스팅 레벨 산출 방법을 나타내는 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 장치를 나타내는 블록도이다.
도 9a 및 9b는 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정을 위한 환경을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 복수의 카메라를 이용하여 가상평면 상의 테스트이미지를 촬영한 결과를 설명하기 위한 도면이다.
도 11a 및 11b는 본 발명의 일 실시예에 따른 복수의 카메라를 이용하여 촬영한 촬영이미지에 포함된 복수의 패턴의 좌표를 설명하기 위한 도면이다.
도 12a 및 12b는 본 발명의 일 실시예에 따른 복수의 패턴의 좌표를 산출하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따른 가상이미지거리를 산출하는 방법을 설명하기 위한 도면이다.
도 14a 및 14b는 본 발명의 일 실시예에 따른 룩다운/업각도를 산출하는 방법을 설명하기 위한 도면이다.
도 15a 및 15b는 본 발명의 일 실시예에 따른 수평시야각 및 수직시야각을 산출하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 정적 왜곡을 산출하는 방법을 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시예에 따른 고스팅 레벨을 산출하는 방법을 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명은 가상현실 기기의 광학적 특성을 측정하는 방법 및 장치에 관한 것으로, 다음과 같은 환경에서 그 측정이 수행될 수 있다. 예컨대, 도 9a를 참조하면, 사용자의 눈이 아이박스(eye box)에 위치하고, 가상현실 기기의 출력에 의한 가상평면이 투명 또는 반투명의 스크린(예, 차량의 윈드실드) 외부에 형성될 수 있다. 이때, 사용자는 눈만을 움직여서 가상평면의 전체를 볼 수 있다. 또한, 도 9b를 참조하면, 아이박스에는 측정기준위치를 중심으로 복수의 카메라가 배치될 수 있다. 보다 구체적으로, 측정기준위치에 camC가 배치되고, 그 양 옆으로 대칭되는 위치에 camL 및 camR이 배치될 수 있다. 한편, 테스트이미지에는 복수의 패턴이 가로 및 세로로 정렬(예, 3x3)되어 위치할 수 있다.
그러나, 본 발명은 이와 같은 환경에서만 실시되는 것으로 한정되지 않으며, 상이한 여러 환경에서 실시될 수 있음은 물론이다. 예컨대, 아이박스의 위치 및 크기, 카메라의 개수 및 배치, 테스트이미지에 포함된 패턴의 개수 및 배치 등이 측정 환경에 따라 달라질 수 있다.
도 1은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 방법을 나타내는 흐름도이다.
단계 S110에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
예컨대, 도 9b를 참조하면, 아이박스의 중심에 위치한 측정기준위치에 한대의 카메라가 배치되고, 그 양 옆으로 동일한 높이에 나머지 카메라가 정면을 향해 대칭되어 배치될 수 있다.
이때, 광학 특성 측정 장치는 복수의 카메라와 무선 또는 유선을 통해 연결되어, 가상평면 상의 테스트이미지를 촬영하도록 하는 명령을 전송할 수 있다.
단계 S120에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
예컨대, 광학 특성 측정 장치는 사용자로부터 카메라의 화각에 대한 정보 및 카메라의 배치에 관한 정보를 입력받아, 화각정보 및 배치정보를 획득할 수 있다. 바람직하게는, 카메라의 화각에 관한 정보는 수평 화각이고, 카메라의 배치에 관한 정보는 측정기준위치의 양 옆에 대칭되어 배치된 카메라 간의 이격 거리일 수 있다.
마지막으로 단계 S130에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.
이때, 광학 특성 측정 장치는 복수의 촬영이미지의 크기에 관한 정보, 복수의 촬영이미지에 포함된 복수의 패턴의 이미지 내에서의 좌표에 관한 정보, 복수의 카메라의 화각에 관한 정보, 복수의 카메라의 배치에 관한 정보를 이용하여, 측정기준위치를 원점(0, 0, 0)으로 하는 가상평면 상의 복수의 패턴의 3차원 좌표를 산출할 수 있다.
한편, 복수의 패턴의 좌표를 산출하는 자세한 방법에 대하여는 아래의 실시예에서 구체적으로 후술한다.
다른 실시예에서는, 광학 특성 측정 장치가 그 복수의 카메라가 측정기준위치에 위치한 중앙카메라, 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 테스트이미지에 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 복수의 촬영이미지의 가로 픽셀수, 복수의 촬영이미지에서의 복수의 패턴의 좌표, 화각정보에 포함된 그 복수의 카메라의 화각 및 배치정보에 포함된 좌측카메라와 우측카메라 간의 거리를 이용하여, 복수의 패턴의 좌표를 산출할 수 있다.
예컨대, 도 9b를 참조하면, 복수의 카메라가 측정기준위치에 위치한 중앙카메라(camC)와 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라(camL) 및 우측카메라(camR)일 수 있다. 또한, 테스트이미지에 9개의 패턴이 가로 및 세로로 정렬되어 배치될 수 있다.
이때, 광학 특성 측정 장치는 복수의 촬영이미지의 가로 픽셀수, 복수의 촬영이미지에서의 복수의 패턴의 좌표, 화각정보에 포함된 그 복수의 카메라의 화각 및 배치정보에 포함된 좌측카메라와 우측카메라 간의 거리를 이용하여, 측정기준위치를 원점(0, 0, 0)으로 하는 가상평면 상의 9개 패턴의 3차원 좌표를 각각 산출할 수 있다.
또 다른 실시예에서는, 광학 특성 측정 장치가 수학식 1을 이용하여 복수의 패턴의 좌표를 산출할 수 있다.
[수학식 1]
Figure pat00015
Figure pat00016
Figure pat00017
여기서, xij, yij, zij는 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 좌측카메라와 우측카메라 간의 거리이고, M는 복수의 촬영이미지의 가로 픽셀수이고, θ는 복수의 카메라의 화각이고, mL ij는 좌측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 우측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 중심카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.
이때, 도 10을 참조하면, 아이박스의 중심인 측정기준위치에 중앙카메라(camC)가 배치되고, 좌측카메라(camL) 및 우측카메라(camR)가 α의 거리를 두고 이격되어 배치될 수 있다. 그리고, 광학 특성 측정 장치가 정면을 향하도록 배치된 중앙카메라(camC), 좌측카메라(camL) 및 우측카메라(camR)를 이용하여, 가상평면 상의 테스트이미지를 촬영할 수 있다. 그 결과, 좌측카메라(camL)를 이용하여 촬영한 촬영이미지(captured image by camL)는 테스트이미지가 우측으로 치우치고, 중앙카메라(camC)를 이용하여 촬영한 촬영이미지(captured image by camC)는 테스트이미지가 치우치지 않고, 우측카메라(camR)를 이용하여 촬영한 촬영이미지(captured image by camR)는 테스트이미지가 좌측으로 치우칠 수 있다.
한편, 도 11a를 참조하면, 가상평면 상에 나타나는 9개의 패턴의 3차원 좌표는 Pij = (xij, yij, zij)로 나타낼 수 있으며, i는 패턴의 가로인덱스(i=1,2,3), j는 패턴의 세로인덱스(j=1,2,3)일 수 있다. 즉, Pij는 가로 i번째, 세로 j번째 패턴의 중심부의 3차원 좌표일 수 있다.
또한, 도 11b를 참조하면, 촬영이미지에 나타나는 9개의 패턴의 픽셀 좌표는 PL ij, PC ij, PR ij로 나타낼 수 있고, 각각 좌측카메라(camL), 중앙카메라(camC), 우측카메라(camR)의 촬영이미지에 나타나는 패턴의 좌표를 의미할 수 있다. 이때, PL ij = (mL ij, nL ij), PC ij = (mC ij, nC ij), PR ij = (mR ij, nR ij)일 수 있다. 이때, PL ij, PC ij, PR ij는 가로 i번째, 세로 j번째 패턴의 중심부의 픽셀 좌표일 수 있다.
한편, 도 12a를 참조하면, 아래의 수학식 2와 같은 비례 관계가 성립함을 알 수 있다.
[수학식 2]
Figure pat00018
여기서, z는 측정기준위치로부터 가상평면까지의 z축으로의 거리이고, θ는 카메라의 화각이고, α는 좌측카메라와 우측카메라 간의 거리이고, mL ij는 좌측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 우측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, M은 촬영이미지의 가로 픽셀수이다.
이때, 수학식 2를 변형하면 수학식 1을 얻을 수 있음은 자명하다.
예컨대, 도 12b를 참조하면, 광학 특성 측정 장치가 동일한 패턴(i=1, j=1)에 관하여 중앙카메라(camC), 좌측카메라(camL) 및 우측카메라(camR)를 이용하여 촬영한 결과를 이용하여, 수학식 1을 통해 x11, y11, z11을 산출할 수 있다.
도 2는 본 발명의 일 실시예에 따른 가상이미지거리 산출 방법을 나타내는 흐름도이다.
단계 S210에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
단계 S220에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
단계 S230에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.
마지막으로 단계 S240에서는, 광학 특성 측정 장치가 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치와 가상평면 간의 가상이미지거리(virtual image distance)를 산출한다.
예컨대, 도 13을 참조하면, 광학 특성 측정 장치는 측정기준위치인 (0, 0, 0)을 기준으로 P22의 좌표(x22, y22, z22)까지의 거리를 산출하여 가상이미지거리를 산출할 수 있다.
다른 실시예에서는, 광학 특성 측정 장치가 수학식 3을 이용하여 가상이미지거리를 산출할 수 있다.
[수학식 3]
Figure pat00019
여기서, DVI는 가상이미지거리이고, x22, y22, z22는 i=2, j=2인 패턴의 3차원 좌표이다.
도 3은 본 발명의 일 실시예에 따른 룩다운/업각도 산출 방법을 나타내는 흐름도이다.
단계 S310에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
단계 S320에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
단계 S330에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.
마지막으로 단계 S340에서는, 광학 특성 측정 장치가 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치로부터 가상평면에 대한 룩다운/업각도(look down/up angle)를 산출한다.
이때, 룩다운/업각도는 아이박스와 가상평면의 높이의 차이를 나타내는 각도로서, 사용자가 가상평면을 올려보는지 또는 내려보는지를 나타낸다.
예컨대, 사용자의 눈이 위치하는 측정기준위치인 (0, 0, 0)을 기준으로 P22의 좌표(x22, y22, z22)를 산출하였을 때, y22 < 0이면 도 14a와 같이 내려보는 룩다운(look down)의 상황이 되고, y22 > 0이면 도 14b와 같이 올려보는 룩업(look up)의 상황이 될 수 있다.
다른 실시예에서는, 광학 특성 측정 장치가 수학식 4를 이용하여 룩다운/업각도를 산출할 수 있다.
[수학식 4]
Figure pat00020
여기서, θdown/up은 룩다운/업각도이고, x22, y22, z22는 i=2, j=2인 패턴의 3차원 좌표이다.
도 4는 본 발명의 일 실시예에 따른 수평시야각 산출 방법을 나타내는 흐름도이다.
단계 S410에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
단계 S420에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
단계 S430에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.
마지막으로 단계 S440에서는, 광학 특성 측정 장치가 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수평시야각(horizontal field of view)을 산출한다.
예컨대, 도 15a를 참조하면, 광학 특성 측정 장치는 측정기준위치의 3차원 좌표 O = (0, 0, 0), 가상평면 상의 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴인 P21 = (x21, y21, z21) 및 P23 = (x23, y23, z23)의 3차원 좌표를 이용하여, 각도 ∠ P21OP23를 수평시야각으로 산출할 수 있다.
다른 실시예에서는, 광학 특성 측정 장치가 수학식 5를 이용하여 수평시야각을 산출할 수 있다.
[수학식 5]
Figure pat00021
여기서, θH FOV는 수평시야각이고, O는 측정기준위치의 좌표이고, P21 및 P23은 복수의 패턴 중에서 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
도 5는 본 발명의 일 실시예에 따른 수직시야각 산출 방법을 나타내는 흐름도이다.
단계 S510에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
단계 S520에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
단계 S530에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.
마지막으로 단계 S540에서는, 광학 특성 측정 장치가 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수직시야각(vertical field of view)을 산출한다.
예컨대, 도 15b를 참조하면, 광학 특성 측정 장치는 측정기준위치의 3차원 좌표 O = (0, 0, 0), 가상평면 상의 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴인 P12 = (x12, y12, z12) 및 P32 = (x32, y32, z32)의 3차원 좌표를 이용하여, 각도 ∠ P12OP32를 수직시야각으로 산출할 수 있다.
다른 실시예에서는, 광학 특성 측정 장치가 수학식 6을 이용하여 수직시야각을 산출할 수 있다.
[수학식 6]
Figure pat00022
여기서, θV FOV는 수직시야각이고, O는 측정기준위치의 좌표이고, P12 및 P32은 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
도 6은 본 발명의 일 실시예에 따른 정적 왜곡 산출 방법을 나타내는 흐름도이다.
단계 S610에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
단계 S620에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
단계 S630에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.
마지막으로 단계 S640에서는, 광학 특성 측정 장치는 가상평면 상의 복수의 패턴의 좌표에 기초하여, 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡(static distortion)을 산출한다.
이때, 정적 왜곡은 가상현실 기기의 프로젝션에 의해 유발되는 것으로서, 도 16을 참조하면, 3개의 축(x, y, z) 각각에 대응되는 선형을 기준으로 하는 복수의 패턴의 3차원 좌표의 편차 정도(deviation degree)를 나타낸다.
한편, 광학 특성 측정 장치는 수학식 7을 이용하여 3개 축 각각에 대한 정적 왜곡을 산출할 수 있다.
[수학식 7]
Figure pat00023
Figure pat00024
Figure pat00025
여기서, DTx Linearity, DTy Linearity, DTz Linearity는 각각 x, y, z축을 기준으로 하는 한 선형 왜곡값이고, xab, yab, zab는 가로 a(a=1,2,3)번째, 세로 b(b=1,2,3)번째 패턴의 x, y, z좌표이다.
도 7은 본 발명의 일 실시예에 따른 고스팅 레벨 산출 방법을 나타내는 흐름도이다.
단계 S710에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
단계 S720에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
단계 S730에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표 및 복수의 고스트 패턴의 좌표를 산출한다.
예컨대, 고스트 패턴은 입력되는 빛의 절반은 투과시키고, 나머지 절반은 반사시키는 차량의 윈드실드에서 나타날 수 있다. 보다 구체적으로, 도 17을 참조하면, 윈드실드의 2개의 물리적 레이어가 고스트 현상을 일으켜, 사용자에게 가상평면 상의 패턴과 그 패턴에 대응되는 고스트 패턴이 이중 이미지(double images)로 겹쳐져 보이거나, 흐리게(blurred)보일 수 있다.
이때, 광학 특성 측정 장치는 복수의 패턴의 좌표를 산출하는 방법과 동일한 방법으로, 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 산출할 수 있다.
마지막으로 단계 S740에서는, 광학 특성 측정 장치가 복수의 패턴의 좌표 및 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨(ghosting level)을 산출할 수 있다.
이때, 광학 특성 측정 장치는 원래의 패턴과 대응되는 고스트 패턴과의 차이(gap)으로부터 고스팅 레벨을 산출할 수 있다.
보다 구체적으로, 광학 특성 측정 장치는 수학식 8을 이용하여 고스팅 레벨을 산출할 수 있다.
[수학식 8]
Figure pat00026
여기서, Ghost는 고스팅 레벨이고, xij, yij, zij는 가로 i(i=1,2,3)번째, 세로 j(j=1,2,3)번째 패턴의 x, y, z좌표이고, xGij, yGij, zGij는 가로 i번째, 세로 j번째 고스트 패턴의 x, y, z좌표이다.
도 8은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 장치를 나타내는 블록도이다.
도 8을 참조하면, 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 장치(800)는 촬영부(810), 획득부(820) 및 산출부(830)를 포함한다.
촬영부(810)는 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.
획득부(820)는 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.
마지막으로 산출부(830)는 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.
다른 실시예에서는, 복수의 카메라가 측정기준위치에 위치한 중앙카메라, 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 테스트이미지에 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 산출부(830)는 복수의 촬영이미지의 가로 픽셀수, 복수의 촬영이미지에서의 복수의 패턴의 좌표, 화각정보에 포함된 복수의 카메라의 화각 및 배치정보에 포함된 좌측카메라와 우측카메라 간의 거리를 이용하여, 복수의 패턴의 좌표를 산출할 수 있다.
또 다른 실시예에서는, 산출부(830)는 수학식 9를 이용하여 복수의 패턴의 좌표를 산출할 수 있다.
[수학식 9]
Figure pat00027
Figure pat00028
Figure pat00029
여기서, xij, yij, zij는 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 좌측카메라와 우측카메라 간의 거리이고, M는 복수의 촬영이미지의 가로 픽셀수이고, θ는 복수의 카메라의 화각이고, mL ij는 좌측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 우측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 중심카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.
또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치와 가상평면 간의 가상이미지거리를 더 산출할 수 있다.
또 다른 실시예에서는, 산출부(830)는 수학식 10을 이용하여 가상이미지거리를 산출할 수 있다.
[수학식 10]
Figure pat00030
여기서, DVI는 가상이미지거리이고, x22, y22, z22는 복수의 패턴 중 하나의 패턴의 좌표이다.
또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치로부터 가상평면에 대한 룩다운/업각도를 더 산출할 수 있다.
또 다른 실시예에서는, 산출부(830)는 수학식 11을 이용하여 룩다운/업각도를 산출할 수 있다.
[수학식 11]
Figure pat00031
여기서, θdown/up은 룩다운/업각도이고, x22, y22, z22는 복수의 패턴 중 하나의 패턴의 좌표이다.
또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수평시야각을 더 산출할 수 있다.
또 다른 실시예에서는, 산출부(830)는 수학식 12를 이용하여 수평시야각을 산출할 수 있다.
[수학식 12]
Figure pat00032
여기서, θH FOV는 수평시야각이고, O는 측정기준위치의 좌표이고, P21 및 P23은 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수직시야각을 더 산출할 수 있다.
또 다른 실시예에서는, 산출부(830)는 수학식 13을 이용하여 수직시야각을 산출할 수 있다.
[수학식 13]
Figure pat00033
여기서, θV FOV는 수직시야각이고, O는 측정기준위치의 좌표이고, P12 및 P32은 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
또 다른 실시예에서는, 산출부(830)는 가상평면 상의 복수의 패턴의 좌표에 기초하여, 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡을 더 산출할 수 있다.
또 다른 실시예에서는, 산출부(830)는 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고, 복수의 패턴의 좌표 및 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨을 더 산출할 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (26)

  1. 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영하는 단계;
    상기 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 상기 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득하는 단계; 및
    상기 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 측정기준위치를 기준으로 하는 상기 복수의 패턴의 좌표를 산출하는 단계
    를 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  2. 제1항에 있어서,
    상기 복수의 카메라가 상기 측정기준위치에 위치한 중앙카메라, 상기 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 상기 테스트이미지에 상기 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때,
    상기 복수의 패턴의 좌표를 산출하는 단계는
    상기 복수의 촬영이미지의 가로 픽셀수, 상기 복수의 촬영이미지에서의 상기 복수의 패턴의 좌표, 상기 화각정보에 포함된 상기 복수의 카메라의 화각 및 상기 배치정보에 포함된 상기 좌측카메라와 상기 우측카메라 간의 거리를 이용하여, 상기 복수의 패턴의 좌표를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  3. 제2항에 있어서,
    상기 복수의 패턴의 좌표를 산출하는 단계는
    수학식 1을 이용하여 상기 복수의 패턴의 좌표를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
    [수학식 1]
    Figure pat00034

    Figure pat00035

    Figure pat00036

    여기서, xij, yij, zij는 상기 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 상기 좌측카메라와 상기 우측카메라 간의 거리이고, M는 상기 복수의 촬영이미지의 가로 픽셀수이고, θ는 상기 복수의 카메라의 화각이고, mL ij는 상기 좌측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 상기 우측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 상기 중심카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.
  4. 제1항에 있어서,
    상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치와 상기 가상평면 간의 가상이미지거리(virtual image distance)를 산출하는 단계
    를 더 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  5. 제4항에 있어서,
    상기 가상이미지거리를 산출하는 단계는
    수학식 2를 이용하여 상기 가상이미지거리를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
    [수학식 2]
    Figure pat00037

    여기서, DVI는 상기 가상이미지거리이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
  6. 제1항에 있어서,
    상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치로부터 상기 가상평면에 대한 룩다운/업각도(look down/up angle)를 산출하는 단계
    를 더 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  7. 제6항에 있어서,
    상기 룩다운/업각도를 산출하는 단계는
    수학식 3을 이용하여 상기 룩다운/업각도를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
    [수학식 3]
    Figure pat00038

    여기서, θdown/up은 상기 룩다운/업각도이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
  8. 제1항에 있어서,
    상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수평시야각(horizontal field of view)을 산출하는 단계
    를 더 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  9. 제8항에 있어서,
    상기 수평시야각을 산출하는 단계는
    수학식 4를 이용하여 상기 수평시야각을 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
    [수학식 4]
    Figure pat00039

    여기서, θH FOV는 상기 수평시야각이고, O는 상기 측정기준위치의 좌표이고, P21 및 P23은 상기 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
  10. 제1항에 있어서,
    상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수직시야각(vertical field of view)을 산출하는 단계
    를 더 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  11. 제10항에 있어서,
    상기 수직시야각을 산출하는 단계는
    수학식 5를 이용하여 상기 수직시야각을 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
    [수학식 5]
    Figure pat00040

    여기서, θV FOV는 상기 수직시야각이고, O는 상기 측정기준위치의 좌표이고, P12 및 P32은 상기 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
  12. 제1항에 있어서,
    상기 가상평면 상의 상기 복수의 패턴의 좌표에 기초하여, 상기 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡(static distortion)을 산출하는 단계
    를 더 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  13. 제1항에 있어서,
    상기 복수의 패턴의 좌표를 산출하는 단계는
    상기 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고,
    상기 복수의 패턴의 좌표 및 상기 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨(ghosting level)을 산출하는 단계
    를 더 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 방법.
  14. 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영하는 촬영부;
    상기 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 상기 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득하는 획득부; 및
    상기 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 측정기준위치를 기준으로 하는 상기 복수의 패턴의 좌표를 산출하는 산출부
    를 포함하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
  15. 제14항에 있어서,
    상기 복수의 카메라가 상기 측정기준위치에 위치한 중앙카메라, 상기 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 상기 테스트이미지에 상기 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때,
    상기 산출부는
    상기 복수의 촬영이미지의 가로 픽셀수, 상기 복수의 촬영이미지에서의 상기 복수의 패턴의 좌표, 상기 화각정보에 포함된 상기 복수의 카메라의 화각 및 상기 배치정보에 포함된 상기 좌측카메라와 상기 우측카메라 간의 거리를 이용하여, 상기 복수의 패턴의 좌표를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
  16. 제15항에 있어서,
    상기 산출부는
    수학식 6을 이용하여 상기 복수의 패턴의 좌표를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
    [수학식 6]
    Figure pat00041

    Figure pat00042

    Figure pat00043

    여기서, xij, yij, zij는 상기 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 상기 좌측카메라와 상기 우측카메라 간의 거리이고, M는 상기 복수의 촬영이미지의 가로 픽셀수이고, θ는 상기 복수의 카메라의 화각이고, mL ij는 상기 좌측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 상기 우측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 상기 중심카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.
  17. 제14항에 있어서,
    상기 산출부는
    상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치와 상기 가상평면 간의 가상이미지거리를 더 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
  18. 제17항에 있어서,
    상기 산출부는
    수학식 7을 이용하여 상기 가상이미지거리를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
    [수학식 7]
    Figure pat00044

    여기서, DVI는 상기 가상이미지거리이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
  19. 제14항에 있어서,
    상기 산출부는
    상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치로부터 상기 가상평면에 대한 룩다운/업각도를 더 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
  20. 제19항에 있어서,
    상기 산출부는
    수학식 8을 이용하여 상기 룩다운/업각도를 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
    [수학식 8]
    Figure pat00045

    여기서, θdown/up은 상기 룩다운/업각도이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.
  21. 제14항에 있어서,
    상기 산출부는
    상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수평시야각을 더 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
  22. 제21항에 있어서,
    상기 산출부는
    수학식 9를 이용하여 상기 수평시야각을 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
    [수학식 9]
    Figure pat00046

    여기서, θH FOV는 상기 수평시야각이고, O는 상기 측정기준위치의 좌표이고, P21 및 P23은 상기 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
  23. 제14항에 있어서,
    상기 산출부는
    상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수직시야각을 더 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
  24. 제23항에 있어서,
    상기 산출부는
    수학식 10을 이용하여 상기 수직시야각을 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
    [수학식 10]
    Figure pat00047

    여기서, θV FOV는 상기 수직시야각이고, O는 상기 측정기준위치의 좌표이고, P12 및 P32은 상기 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.
  25. 제14항에 있어서,
    상기 산출부는
    상기 가상평면 상의 상기 복수의 패턴의 좌표에 기초하여, 상기 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡을 더 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
  26. 제14항에 있어서,
    상기 산출부가
    상기 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고,
    상기 복수의 패턴의 좌표 및 상기 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨을 더 산출하는 것을 특징으로 하는 증강현실 기기의 광학 특성 측정 장치.
KR1020180140736A 2018-11-15 2018-11-15 증강현실 기기의 광학 특성 측정 방법 및 장치 KR20200056721A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180140736A KR20200056721A (ko) 2018-11-15 2018-11-15 증강현실 기기의 광학 특성 측정 방법 및 장치
US17/294,579 US11953401B2 (en) 2018-11-15 2019-11-15 Method and apparatus for measuring optical characteristics of augmented reality device
PCT/KR2019/015628 WO2020101420A1 (ko) 2018-11-15 2019-11-15 증강현실 기기의 광학 특성 측정 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180140736A KR20200056721A (ko) 2018-11-15 2018-11-15 증강현실 기기의 광학 특성 측정 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20200056721A true KR20200056721A (ko) 2020-05-25

Family

ID=70731289

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180140736A KR20200056721A (ko) 2018-11-15 2018-11-15 증강현실 기기의 광학 특성 측정 방법 및 장치

Country Status (3)

Country Link
US (1) US11953401B2 (ko)
KR (1) KR20200056721A (ko)
WO (1) WO2020101420A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230050094A (ko) * 2021-10-07 2023-04-14 주식회사 엘지유플러스 스마트 글래스 및 제어방법
KR102589945B1 (ko) * 2022-12-27 2023-10-17 주식회사 피앤씨솔루션 가상현실 또는 증강현실용 광학계 렌즈를 위한, 복시 발생 여부 및 이물질 검출 여부 동시 검사 장치
WO2024085351A1 (ko) * 2022-10-17 2024-04-25 숙명여자대학교산학협력단 Hud 고스트 이미지 측정 방법 및 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3123978A1 (fr) * 2021-06-10 2022-12-16 Psa Automobiles Sa Système de mesure d’une distance pour un afficheur tête haute
CN114427955A (zh) * 2021-12-29 2022-05-03 青岛歌尔声学科技有限公司 光学镜头畸变测试***以及测试方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2294960A1 (en) * 1997-07-21 1999-02-04 Will N. Bauer Virtual positioning media control system
KR101633359B1 (ko) 2009-10-20 2016-06-27 삼성전자 주식회사 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법
KR20140065210A (ko) 2012-11-21 2014-05-29 엘지전자 주식회사 차랑용 거리 측정 장치 및 방법
KR101559012B1 (ko) 2013-11-12 2015-10-12 현대오트론 주식회사 증강현실 헤드업 디스플레이 영상의 보정 장치 및 그 방법
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
KR101799988B1 (ko) 2016-04-04 2017-11-21 삼성물산 주식회사 가상현실 컨텐츠 표시 방법 및 장치
KR101879586B1 (ko) * 2016-12-16 2018-07-18 경희대학교 산학협력단 증강 현실 구현 관리 방법 및 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230050094A (ko) * 2021-10-07 2023-04-14 주식회사 엘지유플러스 스마트 글래스 및 제어방법
WO2024085351A1 (ko) * 2022-10-17 2024-04-25 숙명여자대학교산학협력단 Hud 고스트 이미지 측정 방법 및 장치
KR102589945B1 (ko) * 2022-12-27 2023-10-17 주식회사 피앤씨솔루션 가상현실 또는 증강현실용 광학계 렌즈를 위한, 복시 발생 여부 및 이물질 검출 여부 동시 검사 장치

Also Published As

Publication number Publication date
US11953401B2 (en) 2024-04-09
US20220011193A1 (en) 2022-01-13
WO2020101420A1 (ko) 2020-05-22

Similar Documents

Publication Publication Date Title
KR20200056721A (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
US9881421B2 (en) Image processing
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
US10999412B2 (en) Sharing mediated reality content
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
US11720996B2 (en) Camera-based transparent display
US20100302234A1 (en) Method of establishing dof data of 3d image and system thereof
TWI453462B (zh) 智慧型電子裝置之虛擬望遠系統及其方法
US11568555B2 (en) Dense depth computations aided by sparse feature matching
KR101148508B1 (ko) 모바일 기기 디스플레이의 표시 장치 및 그 방법, 이를 이용하는 모바일 기기
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
US20180330546A1 (en) Wind rendering for virtual reality computing device
JP2017158153A (ja) 画像処理装置および画像処理方法
Deng et al. Towards stereoscopic on-vehicle AR-HUD
US10296098B2 (en) Input/output device, input/output program, and input/output method
JP5252703B2 (ja) 立体映像表示装置、立体映像表示方法、及び立体映像表示プログラム
JP2014071277A (ja) ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
JP6515512B2 (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
JP6073123B2 (ja) 立体表示システム、立体像生成装置及び立体像生成プログラム
WO2014119555A1 (ja) 画像処理装置、表示装置及びプログラム
KR102675906B1 (ko) Hud 고스트 이미지 측정 방법 및 장치
KR20240020051A (ko) 자동차 내부 카메라를 이용한 hud 캘리브레이션 방법 및 장치
JP2014112758A (ja) 立体表示装置及び立体表示システム
CN115665400B (zh) 增强现实抬头显示成像方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal