KR20240012918A - 가상 객체 시인성 개선 장치 - Google Patents

가상 객체 시인성 개선 장치 Download PDF

Info

Publication number
KR20240012918A
KR20240012918A KR1020220090474A KR20220090474A KR20240012918A KR 20240012918 A KR20240012918 A KR 20240012918A KR 1020220090474 A KR1020220090474 A KR 1020220090474A KR 20220090474 A KR20220090474 A KR 20220090474A KR 20240012918 A KR20240012918 A KR 20240012918A
Authority
KR
South Korea
Prior art keywords
virtual object
transparent display
display unit
shaded area
real
Prior art date
Application number
KR1020220090474A
Other languages
English (en)
Other versions
KR102646925B1 (ko
Inventor
이성욱
Original Assignee
주식회사 긱스로프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 긱스로프트 filed Critical 주식회사 긱스로프트
Priority to KR1020220090474A priority Critical patent/KR102646925B1/ko
Priority to PCT/KR2023/010625 priority patent/WO2024019599A1/ko
Publication of KR20240012918A publication Critical patent/KR20240012918A/ko
Application granted granted Critical
Publication of KR102646925B1 publication Critical patent/KR102646925B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • Accounting & Taxation (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상 객체 시인성 개선 장치는 가상 객체를 표시하는 투명 디스플레이부의 뒤에 가상 객체의 크기와 일치하는 음영 영역을 표시하는 보조 투명 디스플레이부를 구비하고, 사람의 눈으로 볼 때, 투명 디스플레이부에서 현실 공간 실제 객체에 가상 객체가 표시되고, 가상 객체가 음영 영역으로 인하여 현실 공간 실제 객체의 빛이 가상 객체로 투과되지 않아서 가상 객체가 현실 공간 실제 객체에 겹쳐 보이지 않도록 한다.
본 발명은 가상 객체가 현실 공간 실제 객체에 디스플레이될 때, 해당 가상 객체에 현실 공간 실제 객체의 빛이 투과되지 못하도록 하여 가상 객체의 시인성을 높임으로써 가상 객체가 실제 공간에 존재하는 객체로 여겨지는 실재감을 향상시킬 수 있는 효과가 있다.

Description

가상 객체 시인성 개선 장치{Apparatus for Improving Visibility Virtual Object}
본 발명은 가상 객체 시인성 개선 장치에 관한 것으로서, 더욱 상세하게는 가상 객체를 표시하는 투명 디스플레이부의 뒤에 가상 객체의 크기와 일치하는 음영 영역을 표시하는 보조 투명 디스플레이부를 구비하고, 사람의 눈으로 볼 때, 투명 디스플레이부에서 현실 공간 실제 객체에 가상 객체가 표시되고, 가상 객체가 음영 영역으로 인하여 현실 공간 실제 객체의 빛이 가상 객체로 투과되지 않아서 가상 객체가 현실 공간 실제 객체에 겹쳐 보이지 않도록 하는 가상 객체 시인성 개선 장치에 관한 것이다.
구글, 페이스북, 마이크로소프트, 삼성 등 글로벌 IT 산업은 가상 현실(Virtual Reality, VR), 증강 현실(Augmented Reality, AR), 혼합 현실(Mixed Reality, MR)에 대한 대규모 기술 투자를 아끼지 않고 있다.
이러한 기술들은 현실의 감각을 시공간을 넘어 확장 증폭하려는 시도와 맞닿아 있다. 그래서 이들 기술을 통칭하여 확장 현실(Extend Reality, XR)이라고 부른다. XR 기술은 게임뿐만 아니라 다양한 분야와 융복합을 통해 현실의 제약을 벗어나 새로운 경험을 소비자에게 안겨줄 수 있다.
가상 현실 기술은 컴퓨터를 이용하여 현실 세계에 존재하지 않는 가상 공간을 구축한 후 그 가상 공간을 현실처럼 느끼게 하는 기술을 말하고, 증강 현실 또는 혼합 현실 기술은 현실 세계 위에 컴퓨터에 의해 생성된 정보를 덧붙여 표현하는 기술, 즉 현실 세계와 가상 세계를 결합하여 실시간으로 사용자와 상호 작용이 이루어지도록 하는 기술을 말한다.
XR 기술이 적용된 XR 헤드셋은 현실 세계와 가상 세계를 결합하여 실시간으로 출력하는 투명 디스플레이 장치를 장착되어 있다.
그러나 투명 디스플레이 장치는 투명한 성질을 가져서 장치 뒷쪽 배경이 그대로 비치는 장치를 나타낸다.
도 1은 종래 기술에 따른 투명 디스플레이 장치에 가상 객체와 배경 이미지를 출력한 모습을 나타낸 도면이다.
투명 디스플레이 장치는 가상 객체를 출력하게 되는데, 투명 디스플레이 장치의 특성상 불가피하게 배경 이미지와 겹쳐 보일 수 밖에 없으며, 이에 따라 가상 객체의 시인성과 실재감이 저하되는 문제점이 있다. 이러한 문제점은 XR 기술의 활성화나 대중화를 방해하는 커다란 요인이 되고 있다.
한국 등록특허번호 제10-2255832호
이와 같은 문제점을 해결하기 위하여, 본 발명은 가상 객체를 표시하는 투명 디스플레이부의 뒤에 가상 객체의 크기와 일치하는 음영 영역을 표시하는 보조 투명 디스플레이부를 구비하고, 사람의 눈으로 볼 때, 투명 디스플레이부에서 현실 공간 실제 객체에 가상 객체가 표시되고, 가상 객체가 음영 영역으로 인하여 현실 공간 실제 객체의 빛이 가상 객체로 투과되지 않아서 가상 객체가 현실 공간 실제 객체에 겹쳐 보이지 않도록 하는 가상 객체 시인성 개선 장치를 제공하는데 그 목적이 있다.
상기 목적을 달성하기 위한 본 발명의 특징에 따른 가상 객체 시인성 개선 장치는,
그래픽 객체를 나타내는 가상 객체를 표시하는 투명 디스플레이부;
상기 투명 디스플레이부의 뒤에 위치하고, 상기 가상 객체의 크기와 일치하는 음영 영역을 생성하고, 상기 생성한 음영 영역을 상기 가상 객체와 동일한 위치에 표시하여 상기 투명 디스플레이부를 통해 배경으로 보이는 현실 공간 실제 객체의 빛이 상기 가상 객체에 투과되지 못하도록 하는 보조 투명 디스플레이부; 및
상기 가상 객체가 상기 투명 디스플레이부에 디스플레이 될 때, 동시에 상기 가상 객체와 동일한 위치에 상기 음영 영역을 상기 보조 투명 디스플레이부에 출력하도록 제어하는 제어부를 포함하며, 사람의 눈으로 보는 경우, 상기 투명 디스플레이부는 상기 현실 공간 실제 객체에 상기 가상 객체가 표시되고, 상기 가상 객체가 상기 음영 영역으로 인하여 상기 현실 공간 실제 객체의 빛이 상기 가상 객체로 투과되지 않아서 상기 가상 객체가 상기 현실 공간 실제 객체에 겹쳐 보이지 않도록 할 수 있다.
전술한 구성에 의하여, 본 발명은 가상 객체가 현실 공간 실제 객체에 디스플레이될 때, 해당 가상 객체에 현실 공간 실제 객체의 빛이 투과되지 못하도록 하여 가상 객체의 시인성을 높임으로써 가상 객체가 실제 공간에 존재하는 객체로 여겨지는 실재감을 향상시킬 수 있는 효과가 있다.
도 1은 종래 기술에 따른 투명 디스플레이 장치에 가상 객체와 배경 이미지를 출력한 모습을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 가상 객체 시인성 개선 장치의 구성을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 투명 디스플레이부와 보조 투명 디스플레이부를 이용하여 재생하는 영상의 시인성과 실재감을 향상시키는 모습을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 웨어러블 디스플레이 장치의 내부 구성을 간략하게 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 웨어러블 디스플레이 장치의 접힘 상태를 나타낸 도면이다.
도 6 내지 7은 도 5에 도시된 웨어러블 디스플레이 장치의 펼침 상태를 나타낸 도면이다.
도 8은 도 7에 도시된 웨어러블 디스플레이 장치의 일부분을 확대하여 나타낸 도면이다.
도 9는 도 5에 도시된 웨어러블 디스플레이 장치의 일부분이 펼침 상태에서 접힘 상태로 이동되는 과정을 도시한 개략도이다.
도 10은 도 5에 도시된 웨어러블 디스플레이 장치의 길이 조절부를 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 2는 본 발명의 실시예에 따른 가상 객체 시인성 개선 장치의 구성을 나타낸 도면이고, 도 3은 본 발명의 실시예에 따른 투명 디스플레이부와 보조 투명 디스플레이부를 이용하여 재생하는 영상의 시인성과 실재감을 향상시키는 모습을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 웨어러블 디스플레이 장치의 내부 구성을 간략하게 나타낸 도면이다.
본 발명의 실시예에 따른 가상 객체 시인성 개선 장치는 투명 디스플레이부(110), 보조 투명 디스플레이부(110a), 카메라부(111), 영상 신호 제어기(112), 비디오 인코더(113), 제어부(114), 비디오 디코더(115), 무선 통신 인터페이스부(116), 오디오 출력부(117), 마이크 입력부(118), 머리 움직임 측정 센서부(119) 및 영상 정보 저장부(119a)로 이루어진 웨어러블 디스플레이 장치(100)를 포함한다.
가상 객체 시인성 개선 장치는 사람의 눈 앞에 위치하여 가상 객체가 출력되는 투명 디스플레이부(110)를 배치하고, 투명 디스플레이부(110)와 투명 디스플레이부(110)를 통해 사람의 눈으로 보이는 현실 공간 실제 객체(30)의 사이에 추가적인 보조 투명 디스플레이부(110a)를 배치하는 사용자의 머리에 안착되는 웨어러블 디스플레이 장치(100)를 포함한다.
웨어러블 디스플레이 장치(100)는 사람의 눈으로부터 투명 디스플레이부(110)가 보조 투명 디스플레이부(110a)보다 사람의 눈에 더 가깝게 위치하도록 투명 디스플레이부(110)와 보조 투명 디스플레이부(110a)를 순차적으로 배치한다.
웨어러블 디스플레이 장치(100)는 사람의 눈으로 보는 경우, 가상 객체가 투명 디스플레이부(110)에 디스플레이 될 때, 가상 객체와 동일한 크기와 위치에 음영 영역(20)을 보조 투명 디스플레이부(110a)에 출력한다. 따라서, 웨어러블 디스플레이 장치(100)는 보조 투명 디스플레이부(110a)의 음영 영역(20)이 투명 디스플레이부(110)를 통해 보여지는 가상 객체의 배경인 현실 공간 실제 객체(30)의 빛을 차단하여 가상 객체가 현실 공간 실제 객체(30)와 겹쳐 보이지 않게 되며, 이로 인하여 시인성과 실재감이 향상된 효과가 있다.
웨어러블 디스플레이 장치(100)를 데이터 입력부와 데이터 출력부로 구성하고, 웨어러블 디스플레이 장치(100)와 통신망을 통해 무선 연결되어 확장 현실 콘텐츠 및 애플리케이션 등을 연산 처리하는 연산부 역할을 하는 확산 현실 연산장치(미도시)를 포함한다.
웨어러블 디스플레이 장치(100)는 XR 헤드셋일 수 있으며, 보조 투명 디스플레이부(110a)를 추가로 구성한 투명 디스플레이부(110)의 구조 개선과, 데이터 입력부와 데이터 출력부의 웨어러블 디스플레이 장치(100)와 데이터 연산부의 확산 현실 연산장치 간을 무선으로 분리하고, 고화질의 영상 정보와 음성 정보를 양방향 무선 통신을 통해 송수신한다.
확장 현실 연산장치(미도시)는 PC, 노트북, 테블릿, 스마트폰 등을 일례로 들 수 있다.
제어부(114)는 가상 객체를 생성하여 투명 디스플레이부(110)에 출력하고, 가상 객체의 생성 시 가상 객체와 동일한 크기의 음영 영역(20)을 생성한다. 투명 디스플레이부(110)와 보조 투명 디스플레이부(110a)는 동일한 크기와 좌표 영역도 동일하다고 가정한다.
제어부(114)는 가상 객체가 투명 디스플레이부(110)에 출력할 때, 가상 객체가 투명 디스플레이부(110)에 표시되는 좌표를 계산하고, 계산된 좌표와 동일한 위치의 보조 투명 디스플레이부(110a)에 음영 영역(20)을 실시간으로 출력한다.
다시 말해, 음영 영역(20)은 가상 객체의 뒤에 위치하여 투명 디스플레이부(110)를 통해 배경으로 보이는 현실 공간 실제 객체(30)의 빛이 가상 객체에 투과되지 못하도록 한다.
투명 디스플레이부(110)에 투영되는 가상 객체는 영상 정보 저장부(119a)에 기저장된 영상 데이터이거나, 카메라부(111)에 의해 촬영된 카메라 영상 데이터이거나, 제어부(114)의 제어에 따라 가상 공간의 3차원 모델을 통해 만들어 내는 객체일 수 있다.
도 3에 도시된 바와 같이, 본 발명은 사람의 눈으로 투명 디스플레이부(110)를 통하여 외부의 현실 공간 실제 객체(30)를 볼 때, 투명 디스플레이부(110)에 출력되는 가상 객체와, 보조 투명 디스플레이부(110a)에 출력되는 음영 영역(20)을 함께 현실 공간 실제 객체(30)에 투영하여 보여지게 된다.
보조 투명 디스플레이부(110a)에 형성되는 음영 영역(20)은 제어부(114)의 제어에 따라 가상 객체의 생성과 동시에 실시간으로 계산되어 생성된다.
카메라부(111)는 우측 카메라와 좌측 카메라로 구성되어 2개의 카메라 렌즈에 의해 촬영된 일방향의 영상을 획득한다. 2개의 카메라 렌즈가 일방향으로 배치되어 있고, 각 카메라가 배치된 위치에서 촬영할 수 있는 화각에 해당하는 영역만큼 촬영된 2개의 일방향의 영상이 획득할 수 있다. 카메라부(111)는 사용자의 눈과 가까운 위치에 배치될 수 있다.
영상 신호 제어기(112)는 카메라부(111)로부터 수신한 영상에 대한 비디오 데이터와 신호 데이터를 포함한 비트스트림 데이터를 생성한다.
비디오 인코더(113)는 영상 신호 제어기(112)에서 수신된 비트스트림 데이터를 인코딩(Encoding, 부호화)하여 인코딩된 영상 데이터를 출력한다.
제어부(114)는 비디오 디코더(115)에 연결되어 비디오 인코더(113)로부터 수신한 인코딩된 영상 데이터를 영상 정보 저장부(119a)로 전송하여 저장한다.
영상 정보 저장부(119a)는 카메라부(111)에 의해 촬영된 카메라 영상 데이터(가상 객체)를 저장하거나, 카메라부(111)에 의한 촬영된 영상 데이터가 아니라 장치 설계 시 기저장되어 있는 영상 데이터(가상 객체)일 수 있다.
영상 정보 저장부(119a)는 제어부(114)의 제어에 따라 가상 공간의 3차원 모델을 통해 만들어 낸 영상 데이터(가상 객체)를 저장할 수 있다.
제어부(114)는 카메라부(111)에 의해 촬영된 카메라 영상 데이터를 편집하여 가상 객체를 생성하며, 생성한 가상 객체를 영상 정보 저장부(119a)에 저장할 수 있다.
여기서, 가상 객체는 이미지, 텍스트, 컨텐츠 재생 화면, 애플리케이션 실행 화면, 웹 브라우저 화면, 각종 그래픽 객체 등이 될 수 있다.
비디오 디코더(115)는 영상 정보 저장부(119a)에 저장된 아날로그 데이터인 영상 데이터를 디코딩(Decoding)하여 디지털 데이터인 비압축된 출력 영상 데이터를 생성하고, 생성된 비압축된 출력 영상 데이터를 투명 디스플레이부(110)에 투영되도록 투명 디스플레이부(110)로 출력한다.
디스플레이부는 투명 디스플레이부(110)와 보조 투명 디스플레이부(110a)를 순차적으로 배치한다.
투명 디스플레이부(110)는 제어부(114)의 제어에 따라 그래픽 객체를 나타내는 가상 객체를 포함한 출력 영상 데이터를 표시한다.
제어부(114)는 투명 디스플레이부(110)를 통하여 배경에 위치한 현실 공간 실제 객체(30)가 투명하게 비치는 상태에서 투명 디스플레이부(110)에 가상 객체를 출력하고, 보조 투명 디스플레이부(110a)에 음영 영역(20)을 동시에 실시간으로 출력한다.
여기서, 배경은 투명 디스플레이부(110)를 기준으로 사람의 눈과 반대쪽을 의미하고, 투명 디스플레이부(110)와 보조 투명 디스플레이부(110a)를 통해 투영되는 외부 환경일 수 있다.
제어부(114)는 투명 디스플레이부(11)에 표시할 가상 객체를 동일한 크기로 음영 처리하여 음영 영역(20)을 생성하는데, 가상 객체의 생성과 동시에 가상 객체의 크기를 계산하여 음영 영역(20)을 실시간으로 생성한다.
제어부(114)는 배경(현실 공간 실제 객체(30))의 빛이 투과되지 않도록 하나 이상의 음영 영역(20)을 보조 투명 디스플레이부(110a)에 표시한다.
제어부(114)는 가상 객체가 복수개인 경우, 가상 객체의 크기와 일치하는 음영 영역(20)을 가상 객체와 동일한 개수만큼 형성하고, 가상 객체가 투명 디스플레이부(11)에 표시할 좌표를 각각 계산한다.
제어부(114)는 계산한 각각의 좌표를 이용하여 각각의 음영 영역(20)을 보조 투명 디스플레이부(110a)에 출력한다.
제어부(114)는 투명 디스플레이부(110)에 가상 객체의 표시와, 보조 투명 디스플레이부(110a)에 음영 영역(20)의 표시를 동기화하여 동시에 출력한다.
다른 실시예로서, 제어부(114)는 투명 디스플레이부(110)에 가상 객체의 표시와, 보조 투명 디스플레이부(110a)에 음영 영역(20)의 표시를 시간 차이를 두고 순차적으로 표시할 수도 있다.
도 3과 같이, 사람의 눈의 입장에서는 투명 디스플레이부(110)에 현실 공간 실제 객체(30)에 가상 객체가 표시되는데, 가상 객체가 음영 영역(20)으로 인하여 현실 공간 실제 객체(30)의 빛이 가상 객체로 투과되지 않아서 가상 객체가 현실 공간 실제 객체(30)에 겹쳐 보이지 않도록 하여 투명 디스플레이부(110)에 표시된다.
하기에서는 음영 영역(20)을 생성하는 방법을 상세하게 설명한다.
제어부(114)는 영상 데이터에서 가상 객체에 대하여 전경 픽셀과 배경 픽셀을 분리하여 이진화 처리를 수행하고, 이진화된 가상 객체로부터 윤곽선을 생성하고, 윤곽선 내부에 속하는 픽셀들을 추출하여 음영 영역(20)의 크기와 위치를 계산한다.
전경 픽셀과 배경 픽셀을 분리한 후, 객체 형태를 추출하는 알고리즘은 입력된 영상 프레임을 기설정된 크기(예: 640×480)로 변환한 후, 이전 프레임 데이터의 픽셀과 현재 프레임 픽셀 데이터를 비교하여 전경 픽셀 또는 배경 픽셀을 판단하고, 전경 픽셀을 분리하여 객체 형태를 추출하는 처리 과정을 수행한다.
즉, 제어부(114)는 입력된 영상을 기설정된 크기로 변환한 후, 각 픽셀의 색상 값(R, G, B)들의 공분산을 계산하여 K개의 가우시안 분포로 분리한 후, 전경 픽셀과 배경 픽셀을 결정한다. 그리고 제어부(114)는 전경 픽셀과 배경 픽셀로 분리된 이진화된 영상으로부터 윤곽선을 추출하여 객체 형태를 추출하도록 구성된다. 객체 형태를 추출하는 알고리즘은 다양한 방법이 존재하고, 공지된 기술일 수 있다.
제어부(114)는 계산한 음영 영역(20)의 각 픽셀값을 조정하여 음영 처리하고, 음영 처리한 음영 영역(20)을 보조 투명 디스플레이부(110a)에 출력한다.
다른 실시예로서, 제어부(114)는 현실 공간 실제 객체(30)의 빛이 가상 객체로 투과되지 않는다면, 보조 투명 디스플레이부(110a)의 음영 영역(20)을 검정색, 회색 등 다양한 색깔로 설정할 수 있다.
제어부(114)는 가상 객체의 색상에 따라 음영 영역(20)의 색상을 결정할 수도 있다. 여기서, 음영 영역(20)의 색상은 현실 공간 실제 객체(30)의 빛이 투과되지 않은 색깔이면 어떠한 색상도 가능하다.
다른 실시예로서, 제어부(114)는 투명 디스플레이부(110)와 보조 투명 디스플레이부(110a)의 전체 픽셀 위치와 크기를 대응시켜 스케일 조정 작업을 수행하고, 투명 디스플레이부(110)에서의 가상 객체 정보의 위치와 픽셀 크기를 계산하고, 계산한 가상 객체 정보의 위치와 픽셀 크기를 기초로 보조 투명 디스플레이부(110a)에서 음영 영역(20)의 위치와 픽셀 크기를 계산할 수 있다.
제어부(114)는 이진화된 가상 객체로부터 윤곽선을 생성하고, 윤곽선 내부에 속하는 제1 픽셀들과, 윤곽선으로부터 외부 방향으로 기설정된 여유분 픽셀 사이즈만큼 제2 픽셀들을 추출하고, 제1 픽셀들과 상기 제2 픽셀들의 각 픽셀값을 조정하여 음영 처리하여 음영 영역(20)을 생성하고, 생성한 음영 영역(20)을 보조 투명 디스플레이부(110a)에 출력한다.
여기서, 여유분 픽셀 사이즈는 기설정된 기준 픽셀(예를 들어, 2 내지 3개의 픽셀)만큼 윤곽선을 따라 위치한 픽셀을 나타낸다.
본 발명은 가상 객체보다 크게 음영 영역(20)을 형성하여 현실 공간 실제 객체(30)의 빛이 투과될 가능성을 미연에 차단할 수 있다.
오디오 출력부(117)는 확산 현실 연산장치로부터 수신된 음성 신호를 외부로 출력한다. 마이크 입력부(118)는 사용자의 음성 신호를 입력받아 처리한다.
머리 움직임 측정 센서부(119)는 사용자가 착용한 웨어러블 디스플레이 장치(100)의 일측에 설치되어 사용자의 머리 움직임을 센싱하여 머리 움직임 정도에 따라 센서 데이터를 생성한다.
제어부(114)는 확장 현실 연산장치로부터 화면에 출력되는 디스플레이 영상, 음성 신호를 출력 정보로 무선 통신 인터페이스부(116)를 통해 수신한다.
웨어러블 디스플레이 장치(100)는 데이터 입력부와 데이터 출력부의 역할을 수행하고, 웨어러블 디스플레이 장치(100)와 통신망을 통해 무선 연결되어 확장 현실 콘텐츠 및 애플리케이션 등을 연산 처리하는 연산부 역할을 하는 확산 현실 연산장치를 포함한다.
본 발명은 데이터 입력부와 데이터 출력부의 웨어러블 디스플레이 장치(100)와 데이터 연산부의 확산 현실 연산장치를 구비하고, 서로 무선으로 분리되어 있고, 양자 간의 영상 신호와 음성 신호를 양방향 무선 전송할 수 있다.
제어부(114)는 카메라 영상 데이터에서의 복수의 영역과 픽셀값에 기설정된 영상 확대 비율 또는 영상 축소 비율을 적용하여 카메라 영상 데이터가 출력 영상 데이터와 동일한 위치 좌표와 픽셀 크기로 변환하여 카메라 영상 데이터, 출력 영상 데이터, 음성 영상 데이터가 동일한 크기를 갖도록 영상 크기를 조정한다.
웨어러블 디스플레이 장치(100)와 확산 현실 연산장치 사이에 실시간으로 주고 받은 데이터는 고화질 영상과 음성을 실시간으로 송수신하고, 고화질 영상과 같은 대용량 데이터뿐만 아니라 머리 움직임 정보와 같은 소량의 시리얼 데이터를 송수신할 수 있다.
무선 통신 인터페이스부(116)는 통신망을 통하여 확장 현실 연산장치와 통신하여 데이터 송수신을 수행하기 위해 통신망과 호환 가능한 통신 프로토콜이 포함된다.
여기서, 통신망은 단말기들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(Local Area Network), 광역 통신망(Wide Area Network), 인터넷 (World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다.
무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.
도 5는 본 발명의 실시예에 따른 웨어러블 디스플레이 장치의 접힘 상태를 나타낸 도면이고, 도 6 내지 7은 도 5에 도시된 웨어러블 디스플레이 장치의 펼침 상태를 나타낸 도면이고, 도 8은 도 7에 도시된 웨어러블 디스플레이 장치의 일부분을 확대하여 나타낸 도면이고, 도 9는 도 5에 도시된 웨어러블 디스플레이 장치의 일부분이 펼침 상태에서 접힘 상태로 이동되는 과정을 도시한 개략도이고, 도 10은 도 5에 도시된 웨어러블 디스플레이 장치의 길이 조절부를 도시한 도면이다.
본 발명의 실시예에 따른 웨어러블 디스플레이 장치(100)는 사용자의 머리에 착용될 수 있다. 웨어러블 디스플레이 장치(100)는 사용자(또는, 착용자)에게 증강 현실을 제공할 수 있다.
웨어러블 디스플레이 장치(100)는 안착 프레임(101), 회동 프레임(102), 투명 디스플레이부(110), 보조 투명 디스플레이부(110a) 및 이어스피커(120) 중 적어도 하나를 포함할 수 있다.
투명 디스플레이부(110)는 복수의 투명 디스플레이를 포함할 수 있다. 이어스피커(120)는 복수의 이어스피커를 포함할 수 있다.
안착 프레임(101)은 사용자의 머리에 안착될 수 있다. 예를 들어, 안착 프레임(101)은 하방을 향해 개방된 '∩' 형상으로 형성될 수 있고, 사용자의 머리는 안착 프레임(101)에 끼워질 수 있다.
안착 프레임(101)은 안착 프레임(101)의 형상을 이루는 안착 프레임 바디(104)와, 안착 프레임 바디(104)의 외측면 상에 배치되고 외관을 형성하는 안착 프레임 쉘(107)을 포함할 수 있다. 안착 프레임 쉘(107)은 일정한 두께로 안착 프레임 바디(104)의 외측면 상에 배치되는 레이어에 해당될 수 있다. 안착 프레임 쉘(107)의 굳기(hardness)는 안착 프레임 바디(104)의 굳기보다 클 수 있고, 이로 인하여 안착 프레임(101)에 생활 흠집이 발생되는 것이 최소화될 수 있다.
이어스피커(120)는 안착 프레임(101)의 일단 또는 양단에 고정될 수 있다. 이어스피커(120)는 음향을 출력할 수 있다. 이어스피커(120)는 사용자의 귀를 커버할 수 있다. 예를 들어, 이어스피커(120)는 한 쌍의 이어스피커를 포함할 수 있고, 한 쌍의 이어스피커(120)는 안착 프레임(101)의 양단(또는, 하단)에 고정되어 각각 사용자의 한 쌍의 귀를 커버할 수 있다.
회동 프레임(102)은 안착 프레임(101)에 회동 가능하게 결합될 수 있다. 회동 프레임(102)의 양단은 안착 프레임(101)에 회동 가능하게 핀 결합될 수 있다.
예를 들어, 회동 프레임(102)은 안착 프레임(101)과 대응되도록 일측이 개방된 '∩' 형상으로 형성될 수 있고, 회동 프레임(102)의 양단은 안착 프레임(101)의 양쪽 하단에 회전 가능하게 결합될 수 있다.
회동 프레임(102)은 회동 프레임(102)의 형상을 이루는 회동 프레임 바디(109)와, 회동 프레임 바디(109)의 외측면 상에 배치되고 외관을 형성하는 회동 프레임 쉘(105)을 포함할 수 있다. 회동 프레임 쉘(105)은 일정한 두께로 회동 프레임 바디(109)의 외측면 상에 배치되는 레이어에 해당될 수 있다. 회동 프레임 쉘(105)의 굳기(Hardness)는 회동 프레임 바디(109)의 굳기보다 클 수 있고, 이로 인하여 회동 프레임(102)에 생활 흠집이 발생되는 것이 최소화될 수 있다.
투명 디스플레이부(110)는 회동 프레임(102)(예: 회동 프레임 바디(109))에 고정될 수 있다. 투명 디스플레이부(110)는 빛을 투과함과 동시에 이미지를 출력할 수 있다. 투명 디스플레이부(110)는 투명 디스플레이를 투과하여 사용자의 눈으로 입사되는 외부 환경의 광경에 이미지를 출력하여 중첩시킬 수 있다. 사용자는 외부 환경의 광경과 투명 디스플레이부(110)에서 출력되는 이미지를 동시에 인식할 수 있으며, 이를 통하여 증강 현실을 제공받을 수 있다.
투명 디스플레이부(110)는 다양한 투과율 및/또는 다양한 해상도를 가질 수 있다. 다양한 크기 및/또는 다양한 투과율 및/또는 다양한 해상도를 갖는 투명 디스플레이가 생산 및 판매되고 있는 실정으로, 이와 같이 당업자에게 통상적인 수단에 해당되는 투명 디스플레이에 대한 자세한 설명은 생략한다.
회동 프레임(102)은 회동 프레임(102)의 양단에 형성되는 회동 프레임(102)의 회전축을 중심으로 전후 방향으로 회동될 수 있고, 투명 디스플레이부(110)와 보조 투명 디스플레이부(110a)는 회동 프레임(102)과 함께 전후 방향으로 회동될 수 있다. 회동 프레임(102)의 회동에 의하여 투명 디스플레이부(110)는 선택적으로 사용자의 눈 앞에 위치될 수 있다.
한편, 회동 프레임(102)이 후방으로 회동되어 안착 프레임(101)과 중접 또는 결합된 상태를 접힘 상태라고 지칭될 수 있고, 회동 프레임(102)이 전방으로 회동되어 사용자의 눈 앞에 배치되고 사용자의 눈을 커버하는 상태를 펼침 상태라고 지칭될 수 있다. 접힘 상태일 때, 회동 프레임(102)은 사용자의 머리 상부에 배치될 수 있다. 펼침 상태일 때, 회동 프레임(102)은 사용자의 눈 전방에 배치될 수 있다. 회동 프레임(102)이 펼침 상태일 때, 투명 디스플레이부(110)는 사용자의 눈 앞에 배치될 수 있고 사용자는 투명 디스플레이부(110)에 의하여 출력되는 이미지를 인식할 수 있다. 회동 프레임(102)이 접힘 상태일 때, 투명 디스플레이부(110)는 사용자의 머리 상부에 위치되어 사용자의 눈 앞에서 제거될 수 있고 사용자는 투명 디스플레이부(110)에 의하여 출력되는 이미지를 인식하지 못할 수 있다.
한편, 안착 프레임(101)은 후방으로 회동되어 안착 프레임(101)과 오버랩된 회동 프레임(102)이 의도치 않게 전방으로 회동되는 것이 방지되도록 회동 프레임(102)의 일단부가 안착 또는 밀착되는 안착그루브를 더 포함할 수 있다. 달리 말하면, 안착그루브는 접힘 상태의 회동 프레임(102)이 의도치 않게 펼침 상태가 되는 방향으로 회동되는 것을 방지할 수 있다.
예를 들어, 안착그루브(108)는 안착 프레임 쉘(107)의 전단 부분이 소정 절삭되어 형성될 수 있다.
안착그루브(108)의 바닥면(108a)은 안착 프레임 바디(104)의 상면에 의하여 형성될 수 있다. 회동 프레임(102)은 안착그루브(108)에 삽입되고 안착그루브(108)의 바닥면(108a)에 밀착되는 안착돌기(106)를 더 포함할 수 있다. 안착돌기(106)는 펼침 상태일 때의 회동 프레임 쉘(105)의 상단에 해당될 수 있다. 안착돌기(106)는 회동 프레임 바디(109)와 중첩되지 않을 수 있다. 접힘 상태일 때, 안착돌기(106)는 후방을 향해 돌출될 수 있고, 안착돌기(106)의 하면(106a)은 안착그루브(108)의 바닥면(108a)과 밀착될 수 있다. 안착돌기(106)의 일면(106a)(예: 하면)과 안착그루브(108)의 바닥면(108a) 사이의 마찰력에 의하여 일정 수준 이상의 외력이 가해지기 전까지 회동 프레임(102)은 안착 프레임(101)에 중첩된 상태로 고정될 수 있다.
안착그루브(108)의 바닥면(108a)은 대략 수평하게 형성될 수 있다. 다만, 이에 한정되는 것은 아니다. 예를 들어, 안착그루브(108)의 바닥면(108a)은 바닥면(108a)의 전단으로부터 후단으로 연장될수록 지면으로부터의 높이가 낮아지는 방향으로 연장되도록 경사지게 형성될 수 있다. 이때, 안착그루브(108)의 바닥면(108a)과 대응되는 안착돌기(106)의 일면(106a)(예: 하면) 역시 안착그루브(108)의 바닥면(108a)과 동일한 기울기를 갖도록 경사지게 형성될 수 있다. 접힘 상태일 때, 안착그루브(108)의 바닥면(108a)과 안착돌기(106)의 일면(106a)(예: 하면)은 서로 나란할 수 있고, 서로 밀착될 수 있다. 이와 같이, 안착그루브(108)의 바닥면(108a)과 안착돌기(106)의 일면(106a)(예: 하면)이 후방으로 갈수록 하방을 향하는 경사면으로 형성됨에 따라서, 접힘 상태일 때 안착 프레임(101)과 회동 프레임(102) 사이의 결합이 더욱 견고해질 수 있다.
회동 프레임(102)은 투명 디스플레이부(110)의 전방에 배치되는 쉴드(103)를 더 포함할 수 있다. 쉴드(103)는 회동 프레임 바디(109) 및/또는 회동 프레임 쉘(105)에 고정될 수 있다. 쉴드(103)는 투명 디스플레이부(110)를 커버할 수 있고 투명 디스플레이부(110)를 외부 충격으로부터 보호할 수 있다. 쉴드(103)는 실질적으로 투명할 수 있다. 쉴드(103)는 외부 환경의 빛을 투과할 수 있다. 쉴드(103)는 외부 환경의 빛(또는, 광경)을 투과시켜 투명 디스플레이부(110)로 안내할 수 있다. 투명 디스플레이부(110)는 쉴드(103)로부터 출사된 빛을 투과하여 사용자의 눈으로 안내함과 동시에 이미지를 출력하여 사용자의 눈을 향해 출사할 수 있다.
회동 프레임(102)은 회동 프레임 바디(109)와 안착 프레임(101)(예: 안착 프레임 바디(104))을 연결하고, 투명 디스플레이부(110)와 사용자의 눈 사이의 거리를 조절하도록 마련되는 제1 길이 조절부(130)(또는, "제1 길이 조절부")를 포함할 수 있다. 제1 길이 조절부(130)는 회동 프레임(102)의 회전축을 형성하고 회동 프레임(102)의 길이를 조절할 수 있다. 펼침 상태일 때, 제1 길이 조절부(130)는 회동 프레임 바디(109) 및/또는 회동 프레임 쉘(105) 및/또는 투명 디스플레이부(110) 및/또는 쉴드(103)를 전후 방향으로 이동시킬 수 있다.
제1 길이 조절부(130)는 안착 프레임(101)에 회전 가능하게 결합되는 보스(135)와, 보스(135)로부터 일 방향으로 연장되고 일면에 복수의 홈(139)이 형성되는 밴드(131)와, 밴드(131)가 삽입되도록 회동 프레임 바디(109)의 일단에 형성되는 삽입홈(136)과, 삽입홈(136)의 내측면에서 돌출되고 일단이 복수의 홈(139) 중 하나에 삽입되며 밴드(131)를 매개로 일정 세기 이상의 힘이 가해지면 일단이 삽입된 홈(139)에서 빠지는 방향으로 탄성 변형되는 탄성돌기(137)와, 밴드(131)가 삽입홈(136)에서 빠지는 것을 방지하는 스토퍼(138, 138a) 중 적어도 하나를 포함할 수 있다.
보스(135)는 회동 프레임(200)의 회전축을 형성할 수 있다. 복수의 홈(139)은 밴드(131)의 내측면에 형성될 수 있고 밴드(131)의 길이 방향을 따라 등간격으로 서로 이격되게 배열될 수 있다.
홈(139)에 삽입되는 탄성돌기(137)의 일단의 외측면은 곡면으로 형성될 수 있다. 일정 세기 이상의 힘으로 밴드(131)가 삽입홈(136)에서 빠지는 방향으로 당겨지거나 삽입홈(136)으로 들어가는 방향으로 밀어 넣어질 때, 탄성돌기(137)의 일단의 곡면과 밴드(131)의 홈(139)의 일면(예: 측면)이 서로 접촉되고, 밴드(131)를 당기거나 미는 힘이 탄성돌기(137)의 일단에 전달되며, 탄성돌기(137)의 일단의 곡면에 의하여 밴드(131)를 당기거나 미는 힘은 탄성돌기(137)의 일단이 홈(139)에서 빠져나가도록 탄성돌기(137)를 탄성 변형시킬 수 있다. 어느 홈(139)에서 빠진 탄성돌기(137)는 밴드(131)의 슬라이딩 이동에 의하여 다른 홈(139)과 만날 수 있고, 이때 탄성돌기(137)는 탄성 복원됨에 따라 상기 다른 홈(139)에 일단이 삽입될 수 있다. 탄성돌기(137)는 일정 세기 이상의 힘이 가해지기 전까지는 밴드(131)가 움직이지 않도록 고정할 수 있다.
스토퍼(138,138a)는 보스(135)에 연결되는 밴드(131)의 일단과 반대측인 밴드(131)의 타단에 형성되는 밴드측 스토퍼(138a)와, 삽입홈(136)의 내측면에서 돌출되는 홈측 스토퍼(138)를 포함할 수 있다. 밴드측 스토퍼(138a)는 밴드(131)와 함께 이동될 수 있다. 밴드측 스토퍼(138a)와 홈측 스토퍼(138)가 서로 접촉될 때까지 밴드(131)는 삽입홈(136)에서 빠질 수 있으나, 홈측 스토퍼(138)가 밴드측 스토퍼(138a)의 움직임을 정지시킴으로써 밴드(131)는 더 이상 삽입홈(136)에서 빠지는 방향으로 이동되지 못할 수 있다. 이와 같이, 스토퍼(138, 138a)는 밴드(131)에 대하여 상대적으로 이동되는 회동 프레임 바디(109)의 이동 범위를 제한할 수 있다.
펼침 상태일 때, 사용자는 제1 길이 조절부(130)를 이용하여 투명 디스플레이부(110)와 눈 사이의 거리를 조절함으로써 투명 디스플레이부(110)의 초점을 직관적이고 용이하게 조정할 수 있다.
한편, 안착 프레임(101)은 안착 프레임(101)의 길이를 조절하는 제2 길이 조절부(132)를 더 포함할 수 있다. 제2 길이 조절부(132)는 안착 프레임(101)의 상하 방향 길이를 조절할 수 있다. 사용자는 제2 길이 조절부(132)를 이용하여 자신의 머리에 맞추어 안착 프레임(101)의 길이를 조절할 수 있다.
제2 길이 조절부(132)는 안착 프레임 바디(104)의 하부에 배치되고 이어스피커(120)가 고정되는 홀더(133)와, 홀더(133)로부터 일 방향(예: 상하 방향)으로 연장되고 일면에 복수의 홈이 형성되는 밴드(134)와, 밴드(134)가 삽입되도록 안착 프레임 바디(104)의 일단에 형성되는 삽입홈(미도시)과, 삽입홈의 내측면에서 돌출되고 일단이 복수의 홈 중 하나에 삽입되며 밴드(134)를 매개로 일정 세기 이상의 힘이 가해지면 일단이 삽입된 홈에서 빠지는 방향으로 탄성 변형되는 탄성돌기(미도시)와, 밴드(134)가 삽입홈에서 빠지는 것을 방지하는 스토퍼(미도시) 중 적어도 하나를 포함할 수 있다. 홀더(133)에 회동 프레임(102)이 회동 가능하게 결합될 수 있다.
예를 들어, 제1 길이 조절부(130)의 보스(135)가 홀더(133)에 회전 가능하게 결합될 수 있다.
제2 길이 조절부(132)의 밴드(134), 삽입홈, 탄성돌기, 및 스토퍼는 도 6을 참조하여 설명된 제1 길이 조절부(130)의 밴드(131), 삽입홈(136), 탄성돌기(137), 및 스토퍼(138, 138a)와 동일 또는 유사한 구조 및 기능을 가지므로 이에 대한 자세한 설명은 생략한다.
제1 길이 조절부(130)의 밴드(131), 삽입홈(136), 탄성돌기(137), 밴드측 스토퍼(138a), 홈측 스토퍼(138)는 각각 제1 밴드, 제1 삽입홈, 제1 탄성돌기, 제1 밴드측 스토퍼, 제1 홈측 스토퍼로 지칭될 수 있고, 제2 길이 조절부(132)의 밴드(134), 삽입홈, 탄성돌기, 밴드측 스토퍼, 홈측 스토퍼는 각각 제2 밴드, 제2 삽입홈, 제2 탄성돌기, 제2 밴드측 스토퍼, 제2 홈측 스토퍼로 지칭될 수 있다.
이상에서는 특정의 실시예에 대하여 도시하고 설명하였다. 그러나, 상기한 실시예에만 한정되지 않으며, 본 명세서의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.
실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 웨어러블 디스플레이 장치 110: 투명 디스플레이부
110a: 보조 투명 디스플레이부 111: 카메라부
112: 영상 신호 제어기 113: 비디오 인코더
114: 제어부 115: 비디오 디코더
116: 무선 통신 인터페이스부 117: 오디오 출력부
118: 마이크 입력부 119: 머리 움직임 측정 센서부
119a: 영상 정보 저장부

Claims (5)

  1. 그래픽 객체를 나타내는 가상 객체를 표시하는 투명 디스플레이부;
    상기 투명 디스플레이부의 뒤에 위치하고, 상기 가상 객체의 크기와 일치하는 음영 영역을 생성하고, 상기 생성한 음영 영역을 상기 가상 객체와 동일한 위치에 표시하여 상기 투명 디스플레이부를 통해 배경으로 보이는 현실 공간 실제 객체의 빛이 상기 가상 객체에 투과되지 못하도록 하는 보조 투명 디스플레이부; 및
    상기 가상 객체가 상기 투명 디스플레이부에 디스플레이 될 때, 동시에 상기 가상 객체와 동일한 위치에 상기 음영 영역을 상기 보조 투명 디스플레이부에 출력하도록 제어하는 제어부를 포함하며, 사람의 눈으로 보는 경우, 상기 투명 디스플레이부는 상기 현실 공간 실제 객체에 상기 가상 객체가 표시되고, 상기 가상 객체가 상기 음영 영역으로 인하여 상기 현실 공간 실제 객체의 빛이 상기 가상 객체로 투과되지 않아서 상기 가상 객체가 상기 현실 공간 실제 객체에 겹쳐 보이지 않도록 하는 가상 객체 시인성 개선 장치.
  2. 청구항 1에 있어서,
    상기 제어부는 가상 객체에 대하여 전경 픽셀과 배경 픽셀을 분리하여 이진화 처리를 수행하고, 이진화된 가상 객체로부터 윤곽선을 생성하고, 윤곽선 내부에 속하는 픽셀들을 추출하여 상기 음영 영역의 크기와 위치를 계산하는 가상 객체 시인성 개선 장치.
  3. 청구항 2에 있어서,
    상기 제어부는 상기 계산한 음영 영역의 각 픽셀값을 조정하여 음영 처리하고, 상기 음영 처리한 음영 영역을 상기 보조 투명 디스플레이부에 출력하는 가상 객체 시인성 개선 장치.
  4. 청구항 2에 있어서,
    상기 제어부는 상기 투명 디스플레이부와 상기 보조 투명 디스플레이부의 전체 픽셀 위치와 크기를 대응시켜 스케일 조정 작업을 수행하고, 상기 투명 디스플레이부에서의 상기 가상 객체 정보의 위치와 픽셀 크기를 계산하고, 상기 계산한 가상 객체 정보의 위치와 픽셀 크기를 기초로 상기 보조 투명 디스플레이부에서 상기 음영 영역의 위치와 픽셀 크기를 계산하는 가상 객체 시인성 개선 장치.
  5. 청구항 2에 있어서,
    상기 제어부는 상기 투명 디스플레이부에 가상 객체의 표시와, 상기 보조 투명 디스플레이부에 상기 음영 영역의 표시를 동기화하여 동시에 출력하는 가상 객체 시인성 개선 장치.
KR1020220090474A 2022-07-21 2022-07-21 가상 객체 시인성 개선 장치 KR102646925B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220090474A KR102646925B1 (ko) 2022-07-21 2022-07-21 가상 객체 시인성 개선 장치
PCT/KR2023/010625 WO2024019599A1 (ko) 2022-07-21 2023-07-21 가상 객체 시인성 개선 웨어러블 디스플레이 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220090474A KR102646925B1 (ko) 2022-07-21 2022-07-21 가상 객체 시인성 개선 장치

Publications (2)

Publication Number Publication Date
KR20240012918A true KR20240012918A (ko) 2024-01-30
KR102646925B1 KR102646925B1 (ko) 2024-03-12

Family

ID=89618375

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220090474A KR102646925B1 (ko) 2022-07-21 2022-07-21 가상 객체 시인성 개선 장치

Country Status (2)

Country Link
KR (1) KR102646925B1 (ko)
WO (1) WO2024019599A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120101586A (ko) * 2010-01-06 2012-09-13 애플 인크. 투명 전자 디바이스
KR102255832B1 (ko) 2012-09-19 2021-05-26 삼성전자주식회사 투명 디스플레이 기기상에 정보를 디스플레이 하는 시스템 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4777121B2 (ja) * 2005-11-30 2011-09-21 日本写真印刷株式会社 静電容量方式の擬似タッチスクリーン
EP3234920A4 (en) * 2014-12-23 2017-10-25 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
JPWO2018003084A1 (ja) * 2016-06-30 2019-04-18 オリンパス株式会社 ウェアラブル装置及び調整方法
JP3211448U (ja) * 2017-04-28 2017-07-13 シェンジェン ロイオル テクノロジーズ カンパニー リミテッドShenzhen Royole Technologies Co., Ltd. ウェアラブルディスプレイ装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120101586A (ko) * 2010-01-06 2012-09-13 애플 인크. 투명 전자 디바이스
KR102255832B1 (ko) 2012-09-19 2021-05-26 삼성전자주식회사 투명 디스플레이 기기상에 정보를 디스플레이 하는 시스템 및 방법

Also Published As

Publication number Publication date
WO2024019599A1 (ko) 2024-01-25
KR102646925B1 (ko) 2024-03-12

Similar Documents

Publication Publication Date Title
US20200211273A1 (en) Direct light compensation technique for augmented reality system
US9479736B1 (en) Rendered audiovisual communication
US9852549B2 (en) Image processing
JP6444886B2 (ja) ニアアイ・ディスプレイのディスプレイ更新時間の低減
JP6732716B2 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
US10187633B2 (en) Head-mountable display system
US20140254939A1 (en) Apparatus and method for outputting information on facial expression
US11277603B2 (en) Head-mountable display system
CN108337497A (zh) 一种虚拟现实视频/图像格式以及拍摄、处理、播放方法和装置
CN107771395A (zh) 生成和发送用于虚拟现实的元数据的方法和装置
US11120632B2 (en) Image generating apparatus, image generating system, image generating method, and program
JP2011258160A (ja) プログラム、情報記憶媒体及び画像生成システム
CN109716757A (zh) 用于沉浸式视频格式的方法、装置和流
US11590415B2 (en) Head mounted display and method
KR102204212B1 (ko) 실감형 콘텐츠 제공 장치 및 방법
KR20120032321A (ko) 디스플레이 장치 및 이의 영상 처리 방법
GB2532462A (en) Mixed reality information and entertainment system and method
JP7134060B2 (ja) 画像生成装置および画像生成方法
JP2020064592A (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
JP6978289B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
JP6591667B2 (ja) 画像処理システム、画像処理装置、及びプログラム
KR102169523B1 (ko) 디스플레이장치 및 그 제어방법
KR102646925B1 (ko) 가상 객체 시인성 개선 장치
JP6711803B2 (ja) 画像生成装置および画像生成方法
GB2546273A (en) Detection system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant