KR20230122711A - 제스처 입력 기능을 구비한 증강현실 투명 표시장치 및 구현 방법 - Google Patents

제스처 입력 기능을 구비한 증강현실 투명 표시장치 및 구현 방법 Download PDF

Info

Publication number
KR20230122711A
KR20230122711A KR1020220019258A KR20220019258A KR20230122711A KR 20230122711 A KR20230122711 A KR 20230122711A KR 1020220019258 A KR1020220019258 A KR 1020220019258A KR 20220019258 A KR20220019258 A KR 20220019258A KR 20230122711 A KR20230122711 A KR 20230122711A
Authority
KR
South Korea
Prior art keywords
user
gesture
image
transparent display
cursor
Prior art date
Application number
KR1020220019258A
Other languages
English (en)
Inventor
김동규
서오권
Original Assignee
김동규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김동규 filed Critical 김동규
Priority to KR1020220019258A priority Critical patent/KR20230122711A/ko
Publication of KR20230122711A publication Critical patent/KR20230122711A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 투명 디스플레이를 이용한 증강현실 구현 장치에서
사용자가 디스플레이 화면과 떨어진 상태에서 사용자의 제스처 입력을 받아 이에 해당하는 커서의 표시 및 이동, 증강 이미지·정보 표시 및 종료 등의 제어 명령 입력을 할 수 있는 장치와 방법에 관한 것이다.
사용자 카메라로 사용자의 제스처 영상을 수신하고, 수신된 영상을 가지고 제어부에서 제스처의 유형 정보를 추출하고, 디스플레이 화면에 추출된 정보에 해당하는 이미지 출력하는 등의 이미지 출력을 제어하는 방법이 게시된다.
이는 원거리에서 화면 비접촉 사용이 가능하여 사용 편리성을 향상시키고, 또한 사용자의 눈을 기준으로 오브젝트와 화면 간의 초점거리 비율을 줄여 증강 이미지와 오브젝트의 일체감을 향상 시킬 수 있다.

Description

제스처 입력 기능을 구비한 증강현실 투명 표시장치 및 구현 방법 {Augmented reality transparent display device with gesture input function and implementation method}
본 발명은 투명디스플레이를 이용한 증강현실 구현 장치에서 사용자의 제스처 입력으로 증강 화면 출력을 제어할 수 있는 장치 및 방법에 관한 것이다.
일반적으로 불투명 디스플레이를 가지는 모바일 단말기들은 LCD(Liquid Crystal Display) 및 OLED(Organic Emitting Display)와 또는 LED(Light Emitting Diode) 같은 종류의 스크린을 사용하고 있으며, 오브젝트 카메라를 장착하고 있다. 여기서 증강현실을 구현하는 방법은 오브젝트 카메라로 입력된 영상을 분석하여 관심 오브젝트를 인식하고, 오브젝트에 이미지 또는 텍스트 등과 같은 가상 정보를 합성하여 함께 화면상에 출력하는 방법이다.
한편, 최근에는 투명 LCD, 투명 OLED 또는 투명필름 디스플레이 등과 같은 투명 디스플레이를 구비한 장치가 많이 이용되고 있다. 이러한 투명 디스플레이는 화면 내 화소 사이사이에 투과창이 더 배치되어 오브젝트 및 배경이 카메라를 통하지 않고 그대로 투사된다. 이러한 투명 디스플레이를 통해 증강현실을 구현하려는 시도가 진행 중이다.
투명 디스플레이는 불투명 디스플레이와 달리 오브젝트가 영상 데이터 처리 등을 통하지 않고 투명디스플레이의 내의 투과창을 통하여 바로 사용자에게 투사된다. 때문에 투명 디스플레이를 통해 투사되는 배경 및 오브젝트 이미지는 사용자의 위치에 따라 위치 및 크기가 변화된다.
투명 디스플레이를 구비한 장치에서 증강현실을 구현할 경우는 불투명 디스플레이와 달리 사용자 위치에 따라 다르게 직접 투영되는 배경 및 오브젝트 이미지와 제작되어진 증강이미지를 정합시키는 방법이 요구된다.
이를 해결하기 위한 다음과 같은 발명을 출원한 바 있다.
출원번호: 10-2022-0002402, 발명자 및 출원인: 김동규
발명의 명칭: 증강현실 구현 디스플레이 장치 및 방법
발명의 내용을 도 2를 참조하여 요약하면
상기 투명 디스플레이를 구비한 증강현실 구현 장치에서 투영되는 오브젝트 이미지와 증강 이미지를 정합하는 방법으로 오브젝트 카메라(2)로 오브젝트(11)의 위치를 산출하고, 사용자용 카메라(3)로 사용자 눈(12)의 위치를 산출하고, 상기 산출된 오브젝트의 위치와 사용자 눈의 위치를 기준으로 사용자가 보는 시선에서 투명디스플레이(1)에 투영되는 오브젝트 이미지의 위치를 산출하여, 투명디스플레이(1)에 표시되는 증강 이미지(9)의 위치를 산출하는 방법이다.
상기 출원번호 10-2022-0002402 증강현실 구현 디스플레이 장치 및 방법에서는 사용자가 원하는 증강 이미지를 선택하고 표시하고 제거하는 등의 화면 제어를 위한 시스템과 방법이 게시되어 있지 않다,
화면 제어를 위한 입력 방법과 시스템으로서 잘 알려진 기존 기술들을 적용할 수 있다. 예를 들면 마우스나 키보드 입력을 이용한 제어, 투명 디스플레이 화면 위에 부착되거나 내부에 형성된 터치 패널을 이용한 제어, 투명 디스플레이 화면 주변부에 배치된 적외선 기반의 터치 센서 모듈을 사용한 제어 등을 들 수 있다.
그러나 상기 입력 기술들은 사용자가 화면에 근접해야 사용이 가능하다. 근거리 사용 문제점으로 사용자의 눈을 기준으로 근접해 있는 화면에 표시된 증강 이미지와 상대적으로 멀리 있는 오브젝트 간의 초점거리 비율이 증가하여 오브젝트와 증강 이미지의 일체감이 저하될 수 있으며 눈의 피로감도 발생할 수 있다. 광고나 안내용 디지털 사이니지로 활용 시에는 장치의 설치 장소나 위치로 인해 사용자의 화면 터치나 마우스 사용이 어려울 수도 있다.
이에 본 발명에서는 원거리에서 비접촉으로 사용이 가능한 방법을 가지는 장치를 제시한다. 특히
보조 입력 도구가 없는 방법을 가지는 장치를 제시한다.
상술한 바를 달성하기 위한 본 발명의 투명 디스플레이(1)를 구비한 증강현실 구현 장치(10)는 사용자의 제스처를 입력 받는 사용자 카메라(3)와, 제스처 정보 추출부(25)와 커서 위치 산출부(26) 및 기능 실행 제어부(27)를 포함하는 제스처 입력 제어부(200)을 포함하여, 제스처 입력이 가능하도록 구성된다.
사용자 카메라(3)로 사용자의 제스처 입력 영상을 수신한 다음, 제스처 입력 제어부(200)에서는 수신된 입력 영상을 기반으로 제스처의 유형 정보를 추출하고 그 유형에 해당되는 기능을 실행하도록 제어하여, 원거리에서 보조 입력 도구가 없이 명령 입력이 가능하게 한다.
본 발명은 투명 디스플레이를 사용하는 증강현실 시스템에 있어서,
사용자가 화면 출력을 제어하기 위한 입력의 방법으로 보조 입력 도구 없이 허공에서 사용자의 제스처로 입력하는 방법을 제공함으로서
원거리에서 화면 비접촉 사용이 가능하여 사용자 편리성을 향상시키고, 또한 사용자의 눈을 기준으로 오브젝트와 화면 간의 초점거리 비율 차이를 줄여 증강 이미지와 오브젝트의 일체감을 향상 시킬 수 있다.
도 1은 본 발명의 실시 예에 따른 제스처 입력 기능을 구비한 투명 디스플레이 증강현실 표시장치장치에 대한 블록도,
도 2는 본 발명의 장치 구성 및 제스처 동작 설명을 위한 예시도,
도 3은 본 발명의 커서 초기 위치 및 커서 활성화 제스처를 등을 설명하기 위한 예시도,
도 4는 본 발명의 사용자 손 제스처 형태들의 예시도,
도 5은 본 발명의 커서 위치 제어 따른 증강 이미지 자동 실행 흐름도 예,
도 6은 본 발명의 제스처 유형에 따른 증강 이미지 수동 실행 흐름도 예,
도 7은 본 발명의 오브젝트와 사용자 통합 카메라 예.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시 예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
도1 실시 예에 따른 블록도 및 도 2의 장치 구성 및 제스처 동작 설명을 위한 예시도에 따른
본 발명의 제스처 입력 기능을 구비한 투명 디스플레이 증강현실 표시장치(10)는
사용자 카메라(3)를 포함하는 카메라부(110),
영상 처리부(8)와 저장부(7)를 포함하는 제어부(100),
투명디스플레이(1)를 포함하는 투명디플레이부(120)를 기반으로
제스처 정보 추출부(25)와 커서 위치 산출부(26) 및 기능 실행 제어부(27)를 포함하는 제스처 입력 제어부(200)을 포함하여 구성된다.
여기서 사용자가 보는 시선에서 투명디스플레이 내에 투영되는 오브젝트 이미지의 위치를 산출하여 투명디스플레이 화면에 표시되는 증강이미지를 투영되는 오브젝트 이미지에 정합되도록 하기 위해서 카메라부(110)에 오브젝트 카메라(2)를 추가하고, 제어부(100)에 오브젝트 정보 산출부(4)와 사용자 눈 정보 산출부(5)와 증강 이미지 정합부(6)를 추가할 수 있다.
사용자 카메라(3)로부터 사용자의 영상을 입력받아 제스처 정보 산출부(25)에서 사용자의 손(22) 정보를 추출하여 손의 위치와 형태를 파악 한다.
도 3에서의 예시와 같이 사용자 손(22)이 검지만 편 형상을 취하면, 제스처 정보 추출부(25)와 커서 위치 산출 및 기능 실행 제어부(27)는 이를 파악하여 이에 입력 명령에 해당하는 출력을 수행한다. 본 예시에서는 디스플레이 화면상의 커서가 나타나거나 또는 비활성 상태로 중앙에 표시된 커서가 활성화 되는 예를 제시하였다.
또한 도 2 예시에서와 같이 사용자가 손의 위치를 이동시키면 사용자 카메라(3)로 입력 받은 손 위치 이동 영상을 입력받아 커서 위치 산출 및 기능 실행 제어부(27)에서 커서 동작 프로세싱을 통해 사용자의 손 이동 경로를 따라 커서도 위치를 이동하게 된다.
사용자가 커서를 쉽게 인지하고 활용하기 위한 방법을 도 2 내지 도 3의 예시를 통해 보다 상세히 설명한다.
사용자가 투명 디스플레이에 일정 거리 이내로 접근하면 사용자 카메라에서 촬영된 사용자의 형상을 기반으로 먼저 사용자 눈 정보 산출부(5)에서 사용자의 눈의 위치 좌표를 산출한다. 또한 오브젝트 카메라에서 촬영된 영상을 기반으로 오브젝트 정보 산출부(4)에서는 오브젝트의 위치 좌표를 산출한다. 증강 이미지 정합부(6)에서는 파악된 오브젝트의 위치 좌표와 사용자의 눈의 위치 좌표를 기준으로 사용자의 시선에서 투명디스플레이상에 투영되는 오브젝트의 위치 좌표를 산출한다.
이때 사용자가 손이 특정한 제스처를 하면 디스플레이 화면 중앙에 커서가 나타나거나 또는 중앙에 있던 커서의 형태가 변하여 활성 상태를 보여 준다. 특정한 제스처의 예를 들자면 도 3의 3D회전도의 예와 같이 주먹 형태에서 검지만 펴는 형태를 들 수 있다.
도 3의 정면도는 커서 활성화 상태를 포함하는 디스플레이 화면 초기 상태의 예이다.
디스플레이 화면 중앙에 커서가 나타나 있으며 추가로 깜박일 수 있다. 그리고 커서를 동작 시키는 방법에 대한 안내 문구가 화면상에 표시될 수 있다.
디스플레이 화면에는 추가로 오브젝트(11)가 복수 개 또는 하나의 오브젝트의 면적이 큰 경우, 각각의 오브젝트나 오브젝트의 부분에 대응하는 메뉴를 사용자의 시선(24)에서 투명디스플레이상에 투영되는 오브젝트 들과 정합하여 표시할 수 있다. 도 3의 정면도와 같이 복수의 오브젝트(11)의 예시로 든 경우 배열된 각각의 오브젝트에 정합된 초기 증강 이미지로 오브젝트의 제품명이나 품번 등을 표시할 수 있다.
도 2 예시와 같이 사용자 손(22)이 위치A에서 위치B로 이동하면 투명디스플레이 화면상의 커서(23)도 위치A’에서 위치B’으로 이동하도록 한다. 이동 전후 각각의 커서 위치에서 사용자 눈(12)에서 투명디스플레이 화면상의 커서(23)을 지나는 시선(24)과 매칭된 특정 오브젝트(11)에 관련된 정보를 가지는 증강 이미지(9)가 표시될 수 있다. 상기 매칭된 특정 오브젝트(11) 관한 정보를 가지는 증강 이미지(9) 표시 방법으로는 도 5 자동 실행 흐름도와 같이 자동으로 표시하거나 도 6 수동 실행 흐름도와 같이 수동으로 표시할 수 있다.
도 4에서는 본 발명의 몇 가지의 손 제스처 형태를 예시해 본다.
주먹형태에서 검지만 펴고 다시 접는 형태의 제스처는 커서를 활성화 하거나 비활성화를 지시하는 입력 명령으로 활용할 수 있다. 검지만 편 상태에서 손가락을 모두 핀 상태로 변경하는 제스처의 경우에는 증강이미지를 크기 확대 축소나 회전을 지시하는 입력 명령으로, 검지만 편 상태에서 검지를 두드리면 팝업 이미지를 실행하라는 입력 명령으로, 검지만 편 상태에서 검지를 돌리면 팝업 이미지가 사라지라는 입력 명령으로 활용할 수 있다.
부가해서 펴는 손가락의 개수나 특정 도형을 그리는 제스처들을 활용한다면 보다 다양한 입력 명령이 가능해진다.
한편, 입력 제스처는 사용자의 손에 한정되지 않는다. 사용자의 팔 제스처가 될 수도 있고, 머리나 다리, 발을 포함한 신체의 일부분의 제스처를 이용할 수도 있다. 또한 손에 쥐고 있는 특정 물체의 움직임도 이용할 수 있다.
도 5를 참조로 하여 커서 위치 제어 따른 증강이미지 자동 실행 시퀀스 적용 예를 설명해본다.
사용자 카메라(3)로부터 사용자의 영상을 입력받아 제스처 정보 추출부(25)에서 사용자의 손(22) 정보를 추출하여 손의 위치와 손의 형태 및 손이 움직임 등을 파악 한다.
먼저 커서의 활성화 상태를 파악하는데, 커서가 비활성화 상태라면 입력된 손의 정보가 커서 활성화 제스처 인지를 판단한다. 커서 활성화 제스처가 아닌 다른 제스처라면 무시하고 커서 활성화 제스처를 입력 받을 때까지 손 제스처에 대한 모니터링만 계속하여 실시한다.
제스처 정보 추출부(25)에서 제스처 모니터링 중에 커서 활성화 제스처가 파악되면 커서를 활성화 시키고, 이어지는 입력 영상을 분석하여 커서 이동 제스처가 파악되면 커서 위치 산출 및 기능 실행 제어부(27)에서는 손의 이동에 따라 커서 위치를 이동시킨다.
커서가 이동하여 사용자의 시선에서 투명디스플레이상에 투영되는 오브젝트의 특정 위치에 오게 되면 미리 프로그램 되어있는 증강 이미지 출력을 실행 시킨다. 예를 들어 특정 행과 열에 배치된 오브젝트에 커서가 위치하게 되면 해당되는 오브젝트의 제품 사양을 화면에 출력 시킬 수 있다. 커서가 이동하면 이동된 커서 위치에 있는 해당되는 다른 행과 열의 오브젝트의 제품 사양이 표시된다.
또 다른 실시 예로 오브젝트가 자동차와 같은 큰 단일 물체의 경우에는 커서가 자동차의 어느 부분에 위치하게 되면, 그 부분에 해당하는 증강하는 이미지·정보가 표시되도록 할 수 있다.
추가로 증강 이미지·정보 표시가 사라지게 하는 방법의 예로서는 증강 이미지·정보 표시 후 일정 시간이 되면 자동으로 사라지게 하거나, 특정 제스처를 실행하거나, 커서 비활성화 제스처를 이용할 수도 있다.
도 6을 참조로 하여 제스처 유형에 따른 증강이미지 수동 실행 시퀀스 적용 예를 설명해본다.
수동 실행 시퀀스의 경우에도 커서의 활성화 및 이동에 있어서는 도 5의 예와 동일하게 작동 될 수 있다. 즉, 커서가 비활성화 상태라면 활성화 입력을 받을 때 까지 손 제스처에 대한 모니터링만 계속하여 실시하다가, 커서 활성화 제스처에 의해 커서를 활성화 시키고, 손의 이동에 따라 커서도 움직이는 시퀀스이다.
도 6의 시퀀스가 도 5의 시퀀스와 다른 점은 다양한 기능 실행 제스처를 파악하여 해당 기능을 실행하는 시퀀스가 추가되었다는 점이다. 이 경우에는 커서가 사용자의 시선에서 투명 디스플레이에 투영되는 오브젝트의 특정 위치에 위치하더라도 증강 이미지·정보가 자동으로 표시되지 않고, 증강 이미지·정보 표시기능을 실행하라는 특정 제스처 입력을 받아야만 커서 위치 산출 및 기능 실행 제어부(27)에서 증강 이미지·정보 표시 명령을 수행하게 된다.
상기 다양한 기능 실행 제스처로 입력받는 기능들은 증강 이미지·정보 표시기능 뿐만 아니라 기존 입력 수단인 마우스를 이용한 입력 기능들을 대체하여 행할 수 있다. 예를 들면 메뉴 화면을 띄우고, 실행하고자 하는 메뉴를 선택하여 실행시키고, 화면 자판을 띄우고, 자판 내 글자를 차례로 선택하여 단어를 입력 시키는 등의 다양한 입력 기능들을 대체할 수 있다.
도 7은 오브젝트 카메라(2)와 사용자 카메라(3)를 180도 회전이 가능한 하나의 통합 카메라 시스템으로 일원화한 예시이다.
오브젝트의 위치 정보 추출 시에는 통합카메라의 방향을 오브젝트 방향으로 향하게 하고, 사용자의 위치 좌표 추출 및 제스처 입력 시에는 통합카메라의 방향을 사용자 방향으로 향하게 하면, 하나의 카메라 시스템으로 오브젝트 카메라와 사용자 카메라 역할 모두가 가능해진다. 이는 카메라 시스템의 구성비용을 절약할 수 있으며 오브젝트와 사용자간 상대 좌표 산출 오차도 최소화 할 수 있는 장점이 있다.
1:투명디스플레이
2:오브젝트 카메라
3:사용자 카메라
4:오브젝트 정보 산출 부
5:사용자 눈 정보 산출부
7:저장부
8:영상 처리 부
9:정합된 증강 이미지
22:사용자의 손
23:커서
24:시선

Claims (4)

  1. 투명디스플레이(1)와,
    오브젝트 카메라(2)와,
    사용자 카메라(3)와,
    저장부를 포함하여 이들의 작동을 제어하는 제어부(100)를 포함하고,
    오브젝트 카메라로 촬영한 영상으로 오브젝트의 위치를 산출하고,
    사용자 카메라로 촬영한 영상으로 사용자의 눈의 위치를 산출하고,
    상기 산출된 실제 오브젝트의 위치와 사용자의 눈 위치를 기준으로
    사용자가 보는 시선에서 투명디스플레이 내에 투영되는 오브젝트 이미지의 위치를 산출하여
    상기 투명디스플레이 화면에 투영되는 오브젝트 이미지의 위치에 정합 되도록
    증강 이미지(9)를 표시하는 증강현실 구현 장치(10)에 있어서,
    사용자의 제스처 입력 정보를 추출하여 해당하는 기능을 실행시키는 제스처 입력 제어부를 추가하여,
    사용자 카메라로부터 사용자의 제스처 영상을 입력받아 제스처 입력 제어부에서 사용자의 제스처 정보를 추출하여 해당하는 기능을 실행하는 증강현실 구현 장치.
  2. 제 1항에서
    사용자 제스처로 사용자 손(22) 제스처를 사용하는 증강현실 구현 장치.
  3. 제 1항에서
    투명디스플레이 화면상에 커서가 사용자의 제스처에 연동하여 활성화하거나 이동하는 증강현실 구현 장치.
  4. 제 3항에서
    표시되는 증강 이미지(9)는 사용자 눈(12)에서 투명디스플레이 화면상의 커서(23) 위치를 통과하는 시선(24)과 매칭된 특정 오브젝트(11)에 관련된 이미지 정보인 증강현실 구현 장치.
KR1020220019258A 2022-02-15 2022-02-15 제스처 입력 기능을 구비한 증강현실 투명 표시장치 및 구현 방법 KR20230122711A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220019258A KR20230122711A (ko) 2022-02-15 2022-02-15 제스처 입력 기능을 구비한 증강현실 투명 표시장치 및 구현 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220019258A KR20230122711A (ko) 2022-02-15 2022-02-15 제스처 입력 기능을 구비한 증강현실 투명 표시장치 및 구현 방법

Publications (1)

Publication Number Publication Date
KR20230122711A true KR20230122711A (ko) 2023-08-22

Family

ID=87799788

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220019258A KR20230122711A (ko) 2022-02-15 2022-02-15 제스처 입력 기능을 구비한 증강현실 투명 표시장치 및 구현 방법

Country Status (1)

Country Link
KR (1) KR20230122711A (ko)

Similar Documents

Publication Publication Date Title
US20220261112A1 (en) Systems, devices, and methods for touch-free typing
US10001838B2 (en) Feature tracking for device input
US20200356238A1 (en) Virtual Interactions for Machine Control
KR101652535B1 (ko) 차량 인터페이스를 위한 제스처 기반 제어 시스템
US20230218983A1 (en) Information processing device, control method of information processing device, and program
EP2972669B1 (en) Depth-based user interface gesture control
CN108700957B (zh) 用于虚拟环境中文本输入的电子***和方法
US20180292907A1 (en) Gesture control system and method for smart home
US8947351B1 (en) Point of view determinations for finger tracking
US8959013B2 (en) Virtual keyboard for a non-tactile three dimensional user interface
US9671869B2 (en) Systems and methods of direct pointing detection for interaction with a digital device
US10048779B2 (en) Virtual hand based on combined data
JP6987067B2 (ja) 複数の入力管理のためのシステムおよび方法
US10452155B2 (en) Display method of on-screen keyboard and computer program product and non-transitory computer readable storage medium thereof
US20130194173A1 (en) Touch free control of electronic systems and associated methods
US9477315B2 (en) Information query by pointing
US20100090947A1 (en) System and Method for Gesture Based Control System
CN116097209A (zh) 人工现实交互模式的整合
US20130343607A1 (en) Method for touchless control of a device
US20140267029A1 (en) Method and system of enabling interaction between a user and an electronic device
US20130257734A1 (en) Use of a sensor to enable touch and type modes for hands of a user via a keyboard
JP6524589B2 (ja) クリック動作検出装置,方法およびプログラム
US10521101B2 (en) Scroll mode for touch/pointing control
TWI668600B (zh) 虛擬實境或擴增實境的方法、裝置以及非暫態電腦可讀取媒體
US20160034027A1 (en) Optical tracking of a user-guided object for mobile platform user input