KR101833253B1 - 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치 - Google Patents

증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치 Download PDF

Info

Publication number
KR101833253B1
KR101833253B1 KR1020120006959A KR20120006959A KR101833253B1 KR 101833253 B1 KR101833253 B1 KR 101833253B1 KR 1020120006959 A KR1020120006959 A KR 1020120006959A KR 20120006959 A KR20120006959 A KR 20120006959A KR 101833253 B1 KR101833253 B1 KR 101833253B1
Authority
KR
South Korea
Prior art keywords
rotation
information
virtual object
mobile
augmented reality
Prior art date
Application number
KR1020120006959A
Other languages
English (en)
Other versions
KR20120086266A (ko
Inventor
하태진
우운택
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Publication of KR20120086266A publication Critical patent/KR20120086266A/ko
Application granted granted Critical
Publication of KR101833253B1 publication Critical patent/KR101833253B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 웨어러블 증강현실 환경에서 모바일 장치의 내장 센서를 활용하여 3D 가상객체의 3축 이동, 3축 회전 및 3축 크기 조작을 할 수 있는 방법에 관한 것으로, 실제 환경의 영상을 획득하고 획득된 상기 영상에 가상객체를 증강하는 증강현실 구현부; 사용자 터치조작에 대응하는 2차원 이동정보 및, 사용자 회전 조작에 대응하는 회전정보를 생성하는 모바일 조작부를 포함하되, 상기 증강현실 구현부는, 상기 2차원 이동정보 및 상기 회전정보를 수신하고, 수신된 상기 2차원 이동정보 및 회전정보에 기초하여 상기 가상객체의 위치속성, 회전속성 및 크기속성 중 적어도 어느 하나를 변경하여, 3축 방향으로 상기 가상객체의 움직임 또는 크기를 변경하는 것을 특징으로 하는 증강 현실 장치를 제공하여, 조작하기 원하는 방향으로 모바일 조작부(스마트 폰등)를 회전시킴과 동시에, 해당 방향으로 모바일 조작부(스마트 폰)의 터치 스크린상에서 드래그 앤 드랍하는 조작을 통해, 3D 가상객체의 3축 이동, 3축 회전, 3축 크기 조작이 가능하다.

Description

증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치{Object manipulation method in augmented reality environment and Apparatus for augmented reality implementing the same}
본 발명은 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치에 관한 것이다. 보다 상세하게는 본 발명은, 웨어러블 증강현실 환경에서 모바일 장치의 내장 센서를 활용하여 3D 가상객체의 3축 이동, 3축 회전 및 3축 크기 조작을 할 수 있는 방법에 관한 것이다.
현재 모바일 장치는, 많은 사용자가 보유하고 있는 범용적인 휴대 컴퓨터로 인식되고 있다. 또한 최근 모바일 장치의 하드웨어 성능이 개선되고 있으며 각종 센서들이 내장되고 있는 추세이다. 이를 통해 다양한 종류의 모바일 증강현실 어플리케이션들이 개발되고 있으며, 사용자는 언제 어디서나 모바일 장치를 이용하여 가상현실에 존재하는 부가적이며 유용한 정보를 획득하거나 다른 사용자와 정보를 공유할 수 있다.
특히, 최근 스마트 폰에는 GPS, 자이로, 중력가속도, 터치, 방위 센서 등과 같은 다양한 센서들이 내장되고 있는 추세이다. 그리고 센서 정보 활용하여 사용자의 편의를 높일 수 있는 다양한 어플리케이션들이 개발/배포되고 있다. 사용자는 언제 어디서나(실내외)에서 자연스럽게 스마트 폰을 이용할 수 있다.
그러나, 3D 콘텐츠(가상객체)와의 상호작용에 있어, 기존의 3D 가상객체의 조작방법은 모바일 장치의 터치스크린을 이용한 2D 입력 방법, 내장 자이로/중력가속도 센서를 이용한 회전 방법, 가속도 센서 정보를 이용한 공간 제스처 입력 방법 등에 초점을 맞추고 있다. 하지만, 3D 체험형/몰입형 상호작용 및 정보 시각화 등에서 사용될 수 있는 3D 가상객체의 정밀하고 고차원적인 3D 가상객체 조작방법 (3축 이동, 3축 회전, 3축 크기 조작 등)은 아직 해결되지 못한 문제로 남아있다.
상술한 문제점을 해결하기 위한 관점으로부터 본 발명은 모바일 장치의 내장 센서 정보를 활용하여 3D 가상객체의 3축 이동, 3축 회전 및 3축 크기 조작을 할 수 있는 기술을 제안함을 기술적 과제로 한다.
상기 기술적 과제와 관련하여 본 발명은, 기존 모바일 장치의 좁은 사용자 시야를 대폭 확장하기 위해 HMD(Head Mounted Display) 기반의 웨어러블 컴퓨팅 환경에서 모바일 장치의 내장 센서를 이용하여 정밀한 3D 상호작용이 가능한 기술을 제안한다.
또한, 본 발명은 모바일 장치를 통한 3D 가상객체의 조작을 영상 장치(display device)에서 영상화(visualization)하기 위한 기술을 제안한다.
또한, 본 발명은 손목의 신장 및 굴곡 특성에 기반하여, 3D 가상객체 조작하는 기술을 제안한다.
또한, 본 발명은 사용자의 손목의 신장 및 굴곡 특성에 기반하여, 개인화된 3D 가상객체 조작하는 기술을 제안한다.
그러나, 본 발명의 기술적 과제는 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 과제를 해결하기 위하여, 본 발명은, 실제 환경의 영상을 획득하고 획득된 상기 영상에 가상객체를 증강하는 증강현실 구현부와, 사용자 터치조작에 대응하는 2차원 이동정보 및, 사용자 회전 조작에 대응하는 회전정보를 생성하는 모바일 조작부를 포함하되, 상기 증강현실 구현부는, 상기 2차원 이동정보 및 상기 회전정보를 수신하고, 수신된 상기 2차원 이동정보 및 회전정보에 기초하여 상기 가상객체의 위치속성, 회전속성 및 크기속성 중 적어도 어느 하나를 변경하여, 3축 방향으로 상기 가상객체의 움직임 또는 크기를 변경하는 것을 특징으로 하는 증강 현실 장치를 제공한다.
바람직하게는, 일단이 헤드로 구성되는 상기 모바일 조작부에서, 상기 회전정보가, 상기 가상객체의 목표 이동방향으로 상기 헤드가 향하도록 상기 모바일 조작부를 기울이는 사용자의 제1 회전 조작으로 형성되고, 상기 2차원 이동정보가, 상기 제1 회전 조작과 동시에 이루어지며 한 지점에 대한 사용자의 터치로 시작하여 소정의 길이 이상을 가지는 제1 드래그 앤 드랍 조작으로 형성되면, 상기 증강현실 구현부는, 상기 제1 회전 조작으로 형성되는 상기 회전정보 및, 상기 제1 드래그 앤 드랍 조작으로 형성되는 상기 2차원 이동정보를 이동 조작 함수에 대입하여 상기 가상객체의 3차원 이동정보를 생성하는 것이 좋다.
바람직하게는, 일단이 헤드로 구성되는 상기 모바일 조작부에서, 상기 회전정보가, 상기 가상객체의 목표 회전방향으로 상기 헤드가 회전하도록 상기 모바일 조작부를 기울이는 사용자의 제2 회전 조작으로 형성되고, 상기 제 2차원 이동정보는, 상기 제2 회전 조작과 동시에 이루어지며 한 지점에 대한 사용자의 터치로 시작되어 소정의 길이 미만을 가지는 제2 드래그 앤 드랍 방식의 조작 또는 사용자의 노터치(no touch) 조작 중 어느 하나로 형성되면, 상기 증강현실 구현부는, 상기 제2 회전 조작으로 형성되는 상기 회전정보를 회전 조작 함수에 대입하여 상기 헤드의 회전 방향으로 상기 가상객체를 회전시키기 위한 3차원 회전정보를 생성하는 것이 좋다.
바람직하게는, 일단이 헤드로 구성되는 상기 모바일 조작부에서, 상기 회전정보가, 상기 가상객체의 목표 회전방향으로 상기 헤드가 회전하도록 상기 모바일 조작부를 기울이는 사용자의 제3 회전 조작으로 형성되고, 상기 제 2차원 이동정보는, 상기 제3 회전 조작과 동시에 이루어지며 두 지점에 대한 사용자의 터치로 시작되는 제3 드래그 앤 드랍 방식의 조작으로 형성되며, 상기 증강현실 구현부는, 상기 제3 회전 조작으로 형성되는 상기 회전정보 및 상기 제3 드래그 앤 드랍 조작으로 형성되는 상기 2차원 이동정보를 크기 조작 함수에 대입하여 상기 가상객체의 3차원 회전정보 및 크기변경정보를 생성하는 것이 좋다.
바람직하게는, 상기 회전 조작 함수는 이차함수 형식으로 구성되는 것이 좋다.
바람직하게는, 상기 회전 조작 함수의 변수는, 상기 모바일 조작부 파지시 상기 모바일 조작부의 최초 회전 각도, 3축 방향으로 각각 상기 모바일 조작부의 정방향 최대 회전 각도, 3축 방향으로 각각 상기 모바일 조작부의 역방향 최대 회전 각도 및, 3축 방향으로 각각 상기 모바일 조작부의 현재 회전각도인 것이 좋다.
한편, 본 발명은, 증강 현실 구현부와 모바일 조작부를 포함하는 증강 현실 장치를 통해 구현되는 증강현실 환경에서 가상객체의 조작 방법에 있어서, 상기 증강 현실 구현부는, a)모바일 조작부에 대한 사용자의 터치 동작 및 회전 동작에 대응하는, 터치정보 및 회전정보를 수신하는 단계와, b)수신된 상기 회전정보를 회전 조작 함수에 대입하여, 상기 가상객체의 3차원 회전정보를 생성하는 단계와, c)수신된 터치정보가 한 지점에 대한 터치에 의한 것인 경우, 상기 터치정보를 이동 조작 함수에 대입하여, 상기 가상객체의 3차원 이동정보를 생성하는 단계와, d)상기 3차원 회전정보 및 상기 3차원 이동정보에 기초하여 상기 가상객체의 위치속성 및 회전속성을 변경하는 단계 및, e)수신된 터치정보가 두 지점에 대한 터치에 의한 것인 경우, 상기 터치정보를 크기 조작 함수에 대입하여, 상기 가상객체의 크기변경정보를 생성하는 단계 및 f)상기 3차원 회전정보 및 상기 크기변경정보에 기초하여 상기 가상객체의 회전속성 및 크기속성을 변경하는 단계를 포함하는 증강현실 환경에서 가상객체의 조작 방법을 제공한다.
바람직하게는, 상기 c)단계에서, 한 지점의 터치에서 시작되는 드래그 앤 드랍의 길이가 소정의 길이 미만이면, 상기 e)단계에서 상기 가상객체의 회전속성만을 변경하는 것을 특징으로 하는 증강현실 환경의 가상객체의 조작 방법을 제공한다.
본 명세서의 기재내용으로부터 파악되는 본 발명에 따르면, 조작하기 원하는 방향으로 모바일 조작부(스마트 폰등)를 회전시킴과 동시에, 해당 방향으로 모바일 조작부(스마트 폰)의 터치 스크린상에서 드래그 앤 드랍하는 조작을 통해, 3D 가상객체의 3축 이동, 3축 회전, 3축 크기 조작이 가능하다.
또한 기존(별도의)의 특수한 트래킹 장치(적외선, 초음파센서, 깊이 카메라 등)가 설치되어 있지 않는 보통의 실내외 환경(스마트 폰의 위치/회전 등을 알지 못함)에서도, 모바일 조작부(스마트 폰등)을 이용하여 3D 가상객체를 3축으로 이동, 회전, 크기 조작이 가능하다.
또한, 모바일 조작부에서의 3D 가상객체 조작이 사용자가 착용하고 있는 HMD를 통해 영상화되므로, 기존 모바일 장치의 좁은 사용자 시야를 대폭 확장하여 증강현실을 구현하는 것이 가능하다.
또한, 모바일 조작부를 파지한 손목의 신장 및 굴곡 특성을 반영하여, 효과적인 가상객체의 조작이 가능하게 하는 유리한 효과를 제공한다.
나아가, 개인화된 모바일 조작부를 파지한 손목의 신장 및 굴곡 특성을 반영하여, 좀더 효과적인 가상객체의 조작이 가능하게 하는 유리한 효과를 제공한다.
도 1은 본 발명에 따른 증강현실 장치의 구성을 설명하기 위해 도시한 블록도,
도 2는 가상객체의 3차원 이동정보를 생성하기 위한, 도 1의 모바일 조작부의 2차원 이동정보 및 회전정보를 설명하기 위해 도시한 그림,
도 3은 한 지점에 대한 사용자의 드래그 앤 드랍 조작으로 가상객체를 위치속성을 변경하는 상태를 나타내는 영상 이미지,
도 4는 가상객체의 3차원 회전정보를 생성하기 위한, 도 1의 모바일 조작부의 2차원 이동정보 및 회전정보를 설명하기 위해 도시한 그림,
도 5는 사용자의 회전 조작으로 가상객체의 회전속성을 변경하는 상태를 나타내는 영상 이미지,
도 6은 가상객체의 크기변경정보를 생성하기 위한, 도 1의 모바일 조작부의 2차원 이동정보 및 회전정보를 설명하기 위해 도시한 그림,
도 7은 두 지점에 대한 사용자의 드래그 앤 드랍 조작으로 가상객체의 크기속성을 변경하는 상태를 나타내는 영상 이미지,
도 8은 도 1의 모바일 조작부를 파지한 상태에서 3축 방향을 기준으로 사용자의 일반적인 손목 각도의 역방향 최대값과 정방향 최대값을 나타낸 영상 이미지,
도 9는 도 1의 모바일 조작부의 회전 각도와 가상객체의 회전 각도의 관계를 도시한 그래프,
도 10은 개인화된 도 1의 모바일 조작부의 회전 각도와 가상객체의 회전 각도의 관계를 도시한 그래프,
도 11은 본 발명에 따른 증강현실 환경에서 가상객체의 조작 방법의 구성을 설명하기 위해 도시한 순서도이다.
이하, 본 발명에 따른 증강현실 환경에서 가상객체의 조작방법 및 이를 구현하는 증강현실 장치의 바람직한 일실시예에 대해 설명한다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 의해 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.
도 1은 본 발명에 따른 증강현실 장치의 구성을 설명하기 위해 도시한 블록도이다.
도 1을 참조 하면, 본 발명에 따른 증강현실 장치의 바람직한 일실시예는 실제 환경의 영상을 획득하고 획득된 상기 영상에 가상객체를 증강하는 증강현실 구현부(100)와, 사용자의 터치조작에 대응하는 2차원 이동정보 및, 사용자 회전조작에 대응하는 회전정보를 생성하는 모바일 조작부(200)를 포함하여 이루어진다.
본 발명은, 모바일 조작부(200)에서 생성되는 2차원 이동정보 및 회전정보를 증강현실 구현부(100)에서 수신하여 이를 기초로, 증강현실 환경에서 3차원 가상객체를 입체적으로 이동, 회전 및 크기 조절하는 것을 그 기술적 특징으로 한다.
이하, 증강현실 구현부(100) 및 모바일 조작부(200)에 대해 설명하기로 한다.
증강현실 구현부(100)는 카메라와 같은 영상장치로부터 획득한 실제 환경의 영상에, 가상객체를 합성하여 합성된 영상을 디스플레이 장치를 통해 증강현실을 구현하며, 모바일 조작부(200)의 조작에 따라, 합성된 영상에서 가상객체를 선택하고, 선택된 가상객체를 입체적으로 조작하는 역할을 한다.
일실시예에서는. 입을 수 있는 웨어러블(wearable) 형태의 증강현실 구현부(100)를 제공하며, 영상장치로서, 사용자에 머리에 착용하는 HMD(Head Mounted Display)의 카메라를 제공하여, 모바일 조작부(200)의 휴대성 및 범용성을 최대한 활용한 구성으로 이루어진다.
HMD의 카메라를 통해 입력한 영상으로부터 현실객체의 특징 정보를 추출/인식/추적을 통해 카메라의 자세를 획득한다. 그리고 사용자는 모바일 조작부(200)로 HMD의 뷰(view)상의 최적의 선택 우선순위를 가지는 가상객체를 실시간으로 선택한다.
선택된 가상객체를 입체적으로 조작하는데 있어서, 모바일 조작부(200)에 내장된 센서들을 활용한다.
모바일 조작부(200)는 스마트폰을 일례로 들수 있으며, 사용자의 터치조작을 수용하여 물리적인 터치동작에 대응하는 전기적 신호를 생성하는 터치 스크린과, 모바일 조작부(200)의 움직임을 전기적 신호로 변환하는 자이로스코프등과 같은 기울기 센서, 방위 세서 및 가속도 센서등이 마련된다.
이러한, 모바일 조작부(200)는 사용자의 터치(tap), 드래그 앤 드랍(drag and drop)등과 같은 터치조작과, 모바일 조작부(200)을 기울이는 회전조작에 대응하여, 각각 2차원 이동정보 및 회전정보를 생성한다.
즉, 2차원 이동정보는, 모바일 조작부(200)의 터치 스크린 상에서 이루어지는 사용자의 터치(tap) 또는 드래그 앤 드랍(drag and drop)의 크기 및 방향을 의미하는 것이며, 회전정보는 3축을 기준으로 모바일 조작부(200)의 기울어지는 정도를 의미한다.
위와 같은, 증강현실을 구현하는데 있어서, 모바일 조작부(200)의 터치 스크린과 내장 센서들을 활용하면, 기존의 특수한 트래킹 장치(예. 적외선, 초음파센서, 깊이 카메라 등)가 설치되어 있지않는 보통의 실내외 환경(예. 월드좌표계/카메라좌표계를 기준으로 한 모바일 조작부의 상대적인 자세를 알지 못하는 환경)에서도, 증강현실 환경에서 가상객체에 대한 사용자 인터페이스로 활용이 가능한 장점이 있다.
이하, 도 2 내지 도 7을 참조하여, 모바일 조작부(200)를 통해 가상객체 조작방법을 설명하기로 한다.
도 2는 가상객체의 3차원 이동정보를 생성하기 위한, 도 1의 모바일 조작부의 2차원 이동정보 및 회전정보를 설명하기 위해 도시한 그림, 도 3은 한 지점에 대한 사용자의 드래그 앤 드랍 조작으로 가상객체의 위치속성을 변경하는 상태를 나타내는 영상 이미지이다.
도 2는 가상객체의 3축 이동방법에 관한 것으로, 3축 이동은, 가상객체를 3축 상에서 이동시키고자 하는 목표 이동방향으로 모바일 조작부(200)를 기울이면서(사용자의 제1 회전 조작), 동시에 목표 이동방향으로 터치 스크린 상에서 드래그 앤 드랍(제1 드래그 앤 드랍 조작)한다.
증강현실 구현부(100)는 이러한, 제1 회전 조작과 제1 드래그 앤 드랍 조작으로 모바일 조작부(200)에서 형성되는 회전정보 및 2차원 이동정보를 이동 조작 함수에 대입하여 3차원 이동정보를 생성한다.
이동 조작 함수는 하기의 수학식 1로 표현된다.
Figure 112012005756112-pat00001
여기서, Vc는 3D 모션 벡터, Vt는 2D 모션 벡터, R은 회전 행렬, dt는 터치 스크린 상의 드래그 벡터(도2의 V1)의 크기이며, Θt는 2D 모션 벡터의 방향, Rz는 z축의 중력 가속도 센서값이며, Rx는 x축의 중력 가속도 센서값, Ry는 y축의 중력 가속도 센서값, d는 3차원 이동정보를 생성하기 위한 기준이 되는 터치 스크린상의 드레그 벡터의 길이이다.
즉, 가상객체의 움직임을 표현하는 3D 모션 벡터(Vc)는 2D 모션 벡터(Vt)와 회전 행렬(R)로 구성된다. 또한, 3축 이동의 경우에는 2D 모션 벡터의 크기(dt)가 미리 결정된 소정의 길이(d) 이상일 경우의 제한 조건하에서 실행된다.
생성된 3차원 이동정보를 통해, 가상객체의 머리(Head)는 모바일 조작부(200)의 헤드(H)가 향하는 방향으로 자세를 돌리게 되고, 사용자는 터치 스크린의 임의의 터치 포인트(T)를 터치한 상태에서 드래그 앤 드랍하여 가상객체를 이동시킨다. 이 때, 가상객체는 사용자가 터치 포인트(T)를 터치한 상태에서 손가락의 이동을 따라 이동됨을 도 3을 통해 확인할 수 있다.
한편, 도 4는 가상객체의 3차원 회전정보를 생성하기 위한, 도 1의 모바일 조작부의 2차원 이동정보 및 회전정보를 설명하기 위해 도시한 그림이고, 도 5는 사용자의 회전 조작으로 가상객체의 회전속성을 변경하는 상태를 나타내는 영상 이미지이다.
도 4는 가상객체의 3축 회전방법에 관한 것으로, 3축 회전은, 가상객체를 3축 상에서 회전시키고자 하는 목표 회전방향으로 모바일 조작부(200)를 기울이면서(사용자의 제2 회전조작), 동시에 목표이동 방향으로 터치 스크린 상에서 상술한 소정이 길이(d) 미만으로 드래그 앤 드랍 조작(제2 드래그 앤 드랍 조작)하거나, 터치 스크린을 터치하지 않는다. (노터치(no touch))
증강현실 구현부(100)는 이러한, 제2 회전 조작과 제2 드래그 앤 드랍 조작으로 모바일 조작부(200)에서 형성되는 회전정보 및 2차원 이동정보를 회전 조작 함수에 대입하여 3차원 회전정보를 생성한다.
회전 조작 함수는 하기의 [수학식 2]로 표현된다.
Figure 112012005756112-pat00002
여기서, Rc는 3D 회전 벡터, R은 회전 행렬, dt는 터치 스크린 상의 드래그 벡터(도3의 V2)의 크기이며, Rx는 x축의 중력 가속도 센서값, Ry는 y축의 중력 가속도 센서값, d는 3차원 이동정보를 생성하기 위한 기준이 되는 터치 스크린상의 드레그 벡터의 길이이다.
생성된 3차원 회전정보를 통해, 가상객체의 머리(Head)는 모바일 조박부(200)의 헤드(H)가 향하는 방향으로 회전하게 됨을 도 5를 확인할 수 있다.
이때 사용자는 터치 스크린의 임의의 터치 포인트(T)를 터치한 상태 혹은 터치 포인트(T)를 터치하지 않은 상태 혹은, 터치 포인트(T)를 터치한 상태에서 약간의 변위를 주는 상태를 유지한다. 즉 상기 [수학식 2]에서 dt가 d 이하인 경우에, [수학식2]를 통해 3축 상에서 회전된다.
한편, 도 6은 가상객체의 크기변경정보를 생성하기 위한, 도 1의 모바일 조작부의 2차원 이동정보 및 회전정보를 설명하기 위해 도시한 그림, 도 7은 두 지점에 대한 사용자의 드래그 앤 드랍 조작으로 가상객체의 크기속성을 변경하는 상태를 나타내는 영상 이미지이다.
도 6은 가상객체의 3축 크기변경에 관한 것으로, 3축 크기변경은, 가상객체를 3축 상에서 크기 조작시키고자 하는 목표 회전방향으로 모바일 조작부(200)를 기울이면서(사용자의 제3 회전 조작), 동시에 터치 스크린 상에서 두 손가락 끝으로 간격(두 지점에 대한 사용자의 터치)을 조정한다.(제3 드래그 앤 드랍 조작)
증강현실 구현부(100)는 이러한, 제3 회전 조작과 제3 드래그 앤 드랍 조작으로 모바일 조작부(200)에서 형성되는 회전정보 및 2차원 이동정보를 크기 조작 함수에 대입하여 3차원 회전정보 및 크기변경정보를 생성한다.
크기 조작 함수는 하기의 [수학식 3]로 표현된다.
Figure 112012005756112-pat00003
기서, Vc는 3D 모션 벡터, Vt는 2D 터치 벡터(터치 스크린 상의 두 지점에 대한 터치 포인트를 잇는 벡터), R은 회전 행렬, dt는 2D 터치 벡터의 크기이며, Θt는 2D 터치 벡터의 방향, Rz는 z축의 중력 가속도 센서값이며, Rx는 x축의 중력 가속도 센서값, Ry는 y축의 중력 가속도 센서값, Sc는, 가상객체의 크기이다.
생성된 3차원 크기변경정보를 통해, 가상객체의 머리(Head)는 모바일 조작부(200)의 헤드(H)가 향하는 방향으로 회전하게 되고, 이때 사용자는 터치 스크린의 임의의 터치 포인트(T1) 및 다른 임의의 터치 포인트(T2)를 터치한 상태에서 가상객체의 크기 조절을 위한 핀치(pinch)동작을 행한다. 이에 따라 Vt가 커지면 가상객체가 확대되고, Vt가 작아지면 가상객체가 축소됨을 도 7을 통해 확인 할 수 있다.
이하, 도 8 내지 도 10을 참조하여, 사람의 일반적인 손목의 신장 및 굴곡 특성을 기반으로 하여, 상술한 모바일 조작부(200)의 회전 조작에 따른 가상객체의 회전속성을 변경하는 방법을 설명하기로 한다. 아울러, 사용자의 개인별로 상이한 손목의 신장 및 굴곡 특성을 개인화하여 모바일 조작부(200)의 회전 조작에 따른 가상객체의 회전속성을 변경하는 방법을 설명하기로 한다.
여기서, 손목의 신전(extension)이라 함은, 손목을 펴는 동작을 의미하고, 굴곡(flexion)이라 함은, 손목을 접는 동작을 의미한다.
도 8은 도 1의 모바일 조작부를 파지한 상태에서 3축 방향을 기준으로 사용자의 일반적인 손목 각도의 역방향 최대값과 정방향 최대값을 나타낸 영상 이미지이다.
도 8에서 확인 할 수 있듯이, 스마트폰과 같은 모바일 조작부(200)의 일반적인 사용자의 손목 회전 각도 범위는 통계적으로 다음과 같다. 도 8의 (a)에서 도시한 바와 같이, 피칭(pitching) 방향으로 -15°내지 +30° 도 8의 (b)에서 도시한 바와 같이, 롤링(rolling)방향으로 -65°내지 +60° 도 8의 (c)에서 도시한 바와 같이, 요잉방향(yawing)으로 - 60°내지 +45° 여기서 '-'는 정방향 회전을 의미하며, '+'는역방향 회전을 의미한다.
도 9는 도 1의 모바일 조작부의 회전 각도와 가상객체의 회전 각도의 관계를 도시한 그래프이다.
일반적으로, 위와 같은 손목 회전 각도 범위를 벗어나는 회전은 사실상 불가능하다. 때문에, 도 9에서 도시한 바와 같이, 모바일 조작부(200)의 회전각도와 가상객체의 회전각도가 선형적으로 대응되는 관계보다 2차 함수관계로 대응되는 것이, 가상객체를 조작하는데 있어서, 보다 효율적이다.
이에, 회전 조작 함수는 하기 [수학식 4]와 같은 이차함수 형식으로 구성되는 것이 바람직하다.
Figure 112012005756112-pat00004
여기서, Θc는 사용자 조작공간(control space)에서 모바일 조작부(200)의 회전각도이며 ΘD는 증강현실 디스플레이공간(display space)에서 가상객체의 회전각도이다. 그리고 α는 함수의 특성 변화를 위해 임의로 설정될 수 있는 상수이다.
한편, 각 회전축을 조정하기 위해, 상술한 바와 같이, 손목이 움직일 수 있는 각도에 한계가 있고, 또한 그 한계각도는 정방향으로 조정하는가, 역방향으로 조정하는가에 따라 다르다. 또한 이 범위는 사용자가 왼손으로 조작하는가, 오른손으로 조작하는가, 또는 조작을 위하여 어떤 장치를 사용하는가에 대한 여부 등에 따라서도 달라질 수 있다.
회전 조작 함수의 개인화는 수집한 손목 회전범위 정보를 기반으로 하여 손목의 최대 조작범위(정방향/역방향) 내에서 증강현실 상에서 조작하고자 하는 각도범위 전체의 조작이 가능하도록 구현한다. 이를 위해, 상술한 [수학식 4]의 함수를 하기 [수학식 5]와 같이 변형한다.
Figure 112012005756112-pat00005
기서, Θc는 사용자 조작공간(control space)에서 모바일 조작부(200)의 회전각도이며 ΘD는 증강현실 디스플레이공간(display space)에서 가상객체의 회전각도이다. 그리고 α는 함수의 특성 변화를 위해 임의로 설정될 수 있는 상수이다. Θmax는 모바일 저작부(200)의 정방향 최대 회전 각도, Θmin는 모바일 저작부(200)의 역방향 최대 회전 각도이다.
사용자는 자신의 손목을 편안한 자세를 유지하였을 때, 모바일 조작부(200)의 회전정보를 초기 설정 각도인 Θinit로 저장하고, 이를 기준으로 사용자의 최대 손목 회전 조작 범위(모바일 저작부(200)의 정방향 최대 회전 각도, 모바일 저작부(200)의 역방향 최대 회전 각도)를 저장한다.(Θmax와 Θmin) 이렇게 측정된 값과 사용자의 현재 모바일 조작부(200)의 회전각도(Θc)를 [수학식 5]에 대입한다.
즉. 도 10에서 도시한 바와 같이, 사용자의 최대 손목 조작 각도 대비 사용자의 현재 입력 각도 비율을 이용하여, 사용자가 손목에 무리가 가지 않는 최대 손목 회전 조작 범위 내에서 (자신만의 편안한 손목 회전 각도를 기준으로) 가상객체의 360°회전 각도를 쉽게 조작할 수 있도록 한다
이하, 도 1을 참조하여, 본 발명에 따른 증강현실 환경의 가상객체의 조작 방법에 대해 설명하기로 한다.
도 11은 본 발명에 따른 증강현실 환경에서 가상객체의 조작 방법의 구성을 설명하기 위해 도시한 순서도이다.
먼저, 모바일 조작부(200)에 대한 사용자의 터치 동작 및 회전 동작에 대응하는, 터치정보 및 회전정보를 수신한다.(S100)
다음으로, 수신된 회전정보를 회전 조작 함수에 대입하여(S210), 가상객체의 3차원 회전정보를 생성한다.(S220)
다음으로, 모바일 조작부(200)의 터치 스크린 상에 사용자의 터치가 있는지 판단한다.(S10)
사용자의 터치가 없었다면, 3차원 회전정보를 기반으로 가상객체의 회전속성만을 변경한다.(S700)
사용자의 터치가 있었다면, 사용자의 터치가 한 지점에 대한 터치 인지, 두 지점에 대한 터치 인지를 판단한다.(S20)
사용자의 터치가 한 지점에 대한 터치이면, 소정의 길이(d) 이상의 터치인지를 판단하여(S30), 소정의 길이(d) 미만의 터치이면, 가상객체의 회전속성만을 변경한다.(S700) 반면에, 소정의 길이(d) 이상의 터치라면, 회전정보 및 터치정보를 이동 조작 함수에 대입하여(S310), 상기 가상객체의 3차원 이동정보를 생성한다.(S320)
다음으로, 생성된 3차원 이동정보에 따라, 가상객체의 위치속성 및 회전속성을 변경한다.(S400)
사용자의 터치가 두 지점에 대한 터치이면, 회전정보 및 터치정보를 크기 조작 함수에 대입하여(S510), 상기 가상객체의 크기변경정보를 생성한다.(S520)
다음으로, 생성된 크기변경정보에 따라, 가상객체의 회전속성 및 크기속성을 변경한다.(S600)
본 발명에 따른 증강현실 환경에서의 가상객체의 조작방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
.
이상에서 본 발명에 따른 증강현실 환경에서의 가상객체의 조작방법 및 이를 구현하는 증강 현실 장치에 관한 바람직한 실시예에 대하여 설명하였다.
전술된 실시예는 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로 이해되어야 하며, 본 발명의 범위는 전술된 상세한 설명보다는 후술될 특허청구범위에 의하여 나타내어지며, 그 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 증강현실 구현부
200 : 모바일 조작부

Claims (8)

  1. 실제 환경의 영상을 획득하고 획득된 상기 영상에 가상객체를 증강하는 증강현실 구현부;
    사용자 터치조작에 대응하는 2차원 이동정보 및, 사용자 회전 조작에 대응하는 회전정보를 생성하는 모바일 조작부를 포함하되,
    상기 증강현실 구현부는, 상기 2차원 이동정보 및 상기 회전정보를 수신하고, 수신된 상기 2차원 이동정보 및 회전정보에 기초하여 상기 가상객체의 위치속성, 회전속성 및 크기속성 중 적어도 어느 하나를 변경하여, 3축 방향으로 상기 가상객체의 움직임 또는 크기를 변경하고,
    상기 회전정보는 상기 가상객체의 목표 이동방향 혹은 목표 회전방향에 대응하도록 상기 모바일 조작부를 기울이는 사용자의 회전 조작으로 형성되는 것을 특징으로 하는 증강 현실 장치.
  2. 제1 항에 있어서,
    상기 모바일 조작부에서,
    상기 회전정보가, 상기 가상객체의 목표 이동방향으로 상기 모바일 조작부의 헤드가 향하도록 상기 모바일 조작부를 기울이는 사용자의 제1 회전 조작으로 형성되고,
    상기 2차원 이동정보가, 상기 제1 회전 조작과 동시에 이루어지며 한 지점에 대한 사용자의 터치로 시작하여 소정의 길이 이상을 가지는 제1 드래그 앤 드랍 조작으로 형성되면,
    상기 증강현실 구현부는, 상기 제1 회전 조작으로 형성되는 상기 회전정보 및, 상기 제1 드래그 앤 드랍 조작으로 형성되는 상기 2차원 이동정보를 이동 조작 함수에 대입하여 상기 가상객체의 3차원 이동정보를 생성하는 것을 특징으로 하는 증강 현실 장치.
  3. 제1 항에 있어서,
    상기 모바일 조작부에서,
    상기 회전정보가, 상기 가상객체의 목표 회전방향으로 상기 모바일 조작부의 헤드가 회전하도록 상기 모바일 조작부를 기울이는 사용자의 제2 회전 조작으로 형성되고,
    상기 2차원 이동정보는, 상기 제2 회전 조작과 동시에 이루어지며 한 지점에 대한 사용자의 터치로 시작되어 소정의 길이 미만을 가지는 제2 드래그 앤 드랍 방식의 조작 또는 사용자의 노터치(no touch) 조작 중 어느 하나로 형성되면,
    상기 증강현실 구현부는, 상기 제2 회전 조작으로 형성되는 상기 회전정보를 회전 조작 함수에 대입하여 상기 헤드의 회전 방향으로 상기 가상객체를 회전시키기 위한 3차원 회전정보를 생성하는 것을 특징으로 하는 증강 현실 장치.
  4. 제1 항에 있어서,
    상기 모바일 조작부에서,
    상기 회전정보가, 상기 가상객체의 목표 회전방향으로 상기 모바일 조작부의 헤드가 회전하도록 상기 모바일 조작부를 기울이는 사용자의 제3 회전 조작으로 형성되고,
    상기 2차원 이동정보는, 상기 제3 회전 조작과 동시에 이루어지며 두 지점에 대한 사용자의 터치로 시작되는 제3 드래그 앤 드랍 방식의 조작으로 형성되며,
    상기 증강현실 구현부는, 상기 제3 회전 조작으로 형성되는 상기 회전정보 및 상기 제3 드래그 앤 드랍 조작으로 형성되는 상기 2차원 이동정보를 크기 조작 함수에 대입하여 상기 가상객체의 3차원 회전정보 및 크기변경정보를 생성하는 것을 특징으로 하는 증강 현실 장치.
  5. 제3 항에 있어서,
    상기 회전 조작 함수는 이차함수 형식으로 구성되는 것을 특징으로 하는 증강 현실 장치.
  6. 제5 항에 있어서,
    상기 회전 조작 함수의 변수는, 상기 모바일 조작부 파지시 상기 모바일 조작부의 최초 회전 각도, 3축 방향으로 각각 상기 모바일 조작부의 정방향 최대 회전 각도, 3축 방향으로 각각 상기 모바일 조작부의 역방향 최대 회전 각도 및, 3축 방향으로 각각 상기 모바일 조작부의 현재 회전각도인 것을 특징으로 하는 증강 현실 장치.
  7. 증강 현실 구현부와 모바일 조작부를 포함하는 증강 현실 장치를 통해 구현되는 증강현실 환경에서 가상객체의 조작 방법에 있어서,
    상기 증강 현실 구현부는,
    a)모바일 조작부에 대한 사용자의 터치 동작 및 회전 동작에 대응하는, 터치정보 및 회전정보를 수신하는 단계;
    b)수신된 상기 회전정보를 회전 조작 함수에 대입하여, 상기 가상객체의 3차원 회전정보를 생성하는 단계;
    c)수신된 터치정보가 한 지점에 대한 터치에 의한 것인 경우, 상기 터치정보를 이동 조작 함수에 대입하여, 상기 가상객체의 3차원 이동정보를 생성하는 단계;
    d)상기 3차원 회전정보 및 상기 3차원 이동정보에 기초하여 상기 가상객체의 위치속성 및 회전속성을 변경하는 단계;및
    e)수신된 터치정보가 두 지점에 대한 터치에 의한 것인 경우, 상기 터치정보를 크기 조작 함수에 대입하여, 상기 가상객체의 크기변경정보를 생성하는 단계;및
    f)상기 3차원 회전정보 및 상기 크기변경정보에 기초하여 상기 가상객체의 회전속성 및 크기속성을 변경하는 단계를 포함하고,
    상기 회전정보는 상기 가상객체의 목표 이동방향 혹은 목표 회전방향에 대응하도록 상기 모바일 조작부를 기울이는 사용자의 회전 조작으로 형성되는 증강현실 환경에서 가상객체의 조작 방법.
  8. 제7 항에 있어서,
    상기 c)단계에서, 한 지점의 터치에서 시작되는 드래그 앤 드랍의 길이가 소정의 길이 미만이면, 상기 e)단계에서 상기 가상객체의 회전속성만을 변경하는 것을 특징으로 하는 증강현실 환경의 가상객체의 조작 방법.
KR1020120006959A 2011-01-25 2012-01-20 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치 KR101833253B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110007244 2011-01-25
KR20110007244 2011-01-25

Publications (2)

Publication Number Publication Date
KR20120086266A KR20120086266A (ko) 2012-08-02
KR101833253B1 true KR101833253B1 (ko) 2018-02-28

Family

ID=46872171

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120006959A KR101833253B1 (ko) 2011-01-25 2012-01-20 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치

Country Status (1)

Country Link
KR (1) KR101833253B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200043027A (ko) 2018-10-17 2020-04-27 주식회사 픽스 3d 입체 퍼즐 게임 제공 시스템 및 방법
KR20230105375A (ko) 2022-01-04 2023-07-11 주식회사 위즈팜 메타버스 플랫폼 환경 제작을 위한 3d 영상 모델 구현 방법, 장치 및 시스템

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459445B1 (ko) * 2012-12-18 2014-11-07 현대자동차 주식회사 차량내 손목각을 이용한 사용자 인터페이스 조작 시스템 및 방법
KR101470757B1 (ko) * 2013-09-30 2014-12-08 세종대학교산학협력단 증강현실 서비스 제공 방법 및 장치
US10181219B1 (en) * 2015-01-21 2019-01-15 Google Llc Phone control and presence in virtual reality
KR102317247B1 (ko) 2015-06-15 2021-10-26 한국전자통신연구원 영상정보를 이용한 증강현실 기반 손 인터랙션 장치 및 방법
KR101666561B1 (ko) * 2015-07-13 2016-10-24 한국과학기술원 증강 공간 내 부분 공간 획득 시스템 및 방법
KR101656025B1 (ko) * 2016-05-03 2016-09-08 (주) 올림플래닛 사용자의 모션에 대한 인식을 기반으로 가상현실 인터페이스 시스템 내 오브젝트를 제어하는 방법 및 이를 위한 컴퓨터 프로그램
KR101696607B1 (ko) * 2016-08-17 2017-02-03 (주) 올림플래닛 가상현실 인터페이스 시스템 내 오브젝트의 실시간 제어를 위한 기록매체에 저장된 컴퓨터 프로그램
CN106445277B (zh) * 2016-08-31 2019-05-14 和思易科技(武汉)有限责任公司 在虚拟现实中的文本呈现方法
KR102421856B1 (ko) 2017-12-20 2022-07-18 삼성전자주식회사 영상의 상호작용 처리 방법 및 장치
US10854169B2 (en) * 2018-12-14 2020-12-01 Samsung Electronics Co., Ltd. Systems and methods for virtual displays in virtual, mixed, and augmented reality
KR102351900B1 (ko) * 2019-12-27 2022-01-14 손범준 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램
KR102391321B1 (ko) * 2020-11-18 2022-04-27 주식회사 모소 혼합현실 구현 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100643276B1 (ko) 2004-08-07 2006-11-10 삼성전자주식회사 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100643276B1 (ko) 2004-08-07 2006-11-10 삼성전자주식회사 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
이정규, 이종원, "모바일 환경 증강현실 콘텐츠 현장 저작 인터페이스", 한국콘텐츠학회논문지 10.7 (2010): 1-9.,2010.07.31.*
하태진, 이영호, 우운택, "디지로그 북 저작을 위한 감각형 조작 도구를 이용한 직조작 기반의 3D 객체의 이동궤적 삽입 및 편집 기술", 한국 HCI 학회 학술대회 (2009): 497-501.,2009.12.31.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200043027A (ko) 2018-10-17 2020-04-27 주식회사 픽스 3d 입체 퍼즐 게임 제공 시스템 및 방법
KR20230105375A (ko) 2022-01-04 2023-07-11 주식회사 위즈팜 메타버스 플랫폼 환경 제작을 위한 3d 영상 모델 구현 방법, 장치 및 시스템

Also Published As

Publication number Publication date
KR20120086266A (ko) 2012-08-02

Similar Documents

Publication Publication Date Title
KR101833253B1 (ko) 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치
US20220084279A1 (en) Methods for manipulating objects in an environment
KR102276173B1 (ko) 공간-의존 콘텐츠를 위한 햅틱 효과 생성
KR101546654B1 (ko) 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치
Argelaguet et al. A survey of 3D object selection techniques for virtual environments
JP7079231B2 (ja) 情報処理装置及び情報処理システム及び制御方法、プログラム
US9886102B2 (en) Three dimensional display system and use
KR101315303B1 (ko) 착용형 디스플레이 장치 및 컨텐츠 디스플레이 방법
KR101303939B1 (ko) 디스플레이 장치 및 컨텐츠 디스플레이 방법
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
CN111373347B (zh) 用于虚拟现实内容的提供的装置、方法和计算机程序
US10983661B2 (en) Interface for positioning an object in three-dimensional graphical space
US10649616B2 (en) Volumetric multi-selection interface for selecting multiple objects in 3D space
US9395764B2 (en) Gestural motion and speech interface control method for 3d audio-video-data navigation on handheld devices
WO2022022449A1 (zh) 用于空间定位的方法和装置
US20180113595A1 (en) Control interface for a three-dimensional graphical object
JP2007047294A (ja) 立体画像表示装置
JP2023103265A (ja) 制御装置、制御方法、及びプログラム
CN104699249A (zh) 一种信息处理方法及电子设备
JP7273325B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
Kim et al. Oddeyecam: A sensing technique for body-centric peephole interaction using wfov rgb and nfov depth cameras
Goh et al. An inertial device-based user interaction with occlusion-free object handling in a handheld augmented reality
Chen et al. An integrated framework for universal motion control
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant