KR20150013472A - 3d 입력을 제공하기 위한 방법 및 장치 - Google Patents

3d 입력을 제공하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20150013472A
KR20150013472A KR1020147029979A KR20147029979A KR20150013472A KR 20150013472 A KR20150013472 A KR 20150013472A KR 1020147029979 A KR1020147029979 A KR 1020147029979A KR 20147029979 A KR20147029979 A KR 20147029979A KR 20150013472 A KR20150013472 A KR 20150013472A
Authority
KR
South Korea
Prior art keywords
information
state
touch
coordinate system
input device
Prior art date
Application number
KR1020147029979A
Other languages
English (en)
Inventor
웬주안 송
광후아 조우
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20150013472A publication Critical patent/KR20150013472A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

입력 디바이스 상의 사용자의 터치 위치에 기초하여 3D 좌표계에서의 위치 정보를 제공하기 위한 방법이 제공된다. 그것은 입력 디바이스의 측에서, 입력 디바이스의 방향을 제1 상태로 변화시키는 단계, 사용자의 터치에 응답하여 터치 위치에 대한 정보를 결정하는 단계, 제1 상태와 디폴트 상태 간의 방향 변화에 대한 정보를 결정하는 단계를 포함하고, 터치 위치에 대한 정보 및 방향 변화에 대한 정보는 3D 좌표계에서의 위치 정보를 결정하기 위해 사용된다.

Description

3D 입력을 제공하기 위한 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING 3D INPUT}
본 발명은 입력에 관한 것이고, 더 구체적으로 3D 입력을 제공하기 위한 방법 및 장치에 관한 것이다.
3D(three-dimensional) 그래픽 또는 입체영상(stereoscopic) 애플리케이션이 점점 더 이용되지만, 이러한 특정 분야를 위한 입력 디바이스들의 발전은 더디게 진화한다. 데스크톱 PC 환경은 여전히 마우스에 의해 지배되고, 오직 적은 종류의 입력 디바이스들만이 상업적으로 이용가능하다. 예를 들어, 가상현실 애플리케이션에 있어서, 트래킹 완드(tracked wand)가 일반적으로 사용된다.
현재 거의 모든 사람들이 휴대전화를 갖고 있고, 그것들 중 대부분은 터치 스크린 또는 터치패드 입력을 지원한다. 일반적으로, 터치 스크린 또는 터치패드는 평면을 갖고, 평면 상의 터치 또는 터치들의 존재 및 위치를 검출하고 상대적 위치들에 대한 디스플레이 스크린 상의 터치 위치를 변환하기 위해 사용되는 촉각 센서(tactile sensor) 또는 다른 종류의 센서들에 장착된다. 터칭 오브젝트, 예를 들어, 손가락 또는 스타일러스가 평면상에서 움직일 때, 센서는 터칭 오브젝트의 모션을 검출하고 상기 모션을 디스플레이 스크린 상의 관련 모션으로 변환할 수 있다. 그러나, 터치 스크린 및 터치패드는 2D(two-dimensional) 터치 입력만을 지원한다.
3D 입력 필드에서, "3D 터치패드"라는 제목의 미국 특허 출원 "US 2009/0184936 A1"은 3D 터치패드 상에 사용자의 손가락을 움직이는 것으로 6자유도(six degrees-of-freedom)(이하 6DOF로 지칭됨)를 컴퓨터 시스템에 제공하는, xy, yz 및 xz 평면에 평행하도록 위치된 3개의 터치 패드들을 포함한 입력 시스템을 설명한다.
단일 터치 스크린 또는 터치패드를 이용하여 3D 입력을 가능하게 하는 것이 요구된다.
본 발명의 한 측면에 따라, 입력 디바이스 상에 사용자의 터치 위치에 기초하여 3D 좌표계에서의 위치 정보를 제공하기 위한 방법이 제공된다. 그것은 입력 디바이스의 측에서, 입력 디바이스의 방향을 제1 상태로 변화시키는 단계, 사용자의 터치에 응답하여 터치 위치에 대한 정보를 결정하는 단계, 제1 상태와 디폴트 상태 간의 방향 변화에 대한 정보를 결정하는 단계를 포함하고, 여기서 터치 위치에 대한 정보 및 방향 변화에 대한 정보는 3D 좌표계에서의 위치 정보를 결정하기 위해 사용된다.
본 발명의 또 다른 측면에 따라, 장치 상의 사용자의 터치 위치에 기초하여 3D 좌표계에서의 위치 정보를 제공하기 위한 장치가 제공된다. 그것은 장치의 방향이 제1 상태에 있도록 변화될 때 터치 위치를 수신하기 위한 제1 모듈, 제1 상태와 디폴트 상태 간의 방향 변화에 대한 정보를 결정하기 위한 제2 모듈을 포함하고, 여기서 수신된 터치 위치 및 제1 상태와 디폴트 상태 간의 방향 변화에 대한 결정된 정보는 3D 좌표계에서의 위치 정보를 결정하기 위해 사용된다.
본 실시예에 따라, 상태는 입력 디바이스의 상이한 틸팅에 대응한다. 디바이스 상의 터치 위치는 2D 좌표를 제공하고, 반면 틸팅은 3D 좌표계에서 이러한 2D 좌표의 맵핑을 결정한다.
본 발명의 측면에 따라, 사용자가 3D 좌표들을 입력하기 위해 단일 터치 스크린 또는 터치패드를 사용하는 것을 가능하게 한다.
본 발명의 더 바람직한 측면 및 장점들은 본 발명의 이하의 상세한 설명에서 알 수 있을 것으로 이해된다.
본 발명의 더 나은 이해를 제공하기 위해 포함된 첨부 도면들은 본 발명의 원리를 설명하기 위해 제공하는 설명과 함께 본 발명의 실시예들을 도시한다. 따라서, 본 발명은 실시예들에 제한되지 않는다.
도 1은 본 발명의 실시예에 따른 3D 입력을 가능하게 하는 시스템을 도시하는 도이다.
도 2a는 본 발명의 실시예에 따른 중력 센서의 정면 및 측면(즉, 시점 1 및 시점 2)을 도시하는 도이다.
도 2b는 본 발명의 실시예에 따른 중력 센서의 작동 원리의 세부사항을 도시하는 도이다.
도 3은 본 발명의 실시예에 따른 3D 입력을 제공하기 위한 방법을 도시하는 흐름도이다.
본 발명의 실시예는 이제 도면들과 함께 상세하게 설명될 것이다. 다음 설명에서, 알려진 기능들 및 설정들의 일부 상세한 설명들은 명료성 및 간결성을 위해 생략될 수 있다.
본 발명은 단일 터치패드 또는 터치 스크린을 이용하여 3D 입력을 가능하게 하는 것을 목표로 한다.
도 1은 본 발명의 실시예에 따른 3D 입력을 가능하게 하는 시스템을 도시하는 도이다. 본 시스템에서, 그것은 사용자(10), 입력 디바이스(11), 디스플레이 디바이스(12) 및 프로세싱 디바이스(13)를 포함한다.
입력 디바이스(11)의 입력면 상에 사용자의 손가락의 터치 위치 및/또는 움직임을 검출하기 위한 촉각 센서 또는 다른 종류의 센서들 및 입력 디바이스(11)의 방향 변화를 검출하기 위한 중력 센서, 가속기 등과 같은 센서를 갖추고 있다. 여기서, 입력 디바이스(11)의 시점으로부터, 입력 디바이스(11)와 접촉을 유지하는 움직임은 일련의 연속적인 터치들로서 고려될 수 있다. 이런 의미에서, 입력 디바이스에 의한 움직임에 대한 프로세싱은 각각의 터치에 대한 프로세싱의 합이다. 예를 들어, 입력 디바이스(11)는 중력 센서를 포함한 터치패드이다. 더 구체적으로, 도 2a에서 도시된 바와 같이 중력 센서는 참조 평면의 2개의 축에서의 틸팅을 2개의 축에서 측정할 수 있는 이중 축 틸트 센서이다. 예시에서, 참조 평면은 현실 세계의 3D 좌표계(이하 현실 3D 좌표계로 지칭됨)에서의 디스플레이 디바이스의 표면에 평행하는 평면이다. 도 2a에서 도시된 바와 같이, 2개의 센서 컴포넌트들(20, 21)은 직교하여 위치된다. 그것의 작동 원리는 중력으로 인한 고정 가속도의 합을 측정하고 디바이스가 지구의 표면에 대하여 틸팅된 각도를 찾는 것이다. 그래서 그것은 수평면 또는 수직면에 대한 입력 디바이스(11)의 틸트각을 획득할 수 있다. 도 2b는 그것의 작동 원리에 대한 세부사항들을 도시한다. 중력 센서는 움직임 또는 중력을 전압으로 변환시킬 수 있다. 중력 센서가 수평 위치에 위치되는 경우에 출력 전압은 V0이고, α의 각으로 틸팅된 경우에 출력 전압은 Vα, 중력 센서의 가속도가 g인 경우에 출력 전압은 V이다. gα=gsinα이기 때문에, 수평면에 대한 틸트 각 α는
Figure pct00001
이다. 입력 디바이스(11)가 틸팅되기 전후에 결정된 틸트 각들을 이용하여, 우리는 방향 변화를 결정할 수 있다. 우리가 이 예시에서 참조 평면을 설정한 것과 같이, 여기서 방향 변화는 각에서의 변화, 즉, 참조 평면에 대한 입력 디바이스(11)의 틸트 각에서의 변화로 나타낸다.
디스플레이 디바이스(12)는 프로세싱 디바이스(13)에 의해 출력된 데이터에 기초하여 오브젝트들 및/또는 그래픽들을 디스플레이하기 위해 사용된다.
프로세싱 디바이스(13)는 다음을 위해 사용된다.
1) 3D 좌표계를 유지,
2) 사용자의 손가락의 위치 및/또는 움직임에 대한 정보 및 방향 변화에 대한 정보를 수신, 및 현실 3D 좌표계에서의 위치 및/또는 움직임을 프로세싱 디바이스(13)에 의해 사용된 3D 좌표계(이하 가상 3D 좌표계로서 지칭됨)에서의 상대적 위치 및/또는 상대적 움직임으로 변환, 및
3) 디스플레이 디바이스(12)에 대한 가상 3D 좌표계에서의 상대적 위치 및/또는 상대적 움직임에 기초하여 사용자의 손가락의 위치 및/또는 움직임을 반영하는 데이터를 출력.
도 3은 본 발명의 실시예에 따른 3D 입력을 제공하는 방법을 도시하는 흐름도이다.
단계(301)에서, 프로세싱 디바이스(13)는 제1 상태에서 초기 틸트 상태로서 입력 디바이스(11)의 표면의 현재 틸트 상태를 기록한다. 일반적으로, 본 단계는 사용자가 3D 입력을 하기 전에 수행된다. 예시에서, 입력 디바이스(11)의 초기 틸트 상태를 기록하는 목적은 입력 디바이스(11)가 틸팅된 이후에 방향 변화(즉, 본 예시에서의 각 변화)를 계산하기 위한 것이다. 본 실시예의 변형에서, 입력 디바이스(11)의 초기 틸트 상태는 현실 3D 좌표계에서의 수직면 또는 수평면으로서 미리 설정된다. 이러한 경우에, 이 단계를 수행할 필요가 없다.
단계(302)에서, 프로세싱 디바이스(13)는 사용자가 입력 디바이스(11)를 또 다른 상태(제2 상태로서 지칭됨)로 틸팅하고 그 후 현실 3D 좌표계에서 그 위로 터치하거나 또는 움직일 때, 방향 변화에 대한 정보 및 입력 디바이스(11) 상의 터칭 오브젝트의 위치 또는 움직임에 대한 정보를 입력 디바이스(11)로부터 수신한다.
단계(303)에서, 프로세싱 디바이스(13)는 방향 변화에 대한 정보 및 현실 3D 좌표계에서의 입력 디바이스(11) 상의 터칭 오브젝트의 위치 또는 움직임에 대한 정보에 기초하여, 디스플레이 디바이스(12) 상의 3D 오브젝트들을 디스플레이 하기 위해 프로세싱 디바이스(13)에 의해 사용되는 가상 3D 좌표계에서의 위치 또는 움직임을 결정한다.
또한, 사용자는 입력 디바이스(11)를 제2 상태와 상이한 또 다른 상태(제3 상태로 지칭됨)로 틸팅할 수 있고 그 후 현실 3D 좌표계에서 그 위로 터치하거나 또는 움직일 수 있다. 프로세싱 디바이스(13)는 가상 3D 좌표계에서의 또 다른 위치 또는 움직임을 결정할 것이다.
본 실시예에서, 프로세싱 디바이스(13)는 실시간으로 터치 및 움직임에 응답하여 출력을 제공한다. 그래서 3D 오브젝트(들)의 디스플레이는 터치 및 움직임에 대한 실시간 응답을 제공한다. 본 실시예의 변형에서, 프로세싱 디바이스(13)는 사용자가 특정한 상태에서 터치 또는 움직임의 동작을 종료한 이후에 출력을 제공한다. 또 다른 변형에서, x축 컴포넌트, y축 컴포넌트 및 z축 컴포넌트를 포함한 입력을 얻기 위하여, 프로세싱 디바이스(13)는 2개의 연속적인 상태에서 사용자의 입력들을 얻은 후에 출력을 제공한다. 예를 들어, 프로세싱 디바이스(13)가 제2 상태 및 제3 상태에서의 터치 또는 움직임을 반영하는 데이터를 디스플레이 디바이스(12)로 전달하기 전에, 제2 상태에서 결정된 위치 또는 움직임 및 제3 상태에서 결정된 위치 또는 움직임은 함께 상호결합된다.
본 실시예의 또 다른 변형에서, 프로세싱 디바이스가 출력을 제공하기 전에 2개 이상의 연속적인 상태에서 사용자의 입력들을 얻어야 하는 경우에, 사용자는 2개 이상의 연속적인 상태에서 그의 동작 동안 터치 또는 움직임을 만드는 사이에 입력 디바이스(11)와 접촉을 유지하도록 요구된다. 2개의 상태에서의 입력들을 요구하는 상기 예시의 경우에, 제2 상태에서 터칭 또는 움직인 이후에 접촉을 해제하는 대신 사용자는 입력 디바이스(11)를 틸팅하고 그 위로 그의 손가락을 이용하여 그것과 연속적으로 접촉하여 움직인다.
구체적인 예시가 이하에 설명된다. 현실 3D 좌표계의 수직면은 참조 평면으로서 미리 설정되고, 가상 3D 좌표계에서의 X-Y 평면에 대응한다(X축은 수평이고 Y축은 수직임). 예시에서, 가상 3D 좌표계에서의 X-Y 평면은 3D 오브젝트들을 디스플레이하는 디스플레이 스크린의 평면이다. 사용자는 먼저 입력 디바이스(11)를 수직 위치로 위치시키고 그 위로 그의 손가락을 움직이는데, 이것은 가상 3D 좌표계에서 X축 및/또는 Y축에서의 입력 컴포넌트들로 변환된다. 사용자는 입력 디바이스(11) 상에 그의 손가락을 유지하며, 그것을 수평 위치로 틸팅하고 그 위로 그의 손가락을 움직이는데, 이것은 Z축 및 X축에서의 입력 컴포넌트들로 변환된다. 그것은 입력 디바이스(11)가 수직과 수평 사이의 상태로 틸팅될 때, 입력 디바이스(11) 상의 움직임은 X, Y 및 Z축에서의 입력 컴포넌트들을 생성할 수 있다는 것에 주목해야 한다. 변형에서, 입력 디바이스(11)는 일부 입력 컴포넌트를 제거하도록 구성되는데, 예를 들어 사용자가 그의 손가락을 수평으로 위치된 입력 디바이스(11) 상에서 움직일 때 X축 입력 컴포넌트를 제거하도록 구성된다.
본 실시예의 변형에 따라, 입력 디바이스(11)는 그것의 자체 프로세싱 유닛을 갖고, 가상 3D 좌표계에서의 위치 또는 움직임을 결정하는 기능은 입력 디바이스(11)에 의해 수행된다.
본 실시예의 변형에 따라, 입력 디바이스(11), 디스플레이 디바이스(12) 및 프로세싱 디바이스(13)의 기능은, 예를 들어, 터치 스크린 및 방향 변화를 검출하는 센서를 포함하는 태블릿, 휴대 전화와 같은 단일 디바이스에 결합된다.
다수의 구현들이 설명되었다. 그럼에도 불구하고, 다양한 수정들이 이루어질 수 있다는 것이 이해될 것이다. 예를 들어, 상이한 구현들의 엘리먼트들은 다른 구현들을 제작하기 위해 상호결합, 보충, 수정 또는 제거될 수 있다. 게다가, 통상의 기술을 가진 자는 다른 스트럭쳐 및 프로세스가 개시된 것들에 대해 대체될 수 있고 결과 구현들은 적어도 실질적으로 동일한 방식(들)에서 개시된 구현들과 같이 적어도 실질적으로 동일한 결과(들)를 성취하기 위해 적어도 실질적으로 동일한 기능(들)을 수행할 것으로 이해할 것이다. 그에 따라, 이러한 및 다른 구현들은 본 발명의 범위에 포함될 것이다.

Claims (12)

  1. 입력 디바이스 상에 사용자의 터치 위치에 기초하여 3D 좌표계에서의 위치 정보를 제공하기 위한 방법으로서,
    상기 입력 디바이스의 측에서,
    상기 입력 디바이스의 방향을 제1 상태로 변화시키는 단계;
    사용자의 터치에 응답하여 터치 위치에 대한 정보를 결정하는 단계; 및
    상기 제1 상태와 디폴트 상태 간의 방향 변화에 대한 정보를 결정하는 단계
    를 포함하고,
    상기 터치 위치에 대한 정보 및 상기 방향 변화에 대한 정보는 상기 3D 좌표계에서의 상기 위치 정보를 결정하는데 사용되는
    것을 특징으로 하는 위치 정보 제공 방법.
  2. 제1항에 있어서,
    상기 터치 위치에 대한 정보 및 상기 방향 변화에 대한 정보에 기초하여 상기 3D 좌표계에서의 상기 위치 정보를 결정하는 단계를 더 포함하는 것을 특징으로 하는 위치 정보 제공 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 입력 디바이스에 접촉을 유지하는 일련의 터치들을 포함하는 상기 입력 디바이스 상의 사용자의 움직임에 응답하여, 상기 방향 변화에 대한 정보 및 일련의 터치들 각각에 대한 결정된 위치 정보에 기초하여 상기 3D 좌표계에서의 움직임 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 위치 정보 제공 방법.
  4. 제3항에 있어서,
    상기 입력 디바이스 상에서 동일한 터치 위치를 유지하는 동안 상기 입력 디바이스의 방향을 상기 제1 상태에서 제2 상태로 변화시키는 단계;
    상기 입력 디바이스 상의 상기 동일한 터치 위치로부터 시작하는 또 다른 움직임에 응답하여 일련의 터치 위치에 대한 정보를 결정하는 단계;
    상기 제2 상태와 상기 디폴트 상태 간의 방향 변화에 대한 정보를 결정하는 단계
    를 더 포함하고,
    상기 일련의 터치 위치에 대한 정보 및 상기 제2 상태와 상기 디폴트 상태 간의 상기 방향 변화에 대한 정보는 상기 3D 좌표계에서의 움직임 위치를 결정하는데 사용되는
    것을 특징으로 하는 위치 정보 제공 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 디폴트 상태는 상기 입력 디바이스의 방향을 변화시키는 경우에 상기 방향을 계산하도록 미리 구성된 상태, 상기 방향을 상기 제1 상태로 변화시키기 전의 상태, 또는 상기 입력 디바이스의 평면이 디스플레이 디바이스의 상기 디스플레이 평면에 평행 또는 직교하는 상태인 것을 특징으로 하는 위치 정보 제공 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 방향 변화에 대한 정보는 틸트 각의 변화이고,
    상기 방법은 터치 위치에 대한 정보 및 상기 틸트 각 변화에 기초하여 상기 입력 디바이스 상의 각각의 터치 위치에 대한 상기 3D 좌표계의 X, Y 및 Z축들 중 적어도 하나의 컴포넌트 값을 결정하는 단계를 더 포함하는 위치 정보 제공 방법.
  7. 장치 상의 사용자의 터치 위치에 기초하여 3D 좌표계에서의 위치 정보를 제공하는 장치로서,
    상기 장치의 방향이 제1 상태에 있도록 변화되는 경우에 터치 위치를 수신하기 위한 제1 모듈; 및
    상기 제1 상태와 디폴트 상태 간의 방향 변화에 대한 정보를 결정하기 위한 제2 모듈
    을 포함하고,
    상기 수신된 터치 위치 및 상기 제1 상태와 상기 디폴트 상태 간의 방향 변화에 대한 상기 결정된 정보는 상기 3D 좌표계에서의 상기 위치 정보를 결정하는데 사용되는
    것을 특징으로 하는 위치 정보 제공 장치.
  8. 제7항에 있어서,
    상기 수신된 터치 위치 및 상기 제1 상태와 상기 디폴트 상태 간의 방향 변화에 대한 상기 결정된 정보에 기초하여 상기 3D 좌표계에서의 상기 위치 정보를 결정하기 위한 프로세싱 모듈을 더 포함하는 것을 특징으로 하는 위치 정보 제공 장치.
  9. 제7항 또는 제8항에 있어서,
    상기 제1 모듈은 또한 상기 장치와 접촉을 유지하는 일련의 터치들을 포함하는 움직임을 수신하도록 구성되고,
    상기 수신된 움직임 및 상기 방향 변화에 대한 정보는 상기 3D 좌표계에서의 움직임 정보를 결정하는데 사용되는 위치 정보 제공 장치.
  10. 제9항에 있어서,
    상기 3D 좌표계에서 적어도 하나의 3D 오브젝트를 디스플레이하기 위한 디스플레이 모듈을 더 포함하고,
    상기 3D 좌표계에서의 상기 결정된 움직임 정보는 상기 적어도 하나의 3D 오브젝트의 디스플레이에서의 변화를 야기하는 것을 특징으로 하는 위치 정보 제공 장치.
  11. 제9항에 있어서,
    상기 제1 모듈은 또한 상기 장치 상에서 동일한 터치 위치를 유지하는 동안 상기 제1 상태에서 제2 상태로 상기 장치의 방향을 변화시킨 이후에 움직임을 수신하는데 사용되고,
    상기 제2 모듈은 또한 상기 제2 상태와 상기 디폴트 상태 간의 방향 변화에 대한 정보를 결정하는데 사용되고,
    상기 움직임 및 상기 제2 상태와 상기 디폴트 상태 간의 상기 방향 변화에 대한 정보는 가상 3D 좌표계에서의 움직임을 결정하는데 사용되는
    것을 특징으로 하는 위치 정보 제공 장치.
  12. 제7항 내지 제11항 중 어느 한 항에 있어서,
    상기 장치는 평면 터치 스크린 또는 터치 패드를 포함하는 디바이스인 위치 정보 제공 장치.
KR1020147029979A 2012-04-28 2012-04-28 3d 입력을 제공하기 위한 방법 및 장치 KR20150013472A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/074877 WO2013159354A1 (en) 2012-04-28 2012-04-28 Method and apparatus for providing 3d input

Publications (1)

Publication Number Publication Date
KR20150013472A true KR20150013472A (ko) 2015-02-05

Family

ID=49482175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147029979A KR20150013472A (ko) 2012-04-28 2012-04-28 3d 입력을 제공하기 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US20150070288A1 (ko)
EP (1) EP2842021A4 (ko)
JP (1) JP6067838B2 (ko)
KR (1) KR20150013472A (ko)
CN (1) CN104169844A (ko)
WO (1) WO2013159354A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6548956B2 (ja) * 2015-05-28 2019-07-24 株式会社コロプラ システム、方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100409157C (zh) * 2002-12-23 2008-08-06 皇家飞利浦电子股份有限公司 非接触式输入装置
US7773074B2 (en) * 2005-06-28 2010-08-10 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging three dimensional navigation device and methods
WO2008050175A1 (en) * 2006-10-27 2008-05-02 Nokia Corporation Method and apparatus for facilitating movement within a three dimensional graphical user interface
US20090184936A1 (en) * 2008-01-22 2009-07-23 Mathematical Inventing - Slicon Valley 3D touchpad
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
JP5304577B2 (ja) * 2009-09-30 2013-10-02 日本電気株式会社 携帯情報端末および表示制御方法
JP5508122B2 (ja) * 2010-04-30 2014-05-28 株式会社ソニー・コンピュータエンタテインメント プログラム、情報入力装置、及びその制御方法
JP5561092B2 (ja) * 2010-10-15 2014-07-30 ソニー株式会社 入力装置、入力制御システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2015515074A (ja) 2015-05-21
CN104169844A (zh) 2014-11-26
EP2842021A4 (en) 2015-12-16
US20150070288A1 (en) 2015-03-12
WO2013159354A1 (en) 2013-10-31
EP2842021A1 (en) 2015-03-04
JP6067838B2 (ja) 2017-01-25

Similar Documents

Publication Publication Date Title
US20220129060A1 (en) Three-dimensional object tracking to augment display area
CN110794958B (zh) 在增强/虚拟现实环境中使用的输入设备
JP5205157B2 (ja) 携帯型画像表示装置、その制御方法、プログラム及び情報記憶媒体
US8368653B2 (en) Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
EP3398030B1 (en) Haptic feedback for non-touch surface interaction
CN102317892B (zh) 控制信息输入装置的方法、信息输入装置、程序和信息存储介质
US9176577B2 (en) Spherical three-dimensional controller
US10509489B2 (en) Systems and related methods for facilitating pen input in a virtual reality environment
CN103124951A (zh) 信息处理装置
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
US11392224B2 (en) Digital pen to adjust a 3D object
CN112313605A (zh) 增强现实环境中对象的放置和操纵
JP6188377B2 (ja) 表示制御装置、その制御方法、および制御プログラム
CN117130518A (zh) 控件显示方法、头显设备、电子设备及可读存储介质
KR101598807B1 (ko) 펜의 기울기를 측정하는 방법 및 그 디지타이저
KR20150013472A (ko) 3d 입력을 제공하기 위한 방법 및 장치
CN103000161A (zh) 一种图像显示方法、装置和一种智能手持终端
Naito et al. Interaction techniques using a spherical cursor for 3d targets acquisition and indicating in volumetric displays
CN115774514A (zh) 用于虚拟对象交互的方法、装置、设备和存储介质

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid