KR20130052749A - 터치 기반 사용자 인터페이스 장치 및 방법 - Google Patents

터치 기반 사용자 인터페이스 장치 및 방법 Download PDF

Info

Publication number
KR20130052749A
KR20130052749A KR1020110035180A KR20110035180A KR20130052749A KR 20130052749 A KR20130052749 A KR 20130052749A KR 1020110035180 A KR1020110035180 A KR 1020110035180A KR 20110035180 A KR20110035180 A KR 20110035180A KR 20130052749 A KR20130052749 A KR 20130052749A
Authority
KR
South Korea
Prior art keywords
touch
gesture
touch gesture
user interface
gui object
Prior art date
Application number
KR1020110035180A
Other languages
English (en)
Inventor
권현택
서강수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110035180A priority Critical patent/KR20130052749A/ko
Priority to US13/308,680 priority patent/US20120262386A1/en
Publication of KR20130052749A publication Critical patent/KR20130052749A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예에 따른 터치 기반 사용자 인터페이스 방법은 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지하는 단계, 감지된 제1 터치 제스처에 따라 원형 GUI 객체를 표시하는 단계, 표시된 원형 GUI 객체를 통한 사용자의 제2 터치 제스처를 감지하는 단계 및 제2 터치 제스처에 대응하는 이벤트를 발생시키는 단계를 포함한다.

Description

터치 기반 사용자 인터페이스 장치 및 방법{TOUCH BASED USER INTERFACE DEVICE AND METHDO}
본 발명은 터치 기반 사용자 인터페이스 장치 및 방법에 관한 것으로서, 보다 상세하게는 멀티터치(multi-touch) 스크린을 이용한 터치 기반 사용자 인터페이스 장치 및 방법에 관한 것이다.
현재, 멀티 미디어 재생장치를 포함하는 사용자 인터페이스 장치에서 사용자의 명령을 입력할 수 있도록 하는 다양한 방식의 입력 장치가 존재한다. 사용자의 명령은 일반적으로 커서를 이동시켜 디스플레이 화면상에서 선택을 하는 동작으로 표현될 수 있으며, 이 동작들은 또한 페이지 넘김(paging), 스크롤링, 패닝(panning), 줌잉(zooming), 등과 같은 사용자 명령을 수행하도록 한다. 이와 같은 입력 장치의 예로, 버튼, 스위치, 키보드, 마우스, 트랙볼, 터치 패드, 조이스틱, 터치 스크린 등을 포함한다.
이중 터치 스크린은 터치 패드, 마우스 등의 다른 입력장치에 비해 몇 가지 이점을 갖는다. 한가지 이점으로서, 터치 스크린은 디스플레이 장치의 전방에 배치되므로, 사용자가 그래픽 사용자 인터페이스(graphic user interface, GUI)를 직접 조작할 수 있다. 따라서 사용자는 이를 이용하여 보다 직관적인 입력을 수행할 수 있다.
또한, 동시에 여러 개의 터치 포인트를 인식할 수 있도록 하는 멀티 포인트 입력 기술이 터치 스크린에 적용되고 있다. 이와 같은 터치 스크린을 이용하여 사용자는 하나의 터치 포인트만 인식을 하는 것보다 더 다양한 조작을 수행할 수 있게 되었다. 즉, 멀티터치 스크린은 터치를 통해서 위치 변화만 입력할 수 있기 때문에 다양한 조작을 위하여 보조 단추 같은 별도의 조작이 필요했던 기존의 터치 방식과는 달리, 감지되는 터치 포인트의 개수에 따라 터치에 대한 장치의 반응을 지정할 수 있게 하고, 터치 포인트의 간격 변화를 통한 조작도 가능하게 하므로 더 직관적이고 용이한 사용자 인터페이스를 제공할 수 있다.
이와 같은 멀티터치 스크린에서, 두 손가락을 벌리거나 오므리는 제스처가 웹 페이지 및 사진 등의 확대 또는 축소 기능을 수행하는 데 사용되고 있다. 그러나 최근 보다 다양한 애플리케이션이 제공됨에 따라, 멀티 터치를 이용한 보다 직관적이고 다양한 기능을 수행할 수 있도록 하는 터치 제스처 입력방법이 요구되고 있다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로 본 발명은 보다 직관적이고, 다양한 애플리케이션에 적용할 수 있는 터치 기반의 사용자 인터페이스 방법 및 장치를 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 터치 기반 사용자 인터페이스 방법은 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지하는 단계, 감지된 제1 터치 제스처에 따라 원형 GUI 객체를 표시하는 단계, 표시된 원형 GUI 객체를 통한 사용자의 제2 터치 제스처를 감지하는 단계 및 제2 터치 제스처에 대응하는 이벤트를 발생시키는 단계를 포함한다.
제1 터치 제스처는 2개의 터치 포인트에서 각각 동시에 하나의 원의 적어도 일부를 그리는 터치 제스처를 포함할 수 있다.
제1 터치 제스처를 감지하는 단계는 터치 제스처의 진행 중 2개의 터치 포인트 간의 중점이 제1 오차범위 내에서 존재하는 지의 여부를 판단하는 단계 및 터치 제스처의 진행 중 2개의 터치 포인트 간의 거리가 제2 오차범위 내에서 유지되는 지의 여부를 판단하는 단계를 포함할 수 있다.
제1 터치 제스처는 제1 터치 포인트에서 발생하는 고정된 터치 제스처와 제2 터치 포인트에서 고정된 터치 제스처와 동시에 발생하는 회전 제스처를 포함할 수 있다.
제1 터치 제스처를 감지하는 단계는 터치 제스처의 진행 중 제1 터치 포인트와 제2 터치 포인트 간의 거리가 제3 오차범위 내에서 유지되는 지의 여부를 판단하는 단계를 포함할 수 있다.
제2 터치 제스처는 원형 GUI 객체에 접촉하여 회전시키는 제스처일 수 있다.
터치 기반 사용자 인터페이스 방법은 제2 터치 제스처에 의한 회전 속도 및 방향을 검출하는 단계 및 제2 터치 제스처의 회전 속도 및 방향에 따라 원형 GUI 객체를 회전시키는 단계를 더 포함할 수 있다.
제2 터치 제스처의 회전 속도 및 방향에 따라 이벤트의 진행 속도를 조절할 수 있다.
터치 기반 사용자 인터페이스 방법은 제2 제스처가 완료되는 것을 감지하는 단계, 및 제2 제스처의 완료 일정 시간의 경과 후 원형 GUI 객체를 제거하는 단계를 더 포함할 수 있다.
이때, 원형 GUI 객체는 반투명한 색상을 가질 수 있다.
한편, 본 발명의 실시예에 따른 터치 기반 사용자 인터페이스 장치는 GUI를 제공하는 표시부, GUI에 따른 사용자의 터치 제스처를 감지하는 터치 검출부 및 터치 제스처에 따른 이벤트를 발생시키는 제어부를 포함하고, 터치 검출부는 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지하고, 제어부는 감지된 제1 터치 제스처에 따라 원형 GUI 객체를 표시하도록 표시부를 제어하며, 터치 검출부는 표시된 원형 GUI 객체를 통한 사용자의 제2 터치 제스처를 감지하고, 제어부는 제2 터치 제스처에 대응하는 이벤트를 발생시킨다.
본 발명에 따른 터치 기반의 사용자 인터페이스 방법 및 장치는 보다 직관적이고, 다양한 애플리케이션에 적용할 수 있는 사용자 인터페이스를 제공할 수 있다.
도 1은 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법을 나타낸 순서도이다.
도 2는 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자가 제1 터치 제스처를 입력하는 것을 나타낸 개략도이다.
도 3은 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자의 제1 터치 제스처를 감지하는 방법을 나타낸 순서도이다.
도 4는 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자의 제1 터치 제스처를 감지하는 방법을 나타낸 개략도이다.
도 5는 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 원형 사용자 그래픽 인터페이스 객체를 표시하는 것을 나타낸 개략도이다.
도 6은 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 원형 사용자 그래픽 인터페이스 객체를 이용하여 제2 터치 제스처를 입력하는 것을 나타낸 개략도이다.
도 7은 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 제2 터치 제스처를 감지하는 방법을 나타낸 순서도이다.
도 8 내지 도 11은 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법을 이용하여 이벤트를 발생시키는 것을 예시한 개략도이다.
도 12는 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 원형 사용자 그래픽 인터페이스 객체를 제거하는 것을 나타낸 개략도이다.
도 13은 본 발명의 제2 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자가 제1 터치 제스처를 입력하는 것을 나타낸 개략도이다.
도 14는 본 발명의 제2 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자의 제1 터치 제스처를 감지하는 방법을 나타낸 순서도이다.
도 15는 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자의 제1 터치 제스처를 감지하는 방법을 나타낸 개략도이다.
도 16은 본 발명의 실시예에 따른 터치 기반 사용자 인터페이스 장치를 나타낸 블록도이다.
이하에서는 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명한다. 본 실시예에서 사용자는 원형 GUI 객체를 이용하여 의도하는 명령을 입력하게 된다. 도 1은 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법을 나타낸 순서도이다.
도 1에 도시한 바와 같이, 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법은 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지하는 단계(S100), 감지된 제1 터치 제스처에 따라 원형 GUI 객체(16)를 표시하는 단계(S110), 표시된 원형 GUI 객체(16)를 통한 사용자의 제2 터치 제스처를 감지하는 단계(S120), 제2 터치 제스처에 대응하는 이벤트를 발생시키는 단계(S130) 및 원형 GUI 객체(16)를 제거하는 단계((S140)를 포함한다. 이하에서는 도 2 내지 도 12를 참고하여 상기와 같은 각 단계들에 대하여 상세하게 설명한다.
먼저, 하나의 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지한다. 도 2는 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자가 사용자 인터페이스 장치(100)를 이용하여 제1 터치 제스처를 입력하는 것을 나타낸 개략도이다.
사용자 인터페이스 장치(100)는 GUI(graphic user interface, GUI, 12)를 제공하는 표시부(10)와 표시부(10) 상에 사용자가 터치 제스처를 입력할 수 있도록 구비되는 터치 검출부(14)를 포함한다. 이와 같은 사용자 인터페이스 장치(100)의 구성에 대하여는 뒤에서 상세하게 설명한다.
도 2에 도시한 바와 같이, 원형 GUI 객체(16)를 이용하여 명령을 입력하고자 하는 사용자는 제1 터치 제스처를 수행하기 위해 2개의 손가락들(200, 210)을 터치 검출부(14) 상에 올려놓는다. 이때, 사용자의 손가락(210)은 터치 검출부(14) 상의 임의의 위치에 위치될 수 있다. 사용자는 손가락들(200, 210)이 위치하는 2개의 터치 포인트에서 각각 동시에 같은 방향의 회전 제스처를 수행하고, 이와 같은 사용자의 제스처가 2개의 터치 포인트에서 각각 동시에 하나의 원의 적어도 일부를 그리는 터치 제스처에 해당하는 경우, 이를 제1 터치 제스처로 판단한다.
도 3 및 도 4는 각각 본 실시예에서 사용자의 제1 터치 제스처를 감지하는 방법을 나타낸 순서도와 개략도이다. 이하에서 제1 터치 제스처를 판단하는 방법에 대하여 구체적으로 설명한다.
도 3에 도시한 바와 같이, 사용자의 제스처가 제1 제스처에 해당하는지 즉, 원형 GUI 객체(16)를 이용하고자 하는 사용자의 의도가 존재하는 지의 여부는, 예를 들어, 사용자의 손가락(210)에 의한 적어도 2개의 회전 제스처를 검출(S102)하고, 터치 제스처의 진행 중 2개의 터치 포인트 간의 중점이 제1 오차범위 내에서 존재하는 지의 여부를 판단(S104)하며, 터치 제스처의 진행 중 2개의 터치 포인트 간의 거리가 제2 오차범위 내에서 유지되는 지의 여부를 판단(S108)하는 과정을 통해 판단될 수 있다.
즉, 도 4에 도시한 바와 같이, 사용자가 최초 2개의 터치 포인트(P1, P2)에서 임의의 각도로 회전된 위치(P1 ', P2')로 터치 포인트를 이동하는 제스처를 수행하면, 사용자의 회전 제스처가 진행되는 동안 다음과 같은 조건을 만족하는 지를 판단한다.
Figure pat00001
Figure pat00002
여기에서, C는 최초 터치 포인트(P1, P2) 사이의 중점을, C'는 터치 제스처 진행 중 임의의 터치 포인트(P1', P2') 사이의 중점을, d는 최초 터치 포인트 사이의 거리를, d'는 터치 제스처 진행 중 임의의 터치 포인트 사이의 거리를 각각 의미한다. 또한, e1과 e2는 각각 제1 오차범위와 제2 오차범위를 나타내는 것으로 이는 필요에 따라 적절하게 설정될 수 있다.
이때, 상기와 같은 조건을 만족하는 경우, 사용자의 제스처가 2개의 터치 포인트에서 각각 동시에 하나의 원의 적어도 일부를 그리는 터치 제스처에 해당하는 것으로 판단(S109)할 수 있다.
한편, 이중 하나의 조건을 만족하지 않는 경우에는, 사용자의 제스처를 제1 제스처로 판단하지 않고, 사용자의 다른 의도가 있는 제스처 또는 사용자가 의도하지 않은 제스처로 판단(S106)한다.
다음으로, 감지된 제1 터치 제스처에 따라 원형 GUI 객체(16)를 표시한다. 도 5는 본 실시예에서 원형 GUI 객체를 표시하는 것을 나타낸 개략도이다. 도 5에 도시한 바와 같이, 원형 GUI 객체(16)는 반투명한 색상을 가지도록 표시부(10)에 표시될 수 있다.
다음으로, 표시된 원형 GUI 객체(16)를 통한 사용자의 제2 터치 제스처를 감지하고, 제2 터치 제스처에 대응하는 이벤트를 발생시킨다. 도 6은 본 실시예에서 원형 사용자 그래픽 인터페이스 객체를 이용하여 제2 터치 제스처를 입력하는 것을 나타낸 개략도이다.
사용자가 손가락(210)으로 원형 GUI 객체(16) 또는 그 주변에 최초 터치를 수행한 경우, 원형 GUI 객체(16)가 손가락(210)과 연관된 것으로 판단하여 원형 GUI 객체(16)와 손가락(210)을 연관시킬 수 있다. 이에 따라, 사용자 손가락(210)의 제스처에 따라 원형 GUI 객체(16)가 변하게 된다. 이와 같이 손가락(210)을 원형 GUI 객체(16)에 연관시킴으로써, 터치 검출부(14) 상에서 손가락(210)의 제스처에 따라 연속적으로 변화하게 된다.
도 6에 도시한 바와 같이, 제2 터치 제스처는 원형 GUI 객체(16)에 접촉하여 회전시키는 사용자의 터치 제스처일 수 있다. 도 6에서는 하나의 예로써 사용자가 하나의 손가락(210)으로 원형 GUI 객체(16)를 회전시키는 것을 도시하였으나, 도 2에 도시한 바와 같은 두 개의 손가락(210)을 이용하여 원형 GUI 객체(16)를 회전시키는 동작을 수행하는 것도 가능하다. 즉, 상기와 같이 제1 제스처를 수행함으로써, 원형 GUI 객체(16)가 표시될 때, 사용자는 제1 제스처와 연속적인 동작으로써 제2 제스처를 입력할 수도 있다. 또한, 제1 제스처를 수행하고, 원형 GUI 객체(16)가 표시된 후에 불연속적인 동작으로 상기와 같은 제2 제스처를 입력하는 것도 가능하다.
이때, 손가락(210)의 회전량에 따라 원형 GUI 객체(16)의 회전을 조절할 수 있다. 즉, 사용자의 손가락(210)이 10도 회전하는 제스처를 입력한 경우, 원형 GUI 객체(16)도 10도 회전한 상태가 표시될 수 있다. 이때, 원형 GUI 객체(16)의 회전은 손가락(210)의 회전과 동시에 일어날 수 있다. 즉, 손가락(210)의 1도 회전과 거의 동시에, 원형 GUI 객체(16)가 1도 회전될 수 있다.
또한, 이 경우, 상기와 같은 원형 GUI 객체(16)의 회전에 따라서 각 단위의 회전에 대한 청각 피드백을 제공할 수 있다. 예를 들어, 10도의 회전에 기초하여 5번의 클릭 소리를 제공할 수 있다. 또한, 각각의 클릭 소리에 대해 어떤 양의 진동 또는 다른 촉각 피드백을 제공함으로써 가상의 원형 GUI 객체(16)를 실제 다이얼과 같이 가장할 수도 있다.
도 7은 본 실시예에서 제2 터치 제스처를 감지하는 방법을 나타낸 순서도이며, 도 8 내지 도 10은 본 발명의 제1 실시예에 따른 터치 기반 사용자 인터페이스 방법을 이용하여 이벤트를 발생시키는 것을 예시한 개략도이다.
도 7에 도시한 바와 같이, 제2 터치 제스처를 감지하는 방법은 제2 터치 제스처에 의한 회전 속도 및 방향을 검출(S122)하고, 제2 터치 제스처의 회전 속도 및 방향에 따라 원형 GUI 객체(16)를 회전(S124)시키며, 원형 GUI 객체(16)의 회전 속도 및 방향에 따라 이벤트 진행의 속도 및 방향을 조절(S126)하는 단계를 포함할 수 있다.
즉, 예를 들어, 도 8에 도시한 바와 같이, 원형 GUI 객체(16)가 다수의 사진을 검색하기 위한 GUI인 경우, 제2 제스처의 회전 속도는 사진의 스크롤 양에 대응할 수 있으며, 회전방향은 사진의 스크롤 방향에 대응할 수 있다.
도 9에 도시한 바와 같이, 원형 GUI 객체(16)는 멀티 윈도 화면을 전환하기 위한 GUI로써 제공될 수 있다. 이때, 제2 제스처의 회전 속도는 화면 전환의 속도에 대응할 수 있으며, 회전방향은 윈도 화면의 전환 방향에 대응할 수 있다.
도 10에 도시한 바와 같이, 원형 GUI 객체(16)는 동영상의 검색을 위한 GUI로써 제공될 수 있으며, 이 경우, 제2 제스처의 회전 속도는 동영상의 재생 속도에 대응할 수 있으며, 회전방향은 동영상의 재생 방향에 대응할 수 있다.
또한, 도 11에 도시한 바와 같이, 원형 GUI 객체(16)는 디지털 카메라의 줌 기능을 제공하기 위한 GUI로써 활용될 수 있으며, 이 경우, 제2 제스처의 회전방향에 따라 줌인과 줌아웃의 이벤트가 수행될 수 있다.
상기와 같은 원형 GUI 객체(16)는 이외에도 다양한 애플리케이션에 활용될 수 있으며, 본 발명이 상기한 구체적인 활용 예에 한정되는 것은 아니다. 즉, 제1 제스처의 입력 시, 인터페이스 장치가 적용되는 기기의 모드 또는 현재 실행되고 있는 애플리케이션의 종류에 따라서 원형 GUI 객체(16)에 의해 발생하는 이벤트가 달라질 수 있다.
다음으로, 제2 제스처가 완료되는 것을 감지하고, 제2 제스처가 완료되고 일정 시간이 경과하는 경우 원형 GUI 객체(16)를 제거한다. 제2 제스처의 입력이 완료되거나, 제1 제스처의 입력에 의해 원형 GUI 객체(16)가 표시되고 제2 제스처의 입력이 없는 경우, 미리 설정된 시간 예를 들어, 0.5 초가 경과하면, 사용자의 입력의사가 없는 것으로 판단하여 도 12에 도시한 것과 같이 원형 GUI 객체(16)를 표시부(10)에서 제거한다.
이하에서는, 도 13 내지 도 15를 참고하여 본 발명의 제2 실시예에 따른 터치 기반 사용자 인터페이스 방법에 대하여 상세하게 설명한다. 본 실시예는 제1 터치 제스처를 감지하는 방법에 있어서, 전술한 제1 실시예와 구별되고, 이외의 각 단계는 제1 실시예와 동일하게 진행될 수 있으므로 여기에서는 그에 대한 상세한 설명을 생략한다.
도 13은 본 발명의 제2 실시예에 따른 터치 기반 사용자 인터페이스 방법에서 사용자가 사용자 인터페이스 장치(100)를 이용하여 제1 터치 제스처를 입력하는 것을 나타낸 개략도이다. 본 실시예에서 제1 터치 제스처는 제1 터치 포인트에서 발생하는 고정된 터치 제스처와 제2 터치 포인트에서 고정된 터치 제스처와 동시에 발생하는 회전 제스처를 포함하는 것으로 정의된다.
도 13에 도시한 바와 같이, 원형 GUI 객체(16)를 이용하여 명령을 입력하고자 하는 사용자는 제1 터치 제스처를 수행하기 위해 2개의 손가락들(200, 210)을 터치 검출부(14) 상에 올려놓는다. 이때, 사용자의 손가락들(200, 210)은 터치 검출부(14) 상의 임의의 위치에 위치될 수 있다. 사용자는 하나의 손가락(200)을 임의의 위치에 고정하고, 다른 하나의 손가락(210)으로 회전 제스처를 수행한다.
도 14 및 도 15는 각각 본 실시예에서 사용자의 제1 터치 제스처를 감지하는 방법을 나타낸 순서도와 개략도이다. 이하에서 제1 터치 제스처를 판단하는 방법에 대하여 구체적으로 설명한다.
도 14에 도시한 바와 같이, 본 실시예에서 제1 터치 제스처를 감지하는 방법은 고정 터치 제스처와 하나의 회전 제스처를 검출(S200)하고 터치 제스처의 진행 중 제1 터치 포인트와 제2 터치 포인트 간의 거리가 제3 오차범위 내에서 유지되는 지의 여부를 판단(S202)하는 단계를 포함할 수 있다.
즉, 도 15에 도시한 바와 같이, 사용자가 최초 1개의 터치 포인트(P1)에서 임의의 각도로 회전된 위치(P1')로 터치 포인트를 이동하는 제스처를 수행하면, 사용자의 회전 제스처가 진행되는 동안 다음과 같은 조건을 만족하는 지를 판단한다.
Figure pat00003
여기에서, d는 최초 제1 터치 포인트(P1)와 제2 터치 포인트(P2) 사이의 거리를, d'은 터치 제스처 진행 중 임의의 시간 또는 진행 완료 후 제1 터치 포인트(P1')와 제2 터치 포인트(P2) 사이의 거리를 각각 의미한다. 또한, e3는 제3 오차범위를 나타내는 것으로 이는 필요에 따라 적절하게 설정될 수 있다.
이때, 상기와 같은 조건을 만족하는 경우, 사용자의 제스처가 제1 터치 제스처에 해당하는 것으로 판단(S204)할 수 있다. 한편, 상기의 조건을 만족하지 않는 경우에는, 사용자의 제스처를 제1 제스처로 판단하지 않고, 사용자의 다른 의도가 있는 제스처 또는 사용자가 의도하지 않은 제스처로 판단(S206)할 수 있다.
이하에서는 상기와 같은 터치 기반 사용자 인터페이스 방법을 제공하기 위한 장치에 대하여 상세하게 설명한다. 도 16은 본 발명의 실시예에 따른 터치 기반 사용자 인터페이스 장치(100)를 나타낸 블록도이다.
본 발명의 실시예에 따른 사용자 인터페이스 장치(100)는 데스크톱(desktop), 랩톱(laptop), 태블릿(tablet) 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템과 스마트폰, 휴대전화, PDA, 전용 미디어플레이어, TV, 가전 기기 등 사용자 인터페이스가 필요한 모든 전자기기에 적용이 가능하다.
도 16에 도시한 바와 같이, 본 발명의 실시예에 따른 사용자 인터페이스 장치(100)는 GUI를 제공하는 표시부(10), 사용자의 터치 제스처를 감지하는 터치 검출부(14), 터치 제스처에 따른 이벤트를 발생시키는 제어부(20)를 포함한다. 또한, 사용자 인터페이스 장치(100)는 제스처 프로그램(24)을 저장하는 메모리(22)를 더 포함할 수 있다.
예를 들어, 제어부(20)는 메모리(22)로부터 검색된 명령어를 사용하여, 사용자 인터페이스 장치(100)의 구성요소 간의 입력 및 출력 데이터의 수신 및 처리를 제어한다.
제어부(20)는 단일 칩, 다수의 칩 또는 다수의 전기 부품상에 구현될 수 있다. 예를 들어, 전용 또는 내장형 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC 등과 같은 여러 가지 아키텍처가 제어부(20)의 구성에 사용될 수 있다.
제어부(20)는 운영체제와 함께, 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 수행한다. 운영체제는 OS/2, DOS, Unix, Linux, Palm OS 기타 등과 같은 공지된 모든 운영체제로 구성될 수 있다. 운영체제, 다른 컴퓨터 코드 및 데이터는 제어부(20)와 연결되어 동작하는 메모리(22) 내에 존재할 수 있다. 메모리(22)는 일반적으로 사용자 인터페이스 장치(100)에 의해 사용되는 컴퓨터 코드 및 데이터를 저장하는 장소를 제공한다. 예로서, 메모리(22)는 판독 전용 메모리(22)(ROM), 랜덤 액세스 메모리(22)(RAM), 하드 디스크 드라이브 등을 포함할 수 있다. 정보는 또한 분리형 저장 매체 상에 존재하고, 필요할 때, 사용자 인터페이스 장치(100) 상으로 로드 또는 설치될 수 있다. 분리형 저장 매체는, 예를 들어, CD-ROM, PC-CARD, 메모리(22) 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함한다.
사용자 인터페이스 장치(100)는 또한 제어부(20)에 연결되어 동작하는 표시부(10)를 포함한다. 표시부(10)는 액정표시장치(liquid crystal display, LCD), 유기발광표시장치(organic light emitting diode display, OLED), 플라즈마 표시패널(plasma display panel, PDP) 등과 같은 디스플레이 장치로 구성될 수 있다.
표시부(10)는 사용자와 운영체제 또는 운영체제상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 GUI를 표시하도록 구성된다.
GUI는 프로그램, 파일 및 동작 옵션을 그래픽 이미지로 표현한다. 그래픽 이미지는 윈도, 필드, 대화상자, 메뉴, 아이콘, 버튼, 커서, 스크롤 바 등을 포함할 수 있다. 이러한 이미지는 미리 정의된 레이아웃으로 정렬될 수 있거나, 사용자가 취하고 있는 특정의 조치를 돕기 위해 동적으로 생성될 수 있다. 동작 동안에, 사용자는 여러 가지 그래픽 이미지와 연관된 기능 및 작업을 개시하기 위해 그 이미지를 선택 및 활성화할 수 있다. 예로서, 사용자는 윈도의 열기, 닫기, 최소화, 또는 최대화를 행하는 버튼, 또는 특정 프로그램을 기동시키는 아이콘을 선택할 수 있다. GUI는 그에 부가하여 또는 다른 대안으로서, 사용자를 위해 표시부(10) 상에 비대화형 텍스트 및 그래픽 등의 정보를 표시할 수 있다.
사용자 인터페이스 장치(100)는 제어부(20)에 연결되어 동작하는 터치 검출부(14)를 포함한다. 터치 검출부(14)는 외부로부터 사용자 인터페이스 장치(100) 내로 데이터를 전송하도록 구성된다.
예를 들어, 터치 검출부(14)는 추적을 수행하고 표시부(10) 상에서 GUI와 관련된 선택을 하기 위해 사용될 수 있다. 터치 검출부(14)는 또한 사용자 인터페이스 장치(100)에서 명령을 발생시키는 데 사용될 수 있다.
터치 검출부(14)는 사용자의 터치로부터 입력을 수신하고 이 정보를 제어부(20)로 전송하도록 구성된다. 예를 들어, 터치 검출부(14)는 터치 패드 또는 터치 스크린일 수 있다.
터치 검출부(14)는 터치는 물론, 터치 감지 표면상에서의 터치의 위치 및 크기를 인식할 수도 있다. 터치 검출부(14)는 터치를 제어부(20)에 보고하고, 제어부(20)는 제어부(20)의 프로그래밍에 따라 이 터치를 해석한다. 예를 들어, 제어부(20)는 특정의 터치에 따라 작업을 개시할 수 있다. 이때, 터치를 로컬적으로 처리하도록 제어부(20) 외에 별도의 전용 프로세서가 사용될 수도 있다. 터치 검출부(14)는 용량성 감지, 저항성 감지, 표면 탄성파 감지, 압력 감지, 광학 감지 등(이에 한정되는 것은 아님)을 포함하는 감지 기술을 적용하여 사용할 수 있다. 또한, 터치 검출부(14)는 동시에 일어나는 다수의 터치를 구별할 수 있는 다중점 감지가 적용될 수 있다.
터치 검출부(14)는 표시부(10) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있다. 터치 검출부(14)는 표시부(10)와 일체로 되어 있거나 별개의 구성요소일 수 있다.
또한, 사용자 인터페이스 장치(100)는 하나 이상의 입출력장치(미도시)에 연결될 수 있다. 입출력장치는 키보드, 프린터, 스캐너, 카메라, 스피커 등을 포함할 수 있다. 입출력장치는 사용자 인터페이스 장치(100)와 일체로 구성되거나, 별개의 구성요소일 수 있다. 또한, 입출력장치는 유선 연결을 통해 사용자 인터페이스 장치(100)에 연결될 수도 있다. 또한, 입출력장치는 무선 연결을 통해 사용자 인터페이스 장치(100)에 연결될 수도 있다.
본 실시예에 따른 사용자 인터페이스 장치(100)는 터치 검출부(14)에 가해지는 사용자의 터치 제스처를 인식하고 이 제스처에 기초하여 사용자 인터페이스 장치(100)를 제어하도록 구성된다. 이때, 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는 입력장치와의 양식화된 상호작용으로서 정의될 수 있다.
제스처는 손가락(210) 움직임을 통해 행해질 수 있다. 터치 검출부(14)는 제스처를 수신하고, 제어부(20)는 제스처와 연관된 동작들을 수행하는 명령어들을 실행한다. 또한, 메모리(22)는 운영체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램을 포함할 수 있다. 제스처 작동 프로그램은 제스처의 발생을 인식하고 그 제스처와 제스처에 응답하여 어떠한 이벤트가 발생되어야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.
사용자가 하나 이상의 제스처를 행할 때, 터치 검출부(14)는 제스처 정보를 제어부(20)로 전달한다. 메모리(22)로부터의 명령어, 더욱 상세하게는 제스처 작동 프로그램을 사용하여, 제어부(20)는 제스처를 해석하고 메모리(22), 표시부(10) 및 입출력장치 등의 사용자 인터페이스 장치(100)의 서로 다른 구성요소들을 제어한다. 제스처는 메모리(22)에 저장된 애플리케이션에서의 동작을 수행하고, 표시부(10) 상에 나타난 GUI 객체를 수정하며, 메모리(22)에 저장된 데이터를 수정하고, 입출력장치에서의 동작을 수행하는 명령으로서 식별될 수 있다.
예를 들어, 이들 명령은 줌잉, 패닝, 스크롤링, 페이지 넘김, 회전, 크기조정 등과 연관될 수 있다. 또한, 명령은 또한 특정의 프로그램을 기동시키는 것, 파일 또는 문서를 여는 것, 메뉴를 보는 것, 선택을 하는 것, 명령어를 실행하는 것, 사용자 인터페이스 장치(100)에 로그온하는 것, 인가된 개인에게 사용자 인터페이스 장치(100)의 제한된 영역에의 액세스를 허용하는 것, 컴퓨터 바탕화면의 사용자 선호배열과 연관된 사용자 프로파일을 로드하는 것 등과 연관될 수 수 있다.
이때, 다양한 제스처가 명령을 수행하는 데 이용될 수 있다. 예로서, 제스처는 단일점(single point) 또는 다중점(multipoint) 제스터, 정적 또는 동적 제스처, 연속적(continuous) 또는 구분된(segmented) 제스처일 수 있다.
단일점 제스처는 단일의 접촉점으로 수행되는 제스처이다. 단일점 제스처는 제츠처는 예를 들어 하나의 손가락(210), 손바닥 또는 스타일러스로부터와 같이 단일의 터치로 수행된다.
다중점 제스처는 다수의 점으로 수행될 수 있는 제스처이다. 예를 들어, 다중점 제스처는 다수의 손가락(210), 손가락(210)과 손바닥, 손가락(210)과 스타일러스, 다수의 스타일러스 및 이들의 임의의 조합과 같이 다수의 터치로 수행된다.
정적 제스처는 움직임을 포함하지 않는 제스처이고, 동적 제스처는 움직임을 포함하는 제스처이다. 연속적 제스처는 단일의 스트로크로 수행되는 제스처이고, 구분된 제스처는 별개의 스텝 또는 스트로크의 시퀀스로 수행되는 제스처이다.
본 실시예에 따른 사용자 인터페이스 장치(100)는 다수의 제스처를 동시에 등록하도록 구성된다. 즉, 다수의 제스처가 동시에 수행될 수 있다.
또한, 본 실시예에 따른 사용자 인터페이스 장치(100)는 제스처와 연관된 동작이 제스처와 동시에 실시될 수 있도록, 제스처를 즉각 인식하도록 구성된다. 즉 제스처와 동작이, 2-단계 프로세스가 아니라, 동시에 일어날 수 있다.
또한, 표시부(10) 상에 제공된 객체는 연속적으로 터치 검출부(14) 상에서 행해지는 제스처를 따라간다. 수행되는 제스처와 표시부(10) 상에 나타난 객체 간에 일대일 관계가 존재한다. 예를 들어, 제스처가 수행될 때, 제스처 아래에 위치한 객체들에 동시에 수정이 행해질 수 있다.
이하에서는 상기와 같이 구성되는 사용자 인터페이스 장치(100)가 전술한 사용자 인터페이스 방법을 수행하는 것에 대하여 상세하게 설명한다.
표시부(10)는 GUI를 표시하고, 터치 검출부(14)는 하나의 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지한다.
도 2에 도시한 바와 같이, 원형 GUI 객체(16)를 이용하여 명령을 입력하고자 하는 사용자는 제1 터치 제스처를 수행하기 위해 2개의 손가락들(200, 210)을 터치 검출부(14) 상에 올려놓는다. 이때, 사용자의 손가락(210)은 터치 검출부(14) 상의 임의의 위치에 위치될 수 있다. 사용자는 손가락들(200, 210)이 위치하는 2개의 터치 포인트에서 각각 동시에 같은 방향의 회전 제스처를 수행하고, 제어부(20)는 이와 같은 사용자의 제스처가 2개의 터치 포인트에서 각각 동시에 하나의 원의 적어도 일부를 그리는 터치 제스처에 해당하는 경우, 이를 제1 터치 제스처로 판단한다.
제어부(20)는 사용자의 제스처가 제1 제스처에 해당하는 지 즉, 원형 GUI 객체(16)를 이용하고자 하는 사용자의 의도가 존재하는 지의 여부를 판단한다. 예를 들어, 터치 검출부(14)가 사용자의 손가락(210)에 의한 적어도 2개의 회전 제스처를 검출하여 이를 제어부(20)로 출력하면, 제어부(20)는 터치 제스처의 진행 중 2개의 터치 포인트 간의 중점이 제1 오차범위 내에서 존재하는 지의 여부를 판단한다. 또한, 제어부(20)는 터치 제스처의 진행 중 2개의 터치 포인트 간의 거리가 제2 오차범위 내에서 유지되는 지의 여부를 판단한다.
즉, 도 4에 도시한 바와 같이, 사용자가 최초 2개의 터치 포인트(P1, P2)에서 임의의 각도로 회전된 위치(P1 ', P2')로 터치 포인트를 이동하는 제스처를 수행하면, 제어부(20)는 사용자의 회전 제스처가 진행되는 동안 전술한 수학식 1 및 수학식 2의 조건을 만족하는 지를 판단한다.
이때, 상기와 같은 조건을 만족하는 경우, 제어부(20)는 사용자의 제스처가 2개의 터치 포인트에서 각각 동시에 하나의 원의 적어도 일부를 그리는 터치 제스처에 해당하는 것으로 판단할 수 있다.
한편, 이중 하나의 조건을 만족하지 않는 경우에는, 제어부(20)는 사용자의 제스처를 제1 제스처로 판단하지 않고, 사용자의 다른 의도가 있는 제스처 또는 사용자가 의도하지 않은 제스처로 판단한다.
또한, 다른 예로써, 제1 터치 제스처는 제1 터치 포인트에서 발생되는 고정된 터치 제스처와 제2 터치 포인트에서 고정된 터치 제스처와 동시에 발생되는 회전 제스처를 포함하는 것으로 정의될 수 있다.
도 13에 도시한 바와 같이, 원형 GUI 객체(16)를 이용하여 명령을 입력하고자 하는 사용자는 제1 터치 제스처를 수행하기 위해 2개의 손가락들(200, 210)을 터치 검출부(14) 상에 올려놓는다. 이때, 사용자의 손가락들(200, 210)은 터치 검출부(14) 상의 임의의 위치에 위치될 수 있다. 사용자는 하나의 손가락(200)을 임의의 위치(P2)에 고정시키고, 다른 하나의 손가락(210)으로 회전 제스처를 수행한다.
이때, 제어부(20)는 터치 제스처의 진행 중 제1 터치 포인트(P1')와 제2 터치 포인트(P2) 간의 거리가 제3 오차범위 내에서 유지되는 지의 여부를 판단할 수 있다.
즉, 도 15에 도시한 바와 같이, 사용자가 최초 1개의 터치 포인트(P1)에서 임의의 각도로 회전된 위치(P1')로 터치 포인트를 이동하는 제스처를 수행하면, 제어부(20)는 사용자의 회전 제스처가 진행되는 동안 전술한 수학식 3의 조건을 만족하는 지를 판단한다.
이때, 상기와 같은 조건을 만족하는 경우, 제어부(20)는 사용자의 제스처가 제1 터치 제스처에 해당하는 것으로 판단한다. 한편, 상기의 조건을 만족하지 않는 경우, 제어부(20)는 사용자의 제스처를 제1 제스처로 판단하지 않고, 사용자의 다른 의도가 있는 제스처 또는 사용자가 의도하지 않은 제스처로 판단할 수 있다.
표시부(10)는 상기와 같은 제어부(20)의 제어에 따라 감지된 제1 터치 제스처에 따라 원형 GUI 객체(16)를 표시한다. 도 5에 도시한 바와 같이, 원형 GUI 객체(16)는 반투명한 색상을 가지도록 표시부(10)에 표시될 수 있다.
터치 검출부(14)는 표시된 원형 GUI 객체(16)를 통한 사용자의 제2 터치 제스처를 감지하고, 이에 따라 제어부(20)는 제2 터치 제스처에 대응하는 이벤트를 발생시킨다.
사용자가 손가락(210)으로 원형 GUI 객체(16) 또는 그 주변에 최초 터치를 수행한 경우, 제어부(20)는 원형 GUI 객체(16)가 손가락(210)과 연관된 것으로 판단하여 원형 GUI 객체(16)와 손가락(210)을 연관시킬 수 있다. 이에 따라, 사용자 손가락(210)의 제스처에 따라 원형 GUI 객체(16)가 변하게 된다. 이와 같이 손가락(210)을 원형 GUI 객체(16)에 연관시킴으로써, 터치 검출부(14) 상에서 손가락(210)의 제스처에 따라 연속적으로 변화하게 된다.
도 6에 도시한 바와 같이, 제2 터치 제스처는 원형 GUI 객체(16)에 접촉하여 회전시키는 사용자의 터치 제스처일 수 있다. 도 6에서는 하나의 예로써 사용자가 하나의 손가락(210)으로 원형 GUI 객체(16)를 회전시키는 것을 도시하였으나, 도 2에 도시한 바와 같은 두 개의 손가락(210)을 이용하여 원형 GUI 객체(16)를 회전시키는 동작을 수행하는 것도 가능하다. 즉, 상기와 같이 제1 제스처를 수행함으로써, 원형 GUI 객체(16)가 표시될 때, 사용자는 제1 제스처와 연속적인 동작으로써 제2 제스처를 입력할 수도 있다. 또한, 제1 제스처를 수행하고, 원형 GUI 객체(16)가 표시된 후에 불연속적인 동작으로 상기와 같은 제2 제스처를 입력하는 것도 가능하다.
이때, 제어부(20)는 손가락(210)의 회전량에 따라 원형 GUI 객체(16)의 회전을 조절할 수 있다. 즉, 사용자의 손가락(210)이 10도 회전하는 제스처를 입력한 경우, 제어부(20)는 원형 GUI 객체(16)도 10도 회전한 상태가 표시될 수 있도록 표시부(10)를 제어한다. 이때, 원형 GUI 객체(16)의 회전은 손가락(210)의 회전과 동시에 일어날 수 있다. 즉, 손가락(210)의 1도 회전과 거의 동시에, 원형 GUI 객체(16)가 1도 회전될 수 있다.
또한, 이 경우, 제어부(20)는 상기와 같은 원형 GUI 객체(16)의 회전에 따라서 각 단위의 회전에 대한 청각 피드백을 제공할 수 있다. 예를 들어, 10도의 회전에 기초하여 5번의 클릭 소리를 제공할 수 있다. 또한, 각각의 클릭 소리에 대해 어떤 양의 진동 또는 다른 촉각 피드백을 제공함으로써 가상의 원형 GUI 객체(16)를 실제 다이얼과 같이 가장할 수도 있다.
터치 검출부(14)는 제2 터치 제스처에 의한 회전 속도 및 방향을 검출하고, 제어부(20)는 제2 터치 제스처의 회전 속도 및 방향에 따라 원형 GUI 객체(16)를 회전시키도록 표시부(10)를 제어하며, 제어부(20)는 원형 GUI 객체(16)의 회전 속도 및 방향에 따라 이벤트 진행의 속도 및 방향을 조절할 수 있다.
다음으로, 터치 검출부(14)는 제2 제스처가 완료되는 것을 감지하여 이를 제어부(20)로 출력한다. 또한, 제어부(20)는 제2 제스처가 완료되고 일정 시간이 경과하는 경우 원형 GUI 객체(16)를 제거하도록 표시부(10)를 제어한다. 제2 제스처의 입력이 완료되거나, 제1 제스처의 입력에 의해 원형 GUI 객체(16)가 표시되고 제2 제스처의 입력이 없는 경우, 미리 설정된 시간 예를 들어, 0.5 초가 경과하면, 제어부(20)는 사용자의 입력의사가 없는 것으로 판단하여 도 12에 도시한 것과 같이 원형 GUI 객체(16)를 표시부(10)에서 제거한다.
상기에서 본 발명의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다.

Claims (20)

  1. 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지하는 단계,
    상기 감지된 제1 터치 제스처에 따라 원형 GUI 객체를 표시하는 단계,
    상기 표시된 원형 GUI 객체를 통한 사용자의 제2 터치 제스처를 감지하는 단계, 및
    상기 제2 터치 제스처에 대응하는 이벤트를 발생시키는 단계
    를 포함하는 터치 기반 사용자 인터페이스 방법.
  2. 제1 항에 있어서,
    상기 제1 터치 제스처는,
    2개의 터치 포인트에서 각각 동시에 하나의 원의 적어도 일부를 그리는 터치 제스처를 포함하는 터치 기반 사용자 인터페이스 방법.
  3. 제2 항에 있어서,
    상기 제1 터치 제스처를 감지하는 단계는,
    상기 터치 제스처의 진행 중 상기 2개의 터치 포인트 간의 중점이 제1 오차범위 내에서 존재하는 지의 여부를 판단하는 단계, 및
    상기 터치 제스처의 진행 중 상기 2개의 터치 포인트 간의 거리가 제2 오차범위 내에서 유지되는 지의 여부를 판단하는 단계
    를 포함하는 터치 기반 사용자 인터페이스 방법.
  4. 제1 항에 있어서,
    상기 제1 터치 제스처는,
    제1 터치 포인트에서 발생되는 고정된 터치 제스처와 제2 터치 포인트에서 상기 고정된 터치 제스처와 동시에 발생되는 회전 제스처를 포함하는 터치 기반 사용자 인터페이스 방법.
  5. 제4 항에 있어서,
    상기 제1 터치 제스처를 감지하는 단계는,
    상기 터치 제스처의 진행 중 상기 제1 터치 포인트와 상기 제2 터치 포인트 간의 거리가 제3 오차범위 내에서 유지되는 지의 여부를 판단하는 단계를 포함하는 터치 기반 사용자 인터페이스 방법.
  6. 제1 항에 있어서,
    상기 제2 터치 제스처는 상기 원형 GUI 객체에 접촉하여 회전시키는 제스처인 터치 기반 사용자 인터페이스 방법.
  7. 제6 항에 있어서,
    상기 제2 터치 제스처에 의한 회전 속도 및 방향을 검출하는 단계, 및
    상기 제2 터치 제스처의 회전 속도 및 방향에 따라 상기 원형 GUI 객체를 회전시키는 단계
    를 더 포함하는 터치 기반 사용자 인터페이스 방법.
  8. 제7 항에 있어서,
    상기 제2 터치 제스처의 회전 속도 및 방향에 따라 상기 이벤트의 진행 속도를 조절하는 터치 기반 사용자 인터페이스 방법.
  9. 제1 항에 있어서,
    상기 제2 제스처가 완료되는 것을 감지하는 단계, 및
    상기 제2 제스처의 완료 일정 시간의 경과 후 상기 원형 GUI 객체를 제거하는 단계
    를 더 포함하는 터치 기반 사용자 인터페이스 방법.
  10. 제1 항에 있어서,
    상기 원형 GUI 객체는 반투명한 색상을 가지는 터치 기반 사용자 인터페이스 방법.
  11. 그래픽 사용자 인터페이스(graphic user interface, GUI)를 제공하는 표시부,
    상기 GUI에 따른 사용자의 터치 제스처를 감지하는 터치 검출부, 및
    상기 터치 제스처에 따른 이벤트를 발생시키는 제어부
    를 포함하고,
    상기 터치 검출부는 원의 적어도 일부를 그리는 사용자의 제1 터치 제스처를 감지하고,
    상기 제어부는 상기 감지된 제1 터치 제스처에 따라 원형 GUI 객체를 표시하도록 상기 표시부를 제어하며,
    상기 터치 검출부는 상기 표시된 원형 GUI 객체를 통한 사용자의 제2 터치 제스처를 감지하고,
    상기 제어부는 상기 제2 터치 제스처에 대응하는 이벤트를 발생시키는 터치 기반 사용자 인터페이스 장치.
  12. 제11 항에 있어서,
    상기 터치 검출부는 2개의 터치 포인트에서 각각 동시에 하나의 원의 적어도 일부를 그리는 터치 제스처를 상기 제1 터치 제스처로 감지하여 상기 제어부로 출력하는 터치 기반 사용자 인터페이스 장치.
  13. 제12 항에 있어서,
    상기 터치 검출부는,
    상기 터치 제스처의 진행 중 상기 2개의 터치 포인트 간의 중점이 제1 오차범위 내에서 존재하고, 상기 터치 제스처의 진행 중 상기 2개의 터치 포인트 간의 거리가 제2 오차범위 내에서 유지되는 경우, 상기 터치 제스처를 상기 제1 터치 제스처로 감지하여 상기 제어부로 출력하는 터치 기반 사용자 인터페이스 장치.
  14. 제11 항에 있어서,
    상기 터치 검출부는,
    제1 터치 포인트에서 발생되는 고정된 터치 제스처와 제2 터치 포인트에서 상기 고정된 터치 제스처와 동시에 발생되는 회전 제스처를 상기 제1 터치 제스처로 감지하여 상기 제어부로 출력하는 터치 기반 사용자 인터페이스 장치.
  15. 제14 항에 있어서,
    상기 터치 검출부는,
    상기 터치 제스처의 진행 중 상기 제1 터치 포인트와 상기 제2 터치 포인트 간의 거리가 제3 오차범위 내에서 유지되는 경우, 상기 터치 제스처를 상기 제1 터치 제스처로 감지하여 상기 제어부로 출력하는 터치 기반 사용자 인터페이스 장치.
  16. 제11 항에 있어서,
    상기 터치 검출부는,
    상기 원형 GUI 객체에 접촉하여 회전시키는 제스처를 제2 터치 제스처로 감지하여 상기 제어부로 출력하는 터치 기반 사용자 인터페이스 방법.
  17. 제11 항에 있어서,
    상기 터치 검출부는 제2 터치 제스처에 의한 회전 속도 및 방향을 검출하고,
    상기 제어부는 상기 제2 터치 제스처의 회전 속도 및 방향에 따라 상기 원형 GUI 객체를 회전시키도록 상기 표시부를 제어하는 터치 기반 사용자 인터페이스 장치.
  18. 제17 항에 있어서,
    상기 제어부는 제2 터치 제스처의 회전 속도 및 방향에 따라 상기 이벤트의 진행 속도를 조절하는 터치 기반 사용자 인터페이스 장치.
  19. 제11 항에 있어서,
    상기 터치 검출부는 상기 제2 제스처가 완료되는 것을 감지하고,
    상기 제어부는 상기 제2 제스처의 완료가 감지되고, 일정 시간이 경과한 후 상기 원형 GUI 객체를 제거하도록 상기 표시부를 제어하는 터치 기반 사용자 인터페이스 장치.
  20. 제11 항에 있어서,
    상기 표시부는 상기 원형 GUI 객체가 반투명한 색상을 가지도록 출력하는 터치 기반 사용자 인터페이스 장치.
KR1020110035180A 2011-04-15 2011-04-15 터치 기반 사용자 인터페이스 장치 및 방법 KR20130052749A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110035180A KR20130052749A (ko) 2011-04-15 2011-04-15 터치 기반 사용자 인터페이스 장치 및 방법
US13/308,680 US20120262386A1 (en) 2011-04-15 2011-12-01 Touch based user interface device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110035180A KR20130052749A (ko) 2011-04-15 2011-04-15 터치 기반 사용자 인터페이스 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20130052749A true KR20130052749A (ko) 2013-05-23

Family

ID=47006050

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110035180A KR20130052749A (ko) 2011-04-15 2011-04-15 터치 기반 사용자 인터페이스 장치 및 방법

Country Status (2)

Country Link
US (1) US20120262386A1 (ko)
KR (1) KR20130052749A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150040825A (ko) * 2013-07-17 2015-04-15 한국과학기술원 연속적인 터치를 이용한 사용자 인터페이스 방법 및 장치
KR101718071B1 (ko) * 2015-09-17 2017-03-20 주식회사 한컴플렉슬 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법
WO2017047930A1 (ko) * 2015-09-17 2017-03-23 주식회사 한컴플렉슬 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법
KR20180096857A (ko) * 2017-02-20 2018-08-30 네이버 주식회사 멀티미디어 콘텐츠의 재생을 제어하기 위한 방법 및 시스템

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11442619B2 (en) * 2005-06-02 2022-09-13 Eli I Zeevi Integrated document editor
US8312033B1 (en) 2008-06-26 2012-11-13 Experian Marketing Solutions, Inc. Systems and methods for providing an integrated identifier
EP2575987B1 (fr) * 2010-06-02 2019-12-11 Jean Etienne Mineur Ensemble interactif figurine matérielle / plateau de jeu électronique multi joueur à authentification automatique de figurine
FR2977964B1 (fr) * 2011-07-13 2013-08-23 Commissariat Energie Atomique Procede d'acquisition d'un angle de rotation et des coordonnees d'un centre de rotation
US8738516B1 (en) 2011-10-13 2014-05-27 Consumerinfo.Com, Inc. Debt services candidate locator
JP5790578B2 (ja) * 2012-04-10 2015-10-07 株式会社デンソー 表示システム、表示装置、及び操作装置
JP5876363B2 (ja) * 2012-04-12 2016-03-02 株式会社デンソー 制御装置及びプログラム
US9853959B1 (en) 2012-05-07 2017-12-26 Consumerinfo.Com, Inc. Storage and maintenance of personal data
US9654541B1 (en) 2012-11-12 2017-05-16 Consumerinfo.Com, Inc. Aggregating user web browsing data
US9916621B1 (en) 2012-11-30 2018-03-13 Consumerinfo.Com, Inc. Presentation of credit score factors
KR102047689B1 (ko) * 2012-12-17 2019-11-22 엘지전자 주식회사 택타일 사용자 인터페이스의 미니-맵을 제공하는 터치 센서티브 디바이스 및 제어 방법
WO2014120210A1 (en) * 2013-01-31 2014-08-07 Hewlett-Packard Development Company L.P. Selection feature for adjusting values on a computing device
US10102570B1 (en) 2013-03-14 2018-10-16 Consumerinfo.Com, Inc. Account vulnerability alerts
US11422695B2 (en) * 2013-03-27 2022-08-23 Texas Instruments Incorporated Radial based user interface on touch sensitive screen
US9715282B2 (en) 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
JP5934688B2 (ja) * 2013-10-30 2016-06-15 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
US9477737B1 (en) 2013-11-20 2016-10-25 Consumerinfo.Com, Inc. Systems and user interfaces for dynamic access of multiple remote databases and synchronization of data based on user rules
US9086759B2 (en) 2013-12-19 2015-07-21 Amazon Technologies, Inc. Input control assignment
GB2522622A (en) 2014-01-29 2015-08-05 Ibm Time segment user interface
US20150346918A1 (en) * 2014-06-02 2015-12-03 Gabriele Bodda Predicting the Severity of an Active Support Ticket
EP3882753A1 (en) 2014-06-24 2021-09-22 Apple Inc. Application menu for video system
WO2016027305A1 (ja) * 2014-08-19 2016-02-25 Jr東日本メカトロニクス株式会社 情報処理装置、情報処理方法及びプログラム
KR102337682B1 (ko) * 2014-10-01 2021-12-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
US20170068413A1 (en) * 2015-09-09 2017-03-09 Microsoft Technology Licensing, Llc Providing an information set relating to a graphical user interface element on a graphical user interface
US10620803B2 (en) * 2015-09-29 2020-04-14 Microsoft Technology Licensing, Llc Selecting at least one graphical user interface item
US9811926B2 (en) * 2016-01-21 2017-11-07 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Touch screen gesture for perfect simple line drawings
US10824329B2 (en) 2017-09-25 2020-11-03 Motorola Solutions, Inc. Methods and systems for displaying query status information on a graphical user interface
US10933312B2 (en) * 2018-08-21 2021-03-02 Uplay1 Systems, apparatus and methods for verifying locations
US10671749B2 (en) 2018-09-05 2020-06-02 Consumerinfo.Com, Inc. Authenticated access and aggregation database platform
US11315179B1 (en) 2018-11-16 2022-04-26 Consumerinfo.Com, Inc. Methods and apparatuses for customized card recommendations
US11238656B1 (en) 2019-02-22 2022-02-01 Consumerinfo.Com, Inc. System and method for an augmented reality experience via an artificial intelligence bot
US11941065B1 (en) 2019-09-13 2024-03-26 Experian Information Solutions, Inc. Single identifier platform for storing entity data
CN112799579A (zh) * 2021-01-27 2021-05-14 安永旺 高精度单值调节器及应用其的分页器、3d导航器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2778525B2 (ja) * 1995-05-31 1998-07-23 日本電気株式会社 多角形図形整形装置
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JP2894337B1 (ja) * 1997-12-26 1999-05-24 日本電気株式会社 曲線図形の点対称整形装置及び曲線図形の点対称整形方法
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP2007172577A (ja) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US8390577B2 (en) * 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
CN202120246U (zh) * 2011-03-31 2012-01-18 比亚迪股份有限公司 多点旋转运动的识别装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150040825A (ko) * 2013-07-17 2015-04-15 한국과학기술원 연속적인 터치를 이용한 사용자 인터페이스 방법 및 장치
KR101718071B1 (ko) * 2015-09-17 2017-03-20 주식회사 한컴플렉슬 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법
WO2017047930A1 (ko) * 2015-09-17 2017-03-23 주식회사 한컴플렉슬 선택적 자유선 입력이 가능한 터치스크린 장치 및 상기 터치스크린 장치의 선택적 자유선 입력 지원 방법
US10545661B2 (en) 2015-09-17 2020-01-28 Hancom Flexcil, Inc. Touch screen device allowing selective input of free line, and method of supporting selective input of free line in touch screen device
KR20180096857A (ko) * 2017-02-20 2018-08-30 네이버 주식회사 멀티미디어 콘텐츠의 재생을 제어하기 위한 방법 및 시스템
US10877565B2 (en) 2017-02-20 2020-12-29 Naver Corporation Method and system for controlling play of multimedia content

Also Published As

Publication number Publication date
US20120262386A1 (en) 2012-10-18

Similar Documents

Publication Publication Date Title
KR20130052749A (ko) 터치 기반 사용자 인터페이스 장치 및 방법
US9891732B2 (en) Selective rejection of touch contacts in an edge region of a touch surface
EP2508972B1 (en) Portable electronic device and method of controlling same
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP5456529B2 (ja) グラフィカル・ユーザ・インターフェース・オブジェクトを操作する方法及びコンピュータシステム
JP5249788B2 (ja) マルチポイント感知装置を用いたジェスチャリング
US10331219B2 (en) Identification and use of gestures in proximity to a sensor
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
US20140062875A1 (en) Mobile device with an inertial measurement unit to adjust state of graphical user interface or a natural language processing unit, and including a hover sensing function
JP2012208962A (ja) タッチスクリーン型ユーザ・インターフェース上への仮想入力装置の配置
US20140055386A1 (en) Touch and non touch based interaction of a user with a device
TW201109994A (en) Method for controlling the display of a touch screen, user interface of the touch screen, and electronics using the same
EP2770419B1 (en) Method and electronic device for displaying virtual keypad
US20140055385A1 (en) Scaling of gesture based input
KR101154137B1 (ko) 터치 패드 상에서 한손 제스처를 이용한 사용자 인터페이스
JP5968588B2 (ja) 電子機器
US20140298275A1 (en) Method for recognizing input gestures
US20130285924A1 (en) Method and Apparatus Pertaining to the Interpretation of Touch-Based Actions
TWI439922B (zh) 手持式電子裝置及其控制方法
JP2011100385A (ja) 表示装置および方法、並びにプログラム
US20240086026A1 (en) Virtual mouse for electronic touchscreen display
US11782599B1 (en) Virtual mouse for electronic touchscreen display
JP2015072561A (ja) 情報処理装置
EP2657821B1 (en) Method and apparatus pertaining to the interpretation of touch-based actions

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application