KR20160034776A - 디바이스 및 상기 디바이스의 제어 방법 - Google Patents

디바이스 및 상기 디바이스의 제어 방법 Download PDF

Info

Publication number
KR20160034776A
KR20160034776A KR1020140126208A KR20140126208A KR20160034776A KR 20160034776 A KR20160034776 A KR 20160034776A KR 1020140126208 A KR1020140126208 A KR 1020140126208A KR 20140126208 A KR20140126208 A KR 20140126208A KR 20160034776 A KR20160034776 A KR 20160034776A
Authority
KR
South Korea
Prior art keywords
touch gesture
touch
functions
applications
indication
Prior art date
Application number
KR1020140126208A
Other languages
English (en)
Inventor
토마즈 지다라
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140126208A priority Critical patent/KR20160034776A/ko
Priority to PCT/KR2015/006463 priority patent/WO2016047898A1/en
Priority to EP15845075.9A priority patent/EP3198390A4/en
Priority to US15/510,289 priority patent/US10592099B2/en
Priority to CN201510590662.3A priority patent/CN105446478B/zh
Publication of KR20160034776A publication Critical patent/KR20160034776A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 디바이스의 제어 방법에 관한 것으로, 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하는 단계; 수신된 상기 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하는 단계; 상기 인디케이션에 대한 사용자 입력을 수신하는 단계; 및 수신된 상기 사용자 입력에 응답하여, 상기 인디케이션에 대응하는 어플리케이션 또는 기능을 실행하는 단계를 포함한다.

Description

디바이스 및 상기 디바이스의 제어 방법{Device and method of controlling the device}
본 발명의 기술적 사상은 디바이스 및 상기 디바이스의 제어 방법에 관한 것이다.
GUI는 사용자가 그래픽을 통해 디바이스와 정보를 교환하는 작업 환경을 의미한다. 이러한 GUI의 요소들은 윈도우(window), 아이콘(icon), 메뉴, 버튼(button), 스크롤바 등을 포함한다. 사용자는 마우스 등을 이용하여 GUI의 요소들을 선택하여 디바이스를 제어할 수 있다. 최근에는 터치 방식으로 GUI의 요소들을 선택하여 디바이스를 제어하는 방법이 널리 사용되고 있다. 그러나, 사용자가 디바이스 상의 GUI의 요소들의 위치를 인식하기 곤란한 경우에는 사용자와 디바이스 사이의 정보 교환이 원활하지 않을 수 있다.
본 발명의 기술적 사상이 해결하고자 하는 과제는 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 이용하여, 사용자와 디바이스 사이의 용이한 정보 교환이 가능한 디바이스 및 그 제어 방법을 제공하는 데에 있다.
본 발명의 기술적 사상에 따르면, 디바이스의 제어 방법은 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하는 단계; 수신된 상기 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하는 단계; 상기 인디케이션에 대한 사용자 입력을 수신하는 단계; 및 수신된 상기 사용자 입력에 응답하여, 상기 인디케이션에 대응하는 어플리케이션 또는 기능을 실행하는 단계를 포함한다.
일부 실시예들에 있어서, 상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처일 수 있다.
일부 실시예들에 있어서, 상기 인디케이션을 제공하는 단계는, 상기 디바이스의 방위에 무관하게 상기 터치 제스처의 방향을 기초로 하여, 상기 순서에 따라 상기 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
일부 실시예들에 있어서, 상기 터치 제스처는 제2 터치 제스처이고, 상기 방법은, 상기 제2 터치 제스처의 수신 전에, 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제1 터치 제스처를 수신하는 단계; 및 상기 제1 터치 제스처에 따라 상기 복수의 어플리케이션들 및 기능들을 결정하는 단계를 더 포함할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처는 상기 디바이스 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제스처일 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처를 수신하는 단계는, 상기 제2 터치 제스처의 입력 중에 계속해서 상기 제1 터치 제스처를 수신할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처를 수신하는 단계 및 상기 제2 터치 제스처를 수신하는 단계는, 사용자의 양 손에 의해 상기 제1 및 제2 터치 제스처들을 각각 수신할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처를 수신하는 단계 및 상기 제2 터치 제스처를 수신하는 단계는, 사용자의 한 손의 서로 다른 손가락들에 의해 상기 제1 및 제2 터치 제스처들을 각각 수신할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처를 수신하는 단계는, 상기 디바이스 상의 한 지점을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하고, 상기 복수의 어플리케이션들 및 기능들을 결정하는 단계는, 상기 디바이스 상에 현재 디스플레이된 어플리케이션들 및 기능들이 상기 제2 터치 제스처에 의해 안내되도록 결정할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처를 수신하는 단계는, 상기 디바이스 상의 두 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하고, 상기 복수의 어플리케이션들 및 기능들을 결정하는 단계는, 상기 디바이스에서 실행 가능한 어플리케이션들 및 기능들 중 미리 결정된 적어도 하나의 어플리케이션 또는 기능에 대한 단축키가 상기 제2 터치 제스처에 의해 안내하도록 결정할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처를 수신하는 단계는, 상기 디바이스 상의 세 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하고, 상기 복수의 어플리케이션들 및 기능들을 결정하는 단계는, 상기 디바이스에서 실행 가능한 홈 기능이 상기 제2 터치 제스처에 의해 안내되도록 결정할 수 있다.
일부 실시예들에 있어서, 상기 방법은 상기 제1 터치 제스처에 응답하여, 상기 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공하는 단계를 더 포함할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처가 상기 디바이스 상의 한 지점에 대한 터치 제스처인 경우, 상기 동작 모드는 네비게이션 모드이고, 상기 제1 터치 제스처가 상기 디바이스 상의 두 지점들에 대한 터치 제스처인 경우, 상기 동작 모드는 단축키 모드이며, 상기 제1 터치 제스처가 상기 디바이스 상의 세 지점들에 대한 터치 제스처인 경우, 상기 동작 모드는 홈 기능 모드이고, 상기 제1 터치 제스처가 상기 디바이스 상의 네 지점들에 대한 터치 제스처인 경우, 상기 동작 모드는 어플리케이션 시작 모드일 수 있다.
일부 실시예들에 있어서, 상기 터치 제스처를 수신하는 단계는, 적어도 두 손가락들에 의한 제스처들을 동시에 수신할 수 있다.
일부 실시예들에 있어서, 상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 직선 또는 곡선 형태로 이동할 수 있다.
일부 실시예들에 있어서, 상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 스와이프 모드 제스처이고, 상기 인디케이션을 제공하는 단계는, 상기 디바이스에 순차적으로 입력되는 상기 스와이프 모드 제스처에 따라 상기 복수의 어플리케이션들 및 기능들에 대한 인디케이션을 순차적으로 제공할 수 있다.
일부 실시예들에 있어서, 상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 그리고 상기 제2 지점에서 제3 지점으로 연속적으로 이동하는 연속 모드 제스처이고, 상기 인디케이션을 제공하는 단계는, 상기 디바이스에 연속적으로 입력되는 상기 연속 모드 제스처에 따라 상기 복수의 어플리케이션들 및 기능들에 대한 인디케이션을 순차적으로 제공할 수 있다.
일부 실시예들에 있어서, 상기 방법은 최초로 입력된 상기 터치 제스처에 의해 상기 디바이스 상의 제1 지점에서 제2 지점으로 터치 포인트가 이동하는 경우, 상기 터치 포인트의 이동 방향을 순방향으로 결정하고, 상기 순방향과 반대되는 방향을 역방향으로 결정하는 단계를 더 포함할 수 있다.
일부 실시예들에 있어서, 상기 방법은 상기 역방향에 따른 상기 터치 제스처를 수신하는 단계를 더 포함하고, 상기 인디케이션을 제공하는 단계는, 상기 기 설정된 순서와 반대되는 순서에 따라 상기 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
일부 실시예들에 있어서, 상기 인디케이션을 제공하는 단계는, 상기 디바이스의 오디오 출력부를 통해 상기 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다.
일부 실시예들에 있어서, 상기 인디케이션을 제공하는 단계는, 상기 디바이스 상에서 상기 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 하이라이트를 디스플레이할 수 있다.
일부 실시예들에 있어서, 상기 사용자 입력을 수신하는 단계는, 상기 인디케이션을 선택하며 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제3 터치 제스처를 수신할 수 있다.
일부 실시예들에 있어서, 상기 제3 터치 제스처는 상기 디바이스 상의 한 지점에 대한 적어도 한 번의 탭 동작일 수 있다.
일부 실시예들에 있어서, 상기 디바이스는 웨어러블 디바이스이며, 상기 복수의 어플리케이션들 및 기능들은 상기 웨어러블 디바이스에 저장될 수 있다.
일부 실시예들에 있어서, 상기 디바이스는 웨어러블 디바이스이며, 상기 복수의 어플리케이션들 및 기능들은 상기 웨어러블 디바이스에 연동된 외부 디바이스에 저장될 수 있다.
또한, 본 발명의 기술적 사상에 따르면, 디바이스는 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하는 사용자 입력부; 및 입력된 상기 터치 제스처에 응답하여 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하고, 상기 인디케이션에 대응하는 어플리케이션 또는 기능이 선택되면 선택된 어플리케이션 또는 기능을 실행하는 제어부를 포함한다.
일부 실시예들에 있어서, 상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처일 수 있다.
일부 실시예들에 있어서, 상기 제어부는, 상기 디바이스의 방위에 무관하게 상기 터치 제스처의 방향을 기초로 하여, 상기 순서에 따라 상기 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
일부 실시예들에 있어서, 상기 터치 제스처는 제2 터치 제스처이고, 상기 사용자 입력부는, 상기 제2 터치 제스처의 입력 전에, 상기 디바이스 상의 GUI의 요소들의 위치에 독립적인 제1 터치 제스처를 더 입력 받고, 상기 제어부는, 상기 제1 터치 제스처에 따라 상기 복수의 어플리케이션들 및 기능들을 결정할 수 있다.
일부 실시예들에 있어서, 상기 제1 터치 제스처는 상기 디바이스 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제스처일 수 있다.
일부 실시예들에 있어서, 상기 사용자 입력부는, 상기 제2 터치 제스처의 입력 중에 계속해서 상기 제1 터치 제스처를 수신할 수 있다.
일부 실시예들에 있어서, 상기 사용자 입력부가 상기 디바이스 상의 한 지점을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하는 경우, 상기 제어부는 상기 디바이스 상에 현재 디스플레이된 어플리케이션들 및 기능들이 상기 제2 터치 제스처에 의해 안내되도록 결정하고, 상기 사용자 입력부가 상기 디바이스 상의 두 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하는 경우, 상기 제어부는 상기 디바이스에서 실행 가능한 어플리케이션들 및 기능들 중 미리 결정된 적어도 하나의 어플리케이션 또는 기능에 대한 단축키가 상기 제2 터치 제스처에 의해 안내하도록 결정하며, 상기 사용자 입력부가 상기 디바이스 상의 세 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하는 경우, 상기 제어부는 상기 디바이스에서 실행 가능한 홈 기능이 상기 제2 터치 제스처에 의해 안내되도록 결정할 수 있다.
일부 실시예들에 있어서, 상기 인디케이션은 상기 복수의 어플리케이션들 및 기능들 중 하나의 명칭에 대한 소리이고, 상기 디바이스는, 상기 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력하는 오디오 출력부를 더 포함할 수 있다.
일부 실시예들에 있어서, 상기 인디케이션은 상기 디바이스 상에서 상기 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 하이라이트이고, 상기 디바이스는, 상기 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 하이라이트를 디스플레이하는 디스플레이부를 더 포함할 수 있다.
일부 실시예들에 있어서, 상기 사용자 입력부는, 상기 인디케이션을 선택하며 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제3 터치 제스처를 더 수신할 수 있다.
일부 실시예들에 있어서, 상기 디바이스는 웨어러블 디바이스이며, 상기 복수의 어플리케이션들 및 기능들은 상기 웨어러블 디바이스 또는 상기 웨어러블 디바이스에 연동된 외부 디바이스에 저장될 수 있다.
또한, 본 발명의 기술적 사상에 따라 디바이스를 제어하는 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체에 있어서, 상기 방법은 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하는 단계; 수신된 상기 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하는 단계; 상기 인디케이션에 대한 사용자 입력을 수신하는 단계; 및 수신된 상기 사용자 입력에 응답하여, 상기 인디케이션에 대응하는 어플리케이션 또는 기능을 실행하는 단계를 포함한다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 개시의 일 실시예에 따른 디바이스를 나타낸다.
도 2는 본 개시의 일 실시예에 따른 디바이스의 제어 방법을 나타내는 흐름도이다.
도 3a 및 도 3b는 본 개시의 실시예들에 따른 디바이스에 터치 제스처를 입력하는 동작들을 나타낸다.
도 4는 본 개시의 일 실시예에 따른 디바이스의 제어 방법을 나타내는 흐름도이다.
도 5a 내지 도 5d는 본 개시의 실시예들에 따른 제1 터치 제스처들을 나타낸다.
도 6a 내지 도 6e는 본 개시의 실시예들에 따른 제2 터치 제스처들을 나타낸다.
도 7a 및 도 7b는 본 개시의 실시예들에 따른 제3 터치 제스처들을 나타낸다.
도 8 내지 도 11은 본 개시의 실시예들에 따른 제1 및 제2 터치 제스처들의 입력들을 나타낸다.
도 12는 본 개시의 일 실시예에 따른 디바이스의 제어 방법을 나타내는 흐름도이다.
도 13은 본 개시의 일 실시예에 따른 안정된 포인트의 개수에 따른 동작 모드들의 일 예를 나타내는 표이다.
도 14a 내지 도 14f는 본 개시의 일 실시예에 따른 한 손가락에 의한 제1 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 15a 내지 도 15e는 본 개시의 다른 실시예에 따른 두 손가락에 의한 제1 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 16a 내지 도 16f는 본 개시의 다른 실시예에 따른 세 손가락에 의한 제1 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 17은 본 개시의 다른 실시예에 따른 네 손가락에 의한 제1 터치 제스처의 경우, 디바이스의 동작의 일 예를 나타낸다.
도 18a 내지 도 18c는 본 개시의 일 실시예에 따른 한 손에 의한 제1 및 제2 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 19a 내지 도 19c는 본 개시의 다른 실시예에 따른 한 손에 의한 제1 및 제2 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 20a 내지 도 20c는 본 개시의 다른 실시예에 따른 한 손에 의한 제1 및 제2 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 21은 본 개시의 일 실시예에 따른 웨어러블 디바이스 및 디바이스를 나타낸다.
도 22는 본 개시의 일 실시예에 따른 디바이스의 제어 방법에 따른 웨어러블 디바이스와 디바이스의 동작들의 일 예를 나타낸다.
도 23은 본 개시의 다른 실시예에 따른 디바이스의 제어 방법에 따른 웨어러블 디바이스와 디바이스의 동작들의 다른 예를 나타낸다.
도 24a 내지 도 24c는 웨어러블 디바이스가 헤드폰인 경우, 본 개시의 일 실시예에 따른 디바이스의 제어 동작을 나타낸다.
도 25a 및 도 25b는 웨어러블 디바이스가 스마트 워치인 경우, 본 개시의 일 실시예에 따른 디바이스의 제어 동작을 나타낸다.
도 26은 본 개시의 일 실시예에 따른 웨어러블 디바이스의 구성을 설명하기 위한 블록도이다.
도 27은 도 26의 웨어러블 디바이스에 포함된 통신부의 구성의 일 예를 나타내는 블록도이다.
도 28은 본 개시의 일 실시예에 따른 디바이스의 구성을 설명하기 위한 블록도이다.
도 29는 본 개시의 일 실시예에 따른 디바이스의 소프트웨어 구성을 나타내는 블록도이다.
도 30은 본 개시의 일 실시예에 따른 디바이스의 구성을 설명하기 위한 블록도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1은 본 개시의 일 실시예에 따른 디바이스(100)를 나타낸다.
도 1을 참조하면, 디바이스(100)는 사용자(USER)의 터치 제스처를 인식할 수 있는 임의의 전자 기기이다. 예를 들어, 디바이스(100)는 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 디바이스(100)는 터치 패널, 전자 칠판, 터치 테이블 등과 같이 터치 입력을 수신할 수 있는 다양한 장치를 포함할 수 있다. 또한, 디바이스(100)는 통신 기능 및 데이터 처리 기능을 구비한 시계, 안경, 헤드폰, 헤어 밴드 및 반지 등과 같은 웨어러블(wearable) 디바이스들일 수 있다.
본 실시예에서, 디바이스(100)는 GUI(graphic user interface)의 요소들의 위치에 대해 독립적인 터치 제스처를 수신할 수 있다. GUI는 사용자(USER)가 그래픽을 통해 디바이스(100)와 정보를 교환하는 작업 환경을 의미한다. 이러한 GUI의 요소들은 윈도우, 아이콘, 메뉴, 버튼, 스크롤바 등을 포함한다. 본 실시예에서, 디바이스(100)에서 GUI의 요소들은 복수의 홈 기능 아이콘들(HI1, HI2, HI3, HI4), 복수의 어플리케이션 아이콘들(AI1, AI2, AI3, AI4) 및 날짜/시간 아이콘(TIME)을 포함할 수 있다.
일반적으로, 사용자(USER)가 디바이스(100)를 제어하고자 할 때는 터치 방식을 이용하여 디바이스(100)의 화면에 있는 아이콘을 선택하여 작업을 수행하거나, 사용자(USER)가 디바이스(100)와 정보를 교환할 때는 리모컨 등을 이용하여 화면에 있는 메뉴를 선택하여 작업을 수행한다. 그러나, 사용자(USER)가 디바이스(100)에서 GUI의 요소들의 위치를 인식하기 곤란한 경우에는 사용자(USER)와 디바이스(100) 사이의 정보 교환이 원활하지 않을 수 있다. 예를 들어, 사용자(USER)가 시각 장애인인 경우 사용자(USER)는 디바이스(100)에서 GUI의 요소들의 위치를 인식할 수 없다. 또 다른 예를 들어, 사용자(USER)가 회의 중인 경우 사용자(USER)는 디바이스(100)를 보기 어려우므로 디바이스(100)에서 GUI의 요소들의 위치를 인식하기 어렵다.
본 실시예에 따르면, 디바이스(100)는 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하고, 수신한 터치 제스처에 따라 어플리케이션 또는 기능을 수행할 수 있다. 구체적으로, 본 실시예에 따르면, 디바이스(100)는 수신한 터치 제스처에 응답하여 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션(IND)을 제공하고, 인디케이션(IND)에 대한 사용자 입력에 따라 선택된 어플리케이션 또는 기능을 수행할 수 있다. 따라서, 사용자(USER)가 디바이스(100)에서 GUI의 요소들의 위치를 인식하기 곤란한 경우에도 사용자(USER)와 디바이스(100) 사이의 정보 교환이 원활하게 이루어질 수 있다.
도 2는 본 개시의 일 실시예에 따른 디바이스의 제어 방법을 나타내는 흐름도이다.
도 2를 참조하면, 본 실시예에 따른 디바이스의 제어 방법은 디바이스에서 수신된 터치 제스처에 따라 어플리케이션 또는 기능을 수행하는 방법으로써, 디바이스에서 수행되는 아래의 단계들을 포함한다. 예를 들어, 본 실시예에 따른 디바이스의 제어 방법은 도 1의 디바이스(100)에서 시계열적으로 처리되는 단계들을 포함할 수 있다.
단계 S200에서, 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신한다. 여기서, 터치 제스처는 디바이스 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 디바이스의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 따라서, 디바이스 상에서 터치 제스처에 의해 터치된 지점의 위치는 고려하지 않아도 된다. 예를 들어, 터치 제스처는 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처일 수 있다.
단계 S210에서, 터치 제스처에 응답하여 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공한다. 여기서, 기 설정된 순서는 사용자에 의해 미리 설정될 수도 있고, 디바이스 내의 운영체제에 의해 미리 설정될 수도 있다. 또한, 복수의 어플리케이션들 및 기능들은 터치 제스처의 종류에 따라 다르게 결정될 수 있다.
일 실시예에서, 인디케이션은 소리일 수 있고, 단계 S210은 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 제공할 수 있다. 다른 실시예에서, 인디케이션은 그래픽일 수 있고, 단계 S210은 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 아이콘에 대한 예를 들어, 하이라이트(highlight)를 제공할 수 있다.
단계 S220에서, 인디케이션에 대한 사용자 입력을 수신한다. 일 실시예에서, 사용자 입력은 터치 제스처일 수 있고, 다른 실시예에서, 사용자 입력은 버튼의 조작일 수 있다. 일 실시예에서, 사용자가 단계 S210에 따른 인디케이션에 대응하는 어플리케이션 또는 기능을 선택하고자 하는 경우, 디바이스는 선택 동작에 대응하는 사용자 입력을 수신할 수 있고, 이어서 단계 S230이 수행된다. 다른 실시예에서, 사용자가 단계 S210에 따른 인디케이션을 선택하고자 하지 않는 경우, 단계 S200이 수행되어 디바이스는 터치 제스처를 다시 수신할 수 있다.
단계 S230에서, 사용자 입력에 응답하여 인디케이션에 대응하는 어플리케이션 또는 기능을 실행한다. 일 실시예에서, 디바이스에 저장된 어플리케이션 또는 기능을 실행할 수 있다. 다른 실시예에서, 디바이스에 연동된 외부 디바이스에 저장된 어플리케이션 또는 기능을 실행할 수도 있다.
도 3a 및 도 3b는 본 개시의 실시예들에 따른 디바이스(100)에 터치 제스처를 입력하는 동작들을 나타낸다.
도 3a 및 도 3b에 예시된 터치 제스처들은 도 2의 단계 S200에 따른 터치 제스처일 수 있다. 도 3a 및 도 3b를 참조하면, 사용자(USER)는 디바이스(100) 상의 GUI의 요소들의 위치에 독립적인 터치 제스처를 수행할 수 있다. 다시 말해, 사용자(USER)는 디바이스(100) 상의 특정 어플리케이션이나 기능을 지시하는 터치 제스처를 수행하지 않고, 디바이스(100) 상의 임의의 지점에 대한 터치 제스처를 수행할 수 있다. 따라서, 디바이스 상에서 터치 제스처에 의해 터치된 지점의 위치는 고려하지 않아도 된다. 이때, 터치 제스처는 디바이스(100)의 터치 영역 상의 제1 지점(P1)에서 제2 지점(P2)으로 이동하는 이동 제스처일 수 있다.
본 실시예에 따르면, 디바이스(100)는 디바이스(100)의 방위(orientation)에 무관하게 터치 제스처의 방향(direction)을 기초로 하여 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다. 구체적으로, 디바이스(100)는 최초로 입력된 터치 제스처의 방향을 기초로 하여 복수의 어플리케이션들 및 기능들의 제공 순서를 결정할 수 있고, 디바이스(100)의 방위가 변경되더라도 복수의 어플리케이션들 및 기능들의 제공 순서를 유지할 수 있다.
도 3a에서는 디바이스(100)의 방위는 터치 제스처의 방향과 실질적으로 수직일 수 있다. 도 3b에서 디바이스(100)의 방위는 터치 제스처의 방향과 실질적으로 평행할 수 있다. 이와 같이, 사용 중에 디바이스(100)의 방위가 변경되더라도 입력되는 터치 제스처의 방향을 기초로 하여 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
구체적으로, 현재 입력되는 터치 제스처의 방향이 최초로 입력된 터치 제스처의 방향과 동일한 경우, 디바이스(100)는 기 설정된 순서에 따라 인디케이션을 제공할 수 있다. 한편, 현재 입력되는 터치 제스처의 방향이 최초로 입력된 터치 제스처의 방향과 다른 경우, 디바이스(100)는 기 설정된 순서와 반대되는 순서에 따라 인디케이션을 제공할 수 있다.
도 4는 본 개시의 일 실시예에 따른 디바이스의 제어 방법을 나타내는 흐름도이다.
도 4를 참조하면, 본 실시예에 따른 디바이스의 제어 방법은 디바이스에서 수신된 터치 제스처에 따라 어플리케이션 또는 기능을 수행하는 방법으로써, 디바이스에서 수행되는 아래의 단계들을 포함한다. 예를 들어, 본 실시예에 따른 디바이스의 제어 방법은 도 1의 디바이스(100)에서 시계열적으로 처리되는 단계들을 포함할 수 있다. 본 실시예에 따른 디바이스의 제어 방법은 도 2의 방법에 비해 단계 S400 및 S410을 더 포함할 수 있고, 단계 S420 내지 S450은 도 2의 단계 S200 내지 S230과 유사할 수 있다.
단계 S400에서, 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제1 터치 제스처를 수신한다. 여기서, 제1 터치 제스처는 디바이스 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 디바이스의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 따라서, 디바이스 상에서 제1 터치 제스처에 의해 터치된 지점의 위치는 고려하지 않아도 된다. 예를 들어, 제1 터치 제스처는 디바이스의 터치 영역 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제스처일 수 있다.
단계 S410에서, 제1 터치 제스처에 따라 복수의 어플리케이션들 및 기능들을 결정한다. 구체적으로, 디바이스는 제1 터치 제스처에 의해 디바이스 상에서 터치된 지점의 개수에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다.
단계 S420에서, 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제2 터치 제스처를 수신한다. 이때, 제2 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다. 여기서, 제2 터치 제스처는 디바이스 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 디바이스의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 따라서, 디바이스 상에서 제2 터치 제스처에 의해 터치된 지점의 위치는 고려하지 않아도 된다. 예를 들어, 제2 터치 제스처는 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처일 수 있다.
단계 S430에서, 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공한다. 여기서, 기 설정된 순서는 사용자에 의해 미리 설정될 수도 있고, 디바이스 내의 운영체제에 의해 미리 설정될 수도 있다. 또한, 복수의 어플리케이션들 및 기능들은 터치 제스처의 종류에 따라 다르게 결정될 수 있다.
일 실시예에서, 인디케이션은 소리일 수 있고, 단계 S430에서 디바이스는 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다. 다른 실시예에서, 인디케이션은 그래픽일 수 있고, 단계 S430에서 디바이스는 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 상기 아이콘에 대한 하이라이트를 디스플레이할 수 있다.
단계 S440에서, 인디케이션에 대한 제3 터치 제스처를 수신한다. 이때, 제3 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다. 일 실시예에서, 제3 터치 제스처는 인디케이션에 대응하는 어플리케이션 또는 기능을 선택하기 위한 사용자 입력일 수 있다. 여기서, 제3 터치 제스처는 디바이스 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 디바이스의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 따라서, 디바이스 상에서 제3 터치 제스처에 의해 터치된 지점의 위치는 고려하지 않아도 된다. 예를 들어, 제3 터치 제스처는 디바이스 상의 한 지점에 대한 탭 또는 더블 탭 동작일 수 있다.
단계 S450에서, 제3 터치 제스처에 응답하여, 인디케이션에 대응하는 어플리케이션 또는 기능을 실행한다. 일 실시예에서, 디바이스에 저장된 어플리케이션 또는 기능이 실행될 수 있다. 다른 실시예에서, 디바이스에 연동된 외부 디바이스에 저장된 어플리케이션 또는 기능이 실행될 수도 있다.
도 5a 내지 도 5d는 본 개시의 실시예들에 따른 제1 터치 제스처들을 나타낸다.
도 5a 내지 도 d를 참조하면, 사용자(USER)는 디바이스 상의 터치 영역(touch area)(TA)을 터치함으로써 제1 터치 제스처를 수행할 수 있다. 여기서, 터치 영역(TA)은 터치 센서가 내장된 임의의 영역일 수 있다. 터치 영역(TA)은 디바이스의 전면, 후면 또는 측면에 대응할 수 있다.
도 5a에서, 사용자(USER)는 한 손가락으로 터치 영역(TA)을 임계 시간 이상 동안 터치할 수 있고, 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 안정된 지점(stable point)(SP1)을 감지할 수 있다. 도 5b에서, 사용자(USER)는 두 손가락들로 터치 영역(TA)을 임계 시간 이상 동안 동시에 터치할 수 있고, 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 및 제2 안정된 지점들(SP1, SP2)을 감지할 수 있다.
도 5c에서, 사용자(USER)는 세 손가락들로 터치 영역(TA)을 임계 시간 이상 동안 동시에 터치할 수 있고, 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 내지 제3 안정된 지점들(SP1, SP2, SP3)을 감지할 수 있다. 도 5d에서, 사용자사용자(USER)는 네 손가락들로 터치 영역(TA)을 임계 시간 이상 동안 동시에 터치할 수 있고, 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 내지 제4 안정된 지점들(SP1, SP2, SP3, SP3)을 감지할 수 있다.
도 5a 내지 도 5d에서 상술된 예들에서, 사용자(USER)의 손가락에 의해 제1 터치 제스처가 수행되는 것으로 도시되었지만, 사용자(USER)가 터치 영역(TA) 상에 터치하는 신체 부위는 손가락으로 한정되지 않는다. 또한, 다른 실시예에서, 사용자(USER)는 신체 부위가 아닌 스타일러스(stylus) 펜과 같은 좌표 표시 장치를 이용하여 터치 영역(TA) 상에 제1 터치 제스처를 수행할 수 있다.
도 6a 내지 도 6e는 본 개시의 실시예들에 따른 제2 터치 제스처들을 나타낸다.
도 6a 내지 도 6e를 참조하면, 사용자(USER)는 디바이스 상의 터치 영역(TA)을 터치함으로써 제2 터치 제스처를 수행할 수 있다. 여기서, 터치 영역(TA)은 터치 센서가 내장된 임의의 영역일 수 있다. 터치 영역(TA)은 디바이스의 전면, 후면 또는 측면에 대응할 수 있다.
도 6a에서, 사용자(USER)는 한 손가락이 터치 영역(TA) 상의 제1 이동 가능 지점(movable point)(MP1)에서 제2 이동 가능 지점(MP2)으로 직선 형태로 이동하도록 터치 영역(TA)을 터치할 수 있다. 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로의 제1 방향의 터치 제스처를 감지할 수 있다.
도 6b에서, 사용자(USER)는 한 손가락이 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로 곡선 형태로 이동하도록 터치 영역(TA)을 터치할 수 있다. 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로의 제1 방향의 터치 제스처를 감지할 수 있다.
도시되지는 않았으나, 다른 실시예에서, 사용자(USER)는 손가락이 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로 임의의 행태로, 예를 들어, 지그재그 형태 또는 물결 형태로 이동하도록 터치할 수 있다. 이와 같이, 터치 제스처의 타입에 관계 없이, 이동하는 터치 제스처가 입력된 경우 디바이스는 입력된 터치 제스처를 제2 터치 제스처로 판단할 수 있다.
도 6c에서, 사용자(USER)는 한 손가락이 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로 이동하도록 스와이프(swipe) 모드로 터치 영역(TA)을 터치할 수 있다. 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로의 제1 방향의 터치 제스처를 감지할 수 있다. 이와 같이, 제2 터치 제스처가 스와이프 모드인 경우, 사용자(USER)는 원하는 어플리케이션 또는 기능에 대한 인디케이션이 제공될 때까지, 제2 터치 제스처를 간헐적으로 반복 수행할 수 있다.
도 6d에서, 사용자(USER)는 한 손가락이 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로 이동하도록 그리고 이어서 제2 이동 가능 지점(MP2)에서 제3 이동 가능 지점(MP3)으로 이동하도록 연속(continuous) 모드로 터치 영역(TA)을 터치할 수 있다. 이에 따라, 디바이스는 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로의, 그리고 제2 이동 가능 지점(MP2)에서 제3 이동 가능 지점(MP3)으로의 제1 방향의 터치 제스처를 감지할 수 있다. 이와 같이, 제2 터치 제스처가 연속 모드인 경우, 사용자(USER)는 원하는 어플리케이션 또는 기능에 대한 인디케이션이 제공될 때까지, 제2 터치 제스처를 연속적으로 계속 수행할 수 있다.
도 6e에서, 사용자(USER)는 한 손가락이 터치 영역(TA) 상의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로 이동하도록, 그리고 다른 손가락이 터치 영역(TA) 상의 제3 이동 가능 지점(MP3)에서 제4 이동 가능 지점(MP4)으로 이동하도록 터치 영역(TA)을 터치할 수 있다. 이와 같이, 사용자(USER)는 두 손가락들로 제2 터치 제스처를 동시에 수행할 수 있다. 그러나, 본 발명은 이에 한정되지 않고, 다른 실시예에서, 사용자(USER)는 세 손가락들, 네 손가락들 또는 다섯 손가락들로 제2 터치 제스처를 동시에 수행할 수 있다. 이와 같이, 제2 터치 제스처를 수행하는 손가락의 개수에 따라 인디케이션되는 어플리케이션들 및 기능들의 종류가 변경될 수 있다.
도 7a 및 도 7b는 본 개시의 실시예들에 따른 제3 터치 제스처들을 나타낸다.
도 7a 및 도 7b를 참조하면, 사용자(USER)는 디바이스 상의 터치 영역(TA)을 터치함으로써 제3 터치 제스처를 수행할 수 있다. 여기서, 터치 영역(TA)은 터치 센서가 내장된 임의의 영역일 수 있다. 터치 영역(TA)은 디바이스의 전면, 후면 또는 측면에 대응할 수 있다.
도 7a에서, 사용자(USER)는 한 손가락으로 터치 영역(TA) 상의 제1 액션 가능 지점(actionable point)(AP1)을 터치할 수 있고, 예를 들어, 탭핑(tapping)할 수 있고, 이에 따라, 디바이스는 제3 터치 제스처를 감지할 수 있다. 도 7b에서, 사용자(USER)는 한 손가락으로 터치 영역(TA) 상의 제1 액션 가능 지점(AP1)을 두 번 터치할 수 있고, 예를 들어, 더블 탭핑(double tapping)할 수 있고, 이에 따라, 디바이스는 제3 터치 제스처를 감지할 수 있다. 그러나, 본 발명은 이에 한정되지 않고, 다른 실시예에서, 사용자(USER)는 두 손가락 이상으로 제1 액션 가능 지점(AP1)을 터치할 수 있고, 또 다른 실시예에서, 사용자(USER)는 세 번 이상 제1 액션 가능 지점(AP1)을 터치할 수도 있다.
이상에서는 제1 내지 제3 터치 제스처들에 대해 상술하였으나, 본 발명은 이에 한정되지 않는다. 제1 내지 제3 터치 제스처들은 실시예에 따라 다양하게 변경될 수 있으며, 예를 들어, 제1 내지 제3 터치 제스처들에는 탭, 더블탭, 드래그, 스와이프, 플릭, 드래그 앤드 드롭 등이 있을 수 있다.
여기서, "탭(tap)"은 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)를 이용하여 화면을 터치한 후 움직이지 않은 채 화면에서 즉시 들어올리는 동작을 나타낸다. "더블 탭(double tap)"은 사용자가 손가락이나 터치 도구(stylus)를 이용하여 화면을 두 번 터치하는 동작을 나타낸다.
"드래그(drag)"는 사용자가 손가락이나 터치 도구를 화면에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. 드래그 동작으로 인하여 오브젝트가 이동되거나 후술할 패닝 동작이 수행된다. "플릭(flick)"은 사용자가 손가락이나 터치 도구를 이용하여 임계 속도(예컨대, 100 pixel/s) 이상으로 드래그하는 동작을 나타낸다. 손가락이나 터치 도구의 이동 속도가 임계 속도(예컨대, 100 pixel/s) 이상인지에 기초하여 드래그(또는 패닝)와 플릭을 구별할 수 있다.
"드래그 앤드 드롭(drag & drop)"은 사용자가 손가락이나 터치 도구를 이용해 오브젝트를 화면 내 소정 위치에 드래그한 후 놓는 동작을 의미한다. "스와이프(swipe)"는 손가락이나 터치 도구로 화면 위의 오브젝트를 터치한 상태에서 수평 또는 수직 방향으로 일정 거리를 움직이는 동작이다. 사선 방향의 움직임은 스와이프 이벤트로 인식되지 않을 수 있다.
도 8 내지 도 11은 본 개시의 실시예들에 따른 제1 및 제2 터치 제스처들의 입력들을 나타낸다.
도 8을 참조하면, 디바이스(100)가 잠금(locked) 모드인 경우, 즉, 비활성화된 경우에도 사용자가 디바이스(100)의 전면, 즉, 디스플레이 패널에 대해 제1 내지 제2 터치 제스처들을 취함으로써, 상술된 본 실시예에 따른 디바이스의 제어 방법을 수행할 수 있다. 이하에서는, 사용자가 양손으로 제1 및 제2 터치 제스처들을 각각 수행하는 경우에 대해 상술하지만, 본 발명은 이에 한정되지 않고, 사용자는 한 손으로 제1 및 제2 터치 제스처들을 수행할 수도 있다.
구체적으로, 사용자는 한 손(H1)으로 디바이스(100)의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 취함으로써, 디바이스(100)는 제1 안정된 지점(SP1)을 감지할 수 있다. 이에 따라, 디바이스(100)의 잠금 모드가 해제되어 디바이스(100)가 활성화될 수 있으며, 디바이스(100)는 복수의 어플리케이션들 및 기능들을 결정할 수 있다.
이어서, 사용자는 다른 한 손(H2)으로 디바이스(100)의 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로 이동하는 제2 터치 제스처를 취함으로써, 디바이스(100)는 제1 이동 가능 지점(MP1)에서 제2 이동 가능 지점(MP2)으로의 제1 방향의 제2 터치 제스처를 감지할 수 있다. 이에 따라, 디바이스(100)는 기 설정된 순서에 따라 복수의 어플리케이선들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
도 9를 참조하면, 디스플레이 패널이 배치되지 않은 디바이스(100)의 후면에 터치 센서가 내장된 경우, 디바이스(100)의 후면에 대해 제1 및 제2 터치 제스처들을 취함으로써, 상술된 본 실시예에 따른 디바이스의 제어 방법을 수행할 수 있다. 구체적인 동작은 도 8에서 상술된 내용과 유사하므로 생략하기로 한다.
도 10을 참조하면, 디바이스(100)의 측면에 터치 센서가 내장된 경우, 디바이스(100)의 측면에 대해 제1 및 제2 터치 제스처들을 취함으로써, 상술된 본 실시예에 따른 디바이스의 제어 방법을 수행할 수 있다. 구체적인 동작은 도 8에서 상술된 내용과 유사하므로 생략하기로 한다. 도시되지는 않았지만, 디바이스의(100)의 베젤(bezel) 영역에 터치 센서가 내장된 경우, 디바이스(100)의 베젤 영역에 대해 제1 및 제2 터치 제스처들을 취함으로써, 상술된 본 실시예에 따른 디바이스의 제어 방법을 수행할 수 있다.
도 11을 참조하면, 디바이스(100) 상에 커버(COV)가 씌워지고, 커버(COV)에 터치 센서가 내장된 경우, 디바이스(100) 상의 커버(COV)에 대해 제1 및 제2 터치 제스처들을 취함으로써, 상술된 본 실시예에 따른 디바이스의 제어 방법을 수행할 수 있다. 구체적인 동작은 도 8에서 상술된 내용과 유사하므로 생략하기로 한다.
도 12는 본 개시의 일 실시예에 따른 디바이스의 제어 방법을 나타내는 흐름도이다.
도 12를 참조하면, 본 실시예에 따른 디바이스의 제어 방법은 디바이스에서 수신된 터치 제스처에 따라 어플리케이션 또는 기능을 수행하는 방법으로써, 디바이스에서 수행되는 아래의 단계들을 포함한다. 예를 들어, 본 실시예에 따른 디바이스의 제어 방법은 도 1의 디바이스(100)에서 시계열적으로 처리되는 단계들을 포함할 수 있다. 본 실시예에 따른 디바이스의 제어 방법은 도 4의 방법에 비해 단계 S1220을 더 포함할 수 있고, 단계 S1200 및 S1210, 단계 S1230 내지 S1260은 도 4의 단계 S400 내지 S450과 유사할 수 있다.
단계 S1200에서, 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제1 터치 제스처를 수신한다. 여기서, 제1 터치 제스처는 디바이스 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 디바이스의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 예를 들어, 제1 터치 제스처는 디바이스 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제스처일 수 있다.
단계 S1210에서, 제1 터치 제스처에 응답하여, 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공한다. 일 실시예에서, 인디케이션은 소리일 수 있고, 단계 S1210에서 디바이스는 동작 모드의 명칭을 소리로 출력할 수 있다. 다른 실시예에서, 인디케이션은 그래픽일 수 있고, 단계 S1210에서 디바이스는 동작 모드를 나타내는 아이콘을 디스플레이할 수 있다.
단계 S1220에서, 제1 터치 제스처에 따라 복수의 어플리케이션들 및 기능들을 결정한다. 구체적으로, 디바이스는 제1 터치 제스처에 의해 디바이스 상에서 터치된 지점의 개수에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다. 실시예에 따라, 단계 S1210 및 S1220의 순서를 변경될 수 있다.
단계 S1230에서, 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제2 터치 제스처를 수신한다. 이때, 제2 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다. 여기서, 제2 터치 제스처는 디바이스 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 디바이스의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 예를 들어, 제2 터치 제스처는 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처일 수 있다.
단계 S1240에서, 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공한다. 여기서, 기 설정된 순서는 사용자에 의해 미리 설정될 수도 있고, 디바이스 내의 운영체제에 의해 미리 설정될 수도 있다. 또한, 복수의 어플리케이션들 및 기능들은 제1 터치 제스처의 종류에 따라 다르게 결정될 수 있다. 일 실시예에서, 인디케이션은 소리일 수 있고, 단계 S1240에서 디바이스는 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다. 다른 실시예에서, 인디케이션은 그래픽일 수 있고, 단계 S1240에서 디바이스는 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 상기 아이콘에 대한 하이라이트를 디스플레이할 수 있다.
단계 S1250에서, 인디케이션에 대한 제3 터치 제스처를 수신한다. 이때, 제3 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다. 일 실시예에서, 제3 터치 제스처는 인디케이션에 대응하는 어플리케이션 또는 기능을 선택하기 위한 사용자 입력일 수 있다. 여기서, 제3 터치 제스처는 디바이스 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 디바이스의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 예를 들어, 제3 터치 제스처는 디바이스 상의 한 지점에 대한 탭 또는 더블 탭 동작일 수 있다.
단계 S1260에서, 제3 터치 제스처에 응답하여, 인디케이션에 대응하는 어플리케이션 또는 기능을 실행한다. 일 실시예에서, 디바이스에 저장된 어플리케이션 또는 기능이 실행될 수 있다. 다른 실시예에서, 디바이스에 연동된 외부 디바이스에 저장된 어플리케이션 또는 기능이 실행될 수도 있다.
도 13은 본 개시의 일 실시예에 따른 안정된 포인트의 개수에 따른 동작 모드들의 일 예를 나타내는 표이다.
도 13을 참조하면, 제1 터치 제스처에 따른 안정된 포인트가 한 개인 경우, 예를 들어, 도 5a의 경우, 제1 터치 제스처에 따른 동작 모드는 내비게이션(navigation) 모드일 수 있다. 여기서, 내비게이션 모드는 디바이스 상에 현재 디스플레이된 어플리케이션들 및 기능들에 대응하는 아이콘들에 대한 인디케이션을 사용자에게 제공하는 모드일 수 있다. 구체적으로, 내비게이션 모드에서, 디바이스는 제2 터치 제스처가 입력되면, 디바이스 상에 현재 디스플레이된 아이콘들 중 하나에 대한 인디케이션을 제공할 수 있다.
제1 터치 제스처에 따른 안정된 포인트가 두 개인 경우, 예를 들어, 도 5b의 경우, 제1 터치 제스처에 따른 동작 모드는 단축키(shortcut) 모드일 수 있다. 여기서, 단축키 모드는 디바이스에서 실행 가능한 어플리케이션들 및 기능들 중 미리 결정된 적어도 하나의 어플리케이션 또는 기능에 대응하는 단축키에 대한 인디케이션을 사용자에게 제공하는 모드일 수 있다. 이때, 미리 결정된 적어도 하나의 어플리케이션 또는 기능은, 사용자에 의해 미리 결정될 수도 있고, 디바이스의 운영 체제에 의해 미리 결정될 수도 있다. 구체적으로, 단축키 모드에서, 디바이스는 제2 터치 제스처가 입력되면, 디바이스 상에 디스플레이 되었는지 여부에 관계 없이, 미리 결정된 어플리케이션들 및 기능들 중 하나에 대응하는 단축키에 대한 인디케이션을 제공할 수 있다.
제1 터치 제스처에 따른 안정된 포인트가 세 개인 경우, 예를 들어, 도 5c의 경우, 제1 터치 제스처에 따른 동작 모드는 홈 기능(home functionality) 모드일 수 있다. 여기서, 홈 기능 모드는 디바이스에서 실행 가능한 홈 기능에 대한 인디케이션을 사용자에게 제공하는 모드일 수 있다. 구체적으로, 홈 기능 모드에서, 디바이스는 제2 터치 제스처가 입력되면, 디바이스에서 실행 가능한 홈 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
제1 터치 제스처에 따른 안정된 포인트가 네 개인 경우, 예를 들어, 도 5d의 경우, 제1 터치 제스처에 따른 동작 모드는 어플리케이션 시작(launch) 모드일 수 있다. 여기서, 어플리케이션 시작 모드는 어플리케이션 또는 기능에 대한 선택 동작일 수 있다. 구체적으로, 어플리케이션 시작 모드에서, 디바이스는 선택된 어플리케이션 또는 기능을 바로 수행할 수 있다.
도 14a 내지 도 14f는 본 개시의 일 실시예에 따른 한 손가락에 의한 제1 터치 제스처의 경우, 디바이스(100)의 순차적인 동작들의 일 예를 나타낸다.
도 14a를 참조하면, 사용자는 한 손(H1)의 한 손가락으로 디바이스(100) 상의 한 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수행할 수 있다. 이에 따라, 디바이스(100)는 제1 안정된 지점(SP1)을 감지하고, 제1 터치 제스처에 따른 동작 모드에 대한 제1 인디케이션(IND1)을 제공할 수 있다. 예를 들어, 디바이스(100)는 제1 터치 제스처에 따른 "내비게이션 모드"를 소리로 출력할 수 있다.
도 14b를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 디바이스(100)에 현재 디스플레이된 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제1 방향에 따른 제2 터치 제스처에 응답하여 "보너스 카드"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "보너스 카드"에 해당하는 아이콘에 대한 제2 인디케이션(IND2)인 하이라이트를 디스플레이할 수 있다.
본 실시예에서, 최초로 입력된 제2 터치 제스처의 제1 방향을 순방향으로 결정하고, 제1 방향과 반대되는 제2 방향을 역방향으로 결정할 수 있다. 디바이스(100)는 순방향인 제1 방향으로 제2 터치 제스처가 입력되면 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 다음(next) 어플리케이션 또는 기능에 대한 인디케이션을 제공할 수 있다. 한편, 디바이스(100)는 역방향인 제2 방향으로 제2 터치 제스처가 입력되면 기 설정된 순서와 반대되는 순서에 따라 복수의 어플리케이션들 및 기능들 중 이전(previous) 어플리케이션 또는 기능에 대한 인디케이션을 제공할 수 있다.
도 14c를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 이동 가능 지점(MP)을 감지하고, 제2 터치 제스처에 응답하여 다음 어플리케이션 또는 기능에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제1 방향에 따른 제2 터치 제스처에 응답하여 다음 어플리케이션인 "지도"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "지도"에 해당하는 아이콘에 대한 제2 인디케이션(IND2)인 하이라이트를 디스플레이할 수 있다.
도 14d를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제2 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 이동 가능 지점(MP)을 감지하고, 제2 터치 제스처에 응답하여 이전 어플리케이션 또는 기능에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 방향에 따른 제2 터치 제스처에 응답하여 이전 어플리케이션인 "보너스 카드"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "보너스 카드"에 해당하는 아이콘에 대한 제2 인디케이션(IND2)인 하이라이트를 디스플레이할 수 있다.
도 14e를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제3 터치 제스처를 수행할 수 있고, 이에 따라, 디바이스(100)는 액션 가능 지점(AP)을 감지할 수 있다.
도 14f를 참조하면, 디바이스(100)는 제3 터치 제스처에 응답하여 인디케이션에 대응하는 어플리케이션 또는 기능을 실행할 수 있다. 예를 들어, 디바이스(100)는 제3 터치 제스처에 응답하여 도 14d의 인디케이션에 대응하는 어플리케이션인 "보너스 카드"를 실행할 수 있고, 이에 따라, 디바이스(100)의 디스플레이되는 화면은 "보너스 카드" 어플리케이션의 시작 화면으로 변경될 수 있다. 또한, 디바이스(100)는 어플리케이션의 실행과 함께, "시작되었습니다."를 제1 인디케이션(IND1)인 소리로 출력할 수 있다.
도 15a 내지 도 15e는 본 개시의 다른 실시예에 따른 두 손가락에 의한 제1 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 15a를 참조하면, 사용자는 한 손(H1)의 두 손가락들로 디바이스(100) 상의 두 지점을 임계 시간 이상 동안 동시에 터치하는 제1 터치 제스처를 수행할 수 있다. 이에 따라, 디바이스(100)는 제1 및 제2 안정된 지점들(SP1, SP2)을 감지하고, 제1 터치 제스처에 따른 동작 모드에 대한 제1 인디케이션(IND1)을 제공할 수 있다. 예를 들어, 디바이스(100)는 제1 터치 제스처에 따른 "단축키 모드"를 소리로 출력할 수 있다.
도 15b를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 디바이스(100)에서 실행 가능한 복수의 어플리케이션들 및 기능들 중 미리 결정된 어플리케이션들 및 기능들 중 하나에 대응하는 단축키에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 "즐겨찾기(favorite calls)"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "즐겨찾기"에 해당하는 단축키(SC1)를 디스플레이할 수 있다.
본 실시예에서, 최초로 입력된 제2 터치 제스처의 제1 방향을 순방향으로 결정하고, 제1 방향과 반대되는 제2 방향을 역방향으로 결정할 수 있다. 디바이스(100)는 순방향인 제1 방향으로 제2 터치 제스처가 입력되면 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 다음 어플리케이션 또는 기능에 대응하는 단축키에 대한 인디케이션을 제공할 수 있다. 한편, 디바이스(100)는 역방향인 제2 방향으로 제2 터치 제스처가 입력되면 기 설정된 순서와 반대되는 순서에 따라 복수의 어플리케이션들 및 기능들 중 이전 어플리케이션 또는 기능에 대응하는 단축키에 대한 인디케이션을 제공할 수 있다.
도 15c를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 다음 어플리케이션 또는 기능에 대응하는 단축키에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 기능인 "메시지(message)"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "메시지"에 해당하는 단축키(SC2)를 디스플레이할 수 있다.
도 15d를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 다음 어플리케이션 또는 기능에 대응하는 단축키에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 기능인 "현재 시간(current time)"을 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "현재 시간"에 해당하는 단축키(SC3)를 디스플레이할 수 있다.
도시되지는 않았으나, 사용자가 다른 한 손(H2)의 한 손가락으로 제2 방향에 따른 제2 터치 제스처를 수행할 경우, 디바이스(100)는 제2 터치 제스처에 응답하여 이전 어플리케이션 또는 기능에 대응하는 단축키에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 이전 기능인 "메시지"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "메시지"에 해당하는 단축키(SC2)를 디스플레이할 수 있다.
도 15e를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제3 터치 제스처를 수행할 수 있고, 이에 따라, 디바이스(100)는 액션 가능 지점(AP)을 감지할 수 있다.
도 15f를 참조하면, 디바이스(100)는 제3 터치 제스처에 응답하여 인디케이션에 대응하는 어플리케이션 또는 기능을 실행할 수 있다. 예를 들어, 디바이스(100)는 제3 터치 제스처에 응답하여 도 15d의 인디케이션에 대응하는 기능인 "현재 시간"을 실행할 수 있고, 이에 따라, 디바이스(100)는 기능의 실행 결과를, 예를 들어, "현재 시간은 13시 43분입니다."라는 소리로 출력할 수 있다.
도 16a 내지 도 16f는 본 개시의 다른 실시예에 따른 세 손가락에 의한 제1 터치 제스처의 경우, 디바이스의 순차적인 동작들의 일 예를 나타낸다.
도 16a를 참조하면, 사용자는 한 손(H1)의 세 손가락들로 디바이스(100) 상의 세 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수행할 수 있다. 이에 따라, 디바이스(100)는 제1 내지 제3 안정된 지점들(SP1, SP2, SP3)을 감지하고, 제1 터치 제스처에 따른 동작 모드에 대한 제1 인디케이션(IND1)을 제공할 수 있다. 예를 들어, 디바이스(100)는 제1 터치 제스처에 따른 "홈 기능 모드"를 소리로 출력할 수 있다.
도 16b를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 디바이스(100)에서 실행 가능한 복수의 홈 기능들 중 하나에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 "전화(call)"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "전화"에 해당하는 아이콘(HF1)을 디스플레이할 수 있다.
본 실시예에서, 최초로 입력된 제2 터치 제스처의 제1 방향을 순방향으로 결정하고, 제1 방향과 반대되는 제2 방향을 역방향으로 결정할 수 있다. 디바이스(100)는 순방향인 제1 방향으로 제2 터치 제스처가 입력되면 기 설정된 순서에 따라 복수의 홈 기능들 중 다음 홈 기능에 대한 인디케이션을 제공할 수 있다. 한편, 디바이스(100)는 역방향인 제2 방향으로 제2 터치 제스처가 입력되면 기 설정된 순서와 반대되는 순서에 따라 복수의 홈 기능들 중 이전 홈 기능에 대한 인디케이션을 제공할 수 있다.
도 16c를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 다음 홈 기능에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 홈 기능인 "메일(mail)"을 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "메일"에 해당하는 아이콘(HF2)을 디스플레이할 수 있다.
도 16d를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 다음 홈 기능에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 홈 기능인 "카메라"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "카메라"에 해당하는 아이콘(HF3)을 디스플레이할 수 있다.
도 16e를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여 디바이스(100)에서 실행 가능한 복수의 홈 기능들 중 하나에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 "즐겨찾기"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "즐겨찾기"에 해당하는 아이콘(HF4)을 디스플레이할 수 있다.
도시되지는 않았으나, 사용자가 다른 한 손(H2)의 한 손가락으로 제2 방향에 따른 제2 터치 제스처를 수행할 경우, 디바이스(100)는 제2 터치 제스처에 응답하여 이전 홈 기능키에 대한 인디케이션들을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 이전 홈 기능인 "카메라"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "카메라"에 해당하는 아이콘(HF4)을 디스플레이할 수 있다.
도 16f를 참조하면, 사용자는 다른 한 손(H2)의 한 손가락으로 제3 터치 제스처를 수행할 수 있고, 이에 따라, 디바이스(100)는 액션 가능 지점(AP)을 감지할 수 있다.
도 16g를 참조하면, 디바이스(100)는 제3 터치 제스처에 응답하여 인디케이션에 대응하는 홈 기능을 실행할 수 있다. 예를 들어, 디바이스(100)는 제3 터치 제스처에 응답하여 도 16e의 인디케이션에 대응하는 홈 기능인 "즐겨찾기"를 실행할 수 있고, 이에 따라, 디바이스(100)의 화면은 "즐겨찾기"로 변경될 수 있다.
도 17은 본 개시의 다른 실시예에 따른 네 손가락에 의한 제1 터치 제스처의 경우, 디바이스의 동작의 일 예를 나타낸다.
도 17을 참조하면, 사용자는 한 손(H1)의 네 손가락들로 디바이스(100) 상의 네 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수행할 수 있다. 이에 따라, 디바이스(100)는 제1 내지 제4 안정된 지점들(SP1, SP2, SP3, SP4)을 감지하고, 제1 터치 제스처에 따른 동작 모드에 대한 제1 인디케이션(IND1)을 제공할 수 있다. 예를 들어, 디바이스(100)는 제1 터치 제스처에 따른 "어플리케이션 시작 모드"를 소리로 출력할 수 있다.
도 18a 내지 도 18c는 본 개시의 일 실시예에 따른 한 손에 의한 제1 및 제2 터치 제스처의 경우, 디바이스(100)의 순차적인 동작들의 일 예를 나타낸다.
도 18a를 참조하면, 사용자는 한 손의 제1 손가락(F1)으로 디바이스(100) 상의 한 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수행할 수 있다. 이에 따라, 디바이스(100)는 제1 안정된 지점(SP1)을 감지하고, 제1 터치 제스처에 따른 동작 모드에 대한 제1 인디케이션(IND1)을 제공할 수 있다.
이어서, 사용자는 동일한 손의 제2 손가락(F2)으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 최초로 입력된 제2 터치 제스처의 제1 방향을 순방향으로 결정하고, 제1 방향과 반대되는 제2 방향을 역방향으로 결정할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라, 디바이스(100)에 디스플레이된 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 "보너스 카드"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "보너스 카드"에 해당하는 아이콘에 대한 제2 인디케이션(IND2)인 하이라이트를 디스플레이할 수 있다.
도 18b를 참조하면, 사용자는 동일한 손의 제2 손가락(F2)으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 제1 방향은 순방향으로 결정되었으므로, 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라, 디바이스(100)에 디스플레이된 복수의 어플리케이션들 및 기능들 중 다음 어플리케이션 또는 기능에 대한 인디케이션을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 어플리케이션인 "지도"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "지도"에 해당하는 아이콘에 대한 제2 인디케이션(IND2)인 하이라이트를 디스플레이할 수 있다.
도 18c를 참조하면, 사용자는 동일한 손의 제2 손가락(F2)으로 제2 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 제2 방향은 역방향으로 결정되었으므로, 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서와 반대되는 순서에 따라, 디바이스(100)에 디스플레이된 복수의 어플리케이션들 및 기능들 중 이전 어플리케이션 또는 기능에 대한 인디케이션을 제공할 수 있다. 따라서, 디바이스(100)는 제2 터치 제스처에 응답하여 이전 어플리케이션인 "보너스 카드"를 다시 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "보너스 카드"에 해당하는 아이콘에 대한 제2 인디케이션(IND2)인 하이라이트를 디스플레이할 수 있다.
도 19a 내지 도 19c는 본 개시의 다른 실시예에 따른 한 손에 의한 제1 및 제2 터치 제스처의 경우, 디바이스(100)의 순차적인 동작들의 일 예를 나타낸다.
도 19a를 참조하면, 사용자는 한 손의 제1 및 제2 손가락들(F1a, F1b)로 디바이스(100) 상의 두 지점들을 임계 시간 이상 동안 동시에 터치하는 제1 터치 제스처를 수행할 수 있다. 이에 따라, 디바이스(100)는 제1 및 제2 안정된 지점들(SP1, SP2)을 감지하고, 제1 터치 제스처에 따른 동작 모드에 대한 제1 인디케이션(IND1)을 제공할 수 있다.
이어서, 사용자는 동일한 손의 제3 손가락(F2)으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 최초로 입력된 제2 터치 제스처의 제1 방향을 순방향으로 결정하고, 제1 방향과 반대되는 제2 방향을 역방향으로 결정할 수 있다. 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라, 미리 결정된 어플리케이션들 및 기능들 중 하나에 대응하는 단축키에 대한 인디케이션을 제공할 수 있다. 본 실시예에서, 기 설정된 순서에 따르면, 즐겨찾기, 메시지, 현재 시간의 순서에 따라 인디케이션이 제공될 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 "즐겨찾기"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "즐겨찾기"에 해당하는 단축키를 제2 인디케이션(IND2)으로 디스플레이할 수 있다.
도 19b를 참조하면, 사용자는 동일한 손의 제3 손가락(F2)으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 제1 방향은 순방향으로 결정되었으므로, 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라, 다음 단축키에 대한 인디케이션을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 단축키인 "메시지"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "메시지"에 해당하는 단축키를 제2 인디케이션(IND2)으로 디스플레이할 수 있다.
도 19c를 참조하면, 사용자는 동일한 손의 제3 손가락(F2)으로 제2 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 제2 방향은 역방향으로 결정되었으므로, 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서와 반대되는 순서에 따라, 이전 단축키에 대한 인디케이션을 제공할 수 있다. 따라서, 디바이스(100)는 제2 터치 제스처에 응답하여 이전 단축키인 "즐겨찾기"를 다시 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "즐겨찾기"에 해당하는 단축키를 제2 인디케이션(IND2)으로 디스플레이할 수 있다.
도 20a 내지 도 20c는 본 개시의 다른 실시예에 따른 한 손에 의한 제1 및 제2 터치 제스처의 경우, 디바이스(100)의 순차적인 동작들의 일 예를 나타낸다.
도 20a 내지 도 20c에 예시된 실시예는 도 19a 내지 도 19c에 예시된 동작들의 수행 이후에 수행될 수 있으며, 도 19a 내지 도 19c와 비해 디바이스(100)의 방위가 변경되었다. 이와 같이, 사용 중에 디바이스(100)의 방위가 변경되더라고, 최초로 입력된 제2 터치 제스처의 방향을 기초로 하여 인디케이션을 제공하는 순서가 결정될 수 있다.
도 20a를 참조하면, 사용자는 동일한 손의 제3 손가락(F2)으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 제1 방향은 순방향으로 결정되었으므로, 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라, 다음 단축키에 대한 인디케이션을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 단축키인 "메시지"를 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "메시지"에 해당하는 단축키를 제2 인디케이션(IND2)으로 디스플레이할 수 있다.
도 20b를 참조하면, 사용자는 동일한 손의 제3 손가락(F2)으로 제1 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 제1 방향은 순방향으로 결정되었으므로, 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라, 다음 단축키에 대한 인디케이션을 제공할 수 있다. 예를 들어, 디바이스(100)는 제2 터치 제스처에 응답하여 다음 단축키인 "현재 시간"을 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "현재 시간"에 해당하는 단축키를 제2 인디케이션(IND2)으로 디스플레이할 수 있다.
도 20c를 참조하면, 사용자는 동일한 손의 제3 손가락(F2)으로 제2 방향에 따른 제2 터치 제스처를 수행할 수 있다. 본 실시예에서, 제2 방향은 역방향으로 결정되었으므로, 디바이스(100)는 제2 터치 제스처에 응답하여, 기 설정된 순서와 반대되는 순서에 따라, 이전 단축키에 대한 인디케이션을 제공할 수 있다. 따라서, 디바이스(100)는 제2 터치 제스처에 응답하여 이전 단축키인 "메시지"를 다시 제1 인디케이션(IND1)인 소리로 출력할 수 있고, "메시지"에 해당하는 단축키를 제2 인디케이션(IND2)으로 디스플레이할 수 있다.
도 21은 본 개시의 일 실시예에 따른 웨어러블 디바이스(200) 및 디바이스(300)를 나타낸다.
도 21을 참조하면, 웨어러블 디바이스(200)는 사용자의 터치 제스처를 인식할 수 있는, 사용자가 착용 가능한 형태의 전자 기기를 의미한다. 웨어러블 디바이스(200)는 예를 들면, 헤드폰(200a), 스마트 워치(200b) 또는 안경(200c)일 수 있다. 그러나, 본 발명은 이에 한정되지 않고, 웨어러블 디바이스(200)는 귀걸이, 목걸이, 이어폰, 귀걸이 형 액세서리, 신발, 반지, 옷, 헬멧 등의 형태로 구현될 수 있다.
웨어러블 디바이스(200)를 착용하였다고 함은, 웨어러블 디바이스(200)를 기 설정된 방식으로 사용자의 신체에 접촉되는 형태로 사용자가 지니고 있음을 의미한다. 예를 들면, 사용자가 손목시계를 팔목에 차거나, 안경을 쓰거나, 귀걸이를 귀에 걸거나, 목걸이를 목에 걸거나, 이어폰을 귓구멍에 끼거나, 귀걸이 형 액세서리를 귓바퀴에 걸거나, 신발을 신거나, 반지를 손가락에 끼거나, 옷을 입거나, 헬멧을 쓰는 등의 형태로 웨어러블 디바이스(200)를 착용할 수 있다.
디바이스(300)는 웨어러블 디바이스(200)와 연동 가능한 전자 기기로서, 마스터 디바이스라고 지칭할 수도 있다. 예를 들어, 디바이스(300)는 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA, 랩톱, 미디어 플레이어, 마이크로 서버, GPS 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 디바이스(300)는 터치 패널, 전자 칠판, 터치 테이블 등과 같이 터치 입력을 수신할 수 있는 다양한 장치를 포함할 수 있다.
본 실시예에서, 웨어러블 디바이스(200)는 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신할 수 있다. 일 실시예에서, 웨어러블 디바이스(200)는 수신한 터치 제스처에 따른 사용자 입력을 디바이스(300)에 전송할 수 있고, 이에 따라, 디바이스(300)에 저장된 어플리케이션 또는 기능이 수행될 수 있다. 다른 실시예에서, 웨어러블 디바이스(200)는 수신한 터치 제스처에 따라 웨어러블 디바이스(200)에 저장된 어플리케이션 또는 기능을 직접 수행할 수 있다.
구체적으로, 본 실시예에 따르면, 웨어러블 디바이스(200)는 수신한 터치 제스처에 응답하여 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션(IND)을 제공하고, 인디케이션(IND)에 따른 사용자 입력에 따라 선택된 어플리케이션 또는 기능을 수행할 수 있다. 이때, 선택된 어플리케이션 또는 기능은 웨어러블 디바이스(200) 또는 디바이스(300)에 저장될 수 있다. 따라서, 사용자가 웨어러블 디바이스(200) 상의 GUI의 요소들의 위치를 인식하기 곤란한 경우에도 사용자와 웨어러블 디바이스(200) 사이의 정보 교환이 원활하게 이루어질 수 있다.
도 22는 본 개시의 일 실시예에 따른 디바이스의 제어 방법에 따른 웨어러블 디바이스(200)와 디바이스(300)의 동작들의 일 예를 나타내는 흐름도이다.
도 22를 참조하면, 본 실시예에 따른 디바이스의 제어 방법은 도 21의 웨어러블 디바이스(200) 및 디바이스(300)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 22에 도시된 웨어러블 디바이스(200) 및 디바이스(300)에 관하여 이상에서 기술된 내용은 본 실시예에 따른 디바이스의 제어 방법에도 적용된다.
단계 S2200에서, 웨어러블 디바이스(200)는 웨어러블 디바이스(200) 상의 GUI의 요소들의 위치에 대해 독립적인 제1 터치 제스처를 수신한다. 여기서, 제1 터치 제스처는 웨어러블 디바이스(200) 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 웨어러블 디바이스(200)의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 예를 들어, 제1 터치 제스처는 디바이스 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제스처일 수 있다.
단계 S2210에서, 웨어러블 디바이스(200)는 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공한다. 일 실시예에서, 인디케이션은 소리일 수 있고, 단계 S2210에서 웨어러블 디바이스(200)는 동작 모드의 명칭을 소리로 출력할 수 있다. 다른 실시예에서, 인디케이션은 그래픽일 수 있고, 단계 S2210에서 웨어러블 디바이스(200)는 동작 모드를 나타내는 아이콘을 디스플레이할 수 있다.
단계 S2220에서, 웨어러블 디바이스(200)는 제1 터치 제스처에 따라 복수의 어플리케이션들 및 기능들을 결정한다. 구체적으로, 웨어러블 디바이스(200)는 제1 터치 제스처에 의해 디바이스 상에서 터치된 지점의 개수에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다. 실시예에 따라, 단계 S2210 및 S2220은 순서가 변경될 수 있다.
단계 S2230에서, 웨어러블 디바이스(200)는 웨어러블 디바이스(200) 상의 GUI의 요소들의 위치에 대해 독립적인 제2 터치 제스처를 수신한다. 이때, 제2 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다. 여기서, 제2 터치 제스처는 웨어러블 디바이스(200) 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 웨어러블 디바이스(200)의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 예를 들어, 제2 터치 제스처는 웨어러블 디바이스(200) 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처일 수 있다.
단계 S2240에서, 웨어러블 디바이스(200)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공한다. 여기서, 기 설정된 순서는 사용자에 의해 미리 설정될 수도 있고, 웨어러블 디바이스(200) 내의 운영체제에 의해 미리 설정될 수도 있다. 또한, 복수의 어플리케이션들 및 기능들은 제1 터치 제스처의 종류에 따라 다르게 결정될 수 있다. 일 실시예에서, 인디케이션은 소리일 수 있고, 단계 S2240에서 웨어러블 디바이스(200)는 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다. 다른 실시예에서, 인디케이션은 그래픽일 수 있고, 단계 S2240에서 웨어러블 디바이스(200)는 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 상기 아이콘에 대한 하이라이트를 디스플레이할 수 있다.
단계 S2250에서, 웨어러블 디바이스(200)는 제3 터치 제스처를 수신한다. 이때, 제3 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다. 일 실시예에서, 제3 터치 제스처는 인디케이션에 대응하는 어플리케이션 또는 기능을 선택하기 위한 사용자 입력일 수 있다. 여기서, 제3 터치 제스처는 웨어러블 디바이스(200) 상의 GUI의 요소들 중 실행하고자 하는 어플리케이션 또는 기능에 대응하는 요소를 선택하는 것이 아니고, 웨어러블 디바이스(200)의 터치 영역 상의 임의의 지점에 대한 터치 동작일 수 있다. 예를 들어, 제3 터치 제스처는 웨어러블 디바이스(200) 상의 한 지점에 대한 탭 또는 더블 탭 동작일 수 있다.
단계 S2260에서, 웨어러블 디바이스(200)는 제3 터치 제스처에 따른 사용자 입력을 디바이스(300)로 전송한다. 여기서, 제3 터치 제스처에 따른 사용자 입력은 제2 터치 제스처에 응답하여 제공된 인디케이션에 대응되는 어플리케이션 또는 기능을 선택하는 사용자 입력일 수 있다.
단계 S2270에서, 디바이스(300)는 선택된 어플리케이션 또는 기능을 실행한다. 예를 들어, 디바이스(300)에 저장된 "음악 재생" 어플리케이션을 실행하여 사용자는 음악 감상을 할 수 있다. 또 다른 예를 들어, 디바이스(300)에 저장된 "전화" 기능을 실행하여 사용자는 원하는 상대방에게 전화를 걸 수 있다.
도 23은 본 개시의 다른 실시예에 따른 디바이스의 제어 방법에 따른 웨어러블 디바이스(200)와 디바이스(300)의 동작들의 다른 예를 나타내는 흐름도이다.
도 23을 참조하면, 본 실시예에 따른 디바이스의 제어 방법은 도 21의 웨어러블 디바이스(200) 및 디바이스(300)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하 생략된 내용이라 하더라도 도 22에 도시된 웨어러블 디바이스(200) 및 디바이스(300)에 관하여 이상에서 기술된 내용은 본 실시예에 따른 디바이스의 제어 방법에도 적용된다. 또한, 본 실시예에 따른 디바이스의 제어 방법은 도 22에 대한 변형 실시예이다. 이하에서는, 도 22와 중복되는 내용에 대한 설명은 생략하기로 한다.
단계 S2300에서, 웨어러블 디바이스(200)는 웨어러블 디바이스(200) 상의 GUI의 요소들의 위치에 대해 독립적인 제1 터치 제스처를 수신한다. 단계 S2310에서, 웨어러블 디바이스(200)는 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공한다. 단계 S2320에서, 웨어러블 디바이스(200)는 제1 터치 제스처에 따른 사용자 입력을 디바이스(300)로 전송한다. 실시예에 따라, 단계 S2310 및 S2320은 순서가 변경될 수 있다.
단계 S2330에서, 디바이스(300)는 제1 터치 제스처에 따라 복수의 어플리케이션들 및 기능들을 결정한다. 구체적으로, 디바이스(200)는 제1 터치 제스처에 의해 디바이스 상에서 터치된 지점의 개수에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다. 단계 S2340에서, 웨어러블 디바이스(200)는 웨어러블 디바이스(200) 상의 GUI의 요소들의 위치에 대해 독립적인 제2 터치 제스처를 수신한다. 이때, 제2 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다.
단계 S2350에서, 웨어러블 디바이스(200)는 제2 터치 제스처에 따른 사용자 입력을 디바이스(300)로 전송한다. 단계 S2355에서, 디바이스(300)는 제2 터치 제스처에 따라, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나를 제공한다. 여기서, 기 설정된 순서는 사용자에 의해 미리 설정될 수도 있고, 디바이스(300) 내의 운영체제에 의해 미리 설정될 수도 있다. 또한, 복수의 어플리케이션들 및 기능들은 제1 터치 제스처의 종류에 따라 다르게 결정될 수 있다.
단계 S2360에서, 웨어러블 디바이스(200)는 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다. 단계 S2370에서, 웨어러블 디바이스(200)는 제3 터치 제스처를 수신한다. 이때, 제3 터치 제스처를 수신하는 동안 제1 터치 제스처는 계속해서 수신된다. 단계 S2380에서, 웨어러블 디바이스(200)는 제3 터치 제스처에 따른 사용자 입력을 디바이스(300)로 전송한다. 단계 S2390에서, 디바이스(300)는 선택된 어플리케이션 또는 기능을 실행한다.
도 24a 내지 도 24c는 웨어러블 디바이스가 헤드폰(200a)인 경우, 본 개시의 일 실시예에 따른 디바이스의 제어 동작을 나타낸다.
도 24a를 참조하면, 사용자(USER)는 헤드폰(200a)을 착용할 수 있고, 헤드폰(200a)은 사용자(USER)의 터치 제스처를 인식할 수 있으며, 디바이스(300)와 통신할 수 있다. 본 실시예에서, 헤드폰(200a)은 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신할 수 있고, 수신한 터치 제스처에 응답하여 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
도 24b를 참조하면, 사용자(USER)는 한 손(H1)으로 헤드폰(200a)에 대해 터치 제스처를 수행할 수 있다. 본 실시예는 도 18a 내지 도 20c를 참조하여 상술된 실시예와 유사하게 구현될 수 있으며, 도 18a 내지 도 20c를 참조하여 상술된 내용은 본 실시예에도 적용될 수 있다.
구체적으로, 사용자(USER)는 한 손(H1)의 적어도 한 손가락으로 헤드폰(200a)의 터치 영역 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수행할 수 있다. 헤드폰(200a)은 제1 터치 제스처에 응답하여 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공할 수 있다. 예를 들어, 인디케이션은 소리일 수 있고, 헤드폰(200a)은 동작 모드의 명칭을 소리로 출력할 수 있다.
일 실시예에서, 헤드폰(200a)은 제1 터치 제스처에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다. 다른 실시예에서, 헤드폰(200a)은 제1 터치 제스처에 따른 사용자 입력을 디바이스(300)에 전송할 수 있고, 디바이스(300)는 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다.
이어서, 사용자(USER)는 한 손(H1)의 적어도 하나의 다른 손가락으로 헤드폰(200a)의 터치 영역 상의 제1 지점에서 제2 지점으로 이동하는 제2 터치 제스처를 수행할 수 있다. 이때, 사용자(USER)는 제1 터치 제스처를 계속해서 수행하면서 제2 터치 제스처를 수행하고, 제1 터치 제스처를 수행한 손가락과 제2 터치 제스처를 수행한 손가락은 서로 다르다. 헤드폰(200a)은 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다. 예를 들어, 인디케이션은 소리일 수 있고, 헤드폰(200a)은 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다.
이어서, 사용자(USER)는 한 손(H1)의 적어도 한 손가락으로 인디케이션에 대한 제3 터치 제스처를 수행할 수 있다. 이때, 사용자(USER)는 제1 터치 제스처를 계속해서 수행하면서 제3 터치 제스처를 수행하고, 제1 터치 제스처를 수행한 손가락과 제3 터치 제스처를 수행한 손가락은 서로 다르며, 제2 터치 제스처를 수행한 손가락과 제3 터치 제스처를 수행한 손가락을 동일할 수 있다. 일 실시예에서, 헤드폰(200a)은 제3 터치 제스처에 따라, 선택된 어플리케이션 또는 기능을 수행할 수 있다. 다른 실시예에서, 헤드폰(200a)은 제3 터치 제스처에 따른 사용자 입력을 디바이스(300)에 전송할 수 있고, 디바이스(300)는 선택된 어플리케이션 또는 기능을 수행할 수 있다.
도 24c를 참조하면, 사용자(USER)는 양 손(H1, H2)으로 헤드폰(200a)에 대해 터치 제스처를 수행할 수 있다. 본 실시예는 도 14a 내지 도 17를 참조하여 상술된 실시예와 유사하게 구현될 수 있으며, 도 14a 내지 도 17를 참조하여 상술된 내용은 본 실시예에도 적용될 수 있다.
구체적으로, 사용자(USER)는 한 손(H1)의 적어도 한 손가락으로 헤드폰(200a)의 터치 영역 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수행할 수 있다. 헤드폰(200a)은 제1 터치 제스처에 응답하여 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공할 수 있다. 예를 들어, 인디케이션은 소리일 수 있고, 헤드폰(200a)은 동작 모드의 명칭을 소리로 출력할 수 있다.
일 실시예에서, 헤드폰(200a)은 제1 터치 제스처에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다. 다른 실시예에서, 헤드폰(200a)은 제1 터치 제스처에 따른 사용자 입력을 디바이스(300)에 전송할 수 있고, 디바이스(300)는 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다.
이어서, 사용자(USER)는 다른 손(H2)의 적어도 한 손가락으로 헤드폰(200a)의 터치 영역 상의 제1 지점에서 제2 지점으로 이동하는 제2 터치 제스처를 수행할 수 있다. 이때, 사용자(USER)는 제1 터치 제스처를 계속해서 수행하면서 제2 터치 제스처를 수행한다. 헤드폰(200a)은 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다. 예를 들어, 인디케이션은 소리일 수 있고, 헤드폰(200a)은 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다.
이어서, 사용자(USER)는 다른 손(H2)의 적어도 한 손가락으로 인디케이션에 대한 제3 터치 제스처를 수행할 수 있다. 이때, 사용자(USER)는 제1 터치 제스처를 계속해서 수행하면서 제3 터치 제스처를 수행하고, 제3 터치 제스처를 수행한 손가락은 제2 터치 제스처를 수행한 손가락과 동일할 수 있다. 일 실시예에서, 헤드폰(200a)은 제3 터치 제스처에 따라, 선택된 어플리케이션 또는 기능을 수행할 수 있다. 다른 실시예에서, 헤드폰(200a)은 제3 터치 제스처에 따른 사용자 입력을 디바이스(300)에 전송할 수 있고, 디바이스(300)는 선택된 어플리케이션 또는 기능을 수행할 수 있다.
도 25a 및 도 25b는 웨어러블 디바이스가 스마트 워치(200b)인 경우, 본 개시의 일 실시예에 따른 디바이스의 제어 동작을 나타낸다.
도 25a를 참조하면, 사용자(USER)는 스마트 워치(200b)를 착용할 수 있고, 스마트 워치(200b)은 사용자(USER)의 터치 제스처를 인식할 수 있으며, 디바이스(300)와 통신할 수 있다. 본 실시예에서, 스마트 워치(200b)은 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신할 수 있고, 수신한 터치 제스처에 응답하여 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다.
도 25b를 참조하면, 사용자(USER)는 한 손(H1)에 스마트 워치(200b)를 착용하고, 다른 손(H2)으로 스마트 워치(200b)에 대해 터치 제스처를 수행할 수 있다. 본 실시예는 도 18a 내지 도 20c를 참조하여 상술된 실시예와 유사하게 구현될 수 있으며, 도 18a 내지 도 20c를 참조하여 상술된 내용은 본 실시예에도 적용될 수 있다.
구체적으로, 사용자(USER)는 다른 손(H2)의 적어도 한 손가락(예를 들어, F1)으로 스마트 워치(200b)의 터치 영역 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수행할 수 있다. 스마트 워치(200b)는 제1 터치 제스처에 응답하여 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공할 수 있다. 예를 들어, 인디케이션은 소리일 수 있고, 스마트 워치(200b)는 동작 모드의 명칭을 소리로 출력할 수 있다.
일 실시예에서, 스마트 워치(200b)는 제1 터치 제스처에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다. 다른 실시예에서, 스마트 워치(200b)는 제1 터치 제스처에 따른 사용자 입력을 디바이스(300)에 전송할 수 있고, 디바이스(300)는 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다.
이어서, 사용자(USER)는 다른 손(H2)의 적어도 한 손가락(예를 들어, F2)으로 스마트 워치(200b)의 터치 영역 상의 제1 지점에서 제2 지점으로 이동하는 제2 터치 제스처를 수행할 수 있다. 이때, 사용자(USER)는 제1 터치 제스처를 계속해서 수행하면서 제2 터치 제스처를 수행하고, 제1 터치 제스처를 수행한 손가락과 제2 터치 제스처를 수행한 손가락은 서로 다르다. 스마트 워치(200b)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공할 수 있다. 예를 들어, 인디케이션은 소리일 수 있고, 스마트 워치(200b)는 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다.
이어서, 사용자(USER)는 다른 손(H2)의 적어도 한 손가락(예를 들어, F2)으로 인디케이션에 대한 제3 터치 제스처를 수행할 수 있다. 이때, 사용자(USER)는 제1 터치 제스처를 계속해서 수행하면서 제3 터치 제스처를 수행하고, 제1 터치 제스처를 수행한 손가락과 제3 터치 제스처를 수행한 손가락은 서로 다르며, 제2 터치 제스처를 수행한 손가락과 제3 터치 제스처를 수행한 손가락을 동일할 수 있다. 일 실시예에서, 스마트 워치(200b)는 제3 터치 제스처에 따라, 선택된 어플리케이션 또는 기능을 수행할 수 있다. 다른 실시예에서, 스마트 워치(200b)는 제3 터치 제스처에 따른 사용자 입력을 디바이스(300)에 전송할 수 있고, 디바이스(300)는 선택된 어플리케이션 또는 기능을 수행할 수 있다.
도 26은 본 개시의 일 실시예에 따른 웨어러블 디바이스(200)의 구성을 설명하기 위한 블록도이다.
도 26을 참조하면, 웨어러블 디바이스(200)는 사용자 입력부(210), 제어부(220), 디스플레이부(230) 및 통신부(240)를 포함할 수 있다. 도시되지는 않았지만, 웨어러블 디바이스(200)는 센서부를 더 포함할 수 있고, 센서부는 웨어러블 디바이스(200)의 상태 정보를 획득할 수 있는 적어도 하나의 센서를 포함할 수 있다.
사용자 입력부(210)는 사용자로부터 다양한 명령을 입력받을 수 있고, 예를 들어, 키, 터치 패널, 펜 인식 패널 등을 포함할 수 있다. 본 실시예에 따른 사용자 입력부(210)는 사용자로부터 제1 내지 제3 터치 제스처들을 수신할 수 있다. 이때, 제1 내지 제3 터치 제스처들은 웨어러블 디바이스(200) 상의 GUI의 요소들의 위치에 대해 독립적이다.
제어부(220)는 웨어러블 디바이스(200)의 전반적인 동작을 제어할 수 있다. 본 실시예에 따른 제어부(220)는 사용자 입력부(210)를 통해 입력된 제1 내지 제3 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하고, 인디케이션에 대응하는 어플리케이션 또는 기능이 선택되면 선택된 어플리케이션 또는 기능을 실행할 수 있다.
디스플레이부(230)는 웨어러블 디바이스(200)의 상태 정보, 어플리케이션 실행 화면, 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션 등을 표시할 수 있다. 디스플레이부(230)는 예를 들면, 액정 표시 장치, 유기 전계 발광 표시 장치 등을 포함할 수 있다. 디스플레이부(230)는 웨어러블 디바이스(200)의 형태에 따라 다양한 위치와 다양한 형태로 구비될 수 있다.
통신부(240)는 외부 디바이스(예를 들어, 도 21의 디바이스(300))와 통신할 수 있고, 구체적으로, 외부 디바이스와 데이터, 제어 신호, 상태 신호 등을 교환할 수 있다. 또한, 통신부(240)는 복수의 통신 방식을 제공할 수 있으며, 실시예에 따라 통신부(240)에서 제공되는 통신 방식의 종류가 달라질 수 있다.
도 27은 도 26의 웨어러블 디바이스에 포함된 통신부(240)의 구성의 일 예를 나타내는 블록도이다.
도 27을 참조하면, 본 실시예에 따른 통신부(240)는 블루투스(Bluetooth) 모듈(241), WiFi 모듈(242), NFC(near filed communication) 모듈(243) 및 이동 통신 모듈(244) 중 적어도 하나 또는 이들의 조합을 포함할 수 있다. 블루투스 모듈(241), WiFi 모듈(242), NFC 모듈(243) 및 이동 통신 모듈(244)은 실시예에 따라 선택적으로 구비될 수 있다.
이동 통신 모듈(244)은 이동 통신망을 통해 전화, 문자 메시지를 송수신하고, 이동 통신망을 이용하여 데이터 통신을 할 수 있다. 상기 이동 통신망은 예를 들면, 코드 분할 다중 접속(CDMA, Code Division Multiple Access), GSM(Global system for Mobile communication), PCD(Personal Digital Cellular) 등의 2세대 이동통신, IMT-2000(International Mobile Telecommunication 2000), W-CDMA(Wideband Code Division Multiple Access), CDMA2000(Code Division Multiple Access 2000) 등 3세대 이동통신, 및 LTE(Long Term Evolution), LTE-A(Long Term Evolution advanced) 등 4세대 이동 통신 방식 중 적어도 하나를 이용하는 통신망을 포함한다.
도 28은 본 개시의 일 실시예에 따른 디바이스(1000)의 구성을 설명하기 위한 블록도이다.
도 28을 참조하면, 본 실시예에 따른 디바이스(1000)의 구성은 도 1의 디바이스(100), 도 21의 웨어러블 디바이스(200) 및 디바이스(300)에 모두 적용될 수 있다. 디바이스(1000)의 구성은, 예를 들어, 휴대폰, 태블릿 PC, PDA, MP3 플레이어, 키오스크, 전자 액자, 네비게이션 장치, 디지털 TV, 손목 시계(Wrist watch) 또는 HMD(Head-Mounted Display)와 같은 웨어러블 기기(Wearable device) 등과 같은 다양한 유형의 장치에 적용될 수 있다.
도 28에 따르면, 디바이스(1000)는 디스플레이부(110), 제어부(170), 메모리(120), GPS 칩(125), 통신부(130), 비디오 프로세서(135), 오디오 프로세서(140), 사용자 입력부(145), 마이크부(150), 촬상부(155), 스피커부(160), 움직임 감지부(165) 중 적어도 하나를 포함 할 수 있다.
디스플레이부(110)는 표시패널(111) 및 표시 패널(111)을 제어하는 컨트롤러(미도시)를 포함할 수 있다. 표시패널(111)에는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 표시패널(111)은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이부(110)는 사용자 입력부(145)의 터치 패널(147)과 결합되어 터치 스크린(미도시)으로 제공될 수 있다. 예를 들어, 터치 스크린(미도시)은 표시 패널(111)과 터치 패널(147)이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다.
메모리(120)는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다.
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 제어부(170)는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 제어부(170)는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.
외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.
메모리(120)는 디바이스(1000)의 동작에 사용되는 각종 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 메모리(120)는 콘텐트 암호화를 위한 키 생성 프로그램 및 암호화 프로그램, 그리고, 콘텐트 복호화를 위한 키 복원 프로그램 및 복호화 프로그램의 적어도 일부를 임시 또는 반영구적으로 저장할 수 있다. 또 다른 예를 들어, 메모리(120)는 암호화된 콘텐트 및 복호화된 콘텐트 중 적어도 일부를 임시 또는 반영구적으로 저장할 수 있다.
본 실시예에서, 제어부(170)는 이벤트가 발생할 경우, 디바이스의 사용 내역 정보를 기초로 하여 전자 기기에서 출력되는 오디오 신호의 음량 조절 동작을 결정할 수 있다. 다른 실시예에서, 제어부(170)는 이벤트가 발생한 경우, 사용 내역 정보 및 설정 정보 중 적어도 하나를 기초로 하여 전자 기기에서 출력되는 오디오 신호의 음량 조절 동작을 결정할 수 있다.
구체적으로, 제어부(170)는 메모리(120)에 저장된 컨텐츠의 일부가 디스플레이부(110)에 표시되도록 디스플레이부(110)를 제어할 수 있다. 다시 말하자면, 제어부(170)는 메모리(120)에 저장된 컨텐츠의 일부를 디스플레이부(110)에 표시할 수 있다. 또는, 제어부(170)는 디스플레이부(110)의 일 영역에서 사용자 제스처가 이루어지면, 사용자의 제스처에 대응되는 제어 동작을 수행할 수 있다.
제어부(170)는 RAM(171), ROM(172), CPU(173), GPU(Graphic Processing Unit)(174) 및 버스(175) 중 적어도 하나를 포함 할 수 있다. RAM(171), ROM(172), CPU(173) 및 GPU(174) 등은 버스(175)를 통해 서로 연결될 수 있다.
CPU(173)는 메모리(120)에 액세스하여, 메모리(120)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메모리(120)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(172)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 예로, 휴대 단말기(100B)는 턴온 명령이 입력되어 전원이 공급되면, CPU(173)가 ROM(172)에 저장된 명령어에 따라 메모리(120)에 저장된 O/S를 RAM(171)에 복사하고, O/S를 실행시켜 시스템을 부팅시킬 수 있다. 부팅이 완료되면, CPU(173)는 메모리(120)에 저장된 각종 프로그램을 RAM(171)에 복사하고, RAM(171)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. GPU(174)는 디바이스(1000)의 부팅이 완료되면, 디스플레이부(110)의 영역에 UI 화면을 디스플레이한다. 구체적으로는, GPU(174)는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 전자문서가 표시된 화면을 생성할 수 있다. GPU(174)는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성 값을 연산한다. 그리고, GPU(174)는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. GPU(174)에서 생성된 화면은 디스플레이부(110)로 제공되어, 디스플레이부(110)의 각 영역에 각각 표시될 수 있다.
GPS 칩(125)은 GPS(Global Positioning System) 위성으로부터 GPS 신호를 수신하여, 디바이스(1000)의 현재 위치를 산출할 수 있다. 제어부(170)는 네비게이션 프로그램을 이용할 때나 그 밖에 사용자의 현재 위치가 필요할 경우에, GPS 칩(125)을 이용하여 사용자 위치를 산출할 수 있다.
통신부(130)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 본 실시예에서, 통신부(130)는 제어부(170)에서 결정된 음량 조절 동작에 대한 정보 및 이벤트 발생 정보를 적어도 하나의 전자 기기에 전송할 수 있다. 또한, 통신부(130)는 디바이스(1000)에 대한 식별 정보, 사용 내역 정보 및 이벤트 종료 정보 중 적어도 하나를 더 전송할 수 있다. 구체적으로, 통신부(130)는 와이파이칩(131), 블루투스 칩(132), 무선 통신 칩(133), NFC 칩(134) 중 적어도 하나를 포함할 수 있다. 제어부(170)는 통신부(130)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다.
와이파이 칩(131), 블루투스 칩(132)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩(131)이나 블루투스 칩(132)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(133)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(134)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC 방식으로 동작하는 칩을 의미한다.
비디오 프로세서(135)는 통신부(130)를 통해 수신된 컨텐츠 또는, 메모리(120)에 저장된 컨텐츠에 포함된 비디오 데이터를 처리할 수 있다. 비디오 프로세서(135)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
오디오 프로세서(140)는 통신부(130)를 통해 수신된 컨텐츠 또는, 메모리(120)에 저장된 컨텐츠에 포함된 오디오 데이터를 처리할 수 있다. 오디오 프로세서(140)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
제어부(170)는 멀티미디어 컨텐츠에 대한 재생 프로그램이 실행되면 비디오 프로세서(135) 및 오디오 프로세서(140)를 구동시켜, 해당 컨텐츠를 재생할 수 있다. 스피커부(160)는 오디오 프로세서(140)에서 생성한 오디오 데이터를 출력할 수 있다.
사용자 입력부(145)는 사용자로부터 다양한 명령어를 입력 받을 수 있다. 본 실시예에서, 사용자 입력부(145)는 오디오 신호의 음량 조절에 대한 설정 정보를 수신할 수 있다. 구체적으로, 사용자 입력부(145)는 키(146), 터치 패널(147) 및 펜 인식 패널(148) 중 적어도 하나를 포함할 수 있다.
키(146)는 디바이스(1000)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.
터치 패널(147)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널(147)이 표시 패널(111)과 결합하여 터치 스크린(미도시)을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. 정전식은 터치 스크린 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 터치 스크린 표면에 터치되었을 때 사용자의 인체로 야기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 스크린에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 터치 스크린에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의하여 생성될 수 있으나, 정전 용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다.
펜 인식 패널(148)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(148)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 상세하게는 펜 인식 패널(148)은 그리드 구조를 가지는 전자 유도 코일 센서(미도시)와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(미도시)를 포함하여 구성될 수 있다. 이러한 펜 인식 패널(148)의 루프 코일 근방에 공진회로를 내장하는 펜이 존재하면, 해당 루프 코일로부터 송신되는 자계가 펜 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 펜 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 펜 인식 패널(148)은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 펜의 접근 위치 또는 터치 위치가 감지될 수 있다. 펜 인식 패널(148)은 표시 패널(111)의 하부에 일정 면적, 예를 들어, 표시 패널(111)의 표시 영역을 커버할 수 있는 면적을 가지고 마련될 수 있다.
마이크부(150)는 사용자 음성이나 기타 소리를 입력 받아 오디오 데이터로 변환할 수 있다. 제어부(170)는 마이크 부(150)를 통해 입력되는 사용자 음성을 통화 동작에서 이용하거나, 오디오 데이터로 변환하여 메모리(120)에 저장할 수 있다.
촬상부(155)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상할 수 있다. 촬상부(155)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수도 있다.
촬상부(155) 및 마이크부(150)가 마련된 경우, 제어부(170)는 마이크부(150)를 통해 입력되는 사용자 음성이나 촬상부(155)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 예컨대, 디바이스(1000)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 제어부(170)는 촬상부(155)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우 제어부(170)는 마이크부(150)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수 있다.
움직임 감지부(165)는 디바이스(1000)의 본체 움직임을 감지할 수 있다. 디바이스(1000)는 다양한 방향으로 회전되거나 기울어질 수 있다. 이 때, 움직임 감지부(165)는 지자기 센서, 자이로 센서, 가속도 센서 등과 같은 다양한 센서들 중 적어도 하나를 이용하여 회전 방향 및 각도, 기울기 등과 같은 움직임 특성을 감지할 수 있다.
그 밖에, 도 28에 도시하지는 않았으나, 실시예에는, 디바이스(1000) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있다.
전술한 디바이스(1000)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 디바이스(1000)는 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다.
도 29는 본 개시의 일 실시예에 따른 디바이스의 소프트웨어 구성을 나타내는 블록도이다.
도 29를 참조하면, 도 28의 메모리(120)는 디바이스(1000)의 자원을 제어하는 운영체제 및 어플리케이션의 동작을 위한 응용 프로그램 등을 저장할 수 있다. 운영체제는 커널, 미들웨어, API 등을 포함할 수 있다. 운영체제로는, 예를 들어, 안드로이드(Android), iOS, 윈도우즈(Windows), 심비안(Symbian), 타이젠(Tizen) 또는 바다(Bada) 운영 체제 등이 있을 수 있다.
커널(121)은 자원을 관리할 수 있는 디바이스 드라이버(121-1) 또는 시스템 리소스 매니저(121-2) 중 적어도 하나를 포함할 수 있다. 디바이스 드라이버(121-1)는 디바이스(1000)의 하드웨어들을 소프트웨어적으로 접근하여 제어하도록 할 수 있다. 이를 위하여, 디바이스 드라이버(121-1)는, 인터페이스와 각 하드웨어 업체가 제공하는 개별 드라이버 모듈로 구분될 수 있다. 디바이스 드라이버(121-1)는, 예로, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버 또는 IPC(inter-process communication) 드라이버 중 적어도 하나를 포함할 수 있다. 시스템 리소스 매니저(121-2)는 프로세스 관리부, 메모리 관리부 또는 파일 시스템 관리부 중 적어도 하나를 포함할 수 있다. 시스템 리소스 메니저(121-2)는 시스템 리소스의 제어, 할당 또는 회수 등의 기능을 수행할 수 있다.
미들웨어(122)는 다양한 어플리케이션들에서 공통적으로 요구되는 기능을 제공하기 위해 미리 구현해 놓은 복수의 모듈들을 포함할 수 있다. 미들웨어(122)는 어플리케이션(124)이 디바이스 내부의 자원을 효율적으로 사용할 수 있도록 API(123)를 통해 기능을 제공할 수 있다. 미들웨어(122)는, 예컨대, 어플리케이션 매니저(122-1), 윈도우 매니저(122-2), 멀티미디어 매니저(122-3), 리소스 매니저(122-4), 파워 매니저(122-5), 데이터베이스 매니저(122-6), 패키지 매니저(122-7), 연결 매니저(122-8), 통지 매니저(122-9), 위치 매니저(122-10), 그래픽 매니저(122-11) 또는 보안 매니저(122-12) 등의 복수의 모듈들 중 적어도 하나 이상을 포함할 수 있다.
어플리케이션 매니저(122-1)는 어플리케이션(124) 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저(122-2)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(122-3)는 다양한 미디어 파일들의 재생에 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저(122-4)는 어플리케이션(124) 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다. 파워 매니저(122-5)는 바이오스(BIOS) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 동작에 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저(122-6)는 어플리케이션(124) 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색 또는 변경할 수 있도록 관리할 수 있다. 패키지 매니저(122-7)은 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다. 연결 매니저(122-8)는, 예로, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저(122-9)는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저(122-10)는 디바이스(1000)의 위치 정보를 관리할 수 있다. 그래픽 매니저(122-11)는 사용자에게 제공될 그래픽 효과 및 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(122-12)는 시스템 보안 또는 사용자 인증 등에 요구되는 제반 보안 기능을 제공할 수 있다. 디바이스(1000)가 전화 기능을 구비한 경우에는, 미들웨어(122)는 사용자의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(미도시)를 더 포함할 수 있다.
미들웨어(122)는 런타임 라이브러리(122-13) 또는 다른 라이브러리 모듈들(미도시)를 더 포함할 수 있다. 런타임 라이브러리(122-13)는 어플리케이션이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈이다. 예컨대, 런타임 라이브러리(122-13)는 입출력, 메모리 관리 또는 산술 함수에 대한 기능 등을 수행할 수 있다. 미들웨어(122)는 전술한 내부 구성요소 모듈들의 다양한 기능 조합을 통해 새로운 미들웨어 모듈을 생성하여 사용할 수 있다. 미들웨어(122)는 차별화된 기능을 제공하기 위해 운영체제의 종류별로 특화된 모듈을 제공할 수 있다. 미들웨어(122)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 본 개시의 실시 예에 기재된 구성요소를 일부 생략하거나 다른 구성요소를 더 구비하거나, 또는 유사한 기능을 수행하는 다른 명칭을 갖는 구성요소로 대체할 수 있다.
API(123)는 API 프로그래밍 함수들의 집합으로써 운영체제에 따라 다른 구성으로 제공될 수 있다. 안드로이드 또는 iOS의 경우, 예를 들면, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(Tizen)의 경우, 예를 들면, 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(124)은, 디폴트로 설치되어 있는 프리로드 어플리케이션(preloaded Application) 또는 사용자가 사용 과정에서 설치하여 사용할 수 있는 제 3자 어플리케이션(third party application)을 포함할 수 있다. 어플리케이션(124)은, 예를 들어, 홈 화면으로 돌아가기 위한 홈 어플리케이션(124-1), 상대방과 전화 통화를 할 수 있는 다이얼러(dialer) 어플리케이션(124-2), 전화번호로 식별되는 상대방으로부터 메시지를 수신하는 문자 메시지 어플리케이션(124-3), IM(Instant Message) 어플리케이션(124-4), 브라우저(Browser) 어플리케이션(124-5), 카메라 어플리케이션(124-6), 알람 어플리케이션(124-7), 상대방의 전화번호 또는 주소를 관리하는 폰 북(Phone-Book) 어플리케이션(124-8), 사용자의 통화 로그, 문자 메시지의 수/발신 로그 또는 부재 중 전화 로그 등을 관리하는 콜 로그 어플리케이션(124-9), 이메일(E-mail)로 식별되는 상대방으로부터 메시지를 수신하는 이메일 어플리케이션(124-10), 달력 어플리케이션(124-11), 미디어 플레이어(Media Player) 어플리케이션(124-12), 앨범 어플리케이션(124-13) 또는 시계 어플리케이션(124-14) 중 적어도 하나를 포함할 수 있다. 본 개시에 따른 소프트웨어의 전술한 구성요소들의 명칭은 운영체제의 종류에 달라질 수 있다. 또한, 본 개시에 따른 소프트웨어는 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다.
도 30은 본 개시의 일 실시예에 따른 디바이스(2000)의 구성을 설명하기 위한 블록도이다.
도 30을 참조하면, 본 실시예에 따른 디바이스(2000)의 구성은 도 1의 디바이스(100), 도 21의 웨어러블 디바이스(200) 및 디바이스(300)에 모두 적용될 수 있다. 디바이스(2000)는 통신부(2100), 사용자 입력부(2200), 제어부(2300), 오디오 출력부(2400) 및 디스플레이부(2500)를 포함할 수 있다.
통신부(2100)는 외부 디바이스와 통신할 수 있고, 구체적으로, 외부 디바이스와 데이터, 제어 신호, 상태 신호 등을 교환할 수 있다. 또한, 통신부(2100)는 복수의 통신 방식을 제공할 수 있으며, 실시예에 따라 통신부(2100)에서 제공되는 통신 방식의 종류가 달라질 수 있다.
사용자 입력부(2200)는 디바이스(2000) 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신할 수 있다. 구체적으로, 사용자 입력부(2200)는 디바이스(2000)의 터치 영역 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제1 터치 제스처를 수신할 수 있다. 또한, 사용자 입력부(2000)는 디바이스(2000)의 터치 영역 상의 제1 지점에서 제2 지점으로 이동하는 제2 터치 제스처를 수신할 수 있다. 이때, 제2 터치 제스처의 수신 중에 제1 터치 제스처는 계속해서 수신될 수 있다. 또한, 사용자 입력부(2000)는 디바이스(2000)의 터치 영역 상의 적어도 한 지점을 적어도 한 번 이상 터치하는 제3 터치 제스처를 수신할 수 있다. 이때, 제3 터치 제스처의 수신 중에 제1 터치 제스처는 계속해서 수신될 수 있다.
또한, 제어부(2300)는 입력된 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하고, 인디케이션에 대응하는 어플리케이션 또는 기능이 선택되면 선택된 어플리케이션 또는 기능을 실행할 수 있다.
구체적으로, 제어부(2300)는 제1 터치 제스처에 응답하여 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공하도록 제어할 수 있다. 또한, 제어부(2300)는 제1 터치 제스처에 따라, 제2 터치 제스처에 응답하여 인디케이션을 제공할 복수의 어플리케이션들 및 기능들을 결정할 수 있다. 이어서, 제어부(2300)는 제2 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하도록 제어할 수 있다. 이어서, 제어부(2300)는 제3 터치 제스처에 응답하여, 선택된 어플리케이션 또는 기능을 실행하도록 제어할 수 있다.
오디오 출력부(2400)는 인디케이션을 소리로 출력할 수 있다. 구체적으로, 오디오 출력부(2400)는 제1 터치 제스처에 따른 동작 모드의 명칭을 소리로 출력할 수 있다. 또한, 오디오 출력부(2400)는 제2 터치 제스처에 따라 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력할 수 있다. 또한, 오디오 출력부(2400)는 제3 터치 제스처에 따라 선택된 어플리케이션 또는 기능의 명칭 또는 실행 결과를 소리로 출력할 수 있다. 이로써, 사용자가 디바이스(2000)를 볼 수 없는 상황에서도 사용자와 디바이스(2000) 사이의 정보 교환이 원활하게 이루어질 수 있다.
디스플레이부(2500)는 인디케이션을 그래픽으로 디스플레이할 수 있다. 구체적으로, 디스플레이부(2500)는 제1 터치 제스처에 따른 동작 모드를 나타내는 아이콘을 디스플레이할 수 있다. 또한, 디스플레이부(2500)는 제2 터치 제스처에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대응하는 아이콘에 대한 하이라이트를 디스플레이할 수 있다. 또한, 디스플레이부(2500)는 제2 터치 제스처에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대응하는 단축키를 디스플레이할 수 있다. 또한, 디스플레이부(2500)는 제2 터치 제스처에 따라 홈 기능을 나타내는 아이콘을 디스플레이할 수 있다. 또한, 디스플레이부(2500)는 제3 터치 제스처에 따라 실행된 어플리케이션 또는 기능에 따른 화면을 디스플레이할 수 있다.
본 발명의 실시예들에 따른 디바이스의 제어 방법은 소프트웨어 모듈 또는 알고리즘으로 구현될 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록매체로 마그네틱 기록매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 상기 기록매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. 또한, 상기 기록매체는 컴퓨팅 디바이스에 연결하면, 컴퓨팅 디바이스가 본 발명의 실시예들에 따른 디바이스의 제어 방법을 수행하도록 구성될 수 있다.
본원 발명의 실시 예 들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (37)

  1. 디바이스를 제어하는 방법으로서,
    상기 디바이스 상의 GUI(graphical user interface)의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하는 단계;
    수신된 상기 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션(indication)을 제공하는 단계;
    상기 인디케이션에 대한 사용자 입력을 수신하는 단계; 및
    수신된 상기 사용자 입력에 응답하여, 상기 인디케이션에 대응하는 어플리케이션 또는 기능을 실행하는 단계를 포함하는 방법.
  2. 제1항에 있어서,
    상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처인, 방법.
  3. 제1항에 있어서,
    상기 인디케이션을 제공하는 단계는, 상기 디바이스의 방위(orientation)에 무관하게 상기 터치 제스처의 방향(direction)을 기초로 하여, 상기 순서에 따라 상기 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하는, 방법.
  4. 제1항에 있어서,
    상기 터치 제스처는 제2 터치 제스처이고,
    상기 방법은,
    상기 제2 터치 제스처의 수신 전에, 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제1 터치 제스처를 수신하는 단계; 및
    상기 제1 터치 제스처에 따라 상기 복수의 어플리케이션들 및 기능들을 결정하는 단계를 더 포함하는, 방법.
  5. 제4항에 있어서,
    상기 제1 터치 제스처는 상기 디바이스 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제스처인, 방법.
  6. 제4항에 있어서,
    상기 제1 터치 제스처를 수신하는 단계는, 상기 제2 터치 제스처의 입력 중에 계속해서 상기 제1 터치 제스처를 수신하는, 방법.
  7. 제4항에 있어서,
    상기 제1 터치 제스처를 수신하는 단계 및 상기 제2 터치 제스처를 수신하는 단계는, 사용자의 양 손에 의해 상기 제1 및 제2 터치 제스처들을 각각 수신하는, 방법.
  8. 제4항에 있어서,
    상기 제1 터치 제스처를 수신하는 단계 및 상기 제2 터치 제스처를 수신하는 단계는, 사용자의 한 손의 서로 다른 손가락들에 의해 상기 제1 및 제2 터치 제스처들을 각각 수신하는, 방법.
  9. 제4항에 있어서,
    상기 제1 터치 제스처를 수신하는 단계는, 상기 디바이스 상의 한 지점을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하고,
    상기 복수의 어플리케이션들 및 기능들을 결정하는 단계는, 상기 디바이스 상에 현재 디스플레이된 어플리케이션들 및 기능들이 상기 제2 터치 제스처에 의해 안내되도록 결정하는, 방법.
  10. 제4항에 있어서,
    상기 제1 터치 제스처를 수신하는 단계는, 상기 디바이스 상의 두 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하고,
    상기 복수의 어플리케이션들 및 기능들을 결정하는 단계는, 상기 디바이스에서 실행 가능한 어플리케이션들 및 기능들 중 미리 결정된 적어도 하나의 어플리케이션 또는 기능에 대한 단축키가 상기 제2 터치 제스처에 의해 안내하도록 결정하는, 방법.
  11. 제4항에 있어서,
    상기 제1 터치 제스처를 수신하는 단계는, 상기 디바이스 상의 세 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하고,
    상기 복수의 어플리케이션들 및 기능들을 결정하는 단계는, 상기 디바이스에서 실행 가능한 홈 기능(home functionality)이 상기 제2 터치 제스처에 의해 안내되도록 결정하는, 방법.
  12. 제4항에 있어서,
    상기 제1 터치 제스처에 응답하여, 상기 제1 터치 제스처에 따른 동작 모드에 대한 인디케이션을 제공하는 단계를 더 포함하는, 방법.
  13. 제12항에 있어서,
    상기 제1 터치 제스처가 상기 디바이스 상의 한 지점에 대한 터치 제스처인 경우, 상기 동작 모드는 네비게이션(navigation) 모드이고,
    상기 제1 터치 제스처가 상기 디바이스 상의 두 지점들에 대한 터치 제스처인 경우, 상기 동작 모드는 단축키 모드이며,
    상기 제1 터치 제스처가 상기 디바이스 상의 세 지점들에 대한 터치 제스처인 경우, 상기 동작 모드는 홈 기능 모드이고,
    상기 제1 터치 제스처가 상기 디바이스 상의 네 지점들에 대한 터치 제스처인 경우, 상기 동작 모드는 어플리케이션 시작(launch) 모드인, 방법.
  14. 제1항에 있어서,
    상기 터치 제스처를 수신하는 단계는, 적어도 두 손가락들에 의한 제스처들을 동시에 수신하는, 방법.
  15. 제1항에 있어서,
    상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 직선 또는 곡선 형태로 이동하는 터치 제스처인, 방법.
  16. 제1항에 있어서,
    상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 스와이프 모드(swipe mode) 제스처이고,
    상기 인디케이션을 제공하는 단계는, 상기 디바이스에 순차적으로 입력되는 상기 스와이프 모드 제스처에 따라 상기 복수의 어플리케이션들 및 기능들에 대한 인디케이션을 순차적으로 제공하는, 방법.
  17. 제1항에 있어서,
    상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 그리고 상기 제2 지점에서 제3 지점으로 연속적으로 이동하는 연속 모드(continuous mode) 제스처이고,
    상기 인디케이션을 제공하는 단계는, 상기 디바이스에 연속적으로 입력되는 상기 연속 모드 제스처에 따라 상기 복수의 어플리케이션들 및 기능들에 대한 인디케이션을 순차적으로 제공하는, 방법.
  18. 제1항에 있어서,
    최초로 입력된 상기 터치 제스처에 의해 상기 디바이스 상의 제1 지점에서 제2 지점으로 터치 포인트가 이동하는 경우, 상기 터치 포인트의 이동 방향을 순방향으로 결정하고, 상기 순방향과 반대되는 방향을 역방향으로 결정하는 단계를 더 포함하는, 방법.
  19. 제18항에 있어서,
    상기 역방향에 따른 상기 터치 제스처를 수신하는 단계를 더 포함하고,
    상기 인디케이션을 제공하는 단계는, 상기 기 설정된 순서와 반대되는 순서에 따라 상기 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하는, 방법.
  20. 제1항에 있어서,
    상기 인디케이션을 제공하는 단계는, 상기 디바이스의 오디오 출력부를 통해 상기 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력하는, 방법.
  21. 제1항에 있어서,
    상기 인디케이션을 제공하는 단계는, 상기 디바이스 상에서 상기 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 하이라이트를 디스플레이하는, 방법.
  22. 제1항에 있어서,
    상기 사용자 입력을 수신하는 단계는, 상기 인디케이션을 선택하며 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제3 터치 제스처를 수신하는, 방법.
  23. 제22항에 있어서,
    상기 제3 터치 제스처는 상기 디바이스 상의 한 지점에 대한 적어도 한 번의 탭(tap) 동작인, 방법.
  24. 제1항에 있어서,
    상기 디바이스는 웨어러블 디바이스이며,
    상기 복수의 어플리케이션들 및 기능들은 상기 웨어러블 디바이스에 저장된, 방법.
  25. 제1항에 있어서,
    상기 디바이스는 웨어러블 디바이스이며,
    상기 복수의 어플리케이션들 및 기능들은 상기 웨어러블 디바이스에 연동된 외부 디바이스에 저장된, 방법.
  26. 디바이스로서,
    상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하는 사용자 입력부; 및
    입력된 상기 터치 제스처에 응답하여 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하고, 상기 인디케이션에 대응하는 어플리케이션 또는 기능이 선택되면 선택된 어플리케이션 또는 기능을 실행하는 제어부를 포함하는 디바이스.
  27. 제26항에 있어서,
    상기 터치 제스처는 상기 디바이스 상의 제1 지점에서 제2 지점으로 이동하는 터치 제스처인, 디바이스.
  28. 제26항에 있어서,
    상기 제어부는, 상기 디바이스의 방위에 무관하게 상기 터치 제스처의 방향을 기초로 하여, 상기 순서에 따라 상기 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하는, 디바이스.
  29. 제26항에 있어서,
    상기 터치 제스처는 제2 터치 제스처이고,
    상기 사용자 입력부는, 상기 제2 터치 제스처의 입력 전에, 상기 디바이스 상의 GUI의 요소들의 위치에 독립적인 제1 터치 제스처를 더 입력 받고,
    상기 제어부는, 상기 제1 터치 제스처에 따라 상기 복수의 어플리케이션들 및 기능들을 결정하는, 디바이스.
  30. 제29항에 있어서,
    상기 제1 터치 제스처는 상기 디바이스 상의 적어도 한 지점을 임계 시간 이상 동안 터치하는 제스처인, 디바이스.
  31. 제29항에 있어서,
    상기 사용자 입력부는, 상기 제2 터치 제스처의 입력 중에 계속해서 상기 제1 터치 제스처를 수신하는, 디바이스.
  32. 제29항에 있어서,
    상기 사용자 입력부가 상기 디바이스 상의 한 지점을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하는 경우, 상기 제어부는 상기 디바이스 상에 현재 디스플레이된 어플리케이션들 및 기능들이 상기 제2 터치 제스처에 의해 안내되도록 결정하고,
    상기 사용자 입력부가 상기 디바이스 상의 두 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하는 경우, 상기 제어부는 상기 디바이스에서 실행 가능한 어플리케이션들 및 기능들 중 미리 결정된 적어도 하나의 어플리케이션 또는 기능에 대한 단축키가 상기 제2 터치 제스처에 의해 안내하도록 결정하며,
    상기 사용자 입력부가 상기 디바이스 상의 세 지점들을 임계 시간 이상 동안 터치하는 상기 제1 터치 제스처를 수신하는 경우, 상기 제어부는 상기 디바이스에서 실행 가능한 홈 기능이 상기 제2 터치 제스처에 의해 안내되도록 결정하는, 디바이스.
  33. 제26항에 있어서,
    상기 인디케이션은 상기 복수의 어플리케이션들 및 기능들 중 하나의 명칭에 대한 소리이고,
    상기 디바이스는, 상기 복수의 어플리케이션들 및 기능들 중 하나의 명칭을 소리로 출력하는 오디오 출력부를 더 포함하는, 디바이스.
  34. 제26항에 있어서,
    상기 인디케이션은 상기 디바이스 상에서 상기 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 하이라이트이고,
    상기 디바이스는, 상기 복수의 어플리케이션들 및 기능들 중 하나의 아이콘 또는 하이라이트를 디스플레이하는 디스플레이부를 더 포함하는, 디바이스.
  35. 제26항에 있어서,
    상기 사용자 입력부는, 상기 인디케이션을 선택하며 상기 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 제3 터치 제스처를 더 수신하는, 디바이스.
  36. 제26항에 있어서,
    상기 디바이스는 웨어러블 디바이스이며,
    상기 복수의 어플리케이션들 및 기능들은 상기 웨어러블 디바이스 또는 상기 웨어러블 디바이스에 연동된 외부 디바이스에 저장된, 디바이스.
  37. 디바이스 상의 GUI의 요소들의 위치에 대해 독립적인 터치 제스처를 수신하는 단계;
    수신된 상기 터치 제스처에 응답하여, 기 설정된 순서에 따라 복수의 어플리케이션들 및 기능들 중 하나에 대한 인디케이션을 제공하는 단계;
    상기 인디케이션에 대한 사용자 입력을 수신하는 단계; 및
    수신된 상기 사용자 입력에 응답하여, 상기 인디케이션에 대응하는 어플리케이션 또는 기능을 실행하는 단계를 포함하는 디바이스의 제어 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020140126208A 2014-09-22 2014-09-22 디바이스 및 상기 디바이스의 제어 방법 KR20160034776A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140126208A KR20160034776A (ko) 2014-09-22 2014-09-22 디바이스 및 상기 디바이스의 제어 방법
PCT/KR2015/006463 WO2016047898A1 (en) 2014-09-22 2015-06-25 Device and method of controlling the device
EP15845075.9A EP3198390A4 (en) 2014-09-22 2015-06-25 Device and method of controlling the device
US15/510,289 US10592099B2 (en) 2014-09-22 2015-06-25 Device and method of controlling the device
CN201510590662.3A CN105446478B (zh) 2014-09-22 2015-09-16 设备及控制该设备的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140126208A KR20160034776A (ko) 2014-09-22 2014-09-22 디바이스 및 상기 디바이스의 제어 방법

Publications (1)

Publication Number Publication Date
KR20160034776A true KR20160034776A (ko) 2016-03-30

Family

ID=55556773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140126208A KR20160034776A (ko) 2014-09-22 2014-09-22 디바이스 및 상기 디바이스의 제어 방법

Country Status (5)

Country Link
US (1) US10592099B2 (ko)
EP (1) EP3198390A4 (ko)
KR (1) KR20160034776A (ko)
CN (1) CN105446478B (ko)
WO (1) WO2016047898A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US9811707B2 (en) 2014-06-04 2017-11-07 Lenovo (Singapore) Pte. Ltd. Fingerprint reader on a portion of a device for changing the configuration of the device
US9939908B2 (en) 2015-09-28 2018-04-10 Paypal, Inc. Multi-device authentication
US20170116453A1 (en) * 2015-10-23 2017-04-27 Lenovo (Singapore) Pte. Ltd. Systems and methods for biometric authentication circuit offset from front surface of device
US10761714B2 (en) 2015-11-23 2020-09-01 Google Llc Recognizing gestures and updating display by coordinator
US10218730B2 (en) * 2016-07-29 2019-02-26 ShieldX Networks, Inc. Systems and methods of stateless processing in a fault-tolerant microservice environment
US10871896B2 (en) * 2016-12-07 2020-12-22 Bby Solutions, Inc. Touchscreen with three-handed gestures system and method
KR102560598B1 (ko) * 2016-12-21 2023-07-28 삼성전자주식회사 디스플레이 장치 및 그 제어방법
CN112527166B (zh) * 2020-12-18 2022-11-18 阿波罗智联(北京)科技有限公司 触控指令的处理方法、装置、设备以及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6211856B1 (en) 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
EP1567927B1 (en) 2002-11-29 2013-07-10 Koninklijke Philips Electronics N.V. System and method for user interface with displaced representation of touch area
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
KR20090070491A (ko) 2007-12-27 2009-07-01 엔에이치엔(주) 터치스크린을 이용한 화면 제어 장치 및 방법
KR101593598B1 (ko) 2009-04-03 2016-02-12 삼성전자주식회사 휴대단말에서 제스처를 이용한 기능 실행 방법
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8749499B2 (en) 2010-06-08 2014-06-10 Sap Ag Touch screen for bridging multi and/or single touch points to applications
US9268431B2 (en) 2010-08-27 2016-02-23 Apple Inc. Touch and hover switching
US20120110517A1 (en) * 2010-10-29 2012-05-03 Honeywell International Inc. Method and apparatus for gesture recognition
EP2715490B1 (en) 2011-05-23 2018-07-11 Haworth, Inc. Digital whiteboard collaboration apparatuses, methods and systems
CN103092494A (zh) 2011-10-28 2013-05-08 腾讯科技(深圳)有限公司 触摸屏终端的应用程序切换方法和装置
KR20130052797A (ko) 2011-11-14 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 제어 방법 및 이를 지원하는 단말기
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
KR101974852B1 (ko) 2012-05-30 2019-05-03 삼성전자 주식회사 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치
KR20140051719A (ko) * 2012-10-23 2014-05-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20140173529A1 (en) 2012-12-14 2014-06-19 Barnesandnoble.Com Llc Circular gesture for touch sensitive ui control feature
CN103076973B (zh) 2013-01-05 2015-10-07 广东欧珀移动通信有限公司 一种窗口切换方法、***及智能终端
CN103135934A (zh) 2013-03-06 2013-06-05 广东欧珀移动通信有限公司 一种快速切换应用程序的方法、装置及触摸屏移动设备
CN103218044B (zh) 2013-04-11 2016-02-03 张苏渝 一种基于物理回馈的触摸装置及其触摸处理方法
EP2950179B1 (en) * 2014-05-30 2018-11-28 LG Electronics Inc. Mobile terminal and controlling method thereof

Also Published As

Publication number Publication date
CN105446478A (zh) 2016-03-30
US20170242580A1 (en) 2017-08-24
EP3198390A1 (en) 2017-08-02
WO2016047898A1 (en) 2016-03-31
US10592099B2 (en) 2020-03-17
CN105446478B (zh) 2019-08-09
EP3198390A4 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
KR102228458B1 (ko) 디바이스 및 상기 디바이스에서의 응답 메시지 제공 방법
KR20160034776A (ko) 디바이스 및 상기 디바이스의 제어 방법
KR102318610B1 (ko) 모바일 디바이스 및 모바일 디바이스의 디스플레이 방법
US11392271B2 (en) Electronic device having touchscreen and input processing method thereof
EP2916208B1 (en) Portable terminal and method of enlarging and displaying contents
US10067666B2 (en) User terminal device and method for controlling the same
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR20160128739A (ko) 디스플레이 장치 및 그의 유저 인터페이스 제공 방법
KR102249886B1 (ko) 웹 페이지 전환 방법 및 이를 이용하는 휴대 단말기, 이 방법을 실행하기 위한 프로그램이 기록되어 있는 비휘발성 기록매체
WO2018137287A1 (zh) 一种显示应用的方法、装置及电子终端
KR102367184B1 (ko) 스크린 키보드를 이용한 정보 입력 방법 및 이를 위한 장치
KR20160026670A (ko) 이미지를 디스플레이하는 디바이스 및 방법
KR102216127B1 (ko) 문자 입력 방법 및 장치
KR20170004220A (ko) 키패드를 표시하는 전자장치 및 그의 키패드 표시 방법
KR102180404B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR20160018269A (ko) 디바이스 및 디바이스의 제어 방법
KR20150128406A (ko) 음성 인식 정보를 표시하는 방법 및 장치
KR20140028383A (ko) 사용자 단말 장치 및 그 제어 방법
KR102360177B1 (ko) 사용자 입력을 수신함에 따라 애플리케이션의 실행 결과를 디스플레이하는 방법 및 디바이스
KR102249746B1 (ko) 링크 객체에 연결된 전자문서의 표시 방법 및 전자 장치
KR101579112B1 (ko) 이미지 처리 방법 및 장치
KR20170009688A (ko) 전자 장치 및 이의 제어 방법
KR20160085677A (ko) 사용자 단말 장치 및 그의 제어 방법
KR20140089870A (ko) 사용자 인터페이스 제공 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal