KR101648747B1 - 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기 - Google Patents

복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기 Download PDF

Info

Publication number
KR101648747B1
KR101648747B1 KR1020090095322A KR20090095322A KR101648747B1 KR 101648747 B1 KR101648747 B1 KR 101648747B1 KR 1020090095322 A KR1020090095322 A KR 1020090095322A KR 20090095322 A KR20090095322 A KR 20090095322A KR 101648747 B1 KR101648747 B1 KR 101648747B1
Authority
KR
South Korea
Prior art keywords
touch sensor
sensor unit
touch
pattern
movement operation
Prior art date
Application number
KR1020090095322A
Other languages
English (en)
Other versions
KR20110037761A (ko
Inventor
장시학
김향아
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020090095322A priority Critical patent/KR101648747B1/ko
Priority to US12/884,441 priority patent/US20110080359A1/en
Priority to BR112012006470A priority patent/BR112012006470A2/pt
Priority to EP10822220.9A priority patent/EP2486663A4/en
Priority to JP2012533076A priority patent/JP5823400B2/ja
Priority to AU2010304098A priority patent/AU2010304098B2/en
Priority to PCT/KR2010/006784 priority patent/WO2011043575A2/en
Priority to RU2012111314/07A priority patent/RU2553458C2/ru
Priority to CN201080045167.XA priority patent/CN102687406B/zh
Publication of KR20110037761A publication Critical patent/KR20110037761A/ko
Application granted granted Critical
Publication of KR101648747B1 publication Critical patent/KR101648747B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 복수의 터치 센서를 이용한 UI 제공방법 및 이를 이용한 휴대 단말기에 관한 것이다. 본 발명의 실시예에 따른 제1터치센서부 및 제2터치센서부를 구비하는 휴대 단말기의 UI 제공방법은 제1터치센서부 및 제2터치센서부로의 사용자에 의한 터치를 감지하는 터치 감지 단계와; 제1터치센서부 및 제2터치센서부에 입력되는 터치 위치의 이동 동작의 패턴을 인식하는 이동 동작 패턴 인식 단계와; 인식된 터치 위치의 이동 동작의 패턴에 대응하는 UI(User Interface)를 제공하는 UI 제공 단계를 포함하는 것을 특징으로 한다. 본 발명을 통해 사용자는 다양한 터치 동작을 통해 휴대 단말기에 조작 명령을 입력할 수 있으며, 휴대 단말기를 사용함에 있어서 감성적 측면이 향상되는 효과가 발생한다.
휴대 단말기, 터치스크린, UI(User Interface)

Description

복수의 터치 센서를 이용한 UI 제공방법 및 이를 이용한 휴대 단말기 {METHOD FOR PROVIDING USER INTERFACE USING A PLURALITY OF TOUCH SENSOR AND MOBILE TERMINAL USING THE SAME}
본 발명은 복수의 터치 센서를 이용한 UI 제공방법 및 이를 이용한 휴대 단말기에 관한 것으로서, 특히 휴대 단말기의 전면과 후면에 형성된 터치 센서를 이용한 UI 제공방법과 이러한 방법을 이용하는 휴대 단말기에 관한 것이다.
최근 휴대 단말기 보급률의 급속한 증가로 휴대 단말기는 이제 현대인의 생활필수품으로 자리매김하게 되었다. 최근 터치스크린 기반의 휴대 단말기가 보편화되면서 터치 센서를 이용한 UI 제공방법의 중요성이 증대되고 있다.
현재 출시되고 있는 터치스크린 기반의 휴대 단말기는 기본적으로 하나의 터치 센서를 구비하고 있다. 사용자는 터치(touch), 드래그(drag) 등의 동작을 터치 센서에 입력하여 휴대 단말기에 명령을 입력하게 된다. 그러나 이와 같이 하나의 터치 센서로 이루어지는 휴대 단말기에서 사용자가 터치 센서에 입력할 수 있는 동작은 매우 제한적이다. 터치스크린 기반의 휴대 단말기가 보편화되고 있는 상황에서 터치센서를 이용한 UI 제공 기술의 중요성은 증대되고 있으며, 다양한 터치 입 력에 따른 UI 제공 방법이 요구되고 있다.
본 발명의 목적은 복수의 터치 센서들을 구비하는 휴대 단말기에서 다양한 터치 동작의 입력에 따른 UI 제공방법을 제공하는데 있다.
본 발명의 다른 목적은 상기 방법을 이용하는 휴대 단말기를 제공하는데 있다.
본 발명의 실시예에 따른 제1터치센서부 및 제2터치센서부를 구비하는 휴대 단말기의 UI 제공방법은 제1터치센서부 및 제2터치센서부로의 사용자에 의한 터치를 감지하는 터치 감지 단계와; 제1터치센서부 및 제2터치센서부에 입력되는 터치 위치의 이동 동작의 패턴을 인식하는 이동 동작 패턴 인식 단계와; 인식된 터치 위치의 이동 동작의 패턴에 대응하는 UI(User Interface)를 제공하는 UI 제공 단계를 포함하는 것을 특징으로 한다.
본 발명의 실시예에 따른 UI를 제공하는 휴대 단말기는 제1터치센서부와 제1터치센서부가 형성되는 면과 반대면에 형성되는 제2터치센서부로 구성되는 터치센서부와; UI를 제공하는 UI부와; 터치센서부를 제어하여 사용자에 의한 터치를 감지하고, 입력되는 터치 위치의 이동 동작의 패턴을 인식하고, UI부를 제어하여 인식된 터치 위치의 이동 동작의 패턴에 대응하는 UI를 제공하는 제어부를 포함하는 것을 특징으로 한다.
본 발명을 통해 사용자는 다양한 터치 동작을 통해 휴대 단말기에 조작 명령을 입력하고, 각각의 입력에 따라 서로 다른 UI를 제공받을 수 있으며, 휴대 단말기를 사용함에 있어서 감성적 측면이 향상된다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
본 발명은 휴대 단말기를 예로 들어 설명하지만, 이에 한정되는 것은 아니며, 터치스크린이 구비된 모든 장치에 적용될 수 있다. 또한 본 발명의 실시예에 따른 휴대 단말기는 터치스크린이 구비된 단말기로서, 바람직하게는 이동통신 단말기, 휴대용 멀티미디어 재생 장치(Portable Multimedia Player-PMP), 개인 정보 단말기(Personal Digital Assistant-PDA), 스마트 폰(Smart Phone), MP3 플레이어 등과 같은 모든 정보 통신 기기 및 멀티미디어 기기와 그에 대한 응용에도 적용될 수 있다.
도 1은 본 발명의 실시예에 따른 두 개의 터치 센서를 구비하는 휴대 단말기(100)를 나타내는 도면이다. 본 발명에서는 터치스크린을 구비하는 휴대 단말기들 중 바(bar) 형태의 휴대 단말기를 중심으로 설명하기로 한다. 그러나 이에 한정되는 것은 아니며, 폴더(folder), 슬라이드(slide) 형태의 휴대 단말기에도 본 발명은 적용될 수 있다. 또한 본 발명에서 터치스크린이 위치하는 휴대 단말기의 면 을 '전면'이라고 하고, 터치스크린이 위치하는 면의 반대 면을 '후면'이라고 한다.
도 1의 [a]는 휴대 단말기(100)의 전면을 나타낸다. 전면에는 터치스크린부(120)와 소정의 키 입력부(150)가 형성되어 있다. 도 1의 [b]는 휴대 단말기(100)의 후면을 나타내며, 후면에는 제2터치센서부(130)가 형성되어 있다. 터치스크린부(120)는 제1터치센서부를 포함하며, 제1터치센서부와 제2터치센서부(130)는 각각 휴대 단말기의 전면과 후면에 형성된다. 휴대 단말기(100)의 구성 요소들에 관해서는 도 2에 구체적으로 도시되어 있다.
도 2는 본 발명의 실시예에 따른 두 개의 터치 센서를 구비하는 휴대 단말기(100)의 구성도를 나타낸다. 본 발명의 휴대 단말기(100)는 무선통신부(110), 터치스크린부(120), 제2터치센서부(130), 오디오처리부(140), 키입력부(150), 저장부(160) 및 제어부(170)를 포함한다.
무선통신부(110)는 휴대 단말기의 무선 통신을 위한 해당 데이터의 송수신 기능을 수행한다. 무선통신부(110)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF수신기 등으로 구성될 수 있다. 또한, 무선통신부(110)는 무선 채널을 통해 데이터를 수신하여 제어부(170)로 출력하고, 제어부(170)로부터 출력된 데이터를 무선 채널을 통해 전송할 수 있다.
터치스크린부(120)는 제1터치센서부(121) 및 표시부(122)를 포함한다. 제1터치센서부(121)는 사용자의 터치 입력을 감지한다. 제1터치센서부(121)는 정전용량 방식(capacitive overlay), 압력식 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 센서(pressure sensor)로 구성될 수도 있으며, 이에 한정되지 않고 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서가 본 발명의 제1터치센서부(121)에 해당할 수 있다. 제1터치센서부(121)는 사용자의 터치 입력을 감지하고 감지 신호를 발생시켜 제어부(170)로 전송한다.
표시부(122)는 액정표시장치(LCD, Liquid Crystal Display)로 형성될 수 있으며, 휴대 단말기의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다. 예를 들어, 표시부(122)는 휴대 단말기 부팅 화면, 대기 화면, 표시 화면, 통화 화면, 기타 어플리케이션 실행화면을 출력하는 기능을 수행한다.
제2터치센서부(130)는 제1터치센서부(121)와 동일한 방식의 터치 센서로 구성될 수 있으며, 다른 방식의 터치 센서로 구성될 수도 있다. 본 발명의 실시예에 따른 제2터치센서부(130)는 도 1의 [b]에 도시된 바와 같이 휴대 단말기(100)의 후면에 형성된다. 제2터치센서부(130)는 사용자의 터치 입력을 감지하고 감지 신호를 발생시켜 제어부(170)로 전송한다. 본 발명의 실시예에 따른 제2터치센서부(130)는 '사각형', '원', '십자 모양' 등 다양한 형태로 구성될 수 있다. 제2터치센서부(130)가 '십자 모양' 형태로 구성되는 경우, 제2터치센서부(130)는 상하 방향의 터치 위치의 이동 동작과 좌우 방향의 터치 위치의 이동 동작을 감지할 수 있다.
오디오처리부(140)는 코덱(CODEC)으로 구성될 수 있으며, 코덱은 패킷 데이 터 등을 처리하는 데이터 코덱과 음성 등의 오디오 신호를 처리하는 오디오 코덱으로 구성될 수 있다. 오디오처리부(140)는 디지털 오디오 신호를 오디오 코덱을 통해 아날로그 오디오 신호로 변환하여 스피커(SPK)를 통해 재생하고, 마이크(MIC)로부터 입력되는 아날로그 오디오 신호를 오디오 코덱을 통해 디지털 오디오 신호로 변환한다. 본 발명의 실시예에 따른 표시부(122), 오디오처리부(140)는 UI(User Interface)부를 구성할 수 있다.
키입력부(150)는 휴대 단말기를 제어하기 위한 사용자의 키 조작신호를 입력받아 제어부(170)에 전달한다. 키입력부(150)는 숫자키, 방향키를 포함하는 키패드로 구성될 수 있으며, 휴대 단말기의 일측 면에 소정의 기능키로 형성될 수 있다. 본 발명의 실시예에 따라 제1터치센서부(121) 및 제2터치센서부(130)만으로 모든 조작이 가능한 휴대 단말기의 경우에는 키입력부(150)가 생략될 수도 있다.
저장부(160)는 휴대 단말기의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 본 발명의 실시예에 따른 저장부(160)는 제1터치센서부(121) 및 제2터치센서부(130)로 입력되는 터치 위치의 이동 동작의 패턴에 대응하는 UI(User Interface) 제공 방법에 관한 정보를 저장한다.
제어부(170)는 휴대 단말기의 각 구성 요소에 대한 전반적인 동작을 제어한다. 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의한 터치를 감지하고, 입력되는 터치 위치의 이동 동작의 패턴을 인식한다. 제어부(170)는 표시부(122) 또는 오디오처리부(140)를 제어하여 상기 인식된 터치 위치의 이동 동작의 패턴에 대응하는 UI를 제공한다. 제어부(170)는 제1터치센서 부(121) 및 제2터치센서부(130)를 제어하여 제1터치센서부(121)와 제2터치센서부(130)에 서로 반대 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121)와 제2터치센서부(130)에 서로 같은 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121) 및 제2터치센서부(130) 중 어느 하나에만 이동 동작이 입력되는 패턴을 인식할 수 있다. 또한 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 제1터치센서부(121)와 제2터치센서부(130)에 상하 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121)와 제2터치센서부(130)에 좌우 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121)와 제2터치센서부(130)에 회전 방향의 이동 동작이 입력되는 패턴을 인식할 수 있다. 또한 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130) 중 어느 하나에만 이동 동작이 입력되는 패턴을 인식하는 경우, 이동 동작이 제1터치센서부(121)에 입력되는지 제2터치센서부(130)에 입력되는지 판단할 수 있으며, 입력되는 이동 동작이 상하 방향의 이동 동작인지 좌우 방향의 이동 동작인지 회전 방향의 이동 동작인지 판단할 수 있다.
도 3은 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 일반적인 실시예를 나타내는 순서도이다.
301단계에서 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의한 터치 입력을 감지한다. 사용자가 손가락을 제1터치센서부(121)와 제2터치센서부(130)에 접촉하면 제1터치센서부(121) 및 제2터치센서부(130)는 터치를 감지하고 감지 신호를 제어부(170)로 전송한다. 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)로부터 각각 감지 신호를 수신하여 사용자가 제1터치센서부(121)와 제2터치센서부(130)에 접촉을 입력했음을 인식한다.
302단계에서 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의해 입력되는 터치 위치의 이동 동작의 패턴을 인식한다. 사용자가 손가락을 제1터치센서부(121)와 제2터치센서부(130)에 접촉한 상태에서 터치 위치를 이동시키는 동작을 입력하면 제1터치센서부(121) 및 제2터치센서부(130)는 터치 위치의 이동을 감지하고 감지 신호를 제어부(170)로 전송한다. 본 발명의 실시예에 따른 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 제1터치센서부(121)와 제2터치센서부(130)에 서로 반대 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121)와 제2터치센서부(130)에 서로 같은 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121) 및 제2터치센서부(130) 중 어느 하나에만 이동 동작이 입력되는 패턴을 인식할 수 있다. 또한 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 제1터치센서부(121)와 제2터치센서부(130)에 상하 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121)와 제2터치센서부(130)에 좌우 방향의 이동 동작이 입력되는 패턴을 인식하거나, 제1터치센서부(121)와 제2터치센서부(130)에 회전 방향의 이동 동작이 입력되는 패턴을 인식할 수 있다. 또한 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130) 중 어느 하나에만 이동 동작이 입력되는 패턴을 인식하는 경우, 이동 동작이 제1터치센서부(121)에 입력되는지 제2터치센서부(130)에 입력되는지 판단할 수 있으며, 입력되는 이동 동작이 상하 방향의 이동 동작인지, 좌우 방향의 이동 동작인지, 회전 방향의 이동 동작인지 판단할 수 있다.
303단계에서 제어부(170)는 표시부(122) 또는 오디오처리부(140)를 제어하여 인식된 터치 위치의 이동 동작의 패턴에 대응하는 UI를 제공한다. 본 발명의 실시예에 따라 현재 복수의 어플리케이션들이 실행 중인 경우, 제어부(170)는 표시부(122)를 제어하여 실행된 복수의 어플리케이션들의 실행 화면들을 중첩된 형태로 이동 동작의 방향 또는 거리에 따라 실행 화면들 간의 간격을 설정하여 표시할 수 있다. 또한 현재 복수의 컨텐츠들이 실행 중인 경우, 제어부(170)는 표시부(122)를 제어하여 복수의 컨텐츠들의 실행 화면들을 중첩된 형태로 이동 동작의 방향 또는 거리를 따라 실행 화면들 간의 간격을 설정하여 표시할 수 있다. 본 발명의 실시예에 따라 현재 화면 잠금 기능이 실행 중인 경우, 제어부(170)는 화면 잠금 기능을 해제하고 표시부(122)를 제어하여 화면 잠금 기능이 해제된 화면을 표시할 수 있다. 또한 현재 휴대 단말기(100)에 저장된 음악이 재생 중인 경우, 제어부(170)는 오디오처리부(140)를 제어하여 재생되는 음악의 볼륨을 조절하여 출력할 수 있다. 본 발명의 실시예에 따라 현재 휴대 단말기(100)에 저장된 이미지가 표시된 경우, 제어부(170)는 표시부(122)를 제어하여 상기 이미지를 줌인(zoom in) 또는 줌아웃(zoom out)하여 표시하거나, 터치 위치의 이동 동작의 방향을 따라 상기 이미지를 회전 또는 이동시켜 표시할 수 있다. 또한 현재 휴대 단말기(100)에 저장된 이미지가 표시되었을 때, 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130) 중 어디에 터치 위치의 이동 동작이 입력되었는지 판단한 후, 이에 따라 표시부(122)를 제어하여 상기 이미지를 줌인 또는 줌아웃하여 표시하거나, 상기 이미지 를 이동시켜 표시하거나, 표시된 이미지가 3D(Dimensional) 이미지인 경우에는 뷰포인트(viewpoint)를 변경시켜 표시할 수 있다. 이하에서는 네 가지 구체적인 실시예들을 중심으로 본 발명의 복수의 터치 센서를 이용한 UI 제공방법에 대해 설명하기로 한다.
도 4는 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제1실시예에 해당하는 순서도이다.
401단계에서 제어부(170)는 휴대 단말기(100)에 포함되는 복수의 어플리케이션들을 멀티태스킹(multitasking)으로 실행한다. 제어부(170)가 실행하는 어플리케이션들은 휴대 단말기(100)에 포함되는 모든 응용 프로그램이 이에 해당할 수 있다. 제1실시예에서 제어부(170)는 401단계에서 'Application 1', 'Application 2', 'Application 3' 및 'Application 4'를 멀티태스킹으로 실행한 것으로 가정한다.
402단계에서 제어부(170)는 표시부(122)를 제어하여 상기 실행된 복수의 어플리케이션들 중 어느 하나의 어플리케이션의 실행 화면을 전체 화면으로 표시한다. 예를 들어, 제어부(170)는 표시부(122)를 제어하여 실행된 복수의 어플리케이션들 중 가장 마지막에 실행된 어플리케이션 또는 사용자가 전체 화면 보기 기능을 선택한 어플리케이션의 실행 화면을 전체 화면으로 표시할 수 있다. 제1실시예에서 제어부(170)는 402단계에서 'Application 1'의 실행 화면을 전체 화면으로 표시한 것으로 가정한다. 도 5는 본 발명의 제1실시예에 따른 휴대 단말기(100)의 표시 화면의 예시도이며, 도 5의 [a]에서 휴대 단말기(100)는 'Application 1'의 실행 화 면을 전체 화면으로 표시하고 있다.
403단계에서 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의한 터치 입력을 감지한다. 이어 제어부(170)는 404단계에서 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 터치 위치의 이동 동작이 입력되는지 판단한다. 터치 위치의 이동 동작이 입력된 것으로 판단하면, 제어부(170)는 405단계에서 터치 위치의 이동 동작의 패턴을 인식한다. 제1실시예에서 사용자는 제1터치센서부(121)에 하방향으로 제2터치센서부(130)에 상방향으로 터치 위치의 이동 동작을 입력한 것으로 가정한다. 도 5의 [a]에는 제1터치센서부(121)에 하방향의 터치 위치 이동 동작이 입력되고, 제2터치센서부(130)에 상방향의 터치 위치 이동 동작이 입력된 형태가 도시되어 있다.
406단계에서 제어부(170)는 표시부(122)를 제어하여 실행 중인 복수의 어플리케이션들의 실행 화면들을 중첩된 형태로 이동 동작 방향 및 거리에 따라 실행 화면들 간의 간격을 변경하여 표시한다. 현재 'Application 1', 'Application 2', 'Application 3' 및 'Application 4'가 실행되어 있으며, 제어부(170)는 표시부(122)를 제어하여 'Application 1', 'Application 2', 'Application 3' 및 'Application 4'의 실행 화면들을 중첩된 형태로 표시한다. 제1실시예에서는 사용자가 상하 방향으로 터치 위치를 이동시켰으며, 이에 따라 제어부(170)는 표시부(122)를 제어하여 'Application 1', 'Application 2', 'Application 3' 및 'Application 4'의 실행 화면들을 세로로 중첩된 형태로 표시한다. 또한 제1실시예에서 제어부(170)는 표시부(122)를 제어하여 사용자가 터치 위치를 이동시킨 거리 에 따라 'Application 1', 'Application 2', 'Application 3' 및 'Application 4'의 실행 화면들 간의 간격을 변경시켜 표시한다.
407단계에서 제어부(170)는 제1터치센서부(121)와 제2터치센서부(130)를 제어하여 터치 위치의 이동 동작 거리가 설정된 임계 거리 이상에 해당하는지 판단한다. 터치 위치의 이동 동작 거리가 설정된 임계 거리 이상에 해당하는 경우, 제어부(170)는 408단계에서 표시부(122)를 제어하여 실행 중인 복수의 어플리케이션들의 실행 화면들 간의 간격을 고정시켜 표시한다. 즉, 제어부(170)는 사용자가 터치 위치의 이동 동작을 계속적으로 입력되더라도 이동 동작 거리가 설정된 임계 거리 이상에 해당하면, 어플리케이션 실행 화면들 간의 간격을 더 이상 벌리지 않고 고정시켜 표시한다. 도 5를 참조하면, 도 5의 [b]에서 휴대 단말기(100)는 'Application 1', 'Application 2', 'Application 3' 및 'Application 4'의 실행 화면들을 일정 간격으로 표시하고 있다.
409단계에서 제어부(170)는 제1터치센서부(121)를 제어하여 표시된 복수의 실행 화면들 중 어느 하나의 실행 화면이 선택되는지 여부를 판단한다. 사용자가 제1터치센서부(121)를 통해 어느 하나의 실행 화면을 터치하면, 제1터치센서부(121)는 감지 신호를 발생시켜 제어부(170)로 전송하며, 제어부(170)는 감지 신호를 수신하여 선택된 실행 화면을 인식하게 된다. 어느 하나의 실행 화면이 선택되면 410단계에서 제어부(170)는 표시부(122)를 제어하여 선택된 실행 화면을 전체 화면으로 표시한다. 예를 들어, 'Application 1', 'Application 2', 'Application 3' 및 'Application 4'의 실행 화면들이 표시된 상태에서 사용자가 'Application 3'의 실행 화면을 선택하면, 제어부(170)는 표시부(122)를 제어하여 'Application 3'의 실행 화면을 전체 화면으로 표시한다. 도 5를 참조하면, 도 5의 [c]에서 휴대 단말기(100)는 'Application 3'의 실행 화면을 전체 화면으로 표시하고 있다.
도 6은 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제2실시예에 해당하는 순서도이다.
601단계에서 제어부(170)는 저장부(160)에 저장된 복수의 컨텐츠들을 실행한다. 예를 들어, 컨텐츠가 '문서 파일(document file)'에 해당하는 경우, 제어부(170)는 '문서 보기 어플리케이션'을 통해 사용자에 의해 선택된 '문서 파일'들을 실행한다. 제2실시예에서 제어부(170)는 601단계에서 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'의 문서들을 '문서 보기 어플리케이션'을 통해 실행한 것으로 가정한다.
602단계에서 제어부(170)는 표시부(122)를 제어하여 상기 실행된 복수의 컨텐츠들 중 어느 하나의 컨텐츠의 실행 화면을 전체 화면으로 표시한다. 제2실시예에서 제어부(170)는 602단계에서 'Doc 1'의 실행 화면을 전체 화면으로 표시한 것으로 가정한다. 도 7은 본 발명의 제2실시예에 따른 휴대 단말기(100)의 표시 화면의 예시도에 해당하며, 도 7의 [a]에서 휴대 단말기(100)는 'Doc 1'의 실행 화면을 전체 화면으로 표시하고 있다.
603단계에서 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의한 터치 입력을 감지한다. 이어 제어부(170)는 604단계에서 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 터치 위치의 이동 동작이 입력 되는지 판단한다. 터치 위치의 이동 동작이 입력된 것으로 판단하면, 제어부(170)는 605단계에서 터치 위치의 이동 동작의 패턴을 인식한다. 제2실시예에서 사용자는 제1터치센서부(121)에 우방향으로 제2터치센서부(130)에 좌방향으로 터치 위치의 이동 동작을 입력한 것으로 가정한다. 도 7의 [a]에는 제1터치센서부(121)에 우방향의 터치 위치의 이동 동작이 입력되고, 제2터치센서부(130)에 좌방향의 터치 위치의 이동 동작이 입력된 형태가 도시되어 있다.
606단계에서 제어부(170)는 표시부(122)를 제어하여 실행 중인 복수의 컨텐츠들의 실행 화면들을 중첩된 형태로 이동 동작 방향 및 거리에 따라 실행 화면들 간의 간격을 변경하여 표시한다. 현재 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'가 실행되어 있으며, 제어부(170)는 표시부(122)를 제어하여 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'의 실행 화면들을 중첩된 형태로 표시한다. 제2실시예에서 사용자가 좌우 방향으로 터치 위치를 이동시켰으며, 이에 따라 제어부(170)는 표시부(122)를 제어하여 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'의 실행 화면들을 가로로 중첩된 형태로 표시한다. 또한 제2실시예에서 제어부(170)는 표시부(122)를 제어하여 사용자가 터치 위치를 이동시킨 거리에 따라 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'의 실행 화면들 간의 간격을 변경시켜 표시한다.
607단계에서 제어부(170)는 제1터치센서부(121)와 제2터치센서부(130)를 제어하여 터치 위치의 이동 동작 거리가 설정된 임계 거리 이상에 해당하는지 판단한다. 터치 위치의 이동 동작 거리가 설정된 임계 거리 이상에 해당하는 경우, 제어부(170)는 608단계에서 표시부(122)를 제어하여 실행 중인 복수의 컨텐츠들의 실행 화면들 간의 간격을 고정시켜 표시한다. 도 7을 참조하면, 도 7의 [b]에서 휴대 단말기(100)는 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'의 실행 화면들을 일정 간격으로 표시하고 있다.
609단계에서 제어부(170)는 제1터치센서부(121)를 제어하여 표시된 복수의 실행 화면들 중 어느 하나의 실행 화면이 선택되는지 여부를 판단한다. 어느 하나의 실행 화면이 선택되면 610단계에서 제어부(170)는 표시부(122)를 제어하여 선택된 실행 화면을 전체 화면으로 표시한다. 예를 들어, 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'의 실행 화면들이 표시된 상태에서 사용자가 'Doc 2'의 실행 화면을 선택하면, 제어부(170)는 표시부(122)를 제어하여 'Doc 2'의 실행 화면을 전체 화면으로 표시한다. 도 7을 참조하면, 도 7의 [c]에서 휴대 단말기(100)는 'Doc 2'의 실행 화면을 전체 화면으로 표시하고 있다.
본 발명의 실시예에 따라 606단계에서 제어부(170)는 표시부(122)를 제어하여 전체 화면으로 표시되어 있는 실행 화면의 크기를 축소시켜 표시하고, 현재 실행 중인 컨텐츠들의 실행 화면들이 하나의 화면으로 표시될 때까지 전체 화면으로 표시된 실행 화면을 축소시켜 표시할 수 있다. 이어 제어부(170)는 607단계에서 터치 위치의 이동 동작 거리가 설정된 임계 거리 이상에 해당하는지 판단하고, 임계 거리 이상에 해당하는 경우 608단계에서 표시부(122)를 제어하여 현재 화면을 고정시켜 표시할 수 있다. 예를 들어, 601단계에서 제어부(170)가 '이미지 파일(image file)'에 해당하는 컨텐츠인 'image 1', 'image 2' 및 'image 3'을 실행시키고, 602단계에서 표시부(122)를 제어하여 'image 1'의 실행 화면을 전체 화면으로 표시 한 경우, 사용자에 의해 터치 및 터치 위치의 이동 동작이 입력되면, 제어부(170)는 606단계에서 표시부(122)를 제어하여 'image 1'의 실행 화면을 축소시켜 표시하고, 'image 2' 및 'image 3'의 실행 화면을 'image 1'의 실행 화면과 함께 하나의 화면에 표시할 수 있다. 도 8은 본 발명의 제2실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도이다. 도 8의 [a]에는 90도 회전된 형태(누워있는 형태)로 위치한 휴대 단말기(100)가 도시되어 있으며, 휴대 단말기(100)는 'image 1'의 실행 화면을 전체 화면으로 표시하고 있고, 사용자에 의해 좌우 방향의 터치 위치 이동 동작이 입력되는 형태가 도시되어 있다. 또한 도 8의 [b]에서 휴대 단말기(100)는 'image 1'의 실행 화면을 축소시켜 'image 2' 및 'image 3'의 실행 화면들과 함께 하나의 화면으로 표시하고 있고, 사용자에 의해 'image 2'의 실행 화면이 선택되는 형태가 도시되어 있다. 도 8의 [c]에서 휴대 단말기(100)는 'image 2'의 실행 화면을 전체 화면으로 표시하고 있다.
본 발명에 따라 휴대 단말기(100)는 제1실시예 및 제2실시예의 조합에 따라 사용자의 터치 입력을 수신하고 이에 대응하는 UI를 제공할 수 있다. 예를 들어, 사용자가 '문서 보기 어플리케이션', 'Application 1', 'Application 2' 및 'Application 3'을 실행하고, '문서 보기 어플리케이션'을 통해 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'를 실행한 것으로 가정한다. 그리고 휴대 단말기(100)는 'Doc 1'의 실행 화면을 전체 화면으로 표시하고 있는 것으로 가정한다. 'Doc 1'의 실행 화면이 전체 화면으로 표시된 상태에서, 사용자가 제1터치센서부(121) 및 제2터치센서부(130)에 상하 방향의 터치 위치 이동 동작을 입력하면, 휴대 단말기(100)는 '문서 보기 어플리케이션', 'Application 1', 'Application 2' 및 'Application 3'의 실행 화면들을 세로 방향으로 중첩하여 표시할 수 있다. 또한 사용자가 제1터치센서부(121) 및 제2터치센서부(130)에 좌우 방향의 터치 위치 이동 동작을 입력하면, 휴대 단말기(100)는 'Doc 1', 'Doc 2', 'Doc 3' 및 'Doc 4'의 실행 화면들을 가로 방향으로 중첩하여 표시할 수 있다.
도 9는 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제3실시예에 해당하는 순서도이다.
901단계에서 제어부(170)는 화면 잠금 기능을 실행한다. 도 10은 본 발명의 제3실시예에 따른 휴대 단말기(100)의 표시 화면의 예시도이며, 도 10의 [a]에서 휴대 단말기(100)는 화면 잠금 기능이 실행된 상태의 화면을 표시하고 있다.
902단계에서 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의한 터치 입력을 감지한다. 이어 제어부(170)는 903단계에서 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 제1터치센서부(121)와 제2터치센서부(130)에 터치 위치의 이동 동작이 입력되는지 여부를 판단한다. 터치 위치의 이동 동작이 입력된 것으로 판단하면, 제어부(170)는 904단계에서 터치 위치의 이동 동작의 패턴을 인식한다. 제3실시예에서는 사용자가 제1터치센서부(121) 및 제2터치센서부(130) 모두에 하방향으로 터치 위치의 이동 동작을 입력한 것으로 가정한다. 도 10의 [a]에는 사용자가 제1터치센서부(121) 및 제2터치센서부(130)에 하방향의 터치 위치 이동 동작을 입력한 형태가 도시되어 있다.
제1터치센서부(121)와 제2터치센서부(130)에 서로 같은 방향(하방향)의 터치 위치 이동 동작이 입력된 것으로 인식하면, 905단계에서 제어부(170)는 화면 잠금 기능을 해제한다. 본 발명의 실시예에 따라 제어부(170)는 화면 잠금 기능 해제 후, 표시부(122)를 제어하여 대기 화면을 표시할 수 있다. 도 10을 참조하면, 도 10의 [b]에서 휴대 단말기(100)는 화면 잠금 기능 해제 후, 대기 화면을 표시하고 있다. 본 발명의 실시예에 따라 터치 위치의 이동 거리의 임계 거리가 설정되어 있을 수 있으며, 이 때 제어부(170)는 터치 위치의 이동 거리가 임계 거리 이상에 해당하는지 판단하고, 임계 거리 이상에 해당하는 경우에만 화면 잠금 기능을 해제할 수 있다.
도 11은 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제4실시예에 해당하는 순서도이다.
1101단계에서 제어부(170)는 표시부(122)를 제어하여 저장부(160)에 저장된 이미지들 중 어느 하나의 이미지를 표시한다. 도 12는 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 예시도에 해당하며, 도 13은 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도에 해당한다. 도 12 및 도 13의 [a]에서 휴대 단말기(100)는 이미지를 전체 화면으로 표시하고 있다
1102단계에서 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의한 터치 입력을 감지한다. 이어 제어부(170)는 1103단계에서 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 제1터치센서부(121) 및 제2터치센서부(130)에 터치 위치의 이동 동작이 입력되는지 여부를 판단한다. 터치 위치의 이동 동작이 입력된 것으로 판단하면, 1104단계에서 제어부(170)는 터치 위치 의 이동 동작의 패턴을 인식한다. 도 12 및 도 13을 참조하면, 도 12의 [a]는 사용자가 제1터치센서부(121)에 터치 위치를 고정시키고 제2터치센서부(130)에 상방향으로 터치 위치를 이동시키는 동작을 입력하는 경우에 해당하며, 도 13의 [a]는 사용자가 제1터치센서부(121)에 터치 위치를 고정시키고, 제2터치센서부(130)에 원 형태로 터치 위치를 회전시키는 동작을 입력하는 경우에 해당한다.
터치 위치의 이동 동작의 패턴을 인식한 후, 제어부(170)는 1105단계에서 표시부(122)를 제어하여 인식된 터치 위치의 이동 동작의 패턴에 따라 이미지를 변경하여 표시한다. 본 발명의 실시예에 따라 제어부(170)는 표시부(122)를 제어하여 표시된 이미지를 줌인(zoom in) 또는 줌아웃(zoom out)하여 표시할 수 있다. 도 12를 참조하면, 도 12의 [b]에서 휴대 단말기(100)는 [a]에 표시된 이미지의 줌인된 이미지를 표시하고 있다. 본 발명의 실시예에 따라 제어부(170)는 표시부(122)를 제어하여 표시된 이미지를 회전시켜 표시할 수 있다. 도 13을 참조하면, 도 13의 [b]에서 휴대 단말기(100)는 [a]에 표시된 이미지의 회전된 이미지를 표시하고 있다.
본 발명의 실시예에 따라 터치 위치의 이동 거리의 임계 거리가 설정되어 있을 수 있으며, 이 때 제어부(170)는 터치 위치의 이동 거리가 임계 거리 이상에 해당하는지 판단하고, 임계 거리 이상에 해당하는 경우에만 표시부(122)를 제어하여 이미지를 줌인 또는 줌아웃하여 표시하거나, 표시된 이미지를 이동 또는 회전시켜 표시할 수 있다.
또한 본 발명의 실시예에 따라 제어부(170)는 제1터치센서부(121)에 입력되 는 터치 위치 이동 동작과 제2터치센서부(130)에 입력되는 터치 위치 이동 동작을 구분하여 인식하고, 서로 다른 UI를 제공할 수 있다. 예를 들어, 제1터치센서부(121)에만 상방향의 터치 위치 이동 동작이 입력되는 경우에 제어부(170)는 표시부(122)를 제어하여 이미지를 상방향으로 이동시켜 표시하고 제2터치센서부(130)에만 상방향의 터치 위치 이동 동작이 입력되는 경우에는 표시부(122)를 제어하여 이미지를 줌인 또는 줌아웃하여 표시할 수 있다. 도 14는 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도에 해당한다. 도 14의 [b]는 도 14의 [a]와 같이 이미지가 표시된 상태에서 사용자가 제1터치센서부(121)에만 상방향의 터치 위치 이동 동작을 입력한 경우에 휴대 단말기(100)가 표시하는 화면의 예시도이며, 도 14의 [b]에는 도 14의 [a]에 표시된 이미지가 상방향으로 이동된 형태가 표시되어 있다. 도 14의 [c]는 도 14의 [a]와 같이 이미지가 표시된 상태에서 사용자가 제2터치센서부(130)에만 상방향의 터치 위치 이동 동작을 입력한 경우에 휴대 단말기(100)가 표시하는 화면의 예시도이며, 도 14의 [c]에는 도 14의 [a]에 표시된 이미지의 줌인된 형태가 표시되어 있다.
본 발명의 실시예에 따라, 1101단계에서 표시된 이미지가 3D(Dimensional) 이미지에 해당할 때, 사용자에 의해 제1터치센서부(121)에만 상방향의 터치 위치 이동 동작이 입력되는 경우에 제어부(170)는 표시부(122)를 제어하여 3D 이미지를 상방향으로 이동시켜 표시하고, 제2터치센서부(130)에만 상방향의 터치 위치 이동 동작이 입력되는 경우에 제어부(170)는 표시부(122)를 제어하여 3D 이미지의 뷰포인트(viewpoint)를 변경하여 표시할 수 있다. 도 15는 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도이다. 도 15의 [b]는 도 15의 [a]와 같이 3D 이미지가 표시된 상태에서, 사용자가 제1터치센서부(121)에만 상방향의 터치 위치 이동 동작을 입력한 경우에 휴대 단말기(100)가 표시하는 화면의 예시도에 해당하며, 도 15의 [b]에는 도 15의 [a]에 표시된 3D 이미지가 상방향으로 이동된 형태가 표시되어 있다. 도 15의 [c]는 도 15의 [a]와 같이 3D 이미지가 표시된 상태에서, 제2터치센서부(130)에만 상방향의 터치 위치 이동 동작을 입력한 경우에 휴대 단말기(100)가 표시하는 화면의 예시도에 해당하며, 도 15의 [c]에는 도 15의 [a]에 표시된 3D 이미지의 뷰포인트가 변경된 형태가 표시되어 있다.
또한 본 발명의 실시예에 따라 1101단계에서 제어부(170)가 오디오처리부(140)를 제어하여 휴대 단말기(100)에 저장된 음악을 재생하고 있으며, 사용자가 제1터치센서부(121) 및 제2터치센서부(130)에 터치를 입력하면, 1102단계에서 제어부(170)는 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 사용자에 의한 터치 입력을 감지하고, 1103단계에서 제1터치센서부(121) 및 제2터치센서부(130)를 제어하여 제1터치센서부(121) 및 제2터치센서부(130)의 터치 위치의 이동 동작이 입력되는지 판단하고, 터치 위치의 이동 동작이 입력되는 것으로 판단하면, 1104단계에서 터치 위치의 이동 동작의 패턴을 인식하며, 1105단계에서 인식된 터치 위치의 이동 패턴에 따라 오디오처리부(140)를 제어하여 재생되는 음악의 볼륨을 조절할 수 있다.
본 발명을 통해 사용자는 다양한 터치 입력을 통해 휴대 단말기를 조작할 수 있고, 각각의 입력에 대해 서로 다른 UI를 제공받을 수 있으며, 휴대 단말기를 사용함에 있어서 감성적 측면이 향상되는 효과가 발생한다.
한편, 본 명세서와 도면에 개시 된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
도 1은 본 발명의 실시예에 따른 두 개의 터치 센서를 구비하는 휴대 단말기(100)를 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 두 개의 터치 센서를 구비하는 휴대 단말기(100)의 구성도를 나타낸다.
도 3은 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 일반적인 실시예를 나타내는 순서도이다.
도 4는 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제1실시예에 해당하는 순서도이다.
도 5는 본 발명의 제1실시예에 따른 휴대 단말기(100)의 표시 화면의 예시도이다.
도 6은 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제2실시예에 해당하는 순서도이다.
도 7은 본 발명의 제2실시예에 따른 휴대 단말기(100)의 표시 화면의 예시도이다.
도 8은 본 발명의 제2실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도이다.
도 9는 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제3실시예에 해당하는 순서도이다.
도 10은 본 발명의 제3실시예에 따른 휴대 단말기(100)의 표시 화면의 예시 도이다.
도 11은 본 발명의 복수의 터치 센서를 이용한 UI 제공방법의 구체적인 실시예들 중 제4실시예에 해당하는 순서도이다.
도 12는 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 예시도이다.
도 13은 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도이다.
도 14는 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도이다.
도 15는 본 발명의 제4실시예에 따른 휴대 단말기(100)의 표시 화면의 다른 예시도이다.

Claims (16)

  1. 제1터치센서부와 제1터치센서부가 형성되는 면과 반대면에 형성되는 제2터치센서부를 구비하는 휴대 단말기의 UI 제공방법에 있어서,
    실행된 복수의 애프리케이션 또는 복수의 컨텐츠에 대응하는 윈도우(window)를 제1크기로 표시하는 표시 단계;
    상기 제1터치센서부 및 상기 제2터치센서부로의 사용자에 의한 터치를 감지하는 터치 감지 단계;
    상기 제1터치센서부 및 상기 제2터치센서부에 입력되는 터치 위치의 이동 동작의 패턴을 인식하는 이동 동작 패턴 인식 단계; 및
    상기 인식된 터치 위치의 이동 동작의 패턴에 대응하는 UI(User Interface)를 제공하는 UI 제공 단계를 포함하며,
    상기 UI 제공 단계는 상기 실행된 복수의 애플리케이션 또는 복수의 컨텐츠 각각에 대응하는 윈도우 중 적어도 두 개를 각각 상기 제1크기보다 작은 제2크기로 표시하고, 상기 제2크기로 표시되는 적어도 두 개의 윈도우는 상기 이동 동작의 방향 및 거리에 대응하여 결정된 거리를 두고 표시되는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  2. 제1항에 있어서,
    상기 이동 동작 패턴 인식 단계는
    상기 제1터치센서부와 상기 제2터치센서부에 서로 반대 방향의 이동 동작이 입력되는 패턴, 상기 제1터치센서부와 상기 제2터치센서부에 서로 같은 방향의 이동 동작이 입력되는 패턴 또는 상기 제1터치센서부와 상기 제2터치센서부 중 어느 하나에만 이동 동작이 입력되는 패턴을 인식하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  3. 제1항에 있어서,
    상기 이동 동작 패턴 인식 단계는
    상기 제1터치센서부와 상기 제2터치센서부에 상하 방향의 이동 동작이 입력되는 패턴, 상기 제1터치센서부와 상기 제2터치센서부에 좌우 방향의 이동 동작이 입력되는 패턴 또는 상기 제1터치센서부와 상기 제2터치센서부에 회전 방향의 이동 동작이 입력되는 패턴을 인식하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  4. 제2항에 있어서,
    상기 표시 단계는
    상기 실행된 복수의 어플리케이션들 또는 복수의 컨텐츠들 중 어느 하나의 어플리케이션 또는 컨텐츠의 윈도우를 전체 화면으로 표시하는 단계를 더 포함하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  5. 제4항에 있어서,
    상기 제2크기로 표시되는 적어도 두 개의 윈도우는 중첩된 형태로 표시되는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  6. 제4항에 있어서,
    상기 UI 제공 단계는
    상기 제2크기로 표시되는 적어도 두 개의 윈도우를 상기 이동 동작의 방향 및 거리에 따라 상기 제2크기로 표시되는 적어도 두 개의 윈도우들 간의 간격을 변경하여 표시하는 단계;
    상기 이동 동작의 거리가 설정된 임계 거리 이상에 해당하는지 판단하는 단계; 및
    상기 이동 동작의 거리가 상기 임계 거리 이상에 해당하는 경우, 상기 윈도우들 간의 간격을 고정시켜 표시하는 단계를 포함하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  7. 제2항에 있어서,
    상기 터치 감지 단계 이전,
    상기 휴대 단말기의 화면 잠금 기능을 실행하는 단계를 더 포함하고,
    상기 UI 제공 단계는
    상기 화면 잠금 기능을 해제하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  8. 제2항에 있어서,
    상기 터치 감지 단계 이전,
    상기 휴대 단말기에 저장된 음악을 재생하는 단계를 더 포함하고,
    상기 UI 제공 단계는
    상기 재생되는 음악의 볼륨(volume)을 조절하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  9. 제2항에 있어서,
    상기 터치 감지 단계 이전,
    상기 휴대 단말기에 저장된 이미지를 표시하는 이미지 표시 단계를 더 포함하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  10. 제9항에 있어서,
    상기 UI 제공 단계는
    상기 이미지를 줌인(zoom in) 또는 줌 아웃(zoom out)하여 표시하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  11. 제9항에 있어서,
    상기 UI 제공 단계는
    상기 이동 동작의 방향을 따라 상기 이미지를 회전시켜 표시하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  12. 제9항에 있어서,
    상기 UI 제공 단계는
    상기 제1터치센서부에만 이동 동작이 입력되는 패턴을 인식한 경우, 상기 이미지를 이동시켜 표시하며,
    상기 제2터치센서부에만 이동 동작이 입력되는 패턴을 인식한 경우, 상기 이미지를 줌인(zoom in) 또는 줌 아웃(zoom out)하여 표시하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  13. 제9항에 있어서,
    상기 이미지 표시 단계에서 표시되는 이미지는 3D(Dimensional) 이미지에 해당하며,
    상기 UI 제공 단계는
    상기 제1터치센서부에만 이동 동작이 입력되는 패턴을 인식한 경우, 상기 3D 이미지를 이동시켜 표시하며,
    상기 제2터치센서부에만 이동 동작이 입력되는 패턴을 인식한 경우, 상기 3D 이미지의 뷰포인트(viewpoint)를 이동시켜 표시하는 것을 특징으로 하는 휴대 단말기의 UI 제공방법.
  14. UI(User Interface)를 제공하는 휴대 단말기에 있어서,
    실행된 복수의 애프리케이션 또는 복수의 컨텐츠에 대응하는 윈도우(window)를 제1크기로 표시하는 표시부;
    제1터치센서부와 제1터치센서부가 형성되는 면과 반대면에 형성되는 제2터치센서부로 구성되는 터치 센서부;
    UI를 제공하는 UI부; 및
    상기 터치 센서부를 제어하여 사용자에 의한 터치를 감지하고, 입력되는 터치 위치의 이동 동작의 패턴을 인식하고, 상기 UI부를 제어하여 인식된 터치 위치의 이동 동작의 패턴에 대응하는 UI를 제공하는 제어부를 포함하며,
    상기 제어부는 상기 실행된 복수의 애플리케이션 또는 복수의 컨텐츠 각각에 대응하는 윈도우 중 적어도 두 개를 각각 제1크기보다 작은 제2크기로 표시하고, 상기 제2크기로 표시되는 적어도 두 개의 윈도우는 상기 이동 동작의 방향 및 거리에 대응하여 결정된 거리를 두고 표시되도록 상기 표시부를 제어하는 것을 특징으로 하는 휴대 단말기.
  15. 제14항에 있어서,
    상기 제어부는
    상기 터치 센서부를 제어하여 상기 제1터치센서부와 상기 제2터치센서부에 서로 반대 방향의 이동 동작이 입력되는 패턴, 상기 제1터치센서부와 상기 제2터치센서부에 서로 같은 방향의 이동 동작이 입력되는 패턴 또는 상기 제1터치센서부와 상기 제2터치센서부 중 어느 하나에만 이동 동작이 입력되는 패턴을 인식하는 것 것을 특징으로 하는 휴대 단말기.
  16. 제14항에 있어서,
    상기 제어부는
    상기 터치 센서부를 제어하여 상기 제1터치센서부와 상기 제2터치센서부에 상하 방향의 이동 동작이 입력되는 패턴, 상기 제1터치센서부와 상기 제2터치센서 부에 좌우 방향의 이동 동작이 입력되는 패턴 또는 상기 제1터치센서부와 상기 제2터치센서부에 회전 방향의 이동 동작이 입력되는 패턴을 인식하는 것을 특징으로 하는 휴대 단말기.
KR1020090095322A 2009-10-07 2009-10-07 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기 KR101648747B1 (ko)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020090095322A KR101648747B1 (ko) 2009-10-07 2009-10-07 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
US12/884,441 US20110080359A1 (en) 2009-10-07 2010-09-17 Method for providing user interface and mobile terminal using the same
EP10822220.9A EP2486663A4 (en) 2009-10-07 2010-10-05 METHOD FOR PROVIDING USER INTERFACE AND MOBILE TERMINAL USING THE SAME
JP2012533076A JP5823400B2 (ja) 2009-10-07 2010-10-05 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機
BR112012006470A BR112012006470A2 (pt) 2009-10-07 2010-10-05 método para a provisão de interface de usuário e terminal móvel usando a mesma
AU2010304098A AU2010304098B2 (en) 2009-10-07 2010-10-05 Method for providing user interface and mobile terminal using the same
PCT/KR2010/006784 WO2011043575A2 (en) 2009-10-07 2010-10-05 Method for providing user interface and mobile terminal using the same
RU2012111314/07A RU2553458C2 (ru) 2009-10-07 2010-10-05 Способ обеспечения пользовательского интерфейса и использующий его мобильный терминал
CN201080045167.XA CN102687406B (zh) 2009-10-07 2010-10-05 提供用户界面的方法和使用该方法的移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090095322A KR101648747B1 (ko) 2009-10-07 2009-10-07 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기

Publications (2)

Publication Number Publication Date
KR20110037761A KR20110037761A (ko) 2011-04-13
KR101648747B1 true KR101648747B1 (ko) 2016-08-17

Family

ID=43822821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090095322A KR101648747B1 (ko) 2009-10-07 2009-10-07 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기

Country Status (9)

Country Link
US (1) US20110080359A1 (ko)
EP (1) EP2486663A4 (ko)
JP (1) JP5823400B2 (ko)
KR (1) KR101648747B1 (ko)
CN (1) CN102687406B (ko)
AU (1) AU2010304098B2 (ko)
BR (1) BR112012006470A2 (ko)
RU (1) RU2553458C2 (ko)
WO (1) WO2011043575A2 (ko)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
JPWO2010095255A1 (ja) * 2009-02-23 2012-08-16 富士通株式会社 情報処理装置、表示制御方法および表示制御プログラム
US20120256959A1 (en) * 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US9244606B2 (en) * 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
US9063704B2 (en) * 2011-05-05 2015-06-23 Net Power And Light, Inc. Identifying gestures using multiple sensors
KR101677639B1 (ko) * 2011-05-06 2016-11-18 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US10275153B2 (en) * 2011-05-19 2019-04-30 Will John Temple Multidirectional button, key, and keyboard
JP5259772B2 (ja) * 2011-05-27 2013-08-07 株式会社東芝 電子機器、操作支援方法及びプログラム
US8640047B2 (en) * 2011-06-01 2014-01-28 Micorsoft Corporation Asynchronous handling of a user interface manipulation
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013032187A1 (en) * 2011-09-01 2013-03-07 Samsung Electronics Co., Ltd. Mobile terminal for performing screen unlock based on motion and method thereof
JP5801656B2 (ja) * 2011-09-01 2015-10-28 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US20130293505A1 (en) * 2011-09-30 2013-11-07 Lakshman Krishnamurthy Multi-dimensional interaction interface for mobile devices
CN102368197A (zh) * 2011-10-02 2012-03-07 上海量明科技发展有限公司 用以触摸屏操作的方法及***
CN102508595B (zh) * 2011-10-02 2016-08-31 上海量明科技发展有限公司 一种用以触摸屏操作的方法及终端
US9594405B2 (en) * 2011-10-19 2017-03-14 Facebook, Inc. Composite touch gesture control with touch screen input device and secondary touch input device
TW201319921A (zh) * 2011-11-07 2013-05-16 Benq Corp 觸控螢幕畫面控制方法及觸控螢幕畫面顯示方法
KR101383840B1 (ko) * 2011-11-17 2014-04-14 도시바삼성스토리지테크놀러지코리아 주식회사 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법
JP2013117885A (ja) * 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US9026951B2 (en) 2011-12-21 2015-05-05 Apple Inc. Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
KR102006470B1 (ko) 2011-12-28 2019-08-02 삼성전자 주식회사 사용자 디바이스에서 멀티태스킹 운용 방법 및 장치
US10191641B2 (en) 2011-12-29 2019-01-29 Apple Inc. Device, method, and graphical user interface for navigation of information in a map-based interface
TWI528220B (zh) * 2011-12-30 2016-04-01 富智康(香港)有限公司 電子設備解鎖系統及方法
TW201329837A (zh) * 2012-01-13 2013-07-16 Fih Hong Kong Ltd 電子設備解鎖系統及方法
US8806383B2 (en) * 2012-02-06 2014-08-12 Motorola Mobility Llc Initiation of actions by a portable computing device from a locked state
KR101892567B1 (ko) * 2012-02-24 2018-08-28 삼성전자 주식회사 단말기에서 콘텐츠 이동 방법 및 장치
JP5580873B2 (ja) * 2012-03-13 2014-08-27 株式会社Nttドコモ 携帯端末およびロック解除方法
JP2013235344A (ja) * 2012-05-07 2013-11-21 Sony Computer Entertainment Inc 入力装置、入力制御方法、及び入力制御プログラム
WO2013169070A1 (en) * 2012-05-11 2013-11-14 Samsung Electronics Co., Ltd. Multiple window providing apparatus and method
AU2013262488A1 (en) 2012-05-18 2014-12-18 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
CN102722331A (zh) * 2012-05-30 2012-10-10 华为技术有限公司 触控解锁方法、装置和电子设备
US9280282B2 (en) * 2012-05-30 2016-03-08 Huawei Technologies Co., Ltd. Touch unlocking method and apparatus, and electronic device
CN102915182B (zh) * 2012-09-03 2016-01-13 广州市久邦数码科技有限公司 一种三维锁屏方法和装置
JP5935610B2 (ja) * 2012-09-07 2016-06-15 富士通株式会社 操作制御プログラム、携帯電子機器及び操作制御方法
JP5658211B2 (ja) * 2012-09-11 2015-01-21 株式会社コナミデジタルエンタテインメント 情報表示装置、情報表示方法、ならびに、プログラム
CN102902481B (zh) * 2012-09-24 2016-12-21 东莞宇龙通信科技有限公司 终端和终端操作方法
CN102929528A (zh) * 2012-09-27 2013-02-13 鸿富锦精密工业(深圳)有限公司 具有图片切换功能的装置及图片切换方法
TWI506476B (zh) * 2012-11-29 2015-11-01 Egalax Empia Technology Inc 解除觸摸屏鎖定狀態的方法、電子裝置及其儲存媒體
WO2014101116A1 (en) * 2012-12-28 2014-07-03 Nokia Corporation Responding to user input gestures
CN103513917A (zh) * 2013-04-23 2014-01-15 展讯通信(上海)有限公司 触控设备及其解锁的检测方法及装置、解锁方法和装置
KR102179056B1 (ko) * 2013-07-19 2020-11-16 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102130797B1 (ko) 2013-09-17 2020-07-03 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN110687969B (zh) * 2013-10-30 2023-05-02 苹果公司 显示相关的用户界面对象
US9058480B2 (en) * 2013-11-05 2015-06-16 Google Inc. Directional touch unlocking for electronic devices
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
CN104111781B (zh) * 2014-07-03 2018-11-27 魅族科技(中国)有限公司 图像显示控制方法和终端
US9558455B2 (en) 2014-07-11 2017-01-31 Microsoft Technology Licensing, Llc Touch classification
CN104216634A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 一种显示稿件的方法和装置
US10146409B2 (en) 2014-08-29 2018-12-04 Microsoft Technology Licensing, Llc Computerized dynamic splitting of interaction across multiple content
US10066959B2 (en) 2014-09-02 2018-09-04 Apple Inc. User interactions for a mapping application
KR20160114413A (ko) * 2015-03-24 2016-10-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9671828B2 (en) 2014-09-19 2017-06-06 Lg Electronics Inc. Mobile terminal with dual touch sensors located on different sides of terminal body and method of controlling the same
CN104363345A (zh) * 2014-11-17 2015-02-18 联想(北京)有限公司 一种显示方法和电子设备
KR101990661B1 (ko) * 2015-02-23 2019-06-19 원투씨엠 주식회사 압인식 정전 다중 터치를 이용한 서비스 제공 방법
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
CN105302444A (zh) * 2015-10-30 2016-02-03 努比亚技术有限公司 图片处理方法及装置
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US11003752B2 (en) * 2016-07-14 2021-05-11 Hewlett-Packard Development Company, L.P. Contextual device unlocking
CN106227451A (zh) * 2016-07-26 2016-12-14 维沃移动通信有限公司 一种移动终端的操作方法及移动终端
CN106293467A (zh) * 2016-08-11 2017-01-04 深圳市康莱米电子股份有限公司 一种带有触摸屏的终端的解锁方法及装置
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293280A (ja) * 1999-04-07 2000-10-20 Sharp Corp 情報入力装置
JP2009157908A (ja) * 2007-12-07 2009-07-16 Sony Corp 情報表示端末、情報表示方法、およびプログラム
JP2009223426A (ja) * 2008-03-13 2009-10-01 Sharp Corp 情報表示装置及び情報表示方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335557A (en) * 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
JP3421167B2 (ja) * 1994-05-03 2003-06-30 アイティユー リサーチ インコーポレイテッド 接触式制御用入力機器
US7075513B2 (en) * 2001-09-04 2006-07-11 Nokia Corporation Zooming and panning content on a display screen
EP2254025A3 (en) * 2002-05-16 2016-03-30 Sony Corporation Input method and input apparatus
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
US20040263484A1 (en) * 2003-06-25 2004-12-30 Tapio Mantysalo Multifunctional UI input device for moblie terminals
US7417625B2 (en) * 2004-04-29 2008-08-26 Scenera Technologies, Llc Method and system for providing input mechanisms on a handheld electronic device
JP2006018727A (ja) * 2004-07-05 2006-01-19 Funai Electric Co Ltd 3次元座標入力装置
KR20060133389A (ko) * 2005-06-20 2006-12-26 엘지전자 주식회사 이동 단말기의 데이터 처리 장치 및 그 방법
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
AU2006332488A1 (en) * 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
JP4752584B2 (ja) * 2006-04-11 2011-08-17 ソニー株式会社 表示灯制御プログラム、情報処理装置および表示灯制御方法
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US20070291008A1 (en) * 2006-06-16 2007-12-20 Daniel Wigdor Inverted direct touch sensitive input devices
JP2007334827A (ja) * 2006-06-19 2007-12-27 Sony Corp 携帯端末装置
US8736557B2 (en) * 2006-09-11 2014-05-27 Apple Inc. Electronic device with image based browsers
WO2008090902A1 (ja) * 2007-01-25 2008-07-31 Sharp Kabushiki Kaisha マルチウィンドウ管理装置及びプログラム、記憶媒体、並びに情報処理装置
KR100894146B1 (ko) * 2007-02-03 2009-04-22 엘지전자 주식회사 이동통신 단말기 및 그 동작 제어방법
KR101524572B1 (ko) * 2007-02-15 2015-06-01 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 인터페이스 제공 방법
US8351989B2 (en) * 2007-02-23 2013-01-08 Lg Electronics Inc. Method of displaying menu in a mobile communication terminal
KR101415296B1 (ko) * 2007-05-29 2014-07-04 삼성전자주식회사 휴대 단말기의 메뉴 실행 장치 및 방법
US8836637B2 (en) * 2007-08-14 2014-09-16 Google Inc. Counter-tactile keypad
JP5184018B2 (ja) * 2007-09-14 2013-04-17 京セラ株式会社 電子機器
EP2045700A1 (en) * 2007-10-04 2009-04-08 LG Electronics Inc. Menu display method for a mobile communication terminal
KR101386473B1 (ko) * 2007-10-04 2014-04-18 엘지전자 주식회사 휴대 단말기 및 그 메뉴 표시 방법
US9513765B2 (en) * 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
KR101418285B1 (ko) * 2007-12-24 2014-07-10 엘지전자 주식회사 후면센서를 구비한 이동 단말기 및 그 운용방법
KR101552834B1 (ko) * 2008-01-08 2015-09-14 삼성전자주식회사 후면 터치 패드를 갖는 휴대 단말기
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP5024100B2 (ja) * 2008-02-14 2012-09-12 日本電気株式会社 表示制御装置、通信システム、表示制御方法、及び表示制御プログラム
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
JP4171770B1 (ja) * 2008-04-24 2008-10-29 任天堂株式会社 オブジェクト表示順変更プログラム及び装置
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
KR101560718B1 (ko) * 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US8462126B2 (en) * 2009-07-20 2013-06-11 Motorola Mobility Llc Method for implementing zoom functionality on a portable device with opposing touch sensitive surfaces
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293280A (ja) * 1999-04-07 2000-10-20 Sharp Corp 情報入力装置
JP2009157908A (ja) * 2007-12-07 2009-07-16 Sony Corp 情報表示端末、情報表示方法、およびプログラム
JP2009223426A (ja) * 2008-03-13 2009-10-01 Sharp Corp 情報表示装置及び情報表示方法

Also Published As

Publication number Publication date
RU2553458C2 (ru) 2015-06-20
RU2012111314A (ru) 2013-11-20
AU2010304098B2 (en) 2015-12-24
EP2486663A2 (en) 2012-08-15
EP2486663A4 (en) 2014-05-07
WO2011043575A3 (en) 2011-10-20
BR112012006470A2 (pt) 2016-04-26
AU2010304098A1 (en) 2012-04-12
CN102687406B (zh) 2015-03-25
CN102687406A (zh) 2012-09-19
WO2011043575A2 (en) 2011-04-14
JP5823400B2 (ja) 2015-11-25
KR20110037761A (ko) 2011-04-13
US20110080359A1 (en) 2011-04-07
JP2013507681A (ja) 2013-03-04

Similar Documents

Publication Publication Date Title
KR101648747B1 (ko) 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
US11275466B2 (en) Mobile terminal having a touch screen and method for providing a user interface therein
KR102209099B1 (ko) 터치스크린을 가지는 전자 장치 및 이의 제어 방법
KR102097496B1 (ko) 폴더블 이동 단말기 및 그 제어 방법
KR101640464B1 (ko) 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
KR102016975B1 (ko) 디스플레이 장치 및 그 제어 방법
KR101726607B1 (ko) 휴대 단말기의 화면 제어 방법 및 장치
KR101857564B1 (ko) 휴대 단말기의 이미지 처리 방법
US20140059457A1 (en) Zooming display method and apparatus
KR101841590B1 (ko) 멀티태스킹 인터페이스 제공 방법 및 장치
US20110087983A1 (en) Mobile communication terminal having touch interface and touch interface method
EP2735960A2 (en) Electronic device and page navigation method
KR20110054415A (ko) 화면 표시 방법 및 장치
CN107526494A (zh) 键盘显示方法、装置、终端及存储介质
US20120044175A1 (en) Letter input method and mobile device adapted thereto
KR20130097331A (ko) 터치 스크린을 구비하는 전자기기에서 객체를 선택하기 위한 장치 및 방법
JP2011113409A (ja) 情報処理装置
KR102134882B1 (ko) 컨텐츠 재생을 제어하기 위한 방법 및 장치
JP6102474B2 (ja) 表示装置、入力制御方法、及び入力制御プログラム
US20160103506A1 (en) Input device, method for controlling input device, and non-transitory computer-readable recording medium
KR101507833B1 (ko) 이동통신 단말기 및 이를 이용한 컨텐츠 재생 방법
KR20110010522A (ko) 드래그 동작을 활용한 사용자 인터페이스 방법 및 단말기
KR102197912B1 (ko) 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체
KR102033710B1 (ko) 터치스크린 그래픽 유저 인터페이스 제어 방법
KR20160102947A (ko) 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190730

Year of fee payment: 4