KR100748469B1 - 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기 - Google Patents

키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기 Download PDF

Info

Publication number
KR100748469B1
KR100748469B1 KR1020060057388A KR20060057388A KR100748469B1 KR 100748469 B1 KR100748469 B1 KR 100748469B1 KR 1020060057388 A KR1020060057388 A KR 1020060057388A KR 20060057388 A KR20060057388 A KR 20060057388A KR 100748469 B1 KR100748469 B1 KR 100748469B1
Authority
KR
South Korea
Prior art keywords
touch
keypad
pointer
user interface
signal
Prior art date
Application number
KR1020060057388A
Other languages
English (en)
Inventor
강태영
홍노경
이창훈
이봉원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060057388A priority Critical patent/KR100748469B1/ko
Priority to US11/750,098 priority patent/US20070296707A1/en
Priority to EP07108652A priority patent/EP1873618A3/en
Priority to CN2007101082780A priority patent/CN101098533B/zh
Application granted granted Critical
Publication of KR100748469B1 publication Critical patent/KR100748469B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대 단말기에 관한 것이다. 터치 센서가 장착된 키패드 위에서 손가락에 의한 터치 동작이 발생하면, 터치 센서에서 이를 감지하고 제어부에서 터치의 유형을 판별한다. 제어부는 터치 유형에 따라 표시부의 포인터 동작을 제어하거나 표시부에 옵션 창 띄우기를 수행한다. 특히, 터치 유형의 판별 결과 터치가 제2 터치이면, 즉 한 손가락이 어느 지점을 터치하고 있는 상태에서 다른 손가락의 터치가 발생하면, 일반적인 PC 환경에서의 마우스 오른쪽 버튼 클릭에 해당하는 옵션 창 띄우기가 수행된다. 본 발명은 사용자 인터페이스는 키패드의 누름 동작에 의한 통상적인 기능 수행과 별도의 기능 수행을 가능하게 하며, PC 환경에 근접한 휴대 단말기의 동작환경을 구현할 수 있다.
키패드, 터치 센서, 터치, 포인터, 옵션 창

Description

키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대 단말기{User Interface Method Based on Keypad Touch and Mobile Device thereof}
도 1은 본 발명의 실시예에 따른 휴대 단말기의 주요 구성을 나타내는 블록도.
도 2는 본 발명의 실시예에 따른 사용자 인터페이스 방법의 흐름도.
도 3은 본 발명의 실시예에 따른 사용자 인터페이스 방법을 구현하는 동작 예시도.
도 4a 내지 도 4c는 본 발명의 실시예에 따른 사용자 인터페이스 방법을 구현하는 다른 동작 예시도.
본 발명은 휴대 단말기의 사용자 인터페이스(user interface; UI)에 관한 것으로, 좀더 구체적으로는 키패드를 손가락으로 터치하는 방식을 이용한 사용자 인터페이스 방법 및 그 휴대 단말기에 관한 것이다.
휴대폰, PDA 등과 같이 근래 들어 눈부신 발전을 거듭해 온 휴대 단말기는 이제 현대생활의 필수품으로 확고히 자리를 잡고 있다. 게다가 휴대 단말기의 사용 이 보편화되면서 사용자의 요구는 점점 다양해지고 있고, 더욱이 이를 충족시키기 위한 제조업체들의 경쟁은 갈수록 치열해지고 있다. 이에 따라 더 많은 기능을 더 편리하게 쓸 수 있는 휴대 단말기들이 지속적으로 개발되고 있다. 특히, 최근에 각종 멀티미디어 기능, 무선인터넷 기능 등이 추가되면서 휴대 단말기의 동작환경은 점차 PC 수준으로 나아가고 있다.
휴대 단말기는 기본적으로 간편하게 휴대할 수 있어야 하기 때문에 그 크기가 상대적으로 소형이다. 따라서 통상 키패드(keypad)와 액정화면(LCD screen)으로 대표되는 입력장치와 출력장치의 크기 또한 제한적일 수밖에 없다. 이러한 제약 하에서 휴대 단말기에 다양하고 복잡한 기능을 부여함과 동시에 그 기능을 수행하기 위한 사용자의 접근성과 편의성을 향상시키려면, 이들을 고려한 사용자 인터페이스의 개발이 필수적이다. 더구나 전통적 휴대 단말기의 동작환경과 다른 PC 수준의 동작환경이 요구되면서 그에 적합한 사용자 인터페이스의 필요성은 더욱 커지고 있다.
다양한 방식의 사용자 인터페이스가 제안되고 있는데, 그 중의 하나가 터치스크린(touchscreen)을 이용한 방식이다. 이 방식은 화면상에 나타나는 메뉴를 첨필(stylus)을 이용하여 선택하고 실행하는 것으로, 화면상의 메뉴를 직접 선택하는 것이 가능하므로 사용자 접근성 및 편의성 면에서 장점이 있다. 그러나 한편으로는, 첨필을 별도로 휴대해야 하는 불편함이 있고, 한 손으로 조작할 수 없으며, 첨필을 분실할 경우에는 사용에 제약이 따른다는 단점이 있다.
이 방식은 문자나 숫자를 입력하려면 일반적인 키패드(normal keypad)를 이 용하거나 화면상에 표시된 가상의 키패드(virtual keypad)를 이용한다. 그러나 전자는 화면상에서 첨필로 조작하는 동작과 키패드를 조작하는 동작을 번갈아 수행해야 하기 때문에 조작 과정이 번거롭다. 후자는 가상 키패드가 화면의 일부를 차지하므로 입력공간이 작아지며 가상 키패드의 크기 역시 상대적으로 작기 때문에 정밀한 조작을 필요로 한다.
본 발명의 목적은 휴대 단말기의 다양한 기능을 수행하기에 적합하고 사용자 접근성 및 편의성이 우수한 사용자 인터페이스를 제공하기 위한 것이다.
본 발명의 다른 목적은 터치스크린 및 첨필을 이용한 기존 방식을 대체할 수 있는 휴대 단말기의 사용자 인터페이스를 제공하기 위한 것이다.
본 발명의 또 다른 목적은 조작이 간편하고 한 손 조작이 가능한 휴대 단말기의 사용자 인터페이스를 제공하기 위한 것이다.
본 발명의 또 다른 목적은 PC 환경에 근접한 휴대 단말기의 동작환경을 구현할 수 있는 사용자 인터페이스를 제공하기 위한 것이다.
이러한 목적들을 달성하기 위하여, 본 발명은 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대 단말기를 제공한다.
본 발명에 따른 사용자 인터페이스 방법은, 키패드 위의 제1 위치에서 발생한 제1 터치를 감지하는 단계와, 제1 위치와 다른 키패드 위의 제2 위치에서 발생한 제2 터치를 감지하는 단계와, 표시부 상에 옵션 창 띄우기를 수행하는 단계를 포함하여 구성될 수 있다.
이러한 사용자 인터페이스 방법에서, 제2 터치는 제1 터치가 감지되는 상태에서 추가적으로 감지되는 터치인 것이 바람직하다. 또한, 제1 위치와 제2 위치는 서로 다른 위치인 것이 바람직하다. 또한, 제1 터치의 감지 단계와 제2 터치의 감지 단계는 키패드의 하부에 장착된 터치 센서에 의해 수행될 수 있다.
표시부는 포인터를 구비할 수 있고, 이 포인터의 위치는 제1 위치와 결부되는 것이 바람직하다. 포인터의 위치 결부는 절대좌표계 방식 또는 상대좌표계 방식을 이용할 수 있다.
본 발명에 따른 사용자 인터페이스 방법은, 키패드 하부에 장착되는 터치 센서 및 표시부 상에 출력되는 포인터와 옵션 창을 구비하는 휴대 단말기의 사용자 인터페이스 방법으로서, 터치 센서에서 키패드의 터치를 감지하는 단계와, 감지된 터치를 터치 신호로 변환하는 단계와, 터치 신호로부터 터치의 유형을 판별하는 단계와, 터치 유형의 판별 결과 터치 신호가 두 개이면 표시부 상에 옵션 창 띄우기를 수행하는 단계를 포함하여 구성될 수 있다.
이러한 사용자 인터페이스 방법은, 터치 유형의 판별 결과 터치 신호가 한 개이면 표시부 상의 포인터의 위치와 동작을 제어하는 단계를 더 포함할 수 있다.
본 발명에 따른 사용자 인터페이스 방법은, 키패드 하부에 장착되는 터치 센서 및 표시부 상에 출력되는 포인터와 옵션 창을 구비하는 휴대 단말기의 사용자 인터페이스 방법으로서, 터치 센서에서 키패드의 터치를 감지하고 터치 신호로 변환하는 제1 단계와, 터치 신호로부터 터치가 제1 터치인지 제2 터치인지 판별하는 제2 단계와, 터치가 제1 터치이면 표시부 상의 포인터의 위치와 동작을 제어하는 제3 단계와, 터치가 제2 터치이면 표시부 상에 옵션 창 띄우기를 수행하는 제4 단계를 포함하여 구성될 수 있다.
이러한 사용자 인터페이스 방법에서, 제2 단계는 터치가 한 지점에서만 발생한 경우 제1 터치로 판별할 수 있고, 터치가 두 지점에서 동시에 발생한 경우 새로운 지점에서 발생한 터치를 제2 터치로 판별할 수 있다.
제3 단계는 제1 터치가 발생한 지점의 위치와 포인터의 위치를 결부시키는 단계를 포함할 수 있다. 또한, 제4 단계는 포인터의 위치에서 옵션 창을 띄울 수 있고, 옵션 창을 띄우기 전에 포인터의 위치에 실행할 수 있는 옵션이 있는지 판별하는 단계를 더 포함할 수 있다.
한편, 본 발명에 따른 휴대 단말기는, 문자숫자식 키가 배치된 키패드와, 키패드의 하부에 장착되며 키패드의 터치를 감지하는 터치 센서와, 터치가 키패드의 서로 다른 두 지점에서 발생하면 표시부에 옵션 창 띄우기를 수행하는 옵션 제어부를 포함하여 구성될 수 있다.
본 발명의 휴대 단말기는, 터치가 키패드의 한 지점에서 발생하면 터치 발생 지점과 표시부의 포인터 위치를 결부시키는 포인터 제어부를 더 포함하는 것이 바람직하다.
본 발명에 따른 휴대 단말기는, 문자숫자식 키가 배치된 키패드와, 키패드의 하부에 장착되며 키패드의 터치를 감지하고 터치 신호로 변환하는 터치 센서와, 터치 신호의 유형을 판별하는 터치 판별부와, 터치 신호에 따라 동작하는 포인터와 옵션 창을 구비하는 표시부와, 터치 신호가 제1 터치 신호이면 터치의 발생 지점과 포인터의 위치를 결부시키고 포인터의 동작을 제어하는 포인터 제어부와, 터치 신호가 제2 터치 신호이면 옵션 창 띄우기를 수행하는 옵션 제어부를 포함하여 구성될 수 있다.
본 발명의 휴대 단말기에서, 터치 센서는 키패드와 실질적으로 동일한 영역을 차지할 수 있다. 또한, 터치 센서는 터치에 따른 물리량의 변화를 검출하는 터치 감지부와, 물리량의 변화를 터치 신호로 변환하는 신호 변환부를 구비할 수 있고, 다수의 영역으로 분할되어 있는 것이 바람직하다.
실시예
이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.
실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
용어의 정의
1. 키패드(keypad): 본 발명에 적용되는 키패드는 액정화면 상에 표시되는 가상의 키패드가 아니라, 단말기 본체에 형성되는 일반적인 문자숫자식(alphanumeric) 키패드를 일컫는다.
2. 터치(touch): 사용자가 휴대 단말기의 키패드에 손가락을 접촉하는 행위 를 의미한다.
(1) 제1 터치: 키패드의 어느 한 지점에서만 터치가 발생하는 경우, 그 터치를 의미한다.
(2) 제2 터치: 키패드의 서로 다른 두 지점에서 터치가 발생하는 경우, 두 번째 발생한 터치를 의미한다. 단, 두 번째 터치가 발생하는 시점에서 첫 번째 발생한 터치도 지속되고 있어야 한다. 첫 번째 터치가 사라진 후 발생하는 두 번째 터치는 제1 터치가 된다.
3. 누름(press): 사용자가 키패드의 특정 키 상에서 손가락으로 힘을 가하여 키를 누르는 행위로 통상적인 키패드의 조작 행위이다.
휴대 단말기
도 1은 본 발명의 실시예에 따른 휴대 단말기의 주요 구성을 나타내는 블록도이다.
도 1을 참조하면, 휴대 단말기(100)는 키패드(110), 터치 센서(120; touch sensor), 제어부(130), 표시부(140)를 포함하여 구성된다. 특히, 터치 센서(120)는 터치 감지부(122)와 신호 변환부(124)를 구비하며, 제어부(130)는 터치 판별부(132), 포인터 제어부(134), 옵션 제어부(136)를 구비한다. 또한, 표시부(140)는 포인터(142; pointer)와 옵션 창(144; option window)을 구비한다.
키패드(110)는 단말기 본체의 특정 영역에 형성되는 키 입력부의 일부로, 문자숫자식 키가 3×4, 5×4 등으로 배치된다. 키패드(110)는 사용자의 통상적인 누름 동작에 의해 문자 또는 숫자를 입력받거나, 특정 기능을 수행하도록 설정된 단 축키 명령을 입력받는다.
터치 센서(120)는 키패드(110)의 하부에 장착된다. 특히, 터치 센서(120)는 키패드(110)가 형성된 영역과 실질적으로 동일한 영역을 차지하는 것이 바람직하다. 터치 센서(120)는 일종의 압력센서로서, 예컨대 글라이딩 센서(gliding sensor)를 비롯한 각종 터치 센서가 잘 알려져 있다. 터치 센서(120)는 키패드(110) 위에서 사용자가 터치 동작을 수행하면 그에 따른 물리량(예컨대, 저항, 정전용량 등)의 변화를 검출함으로써 터치 발생을 감지한다. 검출된 물리량의 변화는 전기적 신호(이하, 터치 신호)로 변환된다. 즉, 터치 센서(120)는 터치에 따른 물리량의 변화를 검출하는 터치 감지부(122)와, 물리량의 변화를 터치 신호로 변환하는 신호 변환부(124)를 구비한다. 터치 센서(120)가 감지한 터치로부터 생성되는 터치 신호는 제어부(130)의 터치 판별부(132)로 전송된다.
터치 센서(120)는 다수의 물리적 또는 가상적 영역으로 분할되어 있다. 따라서 터치가 발생하면 그 지점의 위치를 파악할 수 있다. 이러한 위치 정보는 터치 신호와 함께 제어부(130)로 보내진다. 한편, 터치 신호는 표시부(140)에서 포인터(142)의 동작을 제어하고 옵션 창(144)을 띄우기 위한 입력 신호로서 설정된다. 사용자가 키패드(110)를 터치할 때 생성되는 터치 신호는 키패드(110)를 누를 때 생성되는 통상적인 입력 신호와 전혀 별개의 것이다. 따라서 통상적인 키패드 입력 신호에 할당된 기능과 전혀 다른 기능인 포인터 동작 제어 및 옵션 창 띄우기를 터치 신호에 할당할 수 있다.
제어부(130)는 휴대 단말기(100)의 전반적인 동작을 제어한다. 특히, 제어 부(130)는 터치 판별부(132), 포인터 제어부(134), 옵션 제어부(136)를 구비한다. 터치 판별부(132)는 터치 센서(120)에서 전송한 터치 신호를 수신하고 그로부터 터치의 유형(즉, 제1 터치 혹은 제2 터치)을 판별한다. 터치 신호가 제1 터치 신호로 판별될 경우, 포인터 제어부(134)는 터치 신호와 함께 전송되는 위치 정보를 이용하여 키패드(110) 상의 제1 터치 발생 지점과 표시부(140) 상의 포인터(142) 위치를 결부시키고 포인터(142)의 동작을 제어한다. 터치 신호가 제2 터치 신호로 판별될 경우, 옵션 제어부(136)는 실행 가능한 옵션의 유무를 판별하고 표시부(140)에 옵션 창(144) 띄우기를 수행한다.
표시부(140)는 휴대 단말기(100)의 각종 메뉴를 비롯하여 사용자가 입력한 정보 또는 사용자에게 제공하는 정보를 표시한다. 표시부(140)는 예컨대 액정표시장치(LCD)이다. 특히, 표시부(140)는 일반적인 PC 환경과 유사하게 포인터(142)와 옵션 창(144)을 구비한다. 포인터(142)의 위치는 포인터 제어부(134)에 의해 제1 터치 지점과 결부되며, 포인터(142)의 동작은 제1 터치 지점의 변화, 즉 터치 신호에 수반된 위치 정보의 변화에 따라 결정된다. 옵션 창(144)은 선택 가능한 여러 메뉴가 목록 형태로 나열되는 일종의 팝-업(pop-up) 창으로서, 옵션 제어부(136)에 의해 표시부(140) 상에 나타난다.
이어서, 본 발명에 따른 휴대 단말기의 사용자 인터페이스 방법에 대하여 실시예를 통해 구체적으로 설명한다. 사용자 인터페이스 방법에 대한 이하의 설명으로부터, 전술한 휴대 단말기의 구성 또한 더욱 명확해질 것이다.
사용자 인터페이스 방법
도 2는 본 발명의 실시예에 따른 사용자 인터페이스 방법의 흐름도이다. 또한, 도 3은 도 2의 방법을 구현하는 동작 예시도이다.
도 1 내지 도 3을 참조하면, 첫째 단계는 제1 터치의 발생을 감지하는 단계(S11)이다.
구체적으로, 사용자가 한 손가락(90a; 이하, 제1 손가락)으로 키패드(110)의 어느 지점(92a; 이하, 제1 지점)을 터치하면, 키패드(110) 하부에 위치한 터치 센서(120)의 터치 감지부(122)가 터치 동작에 따른 물리량의 변화를 검출한다. 신호 변환부(124)는 물리량 변화의 검출값을 터치 신호로 변환하고, 이를 제어부(130)로 전송한다. 이때, 터치 발생 지점에 대한 위치 정보도 터치 신호와 함께 전송된다.
제어부(130)의 터치 판별부(132)는 터치 신호와 위치 정보를 수신하고, 터치 신호로부터 터치 유형을 판별한다. 하나의 터치 신호만 수신한 경우, 즉 키패드(110)의 한 지점에서만 터치가 발생한 경우, 터치 판별부(132)는 이를 제1 터치로 판별한다.
둘째 단계는 제1 터치가 발생한 제1 지점(92a)과 포인터(142)의 위치를 결부시키는 단계(S12)이다.
구체적으로, 제어부(130)의 포인터 제어부(134)는 터치 신호와 함께 전송된 위치 정보로부터 제1 터치가 발생한 제1 지점(92a)의 위치(X, Y)를 획득한다. 이 위치(X, Y)는 제1 손가락(90a)의 위치에 해당한다. 이어서 포인터 제어부(134)는 제1 지점(92a)의 위치(X, Y)를 표시부(140) 상에 출력되는 포인터(142)의 위치(x, y)와 결부시킨다.
2차원 좌표를 이용하여 터치 위치(X, Y)와 포인터 위치(x, y)를 결부시키는 방식은 다음의 두 가지가 모두 가능하다. 그 중 하나는 키패드(110) 영역과 표시부(140)의 동일 지점을 기준점으로 하는 절대좌표계 방식으로, 동일한 좌표의 터치 위치와 포인터 위치를 결부시킨다. 다른 하나는 상대좌표계 방식으로, 터치 발생 지점이 어디든 상관없이 제1 터치의 초기 위치를 포인터 위치와 결부시켜 기준점으로 삼는다.
셋째 단계는 제2 터치의 발생을 감지하는 단계(S13)이다.
구체적으로, 제1 손가락(90a)으로 제1 지점(92a)을 터치하고 있는 상태에서 사용자가 다른 손가락(90b; 이하, 제2 손가락)으로 키패드(110)의 다른 지점(92b; 이하, 제2 지점)을 터치하면, 터치 감지부(122)는 제1 터치의 경우와 마찬가지로 제2 손가락(90b)의 터치 동작에 따른 물리량의 변화를 검출하고 터치 신호로 변환하여 제어부(130)로 전송한다.
이와 같이 제1 터치에 의한 터치 신호가 수신되는 상태에서 다른 터치 신호가 새로 수신되면, 터치 판별부(132)는 이를 제2 터치로 판별한다. 즉, 두 지점에서 발생한 터치 신호를 동시에 수신한 경우, 터치 판별부(132)는 새로운 위치 정보와 함께 수신된 터치 신호를 제2 터치로 판정한다. 그러나 제1 터치 신호의 수신이 중단된 상태에서 새로운 위치 정보를 가지는 터치 신호가 수신되면, 이는 다시 새로운 제1 터치 신호가 된다.
넷째 단계는 실행 가능한 옵션이 존재하는지에 대하여 판별하는 단계(S14)이다.
구체적으로, 제2 터치가 발생하면, 제어부(130)의 옵션 제어부(136)는 포인터(142)의 현재 위치에서 실행할 수 있는 옵션이 있는지 판별한다. 표시부(140)에는 휴대 단말기(100)의 동작 상태에 따라 여러 유형의 화면이 출력될 수 있으며, 포인터(142)는 화면상의 임의의 곳을 가리킬 수 있다. 즉, 표시부(140)의 화면에는 휴대 단말기(100)의 특정 기능을 수행하기 위한 메뉴 항목(menu item)들이 아이콘(icon), 텍스트(text) 등의 형식으로 표시될 수도 있고, 특정 기능이 실행되는 상태가 표시될 수도 있다. 또한, 포인터(142)는 어떤 메뉴 항목을 가리킬 수도 있고 그렇지 않을 수도 있다.
각 경우에 포인터(142)가 어디에 위치하느냐에 따라 실행 가능한 옵션의 유무가 달라질 수 있다. 따라서 제2 터치가 발생하면 옵션 제어부(136)는 먼저 옵션의 유무를 판별한다. 만약 각 경우마다 포인터(142)의 위치에 상관없이 실행 가능한 옵션이 항상 존재한다면, 이 단계(S14)는 진행할 필요가 없다.
다섯째 단계는 옵션 창(144) 띄우기(launching)를 수행하는 단계(S15)이다.
구체적으로, 제2 터치가 발생하고 실행 가능한 옵션이 있는 경우, 옵션 제어부(136)는 표시부(140)에 옵션 창(144) 띄우기를 수행한다. 이는 일반적인 PC 환경에서의 마우스 오른쪽 버튼 클릭(click)에 해당하는 것으로, 포인터(142)가 현재 위치한 곳에서 표시부(140) 상에 옵션 창(144)이 나타난다.
이상 설명한 사용자 인터페이스 방법에 대하여 도 3을 참조하여 다시 간략하면, 제1 손가락(90a)이 키패드(110)의 제1 지점(92a)을 터치하면, 그 터치 지점(92a)의 위치(X, Y)가 포인터(142)의 위치(x, y)와 결부된다. 제1 손가락(90a)이 계속 터치하고 있는 동안 제2 손가락(90b)이 제2 지점(92b)을 터치하면, 포인터(142)가 위치한 곳의 표시부(140) 상에 옵션 창(144)이 나타난다. 옵션 창(144)을 띄우기 전에, 옵션이 존재하는지 판별하는 단계가 추가될 수 있다.
한편, 도 4a 내지 도 4c는 도 2의 사용자 인터페이스 방법을 구현하는 다른 동작 예시도이다.
먼저 도 4a를 참조하면, 제1 손가락(90a)이 키패드(110)의 제1 지점을 터치할 때, 터치 센서(120)는 이를 감지하고 터치 신호와 함께 제1 지점의 위치(X1, Y1)에 대한 정보를 제어부에 전송한다. 제어부의 터치 판별부에 의해 터치 신호의 유형이 제1 터치로 판별되면, 제어부의 포인터 제어부는 제1 터치 지점의 위치(X1, Y1)와 포인터(142)의 위치(x1, y1)를 결부시킨다. 제2 터치로 판별되는 터치 신호가 수신되기 전까지 터치 지점의 위치와 포인터의 위치를 결부시키는 과정은 지속적으로 반복된다. 한편, 도 4a에서 참조번호 146번은 소정의 실행 가능한 메뉴 항목을 가리킨다.
이어서 도 4b를 참조하면, 만약 위치 정보가 계속 바뀌면서 제1 터치 신호가 연속적으로 수신되는 경우, 포인터(142)의 위치도 그에 따라 계속 바뀌게 된다. 즉, 제1 손가락(90a)이 키패드(120) 위를 터치한 상태에서 위치가 (X2, Y2)인 제2 지점으로 움직이면, 포인터(142)도 (x2, y2)의 위치로 이동한다. 그 과정에서 제1 손가락(90a)이 이동한 경로(98)와 포인터(142)의 이동 경로(148)도 서로 대응된다. 이와 같이, 제1 터치 신호는 그 위치 정보를 이용하여 포인터(142)의 동작을 제어하는 입력 신호로 정의된다.
한편, 포인터(142)가 특정 메뉴 항목(146)에서 소정 시간 이상 머무를 때, 즉 위치 정보의 변화 없이 제1 터치 신호가 소정 시간 이상 수신될 때, 그 항목(146)이 선택되는 것으로 설정할 수 있다. 이와 달리, 동일한 위치 정보를 가지는 제1 터치 신호가 연달아 수신될 때, 즉 제1 손가락(90a)이 동일 지점을 한번 두드릴 때, 항목 선택이 이루어지는 것으로 설정할 수도 있다. 또한, 제2 터치 신호가 입력되면 위의 두 경우와 관계없이 항목 선택이 이루어진 것으로 설정할 수도 있다. 어느 경우든, 선택되기 전의 항목(도 4a의 146)과 선택된 후의 항목(도 4b의 146)은 표시부(140)에서 서로 다른 형식으로 표시할 수 있다.
이어서 도 4c를 참조하면, 제1 손가락(90a)이 키패드(110)를 터치하고 있는 상태에서 제2 손가락(90b)이 제1 터치 지점과 다른 지점을 터치할 때, 터치 센서(120)는 이를 감지하고 터치 신호를 제어부에 전송한다. 서로 다른 두 개의 터치 신호가 동시에 전송되면, 제어부의 터치 판별부는 새로운 위치 정보와 함께 수신된 터치 신호를 제2 터치로 판별한다.
이와 같이 제2 터치가 감지되면 제어부의 옵션 제어부는 포인터(142)의 현재 위치에서 실행할 수 있는 옵션이 있는지 판별한다. 도 4c의 경우, 선택된 메뉴 항목(146)이 옵션을 가지는지 판별한다. 실행 가능한 옵션이 있는 경우, 옵션 제어부는 표시부(140)에 옵션 창(144) 띄우기를 수행한다.
한편, 옵션 창(144)을 띄운 상태에서 제2 손가락(90a)을 아래위로 움직이면 옵션 창(144) 안의 메뉴 목록이 스크롤(scroll)되도록 부가 기능을 설정할 수 있다. 또한, 제2 손가락(90a)을 한 번 또는 두 번 두드리면 옵션 창(144) 안의 해당 메뉴가 실행되도록 부가 기능을 설정할 수도 있다. 이와 유사하게, 옵션 창(144)을 띄우기 전에도 제1 손가락(90a)을 한번 또는 두 번 두드리면 선택된 해당 메뉴 항목(146)이 실행되도록 부가 기능을 설정할 수도 있다.
이상, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
본 발명은 터치 센서가 장착된 키패드 위에서 사용자가 손가락으로 터치 동작을 수행하면 이를 감지하고 유형을 판별하여 미리 설정된 해당 기능을 수행하도록 하는 사용자 인터페이스를 제공한다. 이러한 키패드 터치 방식의 사용자 인터페이스는 키패드의 누름 동작에 의한 통상적인 기능 수행과 별도의 기능 수행을 가능하게 하므로, 휴대 단말기의 다양한 어플리케이션(application)을 수행하기에 적합하다.
특히, 본 발명의 사용자 인터페이스는 키패드 터치에 의하여 표시부 상의 포인터 동작을 제어하고 옵션 창 띄우기를 수행할 수 있다. 따라서 PC 환경에 근접한 휴대 단말기의 동작환경을 구현할 수 있고, 복잡한 옵션 구조의 화면에서도 직관적인 사용이 가능하며, 사용자 접근성 및 편의성이 우수하다. 예컨대, 본 발명의 사용자 인터페이스는 브라우저(browser) 환경이나 GPS 네비게이션(navigation) 환경에서 최적화된 방식을 제공할 수 있다.
아울러, 본 발명의 사용자 인터페이스는 휴대 단말기의 조작이 키패드 영역에서 이루어지며, 기존의 터치스크린 방식처럼 키패드 영역과 표시부 화면을 번갈아 사용할 필요가 없다. 따라서 본 발명의 사용자 인터페이스는 기존 방식에 비해 조작이 훨씬 간편할 뿐만 아니라, 첨필 사용이 필요 없으므로 한 손 조작도 가능하다. 게다가, 본 발명의 사용자 인터페이스는 기존의 터치스크린 방식에 비해 절반 이하로 원가절감 효과를 거둘 수 있다.

Claims (20)

  1. 키패드 위의 제1 위치에서 발생한 제1 터치를 감지하는 단계;
    상기 제1 위치와 다른 상기 키패드 위의 제2 위치에서 발생한 제2 터치를 감지하는 단계; 및
    표시부 상에 옵션 창 띄우기를 수행하는 단계;
    를 포함하는 휴대 단말기의 사용자 인터페이스 방법.
  2. 제1항에 있어서,
    상기 제2 터치는 상기 제1 터치가 감지되는 상태에서 추가적으로 감지되는 터치인 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  3. 제1항에 있어서,
    상기 제1 위치와 상기 제2 위치는 서로 다른 위치인 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  4. 제1항에 있어서,
    상기 제1 터치의 감지 단계와 상기 제2 터치의 감지 단계는 상기 키패드의 하부에 장착된 터치 센서에 의해 수행되는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  5. 제1항에 있어서,
    상기 표시부는 포인터를 구비하며, 상기 포인터의 위치는 상기 제1 위치와 결부되는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  6. 제5항에 있어서,
    상기 포인터의 위치 결부는 절대좌표계 방식 또는 상대좌표계 방식을 이용하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  7. 키패드 하부에 장착되는 터치 센서 및 표시부 상에 출력되는 포인터와 옵션 창을 구비하는 휴대 단말기의 사용자 인터페이스 방법으로서,
    상기 터치 센서에서 상기 키패드의 터치를 감지하는 단계;
    상기 감지된 터치를 터치 신호로 변환하는 단계;
    상기 터치 신호로부터 상기 터치의 유형을 판별하는 단계; 및
    상기 터치 유형의 판별 결과 상기 터치 신호가 두 개이면 상기 표시부 상에 상기 옵션 창 띄우기를 수행하는 단계;
    를 포함하는 휴대 단말기의 사용자 인터페이스 방법.
  8. 제7항에 있어서,
    상기 터치 유형의 판별 결과 상기 터치 신호가 한 개이면 상기 표시부 상의 상기 포인터의 위치와 동작을 제어하는 단계;
    를 더 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  9. 키패드 하부에 장착되는 터치 센서 및 표시부 상에 출력되는 포인터와 옵션 창을 구비하는 휴대 단말기의 사용자 인터페이스 방법으로서,
    상기 터치 센서에서 상기 키패드의 터치를 감지하고 터치 신호로 변환하는 제1 단계;
    상기 터치 신호로부터 상기 터치가 제1 터치인지 제2 터치인지 판별하는 제2 단계;
    상기 터치가 제1 터치이면 상기 표시부 상의 상기 포인터의 위치와 동작을 제어하는 제3 단계; 및
    상기 터치가 제2 터치이면 상기 표시부 상에 상기 옵션 창 띄우기를 수행하는 제4 단계;
    를 포함하는 휴대 단말기의 사용자 인터페이스 방법.
  10. 제9항에 있어서,
    상기 제2 단계는 상기 터치가 한 지점에서만 발생한 경우 상기 제1 터치로 판별하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  11. 제9항에 있어서,
    상기 제2 단계는 상기 터치가 두 지점에서 동시에 발생한 경우 새로운 지점에서 발생한 터치를 상기 제2 터치로 판별하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  12. 제9항에 있어서,
    상기 제3 단계는 상기 제1 터치가 발생한 지점의 위치와 상기 포인터의 위치를 결부시키는 단계를 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  13. 제9항에 있어서,
    상기 제4 단계는 상기 포인터의 위치에서 상기 옵션 창을 띄우는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  14. 제9항에 있어서,
    상기 제4 단계는 상기 옵션 창을 띄우기 전에 상기 포인터의 위치에 실행할 수 있는 옵션이 있는지 판별하는 단계를 더 포함하는 것을 특징으로 하는 휴대 단말기의 사용자 인터페이스 방법.
  15. 문자숫자식 키가 배치된 키패드;
    상기 키패드의 하부에 장착되며 상기 키패드의 터치를 감지하는 터치 센서; 및
    상기 터치가 상기 키패드의 서로 다른 두 지점에서 발생하면 표시부에 옵션 창 띄우기를 수행하는 옵션 제어부;
    를 포함하는 휴대 단말기.
  16. 제15항에 있어서,
    상기 키패드의 한 지점에서 상기 터치가 발생하면, 상기 터치가 발생한 상기 지점과 상기 표시부의 포인터 위치를 결부시키는 포인터 제어부;
    를 더 포함하는 것을 특징으로 하는 휴대 단말기.
  17. 문자숫자식 키가 배치된 키패드;
    상기 키패드의 하부에 장착되며 상기 키패드의 터치를 감지하고 터치 신호로 변환하는 터치 센서;
    상기 터치 신호의 유형을 판별하는 터치 판별부;
    상기 터치 신호에 따라 동작하는 포인터와 옵션 창을 구비하는 표시부;
    상기 터치 신호가 제1 터치 신호이면 상기 터치의 발생 지점과 상기 포인터의 위치를 결부시키고 상기 포인터의 동작을 제어하는 포인터 제어부; 및
    상기 터치 신호가 제2 터치 신호이면 상기 옵션 창 띄우기를 수행하는 옵션 제어부;
    를 포함하는 휴대 단말기.
  18. 제17항에 있어서,
    상기 터치 센서는 상기 키패드와 실질적으로 동일한 영역을 차지하는 것을 특징으로 하는 휴대 단말기.
  19. 제17항에 있어서,
    상기 터치 센서는 상기 터치에 따른 물리량의 변화를 검출하는 터치 감지부와, 상기 물리량의 변화를 상기 터치 신호로 변환하는 신호 변환부를 구비하는 것을 특징으로 하는 휴대 단말기.
  20. 제17항에 있어서,
    상기 터치 센서는 다수의 영역으로 분할되어 있는 것을 특징으로 하는 휴대 단말기.
KR1020060057388A 2006-06-26 2006-06-26 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기 KR100748469B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020060057388A KR100748469B1 (ko) 2006-06-26 2006-06-26 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
US11/750,098 US20070296707A1 (en) 2006-06-26 2007-05-17 Keypad touch user interface method and mobile terminal using the same
EP07108652A EP1873618A3 (en) 2006-06-26 2007-05-22 Keypad touch user interface method and mobile terminal using the same
CN2007101082780A CN101098533B (zh) 2006-06-26 2007-06-07 小键盘触摸用户接口方法与使用其的移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060057388A KR100748469B1 (ko) 2006-06-26 2006-06-26 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기

Publications (1)

Publication Number Publication Date
KR100748469B1 true KR100748469B1 (ko) 2007-08-10

Family

ID=38370939

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060057388A KR100748469B1 (ko) 2006-06-26 2006-06-26 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기

Country Status (4)

Country Link
US (1) US20070296707A1 (ko)
EP (1) EP1873618A3 (ko)
KR (1) KR100748469B1 (ko)
CN (1) CN101098533B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789279B1 (ko) 2010-01-22 2017-10-23 삼성전자주식회사 커맨드 생성방법 및 이를 이용한 디스플레이 장치

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8508475B2 (en) * 2008-10-24 2013-08-13 Microsoft Corporation User interface elements positioned for display
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
WO2010107009A1 (ja) * 2009-03-17 2010-09-23 日本電気株式会社 携帯電子機器の入力装置、その制御方法、及びプログラム
JP2010244302A (ja) * 2009-04-06 2010-10-28 Sony Corp 入力装置および入力処理方法
KR101099135B1 (ko) * 2009-08-24 2011-12-27 주식회사 팬택 이동단말의 단축기능 수행장치 및 방법
KR101085702B1 (ko) * 2009-11-04 2011-11-22 삼성전자주식회사 터치스크린의 한글 입력 방법, 기록매체
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
HK1144229A2 (en) * 2009-12-17 2011-02-02 Shining Union Ltd Touch-type keyboard with curved surface
LV14249B (lv) * 2010-08-12 2011-04-20 Vladimirs Bondarenko Ierīce informācijas ievadīšanai elektroniskajās ierīcēs
US20130104039A1 (en) * 2011-10-21 2013-04-25 Sony Ericsson Mobile Communications Ab System and Method for Operating a User Interface on an Electronic Device
CN103456150A (zh) * 2012-05-30 2013-12-18 华硕电脑股份有限公司 遥控***及其遥控方法
KR102091235B1 (ko) * 2013-04-10 2020-03-18 삼성전자주식회사 휴대 단말기에서 메시지를 편집하는 장치 및 방법
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
CN104252237A (zh) * 2013-06-27 2014-12-31 诺基亚公司 支持触摸的键盘以及关联的装置和方法
US9229612B2 (en) 2013-08-27 2016-01-05 Industrial Technology Research Institute Electronic device, controlling method for screen, and program storage medium thereof
US10234952B2 (en) * 2014-07-18 2019-03-19 Maxim Integrated Products, Inc. Wearable device for using human body as input mechanism
US20180232116A1 (en) * 2017-02-10 2018-08-16 Grad Dna Ltd. User interface method and system for a mobile device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050077507A (ko) * 2004-01-27 2005-08-03 에스케이텔레텍주식회사 포인팅센서를 구비한 이동통신단말기

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037930A (en) * 1984-11-28 2000-03-14 The Whitaker Corporation Multimodal touch sensitive peripheral device
US4728936A (en) * 1986-04-11 1988-03-01 Adt, Inc. Control and display system
JPH09146708A (ja) * 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
US6107997A (en) * 1996-06-27 2000-08-22 Ure; Michael J. Touch-sensitive keyboard/mouse and computing device using the same
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
EP0802500B1 (en) * 1996-04-15 1999-08-18 Pressenk Instruments Inc. Padless touch sensor
US6388660B1 (en) * 1997-12-31 2002-05-14 Gateway, Inc. Input pad integrated with a touch pad
US6298446B1 (en) * 1998-06-14 2001-10-02 Alchemedia Ltd. Method and system for copyright protection of digital images transmitted over networks
DE19939159A1 (de) * 1999-08-20 2000-03-02 Axel Schnell Berührungsempfindliches kapazitives Sensormatrixfeld
GB2384649B (en) * 2002-01-28 2004-08-25 Motorola Inc Telephone handset units
US6972401B2 (en) * 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
EP1658551A1 (en) * 2003-08-29 2006-05-24 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
US7190356B2 (en) * 2004-02-12 2007-03-13 Sentelic Corporation Method and controller for identifying double tap gestures
JP4395408B2 (ja) * 2004-05-07 2010-01-06 Hoya株式会社 タッチパネル付き入力装置
CN1746902A (zh) * 2004-09-06 2006-03-15 松下电器产业株式会社 感应键盘
KR100678945B1 (ko) * 2004-12-03 2007-02-07 삼성전자주식회사 터치패드 입력 정보 처리 장치 및 방법
US7808486B2 (en) * 2005-02-09 2010-10-05 Research In Motion Limited Handheld electronic device providing feedback to facilitate navigation and the entry of information, and associated method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050077507A (ko) * 2004-01-27 2005-08-03 에스케이텔레텍주식회사 포인팅센서를 구비한 이동통신단말기

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
국내공개특허공보 10-2005-77507

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789279B1 (ko) 2010-01-22 2017-10-23 삼성전자주식회사 커맨드 생성방법 및 이를 이용한 디스플레이 장치

Also Published As

Publication number Publication date
EP1873618A2 (en) 2008-01-02
EP1873618A3 (en) 2008-12-03
US20070296707A1 (en) 2007-12-27
CN101098533A (zh) 2008-01-02
CN101098533B (zh) 2012-06-27

Similar Documents

Publication Publication Date Title
KR100748469B1 (ko) 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
US8451236B2 (en) Touch-sensitive display screen with absolute and relative input modes
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
EP1466241B1 (en) Method and apparatus for integrating a wide keyboard in a small device
KR100701520B1 (ko) 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
AU2010235941B2 (en) Interpreting touch contacts on a touch surface
US10114485B2 (en) Keyboard and touchpad areas
US20100073303A1 (en) Method of operating a user interface
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
JP2009536385A (ja) スクロール付き多機能キー
JP2013131087A (ja) 表示装置
KR20150069420A (ko) 터치스크린이 장착된 키보드를 이용한 컴퓨터장치의 제어방법
JP3143474U (ja) 電子デバイス
US20150002433A1 (en) Method and apparatus for performing a zooming action
KR101598671B1 (ko) 터치스크린이 장착된 키보드 및 그 제어방법
KR100859882B1 (ko) 터치 기반 사용자 입력 장치상의 듀얼 포인트 사용자입력을 인지하기 위한 방법 및 장치
AU2013205165B2 (en) Interpreting touch contacts on a touch surface
KR100780437B1 (ko) 포인팅 장치를 구비한 휴대 단말기의 포인터 제어 방법
US20080024458A1 (en) Assignment of Functions to a Softkey
WO2015093005A1 (ja) 表示システム
AU2015271962B2 (en) Interpreting touch contacts on a touch surface
USRE46020E1 (en) Method of controlling pointer in mobile terminal having pointing device
KR20100053001A (ko) 터치스크린의 정보입력방법
KR20090103069A (ko) 터치 입력 방법, 장치 및 그 방법을 실행하는 프로그램이기록된 기록매체
KR20120122135A (ko) 움직임 감지장치를 이용한 휴대 단말의 E-book 정보 표시 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130730

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140730

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150730

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160728

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170728

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee