KR100668341B1 - 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치. - Google Patents

사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치. Download PDF

Info

Publication number
KR100668341B1
KR100668341B1 KR1020050056933A KR20050056933A KR100668341B1 KR 100668341 B1 KR100668341 B1 KR 100668341B1 KR 1020050056933 A KR1020050056933 A KR 1020050056933A KR 20050056933 A KR20050056933 A KR 20050056933A KR 100668341 B1 KR100668341 B1 KR 100668341B1
Authority
KR
South Korea
Prior art keywords
portable terminal
function
user
grip
gripping
Prior art date
Application number
KR1020050056933A
Other languages
English (en)
Other versions
KR20070001440A (ko
Inventor
조성정
이현정
박준아
장욱
김기응
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050056933A priority Critical patent/KR100668341B1/ko
Priority to US11/476,631 priority patent/US8055305B2/en
Publication of KR20070001440A publication Critical patent/KR20070001440A/ko
Application granted granted Critical
Publication of KR100668341B1 publication Critical patent/KR100668341B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 휴대전화 등의 휴대용 단말기에서, 사용자의 단말기 파지 형태를 인식하여 그에 대응되는 특정 기능을 수행하는 휴대용 단말기의 기능 입력 방법 및 장치에 관한 것이다. 그 방법은 휴대용 단말기에 대한 사용자의 파지 형태를 인식하는 단계; 인식된 파지 형태에 대응되는 기능을 검출하는 단계; 및 검출된 기능을 수행하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 의하면, 휴대전화 등의 휴대용 단말기에서 기능 수행 시 형성되는 사용자의 파지 형태들을 고려하여 복수의 파지 형태 각각에 특정 기능을 대응시킨 후, 사용자의 휴대용 단말기 접촉 시 파지 형태를 인식하여 그에 대응되는 기능이 별도의 키입력 등의 조작 없이 자동으로 수행되도록 함으로써, 휴대용 단말기 기능의 다양화로 인한 입력 수단 및 방법의 복잡화를 감소시킬 수 있으며, 휴대용 단말기 사용에 편리함을 제공할 수 있다.

Description

사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력 방법 및 장치.{Method and apparatus for function selection by user's hand grip shape}
도 1은 본 발명에 따른 휴대용 단말기의 기능 입력 방법을 나타내는 흐름도이다.
도 2a, b는 휴대용 단말기에 구비되는 터치 센서들의 배치를 설명하기 위한 도면이다.
도 3은 사용자의 파지 형태 정의를 위해 사용자의 손을 복수의 영역으로 분할하는 방법에 대한 실시예를 도시한 도면이다.
도 4a, 4b, 4c, 4d는 사용자의 파지 형태에 대한 실시예들을 도시한 도면이다.
도 5는 사용자의 파지 형태에 따라 휴대용 단말기의 접촉점들을 정의하는 방법에 대한 실시예를 도시한 것이다.
도 6은 도 1의 기능 검출 단계에 대한 실시예를 나타내는 흐름도이다.
도 7은 본 발명에 따른 휴대용 단말기의 기능 입력 장치의 구성을 나타내는 블록도이다.
도 8은 도 7의 파지형태인식부에 대한 실시예를 나타내는 블록도이다.
본 발명은 휴대전화 등의 휴대용 단말기에서 사용자로부터 특정 기능의 수행을 입력 받는 방법 및 장치에 관한 것으로, 특히 사용자의 휴대용 단말기 파지 형태를 인식하여 그에 대응되는 기능을 수행하도록 하는 휴대용 단말기의 기능 입력 방법 및 장치에 관한 것이다.
일반적으로, 휴대용 단말기 사용자는 휴대용 단말기의 일측에 설치된 복수개의 버튼들을 이용하여 단말기의 기능들인 전화 걸기, 문자 메시지 발신 및 수신 등의 기능을 선택하고, 한글, 영문 및 숫자 등을 입력한다.
최근의 휴대전화 등의 휴대용 단말기들은, 휴대용 단말기가 통상적으로 가지고 있는 주된 기능인 전화 걸기, 문자 메시지 기능 뿐 아니라 다른 전자 기기의 기능을 통합 및 융합하는 쪽으로 발전되어 오고 있다. 예를 들어, 최근 휴대 전화에 MP3 플레이어의 MP3 음악 파일의 재생 기능, 디지털 카메라의 영상 녹화 기능 및 영상 재생 기능, 전자 사전의 기능 또는 디지털 TV 기능 등 매우 많은 기능들이 포함되고 있다.
상기와 같은 휴대용 단말기의 기능 증가는 상기 기능들을 제어하는 장치의 증가를 수반하게 되는데 인간 행동학 및 생리학의 관점에서 볼 때 사용자들은 전자 기기의 복합 기능화가 전자 기기의 복잡화 및 고가화를 수반하지는 않기를 바라며, 본래 단말기의 크기에 비해 일정 수준 이상 커지는 것은 원하지 않는 경향이 있다.
기술의 발달로 인해 여러 기능들을 휴대용 단말기에 통합하거나 장치를 소형 화하는 데에는 큰 어려움이 없다고 하더라도, 사용자가 신속하고 용이하게 복잡한 기능들을 입력하고 단말기를 제어하기 위한 사용자 인터페이스(interface)를 제공하는 것에 대해서 해결해야할 기술적 과제들이 증가하게 되었다. 예를 들어, 사용자가 특정 기능을 수행하기 위하여 입력해야 하는 키입력 단계의 증가를 줄이거나, 사진, 동영상, 음악, 이메일 등 다수의 디지털 컨텐츠(digital contents)들을 쉽게 관리, 검색 및 재생하기 위한 사용자 인터페이스의 개발이 요구되고 있다.
예를 들어, 휴대전화에서 무선인터넷에 접속하여 최신곡의 벨소리를 다운받기 위해서는, 무선인터넷 연결 버튼을 누르고, 무선 인터넷에 연결된 후에는 마이벨 메뉴를 선택하고, 상기 마이벨 메뉴의 하위 메뉴인 벨소리 메뉴를 선택한 후, 상기 벨소리 메뉴의 하위 메뉴인 최신곡 메뉴를 선택하여야 하는 등 총 4번의 키입력이 요구된다.
휴대용 단말기의 경우, 상기와 같은 다수의 기능들을 입력하기 위해 버튼의 개수를 증가시키는 것은 제한된 장치 크기 및 버튼 개수의 증가에 따른 사용자 입력의 복잡성 등이 문제가 된다. 또한, 키입력을 위한 버튼의 개수를 증가시키지 않는 경우에는 특정 기능을 입력하기 위한 키입력 회수가 증가된다는 문제가 있었다.
본 발명이 이루고자 하는 기술적 과제는, 휴대전화 등의 휴대용 단말기에서 특정 기능의 수행을 입력함에 있어 상기와 같은 문제점들을 해결하기 위해, 사용자가 특정 기능의 입력 시 일반적으로 형성되는 휴대용 단말기 파지 형태를 고려하여 별도의 키입력 등의 조작 없이 상기 파지 형태에 대응되는 기능을 자동으로 수행할 수 있도록 하는 휴대용 단말기의 기능 입력 방법 및 장치를 제공하는 것이다.
상술한 기술적 과제를 해결하기 위한 본 발명에 의한 휴대용 단말기의 기능 입력 방법은, 상기 휴대용 단말기에 대한 사용자의 파지 형태를 인식하는 단계; 상기 인식된 파지 형태에 대응되는 기능을 검출하는 단계; 및 상기 검출된 기능을 수행하는 단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 파지 형태를 인식하는 단계는 상기 휴대용 단말기에 구비된 복수의 터치 센서(touch sensor)들의 출력 신호를 입력받는 단계; 및 상기 입력된 센서 출력 신호들을 이용하여 상기 사용자의 파지 형태를 인식하는 단계를 포함한다.
상기 복수의 터치 센서들은 상기 휴대용 단말기의 외면에 균일한 간격으로 배치되거나, 상기 휴대용 단말기의 외면을 복수의 영역으로 분할하여 사용자의 상기 휴대용 단말기 파지 시 접촉되는 빈도수에 따라 상기 분할된 각 영역에 대해 서로 다른 간격으로 배치되는 것이 바람직하다.
바람직하게는, 상기 복수의 영역은 상기 휴대용 단말기의 전면, 후면, 상단, 하단, 좌측 옆면, 우측 옆면을 포함한다. 또한, 상기 센서 출력 신호들을 이용하여 파지 형태를 인식하는 단계는 상기 휴대용 단말기의 외면을 복수의 영역으로 분할하는 단계; 상기 분할된 각 영역에 대해, 상기 센서 출력 신호들을 이용하여 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 검출하는 단계; 및 상기 분할된 각 영역에 대해 검출된 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 이용하여 사용자의 파지 형태를 결정하는 단계를 포함하는 것이 바람직하다.
상기 센서 출력 신호들을 이용하여 파지 형태를 인식하는 단계는 인공 신경망, 템플릿 매칭(Template matching), 은닉 마르코프 모델, SVM(Support Vector Machine) 중 어느 하나를 이용하여, 상기 센서 출력 신호들로부터 사용자의 파지 형태를 인식하는 것이 바람직하다.
바람직하게는, 상기 파지 형태를 인식하는 단계는 상기 휴대용 단말기의 외면을 복수의 영역으로 분할하는 단계; 상기 분할된 각 영역에 대해 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 검출하는 단계; 및 상기 분할된 각 영역에 대해 검출된 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 이용하여 사용자의 파지 형태를 결정하는 단계를 포함한다.
상기 복수의 영역은 상기 휴대용 단말기의 전면, 후면, 상단, 하단, 좌측 옆면, 우측 옆면을 포함하는 것이 바람직하다. 바람직하게는, 상기 파지 형태는 오른손/가로 파지, 오른손/세로 파지, 양손/가로 파지, 양손/세로 파지, 왼손/가로 파지. 왼손/세로 파지 중 적어도 하나를 포함한다.
상기 인식된 파지 형태에 대응되는 기능은, 상기 인식된 파지 형태가 오른손/세로 파지인 경우 전화 통화 기능이며, 상기 인식된 파지 형태가 양손/세로 파지인 경우 문자 입력 기능이고, 상기 인식된 파지 형태가 오른손/가로 파지인 경우 촬영 기능이며, 상기 인식된 파지 형태가 양손/가로 파지인 경우 게임 기능인 것이 바람직하다.
바람직하게는, 상기 기능을 검출하는 단계는 상기 인식된 파지 형태에 사용자의 키 입력과 상기 휴대용 단말기의 현재 기능 중 적어도 어느 하나를 조합하여, 상기 조합에 대응되는 기능을 검출한다.
상기 기능 입력 방법은, 상기 인식된 파지 형태에 대응되는 기능이 2 이상인 경우 상기 대응되는 기능들을 표시하는 단계; 및 상기 표시된 2 이상의 기능들 중 수행하고자하는 기능을 사용자로부터 입력 받는 단계를 더 포함하는 것이 바람직하다.
상술한 기술적 과제를 해결하기 위한 본 발명에 의한 휴대용 단말기에 구비되는 기능 입력 장치는, 상기 휴대용 단말기에 대한 사용자의 파지 형태를 인식하는 파지형태인식부; 상기 인식된 파지 형태에 대응되는 기능을 검출하는 기능검출부; 및 상기 검출된 기능을 수행하는 기능수행부를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 파지형태인식부는 복수의 터치 센서들을 포함하고, 상기 터치 센서의 출력 신호들을 이용하여 상기 사용자의 파지 형태를 인식한다.
상기 복수의 터치 센서들은 상기 휴대용 단말기의 외면에 균일한 간격으로 배치되거나, 상기 휴대용 단말기의 외면을 복수의 영역으로 분할하여 사용자의 상기 휴대용 단말기 파지 시 접촉되는 빈도수에 따라 상기 분할된 각 영역에 대해 서로 다른 간격으로 배치되는 것이 바람직하다.
바람직하게는, 상기 복수의 영역은 상기 휴대용 단말기의 전면, 후면, 상단, 하단, 좌측 옆면, 우측 옆면을 포함한다.
상기 파지형태인식부는 상기 휴대용 단말기의 외면을 분할한 복수의 영역들 각각에 대해, 상기 센서 출력 신호들을 이용하여 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 검출하는 접촉검출부; 및 상기 분할된 각 영역에 대해 검출된 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 이용하여 사용자의 파지 형태를 결정하는 형태결정부를 포함하는 것이 바람직하다.
바람직하게는, 상기 파지형태인식부는 인공 신경망, 템플릿 매칭, 은닉 마르코프 모델, SVM 중 어느 하나를 이용하여, 상기 센서 출력 신호들로부터 사용자의 파지 형태를 인식한다.
상기 파지 형태는 오른손/가로 파지, 오른손/세로 파지, 양손/가로 파지, 양손/세로 파지, 왼손/가로 파지. 왼손/세로 파지 중 적어도 하나를 포함하는 것이 바람직하다.
바람직하게는, 상기 인식된 파지 형태에 대응되는 기능은, 상기 인식된 파지 형태가 오른손/세로 파지인 경우 전화 통화 기능이며, 상기 인식된 파지 형태가 양손/세로 파지인 경우 문자 입력 기능이고, 상기 인식된 파지 형태가 오른손/가로 파지인 경우 촬영 기능이며, 상기 인식된 파지 형태가 양손/가로 파지인 경우 게임 기능인 것이 바람직하다.
상기 기능검출부는 상기 인식된 파지 형태에 사용자의 키 입력과 상기 휴대용 단말기의 현재 기능 중 적어도 어느 하나를 조합하여, 상기 조합에 대응되는 기능을 검출하는 것이 바람직하다.
상기 휴대용 단말기에 구비되는 기능 입력 장치는, 상기 인식된 파지 형태에 대응되는 기능이 2 이상인 경우 상기 대응되는 기능들을 표시하는 표시부; 및 상기 표시된 2 이상의 기능들 중 수행하고자하는 기능을 사용자로부터 입력 받는 사용자입력부를 더 포함하는 것이 바람직하다.
상기 휴대용 단말기의 기능 입력 방법은 바람직하게는 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로 구현할 수 있다.
이하, 첨부된 도면을 참조하면서 본 발명에 따른 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력 방법 및 장치에 대해 상세히 설명한다.
도 1은 본 발명에 따른 휴대용 단말기의 기능 입력 방법을 흐름도로 도시한 것으로, 도 1에 도시된 기능 입력 방법을 도 7에 도시된 본 발명에 따른 휴대용 단말기에 구비되는 기능 입력 장치의 구성을 나타내는 블록도와 결부시켜 설명하기로 한다.
사용자가 상기 휴대용 단말기를 사용하기 위해 상기 휴대용 단말기에 접촉하면, 상기 센서부(700)에 포함된 복수의 터치 센서(touch sensor)들은 각각 사용자의 접촉 여부를 감지하여 그에 상응하는 신호를 출력한다(100단계). 상기 복수의 터치 센서들은 상기 휴대용 단말기의 외면에 균일한 간격으로 배치되거나, 상기 휴대용 단말기의 외면을 복수의 영역으로 나누어 상기 각 영역에 대해 사용자 접촉 빈도 수에 따라 서로 다른 간격으로 배치되는 것이 바람직하다. 성인 손가락의 평균 너비가 15mm 이므로, 상기 터치 센서 각각이 사용자의 접촉 여부를 감지하는 단위는 15mm 이하인 것이 바람직하다.
도 2a는 상기 복수의 터치 센서들의 배치를 위해 휴대용 단말기의 외면을 복 수의 영역들로 분할하는 방법에 대한 제1실시예를 도시한 것으로, 상기 휴대용 단말기의 외면을 전면(200), 후면(210), 상단(220), 하단(230), 좌측 옆면(250), 우측 옆면(240)으로 나눈 것이다. 상기와 같이 분할된 복수의 영역들에 대해 터치 센서의 배치 간격을 설정하는 방법에 대한 실시예는 다음과 같다.
상기 분할된 복수의 영역 각각에 대해 사용자가 상기 휴대용 단말기를 파지하는 경우 접촉되는 빈도수를 검출하고, 상기 접촉 빈도수가 높은 영역에 대해서는 터치 센서들을 좁은 간격으로 배치시키고, 상기 접촉 빈도수가 낮은 영역에 대해서는 터치 센서들을 넓은 간격으로 배치시킨다. 예를 들어, 상기 분할된 영역들 중 상단(220) 또는 하단(230)은 사용자의 휴대용 단말기 파지 시 접촉 빈도수가 낮으므로 상기 상단(220) 또는 하단(230)에는 터치 센서들을 넓은 간격으로 배치하고, 좌/우측 옆면(240, 250)은 접촉 빈도수가 높으므로 터치 센서들을 좁은 간격으로 배치시키는 것이 바람직하다.
상기 분할된 영역들에 대해 접촉 빈도수를 검출하는 방법에 대한 실시예로는, 휴대용 단말기에서 수행 가능한 모든 기능들에 대해 상기 기능들을 수행하기 위한 파지 형태들을 실제로 여러번에 걸쳐 취하여, 상기 분할된 영역 각각에 대한 접촉수를 구함으로써 상기 각 영역에 대한 접촉 빈도수를 구하는 것이 바람직하다.
도 2b는 상기 복수의 터치 센서들의 배치를 위해 휴대용 단말기의 외면을 복수의 영역들로 분할하는 방법에 대한 제2실시예를 도시한 것으로, 상기 휴대용 단말기의 외면을 LCD(260), 전면(270), 제1후면(280), 제2후면(290), 제3후면(295), 상단(220), 하단(230), 좌측 옆면(250), 우측 옆면(260)으로 나눈 것이다. 상기 도 2b에 도시된 바와 같이, 휴대용 단말기의 외면을 더 많은 개수의 영역으로 분할하여, 각 영역의 접촉 빈도수에 따라 터치 센서들의 배치 간격을 조정하면 터치 센서들을 더욱 효율적으로 이용할 수 있다.
파지형태인식부(710)는 센서부(700)로부터 입력되는 복수의 터치 센서들의 출력 신호를 입력받아, 사용자의 휴대용 단말기 파지 형태를 인식한다(110단계). 도 8은 파지형태인식부(710)에 대한 실시예를 블록도로 도시한 것으로, 도 8에 도시된 파지형태인식부(710)는 특징추출부(800), 메모리검색부(810) 및 메모리(820)를 포함하여 이루어진다.
상기 특징추출부(800)는 센서부(700)로부터 입력되는 센서 출력 신호들을 이용하여 현재 사용자가 휴대용 단말기를 파지한 형태의 특징데이터들을 추출한다. 상기 메모리(820)에는 복수의 파지 형태 각각에 대해 미리 정의된 특징 데이터들이 저장되어 있다. 메모리검색부(810)는 상기 메모리(820)를 검색하여, 상기 특징추출부(800)에서 추출한 현재 파지 형태의 특징데이터와 일치하는 특징데이터로 정의되어 있는 파지 형태를 현재 사용자의 파지 형태로 출력한다. 이하에서는 상기 파지 형태 각각에 대해 특징데이터를 정의하는 방법에 대한 실시예에 대해 설명하기로 한다.
도 3은 파지 형태 정의를 위해 사용자의 양손을 복수의 영역으로 분할하는 방법에 대한 실시예를 도시한 것으로,오른손과 왼손 각각을 6개의 영역으로 분할한 것이다. 상기 파지 형태는 도 3에 도시된 바와 같은 복수의 영역들 중 접촉하는 손의 영역과 도 2a 또는 도 2b에 도시된 바와 같은 복수의 영역 중 접촉되는 휴대용 단말기의 영역으로 정의되는 것이 바람직하다.
도 4a는 사용자의 파지 형태 중 오른손/세로 파지 형태를 도시한 것으로, 다음의 표 1은 도시된 오른손/세로 파지 시 접촉되는 손의 영역들과 그에 대응되는 휴대용 단말기의 영역들로 상기 오른손/세로 파지 형태를 정의한 실시예이다.
Figure 112005034998923-pat00001
상기 표 1에서, 1의 값으로 표시된 부분이 사용자의 손이 접촉되는 영역으로, 표 1에 따르면 오른손/세로 파지 형태는 휴대용 단말기의 우측 옆면에 오른손 엄지손가락 부분이 접촉되며, 좌측 옆면에 검지, 중지 및 약지가 접촉되는 것으로 정의되는 것이 바람직하다.
다음의 표 2에 표시된 바와 같이, 상기 파지 형태의 정의는 경우에 따라 접촉 여부가 변경될 수 있는 영역을 포함하는 것이 바람직하다. 다음의 표 2는 상기 표 1의 오른손/세로 파지 형태의 정의에 추가하여, 경우에 따라 접촉여부가 변경될 수 있는 영역을 *으로 표시한 것이다.
Figure 112005034998923-pat00002
상기 표 2에 따르면 오른손/세로 파지 형태는 상기 표 1에서 정의된 접촉 영역 이외에 휴대용 단말기의 좌측 옆면에 오른손 새끼손가락 부분이 접촉될 될수도 있으며, 우측 옆면에 손 바닥이 접촉될 수도 있는 것으로 정의되는 것이 바람직하다.
상기와 같이 접촉되는 손의 영역과 휴대용 단말기의 영역을 결합하여 정의된 파지 형태는, 다음과 같이 휴대용 단말기의 분할된 영역들 각각에 대한 접촉점의 수, 각 접촉점의 너비, 인접한 접촉 점 사이의 거리 및 접촉점 전체의 너비로 정의되는 것이 바람직하다. 이는 터치 센서의 출력 신호들로부터 상기 정의된 형태의 특징데이터를 용이하게 추출하기 위해서이다. 도 5에 도시된 바와 같이 두 접촉점(500, 510)이 있는 경우, 상기 접촉점의 개수는 2, 각 접촉점의 너비는 k1과 k2, 인접한 접촉점의 사이의 거리는 d12, 접촉점 전체의 너비는 L이 된다.
상기 표 2에 정의된 오른손/세로 파지 형태는 다음의 표 3에 표시된 것과 같이 정의되는 것이 바람직하다.
Figure 112005034998923-pat00003
도 4b는 사용자의 파지 형태 중 오른손/가로 파지 형태를 도시한 것으로, 다음의 표 4와 표 5는 도시된 오른손/가로 파지 형태를 정의한 실시예들이다.
Figure 112005034998923-pat00004
Figure 112005034998923-pat00005
도 4c는 사용자의 파지 형태 중 양손/세로 파지 형태를 도시한 것으로, 다음의 표 6과 표 7은 도시된 양손/세로 파지 형태를 정의한 실시예들이다.
Figure 112005034998923-pat00006
Figure 112005034998923-pat00007
도 4d는 사용자의 파지 형태 중 양손/가로 파지 형태를 도시한 것으로, 다음의 표 8과 표 9는 도시된 양손/가로 파지 형태를 정의한 실시예들이다.
Figure 112005034998923-pat00008
Figure 112005034998923-pat00009
사용자 파지 형태들 각각에 대해 상기한 방법들에 의해 정의된 특성데이터가 메모리(820)에 저장되고, 특징추출부(800)는 메모리(820)에 저장된 특성데이터와 동일한 형태를 가지는 현재 사용자 파지 형태의 특성데이터를 입력되는 센서 출력 신호들로부터 추출한다.
특징추출부(800)는 입력되는 센서 출력 신호를 이용하여, 휴대용 단말기의 분할된 영역들 각각에 대해 접촉점의 개수, 상기 각 접촉점의 너비, 인접한 접촉 점 사이의 거리 및 접촉점 전체의 너비를 검출하는 것이 바람직하다.
상기 파지형태인식부(710)가 입력되는 센서 출력 신호를 이용하여 사용자의 파지 형태를 인식하는 방법에 대한 또 다른 실시예로, 패턴 인식 방법을 이용하는 것이 바람직하다.
상기 패턴인식방법을 적용하는 일반적인 절차는 다음과 같다.
첫째, 사용자로부터 {입력 X, 클래스 C} 에 대한 다량의 데이터를 수집한다. 둘째, 수집한 데이터를 학습 데이터와 테스트 데이터로 분할한다. 셋째, 학습데이터를 패턴 인식 시스템에 제시하여, 학습을 수행한다. 이 경우 패턴 인식 시스템의 모델 파라미터들이 데이터에 맞게 변경된다. 마지막으로, 입력 X만을 시스템에 제시하여, 시스템이 클래스를 출력으로 내보내게 한다.
상기 패턴 인식 방법에 대한 제1실시예로 인공신경망을 이용하는 것이 바람직하다. 상기 인공 신경망은 생물의 신경전달 과정을 단순화하고 이를 수학적으로 해석한 모델로써, 복잡하게 얽혀있는 신경세포들을 통과시켜가면서 신경세포들끼리의 연결가중치(weight)를 조절하는 일종의 학습과정을 통해 문제를 분석하는 것으로, 상기와 같은 과정은 사람이 학습하고 기억하는 과정과 비슷하며 이를 통해 추론, 분류, 예측 등을 수행할 수 있다. 상기 인공 신경망에서 신경세포는 노드(node)에 대응되고, 신경세포간의 연결 강도는 노드 사이의 아크(arc)에 연결된 가중치에 대응한다. 상기 인공 신경망은 여러 개의 단층 퍼셉트론(perceptron)으로 구성된 다층 퍼셉트론 신경망인 것이 바람직하며, 상기 신경망은 역전파 학습방법에 의해 학습되는 것이 바람직하다.
상기 역전파 학습방법은 신경망 모델 중 하나인 위드로-호프(Widrow-Hoff) 학습규칙을 다층 네트워크와 비선형 미분 가능한 전이함수로 확장한 모델로 문자인식 및 비선형계 예측에 많이 사용되고 있다. 신경망의 각 노드들은 그들의 출력을 생성하기 위하여 여러 가지 미분 가능한 전이함수 중에 하나를 사용하는데 이하의 수학식 1과 같은 로그-시그모이드(logsig)함수를 가장 많이 사용한다.
Figure 112005034998923-pat00010
상기 함수는 음의 무한대에서 양의 무한대의 범위로 들어오는 입력 값에 따라 0에서 1사이의 출력을 만든다. 원하는 함수를 학습할 때는 원하는 출력 값과 실제 출력 값과의 편차를 역전파 알고리즘을 사용하여 줄여나가면서 학습이 수행된다.
상기 인공 신경망의 입력층 노드에 각 센서에서 출력한 신호를 처리하여 입력하면, 상기 신호는 각 노드에서 변환되어 중간층에 전달되고 최후에 출력 층에서 움직임 패턴을 출력하게 된다. 상기 신경망에서 출력된 활성화 값들과 학습시 각 패턴별로 정의된 활성화 값들을 비교하여 차이를 줄여나가는 방향으로 노드들 사이의 연결강도를 조절하고, 델타 학습 규칙에 따라 상위층에서 역전파 하여 하위 층에서는 이를 근거로 다시 자기 층의 연결강도를 조정해 나가며 오차를 최소로 만든다. 상기 델타 학습규칙은 입출력 함수가 비선형의 신경세포으로 이루어진 네트워크(network)에 대하여 모든 입력패턴으로부터 얻어지는 출력과 목표 출력과의 오차의 제곱의 총합을 최소로 하도록 연결강도를 조정하는 것이다.
상기와 같은 학습 과정에 의해 미리 설정된 모든 움직임 패턴들에 대한인공신경망 학습이 완료되면, 상기 인공신경망은 센서부(700)로부터 입력되는 신호들을 입력받아 미리 설정된 소정의 파지 형태들 중 하나의 파지 형태로 인식할 수 있다.
상기 인공 신경망(1100)은 사용자가 원하는 경우, 사용자에 의해 재학습될 수 있도록 하는 것이 바람직하다. 예를 들면, 사용자가 인공 신경망을 재학습 시키고자하는 움직임 패턴을 선택하고 상기 움직임 패턴에 해당하는 복수의 움직임을 수행하는 경우, 상기 수행된 움직임을 반영하기 위한 인공 신경망(1100)의 재학습이 이루어질 수 있도록 할 수 있다.
상기 패턴을 인식하는 방법의 제2실시예로서, 서포트 벡터 머신(SVM, Support Vector Machine)을 이용하여 사용자의 움직임 패턴을 인식할 수 있다. 이 방법에 의하면, N개의 움직임 신호의 특징으로부터 N차원 공간을 형성하고 학습 데이터에 의해 적당한 하이퍼플레인(hyperplane)을 찾은 후, 이 하이퍼플레인에 의해 패턴을 분류할 수 있고, 상기 각 패턴들은 다음 수학식 2에 의해 정의할 수 있다.
Figure 112005034998923-pat00011
상기 수학식 2에서, W는 가중치 행렬, X는 입력벡터, b는 오프셋이다.
상기 패턴을 인식하는 방법의 제3실시예로서, 템플릿 매칭을 이용하여 움직임 패턴을 인식할 수 있다. 이 방법에 의하면, 학습 데이터로부터 패턴이 분류된 템플릿 데이터를 생성한 후, 현재 입력된 입력과 거리 상으로 가장 가까운 템플릿 데이터를 찾아 패턴을 분류할 수 있다. 다시 말하면, 입력 데이터 X=P(x1,...,xn) 및 학습 데이터 중 i번째 데이터 Yi=P(y1,..yn)에 대하여, Y*를 다음 수학식 3과 같 이 정의할 수 있다.
Figure 112005034998923-pat00012
상기 수학식 3에서, Distance(X,Y)는 다음 수학식 4와 같이 계산하여 구할 수 있다.
Figure 112005034998923-pat00013
상기 수학식 3과 4에 의해, 입력 X는 데이터 Y*가 속하는 패턴으로 분류된다.
상기 패턴을 인식하는 방법의 제4실시예로서, 은닉마르코프 모델을 사용할 수 있다. 은닉마르코프 모델이란 전이(transition)에 의해 연결된 상태(state)들의 모임으로 각 전이는 두 가지 확률의 집합을 표현한다. 하나는 전이를 하기 위해 필요한 전이확률(transition probability)이고, 다른 하나는 전이가 발생할 때마다 유한한 알파벳에 속하는 각 출력 심벌(output symbol)을 발생시키는 조건부 확률을 나타내는 출력확률(output probability)이다. 은닉마르코프 모델은 입력패턴과 참조패턴 사이의 유사도를 평가하기 때문에 여러 개의 후보를 낼 수 있으며, 시공간적인 변이가 각 상태와 전이에 확률적으로 표현되어 있기 때문에 매칭과정에서 참 조패턴의 시공간적인 변이에 대하여 추가적으로 고려할 필요가 없다.
상술한 패턴 인식 방법들 외에도, 센서 출력 신호를 이용하여 사용자의 파지 형태를 인식하기 위해 다양한 패턴 인식 방법들이 적용될 수 있다.
기능검출부(720)는 파지형태인식부(710)로부터 사용자의 파지 형태를 입력받아, 상기 파지 형태에 대응하는 기능을 검출한다(120단계). 상기 파지형태인식부(710)가 인식 가능한 복수의 파지 형태들 각각에 대해 대응되는 기능이 메모리(미도시)에 저장되어 있는 것이 바람직하며, 기능검출부(720)는 메모리(미도시)를 검색하여 상기 입력된 사용자 파지 형태에 대응되는 기능을 출력하는 것이 바람직하다.
사용자가 전화 통화 기능 이용시에는 도 4a에 도시된 바와 같은 오른손/세로 파지 형태가 형성되는 것이 일반적이므로, 상기 오른손/세로 파지 형태에는 전화 통화 기능이 대응되는 것이 바람직하다.
사용자가 휴대용 단말기에 구비된 카메라를 이용하여 촬영 기능을 이용하는 경우에는 도 4b에 도시된 바와 같은 오른손/가로 파지 형태가 형성되는 것이 일반적이므로, 상기 오른손/가로 파지 형태에는 촬영 기능이 대응되는 것이 바람직하다.
사용자가 문자 메세지 송신을 위한 문자 입력 기능 이용시에는 도 4c에 도시된 바와 같은 양손/세로 파지 형태가 형성되는 것이 일반적이므로, 상기 양손/세로 파지 형태에는 문자 입력 기능이 대응되는 것이 바람직하다.
사용자가 휴대용 단말기를 이용하여 게임을 하는 경우에는 도 4c에 도시된 바와 같은 양손/가로 파지 형태가 형성되는 것이 일반적이므로, 상기 양손/가로 파지 형태에는 게임 기능이 대응되는 것이 바람직하다.
기능 수행시 동일한 파지 형태가 형성되는 2 이상의 기능들이 존재하는 경우에는, 상기 2 이상의 기능들이 상기 파지 형태에 대응되어 상기 메모리(미도시)에 저장되는 것이 바람직하다.
도 6은 상기 기능 검출 단계(120)에 대한 실시예를 흐름도로 도시한 것으로, 기능검출부(720)는 인식된 파지 형태에 대응되는 기능을 검색한다(600단계). 기능검출부(720)는 상기 검색된 대응 기능이 2 이상인지 확인하고(610단계), 2 이상의 대응되는 기능이 있는 경우 휴대용 단말기에 구비된 LCD(미도시)를 통해 상기 대응되는 기능들의 명칭을 디스플레이한다(620단계). 기능검출부(720)는 휴대용 단말기에 구비된 키패드 등의 입력 수단을 통해 사용자로부터 상기 디스플레이된 기능들 중 수행하고자하는 기능을 입력받는다(630단계).
기능검출부(720)가 현재 사용자의 파지 형태에 대응되는 기능을 검출하여 출력하면, 기능수행부(730)는 상기 검출된 기능을 수행한다(130단계). 예를 들어, 전화 통화 기능의 경우, 상기 기능수행부(730)는 휴대용 단말기에 구비된 LCD(미도시)를 통해 전화 번호 입력 또는 저장된 전화번호 검색을 위한 화면을 디스플레이하는 것이 바람직하다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상 본 발명의 바람직한 실시예에 대해 상세히 기술하였지만, 본 발명이 속하는 기술분야에 있어서 통상의 지식을 가진 사람이라면, 첨부된 청구범위에 정의된 본 발명의 정신 및 범위에 벗어나지 않으면서 본 발명을 여러 가지로 변형 또는 변경하여 실시할 수 있음을 알 수 있을 것이다. 따라서, 본 발명의 앞으로의 실시예들의 변경은 본 발명의 기술을 벗어날 수 없을 것이다.
상술한 바와 같이 본 발명에 따른 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력 방법 및 장치에 의하면, 휴대전화 등의 휴대용 단말기에서 기능 수행 시 형성되는 사용자의 파지 형태들을 고려하여 복수의 파지 형태 각각에 특정 기능을 대응시킨 후 사용자의 휴대용 단말기 접촉 시 파지 형태를 인식하여 그에 대응되는 기능이 별도의 키입력 등의 조작 없이 자동으로 수행되도록 하여, 휴대용 단말기 기능의 다양화로 인한 입력 수단 및 방법의 복잡화를 감소시킬 수 있으며, 휴대용 단말기 사용에 편리함을 제공할 수 있다.

Claims (31)

  1. 휴대용 단말기의 기능을 입력받는 방법에 있어서,
    상기 휴대용 단말기에 대한 사용자의 파지 형태를 인식하는 단계;
    상기 인식된 파지 형태에 대응되는 기능을 검출하는 단계; 및
    상기 검출된 기능을 수행하는 단계를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  2. 제1항에 있어서, 상기 파지 형태를 인식하는 단계는
    상기 휴대용 단말기에 구비된 복수의 터치 센서(touch sensor)들의 출력 신호를 입력받는 단계; 및
    상기 입력된 센서 출력 신호들을 이용하여 상기 사용자의 파지 형태를 인식하는 단계를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  3. 제2항에 있어서, 상기 복수의 터치 센서들은
    상기 휴대용 단말기의 외면에 균일한 간격으로 배치되는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  4. 제2항에 있어서, 상기 복수의 터치 센서들은
    상기 휴대용 단말기의 외면을 복수의 영역으로 분할하여, 사용자의 상기 휴 대용 단말기 파지 시 접촉되는 빈도수에 따라 상기 분할된 각 영역에 대해 서로 다른 간격으로 배치되는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  5. 제4항에 있어서, 상기 복수의 영역은
    상기 휴대용 단말기의 전면, 후면, 상단, 하단, 좌측 옆면, 우측 옆면을 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  6. 제2항에 있어서, 상기 센서 출력 신호들을 이용하여 파지 형태를 인식하는 단계는
    상기 휴대용 단말기의 외면을 복수의 영역으로 분할하는 단계;
    상기 센서 출력 신호들을 이용하여, 상기 분할된 각 영역에 대해 사용자의 접촉여부를 검출하는 단계;
    상기 각 영역에 대해 검출된 접촉 여부를 이용하여 사용자의 파지 형태를 결정하는 단계를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  7. 제2항에 있어서, 상기 센서 출력 신호들을 이용하여 파지 형태를 인식하는 단계는
    상기 휴대용 단말기의 외면을 복수의 영역으로 분할하는 단계;
    상기 센서 출력 신호들을 이용하여, 상기 분할된 각 영역에 대해 사용자의 접촉 여부 및 접촉된 손의 영역을 검출하는 단계;
    상기 각 영역에 대해 검출된 접촉 여부 및 접촉된 손의 영역을 이용하여 사용자의 파지 형태를 결정하는 단계를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  8. 제2항에 있어서, 상기 센서 출력 신호들을 이용하여 파지 형태를 인식하는 단계는
    상기 휴대용 단말기의 외면을 복수의 영역으로 분할하는 단계;
    상기 센서 출력 신호들을 이용하여, 상기 분할된 각 영역에 대해 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 하나를 검출하는 단계; 및
    상기 각 영역에 대해 검출된 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 이용하여 사용자의 파지 형태를 결정하는 단계를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  9. 제2항에 있어서, 상기 센서 출력 신호들을 이용하여 파지 형태를 인식하는 단계는
    인공 신경망, 템플릿 매칭(Template matching), 은닉 마르코프 모델, SVM(Support Vector Machine) 중 어느 하나를 이용하여, 상기 센서 출력 신호들로부터 사용자의 파지 형태를 인식하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  10. 제1항에 있어서, 상기 파지 형태를 인식하는 단계는
    상기 휴대용 단말기의 외면을 복수의 영역으로 분할하는 단계;
    상기 분할된 각 영역에 대해 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 검출하는 단계; 및
    상기 분할된 각 영역에 대해 검출된 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 이용하여 사용자의 파지 형태를 결정하는 단계를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  11. 제8항 내지 제10항에 있어서, 상기 복수의 영역은
    상기 휴대용 단말기의 전면, 후면, 상단, 하단, 좌측 옆면, 우측 옆면을 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  12. 제1항에 있어서, 상기 파지 형태는
    오른손/가로 파지, 오른손/세로 파지, 양손/가로 파지, 양손/세로 파지, 왼손/가로 파지. 왼손/세로 파지 중 적어도 하나를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  13. 제12항에 있어서, 상기 인식된 파지 형태에 대응되는 기능은
    상기 인식된 파지 형태가 오른손/세로 파지인 경우, 전화 통화 기능인 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  14. 제12항에 있어서, 상기 인식된 파지 형태에 대응되는 기능은
    상기 인식된 파지 형태가 양손/세로 파지인 경우, 문자 입력 기능인 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  15. 제12항에 있어서, 상기 인식된 파지 형태에 대응되는 기능은
    상기 인식된 파지 형태가 오른손/가로 파지인 경우, 촬영 기능인 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  16. 제12항에 있어서, 상기 인식된 파지 형태에 대응되는 기능은
    상기 인식된 파지 형태가 양손/가로 파지인 경우, 게임 기능인 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  17. 제1항에 있어서, 상기 기능을 검출하는 단계는
    상기 인식된 파지 형태에 사용자의 키 입력과 상기 휴대용 단말기의 현재 기능 중 적어도 어느 하나를 조합하여, 상기 조합에 대응되는 기능을 검출하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  18. 제1항에 있어서,
    상기 인식된 파지 형태에 대응되는 기능이 2 이상인 경우,
    상기 대응되는 기능들을 표시하는 단계; 및
    상기 표시된 2 이상의 기능들 중 수행하고자하는 기능을 사용자로부터 입력 받는 단계를 더 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 방법.
  19. 제1항 내지 제18항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  20. 휴대용 단말기에 구비된 기능 입력 장치에 있어서,
    상기 휴대용 단말기에 대한 사용자의 파지 형태를 인식하는 파지형태인식부;
    상기 인식된 파지 형태에 대응되는 기능을 검출하는 기능검출부; 및
    상기 검출된 기능을 수행하는 기능수행부를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  21. 제20항에 있어서, 상기 파지형태인식부는
    복수의 터치 센서들을 포함하고,
    상기 터치 센서의 출력 신호들을 이용하여 상기 사용자의 파지 형태를 인식하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  22. 제21항에 있어서, 상기 복수의 터치 센서들은
    상기 휴대용 단말기의 외면에 균일한 간격으로 배치되는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  23. 제21항에 있어서, 상기 복수의 터치 센서들은
    상기 휴대용 단말기의 외면을 복수의 영역으로 분할하여, 사용자의 상기 휴대용 단말기 파지 시 접촉되는 빈도수에 따라 상기 분할된 각 영역에 대해 서로 다른 간격으로 배치되는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  24. 제23항에 있어서, 상기 복수의 영역은
    상기 휴대용 단말기의 전면, 후면, 상단, 하단, 좌측 옆면, 우측 옆면을 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  25. 제20항에 있어서, 상기 파지형태인식부는
    상기 휴대용 단말기의 외면을 분할한 복수의 영역들 각각에 대해, 사용자의 접촉 여부를 검출하는 접촉검출부; 및
    상기 각 영역에 대해 검출된 접촉 여부를 이용하여 사용자의 파지 형태를 결정하는 형태결정부를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  26. 제25항에 있어서, 상기 접촉검출부는
    상기 분할된 각 영역에 대해 사용자의 접촉 여부 및 접촉된 손의 영역을 검 출하고,
    상기 형태결정부는
    상기 각 영역에 대해 검출된 접촉 여부 및 접촉된 손의 영역을 이용하여 사용자의 파지 형태를 결정하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  27. 제25항에 있어서, 상기 접촉검출부는
    상기 분할된 각 영역에 대해 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 검출하고,
    상기 형태결정부는
    상기 각 영역에 대해 검출된 접촉 수, 접촉 너비, 인접한 접촉 지점 간 거리 중 적어도 어느 하나를 이용하여 사용자의 파지 형태를 결정하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  28. 제20항에 있어서, 상기 파지형태인식부는
    인공 신경망, 템플릿 매칭, 은닉 마르코프 모델, SVM 중 어느 하나를 이용하여, 사용자의 파지 형태를 인식하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  29. 제20항에 있어서, 상기 파지 형태는
    오른손/가로 파지, 오른손/세로 파지, 양손/가로 파지, 양손/세로 파지, 왼손/가로 파지. 왼손/세로 파지 중 적어도 하나를 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  30. 제20항에 있어서, 상기 기능검출부는
    상기 인식된 파지 형태에 사용자의 키 입력과 상기 휴대용 단말기의 현재 기능 중 적어도 어느 하나를 조합하여, 상기 조합에 대응되는 기능을 검출하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
  31. 제20항에 있어서,
    상기 인식된 파지 형태에 대응되는 기능이 2 이상인 경우,
    상기 대응되는 기능들을 표시하는 표시부; 및
    상기 표시된 2 이상의 기능들 중 수행하고자하는 기능을 사용자로부터 입력 받는 사용자입력부를 더 포함하는 것을 특징으로 하는 휴대용 단말기의 기능 입력 장치.
KR1020050056933A 2005-06-29 2005-06-29 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치. KR100668341B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020050056933A KR100668341B1 (ko) 2005-06-29 2005-06-29 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.
US11/476,631 US8055305B2 (en) 2005-06-29 2006-06-29 Method and apparatus for inputting function of mobile terminal using user's grip posture while holding mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050056933A KR100668341B1 (ko) 2005-06-29 2005-06-29 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.

Publications (2)

Publication Number Publication Date
KR20070001440A KR20070001440A (ko) 2007-01-04
KR100668341B1 true KR100668341B1 (ko) 2007-01-12

Family

ID=37588869

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050056933A KR100668341B1 (ko) 2005-06-29 2005-06-29 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.

Country Status (2)

Country Link
US (1) US8055305B2 (ko)
KR (1) KR100668341B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010005185A2 (en) * 2008-07-09 2010-01-14 Samsung Electronics Co., Ltd. Method and apparatus to use a user interface
WO2013048486A1 (en) * 2011-09-30 2013-04-04 Intel Corporation Transforming mobile device sensor interaction to represent user intent and perception
WO2024080611A1 (ko) * 2022-10-11 2024-04-18 삼성전자 주식회사 전자 장치 및 이를 이용한 사용자 인터랙션에 따른 화면 제어 방법

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101362756B1 (ko) * 2007-02-08 2014-02-13 삼성전자주식회사 휴대용 전자기기의 터치패드 입력키 처리 방법
KR101345755B1 (ko) 2007-09-11 2013-12-27 삼성전자주식회사 휴대용 단말기의 조작제어장치 및 그 방법
US8564574B2 (en) * 2007-09-18 2013-10-22 Acer Incorporated Input apparatus with multi-mode switching function
JP2009134670A (ja) * 2007-12-03 2009-06-18 Sony Corp 情報処理端末、情報処理方法、およびプログラム
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
US8508475B2 (en) * 2008-10-24 2013-08-13 Microsoft Corporation User interface elements positioned for display
US20100134424A1 (en) * 2008-12-02 2010-06-03 At&T Mobility Ii Llc Edge hand and finger presence and motion sensor
US20100138680A1 (en) * 2008-12-02 2010-06-03 At&T Mobility Ii Llc Automatic display and voice command activation with hand edge sensing
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
US20100151916A1 (en) * 2008-12-15 2010-06-17 Samsung Electronics Co., Ltd. Method and apparatus for sensing grip on mobile terminal
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
US20100297930A1 (en) * 2009-05-20 2010-11-25 Harris Technology, Llc Portable Device with a Vehicle driver Detection
US9319444B2 (en) 2009-06-22 2016-04-19 Monotype Imaging Inc. Font data streaming
KR101611866B1 (ko) * 2009-06-25 2016-04-26 엘지전자 주식회사 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법
KR101591525B1 (ko) * 2009-09-11 2016-02-04 삼성전자주식회사 휴대단말기의 안테나 성능 보완 장치
US20110087963A1 (en) * 2009-10-09 2011-04-14 At&T Mobility Ii Llc User Interface Control with Edge Finger and Motion Sensing
US8535133B2 (en) * 2009-11-16 2013-09-17 Broadcom Corporation Video game with controller sensing player inappropriate activity
US8615709B2 (en) 2010-04-29 2013-12-24 Monotype Imaging Inc. Initiating font subsets
CN103140822A (zh) * 2010-10-13 2013-06-05 Nec卡西欧移动通信株式会社 移动终端设备和用于移动终端设备中的触摸板的显示方法
KR101688155B1 (ko) * 2010-10-25 2016-12-20 엘지전자 주식회사 이동 단말기의 정보 처리 장치 및 그 방법
US8988398B2 (en) * 2011-02-11 2015-03-24 Microsoft Corporation Multi-touch input device with orientation sensing
US8982045B2 (en) 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
US8994646B2 (en) 2010-12-17 2015-03-31 Microsoft Corporation Detecting gestures involving intentional movement of a computing device
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US10969833B2 (en) * 2011-04-19 2021-04-06 Nokia Technologies Oy Method and apparatus for providing a three-dimensional data navigation and manipulation interface
CN102238287B (zh) * 2011-08-05 2014-04-09 宇龙计算机通信科技(深圳)有限公司 移动终端和根据环境数据进行显示的方法
JP2013065085A (ja) * 2011-09-15 2013-04-11 Nec Saitama Ltd 携帯端末装置及びその表示方法
WO2013048461A1 (en) 2011-09-30 2013-04-04 Intel Corporation Mobile device rejection of unintentional touch sensor contact
US20130141381A1 (en) * 2011-12-01 2013-06-06 Esat Yilmaz Surface Coverage Touch
US9541993B2 (en) * 2011-12-30 2017-01-10 Intel Corporation Mobile device operation using grip intensity
EP2613555A3 (en) * 2012-01-06 2014-04-30 LG Electronics, Inc. Mobile terminal with eye movement sensor and grip pattern sensor to control streaming of contents
KR101913256B1 (ko) * 2012-01-06 2018-12-28 엘지전자 주식회사 서비스 처리 장치 및 서비스 처리 방법
US8902181B2 (en) 2012-02-07 2014-12-02 Microsoft Corporation Multi-touch-movement gestures for tablet computing devices
JP5875069B2 (ja) 2012-03-22 2016-03-02 任天堂株式会社 ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム
JP5967995B2 (ja) * 2012-03-22 2016-08-10 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および判別方法
AU2015252057B2 (en) * 2012-07-20 2017-11-23 Facebook, Inc. Adjusting mobile device state based on user intentions and/or identity
US9052896B2 (en) 2012-07-20 2015-06-09 Facebook, Inc. Adjusting mobile device state based on user intentions and/or identity
US20140078086A1 (en) * 2012-09-20 2014-03-20 Marvell World Trade Ltd. Augmented touch control for hand-held devices
US9817615B2 (en) * 2012-12-03 2017-11-14 Monotype Imaging Inc. Network based font management for imaging devices
US9569865B2 (en) 2012-12-21 2017-02-14 Monotype Imaging Inc. Supporting color fonts
EP2943894A2 (en) 2013-01-09 2015-11-18 Monotype Imaging Inc. Advanced text editor
KR102120099B1 (ko) * 2013-02-06 2020-06-09 엘지전자 주식회사 양면 터치 인식 가능한 디지털 디바이스 및 제어 방법
EP2814234A1 (en) * 2013-06-11 2014-12-17 Nokia Corporation Apparatus for controlling camera modes and associated methods
EP2816442B1 (en) 2013-06-20 2019-07-31 Samsung Electronics Co., Ltd Electronic device and method of controlling electronic device using grip sensing
US9389727B2 (en) * 2013-06-26 2016-07-12 Atmel Corporation Method and system to determine when a device is being held
US9372103B2 (en) * 2013-07-12 2016-06-21 Facebook, Inc. Calibration of grab detection
KR102047703B1 (ko) * 2013-08-09 2019-11-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
KR20150019352A (ko) 2013-08-13 2015-02-25 삼성전자주식회사 전자장치에서 그립상태를 인지하기 위한 방법 및 장치
US9317777B2 (en) 2013-10-04 2016-04-19 Monotype Imaging Inc. Analyzing font similarity for presentation
US20150231491A1 (en) * 2014-02-19 2015-08-20 Microsoft Corporation Advanced Game Mechanics On Hover-Sensitive Devices
US9712749B2 (en) 2014-02-27 2017-07-18 Google Technology Holdings LLC Electronic device having multiple sides
US9888207B2 (en) * 2014-03-17 2018-02-06 Microsoft Technology Licensing, Llc Automatic camera selection
US9749585B2 (en) 2014-03-17 2017-08-29 Microsoft Technology Licensing, Llc Highlighting unread messages
US10284813B2 (en) 2014-03-17 2019-05-07 Microsoft Technology Licensing, Llc Automatic camera selection
US10178346B2 (en) 2014-03-17 2019-01-08 Microsoft Technology Licensing, Llc Highlighting unread messages
US9691169B2 (en) 2014-05-29 2017-06-27 Monotype Imaging Inc. Compact font hinting
US9870083B2 (en) 2014-06-12 2018-01-16 Microsoft Technology Licensing, Llc Multi-device multi-user sensor correlation for pen and computing device interaction
US9727161B2 (en) 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
CN107077235B (zh) 2014-09-30 2021-01-12 惠普发展公司,有限责任合伙企业 确定非故意触摸拒绝
KR102291565B1 (ko) * 2014-12-03 2021-08-19 삼성디스플레이 주식회사 표시장치 및 이를 이용한 표시장치의 구동 방법
US10115215B2 (en) 2015-04-17 2018-10-30 Monotype Imaging Inc. Pairing fonts for presentation
US11537262B1 (en) 2015-07-21 2022-12-27 Monotype Imaging Inc. Using attributes for font recommendations
US10343920B2 (en) * 2016-03-18 2019-07-09 Asm Ip Holding B.V. Aligned carbon nanotubes
US10088915B2 (en) * 2016-07-01 2018-10-02 Deere & Company Method and system with sensors for sensing hand or finger positions for adjustable control
KR20180116574A (ko) * 2017-04-17 2018-10-25 엘지전자 주식회사 이동 단말기
KR102353494B1 (ko) 2017-06-30 2022-01-20 삼성전자주식회사 사용자의 근접을 검출하기 위한 전자 장치 및 그의 동작 방법
US11334750B2 (en) 2017-09-07 2022-05-17 Monotype Imaging Inc. Using attributes for predicting imagery performance
US10909429B2 (en) 2017-09-27 2021-02-02 Monotype Imaging Inc. Using attributes for identifying imagery for selection
KR102426351B1 (ko) 2017-09-29 2022-07-29 삼성전자주식회사 그립 센싱을 위한 전자 장치 및 그 동작 방법
US11657602B2 (en) 2017-10-30 2023-05-23 Monotype Imaging Inc. Font identification from imagery
JP7057429B6 (ja) * 2018-02-16 2022-06-02 コーニンクレッカ フィリップス エヌ ヴェ ハンドヘルド医用超音波画像装置における人間工学的表示とアクティベーション
KR20210058573A (ko) * 2019-11-14 2021-05-24 삼성전자주식회사 터치 센서를 포함하는 전자 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060028295A (ko) * 2004-09-24 2006-03-29 엘지전자 주식회사 휴대폰의 동작모드 설정 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29722222U1 (de) * 1997-12-16 1998-06-25 Siemens Ag Funkbetriebenes Kommunikationsendgerät mit Navigationstaste
GB2357400A (en) * 1999-12-17 2001-06-20 Nokia Mobile Phones Ltd Controlling a terminal of a communication system
JP4167785B2 (ja) * 2000-01-07 2008-10-22 株式会社日立製作所 携帯電話機
US6549756B1 (en) * 2000-10-16 2003-04-15 Xoucin, Inc. Mobile digital communication/computing device including heart rate monitor
JP4333019B2 (ja) * 2000-10-25 2009-09-16 ソニー株式会社 携帯電話機および制御方法
EP1342151A4 (en) * 2000-12-15 2007-02-28 Finger System Inc OPTICAL PEN-TYPE MACHINE AND METHOD FOR CONTROLLING IT
JP2003008695A (ja) * 2001-06-25 2003-01-10 Pioneer Electronic Corp 携帯情報端末機
JP2003244293A (ja) * 2002-02-14 2003-08-29 Nec Corp 折り畳み式携帯情報端末
US20050035955A1 (en) * 2002-06-06 2005-02-17 Carter Dale J. Method of determining orientation and manner of holding a mobile telephone
JP2004029960A (ja) * 2002-06-21 2004-01-29 Fujitsu Ltd 携帯情報機器、携帯情報機器の制御方法、およびプログラム
JP2004240878A (ja) * 2003-02-07 2004-08-26 Nec Corp 携帯型電子機器、表示方向切り替え方法およびプログラム
AU2003246928A1 (en) * 2003-07-08 2005-01-28 Nokia Corporation A casing for an electronic handheld device
US7085590B2 (en) * 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
KR100677321B1 (ko) * 2004-04-30 2007-02-02 엘지전자 주식회사 이동 통신 단말기의 스피커 볼륨 제어 장치 및 방법
US7295190B2 (en) * 2004-05-21 2007-11-13 Harald Philipp Touch sensitive control panel
US20060084482A1 (en) * 2004-10-15 2006-04-20 Nokia Corporation Electronic hand-held device with a back cover keypad and a related method
US20060248478A1 (en) * 2005-01-18 2006-11-02 Forrest Liau Sensing input actions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060028295A (ko) * 2004-09-24 2006-03-29 엘지전자 주식회사 휴대폰의 동작모드 설정 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010005185A2 (en) * 2008-07-09 2010-01-14 Samsung Electronics Co., Ltd. Method and apparatus to use a user interface
WO2010005185A3 (en) * 2008-07-09 2010-03-25 Samsung Electronics Co., Ltd. Method and apparatus to use a user interface
WO2013048486A1 (en) * 2011-09-30 2013-04-04 Intel Corporation Transforming mobile device sensor interaction to represent user intent and perception
WO2024080611A1 (ko) * 2022-10-11 2024-04-18 삼성전자 주식회사 전자 장치 및 이를 이용한 사용자 인터랙션에 따른 화면 제어 방법

Also Published As

Publication number Publication date
US20070002016A1 (en) 2007-01-04
KR20070001440A (ko) 2007-01-04
US8055305B2 (en) 2011-11-08

Similar Documents

Publication Publication Date Title
KR100668341B1 (ko) 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.
CN101641660B (zh) 为使用脑机接口的命令控制任务提供分层方法的装置、方法
US20060071904A1 (en) Method of and apparatus for executing function using combination of user's key input and motion
CN108280458B (zh) 群体关系类型识别方法及装置
CN111046227B (zh) 一种视频查重方法及装置
KR101345755B1 (ko) 휴대용 단말기의 조작제어장치 및 그 방법
CN110096580B (zh) 一种faq对话方法、装置及电子设备
CN109903773B (zh) 音频处理方法、装置及存储介质
CN112820299B (zh) 声纹识别模型训练方法、装置及相关设备
Cho et al. Two-stage recognition of raw acceleration signals for 3-d gesture-understanding cell phones
CN110362711A (zh) 歌曲推荐方法及装置
CN107181856A (zh) 一种应用控制方法及终端
CN109783656A (zh) 音视频数据的推荐方法、***及服务器和存储介质
CN108803890A (zh) 一种输入方法、输入装置和用于输入的装置
CN110389667A (zh) 一种输入方法及装置
CN109101505A (zh) 一种推荐方法、推荐装置和用于推荐的装置
CN108664336A (zh) 推荐方法和装置、用于推荐的装置
CN111061394B (zh) 触摸力度识别方法及其模型的训练方法、装置和电子***
CN112995757A (zh) 视频剪裁方法及装置
CN116431458B (zh) 一种平板电脑智能管理***与方法
KR100634530B1 (ko) 사용자의 키입력과 움직임을 결합한 문자 및 기능 입력방법 및 그를 이용한 단말기
CN110389666A (zh) 一种输入纠错方法和装置
CN110858099B (zh) 候选词生成方法及装置
CN110781274A (zh) 一种问答对生成的方法与装置
CN113377938A (zh) 一种对话处理方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121228

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131230

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141223

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151229

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161228

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee