KR101695174B1 - 전자장치에 수신문자입력을 위한 인체공학적 움직임 감지 - Google Patents

전자장치에 수신문자입력을 위한 인체공학적 움직임 감지 Download PDF

Info

Publication number
KR101695174B1
KR101695174B1 KR1020137030631A KR20137030631A KR101695174B1 KR 101695174 B1 KR101695174 B1 KR 101695174B1 KR 1020137030631 A KR1020137030631 A KR 1020137030631A KR 20137030631 A KR20137030631 A KR 20137030631A KR 101695174 B1 KR101695174 B1 KR 101695174B1
Authority
KR
South Korea
Prior art keywords
sliding
finger
contact
character
finger contact
Prior art date
Application number
KR1020137030631A
Other languages
English (en)
Other versions
KR20140061315A (ko
Inventor
닛산 야론
벤-에찌온 야론
Original Assignee
인프리스 이노베이티브 프로덕츠 프럼 이스라엘 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인프리스 이노베이티브 프로덕츠 프럼 이스라엘 리미티드 filed Critical 인프리스 이노베이티브 프로덕츠 프럼 이스라엘 리미티드
Publication of KR20140061315A publication Critical patent/KR20140061315A/ko
Application granted granted Critical
Publication of KR101695174B1 publication Critical patent/KR101695174B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 사용자가 전자장치에 문자들을 입력하기 위한 터치스크린 조립체를 제공하고, 이 터치스크린 조립체는 프로세서, 터치-감응 표면을 갖는 터치스크린, 및 프로세서에 의해 실행될 때, 프로세서가 터치-감응표면상에 다수의 재위치가능한 손가락접촉영역들을 유지하게 하는 명령들을 저장하는 메모리를 포함한다. 이 프로세서는 손가락접촉영역들 중 알려진 영역들 및 슬라이딩 또는 비-슬라이딩 접촉의 알림에 기초하여 문자입력을 인식하도록 손가락접촉들에 대한 문자들의 연관을 사용한다. 또한, 전자장치에 문자입력을 인식하기 위한 사람 몸짓을 분석하는 방법과 본 발명의 방법을 실행하기 위한 명령들을 저장하는 기계독해가능한 저장매체가 제공된다.

Description

전자장치에 수신문자입력을 위한 인체공학적 움직임 감지{Ergonomic motion detection for receiving character input to electronic devices}
특정 모드들에서 작동할 때 터치스크린으로 사용된 것과 같은, 알려진 터치-감응 표면들은 그 표면의 특정 위치에서의 사용자 접촉을 감지하고 그 접촉들을 문자입력들로서 이해한다. 많은 실시예들에 있어서, 터치-감응 표면들을 갖는 전자장치들은 입력장치로서 쿼티(QWERTY) 키보드와 같은 통상적인 키보드를 추가적으로 제공하지 않는다. 따라서, 전자장치의 크기가 편리하게 감소된다.
그러나, 만약 쿼티 키보드가 키들이 쿼티 형태로 터치스크린 표면상에 영상으로 대체된다면, 사용자는 그 키들에 자기의 손가락을 일치하는 것이 키보드에 손가락을 일치하는 것보다 훨씬 더 어렵다는 것을 발견할 것이다. 이 사용자는 스크린에서 키 영상을 끊임없이 볼 필요가 있고, 따라서 쿼티 키보드를 터치스크린 상에 키보드의 영상으로 대체하는 것은 많은 시간 동안 문자들을 입력하는데 불편하게 된다. 이 문제는 가상 쿼티 키보드의 영상을 볼 수 없는 시각-장애인 사용자들을 위하여는 더 더욱 그러하다.
쿼티 키보드의 모델링에 대한 대안으로서, 어떤 전자장치들은 문자입력을 포착하기 위하여 슬라이딩 및 비-슬라이딩 손가락 접촉들 사이를 구별한다. 그러나, 사용자가, 완전한 알파벳을 위하여 충분한 것과 같이, 전자장치에 입력을 원할 수 있는 문자들의 수 때문에, 위로-슬라이딩 또는 우측으로-슬라이딩과 같이, 많은 수의 고유의 표면접촉들이 사용자에게 가능할 수 있어야만 한다. 그때 사용자는 많은 수의 고유한 움직임들(접촉들)을 메모리에 일임하거나 또는,만약 전자장치의 디스플레이 상에서 다른 사용자들을 위한 가용 스크린 공간이 제한된다면, 움직임들에 대한 키를 자주 참조하는데 직면하게 된다. 부가적으로, 마치 그들의 손가락들이 꼬이게 하는 사용자들을 요구하는 움직임들 및 부자연스러운 위치의 손들을 요구하는 움직임들과 같이, 많은 수의 움직임들이 비-직감적이고 사용자들을 위하여 불편하다.
사용자가 문자들을 위한 움직임들을 기억하는 "보조 상(training phase)"을 지원하기 위한 아이디어는 해당 문자과 유사한 움직임들을 갖는 문자들을 연관시키는 것을 포함한다. 예를 들면, 원형 움직임은 숫자 "0" 또는 알파벳 철자 "O"과 연관될 수 있고 하향 움직임은 하나 또는 철자 "I"와 연관될 수 있다. 그러나, 만약 입력문자들을 위한 모든 고유의 움직임들이 연관된 문자들과 유사하다면, 그것은 긴 시간 동안의 사용자들 위하여 복잡하고, 불편하며, 그리고 피곤하게 될 것이다.
따라서, 입력문자들을 위하여 요구되는 접촉들이, 사실 터치-타이핑을 가능하게 하고 따라서 오랜 기간 동안 사용이 가능한 식으로, 기억하기에 비교적 쉽고 직감적이며 또한 편안한 터치입력의 형태를 갖는 것이 바람직하다. 그러나, 그러한 터치입력을 위한 장치, 시스템, 방법은 현 발명자에게 알려져 있지 않았다.
본 발명은 개량된 형태의 터치입력을 전자장치에 제공한다. 문자들을 입력하는데 요구되는 접촉들은 직감적인 것으로 선택될 수 있고 따라서 비교적 기억하기가 용이하다. 접촉들을 위한 움직임들은 스크린을 볼 필요없이 인체공학적으로 선택될 수 있고, 따라서 사용자가 전자장치를 오랫동안 편안하게 조작하는 것을 가능하게 한다.
본 발명은 문자들을 전자장치에 입력하기 위한 사용자를 위하여 터치스크린 조립체로 구성되어도 좋다. 이 터치스크린 조립체는 프로세서, 터치-감응 표면을 갖는 터치스크린, 및 명령들을 저장하는 메모리를 포함한다. 프로세서에 의해 명령들이 실행될 때, 그들은 프로세서가: 터치-감응표면상에 다수의 재위치가능한 손가락접촉영역들을 유지하고, 각 손가락접촉영역은 사용자 손의 개별 손가락과 연관되고 사용자가 터치스크린조립체의 표면 또는 터치스크린조립체에 대하여 정지된 상태로 유지되는 표면으로부터 또는 그 위에 사용자 손의 뒤꿈치의 움직임 없이 연관된 손가락들로 동시에 모든 손가락접촉영역들과 접촉하는 것이 가능하게 하는 인체공학적 배열로 다른 손가락접촉영역들과 상관하여 위치되며; 손가락접촉영역들 중 적어도 하나의 위에 손가락접촉에 대한 알림을 수신하고; 손가락접촉을 수신한 영역의 그리고 그 손가락접촉이 슬라이딩이었는지 또는 비-슬라이딩이었는지에 대한 각 손가락접촉을 위한 알림을 수신하고; 각 슬라이딩접촉을 위한 슬라이딩접촉의 방향에 대한 알림을 수신하고; 및 고유한 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 고유한 세트와 함께 전체 알파벳의 각 문자에 대한 관련을 유지 하도록 한다. 이 프로세서는 손가락접촉들의 알려진 영역들에 그리고 슬라이딩/비-슬라이딩 접촉의 알림들에 기초하여 문자입력을 인식하도록 손가락접촉들에 대한 문자들의 연관을 사용한다.
또한, 본 발명은 전자장치에 문자입력을 인식하기 위한 사람 몸짓을 분석하는 방법으로 구성되어도 좋다. 이 방법은 다음의 단계들을 포함한다: 제1표면 상에서 하나 이상의 다수의 손가락접촉영역들 상에 하나 이상의 손가락접촉들을 식별하는 단계, 여기서, 각 손가락접촉영역은 사용자 손의 개별 손가락과 연관되고 그리고 제1표면에 대하여 정지된 상태로 유지되는 제2표면으로부터 또는 그 위에 사용자 손의 뒤꿈치의 움직임 없이 사용자가 연관된 손가락들로 동시에 모든 손가락접촉영역들과 접촉하는 것이 가능하게 하는 인체공학적 배열로 다른 손가락접촉영역들과 상관하여 위치되며; 어느 손가락접촉영역이 손가락접촉을 수신했는지 그리고 이 손가락접촉이 슬라이딩 또는 비-슬라이딩 접촉이었는지를 결정하는 단계, 여기서, 슬라이딩접촉은 제2표면으로부터 또는 그 위에서 사용자 손의 뒤꿈치의 움직임을 사용자에게 요구하지 않으며; 각 슬라이딩접촉을 위하여 슬라이딩접촉의 방향을 결정하는 단계; 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 고유의 세트로 전체 알파벳의 각 문자의 연관을 유지하는 단계; 및 손가락접촉들의 알림된 영역들 및 슬라이딩 및 비-슬라이딩 접촉의 알림에 기초하여 문자입력을 인식하기 위하여 손가락접촉들에 대한 문자들의 연관을 사용하는 단계.
본 발명은 명령들을 포함하는 기계독해가능 저장매체로 구성되어도 좋다. 명령들이 실행될 때, 그들은 전자장치의 프로세서가: 제1표면 상에서 하나 이상의 손가락접촉영역들 상에 손가락접촉의 알림을 수신하고, 여기서 각 손가락접촉영역은 사용자 손의 개별 손가락과 연관되고 사용자가 제1표면에 대하여 정지된 상태로 유지되는 제2표면으로부터 또는 그 위에 사용자 손의 뒤꿈치의 움직임 없이 연관된 손가락들로 동시에 모든 손가락접촉영역들과 접촉하는 것이 가능하게 하는 인체공학적 배열로 다른 손가락접촉영역들과 상관하여 위치되고; 어느 영역 또는 영역들이 손가락접촉을 수신했는지 그리고 이 손가락접촉이 슬라이딩접촉이었는지 또는 비-슬라이딩접촉이었는지에 대한 각 접촉된 영역을 위한 알림을 수신하고, 여기서 슬라이딩접촉은 제2표면으로부터 또는 그 위에서 사용자 손의 뒤꿈치를 움직이는 것을 사용자에게 요구하지 않으며; 각 슬라이딩 접촉을 위한 슬라이딩접촉의 방향에 대한 알림을 수신하고; 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 고유의 세트와 함께 전체 알파벳의 각 문자의 연관을 유지하고; 및 손가락접촉들의 알려진 영역들에 그리고 슬라이딩/비-슬라이딩 접촉의 알림들에 기초하여 문자입력을 인식하기 위하여 손가락접촉들에 대한 문자들의 연관을 사용함에 의해, 입력문자들을 식별하게 한다.
본 발명은 개량된 형태의 터치입력을 전자장치에 제공한다. 문자들을 입력하는데 요구되는 접촉들은 직감적인 것으로 선택될 수 있고 따라서 비교적 기억하기가 용이하다. 접촉들을 위한 움직임들은 스크린을 볼 필요없이 인체공학적으로 선택될 수 있고, 따라서 사용자가 전자장치를 오랫동안 편안하게 조작하는 것을 가능하게 한다.
도 1a 및 1b는 터치스크린 조립체로 구성된 본 발명의 실시예에 대한 설명도이고;
도 2는 본 발명의 실시 형태에 따른 손가락 접촉들에 대한 알파벳의 문자들의 연관에 대한 실시예를 제공하는 도면이고;
도 3은 컴퓨터 기능들을 실행하기 위하여 서로 접촉하는 손가락끝들에 대한 실시예를 제공하는 도면이고;
도 4a 및 4b는 문자입력을 수신하는 전자장치의 외부인 표면을 사용자의 손가락이 접촉하는 실시형태의 설명도이고; 및
도 5는 본 발명의 실시예를 설명하는데 사용된 플로우챠트를 나타낸다.
이하에서, 본 발명은 도면을 포함하는 발명의 상세한 설명과 첨부한 청구항들로부터 개시된다.
위에서 요약되고 이하의 청구항들에 의해 정의된 본 발명은 본 발명의 실시형태의 상세한 설명을 통해 보다 더 이해될 수 있을 것이다. 이 개시내용은 청구항들의 범위를 제한할 의도는 아니고 본 발명의 실시예들을 제공하는 데 있다. 제일먼저 본 발명을 구성하는 전자장치를 개시하고, 다음은 본 발명을 구성하는 문자입력을 인식하는 방법을 개시한다. 그 후 본 발명을 구성하는 저장 매체가 개시된다.
도 1a는 터치스크린조립체(10)로 구성된 발명의 실시예를 도시하고 있다. 이 실시예의 터치스크린조립체(10)는 사용자가, 실시예들로 제한되지 않고, 마치 개인용 컴퓨터, 스마트폰, 태블릿, 주택보안장치(경보), 군용기계 모니터, 전자식 식당메뉴, 및 게임장치(예를 들면, 비디오 게임)와 같은, 전자장치에 문자들을 입력하는 것을 가능하게 한다. 도면에서 알 수 있는 바와 같이, 터치스크린조립체(10)는 터치스크린(12), 프로세서(14), 및 메모리(16)를 포함한다. 실시예들로 한정되는 것은 아니지만, 이 프로세서(14)는 Intel Core i7, Xeon 마이크로프로세서, Intel Core i7 Mobile Processor Family의 어떠한 프로세서, 또는 휴대전화에 사용된 어떠한 ARM 마이크로프로세서일 수 있다. 메모리(16)는, 실시예들로 한정되는 것은 아니지만, 하드디스크 드라이브 또는 플래시 메모리 SSD(solid-state drive)일 수 있다.
터치스크린(12)은, 마치 사용자 손가락(즉, 손가락의 피부)으로부터의 직접접촉 또는 장갑을 낀 손가락이나 바늘의 접촉부분과 같은 사용자로부터의 간접접촉과 같은, 접촉에 민감한 터치-감응표면(18)을 갖는다. 다음에 더 자세히 기술되는 바와 같이, 사용자가 터치-감응표면(18)을 접촉하는 것으로서, 이 접촉은 터치스크린(12)에 의해 감응되고 프로세서(14)는 터치-감응표면(18) 상의 접촉에 대한 2차원 위치를 결정한다. 만약 이 접촉이 슬라이딩접촉이면, 프로세서(14)는 슬라이딩의 2차원 방향을 결정한다. 이 프로세서는 사용자접촉을 알파벳 문자로 연관시키고, 따라서 터치스크린(12)은 사용자를 위한 입력장치로서 역할을 한다.
메모리(16)에는 프로세서(14)에 의해 실행될 때 터치스크린조립체(10)에 문자입력을 인식하기 위하여 사람의 몸짓을 분석하도록 프로세서(14)에 신호하는 소프트웨어 명령들이 저장된다. 이 프로세서(14)는 터치-감응표면(18) 상에 다수의 재위치가능한 손가락 접촉 영역들(20a - 20e)을 유지한다. 도 1a에 도시된 바와 같이, 각 손가락 접촉 영역들(20a - 20e)은 사용자 손(22)의 개별 손가락과 연관되고 터치스크린조립체(10)의 표면 또는 터치스크린조립체(10)와 관련하여 정지상태로 유지된 표면상에서 또는 표면으로부터 손(22)의 뒤꿈치를 움직이는 일없이 사용자가 동시에 그리고 편안하게 연관된 손가락들로 모든 손가락접촉영역들(20a - 20e)과 접촉하는 것을 가능하게 하는 인체공학적 배열에 있어서 다른 손가락접촉영역들(20a - 20e)과 상관되게 위치된다. 터치스크린조립체(10)와 관련하여 정지된 상태로 유지된 표면의 일 예는, 사용자 손의 뒤꿈치가 터치-감응표면(18)을 접촉하기 위한 손가락움직임을 가능하게 하도록 터치스크린조립체(10)에 충분히 가깝게 위치되도록, 터치스크린조립체(10)가 리세트된 상태의 테이블의 표면이다. 한편, 사용자는 자기의 손 뒤꿈치를 자기 비행기 의자의 앞 트레이에 또는 만약 터치스크린조립체(10)가 자기의 무릎에 올려져 있다면 자기의 넓적다리 위에 올려놓는 것이 바람직할 수 있다.
이 터치스크린조립체(10)는 프로세서(14)가 손가락접촉영역들(20a - 20e) 상의 손가락접촉의 알림, 손가락접촉영역들(20a - 20e) 중 수신된 손가락접촉의 알림, 및 해당 손가락접촉이 슬라이딩접촉이었는지 또는 비-슬라이딩접촉이었는지에 관한 알림을 수신하도록 구성된다. 또한, 이 터치스크린조립체(10)는 하나 이상의 손가락들이 동시에 접촉을 만들었는지에 관하여 결정한다. 만약 손가락접촉이 슬라이딩접촉이었다면, 프로세서(14)는 슬라이딩접촉의 방향에 대한 알림을 수신한다.
메모리(16) 내의 소프트웨어 명령들은 프로세서(14)가 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들에 대한 고유세트와 함께 전체 알파벳(그러나 모든 대문자 및 소문자 철자들이 필요한 것은 아님)으로 각 문자의 연관을 유지하는 것을 가능하게 하고, 그리고 문자들에 대한 손가락접촉들의 예시적 사상들은 이하에 제공된다. 그렇게 구성된 것으로서, 프로세서(14)는 손가락접촉들의 알려진 영역들에 기초된 문자입력 그리고 슬라이딩/비-슬라이딩 접촉의 알림들을 인식하기 위하여 손가락접촉들에 대한 문자들의 연관을 사용한다.
터치스크린조립체(10)가 대문자 및 소문자를 구별하기 위하여 수신하는 손가락접촉들과 관련하여, 두 가지 실시형태들은 다음과 같다: 하나는 모든 대문자 및 모든 소문자 철자들의 모든 철자가 하나 또는 동시에-입력된 둘 이상의 손가락접촉들의 연관된 고유의 세트를 가질 수 있는 것이다. 다른 하나는 철자의 대문자 및 소문자의 조합이 동일한 세트의 손가락접촉들을 사용하여 입력될 수 있지만, 그러나 "시프트키"에 유사한 토글링(toggling) 스위치의 현 세팅은 손가락접촉들의 세트가 대문자로 또는 소문자로 받아들여질 것인지에 대하여 결정한다. "시프트" 기능을 위한 영역은 인체공학적으로 유용할 수 있게 손가락접촉영역들(20a - 20e)의 위 또는 아래에 위치되어도 좋다.
느낌표("!") 또는 물음표("?")와 같은 특별한 문자들은 시프트 세팅에 유사하게 터치스크린조립체(10)에 의해 받아들여져도 좋다. 즉, 인체공학적-편리한 영역이 특별한 문자들을 나타내는 손가락접촉들을 받아들이도록 터치-감응표면(18) 상에 위치되어도 좋다.
도 1b는 손가락접촉영역(25b)을 접촉하는 사용자에게 응답하여 터치-감응표면(18) 상에 나타나는 숫자키패드(25a)의 영상에 대한 실시예를 보여주고 있다(이것은 실시형태에 따라 보일 수도 있고 보이지 않을 수도 있다). 또한 도 1b에 도시된 것은 특별한 문자입력을 위하여 나타나는 영상을 일으키는 손가락접촉영역(25c), 그리고 사용자-정의한 기능들 또는 문자들을 위한 손가락접촉영역(25d)을 보여준다.
도 2는 각 문자을 위하여 하나 내지 네 손가락들이 사용된 손가락접촉들에 대한 영어 알파벳의 문자들의 연관에 대한 실시예를 제공한다. 다른 실시형태들에 있어서, 다른 수의 손가락들이 사용되어도 좋다. 도면의 키에 의해 알려진 바와 같이, 별표(*)는 비-슬라이딩 접촉을 나타내고, 보다큰표기(>)는 우측으로의 슬라이딩접촉을 나타내고, 보다작은표기(<)는 좌측으로의 슬라이딩접촉을 나타내고, 탈자기호(^)는 위로의 슬라이딩접촉을 나타내고, 그리고 소문자 "v"는 아래 방향으로의 슬라이딩접촉을 나타낸다. 예를 들면, 철자 "A"를 입력하기 위하여, 검지가 슬라이딩 없이 그것의 연관된 손가락접촉영역(20b)과 접촉하고, 중지, 약지, 및 새끼손가락은 터치-감응표면(18)과 접촉하지 않는다.
도 2의 실시예 문자연관은 문자패튼 후의 움직임을 모델링함에 의해 기억하기 용이하도록 설계되었다. 예를 들면, "E"는 세 개의 수평선들로 쓰여지고 "F"는 두 개의 수평선들로 쓰여 지며, "E" 및 "F"를 위한 연관은 각각 세 개의 및 두 개의 수평 슬라이딩 접촉들이다.
본 실시형태에 있어서, 슬라이딩접촉과 연관된 각 문자을 위하여, 프로세서는 단일의 비-굴곡 움직임을 슬라이딩 접촉으로 인지한다. 즉, 본 실시형태는 일부문자들을 위하여는 슬라이딩접촉이 굴곡 될 것을 요구하지 않는다. 따라서, 소프트웨어는 하드웨어가 감지할 수 있는 한 단지 직선 움직임들만 받아들이도록 쓰여질 수 있다. 그러나, 실무적 이유들로, 시스템은 "정확히 직선"으로서 받아들이는 움직임들로부터 일탈을 허락하도록 설계되어도 좋다. 이들 움직임들은 "실질적으로 직선"이면 족할 수 있다. 또 다른 실시형태들에 있어서, 이 시스템은 12:00 부터 3:00까지의 아크와 같이, 특정형태의 곡선을 요구하도록 설계되어도 좋고, 그러한 움직임은 일부 언어들의 철자들을 위한 직관선택일 수 있다.
본 실시형태의 손가락접촉영역들(20a - 20e)은 재위치가능하다. 따라서, 다른 크기의 손 및 다른 형태(예를 들면, 손가락들의 다른 비율)의 손 조차를 허용하기 위하여, 개인 사용자는 사용자의 손(22)에 가장 적합한 것으로서 손가락접촉영역들(20a - 20e)을 위한 위치들을 설정할 수 있다. 터치스크린조립체(10)가 손가락접촉영역들(20a - 20e)을 위치하기 위한 모드에 있을 때, 터치-감응표면(18)은 다수 손가락들의 동시 손가락접촉을 감지하고 그 접촉점들에 손가락접촉영역들(20a - 20e)을 배치한다. 따라서, 시각-장애 사용자들조차, 그들이 그들의 위치들을 기억하지 않는다 하더라도 손가락접촉영역들을 단순히 재위치할 수 있기 때문에, 용이하게 본 발명을 실행할 수 있다. 이 실시형태는 타이핑할 때 사용자가 터치스크린조립체를 볼 필요가 없다.
그럼에도 불구하고, 손가락접촉영역들의 특정형태를 유지하기를 원하는 사용자들을 위하여, 본 실시형태의 터치스크린(12)은 영역의 위치를 알리는 각 손가락접촉영역(20a - 20e)을 위한 영상을 표시하기 위한 선택(옵션)을 사용자에게 제공한다. (설명의 명료화를 위하여, 영상들은 도 1a에 도시되지 않았다.) 터치스크린조립체(10)는 터치될 때 영상들이 어두워지고 터치되지 않을 때 희미해지도록 프로그램되어도 좋다.
손가락접촉들에 대한 알파벳의 문자들의 연관을 기억하는데 용이함에도 불구 하고, 사용자에게 연관의 기억을 촉진하기 위하여 초기훈련단계가 있다. 훈련단계 동안 또는 그 후 어떤 시간에, 터치스크린조립체(10)는 터치스크린(12)이 알파벳의 문자들의 영상들(24)을 표시하도록 설정되어도 좋다. 이들 영상들(24)은 더 이상 필요없게 될 때 뒤이어 제거되어도 좋다. 문자의 영상에 터치-감응표면(18) 상에서의 손가락접촉에 응답하여, 터치스크린(12)은 연관된 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 연관된 고유의 세트를 알린다. 이 알림은 색상변화의 형태를 취할 수 있고 또는 적용할 때 슬라이딩접촉의 방향을 알리기 위하여 화살표들과 함께 결합된 색상강도의 형태를 취할 수도 있다. 이 터치스크린조립체(10)는 또한 알파벳 문자과 연관된 손가락접촉영역들(20a - 20e)에서 터치-감응표면(18) 상의 하나 이상의 손가락접촉에 응답하여, 터치스크린(12)이 예를 들면 문자의 표시된 영상을 어둡게 함에 의해 또는 더 밝게 함에 의해 연관된 문자을 표시할 수 있도록 설정되어 질 수 있다.
터치스크린조립체(10)는 터치-감응표면(18) 상에서 슬라이딩접촉을 실행하는 동안 둘 이상의 손가락끝이 서로 접촉하게 하는 사용자에 의한 명령들을 받아들이도록 프로그램되어도 좋다. 도 3은 "복사", "절단", "붙이기", "되돌리기", 및 "저장" 명령들과 연관된 슬라이딩 접촉의 예를 도시하고 있다.
비록 개시된 본 발명의 실시예는 단지 터치스크린조립체이지만, 본 발명은 그러한 실시예에 한정되는 것은 아니다. 즉, 입력은 시각적 출력을 표시하고 있는 동일한 표면으로부터 입력되어 질 필요가 없다. 예를 들면, 노트북컴퓨터는 그것의 터치패드가 슬라이딩 및 비-슬라이딩 접촉의 손가락 입력을 수신하는 한편 출력은 스크린상에 표시되어 지도록 구성될 수 있다. 다른 실시예는 USB 접속을 통해 또는 블루투스를 통해 PC와 통신하는 터치감응표면을 갖는 PC이다.
본 발명은 손가락접촉들이 전자표면들의 터치-감응표면들 상에서 수신되어 지는 것에 한정되지 않는다. 예를 들면, 데스크 또는 테이블의 윗 표면상에 손가락접촉에 의한 문자입력은 또한 본 발명의 범주 내에 있다. 이러한 실시예는 도 4a의 측면도 및 도 4b의 상면도에 도시되어 있다.
도 4a에 도시된 바와 같이, 기구케이스(26)가 프로젝션레이저(28), 광학센서(30), 및 적외선광원(32)을 수용한다. 부품들의 이러한 조합은 키보드의 영상을 수평표면상으로 발산하고 사용자가 터치한 어떤 키 영상이 발산되었는지를 감지하기 위하여 Celluon, Inc.에 의해 사용된 바와 같이 이 기술에서 알려져 있다. 간단하게, 이 실시형태에 있어서, 프로젝션레이저(28)는 기구케이스(26)를 얹어놓은 채로 데스크 또는 테이블(36)의 표면상에 손가락접촉영역들을 위한 영상들을 전시할 수 있다. 적외선광원(32)은 사용자의 손(38)의 방향 또는 예상되는 방향으로 표면에 평행하게 그리고 가깝게 빔을 발산한다. 사용자가 표면(34)을 접촉할 때, 광학센서(30)는 변화된 반사를 감지하고 기구케이스(26)와 상관하여 손가락접촉의 위치를 결정한다.
도 4b의 상면도는 제1표면(40) 및 제2표면(42)으로 부분적으로 구분된 데스크 또는 테이블(36)의 상면을 보여준다. 사용자의 손가락끝은 제1표면(40)과 접촉하고, 사용자 손의 뒤꿈치는 제2표면(42)과 접촉하고 얹혀있다. 제1 및 제2표면들(40, 42)은 데스크 또는 테이블(36)의 동일표면(34)의 영역이어도 좋고, 또는 표면들 중 하나는 다른 표면으로 확장하지 않는 작은 플랫폼이어도 좋다. 제1실시형태의 것으로서, 손가락접촉영역들은 인체공학적으로 배열되고, 그들은 개별 사용자를 위하여 적절하게 설정될 수 있으며, 그리고 손가락접촉들에 대한 문자들의 연관은 기억하기에 직관적이고 용이한 것일 수 있다.
다른 실시예들에 있어서, 프로젝션레이저(28)는 생략되어도 좋다. 사용자는 손가락접촉영역들의 영상들을 볼 필요가 없다. 대신, 손가락접촉영역들은 사용자에 의한 적절한 모드에서 위의 기술된 제1 실시형태에서의 손가락접촉영역들의 위치를 설정하기 위한 것에 유사한 절차로 표면상에 사용되는 모든 손가락들(통상 넷 또는 다섯)을 접촉할 때 설정된다.
본 발명은 또한 전자장치에 문자입력을 인식하기 위한 인간몸짓을 분석하는 방법으로 구성될 수 있다. 이러한 방법이 도 5의 흐름도(44)를 참조하여 기술된다.
이 방법은 제1표면의 손가락접촉영역들 상에 손가락접촉들을 분별함에 의해 시작한다(단계 S1). 손가락접촉영역들을 위한 위치들은 다수의 손가락들의 동시 손가락접촉을 감지함에 의해 그리고 손가락접촉영역들을 접촉점들에 위치함에 의해 설정되어도 좋다.
실시예들로 한정되는 것은 아니지만, 제1표면은, 도 1a의 터치-감응표면(18), 노트북컴퓨터의 터치패드, 또는 도 4a 및 도 4b의 데스크 또는 테이블(36)의 제1표면(40)과 같은, 터치스크린의 터치-감응표면일 수 있다. 각 손가락접촉영역은 사용자 손의 개별 손가락과 연관되고 그리고 제1표면에 대하여 정지된 상태로 유지되는 제2표면으로부터 또는 그 위에 사용자 손의 뒤꿈치의 움직임 없이 사용자가 그들의 연관된 손가락들로 동시에 그리고 편안하게 모든 손가락접촉영역들과 접촉하는 것이 가능하게 하는 인체공학적 배열로 다른 손가락접촉영역들과 상관하여 위치된다. 제2표면들의 실시예들은 터치스크린조립체의 가장자리의, 노트북컴퓨터의 가장자리의, 터치스크린조립체 또는 노트북컴퓨터가 얹혀져 있는 상태의 데스크 또는 테이블의, 사용자의 비행기 좌석의 앞에 있는 트레이의, 그리고 만약 터치스크린조립체가 사용자의 무릎 위에 올려져 있다면 사용자의 넓적다리 조차의 표면들을 포함한다.
본 방법은 각 손가락접촉영역을 위한 제1표면 상에 영상을 표시함에 의해 실행되어도 좋다. 각 영상은 제1표면 상에서 연관된 손가락접촉영역의 위치를 나타낸다. 본 발명은 또한 알파벳의 문자들의 영상을 표시함에 의해 따라서 다음 선택사항들 중 하나 또는 둘 다를 가능하게 함에 의해 실행되어도 좋다: (1) 문자 영상에 제1표면 상의 손가락접촉을 감지함에 응답하여, 연관된 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 연관된 고유의 세트를 알리는 것; 및 (2) 알파벳의 문자과 연관된 손가락접촉영역들에서 제1표면 상의 하나 이상의 손가락접촉에 응답하여, 연관된 문자을 알리는 것. 이러한 알림들은 손가락접촉들 및 문자들의 밝기를 변화시킬 수 있다.
손가락접촉들이 단계 S1에서 분별 된 후, 다음 단계들은 어느 손가락접촉영역이 손가락접촉을 받았는지 각 손가락접촉을 위하여 결정하는 것(단계 S2)이고 그 손가락접촉이 슬라이딩이었는지 비-슬라이딩이었는지를 결정하는 것(단계 S3)이다. 본 실시형태의 슬라이딩접촉은 사용자가 제2표면으로부터 또는 그 위에서 자기의 손의 뒤꿈치를 움직일 필요없이 간단하고 편안하다. 만약 손가락접촉이 슬라이딩접촉이면, 슬라이딩접촉의 방향이 결정된다(단계 S4).
본 방법의 다른 단계는 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 고유의 세트로 전체 알파벳의 각 문자의 연관을 유지하는 것이다(단계 S5). 슬라이딩접촉은 단일의 비-곡선 움직임이 특별한 문자과 연관된 슬라이딩접촉으로 인식되도록 문자들과 연관된다. 한편, 정확한 직선움직임으로부터의 일탈도 용인될 수 있다.
설정되고 유지된 손가락접촉들에 대한 문자들의 연관과 함께, 이 연관은 손가락접촉들의 알려진 영역들 및 슬라이딩 및 비-슬라이딩 접촉의 알림에 기초된 문자입력을 인식하는데 사용된다(단계 S6).
또한, 본 발명은 실행될 때 전자장치의 프로세서가 입력문자들을 분별하도록 하는 명령들을 포함하는 기계독해가능 저장매체로 구성되어도 좋다. 이 저장매체는, 하드디스크드라이브, 플래시메모리 SSD, 콤팩디스크, DVD, USB 플래시드라이브, 및 기타 등등과 같은, 많은 다른 종류의 비-일시적 메모리일 수 있다. 이 저장매체는 예를 들면 위에 언급된 전자장치의 부분일 수 있고, 실행될 때 명령들은 예를 들면 상기에 언급한 방법들을 수행할 수 있다.
실행될 때, 명령들은 프로세서가 터치스크린과 같은 제1표면 상의 손가락접촉영역들 상에 손가락접촉의 알림을 수신하게 한다. 각 손가락접촉영역은 사용자 손의 개별 손가락과 연관된다. 또한, 각 손가락접촉영역은 제1표면에 대하여 정지된 상태로 유지되는 제2표면으로부터 또는 그 위에 사용자 손의 뒤꿈치의 움직임 없이 사용자가 연관된 손가락들로 동시에 모든 손가락접촉영역들과 접촉하는 것이 가능하게 하는 인체공학적 배열로 다른 손가락접촉영역들과 상관하여 위치된다.
또한 저장매체 내에 저장된 명령들은 프로세서가 손가락접촉영역들이 손가락접촉들을 수신했는지 그리고 이 손가락접촉들이 슬라이딩접촉이었는지 또는 비-슬라이딩접촉이었는지에 대한 알림들을 수신하는 것을 가능하게 한다. 슬라이딩접촉들은 사용자가 제2표면으로부터 또는 그 위에서 자기 손의 뒤꿈치를 움직일 필요가 없는 형태이다. 또한, 프로세서는 슬라이딩 접촉들의 방향에 대한 알림들을 수신한다. 이 슬라이딩접촉들은 단일의 비-곡선 움직임이 특별한 문자과 연관된 슬라이딩접촉으로 인식하는 것이다. 명령은 비-곡선움직임이 연관된 하드웨어가 감지할 수 있는 직선일 것을 요구할 수도 있고, 또는 정확한 직선움직임으로부터의 일탈도 주어진 응용을 위하여 실질적으로 또는 바람직한 것으로 용인될 수도 있다.
앞서 기술한 실시예들과 유사하게, 본 실시형태의 저장매체 내에 저장된 명령들을 실행하는 프로세서는 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 고유의 세트와 함께 전체 알파벳의 각 문자의 연관을 유지한다. 그 다음 이 프로세서는 손가락접촉들의 알려진 영역들 상에 그리고 슬라이딩/비-슬라이딩 접촉의 알림들에 기초 된 문자입력을 인식하기 위하여 손가락접촉들에 대한 문자들의 연관을 사용한다.
본 저장매체의 다양한 변경들도 본 발명의 범주에 속한다. 예를 들면, 명령들이 실행될 때 프로세서가 다수 손가락들의 동시 손가락접촉을 제1표면 상에서 감지하고 그 접촉점들에 손가락접촉영역들을 위치함에 의해 손가락접촉영역들을 위한 위치들을 설정하도록 그 안에 저장되어도 좋다. 다른 실시예로서, 저장된 명령은 프로세서가 각 손가락접촉영역을 위한 영상을 각 영상이 터치스크린 상에서 연관된 손가락접촉영역의 위치를 알리도록 표시하게 할 수 있다. 이 영상의 표시는 또한 알파벳의 문자들의 영상들을 표시함과 함께, 그리고 다음의 어느 하나 또는 둘 모두와 조합되어도 좋다: (1) 문자의 영상에 터치-감응표면상의 손가락접촉을 감지하는데 응답하여, 연관된 고유의 손가락접촉 또는 동시에-입력된 둘 이상의 손가락접촉들의 연관된 고유의 세트를 알리는 것; 또는 (2) 알파벳의 문자과 연관된 손가락접촉영역들에서 터치-감응표면상의 하나 이상의 손가락접촉에 응답하여, 연관된 문자을 알리는 것.
개시된 본 발명의 예시적 실시예들을 통해서, 본 발명의 기술이 속하는 분야에서 통상의 지식을 가진자에 의한 다양한 변경, 변조 및 개선 등이 일어날 수 있다는 것은 명백하다. 상기 기재에서 비록 표현되진 않았지만, 그럼에도 불구하고 기재된 본 발명의 변경, 변조, 및 개선은 본 발명의 범주 이내에 들어가는 것이다. 따라서, 위의 기재들은 단지 설명의 목적이고, 본 발명은 특허청구의 범위 및 거기에 균등한 것으로 한정되고 제한된다.
10: 터치스크린조립체 12: 터치스크린
14: 프로세서 16: 메모리

Claims (20)

  1. 시각장애가 있는 사용자가 전자장치에 알파벳 문자들을 입력하기 위한 전자장치에 있어서:
    프로세서;
    터치-감응 표면을 갖는 터치스크린; 및
    프로세서에 의해 실행될 때, 프로세서가:
    손가락접촉영역들을 위치하기 위한 모드에 있을 때,
    각 손가락들의 접촉점을 포함하는 터치-감응표면상에 사용자의 적어도 제1손가락, 제2손가락, 및 제3손가락의 터치-감응표면 상에의 동시 접촉에 대한 지시를 수신함에 의해 터치-감응표면상에 다수의 손가락접촉 영역들을 위치하고, 이 다수의 손가락접촉영역들은 제1손가락 접촉점을 포함하는 제1손가락접촉영역, 제2손가락 접촉점을 포함하는 제2손가락접촉영역, 및 제3손가락 접촉점을 포함하는 제3손가락접촉영역을 포함하며, 여기서 다수의 알파벳 문자들(문자들)이 각각 하나 이상의 손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합으로 연관되고, 여기서 각 손가락접촉영역은 터치-감응표면의 유일한 영역이며;
    단지 제1손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉으로 연관된 하나의 문자 및 단지 제2손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉으로 연관된 다른 문자를 포함하는, 다수의 알파벳 문자들의 각각이 하나 이상의 손가락접촉영역들과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합과의 연관을 유지하고,
    손가락접촉영역을 위치하기 위한 모드에 뒤이은, 그리고 위치하는 모드 동안 적어도 제1, 제2, 및 제3손가락들을 터치-감응표면으로부터 제거하는데 뒤이은 문자입력을 위한 모드에 있을 때, 다음을 포함하는 다수의 알파벳 문자들을 전자장치로 입력시키고;
    (a) 제1문자 입력접촉이 슬라이딩인지 또는 비-슬라이딩인지를 결정하면서, 단지 제1손가락 접촉영역의 제1문자입력접촉을 인지함에 의해 제1문자를 입력하고, 제1문자입력접촉이 슬라이딩접촉일 때 슬라이딩 접촉의 방향을 결정하며, 접촉된 손가락접촉영역에 기초하여 그 접촉이 슬라이딩 또는 비-슬라이딩 접촉인지, 그리고 슬라이딩 접촉의 방향에 기초하여 제1문자를 식별하고;
    (b) 손가락접촉영역들과의 접촉들에 대한 알파벳 문자들의 연관을 이용하여 제1문자를 인지하며;
    (c) 단지 제2손가락 접촉영역의 제2문자입력접촉을 인지함에 의해 제1문자와 다른 제2문자를 입력하고; 여기서 제2문자 입력접촉이 제1문자 입력접촉과 마찬가지로 슬라이딩인지 또는 비-슬라이딩인지를, 그리고 슬라이딩접촉의 방향이 제1문자입력의 슬라이딩 방향과 동일한지를 결정하며; 및 접촉된 손가락접촉영역에 기초하여 그 접촉이 슬라이딩 또는 비-슬라이딩 접촉인지, 그리고 슬라이딩 접촉의 방향에 기초하여 제2문자를 식별하고;
    (d) 손가락접촉영역들과의 접촉들에 대한 알파벳 문자들의 연관을 이용하여 제2문자를 인지하도록 하는;
    지시들을 저장하는 메모리를 포함하는 전자장치.
  2. 제 1항에 있어서, 손가락접촉영역들을 위치하는 것은 터치-감응표면상에 손의 네 또는 다섯 손가락들의 동시접촉을 감지하는 것을 포함하는 전자장치.
  3. 제 1항에 있어서, 터치스크린은 각 손가락접촉영역을 위한 영상을 표시하고, 각 영상은 연관된 손가락접촉영역의 위치를 알리는 전자장치.
  4. 제 1항에 있어서, 슬라이딩 접촉과 연관된 각 문자를 위하여, 프로세서는 단일의 비-곡선 움직임을 슬라이딩 접촉으로 인지하는 전자장치.
  5. 제 1항에 있어서, 다수의 알파벳 문자들 각각과 하나 이상의 손가락접촉영역들과 슬라이딩 또는 비-슬라이딩의 유일한 조합과의 연관은 다음을 포함하는 네 가지 다른 알파벳 문자들의 연관을 포함하는 전자장치:
    i) 네 가지 다른 문자들의 제1문자와 연관된 제1손가락접촉영역에 있어서의 단지 비-슬라이딩 움직임;
    ii) 네 가지 다른 문자들의 제2문자와 연관된 제1손가락접촉영역에 있어서의 단지 제1방향으로의 슬라이딩 움직임;
    iii) 네 가지 다른 문자들의 제3문자와 연관된 제2손가락접촉영역에 있어서의 단지 비-슬라이딩 움직임; 및
    iv) 네 가지 다른 문자들의 제4문자와 연관된 제3손가락접촉영역에 있어서의 단지 제1방향으로의 슬라이딩 움직임.
  6. 제 1항에 있어서, 지시들을 저장하는 메모리는 프로세서가 다수의 명령들을 하나 이상의 손가락접촉영역들과 슬라이딩 또는 비-슬라이딩 접촉의 각각과 유일한 조합으로 연관지우게 하고, 상기 다수의 명령들은 삭제명령, 입력명령, 복사명령, 페이스트명령, 컷명령, 또는 무효명령을 포함하는 전자장치.
  7. 시각장애가 있는 사용자에 의해 터치-감응표면을 갖는 전자장치에 알파벳 문자들을 입력하는 방법에 있어서:
    (i) 각 손가락들의 접촉점을 포함하는 사용자의 적어도 제1손가락, 제2손가락, 및 제3손가락의 동시 손가락접촉을 전자장치의 터치-감응표면상에서 감지함에 의해 터치-감응표면상에 다수의 손가락접촉 영역들을 위치하고, 그리고 제1손가락 접촉점을 포함하는 제1손가락접촉영역, 제2손가락 접촉점을 포함하는 제2손가락접촉영역, 및 제3손가락 접촉점을 포함하는 제3손가락접촉영역을 위치하며, 여기서 다수의 알파벳 문자들이 각각 하나 이상의 손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합으로 연관되고, 여기서 각 손가락접촉영역은 터치-감응표면의 유일한 영역이며;
    (ii) 단지 제1손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉으로 연관된 하나의 문자 및 단지 제2손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉으로 연관된 다른 문자를 포함하는, 다수의 알파벳 문자들의 각각이 하나 이상의 손가락접촉영역들과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합과의 연관을 유지하고,
    (iii) 손가락접촉영역들을 위치하는 단계에 뒤이어 그리고 위치단계의 접촉 후에 적어도 제1, 제2, 및 제3손가락들을 터치-감응표면으로부터 제거하는데 뒤이어, 다음을 포함하는 다수의 알파벳 문자들을 전자장치로 입력시키고;
    (a) 제1문자 입력접촉이 슬라이딩인지 또는 비-슬라이딩인지를 결정하면서, 단지 제1손가락 접촉영역의 제1문자입력접촉을 인지함에 의해 제1문자를 입력하고, 제1문자입력접촉이 슬라이딩접촉일 때 슬라이딩 접촉의 방향을 결정하며, 접촉된 손가락접촉영역에 기초하여 그 접촉이 슬라이딩 또는 비-슬라이딩 접촉인지, 그리고 슬라이딩 접촉의 방향에 기초하여 제1문자를 식별하고;
    (b) 손가락 접촉들에 대한 문자들의 연관을 이용하여 제1문자를 인지하며;
    (c) 단지 제2손가락 접촉영역의 제2문자입력접촉을 인지함에 의해 제1문자와 다른 제2문자를 입력하고; 여기서 제2문자 입력접촉이 제1문자 입력접촉과 마찬가지로 슬라이딩인지 또는 비-슬라이딩인지를, 그리고 슬라이딩접촉의 방향이 제1문자입력의 슬라이딩 방향과 동일한지를 결정하며; 및 접촉된 손가락접촉영역에 기초하여 그 접촉이 슬라이딩 또는 비-슬라이딩 접촉인지, 그리고 슬라이딩 접촉의 방향에 기초하여 제2문자를 식별하고; 및
    (d) 손가락접촉영역들과의 접촉들에 대한 문자들의 연관을 이용하여 제2문자를 인지하는;
    것을 포함하는 방법.
  8. 제 7항에 있어서, 터치-감응표면상에 다수의 손가락접촉영역들을 위치하는 단계는 사용자의 넷 또는 다섯 손가락이 터치-감응표면과 접촉하는 것을 포함하는 방법.
  9. 제 7항에 있어서, 손가락접촉영역들을 재-위치시키는 단계를 더 포함하는 방법.
  10. 제 7항에 있어서, 각 손가락접촉영역을 위한 영상을 표시하는 단계를 더 포함하고, 각 영상은 제1표면상에 연관된 손가락접촉영역의 위치를 알리는 방법.
  11. 제 7항에 있어서, 슬라이딩 접촉과 연관된 각 문자를 위하여, 단일의 비-곡선움직임이 슬라이딩 접촉으로 인지되는 방법.
  12. 제 7항에 있어서, 다음을 포함하는 네 가지 다른 알파벳 문자들의 입력을 포함하는 방법:
    i) 네 가지 다른 문자들의 제1문자의 입력을 위한 제1손가락접촉영역에 있어서의 단지 비-슬라이딩 움직임을 분별하고;
    ii) 네 가지 다른 문자들의 제2문자의 입력을 위한 제1손가락접촉영역에 있어서의 단지 제1방향으로의 슬라이딩 움직임을 분별하고;
    iii) 네 가지 다른 문자들의 제3문자의 입력을 위한 제2손가락접촉영역에 있어서의 단지 비-슬라이딩 움직임을 분별하고; 및
    iv) 네 가지 다른 문자들의 제4문자의 입력을 위한 제3손가락접촉영역에 있어서의 단지 제1방향으로의 슬라이딩 움직임을 식별한다.
  13. 제 7항에 있어서, 다수의 다른 명령들을 입력하는 단계를 포함하고, 상기 명령들의 각각은 하나 이상의 손가락접촉영역들과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합과 연관되며, 상기 다수의 명령들은 삭제명령, 입력명령, 복사명령, 페이스트명령, 컷명령, 또는 무효명령을 포함하는 방법.
  14. 실행시 시각장애가 있는 사용자에 의해 입력 알파벳 문자들을 식별하기 위하여 터치-감응표면을 갖는 전자장치의 프로세서를 지시하는 지시들을 포함하는 비-일시적(non-transitory) 기계독해가능 저장매체에 있어서:
    (i) 각 손가락들의 접촉점을 포함하는 터치-감응표면상에 사용자의 적어도 제1손가락, 제2손가락, 및 제3손가락의 동시 손가락접촉의 알림을 수신함에 의해 터치-감응표면상에 다수의 손가락접촉 영역들을 위치하고, 그리고 제1손가락 접촉점을 포함하는 제1손가락접촉영역, 제2손가락 접촉점을 포함하는 제2손가락접촉영역, 및 제3손가락 접촉점을 포함하는 제3손가락접촉영역을 위치하며, 여기서 다수의 알파벳 문자들이 각각 하나 이상의 손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합으로 연관되고, 여기서 각 손가락접촉영역은 터치-감응표면의 유일한 영역이며;
    (ii) 단지 제1손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉으로 연관된 하나의 문자 및 단지 제2손가락접촉영역과 슬라이딩 또는 비-슬라이딩 접촉으로 연관된 다른 문자를 포함하는, 다수의 알파벳 문자들의 각각이 하나 이상의 손가락접촉영역들과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합과의 연관을 유지하고,
    (iii) 손가락접촉영역들을 위치하는 단계에 뒤이어 그리고 위치단계의 접촉 후에 적어도 제1, 제2, 및 제3손가락들을 터치-감응표면으로부터 제거하는데 뒤이어, 다음을 포함하는 다수의 알파벳 문자들을 전자장치로 입력시키고;
    (a) 단지 제1손가락 접촉영역의 제1문자입력접촉의 알림을 수신함에 의해 제1문자를 입력하고, 제1문자 입력접촉이 슬라이딩인지 또는 비-슬라이딩인지에 대한 알림을 수신하고, 제1문자입력접촉이 슬라이딩접촉일 때 슬라이딩 접촉의 방향에 대한 알림을 수신하고, 접촉된 손가락접촉영역에 기초하여 그 접촉이 슬라이딩 또는 비-슬라이딩 접촉인지, 그리고 슬라이딩 접촉의 방향에 기초하여 제1문자를 식별하고;
    (b) 손가락 접촉들에 대한 문자들의 연관을 이용하여 제1문자를 인지하며;
    (c) 단지 제2손가락 접촉영역의 제2문자입력접촉을 인지함에 의해 제1문자와 다른 제2문자를 입력하고; 여기서 제2문자 입력접촉이 제1문자 입력접촉과 마찬가지로 슬라이딩인지 또는 비-슬라이딩인지를, 그리고 슬라이딩접촉의 방향이 제1문자입력의 슬라이딩 방향과 동일한지를 결정하며; 및 접촉된 손가락접촉영역에 기초하여 그 접촉이 슬라이딩 또는 비-슬라이딩 접촉인지, 그리고 슬라이딩 접촉의 방향에 기초하여 제2문자를 식별하고; 및
    (d) 손가락 접촉들에 대한 문자들의 연관을 이용하여 제2문자를 인지하는;
    지시들을 포함하는 비-일시적 기계독해가능 저장매체.
  15. 제 14항에 있어서, 손가락접촉영역을 위치하는 것은 사용자의 넷 또는 다섯 손가락이 터치-감응표면과 접촉하는 것을 포함하는 비-일시적 기계독해가능 저장매체.
  16. 제 14항에 있어서, 실행될 때, 지시들은 손가락접촉영역들을 재-위치시킴에 의해 프로세서가 입력문자들을 더 식별하게 하는 비-일시적 기계독해가능 저장매체.
  17. 제 14항에 있어서, 터치스크린 상에 연관된 손가락접촉영역의 위치를 알리는, 각 손가락접촉영역을 위한 영상을 표시함에 의해, 명령들이 실행될 때, 프로세서가 입력문자들을 더 인식하게 하는 비-일시적 기계독해가능 저장매체.
  18. 제 14항에 있어서, 슬라이딩 접촉과 연관된 각 문자를 위하여, 단일의 비-곡선 움직임이 슬라이딩 접촉으로 인식되는 비-일시적 기계독해가능 저장매체.
  19. 제 14항에 있어서, 다수의 알파벳 문자들의 각각이 하나 이상의 손가락접촉영역과 슬라이딩 또는 비-슬라이딩의 유일한 조합과의 연관은 다음을 포함하는 네 가지 다른 알파벳 문자들의 연관을 포함하는 비-일시적 기계독해가능 저장매체:
    i) 네 가지 다른 문자들의 제1문자와 연관된 제1손가락접촉영역에 있어서의 단지 비-슬라이딩 움직임;
    ii) 네 가지 다른 문자들의 제2문자와 연관된 제1손가락접촉영역에 있어서의 단지 제1방향으로의 슬라이딩 움직임;
    iii) 네 가지 다른 문자들의 제3문자와 연관된 제2손가락접촉영역에 있어서의 단지 비-슬라이딩 움직임; 및
    iv) 네 가지 다른 문자들의 제4문자와 연관된 제3손가락접촉영역에 있어서의 단지 제1방향으로의 슬라이딩 움직임.
  20. 제 14항에 있어서, 지시들은, 실행될 때, 장치가 하나 이상의 손가락접촉영역들과 슬라이딩 또는 비-슬라이딩 접촉의 유일한 조합으로 연관된 다수의 다른 명령들의 입력을 식별하게 하고, 상기 다수의 다른 명령들은 삭제명령, 입력명령, 복사명령, 페이스트명령, 컷명령, 또는 무효명령을 포함하는 비-일시적 기계독해가능 저장매체.

KR1020137030631A 2011-04-21 2012-04-19 전자장치에 수신문자입력을 위한 인체공학적 움직임 감지 KR101695174B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/091,158 2011-04-21
US13/091,158 US9261972B2 (en) 2011-04-21 2011-04-21 Ergonomic motion detection for receiving character input to electronic devices
PCT/IL2012/050153 WO2012143929A1 (en) 2011-04-21 2012-04-19 Ergonomic motion detection for receiving character input to electronic devices

Publications (2)

Publication Number Publication Date
KR20140061315A KR20140061315A (ko) 2014-05-21
KR101695174B1 true KR101695174B1 (ko) 2017-01-11

Family

ID=47020925

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137030631A KR101695174B1 (ko) 2011-04-21 2012-04-19 전자장치에 수신문자입력을 위한 인체공학적 움직임 감지

Country Status (3)

Country Link
US (3) US9261972B2 (ko)
KR (1) KR101695174B1 (ko)
WO (1) WO2012143929A1 (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8933888B2 (en) * 2011-03-17 2015-01-13 Intellitact Llc Relative touch user interface enhancements
US10146428B2 (en) * 2011-04-21 2018-12-04 Inpris Innovative Products From Israel Ltd Device, system, and methods for entering commands or characters using a touch screen
US8957868B2 (en) * 2011-06-03 2015-02-17 Microsoft Corporation Multi-touch text input
US10621410B2 (en) * 2011-06-20 2020-04-14 Benjamin Zimchoni Method and system for operating a keyboard with multi functional keys, using fingerprints recognition
TW201403405A (zh) * 2012-07-09 2014-01-16 Mstar Semiconductor Inc 符號輸入裝置、符號輸入方法及相關的電腦程式產品
CN104007832B (zh) * 2013-02-25 2017-09-01 上海触乐信息科技有限公司 连续滑行输入文本的方法、***及设备
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
US9965974B2 (en) 2014-03-11 2018-05-08 Technologies Humanware Inc. Portable device with virtual tactile keyboard and refreshable Braille display
US10175882B2 (en) 2014-07-31 2019-01-08 Technologies Humanware Inc. Dynamic calibrating of a touch-screen-implemented virtual braille keyboard
US10747426B2 (en) 2014-09-01 2020-08-18 Typyn, Inc. Software for keyboard-less typing based upon gestures
CN105759981A (zh) * 2014-12-17 2016-07-13 北京搜狗科技发展有限公司 在移动设备中输入文字的方法和装置、触摸屏输入法***
KR20160077772A (ko) * 2014-12-24 2016-07-04 삼성전자주식회사 전자 장치 및 전자 장치에서 문자 입력을 처리하는 방법
US10120567B2 (en) 2015-04-02 2018-11-06 Inpris Innovative Products From Israel Ltd System, apparatus and method for vehicle command and control
CN108780365B (zh) * 2015-08-20 2020-07-14 因普里斯创新产品有限公司 用于使用触摸屏输入命令或字符的装置、***和方法
USD807884S1 (en) 2015-11-11 2018-01-16 Technologies Humanware Inc. Tactile braille tablet
GB2560322B (en) * 2017-03-06 2022-02-16 Jaguar Land Rover Ltd Control apparatus and method for controlling operation of a component
US10802644B2 (en) * 2017-04-05 2020-10-13 Wayne Rasanen Assistive text-entry system and method
WO2019002937A2 (en) 2017-06-26 2019-01-03 Inpris Innovative Products Form Israel, Ltd SYSTEMS USING DUAL TOUCH CONTROL AND SOUND AND METHODS THEREOF
CN108037890B (zh) * 2017-12-13 2020-10-23 北京易诚高科科技发展有限公司 触控设备单手持机app操作手指舒适度度量方法
CN108399042B (zh) * 2018-01-31 2020-09-01 歌尔科技有限公司 一种触控识别方法、装置和***
KR102507281B1 (ko) * 2018-03-23 2023-03-08 삼성전자주식회사 지문 센서를 포함하는 전자 장치 및 그 동작 방법
US20200249767A1 (en) * 2019-02-01 2020-08-06 Justin King Virtual Keyboard Input Method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
WO2010016065A1 (en) 2008-08-08 2010-02-11 Moonsun Io Ltd. Method and device of stroke based user input

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993000629A1 (en) 1991-06-28 1993-01-07 Infogrip, Inc. Chordic keyboard system
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6802717B2 (en) * 2001-04-26 2004-10-12 Felix Castro Teaching method and device
FR2878344B1 (fr) 2004-11-22 2012-12-21 Sionnest Laurent Guyot Dispositif de commandes et d'entree de donnees
US8078984B2 (en) * 2007-06-19 2011-12-13 Microsoft Corporation Virtual keyboard text replication
US8358277B2 (en) 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
US8856690B2 (en) 2008-10-31 2014-10-07 Sprint Communications Company L.P. Associating gestures on a touch screen with characters
US9235340B2 (en) 2011-02-18 2016-01-12 Microsoft Technology Licensing, Llc Modal touch input
US8970519B2 (en) 2012-02-01 2015-03-03 Logitech Europe S.A. System and method for spurious signal detection and compensation on an input device
US9075462B2 (en) 2012-12-10 2015-07-07 Sap Se Finger-specific input on touchscreen devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
WO2010016065A1 (en) 2008-08-08 2010-02-11 Moonsun Io Ltd. Method and device of stroke based user input

Also Published As

Publication number Publication date
US20160370989A1 (en) 2016-12-22
US20160110095A1 (en) 2016-04-21
KR20140061315A (ko) 2014-05-21
US9261972B2 (en) 2016-02-16
US20120268389A1 (en) 2012-10-25
WO2012143929A1 (en) 2012-10-26
US9652146B2 (en) 2017-05-16
US9459795B2 (en) 2016-10-04

Similar Documents

Publication Publication Date Title
KR101695174B1 (ko) 전자장치에 수신문자입력을 위한 인체공학적 움직임 감지
US10275153B2 (en) Multidirectional button, key, and keyboard
US9176668B2 (en) User interface for text input and virtual keyboard manipulation
US9122318B2 (en) Methods of and systems for reducing keyboard data entry errors
US10126941B2 (en) Multi-touch text input
US8947355B1 (en) Motion-based character selection
US20090231281A1 (en) Multi-touch virtual keyboard
US20100302155A1 (en) Virtual input devices created by touch input
US20100302165A1 (en) Enabling data entry based on differentiated input objects
US20110169760A1 (en) Device for control of electronic apparatus by manipulation of graphical objects on a multicontact touch screen
KR20120114139A (ko) 손과 손가락을 감지하는 표면과 그 위에 사용하는 동적 텍스트 입력 방법
JP2011248888A (ja) デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス
EP2404230A1 (en) Improved text input
US9189154B2 (en) Information processing apparatus, information processing method, and program
JP2004355606A (ja) 情報処理装置、情報処理方法、及びプログラム
CN103425430A (zh) 在移动终端中支持单手输入文字的方法和设备
US20120169607A1 (en) Apparatus and associated methods
CN109976652B (zh) 信息处理方法及电子设备
Ljubic et al. Tilt-based support for multimodal text entry on touchscreen smartphones: using pitch and roll
US20140006996A1 (en) Visual proximity keyboard
KR102253889B1 (ko) 패턴입력식 다국어 가상 키패드 시스템
US10082882B2 (en) Data input apparatus and method therefor
Kuno et al. Meyboard: A QWERTY-Based Soft Keyboard for Touch-Typing on Tablets
CN105164608B (zh) 手持电子设备
JP2016218890A (ja) 電子機器および入力方法

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant