KR101919841B1 - 터치 오기 교정 방법 및 시스템 - Google Patents

터치 오기 교정 방법 및 시스템 Download PDF

Info

Publication number
KR101919841B1
KR101919841B1 KR1020170047890A KR20170047890A KR101919841B1 KR 101919841 B1 KR101919841 B1 KR 101919841B1 KR 1020170047890 A KR1020170047890 A KR 1020170047890A KR 20170047890 A KR20170047890 A KR 20170047890A KR 101919841 B1 KR101919841 B1 KR 101919841B1
Authority
KR
South Korea
Prior art keywords
touch
input
position information
recognized
information corresponding
Prior art date
Application number
KR1020170047890A
Other languages
English (en)
Other versions
KR20180115831A (ko
Inventor
임철재
Original Assignee
엔에이치엔엔터테인먼트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔에이치엔엔터테인먼트 주식회사 filed Critical 엔에이치엔엔터테인먼트 주식회사
Priority to KR1020170047890A priority Critical patent/KR101919841B1/ko
Priority to US15/951,751 priority patent/US10572066B2/en
Priority to JP2018077801A priority patent/JP6599504B2/ja
Publication of KR20180115831A publication Critical patent/KR20180115831A/ko
Application granted granted Critical
Publication of KR101919841B1 publication Critical patent/KR101919841B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

터치 오기 교정 방법 및 시스템이 개시된다. 컴퓨터에 의해 실행되는 터치 오기 교정 방법에 있어서, 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스를 통해 입력된 적어도 하나의 객체를 인식하는 단계, 인식된 상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계, 인식된 상기 객체에 해당하는 위치 정보와 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 저장하는 단계, 및 상기 연관하여 저장된 위치 정보에 기초하여 상기 터치 인터페이스를 통해 입력된 새로운 객체를 교정하는 단계를 포함할 수 있다.

Description

터치 오기 교정 방법 및 시스템{METHOD AND SYSTEM FOR CALIBRATING TOUCH ERROR}
아래의 설명은 터치 키보드(touch keyboard)를 이용하여 문자열을 입력하는 경우에, 사용자의 손가락 크기 및 모양에 따라 사용자가 의도한 객체와 다른 객체가 인식됨에 따라 발생하는 터치 오기를 교정하는 기술에 관한 것이다.
최근 스마트폰(smart phone), 태블릿(tablet) 등과 같이 휴대가 간편한 작은 크기의 전자 기기에서 무선 인터넷 채팅, 문자, 메일 송수신, 문서 작성 등에 이르기까지 종래의 데스크탑 PC에서 수행하던 다양한 기능들이 수행 가능해지고 있다. 스마트폰이나 태블릿과 같은 휴대용 전자 기기의 경우, 휴대가 간편해야 하고, 크기가 작아야 하는 특성으로 인해, 사용자들은 물리적인 키보드나 마우스 등의 입출력 장치를 별도로 이용하기 보다 다양한 기능들을 수행하기 위한 입출력 장치로서 터치 키보드를 선호한다.
터치 키보드를 이용하는 경우, 사용자 마다 손가락의 크기, 손끝의 솟아오른 포인트, 손가락의 누르는 곳의 경계 등이 다르기 때문에, 사용자가 터치하여 시스템에서 인식한 문자가 사용자가 터치하려고 의도한 문자와 상이한 경우가 종종 발생한다. 또한, 왼손 터치이지, 오른손 터치인지에 따라서도 사용자가 의도한 문자와 시스템에서 인식된 문자가 상이한 경우, 즉, 포인팅이 어긋나는 경우가 자주 발생한다.
이처럼, 포인팅이 어긋남에 따라 사용자들이 의도한 객체가 시스템에서 인식될 때까지 터치를 계속 시도하여 UX의 편리성 저하되고, UX의 편리성 저하로 인해 사용자들은 해당 전자 기기의 사용에 불편함을 느끼고, 결국에는 해당 전자 기기를 변경하는 경우가 발생한다. 예컨대, 디스플레이 화면이 크거나, 물리적인 키보드를 요구하게 된다. 이에 따라, 포인팅이 어긋나더라도 오류(즉, 터치 오기)를 확인하고 시스템에서 자동으로 교정하는 기술이 요구된다.
한국공개특허 제10-2008-0029028호는 터치 스크린을 갖는 단말기의 문자 입력 방법에 관한 것으로, 가상 키보드의 특정 키에 터치 기구가 근접하면 특정 키를 중심으로 주변 영역을 확대하여 표시하여 특정 키를 선택하는 과정에서 발생될 수 있는 터치 오류에 따른 입력 오류를 감소시키는 기술을 개시하고 있다.
터치 키보드를 이용하여 객체를 선택하기 위한 터치 입력이 발생한 경우에 사용자가 입력을 의도한 타겟 객체와 다른 객체(예컨대, 타겟 객체와 인접한 객체)가 인식됨에 따른 터치 인식 오기를 시스템에서 자동으로 교정하는 방법 및 시스템을 제공하고자 한다.
또한, 사용자의 손가락 모양 및 크기에 따라 동일한 특정 객체(문자, 숫자, 기호 등)과 관련하여 상이한 위치(즉, 포인트)를 터치하는 정보를 수집하고, 수집된 정보를 기반으로 학습을 통해 사용자 별로 최적화된 교정을 수행하기 위한 것이다.
또한, 오른손 터치 및 왼손 터치, 터치 키보드의 섹션 별(예컨대, 중심 섹션, 에지 섹션 등)로 구분하여, 보다 정교하게 터치 오기를 교정하여 터치감을 향상시키기 위한 것이다.
컴퓨터에 의해 실행되는 터치 오기 교정 방법에 있어서, 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스를 통해 입력된 적어도 하나의 객체를 인식하는 단계, 인식된 상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계, 인식된 상기 객체에 해당하는 위치 정보와 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 저장하는 단계, 및 상기 연관하여 저장된 위치 정보에 기초하여 상기 터치 인터페이스를 통해 입력된 새로운 객체를 교정하는 단계를 포함할 수 있다.
컴퓨터에 의해 실행되는 터치 오기 교정 시스템에 있어서, 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스를 통해 입력된 적어도 하나의 객체를 인식하는 객체 인식부, 인식된 상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 타겟 객체 판단부, 인식된 상기 객체에 해당하는 위치 정보와 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 저장하는 저장 제어부, 및 상기 연관하여 저장된 위치 정보에 기초하여 상기 터치 인터페이스를 통해 입력된 새로운 객체를 교정하는 교정부를 포함할 수 있다.
컴퓨터로 구현되는 전자 기기와 결합되어 터치 오기 교정 방법을 실행시키기 위해 기록매체에 저장된 컴퓨터 프로그램에 있어서, 상기 터치 오기 교정 방법은, 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스를 통해 입력된 적어도 하나의 객체를 인식하는 단계, 인식된 상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계, 인식된 상기 객체에 해당하는 위치 정보와 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 저장하는 단계, 및 상기 연관하여 저장된 위치 정보에 기초하여 상기 터치 인터페이스를 통해 입력된 새로운 객체를 교정하는 단계를 포함할 수 있다.
터치 키보드를 이용하여 객체를 선택하기 위한 터치 입력이 발생한 경우에 사용자가 입력을 의도한 타겟 객체와 다른 객체(예컨대, 타겟 객체와 인접한 객체)가 인식됨에 따른 터치 인식 오기를 시스템에서 자동으로 교정함으로써, 사용자가 자신이 의도한 객체를 시스템에서 인식할 때까지 계속하여 특정 객체를 터치하는 불편함이 해소되도록 UI(User Interface)/UX(User Experience)의 편리성을 향상시킬 수 있다.
또한, 사용자의 손가락 모양 및 크기에 따라 동일한 특정 객체(문자, 숫자, 기호 등)과 관련하여 상이한 위치(즉, 포인트)를 터치하는 정보를 수집하고, 수집된 정보를 기반으로 학습을 통해 재반영함으로써, 사용자 별로 최적화된 교정을 수행할 수 있다.
또한, 오른손 터치 및 왼손 터치, 터치 키보드의 섹션 별(예컨대, 중심 섹션, 에지 섹션 등)로 구분하여, 보다 정교하게 터치 오기를 교정하여 터치감을 향상시킬 수 있다.
도 1은 본 발명의 일실시예에 있어서, 터치 오기 교정 시스템의 내부 구성을 도시한 도면이다.
도 2는 본 발명의 일실시예에 있어서, 가상의 터치 키보드의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 터치 오기 교정 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이다.
도 4는 본 발명의 일실시예에 따른 터치 오기 교정 방법의 예를 도시한 흐름도이다.
도 5는 본 발명의 일실시예에 있어서, 가상의 터치 키보드를 통해 선택된 객체를 인식하는 동작을 설명하기 위해 제공되는 도면이다.
도 6은 본 발명의 일실시예에 있어서, 가상의 터치 키보드를 통해 선택된 객체의 터치 방향을 인식하는 동작을 설명하기 위해 제공되는 도면이다.
도 7은 본 발명의 일실시예에 있어서, 인식된 객체가 사용자가 입력을 의도한 타겟 객체인지 여부를 판단하는 동작을 설명하기 위해 제공되는 도면이다.
도 8은 본 발명의 일실시예에 있어서, 학습을 통해 생성된 보정 정보를 기반으로 오터치된 객체를 사용자가 입력을 의도한 타겟 객체로 자동 교정하는 동작을 설명하는 흐름도이다.
도 9는 본 발명의 일실시예에 있어서, 보정 정보에 기초하여 객체를 교정하는 동작을 설명하기 위해 터치 키보드가 표시되는 화면 구성을 도시한 도면이다.
도 10은 본 발명의 일실시예에 있어서, 섹션 별로 보정 정보를 생성하는 동작을 설명하기 위해 터치 키보드가 표시되는 화면 구성을 도시한 도면이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
본 실시예들은 가상의 터치 키보드를 이용하여 객체를 선택 시, 선택된 객체의 터치 오기를 교정하는 기술에 관한 것으로서, 특히, 사용자 터치를 통해 시스템에서 인식된 객체와 사용자가 입력을 의도한 타겟 객체가 상이함에 따른 터치 오기를 시스템에서 자동으로 교정하는 기술에 관한 것이다. 예를 들어, 사용자가 2차원 배열로 객체들이 배치된 가상의 터치 키보드 상에서 특정 객체를 선택한 이후 일정 시간 이내에 상기 특정 객체를 삭제한 경우에 해당 객체를 사용자가 의도한 객체와 다른 오터치 객체로 판단하고, 오터치 객체와 관련된 위치 정보들을 수집 및 수집된 정보들을 기반으로 학습을 수행하여, 이후에 오터치된 위치가 입력된 경우에 학습된 위치 정보를 기반으로, 오터치된 위치에 해당하는 객체를 사용자가 의도한 객체로 시스템에서 자동으로 교정하는 기술에 관한 것이다.
본 실시예들에서, '터치 키보드(touch keyboard)'는 전자 기기의 화면에 표시되는 2차원 배열의 가상의 키보드로서, 물리적인 키보드에 속하는 문자, 숫자, 기호 등의 객체들이 2차원 배열의 터치 키보드에 배치될 수 있다.
본 실시예들에서, '타겟 객체'는 터치 키보드 상에 배치된 복수의 객체들 중에서 사용자가 입력을 의도한 객체를 나타낼 수 있다. 그리고, '인접 객체'는 2차원 배열의 터치 키보드에 배치된 복수의 객체들 중 사용자가 입력을 의도한 객체, 즉, 타겟 객체와 미리 정의된 범위 내에서 이웃하는 객체들을 나타낼 수 있다. 예컨대, 사용자가 'ㅂ'을 누르고자 한 경우, '타겟 객체'는 'ㅂ'을 나타낼 수 있으며, 인접 객체는 'ㅂ'과 이웃하는 객체인 'ㅈ', 'ㅁ' 등을 나타낼 수 있다.
본 실시예들에서, '전자 기기의 디스플레이'는 전자 기기의 화면에 표시되는 가상의 터치 키보드에 배치된 객체들이 터치 선택됨을 인식(sensing)하기 위해, ITO 투명 전극필름이 표면에 부착하고 있을 수 있다.
도 1은 본 발명의 일실시예에 있어서, 터치 오기 교정 시스템의 내부 구성을 도시한 도면이다.
도 1을 참고하면, 전자 기기(100)는 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말로서, 터치 오기 교정 시스템을 나타낼 수 있다. 전자 기기(100)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 전자 기기(100)는 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 서버 또는 다른 전자 기기와 통신할 수 있다.
도 1에 따르면, 전자 기기인 터치 오기 교정 시스템(100)은 메모리(110), 프로세서(120), 통신 모듈(130) 그리고 입출력 인터페이스(140)를 포함할 수 있다. 메모리(110)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드(일례로, 터치 오기 교정 시스템 (100))에 설치되어 구동되는 브라우저, 키보드 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism)을 이용하여 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(130)을 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 서버)이 네트워크를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 어플리케이션)에 기반하여 메모리(110)에 로딩될 수 있다.
프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 모듈(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(130)은 네트워크를 통해 터치 오기 교정 시스템(100)과 서버 또는 다른 전자 기기가 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 터치 오기 교정 시스템(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청(일례로 가상의 터치 키보드를 통해 입력된 객체를 기반으로 제공되는 문자, 채팅, 키워드 검색 등의 서비스를 위한 요청)이 통신 모듈(130)의 제어에 따라 네트워크를 통해 서버로 전달될 수 있다.
입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수 있으며, 입출력 인터페이스(140)는 터치 인터페이스로 표현될 수도 있다. 보다 구체적인 예로, 터치 오기 교정 시스템(100)의 프로세서(120)는 메모리(110)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(140)를 통해 디스플레이에 표시되도록 제어할 수 있다.
또한, 다른 실시예들에서 터치 오기 교정 시스템(100)은 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 터치 오기 교정 시스템(100)은 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 터치 오기 교정 시스템(100)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 터치 오기 교정 시스템(100)에 더 포함되도록 구현될 수 있음을 알 수 있다.
본 발명의 실시예들에 따른 터치 오기 교정 시스템은 어플리케이션이 실행되는 장치에 구현될 수 있다. 다시 말해, 본 발명의 실시예들에 따른 터치 오기 교정 방법은 어플리케이션이 설치 및 구동되는 모든 장치에서 실행될 수 있다. 이후에서는 설명의 편의를 위해 전자 기기인 터치 오기 교정 시스템(100)에 어플리케이션의 설치 및 구동을 위한 패키지 파일이 저장되고, 터치 오기 교정 시스템(100)에 구현되는 터치 오기 교정 시스템을 통해 터치 오기 교정 방법이 수행되는 실시예를 설명한다.
본 발명의 실시예들에서는 한글기반의 터치 키보드를 대상으로 터치 오기를 교정하는 방법을 예로 들어 설명하나, 이는 실시예에 해당되며, 상기 터치 키보드는 한글 이외에, 영문, 한자, 아랍어 등의 다양한 언어를 기반으로 하는 터치 키보드를 포함할 수 있다.
도 2는 본 발명의 일실시예에 있어서, 가상의 터치 키보드의 예를 도시한 도면이다.
도 2를 참고하면, 가상의 터치 키보드는 전자 기기의 종류에 따라 다양한 형태로 제공될 수 있다.
일례로, 전자 기기가 태블릿(tablet)인 경우, 가상의 터치 키보드(210)는 물리적인 키보드에 배치된 객체들이 2차원 배열로 배치되는 형태로 제공될 수 있다. 예컨대, 문자, 숫자, 기호, 방향 키, ESC 키, capslock 키, ctrl 키, alt 키, enter 키, del 키, tap 키 등이 2차원 배열의 가상 터치 키보드(210)에 배치될 수 있다.
다른 예로, 전자 기기가 스마트폰(smart phone)인 경우, 가상의 터치 키보드(220)는 물리적인 키보드에 배치된 객체들을 나타내는 키들 중 스마트폰 등에서 자주 이용하지 않는 키를 제외한 키들을 나타내는 객체들이 2차원 배열로 배치될 수 있다. 예컨대, 가상의 터치 키보드(220)에 문자, 숫자, 기호, 스페이스(space), 백스페이스(back space) 등을 나타내는 키가 배치될 수 있다. 다시 말해, ESC 키, capslock 키, ctrl 키, alt 키, tap 키와 같이 스마트폰에서 이용도가 낮은 키들은 스마트폰 등의 전자기기의 화면에 표시되는 가상의 터치 키보드(220)에서 제외될 수 있다.
도 3은 본 발명의 일실시예에 따른 터치 오기 교정 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 4는 본 발명의 일실시예에 따른 터치 오기 교정 방법의 예를 도시한 흐름도이다.
도 3에 도시된 바와 같이 터치 오기 교정 시스템(100)에 포함된 프로세서(120)는 구성요소들로서, 객체 인식부(310), 타겟 객체 판단부(320), 저장 제어부(330), 및 교정부(340)를 포함할 수 있다. 그리고, 타겟 객체 판단부(320), 저장 제어부(330), 및 교정부(340)는 도4의 각 단계들(410 내지 440 단계)을 수행하기 위해 이용될 수 있다.
410 단계에서, 객체 인식부(310)는 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스(즉, 입출력 인터페이스)를 통해 입력된 적어도 하나의 객체를 인식할 수 있다.
일례로, 객체 인식부(310)는 전자 기기인 터치 오기 교정 시스템(100)의 화면 상에 표시된 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들 중 사용자가 손가락 또는 터치 기구를 통해 누르거나 터치하는 등의 동작을 통해 선택한 객체의 위치 정보를 기반으로, 위치 정보에 해당하는 객체를 인식할 수 있다. 이때, 터치된 객체의 인식을 위해 가상의 터치 키보드에 2차원 배열로 배치된 복수의 객체들 각각은 해당 객체가 커버(cover)하는 위치 정보들을 매칭하여 데이터베이스에 미리 저장 및 유지할 수 있다.
420 단계에서, 타겟 객체 판단부(320)는 인식된 객체가 사용자가 입력을 의도한 타겟 객체(target object)에 해당하는지 여부를 판단할 수 있다. 즉, 타겟 객체 판단부(320)는 터치 키보드 상에서 사용자가 원래 누르고자 한 객체가 인식되었는지 여부를 판단할 수 있다. 예컨대, 사용자가 입력을 의도한 객체가 'ㅂ'인 경우, 인식된 객체 역시 'ㅂ'인지, 아니면 'ㅂ'과 다른 객체(예컨대, ㅈ, ㅁ, ㄴ 등과 같이 터치 키보드 상에서 ㅂ과 인접한 객체)인지 여부를 판단할 수 있다.
421 단계에서, 타겟 객체 판단부(320)는 객체가 인식된 이후, 미리 정의된 일정 시간 이내에 상기 인식된 객체를 대상으로 삭제(del 또는 backspace등을 이용한 삭제)가 발생하였는지 여부에 기초하여 상기 인식된 객체가 타겟 객체인지, 아니면 잘못 터치된 객체(즉, 오터치된 객체)인지 여부를 결정할 수 있다. 여기서, 오터치된 객체는 사용자가 입력을 의도한 객체와 다른 객체에 속하는 위치 정보가 터치되어 인식되는 경우를 나타낼 수 있다.
422 단계에서, 인식된 객체가 사용자가 입력을 의도한 타겟 객체가 아닌 것으로 판단된 경우, 타겟 객체 판단부(320)는 상기 인식된 객체를 대신하여 입력된 인접 객체(즉, 인식된 객체와 미리 정의된 일정 범위나 거리 이내에 해당하는 이웃 객체)를 타겟 객체로 결정할 수 있다. 인식된 객체가 타겟 객체인 것으로 판단된 경우, 타겟 객체 판단부(320)는 인식된 객체를 타겟 객체로 결정할 수 있다.
430 단계에서, 저장 제어부(330)는 인식된 객체에 해당하는 위치 정보와 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 데이터베이스에 저장할 수 있다.
예를 들어, 저장 제어부(330)는 터치 인터페이스를 통해 사용자에 의해 선택된 터치 위치에 해당하는 객체(즉, 인식된 객체)의 위치 정보가 데이터베이스에 저장되도록 제어할 수 있다. 이때, 인식된 객체가 타겟 객체가 아닌 것으로 판단되고, 인식된 객체를 대신하여 인접 객체가 입력된 경우, 저장 제어부(330)는 인접 객체의 위치 정보를 상기 인식된 객체의 위치 정보와 매칭하여 데이터베이스에 저장되도록 제어할 수 있다. 데이터베이스에는 오터치 인식이 발생할 때마다 오터치로 인식된 객체의 위치 정보와 인접 객체(즉, 오터치로 인식된 객체의 타겟 객체)의 위치 정보를 연관하여 누적 저장할 수 있다. 그러면, 누적 저장된 위치 정보들은 학습 알고리즘을 이용하여 학습을 수행함으로써, 사용자 별 터치 입력 교정을 위해 이용될 수 있다.
440 단계에서, 교정부(340)는 데이터베이스에 연관하여 저장된 위치 정보들에 기초하여 터치 인터페이스를 통해 입력된 새로운 객체를 교정할 수 있다.
일례로, 터치 인터페이스를 통해 입력되어 인식된 새로운 객체의 위치 정보가 422 단계에서 사용자가 입력을 의도한 타겟 객체가 아닌 객체(즉, 오터치된 객체)의 위치 정보에 해당하는 경우, 교정부(340)는 상기 새로운 객체를 상기 오터치된 객체의 위치 정보와 연관하여 저장된 인접 객체(즉, 오터치된 객체의 타겟 객체)의 위치 정보를 기반으로, 상기 새로운 객체를 사용자가 입력을 의도한 타겟 객체로 교정할 수 있다. 예컨대, 인식된 새로운 객체가 'ㅈ'이고, 이전에도 'ㅂ'을 입력하고자 하였으나 오터치로 인해 'ㅈ'이 인식되고, 이전에 오터치로 인해 'ㅈ'으로 인식된 위치 정보가 상기 인식된 새로운 객체 'ㅈ'의 위치 정보에 해당하는 경우, 교정부(340)는 새로운 객체 'ㅈ'을 'ㅂ'으로 자동 교정할 수 있다. 즉, 사용자의 손가락 크기, 두께, 손톱의 길이 또는 손끝의 솟아오른 포인트로 인해 'ㅂ'을 누르고자 하는 경우에 지속적으로 'ㅈ'에 속하는 위치 정보에 해당하는 포인트를 터치함을 시스템에서 판단하고, 오터치로 인해 사용자의 입력 의도와는 다르게 인식된 객체를 사용자가 입력을 의도한 객체로 자동 교정하여 제공할 수 있다. 그러면, 사용자가 자신이 입력을 의도한 객체가 커버(cover)하는 영역과 인접한 영역의 위치를 터치하거나, 상기 커버하는 영역과 인접한 영역을 중첩하여 터치하더라도 시스템에서 자동으로 교정하여 사용자가 입력을 의도한 객체를 화면 상에 표시할 수 있다.
도 5는 본 발명의 일실시예에 있어서, 가상의 터치 키보드를 통해 선택된 객체를 인식하는 동작을 설명하기 위해 제공되는 도면이고, 도 6은 본 발명의 일실시예에 있어서, 가상의 터치 키보드를 통해 선택된 객체의 터치 방향을 인식하는 동작을 설명하기 위해 제공되는 도면이다.
도 5를 참고하면, 터치 오기 교정 시스템의 디스플레이에는 사용자의 손가락 또는 터치 기구 등을 이용하여 발생하는 화면 상의 터치를 인식하기 위한 투명전극필름을 포함할 수 있다.
객체 인식부(310)는 화면(510)에 부착된 투명전극필름을 통해 화면 상의 특정 위치(예컨대, 화면 상에 표시되는 특정 객체에 해당하는 위치, 511)가 터치 선택됨에 따라 발생하는 정전용량의 변화를 센싱할 수 있다. 그리고, 객체 인식부(310)는 센싱된 정전용량(즉, 정전압)의 변화를 기반으로 형성된 영역의 무게중심값을 계산할 수 있다. 예컨대, 화면(510) 상에서 'ㅂ'을 선택하기 위해 특정 위치(511)가 터치된 경우, 터치가 발생함에 따라 터치된 면적에 해당하는 정전압(즉, 정전기)가 발생할 수 있다. 그러면, 객체 인식부(310)는 발생한 정전압에 해당하는 가상의 터치 영역(520)에서 무게 중심값을 계산하고, 계산된 무게중심값에 해당하는 위치(521)와 매칭하는 객체를 결정함으로써, 터치된 포인트에 해당하는 객체를 인식할 수 있다. 즉, 객체 인식부(310)는 2차원 배열의 터치 키보드에 배치된 복수의 객체들 중 상기 계산된 무게중심값에 해당하는 위치와 매칭하는 객체를 결정함으로써, 터치 인터페이스를 통해 입력된 객체를 인식할 수 있다. 이처럼, 터치된 객체의 인식을 위해 가상의 터치 키보드에 2차원 배열로 배치된 복수의 객체들 각각은 해당 객체가 커버(cover)하는 위치 정보들을 매칭하여 데이터베이스에 미리 저장 및 유지할 수 있다.
객체 인식부(310)는 터치로 인해 발생한 정전 용량의 변화를 나타내는 터치 영역의 모양에 기초하여 터치 방향을 인식할 수 있다.
도 6을 참고하면, 2차원 배열의 터치 키보드에 배치된 복수의 객체들 중 어느 하나의 객체에 대해 터치(touch)가 발생한 경우, 객체 인식부(310)는 터치로 인해 발생하는 정전용량의 변화를 기반으로 가상의 터치 영역(611, 621)을 생성할 수 있다. 그러면, 객체 인식부(310)는 터치 영역(611, 621) 내의 가장 긴 직경, 면적, 각도, 기울기 등에 기초하여 오른손 터치인지 왼손 터치인지를 나타내는 터치 방향을 인식할 수 있다.
일례로, 객체 인식부(310)는 터치 영역(612, 621)에서 가장 긴 직경에 해당하는 직선(612, 622)과 기정의된 기준선(613, 623)이 이루는 각도(Θ)에 기초하여 오른손 터치인지 또는 왼손 터치에 해당하는지 여부를 인식할 수 있다. 예컨대, 상기 각도(Θ)가 예각인 경우, 오른손 터치, 상기 각도(Θ)가 둔각인 경우, 왼손 터치로 결정할 수 있다.
다른 예로, 터치 영역(611, 621)에서 가장 긴 직경에 해당하는 직선(612, 622)을 기준으로 좌측의 면적이 더 큰 경우, 객체 인식부(310)는 터치 방향을 왼손(즉, 터치 입력된 손가락을 왼손 손가락)으로 인식할 수 있다. 그리고, 터치 영역(611, 621)에서 가장 긴 직경에 해당하는 직선(612, 622)을 기준으로 우측의 면적이 더 큰 경우, 객체 인식부(310)는 터치 방향을 오른손(즉, 터치 입력된 손가락을 왼손 손가락)으로 인식할 수 있다.
그러면, 인식된 터치 방향을 나타내는 정보는 인식된 객체의 위치 정보와 함께 매칭되어 데이터베이스에 저장될 수 있다. 예컨대, 인식된 객체가 오터치된 객체인 경우, 오터치된 객체의 위치 정보, 오터치된 객체를 대신하여 입력된 인접 객체(즉, 타겟 객체)의 위치 정보와 함께 터치 방향 정보(예컨대, 왼손 손가락 터치, 오른손 손가락으로 터치 여부를 나타내는 정보)가 매칭되어 저장될 수 있다.
도 7은 본 발명의 일실시예에 있어서, 인식된 객체가 사용자가 입력을 의도한 타겟 객체인지 여부를 판단하는 동작을 설명하기 위해 제공되는 도면이다.
도 7에서는 사용자가 '안녕'을 입력하고자 함을 가정하여 설명하기로 한다.
도 7을 참고하면, '안녕'을 입력하기 위해 'ㅇ'을 입력하기를 의도하였으나, 를 의도하였으나, 'ㅇ'이 커버(cover)하는 전체 영역(712) 중 일부인 좌측 하단 영역(713) 및 'ㄴ'이 커버하는 전체 영역(711) 중 일부인 우측 하단 영역(714)이 함께 터치될 수 있다. 이때, 터치로 인해 발생되는 정전압 및 무게중심법에 기초하여 계산된 터치된 위치가 'ㄴ'이 커버하는 전체 영역(711)에 속하는 적어도 하나의 위치 정보에 대응하는 경우, 'ㄴ'으로 인식될 수 있다. 그러면, 저장 제어부(330)는 인식된 객체 'ㄴ'의 위치 정보(예컨대, 상기 무게중심법에 기초하여 계산된 위치 정보)가 데이터베이스에 저장되도록 제어할 수 있다. 그리고, 저장 제어부(330)는 연속하여 입력 및 인식된 'ㅏ' 및 'ㄴ'의 위치 정보가 데이터베이스에 저장되도록 제어할 수 있다. 이때, 화면 710에는 인식된 '난'이 디스플레이될 수 있다.
그러면, 화면 710을 통해 사용자가 자신이 의도한 객체와 다른 객체가 입력되었음을 인식하고 삭제에 해당하는 객체(예컨대, backspace, del에 해당하는 가상의 터치 키)를 선택하여, 잘못 인식된 객체를 삭제할 수 있다. 이때, 타겟 객체 판단부(320)는 인식된 'ㄴ', 'ㅏ' 및 'ㄴ'를 대상으로 몇 번의 삭제가 발생하는지 여부를 확인하여 인식된 상기 3개의 객체들 중 어떤 객체가 오터치된 객체인지를 판단할 수 있다. 예컨대, 세 번의 삭제 동작이 수행되고, 첫 번째 'ㄴ'을 대신하여, 'ㄴ'과 인접한 객체인 'ㅇ'이 입력된 경우, 타겟 객체 판단부(320)는 상기 인식된 3개의 객체들 중 첫 번째 'ㄴ'이 타겟 객체가 아닌 오터치된 객체인 것임을 결정할 수 있다. 이처럼, 타겟 객체 판단부(320)는 삭제 동작, 삭제된 객체를 대신하여 입력된 객체가 삭제된 객체와 인접한 객체인지를 확인하고, 화면 720과 같이, 상기 삭제된 객체를 대신하여 입력된 인접 객체 'ㅇ' 이후에 연속하여 순차적으로 입력되는 객체 'ㅏ' 및 'ㄴ'가 삭제된 객체 'ㄴ'과 연속하여 순차적으로 입력된 객체 'ㅏ' 및 'ㄴ'와 동일한지 여부를 확인하여, 해당 객체가 오터치된 객체인지 타겟 객체인지 여부를 결정할 수 있다. 상기 인식된 'ㅇ', 'ㅏ' 및 'ㄴ'을 대상으로, 삭제 동작이 발생하지 않고 미리 정의된 일정시간 동안 유지되면, 타겟 객체 판단부(320)는 해당 객체들이 사용자가 입력을 의도한 타겟 객체에 해당하는 것으로 결정할 수 있다.
마찬가지로, 화면 710에서, 상기 인식된 'ㄴ', 'ㅏ' 및 'ㄴ'을 대상으로 삭제 동작이 발생하지 않고, 인식된 'ㄴ', 'ㅏ' 및 'ㄴ'이 미리 정의된 일정시간 동안 유지되면, 타겟 객체 판단부(320)는 해당 객체들이 사용자가 입력을 의도한 타겟 객체에 해당하는 것으로 결정할 수 있다.
이처럼, 오터치된 객체의 위치 정보와 오터치된 객체와 관련하여 사용자가 원래 입력을 의도한 타겟 객체의 위치 정보가 매칭하여 데이터베이스에 누적 저장될 수 있다. 그러면, 누적 저장된 위치 정보들에 기초하여 해당 사용자가 터치 키보드 상의 객체들을 터치할 때마다 우측 하단, 우측 상단, 좌측 하단, 좌측 상단, 또는 좌/우측 중심 부분을 주로 터치하는지 여부가 학습을 통해 확인될 수 있으며, 확인된 결과에 기초하여 보정 정보를 생성하여 이후 입력된 새로운 객체를 대상으로 교정을 수행할 수 있다.
도 8은 본 발명의 일실시예에 있어서, 학습을 통해 생성된 보정 정보를 기반으로 오터치된 객체를 사용자가 입력을 의도한 타겟 객체로 자동 교정하는 동작을 설명하는 흐름도이다.
도 8에서, 각 단계들(810 내지 820)은 도 3에서 설명한 교정부(340)에 의해 수행될 수 있다. 도 8에서는 가상의 터치 키보드에 2차원 배열로 배치된 복수의 객체들 각각에 해당하는 표시 정보(예컨대, 키 버튼)가 가로
Figure 112017036124053-pat00001
세로 1cm
Figure 112017036124053-pat00002
1cm의 크기를 갖는 경우를 예로 들어 설명하기로 한다. 여기서, 1cm는 예시에 해당하며, 복수의 객체들 각각에 해당하는 표시 정보의 크기는 가상의 터치 키보드가 디스플레이되는 화면의 크기에 따라 1cm 보다 작거나 클 수 있으며, 가로 및 세로의 길이가 서로 상이할 수도 있다. 그리고, 객체의 속성에 따라 표시 정보의 크기가 상이할 수도 있다. 예컨대, 자주 사용하는 엔터(enter)나, 스페이스(space)를 나타내는 객체의 표시 정보는 나머지 객체들의 표시 정보보다 클 수 있다.
810을 참고하면, 교정부(340)는 데이터베이스에 저장된 삭제된 객체를 대신하여 입력된 인접 객체의 위치 정보와 삭제된 객체의 위치 정보 간의 거리를 계산할 수 있다.
예를 들어, 도 9를 참고하면, '안녕'을 입력하고자 의도하였는데, '난'이 입력 되어 세 번의 삭제가 수행된 이후 'ㅇ'이 입력된 경우, 교정부(340)는 데이터베이스를 참고하여 'ㅇ'이 터치되어 인식된 위치 정보(예컨대, (4, 3.8), 911)와 상기 '난' 입력 시 첫 번째 'ㄴ'이 터치되어 인식된 위치 정보(예컨대, (4, 2.8), 912) 간의 거리 d(예컨대, 3.8-2.8= 1cm, 913)를 계산할 수 있다. 그리고, 교정부(340)는 미리 정의된 설정 비율과 상기 거리에 기초하여 보정 정보를 생성할 수 있다. 예컨대, 설정 비율은 1% 내지 100%의 범위 내에서 미리 설정될 수 있으며, 50%로 설정된 경우, 보정 정보는 0.5cm로 생성될 수 있다. 이때, 보정 정보는 학습을 통해 주기적으로 업데이트될 수 있다. 예컨대, 터치 입력이 발생하고, 오터치된 객체가 인식될 때마다 상기 거리가 지속적으로 계산되어 누적 저장될 수 있다. 그러면, 누적 저장된 거리의 평균값으로 보정 정보가 업데이트될 수 있다.
이때, 보정 정보는 객체 별로 생성될 수도 있고, 객체가 속하는 섹션(section) 별로 생성될 수도 있고, 터치 키보드 상에 배치된 모든 객체를 대상으로 하나의 보정 정보가 생성될 수도 잇다. 즉, 상기 생성된 보정 정보 0.5cm가 모든 객체들을 대상으로 교정을 위해 적용될 수도 있고, 특정 객체 별로 해당하는 보정 정보를 기반으로 교정이 수행될 수도 있다. 예컨대, 인식된 객체 'ㄴ'에 대해서는 0.5cm의 보정 정보가 생성되고, 인식된 객체 'ㅎ'에 대해서는 0.1cm의 보정 정보가 생성되는 등과 같이, 학습을 통해 모든 객체 별로 보정 정보가 생성될 수 있다. 이외에, 학습을 통해 섹션 별로 객체들이 그룹핑되어, 그룹 단위로 동일한 보정 정보가 생성될 수도 있다. 여기서, 섹션 별로 보정 정보를 생성하는 동작은 도 10을 참고하여 후술하기로 한다.
820 단계에서, 새로운 객체가 입력된 경우, 교정부(340)는 상기 계산된 거리를 기반으로 생성된 보정 정보를 기반으로 새로운 객체를 자동 교정할 수 있다.
821 단계에서, 교정부(340)는 생성된 보정 정보에 기초하여 새로운 객체의 위치 정보를 이동 보정함으로써 교정을 자동으로 수행할 수 있다.
예를 들어, 도 9를 참고하면, 교정부(340)는 터치 인터페이스를 통해 입력된 새로운 객체의 위치 정보(예컨대, (3, 1.8), 914)에 보정 정보에 해당하는 보정값(0.5cm)를 합산하여, 상기 새로운 객체의 위치 정보(914)를 합산된 결과에 해당하는 위치 정보(915)로 이동 보정할 수 있다. 그리고, 교정부(340)는 합산된 결과에 해당하는 위치 정보(915)에 기초하여 인식된 새로운 객체를 'ㅂ'에서 'ㅈ'으로 자동 교정할 수 있다. 마찬가지로, 다시 위치 정보 911이 무게중심값으로 계산되어 새로운 객체로서 'ㄴ'이 인식된 경우, 교정부(340)는 위치 정보 911에 보정 정보에 해당하는 보정값(0.5cm)를 더하여, 상기 위치 정보 911을 위치 정보 912로 이동 보정할 수 있다. 그리고, 교정부(340)는 이동 보정된 위치 정보 912가 속하는 객체 'ㅇ'가 화면(910)에 표시되도록 제어할 수 있다. 즉, 사용자가 실제로는 위치 정보 911에 해당하는 부분을 터치하였으나, 학습을 기반으로 생성된 보정 정보에 기초하여 시스템에서 사용자가 입력을 의도한 객체를 파악하고 자동으로 객체 'ㄴ'을 객체 'ㅇ'으로 교정할 수 있다. 이때, 교정이 자동으로 수행됨에 따라 화면(910)에는 오터치된 객체 'ㄴ'가 표시되지 않고 바로 객체 'ㅇ'이 표시될 수 있다.
822 단계에서, 교정부(340)는 중심축을 기준으로 전체적으로 센싱 영역(즉, 키 입력 포지션)의 크기를 미리 정의된 기준 비율에 따라 단계적으로 축소하여 교정을 수행할 수도 있다. 이때, 축소는 사용자의 터치 감도를 방해하지 않는 범위 내에서 수행될 수 있다. 즉, 사용자가 터치 감도가 저하되었다고 인식하지 않는 범위 내에서 크기 축소가 이루어질 수 있다.
일례로, 터치 키보드 상에 배치된 객체들을 대상으로 발생하는 터치 입력을 센싱하기 위해 센싱 영역이 미리 설정될 수 있다. 예를 들어, 센싱 영역(921)은 특정 객체를 나타내는 표시 정보보다 일정 비율 크거나 해당 표시 정보의 크기만큼 설정될 수 있다. 이때, 사용자가 입력을 의도한 타겟 객체(예컨대, ㅂ)와 인접 객체(예컨대, ㅈ)의 터치를 인식하기 위한 센싱 영역이 가까워서 사용자가 입력을 의도한 타겟 객체가 인접 객체로 잘못 인식되는 경우가 발생할 수 있다. 이에 따라, 각 객체 별 중심 축(또는 중심 점, 922)을 기준으로 센싱 영역(923)의 크기를 미리 정의된 기준 비율에 따라 축소할 수 있다(즉, 센싱 영역의 크기가 923에서 924로 축소될 수 있다). 그리고, 교정부(340)는 크기가 축소된 센싱 영역(926)을 연관하여 저장된 위치 정보를 기반으로 이동할 수 있다. 이때, 교정부(340)는 중심축의 위치를 921에서 925로 이동함으로써, 크기가 축소된 센싱 영역(926)을 이동할 수 있다.
즉, 연관하여 저장된 위치 정보들을 기반으로 학습을 통해 사용자가 입력을 의도한 객체를 터치 시 실제로 타겟 객체의 중심 영역이 아닌 우측 하단 영역을 터치함이 파악될 수 있다. 그러면, 화면(920) 상에는 기존과 동일하게 터치 키보드에 2차원 배열로 배치된 객체들을 표시하고, 특정 객체를 터치하는 경우에 터치된 객체를 시스템에서 인식하는 센싱 영역(923)의 크기를 인접 객체의 센싱 영역에 방해되지 않는 범위 내에서 축소하고(924), 중심축(921)을 이동함으로써 크기가 축소된 센싱 영역(924)을 이동 보정할 수 있다. 이에 따라, 이후에 사용자가 입력을 의도한 객체가 'ㅂ'이었으나, 인식된 위치 정보가 927에 해당하더라도, 위치 정보 927의 센싱 영역(926)은 객체 'ㅂ'에 해당하므로, 사용자의 오터치에도 'ㅂ'이 인식되도록 교정할 수 있다. 여기서, 센싱 영역의 크기를 축소하고, 크기가 축소된 센싱 영역을 학습을 통해 파악한 사용자의 터치 습성에 따라 해당 방향으로 이동 보정하는 것으로 설명하였으나, 이는 실시예에 해당되며, 크기를 축소 보정하지 않고 센싱 영역의 크기를 그대로 유지한 채 센싱 영역을 이동 보정함으로써, 오터치된 객체에 대한 교정이 수행될 수도 있다.
이처럼, 시스템에서 사용자의 터치 습성을 학습을 통해 파악하여 보정 정보를 생성하고, 생성된 보정 정보를 기반으로 시스템에서 사용자가 입력을 의도한 객체를 파악하여 자동으로 교정을 수행하고, 교정된 객체를 화면 상에 디스플레이함으로써, 원하는 객체가 표시될 때까지 여러 번 삭제를 반복하지 않아도 되어 사용자의 터치 입력 편리성을 증가시킬 수 있다. 다시 말해, 터치감도를 높여 제품에 대한 호감도, 해당 터치 키보드를 제공하는 어플리케이션의 관심도를 증가시킬 수 있다.
도 10은 본 발명의 일실시예에 있어서, 섹션 별로 보정 정보를 생성하는 동작을 설명하기 위해 터치 키보드가 표시되는 화면 구성을 도시한 도면이다.
오터치된 객체의 위치 교정을 통해 사용자가 입력을 의도한 타겟 객체로 교정하기 위한 보정 정보는 도 8에서 설명한 바와 같이 터치 키보드에 배치된 모든 객체들을 대상으로 하나의 보정 정보가 생성될 수도 있고, 객체 별로 보정 정보가 생성될 수도 있다(즉, 객체 수만큼의 보정 정보 생성될 수 있음). 그리고, 학습을 통해 섹션 별로 객체들이 그룹핑되어, 그룹 단위로 동일한 보정 정보가 생성될 수도 있다.
도 10에서는 섹션 별로 보정 정보를 생성하는 동작에 대해 설명하기로 한다.
일례로, 학습을 통해 터치 키보드의 에지(edge), 즉 가장자리에 배치된 객체들과 관련하여 오터치가 기정의된 회수 이상 발생하고, 터치 키보드 상의 미리 정의된 가운데 영역에 배치된 객체들과 관련하여 오터치가 거의 발생하지 않는 경우(즉, 터치 정확도가 미리 정의된 기준 정확도 이상으로 높은 경우), 터치 키보드 상에 배치된 모든 객체들은 에지 섹션(edge section)에 속하는 객체들과 중심 섹션에 속하는 객체들로 분류될 수 있다. 예컨대, 터치 키보드(1010)에 배치된 모든 객체들이 에지 섹션(1011, 1012)에 해당하는 객체들 및 중심 섹션(1013)에 해당하는 객체들로 분류될 수 있다.
예컨대, 학습을 통해 에지 섹션(1011, 1012)에 배치된 객체들을 대상으로 오터치 발생 빈도가 높고, 중심 섹션(1013)에서는 오터치 발생 빈도가 낮음이 파악된 경우(즉, 터치 정확도가 높은 경우), 교정부(340)는 에지 섹션(1011, 1012)에 배치된 객체들과 관련하여 연관 저장된 위치 정보들을 기반으로 계산된 거리와 설정 비율에 기초하여 해당 섹션(즉, 에지 섹션)의 보정 정보(예컨대, 0.5cm 등)를 생성할 수 있다. 그러면, 생성된 보정 정보는 해당 섹션의 식별자 정보와 매칭하여 저장될 수 있다. 이때, 해당 섹션의 식별자 정보와 해당 섹션에 속하는 객체들을 나타내는 식별자 정보가 매칭되어 데이터베이스에 저장 및 유지될 수 있다.
그리고, 교정부(340)는 중심 섹션(1013)에 배치된 객체들과 관련하여 연관 저장된 위치 정보들을 기반으로 계산된 거리와 설정 비율에 기초하여 해당 섹션(즉, 중심 섹션)의 보정 정보(예컨대, 0.01cm, 0.1cm 등)를 생성할 수 있다. 그러면, 생성된 보정 정보는 해당 섹션의 식별자 정보와 매칭하여 저장될 수 있으며, 해당 섹션의 식별자 정보와 해당 섹션에 속하는 객체들을 나타내는 식별자 정보가 매칭되어 데이터베이스에 저장 및 유지될 수 있다.
이처럼, 보정 정보가 생성된 이후에 터치 인터페이스를 통해 입력된 새로운 객체가 인식되면, 교정부(340)는 인식된 새로운 객체의 식별자 정보에 기초하여 새로운 객체가 속하는 섹션을 확인할 수 있다. 그리고, 교정부(340)는 확인된 섹션의 식별자 정보와 매칭된 보정 정보에 기초하여 새로운 객체의 위치 정보를 이동 보정함으로써, 새로운 객체를 사용자가 입력을 의도한 객체로 교정할 수 있다.
이처럼, 에지와 중심 섹션으로 구분하는 것 이외에, 터치 키보드에 해당하는 영역이 좌상(left top) 에지 섹션, 우상(right top) 에지 섹션, 좌하(left bottom) 에지 섹션, 우하(right bottom) 에지 섹션, 중심 섹션 등과 같이 세부적으로 섹션이 구분되고, 섹션 별로 해당하는 객체들이 분류될 수도 있다. 그러면, 섹션 별로 누적 저장된 위치 정보들을 기반으로 섹션 별 보정 정보가 생성될 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터에 의해 실행되는 터치 오기 교정 방법에 있어서,
    2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스를 통해 입력된 적어도 하나의 객체를 인식하는 단계;
    인식된 상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계;
    인식된 상기 객체에 해당하는 위치 정보와 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 저장하는 단계; 및
    상기 연관하여 저장된 위치 정보에 기초하여 상기 터치 인터페이스를 통해 입력된 새로운 객체를 교정하는 단계
    를 포함하고,
    상기 객체를 인식하는 단계는,
    오른손 터치 및 왼손 터치 중 상기 인식된 객체에 해당하는 터치 방향을 결정하는 단계
    를 포함하고,
    상기 위치 정보를 연관하여 저장하는 단계는,
    터치 오기를 교정하기 위해 상기 인식된 객체에 해당하는 터치 방향을 나타내는 터치 방향 정보를 상기 인식된 객체에 해당하는 위치 정보 및 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보와 매칭하여 저장하는 것
    을 특징으로 하는 터치 오기 교정 방법.
  2. 제1항에 있어서,
    상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계는,
    상기 인식된 객체가 미리 정의된 일정 시간 이내에 삭제되고, 삭제된 객체를 대신하여 인접 객체가 입력된 경우, 상기 인식된 객체가 상기 타겟 객체에 해당하지 않는 것으로 판단하는 단계; 및
    상기 인접 객체를 상기 타겟 객체로 결정하는 단계
    를 포함하는 터치 오기 교정 방법.
  3. 제2항에 있어서,
    상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계는,
    상기 인식된 객체가 미리 정의된 일정 시간 동안 유지됨에 따라, 상기 타겟 객체에 해당하는 것으로 판단하는 단계
    를 더 포함하는 터치 오기 교정 방법.
  4. 제2항에 있어서,
    상기 새로운 객체를 교정하는 단계는,
    상기 인접 객체와 관련하여 인식된 위치 정보와 상기 삭제된 객체에 해당하는 위치 정보 간의 거리를 계산하는 단계; 및
    계산된 상기 거리에 기초하여 상기 새로운 객체를 교정하는 단계
    를 포함하는 터치 오기 교정 방법.
  5. 제1항에 있어서,
    상기 새로운 객체를 교정하는 단계는,
    상기 새로운 객체가 상기 사용자가 입력을 의도한 타겟 객체에 해당하지 않는 경우, 상기 연관하여 저장된 위치 정보에 기초하여 상기 새로운 객체에 해당하는 위치 정보를 이동 보정함으로써, 상기 새로운 객체를 상기 타겟 객체로 교정하는 것
    을 특징으로 하는 터치 오기 교정 방법.
  6. 제5항에 있어서,
    상기 위치 정보를 연관하여 저장하는 단계는,
    상기 새로운 객체가 상기 사용자가 입력을 의도한 타겟 객체에 해당하지 않는 경우, 상기 새로운 객체가 삭제되고 입력된 인접 객체에 해당하는 위치 정보와 상기 새로운 객체에 해당하는 위치 정보를 연관하여 저장하는 것
    을 특징으로 하는 터치 오기 교정 방법.
  7. 제1항에 있어서,
    상기 터치 방향을 결정하는 단계는,
    인식된 상기 객체에 해당하는 정전압에 기초하여, 상기 터치 방향을 결정하는 것
    을 특징으로 하는 터치 오기 교정 방법.
  8. 삭제
  9. 제1항에 있어서,
    상기 새로운 객체를 교정하는 단계는,
    상기 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 키보드에서의 배치 위치에 따라 섹션(section) 별로 구분하는 단계;
    상기 연관하여 저장된 위치 정보에 기초하여 상기 섹션 별로 보정 정보를 생성하는 단계; 및
    상기 새로운 객체가 속하는 섹션에 해당하는 보정 정보에 기초하여 상기 새로운 객체를 교정하는 단계
    를 포함하는 터치 오기 교정 방법.
  10. 컴퓨터에 의해 실행되는 터치 오기 교정 시스템에 있어서,
    2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스를 통해 입력된 적어도 하나의 객체를 인식하는 객체 인식부;
    인식된 상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 타겟 객체 판단부;
    인식된 상기 객체에 해당하는 위치 정보와 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 저장하는 저장 제어부; 및
    상기 연관하여 저장된 위치 정보에 기초하여 상기 터치 인터페이스를 통해 입력된 새로운 객체를 교정하는 교정부
    를 포함하고,
    상기 객체 인식부는,
    오른손 터치 및 왼손 터치 중 상기 인식된 객체에 해당하는 터치 방향을 결정하고,
    상기 저장 제어부는,
    터치 오기를 교정하기 위해 상기 인식된 객체에 해당하는 터치 방향을 나타내는 터치 방향 정보를 상기 인식된 객체에 해당하는 위치 정보 및 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보와 매칭하여 저장하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  11. 제10항에 있어서,
    상기 타겟 객체 판단부는,
    상기 인식된 객체가 미리 정의된 일정 시간 이내에 삭제되고, 삭제된 객체를 대신하여 인접 객체가 입력된 경우, 상기 인식된 객체가 상기 타겟 객체에 해당하지 않는 것으로 판단하는고, 상기 인접 객체를 상기 타겟 객체로 결정하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  12. 제11항에 있어서,
    상기 타겟 객체 판단부는,
    상기 인식된 객체가 미리 정의된 일정 시간 동안 유지됨에 따라, 상기 타겟 객체에 해당하는 것으로 판단하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  13. 제11항에 있어서,
    상기 교정부는,
    상기 인접 객체와 관련하여 인식된 위치 정보와 상기 삭제된 객체에 해당하는 위치 정보 간의 거리를 계산하고, 계산된 상기 거리에 기초하여 상기 새로운 객체를 교정하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  14. 제11항에 있어서,
    상기 교정부는,
    상기 새로운 객체가 상기 사용자가 입력을 의도한 타겟 객체에 해당하지 않는 경우, 상기 연관하여 저장된 위치 정보에 기초하여 상기 새로운 객체에 해당하는 위치 정보를 이동 보정함으로써, 상기 새로운 객체를 상기 타겟 객체로 교정하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  15. 제14항에 있어서,
    상기 저장 제어부는,
    상기 새로운 객체가 상기 사용자가 입력을 의도한 타겟 객체에 해당하지 않는 경우, 상기 새로운 객체가 삭제되고 입력된 인접 객체에 해당하는 위치 정보와 상기 새로운 객체에 해당하는 위치 정보가 연관하여 저장되도록 제어하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  16. 제10항에 있어서,
    상기 객체 인식부는,
    인식된 상기 객체에 해당하는 정전압에 기초하여, 상기 터치 방향을 결정하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  17. 삭제
  18. 제10항에 있어서,
    상기 교정부는,
    상기 2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 키보드에서의 배치 위치에 따라 섹션(section) 별로 구분하고, 상기 연관하여 저장된 위치 정보에 기초하여 상기 섹션 별로 보정 정보를 생성하고, 상기 새로운 객체가 속하는 섹션에 해당하는 보정 정보에 기초하여 상기 새로운 객체를 교정하는 것
    을 특징으로 하는 터치 오기 교정 시스템.
  19. 컴퓨터로 구현되는 전자 기기와 결합되어 터치 오기 교정 방법을 실행시키기 위해 기록매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 터치 오기 교정 방법은,
    2차원 배열로 구성된 가상의 터치 키보드에 배치된 복수의 객체들을 대상으로, 터치 인터페이스를 통해 입력된 적어도 하나의 객체를 인식하는 단계;
    인식된 상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계;
    인식된 상기 객체에 해당하는 위치 정보와 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보를 연관하여 저장하는 단계; 및
    상기 연관하여 저장된 위치 정보에 기초하여 상기 터치 인터페이스를 통해 입력된 새로운 객체를 교정하는 단계
    를 포함하고,
    상기 객체를 인식하는 단계는,
    오른손 터치 및 왼손 터치 중 상기 인식된 객체에 해당하는 터치 방향을 결정하는 단계
    를 포함하고,
    상기 위치 정보를 연관하여 저장하는 단계는,
    터치 오기를 교정하기 위해 상기 인식된 객체에 해당하는 터치 방향을 나타내는 터치 방향 정보를 상기 인식된 객체에 해당하는 위치 정보 및 상기 타겟 객체에 해당하는 적어도 하나의 위치 정보와 매칭하여 저장하는 것
    을 특징으로 하는 컴퓨터 프로그램.
  20. 제19항에 있어서,
    상기 객체가 사용자가 입력을 의도한 타겟 객체에 해당하는지 여부를 판단하는 단계는,
    상기 인식된 객체가 미리 정의된 일정 시간 이내에 삭제되고, 삭제된 객체를 대신하여 인접 객체가 입력된 경우, 상기 인식된 객체가 상기 타겟 객체에 해당하지 않는 것으로 판단하는 단계; 및
    상기 인접 객체를 상기 타겟 객체로 결정하는 단계
    를 포함하는 컴퓨터 프로그램.
KR1020170047890A 2017-04-13 2017-04-13 터치 오기 교정 방법 및 시스템 KR101919841B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170047890A KR101919841B1 (ko) 2017-04-13 2017-04-13 터치 오기 교정 방법 및 시스템
US15/951,751 US10572066B2 (en) 2017-04-13 2018-04-12 System and method for calibrating touch error
JP2018077801A JP6599504B2 (ja) 2017-04-13 2018-04-13 タッチエラー校正方法およびそのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170047890A KR101919841B1 (ko) 2017-04-13 2017-04-13 터치 오기 교정 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20180115831A KR20180115831A (ko) 2018-10-24
KR101919841B1 true KR101919841B1 (ko) 2018-11-20

Family

ID=63790026

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170047890A KR101919841B1 (ko) 2017-04-13 2017-04-13 터치 오기 교정 방법 및 시스템

Country Status (3)

Country Link
US (1) US10572066B2 (ko)
JP (1) JP6599504B2 (ko)
KR (1) KR101919841B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11609692B2 (en) * 2017-04-07 2023-03-21 Hewlett-Packard Development Company, L.P. Cursor adjustments
KR102355890B1 (ko) * 2019-11-28 2022-01-27 한국과학기술원 디코더 아키텍쳐, 그의 동작 방법 및 디코더를 이용하는 소프트 키보드

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066817A (ja) * 1998-08-20 2000-03-03 Nec Corp キーボード装置
JP2012247889A (ja) * 2011-05-26 2012-12-13 Nec Casio Mobile Communications Ltd 入力装置、検出領域修正方法及びプログラム
KR101452191B1 (ko) * 2014-03-28 2014-10-22 주식회사 한글과컴퓨터 터치스크린 장치 및 상기 터치스크린 장치의 가상 키보드 터치 인식 영역 조정 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198481A (ja) 1997-01-06 1998-07-31 Yamaha Corp データ入力装置及び誤入力防止方法並びに誤入力防止プログラムを記録した媒体
JP2005267424A (ja) * 2004-03-19 2005-09-29 Fujitsu Ltd データ入力装置、情報処理装置、データ入力方法、データ入力プログラム
JP2006127488A (ja) * 2004-09-29 2006-05-18 Toshiba Corp 入力装置、コンピュータ装置、情報処理方法及び情報処理プログラム
KR20080029028A (ko) 2006-09-28 2008-04-03 삼성전자주식회사 터치 스크린을 갖는 단말기의 문자 입력 방법
JP4743267B2 (ja) 2008-12-12 2011-08-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20100302212A1 (en) * 2009-06-02 2010-12-02 Microsoft Corporation Touch personalization for a display device
KR101660842B1 (ko) 2009-11-05 2016-09-29 삼성전자주식회사 터치 입력 방법 및 그 장치
KR101296145B1 (ko) 2010-10-29 2013-08-19 서울대학교산학협력단 문자 입력 방법 및 장치
WO2012153374A1 (ja) * 2011-05-06 2012-11-15 富士通株式会社 情報処理装置,表示装置,キーサイズ変更プログラム,及びキーサイズ変更方法
JP2013073317A (ja) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 入力装置、入力方法及びプログラム
US9182860B2 (en) * 2012-02-08 2015-11-10 Sony Corporation Method for detecting a contact
JP5475821B2 (ja) * 2012-03-30 2014-04-16 みずほ情報総研株式会社 入力支援プログラム及び入力支援装置
JP5910345B2 (ja) 2012-06-21 2016-04-27 富士通株式会社 文字入力プログラム、情報処理装置および文字入力方法
US9348456B2 (en) 2013-06-27 2016-05-24 Korea Advanced Institute Of Science And Technology Determination of bezel area on touch screen
JP2017054378A (ja) * 2015-09-10 2017-03-16 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示方法、及びコンピュータが実行可能なプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066817A (ja) * 1998-08-20 2000-03-03 Nec Corp キーボード装置
JP2012247889A (ja) * 2011-05-26 2012-12-13 Nec Casio Mobile Communications Ltd 入力装置、検出領域修正方法及びプログラム
KR101452191B1 (ko) * 2014-03-28 2014-10-22 주식회사 한글과컴퓨터 터치스크린 장치 및 상기 터치스크린 장치의 가상 키보드 터치 인식 영역 조정 방법

Also Published As

Publication number Publication date
KR20180115831A (ko) 2018-10-24
US20180300014A1 (en) 2018-10-18
JP2018181346A (ja) 2018-11-15
US10572066B2 (en) 2020-02-25
JP6599504B2 (ja) 2019-10-30

Similar Documents

Publication Publication Date Title
US11416142B2 (en) Dynamic soft keyboard
US10528663B2 (en) Touch keyboard using language and spatial models
US9182846B2 (en) Electronic device and touch input control method for touch coordinate compensation
KR101602840B1 (ko) 스마트 사용자 커스터마이징된 가상 키보드
CN107132980B (zh) 触摸屏的多向校准
CN105229574A (zh) 减少基于触摸的键盘的错误率
US20170228041A1 (en) Input error-correction methods and apparatuses, and automatic error-correction methods, apparatuses and mobile terminals
JP5075997B2 (ja) 電子機器、プログラムおよび文字列認識方法
JP4851547B2 (ja) モード設定システム
US9489086B1 (en) Finger hover detection for improved typing
US9547639B2 (en) Typing error correction method and device implementing the same method
US20130271379A1 (en) Character input device and character input method
KR101919841B1 (ko) 터치 오기 교정 방법 및 시스템
JP6217459B2 (ja) 文字入力システム用のプログラムおよび情報処理装置
JP6011114B2 (ja) 文字入力装置、文字入力方法、及び文字入力プログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant