JP2018181346A - タッチエラー校正方法およびそのシステム - Google Patents

タッチエラー校正方法およびそのシステム Download PDF

Info

Publication number
JP2018181346A
JP2018181346A JP2018077801A JP2018077801A JP2018181346A JP 2018181346 A JP2018181346 A JP 2018181346A JP 2018077801 A JP2018077801 A JP 2018077801A JP 2018077801 A JP2018077801 A JP 2018077801A JP 2018181346 A JP2018181346 A JP 2018181346A
Authority
JP
Japan
Prior art keywords
touch
position information
target object
input
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018077801A
Other languages
English (en)
Other versions
JP6599504B2 (ja
Inventor
チョルジェ イム
Chul-Jae Lim
チョルジェ イム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NHN Corp
Original Assignee
NHN Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHN Entertainment Corp filed Critical NHN Entertainment Corp
Publication of JP2018181346A publication Critical patent/JP2018181346A/ja
Application granted granted Critical
Publication of JP6599504B2 publication Critical patent/JP6599504B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

【課題】タッチエラー校正方法およびシステムを提供する。
【解決手段】コンピュータによって実行されるタッチエラー校正方法であって、客体認識部が、2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェースに入力された少なくとも1つの客体を認識する段階、ターゲット客体判断部が、認識された客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階、格納制御部が、認識された客体に該当する位置情報とターゲット客体に該当する少なくとも1つの位置情報とを関連付けて格納する段階、および校正部が、関連付けて格納された位置情報に基づき、タッチインタフェースに入力された新たな客体を校正する段階を含む。
【選択図】図4

Description

本開示は、タッチキーボード(touch keyboard)を利用して文字列を入力する場合に、ユーザの指の大きさや形状によってユーザが意図した客体とは異なる客体が認識されることによって発生するタッチエラーを校正する技術に関する。
最近は、スマートフォン(smart phone)やタブレット(tablet)などのように、持ち運びに便利なコンパクトサイズの電子機器で、無線インターネットチャットはもちろん、メッセージやメールの送受信、ドキュメントの作成などに至るまで、従来、デスクトップパソコンで行っていた多様な機能の実行が可能となっている。スマートフォンやタブレットなどのような携帯用電子機器の場合は、持ち運びが便利であることに加え、コンパクトサイズでなければならないという特性により、ユーザは、物理的なキーボードやマウスなどの入力装置を利用するよりも、多様な機能を実行するための入力装置としてタッチキーボードを選好する傾向にある。
タッチキーボードを利用する場合、指の大きさや手先の膨らみ、指の押し場所の境界などがユーザごとに異なるため、ユーザのタッチによって認識された文字が、ユーザがタッチを意図した文字と異なる場合がたびたび発生する。さらに、左手でタッチするか右手でタッチするかによっても、ユーザが意図した文字とシステムで認識された文字が異なる場合、すなわち、ポインティングのずれが頻繁に発生する。
このように、ポインティングのずれにより、ユーザが意図した客体がシステムで認識されるまでタッチを続けなければならないため、UX(User Experience)の利便性が低下し、UXの利便性の低下によって、ユーザは該当の電子機器の使用に不便さを感じるようになり、最終的には該当の電子機器を変更する場合が発生する。例えば、ディスプレイ画面が大きい機器や、物理的なキーボードを求めるようになる。これにより、ポインティングがずれた場合には、エラー(すなわち、タッチエラー)を確認し、システムで自動的に校正する技術が求められている。
特許文献1は、タッチスクリーンを備えた端末機の文字入力方法に関するものであって、仮想キーボードの特定のキーにタッチ器具が接近すると、特定のキーを中心に周辺領域を拡大表示することにより、特定のキーを選択する過程において発生し得るタッチエラーによる入力エラーを減少させる技術を開示している。
韓国公開特許第10−2008−0029028号
タッチキーボードを利用して客体を選択するためのタッチ入力が発生した場合に、ユーザが入力を意図したターゲット客体とは異なる客体(例えば、ターゲット客体と隣接する客体)が認識されることによるタッチ認識エラーをシステムにて自動で校正する方法およびシステムを提供する。
また、ユーザの指の形状および大きさによって同じ特定の客体(文字、数字、記号など)と関連して相違する位置(すなわち、ポイント)をタッチする情報を収集し、収集された情報に基づいた学習によってユーザ別に最適化された校正を実行することを目的の一つとする。
さらに、右手でタッチするおよび左手でタッチする、タッチキーボードのセクション別(例えば、中心セクション、エッジセクションなど)に区分することで、精巧にタッチエラーを校正し、タッチ感を向上させることを目的の一つとする。
コンピュータによって実行されるタッチエラー校正方法であって、客体認識部が、2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェースに入力された少なくとも1つの客体を認識する段階、ターゲット客体判断部が、認識された客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階、格納制御部が、認識された客体に該当する位置情報とターゲット客体に該当する少なくとも1つの位置情報とを関連付けて格納する段階、および校正部が、関連付けて格納された位置情報に基づき、タッチインタフェースに入力された新たな客体を校正する段階を含んでいてもよい。
コンピュータによって実行されるタッチエラー校正システムであって、2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェースに入力された少なくとも1つの客体を認識する客体認識部、認識された客体が、ユーザが入力を意図したターゲット客体に該当するかを判断するターゲット客体判断部、認識された客体に該当する位置情報とターゲット客体に該当する少なくとも1つの位置情報とを関連付けて格納する格納制御部、および関連付けて格納された位置情報に基づき、タッチインタフェースに入力された新たな客体を校正する校正部を備えてもよい。
コンピュータで実現される電子機器と結合してタッチエラー校正方法を実行させるために記録媒体に格納されたコンピュータプログラムであって、タッチエラー校正方法は、客体認識部が、2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェースに入力された少なくとも1つの客体を認識する段階、ターゲット客体判断部が、認識された客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階、格納制御部が、認識された客体に該当する位置情報とターゲット客体に該当する少なくとも1つの位置情報とを関連付けて格納する段階、および校正部が、関連付けて格納された位置情報に基づき、タッチインタフェースに入力された新たな客体を校正する段階を含んでもよい。
タッチキーボードに客体を選択するためのタッチ入力が発生した場合に、ユーザが入力を意図したターゲット客体とは異なる客体(例えば、ターゲット客体と隣接する客体)が認識されることによるタッチ認識エラーをシステムにて自動で校正することにより、ユーザが自身の意図した客体をシステムが認識するまで継続して特定の客体をタッチするというような不便が解消されるように、UI(User Interface)/UX(User Experience)の利便性を向上させることができる。
また、ユーザの指の形状および大きさによって同じ特定の客体(文字、数字、記号など)と関連して相違する位置(すなわち、ポイント)をタッチする情報を収集し、収集された情報に基づいた学習によって再反映することにより、ユーザ別に最適化された校正を実行することができる。
さらに、右手でタッチするおよび左手でタッチする、タッチキーボードのセクション別(例えば、中心セクション、エッジセクションなど)に区分することで精巧にタッチエラーを校正し、タッチ感度を向上させることができる。
本発明の一実施形態における、タッチエラー校正システムの内部構成を示した図である。 本発明の一実施形態における、仮想のタッチキーボードの例を示した図である。 本発明の一実施形態における、タッチエラー校正システムのプロセッサが含むことのできる構成要素の例を示したブロック図である。 本発明の一実施形態における、タッチエラー校正方法の例を示したフローチャートである。 本発明の一実施形態における、仮想のタッチキーボードで選択された客体を認識する動作を説明するために提供される図である。 本発明の一実施形態における、仮想のタッチキーボードで選択された客体のタッチ方向を認識する動作を説明するために提供される図である。 本発明の一実施形態における、認識された客体が、ユーザが入力を意図したターゲット客体であるかを判断する動作を説明するために提供される図である。 本発明の一実施形態における、学習によって生成された補正情報に基づき、誤タッチされた客体をユーザが入力を意図したターゲット客体に自動校正する動作を説明するフローチャートである。 本発明の一実施形態における、補正情報に基づいて客体を校正する動作を説明するためにタッチキーボードが表示される画面構成を示した図である。 本発明の一実施形態における、セクション別に補正情報を生成する動作を説明するためにタッチキーボードが表示される画面構成を示した図である。
以下、実施形態について、添付の図面を参照しながら詳しく説明する。
本実施形態は、仮想のタッチキーボードを利用して客体を選択するときに、選択された客体のタッチエラーを校正する技術に関し、より詳細には、ユーザタッチによってシステムで認識された客体とユーザが入力を意図したターゲット客体とが相違することによるタッチエラーをシステムにて自動に校正する技術に関する。例えば、ユーザが2次元配列で客体が配置された仮想のタッチキーボード上から特定の客体を選択した後、一定の時間以内に特定の客体を削除した場合には、該当の客体をユーザが意図した客体とは異なる誤タッチされた客体として判断する。また、誤タッチされた客体と関連する位置情報を収集し、収集された情報に基づいて学習を実行する。これにより、以後、誤タッチされた客体の位置情報に該当する場合には、学習された位置情報に基づいて誤タッチされた位置に該当する客体を、ユーザが意図した客体にシステムで自動的に校正する技術に関する。
本実施形態において、「タッチキーボード(touch keyboard)」とは、電子機器の画面に表示される2次元配列の仮想のキーボードであって、物理的なキーボードに属する文字、数字、記号などの客体が2次元配列のタッチキーボードに配置されてもよい。
本実施形態において、「ターゲット客体」とは、タッチキーボード上に配置された複数の客体のうち、ユーザが入力を意図した客体をいう。また、「隣接客体」とは、2次元配列のタッチキーボードに配置された複数の客体のうち、ユーザが入力を意図した客体、すなわちターゲット客体と、予め定義された範囲内で隣接する客体をいう。
Figure 2018181346
本実施形態において、「電子機器のディスプレイ」には、電子機器の画面に表示される仮想のタッチキーボードに配置された客体がタッチ選択されることを認識(sensing)するために、ディスプレイの表面にITO透明電極フィルムが付着してあってもよい。
図1は、本発明の一実施形態における、タッチエラー校正システムの内部構成を示した図である。
図1を参照すると、電子機器は、コンピュータ装置によって実現される固定端末や移動端末であって、タッチエラー校正システム100を示している。電子機器の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型パソコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、電子機器は、無線または有線通信方式を利用し、ネットワーク170を介してサーバまたは他の電子機器と通信してもよい。
図1によると、電子機器であるタッチエラー校正システム100は、メモリ110、プロセッサ120、通信モジュール130、および入力/出力インタフェース140を含んでいてもよい。メモリ110は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでいてもよい。また、メモリ110には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、タッチエラー校正システム100にインストールされ駆動するブラウザ、キーボードアプリケーションなどのためのコード)が格納されてもよい。このようなソフトウェア構成要素は、ドライブメカニズム(drive mechanism)を利用してメモリ110とは別のコンピュータで読み取り可能な記録媒体からロードされてもよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでいてもよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信モジュール130を通じてメモリ110にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、サーバ)がネットワークを介して提供するファイルによってインストールされるプログラム(一例として、アプリケーション)に基づいてメモリ110にロードされてもよい。
プロセッサ120は、基本的な算術、ロジック、および入力/出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてもよい。命令は、メモリ110または通信モジュール130によって、プロセッサ120に提供されてもよい。例えば、プロセッサ120は、メモリ110のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてもよい。
通信モジュール130は、ネットワークを介してタッチエラー校正システム100とサーバまたは他の電子機器が互いに通信するための機能を提供してもよい。一例として、タッチエラー校正システム100のプロセッサ120がメモリ110のような記録装置に格納されたプログラムコードにしたがって生成した要求(一例として、仮想のタッチキーボードに入力された客体に基づいて提供される文字、チャット、キーワード検索などのサービスのための要求)が、通信モジュール130の制御にしたがってネットワークを介してサーバに伝達されてもよい。
入力/出力インタフェース140は、入力/出力装置150とのインタフェースのための手段であってもよい。例えば、入力装置は、キーボードまたはマウスなどの装置を、出力装置は、アプリケーションの通信セッションを表示するためのディスプレイのような装置を含んでいてもよい。他の例として、入力/出力インタフェース140は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってよく、入力/出力インタフェース140はタッチインタフェースと表現されてもよい。より具体的な例として、タッチエラー校正システム100のプロセッサ120は、メモリ110にロードされたコンピュータプログラムの命令を処理するにあたり、サーバが提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース140を通じてディスプレイに表示されるように制御してもよい。
また、他の実施形態において、タッチエラー校正システム100は、図1の構成要素よりも多くの構成要素を含んでいてもよい。しかし、大部分の従来の技術的構成要素を明確に図に示す必要はない。例えば、タッチエラー校正システム100は、上述した入力/出力装置150のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでいてもよい。より具体的な例として、タッチエラー校正システム100がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラ、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素がタッチエラー校正システム100にさらに含まれていてもよい。
本発明の実施形態に係るタッチエラー校正システム100は、アプリケーションが実行される装置に実装されてもよい。言い換えれば、本発明の実施形態に係るタッチエラー校正方法は、アプリケーションがインストールおよび駆動されるすべての装置で実行されてもよい。以下では、説明の便宜のために、電子機器であるタッチエラー校正システム100にアプリケーションのインストールおよび駆動のためのパッケージファイルが格納され、タッチエラー校正システム100に実現されるタッチエラー校正システムによってタッチエラー校正方法が実行される実施形態について説明する。
本発明の実施形態では、ハングル基盤のタッチキーボードを対象としてタッチエラーを校正する方法の例について説明するが、これは実施形態に過ぎず、タッチキーボードは、ハングルはもちろん、英文、漢字、アラビア語などのような多様な言語を基盤とするタッチキーボードを含んでいてもよい。
図2は、本発明の一実施形態における、仮想のタッチキーボードの例を示した図である。
図2を参照すると、仮想のタッチキーボードは、電子機器の種類に応じて多様な形態で提供されてもよい。
図2(A)に、電子機器がタブレット(tablet)である場合の仮想のタッチキーボードについて示す。電子機器がタブレットである場合、仮想のタッチキーボード210は、物理的なキーボードに配置された客体が2次元配列に配置される形態で提供されてもよい。例えば、文字、数字、記号、方向キー、ESCキー、capslockキー、ctrlキー、altキー、enterキー、delキー、tapキーなどが、2次元配列の仮想のタッチキーボード210に配置されてもよい。
図2(A)に、電子機器がスマートフォン(smart phone)である場合の仮想のタッチキーボードについて示す。電子機器がスマートフォンである場合、仮想のタッチキーボード220は、物理的なキーボードに配置された客体を示すキーのうち、スマートフォンなどで頻繁に利用されないキーを除いたキーを示す客体が2次元配列で配置されてもよい。例えば、仮想のタッチキーボード220には、文字、数字、記号、スペース(space)、バックスペース(back space)などを示すキーが配置されてもよい。言い換えれば、ESCキー、capslockキー、ctrlキー、altキー、tapキーのようにスマートフォンでの利用度が低いキーは、スマートフォンなどの電子機器の画面に表示される仮想のタッチキーボード220から除外されてもよい。
図3は、本発明の一実施形態における、タッチエラー校正システム100のプロセッサ120が含むことのできる構成要素の例を示したブロック図であり、図4は、本発明の一実施形態における、タッチエラー校正方法の例を示したフローチャートである。
図3に示すように、タッチエラー校正システム100に含まれたプロセッサ120は、構成要素として、客体認識部310、ターゲット客体判断部320、格納制御部330、および校正部340を備えていてもよい。また、ターゲット客体判断部320、格納制御部330、および校正部340は、図4の各段階410〜440を実行するために利用されてもよい。
段階410で、客体認識部310は、2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェース(すなわち、入力/出力インタフェース)に入力された少なくとも1つの客体を認識してもよい。
一例として、客体認識部310は、電子機器であるタッチエラー校正システム100の画面上に表示された2次元配列で構成された仮想のタッチキーボードに配置された複数の客体のうち、ユーザが指またはタッチ器具で押したりタッチしたりするなどの動作によって選択した客体の位置情報に基づき、位置情報に該当する客体を認識してもよい。このとき、タッチされた客体の認識のために、仮想のタッチキーボードに2次元配列で配置された複数の客体それぞれは、該当の客体がカバー(cover)する位置情報をマッチングしてデータベースに予め格納および維持されていてもよい。
段階420で、ターゲット客体判断部320は、認識された客体が、ユーザが入力を意図したターゲット客体(target object)に該当するかを判断してもよい。すなわち、ターゲット客体判断部320は、タッチキーボード上でユーザが本来押そうとしていた客体が認識されたかを判断してもよい。
Figure 2018181346
段階421で、ターゲット客体判断部320は、客体が認識された後、予め定義された一定の時間以内に認識された客体を対象に削除(delまたはbackspaceなどを利用した削除)が発生したかにより、認識された客体がターゲット客体であるか、それとも誤ってタッチされた客体(すなわち、誤タッチされた客体)であるかを決定してもよい。ここで、誤タッチされた客体とは、ユーザが入力を意図した客体とは異なる客体に属する位置情報がタッチされて認識される場合を示してもよい。
段階422で、認識された客体が、ユーザが入力を意図したターゲット客体ではないと判断された場合、ターゲット客体判断部320は、認識された客体の代わりに入力された隣接客体(すなわち、認識された客体と予め定義された一定の範囲や距離以内に該当する隣接客体)をターゲット客体として決定してもよい。認識された客体がターゲット客体であると判断された場合、ターゲット客体判断部320は、認識された客体をターゲット客体として決定してもよい。
段階430で、格納制御部330は、認識された客体に該当する位置情報とターゲット客体に該当する少なくとも1つの位置情報とを関連付けてデータベースに格納してもよい。
例えば、格納制御部330は、タッチインタフェースからユーザによって選択されたタッチ位置に該当する客体(すなわち、認識された客体)の位置情報がデータベースに格納されるように制御してもよい。このとき、認識された客体がターゲット客体ではないと判断され、認識された客体の代わりに隣接客体が入力された場合、格納制御部330は、隣接客体の位置情報を認識された客体の位置情報とマッチングしてデータベースに格納されるように制御してもよい。データベースには、誤タッチが発生するたびに、誤タッチとして認識された客体の位置情報と隣接客体(すなわち、誤タッチとして認識された客体のターゲット客体)の位置情報を関連付けて累積格納してもよい。これにより、累積格納された位置情報は、学習アルゴリズムを利用して学習を実行することにより、ユーザ別のタッチ入力の校正のために利用されるようになる。
段階440で、校正部340は、データベースに関連付けて格納された位置情報に基づき、タッチインタフェースに入力された新たな客体を校正してもよい。
一例として、タッチインタフェースに入力されて認識された新たな客体の位置情報が、段階422でユーザが入力を意図したターゲット客体ではない客体(すなわち、誤タッチされた客体)の位置情報に該当する場合、校正部340は、誤タッチされた客体の位置情報と関連付けて格納された隣接客体(すなわち、誤タッチされた客体のターゲット客体)の位置情報に基づき、新たな客体をユーザが入力を意図したターゲット客体として校正してもよい。
Figure 2018181346
これにより、ユーザが、自身が入力を意図した客体をカバー(cover)する領域と隣接する領域の位置をタッチしたり、カバーする領域と隣接する領域を重ねてタッチしたりしたとしても、システムで自動的に校正し、ユーザが入力を意図した客体を画面上に表示することができる。
図5は、本発明の一実施形態における、仮想のタッチキーボードで選択された客体を認識する動作を説明するために提供される図であり、図6は、本発明の一実施形態における、仮想のタッチキーボードによって選択された客体のタッチ方向を認識する動作を説明するために提供される図である。
図5を参照すると、タッチエラー校正システムのディスプレイには、ユーザの指またはタッチ器具などを利用して発生する画面上のタッチを認識するための透明電極フィルムが含まれてもよい。
客体認識部310は、画面510に付着された透明電極フィルムを通じて画面上から特定の位置511(例えば、画面上に表示される特定の客体に該当する位置)がタッチ選択されることによって発生する静電容量の変化をセンシングしてもよい。この後、客体認識部310は、センシングした静電容量(すなわち、静電圧)の変化に基づいて形成された領域の重量位置を計算してもよい。
Figure 2018181346
これにより、客体認識部310は、発生した静電圧に該当する仮想のタッチ領域520で重量位置を計算し、計算された重量位置に該当する位置521とマッチングする客体を決定することによってタッチされたポイントに該当する客体を認識してもよい。すなわち、客体認識部310は、2次元配列のタッチキーボードに配置された複数の客体のうちで計算された重量位置に該当する位置とマッチングする客体を決定することにより、タッチインタフェースに入力された客体を認識してもよい。このように、タッチされた客体の認識のために、仮想のタッチキーボードに2次元配列で配置された複数の客体それぞれは、該当の客体がカバー(cover)する位置情報をマッチングしてデータベースに予め格納および維持されてもよい。
客体認識部310は、タッチによって発生した静電容量の変化を示すタッチ領域の形状に基づいてタッチ方向を認識してもよい。
図6(A)に、2次元配列のタッチキーボードに右手でタッチしたときの図を示し、図6(B)に、2次元配列のタッチキーボードに左手でタッチしたときの図を示す。図6を参照すると、2次元配列のタッチキーボードに配置された複数の客体のうちのいずれか1つの客体に対してタッチ(touch)が発生した場合、客体認識部310は、タッチによって発生する静電容量の変化に基づいて仮想のタッチ領域611、621を生成してもよい。これにより、客体認識部310は、タッチ領域611、621内の最も長い直径、面積、角度、勾配などに基づいて右手のタッチであるか左手のタッチであるかを示すタッチ方向を認識してもよい。
一例として、客体認識部310は、タッチ領域611、621で最も長い直径に該当する直線612、622と予め定義されたベースライン613、623がなす角度(θ)に基づいて右手タッチに該当するか左手に該当するかを認識してよい。例えば、前記角度(θ)が鋭角である場合は右手タッチ、前記角度(θ)が鈍角である場合は左手タッチであると決定してよい。
他の例として、タッチ領域611、621で最も長い直径に該当する直線612、622を基準として左側の面積がより大きい場合、客体認識部310は、タッチ方向を左手(すなわち、タッチ入力された指は左手の指)と認識してもよい。また、タッチ領域611、621で最も長い直径に該当する直線612、622を基準として右側の面積がより大きい場合、客体認識部310は、タッチ方向を右手(すなわち、タッチ入力された指は左手の指)と認識してもよい。
これにより、認識されたタッチ方向を示す情報は、認識された客体の位置情報に共にマッチングされてデータベースに格納されてもよい。例えば、認識された客体が誤タッチされた客体である場合、誤タッチされた客体の位置情報、誤タッチされた客体の代わりに入力された隣接客体(すなわち、ターゲット客体)の位置情報と共に、タッチ方向情報(例えば、左手の指タッチであるか右手の指タッチであるかを示す情報)がマッチングされて格納されてもよい。
図7は、本発明の一実施形態における、認識された客体が、ユーザが入力を意図したターゲット客体であるかを判断する動作を説明するために提供される図である。
Figure 2018181346
Figure 2018181346
これにより、画面710にユーザが自身の意図した客体とは異なる客体が入力されたことを認識し、削除に該当する客体(例えば、backspace、delに該当する仮想のタッチキー)を選択して誤って認識された客体を削除したとする。
Figure 2018181346
Figure 2018181346
Figure 2018181346
このように、誤タッチされた客体の位置情報と誤タッチされた客体と関連して、ユーザが本来入力を意図したターゲット客体の位置情報とがマッチングされてデータベースに累積格納されてもよい。これにより、累積格納された位置情報に基づき、該当のユーザがタッチキーボード上の客体をタッチするたびに、右側下端、右側上端、左側下端、左側上端、または左/右側中心部分を主にタッチするのかを学習によって確認するようになり、確認した結果に基づいて補正情報を生成し、入力された新たな客体を対象に校正を実行することができる。
図8は、本発明の一実施形態における、学習によって生成された補正情報に基づき、誤タッチされた客体をユーザが入力を意図したターゲット客体として自動校正する動作について説明するフローチャートである。
図8において、各段階810〜820は、図3で説明した校正部340によって実行されてもよい。図8では、仮想のタッチキーボードに2次元配列で配置された複数の客体それぞれに該当する表示情報(例えば、キーボタン)が横×縦に1cm×1cmの大きさを有する場合について説明するが、1cmは一実施形態に過ぎず、複数の客体それぞれに該当する表示情報の大きさは、仮想のタッチキーボードがディスプレイされる画面の大きさに応じて1cmよりも小さくても大きくてもよく、横および縦の長さが互いに異なってもよい。また、客体の属性によって表示情報の大きさが相違していてもよい。例えば、頻繁に使用するエンター(enter)やスペース(space)を示す客体の表示情報は、他の客体の表示情報よりも大きくてもよい。
段階810を参照すると、校正部340は、データベースに格納された削除された客体の代わりに入力された隣接客体の位置情報と、削除された客体の位置情報との距離を計算してもよい。
Figure 2018181346
この後、校正部340は、予め定義された設定の割合と距離に基づいて補正情報を生成してもよい。例えば、設定の割合は1〜100%の範囲内で予め設定されてよく、50%に設定された場合、補正情報は0.5cmで生成されてもよい。ここで、補正情報は、学習によって周期的にアップデートされてもよい。例えば、タッチ入力が発生して誤タッチされた客体が認識されるたびに距離が持続的に計算されて累積格納されてもよい。これにより、累積格納された距離の平均値に補正情報がアップデートされてもよい。
このとき、補正情報は、客体別に生成されてもよいし、客体が属するセクション(section)別に生成されてもよいし、タッチキーボード上に配置されたすべての客体を対象に1つの補正情報が生成されてもよい。すなわち、生成された補正情報0.5cmは、すべての客体を対象として校正のために適用されてもよいし、特定の客体別に該当する補正情報に基づいて校正が実行されてもよい。
Figure 2018181346
この他にも、学習によって、タッチキーボード上に配置された全ての客体について、セクション別にグルーピングし、グループ単位で同じ補正情報が生成されてもよい。ここで、セクション別に補正情報を生成する動作については、図10を参照しながら説明する。
段階820で、新たな客体が入力された場合、校正部340は、計算された距離に基づいて生成された補正情報に基づいて新たな客体を自動校正してもよい。
段階821で、校正部340は、生成された補正情報に基づいて新たな客体の位置情報を移動補正することにより、校正を自動で実行してもよい。
例えば、図9(A)に示すように、校正部340は、タッチインタフェースに入力された新たな客体の位置情報914(例えば、(3、1.8))に補正情報に該当する補正値(0.5cm)を合算し、新たな客体の位置情報914を合算された結果に該当する位置情報915に移動補正してもよい。
Figure 2018181346
段階822で、校正部340は、中心軸を基準として全体的にセンシング領域(すなわち、キー入力ポジション)の大きさを予め定義された基準の割合に応じて段階的に縮小して校正を実行してもよい。このとき、縮小は、ユーザのタッチ感度を妨害しない範囲内で実行されてもよい。すなわち、ユーザによってタッチ感度が低下したと認識されない範囲内でサイズ縮小が行われてもよい。
図9(B)に示すように、タッチキーボード上に配置された客体を対象に発生するタッチ入力をセンシングするために、センシング領域が予め設定されてもよい。例えば、センシング領域921は、特定の客体を示す表示情報よりも一定の割合だけ大きいか該当の表示情報の大きさで設定されてもよい。
Figure 2018181346
これにより、各客体別の中心軸(または中心点)922を基準としてセンシング領域923の大きさを予め定義された基準の割合に応じて縮小してもよい(すなわち、センシング領域の大きさをセンシング領域923からセンシング領域924に縮小されてもよい)。この後、校正部340は、大きさが縮小されたセンシング領域926を、関連付けて格納された位置情報を基盤として移動してもよい。このとき、校正部340は、中心軸の位置を中心軸921から中心軸925に移動することにより、大きさが縮小されたセンシング領域926を移動してもよい。
すなわち、関連付けて格納された位置情報に基づいて学習によってユーザが入力を意図した客体をタッチしたとき、実際にターゲット客体の中心領域ではない右側下端領域をタッチすることが把握されることがある。これにより、画面920上には、既存と同じようにタッチキーボードに2次元配列に配置された客体を表示し、特定の客体をタッチする場合にタッチされた客体をシステムで認識するセンシング領域923の大きさを、隣接客体のセンシング領域を妨害しない範囲内で縮小し(センシング領域924)、中心軸921を移動することによって大きさが縮小されたセンシング領域924を移動補正してもよい。
Figure 2018181346
ここで、センシング領域の大きさを縮小し、大きさが縮小されたセンシング領域を学習によって把握したユーザのタッチ習性にしたがって該当の方向に移動補正すると説明したが、これは実施形態に過ぎず、大きさを縮小補正せずにセンシング領域の大きさを維持したままでセンシング領域を移動補正することにより、誤タッチされた客体に対する校正が実行されることも可能である。
このように、システムでユーザのタッチ習性を学習によって把握して補正情報を生成し、生成された補正情報に基づいてシステムでユーザが入力を意図した客体を把握して自動で校正を実行し、校正された客体を画面上にディスプレイすることにより、希望する客体が表示されるまで何回も削除を繰り返さなくてよく、ユーザのタッチ入力の利便性を増加させることができる。言い換えれば、タッチ感度を高めることにより、製品に対する好感度、該当のタッチキーボードを提供するアプリケーションの関心度を増加させることができる。
図10は、本発明の一実施形態における、セクション別に補正情報を生成する動作を説明するためにタッチキーボードが表示される画面構成を示した図である。
誤タッチされた客体の位置校正によってユーザが入力を意図したターゲット客体に校正するための補正情報は、図8で説明したように、タッチキーボードに配置されたすべての客体を対象に1つの補正情報が生成されてもよいし、客体別に補正情報が生成されてもよい(すなわち、客体の数だけの補正情報が生成されてもよい)。さらに、学習によってセクション別に客体がグルーピングされ、グループ単位で同じ補正情報が生成されてもよい。
図10では、セクション別に補正情報を生成する動作について説明する。
一例として、学習によってタッチキーボードのエッジ(edge)、すなわち端に配置された客体と関連して誤タッチが予め定義された回数以上発生し、タッチキーボード上の予め定義された中央領域に配置された客体と関連して誤タッチがほぼ発生しない場合(すなわち、タッチ正確度が予め定義された基準正確度以上に高い場合)、タッチキーボード上に配置されたすべての客体は、エッジセクション(edge section)に属する客体と中心セクションに属する客体とに分類されてもよい。例えば、タッチキーボード1010に配置されたすべての客体が、エッジセクション1011、1012に該当する客体と中心セクション1013に該当する客体とに分類されてもよい。
例えば、学習により、エッジセクション1011、1012に配置された客体を対象に誤タッチ発生頻度が高く、中心セクション1013では誤タッチ発生頻度が低い(すなわち、タッチ正確度が高い場合)と把握された場合、校正部340は、エッジセクション1011、1012に配置された客体と関連して格納された位置情報に基づいて計算された距離と設定の割合に基づき、該当のセクション(すなわち、エッジセクション)の補正情報(例えば、0.5cmなど)を生成してもよい。これにより、生成された補正情報は、該当のセクションの識別子情報とマッチングして格納されてもよい。このとき、該当のセクションの識別子情報と該当のセクションに属する客体を示す識別子情報とがマッチングされてデータベースに格納および維持されてもよい。
また、校正部340は、中心セクション1013に配置された客体と関連して格納された位置情報に基づいて計算された距離と設定の割合に基づき、該当のセクション(すなわち、中心セクション)の補正情報(例えば、0.01cm、0.1cmなど)を生成してもよい。これにより、生成された補正情報は、該当のセクションの識別子情報とマッチングして格納されてよく、該当のセクションの識別子情報と該当のセクションに属する客体を示す識別子情報とがマッチングされてデータベースに格納および維持されてもよい。
このように、補正情報の生成後にタッチインタフェースに入力された新たな客体が認識されると、校正部340は、認識された新たな客体の識別子情報に基づいて新たな客体が属するセクションを確認してもよい。また、校正部340は、確認されたセクションの識別子情報とマッチングされた補正情報に基づいて新たな客体の位置情報を移動補正することにより、新たな客体をユーザが入力を意図した客体に校正してもよい。
このように、エッジと中心セクションとに区分する以外にも、タッチキーボードに該当する領域を左上(lef ttop)エッジセクション、右上(right top)エッジセクション、左下(left bottom)エッジセクション、右下(right bottom)エッジセクション、中心セクションなどのように詳細なセクションに区分し、セクション別に該当する客体が分類されてもよい。これにより、セクション別に累積格納された位置情報に基づいてセクション別の補正情報が生成されてもよい。
上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてもよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてもよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してもよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでいてもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでいてもよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な記録媒体に記録されてもよい。コンピュータで読み取り可能な記録媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでいてもよい。記録媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
120:プロセッサ
310:客体認識部
320:ターゲット客体判断部
330:格納制御部
340:校正部

Claims (20)

  1. コンピュータによって実行されるタッチエラー校正方法であって、
    客体認識部が、2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェースに入力された少なくとも1つの客体を認識する段階、
    ターゲット客体判断部が、認識された前記客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階、
    格納制御部が、認識された前記客体に該当する位置情報と前記ターゲット客体に該当する少なくとも1つの位置情報とを関連付けて格納する段階、および
    校正部が、前記関連付けて格納された位置情報に基づき、前記タッチインタフェースに入力された新たな客体を校正する段階
    を含む、タッチエラー校正方法。
  2. 前記ターゲット客体判断部が、前記客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階は、
    前記認識された客体が予め定義された一定の時間以内に削除され、削除された客体の代わりに隣接客体が入力された場合、前記認識された客体は前記ターゲット客体に該当しないと判断する段階、および
    前記隣接客体を前記ターゲット客体として決定する段階
    を含む、請求項1に記載のタッチエラー校正方法。
  3. 前記ターゲット客体判断部が、前記客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階は、
    前記認識された客体が予め定義された一定の時間維持されることにより、前記ターゲット客体に該当すると判断する段階
    をさらに含む、請求項2に記載のタッチエラー校正方法。
  4. 前記校正部が、前記ターゲット客体を校正する段階は、
    前記隣接客体と関連して認識された位置情報と前記削除された客体に該当する位置情報との距離を計算する段階、および
    計算された前記距離に基づいて前記新たな客体を校正する段階
    を含む、請求項2に記載のタッチエラー校正方法。
  5. 前記校正部が、前記ターゲット客体を校正する段階は、
    前記新たな客体が、前記ユーザが入力を意図したターゲット客体に該当しない場合、前記関連付けて格納された位置情報に基づいて前記新たな客体に該当する位置情報を移動補正することにより、前記新たな客体を前記ターゲット客体として校正すること
    を特徴とする、請求項1に記載のタッチエラー校正方法。
  6. 前記格納制御部が、前記位置情報を関連付けて格納する段階は、
    前記新たな客体が、前記ユーザが入力を意図したターゲット客体に該当しない場合、前記新たな客体が削除され、入力された隣接客体に該当する位置情報と前記新たな客体に該当する位置情報とを関連付けて格納すること
    を特徴とする、請求項5に記載のタッチエラー校正方法。
  7. 前記客体認識部が、前記客体を認識する段階は、
    認識された前記客体に該当する静電圧に基づき、右手タッチおよび左手タッチのうちから前記認識された客体に該当するタッチ方向を決定する段階
    を含む、請求項1に記載のタッチエラー校正方法。
  8. 前記格納制御部が、前記位置情報を関連付けて格納する段階は、
    前記認識された客体に該当する位置情報と前記ターゲット客体に該当する少なくとも1つの位置情報を前記決定されたタッチ方向に応じて区分して関連格納すること
    を特徴とする、請求項7に記載のタッチエラー校正方法。
  9. 前記校正部が、前記ターゲット客体として校正する段階は、
    前記2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチキーボードでの配置位置に応じてセクション別に区分する段階、
    前記関連付けて格納された位置情報に基づいて前記セクション別に補正情報を生成する段階、および
    前記新たな客体が属するセクションに該当する補正情報に基づいて前記新たな客体を校正する段階
    を含む、請求項1に記載のタッチエラー校正方法。
  10. コンピュータによって実行されるタッチエラー校正システムであって、
    2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェースに入力された少なくとも1つの客体を認識する客体認識部、
    認識された前記客体が、ユーザが入力を意図したターゲット客体に該当するかを判断するターゲット客体判断部、
    認識された前記客体に該当する位置情報と前記ターゲット客体に該当する少なくとも1つの位置情報とを関連付けて格納する格納制御部、および
    前記関連付けて格納された位置情報に基づき、前記タッチインタフェースに入力された新たな客体を校正する校正部
    を備える、タッチエラー校正システム。
  11. 前記ターゲット客体判断部は、
    前記認識された客体が予め定義された一定の時間以内に削除され、削除された客体の代わりに隣接客体が入力された場合、前記認識された客体は前記ターゲット客体に該当しないと判断し、前記隣接客体を前記ターゲット客体として決定すること
    を特徴とする、請求項10に記載のタッチエラー校正システム。
  12. 前記ターゲット客体判断部は、
    前記認識された客体が予め定義された一定の時間維持されることにより、前記ターゲット客体に該当すると判断すること
    を特徴とする、請求項11に記載のタッチエラー校正システム。
  13. 前記校正部は、
    前記隣接客体と関連して認識された位置情報と前記削除された客体に該当する位置情報との距離を計算し、計算された前記距離に基づいて前記新たな客体を校正すること
    を特徴とする、請求項11に記載のタッチエラー校正システム。
  14. 前記校正部は、
    前記新たな客体が、前記ユーザが入力を意図したターゲット客体に該当しない場合、前記関連付けて格納された位置情報に基づいて前記新たな客体に該当する位置情報を移動補正することにより、前記新たな客体を前記ターゲット客体として校正すること
    を特徴とする、請求項11に記載のタッチエラー校正システム。
  15. 前記格納制御部は、
    前記新たな客体が、前記ユーザが入力を意図したターゲット客体に該当しない場合、前記新たな客体が削除されて入力された隣接客体に該当する位置情報と前記新たな客体に該当する位置情報とが関連付いて格納されるように制御すること
    を特徴とする、請求項14に記載のタッチエラー校正システム。
  16. 前記客体認識部は、
    認識された前記客体に該当する静電圧に基づき、右手タッチおよび左手タッチのうちから前記認識された客体に該当するタッチ方向を決定すること
    を特徴とする、請求項10に記載のタッチエラー校正システム。
  17. 前記格納制御部は、
    前記認識された客体に該当する位置情報と前記ターゲット客体に該当する少なくとも1つの位置情報が前記決定されたタッチ方向に応じて区分して関連格納されるように制御すること
    を特徴とする、請求項16に記載のタッチエラー校正システム。
  18. 前記校正部は、
    前記2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチキーボードでの配置位置に応じてセクション別に区分し、前記関連付けて格納された位置情報に基づいて前記セクション別に補正情報を生成し、前記新たな客体が属するセクションに該当する補正情報に基づいて前記新たな客体を校正すること
    を特徴とする、請求項10に記載のタッチエラー校正システム。
  19. コンピュータで実現される電子機器においてタッチエラー校正方法を実行させるために記録媒体に格納されたコンピュータプログラムであって、
    前記タッチエラー校正方法は、
    客体認識部が、2次元配列で構成された仮想のタッチキーボードに配置された複数の客体を対象に、タッチインタフェースに入力された少なくとも1つの客体を認識する段階、
    ターゲット客体判断部が、認識された前記客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階、
    格納制御部が、認識された前記客体に該当する位置情報と前記ターゲット客体に該当する少なくとも1つの位置情報とを関連付けて格納する段階、および
    校正部が、前記関連付けて格納された位置情報に基づき、前記タッチインタフェースに入力された新たな客体を校正する段階
    を含むことを特徴とする、コンピュータプログラム。
  20. 前記ターゲット客体判断部が、前記客体が、ユーザが入力を意図したターゲット客体に該当するかを判断する段階は、
    認識された前記客体が予め定義された一定の時間以内に削除され、削除された客体の代わりに隣接客体が入力された場合、前記認識された客体は前記ターゲット客体に該当しないと判断する段階、および
    前記隣接客体を前記ターゲット客体として決定する段階
    を含む、請求項19に記載のコンピュータプログラム。
JP2018077801A 2017-04-13 2018-04-13 タッチエラー校正方法およびそのシステム Active JP6599504B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0047890 2017-04-13
KR1020170047890A KR101919841B1 (ko) 2017-04-13 2017-04-13 터치 오기 교정 방법 및 시스템

Publications (2)

Publication Number Publication Date
JP2018181346A true JP2018181346A (ja) 2018-11-15
JP6599504B2 JP6599504B2 (ja) 2019-10-30

Family

ID=63790026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077801A Active JP6599504B2 (ja) 2017-04-13 2018-04-13 タッチエラー校正方法およびそのシステム

Country Status (3)

Country Link
US (1) US10572066B2 (ja)
JP (1) JP6599504B2 (ja)
KR (1) KR101919841B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11609692B2 (en) * 2017-04-07 2023-03-21 Hewlett-Packard Development Company, L.P. Cursor adjustments
KR102355890B1 (ko) * 2019-11-28 2022-01-27 한국과학기술원 디코더 아키텍쳐, 그의 동작 방법 및 디코더를 이용하는 소프트 키보드

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198481A (ja) * 1997-01-06 1998-07-31 Yamaha Corp データ入力装置及び誤入力防止方法並びに誤入力防止プログラムを記録した媒体
JP2000066817A (ja) * 1998-08-20 2000-03-03 Nec Corp キーボード装置
JP2005267424A (ja) * 2004-03-19 2005-09-29 Fujitsu Ltd データ入力装置、情報処理装置、データ入力方法、データ入力プログラム
JP2006127488A (ja) * 2004-09-29 2006-05-18 Toshiba Corp 入力装置、コンピュータ装置、情報処理方法及び情報処理プログラム
JP2010140321A (ja) * 2008-12-12 2010-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012153374A1 (ja) * 2011-05-06 2012-11-15 富士通株式会社 情報処理装置,表示装置,キーサイズ変更プログラム,及びキーサイズ変更方法
JP2013073317A (ja) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 入力装置、入力方法及びプログラム
JP2013211703A (ja) * 2012-03-30 2013-10-10 Mizuho Information & Research Institute Inc 入力支援プログラム及び入力支援装置
JP2014007439A (ja) * 2012-06-21 2014-01-16 Fujitsu Ltd 文字入力プログラム、情報処理装置および文字入力方法
JP2017054378A (ja) * 2015-09-10 2017-03-16 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示方法、及びコンピュータが実行可能なプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080029028A (ko) 2006-09-28 2008-04-03 삼성전자주식회사 터치 스크린을 갖는 단말기의 문자 입력 방법
US20100302212A1 (en) * 2009-06-02 2010-12-02 Microsoft Corporation Touch personalization for a display device
KR101660842B1 (ko) 2009-11-05 2016-09-29 삼성전자주식회사 터치 입력 방법 및 그 장치
KR101296145B1 (ko) 2010-10-29 2013-08-19 서울대학교산학협력단 문자 입력 방법 및 장치
JP2012247889A (ja) * 2011-05-26 2012-12-13 Nec Casio Mobile Communications Ltd 入力装置、検出領域修正方法及びプログラム
US9182860B2 (en) * 2012-02-08 2015-11-10 Sony Corporation Method for detecting a contact
US9348456B2 (en) 2013-06-27 2016-05-24 Korea Advanced Institute Of Science And Technology Determination of bezel area on touch screen
KR101452191B1 (ko) * 2014-03-28 2014-10-22 주식회사 한글과컴퓨터 터치스크린 장치 및 상기 터치스크린 장치의 가상 키보드 터치 인식 영역 조정 방법

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198481A (ja) * 1997-01-06 1998-07-31 Yamaha Corp データ入力装置及び誤入力防止方法並びに誤入力防止プログラムを記録した媒体
JP2000066817A (ja) * 1998-08-20 2000-03-03 Nec Corp キーボード装置
JP2005267424A (ja) * 2004-03-19 2005-09-29 Fujitsu Ltd データ入力装置、情報処理装置、データ入力方法、データ入力プログラム
JP2006127488A (ja) * 2004-09-29 2006-05-18 Toshiba Corp 入力装置、コンピュータ装置、情報処理方法及び情報処理プログラム
JP2010140321A (ja) * 2008-12-12 2010-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012153374A1 (ja) * 2011-05-06 2012-11-15 富士通株式会社 情報処理装置,表示装置,キーサイズ変更プログラム,及びキーサイズ変更方法
JP2013073317A (ja) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 入力装置、入力方法及びプログラム
JP2013211703A (ja) * 2012-03-30 2013-10-10 Mizuho Information & Research Institute Inc 入力支援プログラム及び入力支援装置
JP2014007439A (ja) * 2012-06-21 2014-01-16 Fujitsu Ltd 文字入力プログラム、情報処理装置および文字入力方法
JP2017054378A (ja) * 2015-09-10 2017-03-16 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示方法、及びコンピュータが実行可能なプログラム

Also Published As

Publication number Publication date
US10572066B2 (en) 2020-02-25
JP6599504B2 (ja) 2019-10-30
KR101919841B1 (ko) 2018-11-20
KR20180115831A (ko) 2018-10-24
US20180300014A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
US11416142B2 (en) Dynamic soft keyboard
US11334717B2 (en) Touch keyboard using a trained model
US9798718B2 (en) Incremental multi-word recognition
US9021380B2 (en) Incremental multi-touch gesture recognition
EP2252926B1 (en) Interpreting ambiguous inputs on a touch-screen
US9304595B2 (en) Gesture-keyboard decoding using gesture path deviation
EP3005066B1 (en) Multiple graphical keyboards for continuous gesture input
US20140240237A1 (en) Character input method based on size adjustment of predicted input key and related electronic device
KR101518439B1 (ko) 점프 스크롤링
US8994681B2 (en) Decoding imprecise gestures for gesture-keyboards
JP6599504B2 (ja) タッチエラー校正方法およびそのシステム
JP6011114B2 (ja) 文字入力装置、文字入力方法、及び文字入力プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191002

R150 Certificate of patent or registration of utility model

Ref document number: 6599504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250