JP2013025788A - タッチスクリーンのタッチトラッキングデバイス及び方法 - Google Patents

タッチスクリーンのタッチトラッキングデバイス及び方法 Download PDF

Info

Publication number
JP2013025788A
JP2013025788A JP2012111586A JP2012111586A JP2013025788A JP 2013025788 A JP2013025788 A JP 2013025788A JP 2012111586 A JP2012111586 A JP 2012111586A JP 2012111586 A JP2012111586 A JP 2012111586A JP 2013025788 A JP2013025788 A JP 2013025788A
Authority
JP
Japan
Prior art keywords
touch
touch point
detected
point
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012111586A
Other languages
English (en)
Other versions
JP5681665B2 (ja
Inventor
Wanqiu Wang
王万秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TPK Touch Solutions Xiamen Inc
Original Assignee
TPK Touch Solutions Xiamen Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TPK Touch Solutions Xiamen Inc filed Critical TPK Touch Solutions Xiamen Inc
Publication of JP2013025788A publication Critical patent/JP2013025788A/ja
Application granted granted Critical
Publication of JP5681665B2 publication Critical patent/JP5681665B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】異なる検出時間に検出されたタッチポイントの関係を求めるだけでなく、タッチトラックを滑らかにし、効果的にノイズポイントを除去する。
【解決手段】検出タッチポイントP1〜P5の情報に応じてタッチトラック関数を規定し、前記タッチトラック関数を用いて、予測タッチポイントP6’を算出し、次の検出タッチポイントP6が前記予測タッチポイントのプリセットスコープ101内に位置しているかどうかを判断し、前記次の検出タッチポイントが前記予測タッチポイントのプリセットスコープ内に位置している場合に、前記予測タッチポイントを出力タッチポイントとして出力する。
【選択図】図2

Description

本開示は、タッチトラッキング方法及びタッチトラッキングデバイスに関する。特に、本開示は、タッチスクリーンのタッチトラッキング方法及びタッチトラッキングデバイスに関する。
ノートパソコンや携帯電話等の電子デバイスに、当該デバイスのタッチスクリーンを介してデータを入力する技術が広く用いられている。現在、異なるタッチポイントの検出原理によれば、タッチスクリーンは抵抗型(resistive-type)、容量型(capacitive-type)、光学型(optical-type)、電磁気型(electromagnetic-type)、音響型(acoustic-type)等に分類されうる。動作において、タッチスクリーンはタッチポイントの位置に基づいてタッチ入力信号を生成し、その後、タッチ入力信号は処理され、例えばモニター上に関連情報が表示される等、電子デバイス上に関連情報が提示される。
タッチスクリーンを有効にするには、タッチポイントの位置を求めることが非常に重要である。投影型静電容量式タッチスクリーンを例にとると、静電容量式タッチスクリーンは主に二方向の電極を備える。これらの二方向の電極は、互いに直行し、絶縁膜により分離されている。
タッチポイントの座標は、二方向の電極で生成されるタッチ信号を検出、処理することにより求められる。タッチポイントが静的(static)である場合、タッチポイントの位置の決定は十分である。しかし、例えば、タッチ対象が連続してタッチスクリーンの表面上を移動している場合のように、タッチポイントが動的(dynamic)である場合、タッチポイントの位置は時間に応じて変化し、複数のタッチポイントが形成される。
夫々のタッチポイントの位置が静止状態で独立して求められる場合、一つのタッチポイントと他のタッチポイントとの関係を求めることはできない。例えば、第1検出時間にタッチポイントAが検出され、第2検出時間にタッチポイントBが検出されるものとする。夫々のタッチポイントA、Bの位置のみは求めることができるが、タッチポイントAとタッチポイントBとの関係は従来の上述した静的タッチポイントの検出方法では求めることができない。さらに、タッチトラックを描画することもまた困難である。
例えば、第2時点においてノイズポイントCが存在する場合のように、ノイズポイントが存在する場合、ノイズポイントCの決定及び除去の処理は、タッチトラックの決定をより複雑にする。
中国特許出願公開第101105733号明細書 米国特許出願公開第2010/0073318号明細書
すなわち、動的なタッチポイントをトラックすることは困難である。
本開示の目的は、タッチスクリーンのタッチトラッキング方法を提供することである。検出されたタッチポイントにより規定されるタッチトラッキング機能は、動的なタッチポイントのトラッキングの間に次のタッチポイントを予測するのに用いられる。タッチトラッキング機能は、タッチトラックを描画するため、異なる検出時間に検出されたタッチポイントの関係を求めるだけでなく、タッチトラックを滑らかにし、効果的にノイズポイントを除去することを助ける。
タッチスクリーンのタッチトラックのためのタッチトラッキング方法は、以下のステップを備える。a)検出タッチポイントの情報に応じてタッチトラック関数を規定し、b)前記タッチトラック関数を用いて、予測タッチポイントを算出し、c)次の検出タッチポイントが前記予測タッチポイントのプリセットスコープ内に位置しているかどうかを判断し、d)ステップ(c)においてYESである場合、前記次の検出タッチポイントに従って、前記予測タッチポイントを出力タッチポイントとして出力する。
一態様では、前記検出タッチポイントの数は3以上であり、前記検出タッチポイントの情報は、前記検出タッチポイントの座標と検出時間とを含む。
タッチスクリーン上のタッチトラックのタッチトラッキング方法は以下のステップを備える。a)n個のタッチポイントP1〜Pnの座標と検出時間P1(x1、y1、t1)、P2(x2、y2、t2)、・・・、Pn(xn、yn、tn)を検出し(nは3以上)、b)n個の検出タッチポイントの座標と検出時間(x1、y1、t1)、(x2、y2、t2)、・・・、(xn、yn、tn)によりタッチトラッキング関数F(x、y、t)を規定し、c)前記タッチトラック関数によって予測タッチポイントPn+1'を算出し、d)前記予測タッチポイントPn+1'のプリセットスコープに検出タッチポイントPn+1が位置しているか判断し、e)ステップ(d)においてYESの場合、前記予測タッチポイントPn+1'を出力タッチポイントとして出力する。
本発明の他の目的は、タッチスクリーンのタッチトラッキングデバイスを提供することである。タッチスクリーン上のタッチトラックのためのタッチトラッキングデバイスは、検出タッチポイントの情報を検出する取得ユニットと、前記取得ユニットに接続され、前記検出タッチポイントの情報によってタッチトラック関数を規定し、予測タッチポイントを算出し、次の検出タッチポイントが前記予測タッチポイントのプリセットスコープ内に位置するかを判断し、YESの場合に前記予測タッチポイントを出力するコントロールユニットとを備える。
本発明によれば、異なる検出時間に検出されたタッチポイントの関係を求めるだけでなく、タッチトラックを滑らかにし、効果的にノイズポイントを除去することが可能となる。
当業者であれば、図面、以下の説明は、説明する目的のみのものであると理解するであろう。図面は、決して本技術のスコープの限定を目的とするものではない。同様の符号は、複数の図面を通して対応する部分を示す。
本開示のタッチスクリーン上のタッチトラックを求める第1の実施の形態を示す模式図である。 図1のタッチトラック上の予測タッチポイントと検出タッチポイントを示す模式図である。 図1のタッチトラックの終了を示す模式図である。 図1のタッチスクリーン上での新たなタッチトラックの形成を示す模式図である。 図1のタッチスクリーン上のノイズポイントの決定を示す模式図である。 タッチスクリーンのタッチトラッキング方法を示すフローチャートである。 タッチトラックの模式図である。 タッチスクリーン上の新たなタッチトラックの決定方法を示す模式図である。 タッチスクリーンのタッチトラッキングデバイスを示す模式図である。
図1に示すように、指やタッチペン等のタッチ対象はタッチスクリーン100の表面を移動し、5つの連続する検出時間において、連続する5つの検出タッチポイントP1、P2、P3、P4、P5を生成する。夫々の検出タッチポイントは、座標(x、y)及び検出時間tを有する。このため、全ての検出タッチポイントは以下のパラメータ(x1、y1、t1)、(x2、y2、t2)、(x3、y3、t3)、(x4、y4、t4)、(x5、y5、t5)を有する。さらに、全ての検出タッチポイントは、タッチ対象の動作によって生成される。タッチ対象は、夫々の検出タッチポイントに対する関連速度(relevant velocity)及び関連加速度(relevant acceleration)を有する。タッチ対象の関連速度及び関連加速度は、上述した夫々のタッチポイントの座標及び検出時間に基づいて算出されうる。これにより、タッチトラッキング関数F(x、Y、t)が検出タッチポイントの座標及び検出時間に基づいて規定されうる。
タッチトラック関数F(x、y、t)を説明するため、例が示される。
Figure 2013025788
Figure 2013025788
ここで、(Xnew、Ynew)はタッチトラック上の新たなトラッキングポイントの座標であり、(Xold、Yold)はタッチトラック上の前のトラッキングポイントの座標(すなわち直前の検出時間(the last detecting time)におけるトラッキングポイントの座標)である。
Figure 2013025788
は、夫々X、Y座標軸方向に沿った、いくつかの先行するトラッキングポイント(例えば、5つのトラッキングポイント)の座標軸に対する平均加速度の値である。
Figure 2013025788
は、X、Y座標軸方向に沿った、新たなトラッキングポイントのうち、先行するいくつかのトラッキングポイント(例えば5つのトラッキングポイント)の平均速度の値である。Δtは2つの隣接するトラッキングポイントの時間間隔(例えば、2つの検出時間の間隔)である。
さらに、
Figure 2013025788
は、最大加速度と最小加速度を除去した後、夫々X、Y座標軸方向に沿った先行するいくつかのトラッキングポイント(例えば、5つのトラッキングポイント)の平均加速度値でありうる。
Figure 2013025788
は、最大速度と最小速度を除去した後、X、Y座標軸方向に沿った、先行するいくつかのトラッキングポイント(例えば、5つのトラッキングポイント)平均速度の値でありうる。
実施の形態においては、加速度と速度の値は、以下の近似法によって算出されうる。図1に示すトラッキングポイントP1からトラッキングポイントP2では、タッチ対象は等速度動作として扱われうる(P1からP2の加速度はゼロ)。P1及びP2の速度は、トラッキングポイントP1、P2の既知の座標と時間によって算出されうる。
トラッキングポイントP2からトラッキングポイントP3では、タッチ対象は等速度動作でありうる。P2からP3の加速度とP3の速度は、既知のP3の座標と時間によって算出されうる。同様に、P3の加速度及びP4、P5の速度と加速度が算出される。タッチトラック関数F(x、y、t)が上述したP1からP5の5つのトラッキングポイントに基づいて規定される場合、これらの5つのトラッキングポイントは、タッチスクリーン100の表面上で連続して検出されるタッチポイントである。
さらに、タッチトラック関数F(x、y、t)は、他の数式により規定されうる。
上述のタッチトラック関数F(x、y、t)は、タッチトラック上の予測タッチポイントの座標を予測するのに用いられうる。すなわち、検出タッチポイントの情報を取得した後、タッチトラック関数は、取得された検出タッチポイントの情報によって規定されうる。予測タッチポイントはタッチトラック関数に基づいて算出される。予測タッチポイントの計算に加えて、次の検出タッチポイントが関係する予測タッチポイントのプリセットスコープ内に存在するか求められる。YESの場合、次の検出タッチポイントに従って、予測タッチポイントが出力タッチポイントとして出力される。
例えば、図2に示すように、予測タッチポイントであるP6'の予測パラメータ(x6'、y6'、t6')が、タッチトラック関数F(x、y、t)によって算出される。プリセットスコープ101は、予測タッチポイントP6'に基づいて設定されうる。検出タッチポイントP6の座標(x6、y6)がプリセットスコープ101内で検出されると、タッチトラック関数F(x、y、t)は正しいと判断され、有効状態(valid)に維持される。
また、予測タッチポイントP6'は、出力タッチポイントとして出力される。これは、予測タッチポイントP6'がシステム又はアップリケーションプログラムに、実際にタッチされたタッチポイントとして出力される。実施の形態では、上述のプリセットスコープ101は、様々な方法によって設定されうる。
説明のため2つの例が示される。第1の例では、プリセットスコープ101は、予測タッチポイントP6'を中心として、最後の検出タッチポイントP5と予測タッチポイントP6'との間の距離の半分を半径として形成された円である。第2の例では、プリセットスコープ101は、予測タッチポイントP6'を中心として、検出経験値(detecting empirical value)を半径とした円である。
上述の方法によれば、夫々の次の検出タッチポイントは、対応する予測タッチポイントのプリセットスコープに対するその位置に基づいて決定される。いくつかの検出タッチポイントの全てがそれらの対応する予測タッチポイントのプリセットスコープ内に位置していない場合、これらいくつかの検出タッチポイントの第1の検出タッチポイントに対応する予測タッチポイントにおいて、タッチトラックは終了と判断される。
例えば、図3に示すように、予測タッチポイントP7'の予測パラメータ(x7'、y7'、t7')は、タッチトラック関数F(x、y、t)によって算出され、プリセットスコープ102が予測タッチポイントP7'に基づいて設定される。検出タッチポイントP7の座標(x7、y7)は、プリセットスコープ102から離れて検出される。同様に、予測タッチポイントP8'の予測パラメータ(x8'、y8'、t8')が引き続き算出され、プリセットスコープ103が予測タッチポイントP8'に基づいて設定される。検出タッチポイントP8の座標(x8、y8)は、プリセットスコープ103から離れて検出される。
同様に、予測タッチポイントP9'の予測パラメータ(x9'、y9'、t9')が引き続き算出され、プリセットスコープ104が予測タッチポイントP9'に基づいて設定される。検出タッチポイントP9の座標(x9、y9)は、プリセットスコープ104から離れて検出される。このように、このタッチトラックは、終了タッチポイントとして出力される予測タッチポイントP7'において終了と判断される。
直前のタッチトラック(last touch track)の終了が決定された後、新たな検出タッチポイントが再度測定され、それが新たな検出タッチトラックの開始ポイント又はノイズポイントとなる。例えば、図4に示すように、検出タッチポイントP7が、確認されるべき新たなタッチトラックの第1のタッチポイントP1''としての役割を果たし、位置スコープ105が検出タッチポイントP7に基づいて設定される。検出タッチポイントP2''の座標(x2''、y2'')が位置スコープ105内に検出される。
位置スコープ106は、検出タッチポイントP2''に基づいて設定される。検出タッチポイントP3''の座標(x3''、y3'')が位置スコープ106内に検出される。位置スコープ107は、検出タッチポイントP3''に基づいて設定される。検出タッチポイントP4''の座標(x4''、y4'')が位置スコープ107内に検出される。位置スコープ108は、検出タッチポイントP4''に基づいて設定される。検出タッチポイントP5''の座標(x5''、y5'')が位置スコープ108内に検出される。
このとき、検出タッチポイントP1''からP5''が新たなタッチトラックを構成することが決定され、新たなタッチトラック関数F(x''、y''、t'')が規定される。図5に示すように、検出タッチポイントP2''が位置スコープ105から離れて測定された場合、検出タッチポイントP1''が確認され、ノイズポイントとして除去される。実施の形態では、位置スコープは、最後の検出タッチポイントを中心として、検出経験値を半径とした円でありうる。
図6は、図7に示すタッチスクリーン200のトラッキング方法を示し、主に以下のステップを含む。
ステップ301では、n個の検出タッチポイントの情報が検出される。当該情報は、座標及び検出時間P1(x1、y1、t1)、P2(x2、y2、t2)、・・・、Pn(xn、yn、tn)であり、nは3以上である。
ステップ303では、タッチトラック関数F(x、y、t)が、検出タッチポイントP1〜Pnのパラメータ(x1、y1、t1)、(x2、y2、t2)、・・・、(xn、yn、tn)によって規定される。
ステップ305では、予測タッチポイントPn+1'がタッチトラック関数F(x、y、t)によって算出される。
ステップ307では、検出タッチポイントPn+1が予測タッチポイントPn+1'のプリセットスコープ201内に位置しているか判断される。検出タッチポイントがプリセットスコープ201内に位置している場合、方法はステップ309に進み、そうでなければステップ311に進む。
ステップ309では、検出タッチポイントPn+1に対応する予測タッチポイントPn+1'が出力タッチポイントとして出力される。また、方法は、nに1を加えた後にステップ305に戻る。
ステップ311では、n+2からn+k(kは3以上)の検出タッチポイントがステップ305からステップ307のシーケンスに従っているか判断される。検出タッチポイントPn+kがタッチトラック関数F(x、y、t)によって算出された予測タッチポイントPn+k'のプリセットスコープ内に位置している場合、方法はステップ309に進む。検出タッチポイントPn+kが予測タッチポイントPn+k'のプリセットスコープ内に位置しない場合、方法はステップ313に進む。
ステップ313では、タッチトラックは予測タッチポイントPn+1'で終了であると判断される。
ステップ315では、新たなタッチトラックが検出タッチポイントPn+1において開始するかが判断される。新たなタッチトラックが検出タッチポイントPn+1で開始される場合、方法はステップ301に進み、そうでなければ、処理はステップ317に進む。
ステップ317では、検出タッチポイントPn+1がノイズポイントとして除去される。
上述のトラッキング方法は、検出タッチポイントの既知のセットにより規定されるタッチトラック関数を利用して、動的なタッチポイントをトラッキングするために次のタッチポイントを予測する。方法は、タッチトラックを描画するために異なる検出時間における検出タッチポイント間の関係を求めるだけでなく、タッチトラックを滑らかにし、効果的にノイズポイントの除去を助ける。
図8は新たなタッチトラックが検出タッチポイントPn+1で開始されるかどうかを決定する方法を説明するものである。この方法は、以下のステップを含む。
ステップ401では、検出タッチポイントPn+1は、未定の新たなタッチトラックの第1の検出タッチポイントP1''とみなされる。位置スコープ204が検出タッチポイントPn+1に基づいて設定される。
ステップ403では、位置スコープ204内において検出タッチポイントが検出されるか判断される。位置スコープ内に検出タッチポイントが検出された場合、処理は405に進み、そうでない場合処置はステップ413に進む。
ステップ405では、位置スコープ204内の検出タッチポイントは、新たなタッチトラックの第2の検出タッチポイントP2''とみなされる。位置スコープ205が第2の検出タッチポイントP2''に基づいて設定される。
ステップ407では、位置スコープ205内において検出タッチポイントが検出されるか判断される。位置スコープ内に検出タッチポイントが検出された場合、処理は409に進み、そうでない場合処置はステップ413に進む。
ステップ409では、検出タッチポイントP2''からPm''がステップ405からステップ407の方法によって順に測定される。新たなタッチトラックの検出タッチポイントPm''が存在し、タッチポイントが位置スコープ206内に存在する場合、処理はステップ411に進み、そうでない場合方法はステップ413に進む。なお、mは3以上である。
ステップ411では、新たなタッチトラックが確認される。新たなタッチトラックは、検出タッチポイントP1''で開始する。方法は、その後、ステップ301に進む。
ステップ413では、新たなタッチトラックが存在しないことが確認される。
実施の形態では、本開示のタッチトラックの規定に用いられる検出タッチポイントは、夫々連続して配置されている。
さらに、タッチトラッキングデバイスもまた提供される。図9に示すように、タッチトラッキングデバイス900は、タッチスクリーン200上のタッチトラックをトラッキングするために用いられる。タッチトラッキングデバイス900は、取得ユニット(acquisition unit)920と、取得ユニット920に接続されたコントロールユニット940を備える。取得ユニット920は、検出タッチポイントの情報の検出に用いられ、記憶ユニット922、検出ユニット924、タイミングユニット926を含む。検出タッチポイントの情報は、検出タッチポイントの座標と検出時間を含む。
実施の形態では、タッチスクリーン200に接続される検出ユニット924は、ユーザによってタッチスクリーン200上に発生する検出タッチポイントの座標を検出する。例えば、少なくとも3つの検出タッチポイントの座標が検出される。
実施の形態では、タイミングユニット926は、時間をモニターするのに用いられる。タイミングユニット926は、取得ユニット920に含まれず、コントロールユニット940に集積された個別の要素でありうる。
実施の形態では、コントロールユニット940は、検出ユニット924とタイミングユニット926に接続され、検出タッチポイントの座標と検出時間に基づくタッチトラック関数を規定するために用いられる。さらに、コントロールユニット940は、タッチトラック関数に従って、予測タッチポイントを算出することができ、次の検出タッチポイントがこの予測タッチポイントのプリセットスコープ内に位置しているかを求める。さらに、検出タッチポイントに対応する予測タッチポイントは、出力タッチポイントとして出力されうる。コントロールユニット940の動作構造及び処理は、上述のタッチスクリーンのタッチトラッキング方法と同様である。
実施の形態では、記憶ユニット922は、検出経験値を保存するために用いられうる。プリセットスコープは、予測タッチポイントを中心とし、検出経験値を半径とした円として設定されうる。また、プリセットスコープは、予測タッチポイントを中心とし、予測タッチポイントと直前の検出タッチポイント間の距離の半分を半径とした円として設定されうる。
いくつかの実施の形態が示され、説明されたが、本発明の精神及びスコープから逸脱することなく、様々な改良及び置換がなされうる。また、本発明は、説明の目的で説明されたものであり、限定されないことが理解されるであろう。
(付記1)
a)n個のタッチポイントP1〜Pnの座標と検出時間P1(x1、y1、t1)、P2(x2、y2、t2)、・・・、Pn(xn、yn、tn)を検出し(nは3以上)、
b)n個の検出タッチポイントの座標と検出時間(x1、y1、t1)、(x2、y2、t2)、・・・、(xn、yn、tn)によりタッチトラッキング関数F(x、y、t)を規定し、
c)前記タッチトラック関数によって予測タッチポイントPn+1'を算出し、
d)前記予測タッチポイントPn+1'のプリセットスコープに検出タッチポイントPn+1が位置しているか判断し、
e)前記検出タッチポイントPn+1が前記予測タッチポイントPn+1'のプリセットスコープ内に位置している場合に、前記予測タッチポイントPn+1'を出力タッチポイントとして出力する、
タッチスクリーン上のタッチトラックのタッチトラッキング方法。
(付記2)
前記ステップ(e)は、nに1を加えた後にステップ(c)に戻ることをさらに備える付記1に記載のタッチトラッキング方法。
(付記3)
f)前記検出タッチポイントPn+1が前記予測タッチポイントPn+1'のプリセットスコープ内位置していない場合、n+2からn+k(kは3以上)の検出タッチポイントを順に前記ステップ(c)から前記ステップ(d)によって測定する付記1に記載のタッチトラッキング方法。
(付記4)
g)前記予測タッチポイントPn+1'においてタッチトラックを終了するステップをさらに備える、付記3に記載のタッチトラッキング方法。
(付記5)
h)次のm(mは3以上)検出タッチポイントがステップ(g)の後の最後の検出タッチポイントの位置スコープ内に位置しているかを判断するステップをさらに備える付記4に記載のタッチトラッキング方法。
(付記6)
i)次の前記mの検出タッチポイントが前記最後の検出タッチポイントの前記位置スコープ内に位置していない場合、前記kの検出タッチポイントをノイズタッチポイントとして除去し、
j)次の前記mの検出タッチポイントが前記最後の検出タッチポイントの位置スコープ内に位置する場合、前記mの検出タッチポイントによって、前記kの検出タッチポイントの最初の検出タッチポイントから始まる新たなタッチトラックを形成するステップをさらに備える付記5に記載のタッチトラッキング方法。
(付記7)
夫々の前記最後の検出タッチポイントの前記位置スコープは、当該最後の検出タッチポイントを中心とし、検出経験値を半径とした円である、付記5に記載のタッチトラッキング方法。
100 タッチスクリーン
101 プリセットスコープ
102 プリセットスコープ
103 プリセットスコープ
104 プリセットスコープ
105 位置スコープ
106 位置スコープ
107 位置スコープ
108 位置スコープ
109 位置スコープ
200 タッチスクリーン
201 プリセットスコープ
900 タッチトラッキングデバイス
920 取得ユニット
922 記憶ユニット
924 検出ユニット
926 タイミングユニット
940 コントロールユニット

Claims (13)

  1. a)検出タッチポイントの情報に応じてタッチトラック関数を規定し、
    b)前記タッチトラック関数を用いて、予測タッチポイントを算出し、
    c)次の検出タッチポイントが前記予測タッチポイントのプリセットスコープ内に位置しているかどうかを判断し、
    d)前記次の検出タッチポイントが前記予測タッチポイントのプリセットスコープ内に位置している場合に、前記予測タッチポイントを出力タッチポイントとして出力する、
    タッチスクリーン上のタッチトラックのタッチトラッキング方法。
  2. 前記検出タッチポイントの数は3以上であり、前記検出タッチポイントの情報は、前記検出タッチポイントの座標と検出時間とを含む請求項1に記載のタッチトラッキング方法。
  3. e)前記次の検出タッチポイントが前記予測タッチポイントの前記プリセットスコープ内に位置しておらず、続くk(kは3以上)の検出タッチポイントが対応する予測タッチポイントのプリセットスコープ内に位置していない場合、前記予測タッチポイントで前記タッチトラックを終了する、
    ステップをさらに備える請求項1又は2に記載のタッチトラッキング方法。
  4. f)次のm(mは3以上)のタッチポイントが、ステップ(e)の後の最後の検出タッチポイントの位置スコープ内に位置しているかを測定するステップをさらに備える請求項3に記載のタッチトラッキング方法。
  5. g)前記mの検出タッチポイントが前記最後の検出タッチポイントの前記位置スコープ内に位置していない場合、前記kの検出タッチポイントの最初の検出タッチポイントをノイズタッチポイントとして除去し、
    h)前記mの検出タッチポイントが前記最後の検出タッチポイントの位置スコープ内に位置する場合、前記mの検出タッチポイントによって、前記kの検出タッチポイントの最初の検出タッチポイントから始まる新たなタッチトラックを形成するステップをさらに備える請求項4に記載のタッチトラッキング方法。
  6. 前記最後の検出タッチポイントの前記位置スコープの夫々は、前記最後の検出タッチポイントを中心とし、検出経験値を半径とした円である請求項4に記載のタッチトラッキング方法。
  7. 前記予測タッチポイントの前記プリセットスコープは、前記予測タッチポイントを中心とし、検出経験値を半径とする円である請求項1〜5のいずれか1項に記載のタッチトラッキング方法。
  8. 前記予測タッチポイントの前記プリセットスコープは、前記予測タッチポイント中心とし、最後の検出タッチポイントと前記予測タッチポイントとの間の距離の半分を半径とした円である請求項1〜5のいずれか1項に記載のタッチトラッキング方法。
  9. a)n個のタッチポイントP1〜Pnの座標と検出時間P1(x1、y1、t1)、P2(x2、y2、t2)、・・・、Pn(xn、yn、tn)を検出し(nは3以上)、
    b)n個の検出タッチポイントの座標と検出時間(x1、y1、t1)、(x2、y2、t2)、・・・、(xn、yn、tn)によりタッチトラッキング関数F(x、y、t)を規定し、
    c)前記タッチトラック関数によって予測タッチポイントPn+1'を算出し、
    d)前記予測タッチポイントPn+1'のプリセットスコープに検出タッチポイントPn+1が位置しているか判断し、
    e)前記検出タッチポイントPn+1が前記予測タッチポイントPn+1'のプリセットスコープ内に位置している場合に、前記予測タッチポイントPn+1'を出力タッチポイントとして出力する、
    タッチスクリーン上のタッチトラックのタッチトラッキング方法。
  10. 検出タッチポイントの情報を検出する取得ユニットと、
    前記取得ユニットに接続され、前記検出タッチポイントの情報によってタッチトラック関数を規定するコントロールユニットとを備え、
    前記コントロールユニットは、予測タッチポイントを算出し、次の検出タッチポイントが前記予測タッチポイントのプリセットスコープ内に位置するかを判断し、前記次の検出タッチポイントが前記予測タッチポイントの前記プリセットスコープ内に位置する場合前記予測タッチポイントを出力する、
    タッチスクリーン上のタッチトラックのタッチトラッキングデバイス。
  11. 前記検出タッチポイントの情報は、前記検出タッチポイントの座標と検出時間を含む請求項10に記載のタッチトラッキングデバイス。
  12. 前記取得ユニットは、前記検出タッチポイントの座標を検出する検出ユニットと、前記検出タッチポイントの検出時間をモニターするタイミングユニットを有する請求項10又は11に記載のタッチトラッキングデバイス。
  13. 前記取得ユニットは、前記検出経験値を記憶する記憶ユニットを備え、
    前記予測タッチポイントの前記プリセットスコープは、前記予測タッチポイントを中心とし、前記検出経験値を半径とする円である請求項10〜12のいずれか1項に記載のタッチトラッキングデバイス。
JP2012111586A 2011-07-22 2012-05-15 タッチスクリーンのタッチトラッキングデバイス及び方法 Expired - Fee Related JP5681665B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110212538.5A CN102890576B (zh) 2011-07-22 2011-07-22 触控屏触摸轨迹检测方法及检测装置
CN201110212538.5 2011-07-22

Publications (2)

Publication Number Publication Date
JP2013025788A true JP2013025788A (ja) 2013-02-04
JP5681665B2 JP5681665B2 (ja) 2015-03-11

Family

ID=45607631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012111586A Expired - Fee Related JP5681665B2 (ja) 2011-07-22 2012-05-15 タッチスクリーンのタッチトラッキングデバイス及び方法

Country Status (6)

Country Link
US (1) US8866768B2 (ja)
EP (1) EP2549365B1 (ja)
JP (1) JP5681665B2 (ja)
KR (1) KR101304162B1 (ja)
CN (1) CN102890576B (ja)
TW (2) TWM423864U (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141763A1 (ja) * 2013-03-15 2014-09-18 シャープ株式会社 タッチパネルシステム
JP2014228890A (ja) * 2013-05-17 2014-12-08 シャープ株式会社 タッチパネルシステム
WO2015049934A1 (ja) * 2013-10-02 2015-04-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2016110333A (ja) * 2014-12-04 2016-06-20 富士通株式会社 入力制御方法、入力制御プログラム、及び情報処理装置
JP2016522522A (ja) * 2013-06-28 2016-07-28 インテル・コーポレーション プロセッサグラフィックスを用いた並行タッチポイント検出
JP2017049696A (ja) * 2015-08-31 2017-03-09 アルプス電気株式会社 入力装置とその制御方法及びプログラム
WO2018016666A1 (ko) * 2016-07-21 2018-01-25 한화테크윈 주식회사 파라미터 설정 방법 및 장치

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9507454B1 (en) * 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
TWI509560B (zh) * 2012-08-31 2015-11-21 Egalax Empia Technology Inc 影像分割的方法與裝置
TWI492168B (zh) * 2012-09-07 2015-07-11 友達光電股份有限公司 移動位置座標產生方法
TWI486837B (zh) * 2012-09-18 2015-06-01 Egalax Empia Technology Inc 基於預測的位置追蹤方法
JP5805890B2 (ja) * 2013-01-09 2015-11-10 シャープ株式会社 タッチパネルシステム
KR102043148B1 (ko) 2013-02-19 2019-11-11 엘지전자 주식회사 이동 단말기 및 그의 터치 좌표 예측 방법
TWI556154B (zh) * 2014-06-25 2016-11-01 禾瑞亞科技股份有限公司 觸控資訊時間的記錄方法、裝置、系統及其電腦可讀取媒體
US10114499B2 (en) * 2015-08-24 2018-10-30 Apple Inc. Enhanced handling of remote controller touchpad input data
US9933901B2 (en) * 2015-08-24 2018-04-03 Apple Inc. Reduction of media application response time through prediction of remote controller input data
CN105353906B (zh) * 2015-10-21 2018-08-28 业成光电(深圳)有限公司 轨迹预测***及轨迹预测方法
CN105955525B (zh) * 2016-04-21 2019-03-15 青岛海信电器股份有限公司 触摸轨迹跟踪方法、装置和显示设备
TWI579749B (zh) * 2016-06-14 2017-04-21 意象無限股份有限公司 觸控控制模組與觸控點之追蹤方法以及應用其之觸控式電子裝置
KR102537133B1 (ko) * 2016-07-21 2023-05-30 삼성전자주식회사 좌표 예측을 통한 좌표 출력 지연시간 감소 방법
US10353493B2 (en) * 2016-09-30 2019-07-16 Microsoft Technology Licensing, Llc Apparatus and method of pen detection at a digitizer
CN106780538B (zh) * 2016-12-30 2018-10-12 南京仁光电子科技有限公司 一种解决图像跟踪过程中误匹配的方法
CN108363508B (zh) 2018-01-13 2021-03-23 江南大学 一种手机触控屏Mark定位非接触式视觉检测方法
CN110989856B (zh) * 2019-11-07 2024-03-22 北京集创北方科技股份有限公司 一种坐标预测方法、装置、设备及可存储介质
CN112835455A (zh) * 2019-11-22 2021-05-25 华为技术有限公司 一种预测手写笔绘制点的方法和设备
CN113311984A (zh) * 2020-02-27 2021-08-27 北京小米移动软件有限公司 触摸屏轨迹的数据处理方法和装置、移动终端及电子设备
US11947743B2 (en) 2020-08-18 2024-04-02 Razer (Asia-Pacific) Pte. Ltd. Apparatus and method for controlling a pointer on a screen of an electronic device
KR20220049407A (ko) 2020-10-14 2022-04-21 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN112306301B (zh) * 2020-11-02 2024-06-11 北京小米移动软件有限公司 触控数据的处理方法、装置、设备及存储介质
CN113885733B (zh) * 2021-10-22 2024-06-18 深圳市泓宇星科技有限公司 一种笔迹轨迹预测方法
CN114791783A (zh) * 2022-03-18 2022-07-26 联想(北京)有限公司 一种信息处理方法和信息处理设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289993A (ja) * 1993-03-30 1994-10-18 Matsushita Electric Ind Co Ltd 座標入力表示装置
JPH0962450A (ja) * 1995-08-30 1997-03-07 Sanyo Electric Co Ltd 誤検出判別方法及び情報処理装置
JPH09190275A (ja) * 1996-01-12 1997-07-22 Nec Corp 手書き入力表示装置
JPH09237150A (ja) * 1996-02-29 1997-09-09 Sanyo Electric Co Ltd 予測符号化装置及び復号化装置
JP2011096123A (ja) * 2009-10-30 2011-05-12 Sharp Corp 入力装置及び該入力装置を備えた電子装置並びに該入力装置における入力方法
JP2011100282A (ja) * 2009-11-05 2011-05-19 Seiko Epson Corp 表示装置およびプログラム
JP2012506571A (ja) * 2008-09-24 2012-03-15 パナソニック株式会社 複数のタッチポイントの検出および追跡を行うマルチタッチ面

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7750891B2 (en) * 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
US7609278B1 (en) * 2003-07-31 2009-10-27 Adobe Systems Incorporated Detecting backward motion represented by a path
CN100590579C (zh) 2007-05-16 2010-02-17 广东威创视讯科技股份有限公司 一种多点触摸定位方法
US20090073131A1 (en) * 2007-09-19 2009-03-19 J Touch Corporation Method for determining multiple touch inputs on a resistive touch screen and a multiple touch controller
CA2726877A1 (en) * 2008-06-05 2009-12-10 Smart Technologies Ulc Multiple pointer ambiguity and occlusion resolution
KR100958643B1 (ko) * 2008-10-17 2010-05-20 삼성모바일디스플레이주식회사 터치 스크린 디스플레이 장치 및 이의 구동 방법
US8866790B2 (en) * 2008-10-21 2014-10-21 Atmel Corporation Multi-touch tracking
US9134848B2 (en) * 2009-06-03 2015-09-15 Stmicroelectronics Asia Pacific Pte Ltd Touch tracking on a touch sensitive interface
US8570305B2 (en) * 2009-07-07 2013-10-29 Microsoft Corporation Smoothing of touch input
JP2011028555A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置および情報処理方法
KR101628081B1 (ko) * 2009-11-05 2016-06-22 삼성전자주식회사 영상 센서 기반의 다중 터치 인식 장치 및 방법
CN102096530B (zh) * 2011-01-28 2013-09-18 广东威创视讯科技股份有限公司 一种多点触摸轨迹跟踪方法
US9542092B2 (en) * 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
US8773377B2 (en) * 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289993A (ja) * 1993-03-30 1994-10-18 Matsushita Electric Ind Co Ltd 座標入力表示装置
JPH0962450A (ja) * 1995-08-30 1997-03-07 Sanyo Electric Co Ltd 誤検出判別方法及び情報処理装置
JPH09190275A (ja) * 1996-01-12 1997-07-22 Nec Corp 手書き入力表示装置
JPH09237150A (ja) * 1996-02-29 1997-09-09 Sanyo Electric Co Ltd 予測符号化装置及び復号化装置
JP2012506571A (ja) * 2008-09-24 2012-03-15 パナソニック株式会社 複数のタッチポイントの検出および追跡を行うマルチタッチ面
JP2011096123A (ja) * 2009-10-30 2011-05-12 Sharp Corp 入力装置及び該入力装置を備えた電子装置並びに該入力装置における入力方法
JP2011100282A (ja) * 2009-11-05 2011-05-19 Seiko Epson Corp 表示装置およびプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141763A1 (ja) * 2013-03-15 2014-09-18 シャープ株式会社 タッチパネルシステム
JPWO2014141763A1 (ja) * 2013-03-15 2017-02-16 シャープ株式会社 タッチパネルシステム
JP2014228890A (ja) * 2013-05-17 2014-12-08 シャープ株式会社 タッチパネルシステム
JP2016522522A (ja) * 2013-06-28 2016-07-28 インテル・コーポレーション プロセッサグラフィックスを用いた並行タッチポイント検出
WO2015049934A1 (ja) * 2013-10-02 2015-04-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2016110333A (ja) * 2014-12-04 2016-06-20 富士通株式会社 入力制御方法、入力制御プログラム、及び情報処理装置
JP2017049696A (ja) * 2015-08-31 2017-03-09 アルプス電気株式会社 入力装置とその制御方法及びプログラム
WO2018016666A1 (ko) * 2016-07-21 2018-01-25 한화테크윈 주식회사 파라미터 설정 방법 및 장치
US10802676B2 (en) 2016-07-21 2020-10-13 Hanwha Techwin Co., Ltd. Method and apparatus for setting parameter
US11360642B2 (en) 2016-07-21 2022-06-14 Hanwha Techin Co., Ltd. Method and apparatus for setting parameter

Also Published As

Publication number Publication date
JP5681665B2 (ja) 2015-03-11
US8866768B2 (en) 2014-10-21
KR20130011889A (ko) 2013-01-30
US20130021272A1 (en) 2013-01-24
EP2549365B1 (en) 2018-01-31
CN102890576B (zh) 2016-03-02
KR101304162B1 (ko) 2013-09-04
EP2549365A2 (en) 2013-01-23
TWI450148B (zh) 2014-08-21
TWM423864U (en) 2012-03-01
CN102890576A (zh) 2013-01-23
TW201305869A (zh) 2013-02-01
EP2549365A3 (en) 2014-08-27

Similar Documents

Publication Publication Date Title
JP5681665B2 (ja) タッチスクリーンのタッチトラッキングデバイス及び方法
RU2635285C1 (ru) Способ и устройство управления перемещением на сенсорном экране
TWI543069B (zh) 電子裝置及其繪圖方法及電腦程式產品
US8749497B2 (en) Multi-touch shape drawing
US8743065B2 (en) Method of identifying a multi-touch rotation gesture and device using the same
TWI584164B (zh) 在多點觸控裝置上模擬壓感
JP5805890B2 (ja) タッチパネルシステム
US20130194226A1 (en) Method and device for determining a user's touch gesture
JP2017529623A (ja) ウェットインク予測器
WO2014062583A1 (en) Character deletion during keyboard gesture
TW201346682A (zh) 在觸控表面的追蹤目標
CN102736757A (zh) 触控识别方法及触控识别装置
KR20130098907A (ko) 정보 처리 장치, 정보 처리 장치의 제어 방법, 및 저장 매체
JP6253284B2 (ja) 情報処理装置およびその制御方法、プログラム、記録媒体
US20110254806A1 (en) Method and apparatus for interface
US20120249487A1 (en) Method of identifying a multi-touch shifting gesture and device using the same
WO2012158895A2 (en) Disambiguating intentional and incidental contact and motion in multi-touch pointing devices
EP2691841A1 (en) Method of identifying multi-touch scaling gesture and device using the same
WO2012129975A1 (en) Method of identifying rotation gesture and device using the same
JP2015230693A (ja) 情報処理装置、入力方法、コンピュータプログラム、及び記録媒体
JP2011154546A (ja) 情報入力装置、情報入力方法及びプログラム
JP2009110135A (ja) オブジェクト選択装置
US10558270B2 (en) Method for determining non-contact gesture and device for the same
JP5575027B2 (ja) 表示一体型座標入力装置及び仮想キーボード機能の起動方法
WO2019014822A1 (zh) 一种触摸屏湿水状态下手指的定位方法、装置及触控检测装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131024

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150109

R150 Certificate of patent or registration of utility model

Ref document number: 5681665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees