JP2016529640A - マルチタッチ仮想マウス - Google Patents

マルチタッチ仮想マウス Download PDF

Info

Publication number
JP2016529640A
JP2016529640A JP2016541755A JP2016541755A JP2016529640A JP 2016529640 A JP2016529640 A JP 2016529640A JP 2016541755 A JP2016541755 A JP 2016541755A JP 2016541755 A JP2016541755 A JP 2016541755A JP 2016529640 A JP2016529640 A JP 2016529640A
Authority
JP
Japan
Prior art keywords
cursor
finger
fingers
contact
mouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016541755A
Other languages
English (en)
Inventor
マー、リリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2016529640A publication Critical patent/JP2016529640A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0336Mouse integrated fingerprint sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

いくつかの実施形態に従い、タッチスクリーン、またはトラックパッドもしくはタッチパッドなどのタッチ入力デバイスは、2本以上の指で同時にスクリーンをタッチすることによってマウスモードで操作され得る。一実施形態においては、3本の指が使用され得る。一実施形態における3本の指とは、親指、並びに人差し指および中指であってよい。そうして、仮想マウスコマンドを入力するために、人差し指および中指が左クリックまたは右クリックすべく用いられ得る。

Description

本発明は、概してタッチスクリーンカーソルを制御するためのマウスコマンドの使用に関する。
ラップトップコンピュータ、デスクトップコンピュータ、携帯電話、ゲーム機などのメディア遊戯装置、および他のそのようなデバイスなどの従来のプロセッサベースのシステムにおいては、タッチスクリーンで入力されたマウスコマンドは、キーボードまたはマウスで入力されたカーソルコマンドの使用の代替手段を提供する。例えば、マウスコマンドは、ディスプレイスクリーン上で選択を行うべくカーソルを移動させるために用いられ得る。従来は、マウスがユーザの手の中に保持され、マウスの動きがカーソルを移動させる。マウスのボタンをクリックすることで、カーソルが置かれる表示されたオブジェクトの選択を可能にする。
いくつかの場合において、モバイルユーザは、携帯電話などの実際のプロセッサベースのデバイスより大きい場合もある追加のデバイスを持ち運ぶ必要があるので、マウスを使用するのは面倒であると感じることもある。また、携帯電話において見られるものなどの小スクリーンのデバイスでは、スクリーン上に表示されるいくつかの小さめの形状のものを選択するための十分なスクリーン空間があるとは言えない。別の問題として、ディスプレイスクリーンにおいて、小さいアイコンボタンまたはリンクの場合、ユーザが特定の場所にマウスカーソルを正確に配置することは困難なこともある。
いくつかの実施形態が以下の複数の図面に関して記載される。
一実施形態による、ディスプレイスクリーン上のユーザの右手の上面図である。 ディスプレイスクリーン上のユーザの左手の上面図である。 ディスプレイスクリーン上で左クリックをするユーザの手を示す。 ディスプレイスクリーン上で右クリックをするユーザの手を示す。 ディスプレイスクリーン上のユーザの手の1本指モードを示す上面図である。 2本指モードを示す上面図である。 別の2本指モードを示す上面図である。 一実施形態のフローチャートの一部である。 図8のフローチャートの続きである。 一実施形態の概略図である。
いくつかの実施形態に従い、タッチスクリーンなどのタッチ入力デバイスは、2本以上の指で同時にスクリーンをタッチすることによってマウスモードで操作され得る。一実施形態においては3本の指が使用され得る。一実施形態における3本の指とは、親指、並びに人差し指および中指であってよい。そうして、仮想マウスコマンドを入力するために、人差し指および中指が左クリックまたは右クリックすべく用いられ得る。
本明細書において用いられる場合、タッチ入力デバイスは、入力デバイスをタッチする複数の指を検出するマルチタッチ入力デバイスである。
いくつかの実施形態において、システムは、タッチ入力デバイス上の複数の指による同時タッチを検出し得る。3本指のスクリーンタッチコマンドの場合、システムは、左手または右手のどちらがデバイス上にあるのかと、3本の指の相対的位置とを決定し得る。このことが実行され得る1つの方法は、3点の接触および特にその形状によって画定される三角形の特質を解明(resolve)し、このことから、デバイスにはユーザの左手または右手のどちらがあるのかを決定する。このような手の特定は、左クリックまたは右クリックのどちらが指示されるのかを決定する上で重要であろう。左クリックまたは右クリックは、左手または右手のどちらが用いられるかに応じて、スクリーン上を人差し指または中指のいずれかでタップすることによって、一実施形態において指示され得る。一実施形態において、左手の人差し指は右の位置にあり、右手の人差し指は左の位置にある。その両方が左クリックである。よって、手の特定はいくつかの実施形態においては重要な場合がある。
したがって、図1を参照すると、タッチ入力デバイスにユーザの右手が置かれている。人差し指は中央に、中指は右に、かつ親指は左にあり、特定の向きおよび形状の三角形T1を形成する。その三角形の特質は形状および向きに基づいて解明されて、それがスクリーン上のユーザの右手または左手のどちらの3本の指なのかを決定し得る。接触の検出に応答して、ユーザの手の下のスクリーン上にマウスの画像が自動的に生成されてよい。
左手または右手のどちらがスクリーンをタッチしているのかを特定すべく用いられ得る多数の異なる技術がある。例えば、いくつかの実施形態において、3点の接触によって形成される三角形は分析されて、その三角形の最も長い脚(隣辺、leg)が、右または左のどちらに傾斜(angled)しているかを決定し得る。右の方に傾斜している場合は左手の接触を示し、左手のマウスモードが実行され得る。左の方に傾斜している場合は右手の接触が特定され、右手のマウスモードが実行され得る。別の例は、中指または人差し指が、三角形の最も長い脚の左または右のどちらなのかを決定するだろう。当業者であれば様々な他の技術を理解するだろう。
カーソルは、適切な複数の指の接触の検出に応答して、タッチスクリーンの実施形態において自動的に表示させられ得る。3本の指の一実施形態において、三角形T1は親指、人差し指、および中指の接触点によって決定される頂点を有する。それから、カーソルCは、三角形の最も長い辺に直交し、かつ中央の頂点を通る直線L上に配置され得る。中央の頂点からの直線に沿った距離は、ユーザに選択されてよいか、またはデフォルト値であってよい。
同様に、図2に示されるように、ユーザの左手が入力デバイス上にあり、中指が左、親指が右、かつ人差し指が中央にある。再度、形成される三角形T2の形状は、入力デバイス上にあるのはユーザの左手なのか、または右手なのかを決定すべく解明され得る。
図1において示される位置から、望み通りにカーソルを移動させるべく、カーソルは、例えばデバイスに沿って手全体(または、少なくとも1本の指、この場合は人差し指)をスライドさせることによって移動させられ得る。一実施形態において、カーソルはCによって示されるように、人差し指の近傍に自動的に表示され得る。カーソルはまた、3点の接触が検出されるとき、1本の指の近傍に自動的に表示させられ得る。
予め定められた時間内にタッチイベントが無い場合、複数の指のマウスシミュレーションモードは終了する。さらにいくつかの実施形態において、複数の指は、複数の指のマウスシミュレーションモードを実行すべく、閾値時間の間、スクリーン上に残っていなければならない。
ユーザがタッチ入力デバイス上で3本の指の全てを移動または回転させるとき、カーソルCは適宜移動する。人差し指がタッチ入力デバイスをタップするとき、左クリックイベントが検出される。中指が入力デバイスをタップすると、一実施形態において右手または左手のいずれの場合でも、右クリックが検出される。最も左の指がスクリーン上をタップすることが左クリックを示し、人差し指および中指のうちの最も右の指がスクリーン上をタップすることが右クリックを示す複数の他の実施形態もまた用いられ得る。このことは図3および図4に示される。
図5において示される一実施形態において、3本の指のうちの2本が入力デバイスとの接触から外れて1本の指が入力デバイスをタッチし続ける場合、システムは1本指のマウスシミュレーションモードに入る。1本のタッチする指は、3本指のマウスシミュレーションモード同様、人差し指として扱われる。スクリーンと接触しているその1本の指はデバイスをタップし得て、そのようなタッピングはカーソルに対しての左クリックイベントとして扱われ得る。1本指のマウスシミュレーションモードは、いくつかの場合においてエンドユーザらが使用するのにより簡単であり得る。
いくつかの実施形態において、複数の指のマウスシミュレーションモードは、タッチコントローラまたは組込み型サービスハブによって実行され得る。タッチコントローラまたは組込み型サービスハブがマウスシミュレーションモードに入ったことを検出すると、システムがマウスシミュレーションモードを抜けるまでタッチイベントはホストに報告されないだろう。複数の他の実装においては、タッチイベントは依然としてホストに報告され得る。シミュレーションされたマウスイベントは、タッチコントローラまたは組込み型サービスハブによってホストに報告され得る。
図6において示されるように、2本指モードの例として、人差し指および中指などの2本の指が、カーソルを移動させるべく用いられ得る。カーソルモードは、破線の円によって示される親指の接触を有する最初の3本指の接触があり、その後親指を持ち上げて2本の指だけを移動させることによって実行され得る。親指が下がると、システムは、前述したように、それが左手または右手のどちらなのかを解明し得る。
2本指モードの別の例として、図7において示されるように、2本指モードにおいて人差し指および中指が用いられる。(水平な破線Hに対して)より長い方の指は左または右のどちらにあるのかが、左手または右手のどちらが入力デバイスと接触しているのかを示すべく用いられ得る。
そうして、図8を参照すると、シーケンス10がソフトウェア、ファームウェア、および/またはハードウェアにおいて実行され得る。ソフトウェアおよびファームウェアの実施形態において、当該シーケンスは、磁気記憶装置、光記憶装置、または半導体記憶装置などの1または複数の非一時的コンピュータ可読媒体において格納される複数のコンピュータ実行命令によって実装され得る。
一実施形態において、シーケンス10はブロック12において示されるように、複数の指がタッチ入力デバイスをタッチしているかどうかを検出することで開始する。タッチしている場合、ブロック14において示されるように、複数の指の接触の形状および向きが決定される。次に、シーケンスはカーソルモードに入る(ブロック16)。カーソルモードにおいて、全ての入力は、指の位置ではなくカーソルの位置に基づいて解明される。したがって、マウスクリックにとって重要なことは、タッピングしている指がどこに位置しているかではなくカーソルがどこに位置しているか、である。また、カーソルモードにおいて、カーソルはディスプレイスクリーン上に自動的に表示される。タッチスクリーンの実施形態においては、カーソルは人差し指などの指の下ではなく近傍に表示され得る。それから、システムは、ブロック18において示されるように、右手または左手のどちらがスクリーンをタッチしているのかを決定する。カーソルは特定の指の近傍に自動的に表示され得る。
次に、ひし形ブロック20におけるチェックは、中指または人差し指のうちの1つがスクリーンをタッピングしているかどうかを決定する。タッピングしている場合、ブロック22において示されるように、適切なマウスクリックが指示される。左クリックおよび右クリックに加えて、ダブルクリック、マウスオーバ、左/右クリック、左/右ボタンのダウン/アップ、マウスホイール、複数のマウスムーブ、およびムーブアウトなどの他の複数のマウスコマンドがあり、それらは、いくつかの実施形態において、スクリーン上の指のタッピング、および/または手/指の位置によって指示され得る。
その後、ひし形ブロック24におけるチェックは、スクリーンをタッチする複数の指が移動したかどうかを決定する。移動している場合、カーソルはブロック25において示されるように移動させられる。
いくつかの実施形態において、図9において示されるように、他の従来の指ベースの複数の入力コマンドが指示され得る。例えば、様々な電話およびタブレットアプリケーションにおいて従来から行われるように、2本の指でのスワイプ、またはピンチおよびプルが用いられ得る。図9において図示される例において、ピンチまたはプルがひし形ブロック26において検出され得る。これが検出される場合、カーソルによって特定されるオブジェクトは、指の動きの直下のオブジェクトよりむしろ拡大または縮小される(ブロック28)。例えばピンチおよびプルは、親指と人差し指との間の距離を増加または減少させることによって指示され得る。
次は、ひし形ブロック30におけるカーソルモードコマンドがあるかどうかのチェックである。カーソルモードコマンドはカーソルモードを即座に抜けるためのコマンドであり得る。それは、ある期間、単に指の接触を断つことによって指示されるか、または、薬指もしくは小指のいずれかを含む4本目の指でスクリーンに接触することなどによる特別な形の指の接触によって指示され得る。カーソル終了コマンドが受信されると、カーソルモードはブロック32において終了され得る。
そのようなカーソルモードコマンドが受信されない場合、ひし形ブロック34におけるチェックは、1本指マウスモードが示されるかどうかを決定する。1本指マウスモードは、3本指の接触モードまたは2本指の接触モードから移行し、ただ1本の指のモードに入ることによって実行され得る(ブロック36)。システムは、3本指の接触により、それがカーソルモードにあることを知り、1本を除く全ての指がデバイスから持ち上げられるとき、ブロック36において示されるように、たやすく1本指マウスモードに入る。1本指マウスモードにおいて、カーソルは指の接触などの(1本の指の接触による)同一の方法で移動させられ、その同じ指でのタッピングはまた、(どのようなオブジェクトでも指の下にあることとは対照的に)どのようなオブジェクトでもカーソルの下に示されることについての選択を指示する。
1本指モードにおいて、タッピングはひし形ブロック38において検出される。マウスクリックはブロック40において示される。ひし形ブロック42において決定されるように、与えられた期間、全ての指が離されると、ブロック44において示されるように、マウスモードは終了される。そうでなければ、フローは引き続き戻って反復し、1本指マウスモードの複数のコマンドのチェックをする。
本明細書において限定された数のコマンドが示されるが、複数のコマンドは任意のタイプの指のコマンドであってよい。いくつかの実施形態において、カーソルモードにおいてでさえも、複数の非カーソルコマンドが受信され、複数の他の実施形態においては、カーソルモードで複数のカーソル型のコマンドまたは複数のマウス型コマンドだけが受信され得る。
図10を参照すると、プロセッサベースのデバイス50は、記憶装置56に連結されるプロセッサ52を含み得る。デバイス50は、いくつかの実施形態において、タブレットまたは携帯電話であってよい。タッチコントローラまたは組込み型サービスハブ58はプロセッサ52に連結され得る。マルチタッチ入力デバイスパッド54はまた、タッチコントローラ58に連結される。いくつかの実施形態において、ワイヤレスインターフェース60がプロセッサ52に連結され得る。いくつかの場合において、タッチコントローラ58は、図8および図9において示されるようなシーケンスを実行し得る。
組込み型サービスハブは、Windows(登録商標)8または任意の他のオペレーティングシステム環境においてセンサハブである。1つのマイクロコントローラが全てのセンサを一システムオンチップおよびアプリケーションプロセッサに接続し得て、いくつかの実施形態において、センサハブが指の接触の検出とマウスカーソルモードの実行とを処理し得るようにする。
いくつかの実施形態において、トレーニングモードは、ユーザが、マウスベースのカーソルモードに入るべく用いられ得る指の種類および本数を選択できるようにし得る。例えば、システムは、マウスカーソルモードを指示すべくユーザが望む方法でディスプレイ上にユーザの複数の指を配置するようユーザに促し得る。それから、このパターンは記録され、それが続いて検出される場合、マウスカーソルモードに入る。例えば、それからユーザは、人差し指、親指、および中指を用いてスクリーン上をタッチし得る。または、ユーザは人差し指、中指、および薬指でタッチし得る。更なる別の代替形態においては、2本の指は、同じ手の掌の一部と共にスクリーンに接触し得る。他の多数の変更形態もまた可能である。
少数の例に言及すべく、いくつかの実施形態において、図8および図9において示されるシーケンスは、組込み型サービスハブ、タッチコントローラ、汎用プロセッサ、特殊プロセッサ、または、オペレーティングシステムによって実行されるアプリケーション内に常駐し得るソフトウェアまたはファームウェアにおいて実行され得る。
いくつかの実施形態において、指の接触によるマウスカーソルモードの認識は、ディスプレイ上に視覚的表示を提供することによって確認され得る。一実施形態において、実際のマウスが存在するかのように、ユーザの複数の指の下にマウスの画像が表示させられ得る。一実施形態において、そのマウスの描写は、下になっているマテリアルを不明瞭にしないように、幻影のようなもの、または軽めの描写であってよい。
以下の複数の項目および/または例はさらなる複数の実施形態に関する。一例示的実施形態は、少なくとも2本の指を含む、タッチ入力デバイス上における接触を検出する段階と、当該検出に応答して、カーソルモードに入る段階と、カーソルを表示する段階と、当該複数の指のうちの1または複数の指の動きに基づいて、カーソル位置を制御する段階と、を備える方法であってよい。当該方法はまた、当該デバイスがタッチスクリーンであり、当該複数の指のうちの1本の近傍に当該カーソルを表示していることを含み得る。当該方法はまた、少なくとも3本の指による接触を検出する段階を含み得る。当該方法はまた、当該複数の指の接触が親指の接触を含むことを含み得る。当該方法はまた、複数の指がユーザの左手または右手のどちらに属するかを決定する段階を含み得る。当該方法はまた、左手または右手のどちらがデバイスに接触すると決定されたかに基づいて、複数のマウス型コマンドを解明する段階を含み得る。当該方法はまた、指によってカバーされることなく当該指でカーソルを移動させる段階を含み得る。
別の例示的な実施形態は、タッチ入力デバイス上において複数の指の接触を検出するための手段と、ディスプレイ上に表示されるオブジェクトの選択を受信するための手段と、指の位置ではなくカーソルの位置に基づいてオブジェクトを選択するための手段と、を備える装置であってよい。当該装置は、検出に応答してカーソルモードに入るための手段を含み得る。当該装置は、当該検出に応答してカーソルを表示するための手段を含み得る。当該装置は、1または複数の指の動きに基づいてカーソルの位置を制御するための手段を含み得る。当該装置は、当該複数の指のうちの1本の近傍に当該カーソルを表示するための手段を含み得る。当該装置は、少なくとも3本の指による接触を検出するための手段を含み得る。当該装置は、当該指の接触が親指の接触を含むシーケンスを実行するための複数の命令を格納するための手段を含み得る。当該装置は、複数の指がユーザの左手または右手のどちらに属するかを決定することを含むシーケンスを実行するための複数の命令を格納するための手段を含み得る。当該装置は、左手または右手のどちらがデバイスに接触すると決定されたかに基づいて、複数のマウス型コマンドを解明することを含むシーケンスを実行するための複数の命令を格納するための手段を含み得る。当該装置は、指によってカバーされることなく、当該指でカーソルを移動させるための手段を含み得る。
別の例示的な実施形態において、装置は、プロセッサと、当該プロセッサに連結されるタッチスクリーンと、少なくとも2本の指を含む、タッチスクリーン上における接触を検出し、当該検出に応答して、カーソルモードに入り、カーソルを表示し、当該複数の指のうちの1または複数の指の動きに基づいてカーソル位置を制御するためのデバイスと、を備える。当該装置は、当該デバイスが当該複数の指のうちの1本の近傍に当該カーソルを表示することを含み得る。当該装置は、当該デバイスが少なくとも3本の指によるスクリーンへの接触を検出することを含み得る。当該装置は、当該指の接触が親指の接触を含むことを含み得る。当該装置は、当該デバイスが、複数の指がユーザの左手または右手のどちらに属しているのかを決定することを含み得る。当該装置は、当該デバイスが、左手または右手のどちらがスクリーンに接触すると決定されたかに基づいて、複数のマウス型コマンドを解明することを含み得る。当該デバイスは、当該デバイスが、指によってカバーされることなく、スクリーンの指の動きでカーソルを移動させることを含み得る。
本明細書を通した「一実施形態」または「実施形態」への言及は、その実施形態に関連して記載される特定の機能、構造、または特性が、本開示内に含まれる少なくとも1つの実装に含まれることを意味する。したがって、「一実施形態」または「実施形態において」という文言があるときは、必ずしも同一の実施形態を指しているわけではない。さらに、特定の機能、構造、または特性は、例示される特定の実施形態以外の他の適切な形態で設けられ得て、全てのそのような形態は本願の特許請求の範囲内に含まれ得る。
限定された数の実施形態が記載されてきたが、当業者であれば、多数の変形形態および変更形態をそこから理解するであろう。添付の特許請求の範囲は、本開示の真の主旨および範囲に含まれる全てのそのような変形形態および変更形態を網羅することが意図される。

Claims (25)

  1. 少なくとも2本の指を含む、タッチ入力デバイス上における接触を検出する段階と、
    前記検出に応答してカーソルモードに入る段階と、
    カーソルを表示する段階と、
    1または複数の指の動きに基づいてカーソル位置を制御する段階と、を備える
    方法。
  2. 前記少なくとも2本の指のうちの1または複数の指の動きに基づいて、カーソル位置を制御する段階を含む
    請求項1に記載の方法。
  3. 前記デバイスはタッチスクリーンであり前記少なくとも2本の指のうちの1本の近傍に前記カーソルを表示している
    請求項1または2に記載の方法。
  4. 少なくとも3本の指による接触を検出する段階を含む
    請求項1から3の何れか一項に記載の方法。
  5. 前記指の接触は、親指の接触を含む
    請求項4に記載の方法。
  6. 前記少なくとも3本の指がユーザの左手または右手のどちらに属しているかを決定する段階を含む
    請求項4または5に記載の方法。
  7. 前記左手または前記右手のどちらが前記デバイスに接触すると決定されたかに基づいて複数のマウス型コマンドを解明する段階を含む
    請求項6に記載の方法。
  8. 指によってカバーされることなく、前記指で前記カーソルが移動させられる段階を含む
    請求項1から7の何れか一項に記載の方法。
  9. タッチ入力デバイス上において複数の指の接触を検出するための手段と、
    ディスプレイ上に表示されるオブジェクトの選択を受信するための手段と、
    指の位置ではなくカーソルの位置に基づいてオブジェクトを選択するための手段と、を備える
    装置。
  10. 検出に応答してカーソルモードに入るための手段を含む
    請求項9に記載の装置。
  11. 前記検出に応答してカーソルを表示するための手段を含む
    請求項9または10に記載の装置。
  12. 1または複数の指の動きに基づいてカーソル位置を制御するための手段を含む
    請求項11に記載の装置。
  13. 前記複数の指のうちの1本の指の近傍に前記カーソルを表示するための手段を含む
    請求項11または12に記載の装置。
  14. 少なくとも3本の指による接触を検出するための手段を含む
    請求項9から13の何れか一項に記載の装置。
  15. シーケンスを実行するための複数の命令を格納するための手段を含み、前記指の接触は親指の接触を含む
    請求項14に記載の装置。
  16. 前記少なくとも3本の指がユーザの左手または右手のどちらに属するかを決定することを含むシーケンスを実行するための複数の命令を格納するための手段を含む
    請求項14または15に記載の装置。
  17. 左手または右手のどちらが前記デバイスに接触すると決定されたかに基づいて、複数のマウス型コマンドを解明することを含むシーケンスを実行するための複数の命令を格納するための手段を含む
    請求項9から16の何れか一項に記載の装置。
  18. 指によってカバーされることなく、前記指で前記カーソルが移動させられるための手段を含む
    請求項11から17の何れか一項に記載の装置。
  19. プロセッサと、
    前記プロセッサに連結されるタッチスクリーンと、
    少なくとも2本の指を含む、タッチスクリーン上における接触を検出し、前記検出に応答してカーソルモードに入り、カーソルを表示し、前記少なくとも2本の指のうちの1または複数の指の動きに基づいてカーソル位置を制御するためのデバイスと、
    を備える
    装置。
  20. 前記デバイスは前記少なくとも2本の指のうちの1本の近傍に前記カーソルを表示する
    請求項19に記載の装置。
  21. 前記デバイスは少なくとも3本の指によるスクリーンへの接触を検出する
    請求項19または20に記載の装置。
  22. 前記指の接触は親指の接触を含む
    請求項21に記載の装置。
  23. 前記デバイスは、前記少なくとも2本の指がユーザの左手または右手のどちらに属するかを決定する
    請求項19から22の何れか一項に記載の装置。
  24. 前記デバイスは、左手または右手のどちらが前記タッチスクリーンに接触すると決定されたかに基づいて、複数のマウス型コマンドを解明する
    請求項19から23の何れか一項に記載の装置。
  25. 前記デバイスは、前記指によってカバーされることなく、スクリーンの指の動きで前記カーソルを移動させる
    請求項19から24の何れか一項に記載の装置。
JP2016541755A 2013-09-13 2013-09-13 マルチタッチ仮想マウス Pending JP2016529640A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/083438 WO2015035595A1 (en) 2013-09-13 2013-09-13 Multi-touch virtual mouse

Publications (1)

Publication Number Publication Date
JP2016529640A true JP2016529640A (ja) 2016-09-23

Family

ID=52580075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016541755A Pending JP2016529640A (ja) 2013-09-13 2013-09-13 マルチタッチ仮想マウス

Country Status (8)

Country Link
US (1) US20150077352A1 (ja)
EP (1) EP3044660A4 (ja)
JP (1) JP2016529640A (ja)
KR (1) KR20160030987A (ja)
CN (1) CN105431810A (ja)
DE (1) DE102014111989A1 (ja)
TW (1) TW201531925A (ja)
WO (1) WO2015035595A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114537417A (zh) * 2022-02-27 2022-05-27 重庆长安汽车股份有限公司 一种基于hud和触摸设备的盲操作方法、***和车辆

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103513817B (zh) * 2013-04-26 2017-02-08 展讯通信(上海)有限公司 一种触控设备及控制其配置操作模式的方法、装置
JP2015170102A (ja) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 情報処理装置
WO2016105329A1 (en) * 2014-12-22 2016-06-30 Intel Corporation Multi-touch virtual mouse
TWI602086B (zh) * 2015-06-30 2017-10-11 華碩電腦股份有限公司 觸控裝置與其操作方法
US10088943B2 (en) * 2015-06-30 2018-10-02 Asustek Computer Inc. Touch control device and operating method thereof
AU2015410106B2 (en) * 2015-09-23 2021-05-27 Razer (Asia-Pacific) Pte. Ltd. Trackpads and methods for controlling a trackpad
CN105278706A (zh) * 2015-10-23 2016-01-27 刘明雄 一种触摸鼠标的触摸输入控制***及其控制方法
CN105630393B (zh) * 2015-12-31 2018-11-27 歌尔科技有限公司 一种触摸屏工作模式的控制方法和控制装置
US10394346B2 (en) * 2016-05-20 2019-08-27 Citrix Systems, Inc. Using a hardware mouse to operate a local application running on a mobile device
US10466811B2 (en) 2016-05-20 2019-11-05 Citrix Systems, Inc. Controlling a local application running on a user device that displays a touchscreen image on a touchscreen via mouse input from external electronic equipment
CN107748637A (zh) * 2017-06-26 2018-03-02 陶畅 一种对自变形图像进行交互式控制的游戏方法
TWI649678B (zh) * 2017-11-08 2019-02-01 波利達電子股份有限公司 Touch device, touch device operation method and storage medium
JP2019102009A (ja) * 2017-12-08 2019-06-24 京セラドキュメントソリューションズ株式会社 タッチパネル装置
US11023113B2 (en) * 2019-04-02 2021-06-01 Adobe Inc. Visual manipulation of a digital object
US11487559B2 (en) 2019-10-07 2022-11-01 Citrix Systems, Inc. Dynamically switching between pointer modes
US11457483B2 (en) 2020-03-30 2022-09-27 Citrix Systems, Inc. Managing connections between a user device and peripheral devices

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040014A (ja) * 1996-06-13 1998-02-13 Internatl Business Mach Corp <Ibm> 仮想ポインティング・デバイスの生成指示方法及び装置
US20020015024A1 (en) * 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
JP2011028524A (ja) * 2009-07-24 2011-02-10 Toshiba Corp 情報処理装置、プログラムおよびポインティング方法
JP2012221478A (ja) * 2011-04-14 2012-11-12 Konami Digital Entertainment Co Ltd 携帯型装置、その制御方法及びプログラム
JP2013089037A (ja) * 2011-10-18 2013-05-13 Sony Computer Entertainment Inc 描画装置、描画制御方法、及び描画制御プログラム
JP2013125286A (ja) * 2011-12-13 2013-06-24 Kyocera Corp 携帯端末、編集制御プログラムおよび編集制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
CN101872263B (zh) * 2009-04-24 2013-05-22 华硕电脑股份有限公司 以触发点决定鼠标指令的方法
US8462134B2 (en) * 2009-06-29 2013-06-11 Autodesk, Inc. Multi-finger mouse emulation
WO2012157272A1 (ja) * 2011-05-16 2012-11-22 パナソニック株式会社 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム
US20130088434A1 (en) * 2011-10-06 2013-04-11 Sony Ericsson Mobile Communications Ab Accessory to improve user experience with an electronic display
CN102591497A (zh) * 2012-03-16 2012-07-18 上海达龙信息科技有限公司 一种触控屏幕上的鼠标模拟***及方法
CN102830819B (zh) * 2012-08-21 2016-03-30 曾斌 模拟鼠标输入的方法及设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040014A (ja) * 1996-06-13 1998-02-13 Internatl Business Mach Corp <Ibm> 仮想ポインティング・デバイスの生成指示方法及び装置
US20020015024A1 (en) * 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
JP2007242035A (ja) * 1998-01-26 2007-09-20 Wayne Westerman マルチタッチ表面装置
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
JP2007299384A (ja) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc コンピュータで実施するマルチタッチセンシティブ画面でマウスをエミュレートする方法及びマウスをエミュレートするシステム
JP2011028524A (ja) * 2009-07-24 2011-02-10 Toshiba Corp 情報処理装置、プログラムおよびポインティング方法
JP2012221478A (ja) * 2011-04-14 2012-11-12 Konami Digital Entertainment Co Ltd 携帯型装置、その制御方法及びプログラム
JP2013089037A (ja) * 2011-10-18 2013-05-13 Sony Computer Entertainment Inc 描画装置、描画制御方法、及び描画制御プログラム
JP2013125286A (ja) * 2011-12-13 2013-06-24 Kyocera Corp 携帯端末、編集制御プログラムおよび編集制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114537417A (zh) * 2022-02-27 2022-05-27 重庆长安汽车股份有限公司 一种基于hud和触摸设备的盲操作方法、***和车辆

Also Published As

Publication number Publication date
EP3044660A4 (en) 2017-05-10
DE102014111989A1 (de) 2015-03-19
WO2015035595A1 (en) 2015-03-19
US20150077352A1 (en) 2015-03-19
CN105431810A (zh) 2016-03-23
TW201531925A (zh) 2015-08-16
EP3044660A1 (en) 2016-07-20
KR20160030987A (ko) 2016-03-21

Similar Documents

Publication Publication Date Title
JP2016529640A (ja) マルチタッチ仮想マウス
JP6429981B2 (ja) ユーザ入力の意図の分類
JP5702296B2 (ja) ソフトウェアキーボード制御方法
US8976140B2 (en) Touch input processor, information processor, and touch input control method
US8581869B2 (en) Information processing apparatus, information processing method, and computer program
US20100229129A1 (en) Creating organizational containers on a graphical user interface
JP6104108B2 (ja) 触覚入力デバイスを介して受けた入力の決定
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
KR102323892B1 (ko) 멀티 터치 가상 마우스
EP3100151B1 (en) Virtual mouse for a touch screen device
KR101399145B1 (ko) 터치스크린 기반 스마트폰의 안전한 파지 및 조작을 위한 gui 위젯
US9201587B2 (en) Portable device and operation method thereof
US9778780B2 (en) Method for providing user interface using multi-point touch and apparatus for same
KR20150091365A (ko) 멀티터치 심볼 인식
US20150220182A1 (en) Controlling primary and secondary displays from a single touchscreen
TWI615747B (zh) 虛擬鍵盤顯示系統及方法
TWI354223B (ja)
US20140298275A1 (en) Method for recognizing input gestures
US20150153925A1 (en) Method for operating gestures and method for calling cursor
US20150091831A1 (en) Display device and display control method
TW201528114A (zh) 電子裝置及其觸控系統、觸控方法
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
KR20140070264A (ko) 터치 스크린 디스플레이 입력을 통한 객체 스크롤 방법 및 장치
KR20150017399A (ko) 터치스크린 입력 방법 및 장치
US20140019908A1 (en) Facilitating the Use of Selectable Elements on Touch Screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170711