JP5674674B2 - 表面に載せた手に合わせたジェスチャーの発生 - Google Patents

表面に載せた手に合わせたジェスチャーの発生 Download PDF

Info

Publication number
JP5674674B2
JP5674674B2 JP2011536485A JP2011536485A JP5674674B2 JP 5674674 B2 JP5674674 B2 JP 5674674B2 JP 2011536485 A JP2011536485 A JP 2011536485A JP 2011536485 A JP2011536485 A JP 2011536485A JP 5674674 B2 JP5674674 B2 JP 5674674B2
Authority
JP
Japan
Prior art keywords
gesture
hand
finger
fingers
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011536485A
Other languages
English (en)
Other versions
JP2012508427A (ja
Inventor
ウェイン カール ウェスターマン
ウェイン カール ウェスターマン
リコ ツォルケンドルファー
リコ ツォルケンドルファー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2012508427A publication Critical patent/JP2012508427A/ja
Application granted granted Critical
Publication of JP5674674B2 publication Critical patent/JP5674674B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、コンピューティングシステムの入力装置として使用されるタッチ感知マウスに係り、より詳細には、マウス表面に載せた手に合わせたジェスチャーを発生する方法に係る。
ほとんどのコンピューティングシステムは、ユーザからマウスのような入力装置を経て入力を受け取ることができる。マウスは、ユーザが、コンピューティングシステムのディスプレイスクリーン上のユーザインターフェイス(UI)において例えばカーソルのような入力ポインタを移動して、そのポインタでUIにおける選択を行い、それにより、コンピューティングシステムの種々のオペレーションをトリガーできるようにする。マウスは、UIにおけるデータ選択のためのメカニズムを備え、それが信号へと変換され、コンピューティングシステムは、それを使用して、コンピューティングシステムの種々のオペレーションに対応するUIの表示要素を選択することができる。例えば、タッチ感知マウスは、選択を行うためのタッチ装置を含むことができる。タッチ装置は、マウスのタッチ面に対してユーザによって行われたジェスチャーを検出することができ、そのジェスチャーは、コンピューティングシステムにおける1つ以上のオペレーションに対応する。コンピューティングシステムは、ジェスチャーを解釈し、その後、それに対応するオペレーションを実行する。
一般的に、コンピューティングシステムにおける特定のオペレーションに対して特定のジェスチャーが予め定義される。コンピューティングシステムの各ユーザは、予め定義されたジェスチャーを行って、それに対応するオペレーションを実行しなければならない。しかしながら、あるケースでは、予め定義されたジェスチャーは、例えば、ユーザの手に幾つかの物理的な制限があったり異なる自然の姿勢があったりする様々な理由で、ユーザにとって不便であったり不快であったりすることがある。
本発明は、タッチ感知マウスの表面に載せた手に合わせたジェスチャーを発生することに係る。ある実施形態では、マウス表面に載せた手の自然の姿勢(pose;ポーズ)に合わせた第1のジェスチャーを発生することができる。第1のジェスチャーに使用される指及び/又は他の指のサブセット(subset;部分集合)を使用する付加的なジェスチャーを発生することができる。ある実施形態では、ユーザの好みのユーザ入力に基づいて第1のジェスチャーを発生することができる。又、ユーザの好みのユーザ入力に基づいて、或いは第1のジェスチャーに使用される指及び/又は他の指のサブセットとして、付加的なジェスチャーを発生することができる。
マウスに載せた手の規範的な自然の姿勢を示す。 マウスに載せた手の規範的な自然の姿勢を示す。 マウスに載せた手の規範的な自然の姿勢を示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 マウスに載せた手の1本以上の指で実行できる規範的ジェスチャーを示す。 本発明の実施形態によりマウスに載せた手に合わせたジェスチャーを発生するための規範的な方法を示す。 本発明の実施形態によりマウスに載せた手に合わせたジェスチャーを検出するための規範的な方法を示す。 本発明の実施形態によるジェスチャー発生及び検出アルゴリズムを具現化する規範的なコンピューティングシステムを示す。 本発明の実施形態によるジェスチャー発生及び検出アルゴリズムを実行するのに使用される図4のコンピューティングシステムへタッチ情報を通信することのできるタッチセンサパネルを含む規範的なマウスを示す。
好ましい実施形態の以下の説明において、本発明を実施できる特定の実施形態が例示された添付図面を参照する。他の実施形態も使用できるし、又、本発明の実施形態の範囲から逸脱せずに構造変更もできることを理解されたい。
本発明は、マウスの表面に載せた手に合わせたジェスチャーを発生することに係る。このジェスチャーは、マウスに載せた手の自然の姿勢に基づく。これは、ユーザが、マウス表面に対しユーザにとって快適なジェスチャーを行えるようにする。
本発明の幾つかの実施形態は、ここではタッチ感知マウス上でのジェスチャーに関して説明するが、本発明の実施形態は、これに限定されず、タッチ及び他の形式の感知技術を使用する入力装置に一般的に適用できることを理解されたい。
図1aないし1cは、マウスに載せた手の規範的な自然の姿勢を示す。図1aは、マウス100の表面に載せた右手110の規範的な上面図である。図1bは、マウス100の表面に載せた右手110の規範的な左側面図である。図1cは、マウス100の表面に載せた右手110の規範的な右側面図である。典型的に、ユーザは、マウスが使用されないときでも長時間にわたって図1aないし1cに示す弛緩した姿勢でマウスに手を載せることができる。この例では、人差し指及び中指をマウスの上面に載せることができ、親指をマウスの左側面に載せることができ、そして薬指及び小指をマウスの右側面に載せることができる。タッチ感知マウスでは、載せた手をタッチ事象として検出し、コンピューティングシステムにより処理することができる。その後、載せた手の1本以上の指がジェスチャーとして見られるように動くときに、載せた手のタッチをコンピューティングシステムにより処理することができる。
マウスの表面に載せた手の自然の姿勢は、ここに示すものに限定されず、より多数の又はより少数の指が上面及び側面に載せられるか、指が表面のより高いところ又はより低いところに載せられるか、等々の種々の他の姿勢も含むことを理解されたい。
図2aないし2kは、マウスに載せた手の1本以上の指により行うことのできる規範的なジェスチャーを示す。図2aの例では、右手110の人差し指112を横方向に動かし(205)、マウス100の表面に手を載せながら「スワイプ(swipe)」ジェスチャーのようなジェスチャーをすることができる。スワイプジェスチャーは、ディスプレイスクリーン上のUI表示を通してページングのようなオペレーションをコンピューティング装置が遂行するようにさせる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2bの例では、右手110の人差し指112及び中指113を一緒に横方向に動かし(210)、マウス100の表面に手を載せながらスワイプジェスチャーのようなジェスチャーをすることができる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2cの例では、右手110の人差し指112を長手方向に動かし(215)、マウス100の表面に手を載せながら「スクロール」ジェスチャーのようなジェスチャーをすることができる。スクロールジェスチャーは、ディスプレイスクリーン上のUIにおいてスクロールアップ又はスクロールダウンのようなオペレーションをコンピューティングシステムが遂行するようにさせる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2dの例では、右手110の人差し指112及び中指113を一緒に長手方向に動かし(220)、マウス100の表面に手を載せながらスクロールジェスチャーのようなジェスチャーをすることができる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2eの例では、右手110の親指111及び人差し指112を一緒に動かしてピンチング(pinching)運動225を行い、マウス100の表面に手を載せながら「ズーム」ジェスチャーのようなジェスチャーをすることができる。ズームジェスチャーは、ディスプレイスクリーン上のUI要素を拡大又は収縮するようなオペレーションをコンピューティングシステムが遂行するようにさせる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2fの例では、右手110の人差し指112及び中指113を一緒に動かしてピンチング運動230を行い、マウス100の表面に手を載せながらズームジェスチャーのようなジェスチャーをすることができる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2gの例では、右手110の人差し指112でタップ運動235を2回行って、マウス100の表面に手を載せながら「ダブルクリック」ジェスチャーのようなジェスチャーをすることができる。ダブルクリックジェスチャーは、ディスプレイスクリーン上で入力ポインタにより指されたUI要素を選択するようなオペレーションをコンピューティングシステムが遂行するようにさせる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2hの例では、右手110の人差し指112及び中指113で一緒にタップ運動240を一度行って、マウス100の表面に手を載せながら「ダブルクリック」ジェスチャーのようなジェスチャーをすることができる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2iの例では、右手110の人差し指112でタップ運動245を3回行って、マウス100の表面に手を載せながら「トリプルクリック」ジェスチャーのようなジェスチャーをすることができる。トリプルクリックジェスチャーは、ディスプレイスクリーン上の入力ポインタで指された複数のUI要素を選択するようなオペレーションをコンピューティングシステムが遂行するようにさせる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2jの例では、右手110の人差し指112、中指113及び薬指114で一緒にタップ運動250を一度行って、マウス100の表面に手を載せながらトリプルクリックジェスチャーのようなジェスチャーをすることができる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
図2kの例では、右手110の親指111、人差し指112及び中指113で一緒にタップ運動255を一度行って、マウス100の表面に手を載せながらトリプルクリックジェスチャーのようなジェスチャーをすることができる。手110の他の指は、マウスの表面上に実質的に静止したままにすることができる。
本発明の幾つかの実施形態は、ここでは右手のジェスチャーに関して説明するが、左手のジェスチャーも含まれることを理解されたい。更に、それら実施形態は、ここに述べるジェスチャーに限定されず、マウス表面上で行うことのできる適当なジェスチャーを含むことも理解されたい。更に、ジェスチャーは、ここに述べる指により行われるものに限定されず、ジェスチャーを実行できる付加的な指又は他の指によって行われてもよい。
図3aは、本発明の実施形態によりマウスに載せた手に合わせたジェスチャーを発生するための規範的な方法を示す。図3aの例において、マウスに手が載せられているかどうか判断することができる(305)。これは、マウスの表面にタッチ事象が生じたかどうか検出することにより行うことができる。マウスに手が載せられている場合には、マウス表面に載せられた手の指に対応するタッチ映像を捕獲することができる。
その捕獲した映像を処理して、手の姿勢を決定することができる(310)。例えば、標準的な信号処理技術を使用して、マウスの上面及び側面において、どの指がどこに何回載せられたか決定することができる。
決定された手の姿勢(pose;ポーズ)に基づき、スクロールジェスチャーを発生することができる(315)。例えば、ユーザの自然の手の姿勢が、マウスの上面に載せられた人差し指及び親指を含む場合に、図2dのようにこれら2つの指が、又は図2cのようにそのいずれかの指が、マウス表面上で長手方向の運動を遂行して、コンピューティングシステムがスクロールオペレーションを実行するようにさせるスクロールジェスチャーを発生することができる。或いは又、ユーザの自然の手の姿勢が、マウスの上面に載せられた人差しのみを含む場合に、図2cのようにその指がマウス表面上で長手方向運動を遂行して、コンピューティングシステムがスクロールオペレーションを実行するようにさせるスクロールジェスチャーを発生することができる。或いは又、ユーザの自然の手の姿勢が、マウスの上面に載せられた人差し指、中指及び薬指を含む場合に、図2c及び図2dのように、これら3本の指又はそのサブセット(subset;部分集合)がマウス表面上で長手方向運動を遂行して、コンピューティングシステムがスクロールオペレーションを実行するようにさせるスクロールジェスチャーを発生することができる。スクロールジェスチャーを発生するための他の自然の姿勢も使用できる。
スクロールジェスチャーに含まれる指に基づいて、他のジェスチャーを発生することもできる(320)。他のジェスチャーは、人差し指、中指及び親指のような3本の指を含む発生されたスクロールジェスチャーに基づいて発生することができる。図2a及び2bのように3本の全ての指又はそのサブセットがマウス表面上で横方向運動を遂行してコンピューティングシステムがスワイプ動作を遂行するようにさせるスワイプジェスチャーを発生することができる(322)。図2gないし2kのように、3本の全ての指又はそのサブセットがマウス表面上で1つ以上のタップ運動を遂行してコンピューティングシステムがクリック動作を実行するようにさせるクリックジェスチャーを発生することができる(324)。図2fのように2本の指が、又は図2eのように1本の指及び親指が、マウス表面上でピンチング運動を遂行して、コンピューティングシステムがズーム動作を実行するようにさせるズームジェスチャーを発生することができる(326)。
同様に、人差し指及び中指のような2本の指を含む発生されたスクロールジェスチャーに基づいて他のジェスチャーを発生することができる。両方の指又はいずれかの指がマウス表面上で横方向の運動を遂行することを含むスワイプジェスチャーを発生することができる(332)。その両方の指又はいずれかの指がマウス表面上で1つ以上のタップ運動を遂行することを含むクリックジェスチャーを発生することができる(334)。その両方の指又は1つの指と親指がマウスの表面上でピンチング運動を遂行することを含むズームジェスチャーを発生することができる(336)。
同様に、人差し指のような1本の指を含む発生されたスクロールジェスチャーに基づいて他のジェスチャーを発生することができる。その指がマウス表面上で横方向運動を遂行することを含むスワイプジェスチャーを発生することができる(342)。その指がマウス表面上でタップ運動を遂行することを含むクリックジェスチャーを発生することができる(344)。その指及び親指がマウス表面上でピンチング運動を遂行することを含むズームジェスチャーを発生することができる(346)。
発生されたジェスチャーは、マウス表面上で行われるジェスチャーを識別するのに後で使用するためにコンピューティングシステムのメモリに記憶することができる。
図3aの方法とは別に、ユーザの手の自然の姿勢に基づいてジェスチャーが自動的に発生されるのではなく、ユーザによりジェスチャーが選択されてもよい。例えば、スクロールジェスチャーを行うのにユーザがどの指を使用したいかについてユーザに質問をし、ユーザの応答に基づいてジェスチャーを発生することができる。その後、ユーザは、スワイプ、ズーム及びクリックのような他のジェスチャーに対してユーザの好みを指示することもできる。或いは又、スクロールジェスチャーに対するユーザの選択に基づいて、コンピューティングシステムは、他のジェスチャーを自動的に発生することができる。
図3aの方法とは更に別に、スクロールジェスチャーが、ユーザの手の自然の姿勢に基づいて自動的に発生される第1のジェスチャーであるのではなく、ジェスチャーをプライオリティ付けし、そのプライオリティに基づいて発生することができる。例えば、スワイプジェスチャーがより頻繁に使用されるか又はより重要と考えられるコンピューティングシステムでは、スワイプジェスチャーを最初に発生することができる。このような実施形態では、スワイプジェスチャーは、ユーザの手の自然の姿勢に基づいて発生することができる。スワイプジェスチャーに含まれる指に基づいて他のジェスチャーを発生することができる。或いは又、ユーザは、ジェスチャーを発生する順序を選択することができる。
図3aの方法とは更に別に、その後のジェスチャーが、スクロールジェスチャーに含まれた同じ指又はそのサブセットを含むのではなく、その後のジェスチャーは、スクロールジェスチャーに含まれた指のスーパーセット又は他の指を含むことができる。
ジェスチャーを発生する方法は、ここに述べるものに限定されず、本発明の実施形態に基づいてジェスチャー発生を遂行できる他のステップ又は付加的なステップも含むことを理解されたい。
図3bは、本発明の実施形態によりマウスに載せた手に合わせたジェスチャーを検出するための規範的な方法を示す。図3bの例では、マウスの表面にタッチ事象が生じたかどうかの判断がなされる(350)。タッチ事象が生じた場合には、マウスの表面に載せられた手の指に対応する複数のタッチ映像を捕獲することができる(355)。この映像は、ジェスチャーを行う指の動き、及び他の指の動きの実質的な欠如を捕獲することができる。
指の動き成分を計算することができる(360)。動き成分は、x成分及びy成分より成る並進運動成分と、スケール(又はズーム)成分と、回転成分とを含むことができる。並進運動成分は、マウスの表面を横切る指の位置の変化を表すことができる。スケール成分は、マウスの表面を横切る指間の距離の変化、即ち指の運動ベクトルのドット積を表すことができる。回転成分は、マウスの表面を横切る指間の角度の変化、即ち指の動きベクトルのクロス積を表すことができる。動き成分の計算は、全ての目的で参考としてここに内容をそのまま援用する“Method and Apparatus for Integrating Manual Input”と題する米国特許第6,323,846号に開示されている。
米国特許第6,323,846号のように、指と指の間の並進運動成分は、指の各並進運動成分の単純な平均値として計算することができる。しかしながら、マウス用途では、例えば、スクロールジェスチャー中、1つの指がマウス表面上を移動する間に、他の指は静止のままであるか又はほとんど動かないことが人間工学的である。従って、1つの指が他の指より非常に速く動くので、又は1つの指は動くが他の指は全く動かないので、単純な平均値は、並進運動を正確に表すものではない。このようなケースでは、指と指との間の並進運動成分Vtは、指の各並進運動成分の重み付けされた平均値として計算することができ、次に示すように、速く動く指は、ゆっくり動く指又は動かない指より大きく重み付けすることができる。
Figure 0005674674
但し、w1及びw2は、重みであり、Vt1及びVt2は、各々、指1及び指2に対する並進運動成分である。式(1)は、親指以外の指を動かすときに適用することができる。というのは、一般的に、親指は、並進運動ではなく、スケール又は回転運動を行うものだからである。
指の滑らかな運動成分は、生の運動成分から計算することができる(365)。これは、生の運動成分にローパスフィルタ(LPF)を適用して、指の動きが開始するときに滑らかな運動成分の迅速な構築を生じさせ、そして指の動きが停止するときに滑らかな運動成分のゆっくりした衰退を生じさせることにより実行できる。滑らかな運動成分を迅速に構築することで、滑らかな運動成分をジェスチャー検出のために素早く得ることができる。又、滑らかな運動成分をゆっくり衰退させることで、付加的な指運動の情報が必要になったときに、指運動が停止した後もある時間中は、滑らかな運動成分をジェスチャー検出のために使用し続けることができる。規範的なローパスフィルタは、単純な一次自己回帰フィルタである。滑らかな運動成分の計算は、全ての目的で参考としてここに内容をそのまま援用する“Motion Component Dominance Factors for Motion Locking of Touch Sensor Data”と題する米国特許出願第12/238,342号に開示されている。
ある実施形態では、滑らかな指速度は、重み付け並進運動成分計算に重みとして使用することができる。従って、式(1)のような指と指との間の重み付け並進運動成分Vtは、次のように表わすことができる。
Figure 0005674674
但し、st1及びst2は、滑らかな指速度であり、Vt1及びVt2は、各々、指1及び指2の並進運動成分である。従って、重み付けされた並進運動成分は、2本の指の間で、対応する滑らかな指速度で重み付けされた各並進運動成分の平均値を計算することにより、計算することができる。
動く指を識別することができる(370)。指は、タッチ映像におけるそれらの相対的な位置に基づいて識別することができる。例えば、右手のタッチ映像において、親指は、タッチ映像の下部における最も左のタッチとして識別することができ、人差し指は、タッチ映像の上部における隣接タッチとして識別することができ、中指は、タッチ映像に最も上の位置を有する次の隣接タッチとして識別することができ、薬指は、タッチ映像の上部における最も右のタッチに隣接したタッチとして識別することができ、そして小指は、タッチ映像の下部における最も右のタッチとして識別することができる。或いは又、各指には、指のタッチが見える可能性が最も高いタッチ映像の特定領域を指定することができ、タッチ映像のその領域におけるタッチを、他の指のタッチのタッチ映像における相対的な位置に関わらず、その指定された指として識別することができる。動く指を識別するための他の基準も使用することができる。指の動きは、並進運動、スケール及び回転運動成分に関して上述したように計算することができる。
運動優勢(motion dominance)ファクタは、ジェスチャーの形式に基づき3つの運動成分に対する重みとして計算することができる(375)。例えば、特定のジェスチャーは、マウスの表面上で長手方向に指の著しい並進運動を有することができる。しかしながら、指は、絶対的な直線で動かないので、見掛け上、若干のスケール運動が生じ、即ち指は、ジェスチャー中又は回転運動中に互いに近づくか又は離れるように動き、即ち1つ以上の指がジェスチャー中にある角度で動く。特定のジェスチャーにおいて並進運動が優勢であるから、著しい並進運動を大事に扱いそして若干のスケール及び回転運動を無視するために3つの運動成分に重み(即ち運動優勢ファクタ)を指定することができる。運動優勢ファクタの計算は、上述した米国特許出願第12/238,342号に開示されている。
米国特許出願第12/238,342号のように、運動優勢ファクタは、ジェスチャーに含まれる動く指の1つが親指であるときには、並進運動よりもスケール及び回転運動の方が高くなる。これは、ジェスチャーにおける親指に対して並進運動成分よりもスケール及び回転運動成分の方が優勢であることを反映する。ある実施形態では、スケール及び回転の優勢ファクタは、約2.5にセットすることができ、並進の優勢ファクタは、約0.25にセットすることができる。マウスの用途では、親指以外の指しかジェスチャーに含まれないときに、可能性のある運動は、並進運動であることが人間工学的に期待される。従って、並進運動に対する運動優勢ファクタは、セットできるが、スケール及び回転運動に対する運動優勢ファクタは、オフにされるか、又は非常に低くセットされる。これは、ジェスチャーにおける親指以外の指に対してスケール及び回転運動成分よりも並進運動成分の方が優勢であることを反映する。ある実施形態では、並進の優勢ファクタは、1.0にセットすることができ、スケール及び回転の優勢ファクタは、オフにされるか、又は0.10にセットされる。
並進運動、スケール及び回転運動成分の中からの優勢運動成分は、運動優勢ファクタに基づいて識別することができる(380)。優勢運動成分の識別も、上述した米国特許出願第12/238,342号に開示されている。
識別された指及びそれらの優勢運動成分は、それらがどのジェスチャーに最もぴったりマッチングするか決定するために、複数の考えられるジェスチャーと比較することができる(385)。例えば、マウスの表面上で行うことのできるユーザの手に合わせた複数の考えられるジェスチャーをメモリに記憶することができる。各記憶されたジェスチャーは、ジェスチャーを遂行できる指及び優勢運動成分を識別することができる。使用すべき記憶されたジェスチャーの指を、タッチ事象で識別された指と比較し、そして記憶されたジェスチャーの優勢運動成分を、タッチ事象で識別された指の優勢運動成分と比較することにより、比較を行うことができる。考えられるジェスチャーの他の特徴も、記憶して比較することができる。
識別された指及び識別された優勢運動成分に最もぴったりマッチングする記憶されたジェスチャーは、検出されたジェスチャーとして選択することができる(390)。検出されたジェスチャーは、コンピューティングシステムにより処理されて、それに対応するオペレーションを実行することができる。
ジェスチャー検出方法は、ここに述べたものに限定されず、本発明の実施形態によるジェスチャー検出を遂行できる他のステップ又は付加的なステップを含んでもよいことを理解されたい。
図4は、本発明の実施形態によるジェスチャー発生及び検出アルゴリズムを具現化する規範的なコンピューティングシステムを示す。図4の例において、コンピューティングシステム400は、本発明の実施形態によるアルゴリズムを具現化するソフトウェア又はファームウェアを実行できる1つ以上のパネルプロセッサ402と、周辺装置404と、パネルサブシステム406とを備えている。周辺装置404は、ランダムアクセスメモリ(RAM)或いは他の形式のメモリ又は記憶装置、ウオッチドッグタイマー、等を含むが、これに限定されない。パネルサブシステム406は、1つ以上のセンスチャンネル408、チャンネルスキャンロジック(アナログ又はデジタル)410、及びドライバロジック(アナログ又はデジタル)414を含むが、これに限定されない。チャンネルスキャンロジック410は、RAM412にアクセスし、センスチャンネル408からデータを自律的に読み取り、そしてセンスチャンネルの制御を行うことができる。加えて、チャンネルスキャンロジック410は、タッチセンサパネル424のドライブ線に同時に付与できる種々の位相で刺激信号416を発生するようにドライバロジック414を制御することができる。パネルサブシステム406は、低いデジタルロジック電圧レベル(例えば、1.7ないし3.3V)で動作することができる。ドライバロジック414は、2つの電荷蓄積装置、例えば、キャパシタを一緒にカスケード接続して、電荷ポンプ415を形成することにより、デジタルロジックレベルの供給電圧より高い供給電圧を発生することができる。電荷ポンプ415は、デジタルロジックレベル供給電圧の約2倍の振幅(例えば、3.4ないし6.6V)を有する刺激信号416を発生するのに使用できる。図4は、ドライバロジック414とは個別の電荷ポンプ415を示しているが、電荷ポンプは、ドライバリックの一部分でもよい。ある実施形態では、パネルサブシステム406、パネルプロセッサ402及び周辺装置404は、単一の特定用途向け集積回路(ASIC)へと一体化することができる。
タッチセンサパネル424は、複数のドライブ線及び複数のセンス線を有する容量性感知媒体を含むが、他の感知媒体を使用することもできる。ドライブ線及びセンス線は、インジウムスズ酸化物(ITO)又はアンチモンスズ酸化物(ATO)のような透明導電性媒体から形成できるが、他の透明及び不透明材料、例えば、銅を使用することもできる。ドライブ線及びセンス線は、実質的に透明な基板の片側、基板の両側、又は誘電体材料によって分離された2枚の個別基板に形成することができる。ドライブ線及びセンス線の各交差点は、容量性感知ノードを表し、そして画素(ピクセル)426として見ることができ、これは、タッチセンサパネル424がタッチの「映像」を捕獲するものと考えたときに特に有用である。(換言すれば、タッチセンサパネルの各タッチセンサにおいてタッチ事象が検出されたかどうかパネルサブシステム406が決定した後に、タッチ事象が生じたところのマルチタッチパネルのタッチセンサのパターンをタッチの「映像」(例えば、パネルにタッチする指のパターン)として見ることができる。)ドライブ線及びセンス線とローカルシステム接地との間のキャパシタンスは、漂遊キャパシタンスCstrayとして現れ、そしてドライブ線とセンス線の交点、即ちピクセルのキャパシタンスは、所与のドライブ線が交流(AC)信号で刺激されたときに相互信号キャパシタンスCsigとして現れる。タッチセンサパネル上又はその付近における指又は他の物体の存在は、タッチされるピクセルに生じる信号電荷の変化、Csigの関数、を測定することで、検出できる。タッチセンサパネル424の各センス線は、パネルサブシステム406のセンスチャンネル408を駆動することができる。
タッチセンサパネル424は、マウスのような入力装置の表面の一部分又は実質的に全部をカバーすることができる。
又、コンピューティングシステム400は、パネルプロセッサ402から出力を受け取って、その出力に基づいてアクションを遂行するためのホストプロセッサ428も備え、それらのアクションは、カーソル又はポインタのような1つ以上の物体を移動し、スクロール又はパンを行い、制御設定を調整し、ファイル又はドキュメントをオープンし、メニューを見、選択を行い、インストラクションを実行し、ホスト装置に結合された周辺装置を動作し、電話コールに応答し、電話コールを発信し、電話コールを着信し、ボリューム又は音声設定を変更し、住所、頻繁にダイヤルされる番号、受け取ったコール、逸したコールのような電話通信に関連した情報を記憶し、コンピュータ又はコンピュータネットワークにログオンし、コンピュータ又はコンピュータネットワークの制限エリアへの許可された個人のアクセスを許し、コンピュータデスクトップのユーザの好ましい構成に関連したユーザプロフィールをロードし、ウェブコンテンツへのアクセスを許し、特定のプログラムを起動し、メッセージを暗号化し又はデコードし、等々、を含むが、それらに限定されない。ホストプロセッサ428は、本発明の実施形態によるアルゴリズムを具現化するソフトウェア又はファームウェアを実行することができる。又、ホストプロセッサ428は、パネル処理に関係ない付加的な機能を遂行することもできるし、プログラム記憶装置432及びディスプレイ装置430、例えば、装置のユーザにUIを与えるLCDディスプレイに結合することもできる。ディスプレイ装置430は、タッチセンサパネル424のもとに部分的に又は完全に位置されたときに、タッチセンサパネルと共に、タッチスクリーンを形成することができる。
上述した1つ以上の機能は、メモリ(例えば、図4の周辺装置404の1つ)に記憶されてパネルプロセッサ402により実行されるファームウェア、又はプログラム記憶装置432に記憶されてホストプロセッサ428により実行されるファームウェアにより遂行できることに注意されたい。又、ファームウェアは、コンピュータベースのシステム、プロセッサ収容システムのようなインストラクション実行システム、装置又はデバイス、或いはそのインストラクション実行システム、装置又はデバイスからインストラクションをフェッチしてそれらインストラクションを実行する他のシステムにより使用するために又はそれらに関連して使用するために、コンピュータ読み取り可能な媒体に記憶され及び/又はその中において搬送される。本書において、「コンピュータ読み取り可能な媒体」とは、インストラクション実行システム、装置又はデバイスにより使用するために又はそれらに関連して使用するためにプログラムを収容し又は記憶できる媒体である。コンピュータ読み取り可能な媒体は、電子、磁気、光学、電磁、赤外線又は半導体システム、装置又はデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、リードオンリメモリ(ROM)(磁気)、消去可能なプログラマブルリードオンリメモリ(EPROM)(磁気)、ポータブル光学ディスク、例えば、CD、CD−R、CD−RW、DVD、DVD−R又はDVD−RW、或いはフラッシュメモリ、例えば、コンパクトフラッシュカード、セキュアなデジタルカード、USBメモリデバイス、メモリスティック、等を含むが、それらに限定されない。
又、ファームウェアは、コンピュータベースのシステム、プロセッサ収容システムのようなインストラクション実行システム、装置又はデバイス、或いはそのインストラクション実行システム、装置又はデバイスからインストラクションをフェッチしてそれらインストラクションを実行する他のシステムにより使用するために又はそれらに関連して使用するために、搬送媒体内で伝播することもできる。本書において、「搬送媒体」とは、インストラクション実行システム、装置又はデバイスにより使用するために又はそれらに関連して使用するためにプログラムを通信し、伝播し又は搬送できる媒体である。読み取り可能な搬送媒体は、電子、磁気、光学、電磁又は赤外線のワイヤード又はワイヤレス伝播媒体を含むが、それらに限定されない。
センサパネルは、図4を参照して説明したタッチセンサパネルに限定されず、本発明の実施形態によりタッチ又は空中停止事象を感知してジェスチャーを検出することのできる接近センサパネル又は他のセンサパネルでもよいことを理解されたい。更に、タッチセンサパネルのタッチセンサは、ここでは、行及び列を有するタッチセンサの直交アレイに関して説明したが、本発明の実施形態は、直交アレイに限定されず、対角線、同心円、並びに三次元及びランダム配向を含む多数の次元及び配向に配列されたタッチセンサに一般的に適用できることを理解されたい。更に、ここに述べるタッチセンサパネルは、シングルタッチ又はマルチタッチのいずれのセンサパネルでもよい。
図5は、マウスの表面のタッチセンサパネル524と、ベース545と、本発明の実施形態によるジェスチャー発生及び検出アルゴリズムを実行するのに使用できる図4のコンピューティングシステム内の他のコンピューティングシステムブロックとを備えた規範的なタッチ感知マウス500を示す。ある実施形態では、マウス500は、ケーブル550を経てコンピューティングシステムと通信することができる。ある実施形態では、マウス500は、ワイヤレス接続を経てコンピューティングシステムと通信することができる。
以上、添付図面を参照して、本発明の実施形態を詳細に説明したが、当業者であれば、種々の変更や修正が明らかであろう。このような変更や修正は、特許請求の範囲に規定された本発明の実施形態の範囲内に網羅されるものと理解されたい。
100:マウス
110:右手
112:人差し指
113:中指
205、210:横方向運動
215、220:長手方向運動
225、230:ピンチング運動
235、240、245、250:タップ運動
400:コンピューティングシステム
402:パネルプロセッサ
404:周辺装置
406:パネルサブシステム
408:センスチャンネル
410:チャンネルスキャンロジック
412:RAM
414:ドライブロジック
415:電荷ポンプ
416:刺激信号
424:タッチセンサパネル
428:ホストプロセッサ
430:ディスプレイ装置
432:プログラム記憶装置

Claims (22)

  1. タッチ表面に載せた手に合わせたジェスチャーを選択する方法において、
    第1の操作を実行するための複数のジェスチャーを記憶するステップと、
    前記タッチ表面に載せた手の1つ又は複数の指を識別するステップと、
    前記識別された1つ又は複数の指のうちの少なくとも第1のサブセットに基づいて、前記記憶された複数のジェスチャーの中から第1のジェスチャーを選択するステップと、
    前記識別された1つ又は複数の指のうちの少なくとも第1のサブセットがジェスチャーを実行することを示すデータを受信するステップと、
    前記記憶された第1のジェスチャーを前記実行されたジェスチャーと比較するステップと、
    前記比較に基づいて、前記第1の操作を実行するステップと、を備えた方法。
  2. 指を識別する前記ステップは、前記第1のジェスチャーの一環として前記タッチ表面上で長手方向の動きを作る姿勢をとる前記手の前記指を識別することを含み、前記第1の操作はスクロール操作である、請求項1に記載の方法。
  3. 前記識別された1つ又は複数の指のうちの少なくとも第2のサブセットに基づいて第2のジェスチャーを選択することをさらに含む、請求項1に記載の方法。
  4. タッチ表面に載せた手に合わせたジェスチャーを選択する方法において、
    第1の操作を実行する複数のジェスチャーを記憶するステップと、
    前記タッチ表面に載せた手の姿勢を識別するステップと、
    前記手の姿勢に基づいて、前記記憶された複数のジェスチャーの中から、前記タッチ表面に載せた前記手の1つ又は複数の指を含む前記手によって実行される第1のジェスチャーを選択するステップと、
    前記1つ又は複数の指のうちの少なくともサブセットを含む前記手によって実行される第2のジェスチャーを選択するステップと、
    前記手がジェスチャーを実行することを示すデータを受信するステップと、
    前記記憶された第1のジェスチャを前記実行されたジェスチャーと比較するステップと、
    前記比較に基づいて、前記第1の操作を実行するステップと、を備えた方法。
  5. 前記タッチ表面に載せた手の姿勢を識別する前記ステップは、前記手の姿勢の1つ又は複数の指を選択する入力を受け取ることを含む、請求項4に記載の方法。
  6. 前記第1のジェスチャーを選択する前記ステップは、前記タッチ表面上で長手方向の動きを作ることができる前記指を利用する前記第1のジェスチャーを選択することを含み、前記第1の操作はスクロール操作である、請求項4に記載の方法。
  7. 前記第1のジェスチャーは、定義される第1のプライオリティを有し、前記第2のジェスチャーは、定義される第2のプライオリティを有する、請求項4に記載の方法。
  8. タッチ表面に載せた手に合わせたジェスチャーを選択する方法において、
    第1の操作を実行するための複数のジェスチャーを記憶するステップと、
    前記タッチ表面に載せた手の姿勢を識別するステップと、
    前記タッチ表面に載せた手によってなされたタッチイベントに応答して、前記手のどの指が動いたかを識別するステップと、
    識別された動く指の運動成分を確認するステップと、
    前記記憶された複数のジェスチャーの中から、少なくとも1つの前記確認された運動成分を有する前記識別された動く指によってなされ得る第1のジェスチャーを選択するステップと、
    前記手がジェスチャーを実行することを示すデータを受信するステップと、
    前記記憶された第1のジェスチャーを前記実行されたジェスチャーと比較するステップと、
    前記比較に基づいて、前記第1の操作を実行するステップと、を備えた方法。
  9. 前記運動成分は、並進運動成分、スケール運動成分、及び回転運動成分、の少なくとも1つを含む、請求項8に記載の方法。
  10. 前記並進運動成分は、前記識別された動く指の並進運動成分の重み付けされた平均として計算され、前記識別された動く指の速い方が、前記識別された動く指の残りより大きく重み付けされる、請求項8に記載の方法。
  11. 前記決定された運動成分の中から優勢な運動成分を決定するステップと、
    前記決定された優勢な運動成分をもつ前記第1のジェスチャーを選択するステップと、を更に備えた請求項8に記載の方法。
  12. 優勢な運動成分を決定する前記ステップは、
    前記決定された運動成分に対応する運動優勢ファクタを計算すること、を含み、
    スケール運動成分及び回転運動成分に対する運動優勢ファクタは、親指が前記識別された動く指の1つでないときよりも、親指が前記識別された動く指の1つであるときにより高く、そして
    並進運動成分に対する運動優勢ファクタは、親指が前記識別された動く指の1つであるときよりも、親指が前記識別された動く指の1つでないときにより高い、請求項11に記載の方法。
  13. タッチ表面に載せた手に合わせたジェスチャーを選択するためのプログラムコードを含むコンピュータ読み取り可能な媒体において、
    前記プログラムコードは、
    第1の操作を実行するための複数のジェスチャーを記憶し、
    タッチ表面上のタッチ事象に応答して、前記タッチ表面に載せた手の姿勢を識別し、 前記手の姿勢に基づいて、前記記憶された複数のジェスチャーの中から、前記手によって実行される第1のジェスチャーを選択し、
    前記手によって実行される第2のジェスチャーを定義し、
    前記手がジェスチャーを実行することを示すデータを受信し、
    前記記憶された第1のジェスチャーを前記実行されたジェスチャーと比較し、
    前記比較に基づいて、前記第1の操作を実行する、
    ことを含む方法を遂行するものである、コンピュータ読み取り可能な媒体。
  14. 前記手の姿勢を識別することは、どの指がタッチ事象を構成するか、どれほど多くの指がタッチ事象を構成するか、又はタッチ事象の間にタッチ表面のどこに指がタッチするか、を識別することを含む、請求項13に記載のコンピュータ読み取り可能な媒体。
  15. 前記第1のジェスチャーを選択することは、前記第1のジェスチャーを作るために姿勢をとった前記手の指を選択することを含む、請求項13に記載のコンピュータ読み取り可能な媒体。
  16. 前記第2のジェスチャーを選択することは、前記第2のジェスチャーを作るために姿勢をとった前記第1のジェスチャーから前記手の指を選択することを含む、請求項13に記載のコンピュータ読み取り可能な媒体。
  17. 第1の操作を実行するための複数のジェスチャーを記憶することが可能な記憶装置と、 入力装置からデータを受信することが可能なプロセッサであって、前記入力装置が、前記入力装置の表面上の複数の入力を検出するように構成された複数の入力センサを有し、前記複数の入力は、前記表面に載せた物体に対応する、プロセッサと、を備え、
    前記プロセッサは、さらに、
    前記複数の入力に基づいて、前記記憶された複数のジェスチャーの中から、前記物体によって実行される第1のジェスチャーを選択し、
    前記物体がジェスチャーを実行することを示すデータを受信し、
    前記記憶された第1のジェスチャーを前記実行されたジェスチャーと比較し、
    前記比較に基づいて、前記第1の操作を実行する、ことが可能である、コンピューティングシステム。
  18. 前記物体は、前記表面に載せた手の指である、請求項17に記載のシステム。
  19. 前記複数の入力センサは、前記入力装置の表面に載せた手のタッチを検出するように構成された複数のタッチセンサである、請求項17に記載のシステム。
  20. 前記複数のタッチセンサは、前記入力装置の表面に配置されたタッチセンサパネルに組み込まれている、請求項19に記載のシステム。
  21. 前記入力装置はマウスである、請求項17に記載のシステム。
  22. 前記複数の入力センサは、複数のタッチセンサであり、前記マウスの表面に配置されたタッチセンサパネルに組み込まれている、請求項21に記載のシステム。
JP2011536485A 2008-11-12 2009-11-12 表面に載せた手に合わせたジェスチャーの発生 Expired - Fee Related JP5674674B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/269,843 2008-11-12
US12/269,843 US8502785B2 (en) 2008-11-12 2008-11-12 Generating gestures tailored to a hand resting on a surface
PCT/US2009/064274 WO2010056917A1 (en) 2008-11-12 2009-11-12 Generating gestures tailored to a hand resting on a surface

Publications (2)

Publication Number Publication Date
JP2012508427A JP2012508427A (ja) 2012-04-05
JP5674674B2 true JP5674674B2 (ja) 2015-02-25

Family

ID=41786050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011536485A Expired - Fee Related JP5674674B2 (ja) 2008-11-12 2009-11-12 表面に載せた手に合わせたジェスチャーの発生

Country Status (6)

Country Link
US (1) US8502785B2 (ja)
EP (1) EP2359224B1 (ja)
JP (1) JP5674674B2 (ja)
KR (1) KR101535320B1 (ja)
CN (1) CN102216883B (ja)
WO (1) WO2010056917A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8502785B2 (en) 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface
US20120016960A1 (en) * 2009-04-16 2012-01-19 Gelb Daniel G Managing shared content in virtual collaboration systems
TW201039184A (en) * 2009-04-24 2010-11-01 Asustek Comp Inc Method of determining mouse command according to triggered points
US20110195781A1 (en) * 2010-02-05 2011-08-11 Microsoft Corporation Multi-touch mouse in gaming applications
US8730157B2 (en) * 2010-11-15 2014-05-20 Hewlett-Packard Development Company, L.P. Hand pose recognition
US9201539B2 (en) 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
TW201235894A (en) * 2011-02-25 2012-09-01 Primax Electronics Ltd Undirectional mouse
CN102654796A (zh) * 2011-03-04 2012-09-05 致伸科技股份有限公司 无方向性鼠标
KR101313537B1 (ko) 2011-07-07 2013-10-01 하재석 한 손으로 컴퓨터를 조작하기 위한 장치
TWI493387B (zh) * 2011-11-18 2015-07-21 Primax Electronics Ltd 多點觸控滑鼠
US9292197B2 (en) * 2012-03-30 2016-03-22 Mckesson Financial Holdings Method, apparatus and computer program product for facilitating the manipulation of medical images
TW201351215A (zh) * 2012-06-06 2013-12-16 Areson Technology Corp 滑鼠模擬觸控螢幕操作的方法
CN103513785A (zh) * 2012-06-29 2014-01-15 联想(北京)有限公司 一种信息处理方法、电子设备及输入设备
CN103576910B (zh) * 2012-08-06 2016-10-05 联想(北京)有限公司 一种信息处理方法及电子设备
US10241639B2 (en) 2013-01-15 2019-03-26 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
WO2014113507A1 (en) * 2013-01-15 2014-07-24 Leap Motion, Inc. Dynamic user interactions for display control and customized gesture interpretation
JP5862587B2 (ja) * 2013-03-25 2016-02-16 コニカミノルタ株式会社 ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
ITCO20130068A1 (it) * 2013-12-18 2015-06-19 Nu Tech S A S Di De Michele Marco & Co Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico.
JP6364790B2 (ja) * 2014-01-30 2018-08-01 株式会社リコー ポインティングデバイス
JP5956481B2 (ja) * 2014-02-10 2016-07-27 レノボ・シンガポール・プライベート・リミテッド 入力装置、入力方法、及びコンピュータが実行可能なプログラム
US10712835B2 (en) 2016-10-06 2020-07-14 Htc Corporation System and method for detecting hand gesture
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US11348373B2 (en) 2020-02-21 2022-05-31 Microsoft Technology Licensing, Llc Extended reality gesture recognition proximate tracked object

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
JPH07182101A (ja) * 1993-10-26 1995-07-21 Itu Res Inc グラフィック入力装置および方法、グラフィックオブジェクト操作方法、グラフィック入力信号供給方法
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
JPH1165759A (ja) * 1997-08-21 1999-03-09 Sharp Corp 情報入力装置
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
EP1717683A3 (en) 1998-01-26 2010-03-17 Apple Inc. Method and apparatus for integrating manual input
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
JP4144947B2 (ja) * 1998-04-01 2008-09-03 富士通コンポーネント株式会社 マウス
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
US7256770B2 (en) 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
US7358956B2 (en) * 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US6184064B1 (en) * 2000-01-12 2001-02-06 Micron Technology, Inc. Semiconductor die back side surface and method of fabrication
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP3799545B2 (ja) * 2001-12-12 2006-07-19 有限会社ネゴ 単一のボタンで多数の入力操作が行える入力装置
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
JP3986830B2 (ja) * 2002-01-18 2007-10-03 シャープ株式会社 情報入出力装置
US7168047B1 (en) * 2002-05-28 2007-01-23 Apple Computer, Inc. Mouse having a button-less panning and scrolling switch
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2005339229A (ja) * 2004-05-27 2005-12-08 Nec Corp 入力機器及び入力システム
EP1787281A2 (en) * 2004-07-15 2007-05-23 N-Trig Ltd. Automatic switching for a dual mode digitizer
CN103365595B (zh) * 2004-07-30 2017-03-01 苹果公司 用于触敏输入设备的手势
JP4351599B2 (ja) 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
US8614676B2 (en) 2007-04-24 2013-12-24 Kuo-Ching Chiang User motion detection mouse for electronic device
US7710397B2 (en) * 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
JP2009042796A (ja) 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
US8077147B2 (en) * 2005-12-30 2011-12-13 Apple Inc. Mouse with optical sensing surface
US20070257891A1 (en) 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
US20090174676A1 (en) 2008-01-04 2009-07-09 Apple Inc. Motion component dominance factors for motion locking of touch sensor data
US8502785B2 (en) 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface

Also Published As

Publication number Publication date
US8502785B2 (en) 2013-08-06
JP2012508427A (ja) 2012-04-05
CN102216883B (zh) 2013-11-13
CN102216883A (zh) 2011-10-12
US20100117963A1 (en) 2010-05-13
KR101535320B1 (ko) 2015-07-08
EP2359224B1 (en) 2017-07-05
KR20110084313A (ko) 2011-07-21
EP2359224A1 (en) 2011-08-24
WO2010056917A1 (en) 2010-05-20

Similar Documents

Publication Publication Date Title
JP5674674B2 (ja) 表面に載せた手に合わせたジェスチャーの発生
US8446374B2 (en) Detecting a palm touch on a surface
US7924271B2 (en) Detecting gestures on multi-event sensitive devices
US9182884B2 (en) Pinch-throw and translation gestures
US20180059928A1 (en) Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
KR101521337B1 (ko) 재배치가능한 터치면 상의 제스처 방위의 검출
US8188985B2 (en) Method and apparatus continuing action of user gestures performed upon a touch sensitive interactive display in simulation of inertia
AU2008100547B4 (en) Speed/position mode translations
AU2017203910B2 (en) Glove touch detection
TWM341257U (en) Touch input system and electronic device
CN104885051A (zh) 锚拖动触摸符号辨识
US8947378B2 (en) Portable electronic apparatus and touch sensing method
US20120050171A1 (en) Single touch process to achieve dual touch user interface
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130305

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130312

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130408

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140326

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141222

R150 Certificate of patent or registration of utility model

Ref document number: 5674674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees