JP2007334870A - 直接入力装置の位置をマッピングする方法およびシステム - Google Patents
直接入力装置の位置をマッピングする方法およびシステム Download PDFInfo
- Publication number
- JP2007334870A JP2007334870A JP2007126913A JP2007126913A JP2007334870A JP 2007334870 A JP2007334870 A JP 2007334870A JP 2007126913 A JP2007126913 A JP 2007126913A JP 2007126913 A JP2007126913 A JP 2007126913A JP 2007334870 A JP2007334870 A JP 2007334870A
- Authority
- JP
- Japan
- Prior art keywords
- mapping
- input device
- relative
- direct input
- absolute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 46
- 241001422033 Thestylus Species 0.000 claims description 39
- 230000007704 transition Effects 0.000 claims description 18
- 230000001846 repelling effect Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 abstract description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 21
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】方法は、直接入力装置の位置を表面に表示されるポインタのロケーションにマッピングする。
【解決手段】本方法は、絶対的マッピングモードで動作している時に、直接入力装置の物理的位置と表示装置上のポインタの仮想ロケーションとの間の絶対的マッピングを行い、相対的マッピングモードで動作している時に、入力装置の物理的位置とポインタのロケーションとの間の相対的マッピングを行う。絶対的マッピングおよび相対的マッピングの間の切り換えは、直接入力装置から検出される制御信号に応答して行われる。
【選択図】図2B
【解決手段】本方法は、絶対的マッピングモードで動作している時に、直接入力装置の物理的位置と表示装置上のポインタの仮想ロケーションとの間の絶対的マッピングを行い、相対的マッピングモードで動作している時に、入力装置の物理的位置とポインタのロケーションとの間の相対的マッピングを行う。絶対的マッピングおよび相対的マッピングの間の切り換えは、直接入力装置から検出される制御信号に応答して行われる。
【選択図】図2B
Description
本発明は、包括的にはグラフィックアプリケーションに関し、特に、直接ポインティング入力装置を用いたグラフィックアプリケーションの制御に関する。
間接入力装置および直接入力装置
通常、コンピュータ実装されるグラフィックアプリケーションは、ポインティング入力装置を用いて制御される。間接ポインティング装置は、マウス、トラックボールおよびタッチパッドを含み、直接ポインティング装置は、タッチセンシティブ表示面を含む。グラフィックオブジェクトとの対話は、通常、アプリケーションにより出力装置上に表示されるグラフィックポインタにより表される。入力装置の移動に対応して、出力装置上のポインタが移動する。
通常、コンピュータ実装されるグラフィックアプリケーションは、ポインティング入力装置を用いて制御される。間接ポインティング装置は、マウス、トラックボールおよびタッチパッドを含み、直接ポインティング装置は、タッチセンシティブ表示面を含む。グラフィックオブジェクトとの対話は、通常、アプリケーションにより出力装置上に表示されるグラフィックポインタにより表される。入力装置の移動に対応して、出力装置上のポインタが移動する。
マウス、タッチパッド、またはトラックボール等の間接入力装置を用いる場合、入力装置とポインタとは物理的に離れている。また、入力装置は、通常、机の作業面またはタッチパッドの水平面上を移動するが、ポインタは、表示装置の垂直面上を移動する。タッチセンシティブ表面等の直接入力ポインティング入力装置を用いる場合、グラフィックオブジェクトは、表示面上でそれに触れることにより直接操作される。直接入力方式は、マウスの使用等の間接入力に対する実用的な代案である。
絶対的マッピングおよび相対的マッピング
ポインティング装置の位置とポインタのロケーションとの間のマッピングは、絶対的または相対的であり得る。ほとんどの直接ポインティング入力装置は、絶対的マッピングを用いる。すなわち、ポインタが、ポインティングに用いられる指またはスタイラスの真下に位置決めされる。これは、最も明快であり、最も自然なマッピングであるかもしれないが、欠点がある。手、腕、指、およびスタイラスがディスプレイの一部を遮蔽する可能性がある。これは、シングルユーザシステムおよびマルチユーザシステムの両方において厄介となり得る。
ポインティング装置の位置とポインタのロケーションとの間のマッピングは、絶対的または相対的であり得る。ほとんどの直接ポインティング入力装置は、絶対的マッピングを用いる。すなわち、ポインタが、ポインティングに用いられる指またはスタイラスの真下に位置決めされる。これは、最も明快であり、最も自然なマッピングであるかもしれないが、欠点がある。手、腕、指、およびスタイラスがディスプレイの一部を遮蔽する可能性がある。これは、シングルユーザシステムおよびマルチユーザシステムの両方において厄介となり得る。
多くの背面投影出力装置の場合、正確なポインティングおよび選択は、視差により妨げられる。前面投影の場合、指または手が注意対象のオブジェクトの上に影を落とす。
小型ディスプレイでは、ユーザインタフェースの全ての領域に容易に手が届くが、大型ディスプレイでは、そうであるとは限らない。直接入力装置の使用は、その望ましさを失い、多くのユーザが腕を伸ばすか、体をひねるか、またはディスプレイの離れた部分へ物理的に歩いて行かなければならなくなる。極端な場合、非常に大きなディスプレイの全域に手が届かなくなる場合がある。これらの問題は、大きなマルチディスプレイ環境で作業する場合にのみ増え、遠くにあるグラフィックオブジェクトは、手が届き難いだけでなく、ユーザがディスプレイ間の斜面、さらにはギャップを越えて対話することを要求する場合がある。例えば、数平方メートルの大きさの表示面上でポインタを直接移動させるのは不便であり、おそらくは、物理的に不可能である。
間接ポインティングは、おそらくは、自然さと引き換えにではあるが、これらの限界の多くを克服する。大型の壁面サイズのディスプレイに関する主な利点は、間接入力装置の小さな移動をポインタの大きな移動にマッピングさせることができるため、歩かずに遠くのターゲットを操作できることである。その逆もまた同じことが言える。間接入力装置を用いた相対的マッピングは、ゆっくりとした移動およびより正確なポインティングに関して制御−表示(CD)利得比を1:1未満にすることができるため、ポインティングをより自由に制御することを可能にする。
遮蔽および視差もまた、間接ポインティングではあまり問題にならない。また、異なるディスプレイ間でのポインタのドラッグが容易にサポートされ、大型ディスプレイの全域が容易に選択される。マルチユーザ環境では、ユーザは、共同作業者の視野を遮らないように自身の位置を変えることができる。
間接ポインティングおよび直接ポインティングの性能に関して、従来技術は、異なる結論を記載している。Sears他は、間接マウス入力を直接タッチスクリーン入力と比較した。Sears他の実験は、マウスのCD利得をほぼ1として、27.6×19.5cmのディスプレイを用いた。幅16ピクセル以上のターゲットに関して、Sears他は、タッチセンシティブスクリーンを用いた直接選択が、マウスを用いた間接選択よりも速いことを見出した。さらに、幅32ピクセル以上のターゲットに関して、直接タッチ選択により生じたミスは、間接マウスの場合より約66%少なかった。それでもなお、直接タッチ入力方式の性能が明らかに優れているにもかかわらず、参加者は、やはりマウス入力を好んだ(Sears, A.およびShneiderman, B.著「高精度のタッチスクリーン:設計方針およびマウスとの比較(High Precision Touchscreens: Design Strategies and Comparisons with a Mouse)」(International Journal of Man-Machine Studies, 34(4). 593-613, 1991))。
Myers他もまた直接入力装置を間接入力装置と比較した。Myers他は、制御領域と表示領域とが物理的に離れた状態で間接的に用いられる場合、間接装置の性能が直接装置よりも優れていることを見出した。実際、Myers他は、全ての直接入力装置が間接装置よりも遅いことを見出した(Myers, B.、Bhatnagar, R.、Nichols, J.、Peck, C.H.、Kong, D.、Miller, R.およびLong, C.著「遠隔対話:レーザポインタおよび他の装置の性能測定(Interacting at a distance: measuring the performance of laser pointers and other devices)」(Proc. of ACM CHI Conference on Human Factors in Computing Systems, pp. 33-40, 2002))。
一方、Graham他は、直接的な物理接触および間接的な仮想接触を用いて選択性能を比較した。物理モードでは、ユーザは、自身の手を用いて、物理面上で直接ターゲットを選択したが、仮想モードでは、ユーザの手は隠され、「仮想の指」としてディスプレイ上に描画された。最初の移動段階では、両技法に性能の差はなかったが、第2の移動段階では、小さな3〜12mmのターゲットを選択するために手が減速したため、仮想接触のほうが遅かった。これは、直接入力の性能が、状況によっては間接入力よりも優れている可能性があることを示唆する(Graham, E.およびMacKenzie, C.著「物理ポインティング対仮想ポインティング(Physical versus virtual pointing)」(Proc. of the CHI '96 Conf. on Human Factors in Computing Systems, pp. 292-299, 1996))。
これらの結果は、Accot他が記載した結果と対照をなす。Accot他は、ステアリング(操作)タスクの場合、ユーザは、8インチ×6インチの間接タッチタブレットを絶対モードで用いた場合、より小さな間接タッチパッドを相対モードで用いた場合よりも2倍近く速いことを見出した(Accot, J.およびZhai, S.著「軌跡ベースのタスクにおける入力装置の性能評価:ステアリングの法則の適用(Performance evaluation of input devices in trajectory-based tasks: an application of the steering law)」(Proc. of ACM SIGCHI Conference on Human Factors in Computing Systems, pp. 466-472, 1999))。
ある絶対的な間接入力装置が、J.K.、Mandryk, R.L.、およびInkpen, K.M.著「TractorBeam:卓上ディスプレイのためのローカルポインティングおよびリモートポインティングのシームレスな統合(TractorBeam: seamless integration of local and remote pointing for tabletop displays)」(Proceedings of the 2005 conference on Graphics interface, Human-Computer Communications Society, pp. 33-40, 2005)により記載されている。このシステムは、ハンドヘルドPolhemus Fastrakテザー付きポインティング装置を6自由度の動き追跡に用いる。表示されるポインタ(この場合は仮想レーザ点)は、テーブルトップ上の、ハンドヘルドポインタを向けたちょうどその場所に、常に表示されている。しかし、ハンドヘルド装置を用いて遠くにあるターゲットを正確に選択することは、難しくミスを生じ易いことがよく知られている。手を長時間にわたって静止させておくことは、不可能である。ジッタは、不可避である。これは、大型ディスプレイに対するハンドヘルド直接入力装置の使い易さを疑わしいものにする(Myers, B.、Bhatnagar, R.、Nichols, J.、Peck, C.H.、Kong, D.、Miller, R.およびLong, C.著「遠隔対話:レーザポインタおよび他の装置の性能測定(Interacting at a distance: measuring the performance of laser pointers and other devices)」(Proc. of ACM CHI Conference on Human Factors in Computing Systems, pp. 33-40, 2002))。
大型ディスプレイを用いる場合または複数のディスプレイにわたる場合には、手の届く範囲の問題もある。多くの従来技術の解決策は、大きな面積の作業空間を再構成するか、またはディスプレイの大きな面積にわたってグラフィックフィードバックを表示する。この手法は、壁面サイズのディスプレイ上で個人ユーザには問題ないが、グラフィックの過剰使用は、マルチユーザの作業空間では、これらの技法が他のユーザの妨げになり得るため不適当である場合がある。
Baudisch他は、選択されたオブジェクトを離れたターゲットへ移動させる手段として、ドラッグアンドポップを記載した。この技法が呼び出されると、遠くにあるターゲットのプロキシがユーザの近くの、容易に手が届く場所に引き寄せられる。参照線がこれらのプロキシをその真のターゲットにつないでいる。しかし、マルチユーザ環境では、これらの参照線が他人の作業空間を通過する可能性は十分にある。また、Baudischの技法では、ターゲットオブジェクトの周囲の領域を選択することができず、オブジェクトそのものしか選択できない(Baudisch, P.、Cutrell, E.、Robbins, D.、Czerwinski, M.、Tandler, P.、Bederson, B.およびZierlinger, A.著「ドラッグアンドポップおよびドラッグアンドピック:タッチおよびペンにより操作されるシステムにおいて遠くにあるスクリーンコンテンツにアクセスする技法(Drag-and-Pop and Drag-and-Pick: Techniques for Accessing Remote Screen Content on Touch and Pen operated Systems)」(Proceedings of the ninth IFIP TC13 international conference on Human-Computer Interaction, pp. 57-64, 2003))。
同様に、Bezerianos他は、遠くにあるオブジェクトを選択するためのVacuum(吸引)技法を記載している。Vacuumは、遠くにあるターゲットをユーザの近くに引き寄せながら、ディスプレイの大部分を容易にカバーすることができる大きな調節可能な有効領域を表示する。ドラッグアンドポップと同様に、同一空間で作業している他のユーザを妨げることにより、大型ディスプレイの手の届き易さの問題に対処する利点が損なわれる恐れがある(Bezerianos, A.およびBalakrishnan, R.著「Vacuum:遠くにあるオブジェクトの操作の促進(The vacuum: facilitating the manipulation of distant objects)」(Proceedings of the SIGCHI conference on Human factors in computing systems, ACM Press, pp. 361-370, 2005)(参照により本明細書中に援用される))。
図1Aは、直接入力の絶対的マッピング専用システムの3状態モデルを示す(Buxton, W.著「グラフィック入力の3状態モデル(A three-state model of graphical input)」(Proc. of the IFIP TC13 Third International Conference on Human-Computer Interaction, pp. 449-456, 1990))。このシステムは、先端スイッチを有するスタイラスと、水平表示面とを用いる。スタイラスが表示面と接触していない時、このシステムは、状態0 101にある。先端スイッチは、開いており、スタイラスは、範囲外にあるものと見なされる。スタイラスを動かしても何の効果もない。スタイラスを表示面に付けると、表示されるポインタは、スタイラスの移動を絶対的に追跡し、システムは、状態1 102にある。スタイラスが表示面上で強く押されると、先端スイッチが閉じ、ポインタに一致する表示グラフィックオブジェクトが状態2 103において絶対的にドラッグされる。スタイラスを表示面に接触させたままスタイラスへの圧力を除去すると、先端スイッチが開き、グラフィックオブジェクトが「解除」され、システムは、状態1へ戻る。スタイラスを持ち上げると、システムは、状態0になる。これは、マウス等の間接入力装置の動作を真似たものであり、スイッチを閉じることは、マウスを動かしながらマウスの左ボタンを押すのと同じ効果を持つ。
相対的マッピングの場合、追跡およびドラッグ/選択だけでなくクラッチもサポートしなければならない。図1Bは、相対的マッピング専用のマウスペンの改良型3状態モデルを示す。マウスペンは、その先端を表面上で動かすことにより操作される。マウスペンは、スイッチも含む。マウスペンが表面と軽く接触している時、スイッチは、開いており、表示されるポインタは、ペンの移動を追跡するが、図1Aに示す絶対的なスタイラスとは異なり、グラフィックポインタは、ペンの先端の真下にない。これが相対的追跡状態105である。ペンを持ち上げて表面から少し離すことにより、クラッチ動作が合図される。これは、クラッチ状態104と呼ばれる。ペンを表面に接触させると追跡状態105へ戻る。ただし、ポインタは、今度は、クラッチ動作を行う前にポインタがあった場所と相対的に移動する。これは、作業面からマウスを持ち上げ、マウスをどこか他の場所へ置くことと似ている。ポインタは、初めは元のロケーションに留まり、その後、異なる位置にあるマウスにより再び動かすことができる。ペンを表面に押し付けるとスイッチが閉じ、グラフィックポインタの下にあるグラフィックオブジェクトが選択され、このオブジェクトがドラッグされる。これがドラッグ状態106である。
追跡およびドラッグを行う時、入力装置およびポインタの移動の間のCD利得は、スタイラスの速度の関数として変化し得る。これは、通常、ポインタ加速度関数と呼ばれる。
直感的に、絶対的マッピングは、横断すべき距離が小さい場合に良好に動作するはずであり、相対的マッピングは、距離が大きい場合に最適である。しかし、絶対的な「スタイラスの下」のマッピングの手頃さがあまりに強いため、ユーザは、相対的マッピングの使用が難しくまたは不自然であり、大きな距離でも性能が低下すると感じる場合がある。さらに、遠くにあるグラフィックオブジェクトに対する相対的マッピングの使用は、そのオブジェクトを見て選択することを、ユーザが常にオブジェクトに視覚的に近い絶対的マッピングモードよりも難しくする可能性がある。
図1Cは、オブジェクトターゲットの選択タスクに関するユーザ成績を、大型の壁面サイズディスプレイへの直接入力のための絶対的マッピングモード(図1A)と相対的マッピングモード(図1B)との間で比較した実験の結果を示す。図1Cのグラフは、様々な距離にあるターゲットの選択時間を絶対的マッピングおよび相対的マッピングの両方に関して示す。絶対的マッピングと相対的マッピングとの間の成績の逆転は、約2メートルの距離で起こる。この実験におけるオブジェクトの距離は、ディスプレイの約1,000ピクセル〜ほぼ4,000ピクセルの範囲であり、これは、約1〜4メートルの物理的距離に相当する。
グラフから分かるように、ユーザは、近くにあるオブジェクトでは絶対的マッピングを用いる場合に成績が良くなり、遠くにあるオブジェクトでは相対的マッピングを用いる場合に成績が良くなった。この成績の逆転は、断面幅が2メートルを超える1台の大型ディスプレイ上で作業を行う場合、入力装置を用いて様々な距離で作業する時に絶対的マッピングまたは相対的マッピングを選択できることがユーザに役立ち得ることを示す。
同様の実験において、参加者は、対角寸法が12.1インチのディスプレイを備えるタブレットPC上で絶対的マッピングおよび相対的マッピングの両方を用いた。参加者は、この小型ディスプレイ上のオブジェクトでは絶対的マッピングを用いてターゲットを選択するほうが著しく速く、こちらを大いに好んだ。しかし、小さなオブジェクトの場合、ユーザは、相対的マッピングを用いたほうが正確だった。
速度、性能、および精度の間のこのトレードオフは、高いレベルの精度が要求される場合は、相対的マッピングに切り換えられることがユーザに役立ち得ることを示す。
Streitz他が記載しているようなマルチディスプレイ環境が近年大きな関心を呼んでいる。これらの環境は、様々な入力能力を有する装置の異種混合を含むことが多い(Streitz, N.、Geibler, J.、Holmer, T.、Konomi, S.、Muller-Tomfelde, C.、Reischl, W.、Rexroth, P.、Seitz, P.、およびSteinmetz, R.著「i−Land:創造および革新のためのインタラクティブな景色(i-LAND: An interactive Landscape for Creativity and Innovation)」(Proc. of the ACM Conf. on Human Factors in Computing Systems, pp. 120-127, 1999))。パーソナルラップトップシステムまたはハンドヘルドシステム上で作業をしている時にユーザが絶対的マッピングを用いて入力を行えるようにすると共に、他のディスプレイ上にあるポインタを制御するためにユーザが相対的マッピングに切り換えられるようにすることが望ましい。
Johanson他は、PointRightと呼ばれるポインティング技法を記載した(Johanson, B.、Hutchins, G.、Winograd, T.、Stone, M.著「PointRight:インタラクティブ作業空間におけるフレキシブルな入力方向変更の経験(PointRight: Experience with Flexible Input Redirection in Interactive Workspaces)」(Proc. of the ACM Conf. on User Interface and Software Technology, pp. 227-234, 2002))。この技法は、ユーザが単一の間接装置(例えばマウス)を用いて複数のシステムのディスプレイにまたがってシステムポインタを動かすことを可能にする。その場合、ユーザは、ハンドヘルド上に表示されたグラフィックオブジェクトだけでなく、壁掛けディスプレイ上に表示されたオブジェクトも操作することができる。ユーザは、大きな垂直ディスプレイに囲まれたタッチセンシティブテーブルの周囲に配置されることもできる。このようなマルチディスプレイ環境における近くのディスプレイには直接入力が役立ち得るが、グラフィックオブジェクトと対話するためにユーザを遠くのディスプレイまで歩かせることは面倒であろう。一方、間接入力は、ユーザが遠くのディスプレイを用いて作業することを可能にするが、近くのディスプレイ上のオブジェクトには不便であろう。
これまで、システム設計者は、システムの実装時に、絶対的直接入力方式または相対的間接入力方式のいずれかを選択しなければならなかった。しかし、1つの直接入力装置を用いながら相対的マッピングと絶対的マッピングとの間で流れるような切り換えを可能にする入力機構を提供し、よって、ユーザが両入力方式を最大限に利用することを可能にすることが望ましい。
本発明の実施の形態は、直接入力装置の移動とディスプレイポインタとの間のマッピングを絶対モードまたは相対モードのいずれかで動的に制御するシステムおよび方法を提供する。
本システムおよび方法は、多くの直接入力装置(例えばタッチセンシティブ表面またはアクティブスタイラス)を用いることができ、シングルディスプレイの計算環境およびマルチディスプレイの計算環境の両方に適している。
本発明の実施の形態は、直接入力装置の移動とディスプレイポインタとを絶対的マッピングモードおよび相対的マッピングモードの両方で動的にマッピングするシステムおよび方法を提供する。
図2Aは、本発明の1つの実施の形態によるシステムを示す。本システムは、グラフィック画像251を表示する出力表示装置250を備える。グラフィック画像は、ユーザ280により操作されるグラフィックオブジェクト252を含む。表示装置の1つは、本発明の実施の形態の入力装置として動作する直接タッチセンシティブ表面を備えるテーブルトップの形態である。この表面は、スタイラス285または1本若しくは複数本の指で触れることができる。また、本システムは、複数のユーザによる複数のタッチをユーザにより一意に識別することができる。ポインタ270を表示することができる。ディスプレイ上のポインタのロケーションは、触れた位置に対応する(Dietz他に2002年12月24日付で発行された米国特許第6,498,590号「マルチユーザタッチスクリーン(Multi-User Touch Screen)」(参照により本明細書中に援用される))。
表示装置および入力装置は、コンピュータシステム260に接続される。コンピュータシステムは、従来のもの(例えば、PC、ラップトップ等)である。コンピュータシステムは、プロセッサ、メモリ、およびI/Oインタフェースを備える。入力装置は、ユーザ入力に応答して制御信号266をコンピュータシステム260へ送る。制御信号は、スタイラスの移動またはスタイラススイッチのオン/オフ状態、または指の移動、または1本または複数本の指によるタッチセンシティブ表面のタップを示すことができる。コンピュータシステムは、直接入力装置の移動をディスプレイポインタ270の移動に絶対的マッピングモードおよび相対的マッピングモードの両方で動的にマッピングする方法265を実行することができる。
本発明の目標は、絶対的マッピングと相対的マッピングとを容易に切り換えると共に、スタイラスまたはタッチセンシティブ表面等の直接入力装置を用いて対話する方法をユーザに提供することである。
図2Bは、絶対的マッピングモード292および相対的マッピングモード291の間で切り換えを行う本発明の方法およびシステムの1つの実施の形態の状態遷移図である。本システムは、タッチセンシティブタブレット計算装置と共に備えられているようなスタイラスを用いる。1本または複数本の指によりポインティングされるタッチセンシティブ表面を用いて、方法を実施することも可能であることを理解すべきである。本システムは、状態0 200で始まる。この時点で、スタイラスまたは指は、入力装置の検知範囲外(OOR)にある。スタイラスまたは指を動かしても何の効果もない。
スタイラスを入力装置の検知範囲内へ動かすと、システムは、状態1 201となり、グラフィックポインタがスタイラスまたは指の位置の真下に表示され、スタイラスを動かすとポインタが移動する。
スタイラスの先端を下げてタッチセンシティブ表示面に接触させると、システムは、状態2 202へ移る。ポインタのロケーションは、引き続きスタイラスの先端の位置を追跡しながら、グラフィックアプリケーションのコマンド(例えばドラッグ)を実行する。
スタイラスを持ち上げてディスプレイから離すと、システムは、状態1 201へ戻る。状態1 201にある間、スタイラスを軽くはじく(203)と、システムは、相対的クラッチ状態204へ遷移する。これと同じ遷移を、2本の指で同時に表面に触れることによって行うことができる。
この状態から、スタイラスの先端を下げディスプレイに当接させることによって、システムは、相対的追跡状態205へ移る。すると、スタイラスまたは指の移動によりポインタが相対的マッピングモードで動くようになり、グラフィックポインタ270は、ペンの先端の真下ではなくなる。
スタイラスを表示面に強く押し当てる(209)ことによりスタイラススイッチを閉じると、システムは、相対的ドラッグ206へ移り、その間、通常のパーソナルコンピュータにおいてマウスボタンを押した時のように、アプリケーション内でコマンドが実行される。この遷移は、2本指のタッチでも行うことができる。入力装置に接続されたボタンを用いてこの機能を行うこともできる。表示面へ接触させたままスタイラスへの圧力を解除する(208)と、スタイラススイッチが開き、システムは、元の相対的追跡状態205へ遷移する。
相対的追跡205から、スタイラスをディスプレイから持ち上げると、システムは、相対的クラッチ状態204へ戻る。すると、スタイラスを動かしても、ポインタは、動かなくなる。スタイラスを入力装置の検知範囲から離す(207)と、システムは、OOR状態0 200へ戻る。
視覚/聴覚フィードバック
本発明では、現在のマッピングモードおよび状態の切り換えを伝えるために、いくつかの視覚フィードバック手段および聴覚フィードバック手段を実装した。図3Aは、システムが絶対的マッピングモード292にある場合の、スタイラス282の位置に対する表示面250上のグラフィックポインタ270のロケーションを示す。図3Bは、システムが相対的マッピングモード291にある場合の、スタイラス282に対するグラフィックポインタ270を示す。本発明のユーザに、相対的または絶対的のいずれかである現在のマッピングを示すために、本発明は、ポインタ270の外観を2つのモード間で、例えば、黒および白に変える。同様に、コンピュータシステム260は、2つのモード間の切り換え時に音を鳴らすことができる。
本発明では、現在のマッピングモードおよび状態の切り換えを伝えるために、いくつかの視覚フィードバック手段および聴覚フィードバック手段を実装した。図3Aは、システムが絶対的マッピングモード292にある場合の、スタイラス282の位置に対する表示面250上のグラフィックポインタ270のロケーションを示す。図3Bは、システムが相対的マッピングモード291にある場合の、スタイラス282に対するグラフィックポインタ270を示す。本発明のユーザに、相対的または絶対的のいずれかである現在のマッピングを示すために、本発明は、ポインタ270の外観を2つのモード間で、例えば、黒および白に変える。同様に、コンピュータシステム260は、2つのモード間の切り換え時に音を鳴らすことができる。
また、相対モード291にある時、線304を表示する。この線は、ポインタのロケーションをスタイラスの位置につなぐ。この線は、ユーザが相対的マッピングモードにあることをユーザに知らせるだけでなく、ユーザが大型ディスプレイ上でポインタを見付ける助けにもなる。
図3Aおよび図3Bは、本発明のユーザがスタイラスを用いて入力を行っている様子を示すが、本入力方法は他の直接入力装置(1本または複数本の指により制御されるタッチセンシティブテーブル等)にも適していることに留意すべきである。
変形
ユーザが絶対的マッピングモード292および相対的マッピングモード291の間で切り換えを行うことを可能にすることに加えて、ドラッグ操作中にマッピングの遷移を達成することも可能である。相対的ドラッグおよび絶対的ドラッグの間の遷移は、特に興味深い。オブジェクトをドラッグしながらの絶対的マッピングから相対的マッピングへの移行は、ユーザが、Poupyrev他著「Go−Go対話技法:VRにおける直接操作のための非線形マッピング(The Go-Go interaction technique: non-linear mapping for direct manipulation in VR)」(Proceedings of the 9th annual ACM symposium on User interface software and technology, pp. 79-80, 1996)により記載および提示されたGo−Go対話技法に似た方法でグラフィックオブジェクトをディスプレイの離れた部分へ導くことを可能にする。逆に、遠くのオブジェクトを相対的マッピングモードで選択する場合、Bezerianos他によって記載されているように、そのオブジェクトを「吸い込んで」スタイラスの真下に配置することができる。いずれの場合にも、ユーザは、選択したオブジェクトを中断なく扱い続けることができる。
ユーザが絶対的マッピングモード292および相対的マッピングモード291の間で切り換えを行うことを可能にすることに加えて、ドラッグ操作中にマッピングの遷移を達成することも可能である。相対的ドラッグおよび絶対的ドラッグの間の遷移は、特に興味深い。オブジェクトをドラッグしながらの絶対的マッピングから相対的マッピングへの移行は、ユーザが、Poupyrev他著「Go−Go対話技法:VRにおける直接操作のための非線形マッピング(The Go-Go interaction technique: non-linear mapping for direct manipulation in VR)」(Proceedings of the 9th annual ACM symposium on User interface software and technology, pp. 79-80, 1996)により記載および提示されたGo−Go対話技法に似た方法でグラフィックオブジェクトをディスプレイの離れた部分へ導くことを可能にする。逆に、遠くのオブジェクトを相対的マッピングモードで選択する場合、Bezerianos他によって記載されているように、そのオブジェクトを「吸い込んで」スタイラスの真下に配置することができる。いずれの場合にも、ユーザは、選択したオブジェクトを中断なく扱い続けることができる。
図4は、ユーザがドラッグ操作の最中に相対的マッピングおよび絶対的マッピングの間で切り換えを行うことができる本発明の1つの実施の形態の状態遷移図を示す。グラフィックポインタの下にあるオブジェクトに働きかけると相対的ドラッグクラッチ402が生じるが、スタイラスを動かしてもグラフィックポインタは動かない。これは、左マウスボタンを押したままマウスを机の表面から持ち上げることに似ている。スタイラスが表示面と接触している間に「はじく」ジェスチャ400により、システムが絶対的ドラッグ202と相対的ドラッグ入力206との間で切り換わる。相対的ドラッグ206と相対的追跡との間の変更は、スイッチの開閉動作410により達成される。
同様に、スタイラスが表示面の上にある間に、はじくジェスチャ203を行うと、システムが絶対的追跡201と相対的クラッチ204との間で切り換わる。相対的ドラッグクラッチ状態402にある間に、スタイラスを持ち上げて入力装置の検知範囲外へ動かす(207)と、グラフィックポインタの下にあるグラフィックオブジェクトの操作が終了し、システムは、状態0 200へ戻る。
図5は、1本または複数本の指を検知することが可能なタッチセンシティブ入力装置を用いる本発明の1つの実施の形態を示す。初期状態は、状態0入力200である。ディスプレイに1本指で触れると、システムは、ドラッグ「状態2」202へ遷移する。ディスプレイに2本指で同時に触れる(501)と、システムは、相対的追跡状態205へ遷移する。相対的追跡状態にある間、一方の指を離しても何の効果もなく、両方の指を離すと、システムは、相対的クラッチ204状態へ遷移し、表示面を一方の指でタップすると、システムは、相対的ドラッグ206状態へ移行する。ユーザは、また、ディスプレイに中指で触れる(500)ことによって相対的ドラッグ状態206および絶対的ドラッグ202の間で切り換えを行うことができる。ユーザが所定時間よりも長く相対的クラッチ状態204にある場合、システムは、「タイムアウト条件」502を合図し、状態0入力200へ戻る。
Claims (23)
- 直接入力装置の位置を表面に表示されるポインタのロケーションにマッピングする方法であって、
絶対的マッピングモードで動作している時に、直接入力装置の物理的位置と表示装置上のポインタの仮想ロケーションとを絶対的にマッピングすることと、
相対的マッピングモードで動作している時に、前記直接入力装置の前記物理的位置と前記ポインタの前記仮想ロケーションとを相対的にマッピングすることと、および
前記直接入力装置から検出される制御信号に応答して前記絶対的にマッピングすることおよび前記相対的にマッピングすることの間で切り換えを行うことと
を含む直接入力装置の位置を表面に表示されるポインタのロケーションにマッピングする方法。 - 前記直接入力装置は、タッチセンシティブグラフィック表示面である請求項1に記載の方法。
- 前記直接入力装置への複数のタッチを複数のユーザにより一意に識別することをさらに含む請求項2に記載の方法。
- 前記直接入力装置は、スタイラスおよびタッチセンシティブタブレットコンピュータ装置を含む請求項1に記載の方法。
- 前記絶対的マッピングは、範囲外状態、絶対的追跡状態、および絶対的ドラッグ状態を含み、前記相対的マッピングは、相対的クラッチ状態、相対的追跡状態、および相対的ドラッグ状態を含む請求項1に記載の方法。
- 前記制御信号は、前記絶対的追跡状態および前記相対的クラッチ状態の間で遷移する請求項5に記載の方法。
- 前記制御信号は、前記相対的クラッチ状態から前記範囲外状態へ遷移する請求項5に記載の方法。
- 前記直接入力装置は、スタイラスおよびタッチセンシティブタブレットコンピュータ装置を含み、前記制御信号は、該スタイラスをはじくことに応答する請求項6に記載の方法。
- 前記直接入力装置は、スタイラスおよびタッチセンシティブタブレットコンピュータ装置を含み、前記制御信号は、該スタイラスを持ち上げて該タブレットコンピュータ装置の検知範囲外へ動かすことに応答する請求項7に記載の方法。
- 前記直接入力装置は、タッチセンシティブグラフィック表示面であり、前記制御信号は、2箇所の同時タッチを検知することに応答する請求項6に記載の方法。
- 前記直接入力装置はタッチセンシティブグラフィック表示面であり、前記制御信号は、該表示面から指を離すことに応答する請求項7に記載の方法。
- 前記絶対的マッピングモードにおいて、前記ポインタは、前記直接入力装置の前記位置に対応するロケーションに表示される請求項1に記載の方法。
- 前記相対的マッピングモードにおいて、前記ポインタは、前記位置からずれたロケーションに表示される請求項1に記載の方法。
- 前記ロケーションと前記位置とをつなぐ線を表示することをさらに含む請求項13に記載の方法。
- 切り換え時に前記ポインタの外観を変えることをさらに含む請求項1に記載の方法。
- 切り換え時に音を鳴らすことをさらに含む請求項1に記載の方法。
- 前記相対的マッピングは、相対的ドラッグクラッチ状態をさらに含み、前記制御信号は、該相対的ドラッグクラッチ状態から前記範囲外状態へ遷移する請求項5に記載の方法。
- 前記直接入力装置は、スタイラスおよびタッチセンシティブタブレットコンピュータ装置を含み、前記制御信号は、該スタイラスを持ち上げて該タブレットコンピュータ装置の検知範囲外へ動かすことに応答する請求項17に記載の方法。
- 前記制御信号に従って前記絶対的ドラッグ状態および前記相対的ドラッグ状態の間で遷移することをさらに含む請求項17に記載の方法。
- 前記制御信号は、タイムアウト条件に応答する請求項7に記載の方法。
- 前記制御信号は、前記直接入力装置に接続されたボタンをユーザが押すことに応答する請求項1に記載の方法。
- 前記ボタンは、コンピュータスタイラス上にある請求項21に記載の方法。
- 直接入力装置の位置を表示装置に表示されるポインタのロケーションにマッピングするシステムであって、
絶対的マッピングモードで動作している時に、直接入力装置の物理的位置と表示装置上のポインタの仮想ロケーションとを絶対的にマッピングする手段と、
相対的マッピングモードで動作している時に、前記直接入力装置の前記物理的位置と前記表示装置上の前記ポインタの前記仮想ロケーションとを相対的にマッピングする手段と、
前記絶対的にマッピングする手段および前記相対的にマッピングする手段により受け取られ、該絶対的マッピング手段および該相対的マッピング手段の間で切り換えを行うように構成される制御信号と
を備える直接入力装置の位置を表示装置に表示されるポインタのロケーションにマッピングするシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/452,810 US7640518B2 (en) | 2006-06-14 | 2006-06-14 | Method and system for switching between absolute and relative pointing with direct input devices |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007334870A true JP2007334870A (ja) | 2007-12-27 |
Family
ID=38861061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007126913A Pending JP2007334870A (ja) | 2006-06-14 | 2007-05-11 | 直接入力装置の位置をマッピングする方法およびシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7640518B2 (ja) |
JP (1) | JP2007334870A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248401A (ja) * | 2010-05-21 | 2011-12-08 | Toshiba Corp | 情報処理装置および入力方法 |
JPWO2010032354A1 (ja) * | 2008-09-22 | 2012-02-02 | 日本電気株式会社 | 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム |
WO2016084435A1 (ja) * | 2014-11-27 | 2016-06-02 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
Families Citing this family (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8125459B2 (en) * | 2007-10-01 | 2012-02-28 | Igt | Multi-user input systems and processing techniques for serving multiple users |
US8225231B2 (en) | 2005-08-30 | 2012-07-17 | Microsoft Corporation | Aggregation of PC settings |
US10437459B2 (en) * | 2007-01-07 | 2019-10-08 | Apple Inc. | Multitouch data fusion |
JP4326568B2 (ja) | 2007-02-20 | 2009-09-09 | 任天堂株式会社 | 情報処理装置および情報処理プログラム |
US9621426B1 (en) * | 2007-04-18 | 2017-04-11 | Grass Valley USA, LLC | Switching facility having a control panel with relegendable buttons |
US20090044124A1 (en) * | 2007-08-06 | 2009-02-12 | Nokia Corporation | Method, apparatus and computer program product for facilitating data entry using an offset connection element |
US9335869B2 (en) | 2007-10-01 | 2016-05-10 | Igt | Method and apparatus for detecting lift off on a touchscreen |
KR101451271B1 (ko) | 2007-10-30 | 2014-10-16 | 삼성전자주식회사 | 방송수신장치 및 그 제어방법 |
USRE47433E1 (en) | 2007-11-26 | 2019-06-11 | Sony Corporation | Input apparatus, control apparatus, control system, control method, and handheld apparatus |
US8526767B2 (en) * | 2008-05-01 | 2013-09-03 | Atmel Corporation | Gesture recognition |
US8385952B2 (en) | 2008-10-23 | 2013-02-26 | Microsoft Corporation | Mobile communications device user interface |
US8411046B2 (en) | 2008-10-23 | 2013-04-02 | Microsoft Corporation | Column organization of content |
US8086275B2 (en) | 2008-10-23 | 2011-12-27 | Microsoft Corporation | Alternative inputs of a mobile communications device |
US8451236B2 (en) * | 2008-12-22 | 2013-05-28 | Hewlett-Packard Development Company L.P. | Touch-sensitive display screen with absolute and relative input modes |
EP2389622A1 (en) * | 2009-01-26 | 2011-11-30 | Zrro Technologies (2009) Ltd. | Device and method for monitoring an object's behavior |
US8175653B2 (en) | 2009-03-30 | 2012-05-08 | Microsoft Corporation | Chromeless user interface |
US8355698B2 (en) | 2009-03-30 | 2013-01-15 | Microsoft Corporation | Unlock screen |
US8238876B2 (en) | 2009-03-30 | 2012-08-07 | Microsoft Corporation | Notifications |
US8269736B2 (en) | 2009-05-22 | 2012-09-18 | Microsoft Corporation | Drop target gestures |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
JP5371798B2 (ja) * | 2010-01-12 | 2013-12-18 | キヤノン株式会社 | 情報処理装置、その情報処理方法及びプログラム |
US20110298722A1 (en) * | 2010-06-04 | 2011-12-08 | Smart Technologies Ulc | Interactive input system and method |
US20110310126A1 (en) * | 2010-06-22 | 2011-12-22 | Emil Markov Georgiev | Method and system for interacting with datasets for display |
GB2481606B (en) * | 2010-06-29 | 2017-02-01 | Promethean Ltd | Fine object positioning |
US20130241832A1 (en) * | 2010-09-07 | 2013-09-19 | Zrro Technologies (2009) Ltd. | Method and device for controlling the behavior of virtual objects on a display |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
US20120159383A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Customization of an immersive environment |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US20120304132A1 (en) | 2011-05-27 | 2012-11-29 | Chaitanya Dev Sareen | Switching back to a previously-interacted-with application |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US8643616B1 (en) * | 2011-07-29 | 2014-02-04 | Adobe Systems Incorporated | Cursor positioning on a touch-sensitive display screen |
US8687023B2 (en) | 2011-08-02 | 2014-04-01 | Microsoft Corporation | Cross-slide gesture to select and rearrange |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US8922575B2 (en) | 2011-09-09 | 2014-12-30 | Microsoft Corporation | Tile cache |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US8933952B2 (en) | 2011-09-10 | 2015-01-13 | Microsoft Corporation | Pre-rendering new content for an application-selectable user interface |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
US9335844B2 (en) * | 2011-12-19 | 2016-05-10 | Synaptics Incorporated | Combined touchpad and keypad using force input |
US9223472B2 (en) | 2011-12-22 | 2015-12-29 | Microsoft Technology Licensing, Llc | Closing applications |
US8890808B2 (en) | 2012-01-06 | 2014-11-18 | Microsoft Corporation | Repositioning gestures for chromeless regions |
US9141262B2 (en) * | 2012-01-06 | 2015-09-22 | Microsoft Technology Licensing, Llc | Edge-based hooking gestures for invoking user interfaces |
US9128605B2 (en) | 2012-02-16 | 2015-09-08 | Microsoft Technology Licensing, Llc | Thumbnail-image selection of applications |
US10042440B2 (en) * | 2012-03-26 | 2018-08-07 | Lenovo (Singapore) Pte. Ltd. | Apparatus, system, and method for touch input |
US9348501B2 (en) * | 2012-06-14 | 2016-05-24 | Microsoft Technology Licensing, Llc | Touch modes |
CN103513908B (zh) * | 2012-06-29 | 2017-03-29 | 国际商业机器公司 | 用于在触摸屏上控制光标的方法和装置 |
KR101960305B1 (ko) * | 2012-07-04 | 2019-03-20 | 엘지전자 주식회사 | 터치 스크린을 포함하는 디스플레이 장치 및 그 제어 방법 |
KR20140089660A (ko) * | 2013-01-04 | 2014-07-16 | 삼성전자주식회사 | 터치 패드, 디스플레이 장치 및 터치 패드의 제어 방법 |
US9450952B2 (en) | 2013-05-29 | 2016-09-20 | Microsoft Technology Licensing, Llc | Live tiles without application-code execution |
WO2015149347A1 (en) | 2014-04-04 | 2015-10-08 | Microsoft Technology Licensing, Llc | Expandable application representation |
CN105359055A (zh) | 2014-04-10 | 2016-02-24 | 微软技术许可有限责任公司 | 计算设备的滑盖 |
CN105378582B (zh) | 2014-04-10 | 2019-07-23 | 微软技术许可有限责任公司 | 计算设备的可折叠壳盖 |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10642365B2 (en) | 2014-09-09 | 2020-05-05 | Microsoft Technology Licensing, Llc | Parametric inertia and APIs |
US9674335B2 (en) | 2014-10-30 | 2017-06-06 | Microsoft Technology Licensing, Llc | Multi-configuration input device |
US9977519B2 (en) * | 2015-02-25 | 2018-05-22 | Synaptics Incorporated | Active pen with bidirectional communication |
US10324599B2 (en) * | 2016-03-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Assistive move handle for object interaction |
US11231794B2 (en) * | 2018-09-12 | 2022-01-25 | Hewlett-Packard Development Company, L.P. | Mousepads with sensors |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09101855A (ja) * | 1995-10-04 | 1997-04-15 | Seiko Epson Corp | タブレット入力装置における信号処理方法および装置 |
JPH10187338A (ja) * | 1996-12-20 | 1998-07-14 | Mitsumi Electric Co Ltd | ポイントパッド |
JP2003022158A (ja) * | 2001-05-24 | 2003-01-24 | Mitsubishi Electric Research Laboratories Inc | マルチユーザタッチシステムおよびその動作方法 |
JP2004310219A (ja) * | 2003-04-02 | 2004-11-04 | Fujitsu Ltd | タッチパネル・モードとポインティング・デバイス・モードで動作する情報処理装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6115028A (en) * | 1996-08-22 | 2000-09-05 | Silicon Graphics, Inc. | Three dimensional input system using tilt |
US6292172B1 (en) * | 1998-03-20 | 2001-09-18 | Samir B. Makhlouf | System and method for controlling and integrating various media devices in a universally controlled system |
US7605804B2 (en) * | 2005-04-29 | 2009-10-20 | Microsoft Corporation | System and method for fine cursor positioning using a low resolution imaging touch screen |
-
2006
- 2006-06-14 US US11/452,810 patent/US7640518B2/en not_active Expired - Fee Related
-
2007
- 2007-05-11 JP JP2007126913A patent/JP2007334870A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09101855A (ja) * | 1995-10-04 | 1997-04-15 | Seiko Epson Corp | タブレット入力装置における信号処理方法および装置 |
JPH10187338A (ja) * | 1996-12-20 | 1998-07-14 | Mitsumi Electric Co Ltd | ポイントパッド |
JP2003022158A (ja) * | 2001-05-24 | 2003-01-24 | Mitsubishi Electric Research Laboratories Inc | マルチユーザタッチシステムおよびその動作方法 |
JP2004310219A (ja) * | 2003-04-02 | 2004-11-04 | Fujitsu Ltd | タッチパネル・モードとポインティング・デバイス・モードで動作する情報処理装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2010032354A1 (ja) * | 2008-09-22 | 2012-02-02 | 日本電気株式会社 | 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム |
JP2011248401A (ja) * | 2010-05-21 | 2011-12-08 | Toshiba Corp | 情報処理装置および入力方法 |
WO2016084435A1 (ja) * | 2014-11-27 | 2016-06-02 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
US10452158B2 (en) | 2014-11-27 | 2019-10-22 | Sony Corporation | Information processing device, information processing method, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
US7640518B2 (en) | 2009-12-29 |
US20070291007A1 (en) | 2007-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7640518B2 (en) | Method and system for switching between absolute and relative pointing with direct input devices | |
US11353962B2 (en) | Free-space user interface and control using virtual constructs | |
Forlines et al. | Hybridpointing: fluid switching between absolute and relative pointing with a direct input device | |
Malik et al. | Visual touchpad: a two-handed gestural input device | |
Weiss et al. | SLAP widgets: bridging the gap between virtual and physical controls on tabletops | |
JP4890853B2 (ja) | カーソルを用いて入力を制御する入力制御方法 | |
Moscovich et al. | Multi-finger cursor techniques | |
TWI588734B (zh) | 電子裝置及其操作方法 | |
Miyaki et al. | GraspZoom: zooming and scrolling control model for single-handed mobile interaction | |
US5936612A (en) | Computer input device and method for 3-D direct manipulation of graphic objects | |
TWI493387B (zh) | 多點觸控滑鼠 | |
US20120068963A1 (en) | Method and System for Emulating a Mouse on a Multi-Touch Sensitive Surface | |
US20150193023A1 (en) | Devices for use with computers | |
US20110227947A1 (en) | Multi-Touch User Interface Interaction | |
JP2011028524A (ja) | 情報処理装置、プログラムおよびポインティング方法 | |
WO2013155735A1 (zh) | 具备近接感测投影点坐标指示的离屏触控交互*** | |
EP2872973A1 (en) | Improvements in devices for use with computers | |
KR20160019762A (ko) | 터치 스크린 한손 제어 방법 | |
TW200807284A (en) | Programmable touch system | |
Benko et al. | Imprecision, inaccuracy, and frustration: The tale of touch input | |
JPWO2015174316A1 (ja) | 端末、及び端末制御方法 | |
Bauer et al. | Marking menus for eyes-free interaction using smart phones and tablets | |
US10606366B2 (en) | Input system | |
Shittu et al. | A review on interaction techniques on mobile phones | |
Bial et al. | A study of two-handed scrolling and selection on standard notebook computers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120523 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121120 |