JP4800060B2 - グラフィカルユーザインタフェースを操作する方法及びグラフィカルユーザインタフェース装置 - Google Patents

グラフィカルユーザインタフェースを操作する方法及びグラフィカルユーザインタフェース装置 Download PDF

Info

Publication number
JP4800060B2
JP4800060B2 JP2006035352A JP2006035352A JP4800060B2 JP 4800060 B2 JP4800060 B2 JP 4800060B2 JP 2006035352 A JP2006035352 A JP 2006035352A JP 2006035352 A JP2006035352 A JP 2006035352A JP 4800060 B2 JP4800060 B2 JP 4800060B2
Authority
JP
Japan
Prior art keywords
document
area
display surface
user interface
graphical user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006035352A
Other languages
English (en)
Other versions
JP2006236339A (ja
Inventor
チィア・シェン
キャサリン・エベリット
カスリーン・リャル
クリフトン・エル・フォーラインズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2006236339A publication Critical patent/JP2006236339A/ja
Application granted granted Critical
Publication of JP4800060B2 publication Critical patent/JP4800060B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、包括的にはグラフィカルユーザインタフェースに関し、特に、オブジェクトが表面に表示され、オブジェクトに対する操作が、オブジェクトをポインティングすること、又はオブジェクトに直接的又は間接的に触れることによって行われるグラフィカルユーザインタフェースに関する。
最も一般的なタイプのグラフィカルユーザインタフェース(GUI)は、マウスインタフェース及び直接接触式インタフェースである。グラフィカルユーザインタフェースのこのようなディスプレイ表面に表示されるオブジェクトは通常、操作−オブジェクトというメタファーに従ってユーザによって操作される。
先ず、ユーザは、メニュー又は他のユーザインタフェース手段により、或る事前に定義された一組の可能な動作から操作Pを選択する。次に、ユーザは、操作を適用するオブジェクトOを選択する。時として、メタファーはオブジェクト−操作である。すなわち、先ずオブジェクトOを選択し、次に操作Pを適用する。重要なこととして、オブジェクトOに適用される操作Pは、ディスプレイインタフェース上のオブジェクトの位置Lに依存しない。
マウスの右クリック、マウスの左クリック又はマウスのドラッグといった動作Aを用いて、操作、オブジェクトを選択し、操作を選択したオブジェクトに適用する。動作は、操作を選択されたオブジェクトに適用する。
通常、操作を適用するモードMは、選択されたオブジェクトO(i)が与えられた上で許容される一組の操作P(i)と、既に選択され且つ/又はオブジェクトに適用された以前の操作P(i−1)とによって決まる。この場合、操作モードMは、選択された最後の操作P(i−1)によって決まる。オブジェクトOに対する動作Aの結果は、オブジェクト、モードM、及び操作Pに基づく。その結果、オブジェクトの現在の状態O(i)が次の状態O(i+1)に変化する。すなわち、O(i+1)=O(i)+M+P(i)である。従来技術のインタフェースは通常、モードの視覚的な指示を提供する。多くの場合、モードを設定する最後の操作P(i−1)は、可視でないか、又は、ツールバーの影及びおそらくはカーソル画像の形で可視である。
図4は、典型的な従来技術のグラフィカルユーザインタフェースの操作の概要を示す。一組の動作421を定義する420。状態(i)401を有するオブジェクトを選択し表示する430。特定の動作を実行して440操作を行い、オブジェクトの状態を(i+1)に変化させる。
マウスベースのインタフェースの場合、ポインタ又はカーソルの外観は、現在の操作モードM(i)を示すことができる。したがって、ポインタは、ユーザに対して2つの役割を果たす。ポインタは、相対位置情報(動作が行われる場所)及び操作モード(行われる動作)を示す。しかし、この方式は、直接接触式インタフェースでは上手く機能しない。
直接接触式表面を用いる場合、間接的なフィードバック機能はない。すなわち、表面に触れるか、又は表面にほぼ触れること(通常は動作に対応する)なくポインタを動かすことはできない。これは、直接接触式表面では、指がポインタであり入力装置であるためである。したがって、ポインタは、入力手段(例えば手又はスタイラス)が接触感知表面と直接接触していない場合、この入力手段の位置を示すことができない。言い換えれば、入力手段は、ディスプレイ表面の或る部分、具体的には操作を行っている部分を常に遮蔽することになる。これは、視覚ポインタの使用方法が、直接接触式インタフェースの操作モードを表示するための良い選択でないもう1つの理由である。
手によるディスプレイ表面における対話は、指の位置及び両手の位置を変えることによるジェスチャの可能性を提供する。大型ディスプレイは、空間を分割して使用を助けるためのより多くの機能を提供する。例えば、PalmPilotはその接触インタフェースを、スタイラスマークを数字又は文字として認識するための別個の領域に分割している。この単純な分割により、より複雑で、よってより大きな識別可能な一組の入力図(input drawings)を学ぶことをユーザに要求することなく、入力ミスが減る。
したがって、直接接触感知式インタフェースのユーザに対して、オブジェクトに適用することのできる動作がディスプレイ内のオブジェクトの位置に依存する、すなわち、そうした位置がそれぞれモード領域であり、ユーザは、特定の動作を行うことを可能にするためにオブジェクトをウインドウの特別な領域へ移動させるシステムを提供することが望ましい。
本発明は、ディスプレイ表面上のオブジェクトOの位置Lに応じて、一組の動作Aを用いて一組の操作PをオブジェクトOに適用する接触感知式(タッチセンシティブ)ユーザインタフェースを提供する。
ユーザは、特定の動作A(i)を可能にするために、オブジェクトO(i)をディスプレイ表面上の位置L(i)に移動させる。この操作モードは一般的なものであり、全てのタイプのグラフィカルユーザインタフェースに適用することができ、ユーザが指及び手により操作を行う接触感知式ディスプレイ表面に特に有用である。
したがって、本発明によれば、以下の定式に従って現在の操作モードM(i)を判定して視覚的に指示する。
M(i)=A(i)+O(i)+L(i)
本発明は、複数のモードで動作することができ、各モードが、オブジェクトOが表示されている位置L(i)によって指示される接触感知式グラフィカルユーザインタフェースを提供する。各位置L(i)は、その位置のモードM(i)を示す特定のテキスト背景等、特有の視覚的外観を有することができる。
オブジェクトは接触感知式ディスプレイ表面に表示される。動作は、この表面に1本指で触れること、又は複数本の指で触れることであり得る。接触は、ジェスチャを生じる指(複数可)の動きを含むことができる。同一の動作が、その行われる位置に応じて異なるモードを生じ得る。
図1は、本発明によるマルチモデル(multi-model)接触感知式グラフィカルユーザインタフェース100を示す。このシステムは、接触感知表面200を有するテーブル110、1つ又は複数の椅子120、プロジェクタ130、及びプロセッサ140を備える。椅子120の1つに座るユーザが表面200に触れると、容量結合が生じる。独特な特徴として、1人のユーザ又は複数のユーザについて複数の接触又はジェスチャを同時に検出することができる。
接触に従って画像を表面200に表示する。画像は、操作すべき選択されたオブジェクトO(i)、例えば文書を含む。オブジェクトは、写真、ビデオ、図等も含み得ることを理解すべきである。したがって、オブジェクトは異なるタイプTを有することができ、操作及び本発明を行うモードはオブジェクトのタイプに依存し得る。
本発明では、複数のユーザからの複数の接触点を同時に認識することができる接触表面を使用することが好ましい。Dietz等著「DiamondTouch: A multi-user touch technology」Proc. User Interface Software and Technology (UIST) 2001, pp. 219-226, 2001、及びDietz他に対して2002年12月24日付で発行された米国特許第6,498,590号「Multi-user touch surface」(参照により本明細書中に援用する)を参照のこと。ハンドジェスチャは、Wu他により2003年9月10日付で出願された米国特許出願第10/659,180号「Hand Gesture Interaction with Touch Surface」(参照により本明細書中に援用する)に記載されている。
文書編集用途の例について図2に示すように、表面200は、一組の領域201〜204、例えば、レイアウト領域201、切り取り領域202、サイズ変更領域203、及び注釈付け領域204に分割される。各領域は、一組の固有の重複しない位置L(i)を画定する。
一組の動作A(i)を定義する。動作は、接触ジェスチャ、例えば、1度に1本、2本、又は3本の指によるディスプレイインタフェースへの接触という形である。本発明の特徴として、接触ジェスチャは、接触位置L(i)に応じて、インタフェースの異なる操作モードM(i)として解釈することができる。したがって、可能なインタフェース操作モードの数は一組の動作よりも多い。
レイアウト領域201において、ユーザは、表示されたオブジェクト210、例えば選択された文書210に1本、2本又は3本の指で触れることによって、この文書を動かすことができる。他の領域では、2本指で触れることにより文書を動かす。
文書が切り取り領域202に移動されると、1本指で触れることにより、その接触位置を通り文書の垂直方向の両縁へ延びる水平な直線に沿って文書が「切り取られる」。3本指で触れることにより、文書の矩形部分が切り出される。最も離れた接触位置に対応する2本の指の距離が矩形部分の対角線上の2つの対向する角を定める。直線及び矩形部分は2つのタイプの視覚フィードバックである。
文書がサイズ変更領域203に移動されると、1本指で触れることにより文書のサイズが大きくなり、3本指で触れることによりサイズが小さくなる。
文書が注釈付け領域204に移動されると、1本指での接触を用いて触れた文書に注釈が付けられ、3本指で触れることにより注釈が消去される。
異なるジェスチャ又は動作は3つしかないため、ユーザは、ジェスチャを素早く学ぶことができ、その一方で、より多くの異なる操作モード、すなわち、移動、切り取り、サイズ変更、注釈付け及び消去にアクセスすることができる。
したがって、図3に示すように、グラフィカルユーザインタフェース100を操作する方法300は以下のステップを含む。グラフィカルユーザインタフェースのディスプレイ表面200を、複数の領域に分割し310、一組の固有の重複しない位置311を各領域に関連付ける。インタフェースにより実行する一組の動作321を定義する320。状態(i)301を有するオブジェクトを選択し表示する330。オブジェクトを特定の位置に移動させる340。次に、ディスプレイ表面上のオブジェクトの特定の位置に応じて、一組の動作のうち特定の動作をオブジェクトに対して行う350。これにより、オブジェクトは次の状態(i+1)302に変化し、グラフィカルユーザインタフェースがその特定の動作に対する複数のモードのうちの1つで操作される。
本発明を好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行ってもよいことを理解されたい。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るそのような変形及び変更をすべて網羅することである。
本発明によるグラフィカルユーザインタフェースの側面図である。 本発明によるインタフェースの上面図である。 図2のインタフェースの操作方法のフロー図である。 従来技術のユーザインタフェースを操作するためのフロー図である。

Claims (12)

  1. グラフィカルユーザインタフェースを操作する方法であって、
    前記グラフィカルユーザインタフェースのディスプレイ表面を複数の領域に分割するとともに、一組の固有の重複しない位置を各領域に関連付けること、
    前記グラフィカルユーザインタフェースによって行うことのできる一組の動作を定義すること、
    前記ディスプレイ表面に表示するオブジェクトを選択すること、
    前記オブジェクトを特定の位置に移動させること、
    及び
    前記ディスプレイ表面上の前記オブジェクトの前記特定の位置に応じて、前記一組の動作のうち特定の動作を前記選択されたオブジェクトに対して行い、前記グラフィカルユーザインタフェースを前記特定の動作に対する複数のモードのうちの1つで操作すること
    を含み、
    前記ディスプレイ表面は、レイアウト領域、切り取り領域、サイズ変更領域、及び注釈付け領域に分割される、方法。
  2. 前記ディスプレイ表面は、接触感知式であり、
    各動作を接触ジェスチャとして定義することをさらに含む
    請求項1記載の方法。
  3. 複数のユーザによる複数の接触位置を同時に感知するとともに、各接触位置を特定のユーザに関連付けることをさらに含む
    請求項2記載の方法。
  4. 前記選択されたオブジェクトを含む、画像を前記ディスプレイ表面に投影することをさらに含む
    請求項1記載の方法。
  5. 前記複数のユーザは、前記ディスプレイ表面に触れると前記ディスプレイ表面に容量結合される
    請求項2記載の方法。
  6. 前記オブジェクトは文書であり、前記文書は、1本又は複数の指で触れることによって前記レイアウト領域内で移動される
    請求項1記載の方法。
  7. 前記オブジェクトは文書であり、前記文書は、2本指で触れることによって前記切り取り領域、前記サイズ変更領域、及び前記注釈付け領域内で移動される
    請求項1記載の方法。
  8. 前記オブジェクトは、前記切り取り領域に移動された文書であり、前記切り取り領域において、前記文書は、1本指の触れる位置を通り前記文書の垂直方向の両縁へ延びる水平な直線に沿って切り取られる
    請求項1記載の方法。
  9. 前記オブジェクトは、前記切り取り領域に移動された文書であり、前記切り取り領域において、3本指で触れることにより前記文書の矩形部分が切り取られ、最も離れた2つの位置に対応する2本指の距離が、前記矩形部分の対角線上の2つの対向する角を定める
    請求項1記載の方法。
  10. 前記オブジェクトは、前記サイズ変更領域に移動された文書であり、前記サイズ変更領域において、1本指で触れることにより前記文書のサイズが大きくなり、3本指で触れることにより前記文書のサイズが小さくなる
    請求項1記載の方法。
  11. 前記オブジェクトは、前記注釈付け領域に移動された文書であり、前記注釈付け領域において、1本指で触れることにより前記文書に注釈が付けられ、3本指で触れることにより前記注釈が消去される
    請求項1記載の方法。
  12. グラフィカルユーザインタフェース装置であって、
    複数の領域に分割され、一組の固有の重複しない位置が各領域に関連付けられる、ディスプレイ表面と、
    前記インタフェース装置によって行うことのできる一組の動作を定義する手段と、
    前記ディスプレイ表面に表示されるオブジェクトと、
    前記オブジェクトを特定の位置に移動させる手段と、
    前記ディスプレイ表面上の前記オブジェクトの前記特定の位置に応じて、前記一組の動作のうち特定の動作を前記選択されたオブジェクトに対して行い、前記グラフィカルユーザインタフェース装置を前記特定の動作に対する複数のモードのうちの1つで操作する手段と
    を備え
    前記ディスプレイ表面は、レイアウト領域、切り取り領域、サイズ変更領域、及び注釈付け領域に分割される、グラフィカルユーザインタフェース装置
JP2006035352A 2005-02-14 2006-02-13 グラフィカルユーザインタフェースを操作する方法及びグラフィカルユーザインタフェース装置 Expired - Fee Related JP4800060B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/057,356 2005-02-14
US11/057,356 US7441202B2 (en) 2005-02-14 2005-02-14 Spatial multiplexing to mediate direct-touch input on large displays

Publications (2)

Publication Number Publication Date
JP2006236339A JP2006236339A (ja) 2006-09-07
JP4800060B2 true JP4800060B2 (ja) 2011-10-26

Family

ID=36815176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006035352A Expired - Fee Related JP4800060B2 (ja) 2005-02-14 2006-02-13 グラフィカルユーザインタフェースを操作する方法及びグラフィカルユーザインタフェース装置

Country Status (2)

Country Link
US (1) US7441202B2 (ja)
JP (1) JP4800060B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
DE212006000028U1 (de) * 2005-03-04 2007-12-20 Apple Inc., Cupertino Multifunktionale Handgehaltene Vorrichtung
KR20070034767A (ko) * 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
EP1934695A2 (en) * 2005-09-26 2008-06-25 Koninklijke Philips Electronics N.V. Device comprising a detector for detecting an uninterrupted looping movement
JP2008009572A (ja) * 2006-06-27 2008-01-17 Fuji Xerox Co Ltd ドキュメント処理システム、ドキュメント処理方法及びプログラム
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US8269834B2 (en) 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8295542B2 (en) * 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US7877706B2 (en) * 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7792328B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
US7801332B2 (en) * 2007-01-12 2010-09-21 International Business Machines Corporation Controlling a system based on user behavioral signals detected from a 3D captured image stream
US20110069018A1 (en) * 2007-05-11 2011-03-24 Rpo Pty Limited Double Touch Inputs
KR101397152B1 (ko) * 2007-06-12 2014-05-20 삼성전자주식회사 디지털 멀티미디어 재생 장치 및 그 제어방법
US9262038B2 (en) * 2007-10-10 2016-02-16 Lumapix Method and system for referenced region manipulation
US9372591B2 (en) 2008-04-10 2016-06-21 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
US20120331395A2 (en) * 2008-05-19 2012-12-27 Smart Internet Technology Crc Pty. Ltd. Systems and Methods for Collaborative Interaction
JP5063508B2 (ja) * 2008-06-27 2012-10-31 キヤノン株式会社 情報処理装置及び情報処理方法
CN102473066B (zh) * 2009-09-09 2014-03-12 美泰有限公司 在多功能手持设备上显示、导航和选择电子方式存储内容的***和方法
US20110125733A1 (en) * 2009-11-25 2011-05-26 Fish Nathan J Quick access utility
US8487888B2 (en) * 2009-12-04 2013-07-16 Microsoft Corporation Multi-modal interaction on multi-touch display
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
JP5739131B2 (ja) * 2010-10-15 2015-06-24 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法及びプログラム
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8754860B2 (en) 2010-11-05 2014-06-17 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US9250798B2 (en) 2011-01-24 2016-02-02 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US10048854B2 (en) * 2011-01-31 2018-08-14 Oracle International Corporation Drag and drop interaction between components of a web application
US9223446B2 (en) * 2011-02-28 2015-12-29 Nokia Technologies Oy Touch-sensitive surface
US20120304090A1 (en) * 2011-05-28 2012-11-29 Microsoft Corporation Insertion of picture content for use in a layout
US8796566B2 (en) 2012-02-28 2014-08-05 Grayhill, Inc. Rotary pushbutton and touchpad device and system and method for detecting rotary movement, axial displacement and touchpad gestures
GB2511668A (en) 2012-04-12 2014-09-10 Supercell Oy System and method for controlling technical processes
US8954890B2 (en) * 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
US8814674B2 (en) 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
WO2014201345A1 (en) * 2013-06-13 2014-12-18 Hiperwall, Inc. Systems, methods, and devices for animation on tiled displays
CN105849675B (zh) 2013-10-30 2019-09-24 苹果公司 显示相关的用户界面对象
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US10066959B2 (en) 2014-09-02 2018-09-04 Apple Inc. User interactions for a mapping application
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63170780A (ja) * 1986-10-03 1988-07-14 インタランド・コーポレーション 一体化したマルチ・ディスプレイ型のオーバーレイ制御式通信ワークステーション
US5422993A (en) * 1991-12-17 1995-06-06 International Business Machines Corporation Method and system for performing direct manipulation operations in a computer system
EP0622722B1 (en) * 1993-04-30 2002-07-17 Xerox Corporation Interactive copying system
US6037937A (en) * 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
US6313853B1 (en) * 1998-04-16 2001-11-06 Nortel Networks Limited Multi-service user interface
US6741235B1 (en) * 2000-06-13 2004-05-25 Michael Goren Rapid entry of data and information on a reduced size input area
US7327376B2 (en) * 2000-08-29 2008-02-05 Mitsubishi Electric Research Laboratories, Inc. Multi-user collaborative graphical user interfaces
US20020152240A1 (en) * 2001-04-16 2002-10-17 Parascript Llc Insertion of space in a geometric document
JP2002051317A (ja) * 2001-05-11 2002-02-15 Hitachi Ltd 会議画面表示制御方式
US6498590B1 (en) 2001-05-24 2002-12-24 Mitsubishi Electric Research Laboratories, Inc. Multi-user touch surface
US20030020738A1 (en) * 2001-07-30 2003-01-30 Milburn Ross William Vinters Method and device for character input retrieval and indexing

Also Published As

Publication number Publication date
US20060181518A1 (en) 2006-08-17
JP2006236339A (ja) 2006-09-07
US7441202B2 (en) 2008-10-21

Similar Documents

Publication Publication Date Title
JP4800060B2 (ja) グラフィカルユーザインタフェースを操作する方法及びグラフィカルユーザインタフェース装置
US9996176B2 (en) Multi-touch uses, gestures, and implementation
KR101361214B1 (ko) 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법
US8941600B2 (en) Apparatus for providing touch feedback for user input to a touch sensitive surface
JP4890853B2 (ja) カーソルを用いて入力を制御する入力制御方法
US8004503B2 (en) Auto-calibration of a touch screen
US20120068963A1 (en) Method and System for Emulating a Mouse on a Multi-Touch Sensitive Surface
KR101328202B1 (ko) 제스처 입력을 통한 기능 수행 명령실행 방법 및 장치
US20110216015A1 (en) Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
US20050162402A1 (en) Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
JP5664147B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9128548B2 (en) Selective reporting of touch data
JP2011123896A (ja) タッチセンシティブディスプレイを用いてオブジェクトを複写する方法およびシステム
TW201005598A (en) Touch-type mobile computing device and display method thereof
TWI470475B (zh) 電子系統
JP2019505024A (ja) タッチ感知面−ディスプレイによるジェスチャー制御式インタラクティブ方法及び装置
JP2006500676A (ja) グラフィカル・ユーザ・インタフェース・ナビゲーション方法、及び装置。
JP2009258896A (ja) カーソル制御システムとその方法
TWI354223B (ja)
US20140298275A1 (en) Method for recognizing input gestures
US8954638B2 (en) Selective reporting of touch data
Tu et al. Text Pin: Improving text selection with mode-augmented handles on touchscreen mobile devices
KR20160027063A (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
JP2016018453A (ja) 情報表示装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110803

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees