JP2006040271A - ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用 - Google Patents

ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用 Download PDF

Info

Publication number
JP2006040271A
JP2006040271A JP2005184984A JP2005184984A JP2006040271A JP 2006040271 A JP2006040271 A JP 2006040271A JP 2005184984 A JP2005184984 A JP 2005184984A JP 2005184984 A JP2005184984 A JP 2005184984A JP 2006040271 A JP2006040271 A JP 2006040271A
Authority
JP
Japan
Prior art keywords
gesture
user
display surface
interactive display
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005184984A
Other languages
English (en)
Other versions
JP4842568B2 (ja
JP2006040271A5 (ja
Inventor
Andrew D Wilson
ディー.ウィルソン アンドリュー
Christina Summer Chen
サマー チェン クリスティーナ
Daniel C Robbins
シー.ロビンス ダニエル
Eric J Horvitz
ジェー.ホルビッツ エリック
Jacob O Wobbrock
オー.ウォブロック ジェイコブ
Joel P Dehlin
ピー.デウリン ジョエル
Kenneth P Hinckley
ピー.ヒンクレイ ケネス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006040271A publication Critical patent/JP2006040271A/ja
Publication of JP2006040271A5 publication Critical patent/JP2006040271A5/ja
Application granted granted Critical
Publication of JP4842568B2 publication Critical patent/JP4842568B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 イメージを表示するための表示面を有し、ユーザの手および指を含めて様々なオブジェクトを検出することができる、インタラクティブディスプレイテーブルを提供する。
【解決手段】 ビデオカメラは、オブジェクトから反射された赤外線(IR)に応答して、任意の連結コンポーネントを検出する。連結コンポーネントは、表示面に接触しているかまたはその近傍にあるオブジェクトの部分に対応する。連結コンポーネントを使用して、インタラクティブディスプレイテーブルは、自然な手または指の位置、あるいはオブジェクトの動きを検知し推測して、ジェスチャを検出する。特定のジェスチャは、アプリケーションの実行、バーチャルオブジェクトの作成、または他の対話のために使用される。ジェスチャは、片手または両手、あるいは他のオブジェクトによって作られる、静的なポーズ、またはより複雑な形状、動きとすることができる。
【選択図】 図13

Description

本発明は、一般に、インタラクティブディスプレイの表面に表示されたバーチャル環境と対話するために、ユーザの手および指を用いて行ったジェスチャを検出するための方法および装置に関し、より詳細には、表示面の近傍で自然な手または指の動きを用いて、ソフトウェアアプリケーション、または表示面でのイメージの表示を制御することに関する。
コンピューティングプラットフォームがより強力になり、多くの様々な新しい方法によりユーザに応答することが可能になるのに伴い、アプリケーションを制御しまたデータを入力するためにユーザがキーボードでタイプする必要がないように、コンピューティングデバイスとユーザの間の対話が継続的に改善されている。マイクロソフト社のWindows(登録商標)オペレーティングシステムにより提供されるようなグラフィカルユーザインターフェースシステムの発展は、ユーザが制御アクションを入力しまた選択をより自然で直観的な方法で行うことを可能にすることによって、ユーザがコンピューティングデバイスと対話することができる容易性に大幅な改善をもたらした。
ユーザが容易に制御アクションを入力することができることは、コンピュータゲームおよび他のバーチャル環境では、入力を素早く効率的に提供する必要があるので特に重要である。ユーザは、通常、マウス、ジョイスティック、ホイール(wheel)、ゲームパッド、トラックボール、または他のユーザ入力装置を操作することにより、バーチャル環境と対話して、バーチャル環境を生成するソフトウェアプログラムによって定義されたある種の機能を実行する。バーチャル環境、およびバーチャル環境におけるユーザのオブジェクトとの対話の効果は、一般に、ディスプレイ上で可視であり、したがって、ユーザの入力および制御アクションの結果に関して即座にユーザはフィードバックを得ることができる。
ユーザ入力の他の形態では、ユーザの指またはスタイラス(stylus)の接触に応答性のあるディスプレイを利用している。タッチ応答ディスプレイは、圧力に対し作動すること、静電容量または磁場強度における電位変化に応答すること、表面弾性波を利用すること、あるいは、ディスプレイ上での指またはスタイラスの位置を指し示す他の状態に応答することができる。別のタイプのタッチセンシティブディスプレイ(touch sensitive display)は、ディスプレイスクリーン表面から間隔を介した複数のオプティカルセンサ(optical sensor)を含み、それによって、スクリーンに接触している指またはスタイラスの位置を検出することができる。これらのタッチセンシティブディスプレイの1つを使用して、ユーザは、表示されているバーチャルオブジェクトをより直接的に制御することができる。例えば、ユーザは、表示されたバーチャルオブジェクトに指を用いてタッチして、バーチャルオブジェクトを選択し、次いで、選択したバーチャルオブジェクトをタッチセンシティブディスプレイ上の新しい位置にまでドラッグすることができる。
従来のタッチセンシティブディスプレイで使用される静電容量、電磁気、光学、または他のタイプのセンサは、通常、ディスプレイスクリーンに同時にタッチしている2つ以上の指または物体の位置を、同時に検出することができない。静電性または電気抵抗、または表面弾性波を検知する表示面は、複数の接触点を検出することができるが、表示面にどのような解像度でもオブジェクトを表示することができない。これらのタイプの従来技術のシステムは、表示面に配置される複数の異なるオブジェクトから各オブジェクトを識別するために使用することができる、オブジェクトまたは詳細な形状についてのパターンを検出することができない。
従来技術で開発されている他の手法では、水平ディスプレイスクリーンの側面および上方に取り付けられたカメラを使用して、ディスプレイスクリーンにタッチしているユーザの指または他のオブジェクトのイメージを視覚的に捕捉する。このような複数のカメラを取り付けた構成は、多くの人々が家庭で使用したいと考えるようなコンパクトなシステムではないのは明らかである。さらに、このタイプのマルチカメラシステムでの表示面上または表示面近傍のオブジェクトに応答する際の正確さは、3次元空間においてオブジェクトおよびその位置を視覚的に認識するシステムで使用されるソフトウェアの能力に依存する。さらに、カメラの1つからのオブジェクトに対する視界は、その間に介在する別のオブジェクトによって妨害されるおそれがある。
上述のタッチセンシティブディスプレイおよび他のディスプレイに固有の多数の問題に取り組むために、あるユーザインターフェースプラットフォームがMITメディアラボ(MIT Media Lab)で開発された(例えば、非特許文献1参照。)。metaDESKは、2次元地図情報を表示するために使用されるほぼ水平のグラフィック表面(graphical surface)を含む。グラフィック表面の上に配置された、アームマウントされた(arm−mounted)フラットパネルディスプレイは、3次元地図情報を表示するために使用される「アクティブレンズ(active lens)」の役目をする。デスクユニット内の(すなわちグラフィック表面の下の)コンピュータビジョンシステムは、赤外線(IR)ランプ、IRカメラ、ビデオカメラ、ビデオプロジェクタ、およびミラーを含む。ミラーは、プロジェクタによって投影されるグラフィックイメージを、グラフィック表示面の裏面に反射する。IRカメラは、グラッフィック表面上に配置される「ファイコン(phicon)」と呼ばれるパッシブ(passive)オブジェクトの下面に提供される特徴的パターンを検出することができる。磁場ポジションセンサ、および電気接触センサも、metaDESK内に含まれる。例えば、「グレートドーム(Great Dome)ファイコン」の底部に適用される(可視光に対して透明な)IRパターンを検出するIRカメラに応答して、グレートドームの実際の位置が地図内のグレートドームファイコンが位置する場所に位置付けられて、MITのキャンパスの地図が、グラフィック表面に表示される。グラフィック表面上でグレートドームのファイコンを移動させると、ユーザによるファイコンの移動に対応して地図を回転または変換することによって、表示された地図が操作される。
表示面上でオブジェクトを検知するための同様の手法は、ソニーコンピュータサイエンス研究所のJun Rekimotoによって発表された数本の論文に開示されている(例えば、非特許文献2参照。)。これらの論文は、後方から投射されたイメージが可視である表示面の近傍またはそれに接触しているオブジェクトを検出するために赤外線をいずれも用いる「HoloWall」および「HoloTable」を簡潔に説明している。HoloWallでは垂直でHoloTableでは水平のリアプロジェクション(rear−projection)パネルは、半透明で拡散性があり、それによって、オブジェクトが、パネルに接近し次いで接触するのに伴い、よりはっきりと見えるようになる。したがって、こうして検出されたオブジェクトは、ユーザの指、手、または他のタイプのオブジェクトとすることができる。
表示面上または付近のオブジェクトを光学的に検出することができるインタラクティブディスプレイを使用することによって、特定の振舞いのオブジェクトの動きを検出することができるはずである。したがって、インタラクティブ表示面によって検出される、ユーザの手による特定のジェスチャに、インタラクティブ表示面が応答することが望ましい。トロント大学コンピュータサイエンス学科(University of Toronto Department of Computer Science)のMike WuおよびRavin Balakrishnanは、ユーザのジェスチャによる手および指の位置を検知するために静電結合を利用するMitsubishi DianmondTouch tableを使用し、アプリケーションと対話するためにあらかじめ定義したジェスチャを用いる利点を指摘した(例えば、非特許文献3参照。)。(やはりトロント大学コンピュータサイエンス学科の)Gonzalo RamosおよびRavin Balakrishnanは、圧力感知のタブレットPC(または彼らが言及しているようにデジタイザタブレットを備えたよりハイエンドのワークステーション)上でジェスチャを用いたビデオの制御について実証した(例えば、非特許文献4参照。)。これらの従来技術の各システムでは、ジェスチャによってアクティブ化する機能をシステムが学習しなければならない。しかし、この2つの従来技術のシステムでは、他のタッチセンシティブ、静電容量性、または電磁気感知の表示面と同様の制限、すなわち、良好なイメージング分解能の欠如、オブジェクトの形状および方向性を適切に識別できないこと、および、表示面に同時に接触する複数のオブジェクトを検知するのが困難なことが問題となっている。また、圧力感知表示面は、表示面との実際の接触を必要とし、表示面近傍のオブジェクトに対し応答することができない。
Brygg Ullmer and Hiroshi Ishii, "The metaDESK: Models and Prototypes for Tangible User Interfaces", Proceedings of UIST 10/1997, 14-17 Jun Rekimoto Mike Wu and Ravin Balakrishnan, "Multi-Finger and Whole Hand Gestural Interaction Techniques for Multi-User Tabletop Displays", UIST '03 Gonzalo Ramos and Ravin Balakrishnan, "Fluid interaction Techniques for Control and Annotation of Digital Video", UIST "03
明らかに必要とされているのは、アプリケーションとの対話を制御し、ジェスチャによって行われる機能との関係が直観的に理解できる自然なジェスチャを用いて機能またはオブジェクトを選択することができる、インタラクティブディスプレイシステムである。ジェスチャを行う際に、1つまたは複数の手の1本または複数の指を用いることを可能になるべきであり、所望の場合は、ユーザのアペンデージ(appendage)が表示面に実際に接触することを必要としないことが望ましい。
したがって、本発明の一態様は、イメージが表示されそのディスプレイシステム上または近傍に配置されたオブジェクトが光学的に検出することができるインタラクティブディスプレイシステムに関連してジェスチャを用いるための方法に関する。この方法では、インタラクティブディスプレイシステムの表示面の上方に配置される、ユーザの手に握られたオブジェクトあるいはユーザの体のアペンデージの少なくとも一部分から反射される光によってイメージが形成される。こうして反射された光は、表示面を通過後に検出される。このアペンデージには、腕、手、および/または、手の1本または複数の指(すなわち親指または他の指)を含むことができ、これらの任意の部分は、表示面の単に近傍としても、実際にそれに接触していてもよい。このイメージは、そのイメージ内の少なくとも1つの関連するコンポーネントを検出するために処理される。関連するコンポーネントは、所定の閾値より大きい強度を有する隣接するピクセルを含むイメージの一部分として定義される。イメージ内の1つまたは複数の関連するコンポーネントに基づいて、表示面に関係してオブジェクトまたはユーザの体のアペンデージの部分によって行われたジェスチャが認識される。この方法は、認識されたジェスチャの機能として、ジェスチャに事前に関連付けられている応答を自動的に作成する。以下の議論で明らかになるように、この応答は、インタラクティブディスプレイシステムの状態を所定の状態に変更する。
ジェスチャは、いくつかの異なる振舞いで行うことができる。例えば、ジェスチャは、おおまかに定義された経路に沿った動きを含むことができ、あるいは、表示面付近のユーザのアペンデージの少なくとも一部分のポーズを含むことができる。
少なくとも1つの連結コンポーネントは、オブジェクトによる表示面への接触に対応する少なくとも1つのタッチ連結コンポーネントを含むことができる。また、少なくとも1つの連結コンポーネントは、ユーザの指または手に対応することができる。
自動的に作成される応答は、インタラクディブディスプレイシステム上でジェスチャに関連するソフトウェアアプリケーションを実行するステップを含むことができる。任意選択で、ジェスチャは、ソフトウェアアプリケーションに関係するアルファベット文字を定義することができる。例えば、ジェスチャは、アプリケーション名の最初の文字の形状で形成することができる。
アプリケーションがインタラクティブディスプレイシステムにより実行されるとき、自動的に作成される応答は、そのアプリケーションにおいて機能を実行するステップを含むことができる。さらに、その応答は、機能が実行されたときその機能に関係する変数が変更される範囲を示すためのオブジェクトをユーザが動かすことを可能にすることができる。
他の実施形態では、自動的に生成される応答は、インタラクティブディスプレイシステムの表示面上でジェスチャにより定義される領域を選択するステップを含む。ジェスチャはまた、表示面に提示されるイメージまたはバーチャルオブジェクトを選択するために用いることができる。この場合、応答は、表示面上でユーザのアペンデージの少なくとも一部分を動かすことによって、ユーザがイメージまたはバーチャルオブジェクトのサイズを変更することを可能にするステップをさらに含むことができる。
他の実施形態では、ジェスチャは、応答を引き起こすために用いられ、ジェスチャに関連するバーチャルオブジェクトは表示面に提示される。この実施形態では、ユーザは、例えば、バーチャルオブジェクトのような形をおおまかにした自然なジェスチャを用いることができる。
少なくとも1つの連結コンポーネントを検出することは、ユーザのアペンデージの方向性をおおまかに決定するための、複数のタッチ連結コンポーネント、および少なくとも1つのホバー(hover)連結コンポーネントを含むことができる。このアペンデージの方向性により、ジェスチャが正しく認識されることを可能にすることができる。典型的には、複数のタッチ連結コンポーネントは、表示面に接触しているユーザの指に対応し、任意のホバー連結コンポーネントは、表示面の近傍で実際にはそれに触れていないユーザの手に対応する。
本発明の他の態様は、コンピューティングデバイスによって行われる方法のステップを実行するためのマシン命令を格納するメモリ媒体に関する。
本発明のさらに他の態様は、例えばユーザの体のアペンデージまたはユーザの手に握られたオブジェクトなどのジェスチャに応答する、インタラクティブディスプレイシステムに関する。インタラクティブディスプレイシステムは、その上にまたは付近でオブジェクトを配置し操作することが可能な対話側、および反対側を有する表示面を含む。光源は、光を、表示面の反対側から表示面を通して対話側に送り、対話側の近傍のユーザのアペンデージなどのオブジェクトに光を当てる。光センサは、オブジェクトから反射され表示面を介して戻った光を受け取り検知するために配置されており、表示面に接触しているかまたは近傍のオブジェクトのイメージに対応する信号を生成する。プロセッサは、光センサおよびメモリと通信する。メモリは、データ、およびプロセッサに複数の機能を実行させるマシン命令を格納する。これらの機能は、一般に、上記の方法のステップと一致している。
上述の本発明の態様および付随する利点の多くは、添付の図面と併せて以下の詳細な説明を参照することにより、さらに容易に認識しまた適切に理解することができる。
本発明を実装するための例示的コンピューティングシステム
図1を参照すると、本発明の様々な部分を実装するのに適切な例示的システムが示されている。このシステムは、処理ユニット21、システムメモリ22、システムバス23を備えた従来のPC20の形態の汎用コンピューティングデバイスを含む。システムバスは、システムメモリを含めて様々なコンポーネントを処理ユニット21に結合し、また、様々な任意のバスアーキテクチャを使用した、メモリバスまたはメモリコントローラ、周辺バス、およびローカルバスを含めて、いくつかのタイプのうち任意のバス構造とすることができる。システムメモリは、ROM(リードオンリメモリ)24、およびRAM(ランダムアクセスメモリ)25を含む。起動時などにPC20内の要素間で情報を転送するのを助ける基本的ルーチンを含むBIOS(基本入出力システム)26は、ROM24に格納されている。さらに、PC20は、ハードディスク(図示せず)から読取りまたはそれに書き込むためのハードディスクドライブ27、リムーバル磁気ディスク29から読取りまたはそれに書き込むための磁気ディスクドライブ28、および、CD‐ROM(コンパクトディスクリードオンリメモリ)または他の光媒体などのリムーバル光ディスク31から読取りまたはそれに書き込むための光ディスクドライブ30を含む。ハードディスク27、磁気ディスク28、および光ディスクドライブ30はそれぞれ、ハードディスクドライブインターフェース32、磁気ディスクドライブインターフェース33、および光ディスクドライブインターフェース34によってシステムバス23に接続されている。これらのドライブおよび関連するコンピュータ可読媒体は、PC20のためのコンピュータ可読のマシン命令、データ構造、プログラムモジュール、および他のデータの不揮発性ストレージを提供する。本明細書に記載の例示的環境では、ハードディスク、リムーバル磁気ディスク29、およびリムーバル光ディスク31が使用されているが、コンピュータによってアクセス可能なデータおよびマシン命令を格納することができる他のタイプのコンピュータ可読媒体、例えば、磁気カセット、フラッシュメモリカード、DVD(デジタルビデオディスク)、ベルヌーイ(Bernoulli)カートリッジ、RAM、およびROMなどのコンピュータ可読媒体を例示的動作環境で使用することができることは当業者には認識されよう。
オペレーティングシステム35、1つまたは複数のアプリケーションプログラム36、他のプログラムモジュール37、およびプログラムデータ38を含めて多数のプログラムモジュールは、ハードディスク、磁気ディスク29、光ディスク31、ROM24、またはRAM25に格納することができる。ユーザは、キーボード40およびポインティングデバイス42などの入力装置を介して、コマンドおよび情報をPC20に入力し、制御入力を提供することができる。ポインティングデバイス42は、マウス、スタイラス、ワイヤレスリモートコントロール、または他のポインタを含むことができるが、本発明と関連して、ユーザは、入力および制御のためにインタラクティブディスプレイを利用することができるため、このような従来のポインティングデバイスは除外することもできる。以下では、用語「マウス」は、実質的には、スクリーン上のカーソルの位置を制御するのに役立つ任意のポインティングデバイスを包含するものとする。他の入力装置(図示せず)には、マイク、ジョイスティック、ハプティックジョイスティック、ヨーク(yoke)、フットペダル、ゲームパッド、パラボラアンテナ、またはスキャナなどが含まれ得る。上記および他の入出力(I/O)装置は、多くの場合、システムバス23に結合された入出力インターフェース46を介して処理ユニット21に接続されている。入出力インターフェースという用語は、シリアルポート、パラレルポート、ゲームポート、キーボードポート、および/またはUSB(ユニバーサルシリアルバス)に専用の各インターフェースを包含するものとする。システムバス23は、下記に論じるように、インタラクティブディスプレイ60に含まれるデジタルビデオカメラから信号を受け取るために、インタラクティブディスプレイ60に結合されたカメラインターフェース59にも接続されている。デジタルビデオカメラは、代わりに、USBバージョン2.0ポートなど適切なシリアル入出力ポートに結合することもできる。任意選択として、モニタ47は、ビデオアダプタ48など適切なインターフェースを介してシステムバス23に接続することができるが、本発明のインタラクティブディスプレイは、情報の入力およびソフトウェアアプリケーションの制御のために、それよりも非常に優れた表示および対話をユーザに提供することができるので、本発明のインタラクティブディスプレイがビデオアダプタに結合されることが好ましい。PCは、(図示されていないサウンドカードまたは他のオーディオインターフェースを介する)スピーカ、およびプリンタなど他の出力周辺装置(図示せず)に結合されていることが多いことは認識されよう。
本発明は、単一のマシンで実施することができるが、PC20は、リモートコンピュータ49のような1つまたは複数のリモートコンピュータへの論理接続を使用してネットワーク環境で動作することもできる。リモートコンピュータ49は、他のPC、(通常、PC20とほぼ同じに構成される)サーバ、ルータ、ネットワークPC、ピアデバイス、サテライト、または他の一般的なネットワークノードとすることができ、通常、PC20に接続される上記要素の多くまたは全部を含むが、図1には、外部メモリストレージデバイス50だけを示している。図1に示す論理接続は、LAN(ローカルエリアネットワーク)51、およびWAN(ワイドエリアネットワーク)52を含む。このようなネットワーク環境は、オフィス、企業規模のコンピュータネットワーク、イントラネット、およびインターネットで一般的である。
PC20は、LANネットワーク環境で使用されるとき、ネットワークインターフェースまたはアダプタ53を介してLAN51に接続される。WANネットワーク環境で使用されるときは、一般的に、PC20は、インターネットなどのWAN52を介して通信を確立するための、モデム54、あるいは、ケーブルモデム、DSL(デジタル加入者線)インターフェース、ISDN(総合デジタル通信サービス網)またはインターフェースなど他の手段を含む。内部または外部にあり得るモデム54は、システムバス23に接続されるか、あるいは、入出力装置インターフェース46すなわちシリアルポートを介してシステムバス23に結合される。ネットワーク化された環境では、PC20が使用するプログラムモジュールまたはその部分は、リモートのメモリストレージデバイスに格納される。図に示すネットワーク接続は、例示であり、コンピュータ間の通信リンクを接続する手段として、無線通信や広帯域ネットワークリンクなど他の手段を用いることもできることは認識されよう。
例示的インタラクティブ表面
図2では、フレーム62内にPC20を含み、このコンピュータのための光入力およびビデオディスプレイ装置の両方の役割をする、例示的インタラクティブディスプレイテーブル60が示されている。このインタラクティブディスプレイテーブルの断面図では、テキストおよびグラフィックイメージを表示するために用いられる光線は、点線によっておおまかに図示し、インタラクティブディスプレイテーブルの表示面64a上またはそのちょうど上方でオブジェクトを検知するために用いられる赤外線(IR)は、破線によって図示する。表示面64aは、インタラクティブディスプレイテーブルの上面64の範囲内に設けられている。テーブル表面の外周部は、ユーザの腕、あるいは表示面64aに表示されるグラフィックイメージまたはバーチャル環境と対話するのに用いることができるオブジェクトを含む他のオブジェクトを支えるために役立つ。
赤外光源66は、好ましくは、複数の赤外線発光ダイオード(LED)を含み、フレーム62の内側に取り付けられる。赤外光は、赤外光源66によって発生し、破線78a、78b、78cによって示されるように、表示面64aの裏面に向かうように上方に方向付けられる。赤外光源66からの赤外光は、ベラム(vellum)のシートまたは光拡散性を有する他の適切な半透明材を含むテーブルの半透明層64bを通過した後、表示面上またはその近傍の任意のオブジェクトにより反射される。1つの赤外光源66のみが図示されているが、表示面64aの照明が均一となるように、複数のこのような赤外光源を、フレーム62の内側において間隔を置いた位置に取り付けることもできることは認識されよう。赤外光源により発する赤外光は、
・破線78aで示されるように、どのようなオブジェクトを照明することなくテーブル表面から出ること;
・破線78bで示されるように、テーブル表面上のオブジェクトを照明すること;あるいは、
・破線78cで示されるように、テーブル表面から上方へ短い距離の位置にあるがテーブル表面に接触していないオブジェクトを照明することができる。
表示面上の64aは、表示面上にある「タッチ」オブジェクト76a、および、表示面の近くにあるが実際にはそれと接触していない「ホバー」オブジェクト76bを含む。表示面を通過する赤外光を拡散させるために表示面の下に不透明層64bを用いる結果として、表示面64aの表面にオブジェクトが接近するのに伴い、オブジェクトによって反射される赤外線量が、実際にオブジェクトが表示面に接触している時に達成される最大量にまで増加する。
デジタルビデオカメラ68は、表示面64a上方に配置される任意のタッチオブジェクトまたはホバーオブジェクトから反射される赤外光を受け取るのに適切な位置で、表示面64aの下方のフレーム62に取り付けられる。デジタルビデオカメラ68は、赤外線パスフィルタ86aを備え、このフィルタは、赤外光のみを透過し、点線84aをたどって表示面64aを通過し進む周辺可視光を遮断する。バッフル(baffle)79は、赤外光源から発せられる赤外光が直接デジタルビデオカメラに入るのを防止するために、赤外光源66とデジタルビデオカメラの間に配置される。というのは、好ましくは、このデジタルビデオカメラは、表示面64aから短い距離だけ上方にあるかまたはそれに接触しているオブジェクトから反射された赤外光のみに応答する出力信号を生成し、表示面上またはその上方にあるオブジェクトから反射された赤外光のイメージに対応することが必要なためである。デジタルビデオカメラ68は、表示面64aを介してインタラクティブディスプレイの上方から内側へ通過する環境光に含まれた任意の赤外光(例えば、同様に点線84aで示される経路に沿って進む環境赤外光)にも応答することは明らかであろう。
テーブル表面上またはその上方のオブジェクトから反射された赤外光は、
・破線80aおよび80bで示されるように、不透明層64bを通り、パスフィルタ86aを通過してデジタルビデオカメラ68のレンズ内に向かって反射する;あるいは、
・破線80cで示されるように、デジタルビデオカメラ68のレンズに入らずに、インタラクティブディスプレイの他の内部の面で反射されるまたは吸収され得る。
不透明層64bは、入射と反射の両方の赤外光を拡散する。したがって、上述のように、表示面64aにより近い「ホバー」オブジェクトは、より離れている同じ反射率のオブジェクトよりも大量の赤外光をデジタルビデオカメラ68に反射する。デジタルビデオカメラ68は、そのイメージングフィールド内で「タッチ」および「ホバー」オブジェクトから反射された赤外光を検知し、反射された赤外光のイメージに対応するデジタル信号を生成する。そのデジタル信号は、各オブジェクトの位置を決定しまた任意選択で各オブジェクトのサイズ、方向、および形状を決定するために、PC20に入力されて処理される。オブジェクトの一部分(例えばユーザの上腕など)は、他の部分(例えばユーザの指など)が表示面に接触しているときに、テーブルの上方にあってもよいことに留意されたい。さらに、オブジェクトは、オブジェクト特有、またはオブジェクトがそのメンバとなっている関連オブジェクトのクラスに特有の、赤外光反射パターンまたはコード化識別子(例えばバーコード)を、その底面に備えることができる。したがって、デジタルビデオカメラ68からのイメージ信号は、本発明に従って、このような特定の各オブジェクトを検出し、ならびに、その反射パターンから反射された赤外光に基づいて、または反射された赤外光のイメージから明らかなオブジェクトの形状に基づいて、オブジェクトの方向性を決定するために使用することもできる。この機能を実行するために実施される論理ステップを以下に説明する。
PC20は、図2に示すようにインタラクティブディスプレイテーブル60と一体化しても、あるいは、図3の実施形態に示すように、代わりにインタラクティブディスプレイテーブルの外部としてもよい。図3では、インタラクティブディスプレイテーブル60’は、データケーブル63を介して(前述のように任意選択のモニタ47を含む)外部PC20に接続される。図にも示すように、1組の直交するX軸とY軸は、表示面64aに関連付けられ、また、「0」で示す原点によって連結している。個々に示していないが、各直交軸での複数の座標位置は、表示面64a上の任意の位置を指定するために利用することができることが認識されよう。
インタラクティブディスプレイテーブルは、(図3に示す)外部PC20、あるいは、セットトップボックス(set top box)、ビデオゲーム、ラップトップコンピュータ、またはメディアコンピュータ(図示せず)など他のタイプの外部コンピューティングデバイスに接続され、また、インタラクティブディスプレイテーブルは、入出力装置を含む。インタラクティブディスプレイテーブルのための電力は、従来の交流(AC)電源(図示せず)に接続される、パワーリード(power lead)61を介して供給される。インタラクティブディスプレイテーブル60’に接続されたデータケーブル63は、PC20の、UBS2.0ポート、IEEE(電気電子技術者協会)1394(またはFireWire)ポート、あるいはEthernet(登録商標)ポートに結合することができる。無線接続の速度の改善が進展するのに伴い、インタラクティブディスプレイテーブルは、このような高速無線接続あるいは他の何らかの適切な有線または無線のデータ通信リンクを介して、PC20などのコンピューティングデバイスに接続することができることも企図される。PC20は、インタラクティブディスプレイと一体になった部分として内部に含まれても外部にあっても、デジタルビデオカメラ68からのデジタルイメージを処理するためのアルゴリズムを実行し、インタラクティブディスプレイテーブル60のより直観的なユーザインターフェース機能を有利に使用するように設計されたソフトウェアアプリケーションを実行し、また、このような機能を利用することを目的に設計されていないがそれでもインタラクティブディスプレイテーブルの入力および出力の機能を有効に利用することができる他のソフトウェアアプリケーションも実行する。他の代替形態では、インタラクティブディスプレイは、外部コンピューティングデバイスに結合され得るが外部PCによって行われないイメージ処理および他のタスクを行うための内部コンピューティングデバイスを含む。
インタラクティブディスプレイテーブルの(つまり上記の任意の実施形態の)重要で強力な特徴は、ゲームまたは他のソフトウェアアプリケーションのためのグラフィックイメージまたはバーチャル環境を表示し、表示面64a上で可視のグラフィックイメージまたはバーチャル環境との間の対話を可能にし、パターン化されたオブジェクト76aのように表示面の表面にあるパターン化されたオブジェクト、またはパターン化されたオブジェクト76bのように表示面のちょうど上方にあるパターン化されたオブジェクトを識別することができることである。
再び図2を参照すると、インタラクティブディスプレイテーブル60は、表示面64aで、グラッフィックイメージ、バーチャル環境、またはテキスト情報を表示するために使用される、ビデオプロジェクタ70を含んでいる。ビデオプロジェクタは、LCD(液晶ディスプレイ)またはDLP(デジタルライトプロセッサ)タイプ、あるいはLCoS(リキッドクリスタルオンシリコン(liquid crystal on silicon))タイプであり、少なくとも640×480ピクセルの解像度を有することが好ましい。ビデオプロジェクタが発する赤外光は、表示面64a上またはその上方のオブジェクトから反射する赤外光に干渉するおそれがあるが、赤外線カットフィルタ86bは、このビデオプロジェクタからの赤外光がインタラクティブディスプレイテーブルの内部に入るのを防止するために、ビデオプロジェクタ70の投影レンズの前部に取り付けられる。第1のミラーアセンブリ72aは、プロジェクタレンズから進む投影光が点線の経路82aに沿ってフレーム62の透明開口部90aを通り抜け第2のミラーアセンブリ72bに入射するように方向付ける。第2のミラーアセンブリ72bは、投影されたイメージが可視となり、表示のための表示面64aで焦点が合うように、投影光をプロジェクタレンズの焦点となる不透明層64bに対して反射する。
アライメントデバイス74aおよび74bは、設けられ、表示面に対して投影されたイメージが表示面と位置が整合するように第1および第2のミラーアセンブリの角度を調整するためのネジ棒および回転可能調整ナット74cを含む。この2つのミラーアセンブリは、投影されたイメージを所望の方向に向けることに加え、プロジェクタ70と不透明層64bの間のより長い経路を提供し、さらに重要なことに、インタラクティブディスプレイテーブルの所望のサイズおよび形状を達成するのを助ける。したがって、インタラクティブディスプレイテーブルは、大きくなりすぎず、ユーザがその隣に快適に座ることができる寸法および形状とすることができる。
手の位置の推測
表示面に接触しているかその近傍にあるオブジェクトは、オブジェクトから反射された所定の強度レベルを上回る赤外光に応答して赤外線ビデオカメラ68によって作成されたイメージにおける連結コンポーネントを構成するピクセルを検出することにより検知される。連結コンポーネントを含めるために、ピクセルは、やはり所定の強度レベルを超える他のピクセルと隣接していなければならない。表示面の近傍だがそれと接触していないホバーオブジェクトと、表示面と実際に接触しているタッチオブジェクトに対しては、異なる所定の強度レベルの閾値を定義することができる。したがって、ホバー連結コンポーネントとタッチ連結コンポーネントがあり得る。連結コンポーネントを決定するためにオブジェクトから反射した赤外光を処理しそれに基づいてオブジェクトならびにそのサイズおよび方向性を識別することに関するロジックの詳細は、2004年3月31日に出願され、参照によりその明細および図面を明確に本明細書に援用する、本発明の譲受人に譲渡される同時係属出願である、「Determining Connectedness and Offset of 3d Objects Relative to An Interactive Surface」という名称の米国特許仮出願第10/814761号明細書に説明されている。
ユーザが、同じ手の1本または複数の指を、その指先を表示面にタッチした状態で、インタラクティブテーブルの表示面を横切って移動させるとき、タッチ連結コンポーネントとホバー連結コンポーネントの両方が、インタラクティブディスプレイテーブルの赤外線ビデオカメラによって検知される。指先は、タッチオブジェクトとして認識され、表示面に充分に接近している手、手首、および前腕の一部は、ホバーオブジェクトとして識別される。検知されたタッチおよびホバーコンポーネントを構成し表示面のそれらのエリアに配置されているピクセルを含む、連結コンポーネントの相対的サイズ、方向性、および位置は、ユーザの手および指(すなわち親指および/または他の指)の位置および方向性を推測するために用いることができる。本明細書および添付の特許請求の範囲では、「指」およびその複数形は、これらの単語の使用が、特定の文脈で1本または複数の「親指」として別個に考慮することを指示していない限り、概して、1本(または複数の)指、および1本(または複数の)親指を共に包含するものとする。
図4Aにおいて、例示400は、検知された入力イメージ404を例示的に示す。このイメージは、表示面の拡散層を介して検知されることに留意されたい。この入力イメージは、タッチ連結コンポーネント406およびホバー連結コンポーネント408を含む。図4Bにおいて、例示410は、図4Aに示すホバー連結コンポーネント408に対応し推測された、表示面の上方での手402を例示的に示す。推測された手の人差し指は伸ばされていて、その指先は、表示面に物理的に接触しているが、残りの指、および手は、表示面にタッチしていない。したがって、表示面に接触している指先は、タッチ連結コンポーネント406に対応する。
図4Cでは、同様に、例示420は、検知された入力イメージ404を例示的に示す。やはり、表示面の上方にあるオブジェクトおよびそれに接触しているオブジェクトのイメージは、表示面の拡散層を通り検知される。この入力イメージは、2つのタッチ連結コンポーネント414、および1つのホバー連結コンポーネント416を含む。図4Dでは、例示430は、表示面上方にある推測された手412を例示的に示す。推測された手の人差し指および親指は伸ばされ表示面に物理的に接触しており、したがってタッチ連結コンポーネント414に対応し、一方、残りの指および手は、表示面にタッチしておらず、したがってホバー連結コンポーネント416に対応する。
図5A〜5Cは、2つの可能な手の位置および方向性を、単に1組の連結コンポーネントに基づいて、どのように、インタラクティブディスプレイテーブルによって推測することができるのかを例示的に示す。図5Aの例示500が示すように、検知された入力イメージは、2つのタッチ連結コンポーネント504、および1つのホバー連結コンポーネント502を含む。図5Bおよび5Cの例示510および520では、1つの手について2つの異なる位置および方向性が、同じ1組の連結コンポーネントに基づいてそれぞれ推測されている。図5Bでは、左手506aが、イメージの左側から差し出されていると推測されている。図5Cでは、右手506bが、イメージの左側から差し出されていると推測されている。(図5Bおよび5Cにおいて手の背後に示されているホバーおよびタッチ連結コンポーネントは、説明のために過ぎず、上方から表示面上に見ることができないことは理解されよう。)各事例では、前記の指および親指の指先は、タッチ連結コンポーネント504と一致し、手および手首は、ホバー連結コンポーネント502とおおまかに一致する。一般に、人差し指以外の他の指が、ディスプレイスクリーンにタッチするために用いられる可能性があるが、図5Aにおける検知された入力イメージを所与とすると他の手の位置および方向性は不可能である。(図5Bおよび5Cにおいて手の背後に示されているホバーおよびタッチ連結コンポーネントは、説明のために過ぎず、上方から表示面上に見ることができないことは理解されよう。)
図6A〜6Fは、ユーザの手が表示面を横切って移動するのに伴い、方向性に関する曖昧さがどのように減じられるのかを例示的に示す。図6A、6C、および6Dでは、例示600、610、および620はそれぞれ、検知された入力イメージ606a、606b、および606cの、ホバー連結コンポーネント602a、602b、および602c、ならびにタッチ連結コンポーネント604a、604b、および604cを示す。ユーザの手が、表示面を横切り移動するのに伴い、ホバー連結コンポーネントが、ユーザの腕の軸方向に伸長する傾向にあり、ユーザの手の方向性の曖昧さが減少する。したがって、図6B、6D、および6Fのそれぞれについて、インタラクティブディスプレイテーブルは、例示600’、610’、および620’にそれぞれ示すように、表示面上でホバーしている手およびタッチしている指を推測する。(例示600’、610’、および620’において、手の背後に見えるホバーおよびタッチ連結コンポーネントは、やはり、説明のために過ぎず、表示面の上方から実際には見ることができない。)
図7Aおよび7Bは、特定のジェスチャを検出するのに役立つ、インタラクティブディスプレイテーブルによる手の姿勢の推測を、例示的に示す。ユーザは、所定の手の姿勢を使用することにより、手の位置および方向性を直接指し示すことができる。図7Aの例示700では、検知された入力イメージ702は、ホバー連結コンポーネント704およびタッチ連結コンポーネント706を含む。ホバー連結コンポーネント704は、表示面上方のユーザの人差し指および親指の一部分、ならび手の残りの部分を含む。図7Bの例示710は、特定のポーズの手708のインタラクティブディスプレイテーブルによる推測を示し、この推測は、入力イメージのホバー連結704の複数の異なる長さから決定されている。
インタラクティブディスプレイテーブルは、バーチャルオブジェクトのサイズ変更またはオブジェクトのセットの選択など一般的な対話のために、表示面の上方にまたはそれに接触して配置された複数の手を推測することができる。図8Aおよび図8は、表示面の領域を選択するために用いられている複数の手を、インタラクティブディスプレイテーブルがどのように推測するかを例示的に示す。図8Aの例示800では、検知された入力イメージ802は、ホバー連結コンポーネント804aおよび804b、ならびにタッチ連結コンポーネント806を含む。図8Bの例示810は、入力イメージの連結コンポーネントから決定された、インタラクティブディスプレイテーブルによる、2つの手808aおよび808bの推測を示す。インタラクティブディスプレイテーブルによって検出された手808aおよび808bの関係に基づいて、それぞれの手の親指および人差し指によって作られたタッチ連結コンポーネントの位置に対応する角を有する、バウンディングボックス(bounding box)812が、表示面に描かれる。ユーザが手808aおよび808bのいずれかまたは両方を動かすことによってボックス812のサイズを変更することができることは明らかであろう。バウンディングボックスが、表示面に表示されているイメージまたはバーチャルオブジェクトを表現している場合、ユーザは、単に上述のようにいずれかの手または両手を動かすことによって、容易にこのイメージまたはバーチャルオブジェクトをサイズ変更することができる。ユーザの手に掴まれたオブジェクトも、このようなジェスチャを行うために利用することができる。
ジェスチャによるアプリケーションの起動
インタラクティブディスプレイテーブルは、ジェスチャのライブラリ内の各ジェスチャを、別のアプリケーションに関連付けて、そのアプリケーションの起動および実行を支援することができる。図9Aおよび9Bは、アプリケーションに関連付けられたジェスチャが検出され、それに応答して、アプリケーションが上述のように実行される様子を例示的に示す。図9Aに示す例示900では、(想像線で表す)指904aが、ジェスチャ902の開始点に示され、このジェスチャは文字「S」のような形をとっている。また、指904bは、ジェスチャの終点に示されており、ジェスチャ902によって表されるように、表示面を横切って移動をちょうど完了している。インタラクティブディスプレイテーブルは、ジェスチャ902に応答して、テーブル(または他の適切なメモリパラダイム(paradigm))内のジェチャを参照し、ジェスチャ902が、ジェスチャのライブラリ内に格納されている特定のアプリケーションに関連付けられていることを決定する。図9Bに示す例示910では、インタラクティブディスプレイテーブルは、あらかじめジェスチャに関連付けられているソリティア(Solitaire)アプリケーション906を実行している。明らかに、文字「W」のような形をとるジェスチャは、マイクロソフト社のWord(商標)ワードプロセッシングプログラムと関連付けすることができ、これにより、ユーザは、Wの形状のジェスチャを行うことによって容易にワードプロセッシングプログラムを起動することができる。文字以外の形をとるジェスチャを様々な異なるアプリケーションに関連付けることができるため、ジェスチャは、文字の形状に限られず、表示面上またはその近傍で行われる該当するジェスチャに応答して、表示面での特定のアプリケーションの起動または実行がもたらされる。
図面に提供されている例のほとんどは、ユーザの手および/または指によって行われるジェスチャに関するが、本発明はユーザの体のアペンデージで行われるジェスチャのみを検出することに限定されないことは認識されよう。それどころか、ユーザは、オブジェクトを手でつかむことができ、それを用いてインタラクティブディスプレイテーブル上でジェスチャを行うことができ、これらのジェスチャは検出され反応がもたらされる。例えば、図9Cに示すように、クレヨンの形のパーソナルトークン(personal token)922は、ユーザの手924に握られてインタラクティブディスプレイテーブルに接触して配置される。次いで、ユーザは、(指の代わりに)パーソナルトークンを用いて「S」字を描くことによって、ソリティアゲームを起動する。ユーザの指ではなくパーソナルトークンを用いて行うジェスチャによってアプリケーションを起動する1つの利点は、インタラクティブディスプレイテーブルが、アプリケーションで使用するユーザのプリファレンス(preference)(カードグラフィック、ルールなど)を自動的にロードできることである。例えば、パーソナルトークンは、それにより行われたジェスチャに応答して起動されるアプリケーションについてのプレファレンスを含めたユーザプロファイルにあらかじめ関連付けられているエンコードされた赤外線反射パターンを有するタグを、パーソナルトークンの表面に設けている。
ジェスチャの認識は、パーソナライゼーション(personalization)にも用いることができる。インタラクティブディスプレイテーブルが汎用シェル状態にある場合、ユーザは、テーブル上で独自のジェスチャを行って、ユーザの個別設定されたシェルを出現させることができる。より複雑なジェスチャは、アプリケーションを実行可能にするためにまたは特定の個人データにアクセス可能にするために入力する必要があるパスワードと非常に似ている役割をすることによって、個人マネー管理ソフトウェア(personal money management software)などのアプリケーションに対するアクセスを制限するために用いることができる。
ジェスチャによるバーチャルオブジェクトの作成
インタラクティブディスプレイテーブルは、ジェスチャのライブラリをバーチャルオブジェクトに関連付けることができ、これにより、特定のバーチャルオブジェクトを、検出された対応するジェスチャに応答して、表示面に提示することができるようになる。図10Aおよび10Bは、対応するジェスチャに応答してバーチャルオブジェクトにアクセスすることおよびそれを提示することを例示的に示す。図10Aの例示1000では、(ジェスチャの第2の部分の1004bの終点でもある)ジェスチャの第1の部分1004aの開始点での指1002aを示す。想像線で表す指1002bは、このジェスチャの中間位置、すなわちジェスチャの第1の部分1004aの終点(かつジェスチャの第2の部分1004bの開始点)に示されている。この例ではバナナの形をおおまかにしているジェスチャを検知すると、インタラクティブディスプレイテーブルは、ジェスチャのライブラリに格納されているあるバーチャルオブジェクトにそのジェスチャが関連付けられていると決定する。図10Bでは、例示1010は、インタラクティブディスプレイテーブルが、前記のジェスチャに関連付けられているバナナのイメージのバーチャルオブジェクト1006を提示している様子を示す。
図示しないが、(指の代わりに)緑のゲームピース(game piece)を使用してバナナの形を描くと、緑のバナナを作成することができ、赤のゲームピースを使用すると赤のバナナを作成することができる。したがって、この方法は、インタラクティブディスプレイテーブルを使用してプレーヤを見分けるために用いることができる。図2に示す好ましい実施形態の赤外線ビデオカメラは色を検知しないため、ゲームピースは、各ピースの色とあらかじめ関連付けられたタグを有することにより、ゲームピースを用いてジェスチャを行ったユーザを識別するために使用可能になり、さらに、ゲームピースの色に対応するバーチャルオブジェクトが、インタラクティブディスプレイテーブルに表示されるようになる。インタラクティブディスプレイテーブル内に含まれる視覚検知システムは、インタラクティブ表示面付近のオブジェクトによって反射される光の色に応答することができるフルカラー検知カメラを含み得ることも企図される。
バーチャルオブジェクトが表示面64aに提示されるとき、ジェスチャの属性を考慮に入れることもできる。例えば、例示1000でより大きいジェスチャを行うことにより、表示面により大きなバナナのイメージを提示させることができる。さらに別の例では、波の形(すなわち一連の連結された波形)を描くことが、外見が水の塊を表すバーチャルイメージまたはオブジェクトと関連付けられた場合、水の塊のサイズは、ジェスチャに含まれる波(スカロップ(scallop))の数により推測することができ、あるいは、バーチャルイメージの水の塊に提示される波の高さは、表示面上でユーザにより行われたジェスチャからなる波の深さにより推測することができる。
ジェスチャによるビデオ再生の制御
図11A〜11Fは、インタラクティブディスプレイテーブルで実行されるビデオ再生アプリケーションのコンテキストにおいて、ビデオ再生を制御するためにジェスチャをどのように利用するかを例示的に示す。図11A、図11B、図11C、図11D、図11E、および図11Fにそれぞれ示す例示1100、1110、1120、1130、1140、および1150は、表示面64aに表示されるビデオイメージ(すなわち、動く棒線画1106)を示している。表示面の下に配置される赤外線ビデオカメラによって作成されたイメージにおいて検知されるタッチ連結コンポーネントに基づいて、インタラクティブディスプレイテーブルは、指1102およびハンド1104を推測し、表示面に提示されるビデオ再生を制御するためにユーザが移動する手および指によって行われる、様々なジェスチャを検出する。
図11Aの例示1100では、インタラクティブディスプレイテーブルが、手1104bに結合する指1102aを、その指先が表示面にタッチしているとき検知し、ビデオが現在再生されている場合、表示面64a上のビデオ再生を一時停止するコマンドとしてジェスチャを認識し、代わりに、ビデオが既に一時停止されている場合、ビデオを再生するコマンドとしてジェスチャを認識することが示されている。再生または一時停止のための表示面に対するタッチは、表示面上の任意の位置に行うことができる。
図11Bの例示1110では、インタラクティブディスプレイテーブルが、表示面上で左に向かってスライドする指先および手を検知し、このスライドするジェスチャを、ビデオを巻き戻すためのコマンドとして認識することが示されている。図11Cの例示1120では、インタラクティブディスプレイテーブルは、表示面上で指および手が左に向かってさらにスライドするときに検知を行い、このスライドするジェスチャを、ビデオをさらに高速で巻き戻すためのコマンドとして認識する。したがって、インタラクティブディスプレイテーブルは、指および手がタッチしたポイントから左または右に移動した距離を、速度変数を制御するこのジェスチャの態様として認識し、それに応じて応答を行う。
図11Dの例示1130では、インタラクティブディスプレイテーブルが、指および手が表示面上で右に向かってスライドするときに検知を行い、スライドするジェスチャを、ビデオを早送りするためのコマンドとして認識する。図示していないが、インタラクティブディスプレイテーブルはまた、右に向かってさらにスライドするジェスチャを、ビデオの早送りの速度を増大するためのコマンドとして認識する。
図11Eの例示1140では、インタラクティブディスプレイテーブルは、指および手がインタラクティブディスプレイテーブルの上端に向かってすなわちユーザから遠くへスライドするとき検知を行い、このジェスチャを、ビデオにおいてズームインするためのコマンドとして認識することが示されている。ただし、インタラクティブディスプレイテーブルの上端に向かって指をスライドさせることは、ビデオの音量を上げることなど他の機能として定義することもできることを理解されよう。さらに、図示していないが、適用されるズーム量は、このジェスチャの上端方向への長さの程度に基づくことができる。
図11Fの例示1150では、ユーザの指および手が、インタラクティブディスプレイテーブルの下端に向かってすなわちユーザに向かってスライドするとき検知を行い、このジェスチャを、ビデオ内においてズームアウトするためのコマンドとして認識する。さらにインタラクティブディスプレイテーブルの下端に向かって指をスライドすることは、例えばビデオ音量を下げるなど他の機能として定義することができる。手および指の下端への動きの程度により、通常、行われる変更の程度が制御される。
ジェスチャの認識のプロセス
ジェスチャは、例えばユーザが指先で表示面をタッチする場所に対応する、インタラクティブディスプレイテーブル上の単一点を含むことも、あるいは、より複雑な、例えば表示面に接触しているそれぞれの手の1本または複数の指を含むタッチオブジェクトおよびホバーオブジェクトのセットを含むこともできる。さらに、ジェスチャは、しばしば、表示面に接触している1本または複数の指の上方のまたはそれらを伴う片手または両手の動きを含む。これに応じて、インタラクティブディスプレイテーブルは、赤外線ビデオカメラによって作成されたイメージにおいて、検出されたどのオブジェクトが表示面上のユーザの指(ならびに表示面上方の手)と対応するかを(対応するオブジェクトがある場合)決定するアルゴリズムを実行し、このとき、指/手のたどる経路が格納されている経路と一致する場合、移動する指/手の出現が見込まれる。インタラクティブディスプレイテーブルで実行されるアルゴリズムは、手のポーズが格納されたポーズと一致するかどうか、または、手のポーズと移動の経路の組み合わせが格納されているポーズ/経路と一致するかどうかをも決定する。
図12は、ジェスチャ認識を取り扱うために実装される論理ステップを例示的に示す。フローチャート1200に示すように、ステップ1202では、ジェスチャ入力を提供するために、イメージ処理モジュール(IPM)が、テーブル上で各連結コンポーネントについて入力イメージをフィルタリングし解析して、それが表示面に対してタッチしている指/手であるか、それともホバーしている指/手であるかを決定する。このステップでは、赤外線ビデオカメラによって作成されるイメージのいくつかのフレームにわたって急速に出現し消滅し得るオブジェクトであるディストラクタ(distracter)オブジェクトが除去される。このアルゴリズムは、所定の閾値を超える強度を有しグループとなっている連結コンポーネントの数、任意のタッチまたはホバー連結コンポーネントから他の各連結コンポーネントが離れている距離、および、連結コンポーネントの時間経過に対する安定性に応じて、イメージにおいて識別された所与の連結コンポーネントが、接触点を表すのかそれともホバーオブジェクトを表すのかを決定する。アルゴリズムは、その振舞いにおいて、例えば、ディストラクタ連結コンポーネントが所与のタッチ連結コンポーネントの近傍にない場合、それは指先の接触点であり得ると比較的迅速に判定し、一方、タッチ連結コンポーネントの周辺でいくつかの出現しまた消滅するディストラクタがある場合は、タッチ連結コンポーネントが指の接触点として安定している(したがって有効である)と判定するまで、何フレームかの遅れがある。この技法では、頑強性と応答性の間の充分なトレードオフが与えられる。
プロセスはステップ1204に進み、オブジェクト予測モジュールが、動きを含むジェスチャを検出するために、ユーザの指/手などの移動するオブジェクトの次の位置を予測する。オブジェクト予測モジュールは、オブジェクトが消滅する前に収集したオブジェクトの最後のいくつかの観測を検討する運動モデルにより、予測される位置での可能なオブジェクトの再出現を探索する。例えば、線形運動モデルを利用すると、予測される位置は、オブジェクトが消滅する前の速度、およびオブジェクトが消滅して以来の時間の関数となる。オブジェクトの対応する運動の追跡および検出を行う場合にオブジェクト予測モジュールを使用する目的は、ジェスチャを識別するときにオブジェクトの経路を正確に再構成するのを可能にすることである。線形予測法を利用して、この目的を達成するのを支援することができる。
動きを含むジェスチャは、ユーザの指先が経路に沿って表示面を横切り移動するときのユーザの指先に対応する単一の接触点の位置に関する時系列としてモデル化される。プロセスは、任意選択のステップ1208に進み、このステップでは、経路認識モジュールが、上記のオブジェクトフィルタリング、および持続ステップにより有効な接触点として決定された各オブジェクトの移動履歴を照合して、移動履歴が経路と一致するかどうかを決定する。オブジェクトの移動が運動モデルと充分に一致し、したがってジェスチャが識別される場合、ジェスチャ認識プロセスは、ユーザが表示面上で識別されたジェスチャを行ったことを、インタラクティブディスプレイテーブル上で実行されているアプリケーションに通知し、アプリケーションは適切に応答することができる。いくつかのジェスチャモデルを同時に考慮に入れることもできる。各ジェスチャモデルは、プロトタイプ経路を含み、プロトタイプ経路は、このような経路の記録、保存、および表示を可能にするジェスチャ記録アプリケーションによって設計時に収集される。続いて、別のアプリケーションが、このようなジェスチャモデルの読込みを要求し、それによりジェスチャの検出が可能になり、したがって、このアプリケーションは、所定の方法でジェスチャに応答することができるようになる。ある1組のジェスチャの認識を必要とするアプリケーションは、検知システムに複数のジェスチャモデルおよび対応するジェスチャのライブラリを読み込むように要求することができ、ジェスチャが検出された場合、それぞれについて通知を受けることができる。
プロセスは、任意選択のステップ1208に進み、手の静的形状またはポーズがジェスチャと見なされる。例えば、ユーザは、テーブル上で様々な形状で手の形をとることによって、様々な記号または数量を伝達する、あるいは、認識されたポーズまたは静的ジェスチャに対応する任意の所定の機能または動作を実行することができる。ユーザがこのような静的ジェスチャを行うときに検出に関与するアプリケーションは、オブジェクトの形状を認識するために、インタラクティブディスプレイテーブル用に開発された所定のテンプレートと併せて一般化されたビットマップ認識システムを使用することができ、2004年3月31日に出願され、参照によりその明細および図面を明確に本明細書に援用する、本発明の譲受人に譲渡される同時係属出願である、「Template Matching on Interactive Surface」という名称の米国特許仮出願第号10/813855明細書に詳細に記載されている。
プロセスは、任意選択のステップ1210に進み、(手が移動している場合)経路と手のポーズの両方が認識される。「ジェスチャ」のより一般化された定義は、テーブル上の手の経路と、その経路に沿って手が移動するのに従って変化するポーズの両方を含む。このようなタイプの動きの例は、手を平らにして特定の方向に差し伸べるポーズで、ユーザから離れて弧を描く経路に沿って「掃く(sweeping)」ジェスチャである。一般化されたイメージ認識プロセスから返されたマッチスコアと経路認識プロセスから返されたマッチスコアを組み合わせることによって、ポーズ認識プロセスを経路認識プロセスと組み合わせることができる。他方に対しポーズまたは経路を強調するために、マッチスコアは、線形結合の際に異なる重みを付けることができる。最も単純な事例としては、ジェスチャの長さ全体を通して1つだけのポーズモデルがある事例が考えられる。
より複雑なジェスチャは、時間に対し、あるいは経路に沿った移動の間に変化するポーズを含むことができる。このような場合、各時点で有効なポーズ、および経時的に変化するポーズマッチスコアを考慮に入れたジェスチャモデルが適用される。一般化されたイメージ認識システムは、組み合わさってジェスチャを形成する複数のポーズを認識することができる。合計マッチスコアの計算は、経路マッチングアルゴリズムと同様のマッチングアルゴリズムを用いて達成することができる。より複雑なジェスチャを検出するために、位置座標に加えて、各時点のポーズに関する情報を有する経路の各点を決定することができる。プロトタイプで与えられた点と入力における対応する点の間のマッチを計算するとき、一方または他方をより強調するために、2つの点に異なる重み付けをすることが望ましいことがある。
ジェスチャの定義と関連付けのためのプロセス
認識を容易にするために、ジェスチャは、あらかじめ定義され、好ましくは、アプリケーション、あるいはアプリケーションにおける機能、動作、および/またはオブジェクトに関連付けられる。図13は、このようにジェスチャを定義し関連付けるためのステップを例示的に示すフローチャート1300を含む。ステップ1302に示すように、アプリケーション開発者は、ジェスチャの定義を行い、アプリケーションのある態様と(またはアプリケーションの起動と)関連付ける。ステップ1304では、静的ポーズ、変化するポーズ、ならびに経路を含むジェスチャが、後ほどインタラクティブディスプレイテーブルのユーザによって行われたジェスチャと比較するために、ジェスチャデータベース(またはライブラリ)に入力される。
任意選択のステップ1306では、ジェスチャは、アプリケーションの起動を容易にするためにアプリケーションと関連付けられるか、または、続いてユーザによってジェスチャが行われそれが認識されたとき実行されるアプリケーション内の機能に関連付けられる。あるいは、任意選択のステップ1308で、続いてユーザによってジェスチャが行われそれが認識されたときにバーチャルオブジェクトが表示面に提示される(または、ある態様が実施される)ように、ジェスチャは、アプリケーションにおけるバーチャルオブジェクト(または他の何らかの態様)と関連付けられる。
アプリケーションを起動するためのプロセス
図14は、ジェスチャに応答してアプリケーションを起動するためのプロセスの論理ステップを例示的に示すフローチャート1400を示す。ステップ1402で、ジェスチャレコグナイザ(recognizer)を実行する。ステップ1404で、ユーザは、指を用いて表示面でジェスチャを行う(または描く)(図9A参照)。判断ステップ1406で、ジェスチャレコグナイザは、ジェスチャが、ジェスチャデータベースに格納されているものと一致するかどうかを決定する。一致する場合、プロセスは、ステップ1408に進み、そのジェスチャに関連付けられたアプリケーションが起動し、一致しない場合は、ステップ1410に示すようにそのジェスチャは無視される。
バーチャルオブジェクトを描画するためのプロセス
図15は、ジェスチャによってアプリケーションに関連付けられたバーチャルオブジェクトを描画するためのプロセスを例示的に示す。フローチャート1500では、ステップ1502でアプリケーションおよびジェスチャレコグナイザが実行される。ステップ1504で、ユーザは、インタラクティブディスプレイテーブル上でジェスチャを描く(図10参照)。判断ステップ1506で、ジェスチャレコグナイザは、そのジェスチャがジェスチャデータベースに格納されているジェスチャと一致するかどうかを決定する。ジェスチャのマッチングは、ジェスチャが行われたときの表示面上でのジェスチャの位置、ならびに、ジェスチャのサイズ、速度、方向性、書き順、および向きを含めて多数のファクタに依存させることができることに留意されたい。ジェスチャがジェスチャデータベース内に格納されているジェスチャと一致した場合、プロセスは、ステップ1508に進み、アプリケーションに関連付けられたバーチャルオブジェクトは、インタラクティブディスプレイテーブルに表示され、一致しない場合、ステップ1510に示されるように無視される。
ビデオ再生の制御のためのプロセス
図16は、ビデオ再生を制御するためのステップを含むフローチャート1600を例示的に示す。(図11A〜11Fを参照されたい。)ステップ1602で、入力ジェスチャを検知する。ステップ1604で、モジュールが、インタラクティブディスプレイテーブルによって現在実行されているアプリケーションのコンテキストを決定する。現在実行されているアプリケーションのタイプ(この場合はビデオ再生)を決定することにより、そのアプリケーションに適用可能な適切なジェスチャのセットがロードされアクセスされることが保証され、それによって、ユーザが行うジェスチャに応答して実行するための正しい機能が決定される。ユーザがジェスチャを行っている時点に異なるアプリケーションが実行されている場合、同じジェスチャが異なる機能を実施するために用いられることがあり得る。また、実行されているアプリケーションの状態が、実施されている機能に対して影響を与えることもできる。例えば、ビデオを再生するアプリケーションでは、ユーザが同じジェスチャを用いて再生と一時停止を切り替える。
ステップ1606で、ロジックは、表示面64aに関係するユーザの指/手の任意の動きおよび向きを決定する。ステップ1608で、ロジックは、ジェスチャを、実行しているアプリケーションに関するジェスチャのコンテキストデータベースまたはライブラリと照合する。判断ステップ1610で、ジェスチャが任意の動きを含むかどうかを決定する。含んでいない場合、プロセスは、ステップ1612に進み、アプリケーションが、対応する機能を実行する。例えば、ビデオ再生オプションでは、ユーザが、表示面の任意の場所を指でタッチするのに応答して、機能がビデオの再生と一時停止の間で切り替わる。
ジェスチャが、1つまたは複数の指/手の動きを含む場合、プロセスは、判断ステップ1614に進み、動きが左または右向きであるかどうかを決定する。動きが左または右向きである場合、プロセスは、ステップ1616に進み、ロジックが位置の変化率を決定する。ステップ1618に示すように、指/手の移動の程度により、対応する機能が実行される程度が決定される。ビデオ再生アプリケーションでは、ジェスチャの移動の程度により決定される速度で巻戻し/早送りを実施することによって機能がこのジェスチャに応答する。ジェスチャの際の左または右向きの移動に応答するいくつかの機能については、位置の変化率を考慮する必要がないことを認識されたい。
動きが左または右向きでなく代わりに上または下向きなど他の向きである場合、プロセスは、ステップ1620に進み、ロジックは、ズームイン、ズームアウト、または音量レベルの変更などのジェスチャで検出される動きの向きに対応する、他のあらかじめ定義された機能を実行する。機能を適用する程度は、やはりジェスチャの際の移動の程度により決定することができる場合も、あるいは、機能が、ジェスチャにおいて検出される移動の程度に応じて可変のタイプではない場合もある。
ビデオ再生を制御する際に使用するジェスチャに応答して実行される機能は、スクロールするまたは変化する速度または程度の制御が望まれる他のアプリケーション、例えば、アニメーション、オーディオ、ウェブブラウザなどのアプリケーションにも適用することができる。また、アプリケーション、あるいはアプリケーションのオブジェクトまたは動作を制御する際に使用される機能と関連付けられたジェスチャは、表示面上での指/手の左/右または上/下への移動または点接触に明確に限定されるものではない。単純ないし複雑なポーズおよび動きを伴う他の多数のジェスチャを、この目的のために用いることができる。使用できるすべての可能なジェスチャを定義することではなく、単にジェスチャを用いるいくつかの分かりやすい例を与えることを目的としている。ユーザの腕または他のアペンデージによってもジェスチャを行うことができ、ジェスチャは指/腕のみに限定されない。ジェスチャは、ホバー連結コンポーネントだけに限定することもでき、したがって、ユーザは、ジェスチャを行うために表示面にタッチする必要なく、単に表示面の上方および近傍で手または腕を動かしてジェスチャを行うことができる。
図4A〜7Bを検討することにより、本発明の他のいくつかの特徴が明らかになる。特に、図6A、6C、および6Eは、インタラクティブディスプレイテーブル周辺の特定の側面または位置にある表示面上を移動するユーザの腕、手、および指に対応するホバーコンポーネントおよびタッチコンポーネントから反射された赤外光に応答して作成されたビデオカメラからの信号を処理することによって連結コンポーネントのセットとして決定された連結コンポーネントにおける変化を示す。これらの図に示した例では、ユーザは表示面の左側に位置し、左腕で表示面上に手を伸ばし、親指と人差し指を表示面に接触して滑らせている。インタラクティブディスプレイテーブルは、図6A、6C、および6Eに示すタッチ連結コンポーネント604a、604b、および604cが、特定のユーザの手に属する指に対応することを、連結コンポーネントの時間パターン、ならびに連結コンポーネントの方向性に基づいて容易に推論することができることは明らかであろう。本明細書および添付の特許請求の範囲では、用語「時間パターン(temporal pattern)」は、オブジェクトが表示面に対して移動するとき、経時的にホバーオブジェクトおよび/またはタッチオブジェクトに対応する連結コンポーネントについての連続的変化を指すものとする。したがって、時間パターンは、表示面あたりにあるオブジェクトの移動が開始する位置に相対する、連結コンポーネントおよび対応するオブジェクトの移動の標識を提供する。時間パターンは、オブジェクトがユーザのアペンデージ(腕、手、および/または指)の場合、ジェスチャを行うユーザの位置したがって身元を決定するために使用することができるので非常に役に立つ。同様に、インタラクティブディスプレイテーブルの他の各ユーザについて、同じロジックを適用することにより、ユーザのアペンデージ(すなわち、ユーザの腕、手、および/または指)に対応する連結コンポーネントの時間パターンおよび方向性の解析に基づいて、ある特定のユーザが手および/または指を用いてジェスチャを行っているときを決定することができる。インタラクティブディスプレイテーブルはまた、表示面周辺の特定の各ユーザの位置を指し示すデータを有することが見込まれ、したがって、ユーザのアペンデージに対応する連結要素の方向性および時間パターンを解析することにより、ジェスチャを行うユーザを容易に識別することができるようになる。
また、インタラクティブディスプレイテーブルによって実行されているアプリケーションに関する特有の詳細は、アプリケーションの現在の既知の状態に対し該当のジェスチャが行われる確率に基づいて、ユーザによって行われたジェスチャを識別することと、ジェスチャを行うユーザの身元を識別することの両方に役立ち有用である。例えば、インタラクティブディスプレイテーブルに入力を提供する持ち回りのユーザによってある特定のジェスチャが行われている可能性が高く、提供されている期待された入力の尤度に基づいて、ジェスチャを容易に認識することができる。
本発明は、それを実施するために好ましい形態に関連して記載されているが、添付の特許請求の範囲の範囲において本発明に対して多数の他の変更形態を加えることができることは当業者には理解されよう。したがって、本発明の範囲は、以上の説明によって多少なりとも限定されるものではなく、添付の特許請求の範囲を参照することによりその全体が決定される。排他的独占権が請求する本発明は、添付の特許請求の範囲によって規定される。
本発明による、インタラクティブディスプレイテーブルに関連するイメージ処理に適切である一般的な従来のコンピューティングデバイスまたはパーソナルコンピュータ(PC)を示す機能ブロック図である。 インタラクティブディスプレイテーブルの内部、インタラクティブディスプレイテーブル内の光がたどる経路、およびインタラクティブディスプレイテーブルの表示面またはその上方に配置される例示的オブジェクトを示す断面立面図である。 外部のPCに結合されるインタラクティブディスプレイテーブルの実施形態を示す等角図である。 ジェスチャに応答してインタラクティブディスプレイテーブルによって検出される連結コンポーネントを示す図である。 ユーザの人差し指が表示面近傍に接近している場合のジェスチャを示す図である。 ジェスチャに応答してインタラクティブディスプレイテーブルによって検出される連結コンポーネントを示す図である。 ユーザの人差し指と親指が表示面近傍に接近している場合のジェスチャを示す図である。 ジェスチャに応答してインタラクティブディスプレイテーブルによって検出される連結コンポーネントを示す図である。 図5Aの連結コンポーネントに対応する、ユーザの手によってある方向で行われたジェスチャを示す図である。 図5Aの連結コンポーネントに対応する、ユーザの手によって異なる方向で行われたジェスチャを示す図である。 表示面近傍に接近したユーザの伸ばした人差し指と親指の一連の位置の第1の位置に応答して、インタラクティブディスプレイテーブルによって検知された連結コンポーネントを示す図である。 図6Aに対応する、表示面の上を横切るようなジェスチャで移動する手を示す図である。 表示面近傍に接近したユーザの伸ばした人差し指と親指の一連の位置の第2の位置に応答して、インタラクティブディスプレイテーブルによって検知された連結コンポーネントを示す図である。 図6Cに対応する、表示面の上を横切るようなジェスチャで移動する手を示す図である。 表示面近傍に接近したユーザの伸ばした人差し指と親指の一連の位置の第3の位置に応答して、インタラクティブディスプレイテーブルによって検知された連結コンポーネントを示す図である。 図6Eに対応する、表示面の上を横切るようなジェスチャで移動する手を示す図である。 インタラクティブディスプレイテーブルにより検出された、図7Bに示す推測される手の「ポーズ」に対応する連結コンポーネントを示す図である。 図7Aに対応して推測される手の「ポーズ」を示す図である。 インタラクティブディスプレイテーブルによって検出された連結コンポーネントを示す図である。 ユーザの手、人差し指、および親指の推測される「ポーズ」、ならびに手のポーズの意味を示す図である。 ジェスチャ、および、ジェスチャを検出しているインタラクティブディスプレイテーブルで実行されるアプリケーションを示す図である。 ジェスチャ、および、ジェスチャを検出しているインタラクティブディスプレイテーブルで実行されるアプリケーションを示す図である。 ユーザによって握られたオブジェクトを用いて、インタラクティブディスプレイテーブルにもバーチャルオブジェクトを表示させることができる方法を示す図である。 ジェスチャを示す図である。 図10Aに示すジェスチャを検出しているインタラクティブディスプレイテーブル上で表示されるバーチャルオブジェクトを示す図である。 ビデオ再生を制御するために用いられるジェスチャを示す図である。 ビデオ再生を制御するために用いられるジェスチャを示す図である。 ビデオ再生を制御するために用いられるジェスチャを示す図である。 ビデオ再生を制御するために用いられるジェスチャを示す図である。 ビデオ再生を制御するために用いられるジェスチャを示す図である。 ビデオ再生を制御するために用いられるジェスチャを示す図である。 ジェチャの検出および認識のためのプロセスを示すフローチャートである。 ジェスチャを、アプリケーション、機能、またはアプリケーションにおけるオブジェクトに関連付けるためのプロセスを示すフローチャートである。 アプリケーションに関連付けられたジェスチャを行うことによって、アプリケーションを起動するためのプロセスを示すフローチャートである。 ジェスチャに応答してバーチャルオブジェクトを表示するためのプロセスを示すフローチャートである。 ジェスチャに応答してビデオ再生を制御するためのプロセスを示すフローチャートである。
符号の説明
20 PC
40 キーボード
47 オプションモニタ
60、60’ インタラクティブディスプレイテーブル
61 パワーリード
62 フレーム
63 データケーブル
64 インタラクティブディスプレイテーブルの上面
64a インタラクティブディスプレイテーブルの表示面
64b テーブルの半透明層
66 赤外光源
68 デジタルビデオカメラ
70 ビデオプロジェクタ
72a、72b ミラーアセンブリ
74a、74b アライメントデバイス
74c 回転可能調整ナット
76a、76b オブジェクト
79 バッフル
90a 透明開口部

Claims (46)

  1. イメージが表示されるインタラクティブディスプレイシステムに関連してジェスチャを使用するための方法であって、前記インタラクティブディスプレイシステム上またはその近傍に配置されるオブジェクトは光学的に検出可能であり、前記方法は、
    (a)前記インタラクティブディスプレイシステムの表示面の上方に配置されるオブジェクトから反射される光によってイメージを形成し、このように反射された前記光は、前記表示面を通過した後に検出されるステップと、
    (b)前記イメージを処理して、前記オブジェクトを使用してユーザによって行われたジェスチャを認識し、
    (i)検出された前記イメージ内の前記オブジェクトに対応する形状を識別すること、および、
    (ii)前記イメージ内で、所定の閾値を超える強度を有する隣接する複数のピクセルを含む少なくとも1つの連結コンポーネントを検出することのうち一方に応答して、前記ジェスチャが認識されるステップと、
    (c)認識された前記ジェスチャに応じて、前記ジェスチャにあらかじめ関連付けられた応答を自動的に作成し、前記応答は前記インタラクティブディスプレイシステムの状態を変更するステップとを備えることを特徴とする方法。
  2. 前記オブジェクトは、ユーザの体のアペンデージの少なくとも一部分を含むことを特徴とする請求項1に記載の方法。
  3. 前記形状を識別するステップは、前記形状を所定のテンプレートと比較するステップを含むことを特徴とする請求項1に記載の方法。
  4. 前記オブジェクトは、ユーザが前記ユーザの手に前記オブジェクトを握ることによって操作されることを特徴とする請求項1に記載の方法。
  5. 前記ジェスチャは、おおまかに定義された経路に沿った前記オブジェクトの動きを含むことを特徴とする請求項1に記載の方法。
  6. 前記ジェスチャは、前記表示面付近の前記アペンデージの前記少なくとも一部分のポーズを含むことを特徴とする請求項2に記載の方法。
  7. 前記少なくとも1つの連結コンポーネントは、前記オブジェクトによる前記表示面への接触に対応する少なくとも1つのタッチ連結コンポーネントを含むことを特徴とする請求項1に記載の方法。
  8. 前記少なくとも1つの連結コンポーネントは、前記ユーザの指および手のうち少なくとも1つに対応することを特徴とする請求項2に記載の方法。
  9. 自動的に作成される前記応答は、前記ジェスチャに関連付けられたソフトウェアアプリケーションを前記インタラクティブディスプレイシステム上で実行するステップを含むことを特徴とする請求項1に記載の方法。
  10. 前記ジェスチャは、前記ソフトウェアアプリケーションに関係するアルファベット文字を定義することを特徴とする請求項9に記載の方法。
  11. 自動的に作成される前記応答は、前記インタラクティブディスプレイシステムによって実行されているアプリケーションにおいて、ある機能を実行するステップを含むことを特徴とする請求項1に記載の方法。
  12. 前記応答は、前記機能が実行されたとき、前記機能に関係する変数が変更される程度を指し示すために、ユーザが前記オブジェクトを動かすことを可能にするステップをさらに含むことを特徴とする請求項11に記載の方法。
  13. 自動的に作成される前記応答は、前記インタラクティブディスプレイシステムの前記表示面上での前記ジェスチャによって定義される領域を選択するステップを含むことを特徴とする請求項1に記載の方法。
  14. 自動的に作成される前記応答は、前記表示面上に提示されるイメージおよびバーチャルオブジェクトのうち1つを選択するステップを含むことを特徴とする請求項1に記載の方法。
  15. 前記応答は、前記オブジェクトを前記表示面上で動かすことによって、ユーザが前記イメージおよび前記バーチャルオブジェクトのうち1つをサイズ変更することを可能にするステップをさらに含むことを特徴とする請求項14に記載の方法。
  16. 前記応答は、前記表示面にバーチャルオブジェクトを提示するステップを含み、前記オブジェクトは、前記ジェスチャに関連付けられていることを特徴とする請求項1に記載の方法。
  17. 前記少なくとも1つの連結コンポーネントを検出するステップは、前記ユーザの前記アペンデージの方向性をおおまかに決定するために、複数のタッチ連結コンポーネントおよび少なくとも1つのホバー連結コンポーネントを検出し、それによって、前記ジェスチャが正しく認識することを可能にするステップを含むことを特徴とする請求項2に記載の方法。
  18. 前記複数のタッチ連結コンポーネントは、前記表示面に接触している前記ユーザの指に対応し、前記少なくとも1つのホバー連結コンポーネントは、前記表示面近傍の前記ユーザの手に対応することを特徴とする請求項17に記載の方法。
  19. 前記複数のタッチ連結コンポーネントは、前記表示面に接触している複数の指を識別し、かつ前記複数の指がユーザの1つの手に属することを決定するために使用されることを特徴とする請求項17に記載の方法。
  20. (a)前記タッチ連結コンポーネントが時間が経過するにつれて変化するのに伴う前記複数のタッチ連結コンポーネントの時間パターンを解析するステップと、
    (b)前記表示面に接触している複数の指のグループ化を識別するステップと、
    (c)前記連結コンポーネントの方向性およびそれらの時間パターンに基づいて、前記複数の指は、特定のユーザの手に結合していることを決定するステップとをさらに備えることを特徴とする請求項17に記載の方法。
  21. (a)前記タッチ連結が時間の経過につれて変化するのに伴うタッチ連結コンポーネントの複数のセットの時間パターンを解析するステップと、
    (b)複数の異なる各ユーザのアペンデージを識別するステップであって、前記アペンデージは、前記表示面付近でホバーしているステップと、
    (c)各アペンデージの方向性、および前記時間パターンに基づいて、前記表示面に接触している複数の指のグループ化が、前記アペンデージのうちの特定のいくつかに属ししたがって特定のユーザに属することを決定するステップとをさらに備えることを特徴とする請求項17に記載の方法。
  22. 前記決定するステップは、前記表示面周辺での前記特定のユーザの位置に関する知識に基づいて、アペンデージ、および複数指のグループ化が、ある特定のユーザに属していることを決定するステップを含むことを特徴とする請求項21に記載の方法。
  23. 請求項1に記載のステップ(b)〜(d)を実行するためのマシン命令を格納することを特徴とする記憶媒体。
  24. オブジェクトによって行われるジェスチャに応答するインタラクティブディスプレイシステムであって、
    (a)それに接してまたはその付近にオブジェクトを配置し操作することができる対話側、および反対側を有する表示面と、
    (b)光を、前記表示面の前記反対側に向け、前記表示面を通して、前記対話側に送る光源と、
    (c)前記表示面を通りオブジェクトから反射される光を受け取り検知するために配置され、前記表示面に接触しているまたは近傍にあるオブジェクトのイメージに対応する信号を生成する光センサと、
    (d)前記光センサと通信するプロセッサと、
    (e)前記プロセッサと通信するメモリとを備え、前記メモリは、前記プロセッサに複数の機能を実行させるデータおよびマシン命令を格納し、前記複数の機能は、
    (i)前記オブジェクトを用いて前記ユーザによって行われたジェスチャを認識するために、前記イメージを処理することであって、前記ジェスチャは
    (1)前記イメージにおいて、前記オブジェクトに対応する形状を識別すること、および、
    (2)前記イメージにおいて、所定の閾値を超える強度を有する隣接する複数のピクセルを含む少なくとも1つの連結コンポーネントを、検出することのうち一方に応答して認識されること、ならびに、
    (ii)認識された前記ジェスチャに応じて、前記メモリ内で、前記ジェスチャにあらかじめ関連付けられた、応答を自動的に作成することであって、前記応答は、前記インタラクティブディスプレイシステムの状態を変更することを含むことを特徴とするインタラクティブディスプレイシステム。
  25. 前記オブジェクトは、ユーザのアペンデージの少なくとも一部分を含むことを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  26. 前記形状は、前記形状を所定のテンプレートと比較することによって識別されることを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  27. 前記オブジェクトは、ユーザの手に握られることを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  28. 前記ジェスチャは、おおまかに定義された経路に沿った前記オブジェクトの動きを含むことを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  29. 前記ジェスチャは、前記表示面付近のアペンデージの少なくとも一部分のポーズを含むことを特徴とする請求項25に記載のインタラクティブディスプレイシステム。
  30. 前記少なくとも1つの連結コンポーネントは、前記オブジェクトによる前記表示面への接触に対応する少なくとも1つのタッチ連結コンポーネントを含むことを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  31. 前記少なくとも1つの連結コンポーネントは、ユーザの指および手のうち少なくとも1つに対応することを特徴とする請求項25に記載のインタラクティブディスプレイシステム。
  32. 前記自動的に作成される応答は、前記プロセッサを使用して、前記ジェスチャに関連付けられるソフトウェアアプリケーション実行していることを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  33. 前記ジェスチャは、前記ソフトウェアアプリケーションに関係するアルファベット文字を定義することを特徴とする請求項32に記載のインタラクティブディスプレイシステム。
  34. 自動的に作成される前記応答は、前記プロセッサによって実行されているソフトウェアアプリケーションにおける機能を実行することを含むことを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  35. 前記応答は、前記プロセッサによって前記機能が実行されているとき、ユーザが、前記機能に関係する変数を変化させる程度を指し示すように前記オブジェクトを動かすことを可能にすることをさらに含むことを特徴とする請求項34に記載のインタラクティブディスプレイシステム。
  36. 自動的に作成される前記応答は、前記表示面上で前記ジェスチャによって定義される領域を選択することを含むことを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  37. 自動的に作成される前記応答は、前記ジェスチャによって決定されるように、表示面に提示されるイメージおよびバーチャルオブジェクトのうち1つを選択することを含むことを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  38. 前記応答は、前記表示面上にわたり前記オブジェクトを動かすことにより、ユーザが前記イメージおよび前記バーチャルオブジェクトのうち1つをサイズ変更することを可能にすることをさらに含むことを特徴とする請求項37に記載のインタラクティブディスプレイシステム。
  39. 前記応答は、バーチャルオブジェクトを前記表示面に提示することを含み、前記バーチャルオブジェクトは、前記ジェスチャに関連付けられていることを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
  40. 前記マシン命令は、前記ユーザの前記アペンデージの方向性をおおまかに決定するために、前記プロセッサに、複数のタッチ連結コンポーネントおよび少なくとも1つのホバー連結コンポーネントを検出させ、それによって、前記ジェスチャが正しく認識することを可能にすることを特徴とする請求項25に記載のインタラクティブディスプレイシステム。
  41. 前記複数のタッチ連結コンポーネントは、前記表示面に接触しているユーザの指に対応し、前記少なくとも1つのホバー連結コンポーネントは、前記表示面近傍のユーザの手に対応することを特徴とする請求項40に記載のインタラクティブディスプレイシステム。
  42. 前記複数のタッチ連結コンポーネントは、前記表示面に接触している複数の指を識別し、前記複数の指がユーザの1つの手に属することを決定するために使用されることを特徴とする請求項40に記載のインタラクティブディスプレイシステム。
  43. 前記マシン命令はさらに、前記プロセッサが、前記タッチ連結コンポーネントが時間が経過するにつれて変化するのに伴う前記複数のタッチ連結コンポーネントの時間パターンを解析し、前記表示面に接触している複数の指のグループ化を識別し、前記接続コンポーネントおよびそれらの時間パターンの前記方向性に基づいて、前記複数の指が特定のユーザの手に結合していることを決定するようにさせることを特徴とする請求項40に記載のインタラクティブディスプレイシステム。
  44. 前記マシン命令はさらに、前記プロセッサが、前記タッチ連結コンポーネントが時間の経過につれて変化するのに伴うタッチ連結コンポーネントの複数のセットの時間パターンを解析し、前記表示面付近でホバーしている複数の異なる各ユーザのアペンデージを識別し、各アペンデージの方向性、および前記時間パターンに基づいて、前記表示面に接触している複数の指のグループ化が、前記アペンデージのうちの特定のいくつかに属ししたがって特定のユーザに属することを決定するようにさせることを特徴とする請求項40に記載のインタラクティブディスプレイシステム。
  45. 前記マシン命令はさらに、前記プロセッサに、前記表示面周辺での前記特定のユーザの位置に関する知識に基づいて、アペンデージ、および複数指のグループ化が、ある特定のユーザに属していることを決定させることを特徴とする請求項44に記載のインタラクティブディスプレイシステム。
  46. 前記光源は、赤外光を発光し、前記光センサは、オブジェクトから反射された赤外光を検知することを特徴とする請求項24に記載のインタラクティブディスプレイシステム。
JP2005184984A 2004-06-28 2005-06-24 ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用 Expired - Fee Related JP4842568B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/880,167 US7519223B2 (en) 2004-06-28 2004-06-28 Recognizing gestures and using gestures for interacting with software applications
US10/880,167 2004-06-28

Publications (3)

Publication Number Publication Date
JP2006040271A true JP2006040271A (ja) 2006-02-09
JP2006040271A5 JP2006040271A5 (ja) 2008-08-07
JP4842568B2 JP4842568B2 (ja) 2011-12-21

Family

ID=35207823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005184984A Expired - Fee Related JP4842568B2 (ja) 2004-06-28 2005-06-24 ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用

Country Status (3)

Country Link
US (1) US7519223B2 (ja)
EP (1) EP1615109B1 (ja)
JP (1) JP4842568B2 (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529135A (ja) * 2005-01-21 2008-07-31 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
JP2008193563A (ja) * 2007-02-07 2008-08-21 Nec Design Ltd 撮像装置、再生装置、撮像方法、再生方法及びプログラム
KR100862349B1 (ko) 2007-01-08 2008-10-13 전자부품연구원 제스처 인식 기능을 이용한 반투과 거울 기반 사용자인터페이스 시스템
JP2009294715A (ja) * 2008-06-02 2009-12-17 Everspring Industry Co Ltd 赤外線検出を利用した電子装置制御方法
JP2010055177A (ja) * 2008-08-26 2010-03-11 Nec Corp 情報処理端末のアプリケーション起動方法、情報処理端末及びプログラム
WO2010030077A2 (ko) * 2008-09-10 2010-03-18 Kim Hyun Kyu 터치 스크린 장치 및 스크린 상에서의 상황 인지적 인식을 통한 사용자 정보 입력방법
JP2010258878A (ja) * 2009-04-27 2010-11-11 Mitsubishi Electric Corp 映像監視システム
JP2011076563A (ja) * 2009-10-02 2011-04-14 Mitsubishi Electric Corp 監視制御装置の端末装置
JP2012502344A (ja) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー. 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
JP2012027796A (ja) * 2010-07-26 2012-02-09 Canon Inc 情報処理装置及びその制御方法
JP2013518349A (ja) * 2010-01-26 2013-05-20 アップル インコーポレイテッド ジェスチャ認識を制御及び変更するためのデリゲートを有するジェスチャ・レコグナイザ
JP2013127753A (ja) * 2011-12-19 2013-06-27 Sharp Corp 情報処理装置の入力方法、及び情報処理装置
JP2013538472A (ja) * 2010-06-10 2013-10-10 クアルコム,インコーポレイテッド ジェスチャーおよび/または位置に基づく情報のプリフェッチ
JP2014503903A (ja) * 2010-12-23 2014-02-13 インテル・コーポレーション ウェブブラウザ上でコンテンツと相互作用する方法、装置、及びシステム
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
JP2014517957A (ja) * 2011-04-29 2014-07-24 マイクロソフト コーポレーション 空間ジェスチャからの空間オブジェクト説明の推測
JP2014199671A (ja) * 2008-03-12 2014-10-23 イマージョン コーポレーションImmersion Corporation 触覚的にイネーブルにされるユーザインタフェース
JP2014199492A (ja) * 2013-03-29 2014-10-23 株式会社ジャパンディスプレイ 電子機器および電子機器の制御方法
JP2015505393A (ja) * 2011-12-09 2015-02-19 マイクロチップ テクノロジー ジャーマニー ツー ゲーエ 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
JP2015132906A (ja) * 2014-01-10 2015-07-23 アルパイン株式会社 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム
JP2016035784A (ja) * 2007-09-28 2016-03-17 イマージョン コーポレーションImmersion Corporation 動的な触覚効果を有するマルチタッチデバイス
US9639744B2 (en) 2009-01-30 2017-05-02 Thomson Licensing Method for controlling and requesting information from displaying multimedia
JP2017107577A (ja) * 2007-01-03 2017-06-15 アップル インコーポレイテッド マルチタッチ入力の弁別
JP2022524831A (ja) * 2019-03-20 2022-05-10 キャピタル・ワン・サービシーズ・リミテッド・ライアビリティ・カンパニー コンテクストタッピングエンジン

Families Citing this family (638)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7296243B2 (en) 2002-03-19 2007-11-13 Aol Llc Animating display motion
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050088407A1 (en) * 2003-10-24 2005-04-28 Matthew Bell Method and system for managing an interactive video display system
US7379562B2 (en) * 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7787706B2 (en) 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8466893B2 (en) * 2004-06-17 2013-06-18 Adrea, LLC Use of a two finger input on touch screens
JP4572615B2 (ja) * 2004-07-27 2010-11-04 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
EP1789928A4 (en) 2004-07-30 2011-03-16 Extreme Reality Ltd SYSTEM AND METHOD FOR PICTURE PROCESSING BASED ON THE 3D ROOM DIMENSION
US20080062169A1 (en) * 2004-08-02 2008-03-13 Koninklijke Philips Electronics, N.V. Method Of Enabling To Model Virtual Objects
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7719523B2 (en) 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US7434173B2 (en) * 2004-08-30 2008-10-07 Microsoft Corporation Scrolling web pages using direct interaction
US20060072009A1 (en) * 2004-10-01 2006-04-06 International Business Machines Corporation Flexible interaction-based computer interfacing using visible artifacts
JPWO2006038577A1 (ja) * 2004-10-05 2008-05-15 株式会社ニコン プロジェクタ装置を有する電子機器
US7576725B2 (en) * 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
US8169410B2 (en) * 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
DK1819816T3 (da) * 2004-12-07 2009-01-26 Applied Nanosystems Bv Fremgangsmåder til fremstilling og udskillelse af modificerede peptider
US9489717B2 (en) * 2005-01-31 2016-11-08 Invention Science Fund I, Llc Shared image device
US8902320B2 (en) * 2005-01-31 2014-12-02 The Invention Science Fund I, Llc Shared image device synchronization or designation
US20060174203A1 (en) * 2005-01-31 2006-08-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Viewfinder for shared image device
US20060170956A1 (en) * 2005-01-31 2006-08-03 Jung Edward K Shared image devices
US9124729B2 (en) 2005-01-31 2015-09-01 The Invention Science Fund I, Llc Shared image device synchronization or designation
US9910341B2 (en) * 2005-01-31 2018-03-06 The Invention Science Fund I, Llc Shared image device designation
US8606383B2 (en) 2005-01-31 2013-12-10 The Invention Science Fund I, Llc Audio sharing
US9082456B2 (en) * 2005-01-31 2015-07-14 The Invention Science Fund I Llc Shared image device designation
WO2006086508A2 (en) 2005-02-08 2006-08-17 Oblong Industries, Inc. System and method for genture based control system
KR101651975B1 (ko) * 2005-03-04 2016-08-29 애플 인크. 다기능 휴대용 장치
US7953983B2 (en) 2005-03-08 2011-05-31 Microsoft Corporation Image or pictographic based computer login systems and methods
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US9001215B2 (en) * 2005-06-02 2015-04-07 The Invention Science Fund I, Llc Estimating shared image device operational capabilities or resources
US9819490B2 (en) 2005-05-04 2017-11-14 Invention Science Fund I, Llc Regional proximity for shared image device(s)
US10003762B2 (en) 2005-04-26 2018-06-19 Invention Science Fund I, Llc Shared image devices
AU2006201734A1 (en) * 2005-04-27 2006-11-16 Aruze Corp. Gaming machine
US7499027B2 (en) * 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US10452207B2 (en) 2005-05-18 2019-10-22 Power2B, Inc. Displays and information input devices
WO2008111079A2 (en) 2007-03-14 2008-09-18 Power2B, Inc. Interactive devices
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
JP4991154B2 (ja) * 2005-06-03 2012-08-01 株式会社リコー 画像表示装置、画像表示方法及びコマンド入力方法
US7525538B2 (en) 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US20070018966A1 (en) * 2005-07-25 2007-01-25 Blythe Michael M Predicted object location
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
EP1938306B1 (en) 2005-09-08 2013-07-31 Power2B, Inc. Displays and information input devices
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
AU2006332488A1 (en) * 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
AU2016238971B2 (en) * 2006-01-30 2018-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US7515143B2 (en) 2006-02-28 2009-04-07 Microsoft Corporation Uniform illumination of interactive display panel
US8578282B2 (en) * 2006-03-15 2013-11-05 Navisense Visual toolkit for a virtual user interface
US20070097096A1 (en) * 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
US20100045705A1 (en) 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US20070097151A1 (en) * 2006-04-07 2007-05-03 Outland Research, Llc Behind-screen zoom for handheld computing devices
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
JP2008012199A (ja) * 2006-07-10 2008-01-24 Aruze Corp ゲーム装置及びゲーム装置の画像表示制御方法
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US7702608B1 (en) 2006-07-14 2010-04-20 Ailive, Inc. Generating motion recognizers for arbitrary motions for video games and tuning the motion recognizers to the end user
US9405372B2 (en) 2006-07-14 2016-08-02 Ailive, Inc. Self-contained inertial navigation system for interactive control using movable controllers
US7636645B1 (en) 2007-06-18 2009-12-22 Ailive Inc. Self-contained inertial navigation system for interactive control using movable controllers
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
KR100826194B1 (ko) * 2006-07-27 2008-04-30 엘지전자 주식회사 터치 패널형 리모트 콘트롤러 및 이 터치 패널형 리모트콘트롤러에서 기능을 수행하는 방법
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US7978091B2 (en) * 2006-08-24 2011-07-12 Navisense Method and device for a touchless interface
US8316324B2 (en) * 2006-09-05 2012-11-20 Navisense Method and apparatus for touchless control of a device
WO2008029467A1 (fr) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Système, procédé et programme d'entrée de mouvement
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US8147316B2 (en) 2006-10-10 2012-04-03 Wms Gaming, Inc. Multi-player, multi-touch table for use in wagering game systems
US8356254B2 (en) * 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
US8793621B2 (en) * 2006-11-09 2014-07-29 Navisense Method and device to control touchless recognition
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
US20080156989A1 (en) * 2006-12-28 2008-07-03 O2Micro Inc. Motion sensing/recognition by camera applications
US8519979B1 (en) 2006-12-29 2013-08-27 The Mathworks, Inc. Multi-point interface for a graphical modeling environment
US7876310B2 (en) * 2007-01-03 2011-01-25 Apple Inc. Far-field input identification
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US7844915B2 (en) * 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US8184943B2 (en) * 2007-01-08 2012-05-22 Apple Inc. Transport controls for a media device
KR20080068491A (ko) * 2007-01-19 2008-07-23 엘지전자 주식회사 터치 방식 정보 입력 단말기 및 그 방법
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US7636697B1 (en) 2007-01-29 2009-12-22 Ailive Inc. Method and system for rapid evaluation of logical expressions
KR100785071B1 (ko) * 2007-02-08 2007-12-12 삼성전자주식회사 터치스크린을 갖는 휴대 단말기에서 터치 입력에 대한 정보표시 방법
US8060841B2 (en) * 2007-03-19 2011-11-15 Navisense Method and device for touchless media searching
JP2008250654A (ja) * 2007-03-30 2008-10-16 Alpine Electronics Inc ビデオプレイヤ及びビデオ再生制御方法
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
EP2150893A4 (en) 2007-04-24 2012-08-22 Oblong Ind Inc PROTEINS, POOLS AND SLAWX IN PROCESSING ENVIRONMENTS
US20080292195A1 (en) * 2007-05-22 2008-11-27 Vijayasenan Deepu Data Processing System And Method
US8436815B2 (en) * 2007-05-25 2013-05-07 Microsoft Corporation Selective enabling of multi-input controls
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
UA92597C2 (uk) * 2007-07-19 2010-11-25 Юрий Маркович Боянжу Спосіб безконтактного керування комп'ютером (варіанти)
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20090044988A1 (en) * 2007-08-17 2009-02-19 Egalax_Empia Technology Inc. Device and method for determining function represented by continuous relative motion between/among multitouch inputs on signal shielding-based position acquisition type touch panel
JP2009059076A (ja) * 2007-08-30 2009-03-19 Toshiba Corp 情報処理装置、プログラム及び情報処理方法
EP2187291A4 (en) * 2007-09-05 2012-06-13 Panasonic Corp PORTABLE TERMINAL DEVICE AND DISPLAY CONTROL TECHNIQUE
US9053529B2 (en) * 2007-09-11 2015-06-09 Smart Internet Crc Pty Ltd System and method for capturing digital images
AU2008299579B2 (en) * 2007-09-11 2014-03-27 Cruiser Interactive Pty Ltd A system and method for manipulating digital images on a computer display
WO2009033216A1 (en) * 2007-09-11 2009-03-19 Smart Internet Technology Crc Pty Ltd An interface element for a computer interface
WO2009033217A1 (en) * 2007-09-11 2009-03-19 Smart Internet Technology Crc Pty Ltd Systems and methods for remote file transfer
JP5430572B2 (ja) * 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
KR101526963B1 (ko) * 2007-09-19 2015-06-11 엘지전자 주식회사 이동 단말기, 이동 단말기의 데이터 표시 방법, 및 이동단말기의 데이터 편집 방법
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8159682B2 (en) * 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US8581852B2 (en) 2007-11-15 2013-11-12 Microsoft Corporation Fingertip detection for camera based multi-touch systems
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8379968B2 (en) * 2007-12-10 2013-02-19 International Business Machines Corporation Conversion of two dimensional image data into three dimensional spatial data for use in a virtual universe
KR20090065919A (ko) * 2007-12-18 2009-06-23 삼성전자주식회사 메뉴 조작 시스템 및 방법
US8405621B2 (en) * 2008-01-06 2013-03-26 Apple Inc. Variable rate media playback methods for electronic devices with touch interfaces
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US9241143B2 (en) * 2008-01-29 2016-01-19 At&T Intellectual Property I, L.P. Output correction for visual projection devices
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US20090219253A1 (en) * 2008-02-29 2009-09-03 Microsoft Corporation Interactive Surface Computer with Switchable Diffuser
US8416196B2 (en) * 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8174502B2 (en) * 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8645827B2 (en) * 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US20090237363A1 (en) * 2008-03-20 2009-09-24 Microsoft Corporation Plural temporally overlapping drag and drop operations
US7930642B1 (en) 2008-03-20 2011-04-19 Intuit Inc. System and method for interacting with hard copy documents
JP2009237792A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp コンテンツ処理装置および方法
US20110010619A1 (en) * 2008-04-08 2011-01-13 Craig Thomas Brown Systems And Methods For Launching A User Application On A Computing Device
US9372591B2 (en) * 2008-04-10 2016-06-21 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
US8745514B1 (en) 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
TWI353545B (en) * 2008-04-17 2011-12-01 Htc Corp Method for unlocking screen, mobile electronic dev
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US10642364B2 (en) * 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8952894B2 (en) * 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
US8913028B2 (en) * 2008-05-17 2014-12-16 David H. Chin Mobile device authentication through touch-based gestures
US8584029B1 (en) 2008-05-23 2013-11-12 Intuit Inc. Surface computer system and method for integrating display of user interface with physical objects
US8599132B2 (en) * 2008-06-10 2013-12-03 Mediatek Inc. Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
KR100931403B1 (ko) * 2008-06-25 2009-12-11 한국과학기술연구원 손 동작에 의한 네트워크 상의 기기 및 정보 제어 시스템
US8241912B2 (en) * 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US8655622B2 (en) * 2008-07-05 2014-02-18 Ailive, Inc. Method and apparatus for interpreting orientation invariant motion
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8146020B2 (en) * 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
EP2327005B1 (en) * 2008-07-25 2017-08-23 Qualcomm Incorporated Enhanced detection of waving gesture
JP5161690B2 (ja) * 2008-07-31 2013-03-13 キヤノン株式会社 情報処理装置及びその制御方法
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US9092092B2 (en) * 2008-08-07 2015-07-28 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using touch event templates
US20100045609A1 (en) * 2008-08-20 2010-02-25 International Business Machines Corporation Method for automatically configuring an interactive device based on orientation of a user relative to the device
CN103324386A (zh) * 2008-08-22 2013-09-25 谷歌公司 移动设备上的三维环境中的导航
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
CA2639611A1 (en) * 2008-09-12 2010-03-12 James Franklin Zdralek Bimanual gesture based input and device control system
US8069081B2 (en) * 2008-09-23 2011-11-29 Microsoft Corporation Targeted advertising using object identification
JP5345129B2 (ja) * 2008-09-29 2013-11-20 パナソニック株式会社 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US20100079414A1 (en) * 2008-09-30 2010-04-01 Andrew Rodney Ferlitsch Apparatus, systems, and methods for authentication on a publicly accessed shared interactive digital surface
US20100095250A1 (en) * 2008-10-15 2010-04-15 Raytheon Company Facilitating Interaction With An Application
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
US8433138B2 (en) * 2008-10-29 2013-04-30 Nokia Corporation Interaction using touch and non-touch gestures
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
EP3576388A1 (en) 2008-11-10 2019-12-04 Google LLC Speech detection
KR101019335B1 (ko) * 2008-11-11 2011-03-07 주식회사 팬택 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템
US20100117970A1 (en) * 2008-11-11 2010-05-13 Sony Ericsson Mobile Communications Ab Methods of Operating Electronic Devices Using Touch Sensitive Interfaces with Contact and Proximity Detection and Related Devices and Computer Program Products
BRPI0823276A2 (pt) * 2008-11-11 2015-06-23 Colgate Palmolive Co Método para aplicar uma composição de indicador a uma área desejada de um substrato
AU2008363987B2 (en) * 2008-11-11 2012-10-11 Colgate Palmolive Company Composition with a color marker
US9335909B2 (en) * 2009-06-03 2016-05-10 Honda Motor Co., Ltd. Drawing assist device, drawing assist program, and drawing assist method
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US9552154B2 (en) * 2008-11-25 2017-01-24 Samsung Electronics Co., Ltd. Device and method for providing a user interface
US9477396B2 (en) 2008-11-25 2016-10-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
KR20100059698A (ko) * 2008-11-25 2010-06-04 삼성전자주식회사 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체
US20100134409A1 (en) * 2008-11-30 2010-06-03 Lenovo (Singapore) Pte. Ltd. Three-dimensional user interface
GB2466023A (en) * 2008-12-08 2010-06-09 Light Blue Optics Ltd Holographic Image Projection Systems
US8749497B2 (en) * 2008-12-12 2014-06-10 Apple Inc. Multi-touch shape drawing
US9134798B2 (en) * 2008-12-15 2015-09-15 Microsoft Technology Licensing, Llc Gestures, interactions, and common ground in a surface computing environment
WO2010071630A1 (en) * 2008-12-15 2010-06-24 Hewlett-Packard Development Company, L.P. Gesture based edit mode
US20100153313A1 (en) * 2008-12-15 2010-06-17 Symbol Technologies, Inc. Interface adaptation system
KR20100069842A (ko) * 2008-12-17 2010-06-25 삼성전자주식회사 사용자 인터페이스를 구현하는 전자장치 및 그 방법
US20100149096A1 (en) * 2008-12-17 2010-06-17 Migos Charles J Network management using interaction with display surface
US8704822B2 (en) 2008-12-17 2014-04-22 Microsoft Corporation Volumetric display system enabling user interaction
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress
KR101565768B1 (ko) * 2008-12-23 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
JP4702475B2 (ja) * 2008-12-25 2011-06-15 ソニー株式会社 入力装置、ハンドヘルド装置及び制御方法
US8030914B2 (en) * 2008-12-29 2011-10-04 Motorola Mobility, Inc. Portable electronic device having self-calibrating proximity sensors
US8275412B2 (en) 2008-12-31 2012-09-25 Motorola Mobility Llc Portable electronic device having directional proximity sensors based on device orientation
US8957865B2 (en) 2009-01-05 2015-02-17 Apple Inc. Device, method, and graphical user interface for manipulating a user interface object
US8698741B1 (en) * 2009-01-16 2014-04-15 Fresenius Medical Care Holdings, Inc. Methods and apparatus for medical device cursor control and touchpad-based navigation
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
TWI393037B (zh) * 2009-02-10 2013-04-11 Quanta Comp Inc 光學觸控顯示裝置及其操作方法
TWM361674U (en) * 2009-02-19 2009-07-21 Sentelic Corp Touch control module
US20100229129A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Creating organizational containers on a graphical user interface
US20100235786A1 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US8839155B2 (en) * 2009-03-16 2014-09-16 Apple Inc. Accelerated scrolling for a multifunction device
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8566044B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9311112B2 (en) * 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9250788B2 (en) * 2009-03-18 2016-02-02 IdentifyMine, Inc. Gesture handlers of a gesture engine
KR101844366B1 (ko) * 2009-03-27 2018-04-02 삼성전자 주식회사 터치 제스처 인식 장치 및 방법
TWI391850B (zh) * 2009-03-31 2013-04-01 Au Optronics Corp 輸入圖形判定方法及電腦可讀儲存媒體
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US20100271312A1 (en) * 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
US20100287468A1 (en) * 2009-05-05 2010-11-11 Emblaze Mobile Ltd Apparatus and method for displaying menu items
US20120026109A1 (en) * 2009-05-18 2012-02-02 Osamu Baba Mobile terminal device, method of controlling mobile terminal device, and storage medium
US9485339B2 (en) 2009-05-19 2016-11-01 At&T Mobility Ii Llc Systems, methods, and mobile devices for providing a user interface to facilitate access to prepaid wireless account information
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8294105B2 (en) * 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US8542186B2 (en) 2009-05-22 2013-09-24 Motorola Mobility Llc Mobile device with user interaction capability and method of operating same
CN101893983A (zh) * 2009-05-22 2010-11-24 深圳富泰宏精密工业有限公司 电子装置及其手写输入的快速删除方法
US8619029B2 (en) * 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US8344325B2 (en) * 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
US8391719B2 (en) * 2009-05-22 2013-03-05 Motorola Mobility Llc Method and system for conducting communication between mobile devices
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US8304733B2 (en) * 2009-05-22 2012-11-06 Motorola Mobility Llc Sensing assembly for mobile device
US8788676B2 (en) * 2009-05-22 2014-07-22 Motorola Mobility Llc Method and system for controlling data transmission to or from a mobile device
CN101902554A (zh) * 2009-05-25 2010-12-01 戴维 智能化机顶盒及其图像处理方法
US8581856B2 (en) * 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US9086875B2 (en) * 2009-06-05 2015-07-21 Qualcomm Incorporated Controlling power consumption of a mobile device based on gesture recognition
KR101624157B1 (ko) * 2009-06-09 2016-05-26 삼성전자주식회사 컨텐츠 탐색을 위한 gui 제공방법 및 이를 적용한 디바이스
US8947400B2 (en) * 2009-06-11 2015-02-03 Nokia Corporation Apparatus, methods and computer readable storage mediums for providing a user interface
US8458485B2 (en) 2009-06-17 2013-06-04 Microsoft Corporation Image-based unlock functionality on a computing device
CN102597813B (zh) * 2009-06-18 2017-11-14 百安托国际有限公司 用于感测和跟踪表面上的辐射阻挡对象的***和方法
US8407623B2 (en) * 2009-06-25 2013-03-26 Apple Inc. Playback control using a touch interface
US9182854B2 (en) * 2009-07-08 2015-11-10 Microsoft Technology Licensing, Llc System and method for multi-touch interactions with a touch sensitive screen
US8319170B2 (en) 2009-07-10 2012-11-27 Motorola Mobility Llc Method for adapting a pulse power mode of a proximity sensor
US8373669B2 (en) 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
US20110035701A1 (en) * 2009-08-10 2011-02-10 Williams Harel M Focal point zoom
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
TWI412975B (zh) 2009-09-02 2013-10-21 Pixart Imaging Inc 手勢辨識方法及使用該方法之互動系統
US20120169674A1 (en) * 2009-09-15 2012-07-05 Nec Corporation Input device and input system
WO2011034097A1 (ja) 2009-09-17 2011-03-24 日本電気株式会社 タッチパネルを利用した電子機器およびその設定値変更方法
JP2013505493A (ja) 2009-09-21 2013-02-14 エクストリーム リアリティー エルティーディー. 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US8681124B2 (en) * 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
US8624933B2 (en) * 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
US8305188B2 (en) * 2009-10-07 2012-11-06 Samsung Electronics Co., Ltd. System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US10799117B2 (en) 2009-11-05 2020-10-13 Fresenius Medical Care Holdings, Inc. Patient treatment and monitoring systems and methods with cause inferencing
US8665227B2 (en) 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US8587532B2 (en) 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
CN102103457B (zh) * 2009-12-18 2013-11-20 深圳富泰宏精密工业有限公司 简报操作***及方法
US8549418B2 (en) * 2009-12-23 2013-10-01 Intel Corporation Projected display to enhance computer device use
JP5506375B2 (ja) * 2009-12-25 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法
US20110167336A1 (en) * 2010-01-04 2011-07-07 Hit Development Llc Gesture-based web site design
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US20110163967A1 (en) * 2010-01-06 2011-07-07 Imran Chaudhri Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
US8510677B2 (en) 2010-01-06 2013-08-13 Apple Inc. Device, method, and graphical user interface for navigating through a range of values
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US20110199386A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US8638371B2 (en) * 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US20110199342A1 (en) * 2010-02-16 2011-08-18 Harry Vartanian Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
JP5499762B2 (ja) 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US20110221701A1 (en) * 2010-03-10 2011-09-15 Focaltech Systems Ltd. Multi-touch detection method for capacitive touch screens
EP2547278B2 (en) 2010-03-17 2019-10-23 Brainlab AG Flow control in computer-assisted surgery based on marker positions
US10191609B1 (en) 2010-03-26 2019-01-29 Open Invention Network Llc Method and apparatus of providing a customized user interface
US9158888B1 (en) 2010-03-26 2015-10-13 Open Invention Network, Llc System and method for analysing data records utilizing a touch screen interface
US9223529B1 (en) 2010-03-26 2015-12-29 Open Invention Network, Llc Method and apparatus of processing information in an environment with multiple devices and limited resources
US9798518B1 (en) * 2010-03-26 2017-10-24 Open Invention Network Llc Method and apparatus for processing data based on touch events on a touch sensitive device
WO2011119167A2 (en) 2010-03-26 2011-09-29 Hewlett-Packard Development Company, L.P. Associated file
KR101743948B1 (ko) * 2010-04-07 2017-06-21 삼성전자주식회사 인터렉티브 디스플레이에서 근접 센싱을 위한 방법 및 근접 센싱 이미지를 처리하는 방법
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
US8963845B2 (en) 2010-05-05 2015-02-24 Google Technology Holdings LLC Mobile device with temperature sensing capability and method of operating same
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US8751056B2 (en) 2010-05-25 2014-06-10 Motorola Mobility Llc User computer device with temperature sensing capabilities and method of operating same
US9103732B2 (en) 2010-05-25 2015-08-11 Google Technology Holdings LLC User computer device with temperature sensing capabilities and method of operating same
EP2390772A1 (en) * 2010-05-31 2011-11-30 Sony Ericsson Mobile Communications AB User interface with three dimensional user input
US9009594B2 (en) * 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
US8892594B1 (en) 2010-06-28 2014-11-18 Open Invention Network, Llc System and method for search with the aid of images associated with product categories
US8773370B2 (en) 2010-07-13 2014-07-08 Apple Inc. Table editing systems with gesture-based insertion and deletion of columns and rows
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
DE102010033649B4 (de) 2010-08-06 2012-03-29 Daniel Barthels Bildschirm sowie Verfahren zum Darstellen von optischen Inhalten auf einem Bildschirm
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8620024B2 (en) * 2010-09-17 2013-12-31 Sony Corporation System and method for dynamic gesture recognition using geometric classification
US9003298B2 (en) 2010-09-21 2015-04-07 Microsoft Corporation Web page application controls
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
KR20120031399A (ko) * 2010-09-24 2012-04-03 엘지전자 주식회사 이동 단말기 및 그의 재생속도 제어 방법
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8514190B2 (en) 2010-10-06 2013-08-20 Sony Corporation Displays for electronic devices that detect and respond to the contour and/or height profile of user input objects
US8957856B2 (en) 2010-10-21 2015-02-17 Verizon Patent And Licensing Inc. Systems, methods, and apparatuses for spatial input associated with a display
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
US8674965B2 (en) 2010-11-18 2014-03-18 Microsoft Corporation Single camera display device detection
EP2455841A3 (en) * 2010-11-22 2015-07-15 Samsung Electronics Co., Ltd. Apparatus and method for selecting item using movement of object
US8502816B2 (en) 2010-12-02 2013-08-06 Microsoft Corporation Tabletop display providing multiple views to users
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8724090B2 (en) * 2010-12-22 2014-05-13 Hewlett-Packard Development Company, L.P. Position estimation system
CA2806520C (en) 2011-01-23 2016-02-16 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
FR2971066B1 (fr) 2011-01-31 2013-08-23 Nanotec Solution Interface homme-machine tridimensionnelle.
CN103347437B (zh) 2011-02-09 2016-06-08 苹果公司 3d映射环境中的凝视检测
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US20120210200A1 (en) * 2011-02-10 2012-08-16 Kelly Berger System, method, and touch screen graphical user interface for managing photos and creating photo books
US9547428B2 (en) 2011-03-01 2017-01-17 Apple Inc. System and method for touchscreen knob control
US20120233076A1 (en) * 2011-03-08 2012-09-13 Microsoft Corporation Redeeming offers of digital content items
US20120274585A1 (en) * 2011-03-16 2012-11-01 Xmg Studio, Inc. Systems and methods of multi-touch interaction with virtual objects
US8836802B2 (en) 2011-03-21 2014-09-16 Honeywell International Inc. Method of defining camera scan movements using gestures
US8717318B2 (en) * 2011-03-29 2014-05-06 Intel Corporation Continued virtual links between gestures and user interface elements
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
TWI428807B (zh) * 2011-04-01 2014-03-01 Wistron Corp 光學式座標輸入裝置及其座標計算之方法
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
RU2609066C2 (ru) 2011-04-20 2017-01-30 Конинклейке Филипс Н.В. Управление элементом или изделием на основе жестов
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US20120293404A1 (en) * 2011-05-19 2012-11-22 Panasonic Corporation Low Cost Embedded Touchless Gesture Sensor
AU2011202415B1 (en) 2011-05-24 2012-04-12 Microsoft Technology Licensing, Llc Picture gesture authentication
US8565481B1 (en) * 2011-05-26 2013-10-22 Google Inc. System and method for tracking objects
JP5670255B2 (ja) * 2011-05-27 2015-02-18 京セラ株式会社 表示機器
JP5914992B2 (ja) * 2011-06-02 2016-05-11 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP5880916B2 (ja) 2011-06-03 2016-03-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10019730B2 (en) * 2012-08-15 2018-07-10 autoGraph, Inc. Reverse brand sorting tools for interest-graph driven personalization
KR101961504B1 (ko) 2011-06-06 2019-03-22 엔플루언스 미디어 인코포레이티드 소비자 주도형 광고 시스템
US9619567B2 (en) * 2011-06-06 2017-04-11 Nfluence Media, Inc. Consumer self-profiling GUI, analysis and rapid information presentation tools
US9883326B2 (en) 2011-06-06 2018-01-30 autoGraph, Inc. Beacon based privacy centric network communication, sharing, relevancy tools and other tools
US9560314B2 (en) 2011-06-14 2017-01-31 Microsoft Technology Licensing, Llc Interactive and shared surfaces
US8928735B2 (en) 2011-06-14 2015-01-06 Microsoft Corporation Combined lighting, projection, and image capture without video feedback
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
GB201110159D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
GB201110156D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
GB201110157D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
JP5864144B2 (ja) 2011-06-28 2016-02-17 京セラ株式会社 表示機器
US20130132906A1 (en) * 2011-06-29 2013-05-23 Nokia Corporation Icon interaction apparatus and associated methods
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9041734B2 (en) 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
WO2013009085A2 (ko) * 2011-07-12 2013-01-17 한국전자통신연구원 사용자 인터페이스 구현 방법 및 이러한 방법을 사용하는 장치
KR101979283B1 (ko) * 2011-07-12 2019-05-15 한국전자통신연구원 사용자 인터페이스 구현 방법 및 이러한 방법을 사용하는 장치
BR112014002186B1 (pt) 2011-07-29 2020-12-29 Hewlett-Packard Development Company, L.P sistema de projeção de captura, meio executável de processamento e método de colaboração em espaço de trabalho
WO2013019190A1 (en) 2011-07-29 2013-02-07 Hewlett-Packard Development Company, L.P. System and method of visual layering
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
BR112014002463B1 (pt) * 2011-08-02 2020-12-08 Hewlett-Packard Development Company, L.P sistemas de captura de projeções, sistema de captura de projeções interativo e método de captura de projeções
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US20130054335A1 (en) * 2011-08-29 2013-02-28 Ebay Inc. Mobile platform for generating and distributing deals
US20130077820A1 (en) * 2011-09-26 2013-03-28 Microsoft Corporation Machine learning gesture detection
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
US20130089237A1 (en) * 2011-10-10 2013-04-11 Invisage Technologies, Inc. Sensors and systems for the capture of scenes and events in space and time
TWI437467B (zh) 2011-10-11 2014-05-11 Ind Tech Res Inst 顯示控制裝置及顯示控制方法
GB201117542D0 (en) 2011-10-11 2011-11-23 Light Blue Optics Ltd Touch-sensitive display devices
WO2013056157A1 (en) * 2011-10-13 2013-04-18 Autodesk, Inc. Proximity-aware multi-touch tabletop
US20130093719A1 (en) 2011-10-17 2013-04-18 Sony Mobile Communications Japan, Inc. Information processing apparatus
CN109582180A (zh) 2011-10-18 2019-04-05 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
KR101880653B1 (ko) * 2011-10-27 2018-08-20 삼성전자 주식회사 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법
US9372612B2 (en) * 2011-10-31 2016-06-21 Microsoft Technology Licensing, Llc Exposing inertial snap points
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8847881B2 (en) 2011-11-18 2014-09-30 Sony Corporation Gesture and voice recognition for control of a device
US8963885B2 (en) 2011-11-30 2015-02-24 Google Technology Holdings LLC Mobile device for interacting with an active stylus
US9063591B2 (en) 2011-11-30 2015-06-23 Google Technology Holdings LLC Active styluses for interacting with a mobile device
US20130155237A1 (en) * 2011-12-16 2013-06-20 Microsoft Corporation Interacting with a mobile device within a vehicle using gestures
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9684379B2 (en) * 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US10345911B2 (en) 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
US9678574B2 (en) * 2011-12-23 2017-06-13 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
EP2795430A4 (en) 2011-12-23 2015-08-19 Intel Ip Corp TRANSITION MECHANISM FOR A COMPUTER SYSTEM WITH USER DETECTION
KR101237472B1 (ko) * 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
WO2013104054A1 (en) * 2012-01-10 2013-07-18 Smart Technologies Ulc Method for manipulating a graphical object and an interactive input system employing the same
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US20150253428A1 (en) 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US20140362052A1 (en) 2012-01-20 2014-12-11 Light Blue Optics Ltd Touch Sensitive Image Display Devices
WO2013108031A2 (en) 2012-01-20 2013-07-25 Light Blue Optics Limited Touch sensitive image display devices
US8884928B1 (en) 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9354748B2 (en) 2012-02-13 2016-05-31 Microsoft Technology Licensing, Llc Optical stylus interaction
WO2013123119A1 (en) 2012-02-15 2013-08-22 Stryker Corporation Patient support apparatus and controls therefor
US8796566B2 (en) 2012-02-28 2014-08-05 Grayhill, Inc. Rotary pushbutton and touchpad device and system and method for detecting rotary movement, axial displacement and touchpad gestures
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9134807B2 (en) 2012-03-02 2015-09-15 Microsoft Technology Licensing, Llc Pressure sensitive key normalization
US8873227B2 (en) 2012-03-02 2014-10-28 Microsoft Corporation Flexible hinge support layer
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US8345017B1 (en) * 2012-03-04 2013-01-01 Lg Electronics Inc. Touch input gesture based command
US8499258B1 (en) * 2012-03-04 2013-07-30 Lg Electronics Inc. Touch input gesture based command
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
GB201205303D0 (en) 2012-03-26 2012-05-09 Light Blue Optics Ltd Touch sensing systems
US9377863B2 (en) 2012-03-26 2016-06-28 Apple Inc. Gaze-enhanced virtual touchscreen
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
US9383895B1 (en) 2012-05-05 2016-07-05 F. Vinayak Methods and systems for interactively producing shapes in three-dimensional space
US9619036B2 (en) * 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
JP5377709B2 (ja) * 2012-05-23 2013-12-25 株式会社スクウェア・エニックス 情報処理装置,情報処理方法,及びゲーム装置
US8947353B2 (en) 2012-06-12 2015-02-03 Microsoft Corporation Photosensor array gesture detection
US9256089B2 (en) * 2012-06-15 2016-02-09 Microsoft Technology Licensing, Llc Object-detecting backlight unit
US9262983B1 (en) * 2012-06-18 2016-02-16 Amazon Technologies, Inc. Rear projection system with passive display screen
US9195127B1 (en) * 2012-06-18 2015-11-24 Amazon Technologies, Inc. Rear projection screen with infrared transparency
TWI463371B (zh) * 2012-06-20 2014-12-01 Pixart Imaging Inc 手勢偵測裝置以及根據速度判斷連續手勢的方法
US8837780B2 (en) * 2012-06-22 2014-09-16 Hewlett-Packard Development Company, L.P. Gesture based human interfaces
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
CN102789359A (zh) * 2012-06-25 2012-11-21 威盛电子股份有限公司 动态桌布显示方法及新视频信息显示方法与手持移动***
KR101961786B1 (ko) * 2012-07-12 2019-03-25 삼성전자 주식회사 터치스크린을 포함하는 단말을 이용한 마우스 기능의 제공 방법 및 장치
WO2014014806A1 (en) * 2012-07-15 2014-01-23 Apple Inc. Disambiguation of multitouch gesture recognition for 3d interaction
US9223494B1 (en) * 2012-07-27 2015-12-29 Rockwell Collins, Inc. User interfaces for wearable computers
KR102101818B1 (ko) * 2012-07-30 2020-04-17 삼성전자주식회사 단말기의 데이터전송 제어장치 및 방법
US8964379B2 (en) 2012-08-20 2015-02-24 Microsoft Corporation Switchable magnetic lock
US9423886B1 (en) 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
US10908929B2 (en) 2012-10-15 2021-02-02 Famous Industries, Inc. Human versus bot detection using gesture fingerprinting
US9772889B2 (en) 2012-10-15 2017-09-26 Famous Industries, Inc. Expedited processing and handling of events
US9501171B1 (en) * 2012-10-15 2016-11-22 Famous Industries, Inc. Gesture fingerprinting
WO2014062730A1 (en) 2012-10-15 2014-04-24 Famous Industries, Inc. Efficient manipulation of surfaces in multi-dimensional space using energy agents
US10877780B2 (en) 2012-10-15 2020-12-29 Famous Industries, Inc. Visibility detection using gesture fingerprinting
CN103777819A (zh) * 2012-10-23 2014-05-07 鸿富锦精密工业(深圳)有限公司 电脑遥控***及方法
US20140118270A1 (en) * 2012-10-26 2014-05-01 Qualcomm Incorporated System and method for providing infrared gesture interaction on a display
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10540515B2 (en) 2012-11-09 2020-01-21 autoGraph, Inc. Consumer and brand owner data management tools and consumer privacy tools
US10078371B1 (en) * 2012-12-07 2018-09-18 American Megatrends, Inc. Touchless controller with configurable output pins
TWI456430B (zh) * 2012-12-07 2014-10-11 Pixart Imaging Inc 手勢判斷裝置、其操作方法與手勢判斷方法
US9904414B2 (en) * 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
WO2014093334A2 (en) 2012-12-10 2014-06-19 Invisage Technologies, Inc. Capture of scenes and events in space and time
US20140160049A1 (en) * 2012-12-10 2014-06-12 Samsung Electronics Co., Ltd. Clipboard function control method and apparatus of electronic device
US9681982B2 (en) 2012-12-17 2017-06-20 Alcon Research, Ltd. Wearable user interface for use with ocular surgical console
CN103279218A (zh) * 2012-12-24 2013-09-04 李永贵 无边框平板
US10691230B2 (en) 2012-12-29 2020-06-23 Apple Inc. Crown input for a wearable electronic device
US9460529B2 (en) * 2012-12-31 2016-10-04 Joao Aranda Brandao Tool and method for emulating flat-tip brush
CN103020306A (zh) * 2013-01-04 2013-04-03 深圳市中兴移动通信有限公司 一种基于手势识别字符索引的查找方法及***
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9760966B2 (en) 2013-01-08 2017-09-12 Nvidia Corporation Parallel processor with integrated correlation and convolution engine
US9092664B2 (en) * 2013-01-14 2015-07-28 Qualcomm Incorporated Use of EMG for subtle gesture recognition on surfaces
US10241639B2 (en) 2013-01-15 2019-03-26 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US20140208274A1 (en) * 2013-01-18 2014-07-24 Microsoft Corporation Controlling a computing-based device using hand gestures
FR3002052B1 (fr) 2013-02-14 2016-12-09 Fogale Nanotech Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US20140282279A1 (en) * 2013-03-14 2014-09-18 Cirque Corporation Input interaction on a touch sensor combining touch and hover actions
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9189149B2 (en) 2013-03-21 2015-11-17 Sharp Laboratories Of America, Inc. Equivalent gesture and soft button configuration for touch screen enabled device
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US20140354602A1 (en) * 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method
US9323338B2 (en) 2013-04-12 2016-04-26 Usens, Inc. Interactive input system and method
US10082935B2 (en) * 2013-04-15 2018-09-25 Carnegie Mellon University Virtual tools for use with touch-sensitive surfaces
US20190004698A1 (en) * 2013-04-15 2019-01-03 Carnegie Mellon University Virtual tools for use with touch-sensitive surfaces
US9576422B2 (en) 2013-04-18 2017-02-21 Bally Gaming, Inc. Systems, methods, and devices for operating wagering game machines with enhanced user interfaces
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US20140337804A1 (en) * 2013-05-10 2014-11-13 Microsoft Corporation Symbol-based digital ink analysis
WO2014186771A1 (en) 2013-05-16 2014-11-20 Nfluence Media, Inc. Privacy sensitive persona management tools
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
US20140370980A1 (en) * 2013-06-17 2014-12-18 Bally Gaming, Inc. Electronic gaming displays, gaming tables including electronic gaming displays and related assemblies, systems and methods
US9071798B2 (en) 2013-06-17 2015-06-30 Spotify Ab System and method for switching between media streams for non-adjacent channels while providing a seamless user experience
US20150002475A1 (en) * 2013-06-27 2015-01-01 Industrial Technology Research Institute Mobile device and method for controlling graphical user interface thereof
US9846526B2 (en) * 2013-06-28 2017-12-19 Verizon and Redbox Digital Entertainment Services, LLC Multi-user collaboration tracking methods and systems
US9778796B2 (en) 2013-07-15 2017-10-03 Samsung Electronics Co., Ltd. Apparatus and method for sensing object, and method of identifying calibration pattern in object sensing apparatus
KR101994358B1 (ko) * 2013-07-15 2019-07-01 삼성전자주식회사 오브젝트 센싱 장치 및 방법, 오브젝트 센싱 장치의 캘리브레이션 패턴 식별 방법
US20150036875A1 (en) * 2013-07-31 2015-02-05 Nvidia Corporation Method and system for application execution based on object recognition for mobile devices
US10097604B2 (en) 2013-08-01 2018-10-09 Spotify Ab System and method for selecting a transition point for transitioning between media streams
US9529513B2 (en) * 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9772679B1 (en) * 2013-08-14 2017-09-26 Amazon Technologies, Inc. Object tracking for device input
US9377866B1 (en) * 2013-08-14 2016-06-28 Amazon Technologies, Inc. Depth-based position mapping
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US9529888B2 (en) 2013-09-23 2016-12-27 Spotify Ab System and method for efficiently providing media and associated metadata
US9917869B2 (en) 2013-09-23 2018-03-13 Spotify Ab System and method for identifying a segment of a file that includes target content
CN104516555A (zh) * 2013-09-27 2015-04-15 天津富纳源创科技有限公司 防止触控板误触控的方法
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9367203B1 (en) 2013-10-04 2016-06-14 Amazon Technologies, Inc. User interface techniques for simulating three-dimensional depth
GB2519124A (en) * 2013-10-10 2015-04-15 Ibm Controlling application launch
US9063640B2 (en) 2013-10-17 2015-06-23 Spotify Ab System and method for switching between media items in a plurality of sequences of media items
RU2013148582A (ru) * 2013-10-30 2015-05-10 ЭлЭсАй Корпорейшн Процессор обработки изображений, содержащий систему распознавания жестов с вычислительно-эффективным распознаванием неподвижной позы руки
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
GB2523077A (en) * 2013-12-23 2015-08-19 Light Blue Optics Ltd Touch sensing systems
JP2015125705A (ja) * 2013-12-27 2015-07-06 船井電機株式会社 画像表示装置
KR20150081840A (ko) * 2014-01-07 2015-07-15 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR102214437B1 (ko) 2014-01-10 2021-02-10 삼성전자주식회사 컴퓨팅 디바이스에서 컨텐츠 복사 실행 방법, 컨텐츠 붙여넣기 실행 방법 및 컴퓨팅 디바이스
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
US20150205358A1 (en) * 2014-01-20 2015-07-23 Philip Scott Lyren Electronic Device with Touchless User Interface
CN104881215A (zh) * 2014-02-27 2015-09-02 联想(北京)有限公司 电子设备的控制方法、控制装置及电子设备
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10120420B2 (en) 2014-03-21 2018-11-06 Microsoft Technology Licensing, Llc Lockable display and techniques enabling use of lockable displays
EP3123751B1 (en) 2014-03-28 2019-11-06 AutoGraph, Inc. Beacon based privacy centric network communication, sharing, relevancy tools and other tools
CN103919359A (zh) * 2014-04-03 2014-07-16 安徽海聚信息科技有限责任公司 一种矫正坐姿的智能书桌及其矫正方法
CN103908066A (zh) * 2014-04-03 2014-07-09 安徽海聚信息科技有限责任公司 一种矫正坐姿的智能书桌及其矫正方法
US9575508B2 (en) 2014-04-21 2017-02-21 Apple Inc. Impact and contactless gesture inputs for docking stations
US10579207B2 (en) 2014-05-14 2020-03-03 Purdue Research Foundation Manipulating virtual environment using non-instrumented physical object
WO2015181163A1 (en) * 2014-05-28 2015-12-03 Thomson Licensing Method and system for touch input
US10146318B2 (en) 2014-06-13 2018-12-04 Thomas Malzbender Techniques for using gesture recognition to effectuate character selection
JP2016021229A (ja) * 2014-06-20 2016-02-04 船井電機株式会社 入力装置
CN118192869A (zh) 2014-06-27 2024-06-14 苹果公司 尺寸减小的用户界面
US10324733B2 (en) 2014-07-30 2019-06-18 Microsoft Technology Licensing, Llc Shutdown notifications
TWI536202B (zh) * 2014-07-30 2016-06-01 緯創資通股份有限公司 觸控裝置及其控制方法與判斷解鎖的方法
US9692968B2 (en) 2014-07-31 2017-06-27 Invisage Technologies, Inc. Multi-mode power-efficient light and gesture sensing in image sensors
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US9872178B2 (en) 2014-08-25 2018-01-16 Smart Technologies Ulc System and method for authentication in distributed computing environments
WO2016036510A1 (en) 2014-09-02 2016-03-10 Apple Inc. Music user interface
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
CN106716328A (zh) * 2014-09-16 2017-05-24 惠普发展公司,有限责任合伙企业 生成用于离散光标移动的触摸输入特征
US9904463B2 (en) * 2014-09-23 2018-02-27 Sulake Corporation Oy Method and apparatus for controlling user character for playing game within virtual environment
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
CN107079126A (zh) 2014-11-13 2017-08-18 惠普发展公司,有限责任合伙企业 图像投影
KR102380228B1 (ko) * 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
CN104376100B (zh) * 2014-11-25 2018-12-18 北京智谷睿拓技术服务有限公司 搜索方法及装置
US20160202865A1 (en) 2015-01-08 2016-07-14 Apple Inc. Coordination of static backgrounds and rubberbanding
US10362944B2 (en) 2015-01-19 2019-07-30 Samsung Electronics Company, Ltd. Optical detection and analysis of internal body tissues
JP6561400B2 (ja) * 2015-02-10 2019-08-21 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6603024B2 (ja) 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6534011B2 (ja) 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
CN104834412B (zh) * 2015-05-13 2018-02-23 深圳市蓝晨科技股份有限公司 一种基于非接触式的手势识别的触摸终端
US10126636B1 (en) * 2015-06-18 2018-11-13 Steven Glenn Heppler Image projection system for a drum
EP3326052A1 (en) * 2015-07-20 2018-05-30 Bang & Olufsen A/S Apparatus and method for detecting gestures on a touchpad
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
KR101745651B1 (ko) * 2016-03-29 2017-06-09 전자부품연구원 손 제스처 인식 시스템 및 방법
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
US10838504B2 (en) 2016-06-08 2020-11-17 Stephen H. Lewis Glass mouse
US11340710B2 (en) 2016-06-08 2022-05-24 Architectronics Inc. Virtual mouse
JP6772580B2 (ja) * 2016-06-24 2020-10-21 セイコーエプソン株式会社 電子機器、制御プログラム
CN107589827B (zh) * 2016-07-07 2021-07-02 深圳市掌网科技股份有限公司 一种可识别手势的虚拟现实头盔及其手势识别方法
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US10289300B2 (en) * 2016-12-28 2019-05-14 Amazon Technologies, Inc. Feedback animation for touch-based interactions
US10922743B1 (en) 2017-01-04 2021-02-16 Amazon Technologies, Inc. Adaptive performance of actions associated with custom user interface controls
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US10593240B2 (en) 2017-06-08 2020-03-17 Medos International Sàrl User interface systems for sterile fields and other working environments
LU100389B1 (en) * 2017-09-05 2019-03-19 Luxembourg Inst Science & Tech List Human-computer interface comprising a token
JP6418299B1 (ja) * 2017-09-15 2018-11-07 株式会社セガゲームス 情報処理装置及びプログラム
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN110611732B (zh) * 2018-06-15 2021-09-03 Oppo广东移动通信有限公司 视窗控制方法及相关产品
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
JP2020135587A (ja) * 2019-02-22 2020-08-31 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
CN110275611B (zh) * 2019-05-27 2023-02-17 联想(上海)信息技术有限公司 一种参数调节方法、装置和电子设备
EP4134811A1 (en) 2019-05-31 2023-02-15 Apple Inc. User interfaces for audio media control
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11516374B2 (en) 2019-06-05 2022-11-29 Synaptics Incorporated Under-display image sensor
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11153513B2 (en) * 2019-08-19 2021-10-19 Synaptics Incorporated Light source for camera
US11076080B2 (en) 2019-12-05 2021-07-27 Synaptics Incorporated Under-display image sensor for eye tracking
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
CN111722710B (zh) * 2020-06-02 2024-06-25 广东小天才科技有限公司 开启增强现实ar互动学习模式的方法及电子设备
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11803247B2 (en) 2021-10-25 2023-10-31 Kyndryl, Inc. Gesture-based control of plural devices in an environment
US11899846B2 (en) * 2022-01-28 2024-02-13 Hewlett-Packard Development Company, L.P. Customizable gesture commands
KR102437930B1 (ko) * 2022-04-19 2022-08-30 (주) 아하 디스플레이 공정에서 비접촉 제스처를 인식하는 방법 및 그를 이용한 디스플레이 기기

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298016A (ja) * 1992-02-14 1993-11-12 Itu Res Inc グラフィックス用入力機器
JPH0784714A (ja) * 1993-06-29 1995-03-31 Casio Comput Co Ltd コマンド処理装置
JPH07129312A (ja) * 1993-11-05 1995-05-19 Oki Electric Ind Co Ltd 画像処理装置
JPH08211979A (ja) * 1995-02-02 1996-08-20 Canon Inc 手振り入力装置及び方法
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JP2000222097A (ja) * 1996-10-18 2000-08-11 Toshiba Corp 固体撮像装置
JP2002032193A (ja) * 2000-07-17 2002-01-31 Nec Corp 座標入力システム、座標入力方法および座標入力用プログラムを記録した記録媒体
JP2003532216A (ja) * 2000-05-01 2003-10-28 トゥルバート、デビッド、ジェイ. ヒューマン・マシーンインターフェイス
JP2004046311A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間におけるジェスチャ入力方法およびその装置
JP2004161253A (ja) * 2002-08-07 2004-06-10 Trw Automot Electronics & Components Gmbh & Co Kg 車輛のクルーズ制御装置用の操作装置

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4992650A (en) 1990-03-29 1991-02-12 International Business Machines Corporation Method and apparatus for barcode recognition in a digital image
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5319214A (en) 1992-04-06 1994-06-07 The United States Of America As Represented By The Secretary Of The Army Infrared image projector utilizing a deformable mirror device spatial light modulator
US5821930A (en) 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5436639A (en) 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
US5526177A (en) 1994-02-14 1996-06-11 Mobi Corporation Dual-view, immersible periscope
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JP3416268B2 (ja) 1994-06-30 2003-06-16 キヤノン株式会社 画像認識装置及びその方法
US5835692A (en) 1994-11-21 1998-11-10 International Business Machines Corporation System and method for providing mapping notation in interactive video displays
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US5831601A (en) 1995-06-07 1998-11-03 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US5920688A (en) 1995-11-13 1999-07-06 International Business Machines Corporation Method and operating system for manipulating the orientation of an output image of a data processing system
US6750877B2 (en) 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
IL119498A (en) 1996-10-27 2003-02-12 Advanced Recognition Tech Application launching system
FR2756077B1 (fr) 1996-11-19 1999-01-29 Opto System Ecran tactile et dispositif de visualisation utilisant cet ecran tactile
ATE232621T1 (de) 1996-12-20 2003-02-15 Hitachi Europ Ltd Verfahren und system zur erkennung von handgesten
US6266061B1 (en) 1997-01-22 2001-07-24 Kabushiki Kaisha Toshiba User interface apparatus and operation range presenting method
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US5940076A (en) 1997-12-01 1999-08-17 Motorola, Inc. Graphical user interface for an electronic device and method therefor
JP2938420B2 (ja) 1998-01-30 1999-08-23 インターナショナル・ビジネス・マシーンズ・コーポレイション ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体
US5973315A (en) 1998-02-18 1999-10-26 Litton Systems, Inc. Multi-functional day/night observation, ranging, and sighting device with active optical target acquisition and method of its operation
US6154214A (en) 1998-03-20 2000-11-28 Nuvomedia, Inc. Display orientation features for hand-held content display device
US6448987B1 (en) 1998-04-03 2002-09-10 Intertainer, Inc. Graphic user interface for a digital content delivery system using circular menus
US7268774B2 (en) 1998-08-18 2007-09-11 Candledragon, Inc. Tracking motion of a writing instrument
US6088482A (en) 1998-10-22 2000-07-11 Symbol Technologies, Inc. Techniques for reading two dimensional code, including maxicode
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6522395B1 (en) 1999-04-30 2003-02-18 Canesta, Inc. Noise reduction techniques suitable for three-dimensional information acquirable with CMOS-compatible image sensor ICS
US6433907B1 (en) 1999-08-05 2002-08-13 Microvision, Inc. Scanned display with plurality of scanning assemblies
US6529183B1 (en) 1999-09-13 2003-03-04 Interval Research Corp. Manual interface combining continuous and discrete capabilities
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP2001183994A (ja) 1999-12-27 2001-07-06 Sony Corp 画像表示装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
JP2001337978A (ja) 2000-05-26 2001-12-07 Takashi Mine デジタル情報入力システム
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US6812907B1 (en) 2000-07-19 2004-11-02 Hewlett-Packard Development Company, L.P. Segmented electronic display
US7161578B1 (en) 2000-08-02 2007-01-09 Logitech Europe S.A. Universal presentation device
US6791530B2 (en) 2000-08-29 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Circular graphical user interfaces
US6781069B2 (en) 2000-12-27 2004-08-24 Hewlett-Packard Development Company, L.P. Method and apparatus for virtual interaction with physical documents
US6925611B2 (en) 2001-01-31 2005-08-02 Microsoft Corporation Navigational interface for mobile and wearable computers
US6520648B2 (en) 2001-02-06 2003-02-18 Infocus Corporation Lamp power pulse modulation in color sequential projection displays
US6959102B2 (en) 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
US20040005920A1 (en) 2002-02-05 2004-01-08 Mindplay Llc Method, apparatus, and article for reading identifying information from, for example, stacks of chips
US7305115B2 (en) 2002-02-22 2007-12-04 Siemens Energy And Automation, Inc. Method and system for improving ability of a machine vision system to discriminate features of a target
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
AU2003262746A1 (en) 2002-08-20 2004-03-11 Fusionarc, Inc. Method of multiple algorithm processing of biometric data
US7120280B2 (en) 2002-09-27 2006-10-10 Symbol Technologies, Inc. Fingerprint template generation, verification and identification system
US20060034492A1 (en) 2002-10-30 2006-02-16 Roy Siegel Hand recognition system
US7390092B2 (en) 2002-11-08 2008-06-24 Belliveau Richard S Image projection lighting devices with visible and infrared imaging
US6840627B2 (en) 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
CN100397421C (zh) 2003-03-07 2008-06-25 日本电信电话株式会社 生物测量图像对照设备及其对照方法
JP2004304718A (ja) 2003-04-01 2004-10-28 Nara Institute Of Science & Technology 近接領域画像抽出装置及び近接領域画像抽出方法
US7379562B2 (en) 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US20050227217A1 (en) 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
CA2563478A1 (en) 2004-04-16 2005-10-27 James A. Aman Automatic event videoing, tracking and content generation system
US7310085B2 (en) 2004-04-22 2007-12-18 International Business Machines Corporation User interactive computer controlled display system enabling a user remote from a display screen to make interactive selections on the display screen with a laser beam projected onto the display screen
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7787706B2 (en) 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7576725B2 (en) 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
US7813597B2 (en) 2005-03-18 2010-10-12 The Invention Science Fund I, Llc Information encoded in an expression
US7499027B2 (en) 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US7525538B2 (en) 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US20070063981A1 (en) 2005-09-16 2007-03-22 Galyean Tinsley A Iii System and method for providing an interactive interface
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298016A (ja) * 1992-02-14 1993-11-12 Itu Res Inc グラフィックス用入力機器
JPH0784714A (ja) * 1993-06-29 1995-03-31 Casio Comput Co Ltd コマンド処理装置
JPH07129312A (ja) * 1993-11-05 1995-05-19 Oki Electric Ind Co Ltd 画像処理装置
JPH08211979A (ja) * 1995-02-02 1996-08-20 Canon Inc 手振り入力装置及び方法
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JP2000222097A (ja) * 1996-10-18 2000-08-11 Toshiba Corp 固体撮像装置
JP2003532216A (ja) * 2000-05-01 2003-10-28 トゥルバート、デビッド、ジェイ. ヒューマン・マシーンインターフェイス
JP2002032193A (ja) * 2000-07-17 2002-01-31 Nec Corp 座標入力システム、座標入力方法および座標入力用プログラムを記録した記録媒体
JP2004046311A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間におけるジェスチャ入力方法およびその装置
JP2004161253A (ja) * 2002-08-07 2004-06-10 Trw Automot Electronics & Components Gmbh & Co Kg 車輛のクルーズ制御装置用の操作装置

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
JP4689684B2 (ja) * 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
JP2008529135A (ja) * 2005-01-21 2008-07-31 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
JP2017107577A (ja) * 2007-01-03 2017-06-15 アップル インコーポレイテッド マルチタッチ入力の弁別
KR100862349B1 (ko) 2007-01-08 2008-10-13 전자부품연구원 제스처 인식 기능을 이용한 반투과 거울 기반 사용자인터페이스 시스템
JP2008193563A (ja) * 2007-02-07 2008-08-21 Nec Design Ltd 撮像装置、再生装置、撮像方法、再生方法及びプログラム
JP2016035784A (ja) * 2007-09-28 2016-03-17 イマージョン コーポレーションImmersion Corporation 動的な触覚効果を有するマルチタッチデバイス
JP2017021853A (ja) * 2008-03-12 2017-01-26 イマージョン コーポレーションImmersion Corporation 触覚的にイネーブルにされるユーザインタフェース
US10338798B2 (en) 2008-03-12 2019-07-02 Immersion Corporation Haptically enabled user interface
JP2014199671A (ja) * 2008-03-12 2014-10-23 イマージョン コーポレーションImmersion Corporation 触覚的にイネーブルにされるユーザインタフェース
US9513704B2 (en) 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
JP2009294715A (ja) * 2008-06-02 2009-12-17 Everspring Industry Co Ltd 赤外線検出を利用した電子装置制御方法
JP2010055177A (ja) * 2008-08-26 2010-03-11 Nec Corp 情報処理端末のアプリケーション起動方法、情報処理端末及びプログラム
JP2012502344A (ja) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー. 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
WO2010030077A3 (ko) * 2008-09-10 2010-06-24 Kim Hyun Kyu 터치 스크린 장치 및 스크린 상에서의 상황 인지적 인식을 통한 사용자 정보 입력방법
WO2010030077A2 (ko) * 2008-09-10 2010-03-18 Kim Hyun Kyu 터치 스크린 장치 및 스크린 상에서의 상황 인지적 인식을 통한 사용자 정보 입력방법
US9639744B2 (en) 2009-01-30 2017-05-02 Thomson Licensing Method for controlling and requesting information from displaying multimedia
JP2010258878A (ja) * 2009-04-27 2010-11-11 Mitsubishi Electric Corp 映像監視システム
JP2011076563A (ja) * 2009-10-02 2011-04-14 Mitsubishi Electric Corp 監視制御装置の端末装置
JP2013518349A (ja) * 2010-01-26 2013-05-20 アップル インコーポレイテッド ジェスチャ認識を制御及び変更するためのデリゲートを有するジェスチャ・レコグナイザ
JP2013538472A (ja) * 2010-06-10 2013-10-10 クアルコム,インコーポレイテッド ジェスチャーおよび/または位置に基づく情報のプリフェッチ
US8874129B2 (en) 2010-06-10 2014-10-28 Qualcomm Incorporated Pre-fetching information based on gesture and/or location
JP2012027796A (ja) * 2010-07-26 2012-02-09 Canon Inc 情報処理装置及びその制御方法
JP2014503903A (ja) * 2010-12-23 2014-02-13 インテル・コーポレーション ウェブブラウザ上でコンテンツと相互作用する方法、装置、及びシステム
US11204650B2 (en) 2010-12-23 2021-12-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
US10802595B2 (en) 2010-12-23 2020-10-13 Intel Corporation Method, apparatus and system for interacting with content on web browsers
US9575561B2 (en) 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
US9613261B2 (en) 2011-04-29 2017-04-04 Microsoft Technology Licensing, Llc Inferring spatial object descriptions from spatial gestures
JP2014517957A (ja) * 2011-04-29 2014-07-24 マイクロソフト コーポレーション 空間ジェスチャからの空間オブジェクト説明の推測
JP2015505393A (ja) * 2011-12-09 2015-02-19 マイクロチップ テクノロジー ジャーマニー ツー ゲーエ 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス
JP2013127753A (ja) * 2011-12-19 2013-06-27 Sharp Corp 情報処理装置の入力方法、及び情報処理装置
JP2014199492A (ja) * 2013-03-29 2014-10-23 株式会社ジャパンディスプレイ 電子機器および電子機器の制御方法
JP2015132906A (ja) * 2014-01-10 2015-07-23 アルパイン株式会社 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム
JP2022524831A (ja) * 2019-03-20 2022-05-10 キャピタル・ワン・サービシーズ・リミテッド・ライアビリティ・カンパニー コンテクストタッピングエンジン

Also Published As

Publication number Publication date
EP1615109A3 (en) 2006-10-04
EP1615109B1 (en) 2017-08-23
JP4842568B2 (ja) 2011-12-21
US20060010400A1 (en) 2006-01-12
US7519223B2 (en) 2009-04-14
EP1615109A2 (en) 2006-01-11

Similar Documents

Publication Publication Date Title
JP4842568B2 (ja) ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用
US11954265B2 (en) Enhanced input using recognized gestures
US11048333B2 (en) System and method for close-range movement tracking
US8514251B2 (en) Enhanced character input using recognized gestures
US10268339B2 (en) Enhanced camera-based input
US7535463B2 (en) Optical flow-based manipulation of graphical objects
JP5330473B2 (ja) 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム
US8669958B2 (en) Method and apparatus continuing action of user gestures performed upon a touch sensitive interactive display in simulation of inertia
US9910498B2 (en) System and method for close-range movement tracking
US20080040692A1 (en) Gesture input
JP2013037675A5 (ja)
JP2018505455A (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
KR20110038120A (ko) 펜 추적을 포함하는 멀티-터치 터치스크린
Geer Will gesture recognition technology point the way?
Athira Touchless technology
Chen Universal motion-based control and motion recognition
李雲奭 Finger identification-based hand gestures and point cloud-based 3D motion gestures for Natural User Interfaces

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111006

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees