JP2008293501A - 改良型のワイヤレス式制御デバイス - Google Patents

改良型のワイヤレス式制御デバイス Download PDF

Info

Publication number
JP2008293501A
JP2008293501A JP2008135177A JP2008135177A JP2008293501A JP 2008293501 A JP2008293501 A JP 2008293501A JP 2008135177 A JP2008135177 A JP 2008135177A JP 2008135177 A JP2008135177 A JP 2008135177A JP 2008293501 A JP2008293501 A JP 2008293501A
Authority
JP
Japan
Prior art keywords
control device
wireless control
operator
emitter
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008135177A
Other languages
English (en)
Inventor
Robert B Howard
ハワード,ロバート・ビー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harmonic Res Inc
Original Assignee
Harmonic Res Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harmonic Res Inc filed Critical Harmonic Res Inc
Publication of JP2008293501A publication Critical patent/JP2008293501A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/211Wireless transmission, e.g. of music parameters or control data by radio, infrared or ultrasound

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ポインティングを快適、精細に制御できるワイヤレスデバイスを提供する。
【解決手段】ワイヤレス式制御デバイスは、自分の手首に装着する小型で軽量のハウジングと、PCなどの制御式デバイスとを含む。このハウジングには、幾つかの光放出体と幾つかの光学検出器とを設ける。少なくとも1つのx軸放出体-検出器対はポインティング動作又は身振りのx方向を検出するように動作しており、また少なくとも1つのy軸放出体−検出器対はポインティング動作又は身振りのy方向を検出するように動作する。次いで、この動きを用いて制御式デバイス内に応答を生じさせる。例えば、コンピュータディスプレイ上でカーソルの動きを誘導するように手首位置におけるオペレータの手の角度を解釈する。このデバイスは更に、動きセンサ、環境状態センサ、又は音声認識センサを含むことがあり、また身振り認識及び画像スキャン用途向けに適応させることも可能である。
【選択図】図1

Description

本発明は、一般的には、ユーザと制御式デバイスの間のインタフェースを提供するような可搬式の選択的データ取り込みおよび選択的制御デバイスに関し、さらに詳細には、データ処理装置、楽器、コミュニケーションデバイスなどのデバイスにデータまたは制御入力を提供する一方で、ユーザのその他の挙動に伴う動きに影響されずかつ干渉を最小にできるような機構(arrangement)に関する。
本出願は、米国特許仮出願第60/040,502号の優先権を主張する1998年3月6日に提出の米国特許出願第09/035,983号(現在の米国特許第6,097,374号)、ならびに米国特許仮出願第60/159,611号の優先権を主張する2000年10月13日に提出の米国特許出願第09/689,659号に関連しており、これらはすべて参照によってその全体を本明細書に組み込むものとする。
複数の機能が可能な大部分の機械的かつ電気的なデバイスでは、これらの機能の間での選択ならびに選択した機能の開始および終了に関するユーザ制御が必要であり、こうした制御を提供している。一般に、ユーザの選択および/または制御をデバイスに伝達するためには、任意の広がりをもつキーパッドまたはキーボードに類似した複数のボタンを選択機構としている。近年では、ポインティングデバイスや音声応答システムなど別の機構が比較的広範に使用されるようになっている。さらに、そのユーザに関する生理学的情報などの収集データによる制御および/または選択を可能にするような幾つかのシステムも提供されている。選択や制御のためのキーストロークと同様の方式で使用可能な信号を発生させるために、たとえば眼の動きや神経系の活動(たとえば、EEG、EKG、血圧、電気神経的な筋肉活動、その他)を監視することができる。しかし、代替的な入力機構は一般に、単独で使用可能なスタンドアロン型システムとして、あるいはキーボードに対する捕捉として、互いに排他性の方式で実現させている。
しかし、キーボードは一般に、人間のユーザが長時間にわたって動作するのに十分適しておらず、また上で言及したような代替的機構では一般にある程度の不便さ、応答の遅さ、ユーザのかなりの訓練および適応、および/または十分なデータ処理リソースが不可欠である。いわゆる人間工学的設計の特徴によっても、人間の使用に適応させる際の改良は極くわずかである。さらに、幾つかの可搬式デバイスや装着可能なデバイスが知られているが、これらのデバイスは一般に、パーソナルコンピュータの単独のキーボードやマウス、または別のポインティング機構などの単一の装置に対する単一タイプの入力に対する専用である。たとえば、マウス内で使用されているような転動部材をキーボードの下面に取り付け、このキーボード全体を1つの面に沿ってスライドさせることによってポインティングを制御し、これによってポインティングとデータ入力機能の両者に関する利便性を折衷させているような機構が知られている。
注目すべき特例の1つは本発明の発明者に対して許可されている上で援用した米国特許第6,097,374号に開示されている。該特許に開示されているように、小型かつ軽量のハウジングを手首に装着することが好ましく、またこのハウジングは指向性をもつ複数の発光デバイスを含んでいる。このハウジングは、光の放出方向と概して平行に延びるような指向性の受光体からなる実質的に直線状のアレイを支持すると共に、これと実質的に直角に光を受け取っており、したがって、監視可能であると共に、指または別の付属部が指向性の光放出体および受光体によって画定されるマトリックス内の任意の箇所まで移動したときに互いに区別が可能な位置からなるマトリックスが提供される。
この機構はさらに、ポインティング機構を制御するための手の動き(たとえば、向き、速度その他)に応答してポインティングデバイスを制御するため、あるいは楽器用ディジタルインタフェース(MIDI)に対して音量またはテンポなどのその他の入力パラメータを提供するために少なくとも2つの方向に対する動きセンサ、ならびに所望であれば、音声または別の音響信号入力を受け取るためのマイクロフォンおよび付属の回路を含んでいる。これらの機構が発生させたすべての情報は、テレビジョンやその他の電気器具用のリモート制御機構に類似した変調式の光または電波通信リンクによって、パーソナルコンピュータや楽器などの別のデバイスまたはベースステーションに伝達される。
しかし、この関連したデバイスであっても、他の既存のデバイスと同様に、本質的にその能力が制約される。たとえば、ポインティング指示で手の動きを追跡するために加速度計やジャイロスコープなどの動きセンサを使用するには、カーソルを制御するために幅広く大げさな手の動きが必要となる。したがって、ポインティング指示で必要となる動きの範囲を容易にするように手を腕で支持しなければならなくなる。このため、ユーザを極度に不快にさせまた疲労させることになりかねない。さらにこれでは、従来のコンピュータマウスを使用することによって達成されるようなカーソル制御の微細な検知を提供できない。さらに、既存のデバイスは一般にキャラクタレベルのデータエントリに制限されており、またこのデータエントリは手の向きに対して極度に影響を受けやすい。このためさらに、既存のデバイスの有用性が制約される。
したがって、本発明の目的は、その構造、情報取り込み、機能、および極めて大きな多様性をもつ用途に対する適応性に関して、上で援用した米国特許第6,097,379号に開示されかつ特許請求された発明の機能増強を提供することである。
本発明の別の目的は、米国特許第6,097,379号の発明の機能、ならびにユーザの別の動作に関する適応を高めた追加的な機能を提供することである。
本発明のまた別の目的は、ユーザがポインティング指示を快適かつ精細に制御できるようなワイヤレス式制御デバイスを提供することである。
本発明のさらに別の目的は、ユーザが行った身振りを検出しかつ解釈することが可能なワイヤレス式制御デバイスを提供することである。
本発明のさらに別の目的は、ユーザまたはユーザの身体の一部分の位置と独立に入力を受け取ることが可能なワイヤレス式制御デバイスを提供することである。
本発明のさらに別の目的は、本来的に無菌的かつ安全な操作が可能な入力デバイスを提供することである。
本発明のさらに別の目的は、追加的な自由度ならびに対応する追加的タイプの入力情報を検出することが可能な入力デバイスを提供することである。
本発明のこれらおよびその他の目的を達成するために、オペレータが装着する小型で軽量のハウジングと、たとえばパーソナルコンピュータなどの制御式デバイスと、を設けている。このハウジング上には、好ましくは赤外線領域で動作する発光ダイオードであるような幾つかの光放出体、ならびに幾つかの光学検出器を設けている。これら放出体および検出器は、デバイスのgo/no−go動作のために単一面内に設けることができる。別法として、これら放出体および検出器はハウジングの2つの面内に配置させることができ、これによってデバイスは、デバイスのキーの閉鎖や動きまたは向きだけではなく、手の位置および方向を分析することができる。少なくとも1つのx軸放出体−検出器対はポインティング動作または身振りのx方向を検出するように動作し、また少なくとも1つのy軸放出体−検出器対はポインティング動作または身振りのy方向を検出するように動作している。本発明の好ましい実施形態では、そのハウジングをオペレータの手首に装着すると共に、その放出体−検出器対によってオペレータの手の手首位置での角度を検出している。次いで、この動きを用いて制御式デバイス内に応答を生じさせることができる。たとえば、オペレータがまるで従来のコンピュータマウスを用いているかの様にして、そのポインティング動作または身振りをコンピュータディスプレイ上のカーソルの動きに対応させることができる。この光学的ポインティングの実施形態は、ジョイスティック様の方式やマウス様のポインティングストローク方式のいずれの方式でも動作させることができる。このハウジングはさらに、任意選択では、加速度計またはジャイロスコープなどの動き検出器、環境状態センサ、または音声認識センサを含むことがある。
本発明はさらに、たとえば手の位置および向きに対する時間領域分析を画像認識機能と組み合わせることによって身振り認識のために使用することができる。手の動きは、手に関する時間の経過を追った一連なりの画像となるように分析させることができ、次いでこれらの画像は、ルックアップテーブルとして機能するようなコンテンツアドレス可能メモリ内に画像として格納してある身振りなど、身振りに関する事前プログラムしたライブラリと相関させることができる。身振りの認識によって、本発明をキャラクタレベルのデータエントリのためだけではなく、単語レベルおよびフレーズレベルのデータエントリのためにも利用できるようになる。さらに、この身振り認識は、異なるコンテキストで行われた同じ身振りが、同じ制御式デバイスによって異なる応答につながるように、あるいは全体的に異なる制御式デバイス内で同じ応答となるように、コンテキスト依存とさせることができる。身振り認識能力を使用するとさらに要求モードを実現させることができ、これによってそのデバイスをユーザの要求に応じてオンやオフに切り替えることができる。
画像を2次元または3次元でスキャンするために本発明を利用することも企図される。このオーバースキャン機能を用いると、ユーザに対してデバイスの物理的特性に合わせるように要求することなしに、そのデバイスにユーザの特定の生理学的幾何形状を学習させかつ該形状に適応させることができる。さらにこれは、リアルタイム式使用またはアーカイブ使用のためにユーザの身体の一部以外の関心対象物体をスキャンするために用いることができる。
このデバイスによれば物理的デバイスに全く接触することなくデータエントリおよびカーソル制御が可能となるため、本発明は無菌環境で使用するのによく適している。さらに、機械的相互作用がないため、スパークの可能性が排除されると共に、燃えやすい環境における本発明の使用を適切とさせている。さらに、このデバイスによって、手根管症候群(carpal tunnel syndrome)や繰返し応力損傷などのある種の医学的状態の発現が回避されると共に、さまざまな身体的ハンディキャップを有する人々による使用に適応させることができる。
上述およびその他の目的、態様および利点は、本発明の好ましい実施形態に関する図面を参照した詳細な説明からより十分な理解が得られよう。
ここで図面、より具体的には図1および2を参照すると、改良型のワイヤレス式制御デバイス10の例示的で一般化した応用を表している。オペレータ20は少なくとも一方の手首または身体上の別の好都合な部位に小型で軽量のハウジング22を装着している。通常キーボードの操作に使用されている指の近傍にあることから手首が好ましい。しかし本発明は、利便性、身体的ハンディキャップなどにオペレータを対応させるような希望に応じて、その基本的動作原理に従った自由な適応が可能である。制御式デバイス24を設けており、この制御式デバイス24は、符号化した信号の伝送に適した光あるいは別のエネルギー形態に対するセンサ26を含んでいる。制御式デバイス24(以下では、普遍的とするためにベースステーションと呼ぶ)はさらに、符号化した信号30の受信やその内容の認識を確認するために、ディスプレイまたは電子ブザーや音声合成装置といったオーディオ信号表示器などのトランスジューサ28を含むことが好ましい。別法として、その信号表示はハウジング22内に入れることが可能であり、また信号ベースユニット24からの光信号に応答することが可能である(たとえば、ハウジング22は信号を受信するとビープ音を発生させることが可能である)。
全体として図2に示しており、また上で言及した関連する特許および出願でより詳細に説明しているように、赤外線領域で動作する発光ダイオード(「LED」)であることが好ましいようなハウジング22上の光放出体32は、オペレータの手のひらと概して平行に輪郭が鮮明なエネルギービーム34をある限定された立体角にわたって放出している。このビームの立体角は、オペレータの指先と比べてより近くにあるハウジング22からある距離においてこの照射領域が重複しないように限定させることが好ましい。したがって、キーボード上でキーを押すのと同様の動きで指を動かすなど、オペレータの手の動きによって、オペレータの指先をビーム34によって照射させることになる。この照射は、オペレータの指先から反射され(34a)、さらに検出器36によりハウジング22上で検出されている。したがって、反射した光ビーム34aを放出された光ビーム34と相関させることによって、任意の指やその他の物体の配置は検出するのみならず、別の任意の位置と区別することができ、また符号化した適当な信号30をハウジング22からベースステーション24に送信することができる。符号化した信号30は光放出体32のうちの1つによって送信することや、別の信号放出体38によって送信することができる。
簡略とするためには、時間多重方式で継続して光放出体32を付勢させることが好ましいが、当業者であれば、周波数変調やパルス幅コーディングなどの別の手段によって反射されたビーム34aを区別することができることを理解されよう。デバイス10に対する意図した使用法に応じて、ハウジング22は、任意選択において、加速度計またはジャイロスコープなどオペレータ20の身体部分の空間的な動きを検出するための動きセンサ40と、環境状態センサ42と、を含むことがある。環境状態センサ42は、デバイス10の具体的な用途による要求に応じて血圧、湿度、温度および気圧(ただし、これらに限らない)を含め環境的や生理学的な多くの任意の状態を計測するように適合させることができる。さらに、音声認識センサ43を設けることがある。
図3は、コンピュータ画面上でカーソルを動かすためなど、パーソナルコンピュータのユーザによく知られたマウスの方式とよく似た(すなわち、手首位置での手の角度に基づく)光学的ポインティングに適合させたデバイス10の実施形態の1つを表している。しかし、当業者であれば本発明の光学的ポインティング指示は、カーソルポインティングに限定されないことが理解されよう。少なくとも1つのx軸放出体−検出器対44および少なくとも1つのy軸放出体−検出器対46はハウジング22上に設けている。x軸放出体−検出器対44の放出体は、手のナイフエッジ(すなわち、手の小指と反対側のエッジ)を扇形状のx軸ビーム48で照射するような向きとしている。同様に、y軸放出体−検出器対46の放出体は手掌基部を扇形状のy軸ビーム50で照射するような向きとしている。扇形状ビーム48および50を使用しているため以下で記載するように手首角度の計測に対する手の表面の直交する動きの影響が軽減される。この照射は手から反射されて放出体−検出器対44および46の検出器の方向に戻される。したがって、手のナイフエッジから反射される光はx軸対44内の検出器によって検出され、一方手掌基部によって反射される光はy軸対46内の検出器によって検出される。次いで、デバイス10は上述した方式で、反射されたビーム48および50の大きさを特定の手の位置として解釈すると共に、これに応じて対応するカーソルの動きを発生させることができる。
手首位置における手の角度によって対44および46の検出器のそれぞれによって検出したビーム48および50の反射の大きさが判定され、また一方、検出したこの大きさによって、応答するカーソルの動きの方向および持続時間が判定される。たとえば、オペレータ20が自分の手を手首の位置で外向きの角度にする(すなわち、小指と前腕の間の角度を小さくするように矢印aの方向に向ける)と、x軸対44によって検出される反射の大きさが増加すると共に、x方向においてカーソルの対応する動きが起こる。同様に、オペレータ20が自分の手を手首の位置で上向きの角度にする(すなわち、手の甲と前腕の間の角度を小さくするように紙面に向かう矢印bの方向に向ける)と、y軸対46によって検出される反射の大きさが減少し、これによってy方向においてカーソルの対応する動きが起こる。
デバイス10を使用している間でのカーソルの意図しない動きを排除するために利用できる方法は多種多様にある。たとえば、不注意による手の微小な動きなどのバックグラウンドノイズを低下するために、反射されたビーム48および50の大きさを時間平均している。さらに、x、yおよびz方向において、その値未満ではカーソルに対して動きを全く伝達しないようなしきい値を設定することができ、これによってカーソルが手の微小な動きに応答する確率をさらに低下させている。別法として、以下で検討するような要求モードを利用するために、音響式や音声式の作動、あるいはある特定の腕の動き(たとえば、マウスをつかもうとするかの様な動き)を利用することが可能であり、またはこれらを組み合わせて利用することが可能である。特定の動きまたは身振りに対する適正な応答は、当業者によく知られるような任意の適応性機構を使用することによって生成することができる。
環境による干渉およびシステムのノイズを拒絶する一方で振幅を計測する間での一貫した結果を得るためには相関技法を用いている。たとえば蛍光灯などの高調波性の干渉に対する影響の受けやすさは、たとえば、スキャンを受けるアクティブなLED放出体を疑似ランダムなシーケンスを用いて駆動させかつ反射された光の大きさを解読し、これによって「オン」振幅対「オフ」振幅の平均値を判定することによって、低下させることができる。
腕の動きを検出するための加速度計またはジャイロスコープを利用するのではなく、手の動きを検出するための光放出体−検出器対44および46を利用することによって、本発明は、既存のデバイスに対して多くの利点を実現している。たとえば、コンピュータ画面上にカーソルの動きを誘導させるために、幅広で大げさな手の動きをもはや必要としておらず、一方、カーソルの動きを手首位置における手の角度に対して高感度にさせることによって光学的ポインティングはユーザに対してより精細な制御感覚を提供している。したがって、本発明を利用すると、前腕は手を空中で支持するために使用するのではなく、くつろいだ位置においた状態とすることができる。このため、ユーザにとって疲労がより少なくかつより好都合であるだけでなく、動きセンサ(含んでいる場合)によって所望の任意の目的のための追加的な入力データを提供できる一方で、カーソルに関して従来のコンピュータマウスを用いたとした場合と同様のさらに精密な制御をユーザに対して提供することができる。光放出体−検出器対44および46は、加速度計やジャイロスコープの場合のようには、地球の重力やこれによる仰角の影響を受けないことによって精密さがさらに向上する。さらに、本発明による光学的ポインティングの実施形態は、加速度計またはジャイロスコープを利用している既存のデバイスと比べてかなり廉価である。しかし、当業者であれば、単に手首位置における手の角度だけを追跡するのではなく手全体の動きを追跡することが望ましいような用途では、加速度計またはジャイロスコープを本発明による光学的ポインティングの実施形態と組み合わせて使用することによって、上で言及したようにさらに大きな融通性を達成することができることが理解されよう。
上述のように、本発明による光学的ポインティングの実施形態はジョイスティック様のモードで動作する。すなわち、手はホームポジションを有すると共に、x方向またはy方向におけるこのホームポジションからの変位によってカーソルの対応する動きが開始され、この動きは手をホームポジションに戻すまで終わりとならない。手は元来快適なホームポジションを有しているが、このジョイスティック様の光学的ポインティング法では、そのマウスカーソルが確実にコンピュータ画面上の所望の点まで来て静止するような正確なタイミングおよび精細な動作が要求されるに連れて、本質的にユーザに対して過度の要求を強いることになる。
したがって、本発明はさらに、ポインティングストロークを発生させることによってマウス様の方式で動作するように適合させている。ポインティングストローク動作によって、手のランダムな任意の静止位置から手の所望の任意の終了位置まで変位させることによって発生させた運動ベクトルが、コンピュータ画面上でのカーソル動きの1つのストロークに変換される。たとえば、ユーザの手が時刻tにおいて図2に示す位置(この位置は上述したホームポジションに対応する場合も対応しない場合もあり得る)にあると仮定してみる。さらに、次いでユーザが自分の手を矢印aの方向に変位させ、時刻tにおいて別のある位置にもって来たと考えてみる。デバイス10は反射されたビーム48の時刻tおよびtにおけるそれぞれの大きさを、上述のように、時刻tおよびtにおける手の位置に、次いで手に関する時刻tから時刻tまでの運動ベクトルに分析させている。次いで、この運動ベクトルは、手がホームポジションに戻るまで継続させるのではなく、最終位置においてゼロまで減衰させ、かつ時刻tから時刻tまでの手の動きをなぞるようなコンピュータ画面上でのカーソル動きを生じさせるような動きの対応するストロークに分析させており、これはあたかも、手の指や針によって画面上のカーソルの動きを誘導しているかのようになる。すなわち、カーソルは手を変位させた方向に対応する方向に手を変位させた量に対応する量だけ移動し、次いで停止することになる。個々のユーザに合わせて較正した後は、ポインティングストローク動作によってカーソルの動きに関して一層直接的でありかつ快適な制御感覚が提供される。
以下に記載する「要求モード」を用いると、ポインティングストローク動作を一層実用的にすることができる。たとえば、上述したジョイスティック様のポインティングモードでは、単に自分の手を変位させた位置に保つことによってカーソルを任意の方向に無制約に動かすことが可能であるが、当業者であればポインティングストローク動作はユーザの手の動く範囲内に制約されることが理解されよう。要求モードによれば、ユーザはある特定の方向にポインティングストロークを生成させ、光学的ポインティングをオフに切り替え、自分の手をより快適な位置または中立的な位置まで戻し、光学的ポインティングをオンに戻し、さらに同じ方向に第2のストロークを生成させることができる。この操作は、コンピュータマウスを滑らせている面から持ち上げてマウスをより快適な位置または利用しやすい位置に来るように中央に戻し、滑らせる面の大きさを実質的に拡大させていることに相当する。
本発明はさらに、手および指の位置および向きに対する時間領域の分析を画像認識能力と組み合わせることによって身振り認識にも使用することができる。デバイス10が身振りを認識する際に用いる方法は、マウス様のポインティングストローク動作に関して上述した方法と実質的に同様である。たとえば、ユーザの指が時刻tにおいて図4に図示する位置にあると仮定する。放出体32はビーム34を放出し、このビームは指先52によって反射される。次いで、検出器36が反射されたビーム34aを検出し、またデバイス10は上述した方式によって時刻tにおける指の位置および方向を判定する。次いで、ユーザが、時刻tにおいて指先52が新たな位置に来るように自分の指を下向きに矢印cの方向に向けると仮定してみる。ここでもまた上述した方法を用いて、デバイス10は時刻tにおける指の位置および方向を分析している。次いで、ユーザは、デバイス10によって分析させるなどのために時刻tにおいて指を元の位置および方向まで戻すことや、全く新たな位置および方向に来るように指を移動させることがある。
指の位置および方向に対する時間の経過を追ったこれらの分析は集計し、さらにルックアップテーブルとして機能するコンテンツアドレス可能なメモリ内に格納したライブラリなど、身振り画像の事前プログラムしたライブラリと相関させている。またデバイス10は、行われた身振り(上記の例では、「指を揺さぶる」身振り)を認識することができる。この事前プログラムした身振りのライブラリには、標準化された身振り(たとえばAmerican Sign Languageの身振り)、ならびに装置訓練段階で取り込みかつ記録しておいた個別ユーザ向けの身振り(たとえば、上述した指の揺さぶり)を含むことができる。装置訓練段階で取り込みかつ記録しておいた身振りは、本質的にユーザの特定の手の大きさ、形および動きの組に合わせてプログラムすることになる。
上述のような手の位置および向きの分析を手の動きの分析と結合させることによって、身振りの認識能力がより一層強力となる。手の動きは、上述した光学的ポインティングの実施形態を用いること、また手全体の動きの追跡が望ましい場合はジャイロスコープ、加速度計やその他の動きセンサ40や環境センサ42をデバイス10内に含めること、によって分析することができる。手の位置および向きの時間領域分析を手の動きの時間領域分析と組み合わせることによって、身振りを解読する際に多くの画像認識処理法が利用可能となる。
上述した身振り認識方法によれば本発明を、キャラクタレベルのデータエントリ(キーボードの打ち込みや電話ダイアル操作など)に限らず、単語レベルやフレーズレベルの(American Sign Languageに使用される)データエントリにも利用することが可能となる。たとえば、本発明による身振り認識の実施形態は、American Sign Languageのコミュニケーションをリアルタイムで文字に起こしたり、音訳したりすることができる。さらに、この身振りに対する文字起こしや音訳には、身振りを実施するときの地面からの高さに基づいて抑揚(inflection)を付加することができ、たとえば、位置を低くした場合にはより低い抑揚音調を意味させ、一方より高い位置とするとより大きな強調やより高い抑揚を示させることが可能である。
身振り認識方法はさらに、同じ身振りでもその身振りが行われたコンテキスト(context)に応じて多くの異なる作用を有するようにコンテキスト依存とさせることができる。たとえば、上述した指を揺さぶる身振りはあるコンテキストでは鳴動している電話に応答するために使用することができ、また別のコンテキストでは照明スイッチをトグル切り替えするために使用することができる。別の例として、腕を挙げたり下げたりすることは、あるコンテキストではラジオの音量を制御しており、また別のコンテキストでは室内の照明の輝度を制御していることがある。ユーザがコンテキスト間の選択をする方式はいくつもあり得る。たとえば、ハウジング22が音声認識センサ43を含む場合、ユーザは所望のコンテキストを(たとえば、その身振りがラジオの制御を意図している場合には「ラジオ」と、また身振りが照明の制御を意図している場合には「照明」と)発話することができる。しかし、コンテキストを選択するための別の方法も本発明の趣旨の域内にある。
身振り認識はさらに、マウス様の光学的ポインティングに関して上で言及した要求モードを実現するために使用することもできる。デバイス10を起動させたり起動を終了させるように特定の身振り(または、複数の身振り)をプログラムすることによって、ユーザは所与の任意の動作モード、あるいはデバイス全体を必要に応じまたは希望に応じてオンやオフにすることができる。要求モードはさらに、組合せモードまたはコンテキストを起動させたり、起動を終了させるために利用することができる。
本発明に付加できる別の機能は図5に表した光学的トラッキング、すなわち「オーバースキャン」機能である。この機能によって、デバイス10によって常に特定の指(digit)を正しく特定されることが保証される。たとえば、光学的トラッキングによれば、人差し指54が手の向きや位置に関わらず常に人差し指54として認識されることが保証されることになる。
手の変位の一方の最端部56である方向にスキャンを開始し、反対側の最端部位置58でスキャンを終了させることによって、オーバースキャンを達成させている。オーバースキャンは、離散的な多くの放出体32および検出器36を用いたりラスタスキャンによって実施することができる。離散的な多くの放出体32および検出器36を利用する場合、個々の指の分析に要するよりも多くの放出体32および検出器36を用いること、あるいは手の外周部の静止位置端部56および58の外側で連続スキャン源を開始および終了させることによってオーバースキャンを達成している。オーバースキャンはさらに、回転式またはピボット式のミラーなどの物理的に可動の光学部材あるいは電気的に操縦可能な光学部材をハウジング22に組み込むことによって実現させることができる。この後者の実施形態では、放出体32および検出器36は当該領域をスキャンするようにタンデム式で移動させており、これによって所望の領域をスキャンするような単一の電子受信器回路が可能となる。当業者であれば、完全に有効な画像作成のために上記の方法を第3の次元方向まで容易に拡張させることが可能であることは明らかであろう。
オーバースキャンを完備していれば、上で記載し図3に示したように手の角度を手首に対して追跡することによって生成させた光学的ポインティングのベクトルを用いてそのスキャン対象領域内での手のオフセットを計算することができる。これによりデバイス10は、どの指を放出された光ビームの経路内に移動させたのかを判定することができる。この機能によれば本発明はユーザの手の幾何形状の学習が可能であり、ユーザに対して本発明の特性に合わせた対応を要求することがないため、ユーザとデバイス10とのやり取りが大幅に簡略化される。たとえば、光学的トラッキング機能によってマウス制御とキーボード打ち込みの両方に関してデバイス10を同時に使用することが可能となり、一方、マウスカーソルを移動させるように手を変位させたとした場合では光学的トラッキング機能を伴わないデバイスのキーボード打ち込み機能が「混乱した状態」になり易くなる。
ユーザの手に対する3次元スキャンによってさらに、上述のように身振り認識に対する入力画像を提供することができる。別法として、放出体32および検出器36をユーザの手ではなく近くの任意の表面の方向に向けることは、ユーザの手以外の関心物体に対するリアルタイムの画像作成を提供するために使用することができる。たとえばデバイス10を使用して、システムソフトウェアによるかまたは光学的キャラクタ認識を利用するかによる判読対象の物体の画像を有効に取り込み、視覚障害のユーザを支援するためにテキストを読み取りかつ発声することが可能である。別の例として、医師がリアルタイムの利用またはアーカイブ使用のために手術中に患者の画像を取り込むように放出体32に指令し、デバイス10を用いてコンピュータ化したログ内にメモを入力し、さらに手術を継続することが可能であり、この際、カメラを利用したり物理的なキーを押したりするとした場合に必要となるような再洗浄は不要となる。
ハウジング22はさらに、2つの次元方向で手の位置を分析するために放出体32および検出器36の第2の面を含むことがある。指が放出体32および検出器36の第1の面を通過する際に第1の次元方向を分析しており、一方指が完全に第1の面を通過して第2の面内に入った後に第2の次元方向を分析している。これによって、装着可能の既存のコンピュータデバイスのgo/no−go的特性を強調し、単にキーの閉鎖を検出するのではなく手位置および方向を分析することができる。別法として、デバイス10は各指を幾つかの異なる角度から照射し、視差を用いて2つの次元方向で手の位置を分析することができる。ただし、前者の方法の方が後者の方法よりも好ましい。
本発明では、本来的に安全かつ無菌的な操作が可能である。上述のように、本発明によって、物理的なデバイスに全く接触せずにデータエントリおよびカーソル制御が可能となる。したがって、デバイス10は手術室などの無菌環境での使用によく適合している。デバイス10ではさらに、機械的やり取りがないため環境を着火させる可能性があるようなスパークのおそれがなくなるため、極めて燃えやすい環境で使用することが可能である。
上述のことから理解できるように、本発明は、任意の瞬間において多くの自由度を有すると共に、時間の経過を追ってサンプリング可能な一群の入力情報を生成させている。これによって本発明は、現行では利用できないような制御感覚を提供することができる。たとえば本デバイスは、ノブの回転、オペレータの指先と手首の間の距離、手首位置における手のxおよびy方向での角度、腕のx、yおよびz方向での位置、腕のピッチング、ローリングおよびヨーイング、環境的および生理学的状態、音声入力、バーコード読み取りなどの2次元画像入力、3次元画像入力、ならびに別のタイプの多くの入力などを、個々に、組み合わせて、および互いの比較により指の位置および方向を検出することができる。こうした多くのタイプの入力データを用いると、追加的なデータによって、たとえば特定の身振りに関連する「サイン(signature)」の識別がより容易になるため、上述した用途を有効に実現させるために必要な時間関連のデータ組はごくわずかだけで済む。さらに、ある結果を生成させるように集計したデータを念入りに選択することによって、コンピュータキーボードなどのキャラクタレベルの入力のため、速記用キーボードなどの組合せレベルの入力のため、American Sign Languageなどの単語レベルまたはフレーズレベルの入力のため、ジョイスティック制御のため、マウス制御のため、ピッチまたは音調制御のため、環境設定(たとえば、サーモスタット、ディマースイッチ、テレビやステレオの音量制御)に対する制御のため、ならびにその他の多くの目的のために、このデバイスを利用することができる。
本発明を幾つかの好ましい実施形態に関して記載してきたが、当業者であれば、本発明を添付の特許請求の範囲の精神および趣旨の域内の修正を伴って実施できることが理解されよう。
このようにして本発明を記載しているが、新規のものとして特許請求する内容、および特許証によって確保する要求は、添付の特許請求の範囲に記載している。
本発明の例示的な応用の図である。 本発明の主要要素の幾つかの図である。 光学的ポインティング向けに使用される本発明の実施形態の図である。 身振り認識のために本発明を利用している図である。 本発明によるトラッキング用光学機器の実施形態の図である。

Claims (25)

  1. センサを含んだベースステーションと、
    オペレータの身体上に装着する、複数の光放出体および複数の光学検出器を含むハウジングと、
    ポインティング動作または身振りのx方向を検出するために少なくとも1つのx軸放出体−検出器対を形成している少なくとも1つの光放出体および少なくとも1つの光学検出器と、
    ポインティング動作または身振りのy方向を検出するために少なくとも1つのy軸放出体−検出器対を形成している少なくとも1つの光放出体および少なくとも1つの光学検出器と、
    オペレータの身体部分または別の物体から反射されかつ前記光学検出器によって検出された際に、前記複数の光放出体から放出された光学ビーム同士を区別するための手段と、
    を備えるワイヤレス式制御デバイス。
  2. 前記光放出体が発光ダイオードであり、かつ前記光学ビームが赤外光のビームである、請求項1に記載のワイヤレス式制御デバイス。
  3. 前記x軸およびy軸の放出体−検出器対が、前記ハウジングをその上に装着した身体部分に隣接する身体部分の動きを検出している、請求項1に記載のワイヤレス式制御デバイス。
  4. 前記ハウジングがオペレータの手首に装着されており、かつ前記x軸およびy軸の放出体−検出器対がオペレータの手の動きを検出している、請求項3に記載のワイヤレス式制御デバイス。
  5. 前記少なくとも1つのx軸放出体−検出器対内の前記放出体がオペレータの手のナイフエッジを照射しており、前記少なくとも1つのx軸放出体−検出器対内の前記検出器がオペレータの手の前記ナイフエッジから反射されるビームを検出しており、前記少なくとも1つのy軸放出体−検出器対内の前記放出体が前記オペレータの手掌基部を照射しており、かつ前記少なくとも1つのy軸放出体−検出器対の前記検出器がオペレータの手の前記手掌基部から反射されるビームを検出している、請求項4に記載のワイヤレス式制御デバイス。
  6. 前記放出体が前記オペレータの手のナイフエッジおよび手掌基部を扇形状ビームで照射している、請求項5に記載のワイヤレス式制御デバイス。
  7. 前記ハウジングがさらに環境状態センサを備えている、請求項1に記載のワイヤレス式制御デバイス。
  8. 前記ハウジングがさらに音声認識センサを備えている、請求項1に記載のワイヤレス式制御デバイス。
  9. 前記ポインティング動作または身振りの前記x方向およびy方向がディスプレイ上のカーソルのx軸およびy軸での動きに対応している、請求項1に記載のワイヤレス式制御デバイス。
  10. 前記x軸およびy軸放出体−検出器対が前記ポインティング動作または身振りの前記x方向およびy方向をジョイスティック様の方式で検出している、請求項1に記載のワイヤレス式制御デバイス。
  11. さらに、前記オペレータの身体部分の位置、向きおよび動きのうちの少なくとも1つを時間の経過を追って分析するための手段を備える請求項1に記載のワイヤレス式制御デバイス。
  12. 前記x軸およびy軸放出体−検出器対が前記ポインティング動作または身振りの前記x方向およびy方向をマウス様の方式で検出している、請求項11に記載のワイヤレス式制御デバイス。
  13. オペレータの身体部分の動きを時間の経過を追って分析するための前記手段が加速度計またはジャイロスコープである、請求項11に記載のワイヤレス式制御デバイス。
  14. さらに、前記オペレータが行った複数の身振りを認識するための手段を備える請求項11に記載のワイヤレス式制御デバイス。
  15. 前記身振りがAmerican Sign Languageの身振り、Native American Sign Languageの身振り、または身振りベースのその他任意のコミュニケーション法を含む身振りを含んでいる、請求項14に記載のワイヤレス式制御デバイス。
  16. 複数の身振り認識するための前記手段がコンテキスト依存である、請求項14に記載のワイヤレス式制御デバイス。
  17. さらに、前記デバイスをオン状態とオフ状態の間でトグル切り替えするための要求手段を備える請求項1に記載のワイヤレス式制御デバイス。
  18. さらに、物体を特定するためのスキャン手段を備える請求項1に記載のワイヤレス式制御デバイス。
  19. 前記物体がオペレータの身体部分である、請求項18に記載のワイヤレス式制御デバイス。
  20. 前記スキャン手段が、オペレータの身体部分の動きの一方の末端でスキャンを開始し、かつオペレータの身体部分の動きの反対側の末端で前記スキャンを終了させている、請求項19に記載のワイヤレス式制御デバイス。
  21. 前記スキャン手段がさらに物理的に可動性の光学部材を備えている、請求項18に記載のワイヤレス式制御デバイス。
  22. 前記物理的に可動性の光学部材がさらに回転式またはピボット式部材を備えている、請求項21に記載のワイヤレス式制御デバイス。
  23. 前記物理的に可動性の光学部材がさらに電気的に操縦可能な少なくとも1つの放出体−検出器対を備えている、請求項21に記載のワイヤレス式制御デバイス。
  24. 前記スキャン手段が前記物体を3次元でスキャンしている、請求項18に記載のワイヤレス式制御デバイス。
  25. 前記光放出体および前記光学検出器が前記ハウジング上の2つの面に配置されている、請求項1に記載のワイヤレス式制御デバイス。
JP2008135177A 2001-09-07 2008-05-23 改良型のワイヤレス式制御デバイス Pending JP2008293501A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/947,564 US6747632B2 (en) 1997-03-06 2001-09-07 Wireless control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003527721A Division JP2005528663A (ja) 2001-09-07 2002-09-06 改良型のワイヤレス式制御デバイス

Publications (1)

Publication Number Publication Date
JP2008293501A true JP2008293501A (ja) 2008-12-04

Family

ID=25486320

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2003527721A Pending JP2005528663A (ja) 2001-09-07 2002-09-06 改良型のワイヤレス式制御デバイス
JP2008135177A Pending JP2008293501A (ja) 2001-09-07 2008-05-23 改良型のワイヤレス式制御デバイス

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2003527721A Pending JP2005528663A (ja) 2001-09-07 2002-09-06 改良型のワイヤレス式制御デバイス

Country Status (11)

Country Link
US (1) US6747632B2 (ja)
EP (1) EP1433161B1 (ja)
JP (2) JP2005528663A (ja)
KR (1) KR100946680B1 (ja)
AU (1) AU2002329982B2 (ja)
BR (1) BRPI0212367B1 (ja)
CA (1) CA2459711C (ja)
IL (1) IL160768A0 (ja)
MX (1) MXPA04002227A (ja)
RU (1) RU2339087C2 (ja)
WO (1) WO2003023755A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016186673A (ja) * 2015-03-27 2016-10-27 株式会社Nttドコモ 位置検出装置及び位置検出方法
JP2017004458A (ja) * 2015-06-16 2017-01-05 富士通株式会社 入力装置、入力制御方法、および、入力制御プログラム
US9610908B2 (en) 2011-09-02 2017-04-04 Audi Ag Device for setting at least one operating parameter of at least one vehicle system in a motor vehicle
JP2018185873A (ja) * 2014-08-07 2018-11-22 グーグル エルエルシー レーダベースのジェスチャ感知およびデータ伝送
JP2019032891A (ja) * 2018-10-29 2019-02-28 アップル インコーポレイテッドApple Inc. 光学センサを使用して検出されるモーションジェスチャ入力
US10409385B2 (en) 2014-08-22 2019-09-10 Google Llc Occluded gesture recognition
US10664059B2 (en) 2014-10-02 2020-05-26 Google Llc Non-line-of-sight radar-based gesture recognition
US10823841B1 (en) 2015-10-06 2020-11-03 Google Llc Radar imaging on a mobile computing device
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US11219412B2 (en) 2015-03-23 2022-01-11 Google Llc In-ear health monitoring
US11422635B2 (en) 2014-02-10 2022-08-23 Apple Inc. Optical sensing device
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition

Families Citing this family (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
EP1285326B1 (de) * 2000-05-16 2006-03-08 Swisscom Mobile AG Verfahren und terminal zur eingabe von instruktionen
AU2001262835A1 (en) * 2000-05-24 2001-12-03 Phplate Stockholm Ab New method and device
AU2001286450A1 (en) * 2000-08-12 2002-02-25 Georgia Tech Research Corporation A system and method for capturing an image
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
JP2002222054A (ja) * 2001-01-25 2002-08-09 Nec Corp ポインティングデバイス
US6848052B2 (en) * 2001-03-21 2005-01-25 Activcard Ireland Limited High security personalized wireless portable biometric device
KR100632834B1 (ko) * 2001-12-21 2006-10-13 지멘스 악티엔게젤샤프트 움직임을 검출하여 디스플레이하기 위한 장치 및 상기 장치를 제어하기 위한 방법
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US6970157B2 (en) * 2002-04-23 2005-11-29 Quadtri Technologies, Llc Wearable computing, input, and display device
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7782297B2 (en) * 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US20060264260A1 (en) * 2002-07-27 2006-11-23 Sony Computer Entertainment Inc. Detectable and trackable hand-held controller
US8160269B2 (en) 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US10086282B2 (en) * 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US8139793B2 (en) * 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8313380B2 (en) * 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
US20040048666A1 (en) * 2002-09-10 2004-03-11 Radica China Limited Wireless game device and method for using the same
US7030856B2 (en) * 2002-10-15 2006-04-18 Sony Corporation Method and system for controlling a display device
US20040125073A1 (en) * 2002-12-30 2004-07-01 Scott Potter Portable electronic apparatus and method employing motion sensor for function control
WO2004081777A1 (en) * 2003-03-10 2004-09-23 Koninklijke Philips Electronics N.V. Multi-view display
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US7307620B2 (en) * 2003-04-19 2007-12-11 Siddeeq Shakoor N One-handed thumb-supported mobile keyboard
GB0311177D0 (en) * 2003-05-15 2003-06-18 Qinetiq Ltd Non contact human-computer interface
JP4438351B2 (ja) * 2003-08-22 2010-03-24 富士ゼロックス株式会社 指示入力装置、指示入力システム、指示入力方法、及びプログラム
US20070223732A1 (en) * 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US7136709B2 (en) * 2003-11-04 2006-11-14 Universal Electronics Inc. Home appliance control system and methods in a networked environment
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
FI117308B (fi) * 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
EP1596271A1 (en) * 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US20070252489A1 (en) * 2004-08-09 2007-11-01 Schulz Edward W Multi-faceted electronic video display structure for organizing and displaying electronic device components
US20060028585A1 (en) * 2004-08-09 2006-02-09 Schulz Edward W Multi-faceted electronic video display structure for organizing and displaying electronic device components
KR100621593B1 (ko) 2004-09-24 2006-09-19 삼성전자주식회사 다중양식의 입력을 이용하는 통합 원격 제어 장치 및 방법
EP1839105A1 (en) * 2004-10-13 2007-10-03 E.B.T. Interactive Ltd. Computer-implemented method and system for providing feedback during sex play
US7762945B2 (en) * 2004-10-13 2010-07-27 E.B.T. Interactive Ltd. Computer-implemented method and system for providing feedback during sex play
US20060136997A1 (en) * 2004-12-21 2006-06-22 Eastman Kodak Company Authentication system and method
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US20060241864A1 (en) * 2005-04-22 2006-10-26 Outland Research, Llc Method and apparatus for point-and-send data transfer within an ubiquitous computing environment
JP4805633B2 (ja) * 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US8313379B2 (en) * 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7942745B2 (en) * 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
US8870655B2 (en) * 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
JP4262726B2 (ja) 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US8308563B2 (en) * 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
US7872636B1 (en) * 2005-11-23 2011-01-18 Marvell International Ltd. Virtual pointing devices for displays
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
TWI348639B (en) * 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
US7810504B2 (en) * 2005-12-28 2010-10-12 Depuy Products, Inc. System and method for wearable user interface in computer assisted surgery
JP4530419B2 (ja) * 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP4684147B2 (ja) * 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
US20070265075A1 (en) * 2006-05-10 2007-11-15 Sony Computer Entertainment America Inc. Attachable structure for use with hand-held controller having tracking ability
US20110014981A1 (en) * 2006-05-08 2011-01-20 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US9477310B2 (en) * 2006-07-16 2016-10-25 Ibrahim Farid Cherradi El Fadili Free fingers typing technology
WO2008010581A1 (fr) * 2006-07-21 2008-01-24 Brother Kogyo Kabushiki Kaisha Dispositif opérationnel et système opérationnel
US8607281B2 (en) 2006-09-07 2013-12-10 Porto Vinci Ltd. Limited Liability Company Control of data presentation in multiple zones using a wireless home entertainment hub
US9386269B2 (en) 2006-09-07 2016-07-05 Rateze Remote Mgmt Llc Presentation of data on multiple display devices using a wireless hub
US9319741B2 (en) * 2006-09-07 2016-04-19 Rateze Remote Mgmt Llc Finding devices in an entertainment system
US8935733B2 (en) * 2006-09-07 2015-01-13 Porto Vinci Ltd. Limited Liability Company Data presentation using a wireless home entertainment hub
US8005236B2 (en) * 2006-09-07 2011-08-23 Porto Vinci Ltd. Limited Liability Company Control of data presentation using a wireless home entertainment hub
US8966545B2 (en) * 2006-09-07 2015-02-24 Porto Vinci Ltd. Limited Liability Company Connecting a legacy device into a home entertainment system using a wireless home entertainment hub
US9233301B2 (en) * 2006-09-07 2016-01-12 Rateze Remote Mgmt Llc Control of data presentation from multiple sources using a wireless home entertainment hub
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) * 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US20080098448A1 (en) * 2006-10-19 2008-04-24 Sony Computer Entertainment America Inc. Controller configured to track user's level of anxiety and other mental and physical attributes
US8508472B1 (en) 2006-11-28 2013-08-13 James W. Wieder Wearable remote control with a single control button
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
JP5127242B2 (ja) 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
US8736420B2 (en) 2007-01-29 2014-05-27 At&T Intellectual Property I, L.P. Methods, systems, and products for controlling devices
US20080218476A1 (en) * 2007-03-08 2008-09-11 Patel Bharat Bobby Apparatus and method for wrist supporting movement translator and mouse button device
US20090058820A1 (en) * 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
US20090212979A1 (en) * 2008-02-22 2009-08-27 William Catchings Glove-based input device
US20090271004A1 (en) * 2008-04-28 2009-10-29 Reese Zecchin Method and apparatus for ranging detection of gestures
US20090315825A1 (en) * 2008-06-24 2009-12-24 John Cauchi infrared virtual, invisible computer keyboard and mouse
EP2146490A1 (en) * 2008-07-18 2010-01-20 Alcatel, Lucent User device for gesture based exchange of information, methods for gesture based exchange of information between a plurality of user devices, and related devices and systems
US8305345B2 (en) * 2008-08-07 2012-11-06 Life Technologies Co., Ltd. Multimedia playing device
US8368649B2 (en) * 2008-08-29 2013-02-05 Siemens Medical Solutions Usa, Inc. Control system for use within a sterile environment
US8516561B2 (en) * 2008-09-29 2013-08-20 At&T Intellectual Property I, L.P. Methods and apparatus for determining user authorization from motion of a gesture-based control unit
KR101295855B1 (ko) * 2008-12-05 2013-08-12 한국전자통신연구원 적외선 송신 장치를 기반으로 한 동작 인식으로 제어되는 전자기기
US8660300B2 (en) * 2008-12-12 2014-02-25 Silicon Laboratories Inc. Apparatus and method for optical gesture recognition
CN102369724B (zh) 2009-02-18 2016-05-04 谷歌公司 自动捕获信息,例如使用文档感知设备捕获信息
CN102349087B (zh) 2009-03-12 2015-05-06 谷歌公司 自动提供与捕获的信息例如实时捕获的信息关联的内容
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
WO2011004135A1 (en) * 2009-07-07 2011-01-13 Elliptic Laboratories As Control using movements
JP4988016B2 (ja) * 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US8907894B2 (en) * 2009-10-20 2014-12-09 Northridge Associates Llc Touchless pointing device
KR20110052997A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 디스플레이 장치와 클라이언트 단말 및 이의 제어 방법
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
SG174644A1 (en) 2010-03-22 2011-10-28 Opcon Pte Ltd A battery pack
KR20110118357A (ko) * 2010-04-23 2011-10-31 주식회사 소냐테크 휴대용 마우스
US9310887B2 (en) 2010-05-06 2016-04-12 James W. Wieder Handheld and wearable remote-controllers
KR20110137587A (ko) * 2010-06-17 2011-12-23 한국전자통신연구원 공간 입출력 인터페이싱 장치 및 방법
CN102402279B (zh) * 2010-09-17 2016-05-25 腾讯科技(深圳)有限公司 基于手势的人机交互方法及***
KR101789619B1 (ko) * 2010-11-22 2017-10-25 엘지전자 주식회사 멀티미디어 장치에서 음성과 제스쳐를 이용한 제어 방법 및 그에 따른 멀티미디어 장치
JP6071069B2 (ja) * 2010-12-17 2017-02-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生体徴候を監視するためのジェスチャ制御
US10097875B2 (en) 2011-05-25 2018-10-09 Echostar Technologies L.L.C. Apparatus, systems and methods for presentation management of erotica-related media content
US8752200B2 (en) 2011-07-12 2014-06-10 At&T Intellectual Property I, L.P. Devices, systems and methods for security using magnetic field based identification
US9408582B2 (en) 2011-10-11 2016-08-09 Amish Sura Guided imaging system
TWI460650B (zh) * 2011-10-25 2014-11-11 Kye Systems Corp 輸入裝置及其物件縮放控制方法
TWI438658B (zh) * 2011-11-22 2014-05-21 Pixart Imaging Inc 人機介面系統及手指滑鼠系統
KR101237472B1 (ko) * 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
WO2013103410A1 (en) * 2012-01-05 2013-07-11 California Institute Of Technology Imaging surround systems for touch-free display control
US9336456B2 (en) 2012-01-25 2016-05-10 Bruno Delean Systems, methods and computer program products for identifying objects in video data
EP2634670A1 (en) 2012-03-01 2013-09-04 Asplund Data AB A data input device
US10209881B2 (en) * 2012-03-15 2019-02-19 Ibrahim Farid Cherradi El Fadili Extending the free fingers typing technology and introducing the finger taps language technology
US8933877B2 (en) 2012-03-23 2015-01-13 Motorola Mobility Llc Method for prevention of false gesture trigger inputs on a mobile communication device
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
JP6155448B2 (ja) 2012-11-01 2017-07-05 アイカム エルエルシー 3d撮像し、マッピングし、ネットワーク化しおよびインタフェースするための無線手首コンピューティングおよびコントロールするデバイスおよび方法
US9530213B2 (en) 2013-01-02 2016-12-27 California Institute Of Technology Single-sensor system for extracting depth information from image blur
JP6344032B2 (ja) * 2013-09-26 2018-06-20 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US9668676B2 (en) 2013-12-30 2017-06-06 Apple Inc. User identification system based on plethysmography
CN104866079B (zh) * 2014-02-24 2018-11-09 联想(北京)有限公司 一种信息处理方法及电子设备
US9594443B2 (en) * 2014-02-26 2017-03-14 Lenovo (Singapore) Pte. Ltd. Wearable device authentication and operation
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
WO2015163943A1 (en) 2014-04-24 2015-10-29 Covidien Lp Robotic interface positioning determination systems and methods
BR112016027479B1 (pt) * 2014-05-29 2021-11-30 Micro Motion, Inc Sensor de toque de luz refletida adaptativo, método para configurar o mesmo, e, interface
US9226697B1 (en) * 2014-07-22 2016-01-05 Sensibrace Technologies, Inc. Electronic splint
RU2577467C1 (ru) * 2014-09-15 2016-03-20 Дмитрий Михайлович Литманович Мобильное устройство для организации сенсорной плоскости
US9772684B2 (en) * 2014-09-17 2017-09-26 Samsung Electronics Co., Ltd. Electronic system with wearable interface mechanism and method of operation thereof
US10488936B2 (en) 2014-09-30 2019-11-26 Apple Inc. Motion and gesture input from a wearable device
US10705619B2 (en) * 2014-11-21 2020-07-07 Abhishek Johri System and method for gesture based data and command input via a wearable device
US10362944B2 (en) 2015-01-19 2019-07-30 Samsung Electronics Company, Ltd. Optical detection and analysis of internal body tissues
WO2016144284A1 (ru) * 2015-03-06 2016-09-15 Елизавета Сергеевна ВОРОНКОВА Способ распознавания движения и психоэмоционального состояния человека и устройство для его существления
CN104944640B (zh) * 2015-06-19 2017-09-29 武汉理工大学 一种页岩气压裂返排废水的处理装置及方法
FR3038115B1 (fr) * 2015-06-23 2017-07-28 Frederic Hamain Equipement de telecommande
US10289239B2 (en) 2015-07-09 2019-05-14 Microsoft Technology Licensing, Llc Application programming interface for multi-touch input detection
US9939899B2 (en) 2015-09-25 2018-04-10 Apple Inc. Motion and gesture input from a wearable device
US20170115737A1 (en) * 2015-10-26 2017-04-27 Lenovo (Singapore) Pte. Ltd. Gesture control using depth data
US10151606B1 (en) 2016-02-24 2018-12-11 Ommo Technologies, Inc. Tracking position and movement using a magnetic field
US20170269697A1 (en) * 2016-03-21 2017-09-21 Intel Corporation Under-wrist mounted gesturing
US9939928B2 (en) * 2016-09-13 2018-04-10 Sandra Popescu Mouse cage
US10478099B2 (en) 2016-09-22 2019-11-19 Apple Inc. Systems and methods for determining axial orientation and location of a user's wrist
CN107145236B (zh) * 2017-05-12 2020-02-07 中国科学技术大学 一种基于腕部肌腱压力相关特性的手势识别方法及***
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
US10817689B2 (en) * 2017-12-21 2020-10-27 Datalogic IP Tech, S.r.l. Systems and methods for a scan engine coupled to a finger mount
US10276289B1 (en) 2018-06-01 2019-04-30 Ommo Technologies, Inc. Rotating a permanent magnet in a position detection system
US20230260155A1 (en) * 2020-04-24 2023-08-17 Cornell University Deep continuous 3d hand pose tracking
CN113223344B (zh) * 2021-05-25 2022-08-23 湖南汽车工程职业学院 一种基于大数据的艺术设计用专业教学展示***
US20230076068A1 (en) * 2021-09-03 2023-03-09 Meta Platforms Technologies, Llc Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist-wearable device worn by the user, and methods of use thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005528663A (ja) * 2001-09-07 2005-09-22 ハーモニク・リサーチ・インコーポレーテッド 改良型のワイヤレス式制御デバイス

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4542291A (en) 1982-09-29 1985-09-17 Vpl Research Inc. Optical flex sensor
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5986643A (en) * 1987-03-24 1999-11-16 Sun Microsystems, Inc. Tactile feedback mechanism for a data processing system
US6094188A (en) * 1990-11-30 2000-07-25 Sun Microsystems, Inc. Radio frequency tracking system
US5444462A (en) * 1991-12-16 1995-08-22 Wambach; Mark L. Computer mouse glove with remote communication
US5432834A (en) * 1993-11-22 1995-07-11 Hologic, Inc. Whole-body dual-energy bone densitometry using a narrow angle fan beam to cover the entire body in successive scans
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
WO1996021994A1 (en) * 1995-01-11 1996-07-18 Shaw Christopher D Tactile interface system
DE19509680A1 (de) * 1995-03-07 1996-09-12 Frank Hofmann Vorrichtung zur ortsungebundenen Erfassung von Handneigungen und -bewegungen
JP4074661B2 (ja) * 1995-05-08 2008-04-09 マサチューセッツ・インスティテュート・オブ・テクノロジー 信号伝送媒体として人体を用いた非接触検知及び信号システム
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JPH09114543A (ja) * 1995-10-02 1997-05-02 Xybernaut Corp ハンドフリーコンピュータ装置
US6127990A (en) * 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
CN1168057C (zh) * 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的***
US6144366A (en) * 1996-10-18 2000-11-07 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
US6097374A (en) 1997-03-06 2000-08-01 Howard; Robert Bruce Wrist-pendent wireless optical keyboard

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005528663A (ja) * 2001-09-07 2005-09-22 ハーモニク・リサーチ・インコーポレーテッド 改良型のワイヤレス式制御デバイス

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9610908B2 (en) 2011-09-02 2017-04-04 Audi Ag Device for setting at least one operating parameter of at least one vehicle system in a motor vehicle
US11422635B2 (en) 2014-02-10 2022-08-23 Apple Inc. Optical sensing device
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
JP2018185873A (ja) * 2014-08-07 2018-11-22 グーグル エルエルシー レーダベースのジェスチャ感知およびデータ伝送
US10642367B2 (en) 2014-08-07 2020-05-05 Google Llc Radar-based gesture sensing and data transmission
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US10409385B2 (en) 2014-08-22 2019-09-10 Google Llc Occluded gesture recognition
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US10664059B2 (en) 2014-10-02 2020-05-26 Google Llc Non-line-of-sight radar-based gesture recognition
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11219412B2 (en) 2015-03-23 2022-01-11 Google Llc In-ear health monitoring
JP2016186673A (ja) * 2015-03-27 2016-10-27 株式会社Nttドコモ 位置検出装置及び位置検出方法
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
JP2017004458A (ja) * 2015-06-16 2017-01-05 富士通株式会社 入力装置、入力制御方法、および、入力制御プログラム
US11256335B2 (en) 2015-10-06 2022-02-22 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US10823841B1 (en) 2015-10-06 2020-11-03 Google Llc Radar imaging on a mobile computing device
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11132065B2 (en) 2015-10-06 2021-09-28 Google Llc Radar-enabled sensor fusion
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
JP2019032891A (ja) * 2018-10-29 2019-02-28 アップル インコーポレイテッドApple Inc. 光学センサを使用して検出されるモーションジェスチャ入力

Also Published As

Publication number Publication date
CA2459711A1 (en) 2003-03-20
EP1433161A4 (en) 2009-05-06
CA2459711C (en) 2009-05-19
EP1433161B1 (en) 2012-05-30
MXPA04002227A (es) 2005-02-17
BR0212367A (pt) 2004-07-27
IL160768A0 (en) 2004-08-31
WO2003023755A1 (en) 2003-03-20
JP2005528663A (ja) 2005-09-22
US20020024500A1 (en) 2002-02-28
KR100946680B1 (ko) 2010-03-12
AU2002329982B2 (en) 2007-02-01
RU2339087C2 (ru) 2008-11-20
KR20040047810A (ko) 2004-06-05
RU2004110621A (ru) 2005-09-10
EP1433161A1 (en) 2004-06-30
BRPI0212367B1 (pt) 2015-09-15
US6747632B2 (en) 2004-06-08

Similar Documents

Publication Publication Date Title
KR100946680B1 (ko) 개선된 무선제어장치
AU2002329982A1 (en) Improved wireless control device
US7038659B2 (en) Symbol encoding apparatus and method
US6097374A (en) Wrist-pendent wireless optical keyboard
US8314773B2 (en) Mouse having an optically-based scrolling feature
US4719455A (en) Integrating pointing device
US9760214B2 (en) Method and apparatus for data entry input
US8077147B2 (en) Mouse with optical sensing surface
US6791531B1 (en) Device and method for cursor motion control calibration and object selection
US20020167489A1 (en) Pushbutton optical screen pointing device
US20020061217A1 (en) Electronic input device
JP2004500657A (ja) 仮想入力装置を用いたデータ入力方法および装置
GB2470654A (en) Data input on a virtual device using a set of objects.
US20090225028A1 (en) Point and click device for computer
US20120206353A1 (en) Hybrid pointing device
WO2003003185A1 (en) System for establishing a user interface
US20050148870A1 (en) Apparatus for generating command signals to an electronic device
JPH0511913A (ja) 表示装置用キーボード
JP2002222054A (ja) ポインティングデバイス
JPH07141103A (ja) カーソル位置入力装置
Blackmon et al. Target acquisition by a hands-free wireless tilt mouse
KR19990021535A (ko) 에이취엠디 및 시선각도 인식기능을 구비한 퍼스널 컴퓨터
JP2002014766A (ja) 光学式ワンボタンマウス

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110125

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110624