JP5406188B2 - 高度な語彙外単語の拒否 - Google Patents
高度な語彙外単語の拒否 Download PDFInfo
- Publication number
- JP5406188B2 JP5406188B2 JP2010521990A JP2010521990A JP5406188B2 JP 5406188 B2 JP5406188 B2 JP 5406188B2 JP 2010521990 A JP2010521990 A JP 2010521990A JP 2010521990 A JP2010521990 A JP 2010521990A JP 5406188 B2 JP5406188 B2 JP 5406188B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- input
- learning
- state
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Description
本出願は、引用によって本出願に組み込まれる、2007年8月20日に出願の米国仮特許出願番号第60/956,776号及び2007年8月20日に出願の米国仮特許出願番号第60/956,784号の優先権を主張する。
一般的な一実施例によれば、語彙の選択されたモデル化ジェスチャの対応する状態と比較して、入力ジェスチャの状態量が所定の閾値を満たさない場合、入力ジェスチャは語彙外(out−of−Vocabulary)であるとして拒否される。隠れマルコフモデルを使用して、モデル化ジェスチャが入力ジェスチャの最も適合した語彙のジェスチャとして選択される。入力ジェスチャの状態シーケンスが選択されたモデル化ジェスチャの対応する状態シーケンスに適合するかどうかなどの他の要因を、「語彙内」又は「語彙外」ジェスチャであるとして入力ジェスチャを受け入れるか又は拒否するための基礎として使うこともできる。
Y」(プログラムY作動)516などの特定の機能が呼び出されるようにデバイスを構成してもよい。機能(例えば、「RUN PROGRAM
Y」機能516)は、機能が入力として用いることができる、1以上のパラメータを受け付けてもよい。この例では、「Variable_X」(変数_X)と呼ばれる一つのパラメータ518が機能516の入力として使用される。
Sg、k={SO1、SO2、・・・、SOP} (1)
Og、k={Og、k、1、Og、k、2、・・・、Og、k、p} (2)
ここで、gは1以上G以下である。
Φ={Ω1、Ω2、・・・、ΩG} (3)
Ωg={Og、1、Og、2、・・・、Og、R} (4)
B={B1、B2、・・・、BG} (5)
δg、n、r=f(Bg、n(Og、r)) (6)
Δg、n={δg、n、1、δg、n、2、・・・、δg、n、R} (7)
τg、n=h(Δg、n) (8)
Tg={τg、1、τg、2、・・・、τg、N} Nは2以上 (9)
Ψg={Ag、Bg、πg、Tg} (10)
Σ= {σ1、σ2、・・・} (11)
δu、n=f(Bg、n(Ou)) (12)
xが0以上の場合、z(x)=1
それ以外の場合、 z(x)=0 (14)
d(x、y)=x―y+ε εは−1以上1以下 (15)
Claims (41)
- プロセッサが、入力ジェスチャを、学習ジェスチャの語彙を総合的にモデル化する隠れマルコフモデルに適用することに基づいて、
前記入力ジェスチャが学習ジェスチャの各々に適合する尤度と、
最大の尤度を有するモデル化された学習ジェスチャと、
最大の尤度を有すると判断されたモデル化された学習ジェスチャの対応する状態に適合する前記入力ジェスチャの状態量と、を決定するステップと、
決定された量が閾値を満たさない場合は、前記プロセッサが、前記入力ジェスチャを拒否するステップと、
を含み、
各状態は、ジェスチャ部分を有していて、
前記閾値は、入力ジェスチャの状態の総量の百分率又は量として表される、
コンピュータにより実施される方法。 - 決定された量が前記閾値を満たす場合は、前記プロセッサが、前記入力ジェスチャを受け入れるステップをさらに含む、請求項1記載の方法。
- 認識された入力ジェスチャに基づいて、前記プロセッサが、アプリケーションを制御するステップをさらに含む、請求項2記載の方法。
- 前記決定された量が前記閾値の量を満たすと判断された場合、
前記プロセッサが、前記最大の尤度を有すると判断された前記モデル化された学習ジェスチャの対応する入力コマンドを決定するステップをさらに含む、請求項2記載の方法。 - 前記プロセッサが、2番目に高い尤度を有すると判断された第2のモデル化された学習ジェスチャの対応する状態と適合する、拒否された入力ジェスチャの第2の状態量を決定するステップと、
決定された第2の量が前記閾値を満たさない場合、前記プロセッサが、前記拒否された入力ジェスチャを拒否するステップと、
をさらに含む、請求項1記載の方法。 - 前記プロセッサが、前記入力ジェスチャを定義する観察記号を前記隠れマルコフモデルに適用するステップをさらに含む、請求項1記載の方法。
- 前記入力ジェスチャの前記状態のシーケンスが、最大の尤度を有すると判断された前記モデル化された学習ジェスチャの前記対応する状態のシーケンスと適合しない場合、前記プロセッサが、入力ジェスチャを拒否するステップをさらに含む、請求項1記載の方法。
- ビタビアルゴリズムを用いて、前記尤度と、状態の変化のシーケンスを決定する、請求項1記載の方法。
- 前記決定された量が前記閾値を満たさない場合、前記語彙の外として前記入力ジェスチャは拒否される、請求項1記載の方法。
- 前記プロセッサが、前記学習ジェスチャの前記語彙を認識するために、前記隠れマルコフモデルを学習させるステップをさらに含む、請求項1記載の方法。
- 前記プロセッサが、前記入力ジェスチャに関連する状態の変化の群を抽出するステップをさらに含み、
前記入力ジェスチャの前記状態量は、抽出された状態の変化の群から決定される、請求項1記載の方法。 - 前記最大の尤度を有すると判断された前記モデル化された学習ジェスチャの対応する状態に適合する前記入力ジェスチャの前記状態量を決定するステップは、
各々の状態において前記入力ジェスチャの抽出されたメディアンが、前記最大の尤度を有すると判断された前記モデル化された学習ジェスチャの学習サンプル群の対応する状態における抽出されたメディアンの最小値以上である、状態の量を決定するステップをさらに含む、請求項1記載の方法。 - 前記最大の尤度を有すると判断された前記モデル化された学習ジェスチャの対応する状態に適合する前記入力ジェスチャの前記状態量を決定するステップは、
各々の状態において前記入力ジェスチャの抽出されたメディアンが、前記最大の尤度を有すると判断された前記モデル化された学習ジェスチャの学習サンプル群の対応する状態における抽出されたメディアンの最小値に非ゼロ調整パラメータを加えた値以上である、状態の量を決定するステップをさらに含む、請求項1記載の方法。 - 前記閾値は、前記対応する状態の量として表現される、請求項1記載の方法。
- 前記プロセッサが、前記入力ジェスチャを標準化するステップをさらに含む、請求項1記載の方法。
- 入力ジェスチャを、学習ジェスチャの語彙を総合的にモデル化する隠れマルコフモデルに適用することに基づいて、
前記入力ジェスチャが学習ジェスチャの各々に適合する尤度と、
最大の尤度を有するモデル化された学習ジェスチャと、
最大の尤度を有すると判断されたモデル化された学習ジェスチャの対応する状態に適合する前記入力ジェスチャの状態量と、を決定し、
決定された量が閾値を満たさない場合は、前記入力ジェスチャを拒否する、ように構成されたプロセッサを含み、
各状態は、ジェスチャ部分を有していて、
前記閾値は、入力ジェスチャの状態の総量の百分率又は量として表される、
デバイス。 - 前記入力ジェスチャを受けるように構成された入力モジュールをさらに含む、請求項16記載のデバイス。
- 前記入力モジュールがカメラを備えた、相互連動する画面である、請求項17記載のデバイス。
- ビタビアルゴリズムを用いて、前記尤度と、状態の変化のシーケンスを決定する、請求項16記載のデバイス。
- 実行されると、コンピュータに、
入力ジェスチャを、学習ジェスチャの語彙を総合的にモデル化する隠れマルコフモデルに適用することに基づいて、
前記入力ジェスチャが学習ジェスチャの各々に適合する尤度と、
最大の尤度を有するモデル化された学習ジェスチャと、
最大の尤度を有すると判断されたモデル化された学習ジェスチャの対応する状態に適合する前記入力ジェスチャの状態量と、を決定するステップと、
決定された量が閾値を満たさない場合は、前記入力ジェスチャを拒否するステップと、
を含む動作を実行させ、
各状態は、ジェスチャ部分を有していて、
前記閾値は、入力ジェスチャの状態の総量の百分率又は量として表される、
コンピュータプログラムを記録したコンピュータ可読媒体。 - センサが、画像データを用いてデバイスの動きを検知するステップと、
プロセッサが、検出された前記デバイスの動きに対応する、ジェスチャを認識するステップと、
前記プロセッサが、認識されたジェスチャに対応する前記デバイスの機能を決定するステップと、
前記プロセッサが、前記機能を呼び出すステップと、
を含んでいて、
前記ジェスチャを認識するステップは、
ジェスチャに適合することの最大の尤度を有するモデル化された学習ジェスチャを決定するステップと、
ジェスチャに適合することの最大の尤度を有すると判断されたモデル化された学習ジェスチャの対応する状態に適合するジェスチャの状態量を決定するステップと、
を含んでいて、
各状態は、ジェスチャ部分を有している、
コンピュータにより実施される方法。 - 前記動きは、第1の軌跡の第1の動きと、第2の、異なる軌跡の第2の動きと、を含む、請求項21記載の方法。
- 前記ジェスチャを認識するステップは、
検知された前記デバイスの動きによって画定される、文字の形状、幾何学的形状、又はパターンを認識するステップをさらに含む、
請求項21記載の方法。 - 前記デバイスの動きを検知するステップは、
前記デバイスのユーザの無意識(subconsicous)の身体運動を検出するステップをさらに含み、
呼び出される機能は、前記無意識の身体運動に関連付けられる、
請求項21記載の方法。 - 第1の時間と第2の時間で第1のユーザ入力と第2のユーザ入力とをそれぞれ検出するステップをさらに含み、
前記デバイスの動きを検知するステップは、
前記第1の時間と前記第2の時間の間に発生する前記デバイスの動きを検知するステップをさらに含む、
請求項21記載の方法。 - 前記第1のユーザ入力は、
振るユーザ入力、コントロール選択のユーザ入力、又は、静止して保持するユーザ入力である、
請求項25記載の方法。 - 前記ジェスチャを認識するステップは、
検知された動きと、ジェスチャのモデル化された語彙との比較に基づいて、前記ジェスチャを選択するステップをさらに含む、
請求項21記載の方法。 - 前記プロセッサが、前記デバイスの検知された動きを標準化するステップと、
前記プロセッサが、標準化された前記検知された動きと、前記ジェスチャのモデル化された語彙とを比較するステップと、をさらに含む、
請求項27記載の方法。 - 前記プロセッサが、前記検知された動きと、標準化された動きとの比較に基づいて、パラメータを決定するステップをさらに含む、
請求項27記載の方法。 - 前記機能が前記パラメータに基づいて決定される、請求項29記載の方法。
- 前記プロセッサが、前記パラメータを呼び出された前記機能に入力するステップを、さらに含む、
請求項29記載の方法。 - 前記ジェスチャの語彙が、隠れマルコフモデル(HMM)を用いて、又は、ルールに基づくモデルを用いて、モデル化されている、
請求項27記載の方法。 - 前記プロセッサが、前記ジェスチャの語彙の利用可能なジェスチャの全てより少ないジェスチャを選択的に起動するステップをさらに含み、
前記ジェスチャは、検知された動きと起動されたジェスチャとの比較に基づいて選択される、
請求項27記載の方法。 - 前記利用可能なジェスチャの全てより少ないジェスチャは、製造者の設定、ユーザの設定、又はアプリケーションの設定に基づいて使用可能となる、
請求項33記載の方法。 - 前記プロセッサが、特定のジェスチャを認識するために前記デバイスを学習させるステップと、
前記プロセッサが、前記ジェスチャの語彙に、前記特定のジェスチャを追加するステップと、
をさらに含む、請求項27記載の方法。 - 前記機能を呼び出すステップは、
アプリケーションを実行するステップ、画像を操作するステップ、又は、文字を入力するステップをさらに含む、請求項21記載の方法。 - 前記デバイスの動きを検知するステップは、
第1の時間と第2の時間で第1のユーザ入力と第2のユーザ入力とをそれぞれ検出するステップであって、前記第1の時間は前記第2の時間の前に生じるステップと、
前記第1の時間の前に第1の軌跡の第1の動きを検知するステップと、
前記第2の時間の後に第2の、異なる軌跡の第2の動きを検知するステップと、
前記第1の動きと前記第2の動きとを連結するステップと、
連結された、前記第1の動きと前記第2の動きとを検知された動きとして出力するステップと、
をさらに含む、請求項21記載の方法。 - 前記機能を呼び出すステップは、
仮想の環境をナビゲートするステップ、画像を操作するステップ、文字を入力するステップ、アプリケーションを実行するステップ、又はメディアハブ機能を呼び出すステップ、をさらに含む、請求項21記載の方法。 - 画像データを用いて動きを検知するように構成されたセンサと、
前記センサによって検知された、検知された動きに対応するジェスチャを認識し、
認識された前記ジェスチャに対応する機能を決定し、
前記機能を呼び出すように構成されたプロセッサと、
を含むデバイスにおいて、
前記ジェスチャを認識することは、
ジェスチャに適合することの最大の尤度を有するモデル化された学習ジェスチャを決定することと、
ジェスチャに適合することの最大の尤度を有すると判断されたモデル化された学習ジェスチャの対応する状態に適合するジェスチャの状態量を決定することと、
を含んでいて、
各状態は、ジェスチャ部分を有している、
デバイス。 - 前記センサがカメラであり、
前記動きが、オプティカルフローを用いて検知される、
請求項39記載のデバイス。 - 実行されると、コンピュータに、
画像データを用いてデバイスの動きを検知するステップと、
検知された前記デバイスの動きに対応するジェスチャを認識するステップと、
認識された前記ジェスチャに対応するデバイスの機能を決定するステップと、
前記機能を呼び出すステップと、
を含む動作を実行させるためのコンピュータプログラムを記録したコンピュータ可読媒体において、
前記ジェスチャを認識するステップは、
ジェスチャに適合することの最大の尤度を有するモデル化された学習ジェスチャを決定するステップと、
ジェスチャに適合することの最大の尤度を有すると判断されたモデル化された学習ジェスチャの対応する状態に適合するジェスチャの状態量を決定するステップと、
を含んでいて、
各状態は、ジェスチャ部分を有している、
コンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US95677607P | 2007-08-20 | 2007-08-20 | |
US95678407P | 2007-08-20 | 2007-08-20 | |
US60/956,784 | 2007-08-20 | ||
US60/956,776 | 2007-08-20 | ||
PCT/US2008/073671 WO2009026337A1 (en) | 2007-08-20 | 2008-08-20 | Enhanced rejection of out-of-vocabulary words |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013128357A Division JP5619961B2 (ja) | 2007-08-20 | 2013-06-19 | 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010537320A JP2010537320A (ja) | 2010-12-02 |
JP5406188B2 true JP5406188B2 (ja) | 2014-02-05 |
Family
ID=40378606
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010521990A Active JP5406188B2 (ja) | 2007-08-20 | 2008-08-20 | 高度な語彙外単語の拒否 |
JP2013128357A Expired - Fee Related JP5619961B2 (ja) | 2007-08-20 | 2013-06-19 | 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013128357A Expired - Fee Related JP5619961B2 (ja) | 2007-08-20 | 2013-06-19 | 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8565535B2 (ja) |
EP (1) | EP2191397B1 (ja) |
JP (2) | JP5406188B2 (ja) |
CN (2) | CN107102723B (ja) |
WO (1) | WO2009026337A1 (ja) |
Families Citing this family (100)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100960577B1 (ko) | 2005-02-08 | 2010-06-03 | 오블롱 인더스트리즈, 인크 | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US8537111B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
EP2163987A3 (en) | 2007-04-24 | 2013-01-23 | Oblong Industries, Inc. | Processing of events in data processing environments |
US9261979B2 (en) * | 2007-08-20 | 2016-02-16 | Qualcomm Incorporated | Gesture-based mobile interaction |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9495013B2 (en) | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
WO2009155465A1 (en) * | 2008-06-18 | 2009-12-23 | Oblong Industries, Inc. | Gesture-based control system for vehicle interfaces |
US9586135B1 (en) | 2008-11-12 | 2017-03-07 | David G. Capper | Video motion capture for wireless gaming |
US9383814B1 (en) | 2008-11-12 | 2016-07-05 | David G. Capper | Plug and play wireless video game |
US10086262B1 (en) | 2008-11-12 | 2018-10-02 | David G. Capper | Video motion capture for wireless gaming |
US9335909B2 (en) * | 2009-06-03 | 2016-05-10 | Honda Motor Co., Ltd. | Drawing assist device, drawing assist program, and drawing assist method |
US9746923B2 (en) | 2009-03-12 | 2017-08-29 | Immersion Corporation | Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction |
US9874935B2 (en) | 2009-03-12 | 2018-01-23 | Immersion Corporation | Systems and methods for a texture engine |
US10007340B2 (en) | 2009-03-12 | 2018-06-26 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
US10564721B2 (en) | 2009-03-12 | 2020-02-18 | Immersion Corporation | Systems and methods for using multiple actuators to realize textures |
CN102349040B (zh) * | 2009-03-12 | 2015-11-25 | 意美森公司 | 用于包括基于表面的触觉效果的界面的***和方法 |
US9696803B2 (en) | 2009-03-12 | 2017-07-04 | Immersion Corporation | Systems and methods for friction displays and additional haptic effects |
US9927873B2 (en) | 2009-03-12 | 2018-03-27 | Immersion Corporation | Systems and methods for using textures in graphical user interface widgets |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
KR101593598B1 (ko) * | 2009-04-03 | 2016-02-12 | 삼성전자주식회사 | 휴대단말에서 제스처를 이용한 기능 실행 방법 |
US20100306685A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | User movement feedback via on-screen avatars |
KR20140039342A (ko) * | 2009-06-19 | 2014-04-02 | 알까뗄 루슨트 | 윈도우 또는 애플리케이션을 닫기 위한 방법, 이 방법을 수행하기 위한 디바이스, 데이터 저장 디바이스, 소프트웨어 프로그램 및 사용자 디바이스 |
WO2011004135A1 (en) * | 2009-07-07 | 2011-01-13 | Elliptic Laboratories As | Control using movements |
US9030404B2 (en) * | 2009-07-23 | 2015-05-12 | Qualcomm Incorporated | Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices |
JP5238635B2 (ja) * | 2009-07-29 | 2013-07-17 | 京セラ株式会社 | 情報処理装置及びアプリケーションプログラムの起動方法 |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9174123B2 (en) * | 2009-11-09 | 2015-11-03 | Invensense, Inc. | Handheld computer systems and techniques for character and command recognition related to human movements |
US9292731B2 (en) * | 2009-12-30 | 2016-03-22 | Intel Corporation | Gesture-based signature authentication |
US8631355B2 (en) * | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US20110273380A1 (en) * | 2010-05-07 | 2011-11-10 | Research In Motion Limited | Portable electronic device and method of controlling same |
US9274594B2 (en) * | 2010-05-28 | 2016-03-01 | Microsoft Technology Licensing, Llc | Cloud-based personal trait profile data |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US20110317871A1 (en) * | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
US9952671B2 (en) | 2010-10-12 | 2018-04-24 | Nokia Technologies Oy | Method and apparatus for determining motion |
US8610831B2 (en) * | 2010-10-12 | 2013-12-17 | Nokia Corporation | Method and apparatus for determining motion |
US8223589B2 (en) * | 2010-10-28 | 2012-07-17 | Hon Hai Precision Industry Co., Ltd. | Gesture recognition apparatus and method |
CN102480540A (zh) * | 2010-11-19 | 2012-05-30 | 英业达股份有限公司 | 移动电话及其操作方法 |
EP2659335A4 (en) * | 2010-12-29 | 2016-05-18 | Thomson Licensing | SYSTEM AND METHOD FOR RECOGNIZING GESTURES |
WO2012104312A1 (en) * | 2011-01-31 | 2012-08-09 | Research In Motion Deutschland Gmbh | Method and apparatus for gesture authentication |
US8787006B2 (en) * | 2011-01-31 | 2014-07-22 | Apple Inc. | Wrist-worn electronic device and methods therefor |
US8873841B2 (en) * | 2011-04-21 | 2014-10-28 | Nokia Corporation | Methods and apparatuses for facilitating gesture recognition |
JP5747646B2 (ja) * | 2011-05-09 | 2015-07-15 | 株式会社ニコン | 電子装置、データ生成方法およびデータ生成プログラム |
US8666406B2 (en) * | 2011-05-12 | 2014-03-04 | Qualcomm Incorporated | Gesture-based commands for a group communication session on a wireless communications device |
IL213514A0 (en) * | 2011-06-13 | 2011-07-31 | Univ Ben Gurion | A 3d free-form gesture recognition system for character input |
US9390414B2 (en) | 2011-09-18 | 2016-07-12 | Google Inc. | One-click offline buying |
CN102592113B (zh) * | 2011-12-23 | 2014-07-30 | 哈尔滨工业大学深圳研究生院 | 一种基于表观特征的静态手势快速识别法 |
GB201203832D0 (en) * | 2012-03-05 | 2012-04-18 | Elliptic Laboratories As | User input system |
EP2631739B1 (en) | 2012-05-21 | 2016-02-03 | Huawei Technologies Co., Ltd. | Contactless gesture-based control method and apparatus |
US9323985B2 (en) * | 2012-08-16 | 2016-04-26 | Microchip Technology Incorporated | Automatic gesture recognition for a sensor system |
US20140141889A1 (en) | 2012-11-19 | 2014-05-22 | 2343127 Ontario Inc. | Systems and Methods for Capture and Use of Local Elements in Gameplay |
WO2014089202A1 (en) * | 2012-12-04 | 2014-06-12 | L3 Communications Corporation | Touch sensor controller responsive to environmental operating conditions |
US10134267B2 (en) | 2013-02-22 | 2018-11-20 | Universal City Studios Llc | System and method for tracking a passive wand and actuating an effect based on a detected wand path |
JP5782061B2 (ja) * | 2013-03-11 | 2015-09-24 | レノボ・シンガポール・プライベート・リミテッド | 移動物体の動作を認識する方法および携帯式コンピュータ |
CN107657280B (zh) | 2013-03-15 | 2021-08-03 | 英特尔公司 | 用于处理样本的方法和装置 |
KR102148645B1 (ko) * | 2013-03-15 | 2020-08-28 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US20140282272A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Interactive Inputs for a Background Task |
US9829984B2 (en) * | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
US10026116B2 (en) | 2013-06-05 | 2018-07-17 | Freshub Ltd | Methods and devices for smart shopping |
US10884493B2 (en) * | 2013-06-20 | 2021-01-05 | Uday Parshionikar | Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions |
US10558272B2 (en) * | 2013-06-20 | 2020-02-11 | Uday Parshionikar | Gesture control via eye tracking, head tracking, facial expressions and other user actions |
US20190265802A1 (en) * | 2013-06-20 | 2019-08-29 | Uday Parshionikar | Gesture based user interfaces, apparatuses and control systems |
US10137363B2 (en) * | 2013-06-20 | 2018-11-27 | Uday Parshionikar | Gesture based user interfaces, apparatuses and control systems |
US9625997B2 (en) | 2013-07-19 | 2017-04-18 | Microchip Technology Incorporated | Human interface device and method |
WO2015063901A1 (ja) * | 2013-10-30 | 2015-05-07 | 株式会社東芝 | 電子機器、操作制御方法及びプログラム |
US9405377B2 (en) * | 2014-03-15 | 2016-08-02 | Microsoft Technology Licensing, Llc | Trainable sensor-based gesture recognition |
US20150261280A1 (en) * | 2014-03-17 | 2015-09-17 | Mediatek Inc. | Apparatuses and methods for waking a display with an adjustable power level to detect touches thereon |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
US9633184B2 (en) | 2014-05-30 | 2017-04-25 | Google Inc. | Dynamic authorization |
US10148692B2 (en) | 2014-06-23 | 2018-12-04 | Google Llc | Aggregation of asynchronous trust outcomes in a mobile device |
US9805201B2 (en) | 2014-06-23 | 2017-10-31 | Google Inc. | Trust agents |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
JP2017528714A (ja) * | 2014-09-10 | 2017-09-28 | ファロ テクノロジーズ インコーポレーテッド | 3次元座標の光学測定のための方法および3次元測定デバイスの制御 |
DE102014013678B3 (de) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
US9746929B2 (en) * | 2014-10-29 | 2017-08-29 | Qualcomm Incorporated | Gesture recognition using gesture elements |
US20160132642A1 (en) * | 2014-11-06 | 2016-05-12 | Raz Carmi | Device and method for monitoring food intake |
CN104866110A (zh) * | 2015-06-10 | 2015-08-26 | 深圳市腾讯计算机***有限公司 | 一种手势控制方法,移动终端及*** |
EP3314368A4 (en) | 2015-06-26 | 2019-01-16 | INTEL Corporation | TECHNOLOGIES FOR CONTROLLING MICRO-MOTION-BASED INPUT GESTURES OF CLOTHING COMPUTING DEVICES |
US9665769B2 (en) * | 2015-08-18 | 2017-05-30 | International Business Machines Corporation | Handwriting recognition with natural user input on multitouch surfaces |
US10169670B2 (en) * | 2015-11-30 | 2019-01-01 | International Business Machines Corporation | Stroke extraction in free space |
KR102433533B1 (ko) * | 2015-12-09 | 2022-08-18 | 한국전자기술연구원 | 모션 학습을 통한 인지 기반 제어 방법 및 시스템 |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
JP6258442B1 (ja) * | 2016-10-28 | 2018-01-10 | 三菱電機インフォメーションシステムズ株式会社 | 動作特定装置、動作特定方法及び動作特定プログラム |
CN110505919B (zh) * | 2017-02-03 | 2022-01-14 | 埃佩多夫股份公司 | 手持流体转移设备、实验室***及操作它们的方法 |
US11093041B2 (en) * | 2018-11-30 | 2021-08-17 | International Business Machines Corporation | Computer system gesture-based graphical user interface control |
US10877568B2 (en) * | 2018-12-19 | 2020-12-29 | Arizona Board Of Regents On Behalf Of Arizona State University | Three-dimensional in-the-air finger motion based user login framework for gesture interface |
KR102155103B1 (ko) * | 2019-01-08 | 2020-09-11 | 주식회사 원이멀스 | 가상 환경에서 한글 문자를 입력할 수 있는 시스템 및 방법 |
US20240094825A1 (en) * | 2022-09-16 | 2024-03-21 | Apple Inc. | Gesture recognition with hand-object interaction |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5131053A (en) * | 1988-08-10 | 1992-07-14 | Caere Corporation | Optical character recognition method and apparatus |
CA2081406C (en) * | 1991-12-23 | 1997-09-16 | Chinmoy Bhusan Bose | Method and apparatus for connected and degraded text recognition |
US5319721A (en) * | 1992-04-14 | 1994-06-07 | International Business Machines Corporation | Methods and apparatus for evolving a starter set of handwriting prototypes into a user-specific set |
JPH0728591A (ja) * | 1993-05-13 | 1995-01-31 | Toshiba Corp | 空間操作マウスシステム及び空間動作パターン入力方法 |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
IL110137A (en) * | 1994-06-27 | 2000-06-29 | Advanced Recognition Tech | Handwriting recognition system |
JP3260979B2 (ja) * | 1994-07-15 | 2002-02-25 | 株式会社リコー | 文字認識方法 |
US5682439A (en) * | 1995-08-07 | 1997-10-28 | Apple Computer, Inc. | Boxed input correction system and method for pen based computer systems |
JP3869897B2 (ja) | 1997-01-28 | 2007-01-17 | キヤノン株式会社 | カメラ制御システムおよび映像受信装置および制御方法および記憶媒体 |
EP0905644A3 (en) * | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
JP3639126B2 (ja) * | 1998-01-22 | 2005-04-20 | 富士通株式会社 | 住所認識装置及び住所認識方法 |
US6226403B1 (en) * | 1998-02-09 | 2001-05-01 | Motorola, Inc. | Handwritten character recognition using multi-resolution models |
US6285786B1 (en) * | 1998-04-30 | 2001-09-04 | Motorola, Inc. | Text recognizer and method using non-cumulative character scoring in a forward search |
US6636631B2 (en) * | 1998-06-04 | 2003-10-21 | Matsushita Electric Industrial Co., Ltd. | Optical character reading method and system for a document with ruled lines and its application |
US6304674B1 (en) | 1998-08-03 | 2001-10-16 | Xerox Corporation | System and method for recognizing user-specified pen-based gestures using hidden markov models |
US6735566B1 (en) * | 1998-10-09 | 2004-05-11 | Mitsubishi Electric Research Laboratories, Inc. | Generating realistic facial animation from speech |
JP4332649B2 (ja) * | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
US6694044B1 (en) * | 1999-09-16 | 2004-02-17 | Hewlett-Packard Development Company, L.P. | Method for motion classification using switching linear dynamic system models |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US6754386B1 (en) * | 2000-08-22 | 2004-06-22 | Microsft Corporation | Method and system of matching ink processor and recognizer word breaks |
US6823084B2 (en) * | 2000-09-22 | 2004-11-23 | Sri International | Method and apparatus for portably recognizing text in an image sequence of scene imagery |
US7095401B2 (en) * | 2000-11-02 | 2006-08-22 | Siemens Corporate Research, Inc. | System and method for gesture interface |
JP3893022B2 (ja) | 2000-12-18 | 2007-03-14 | 独立行政法人科学技術振興機構 | 文字認識方法、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体及び文字認識装置 |
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
US20050043948A1 (en) | 2001-12-17 | 2005-02-24 | Seiichi Kashihara | Speech recognition method remote controller, information terminal, telephone communication terminal and speech recognizer |
US6990639B2 (en) * | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US6938222B2 (en) | 2002-02-08 | 2005-08-30 | Microsoft Corporation | Ink gestures |
US7340077B2 (en) * | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7366645B2 (en) | 2002-05-06 | 2008-04-29 | Jezekiel Ben-Arie | Method of recognition of human motion, vector sequences and speech |
AU2003275134A1 (en) * | 2002-09-19 | 2004-04-08 | The Penn State Research Foundation | Prosody based audio/visual co-analysis for co-verbal gesture recognition |
US20040143434A1 (en) | 2003-01-17 | 2004-07-22 | Ajay Divakaran | Audio-Assisted segmentation and browsing of news videos |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
EP1475741B1 (en) * | 2003-05-08 | 2005-12-21 | Orange S.A. | Data processing apparatus and method |
US7302099B2 (en) * | 2003-11-10 | 2007-11-27 | Microsoft Corporation | Stroke segmentation for template-based cursive handwriting recognition |
WO2005071636A1 (en) * | 2004-01-20 | 2005-08-04 | Koninklijke Philips Electronics, N.V. | Advanced control device for home entertainment utilizing three dimensional motion technology |
US7176888B2 (en) | 2004-03-23 | 2007-02-13 | Fujitsu Limited | Selective engagement of motion detection |
JP4708422B2 (ja) * | 2004-04-15 | 2011-06-22 | ジェスチャー テック,インコーポレイテッド | 両手動作の追跡 |
JP4172584B2 (ja) * | 2004-04-19 | 2008-10-29 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 文字認識結果出力装置、文字認識装置、その方法及びプログラム |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
CN1722063A (zh) * | 2004-07-12 | 2006-01-18 | 英业达股份有限公司 | 手势辨识***及其方法 |
US7372993B2 (en) * | 2004-07-21 | 2008-05-13 | Hewlett-Packard Development Company, L.P. | Gesture recognition |
JP4419768B2 (ja) * | 2004-09-21 | 2010-02-24 | 日本ビクター株式会社 | 電子機器の制御装置 |
US7496547B2 (en) * | 2005-06-02 | 2009-02-24 | Microsoft Corporation | Handwriting recognition using a comparative neural network |
JP2007087089A (ja) * | 2005-09-21 | 2007-04-05 | Fujitsu Ltd | ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法 |
US20070130547A1 (en) * | 2005-12-01 | 2007-06-07 | Navisense, Llc | Method and system for touchless user interface control |
JP4744317B2 (ja) * | 2006-02-16 | 2011-08-10 | 富士通株式会社 | 単語検索装置、単語検索方法、及びコンピュータプログラム |
US9261979B2 (en) | 2007-08-20 | 2016-02-16 | Qualcomm Incorporated | Gesture-based mobile interaction |
-
2008
- 2008-08-20 EP EP08827702.5A patent/EP2191397B1/en active Active
- 2008-08-20 US US12/194,780 patent/US8565535B2/en active Active
- 2008-08-20 JP JP2010521990A patent/JP5406188B2/ja active Active
- 2008-08-20 CN CN201710080495.7A patent/CN107102723B/zh active Active
- 2008-08-20 CN CN200880112388.7A patent/CN101836207B/zh active Active
- 2008-08-20 WO PCT/US2008/073671 patent/WO2009026337A1/en active Application Filing
-
2013
- 2013-06-19 JP JP2013128357A patent/JP5619961B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN107102723A (zh) | 2017-08-29 |
EP2191397A1 (en) | 2010-06-02 |
JP5619961B2 (ja) | 2014-11-05 |
CN107102723B (zh) | 2019-12-06 |
EP2191397B1 (en) | 2019-01-23 |
US20090052785A1 (en) | 2009-02-26 |
WO2009026337A1 (en) | 2009-02-26 |
EP2191397A4 (en) | 2016-03-30 |
US8565535B2 (en) | 2013-10-22 |
CN101836207B (zh) | 2017-03-01 |
CN101836207A (zh) | 2010-09-15 |
JP2010537320A (ja) | 2010-12-02 |
JP2013232208A (ja) | 2013-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5619961B2 (ja) | 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置 | |
US9261979B2 (en) | Gesture-based mobile interaction | |
JP7361156B2 (ja) | リアルタイム手書き認識の管理 | |
US11593984B2 (en) | Using text for avatar animation | |
JP6997734B2 (ja) | 画面用の手書きキーボード | |
US8793621B2 (en) | Method and device to control touchless recognition | |
US8737693B2 (en) | Enhanced detection of gesture | |
US8146020B2 (en) | Enhanced detection of circular engagement gesture | |
CN108700996B (zh) | 用于多输入管理的***和方法 | |
JP2016118929A (ja) | 入力支援方法、入力支援プログラムおよび入力支援装置 | |
Wang et al. | A gesture-based method for natural interaction in smart spaces | |
EP3835924A1 (en) | Computer system and method for human-machine interaction | |
Amma et al. | Airwriting: Bringing text entry to wearable computers | |
WO2023036810A1 (en) | Method for detecting user input to a breath input configured user interface | |
JP2013077180A (ja) | 認識装置およびその制御方法 | |
EP3584688A1 (en) | Information processing system, information processing method, and program | |
JP6481360B2 (ja) | 入力方法、入力プログラムおよび入力装置 | |
Chen | Universal motion-based control and motion recognition | |
US12026366B2 (en) | System and method for coarse and fine selection keyboard user interfaces | |
US20240231605A9 (en) | System and method for coarse and fine selection keyboard user interfaces | |
US20240134516A1 (en) | System and method for coarse and fine selection keyboard user interfaces | |
GB2610435A (en) | Method for detecting user input to a breath input configured user interface | |
GB2610436A (en) | Computer-implemented method of providing input using a dynamic keyboard breath input enabled user interface | |
CN117931335A (zh) | 用于人机界面上的多模式输入和编辑的***和方法 | |
Padliya | Gesture Recognition and Recommendations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110816 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20120206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120925 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20121221 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130619 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5406188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |