JP2012518236A - ジェスチャー認識のための方法及びシステム - Google Patents
ジェスチャー認識のための方法及びシステム Download PDFInfo
- Publication number
- JP2012518236A JP2012518236A JP2011551107A JP2011551107A JP2012518236A JP 2012518236 A JP2012518236 A JP 2012518236A JP 2011551107 A JP2011551107 A JP 2011551107A JP 2011551107 A JP2011551107 A JP 2011551107A JP 2012518236 A JP2012518236 A JP 2012518236A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- subject
- image
- data
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】 本発明は、ジェスチャー認識のための方法及びシステムを提供することを課題とする。
【解決手段】 関心のあるジェスチャーを認識する方法は、関心のあるジェスチャーをするように対象者に指示し、動きをする前記対象者の複数の画像をセンサから取得し、前記複数の画像が各々取得されると、該複数の画像の各々と前記関心のあるジェスチャーとを比較し、前記比較に基づき追跡得点を決定し、該追跡得点が所与の閾値内にあるとき、前記対象者が関心のあるジェスチャーを行っていると決定することを含む。
【選択図】図1
【解決手段】 関心のあるジェスチャーを認識する方法は、関心のあるジェスチャーをするように対象者に指示し、動きをする前記対象者の複数の画像をセンサから取得し、前記複数の画像が各々取得されると、該複数の画像の各々と前記関心のあるジェスチャーとを比較し、前記比較に基づき追跡得点を決定し、該追跡得点が所与の閾値内にあるとき、前記対象者が関心のあるジェスチャーを行っていると決定することを含む。
【選択図】図1
Description
奥行カメラの前でプレーヤが行うジェスチャー及び動きを認識することに関する。
本願は、発明の名称が「ジェスチャー認識のための方法及びシステム」である米国仮出願(出願番号61/153,229、出願日2009年2月17日)の利益を主張するもので、本願はその全てを参照して含んでいる。
プレーヤやユーザが自然的かつ直感的なインターフェイスを介してコンピュータシステムと通信できるように、コンピュータシステムのプレーヤやユーザの動作を解析する多くの技術がある。近年、ホームエンターテインメントやゲームの市場に対して、これらのインターフェイスを適用することに関心が高まっている。これらの中で注目されているのは、例えば、任天堂Wii(登録商標)のコントローラやWii Fit(登録商標)のバランスボードである。前記任天堂のコントローラは、加速度計に依存し、また、当該コントローラの位置を三角測量によって計算する。また、多くのヒューマン・マシン・インターフェース技術は、異なるカメラの種類に依存する。カメラを基礎にしたインターフェイスシステムの初期の例は、ソニーのアイトーイ(登録商標)システムであり、これは、大まかな動作を検出して、それらをユーザが行ったジェスチャーとして分類するために従来のカラーカメラを用いている。
コンピュータビデオゲームとの関係において、ジェスチャー認識システムを設計する際に考慮されるべき幾つかの重要な条件があり、それらの相対的重要性は、ジェスチャー認識システムがゲーム内でどのように用いられるかに依存する。ジェスチャー認識システムの一利用は、一旦特定のジェスチャーが認識されると、システムが認識したユーザのジェスチャー内容をユーザに見せるために、事前記録されたアニメーションが流されるので、ユーザの反応を考慮できる。ジェスチャー認識システムの第二の利用は、ゲームプレイ・メカニズムのように、例えば得点を追加し、プレーヤが異なるレベルに進めるように採点することである。従って、ゲームで用いられるジェスチャー認識システムの態様は、異なる制限をシステム設計に課す。一例として、システムは、ユーザが行う動きに関してユーザに反応を提供するように用いられる場合、ユーザのジェスチャーの動きと同じジェスチャーのシステムの認識との間の遅延を最小化することが重要である。ジェスチャー認識システムがプレーヤの得点を計算するために用いられるものなら、システム遅延への検出感度は、それほど重要なものではない。
米国特許番号7,340,077では、ジェスチャー認識システムは、人間の体部における複数の個々の領域の奥行きを示す位置情報を取得し、当該情報を用いてジェスチャーを分類することが開示されている。本特許によれば、個々の領域をいつ記憶し始めるかを指定する明確な開始時間と、また、ユーザがジェスチャーを終えたことを示す明確な終了時間とがある。開始並びに終了時間を明確に指定した後、ジェスチャーライブラリとの比較がなされる。その結果、この方法では、固有の遅延がもたらされる。さらに、データ収集は、奥行きデータ上で直接的に行われる。即ち、データ点は、バイナリ・マスクで「1」の値に対応する奥行きデータから抽出されるのみである。奥行きデータからのデータ点抽出に起因する幾つかの制限がある。第一に、奥行きデータそのものが本来ノイズを含み、これは、抽出される値の質に悪影響を及ぼし得る。第二に、奥行きデータからデータ点を抽出する当該方法は、必然的にカメラ視野に制限される。
本発明は、奥行カメラの前でプレーヤが行うジェスチャー及び動きを認識することに関し、一実施形態では、コンピュータビデオゲームのゲームプレイをするために、これらのジェスチャーを利用するものである。本願の以下の要約に際し、まず幾つかの用語定義の説明をする。
(ジェスチャー認識システムについて)ジェスチャー認識システムとは、例えば入力装置の前でユーザが行う事前決定された動きを認識し特定するシステムである。例として、ユーザが手を閉じることを認識するためにカメラからデータ解析したり、前方に突き出した左手を認識するためにデータ解析をすることを含む。
(奥行カメラについて)本願は、奥行カメラからのデータを用いてジェスチャー認識を行い、前記奥行カメラは、3Dデータを生成するカメラである。幾つかの異なるタイプの奥行カメラがある。これらの奥行カメラの中には、立体カメラと同様に飛行時間の原則又は構築された光技術に依存するものがある。これらのカメラは、画素の固定解像度を有する画像を生成し、各画素は、整数値を有し、これらの値は、カメラによって画像領域に投影される対象物の距離に対応する。この奥行きデータに加えて、奥行カメラは、従来のカラーカメラと同じ態様によって、カラーデータを更に生成し、このデータは、処理に用いられるべく奥行きデータと結合され得る。
(バイナリ・マスクについて)奥行きデータを用いると、原画像と同じ解像度の画像であるバイナリ・マスクを作成することは容易なことである。しかし、全画素は、0か1に対応する整数値を有する。一般的に全画素は閾値を有し、画素値が閾値以下ならバイナリ・マスクで0の値をとり、画素値が閾値以上なら1の値をとる。例えば、奥行カメラの前に立っているプレーヤの場合、プレーヤの体に対応する画素が1となり、それ以外の全ての画素が0となるように、バイナリ・マスクが生成(即ち閾値が計算)される。つまり、バイナリ・マスクは、カメラに撮影されるユーザのシルエット(全体の形)である。
(多関節形状について)多関節形状は、ある固定態様で互いに接続される間節(結合部)の集合であり、例えば人間の骨格のように特定方向への動きを制限する。
(逆運動学解法について)逆運動学(IK)解法は、本願で用いられうる。多関節形状(例えば特定の関節の位置)の所望の構成が与えられると、IK解法は、選択される関節の所与の位置を算出する角度であって、画像内で所与の関節と他の関節との間の角度を計算する。例えば、手首及び肩の位置が与えられると、IK解法は、これらの手首及び肩の位置を算出する角度であって、肩と肘との関節の角度を計算し、その結果、効果的に肘の関節の位置を計算する。
発明名称が「ジェスチャー分類のための方法及びシステム」と題される米国特許出願番号11/866,280は、ゲームにおけるゲームプレイを行うジェスチャー認識を用いる方法及びシステムについて記載しており、本願は、その全てを参照して含んでいる。そのような方法及びシステムは、以下に記載するように本願に用いられることが可能である。一実施形態では、米国特許出願番号11/866,280に記載の方法は、IK解法モデルから生成されるデータに適用される。
体の一部は、誤差の特定の限界内において、奥行カメラによって生成されるデータから特定される。体の様々な部分の位置が奥行き画像上で特定された後、奥行き値が画像から抽出される結果、体の各部分の3次元(3D)位置が得られる(この工程は、トラッキングモジュールと呼ばれる。)。ジェスチャー認識システムは、ユーザの体のポイントに対応する前記3D位置上で訓練され実施されうる。
本願では、体の一部に対応する前記3D位置は、モデル上に位置付けられる(描かれる)。一実施形態では、逆運動学(IK)解法は、奥行き画像から得られるデータポイントを人間の関節が取り得る可能な構成上に投影するために用いられる。IK解法は基本的に制限として作用し、データは、人間の自然な動きのモデルの枠組み内で適合するようにフィルターにかけられる。
トラッキングモジュールからのデータにフィルターをかけるためにIK解法を用いるとき、幾つかの重要な利点がある。第一に、IK解法モデルは、効果的にデータを平滑化し、従ってカメラノイズの効果を最小化する。第二に、トラッキングモジュールから得られるデータポイントは、バイナリ・マスク上で「1」の画素値(即ち、ユーザのシルエット)に必ず対応する。IK解法により得られるデータに関して、そのような制限はない。プレーヤがカメラ視野の端近傍に立っているような特定の例を考えてみる。この場合、プレーヤが横に動くと、腕の端がカメラの視野外に出る。にもかかわらず、IK解法モジュールは、プレーヤの腕が視野外に達していることを計算し、手の位置を戻す(計算する)。明らかに、トラッキングモジュールからのデータのみを用いれば、このようなことはできない。IK解法モデルを用いる第三の利点は、オクルージョンに対処することである。例えば、プレーヤの手は、肘に対するカメラ視野をしばしば遮る。その結果、肘に対応するデータは、(その位置が不明なので)奥行き画像から抽出されない。一方、手及び肩の位置を与えると、IK解法モデルは、肘の大まかな位置をも計算することができる。
本願の更なる構成は、ジェスチャー分類方法である。米国特許出願番号11/866,280に記載の方法は、ジェスチャーが行われるか否かに関するバイナリ分類子である。即ち、当該方法は、ジェスチャーが行われたか否かに関して、「Yes」又は「No」の識別であるバイナリを算出する。米国特許出願番号11/866,280に記載の方法の特徴は、ジェスチャーライブラリの如何なるジェスチャーが行われたか決定する前に、ジェスチャーが完成されるまで待たなければならないことである。ジェスチャーを分類する別の態様は本願に含まれる。ジェスチャーが行われ或いは行われなかった場合に、バイナリ(「Yes」又は「No」)を決定するというよりもむしろ、本願に記載の方法は、フレーム毎に行われているジェスチャーを追跡し、行われているジェスチャーがジェスチャーライブラリの所与のジェスチャーに如何に近いかを各フレーム後に特定する。
ジェスチャー認識システム及び方法の実施例は、図面を参照しつつ説明される。実施例と図とは、限定的というよりもむしろ実例的なものである。
図1は、ジェスチャー認識システムの一実施形態の全体構成を示すブロック図100Aである。画像取得及びデータ前処理モジュール200は、他の三つのモジュールであるジェスチャー・トレーニングモジュール300、バイナリ・ジェスチャー認識モジュール400、リアルタイム・ジェスチャー認識モジュール500に処理されるデータを供給する前に、カメラからデータを取得して処理する。一実施形態では、ジェスチャー・トレーニングモジュール300は、当該モジュールに供給されたデータから特定のジェスチャーを特徴付けるための最も効率的な方法を計算することで、ジェスチャー認識アルゴリズムを訓練する。一実施形態では、ジェスチャー・トレーニングモジュール300は、オフラインタスクとして動かされる。ジェスチャー・トレーニングモジュール300によって生成されるデータによるジェスチャーの特徴は、バイナリ・ジェスチャー認識モジュール400とリアルタイム・ジェスチャー認識モジュール500とに送られる。更に、画像取得及びデータ前処理モジュール200からのデータもまた、バイナリ・ジェスチャー認識モジュール400とリアルタイム・ジェスチャー認識モジュール500とに送られる。
図2は、開示の実施形態に関する図で、特徴位置を得るためにカメラから画像データを取得して処理するための具体的な工程200Aを示すフロー図である。システムの画像取得及びデータ前処理モジュール200は、工程200Aを実行する。一実施形態では、特徴位置は関節位置である。取得される特徴位置は、モジュール300,400,500に送られる。
ブロック210では、モジュール200がカメラから2次元画像データを取得する。このデータは、奥行きデータのみ或いは奥行きデータ及びカラーデータである。
ブロック220では、モジュール200はカメラからのデータを処理する。これは、奥行き画像だけ或いはカラー画像と共に奥行き画像を処理し得る。画像処理アルゴリズムは、追跡される対象物の様々な特徴に対応して、カメラから取得される2次元(2D)画像上のポイントをできるだけ正確に特定するために用いられる。プレーヤの体が追跡される場合には、これらの特徴はプレーヤの頭、左右の肩の関節、左右の肘の関節、左右の手、胴、骨盤、左右の膝の関節を含むことが可能である。関心のある特徴位置が2D画像上で特定された後、各々の特徴の3D位置を取得するために、奥行き値は奥行き画像から抽出される。一実施形態では、これは、関心のある各々の関節の3D位置(奥行き画像からの奥行きを含む)を取得することに対応する。
ブロック230では、ブロック220で取得される関節の3D位置は、追跡される対象物のモデルに投影される。データが位置付けされるモデルには、幾つかの異なる種類がある。一実施形態では、モデルは幾何学的な形状をなす。例えばモデルは、掌と5本の指とを備える人間の手による簡単な幾何学的な表示である。一実施形態では、モデルは、人間の骨格の表示であって、IK解法或いは他の制限システムを用いて人間の自然な動きと一致する構成のみを明示するように制限されている。一実施形態では、IK解法は、人間の骨格の関節の可能な構成をモデル化(具現化)する連立方程式を解き、各々の関節の動きの自由度を制限するように効果的に作用する。
ブロック220で取得される関節位置をブロック230のモデルで制限することは、幾つかの重要な機能を与える。第一に、カメラからのノイズをフィルターにかけて、効果的に結果物を平滑化する。第二に、特定のプレーヤの手足がカメラの視野外にあるかもしれない。この場合、ブロック230のモデルは、カメラの視野にない関節の大よその位置を計算できる。第三に、カメラデータから取得されない関節の位置の代わりをする。IK解法は、これらの他の「近傍の」関節を所与として幾つかの関節の位置を計算できる。例えば、もしプレーヤの手がカメラに向かって直接外方向に伸ばされていれば、プレーヤの肘や或いは肩が視野から遮られうる。この場合、ブロック220でこれらの関節の3D位置を取得することは不可能である。しかしながら、ブロック230では、これらの関節の3D位置は、他の関節の位置を所与として幾つかの関節の位置を計算できる人間の骨格のモデルから取得される。
幾つかの実施形態では、選択的にブロック240を含み、特徴(或いは関節)位置データは、標準骨格或いは標準モデルに縮小拡大される。これは、一般的に「アニメーション・リターゲッティング(animation retargeting)」と呼ばれる。このブロックは、たとえ試験データが収集される人体比率と異なる人体比率でトレーニングデータがユーザから収集されたとしても、トレーニングデータ及び試験データは同じ座標系を参照しなければならないため、必須ではないが有用である。トレーニングデータに含まれないユーザの体に、訓練されるジェスチャーを上手く適用するために、追跡データは適切に拡大縮小されうる。
ブロック250では、データは、アニメーション・リターゲッティングのために用いられる標準モデルから収集される。一実施形態では、これは骨格モデルからの関節の3D位置を取得することに対応する。ブロック260では、モデルから検索されたデータは、ジェスチャー認識モジュール400及び500と同様に、ジェスチャー分類アルゴリズムを訓練するためにジェスチャー・トレーニングモジュール300に送られる。
図3Aは、ジェスチャーライブラリを構築する具体的な工程300Aを示すフロー図である。システムのジェスチャー・トレーニングモジュール300は、工程300Aを実行する。ブロック310では、モジュール300は、画像取得及びデータ前処理モジュール200によって生成される特徴データを受け取る。そして、ブロック320では、モジュール300は、特徴データからジェスチャーを特徴付けする。また、ブロック330では、モジュール300は、開示の一実施形態に従って、前記ジェスチャーを特定の事前決定されるジェスチャーに関係付ける。ブロック330では、工程300Aの結果としてジェスチャーライブラリが構築される。ここで、各々のジェスチャーは、画像取得及びデータ前処理モジュール200によって生成されるデータに関して、特定の特徴を有する。
図3Aのブロック320及びブロック330は、以下で詳細に述べられかつ米国特許出願番号11/866,280の図1に見られる図3Bのブロックを含むことが可能である。また、図3Aのブロック310は、以下に詳細に述べられかつ米国特許出願番号11/866,280の図2に見られる図3Cのブロックを含むことが可能である。一実施形態では、ブロック320及びブロック330は、オフラインタスクとして実行される。
特定のジェスチャーとしてユーザの動きを分類するために、ユーザの動きは、分類された既知の一連のジェスチャーと比較され、ジェスチャーライブラリに保存される。ライブラリにおける各々のジェスチャーに対して、基準値又は「グランドトゥルース(ground truth)」データが、各々のジェスチャーの前処理ステップで最初に生成される。「グランドトゥルース」データは、特定のジェスチャーとして前記動きを分類するために、比較されるユーザの動きに対して基準値として用いられる。一連の幾つかの画像において関心のある特徴点の相対位置を特徴づけるデータは、前記比較のために用いられる。図3Bは、ジェスチャーライブラリのために「グランドトゥルース」データが取得される一の方法300Bを示す。
ステップ110Aでは、関心のあるジェスチャーを何度も行うことで、少なくとも一の対象者が記録される。センサは、対象者の体の関心のある各々の特徴点に配置され、モーションキャプチャ装置は、対象者の動きを一連の画像に記録するために用いられる。関心のある特徴点は、例えば対象者の左手、左肘、左肩、頭に対応する関節及び位置を含みうる。当業者にとって、対象者の体における多くの他の位置が関心のある特徴点でありうることは明らかである。ステップ110Aの結果は、一連の各画像における一の特徴点に対応する各ポイントを備える3次元ポイントのセットである。
ステップ120Aでは、モーションキャプチャ・セッションからのデータは、モーションキャプチャデータを処理するための標準技術を用いてデータを手動で除去及び平滑化することで、後処理される。当業者にとって、他の後処理ステップが実施されうることは明らかである。データは、バイアスを最小化すべくジェスチャーが実施される度にステップ125Aで平均化される。好ましい実施形態では、ジェスチャーをする多くの異なる対象者が記録され、一の人間へのグランドトゥルースデータの過剰適合(overfitting)を防止するために、異なる対象者のジェスチャーが平均化される。
類似性測度は、二つのジェスチャーセットの類似性を互いに量的に比較する機能である。類似性測度値が高ければ高いほど、人間の動きは、当該動きが比較される既知のジェスチャーとより良く類似する。ステップ130Aでは、ジェスチャーを人間の動きと比較する類似性測度が特定のジェスチャーの閾値より高い場合に、前記人間の動きがジェスチャーとして特定され得るように、閾値はジェスチャーのために計算される。
ステップ140Aでは、他のジェスチャーがジェスチャーライブラリに追加されるべきか否かを問う。もし追加されるべきなら、上記ステップは、新しいジェスチャーをする少なくとも一の対象者の記録をするステップ110Aから繰り返される。もし更なるジェスチャーがライブラリに追加されるべきでないなら、ジェスチャーライブラリは完成となる。
図3Cは、ジェスチャーの「グランドトゥルース」データとそれに対応するジェスチャーの閾値とがジェスチャーライブラリで取得される別の方法300Cを示す。ステップ210Aでは、カラー画像及び奥行き画像を記録可能なビデオカメラは、関心のあるジェスチャーを数回行う少なくとも一の対象者を記録するために用いられる。ステップ220Aでは、関心のある特徴点の位置は、手動で一連のカラー画像及び奥行き画像に記される。他の実施形態では、関心のある前記点の記し付け(マーキング)は、自動化又は半自動化することが可能である。例えば、自動的な追跡は、関心のある前記点を決定するために、ビデオカメラからの奥行き画像上で実行され、また、他の実施形態では、自動的に特定される関心のある前記点は、手動で補正される。ステージ230Aでは、ジェスチャーを捕らえている一連の画像におけるカラー画像と奥行き画像との各組に対して、関心のある各々の特徴点の3次元座標が計算される。データの後処理は、240Aで実行される。実行されうる後処理ステップは、時間的に及び空間的にデータの平滑化を含む。当業者にとって、他の後処理ステップもまた実行可能であることは明らかである。
ステップ250Aでは、データは、バイアスを最小化すべくジェスチャーが実行される度に平均化される。好ましい実施形態では、ジェスチャーをする多くの異なる対象者が記録され、一の人間へのグランドトゥルースデータの過剰適合(overfitting)を防止するために、異なる対象者のジェスチャーが平均化される。
ステップ260Aでは、ジェスチャーを人間の動きと比較する類似性測度が特定のジェスチャーの閾値よりも高い場合に、人間の動きがジェスチャーとして特定されるように、閾値がジェスチャーに対して計算される。
ステップ270Aでは、他のジェスチャーがジェスチャーライブラリに追加されるべきか否かを問う。もし追加されるべきなら、上記ステップは、新しいジェスチャーをする少なくとも一の対象者の記録をするステップ210Aから繰り返される。もし更なるジェスチャーがライブラリに追加されるべきでないなら、ジェスチャーライブラリは完成となる。
監視下にない機械学習法だけでなく監視下にある機械学習法を含んで、データの自動分類のために用いられる如何なる技術も用いられることが可能である。データ分類技術は、SVM(サポート・ベクター・マシン)、隠れマルコフモデル(HMMs)、k−平均クラスタリング(k−means clustering)を含むが、これらに限定されることはない。例えば、SVMは、データポイントの二つのクラス(「所望のジェスチャー」と「所望でないジェスチャー」)間の「最適分離」を探すために用いられ、また、得られる決定関数は、候補のジェスチャーがどのクラスに分類されるかを決定するために候補のジェスチャーに適用される。
図4Aは、開示の実施形態に関する図で、検索されているジェスチャーが行われたか否かを決定するバイナリ・ジェスチャー認識技術を用いる具体的な工程400Aを示すフロー図である。一実施形態では、バイナリ・ジェスチャー認識技術は、ジェスチャーライブラリからのジェスチャーが行われたか否かを計算する前に、画像取得及びデータ前処理モジュール200から完全な時間依存シーケンスを受信するまで待機することによって、ゲームの遅延を発生させる。
ブロック410では、バイナリ・ジェスチャー認識モジュール400は、特徴を表現する画像取得及びデータ前処理モジュール200から特徴データを受け取る。そして、ブロック420では、ジェスチャーライブラリのジェスチャーに対応するプレーヤのジェスチャーは、モジュール400によって検出される。ブロック420からの結果は、検出されたジェスチャーである。一実施形態では、図4Bに示すように、ブロック420が米国特許出願番号11/866,280の図3のブロックを含むことが可能である。
ブロック430では、システムのゲーム・エンジンモジュールは、ブロック420で検出されたジェスチャーに基づいて、プレーヤに対する反応を生成する。ゲーム・エンジンモジュールは、基本的に、プレーヤが相互作用するゲームアプリケーションを制御する。ブロック440では、システムは、生成した反応をプレーヤのディスプレイ上に表示し、例えばプレーヤの実行によるプレーヤの得点を調整する。
図5は、開示の実施形態に関する図で、プレーヤが特定時間(例えば一連のフレーム)に亘って特定のジェスチャーを行っているか否かを確認し、如何に正確にプレーヤが指示された動作を実施しているかを決定する具体的な工程500Aを示すフロー図である。
ブロック510では、リアルタイム・ジェスチャー認識モジュール500は、画像取得及びデータ前処理モジュール200から特徴データを受け取る。リアルタイム・ジェスチャー認識モジュールは、ジェスチャーをしているプレーヤの進行を、例えば各フレーム毎にリアルタイムで更新する。ブロック520では、システムのゲーム・エンジンモジュールは、関心のあるジェスチャーを選択し、前記ジェスチャーを行うようにユーザに指示する。
ブロック530では、累積追跡得点(CTS)は、0(ゼロ)に設定される。一実施形態では、CTSは各フレーム毎に更新される。しかしながら、CTSは、他の間隔、例えば一フレームおきに更新される。次に、ブロック510で受け取られた特徴データは、ブロック520で選択された関心のあるジェスチャーと比較され、プレーヤの動きが関心のあるジェスチャーと如何に近く適合しているのか否かに対応する数値が計算される。ブロック510からのデータをブロック520からの関心のあるジェスチャーのデータと比較する一方法は、類似性測度を用いることである。
一つの典型的な類似性測度は、以下の通りである。例えば、x(i,j)は、関心のあるジェスチャーに基づく、時間jで関節iの事前決定される位置であり、y(i,j)は、時間jで関節iに対してブロック510から得られる値であり、即ち関心のあるジェスチャーに対する時間jにおける関節iの位置である。w(i)を関節毎の重みとし、u(j)を時間毎の重みとすると、類似性測度は、例えば以下となる。
一実施形態では、重みu(j)とw(i)とは、任意に割り当てることが可能である。ブロック540では、類似性測度(上記例のSu,w(x,y))はフレーム毎に計算され、ブロック545では、累積追跡得点はSu,w(x,y)の値によって増加される。
決定ブロック550では、システムは、累積追跡得点が所与の閾値内か否かを決定する。CTSは、所与の閾値内であるなら(ブロック550でYes)、これは、プレーヤの動きが関心のあるジェスチャーに特徴付けられる動きに十分に近いことを示し、工程はブロック555に続き、関心のあるジェスチャーをプレーヤが行っているという情報がゲーム・エンジンモジュールに送られる。ブロック570では、ゲーム・エンジンモジュールは、前記送られた情報に基づいてディスプレイを介してプレーヤに反応を提供する。
決定ブロック575では、システムは、ブロック510でモジュール200から受け取られる特徴データを分析すべく、他のフレームがあるか否かを決定する。他のフレームがあるなら(ブロック575でYes)、工程は次のフレームのために類似性測度を計算すべくブロック540に戻る。他のフレームがないなら(ブロック575でNo)、工程はモジュール200から更に特徴データを受け取るためにブロック510に戻る。
CTSが所与の閾値内にないなら(ブロック550でNo)、ブロック560でCTSは0(ゼロ)に設定される。そして、ブロック565で、プレーヤが関心のあるジェスチャーを行っていないという情報がゲーム・エンジンモジュールに送られ、工程は上記ブロック570まで続く。
図6は、双方向プログラムに組み込まれるジェスチャー分類システムの一実施形態に係るブロック図600である。ビデオカメラ装置610は、ユーザの動きを捕らえる。ビデオカメラ装置610は、同時に生じるユーザのカラー画像及び奥行き画像を取得し、画像は処理のためにプロセッサ620に送られる。
プロセッサ620は、カラー画像及び奥行き画像に関心のある特徴点を探し、共に得られるカラー画像及び奥行き画像における各々の特徴点に対する3次元座標を計算し、処理のためのメモリ630に前記座標を保存し、最小数の画像が得られることを保証し、データベース640の各ジェスチャーと前記ユーザの動きを比較することで類似性測度を計算し、前記ユーザの動きと比較されるデータベースのジェスチャーの閾値より高い類似性測度を有するジェスチャーを特定し、得られる最大の類似性測度を測定し、他の画像を取得するようにビデオカメラ装置610に指示し、処理される画像を消去するためにメモリ630を制御し、特定されるジェスチャーをディスプレイ650に出力し、即ちユーザに反応を提供する。プロセッサ620は、ユーザがディスプレイ650を介して仮想上で経験する双方向プログラムを動かす。
ディスプレイ650は、プロセッサ620によって特定されるジェスチャーを行うユーザの画像を表示する。ユーザの画像は、ディスプレイ650によって表示される双方向プログラムの仮想環境に組み込まれる。
図7は、ネットワーク間の複数のプレーヤにアクセスされる双方向プログラムに組み込まれるジェスチャー分類システムの一実施形態に係るブロック図700である。
複数のプレーヤは、異なる場所から同じ双方向プログラムにアクセスすることが可能である。図7は、ユーザが同じ仮想環境にアクセスする三つの離れた場所740,750,760を示すが、如何なる数の場所から如何なる数のユーザが双方向プログラムに参加することが可能である。各場所740,750,760は、当該場所で同時に生じるユーザのカラー画像及び奥行き画像を取得するビデオカメラ装置742,752,762を有しており、画像は処理のためにプロセッサ720に送られる。もし一以上のユーザが同じ場所にいるなら、当該場所の各ユーザのために設けられるビデオカメラ装置が利用可能である。同じ場所の全ユーザは、ディスプレイを共有し、或いは、各々に個々のディスプレイ744,754,764を有することが可能である。また、全ディスプレイは、同じ仮想環境に参加する異なる場所の全ユーザの画像を示すことができる。
異なる場所740,750,760からビデオカメラ装置742,752,762によって取得される画像は、ネットワーク770を介してプロセッサ720に送られる。プロセッサ720、メモリ730、ジェスチャーデータベース710は、図6の上記説明のように同じ態様で機能する。また一方、複数のユーザが同じ双方向プログラムに参加した状態で、プロセッサ720は、各ユーザをとらえている画像を処理することを要する。また、プロセッサ720は、個々のユーザのために設けられる予備プロセッサを有することが可能であり、各予備プロセッサは、メモリ730内で独立したメモリにアクセスすることが可能である。当業者にとっては、異なるハードウェア構造は、反応時間を最適化するために、プロセッサ720及びメモリ730の機能を実行することが可能であることは明らかである。
また、プロセッサ720は、ユーザがディスプレイ744,754,764を介して仮想上で経験する双方向プログラムを動かす。全ユーザの画像は、各ディスプレイ744,754,764によって表示される双方向プログラムの仮想環境に組み込まれる。信号は、プロセッサ720によってネットワーク770に沿うディスプレイ744,754,764に送られる。
200…データ前処理モジュール、300…ジェスチャー・トレーニングモジュール、400…バイナリ・ジェスチャー認識モジュール、500…リアルタイム・ジェスチャー認識モジュール、610,742,752,762…ビデオカメラ装置、620,720…プロセッサ、630,730…メモリ、640,710…ジェスチャーデータベース、650,744,754,764…ディスプレイ、740,750,760…場所
Claims (22)
- 関心のあるジェスチャーを行うように対象者に指示し、動きをする前記対象者の複数の画像をセンサから取得し、前記複数の画像が各々取得されると、該複数の画像の各々と前記関心のあるジェスチャーとを比較し、前記比較に基づき追跡得点を決定し、該追跡得点が所与の閾値内にあるとき、前記対象者が関心のあるジェスチャーを行っていると決定することを含む関心のあるジェスチャーを認識する方法。
- 前記比較の間に、逆運動学解法を用いて前記複数の画像の各々をモデルに制限することを更に含む請求項1記載の方法。
- 前記関心のあるジェスチャーをジェスチャーライブラリから選択することを更に含む請求項1記載の方法。
- 前記比較は、類似性測度を計算することを更に含む請求項1記載の方法。
- 前記センサは、奥行カメラである請求項1記載の方法。
- 動きをする対象者の画像をセンサから取得し、前記画像から関心のある複数の特徴を選択し、該関心のある複数の特徴に対応する複数の奥行き値を抽出し、該複数の奥行き値を用いてモデル上に前記関心のある複数の特徴を投影し、制限システムを用いて前記モデル上への前記関心のある複数の特徴の投影を制限することを含む画像取得及びデータ前処理の方法。
- 制限システムは、逆運動学解法を含む請求項6記載の方法。
- 前記センサは、奥行カメラである請求項6記載の方法。
- 標準モデルに前記モデルを拡大縮小するためのアニメーション・リターゲッティングをすることを更に含む請求項6記載の方法。
- 画像の奥行きデータの複数フレームを取得するカメラと、前記カメラから前記画像の奥行きデータの複数フレームを受け取り、対象者の特徴位置を決定すべく画像の奥行きデータを処理するように構成される画像取得モジュールと、前記画像取得モジュールから対象者の特徴位置を受け取り、該特徴位置を事前決定されるジェスチャーと関連付けるように構成されるジェスチャー・トレーニングモジュールと、前記画像取得モジュールから対象者の特徴位置を受け取り、該特徴位置が特定のジェスチャーと適合するか否かを決定するように構成されるバイナリ・ジェスチャー認識モジュールと、前記画像取得モジュールから対象者の特徴位置を受け取り、画像の奥行きデータの一フレーム以上で特定のジェスチャーがなされているか否かを決定するように構成されるリアルタイム・ジェスチャー認識モジュールと、を含むジェスチャーを認識するためのシステム。
- 前記特定のジェスチャーを選択し、前記対象者に前記特定のジェスチャーを行うように指示するように構成されるゲーム・エンジンモジュールを更に含む請求項10記載のシステム。
- 前記事前決定されるジェスチャーを有するジェスチャーデータベースを更に含む請求項10記載のシステム。
- 前記対象者が行うジェスチャーに関して、対象者に反応を提供するためのディスプレイを更に含む請求項10記載のシステム。
- 前記カメラは、カラー画像データを更に取得する請求項10記載のシステム。
- 前記リアルタイム・ジェスチャー認識モジュールは、類似性測度及び累積追跡得点を計算するように更に構成され、前記類似性測度及び累積追跡得点は、フレーム毎に更新され、特定のジェスチャーがなされているか否かの前記決定は、前記累積追跡得点をフレーム毎の特定のジェスチャーの閾値と比較することに基づいてなされる請求項10記載のシステム。
- 前記画像取得モジュールは、前記画像の奥行きデータをモデル上に位置付ける請求項10記載のシステム。
- 前記画像取得モジュールは、前記複数フレームのうちの少なくとも一つで視認できない特徴位置についての前記モデルの動きを制限すべく逆運動学解法を用いる請求項16記載のシステム。
- 前記画像取得モジュールは、前記特徴位置を標準モデルに拡大縮小する請求項10記載のシステム。
- 前記ジェスチャー・トレーニングモジュールは、前記特徴位置が特定のジェスチャーに適合するか否かを決定すべく機械学習法を用いる請求項10記載のシステム。
- 画像の奥行きデータの複数フレームを取得する手段と、前記カメラから前記画像の奥行きデータの複数フレームを受け取り、対象者の特徴位置を決定すべく画像の奥行きデータを処理する手段と、画像取得モジュールから対象者の特徴位置を受け取り、該特徴位置を事前決定されるジェスチャーと関連付ける手段と、前記画像取得モジュールから対象者の特徴位置を受け取り、該特徴位置が特定のジェスチャーと適合するか否かを決定する手段と、前記画像取得モジュールから対象者の特徴位置を受け取り、画像の奥行きデータの一フレーム以上で特定のジェスチャーがなされているか否かを決定する手段と、前記対象者が行うジェスチャーに関して対象者に反応を提供する手段と、を含むジェスチャーを認識するためのシステム。
- 前記追跡得点の決定は、関心のあるジェスチャーに対してサポート・ベクター・マシンを用いることを含む請求項1記載の方法。
- 前記追跡得点の決定は、類似性測度を用いることを含む請求項1記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15322909P | 2009-02-17 | 2009-02-17 | |
US61/153,229 | 2009-02-17 | ||
PCT/US2010/023179 WO2010096279A2 (en) | 2009-02-17 | 2010-02-04 | Method and system for gesture recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012518236A true JP2012518236A (ja) | 2012-08-09 |
Family
ID=42559532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011551107A Withdrawn JP2012518236A (ja) | 2009-02-17 | 2010-02-04 | ジェスチャー認識のための方法及びシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US8824802B2 (ja) |
EP (1) | EP2399243A4 (ja) |
JP (1) | JP2012518236A (ja) |
KR (1) | KR101738569B1 (ja) |
CN (1) | CN102317977A (ja) |
CA (1) | CA2748037C (ja) |
WO (1) | WO2010096279A2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013037454A (ja) * | 2011-08-05 | 2013-02-21 | Ikutoku Gakuen | 姿勢判定方法、プログラム、装置、システム |
JP2017157034A (ja) * | 2016-03-02 | 2017-09-07 | 富士通株式会社 | 指先位置推定装置、操作判定装置、指先位置推定システム、指先位置推定プログラム及び指先位置推定方法 |
US10156909B2 (en) | 2015-04-17 | 2018-12-18 | Mitsubishi Electric Corporation | Gesture recognition device, gesture recognition method, and information processing device |
WO2021066147A1 (ja) * | 2019-10-04 | 2021-04-08 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 算出装置、算出方法、算出プログラム |
JP2021135898A (ja) * | 2020-02-28 | 2021-09-13 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
Families Citing this family (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8872899B2 (en) * | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
EP1789928A4 (en) | 2004-07-30 | 2011-03-16 | Extreme Reality Ltd | SYSTEM AND METHOD FOR PICTURE PROCESSING BASED ON THE 3D ROOM DIMENSION |
US8681100B2 (en) | 2004-07-30 | 2014-03-25 | Extreme Realty Ltd. | Apparatus system and method for human-machine-interface |
US20070285554A1 (en) * | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
KR101511819B1 (ko) * | 2008-09-04 | 2015-04-13 | 익스트림 리얼리티 엘티디. | 영상 센서에 기반한 인간 기계장치 인터페이스를 제공하는 방법 시스템 및 소프트웨어 |
JP2013505493A (ja) | 2009-09-21 | 2013-02-14 | エクストリーム リアリティー エルティーディー. | 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム |
US8878779B2 (en) | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
US20110289455A1 (en) * | 2010-05-18 | 2011-11-24 | Microsoft Corporation | Gestures And Gesture Recognition For Manipulating A User-Interface |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US8670029B2 (en) * | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
KR20120024247A (ko) * | 2010-09-06 | 2012-03-14 | 삼성전자주식회사 | 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치 |
KR20120051208A (ko) * | 2010-11-12 | 2012-05-22 | 엘지전자 주식회사 | 멀티미디어 장치의 사물을 이용한 제스쳐 인식 방법 및 장치 |
CA2806520C (en) | 2011-01-23 | 2016-02-16 | Extreme Reality Ltd. | Methods, systems, devices and associated processing logic for generating stereoscopic images and video |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
KR101804848B1 (ko) * | 2011-04-22 | 2017-12-06 | 삼성전자주식회사 | 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법 |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
WO2012157793A1 (en) * | 2011-05-17 | 2012-11-22 | Lg Electronics Inc. | Gesture recognition method and apparatus |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US20140168424A1 (en) | 2011-07-21 | 2014-06-19 | Ziv Attar | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene |
KR101815975B1 (ko) * | 2011-07-27 | 2018-01-09 | 삼성전자주식회사 | 객체 자세 검색 장치 및 방법 |
EP2737436A4 (en) * | 2011-07-28 | 2015-06-17 | Arb Labs Inc | SYSTEMS AND METHODS FOR DETECTING BODY MOVEMENTS BY USING MULTI-DIMENSIONAL GESTURE DATA GENERATED GLOBALLY |
US8953889B1 (en) * | 2011-09-14 | 2015-02-10 | Rawles Llc | Object datastore in an augmented reality environment |
US8958631B2 (en) * | 2011-12-02 | 2015-02-17 | Intel Corporation | System and method for automatically defining and identifying a gesture |
US9250713B2 (en) * | 2011-12-05 | 2016-02-02 | Microsoft Technology Licensing, Llc | Control exposure |
US9389681B2 (en) * | 2011-12-19 | 2016-07-12 | Microsoft Technology Licensing, Llc | Sensor fusion interface for multiple sensor input |
US9339691B2 (en) | 2012-01-05 | 2016-05-17 | Icon Health & Fitness, Inc. | System and method for controlling an exercise device |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
WO2013175484A2 (en) * | 2012-03-26 | 2013-11-28 | Tata Consultancy Services Limited | A multimodal system and method facilitating gesture creation through scalar and vector data |
CN103365404B (zh) * | 2012-04-01 | 2016-07-06 | 联想(北京)有限公司 | 一种人机交互的方法和装置 |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9098739B2 (en) | 2012-06-25 | 2015-08-04 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
JP5877135B2 (ja) * | 2012-07-20 | 2016-03-02 | 株式会社日立製作所 | 画像認識装置及びエレベータ装置 |
US20150294189A1 (en) * | 2012-07-23 | 2015-10-15 | Selim BenHimane | Method of providing image feature descriptors |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US20140104394A1 (en) * | 2012-10-15 | 2014-04-17 | Intel Corporation | System and method for combining data from multiple depth cameras |
US9501140B2 (en) | 2012-11-05 | 2016-11-22 | Onysus Software Ltd | Method and apparatus for developing and playing natural user interface applications |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9448634B1 (en) | 2013-03-12 | 2016-09-20 | Kabam, Inc. | System and method for providing rewards to a user in a virtual space based on user performance of gestures |
US20140267611A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Runtime engine for analyzing user motion in 3d images |
US9254409B2 (en) | 2013-03-14 | 2016-02-09 | Icon Health & Fitness, Inc. | Strength training apparatus with flywheel and related methods |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN103218124B (zh) * | 2013-04-12 | 2015-12-09 | 通号通信信息集团有限公司 | 基于深度摄像头的菜单控制方法及*** |
US9563955B1 (en) | 2013-05-15 | 2017-02-07 | Amazon Technologies, Inc. | Object tracking techniques |
US10228242B2 (en) | 2013-07-12 | 2019-03-12 | Magic Leap, Inc. | Method and system for determining user input based on gesture |
WO2015006784A2 (en) | 2013-07-12 | 2015-01-15 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US10079970B2 (en) | 2013-07-16 | 2018-09-18 | Texas Instruments Incorporated | Controlling image focus in real-time using gestures and depth sensor data |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
CN103735268B (zh) * | 2013-09-29 | 2015-11-25 | 沈阳东软医疗***有限公司 | 一种***检测方法及*** |
CN105848733B (zh) | 2013-12-26 | 2018-02-13 | 爱康保健健身有限公司 | 缆绳器械中的磁性阻力机构 |
IN2013MU04097A (ja) * | 2013-12-27 | 2015-08-07 | Tata Consultancy Services Ltd | |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
US9911351B2 (en) * | 2014-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Tracking objects during processes |
WO2015138339A1 (en) | 2014-03-10 | 2015-09-17 | Icon Health & Fitness, Inc. | Pressure sensor to quantify work |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN104952058B (zh) * | 2014-03-28 | 2019-01-15 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
US10409382B2 (en) | 2014-04-03 | 2019-09-10 | Honda Motor Co., Ltd. | Smart tutorial for gesture control system |
US9342797B2 (en) | 2014-04-03 | 2016-05-17 | Honda Motor Co., Ltd. | Systems and methods for the detection of implicit gestures |
US10466657B2 (en) | 2014-04-03 | 2019-11-05 | Honda Motor Co., Ltd. | Systems and methods for global adaptation of an implicit gesture control system |
CN104978583B (zh) * | 2014-04-11 | 2018-07-03 | 北京数码视讯科技股份有限公司 | 人物动作的识别方法及装置 |
CN106470739B (zh) | 2014-06-09 | 2019-06-21 | 爱康保健健身有限公司 | 并入跑步机的缆索*** |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
WO2015195965A1 (en) | 2014-06-20 | 2015-12-23 | Icon Health & Fitness, Inc. | Post workout massage device |
CN106232010B (zh) * | 2014-07-02 | 2020-03-31 | 柯惠有限合伙公司 | 用于检测气管的***和方法 |
US11308928B2 (en) | 2014-09-25 | 2022-04-19 | Sunhouse Technologies, Inc. | Systems and methods for capturing and interpreting audio |
US9536509B2 (en) | 2014-09-25 | 2017-01-03 | Sunhouse Technologies, Inc. | Systems and methods for capturing and interpreting audio |
CN104346816B (zh) * | 2014-10-11 | 2017-04-19 | 京东方科技集团股份有限公司 | 一种深度确定方法、装置及电子设备 |
CN107430431B (zh) * | 2015-01-09 | 2021-06-04 | 雷蛇(亚太)私人有限公司 | 手势识别装置及手势识别方法 |
US10391361B2 (en) | 2015-02-27 | 2019-08-27 | Icon Health & Fitness, Inc. | Simulating real-world terrain on an exercise device |
US10269136B2 (en) * | 2015-04-29 | 2019-04-23 | Hewlett-Packard Development Company, L.P. | System and method for processing depth images which capture an interaction of an object relative to an interaction plane |
DE112015007219T5 (de) * | 2015-12-23 | 2021-09-09 | Intel Corporation | Berührungsgestenerkennungs-Bewertung |
US10493349B2 (en) | 2016-03-18 | 2019-12-03 | Icon Health & Fitness, Inc. | Display on exercise device |
US10272317B2 (en) | 2016-03-18 | 2019-04-30 | Icon Health & Fitness, Inc. | Lighted pace feature in a treadmill |
US10625137B2 (en) | 2016-03-18 | 2020-04-21 | Icon Health & Fitness, Inc. | Coordinated displays in an exercise device |
US9965689B2 (en) * | 2016-06-09 | 2018-05-08 | Qualcomm Incorporated | Geometric matching in visual navigation systems |
CN111079071A (zh) * | 2016-08-16 | 2020-04-28 | 完美鲲鹏(北京)动漫科技有限公司 | 一种应用于类人形骨架的反向动力学解算方法及装置 |
US10032276B1 (en) | 2016-08-29 | 2018-07-24 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10043076B1 (en) | 2016-08-29 | 2018-08-07 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
US10395117B1 (en) | 2016-08-29 | 2019-08-27 | Trifo, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
US10366508B1 (en) | 2016-08-29 | 2019-07-30 | Perceptin Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10410328B1 (en) | 2016-08-29 | 2019-09-10 | Perceptin Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10390003B1 (en) | 2016-08-29 | 2019-08-20 | Perceptln Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
US10402663B1 (en) | 2016-08-29 | 2019-09-03 | Trifo, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous mapping |
US10453213B2 (en) * | 2016-08-29 | 2019-10-22 | Trifo, Inc. | Mapping optimization in autonomous and non-autonomous platforms |
US10571926B1 (en) | 2016-08-29 | 2020-02-25 | Trifo, Inc. | Autonomous platform guidance systems with auxiliary sensors and obstacle avoidance |
US10571925B1 (en) | 2016-08-29 | 2020-02-25 | Trifo, Inc. | Autonomous platform guidance systems with auxiliary sensors and task planning |
US11314262B2 (en) | 2016-08-29 | 2022-04-26 | Trifo, Inc. | Autonomous platform guidance systems with task planning and obstacle avoidance |
US10162362B2 (en) | 2016-08-29 | 2018-12-25 | PerceptIn, Inc. | Fault tolerance to provide robust tracking for autonomous positional awareness |
US10671705B2 (en) | 2016-09-28 | 2020-06-02 | Icon Health & Fitness, Inc. | Customizing recipe recommendations |
KR101937823B1 (ko) * | 2016-10-24 | 2019-01-14 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
US10099368B2 (en) | 2016-10-25 | 2018-10-16 | Brandon DelSpina | System for controlling light and for tracking tools in a three-dimensional space |
CN108230429A (zh) * | 2016-12-14 | 2018-06-29 | 上海交通大学 | 基于头部和双手位置及姿态的实时全身姿态重建方法 |
US10496104B1 (en) | 2017-07-05 | 2019-12-03 | Perceptin Shenzhen Limited | Positional awareness with quadocular sensor in autonomous platforms |
US11014242B2 (en) | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
US10732725B2 (en) | 2018-09-25 | 2020-08-04 | XRSpace CO., LTD. | Method and apparatus of interactive display based on gesture recognition |
CN109702768A (zh) * | 2018-10-10 | 2019-05-03 | *** | 学习型机器人动作数据采集方法 |
US11774983B1 (en) | 2019-01-02 | 2023-10-03 | Trifo, Inc. | Autonomous platform guidance systems with unknown environment mapping |
KR20220156062A (ko) * | 2020-03-20 | 2022-11-24 | 힌지 헬스 인크. | 역기구학에 기반한 관절 회전 추론들 |
US11803247B2 (en) | 2021-10-25 | 2023-10-31 | Kyndryl, Inc. | Gesture-based control of plural devices in an environment |
Family Cites Families (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4900033A (en) * | 1988-09-12 | 1990-02-13 | Samuel Campos | Spelling game apparatus |
US5534917A (en) * | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US6430997B1 (en) * | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
DE69736622T2 (de) * | 1996-07-03 | 2007-09-13 | Hitachi, Ltd. | System zur Bewegungserkennung |
EP0969901A1 (en) * | 1997-03-12 | 2000-01-12 | Neurocom International, Inc | System and method for monitoring training programs |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6336891B1 (en) * | 1997-12-08 | 2002-01-08 | Real Vision Corporation | Interactive exercise pad system |
US6181343B1 (en) * | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6270414B2 (en) * | 1997-12-31 | 2001-08-07 | U.S. Philips Corporation | Exoskeletal platform for controlling multi-directional avatar kinetics in a virtual environment |
US7628730B1 (en) * | 1999-07-08 | 2009-12-08 | Icon Ip, Inc. | Methods and systems for controlling an exercise apparatus using a USB compatible portable remote device |
US8956228B2 (en) * | 1999-12-03 | 2015-02-17 | Nike, Inc. | Game pod |
EP1855267B1 (en) * | 2000-01-11 | 2013-07-10 | Yamaha Corporation | Apparatus and method for detecting performer´s motion to interactively control performance of music or the like |
JP3496874B2 (ja) * | 2000-02-23 | 2004-02-16 | コナミ株式会社 | ゲーム装置、ゲーム装置の制御方法、情報記憶媒体、ゲーム配信装置及びゲーム配信方法 |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
JP2003126291A (ja) * | 2001-10-19 | 2003-05-07 | Konami Co Ltd | 運動支援制御方法及び運動支援装置 |
JP3694267B2 (ja) * | 2002-01-11 | 2005-09-14 | コナミスポーツライフ株式会社 | 運動支援装置 |
AU2003217587A1 (en) * | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7369685B2 (en) * | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
US20040001113A1 (en) * | 2002-06-28 | 2004-01-01 | John Zipperer | Method and apparatus for spline-based trajectory classification, gesture detection and localization |
US20070155589A1 (en) * | 2002-12-04 | 2007-07-05 | Philip Feldman | Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System |
US7372977B2 (en) * | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
WO2005104010A2 (en) * | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US20060018516A1 (en) * | 2004-07-22 | 2006-01-26 | Masoud Osama T | Monitoring activity using video information |
GB2419433A (en) * | 2004-10-20 | 2006-04-26 | Glasgow School Of Art | Automated Gesture Recognition |
KR20060070280A (ko) * | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
US20080139307A1 (en) * | 2004-12-28 | 2008-06-12 | Hiromu Ueshima | Simulated Experience Apparatus, Energy Consumption Calculation Method, Squatting Motion Detection Apparatus, Exercise Assist Apparatus, Animation Method, Exercise Amount Management Apparatus, Athletic Ability Measurement Apparatus, Reflexes Ability Measurement Apparatus, And Audio-Visual System |
ATE459044T1 (de) * | 2005-04-26 | 2010-03-15 | Alterface S A | Interaktive multimedia-anwendungseinrichtung |
JP5028751B2 (ja) * | 2005-06-09 | 2012-09-19 | ソニー株式会社 | 行動認識装置 |
US8094928B2 (en) * | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
TWI348639B (en) * | 2005-12-16 | 2011-09-11 | Ind Tech Res Inst | Motion recognition system and method for controlling electronic device |
US8467904B2 (en) * | 2005-12-22 | 2013-06-18 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8249334B2 (en) * | 2006-05-11 | 2012-08-21 | Primesense Ltd. | Modeling of humanoid forms from depth maps |
JP4711885B2 (ja) * | 2006-05-25 | 2011-06-29 | 三菱電機株式会社 | 遠隔操作装置及び方法 |
US7725547B2 (en) * | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US9317124B2 (en) * | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
US8023726B2 (en) * | 2006-11-10 | 2011-09-20 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
US8351646B2 (en) * | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US7971156B2 (en) * | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
US7840031B2 (en) * | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US8144148B2 (en) * | 2007-02-08 | 2012-03-27 | Edge 3 Technologies Llc | Method and system for vision-based interaction in a virtual environment |
US7753861B1 (en) * | 2007-04-04 | 2010-07-13 | Dp Technologies, Inc. | Chest strap having human activity monitoring device |
US9028430B2 (en) * | 2007-04-19 | 2015-05-12 | Nike, Inc. | Footwork training system and method |
US7987070B2 (en) * | 2007-04-23 | 2011-07-26 | Dp Technologies, Inc. | Eyewear having human activity monitoring device |
WO2008134313A1 (en) * | 2007-04-26 | 2008-11-06 | Heather Raymond | A method and system for developing or tracking a program for medical treatment |
US8963828B2 (en) * | 2007-06-04 | 2015-02-24 | Shimane Prefectural Government | Information inputting device, information outputting device and method |
US8221290B2 (en) * | 2007-08-17 | 2012-07-17 | Adidas International Marketing B.V. | Sports electronic training system with electronic gaming features, and applications thereof |
US7970176B2 (en) * | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
US9098766B2 (en) * | 2007-12-21 | 2015-08-04 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US20090262986A1 (en) * | 2008-04-22 | 2009-10-22 | International Business Machines Corporation | Gesture recognition from co-ordinate data |
US8113991B2 (en) * | 2008-06-02 | 2012-02-14 | Omek Interactive, Ltd. | Method and system for interactive fitness training program |
CA2734143C (en) * | 2008-08-15 | 2021-08-31 | Brown University | Method and apparatus for estimating body shape |
US8112719B2 (en) * | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
CN102656543A (zh) | 2009-09-22 | 2012-09-05 | 泊布欧斯技术有限公司 | 计算机装置的远程控制 |
US8593576B2 (en) * | 2009-10-15 | 2013-11-26 | At&T Intellectual Property I, L.P. | Gesture-based remote control |
CN101853568A (zh) * | 2010-04-13 | 2010-10-06 | 鸿富锦精密工业(深圳)有限公司 | 手势遥控装置 |
-
2010
- 2010-02-04 JP JP2011551107A patent/JP2012518236A/ja not_active Withdrawn
- 2010-02-04 WO PCT/US2010/023179 patent/WO2010096279A2/en active Application Filing
- 2010-02-04 EP EP10744130.5A patent/EP2399243A4/en not_active Withdrawn
- 2010-02-04 CA CA2748037A patent/CA2748037C/en not_active Expired - Fee Related
- 2010-02-04 CN CN201080007962XA patent/CN102317977A/zh active Pending
- 2010-02-04 KR KR1020117021864A patent/KR101738569B1/ko active IP Right Grant
- 2010-02-17 US US12/707,340 patent/US8824802B2/en active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013037454A (ja) * | 2011-08-05 | 2013-02-21 | Ikutoku Gakuen | 姿勢判定方法、プログラム、装置、システム |
US10156909B2 (en) | 2015-04-17 | 2018-12-18 | Mitsubishi Electric Corporation | Gesture recognition device, gesture recognition method, and information processing device |
JP2017157034A (ja) * | 2016-03-02 | 2017-09-07 | 富士通株式会社 | 指先位置推定装置、操作判定装置、指先位置推定システム、指先位置推定プログラム及び指先位置推定方法 |
WO2021066147A1 (ja) * | 2019-10-04 | 2021-04-08 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 算出装置、算出方法、算出プログラム |
JP2021060736A (ja) * | 2019-10-04 | 2021-04-15 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 算出装置、算出方法、算出プログラム |
JP7409819B2 (ja) | 2019-10-04 | 2024-01-09 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 算出装置、算出方法、算出プログラム |
JP2021135898A (ja) * | 2020-02-28 | 2021-09-13 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
JP7413836B2 (ja) | 2020-02-28 | 2024-01-16 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2010096279A3 (en) | 2010-11-18 |
CN102317977A (zh) | 2012-01-11 |
US8824802B2 (en) | 2014-09-02 |
KR101738569B1 (ko) | 2017-05-22 |
CA2748037C (en) | 2016-09-20 |
WO2010096279A2 (en) | 2010-08-26 |
KR20110139694A (ko) | 2011-12-29 |
US20100208038A1 (en) | 2010-08-19 |
EP2399243A4 (en) | 2013-07-24 |
CA2748037A1 (en) | 2010-08-26 |
EP2399243A2 (en) | 2011-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8824802B2 (en) | Method and system for gesture recognition | |
CN110711374B (zh) | 多模态舞蹈动作评价方法 | |
JP4860749B2 (ja) | 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法 | |
JP5483899B2 (ja) | 情報処理装置および情報処理方法 | |
US9330470B2 (en) | Method and system for modeling subjects from a depth map | |
CN102184020B (zh) | 用于操纵用户界面的姿势和姿势修改 | |
US8428306B2 (en) | Information processor and information processing method for performing process adapted to user motion | |
US8611587B2 (en) | Device, system and method for determining compliance with an instruction by a figure in an image | |
WO2010073432A1 (ja) | 画像処理装置および画像処理方法 | |
JP5595655B2 (ja) | 画像処理装置および画像処理方法 | |
JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
Monir et al. | Rotation and scale invariant posture recognition using Microsoft Kinect skeletal tracking feature | |
JP5468773B2 (ja) | 画像処理装置および画像処理方法 | |
CN110910426A (zh) | 动作过程和动作趋势识别方法、存储介质和电子装置 | |
WO2016021152A1 (ja) | 姿勢推定方法および姿勢推定装置 | |
CN112667088B (zh) | 基于vr行走平台的手势应用识别方法及*** | |
JPH11283040A (ja) | 操作制御装置および動作解析プログラムを記録したコンピュ―タ読み取り可能な記録媒体 | |
CN117648035A (zh) | 一种虚拟手势的控制方法及装置 | |
CN115205744A (zh) | 一种针对花样滑冰运动的智能运动辅助方法及装置 | |
Navarro Sostres | Improvement of Arm Tracking using Body Part Detectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130507 |