JP4677046B2 - 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定 - Google Patents
多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定 Download PDFInfo
- Publication number
- JP4677046B2 JP4677046B2 JP2009540439A JP2009540439A JP4677046B2 JP 4677046 B2 JP4677046 B2 JP 4677046B2 JP 2009540439 A JP2009540439 A JP 2009540439A JP 2009540439 A JP2009540439 A JP 2009540439A JP 4677046 B2 JP4677046 B2 JP 4677046B2
- Authority
- JP
- Japan
- Prior art keywords
- patch
- appearance
- mapping function
- dimensional
- image sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000006870 function Effects 0.000 claims description 109
- 238000013507 mapping Methods 0.000 claims description 75
- 238000012549 training Methods 0.000 claims description 71
- 238000000034 method Methods 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 37
- 238000012360 testing method Methods 0.000 claims description 29
- 230000009471 action Effects 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 39
- 239000013598 vector Substances 0.000 description 23
- 238000013459 approach Methods 0.000 description 6
- 238000012885 constant function Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Social Psychology (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
2次元画像シーケンス内の被写体を、3次元で姿勢推定する方法及びシステムが開示される。訓練段階において、訓練モジュールは、入力画像シーケンスと、入力画像シーケンス内の被写体の姿勢との間の写像関数を決定する。訓練モジュールは、訓練画像の1つのシーケンスと、画像内の被写体の既知の姿勢の1つのセットとを受け取る。訓練モジュールは、訓練画像のシーケンスの個別画像を生成する。ある実施形態においては、個別画像は、被写体の外観を表現する外観パッチと、複数の画像フレーム間の被写体の動きを表現する動作パッチを含む。こうして、個別画像から、特徴が抽出される。ある実施形態においては、特徴のセットは、様々な方法で計算されたHaar-like特徴を含む。訓練画像のシーケンス内に抽出された特徴に基づいて、訓練モジュールは、1つの多次元回帰関数を学習する。多次元回帰関数は、個別画像と、既知の姿勢に対応する多次元ベクトル出力との間の写像を提供する。ある実施形態においては、多次元ベクトル出力は、その姿勢を完全に記述する複数の関節角度の1つのベクトルを含む。
1つ又は複数のネットワーク120、データベース130及び画像キャプチュアユニット140(例えば、ビデオカメラ)から入力画像シーケンスを受け取るように作られている。出力制御装置108は、1つ又は複数のデータベース150、ネットワーク160及びディスプレイ170(例えば、有機発光ダイオードディスプレイ(OLED)、液晶ディスプレイ(LCD)、又は陰極管ディスプレイ(CRT))に対して処理済のデータを出力する装置であればよい。
姿勢推定への適用においては、例えば、pは、関節角度の数を表す。ある実施形態においては、関節角度の数は、関節の数に3を乗じた数になる。各関節は、3つの角度のセットによって表されるからである。入力xiは、訓練画像シーケンス206から先に導かれた、正規化された外観パッチ及び動作パッチである。出力yiは、画像シーケンス206に対応する既知の姿勢形状208のベクトルであり、例えば、姿勢を記述する関節角度のベクトルであってもよい。従来技術とは異なり、入力xi及び出力yiの両者ともベクトルである。このように、関数は、多数の写像関数を使用して関節角度を導くというよりは、所与の入力に対して関節角度の完備ベクトルを提供し得る。多次元ツリーブースト処理は、写像関数F(x)が基底区分定値(ベクトル)関数の合計として表現され得ることを前提としている。
姿勢推定の適用については、このことは、特徴の同じセットを共有し、従って表現の効率性を実質的に改善する関節角度回帰と結果的に同じとなる。
そして、最も誤差の小さい特徴が選択される。最小二乗目標が、値aiを効果的に発見することを可能にしている。最適の閾値θmをサーチしている間、出力の平均値が、特徴値によってインクリメントして計算されているだけであるからである。
そして、末端の葉は、入力空間区分Rlmを定義する。
102 入力制御装置
104 メモリ
106 姿勢推定モジュール
107 データストア
108 出力制御装置
110 プロセッサ
120 ネットワーク
130 データベース
140 画像キャプチュアユニット
150 データベース
160 ネットワーク
170 ディスプレイ
202 訓練モジュール
204 テストモジュール
206 訓練画像シーケンス
208 3次元姿勢形状
210 写像関数
212 3次元姿勢推定
214 テスト画像シーケンス
Claims (20)
- 身体姿勢推定のための写像関数を決定するコンピュータを用いた方法であって、
前記コンピュータのプロセッサは、
移動する被写体の2次元訓練画像シーケンスと、前記移動する被写体の前記2次元訓練画像シーケンスに対応する3次元身体姿勢表現のシーケンスと、を受け取り、
前記2次元訓練画像シーケンス中の前記2次元訓練画像のそれぞれに対応する、前記2次元訓練画像シーケンス中の前記移動する被写体の外観を表現する外観パッチと、前記2次元訓練画像シーケンスの複数の画像フレーム間での前記被写体の動作を表現する動作パッチとのセットを決定し、
前記外観パッチ及び前記動作パッチから特徴を抽出し、
前記抽出された特徴に少なくとも部分的に基づく多次元ブースト回帰を、前記外観パッチ及び前記動作パッチに対して適用して、前記2次元訓練画像の外観パッチと動作パッチとのセットのそれぞれを、前記被写体の3次元身体姿勢表現に写像する前記写像関数を導出し、
前記多次元ブースト回帰を適用することは、
前記写像関数を初期値に初期化し、
前記被写体の姿勢と、前記2次元訓練画像シーケンスに対して前記写像関数を適用した結果との間の差を表現する擬残差を計算し、
前記計算された擬残差に基づいて、特徴のセットのうちの最適な特徴及び最適な閾値を決定し、
前記最適な特徴及び前記最適な閾値を使用して、学習子関数のパラメータを決定し、
前記学習子関数を前記写像関数と結合して、前記写像関数を更新することを含むこと、
を特徴とする方法。 - 前記プロセッサは、
前記写像関数を記憶媒体に格納すること、
を特徴とする請求項1に記載の方法。 - 前記外観パッチを決定することは、
前記2次元訓練画像シーケンスの画像フレーム内に前記被写体を発見し、
前記発見された被写体の境界を決める、前記画像フレームの部分を抽出すること、を含むこと、
を特徴とする請求項1に記載の方法。 - 前記外観パッチを決定することは、
前記画像フレームの前記抽出された部分を、正規化パラメータに従って正規化することを含むこと、
を特徴とする請求項3に記載の方法。 - 前記動作パッチを決定することは、
第1の画像フレームから抽出された第1の外観パッチと、第2の画像フレームから抽出された第2の外観パッチとの間の、画像値の差を計算することを含むこと、
を特徴とする請求項1に記載の方法。 - 前記外観パッチ及び前記動作パッチから特徴を抽出することは、
特徴フィルタのセットを生成し、
前記特徴フィルタのセットから特徴フィルタのサブセットを無作為に選択し、
前記外観パッチ及び前記動作パッチに対して前記選択した特徴フィルタのサブセットを適用し、
前記特徴フィルタのサブセットの適用から結果として生じる特徴を出力すること、を含むこと、
を特徴とする請求項1に記載の方法。 - 前記特徴フィルタのセットは、
複数の方位を有するHaarフィルタを含むこと、
を特徴とする請求項6に記載の方法。 - 前記写像関数を初期値に初期化することは、
前記写像関数を前記姿勢の平均値を含む定数値に設定することを含むこと、
を特徴とする請求項1に記載の方法。 - 前記学習子関数の前記パラメータを決定することは、
前記最適な特徴及び前記最適な閾値に基づいて、前記2次元訓練画像シーケンスから、画像の第1のセット及び画像の第2のセットを決定し、
前記画像の第1のセットに対応する第1の領域内で計算された残差の平均値を表現する第1のパラメータを決定し、
前記画像の第2のセットに対応する第2の領域内で計算された残差の平均値を表現する第2のパラメータを決定することを含むこと、
を特徴とする請求項1に記載の方法。 - 前記学習子関数を前記写像関数と結合することは、
学習率によって前記学習子関数をスケーリングし、
前記スケーリングされた学習子関数を前記写像関数に加えることを含むこと、
を特徴とする請求項1に記載の方法。 - 高速人間身体姿勢推定のためのコンピュータを用いた方法であって、
前記コンピュータのプロセッサは、
移動する被写体の2次元テスト画像シーケンスを受け取り、
前記2次元テスト画像シーケンス中の前記移動する被写体の外観を表現する外観パッチと、前記2次元テスト画像シーケンスの複数の画像フレーム間での前記被写体の動作を表現する動作パッチとのセットを前記2次元テスト画像シーケンスから決定し、
前記外観パッチ及び前記動作パッチに対して、学習された写像関数を適用して、前記2次元テスト画像の外観パッチと動作パッチとのセットのそれぞれを、前記2次元テスト画像シーケンス中の前記移動する被写体の3次元身体姿勢表現を含む多次元出力に対して写像し、
前記学習された写像関数は、
訓練画像シーケンスについて実行される多次元ブースト回帰から導出され、
前記多次元ブースト回帰は、
前記訓練画像シーケンスから抽出された特徴に少なくとも部分的に基づいており、
前記学習された学習関数は、
前記写像関数を初期値に初期化し、
前記被写体の姿勢と、前記訓練画像シーケンスに対して前記写像関数を適用した結果との間の差を表現する擬残差を計算し、
前記計算された擬残差に基づいて、特徴のセットのうちの最適な特徴及び最適な閾値を決定し、
前記最適な特徴及び前記最適な閾値を使用して、学習子関数のパラメータを決定し、
前記学習子関数を前記写像関数と結合して、前記写像関数を更新することによって導出され、
前記コンピュータのプロセッサは、
前記テスト画像表現を表現する前記外観パッチ及び前記動作パッチに対して前記学習された写像関数を適用した結果である身体姿勢推定を出力すること、
を特徴とする方法。 - 前記動作パッチを決定することは、
第1の画像フレームから抽出された第1の外観パッチと、第2の画像フレームから抽出された第2の外観パッチとの間の、画像値の差を計算することを含むこと、
を特徴とする請求項11に記載の方法。 - 前記抽出された特徴は、
特徴フィルタのセットを生成するステップと、
前記特徴フィルタのセットから、特徴フィルタのサブセットを無作為に選択するステップと、
前記選択した特徴フィルタのサブセットを前記外観パッチ及び前記動作パッチに適用するステップと、
前記フィルタのサブセットを適用した結果である特徴を出力するステップと、を含む処理に従って導出されること、
を特徴とする請求項11に記載の方法。 - 身体姿勢推定のための写像関数を決定するコンピュータを機能させるプログラムであって、
前記プログラムは、
前記コンピュータのプロセッサに対して、
移動する被写体の2次元訓練画像シーケンスと、前記移動する被写体の前記2次元訓練画像シーケンスに対応する3次元身体姿勢表現のシーケンスと、を受け取り、
前記2次元訓練画像シーケンス中の前記2次元訓練画像のそれぞれについて、前記2次元訓練画像シーケンス中の前記移動する被写体の外観を表現する外観パッチと、前記2次元訓練画像シーケンスの複数の画像フレーム間での前記被写体の動作を表現する動作パッチとのセットを決定し、
前記外観パッチ及び前記動作パッチから特徴を抽出し、
前記抽出された特徴に少なくとも部分的に基づく多次元ブースト回帰を、前記外観パッチ及び前記動作パッチに対して適用して、前記2次元訓練画像の外観パッチと動作パッチとのセットのそれぞれを、前記被写体の3次元身体姿勢表現に写像する前記写像関数を導出するステップを実行させ、
前記多次元ブースト回帰を適用することは、
前記写像関数を初期値に初期化し、
前記被写体の姿勢と、前記2次元訓練画像シーケンスに対して前記写像関数を適用した結果との間の差を表現する擬残差を計算し、
前記計算された擬残差に基づいて、特徴のセットのうちの最適な特徴及び最適な閾値を決定し、
前記最適な特徴及び前記最適な閾値を使用して、学習子関数のパラメータを決定し、
前記学習子関数を前記写像関数と結合して、前記写像関数を更新することを含むこと、
を特徴とするプログラム。 - 前記プログラムは、
前記コンピュータのプロセッサに対し、
前記写像関数を記憶媒体に格納するステップを実行させること、
を特徴とする請求項14に記載のプログラム。 - 前記動作パッチを決定することは、
第1の画像フレームから抽出された第1の外観パッチと、第2の画像フレームから抽出された第2の外観パッチとの間の、画像値の差を計算することを含むこと、
を特徴とする請求項14に記載のプログラム。 - 前記外観パッチ及び前記動作パッチから特徴を抽出することは、
特徴フィルタのセットを生成し、
前記特徴フィルタのセットから特徴フィルタのサブセットを無作為に選択し、
前記外観パッチ及び前記動作パッチに対して前記選択した特徴フィルタのサブセットを適用し、
前記特徴フィルタのサブセットの適用から結果として生じる特徴を出力することを含むこと、
を特徴とする請求項14に記載のプログラム。 - 身体姿勢推定のための写像関数を決定するシステムであって、
前記システムは、
移動する被写体の2次元訓練画像シーケンスと、前記移動する被写体の前記2次元訓練画像シーケンスに対応する3次元身体姿勢表現のシーケンスと、を受け取る入力制御装置と、
プロセッサと、
前記プロセッサによって実行される訓練モジュールを格納するコンピュータ読取可能な記憶媒体と、
を有し、
前記訓練モジュールは、
前記2次元訓練画像シーケンス中の前記2次元訓練画像のそれぞれに対応する、前記2次元訓練画像シーケンス中の前記移動する被写体の外観を表現する外観パッチと、前記2次元訓練画像シーケンスの複数の画像フレーム間での前記被写体の動作を表現する動作パッチとのセットを決定し、
前記外観パッチ及び前記動作パッチから特徴を抽出し、
前記抽出された特徴に少なくとも部分的に基づく多次元ブースト回帰を、前記外観パッチ及び前記動作パッチに対して適用して、前記2次元訓練画像の外観パッチと動作パッチとのセットのそれぞれを、前記被写体の3次元身体姿勢表現に写像する前記写像関数を導出し、
前記写像関数を初期値に初期化し、
前記被写体の姿勢と、前記2次元訓練画像シーケンスに対して前記写像関数を適用した結果との間の差を表現する擬残差を計算し、
前記計算された擬残差に基づいて、特徴のセットのうちの最適な特徴及び最適な閾値を決定し、
前記最適な特徴及び前記最適な閾値を使用して、学習子関数のパラメータを決定し、
前記学習子関数を前記写像関数と結合して、前記写像関数を更新すること、
を特徴とするシステム。 - 前記動作パッチを決定することは、
第1の画像フレームから抽出された第1の外観パッチと、第2の画像フレームから抽出された第2の外観パッチとの間の、画像値の差を計算することを含むこと、
を特徴とする請求項18に記載のシステム。 - 前記訓練モジュールは、
特徴フィルタのセットを生成し、
前記特徴フィルタのセットから特徴フィルタのサブセットを無作為に選択し、
前記外観パッチ及び前記動作パッチに対して前記選択した特徴フィルタのサブセットを適用し、
前記特徴フィルタのサブセットの適用から結果として生じる特徴を出力すること、
を特徴とする請求項18に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US86883006P | 2006-12-06 | 2006-12-06 | |
PCT/US2007/086458 WO2008070701A2 (en) | 2006-12-06 | 2007-12-05 | Fast human pose estimation using appearance and motion via multi-dimensional boosting regression |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010512581A JP2010512581A (ja) | 2010-04-22 |
JP2010512581A5 JP2010512581A5 (ja) | 2011-01-20 |
JP4677046B2 true JP4677046B2 (ja) | 2011-04-27 |
Family
ID=39493047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009540439A Expired - Fee Related JP4677046B2 (ja) | 2006-12-06 | 2007-12-05 | 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7778446B2 (ja) |
JP (1) | JP4677046B2 (ja) |
WO (1) | WO2008070701A2 (ja) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100682987B1 (ko) * | 2005-12-08 | 2007-02-15 | 한국전자통신연구원 | 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법 |
US20090232365A1 (en) * | 2008-03-11 | 2009-09-17 | Cognimatics Ab | Method and device for face recognition |
JP5098981B2 (ja) * | 2008-12-08 | 2012-12-12 | トヨタ自動車株式会社 | 顔部位検出装置 |
US8565476B2 (en) * | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8565477B2 (en) * | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8588465B2 (en) | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US8682028B2 (en) | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8577084B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8577085B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US8773355B2 (en) * | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US8638985B2 (en) | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8358839B2 (en) * | 2009-11-30 | 2013-01-22 | Xerox Corporation | Local regression methods and systems for image processing systems |
CN101794515B (zh) * | 2010-03-29 | 2012-01-04 | 河海大学 | 基于协方差和二叉树支持向量机的目标检测***及方法 |
US8811743B2 (en) | 2010-06-09 | 2014-08-19 | Microsoft Corporation | Resource-aware computer vision |
CN101976345B (zh) * | 2010-09-30 | 2013-02-06 | 哈尔滨工程大学 | 一种噪声条件下图像尺度不变模式识别方法 |
JP5671928B2 (ja) * | 2010-10-12 | 2015-02-18 | ソニー株式会社 | 学習装置、学習方法、識別装置、識別方法、およびプログラム |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8620026B2 (en) * | 2011-04-13 | 2013-12-31 | International Business Machines Corporation | Video-based detection of multiple object types under varying poses |
US9076227B2 (en) * | 2012-10-01 | 2015-07-07 | Mitsubishi Electric Research Laboratories, Inc. | 3D object tracking in multiple 2D sequences |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
WO2014149827A1 (en) * | 2013-03-15 | 2014-09-25 | REMTCS Inc. | Artificial neural network interface and methods of training the same for various use cases |
CN103679677B (zh) * | 2013-12-12 | 2016-11-09 | 杭州电子科技大学 | 一种基于模型互更新的双模图像决策级融合跟踪方法 |
CN105096304B (zh) | 2014-05-22 | 2018-01-02 | 华为技术有限公司 | 一种图像特征的估计方法和设备 |
US9832373B2 (en) | 2014-06-24 | 2017-11-28 | Cyberlink Corp. | Systems and methods for automatically capturing digital images based on adaptive image-capturing templates |
JP6628494B2 (ja) * | 2015-04-17 | 2020-01-08 | Kddi株式会社 | 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法 |
CN105631861B (zh) * | 2015-12-21 | 2019-10-01 | 浙江大学 | 结合高度图从无标记单目图像中恢复三维人体姿态的方法 |
CN105975923B (zh) * | 2016-05-03 | 2020-02-21 | 湖南拓视觉信息技术有限公司 | 用于跟踪人体对象的方法和*** |
US10726573B2 (en) * | 2016-08-26 | 2020-07-28 | Pixart Imaging Inc. | Object detection method and system based on machine learning |
CN107786867A (zh) | 2016-08-26 | 2018-03-09 | 原相科技股份有限公司 | 基于深度学习架构的图像辨识方法及*** |
WO2018058419A1 (zh) * | 2016-09-29 | 2018-04-05 | 中国科学院自动化研究所 | 二维图像人体关节点定位模型的构建方法及定位方法 |
US10235771B2 (en) | 2016-11-11 | 2019-03-19 | Qualcomm Incorporated | Methods and systems of performing object pose estimation |
US10863206B2 (en) * | 2018-11-08 | 2020-12-08 | Alibaba Group Holding Limited | Content-weighted deep residual learning for video in-loop filtering |
CN109949368B (zh) * | 2019-03-14 | 2020-11-06 | 郑州大学 | 一种基于图像检索的人体三维姿态估计方法 |
CN112906438B (zh) * | 2019-12-04 | 2023-05-02 | 内蒙古科技大学 | 人体动作行为的预测方法以及计算机设备 |
CN116507276A (zh) * | 2020-09-11 | 2023-07-28 | 爱荷华大学研究基金会 | 用于机器学习以从图像分析肌肉骨骼康复的方法和设备 |
CN115661929B (zh) * | 2022-10-28 | 2023-11-17 | 北京此刻启动科技有限公司 | 一种时序特征编码方法、装置、电子设备及存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5404167A (en) * | 1993-03-12 | 1995-04-04 | At&T Corp. | Subband color video coding using a reduced motion information subband |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6741756B1 (en) | 1999-09-30 | 2004-05-25 | Microsoft Corp. | System and method for estimating the orientation of an object |
ATE294423T1 (de) * | 1999-11-09 | 2005-05-15 | Univ Manchester | Identifizierung oder überprüfung von objektklassen, oder erzeugung von objektbildern |
KR100507780B1 (ko) * | 2002-12-20 | 2005-08-17 | 한국전자통신연구원 | 고속 마커프리 모션 캡쳐 장치 및 방법 |
GB0308943D0 (en) | 2003-04-17 | 2003-05-28 | Univ Dundee | A system for determining the body pose of a person from images |
EP1631937B1 (en) * | 2003-06-12 | 2018-03-28 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7894647B2 (en) * | 2004-06-21 | 2011-02-22 | Siemens Medical Solutions Usa, Inc. | System and method for 3D contour tracking of anatomical structures |
US7804999B2 (en) * | 2005-03-17 | 2010-09-28 | Siemens Medical Solutions Usa, Inc. | Method for performing image based regression using boosting |
-
2007
- 2007-12-05 WO PCT/US2007/086458 patent/WO2008070701A2/en active Application Filing
- 2007-12-05 US US11/950,662 patent/US7778446B2/en active Active
- 2007-12-05 JP JP2009540439A patent/JP4677046B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20080137956A1 (en) | 2008-06-12 |
WO2008070701A3 (en) | 2008-10-23 |
WO2008070701A2 (en) | 2008-06-12 |
US7778446B2 (en) | 2010-08-17 |
JP2010512581A (ja) | 2010-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4677046B2 (ja) | 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定 | |
US20220358770A1 (en) | Scene reconstruction in three-dimensions from two-dimensional images | |
Jain et al. | Learning human pose estimation features with convolutional networks | |
Bissacco et al. | Fast human pose estimation using appearance and motion via multi-dimensional boosting regression | |
CN110832501B (zh) | 用于姿态不变面部对准的***和方法 | |
US10949649B2 (en) | Real-time tracking of facial features in unconstrained video | |
Meng et al. | Backtracking regression forests for accurate camera relocalization | |
Oron et al. | Extended lucas-kanade tracking | |
Andriluka et al. | Monocular 3d pose estimation and tracking by detection | |
JP5352738B2 (ja) | 3次元モデルを使用した物体認識 | |
US8958600B2 (en) | Monocular 3D pose estimation and tracking by detection | |
CN110998594A (zh) | 检测动作的方法和*** | |
US20160275339A1 (en) | System and Method for Detecting and Tracking Facial Features In Images | |
US11508157B2 (en) | Device and method of objective identification and driving assistance device | |
CN112639846A (zh) | 一种训练深度学习模型的方法和装置 | |
Kohli et al. | Key developments in human pose estimation for kinect | |
JP6756406B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US20220292715A1 (en) | Method and apparatus for estimating pose of device | |
JP6597914B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Martins et al. | Extending maps with semantic and contextual object information for robot navigation: a learning-based framework using visual and depth cues | |
WO2021109118A1 (en) | Object re-identification using pose part based models | |
Knight et al. | Insect-inspired visual navigation on-board an autonomous robot: Real-world routes encoded in a single layer network | |
US9014486B2 (en) | Systems and methods for tracking with discrete texture traces | |
CN115008454A (zh) | 一种基于多帧伪标签数据增强的机器人在线手眼标定方法 | |
Guo et al. | An adaptive kernelized correlation filters with multiple features in the tracking application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101129 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20101129 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20110104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110128 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4677046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |