JP6433149B2 - 姿勢推定装置、姿勢推定方法およびプログラム - Google Patents
姿勢推定装置、姿勢推定方法およびプログラム Download PDFInfo
- Publication number
- JP6433149B2 JP6433149B2 JP2014097829A JP2014097829A JP6433149B2 JP 6433149 B2 JP6433149 B2 JP 6433149B2 JP 2014097829 A JP2014097829 A JP 2014097829A JP 2014097829 A JP2014097829 A JP 2014097829A JP 6433149 B2 JP6433149 B2 JP 6433149B2
- Authority
- JP
- Japan
- Prior art keywords
- joint
- joint position
- evaluation
- posture
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本実施形態では、距離撮像装置から距離画像を得て、写っている人体の関節位置候補を推定し、人体としてあり得る関節位置の配置か整合性を評価して、最終的な姿勢を推定する例を示す。以下の説明においては、姿勢を推定するとは人体の関節位置を推定することを意味するものとする。その際に、求める関節位置は2次元上だけでなく、3次元上も含むものとする。以後の実施形態で人体の姿勢を推定する例について説明するが、本発明は人体だけでなく他の関節をもつ物体にも適用できる。
図1は、本実施形態に係る姿勢推定装置100の構成例を示すブロック図である。
図1に示す姿勢推定装置100は、距離画像入力部101、関節位置候補算出部102、整合性評価部103、および人体モデル記憶部104を備えている。本実施形態の姿勢推定装置100は、ネットワークまたは各種記録媒体を介して取得したソフトウェア(プログラム)を、CPU、メモリ、ストレージデバイス、入出力装置、バス、表示装置などにより構成される計算機にて実行することにより実現できる。また、不図示の制御用の計算機については、汎用の計算機を用いてもよく、ソフトウェアに最適に設計されたハードウェアを用いてもよい。
次に、個々の処理について詳細に説明する。
前述したように、距離画像入力部101は、姿勢推定を行う距離画像を取得し、前処理として距離画像から人体領域を抽出する。人体領域の抽出処理では、まず、距離画像に対して背景差分処理を行うことにより、前景候補画素のみを抽出する。続いて、前景候補画素の距離値をカメラ座標系(3次元座標系)の点群へ変換する。そして、3次元座標系の点群の固まりの中心位置を求め、中心位置周辺の点群のうち、人体サイズに収まる範囲に存在する点を人体領域とする。このとき、人体サイズはあらかじめ学習しておいた人体の平均サイズや最大サイズなどを用いて決めることができる。
次に、関節位置候補算出部102により距離画像から関節位置候補を算出する具体的な方法について説明する。
まず、部分領域識別器を用いた方法について説明する。部分領域識別器は、距離画像の人体領域に対して部分領域の識別を行う。部分領域の識別は、例えば非特許文献1に記載されているような既存の方法を用いればよい。具体的には、特徴量に距離画像の2点比較を使用し、識別器に決定木を用いて各画素について部分領域の識別を行う。また、この方法に限らず、例えば、特徴量としてHOG(Histograms of Oriented Gradients)特徴量やEdglet特徴量などを使用することが考えられる。また、識別器としてSVM(Support Vector Machine)などを用いることが考えられる。この際、識別境界(超平面)からの距離を用いて尤度を算出することができる。
VMやboostingを用いることなどが考えられる。各検出器で対象の部位を検出し、それぞ
れの部位の尤度と位置とを得る。そして、部分領域識別器を用いた方法と同様に、検出対象の部位と関節との相関関係をあらかじめ学習時に算出しておくことにより、検出した部位から関節位置候補を求めることができる。各検出器で複数の部位を検出すれば、複数の関節位置候補を得ることができる。
次に、整合性評価部103が人体としての整合性評価を行う際に必要となる人体モデルについて述べる。
図3は、人体モデルを作成する方法を説明するための図である。
図3に示すように、整合性評価部103は、人体モデル記憶部104に記憶されている関節位置が既知である学習データ301、302、・・・、30mを用いて、人体モデル311の関節位置関係のテーブル312を算出する。ここで、人体モデル311のJ1、J2、・・・、J16は関節を表している。
次に、整合性評価部103により、各関節の関節位置候補とその尤度とを基に、人体モデルとの整合性を評価して最終的な関節位置を決定して姿勢を推定する方法について説明する。なお、この関節位置候補は前述した方法により関節位置候補算出部102によって取得され、関節位置候補を選出する際に、その尤度に閾値を設定してもよい。期待される位置が予め予測できる場合は、その情報をもとにある範囲内の関節位置候補に制限してもよい。
上記の例では、すべての組み合わせに対して評価値を算出するので、処理に時間を要する。そこで、ある関節位置候補を起点とし、隣接する関節位置候補に対して順次整合性を評価して決定していく方法について説明する。この際、評価値が低い場合、評価値の低くなる関節位置候補については以降の処理を打ち切ることにより処理を高速化できる。
本実施形態では、整合性評価の指標に、人体としての関節位置の配置の整合性だけでなく、入力した距離画像に矛盾がないか否かの妥当性を追加する。つまり、距離撮像装置から距離画像を得て写っている人体の関節位置候補を推定し、そして人体としてあり得る関節位置配置か、および入力した距離画像との整合性を評価し、最終的な姿勢を推定する。以下、第1の実施形態と異なる箇所について説明する。
基本的な構成は図1と同様であるため、重複する部分については説明を省略する。本実施形態では、整合性評価部103は、さらに、距離画像入力部101が抽出した距離画像の人体領域に対して、関節位置候補が矛盾しているか否か(距離画像との整合性)について評価する。これらの処理を繰り返し、かつ関節位置候補の尤度も考慮し、最もよい関節位置の組み合わせとなる姿勢を決定する。
人体との整合性を評価する方法は第1の実施形態と同様であるため、説明は省略する。以下、入力された距離画像との整合性を評価する。
本実施形態では、遮蔽が生じている場合を考慮して関節位置を推定する方法について説明する。本実施形態では、整合性を評価する際に、関節位置候補のすべての組み合わせに加えて、ある関節が遮蔽されている場合の組み合わせを追加して評価する。
基本的な構成は図1と同様であるため、重複する部分については説明を省略する。本実施形態では、整合性評価部103は、さらに、ある関節が遮蔽していると仮定した場合を候補に追加する。すなわち、遮蔽された関節位置候補が加わる。この整合性評価の処理を繰り返し、かつ関節位置候補の尤度も考慮し、最もよい関節位置の組み合わせ、すなわち姿勢を決定する。
以下、第1の実施形態と異なる点について説明する。ある関節Jiに対して遮蔽されていないni個の関節位置候補があり、遮蔽状態も関節位置候補の1つと考えると、(ni+1)個の関節位置候補があることになる。関節の数をN個とすると、関節位置候補の組み合わせの数は全部で、(n1+1)×(n2+1)×・・・×(nN+1)組(以下、Π(ni+1)とする)となる。第1の実施形態と同様、関節ごとで候補数は違ってもよいし、同じでもよい。
第1の実施形態と同様に、遮蔽を考慮した場合でも、ある関節候補を起点とし、隣接する関節位置に対して順次整合性を評価して決定していくことにより処理を高速化することができる。この際に、評価値の低い候補については以降の処理を打ち切ることにより処理を高速化できる。ただし、遮蔽されている状態を関節位置候補として追加して考える必要がある。
本実施形態では、整合性を評価する指標として、入力した距離画像に矛盾が無いか否かの妥当性をさらに追加する。ここで、本実施形態では、第2の実施形態で行った関節位置候補と距離画像との整合性を評価するだけでなく、取得される人体モデルと入力された距離画像との整合性を評価する。
基本的な構成は図1と同様であるため、重複する部分については説明を省略する。本実施形態では、整合性評価部103は距離画像入力部101が抽出した距離画像の人体領域に対して、関節位置候補から取得される人体モデルが矛盾しているか否か(距離画像との整合性)について評価する。
人体との整合性を評価する方法は第1の実施形態と同様であるため、説明は省略する。推定した関節位置が真値とすると、その関節位置から得られる人体モデルは、距離画像中の人体領域と一致するはずである。そこで、関節位置から得られる人体モデルと、入力された距離画像中の人体領域との一致度を評価することによって、整合性を評価する。
第1の実施形態と同様に、上記の例では、整合性評価を必要とする多数の関節の組み合わせaに対して整合性評価値を算出するので、処理に時間を要する場合がある。そこで、ある関節位置候補を起点とし、繋がりのある関節位置候補に対して順次整合性を評価して関節位置候補の組み合わせを決定していく方法をとることができる。この際、繋がりのある関節位置候補の整合性評価値が低い場合、その関節位置候補についてはそれ以降の連結する関節で整合性評価値を算出することを打ち切り、関節位置候補の組み合わせにその関節位置候補を含まないようにする。これにより、整合性評価を高速化できる。この処理は第1の実施形態における整合性評価の高速化と同様の内容であるため、説明を省略する。また、この処理により複数の関節位置候補の組み合わせが得られた場合は、上記の評価ランク付けをさらに行うことができる。
本実施形態では整合性評価の指標に、人体として物理的に矛盾が無いか否かの妥当性を追加する。
基本的な構成は図1と同様であるため、重複する部分については説明を省略する。本実施形態では、整合性評価部103は関節位置候補算出部102が算出した関節位置候補の位置が重なっていることにより、物理的に矛盾しているか否かについて整合性を評価する。ここで、整合性評価の際には人体のパーツの物理的大きさを考慮し、推定された人体の関節が物理的にありえないような重なりを持っているかどうかを判定する。
以下、関節位置候補が物理的にありえないような重なりを持っているか否かを評価する整合性評価における、本実施形態の詳細を説明する。
第1の実施形態と同様に、上記の例では、整合性評価を必要とする多数の関節の組み合わせaに対して整合性評価値を算出するので、処理に時間を要する場合がある。そこで、ある関節位置候補を起点とし、繋がりのある関節位置候補に対して順次整合性を評価して関節位置候補の組み合わせを決定していく方法をとることができる。この際、繋がりのある関節位置候補の整合性評価値が低い場合、その関節位置候補についてはそれ以降の連結する関節で整合性評価値を算出することを打ち切り、関節位置候補の組み合わせにその関節位置候補を含まないようにする。これにより、整合性評価を高速化できる。この処理は第1の実施形態における整合性評価の高速化と同様の内容であるため、説明を省略する。また、この処理により複数の関節位置候補の組み合わせが得られた場合は、上記の評価ランク付けをさらに行うことができる。
本実施形態では整合性評価において、複数の整合性評価値を同時に導入した最終的な評価値を求める。
基本的な構成は図1と同様であるため、重複する部分については説明を省略する。本実施形態では、整合性評価部103において算出された複数の評価値を用いて整合性評価を行う。複数算出された評価値を同時に用いて整合性評価を行うことにより、より正確に整合性評価を行うことができる。
以下、第1の実施形態と異なる点について説明する。
整合性評価では、例えば式(10)により、関節位置候補の組み合わせについて整合性評価値を算出することができる。本実施形態では、式(9)および式(12)を用いて不整合スコアを複数同時に導入する。より具体的には、式(9)により距離画像中の人体領域と推定された関節位置から求められる人体モデルとの不整合性を定量化し、式(12)により推定された関節位置が重なっているか否かをみる物理的な不整合性を定量化することができる。本実施形態ではこれら複数の評価を同時に行う。
第1の実施形態と同様に、上記の例では、整合性評価を必要とする多数の関節の組み合わせaに対して整合性評価値を算出するので、処理に時間を要する場合がある。そこで、ある関節位置候補を起点とし、繋がりのある関節位置候補に対して順次整合性を評価して関節位置候補の組み合わせを決定していく方法をとることができる。この際、繋がりのある関節位置候補の整合性評価値が低い場合、その関節位置候補についてはそれ以降の連結する関節で整合性評価値を算出することを打ち切り、関節位置候補の組み合わせにその関節位置候補を含まないようにする。これにより、整合性評価を高速化できる。この処理は第1の実施形態における整合性評価の高速化と同様の内容であるため、説明を省略する。また、この処理により複数の関節位置候補の組み合わせが得られた場合は、上記の評価ランク付けをさらに行うことができる。
本実施形態では、整合性評価部103において、さらに複数の関節間距離の比率を導入して整合性の評価値を算出する例について説明する。
基本的な構成は図1と同様であるため、重複する部分については説明を省略する。本実施形態では、整合性評価部103は、これまでの整合性評価に加えて、関節位置候補算出部102で得られた各関節位置候補に対して、関節間距離の比率を用いて整合性を評価する。
まず、整合性評価部103が人体としての整合性を評価する際に必要となる人体モデルについて説明する。人体モデルを作成する際には、前述した実施形態における人体モデルの学習(関節間距離及び関節間角度の学習)に加えて本実施形態における人体モデルの関節間距離の比率の学習を行う。なお、これらの学習を独立して行ってもよい。
次に、整合性評価部103により、各姿勢候補の関節位置候補とその尤度とを基に、人体モデルとの整合性を評価して最終的な関節位置を決定して姿勢を推定する方法について説明する。なお、本実施形態においては、前述した実施形態と異なる点について説明する。
前述した例では、全ての姿勢候補において、全ての関節間距離の比率を算出して評価値を求めているので、処理に多くの時間を要する。そこで、姿勢候補に対して各関節間距離の比率を順次評価して決定してもよい。この際、式(16)でh(i,j)の値が0となった場合は、評価値f(a)は0となるため、その姿勢候補については以降の処理を打ち切ることにより処理を高速化できる。
本実施形態では、整合性の評価において得られた複数の姿勢推定結果からその個人に適した関節許容範囲情報を推定し、推定した関節位置許容範囲情報を用いて整合性を評価する方法について説明する。
図12は、本実施形態に係る姿勢推定装置1200の構成例を示すブロック図である。また、図13は、本実施形態において、個人の関節位置許容範囲情報を推定する処理手順の一例を示すフローチャートである。
図12に示す姿勢推定装置1200は、距離画像入力部101、関節位置候補算出部102、整合性評価部1203、人体モデル記憶部104、関節位置記憶部1205、および人体モデル推定部1206を備えている。なお、距離画像入力部101、関節位置候補算出部102、および人体モデル記憶部104は図1と同様であるため、説明は省略する。また、図13のS1301〜S1303の処理についても、それぞれ図2のS201〜S203と同様であるため、説明は省略する。
まず、図13のS1307において、人体モデル推定部1206が、整合性評価部1203が人体として整合性を評価する際に必要となる人体モデルを、時系列で取得した関節位置情報を基に推定する方法について説明する。
以下、新たに追加した部分についてのみ説明する。まず、整合性評価部1203は、図13のS1304において、距離画像入力部101から取得した距離画像と関節位置候補算出部102にて推定した関節位置候補とを取得する。そして、S1305において、人体モデル記憶部104に記憶された関節位置許容範囲情報を用いて人体の整合性を評価する。このとき、なお、初期の段階では、人体モデル推定部1206によって関節位置許容範囲情報が推定されていないため、評価方法については前述した実施形態と同様であり、最終的な姿勢を推定する。そして、S1306において、推定された姿勢は関節位置情報として関節位置記憶部1205へ出力する。この処理を繰り返し、一定の時間または指定したフレーム数の関節位置情報が関節位置記憶部1205に記憶された場合に、人体モデル推定部1206にて人体モデルの学習を行い、関節位置許容範囲情報を推定する。
前述した例では、全ての関節の組み合わせに対して評価を行うため、処理に多くの時間が掛ってしまう。そのため、第1または第7の実施形態と同様の方法により、処理を高速化してもよい。本実施形態では、関節位置許容範囲情報を人体モデル推定部1206から取得する点以外は、第1または第7の実施形態と同様の方法で整合性を評価する。これにより、個人の体型を反映した人体モデルを用いることができ、より高精度に姿勢を推定することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 関節位置候補算出部
103 整合性評価部
104 人体モデル記憶部
Claims (25)
- 多関節の物体を含む距離画像を入力する入力手段と、
前記入力手段によって入力された距離画像から前記物体の関節位置候補を算出する算出手段と、
前記物体に相当する多関節物体モデルにおける関節間の配置関係に対する許容範囲の情報を記憶する記憶手段と、
前記算出手段によって算出された関節位置候補について、前記関節間の配置関係に対する許容範囲の情報に基づいて、当該関節位置候補の配置の整合性を評価する評価手段と、
前記評価手段による評価に基づいて、前記関節位置候補から前記物体の関節位置を決定して前記物体の姿勢を推定する推定手段と、
を有することを特徴とする姿勢推定装置。 - 前記記憶手段は、さらに前記物体に相当する多関節物体モデルにおける関節間の距離もしくは角度の少なくとも1つに対する許容範囲の情報を記憶し、
前記評価手段は、前記距離もしくは角度の少なくとも1つに対する許容範囲の情報に基づいて前記物体の関節位置の配置の整合性を評価することを特徴とする請求項1に記載の姿勢推定装置。 - 前記関節と他の関節との間の距離および角度の分布が、正規分布又は一様分布であることを特徴とする請求項2に記載の姿勢推定装置。
- 前記評価手段は、前記物体に類似した多関節物体モデルを推定し、前記記憶手段から、前記推定した多関節物体モデルに対応する情報を取得することを特徴とする請求項1〜3の何れか1項に記載の姿勢推定装置。
- 前記記憶手段は、前記物体に相当する複数の多関節物体モデルにおける前記関節間の距離に対する許容範囲の情報を記憶し、
前記評価手段は、前記複数の多関節物体モデルに係る前記関節間の距離に対する許容範囲の情報に基づいて前記物体の関節位置候補の配置の整合性を評価することを特徴とする請求項1〜4の何れか1項に記載の姿勢推定装置。 - 前記評価手段は、すべての関節の前記関節位置候補の組み合わせについて評価することを特徴とする請求項1〜5の何れか1項に記載の姿勢推定装置。
- 前記評価手段は、隣接する関節との間で前記関節位置候補を評価して、一定の閾値を超えた関節位置候補に絞り込んで前記物体の関節位置の配置の整合性を評価することを特徴とする請求項1〜5の何れか1項に記載の姿勢推定装置。
- 前記算出手段は、前記物体の関節位置候補の尤度をも算出し、
前記評価手段は、前記算出した尤度に基づいて前記物体の関節位置の配置の整合性を評価することを特徴とする請求項1〜7の何れか1項に記載の姿勢推定装置。 - 前記評価手段は、さらに前記入力された距離画像と前記関節位置候補の位置との整合性を評価することを特徴とする請求項1〜8の何れか1項に記載の姿勢推定装置。
- 前記評価手段は、遮蔽状態の関節位置候補を追加して前記物体の関節位置候補の配置の整合性を評価することを特徴とする請求項1〜8の何れか1項に記載の姿勢推定装置。
- 前記多関節の物体が人体であることを特徴とする請求項1〜10の何れか1項に記載の姿勢推定装置。
- 前記評価手段によって推定された姿勢を初期姿勢として、前記距離画像に対してモデルフィッティングを行う手段をさらに有することを特徴とする請求項1〜11の何れか1項に記載の姿勢推定装置。
- 前記評価手段は、さらに前記入力手段によって得られた距離画像と、前記関節位置候補との整合性又は前記関節位置候補の組み合わせから得られる多関節物体モデルの一部分との整合性を評価することを特徴とする請求項1に記載の姿勢推定装置。
- 前記評価手段は、さらに前記物体に相当する多関節物体モデルにおける関節と他の関節との位置の重複を評価することを特徴とする請求項1に記載の姿勢推定装置。
- 前記評価手段は、前記物体の関節位置候補の配置の整合性を評価することによって得られた評価値を複数用いることを特徴とする請求項1に記載の姿勢推定装置。
- 前記記憶手段は、さらに前記物体に相当する多関節物体モデルにおける関節と他の関節との間の距離と、それ以外の関節間の距離との比率の情報を少なくとも1つ記憶し、
前記評価手段は、さらに前記比率の情報に基づいて前記物体の関節位置候補の配置の整合性を評価することを特徴とする請求項1〜15の何れか1項に記載の姿勢推定装置。 - 前記記憶手段は、前記物体に相当する多関節物体モデルにおける少なくとも2つの関節間の距離の和とそれ以外の少なくとも2つの関節間の距離の和との比率の情報を少なくとも1つ記憶し、
前記評価手段は、前記比率の情報に基づいて前記物体の関節位置候補の配置の整合性を評価することを特徴とする請求項1〜15の何れか1項に記載の姿勢推定装置。 - 前記推定手段によって推定された姿勢に基づいて、前記物体に係る関節と他の関節との間の配置関係を含むに対する許容範囲の情報を推定する推定手段をさらに有し、
前記評価手段は、前記物体を含む他の距離画像に対して、前記算出手段によって算出された前記他の距離画像における関節位置候補と、前記推定手段によって推定された情報とに基づいて、前記他の距離画像における物体の関節位置候補の配置の整合性を評価することを特徴とする請求項1〜17の何れか1項に記載の姿勢推定装置。 - 前記推定手段は、前記物体の関節間距離を学習することによって前記物体に係る関節と他の関節との間の配置関係に対する許容範囲の情報を推定することを特徴とする請求項18に記載の姿勢推定装置。
- 前記推定手段は、前記物体における2つの関節間距離の比率を学習することによって前記物体に係る関節と他の関節との間の配置関係に対する許容範囲の情報を推定することを特徴とする請求項18に記載の姿勢推定装置。
- 多関節の物体を含む距離画像を入力する入力手段と、
前記入力手段によって入力された距離画像から前記物体の関節位置候補を算出する算出手段と、
前記物体に相当する多関節物体モデルにおける関節間の配置関係に対する許容範囲の情報を記憶する第1の記憶手段と、
前記算出手段によって算出された関節位置候補について、前記関節間の配置関係に対する許容範囲の情報に基づいて、当該関節位置候補の配置の整合性を評価する評価手段と、
前記評価手段による評価に基づいて、前記関節位置候補から前記物体の関節位置を決定して前記物体の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段によって推定された姿勢に係る関節位置情報を記憶する第2の記憶手段と、
前記第2の記憶手段に記憶されている関節位置情報から前記物体における関節間の配置関係に対する許容範囲の情報を推定する許容範囲推定手段とを有し、
前記評価手段は、前記許容範囲推定手段により前記物体における関節間の配置関係に対する許容範囲の情報が推定された場合は、前記許容範囲推定手段によって推定された関節間の配置関係に対する許容範囲の情報に基づいて、前記物体の関節位置候補の配置の整合性を評価すること特徴とする姿勢推定装置。 - 多関節の物体に相当する多関節物体モデルにおける関節間の配置関係に対する許容範囲の情報を記憶する姿勢推定装置の姿勢推定方法であって、
前記多関節の物体を含む距離画像を入力する入力工程と、
前記入力工程において入力された距離画像から前記物体の関節位置候補を算出する算出工程と、
前記算出工程において算出された関節位置候補について、前記関節間の配置関係に対する許容範囲の情報に基づいて、当該関節位置候補の配置の整合性を評価する評価工程と、
前記評価工程における評価に基づいて、前記関節位置候補から前記物体の関節位置を決定して前記物体の姿勢を推定する推定工程と、
を有することを特徴とする姿勢推定方法。 - 多関節の物体に相当する多関節物体モデルにおける関節間の配置関係に対する許容範囲の情報を記憶する姿勢推定装置の姿勢推定方法であって、
前記多関節の物体を含む距離画像を入力する入力工程と、
前記入力工程において入力された距離画像から前記物体の関節位置候補を算出する算出工程と、
前記算出工程において算出された関節位置候補について、前記関節間の配置関係に対する許容範囲の情報に基づいて、当該関節位置候補の配置の整合性を評価する評価工程と、
前記評価工程における評価に基づいて、前記関節位置候補から前記物体の関節位置を決定して前記物体の姿勢を推定する姿勢推定工程と、
前記姿勢推定工程において推定された姿勢に係る関節位置情報を記憶手段に記憶する記憶工程と、
前記記憶手段に記憶されている関節位置情報から前記物体における関節間の配置関係に対する許容範囲の情報を推定する許容範囲推定工程とを有し、
前記評価工程においては、前記許容範囲推定工程において前記物体における関節間の配置関係に対する許容範囲の情報が推定された場合は、前記許容範囲推定工程において推定された関節間の配置関係に対する許容範囲の情報に基づいて、前記物体の関節位置候補の配置の整合性を評価することを特徴とする姿勢推定方法。 - 多関節の物体に相当する多関節物体モデルにおける関節間の配置関係に対する許容範囲の情報を記憶する姿勢推定装置を制御するためのプログラムであって、
前記多関節の物体を含む距離画像を入力する入力工程と、
前記入力工程において入力された距離画像から前記物体の関節位置候補を算出する算出工程と、
前記算出工程において算出された関節位置候補について、前記関節間の配置関係に対する許容範囲の情報に基づいて、当該関節位置候補の配置の整合性を評価する評価工程と、
前記評価工程における評価に基づいて、前記関節位置候補から前記物体の関節位置を決定して前記物体の姿勢を推定する推定工程と、
をコンピュータに実行させることを特徴とするプログラム。 - 多関節の物体に相当する多関節物体モデルにおける関節間の配置関係に対する許容範囲の情報を記憶する姿勢推定装置を制御するためのプログラムであって、
前記多関節の物体を含む距離画像を入力する入力工程と、
前記入力工程において入力された距離画像から前記物体の関節位置候補を算出する算出工程と、
前記算出工程において算出された関節位置候補について、前記関節間の配置関係に対する許容範囲の情報に基づいて、当該関節位置候補の配置の整合性を評価する評価工程と、
前記評価工程における評価に基づいて、前記関節位置候補から前記物体の関節位置を決定して前記物体の姿勢を推定する姿勢推定工程と、
前記姿勢推定工程において推定された姿勢に係る関節位置情報を記憶手段に記憶する記憶工程と、
前記記憶手段に記憶されている関節位置情報から前記物体における関節間の配置関係に対する許容範囲の情報を推定する許容範囲推定工程とをコンピュータに実行させ、
前記評価工程においては、前記許容範囲推定工程において前記物体における関節間の配置関係に対する許容範囲の情報が推定された場合は、前記許容範囲推定工程において推定された関節間の配置関係に対する許容範囲の情報に基づいて、前記物体の関節位置候補の配置の整合性を評価することを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014097829A JP6433149B2 (ja) | 2013-07-30 | 2014-05-09 | 姿勢推定装置、姿勢推定方法およびプログラム |
US14/340,636 US9792689B2 (en) | 2013-07-30 | 2014-07-25 | Posture estimating apparatus, posture estimating method and storing medium |
US15/704,500 US10380759B2 (en) | 2013-07-30 | 2017-09-14 | Posture estimating apparatus, posture estimating method and storing medium |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013157974 | 2013-07-30 | ||
JP2013157974 | 2013-07-30 | ||
JP2014024716 | 2014-02-12 | ||
JP2014024716 | 2014-02-12 | ||
JP2014097829A JP6433149B2 (ja) | 2013-07-30 | 2014-05-09 | 姿勢推定装置、姿勢推定方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015167008A JP2015167008A (ja) | 2015-09-24 |
JP6433149B2 true JP6433149B2 (ja) | 2018-12-05 |
Family
ID=52427708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014097829A Active JP6433149B2 (ja) | 2013-07-30 | 2014-05-09 | 姿勢推定装置、姿勢推定方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US9792689B2 (ja) |
JP (1) | JP6433149B2 (ja) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5812599B2 (ja) * | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | 情報処理方法及びその装置 |
JP5820366B2 (ja) * | 2010-10-08 | 2015-11-24 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
JP6433149B2 (ja) | 2013-07-30 | 2018-12-05 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
CN103959805B (zh) * | 2013-10-24 | 2017-08-04 | 华为终端有限公司 | 一种显示图像的方法和装置 |
US10147008B1 (en) * | 2015-01-13 | 2018-12-04 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for determining whether a vehicle system is distracting to a vehicle operator |
JP2017107503A (ja) * | 2015-12-11 | 2017-06-15 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよびシステム |
CN106803056B (zh) * | 2015-11-26 | 2020-11-06 | 华为技术有限公司 | 一种肢体关系的估计方法及装置 |
US11854308B1 (en) * | 2016-02-17 | 2023-12-26 | Ultrahaptics IP Two Limited | Hand initialization for machine learning based gesture recognition |
JP6723061B2 (ja) * | 2016-04-15 | 2020-07-15 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP6617830B2 (ja) * | 2016-04-28 | 2019-12-11 | 富士通株式会社 | 骨格推定装置、骨格推定方法および骨格推定プログラム |
ZA201701187B (en) * | 2016-08-10 | 2019-07-31 | Tata Consultancy Services Ltd | Systems and methods for identifying body joint locations based on sensor data analysis |
JP6655513B2 (ja) * | 2016-09-21 | 2020-02-26 | 株式会社日立製作所 | 姿勢推定システム、姿勢推定装置、及び距離画像カメラ |
EP3525662A1 (en) * | 2016-10-12 | 2019-08-21 | Koninklijke Philips N.V. | An intelligent model based patient positioning system for magnetic resonance imaging |
JP6930995B2 (ja) * | 2016-11-09 | 2021-09-01 | 株式会社システムフレンド | 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム |
WO2018087933A1 (ja) * | 2016-11-14 | 2018-05-17 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10943136B1 (en) * | 2017-01-19 | 2021-03-09 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for generating a vehicle driver signature |
JP6826296B2 (ja) | 2017-03-21 | 2021-02-03 | 富士通株式会社 | 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム |
EP3611690A4 (en) | 2017-04-10 | 2020-10-28 | Fujitsu Limited | DETECTION DEVICE, DETECTION METHOD AND DETECTION PROGRAM |
WO2018207365A1 (ja) | 2017-05-12 | 2018-11-15 | 富士通株式会社 | 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム |
EP3624051A4 (en) | 2017-05-12 | 2020-03-25 | Fujitsu Limited | DISTANCE IMAGE PROCESSING DEVICE, DISTANCE IMAGE PROCESSING SYSTEM, DISTANCE IMAGE PROCESSING METHOD AND DISTANCE IMAGE PROCESSING PROGRAM |
CN107341336A (zh) * | 2017-05-19 | 2017-11-10 | 上海交通大学 | 一种贮箱产品几何精度一致性评价方法 |
JP6939111B2 (ja) * | 2017-06-13 | 2021-09-22 | コニカミノルタ株式会社 | 画像認識装置および画像認識方法 |
US10062187B1 (en) * | 2017-06-28 | 2018-08-28 | Macau University Of Science And Technology | Systems and methods for reducing computer resources consumption to reconstruct shape of multi-object image |
JP6977337B2 (ja) * | 2017-07-03 | 2021-12-08 | 富士通株式会社 | 部位認識方法、装置、プログラム、及び撮像制御システム |
JP6923789B2 (ja) * | 2017-07-05 | 2021-08-25 | 富士通株式会社 | 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム |
EP3693923A4 (en) * | 2017-10-03 | 2020-12-16 | Fujitsu Limited | RECOGNITION PROGRAM, RECOGNITION PROCESS AND RECOGNITION DEVICE |
KR102147930B1 (ko) * | 2017-10-31 | 2020-08-25 | 에스케이텔레콤 주식회사 | 포즈 인식 방법 및 장치 |
JP6988406B2 (ja) * | 2017-11-27 | 2022-01-05 | 富士通株式会社 | 手位置検出方法、手位置検出装置、及び手位置検出プログラム |
JP6939608B2 (ja) * | 2018-01-30 | 2021-09-22 | コニカミノルタ株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
JP7170411B2 (ja) | 2018-03-29 | 2022-11-14 | キヤノン株式会社 | 情報処理装置および方法およびコンピュータプログラム、並びに監視システム |
KR102127151B1 (ko) * | 2018-08-20 | 2020-06-30 | 전북대학교병원 | 하지 뼈 영상 처리 장치 및 방법 |
CN109145867B (zh) * | 2018-09-07 | 2021-08-10 | 北京旷视科技有限公司 | 人体姿态估计方法、装置、***、电子设备、存储介质 |
CN110909580B (zh) * | 2018-09-18 | 2022-06-10 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
WO2020070857A1 (ja) * | 2018-10-04 | 2020-04-09 | 三菱電機株式会社 | 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム |
WO2020070856A1 (ja) * | 2018-10-04 | 2020-04-09 | 三菱電機株式会社 | 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム |
WO2020130211A1 (ko) * | 2018-12-21 | 2020-06-25 | 주식회사 알체라 | 관절 모델 정합 장치 및 방법 |
TWI715903B (zh) * | 2018-12-24 | 2021-01-11 | 財團法人工業技術研究院 | 動作追蹤系統及方法 |
US10871039B2 (en) | 2019-01-03 | 2020-12-22 | Ulterra Drilling Technologies, L.P. | Replaceable nozzle for drilling bit |
CN111460870A (zh) | 2019-01-18 | 2020-07-28 | 北京市商汤科技开发有限公司 | 目标的朝向确定方法及装置、电子设备及存储介质 |
CN110321795B (zh) * | 2019-05-24 | 2024-02-23 | 平安科技(深圳)有限公司 | 用户姿态识别方法、装置、计算机装置及计算机存储介质 |
JP7439832B2 (ja) | 2019-05-30 | 2024-02-28 | コニカミノルタ株式会社 | 3次元姿勢推定方法、プログラム、記録媒体および3次元姿勢推定装置 |
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
EP4040382A4 (en) * | 2019-10-03 | 2022-09-07 | Fujitsu Limited | EVALUATION PROCEDURES, EVALUATION PROGRAM AND INFORMATION PROCESSING SYSTEM |
CN112906438B (zh) * | 2019-12-04 | 2023-05-02 | 内蒙古科技大学 | 人体动作行为的预测方法以及计算机设备 |
JP7459679B2 (ja) * | 2020-06-23 | 2024-04-02 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
CN114078193A (zh) * | 2020-08-12 | 2022-02-22 | 株式会社理光 | 图像处理方法、设备和介质 |
KR102594249B1 (ko) | 2020-11-18 | 2023-10-26 | 한국전자통신연구원 | 실감 인터랙션 기반의 가상 훈련 방법 및 장치 |
CN112504188B (zh) * | 2020-11-19 | 2021-11-23 | 东风汽车集团有限公司 | 一种生成人体模型的方法 |
JPWO2022113349A1 (ja) | 2020-11-30 | 2022-06-02 | ||
JP7464512B2 (ja) | 2020-12-10 | 2024-04-09 | Kddi株式会社 | 三次元人物姿勢推定装置、方法およびプログラム |
WO2023195099A1 (ja) * | 2022-04-06 | 2023-10-12 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法及びプログラム |
CN117315201A (zh) * | 2022-06-20 | 2023-12-29 | 香港教育大学 | 用于在虚拟世界中动画化化身的*** |
CN116503958B (zh) * | 2023-06-27 | 2023-10-03 | 江西师范大学 | 人体姿态识别方法、***、存储介质及计算机设备 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10124677A (ja) | 1996-10-25 | 1998-05-15 | Nippon Telegr & Teleph Corp <Ntt> | 物体の姿勢推定方法および物体の姿勢推定装置 |
US5892691A (en) * | 1996-10-28 | 1999-04-06 | Reel/Frame 8218/0138 Pacific Data Images, Inc. | Method, apparatus, and software product for generating weighted deformations for geometric models |
JP4148281B2 (ja) * | 2006-06-19 | 2008-09-10 | ソニー株式会社 | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム |
US8351646B2 (en) * | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
US8340357B2 (en) * | 2008-10-27 | 2012-12-25 | Panasonic Corporation | Moving object detection method and moving object detection apparatus |
US8995714B2 (en) * | 2009-03-04 | 2015-03-31 | Nec Corporation | Information creation device for estimating object position and information creation method and program for estimating object position |
WO2011021588A1 (ja) * | 2009-08-20 | 2011-02-24 | 日本電気株式会社 | 移動体軌跡識別システム |
EP2383696A1 (en) * | 2010-04-30 | 2011-11-02 | LiberoVision AG | Method for estimating a pose of an articulated object model |
US8437506B2 (en) * | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
JP5820366B2 (ja) * | 2010-10-08 | 2015-11-24 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
JP5525407B2 (ja) * | 2010-10-12 | 2014-06-18 | 日本電信電話株式会社 | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
JP2012120647A (ja) * | 2010-12-07 | 2012-06-28 | Alpha Co | 姿勢検出装置 |
US8571263B2 (en) * | 2011-03-17 | 2013-10-29 | Microsoft Corporation | Predicting joint positions |
JP5777390B2 (ja) | 2011-04-20 | 2015-09-09 | キヤノン株式会社 | 情報処理方法及び装置、パターン識別方法及び装置 |
JP5814700B2 (ja) | 2011-08-25 | 2015-11-17 | キヤノン株式会社 | 画像処理システム及び画像処理方法 |
JP5906071B2 (ja) | 2011-12-01 | 2016-04-20 | キヤノン株式会社 | 情報処理方法、情報処理装置、および記憶媒体 |
JP6433149B2 (ja) | 2013-07-30 | 2018-12-05 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
US10121260B2 (en) * | 2014-10-30 | 2018-11-06 | Panasonic Intellectual Property Management Co., Ltd. | Orientation estimation method and orientation estimation device |
US11120478B2 (en) * | 2015-01-12 | 2021-09-14 | Ebay Inc. | Joint-based item recognition |
ZA201701187B (en) * | 2016-08-10 | 2019-07-31 | Tata Consultancy Services Ltd | Systems and methods for identifying body joint locations based on sensor data analysis |
JP6923789B2 (ja) * | 2017-07-05 | 2021-08-25 | 富士通株式会社 | 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム |
-
2014
- 2014-05-09 JP JP2014097829A patent/JP6433149B2/ja active Active
- 2014-07-25 US US14/340,636 patent/US9792689B2/en active Active
-
2017
- 2017-09-14 US US15/704,500 patent/US10380759B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9792689B2 (en) | 2017-10-17 |
US10380759B2 (en) | 2019-08-13 |
US20180068461A1 (en) | 2018-03-08 |
JP2015167008A (ja) | 2015-09-24 |
US20150036879A1 (en) | 2015-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6433149B2 (ja) | 姿勢推定装置、姿勢推定方法およびプログラム | |
CN108369643B (zh) | 用于3d手部骨架跟踪的方法和*** | |
CN104573614B (zh) | 用于跟踪人脸的设备和方法 | |
CN108475439B (zh) | 三维模型生成***、三维模型生成方法和记录介质 | |
JP5833189B2 (ja) | 被写体の三次元表現を生成する方法およびシステム | |
KR101833364B1 (ko) | 파라미터화된 변형가능 메시를 이용하여 개인화된 아바타들을 구성하기 위한 방법 및 시스템 | |
Balan et al. | Detailed human shape and pose from images | |
JP4709723B2 (ja) | 姿勢推定装置及びその方法 | |
US11948376B2 (en) | Method, system, and device of generating a reduced-size volumetric dataset | |
JP4950787B2 (ja) | 画像処理装置及びその方法 | |
JP4991317B2 (ja) | 顔特徴点検出装置及びその方法 | |
JP4951498B2 (ja) | 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体 | |
CN109063584B (zh) | 基于级联回归的面部特征点定位方法、装置、设备及介质 | |
US9443325B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP5480667B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
JP2012042396A (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
CN103999126A (zh) | 用于估计姿态的方法和装置 | |
JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
JP6381368B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
WO2019144296A1 (zh) | 可移动平台的控制方法、装置和可移动平台 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
US11461914B2 (en) | Measuring surface distances on human bodies | |
JP2015219868A (ja) | 情報処理装置、情報処理方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6433149 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |