JP5555207B2 - 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム - Google Patents

3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム Download PDF

Info

Publication number
JP5555207B2
JP5555207B2 JP2011155578A JP2011155578A JP5555207B2 JP 5555207 B2 JP5555207 B2 JP 5555207B2 JP 2011155578 A JP2011155578 A JP 2011155578A JP 2011155578 A JP2011155578 A JP 2011155578A JP 5555207 B2 JP5555207 B2 JP 5555207B2
Authority
JP
Japan
Prior art keywords
dimensional
posture
estimated
joint
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011155578A
Other languages
English (en)
Other versions
JP2013020578A (ja
Inventor
鮎美 松本
小軍 ウ
宣彦 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011155578A priority Critical patent/JP5555207B2/ja
Publication of JP2013020578A publication Critical patent/JP2013020578A/ja
Application granted granted Critical
Publication of JP5555207B2 publication Critical patent/JP5555207B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、カメラで撮影された画像データから対象の3次元的な姿勢又は動作を推定する3次元姿勢推定装置、3次元姿勢推定方法、及びプログラムに関する。
近年、モーションキャプチャシステムや距離画像を用いずに、画像データから人や物の姿勢推定・運動解析を行う研究が広く行われている(例えば、非特許文献1参照)。これらの研究は、映像監視やヒューマンインタラクション、ロボットの運動制御、CGアニメーションへの動作あてはめ、医療分野等、幅広い分野への応用が期待されている。
しかし、画像データに基づいて、3次元的な仮想空間における人物の姿勢を推定する場合、任意の時間における人物の関節の3次元回転角を推定することが困難である。特に、単眼カメラを用いて撮影された画像データから、人物の3次元の姿勢を推定する場合、画像データにおいては人物が2次元で表現されているため、3次元で表現するための情報の欠如している。そのため、姿勢の多義性に対応できないことや、手足や障害物による遮蔽に対応できないことなどが問題となる。
これらの問題に対処するため、姿勢を推定する際に、人物の動きに関する事前知識を用いる手法が注目されている。この事前知識とは、2次元の画像データに基づき、3次元で表現するために欠如している情報を補充するための情報である。具体的には、光学モーションキャプチャシステムにより計測された高精度な3D動作データから低次元特徴を取り出し動作モデルを構築し、この動作モデルを事前知識として用いることが行われている。
事前知識として、人物の動作を3次元の情報として記述する際、一般的に、モデルの汎用性を高めるために、空間中に基準点を置くいわゆる世界座標系ではなく、人物の一部分、例えば腰の位置(ルート)を基準とした相対的な変化量が動作データとして用いられている。
実際の映像では、対象とする人物の動作により、人物に設定している基準点と、カメラとの相対位置は常に変動する。このため、実映像を観測データとして人物の姿勢に対する3次元動作推定を行う際には、この相対位置関係(視点)の変動を考慮する必要がある。
そこで、非特許文献2に記載された3次元姿勢推定方法では、視点を考慮するために、動作モデルとして、3次元動作データのみを用いて学習し、推定の際に投影2D面を線形予測式により規定する手法が用いられている。
島田伸敬、有田大作、玉木徹、「関節物体のモデルフィッティング」、情報処理学会研究報告、CViM Vol.154. page.375-392. 2006. R. Urtasun, D. J. Fleet, and P. Fua."3d people tracking with gaussian process dynamical models." CVPR, 2006.
しかしながら、上記の手法では、2次元画像面(カメラ投影面)に対する人物の動きの方向が既知であるという前提条件が必要である。すなわち、カメラの位置が既知であり、カメラと人物との相対的な位置関係が既知であることが必要である。そのため、カメラの位置が未知である場合、人物の姿勢を推定することができないという問題があった。
本発明は、上記問題を解決すべくなされたもので、その目的は、カメラの位置が未知である場合においても、2次元画像から人物の姿勢を推定できる3次元姿勢推定装置、3次元姿勢推定方法、及びプログラムを提供することにある。
上記問題を解決するために、本発明は、複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得部と、前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影部と、前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習部と、姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力部と、前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出部と、前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得部が出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定部と、を具備することを特徴とする3次元姿勢推定装置である。
また、本発明は、複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得ステップと、前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影ステップと、前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習ステップと、姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力ステップと、前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出ステップと、前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得ステップにおいて出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定ステップと、を有することを特徴とする3次元姿勢推定方法である。
また、本発明は、複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得ステップと、前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影ステップと、前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習ステップと、姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力ステップと、前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出ステップと、前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得ステップにおいて出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定ステップと、をコンピュータに実行させるためのプログラムである。
この発明によれば、推定した3次元動作データと、動作モデルを生成した際に用いた3次元動作データとの差から動きベクトルを生成し、動きベクトルに基づいて視点球上から複数の視点候補を選択し、選択した視点候補ごとに、動作モデルを事前知識として画像データから得られる特徴量データから姿勢及び視点を推定する。これにより、姿勢を推定する対象の多関節物体と画像データを撮像した視点との位置関係の変化、すなわち、多関節物体を基準としたときの視点の変化を、多関節物体の姿勢の推定とともに算出することができる。
本実施形態における3次元姿勢推定装置100の構成を示す概略ブロック図である。 同実施形態における仮想視点の概略を示す図である。 同実施形態における動作モデル学習部110の学習処理を示すフローチャートである。 同実施形態における動きベクトルの定義を示す図である。 同実施形態における姿勢推定部130の姿勢推定処理を示すフローチャートである。
以下、図面を参照して、本発明に係る実施形態における3次元姿勢推定装置、3次元姿勢推定方法、及びプログラムを説明する。
図1は、本実施形態における3次元姿勢推定装置100の構成を示す概略ブロック図である。同図に示すように、3次元姿勢推定装置100は、学習部110と、動作情報記憶部120と、姿勢推定部130と、推定姿勢情報記憶部140とを具備している。
学習部110は、3次元動作データ取得部111と、仮想視点投影部112と、動作モデル学習部113とを備えている。姿勢推定部130は、画像生成部131と、特徴量算出部132と、3次元姿勢推定部133とを備えている。
3次元動作データ取得部111は、人や物などの多関節物体(以下、人物という。)の3次元動作データを取得し、取得した3次元動作データを動作情報記憶部120に記憶させるとともに、取得した3次元動作データを仮想視点投影部112に出力する。3次元動作データ取得部111は、例えば、市販のモーションキャプチャシステムや、多視点カメラで構成することができる。3次元動作データは、人物の各関節の3次元回転角や、関節間の接続を階層構造として示す階層構造情報を有している。
仮想視点投影部112は、3次元動作データ取得部111において取得された3次元動作データが示す人物の動作を、仮想視点Vに2次元投影した2次元動作データを生成する。仮想視点投影部112は、予め定められた複数の仮想視点Vごとに、2次元動作データを生成する。また、仮想視点投影部112は、生成した2次元動作データを、当該2次元動作データを生成する際に用いた3次元動作データに対応付けて動作情報記憶部120に記憶させる。
図2は、本実施形態における仮想視点の概略を示す図である。同図に示すように、仮想視点は、人体の腰の関節を示す位置を中心とする視点球を設定し、設定した視点球上の予め定められた位置に設定される。このとき、腰の関節を示す位置を原点(x,y,z)=(0,0,0)とする3次元座標系が定められる。また、各関節を関節番号kで識別するとき、仮想視点Vにおける関節番号kの位置は、(y,z)で示される。関節数がK個の場合、仮想視点Vの2次元動作データをY2D とすれば、Y2D は2×Kの行列として示すことができる。
図1に戻って、3次元姿勢推定装置100の構成の説明を続ける。
動作モデル学習部113は、3次元動作データ取得部111が取得した3次元動作データと、仮想視点投影部112が生成した2次元動作データとに基づいて、動作モデルを生成する。動作モデルは、例えば、2次元動作データY2D を次元圧縮し、低次元特徴X2D で表現したもの等を利用することができる。この場合、動作モデル学習部113は、低次元特徴X2D に基づく空間と、3次元動作データに基づく空間とを対応付ける学習モデル(写像関数)を生成する。
画像生成部131は、姿勢の推定対象となる人物を撮像した画像データを生成し、生成した画像データを時系列順に特徴量算出部132に出力する。画像生成部131は、例えば、1台あるは複数台のカメラを用いて構成することができる。なお、画像生成部131を備えることに替えて、外部から入力された画像データを特徴量算出部132に出力するようにしてもよい。
特徴量算出部132は、画像生成部131から入力された画像データから、画像データ上における各関節の位置を検出し、検出した関節の位置を特徴量データとして算出する。特徴量算出部132が各関節の位置を検出する際に、関節位置の初期位置は、公知の画像認識等の技術を用いて検出するようにしてもよいし、ユーザが画像データ上における各関節の位置を入力するようにしてもよい。また、各関節の位置の追跡は、公知の2次元追跡手法を用いるようにしてもよい。
3次元姿勢推定部133は、特徴量算出部132が出力する特徴量データと、動作情報記憶部120に記憶されている動作モデルとをフィッティングすることにより、3次元の姿勢を推定し、推定した姿勢を示す姿勢情報を推定姿勢情報記憶部140に記憶させる。
推定姿勢情報記憶部140は、3次元姿勢推定部133が推定した姿勢情報を記憶する。推定姿勢情報記憶部140に記憶されている姿勢情報を用いることで、仮想的な空間に、リアルタイムに人物の動作を反映させることや、人体の動作解析等に利用することができる。
以下、学習部110と、姿勢推定部130とにおいて行われる処理について説明する。
学習部110では、仮想視点Vごとの動作モデルを構築する。仮想視点投影部112における仮想視点Vそれぞれの2次元動作データは、例えば、図2に示すような、人体の腰の位置(ルート)を基準とし、予め定められた半径を有する視点球を考えることで生成できる。具体的には、視点球の表面を一定の間隔でサンプリングし、サンプリングした各点に仮想的なカメラを置き、各時刻における人体の各関節の位置を2次元投影する。i番目のサンプリング点を仮想視点Vとし、動作モデル学習部113が動作モデルを生成する。
図3は、本実施形態における学習部110の学習処理を示すフローチャートである。
学習部110において、3次元動作データ取得部111は、3次元動作データを取得し(ステップS301)、人体の腰の位置を基準とした各関節の3次元相対座標値を算出する(ステップS302)。3次元相対座標の算出は、各関節の回転角と関節間の階層構造の情報に基づいて算出することができる。例えば、腰の3次元座標を(x,y,z)=(0,0,0)とし、関節番号kの3次元座標を(x,y,z)で表す。
仮想視点投影部112は、学習する仮想視点Vを選択する(ステップS303)。このとき、仮想視点投影部112は、選択した仮想視点Vの位置を、図2に示すように人体のルート(腰)を中心とした仰角φと、方位角θとを用いて表す。
仮想視点投影部112は、3次元動作データ取得部111が算出した3次元相対座標値を仮想視点Vに投影したときの2次元座標値を算出する。例えば、図2における仮想視点Vでは、仮想視点Vのときと比較して人体をz軸まわりに−θ回転させた後に、y軸まわりに−φ回転することと同義である。回転を行う方法として、例えば、同次ベクトルを用いる方法がある。関節番号kの3次元相対座標(x,y,z)を同次座標形式では次式(1)のように表す。
Figure 0005555207
式(1)で表される座標Pを、z軸まわりに−θ回転させた後に、y軸まわりに−φ回転させた座標P´を算出するには、回転行列Rθ、Rφを用いて、次式(2)で示す演算を行う。
Figure 0005555207
ここで、回転行列Rθは次式(3)で示され、回転行列Rφは次式(4)で示される。
Figure 0005555207
Figure 0005555207
式(2)を用いて算出した座標値P´からy成分とz成分とを取り出し、仮想視点Vにおける関節番号kの2次元座標(y ,z )とする。関節数がKであれば、仮想視点Vにおける各関節の2次元座標値は、2×Kの行列で表される。
動作モデル学習部113は、仮想視点Vに対応する動作モデルを学習する(ステップS305)。動作モデルの学習の方法は、一例として、非特許文献2に記載されているように、高次元データを次元圧縮する手法により、ステップS304において算出した2次元動作データを低次元化し、低次元特徴X2D を仮想視点Vの動作モデルとして用いる。動作モデル学習部113は、動作モデルを動作情報記憶部120に記憶させる。
動作モデル学習部113は、処理フレーム数iが学習視点数Iより少ないか否かを判定し(ステップS306)、処理フレーム数iが学習視点数Iより少ない場合(ステップS306:Yes)、処理をステップS303に戻しステップS303〜ステップS306の処理を繰り返し行い、処理フレーム数iが学習視点数Iより少なくない場合(ステップS306:No)、処理を終了する。なお、学習視点数Iは、予め定められた値である。
続いて、姿勢推定部130における処理について説明する。姿勢推定部130では、視点を状態とする姿勢推定を行う。
すべての視点に関する階層的な動作モデルを全探索することでも姿勢の推定は可能であるが、学習時の仮想視点の粒度を細かくするほど探索範囲(探索対象)が膨大となってしまう。そこで、姿勢推定部130では、推定する状態に視点を加えて状態推定を行う。本実施形態では、状態の推定は、一般的なMAP(Maximum A Posteriori;事後確率最大化)推定や、パーティクルフィルタ等を用いて行う。ここで、視点を推定するとは、図2に示すθ、φを決定することである。
さらに、時刻nの視点候補をθ(n)=θ(n−1)+dθ(n),φ(n)=φ(n−1)+dφ(n)を平均とした正規分布に基づきサンプリングすることで、視点の探索範囲を絞り込むことができる。
図4は、本実施形態における動きベクトルの定義を示す図である。同図には、人物の並進と、人物の回転とに対する動きベクトルの定義が示されている。人物が並進した場合、時刻(n−1)における視点から人物へのベクトルと、時刻nにおける視点から人物へのベクトルとのなす角dθ(n)により人物の動きを表す。また、人物が回転した場合、人物が回転した角dθ(n)により人物の動きを表す。
視点変化dθ(n)、dφ(n)は、例えば、図4に示すように学習データである3次元動作データの動きベクトル(モーションキャプチャデータのルートの並進と回転との変化量)に基づいて定義する。これは、前の時刻のルートに対する並進と回転とは、動作の特徴を保持するとの考えに基づいている。
より具体的には、前の時刻の推定全身3次元動作データと最も近い学習動作データの並進t(n−1)と回転r(n−1)とからそれぞれ視点の変化量dθ(n)、dθ(n)を算出する。全体としての視点変化は、dθ(n)=dθ(n)−dθ(n)で定義する。φに関しても同様に算出する。
図5は、本実施形態における姿勢推定部130の姿勢推定処理を示すフローチャートである。
姿勢推定部130において、3次元姿勢推定部133は、画像生成部131が出力する画像データに関して、初期視点θ、φを大まかに設定する(ステップS401)。ここで、視点は、学習した際の視点の位置を表す定義に従い、表される。例えば、図2に示したように、人体のルート(腰)の位置を中心とした仰角と方位角とを用いて、視点の位置を表す。なお、初期視点θ、φは、ユーザによって外部より入力された値を用いてもよいし、視点球状の予め定められた視点から選択するようにしてもよい。
3次元姿勢推定部133は、動作情報記憶部120に記憶されている動作モデルであって学習部110により仮想視点Vごとに学習された動作モデルと、特徴量算出部132が算出した特徴量データとを比較することにより、初期姿勢を推定する(ステップS402)。特徴量データは、例えば、一般的な2次元トラッキング手法により、各関節の位置座標及びその変化を時々刻々求めたものを用いる。3次元姿勢推定部133は、初期姿勢を示す情報を推定情報として推定姿勢情報記憶部140に記憶させる。
3次元姿勢推定部133は、推定姿勢情報記憶部140に記憶されている推定情報と、動作情報記憶部120に記憶されている学習データとから、図4に示したような方法で動きベクトルを算出する(ステップS403)。動きベクトルは、推定された3次元動作データYと最も近い学習3次元動作データYとから、移動量と回転量とを求めることで算出する。
ここで、推定された3次元動作データYの初期値は、ステップS402において推定された初期姿勢に対応し動作モデルから得られる3次元動作データであり、ステップS405の処理が行われた後には、推定された姿勢に対応し動作モデルから得られる3次元動作データである。また、学習3次元動作データYは、動作情報記憶部120に記憶されている3次元動作データであって、動作モデルを生成した際に用いられた3次元動作データである。また、推定された3次元動作データYと最も近い学習3次元動作データYとは、例えば、3次元動作データが有している各関節の3次元回転角の差分の総和が最小の3次元動作データである。
3次元姿勢推定部133は、ステップS403において算出した動きベクトルから、時刻nにおける視点候補をθ(n)=θ(n−1)+dθ(n)、φ(n)=φ(n−1)+dφ(n)を平均とした正規分布に基づきサンプリングする(ステップS404)。例えば、視点のサンプリング数Nviewを100とすれば、視点候補は100個生成され、その平均値は、θ(n)=θ(n−1)+dθ(n)、φ(n)=φ(n−1)+dφ(n)となる。
3次元姿勢推定部133は、動作情報記憶部120に記憶されている2次元学習も出るであって学習部110によって仮想視点Vごとに学習された動作モデルと、特徴量算出部132が算出した特徴量データとを比較することにより、姿勢を推定する(ステップS405)。
3次元姿勢推定部133が行う姿勢推定は、例えば、時系列順に連続する画像データである2次元映像における人物動作の関節位置を、観測して得られた特徴量I(1:n)≡(I(1),…,I(n))として、下記のような手法で実現できる。姿勢推定は、学習した動作モデルを事前知識として、観測から状態Φ(n)=[y(n),x(n),S(n)]を推定することにより行う。ここは、状態Φ(n)は、y(n)とx(n)とS(n)との組合せで表される。y(n)は2次元動作データであり、x(n)はy(n)に対応する低次元特徴であり、S(n)は2次元写像に影響するスケールパラメータであり、例えば、実際の人物のサイズと画像データにおける当該人物のサイズとの比などである。
状態推定は、次式(5)における事後確率を最大化する状態を求めることと等しく、MAP推定や、パーティクルフィルタ等のサンプリング手法によって実現される。
すなわち、事後確率を最大化する状態を求め、当該状態に対応する仮想視点Vの動作モデルが2次元映像から観測される人物の姿勢となる。
Figure 0005555207
ここで、式(5)における右辺の第1項は尤度(観測モデル)を表し、第2項は予測分布(状態遷移モデル)を表している。ここでは、パーティクルフィルタを用いて式(5)を解く。状態Φ(n)を推定する問題を事後確率の期待値を求める問題とする。このとき、期待値は次式(6)で表される。
Figure 0005555207
観測モデルと状態遷移モデルとをランダムサンプリングによりモンテカルロ近似し、期待値を次式(7)のサンプルの重みつき平均として表す。
Figure 0005555207
このとき、状態遷移モデルΦ(i)(n)は次式(8)で表され、観測モデルω(i)(n)は次式(9)で表される。
Figure 0005555207
Figure 0005555207
(状態遷移モデル)
状態サンプルΦ(i)(n)=[x(i)(n),y(i)(n),S(i)(n)]を学習した動作モデルに従い生成する。このとき、3次元姿勢推定部133は、ステップS404において算出した視点候補Vごとに、その視点の動作モデルに従い状態サンプルを生成する。状態遷移モデルは、動作モデルの学習手法に従い定義される。例えば、非特許文献3の手法により学習された動作モデルであれば、未知の潜在変数x(n)と、部分動作データy(n)はそれぞれ次式(10)、(11)で与えられる。
Figure 0005555207
Figure 0005555207
このとき、μ(x)とμ(y)とは次式(12)、(13)で表される。
Figure 0005555207
Figure 0005555207
ここで、k(x)、k(x)はi番目の要素にk(x,x)、k(x,x)をもつベクトルである。
(観測モデル)
尤度は次式(14)で規定する。
Figure 0005555207
ここで、^I(n)は、公知の2次元トラッキング手法を用いて、観測映像から検出されたj番目の関節の位置であり、y(n)は状態Φ(n)における2次元観測された関節のうちj番目の関節を示す。3次元姿勢推定部133は、視点候補ごとに、上記の状態遷移モデルと観測モデルとを用いて式(6)から期待値を算出する。視点候補ごと期待値を求め、期待値が最大となる状態に基づいて、人物の姿勢を推定する。換言すると、3次元姿勢推定部133は、視点候補ごとに、当該視点候補に対応する状態Φ(n)に含まれる姿勢のうち、最も確からしい(期待値が最大の状態Φ(n)に含まれる)姿勢を選択する。3次元姿勢推定部133は、推定した人物の姿勢を示す情報を推定情報として推定姿勢情報記憶部140に記憶させる。
3次元姿勢推定部133は、処理フレーム数nが画像生成部131から出力されたフレーム数Nより少ないか否かを判定し(ステップS406)、処理フレーム数nがNより少ない場合(ステップS406:Yes)、処理をステップS403に戻して、ステップS403〜ステップS406を繰り返し行い、処理フレーム数nがNより少なくない場合(ステップS406:No)、処理を終了する。
上述の処理により、姿勢推定部130は、画像生成部131から出力される時系列順に連続する画像データ(フレーム)ごとに、式(7)で表される期待値が最大となる状態Φ(n)を選択する。姿勢推定部130は、フレームごとに選択した状態Φ(n)に対応するカメラの視点及び人物の姿勢を推定姿勢情報記憶部140に記憶させる。このとき、姿勢推定部130は、カメラの視点及び人物の姿勢を対応付けて時系列順に記憶させる。
上述のように、人物の姿勢の推定において、人物とカメラとの位置関係、すなわちカメラの位置に対する人物の動きの方向が未知である場合においても、人物の姿勢と、カメラの位置(視点)との推定を行うことができる。このとき、人物の姿勢と視点との組合せを状態として扱い、MAP推定や、パーティクルフィルタ等を用いて状態の推定を行うことにより、計算コストを削減して、2次元映像から人物の姿勢推定を行うことができる。また、視点候補を動きベクトルに基づいて絞り込むことにより、計算コストを削減することができる。
このように、3次元姿勢推定装置100を用いることにより、カメラのキャリブレーションをせず、かつ、人物の動きの方向に関する制限を設けることなく、姿勢推定を行うことができる。
なお、上述の実施形態において、3次元姿勢推定装置100は、人体の姿勢を推定する場合について説明したが、これに限ることなく、複数の関節を有する物体や、動物等の姿勢を推定するようにしてもよい。
なお、本発明における3次元姿勢推定装置100の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより学習部110と姿勢推定部130とが行う物体の姿勢及び視点の推定を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
100…3次元姿勢推定装置
110…学習部
111…3次元動作データ取得部
112…仮想視点投影部
113…動作モデル学習部
120…動作情報記憶部
130…姿勢推定部
131…画像生成部
132…特徴量算出部
133…3次元姿勢推定部
140…推定姿勢情報記憶部

Claims (3)

  1. 複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得部と、
    前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影部と、
    前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習部と、
    姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力部と、
    前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出部と、
    前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得部が出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定部と、
    を具備することを特徴とする3次元姿勢推定装置。
  2. 複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得ステップと、
    前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影ステップと、
    前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習ステップと、
    姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力ステップと、
    前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出ステップと、
    前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得ステップにおいて出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定ステップと、
    を有することを特徴とする3次元姿勢推定方法。
  3. 複数の関節を有する多関節物体の姿勢を3次元空間における前記関節の位置で示す3次元動作データを出力する3次元動作データ取得ステップと、
    前記多関節物体が有する関節のうち予め定められた関節を中心とし所定の半径の視点球の表面上に所定の間隔で設けられる仮想視点ごとに、前記3次元動作データで示される関節を該仮想視点に2次元投影した2次元動作データを生成する仮想視点投影ステップと、
    前記3次元動作データと前記2次元動作データとの対応関係を示す動作モデルを生成する動作モデル学習ステップと、
    姿勢を推定する対象の多関節物体を撮像した画像データを順次出力する画像出力ステップと、
    前記画像データにおける前記多関節物体が有する関節の位置及びその変化を示す特徴量データを算出する特徴量算出ステップと、
    前記特徴量データと前記動作モデルとに基づいて前記多関節物体の初期の姿勢を推定し、推定した姿勢を示す推定3次元動作データと、前記3次元動作データ取得ステップにおいて出力した3次元動作データのうち前記推定3次元動作データとの差から前記多関節物体の動きベクトルを生成する第1の処理と、前記生成した動きベクトルに基づいて複数の視点候補を前記視点球上から選択する第2の処理と、前記選択した複数の視点候補ごとに前記動作モデルを事前知識として前記多関節物体の姿勢を推定し、推定した姿勢のうち最も確からしい姿勢を、前記多関節物体の新たな姿勢として選択する第3の処理とを、前記画像データごとに繰り返す3次元姿勢推定ステップと、
    をコンピュータに実行させるためのプログラム。
JP2011155578A 2011-07-14 2011-07-14 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム Expired - Fee Related JP5555207B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011155578A JP5555207B2 (ja) 2011-07-14 2011-07-14 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011155578A JP5555207B2 (ja) 2011-07-14 2011-07-14 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013020578A JP2013020578A (ja) 2013-01-31
JP5555207B2 true JP5555207B2 (ja) 2014-07-23

Family

ID=47691927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011155578A Expired - Fee Related JP5555207B2 (ja) 2011-07-14 2011-07-14 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5555207B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11083950B2 (en) 2016-06-16 2021-08-10 Sony Corporation Information processing apparatus and information processing method
JP2018129007A (ja) * 2017-02-10 2018-08-16 日本電信電話株式会社 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム
JP6676562B2 (ja) * 2017-02-10 2020-04-08 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム
JP6730204B2 (ja) * 2017-02-10 2020-07-29 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム
EP3724813A1 (en) * 2017-12-13 2020-10-21 Humanising Autonomy Limited Systems and methods for predicting pedestrian intent
WO2019150431A1 (ja) * 2018-01-30 2019-08-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
KR102181828B1 (ko) * 2018-09-13 2020-11-23 한국전자기술연구원 4d리깅정보 복원장치 및 방법
KR102270949B1 (ko) * 2019-12-04 2021-07-01 연세대학교 산학협력단 3차원 인간 모델 복원 장치 및 방법
WO2021117120A1 (ja) * 2019-12-10 2021-06-17 日本電信電話株式会社 推定方法、推定装置及びプログラム
JP7465469B2 (ja) 2020-05-15 2024-04-11 兵庫県公立大学法人 学習装置、推定装置、学習プログラム、及び推定プログラム
WO2022259618A1 (ja) * 2021-06-08 2022-12-15 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
CN113869217A (zh) * 2021-09-29 2021-12-31 北京复数健康科技有限公司 一种用于获取图像识别数据的方法和***
CN113920466A (zh) * 2021-10-29 2022-01-11 上海商汤智能科技有限公司 先验空间的生成方法、装置、计算机设备和存储介质
WO2023189104A1 (ja) * 2022-03-30 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN117893696B (zh) * 2024-03-15 2024-05-28 之江实验室 一种三维人体数据生成方法、装置、存储介质及电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4687579B2 (ja) * 2006-06-21 2011-05-25 トヨタ自動車株式会社 画像処理装置及び画像処理プログラム
JP5525407B2 (ja) * 2010-10-12 2014-06-18 日本電信電話株式会社 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム

Also Published As

Publication number Publication date
JP2013020578A (ja) 2013-01-31

Similar Documents

Publication Publication Date Title
JP5555207B2 (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP5525407B2 (ja) 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム
Yeung et al. Improved skeleton tracking by duplex kinects: A practical approach for real-time applications
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
Krainin et al. Autonomous generation of complete 3D object models using next best view manipulation planning
US10033979B2 (en) Video surveillance systems, devices and methods with improved 3D human pose and shape modeling
JP6025830B2 (ja) 3d走査用のセンサ位置決め
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
JP5355074B2 (ja) 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム
US20130187919A1 (en) 3D Body Modeling, from a Single or Multiple 3D Cameras, in the Presence of Motion
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2008304269A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR102270949B1 (ko) 3차원 인간 모델 복원 장치 및 방법
JP2008014691A (ja) ステレオ画像計測方法とそれを実施する装置
CN114627491A (zh) 一种基于极线汇聚的单人三维姿态估计方法
JP2019016164A (ja) 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP7499346B2 (ja) 逆運動学に基づいた関節の回転の推測
JP5767078B2 (ja) 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム
WO2021171768A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに観測装置
Hauberg et al. Stick it! articulated tracking using spatial rigid object priors
Alcoverro et al. Skeleton and shape adjustment and tracking in multicamera environments
Sun et al. 3D hand tracking with head mounted gaze-directed camera
Ruiz et al. Human body measurement estimation with adversarial augmentation

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140530

R150 Certificate of patent or registration of utility model

Ref document number: 5555207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees