JP5837860B2 - 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム - Google Patents

動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム Download PDF

Info

Publication number
JP5837860B2
JP5837860B2 JP2012132229A JP2012132229A JP5837860B2 JP 5837860 B2 JP5837860 B2 JP 5837860B2 JP 2012132229 A JP2012132229 A JP 2012132229A JP 2012132229 A JP2012132229 A JP 2012132229A JP 5837860 B2 JP5837860 B2 JP 5837860B2
Authority
JP
Japan
Prior art keywords
motion
distance
data
feature amount
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012132229A
Other languages
English (en)
Other versions
JP2013257656A (ja
Inventor
建鋒 徐
建鋒 徐
絵美 明堂
絵美 明堂
茂之 酒澤
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012132229A priority Critical patent/JP5837860B2/ja
Publication of JP2013257656A publication Critical patent/JP2013257656A/ja
Application granted granted Critical
Publication of JP5837860B2 publication Critical patent/JP5837860B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、動き類似度算出装置、動き類似度算出方法およびコンピュータプログラムに関する。
近年、モーションキャプチャ(motion capture)データを取得する方法として、マーカーを関節部位等に付けた人物を撮影した映像からモーションキャプチャデータを取得する方法や、RGBカメラと深度センサーを組み合わせた深度センサーシステムによって深度センサーシステムから人物までの距離を計測してモーションキャプチャデータを取得する方法などが知られている。前者の方法では、モーションキャプチャデータとして、例えば、図6に例示されるような人体スケルトン型動きデータが定義される。後者の方法としては、例えば、「Kinect(登録商標)センサー」と呼ばれるものが知られている。
ここでは、人体の姿勢(ポーズ)の動きを表現するデータとして、図6に例示される人体スケルトン型動きデータについて説明する。図6は、人体スケルトン型動きデータの定義例の概略図である。人体スケルトン型動きデータは、人の骨格を基に、骨及び骨の連結点(ジョイント)を用い、一ジョイントを根(ルート)とし、ルートからジョイント経由で順次連結される骨の構造を木(ツリー)構造として定義される。図6には、人体スケルトン型動きデータの定義の一部分のみを示している。図6において、ジョイント100は腰の部分であり、ルートとして定義される。ジョイント101は左腕の肘の部分、ジョイント102は左腕の手首の部分、ジョイント103は右腕の肘の部分、ジョイント104は右腕の手首の部分、ジョイント105は左足の膝の部分、ジョイント106は左足の足首の部分、ジョイント107は右足の膝の部分、ジョイント108は右足の足首の部分、ジョイント109は鎖骨の部分、ジョイント110、111は肩の部分、ジョイント112は首の部分、ジョイント113、114は股関節の部分、である。
スケルトン型動きデータは、スケルトン型対象物の各ジョイントの動きを記録したデータであり、スケルトン型対象物としては人体や動物、ロボットなどが適用可能である。スケルトン型動きデータとしては、各ジョイントの位置情報や角度情報、速度情報、加速度情報などが利用可能である。ここでは、人体スケルトン型動きデータとして、人体スケルトンの角度情報と加速度情報を例に挙げて説明する。
人体スケルトン型角度情報データは、人の一連の動きを複数のポーズの連続により表すものであり、人の基本ポーズ(neutral pose)を表す基本ポーズデータと、実際の人の動きの中の各ポーズを表すポーズ毎のフレームデータとを有する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなどの情報を有する。基本ポーズデータにより基本ポーズが特定される。フレームデータは、基本ポーズからの移動量をジョイント毎に表す。ここでは、移動量として角度情報を利用する。各フレームデータにより、基本ポーズに対して各移動量が加味された各ポーズが特定される。これにより、各フレームデータによって特定される各ポーズの連続により、人の一連の動きが特定される。なお、人体スケルトン型角度情報データは、人の動きをカメラ撮影した映像からモーションキャプチャ処理によって作成したり、或いは、キーフレームアニメーションの手作業によって作成したりすることができる。
人体スケルトン型加速度情報データは、人の各ジョイントの加速度をポーズ毎のフレームデータと複数のポーズの連続により表すものである。なお、人体スケルトン型加速度情報データは、加速度計で記録したり、映像や動きデータから算出したりすることができる。
従来、二つの動きの間の類似度を算出する従来の技術としては、おおよそ次の2つのステップ1、2から構成される。
ステップ1:二つのモーションキャプチャデータの各フレーム間の距離を算出する。例えば非特許文献1には、フレーム間の距離を算出する方法として以下の二通りが記載されている。
(フレーム間の距離を算出する方法1)
人体スケルトン型動きデータにおいて、ジョイント毎に角度の距離を定義し、各ジョイントを重み付け平均する。
(フレーム間の距離を算出する方法2)
人体スケルトン型動きデータを潜在空間に変更し、潜在空間の座標同士でEuclidean距離を算出する。
また、非特許文献2及び特許文献1に記載される従来技術では、各関節の動きの特徴量を算出し、その特徴量同士の距離を定義し、各ジョイントを重み付け平均する。
ステップ2:二つの動きの間の類似度を算出する際に、全てのフレームを考慮する。例えば非特許文献3に記載されるように最も一般的な方法である、はDTW(Dynamic Time Warping)を用いる。
特開2010−033163号公報
B.J.H. van Basten, A. Egges, "Evaluating distance metrics for animation blending," ICFDG 2009, pp. 199-206. Meinard Muller, Tido Roder, and Michael Clausen, "Efficient content-based retrieval of motion capture data," ACM SIGGRAPH 2005, pp. 677-685. Armin Bruderlin and Lance Williams, "Motion signal preprocess," ACM SIGGRAPH 1995, pp. 97-104. Yossi Rubner; Carlo Tomasi, Leonidas J. Guibas (1998). "A Metric for Distributions with Applications to Image Databases". Proceedings ICCV 1998: 59-66
しかし、上述した従来の動き類似度算出技術では、以下に示すような課題がある。
(1)異なるモーションキャプチャシステムで取得したモーションキャプチャデータに対して、共通的に動きの類似度を算出することが難しい。例えば、人体スケルトン型動きデータの骨構造の定義が異なると、従来の技術では適用できない。
(2)モーションキャプチャデータを取得するための撮影の環境(被写体である人物、撮影距離、撮影角度など)が異なると、共通的に動きの類似度を算出することが難しい。
(3)入力データの種類(例えば、人体スケルトン型動きデータ、深度センサーシステムで取得したモーションキャプチャデータ、RGB画像データ、距離画像データなど)が異なると、共通的に動きの類似度を算出することが難しい。
(4)モーションキャプチャシステムなどで取得したデータがノイズを含んでいると、ロバストな類似度を算出することが難しい。
本発明は、このような事情を考慮してなされたもので、ロバスト性を向上させた動き類似度算出装置、動き類似度算出方法およびコンピュータプログラムを提供することを課題とする。
上記の課題を解決するために、本発明に係る動き類似度算出装置は、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出する空間的特徴量算出部と、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出する時間的特徴量算出部と、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出する類似度算出部と、を備えたことを特徴とする。
本発明に係る動き類似度算出装置において、前記空間的特徴量算出部は、動きデータ内の各フレームの動きの主成分についてのフレーム間の距離を用いてヒストグラムを算出する、ことを特徴とする。
本発明に係る動き類似度算出装置において、前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、隣り合う極値間のフレーム数が一定数になるように、フレーム間距離の値を補間または間引く、ことを特徴とする。
本発明に係る動き類似度算出装置において、前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、極値の間隔が極端に短い場合には当該極値を削除し、極値の間隔が極端に長い場合には適切な極値を挿入する、ことを特徴とする。
本発明に係る動き類似度算出装置において、前記類似度算出部は、空間的特徴量の間の距離と時間的特徴量の間の距離に対して重み付け平均値を算出する、ことを特徴とする。
本発明に係る動き類似度算出方法は、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、を含むことを特徴とする。
本発明に係るコンピュータプログラムは、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、をコンピュータに実行させるためのコンピュータプログラムであることを特徴とする。
本発明によれば、動きデータ間の動きの類似度を算出する際に、ロバスト性を向上させることができるという効果が得られる。
本発明の一実施形態に係る動き類似度算出装置1の構成を示すブロック図である。 図1に示す空間的特徴量算出部12の構成を示すブロック図である。 ヒストグラムの例である。 本発明の一実施形態に係る時間的特徴量算出処理を説明するためのグラフ図である。 本発明の一実施形態に係る主成分分析方法の手順を示す概略図である。 人体スケルトン型動きデータの定義例である。
以下、図面を参照し、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る動き類似度算出装置1の構成を示すブロック図である。図1において、動き類似度算出装置1は、入力部11と空間的特徴量算出部12と時間的特徴量算出部13と類似度算出部14と出力部15を有する。本実施形態に係る動き類似度算出装置1は、動きデータ間の動きの類似度を算出する。動きデータは、人物の動きを表すデータである。動きデータとしては、モーションキャプチャデータ、RGB画像データ、又は距離画像データなどがある。以下の説明では、動きデータの一例として、モーションキャプチャデータを用いて説明する。
[入力部]
入力部11は、動きデータとしてモーションキャプチャデータを入力する。モーションキャプチャデータの種類としては、例えば、人体スケルトン型動きデータや、深度センサーシステムで取得したモーションキャプチャデータなどがある。
[空間的特徴量算出部]
図2は、図1に示す空間的特徴量算出部12の構成を示すブロック図である。図2において、空間的特徴量算出部12は、物理量変更部21と主成分分析部22とヒストグラム算出部23を有する。空間的特徴量算出部12は、入力部11から入力されたモーションキャプチャデータが表す人物の動きについての空間的特徴量を算出する。空間的特徴量は、動きの空間的な分布を表す。空間的特徴量の算出では、比較的大きな動きを重視し、比較的細かい動きを無視する。また、主成分分析とヒストグラムの算出によって、ロバスト性を向上させる。
[物理量変更部]
物理量変更部21は、入力されたモーションキャプチャデータから、主成分分析部22に入力するデータを生成する。以下、人体スケルトン型動きデータを用いて、主成分分析部22に入力するデータを生成する実施例を説明する。
物理量変更部21は、人体スケルトン型動きデータが表す動きの期間において、各ジョイントがルートに対してどの位置で動いているのかを算出する。ここでは、人体スケルトン型動きデータの一種である人体スケルトン型角度情報データを用いて、時刻tにおけるジョイント相対位置を算出する。ジョイント相対位置は、ルートに対するジョイントの相対的な位置である。
まず、物理量変更部21は、人体スケルトン型角度情報データ内の基本ポーズデータとフレームデータを用いて、ジョイント位置を算出する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなど、基本ポーズを特定する情報を有する。フレームデータは、ジョイント毎に、基本ポーズからの移動量の情報を有する。ここでは、移動量として角度情報を利用する。この場合、時刻tにおけるk番目のジョイントの位置p(t)は、(1)式および(2)式により算出される。p(t)は3次元座標で表される。なお、時刻tはフレームデータの時刻である。本実施形態では、時刻tを単に「フレームインデックス」として扱う。これにより、時刻tは、0,1,2,・・・,T−1の値をとる。Tは、人体スケルトン型角度情報データに含まれるフレームの個数である。
Figure 0005837860
Figure 0005837860
但し、0番目(i=0)のジョイントはルートである。Raxis i−1,i(t)は、i番目のジョイントとその親ジョイント(「i−1」番目のジョイント)間の座標回転マトリックスであり、基本ポーズデータに含まれる。各ジョイントにはローカル座標系が定義されており、座標回転マトリックスは親子関係にあるジョイント間のローカル座標系の対応関係を表す。R(t)は、i番目のジョイントのローカル座標系におけるi番目のジョイントの回転マトリックスであり、フレームデータに含まれる角度情報である。T(t)は、i番目のジョイントとその親ジョイント間の遷移マトリックスであり、基本ポーズデータに含まれる。遷移マトリックスは、i番目のジョイントとその親ジョイント間の骨の長さを表す。
次いで、物理量変更部21は、時刻tにおける、ルートに対するk番目のジョイントの相対位置(ジョイント相対位置)p’(t)を(3)式により算出する。
Figure 0005837860
但し、proot(t)は時刻tにおけるルート(0番目のジョイント)の位置(p(t))である。
これにより、時刻tのフレーム「x(t)」は、「x(t)={p’(t),p’(t),・・・,p’(t)}」と表される。但し、Kは、ルートを除いたジョイントの個数である。は転置行列を表す。
[主成分分析部]
主成分分析部22は、物理量変更部21が生成したジョイント相対位置データに対して、主成分分析処理を行う。ここでは、時刻tのフレーム「x(t)」を用いて、ジョイント相対位置データ「X」を「X={x(t1),x(t2),・・・,x(tN)}と表す。但し、Nは、ジョイント相対位置データに含まれるフレームの個数である。Xは、M行N列の行列である(但し、M=3×K)。
主成分分析処理では、Xに対して主成分分析処理を行い、Xを主成分空間へ変換する。
ここで、主成分分析方法を説明する。
まず、(4)式により、Xから平均値を除いたN行M列の行列Dを算出する。
Figure 0005837860
次いで、(5)式により、N行M列の行列Dに対して特異値分解(Singular Value Decomposition)を行う。
Figure 0005837860
但し、Uは、N行N列のユニタリ行列である。Σは、N行M列の負でない対角要素を降順にもつ対角行列であり、主成分空間の座標の分散を表す。Vは、M行M列のユニタリ行列であり、主成分に対する係数(principal component)である。
次いで、(6)式により、N行M列の行列Dを主成分空間へ変換する。M行N列の行列Yは、主成分空間の座標を表す。
Figure 0005837860
主成分分析処理では、主成分空間の座標を表す行列(主成分座標行列)Yと、主成分に対する係数の行列(主成分係数行列)Vをメモリに保存する。
なお、元空間の座標を表す行列Xと主成分座標行列Yは、(6)式と(7)式により相互に変換することができる。
Figure 0005837860
また、上位のr個の主成分によって、(8)式により変換することができる。
Figure 0005837860
但し、Vは、主成分係数行列V内の上位のr個の行から成るM行r列の行列である。Yは、主成分座標行列Y内の上位のr個の列から成るr行N列の行列である。Xは、復元されたM行N列の行列である。
なお、元空間の一部の自由度だけを主成分分析処理することも可能である。例えば、足に関するジョイント相対位置データのみから生成したM’行N列の行列X’に対して、(4)式、(5)式及び(6)式により主成分分析処理を行う。また、ジョイント相対位置データ内の一部のフレームだけを主成分分析処理することも可能である。例えば、最初のN’個のフレームのみから生成したM行N’列の行列X’に対して、(4)式、(5)式及び(6)式により主成分分析処理を行う。
[ヒストグラム算出部]
ヒストグラム算出部23は、主成分分析部22が算出した主成分座標行列Yを用いて、ヒストグラムを算出する。このヒストグラムが本実施形態に係る空間的特徴量である。そのヒストグラム算出処理では、主成分座標行列Y内の上位のr個の列から成るr行N列の行列Yを用いて、ヒストグラムを算出する。rの値は任意に設定可能とする。
行列Yは、ジョイント相対位置データXと同様にN個のフレームを有し、「Y={y(t1),y(t2),・・・,y(tN)}と表される。ヒストグラム算出部23は、行列Yのフレームの全組合せに対して、(9)式によりユークリッド距離を算出する。
Figure 0005837860
次いで、ヒストグラム算出部23は、算出したユークリッド距離d(i,j)を用いて、所定のビン数のヒストグラム(度数分布図)のデータを算出する。ヒストグラムは度数分布を表す棒状のグラフである。図3はヒストグラムの例である。本実施形態では、ヒストグラムの横軸にユークリッド距離d(i,j)、縦軸に各ユークリッド距離d(i,j)の度数を示す。このとき、ユークリッド距離d(i,j)の最大値と最小値に基づいて、横軸に表すビンの幅を等間隔に設定する。これにより、例えば、64個のビンから構成されるヒストグラム「H={h(1),h(2),・・・,h(64)}が算出される。
以上が空間的特徴量算出部12の説明である。
[時間的特徴量算出部]
時間的特徴量算出部13は、入力部11から入力されたモーションキャプチャデータが表す人物の動きについての時間的特徴量を算出する。時間的特徴量は、動きの時間的な分布を表す。
まず、時間的特徴量算出部13は、モーションキャプチャデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出する。本実施形態では、時間的に最初のフレーム(第1フレーム)を基準フレームとする。この結果、第1フレームとそれ以外の各フレームとの間の距離「D={d(t2),d(t3),・・・,d(tN)}が算出される。なお、フレーム間距離の算出方法としては、非特許文献1に記載される方法を用いることができる。又は、上記主成分分析部22が算出した主成分座標行列Yを用いて、(9)式によりユークリッド距離として算出してもよい。
次いで、時間的特徴量算出部13は、算出したフレーム間距離Dから極値を求める。このとき、図4に例示されるように、最初のフレーム間距離301(第1フレームと第2フレーム間の距離)と最後のフレーム間距離306(第1フレームと第Nフレーム間の距離)も極値として追加する。これにより、図4の例では6個の極値301〜306が求まる。なお、極値の間隔に激しい変化がある場合には解消することが好ましい。このために、極値の間隔が極端に短い場合には当該極値を削除する。逆に、極値の間隔が極端に長い場合には適切な極値を挿入する。
次いで、時間的特徴量算出部13は、フレーム間距離「D={d(t2),d(t3),・・・,d(tN)}に対して、隣り合う極値間のフレーム数(距離の値の数)が一定数(任意に設定可能な値とする)になるように、フレーム間距離の値を補間または間引く。この調整後のフレーム間距離を時間的特徴量「F={f(1),f(2),・・・,f(N’)}」とする。この時間的特徴量Fによれば、同じ形の動きに対して動きの速さで区別しないようにする効果がある。
[類似度算出部]
類似度算出部14は、入力部11が入力した二つのモーションキャプチャデータに関し、一方のモーションキャプチャデータが表す人物の動きと、もう一方のモーションキャプチャデータが表す人物の動きとの類似度を算出する。この類似度算出処理では、各モーションキャプチャデータに関して、空間的特徴量算出部12が算出した空間的特徴量と、時間的特徴量算出部13が算出した時間的特徴量とを用いる。以下、本実施形態に係る類似度算出方法を説明する。
ここでは、第1のモーションキャプチャデータに関して、空間的特徴量(ヒストグラム「H1={h1(1),h1(2),・・・,h1(64)})と時間的特徴量(フレーム間距離「F1={f1(1),f1(2),・・・,f1(N)}」とする。第2のモーションキャプチャデータに関して、空間的特徴量(ヒストグラム「H2={h2(1),h2(2),・・・,h2(64)})と時間的特徴量(フレーム間距離「F2={f2(1),f2(2),・・・,f2(M)}」とする。
まず、類似度算出部14は、第1、第2のモーションキャプチャデータの空間的特徴量(ヒストグラムH1、H2)を用いて、ヒストグラムH1とヒストグラムH2との間の距離を算出する。このヒストグラム間距離の算出処理では、例えば非特許文献4に記載されるEMD(Earth Mover’s Distance)という距離の定義を用いて、ヒストグラムH1とヒストグラムH2との間の距離を算出することができる。このEMDを用いたヒストグラム間距離の算出結果をEMD(H1,H2)とする。EMDを用いたヒストグラム間距離は、値が小さいほど類似度が大きいことを表す。
次いで、類似度算出部14は、第1、第2のモーションキャプチャデータの時間的特徴量(フレーム間距離F1、F2)を用いて、(10)式により距離D1(F1、F2)を算出する。
Figure 0005837860
又、類似度算出部14は、第1、第2のモーションキャプチャデータの時間的特徴量(フレーム間距離F1、F2)を用いて、(11)式により距離D2(F1、F2)を算出する。この距離D2(F1、F2)は、第1、第2のモーションキャプチャデータのうち、時間的に長い方のモーションキャプチャデータに対して、距離の算出を開始するフレームをK(任意に設定可能な値とする)個だけずらして算出される。
Figure 0005837860
類似度算出部14は、距離D1(F1、F2)と距離D2(F1、F2)のうち、値が小さい方(類似度が大きい方)を時間的特徴量間の距離D(F1、F2)とする。
次いで、類似度算出部14は、空間的特徴量間の距離(ヒストグラム間距離EMD(H1,H2))と時間的特徴量間の距離D(F1、F2)を用いて、(12)式により、類似度(similarity)を算出する。
Figure 0005837860
但し、αは重み係数であり、0から1までの範囲で任意に設定可能な値とする。
[出力部]
出力部15は、類似度算出部14が算出した類似度を出力する。これにより、入力部11が入力した二つのモーションキャプチャデータに関する動きの類似度が出力される。
なお、上述した実施形態では、モーションキャプチャデータを用いて主成分分析処理を行う実施例を説明したが、他の種類の動きデータを用いて主成分分析処理を行う実施例を、以下に図5を参照して説明する。図5は、本発明の一実施形態に係る主成分分析方法の手順を示す概略図である。
(ステップS1)入力部11は、動きデータとして、RGB画像データ又は距離画像データを入力する。RGB画像データは、RGBカメラで撮像された動画像データであり、フレーム内の画素値はRGB画素値である。距離画像データは、深度センサーシステムで取得された深度情報を有する動画像データであり、フレーム内の画素値は深度値である。
(ステップS2)物理量変更部21は、入力部11が入力した動きデータを記憶する。この動きデータは、図5に示されるように、N個のフレームから構成される。i番目のフレームのサイズMである画素数Mは、フレームの縦の画素数「height」と横の画素数「width」との積「M=height×width」である。但し、「1≦i≦N」である。これにより、任意のサイズの画像から構成される動きデータに対して適用可能とする。
(ステップS3)物理量変更部21は、行列B’を生成する。行列B’の列は、動きデータ内のフレームの時系列の順序で、N個のフレームの画素値ベクトルが配列される。従って、行列B’のi列目の列ベクトルは、i番目のフレームの画素値ベクトルViである。画素値ベクトルViは、i番目のフレームを構成するM個の画素の画素値が、各画素のフレーム内の位置に基づく所定の順序で、ベクトルの要素として配列されている。これにより、行列B’は、M行N列の行列となる。
(ステップS4)主成分分析部22は、行列B’の分散共分散行列Sの固有値λi(i=1,2,・・・)と固有ベクトルvi(i=1,2,・・・)を算出する。分散共分散行列SのサイズはM行M列である。
(ステップS5)主成分分析部22は、行列B’の分散共分散行列Sの固有値λiと固有ベクトルviを用いて、固有値ごとに、固有値と固有ベクトルを主成分の空間の値(主成分得点)に変換した時系列データ(主成分得点の時系列)を生成する。一つの主成分得点の時系列は、動きデータ内のフレーム数と同じN個のデータから構成される。
ヒストグラム算出部23は、主成分分析部22が作成した第i主成分得点の時系列(i=1,2,・・・)のうち、上位のr個の主成分得点の時系列を用いて、ヒストグラムを算出する。
次に、図5のステップS4の一実施例を説明する。一般に、動画像のサイズ(画素数)Mは、例えば携帯電話機に付属のカメラで簡易に撮影する場合を想定すると、縦×横=(height×width=M)=320×240=8万画素程度、フレーム数(時系列数)N=300程度、であることが考えられる。すなわち、「M>N」であることが想定される。この場合、演算量の削減の観点から、M行M列の分散共分散行列Sの固有値問題を直接解くのではなく、後述するようにN行N列の行列Cの固有値問題を解いて、この結果から分散共分散行列Sの固有値と固有ベクトルを、固有値の大きい方から所定数分だけを算出することが好ましい。以下に、この実施例を説明する。
ステップS3で求められたM行N列の行列B’は(13)式で表される。
Figure 0005837860
この行列B’の行平均(フレーム方向に対する平均)をM行N列の行列meanとして(14)式で表す。
Figure 0005837860
そして、行列B’から1行ずつ抽出して、行列meanの対応する行の平均ベクトルを引いて,行方向に結合した行列Bを(15)式で定義する。
Figure 0005837860
この行列Bを利用して、分散共分散行列Sを表すと(16)式となる。
Figure 0005837860
そして、固有方程式は(17)式となる。
Figure 0005837860
この(17)式の固有方程式に対して両辺に左から行列Bを掛けて、「Bv=u」とすると(18)式となる。
Figure 0005837860
(18)式は、行列(N^−1)BB^T(行列Cとする)の固有方程式である。この行列Cに対する固有ベクトルuを求めてから、固有ベクトルuを使って分散共分散行列Sの固有値vを求める。このときの行列の大きさを考えると、N行N列となっており、一般に画素値ベクトルの次元数Mよりもフレーム数Nの方が圧倒的に小さいことから、分散共分散行列Sから直接的に固有値を求めるよりも、はるかに少ない演算量で算出できる。
固有ベクトルuから、分散共分散行列Sの固有ベクトルvを求めるには、(18)式に左から行列B^Tを掛ける。これにより、(19)式が得られる。
Figure 0005837860
この(19)式から、B^Tuが、分散共分散行列Sの固有ベクトルvであることが分かる。但し、規格化はされていないので規格化すると、分散共分散行列Sの固有ベクトルvは(20)式となる。
Figure 0005837860
このように、N行N列の行列Cの固有ベクトルuを求め、この固有ベクトルuを用いて、M行M列の分散共分散行列Sの固有ベクトルvを求めることができる。但し、分散共分散行列SのM個の固有値のうち、固有値の大きい方からN番目以降の固有値は0と考える。この方法によれば、一般に想定されるような大容量の動画像に対しても主成分分析処理が実計算上可能である。
なお、画像の解像度を下げてMを小さくしたり、又は、フレームレートを下げてNを小さくしたり、又は、その両方を行ったりしてもよい。また、動画像のサイズが「M<N」である場合には、M行M列の分散共分散行列Sの固有値問題を直接的に解いてもよい。
上述した実施形態によれば、二つの動きデータに対し、それぞれに空間的特徴量と時間的特徴量を算出し、その空間的特徴量間の距離と時間的特徴量間の距離を用いて動きの類似度を算出する。これにより、異なるモーションキャプチャシステムで取得したモーションキャプチャデータに対しても、共通的に動きの類似度を算出することができるという効果が得られる。又、モーションキャプチャデータを取得するための撮影の環境(被写体である人物、撮影距離、撮影角度など)が異なる場合であっても、共通的に動きの類似度を算出することができるという効果が得られる。又、入力する動きデータの種類(例えば、人体スケルトン型動きデータ、深度センサーシステムで取得したモーションキャプチャデータ、RGB画像データ、距離画像データなど)が異なる場合であっても、共通的に動きの類似度を算出することができるという効果が得られる。このように本実施形態によれば、動きデータ間の動きの類似度を算出する際に、ロバスト性を向上させることが可能となる。
又、本実施形態によれば以下に示すような効果が得られる。従来、コンピューターグラフィックス(CG)キャラクターをユーザの動きに合わせて動かす技術が知られている。そして、CGキャラクターの動きの基となるデータベースに対して、ユーザの個性的な動きを追加することで、CGキャラクターの動きに親しみを感じさせる効果を加えることが期待できる。このとき、ユーザの動きと、データベース中のモーションキャプチャデータの動きとの類似度を用いて両者の動きを認識し、ユーザの個性的な動きをデータベースに追加することが考えられる。ここで、本実施形態によれば、ユーザの動きを任意のモーションキャプチャシステムで取得すればよいので、ユーザにとって非常に使い勝手がよくなるという効果が得られる。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
また、図1に示す動き類似度算出装置1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、動き類似度算出処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1…動き類似度算出装置、11…入力部、12…空間的特徴量算出部、13…時間的特徴量算出部、14…類似度算出部、15…出力部、21…物理量変更部、22…主成分分析部、23…ヒストグラム算出部

Claims (7)

  1. 動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出する空間的特徴量算出部と、
    動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出する時間的特徴量算出部と、
    二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出する類似度算出部と、
    を備えたことを特徴とする動き類似度算出装置。
  2. 前記空間的特徴量算出部は、動きデータ内の各フレームの動きの主成分についてのフレーム間の距離を用いてヒストグラムを算出する、
    ことを特徴とする請求項1に記載の動き類似度算出装置。
  3. 前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、隣り合う極値間のフレーム数が一定数になるように、フレーム間距離の値を補間または間引く、
    ことを特徴とする請求項1又は2に記載の動き類似度算出装置。
  4. 前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、極値の間隔が極端に短い場合には当該極値を削除し、極値の間隔が極端に長い場合には適切な極値を挿入する、
    ことを特徴とする請求項1から3のいずれか1項に記載の動き類似度算出装置。
  5. 前記類似度算出部は、空間的特徴量の間の距離と時間的特徴量の間の距離に対して重み付け平均値を算出する、
    ことを特徴とする請求項1から4のいずれか1項に記載の動き類似度算出装置。
  6. 動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、
    動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、
    二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、
    を含むことを特徴とする動き類似度算出方法。
  7. 動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、
    動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、
    二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2012132229A 2012-06-11 2012-06-11 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム Active JP5837860B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012132229A JP5837860B2 (ja) 2012-06-11 2012-06-11 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012132229A JP5837860B2 (ja) 2012-06-11 2012-06-11 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2013257656A JP2013257656A (ja) 2013-12-26
JP5837860B2 true JP5837860B2 (ja) 2015-12-24

Family

ID=49954065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012132229A Active JP5837860B2 (ja) 2012-06-11 2012-06-11 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5837860B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282214B2 (en) 2020-01-08 2022-03-22 Agt International Gmbh Motion matching analysis

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765208B1 (ko) * 2014-01-07 2017-08-04 한국전자통신연구원 시간 및 자세 제약 조건 아래에서 무용 동작을 생성하는 방법 및 장치
KR101515845B1 (ko) 2014-08-07 2015-05-04 스타십벤딩머신 주식회사 동작 인식 방법 및 동작 인식 장치
CN110637324B (zh) * 2017-09-08 2021-04-16 株式会社威亚视 三维数据***以及三维数据处理方法
CN112257642B (zh) * 2020-10-30 2024-03-15 上海创屹科技有限公司 人体连续动作相似性评价方法及评价装置
JPWO2022168428A1 (ja) * 2021-02-02 2022-08-11
US20230022356A1 (en) * 2021-07-09 2023-01-26 Hitachi, Ltd. Method and system for human activity recognition in an industrial setting
JP2024030610A (ja) * 2022-08-24 2024-03-07 株式会社Jvcケンウッド アバター制御装置、アバター制御方法、及びアバター制御プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288600A (ja) * 2002-03-28 2003-10-10 Daihatsu Motor Co Ltd 歩行者認識装置及び認識方法
JP4075670B2 (ja) * 2003-04-09 2008-04-16 トヨタ自動車株式会社 変化情報認識装置および変化情報認識方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282214B2 (en) 2020-01-08 2022-03-22 Agt International Gmbh Motion matching analysis

Also Published As

Publication number Publication date
JP2013257656A (ja) 2013-12-26

Similar Documents

Publication Publication Date Title
JP5837860B2 (ja) 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム
CN110998659B (zh) 图像处理***、图像处理方法、及程序
JP4930854B2 (ja) 関節物***置姿勢推定装置及びその方法ならびにプログラム
Wei et al. Videomocap: Modeling physically realistic human motion from monocular video sequences
US20230008567A1 (en) Real-time system for generating 4d spatio-temporal model of a real world environment
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
JP7452016B2 (ja) 学習データ生成プログラム、及び学習データ生成方法
WO2017141344A1 (ja) 3次元モデル生成システム、3次元モデル生成方法、及びプログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP6675691B1 (ja) 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
Hu et al. Capturing small, fast-moving objects: Frame interpolation via recurrent motion enhancement
JP2012048362A (ja) 人体姿勢推定装置、人体姿勢推定方法およびコンピュータプログラム
JP4938748B2 (ja) 画像認識装置及びプログラム
JP3836814B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム
KR20100138658A (ko) 데이터 처리 장치 및 방법
JP2023527627A (ja) 逆運動学に基づいた関節の回転の推測
CN115223240B (zh) 基于动态时间规整算法的运动实时计数方法和***
Pan et al. Modeling for deformable body and motion analysis: A review
KR20210076559A (ko) 인체 모델의 학습 데이터를 생성하는 장치, 방법 및 컴퓨터 프로그램
JP6357396B2 (ja) 背景差分装置、方法、及びプログラム
KR20200092215A (ko) 다중 사용자 추적 장치 및 방법
WO2023185241A1 (zh) 数据处理方法、装置、设备以及介质
JP7501543B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023162223A1 (ja) 学習プログラム、生成プログラム、学習方法および生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151106

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5837860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150