JP2018147313A - オブジェクト姿勢推定方法、プログラムおよび装置 - Google Patents

オブジェクト姿勢推定方法、プログラムおよび装置 Download PDF

Info

Publication number
JP2018147313A
JP2018147313A JP2017043077A JP2017043077A JP2018147313A JP 2018147313 A JP2018147313 A JP 2018147313A JP 2017043077 A JP2017043077 A JP 2017043077A JP 2017043077 A JP2017043077 A JP 2017043077A JP 2018147313 A JP2018147313 A JP 2018147313A
Authority
JP
Japan
Prior art keywords
joint
estimation
posture
mask
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017043077A
Other languages
English (en)
Other versions
JP2018147313A5 (ja
JP6712555B2 (ja
Inventor
ホウアリ サビリン
Houari SABIRIN
ホウアリ サビリン
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017043077A priority Critical patent/JP6712555B2/ja
Publication of JP2018147313A publication Critical patent/JP2018147313A/ja
Publication of JP2018147313A5 publication Critical patent/JP2018147313A5/ja
Application granted granted Critical
Publication of JP6712555B2 publication Critical patent/JP6712555B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】色やテクスチャ情報が不明瞭で小さな人物オブジェクトでも、その姿勢を正確に推定できるようにする。【解決手段】人物オブジェクトのモデルが各身体ジョイントと各身体パーツとの連結条件で定義されており、オブジェクト検知部10はフレーム画像から人物オブジェクトを検知する。マスク生成部202は人物オブジェクトのマスクを生成する。骨格生成部203は人物オブジェクトのマスクに基づいて骨格を生成する。頭推定部401は人物オブジェクトのマスクに基づいて頭部を推定する。胴体推定部402は頭部の位置、マスク及び骨格に基づいて各身体ジョイント及び各身体パーツを前記連結条件の制約下で順次に推定する。胴体推定部402,肩推定部403,臀推定部404,腕推定部405、脚推定部406は各身体ジョイント及び各身体パーツの推定結果、マスク並びに骨格に基づいて残りの各身体ジョイント及び各身体パーツを順次に推定する。【選択図】図1

Description

本発明は、オブジェクト姿勢推定方法、プログラムおよび装置に係り、特に、色やテクスチャ情報が不明瞭で小さな人物オブジェクトでも、その姿勢を正確に推定できるオブジェクト姿勢推定方法、プログラムおよび装置に関する。
特許文献1には、合成されたビュー内のオブジェクトテクスチャを決定するためにビルボードモデルを使用してオブジェクトをモデル化する技術が開示されている。特許文献1では、正しい物体モデルを見つけるためにオクルージョンが自動的に検出される。
非特許文献1には、自由視点適用の概念と応用が開示されている。非特許文献2には、オブジェクトの検出と追跡の方法が開示されている。非特許文献3には、人物オブジェクトの骨格に基づいてその姿勢を推定する技術が開示されている。
特願2015-210755号
H. Sankoh and S. Naito, "Free-viewpoint Video Rendering in Large Outdoor Space such as Soccer Stadium based on Object Extraction and Tracking Technology" The Journal of The Institute of Image Information and Television Engineers (ITE), Vol. 68, No. 3, pp. J125-J134, 2014. H. Sabirin, H. Sankoh, and S. Naito, "Automatic Soccer Player Tracking in Single Camera with Robust Occlusion Handling Using Attribute Matching," IEICE Trans. on Inf. & Syst., vol. E98-D, 2015, pp. 1580-1588. C. Sminchisescu and A. Telea, "Human pose estimation from silhouettes: A consistent approach using distance level sets," in WSCG International Conference on Computer Graphics, Visualization and Computer Vision, 2002.
特許文献1および非特許文献1,2では、各オブジェクトを、その色やテクスチャ情報に基づいて識別するので、フレーム画像上でのオブジェクトサイズが小さく、その色やテクスチャ情報を正確に認識できない場合には姿勢推定の精度が低下してしまう。
非特許文献3に開示された人物オブジェクトの骨格に基づく姿勢推定は、身体部分の骨格がはっきりと見える場合にのみ有効であり、骨格を正確に認識できない場合には推定精度が低下してしまう。
本発明の目的は、上記の技術課題を解決し、色やテクスチャ情報が不明瞭で小さな人物オブジェクトでも、その姿勢を正確に推定することができるオブジェクト姿勢推定方法、プログラムおよび装置を提供することにある。
上記の目的を達成するために、本発明は、フレーム画像上で人物オブジェクトの姿勢を推定するオブジェクト姿勢推定方法、プログラムおよび装置において、以下の手段を具備した点に特徴がある。
(1) 人物オブジェクトのモデルを各身体ジョイントと各身体パーツとの連結条件で予め定義しておき、フレーム画像から人物オブジェクトを検知し、人物オブジェクトのマスクを生成し、人物オブジェクトのマスクに基づいて骨格を生成し、人物オブジェクトのマスクに基づいて頭部の位置を推定し、人物オブジェクトのモデルを各身体ジョイントと各身体パーツとの連結条件にしたがって、前記頭部の位置、マスクおよび骨格に基づいて、各身体ジョイントおよび各身体パーツの位置/姿勢を前記連結条件の制約下で順次に推定し、各身体ジョイントおよび/または各身体パーツの推定結果、マスクならびに骨格に基づいて、残りの各身体ジョイントおよび各身体パーツの位置/姿勢を順次に推定するようにした。
(2) 頭部の位置および人物オブジェクトの骨格に基づいて首ジョイントの位置を推定し、首ジョイントの推定結果および骨格に基づいて胴体パーツの位置/姿勢を推定するようにした。
(3) 首ジョイントの推定結果、胴体パーツの推定結果および人物オブジェクトのマスクに基づいて肩ジョイントの位置を推定するようにした。
(4) 肩ジョイントの推定結果、前記マスクおよび前記骨格に基づいて肘ジョイントの位置を推定し、前記肩ジョイントの推定結果および肘ジョイントの推定結果に基づいて上腕パーツの位置/姿勢を推定し、前記肘ジョイントの推定結果および前記マスクに基づいて前腕パーツの位置/姿勢を推定するようにした。
(5) 肩ジョイントの推定結果に基づいて臀ジョイントの位置を推定し、前記臀ジョイントの推定結果、前記マスクおよび前記骨格に基づいて膝ジョイントの位置を推定し、前記臀ジョイントの推定結果および膝ジョイントの推定結果に基づいて大腿パーツの位置/姿勢を推定し、前記膝ジョイントの推定結果および前記マスクに基づいて下腿パーツの位置/姿勢を推定するようにした。
本発明によれば、以下のような効果が達成される。
(1) 色やテクスチャ情報が不明瞭で小さな人物オブジェクトでも、その姿勢を正確に推定できるようになる。
(2) 人物オブジェクトのモデルを各身体ジョイントと各身体パーツとの連結条件で予め定義したので、人物オブジェクトとしてあり得ない推定結果を排除できるようになる。
(3) オブジェクトマスクからの推定が容易な頭部を最初に推定し、その後、当該推定結果と連結条件とにしたがって各部を順次に推定するので、頭部の推定結果とは相関が低い腕や脚等も、肩や臀の推定結果を利用して精度良く推定できるようになる。
本発明の一実施形態に係るオブジェクト姿勢推定装置の主要部の構成を示したブロック図である。 オブジェクト画像からマスクを生成し、さらに骨格を生成する方法を示した図である。 人物オブジェクトを複数の身体パーツおよび身体ジョイントの結合として表現した図である。 身体ジョイントの一覧を示した図である。 身体パーツの一覧を示した図である。 身体ジョイントと身体パーツとの結合する際の制約条件を示した図である。 頭部の輪郭をHoG特徴量として学習する方法を示した図である。 人物オブジェクトの輪郭に基づいてHoG特徴量を指標に頭部を推定する方法を示した図である。 腕推定の方法を示した図(その1)である。 腕推定の方法を示した図(その2)である。 腕推定の方法を示した図(その3)である。 腕推定の手順を示したフローチャートである。 脚推定の方法を示した図(その1)である。 脚推定の方法を示した図(その2)である。 脚推定の手順を示したフローチャート(その1)である。 脚推定の手順を示したフローチャート(その2)である。 デフォルト姿勢の一例を示した図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクト姿勢推定装置1の主要部の構成を示したブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。
オブジェクト検知部10は、人物オブジェクトが映った動画像からRGB画像をフレーム単位で取得し、当該画像上で人物オブジェクトを検知する。本実施形態では、人物オブジェクトが存在しない環境下で撮影した背景画像を蓄積しておき、RGB画像と背景画像との差分が所定の閾値以上となる閉領域に基づいて人物オブジェクトが検知される。
オブジェクト分析部20において、オブジェクト領域設定部201は、図2(a)に一例を示したように、検知された人物オブジェクトごとに、その輪郭に外接する矩形のオブジェクト領域を設定する。オブジェクトマスク生成部202は、同図(b)に示したように、オブジェクト領域ごとに各人物オブジェクトのマスクを生成する。
骨格生成部203は、同図(c)に示したように、オブジェクト領域ごとにオブジェクトマスクの幅を水平方向および垂直方向へ、太さが1画素の線になるまで徐々に狭めることで各人物オブジェクトの骨格Sを生成する。
データベース30には、後述する頭部推定用のHoG(Histograms of Oriented Gradients)特徴量に関する教師データ301や、各身体パーツおよび各身体ジョイントの位置、姿勢を推定するための各種の推定パラメータ302が予め蓄積されている。
身体パーツ推定部40は、図3に示したように、人物オブジェクトのモデルを複数の身体パーツBPおよび身体ジョイントBJの連結体として定義し、各身体パーツBPおよび各身体ジョイントBJの位置、姿勢を、予め定義された制約条件および推定ルールに従って推定する。
図4は、身体ジョイントの一覧を示した図であり、図5は、身体パーツの一覧を示した図である。本実施形態では、人物オブジェクトが11個の身体ジョイントBJ0〜BJ10と10個の身体パーツBP0〜BP9とを連結したモデルとして定義される。図3に示したように、各身体ジョイントBJは点で表現され、各身体パーツBPは長方形状のテンプレートで模擬される。なお、頭パーツ(BP0)のみは例外的に円形状のテンプレートで模擬される。
また、本実施形態では、各身体ジョイントBJ0〜BJ10と各身体パーツBP0〜BP9との連結状態を判断する際の連結条件が図6のテーブル形式で管理されており、各身体ジョイントBJ0〜BJ10と各身体パーツBP0〜BP9との連結は当該連結条件に拘束される。したがって、本実施形態では人物としてあり得ない連結となる推定結果を排除することができる。
各身体ジョイントBJiは、添字iを身体ジョイント識別子(i=0〜10)として、次式(1)のデータ構造で表される。
ここで、括弧{・}内のPi={x,y}は、オブジェクト画像における各身体ジョイントBJの位置を表す。BJi={BJj|0≦j≦10,j≠i}は、当該身体ジョイントBJiに連結している他の身体ジョイントBJjの集合である。BPi={BP0,BP1…BP9}は、次式(2)で示すような身体パーツBPの集合であり、添字kは各身体パーツの識別子である。
ここで、括弧{・}内のRk={x,y,w,h,θ}は、各身体パーツBPkを模擬する長方形テンプレートRkの位置/姿勢を表し、x,yが中心座標、wが幅、hが高さ、θが角度方向を表している。PUk={x,y}およびPLk={x,y}は、長方形テンプレートRkの上端点及び下端点であり、これに連結する身体ジョイントBJiの座標Pi={x,y}に対応する。
BPk={BPm|0≦m≦9,m≠k}は、各身体パーツBPkに連結する他の身体パーツBPmの集合である。いくつかの身体パーツBPでは、PUk={x,y}は対応する位置Piと同じ値である。例えば、BP2(右上腕)のPU2は右肩位置P2と同じである。
以下、説明を解り易くするために、各身体パーツBPkを模擬する長方形テンプレートRkの位置をRx,yk、幅をRwidthk、高さをRheightk、角度方向をRθkと表現する場合もある。
また、本実施形態では簡略化のため、各身体パーツBPkの長方形テンプレートRkに関して、幅のデフォルト値が予めセットされている。上腕および前腕(BP2,BP3,BP4,BP5)の各テンプレート幅Rwidthに関するデフォルト値は、次式(3)に示したように、胴体テンプレートの幅Rwidth1との関係で、ここでは1/4として定義される。
同様に、大腿および下腿(BP6, BP7, BP8, BP9)の各テンプレート幅Rwidthに関するデフォルト値は、次式(4)に示したように胴体テンプレートの幅Rwidth1との関係で、ここでは1/3として定義される。
2つの身体ジョイントが決定されると、図6に記載されるような、対応するBPのパラメータの値を容易に計算できる。例えば、BJ2(右肩)およびBJ3(右肘)の位置が決まれば、BP2(右上腕)のパラメータは次式(5)のように決定される。
ここで、HALF(BJ2,BJ3)は、位置P2,P3の中間座標であり、θBJ2,BJ3は位置P2,P3を結ぶ線分の角度である。
このような身体パーツ推定部40において、頭推定部401は、図7に示したように、オブジェクトマスクの輪郭を対象に、予め学習した頭部のHoG(Histograms of Oriented Gradients)特徴量と類似する輪郭をフレーム画像内で、例えばラスタスキャン方向へ探索することで頭部を識別する。
本実施形態では、図8に示したように、4×4画素を1セルとして、その勾配強度と勾配方向との関係をヒストグラム化し、これをn×nセルごとに正規化することで特徴量を抽出する。そして、この特徴量が予め学習した頭部のHoGと一致すれば頭部の輪郭と推定する。
なお、探索時のマトリクスサイズnはオブジェクトサイズ、特に高さにHに依存し、次式(6)に従って適応的に設定される。
本実施形態では、頭部のテンプレートとして半径Rwidthの円形テンプレートを用い、上上端点PU0および下端点PL0が、いずれも次式(7)で計算される唯一の点P0に設定される。
ここで、MASKp,qは、実行ウィンドウが8行8列の行列で0,0から入力画像の幅と高さW、Hまで、入力画像のマスク境界のHoGの値をそれぞれ含んでいる。Δ(・)は、HEADtrainとMASKp,qのセル間のユークリッド距離である。P0には、ユークリッド距離が最小値となる画像内の位置が割り当てられる。
以上のようにして、頭部の識別が完了すると、当該頭部のP0を基準として各身体パーツおよび身体ジョイントの位置/姿勢が順次に推定される。本実施形態では、初めに胴体(BP1)が推定され、次いで、肩、臀、腕および脚の各パーツおよびジョイントが推定される。
胴体推定部402は、人物オブジェクトの首から骨格Sに沿って下方へ向かう直線を探索し、この直線に基づいて胴体パーツの大きさおよび方向を推定する。
ここでは頭部が既に定義されているので、骨格S={x,y}は頭部を除く全身のマスクを表すことになる。ここで、x={x0,x1…xs}、x={y0,y1…ys}、s=1,2…σであり、σは骨格の最大サイズを表す。したがって、骨格S内の最上部で非ゼロピクセルの水平位置s(x,0)を首位置P1(これはPU1でもある)と定義できる。
ここで、首位置P1からマスクの最下部までを高さHとすると、オブジェクトの胴体長は3/8Hよりも長くないという仮定のもと、首位置P1から下方へ骨格Sに沿った3/8Hの範囲の直線を胴体の中心線とみなして胴体パーツBP1を推定する。
なお、長さ3/8Hの範囲内に骨格Sに相当する非ゼロピクセルが複数あるときは、それらの平均位置が骨格Sの水平位置S(x,3/8H)とされる。すなわち、骨格Sの水平位置xは次式(8)で表される。
上記のようにして、首ジョイントBJ1および胴体BP1の推定が完了すると、この推定結果を利用して、肩および腰の推定が肩推定部403において実行される。
肩推定部403は、左肩位置P2(右肩ジョイントBJ2の位置)および右肩位置P4(左肩ジョイントBJ4の位置)を見つけることで推定できる。
肩位置は、マスク境界と胴体パーツBP1の上端点PU1を通る水平線との交点として定義される。すなわち、右肩位置P2の推定は、首位置P1から胴体領域R1の境界をマスク境界に向かって、当該マスク境界と交差するまでトレースすることで推定される。同様に、左肩位置P4は、首位置P1から右肩位置P2とは反対方向へ胴体領域R1の境界線をトレースすることによって推定される。
臀推定部404は、左右の臀BJ7(P7),BJ9(P9)を見つけることで推定を実行する。臀推定では、人体の構造に基づき臀部が左右の肩幅内に収まると仮定し、各臀BJ7(P7),BJ9(P9)は左右の肩位置P2,P4に基づいて推定される。lBJ1,BJ2をP1からP2までの距離とし、θBJ1,BJ2をP1からP2への角度方向とすると、右臀位置P7の各座標は次式(9)で求められる。
同様に、lBJ1,BJ4をP1からP4までの距離とし、θBJ1,BJ4をP1からP4への角度方向とすれば、左臀位置P9の各座標は次式(10)で求められる。
腕推定部405は、右肩位置P2に基づいて右肘BJ3、右上腕BP2および右前腕BP3を見つける。また、左肩位置P4に基づいて左肘BJ5、左上腕BP4および左前腕BP5を見つける。
右肩位置P2を右肩の身体ジョイントBJ2の位置とすれば、腕全体の長さは、右肩位置P2からマスクの最も右の位置(図面では、左の位置)までマスク境界をトレースすることによって予測できる。そして、当該位置をPbLEFTとすれば、右肩位置P2とPbLEFTとの距離lP2,PbLEFTを計算することにより、右上腕BP2および右前腕BP3を推定できる。
図9,10,11は、前記腕推定部405による腕推定の手順を模式的に示した図であり、図12は、腕推定の手順を示したフローチャートである。
ステップS1では、次式(11)に基づいて、肩位置P2と当該肩位置P2からマスク境界に沿ってトレースしたときの最大トレース点PbLEFTとの距離lP2,PbLEFTが胴体長Rheight1の半分よりも長いか否かが判断される。
図9,10に示した例のように、上式(11)が成立するケースではステップS2へ進む。ステップS2では、P2とPbLEFTとの中点PHALFが求められる。ステップS3では、当該中点PHALFに最も近い骨格上の位置が探索される。
図9に示したように、骨格上の位置が見つかればステップS4へ進み、探索された骨格上の位置が肩位置P3とされる。また、右前腕BP3の下端点PL3としてPbLEFTが採用される。なお、図10に示したように、骨格上の点が見つからなければステップS5へ進み、肩位置P3としてPHALFが採用され、PL3としてPbLEFTが採用される。
一方、図11に示した例のように、上式(11)が成立しないケースではステップS6へ進み、P2,PbLEFT間の方向θP2, PbLEFTが計算される。ステップS7では、P3としてPbLEFTが採用される。ステップS8では、方向θP2, PbLEFTの反転確度θ'P2, PbLEFTが計算される。ステップS9では、Rheight3にRheight2がセットされる。ステップS10では、次式(12)に基づいてPL3x,PL3yが計算される。
上記の手順を左肩位置P4からBJ5,BP4およびBP5を推定する場合に適用すれば左上腕BP4および左前腕BP5も推定できる。
脚推定部406は、右脚に関して右膝BJ8,右大腿BP6および右下腿BP7を見つけ、左脚に関して左膝BJ10,左大腿BP8および左下腿BP9を見つけることで脚の位置/姿勢を推定する。
図13,14に示したように、臀ジョイントBJ7の位置をP7とすると、右膝BJ8は、位置P7から最も近いオブジェクトマスク境界上の位置から当該マスク境界を一番下の点PbMIN_LEFTまでトレースすることで推定できる。大腿部BP6および下腿部BP7は骨格Sの状態に基づいて以下の手順で推定される。
図15は、図13に示したように両脚の骨格が検知されている場合の推定手順を示したフローチャートである。
ステップS31では、P7とPbMIN_LEFTとの中間点PHALFが求められる。ステップS32では、中間点PHALFから線分P7−PbMIN_LEFTと垂直方向に最も近い骨格位置P'HALFが求められる。ステップS33では、骨格位置P'HALFが右膝の位置P8とされ、PbMIN_LEFTが右下腿の下端点PL7とされる。
図16は、図14に示したように、脚部の骨格が1本しか認識されていない場合の推定手順を示したフローチャートであル。
ステップS41では、P7とPbMIN_LEFTとの中間点PHALFが求められる。ステップS42では、中間点PHALFから線分P7−PbMIN_LEFTと垂直方向に、マスク境界と骨格との中間位置P''HALFが求められる。ステップS43では、中間位置P''HALFが右膝の位置P8とされ、PbMIN_LEFTが右下腿の下端点PL7とされる。同様の手法を、BJ9からBJ10,BP8およびBP10を求める場合にも適用できる。
本実施形態では、上記の各処理が、フレーム画像から抽出された全ての人物オブジェクトに対して繰り返され、全ての人物オブジェクトの姿勢が推定される。
なお、フレーム画像上の人物オブジェクトの大きさが極端に小さく、そのマスク形状や骨格が腕や脚の推定、あるいは頭部の位置推定に十分な情報を提供できない場合には、別のフレーム画像(参照フレーム)から同じ人物オブジェクトを抽出し、その姿勢を利用することが可能である。
単純化のために、2つの連続するフレーム内の人物オブジェクトが同様のサイズを有する場合、フレームf+1(現在フレーム)のポーズとしてフレームf(参照フレーム)のポーズのコピーを用いることができる。
一方、このような参照フレームが利用可能でない場合(例えば、姿勢推定が第1のフレームで実行されるか、またはオブジェクトが現在のフレームに現れた直後)、「デフォルトポーズ」がオブジェクトに注釈される。デフォルトの姿勢は、頭部の身体ジョイント位置を次式(13)で定義することによって決定される。
ここで、nは、式で計算される近似されたヘッドマトリックスのサイズである。続いて、胴体領域の下半身BJ6は、前記胴体推定と同様の手順で推定できる。デフォルト姿勢での脚および腕の位置は、図17に示すようにして決定される。ここで、腕および脚の長さは、前記腕推定および脚推定と同様の手順で決定される。
10…オブジェクト検知部,20…オブジェクト分析部,30…データベース,40…身体パーツ推定部,201…オブジェクト領域設定部,202…オブジェクトマスク生成部,203…骨格生成部,301…教師データ,302…推定パラメータ,401…頭識別部,402…胴体推定部,403…肩推定部,404…臀推定部,405…腕推定部,406…脚推定部

Claims (22)

  1. フレーム画像上で人物オブジェクトの姿勢を推定するオブジェクト姿勢推定装置において、
    人物オブジェクトのモデルを各身体ジョイントと各身体パーツとの連結条件で定義する手段と、
    フレーム画像から人物オブジェクトを検知する手段と、
    人物オブジェクトのマスクを生成する手段と、
    人物オブジェクトのマスクに基づいて骨格を生成する手段と、
    人物オブジェクトのマスクに基づいて頭部の位置を推定する手段と、
    前記頭部の位置、マスクおよび骨格に基づいて、各身体ジョイントおよび各身体パーツの位置/姿勢を前記連結条件の制約下で順次に推定する手段とを具備し、
    前記推定する手段は、各身体ジョイントおよび/または各身体パーツの推定結果、マスクならびに骨格に基づいて、残りの各身体ジョイントおよび各身体パーツの位置/姿勢を順次に推定することを特徴とするオブジェクト姿勢推定装置。
  2. 前記各身体パーツとして、頭、胴体、左右の上腕、左右の前腕、左右の大腿および左右の下腿を含むことを特徴とする請求項1に記載のオブジェクト姿勢推定装置。
  3. 前記各身体ジョイントとして、首、左右の肩、左右の肘、左右の臀および左右の膝を含むことを特徴とする請求項1または2に記載のオブジェクト姿勢推定装置。
  4. 前記各身体パーツを、当該身体パーツの形状を模擬した身体テンプレートで模擬したことを特徴とする請求項2に記載のオブジェクト姿勢推定装置。
  5. 前記胴体のテンプレートが他の身体テンプレートよりも大きいことを特徴とする請求項4に記載のオブジェクト姿勢推定装置。
  6. 前記大腿および下腿のテンプレートが、前記上腕および前腕のテンプレートよりも大きいことを特徴とする請求項4または5に記載のオブジェクト姿勢推定装置。
  7. 前記推定手段は、前記頭部の位置および骨格に基づいて首ジョイントの位置を推定することを特徴とする請求項3に記載のオブジェクト姿勢推定装置。
  8. 前記推定手段は、前記首ジョイントの推定結果および骨格に基づいて胴体パーツの位置/姿勢を推定することを特徴とする請求項7に記載のオブジェクト姿勢推定装置。
  9. 前記推定手段は、前記首ジョイントの推定結果、胴体パーツの推定結果および前記マスクに基づいて肩ジョイントの位置を推定することを特徴とする請求項8に記載のオブジェクト姿勢推定装置。
  10. 前記推定手段は、前記肩ジョイントの推定結果に基づいて臀ジョイントの位置を推定することを特徴とする請求項9に記載のオブジェクト姿勢推定装置。
  11. 前記推定手段は、前記肩ジョイントの推定結果、前記マスクおよび前記骨格に基づいて肘ジョイントの位置を推定することを特徴とする請求項9に記載のオブジェクト姿勢推定装置。
  12. 前記推定手段は、前記肩ジョイントの推定結果および肘ジョイントの推定結果に基づいて上腕パーツの位置/姿勢を推定することを特徴とする請求項11に記載のオブジェクト姿勢推定装置。
  13. 前記推定手段は、前記肘ジョイントの推定結果および前記マスクに基づいて前腕パーツの位置/姿勢を推定することを特徴とする請求項11に記載のオブジェクト姿勢推定装置。
  14. 前記推定手段は、前記臀ジョイントの推定結果、前記マスクおよび前記骨格に基づいて膝ジョイントの位置を推定することを特徴とする請求項10に記載のオブジェクト姿勢推定装置。
  15. 前記推定手段は、前記臀ジョイントの推定結果および膝ジョイントの推定結果に基づいて大腿パーツの位置/姿勢を推定することを特徴とする請求項14に記載のオブジェクト姿勢推定装置。
  16. 前記推定手段は、前記膝ジョイントの推定結果および前記マスクに基づいて下腿パーツの位置/姿勢を推定することを特徴とする請求項14に記載のオブジェクト姿勢推定装置。
  17. フレーム画像上で人物オブジェクトの姿勢を推定するオブジェクト姿勢推定方法において、
    人物オブジェクトのモデルを各身体ジョイントと各身体パーツとの連結条件で予め定義しておき、
    フレーム画像から人物オブジェクトを検知し、
    人物オブジェクトのマスクを生成し、
    人物オブジェクトのマスクに基づいて骨格を生成し、
    人物オブジェクトのマスクに基づいて頭部の位置を推定し、
    人物オブジェクトのモデルを各身体ジョイントと各身体パーツとの連結条件にしたがって、前記頭部の位置、マスクおよび骨格に基づいて、各身体ジョイントおよび各身体パーツの位置/姿勢を前記連結条件の制約下で順次に推定し、
    各身体ジョイントおよび/または各身体パーツの推定結果、マスクならびに骨格に基づいて、残りの各身体ジョイントおよび各身体パーツの位置/姿勢を順次に推定することを特徴とするオブジェクト姿勢推定方法。
  18. 前記頭部の位置および骨格に基づいて首ジョイントの位置を推定し、
    前記首ジョイントの推定結果および骨格に基づいて胴体パーツの位置/姿勢を推定することを特徴とする請求項17に記載のオブジェクト姿勢推定方法。
  19. 前記首ジョイントの推定結果、胴体パーツの推定結果および前記マスクに基づいて肩ジョイントの位置を推定することを特徴とする請求項18に記載のオブジェクト姿勢推定方法。
  20. 前記肩ジョイントの推定結果、前記マスクおよび前記骨格に基づいて肘ジョイントの位置を推定し、
    前記肩ジョイントの推定結果および肘ジョイントの推定結果に基づいて上腕パーツの位置/姿勢を推定し、
    前記肘ジョイントの推定結果および前記マスクに基づいて前腕パーツの位置/姿勢を推定することを特徴とする請求項19に記載のオブジェクト姿勢推定方法。
  21. 前記肩ジョイントの推定結果に基づいて臀ジョイントの位置を推定し、
    前記臀ジョイントの推定結果、前記マスクおよび前記骨格に基づいて膝ジョイントの位置を推定し、
    前記臀ジョイントの推定結果および膝ジョイントの推定結果に基づいて大腿パーツの位置/姿勢を推定し、
    前記膝ジョイントの推定結果および前記マスクに基づいて下腿パーツの位置/姿勢を推定することを特徴とする請求項19に記載のオブジェクト姿勢推定方法。
  22. 請求項17ないし21のいずれかに記載のオブジェクト姿勢推定方法をコンピュータに実行させるオブジェクト姿勢推定プログラム。
JP2017043077A 2017-03-07 2017-03-07 オブジェクト姿勢推定方法、プログラムおよび装置 Expired - Fee Related JP6712555B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017043077A JP6712555B2 (ja) 2017-03-07 2017-03-07 オブジェクト姿勢推定方法、プログラムおよび装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017043077A JP6712555B2 (ja) 2017-03-07 2017-03-07 オブジェクト姿勢推定方法、プログラムおよび装置

Publications (3)

Publication Number Publication Date
JP2018147313A true JP2018147313A (ja) 2018-09-20
JP2018147313A5 JP2018147313A5 (ja) 2019-03-28
JP6712555B2 JP6712555B2 (ja) 2020-06-24

Family

ID=63591279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017043077A Expired - Fee Related JP6712555B2 (ja) 2017-03-07 2017-03-07 オブジェクト姿勢推定方法、プログラムおよび装置

Country Status (1)

Country Link
JP (1) JP6712555B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6723486B1 (ja) * 2019-07-10 2020-07-15 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
WO2021166459A1 (ja) 2020-02-19 2021-08-26 本田技研工業株式会社 情報取得装置、情報取得方法、及び制御プログラム
WO2021166460A1 (ja) 2020-02-19 2021-08-26 本田技研工業株式会社 情報提供装置、情報提供方法、及び制御プログラム
WO2021192085A1 (en) * 2020-03-25 2021-09-30 Nec Corporation Pose identifying apparatus, pose identifying method, and non-transitory computer readable medium storing program
US11380009B2 (en) 2019-11-15 2022-07-05 Aisin Corporation Physique estimation device and posture estimation device
JP2022531029A (ja) * 2020-04-01 2022-07-06 センスタイム インターナショナル ピーティーイー.リミテッド 画像認識方法、装置及び記憶媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863603A (ja) * 1994-06-15 1996-03-08 Olympus Optical Co Ltd 画像解析装置
JP2013517051A (ja) * 2010-01-15 2013-05-16 マイクロソフト コーポレーション モーション・キャプチャー・システムにおけるユーザー意図の認識

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863603A (ja) * 1994-06-15 1996-03-08 Olympus Optical Co Ltd 画像解析装置
JP2013517051A (ja) * 2010-01-15 2013-05-16 マイクロソフト コーポレーション モーション・キャプチャー・システムにおけるユーザー意図の認識

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6723486B1 (ja) * 2019-07-10 2020-07-15 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
US11380009B2 (en) 2019-11-15 2022-07-05 Aisin Corporation Physique estimation device and posture estimation device
WO2021166459A1 (ja) 2020-02-19 2021-08-26 本田技研工業株式会社 情報取得装置、情報取得方法、及び制御プログラム
WO2021166460A1 (ja) 2020-02-19 2021-08-26 本田技研工業株式会社 情報提供装置、情報提供方法、及び制御プログラム
WO2021192085A1 (en) * 2020-03-25 2021-09-30 Nec Corporation Pose identifying apparatus, pose identifying method, and non-transitory computer readable medium storing program
JP2023512318A (ja) * 2020-03-25 2023-03-24 日本電気株式会社 姿勢特定装置、姿勢特定方法、及びプログラム
JP7323079B2 (ja) 2020-03-25 2023-08-08 日本電気株式会社 姿勢特定装置、姿勢特定方法、及びプログラム
JP2022531029A (ja) * 2020-04-01 2022-07-06 センスタイム インターナショナル ピーティーイー.リミテッド 画像認識方法、装置及び記憶媒体

Also Published As

Publication number Publication date
JP6712555B2 (ja) 2020-06-24

Similar Documents

Publication Publication Date Title
JP6712555B2 (ja) オブジェクト姿勢推定方法、プログラムおよび装置
JP6433149B2 (ja) 姿勢推定装置、姿勢推定方法およびプログラム
JP7015152B2 (ja) キーポイントデータに関する加工装置、方法及びプログラム
JP5873442B2 (ja) 物体検出装置および物体検出方法
US9047507B2 (en) Upper-body skeleton extraction from depth maps
KR101711736B1 (ko) 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법
US11138419B2 (en) Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium
JP6708260B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110096925A (zh) 人脸表情图像的增强方法、获取方法和装置
CN111784775B (zh) 一种标识辅助的视觉惯性增强现实注册方法
KR20110032352A (ko) 영상 처리 장치 및 방법
JP2009020761A (ja) 画像処理装置及びその方法
US20140085330A1 (en) Image processing device, image processing method, computer readable medium
Xu et al. 3d virtual garment modeling from rgb images
JP2005339288A (ja) 画像処理装置及びその方法
JP2013120556A (ja) 被写体姿勢推定装置および映像描画装置
CN114022645A (zh) 虚拟教师***的动作驱动方法、装置、设备及存储介质
JP2010113530A (ja) 画像認識装置及びプログラム
CN109166172B (zh) 服装模型的构建方法、装置、服务器和存储介质
Vasconcelos et al. Methods to automatically build point distribution models for objects like hand palms and faces represented in images
JP2012113438A (ja) 姿勢推定装置および姿勢推定プログラム
CN117529758A (zh) 用于使用神经网络识别图像和视频中的人类协同活动的方法、***和介质
CN110826495A (zh) 基于面部朝向的身体左右肢体一致性跟踪判别方法及***
Achmed et al. Upper body pose estimation towards the translation of South African Sign Language
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6712555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees