JP5837508B2 - 姿勢状態推定装置および姿勢状態推定方法 - Google Patents

姿勢状態推定装置および姿勢状態推定方法 Download PDF

Info

Publication number
JP5837508B2
JP5837508B2 JP2012547682A JP2012547682A JP5837508B2 JP 5837508 B2 JP5837508 B2 JP 5837508B2 JP 2012547682 A JP2012547682 A JP 2012547682A JP 2012547682 A JP2012547682 A JP 2012547682A JP 5837508 B2 JP5837508 B2 JP 5837508B2
Authority
JP
Japan
Prior art keywords
posture state
region
map
likelihood
likelihood map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012547682A
Other languages
English (en)
Other versions
JPWO2012077287A1 (ja
Inventor
川口 京子
京子 川口
雅基 田靡
雅基 田靡
健介 丸谷
健介 丸谷
雄二 里
雄二 里
光子 藤田
光子 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012547682A priority Critical patent/JP5837508B2/ja
Publication of JPWO2012077287A1 publication Critical patent/JPWO2012077287A1/ja
Application granted granted Critical
Publication of JP5837508B2 publication Critical patent/JP5837508B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて物体の姿勢状態を推定する姿勢状態推定装置および姿勢状態推定方法に関する。
近年、撮影された動画像の画像データに基づく人の姿勢推定に関する研究が、盛んに行われている。なぜなら、動画像から人の行動をコンピュータ解析により判定することができれば、各種の分野において行われている行動解析を、人手に頼らずに行うことが可能となるからである。行動解析としては、例えば、街頭での異常行動検知、店舗での購買行動分析、工場における作業効率化支援、およびスポーツにおけるフォーム指導が挙げられる。
そこで、単眼カメラにより撮影された画像データに基づいて、人の姿勢状態を推定する技術が、例えば非特許文献1に記載されている。非特許文献1に記載の技術(以下「従来技術」という)は、画像データから人のシルエット(外形)を検出し、そのシルエットから、形状特徴量の1つであるShapeContextヒストグラムを抽出する。そして、従来技術は、抽出したヒストグラムの分散共分散行列を入力として、識別すべき動作の姿勢毎に識別器を構成する。これにより、従来技術は、人の位置や向きによらずに人の姿勢状態を推定する事ができる。
下坂正倫、佐藤真、森武俊、佐藤知正、「単眼画像からの形状特徴を用いた動作認識法」、全国大会講演論文集 第70回平成20年(5)、社団法人情報処理学会、2008年3月13日、p.5−93、p.5−94、 P. Viola and M. Jones, "Rapid Object Detection Using a Boosted Cascade of Simple Features," in Proc. of CVPR, vol.1, December, 2001, ppp.511-518
しかしながら、従来技術は、シルエットが類似する複数の姿勢状態を区別することができないため、人の姿勢状態を高精度に推定することができないという課題がある。例えば、カメラから見て人の胴体の外形に両腕が収まっている場合を想定する。この場合、従来技術によれば、腕を縮めているか伸ばしているかによらず、また、腕が前に位置するか後ろに位置するかによらず、他の頭部や足の外形を含めた全体の外形が同じであれば、推定結果は同一の姿勢状態となってしまう。
また、従来技術を用いて、ロボット等の、関節により接続された複数の部位を有する各種の人以外の物体についてもその姿勢状態を推定することが考えられるが、同様の問題が起こり得る。
本発明の目的は、関節を有する物体の姿勢状態を高精度に推定することができる姿勢状態推定装置および姿勢状態推定方法を提供することである。
本発明の姿勢状態推定装置は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて前記物体の姿勢状態の推定を行う姿勢状態推定装置であって、前記画像データから、少なくとも2つ以上の前記部位について、各部位が位置することの尤もらしさの分布を示す尤度マップを生成する尤度マップ生成部と、前記姿勢状態に予め対応付けられた前記尤度マップである学習尤度マップと、前記画像データに基づいて生成された前記尤度マップである推定尤度マップとの一致度が高いとき、当該学習尤度マップと対応付けられた前記姿勢状態を、前記物体の姿勢状態として推定する姿勢状態推定部とを有する。
本発明の姿勢状態推定方法は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて前記物体の姿勢状態の推定を行う姿勢状態推定方法であって、前記画像データから、少なくとも2つ以上の前記部位について、各部位が位置することの尤もらしさの分布を示す尤度マップを生成するステップと、前記姿勢状態に予め対応付けられた前記尤度マップである学習尤度マップと、前記画像データに基づいて生成された前記尤度マップである推定尤度マップとの一致度を判定するステップと前記一致度が高いとき、当該学習尤度マップと対応付けられた前記姿勢状態を、前記物体の姿勢状態として推定するステップとを有する。
本発明によれば、関節を有する物体の姿勢状態を高精度に推定することができる。
本発明の実施の形態1に係る本発明の実施の形態1に係る姿勢状態推定装置の構成の一例を示すブロック図 本実施の形態1における画像データを説明するための図 本実施の形態1に係る姿勢状態推定装置の動作の一例を示すフローチャート 本実施の形態1における推定フェーズ処理の一例を示すフローチャート 本実施の形態1におけるオメガ形状を説明するための図 本実施の形態1における基準線からオメガ形状までの垂直距離を説明するための図 本実施の形態1における距離ヒストグラムの一例を示す図 本実施の形態1における2値化後の距離ヒストグラムの一例を示す図 本実施の形態1における基準部位を示す各種パラメータを説明するための図 本実施の形態1における基準部位対応テーブルの内容の一例を示す図 本実施の形態1における部位領域対応テーブルの内容の一例を示す図 本実施の形態1における部位領域データの内容の一例を示す図 本実施の形態1における推定尤度マップの一例を示す図 本実施の形態1における2値化後の推定尤度マップの一例を示す図 本実施の形態1において指定姿勢であると判定される場合の一例を示す図 本実施の形態1において指定姿勢であると判定される場合の他の例を示す図 本発明の実施の形態2に係る姿勢状態推定装置の構成の一例を示すブロック図 本実施の形態2に係る姿勢状態推定装置の動作の一例を示すフローチャート 本実施の形態2おける学習フェーズ処理の一例を示すフローチャート 本発明の実施の形態3に係る姿勢状態推定装置の要部構成を示すブロック図 本実施の形態3に係る人の姿勢と各部位の明るさとの関係を説明するための図 本実施の形態3に係る姿勢状態推定装置の処理フローの一例を示す図 本実施の形態3に係る凹凸マップ生成処理の処理フローの一例を示す図 本実施の形態3に係るエリア分類の手法を説明するための図
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
本発明の実施の形態1は、本発明を、撮影された人の姿勢状態が、ユーザが指定した姿勢状態に一致しているか否かを推定する装置に適用した例である。
以下の説明において、「部位」とは、人の身体のうち関節によって分割された部分の一まとまりをいうものとする。すなわち、部位は、例えば、頭、肩、右上腕、右前腕、左上腕、左前腕、右膝上、右膝下、左膝上、および左膝下である。また、「部位領域」とは、画像においてある部位が占め得る領域、つまり、部位の可動範囲であるものとする。
また、推定の対象となる「姿勢状態」とは、着目すべき2つ以上の部位(以下「着目部位」という)の姿勢をいうものとする。また、「姿勢」とは、2次元座標系または3次元座標系における、着目部位を接続する関節の位置、または、関連する各部位の長さおよび部位間の角度等の情報によって表現されるものとする。したがって、「姿勢状態推定」とは、これらの情報を推定することにより、姿勢状態を推定することをいう。なお、上述の位置、長さ、および角度は、人の所定の身体部位を基準とした相対値により表現されても良いし、2次元座標系または3次元座標系における絶対値により表現されて良い。
なお、本実施の形態では画素を単位として説明するが、所定のサイズに相当する複数の画素の一まとまりを、それぞれ一つの画素とみなして、同様の処理を行っても良い。これにより、処理を高速に行うことができる。複数の画素をひとつの画素とみなす場合、複数の画素の重心となる画素の値をその複数の画素の値として用いても良いし、複数の画素の値の平均値を、その複数の画素の値として用いても良い。
図1は、本発明の実施の形態1に係る姿勢状態推定装置の構成の一例を示すブロック図である。説明の簡便化のため、姿勢状態推定装置の周辺機器についても併せて図示する。
図1において、姿勢状態推定装置100は、姿勢状態管理部110、姿勢状態指定部120、画像データ取得部130、部位領域推定部140、尤度マップ生成部150、および姿勢状態推定部160を有する。
姿勢状態管理部110は、予め、姿勢状態毎に、姿勢状態の識別情報と、姿勢状態に対して指定された2つ以上の着目部位の識別情報と、尤度マップとを、対応付けて格納する。尤度マップは、画像上で各着目部位が位置することの尤もらしさ(尤度)の分布であり、その詳細については後述する。以下、姿勢状態管理部110に情報が格納されている姿勢状態のみを、「姿勢状態」というものとする。以下、姿勢状態に対応付けられて姿勢状態管理部110に予め格納されている尤度マップは、「学習尤度マップ」という。
姿勢状態指定部120は、キーボード等の入力装置(図示せず)を介して、推定の対象となる姿勢状態の指定をユーザから受け付ける。具体的には、姿勢状態指定部120は、例えば、姿勢状態管理部110を参照して姿勢状態の一覧を作成し、これを選択肢として表示することにより、姿勢状態の指定を受け付ける。例えば、姿勢状態指定部120は、「右腕が曲がっている」という姿勢状態の指定を受け付ける。そして、姿勢状態指定部120は、指定された姿勢状態の識別情報を、部位領域推定部140および姿勢状態管理部110へ出力する。以下、指定された姿勢状態および指定姿勢の識別情報は、「指定姿勢」と総称する。
また、姿勢状態指定部120は、指定姿勢に対応付けられた2つ以上の着目部位を、部位領域推定部140へ出力する。例えば、姿勢状態指定部120は、「右腕が曲がっている」という姿勢状態については、「右上腕」および「右前腕」が、出力される。以下、指定姿勢に対応付けられた着目部位は、「指定部位」という。
画像データ取得部130は、所定の3次元座標空間に設置された単眼カメラ200によって撮像された画像の画像データを、有線通信または無線通信により取得し、部位領域推定部140へ出力する。以下の説明では、画像データは、一人のみの画像を含むものとして説明するが、この限りではなく、複数人の画像を含んでも良いし、人の画像を含んでいなくても良い。
図2は、画像データを説明するための図である。
図2に示すように、例えば、単眼カメラ200の位置を地面に投射した位置を原点Oとする3次元の座標系410を設定する。座標系410は、例えば、垂直方向をY軸とし、Y軸および単眼カメラ200の光軸411と直交する方向をX軸とし、X軸およびY軸に直交する方向をZ軸とする。
単眼カメラ200の設置角度は、例えば、Y軸と光軸411との間の角度θにより表される。そして、単眼カメラ200は、単眼カメラ200の画角φの範囲に含まれるある平面412に焦点(フォーカス)を合わせて撮像を行う。このように撮影された画像の画像データは、姿勢状態推定装置100へ送信される。以下、姿勢状態の推定の対象となる画像データは、「推定画像データ」という。
図1の部位領域推定部140は、画像データ取得部130から入力された推定画像データに基づいて、姿勢状態指定部120から入力された指定部位の部位領域を推定する。具体的には、部位領域推定部140は、推定画像データから、人の基準部位の位置および向きを推定する。そして、部位領域推定部140は、推定した基準部位の位置および向きを基準として、各指定部位の部位領域を推定する。
本実施の形態では、基準部位は、人の頭部および肩部とする。また、基準部位の向きは、肩部の向きとし、肩部の向きは、右肩部と左肩部とを結ぶ直線の方向とする。そして、部位領域推定部140は、推定画像データと、指定姿勢と、指定部位毎の部位領域を示す情報(以下「部位領域データ」という)とを、尤度マップ生成部150へ出力する。
尤度マップ生成部150は、部位領域推定部140から入力された推定画像データから、尤度マップを生成する。この際、尤度マップ生成部150は、部位領域推定部140から入力された部位領域データが示す部位領域以外の領域については、その部位領域に対応する指定部位が位置することの尤もらしさを低くした尤度マップを生成する。このような尤度マップは、指定姿勢の着目部位(例えば、「右腕が曲がっている」という姿勢状態の場合には、「右上腕」および「右前腕」)の可動範囲の尤度のみが高いような情報となる。そして、尤度マップ生成部150は、生成した尤度マップを、部位領域推定部140から入力された指定姿勢と共に、姿勢状態推定部160へ出力する。以下、推定画像データに基づいて生成された尤度マップは、「推定尤度マップ」という。
姿勢状態推定部160は、尤度マップ生成部150から入力された指定姿勢に対応付けられた学習尤度マップを、姿勢状態管理部110から取得する。なお、学習尤度マップは、姿勢状態推定部160からの指示を受けた姿勢状態管理部110が、姿勢状態推定部160へと出力するようにしても良い。そして、姿勢状態推定部160は、取得した学習尤度マップと、姿勢状態推定部160は尤度マップ生成部150から入力された推定尤度マップとの一致度が高いとき、指定姿勢を、推定画像データに含まれる人の姿勢状態として推定する。すなわち、姿勢状態推定部160は、単眼カメラ200が撮影した人が、ユーザにより指定された姿勢状態を取っていたと推定する。そして、姿勢状態推定部160は、ディスプレイ装置等の情報出力装置300に対して、有線通信または無線通信により情報を送信し、ユーザに対して推定結果を通知する。
姿勢状態推定装置100は、CPU(central processing unit)およびRAM(random access memory)等の記憶媒体等を含むコンピュータである。すなわち、姿勢状態推定装置100は、記憶する制御プログラムをCPUが実行することによって動作する。
このような姿勢状態推定装置100は、部位毎の尤度の分布を示す尤度マップを用いるので、例えば、画像上で胴体の外形に右腕が収まっている場合でも、「右腕が曲がっている」という姿勢状態にあるか否かを判定することができる。すなわち、姿勢状態推定装置100は、従来技術に比べて、人の姿勢状態を高精度に推定することができる。
また、姿勢状態推定装置100は、指定部位の可動領域である部位領域を推定し、部位領域以外の領域については尤度値を低くするので、尤度マップの精度を向上させることができる。
次に、姿勢状態推定装置100の動作について説明する。
図3は、姿勢状態推定装置100の動作の一例を示すフローチャートである。
まず、ステップS3000において、部位領域推定部140は、姿勢状態推定の指示があったか否かを判断する。部位領域推定部140は、例えば、姿勢状態指定部120において新たな姿勢状態の指定が行われたときや、画像データ取得部130に新たな推定画像データが入力されたときに、姿勢状態推定の指示があったと判断する。部位領域推定部140は、姿勢状態推定の指示があった場合(S3000:YES)、ステップS4000へ進む。また、部位領域推定部140は、姿勢状態推定の指示がない場合(S3000:NO)、ステップS5000へ進む。
ステップS4000において、姿勢状態推定装置100は、姿勢状態の推定を行う推定フェーズ処理を実行して、ステップS5000へ進む。推定フェーズ処理の詳細については後述する。
ステップS5000において、部位領域推定部140は、ユーザ操作等により処理終了の指示があったか否かを判断する。部位領域推定部140は、処理終了の指示がない場合(S5000:NO)、ステップS3000へ戻り、姿勢状態推定の指示の待機を継続する。また、部位領域推定部140は、処理終了の指示があった場合には(S5000:YES)、一連の処理を終了する。
図4は、推定フェーズ処理(図3のステップS4000)の一例を示すフローチャートである。
ステップS4100において、姿勢状態指定部120は、ユーザから姿勢状態の指定を受け付けて指定姿勢を取得し、指定姿勢に対応する指定部位を取得する。
そして、ステップS4200において、部位領域推定部140は、画像データ取得部130を介して、単眼カメラ200から推定画像データを取得する。推定画像データは、画単眼カメラ200において連続的にリアルタイムで撮影された動画像データを構成する静止画像データでも良いし、予め撮影されて保存されていた画像データであっても良い。
そして、ステップS4300において、部位領域推定部140は、基準部位の位置および向きを推定する処理(以下「基準部位推定処理」という)を行う。
ここで、基準部位推定処理の詳細の一例について説明する。基準部位推定処理は、大きく分けて、人の肩関節位置を推定する第1の処理と、人の胴体の向きを推定する第2の処理とから成る。
まず、人の肩関節位置を推定する第1の処理について説明する。
部位領域推定部140は、推定画像データから、オメガ形状を検出し、オメガ形状に基づいて肩関節位置を推定する。
図5は、オメガ形状を説明するための図である。
オメガ(Ω)形状は、人の頭部および肩部を含む領域の特徴的なエッジ形状であり、人の身体のうち、監視カメラ等を用いた場合に最も安定して撮影される確率が高い形状である。また、頭部および肩部は、人の胴体との相対位置の変化が少ない。したがって、部位領域推定部140は、オメガ形状をまず検出して人の頭部および肩部の位置を検出し、これらを基準として他の部位の部位領域を推定することにより、部位領域を高精度に推定する。
オメガ形状は、例えば、充分な数のサンプル画像を用いてReal AdaBoost等により作成された検出器を用いて、検出することができる。検出器に用いられる特徴量としては、例えば、HoG(histogram of gradient)特徴量、Sparse特徴量、Haar特徴量等を用いることができる。また、学習方法としては、例えば、Boosting手法のほか、SVM(サポートベクタマシン)、ニューラルネットワークなどを利用することも可能である。
部位領域推定部140は、推定画像データの画像420から、まず、オメガ形状421を検出する。ここで、オメガ領域422の画素のうち、オメガ形状421を構成する画素(エッジ部分の画素)はデジタル信号「1」であり、他の画素はデジタル信号「0」であるものとする。そして、オメガ形状421を包含する比較的小さい矩形領域を、オメガ領域422として決定する。ここで、オメガ領域422の下の辺を基準線423という。
部位領域推定部140は、オメガ領域422に含まれるノイズを取り除く。具体的には、部位領域推定部140は、オメガ領域422の画素のうち、オメガ形状421に囲まれた領域に存在するデジタル信号「1」を、ノイズとして、これをデジタル信号「0」に修正する。この修正は、例えば、いわゆるクロージング処理を行うことにより可能である。クロージング処理とは、所定の画素分または所定の割合で、画像領域を拡大また縮小する処理である。この修正により、後述の距離ヒストグラムの精度を向上させることができる。
そして、部位領域推定部140は、基準線423からオメガ形状421までの垂直距離を、基準線423の各位置について取得する。
図6は、基準線423からオメガ形状421までの垂直距離を説明するための図である。
図6に示すように、部位領域推定部140は、基準線423の方向をX軸とし、基準線423の垂直方向をY軸として扱う。部位領域推定部140は、例えば、基準線423の左端からの画素数を、X座標値とする。そして、部位領域推定部140は、基準線423からオメガ形状421を構成する画素までのY軸方向の画素数、つまり、オメガ形状421までの垂直距離を、垂直距離d(X)として取得する。オメガ形状421を構成する画素とは、例えば、デジタル信号「1」の画素のうち、基準線423から直近のものである。
そして、部位領域推定部140は、n個(nは正の整数)の垂直距離d(X)のデータをX座標に対応付けた距離ヒストグラムを生成する。
図7は、部位領域推定部140が図5に示すオメガ領域422に基づいて生成する距離ヒストグラムの一例を示す図である。
図7に示すように、部位領域推定部140は、XY座標系に、垂直距離d(X)をY軸の値として、垂直距離d(X)の分布を示す距離ヒストグラム430を生成する。距離ヒストグラム430は、肩部に対応する形状で盛り上がり、そのうち、頭部の中心部に対応する範囲で突出した形状となる。
そして、部位領域推定部140は、生成した距離ヒストグラム430に対して、所定の閾値Thを適用して、2値化処理を行う。具体的には、部位領域推定部140は、垂直距離d(X)が閾値Th以上となっているX座標のY座標値を、「1」に置き換え、垂直距離d(X)が閾値Th未満となっているX座標のY座標値を、「0」に置き換える。閾値Thは、オメガ領域422において、高い確率で、肩部上端の垂直距離d(X)よりも大きく、頭部上端の垂直距離d(X)よりも小さくなる値が設定される。なお、2値化処理はこれに限定されるものではなく、例えば、いわゆる大津の2値化(大津の手法)等、他の手法としても良い。
図8は、図7に示す距離ヒストグラム430を2値化処理した結果の一例である。
図8に示すように、「1」となる範囲441は、頭部の中央部分の画像領域(以下「頭領域」という)のX座標の範囲を示すことになる。また、「1」となる範囲441を含む全体の範囲442は、肩部の画像領域(以下「肩領域」という)のX座標の範囲を示すことになる。したがって、部位領域推定部140は、推定画像データの画像420のうち、オメガ領域422のX軸方向範囲を、肩領域のX軸方向範囲として抽出し、「1」となる範囲441のX軸方向範囲を、頭領域のX軸方向範囲として抽出する。
そして、部位領域推定部140は、抽出した肩領域および頭領域に基づいて、基準部位の位置および向きを示す各種パラメータを算出する。
図9は、基準部位を示す各種パラメータを説明するための図である。
ここで、部位領域推定部140は、図9に示すように、基準部位の位置を示す記号(括弧内はXY座標系におけるパラメータ)として、H(xh,yh)、RSE(x_rse)、RD(x_rd)、RS(x_rs,y_rs)、RSU(y_rsu)、およびLSを用いるものとする。Hは、頭部の重心位置である。RSEは、右肩の端部の位置である。RDは、頭部の重心から右肩の端部までのX軸方向の距離である。RSは、右肩の関節の位置(以下「右肩位置」という)である。RSUは、右肩の頂部の位置である。LSは、左肩の関節の位置(以下「左肩位置」という)である。
部位領域推定部140は、例えば、以下のようにして各パラメータの値を算出する。
まず、部位領域推定部140は、2値化処理の結果に基づいて抽出した肩領域から、人(の胴体)が単眼カメラ200側に向いているか否かに基づいて、右肩領域を決定する。部位領域推定部140は、頭領域の色情報の肌色成分が所定の閾値以上となっているか否かに基づいて、人が単眼カメラ200側に向いているか否かを判断する。ここでは、人は単眼カメラ200側に向いており、画像に向かって左側の肩領域が、右肩領域に決定されたものとする。
次に、部位領域推定部140は、右肩領域の重心位置を、右肩位置RS(x_rs,y_rs)として算出する。また、部位領域推定部140は、頭部の重心位置H(xh,yh)を算出し、重心位置H(xh,yh)と基のオメガ形状421とのY軸方向の距離(以下「頭部高さΔh」という)用いて、右肩位置RS(x_rs,y_rs)を算出しても良い。具体的には、部位領域推定部140は、例えば、頭部高さΔhに対して予め定められた比となる値を、頭部の重心位置Hから右肩位置RSまでのX軸方向の距離(xh−x_rs)とすれば良い。また、部位領域推定部140は、例えば、肩の高さから頭部高さΔhの半分の値Δh/2だけ低い位置を、右肩位置RSのY座標y_rsとしても良い。
更に、部位領域推定部140は、オメガ形状421のエッジの傾き(つまり距離ヒストグラムの変化率)が閾値を越えた点を、右肩の端部の位置RSE(x_rse)として算出する。そして、部位領域推定部140は、頭部の重心位置Hと右肩の端部の位置RSEとのX軸方向の距離RD(x_rd)を算出する。
最後に、部位領域推定部140は、頭部の重心位置HからX軸方向において距離RDの80%の位置に、右肩位置RSがあるものと推定する。すなわち、部位領域推定部140は、右肩位置RSのX座標x_rsを、 x_rs=x_rse+0.2×RD により算出する。また、部位領域推定部140は、右肩位置RSを通り垂直な直線(Y軸に並行な直線)とオメガ形状421のエッジとの交点を、右肩の頂部の位置RSU(y_rsu)として算出する。そして、部位領域推定部140は、右肩位置RSのY座標y_rsを、 y_rs=y_rsu−0.2×RD により算出する。
また、部位領域推定部140は、同様にして、左肩位置LSについても算出する。なお、各パラメータの算出手法は、上述の例に限定されるものではない。
次に、人の胴体の向きを推定する第2の処理について説明する。
部位領域推定部140は、基準部位対応テーブルを、予め保持している。基準部位対応テーブルは、頭部の重心位置Hと、右肩位置RSと、左肩位置LSとの組み合わせ(以下「基準部位の位置」という)と、その基準部位の位置から推定される身体の向き(以下「基準部位の向き」という)とを対応付けて記述したテーブルである。すなわち、基準部位テーブルは、各部位の相対的な位置関係を記述したテーブルである。なお、基準部位とは、上述の通り、人の頭部および肩部を示すオメガ形状の部分である。したがって、基準部位の向きとは、人の身体(胴体)の向きである。
部位領域推定部140は、推定画像データから算出した基準部位の位置に対応する基準部位の向きを、基準部位対応テーブルから導出する。
なお、保持された基準部位対応テーブルに記述される基準部位の位置、および、部位領域推定部140が推定画像データから算出する基準部位の位置は、人の画面上の大きさによらない正規化された値であることが望ましい。具体的には、部位領域推定部140は、例えば、頭部の重心位置Hを原点とし、頭部の重心位置Hと右肩位置RSまたは左肩位置LSとの間の長さが1となるように正規化した値を用いて、準部位の向きを導出する。
また、基準部位対応テーブルには、右肩位置RSおよび左肩位置LSが記述されていても良い。また、基準部位対応テーブルには、頭部の重心位置Hと右肩位置RSまたは左肩位置LSとを通る線と、頭部の重心位置Hを通る垂直な直線(以下「頭部垂直線」という)とが成す角が記述されていても良い。また、基準部位対応テーブルには、頭部の重心位置Hと右肩位置RSとの間の距離を1としたときの頭部の重心位置Hと左肩位置LSとの間の距離が記述されていても良い。部位領域推定部140は、基準部位対応テーブルに記述されたパラメータに対応するパラメータを算出することにより、基準部位の向きを導出する。
図10は、基準部位対応テーブルの内容の一例を示す図である。
図10に示すように、基準部位対応テーブル450は、識別子451に対応付けて、射影角度452、左肩位置LSの座標453、頭部の重心位置Hの座標454、および基準部位の向き455を記述する。各座標は、例えば、右肩位置RSを原点とし、画面の2次元座標系に平行な所定の2次元座標系を用いて表現される。射影角度452は、例えば、図2で説明した3次元座標系410のXZ平面に対する、この所定の2次元座標系の角度(つまり図2に示す設置角度θ)である。また、基準部位の向き455は、例えば、図2で説明した3次元座標系410のXYZ軸のそれぞれに対する回転角度で表される。
このようにして、部位領域推定部140は、基準部位の位置および向きを推定する。以上で基準部位推定処理の説明を終える。
次に、図4のステップS4400において、部位領域推定部140は、推定した基準部位の位置および向きに基づいて、指定部位毎に部位領域を推定する処理(以下「部位領域推定処理」という)を行う。
ここで、部位領域推定処理の詳細の一例について説明する。
部位領域推定部140は、部位領域対応テーブルを、予め保持している。部位領域対応テーブルは、基準部位の位置と向きと、他の部位の部位領域とを対応付けて記述したテーブルである。
部位領域推定部140は、推定画像データから推定した基準部位の位置および向きに対応する指定部位の部位領域を、部位領域対応テーブルから導出する。
部位領域は、例えば、推定画像データの画像の画素位置により定義される。したがって、部位領域推定部140は、推定画像データの画像全体の全ての画素について、各画素がいずれかの指定部位の部位領域に属する画素であるかを判断する。
図11は、部位領域対応テーブルの内容の一例を示す図である。
図11に示すように、部位領域対応テーブル460は、識別子461に対応付けて、頭肩領域(基準部位)の位置463、頭肩領域(基準部位)の向き464、および各部位の領域465を記述する。各位置および領域は、例えば、画像の2次元座標系の値で表される。射影角度462は、例えば、図2で説明した3次元座標系410のXZ平面に対する、この所定の2次元座標系の角度(つまり図2に示す設置角度θ)である。頭肩領域の位置463は、例えば、右肩位置RSである。頭肩領域の向き464は、例えば、図2で説明した3次元座標系410のXYZ軸のそれぞれに対する回転角度で表される。なお、識別子461が基準部位対応テーブル450の識別子451と共通である場合には、頭肩領域の向き464は、必ずしも部位領域対応テーブル460に記述されていなくても良い。各部位の領域465は、例えば、領域が円で近似される場合における、その円の中心座標と半径とにより表される。
なお、部位領域推定部140は、部位領域を求める際に、必ずしも部位領域対応テーブル460を用いなくても良い。例えば、部位領域推定部140は、基準部位対応テーブル450(図10参照)から導出された基準部位の向きから、他の各種の身体制約情報を用いて、各部位領域を、例えば基準部位からの接続順に動的に算出しても良い。身体制約情報は、各部位の位置に関する制約条件を含む情報である。
そして、部位領域推定部140は、推定画像データの画像全体の全ての画素について、画素毎に指定部位の部位領域であるか否かを示す情報を、部位領域データとして尤度マップ生成部150へ出力する。
部位領域データは、例えば、推定画像データの全ての画素位置(i,j)について、いずれかの指定部位の部位領域に該当するか否かを示す画素情報Kijを並べた構造を有し得る。画素情報Kijの各要素は、例えば、対応する指定部位の部位領域に属する場合には「1」を取り、属しない場合には「0」を取る。画素情報Kijは、例えば、Kij=[k1,k2]というように、指定部位の数と同数の次元を有する。ここでは、k1は右上腕の部位領域に対応し、k2は右前腕の部位領域に対応するものとする。
例えば、部位領域推定部140は、ある画素位置Kabが、右上腕の部位領域に含まれるが右前腕の部位領域には含まれないと判定した場合、Kab=[1,0]という画素情報を生成する。部位領域推定部140は、このように生成した各画素の画素情報の集合を、部位領域データとして生成する。
なお、部位領域データによる部位領域の表し方は、上述の例に限定されるものではない。例えば、部位領域データは、画像に予め設定された部分領域毎に、いずれの指定部位の部位領域に該当するかを示しても良いし、指定部位毎に部位領域の外縁の座標を示しても良い。
なお、基準部位の位置を正規化した位置が基準部位推定処理において用いられる場合には、部位領域対応テーブルには、正規化された基準部位に対応する部位領域が記述されていることが望ましい。また、部位領域データには、上述の基準部位対応テーブルの場合と同様に、右肩位置RSおよび左肩位置LS等の他の情報が記述されていても良い。部位領域推定部140は、部位領域対応テーブルに記述されたパラメータに対応するパラメータを算出することにより、各指定部位の部位領域を導出する。
図12は、部位領域データの内容の一例を示す図である。ここでは、説明の簡便化のため、直立状態にある場合の各部位の位置を併せて図示する。
図12に示すように、部位領域データは、推定画像データの画像420において、指定部位である右上腕の部位領域471と、指定部位である右前腕の部位領域472とを示す。これらの部位領域471、472は、上述の通り、先に推定された基準部位473の位置および向きを基準として推定されたものである。
このようにして、部位領域推定部140は、各指定部位の部位領域を推定する。以上で部位領域推定処理の説明を終える。
次に、図4のステップS4500において、尤度マップ生成部150は、指定部位毎に部位領域について尤度値を算出して推定尤度マップを生成する処理(以下「推定尤度マップ生成処理」という)を行う。
ここで、推定尤度マップ生成処理の詳細の一例について説明する。
まず、尤度マップ生成部150は、推定画像データから、指定部位の部位領域内の画素毎に、指定部位の位置および向きの状態を表すのに適した画像特徴量を判別して指定部位が位置することの尤もらしさを示す尤度値を算出する。そして、尤度マップ生成部150は、推定画像データから算出された尤度値を用いて、各画素の尤度値の分布を示す推定尤度マップを生成する。尤度値は、0〜1の範囲となるように正規化した値であっても良いし、正の整数や負の数を含む実数であっても良い。
画像から注目対象を認識する手法としては、例えば、矩形情報を基にした複数の弱識別器の総和をAdaBoostにより統合して強識別器を作成し、強識別器をカスケード接続させて、画像中の注目対象として顔を認識する技術を採用することができる。また、画像特徴量としては、例えば、SIFT(scale-invariant feature transform)特徴量を採用することができる(例えば、非特許文献2参照)。SIFT特徴量は、128次元のベクトルにより構成されており、画素毎に計算される値である。SIFT特徴量は、検出の対象となる物体のスケール変化、回転、および平行移動に影響を受けないため、特に、腕のように、様々な方向に回転し得る部位の検出に有効である。すなわち、SIFT特徴量は、姿勢状態を2つ以上の着目部位の相対的な関節の位置および角度によって定義する本実施の形態に好適である。
SIFT特徴量を用いた手法を本実施の形態に適用した場合、強識別器Hk(k=1,2)は、右上腕(k=1)、右前腕(k=2)等、部位領域毎に、予め機械学習により生成され、尤度マップ生成部150に保持される。識別器Hkは、AdaBoostアルゴリズムにより生成される。すなわち、強識別器Hkは、予め部位毎に用意されている複数の学習画像に対して、右上腕であるか否か、および、右前腕であるか否かが、所望の精度で判定できるまで学習が繰り返され、複数の弱識別器がカスケード接続されることによって生成される。
尤度マップ生成部150は、指定部位毎および画素毎に画像特徴量を算出すると、その画像特徴量を強識別器Hkに入力し、その強識別器Hkを構成する各弱識別器の出力に対して弱識別器毎に予め得られた信頼度αを乗算した値の総和を算出する。そして、尤度マップ生成部150は、算出した総和から所定の閾値Thを減算して、指定部位毎および画素毎の尤度値ckを算出する。ここでは、c1は右上腕の尤度値を示し、c2は右前腕の尤度値を示す。
尤度マップ生成部150は、各指定部位の尤度値を統合した画素毎の尤度値Cijを、Cij=[c1,c2]とする。そして、尤度マップ生成部150は、画像全体の全ての画素の尤度値Cijを、推定尤度マップとして、姿勢状態推定部160へ出力する。
尤度マップ生成部150は、各画素について、その画素がいずれかの部位領域に含まれるか否かを判断し、含まれればその部位の識別器を用いて尤度値を算出し、含まなければその部位の尤度値を0としても良い。換言すると、尤度マップ生成部150は、部位領域推定部140から出力された画素情報の行列式(Kij)と、部位領域とは無関係に算出した各画素の尤度値の行列式(Cij)とを積算した結果を、最終的な推定尤度マップとしても良い。
図13は、推定尤度マップの一例を示す図である。ここでは、推定尤度マップのうち1つの指定部位(例えば右上腕)の尤度値のみを表し、尤度値がより高い画素ほどより濃い網掛けを付している。図13に示すように、推定尤度マップ478は、指定部位が位置することの尤もらしさの分布を表す。
尤度マップの画素毎の情報は、例えば、部位kの尤度値をckと表し、指定部位がn個存在する場合には、尤度ベクトルCij=[c1,c2,…,ck,…,cn]というデータ構造となる。
このようにして、尤度マップ生成部150は、推定尤度マップを生成する。以上で推定尤度マップ生成処理の説明を終える。
次に、ステップS4600において、姿勢状態推定部160は、指定姿勢に対応する学習尤度マップを姿勢状態管理部110から取得する。そして、姿勢状態推定部160は、学習尤度マップと推定尤度マップとが一致するか否かを、その一致度が所定のレベル以上であるか否かに基づいて判断する一致度判定処理を行う。
ここで、一致度判定処理の詳細の一例について説明する。
姿勢状態推定部160は、まず、推定尤度マップおよび学習尤度マップをそれぞれ所定の閾値を用いて2値化する。具体的には、姿勢状態推定部160は、画素毎および指定部位毎の尤度値を、所定の閾値以上である場合はデジタル信号「0」に、所定の閾値未満である場合にはデジタル信号「1」に変換する。
図14は、図13に示す推定尤度マップを2値化した後の状態の一例を示す図である。ここでは、デジタル信号「1」の画素は灰色、デジタル信号「0」の画素は白色で表している。図14に示すように、2値化後の推定尤度マップ479は、指定部位が位置することの尤もらしさが高い部分の分布を表す。
そして、姿勢状態推定部160は、推定尤度マップと学習尤度マップとの間で、画素毎および指定部位毎に2値化された尤度値の積を取り、全ての画素および全ての指定部位についての値の和を、評価値とする。具体的には、姿勢状態推定部160は、推定尤度マップと学習尤度マップとを所定の位置関係で重ね、画素毎に2値化後の尤度値情報を掛け算し、掛け算した値の全ての画素および指定部位についての和を求める。
姿勢状態推定部160は、推定尤度マップと学習尤度マップとの重ね合わせの位置関係を、移動および回転によりずらしていき、各位置関係について上述の演算処理を行う。そして、姿勢状態推定部160は、求めた評価値のうちの最大値を、一致度を表す最終的な評価値として取得し、この評価値が所定の閾値以上であるとき、学習尤度マップと推定尤度マップとが一致すると判断する。閾値は、予め、学習等により適切な値が設定される。
なお、姿勢状態推定部160は、必ずしも推定尤度マップおよび学習尤度マップを2値化しなくても良い。この場合には、姿勢状態推定部160は、学習尤度マップと推定尤度マップとの一致度をより精度良く判定することができる。また、2値化した場合には、姿勢状態推定部160は、高速に一致度の判定を行うことができる。
このようにして、姿勢状態推定部160は、推定尤度マップと学習尤度マップとの一致度を判定する。以上で一致度判定処理の説明を終える。
姿勢状態推定部160は、学習尤度マップと推定尤度マップとが一致する場合(S4600:YES)、ステップS4700へ進む。また、姿勢状態推定部160は、学習尤度マップと推定尤度マップとが一致しない場合(S4600:NO)、ステップS4800へ進む。
ステップS4700において、姿勢状態推定部160は、情報出力装置300を介して、ユーザに対し、対象画像データに含まれる人の姿勢が指定姿勢である旨を通知して、図3の処理へ戻る。
ステップS4800において、姿勢状態推定部160は、情報出力装置300を介して、ユーザに対し、対象画像データに含まれる人の姿勢が指定姿勢でない旨を通知して、図3の処理へ戻る。なお、姿勢状態推定部160は、対象画像データから人が検出されない等、姿勢状態の判定を行う事ができない場合に、その旨を通知するようにしても良い。
なお、ステップS4700、S4800の通知は、文字表示、画像表示、音声出力、および振動出力等の、出力の有無もしくは出力内容の違いにより、行うことができる。
このような動作により、姿勢状態推定装置100は、部位領域を推定して、指定部位毎の尤度の分布を示す推定尤度マップを生成することができる。そして、姿勢状態推定装置100は、生成した推定尤度マップと指定姿勢に対応付けられた学習尤度マップとを比較することにより、姿勢状態の推定を行うことができる。
図15は、指定姿勢であると判定される場合の一例を示す図である。
図15(A)に示すように、学習画像480において、「直立姿勢」という手足および背筋を伸ばした姿勢状態に対応付けて、人481の全身の部位が指定されていたとする。この場合、比較の対象となる部位領域482は、全身を包含する範囲となる。
そして、図15(B)に示すように、推定フェーズにて、推定画像490に対して「直立姿勢」が指定された場合を想定する。この場合、指定部位は人491の全身の部位となり、比較の対象となる部位領域492は、全身を包含する範囲となる。図15(A)に示す学習画像480に基づく部位領域482の学習尤度マップと、推定画像490に基づく部位領域492の推定尤度マップとは、相対的に移動および回転させたとき、一致する。したがって、姿勢状態推定装置100は、学習画像480に含まれる人が「直立姿勢」という姿勢状態にあると判定することができる。
図16は、指定姿勢であると判定される場合の他の例を示す図である。
図16(A)に示すように、学習画像480において、「右腕が曲がっている」という姿勢状態に対応付けて、人481の右上腕および右前腕が指定されていたとする。この場合、比較の対象となる部位領域482は、右上腕および右前腕を包含する範囲となる。
そして、図16(B)〜(E)に示すように、推定フェーズにて、推定画像490に対して「右腕が曲がっている」が指定された場合を想定する。この場合、指定部位は人491の右上腕および右前腕となり、比較の対象となる部位領域492は、右上腕および右前腕を包含する範囲となる。図16(A)に示す学習画像480に基づく部位領域482の学習尤度マップと、推定画像490に基づく部位領域492の推定尤度マップとは、相対的に移動および回転させたとき、一致する。したがって、姿勢状態推定装置100は、学習画像480に含まれる人が「右腕が曲がっている」という姿勢状態にあると判定することができる。
図16(B)〜図16(E)の各推定画像490の人491の外形は、それぞれ図16(A)の学習画像480の人481の外形と大きく異なっている。したがって、上述の従来技術では、図16(B)〜図16(E)の推定画像490に対して、「右腕が曲がっている」という姿勢状態にないと判定してしまう。これに対し、本実施の形態に係る姿勢状態推定装置100は、上述の通り、姿勢状態推定を的確に行うことができる。
また、本実施の形態に係る姿勢状態推定装置100は、図16(B)〜図16(E)のように右腕以外の部位の姿勢が異なっていても、「右腕が曲がっている」という姿勢状態であると判定することができる。すなわち、姿勢状態推定装置100は、指定部位にのみ着目した姿勢を、他の部位の姿勢に関係なく抽出することができる。
以上のように、本実施の形態に係る姿勢状態推定装置100は、部位毎の尤度の分布を示す尤度マップを用いるので、人の姿勢状態を高精度に推定することができる。また、姿勢状態推定装置100は、部位領域を推定し、部位領域以外の領域については尤度値を低くした推定尤度マップを生成するので、尤度マップの精度を向上させ、姿勢状態推定を更に高精度に行うことができる。
なお、以上説明した実施の形態1では、姿勢状態推定装置100は、具体的に指定されたある姿勢状態のみについて推定を行うようにしたが、複数の姿勢状態のうちどの姿勢状態に一致するかを推定するようにしても良い。この場合には、例えば、姿勢状態推定装置100は、姿勢状態管理部110に対応する学習尤度マップが格納されている全ての姿勢状態を、指定姿勢として取り扱えば良い。また、姿勢状態推定装置100は、いずれの姿勢状態も指定されずに姿勢状態推定の実行を指示された場合に、全ての姿勢状態を指定姿勢として取り扱うようにしても良い。
また、姿勢状態推定に用いられる画像データは、ステレオカメラまたは複数のカメラによって撮影された画像のデータであっても良い。ステレオカメラの画像データを用いる場合には、姿勢状態推定装置100は、片方のカメラによって撮像された画像データと、ステレオカメラの設置パラメータから得られる被写体の位置情報とを用いても良い。また、複数のカメラの画像データを用いる場合には、姿勢状態推定装置100は、それらのうち一台のカメラによって撮像された画像データと、各カメラの設置パラメータから得られる被写体の位置情報とを用いても良い。
また、部位領域推定部140は、基準部位の位置および向きが既知である場合や指定される場合には、上述の基準部位推定処理を行わなくても良い。また、部位領域推定部140は、例えば人の歩行する方向が決まっており、基準部位の向きがほぼ一定である場合には、身体の向き情報を保持しておいても良い。
また、部位領域推定部140が行う部位領域の推定の手法は、上述の例に限定されない。例えば、部位領域推定部140は、推定画像データから画像のエッジ部分(以下、単に「エッジ」という)を抽出し、エッジにより囲まれた領域のY座標の値の範囲に基づいて、各部位領域を推定しても良い。具体的には、例えば、部位領域推定部140は、エッジにより囲まれた領域において、Y座標の値が最も高い位置から20%までの領域を頭部の部位領域というように推定する。同様に、例えば、部位領域推定部140は、15%から65%までの領域を胴の部位領域、55%から85%までの領域を膝上の部位領域、75%から100%までの領域を膝下の部位領域というように推定する。
また、推定画像データが動画像データを構成する静止画像データである場合には、部位領域推定部140は、画像間で背景差分を取ることにより動体を抽出し、抽出した領域を含む領域全体を、各部位の部位領域の候補としても良い。これにより、部位領域を推定する際の処理の高速化を図ることができる。
また、姿勢状態推定装置100は、基準部位から近い順に1つずつ部位の位置を推定し、推定した位置に基づいて次の部位の部位領域を推定するという処理を繰り返すことにより、各着目部位の部位領域を推定するようにしても良い。
また、姿勢状態推定部160は、学習尤度マップに、その学習尤度マップの基となった画像の光軸方向に関する情報が対応付けられている場合には、単眼カメラ200の設置角度θに対応する学習尤度マップを比較対象とするようにしても良い。
また、姿勢状態推定装置100は、必ずしも部位領域推定を行わなくても良い。この場合には、尤度マップ生成部150は、画像の全ての領域に対して均一に、尤度値の算出を行うことになる。
また、姿勢状態推定装置100が扱う尤度マップの種類は、上述の例により生成される尤度マップに限定されない。例えば、推定尤度マップおよび学習尤度マップは、エッジから平行線を抽出することにより生成されるものであっても良い。
この場合、尤度マップ生成部150は、例えば、肩関節の長さと各部位の標準的な太さの値とを対応付けた対応テーブルを予め備えておく。尤度マップ生成部150は、部位領域内に、その部位の標準的な太さに相当する距離で離隔する平行線の組を、判定する方向を360度回転させながら検索する。そして、尤度マップ生成部150は、該当する平行線の組が存在する場合に、それらの平行線によって囲まれた領域の各画素に対して投票を行う処理を繰り返し、最終的な各画素の投票数に基づいて推定尤度マップを生成する。
このような手法の場合、推定尤度マップおよび学習尤度マップは、画素毎および指定部位毎に、平行線の方向と投票数(以下「方向の尤度値」という)とを含むことになる。例えば、平行線の角度を8つに分類した場合、画素毎および指定部位毎の尤度値は、8方向に対応した8次元の値となる。更に、例えば、平行線の幅を2つに分類した場合、画素毎および指定部位毎の尤度値は、2×8=16次元の値となる。なお、投票の対象となる平行線の距離や角度は、部位毎に異なっていても良い。平行線の幅を複数求めて、そのうちの尤度値が尤も高くなる幅の尤度値を用いることにより、体型や服装の違いを吸収して、尤度を求めることができる。
そして、尤度マップ生成部150は、例えば、指定部位毎に、方向の尤度値が最も高い方向を、その指定部位の主要なエッジ方向と判定する。このとき、姿勢状態推定部160は、方向毎に全画素の尤度値の合計値を取り、その合計値が最も高い方向を、方向の尤度値が最も高い方向であると判定しても良い。
そして、姿勢状態推定部160は、指定部位毎に、それぞれの主要なエッジ方向が一致するように推定尤度マップと学習尤度マップとを重ね合わせて、一致度を算出する。以降の処理は、本実施の形態で既に説明した手法と同様である。
このように、エッジの方向を考慮した手法は、推定尤度マップと学習尤度マップとの重ね合わせの位置関係に制約を加えることができるので、処理負荷を軽減することができる。
なお、推定尤度マップと学習尤度マップとの一致度を算出する際に、エッジ方向の情報のみを用いても良い。この場合、例えば、姿勢状態推定部160は、複数の指定部位間で各指定部位のエッジ方向が成す角の一致度を、推定尤度マップと学習尤度マップとの一致度を表す評価値とする。そして、姿勢状態推定部160は、評価値が所定の範囲内であるとき、対象画像データに含まれる人の姿勢が指定姿勢であると判定する。
このように、エッジ方向のみを用いて一致度を判定する手法は、画像を回転させながら複数の評価値を繰り返し算出する処理を不要とすることができるため、処理負荷を更に低減することができる。
(実施の形態2)
本発明の実施の形態2は、姿勢状態推定装置において、学習尤度マップの生成を併せて行うようにした例である。本実施の形態に係る姿勢状態推定装置は、姿勢状態の推定を行う推定フェーズ処理の他に、学習尤度マップを生成する学習フェーズ処理を行う。
図17は、本発明の実施の形態2に係る姿勢状態推定装置の構成の一例を示すブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
図17に示すように、本実施の形態に係る姿勢状態推定装置100aは、実施の形態1とは異なる尤度マップ生成部150aを有する。
本実施の形態における画像データ取得部130および部位領域推定部140は、学習フェーズにおいて入力される画像データ(以下「学習画像データ」という)に対しても、推定画像データに対する処理と同様の処理を行い、部位領域の推定を行う。
また、本実施の形態における姿勢状態指定部120は、学習フェーズにおいても、姿勢状態および部位の指定を受け付け、指定姿勢および指定部位を出力する。
尤度マップ生成部150aは、学習フェーズにおいても、学習画像データに対し、推定画像データに対する処理と同様の処理を行い、部位領域に対応する指定部位が位置することの尤もらしさを低くした尤度マップを生成する。但し、尤度マップ生成部150aは、学習画像データから生成した尤度マップを、学習尤度マップとして、その指定姿勢および指定部位と対応付けて、姿勢状態管理部110に格納する。また、尤度マップ生成部150aは、学習画像データから生成した尤度マップについては、姿勢状態推定部160へ出力しない。
このような姿勢状態推定装置100aは、学習画像データの入力と姿勢状態および部位の指定を受けて、学習尤度マップを生成し、生成した学習尤度マップを用いて対象画像データに対する姿勢状態推定を行うことができる。
次に、姿勢状態推定装置100aの動作について説明する。
図18は、姿勢状態推定装置100aの動作の一例を示すフローチャートであり、実施の形態1の図3に対応するものである。図3と同一部分には同一ステップ番号を付し、これについての説明を省略する。
まず、ステップS1000aにおいて、部位領域推定部140は、姿勢状態学習の指示があったか否かを判断する。姿勢状態学習とは、つまり、学習尤度マップの生成である。部位領域推定部140は、例えば、学習フェーズにあるときに、姿勢状態指定部120において新たな姿勢状態の指定が行われたときや、画像データ取得部130に新たな推定画像データが入力されたときに、姿勢状態推定の指示があったと判断する。学習フェーズと推定フェーズとの切り替えは、例えば、キーボード等の入力装置(図示せず)を介してユーザから所定の操作を受け付けることにより行われる。部位領域推定部140は、姿勢状態学習の指示があった場合(S1000a:YES)、ステップS2000aへ進む。また、部位領域推定部140は、姿勢状態学習の指示がない場合(S1000a:NO)、実施の形態1で説明したステップS3000〜S5000の処理へ進む。
ステップS2000aにおいて、姿勢状態推定装置100は、姿勢状態の学習を行う学習フェーズ処理を実行して、実施の形態1で説明したステップS3000〜S5000の処理へ進む。
図19は、学習フェーズ処理(図18のステップS2000a)の一例を示すフローチャートである。
ステップS2100aにおいて、姿勢状態指定部120は、ユーザから姿勢状態の指定を受け付けて指定姿勢を取得し、指定姿勢に対応する指定部位を取得する。なお、指定姿勢に対応して、少なくとも1回は、指定部位の外部からの指定が行われる必要がある。姿勢状態指定部120は、指定姿勢と指定部位との組を記憶しておき、2回目以降は指定姿勢から自動的に指定部位を決定するようにし、部位の指定の受け付けを省略するようにしても良い。
そして、ステップS2200aにおいて、部位領域推定部140は、画像データ取得部130を介して、単眼カメラ200から学習画像データを取得する。学習画像データは、画単眼カメラ200において連続的にリアルタイムで撮影された動画像データを構成する静止画像データでも良いし、予め撮影されて保存されていた画像データであっても良い。また、学習画像データは、実際の人を撮影した画像のデータではなく、コンピュータ上のCG(computer graphics)ソフトウェアなどで作成した画像のデータであっても良い。特に、モーションキャプチャソフトウェアの画像データは、人の3次元姿勢情報を同時に取得可能であるため、学習尤度マップを生成する際の利便性を向上させることができる。
そして、ステップS2300aにおいて、部位領域推定部140は、学習画像データに対し、実施の形態1で説明した基準部位推定処理と同様の処理を行い、基準部位を推定する。
そして、ステップS2400aにおいて、部位領域推定部140は、学習画像データに対し、実施の形態1で説明した部位領域推定処理と同様の処理を行い、指定部位毎に部位領域を推定する。
そして、ステップS2500aにおいて、尤度マップ生成部150aは、学習画像データに対し、実施の形態1で説明した推定尤度マップ生成処理と同様の処理を行い、指定部位毎に部位領域について尤度値を算出して、学習尤度マップを生成する。
そして、ステップS2600aにおいて、尤度マップ生成部150aは、生成した学習尤度マップを、指定部位および指定姿勢に対応付けて、姿勢状態管理部110に記憶させ、図18の処理へ戻る。
なお、尤度マップ生成部150aは、複数の学習画像データに対して同一の姿勢状態が指定される場合、つまり、指定姿勢が同一の学習尤度マップが複数存在する場合には、尤度値の平均値から成る学習尤度マップを、姿勢状態管理部110に記憶させても良い。
このような動作により、姿勢状態推定装置100aは、学習画像データの入力と姿勢状態および部位の指定を受けて、学習尤度マップを生成し、記憶しておくことができる。この結果、例えば、実施の形態1の図16(A)に示す部位領域482に基づいて学習尤度マップが生成され、「右腕が曲がっている」という姿勢状態と、「右上腕」および「右前腕」という部位とに対応付けて記憶される。
以上のように、本実施の形態に係る姿勢状態推定装置100aは、姿勢状態毎に、部位毎の尤度の分布を示す学習尤度マップを生成し、生成した学習尤度マップを用いるので、人の姿勢状態を高精度に推定することができる。
例えば、実施の形態1で説明したように、上述の従来技術では、図16(B)〜図16(E)の推定画像490に対して、「右腕が曲がっている」という姿勢状態にないと判定してしまう。従来技術においてこれを防ぐためには、図16(B)〜図16(E)に示される全ての外形について、学習画像を用意し、学習尤度マップを生成しなければならない。このような網羅的な学習は、手間と時間が掛かる。また、記憶されている学習尤度マップの数が増えると、一致度判定にも時間が掛かる。これに対し、本実施の形態に係る姿勢状態推定装置100aを用いる場合には、上述の通り図16(A)に示す学習画像480に対する学習で済み、学習尤度マップの数も抑えることができる。
なお、姿勢状態推定装置100aは、実施の形態1で説明したエッジ方向に基づく推定尤度マップ等、他の手法により生成される推定尤度マップを用いる場合には、対応する手法により、学習尤度マップを生成するものとする。
また、本発明の適用は、実施の形態1および実施の形態2において説明した人の姿勢状態推定に限定されるものではない。本発明は、ロボット等の、関節により接続された複数の部位を有する各種の物体の姿勢状態推定に対しても適用することができる。
以下、更に凹凸マップを用いて姿勢推定を行う例を、本発明の実施の形態3として説明する。ここで、凹凸マップとは、画像を、画像に映し出された被写体の面を凹凸で区分したマップである。
(実施の形態3)
図20は、本発明の実施の形態3に係る姿勢状態推定装置の要部構成を示すブロック図であり、実施の形態1の図1の姿勢状態推定装置100に対応するものである。なお、図20において、図1と共通する構成部分には、図1と同一の符号を付して説明を省略する。
図20の姿勢状態推定装置100bは、図1の構成に加えて、更に、凹凸マップ推定部145bを有する。
凹凸マップ推定部145bは、各部位の凹凸マップを生成する。より具体的には、凹凸マップ推定部145bは、尤度マップ生成部150から、推定尤度マップおよび推定画像データを入力する。そして、凹凸マップ推定部145bは、入力した情報に基づいて凹凸マップを生成し、生成した凹凸マップを、姿勢状態推定部160bへ出力する。凹凸マップの生成手法の詳細については、後述する。以下、推定画像データから生成された凹凸マップは、「推定凹凸マップ」という。
姿勢状態推定部160bは、学習尤度マップに加えて、姿勢状態毎に、その姿勢状態にある基準モデルから学習された凹凸マップ(以下「学習凹凸マップ」という)を、予め保持している。そして、姿勢状態推定部160bは、推定尤度マップと学習尤度マップとの一致度に加えて、推定凹凸マップと学習凹凸マップとの一致度に基づいて、被写体の姿勢状態の推定を行う。すなわち、姿勢状態推定部160bは、実施の形態1の動作に加えて、推定凹凸マップと学習凹凸マップとのマッチングを更に行う。
まず、凹凸マップについて説明する。
凹凸マップ推定部145bは、画像上の部位の明るさ情報から部位の面の向きを推定する。ここで、明るさとは、例えば、輝度のレベルであり、明るさ情報とは、輝度または輝度のレベルを示す情報である。
図21は、人の姿勢と各部位の明るさとの関係を説明するための図である。
図21Aに示す第1の姿勢と図21Bに示す第2の姿勢は、異なる姿勢であるにもかかわらず、図21Cに示すように、正面から見たときのシルエットが同一であるとする。この場合、正面画像のエッジからなる領域情報からだけでは、対象人物の姿勢が第1の姿勢であるか第2の姿勢であるかを、正しく推定することができない。
例えば、図21Cに示すシルエットから、右腕の長さが左腕の長さよりも短いことが分かるため、右肘が曲がっている可能性が高いことが推測できる。ところが、身体制約を満たす曲げ方には、バリエーションがある。また、図21Aや図21Bに示すように、右腕全体の角度にもバリエーションがある。
また、例えば、図21Cに示すシルエットから、左脚の長さが左腕の長さよりも短いことが分かるため、左膝が曲がって可能性があることが推測できる。ところが、図21Aや図21Bに示すように、左膝が曲がっている場合と伸びている場合とがあり得る。
上腕と前腕との区切りや膝上と膝下との区切りの位置(つまり関節)を推定することができれば、対象人物の姿勢が上述のバリエーションのどれなのかを推定することができる。ところが、図21Cのように腕や脚が直線に見える姿勢の場合、エッジからなる領域情報からだけでは、身体制約を用いたとしても、かかる区切りの位置を推定することは難しい。
そこで、このような領域情報だけからでは関節位置(各部位の区切り)が特定できない姿勢に対応するため、姿勢状態推定装置100bは、領域情報に加えて、明るさ情報を用いて部位領域を推定する。
図21Dは、上からの自然光を光源とするときの、第1の姿勢を正面から撮影した場合の各部位の明るさを、濃度で示す図である。図21Eは、上からの自然光を光源とするときの、第2の姿勢を正面から撮影した場合の各部位の明るさを、濃度で示す図である。ここでは、濃度が高いほど、明るさがより低い(より暗い)ことを示す。また、明るさとして、暗い方のレベルから順に、「−2,−1,0,1,2」の5段階のレベルが定義されているものとする。レベル「0」は、例えば、地面に対して垂直方向の面の明るさのレベルである。
画像の各領域の明るさレベルは、より上を向いている面の領域ほど明るくなり、逆に、より下を向いている面の領域ほど暗くなる。
例えば、図21のDおよび図21のEに示すように、第1および第2の姿勢の両方において、頭、胴、左腕の領域は、レベル「0」となり、右脚の領域は、やや暗いレベル「−1」となる。
第1の姿勢においては、右上腕は垂直に降ろされ、右前腕は前に伸びているため、図21のDに示すように、右上腕の領域はレベル「0」となり、右前腕の領域はレベル「2」となる。これに対し、第2の姿勢においては、右上腕は後に引かれ、右前腕は下に向いているため、図21Eに示すように、右上腕の領域はレベル「−2」となり、右前腕の領域はレベル「2」となる。
また、第1の姿勢においては、左足は全体は前に伸びているため、図21Dに示すように、左膝上および左膝下の領域はレベル「1」となる。これに対し、第2の姿勢においては、左大腿は上に上げられ、左膝は後ろに向いているため、図21Eに示すように、左大腿の領域はレベル「2」となり、左膝の領域はレベル「−2」となる。
このように、各部位は、同じ明るさの面として捉えることができる。したがって、画像上の部位の明るさ情報から、部位の位置を推定することができる。
次に、以上のように構成された姿勢状態推定装置100bの動作について、図22の処理フローを用いて説明する。なお、図22において、実施の形態1の図4と共通するステップは、図4と同一のステップ番号を付し、その説明を省略する。
推定尤度マップが生成されると(S4500)、処理は、S4510bへ進む。
S4510bにおいて、凹凸マップ推定部145bは、推定凹凸マップ生成処理を行う。推定凹凸マップ生成処理は、S4200で取得された推定画像データと、S4500で生成された推定尤度マップとから、推定凹凸マップを生成する処理である。
図23は、凹凸マップ生成処理(図22のステップS4510b)の処理フローを示す図である。
推定凹凸マップの画素毎の情報は、例えば、部位kの尤度をpkと表し、部位がn個存在する場合には、凹凸ベクトルOij=[p1,p2,…,pk,…,pn]というデータ構造となる。pkは2値情報であり、pkの値は、例えば、部位kである可能性が無いことを示す0、および、部位kである可能性があることを示す1のいずれかを取る。
S6100bにおいて、凹凸マップ推定部145bは、処理の対象となる部位を1つ選択する。例えば、右腕を凹凸マップ生成処理の対象とする場合、凹凸マップ推定部145bは、まず、基幹部位から一番離れた右前腕を選択する。
そして、S6200bにおいて、凹凸マップ推定部145bは、S4500で生成された推定尤度マップから、S6100bで選択した部位の領域(以後、部位尤度領域とよぶ)を取得する。ここでは、推定尤度マップ上の右前腕の尤度が所定の閾値を超える画素を抽出し、右前腕の部位尤度領域とする。
そして、S6300bにおいて、凹凸マップ推定部145bは、S4200で取得された推定画像データから、S6200bで抽出した部位尤度領域の、明るさ情報を抽出する。明るさ情報は、例えば、推定画像データを構成する各画素のRGB値から輝度(画素の明るさ)のみを抽出したグレースケール(白黒階調の)画像へと変換することにより、抽出することができる。
そして、S6400bにおいて、凹凸マップ推定部145bは、S6300bで求めた部位尤度領域の明るさ情報を、明るさの閾値を用いてグルーピングする。凹凸マップ推定部145bは、明るさの閾値を、あらかじめ設定された固定値としても良いし、動的に設定しても良い。ここでは、閾値を動的に設定する手法の一例について説明する。
図24は、右前腕の身体制約を用いたエリア分類の手法を説明するための図である。説明を簡略化するために、胴には右腕しかないものとして説明する。
図22のステップS4300では、例えば、推定された右肩位置500bを基準として、頭肩領域とこれに接続する胴領域501bが推定される。この場合、右上腕と右前腕が存在可能な領域は、領域502bのようになり、右前腕のみ存在可能な領域は、領域503bのようになる。領域502b、503bは、例えば、図11に示す部位領域対応テーブルから算出することができる。
凹凸マップ推定部145bは、まず、右前腕の部位尤度領域のうち、右前腕のみ存在可能な領域503bから、当該領域に存在する画素の輝度値(明るさ情報)を抽出する。
そして、凹凸マップ推定部145bは、対象画素の総数mのa%をn個とすると、抽出した輝度値のデータから、小さいものから順にn個と、大きいものから順にn個とを除く。更に、凹凸マップ推定部145bは、これら2n個のデータを除いた後のデータ(データの数はm−2n)の最小値および最大値を、右前腕の明るさ情報の閾値(右前腕として扱う輝度値の範囲の上限値と下限値)とする。ここで、aは、あらかじめ設定された値である。
そして、凹凸マップ推定部145bは、例えば、右前腕の部位尤度領域のうち、この閾値に当てはまる(つまり、右前腕として扱う輝度値の範囲内である)画素の凹凸ベクトルOijのうち、右前腕を示す値に、右前腕である可能性があることを示す値(例えば1)を設定する。
このように、凹凸マップ推定部145bは、身体制約により右前腕しか存在しない部位尤度領域の明るさ情報のみを用いて、輝度値の閾値を設定する。これにより、凹凸マップ推定部145bは、他の部位の影響を受けずに、右前腕の明るさ情報を持つ画素を特定することができる。
次に、凹凸マップ推定部145bは、右前腕の部位尤度領域のうち、右上腕と右前腕のみ存在可能な領域502bから、画素の輝度値(明るさ情報)を抽出する。
そして、凹凸マップ推定部145bは、抽出した輝度値のデータの中から、前ステップで求めた右前腕の明るさ情報の閾値に当てはまるものを削除する。そして、凹凸マップ推定部145bは、残った輝度値のデータの総数pのb%をq個とすると、抽出した輝度値のデータから、小さいものから順にq個と、大きいものから順にq個とを除く。更に、凹凸マップ推定部145bは、これら2q個のデータを除いた後のデータ(データの数はp−2q)の最小値および最大値を、右上腕の明るさ情報の閾値(右前腕として扱う輝度値の範囲の上限値と下限値)とする。ここで、bの値は、あらかじめ設定された値である。
そして、凹凸マップ推定部145bは、例えば、右前腕の部位尤度領域のうち、この閾値に当てはまる(つまり、右上腕として扱う輝度値の範囲内である)画素の凹凸ベクトルOijの、右上腕を示す値に、右上腕である可能性があることを示す値(例えば1)を設定する。
このように、凹凸マップ推定部145bは、身体制約により右上腕と右前腕しか存在しない部位尤度領域の明るさ情報のデータから、右前腕として扱う輝度値の範囲内のデータを除いて閾値を設定する。これにより、凹凸マップ推定部145bは、他の部位の影響を受けずに右上腕の明るさ情報を持つ画素を特定し、右上腕の明るさ情報を持つ画素を精度良く特定することができる。
このように、凹凸マップ推定部145bは、基幹部位から離れた部位から順に、その部位だけ存在する領域の明るさ情報を用いて明るさ情報の閾値を設定していき、部位ごとの明るさ情報をグルーピングして領域を推定する。
なお、右前腕のみ存在可能な領域503bに、右前腕の部位尤度領域がない場合もあり得る。このような場合、凹凸マップ推定部145bは、例えば、右前腕と右上腕の部位尤度領域のうち、右上腕と右前腕のみ存在可能な領域502bに存在する画素の輝度情報を抽出し、右前腕と右上腕の2グループに分類する処理を行っても良い。そして、凹凸マップ推定部145bは、例えば、大津の2値化を用いて、上述の閾値を設定する。これにより、凹凸マップ推定部145bは、右前腕のみ存在可能な領域503bに右前腕の部位尤度領域がない場合にも、右上腕と右前腕の明るさ情報の閾値を設定することができる。
また、右前腕のみ存在可能な領域503bで右前腕の明るさ情報を設定した後、右上腕と右前腕のみ存在可能な領域502bにもかかわらず、右前腕と異なる明るさ情報の画素がないために、右前腕と異なる閾値が設定できない場合もあり得る。このような場合、凹凸マップ推定部145bは、例えば、右上腕の明るさ情報に対して、右前腕と同じ値を設定しても良い。これにより、凹凸マップ推定部145bは、右上腕と右前腕の面の向きが似ている場合(真っ直ぐに伸びている場合)にも、右上腕の明るさ情報を設定することができる。
図23のS6500bにおいて、凹凸マップ推定部145bは、凹凸マップ生成処理の対象となる部位の全てについて処理したかを判断する。例えば、左腕に関しても推定凹凸マップを生成する場合には、凹凸マップ推定部145bは、S6100bに戻り、左腕に関して、右腕と同様の処理を行う。
そして、凹凸マップ推定部145bは、生成した推定凹凸マップを、姿勢状態推定部160bへ出力する。
図22のS4600bにおいて、姿勢状態推定部160bは、学習尤度マップと推定尤度マップとのマッチングを行い、その後、学習凹凸マップと推定凹凸マップとのマッチングを行う。そして、姿勢状態推定部160bは、推定尤度マップが、いずれかの学習尤度マップと一致するか否かを、実施の形態1と同様に判断する。
より具体的には、姿勢状態推定部160bは、凹凸マップの尤度の値が2値の場合には、推定凹凸マップと学習凹凸マップとの間で、画素ごとに、尤度の一致度を評価する。例えば、姿勢状態推定部160bは、全画素に関して、識別子が一致する画素をカウントし、カウント値が最も大きい学習凹凸マップに対して、推定凹凸マップとの一致度が高いと判断する。なお、姿勢状態推定部160bは、尤度マップと同様に、サイズが異なる場合には、画像領域に対する拡大縮小処理を行ってからマッチングを行っても良い。
図21で説明したように、学習尤度マップは同一であっても、学習凹凸マップが異なるような姿勢状態もあり得る。したがって、学習尤度マップだけでなく、学習凹凸マップとのマッチングを併せて行うことにより、より正確な姿勢状態推定が可能となる。
このように、本実施の形態に係る姿勢状態推定装置100bは、凹凸マップを生成し、凹凸マップのマッチングを併用するので、姿勢推定の精度を更に向上させることができる。
なお、本実施の形態は、実施の形態2に係る姿勢状態推定装置100aに適用しても良い。すなわち、学習尤度マップの生成と同様に、学習凹凸マップを生成するようにしても良い。
2010年12月9日出願の特願2010−274673の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る姿勢状態推定装置および姿勢状態推定方法は、関節を有する物体の姿勢状態を高精度に推定することができる姿勢状態推定装置および姿勢状態推定方法として有用である。
100、100a、100b 姿勢状態推定装置
110 姿勢状態管理部
120 姿勢状態指定部
130 画像データ取得部
140 部位領域推定部
145b 凹凸マップ推定部
150、150a 尤度マップ生成部
160、160b 姿勢状態推定部
200 単眼カメラ
300 情報出力装置

Claims (7)

  1. 関節により接続された複数の部位を有する物体である人を撮影した画像データに基づいて前記人の姿勢状態の推定を行う姿勢状態推定装置であって、
    前記画像データから前記人の頭部および肩部の位置を検出し、検出された前記位置に基づいて、前記複数の部位のうち少なくとも2つの部位の前記画像データにおける可動範囲を、その部位の部位領域として推定する部位領域推定部と、
    前記画像データから、前記部位領域について、前記部位領域に対応する各部位が位置することの尤もらしさの分布を示す尤度マップを生成する尤度マップ生成部と、
    前記姿勢状態に予め対応付けられた前記尤度マップである学習尤度マップと、前記画像データに基づいて生成された前記尤度マップである推定尤度マップとの一致度が高いとき、当該学習尤度マップと対応付けられた前記姿勢状態を、前記人の姿勢状態として推定する姿勢状態推定部と、を有する、
    姿勢状態推定装置。
  2. 前記尤度マップ生成部は、
    前記部位領域以外の領域については、前記部位領域に対応する各部位が位置することの尤もらしさを低くした前記推定尤度マップを生成する、
    請求項1記載の姿勢状態推定装置。
  3. 前記推定の対象となる前記姿勢状態の指定を受け付ける姿勢状態指定部、を更に有し、
    前記姿勢状態推定部は、
    前記推定の対象として指定された前記姿勢状態に対応付けられた前記学習尤度マップと前記推定尤度マップとの一致度が高いとき、前記人の姿勢状態が指定された前記姿勢状態である旨の通知を行う、
    請求項1記載の姿勢状態推定装置。
  4. 前記姿勢状態指定部は、
    前記学習尤度マップの生成の指示と、前記生成の対象となる前記姿勢状態の指定とを受け付け、
    前記尤度マップ生成部は、
    前記学習尤度マップの生成が指示されたとき、所定の画像に基づいて前記学習尤度マップを生成し、
    生成された前記学習尤度マップを、指定された前記姿勢状態に対応付けて格納する姿勢状態管理部、を更に有する、
    請求項3記載の姿勢状態推定装置。
  5. 前記尤度マップ生成部は、
    前記画像データに含まれる平行線に基づいて、前記尤度マップを生成し、
    前記姿勢状態推定部は、
    前記平行線から取得される前記推定尤度マップの主要なエッジ方向と、前記学習尤度マップの主要なエッジ方向とを用いて、一致度を算出する、
    請求項1記載の姿勢状態推定装置。
  6. 前記画像データの画像における被写体の面を凹凸で区分したマップである凹凸マップを生成する凹凸マップ推定部、を更に有し、
    前記姿勢状態推定部は、
    更に、前記姿勢状態に予め対応付けられた前記凹凸マップである学習凹凸マップと、前記画像データに基づいて生成された前記凹凸マップである推定尤度マップとの一致度に基づいて、前記人の姿勢状態を推定する、
    請求項1記載の姿勢状態推定装置。
  7. 関節により接続された複数の部位を有する物体である人を撮影した画像データに基づいて前記人の姿勢状態の推定を行う姿勢状態推定方法であって、
    部位領域推定部は、前記画像データから前記人の頭部および肩部の位置を検出し、検出された前記位置に基づいて、前記複数の部位のうち少なくとも2つの部位の前記画像データにおける可動範囲を、その部位の部位領域として推定し、
    尤度マップ生成部は、前記画像データから、前記部位領域について、前記部位領域に対応する各部位が位置することの尤もらしさの分布を示す尤度マップを生成し、
    姿勢状態推定部は、前記姿勢状態に予め対応付けられた前記尤度マップである学習尤度マップと、前記画像データに基づいて生成された前記尤度マップである推定尤度マップとの一致度が高いとき、当該学習尤度マップと対応付けられた前記姿勢状態を、前記人の姿勢状態として推定する、
    姿勢状態推定方法。
JP2012547682A 2010-12-09 2011-11-22 姿勢状態推定装置および姿勢状態推定方法 Expired - Fee Related JP5837508B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012547682A JP5837508B2 (ja) 2010-12-09 2011-11-22 姿勢状態推定装置および姿勢状態推定方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010274673 2010-12-09
JP2010274673 2010-12-09
PCT/JP2011/006499 WO2012077287A1 (ja) 2010-12-09 2011-11-22 姿勢状態推定装置および姿勢状態推定方法
JP2012547682A JP5837508B2 (ja) 2010-12-09 2011-11-22 姿勢状態推定装置および姿勢状態推定方法

Publications (2)

Publication Number Publication Date
JPWO2012077287A1 JPWO2012077287A1 (ja) 2014-05-19
JP5837508B2 true JP5837508B2 (ja) 2015-12-24

Family

ID=46206802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012547682A Expired - Fee Related JP5837508B2 (ja) 2010-12-09 2011-11-22 姿勢状態推定装置および姿勢状態推定方法

Country Status (4)

Country Link
US (1) US9262674B2 (ja)
JP (1) JP5837508B2 (ja)
CN (1) CN103221977B (ja)
WO (1) WO2012077287A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6017421B2 (ja) * 2011-07-13 2016-11-02 日東電工株式会社 オンデマンド型電力制御システム、オンデマンド型電力制御システムプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP5898014B2 (ja) * 2012-07-26 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP5818773B2 (ja) * 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2015049826A1 (ja) * 2013-10-01 2015-04-09 日本電気株式会社 物体検出装置、物体検出方法および学習装置
WO2015064144A1 (ja) * 2013-10-30 2015-05-07 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
KR102120864B1 (ko) 2013-11-06 2020-06-10 삼성전자주식회사 영상 처리 방법 및 장치
AU2015308717B2 (en) * 2014-08-28 2021-02-18 Retailmenot, Inc. Reducing the search space for recognition of objects in an image based on wireless signals
US9552070B2 (en) * 2014-09-23 2017-01-24 Microsoft Technology Licensing, Llc Tracking hand/body pose
US10121260B2 (en) 2014-10-30 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Orientation estimation method and orientation estimation device
CN105069413B (zh) * 2015-07-27 2018-04-06 电子科技大学 一种基于深度卷积神经网络的人体姿势识别方法
WO2017203986A1 (ja) * 2016-05-25 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および見守りシステム
JP6977337B2 (ja) 2017-07-03 2021-12-08 富士通株式会社 部位認識方法、装置、プログラム、及び撮像制御システム
JP6824838B2 (ja) 2017-07-07 2021-02-03 株式会社日立製作所 作業データ管理システム及び作業データ管理方法
JP7093075B2 (ja) * 2018-04-09 2022-06-29 東芝エネルギーシステムズ株式会社 医用画像処理装置、医用画像処理方法、およびプログラム
JP7020263B2 (ja) * 2018-04-17 2022-02-16 富士通株式会社 体向き推定プログラム、体向き推定装置、及び体向き推定方法
JP2019200560A (ja) * 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 作業分析装置および作業分析方法
JP6973298B2 (ja) * 2018-05-31 2021-11-24 トヨタ自動車株式会社 物体監視装置
CN108921047B (zh) * 2018-06-12 2021-11-26 江西理工大学 一种基于跨层融合的多模型投票均值动作识别方法
JP7010778B2 (ja) * 2018-06-29 2022-01-26 国立大学法人東海国立大学機構 観測位置推定装置、その推定方法、及びプログラム
JP2020129018A (ja) * 2019-02-07 2020-08-27 株式会社日立製作所 動作評価システムおよび方法
JP7054392B2 (ja) * 2019-06-06 2022-04-13 Kddi株式会社 姿勢推定装置、方法およびプログラム
CN111679248B (zh) * 2020-05-15 2023-04-21 黑龙江工程学院 一种基于海底水平l型阵列的目标方位和距离联合稀疏重构定位方法
JP7419993B2 (ja) 2020-07-02 2024-01-23 コニカミノルタ株式会社 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214289A (ja) * 1994-12-06 1996-08-20 Olympus Optical Co Ltd 時系列画像解析装置及びその解析方法
JP2005242759A (ja) * 2004-02-27 2005-09-08 National Institute Of Information & Communication Technology 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP2007004732A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
WO2008079541A2 (en) * 2006-12-21 2008-07-03 Honda Motor Co., Ltd. Human pose estimation and tracking using label
JP2009288917A (ja) * 2008-05-28 2009-12-10 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
JP3775683B2 (ja) * 2003-08-21 2006-05-17 松下電器産業株式会社 人物検出装置および人物検出方法
US7542858B2 (en) * 2005-06-03 2009-06-02 Lsi Corporation Simulated battery logic testing device
JP4710426B2 (ja) * 2005-06-14 2011-06-29 富士ゼロックス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
JP5215740B2 (ja) * 2008-06-09 2013-06-19 株式会社日立製作所 移動ロボットシステム
KR101626065B1 (ko) * 2009-10-13 2016-05-31 삼성전자주식회사 마커리스 모션 캡쳐링 장치 및 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214289A (ja) * 1994-12-06 1996-08-20 Olympus Optical Co Ltd 時系列画像解析装置及びその解析方法
JP2005242759A (ja) * 2004-02-27 2005-09-08 National Institute Of Information & Communication Technology 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP2007004732A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
WO2008079541A2 (en) * 2006-12-21 2008-07-03 Honda Motor Co., Ltd. Human pose estimation and tracking using label
JP2009288917A (ja) * 2008-05-28 2009-12-10 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2012077287A1 (ja) 2014-05-19
CN103221977B (zh) 2015-10-14
US9262674B2 (en) 2016-02-16
US20130301882A1 (en) 2013-11-14
WO2012077287A1 (ja) 2012-06-14
CN103221977A (zh) 2013-07-24

Similar Documents

Publication Publication Date Title
JP5837508B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP5873442B2 (ja) 物体検出装置および物体検出方法
JP5715833B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP5820366B2 (ja) 姿勢推定装置及び姿勢推定方法
JP5771413B2 (ja) 姿勢推定装置、姿勢推定システム、および姿勢推定方法
JP6125188B2 (ja) 映像処理方法及び装置
Xia et al. Human detection using depth information by kinect
CN105740780B (zh) 人脸活体检测的方法和装置
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
KR101362631B1 (ko) 머리 인식 방법
US9117138B2 (en) Method and apparatus for object positioning by using depth images
JP2019125057A (ja) 画像処理装置及びその方法、プログラム
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
KR20220024494A (ko) 사람의 단안 깊이 추정을 위한 방법 및 시스템
US20150269778A1 (en) Identification device, identification method, and computer program product
JP5503510B2 (ja) 姿勢推定装置および姿勢推定プログラム
CN109919128B (zh) 控制指令的获取方法、装置及电子设备
Krispel et al. Automatic texture and orthophoto generation from registered panoramic views
Iwashita et al. Person Identification using Shadow Analysis.
KR102515259B1 (ko) Ai 물체 인식 학습용 라벨링 데이터 자동 수집 장치
JP2022054251A (ja) 生成装置、生成方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151105

R151 Written notification of patent or utility model registration

Ref document number: 5837508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees