JP7447956B2 - 処理装置、姿勢解析システム、及びプログラム - Google Patents

処理装置、姿勢解析システム、及びプログラム Download PDF

Info

Publication number
JP7447956B2
JP7447956B2 JP2022150449A JP2022150449A JP7447956B2 JP 7447956 B2 JP7447956 B2 JP 7447956B2 JP 2022150449 A JP2022150449 A JP 2022150449A JP 2022150449 A JP2022150449 A JP 2022150449A JP 7447956 B2 JP7447956 B2 JP 7447956B2
Authority
JP
Japan
Prior art keywords
principal component
unit
point group
processing device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022150449A
Other languages
English (en)
Other versions
JP2022171943A (ja
Inventor
源洋 中川
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2022171943A publication Critical patent/JP2022171943A/ja
Application granted granted Critical
Publication of JP7447956B2 publication Critical patent/JP7447956B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、処理装置、姿勢解析システム、及びプログラムに関する。
物体を検出する技術として、例えば、下記の特許文献1に記載された技術があるが、物体を検出する技術は、物体の全部又は一部の形状あるいは姿勢を高精度に検出することが望まれている。
特開2007-288682号公報
本発明の態様に従えば、第1点群データを取得する取得部と、第1点群データを主成分分析することにより主成分方向を決定し、主成分方向複数の位置において、主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出する算出部と、主成分方向の複数の位置における特徴量の変化を判定する判定部と、を備える処理装置が提供される。
本発明の態様に従えば、上記態様の処理装置と、物体までの距離情報を検出し、距離情報から点群データを生成する検出部と、を備える姿勢解析システムが提供される。
本発明の態様に従えば、コンピュータに実施させるプログラムであって、第1点群データを取得し、第1点群データを主成分分析することにより主成分方向を決定し、主成分方向複数の位置において、主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出し、主成分方向の複数の位置における特徴量の変化を判定する、処理を実行させるプログラムが提供される。
第1実施形態に係る処理装置(姿勢解析システム)の一例を示す図である。 本実施形態に係る位置検出部(点群取得部)の一例を示す図である。 図1に示す処理装置の一例を示す機能ブロック図である。 本実施形態に係る基準点群データに対して第1領域を設定した図である。 本実施形態に係る第1領域の第1点群データから第1主成分を算出し、第2領域を設定した図である。 本実施形態に係る第2点群データについて最短経路を算出した一例を示す図である。 本実施形態に係る第2点群データについて最短経路を算出した他の例を示す図である。 本実施形態に係る第1主成分の方向の位置と最短経路長との関係を示すグラフ図である。 本実施形態に係る新たな第1領域から第2領域を設定した図である。 本実施形態に係る新たな第2領域について第1主成分の方向の位置と最短経路長との関係を示すグラフ図である。 (A)及び(B)は、本実施形態に係る第2生成部により物体の姿勢を推定する一例を示す図である。 本実施形態に係る処理方法の一例を示すフローチャートである。 本実施形態に係る処理方法の他の例を示すフローチャートである。 図13に続いてに係る処理方法の他の例を示すフローチャートである。 第2実施形態に係る処理装置の一例を示す図である。 第3実施形態に係る処理装置の一例を示す図である。 本実施形態に係る表示部に表示される画面の一例を示す図である。 本実施形態に係る表示部に表示される画面の一例を示す図である。 本実施形態に係る表示部に表示される画面の一例を示す図である。 本実施形態に係る表示部に表示される画面の一例を示す図である。 本実施形態に係る表示部に表示される画面の一例を示す図である。 本実施形態に係る表示部に表示される画面の一例を示す図である。 本実施形態に係る表示部に表示される画面の一例を示す図である。
以下、実施形態について図面を参照しながら説明する。図面においては実施形態を説明するため、一部分を大きく又は強調して表すなど適宜縮尺を変更して表現している。図面においては、XYZ座標系を用いて図中の方向を説明する図がある。このXYZ座標系においては、水平面に平行な平面をXZ平面とする。このXZ平面において人体Mの肩幅の方向をX方向と表記し、X方向に直交する方向をZ方向と表記する。XZ平面に垂直な方向はY方向と表記する。X方向、Y方向及びZ方向のそれぞれは、図中の矢印の指す方向が+方向であり、矢印の指す方向とは反対の方向が-方向であるとして説明する。
[第1実施形態]
第1実施形態について説明する。図1は、第1実施形態に係る処理装置1Aの一例を示す図である。図1は、実施形態に係る姿勢解析システムSYSの一例についても示している。処理装置1A及び姿勢解析システムSYSは、物体Mの姿勢情報及び形状情報の一方又は双方を生成する。本実施形態においては、物体Mとして人体を例に挙げて説明するが、物体Mが、例えば動物、人型又は人以外の動物型のロボット、若しくは動物型以外のロボットであってもよい。以下、物体Mを人体Mと称して説明する。
人体Mは、後述する位置検出部2の検出の対象となる対象領域AR(例、位置検出部2の検出領域、視野)において、所定の静止姿勢(例、指定されたポーズ、起立した状態)の状態であってもよいし、移動(例、変化、動作)している状態であってもよい。人体Mは、例えば、移動に伴って姿勢と形状との一方又は双方が変化する。移動する人体Mは、例えば、バレエ、フェンシング、野球、サッカー、ゴルフ、剣道、アメリカンフットボール、アイスホッケー、又は体操などのスポーツ、ランニング、エクササイズ、ヨガ、ボディビル、ファッションショーなどのウォーキング又はポージング、ゲーム、トレーニング、ダンス、伝統芸能、人物認証、若しくは仕事において動作する人体である。人体Mには、人体Mに付帯する別の物体(例、衣類、装着物、運動器具、防具)を含んでもよい。
処理装置1A(又は姿勢解析システムSYS)は、例えば、形状評価装置、動作検出装置、運動評価装置、モーションキャプチャ装置、動作検出システム、運動支援システムなどである。姿勢解析システムSYSは、処理装置1Aと、位置検出部2とを含む。位置検出部2は、一例として点群取得部である。姿勢解析システムSYSは、複数の処理装置1Aあるいは複数の位置検出部2(例、点群取得部)を備えてもよい。本実施形態の処理装置1A(又は姿勢解析システムSYS)は、2つの位置検出部2を備えている。なお、2つの位置検出部2は、互いに同一の構成を有しているが、互いに異なる構成を有していてもよい。2つの位置検出部2の一方は、人体Mの表面側(例、+Z側)に視点が設定され、他方は、人体Mの裏面側(例、-Z側)に視点が設定される。2つの位置検出部2は、人体Mを中心として対称に配置されてもよいし、非対称に配置されてもよい。そして、処理装置1A(又は姿勢解析システムSYS)は、人体Mの表面から得られた基準点群データPFに基づいて、人体Mの形状又は姿勢の情報である三次元データを生成する。基準点群データPFは、人体Mの形状(例、三次元形状)を表す情報である。
処理装置1Aは、図1に示すように、生成部11と、第1生成部12と、第2生成部13と、算出部14と、記憶部15とを備える。処理装置1Aの一部又は全体は、携帯可能な装置(例、情報端末、スマートフォン、タブレット、カメラ付き携帯電話、ウェアラブル端末)でもよい。また、処理装置1Aの一部又は全体は、据え置き型の装置(例、デスクトップ型パソコン)でもよい。
次に、処理装置1Aを構成する各部について説明する。生成部11は、人体M上の各点の位置情報である基準点群データPF(例、図4参照)から、第1領域R1内(例、図5参照)の各点を抽出して第1点群データP1を生成する。算出部14は、生成部11が生成した第1点群データP1を主成分分析することにより第1点群データP1における第1主成分D1(例、図5参照)の方向を算出する。そして、第1生成部12は、第1点群データP1から、算出部14が算出した第1主成分D1の方向に交差する面である平面RS2A(例、図5参照)を有する第2領域R2内(例、図5参照)の点を抽出して第2点群データP2を生成する。第2生成部13は、第1生成部12が生成した第2点群データP2により人体Mの情報を生成する。これら生成部11、第1生成部12、第2生成部13、及び算出部14の詳細については後述する。なお、図4に示す第1領域R1は、基準点群データPFで構成される基準領域より小さい領域である。
記憶部15は、例えば、揮発性又は不揮発性のメモリ、ハードディスク(HDD)、ソリッドステートドライブ(SSD)などである。処理装置1A(又は姿勢解析システムSYS)は、表示部3と、入力部4とを備える。表示部3は、処理装置1Aから出力される画像のデータに基づいて、この画像を表示する。例えば、処理装置1Aは、第2生成部13が生成した人体Mに関するモデル画像又は人体Mに関する推定画像のデータを表示部3に出力する。そして、表示部3は、処理装置1Aから出力された推定画像のデータに基づいて、推定画像を表示する。表示部3は、例えば、液晶ディスプレイ、有機ELディスプレイを含む。
入力部4は、処理装置1Aに対する各種情報(例、データ、指令)の入力に利用される。ユーザは、入力部4を操作することによって、処理装置1Aに対して各種情報を入力可能である。入力部4は、例えば、キーボード、マウス、トラックボール、タッチパッド、及び音声入力デバイス(例、マイク)の少なくとも一つを含む。なお、表示部3及び入力部4は、タッチパネルでもよい。処理装置1A(又は姿勢解析システムSYS)は、表示部3を備えなくてもよい。例えば、処理装置1Aは、画像等のデータを、通信を介して他の表示部又は表示装置へ出力し、この表示部等が画像を表示してもよい。また、処理装置1A(姿勢解析システムSYS)は、入力部4を備えなくてもよい。例えば、処理装置1Aは、各種の指令、情報が通信を介して入力される形態でもよい。
位置検出部2は、人体Mの位置情報を検出する。位置検出部2は、人体Mの位置情報として、人体Mの表面上の各点の三次元座標を含む点群データを検出する。位置検出部2は、図1に示すように、検出部21と、基準点群データ生成部22と、記憶部23とを備える。記憶部23は、例えば、揮発性又は不揮発性のメモリ、ハードディスク(HDD)、ソリッドステートドライブ(SSD)などである。なお、位置検出部2は、記憶部23を備えなくてもよい。
検出部21は、例えば携帯型の装置(携帯機器)の少なくとも一部である。検出部21は、据え置き型の装置の少なくとも一部でもよい。基準点群データ生成部22は、処理装置1Aの外部の装置に設けられてもよい(例、外部接続されてもよい)。例えば、位置検出部2は、処理装置1Aの外部の装置であって、検出部21と基準点群データ生成部22と記憶部23とを内蔵してもよい。位置検出部2の一部又は全体は、携帯可能な装置(例、情報端末、スマートフォン、タブレット、カメラ付き携帯電話、ウェアラブル端末)でもよい。また、位置検出部2の一部又は全体は、据え置き型の装置(例、定点カメラ)でもよい。
図2は、位置検出部2(例、点群取得部)の検出部21の一例を示す図である。検出部21は、人体Mの位置情報としてデプスを検出する。検出部21は、デプスセンサ(例、デプスカメラ)を含む。検出部21は、所定の点から、対象領域ARに配置される人体Mの表面における各点までのデプス(例、位置情報、距離、奥行き、深度)を検出する。所定の点は、例えば、検出部21による検出の基準になる位置の点(例、視点、検出元の点、検出部21の位置を表す点、後述する撮像素子26の画素の位置)である。
検出部21は、照射部24、光学系25、及び撮像素子26を備える。照射部24は、対象領域AR(空間、検出領域)に光La(例、パターン光、照射光、パルス光)を照射(例、投影)する。光学系25は、例えば結像光学系(撮像光学系)を含む。撮像素子26は、例えば、CMOSイメージセンサあるいはCCDイメージセンサを含む。撮像素子26は、2次元的に配列された複数の画素を有する。撮像素子26は、光学系25を介して、人体Mを含む対象領域ARを撮像する。撮像素子26は、光Laの照射によって対象領域ARの人体Mから放射される光Lb(例、反射光、戻り光、透過光)を検出する。光Lbは、例えば赤外光を含む。
検出部21は、照射部24から照射される光Laのパターン(例、強度分布)と、撮像素子26によって検出された光Lbのパターン(例、強度分布、撮像画像)とに基づいて、撮像素子26の各画素に対応する対象領域AR上の点(この場合、人体M上の点)から、撮像素子26の各画素までのデプスを検出する。検出部21は、その検出結果として、対象領域AR(例、人体M)におけるデプスの分布を表したデプスマップ(例、デプス画像、奥行き情報、距離情報)を例えば基準点群データ生成部22(図1参照)に出力する。
なお、検出部21は、TOF(time of flight)法によってデプスを検出するデバイスでもよい。検出部21は、TOF法以外の手法でデプスを検出するデバイスでもよい。検出部21は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによってデプスを検出してもよい。検出部21は、例えば、位相差センサを含み、位相差法によってデプスを検出してもよい。検出部21は、例えば、DFD(depth from defocus)法によってデプスを検出してもよい。
なお、検出部21は、赤外光あるいは赤外光以外の光(例、可視光)を人体Mに照射し、人体Mから出射する光(人体Mで反射する光、例、可視光)を検出してもよい。検出部21は、照射部24から照射される光Laに代えて、例えば音波(例、超音波)などのエネルギー波を用いてもよい。検出部21は、例えばステレオカメラなどを含み、複数の視点から人体Mを検出(例、撮像)してもよい。検出部21は、複数の視点から人体Mを撮像した撮像画像を用いて、三角測量によってデプスを検出してもよい。検出部21は、光学的な手法以外の手法(例、超音波によるスキャン)でデプスを検出してもよい。
図1に戻り、検出部21の検出結果(例、デプスマップ)は、記憶部23に記憶されてもよいし、記憶されなくてもよい。基準点群データ生成部22は、検出部21が検出したデプスに基づいて、人体Mの位置情報として基準点群データPFを生成する。基準点群データ生成部22は、人体Mの位置情報として基準点群データPFを生成する点群処理を実行する。
基準点群データPFは、対象領域ARにおける人体M上の複数の点の3次元座標を含む。基準点群データPFは、人体Mの周囲の物体(例、壁、床)上の複数の点の3次元座標を含んでもよい。基準点群データ生成部22は、検出部21が検出した位置情報(例、デプス)に基づいて、人体Mに関する基準点群データPFを算出する。基準点群データ生成部22は、記憶部23に記憶されている検出部21の検出結果を読み出して、基準点群データPFを算出する。なお、基準点群データ生成部22は、人体Mのモデル情報(例、形状情報)として基準点群データPFを生成してもよい。
検出部21は、例えば、検出結果に相当するデプスマップ(例、デプス画像)を出力する。このデプスマップは、検出部21によるデプスの測定値の空間分布を表す情報(例、画像)である。デプスマップは、対象領域ARの各点におけるデプスを階調値で表したグレースケールの画像であってもよい。デプスマップがグレースケールの画像である場合には、階調値が相対的に高い部分(例、白い部分、明るい部分)は、デプスが相対的に小さい部分(位置検出部2から相対的に近い部分)である。デプスマップにおいて、階調値が相対的に低い部分(例、黒い部分、暗い部分)は、デプスが相対的に大きい部分(位置検出部2から相対的に遠い部分)である。なお、デプスマップは、例えばRGBの画像であってもよい。
ここで、基準点群データ生成部22は、検出部21からデプスマップのデータを受け取り、又は記憶部23からデプスマップのデータを読み出し、基準点群データPFを算出する。記憶部23がない場合、基準点群データ生成部22は、検出部21からデプスマップのデータを受け取ったタイミングで(例、リアルタイムで)基準点群データPFを算出する。
例えば、基準点群データ生成部22は、デプスマップの各画素の階調値(デプスの測定値)に基づいて、各画素に相当する実空間上の点の3次元座標を算出する。以下の説明において、適宜、1つの点の三次元座標を点データと称する。基準点群データPFは、複数の点データを一組にしたデータである。基準点群データ生成部22は、例えば対象領域ARの全体の点群データに対してセグメント化、パターン認識などを施して、人体Mの基準点群データPFを抽出する。
また、基準点群データPFは、例えば、人体Mの少なくとも一部の輪郭(例、シルエット)を表す情報を含む。基準点群データPFは、例えば、人体Mの各関節の伸び又は曲がりが表れた情報を含む。基準点群データPFは、人体Mの各部の位置関係を特定可能な情報を含んでもよい。例えば、基準点群データPFは、人体Mの各部の位置情報(例、絶対位置、相対位置、座標)を含んでもよい。人体Mの各部の位置情報は、例えば、人体Mの末端部分(例、手先、足先、頭)の位置、及び、人体Mの関節(例、肩、肘、手首、膝)の位置の一方又は双方であってもよい。人体Mの各部の位置情報は、例えば、人体Mの末端部分と関節との間の部分(例、首、指)の位置、及び、人体Mの関節と関節との間の部分(例、前腕、上腕、大腿(上肢)、下腿(下肢))の位置の一方又は双方であってもよい。
対象領域ARにおける鉛直方向(Y方向)及び水平面内で直交する2方向(X方向、Z方向)は、既知の情報として例えば基準点群データ生成部22に予め与えられている。基準点群データ生成部22が生成した基準点群データPFにおいて、X、Y、Zの各方向は上記既知の情報に基づいて設定される。なお、人体Mが移動している場合、人体Mの移動方向は、対象領域AR(例、位置検出部2の視野)に対して所定の方向(例、X方向)に予め定められていてもよい。
図1において、位置検出部2は、処理装置1Aの外部に設けられている。処理装置1Aは、位置検出部2と無線又は有線により通信可能に接続される。位置検出部2は、基準点群データ生成部22が生成した基準点群データPFを処理装置1Aに出力する。処理装置1Aは、位置検出部2が出力した基準点群データPFを受け取って(受信して)処理する。
なお、処理装置1Aは、位置検出部2からの基準点群データPFを、通信を介することなく取得してもよい。例えば、処理装置1Aは、不揮発性メモリなどの記憶媒体を介して、位置検出部2の基準点群データPFを取得してもよい。例えば、位置検出部2の記憶部23は、位置検出部2から取り外して携帯可能なカード型の補助記憶装置、又はUSBメモリなどの記憶媒体でもよい。処理装置1Aから取り外された記憶部15を位置検出部2に接続させて基準点群データPFを記憶部15に取り込み、この記憶部15を処理装置1Aに戻すことにより基準点群データPFを取得してもよい。
図3は、処理装置1Aの一例を示す機能ブロック図である。処理装置1Aは、図1に示した生成部11、第1生成部12、第2生成部13、算出部14、及び記憶部15の他に、第1設定部111と、特徴抽出部112と、第2設定部113と、特徴量算出部114と、判定部115と、再設定部116とを備える。記憶部15は、処理装置1Aで処理される元データ、及び処理装置1Aで処理されたデータ(例、処理装置1Aで生成されたデータ)を記憶する。記憶部15は、位置検出部2から受け取った基準点群データPFを記憶する。記憶部15は、基準点群データPFの元データとして、検出部21から出力されるデプスマップを記憶してもよい。この場合、位置検出部2の基準点群データ生成部22は、記憶部15からデプスマップのデータを読み出して基準点群データPFを算出してもよい。
生成部11は、記憶部15に記憶されている基準点群データPFから、第1領域R1内の点を抽出して第1点群データP1を生成する第1点群データ生成処理を実行する。第1設定部111は、生成部11が第1点群データP1を生成するための第1領域R1を設定する第1領域設定処理を実行する。
図4は、人体Mの基準点群データPFを示し、基準点群データPFに対して第1領域R1を設定した図である。図4に示すように、第1領域R1は、三次元の空間である。第1設定部111は、例えば、表示部3に基準点群データPFの画像を表示させておき、その画像に対してユーザが入力部4で所望の範囲を指定することにより第1領域R1を設定する。表示部3に表示する基準点群データPFの画像は、ユーザによる入力部4の操作によって三次元的に向きを変えられるようにしてもよい。
また、第1設定部111は、基準点群データPFの画像のうちユーザが入力部4で指定したポイントを中心として、あらかじめ設定された範囲(例、X方向300mm、Y方向500mm、Z方向300mm)を第1領域R1として設定してもよい。このポイントを中心として設定する範囲は、記憶部15に記憶されていてもよい。また、記憶部15には複数の範囲が記憶されている状態で、ユーザがいずれかの範囲を第1領域R1として入力部4により指定する構成であってもよい。
また、第1設定部111は、基準点群データPFの画像のうちユーザが入力部4で指定したポイントを中心として、人体Mの身長に対してY方向(例、鉛直方向)に所定の割合(例、20%)の範囲を第1領域R1として設定してもよい。所定の割合は、固定値として予め設定されていてもよいし、記憶部15に記憶されている複数の割合からユーザが入力部4により選択してもよいし、ユーザが所定の割合を入力部4により入力してもよい。
また、第1設定部111は、位置検出部2が取得している人体Mの画像データ(この場合、元データ)を用いて、この画像データに対してセグメンテーション(領域分割)を行い、ユーザが入力部4により複数の領域のうちいずれか1つ又は複数選択することで基準点群データPFに対応する部分が第1領域R1として設定されてもよい。複数の領域は、人体Mを構成する部分ごとに分割されてもよいし、規格化された領域ごとに分割されてもよい。
また、人体Mの画像データから、画像内における同一又は似た特徴量(例、グレースケール画像の階調、RGB画像の色、模様、柄)を持つグループごとに1つの領域としてセグメンテーションを行ってもよい。複数の領域は、例えば、人体Mの画像データから、人体Mを構成する部分をそれぞれパターンマッチング等により抽出して記憶部15に記憶されてもよい。また、複数の領域は、基準点群データPFの画像に重ねて表示部3に表示され、ユーザが入力部4によりいずれかの領域を選択することで第1領域R1が設定されてもよい。
また、第1設定部111は、入力部4により人体Mの外形特徴Q(図4参照)を文字入力(例、腕、膝、太腿など)することにより、人体Mの外形特徴Qを含む範囲を第1領域R1として設定してもよい。外形特徴Qは、人体Mを構成する部分として、位置検出部2の検出部21が撮像した人体Mの撮像データあるいは基準点群データ生成部22が生成した基準点群データPFから抽出可能な人体Mの外形的な部分である。外形特徴Qは、人体Mにおいて、例えば、頭、首、肩、上腕、前腕、肘、手のひら、腰、臀部、股間、大腿、下腿、膝、かかとなどがある。外形特徴Qは、人体Mの表面において、例えば、所定方向に延びている、突出している、凹んでいる、くびれている、又は折れ曲がっているなど、形状上の特徴を有している。特徴抽出部112は、例えば、位置検出部2が取得している人体Mの画像データから、例えばパターンマッチング等により外形特徴Qを抽出してもよいし、基準点群データ生成部22が生成した基準点群データPFから、例えば近接する点どうしを結んだ際における三次元上の方向の変化から抽出してもよい。第1設定部111は、特徴抽出部112が抽出した外形特徴Qに基づいて、基準点群データPFのうち予め決められた範囲を第1領域R1として設定する。第1設定部111は、外形特徴Qを含める範囲(例、外形特徴Qを含む大きな領域)を人体Mの撮像データから判断して第1領域R1として設定してもよいし、外形特徴Qを中心としてX方向、Y方向、Z方向に予め決められた範囲(例、X方向300mm、Y方向500mm、Z方向300mm)を第1領域R1として設定してもよい。図4では、外形特徴Qとして「大腿」を抽出し、この「大腿」を含めて「臀部(股間)」の一部から「足首」までを含む範囲を第1領域R1として設定している。予め決められた範囲は、ユーザ等によって記憶部15に記憶されている。第1設定部111が設定した第1領域R1に関する第1領域データRD1は、記憶部15に記憶される。
生成部11は、第1設定部111が設定した第1領域R1内に存在する各点を抽出して第1点群データP1を生成する。第1点群データP1は、記憶部15に記憶されてもよい。なお、第1設定部111及び特徴抽出部112の一方又は双方は、生成部11に含まれてもよい。また、第1設定部111及び特徴抽出部112の一方又は双方は、処理装置1Aになくてもよい。この場合、生成部11は、基準点群データPFから予め決められた1つ又は複数の範囲を自動的に第1領域R1として設定してもよい。なお、第1領域R1は、人体Mの一部を含む領域であってもよいし、人体Mの全部を含む領域であってもよい。第1領域R1は、例えば、人体Mを上下方向(例、Y方向)に分割された領域であってもよいし、前後方向(例、Z方向)に分割された領域であってもよい。
図5は、上記した第1領域R1の第1点群データP1から第1主成分D1を算出し、第1主成分D1を用いて第2領域R2を設定した図である。算出部14は、生成部11が生成した第1点群データP1を主成分分析することにより第1主成分D1の方向を算出する第1主成分算出処理を実行する。主成分分析は、例えば、相関のある多数の変数から相関のない少数で全体のばらつきを最もよく表す主成分と呼ばれる変数を合成する多変量解析の一手法である。本実施形態では、第1領域R1における第1点群データP1の分散が最も大きくなる方向に軸をとり、これを第1主成分D1としている。
第1主成分D1は、多変量解析により算出された特徴因子の一例である。算出部14は、多変量解析により第1点群データP1に基づく複数の因子から特徴因子(例、第1主成分D1)を抽出し、この特徴因子におけるベクトルの方向(例、第1主成分D1の方向)を算出する。算出部14は、主成分分析以外の多変量解析により第1点群データP1に基づく複数の因子(例、変数)から特徴因子を抽出し、この特徴因子におけるベクトルの方向を算出してもよい。本実施形態では、多変量解析として主成分分析により第1主成分D1の方向を算出する処理を例に挙げて説明する。
第1生成部12は、記憶部15に記憶されている第1点群データP1から、算出部14が算出した第1主成分D1の方向に交差する平面RS2A(例、面、図5参照)を有する1つ又は複数の第2領域R2(R2A、R2B、・・・、R2M)内の各点を抽出して第2点群データP2A、P2B、・・・P2M(例、図6参照)を生成する処理を実行する。平面RS2Aは、例えば、第1主成分D1の方向と直交する。平面(例、面)を有する第2領域R2は、第1主成分D1の方向に厚みを持つ領域(例、空間)である。第2領域R2は、例えば、略平面、直方体、円柱、楕円柱、多面体などである。
なお、平面RS2Aが用いられることに限定されず、第1主成分D1の方向に交差する面であれば任意な面に設定可能であり、例えば、第1主成分D1の方向に直交しない平面、又は曲面であってもよい。平面RS2Aは、第1主成分D1の方向から見て平面RS2A近傍の点群をカバーする広さに設定される。
第2設定部113は、第1生成部12が第2点群データP2を生成するための人体Mに対する第2領域R2を設定する第2領域設定処理を実行する。第2領域R2は、三次元の空間である。1つの第2領域R2は、第1領域R1より小さい。ただし、第2領域R2は、第1領域R1と同一であってもよい。第2設定部113は、第1主成分D1の方向における第2領域R2の長さ(この場合、厚さ)を設定する。第2領域R2は、平面RS2Aから、第2設定部113が設定した第1主成分D1の方向の長さで区画される三次元の空間である。
第2設定部113は、先に設定した第2領域R2Aに対して第1主成分D1の方向の異なる位置に新たな第2領域R2Bを設定し、第1主成分D1の一端(一端側)から他端(他端側)に向けて順次新たな第2領域R2B、・・・、R2Mを設定する。すなわち、第2設定部113は、第1主成分D1の方向に沿って複数の第2領域R2A、R2B、・・・、R2Mを設定する。複数の第2領域R2A、R2B、・・・、R2Mは、それぞれ平面RS2A、RS2B、・・・、RS2Mを有する領域である。平面RS2A、RS2B、・・・、RS2Mは、それぞれが同一の広さであってもよいし、各平面RS2A等の近傍に存在する点群に合わせて異なる広さであってもよい。このように、第2設定部113は、第1主成分D1の方向において先に設定した第2領域R2(例、第2領域R2A)の位置とは異なる位置に新たな第2領域R2(例、第2領域R2B)を設定する。
複数の第2領域R2A、R2B、・・・、R2Mは、第1主成分D1の方向の長さが同一であってもよいし、互いに異なってもよい。第2設定部113は、複数の第2領域R2A等の第1主成分D1の方向における長さを、予め決められた長さ(例、10mm)に設定してもよいし、第1領域R1内の第1主成分D1の長さに基づいて所定の比率(例、第1主成分D1の長さの5%)で設定してもよい。所定の比率は、記憶部15に記憶されていてもよいし、ユーザが入力部4により設定してもよい。第2設定部113は、複数の第2領域R2A、R2B、・・・、R2Mを第1主成分D1の方向に沿って順次並べて設定する。第2設定部113は、複数の第2領域R2A、R2B、・・・、R2Mが互いに接した状態で設定してもよいし、互いに隙間(例、間隔)を開けた状態で設定してもよい。また、第2設定部113は、複数の第2領域R2A、R2B、・・・、R2Mを互いに一部重複させて設定してもよい。
また、複数の第2領域R2の1つ又は全部は分析対象領域である。複数の第2領域R2の全部が分析対象領域である場合、第2領域R2A、R2B、・・・、R2Mは、第1部分領域、第2部分領域、・・・、第M(Mは正の整数)部分領域である。また、これら第1から第M部分領域は、第1から第M分割領域、又は第1から第M小領域である。第2設定部113が設定した第2領域R2に関する第2領域データRD2は、記憶部15に記憶されてもよい。
第1生成部12は、第2設定部113が設定した第2領域R2A、R2B、・・・、R2M内に存在する各点をそれぞれ抽出して第2点群データP2(P2A、P2B、・・・、P2M)を生成する。第2点群データP2は、記憶部15に記憶されてもよい。なお、第2設定部113は、第1生成部12に含まれてもよい。また、第2設定部113は、処理装置1Aになくてもよい。この場合、第1生成部12は、第1点群データP1から予め決められた1つ又は複数の範囲を自動的に第2領域R2として設定してもよい。
特徴量算出部114は、複数の第2点群データP2(P2A、P2B、・・・、P2M)のそれぞれから特徴量を算出する特徴量算出処理を実行する。特徴量算出部114は、例えば、各第2点群データP2から特徴量として最短経路をそれぞれ算出する。
図6は、第2点群データP2Aについて最短経路を算出した一例を示す図である。特徴量算出部114は、例えば、第2点群データP2A内に存在する点群(例、複数の点データ)を第1主成分D1の方向に写像して、第1主成分D1の方向に直交する仮想平面上の点群データとし、この仮想平面上に展開された点群に対して、所定形状をあてはめる手法(所定形状のフィッティング)、又は最小二乗法等の手法により最短経路を算出する(図7参照)。所定形状は、例えば連続的に変化する形状である。この所定形状としては、例えば、楕円、長円、円、曲線形状のいずれかであってもよいし、これらの形状が組み合わされた形状であってもよい。
特徴量算出部114は、上記した手法により算出した最短経路の長さ(最短経路長)を算出する。特徴量算出部114が算出した最短経路長は、記憶部15に記憶されてもよい。なお、特徴量算出部114は、特徴量として最短経路を算出することに限定されない。特徴量算出部114は、特徴量として、例えば、仮想平面上に展開された点群で囲まれた面積であってもよいし、第2点群データP2Aで囲まれる空間の体積であってもよい。また、特徴量算出部114は、楕円推定(楕円形状をあてはめる手法)に代えて、変形例として以下の手法を適用可能である。例えば、特徴量算出部114は、第2点群データP2(例、P2A)から凸包を求め、この凸包に含まれる点間をB-スプライン曲線により補完して第2点群データP2の特徴量(例、外周長)を算出してもよい。ここで、凸包は、第2点群データP2で与えられた各点を含む最小の凸集合である。第2点群データP2から求められた凸包は、第2点群データP2に含まれる点を含む全ての凸集合の交わり、あるいは第2点群データP2に含まれる点の凸結合全体の成す集合として定義可能である。凸集合とは、例えば、物体(本実施例では第2点群データP2)に含まれる任意の二点に対し、それら二点を結ぶ線分上の任意の点がまたその物体に含まれることをいう。凸結合とは、例えば、和が1となるような非負係数を持つ点(例、ベクトル、スカラー)の線型結合である。また、B-スプライン曲線とは、例えば、与えられた複数の点とノットベクトルから定義される滑らかな曲線である。
ここで、特徴量算出部114は、仮想平面上における第1主成分D1の位置を算出してもよい。特徴量算出部114は、例えば、仮想平面上に展開された点群に対して、楕円形状を用いてフィッティング処理した場合、その楕円形状の中心を第1主成分D1の位置として算出してもよい。また、特徴量算出部114が算出した最短経路長は、人体Mにおけるその部位の外周の長さに相当すると推定可能である。
また、第2点群データP2のデータ量が少ない場合がある。例えば、位置検出部2により人体Mの基準点群データPFを取得する際に、1方向から人体Mを撮像すると、その方向において影となる裏面側の画像が取得できず、その結果、基準点群データ生成部22で、裏面側の点群がないまま基準点群データPFが生成されることがある。
図7は、第2点群データP2について最短経路を算出した他の例を示す図である。図1に示す処理装置1A(又は姿勢解析システムSYS)では、2つ(複数)の検出部21を備える構成を示しているが、検出部21が1つであってもよい。このような処理装置1A(又は姿勢解析システムSYS)において、1つの検出部21から-Z方向(例、図1参照)を視点として人体Mを撮像すると、人体Mの表面側(例、+Z側)が撮像されるが、人体Mの裏面側(例、-Z側)が撮像されない。そのため、基準点群データ生成部22により基準点群データPF(この場合、人体Mの裏面側の点群はない)が生成され、この基準点群データPFに基づいて第2点群データP2A1(図7参照)が抽出されても裏面側の点群がないままとなる。しかしながら、人体Mの主要部分(例、頭、首、胴、脚、腕)は、長手方向と直交する平面上の外形がほぼ楕円形状であると仮定することが可能である。従って、特徴量算出部114は、第2点群データP2A1に対して楕円形状でフィッティング処理を行うことにより最短経路を算出してもよい(図7参照)。また、特徴量算出部114は、楕円形状の中心を第1主成分D1Aの位置として算出してもよい。また、図7に示すように裏面側の点群がない場合、先に点群データを取得した第1方向(例、-Z方向)と異なる第2方向(例、+Z方向)から検出部21により人体Mを撮像して、基準点群データ生成部22により第2方向における点群データを生成させ、さらに、基準点群データ生成部22により第1方向を視点とする点群データ(例、図7)と第2方向を視点とする点群データとを合成(例、マージ)して基準点群データPFを生成させてもよい。このように合成された基準点群データPFは、例えば、図6に示す第2点群データP2Aのように、人体Mの表面側(例、-Z側)と裏面側(例、+Z側)とに点群を有する。
そして、判定部115は、隣り合う第2領域R2(例、R2AとR2B)の第2点群データP2(例、P2AとP2B)に基づいて特徴量算出部114によりそれぞれ算出された2つの特徴量(例、最短経路長)を比較して、変化量が所定値を超えるか否かを判定する判定処理を実行する。
図8は、第1主成分D1の方向の位置と最短経路長との関係を示すグラフ図である。判定部115は、例えば、横軸が第1主成分D1、縦軸が最短経路長であるグラフを作成し(図8参照)、特徴量の変化量が所定値を超えるか否かを判定する。この所定値は、予め記憶部15に記憶されていてもよい。判定部115は、変化量が所定値を超えるか否かを判定することに代えて、1次微分が変化するか否かを判定してもよい。
判定部115は、変化量が所定値を超える、あるいは1次微分が変化すると判定したポイントPA、PBを特徴点(例、変化点)として抽出する(図8参照)。判定部115は、第1主成分D1の方向において、最短経路長が大きく変化する部位、あるいは最短経路長が増加から減少又は減少から増加に変わる部位をポイントPA、PBとして抽出する。判定部115が抽出したポイントPA、PBは、記憶部15に記憶される。
再設定部116は、判定部115により変化量が所定値を超える、あるいは1次微分が変化すると判定された場合に、その判定に用いた隣り合う第2領域R2の一方又は双方を、先に設定した第1領域R1から除外し、変化量が所定値を超えない範囲について、新たな第1領域R11を設定する再設定処理を実行する。再設定部116は、この再設定処理によって先の第1領域R1より範囲が狭い新たな第1領域R11を設定することができる。
図9は、新たに設定された第1領域R11に基づいて第2領域R21を設定した図である。再設定部116は、例えば、複数の第2領域R2のうちポイントPA、PBより外側の第2領域R2を除外し、判定部115が抽出したポイントPA、PBに挟まれた第2領域R2における第1主成分D1の方向の範囲を新たな第1領域R11として設定する(図8、図9参照)。
そして、生成部11は、再設定部116が新たな第1領域R11を設定すると、基準点群データPFから第1領域R11内の点を抽出して第1点群データP11を生成する。算出部14は、第1点群データP11から主成分分析により第1主成分D11を算出する(図9参照)。第2設定部113は、第1主成分D11の方向に沿って1つ又は複数の第2領域R21(R21A、・・・、R21E)を設定する(図9参照)。
第1生成部12は、第2領域R21A、・・・、R21E内に存在する各点をそれぞれ抽出して第2点群データP21A、・・・、P21Eを生成する。特徴量算出部114は、第2点群データP21A等から特徴量である最短経路長を算出する。判定部115は、隣り合う第2領域R21における特徴量の変化量が所定値を超えるか否かを判定する。判定部115により所定値を超えると判定された場合は、上記のように再設定部116が新たに第1領域を設定し、上記の処理が繰り返される。
図10は、新たな第2領域R21について第1主成分D11の方向の位置と最短経路長との関係を示すグラフ図である。なお、第1主成分D11は、図10に示す第1主成分D1に対して、PA、PBに挟まれた範囲に相当する。判定部115により隣り合う第2領域R21における特徴量の変化量が所定値を超えない場合(図10参照)、そのときの第2点群データP21A、・・・、P21E、及び第1主成分D11の方向及び位置は、記憶部15に記憶されてもよい。また、新たな第1領域R11においては、第1主成分D11に沿った最短経路長の変化が小さい、あるいは最短経路長が増加から減少又は減少から増加に変化しないことが推定されたことになる(図10参照)。
なお、上記した生成部11から再設定部116までの繰り返しの処理において、判定部115は、特徴量の変化量を同一の所定値を用いて判定してもよいし、異なる所定値を用いて判定してもよい。例えば、判定部115は、1つ前に用いた所定値より小さい所定値を用いて判定してもよい。なお、特徴量算出部114及び判定部115の一方又は双方は、第2設定部113又は第1生成部12に含まれてもよい。また、特徴量算出部114及び判定部115の一方又は双方は、処理装置1Aになくてもよい。この場合、第1生成部12は、1つ又は複数の第2領域R2から第2点群データP2を生成するだけでもよい。また、再設定部116は、第1設定部111又は生成部11に含まれてもよい。判定部115が処理装置1Aにない場合は、再設定部116は、処理装置1Aになくてもよい。
第2生成部13は、第1生成部12が生成した第2点群データP2に基づいて、人体Mの三次元モデル及び人体Mの姿勢情報の一方又は双方を生成する生成処理を実行する。第2生成部13は、図3に示すように、姿勢推定部117と、モデル生成部118と、レンダリング処理部119とを備える。姿勢推定部117は、第1生成部12が生成した第2点群データP2に基づいて、人体Mの姿勢を推定する姿勢推定処理を実行する。姿勢推定部117は、例えば、人体Mのうち第2領域R2(R2A等)における対象部分(例、分析対象部分、対象部位)の位置情報を生成する。
姿勢推定部117は、例えば、第2点群データP2から得られる人体Mの対象部分(対象部位)の形状に対して、認識処理(例、パターン認識、形状認識、骨格認識)を実行する。姿勢推定部117は、認識処理によって、上記の対象部分の位置情報を生成する。対象部分の位置情報は、例えば、対象部分を代表する点の座標(例、3次元座標)を含む。姿勢推定部117は、上記の認識処理によって、対象部分を表す点の座標を算出する。姿勢推定部117は、対象部分を表す点の座標を記憶部15に記憶させる。姿勢推定部117は、主成分分析を行った後の第2点群データP2を用いるので、対象部分を高精度に推定可能である。
姿勢推定部117は、上記認識処理の結果として、対象部分の位置と、対象部分の情報(例、属性情報、名称(例、大腿、上腕))と、2つの対象部分(例、大腿と下腿、下腿と足首から足先の部分、上腕と前腕)の接続関係を示す接続情報とを一組にした姿勢情報(例、骨格情報、スケルトンデータ)を生成する。姿勢推定部117は、上記姿勢情報を記憶部15に記憶させる。
姿勢推定部117は、上記姿勢情報に基づいて、人体Mの姿勢を推定する。姿勢推定部117は、接続関係がある一対の対象部分を結ぶ第1線と、第1線に接続され、接続関係がある一対の特徴部分を結ぶ第2線との相対位置(例、角度)に基づいて、第1線及び第2線を含む部分の姿勢を推定する。姿勢推定部117は、対象部分について上述のように姿勢を推定することで、人体Mの一部又は全体の姿勢を高精度に推定する。
なお、姿勢推定部117は、人体Mなどの姿勢を定義した姿勢定義情報を参照して、姿勢を推定してもよい。上記の姿勢定義情報は、例えば、姿勢の種類を表す情報と、各対象部分の相対位置を定義する情報とを一組にした情報である。姿勢の種類を表す情報は、例えば、起立姿勢、座位姿勢など姿勢の名称である。姿勢推定部117は、上記姿勢情報と上記姿勢定義情報とを照合して、人体Mの姿勢を推定(識別)してもよい。
また、姿勢推定部117は、物体における複数の対象領域(例、第2領域R2、分析対象領域)により推定された物体(本実施形態では人体M)の各部位の姿勢から接続部分(人体Mにおける関節位置)の推定を行ってもよい。物体における複数の対象領域は、関節を挟んで互いに接続された部位(例、頭と首、肩と上腕、上腕と前腕、臀部と大腿、大腿と下腿)である。
図11(A)及び(B)は、本実施形態に係る第2生成部13(例、姿勢推定部117)により物体(本実施形態では人体M)の姿勢を推定する一例を示す図である。図11を参照して、姿勢推定部117が人体Mにおいて関節位置の推定を行う例について、関節Kとして「膝」を例に挙げて説明する。姿勢推定部117は、物体(本実施形態では人体M)の一部(例、対象領域)である第1部位Q1(この場合、大腿)に関して第2領域R21を設定する際の第1主成分D11と、人体Mの他の一部であって第1部位Q1とは異なる第2部位Q2(この場合、下腿)に関して第2領域R121を設定する際の第1主成分D111とに基づいて、第1部位Q1と第2部位Q2との接続部分である関節Kに関する情報を生成する。上記実施形態のように人体Mの「大腿」を対象部位(第1部位Q1)としてその姿勢(例、位置、方向、長さ)が高精度で推定された後、本実施形態の手法により他の対象部位(第2部位Q2)である「下腿」を外形特徴として含むように第1領域を設定する。この第1領域は、「大腿」を対象とした際の第1領域R1(又は新たな第1領域R11)の一部、あるいは第1領域R1のうち第1領域R11を除いた領域の一部又は全部を含んでもよい。また、「下腿」を含む第1領域は、例えば、図4に示す第1領域R1であってもよい。そして、第1領域が設定されると、上記した実施形態と同様に、第1主成分の算出、第2領域の設定、第2点群データの生成及び特徴量の算出、といった処理が繰り返された後、図11(A)に示すように、「下腿」を対象部位(第2部位Q2)とした第1領域R111から第1主成分D111が算出され、第2領域R121から生成された第2点群データを用いることにより、第2部位Q2である「下腿」の姿勢(例、位置、方向、長さ)が姿勢推定部117によって高精度で推定される。
続いて、姿勢推定部117は、図11(B)に示すように、「大腿」(第1部位Q1)を対象部位として第2領域R21が設定された際の第1主成分D11と、「下腿」(第2部位Q2)を対象部位として第2領域R121が設定された際の第1主成分D111とを仮想的にそれぞれ延長させる。第1主成分D11と第1主成分D111とは、互いに交差せず、平行かつ離間する平面にそれぞれ沿っている場合、又はねじれの位置関係にある場合のいずれであってもよい。そして、姿勢推定部117は、第1主成分D11と第1主成分D111との距離が最短となるように線分LXを算出し、その中点を「大腿」(第1部位Q1)と「下腿」(第2部位Q2)との接続部分である関節K(膝)として推定する。なお、姿勢推定部117は、第1主成分D11と第1主成分D111とをそれぞれ延長した際、両者が交差する場合は、その交点を関節K(膝)として推定する。なお、姿勢推定部117は、線分LXの中点を関節Kと推定することに限定されない。姿勢推定部117は、線分LXの中点以外を関節Kと推定してもよく、例えば、関節Kを「大腿」(第1部位Q1)又は「下腿」(第2部位Q2)に近づけるように、線分LXを所定の割合(例、3:7)で分割した点を関節Kとして推定してもよいし、第1主成分D11上の点、又は第1主成分D111の点であってもよい。
さらに、モデル生成部118は、上記姿勢情報に基づいて、人体Mのモデル情報を生成するモデル生成処理を実行する。モデル情報は、例えば3次元のCGモデルデータであり、人体Mの形状情報を含む。モデル生成部118は、第1生成部12が生成した第2点群データP2に基づいて、人体Mのモデル情報を算出する。モデル生成部118は、形状情報としてサーフェス情報を算出するサーフェス処理を実行する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、及びドローデータの少なくとも1つを含む。サーフェス情報は、人体Mの表面上の複数の点の座標と、複数の点間の連結情報とを含む。連結情報(例、属性情報)は、例えば、人体M表面の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。また、連結情報は、例えば、人体M表面の輪郭に相当する複数の線を互いに関連付ける情報を含む。
モデル生成部118は、サーフェス処理において、第2点群データP2に含まれる複数の点から選択される点とその近傍の点との間の面を推定する。モデル生成部118は、サーフェス処理において、第2点群データP2を点間の平面情報を持つポリゴンデータに変換する。モデル生成部118は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。モデル生成部118は、算出したサーフェス情報を記憶部15に記憶させる。
なお、モデル情報は、人体Mのテクスチャ情報を含んでもよい。モデル生成部118は、3次元の点座標及びその関連情報で規定された面のテクスチャ情報を生成してもよい。テクスチャ情報は、例えば、物体表面の文字や図形、模様、質感、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。モデル生成部118は、生成したテクスチャ情報を記憶部15に記憶させてもよい。
また、モデル情報は、画像の空間情報(例、照明条件、光源情報)を含んでもよい。光源情報は、人体Mに対して光(例、照明光)を照射する光源の位置、この光源から人体Mへ光が照射される方向(照射方向)、この光源から照射される光の波長、及びこの光源の種類のうち少なくとも1項目の情報を含む。モデル生成部118は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出してもよい。モデル生成部118は、生成した空間情報を記憶部15に記憶させてもよい。モデル生成部118は、テクスチャ情報と空間情報との一方又は双方を生成しなくてもよい。
レンダリング処理部119は、例えば、グラフィックス プロセッシング ユニット(GPU)を含む。なお、レンダリング処理部119は、CPU及びメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部119は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。
レンダリング処理部119は、描画処理において、例えば、生成されたモデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。レンダリング処理部119は、例えば、描画処理によって、モデル情報(例、形状情報)からモデル形状(例、推定画像)を再構成できる。レンダリング処理部119は、算出した推定画像のデータを記憶部15に記憶させてもよい。
レンダリング処理部119は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部119は、推定画像上の物体の表面に、対象物と別のテクスチャを貼り付けた推定画像を算出することができる。レンダリング処理部119は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。レンダリング処理部119は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。
なお、第2生成部13は、姿勢推定部117、モデル生成部118、及びレンダリング処理部119を備えなくてもよい。また、姿勢推定部117、モデル生成部118、及びレンダリング処理部119の少なくとも1つは、第2生成部13外の処理装置1A内に備えてもよい。また、姿勢推定部117、モデル生成部118、及びレンダリング処理部119の少なくとも1つは、処理装置1Aの外部に設けられて、処理装置1Aと通信可能に接続されてもよい。
処理装置1A(又は姿勢解析システムSYS)は、上記した第2生成部13が生成した人体Mの情報に基づいて、ユーザが入力部4を操作することにより、表示部3で表示する人体Mの三次元モデルあるいは姿勢情報について視点の切り替えを行うことができる。また、処理装置1A(又は姿勢解析システムSYS)は、第2生成部13が生成した人体Mの情報に基づいて体型計測などを行い、その計測結果に基づいて体型のスコア化も可能である。例えば、処理装置1Aは、人体Mの情報(例、点群を含む姿勢情報など)に基づき計測した人体Mの体型の計測結果を絶対的又は相対的な数値で表したスコアを表示部3に表示させることが可能である。なお、このスコアは、表の形式又は時系列(例、横軸が時間又は日にち)のグラフの形式などを用いて表示部3に表示される。なお、処理装置1Aは、ユーザの人体Mの情報に基づくスコアと、事前に記憶部15に記憶されている教師となる人体Mの情報に基づくスコアとを比較した結果を表示部3に表示させてもよいし、記憶部15に記憶されているユーザの過去のスコアと現在において計測したスコアとを比較した結果を表示部3に表示させてもよい。なお、ユーザの人体Mの情報と教師となる人体Mの情報とを重ねて表示部3に表示させてもよい。教師となる人体Mの情報は、ユーザの習熟度に基づいた教師の情報を用いることが可能なように複数あり、それらの情報は記憶部15に記憶されている。処理装置1Aは、ユーザの習熟度に基づいて教師となる人体Mの情報を変更することが可能である。また、人体Mの各部位(例、大腿、上腕)について外周の寸法(例、大腿周りの長さ)を表示部3に表示させることができる。なお、特徴量算出部114が算出した最短経路長を用いて、各部位の外周の寸法としてもよい。人体Mの各部位の寸法を表示させる場合、時系列に表示させてもよいし、時系列で人体Mの一部又は全体の三次元モデルを表示部3に表示させてもよい。
次に、本実施形態に係る処理方法について説明する。図12は、本実施形態に係る処理方法の一例を示すフローチャートである。図12のフローチャートを説明するに際して、上記した図1から図10等を適宜用いる。処理装置1A(又は姿勢解析システムSYS)は、物体(この場合、人体M)の基準点群データPFを取得する(ステップS1)。ステップS1において、基準点群データPFは、位置検出部2からまとめて1つのファイルとして処理装置1Aに送られてもよいし、複数のファイルとして分割されて順次処理装置1Aに送られてもよい。
続いて、処理装置1Aの第1設定部111は、基準点群データPFから第1領域R1を設定し、生成部11は、第1領域R1内の点を抽出して第1点群データP1を生成する(ステップS2)。ステップS2において、設定された第1領域R1の大きさ及び位置に関する画像が、基準点群データPFに重ねた状態で表示部3に表示されてもよい。また、ステップS2において、第1点群データP1を基準点群データPFから分離した状態で表示部3に表示させてもよいし、基準点群データPFのうち第1点群データP1の部分の色を他の部分から変えた状態で、あるいは第1点群データP1の部分を点滅させた状態で表示部3に表示させてもよい。なお、上記したように、第1領域R1は、基準点群データPFからラフに切り出した状態である。第1領域R1は、例えば、ユーザが分析を希望する部位を含んだ広い領域として設定される。
続いて、算出部14は、第1点群データP1に対して主成分分析により第1主成分D1の方向を算出する(ステップS3)。ステップS3において、算出部14は、第1主成分D1の方向から見た第1主成分D1の位置、及び第1主成分D1の長さを算出してもよい。そして、第2設定部113は、第1主成分D1に直交する面(例、平面RS2A)を有する第2領域R2(R2A)を設定する(ステップS4)。ステップS4において、設定された第2領域R2の大きさ及び位置に関する画像が、第1点群データP1又は基準点群データPFに重ねた状態で表示部3に表示されてもよい。
続いて、第1生成部12は、第1点群データP1から第2領域R2内の点を抽出して第2点群データP2を生成する(ステップS5)。ステップS5において、第2点群データP2を第1点群データP1又は基準点群データPFから分離した状態で表示部3に表示させてもよいし、第1点群データP1又は基準点群データPFのうち第2点群データP2の部分の色を他の部分から変えた状態で、あるいは第2点群データP2の部分を点滅させた状態で表示部3に表示させてもよい。
続いて、第2生成部13は、第2点群データP2から人体Mの情報を生成する(ステップS6)。ステップS5において、第2生成部13は、人体Mの三次元モデル及び姿勢情報の一方又は双方を人体Mの情報として表示部3に表示させてもよい。
三次元モデル及び姿勢情報(例、骨格情報、スケルトンデータ)は、ユーザによる入力部4の操作によっていずれか一方を表示部3に表示させるように切り替え可能であってもよいし、三次元モデルと姿勢情報とを表示部3に並べて表示させてもよい。また、人体Mの各部位のそれぞれについて、外形寸法などの数値を三次元モデルと併せて表示部3に表示させてもよいし、特定の外形寸法について経時的な変化を併せて表示部3に表示させてもよい。
図13及び図14は、本実施形態に係る処理方法の他の例を示すフローチャートである。このフローチャートにおいて、ステップS1からS5は上記した図12に示す処理とほぼ同様であるので説明を省略又は簡略化する。なお、図13のフローチャートのステップS4では、第2設定部113が複数の第2領域R2を設定する。例えば、ステップS4において、第2設定部113は、第1主成分D1の方向に沿って複数の第2領域R2を順次設定する。
第2設定部113は、第1主成分D1の方向における第2領域R2の長さ(この場合、厚さ)を設定するが、この長さが短いと(この場合、厚さが薄いと)第2領域R2の数が増えるので、データ量の観点からその後の処理負担が増加する。従って、第2設定部113は、処理装置1Aの処理能力に基づいて、第2領域R2の数、又は第1主成分D1の方向の長さを設定してもよい。
ステップS5に続いて、特徴量算出部114は、第2点群データP2から特徴量として最短経路長を算出する(ステップS11)。続いて、第1生成部12又は特徴量算出部114は、最短経路長を算出した第2点群データP2の第2領域R2が最後の第2領域R2か否かを判断する(ステップS12)。最後の第2領域R2でない場合(ステップS12のNO)、ステップS4に戻り、第2設定部113は、先に設定した第2領域R2に対して次の第2領域R2を設定する。最後の第2領域R2である場合(ステップS12のYES)、判定部115は、隣り合う第2領域R2において最短経路長を比較して変化量を抽出する(ステップS13)。
続いて、判定部115は、最短経路長の変化量が所定値を超えるか否かを判断する(ステップS14)。変化量が所定値を超える場合(ステップS14のNO)、再設定部116は、その判定に用いた隣り合う第2領域R2の一方又は双方を、先に設定した第1領域R1から除外し、変化量が所定値を超えない範囲を新たな第1領域に設定する(ステップS15)。そして、ステップS2からステップS14までの処理が繰り返される。この一連の処理により、最短経路長の変化量が大きい部分が除外されて、ユーザが求める部位(分析対象領域)をロバスト性が高く高精度で形状又は姿勢を推定することが可能となる。
また、変化量が所定値を超えない場合(ステップS14のYES)、第2生成部13は、第2点群データP2から人体Mの情報を生成する(ステップS16)。このステップS16は、図12に示すステップS6と同様であるため、説明を省略する。
なお、図13及び図14に示すフローチャートでは、ステップS5からステップS12の処理において、複数の第2領域R2を順次設定して最短経路長を算出しているが、この処理に限定されない。例えば、ステップS5において、第2設定部113により複数の第2領域R2を設定し、ステップS6において、第1生成部12は、複数の第2領域R2のそれぞれから点群(点データ)を抽出して複数の第2点群データP2を生成し、ステップS11において、特徴量算出部114は、複数の第2点群データP2のそれぞれから最短経路長を算出するといった、最短経路長の算出を複数の第2点群データP2に対して並行して行ってもよい。
[第2実施形態]
次に、第2実施形態について説明する。図15は、第2実施形態に係る処理装置の一例を示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図15に示す処理装置1Bは、位置検出部2(例、点群取得部)が処理装置1Bの内部に設けられる(内蔵される)。この処理装置1Bは、1つのユニット(パッケージ)内に基準点群データPFを取得する機能を含む。処理装置1Bは、例えば、ノート型パソコンが用いられ、検出部21は、ノート型パソコンに搭載されているカメラが用いられる。
処理装置1Bは、別に位置検出部2を用意する必要がなく、携帯時等において利便性を有する。なお、処理装置1Bにおいて、位置検出部2の記憶部23は、処理装置1Bが備える記憶部15と兼用されてもよい。すなわち、記憶部23は、処理装置1Bになくてもよい。
[第3実施形態]
次に、第3実施形態について説明する。図16は、第3実施形態に係る処理装置の一例を示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図16に示す処理装置1Cは、位置検出部2(例、点群取得部)の基準点群データ生成部22及び記憶部23が処理装置1Cの内部に設けられる(内蔵される)。そして、検出部21は、処理装置1Cの外部に設けられる態様である。検出部21は、人体M(物体)を撮像可能な構成を有すればよく、例えば、カメラ、撮像機能を有する携帯端末(例、スマートフォン、タブレット)であってもよい。検出部21は、人体Mの位置情報として、デプスマップを処理装置1C(基準点群データ生成部22)に出力する。
処理装置1Cは、物体(この場合、人体M)を撮像可能な検出部21を用意するだけで、検出部21から人体Mの画像を取得することにより容易に基準点群データPFを生成することができ、撮像機能を持たないノート型パソコン又はデスクトップ型パソコンを用いることができる。なお、処理装置1Cにおいて、位置検出部2の記憶部23は、処理装置1Cが備える記憶部15と兼用されてもよい。すなわち、記憶部23は、処理装置1Cになくてもよい。
次に、本実施形態における表示部3に表示される画面などについて説明する。図17から図23は、第1から第3実施形態において、表示部3に表示される画面の一例を示す図である。図17から図23は、例えば、上記した実施形態を人体Mの体型計測に応用した場合の体型計測アプリケーションの画面を例示している。図17は、体型計測アプリケーションの開始画面SAである。この開始画面SAには、「Mesurement」、「User Infomation」、「History」、「Configuration」、「Close」等のアイコンが表示され、ユーザが所望する操作が可能となっている。なお、この体型計測アプリケーションにおいて、ユーザ名は「test」としている。
ユーザが開始画面SAの「Mesurement」のアイコンを選択すると、図18に示すように、計測画面SBが表示され、「DeviceStatus」がOKの場合には、上記した実施形態のように、位置検出部2の検出部21による人体Mの撮像が可能な状態を示す。「DeviceStatus」がOKの場合、計測画面SBにおける「Device1」などのアイコンの下方に、上記した位置検出部2で撮像される画像が表示される。また、「DeviceStatus」がNGの場合、図18の計測画面SBが表示される。なお、位置検出部2あるいは検出部21を複数用いる場合は、「Device1」「Device2」・・・のアイコンの下方に位置検出部2の位置、機種名等を表示させてもよい。なお、上記の処理装置は、「DeviceStatus」の状態に関係なく、「Device1」「Device2」・・・のアイコンの下方に、それぞれの位置検出部2で撮像した画像を表示部3に表示させてもよい。また、上記の処理装置は、計測画面SBに、位置検出部2等により人体Mを撮像すべき方向を教示する教示画像を表示させてもよい。
計測画面SBには「PoseModel」のアイコンの下方に、撮像時に人体Mに要求する姿勢の画像を表示している。ユーザは、この姿勢の画像を参酌することにより撮像時の姿勢を容易に把握することができる。また、ユーザが「PoseModel」のアイコン又は姿勢の画像を操作することにより、計測画面SBに表示される姿勢を変更できる。変更時には、「PoseModel1」、「PoseModel2」・・・といったアイコンと、アイコンに関連付けられている姿勢の画像とが表示される。
図18において、ユーザが計測画面SBの「Capture1」のアイコンを選択すると、例えば、「Device1」に示される位置検出部2あるいは検出部21により人体Mの撮像を行い、その撮像データから基準点群データ生成部22が基準点群データPFを生成する。生成した基準点群データPFは、計測画面SBにおいて「Device1」のアイコンの下方に表示されてもよい。
また、ユーザが開始画面SAの「User Infomation」のアイコンを選択すると、図19に示すように、ユーザ管理画面SCが表示され、ユーザ情報の登録や編集、削除を行うことができる。例えば、ユーザ情報を登録する場合には、図20に示すような新規ユーザ登録画面SC1のウインドウを表示させることができる。新規のユーザが、新規ユーザ登録画面SC1のウインドウに所定事項を入力することで、この体型計測アプリケーションの各種データを管理可能となる。
ユーザが開始画面SAの「History」のアイコンを選択すると、図21に示すように、過去の計測結果リストを含むデータ履歴画面SDが表示される。データ履歴画面SDには、ユーザにおける人体Mの部位の外周寸法などが計測した日付に関連づけられて表示される。図21に示すデータ履歴画面SDでは、「LeftUpperArm」、「Waist」の外周寸法が計測した日付に関連づけられて表示されている。「LeftUpperArm」、「Waist」の外周寸法は、上記した実施形態の説明において、第2領域R2が「LeftUpperArm」(左上腕)、「Waist」(ウェスト、胴)であるときの第2点群データP2から生成された三次元モデルから取得される。すなわち、本実施形態では、主成分分析された第2点群データP2から三次元モデルが生成されるので、「LeftUpperArm」、「Waist」の外周寸法が精度よく計測されている。
ユーザがデータ履歴画面SDの「Waist」のアイコンを選択すると、図22に示すように、計測位置調整画面SD1が表示される。計測位置調整画面SD1は、データ履歴画面SDに表示される数値を調整(変更)する画面である。計測位置調整画面SD1には、「Position Result」に基準位置(+0)から+方向(上方)及び-方向(下方)に複数の位置と、その位置での外周の寸法が並べて表示されている。図22に示す計測位置調整画面SD1は、基準位置(+0)が選択されている。ユーザは、他の位置(例、+2、-3)のアイコンを選択することにより、データ履歴画面SDに表示される数値を調整(変更)することができる。なお、計測位置調整画面SD1では、選択されている位置を画像上で示す水平方向の水平指示線Hが表示されている。水平指示線Hは、ユーザが選択した位置に応じて移動する。計測位置調整画面SD1では、人体Mの中心における鉛直方向を示す鉛直指示線Vが表示されている。
続いて、ユーザが開始画面SAの「Configuration」のアイコンを選択すると、図23に示すように、カメラ位置調整画面SEが表示される。カメラ位置調整画面SEでは、例えば、データの保存場所の設定、カメラ位置の調整等のデバイス(例、位置検出部2)の諸設定を行うことができる。
以上のように、本実施形態によれば、物体(例、人体M)の一部又は全部について高精度に三次元モデル又は姿勢情報を生成することができる。物体が人体Mである場合、人体Mの各部位の三次元形状が高精度で生成されるので、人体M各部位のサイズ(外周の寸法)を容易かつ精度よく取得できる。また、本実施形態によれば、人体Mの各部位の姿勢情報が高精度で生成されるので、運動時(例、バレエ、野球、ゴルフ)における人体Mの各部位の姿勢(例、大腿の向き、上腕の向き、バレエのフォーム、ピッチングフォーム、バッティングフォーム、ゴルフスイングのフォーム)を容易かつ精度よく取得できる。
なお、上記した処理装置1A(又は姿勢解析システムSYS)は、位置検出部2を2以上備えてもよい。また、姿勢解析システムSYSは、2以上の処理装置1A、1B、1Cを備えてもよい。
上記した実施形態において、処理装置1A、1B、1Cの生成部11、第1生成部12、第2生成部13、算出部14、第1設定部111、特徴抽出部112、第2設定部113、特徴量算出部114、判定部115、再設定部116、姿勢推定部117、モデル生成部118、レンダリング処理部119、及び位置検出部2の基準点群データ生成部22は、プログラムがコンピュータに読み込まれることにより、ソフトウェアとハードウェア資源とが協働した具体的手段として実現されてもよい。
また、上述の実施形態において、処理装置1A、1B、1Cは、例えばコンピュータシステムを含む。処理装置1A、1B、1Cは、記憶部15に記憶されている処理プログラムを読み出し、この処理プログラムに従って各種の処理を実行する。この処理プログラムは、例えば、コンピュータに、物体上の各点の位置情報による第1点群データを主成分分析した第1主成分の方向を求めることと、第1点群データから第1主成分の方向に交差する領域内の点を抽出した第2点群データを生成することと、第2点群データにより物体の情報を生成することと、を実行させる。このプログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。
なお、実施形態について説明したが、本発明の技術範囲は、上述の実施形態などで説明した内容に限定されない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、実施形態において示した各処理の実行順序は、前の処理の出力を後の処理で用いない限り、任意の順序で実現可能である。また、上記した実施形態における処理に関して、便宜上「まず」、「次に」、「続いて」、「そして」等を用いて説明したとしても、この順序で実施することが必須ではない。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、日本特許出願である特願2018-143688、及び、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
D1、D11・・・第1主成分 M・・・人体(物体) K・・・関節(接続部分) LX・・・線分 P1、P11・・・第1点群データ P2、P2A~P2M・・・第2点群データ PF・・・基準点群データ Q・・・外形特徴 Q1・・・第1部位 Q2・・・第2部位 R1、R11・・・第1領域 R2、R2A、R2B~R2M、R21A~R21E・・・第2領域 RS2A・・・平面(面) SYS・・・姿勢解析システム 1A、1B、1C・・・処理装置 2・・・位置検出部(点群取得部) 11・・・生成部 12・・・第1生成部 13・・・第2生成部 14・・・算出部 22・・・基準点群データ生成部 111・・・第1設定部 112・・・特徴抽出部 113・・・第2設定部 114・・・特徴量算出部 115・・・判定部 116・・・再設定部

Claims (12)

  1. 第1点群データを取得する取得部と、
    前記第1点群データを主成分分析することにより主成分方向を決定し、前記主成分方向複数の位置において、前記主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出する算出部と、
    前記主成分方向の複数の位置における前記特徴量の変化を判定する判定部と、
    を備える処理装置。
  2. 前記算出部は、前記特徴量として、前記第2点群データが示す形状の経路長を算出する、請求項1に記載の処理装置。
  3. 前記算出部は、前記特徴量として、前記第2点群データが示す形状で囲まれた面積を算出する、請求項1に記載の処理装置。
  4. 前記形状は楕円形状であり、前記楕円形状の中心を前記第1点群データの主成分分析により求められる主成分の位置として決定する、請求項1から請求項3の何れか一項に記載の処理装置。
  5. 前記形状は、前記主成分方向の第1の位置で前記主成分方向と交差する第1面と、前記主成分方向の第2の位置で前記主成分方向と交差する第2面と、の間に存在する点群のそれぞれを、前記主成分方向へ移動させ、前記主成分方向に交差する1つの面内へ写像したときの点群が示す形状である、請求項2から請求項4の何れか一項に記載の処理装置。
  6. 前記算出部は、前記特徴量として、前記主成分方向の第1の位置で前記主成分方向と交差する第1面と、前記主成分方向の第2の位置で前記主成分方向に交差する第2面と、前記第1面と前記第2面との間に存在する点群と、に囲まれた領域の体積を算出する、請求項1に記載の処理装置。
  7. 前記判定部の判定に基づいて、前記第1点群データから前記第1点群データの部分である第1点第1部分データを設定する設定部を備える、
    請求項1から請求項6の何れか一項に記載の処理装置。
  8. 前記算出部は、前記第1点第1部分データを主成分分析することにより算出した新たな主成分の方向を示す第1方向を決定する、
    請求項に記載の処理装置。
  9. 群データからモデル情報を生成するモデル生成部を備え、
    前記設定部は、前記第1点第1部分データとは異なる第点群第2部分データを設定し、
    前記算出部は、前記第点群第2部分データを主成分分析することにより算出した新たな主成分の方向を示す第2方向を決定し、
    前記モデル生成部は、前記第1方向および前記第2方向から、前記モデル情報の第1部位と第2部位との接続部分を示す情報を生成する、請求項に記載の処理装置。
  10. 前記モデル情報は、前記点群データから生成される形状情報と、前記点群データから生成される姿勢情報との少なくとも一方を含む、請求項に記載の処理装置。
  11. 請求項1から請求項10の何れか一項に記載の処理装置と、
    物体までの距離情報を検出し、前記距離情報から点群データを生成する検出部と、を備える姿勢解析システム。
  12. コンピュータに実施させるプログラムであって、
    第1点群データを取得し、
    前記第1点群データを主成分分析することにより主成分方向を決定し、前記主成分方向複数の位置において、前記主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出し、
    前記主成分方向の複数の位置における前記特徴量の変化を判定する、処理を実行させるプログラム。
JP2022150449A 2018-07-31 2022-09-21 処理装置、姿勢解析システム、及びプログラム Active JP7447956B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018143688 2018-07-31
JP2018143688 2018-07-31
JP2020533388A JP7147848B2 (ja) 2018-07-31 2019-07-12 処理装置、姿勢解析システム、処理方法、及び処理プログラム
PCT/JP2019/027710 WO2020026765A1 (ja) 2018-07-31 2019-07-12 処理装置、姿勢解析システム、処理方法、及び処理プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020533388A Division JP7147848B2 (ja) 2018-07-31 2019-07-12 処理装置、姿勢解析システム、処理方法、及び処理プログラム

Publications (2)

Publication Number Publication Date
JP2022171943A JP2022171943A (ja) 2022-11-11
JP7447956B2 true JP7447956B2 (ja) 2024-03-12

Family

ID=69230645

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020533388A Active JP7147848B2 (ja) 2018-07-31 2019-07-12 処理装置、姿勢解析システム、処理方法、及び処理プログラム
JP2022150449A Active JP7447956B2 (ja) 2018-07-31 2022-09-21 処理装置、姿勢解析システム、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020533388A Active JP7147848B2 (ja) 2018-07-31 2019-07-12 処理装置、姿勢解析システム、処理方法、及び処理プログラム

Country Status (2)

Country Link
JP (2) JP7147848B2 (ja)
WO (1) WO2020026765A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519357A (ja) 2004-11-05 2008-06-05 本田技研工業株式会社 データ駆動確率伝播を伴う人間の姿勢推定
JP2016206026A (ja) 2015-04-23 2016-12-08 株式会社デンソー 物体認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519357A (ja) 2004-11-05 2008-06-05 本田技研工業株式会社 データ駆動確率伝播を伴う人間の姿勢推定
JP2016206026A (ja) 2015-04-23 2016-12-08 株式会社デンソー 物体認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高田 智,LIDARを用いた歩行者検出のための輪郭形状に基づく特徴記述,第23回 画像センシングシンポジウム SSII2017 [USB] The 23rd Symposium on Sensing via Image Information,日本,画像センシング技術研究会,2017年,SO3-ISS3-03

Also Published As

Publication number Publication date
WO2020026765A1 (ja) 2020-02-06
JP7147848B2 (ja) 2022-10-05
JPWO2020026765A1 (ja) 2021-08-02
JP2022171943A (ja) 2022-11-11

Similar Documents

Publication Publication Date Title
CN108475439B (zh) 三维模型生成***、三维模型生成方法和记录介质
KR102346320B1 (ko) 고속 3d 모델 피팅 및 인체 측정법
US9159134B2 (en) Method and apparatus for estimating a pose
JP6548967B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
US20160071322A1 (en) Image processing apparatus, image processing system and storage medium
KR20150079585A (ko) 일련의 2d 이미지로부터 정확한 신체 사이즈 치수를 도출하는 시스템 및 방법
WO2015183550A1 (en) Determining three-dimensional information from projections or placement of two-dimensional patterns
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
CN113474816A (zh) 弹性动态投影映射***和方法
US11885611B2 (en) Detection device, processing device, equipment, detection method, and detection program
KR101557492B1 (ko) 깊이 정보 기반으로 사용자의 3차원 신체 모델을 생성하는 방법 및 장치
KR101499699B1 (ko) 깊이 정보 기반으로 사용자의 3차원 신체 모델을 생성하는 방법 및 장치
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP7447956B2 (ja) 処理装置、姿勢解析システム、及びプログラム
JP7200994B2 (ja) 処理装置、検出装置、処理方法、及び処理プログラム
US20240013415A1 (en) Methods and systems for representing a user
US20180274918A1 (en) Three-dimensional measurement apparatus, non-transitory computer readable medium, and three-dimensional measurement system
JP7234595B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP2022037506A (ja) 検出装置、処理装置、検出方法、及び処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150