JP6655513B2 - 姿勢推定システム、姿勢推定装置、及び距離画像カメラ - Google Patents

姿勢推定システム、姿勢推定装置、及び距離画像カメラ Download PDF

Info

Publication number
JP6655513B2
JP6655513B2 JP2016184141A JP2016184141A JP6655513B2 JP 6655513 B2 JP6655513 B2 JP 6655513B2 JP 2016184141 A JP2016184141 A JP 2016184141A JP 2016184141 A JP2016184141 A JP 2016184141A JP 6655513 B2 JP6655513 B2 JP 6655513B2
Authority
JP
Japan
Prior art keywords
distance image
joint
posture
posture estimation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016184141A
Other languages
English (en)
Other versions
JP2018048890A (ja
Inventor
昭信 渡邊
昭信 渡邊
雄一 野中
雄一 野中
俊夫 上村
俊夫 上村
俊二 川村
俊二 川村
千代 大野
千代 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016184141A priority Critical patent/JP6655513B2/ja
Publication of JP2018048890A publication Critical patent/JP2018048890A/ja
Application granted granted Critical
Publication of JP6655513B2 publication Critical patent/JP6655513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、姿勢推定システム、姿勢推定装置、及び距離画像カメラに関する。
距離画像センサから取得した距離画像(「深度画像」ともいう)を用いて、人間等の対象の関節位置及び姿勢を推定する技術が知られている。例えば、特許文献1には、深度カメラを使ってゲームプレーヤーの動きを認識するコンピュータゲーミングシステムが記載されている。また例えば、特許文献2には、深度カメラからの深度画像を処理して各画素が関連付けられる体の部位の確率を計算し、画素から構成される体の部位を処理して体の部位の関節を決定する姿勢推定について記載されている。特許文献1や特許文献2に記載されているようなコンピュータシステムは、1台の深度カメラから送られる距離画像を処理するために十分な処理能力を持って入ればよい。
米国特許第8295546号明細書 米国特許第8503720号明細書
ところで、様々な場所に設置した多数の距離画像カメラと、これらの距離画像カメラにネットワークを介して接続される遠隔サーバ装置とを用意し、この遠隔サーバ装置で各距離画像センサから受信した各距離画像から対象の姿勢推定を実行する、コンピュータシステム(例えば監視システム)が望まれている。このようなコンピュータシステムでは、多量の距離画像データによってネットワークの通信負荷が増大するとともに、遠隔サーバ装置の処理負荷が増大してしまう(あるいは非常に処理能力の高いコンピュータを用意する必要がある)。また、遠隔サーバ装置が実行する姿勢推定の方法も、多量の距離画像データを効率的に処理できるように改善する必要がある。
本発明は、距離画像カメラから送信される距離画像を用いて対象の姿勢推定を行うコンピュータシステムの処理負荷を低減することを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。
上記の課題を解決する本発明の一態様は、距離画像カメラと、前記距離画像カメラとネットワークを介して接続される姿勢推定装置とを含む姿勢推定システムであって、前記距離画像カメラは、距離画像センサから取得した入力距離画像から前景画素を含む領域を抽出し、前記抽出した領域を含む距離画像を生成する距離画像生成部と、前記生成された距離画像を前記姿勢推定装置に送信する通信部と、を備え、前記姿勢推定装置は、前記距離画像カメラから前記距離画像を受信する距離画像受信部と、前記受信された距離画像を用いて、前記前景画素に含まれる1つ以上の関節位置を識別し、前記識別された1つ以上の関節位置を含む推定姿勢情報を生成する姿勢推定部と、前記生成された推定姿勢情報を出力する出力部と、を備える。
本発明の一態様によれば、距離画像カメラから送信される距離画像を用いて対象の姿勢推定を行うコンピュータシステムの処理負荷を低減することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1実施形態に係る、姿勢推定システムのシステム構成例を示す図である。 本発明の第1実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。 本発明の第1実施形態に係る、姿勢推定装置を実現するコンピュータのハードウェア構成例を示す図である。 本発明の第1実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。 本発明の第1実施形態に係る、前景画素を抽出する方法の例を説明する図である。 本発明の第1実施形態に係る、姿勢推定装置の姿勢推定処理の一例を示すフローチャートである。 本発明の第2実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。 本発明の第2実施形態に係る、前景画素領域を切り出す方法の例を説明する図である。 本発明の第2実施形態に係る、前景画素領域を切り出す方法の他の例を説明する図である。 本発明の第3実施形態に係る、姿勢推定装置の機能構成例を示す図である。 本発明の第3実施形態に係る、姿勢推定装置の姿勢推定処理の一例を示すフローチャートである。 本発明の第3実施形態に係る、特徴量を算出する方法の例を説明する図である。 本発明の第4実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。 本発明の第4実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。 本発明の第4実施形態に係る、前景画素領域を切り出す方法の例を説明する図である。 本発明の第4実施形態に係る、前景画素領域を切り出す方法の他の例を説明する図である。 本発明の実施形態の変形例に係る、識別器を選択する方法の例を説明する図である。
以下、本発明の複数の実施形態について、図面を参照して説明する。
[第1実施形態]
図1は、第1実施形態に係る、姿勢推定システムのシステム構成例を示す図である。姿勢推定システムは、1台以上の距離画像カメラ1と、1台の姿勢推定装置2とを含む。各距離画像カメラ1と姿勢推定装置2は、ネットワークNを介して接続され、互いに通信することができる。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、WAN(Wide Area Network)、モバイル通信網、インターネット等の電気通信網であり、これらの2つ以上を組み合わせてもよい。
距離画像カメラ1は、人間等の対象が存在する対象空間の距離画像を撮像する撮像装置である。距離画像(「深度画像」ともいう)とは、画像中の各画素に、その階調情報(例えば、RGB)に加え深さ方向の距離情報が所定のスケーリングで記録された画像である。距離画像カメラ1は、例えばTOF(Time of Flight)方式のカメラであるが、距離画像を出力できれば、例えば可視光により撮像する2つの光学系を備えたステレオカメラ等の他の方式のカメラであってもよい。距離画像カメラは、距離画像センサと呼んでもよい。
本実施形態の距離画像カメラ1は、背景画素の階調情報及び距離情報に所定値(例えば「1」)を設定することにより、撮像した距離画像から背景を消去し、前景画素を含む距離画像を姿勢推定装置2に送信する。前景画素とは、人間や当該人間が持つ道具等の動作する対象に対応する画素群である。背景画素とは、前景画素以外の画素であり、背景に対応する画素群である。
姿勢推定装置2は、距離画像に含まれる前景画素から人間等の対象の姿勢を推定する装置である。姿勢推定装置2は、例えば、後述するようにサーバ等のコンピュータ装置で実現される。姿勢推定装置2は、複数台のコンピュータで実現されてもよい。
本実施形態の姿勢推定装置2は、距離画像に含まれる前景画素の距離情報に基づいて、対象を構成する部位(例えば、頭、腕、手、胴体などの体のパーツ、関節は含まない)を識別し、各部位に対して関節位置を識別し、識別した関節位置に基づいて対象の姿勢を推定する。
本実施形態では、距離画像カメラ1によって距離画像から背景が消去され、この距離画像が姿勢推定装置2に送信されて処理される。これにより、背景画素と前景画素の両方を含む一般的な距離画像を送信する場合と比べ、ネットワークNの通信負荷を低減することができる。また、姿勢推定装置2は前景画素に対して処理を実行すればよいため、一般的な距離画像を処理する場合と比べ、姿勢推定装置2の処理負荷を低減することができる。距離画像カメラ1の台数あるいは距離画像カメラ1の撮像レートが増加するほど、効果が大きくなる。
図2は、第1実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。距離画像カメラ1は、制御部11と、光源12と、距離画像センサ13と、距離画像生成部14と、通信部15とを含む。姿勢推定装置2は、通信部21と、距離画像受信部22と、姿勢推定部23と、出力部27とを含む。姿勢推定部23は、特徴量算出部24と、部位識別部25と、関節識別部26とを含む。
制御部11は、光源12、距離画像センサ13、距離画像生成部14、及び通信部15を制御する。例えば、制御部11は、光源12に光の照射を指示し、距離画像センサ13に照射光と反射光の位相差情報の生成を指示し、距離画像生成部14に距離画像の生成を指示し、通信部15に距離画像の送信を指示する。制御部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等を含むマイクロコンピュータや、専用ハードウェア回路により実現することができる。
光源12は、人間等の対象が存在する対象空間に対して光を照射する。光源12は、例えば、赤外光もしくは可視光を照射する発光ダイオード、半導体レーザ等のデバイスにより実現することができる。
距離画像センサ13は、対象空間からの反射光を、結像レンズ(図示せず)を介して受光し、画素毎に、照射時と受光時の位相差情報と、階調情報とを生成して出力する。距離画像センサ13は、例えば、照射時と受光時の位相差情報と階調情報とを生成する複数の受光素子を、二次元状に配列することで構成することができる。
距離画像生成部14は、距離画像センサ13から出力される画素毎の位相差情報を用いて、画素毎にその距離情報を算出する。そして、画素毎に距離情報と階調情報を含む入力距離画像を生成する。
また、距離画像生成部14は、入力距離画像から前景画素を抽出するとともに、背景を消去し、抽出された前景画素と消去された背景を含む出力距離画像を生成し、通信部15を介して姿勢推定装置2に送信する。例えば、距離画像生成部14は、対象が存在しないときに取得した対象空間の距離画像(背景のみを含む)と入力距離画像との、対応する画素の距離の差分を取り、差分がある部分を前景画素として抽出することができる。前景画素の抽出方法はこれに限定されない。例えば、距離が所定値未満の画素を前景画素として抽出してもよい。例えば、距離画像生成部14は、背景画素の階調情報及び距離情報を所定値(例えば「1」)に設定することにより、入力距離画像のサイズ(縦横の画素数を指す、以下同様)を変更することなく、背景を消去する。
なお、距離画像生成部14は、出力距離画像に対して所定の圧縮処理を施してデータ量を削減してもよい。上記の例では、背景画素が同じ値に設定されるため、背景画素が連続する領域では圧縮率を高めることができる。距離画像生成部14は、例えば、CPU、RAM等を含むマイクロコンピュータや、専用ハードウェア回路により実現することができる。
通信部15は、ネットワークNに接続され、距離画像生成部14から出力された距離画像を、姿勢推定装置2に送信する。通信部15は、例えば、LAN等の規格のネットワークインターフェイスにより実現することができる。
通信部21は、ネットワークNに接続され、各距離画像カメラ1から送信された距離画像を受信する。
距離画像受信部22は、距離画像を通信部21を介して受信し、姿勢推定部23に出力する。なお、距離画像受信部22は、受信した距離画像に所定の圧縮処理が施されている場合、当該距離画像に対して所定の伸長処理を施してもよい。
姿勢推定部23は、距離画像受信部22から出力された距離画像を用いて、当該距離画像に含まれる人物等の対象の姿勢を推定する。姿勢推定処理を行うため、姿勢推定部23は、特徴量算出部24、部位識別部25、及び関節識別部26を含むことができる。
特徴量算出部24は、距離画像を構成する各画素の距離情報を取得する。また、特徴量算出部24は、前景画素を構成する画素(注目画素)毎に、特徴量を算出する。上述のように背景画素には所定値が設定されているため、前景画素は背景画素から区別することができる。特徴量の算出方法は、既存の技術を用いることができ、限定されない。例えば、注目画素とその周囲画素の距離の差を特徴量とすればよい。具体例としては、注目画素を中心とする縦9画素×横9画素の矩形領域から、注目画素とその周囲の80画素それぞれとの距離の差を有する80次元(2次元配列)の特徴量ベクトルを用いることができる。
部位識別部25は、各注目画素が含まれる部位(例えば、頭、腕、手、胴体などの体のパーツ、関節は含まない)を識別する。部位の識別方法は、既存の技術を用いることができ、限定されない。例えば、特徴量閾値と部位ラベルを関連付けた決定木(識別器)に対して、注目画素の特徴量を入力することで、当該注目画素の部位ラベルを取得すればよい。部位ラベルとは、各部位の種類を示す情報などの、部位の識別子である。識別器には、例えば、ランダムフォレスト等の複数の決定木を用いることができ、予め学習したものを姿勢推定装置2の備える記憶装置に記憶しておけばよい。
関節識別部26は、識別された各注目画素の部位ラベルを用いて、対象の関節位置を識別する。関節位置の識別方法は、既存の技術を用いることができ、限定されない。例えば、同一部位ラベルが付与された注目画素群である部位毎に、その重心位置(関節位置候補)を取得すればよい。重心位置の取得には、例えば、mean-shift法を用いることができる。また、例えば、直線距離や角度などの関節間の関係を定義した人体の関節モデルを用いて、各重心位置の関節モデルに対する整合性を評価し、最終的な各関節位置を決定すればよい。また、各関節位置の関節ラベルを決定してもよい。関節ラベルとは、例えば、首関節、手首関節、肩関節など関節の種類を示す情報などの、関節の識別子である。
出力部27は、関節識別部26により識別された関節位置を含む推定姿勢情報を出力する。関節位置は、例えば、距離画像と同じ座標系の位置座標情報である。推定姿勢情報は、各関節位置の距離情報、各関節位置の関節ラベル、関節どうしを結ぶ線分情報等を含んでもよい。例えば、出力部27は、通信部21を介して推定姿勢情報を外部のコンピュータやストレージに送信してもよいし、各関節位置を示す画像情報を姿勢推定装置2の備えるディスプレイに表示させてもよい。出力部27は、距離画像を出力してもよい。
図3は、第1実施形態に係る、姿勢推定装置を実現するコンピュータのハードウェア構成例を示す図である。姿勢推定装置2は、例えば図3に示すようなコンピュータ90により実現することができる。コンピュータ90は、例えば、サーバーコンピュータであるが、パーソナルコンピュータ、スマートフォン、タブレットコンピューター等のコンピュータ機器であってもよい。また、姿勢推定装置2は、複数のコンピュータ90により構成されてもよい。
コンピュータ90は、演算装置91と、主記憶装置92と、外部記憶装置93と、通信装置94と、読み書き装置95と、入力装置96と、出力装置97とを含む。
演算装置91は、例えば、CPUなどの演算ユニットである。主記憶装置92は、例えば、RAMなどの記憶装置である。外部記憶装置93は、例えば、ハードディスクやSSD(Solid State Drive)、あるいはフラッシュROM(Read Only Memory)などの記憶装置である。通信装置94は、ネットワークケーブルを介して有線通信を行う通信装置、アンテナを介して無線通信を行う通信装置を含む、情報を送受信する装置である。読み書き装置95は、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリー等の記録媒体に情報を読み書きする装置である。入力装置96は、キーボードやマウスなどのポインティングデバイス、タッチパネル、マイクロフォンなどを含む、入力情報を受け付ける装置である。出力装置97は、ディスプレイ、プリンター、スピーカーなどを含む、出力情報を出力する装置である。主記憶装置92及び外部記憶装置93の少なくとも一部は、例えば、通信装置94を介して接続されるネットワーク上のストレージにより実現されてもよい。
距離画像受信部22、姿勢推定部23、及び出力部27(これらを「制御部」と呼んでもよい)は、例えば、演算装置91が所定のアプリケーションプログラムを実行することによって実現することができる。このアプリケーションプログラムは、例えば、外部記憶装置93内に記憶され、実行にあたって主記憶装置92上にロードされ、演算装置91によって実行される。通信部21は、例えば、通信装置94によって実現される。
図4は、第1実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。本図のフローチャートは、1フレームの距離画像毎に実行される。
まず、距離画像生成部14は、距離画像センサ13から出力される画素毎の情報を用いて、画素毎に距離情報と階調情報を含む入力距離画像を生成する(ステップS10)。
それから、距離画像生成部14は、ステップS10で生成した入力距離画像から前景画素を抽出するとともに、背景を消去し、抽出された前景画素と消去された背景を含む出力距離画像を生成する(ステップS20)。
図5は、第1実施形態に係る、前景画素を抽出する方法の例を説明する図である。距離画像生成部14は、入力距離画像(A)のうち、事前に取得した対象空間の背景画素(B)に所定値を設定し(所定値に置換し)、出力距離画像(C)を生成する。入力距離画像(A)と出力距離画像(B)は、同じ座標系及びサイズを有する。
図4に戻って、距離画像生成部14は、ステップS20で生成した出力距離画像を、通信部15を介して姿勢推定装置2に送信する(ステップS30)。
それから、距離画像受信部22は、ステップS30で距離画像カメラ1から送信された距離画像を、通信部21を介して受信する(ステップS40)。
それから、姿勢推定部23は、ステップS40で受信された距離画像を用いて、当該距離画像に含まれる人物等の対象の姿勢を推定する(ステップS50)。
最後に、出力部27は、ステップS50で姿勢推定部23から出力された関節位置を含む推定姿勢情報を出力する(ステップS60)。
図6は、第1実施形態に係る、姿勢推定装置の姿勢推定処理の一例を示すフローチャートである。図6のフローチャートは、図4のステップS50の詳細を示している。
まず、特徴量算出部24は、前景画素から注目画素を1つ選択し(ステップS51)、選択した注目画素と1つ以上の周囲画素の距離情報を用いて、当該注目画素の特徴量を算出する(S52)。それから、部位識別部25は、算出された注目画素の特徴量を、予め用意した識別器に入力することで、当該注目画素の部位ラベルを取得する(ステップS53)。
それから、姿勢推定部23は、前景画素を構成する全ての注目画素を選択したかどうかを判定する(ステップS54)。全画素を選択していないと判定した場合(ステップS54でNO)、姿勢推定部23は、処理をステップS51に戻す。全画素を選択したと判定した場合(ステップS54でYES)、姿勢推定部23は、処理をステップS55に進める。
関節識別部26は、ステップS53で識別された各注目画素の部位ラベルを用いて、部位毎に、その重心位置(関節位置候補)を取得する(ステップS55)。最後に、関節識別部26は、取得した各部位の重心位置に基づいて、最終的な1つ以上の関節位置を決定する(ステップS56)。
上述した第1実施形態に係る姿勢推定システムでは、距離画像カメラ1が距離画像から前景画素を抽出するとともに背景を消去し、姿勢推定装置2に送信する。これにより、ネットワークNの通信負荷を低減することができるとともに、姿勢推定装置2の処理負荷を低減することができる。
[第2実施形態]
第2実施形態は、第1実施形態と異なる形式の出力距離画像を使用する。第2実施形態に係る距離画像カメラ1A及び姿勢推定装置2Aの構成要素は、図2と同様である。以下、第1実施形態と異なる点を中心に説明する。
図7は、第2実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。
まず、距離画像生成部14は、距離画像センサ13から出力される画素毎の情報を用いて、画素毎に距離情報と階調情報を含む入力距離画像を生成する(ステップS10)。
それから、距離画像生成部14は、ステップS10で生成した入力距離画像から前景画素を抽出するとともに、背景を消去し、前景画素を含む領域を切り出した距離画像を生成する(ステップS20A)。
図8は、第2実施形態に係る、前景画素領域を切り出す方法の例を説明する図である。距離画像生成部14は、入力距離画像(A)のうち、事前に取得した対象空間の背景画素(B)に所定値を設定(所定値に置換)することにより、距離画像(C)を取得する。また、距離画像生成部14は、距離画像(C)から前景画素を含む最小の矩形領域の周囲に所定のマージン領域を付加した矩形領域a(マージン領域を付加しなくてもよい)を切り出し、これを出力距離画像(D)として生成する。出力距離画像(D)は、入力距離画像(A)よりも小さいサイズを有する。また、距離画像生成部14は、領域aの位置を定義する情報(例えば、入力距離画像の座標系における、領域aの4隅の点a0〜a3の位置座標など)を含むメタデータを生成する。
前景画素の切り出し方法は上記方法に限定されない。図9は、第2実施形態に係る、前景画素領域を切り出す方法の他の例を説明する図である。
図9(A)に示す方法では、距離画像生成部14は、前景画素を包含する複数の矩形領域bを重ならないように設定し、これらの矩形領域bを合成した領域を切り出す。この場合、距離画像生成部14は、各矩形領域bの位置を定義する情報(例えば、設定した矩形領域bの数、各矩形領域bのx方向の長さbx及びy方向の長さby、入力距離画像の座標系における各矩形領域bの原点b0の位置座標など)を含むメタデータを生成する。各矩形領域bのサイズは、同じに設定してもよいし、異ならせて設定してもよい。各矩形領域bのサイズが同じ場合、メタデータは、bx及びbyを1組含めばよい。各矩形領域bのサイズが異なる場合、メタデータは、bx及びbyを矩形領域bごとに含めばよい。
図9(B)に示す方法では、距離画像生成部14は、入力距離画像の全体を覆うように所定規則で配列された複数の同一サイズの矩形領域b(図中の識別番号0〜93)の中から、前景画素を包含する複数の矩形領域b(識別番号19、30〜34、42〜48、56〜59、61〜62、70〜71)を選択し、これらの選択した矩形領域bを合成した領域を切り出す。この場合、距離画像生成部14は、各矩形領域bの位置を定義する情報(例えば、選択した矩形領域bの数、各矩形領域bのx方向の長さbx及びy方向の長さby、選択した各矩形領域bの識別番号など)を含むメタデータを生成する。メタデータは、bx及びbyを1組含めばよい。
図7に戻って、距離画像生成部14は、ステップS20Aで生成した出力距離画像及びメタデータを、通信部15を介して姿勢推定装置2Aに送信する(ステップS30A)。
それから、距離画像受信部22は、ステップS30Aで距離画像カメラ1Aから送信された距離画像及びメタデータを、通信部21を介して受信する(ステップS40A)。
それから、姿勢推定部23は、ステップS40Aで受信された距離画像を用いて、当該距離画像に含まれる人物等の対象の姿勢を推定する(ステップS50A)。ステップS50Aの処理は、距離画像のサイズが異なる点を除いて図4のステップS50と同様である。ただし、姿勢推定部23は、ステップS40Aで受信されたメタデータを用いて、識別した各関節位置の位置座標を、距離画像カメラ1Aの入力距離画像の座標系における位置座標に変換する。
例えば、図8の切り出し方法を用いた場合、姿勢推定部23は、識別した各関節位置の位置座標に、入力距離画像の原点Oに最も近い点a0の位置座標を加算すればよい。例えば、図9(A)の切り出し方法を用いた場合、姿勢推定部23は、矩形領域b毎に、当該矩形領域b内の識別した各関節位置の位置座標に、当該矩形領域bの原点b0の位置座標を加算すればよい。例えば、図9(B)の切り出し方法を用いた場合、姿勢推定部23は、bx及びbyと各矩形領域bの識別番号とを所定の演算式に代入することで、入力距離画像の座標系における各矩形領域bの原点b0の位置座標を計算する。そして、姿勢推定部23は、矩形領域b毎に、当該矩形領域b内の識別した各関節位置の位置座標に、当該矩形領域bの計算した原点b0の位置座標を加算すればよい。
最後に、出力部27は、ステップS50Aで姿勢推定部23から出力された関節位置(座標変換済)を含む推定姿勢情報を出力する(ステップS60A)。
上述した第2実施形態に係る姿勢推定システムでは、距離画像カメラ1Aが距離画像から前景画素領域を切り出し、姿勢推定装置2Aに送信する。距離画像サイズが第1実施形態よりも削減されるため、さらに通信負荷及び処理負荷を低減することができる。
[第3実施形態]
第3実施形態は、第1実施形態と異なる姿勢推定処理を実行する。以下、第1実施形態と異なる点を中心に説明する。
図10は、第3実施形態に係る、姿勢推定装置の機能構成例を示す図である。第3実施形態に係る距離画像カメラ1B(図示せず)の構成要素は、図2と同様である。第3実施形態に係る姿勢推定装置2Bには、図2に示す部位識別部25は含まれていない。姿勢推定装置2Bは、距離画像に含まれる各前景画素の距離情報に基づいて、部位を識別することなく関節位置を識別し、識別した関節位置に基づいて対象の姿勢を推定する。
図11は、第3実施形態に係る、姿勢推定装置の姿勢推定処理の一例を示すフローチャートである。図11のフローチャートは、図4のステップS50の詳細を示している。
まず、特徴量算出部24は、前景画素から注目画素を1つ選択し(ステップS51B)、選択した注目画素と1つ以上の周囲画素の距離情報を用いて、当該注目画素の特徴量を算出する(S52B)。
図12は、第3実施形態に係る、特徴量を算出する方法の例を説明する図である。この具体例では、特徴量算出部24は、注目画素を中心(原点)とする極座標系を設定する。また、特徴量算出部24は、所定開始角度(例えば0°)から単位角度(例えば10°)毎に、注目画素から半径r方向に所定間隔おきに(例えば5画素おき)で画素をサンプリングし、前景画素が最も多い角度をθ=0°に設定する。それから、特徴量算出部24は、θ=0°から360°まで単位角度(例えば45°)毎に、注目画素から半径r方向に所定間隔おき(例えば50画素おきに)で5画素を選択する。そして、注目画素とその周囲5×8画素それぞれとの距離の差を有する40次元(2次元配列)の特徴量ベクトルを算出する。
それから、関節識別部26は、算出された注目画素の特徴量を、予め用意した識別器に入力することで、当該注目画素の関節ラベルを取得する(ステップS53B)。例えば、特徴量閾値と関節ラベル(例えば、手首関節、肩関節など関節の種類を示す情報)を関連付けた決定木(識別器)に対して、注目画素の特徴量を入力することで、当該注目画素の関節ラベルを取得すればよい。識別器には、例えば、ランダムフォレスト等の複数の決定木を用いることができ、予め学習したものを姿勢推定装置2Bの備える記憶装置に記憶しておけばよい。
それから、姿勢推定部23は、前景画素を構成する全ての注目画素を選択したかどうかを判定する(ステップS54B)。全画素を選択していないと判定した場合(ステップS54BでNO)、姿勢推定部23は、処理をステップS51Bに戻す。全画素を選択したと判定した場合(ステップS54BでYES)、姿勢推定部23は、処理をステップS556Bに進める。
関節識別部26は、ステップS53Bで識別された各注目画素の関節ラベルに基づいて、最終的な1つ以上の関節位置を決定する(ステップS56B)。例えば、関節識別部26は、同一関節ラベルが付与された注目画素群毎(関節毎)に、識別率(決定木で識別される各関節ラベルに関連付けられている)が最も高い注目画素を特定し、これを最終的な関節位置として決定すればよい。
上述した第3実施形態に係る姿勢推定システムでは、姿勢推定装置2Bは、決定木を用いて注目画素の特徴量から直接的に関節ラベル及び関節位置を決定する。第1実施形態と比べて、部位ラベルの識別、重心位置の取得、重心位置の整合性評価といった演算処理を実行する必要がないため、姿勢推定装置2Bの処理負荷を低減することができる。
[第4実施形態]
第4実施形態では、距離画像カメラが姿勢推定装置からのフィードバック情報をもとに距離画像を生成する。以下、第1実施形態と異なる点を中心に説明する。
図13は、第4実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。第4実施形態に係る距離画像カメラ1C及び姿勢推定装置2Cの構成要素は、図2と同様である。
姿勢推定部23は、関節識別部26により識別された関節位置を含む関節情報を、通信部21を介して距離画像カメラ1Cに送信する。関節位置は、例えば、距離画像と同じ座標系の位置座標情報である。関節情報は、各関節位置の関節ラベル(例えば、手首関節、肩関節など関節の種類を示す情報)を含んでもよい。
距離画像生成部14は、生成対象の今回の1フレームの出力距離画像を生成する前に、前回の1フレーム(直前の1フレームに限られず、それより前の1フレームでもよい)の出力距離画像に基づいて推定された関節情報を、通信部15を介して姿勢推定装置2Cから受信する。距離画像生成部14は、今回の1フレームの入力距離画像のうち、受信した関節情報が示す各関節位置を含む領域を、前景画素を含む領域として決定する。そして、距離画像生成部14は、今回の1フレームの入力距離画像から、決定した領域を切り出し、これを含む出力距離画像を生成し、通信部15を介して姿勢推定装置2Cに送信する。
図14は、第4実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。本図のフローチャートは、1フレームの距離画像毎に実行される。
まず、距離画像生成部14は、距離画像センサ13から出力される画素毎の情報を用いて、画素毎に距離情報と階調情報を含む入力距離画像(今回の1フレーム)を生成する(ステップS10)。
それから、距離画像生成部14は、前回の1フレームの距離画像から推定された関節情報を受信済であるかどうかを判定する(ステップS15C)。関節情報を受信済でないと判定した場合(ステップS15CでNO)、距離画像生成部14は、ステップS10で生成した入力距離画像を出力距離画像として、通信部15を介して姿勢推定装置2Cに送信する(ステップS35C)。
関節情報を受信済であると判定した場合(ステップS15CでYES)、距離画像生成部14は、ステップS10で生成した入力距離画像から、受信した関節情報が示す各関節位置を含む領域を、前景画素を含む領域として切り出した距離画像を生成する(ステップS25C)。
図15は、第4実施形態に係る、前景画素領域を切り出す方法の例を説明する図である。距離画像生成部14は、入力距離画像(A)から、関節情報(B)が示す各関節位置を含む最小の矩形領域の周囲に所定のマージン領域を付加した矩形領域cを切り出し、これを出力距離画像(C)として生成する。出力距離画像(C)は、背景は消去されていないが、入力距離画像(A)よりも小さいサイズを有する。また、距離画像生成部14は、領域cの位置を定義する情報(例えば、入力距離画像の座標系における、領域cの4隅c0〜c3の位置座標など)を含むメタデータを生成する。
各関節位置を含む領域の切り出し方法は上記方法に限定されない。図16は、第4実施形態に係る、前景画素領域を切り出す方法の他の例を説明する図である。距離画像生成部14は、各関節位置をそれぞれ包含する複数の矩形領域dを重ならないように設定し、これらの矩形領域dを合成した領域を切り出すようにしてもよい。各矩形領域dのサイズは、同じに設定することができる。この場合、距離画像生成部14は、各矩形領域dの位置を定義する情報(例えば、設定した矩形領域dの数、各矩形領域dのx方向の長さdx及びy方向の長さdy、入力距離画像の座標系における各矩形領域dの原点d0の位置座標など)を含むメタデータを生成する。メタデータは、dx及びdyを1組含めばよい。
各矩形領域dのサイズは、異ならせて設定してもよい。例えば、距離画像生成部14は、受信した関節情報に含まれる関節ラベルに応じて、矩形領域dのサイズを設定することができる。具体例としては、作業中の人間の各関節の移動量の予測を反映して、手首関節を含む矩形領域dを標準サイズより大きく設定し、腰関節を含む矩形領域dを標準サイズより小さく設定する。この場合、距離画像生成部14は、各矩形領域dの位置を定義する情報(例えば、設定した矩形領域dの数、各矩形領域dのx方向の長さdx及びy方向の長さdy、入力距離画像の座標系における各矩形領域dの原点d0の位置座標など)を含むメタデータを生成する。メタデータは、dx及びdyを矩形領域dごとに含めばよい。
図14に戻って、距離画像生成部14は、ステップS25Cで生成した出力距離画像及びメタデータを、通信部15を介して姿勢推定装置2Cに送信する(ステップS36C)。
距離画像受信部22は、ステップS35Cで距離画像カメラ1から送信された距離画像を、又は、ステップS36Cで距離画像カメラ1から送信された距離画像及びメタデータを、通信部21を介して受信する(ステップS40C)。
それから、姿勢推定部23は、ステップS40Cで受信された距離画像を用いて、当該距離画像に含まれる人物等の対象の姿勢を推定する(ステップS50C)。ステップS50Cの処理は、距離画像のサイズが異なる点を除いて図4のステップS50と同様である。ただし、姿勢推定部23は、ステップS40Cでメタデータが受信された場合、当該メタデータを用いて、識別した各関節位置の位置座標を、距離画像カメラ1Cの入力距離画像の座標系における位置座標に変換する。
例えば、図15の切り出し方法を用いた場合、姿勢推定部23は、識別した各関節位置の位置座標に、入力距離画像の原点Oに最も近い点c0の位置座標を加算すればよい。例えば、図16の切り出し方法を用いた場合、姿勢推定部23は、矩形領域d毎に、当該矩形領域d内の識別した各関節位置の位置座標に、当該矩形領域dの原点d0の位置座標を加算すればよい。
それから、姿勢推定部23は、ステップS50Cで識別された各関節位置を含む関節情報を、通信部21を介して距離画像カメラ1Cに送信する(ステップS55C)。姿勢推定部23は、各関節位置の関節ラベルを関節情報に含めてもよい。
最後に、出力部27は、ステップS50Cで姿勢推定部23から出力された関節位置を含む推定姿勢情報を出力する(ステップS60C)。
上述した第4実施形態に係る姿勢推定システムでは、距離画像カメラ1Cは、姿勢推定装置2から受信した関節情報が示す各関節位置を含む領域を出力距離画像として生成する。第1実施形態と比べ、背景画素と前景画素の区別を行わずに、関節位置を含む領域を前景画素領域として切り出すため、距離画像カメラ1Cの処理負荷を低減することができる。また、前回のフレームから推定された関節位置に基づいて、次のフレームの関節位置を含む領域を設定するため、姿勢推定に必要な領域(関節を含む領域)を精度よく切り出すことができる。
本発明は、上述の複数の実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。各実施形態および各変形例の2つ以上を適宜組み合わせることもできる。
第1〜第4実施形態では、1つの識別器を用いている。しかし、距離画像カメラの設置姿勢、あるいは距離画像カメラに対する対象の姿勢が変化した場合、すなわち撮像角度が変化した場合にも同じ識別器を用いていたのでは、部位あるいは関節の識別精度が低下する可能性がある。そこで、姿勢推定部23は、撮像角度に応じた複数の識別器を予め学習して記憶しておき、実際の撮像角度に応じて使用する識別器を選択してもよい。姿勢推定部23は、例えば、距離画像カメラの撮像角度を通信装置あるいは入力装置を介してユーザーから受け付けてもよいし、距離画像中に撮像されたマーカー等の形状や前景画素の位置に基づいて撮像角度を決定してもよい。なお、姿勢推定部23は、特徴量の算出方法も、撮像角度に応じて切り替えてもよい。
具体的に、距離画像中の前景画素に基づいて識別器を選択する方法について説明する。図17は、変形例に係る、識別器を選択する方法の例を説明する図である。まず、姿勢推定部23は、姿勢推定処理を実行する前に、距離画像を構成する画素の中から、距離情報に基づいて、高さが最も高い(距離画像カメラに近い)画素を選択する。それから、姿勢推定部23は、距離画像を複数の矩形領域e(図では識別番号1〜9で示す)に分割した場合に、選択した画素が含まれる領域e(図では識別番号5)を選択する。本変形例では、これらの各領域eに対応する複数の識別器が予め学習されて記憶装置に記憶されている。姿勢推定部23は、選択した領域eに対応する識別器を用いて姿勢推定処理を実行する。
図17の例では、撮像された人間の輪郭や体のパーツの輪郭は、人間が同じ姿勢を保っていたとしても、人間が含まれる領域eの位置によって異なる。人間が位置する場所によって、距離画像カメラから人間への方向(撮像角度)が異なるからである。そこで、各領域e(撮像角度に対応する)に適した識別器を用意して、識別精度を向上する。ここでは、人間の頭部に含まれる画素を特定するために、高さが最も高い画素を選択している。当該選択した画素が含まれる領域eは、人間の頭部が含まれる領域と推定される。
第2実施形態及び第4実施形態では、距離画像カメラ1A(1C)が出力する距離画像のサイズ(切り出し領域のサイズ)がフレーム毎に異なる可能性がある。そのため、姿勢推定装置2A(2C)はフレーム毎に異なる画像処理を行う必要があり、効率が低下する。そこで、距離画像カメラ1A(1C)は、フレーム毎に共通の切り出し領域のサイズを用いてもよい。具体例としては、距離画像生成部14は、入力距離画像がVGA(Video Graphics Array)のサイズである場合、VGAよりも小さいQVGA(Quarter VGA)のサイズで前景画素を切り出す。
第1〜第4実施形態において、例えば、距離画像を蓄積するデータベースをネットワークNに接続し、各距離画像カメラは距離画像を当該データベースに送信して蓄積し、姿勢推定装置は当該データベースから距離画像を取得するようにしてもよい。
第2実施形態の距離画像生成部14は、入力距離画像から背景を消去せずに、前景画素を含む領域を切り出してもよい。
第3実施形態の姿勢推定処理は、第2実施形態あるいは第4実施形態の姿勢推定処理に用いてもよい。
なお、図2、図10、及び図13等で示した距離画像カメラ及び姿勢推定装置の構成は、これらのデバイスの構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本発明が制限されることはない。距離画像カメラ及び姿勢推定装置の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理又は機能の分担は、本発明の目的及び効果を達成できるのであれば、図示したものに限られない。
また、図4、図6、図7、図11、及び図14等で示したフローチャートの処理単位は、距離画像カメラ及び姿勢推定装置の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本発明が制限されることはない。距離画像カメラ及び姿勢推定装置の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。さらに、本発明の目的及び効果を達成できるのであれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。
本発明は、上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現されてもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリーや、ハードディスク、SSD等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
本発明は、姿勢推定システム、姿勢推定装置、及び距離画像カメラだけでなく、姿勢推定装置や距離画像カメラで実行されるコンピュータ読み取り可能なプログラム、姿勢推定システム、姿勢推定装置、又は距離画像カメラにおける処理方法、などの様々な態様で提供することができる。
1(1A、1B、1C)…距離画像カメラ、2(2A、2B、2C)…姿勢推定装置、11…制御部、12…光源、13…距離画像センサ、14…距離画像生成部、15…通信部、21…通信部、22…距離画像受信部、23…姿勢推定部、24…特徴量算出部、25…部位識別部、26…関節識別部、27…出力部、90…コンピュータ、91…演算装置、92…主記憶装置、93…外部記憶装置、94…通信装置、95…読み書き装置、96…入力装置、97…出力装置、a…矩形領域、b…矩形領域、c…矩形領域、d…矩形領域、e…矩形領域、N…ネットワーク

Claims (13)

  1. 距離画像カメラと、前記距離画像カメラとネットワークを介して接続される姿勢推定装置とを含む姿勢推定システムであって、
    前記距離画像カメラは、
    距離画像センサから取得した入力距離画像から前景画素を含む領域を抽出し、前記抽出した領域を含む距離画像を生成する距離画像生成部と、
    前記生成された距離画像を前記姿勢推定装置に送信する通信部と、を備え、
    前記姿勢推定装置は、
    前記距離画像カメラから前記距離画像を受信する距離画像受信部と、
    前記受信された距離画像を用いて、前記前景画素に含まれる1つ以上の関節位置を識別し、前記識別された1つ以上の関節位置を含む推定姿勢情報を生成する姿勢推定部と、
    前記生成された推定姿勢情報を出力する出力部と、を備え
    前記姿勢推定部は、前記識別された1つ以上の関節位置を含む関節情報をフィードバック情報として前記距離画像カメラに送信し、
    前記距離画像生成部は、前記受信された関節情報が示す各関節位置を用いて前記前景画素を含む領域を決定する
    姿勢推定システム。
  2. 請求項1に記載の姿勢推定システムであって、
    前記距離画像生成部は、前記入力距離画像に含まれる背景画素それぞれに所定値を設定する
    姿勢推定システム。
  3. 請求項1に記載の姿勢推定システムであって、
    前記距離画像生成部は、前記前景画素を含む領域を前記入力距離画像から切り出すことにより前記距離画像を生成する
    姿勢推定システム。
  4. 請求項3に記載の姿勢推定システムであって、
    前記距離画像生成部は、前記生成した距離画像とともに、前記入力距離画像上の前記前景画素を含む領域の位置座標を前記姿勢推定装置に送信し、
    前記距離画像受信部は、前記距離画像カメラから前記距離画像とともに前記位置座標を受信し、
    前記姿勢推定部は、前記受信された位置座標を用いて、前記前景画素から識別した各関節位置の位置座標を、前記入力距離画像上の位置座標に変換する
    姿勢推定システム。
  5. 請求項3に記載の姿勢推定システムであって、
    前記距離画像生成部は、前記前景画素を包含する最小の矩形領域、又は当該矩形領域の周囲に所定のマージン領域を付加した領域を、前記入力距離画像から切り出す
    姿勢推定システム。
  6. 請求項3に記載の姿勢推定システムであって、
    前記距離画像生成部は、前記前景画素を包含する複数の矩形領域を設定し、これらの矩形領域を合成した領域を前記入力距離画像から切り出す
    姿勢推定システム。
  7. 請求項1に記載の姿勢推定システムであって、
    前記姿勢推定部は、前記前景画素を構成する画素それぞれについて特徴量を算出し、前記各画素の特徴量を用いて、特徴量閾値と関節ラベルとを関連付けた予め学習された識別器を参照することにより、前記1つ以上の関節位置を識別する
    姿勢推定システム。
  8. 請求項に記載の姿勢推定システムであって、
    前記距離画像生成部は、前記受信された関節情報が示す各関節位置を含むように設定した領域を、前記前景画素を含む領域として前記入力距離画像から切り出すことにより前記距離画像を生成する
    姿勢推定システム。
  9. 請求項に記載の姿勢推定システムであって、
    前記距離画像生成部は、前記関節情報が示す各関節位置を包含する最小の矩形領域の周囲に所定のマージン領域を付加した領域を、前記入力距離画像から切り出す
    姿勢推定システム。
  10. 請求項に記載の姿勢推定システムであって、
    前記関節情報は、前記各関節位置の関節ラベルを含み、
    前記距離画像生成部は、前記関節情報が示す各関節位置をそれぞれ包含し、前記各関節位置の前記関節ラベルに応じたサイズの複数の矩形領域を設定し、これらの矩形領域を合成した領域を、前記入力距離画像から切り出す
    姿勢推定システム。
  11. 請求項1に記載の姿勢推定システムであって、
    前記姿勢推定部は、
    特徴量閾値と部位ラベル又は関節ラベルとを関連付けた予め学習された複数の識別器から、前記受信された距離画像中の前記前景画素の位置に応じた識別器を選択し、
    前記前景画素を構成する画素それぞれについて特徴量を算出し、前記各画素の特徴量を用いて、前記選択した識別器を参照することにより、前記1つ以上の関節位置を識別する
    姿勢推定システム。
  12. 距離画像カメラとネットワークを介して接続される姿勢推定装置であって、
    入力距離画像から抽出された前景画素を含む領域を含む距離画像を、前記距離画像カメラから受信する距離画像受信部と、
    前記受信された距離画像を用いて、前記前景画素に含まれる1つ以上の関節位置を識別し、前記識別された1つ以上の関節位置を含む推定姿勢情報を生成する姿勢推定部と、
    前記生成された推定姿勢情報を出力する出力部と、を備え
    前記姿勢推定部は、前記識別された1つ以上の関節位置を含む関節情報をフィードバック情報として前記距離画像カメラに送信する
    姿勢推定装置。
  13. 距離画像センサと、
    前記距離画像センサから取得した入力距離画像から前景画素を含む領域を抽出し、前記抽出した領域を含む距離画像を生成する距離画像生成部と、
    前記生成された距離画像を姿勢推定装置に送信する通信部と、を備え、
    前記通信部は、前記姿勢推定装置において前記距離画像から識別された1つ以上の関節位置を含む関節情報をフィードバック情報として前記姿勢推定装置から受信し、
    前記距離画像生成部は、前記受信された関節情報を用いて前記前景画素を含む領域を決定する
    距離画像カメラ。
JP2016184141A 2016-09-21 2016-09-21 姿勢推定システム、姿勢推定装置、及び距離画像カメラ Active JP6655513B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016184141A JP6655513B2 (ja) 2016-09-21 2016-09-21 姿勢推定システム、姿勢推定装置、及び距離画像カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016184141A JP6655513B2 (ja) 2016-09-21 2016-09-21 姿勢推定システム、姿勢推定装置、及び距離画像カメラ

Publications (2)

Publication Number Publication Date
JP2018048890A JP2018048890A (ja) 2018-03-29
JP6655513B2 true JP6655513B2 (ja) 2020-02-26

Family

ID=61767509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016184141A Active JP6655513B2 (ja) 2016-09-21 2016-09-21 姿勢推定システム、姿勢推定装置、及び距離画像カメラ

Country Status (1)

Country Link
JP (1) JP6655513B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019179289A (ja) * 2018-03-30 2019-10-17 株式会社東海理化電機製作所 処理装置、及びプログラム
JP6920246B2 (ja) * 2018-04-26 2021-08-18 Kddi株式会社 行動認識装置、モデル構築装置及びプログラム
US10602207B2 (en) * 2018-08-03 2020-03-24 Facebook, Inc. Neural network based content distribution in an online system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5036084B2 (ja) * 2010-10-14 2012-09-26 シャープ株式会社 映像処理装置、映像処理方法、及びプログラム
JP2012120647A (ja) * 2010-12-07 2012-06-28 Alpha Co 姿勢検出装置
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
JP2015137887A (ja) * 2014-01-21 2015-07-30 聡一郎 岩瀬 変化形状測定装置、変化形状測定方法、および変化形状測定装置用プログラム
JP6381981B2 (ja) * 2014-06-12 2018-08-29 西日本旅客鉄道株式会社 線路空間支障物検知システム
EP3214604B1 (en) * 2014-10-30 2020-09-16 Panasonic Intellectual Property Management Co., Ltd. Orientation estimation method and orientation estimation device
JP6494253B2 (ja) * 2014-11-17 2019-04-03 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2018048890A (ja) 2018-03-29

Similar Documents

Publication Publication Date Title
US20200312026A1 (en) Augmentation of captured 3d scenes with contextual information
WO2020098686A1 (zh) 人脸检测模型的训练方法、人脸关键点的检测方法和装置
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
US8401225B2 (en) Moving object segmentation using depth images
US8891855B2 (en) Information processing apparatus, information processing method, and program for generating an image including virtual information whose size has been adjusted
JP6237804B2 (ja) 異常状況の検出方法及び装置
US11138419B2 (en) Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium
JP5251987B2 (ja) 人判定装置、方法およびプログラム
CN110998659A (zh) 图像处理***、图像处理方法、及程序
JP2013206273A (ja) 情報処理装置、情報処理方法、および情報処理システム
KR101971791B1 (ko) 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템 및 그 방법
US11157749B2 (en) Crowd state recognition device, learning method, and learning program
EP2987322A1 (en) Handheld portable optical scanner and method of using
KR101794148B1 (ko) 효율적인 자유 공간 손가락 인식
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP6655513B2 (ja) 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
US20230245373A1 (en) System and method for generating a three-dimensional photographic image
JP2019066238A (ja) 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
JP2020109626A (ja) 複数の3dポイントクラウドを使用して物理的オブジェクトの関節運動可能な部分を識別するための装置及び方法
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
JP6052533B2 (ja) 特徴量抽出装置および特徴量抽出方法
US10930068B2 (en) Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program
US20130106986A1 (en) Pointer information processing device, computer-readable recording medium and conference system
JP2018179876A (ja) 姿勢推定システム、距離画像カメラ、及び姿勢推定装置
KR101515845B1 (ko) 동작 인식 방법 및 동작 인식 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R151 Written notification of patent or utility model registration

Ref document number: 6655513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151