JP2022516466A - 情報処理装置、情報処理方法、並びにプログラム - Google Patents

情報処理装置、情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2022516466A
JP2022516466A JP2021537751A JP2021537751A JP2022516466A JP 2022516466 A JP2022516466 A JP 2022516466A JP 2021537751 A JP2021537751 A JP 2021537751A JP 2021537751 A JP2021537751 A JP 2021537751A JP 2022516466 A JP2022516466 A JP 2022516466A
Authority
JP
Japan
Prior art keywords
image pickup
pickup device
information
position information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021537751A
Other languages
English (en)
Inventor
宣浩 綱島
大資 田原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022516466A publication Critical patent/JP2022516466A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数台の撮像装置の位置を検出する。【解決手段】第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、第1の撮像装置と第2の撮像装置の第1の位置情報を検出する位置検出部と、第1の撮像装置の移動量を推定し、第2の位置情報を推定する位置推定部とを備える。身体的な特徴点は、被写体の関節から検出される。被写体は、人である。本技術は、複数台の撮像装置の位置を検出する情報処理装置に適用できる。

Description

本技術は情報処理装置、情報処理方法、並びにプログラムに関し、例えば、複数台の撮像装置が設置されているときに、撮像装置が設置されている位置を算出するようにした情報処理装置、情報処理方法、並びにプログラムに関する。
複数台の撮像装置で同一の物体やシーンなどを撮影し、撮影対象の3次元情報を取得する場合、複数台の撮像装置で撮影された対象の撮像装置毎の見え方の違いを用いて、各々の撮像装置から対象までの距離を算出する方法がある。
この方法により3次元情報を取得する場合、撮影に使用する複数台の撮像装置の位置関係が既知であることが必要となる。撮像装置の位置関係を求めることを、キャリブレーションと称する場合がある。
キャリブレーションの方法として、形や大きさが固定のパターンを印刷した専用のキャリブレーションボードと称されるボードを用い、そのキャリブレーションボードを、複数台の撮像装置で同時に撮影し、各撮像装置で撮影された画像を用いた解析を行うことで、撮像装置の位置関係が算出される。
キャリブレーションボードを用いないキャリブレーションの方法も提案されている。特許文献1では、画面に映っている人の頭と足の位置を、人を移動させながら時系列に複数検出して、それらの検出結果からキャリブレーションを行うことが提案されている。
特開2011-215082号公報
専用のキャリブレーションボードを用いて、キャリブレーションを行う場合、キャリブレーションボードがなければ、キャリブレーションを行えないため、キャリブレーションボードを予め用意しておく必要があり、キャリブレーションボードを用意するというユーザの手間がかかる。
また、複数台の撮像装置の位置を求めた後に、何らかの原因により撮像装置の位置が変わった場合、その位置を更新するためには、再度キャリブレーションボードを用いたキャリブレーションを行う必要があり、変化した位置を容易に修正することは困難であった。
また特許文献1による方法では、人が地面に対して垂直に立っている、地面が撮像装置の撮像範囲内にあるなど、種々の条件があり、使い勝手が低下してしまう可能性があった。
本技術は、このような状況に鑑みてなされたものであり、複数台の撮像装置の位置を容易に求めることができるようにするものである。
本技術の一側面の情報処理装置は、第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出する位置検出部と、前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する位置推定部とを備える。
本技術の一側面の情報処理方法は、撮像装置の位置を検出する情報処理装置が、第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出し、前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する。
本技術の一側面のプログラムは、コンピュータに、第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出し、前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する処理を実行させる。
本技術の一側面の情報処理装置、情報処理方法、並びにプログラムにおいては、第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、第1の撮像装置と第2の撮像装置の第1の位置情報が検出され、第1の撮像装置の移動量が推定されることで、第2の位置情報が推定される。
なお、情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、または、記録媒体に記録して、提供することができる。
本技術を適用した情報処理システムの一実施の形態の構成を示す図である。 撮像装置の構成例を示す図である。 情報処理装置の構成例を示す図である。 情報処理システムの機能構成例を示す図である。 第1の実施の形態における情報処理装置の構成を示す図である。 第1の実施の形態における情報処理装置の動作について説明するためのフローチャートである。 外部パラメータの算出の仕方について説明するための図である。 撮像装置の位置関係の一例を示す図である。 身体的な特徴点について説明するための図である。 位置情報の統合について説明するための図である。 外部パラメータの検証について説明するための図である。 第2の実施の形態における情報処理装置の構成を示す図である。 第2の実施の形態における情報処理装置の動作について説明するためのフローチャートである。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。
<情報処理システムの構成>
図1は、本技術を適用した情報処理システムの一実施の形態の構成を示す図である。本技術は、複数台の撮像装置が設置されている場合に、撮像装置が設置されている位置を求めるときに適用できる。また、複数台の撮像装置の位置が変化するようなときにも適用できる。
図1に示した情報処理システムは、撮像装置11-1、撮像装置11-2の2台の撮像装置と、情報処理装置12を備える構成とされている。以下の説明において、撮像装置11-1と撮像装置11-2を個々に区別する必要がない場合、単に撮像装置11と記述する。またここでは、2台の撮像装置11が設置されている場合を例に挙げて説明を続けるが、本技術は、少なくとも2台の撮像装置11があれば適用でき、また3台以上の撮像装置11がある場合にも適用できる。
撮像装置11は、被写体を撮像する機能を有する。撮像装置11で撮像された被写体を含む画像データは、情報処理装置12に供給される。情報処理装置12は、画像を解析することで、撮像装置11-1と撮像装置11-2の位置関係を求める。
撮像装置11と情報処理装置12は、画像データの授受を行える構成とされている。撮像装置11と情報処理装置12は、有線または/および無線で構成されたネットワークを介して互いにデータの授受を行える構成とされている。
撮像装置11は、静止画像、動画像を撮影する。以下の説明において、画像とは、撮像装置11で撮像された静止画像、または動画像を構成する1フレーム分の画像を表す。
複数台の撮像装置11で撮影した画像に対して幾何学的な処理、例えば被写体の3次元計測などを行う場合には、撮像装置11間の外部パラメータを求めるキャリブレーションを行う必要がある。また、外部パラメータまで求めなくても、それらからなる基礎行列を求めることで、自由視点映像などの様々なアプリケーションを実現することができる。
情報処理システムに含まれる情報処理装置12は、このようなキャリブレーションや、基礎行列を求めることができる。以下に、情報処理装置12がキャリブレーションや基礎行列を求める場合を例に挙げて説明を続ける。
<撮像装置の構成例>
図2は、撮像装置11の構成例を示す図である。撮像装置11は、レンズ系31等を含む光学系、撮像素子32、カメラ信号処理部であるDSP回路33、フレームメモリ34、表示部35、記録部36、操作系37、電源系38、および通信部39等を有している。
そして、DSP回路33、フレームメモリ34、表示部35、記録部36、操作系37、電源系38、および通信部39がバスライン40を介して相互に接続された構成となっている。CPU41は、撮像装置11内の各部を制御する。
レンズ系31は、被写体からの入射光(像光)を取り込んで撮像素子32の撮像面上に結像する。撮像素子32は、レンズ系31によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この撮像素子32として、以下に説明する画素を含む撮像素子(イメージセンサ)を用いることができる。
表示部35は、液晶表示部や有機EL(electro luminescence)表示部等のパネル型表示部からなり、撮像素子32で撮像された動画または静止画を表示する。記録部36は、撮像素子32で撮像された動画または静止画を、HDD(Hard Disk Drive)やDVD(Digital Versatile Disk)等の記録媒体に記録する。
操作系37は、ユーザによる操作の下に、本撮像装置が持つ様々な機能について操作指令を発する。電源系38は、DSP回路33、フレームメモリ34、表示部35、記録部36、操作系37、および通信部39の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。通信部39は、情報処理装置12と所定の通信方式で通信を行う。
<情報処理装置の構成例>
図3は、情報処理装置12のハードウエアの構成例を示す図である。情報処理装置12は、例えば、パーソナルコンピュータで構成することができる。情報処理装置12においては、CPU(Central Processing Unit)61、ROM(Read Only Memory)62、RAM(Random Access Memory)63は、バス64により相互に接続されている。バス64には、さらに、入出力インタフェース65が接続されている。入出力インタフェース65には、入力部66、出力部67、記憶部68、通信部69、およびドライブ70が接続されている。
入力部66は、キーボード、マウス、マイクロフォンなどよりなる。出力部67は、ディスプレイ、スピーカなどよりなる。記憶部68は、ハードディスクや不揮発性のメモリなどよりなる。通信部69は、ネットワークインタフェースなどよりなる。ドライブ70は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体71を駆動する。
<情報処理システムの機能>
図4は、情報処理システムの機能に関する構成例を示す図である。撮像装置11は、撮像部101と通信制御部102を備える。情報処理装置12は、画像入力部121、人検出部122、同一人物判定部123、特徴点検出部124、位置検出部125、位置統合部126、および位置追跡部127を備える。
撮像装置11の撮像部101は、図2に示した撮像装置11のレンズ系31や撮像素子32などを制御し、被写体の画像を撮像する機能を有する。通信制御部102は、通信部39(図2)を制御し、撮像部101により撮像された画像の画像データを、情報処理装置12に送信する。
情報処理装置12の画像入力部121は、撮像装置11から送信されてきた画像データを受信し、人検出部122と位置追跡部127に供給する。人検出部122は、画像データに基づく画像から人を検出する。同一人物判定部123は、複数の撮像装置11で撮像された画像から検出された人が、同一人物であるか否かを判定する。
特徴点検出部124は、同一人物判定部123により同一人物であると判定された人から、特徴点を検出し、位置検出部125に供給する。詳細は後述するが、人の身体的特徴、例えば肘や膝などの箇所が特徴点として抽出される。
位置検出部125は、撮像装置11の位置情報を検出する。詳細は後述するが、撮像装置11の位置情報とは、複数台の撮像装置11同士の相対的な位置や、実空間における位置を表す。位置統合部126は、複数の撮像装置11の位置情報を統合し、それぞれの撮像装置11の位置を特定する。
位置追跡部127は、所定の方法により、また位置検出部125とは異なる方法で、撮像装置11の位置情報を検出する。
以下の説明においては、図1に示したように、2台の撮像装置11からの情報を処理する情報処理装置12を例に挙げて説明を続ける。また、以下に説明する実施の形態においては、被写体として人が撮影され、人の身体的な特徴が検出される場合を例に挙げて説明を続けるが、身体的な特徴が得られる物体であれば、被写体は人に限らず本技術に適用できる。例えば、人の形を模写した所謂マネキン人形やぬいぐるみなどでも、上記した人の代わりに用いることができる。また、動物なども本技術に適用できる。
<第1の実施の形態>
第1の実施の形態として、人を撮像し、撮像された人から特徴点を検出し、検出された特徴点を用いて、撮像装置11の位置を特定する方法と、自己位置推定の技術により撮像装置11の位置を特定する方法を併用する情報処理装置について説明する。
2台の撮像装置11からの情報を処理する情報処理装置12の場合、図5に示すように、画像入力部121、人検出部122、特徴点検出部124、位置追跡部127は、撮像装置11毎に設けられる。第1の実施の形態における情報処理装置12は、情報処理装置12aと記述する。
図5を参照するに、情報処理装置12aは、撮像装置11-1からの画像データを入力する画像入力部121-1、撮像装置11-2からの画像データを入力する画像入力部121-2を備える。
画像入力部121-1に入力された画像データは、人検出部122-1と位置追跡部127-1に供給される。同じく、画像入力部121-2に入力された画像データは、人検出部122-2と位置追跡部127-2に供給される。
人検出部122-1は、供給された画像データに基づく画像内から人を検出する。同様に、人検出部122-2は、供給された画像データに基づく画像内から人を検出する。人検出部122は、例えば顔を検出したり、人物の特徴点を検出したりすることで、人を検出する。人が検出された場合、同一人物判定部123により、同一人物であるか否かが判定される。
同一人物判定部123は、人検出部122-1で検出された人と、人検出部122-2で検出された人が同一人物であるか否かを判定する。この判定は、顔認識により人物の特定を行ったり、服装から人物の特定を行ったりすることで行うことができる。
特徴点検出部124-1は、撮像装置11-1で撮像された画像から特徴点を抽出し、位置検出部125に供給する。特徴点は、人の身体的な特徴を表す箇所から検出されるため、人検出部122-1により人と判定された領域内の画像だけを対象として処理が行われれば良い。同様に特徴点検出部124-2は、撮像装置11-2で撮像された画像から特徴点を抽出し、位置検出部125に供給する。
なお、人検出部122において人物の特徴点を検出して人を検出する場合、人検出部122を特徴点検出部124として用い、特徴点検出部124を削除した構成とすることもできる。また、1人の人を撮像し、位置情報の検出を行う場合には、人検出部122と同一人物判定部123を削除した構成とすることもできる。
位置検出部125には、撮像装置11-1で撮像された画像から抽出された特徴点と、撮像装置11-2で撮像された画像から抽出された特徴点が供給され、供給された特徴点を用いて、撮像装置11-1と撮像装置11-2との相対的な位置を検出する。位置検出部125-1で検出された撮像装置11-1と撮像装置11-2との相対的な位置に関する位置情報は、位置統合部126に供給される。
位置情報とは、複数台の撮像装置11同士の相対的な位置や、実空間における位置を表す情報である。また、位置情報は、撮像装置11のX座標、Y座標、Z座標である。また、光軸のX軸周りの回転角、光軸のY軸周りの回転角、光軸のZ軸周りの回転角である。位置情報としては、これらの6個の情報が含まれるとして説明を続けるが、これら6個の情報のうちの数個の情報が取得される場合であっても本技術を適用できる。
また、以下および上記した説明において、撮像装置11の位置、位置情報、相対的な位置といった記載をした場合、撮像装置11の座標で表される位置情報だけでなく光軸の回転角を含む記載であるとする。
位置追跡部127-1は、撮像装置11-1の位置情報を推定する位置推定部として機能し、推定を継続して行うことで撮像装置11-1の位置情報を追跡する。位置追跡部127-1は、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて撮像装置11-1の自己位置を推定し、推定し続けることで、撮像装置11-1を追跡する。同様に、位置追跡部127-2は、撮像装置11-2の位置情報を、例えば、SLAM等の技術を用いて推定し、撮像装置11-2を追跡する。
なお、複数台の撮像装置11の全ての位置情報を推定する構成でなくても良く、複数台の撮像装置のうちの数台の撮像装置11の位置情報を推定する構成とすることもできる。例えば、図5では、撮像装置11-1の位置を推定するために位置追跡部127-1を備え、撮像装置11-2の位置を推定するために位置追跡部127-2を備える構成を例に挙げているが、撮像装置11-1または撮像装置11-2のどちらかの位置情報を推定する1つの位置追跡部127を備える構成とすることもできる。
位置検出部125、位置追跡部127-1、および位置追跡部127-2からの位置情報は、位置統合部126に供給される。位置統合部126は、複数台の撮像装置11の位置関係、この場合、撮像装置11-1と撮像装置11-2の位置関係を統合する。
図6のフローチャートを参照し、情報処理装置12aの動作について説明する。
ステップS101において、画像入力部121は、画像データを入力する。画像入力部121-1は、撮像装置11-1からの画像データを入力し、画像入力部121-2は、撮像装置11-2からの画像データを入力する。
ステップS102において、人検出部122は、画像入力部121により入力された画像データに基づく画像から人を検出する。人の検出は、人(情報処理装置12aを使うユーザ)が指定することで行われても良いし、所定のアルゴリズムを用いて行われても良い。例えば、ユーザがモニタに映し出された画像を見ながら、マウスなどの入力デバイスを操作し、人が写っている領域を指定することで、人が検出されるようにしても良い。
また、所定のアルゴリズムを用いて画像を解析することで、人が検出されるようにしても良い。所定のアルゴリズムとして、顔認識技術や人の身体的な特徴を検出する技術があり、それらの技術を適用することができるため、ここではその詳細な説明は省略する。
ステップS102において、人検出部122-1により撮像装置11-1で撮像された画像から人が検出され、その検出結果は、同一人物判定部123に供給される。また、人検出部122-2により撮像装置11-2で撮像された画像から人が検出され、その検出結果も、同一人物判定部123に供給される。
ステップS103において、同一人物判定部123は、人検出部122-1で検出された人と、人検出部122-2で検出された人が、同一人物であるか否かを判定する。複数の人が検出された場合には、検出された人の組み合わせを変えて同一人物であるか否かが判定される。
ステップS103において、同一人物判定部123により、同一人物であると判定された場合、ステップS104に処理が進められ、同一人物ではないと判定された場合、ステップS110に処理が進められる。
ステップS104において、特徴点検出部124は、画像入力部121に入力された画像データに基づく画像から、特徴点を検出する。この場合、人検出部122により、画像から人が検出されているため、その検出されている人の領域内を対象として特徴点の検出が行われる。また、処理対象とされる人は、同一人物判定部123により同一人物であると判定された人である。例えば、複数の人が検出されていた場合、同一人物であると判定されなかった人は、処理対象から除外される。
特徴点検出部124-1は、画像入力部121-1に入力された撮像装置11-1で撮像された画像から特徴点を抽出する。特徴点検出部124-2は、画像入力部121-2に入力された撮像装置11-2で撮像された画像から特徴点を抽出する。
特徴点として抽出されるのは、人の身体的な特徴がある部分とすることができる。例えば、人の関節を特徴点として検出するようにすることができる。後述するように、位置検出部125では、撮像装置11-1で撮像された画像から検出された特徴点と、撮像装置11-2で撮像された画像から検出された特徴点との対応関係から、撮像装置11-1と撮像装置11-2の相対的な位置関係が検出される。
すなわち、位置検出部125では、一方の画像から検出された特徴点としての関節情報と、位置が対応する他方の画像から検出された特徴点としての関節情報を組み合わせることにより、位置検出が行われる。このような特徴点を用いた位置検出が行われる場合、人の関節といった関節情報を特徴点として用いることで、被写体の向き、例えば、正面や背面等の向きに係わらず、また顔が画角内に収まっていないような場合であっても、撮像装置11の位置情報を求めることが可能となる。
人の関節以外にも、眼、鼻などの身体的な特徴点も検出されるようにしてももちろん良い。より具体的には、人の左肩、右肩、左肘、右肘、左手首、右手首、首元、左腰、右腰、左膝、右膝、左足首、右足首、右目、左目、鼻、口、右耳、左耳などが特徴点として検出されるようにすることができる。なおここに身体的な特徴としてあげた部分は、一例であり、他の部分、例えば、指の関節、指先、頭頂部といった部分が、上記した部分の代わりに検出されたり、上記した部分にさらに加えて検出されたりする構成とすることも可能である。
なお、ここでは特徴点との記載を行うが、ある程度の大きさを有する領域であったり、エッジなどの線分であったりしても良い。例えば、特徴点として眼が検出される場合、眼の中央の位置(黒目の中央)を特徴点として検出しても良いし、眼(眼球)の領域を特徴点として検出しても良いし、眼球とまぶたの境界(エッジ)部分を特徴点として検出しても良い。
特徴点の検出は、人が指定することで行われても良いし、所定のアルゴリズムを用いて行われても良い。例えば、人がモニタに映し出された画像を見ながら、マウスなどの入力デバイスを操作し、上記した左肩や右肩といった身体的な特徴を表す部分を特徴点として指定することで、特徴点が検出(設定)されるようにしても良い。人手により特徴点を検出(設定)する場合、誤った特徴点を検出する可能性は低く、精度良く検出できるという利点がある。
所定のアルゴリズムを用いて画像を解析することで、特徴点が検出されるようにしても良い。所定のアルゴリズムとして、例えば以下の文献1に記載があり、Open Poseなどと称される技術を適用することができる。
文献1 Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh. Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields. In CVPR, 2017.
文献1で開示されている技術は、人の姿勢推定を行う技術であり、姿勢推定を行うのに上記したような人の身体的な特徴がある部分(例えば、関節)を、検出する。文献1以外の他の技術を本技術に適用することもでき、他の方法により特徴点が検出されるようにすることも可能である。
文献1で開示されている技術は、簡便に記載すると、1枚の画像から関節位置がディープラーニング(Deep Learning)が用いられて推定され、関節毎に確信度マップ(confidence map)が求められる。例えば、18個の関節位置が検出される場合、18個の確信度マップが生成される。そして関節を繋ぎ合わせることで、人の姿勢情報が得られる。
特徴点検出部124(図5)においては、特徴点、すなわちこの場合、関節位置が検出できれば良いため、ここまでの処理が実行されれば良い。また、検出された検出位置が、肩であるのか、肘であるのかといった情報、さらには左肩であるのか右肩であるのかといった情報が後段の処理で必要だが、このような情報が得られれば、関節を繋ぎ合わせ、姿勢が推定されるといった処理は省略することも可能である。
また文献1によれば、画像に複数の人が写っている場合にも対応できる。複数の人が撮影されている場合には、関節の繋ぎ合わせを実行する際、以下の処理も実行される。
画像に複数の人が写っている場合、例えば左肩と左肘の繋ぎ方の組み合わせが複数存在する可能性がある。例えば、人Aの左肩が、人Aの左肘、人Bの左肘、人Cの左肘などと組み合わされる可能性がある。複数の組み合わせが存在するときに、正しい組み合わせを推定するためにPAFs(Part Affinity Fields)と称される手法が用いられる。この手法によれば、関節間の繋がり得る可能性を方向ベクトルマップとして予測することで、正しい組み合わせが推定される。
撮影されている人が1人である場合、PAFs手法による推定の処理などは省略することができる。
ステップS104において、特徴点検出部124により画像内から、人の身体的な特徴を表す箇所が特徴点として検出される。この検出に、所定のアルゴリズムを用いる場合、後段の処理、具体的には、位置検出部125で行う後述する処理が行える程度の特徴点が精度良く検出されれば良い。すなわち、上記した処理(一例として文献1に記載されている処理)の全てを実行する必要はなく、位置検出部125で行う後述する処理が行える程度の特徴点が精度良く検出されるための処理だけが実行されれば良い。
所定のアルゴリズムを用いて画像を解析することで、特徴点が検出されるようにした場合、人の関節位置などの身体的な特徴を、ユーザの手を煩わせることなく検出させることができる。一方で、誤検出や検出漏れが起こる可能性がある。
人による特徴点の検出と、所定のアルゴリズムを用いた特徴点の検出を組み合わせても良い。例えば、所定のアルゴリズムを用いた画像解析により特徴点を検出した後、人により検出された特徴点が正しいか否かの検証、誤検出の場合には補正、検知漏れがあるときには追加などが行われるようにしても良い。
また、所定のアルゴリズムを用いて特徴点を検出する場合、顔認証に用いられる画像解析も用いて、顔の部分と体の部分で異なるアルゴリズムを適用して、顔の部分からと体の部分からとで、それぞれ特徴点を検出するようにしても良い。
ステップS104(図6)において、特徴点検出部124は、画像から人の身体的な特徴点を検出する。ここでは、人の左肩、右肩、左肘、右肘、左手首、右手首、首元、左腰、右腰、左膝、右膝、左足首、右足首、右目、左目、鼻、口、右耳、左耳の18点が特徴点として検出される場合を例に挙げて説明を続ける。
ステップS105において、位置検出部125によりパラメータが算出される。位置検出部125は、特徴点検出部124-1により撮像装置11-1で撮像された画像から検出された特徴点と、特徴点検出部124-2により撮像装置11-2で撮像された画像から検出された特徴点が供給され、供給された特徴点を用いて撮像装置11-1と撮像装置11-2の相対的な位置を算出する。上記したように、相対的な位置とは、この場合、撮像装置11-1を基準としたとき、その撮像装置11-1に対する撮像装置11-2の位置である。
位置検出部125は、撮像装置11の相対的な位置として、外部パラメータと称されるパラメータを算出する。撮像装置11の外部パラメータ(一般的にカメラの外部パラメータと称されるパラメータ)とは、回転と並進(回転ベクトルと並進ベクトル)である。回転ベクトルは、撮像装置11の向きを表し、並進ベクトルは、撮像装置11の位置情報を表す。また、外部パラメータは、撮像装置11の座標系の原点は、光学的中心にあり、X軸とY軸でイメージ平面が定義されている。
外部パラメータを求め、外部パラメータを用いて撮像装置11のキャリブレーションが行える。ここで、外部パラメータの求め方について説明を加える。外部パラメータは、8点アルゴリズムと称されるアルゴリズムを用いて求めることが可能である。
図7に示すように3次元空間中に3次元点pが存在するとし、それらを撮像装置11-1と撮像装置11-2で撮影した際の画像平面上における投影点を、それぞれq0,q1としたとき、これらの間には以下のような関係式(1)が成り立つ。
Figure 2022516466000002
式(1)において、FはFundamental Matrix(基礎行列)である。この基礎行列Fは(q0,q1)のように、ある三次元点をそれぞれの撮像装置11で撮影したときの座標値のペアを8組以上用意し、8点アルゴリズムなどを適用することで求めることが可能である。
さらに、焦点距離や画像中心といった撮像装置11に固有のパラメータである内部パラメータ(K0,K1)と、基本行列E(Essential Matrix)を用いると、式(1)は、次式(2)のように展開できる。さらに式(2)から式(3)へと展開できる。
Figure 2022516466000003
Figure 2022516466000004
内部パラメータ(K0,K1)が既知である場合、上記対応点の組からE行列を求めることができる。さらに、このE行列は特異値分解を行うことで外部パラメータに分解することができる。また、この基本行列Eは、撮像装置の座標系における点pを表すベクトルをp0,p1としたとき、以下の式(4)を満たす。
Figure 2022516466000005
このとき撮像装置11が透視投影の撮像装置である場合、次式(5)が成り立つ。
Figure 2022516466000006
このときE行列は(p0,p1)のペアあるいは(q0,q1)のペアに対して8点アルゴリズムを適用することで求めることが可能である。以上のことから、複数の撮像装置11で撮像される画像間で得られる対応点の組から、Fundamental Matrixおよび外部パラメータを求めることができる。
位置検出部125は、このような8点アルゴリズムを適用した処理を行うことで、外部パラメータを算出する。上記した説明において、8点アルゴリズムに用いる8組の対応点は、人の身体的な特徴の位置として検出された特徴点の組となる。ここで、特徴点の組について説明を加える。
特徴点の組みについて説明するために、図8に示すような状況において検出される特徴点を例に挙げて説明する。図8に示すように、撮像装置11-1と撮像装置11-2は、180度の位置に配置され、人を撮影している。撮像装置11-1は、人を正面から撮影し、撮像装置11-2は、人を後ろ側から撮影している状態である。このように撮像装置11が配置されているときに、撮像装置11-1で撮像された画像(画像から検出された特徴点)を、図9の左図に示し、撮像装置11-2で撮像された画像(画像から検出された特徴点)を、図9の右図に示す。
撮像装置11-1は、被写体(人)を正面から撮像しているため、図9の左図に示したように、特徴点として18個検出される。特徴点検出部124は、検出された特徴点が人のどの部分から検出された特徴点であるのか示す情報(特徴点位置と記述する)と、特徴点を識別するための情報(特徴点識別子と記述する)を付与する。
特徴点識別子は、個々の特徴点を識別できる情報であれば良く、例えば、番号やアルファベットなどが割り当てられる。図9では、アルファベットが特徴点識別子として付与される場合を例に挙げて説明する。また、特徴点位置に関連付けた識別子、例えば、右足首には、特徴点識別子としてaを割り当てるという規則を設けておけば、特徴点識別子aは、右足首の部分から検出された特徴点であることが一意に識別できる。以下、特徴点aなどの記載は、特徴点識別子がaであり、所定の位置、例えば右足首の部分から検出された特徴点であることを表すとして説明を続ける。
図9の左図を参照するに、撮像装置11-1で撮像された画像11-1からは特徴点a乃至rが検出される。特徴点aは、右足首の部分から検出された特徴点であり、特徴点bは、左足首の部分から検出された特徴点である。特徴点cは、右膝の部分から検出された特徴点であり、特徴点dは、左膝の部分から検出された特徴点である。
特徴点eは、右腰の部分から検出された特徴点であり、特徴点fは、左腰の部分から検出された特徴点である。特徴点gは、右手首の部分から検出された特徴点であり、特徴点hは、左手首の部分から検出された特徴点である。特徴点iは、右肘の部分から検出された特徴点であり、特徴点jは、左肘の部分から検出された特徴点である。
特徴点kは、右肩の部分から検出された特徴点であり、特徴点lは、左肩の部分から検出された特徴点である。特徴点mは、首の部分から検出された特徴点である。特徴点nは、右耳の部分から検出された特徴点であり、特徴点oは、左耳の部分から検出された特徴点である。特徴点pは、右目の部分から検出された特徴点であり、特徴点qは、左目の部分から検出された特徴点である。特徴点rは、鼻の部分から検出された特徴点である。
図9の右図を参照するに、撮像装置11-2で撮像された画像11-2からは特徴点a’乃至o’が検出される。画像11-2から検出された特徴点(特徴点識別子)には、ダッシュを付して記述し、同一の識別子は同一箇所、例えば、識別子aと識別子a’は、右足首から検出された特徴点であることを示す。
撮像装置11-2は、人の背面から撮影しているため、顔の部分から検出される目や鼻は検出されないため、特徴点p’、特徴点q’、特徴点r’は図示していない。
位置検出部125(図5)には、図9を参照して説明した特徴点が入力される。位置検出部125には、特徴点に関する情報として、上記した特徴点位置や特徴点識別子といった情報の他に、どの撮像装置11で撮像されたかを表す情報(撮像装置特定情報と記述する)や撮影フレーム番号などの情報も含まれる。
撮影フレーム番号は、処理対象とされている画像を識別するための情報であり、例えば撮像装置11での撮影が開始されてから順次フレーム毎に割り振られる番号とすることができる。撮像装置特定情報と撮影フレーム番号は、撮像装置11から画像データとともに(画像データに含まれて)送信されてくる。撮影時間などの他の情報も、画像データとともに送信されてくるようにしても良い。
位置検出部125は、これら供給される情報を用いて、撮像装置11-1と撮像装置11-2でそれぞれ撮影された画像から抽出された特徴点間の対応付けを行う。対応付けられるのは、同一箇所から抽出された特徴点、換言すれば、特徴点位置が同一の特徴点が対応付けられる。例えば、図9に示したような場合、右足首から検出された特徴点aと特徴点a’が対応付けられ、左足首から検出された特徴点bと特徴点b’が対応付けられる。以下、対応付けられた2点の特徴点を、対応点と記述する。
上記した8点アルゴリズムを用いて、外部パラメータを算出する場合、対応点が8組あれば良い。画像11-1からは、18個の特徴点が検出され、画像11-2からは、15点の特徴点が検出されているため、15組の対応点が得られる。この15組の対応点のうち、8組の対応点が用いられ、上記したようにして外部パラメータが算出される。
8点アルゴリズムは、2台の撮像装置11の相対的な回転や位置情報の変化を求めるものである。よって、2台以上の複数台の撮像装置の位置情報を求めるためには、例えば、図10に示すように3台の撮像装置11-1乃至11-3の位置情報を求めるためには、1台の撮像装置11を基準とし、その基準とされた撮像装置11との相対的な位置が求められる。
図5に示した情報処理装置12aは、2台の撮像装置11の位置関係を求めるときの構成のため、位置検出部125は、1個必要となる。N台の撮像装置11の位置情報を求めるためには、(N-1)個の位置検出部125が情報処理装置12に設けられる。例えば、3台の撮像装置11-1乃至11-3の位置情報を求める場合、位置検出部125-1と位置検出部125-2の2個必要となる。
図10左図は、位置検出部125で検出された位置関係を表し、図10右図は、位置統合部126で統合された位置関係を表す。図10左図を参照するに、位置検出部125-1により、撮像装置11-1に対する撮像装置11-2の位置情報が検出される。撮像装置11-1の位置情報が位置P1である場合、位置P1に対する撮像装置11-2の位置P2が、位置検出部125-1により検出される。図10に示した例では、撮像装置11-1の左側であり、少し上側の位置に撮像装置11-2が位置していることが検出される。また、撮像装置11-1の光軸に対して、撮像装置11-2の光軸は、右上方に傾きを有する方向にあることも検出される。
同様に位置検出部125-2により、撮像装置11-1に対する撮像装置11-3の位置情報が検出される。撮像装置11-1の位置が位置P1である場合、位置P1に対する撮像装置11-3の位置P3が、位置検出部125-2により検出される。図10に示した例では、撮像装置11-1の右側であり、少し上側の位置に撮像装置11-3が位置していることが検出される。また、撮像装置11-1の光軸に対して、撮像装置11-3の光軸は、左上方に傾きを有する方向にあることも検出される。
位置統合部126は、位置検出部125-1から、撮像装置11-1を基準としたときの撮像装置11-2の相対的な位置に関する情報(位置P2の情報)と、位置検出部125-2から、撮像装置11-1を基準としたときの撮像装置11-3の相対的な位置に関する情報(位置P3の情報)を取得する。位置統合部126は、撮像装置11-1を基準とし、撮像装置11-2と撮像装置11-3の位置情報を統合することで、図10の右図に示したような位置関係を検出する。
位置統合部126において、撮像装置11-1を基準とし、換言すれば位置P1を基準とし、位置P2に撮像装置11-2が位置し、位置P3に撮像装置11-3が位置しているという情報が生成される。
このように、情報処理装置12aにおいては、複数台の撮像装置11のうちの1台の撮像装置11の位置を基準とし、その基準とされた撮像装置11と他の撮像装置11の相対的な位置関係を検出し、統合することで、複数台の撮像装置11の位置関係を検出する。
ここでは2台の撮像装置11の場合を例に挙げて説明しているため、情報処理装置12aは、図5に示したような構成となる。図5に示した情報処理装置12aの動作についての説明に戻り、ステップS105(図6)において、位置検出部125により撮像装置11-1と撮像装置11-2の相対的な位置(外部パラメータ)が求められる。
ここまでの処理で、撮像装置11-1と撮像装置11-2の相対的な位置が検出されたため、この時点で検出されている相対的な位置を位置統合部126に供給し、撮像装置11-1と撮像装置11-2の位置情報を統合する処理に移行しても良い。
位置統合部126における統合には、図10を参照して説明したように、3以上の複数台の撮像装置11がある場合には、所定の撮像装置11を基準としたときの他の撮像装置11の相対的な位置を統合する処理が含まれる。また、位置統合部126における統合には、位置検出部125で検出された撮像装置11-1と撮像装置11-2の相対的な位置、位置追跡部127-1で追跡されている撮像装置11-1の位置情報、および位置追跡部127-2で追跡されている撮像装置11-2の位置情報を統合する処理も含まれる。この統合については、後述する。
ステップS105において、位置検出部125により算出された外部パラメータの精度を高める処理がさらに実行されるようにしても良い。上記した処理では、8組の対応点を用いて外部パラメータを求めたが、8組以上の対応点を用い、より多くの情報から外部パラメータが算出されるようにすることで、算出される外部パラメータの精度を上げることができる。
8組以上の対応点を用いて撮像装置11の外部パラメータの精度を上げる処理について説明を加える。外部パラメータの精度を上げるために、算出された外部パラメータが正しいか否かの検証が行われる。
算出される外部パラメータの精度を上げるために、任意またはランダムに選択された8組の対応点から求められた外部パラメータから、残りの特徴点の位置との整合性が最も高い外部パラメータが選択されるようにする。この場合の整合性とは、算出された撮像装置11の外部パラメータが正しければ、外部パラメータの計算に用いた8組の対応点以外の対応点を、上記した式(1)に代入したとき、右辺は0になり、正しくなければ、誤差Eが発生することを意味する。
例えば、特徴点a乃至hと特徴点a’乃至h’の8組の対応点で外部パラメータを求め、その求められた外部パラメータと、特徴点i乃至oと特徴点i’乃至o’の対応点のいずれか1組の対応点を式(1)に代入したとき、その結果が0となった場合、正しい外部パラメータが算出されたと判定でき、0以外の誤差Eとなった場合、誤った外部パラメータが算出されたと判定できる。
代入結果が、誤差Eである場合、先に外部パラメータを算出したときに用いた特徴点a乃至hと特徴点a’乃至h’の8組の対応点以外の対応点、例えば、特徴点a乃至g,iと特徴点a’乃至g’,iの8組の対応点で外部パラメータを求め、その求められた外部パラメータと、特徴点a乃至g,iと特徴点a’乃至g’,iの8組の対応点以外の対応点を式(1)に代入し、誤差Eが発生するか否かを判定する。
0または誤差Eが最も小さな値となった外部パラメータが、最も精度が良く算出された外部パラメータであると推定できる。このような処理を行う場合について、再度図11を参照して説明する。
時刻T1において、特徴点a乃至hと特徴点a’乃至h’の8組の対応点で外部パラメータが求められ、基礎行列F1が算出される。この基礎行列F1を式(1)のFとし、特徴点iと特徴点i’の対応点を、式(1)に代入する。このときの計算結果を誤差E1iとする。同じく、基礎行列F1を式(1)のFとし、特徴点jと特徴点j’の対応点を、式(1)に代入し、誤差E1jが算出される。
基礎行列F1を式(1)のFとした計算が、特徴点k乃至oと特徴点k‘乃至o’のそれぞれの対応点において実行されることで、誤差E1k乃至誤差E1oが算出される。算出された誤差E1i乃至誤差E1oを全て加算した値を、誤差E1とする。
時刻T2において特徴点a乃至g,iと特徴点a’乃至g’,iの8組の対応点で外部パラメータが求められ、基礎行列F2が算出される。この基礎行列F2を式(1)のFとし、特徴点hと特徴点h’の対応点を、式(1)に代入し、誤差E2hが算出される。同じく、基礎行列F2を式(1)のFとした計算が、特徴点j乃至oと特徴点j‘乃至o’のそれぞれの対応点において実行されることで、誤差E2j乃至誤差E2oが算出される。算出された誤差E2hと誤差E2j乃至誤差E1oを全て加算した値を、誤差E2とする。
このように、8組の対応点を用いて外部パラメータを算出し、その算出された外部パラメータを、算出に用いた8組の対応点以外の対応点を用いて誤差Eをそれぞれ算出し、最終的に合計値を算出する。このような処理が、外部パラメータを算出するのに用いる8組の対応点を変えながら、繰り返し行われる。
15組の対応点から、8組の対応点を選択し、外部パラメータを算出する場合、全ての対応点を対象として外部パラメータを算出すると、組み合わせの公式から、15C8個の外部パラメータが算出され、誤差Eが算出される。これらの15C8個の誤差Eのうち、最も小さい値の誤差Eが算出されたときの外部パラメータが、最も精度良く算出された外部パラメータである。
そして、この最も精度良く算出された外部パラメータが用いられて、後段の処理が行われることで、撮像装置11の位置情報を精度良く算出することができる。
ここでは、8組の対応点を用いて外部パラメータを算出し、その算出された外部パラメータを、算出に用いた8組の対応点以外の対応点を用いて誤差Eを算出し、その合算値を比較するとした。その他の方法として合算せずに、上記した説明においては合算前の各対応点が代入されたときに得られた誤差Eのうちの最大値が比較されるようにしても良い。
誤差Eの最大値を比較したとき、その値が最も小さい誤差Eが抽出され、その誤差Eが算出されたときの外部パラメータが、最も精度良く算出された外部パラメータであるとして算出されるようにしても良い。例えば、上記した例では、誤差E1i乃至誤差E1oのうちの最大値と、誤差E2hと誤差E2j乃至誤差E1oのうちの最大値が比較され、小さい方の誤差Eが算出されたときの外部パラメータが、最も精度良く算出された外部パラメータとして設定されるようにしても良い。
また誤差Eの最大値ではなく、誤差Eの中央値や、誤差Eの平均値が用いられ、最も精度良く算出された外部パラメータが算出されるようにしても良い。
また、誤差Eの最大値、中央値、または平均値を用いる場合、外れ値を除外するために、予め閾値処理で、誤差が大きい特徴点を除く処理が行われるようにしても良い。例えば、図11の時刻T1において、誤差E1i乃至誤差E1oが算出されるが、この誤差E1i乃至誤差E1oのうち、例えば誤差E1oが閾値以上である場合、誤差E1oを除いた誤差E1i乃至誤差E1nが用いられ、最大値、中央値、または平均値が算出されるようにしても良い。
また、上記した文献1に基づく処理(特徴点を算出する処理)によれば、各特徴点の信頼度も付加情報として算出することができる。この信頼度を加味して外部パラメータが算出されるようにしても良い。人を撮像し、特徴点を検出する場合、人の姿勢や人に対する撮像装置の位置や角度により、検出される特徴点の信頼度は異なる。
例えば、図9に示したように、正面から撮像したときの右目の位置の特徴点nの信頼度は高いが、背面から撮像したときの右目の位置の特徴点n’は、仮に検出された場合でも信頼度は低い。
例えば、信頼度の高い特徴点の上位8組の対応点を用いて外部パラメータを求めるようにしても良い。また、上記した外部パラメータの精度を向上させる処理を実行する場合、信頼度が所定の閾値以上の特徴点だけを用いて処理が実行されるようにしても良い。すなわち、信頼度が所定の閾値以上の特徴点のうち8組の対応点が用いられて外部パラメータが求められ、その外部パラメータを算出した8組の対応点以外の対応点であり、信頼度が所定の閾値以上の特徴点からなる対応点が用いられて誤差Eが算出されるようにしても良い。
また、信頼度を重み付けとして用いるようにしても良い。例えば、外部パラメータの精度を向上させる処理において、誤差Eの合計値を算出し、比較するようにした場合、合計値を算出する際に信頼度が高い特徴点から算出された誤差Eは、重み付けを重くし、信頼度が低い特徴点から算出された誤差Eは、重み付けを低くして合計値を算出するようにしても良い。すなわち、信頼度が高い特徴点を用いた計算において算出された誤差Eは、誤差E自体も信頼度が高く、信頼度が低い特徴点を用いた計算において算出された誤差Eは、誤差E自体も信頼度が低いとして扱われるようにし、誤差Eの合計値が算出されるようにしても良い。
信頼度を用いた計算を行うことで、外部パラメータの信頼度、すなわち精度を向上させることができる。
ステップS105(図6)において、位置検出部125(図5)により算出された位置情報(外部パラメータ)は、位置統合部126に供給される。ステップS106において、位置統合部126は、位置情報を統合する。
このような処理が行われるのと並行して、位置追跡部127における処理も実行される。画像入力部121に入力された画像は、位置追跡部127にも供給され、位置追跡部127による処理も、人検出部122乃至位置検出部125において実行されるステップS102乃至S105の処理と並行して行われる。
ステップS107乃至S112の処理は、基本的に、位置追跡部127において実行される処理である。位置追跡部127-1と位置追跡部127-2において実行される処理は、扱う画像データが異なるだけで処理としては同一であるため、位置追跡部127の処理として説明を続ける。
ステップS107において、位置追跡部127は、全ての撮像装置11は静止しているか否かを判定する。ここでは、撮像装置11は2台である場合を例に挙げて説明しているため、2台の撮像装置11が静止している状態であるか否かが判定される。
ステップS107においては、2台の撮像装置がともに静止している状態であるか否かが判定されるため、2台とも動いている場合や1台が動いている場合には、ステップS107においてはNOと判定される。ステップS107において、2台の撮像装置11は静止している状態であると判定された場合、ステップS108に処理が進められる。
ステップS108において、位置追跡部127における位置情報の追跡は初期化される。この場合、2台の撮像装置11の1台または2台が動いている状態である場合には、位置追跡部127において実行されている撮像装置11の位置情報の追跡(位置情報の検出)が初期化される。
位置追跡部127は、SLAMなどと称される自己位置推定の技術を適用して撮像装置11の移動量を推定し、位置を推定する。SLAMは、各種センサから取得した情報から、自己位置推定と地図作成を同時に行う技術であり、自律移動ロボットなどに利用されている技術である。位置追跡部127は、自己位置推定を行えれば良く、SLAMを適用して自己位置推定を行う場合、地図作成は行わなくても良い。
位置追跡部127の自己位置推定に関する処理の一例を説明する。位置追跡部127は、撮像装置11で撮像された画像内から特徴点を抽出し、その特徴点と一致する前フレームの画像から抽出された特徴点を探索し、特徴点の対応ペアを生成する。特徴点として抽出されるのは、不動体である被写体からの特徴点であることが好ましく、例えば、建物、木、道路の白線などである。
この場合も特徴点が抽出されるとして説明を続けるが、点ではなく、領域であっても良い。例えば、画像内からエッジの部分を抽出し、そのエッジがある領域を特徴がある領域として抽出し、後段の処理に用いられるようにしても良い。
またここでは、1フレーム前の画像から抽出された特徴点と現フレームの画像から抽出された特徴点が比較される場合を例に挙げて説明を続けるが、1フレーム前ではなく、数フレーム前と現フレームとが比較される場合にも本技術を適用できる。また、フレーム(画像)が取得されるタイミングは、一般的なタイミング、例えば1秒間に30フレームなどのタイミングであってももちろん良いが、他のタイミングであっても良い。
特徴点が検出されると、特徴点の対応ペアが用いられて、自己の位置、この場合、撮像装置11の位置が推定される。この推定結果は、撮像装置11の位置情報、姿勢などである。特徴点の対応ペアが用いられ、1フレーム前の特徴点が、現フレーム内では、どの位置に撮影されているかを予測することで、移動方向が推定される。
位置追跡部127は、このような処理をフレーム(画像)が供給される毎に行うことで、撮像装置11の位置情報を推定し続ける。このように、画像内の特徴点の相対的な移動量から、撮像装置11自身の移動量を算出する場合、撮像装置11の相対位置を時間方向に積分していくことになり、誤差が発生すると、その誤差も蓄積されてしまう可能性がある。
誤差が蓄積されないように、所定のタイミングで初期化が行われるようにする。また、初期化が行われた場合、追跡していた撮像装置11の位置情報が失われるため、撮像装置11の最初の位置情報は、位置検出部125から供給されるようにする。
この初期化のタイミングとして、ステップS107(図6)において、全ての撮像装置11は、静止しているか否かが判定され、静止していると判定された場合、ステップS108に処理が進められ、追跡の初期化が行われる。
複数の撮像装置11があり、それら複数の撮像装置11が静止している状態のときには、ステップS102乃至S105において実行される位置検出、換言すれば、位置検出部125により検出される位置情報が、優先的に用いられるようにする。撮像装置11が静止している状態のときには、位置検出部125における位置情報の検出精度は高いと考えられ、そのようなときには、位置検出部125により検出される位置情報が、優先的に用いられるようにする。
ステップS107において、撮像装置11が静止しているか否かが判定されるが、このことを換言すれば、撮像装置11が動いているか否かが判定されることになる。撮像装置11が動いているとは、物理的に移動していることである。また、撮像装置11において、ズーム機能が実行されているときも、撮像装置11が動いている場合に含まれるとする。
ズーム機能が実行されているときには、位置追跡部127における撮像装置11の位置推定の精度が落ちる可能性がある。例えば、撮像装置11で所定の建物Aを撮像している場合を考える。建物Aに対して、撮像装置11が近づく方向で移動した場合、撮像装置11で撮像されている画像内で、建物Aが占める割合は大きくなる。すなわち、撮像装置11が建物Aに近づくことで、建物Aが大きく撮像されることになる。
一方、撮像装置11が、静止している状態で建物Aを撮像しているときにズーム機能が実行された場合も同様に、撮像装置11で撮像されている画像内で、建物Aが占める割合は大きくなる。すなわち、撮像装置11がズーム機能を実行することで、撮像装置11が建物Aに近づく場合と同じく、建物Aが大きく撮像されることになる。このように、画像内で建物Aが撮像されている領域が拡大するような場合、その拡大が、撮像装置11が移動することによるものか、ズーム機能によるものかは、画像だけから判断するのは困難である。
このようなことから、撮像装置11がズーム中のときの位置追跡部127による追跡結果は、信頼度が低いものとなってしまう。このようなことに対応するために、位置統合部126において、ズームが実行されたときは、位置追跡部127による自己位置推定の結果は用いられないようにする。
ステップS107において、撮像装置11が動いていると判断されるのは、物理的に移動しているときと、ズーム機能が実行されているときである。本技術によれば、撮像装置11がズーム機能を実行しているために、位置追跡部127による自己位置推定の精度が低下していても、その自己位置推定結果を用いずに、位置検出部125により検出される位置情報を用いることにより、撮像装置11の位置を特定することができる。
位置検出部125は、上記したように、人の身体的な特徴点を検出し、その特徴点を用いて撮像装置11の位置情報を検出する。撮像装置11がズーム中であっても、ズームによる画角の変化がわかっていれば、位置検出部125による位置情報の検出はできる。一般的に撮像装置11のズームは、撮像装置11の撮影タイミングとは非同期で動作するため、ズーム中の画角を正確に決定するのは困難である。
しかしながら、ズームスピードから、おおよその値は推定できる。ズーム中は、撮像装置11の位置の検出精度は低下する可能性があるが、ズーム中でも、位置検出部125による位置情報の検出を継続して行うことができる。また、ズーム中に位置情報の検出精度が低下したとしても、ズーム終了後に、位置情報の検出精度を元に戻すこことは可能である。
本技術によれば、位置検出部125により検出される位置情報と、位置追跡部127により検出される位置情報がある。撮像装置11がズーム機能を実行しているときには、位置検出部125により検出される位置情報を用い、位置検出部125により検出される位置情報を用いないようにすることができる。
また、撮像装置11がズーム機能を実行していないときには、位置検出部125により検出される位置情報と、位置追跡部127により検出される位置情報の両方が用いられるようにすることができる。
また撮像装置11が静止しているときには、位置検出部125により検出される位置情報が、位置追跡部127により検出される位置情報よりも優先して用いられるようにし、そのときに、位置追跡部127による位置追跡が初期化され、誤差が解消されるようにすることができる。
このような処理が行われる場合について、図6のフローチャートを参照した説明に戻り説明を続ける。ステップS107において、全ての撮像装置11は、静止しているか否かが判定される。複数台の撮像装置11のうち、1台でも動いていると判定された場合、ステップS109に処理が進められる。
撮像装置11が物理的に動いているか否かは、位置追跡部127により検出することができる。図5では、矢印を記載していないが、位置追跡部127同士で、撮像装置11が移動しているか否かの判定結果を授受できるように構成されている。
ステップS109において、位置追跡部127は、位置情報の追跡を継続して行う。すなわちこの場合、撮像装置11が動いているときには、位置追跡部127による位置追跡が継続して行われる。
ステップS110において、全ての撮像装置11は、静止しているか否かが判定される。このステップS110における判定は、ステップS107における判定と同一である。ステップS110の処理には、ステップS107において、撮像装置11のうち動いている撮像装置11があると判定された場合、またはステップS103において、同一人物はいないと判定されたときにくる。
ステップS107において、動いている撮像装置11があると判定され、ステップS110に処理が来た場合、ステップS110においても、動いている撮像装置11があると判定され、処理は、ステップS111に進められる。ステップS111において、位置追跡部127における追跡結果の位置情報が、位置統合部126に出力される。
一方で、ステップS103において、同一人物はいないと判定され、ステップS110に処理が来た場合、位置検出部125による位置情報の検出ができない状態のときである。このような場合に、ステップS110において、動いている撮像装置11があると判定された場合、ステップS111に進められ、位置追跡部127における追跡結果の位置情報が、位置統合部126に出力される。
一方で、ステップS110において、複数台の撮像装置11の全てが静止していると判定された場合、ステップS112に処理が進められる。ステップS112において、前回と同一の位置情報が、位置追跡部127から位置統合部126に出力される。
この場合、位置検出部125による位置情報の検出ができない状態であり、位置追跡部127による位置情報が初期化された場合である。撮像装置11が動いていないため、撮像装置11の位置情報の変化はないため、位置追跡部127により前回検出されていた位置情報、換言すれば初期化が行われる直前の位置情報が、位置統合部126に出力される。
ここでは、ステップS112においては、前回の検出結果が出力されるとして説明を続けるが、位置情報を出力しないようにしても良い。上記したように、撮像装置11の位置情報に変化がないため、出力しなくても、位置統合部126は、前回と同一の情報を用いることができる。換言すれば、位置統合部126は、位置情報を保持しておき、位置検出部125や位置追跡部127からの位置情報が入力されないときには、保持している位置情報を用いることができる。
位置統合部126は、ステップS106において、位置検出部125と位置追跡部127からそれぞれ出力された位置情報を統合することで、撮像装置11の位置を特定する。
この統合には、図10を参照して説明したように、3台以上の撮像装置11が処理対象とされていた場合、基準となる撮像装置11を設定し、その基準となる撮像装置11に対する他の撮像装置11の位置情報を特定していくことで、複数台の撮像装置11の位置情報を統合する処理が含まれる。この統合は、位置検出部125が複数ある場合であり、その複数の位置検出部125からの位置情報を統合する場合である。
また、図5に示した情報処理装置12aの構成のように、位置検出部125、位置追跡部127-1、および位置追跡部127-2があるような構成の場合、これらの部分から出力される位置情報を統合する処理もある。
ステップS106には、ステップS105において位置検出部125によりパラメータが算出され、ステップS111において、位置追跡部127により位置情報が出力された場合に来る(ケース1とする)。
また、ステップS106には、ステップS105において位置検出部125によりパラメータが算出され、ステップS112において、位置追跡部127により前回と同一の位置情報が出力された場合(ステップS108において初期化された場合)に来る(ケース2とする)。
また、ステップS106には、ステップS103において、同一人物が検出されなかった場合であり、ステップS111において、位置追跡部127により位置情報が出力された場合に来る(ケース3とする)。
また、ステップS106には、ステップS103において、同一人物が検出されなかった場合であり、ステップS112において、位置追跡部127により前回と同一の位置情報が出力された場合(ステップS108において初期化された場合)に来る(ケース4とする)。
位置統合部126は、これらケース1乃至4に応じて、位置情報を選択したり、統合したりする。基本的な動作としては、ケース1やケース2の場合のように、ステップS105までの処理が実行されることで、位置検出部125により撮像装置11-1と撮像装置11-2の相対的な位置(外部パラメータ)が算出されたときには、その位置検出部125により検出された位置情報が、位置統合部126により選択され、出力される。すなわち、位置検出部125により位置情報が検出されたときには、検出された他の位置情報よりも優先的に、位置検出部125により検出された位置情報が出力される。
より具体的にはケース1の場合、位置統合部126には、位置追跡部127-1から撮像装置11-1の位置情報が供給され、位置追跡部127-2から撮像装置11-2の位置情報が供給され、位置検出部125から撮像装置11-1と撮像装置11-2の相対的な位置に関する位置情報が供給される状況である。
このような状況の場合、位置統合部126は、位置追跡部127-1からの位置情報、位置追跡部127-2からの位置情報、および位置検出部125からの位置情報を、後述するような重み付けの処理などを実行して統合し、出力する。
ケース2の場合、位置統合部126には、位置追跡部127-1から撮像装置11-1の前回の位置情報が供給され、位置追跡部127-2から撮像装置11-2の前回の位置情報が供給され、位置検出部125から撮像装置11-1と撮像装置11-2の相対的な位置に関する位置情報が供給される状況である。
このような状況の場合、位置統合部126は、位置追跡部127-1からの位置情報、位置追跡部127-2からの位置情報、および位置検出部125からの位置情報を、後述するような重み付けの処理などを実行して統合し、出力する。
ケース2の場合、位置追跡部127-1からの位置情報と位置追跡部127-2からの位置情報は、前回の位置情報であるため、統合せずに位置検出部125からの位置情報のみが選択され、出力されるようにしても良い。
ステップS112において、位置情報を出力しないという処理を実行するように構成することも可能である。このように構成されている場合、位置統合部126には、位置検出部125からの位置情報のみが供給される状態であるため、位置検出部125からの位置情報が出力される。
ケース3の場合、位置統合部126には、位置追跡部127-1から撮像装置11-1の位置情報が供給され、位置追跡部127-2から撮像装置11-2の位置情報が供給され、位置検出部125からの位置情報は供給されない状況である。
このような状況の場合、位置統合部126は、位置追跡部127-1からの位置情報と位置追跡部127-2からの位置情報を統合して出力する。
ケース4の場合、位置統合部126には、位置追跡部127-1から撮像装置11-1の前回の位置情報が供給され、位置追跡部127-2から撮像装置11-2の前回の位置情報が供給され、位置検出部125からの位置情報は供給されない状況である。
このような状況の場合、位置統合部126は、位置追跡部127-1からの位置情報と位置追跡部127-2からの位置情報を統合して出力する。
またはケース4の場合、位置追跡部127-1からの位置情報と位置追跡部127-2からの位置情報は、前回の位置情報であるため、統合せずに前回の出力結果と同一の位置情報が出力されるようにしても良い。
また、ステップS112において、位置情報を出力しないという処理を実行するように構成することも可能である。このように構成されている場合、位置統合部126には、位置追跡部127-1、位置追跡部127-2、および位置検出部125のいずれからも位置情報が供給されない状況となる。このような状況の場合、位置統合部126に保持されている前回の位置情報が出力される。
ケース1乃至ケース4のいずれのケースの場合であっても、撮像装置11でズーム機能が実行されていると判定されたときには、位置追跡部127からの位置情報は用いないように制御される。すなわち、ズームが実行されていると位置統合部126が判定した場合、位置追跡部127からの位置情報が供給されても、その供給された位置情報は用いずに統合の処理が実行される。
このように、本技術によれば、位置検出部125と位置追跡部127で、異なる方式で位置情報を検出し、状況に応じて、精度が高いとされる位置情報を選択して出力することができる。
すなわち、位置検出部125は、人を撮像し、人の身体的な特徴点を検出し、その検出された特徴点を用いて撮像装置11の位置関係を検出するため、人が撮像されていないときには、位置情報の検出が正常に行えない。このようなときでも、自己位置推定を行う位置追跡部127による位置情報の検出は行えるため、位置追跡部127による検出結果を用いることができる。
また、位置追跡部127は、時間経過とともに誤差が蓄積される可能性があったり、ズーム機能が実行されると、位置情報の検出が正常に行えなかったりする。このようなときでも、位置検出部125による位置情報の検出は行えるため、位置検出部125による検出結果を用いることができる。
上記した処理において、位置検出部125により検出される位置の精度を向上させるために、時間方向に平滑化する処理が含まれるようにしても良い。平滑化について説明するために、再度図10を参照する。図10に示したように、3台の撮像装置11-1乃至11-3で人を撮影し、撮影された画像から人の身体的特徴となる特徴点を検出し、その特徴点を用いて、撮像装置11-1乃至11-3の位置情報を特定する。ここで、3台の撮像装置11-1乃至11-3で、同一人物が同時刻に撮影されていれば、位置検出部125の処理で、撮像装置11-1乃至11-3のそれぞれの位置情報を特定できる。
しかしながら、撮像装置11-1乃至11-3で、同一人物が同時刻に撮影されていない可能性もある。例えば時刻tにおいて、撮像装置11-1と撮像装置11-2では人Aを撮影していたが、撮像装置11-3では人Aを撮影していなかったような状況が発生する可能性がある。このような状況の場合、撮像装置11-3で撮影された画像からは特徴点が検出されず、撮像装置11-1で撮影された画像から検出された特徴点との対応点を求めることができない。
このような状況が発生したときに時刻tではない時刻において検出された特徴点を用いて位置情報が算出される。人は、動くため、所定の時刻tにおいては撮像装置11-3により撮影されていなくても、他の時刻では、撮像装置11-3でも撮影されている可能性が高い。
よって、時刻tにおいて、撮像装置11-3からの画像から特徴点が検出できなかった場合、その前の時点で撮影できていたときに得られた画像から検出された特徴点や、その後の時点で撮影できるようになったときに得られた画像から検出された特徴点を用いて撮像装置11-3の位置情報が算出されるようにする。
位置検出部125の後段であり、位置統合部126の前の部分に位置平滑化部を設ける。そして位置平滑部は、位置検出部125で最新の時刻tでの位置情報が取得できたときには、その位置情報を用い、位置情報が取得できなかったときには、1つ前の時刻t-1の結果を蓄積しておき、その蓄積している結果を用いる。
このような処理が位置平滑化部により行われることで、複数台の撮像装置11の全てにおいて視野に重なりがある状態で設置されていなくても、換言すれば、同時刻に同一人物を撮影できる位置に複数台の撮像装置11の全てが設置されていなくても、撮像装置11の相対的な位置を算出することができる。
換言すれば、基準となる撮像装置11と視野が重なるように配置されていれば、基準とされていない撮像装置11同士で重なる視野がない状態で配置されていても、人が動き回ることにより、複数台の撮像装置11のそれぞれの位置情報を算出することができる。
このように時間方向に平滑化する処理を行うようにしても良い。時間方向に平滑化することで、より位置検出の精度を向上させることができる。
上記した処理において、位置統合部126に、位置追跡部127-1から撮像装置11-1の位置情報が供給され、位置追跡部127-2から撮像装置11-2の位置情報が供給され、位置検出部125からも位置情報が供給された場合、これらの位置情報に重み付けを行った統合を行い、統合後の最終的な位置情報(特定された位置)が、出力されるようにすることができる。
重み付けを行う場合に、重み付けに用いる係数は、固定値であっても良いし、可変値であっても良い。可変値とした場合について説明を加える。
位置検出部125による位置検出は、特徴点検出部124により人の身体的な特徴点が検出され、その検出された特徴点が用いられて行われる。また位置追跡部127による位置情報の検出は、建物や木といった特徴がある箇所から特徴点が検出され、その特徴点の移動方向が推測されることで行われる。このように、位置検出部125と位置追跡部127は、ともに特徴点を用いた処理を行う。
位置検出部125と位置追跡部127は、特徴点の数が多いほど高精度に位置情報を検出できる。そこで重み付けの係数は、特徴点の数に応じた係数とすることができる。
人の身体的な特徴点を用いた撮像装置11の位置情報の検出方法は、撮像された人の数が多くない場合や人全体が映っていない場合などで特徴点が少なくなる可能性があり、位置情報の検出精度が低くなってしまう可能性がある。
また、撮像装置11の自己位置追跡は、映像内の特徴点が多い方が安定して検出できる。そこで、位置検出部125の出力と位置追跡部127の出力が、位置統合部126に入力された場合、両者の出力を統合し、その統合を行うとき、特徴点の数に応じて設定される係数が用いられて重み付けが行われるようにする。
具体的には、信頼度を計算し、その信頼度に応じた重み付け係数が設定される。例えば、位置検出部125は、人の身体的な特徴量が多く求められている方が高精度だが、人の姿勢や映り方によって求めるべき全ての身体的な特徴点が検出されているわけではない。そこで、全ての身体的な特徴点の個数をJmax、検出された身体的な特徴点の個数をJdetとすると、信頼度Rjは次式(6)で決定される。
Rj=Jdet/Jmax・・・(6)
位置追跡部127の信頼度Rsは次のようにして求める。撮像装置11で撮像された映像内で求められた全ての特徴点をTmax、そのうち撮像装置11の位置情報の推定に用いられた正しい特徴点の数をTdetとすると信頼度Rsは次式(7)のようになる。
Rs=Tdet/Tmax・・・(7)
この信頼度Rjと信頼度Rsは、それぞれ0から1までの数値となる。これを用いて、重み付けの係数αを、次式(8)のように定義する。
α=Rj/(Rj+Rs) ・・・(8)
位置検出部125からの出力を出力Pjとし、位置追跡部127からの出力を出力Psとする。出力Pjと出力Psはそれぞれx,y,z位置情報を表す3つの値を持つベクトルである。これらから重み係数αを用いて、出力値Poutを次式(9)で算出する。
Pout=α×Pj+(1-α)×Ps ・・・(9)
このようにして統合された出力値Poutが、位置統合部126からの出力として、後段の処理部(不図示)に出力される。
撮像装置11が静止しているときは、人物の身体的な特徴量による撮像装置11の位置情報の検出において時間方向に平滑化することで、位置情報の検出精度を向上させることができる。また、撮像装置11が移動を始めると、移動する直前の撮像装置11の位置情報を初期値として位置追跡部127が追跡を始めるようにすることができる。
また位置追跡部127は、時間の経過とともに誤差が蓄積されることがあるが、位置検出部125の情報を加味することで誤差の増加を抑えることができる。また、ズーム時は、位置追跡部127による位置情報の検出精度が低下するため、検出される位置情報を用いないようにすることができる。その間も、位置検出部125の情報が得られるため、位置情報を途切れることがないようにすることができ、また精度を維持した位置情報の検出を継続して行うことができる。
<第2の実施の形態>
次に、第2の実施の形態における情報処理装置12bについて説明する。図12は、第2の実施の形態における情報処理装置12bの構成を示す図である。図12に示した情報処理装置12bの構成は、図5に示した第1の実施の形態における情報処理装置12aと同じく、2台の撮像装置11-1と撮像装置11-2からの画像を処理する場合の構成を示している。図6に示した第1の実施の形態における情報処理装置12aと同じ部分には、同一の符号を付し適宜説明は省略する。
第1の実施の形態においては、例えば、SLAMなどと称される画像解析を行うことで自己位置の推定を行う技術を適用した場合を例に挙げて説明した。第2の実施の形態においては、慣性計測装置(IMU:Inertial Measurement Unit)からの計測結果を用いて、自己位置を推定する点が、第1の実施の形態と異なる。
図12を参照するに、情報処理装置12bにおいて、人の身体的な特徴点を用いて撮像装置11の位置情報を特定する部分は、第1の実施の形態における情報処理装置12aと同様の構成である。すなわち、情報処理装置12bは、画像入力部121、人検出部122、同一人物判定部123、特徴点検出部124、および位置検出部125を備える。
情報処理装置12bは、撮像装置11側から慣性計測装置により計測された結果を入力する計測結果入力部201を備え、その計測結果入力部201に入力された計測結果を用いて、撮像装置11の位置情報を検出する位置追跡部202を備える。
位置統合部203は、位置検出部125、位置追跡部202-1、および位置追跡部202-2から、それぞれ位置情報の供給をうけ、それらの位置情報を用いて、最終的な位置情報を生成し(位置を特定し)、後段の処理部(不図示)に出力する。
慣性計測装置は、3軸のジャイロと3方向の加速度計によって、3次元の角速度と加速度が求める装置である。また圧力計、流量計、GPS(Global Positioning System)などのセンサが搭載されていても良い。このような慣性計測装置を撮像装置11に装着し、情報処理装置12bは、慣性計測装置からの計測結果を取得できるようにする。慣性計測装置を撮像装置11に装着することで、撮像装置11のどの方向に、どの程度移動したかといった移動情報を得ることができる。
情報処理装置12bは、慣性計測装置で計測された撮像装置11のX,Y,Z軸方向のそれぞれの加速度や傾きの情報を得ることができる。位置追跡部202は、撮像装置11の加速度から、撮像装置11の速度を算出し、算出された速度と経過時間から撮像装置11の移動距離を算出することができる。このような技術を用いることで、撮像装置11の移動時の位置変化を捉えることができる。
このように、慣性計測装置で計測される結果を用いて撮像装置11の移動方向や距離を求める場合、相対的な移動量が求められるため、初期位置情報を与える必要がある。初期位置情報は、位置検出部125により検出される位置情報とすることができる。
慣性計測装置の計測結果を用いて撮像装置11の位置情報を求める場合、第1の実施の形態の場合と異なり、撮像装置11のズーム機能が実行されているか否かに係わらず、撮像装置11の移動量を求めることができる。そこで、第2の実施の形態においては、撮像装置11が移動しているときには、位置検出部125と位置追跡部202の両方の出力を用い、移動していないときには、位置検出部125からの出力が優先的に用いられるようにする。
図13のフローチャートを参照し、図12に示した情報処理装置12bの動作について説明する。
ステップS201乃至S206の処理は、位置検出部125が撮像装置11の位置情報を検出するための処理であり、第1の実施の形態と同じ処理である。ステップS201乃至S206の処理は、ステップS101乃至S106(図6)と同様の処理であり、既に説明したので、ここではその説明を省略する。
ステップS207において、計測結果入力部201は、撮像装置11に装着されている慣性計測装置からの計測結果を入力する。計測結果入力部201-1は、撮像装置11-1に装着されている慣性計測装置からの計測結果を入力し、計測結果入力部201-2は、撮像装置11-2に装着されている慣性計測装置からの計測結果を入力する。
ステップS208において、位置追跡部202は、計測結果を用いて撮像装置11の位置情報を検出する。位置追跡部202-1は、撮像装置11-1により撮像された画像を解析することで、撮像装置11-1の位置情報を検出する。また、位置追跡部202-2は、撮像装置11-2により撮像された画像を解析することで、撮像装置11-2の位置情報を検出する。位置追跡部202-1と位置追跡部202-2でそれぞれ検出された位置情報は、位置統合部203に供給される。
ステップS206において、位置統合部203により、位置情報の統合が行われる。ステップS206における位置統合部203の処理について説明する。
ステップS206には、ステップS208において位置検出部125によりパラメータが算出され、ステップS208において、位置追跡部202により位置情報が出力された場合に来る(ケース1とする)。
また、ステップS206には、ステップS203において、同一人物が検出されなかった場合であり、ステップS208において、位置追跡部202により位置情報が出力された場合に来る(ケース2とする)。
位置統合部126は、ケース1またはケース2に応じて、位置情報を選択したり、統合したりする。ケース1の場合、位置統合部126には、位置追跡部202-1から撮像装置11-1の位置情報が供給され、位置追跡部202-2から撮像装置11-2の位置情報が供給され、位置検出部125から撮像装置11-1と撮像装置11-2の相対的な位置の位置情報が供給される。このような状況の場合、位置統合部126は、位置追跡部202-1からの位置情報、位置追跡部202-2からの位置情報、および位置検出部125から撮像装置11-1と撮像装置11-2の位置情報を統合し、出力する。
この統合は、第1の実施の形態のところで説明したように、重み付けが行われた計算が行われることで行われる。位置追跡部202からの位置情報の信頼度は、常に1として計算される。位置追跡部202からの位置情報の信頼度は、上記した信頼度Rsに該当し、この信頼度Rs=1として、式(8)と式(9)に基づく演算が行われる。
ケース2の場合、位置統合部126には、位置追跡部202-1から撮像装置11-1の位置情報が供給され、位置追跡部202-2から撮像装置11-2の位置情報が供給され、位置検出部125からの位置情報は供給されない。このような状況の場合、位置統合部126は、位置追跡部202-1からの位置情報と位置追跡部202-2からの位置情報を統合して出力する。
このように、本技術によれば、位置検出部125と位置追跡部202で、異なる方式で位置情報を検出し、状況に応じて、精度が高いとされる位置情報を選択して出力することができる。
すなわち、位置検出部125は、人を撮像し、人の身体的な特徴点を検出し、その検出された特徴点を用いて撮像装置11の位置関係を検出するため、人が撮像されていないときには、位置情報の検出が正常に行えない。このようなときでも、自己位置推定を行う位置追跡部202による位置情報の検出は行えるため、位置追跡部202による検出結果を用いることができる。
<第3の実施の形態>
次に、第3の実施の形態における情報処理装置12cについて説明する。
第1の実施の形態のおける情報処理装置12aまたは第2の実施の形態における情報処理装置12bによると、撮像装置11が動いていても、撮像装置11の相対的な位置や光軸の向きを検出することができる。複数台の撮像装置11のそれぞれが動いた場合、複数台の撮像装置11の相対的な位置関係は、上記した実施の形態により検出し続けることはできるが、撮像装置11が存在する実空間においては、どこに撮像装置11が位置するのか検出できなくなってしまう可能性がある。
そこで、複数台の撮像装置11のうち、少なくとも1台は実空間において固定し、その固定されている撮像装置11を基準として、他の撮像装置11の位置情報を検出する。固定された撮像装置11の位置情報や光軸の向きを、予め初期位置情報として取得しておき、その初期位置情報を基準として他の撮像装置11の位置情報を検出することで、撮像装置11が存在する空間内での任意の撮像装置11の位置情報を検出することができる。
第1の実施の形態や第2の実施の形態と比較し、第3の実施の形態は、実空間において固定された撮像装置11を基準として他の撮像装置11の位置情報を検出する点が異なる。
第3の実施の形態は、第1の実施の形態と組み合わせることができ、第1の実施の形態と組み合わせた場合、情報処理装置12cの構成は、第1の実施の形態における情報処理装置12a(図5)と同様の構成とすることができる。
また、第3の実施の形態における情報処理装置12cの動作は、第1の実施の形態における情報処理装置12aの動作(図6に示したフローチャートを参照して説明した動作)と同様の動作とすることができる。
ただし、位置検出部125が撮像装置11の位置情報を検出するとき、基準となる撮像装置11は、固定されている撮像装置11とされる。例えば、第1の実施の形態の説明においては、基準となる撮像装置11は、撮像装置11-1であるとして説明したため、この撮像装置11-1が、固定されている撮像装置11であるとして処理が行われれば良い。
第3の実施の形態は、第2の実施の形態と組み合わせることができ、第2の実施の形態と組み合わせた場合、情報処理装置12cの構成は、第2の実施の形態における情報処理装置12b(図12)と同様の構成とすることができる。
また、第3の実施の形態における情報処理装置12cの動作は、第2の実施の形態における情報処理装置12bの動作(図13に示したフローチャートを参照して説明した動作)と同様の動作とすることができる。
ただし、位置検出部125が撮像装置11の位置情報を検出するとき、基準となる撮像装置11は、固定されている撮像装置11とされる。この場合も、基準となる撮像装置11を、撮像装置11-1であるとした場合、この撮像装置11-1が、固定されている撮像装置11であるとして処理が行われれば良い。
このように、実空間において固定されている撮像装置11を基準として処理を行う場合、固定されている撮像装置11は、予め手動で設定されているようにしても良いし、検出されるようにしても良い。検出される場合、撮像装置11の手振れ補正に用いられている技術を適用して検出することができる。
複数台の撮像装置11のなかから固定されている撮像装置11を検出する方法としては、撮像装置11で撮像された画像を複数の小領域に分割し、前後の時間での小領域の移動量をマッチング等の方法により求める。撮像装置の視野の大部分が、静止している背景である場合、前後の時間での小領域の移動量は0となる。一方で、撮像装置11が移動していたり、ズーム機能を実行していたりした場合、撮像されている背景も移動するため、前後の時間での小領域の移動量はある値を有する。
複数台の撮像装置11から得られる複数の画像をそれぞれ処理し、前後の時間での小領域の移動量が0となる画像があった場合、その画像を撮像した撮像装置11を、固定されている撮像装置11であるとして検出する。
このようにして固定されている撮像装置11が検出された後は、その撮像装置11の位置を基準の位置として、他の撮像装置11の位置情報が検出される。
固定された撮像装置11であっても、旋回といった動きがあっても良いし、ズーム機能が実行されても良い。固定された撮像装置11が、旋回やズーム機能を実行した場合であっても、上記した処理において、固定された撮像装置11として扱うことができる。
一般的に、撮像装置11の旋回やズーム機能は、撮像装置11自体が制御を行い、その旋回角度やズームの再現性はあるので、旋回やズームをしても、初期位置に戻ってくる(初期位置を算出して、設定する)ことができる。
また、その場合でも、撮像装置11の位置は変わらない、換言すれば、撮像装置11は初期位置で旋回やズームを行っているだけであり、初期位置から離れていない。すなわち、撮像装置11の存在している空間内での位置が旋回やズームにより変化することはない。よって、固定されている撮像装置11においても、旋回やズームといった動きは制限されることなく行うことが可能である。
本技術によれば、複数台の撮像装置に映っている人の身体的な特徴点を用いた撮像装置の位置推定を行うことができる。また、そのような位置推定と、撮像装置自身の位置追跡技術を併用することができる。
よって、撮像装置で人が撮影されない状態であっても、位置追跡技術により位置情報を検出し続けることができる。また、位置追跡技術による位置の検出に誤差が生じるようなときには、人の身体的な特徴点を用いた位置推定により、リセットをかけることが可能となる。
また本技術によれば、複数台の撮像装置が動いているような状況であっても、その動きを追従しながら位置情報の検出を行うことが可能となる。
<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例は、図3に示した情報処理装置12とすることができる。情報処理装置12(パーソナルコンピュータ)では、CPU61が、例えば、記憶部68に記憶されているプログラムを、入出力インタフェース65およびバス64を介して、RAM63にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU61)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体71に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体71をドライブ70に装着することにより、入出力インタフェース65を介して、記憶部68にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部69で受信し、記憶部68にインストールすることができる。その他、プログラムは、ROM62や記憶部68に、予めインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成もとることができる。
(1)
第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出する位置検出部と、
前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する位置推定部と
を備える情報処理装置。
(2)
前記身体的な特徴点は、前記被写体の関節から検出される
前記(1)に記載の情報処理装置。
(3)
前記被写体の関節は、前記被写体から検出された身体的な特徴点に基づく姿勢推定処理により特定される
前記(2)に記載の情報処理装置。
(4)
前記被写体は、人である
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記位置推定部は、前記第1の撮像装置で異なる時刻に撮像された画像に基づいて検出された前記撮像された画像に含まれる特徴点の移動量から前記第1の撮像装置の前記第2の位置情報を推定する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記位置推定部は、SLAM(Simultaneous Localization and Mapping)により前記第1の撮像装置の前記第2の位置情報を推定する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記第1の撮像装置が動いている場合、前記位置検出部により検出された前記第1の位置情報と前記位置推定部により推定された前記第2の位置情報を統合することで、前記第1の撮像装置と前記第2の撮像装置の位置を特定する 位置統合部をさらに備える
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記第1の撮像装置と前記第2の撮像装置が静止している場合、前記位置統合部は、前記位置検出部により検出された前記第1の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定し、前記位置推定部は、推定されている前記第2の位置情報を、前記位置検出部により検出された前記第1の位置情報に基づいて初期化する
前記(7)に記載の情報処理装置。
(9)
前記第1の撮像装置または前記第2の撮像装置がズーム機能を実行している場合、前記位置統合部は、前記位置検出部により検出された前記第1の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定する
前記(7)に記載の情報処理装置。
(10)
前記位置統合部は、前記位置検出部が前記第1の位置情報の検出に用いた特徴点の数と、前記位置推定部が前記第2の位置情報の推定に用いた特徴点の数から算出される係数を用いた重み付け演算を行う
前記(7)に記載の情報処理装置。
(11)
前記位置検出部は、前記第1の撮像装置で撮像された被写体と前記第2の撮像装置で撮像された被写体が一致する場合に、前記第1の撮像装置と前記第2の撮像装置の前記第1の位置情報を検出し、
前記位置統合部は、前記位置検出部により前記第1の位置情報が検出されなかった場合、前記位置推定部により推定された前記第2の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定する
前記(7)に記載の情報処理装置。
(12)
前記位置推定部は、前記第1の撮像装置の移動情報を取得し、前記移動情報を用いて、前記第1の撮像装置の前記第2の位置情報を推定する
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記移動情報は、前記第1の撮像装置に装着されている慣性計測装置による計測に基づいて得られる
前記(12)に記載の情報処理装置。
(14)
前記慣性計測装置は、3軸のジャイロと3方向の加速度計を備え、
前記移動情報は、3次元の角速度と加速度である
前記(13)に記載の情報処理装置。
(15)
前記位置検出部により検出された前記第1の位置情報と前記位置推定部により推定された前記第2の位置情報を統合する位置統合部をさらに備え、
前記位置検出部は、前記第1の撮像装置で撮像された被写体と前記第2の撮像装置で撮像された被写体が同一人物である場合に、前記第1の撮像装置と前記第2の撮像装置の前記第1の位置情報を検出し、
前記位置統合部は、前記位置検出部により前記第1の位置情報が検出された場合、前記位置検出部により検出された前記第1の位置情報と前記位置推定部により推定された前記第2の位置情報を統合することで、前記第1の撮像装置と前記第2の撮像装置の位置を特定し、前記位置検出部により前記第1の位置情報が検出されなかった場合、前記位置推定部により推定された前記第2の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定する
前記(12)に記載の情報処理装置。
(16)
複数の撮像装置のうち少なくとも1台の撮像装置は実空間において位置が固定されている場合、前記位置検出部は実空間の位置が固定された撮像装置の位置を基準として他の撮像装置の位置情報を検出する
前記(1)に記載の情報処理装置。
(17)
前記位置検出部により検出された位置情報を時間方向に平滑化する
前記(1)に記載の情報処理装置。
(18)
前記位置検出部は、検出された位置情報を、前記位置の検出に用いた特徴点以外の特徴点を用いて検証する
前記(1)に記載の情報処理装置。
(19)
撮像装置の位置を検出する情報処理装置が、
第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出し、
前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する
情報処理方法。
(20)
コンピュータに、
第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出し、
前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する
処理を実行させるためのプログラム。
11 撮像装置, 12 情報処理装置, 31 レンズ系, 32 撮像素子, 33 DSP回路, 34 フレームメモリ, 35 表示部, 36 記録部, 37 操作系, 38 電源系, 39 通信部, 40 バスライン, 41 CPU, 61 CPU, 62 ROM, 63 RAM, 64 バス, 65 入出力インタフェース, 66 入力部, 67 出力部, 68 記憶部, 69 通信部, 70 ドライブ, 71 リムーバブル記録媒体, 101 撮像部, 102 通信制御部, 121 画像入力部, 122 人検出部, 123 同一人物判定部, 124 特徴点検出部, 125 位置検出部, 126 位置統合部, 127 位置追跡部, 201 計測結果入力部, 202 位置追跡部, 203 位置統合部

Claims (20)

  1. 第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出する位置検出部と、
    前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する位置推定部と
    を備える情報処理装置。
  2. 前記身体的な特徴点は、前記被写体の関節から検出される
    請求項1に記載の情報処理装置。
  3. 前記被写体の関節は、前記被写体から検出された身体的な特徴点に基づく姿勢推定処理により特定される
    請求項2に記載の情報処理装置。
  4. 前記被写体は、人である
    請求項1に記載の情報処理装置。
  5. 前記位置推定部は、前記第1の撮像装置で異なる時刻に撮像された画像に基づいて検出された前記撮像された画像に含まれる特徴点の移動量から前記第1の撮像装置の前記第2の位置情報を推定する
    請求項1に記載の情報処理装置。
  6. 前記位置推定部は、SLAM(Simultaneous Localization and Mapping)により前記第1の撮像装置の前記第2の位置情報を推定する
    請求項1に記載の情報処理装置。
  7. 前記第1の撮像装置が動いている場合、前記位置検出部により検出された前記第1の位置情報と前記位置推定部により推定された前記第2の位置情報を統合することで、前記第1の撮像装置と前記第2の撮像装置の位置を特定する位置統合部をさらに備える
    請求項1に記載の情報処理装置。
  8. 前記第1の撮像装置と前記第2の撮像装置が静止している場合、前記位置統合部は、前記位置検出部により検出された前記第1の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定し、前記位置推定部は、推定されている前記第2の位置情報を、前記位置検出部により検出された前記第1の位置情報に基づいて初期化する
    請求項7に記載の情報処理装置。
  9. 前記第1の撮像装置または前記第2の撮像装置がズーム機能を実行している場合、前記位置統合部は、前記位置検出部により検出された前記第1の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定する
    請求項7に記載の情報処理装置。
  10. 前記位置統合部は、前記位置検出部が前記第1の位置情報の検出に用いた特徴点の数と、前記位置推定部が前記第2の位置情報の推定に用いた特徴点の数から算出される係数を用いた重み付け演算を行う
    請求項7に記載の情報処理装置。
  11. 前記位置検出部は、前記第1の撮像装置で撮像された被写体と前記第2の撮像装置で撮像された被写体が一致する場合に、前記第1の撮像装置と前記第2の撮像装置の前記第1の位置情報を検出し、
    前記位置統合部は、前記位置検出部により前記第1の位置情報が検出されなかった場合、前記位置推定部により推定された前記第2の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定する
    請求項7に記載の情報処理装置。
  12. 前記位置推定部は、前記第1の撮像装置の移動情報を取得し、前記移動情報を用いて、前記第1の撮像装置の前記第2の位置情報を推定する
    請求項1に記載の情報処理装置。
  13. 前記移動情報は、前記第1の撮像装置に装着されている慣性計測装置による計測に基づいて得られる
    請求項12に記載の情報処理装置。
  14. 前記慣性計測装置は、3軸のジャイロと3方向の加速度計を備え、
    前記移動情報は、3次元の角速度と加速度である
    請求項13に記載の情報処理装置。
  15. 前記位置検出部により検出された前記第1の位置情報と前記位置推定部により推定された前記第2の位置情報を統合する位置統合部をさらに備え、
    前記位置検出部は、前記第1の撮像装置で撮像された被写体と前記第2の撮像装置で撮像された被写体が同一人物である場合に、前記第1の撮像装置と前記第2の撮像装置の前記第1の位置情報を検出し、
    前記位置統合部は、前記位置検出部により前記第1の位置情報が検出された場合、前記位置検出部により検出された前記第1の位置情報と前記位置推定部により推定された前記第2の位置情報を統合することで、前記第1の撮像装置と前記第2の撮像装置の位置を特定し、前記位置検出部により前記第1の位置情報が検出されなかった場合、前記位置推定部により推定された前記第2の位置情報に基づいて、前記第1の撮像装置と前記第2の撮像装置の位置を特定する
    請求項12に記載の情報処理装置。
  16. 複数の撮像装置のうち少なくとも1台の撮像装置は実空間において位置が固定されている場合、前記位置検出部は実空間の位置が固定された撮像装置の位置を基準として他の撮像装置の位置情報を検出する
    請求項1に記載の情報処理装置。
  17. 前記位置検出部により検出された位置情報を時間方向に平滑化する
    請求項1に記載の情報処理装置。
  18. 前記位置検出部は、検出された位置情報を、前記位置の検出に用いた特徴点以外の特徴点を用いて検証する
    請求項1に記載の情報処理装置。
  19. 撮像装置の位置を検出する情報処理装置が、
    第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出し、
    前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する
    情報処理方法。
  20. コンピュータに、
    第1の撮像装置で撮像された被写体の身体的な特徴点と第2の撮像装置で撮像された被写体の身体的な特徴点に基づいて、前記第1の撮像装置と前記第2の撮像装置の第1の位置情報を検出し、
    前記第1の撮像装置の移動量を推定し、第2の位置情報を推定する
    処理を実行させるためのプログラム。
JP2021537751A 2019-01-14 2019-12-27 情報処理装置、情報処理方法、並びにプログラム Pending JP2022516466A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962792002P 2019-01-14 2019-01-14
US62/792,002 2019-01-14
US16/524,449 US20200226787A1 (en) 2019-01-14 2019-07-29 Information processing apparatus, information processing method, and program
US16/524,449 2019-07-29
PCT/JP2019/051427 WO2020149149A1 (en) 2019-01-14 2019-12-27 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022516466A true JP2022516466A (ja) 2022-02-28

Family

ID=71516099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537751A Pending JP2022516466A (ja) 2019-01-14 2019-12-27 情報処理装置、情報処理方法、並びにプログラム

Country Status (5)

Country Link
US (2) US20200226787A1 (ja)
EP (1) EP3912135A1 (ja)
JP (1) JP2022516466A (ja)
CN (1) CN113272864A (ja)
WO (1) WO2020149149A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10957066B2 (en) * 2019-03-19 2021-03-23 General Electric Company Systems and methods for locating humans using dynamic field robotic-sensor network of human robot team
US11837006B2 (en) * 2021-06-30 2023-12-05 Ubtech North America Research And Development Center Corp Human posture determination method and mobile machine using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101718A (ja) * 2007-10-19 2009-05-14 Toyota Industries Corp 映像表示装置及び映像表示方法
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2016149678A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
WO2017057043A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2017139759A (ja) * 2016-02-02 2017-08-10 株式会社モルフォ 画像処理装置、画像処理方法及び画像処理プログラム、並びに撮影補助機材

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2411532B (en) * 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
JP2006270676A (ja) * 2005-03-25 2006-10-05 Fujitsu Ltd パノラマ画像生成プログラム、パノラマ画像生成装置、パノラマ画像生成方法
US9019349B2 (en) * 2009-07-31 2015-04-28 Naturalpoint, Inc. Automated collective camera calibration for motion capture
JP5331047B2 (ja) 2010-04-01 2013-10-30 日本電信電話株式会社 撮像パラメータ決定方法、撮像パラメータ決定装置、撮像パラメータ決定プログラム
US9350923B2 (en) * 2010-08-31 2016-05-24 Cast Group Of Companies Inc. System and method for tracking
US8860760B2 (en) * 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
FR3013487B1 (fr) * 2013-11-18 2017-04-21 Univ De Nice (Uns) Procede d'estimation de la vitesse de deplacement d'une camera
US10521671B2 (en) * 2014-02-28 2019-12-31 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
US9286680B1 (en) * 2014-12-23 2016-03-15 Futurewei Technologies, Inc. Computational multi-camera adjustment for smooth view switching and zooming
US10535193B2 (en) * 2015-09-08 2020-01-14 Canon Kabushiki Kaisha Image processing apparatus, image synthesizing apparatus, image processing system, image processing method, and storage medium
US10176554B2 (en) * 2015-10-05 2019-01-08 Google Llc Camera calibration using synthetic images
CN109076200B (zh) * 2016-01-12 2021-04-23 上海科技大学 全景立体视频***的校准方法和装置
US10546385B2 (en) * 2016-02-25 2020-01-28 Technion Research & Development Foundation Limited System and method for image capture device pose estimation
CN112954295B (zh) * 2016-09-01 2023-08-04 松下知识产权经营株式会社 多视点摄像***、三维空间重构***及三维空间识别***
US20180213217A1 (en) * 2017-01-23 2018-07-26 Multimedia Image Solution Limited Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device
KR102647351B1 (ko) * 2017-01-26 2024-03-13 삼성전자주식회사 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
WO2018182524A1 (en) * 2017-03-29 2018-10-04 Agency For Science, Technology And Research Real time robust localization via visual inertial odometry
US10474988B2 (en) * 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US11061132B2 (en) * 2018-05-21 2021-07-13 Johnson Controls Technology Company Building radar-camera surveillance system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101718A (ja) * 2007-10-19 2009-05-14 Toyota Industries Corp 映像表示装置及び映像表示方法
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2016149678A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
WO2017057043A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2017139759A (ja) * 2016-02-02 2017-08-10 株式会社モルフォ 画像処理装置、画像処理方法及び画像処理プログラム、並びに撮影補助機材

Also Published As

Publication number Publication date
CN113272864A (zh) 2021-08-17
EP3912135A1 (en) 2021-11-24
US20200226787A1 (en) 2020-07-16
US20220084244A1 (en) 2022-03-17
WO2020149149A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
US10846871B2 (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
JP2023175052A (ja) 3次元空間内の姿勢推定
JP4148281B2 (ja) モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
WO2016199605A1 (ja) 画像処理装置および方法、並びにプログラム
CN111353355B (zh) 动作追踪***及方法
CN108369653A (zh) 使用眼睛特征的眼睛姿态识别
WO2020221307A1 (zh) 一种运动物体的追踪方法和装置
US10838515B1 (en) Tracking using controller cameras
JP5001930B2 (ja) 動作認識装置及び方法
US20160184998A1 (en) Robot identification system
JP2020052979A (ja) 情報処理装置およびプログラム
CN111401340B (zh) 目标对象的运动检测方法和装置
JP2022516466A (ja) 情報処理装置、情報処理方法、並びにプログラム
TW202314593A (zh) 定位方法及設備、電腦可讀儲存媒體
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
US11263780B2 (en) Apparatus, method, and program with verification of detected position information using additional physical characteristic points
CN115862124B (zh) 视线估计方法、装置、可读存储介质及电子设备
JP2005241323A (ja) 撮像システム及び校正方法
WO2021251171A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN112712545A (zh) 人体部分跟踪方法和人体部分跟踪***
US20210165999A1 (en) Method and system for head pose estimation
Schmidt et al. The calibration of the pan-tilt units for the active stereo head
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム
WO2023236353A1 (zh) 人体全身姿态的确定方法、其确定装置以及智能鞋

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401