JP6793151B2 - オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム - Google Patents

オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム Download PDF

Info

Publication number
JP6793151B2
JP6793151B2 JP2018098848A JP2018098848A JP6793151B2 JP 6793151 B2 JP6793151 B2 JP 6793151B2 JP 2018098848 A JP2018098848 A JP 2018098848A JP 2018098848 A JP2018098848 A JP 2018098848A JP 6793151 B2 JP6793151 B2 JP 6793151B2
Authority
JP
Japan
Prior art keywords
dimensional position
data
dimensional
specific part
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018098848A
Other languages
English (en)
Other versions
JP2019205060A (ja
Inventor
陽子 石井
陽子 石井
日高 浩太
浩太 日高
喜秀 外村
喜秀 外村
徹郎 徳永
徹郎 徳永
裕一 廣井
裕一 廣井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018098848A priority Critical patent/JP6793151B2/ja
Priority to PCT/JP2019/019922 priority patent/WO2019225547A1/ja
Priority to US17/056,891 priority patent/US11398049B2/en
Publication of JP2019205060A publication Critical patent/JP2019205060A/ja
Application granted granted Critical
Publication of JP6793151B2 publication Critical patent/JP6793151B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数のオブジェクトが存在する空間を撮影した動画データから、オブジェクトの位置をトラッキングするオブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラムに関する。
従来、所定のエリア内に位置するオブジェクトの位置をトラッキングする技術がある(例えば、非特許文献1)。非特許文献1は、カーリング観戦において試合状況を把握するために、投球ごとにストーン位置を検出して、観客のスマートフォンに対して真上からのストーン位置情報を提供する。
徳永徹郎・外村喜秀・島村 潤、"カーリング競技におけるストーン位置検出システムの構築と評価"、2017年映像情報メディア学会 年次大会、2017年
しかしながら、非特許文献1に記載の方法では、ストーンなどのオブジェクトの二次元位置をトラッキングすることは可能であるが、複数のオブジェクトを識別し、さらにそのオブジェクトの三次元位置を取得することができない。
従って本発明の目的は、複数のオブジェクトを識別してトラッキング可能なオブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラムを提供することである。
上記課題を解決するために、本発明の第1の特徴は、複数のオブジェクトが存在する空間を撮影した動画データから、オブジェクトの位置をトラッキングするオブジェクトトラッキング装置に関する。本発明の第1の特徴に係るオブジェクトトラッキング装置は、複数のオブジェクトが存在する空間を撮影した動画データを構成する1つのフレームデータを取得するフレーム取得部と、複数のオブジェクトが存在した空間におけるオブジェクトを構成する点の三次元座標を測定した測定データを取得する距離取得部と、複数のオブジェクトのそれぞれのテンプレートデータとの比較に基づいて、フレームデータから、複数のオブジェクトそれぞれの二次元位置を検出するオブジェクト位置検出部と、測定データから、複数のオブジェクトの複数の三次元位置を検出するオブジェクト距離検出部と、オブジェクト位置検出部が出力した二次元位置に、オブジェクト距離検出部が出力した複数の三次元位置のうちより近い三次元位置を対応付ける対応付け部を備え、動画データを構成する他のフレームデータについて、距離取得部、オブジェクト位置検出部、オブジェクト距離検出部および対応付け部の処理を繰り返す。
オブジェクトの二次元位置から、オブジェクトの特定部位の二次元位置を検出する特定部位位置検出部と、オブジェクトの三次元位置から、オブジェクトの特定部位の三次元位置を検出する特定部位距離検出部と、特定部位の二次元位置と、特定部位の三次元位置から、オブジェクトの状態を推定する状態推定部をさらに備えても良い。
対応付け部は、所定の二次元位置に近い三次元位置が複数ある場合、処理対象のフレームの他のフレームの処理結果を参照して、所定の二次元位置により近い三次元位置を特定しても良い。
本発明の第2の特徴は、複数のオブジェクトが存在する空間を撮影した動画データから、オブジェクトの位置をトラッキングするオブジェクトトラッキング方法に関する。本発明の第2の特徴に係るオブジェクトトラッキング方法は、コンピュータが、複数のオブジェクトが存在する空間を撮影した動画データを構成する1つのフレームデータを取得するステップと、コンピュータが、複数のオブジェクトが存在した空間におけるオブジェクトを構成する点の三次元座標を測定した測定データを取得するステップと、コンピュータが、複数のオブジェクトのそれぞれのテンプレートデータとの比較に基づいて、フレームデータから、複数のオブジェクトそれぞれの二次元位置を検出するステップと、コンピュータが、測定データから、複数のオブジェクトの複数の三次元位置を検出するステップと、コンピュータが、二次元位置を検出するステップが出力した二次元位置に、三次元位置を検出するステップが出力した複数の三次元位置のうちより近い三次元位置を対応付けるステップを備え、コンピュータが、各ステップを繰り返す。
コンピュータが、オブジェクトの二次元位置から、オブジェクトの特定部位の二次元位置を検出するステップと、コンピュータが、オブジェクトの三次元位置から、オブジェクトの特定部位の三次元位置を検出するステップと、コンピュータが、特定部位の二次元位置と、特定部位の三次元位置から、オブジェクトの状態を推定するステップをさらに備えても良い。
対応付けるステップは、所定の二次元位置に近い三次元位置が複数ある場合、処理対象のフレームの他のフレームの処理結果を参照して、所定の二次元位置により近い三次元位置を特定しても良い。
本発明の第3の特徴は、コンピュータに、本発明の第1の特徴に記載のオブジェクトトラッキング装置として機能させるためのオブジェクトトラッキングプログラムに関する。
本発明によれば、複数のオブジェクトを識別してトラッキング可能なオブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラムを提供することができる。
本発明の実施の形態に係るオブジェクトトラッキングシステムのシステム構成を説明する図である。 本発明の実施の形態に係るオブジェクトトラッキング装置のハードウエア構成と機能ブロックを説明する図である。 本発明の実施の形態に係る二次元位置データのデータ構造とデータの一例を説明する図である。 本発明の実施の形態に係る三次元位置データのデータ構造とデータの一例を説明する図である。 本発明の実施の形態に係る対応付けデータのデータ構造とデータの一例を説明する図である。 本発明の実施の形態に係るトラッキングデータのデータ構造とデータの一例を説明する図である。 本発明の実施の形態において、フレームデータにおけるオブジェクトの位置を説明する図である。 本発明の実施の形態において、測定データにおけるオブジェクトの位置を説明する図である。 本発明の実施の形態に係るオブジェクトトラッキング方法を説明するフローチャートである。 本発明の変形例に係るオブジェクトトラッキング装置のハードウエア構成と機能ブロックを説明する図である。
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。
(オブジェクトトラッキングシステム)
図1を参照して、本発明の実施の形態に係るオブジェクトトラッキングシステム5を説明する。オブジェクトトラッキングシステム5は、オブジェクトトラッキング装置1、撮影装置2および距離測定装置3を備える。オブジェクトトラッキングシステム5は、舞台や試合会場等の対象空間に位置する複数のオブジェクトをそれぞれ識別してトラッキングする。
本発明の実施の形態においてオブジェクトは、柔道の競技を行うオブジェクトAおよびオブジェクトBの各人物であるが、これに限られない。オブジェクトは、演劇等のその他の動作を行う人物であっても良い。またオブジェクトは、例えば動物やロボットなどの動体であっても良いし、舞台設備等の静体であっても良い。
オブジェクトトラッキング装置1は、複数のオブジェクトが存在する空間を撮影した動画データから、オブジェクトの位置をトラッキングするコンピュータである。オブジェクトトラッキング装置1は、複数のオブジェクトをそれぞれ特定して、各オブジェクトの動きを追跡する。
撮影装置2は、例えば動画撮影に用いるカメラであって、複数のオブジェクトが存在する対象空間を撮影して、動画データをオブジェクトトラッキング装置1に出力する。撮影装置2が出力する動画データは、複数の時系列のフレームデータで構成され、各フレームデータは、ピクセル毎にRGB等の色情報を含む。撮影装置2は、複数のオブジェクトが存在する対象空間を撮影できればよく、一つのカメラで構成されても良いし、複数のカメラで構成されても良い。複数のカメラで撮影された場合、同時刻に撮影されたフレームを合成して生成された動画データを、オブジェクトトラッキング装置1が処理する。
距離測定装置3は、複数のオブジェクトが存在する対象空間を撮影して、複数のオブジェクトの三次元位置を測定する。距離測定装置3は、例えば三次元位置が測定可能なLiDAR(Light Detection and Ranging)、ステレオカメラである。距離測定装置3は、対象空間上のオブジェクトの位置を、三次元座標(x,y,z)の位置情報を有する点群で表した測定データを出力する。距離測定装置3は、複数のオブジェクトが存在する対象空間を測定できればよく、一つの装置で構成されても良いし、複数の装置で構成されても良い。複数の装置で測定された場合、オブジェクトトラッキング装置1は、同時刻に測定された測定結果を合成して生成された測定データを、処理する。
(オブジェクトトラッキング装置)
図2を参照して、本発明の実施の形態に係るオブジェクトトラッキング装置1を説明する。オブジェクトトラッキング装置1は、記憶装置10および処理装置30を備える一般的なコンピュータである。一般的なコンピュータがオブジェクトトラッキングプログラムを実行することにより、図2に示す機能を実現する。また図2に示さないが、撮影装置2および距離測定装置3からデータを受信するための入出力インタフェース等を備えても良い。
記憶装置10は、ROM(Read Only Memory)、RAM(Random access memory)、ハードディスク等であって、処理装置30が処理を実行するための入力データ、出力データおよび中間データなどの各種データを記憶する。処理装置30は、CPU(Central Processing Unit)であって、記憶装置10に記憶されたデータを読み書きしたり、入出力インタフェースとデータを入出力したりして、オブジェクトトラッキング装置1における処理を実行する。
記憶装置10は、フレームデータ11、測定データ12、二次元位置データ13、三次元位置データ14、対応付けデータ15およびトラッキングデータ16を記憶する。
フレームデータ11は、撮影装置2が撮影した動画データを構成する1つのフレームデータである。
測定データ12は、距離測定装置3が撮影した測定結果のうち、フレームデータ11と同一時刻の測定結果のデータである。
二次元位置データ13は、フレームデータ11から特定した各オブジェクトの二次元位置のデータである。二次元位置データ13は、例えば図3に示すように、オブジェクトの識別子に、そのオブジェクトの二次元位置を対応付けたデータである。二次元位置は、図7に示すように、各オブジェクトを囲う矩形の対角線上の角の二次元座標によって特定される。二次元位置データ13におけるオブジェクトの識別子は、フレームデータ11中のオブジェクトを識別するための識別子ではなく、選手名や選手番号など、そのオブジェクトが何であるかを含む特定のオブジェクトを示す識別子である。
三次元位置データ14は、測定データ12から特定したオブジェクトの三次元位置のデータである。なお三次元位置データ14において、対象空間において2つのオブジェクトが存在することは確認できているが、オブジェクトが、オブジェクトAであるかオブジェクトBであるかは特定されていない。三次元位置データ14は、例えば図4に示すように、任意に付されたオブジェクトの識別子を示すラベルに、そのオブジェクトの三次元位置を対応付けたデータである。三次元位置は、図8に示すように、測定データ12から特定されたオブジェクトを囲う直方体形状のバウンディングボックスの対角線上の角の三次元座標によって特定される。なお図8に示す各点は、距離測定装置3による測定点であって、濃い点は、オブジェクトが存在すると測定された部分である。図8における各点は、測定点である三次元座標(x,y,z)を二次元座標に変換したものであって、三次元位置データ14を視覚的に示したものである。
対応付けデータ15は、二次元位置データ13で特定したオブジェクトの二次元位置と、三次元位置データ14で特定したオブジェクトの三次元位置とを対応付けたデータである。対応付けデータ15は、例えば図5に示すように、オブジェクトの識別子に、二次元位置と三次元位置とを対応付けたデータである。
トラッキングデータ16は、対応付けデータ15を、処理対象のフレームの識別子に対応付けたデータである。
処理装置30は、フレーム取得部31、距離取得部32、オブジェクト位置検出部33、オブジェクト距離検出部34、対応付け部およびオブジェクトトラッキング部38を備える。
フレーム取得部31は、複数のオブジェクトが存在する空間を撮影した動画データを構成する1つのフレームデータ11を取得する。本発明の実施の形態においてフレームデータ11には、オブジェクトAおよびオブジェクトBが撮影されている。
距離取得部32は、複数のオブジェクトが存在した空間におけるオブジェクトを構成する点の三次元座標を測定した測定データ12を取得する。本発明の実施の形態において測定データ12は、オブジェクトAおよびオブジェクトBの三次元位置の測定結果を含む。
オブジェクト位置検出部33は、複数のオブジェクトのそれぞれのテンプレートデータとの比較に基づいて、フレームデータ11から、複数のオブジェクトそれぞれの二次元位置を検出する。本発明の実施の形態においてテンプレートデータは、フレームデータ11から各オブジェクトを特定するためのデータであって、オブジェクトAおよびオブジェクトBのそれぞれのオブジェクトの画像に基づいて生成される。オブジェクト位置検出部33は、フレームデータ11と各オブジェクトのテンプレートデータとマッチングして、フレームデータ11におけるオブジェクトAの二次元位置と、オブジェクトBの二次元位置を特定し、二次元位置データ13に出力する。あるいは、予め各オブジェクトの映像等のテンプレートデータを学習させた深層学習ネットワークを用意し、オブジェクト位置検出部33は、この深層学習ネットワークにより、フレームデータ11におけるオブジェクトAの二次元位置と、オブジェクトBの二次元位置を特定し、二次元位置データ13に出力する。
オブジェクト位置検出部33は、検出したオブジェクトを囲う矩形の対角線上の角の座標に基づいて特定する。オブジェクト位置検出部33は、例えば、図7に示すように、フレームデータ11中のオブジェクトAの位置をPA1(x1,y1)とPA2(x2,y2)で特定し、オブジェクトBの位置をPB1(x3,y3)とPB2(x4,y4)で特定する。オブジェクト位置検出部33は、オブジェクトAの識別子と、位置PA1およびPA2の各座標を対応付けるとともに、オブジェクトBの識別子と、位置PB1およびPB2の各座標を対応付けて、二次元位置データ13を生成する。
オブジェクト距離検出部34は、測定データ12から、複数のオブジェクトの複数の三次元位置を検出する。オブジェクト距離検出部34は、距離測定装置3が出力した測定データ12から、オブジェクトを検出する。なお、オブジェクト距離検出部34は、任意のオブジェクトの位置を特定するに留まり、オブジェクトがどのオブジェクトであるか(オブジェクトAであるのかオブジェクトBであるのか)までは特定しない。
オブジェクト距離検出部34は、対象空間上の測定データ12が示す点群をユークリッド距離でクラスタリングする。オブジェクト距離検出部34は、クラスタリングの結果得られるオブジェクトの位置を囲うバウンディングボックスを求める。この結果、対象空間に位置するオブジェクトの数のバンディングボックスが求められる。本発明の実施の形態において、図8に示す左側の点群のオブジェクトをオブジェクトMと称し、右側の店群のオブジェクトをオブジェクトNと称して、各オブジェクトに任意のラベルを付す。オブジェクト距離検出部34は、オブジェクトMのバウンディングボックスを規定する3次元座標をPM1(X1,Y1,Z1)およびPM2(X2,Y2,Z2)と特定し、オブジェクトNのバウンディングボックスを規定する3次元座標をPN1(X3,Y3,Z3)およびPN2(X4,Y4,Z4)と特定する。オブジェクト距離検出部34は、オブジェクトMの識別子と、位置PM1およびPM2の各座標を対応付けるとともに、オブジェクトNの識別子と、位置PN1およびPN2の各座標を対応付けて、三次元位置データ14を生成する。
対応付け部35は、二次元位置データ13と三次元位置データ14の位置合わせを行った後、オブジェクト位置検出部33が出力した二次元位置に、オブジェクト距離検出部34が出力した複数の三次元位置のうちより近い三次元位置を対応付ける。対応付け部35は、位置合わせ部36と選択部37を備える。
位置合わせ部36は、いわゆるキャリブレーションによって、二次元位置データ13と三次元位置データ14の座標を合わせる。位置合わせ部36は、例えば、キャリブレーション点を取得しやすいチェッカーボードなどをあらかじめ対象空間上に置いた状態で撮影装置2と距離測定装置3により撮影をし、その画像を用いる方法がある。具体的な処理は、三次元座標点(距離測定装置3で取得した座標点)に対応する撮影装置2の座標点を取得し、撮影装置2の内部パラメータと外部パラメータを計算することで、撮影装置2と距離測定装置3の座標点を対応付けることが可能になる(例えばhttp://opencv.jp/opencv-2.1/cpp/camera_calibration_and_3d_reconstruction.html参照)。撮影装置2と距離測定装置3の設置位置が変わらない限り本パラメータは同じ値を利用可能なので、フレーム画像それぞれに対して同じパラメータを適用可能である。また、撮影装置2と距離測定装置3の三次元的な位置関係は既知であることから、出力結果となる座標は、撮影装置2の撮影範囲、距離測定装置3の測定範囲、対象空間上などの、任意の点を原点としても良い。
選択部37は、オブジェクト位置検出部33が出力した二次元位置に、オブジェクト距離検出部34が出力した複数の三次元位置のうちより近い三次元位置を対応付けて、対応付けデータ15を出力する。本発明の実施の形態において選択部37は、オブジェクト位置検出部33が検出したオブジェクトAおよびオブジェクトBのそれぞれの位置と、オブジェクト距離検出部34が検出した2つのオブジェクトの位置とを比較して、それぞれ近い座標を対応付ける。本発明の実施の形態に係る選択部37は、図8に示すオブジェクトMは、図7に示すオブジェクトAに対応付けられ、図8に示すオブジェクトNは、図7に示すオブジェクトBに対応付けられる。選択部37は、対応付けデータ15において、オブジェクトAの二次元座標に、オブジェクトMの三次元座標を対応付けるとともに、オブジェクトBの二次元座標に、オブジェクトNの三次元座標を対応付ける。
選択部37は、例えば座標点2点から求められる閉領域(オブジェクトを囲う矩形またはバウンディングボックス)の重心点のユークリッド距離の近いものから選択する。あるいは選択部37は、閉領域の重なりの多いものから選択する。選択部37は、それぞれのオブジェクトの過去の位置情報を取得することで、それぞれのオブジェクトの現在の位置情報を予測する。選択部37は、その予測の中でもっとも近い者同士のオブジェクトを対応付ける。
対応付け部35は、これにより対象オブジェクトの位置を特定するとともに、その対象オブジェクトの三次元の位置を対応付けることができる。
選択部37は、所定の二次元位置に近い三次元位置が複数ある場合、処理対象のフレームの他のフレームの処理結果を参照して、所定の二次元位置により近い三次元位置を特定する。フレームデータ11および測定データ12からは、二次元位置と三次元位置の対応を決定できなかった場合、選択部37は、過去に処理したフレームデータなどの他のフレームデータとその時点の測定結果から得られた対応付けに基づいて、二次元位置と三次元位置の対応付けを試みる。このとき選択部37は、過去に処理した複数のフレームデータに関する処理結果に基づいて、各オブジェクトの動きを推測し、推測した動きも考慮して、二次元位置と三次元位置の対応付けを試みる。
オブジェクトトラッキング部38は、動画データを構成する他のフレームデータについて、距離取得部32、オブジェクト位置検出部33、オブジェクト距離検出部34および対応付け部35の処理を繰り返す。オブジェクトトラッキング部38は、フレーム取得部31が取得したフレームデータ以外のフレームデータについても、距離取得部32、オブジェクト位置検出部33、オブジェクト距離検出部34および対応付け部35の処理を繰り返す。
オブジェクトトラッキング部38は、現在撮影中の動画データについてリアルタイムに処理しても良いし、撮影済みの動画データについて処理しても良い。オブジェクトトラッキング部38は、撮影装置2が撮影した動画データの各フレームデータについて、オブジェクトの位置を対応付けても良いし、所定のルールまたは頻度でフレームデータを間引きして処理対象のフレームデータを特定し、特定したフレームデータについてオブジェクトの位置を対応付けても良い。特に現在撮影中の動画データについてリアルタイムに処理する場合、オブジェクトトラッキング装置1、撮影装置2、距離測定装置3およびこれらの装置間の伝送速度等の制限に従って、フレームデータを間引きして処理しても良い。またオブジェクトトラッキング装置1の処理に時間がかかる場合、オブジェクトトラッキング装置1の処理が完了次第、完了時点の最新のフレームデータについて処理を行うようにしても良い。
(オブジェクトトラッキング方法)
図9を参照して、本発明の実施の形態に係るオブジェクトトラッキング方法を説明する。オブジェクトトラッキング方法は、所定のフレームデータについて、ステップS1ないしステップS8の処理を繰り返す。
ステップS1についてオブジェクトトラッキング装置1は、フレームデータ11を取得し、ステップS2において、フレームデータと同タイミングの測定データ12を取得する。
ステップS3においてオブジェクトトラッキング装置1は、ステップS1で取得したフレームデータ11と、予め取得した各オブジェクトのテンプレートデータと比較する。オブジェクトトラッキング装置1は、フレームデータ11における各オブジェクトの位置を特定し、二次元位置データ13を生成する。
ステップS4においてオブジェクトトラッキング装置1は、ステップS2で取得した測定データ12から、各オブジェクトの三次元位置を特定し、三次元位置データ14を生成する。
ステップS5においてオブジェクトトラッキング装置1は、ステップS3で特定した各オブジェクトについて、ステップS4で特定した三次元位置との対応付けを行い、対応付けデータ15を生成する。ここで、ステップS6において対応付けができたと判断される場合、ステップS8に進み、オブジェクトトラッキング装置1は、各オブジェクトの二次元位置と三次元位置を対応付けて、トラッキングデータ16を出力する。
一方対応付けが出来なかったと判断する場合、ステップS7を参照して、直前のフレームデータなどの過去のフレームデータも参照して、各オブジェクトの動きを推測し、オブジェクトトラッキング装置1は、各オブジェクトについて三次元位置との対応付けを行う。ステップS8においてオブジェクトトラッキング装置1は、各オブジェクトの二次元位置と三次元位置を対応付けて、トラッキングデータ16を出力する。
なお、図9に示した処理の順序は一例であって、これに限るものではない。例えば、ステップS1およびS3の処理と、ステップS2およびS4の処理を、同時に行っても良い。具体的にはオブジェクトトラッキング装置1は、ステップS1でフレームデータ11を取得するとともに、ステップS2で測定データ12を取得する。その後、ステップS3でフレームデータ11から二次元位置データ13を生成し、ステップS4で距離データ12から三次元位置データ14を生成する。ここで、ステップS3の処理とステップS4の処理が同時に行われても良い。またステップS6の対応付けの処理は、フレームデータ11から生成された二次元位置データ13と、このフレームデータ11が取得された時刻により近いおよび測定データ12から生成された三次元位置データ14に対して、行われる。これにより、撮影中の動画データについてリアルタイムに処理する場合などにおいて、迅速に処理をすることができる。
このような本発明の実施の形態に係るオブジェクトトラッキング装置1は、撮影装置2から取得したフレームデータ11から、オブジェクトの識別子と二次元位置を特定し、距離測定装置3から取得した測定データ12から、オブジェクトの三次元位置を特定し、オブジェクトの二次元位置と三次元位置とを対応付けて、各オブジェクトの二次元位置と三次元位置を対応付ける。これにより、対象空間に複数のオブジェクトが存在する場合でも、各オブジェクトについて二次元位置と三次元位置を対応付けることができる。また複数のフレームデータについてこの処理を繰り返すことにより、各オブジェクトの位置をトラッキングすることができる。
また本発明の実施の形態に係るオブジェクトトラッキング装置1は、撮影装置2と距離測定装置3による入力の対応付けが難しい場合でも、過去のオブジェクトの位置の情報からオブジェクトの動きを推測することで、対応付けすることが可能になる。
(変形例)
本発明の実施の形態においては、オブジェクト全体の二次元位置と三次元位置を対応付ける場合を説明したが、変形例においてオブジェクトの特定部位について対応付けする場合を説明する。変形例に係るオブジェクトトラッキング装置1aは、オブジェクトの複数の特定部位について、二次元位置と三次元位置を対応付けることにより、オブジェクトの姿勢等の状態を推測する。
図10に示す変形例に係るオブジェクトトラッキング装置1aは、図2に示す本発明の実施の形態に係るオブジェクトトラッキング装置1と比べて、記憶装置10aが、特定部位二次元位置データ21、特定部位三次元位置データ22、特定部位位置データ23および状態推定データ24を備える点が異なる。また処理装置30aが、特定部位位置検出部41、特定部位距離検出部42、特定部位選択部43および状態推定部44を備える点が異なる。
特定部位二次元位置データ21は、二次元位置データ13で特定したオブジェクトの位置のうち、このオブジェクトの特定部位に関する二次元位置データである。
特定部位三次元位置データ22は、三次元位置データ14に含まれるオブジェクトの位置のうち、このオブジェクトの特定部位に関する三次元位置データである。特定部位三次元位置データ22はさらに、オブジェクトが床や壁などに接するなどの情報が取得された場合、このオブジェクトが接した位置の情報も含む。
特定部位位置データ23は、特定部位二次元位置データ21と特定部位三次元位置データ22とをマージして生成されるデータである。特定部位位置データ23は、オブジェクトの各特定部位の位置の情報が設定される。特定部位位置データ23はさらに、特定部位三次元位置データ22のオブジェクトが接した位置の情報も含む。
状態推定データ24は、フレームデータ11におけるオブジェクトの推測された状態を示すデータである。オブジェクトが床または壁などに接する場合、その床または壁などの位置情報を含んでも良い。
特定部位位置検出部41は、オブジェクトの二次元位置から、オブジェクトの特定部位の二次元位置を検出する。特定部位位置検出部41は、オブジェクト位置検出部33が生成した二次元位置データ13から、各オブジェクトの特定の部位を検出する。オブジェクトが人体の場合、投影部位は、頭、手、足、腕、重心点などの人体に含まれる部位である。
特定部位位置検出部41がオブジェクトの部位を検出する方法は、コンピュータビジョンを用いた画像処理により検出しても良いし、深層学習手段を用いあらかじめオブジェクトの部位の映像を学習させ特定部位の領域を検出しても良い。また、OpenPoseなどの公開ライブラリを用い、オブジェクトの特定部位ツの接続情報を用いてそれぞれのパーツの位置を推定しても良い。
特定部位位置検出部41は、フレームデータ11に含まれるオブジェクトの数分(本発明の実施の形態ではオブジェクトAおよびオブジェクトBの2つ分)に対して、各特定部位の位置を検出する。特定部位位置検出部41は、オブジェクトの識別子に、検出した特定部位の名称と、その位置を対応付けた特定部位二次元位置データ21を生成する。
特定部位距離検出部42は、オブジェクトの三次元位置から、オブジェクトの特定部位の三次元位置を検出する。特定部位距離検出部42は、オブジェクト距離検出部34が生成した三次元位置データ14から、各オブジェクトの特定の部位を検出する。オブジェクトが人体の場合、投影部位は、頭、手、足、腕、重心点などの人体に含まれる部位である。
特定部位距離検出部42がオブジェクトの部位を検出する方法は、例えばオブジェクトを囲うバウンディングボックスに含まれる点群の中から形状マッチングを行い、球体の形状に近いものを頭として検出するなど、各特定部位の形状に近い部分を検出しても良い。また、特定部位距離検出部42は、対象空間の舞台の床や壁などの面をあらかじめ検出しておき、オブジェクトを囲うバウンディングボックスに含まれる点群中の点と面との距離がある閾値以下である場合、例えば足などのその箇所をオブジェクトが面に接する特定部位と判定しても良い。
なお、点群のデータの中から面を求める方法は、例えば、点群データの中からランダムで選んだ複数点の組みで法線ベクトルを求め、同じ方向を向いている法線ベクトルを計算し面を求める方法がある(Plane model segmentation(http://pointclouds.org/documentation/tutorials/planar_segmentation.php#planar-segmentation)参照)。その面が水平である場合舞台の床と判定し、垂直である場合、舞台の壁と判定しても良い。
特定部位距離検出部42は、各特定部位の三次元位置と、オブジェクトが接する座標位置の情報を含ませて、特定部位三次元位置データ22を生成する。
特定部位選択部43は、特定部位二次元位置データ21と特定部位三次元位置データ22に含まれる特定部位の位置情報をマージして、特定部位位置データ23を生成する。ここで、特定部位について、二次元位置と三次元位置の両方の位置情報がある場合、一方の位置情報のみを用いても良いし、両方の情報から生成される新たな位置情報を用いても良い。特定部位選択部43は、特定部位三次元位置データ22が含むオブジェクトが接する座標位置の情報を含ませて、特定部位位置データ23を生成する。
状態推定部44は、特定部位位置データ23を参照して、特定部位の二次元位置と、特定部位の三次元位置から、オブジェクトの状態を推定する。状態推定部44は、オブジェクトの各特定部位の位置情報から、オブジェクトの姿勢などの状態を推定する。状態推定部44は、特定部位位置データ23が示す、オブジェクトが床や壁に接する情報も加味して、オブジェクトの姿勢などの状態を推定しても良い。
状態推定部44は、フレームデータ11におけるオブジェクトの推測された状態を含む状態推定データ24を生成する。状態推定部44は、オブジェクトが床または壁などに接する場合、その床または壁などの位置情報を状態推定データ24に含ませても良い。状態推定部44は、状態推定データ24において、各フレームデータ11について推測された状態を、時系列に記憶しても良い。
人物のオブジェクトの姿勢を検出する方法として例えば、人体の骨格形状を木構造でモデル化し、それぞれの接続特性から姿勢を検出する方法がある(米本 悠・村崎 和彦・大澤 達哉・数藤恭子・島村 潤・谷口行・、一人称映像からの行動認識のための骨格推定、信学技報(2015-3)、PRMU2014-176)。この際、明らかに人物がとることのできない姿勢となる場合、人体の特定部位の情報を修正し、再度姿勢を検出する処理をしても良い。オブジェクトの姿勢の推定は、例えばあらかじめ様々な姿勢の情報を学習データとして用意し、それらの中から適した姿勢を選択し出力する方法が考えられる。
このような変形例に係るオブジェクトトラッキング装置1aは、オブジェクトの複数の特定部位について、二次元位置と三次元位置を対応付けることにより、オブジェクトの姿勢等の状態を推測することができる。
例えば、柔道の試合を行っているオブジェクトAおよびオブジェクトBの姿勢をリアルタイムで自動的に認識できる。またオブジェクトの位置情報とその姿勢情報を用いて、例えば映像上にオブジェクトの位置や姿勢に合わせたエフェクトを追加することが可能である。またオブジェクトが柔道の試合中の人物の場合、各人物の状態に基づいて技の名称を特定し、特定された技の名称やその関連情報などを表示したりすることが可能となる。
(その他の実施の形態)
上記のように、本発明の実施の形態とその変形例によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例および運用技術が明らかとなる。
例えば、本発明の実施の形態に記載したオブジェクトトラッキング装置は、図2に示すように一つのハードウエア上に構成されても良いし、その機能や処理数に応じて複数のハードウエア上に構成されても良い。また、既存の動画処理システム上に実現されても良い。
本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
1 オブジェクトトラッキング装置
2 撮影装置
3 距離測定装置
5 オブジェクトトラッキングシステム
10 記憶装置
11 フレームデータ
12 測定データ
13 二次元位置データ
14 三次元位置データ
15 対応付けデータ
16 トラッキングデータ
21 特定部位二次元位置データ
22 特定部位三次元位置データ
23 特定部位位置データ
24 状態推定データ
31 フレーム取得部
32 距離取得部
33 オブジェクト位置検出部
34 オブジェクト距離検出部
35 対応付け部
36 位置合わせ部
37 選択部
38 オブジェクトトラッキング部
41 特定部位位置検出部
42 特定部位距離検出部
43 特定部位選択部
44 状態推定部

Claims (7)

  1. 複数のオブジェクトが存在する空間を撮影した動画データから、前記オブジェクトの位置をトラッキングするオブジェクトトラッキング装置であって、
    前記複数のオブジェクトが存在する空間を撮影装置が撮影した動画データを構成する1つのフレームデータを取得するフレーム取得部と、
    前記複数のオブジェクトが存在した空間におけるオブジェクトを構成する点の三次元座標を距離測定装置が測定した測定データを取得する距離取得部と、
    前記複数のオブジェクトのそれぞれのテンプレートデータとの比較に基づいて、前記フレームデータから、前記複数のオブジェクトそれぞれの二次元位置を検出するオブジェクト位置検出部と、
    前記測定データから、前記複数のオブジェクトの複数の三次元位置を検出するオブジェクト距離検出部と、
    前記撮影装置と前記距離測定装置の座標点を対応付け、前記オブジェクト位置検出部が出力した前記二次元位置に、前記オブジェクト距離検出部が出力した前記複数の三次元位置のうちより近い三次元位置を対応付ける対応付け部を備え、
    前記動画データを構成する他のフレームデータについて、前記距離取得部、前記オブジェクト位置検出部、前記オブジェクト距離検出部および前記対応付け部の処理を繰り返す
    ことを特徴とするオブジェクトトラッキング装置。
  2. 前記オブジェクトの二次元位置から、前記オブジェクトの特定部位の二次元位置を検出する特定部位位置検出部と、
    前記オブジェクトの三次元位置から、前記オブジェクトの特定部位の三次元位置を検出する特定部位距離検出部と、
    前記特定部位の二次元位置と、前記特定部位の三次元位置から、前記オブジェクトの状態を推定する状態推定部
    をさらに備えることを特徴とする請求項1に記載のオブジェクトトラッキング装置。
  3. 前記対応付け部は、
    所定の二次元位置に近い三次元位置が複数ある場合、処理対象のフレームの他のフレームの処理結果を参照して、前記所定の二次元位置により近い三次元位置を特定する
    ことを特徴とする請求項1または2に記載のオブジェクトトラッキング装置。
  4. 複数のオブジェクトが存在する空間を撮影した動画データから、前記オブジェクトの位置をトラッキングするオブジェクトトラッキング方法であって、
    コンピュータが、前記複数のオブジェクトが存在する空間を撮影装置が撮影した動画データを構成する1つのフレームデータを取得するステップと、
    前記コンピュータが、前記複数のオブジェクトが存在した空間におけるオブジェクトを構成する点の三次元座標を距離測定装置が測定した測定データを取得するステップと、
    前記コンピュータが、前記複数のオブジェクトのそれぞれのテンプレートデータとの比較に基づいて、前記フレームデータから、前記複数のオブジェクトそれぞれの二次元位置を検出するステップと、
    前記コンピュータが、前記測定データから、前記複数のオブジェクトの複数の三次元位置を検出するステップと、
    前記コンピュータが、前記撮影装置と前記距離測定装置の座標点を対応付け、前記二次元位置を検出するステップが出力した前記二次元位置に、前記三次元位置を検出するステップが出力した前記複数の三次元位置のうちより近い三次元位置を対応付けるステップを備え、
    前記コンピュータが、前記動画データを構成する他のフレームデータについて、前記各ステップを繰り返す
    ことを特徴とするオブジェクトトラッキング方法。
  5. 前記コンピュータが、前記オブジェクトの二次元位置から、前記オブジェクトの特定部位の二次元位置を検出するステップと、
    前記コンピュータが、前記オブジェクトの三次元位置から、前記オブジェクトの特定部位の三次元位置を検出するステップと、
    前記コンピュータが、前記特定部位の二次元位置と、前記特定部位の三次元位置から、前記オブジェクトの状態を推定するステップ
    をさらに備えることを特徴とする請求項4に記載のオブジェクトトラッキング方法。
  6. 前記対応付けるステップは、
    所定の二次元位置に近い三次元位置が複数ある場合、処理対象のフレームの他のフレームの処理結果を参照して、前記所定の二次元位置により近い三次元位置を特定する
    ことを特徴とする請求項4または5に記載のオブジェクトトラッキング方法。
  7. コンピュータに、請求項1ないし請求項3のいずれか1項に記載のオブジェクトトラッキング装置として機能させるためのオブジェクトトラッキングプログラム。
JP2018098848A 2018-05-23 2018-05-23 オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム Active JP6793151B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018098848A JP6793151B2 (ja) 2018-05-23 2018-05-23 オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
PCT/JP2019/019922 WO2019225547A1 (ja) 2018-05-23 2019-05-20 オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US17/056,891 US11398049B2 (en) 2018-05-23 2019-05-20 Object tracking device, object tracking method, and object tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018098848A JP6793151B2 (ja) 2018-05-23 2018-05-23 オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム

Publications (2)

Publication Number Publication Date
JP2019205060A JP2019205060A (ja) 2019-11-28
JP6793151B2 true JP6793151B2 (ja) 2020-12-02

Family

ID=68615833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018098848A Active JP6793151B2 (ja) 2018-05-23 2018-05-23 オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム

Country Status (3)

Country Link
US (1) US11398049B2 (ja)
JP (1) JP6793151B2 (ja)
WO (1) WO2019225547A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049389A (ko) * 2020-10-14 2022-04-21 (주)유디피 스켈레톤 분석을 이용한 객체 추적 장치 및 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11554324B2 (en) * 2020-06-25 2023-01-17 Sony Interactive Entertainment LLC Selection of video template based on computer simulation metadata
CN112525162B (zh) * 2021-02-09 2021-07-13 国网江苏省电力有限公司泰州供电分公司 一种无人机测量输电线路影像距离的***及方法
CN113008178A (zh) * 2021-02-24 2021-06-22 中国铁道科学研究院集团有限公司 轨道检测***数据同步关联采集装置、方法、设备及介质
JP2022182606A (ja) 2021-05-28 2022-12-08 株式会社ミツトヨ 位置検出システム、位置検出方法及び三次元形状測定システム
CN113240717B (zh) * 2021-06-01 2022-12-23 之江实验室 一种基于三维目标跟踪的误差建模位置修正方法
JP2023004657A (ja) * 2021-06-28 2023-01-17 Nttリミテッド・ジャパン株式会社 追跡管理システム、トラッキング方法、及びプログラム
WO2023157623A1 (ja) * 2022-02-15 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体
CN115574732B (zh) * 2022-12-08 2023-03-10 北京新兴环宇信息科技有限公司 一种基坑检测方法以及检测***
KR102594422B1 (ko) * 2023-07-11 2023-10-27 주식회사 딥핑소스 그라운드에 프로젝트된 오브젝트의 무게 중심을 예측하는 오브젝트 디텍터를 학습하는 방법, 학습된 오브젝트 디텍터를 이용하여 서로 다른 뷰잉 프러스텀을 가지는 복수의 카메라로부터 촬영된 특정 공간 내에서 동일한 오브젝트를 식별하는 방법, 그리고, 이를 이용한 학습 장치 및 오브젝트 식별 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4961234B2 (ja) * 2007-03-23 2012-06-27 株式会社日立製作所 物体追跡装置
JP2010063001A (ja) * 2008-09-05 2010-03-18 Mitsubishi Electric Corp 人物追跡装置および人物追跡プログラム
JP2012146132A (ja) * 2011-01-12 2012-08-02 Osaka City Univ 3次元データと2次元データの統合方法及びこれを用いた見守りシステム、監視システム
US10430641B2 (en) * 2017-03-08 2019-10-01 GM Global Technology Operations LLC Methods and systems for object tracking using bounding boxes
JP7003628B2 (ja) * 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049389A (ko) * 2020-10-14 2022-04-21 (주)유디피 스켈레톤 분석을 이용한 객체 추적 장치 및 방법

Also Published As

Publication number Publication date
US20210209793A1 (en) 2021-07-08
WO2019225547A1 (ja) 2019-11-28
JP2019205060A (ja) 2019-11-28
US11398049B2 (en) 2022-07-26

Similar Documents

Publication Publication Date Title
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
CN110998659B (zh) 图像处理***、图像处理方法、及程序
WO2018107910A1 (zh) 一种全景视频融合方法及装置
JP2021192250A (ja) 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
US9330470B2 (en) Method and system for modeling subjects from a depth map
JP2008506953A5 (ja)
US20170337701A1 (en) Method and system for 3d capture based on structure from motion with simplified pose detection
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
US11854211B2 (en) Training multi-object tracking models using simulation
JP2004235934A (ja) キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP7499280B2 (ja) 人物の単眼深度推定のための方法およびシステム
JP2018129007A (ja) 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム
CN109934873B (zh) 标注图像获取方法、装置及设备
JP2012185772A (ja) 非固定ズームカメラを用いた自由視点映像の合成画質高精度化方法およびプログラム
JP2018207252A (ja) 画像処理システム、画像処理システムの制御方法、及び、プログラム
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
CN109407824B (zh) 人体模型的同步运动方法与装置
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP2005241323A (ja) 撮像システム及び校正方法
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP2005031044A (ja) 三次元誤差測定装置
JP2024501161A (ja) 画像または映像におけるオブジェクトの3次元場所特定
JP5713655B2 (ja) 映像処理装置、映像処理方法及びプログラム
WO2024024055A1 (ja) 情報処理方法、装置、及びプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6793151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150