JP2019101892A - オブジェクト追跡装置及びそのプログラム - Google Patents

オブジェクト追跡装置及びそのプログラム Download PDF

Info

Publication number
JP2019101892A
JP2019101892A JP2017234038A JP2017234038A JP2019101892A JP 2019101892 A JP2019101892 A JP 2019101892A JP 2017234038 A JP2017234038 A JP 2017234038A JP 2017234038 A JP2017234038 A JP 2017234038A JP 2019101892 A JP2019101892 A JP 2019101892A
Authority
JP
Japan
Prior art keywords
position data
image
infrared light
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017234038A
Other languages
English (en)
Other versions
JP6983049B2 (ja
Inventor
高橋 正樹
Masaki Takahashi
正樹 高橋
真介 横澤
Shinsuke Yokozawa
真介 横澤
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017234038A priority Critical patent/JP6983049B2/ja
Publication of JP2019101892A publication Critical patent/JP2019101892A/ja
Application granted granted Critical
Publication of JP6983049B2 publication Critical patent/JP6983049B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】本願明は、検出位置の欠落が生じる場合でも正確にオブジェクトを追跡できるオブジェクト追跡装置を提供する。【解決手段】オブジェクト追跡装置30は、赤外光領域を検出する赤外光検出部311と、赤外光領域の位置データを生成する位置データ生成部313と、位置データの欠落区間を特定する欠落区間特定部331と、欠落区間両端の位置データに基づいて可視画像の特徴点を検出する特徴点検出部333と、欠落した位置データを特徴点の検出位置で補間する位置データ補間部335と、位置データに基づいて軌跡を描画する軌跡描画部353とを備える。【選択図】図3

Description

本発明は、赤外画像及び可視画像を用いて、オブジェクトを追跡するオブジェクト追跡装置及びそのプログラムに関する。
近年、映像解析技術の進展に伴い、カメラを用いた様々なアプリケーションが提案されている。この技術の発展は、特にスポーツシーンの映像解析において顕著である。例えば、ウィンブルドンでも使用されているテニスのホークアイシステムは、複数の固定カメラの映像を用いてテニスボールを3次元的に追跡し、IN/OUTの判定を行っている。また2014年のFIFAワールドカップでは、ゴールラインテクノロジーと称して、数台の固定カメラの映像を解析し、ゴールの判定を自動化している。さらにサッカースタジアムに多数のステレオカメラを設置し、フィールド内の全選手をリアルタイムに追跡するTRACABシステムも知られている。
これら映像解析技術は、時間解像度が30フレーム/秒(fps)のカメラで撮影した映像を利用する前提であることが多い。例えば、フェンシングの剣先、バドミントンのシャトル等、目視が困難なほどの高速で移動するオブジェクトを撮影すると、映像上では、そのオブジェクトに極度のモーションブラーが発生する(図8の符号α)。このため、映像のみからオブジェクト位置を正確に計測することが極めて困難である。高速で移動するオブジェクトを撮影する場合、30fpsを超えるハイスピートカメラを利用したり、シャッター速度を高速化することで、モーションブラーを軽減できる。その一方、ハイスピードカメラは高価であり、シャッター速度を高速化すると映像の輝度が低下するという問題がある。
そこで、オブジェクトにセンサを装着し、その動きを解析する技術が提案されている。例えば、特許文献1,2に記載の発明は、選手のウェアやリストバンドに装着した加速度センサから、そのプレー内容を機械学習で識別するものである。この従来技術によれば、テニスでのサーブやボレー等のプレー内容を自動判定することができる。しかし、特許文献1,2に記載の発明では、選手に装着したセンサが競技の妨げとなることが多く、実際の試合でセンサを用いることは現実的でない。
従って、オブジェクトにセンサを付けない技術も提案されている。例えば、特許文献3に記載の発明は、フェンシングの剣先に反射テープを貼り付け、その反射テープに赤外光を照射し、その反射光を赤外画像から検出することで、正確(頑健)にオブジェクトを追跡するものである。
特開2014−187481公報 特開2016−97228号公報 特開2017−156796号公報
しかし、特許文献3に記載の発明では、オブジェクトが高速に移動した場合や反射テープがカメラに正対していない場合、反射テープからの反射光が微弱なため、赤外画像でのオブジェクト検出が困難となり、検出位置の欠落が生じてしまう。再び反射光が十分な光量となり追跡を再開できても、検出位置の欠落区間が長時間にわたると不自然な軌跡となり、オブジェクトの正確な軌道を表現することが困難である。
そこで、本発明は、検出位置が欠落した場合でも正確にオブジェクトを追跡できるオブジェクト追跡装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明に係るオブジェクト追跡装置は、赤外光マーカを付けて移動する1以上のオブジェクトを赤外光で撮影した赤外画像と、前記オブジェクトを可視光で撮影した可視画像とを用いて、前記オブジェクトを追跡するオブジェクト追跡装置であって、赤外光検出部と、位置データ生成部と、欠落区間特定部と、特徴点検出部と、位置データ補間部と、オブジェクト追跡部と、を備える構成とした。
かかる構成によれば、オブジェクト追跡装置は、赤外光検出部によって、前記赤外画像から前記赤外光マーカの領域を赤外光領域として検出する。
また、オブジェクト追跡装置は、位置データ生成部によって、前記赤外光領域を検出できたときは当該赤外光領域の検出位置又は前記赤外光領域を検出できないときは前記検出位置の欠落と、当該赤外光領域の検出対象となった赤外画像の時刻情報とが含まれる位置データを生成する。
また、オブジェクト追跡装置は、欠落区間特定部によって、前記位置データの欠落区間を特定し、特定した前記欠落区間の開始時刻から終了時刻までの時間長が予め設定した閾値以上であるか否かを判定する。
ここで、開始時刻直前及び終了時刻直後の赤外画像では、オブジェクトに付けた赤外光マーカの検出が成功している。従って、開始時刻及び終了時刻の可視画像では、それら赤外画像での検出位置周辺にオブジェクトが存在する可能性が高い。
そこで、オブジェクト追跡装置は、特徴点検出部によって、前記欠落区間の時間長が前記閾値以上の場合、前記開始時刻直前及び前記終了時刻直後の位置データから前記検出位置を取得し、取得した前記検出位置に基づいて画像領域を前記開始時刻及び前記終了時刻の可視画像に設定し、設定した前記画像領域から特徴点を検出する。
また、オブジェクト追跡装置は、位置データ補間部によって、前記開始時刻及び前記終了時刻の位置データを前記特徴点の検出位置で補間し、補間した前記位置データを前記欠落区間特定部に出力する。
また、オブジェクト追跡装置は、オブジェクト追跡部によって、前記欠落区間の時間長が前記閾値未満の場合、前記位置データに基づいて前記オブジェクトを追跡する。
そして、オブジェクト追跡装置は、前記欠落区間特定部によって、前記位置データ補間部から入力された位置データの欠落区間を特定する。
このように、オブジェクト追跡装置は、時刻順に特徴点を検出する訳でなく、オブジェクトが存在する可能性の高い開始時刻及び終了時刻の可視画像から特徴点を検出し、その特徴点の検出位置で位置データを補間する。そして、オブジェクト追跡装置は、位置データの欠落区間を両端から狭めるように前記処理を繰り返す。
本発明によれば、以下のような優れた効果を奏する。
本発明に係るオブジェクト追跡装置は、オブジェクトが存在する可能性の高い開始時刻及び終了時刻の可視画像から特徴点を検出し、その特徴点の検出位置で位置データを補間する。これにより、オブジェクト追跡装置は、検出位置が欠落した場合でも正確にオブジェクトを追跡することができる。
本発明の実施形態に係るオブジェクト追跡システムの概略構成図である。 剣先の拡大図である。 図1のオブジェクト追跡装置の構成を示すブロック図である。 (a)及び(b)は位置データを説明する説明図である。 (a)及び(b)はFAST特徴量を説明する説明図である。 軌跡合成画像の一例を説明する説明図である。 図3のオブジェクト追跡装置の動作を示すフローチャートである。 フェンシングの映像におけるモーションブラーを説明する説明図である。
[オブジェクト追跡システムの概略]
図1を参照し、本発明の実施形態に係るオブジェクト追跡システム1の概略について説明する。
以後の実施形態では、フェンシングにおいて、選手が持つ剣先(オブジェクト)を追跡対象として説明する。フェンシングの最中、両選手の剣先は、高速で移動することが多い。
オブジェクト追跡システム1は、可視光及び赤外光を同光軸で撮影可能な可視・赤外同光軸カメラ20を利用して、高速で移動する2本の剣先位置を追跡し、その軌跡C(C,C)を描画するものである。図1に示すように、オブジェクト追跡システム1は、赤外光投光器10と、可視・赤外同光軸カメラ20と、オブジェクト追跡装置30と、を備える。
赤外光投光器10は、赤外光を投光する一般的な投光器である。
図2に示すように、この赤外光投光器10が投光した赤外光は、両選手の剣先90に付けた反射テープ(赤外光マーカ)91で反射され、後記する可視・赤外同光軸カメラ20で撮影される。
反射テープ91は、赤外光投光器10からの赤外線を反射するものである。この反射テープ91は、剣先90に1枚以上付ければよく、その大きさや枚数に特に制限はない。図2の例では、剣先90は、その側面に矩形状の反射テープ91を1枚付けている。ここで、剣先90は、側面反対側に反射テープ91を1枚追加してもよく、その側面を一周するように帯状の反射テープ91を巻いてもよい(不図示)。
可視・赤外同光軸カメラ20は、可視光と赤外光を同一光軸で撮影し、同一画素数の可視画像I及び赤外画像Hを生成するものである。本実施形態では、可視・赤外同光軸カメラ20は、フェンシングの競技を撮影した可視画像Iと、剣先90の反射テープ91を撮影した赤外画像Hと、を生成する。ここで、可視画像Iの剣先90と、赤外画像Hの反射テープ91との画像座標が対応するため、3次元空間での視点変換を行うことなく軌跡Cを描画できる。
オブジェクト追跡装置30は、可視・赤外同光軸カメラ20から入力された赤外画像Hと可視画像Iとを用いて、両選手の剣先90を追跡するものである。そして、オブジェクト追跡装置30は、追跡した両選手の剣先90の軌跡C,Cを異なる色で描画し、描画した軌跡C,Cを可視画像Iに合成することで、軌跡合成画像Fを生成する。
なお、図1では、左側の選手が持つ剣先90の軌跡Cを破線で図示し、右側の選手が持つ剣先90の軌跡Cを一点鎖線で図示した。
[オブジェクト追跡装置の構成]
図3を参照し、オブジェクト追跡装置30の構成について説明する。
図3に示すように、オブジェクト追跡装置30は、赤外光検出手段31と、可視画像解析手段33と、タイムコード連動型CG合成手段35と、を備える。以下、タイムコード連動型CG合成手段35をTC連動型CG合成手段35と略記する。
ここで、オブジェクト追跡装置30は、時間方向に連続するフレーム1,…,t−1,t,…の赤外画像H及び可視画像Iが入力され、入力された赤外画像H及び可視画像Iに順次処理を施すこととする。以後、現在のフレーム(現フレーム)をtとし、現フレームtの赤外画像H及び可視画像Iを赤外画像H及び可視画像Iとする。この添え字tは、各画像や位置情報の時刻情報(例えば、タイムコードを表す)。
赤外光検出手段31は、現フレームtの赤外画像Hから剣先90を検出し、剣先90の位置データを生成するものである。本実施形態では、赤外光検出手段31は、赤外画像Hに含まれる2つの剣先90を検出し、剣先90毎に位置データを生成する。この赤外光検出手段31は、赤外光検出部311と、位置データ生成部313と、を備える。
赤外光検出部311は、可視・赤外同光軸カメラ20より入力された赤外画像Hから赤外光マーカの領域を赤外光領域として検出するものである。この赤外光検出部311は、任意の手法で赤外光領域を検出できる。以下、赤外光検出部311における赤外光領域の検出手法の一例を説明する。
本実施形態では、赤外画像Hから反射テープ91の領域を候補ブロブとして抽出する。そして、赤外光検出部311は、予め設定した面積及び形状特徴量の範囲内の候補ブロブを、予め設定したオブジェクト上限数だけ候補ブロブの面積が広い順に検出ブロブとして検出する。本実施形態では、オブジェクト上限数は、剣先90と同数の‘2’に設定する。
まず、赤外光検出部311は、下記の式(1)を用いて、赤外画像Hと、1つ前のフレームの赤外画像Ht−1との2値赤外差分画像を生成することで、動オブジェクトの領域Qのみを抽出する。つまり、赤外光検出部311は、赤外画像Hの画素(x,y)の輝度値Hxy と、赤外画像Ht−1の画素(xt−1,yt−1)の輝度値Hxy t−1との差分を求める。そして、赤外光検出部311は、求めた差分が予め設定した閾値Rbri2を超える動オブジェクトの領域Qxy を、候補ブロブとして抽出する。
ここで、x,yは、水平及び垂直の画像座標を表す。また、閾値Rbri2は、任意の値で予め設定する。また、式(1)の‘0’、‘255’は、各画素の輝度値を表す。
なお、赤外光検出部311は、静止しているノイズブロブの発生を抑えるために2値赤外差分画像Qxy を生成したが、赤外画像Hで輝度が高い領域を候補ブロブとして抽出してもよい。
次に、赤外光検出部311は、抽出した候補ブロブにモルフォロジ処理(オープニングモルフォロジ処理)を施し、小領域のノイズブロブを消去する。このモルフォロジ処理とは、画像をいくつかの方向に画素単位でずらした画像群と、もとの画像との画像間演算によって、小領域のノイズブロブを消去する処理である。
次に、赤外光検出部311は、モルフォロジ処理で残った候補ブロブにラベリング処理を施す。このラベリング処理とは、候補ブロブにラベル(番号)を割り当てる処理である。
次に、赤外光検出部311は、ラベリング処理を施した候補ブロブの位置、面積及び形状特徴量を求める。ここで、候補ブロブの位置は、候補ブロブの中心位置又は重心位置である。また、候補ブロブの形状特徴量は、円形度や外接矩形のアスペクト比とする。
そして、赤外光検出部311は、予め設定した最小面積から最大面積までの範囲内にない候補ブロブを消去する。さらに、赤外光検出部311は、形状特徴量が予め設定した範囲内にない候補ブロブを消去する。さらに、赤外光検出部311は、候補ブロブの数がオブジェクト上限数を超えている場合、面積が大きい2個の候補ブロブを検出ブロブとして残し、他の候補ブロブを消去する。
赤外光領域を検出できた場合(検出ブロブが残った場合)、赤外光検出部311は、赤外画像Hの時刻情報に対応付けて、検出ブロブの位置を赤外光領域の検出位置として位置データ生成部313に出力する。
一方、赤外光領域を検出できない場合(検出ブロブが残らない場合)、赤外光検出部311は、赤外画像Hの時刻情報と共に、赤外光領域が検出できないことを位置データ生成部313に通知する(検出失敗通知)。
位置データ生成部313は、赤外光検出部311から入力された赤外光領域の検出位置又は検出失敗通知と、赤外画像Hの時刻情報とに基づいて、位置データPを生成するものである。そして、位置データ生成部313は、生成した位置データPを欠落区間特定部331に出力する。
<位置データ>
以下、位置データを詳細に説明する。
この位置データPは、赤外光領域の位置情報と、赤外光領域の検出対象となった赤外画像Hの時刻情報(タイムコード)とを対応付けた情報である。
本実施形態では、赤外光領域の位置情報は、剣先90の検出位置を表す。ここで、赤外光領域の位置情報は、赤外光検出部311から赤外光領域の検出位置が入力された場合、その赤外光領域の画像座標(x,y)となる。一方、赤外光領域の位置情報は、赤外光検出部311から検出失敗通知が入力された場合、検出位置の欠落を示す画像座標(−1,−1)となる。
図4(a)に示すように、位置データPの各行が、赤外画像Hのタイムコードと、その赤外画像Hに含まれる赤外光領域の位置情報とを表している。図4(a)の位置データPでは、1行目〜4行目及び10行目〜11行目が赤外光領域の検出位置を表し、5行目〜9行目が検出位置の欠落を表す。
例えば、位置データPの1行目は、赤外画像Hのタイムコードが「10:25:30.25」であり、赤外光領域の画像座標が(1250,350)である。また、位置データPの5行目は、赤外画像Hのタイムコードが「10:25:30.29」であり、赤外光領域の画像座標が(−1,−1)なので、検出位置の欠落を表す。
なお、位置データPは、オブジェクト毎に生成することとする。本実施形態では剣先90が2つのため、図4の位置データPが左側選手の剣先90に対応し、右側選手の剣先90に対応する位置データPも別に生成する。
図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
可視画像解析手段33は、位置データPに含まれる欠落区間を特定し、欠落区間両端の可視画像から特徴点を検出し、位置データPを補間するものである。この可視画像解析手段33は、欠落区間特定部331と、特徴点検出部333と、位置データ補間部335と、を備える。
欠落区間特定部331は、位置データ生成部313又は位置データ補間部335から入力された位置データPの欠落区間を特定し、特定した欠落区間の時間長dが閾値m以上であるか否かを判定するものである。
まず、欠落区間特定部331は、位置データPの各行を参照し、位置情報が連続して欠落している欠落区間を特定する。本実施形態では、欠落区間特定部331は、位置データPで画像座標(−1,−1)が含まれる行を特定する。
次に、欠落区間特定部331は、画像座標(−1,−1)が連続する欠落区間のうち、最も先の時刻を欠落区間の開始時刻TSTとし、最も遅い時刻を欠落区間の終了時刻TEDとして求める。そして、欠落区間特定部331は、特定した欠落区間の開始時刻TSTから終了時刻TEDまでの時間長dを求める。
次に、欠落区間特定部331は、求めた欠落区間の時間長dが閾値m以上であるか否かを判定する。この閾値mは、任意の値で予め設定されている(例えば、‘3’フレーム)。
時間長dが閾値m以上の場合、欠落区間特定部331は、位置データPと共に、求めた欠落区間の開始時刻TST及び終了時刻TEDを特徴点検出部333に出力する。
一方、時間長dが閾値m未満の場合、欠落区間特定部331は、位置データPを位置データ蓄積部351に書き込む。
特徴点検出部333は、欠落区間の時間長dが閾値m以上の場合、位置データPから開始時刻直前及び終了時刻直後の検出位置を取得し、取得した検出位置に基づいて、開始時刻及び終了時刻の可視画像Iに画像領域を設定し、設定した画像領域から特徴点を検出するものである。この特徴点検出部333は、特徴点検出部333は、欠落区間特定部331から位置データPが入力され、可視・赤外同光軸カメラ20から可視画像Iが入力される。
まず、特徴点検出部333は、欠落区間の開始時刻TSTから開始直前時刻TST−1を求める。この開始直前時刻TST−1は、開始時刻TSTの1つ前の時刻(タイムコード)を表す。また、特徴点検出部333は、欠落区間の終了時刻TEDから終了直後時刻TED+1を求める。この終了直後時刻TED+1は、終了時刻TEDの1つ後の時刻(タイムコード)を表す。
ここで、開始直前時刻TST−1及び終了直後時刻TED+1の赤外画像Hでは、剣先90の検出に成功している。このため、開始時刻TSTの可視画像ISTにおいて、開始直前時刻TST−1の検出位置(xST-1,yST-1)の周辺に剣先90が存在する可能性が高い。これと同様、終了時刻TEDの可視画像IEDにおいても、終了直後時刻TED+1の検出位置(xED+1,yED+1)の周辺に剣先90が存在する可能性が高い。
そこで、特徴点検出部333は、開始直前時刻TST−1の位置データPST−1から検出位置(xST-1,yST-1)を取得し、その検出位置(xST-1,yST-1)を基準とした画像領域(探索領域)を可視画像ISTに設定する。この画像領域は、検出位置を中心として任意の形状及びサイズで設定可能であり、例えば、縦160画素×横160画素の矩形領域である。
また、特徴点検出部333は、終了直後時刻TED+1の位置データPED+1から検出位置(xED+1,yED+1)を取得し、その検出位置(xED+1,yED+1)を基準とした画像領域を可視画像IEDに設定する。
次に、特徴点検出部333は、この画像領域において、下記の式(2)を用いて、可視画像Iと、1つ前のフレームの可視画像It−1との差分画像Sを生成する。つまり、特徴点検出部333は、可視画像Iの画素(x,y)の輝度値Ixy と、可視画像It−1の画素(xt−1,yt−1)の輝度値Ixy t−1との差分が、予め設定した閾値Rbriを超える差分画像Sxy を抽出する。
なお、式(2)を可視画像ISTに適用する際はt=STとし、式(2)を可視画像IEDに適用する際はt=EDとする。また、閾値Rbriは、任意の値で予め設定する。
また、特徴点検出部333は、赤外光検出部311と同様、差分画像Sにオープニングモルフォロジ処理を施し、小領域のノイズブロブを除去してもよい。
特徴点を差分画像Sから検出することで、固定カメラ映像の場合、静止したノイズブロブの発生を抑制することができる。動カメラ映像の場合、カメラの動きによる差分が生じるため、差分画像Sを利用する効果が低減する。その場合、特徴点検出部333は、エッジ画像を作成し、エッジ値の高い画像領域から特徴点を検出してもよい。さらに、特徴点検出部333は、2値化を行わず、差分値、エッジ値又は輝度値をそのまま利用して特徴点を検出してもよい。
次に、特徴点検出部333は、可視画像ISTに設定した差分画像Sxy STから特徴点を検出し、検出した特徴点の中から、開始直前時刻TST−1における赤外光領域の検出位置(xST-1,yST-1)に最も近い特徴点を、開始時刻TSTの特徴点として取得する。
さらに、特徴点検出部333は、可視画像IEDに設定した差分画像Sxy EDから特徴点を検出し、検出した特徴点の中から、終了直後時刻TED+1における赤外光領域の検出位置(xED+1,yED+1)に最も近い特徴点を、終了時刻TEDの特徴点として取得する。
その後、特徴点検出部333は、取得した開始時刻TST及び終了時刻TEDの特徴点の位置を位置データ補間部335に出力する。
前記した特徴点の検出手法としては、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)等が代表的であるが、特徴点検出部333は、どのような特徴点の検出手法を用いてもよい。本実施形態では、以下の参考文献に記載のFAST(Features from Accelerated Segment Test)特徴量を用いることとする。
参考文献:Edward Rosten and Tom Drummond,”Machine learning for high-speed corner detection,” In Proc. of European Conference on Computer Vision (ECCV2006),pp.430-443,2006.
<FAST特徴量>
このFAST特徴量は、コーナーのみを特徴点の対象とし、決定木により高速かつ効率的に特徴点を検出する。ここでは、図5(a)の可視画像IからFAST特徴量を検出することとして説明する。FAST特徴量では、図5(b)に示すように、注目画素pの周囲16箇所の画素を観測する。そして、FAST特徴量では、注目画素pの画素値と比較して、16個の観測画素のうち、連続してn個以上の画素値が閾値t以上明るくなる又は暗くなる場合、その注目画素pをコーナーとして検出する(但し、nは1以上の自然数)。
なお、図5(b)では、可視画像Iの注目画素をp、観測画素を1〜16の数値で図示した。
FAST特徴量では、再現性の高い特徴点を高速かつ効率的に検出するために決定木を用いる。下記の式(3)に示すように、16個の観測画素を明るい(brighter)、類似(similar)、又は、暗い(darker)の3値に分類する。
なお、式(3)では、Iが注目画素pの輝度値、xが観測画素の位置、Ip→xが観測画素の輝度値、tが閾値を表す。
3値に分類した観測画素を特徴ベクトルとし、観測画素の画素値が連続してn個以上、明るい(brighter)又は暗い(darker)のという条件を満たすとき、コーナーとして検出する。一方、この条件を満たさないとき、非コーナーとして扱う。このように決定木を構築し、コーナー及び非コーナーを最適に分類できる円上の観測画素を分岐ノードとして選択する処理を再帰的に行い、全体の木構造を得る。
多くの特徴点検出手法では、特徴点らしさを表すレスポンス値の局所最大値を抽出することで、隣接して検出される特徴点の中で有効な画素のみを検出する。しかし、FAST特徴量では、レスポンス値を抽出しないため、以下の式(4)でレスポンス値Vを算出する。隣接して検出されたコーナー点の中で、最もレスポンス値Vが高い画素をコーナー点とすることで、互いに離れたコーナー点を検出できる。
図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
位置データ補間部335は、開始時刻TST及び終了時刻TEDの位置データPを、特徴点検出部333から入力された特徴点の検出位置で補間するものである。つまり、検出位置が欠落している位置データPを、特徴点検出部333が検出した特徴点の位置で更新する。
続いて、位置データ補間部335は、補間した位置データPを欠落区間特定部331に出力する。
すると、欠落区間特定部331は、位置データ補間部335より入力された位置データPから欠落区間を再び特定する。その後、可視画像解析手段33は、前記した処理を繰り返す。
<位置データの補間>
図4を参照し、可視画像解析手段33による位置データの補間を具体例に説明する(適宜図3参照)。
ここでは、図4(a)の位置データPが入力され、閾値mが‘3’フレームであることとする。
まず、図4(a)の位置データPにおける1回目の補間を説明する。
欠落区間特定部331は、この位置データPの各行を参照し、画像座標(−1,−1)が連続している5行目〜9行目を欠落区間として特定する。そして、欠落区間特定部331は、5行目〜9行目の欠落区間のうち、最も先の時刻「10:25:30.29」を開始時刻TSTとし、最も遅い時刻「10:25:31.03」を終了時刻TEDとして求める。
次に、欠落区間特定部331は、欠落区間の開始時刻TST「10:25:30.29」から終了時刻TED「10:25:31.03」までの時間長dを‘5’フレームと算出し、欠落区間の時間長dと閾値mとの閾値判定を行う。ここで、欠落区間特定部331は、時間長d=‘5’が閾値m=‘3’以上なので、位置データPと、開始時刻TST「10:25:30.29」及び終了時刻TED「10:25:31.03」とを特徴点検出部333に出力する。
特徴点検出部333は、開始時刻TST「10:25:30.29」の1フレーム前である開始直前時刻TST−1「10:25:30.28」を算出する。また、特徴点検出部333は、終了時刻TED「10:25:31.03」の1フレーム後である終了直後時刻TED+1「10:25:31.04」を算出する。そして、特徴点検出部333は、開始直前時刻TST−1の位置データPから画像座標(1255,344)を取得し、終了直後時刻TED+1の位置データPから画像座標(1265,331)を取得する。
次に、特徴点検出部333は、開始時刻TSTの可視画像ISTに画像座標(1255,344)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。さらに、特徴点検出部333は、終了時刻TEDの可視画像IEDに画像座標(1265,331)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。
位置データ補間部335は、図4(a)の位置データPにおいて、開始時刻TSTの画像座標(−1,−1)を特徴点の画像座標(1256,343)で更新する。また、位置データ補間部335は、終了時刻TEDの画像座標(−1,−1)を特徴点の画像座標(1264,331)で更新する。
続いて、図4(b)の位置データPにおける2回目の補間を説明する。
欠落区間特定部331は、この位置データPの各行を参照し、画像座標(−1,−1)が連続している6行目〜8行目を欠落区間として特定し、開始時刻TST「10:25:31.00」及び終了時刻TED「10:25:31.02」を求める。
次に、欠落区間特定部331は、欠落区間の時間長d=‘3’が閾値m=‘3’以上なので、位置データPと、開始時刻TST「10:25:31.00」及び終了時刻TED「10:25:31.02」とを特徴点検出部333に出力する。
特徴点検出部333は、開始直前時刻TST−1「10:25:30.29」及び終了直後時刻TED+1「10:25:31.03」を算出する。そして、特徴点検出部333は、開始直前時刻TST−1の位置データPから画像座標(1256,343)を取得し、終了直後時刻TED+1の位置データPから画像座標(1264,331)を取得する。
次に、特徴点検出部333は、開始時刻TSTの可視画像ISTに画像座標(1256,343)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。さらに、特徴点検出部333は、終了時刻TEDの可視画像IEDに画像座標(1264,331)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。
位置データ補間部335は、図4(b)の位置データPにおいて、開始時刻TST及び終了時刻TEDの画像座標(−1,−1)を、特徴点検出部333が検出した特徴点の画像座標で更新する。
このように、可視画像解析手段33は、オブジェクトを高確率で検出可能な開始時刻TSTの可視画像IST及び終了時刻TEDの可視画像IEDからオブジェクトを検出し、徐々に位置データPの欠落区間を狭めていくことで、正確な位置データPを生成することができる。
なお、図4の位置データPでは欠落区間が1つであることとして説明したが、位置データPに複数の欠落区間が含まれる場合もある。この場合、可視画像解析手段33は、前記した処理をそれぞれの欠落区間に適用すればよい。
また、位置データは、図4の例に限定されないことは言うまでもない。
図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
TC連動型CG合成手段35は、可視・赤外同光軸カメラ20から入力された可視画像IのタイムコードTをトリガとして、蓄積した位置データPからオブジェクトの位置座標を取得して軌跡を描画し、描画した軌跡を可視画像Iに合成するものである。
通常、プレイバックのスローVTRは、生映像やリアルタイムで生成したCG映像をVTRに収録し、使用するタイミングで巻き戻してから再生する。しかし、CG映像をリアルタイムで生成できない場合、位置データPを補間した後、VTRに収録した可視画像Iを再生して軌跡を描画する必要がある。この場合、一定の作業時間が必要となり効率が損なわれる。そのため、VTRに収録した映像の再生に同期したタイミングで軌跡を描画し、その場でCGを合成することが好ましい。
図3に示すように、TC連動型CG合成手段35は、位置データ蓄積部351と、軌跡描画部(オブジェクト追跡部)353と、を備える。
位置データ蓄積部351は、位置データPを蓄積するHDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリ等の記憶装置である。この位置データPは、欠落区間特定部331によって書き込まれ、軌跡描画部353によって参照される。
軌跡描画部353は、可視・赤外同光軸カメラ20から入力された可視画像Iの時刻情報に対応する位置データPを位置データ蓄積部351から読み出す。そして、軌跡描画部353は、読み出した位置データPの画素(x,y)に剣先90の軌跡を描画し、描画した軌跡及び可視画像Iを合成した軌跡合成画像Fを外部に出力するものである。
例えば、軌跡描画部353は、両選手の剣先90の軌跡C,Cを異なる色で描画し、描画した軌跡C,Cを可視画像Iに合成することで、軌跡合成画像Fを生成する。ここで、左側選手の剣先90の検出に失敗している場合でも位置データPが補間されるので、軌跡描画部353は、図6に示すように、左側選手の剣先90の軌跡Cを描画できる。
なお、図6では矩形βは特徴点検出部333が設定した画像領域を表し、円γは赤外光検出部311が検出した剣先90を表す。
[オブジェクト追跡装置の動作]
図7を参照し、オブジェクト追跡装置30の動作について説明する(適宜図3参照)。
図7に示すように、赤外光検出部311は、2値赤外差分画像を生成し、抽出した候補ブロブにモルフォロジ処理を施す(ステップS1)。
赤外光検出部311は、モルフォロジ処理で残った候補ブロブにラベリング処理を施し、候補ブロブの位置、面積及び形状特徴量を求める。そして、赤外光検出手段31は、面積及び形状特徴量を基準にフィルタリングし、検出ブロブ(赤外光領域)を検出する(ステップS2)。
位置データ生成部313は、赤外光領域の検出位置と、赤外画像の時刻情報とを対応付けた位置データを生成する(ステップS3)。
欠落区間特定部331は、位置データから欠落区間の開始時刻TST及び終了時刻TEDを取得し、その開始時刻TSTから終了時刻TEDまでの時間長dを求める(ステップS4)。
欠落区間特定部331は、欠落区間の時間長dが閾値m以上であるか否かを判定する(ステップS5)。
時間長dが閾値m以上の場合(ステップS5でYes)、特徴点検出部333は、位置データから、開始直前時刻TST−1及び終了直後時刻TED+1の検出位置を取得する(ステップS6)。
特徴点検出部333は、可視画像に、開始直前時刻TST−1及び終了直後時刻TED+1の検出位置を基準とした画像領域を設定する(ステップS7)。
特徴点検出部333は、可視画像に設定した画像領域内の特徴点を検出する(ステップS8)。
位置データ補間部335は、過去の検出位置に最も近い特徴点で位置データを補間し(ステップS9)、ステップS4の処理に戻る。
時間長dが閾値m未満の場合(ステップS5でNo)、欠落区間特定部331は、位置データを位置データ蓄積部351に書き込む。
軌跡描画部353は、可視・赤外同光軸カメラ20から入力された可視画像の時刻情報に対応する位置データを位置データ蓄積部351から読み出す(ステップS10)。
軌跡描画部353は、読み出した位置データの検出位置に応じて、オブジェクトの軌跡を描画し、描画した軌跡を可視画像に合成する(ステップS11)。
[作用・効果]
本発明の実施形態に係るオブジェクト追跡装置30は、剣先90が存在する可能性の高い開始時刻TST及び終了時刻TEDの可視画像から特徴点を検出し、その特徴点の検出位置で位置データを補間する。これにより、オブジェクト追跡装置30は、検出位置が欠落する場合でも正確に剣先90の軌跡を描画することができる。
さらに、オブジェクト追跡装置30は、剣先90にセンサを付けることなく、高速で移動する剣先90を確実に追跡し、正確な軌跡を描画することができる。つまり、オブジェクト追跡装置30は、肉眼や通常のカメラ映像上での視認が難しい高速移動オブジェクトの動きを可視化することが可能である。このオブジェクト追跡装置30は、肉眼では確認できないほど高速で移動するフェンシングの剣先90について、その動きを映像で表現できる。これにより、オブジェクト追跡装置30は、フェンシングにおける剣先90の軌跡描画が可能になると共に、軌跡描画の品質を向上させることができる。
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
オブジェクト追跡装置で補間した位置データは、その利用方法が特に制限されず、軌跡の描画以外にも利用することができる。
前記した実施形態では、オブジェクト追跡装置は、可視・赤外同光軸カメラから可視画像及び赤外画像が入力されることとして説明したが、これに限定されない。つまり、オブジェクト追跡装置は、他の画像処理装置の後段に配置され、他の画像処理装置で追跡に失敗した可視画像及び赤外画像が入力されてもよい。
前記した実施形態では、フェンシングを一例として説明したが、オブジェクト追跡装置の適用対象は、これに限定されない。つまり、オブジェクト追跡装置は、テニス、バドミントン、バレーボール等のスポーツにも適用することができる。
さらに、オブジェクト追跡装置は、軌跡を異なる色で描かない場合、選手の位置が入れ換わるスポーツにも適用することができる。例えば、オブジェクト追跡装置は、バドミントンのシャトルを追跡し、その軌跡を描画することができる。この他、オブジェクト追跡装置は、オーケストラにおける指揮棒の軌跡や、ドラマや映画における刀等の軌跡を描画することができる。
オブジェクト追跡装置は、追跡対象となるオブジェクトの移動速度が特に制限されず、特に、モーションブラーが発生する移動速度でも確実に追跡可能である。この移動速度は、可視・近赤外同光軸カメラとオブジェクトとの距離、可視・近赤外同光軸カメラの撮影画角及び感度、ノイズ量に大きく依存する。例えば、時間解像度が30フレーム/秒の場合、移動速度が100km/hを超えたあたりで、モーションブラーが多くなる。
前記した実施形態では、オブジェクト追跡装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、オブジェクト追跡装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるオブジェクト追跡プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
本発明は、フェンシング等のスポーツシーンの映像解析に利用することができる。また、本発明は、映画、ゲームやドラマの制作にも利用することができる。さらに、本発明は、工業やセキュリティシステムにも利用することができる。
1 オブジェクト追跡システム
10 赤外光投光器
20 可視・赤外同光軸カメラ
30 オブジェクト追跡装置
31 赤外光検出手段
311 赤外光検出部
313 位置データ生成部
33 可視画像解析手段
331 欠落区間特定部
333 特徴点検出部
335 位置データ補間部
35 タイムコード連動型CG合成手段(TC連動型CG合成手段)
351 位置データ蓄積部
353 軌跡描画部(オブジェクト追跡部)
90 剣先
91 反射テープ(赤外光マーカ)

Claims (4)

  1. 赤外光マーカを付けて移動する1以上のオブジェクトを赤外光で撮影した赤外画像と、前記オブジェクトを可視光で撮影した可視画像とを用いて、前記オブジェクトを追跡するオブジェクト追跡装置であって、
    前記赤外画像から前記赤外光マーカの領域を赤外光領域として検出する赤外光検出部と、
    前記赤外光領域を検出できたときは当該赤外光領域の検出位置又は前記赤外光領域を検出できないときは前記検出位置の欠落と、当該赤外光領域の検出対象となった赤外画像の時刻情報とが含まれる位置データを生成する位置データ生成部と、
    前記位置データの欠落区間を特定し、特定した前記欠落区間の開始時刻から終了時刻までの時間長が予め設定した閾値以上であるか否かを判定する欠落区間特定部と、
    前記欠落区間の時間長が前記閾値以上の場合、前記開始時刻直前及び前記終了時刻直後の位置データから前記検出位置を取得し、取得した前記検出位置に基づいて画像領域を前記開始時刻及び前記終了時刻の可視画像に設定し、設定した前記画像領域から特徴点を検出する特徴点検出部と、
    前記開始時刻及び前記終了時刻の位置データを前記特徴点の検出位置で補間し、補間した前記位置データを前記欠落区間特定部に出力する位置データ補間部と、
    前記欠落区間の時間長が前記閾値未満の場合、前記位置データに基づいて前記オブジェクトを追跡するオブジェクト追跡部と、を備え、
    前記欠落区間特定部は、前記位置データ補間部から入力された位置データの欠落区間を特定することを特徴とするオブジェクト追跡装置。
  2. 前記位置データを蓄積する位置データ蓄積部、をさらに備え、
    前記欠落区間特定部は、前記欠落区間の時間長が前記閾値未満の場合、前記位置データを前記位置データ蓄積部に書き込み、
    前記オブジェクト追跡部として、前記可視画像の時刻情報に対応する位置データを前記位置データ蓄積部から取得し、取得した前記位置データの検出位置に基づいて前記オブジェクトの軌跡を描画し、描画した前記軌跡を前記可視画像に合成する軌跡描画部、を備えることを特徴とする請求項1に記載のオブジェクト追跡装置。
  3. 前記特徴点検出部は、前記画像領域からFAST特徴量を検出することを特徴とする請求項1又は請求項2に記載のオブジェクト追跡装置。
  4. コンピュータを、請求項1から請求項3の何れか一項に記載のオブジェクト追跡装置として機能させるためのオブジェクト追跡プログラム。
JP2017234038A 2017-12-06 2017-12-06 オブジェクト追跡装置及びそのプログラム Active JP6983049B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017234038A JP6983049B2 (ja) 2017-12-06 2017-12-06 オブジェクト追跡装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017234038A JP6983049B2 (ja) 2017-12-06 2017-12-06 オブジェクト追跡装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2019101892A true JP2019101892A (ja) 2019-06-24
JP6983049B2 JP6983049B2 (ja) 2021-12-17

Family

ID=66973975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017234038A Active JP6983049B2 (ja) 2017-12-06 2017-12-06 オブジェクト追跡装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6983049B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111147778A (zh) * 2019-12-23 2020-05-12 浙江大华技术股份有限公司 基于数字视频录像机的轨迹录像方法、装置及存储介质
CN111242978A (zh) * 2020-01-15 2020-06-05 合肥慧图软件有限公司 基于红外相机技术的生物行为轨迹分析***
JP2021071953A (ja) * 2019-10-31 2021-05-06 株式会社ライゾマティクス 認識処理装置、認識処理プログラム、認識処理方法、及びビジュアライズシステム
JP7073595B1 (ja) 2022-02-21 2022-05-23 海渡 藤田 有効突判定装置、有効突判定方法、および有効突判定プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132879A (ja) * 2014-01-09 2015-07-23 クラリオン株式会社 車両用外界認識装置
JP2017204757A (ja) * 2016-05-12 2017-11-16 日本放送協会 被写体追跡装置及びそのプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132879A (ja) * 2014-01-09 2015-07-23 クラリオン株式会社 車両用外界認識装置
JP2017204757A (ja) * 2016-05-12 2017-11-16 日本放送協会 被写体追跡装置及びそのプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071953A (ja) * 2019-10-31 2021-05-06 株式会社ライゾマティクス 認識処理装置、認識処理プログラム、認識処理方法、及びビジュアライズシステム
WO2021085453A1 (ja) * 2019-10-31 2021-05-06 株式会社ライゾマティクス 認識処理装置、認識処理プログラム、認識処理方法、及びビジュアライズシステム
JP7281767B2 (ja) 2019-10-31 2023-05-26 株式会社アブストラクトエンジン 認識処理装置、認識処理プログラム、認識処理方法、及びビジュアライズシステム
CN111147778A (zh) * 2019-12-23 2020-05-12 浙江大华技术股份有限公司 基于数字视频录像机的轨迹录像方法、装置及存储介质
CN111242978A (zh) * 2020-01-15 2020-06-05 合肥慧图软件有限公司 基于红外相机技术的生物行为轨迹分析***
JP7073595B1 (ja) 2022-02-21 2022-05-23 海渡 藤田 有効突判定装置、有効突判定方法、および有効突判定プログラム
JP2023121695A (ja) * 2022-02-21 2023-08-31 海渡 藤田 有効突判定装置、有効突判定方法、および有効突判定プログラム

Also Published As

Publication number Publication date
JP6983049B2 (ja) 2021-12-17

Similar Documents

Publication Publication Date Title
US5923365A (en) Sports event video manipulating system for highlighting movement
JP5667943B2 (ja) コンピュータ実行画像処理方法および仮想再生ユニット
JP6983049B2 (ja) オブジェクト追跡装置及びそのプログラム
RU2498404C2 (ru) Способ и устройство для генерирования регистрационной записи события
US20190089923A1 (en) Video processing apparatus for displaying a plurality of video images in superimposed manner and method thereof
US8805007B2 (en) Integrated background and foreground tracking
Kohl et al. The mta dataset for multi-target multi-camera pedestrian tracking by weighted distance aggregation
JP6894962B2 (ja) 自由視点映像用画像データのキャプチャ方法及び装置、プログラム
US8055073B1 (en) System and method for enabling meaningful interaction with video based characters and objects
JP6742221B2 (ja) オブジェクト追跡装置及びそのプログラム
US8922718B2 (en) Key generation through spatial detection of dynamic objects
WO2010127418A1 (en) Systems and methods for the autonomous production of videos from multi-sensored data
JP4555690B2 (ja) 軌跡付加映像生成装置及び軌跡付加映像生成プログラム
JP2005123824A (ja) 映像オブジェクト軌跡合成装置、その方法及びそのプログラム
JP2009505553A (ja) ビデオストリームへの視覚効果の挿入を管理するためのシステムおよび方法
JP6649231B2 (ja) 検索装置、検索方法およびプログラム
WO2017104372A1 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP4886707B2 (ja) オブジェクト軌道識別装置、オブジェクト軌道識別方法、及びオブジェクト軌道識別プログラム
Pidaparthy et al. Keep your eye on the puck: Automatic hockey videography
Pallavi et al. Graph-based multiplayer detection and tracking in broadcast soccer videos
Conaire et al. Tennissense: A platform for extracting semantic information from multi-camera tennis data
WO2021017496A1 (zh) 导播方法、装置及计算机可读存储介质
Kumar et al. Cricket activity detection
JP2015177470A (ja) 抽出プログラム、方法、及び装置
JP7198661B2 (ja) オブジェクト追跡装置及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150