JP5687035B2 - 人物追跡装置 - Google Patents

人物追跡装置 Download PDF

Info

Publication number
JP5687035B2
JP5687035B2 JP2010258213A JP2010258213A JP5687035B2 JP 5687035 B2 JP5687035 B2 JP 5687035B2 JP 2010258213 A JP2010258213 A JP 2010258213A JP 2010258213 A JP2010258213 A JP 2010258213A JP 5687035 B2 JP5687035 B2 JP 5687035B2
Authority
JP
Japan
Prior art keywords
person
predicted position
movement
unit
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010258213A
Other languages
English (en)
Other versions
JP2012108798A (ja
Inventor
昌宏 前田
昌宏 前田
裕二 中沢
裕二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010258213A priority Critical patent/JP5687035B2/ja
Publication of JP2012108798A publication Critical patent/JP2012108798A/ja
Application granted granted Critical
Publication of JP5687035B2 publication Critical patent/JP5687035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、空間内を移動する物体を追跡する移動物体追跡装置に関し、特に、空間を撮像した画像を用いて追跡処理を行う移動物体追跡装置に関する。
監視等の目的で、監視空間を撮像した監視画像を用いて人物等の位置を追跡することが行われている。追跡に際しては、追跡対象物の過去の動きからその現時刻における予測位置を求め、監視画像において予測位置と対応する部分が追跡対象物の画像特徴を有しているかを評価して現時刻における追跡対象物の位置を特定する方法が採られることがあり、そのような方法の一つにパーティクルフィルタが挙げられる(特許文献1)。
パーティクルフィルタでは、各追跡対象物に対して多数の予測位置を設定することで予測のずれを補えるため精度の高い追跡が可能である。
特開2010−49296号公報
監視空間内には壁や什器などの物体が追跡対象物である人の進行を妨げる障害物として存在し得る。従来技術では、追跡対象物の空間内での進行を妨げる障害物の中又は障害物を跨いだ位置に予測位置が設定されて当該予測位置も追跡処理にて評価されることがあるという問題があった。つまり、実際には追跡対象物が障害物に進入したり通過したりすることはないため、これらの予測位置に対する評価は無効である。これら無効な予測位置は無駄な処理を発生させるばかりでなく、有効な予測位置が減少するため予測のずれを補う効果が稀釈されてしまい、追跡精度劣化の原因にもなるという問題があった。また、監視空間には、障害物以外にも堀などの人の行く手を阻む領域が存在し、そのような領域へは基本的には立ち入ることが困難である。よって、このような領域も障害物と同様の上記問題を生じ得る。以下、障害物を含め進行が阻害される空間領域を障害領域と称する。
本発明は上記課題を鑑みてなされたものであり、空間内に存在する障害領域周辺においても移動物体の高精度な追跡を実現することを目的とする。
本発明に係る移動物体追跡装置は、所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する物体を追跡するものであって、前記空間内にて前記移動を妨げる障害領域を予め記憶すると共に、注目時刻より過去における前記物体の過去位置の情報を記憶する記憶部と、前記過去位置を用いて前記物体の動き予測を行い、前記注目時刻における当該物体の移動先候補を複数予測する位置予測部と、前記注目時刻の前記画像において前記各移動先候補との対応部分が有する前記物体の画像特徴に基づいて前記注目時刻における当該物体の移動先を判定する物***置判定部と、を有し、前記位置予測部は、前記移動先候補のうちその移動元である前記過去位置との間に前記障害領域が存在する無効な移動先候補を当該障害領域よりも前記移動元側の位置に修正する修正部を備える。
他の本発明に係る移動物体追跡装置においては、前記修正部は、前記移動元から前記無効な移動先候補への経路をその経路長を維持したままで変形し、当該無効な移動先候補を前記変形後の経路の終点に修正する。
本発明の好適な態様は、前記修正部が、前記無効な移動先候補への経路が前記障害領域に達した点にて当該経路の方向を変化させることにより前記変形を行う移動物体追跡装置である。
本発明の他の好適な態様は、前記修正部が、前記無効な移動先候補への経路の方向を前記移動元にて変化させることにより前記変形を行う移動物体追跡装置である。
別の本発明に係る移動物体追跡装置においては、前記修正部は、前記障害領域における前記移動元側の境界線上で前記無効な移動先候補から最短距離にある直近点を算出し、当該無効な移動先候補を前記直近点から所定距離内の位置に修正する。
本発明によれば、障害領域内又は障害領域を越えた領域に設定される予測位置が排除されると共に、これらの予測位置を障害領域の手前に修正することにより有効な予測位置の数を維持・確保できるので、障害領域周辺においても移動物体の高精度な追跡が可能となる。
本発明の実施形態に係る移動物体追跡装置のブロック構成図である。 三次元モデルの一例を模式的に示す斜視図である。 図2の三次元モデルに対応して作成された障害物マップの模式図である。 本発明の実施形態に係る移動物体追跡装置の追跡処理の概略のフロー図である。 予測位置設定部により時刻ごとに設定される予測位置の一例を示す模式的な平面図である。 修正処理の第1の形態に関する処理例を説明する模式的な平面図である。 修正処理の第2の形態に関する処理例を説明する模式的な平面図である。 修正処理の第3の形態に関する処理例を説明する模式的な平面図である。 修正処理の第4〜第6の形態における物***置及び現時刻の予測位置の一例を示す模式的な平面図である。 修正処理の第4〜第6の形態に関する処理例を説明する模式的な平面図である。
以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋を監視対象の空間とし、当該監視空間内を移動する人物を追跡対象物(以下、移動物体と称する)とする。移動物体追跡装置1は監視空間を撮像した監視画像を処理して移動物体の追跡を行う。ここで、監視空間において什器が設置された領域は移動物体の進行を妨げる障害領域である。障害領域の他の例としては壁や柱や給湯器などがある。障害領域は移動せず予めその位置が判っている。なお、監視空間は屋内に限定されず屋外であってもよい。屋外の場合、家屋、塀、各種エクステリアの他、池や堀等が障害領域となる。本移動物体追跡装置1は障害領域の存在に配慮して追跡処理を行うように構成され、追跡の精度向上を図っている。
[移動物体追跡装置の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮像部2、設定入力部3、記憶部4、制御部5及び出力部6を含んで構成される。撮像部2、設定入力部3、記憶部4及び出力部6は制御部5に接続される。
撮像部2は監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部5へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮像部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。
設定入力部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部4は、各種プログラムや各種データを記憶し、制御部5との間でこれらの情報を入出力する。各種データには、三次元モデル40、カメラパラメータ41、障害物マップ42、予測位置43及び物***置44が含まれる。
三次元モデル40は、監視空間を模した仮想空間に移動物体の立体形状を近似した移動物体モデル及び/又は障害物の立体形状を近似した障害物モデルを配置した状態を記述したデータである。障害物は障害領域を形成する物体や地形である。本実施形態では、監視空間及び仮想空間をX,Y,Z軸からなる右手直交座標系で表し、鉛直上方をZ軸の正方向に設定する。また、床面等の基準面は水平であり、Z=0で表されるXY平面で定義する。仮想空間内での障害物モデルの配置は監視空間内での実際の障害物の配置に合わせる。一方、移動物体モデルの配置は任意位置に設定することができる。
移動物体モデルは、例えば、移動物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。移動物体追跡装置1が監視対象とする移動物体は立位の人であり、本実施形態では、例えば、人の頭部、胴部、脚部の3部分の立体形状を近似する回転楕円体をZ軸方向に積み重ねた移動物体モデルを設定する。基準面から頭部中心までの高さをH、胴部の最大幅(胴部短軸直径)をWで表す。本実施形態では説明を簡単にするため、高さH、幅Wは標準的な人物サイズとし任意の移動物体に共通とする。また、頭部中心を移動物体の代表位置とする。なお、移動物体モデルはより単純化して1つの回転楕円体で近似してもよい。
障害物モデルは、移動物体の検出・追跡処理に先だって予め障害物毎に設定される。障害物モデルは、監視空間に実在する障害物の形状・寸法のデータ、及び監視空間での障害物の配置のデータを含む。障害物の形状・寸法は監視空間に置かれる障害物を実測して取得することができるほか、例えば什器メーカー等が提供する製品の三次元データを利用することもできる。障害物の配置は実測により取得できるほか、例えばコンピュータ上で部屋の什器レイアウトを設計した場合にはその設計データを利用することもできる。このようにして得られた障害物に関するデータは、設定入力部3又は外部機器との接続インターフェース(図示せず)から制御部5に入力され、制御部5は当該入力データに基づいて記憶部4に障害物モデルを格納する。
カメラパラメータ41は、撮像部2が監視空間を投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが予め設定入力部3から入力され、記憶部4に格納される。公知のピンホールカメラモデル等のカメラモデルにカメラパラメータ41を適用した座標変換式により、三次元モデル40を監視画像の座標系(撮像部2の撮像面;xy座標系)に投影できる。
障害物マップ42(障害領域)は、監視空間内にて障害物が存在する領域を特定する情報である。移動物体は監視空間内にて基本的にはXY平面に沿った水平移動をする。そこで本実施形態では上述のように、移動物体モデルの下端が基準面(Z=0)に接地するという拘束条件を課している。これに対応して、障害物マップ42は障害領域を基準面のXY座標系、つまり監視空間の床面座標で表す。ここで、障害物マップ42は障害物モデルそのもの、つまり障害物の存在範囲を監視空間内の三次元座標で特定する構成とすることもできるが、本実施形態では処理を高速化するために上述のように、障害領域を監視空間の水平面座標(XY座標系)で表し、この2次元で表された障害領域を障害物マップと称する。障害物マップ42のデータ形式は基準面(Z=0)に対応するディジタル画像データであり、監視空間を真上から見た画像に相当する。その各画素は基準面上の位置を量子化したものに相当し、基準面のX軸方向を例えばN画素、またY軸方向をM画素に量子化したN×M画素からなる画像データを構成する。各画素の画素値は、当該画素が障害物の存在する位置であるか否かを表す。本実施形態では、画素値が“1”である画素は障害物の存在位置であり、一方、画素値が“0”であれば、障害物が存在しない位置であると定義する。
予測位置43(仮説)は、各時刻における移動物体の位置の予測値(予測位置)に関する情報である。確率的に移動物体の位置(物***置)を判定するために予測位置は移動物体ごとに多数(その個数をPで表す。例えば1移動物体あたり200個)設定される。具体的には、予測位置43は、移動物体の識別子と、各時刻における予測位置のインデックス(0〜P−1)及びその位置座標(XYZ座標系)とを対応付けた時系列データである。
物***置44は各時刻における移動物体の位置に関する情報であり、具体的には、移動物体の識別子と位置座標(XYZ座標系)とを対応付けた時系列データである。
なお、予測位置43、物***置44を監視空間の水平面座標(XY座標系)で特定する構成として処理を高速化することができる。本実施形態では、理解を容易にするために当該構成を例に説明する。
制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部4からプログラムを読み出して実行し、障害物マップ作成部50、変化画素抽出部51、予測位置設定部52、予測位置修正部53、物体領域推定部54、尤度算出部55、物***置算出部56、異常判定部57として機能する。
障害物マップ作成部50は三次元モデル40における全障害物モデルを監視空間の水平面に投影して障害領域を算出し、障害物マップ42を作成して記憶部4に記憶させる。例えば、投影する水平面として床面や地面等の基準面(Z=0)を設定することができる。
変化画素抽出部51は、撮像部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を尤度算出部55へ出力する。そのために変化画素抽出部51は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。なお、差分処理に代えて新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。
予測位置設定部52(仮説設定部)及び予測位置修正部53は、移動物体の過去の位置情報(物***置又は予測位置)を用いて当該移動物体の動き予測を行い、移動物体の現時刻における移動先候補位置である複数の予測位置を求める位置予測部として機能する。
まず、予測位置設定部52は、過去に判定された各移動物体の物***置又は過去に設定された各移動物体の予測位置から動き予測を行なって、新たに監視画像が入力された時刻において移動物体が存在する位置を予測し、予測された位置(予測位置)を物体領域推定部54、尤度算出部55及び物***置算出部56へ出力する。上述したように予測位置は各移動物体に対してP個設定される。このように多数の予測位置を順次設定して確率的に移動物体の位置(物***置)を判定する方法はパーティクルフィルタなどと呼ばれ、設定される予測位置は仮説などと呼ばれる。予測位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間のXYZ座標系で設定する。動き予測は過去の位置データに所定の運動モデルを適用するか、又は所定の予測フィルタを適用することで行なわれる。
本実施形態では、注目時刻より前のT時刻分(例えばT=5)の予測位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の予測位置に加算して注目時刻における新たな予測位置を予測する。予測はP個の予測位置それぞれに対し行ない、新たな予測位置とその元となった過去の予測位置には同一の識別子を付与して循環記憶する。なお、1時刻前の予測位置のうちその尤度が予め設定された尤度閾値より低いものは削除する。一方、この削除分を補うために、削除した個数と同数の1時刻前の新たな予測位置を1時刻前の予測された物***置を中心とする所定範囲(例えば半径rの円内)にランダムに設定し、これらの予測位置と対応する2時刻前以前の予測位置を過去の物***置の運動に合わせて外挿し求める。そのために過去の予測位置に加えて、過去T時刻分の物***置も記憶部4に循環記憶させる。
なお、新規の移動物体が検出された場合は、予測位置設定部52はその検出位置を中心とする所定範囲にランダムにP個の予測位置を設定する。
予測位置修正部53は、予測位置設定部52により新たに設定された予測位置(移動先候補位置)と当該予測位置に対応する前時刻における予測位置(移動元位置)との間に障害領域が存在する場合に、移動先候補位置を移動元位置から見て当該障害領域より手前の位置に修正する。この修正により、障害領域に設定された無効な予測位置及び障害領域を跨いで設定された無効な予測位置は排除され、これらに代えて障害領域手前に有効な予測位置が設定される。
物体領域推定部54は予測位置ごとに、監視空間内の当該予測位置に移動物体モデルを仮想的に配置した三次元モデル40を生成する。そして、カメラパラメータ41を用いて当該三次元モデル40を撮像部2の撮像面に対応して仮想的に設定される投影面に投影して、監視画像にて移動物体が撮像されている領域(物体領域)を推定し、推定結果を尤度算出部55へ出力する。物体領域推定部54は投影の際に、三次元モデル40にてカメラから見て移動物体モデルより手前に存在する障害物モデル又は他の移動物体モデルが物体領域の推定対象の移動物体モデルを隠蔽する効果をシミュレートし、移動物体の物体領域として隠蔽されていない部分(非隠蔽領域)を求める。
尤度算出部55は、各予測位置に対して推定された物体領域における移動物体の特徴量を監視画像から抽出し、特徴量の抽出度合いに応じた、当該予測位置の物***置としての尤度を算出して物***置算出部56へ出力する。下記(1)〜(4)は尤度の算出方法の例である。
(1)変化画素抽出部51により抽出された変化画素に物体領域を重ね合わせ、変化画素が物体領域に含まれる割合(包含度)を求める。包含度は、予測位置が現に移動物体が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度の高さに応じた尤度を算出する。
(2)監視画像における物体領域の輪郭に対応する部分からエッジを抽出する。予測位置が現に移動物体が存在する位置に近いほど、物体領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は高くなり、一方、遠ざかるほど抽出度は低くなりやすい。そこで、エッジの抽出度の高さに応じた尤度を算出する。
(3)各移動物体の過去の物***置において監視画像から抽出された特徴量を当該移動物体の参照情報として記憶部4に記憶する。予測位置が現に移動物体が存在する位置に近いほど背景や他の移動物体の特徴量が混入しなくなるため、物体領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から物体領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。
ここで物体領域推定部54にて非隠蔽領域を物体領域として推定し尤度算出に利用することで、各対象物の隠蔽状態に適合した尤度を算出でき、追跡の信頼性向上が図られる。
物***置算出部56は、移動物体の各予測位置、及び当該予測位置ごとに算出された尤度から当該移動物体の位置(物***置)を判定し、判定結果を記憶部4に移動物体ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物***置なし、つまり消失したと判定する。下記(1)〜(3)は物***置の算出方法の例である。
(1)移動物体ごとに、尤度を重みとする予測位置の重み付け平均値を算出し、これを当該移動物体の物***置とする。
(2)移動物体ごとに、最大の尤度が算出された予測位置を求め、これを物***置とする。
(3)移動物体ごとに、予め設定された尤度閾値以上の尤度が算出された予測位置の平均値を算出し、これを物***置とする。ここで、尤度閾値>尤度下限値である。
上記尤度算出部55及び物***置算出部56は、画像が各移動先候補位置にて有する移動物体の画像特徴に基づき、当該移動物体の現時刻における移動先位置を判定するという物***置判定部としての機能を有する。
異常判定部57は、記憶部4に蓄積された時系列の物***置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部6へ異常信号を出力する。
出力部6は警告音を出力するスピーカー又はブザー等の音響出力手段、異常が判定された監視画像を表示する液晶ディスプレイ又はCRT等の表示手段などを含んでなり、異常判定部57から異常信号が入力されると異常発生の旨を外部へ出力する。また、出力部6は通信回線を介して異常信号を警備会社の監視センタに設置されたセンタ装置へ送信する通信手段を含んでもよい。
[移動物体追跡装置の動作、及び修正処理の第1の形態]
次に、移動物体追跡装置1の追跡動作を説明する。追跡処理に先立ち、事前処理として設定入力部3からカメラパラメータ41及び障害物モデルの各種データが入力されて記憶部4に記憶され、障害物マップ作成部50はこれらのデータを用いて障害物マップ42を作成する。
図2は、三次元モデル40の一例を模式的に示す斜視図であり、N×M画素の基準面100、カメラ位置101、障害物モデル102及び移動物体モデル103の配置例を示している。
図3は、図2の三次元モデル40に対応して作成された障害物マップ42の模式図である。図2において、白抜き部分は障害領域であり画素値“1”を設定され、斜線部分は障害物が存在しない領域であり、画素値“0”を設定される。
図4は移動物体追跡装置1の追跡処理の概略のフロー図である。
撮像部2は、監視空間を撮像するたびに監視画像を制御部5に入力する(S1)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。
現画像は変化画素抽出部51により背景画像と比較され、変化画素抽出部51は変化画素を抽出する(S2)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部4に記憶させ、便宜的に変化画素なしとする。
また、予測位置設定部52は追跡中の各移動物体に対して動き予測に基づきP個の予測位置を設定する(S3)。なお、後述するステップS15にて新規出現であると判定された移動物体の予測位置は動き予測不能なため出現位置を中心とする広めの範囲にP個の予測位置を設定する。また、後述するステップS15にて消失と判定された移動物体の予測位置は削除する。
図5は、予測位置設定部52により時刻ごとに設定される予測位置の一例を示す模式的な平面図であり、時刻(t−3)から時刻tへ至る予測位置の変化を示している。図5において“○”印は予測位置を、また“△”印は物***置を表しており、当該“○”、“△”の中心がそれぞれ予測位置、物***置に対応する。現時刻tより3時刻前の時刻(t−3)にはP個の予測位置200が設定され、これらに基づき物***置210が判定された。続く時刻(t−2)には予測位置群200に対応するP個の予測位置201が設定され、これらに基づき物***置211が判定された。同様に時刻(t−1)においてもP個の予測位置202の設定と物***置212の判定が行なわれ、現時刻tにおいて予測位置群200、予測位置群201、予測位置群202からそれぞれに対応するP個の予測位置203が設定される。
ここで、予測位置群203のうち障害領域42aの手前に設定された予測位置223は移動物体が移動し得る位置であるが、障害領域42a中に設定された予測位置221や障害領域42aを跨いで設定された予測位置222は、移動物体が達し得ない位置であり無効な設定である。多数の予測位置を設定することには予測のずれを補う効果があるが、無効な設定は予測のずれを補う効果を稀釈させ追跡結果の精度を低下させる。移動物体の移動速度が速かったり、監視画像のフレーム周期が長かったりすればこのような精度低下は一層深刻となる。
制御部5は、ステップS2にて変化画素が抽出されず、かつステップS3にて予測位置が設定されていない(追跡中の移動物体がない)場合(S4にて「YES」の場合)はステップS1に戻り、次の監視画像の入力を待つ。
一方、ステップS4にて「NO」の場合は、ステップS5〜S15の処理を行う。制御部5は追跡中の各移動物体を順次、注目物体に設定する(S5)。続いて、制御部5は注目物体の各予測位置を順次、注目位置に設定する(S6)。但し、監視画像の視野外である予測位置は注目位置の設定対象から除外し、当該予測位置における物体領域は推定せず、尤度を0に設定する。
予測位置修正部53は記憶部4から注目位置に対応する1時刻前の予測位置を読み出して、読み出した予測位置(移動元位置)と注目位置(移動先候補位置)とを結ぶ直線を移動物体の移動経路として算出する(S7)。
次に、予測位置修正部53は障害物マップ42を参照して当該経路上に障害領域が存在するか否かを判定する(S8)。障害領域があれば(S8にて「YES」の場合)、注目位置を移動元位置側から見て当該障害領域より手前の位置に修正する(S9)。一方、障害領域がなければ(S8にて「NO」の場合)、修正処理S9は実行されない。
図6は修正処理S9の例を説明する模式的な平面図であり、図6(a)は図5に示した現時刻の予測位置221に対する修正を例に修正処理S9を説明する図、また図6(b)は修正による予測位置の空間分布の変化を示す図である。時刻(t−1)の予測位置220は注目位置である予測位置221に対応する前時刻の予測位置である。予測位置修正部53は前時刻の予測位置220とこれに対応して新たに設定された現時刻の予測位置221とを結ぶ直線230を移動経路として算出する。予測位置修正部53は移動経路を表す直線上のいずれの画素が障害物マップ42上で障害領域42aを表す画素値であれば、新たに設定された予測位置を修正対象と判定する。一方、移動経路を表す直線上の画素に障害領域42aを表す画素値を有するものがなければ、新たに設定された予測位置は修正不要と判定される。このように前時刻の予測位置との位置関係を利用して判定することにより、障害領域42a内に設定された予測位置のみならず障害領域42aを跨いで設定された予測位置も修正対象として検出することができる。この判定処理により、図6(a)に示す現時刻の予測位置221は修正対象となる。
予測位置修正部53は、前時刻の予測位置から注目位置へ向かう移動経路が障害領域に達した点にて移動経路の方向を変化させ、当該方向が変化した移動経路の終点を修正後の予測位置(移動先候補位置)とする。
具体的には、修正対象の判定において前時刻の予測位置220から順に直線230上の画素値を走査し、最初に障害領域42aを表す画素値が検出された画素を直線230と障害領域42aとの接触点231と判定する。接触点231を中心とする所定半径ρの円内で接触点231から続く障害領域42aの輪郭線上の画素(輪郭画素)を抽出し、輪郭画素を近似する直線(輪郭直線)を導出する。移動物体が障害領域42aを回避する運動を採ることを鑑みれば、輪郭線の形状は移動物体の大きさ程度の分解能で把握することが妥当と推察され、従って、接触点231の近傍の輪郭線を直線近似する際の範囲も当該分解能に応じた大きさとすることが適当である。つまり、半径ρは例えばW/2とすればよい。導出された輪郭直線を用いて直線230の障害領域42aへの入射角を定義しこれをφで表すと、直線230と輪郭直線とのなす角度θがθ=90°−φで算出される。予測位置修正部53は当該θを求めると共にランダムに鋭角Δ(但しΔ≧0)を設定し接触点231から先の移動経路を、接触点231を中心にして直線230と角度θをなす輪郭直線の向きへ角度(θ+Δ)だけ回転させて、予測位置221を予測位置220側の障害領域42a外の領域内に修正する。これにより予測位置221は予測位置241に修正される。この修正を予測位置群203内の全ての修正対象に対して実施すると、図6(b)に示すように、予測位置群203は予測位置群253に修正される。
前時刻の予測位置220から接触点231を経由して修正後の予測位置241に至るまでの移動経路長は、前時刻の予測位置220から修正前の予測位置221までの移動経路長と等しくなる。当該修正後の予測位置は、前時刻の予測位置側の障害領域外に位置し、移動物体が移動し得る範囲となることに加え、前時刻にて動き予測で得られた速度で移動可能な経路長となる点で好適である。
上述したように、障害領域42a中に設定された予測位置221や障害領域42aを跨いで設定された予測位置222のように移動物体が達し得ない位置に設定された無効な予測位置は予測のずれを補う効果を稀釈させていた。予測位置修正部53は、これらの無駄となっていた予測位置を移動物体が移動可能な位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。
物体領域推定部54は、注目位置と対応する位置に移動物体モデルを配置し、さらに障害物モデルをそれぞれの設置位置に配置した三次元モデル40を作成して、当該三次元モデル40をカメラパラメータ41を用いて撮像部2の撮像面に投影する。そして、物体領域推定部54は、移動物体モデルが投影された領域を注目位置に対応する物体領域として抽出する。なお、移動物体の一部が障害物等により隠蔽されていればその隠蔽部分が欠けた物体領域、隠蔽されていなければ全身を表す物体領域が抽出される。
注目位置での物体領域が求められると、尤度算出部55は当該注目位置に対する尤度を算出する(S11)。
制御部5は、尤度が算出されていない予測位置が残っている場合(S12にて「NO」の場合)、ステップS5〜S11を繰り返す。P個全ての予測位置について尤度が算出されると(S12にて「YES」の場合)、物***置算出部56が注目物体の各予測位置と当該予測位置のそれぞれについて算出された尤度とを用いて注目物体の物***置を算出する(S13)。現時刻について算出された物***置は1時刻前までに記憶部4に記憶させた注目物体の物***置と対応付けて追記される。なお、新規出現した移動物体の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物***置なしと判定する。
制御部5は未処理の移動物体が残っている場合(S14にて「NO」の場合)、当該移動物体について物***置を判定する処理S5〜S13を繰り返す。一方、全ての移動物体について物***置を判定すると、物体の新規出現と消失を判定する(S15)。具体的には、制御部5は各物***置に対して推定された物体領域を合成して、変化画素抽出部51により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが移動物体とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部4に記録する。また、物***置なしの移動物体があれば当該移動物体が消失した旨を記憶部4に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS1へ戻る。
[修正処理の第2の形態]
上述の移動物体追跡装置1の全体的な動作における予測位置の修正処理の形態はその一例であり、以下、修正処理の他の形態を説明する。
以下に説明する修正処理の第2及び第3の形態は、図5に示すように前時刻の予測位置に対応して現時刻の予測位置を設定する点において、図6を用いて説明した第1の形態と共通するが、予測位置修正部53における予測位置の修正の仕方が異なる。
図7は修正処理S9の第2の形態を説明する模式図であり、図7(a)は図5に示した現時刻の予測位置221に対する修正を例に修正処理S9を説明する図である。また図7(b)は修正による予測位置の空間分布の変化を示す図である。
本形態において予測位置修正部53は、前時刻の予測位置から注目位置へ向かう移動経路の方向を変化させ、当該移動経路の終点を修正後の予測位置とする。具体的には、予測位置修正部53は上述の第1の形態と同様にして、修正対象の検出、直線230の算出、接触点231の算出及び障害領域42aの輪郭直線の算出を行なう。さらに、前時刻の予測位置220から修正対象とされる現時刻の予測位置221までの距離L0、及び前時刻の予測位置220から接触点231までの距離L1を算出する。
前時刻の予測位置220から輪郭直線への垂線300を導出し、予測位置220から輪郭直線と垂線300との交点301までの距離をL2と表すと、垂線300と直線230とのなす角φ0はφ0=cos−1{L2/L1}で与えられる。また、予測位置220を中心とする半径L0の円と輪郭直線との交点であって交点301から見て接触点231と同じ方向に位置するものと予測位置220とを結ぶ直線302を考えると、当該直線302が垂線300となす角φ1はφ1=cos−1{L1・cosφ0/L0}で与えられる。
予測位置修正部53は、ランダムに鋭角Δを設定して(但しΔ≧0)、予測位置220を通り垂線300と(φ1+Δ)の角度をなす直線303を、垂線300から見て直線302が位置する側にて導出する。そして、直線303上にて予測位置220から距離L0に位置する点、つまり、予測位置220を中心とする半径L0の円と直線303の交点を修正後の予測位置304として設定する。
この修正を予測位置群203内の全ての修正対象に対して実施すると、図7(b)に示すように、予測位置群203は予測位置群305に修正される。
この修正処理の第2の形態において、前時刻の予測位置220から修正後の予測位置304へ至る移動物体の移動経路は、前時刻の予測位置220から修正前の予測位置221までの移動経路と等しい経路長となる。当該修正後の予測位置は第1の形態と同様、前時刻の予測位置側の障害領域外に位置し、移動物体が移動し得る範囲となることに加え、前時刻にて動き予測で得られた速度で移動可能な経路長となる点で好適である。そして、この第2の形態も第1の形態と同様、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。
なお、前時刻の予測位置からの経路長を、修正対象となる当初の予測位置までと同じにしたままで動き予測による前時刻の予測位置からの移動物体の移動経路を変更し、当該移動経路の終点を修正後の予測位置とする構成は、上述した修正処理の第1及び第2の形態以外にも可能である。例えば、予測位置220からの移動経路の方向を第1の形態のように変更すると共に、当該変更した方向にて障害領域に突き当たる場合には第2の形態のように移動経路を屈折させる構成が存在する。また、角度Δは0°から90°未満の範囲でランダムに設定されるが、乱数の発生のさせ方は一様乱数に限られず、正規分布等の非一様な分布を有するようにしてもよい。例えば、第1の形態にて、接触点231から予測位置241への経路と輪郭直線に対する法線とのなす角(反射角)が予測位置220から接触点231への入射角φと同じである方向に分布のピークを有する乱数を使用して、輪郭直線に沿った方向の移動物体の運動量保存に配慮した修正とすることができる。この他にも、移動物体の速度に応じてΔの上限や乱数の発生の仕方を変更する構成とすることもできる。例えば、第2の形態にて、移動物体の速度が速いほど移動物体は方向転換しにくいであろうことから、Δの上限を低くしてもよい。
[修正処理の第3の形態]
図8は修正処理S9の第3の形態を説明する模式図であり、図8(a)は図5に示した現時刻の予測位置221に対する修正を例に修正処理S9を説明する図である。また図8(b)は修正による予測位置の空間分布の変化を示す図である。
第3の形態にて予測位置修正部53は、障害領域の境界線のうち前時刻の予測位置から見える部分の点であり、かつ現時刻についての当初の予測位置から最短距離にある点を直近点として求め、当該直近点を中心として直前時刻での予測位置の分布範囲以下の大きさを有する領域内に、修正後の予測位置を設定する。具体的には、予測位置修正部53は、上記第1及び第2の形態と同様にして、修正対象の検出、直線230の算出、接触点231の算出及び障害領域42aの輪郭直線の算出を行なう。さらに、現時刻の当初の予測位置221から輪郭直線への垂線400を導出して輪郭直線と垂線400との交点401を直近点として求め、交点401から所定半径の円内であって障害領域42aの外側の領域にランダムに修正後の予測位置402を設定する。所定半径は予測位置設定部52にて予測位置の設定に用いた半径rの半分程度に設定すればよい。
これにより簡便な処理によって、前時刻の予測位置側の障害領域外に位置し、移動物体が移動し得る範囲に予測位置を修正できる。
この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。
なお、当初の予測位置が障害領域42aを跨いで、その外側に設定された場合には、障害領域の輪郭のうち前時刻の予測位置220から見える、つまり直線経路で移動物体が到達できる位置に垂線400を引くことができない状態も存在し得る。この場合には、予測位置修正部53は、垂線400を求める処理とは別の処理によって、障害領域の輪郭のうち前時刻の予測位置から見え、かつ現時刻についての当初の予測位置から最短距離にある点を、上記交点401に代わる点として求め、これを中心として所定半径の円内に修正後の予測位置を設定する。
[修正処理の第4の形態]
上記修正処理の第1〜第3の形態においては、各時刻の予測位置の間で一意の対応付けが管理されており、予測位置設定部52は互いに対応する過去の予測位置の動きから新たな予測位置を設定する。そのため第1〜第3の形態において予測位置修正部53は1時刻前の予測位置から見て障害領域の手前の位置に予測位置の修正を行い、また第1、第2の形態は1時刻前の予測位置からそれに対応する現時刻の予測位置への移動経路長が修正前後で変わらないように修正を行う。
図9は、以下に説明する修正処理の第4〜第6の形態における物***置及び現時刻の予測位置の一例を示す模式的な平面図であり、時刻(t−3)から時刻(t−1)へ至る物***置の変化、及び現時刻tの予測位置を示している。図5と同様、図9にて“○”印は予測位置を、また“△”印は物***置を表している。第4〜第6の形態では、予測位置設定部52は、1時刻前の物***置502を中心とする所定範囲に1時刻前のP個の予測位置を設定し、当該1時刻前の各予測位置を物***置の動きに合わせて移動させて現時刻の予測位置510を設定する。ちなみにこの方法は物***置の動きに合わせて現時刻の物***置を予測してから当該位置を中心とする所定範囲に現時刻の予測位置を設定することと等しい。
この予測位置設定方法において、修正処理の第4の形態の予測位置修正部53は、1時刻前の物***置502から現時刻の各予測位置510への移動経路長が修正前後で変わらないように修正を行う。図10は修正処理S9の第4〜第6の形態の例を説明する模式的な平面図である。図10(a)が本第4の形態に関する図である。同図は図9に示した現時刻の予測位置521に対する修正を例に修正処理S9を説明する図であり、移動経路の始点となる1時刻前の位置が予測位置に代えて物***置502であること以外は基本的に図6を用いて説明した第1の形態と同様である。
予測位置修正部53は、1時刻前の物***置502から修正対象の予測位置521への直線530と障害領域42aとの接触点531を検出するとともに、接触点531近傍の障害領域の境界を近似する輪郭直線と直線530とのなす角度θを算出する。予測位置修正部53は鋭角の範囲でランダムに角度Δを定め、予測位置521を接触点531を中心に(θ+Δ)だけ回転させて、予測位置521を物***置502側の障害領域42a外の領域内に修正する。これにより予測位置521は予測位置532に修正される。
この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。
[修正処理の第5の形態]
図10(b)は修正処理S9の第5の形態の例を説明する模式的な平面図である。同図は図9に示した現時刻の予測位置521に対する修正を例に修正処理S9を説明する図であり、移動経路の始点となる1時刻前の位置が予測位置に代えて物***置502であること以外は基本的に図7を用いて説明した第2の形態と同様である。
予測位置修正部53は、1時刻前の物***置502から修正対象の予測位置521までの距離L0を半径とする円上で、予測位置521から角度(φ1+Δ−φ0)だけ回転させた修正後の予測位置540を算出する。
この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。
[修正処理の第6の形態]
図10(c)は修正処理S9の第6の形態の例を説明する模式的な平面図である。同図は図9に示した現時刻の予測位置521に対する修正を例に修正処理S9を説明する図であり、移動経路の始点となる1時刻前の位置が予測位置に代えて物***置502であること以外は基本的に図8を用いて説明した第3の形態と同様である。
予測位置修正部53は、新たに設定された予測位置521から輪郭直線への垂線を導出して輪郭直線と垂線の交点550を直近点として求め、交点550から所定半径の円内であって障害領域42aの外側の領域にランダムに修正後の予測位置551を設定する。
この場合も予測位置修正部53は、従来は無駄となっていた予測位置を移動物体が移動し得る位置に補正するので、障害物近辺においても有意な予測位置を増加させることができ、障害物近辺において追跡精度を向上させることができる。
1 移動物体追跡装置、2 撮像部、3 設定入力部、4 記憶部、5 制御部、6 出力部、40 三次元モデル、41 カメラパラメータ、42 障害物マップ、42a 障害領域、43 予測位置、44 物***置、50 障害物マップ作成部、51 変化画素抽出部、52 予測位置設定部、53 予測位置修正部、54 物体領域推定部、55 尤度算出部、56 物***置算出部、57 異常判定部、100 基準面、101 カメラ位置、102 障害物モデル、103 移動物体モデル、200〜203,510 予測位置群、210〜212,500〜502 物***置、220〜223,241,304,402,521,532,540,551 予測位置、231,531 接触点、401,550 直近点。

Claims (3)

  1. 所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する人物を追跡する人物追跡装置であって、
    前記空間内にて前記移動を妨げる障害領域を予め記憶すると共に、注目時刻より過去における前記人物の過去位置の情報を記憶する記憶部と、
    前記過去位置を用いて前記人物の動き予測を行い、前記注目時刻における当該人物の移動先候補を複数予測する位置予測部と、
    前記注目時刻の前記画像において前記各移動先候補との対応部分が有する前記人物の画像特徴に基づいて前記注目時刻における当該人物の移動先を判定する人物位置判定部と、
    を有し、
    前記位置予測部は、前記移動先候補のうちその移動元である前記過去位置との間に前記障害領域が存在する無効な移動先候補を当該障害領域よりも前記移動元側の位置に修正する修正部を備え、
    前記修正部は、前記移動元から前記無効な移動先候補への経路をその経路長を維持したままで前記無効な移動先候補への経路が前記障害領域に達した点にて当該経路の方向をランダムに変化させることにより変形し、前記無効な移動先候補を前記変形後の経路の終点に修正すること、
    を特徴とする人物追跡装置。
  2. 所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する人物を追跡する人物追跡装置であって、
    前記空間内にて前記移動を妨げる障害領域を予め記憶すると共に、注目時刻より過去における前記人物の過去位置の情報を記憶する記憶部と、
    前記過去位置を用いて前記人物の動き予測を行い、前記注目時刻における当該人物の移動先候補を複数予測する位置予測部と、
    前記注目時刻の前記画像において前記各移動先候補との対応部分が有する前記人物の画像特徴に基づいて前記注目時刻における当該人物の移動先を判定する人物位置判定部と、
    を有し、
    前記位置予測部は、前記移動先候補のうちその移動元である前記過去位置との間に前記障害領域が存在する無効な移動先候補を当該障害領域よりも前記移動元側の位置に修正する修正部を備え、
    前記修正部は、前記移動元から前記無効な移動先候補への経路をその経路長を維持したままで前記無効な移動先候補への経路の方向を前記移動元にて変化させることにより変形し、前記無効な移動先候補を前記変形後の経路の終点に修正すること、
    を特徴とする人物追跡装置。
  3. 所定の空間を撮影した時系列の画像を用いて、前記空間内を移動する人物を追跡する人物追跡装置であって、
    前記空間内にて前記移動を妨げる障害領域を予め記憶すると共に、注目時刻より過去における前記人物の過去位置の情報を記憶する記憶部と、
    前記過去位置を用いて前記人物の動き予測を行い、前記注目時刻における当該人物の移動先候補を複数予測する位置予測部と、
    前記注目時刻の前記画像において前記各移動先候補との対応部分が有する前記人物の画像特徴に基づいて前記注目時刻における当該人物の移動先を判定する人物位置判定部と、
    を有し、
    前記位置予測部は、前記移動先候補のうちその移動元である前記過去位置との間に前記障害領域が存在する無効な移動先候補を当該障害領域よりも前記移動元側の位置に修正する修正部を備え、
    前記修正部は、前記障害領域における前記移動元側の境界線上で前記無効な移動先候補から最短距離にある直近点を算出し、当該無効な移動先候補を前記直近点から所定距離内の位置に修正すること、を特徴とする人物追跡装置。
JP2010258213A 2010-11-18 2010-11-18 人物追跡装置 Active JP5687035B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010258213A JP5687035B2 (ja) 2010-11-18 2010-11-18 人物追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010258213A JP5687035B2 (ja) 2010-11-18 2010-11-18 人物追跡装置

Publications (2)

Publication Number Publication Date
JP2012108798A JP2012108798A (ja) 2012-06-07
JP5687035B2 true JP5687035B2 (ja) 2015-03-18

Family

ID=46494340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010258213A Active JP5687035B2 (ja) 2010-11-18 2010-11-18 人物追跡装置

Country Status (1)

Country Link
JP (1) JP5687035B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021171A (ja) * 2018-07-30 2020-02-06 Kddi株式会社 位置選択装置、位置選択方法、及び位置選択プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105593776B (zh) * 2013-08-01 2018-01-23 日产自动车株式会社 车辆位置姿势角推定装置及车辆位置姿势角推定方法
JP6525545B2 (ja) * 2014-10-22 2019-06-05 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP6750385B2 (ja) 2016-08-10 2020-09-02 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置
RU2649962C1 (ru) * 2016-12-08 2018-04-10 Федеральное государственное унитарное предприятие "Центральный ордена Трудового Красного Знамени научно-исследовательский автомобильный и автомоторный институт "НАМИ" (ФГУП "НАМИ") Способ управления автоматическим транспортным средством
JP7052404B2 (ja) * 2018-02-21 2022-04-12 株式会社豊田中央研究所 状態推定装置及びプログラム
JP7259880B2 (ja) 2021-03-24 2023-04-18 いすゞ自動車株式会社 積載率推定装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4664838B2 (ja) * 2006-03-02 2011-04-06 日本放送協会 映像オブジェクト追跡装置および映像オブジェクト追跡プログラム
JP4692969B2 (ja) * 2006-06-09 2011-06-01 株式会社ソニー・コンピュータエンタテインメント 特徴点探索装置、画像解析装置、および最近傍特徴点検出方法
US8064639B2 (en) * 2007-07-19 2011-11-22 Honeywell International Inc. Multi-pose face tracking using multiple appearance models
EP2037410A1 (en) * 2007-09-14 2009-03-18 Thomson Licensing Method for tracking an object in a sequence of images and device implementing said method
JP5180733B2 (ja) * 2008-08-19 2013-04-10 セコム株式会社 移動物体追跡装置
JP2010122734A (ja) * 2008-11-17 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> 対象物追跡装置、対象物追跡方法及び対象物追跡プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021171A (ja) * 2018-07-30 2020-02-06 Kddi株式会社 位置選択装置、位置選択方法、及び位置選択プログラム
JP7031991B2 (ja) 2018-07-30 2022-03-08 Kddi株式会社 位置選択装置、位置選択方法、及び位置選択プログラム

Also Published As

Publication number Publication date
JP2012108798A (ja) 2012-06-07

Similar Documents

Publication Publication Date Title
JP5687035B2 (ja) 人物追跡装置
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Moghadam et al. Line-based extrinsic calibration of range and image sensors
CN107836012B (zh) 投影图像生成方法及其装置、图像像素与深度值之间的映射方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
KR101766603B1 (ko) 화상 처리 장치, 화상 처리 시스템, 화상 처리 방법, 및 컴퓨터 프로그램
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP2018124985A (ja) 平面セグメントを用いて点群を完成させる方法およびシステム
JP5687082B2 (ja) 移動物体追跡装置
Phuc Truong et al. Registration of RGB and thermal point clouds generated by structure from motion
JP5667846B2 (ja) 対象物画像判定装置
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
JP5027758B2 (ja) 画像監視装置
KR101207535B1 (ko) 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법
JP5552069B2 (ja) 移動物体追跡装置
JP2008226109A (ja) 映像解析システムおよび映像解析方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JPWO2019044038A1 (ja) 撮影対象追跡装置及び撮影対象追跡方法
JP2012155595A (ja) 対象物画像判定装置
JP4307283B2 (ja) ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法
JPWO2020153264A1 (ja) 校正方法および校正装置
JP6548683B2 (ja) 対象物画像推定装置および対象物画像判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150121

R150 Certificate of patent or registration of utility model

Ref document number: 5687035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250