JP2012155595A - 対象物画像判定装置 - Google Patents

対象物画像判定装置 Download PDF

Info

Publication number
JP2012155595A
JP2012155595A JP2011015147A JP2011015147A JP2012155595A JP 2012155595 A JP2012155595 A JP 2012155595A JP 2011015147 A JP2011015147 A JP 2011015147A JP 2011015147 A JP2011015147 A JP 2011015147A JP 2012155595 A JP2012155595 A JP 2012155595A
Authority
JP
Japan
Prior art keywords
image
projection area
target object
estimated projection
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011015147A
Other languages
English (en)
Inventor
Yuji Nakazawa
裕二 中沢
Masahiro Maeda
昌宏 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011015147A priority Critical patent/JP2012155595A/ja
Publication of JP2012155595A publication Critical patent/JP2012155595A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】三次元空間での対象物の像の存在を判定する対象物画像判定装置において、撮像される画像毎に投影処理を行い設置物による非隠蔽部分を求めるのは処理負荷が大きい。
【解決手段】時刻毎の画像にて対象物を追跡する動作に先だって事前処理を行う。事前処理では、監視画像にて対象物が設置物により隠蔽されずに投影される推定投影領域を、空間内の各位置に対象物モデルを配置して求め、当該位置と推定投影領域とを対応付けた推定投影領域データ42を予め記憶部4に保存する。追跡処理では対象物隠蔽推定部530は推定投影領域データ42を参照し、注目対象物の予測位置での推定投影領域を取得する。尤度算出部531及び物***置算出部532は、推定投影領域の画像特徴から対象物の像の存在を判定する。
【選択図】図1

Description

本発明は、画像に基づいて当該画像に投影される空間における対象物の存在を判定する対象物画像判定装置に関し、特に什器等の設置物により画像上で隠蔽され得る対象物の存在を判定する対象物画像判定装置に関する。
侵入者検知等のため、監視空間を撮像した監視画像から人物などの監視対象物の像を抽出したり、当該像の画像特徴に基づいて監視対象物の存在を判定したり追跡したりすることが行われている。監視画像においては常に監視対象物の全体像が抽出できるとは限らず、監視空間内の什器や柱、さらには他の人物などによりその一部がしばしば隠蔽される。この隠蔽は監視対象物の抽出される大きさや色成分などの画像特徴を変動させるため、検知失敗や追跡失敗の原因となる。
特許文献1に記載の画像監視装置においては、監視対象物が構造物などの陰に隠れてその一部分しか抽出できないような場合でも監視対象物を高精度に追跡するために、物体抽出位置に監視対象物の三次元形状モデルを配置した監視空間の三次元シーンモデルを撮像装置による画像に3D/2D変換する。これにより監視画像にて監視対象物にどの程度の隠蔽が発生している可能性があるかを求め、それをもとに対象物体抽出の結果を隠蔽の程度に応じて評価することが記載されている。
特開2000−231637号公報
しかしながら従来技術では、新たな画像が撮像されるたびに三次元のモデルから画像を生成する3D/2D変換処理(投影処理)を行わなければならない。当該投影処理は比較的大きな処理負荷を伴う。そのため、従来技術ではリアルタイムで対象物の検知や追跡を行うことが容易でないという問題点があった。
特に、魚眼レンズ等を備えた広角カメラを用いて検知や追跡を行う場合、投影処理にはレンズ歪を再現するための歪補正を含める必要があるため処理負荷が大きくなる。また、追跡にパーティクルフィルタを用いる場合、監視対象物の位置候補を多数設定して各設定に対する投影処理を行うため処理負荷が大きくなる。
本発明は上記課題を鑑みてなされたものであり、新たな画像が撮像されるたびに投影処理を行うことなく画像上での対象物の抽出状態、すなわち隠蔽状態を推定可能にし、リアルタイムで高精度に対象物の存在を判定可能とすることを目的とする。
本発明に係る対象物画像判定装置は、設置物が設置された実空間が予め定められた投影条件で投影された実写画像に基づいて前記実空間における対象物の存在を判定するものであって、前記対象物が存在していない前記実空間を模した仮想空間が前記投影条件にて投影された仮想画像内において当該仮想空間に配置された前記対象物の立体モデルが前記設置物により隠蔽されずに投影される画像領域を前記対象物の推定投影領域とし、当該立体モデルが配置された前記仮想空間内の位置と対応付けて予め記憶する記憶部と、前記実空間の前記実写画像、及び当該実空間にて前記対象物が存在し得る候補位置を入力され、当該候補位置に対応する前記推定投影領域を前記記憶部から読み出して、入力された前記実写画像における当該推定投影領域の画像特徴から前記対象物の存在を判定する対象物判定部と、を有する。
他の本発明に係る対象物画像判定装置においては、前記対象物判定部は、複数の前記対象物について前記候補位置を入力された場合に、当該候補位置から前記対象物相互の前記実写画像における前後関係を求め、当該複数の対象物のそれぞれを注目対象物に設定し、前記記憶部から読み出した当該注目対象物の前記推定投影領域に対して前記前後関係にて当該注目対象物より前に位置する前置対象物の前記推定投影領域との重複部分を除く修正処理を行ってから当該注目対象物の存在を判定する。
別の本発明に係る対象物画像判定装置においては、前記対象物判定部は、前記対象物ごとに複数の前記候補位置を入力され、前記注目対象物について当該複数の候補位置ごとに前記推定投影領域における前記画像特徴の対象物らしさの度合いを算出し、当該度合いにて前記対象物の存在する可能性に重み付けた前記複数の候補位置を用いて当該注目対象物の存在位置を判定し、前記修正処理において、前記注目対象物に対する前記前置対象物について前記存在位置が求められている場合には、当該前置対象物の前記推定投影領域として前記存在位置に対応するものを用いる。
さらに別の本発明に係る対象物画像判定装置においては、前記対象物判定部は、前記前後関係にて前から後へ向かう順序で前記注目対象物を設定する。
立体モデルに基づく画像上での対象物の抽出状態の推定処理の負荷が低減され、画像における対象物の像の存在を高速かつ高精度に判定できる。
本発明の実施形態に係る移動物体追跡装置のブロック構成図である。 三次元モデルの一例を模式的に示す斜視図である。 図2の三次元モデルから作成された推定投影領域の模式図である。 事前処理の概略のフロー図である。 図2に示す設置物モデルに対応して設定される隠蔽位置を示す模式図である。 推定投影領域の算出処理を説明する模式図である。 事前処理方法の他の例を説明するための三次元モデルの一例を模式的に示す斜視図である。 移動物体追跡装置の追跡処理の概略のフロー図である。 注目対象物の推定投影領域に対する修正処理を説明する模式図である。
以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋等のように設置物が存在する屋内外の空間を監視対象の空間とすることができ、当該監視空間内を移動する人物を追跡対象物(以下、対象物と称する。)とする。設置物の他の例としては柱や給湯器などが挙げられる。移動物体追跡装置1は監視空間を撮像した監視画像を処理して対象物の検出・追跡を行う。設置物や、注目している対象物以外の対象物は画像処理の観点からは注目している対象物の像を隠蔽し得る遮蔽物である。移動物体追跡装置1は、遮蔽物による対象物の隠蔽状態を推定し、隠蔽状態を加味して対象物の検出・追跡を行う。
設置物は移動しない遮蔽物である。そこで、移動物体追跡装置1は予め設置物による対象物の隠蔽を推定して推定結果を二次元データとして記憶しておくことで対象物の検出・追跡を高速に行う。
他方、注目している対象物以外の対象物は移動する遮蔽物であるので、移動物体追跡装置1は対象物間で生じる隠蔽を随時推定する。その際、移動物体追跡装置1は当該推定を上述した二次元データ間の演算により行うことで対象物の検出・追跡を高速に行う。
[移動物体追跡装置の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮像部2、設定入力部3、記憶部4、制御部5及び出力部6を含んで構成される。撮像部2、設定入力部3、記憶部4及び出力部6は制御部5に接続される。
撮像部2は監視カメラであり、監視空間(実空間)を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像(実写画像)は順次、制御部5へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮像部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。
設定入力部3は管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。
記憶部4はROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部4は各種プログラムや各種データを記憶し、制御部5との間でこれらの情報を入出力する。各種データには三次元モデル40、カメラパラメータ41及び推定投影領域データ42が含まれる。
三次元モデル40は、監視空間を模した仮想空間に対象物の立体形状を近似した対象物モデル及び/又は設置物の立体形状を近似した設置物モデルを配置した状態を記述したデータであり、追跡処理の準備段階(事前処理)で適宜作成され利用される。本実施形態では、監視空間及び仮想空間をX,Y,Z軸からなる右手直交座標系で表し、鉛直上方をZ軸の正方向に設定する。また、床面等の基準面は水平であり、Z=0で表されるXY平面で定義する。仮想空間内での設置物モデルの配置は監視空間内での実際の設置物の配置に合わせる。一方、対象物モデルの配置は任意位置に設定することができる。
対象物モデルを配置せず設置物モデルだけを配置すると対象物が存在していない実空間を模した仮想空間がシミュレートでき、ここに対象物モデルを任意配置することで、対象物の隠蔽状態をシミュレートできる。
対象物モデルは、例えば、対象物を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。移動物体追跡装置1が監視対象とする対象物は立位の人であり、本実施形態では、例えば、人の構成部分として頭部、胴部、脚部の3つが設定される。また、各構成部分の立体形状を近似的に表す部分モデルとして、長軸が鉛直方向に設定され短軸が水平方向に設定された楕円を長軸の周りに回転させて得られる回転楕円体を用いる。部分モデルの配置関係として、脚部の部分モデルの下端が基準面(Z=0)に接地するという拘束条件を課し、その脚部の部分モデルの上に胴部、頭部の部分モデルを順にZ軸方向に積み重ねた配置を設定する。基準面から頭部中心までの高さをH、胴部の最大幅(胴部短軸直径)をWで表す。本実施形態では説明を簡単にするため、高さH、幅Wは任意の対象物に共通とする。また、撮像部2との位置関係から、頭部は他の構成部分に隠蔽されにくく、監視画像に良好に現れることから、頭部中心を対象物の代表位置とする。なお、対象物モデルはより単純化して1つの回転楕円体で近似してもよい。
設置物モデルは対象物の検出・追跡処理に先だって予め、監視空間内に置かれる設置物毎に設定される。設置物モデルは、監視空間に実在する設置物の形状・寸法のデータ、及び監視空間での設置物の配置のデータを含む。設置物の形状・寸法は監視空間に置かれる設置物を実測して取得することができるほか、設置物のメーカー等が提供する製品の三次元データを利用することもできる。設置物の配置は実測により取得できるほか、例えばコンピュータ上で部屋の什器レイアウトを設計した場合にはその設計データを利用することもできる。このようにして得られた設置物に関するデータは、設定入力部3又は外部機器との接続インターフェース(図示せず)から制御部5に入力され、制御部5は当該入力データに基づいて記憶部4に設置物モデルを格納する。
図2は、三次元モデル40の一例を模式的に示す斜視図であり、監視空間をN×M×Kの位置座標に離散化した仮想空間の基準面100、カメラ位置101、対象物モデル102、及び設置物#1,#2の設置物モデル103,104の配置例を示している。
カメラパラメータ41は、撮像部2が監視空間を投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが予め設定入力部3から入力され、記憶部4に格納される。公知のピンホールカメラモデル等のカメラモデルにカメラパラメータ41を適用した座標変換式により、三次元モデル40を監視画像の座標系(撮像部2の撮像面;xy座標系)に投影できる。このカメラパラメータ41を用いた三次元モデル40の投影は、移動物体追跡装置1による対象物の検出・追跡処理に先だって行われる。
推定投影領域データ42は、監視空間に存在する対象物が監視画像にて設置物により隠蔽されずに結像される領域を推定した情報(推定投影領域)を含むデータである。具体的には、推定投影領域は、対象物モデルが配置された仮想空間を監視画像の二次元座標系(投影面)に投影した画像(仮想画像)において、対象物モデルが設置物モデルにより隠蔽されずに投影される部分である。推定投影領域は仮想空間内の各位置に対象物モデルを配置して生成され、記憶部4は推定投影領域データ42として、仮想空間(又は監視空間)内の各位置と、当該位置に対象物モデルを配置して得られる推定投影領域とを対応付けて記憶する。推定投影領域データ42を参照することで、監視空間内の任意の位置に存在する対象物に関して、監視画像での当該対象物の像の推定領域を得ることができる。
図3は、図2の三次元モデル40から作成された推定投影領域の模式図である。図3には、推定投影領域を示す画像43と、対象物モデルの位置(代表位置を通る中心軸がN×Mに離散化された基準面と交差する点のXY座標(X,Y))とを対応付けて示している。ここで、基準面のX座標は0〜N−1、Y座標は0〜M−1なる整数と定義している。本実施形態では推定投影領域は、当該領域にて所定の画素値を付与された仮想画像によって表現される。具体的には、推定投影領域を表現する仮想画像43にて、推定投影領域、つまり対象物モデルの投影像が現れる部分(図3にて白抜き部分)は画素値“1”を付与し、それ以外の部分(図3にて斜線部分)は画素値“0”を付与する。
図3に示す例では、位置(Xn1,Ym1)と対応して設置物#2により下半身が隠蔽された人物の推定投影領域(画像43−3)が推定され推定投影領域データ42に記憶されており、位置(Xn2,Ym2)と対応して設置物#1により右足が隠蔽された人物の推定投影領域(画像43−4)が推定・記憶されている。また、位置(0,0),(N−1,0),(0,M−1),(N−1,M−1)では設置物#1,#2による隠蔽が生じないため、これら位置と対応付けて人物全身の推定投影領域(画像43−1,43−2,43−5,43−6)が推定・記憶されている。
制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部4からプログラムを読み出して実行し、設置物隠蔽推定部50、変化画素抽出部51、位置予測部52、対象物判定部53及び異常判定部54として機能する。
制御部5の各機能のうち設置物隠蔽推定部50は追跡処理の前に行われる事前処理を担い、三次元モデル40を用いたシミュレーションを行って設置物による対象物の隠蔽を予め推定する。設置物隠蔽推定部50は推定結果として監視空間の各位置について推定投影領域を求め、当該推定投影領域を対象物モデルの位置と対応付けて記憶部4に推定投影領域データ42として記憶させる。
具体的には設置物隠蔽推定部50は、監視空間を模して各設置物モデルを配置した仮想空間内の各位置に対象物モデルを単独配置した三次元モデル40を、対象物モデルの配置位置を変えて順次生成し、生成した三次元モデル40をカメラパラメータ41により規定される投影条件にて監視画像の座標系に投影して上述の推定投影領域(仮想画像43)を算出する。
変化画素抽出部51は、撮像部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を対象物判定部53へ出力する。変化画素の情報は必要に応じて位置予測部52にも出力される。変化画素の抽出は公知の背景差分処理により行われる。すなわち変化画素抽出部51は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。変化画素は対象物が存在する領域に対応して抽出され得る。変化画素抽出部51は背景画像として、監視領域に対象物が存在しない状態での監視画像を記憶部4に格納する。例えば、基本的に管理者は監視領域に対象物が存在しない状態で移動物体追跡装置1を起動するので、起動直後の監視画像から背景画像を生成することができる。なお、差分処理に代えて、新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。
位置予測部(仮説設定部)52は、過去に判定された各対象物の物***置又は過去に設定された各対象物の予測位置から動き予測を行なって、新たに入力される監視画像において対象物が存在する位置を予測し、その予測された位置(予測位置)を対象物判定部53へ出力する。
例えば、位置の予測はパーティクルフィルタなどと呼ばれる方法を用いて行うことができる。当該方法は、各対象物に対して多数(その個数をPで表す。例えば1対象物あたり200個)の予測位置を順次設定して確率的に対象物の位置(物***置)を判定するものであり、設定される予測位置は仮説などと呼ばれる。予測位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間のXYZ座標系で設定する。動き予測は過去の物***置に所定の運動モデルを適用するか(下記(1))、又は過去の予測位置に所定の運動モデルを適用すること(下記(2))で行なわれる。
(1)物***置からの予測
注目時刻より前のT時刻分(例えばT=5)の物***置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の物***置に加算して注目時刻における物***置を予測する。予測された物***置を中心とする所定範囲にランダムにP個の予測位置を設定する。この方法では、過去T時刻分の物***置が記憶部4に循環記憶される。
(2)予測位置からの予測
注目時刻より前のT時刻分(例えばT=5)の予測位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の予測位置に加算して注目時刻における新たな予測位置を予測する。予測はP個の予測位置それぞれに対し行ない、新たな予測位置とその元となった過去の予測位置には同一の識別子を付与して循環記憶する。なお、1時刻前の予測位置のうちその尤度が予め設定された尤度閾値より低いものは削除する。一方、この削除分を補うために、削除した個数と同数の1時刻前の新たな予測位置を1時刻前の予測された物***置を中心とする所定範囲にランダムに設定し、これらの予測位置と対応する2時刻前以前の予測位置を過去の物***置の運動に合わせて外挿し求める。そのために過去の予測位置に加えて、過去T時刻分の物***置も記憶部4に循環記憶させる。
なお、新規の対象物が検出された場合は、位置予測部52は、その検出位置を中心とする所定範囲にランダムにP個の予測位置を設定する。
対象物判定部53は、監視画像及び監視空間内において対象物が存在し得る候補位置を入力され、候補位置に対応する推定投影領域を記憶部4に記憶されている推定投影領域データ42から読み出す。そして、入力された監視画像が当該推定投影領域にて有する画像特徴に基づいて当該監視画像に対象物の像が存在するかを判定し、記憶部4に記憶させる。ここで、候補位置は位置予測部52から入力された予測位置である。また、判定結果は対象物の存在の有無及び、対象物が存在する場合におけるその存在位置(物***置)である。
対象物判定部53は対象物隠蔽推定部530、尤度算出部531及び物***置算出部532を含んで構成される。対象物隠蔽推定部530は、予測位置が複数の対象物について入力されたときに動作し、記憶部4の推定投影領域データ42から読み出された推定投影領域に、対象物同士による隠蔽を考慮した修正を加える。尤度算出部531は監視画像における予測位置に対応する推定投影領域の画像特徴の対象物らしさを表す尤度を予測位置ごとに算出する。物***置算出部532は各対象物の予測位置の尤度を総合判定して当該対象物の位置を算出する。
以下、対象物隠蔽推定部530、尤度算出部531及び物***置算出部532について説明する。
対象物隠蔽推定部530は、複数の対象物についての予測位置又は物***置とこれらの各位置に対応する推定投影領域とを入力され、入力された位置と投影条件とから監視画像における各対象物の前後関係を判定し、前後関係が後方の対象物の推定投影領域から前方の対象物の推定投影領域を除く修正を行い、前方の対象物による隠蔽が修正された推定投影領域(修正投影領域)を尤度算出部531へ出力する。なお、修正された推定投影領域は一時データであり、記憶部4の推定投影領域データ42には当該修正は反映されない。
対象物隠蔽推定部530は、カメラパラメータ41として記憶されているカメラ位置と各対象物について入力された位置との距離を算出し、当該距離が短いほど手前、当該距離が長いほど後ろであるとして対象物相互の前後関係を判定する。また、対象物隠蔽推定部530は複数の対象物のうちの一つを順次、注目対象物に設定し、注目対象物について推定投影領域の修正を行う。当該修正は注目対象物の推定投影領域と注目対象物より手前と判定された各対象物の推定投影領域との重複領域を、注目対象物の推定投影領域から除去することにより行われ、当該除去により残った領域を修正投影領域とする。
なお、対象物の位置を予測位置から予測する構成にて、各対象物にP個設定される予測位置に基づいて対象物相互の前後関係を定めることにすると、対象物間での予測位置の組合せの数が膨大となり前後関係の判定や修正処理の負荷が増加する。そこで、対象物判定部53は、撮像部2に近い対象物から順に注目対象物に設定してその物***置を判定する。これにより、或る注目対象物について推定投影領域の修正や物***置の決定を行う際には、複数の対象物のうち当該注目対象物より前方に位置する前置対象物の物***置は既定となる。対象物隠蔽推定部530は、注目対象物の予測位置及び前置対象物の物***置と、それら各位置での推定投影領域とを入力され、注目対象物の各予測位置に対応する推定投影領域から前置対象物の物***置に対応する推定投影領域を除去して修正投影領域を求める。この修正処理では各予測位置の推定投影領域から除去される推定投影領域は各前置対象物について尤もらしい1つに限定される。対象物判定部53の処理をこのように構成することで対象物隠蔽推定部530での判定精度を高めながら処理量を減ずることができる。
注目対象物の設定順序を決めるために用いる対象物の位置は当該対象物のP個の予測位置に基づいて推定される。例えば、対象物それぞれのP個の予測位置の平均位置を当該対象物の推定位置とすることができる。
ちなみに、相互距離が近い対象物同士では、推定された前後関係にて前方と判断された対象物の物***置よりも注目対象物の予測位置の方が撮像部2に近い場合が生じ得る。この場合には対象物隠蔽推定部530を、当該予測位置の推定投影領域から、前置とされた対象物の物***置に対応する推定投影領域を除去しない、つまり当該予測位置に対応する推定投影領域そのものを尤度算出部531へ出力する構成としてもよい。
尤度算出部531は、各予測位置にて対象物が監視画像上にて設置物及び他の対象物により隠蔽されない非隠蔽領域として、対象物隠蔽推定部530から推定投影領域又は修正投影領域を入力される。そして、当該非隠蔽領域における対象物の特徴量を監視画像から抽出し、特徴量の抽出度合いに応じた、当該予測位置の物***置としての尤度を算出して物***置算出部532へ出力する。下記(1)〜(4)は尤度の算出方法の例である。
(1)変化画素抽出部51により抽出された変化画素に非隠蔽領域を重ね合わせ、変化画素が当該非隠蔽領域に含まれる割合(包含度)を求める。包含度は、予測位置が現に対象物が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度に基づいて尤度を算出する。
(2)監視画像における非隠蔽領域の輪郭に対応する部分からエッジを抽出する。予測位置が現に対象物が存在する位置に近いほど、非隠蔽領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は増加し、一方、遠ざかるほど抽出度は減少しやすい。そこで、エッジの抽出度に基づいて尤度を算出する。
(3)各対象物の過去の物***置において監視画像から抽出された特徴量を当該対象物の参照情報として記憶部4に記憶する。予測位置が現に対象物が存在する位置に近いほど背景や他の対象物の特徴量が混入しなくなるため、非隠蔽領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から非隠蔽領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。
このように設置物隠蔽推定部50及び対象物隠蔽推定部530により推定された非隠蔽領域を利用することで、各対象物の隠蔽状態に適合した尤度を算出できるので追跡の信頼性が向上する。
物***置算出部532は、対象物の予測位置ごとに算出された尤度で複数の予測位置を重み付けし、当該尤度によって各予測位置に対象物が存在する可能性に重み付けた複数の予測位置に基づいて当該対象物の位置(物***置)を判定し、判定結果を記憶部4に対象物ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物***置なし、つまり消失したと判定する。下記(1)〜(3)は物***置の算出方法の例である。
(1)対象物ごとに、尤度を重みとする予測位置の重み付け平均値を算出し、これを当該対象物の物***置とする。
(2)対象物ごとに、最大の尤度が算出された予測位置を求め、これを物***置とする。
(3)対象物ごとに、予め設定された尤度閾値以上の尤度が算出された予測位置の平均値を算出し、これを物***置とする。ここで、尤度閾値>尤度下限値である。
異常判定部54は、記憶部4に蓄積された時系列の物***置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部6へ異常信号を出力する。
出力部6は、警告音を出力する音響出力手段、異常が判定された監視画像を表示する表示手段、又は通信回線を介して警備会社のセンタ装置へ送信する通信手段などを含んで構成され、異常判定部54から異常信号が入力されると異常発生の旨を外部へ出力する。
[事前処理]
次に、制御部5が設置物隠蔽推定部50により行う事前処理を説明する。
図4は事前処理の概略のフロー図である。事前処理が開始されると、制御部5は撮像部2から見た各設置物の背後領域を隠蔽位置として算出する(S1)。具体的には、基準面内の点のうち、カメラ位置とを結ぶ投影線上に設置物が存在する点の集合が隠蔽位置に設定される。図5は、図2に示す設置物モデル103,104に対応して設定される隠蔽位置を示す模式図である。図5において、基準面の座標系200における撮像部2の位置が点201で示されており、撮像部2から見た背後領域となる領域202内が設置物#1(設置物モデル103)の隠蔽位置、また同じく背後領域となる領域203内が設置物#2(設置物モデル104)の隠蔽位置と判定される。
制御部5は、カメラパラメータ41を参照し、各設置物モデルを監視画像の座標系に投影して設置物投影領域を算出する(S2)。図6は推定投影領域の算出処理を説明する模式図である。図6には、設置物モデル104を投影した仮想画像210が示されており、当該仮想画像210の白抜き部分が設置物#2に対応する設置物投影領域である。
制御部5は各設置物モデルについて設置物投影領域を算出すると、続いて、基準面内の各位置(X,Y)について順次、推定投影領域を求めるループ処理(S3〜S9)を開始する。当該処理では基準面内の各位置が順次、注目位置に設定され(S3)、注目位置に配置された対象物モデルだけからなる仮想空間の三次元モデルを生成し(S4)、投影処理を行って対象物投影領域を算出する(S5)。つまり、ステップS4,S5では、注目位置に配置した対象物モデルをカメラパラメータ41を参照して監視画像の座標系に投影し、対象物投影領域が算出される。図6において、画像221は図5にて点220で示す注目位置(Xn1,Ym1)に対象物モデルを配置して投影した画像の模式図であり、仮想画像221の白抜き部分が対象物投影領域である。
制御部5はステップS1で算出した隠蔽位置を参照し、注目位置がいずれかの設置物の隠蔽位置であるか否かを調べる。注目位置を隠蔽位置とする設置物が存在する場合には(ステップS6にて「YES」の場合)、当該注目位置に対象物モデルを配置して得られた対象物投影領域から当該設置物について算出された設置物投影領域を除いた領域を推定投影領域として算出し、注目位置と対応付けて推定投影領域データ42として記憶部4に保存する。なお、注目位置を隠蔽位置とする設置物が複数存在する場合は、それら全ての設置物投影領域を対象物投影領域から除く。
一方、注目位置を隠蔽位置とする設置物が存在しない場合には(ステップS6にて「NO」の場合)、当該注目位置に対象物モデルを配置して得られた対象物投影領域そのままを推定投影領域とし注目位置と対応付けて推定投影領域データ42として記憶部4に保存する。
図5にて注目位置(Xn1,Ym1)は設置物#2の隠蔽位置であるため、図6に示すように、点220に配置した対象物モデルの投影領域(仮想画像221の白抜き部分)から設置物#2の投影領域(仮想画像210の白抜き部分)を除いた推定投影領域(仮想画像43−3の白抜き部分)が算出される。
設置物隠蔽推定部50は基準面内の位置(X,Y)全てが処理済みになるまでステップS3〜S8を繰り返す(S9にて「NO」の場合)。一方、全ての位置について処理済みとなると(S9にて「YES」の場合)事前処理を終了する。
図5,図6を用いて説明した上述の事前処理は、設置物モデル及び各位置での対象物モデルを投影して二値化画像(図6の仮想画像210,221)を生成する際に三次元の仮想空間から二次元の投影面への変換を行い、推定投影領域の生成はそれら二値化画像の0又は1である画素値を用いた論理演算により行われる。すなわち、上述の事前処理では設置物モデルと対象物モデルとを別々に投影した後、設置物モデルによる対象物モデルの非隠蔽部分を計算する。
推定投影領域を生成する事前処理は上述の処理以外の方法によって行うこともできる。図7は事前処理の方法の他の例を説明するための三次元モデル40の一例を模式的に示す斜視図であり、仮想空間の基準面100、カメラ位置101、対象物モデル102、及び設置物#1,#2の設置物モデル103,104の配置例を示している。ちなみに対象物モデル102の配置は図5に示す例と同じとしており、仮想空間内の座標(Xn1,Ym1,Z)に配置される。この事前処理では、設置物モデル及び対象物モデルの双方を配置した三次元モデルを監視画像を模した平面(投影面)300に投影することにより、設置物モデルによる隠蔽部分が除去された対象物モデルの像が直接的に算出される。具体的には、カメラパラメータ41を用いてカメラ位置101から投影面300の各座標(x,y)を通る視線を算出する。当該視線が最初に三次元モデルと交差する点が対象物モデル上の点である場合、投影面の座標(x,y)の画素は推定投影領域を構成する画素と判定され、一方、視線が対象物モデルと交差しない場合や、対象物モデルと交差してもそれより手前で設置物と交差する場合は、座標(x,y)の画素は推定投影領域を構成しないと判定される。例えば、投影面300上の点310を通る視線311が三次元モデルと最初に交差する点は対象物モデル102上の点312であるので、投影面300上の点310は推定投影領域を構成する画素と判定される。一方、投影面300上の点320を通る視線321は設置物モデル104上の点322にて三次元モデルと最初に交差し、さらにその先で対象物モデル102とも交差する。この場合、投影面300上の点320は推定投影領域を構成しないと判定される。
なお、事前処理は移動物体追跡装置1とは別の装置で行い、当該装置で生成された推定投影領域データ42を移動物体追跡装置1の記憶部4に格納する構成としてもよい。
[移動物体追跡装置1の動作]
次に、移動物体追跡装置1の追跡動作を説明する。図8は移動物体追跡装置1の追跡処理の概略のフロー図である。
撮像部2は、監視空間を撮像するたびに監視画像を制御部5に入力する(S20)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。
現画像は変化画素抽出部51により背景画像と比較され、変化画素抽出部51は変化画素を抽出する(S21)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部4に記憶させ、便宜的に変化画素なしとする。
また、位置予測部52は追跡中の各対象物に対して動き予測に基づきP個の予測位置を設定する(S22)。なお、後述するステップS35にて新規出現であると判定された対象物の予測位置は動き予測不能なため出現位置を中心とする広めの範囲にP個の予測位置を設定する。また、後述するステップS35にて消失と判定された対象物の予測位置は削除する。
制御部5は、ステップS21にて変化画素が抽出されず、かつステップS22にて予測位置が設定されていない(追跡中の対象物がない)場合(S23にて「YES」の場合)はステップS20に戻り、次の監視画像の入力を待つ。
一方、ステップS23にて「NO」の場合は、ステップS24〜S35の処理を行う。まず、制御部5は対象物の前後関係を判定する(S24)。具体的には、対象物ごとに予測位置の重心(平均値)とカメラ位置との距離を算出し、距離の昇順に対象物の識別子を並べた前後関係リストを作成する。
制御部5は前後関係リストの先頭から順に各対象物を順次、注目対象物に設定する(S25)。続いて、制御部5は注目対象物の各予測位置を順次、注目位置に設定する(S26)。但し、監視画像の視野外である予測位置は注目位置の設定対象から除外する。
対象物隠蔽推定部530は記憶部4に事前処理で保存されている推定投影領域データ42から、注目位置に対応する推定投影領域を読み出す(S27)。続いて、対象物隠蔽推定部530は、前後関係リストを参照して注目対象物より手前の対象物があれば(S28にて「YES」の場合)、手前の対象物の物***置に対応する推定投影領域を推定投影領域データ42から取得し(S29)、これを注目対象物の推定投影領域から除去し注目対象物の推定投影領域を修正する処理を行う(S30)。なお、手前に複数の対象物があれば、それら全てについて注目対象物の推定投影領域からの除外を試みてもよいし、それらのうちカメラ位置から物***置への投影線が注目対象物への投影線となす角度が幅Wに相当する角度未満の対象物のみに絞って除外処理を実行してもよい。一方、手前に対象物がなければ(S28にて「NO」の場合)、注目対象物の推定投影領域に対する修正処理は行われない。
図9は注目対象物より手前の対象物による隠蔽部分を除去した推定投影領域を求める修正処理を説明する模式図である。図9は注目位置(Xn1,Ym1)における注目対象物Aに対する修正処理を例示している。対象物隠蔽推定部530は前後関係リストを参照し、物***置(Xn2,Ym2)にある対象物Bは注目対象物Aより手前であると判定する。そして、予測位置(Xn1,Ym1)に対応する注目対象物Aの推定投影領域(画像43−3の白抜き部分)から対象物Bの物***置に対応する推定投影領域(画像43−4の白抜き部分)を除くことで、注目対象物Aの修正された推定投影領域(画像400の白抜き部分)を算出する。
修正処理によって、注目位置での注目対象物の推定投影領域のうち手前の対象物により隠蔽されない部分が求められると、尤度算出部531は当該注目位置に対する尤度を算出する(S31)。
制御部5は、尤度が算出されていない予測位置が残っている場合(S32にて「NO」の場合)、ステップS26〜S31を繰り返す。P個全ての予測位置について尤度が算出されると(S32にて「YES」の場合)、物***置算出部532が注目対象物の各予測位置と当該予測位置のそれぞれについて算出された尤度とを用いて注目対象物の物***置を算出する(S33)。現時刻について算出された物***置は1時刻前までに記憶部4に記憶させた注目対象物の物***置と対応付けて追記される。なお、新規出現した対象物の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物***置なしと判定する。
制御部5は未処理の対象物が残っている場合(S34にて「NO」の場合)、当該対象物について物***置を判定する処理(ステップS25〜S33)を繰り返す。一方、全ての対象物について物***置を判定すると、物体の新規出現と消失を判定する(S35)。具体的には、制御部5は各物***置に対応する推定投影領域を合成して、変化画素抽出部51により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが対象物とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部4に記録する。また、物***置なしの対象物があれば当該対象物が消失した旨を記憶部4に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS20へ戻る。
上記実施形態では移動物体追跡装置1は1つの撮像部2を用いて対象物の推定投影領域に基づく対象物の追跡を行った。別の実施形態として、同期制御された複数の撮像部2により撮像された監視画像を処理して対象物の推定投影領域に基づく追跡を行う構成とすることもできる。この場合、カメラパラメータ41は各撮像部2に対して設定され、撮像部2ごとに事前処理が行われて撮像部2ごとに各位置と推定投影領域とを対応付けた推定投影領域データ42が作成され記憶される。三次元モデル40及び予測位置は複数の撮像部2間で共有する。前置対象物による注目対象物の隠蔽に伴う修正処理及び修正された推定投影領域を用いた尤度算出は各撮像部2の監視画像及び推定投影領域データ42を用いて撮像部2ごとに行われる。撮像部2ごとに算出された尤度のうち同じ予測位置に関する尤度が統合されて各予測位置の統合尤度が算出され、統合尤度に基づき物***置が判定される。
上記実施形態では人物を対象物として追跡を行ったが対象物はこれに限らず、車両等の移動物体とすることもできる。
1 移動物体追跡装置、2 撮像部、3 設定入力部、4 記憶部、5 制御部、6 出力部、40 三次元モデル、41 カメラパラメータ、42 推定投影領域データ、43 推定投影領域、50 設置物隠蔽推定部、51 変化画素抽出部、52 位置予測部、53 対象物判定部、54 異常判定部、100 基準面、101 カメラ位置、102 対象物モデル、103,104 設置物モデル、530 対象物隠蔽推定部、531 尤度算出部、532 物***置算出部。

Claims (4)

  1. 設置物が設置された実空間が予め定められた投影条件で投影された実写画像に基づいて前記実空間における対象物の存在を判定する対象物画像判定装置であって、
    前記対象物が存在していない前記実空間を模した仮想空間が前記投影条件にて投影された仮想画像内において当該仮想空間に配置された前記対象物の立体モデルが前記設置物により隠蔽されずに投影される画像領域を前記対象物の推定投影領域とし、当該立体モデルが配置された前記仮想空間内の位置と対応付けて予め記憶する記憶部と、
    前記実空間の前記実写画像、及び当該実空間にて前記対象物が存在し得る候補位置を入力され、当該候補位置に対応する前記推定投影領域を前記記憶部から読み出して、入力された前記実写画像における当該推定投影領域の画像特徴から前記対象物の存在を判定する対象物判定部と、
    を有することを特徴とする対象物画像判定装置。
  2. 請求項1に記載の対象物画像判定装置において、
    前記対象物判定部は、
    複数の前記対象物について前記候補位置を入力された場合に、当該候補位置から前記対象物相互の前記実写画像における前後関係を求め、
    当該複数の対象物のそれぞれを注目対象物に設定し、前記記憶部から読み出した当該注目対象物の前記推定投影領域に対して前記前後関係にて当該注目対象物より前に位置する前置対象物の前記推定投影領域との重複部分を除く修正処理を行ってから当該注目対象物の存在を判定すること、
    を特徴とする対象物画像判定装置。
  3. 請求項2に記載の対象物画像判定装置において、
    前記対象物判定部は、
    前記対象物ごとに複数の前記候補位置を入力され、前記注目対象物について当該複数の候補位置ごとに前記推定投影領域における前記画像特徴の対象物らしさの度合いを算出し、当該度合いにて前記対象物の存在する可能性に重み付けた前記複数の候補位置を用いて当該注目対象物の存在位置を判定し、
    前記修正処理において、前記注目対象物に対する前記前置対象物について前記存在位置が求められている場合には、当該前置対象物の前記推定投影領域として前記存在位置に対応するものを用いること、
    を特徴とする対象物画像判定装置。
  4. 請求項3に記載の対象物画像判定装置において、
    前記対象物判定部は、前記前後関係にて前から後へ向かう順序で前記注目対象物を設定すること、を特徴とする対象物画像判定装置。
JP2011015147A 2011-01-27 2011-01-27 対象物画像判定装置 Pending JP2012155595A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011015147A JP2012155595A (ja) 2011-01-27 2011-01-27 対象物画像判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011015147A JP2012155595A (ja) 2011-01-27 2011-01-27 対象物画像判定装置

Publications (1)

Publication Number Publication Date
JP2012155595A true JP2012155595A (ja) 2012-08-16

Family

ID=46837240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011015147A Pending JP2012155595A (ja) 2011-01-27 2011-01-27 対象物画像判定装置

Country Status (1)

Country Link
JP (1) JP2012155595A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014087622A1 (ja) * 2012-12-06 2014-06-12 日本電気株式会社 見え方提示システム、方法およびプログラム
CN107265213A (zh) * 2016-03-30 2017-10-20 株式会社日立制作所 电梯装置和电梯控制方法
JP2018136832A (ja) * 2017-02-23 2018-08-30 セコム株式会社 対象物画像推定装置および対象物画像判定装置
JP2018136831A (ja) * 2017-02-23 2018-08-30 セコム株式会社 対象物画像判定装置
JP7519933B2 (ja) 2021-02-18 2024-07-22 三菱電機株式会社 オブジェクト検出装置及び方法、並びに学習データ収集装置、並びにプログラム及び記録媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6542621B1 (en) * 1998-08-31 2003-04-01 Texas Instruments Incorporated Method of dealing with occlusion when tracking multiple objects and people in video sequences
JP2005165791A (ja) * 2003-12-03 2005-06-23 Fuji Xerox Co Ltd 対象物の追跡方法及び追跡システム
EP2037410A1 (en) * 2007-09-14 2009-03-18 Thomson Licensing Method for tracking an object in a sequence of images and device implementing said method
JP2010002976A (ja) * 2008-06-18 2010-01-07 Secom Co Ltd 画像監視装置
JP2010049297A (ja) * 2008-08-19 2010-03-04 Secom Co Ltd 画像監視装置
JP2010251849A (ja) * 2009-04-10 2010-11-04 Victor Co Of Japan Ltd 目標追尾装置、目標追尾方法
JP2011013925A (ja) * 2009-07-02 2011-01-20 Secom Co Ltd 対象物検知装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6542621B1 (en) * 1998-08-31 2003-04-01 Texas Instruments Incorporated Method of dealing with occlusion when tracking multiple objects and people in video sequences
JP2005165791A (ja) * 2003-12-03 2005-06-23 Fuji Xerox Co Ltd 対象物の追跡方法及び追跡システム
EP2037410A1 (en) * 2007-09-14 2009-03-18 Thomson Licensing Method for tracking an object in a sequence of images and device implementing said method
JP2010002976A (ja) * 2008-06-18 2010-01-07 Secom Co Ltd 画像監視装置
JP2010049297A (ja) * 2008-08-19 2010-03-04 Secom Co Ltd 画像監視装置
JP2010251849A (ja) * 2009-04-10 2010-11-04 Victor Co Of Japan Ltd 目標追尾装置、目標追尾方法
JP2011013925A (ja) * 2009-07-02 2011-01-20 Secom Co Ltd 対象物検知装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大澤達哉外5名: "MCMC法に基づく対象と環境に三次元モデルを用いた人物追跡", 電子情報通信学会論文誌D, vol. 91, no. 8, JPN6014024142, 1 August 2008 (2008-08-01), JP, pages 2137 - 2147, ISSN: 0002830176 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014087622A1 (ja) * 2012-12-06 2014-06-12 日本電気株式会社 見え方提示システム、方法およびプログラム
JPWO2014087622A1 (ja) * 2012-12-06 2017-01-05 日本電気株式会社 見え方提示システム、方法およびプログラム
US9811738B2 (en) 2012-12-06 2017-11-07 Nec Corporation Appearance presentation system, method, and program
CN107265213A (zh) * 2016-03-30 2017-10-20 株式会社日立制作所 电梯装置和电梯控制方法
JP2018136832A (ja) * 2017-02-23 2018-08-30 セコム株式会社 対象物画像推定装置および対象物画像判定装置
JP2018136831A (ja) * 2017-02-23 2018-08-30 セコム株式会社 対象物画像判定装置
JP7519933B2 (ja) 2021-02-18 2024-07-22 三菱電機株式会社 オブジェクト検出装置及び方法、並びに学習データ収集装置、並びにプログラム及び記録媒体

Similar Documents

Publication Publication Date Title
JP6622894B2 (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
CN105678748B (zh) 三维监控***中基于三维重构的交互式标定方法和装置
JP5667846B2 (ja) 対象物画像判定装置
US8594425B2 (en) Analysis of three-dimensional scenes
KR101616926B1 (ko) 영상 처리 장치 및 방법
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
JP5687082B2 (ja) 移動物体追跡装置
JP5687035B2 (ja) 人物追跡装置
KR20140114741A (ko) 인체 포즈 추정 장치 및 방법
JP5366258B2 (ja) 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2012155595A (ja) 対象物画像判定装置
JP5027758B2 (ja) 画像監視装置
JP5101429B2 (ja) 画像監視装置
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
JP5552069B2 (ja) 移動物体追跡装置
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
KR20190129433A (ko) 파노라마 영상 생성 방법 및 그 장치
WO2020153264A1 (ja) 校正方法および校正装置
JP2011151459A (ja) 合成表示装置
Brunelli et al. A generative approach to audio-visual person tracking
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP6548683B2 (ja) 対象物画像推定装置および対象物画像判定装置
JPWO2019016879A1 (ja) 物体検出装置、及び、物体検出手法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150630