以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、例えば、ビルのエントランスや金融機関のATMコーナー等の監視空間にて対象物として人を検出・追跡する。画像監視装置1はさらに、その追跡結果に基づいて、例えば、長時間滞留する不審人物を検出し、異常を報知する等の処理を行うように構成されている。
図1は、実施形態に係る画像監視装置1のブロック構成図である。画像監視装置1は、撮像部2、操作部3、記憶部4、制御部5及び出力部6を含んで構成される。
撮像部2は、監視カメラであり、監視空間内に設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は制御部5へ出力される。以下、撮像部2の撮像タイミングを時刻と称する。監視空間をX,Y,Z軸からなる直交座標系で表し、鉛直上方をZ軸の正方向に設定すると、XY平面内での人の位置、移動を把握するため、撮像部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では撮像部2は、監視カメラの光軸を鉛直下方(Z軸負方向)に向けて天井に設置される。
操作部3は、管理者が制御部5に対して各種設定を行うための入力手段であり、例えば、タッチパネルディスプレイ等のユーザインターフェース装置である。
記憶部4は、RAM、ROM、ハードディスク等の記憶装置であり、制御部5に接続される。記憶部4は、制御部5で使用されるプログラムやデータを記憶する。これに記憶されるデータには、物体情報40、移動軌跡41、及び撮像条件42が含まれる。
物体情報40は、監視空間内に検出された対象物体に関する情報であり、対象物体ごとに識別可能に記憶される。物体情報40は、物体モデル400、参照画像401、参照画像隠蔽度402、参照画像取得位置404を含む。
物体モデル400は、対象物体を構成する複数の構成部分毎の立体形状を表す部分モデルと、それら部分モデル相互の配置関係とを記述したデータである。画像監視装置1が監視対象とする対象物体は人であり、本実施形態では、例えば、人の構成部分として頭部、胴部、脚部の3つが設定される。また、各構成部分の立体形状を近似的に表す部分モデルとして、長軸が鉛直方向に設定され短軸が水平方向に設定された楕円を鉛直軸(Z軸)の周りに回転させて得られる回転楕円体を用いる。図2には、XYZ空間内での物体モデル400が模式的に示されている。物体モデル400は、脚部の部分モデルの下端を床面又は地表面等の基準面(Z=0)に接地し、その脚部の部分モデルの上に胴部、頭部の部分モデルを順にZ軸方向に積み重ねた配置関係を有する。基準面から頭部中心までの高さh、胴部の最大幅w(胴部短軸直径)は対象物体毎に設定する。高さhに対する頭部中心から胴部中心までの長さ、頭部中心から脚部中心までの長さ、頭部長軸半径、胴部長軸半径及び脚部長軸半径それぞれの比と、幅wに対する頭部短軸半径及び脚部短軸半径それぞれの比とは、各対象物体に共通の値に設定する。このようにして物体モデル400の高さ及び幅が対象物体毎に設定され、これにより、後述する隠蔽状態の推定及び各構成部分の画像抽出が対象物体の体格差の影響を受けにくくなり、精度良い抽出処理が可能となる。なお、撮像部2との位置関係から、頭部は他の構成部分に隠蔽されにくく、監視画像に良好に現れることから、頭部中心を基準としている。
参照画像401は対象物体を特徴付ける画像情報である。参照画像401は、対象物体それぞれについて、構成部分毎に記憶される。追跡の過程で撮像部2により撮像された画像から各対象物体の各構成部分の画像(部分画像)が抽出され、当該部分画像のうち後述の処理に従い選択されたものが参照画像401として記憶される。以下、構成部分pの参照画像401をFpと表す。
参照画像隠蔽度402は、参照画像401の隠蔽状態の度合いを表すデータであり、参照画像401のそれぞれに対応して記憶される。具体的には、構成部分pについて他の構成部分が存在しなければ撮像されたであろう画像のうち、他の構成部分に隠れて参照画像Fpに現れていない部分の割合が当該構成部分pの参照画像隠蔽度402である。以下、参照画像Fpの参照画像隠蔽度402をEpと表す。追跡の過程で部分画像の抽出と共に推定される隠蔽度のうち、参照画像Fpとされる部分画像に対応するものが参照画像隠蔽度Epとして記憶される。
参照画像取得位置404は、対象物体のそれぞれの参照画像401が取得されたときの当該対象物体の位置であり、参照画像401のそれぞれに対応して記憶される。
移動軌跡41は、各対象物体の位置(以下、物***置)の履歴である。物***置は頭部中心の3次元座標とする。
撮像条件42は、撮像部2が監視空間を透視投影した監視画像を撮影する際の投影条件に関する情報を含む。例えば、実際の監視空間における撮像部2の設置位置及び撮像方向といった外部パラメータ、撮像部2の焦点距離、画角、レンズ歪みその他のレンズ特性や、撮像素子の画素数といった内部パラメータを含む。実際に計測するなどして得られたこれらのパラメータが、画像監視装置1の使用に際して予め操作部3から入力され、記憶部4に格納される。
撮像条件42は、監視空間に仮想的に置かれた物体モデル400を撮像部2の撮像面に投影する処理に用いられる。例えば、公知のピンホールカメラモデル等のカメラモデルに撮像条件42を適用して、監視空間の任意の位置座標を監視画像の座標系へ変換する座標変換式や、監視画像内の任意の位置座標を監視空間の座標系へ変換する座標変換式を設定できる。図2は、当該座標変換を説明する模式図であり、XYZ座標系で定義される監視空間70に配置した物体モデル400と撮像面71上の投影像との間の変換を示している。
上記座標変換式を用いると、監視空間70内の位置Q0に仮想配置された物体モデル400を撮像面71へ投影でき(図中の矢印73)、投影像として2次元画像72aを得ることができる。また、上記座標変換式を用いると、撮像面71から監視空間70への逆射影を行うことができ、これにより、監視画像上の2次元画像72aが、位置Q0に置かれた物体モデル400の表面に投影され(図中の矢印74)、2次元画像72aのテクスチャが物体モデル400の表面に貼り付けられた3次元テクスチャを得ることができる。
さらに、上記座標変換式を用いると、位置Q0と対応する位置にある監視画像上の2次元画像72aを、監視空間70内の別の位置Q1と対応する監視画像上の位置に写像することができる。この写像は、2次元画像72aを位置Q0に仮想配置された物体モデル400の表面に投影し(図中の矢印74)、この物体モデル400を位置Q1に移動又は複製した後(図中の矢印75)、撮像面71へ投影する(図中の矢印76)ことで実現される。
制御部5は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、撮像部2、記憶部4及び出力部6と接続される。制御部5は、記憶部4からプログラムを読み出して実行し、物体像抽出手段50、追跡手段52、異常判定手段54として機能する。制御部5は、撮像部2から入力される監視画像を画像処理して物体の追跡、不審者の検出等を行い、不審者を検出すると異常信号を出力部6へ出力する。
物体像抽出手段50は、撮像部2により得られた監視画像から対象物体の物体像を抽出し、抽出された物体像の情報を物体判定手段526へ出力する。具体的には、物体像抽出手段50は、対象物体が映っていないと判断する監視画像を背景画像に設定し、記憶部4に格納する。そして、物体像抽出手段50は、撮像部2から監視画像を入力されると、当該監視画像と背景画像との差分処理を行い、背景画像に存在しない像を検出し、検出した像のうち所定値以上の大きさを有する像を物体像として抽出する。ここで、所定値はノイズによる像を除去するための閾値であり、予め設定される。
追跡手段52は、監視画像内に参照画像401と一致する像を同定することにより時刻毎に対象物体を検出し、移動軌跡を生成する。追跡手段52は、位置予測手段520、部分画像抽出手段522、物体判定手段526及び物体情報更新手段528を含んで構成される。
位置予測手段520は、移動軌跡41(過去の物***置)に等速運動モデル等の運動モデル、又はカルマンフィルタ等の予測フィルタを適用することにより、現時刻における物***置を予測する。位置予測手段520は、運動モデル又は予測フィルタにより直接的に得られる現時刻の予測位置に加え、その周りに、運動の変化による予測の誤りを吸収するために複数の予測位置をさらに設定する。その際、中心の予測位置を最頻値とする正規分布等の確率関数を設定し、確率の高い領域ほど予測位置を密に分布させることが好ましい。なお、対象物体は基準面に接地して立っているとの拘束条件から予測位置の高さには物体モデル400の高さhを設定する。
部分画像抽出手段522は、位置予測手段520から対象物体の位置を入力されると、監視空間70内の当該位置に物体モデル400を仮想的に配置し、撮像条件42を用いて物体モデル400を撮像部2の撮像面71に投影する。また、部分画像抽出手段522は、各構成部分に対応する部分モデルの投影像と重なる監視画像の一部を当該構成部分の部分画像として抽出するとともに、構成部分間での部分モデルの投影像の重複関係から各構成部分の隠蔽度を算出する。以下、構成部分pに対応して抽出される部分画像をfp、構成部分pについて算出される隠蔽度をepと表す。
部分画像抽出手段522による処理が行われるのは次の3つの場合であり、それぞれの場合にて、部分画像抽出手段522に入力される位置には違いがある。第1の場合は、新規出現した物体の物体情報40を生成する場合であり、この場合には、物体像抽出手段50が物体像を抽出した位置が入力される。第2の場合は、物体の同定を行う場合であり、この場合には、位置予測手段520により設定された予測位置が入力される。第3の場合は、物体情報40を更新する場合であり、この場合には、物体判定手段526により決定された物体の現在位置が入力される。
図3は、部分画像抽出手段522の処理の説明図である。図3を参照して、部分画像抽出手段522の処理を詳細に説明する。
まず、撮像条件42を用いて撮像面に各部分モデルを単独で投影し、隠蔽がない場合の各構成部分の投影像の全体領域80を演算する。これにより、頭部の全体領域80a、胴部の全体領域80b、脚部の全体領域80cが求められる。
次に、各構成部分について当該構成部分よりも撮像部2に近い構成部分の部分モデルを投影し、監視画像上で当該構成部分を隠蔽し得る領域である隠蔽領域81を演算する。本実施形態では、各構成部分と撮像部2との距離は頭部・胴部・脚部の順に近く、この順序は予め設定しておくことができる。頭部の部分モデルに対しては、それより投影線上、手前の他の部分モデルはないので、隠蔽領域は存在しない。一方、胴部の部分モデルに対しては、頭部の部分モデルが手前に位置するので、その投影像が胴部に対する隠蔽領域81bとなる。また、脚部の部分モデルに対しては、頭部及び胴部の部分モデルが手前に位置するので、それらの投影像が脚部に対する隠蔽領域81cとなる。
なお、上記順序は、撮像部2と各部分モデルとの距離を算出して比較することによって判定してもよい。また、隠蔽領域81はさらに当該対象物体より手前に位置する他の対象物体の部分モデルが投影された領域を減じて演算することもできる。
続いて、各構成部分の全体領域80から当該構成部分の隠蔽領域81との重複部分を除くことにより、監視画像上で現に当該構成部分を観測可能な領域である観測領域82(部分モデル可視領域)を演算する。その結果、頭部に対しては隠蔽を生じていない観測領域82aが得られ、一方、胴部、脚部については楕円の一部が隠蔽された形状の観測領域82b,82cが得られる。
部分画像抽出手段522は、監視画像のうち、こうして求められた各構成部分の観測領域82と重なる部分を各構成部分毎の部分画像として抽出する。また、各構成部分について、次式に示すように、全体領域80の面積S1から観測領域82の面積S2を減じた値を全体領域80の面積S1で除することで隠蔽度epを算出する。
ep=(S1−S2)/S1 ………(1)
部分画像抽出手段522は、物体の同定を行う場合には、位置予測手段520から入力される予測位置を対象物体が存在し得る監視空間内の候補位置として、当該候補位置に、物体モデル400を仮想的に配置して、部分画像fp及び隠蔽度epを求める。
物体判定手段526は、部分画像抽出手段522により抽出された部分画像fpと参照画像Fpとを画像特徴について構成部分p毎に比較し、その比較結果を対象物体を構成する複数の構成部分について統合して統合類似度Uを算出する。そして、当該統合類似度Uが所定の判定基準を満たした場合に、候補位置に参照画像と同じ対象物体が存在すると判定する。そして、当該候補位置を対象物体の物***置と定め、当該対象物体の移動軌跡41に追加記憶させる。
具体的には、まず、物体判定手段526は、部分画像抽出手段522により抽出された現時刻の部分画像fpから画像特徴量を抽出し、これと、追跡対象物体の画像情報として記憶部4に記憶されている参照画像401から抽出される画像特徴量とを構成部分p毎に比較して、その比較結果として構成部分毎の類似度upを算出する。例えば、部分画像fpを分析して色ヒストグラムをhfpを算出し、また、参照画像Fpを分析して色ヒストグラムをhFpを算出し、例えば、次式で定義するように両者のユークリッド距離に−1を乗じた値をupとして用いることができる。なお、Σは色ヒストグラムの全要素に関する総和を意味する。
up≡−Σ‖hFp−hfp‖2 ………(2)
次に物体判定手段526は、対象物体毎に各構成部分の類似度upを加算することにより、各対象物体についての上述の統合類似度Uを算出する。そして、統合類似度Uを予め定めた閾値と比較し、Uが閾値以上であれば、現時刻に抽出された物体像が参照画像401の対象物体と同一であると判定する。
構成部分毎の類似度upは当該部分に関する画像部分のみを精度良く抽出した上述の部分画像fpを用いて算出されたものであるので、当該upを統合して物体像の同定を行うことで、構成部分間で隠蔽が生じる場合であっても高精度の同定が可能となる。
ここで、物体判定手段526は、次式に示すように、構成部分p毎に算出した信頼度gpで、部分類似度upを重み付けし、重み付けされた構成部分p毎の類似度を統合して統合類似度Uを算出するように構成できる。ここで次式のΣはpについての総和、すなわち、構成部分(頭部、胴部、脚部)について合計することを意味する。こうすることで、信頼度が高い構成部分ほど同定に大きく寄与させることができ、物体像を高精度に同定できる。
U≡Σgpup ………(3)
信頼度gpは隠蔽度ep、参照画像隠蔽度Epの関数として予め設定される。信頼度gpの一例は、次式で定義されるgpである。
gp≡αmax(Ep,ep)+β (但し、α>0,β≧0) ………(4)
ちなみに、(4)式の信頼度gpを用いることで、部分類似度upが部分画像fpと参照画像Fpとのうち、部分画像fpの隠蔽度epと参照画像隠蔽度Epとのいずれか高い方、すなわち情報量が少ない方の画像に対応した信頼性しか有していないことを考慮に入れた同定が行われる。
ここで、比較される部分画像fpと参照画像Fpとは、一般的には、互いに異なる物***置に置かれた物体モデルや対象物体によるものであり、画像の形状や隠蔽状態が異なる。そして、隠蔽状態が異なるもの同士を比較すると、比較結果に誤差が含まれやすい。つまり、部分画像fpと参照画像Fpとの一方のみで隠蔽されており他方で隠蔽されていない領域は、比較結果の精度を低下させる。そこで、撮像条件42を用いて部分画像fpと参照画像Fpとを、互いに共通の位置(基準位置)に対象物体又は物体モデルが存在するとした場合の形状に座標変換して、変換後の両画像fp,Fp内の同じ位置を構成部分内の共通の位置に対応付ける。そして、座標変換後の部分画像fp(基準部分画像)と座標変換後の参照画像Fp(基準参照画像)とを互いに重ね合わせて、重複する共通領域を求め、求められた共通領域において上記比較を行う。これによって、部分画像fpと参照画像Fpとの一方のみで隠蔽されている領域を除いた比較が行われるので、比較結果の精度を向上させることができる。
図4,図5は、部分画像fpと参照画像Fpとを基準位置に配置した共通の物体モデルにより得られる基準投影像上に座標変換する具体例を説明する模式図である。
図4に示す例では、基準位置は、参照画像取得位置404に記憶されている物***置QRに設定される。部分画像fp(像90)を参照画像取得位置404(位置QR)に置かれた物体モデルの投影像に射影して射影像92を生成する。この像92は参照画像Fp(像91)の位置に射影される。そして、当該射影像92と参照画像Fp(像91)との共通領域を算出し、共通領域における射影像92の色ヒストグラムhfpと参照画像Fpの色ヒストグラムhFpを比較する。像90から像92への射影をより詳細に説明すると、位置QIの物体モデル400aの投影像である像90を、当該物体モデルへ逆投影し(逆投影ステップ)、当該物体モデルを位置QRへ座標変換する(移動ステップ)。この物体モデルの座標変換は、位置QIの物体モデル400aにて撮像部2に向いている面が位置QRへの移動後も撮像部2に向くように、撮像部2の光軸を中心とする回転移動と光軸からの距離方向の並進移動とを合成した変換により行うのが好適である。物体モデル400aを位置QRに移動後、これを撮像部2の撮像面71に投影して(投影ステップ)、射影像92を得ることができる。これら逆投影ステップ、移動ステップ及び投影ステップは、図4(a)にて太い矢印で表されている。図4(b)は、像90,92における各部分画像fpと、像91における参照画像Fpとを模式的に示している。
図5に示す例では、基準位置は、部分画像fpの投影元となる物体モデル400bの位置、すなわち候補位置QIに設定される。参照画像Fp(像91)を、位置QIに置かれた物体モデル400bの投影像に射影して射影像93を生成する。この像93は部分画像fp(像90)の位置に射影される。そして、当該射影像93と部分画像fp(像90)との共通領域を算出し、共通領域における射影像93の色ヒストグラムhFpと部分画像fpの色ヒストグラムhfpを比較する。像91から像93への射影は、図4に示す場合とは逆向きに行われ、その一連の逆投影ステップ、移動ステップ及び投影ステップは、図5(a)にて太い矢印で表されている。図5(b)は、像91,93における各参照画像Fpと、像90における部分画像fpとを模式的に示している。
また、部分画像fpと参照画像Fpとの比較を監視空間70の座標系にて行うことも可能である。図6は、部分画像fp及び参照画像Fpをそれぞれ監視空間70に配置された物体モデル400a,400bに逆投影して、それら物体モデル間にて部分画像fp及び参照画像Fpを比較する例を説明する模式図である。この場合には、部分画像fp(像90)を候補位置(位置QI)に仮想配置した物体モデル400aに逆投影して3次元テクスチャ94を算出し、参照画像Fp(像91)を参照画像取得位置404(位置QR)に仮想配置した物体モデル400bに逆投影して3次元テクスチャ95を算出し、2つの物体モデル400a及び400bを重ね合わせて共通領域を算出し、共通領域における色ヒストグラムを比較する。図6(a)は像90,91から物体モデル400a,400bへの逆投影を示す模式図であり、図6(b)は、部分画像fpに対応する3次元テクスチャ94と参照画像Fpに対応する3次元テクスチャ95との模式図である。
ここで、部分画像抽出手段522により抽出された部分画像fpと参照画像Fpとの間の比較誤差は解像度の違いによっても生じる。すなわち、解像度が高いものと低いものとを比較すると解像度が高い側の色ヒストグラムにのみ存在する高周波成分が比較誤差の要因となる。解像度は対象物体と撮像部2との間の距離が遠いほど低くなる。そこで、撮像条件42及び参照画像取得位置404から、撮像部2と参照画像取得位置404の間の距離dRを、撮像条件42及び予測位置(候補位置)から撮像部2と予測位置との問の距離dIをそれぞれ算出し、これら距離を比較し、距離が遠い側へ射影して上記比較を行う。すなわち、部分画像と参照画像とのうち視点からの距離が近く解像度が高い一方画像を、距離が遠く解像度が低い他方画像に合わせて変換するので、解像度を揃えて比較することができる。これにより、解像度が高い画像が有する高周波成分により生じる誤差を低減した比較が行われ、対象物体の検出や追跡の精度が向上する。
具体的には、dR≦dIの場合は、図5を用いて説明したように、参照画像Fpを予測位置に対応した像へ射影し、dR>dIの場合は、図4を用いて説明したように、部分画像fpを参照画像取得位置404に対応した像へ射影する。これにより解像度の違いにより生じる比較誤差が低減され、比較結果の精度を向上させることができる。
ここで、対象物体には、短いスカートや短パンを着用した人物のように1つの構成部分内に複数の特徴が層をなして分布しているものもある。そこで、物体モデル400を構成する部分モデルの表面に高さ方向に層をなして複数の水平帯状領域を設定し、当該水平帯状領域を撮像面71に投影した投影像に対応させて、共通領域を複数の小領域に分割し、小領域ごとの色ヒストグラムを比較する。これにより、構成部分内において画像特徴が層状に分布している対象物体を精度よく判定できる。
なお、監視画像上において、物体モデル400の高さh方向は、監視画像の中心と参照画像取得位置404に対応する点或いは予測位置に対応する点を結ぶ直線の方向として特定できる。また、上記直線は監視空間70に仮想配置された物体モデル400の最下端と最上端を結ぶ直線を監視画像に投影することによって求めることもできる。ちなみに、監視空間70において、高さh方向は鉛直方向である。
また、小領域への分割は、小領域の高さを固定値として分割してもよいし、小領域の数を固定値として分割してもよいし、監視画像上のスケールで分割してもよいし、物体モデル400上のスケールで分割してもよい。
物体情報更新手段528は、物体判定手段526により位置が判定された対象物体について、判定された位置において部分画像抽出手段522により算出された隠蔽度epが参照画像隠蔽度Ep以下の場合に、物体情報40を現時刻の画像情報により更新する。逆に、隠蔽度epが参照画像隠蔽度Epを超えている場合は物体情報40の更新を行わない。
物体情報40の更新では、具体的には、参照画像401として記憶されている参照画像Fpが、判定された位置において部分画像抽出手段522により抽出された部分画像fpにより上書きされる。参照画像隠蔽度402に記憶されている参照画像隠蔽度Epは、判定された位置において部分画像抽出手段522により算出された隠蔽度epにより上書きされる。また、参照画像取得位置404の記憶内容は、判定された物***置により上書きされる。
例えば、図7のように監視画像に映る対象物体の像が像100,101,102,103,104と順に変化した場合、最も隠蔽度が小さい像101に基づいた物体情報が記憶される。この場合、像104が得られたときに、もし一時刻前の像103が参照画像として記憶されていれば脚部の類似度が低下するが、本実施形態の画像監視装置1によれば、像101が参照画像として記憶されており、これにより類似度の低下を防ぐことができる。すなわち、過去に最も隠蔽度が小さかったときの物体情報40が保持されるので、隠蔽状態が変化して隠蔽されている領域が広がっても、その部分の情報が参照画像401から失われることを防止できる。そのため、過去に取得された最大限の情報を用いて物体判定ができ、隠蔽による追跡の失敗を最小限に抑えることができる。
また、物体情報更新手段528は、物体像抽出手段50により抽出された物体像の中に、物体判定手段526により判定された対象物体の位置のいずれにも存在しない物体像があるとき、当該物体像に関する新たな物体情報40を作成する。一方、部分画像抽出手段522により物***置なしと判定された対象物体があるとき、当該対象物体の物体情報40を削除する。
異常判定手段54は、記憶部4に記憶されている移動軌跡41を分析して長時間滞留している物体(不審者)が存在すれば異常と判定して出力部6に異常信号を出力する。具体的には、移動軌跡41のそれぞれに含まれる位置データの数を計数して所定数以上(例 えば10分間相当以上)の位置データを含む移動軌跡41があれば異常と判定する。
出力部6は、センタ装置等の外部装置と通信線により接続され、外部装置へ異常信号を送信する通信回路を備える。
次に、画像監視装置1の動作について説明する。図8は、画像監視装置1の動作の概略のフロー図である。
監視空間が無人であることを確認して管理者が電源を投入すると、画像監視装置1の各部、各手段が動作を開始し、所定の初期化が行われる(S10)。このとき、制御部5は撮像部2からの監視画像を背景画像として記憶部4に記憶させる。
続いて、制御部5は記憶部4に撮像条件42が設定されているかを確認し(S15)、設定されていなければ管理者による操作部3からの撮像条件42の入力を受け付け、入力された撮像条件42を記憶部4に格納する(S20)。その後、撮像部2から制御部5へ監視画像が新たに入力されるたびにS25〜S75の一連の処理が繰り返される。
まず、制御部5は撮像部2が新たに撮像した監視画像を取得し(S25)、制御部5の物体像抽出手段50は取得された監視画像を、記憶部4に記憶されている背景画像と比較して物体像(人物像)を抽出する(S30)。
続く物***置判定処理において制御部5の追跡手段52は、監視画像中に参照画像401が表す対象物体の像を同定することにより、対象物体の現在位置を判定する(S35)。
図9は物***置判定処理S35の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の位置予測手段520は、対象物体の移動軌跡41から当該対象物体の現在位置を予測して、各対象物体それぞれについて複数の予測位置を設定する(S350)。
追跡手段52は各対象物体の予測位置(分布の中心位置)と撮像部2との距離を求め、求めた距離が近い対象物体から順に処理対象に設定し(S351)、処理対象の対象物体について処理S352〜S385を行う。
処理S352〜S384は、処理対象として選択された対象物体の複数の予測位置についてのループ処理となっており、予測位置が順次設定され(S352)、当該設定された予測位置に関して処理S353〜S380が行われる。
まず、制御部5の部分画像抽出手段522は、処理対象の予測位置に物体モデル400を配置して撮像部2の撮像面71に投影することにより各構成部分に対応する部分画像fpを抽出し(S353)、抽出した部分画像fpのそれぞれについて隠蔽度epを算出する(S354)。
次に、制御部5の物体判定手段526は、S354にて算出された隠蔽度ep、及び参照画像隠蔽度Epを(4)式に代入して信頼度gpを算出する(S355)。
続いて、制御部5の物体判定手段526は、処理S353にて抽出された部分画像fpを参照画像Fpと比較して部分類似度upを算出する(S360)。
図10は、部分類似度算出処理S360の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体判定手段526は、各構成部分を順次処理対象に設定して(S361)、処理対象の構成部分について処理S361〜S370を行う。
まず、制御部5の物体判定手段526は、参照画像取得位置404と撮像条件42の一部として記憶されている撮像部2の設置位置とから両者の間の距離dRを算出し(S362)、さらに図9の処理S352にて処理対象に設定された予測位置と撮像部2の位置とから両者の間の距離dIを算出し(S363)、距離dRと距離dIとを比較する(S364)。
距離dRが距離dI以下であれば(S364にてYES)、部分画像fpの方が低解像度であるとして参照画像Fpを予測位置に対応した像へ射影し、(S365)、射影像と部分画像fpとの共通領域を算出する(S366)。
一方、距離dRが距離dIより大きければ(S364にてNO)、参照画像Fpの方が低解像度であるとして部分画像fpを参照画像取得位置404に対応した像へ射影し、(S367)、射影像と参照画像Fpとの共通領域を算出する(S368)。
こうして共通領域が算出されると、共通領域において色ヒストグラムを比較して部分類似度upを算出する(S369)。
以上の処理が全構成部分について終了すると(S370にてYES)、処理は図9の処理S380へ進む。
図9のフローチャートに戻り、物***置判定処理の続きを説明する。
制御部5の物体判定手段526は、部分類似度算出処理S360にて算出された部分類似度upを、処理S355にて算出された信頼度gpにより重み付け加算し、統合類似度Uを算出する(S380)。こうして処理対象の物体に設定された全予測位置について統合類似度Uが算出されると(S381にてYES)、制御部5の物体判定手段526は、最大の統合類似度Uを選択し、選択した統合類似度Uが予め設定された基準値以上であるか否かを判定する(S382)。
基準値以上であれば(S382にてYES)最大の統合類似度Uが算出された予測位置に存在する画像情報を処理対象の物体の像と同定し、当該予測位置を処理対象の物体の物***置と判定する(S383)。
一方、基準値未満であれば(S382にてNO)処理対象の物体を同定せず、処理対象の物体を消失して物***置は不明と判定する(S384)。
以上の処理を全ての物体について終えると(S385にてYES)、制御部5は処理を図8の処理S40へ戻す。
再び図8を参照して全体処理の続きを説明する。
物***置判定処理が終わると、制御部5の物体判定手段526は、判定された物***置を記憶部4の移動軌跡41に追加記憶させる(S40)。なお、処理S30にて抽出された物体像の中に物***置判定処理S35にて判定された物***置に存在しない物体像があれば、当該物体像が示す物***置を新規物体の情報として移動軌跡41に記憶させる。
続いて、制御部5の物体情報更新手段528は、次時刻における物***置判定処理に備えて物体情報40の更新を行う(S45)。
図11は、物体情報更新処理S45の概略のフロー図であり、これを用いて当該処理を説明する。制御部5の物体情報更新手段528は、物体情報40が表す各物体を処理対象に順次、設定し(S450)、処理対象の物体について処理S451〜S456を行う。
まず、制御部5の物体情報更新手段528は、処理対象の物体が図9の処理S383にて物***置が判定された物体であるか否かを確認し(S451)、物***置が判定された物体でなければ消失物体であるとして当該物体の物体情報40を削除する(S452)。
一方、物***置が判定された物体であれば、制御部5の物体情報更新手段528は、各構成部分を順次、処理対象に設定し(S453)、処理対象の構成部分pについて図9のS354にて算出された隠蔽度epと参照画像隠蔽度Epとを比較し(S454)、隠蔽度epが参照画像隠蔽度Epより小さければ(S454にてYES)、処理対象の構成部分pについて物体情報40の更新を行う(S455)。
すなわち、処理S455にて制御部5の物体情報更新手段528は、参照画像Fpを、判定された物***置において図9の処理S353にて抽出された部分画像fpに書き換え、参照画像隠蔽度Epを隠蔽度epに書き換え、参照画像取得位置404を、判定された物***置に書き換える。このように、隠蔽度が最も小さいときの物体情報を保持することで、隠蔽の大小によらない高精度な物体同定が可能になる。
以上の更新を全構成部分について終え(S456にてYES)、さらに全対象物体について終えると(S457にてYES)、処理S458へ移行する。
処理S458にて制御部5の物体情報更新手段528は、図8の処理S30にて抽出された物体像の中に図9のS383にて判定された物***置のいずれにも存在しない物体像があるか否かを確認する。該当する物体像があれば、新規に出現した物体であるとして、当該物体像の画像情報から新たな物体情報40を作成する(S459)。
すなわち、当該物体像内に複数の探索位置を設定し、各探索位置に物体モデル400の全身を投影し、投影像と物体像の形状を比較する。比較の結果、最も形状が一致する探索位置を物***置に決定する。
そして、決定した物***置を部分画像抽出手段522に与えて部分画像の抽出と隠蔽度の算出とを行わせ、抽出された各部分画像を参照画像Fp、算出された各隠蔽度を参照画像隠蔽度Ep、物***置を参照画像取得位置404としてそれぞれ記憶部4に記憶させる。
また、このとき、物体モデル400の高さ及び幅を、標準的な対象物体の高さ及び幅を基準とする所定範囲内で複数設定して探索を行い、最も形状が一致する高さ及び幅を新たな物体情報の物体モデル400の高さh及び幅wとする。
こうして物体情報更新処理が終了すると、制御部5は処理を図8の処理S55へ戻す。
再び図8を参照して全体処理の続きを説明する。
物体情報更新処理を終えると、制御部5は、全物体が消失しているか否かを確認する(S55)。全物体が消失している場合(S55にてYES)、制御部5の物体像抽出手段50は記憶部4に記憶されている背景画像を監視画像により更新する(S60)。その後、制御部5は処理をS25へ戻す。
一方、1以上の物体が存在する場合(S55にてNO)、制御部5の異常判定手段54は、移動軌跡41を分析して異常な移動軌跡41を有する物体が存在するか否かを判定し(S65)、異常があれば(S70にてYES)異常判定手段54は出力部6に異常を判定された物体の位置及び監視画像を含む異常信号を出力する(S75)。異常信号が入力された出力部6は該信号をセンタ装置へ送信する。センタ装置は異常信号に含まれる情報を表示して監視員へ異常を報知し、表示を見た監視員は不審者の排除などの対処を行う。
一方、異常が判定されない場合(S70にてNO)、処理S75はスキップされる。
以上の処理が終了すると、制御部5は処理を再びS25へ戻す。
上述の実施形態では、部分画像抽出手段522が隠蔽度を算出する例を示したが、これに代えて非隠蔽度を算出してもよい。非隠蔽度は、各構成部分について、当該構成部分の全体領域の面積に対する当該構成部分の観測領域の面積の比(S2/S1)として算出できる。この場合、物体情報更新手段528は非隠蔽度が高い場合に物体情報40を更新すればよい。
また、上述の実施形態では、統合類似度Uが最大の候補位置を物***置と判定した。別の実施形態では、統合類似度Uが判定基準を満たした複数の候補位置を平均して、或いは統合類似度Uにより重み付け平均して、物***置を算出する。
また、画像特徴量は、色ヒストグラムに限らず、輝度ヒストグラム、エッジ強度のヒストグラム、エッジ方向のヒストグラム、又はテクスチャなど種々の画像特徴量を採用することができる。2以上の画像特徴量を組み合わせても良い。
1 画像監視装置、2 撮像部、3 操作部、4 記憶部、5 制御部、6 出力部、40 物体情報、41 移動軌跡、42 撮像条件、50 物体像抽出手段、52 追跡手段、54 異常判定手段、400 物体モデル、401 参照画像、402 参照画像隠蔽度、404 参照画像取得位置、520 位置予測手段、522 部分画像抽出手段、526 物体判定手段、528 物体情報更新手段。