JP6548682B2 - 対象物画像判定装置 - Google Patents

対象物画像判定装置 Download PDF

Info

Publication number
JP6548682B2
JP6548682B2 JP2017032053A JP2017032053A JP6548682B2 JP 6548682 B2 JP6548682 B2 JP 6548682B2 JP 2017032053 A JP2017032053 A JP 2017032053A JP 2017032053 A JP2017032053 A JP 2017032053A JP 6548682 B2 JP6548682 B2 JP 6548682B2
Authority
JP
Japan
Prior art keywords
distance
image
model
pixel
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017032053A
Other languages
English (en)
Other versions
JP2018136831A (ja
Inventor
昌宏 前田
昌宏 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017032053A priority Critical patent/JP6548682B2/ja
Publication of JP2018136831A publication Critical patent/JP2018136831A/ja
Application granted granted Critical
Publication of JP6548682B2 publication Critical patent/JP6548682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像における対象物の像の存在を判定する対象物画像判定装置に関し、特に什器等の設置物により画像上で隠蔽され得る対象物の像の存在を判定する対象物画像判定装置に関する。
監視空間を撮像した監視画像から人物などの監視対象物の像を抽出したり、当該像の画像特徴に基づいて監視対象物の存在を判定したり追跡したりすることが行われている。監視画像においては常に監視対象物の全体像が観測できるとは限らず、監視空間内の什器や柱、さらには他の人物などによりその一部がしばしば隠蔽される。この隠蔽は監視対象物の観測される大きさや色成分などの画像特徴を変動させるため、検知失敗や追跡失敗の原因となる。
そこで、三次元のモデルを用いて隠蔽をシミュレートすることにより監視画像において隠蔽されていない監視対象物の領域(対象物可視領域)を推定し、対象物可視領域の画像特徴から対象物の像の存在を判定することにより画像特徴の変動による検知失敗や追跡失敗を防ぐことが行われている。
また、このシミュレーションにおける三次元のモデルの投影処理は処理負荷が大きくリアルタイムでの検知や追跡を困難化させるため、事前の投影処理により処理負荷の低減が図られている。
例えば、特許文献1,2に記載の対象物画像判定装置では、人物等の対象物、および監視空間の設置物それぞれについて予め三次元モデルの投影を行って、対象物モデル像および設置物モデル像それぞれと床面座標との対応関係、並びに設置物により隠蔽が生じる床面位置のマップを生成して記憶部に格納しておき、人物位置が隠蔽位置であれば、当該人物位置に対応する対象物モデル像から設置物モデル像との重複部分を除外して対象物可視領域を求める。
特開2012−108574号公報 特開2012−155595号公報
しかしながら、従来技術では、設置物ごとのモデル投影像や床面座標ごとの対応関係を格納していたため、監視空間の複雑さや広さに応じて記憶容量を増やさなければならず、また、設置物のレイアウト変更等に際して事前処理の手間が大きくなるという問題があった。
すなわち、従来技術では、床面上の隠蔽位置と二次元の設置物モデル像(いわば設置物の垂直断面)とを対応付けていたため、カメラから見て奥行き方向に凹凸のある複雑な設置物については、隠蔽位置を複数設定して隠蔽位置ごとに異なる設置物のモデル像を記憶させなくてはならなかった。
また、従来技術では、設置物ごとに設置物モデル像を記憶させていたため、設置物の数が増加すると、設置物モデル像を記憶させるための容量を増やさなければならなかった。
また、従来技術では、監視空間内での位置ごとに隠蔽の有無および設置物モデル像との対応関係を記憶させていたため、監視空間の広さに応じて隠蔽の有無および設置物モデル像との対応関係を記憶させるための容量を増やさなければならなかった。
さらに、従来技術では、立位の人物のように奥行きの幅が無視できる物体を監視対象物としており、倒れている人物(臥位の人物)のように手前と奥とで隠蔽状況が異なり得る監視対象物に対する推定精度が低下していた。
本発明は上記問題を鑑みてなされたものであり、監視空間の複雑さや広さが増しても設置物について必要な記憶容量の変わらない対象物画像判定装置を提供することを目的とする。また、本発明は、臥位の人物のように奥行きの長い監視対象物についても、その像の存在を高精度に判定できる対象物画像判定装置を提供することを別の目的とする。
(1)本発明に係る対象物画像判定装置は、撮影手段により所定の三次元空間を撮影した画像における対象物の像の存在を、前記三次元空間における所定の線形部分空間にて定義される長手方向の主軸を有した前記対象物の立体モデルを用いて判定する装置であって、前記撮影手段の視線ベクトルの前記線形部分空間に直交する成分の大きさを射影距離と定義し、前記画像の各画素に対応付けて、当該画素に対応する前記視線ベクトルの前記三次元空間内の設置物までの前記射影距離を記憶した設置物距離記憶手段と、前記対象物が存在し得る前記三次元空間内の候補位置を設定する候補設定手段と、前記候補位置での前記立体モデルを前記画像の座標系に投影したモデル像を出力するモデル像出力手段と、前記候補位置までの前記射影距離を算出するモデル距離算出手段と、前記立体モデルの前記モデル像を構成する画素のうち、当該画素に対応して前記設置物距離記憶手段に記憶されている前記射影距離が当該立体モデルの前記候補位置までの前記射影距離以上である画素を対象物可視画素と推定する可視領域推定手段と、前記画像における前記対象物可視画素の画像特徴から前記対象物の像の存在を判定する対象物判定手段と、を有する。
(2)上記(1)に記載の対象物画像判定装置において、前記線形部分空間は鉛直方向の直線であり、前記射影距離は前記視線ベクトルを水平面に正射影した像の長さで定義される水平距離である構成とすることができる。
(3)上記(1)および(2)に記載の対象物画像判定装置において、前記線形部分空間は直線であり、前記射影距離は、前記主軸に直交する第1軸及び第2軸を座標軸に有した直交座標系における前記視線ベクトルの前記第1軸及び前記第2軸各方向の成分の大きさで定義される第1距離及び第2距離であり、前記設置物距離記憶手段は、前記設置物までの前記視線ベクトルの前記第1距離及び前記第2距離を記憶し、前記モデル距離算出手段は、前記候補位置までの前記視線ベクトルの前記第1距離及び前記第2距離を算出し、前記可視領域推定手段は、前記第1距離又は前記第2距離を用いて前記対象物可視画素を推定する構成とすることができる。
(4)上記(1)に記載の対象物画像判定装置において、前記線形部分空間は水平面であり、前記射影距離は前記視線ベクトルを鉛直軸に正射影した像の長さで定義される鉛直距離である構成とすることができる。
(5)上記(1)から(4)に記載の対象物画像判定装置において、前記モデル像出力手段は、前記対象物の前記立体モデルを記憶した立体モデル記憶手段と、前記立体モデルを前記候補位置に配置して前記画像の座標系に投影し、前記モデル像を生成するモデル像生成手段と、を有する構成とすることができる。
(6)上記(1)から(4)に記載の対象物画像判定装置において、前記モデル像出力手段は、前記三次元空間内の各位置での前記対象物の前記モデル像を記憶したモデル像記憶手段と、前記モデル像記憶手段から前記候補位置に対応して記憶されている前記モデル像を読み出すモデル像読み出し手段と、を有する構成とすることができる。
本発明によれば、監視空間の複雑さや広さが増しても設置物について必要な記憶容量を増やすことなく、監視対象物の像の存在を高速かつ高精度に判定できる。また、本発明によれば、奥行きの長い監視対象物についてもその像の存在を高精度に判定できる。
本発明の実施形態に係る移動物体追跡装置のブロック構成図である。 本発明の実施形態に係る移動物体追跡装置の概略の機能ブロック図である。 モデル像出力手段の機能ブロック図である。 候補姿勢に応じたモデル距離の具体的な定義を説明するための監視空間の模式図である。 設置物による隠蔽を判断する際の立体モデルの位置を立体モデルの主軸に垂直な平面に沿った距離で表すことの意義を説明するための監視空間の模式的な断面図である。 設置物距離の具体例を説明するための模式図である。 候補姿勢が立位である場合の可視領域推定手段の処理例を説明する模式図である。 候補姿勢が臥位である場合の可視領域推定手段の処理例を説明する模式図である。 本発明の実施形態に係る移動物体追跡装置の追跡処理の概略のフロー図である。 本発明の実施形態に係る移動物体追跡装置の追跡処理の概略のフロー図である。 設置物隠蔽推定処理の概略のフロー図である。
以下、本発明の実施の形態(以下実施形態という)である移動物体追跡装置1について、図面に基づいて説明する。移動物体追跡装置1は、什器が配置された部屋等のように設置物が存在する屋内外の三次元空間を監視対象の空間とすることができ、当該監視空間内を移動する人物を追跡対象物(以下、対象物と称する)とする。移動物体追跡装置1は監視空間を撮像した監視画像を処理して対象物の検出・追跡を行う。什器等の監視空間内の設置物は対象物のように移動せず予めその設置位置が判っている。設置物の他の例としては柱や給湯器などがある。設置物は画像処理の観点からは対象物の像を隠蔽し得る遮蔽物である。なお、注目している対象物以外の対象物も遮蔽物となり得る。
[移動物体追跡装置1の構成]
図1は、実施形態に係る移動物体追跡装置1のブロック構成図である。移動物体追跡装置1は、撮影部2、記憶部3、画像処理部4および出力部5を含んで構成される。撮影部2、記憶部3および出力部5は画像処理部4に接続される。
撮影部2は、監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、画像処理部4へ出力される。専ら床面又は地表面等の基準面に沿って移動する人の位置、移動を把握するため、撮影部2は基本的に人を俯瞰撮影可能な高さに設置され、例えば、本実施形態では移動物体追跡装置1は屋内監視に用いられ、撮影部2は天井に設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部3は、各種プログラムや各種データを記憶し、画像処理部4との間でこれらの情報を入出力する。各種データには、対象物や設置物のモデルに関するデータや、カメラパラメータが含まれる。
画像処理部4はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、撮影部2、記憶部3および出力部5に接続される。画像処理部4は記憶部3からプログラムを読み出して実行することで後述する各手段として機能する。
出力部5は警告音を出力するスピーカー又はブザー等の音響出力手段、異常が判定された監視画像を表示する液晶ディスプレイ又はCRT等の表示手段などを含んでなり、画像処理部4からアラーム信号が入力されると異常発生の旨を外部へ出力する。また、出力部5は通信回線を介してアラーム信号を警備会社の監視センタに設置されたセンタ装置へ送信する通信手段を含んでもよい。
図2は移動物体追跡装置1の概略の機能ブロック図である。図2に示す構成において、記憶部3は設置物距離記憶手段30として機能する。また、画像処理部4は仮説設定手段40、モデル像出力手段41、モデル距離算出手段42、可視領域推定手段43、対象物判定手段44および異常判定手段45として機能する。
仮説設定手段40(候補設定手段)は、過去に判定された各対象物の物***置又は過去に設定された各対象物の候補位置から動き予測を行なって、新たに入力される監視画像において対象物が存在する位置を予測し、その予測された位置(候補位置)をモデル像出力手段41およびモデル距離算出手段42へ出力する。
例えば、位置の予測はパーティクルフィルタなどと呼ばれる方法を用いて行うことができる。当該方法は、各対象物に対して多数(その個数をPで表す。例えば1対象物あたり200個)の候補位置を順次設定して確率的に対象物の位置(物***置)を判定するものであり、設定される候補位置は仮説などと呼ばれる。候補位置は監視画像のxy座標系で設定することもできるが、本実施形態では監視空間の直交座標系(XYZ座標系)で設定する。動き予測は過去の物***置に所定の運動モデルを適用するか(下記(1))、又は過去の候補位置に所定の運動モデルを適用すること(下記(2))で行なわれる。
(1)物***置からの予測
注目時刻より前のT時刻分(例えばT=5)の物***置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の物***置に加算して注目時刻における物***置を予測する。予測された物***置を中心とする所定範囲にランダムにP個の候補位置を設定する。この方法では、過去T時刻分の物***置が記憶部3に循環記憶される。
(2)候補位置からの予測
注目時刻より前のT時刻分(例えばT=5)の候補位置から平均速度ベクトルを算出する。この平均速度ベクトルを1時刻前の候補位置に加算して注目時刻における新たな候補位置を予測する。予測はP個の候補位置それぞれに対し行ない、新たな候補位置とその元となった過去の候補位置には同一の識別子を付与して循環記憶する。なお、1時刻前の候補位置のうちその尤度が予め設定された尤度閾値より低いものは削除する。一方、この削除分を補うために、削除した個数と同数の1時刻前の新たな候補位置を1時刻前の予測された物***置を中心とする所定範囲にランダムに設定し、これらの候補位置と対応する2時刻前以前の候補位置を過去の物***置の運動に合わせて外挿し求める。そのために過去の候補位置に加えて、過去T時刻分の物***置も記憶部3に循環記憶させる。
なお、新規の対象物が検出された場合は、仮説設定手段40は、その検出位置を中心とする所定範囲にランダムにP個の候補位置を設定する。
また、仮説設定手段40は候補姿勢を仮説に含める。例えば、各対象物の仮説の半数についての候補姿勢に、立っている姿勢(立位)を設定し、残りの半数についての候補姿勢に、倒れている姿勢(臥位)を設定する。
あるいは、仮説設定手段40は、変化画素のまとまり(変化領域)の形状や移動速度の大きさ等に基づき現在の姿勢が予測できる対象物については、予測した姿勢の仮説を他の姿勢の仮説よりも多く設定することもできる。例えば、追跡中の人物のうち、その候補位置周辺に鉛直方向に長い形状の変化領域が抽出されている人物については、9割の仮説の候補姿勢に立位を設定し、残り1割の候補姿勢に臥位を設定する。
モデル像出力手段41は、候補位置での対象物の立体モデルを監視画像の座標系に投影したモデル像を可視領域推定手段43に出力する。図3はモデル像出力手段41の機能ブロック図であり、モデル像出力手段41の2種類の構成例を示している。図3に示す構成において、立体モデル記憶手段300、カメラパラメータ記憶手段301およびモデル像記憶手段302は記憶部3により実現され、モデル像生成手段420およびモデル像読み出し手段421は画像処理部4により実現される。
図3(A)に示すモデル像出力手段41は、対象物の可視領域の推定処理の都度、立体モデルを投影してモデル像を生成する形態であり、立体モデル記憶手段300、カメラパラメータ記憶手段301およびモデル像生成手段420でなる。立体モデル記憶手段300は対象物の立体モデルを記憶しており、また、カメラパラメータ記憶手段301は撮影手段のカメラパラメータを記憶している。モデル像生成手段420は立体モデル記憶手段300およびカメラパラメータ記憶手段301から立体モデルおよびカメラパラメータを読み出す。そして、モデル像生成手段420はカメラパラメータを用いて候補位置での対象物の立体モデルを監視画像の座標系に投影してモデル像を生成し出力する。
図3(B)に示すモデル像出力手段41は、立体モデルを事前に投影したモデル像を読み出す形態であり、モデル像記憶手段302およびモデル像読み出し手段421でなる。モデル像記憶手段302は三次元空間内の各位置でのモデル像を記憶しており、モデル像読み出し手段421は候補位置に対応して記憶されているモデル像をモデル像記憶手段302から読み出して出力する。
あるいは、これらの中間的形態として、三次元空間内の代表位置でのモデル像を記憶しておき、候補位置の代表位置との関係に応じて代表位置でのモデル像に拡大・縮小などの変形処理を施すことによって候補位置のモデル像を生成し出力することもできる。
モデル距離算出手段42は仮説設定手段40から仮説として候補位置および候補姿勢を入力され、撮影手段から候補位置までの射影距離を算出し、射影距離を可視領域推定手段43に出力する。ここで、候補姿勢ごとに、監視空間である三次元空間において立体モデルの長手方向の主軸ベクトルが定義される線形部分空間を主軸ベクトル空間と称すると、射影距離とは、撮影手段の視線ベクトルの主軸ベクトル空間に直交する成分の大きさと定義する。モデル距離算出手段42が算出する射影距離は、撮影手段であるカメラの視点を始点とし候補位置を終点とする視線ベクトルについての距離である。この撮影手段から候補位置までの射影距離を、後述する撮影手段から設置物までの視線ベクトルについての射影距離と区別するために、モデル距離と称する。
したがってモデル距離算出手段42は仮説設定手段40から入力される対象物の候補姿勢に応じてモデル距離の種類を切り替える。図4は候補姿勢に応じたモデル距離の具体的な定義を説明するための監視空間の模式図であり、図4(A)は透視図であり、図4(B)はYZ平面に沿った断面図である。以下、候補姿勢が立位の場合と、臥位の場合とを順次説明する。
(1)候補姿勢が立位の場合
立位の人の立体モデル600の主軸601はZ軸に平行な方向すなわち鉛直方向であるから、主軸ベクトルは鉛直方向の直線である一次元空間に束縛され、これが主軸ベクトル空間となる。この場合、主軸601に対する垂直面であるXY平面が主軸ベクトル空間の直交補空間であり、このXY平面上での視線ベクトルの大きさが射影距離となる。ここでは射影距離を、視線ベクトルを水平面610(図4の例では監視空間である部屋の床面)に正射影した像の大きさで定義する。よってモデル距離算出手段42は鉛直な主軸601を有する立体モデル600に対して撮影手段から候補位置Pまでの水平距離dHM1をモデル距離として算出する。
直交座標系XYZで表した三次元空間内における撮影手段の位置Cの座標を(X,Y,Z)、立位の人の候補位置Pの座標を(X,Y,Z)とすると、モデル距離である水平距離dHM1は次式で与えられる。
HM1={(X−X+(Y−Y1/2 ………(1)
なお、モデル像読み出し手段421は、立体モデル600の厚み2Wを考慮に入れ、候補位置Pを立体モデル600の主軸601よりも撮影手段にWだけ近い点602と定義してモデル距離を算出してもよい。当該定義は例えば、設置物に壁を含める場合に有効である。この例を含め、候補位置Pと立体モデル600との位置関係は立体モデル600の厚みの範囲で主軸601から前後させて定義可能である。なぜなら、その範囲であればモデル距離と後述する設置物距離との大小関係は保たれ、後述する可視領域推定手段43は隠蔽の有無の判定を正しく行うことができるからである。
(2)候補姿勢が臥位の場合
臥位の人の立体モデル620の主軸621はXY平面に平行な方向、すなわち水平方向で方位は様々であるから、主軸ベクトルは水平面である二次元空間に束縛され、これが主軸ベクトル空間となる。この場合、鉛直軸が主軸ベクトル空間の直交補空間であり、射影距離は当該鉛直軸に視線ベクトルを正射影した像の大きさである鉛直距離で定義される。
よって、水平な主軸621を有する立体モデル620に対して、モデル距離算出手段42は撮影手段(点C)から候補位置Pまでの視線ベクトルの鉛直距離dVM2をモデル距離として算出する。候補位置Pの座標を(X,Y,Z)とすると、鉛直距離dVM2は次式で与えられる。
VM2=|Z−Z| ………(2)
なお、モデル距離算出手段42は、立体モデル620の厚み2Wを考慮に入れ、候補位置Pを立体モデル620の主軸621よりも撮影手段にWだけ近い点622と定義してモデル距離を算出してもよい。当該定義は設置物に床を含める場合に有効である。この例を含め、水平距離の場合と同様の理由により、候補位置Pと立体モデル620との位置関係は立体モデル620の厚みの範囲で主軸621から前後(上下)させて定義することができる。
撮影手段の視線ベクトルをそれぞれ水平面及び鉛直軸へ正射影した像の長さである水平距離及び鉛直距離を、視線ベクトルの2種類の射影距離とすると、上述したように、モデル距離算出手段42は射影距離の種類のうち候補姿勢に対し予め定められた少なくとも1つの指定種類について、撮影手段から候補位置までの視線ベクトルの射影距離をモデル距離として算出する。具体的には本実施形態での指定種類の射影距離は、候補姿勢が立位の場合には水平距離であり、候補姿勢が臥位の場合には鉛直距離である。
以上、候補姿勢に応じてモデル距離を計算する方法を説明した。この方法では、水平距離および鉛直距離はいずれも立体モデルの主軸に垂直な平面に沿った距離である。すなわちいずれの候補姿勢においても、立体モデルの主軸に垂直な平面に沿った距離で、設置物による隠蔽を判断する際の立体モデルの位置を捉える。この方法の意義について図5の模式図を用いつつ説明する。
図5は図4(A)に示す立体モデル600,620の配置例における監視空間のYZ平面に沿った模式的な断面図である。立体モデル600,620に対応する候補位置P,Pは、立体モデル600,620それぞれの水平面610上での中央に位置している。立位の立体モデル600には候補位置Pとの比較のための点として主軸601に沿った方向の位置(つまりZ軸座標)が異なる点P1a,P1bを例示している。候補位置Pが立体モデル600の床との接地点であるのに対し、点P1aは立体モデル600の高さの中央に向かう視線ベクトルと立体モデル600の表面との交点であり、点P1bは立体モデル600の頭部に位置する。また臥位の立体モデル620には候補位置Pとの比較のための点として主軸621に沿った方向の位置(つまりY軸座標)が異なる点P2a,P2bを例示している。候補位置Pが立体モデル620の長手方向の中央における床との接地点であるのに対し、点P2aは候補位置Pより撮影手段に近い部位である立体モデル620の頭部に向かう視線ベクトルと立体モデル620との交点であり、点P2bは候補位置Pより撮影手段から遠い部位である立体モデル620の脚部に向かう視線ベクトルと立体モデル620との交点である。
図5に見て取れるように、カメラから対象物までの距離は視線ベクトルの向きによって変化する。換言すれば、当該距離は同一の対象物であっても監視画像における画素ごとに異なり得る。ここで、同一対象物について画素ごとに距離を計算すると処理負荷が過大となるのに対し、候補位置に関する距離を同一対象物の各画素に共通に用いれば処理負荷を軽減することができる。その一方、画素ごとに本来相違し得る距離を共通の距離に置き換えた場合、当然ながら誤差が発生し誤った隠蔽状態が推定される可能性が高くなる。
この点に関し、本発明ではカメラから候補位置までの視線ベクトルの大きさを立体モデルの主軸に直交する方向の距離で表し、当該距離を同一対象物の各画素に共通に用いることで、上述の誤差の低減を図っている。
つまり、同一の対象物の立体モデルの各点への視線ベクトルの長さの違いを、視線ベクトルの鉛直方向の成分の違いからの寄与分(鉛直差寄与分とする)と水平方向の成分の違いからの寄与分(水平差寄与分とする)とに分けると、立位の立体モデル600では鉛直方向のサイズ(対象物である人物の背丈)より水平方向のサイズ(人物の幅)が小さいので、鉛直差寄与分より水平差寄与分が小さくなる。例えば、立体モデル600に対する3つの視線ベクトルCP,CP1a,CP1bに関し、主軸601に直交する方向(図5ではY軸方向)の成分の相違は立体モデル600の厚み程度となり、主軸601に平行な方向(図5ではZ軸方向)の成分に生じる立体モデル600の高さ程度の相違より小さくなる。水平距離のように立体モデルの主軸に直交する方向の距離は、Z軸方向の成分が除去されるので、視線ベクトルそのものの長さや視線ベクトルをZ軸に正射影した像の長さなど、Z軸方向の成分を含んで定義される距離と比較して立体モデル600全体での差が小さい。よって、候補姿勢が立位の場合には例えば(1)式で与えられる候補位置Pの水平距離を同一対象物の各画素に共通に用いることで上述の誤差の低減が図れる。
一方、臥位の立体モデル620では水平方向のサイズより鉛直方向のサイズが小さいので、水平差寄与分より鉛直差寄与分が小さくなる。例えば、立体モデル620に対する3つの視線ベクトルCP,CP2a,CP2bに関し、主軸621に直交する方向(図5ではZ軸方向)の成分の相違は立体モデル620の高さ(人物の厚み)程度となり、主軸621に平行な方向(図5ではY軸方向)の成分に生じる立体モデル620の長さ(人物の背丈)程度の相違より小さくなる。鉛直距離のように立体モデルの主軸に直交する方向の距離は、Y軸方向の成分が除去されるので、視線ベクトルそのものの長さや視線ベクトルをY軸に正射影した像の長さなど、Y軸方向の成分を含んで定義される距離と比較して立体モデル620全体での差が小さい。よって、候補姿勢が臥位の場合には例えば(2)式で与えられる候補位置Pの鉛直距離を同一対象物の各画素に共通に用いることで上述の誤差の低減が図れる。
設置物距離記憶手段30は監視画像の各画素に対応付けて、当該画素に対応する視線ベクトルの三次元空間内の設置物までの射影距離を記憶する。この構成では、設置物について必要な記憶容量は監視画像の画素数に応じて決まり、監視空間に存在する設置物の数、監視空間の複雑さや広さが増しても影響を受けない。
なお、本実施形態では候補姿勢に応じて種類が異なる射影距離を用いることとしており、この場合、設置物距離記憶手段30は、候補姿勢が立位の場合に用いるために撮影手段と候補位置との水平距離を記憶し、かつ候補姿勢が臥位の場合に用いるために鉛直距離を記憶する。すなわち、設置物距離記憶手段30は監視画像の各画素に対応付けて、当該画素に対応する視線ベクトルの三次元空間内の設置物までの2種類の射影距離を設置物距離として記憶する。
設置物距離記憶手段30に記憶される撮影手段から設置物までの視線ベクトルに対応する水平距離又は鉛直距離を、上述した撮影手段から候補位置までの視線ベクトルについての水平距離又は鉛直距離であるモデル距離と区別するために、設置物距離と称する。
設置物距離記憶手段30に格納する設置物距離は、設置物の三次元モデルを用いたシミュレーションによって予め算出されたものであってもよいし、三次元計測器などにより得た実測値に基づいて予め算出されたものであってもよい。
図6は設置物距離の具体例を説明するための模式図である。図6(A)は設置物700が存在する監視空間の透視図であり、設置物700の表面の点P〜Pが投影された撮影面710が示されている。設置物距離記憶手段30に記憶される水平距離は監視画像の画素数と同数の水平距離群720を構成し、図6(B)は水平距離群720を監視画像と同じxy座標系での画像の形式で模式的に表している。同様に、設置物距離記憶手段30に記憶される鉛直距離は監視画像の画素数と同数の鉛直距離群730を構成し、図6(C)は鉛直距離群730を監視画像と同じxy座標系での画像の形式で模式的に表している。
図6(A)に示すように設置物700の表面の点P〜Pに対応する撮影面710での投影点がQ〜Qであり、当該投影点は水平距離群720および鉛直距離群730にて画素Q〜Qとして示されている。図6(B)に示す水平距離群720にて画素Q〜Qそれぞれには図6(A)に示す水平距離dHF3〜dHF5が記憶される。また、図6(B)では設置物が写っていない画素Qの水平距離をdHF6と表している。図6(C)に示す鉛直距離群730にて画素Q〜Qそれぞれには図6(A)に示す鉛直距離dVF3〜dVF5が記憶される。また、図6(C)では設置物が写っていない画素Qの鉛直距離をdVF7と表している。
具体的には、設置物700の表面の点Pの三次元空間における座標を(X,Y,Z)とし、また撮影手段の位置Cと設置物700の表面の点Pとを結ぶ直線と撮影手段の撮影面710との交点、すなわち点Pのxy平面への投影点Qの撮影面710における座標(すなわち画素位置)を(x,y)とすると、設置物距離記憶手段30には画素Qの座標(x,y)に対応する水平距離dHF3、鉛直距離dVF3として、
HF3={(X−X+(Y−Y1/2
VF3=|Z−Z
が記憶される。
設置物700の表面の別の2点P,Pについても同様であり、画素Qの座標(x,y)に対応して設置物距離記憶手段30には水平距離dHF4、鉛直距離dVF4として、
HF4={(X−X+(Y−Y1/2
VF4=|Z−Z
が記憶され、画素Qの座標(x,y)に対応して設置物距離記憶手段30には水平距離dHF5、鉛直距離dVF5として、
HF5={(X−X+(Y−Y1/2
VF5=|Z−Z
が記憶される。
なお、図6(B)にて画素Qでの水平距離として例示した、対応する視線方向に設置物の無い画素の水平距離dHF6には、モデル距離よりも必ず大きくなる値を設定する。例えばdHF6の値は監視空間(撮影範囲)に入り得る線分や監視空間にて設定し得る視線ベクトルの最大長以上の値とすることができる。或いは、監視空間が部屋であれば壁を設置物に準ずるものとして扱うこともでき、その場合、dHF6は撮影手段から壁までの水平距離とすることができる。
同様に、図6(C)にて画素Qでの水平距離として例示した、対応する視線方向に設置物の無い画素の鉛直距離dVF7にも、モデル距離よりも必ず大きくなる値を設定する。例えばdVF7の値は監視空間(撮影範囲)に入り得る線分や監視空間にて設定し得る視線ベクトルの最大長以上の値とすることができる。或いは、床や地面を設置物に準ずるものとして扱うこともでき、その場合、dVF7は撮影手段から床までの鉛直距離とすることができる。
可視領域推定手段43は立体モデルのモデル像を構成する画素のうち、当該画素に対応して設置物距離記憶手段30に記憶されている設置物距離が当該立体モデルのモデル距離以上である画素を対象物可視画素と推定する。具体的には、可視領域推定手段43はモデル像出力手段41から仮説(すなわち候補位置および候補姿勢)に対応したモデル像を入力されるとともに、モデル距離算出手段42から当該仮説に対応したモデル距離を入力され、当該モデル像のうちの設置物により隠蔽されていない対象物可視領域を推定する。当該推定処理では、モデル像を構成する画素のうち、当該画素に対応する設置物距離がモデル距離以上である画素が対象物可視画素とされ、設置物距離がモデル距離未満である画素が設置物により隠蔽された隠蔽画素とされる。可視領域推定手段43は推定した対象物可視画素からなる対象物可視領域を対象物判定手段44に出力する。
なお、上述したようにモデル距離の種類(指定種類)は候補姿勢に応じて切り替わる。可視領域推定手段43は、指定種類がモデル距離と共通する設置物距離を設置物距離記憶手段30から読み出して利用する。候補姿勢が立位である場合、すなわちモデル距離が水平距離である場合、可視領域推定手段43は、モデル像を構成する各画素について、当該画素の設置物距離のうちの水平距離がモデル距離以上である画素を対象物可視領域の画素と推定し、当該設置物距離がモデル距離未満である画素を隠蔽画素と推定する。
図7は候補姿勢が立位である場合の可視領域推定手段43の処理例を説明する模式図である。例えば、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル像出力手段41から、図4に示す候補位置Pに配置した立位の立体モデル600を撮影面xyに投影したモデル像800が可視領域推定手段43に入力される(図7上段)。モデル像800を構成する画素には図6に示した設置物700の表面上の点Pへの視線方向の画素Qおよび設置物の無い点への視線方向の画素Qが含まれている。また、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル距離算出手段42からモデル距離dHM1が可視領域推定手段43に入力される。
可視領域推定手段43は、候補姿勢が立位であることに対応して、設置物距離記憶手段30に記憶されている設置物距離のうちの水平距離群720から、モデル像800を構成する画素と対応する水平距離(…,dHF6,…,dHF3,…)を読み出す(図7中段)。
可視領域推定手段43はモデル像800を構成する各画素について、モデル距離を当該画素の設置物距離と比較し、モデル距離が設置物距離以下である画素からなる対象物可視領域801を推定する(図7下段)。具体的には、画素Qは、モデル距離dHM1が設置物距離dHF6未満であるため、対象物可視領域801を構成する可視画素と判定される。一方、画素Qは、モデル距離dHM1が設置物距離dHF3より大きいため対象物可視領域801を構成する可視画素と判定されない。
また、候補姿勢が臥位である場合、すなわちモデル距離が鉛直距離である場合、可視領域推定手段43は、モデル像を構成する各画素について、当該画素の設置物距離のうちの鉛直距離がモデル距離以上である画素を対象物可視領域の画素と推定し、当該設置物距離がモデル距離未満である画素を隠蔽画素と推定する。
図8は候補姿勢が臥位である場合の可視領域推定手段43の処理例を説明する模式図である。例えば、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル像出力手段41から、図4に示す候補位置Pに配置した臥位の立体モデル620を撮影面xyに投影したモデル像810が可視領域推定手段43に入力される(図8上段)。モデル像810を構成する画素には図6に示した設置物700の表面上の点Pへの視線方向の画素Qおよび設置物の無い点への視線方向の画素Qが含まれている。また、仮説設定手段40が出力する候補位置および候補姿勢に対応してモデル距離算出手段42からモデル距離dVM2が可視領域推定手段43に入力される。
可視領域推定手段43は、候補姿勢が臥位であることに対応して、設置物距離記憶手段30に記憶されている設置物距離のうちの鉛直距離群730から、モデル像810を構成する画素と対応する水平距離(…,dVF5,…,dVF7,…)を読み出す(図8中段)。
可視領域推定手段43はモデル像810を構成する各画素について、モデル距離を当該画素の設置物距離と比較し、モデル距離が設置物距離以下である画素からなる対象物可視領域811を推定する(図8下段)。具体的には、画素Qは、モデル距離dVM2が設置物距離dVF7未満であるため、対象物可視領域811を構成する可視画素と判定される。一方、画素Qは、モデル距離dVM2が設置物距離dVF5より大きいため対象物可視領域811を構成する可視画素と判定されない。
対象物判定手段44は監視画像における対象物可視画素の画像特徴から対象物の像の存在を判定する。具体的には、対象物判定手段44は可視領域推定手段43から対象物可視領域の情報を入力され、監視画像における対象物可視領域の画像特徴から少なくとも対象物の像の存在を判定し、判定結果を異常判定手段45に出力する。本実施形態では異常判定手段45はさらに対象物の状態である対象物の位置および対象物の姿勢を判定する。これらの処理は対象物判定手段44に含まれる変化画素抽出手段440、尤度算出手段441および位置・姿勢判定手段442により行われる。
変化画素抽出手段440は、撮影部2から新たに入力された監視画像から変化画素を抽出し、抽出された変化画素の情報を尤度算出手段441へ出力する。変化画素の情報は必要に応じて仮説設定手段40にも出力される。変化画素の抽出は公知の背景差分処理により行われる。すなわち変化画素抽出手段440は、新たに入力された監視画像と背景画像との差分処理を行って差が予め設定された差分閾値以上である画素を変化画素として抽出する。変化画素は対象物が存在する領域に対応して抽出され得る。変化画素抽出手段440は背景画像として、監視領域に対象物が存在しない状態での監視画像を記憶部3に格納する。例えば、基本的に管理者は監視領域に対象物が存在しない状態で移動物体追跡装置1を起動するので、起動直後の監視画像から背景画像を生成することができる。なお、差分処理に代えて、新たに入力された監視画像と背景画像との相関処理によって変化画素を抽出してもよいし、背景画像に代えて背景モデルを学習して当該背景モデルとの差分処理によって変化画素を抽出してもよい。
尤度算出手段441は、各仮説に対して推定された対象物可視領域における対象物の特徴量を監視画像から抽出し、特徴量の抽出度合いに応じた、当該仮説における候補位置の物***置としての尤度を算出して位置・姿勢判定手段442へ出力する。下記(1)〜(4)は尤度の算出方法の例である。
(1)変化画素抽出手段440により抽出された変化画素に対象物可視領域を重ね合わせ、変化画素が対象物可視領域に含まれる割合(包含度)を求める。包含度は、候補位置が現に対象物が存在する位置に近いほど高くなり、遠ざかるほど低くなりやすい。そこで、当該包含度に基づいて尤度を算出する。
(2)監視画像における対象物可視領域の輪郭に対応する部分からエッジを抽出する。候補位置が現に対象物が存在する位置に近いほど、対象物可視領域の輪郭がエッジ位置と一致するため、エッジの抽出度(例えば抽出されたエッジ強度の和)は増加し、一方、遠ざかるほど抽出度は減少しやすい。そこで、エッジの抽出度に基づいて尤度を算出する。
(3)各対象物の過去の物***置において監視画像から抽出された特徴量を当該対象物の参照情報として記憶部3に記憶する。候補位置が現に対象物が存在する位置に近いほど背景や他の対象物の特徴量が混入しなくなるため、対象物可視領域から抽出された特徴量と参照情報との類似度は高くなり、一方、遠ざかるほど類似度は低くなりやすい。そこで、監視画像から対象物可視領域内の特徴量を抽出し、抽出された特徴量と参照情報との類似度を尤度として算出する。ここでの特徴量として例えば、エッジ分布、色ヒストグラム又はこれらの両方など、種々の画像特徴量を利用することができる。
(4)また上述した包含度、エッジの抽出度、類似度のうちの複数の度合いの重み付け加算値に応じて尤度を算出してもよい。
このように可視領域推定手段43により推定された対象物可視領域を利用することで、各対象物の隠蔽状態に適合した尤度を算出できるので追跡の信頼性が向上する。
位置・姿勢判定手段442は、対象物の各仮説、および当該仮説ごとに算出された尤度から当該対象物の位置(物***置)を判定し、判定結果を記憶部3に対象物ごとに時系列に蓄積する。なお、全ての尤度が所定の下限値(尤度下限値)未満の場合は物***置なし、つまり消失したと判定する。下記(1)〜(3)は物***置の算出方法の例である。
(1)対象物ごとに、尤度を重みとする候補位置の重み付け平均値を算出し、これを当該対象物の物***置とする。
(2)対象物ごとに、最大の尤度が算出された候補位置を求め、これを物***置とする。
(3)対象物ごとに、予め設定された尤度閾値以上の尤度が算出された候補位置の平均値を算出し、これを物***置とする。ここで、尤度閾値>尤度下限値である。
上述のように対象物判定手段44において尤度算出手段441および位置・姿勢判定手段442は、画像における対象物可視領域の画像特徴から対象物の像の存在を判定する機能を有する。また、対象物判定手段44は、消失が判定されなかった場合の最高尤度の仮説に設定された候補姿勢を対象物の姿勢と判定する。
異常判定手段45は、記憶部3に蓄積された時系列の物***置を参照し、長時間滞留する不審な動きや通常動線から逸脱した不審な動きを異常と判定し、異常が判定されると出力部5へアラーム信号を出力する。
[移動物体追跡装置1の動作]
次に、移動物体追跡装置1の追跡動作を説明する。図9,図10は移動物体追跡装置1の追跡処理の概略のフロー図である。
画像処理部4は撮影部2が監視空間を撮像するたびに、撮影部2から監視画像を取得する(ステップS1)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。
現画像は変化画素抽出手段440により背景画像と比較され、変化画素抽出手段440は変化画素を抽出する(ステップS2)。ここで、孤立した変化画素はノイズによるものとして抽出結果から除外する。なお、背景画像が無い動作開始直後は、現画像を背景画像として記憶部3に記憶させ、便宜的に変化画素なしとする。
また、仮説設定手段40は追跡中の各対象物に対して動き予測に基づきP個の仮説(候補姿勢および候補位置)を設定する(ステップS3)。なお、後述するステップS16にて新規出現であると判定された対象物の候補位置は動き予測不能なため出現位置を中心とする広めの範囲にP個の仮説を設定する。また、後述するステップS16にて消失と判定された対象物の仮説は削除する。
画像処理部4は、ステップS2にて変化画素が抽出されず、かつステップS3にて仮説が設定されていない(追跡中の対象物がない)場合(ステップS4にて「YES」の場合)はステップS1に戻り、次の監視画像の入力を待つ。
一方、ステップS4にて「NO」の場合は、ステップS5〜S16の処理を行う。まず、仮説設定手段40が対象物の前後関係を判定する(ステップS5)。具体的には、仮説設定手段40は候補位置の重心(平均値)とカメラ位置との距離を算出し、距離の昇順に対象物の識別子を並べた前後関係リストを作成する。
画像処理部4は前後関係リストの先頭から順に各対象物を順次、注目物体に設定する(ステップS6)。続いて、画像処理部4は注目物体の各仮説を順次、注目仮説に設定する(ステップS7)。但し、監視画像の視野外である候補位置を有する仮説は注目仮説の設定対象から除外し、当該仮説の対象物可視領域は推定せず、尤度を0に設定する。
モデル像出力手段41は仮説設定手段40から入力された候補姿勢および候補位置に応じた対象物モデル像を、例えば立体モデル記憶手段300から読み出した立体モデルをカメラパラメータ記憶手段301から読み出したカメラパラメータを用いて監視画像の座標系に投影して生成し、可視領域推定手段43に出力する(ステップS8)。なお、上述したように、モデル像出力手段41は入力された候補姿勢および候補位置に応じた対象物モデル像をモデル像記憶手段302から読み出して可視領域推定手段43に出力する構成とすることもできる。
可視領域推定手段43はモデル像出力手段41から入力された対象物モデル像における設置物による隠蔽を推定する(ステップS9)。図11はステップS9の設置物隠蔽推定処理の概略のフロー図である。
モデル距離算出手段42は仮説設定手段40から入力された仮説が候補姿勢を立位とする立位仮説であれば(ステップS100にて「YES」の場合)、当該仮説の候補位置について水平距離dHMを算出し、これをモデル距離として可視領域推定手段43に出力する(ステップS101)。
可視領域推定手段43は、モデル像出力手段41から入力された対象物モデル像内の画素を順次、注目画素に設定し(ステップS102)、設置物距離記憶手段30に設置物距離として監視画像の各画素に対応付けて記憶されている水平距離と鉛直距離のうち、注目画素のxy座標に対応する水平距離dHF(x,y)を読み出す(ステップS103)。
可視領域推定手段43は設置物距離dHF(x,y)をモデル距離dHMと比較し、設置物距離dHF(x,y)がモデル距離dHM以上であれば(ステップS104にて「YES」の場合)、注目画素は対象物可視画素、すなわち設置物により隠蔽されていない非隠蔽画素であると推定し(ステップS105)、ステップS106に進む。一方、設置物距離dHF(x,y)がモデル距離dHM未満であれば(ステップS104にて「NO」の場合)、注目画素は設置物により隠蔽されている隠蔽画素として扱われることになり、よって注目画素は対象物可視画素であるとは推定されずにステップS106に進む。
可視領域推定手段43は対象物モデル像の全画素について処理が完了するまで(ステップS106にて「NO」の場合)、ステップS102〜S105の処理を繰り返し、全画素について当該処理が完了すると(ステップS106にて「YES」の場合)、図10のステップS10に処理を進める。
また、モデル距離算出手段42は仮説設定手段40から入力された仮説が候補姿勢を立位とする立位仮説でない場合、つまり臥位仮説である場合(ステップS100にて「NO」の場合)、当該仮説の候補位置について鉛直距離dVMを算出し、これをモデル距離として可視領域推定手段43に出力する(ステップS107)。
可視領域推定手段43は、モデル像出力手段41から入力された対象物モデル像内の画素を順次、注目画素に設定し(ステップS108)、設置物距離記憶手段30に設置物距離として監視画像の各画素に対応付けて記憶されている水平距離と鉛直距離のうち、注目画素のxy座標に対応する鉛直距離dVF(x,y)を読み出す(ステップS109)。
可視領域推定手段43は設置物距離dVF(x,y)をモデル距離dVMと比較し、設置物距離dVF(x,y)がモデル距離dVM以上であれば(ステップS110にて「YES」の場合)、注目画素は対象物可視画素、すなわち設置物により隠蔽されていない非隠蔽画素であると推定し(ステップS111)、ステップS112に進む。一方、設置物距離dVF(x,y)がモデル距離dVM未満であれば(ステップS110にて「NO」の場合)、注目画素は設置物により隠蔽されている隠蔽画素として扱われることになり、よって注目画素は対象物可視画素であるとは推定されずにステップS112に進む。
可視領域推定手段43は対象物モデル像の全画素について処理が完了するまで(ステップS112にて「NO」の場合)、ステップS108〜S111の処理を繰り返し、全画素について当該処理が完了すると(ステップS112にて「YES」の場合)、図10のステップS10に処理を進める。
可視領域推定手段43は、前後関係リストを参照して注目物体より手前の対象物があれば(ステップS10にて「YES」の場合)、手前の対象物の物***置に対応する対象物モデル像の領域を対象物可視領域から除くマスク処理を行って対象物可視領域を更新する(ステップS11)。なお、手前に複数の対象物があれば、それら全てについてマスク処理を試みてもよいし、それらのうちカメラ位置から物***置への投影線が注目物体への投影線となす角度が幅2Wに相当する角度未満の対象物のみに絞って除外処理を実行してもよい。一方、手前に対象物がなければ(ステップS10にて「NO」の場合)、マスク処理は行われない。
設置物及び手前の対象物による隠蔽領域を除去して、注目仮説の候補位置での対象物可視領域が求められると、尤度算出手段441によって当該注目仮説に対する尤度算出が行われる(ステップS12)。尤度算出手段441は、撮影画像のうち変化画素抽出手段440により抽出した変化画素に対応する部分を入力され、当該部分から、注目仮説に対して推定された対象物可視領域における対象物の特徴量を抽出し、特徴量の抽出度合いに応じた、当該仮説の物***置としての尤度を算出して位置・姿勢判定手段442へ出力する。
画像処理部4は、尤度が算出されていない仮説が残っている場合(ステップS13にて「NO」の場合)、ステップS7〜S12の処理を繰り返す。P個全ての仮説について尤度が算出されると(ステップS13にて「YES」の場合)、位置・姿勢判定手段442が注目物体の各仮説と当該仮説のそれぞれについて算出された尤度とを用いて注目物体の物***置を算出し、また姿勢を判定する(ステップS14)。現時刻について算出された物***置は1時刻前までに記憶部3に記憶させた注目物体の物***置と対応付けて追記される。なお、新規出現した対象物の場合は新たな識別子を付与して登録する。また、全ての予測位置での尤度が尤度下限値未満の場合は物***置なしと判定する。
画像処理部4は未処理の対象物が残っている場合(ステップS15にて「NO」の場合)、当該対象物について物***置を判定するステップS6〜S14の処理を繰り返す。一方、全ての対象物について物***置を判定すると(ステップS15にて「YES」の場合)、物体の新規出現と消失を判定する(ステップS16)。具体的には、画像処理部4は各物***置に対して推定された対象物可視領域を合成して、変化画素抽出手段440により抽出された変化画素のうち合成領域外の変化画素を検出し、検出された変化画素のうち近接する変化画素同士をラベリングする。ラベルが対象物とみなせる大きさであれば新規出現の旨をラベルの位置(出現位置)とともに記憶部3に記録する。また、物***置なしの対象物があれば当該対象物が消失した旨を記憶部3に記録する。以上の処理を終えると、次時刻の監視画像に対する処理を行うためにステップS1へ戻る。
[変形例]
(1)上記実施形態においては、候補姿勢が立位の場合の射影距離として、撮影手段の視線ベクトルを水平面に正射影したベクトルの長さである水平距離を算出し、それぞれ当該水平距離で定義したモデル距離と設置物距離とを大小比較して隠蔽の有無を判定する例を示した。これに対し、水平距離に対応する正射影ベクトルのX成分もしくはY成分を射影距離と定義し、この定義でのモデル距離と設置物距離とを大小比較することでも隠蔽を判定することができる。
撮影手段の位置Cの座標を(X,Y,Z)とし、立位の人の候補位置P(X,Y,Z)に対する設置物の表面の点P(X,Y,Z)の隠蔽の有無の判定を例に、本変形例を具体的に説明する。可視領域推定手段43は例えば、以下の(3a)式〜(3d)式のいずれかが成り立てば、候補位置Pの立体モデルのモデル像の画素のうちPに対応する画素が設置物により隠蔽されない、つまり可視画素であると判定する。
|(X−X)|>|(Y−Y)|、かつ(X−X)>0の場合、
(X−X)<(X−X)、すなわちX<X ………(3a)
|(X−X)|>|(Y−Y)|、かつ(X−X)<0の場合、
(X−X)>(X−X)、すなわちX>X ………(3b)
|(X−X)|<|(Y−Y)|、かつ(Y−Y)>0の場合、
(Y−Y)<(Y−Y)、すなわちY<Y ………(3c)
|(X−X)|<|(Y−Y)|、かつ(Y−Y)<0の場合、
(Y−Y)>(Y−Y)、すなわちY>Y ………(3d)
この場合、例えば、モデル距離算出手段42は、撮影手段から立位の立体モデル600の候補位置Pまでの水平距離に対応する正射影ベクトルのX成分(X−X)およびY成分(Y−Y)を可視領域推定手段43に出力し、設置物距離記憶手段30は設置物700の表面の点PのX成分(X−X)およびY成分(Y−Y)を記憶しておき可視領域推定手段43に出力する。この構成では、設置物距離記憶手段30に立位に対応して記憶する設置物距離のデータ量は、水平距離を記憶する上述の実施形態と比べて2倍となるが、モデル距離の算出にて(1)式に含まれる累乗や平方根の計算が不要となり処理量が軽減できる。
ちなみに、上記実施形態における候補姿勢が臥位の場合に用いる鉛直距離は、撮影手段の視線ベクトルを立体モデル620の主軸621に直交する鉛直面に正射影したベクトルのZ成分の大きさであり、本変形例と技術的に共通点を有する。
(2)上記変形例は、立体モデルの長手方向の主軸と、これに直交する第1軸及び第2軸とを座標軸に有した直交座標系を用いて一般化することができる。この一般化した移動物体追跡装置1の構成では、主軸の方向が一定である候補姿勢に対して、視線ベクトルの第1軸及び第2軸各方向の成分の大きさを第1距離および第2距離とし、これら第1距離および第2距離を射影距離とする。設置物距離記憶手段30は、射影距離として、設置物までの視線ベクトルの第1距離及び第2距離を設置物距離として記憶する。またモデル距離算出手段42は、射影距離として、候補位置までの視線ベクトルの第1距離及び第2距離をモデル距離として算出する。可視領域推定手段43は、射影距離として、第1距離又は第2距離で表されたモデル距離と設置物距離とを大小比較して隠蔽の有無を判定し対象物可視画素を推定する。
ここで、立体モデルの主軸の向きは任意であり、鉛直であるか水平であるかは問わない。また座標軸とする第1軸、第2軸は監視空間に設定したXYZ座標系の座標軸とは無関係に定め得る。
なお、上記(1)の変形例における射影距離であるX成分、Y成分、また(2)の変形例における射影距離である第1距離、第2距離は、水平距離および鉛直距離に関して上述したように、主軸に垂直な平面上の直線に沿って測られる距離である点で共通する。よって、これら変形例は、立体モデルの主軸に垂直な平面に沿った距離で隠蔽を判断することの上述した意義を共有する。
1 移動物体追跡装置、2 撮影部、3 記憶部、4 画像処理部、5 出力部、30 設置物距離記憶手段、40 仮説設定手段、41 モデル像出力手段、42 モデル距離算出手段、43 可視領域推定手段、44 対象物判定手段、45 異常判定手段、300 立体モデル記憶手段、301 カメラパラメータ記憶手段、302 モデル像記憶手段、420 モデル像生成手段、421 モデル像読み出し手段、440 変化画素抽出手段、441 尤度算出手段、442 位置・姿勢判定手段、600,620 立体モデル、601,621 主軸、610 水平面、700 設置物、710 撮影面。

Claims (6)

  1. 撮影手段により所定の三次元空間を撮影した画像における対象物の像の存在を、前記三次元空間における所定の線形部分空間にて定義される長手方向の主軸を有した前記対象物の立体モデルを用いて判定する対象物画像判定装置であって、
    前記撮影手段の視線ベクトルの前記線形部分空間に直交する成分の大きさを射影距離と定義し、
    前記画像の各画素に対応付けて、当該画素に対応する前記視線ベクトルの前記三次元空間内の設置物までの前記射影距離を記憶した設置物距離記憶手段と、
    前記対象物が存在し得る前記三次元空間内の候補位置を設定する候補設定手段と、
    前記候補位置での前記立体モデルを前記画像の座標系に投影したモデル像を出力するモデル像出力手段と、
    前記候補位置までの前記射影距離を算出するモデル距離算出手段と、
    前記立体モデルの前記モデル像を構成する画素のうち、当該画素に対応して前記設置物距離記憶手段に記憶されている前記射影距離が当該立体モデルの前記候補位置までの前記射影距離以上である画素を対象物可視画素と推定する可視領域推定手段と、
    前記画像における前記対象物可視画素の画像特徴から前記対象物の像の存在を判定する対象物判定手段と、
    を有することを特徴とする対象物画像判定装置。
  2. 前記線形部分空間は鉛直方向の直線であり、前記射影距離は前記視線ベクトルを水平面に正射影した像の長さで定義される水平距離であること、を特徴とする請求項1に記載の対象物画像判定装置。
  3. 前記線形部分空間は直線であり、
    前記射影距離は、前記主軸に直交する第1軸及び第2軸を座標軸に有した直交座標系における前記視線ベクトルの前記第1軸及び前記第2軸各方向の成分の大きさで定義される第1距離及び第2距離であり、
    前記設置物距離記憶手段は、前記設置物までの前記視線ベクトルの前記第1距離及び前記第2距離を記憶し、
    前記モデル距離算出手段は、前記候補位置までの前記視線ベクトルの前記第1距離及び前記第2距離を算出し、
    前記可視領域推定手段は、前記第1距離又は前記第2距離を用いて前記対象物可視画素を推定すること、
    を特徴とする請求項1又は請求項2に記載の対象物画像判定装置。
  4. 前記線形部分空間は水平面であり、前記射影距離は前記視線ベクトルを鉛直軸に正射影した像の長さで定義される鉛直距離であること、を特徴とする請求項1に記載の対象物画像判定装置。
  5. 前記モデル像出力手段は、
    前記対象物の前記立体モデルを記憶した立体モデル記憶手段と、
    前記立体モデルを前記候補位置に配置して前記画像の座標系に投影し、前記モデル像を生成するモデル像生成手段と、
    を有することを特徴とする請求項1から請求項4のいずれか1つに記載の対象物画像判定装置。
  6. 前記モデル像出力手段は、
    前記三次元空間内の各位置での前記対象物の前記モデル像を記憶したモデル像記憶手段と、
    前記モデル像記憶手段から前記候補位置に対応して記憶されている前記モデル像を読み出すモデル像読み出し手段と、
    を有することを特徴とする請求項1から請求項4のいずれか1つに記載の対象物画像判定装置。
JP2017032053A 2017-02-23 2017-02-23 対象物画像判定装置 Active JP6548682B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017032053A JP6548682B2 (ja) 2017-02-23 2017-02-23 対象物画像判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032053A JP6548682B2 (ja) 2017-02-23 2017-02-23 対象物画像判定装置

Publications (2)

Publication Number Publication Date
JP2018136831A JP2018136831A (ja) 2018-08-30
JP6548682B2 true JP6548682B2 (ja) 2019-07-24

Family

ID=63366990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032053A Active JP6548682B2 (ja) 2017-02-23 2017-02-23 対象物画像判定装置

Country Status (1)

Country Link
JP (1) JP6548682B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148077A (ja) * 1999-11-19 2001-05-29 Fujitsu General Ltd 侵入者検出装置
JP3734793B2 (ja) * 2002-12-09 2006-01-11 三菱電機株式会社 人物検出装置
JP5667846B2 (ja) * 2010-11-15 2015-02-12 セコム株式会社 対象物画像判定装置
JP2012155595A (ja) * 2011-01-27 2012-08-16 Secom Co Ltd 対象物画像判定装置

Also Published As

Publication number Publication date
JP2018136831A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
US9196045B2 (en) Analysis of three-dimensional scenes
US7003136B1 (en) Plan-view projections of depth image data for object tracking
EP2202672B1 (en) Information processing apparatus, information processing method, and computer program
EP3016071B1 (en) Estimating device and estimation method
WO2019225547A1 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
Black et al. Multi-camera image measurement and correspondence
AU2016284943A1 (en) Methods circuits devices systems and associated computer executable code for Multi factor image feature registration and tracking
WO2017183769A1 (ko) 이상 상황을 감지하는 장치 및 방법
WO2010073929A1 (ja) 人判定装置、方法およびプログラム
JP7420135B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5525495B2 (ja) 映像監視装置、映像監視方法およびプログラム
JP5027758B2 (ja) 画像監視装置
JP5667846B2 (ja) 対象物画像判定装置
JP5147760B2 (ja) 画像監視装置
JP5687035B2 (ja) 人物追跡装置
JP5552069B2 (ja) 移動物体追跡装置
JP2008226109A (ja) 映像解析システムおよび映像解析方法
US20220343661A1 (en) Method and device for identifying presence of three-dimensional objects using images
JP6548683B2 (ja) 対象物画像推定装置および対象物画像判定装置
JP2012155595A (ja) 対象物画像判定装置
JP6548682B2 (ja) 対象物画像判定装置
JP2007109126A (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP7096176B2 (ja) 物***置推定装置およびその方法
Padeleris et al. Multicamera tracking of multiple humans based on colored visual hulls
JP2017028688A (ja) 画像管理装置、画像管理方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R150 Certificate of patent or registration of utility model

Ref document number: 6548682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250