JP4706535B2 - 複数カメラを用いた移動物体監視装置 - Google Patents

複数カメラを用いた移動物体監視装置 Download PDF

Info

Publication number
JP4706535B2
JP4706535B2 JP2006092746A JP2006092746A JP4706535B2 JP 4706535 B2 JP4706535 B2 JP 4706535B2 JP 2006092746 A JP2006092746 A JP 2006092746A JP 2006092746 A JP2006092746 A JP 2006092746A JP 4706535 B2 JP4706535 B2 JP 4706535B2
Authority
JP
Japan
Prior art keywords
moving object
tracking
monitoring
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006092746A
Other languages
English (en)
Other versions
JP2007267294A (ja
Inventor
雅則 三好
博 正嶋
小沼  知恵子
政人 竹内
和範 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006092746A priority Critical patent/JP4706535B2/ja
Publication of JP2007267294A publication Critical patent/JP2007267294A/ja
Application granted granted Critical
Publication of JP4706535B2 publication Critical patent/JP4706535B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視領域に設置された複数のカメラを用いて人間や自動車などの移動物体を監視する装置に関する。
犯罪発生率の増加など社会不安に対処するために、不審者や不審車両を監視することを目的としたカメラの設置台数が増加している。このように多数のカメラを用いた監視では、監視領域を限られた監視員リソースで効率的に監視するための監視支援技術が必要になる。
このような監視支援技術として、特許文献1に示されている「移動物体追跡装置」がある。ここでは、不審者等の追跡対象となる移動物体を追跡し、できるだけ追跡対象が画面に表示されるように、画像切替を自動的に行う技術が開示されている。この技術により、不審者発見後、監視員は多数の監視映像を注視することなく、容易に不審者を追跡監視できるようになる。
また、特許文献2に示されている「広域監視装置」では、監視領域のマップ上に移動物体の軌跡を表示し、監視映像と連携させて表示する技術が開示されている。これにより、移動物体の過去の位置と現在の位置を容易に把握できるようになる。
特開平6−325180号公報 特開2005−86626号公報
上記従来技術では、監視員または装置が追跡指示を出してから追跡を開始するので、監視員は追跡開始前の状況を把握できない。
また、上記従来技術では、監視領域のマップ上に移動物体の軌跡を表示するものであり、幾何学的な位置の履歴を確認することはできるが、監視対象の挙動などの過去の状況を知ることができない。
本発明は、上記の点を考慮してなされたものであり、監視対象の状況を容易に把握できる移動物体監視装置を提供する。
本発明による移動物体監視装置においては、複数のカメラで撮影した映像から算出される移動物体の特徴量から移動物体を追跡した結果を用いて、移動物体が映っているカメラ映像を選択すると共に移動物体の移動軌跡を生成し、選択されたカメラ映像と生成された移動軌跡とから監視画面を生成する。
本発明によれば、軌跡情報に加えて選択されたカメラ映像を表示することにより、追跡対象の状況を容易に把握できる。
実施例1
図1は、本発明の一実施例である移動物体監視装置の機能構成を示すブロック図である。
カメラ100は、ネットワークカメラやビデオカメラなどの撮影装置である。監視領域全体を撮影できるように複数のカメラを設置する。カメラの設置密度は疎であっても密であっても構わない。
映像取得部102はカメラ100で撮影した映像を取得する。カメラ100がネットワークカメラの場合は、ネットワーク経由ですでにデジタル化された画像データを一定の時間間隔で取得する。ビデオカメラの場合にはカメラより出力されるアナログ信号を取得した後で、デジタル化する。
映像DB104は、映像取得部102で取得した画像データを蓄積するデータベース
(DB)である。画像データのフォーマットとしては、JPEG(Joint Photographic
Experts Group),PNG(Portable Network Graphics)等一般的に利用されるものを利用すればよい。また、連続した静止画を動画データとして格納しても構わない。この場合、MPEG(Moving Picture Experts Group)などのフォーマットを利用すればよい。
特徴量算出部106は、映像DB104に格納された画像データに映っている移動物体の特徴量を算出する。特徴量は、移動物体固有の特徴を現すベクトル量であり、色やテクスチャの特徴,形状の特徴,動きの特徴など様々なものが有る。例えば、移動物体の色の特徴として、下半身と上半身の最頻輝度値を用いることができる。この場合、特徴量は二次元のベクトルとなる。
特徴量DB108は、特徴量算出部106で算出した移動物体の特徴量と関連情報を蓄積するデータベース(DB)である。
移動物体追跡部110は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか追跡する。ここで、追跡対象は人物だけに限定するものではなく、移動物体であればどのようなものでも構わない。
映像選択部112は、移動物体追跡部110の追跡結果を用いて、映像DB104の中から移動物体が映っているカメラ映像を選択する。
軌跡生成部114は、移動物体追跡部110の追跡結果を用いて、移動物体の移動軌跡を生成する。移動軌跡とは移動物体の過去の移動履歴を表す線分である。
サムネイル生成部116は、軌跡生成部114が生成する軌跡を、本監視装置の利用者にとって分かりやすいものにするためにサムネイルを生成する。サムネイルとは、カメラ100で撮影した映像を縮小した画像データである。過去の代表的な映像をサムネイルとして軌跡上に重ねて表示することで、移動軌跡を見るだけで過去の映像履歴を一覧することが可能になる。
監視画面生成部118は、映像DB104に蓄積された映像データと映像選択部112が選択した移動物体が映っている映像データと軌跡生成部114が生成した軌跡データから、本監視装置の利用者に提供する監視画面を生成する。
入力手段120は、マウス,キーボード等の入力装置であり、“追跡開始”,“追跡終了”等の本監視装置の利用者の操作を受け付ける。
出力手段122は、ディスプレイなどの出力装置であり、監視画面生成部118が生成する監視画面を利用者に対して表示する。
次に、図2および図3で、監視画面生成部118が生成し出力手段122に表示する監視画面の表示例を説明する。監視画面は、複数映像監視画面と追跡画面で構成される。以下順に説明する。
まず、図2で複数の映像を閲覧するための複数映像監視画面の例を説明する。
画面左部のマップ200は、監視領域全体の概略を示すマップである。この例では、3階建てのビルが監視対象であることを表している。
アイコン202は、マップ200上でのカメラの幾何学的な配置を示すものである。この例では、6台のカメラが監視領域内に配置されている。
映像監視領域204は、カメラ100で撮影した映像を表示する領域である。この例では、監視映像206等、4台のカメラの映像を表示している。5台以上のカメラの映像を表示する場合には、映像監視領域204の分割数を大きくするか、または映像監視領域
204の一部を表示するようにしてスクロールバーで表示領域を変更できるようにすればよい。逆に、3台以下のカメラの映像を表示する場合には、映像監視領域204の分割数を小さくすればよい。
この複数映像監視画面によって、本装置の利用者は、カメラ100で撮影した複数の映像を同時に閲覧することができる。画面上で不審人物を確認した場合には、映像監視領域204の監視映像をマウスでクリックすることで追跡開始を指示できる。追跡終了ボタン208をマウスでクリックすることで、現在実行中の追跡を停止できる。
なお、アイコン202と映像監視領域204内の映像との対応関係が明確になるように、例えば、両者をリンク210のようにアイコン202と監視映像206を線分で結んでもよい。また、映像監視領域204内の映像上に、アイコン202に対応するカメラの名称を表示してもよい。
次に、図3で特定の移動物体を監視するための追跡画面の例を説明する。
画面全体の構成は図2の複数映像監視画面と基本的に同じである。異なるのは、マップ200上に、移動物体の軌跡300を表示する点、および、追跡対象を追跡しているカメラの映像だけを監視領域204に表示する点である。
移動物体の軌跡300は、サムネイル302と矢印306で構成される。サムネイル
302とは、カメラで撮影した映像を縮小した画像データである。追跡対象がアイコン
304に対応するカメラで撮影された画像データを過去の履歴として利用する。一方、矢印306は、サムネイル302からサムネイル308に移動したことを表す。軌跡の始点のサムネイル302は、このサムネイルに対応するカメラで追跡が始まったことを示し、軌跡の終点のサムネイル310は、このサムネイルに対応するカメラで現在移動物体を追跡中であることを示している。ここで、このように現在移動物体を追跡しているカメラを、カレントカメラと呼ぶことにする。
監視領域204上には、カレントカメラで撮影した監視映像206を表示する。この際、カレントカメラに対応するアイコン202を、ハイライト表示することで、監視映像
206を撮影したカメラを容易に把握できる。また、サムネイル302をマウスでクリックすると、サムネイルに対応する監視映像を監視領域204に表示するようにしてもよい。
このように、過去の代表的な映像をサムネイルとして軌跡上に重ねて表示することで、移動軌跡を見るだけで移動物体の過去の状況を容易に把握できる。
図3では追跡数が一つの場合の追跡画面の例を示したが、追跡数は複数であっても構わない。図18には、追跡数が二つの場合の追跡画面の例を示す。この画面には、移動軌跡300と移動軌跡1800を表示している。移動軌跡300については、図3に示したものと同じである。移動軌跡1800は、移動軌跡300と同じようにサムネイルと矢印で構成されている。また、移動軌跡1800のカレントカメラに対応する監視映像1802を監視領域204の下部表示している。移動軌跡を表示する際には、移動軌跡が重なり合って見えなくなるのを防ぐために、移動軌跡300に対して右方向と下方向にオフセットをかけて移動軌跡1800を表示している。
次に、図4で移動物体追跡の基本原理を説明する。左側はカメラで撮影した監視映像であり、右側はその監視映像に対して特徴量算出部106で算出した特徴量をグラフ化したものである。また、特徴量をグラフ化する際には、特定の監視映像に対する特徴量だけではなく、その直前の監視映像数枚に対する特徴量も同時に表示してある。そのため、追跡対象一人に対して特徴量がプロットされている。これは、特徴量の算出誤差を考慮し、追跡精度を高めるためである。なお、監視映像の取得時刻は、上から下方向に、それぞれ
t1,t2,t3(t1<t2<t3)とする。
まず、時刻t1の監視映像400には、移動物体として人物402と人物404が存在しており、それぞれ、特徴量空間406では特徴量408と特徴量410に対応している。
次に、時刻t2における監視映像412には、移動物体として人物414と人物416が存在しており、それぞれ、特徴量空間418では特徴量420と特徴量422に対応している。ここで、特徴量空間406の特徴量408と特徴量空間418の特徴量420が同じ場所に位置しているので、人物402は人物414と同じ可能性が高く、監視映像
400から監視映像412に移動したと判定することができる。
ここで、特徴量408と特徴量420の同値判定には、それぞれの重心間のユークリッド距離を用る。この距離が、あらかじめ定めた所定の閾値よりも小さい場合には両者が十分近く同じであると判定する。ユークリッド距離以外にも、集団の分散を考慮したマハラノビス距離を用いても構わない。また、ウイルクスのΛ統計を用いて両集団に差があるのか否かを検定しても良い。マハラノビス距離およびウイルクスのΛ統計は多変量解析でよく利用される方法であり、例えば、刊行物「すぐわかる多変量解析」(石村貞夫著,東京図書,1992)に記載されている。
次に、時刻t3における監視映像424には、移動物体として人物426が存在しており、特徴量空間428では特徴量430に対応している。ここで、特徴量空間406の特徴量410と特徴量空間428の特徴量430が同じ場所に位置しているので、人物404は人物426と同じ可能性が高く、監視映像400から監視映像424に移動したと判定することができる。
このように、特徴量空間で同じような値を持つ特徴量を検索することで、特定の移動物体がカメラ間をどのように移動したのか追跡することが可能になる。
次に、図5を用いて、本実施例の監視装置における監視方法の処理の流れを説明する。
ステップ500では、ステップ502からステップ518までの処理を、あらかじめ定めた所定の頻度で繰り返す。
ステップ502では、映像取得部102でカメラによって撮影した監視映像を取得する。
ステップ504では、特徴量算出部106によってステップ502で取得した映像中の移動物体の特徴量を算出する。
ステップ506では、監視画面生成部118によって本監視装置の利用者の操作を処理する。ここで、利用者の操作は入力手段120を用いて入力される。
ステップ508では、現在実行中の追跡について、ステップ510からステップ516の処理を繰り返す。
ステップ510では、処理対象の時刻tを現時刻に設定する。これにより、ステップ
512での追跡処理は現時刻を基準に実施される。
ステップ512では、ステップ510で設定した時刻tを基準にして、移動物体追跡部110によって人物追跡を実行する。
ステップ514では、ステップ512での人物追跡の結果、カメラ間の渡りが発生したかどうか判定し、発生した場合には、ステップ516を実行する。ここで、カメラ間の渡りとは、追跡対象が当初映っていたカメラから消えて、他のカメラに現れることである。
ステップ516では、軌跡生成部114によって人物の移動軌跡を生成する。
ステップ518では、監視画面生成部118によって監視画面を生成し出力手段122に表示する。
次に、図6のフローチャートを使って、図5のステップ506の入力処理の詳細を説明する。
ステップ600では、入力手段120からの本監視装置の利用者の操作を受け付ける。
ステップ602では、ステップ600での入力結果を判定する。“追跡開始”が指定された場合には、ステップ604からステップ608を実行する。“追跡開始”は、例えば、図2の複数映像監視画面の監視映像206をマウスでクリックすることで指定される。一方、“追跡終了”が指定された場合には、ステップ610を実行する。“追跡終了”は、例えば、図2の複数映像監視画面の追跡終了ボタン208をマウスでクリックすることで指定される。
ステップ604では、ステップ600で指定されたカメラに映っている人物に対応する特徴量を、追跡対象の特徴量として特徴量DBに記憶する。
ステップ606では、ステップ600で指定されたカメラをカレントカメラとする。カレントカメラとは、前述のように人物追跡時に移動物体を現時点で追跡しているカメラのことである。
ステップ608では、図5のステップ508の処理対象に加えるために、ステップ604とステップ606で得た情報を基にして追跡を新規登録する。
ステップ610では、現在実行中の全ての追跡を停止する。この結果、図5のステップ508で処理対象となる追跡は一つも存在しなくなる。
次に、図7のフローチャートを使って、図5のステップ512の人物追跡の処理の詳細を説明する。
ステップ700では、カレントカメラの映像に追跡人物が存在するかどうか判定する。追跡人物とは図5のステップ508で処理対象に指定した移動軌跡に対応する人物のことである。なお、ここで人物と表現しているが車両等移動物体全般のことを含むこととする。カレントカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。カレントカメラの映像に対応する特徴量空間に、追跡対象の特徴量が処理対象の時刻tにおいても存在する場合には、カレントカメラに追跡人物が存在しないと判定し、ステップ702から706を実行する。
ステップ702では、カレントカメラ以外に追跡人物が存在するのか検索する。この検索処理については図8にて詳細に説明する。
ステップ704では、ステップ702の追跡人物の検索処理の結果を判定し、他のカメラに追跡人物が存在した場合には、ステップ706を実行する。
ステップ706では、ステップ702での検索結果を基にして、追跡人物が存在するカメラを新たにカレントカメラとして設定する。
ステップ708では、処理開始から事前に指定した所定時間が経過したのか判定する。これは、追跡処理を時間で打ち切るための処理である。必要であれば所定時間に無限大を指定することで、追跡処理の打ち切りを回避することも可能である。判定の結果、所定時間を経過している場合には、ステップ710を実行する。
ステップ710では、現在の処理対象の追跡を打ち切るための停止処理を実行する。
次に、図8のフローチャートを使って、図7のステップ702の追跡人物の検索処理の詳細を説明する。
ステップ800では、本実施例の監視装置の全てのカメラについてステップ802からステップ808を繰り返し実行する。
ステップ802では、ステップ800で処理対象となったカメラがカレントカメラと同じかどうか判定する。同じ場合にはステップ804を実行する。
ステップ804では、処理の効率化のためにステップ800の現在のループ処理をスキップして次のループ処理へと進む。カレントカメラには追跡対象の人物が存在しないことが、図7のステップ700で確定しているためである。
ステップ806では、ステップ800で処理対象となったカメラに追跡対象の人物が存在するかどうか判定する。処理対象のカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。判定の結果、存在する場合にはステップ808を実行する。
ステップ808では、現在処理対象のカメラを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生し、かつ現在処理対象のカメラに追跡対象が存在することが分かる。
ステップ810では、無効を意味するNULLを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生していないことが分かる。
次に、図1の特徴量DB116に格納する特徴量のデータ構造の例を図9を使って説明する。特徴量データは、特徴量データ全体を表すテーブル900と特徴量ベクトルを表すテーブル910で構成される。
テーブル900は一つの特徴量データを表すテーブルである。このテーブルはデータ項目902〜データ項目908から構成される。データ項目902は、カメラを一意に表すIDである。このIDに対応するカメラで撮影した映像から特徴量を算出したことを示す。データ項目904は、追跡対象の人物を表すIDである。このIDは一つのカメラ内で人物を追跡する過程で定まるものである。あくまでも、一つのカメラ内で一意に定まるものであり、複数のカメラ間で同じ人物に対して一意に定まるものではない。データ項目
906は、特徴量を算出した映像の取得時刻である。データ項目908は、算出した特徴量ベクトルを格納する領域へのポインタであり、テーブル910を指し示している。
特徴量ベクトルを表すテーブル910は、データ項目912と可変長のデータ項目914から構成される。データ項目912は、ベクトルの次数である。特徴量ベクトルの次数は、特徴量として色やテクスチャの特徴,形状の特徴,動きの特徴など様々なものが有るため、一意には定まらない。ここでは、採用する特徴量を自由に変更できるように、特徴量ベクトルの次数をデータ項目912に保持することにする。例えば、移動物体の色の特徴として下半身と上半身の最頻輝度値を用いる場合には、次数は2となる。データ項目914は、特徴量ベクトルの要素であり、データ項目912で指定した次数の数だけ項目が存在する。
次に図17に、図1の実施例の監視装置をネットワーク環境下でシステム構築する際の機能配置の一例を示す。このシステムは、ネットワーク1700に、カメラ100とノード1702〜ノード1708が接続される形で構築されている。
ネットワーク1700は、LANなど一般的に利用されているネットワークである。このネットワーク1700を介して図1の機能ブロックを配置する。
カメラ100はネットワークインタフェースをもったカメラであり、ネットワーク1700に接続する。このような構成を取ることで、ネットワークに接続された各種機器からカメラ100の映像を取得できる。
映像を取得するノード1702には、映像取得部102と映像DB104を配置する。
特徴量を算出するノード1704には、特徴量算出部106と特徴量DB108を配置する。
人物追跡を行うノード1706には、移動物体追跡部110と軌跡生成部112とサムネイル生成部116を配置する。
監視画面を生成するノード1708には、映像選択部112と監視画面生成部114と入力手段116と出力手段118を配置する。
以上述べた実施例により、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体をより少ない負荷で追跡監視できる。また、移動軌跡を確認することで、過去にどのような経路を通ってきて、現在どこにいるのか簡単に把握できる。またサムネイルを確認することで、追跡対象の過去の状況を画像で確認できる。また、利用者がサムネイルで確認することで、装置が異なる移動物体を同じ移動物体として追跡してしまう移動物体追跡のミスを早期に発見することも可能である。
実施例2
第1の実施例では、追跡対象を時間軸の正方向に追跡していたが、時間軸の逆方向、すなわち過去に遡って追跡するようにしてもよい。ここでは、このような追跡を逆追跡と呼ぶことにする。この場合の実施例を以下に示す。基本的には実施例1と大部分が同じ構成であるので、変更がある部分について説明する。
図10は、逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図である。図10中の移動物体逆追跡部1000以外の機能ブロックは図1に示したものと同じである。
移動物体逆追跡部1000は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか過去に遡って追跡する。
図11は、逆追跡機能を持つ移動物体監視装置の追跡画面の例を示している。追跡画面の大部分は、図3に示した追跡画面と基本的に同じであり、異なるのは移動軌跡1100である。
軌跡1100は、サムネイル1102と矢印1104で構成される。矢印1104は、サムネイル1102に移動する前にはサムネイル1106に存在していたことを表す。このように図3の軌跡300とは逆方向に過去に遡って軌跡を表示する。軌跡の始点となるサムネイル1102は、このサムネイルに対応するカメラで逆追跡が始まったことを示している。一方、軌跡の終点となるサムネイル1108は、このサムネイルに対応するカメラ100で逆追跡が終了したことを示している。逆追跡の終了条件としては、逆追跡の対象人物を見失った場合、逆追跡で遡る時間が所定の時間を越えた場合等が有る。
次に、図12を用いて、逆追跡機能を持つ本実施例の監視装置における監視方法の処理の流れをフローチャートを使って説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ510がステップ1200変更された点である。
ステップ1200では、逆追跡の処理時刻tbをあらかじめ与えておいたΔtだけ減じる。これは追跡処理の対象時刻をΔtだけ遡ることを意味する。その後で、追跡処理の対象時刻tをtbに設定する。これにより、ステップ512での追跡処理は、時刻tbの情報を基にして実行される。
次に、図13のフローチャートを使って、図12のステップ506の入力処理の詳細を説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ1300が追加された点である。
ステップ1300では、逆追跡の処理時刻tbに現時刻を設定する。これは、現時刻を起点にして過去に遡って追跡対象を逆追跡するためである。
本実施例によれば、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を過去に遡って逆追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体の過去の行動を容易に把握できる。つまり、移動軌跡を確認することで、過去にどのような経路を通ってきて、現在どこにいるのか簡単に把握できる。またサムネイルを確認することで、追跡対象の過去の状況を画像で確認できる。
実施例3
実施例1および実施例2では、追跡対象を時間軸の正方向または逆方向のどちらかに追跡していたが、両方向、つまり正方向と逆方向の双方に追跡するようにしてもよい。ここでは、このような追跡を正逆追跡と呼ぶことにする。この場合の実施例を以下に示す。基本的には実施例1および実施例2と大部分が同様の構成であるので、変更がある部分を説明する。
図14は、正逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図である。図14中の移動物体正逆追跡部1400以外の機能ブロックは図1に示したものと同様である。
移動物体正逆追跡部1400は、特徴量DB108に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか時間軸の正方向と逆方向の両方に向かって追跡する。
図15は、正逆追跡機能を持つ移動物体監視装置の追跡画面の例を示している。追跡画面の大部分は、図3に示した追跡画面と基本的に同様であり、異なるのは移動軌跡1500と移動軌跡1502である。
移動軌跡1500はサムネイル1504を始点とする正方向の追跡、移動軌跡1502は同じくサムネイル1504を始点とする逆方向の追跡である。それそれ、図3と図11で説明した軌跡と同様である。このように、正方向と逆方向の両方の移動軌跡を表示する。
次に、図16を用いて、正逆追跡機能を持つ本実施例の監視装置における監視方法の処理の流れを説明する。基本的には、図5に示したフローチャートと同様であり、異なるのはステップ1600〜ステップ1606が追加された点である。ステップ510〜ステップ516は正方向の追跡処理であり、一方ステップ1600〜ステップ1606では逆方向の追跡処理である。ステップ1600〜ステップ1606は、図12のステップ1200〜ステップ516と同様の処理である。
以上に述べた実施例によれば、監視エリアのマップ上にサムネイル付きの移動軌跡を表示しながら、特定の人物などの移動物体を追跡表示すると同時に、過去に遡って逆追跡表示することが可能になる。したがって、本実施例の監視装置の利用者は、移動物体を少ない負荷で追跡監視できると同時に、移動物体の過去の行動を容易に把握できる。
実施例4
実施例1〜3では、監視装置の利用者が、入力手段120を使って明示的に追跡指示を出すが、本装置で異常行動を自動検知するようにして、検知時に自動的に追跡指示を出すようにしてもよい。この場合の実施例を以下に示す。基本的には実施例1と大部分が同様の構成であるので、変更がある部分を説明する。
図19は、異常検知機能を持つ移動物体監視装置の機能構成を示すブロック図である。異常行動検知部1900が追加された以外は図1のブロック図と同様である。
異常行動検知部1900は、画像DB104に格納された画像データを用いて異常行動を検知する。異常行動が検知された場合には、移動物体追跡部110に追跡開始の指示信号を出力し、新しく移動物体の追跡を開始する。
ここで、異常行動の検知方法としては、例えば、刊行物「複数人動画像からの異常動作検出」(情報処理学会研究報告,コンピュータビジョンとイメージメディア、2004−CVIM−145)に記載されている立体高次局所自己相関特徴を用いた公知の異常行動判別方法を利用すればよい。立体高次局所自己相関特徴とは、顔画像認識などによく使われる高次局所自己相関特徴を時間方向に拡張した特徴であり、動画の特徴量を得ることができる。この特徴とは、画像を時系列に並べたボクセルデータ中の各点において251種類の局所的な自己相関特徴を計算し、ボクセルデータ全体にわたって積分することで得られる251次元のベクトル量である。そして、この手法で得られた動画の特徴量を判別分析にかけて異常行動であるかどうか判別する。
本実施例によれば、カメラで撮影した映像中の異常行動を検知し自動的に追跡を開始できる。したがって、監視員が追跡指示を出さなくても、不審人物などの移動物体の追跡が可能になり、結果として監視員の負担を低減することが可能になる。
本発明の一実施例である移動物体監視装置の機能構成を示すブロック図。 複数映像監視画面の例。 追跡監視画面の例。 移動物体追跡の基本原理の説明図。 実施例の監視装置における監視方法の処理流れ。 入力処理の詳細。 人物追跡の処理の詳細。 追跡人物の検索処理の詳細。 特徴量データの構造の例。 逆追跡機能を持った移動物体監視装置の機能構成を示すブロック図。 逆追跡機能を持つ移動物体監視装置の追跡画面の例。 逆追跡機能を持つ監視装置における監視方法の処理の流れ。 逆追跡機能を持った移動物体監視装置の入力処理の処理の詳細。 正逆追跡機能を持つ移動物体監視装置の機能構成を示すブロック図。 正逆追跡機能を持つ移動物体監視装置の監視画面の例。 正逆追跡機能を持つ監視装置における監視方法の処理の流れ。 図1の実施例の監視装置をネットワーク環境下でシステム構築する際の機能配置の一例。 複数追跡時の追跡監視画面の例。 異常行動検知機能を持った移動物体監視装置の機能構成を表すブロック図。
符号の説明
100…カメラ、102…映像取得部、104…映像DB、106…特徴量算出部、
108…特徴量DB、110…移動物体追跡部、112…映像選択部、114…軌跡生成部、116…サムネイル生成部、118…監視画面生成部、120…入力手段、122…出力手段。

Claims (6)

  1. 複数のカメラを用いて移動物体を監視する移動物体監視装置において、
    複数のカメラで撮影した映像から移動物体の特徴量を算出する特徴量算出部と、
    前記特徴量から前記移動物体を追跡する移動物体追跡部と、
    前記移動物体追跡部の追跡結果を用いて前記移動物体が映っているカメラ映像を選択する映像選択部と、
    前記追跡結果を用いて、前記移動物体の移動軌跡を生成する軌跡生成部と、
    前記映像選択部が選択した前記カメラ映像と前記軌跡生成部が生成した前記移動軌跡とから監視画面を生成する監視画面生成部と、
    前記複数のカメラで撮影した映像からサムネイルを生成するサムネイル生成部と、
    を備え、前記監視画面生成部は、前記移動軌跡上に前記サムネイルを重ねるように前記監視画面を生成することを特徴とする移動物体監視装置。
  2. 請求項1において、前記移動物体追跡部は、前記移動物体を、過去に遡って追跡することを特徴とする移動物体監視装置。
  3. 請求項1において、前記移動物体追跡部は、前記移動物体を、時間軸の正方向と逆方向の両方に向かって追跡することを特徴とする移動物体監視装置。
  4. 請求項1ないしのいずれか1項において、さらに、前記複数のカメラで撮影した映像から異常行動の発生を検知して、前記移動物体追跡部に追跡開始を指示する異常行動検知部を備えることを特徴とする移動物体監視装置。
  5. 請求項1ないしのいずれか1項において、前記監視画面生成部は、監視領域を表すマップを表示する監視画面を生成することを特徴とする移動物体監視装置。
  6. 請求項1ないしのいずれか1項において、前記移動物体追跡部は、重心間のユークリッド距離,重心間のマハラノビス距離,ウイルクスのΛ統計のいずれかを用いて前記特徴量を算出することを特徴とする移動物体監視装置。
JP2006092746A 2006-03-30 2006-03-30 複数カメラを用いた移動物体監視装置 Expired - Fee Related JP4706535B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006092746A JP4706535B2 (ja) 2006-03-30 2006-03-30 複数カメラを用いた移動物体監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006092746A JP4706535B2 (ja) 2006-03-30 2006-03-30 複数カメラを用いた移動物体監視装置

Publications (2)

Publication Number Publication Date
JP2007267294A JP2007267294A (ja) 2007-10-11
JP4706535B2 true JP4706535B2 (ja) 2011-06-22

Family

ID=38639797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006092746A Expired - Fee Related JP4706535B2 (ja) 2006-03-30 2006-03-30 複数カメラを用いた移動物体監視装置

Country Status (1)

Country Link
JP (1) JP4706535B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109644253A (zh) * 2016-08-24 2019-04-16 松下知识产权经营株式会社 跟踪辅助装置、跟踪辅助***以及跟踪辅助方法
US10672133B2 (en) 2016-11-18 2020-06-02 Kabushiki Kaisha Toshiba Moving object tracking device, display device, and moving object tracking method

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140425A (ja) * 2008-12-15 2010-06-24 Hitachi Kokusai Electric Inc 画像処理システム
JP5478928B2 (ja) * 2009-03-31 2014-04-23 綜合警備保障株式会社 人物同定装置、人物同定方法、及び人物同定プログラム
JP4990997B2 (ja) * 2010-04-09 2012-08-01 東芝テック株式会社 動線編集装置及び動線編集プログラム
JP5400020B2 (ja) * 2010-12-20 2014-01-29 株式会社日立ビルシステム エレベーターの監視画像記録装置
JP6080346B2 (ja) * 2011-10-03 2017-02-15 株式会社日立国際電気 映像表示装置
WO2014125882A1 (ja) 2013-02-15 2014-08-21 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP6532234B2 (ja) * 2015-01-09 2019-06-19 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
CN104679864A (zh) * 2015-02-28 2015-06-03 武汉烽火众智数字技术有限责任公司 一种基于gis的嫌疑目标智能跟踪方法和装置
KR102015588B1 (ko) * 2015-07-16 2019-08-28 한화테크윈 주식회사 배회 경보 방법 및 장치
CN105677922A (zh) * 2016-03-23 2016-06-15 苏州数字地图信息科技股份有限公司 一种利用视频定位目标的方法及装置
KR102407202B1 (ko) * 2016-06-22 2022-06-10 한국전자통신연구원 지능형 영상 분석 장치 및 방법
JP6742195B2 (ja) 2016-08-23 2020-08-19 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
US10956495B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10943122B2 (en) 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10929685B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10720182B2 (en) 2017-03-02 2020-07-21 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US10956494B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US10949705B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
US10929707B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10956773B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
WO2019077750A1 (ja) * 2017-10-20 2019-04-25 三菱電機株式会社 データ処理装置、プログラマブル表示器およびデータ処理方法
CN109657703B (zh) * 2018-11-26 2023-04-07 浙江大学城市学院 基于时空数据轨迹特征的人群分类方法
CN111277745B (zh) * 2018-12-04 2023-12-05 北京奇虎科技有限公司 目标人员的追踪方法、装置、电子设备及可读存储介质
JP6862596B1 (ja) * 2020-07-10 2021-04-21 株式会社 日立産業制御ソリューションズ 映像解析装置、広域監視システム及びカメラの選定方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (ja) * 1991-02-28 1992-09-29 Hitachi Ltd 監視装置
JPH07288802A (ja) * 1994-04-18 1995-10-31 Nippon Telegr & Teleph Corp <Ntt> 侵入物体監視装置
JPH09130783A (ja) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd 分散映像監視装置
JPH10150657A (ja) * 1996-09-20 1998-06-02 Hitachi Ltd 移動物体の表示方法、それを用いた表示システムおよびそのためのプログラム記録媒体
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2005086626A (ja) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd 広域監視装置
JP2006031678A (ja) * 2004-05-28 2006-02-02 Sony United Kingdom Ltd 画像処理
JP2006081053A (ja) * 2004-09-13 2006-03-23 Mitsubishi Electric Corp 移動体追跡支援システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (ja) * 1991-02-28 1992-09-29 Hitachi Ltd 監視装置
JPH07288802A (ja) * 1994-04-18 1995-10-31 Nippon Telegr & Teleph Corp <Ntt> 侵入物体監視装置
JPH09130783A (ja) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd 分散映像監視装置
JPH10150657A (ja) * 1996-09-20 1998-06-02 Hitachi Ltd 移動物体の表示方法、それを用いた表示システムおよびそのためのプログラム記録媒体
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2005086626A (ja) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd 広域監視装置
JP2006031678A (ja) * 2004-05-28 2006-02-02 Sony United Kingdom Ltd 画像処理
JP2006081053A (ja) * 2004-09-13 2006-03-23 Mitsubishi Electric Corp 移動体追跡支援システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109644253A (zh) * 2016-08-24 2019-04-16 松下知识产权经营株式会社 跟踪辅助装置、跟踪辅助***以及跟踪辅助方法
RU2727178C1 (ru) * 2016-08-24 2020-07-21 Панасоник Интеллекчуал Проперти Менеджмент Ко., Лтд. Устройство содействия отслеживанию, система содействия отслеживанию и способ содействия отслеживанию
US10672133B2 (en) 2016-11-18 2020-06-02 Kabushiki Kaisha Toshiba Moving object tracking device, display device, and moving object tracking method

Also Published As

Publication number Publication date
JP2007267294A (ja) 2007-10-11

Similar Documents

Publication Publication Date Title
JP4706535B2 (ja) 複数カメラを用いた移動物体監視装置
JP4613230B2 (ja) 移動物体監視装置
JP7282851B2 (ja) 装置、方法及びプログラム
JP5227911B2 (ja) 監視映像検索装置及び監視システム
JP6213843B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
JP4542207B1 (ja) 移動体検出方法および移動体検出装置
JP2953712B2 (ja) 移動物体検知装置
JP6159179B2 (ja) 画像処理装置、画像処理方法
US11676389B2 (en) Forensic video exploitation and analysis tools
JP5743849B2 (ja) 映像解析装置及びシステム
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
US9589192B2 (en) Information processing system, information processing method, and program
JP2018032994A (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6841608B2 (ja) 振る舞い検知システム
JP4309900B2 (ja) 映像監視システム
JP2010140425A (ja) 画像処理システム
CN114846514A (zh) 作业分析装置和作业分析方法
JP2011133984A (ja) 動作特徴抽出装置および動作特徴抽出方法
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2008278128A (ja) 監視システム、監視方法およびプログラム
JP6618349B2 (ja) 映像検索システム
JP4993678B2 (ja) 対話型動画像監視方法、対話型動画像監視装置および対話型動画像監視プログラム
JP2019020820A (ja) 映像認識システム
Salisbury et al. Crowdar: augmenting live video with a real-time crowd

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110228

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees