JP4339464B2 - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP4339464B2
JP4339464B2 JP28732299A JP28732299A JP4339464B2 JP 4339464 B2 JP4339464 B2 JP 4339464B2 JP 28732299 A JP28732299 A JP 28732299A JP 28732299 A JP28732299 A JP 28732299A JP 4339464 B2 JP4339464 B2 JP 4339464B2
Authority
JP
Japan
Prior art keywords
person
tracking
area
cursor
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28732299A
Other languages
Japanese (ja)
Other versions
JP2001111987A (en
Inventor
優 根木
Original Assignee
ダイコク電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイコク電機株式会社 filed Critical ダイコク電機株式会社
Priority to JP28732299A priority Critical patent/JP4339464B2/en
Publication of JP2001111987A publication Critical patent/JP2001111987A/en
Application granted granted Critical
Publication of JP4339464B2 publication Critical patent/JP4339464B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Pinball Game Machines (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、特定の人物を特定するためのカーソル形状を工夫した監視装置に関する。
【0002】
【発明が解決しようとする課題】
例えば、パチンコホールでは、店内に複数のカメラを設置し、カメラによる撮影画像をモニタに表示することにより不審人物を監視するようにしている。
【0003】
しかしながら、移動中の不審人物を複数のモニタにより監視し続けることは極めて困難である。この場合、不審人物の移動を画像処理装置により検出し、不審人物の表示エリアに対応してカーソルを表示すると共に、不審人物の移動に応じてカーソルの表示位置を移動することにより不審人物を特定することが考えられているものの、単にカーソルを表示しただけでは、多数の人物が居るようにな環境では、不審人物の特定が困難となる。
【0004】
また、不審人物が他の人物と交差したときは、画像処理装置が不審人物を見失うことがあり、このような場合は、不審人物の追尾が不可能となる。この場合、監視者は、各表示装置に映し出される画面中から不審人物を探して特定する必要があるので、その時間に手間取り、不審者を見逃してしまう虞がある。
【0005】
また、複数のカメラによる撮影画像をカメラに対応して設けられた複数のモニタに同時に表示することによりパチンコホール全体を監視するようにしているので、不審人物の移動に応じて不審人物を撮影対象とするカメラが変化する。このため、不審人物が映し出されているモニタが刻々と変化するので、不審人物を監視するための労力が多大である。
【0006】
本発明は上記事情に鑑みてなされたもので、その目的は、追尾対象人物を簡単に特定することができると共に、追尾対象人物の監視を容易に行うことができる監視装置を提供することにある。
【0007】
【課題を解決するための手段】
本発明は、所定の監視領域を撮影する撮影手段を設け、表示装置に前記撮影手段による撮影画像を表示する表示手段を設け、前記撮影手段による撮影画像に基づいて人物を検出する人物検出手段を設け、この人物検出手段により検出された人物のうちから特定の人物を指示するための入力手段を設け、この入力手段により特定の人物が指示された状態で追尾開始が指示されたときは当該特定の人物を追尾する追尾手段を設けた上で、前記表示手段は、前記入力手段により指示された人物の表示エリアを囲むようにカーソルエリアを表示すると共に前記追尾手段が追尾する追尾対象人物の表示エリアの移動に応じて前記カーソルエリアを移動し、前記追尾手段が追尾対象人物に対する追尾を失敗したときは、追尾候補となる複数の人物の表示エリアをそれぞれ囲むように複数のカーソルエリアを表示し、前記追尾手段は、前記表示手段により表示されたカーソルエリアに囲まれた人物のうち特定の人物が前記入力手段により指示された状態で追尾開始が指示されたときは当該人物を追尾するものである(請求項1)。
【0008】
このような構成によれば、表示手段は、表示装置に撮影手段による撮影画像を表示している。このとき、人物検出手段は、撮影手段による撮影画像に基づいて人物を検出している。
【0009】
さて、表示装置に表示された人物のうちから特定の人物を追尾するときは、入力手段により特定の人物を指示する。すると、表示手段は、入力手段により指示された人物の表示エリアを囲むようにカーソルエリアを表示するので、追尾対象人物を容易に特定することができる。また、追尾手段が追尾する人物の表示エリアの移動に伴ってカーソルエリアが移動するので、追尾対象人物を容易に特定して監視することができる。
【0014】
また、追尾対象人物が他の人物と交差したときは、人物を追尾することができない場合が生じるものの、このような場合、表示手段は、追尾候補となる複数の人物の表示エリアをそれぞれ囲むように複数のカーソルエリアを表示するので、入力手段により特定の人物を指示した状態で追尾開始を指示する。これにより、追尾手段は、新たに指示された人物を追尾するようになるので、追尾対象人物を確実に監視することができる。
【0018】
【発明の実施の形態】
以下、本発明の一実施の形態を図面を参照して説明する。
図1は全体の構成を概略的に示している。この図1において、監視領域には複数のカメラ(撮影手段に相当)1が設置されており、各カメラ1による撮影領域が監視領域全体をカバーするようになっている。このカメラ1は、撮影画像に応じた画像信号を出力する。
【0019】
画像処理装置2は、カメラ1に対応した複数の画像バッファ3、ユーザインタフェース4、人物検出部(人物検出手段に相当)5、追尾部(追尾手段に相当)6及び表示部(表示手段に相当)7から構成されている。
【0020】
画像バッファ3は、カメラ1からの画像信号をデジタルな画像情報として一時的に蓄積すると共に、蓄積したデジタル画像情報を人物検出部5及び表示部7に出力する。
【0021】
ユーザインタフェース4は、キーボード(入力手段に相当)8に対するキーボード操作若しくはマウス(入力手段に相当)9に対するマウス操作により追尾開始が指令されたときは、追尾開始確認を追尾部6に出力すると共に、キーボード操作若しくはマウス操作により入力されたカーソル位置情報を追尾部6及び表示部7に出力する。
【0022】
人物検出部5は、追尾部6からカメラ番号を入力したときは、そのカメラ番号のカメラ1に対応して設けられた画像バッファ3からのデジタル画像情報を入力すると共に、入力したデジタル画像情報に画像処理を施すことにより人物エリアのみを抽出し、その抽出結果を示す人物エリア情報を追尾部6に出力する。
【0023】
追尾部6は、人物検出部5からの人物エリア情報が示す人物の表示エリアにユーザインタフェース4から与えられたカーソル位置情報が示すカーソル位置が位置している場合は、後述するカーソルエリアを示すカーソルエリア情報を表示部7に出力すると共に、追尾対象人物を撮影しているカメラ1のカメラ番号をスイッチャ(切換手段に相当)10に出力する。また、追尾部6は、追尾対象人物が指示された状態でユーザインタフェース4から追尾開始確認を受けたときは、後述するように追尾対象人物の移動に応じてカーソルエリアの位置を示すカーソルエリア情報を変更する。
【0024】
表示部7は、カメラ1に対応して設けられている表示装置11に画像バッファ3からのデジタル画像情報を出力すると共に、ユーザインタフェース4からカーソル位置情報を受けたときは表示画面においてカーソル位置情報が示す位置にカーソルを表示し、さらに追尾部6からカーソルエリア情報を受けたときは表示画面においてカーソルエリア情報が示す位置にカーソルエリアを表示する。
【0025】
スイッチャ10は、表示部7から画像情報を入力すると共にユーザインタフェース4及び追尾部6からカメラ番号を入力するようになっており、入力したカメラ番号のカメラ1に対応して設けられた画像バッファ3からのデジタル画像情報をマスタ表示装置(特定の表示装置に相当)12に出力する。
【0026】
次に上記構成の作用について説明する。
図2は画像処理装置2の基本動作を示しており、所定時間毎に実行するようになっている。この図2において、画像処理装置2の表示部7は、全てのカメラ1に対応する画像バッファ3からのデジタル画像情報を入力すると共に(S201)、入力した画像情報を各カメラ1に対応する表示装置11に出力する(S202)。これにより、各表示装置11には対応するカメラ1による撮影画像が表示されるので、監視員は、各表示装置11の画像を監視することによりパチンコホール全体を監視することができる。
【0027】
さて、監視員が不審者を発見したときは、次のようにしてキーボード操作若しくはマウス操作により不審人物をマスタ表示装置12に表示させる。
【0028】
図3は画像処理装置2のカメラ切換動作を示しており、所定時間毎に実行するようになっている。この図3において、人物検出部5は、ユーザインタフェース4からカメラ番号を入力し(S301)、カメラ番号が有ったときは(S302:有)、スイッチャ10にカメラ番号を出力する(S303)。これにより、スイッチャ10は、入力したカメラ番号に対応して表示部7から出力されている画像情報をマスタ表示装置12に出力するので、マスタ表示装置12には不審人物が表示されるようになる(図6参照)。
【0029】
ここで、マスタ表示装置12に表示された不審人物を次のようにして特定する。
図4は画像処理装置2のカーソル処理動作を示すフローチャートで、所定時間毎に実行するようになっている。この図4において、画像処理装置2の人物検出部5は、先に設定した追尾中カメラ1に対応した画像バッファ3からデジタル画像情報を入力してから(S401)、そのデジタル画像情報に基づいて人物エリアを抽出すると共に(S402)、その人物エリアを追尾部6に出力する(S403)。
【0030】
一方、追尾部6は、人物検出部5からの人物エリアを入力してから(S404)、追尾中かを判断する(S405)。このとき、まだ追尾中ではないので(S405:NO)、ユーザインタフェース4から追尾開始確認を入力してから(S411)、追尾開始確認の有無を判断する(S412)。
【0031】
この場合、監視者は、追尾開始確認をまだ指示していないので、追尾部6は、追尾開始確認が無いことを確認してから(S412:無)、カーソル位置を入力すると共に(S417)、そのカーソル位置を含む人物エリアの有無を判断する(S418)。
【0032】
ここで、監視者が、キーボード操作若しくはマウス操作によりマスタ表示装置12に表示されている不審人物の表示エリアにカーソル(図7に符号13で示す)をポイントしたときは、追尾部6は、カーソル位置を含む人物エリアが有ると判断し(S418:有)、その人物エリアを囲むようにカーソルエリアを設定してから(S419)、カーソルエリアを表示部7に出力する(S409)。これにより、表示部7は、不審人物を撮影対象とするカメラ(以下、追尾対象カメラ)1による撮影画像における不審人物の表示エリアを囲むようにカーソルエリアを合成して追尾対象カメラ1に対応する表示装置11及びマスタ表示装置12に出力するので(S410)、表示装置11及びマスタ表示装置12には追尾対象人物の表示エリアを囲むようにカーソルエリア(図7に符号14で示す)が表示される。
【0033】
また、監視者がカーソル操作により人物の表示エリアからカーソルを退出させると、追尾部6は、カーソル位置を含む人物エリアは無いと判断して(S418:無)、カーソルエリアを無くす(S420)。
【0034】
この場合、上述したようにしてカーソルエリアにより特定した人物と異なる人物を特定したいときは、監視者は、マスタ表示装置12に表示されている新たな人物の表示エリアにカーソルを位置させる。これにより、図8に示すように異なる人物を特定することができる。
【0035】
以上の動作により、人物の表示エリアにカーソル13を位置させたときは、図7及び図8に示すように人物の表示エリアを囲むようにカーソルエリア14が表示されるので、不審人物を確実に特定することができる。
【0036】
さて、監視者は、上述のようにしてカーソルエリア14により特定した不審人物を追尾監視したいときは、キーボード操作若しくはマウス操作により追尾開始確認を指示する。
【0037】
すると、追尾部6は、追尾開始を入力したときに追尾確認が有ったときは(S412:有)、カーソル位置を入力し(S413)、カーソル位置を含む人物領域が有ることを確認すると共に(S414)、カーソルエリアを設定してから(S415)、追尾を開始する(S416)。そして、斯様に設定したカーソルエリアを表示部7に出力するので(S409)、表示部7は、追尾中カメラ1に対応した表示装置11及びマスタ表示装置12に表示している追尾対象人物の表示エリアを囲むようにカーソルエリアを合成して出力する。これにより、マスタ表示装置12には、追尾対象としてカーソルにより指示された不審人物の表示エリアを囲むようにカーソルエリア14が表示されようになる。
【0038】
このように特定の人物の追尾中においては(S405:YES)、追尾部6は、追尾を成功したか失敗したかを判断しており(S406)、追尾を成功している場合は(S406:成功)、追尾対象人物の表示エリアを囲むようにカーソルエリアを設定する(S408)。この場合、追尾部6は、追尾対象人物の表示エリアの位置に加えて大きさに応じてカーソルエリアを設定するので、カーソルエリア14は追尾対象人物の表示エリアの位置及び大きさにかかわらず不審人物の表示エリアを囲むように表示される。従って、監視者は、追尾対象人物を容易に特定して監視することができる。
【0039】
ところで、図9に示すように追尾対象人物が他の人物と交差したときは、追尾部6が追尾対象人物を見失ってしまい、追尾対象人物を正しく追尾できなくなることがある。
【0040】
追尾部6は、このように追尾に失敗したときは(S406:失敗)、全ての追尾対象候補にカーソルエリアを設定する(S407)。これにより、マスタ表示装置12には、図10に示すように複数の追尾対象候補の表示エリアを囲むようにカーソルエリア14が表示されるので、監視者は、複数の追尾対象候補のうちから真の追尾対象人物の表示エリアをカーソル13で指示した状態で追尾開始確認を入力する。これにより、図11に示すように真の追尾対象人物の表示エリアを囲むようにカーソルエリア14が表示されると共に、追尾部6は真の追尾対象人物を追尾するようになる。、
さて、追尾対象人物が当該追尾対象人物を撮影している追尾中カメラ1の撮影領域から脱出してしまったときは、マスタ表示装置12により追尾対象人物を監視できなくなることから、次のようにして追尾対象人物を監視できるようにした。
【0041】
図5は、画像処理装置2のカメラ切換動作を示している。この図5において、画像処理装置2の人物検出部5は、追尾中カメラ1に対応した画像バッファ3から画像情報を入力し(S501)、人物エリアを抽出してから(S502)、その人物エリアを追尾部6に出力する(S503)。
【0042】
一方、追尾部6は、人物検出部5から人物エリアを入力し(S504)、追尾対象人物エリアの有無を判断する(S505)。つまり、前回入力した人物エリアと今回入力した人物エリアとを比較することにより、同一人物かを判断するのである。このとき、追尾対象人物エリアが有ったときは(S505:有)、現在の追尾中カメラ1のカメラ番号を人物検出部5及びスイッチャ10に出力する(S506)。これにより、スイッチャ10は、マスタ表示装置12に現在の追尾中カメラ1による撮影画像を継続して出力するので(S507)、マスタ表示12には追尾対象人物が継続して表示されることになる。
【0043】
さて、追尾中カメラ1の撮影領域から追尾対象人物が退出してしまったときは、追尾対象人物は追尾中カメラ1に隣接する隣接カメラ1の撮影領域に位置することになる。
この場合、追尾部6は、追尾対象人物エリアが無くなるので(S505:無)、隣接カメラ1を追尾中カメラに設定する(S507)。
【0044】
そして、次のカメラ切換動作において、追尾部6は、前回のカメラ切換動作において設定した追尾中カメラ1(前回の隣接カメラ1)による撮影画像における追尾対象人物エリアの有無を判断する(S505)。このとき、現在の追尾中カメラ1による撮影画像には追尾対象人物エリアが有るので(S505:有)、その追尾中カメラ1のカメラ番号を人物検出部5及びスイッチャ10に出力する(S506)。これにより、人物検出部5は、現在の追尾中カメラ1による撮影画像を入力して人物を検出するようになると共に、マスタ表示装置12には現在の追尾中カメラ1による撮影画像が表示されるようになる。従って、監視者は、マスタ表示装置12のみを監視するだけで、不審人物の監視を継続して行うことができると共に、追尾部6による追尾を継続することができる。
【0045】
尚、図5のフローチャートには示していないが、追尾中カメラ1に隣接する隣接カメラ1は複数存在しているので、追尾中カメラ1に設定された隣接カメラ1による撮影画像に追尾対象人物エリアが無かったときは、元の追尾中カメラ1に対して異なる隣接カメラ1による撮影画像に基づいて追尾対象人物エリアの有無を順に判断し、追尾対象人物エリアが有った隣接カメラ1を追尾中カメラ1に設定するようになっている。
【0046】
以上の動作により、追尾対象人物が当該追尾対象人物を撮影しているカメラ1の撮影領域から脱出してしまった場合であっても、追尾対象人物を確実に追尾することができると共に、追尾対象人物をマスタ表示装置12に継続して表示することができる。
【0047】
このような実施の形態によれば、不審人物を監視するために、マスタ表示装置12に表示されている人物をカーソルでポイントしたときは不審人物の表示エリアを囲むようにカーソルエリア14を表示するようにしたので、単にカーソルを表示するだけの構成に比較して、不審人物の特定を容易に行うことができる。また、不審人物の追尾開始確認を指示したときは、不審人物の移動に応じてカーソルエリア14を移動するようにしたので、不審人物を容易に特定して監視することができる。
【0048】
この場合、不審人物の表示エリアの大きさが変化したときは、その大きさに応じてカーソルエリア14の大きさを変化させるようにしたので、不審人物が移動するにしても不審人物の表示エリアはカーソルエリア14に囲まれた状態を継続することになり、不審人物が移動するにしても不審人物の特定を容易に行うことができる。
【0049】
また、不審人物を追尾できなくなったときは、不審人物の候補となる複数の人物エリアをそれぞれカーソルエリア14で囲むと共に、真の不審人物が指示されたときは、真の不審人物に対してのみカーソルエリア14を表示するようにしたので、不審人物を見失った場合であっても真の不審人物を確実に特定することができる。
【0050】
さらに、撮影領域に不審人物が位置したカメラ1による撮影画像をマスタ表示装置12に表示するようにしたので、マスタ表示装置12を監視するだけで不審人物の行動を監視することができ、監視による労力を低減することができる。
【0051】
本発明は、上記実施の形態に限定されるものではなく、銀行或いは空港等の不審人物に対する警戒が必要とする施設に適用するようにしてもよい。
【0052】
【発明の効果】
以上の説明から明らかなように、本発明の監視装置によれば、追尾対象となる特定の人物の表示エリアを囲むようにカーソルエリアを表示すると共に、追尾対象人物の移動に伴ってカーソルエリアの表示位置を移動するようにしたので、追尾対象人物を簡単に特定することができると共に、追尾対象人物の監視を容易に行うことができるという優れた効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施の形態における全体構成を模式的に示すブロック図
【図2】画像処理装置の動作を示すフローチャート(その1)
【図3】画像処理装置の動作を示すフローチャート(その2)
【図4】画像処理装置の動作を示すフローチャート(その3)
【図5】画像処理装置の動作を示すフローチャート(その4)
【図6】マスタ表示装置の通常の表示画面を示す図
【図7】特定の人物を追尾対象に選択した状態で示す図6相当図
【図8】異なる人物を追尾対象に選択した状態で示す図6相当図
【図9】不審人物が他の人物を交差した状態を示す図6相当図
【図10】追尾対象候補を複数人選択した状態で示す図6相当図
【図11】追尾対象候補を選択した状態で示す図6相当図
【符号の説明】
1はカメラ(撮影手段)、2は画像処理装置、3は画像バッファ、4はユーザインタフェース、5は人物検出部(人物検出手段)、6は追尾部(追尾手段)、7は表示部(表示手段)、8はキーボード(入力手段)、9はマウス(入力手段)、10はスイッチャ(切換手段)、11は表示装置、12はマスタ表示装置(特定の表示装置)、13はカーソル、14はカーソルエリアである。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring device in which a cursor shape for identifying a specific person is devised.
[0002]
[Problems to be solved by the invention]
For example, in a pachinko hall, a plurality of cameras are installed in a store, and a suspicious person is monitored by displaying images captured by the cameras on a monitor.
[0003]
However, it is extremely difficult to continue monitoring a suspicious person who is moving with a plurality of monitors. In this case, the movement of the suspicious person is detected by the image processing apparatus, the cursor is displayed corresponding to the display area of the suspicious person, and the suspicious person is identified by moving the display position of the cursor according to the movement of the suspicious person. However, it is difficult to specify a suspicious person in an environment where there are many persons simply by displaying a cursor.
[0004]
When the suspicious person crosses another person, the image processing apparatus may lose sight of the suspicious person. In such a case, the suspicious person cannot be tracked. In this case, since it is necessary for the supervisor to search for and identify the suspicious person from the screens displayed on the respective display devices, there is a possibility that the suspicious person may be overlooked at that time.
[0005]
In addition, since the entire pachinko hall is monitored by simultaneously displaying images taken by a plurality of cameras on a plurality of monitors provided corresponding to the cameras, a suspicious person can be photographed as the suspicious person moves. The camera changes. For this reason, since the monitor on which the suspicious person is projected changes every moment, the labor for monitoring the suspicious person is great.
[0006]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a monitoring device that can easily identify a tracking target person and can easily monitor the tracking target person. .
[0007]
[Means for Solving the Problems]
According to the present invention, there is provided a photographing means for photographing a predetermined monitoring area, a display means for displaying a photographed image by the photographing means on a display device, and a person detecting means for detecting a person based on the photographed image by the photographing means. An input means is provided for instructing a specific person among persons detected by the person detection means, and when the start of tracking is instructed in a state where the specific person is instructed by the input means, the identification In addition, the display means displays a cursor area so as to surround the display area of the person instructed by the input means, and displays the tracking target person to be tracked by the tracking means. the cursor area moves in accordance with movement of the area, when said tracking means fails the tracking for tracking target person, a display error of a plurality of persons as the tracking candidate A plurality of cursor areas are displayed so as to surround each of them, and the tracking means starts tracking in a state in which a specific person among the persons surrounded by the cursor area displayed by the display means is instructed by the input means Is directed to track the person (claim 1).
[0008]
According to such a configuration, the display unit displays the image captured by the imaging unit on the display device. At this time, the person detecting means detects a person based on the image taken by the photographing means.
[0009]
Now, when tracking a specific person among the persons displayed on the display device, the specific means is designated by the input means. Then, the display means displays the cursor area so as to surround the display area of the person instructed by the input means, so that the tracking target person can be easily specified. In addition, since the cursor area moves as the display area of the person to be tracked moves, the person to be tracked can be easily identified and monitored.
[0014]
Also, when the tracking target person crosses another person, the person may not be tracked. In such a case, the display means surrounds the display areas of a plurality of persons who are tracking candidates. Since a plurality of cursor areas are displayed, the start of tracking is instructed in a state where a specific person is instructed by the input means. As a result, the tracking means tracks the newly instructed person, so that the tracking target person can be reliably monitored.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 schematically shows the overall configuration. In FIG. 1, a plurality of cameras (corresponding to photographing means) 1 are installed in the monitoring area, and the photographing area by each camera 1 covers the entire monitoring area. The camera 1 outputs an image signal corresponding to the captured image.
[0019]
The image processing apparatus 2 includes a plurality of image buffers 3 corresponding to the camera 1, a user interface 4, a person detection unit (corresponding to a person detection unit) 5, a tracking unit (corresponding to a tracking unit) 6, and a display unit (corresponding to a display unit). ) 7.
[0020]
The image buffer 3 temporarily stores the image signal from the camera 1 as digital image information, and outputs the stored digital image information to the person detection unit 5 and the display unit 7.
[0021]
The user interface 4 outputs a tracking start confirmation to the tracking unit 6 when a tracking start is instructed by a keyboard operation on a keyboard (corresponding to input means) 8 or a mouse operation on a mouse (corresponding to input means) 9. The cursor position information input by the keyboard operation or the mouse operation is output to the tracking unit 6 and the display unit 7.
[0022]
When the camera number is input from the tracking unit 6, the person detection unit 5 inputs the digital image information from the image buffer 3 provided corresponding to the camera 1 of the camera number, and the input digital image information Only the person area is extracted by performing image processing, and the person area information indicating the extraction result is output to the tracking unit 6.
[0023]
When the cursor position indicated by the cursor position information given from the user interface 4 is located in the display area of the person indicated by the person area information from the person detection unit 5, the tracking unit 6 is a cursor indicating a cursor area described later. The area information is output to the display unit 7, and the camera number of the camera 1 that is photographing the person to be tracked is output to the switcher (corresponding to a switching unit) 10. Further, when the tracking unit 6 receives a tracking start confirmation from the user interface 4 in a state where the tracking target person is instructed, the cursor area information indicating the position of the cursor area in accordance with the movement of the tracking target person as described later. To change.
[0024]
The display unit 7 outputs the digital image information from the image buffer 3 to the display device 11 provided in correspondence with the camera 1 and receives the cursor position information from the user interface 4 on the display screen. The cursor is displayed at the position indicated by, and when the cursor area information is received from the tracking unit 6, the cursor area is displayed at the position indicated by the cursor area information on the display screen.
[0025]
The switcher 10 inputs image information from the display unit 7 and inputs a camera number from the user interface 4 and the tracking unit 6, and an image buffer 3 provided corresponding to the camera 1 of the input camera number. Is output to a master display device (corresponding to a specific display device) 12.
[0026]
Next, the operation of the above configuration will be described.
FIG. 2 shows the basic operation of the image processing apparatus 2, which is executed every predetermined time. In FIG. 2, the display unit 7 of the image processing apparatus 2 inputs digital image information from the image buffer 3 corresponding to all the cameras 1 (S201), and displays the input image information corresponding to each camera 1. The data is output to the device 11 (S202). Thereby, since the captured image by the corresponding camera 1 is displayed on each display device 11, the monitor can monitor the whole pachinko hall by monitoring the image of each display device 11.
[0027]
When the supervisor finds a suspicious person, the suspicious person is displayed on the master display device 12 by a keyboard operation or a mouse operation as follows.
[0028]
FIG. 3 shows the camera switching operation of the image processing apparatus 2, which is executed every predetermined time. In FIG. 3, the person detection unit 5 inputs a camera number from the user interface 4 (S301), and outputs a camera number to the switcher 10 when there is a camera number (S302: present) (S303). As a result, the switcher 10 outputs the image information output from the display unit 7 corresponding to the input camera number to the master display device 12, so that the suspicious person is displayed on the master display device 12. (See FIG. 6).
[0029]
Here, the suspicious person displayed on the master display device 12 is specified as follows.
FIG. 4 is a flowchart showing the cursor processing operation of the image processing apparatus 2 and is executed at predetermined time intervals. In FIG. 4, the person detection unit 5 of the image processing apparatus 2 inputs digital image information from the image buffer 3 corresponding to the previously set tracking camera 1 (S 401), and based on the digital image information. The person area is extracted (S402), and the person area is output to the tracking unit 6 (S403).
[0030]
On the other hand, the tracking unit 6 inputs the person area from the person detection unit 5 (S404), and determines whether tracking is in progress (S405). At this time, since tracking is not yet performed (S405: NO), after tracking start confirmation is input from the user interface 4 (S411), it is determined whether tracking start confirmation is present (S412).
[0031]
In this case, since the supervisor has not instructed the tracking start confirmation yet, the tracking unit 6 confirms that there is no tracking start confirmation (S412: No), and then inputs the cursor position (S417), It is determined whether or not there is a person area including the cursor position (S418).
[0032]
Here, when the monitor points the cursor (indicated by reference numeral 13 in FIG. 7) to the display area of the suspicious person displayed on the master display device 12 by keyboard operation or mouse operation, the tracking unit 6 It is determined that there is a person area including the position (S418: present), a cursor area is set so as to surround the person area (S419), and the cursor area is output to the display unit 7 (S409). Thus, the display unit 7 corresponds to the tracking target camera 1 by synthesizing the cursor area so as to surround the display area of the suspicious person in the image captured by the camera (hereinafter referred to as tracking target camera) 1 that captures the suspicious person. Since the data is output to the display device 11 and the master display device 12 (S410), a cursor area (indicated by reference numeral 14 in FIG. 7) is displayed on the display device 11 and the master display device 12 so as to surround the display area of the tracking target person. The
[0033]
When the monitor leaves the cursor from the person display area by the cursor operation, the tracking unit 6 determines that there is no person area including the cursor position (S418: None), and eliminates the cursor area (S420).
[0034]
In this case, when it is desired to specify a person different from the person specified by the cursor area as described above, the supervisor places the cursor in the display area of the new person displayed on the master display device 12. Thereby, as shown in FIG. 8, a different person can be specified.
[0035]
By the above operation, when the cursor 13 is positioned in the person display area, the cursor area 14 is displayed so as to surround the person display area as shown in FIGS. Can be identified.
[0036]
When the supervisor wants to monitor the suspicious person specified by the cursor area 14 as described above, the supervisor instructs the tracking start confirmation by a keyboard operation or a mouse operation.
[0037]
The tracking unit 6 then inputs a cursor position (S413) and confirms that there is a person area including the cursor position when tracking confirmation is received when the tracking start is input (S412: present). (S414) After setting the cursor area (S415), tracking is started (S416). Since the cursor area thus set is output to the display unit 7 (S409), the display unit 7 displays the tracking target person displayed on the display device 11 and the master display device 12 corresponding to the camera 1 being tracked. The cursor area is synthesized and output so as to surround the display area. As a result, the cursor area 14 is displayed on the master display device 12 so as to surround the display area of the suspicious person designated by the cursor as the tracking target.
[0038]
Thus, during tracking of a specific person (S405: YES), the tracking unit 6 determines whether tracking has succeeded or failed (S406), and when tracking has succeeded (S406: Success), the cursor area is set so as to surround the display area of the tracking target person (S408). In this case, since the tracking unit 6 sets a cursor area according to the size in addition to the position of the display area of the tracking target person, the cursor area 14 is suspicious regardless of the position and size of the display area of the tracking target person. It is displayed so as to surround the display area of the person. Therefore, the monitor can easily identify and monitor the tracking target person.
[0039]
By the way, as shown in FIG. 9, when the tracking target person intersects with another person, the tracking unit 6 may lose sight of the tracking target person and may not be able to track the tracking target person correctly.
[0040]
When the tracking unit 6 fails in tracking as described above (S406: failure), the tracking unit 6 sets a cursor area for all tracking target candidates (S407). As a result, the master display device 12 displays the cursor area 14 so as to surround the display area of the plurality of tracking target candidates as shown in FIG. The tracking start confirmation is input in a state where the cursor 13 indicates the display area of the tracking target person. As a result, the cursor area 14 is displayed so as to surround the display area of the true tracking target person as shown in FIG. 11, and the tracking unit 6 tracks the true tracking target person. ,
Now, when the tracking target person escapes from the shooting area of the tracking camera 1 that is shooting the tracking target person, the tracking target person cannot be monitored by the master display device 12, so the following is performed. The tracking target person can now be monitored.
[0041]
FIG. 5 shows the camera switching operation of the image processing apparatus 2. In FIG. 5, the person detection unit 5 of the image processing apparatus 2 inputs image information from the image buffer 3 corresponding to the tracking camera 1 (S501), extracts a person area (S502), and then the person area. Is output to the tracking unit 6 (S503).
[0042]
On the other hand, the tracking unit 6 inputs a person area from the person detection unit 5 (S504), and determines whether there is a tracking target person area (S505). That is, by comparing the person area input last time with the person area input this time, it is determined whether or not they are the same person. At this time, if there is a tracking target person area (S505: Yes), the current camera number of the camera 1 being tracked is output to the person detection unit 5 and the switcher 10 (S506). As a result, the switcher 10 continuously outputs the image captured by the currently tracking camera 1 to the master display device 12 (S507), and the tracking target person is continuously displayed on the master display 12. .
[0043]
Now, when the tracking target person has left the shooting area of the camera 1 being tracked, the tracking target person is positioned in the shooting area of the adjacent camera 1 adjacent to the camera 1 being tracked.
In this case, since the tracking target person area disappears (S505: No), the tracking unit 6 sets the adjacent camera 1 as the tracking camera (S507).
[0044]
In the next camera switching operation, the tracking unit 6 determines the presence or absence of a tracking target person area in an image captured by the camera 1 being tracked (previous adjacent camera 1) set in the previous camera switching operation (S505). At this time, since the image captured by the currently tracking camera 1 has a tracking target person area (S505: present), the camera number of the tracking camera 1 is output to the person detection unit 5 and the switcher 10 (S506). As a result, the person detection unit 5 detects a person by inputting an image captured by the current tracking camera 1 and displays the image captured by the current tracking camera 1 on the master display device 12. It becomes like this. Therefore, the monitoring person can continue to monitor the suspicious person only by monitoring only the master display device 12 and can continue tracking by the tracking unit 6.
[0045]
Although not shown in the flowchart of FIG. 5, since there are a plurality of adjacent cameras 1 adjacent to the camera 1 being tracked, the tracking target person area is included in the image captured by the adjacent camera 1 set to the camera 1 being tracked. When there is no tracking, the presence / absence of the tracking target person area is sequentially determined based on the image captured by the adjacent camera 1 different from the original tracking camera 1, and the adjacent camera 1 having the tracking target person area is being tracked. The camera 1 is set.
[0046]
With the above operation, even if the tracking target person has escaped from the shooting area of the camera 1 that is shooting the tracking target person, the tracking target person can be reliably tracked and the tracking target A person can be continuously displayed on the master display device 12.
[0047]
According to such an embodiment, in order to monitor a suspicious person, the cursor area 14 is displayed so as to surround the display area of the suspicious person when the person displayed on the master display device 12 is pointed by the cursor. Since it did in this way, compared with the structure which only displays a cursor, a suspicious person can be specified easily. Further, when the tracking start confirmation of the suspicious person is instructed, the cursor area 14 is moved in accordance with the movement of the suspicious person, so that the suspicious person can be easily identified and monitored.
[0048]
In this case, when the size of the display area of the suspicious person changes, the size of the cursor area 14 is changed according to the size, so even if the suspicious person moves, the display area of the suspicious person Will continue to be surrounded by the cursor area 14, and even if the suspicious person moves, the suspicious person can be easily identified.
[0049]
In addition, when it becomes impossible to track a suspicious person, a plurality of person areas that are candidates for the suspicious person are surrounded by the cursor area 14 respectively, and when a true suspicious person is instructed, only the true suspicious person is designated. Since the cursor area 14 is displayed, the true suspicious person can be reliably identified even if the suspicious person is lost.
[0050]
Furthermore, since the image captured by the camera 1 in which the suspicious person is located in the photographic area is displayed on the master display device 12, the behavior of the suspicious person can be monitored only by monitoring the master display device 12. Labor can be reduced.
[0051]
The present invention is not limited to the above-described embodiment, and may be applied to facilities that require caution against suspicious persons such as banks or airports.
[0052]
【The invention's effect】
As is clear from the above description, according to the monitoring apparatus of the present invention, the cursor area is displayed so as to surround the display area of the specific person to be tracked, and the cursor area is moved along with the movement of the tracking target person. Since the display position is moved, the tracking target person can be easily specified, and the tracking target person can be easily monitored.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing the overall configuration of an embodiment of the present invention. FIG. 2 is a flowchart showing the operation of an image processing apparatus (part 1).
FIG. 3 is a flowchart illustrating the operation of the image processing apparatus (part 2).
FIG. 4 is a flowchart (part 3) illustrating the operation of the image processing apparatus.
FIG. 5 is a flowchart illustrating the operation of the image processing apparatus (part 4);
6 is a diagram showing a normal display screen of the master display device. FIG. 7 is a diagram corresponding to FIG. 6 in a state where a specific person is selected as a tracking target. FIG. 8 is a diagram in which a different person is selected as a tracking target. 6 is a diagram equivalent to FIG. 6 showing a state where a suspicious person crosses another person. FIG. 10 is a diagram equivalent to FIG. 6 showing a plurality of tracking target candidates. FIG. 11 is a tracking target candidate. Fig. 6 equivalent diagram showing the selected state [Explanation of symbols]
Reference numeral 1 denotes a camera (photographing means), 2 denotes an image processing device, 3 denotes an image buffer, 4 denotes a user interface, 5 denotes a person detection unit (person detection means), 6 denotes a tracking unit (tracking means), and 7 denotes a display unit (display) Means), 8 is a keyboard (input means), 9 is a mouse (input means), 10 is a switcher (switching means), 11 is a display device, 12 is a master display device (specific display device), 13 is a cursor, and 14 is This is the cursor area.

Claims (3)

所定の監視領域を撮影する撮影手段と、
表示装置に前記撮影手段による撮影画像を表示する表示手段と、
前記撮影手段による撮影画像に基づいて人物を検出する人物検出手段と、
この人物検出手段により検出された人物のうちから特定の人物を指示するための入力手段と、
この入力手段により特定の人物が指示された状態で追尾開始が指示されたときは当該特定の人物を追尾する追尾手段とを備え、
前記表示手段は、前記入力手段により指示された人物の表示エリアを囲むようにカーソルエリアを表示すると共に前記追尾手段が追尾する追尾対象人物の表示エリアの移動に応じて前記カーソルエリアを移動し、前記追尾手段が追尾対象人物に対する追尾を失敗したときは、追尾候補となる複数の人物の表示エリアをそれぞれ囲むように複数のカーソルエリアを表示し、
前記追尾手段は、前記表示手段により表示されたカーソルエリアに囲まれた人物のうち特定の人物が前記入力手段により指示された状態で追尾開始が指示されたときは当該人物を追尾することを特徴とする監視装置。
Photographing means for photographing a predetermined monitoring area;
Display means for displaying a photographed image by the photographing means on a display device;
Person detecting means for detecting a person based on a photographed image by the photographing means;
An input means for instructing a specific person among the persons detected by the person detection means;
Tracking means for tracking the specific person when the start of tracking is instructed in a state where the specific person is instructed by the input means,
The display means displays a cursor area so as to surround the display area of the person instructed by the input means , and moves the cursor area according to the movement of the display area of the tracking target person tracked by the tracking means , When the tracking unit fails to track the tracking target person, a plurality of cursor areas are displayed so as to surround the display areas of the plurality of persons as tracking candidates,
The tracking unit tracks the person when a specific person among the persons surrounded by the cursor area displayed by the display unit is instructed by the input unit to start tracking. A monitoring device.
前記撮影手段は、監視領域全体をカバーするように複数のカメラから構成され、
追尾対象人物を撮影しているカメラによる撮影画像を特定の表示装置に出力する切換手段を備えたことを特徴とする請求項1記載の監視装置。
The photographing means is composed of a plurality of cameras so as to cover the entire monitoring area,
The monitoring apparatus according to claim 1, further comprising a switching unit that outputs an image captured by a camera that captures the person to be tracked to a specific display device.
前記追尾手段は、追尾対象人物の表示エリアが無くなったときは、追尾対象人物を撮影対象とする撮影手段に隣接する撮影手段による撮影画像に基づいて追尾対象人物を追尾することを特徴とする請求項1または2記載の監視装置。 The tracking unit is configured to track a tracking target person based on a photographed image by a photographing unit adjacent to the photographing unit that captures the tracking target person when the tracking target person display area is exhausted. Item 3. The monitoring device according to item 1 or 2.
JP28732299A 1999-10-07 1999-10-07 Monitoring device Expired - Fee Related JP4339464B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28732299A JP4339464B2 (en) 1999-10-07 1999-10-07 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28732299A JP4339464B2 (en) 1999-10-07 1999-10-07 Monitoring device

Publications (2)

Publication Number Publication Date
JP2001111987A JP2001111987A (en) 2001-04-20
JP4339464B2 true JP4339464B2 (en) 2009-10-07

Family

ID=17715868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28732299A Expired - Fee Related JP4339464B2 (en) 1999-10-07 1999-10-07 Monitoring device

Country Status (1)

Country Link
JP (1) JP4339464B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102087790A (en) * 2011-03-07 2011-06-08 中国科学技术大学 Method and system for low-altitude ground vehicle detection and motion analysis
CN110533857A (en) * 2018-05-23 2019-12-03 吴秋琴 Desk multifunctional monitoring method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004072924A1 (en) * 2003-02-12 2004-08-26 Cesla Inc ., Global notification/display/search system
JP4746295B2 (en) * 2003-08-25 2011-08-10 富士フイルム株式会社 Digital camera and photographing method
JP4594609B2 (en) * 2003-10-01 2010-12-08 綜合警備保障株式会社 Monitoring system and monitoring method
WO2005036881A2 (en) * 2003-10-09 2005-04-21 De Beers Consolidated Mines Limited Augmented video surveillance system
JP4572099B2 (en) * 2004-09-13 2010-10-27 三菱電機株式会社 Mobile tracking support system
WO2006059662A1 (en) * 2004-11-30 2006-06-08 Kabushiki Kaisha Toshiba Apparatus and method for inspecting display device
JP5127692B2 (en) * 2008-12-25 2013-01-23 キヤノン株式会社 Imaging apparatus and tracking method thereof
JP2011013683A (en) * 2010-08-13 2011-01-20 Ricoh Co Ltd Imaging apparatus, auto focus method, and program for allowing computer to perform the method
JP5447286B2 (en) * 2010-08-13 2014-03-19 株式会社リコー Imaging apparatus, automatic focusing method, and program for computer to execute the method
JP6226827B2 (en) * 2014-06-30 2017-11-08 三菱電機株式会社 Surveillance video display device and surveillance video display method
JP6004148B1 (en) * 2014-12-15 2016-10-05 コニカミノルタ株式会社 Image processing apparatus, image processing method, and image processing program
JP6720729B2 (en) * 2016-06-28 2020-07-08 アイシン精機株式会社 Display controller
JP6846963B2 (en) * 2017-03-16 2021-03-24 三菱電機インフォメーションネットワーク株式会社 Video playback device, video playback method, video playback program and video playback system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102087790A (en) * 2011-03-07 2011-06-08 中国科学技术大学 Method and system for low-altitude ground vehicle detection and motion analysis
CN102087790B (en) * 2011-03-07 2013-07-10 中国科学技术大学 Method and system for low-altitude ground vehicle detection and motion analysis
CN110533857A (en) * 2018-05-23 2019-12-03 吴秋琴 Desk multifunctional monitoring method

Also Published As

Publication number Publication date
JP2001111987A (en) 2001-04-20

Similar Documents

Publication Publication Date Title
JP4339464B2 (en) Monitoring device
US20220124410A1 (en) Image processing system, image processing method, and program
JP3989523B2 (en) Automatic photographing method and apparatus
WO2016189782A1 (en) Tracking support apparatus, tracking support system, and tracking support method
JP6171374B2 (en) Information processing apparatus, information processing method, program, and information processing system
EP3618427B1 (en) Video monitoring system
KR101397453B1 (en) System for monitoring an image and method thereof
JP2004318823A (en) Information display system, information processing apparatus, pointing device and pointer mark displaying method in information display system
JP2007079028A (en) Projection type image display apparatus and multi-projection system
KR101960667B1 (en) Suspect Tracking Apparatus and Method In Stored Images
US20110038549A1 (en) Image processing device, camera, image processing method, and program
JP2008009849A (en) Person tracking device
US20230326240A1 (en) Collation system
JP2005086626A (en) Wide area monitoring device
WO2018074821A1 (en) User terminal apparatus and computer-implemented method for synchronizing movement path and movement time of camera by using touch user interface
JP2008141386A (en) Monitoring system
JP6593922B2 (en) Image surveillance system
KR20010043423A (en) Camera signal processing device and camera signal processing method
JP2017073758A5 (en)
JP2005346425A (en) Automatic tracking system and automatic tracking method
JP2015186114A (en) Video monitoring system
JPH1169342A (en) Image processing system for tracking intruding object
JP4594197B2 (en) Automatic tracking device
JPH0793558A (en) Image monitoring device
JP5132705B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090623

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090702

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150710

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees