JP3946593B2 - Joint shooting system - Google Patents

Joint shooting system Download PDF

Info

Publication number
JP3946593B2
JP3946593B2 JP2002214312A JP2002214312A JP3946593B2 JP 3946593 B2 JP3946593 B2 JP 3946593B2 JP 2002214312 A JP2002214312 A JP 2002214312A JP 2002214312 A JP2002214312 A JP 2002214312A JP 3946593 B2 JP3946593 B2 JP 3946593B2
Authority
JP
Japan
Prior art keywords
information
monitoring
photographing
camera
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002214312A
Other languages
Japanese (ja)
Other versions
JP2004056664A (en
Inventor
好博 田村
啓吾 園田
義裕 伊藤
智 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2002214312A priority Critical patent/JP3946593B2/en
Publication of JP2004056664A publication Critical patent/JP2004056664A/en
Application granted granted Critical
Publication of JP3946593B2 publication Critical patent/JP3946593B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、各移動体に搭載された複数台の監視カメラを連携して、監視目標となる撮影対象物を追跡監視する共同撮影システムに関し、特に、地図画面上に撮影対象物を表示して追跡確認することができると共に、複数の監視カメラ間で撮影対象物の位置情報を共有することができる、共同撮影システムに関する。
【0002】
【従来の技術】
従来、監視目標対象物の位置確認や追跡を行う場合には、以下に示すような問題点があった。
船舶や、海上を漂流する遭難者の位置確認や追跡には、捜索する飛行機やヘリコプタに搭載した監視カメラを使用することが有効であるが、飛行機やヘリコプタに搭載した複数の監視カメラのそれぞれを連携操作し、画面上で追跡するための効果的なシステムが存在しなかった。
入り組んだ地形や、監視目標対象物が小さい場合などは、レーダでは監視目標対象物の位置情報を捕捉できず、常に監視目標対象物と併走して追跡していない限り、正確な位置情報を連続して把握することができなかった。
不審船などが発見され、海上での追跡や捜索活動を行う場合に、関係部署間でリアルタイムに情報を共有するためのシステムが整備されておらず、情報の連絡が遅延することも多かった。
【0003】
【発明が解決しようとする課題】
本発明は上記問題点に鑑みなされたものであり、本発明は、複数の監視カメラを用いて、監視目標となる撮影対象物を追跡する場合に、地図画面上に撮影対象物を表示して追跡確認することができると共に、複数の監視カメラ間で撮影対象物の位置情報を共有できる、共同撮影システムを提供することを目的とする。
【0004】
【課題を解決するための手段】
本発明は上記課題を解決するためになされたものであり、本発明の共同撮影システムは、監視カメラが搭載された1又は2以上の移動体と、前記各移動体の監視カメラで撮影された撮影対象物の情報を受信して表示する監視装置からなる共同撮影システムにおいて、前記移動体には、搭載した監視カメラの位置、高度、撮影方向を検出するための位置方位情報検出手段と、前記監視カメラの位置、高度、撮影方向を含む撮影条件の情報と、撮影対象物の映像の情報とを前記監視装置に送信するための監視カメラ情報送信手段と、前記監視装置から、追跡監視すべき撮影対象物の位置情報と監視指示情報とを受信するための撮影対象物指示受信手段と、前記指示された撮影対象物を、前記監視カメラにより追跡監視するための撮影対象物追跡手段とを具備し、前記監視装置には、地図情報を保持するデータベースと、前記各移動体から、監視カメラの位置、高度、撮影方向を含む撮影条件の情報と、撮影対象物の映像の情報とを受信するための監視カメラ情報受信手段と、前記監視カメラ情報受信手段により受信した情報を基に、前記撮影対象物の位置を算出するための位置情報算出手段と、前記各移動体に、監視カメラが追跡監視すべき撮影対象物の位置情報と監視指示情報とを送信するための撮影対象物指示送信手段と、前記撮影対象物の位置情報を基に、地図画面上に前記撮影対象物の位置を表示するための地図画面表示手段とを具備することを特徴とする。
これにより、移動する撮影対象物を追跡し、地図画面上に位置を特定して表示することができる。また、入り組んだ地形でも、撮影対象物を追跡して撮影することができる。また、撮影対象物の地図座標上での位置情報を共有し、複数の監視カメラで共同して撮影対象物を監視することができる。また、撮影対象物の位置、及び映像の情報を関連する部署にリアルタイムで配信することができる。
【0005】
また、本発明の共同撮影システムは、前記撮影対象物の位置情報を、前記各移動体の監視カメラ間で共有する位置情報共有手段をさらに具備することを特徴とする。
これにより、視界の悪い場合や、悪天候の場合などでも、最も撮影条件の良い監視カメラを使用して撮影対象物の位置情報を算出し、各監視カメラが共同して撮影対象物を追跡撮影することができる。
【0006】
また、本発明の共同撮影システムは、前記監視装置の表示画面上に、前記各移動体の監視カメラと撮影対象物とを、マトリクス状のテーブルとして表示する管理テーブル表示手段と、前記マトリクス状のテーブル上で、各監視カメラの撮影対象物への割り当て及び動作指示を行うための監視カメラ割り当て手段とをさらに具備することを特徴とする。
これにより、撮影対象物が複数ある場合にも、監視カメラを簡単かつ有効に割り当てることができる。
【0007】
また、本発明の共同撮影システムは、一つの撮影対象物に複数の監視カメラが割り当てられてられている場合に、前記各監視カメラの撮影条件を比較し、所定の基準により、撮影対象物の座標位置の計算に使用する監視カメラを自動選定するための監視カメラ自動選定手段さらに具備することを特徴とする。
これにより、視界の悪い場合や、悪天候の場合などでも、最も撮影条件の良い監視カメラにより撮影対象物の位置情報を算出し、各監視カメラで撮影対象物を効果的に追跡撮影することができる。
【0008】
また、本発明のコンピュータプログラムは、監視カメラが搭載された1又は2以上の移動体と、前記各移動体の監視カメラで撮影された撮影対象物の情報を受信して表示する監視装置からなる共同撮影システムにおける前記監視装置内のコンピュータに、地図情報をデータベースに保持する手順と、前記各移動体から、監視カメラの位置、高度、撮影方向を含む撮影条件の情報と、撮影対象物の映像の情報とを受信するための監視カメラ情報受信手順と、前記監視カメラ情報受信手順により受信した情報を基に、前記撮影対象物の位置を算出するための位置情報算出手順と、前記各移動体に、監視カメラが追跡監視すべき撮影対象物の位置情報と監視指示情報とを送信するための撮影対象物指示送信手順と、前記撮影対象物の位置情報を基に、地図画面上に前記撮影対象物の位置を表示するための地図画面表示手順とを実行させるためのプログラムである。
【0009】
【発明の実施の形態】
[本発明における撮影の前提条件]
本発明の共同撮影システムでは、以下の前提条件により、監視目標対象物の撮影と追跡を行う。
(1)撮影対象について
原則として、地上ないしは海上にある人や物体(車両や船舶)を撮影対象とする。
撮影対象は複数ある(もちろん単数でもよい)。
撮影対象は移動している(もちろん止まっていてもよい)。
(2)撮影側(監視カメラについて)
原則として、飛行機やヘリコプタなどの移動体に搭載した監視カメラからの撮影を想定している。また、状況によっては、船舶からの撮影を行う場合もある。
撮影側の移動体は複数である(もちろん単数でもよい)。また、撮影側の移動体の機体又は船体には、複数の監視カメラが搭載される場合がある。
撮影側の移動体は移動する。もちろん、ヘリコプタなどはホバリングによって止まっていてもよい。
移動体の機上又は船体には、原則としてカメラマンは搭乗していない。
【0010】
[システムの全体構成と動作の説明]
また、図1は、本発明の共同撮影システムのシステムの構成と動作を説明するための図であり、図1においては、飛行機10に搭載した監視カメラ1、ヘリコプタ20に搭載した監視カメラ2、船舶30に搭載した監視カメラ3など、複数の移動体に搭載した複数の監視カメラにより、不審船40と不審船40の近くの遭難者A41などの複数の撮影対象物の撮影と追跡を行う場合の例を示している。
【0011】
飛行機10に搭載された監視カメラ1は、CCD式のカメラであり、撮影制御装置11によりカメラワークなどの撮影動作を制御される。例えば、撮影の開始と終了、トラックアップ/バック(ズーム)、パン、付けパンなどの制御が行われる。なお、監視カメラ1には赤外線カメラが使用される場合もある。また、撮影制御装置11内には、GPS(Global Positioning System)、高度計、地磁気を感知する方位センサ(又はジャイロ)が設備されており、飛行機10内の監視カメラ1の位置と高度の情報、撮影方向の情報、カメラ制御情報(ズームの大きさ、俯角など)、及び撮影した映像情報を、無線通信により地上監視装置50に送信する(矢付線a)。また、地上監視装置50から、撮影制御装置11に対して、監視すべき対象物の位置情報と、撮影対象物の指示情報が送信される(矢付線b)。
【0012】
また、ヘリコプタ20内の撮影制御装置21と監視カメラ2、船舶30内の撮影制御装置31と監視カメラ3についても、飛行機10内の撮影制御装置11と監視カメラ1と同様なものである。
【0013】
[撮影方法の説明]
例えば、飛行機10のパイロットが不審船40を撮影して監視する場合は、以下のようにして行う。また、図2に撮影方法の流れを示す。
【0014】
(1)飛行機10のパイロットは、撮影する対象物体である不審船40に対して監視カメラ1が向くように簡易なボタン操作等を行い、監視カメラ1により広角な視野角で不審船40をとらえる(ステップS1)。そして、飛行機10の撮影制御装置11は、地上監視装置50に、撮影対象物(不審船40)の映像の他に、監視カメラ1の位置情報、高度情報、方位情報、及び監視カメラ1の撮影条件の情報(カメラ制御情報)を無線により送信する(ステップS2)。
【0015】
(2)地上監視装置50では、飛行機10の撮影制御装置11から送信される飛行機10の監視カメラ1の位置情報、高度情報、方位情報、及び監視カメラの撮影条件の情報を受信し(ステップS3)、この情報を基に、撮影対象物(不審船40)の位置を計算して(ステップS4)、地図画面上に表示する(ステップS5)。撮影対象物の位置計算は、誤差を小さくするために、撮影対象物が画面の中心近傍でとらえられている場合に行う。また、撮影対象物(不審船40)の映像も表示する。
なお、位置計算方法については、本発明の先行出願である特開2001−189888号公報「撮影指示装置、撮影指示方法及び記録媒体」を参考にすることができる。
【0016】
(3)また、飛行機10の監視カメラ1から送られてくる映像を見ながら、画面上で撮影対象物(不審船40)が映っている場所をクリックし、当該撮影対象物(不審船40)が画面の中心になるように、監視カメラ1に指示する(ステップS6、S7)。
【0017】
(4)地上監視装置50では、撮影対象物(不審船40)を管理対象として、画面上で登録し(ステップS8)、この登録情報を飛行機10の撮影制御装置11に送信する(ステップS9)。このとき、撮影対象物が登録されると、後に説明する撮影対象物管理マトリクステーブルの縦軸の項目が自動生成される。
以後、飛行機10の撮影制御装置11は、撮影対象物(不審船40)が画面の中心になるように監視カメラ1を制御して追跡を開始する(ステップS10)。
なお、画像追跡には、画像中の輪郭を追跡する輪郭追跡方法など既存の技術を使用する。また、この画像追跡は、飛行機10の撮影制御装置11自身に行わせることもできるし、地上監視装置50からの指示で行うこともできる。
【0018】
(5)また、地上監視装置50は、他の監視カメラに指示を出す。例えば、ヘリコプタ20の撮影制御装置21に撮影対象物(不審船40)の位置情報を送信し、監視カメラ2を自動パンさせ、撮影対象物(不審船40)を初期捕捉させる(ステップS11〜S13)。
【0019】
(6)これ以降、飛行機10の監視カメラ1は、不審船40を追跡監視し、監視情報を地上監視装置50に送信し、地上監視装置50では、地図画面上に不審船40を表示すると共に、その映像も表示する(ステップS14、S15)。同様に、ヘリコプタ20の監視カメラ2も不審船40を追跡監視し、監視情報を地上監視装置50に送信する(ステップS16、S17)。
【0020】
(7)また、船舶30の撮影制御装置31から地上監視装置50に、遭難者A41の映像情報と、監視カメラ3の位置方位情報と、カメラ制御情報が送信され、地上監視装置50では、不審船40の場合と同様な手順により、遭難者A41の監視と追跡を、船舶30の撮影制御装置31に指示する。
【0021】
また、図3は、地上監視装置50の撮影対象物監視画面の画面イメージを示す図であり、図4は、カメラ割り当て指示画面の画面イメージを示す図である。
【0022】
(1)図3の撮影対象物監視画面51内の地図画面52に例示するように、地図画面52上のオブジェクトとして、監視カメラ1、監視カメラ2、監視カメラ3の位置、撮影対象物(不審船40、遭難者A41、遭難者B42)の位置がリアルタイムに表示される。なお、地図情報は予め地上監視装置50内のデータベースに登録されている。
【0023】
(2)撮影が開始されると、図3の地図画面52上で、撮影対象物(不審船40と遭難者A41)のオブジェクトの色が変化するとともに、図4に示すカメラ割り当て指示画面54上の撮影対象物管理マトリクステーブル54の横軸の項目が自動生成され表示される。
【0024】
(3)また、図3に示す撮影対象物監視画面51には、撮影対象物の映像表示用のビューワ53が設けられており、ビューワ53のいずれかに映っている映像から、撮影対象物を認識し、ビューワ上でマウスをクリックすることにより、当該撮影対象物を登録する。これより、撮影対象物の詳細な位置情報は継続的に自動計算され、地図画面52上に撮影対象物のオブジェクトがリアルタイムで表示される。また、図4のカメラ割り当て指示画面54中の撮影対象物管理マトリクステーブル55の縦軸の項目が自動生成される。
【0025】
(4)また、図4に示す撮影対象物管理マトリクステーブル55上で、撮影対象物を割り当てることができ、当該撮影対象物のオブジェクトの位置情報に基づき、割り当てた監視カメラの制御(自動パンやズームなど)を行う。なお、撮影対象物に複数のカメラが割り当てられた場合は、ズームの大きさ、俯角の大きさなどを基に、より精度の高い詳細位置情報(座標)を算出することが可能な監視カメラの映像が自動的に選定される。
【0026】
[撮影対象物に対するカメラの制御方法]
また、撮影対象物に対するカメラの制御方法は、以下のようにして行う。
【0027】
(1)座標位置の算出
例えば、飛行機10の撮影制御装置11から送信されてくる監視カメラ1のカメラ制御情報と、位置方位情報から、地理的な座標位置を継続的に計算する。なお、位置計算方法については、本発明の先行出願である特開2001−189888号公報「撮影指示装置、撮影指示方法及び記録媒体」を参考にすることができる。
【0028】
(2)監視カメラの制御情報の共有
例えば、飛行機10の監視カメラ1の撮影条件が良好な場合、すなわち、十分に撮影対象物(不審船40)と特定でき、かつ位置を特定しやすい撮影条件の場合は、飛行機10の撮影制御装置11自身の画像追跡動作により監視カメラ1を制御する。撮影条件の悪い場合は、他の監視カメラ、例えば、ヘリコプタ20の監視カメラ2から情報を基に算出された座標情報を、地上監視装置50から受信し、監視カメラ1の制御を行う。すなわち、撮影条件のよい方の監視カメラを使用して撮影対象物(不審船40)の座標情報を算出し、この座標情報を飛行機10の撮影制御装置11と、ヘリコプタ20の撮影制御装置21で共有する。もちろん、どちらかに固定することも可能である。
【0029】
(3)撮影対象物が複数の場合の監視カメラの割り当て
図4に示す撮影対象物管理マトリクステーブル55上で、セルをクリックすることにより、原則として1台の監視カメラを一つの撮影対象物に割り当てる(複数のカメラが一つの撮影対象物を捉えることもできる)。その他、ズームの大きさなど、詳細な撮影方法を指定することもできる。
【0030】
[地上監視装置の構成例]
また、図5は地上監視装置の構成例を示すブロック図であり、本発明に直接関係する部分についてのみ示したものである。図5において、60は地上監視装置の全体、61は通信ネットワーク4を介して関連部署の監視装置56などと接続するための通信用インターフェース、62は飛行機やヘリコプタなどの撮影制御装置と通信を行うための無線通信装置、63は地上監視装置全体を統括制御する制御部、70は処理プログラム部、80はデータベースを示している。
【0031】
また、処理プログラム部70には、以下の処理部が含まれている。
監視カメラ情報受信処理部71は、飛行機やヘリコプタなどの移動体に搭載された監視カメラの位置、高度、撮影方向を含む撮影条件の情報(カメラ制御情報)と、撮影対象物の映像の情報とを受信するための処理部である。
撮影対象物指示送信処理部72は、各監視カメラに対し、追跡監視すべき撮影対象物の位置情報と、該撮影対象物の監視追跡を指示する情報を送信するための処理部である。また、監視カメラへの動作指示(例えば、ズームの変更、パンなお)を行うための処理部でもある。
位置情報算出処理部73は、監視カメラからの情報を基に撮影対象物の位置(地図上の座標位置)を算出するための処理部である。
地図画面表示処理部74は、撮影対象物の位置情報を基に、地図画面52上に撮影対象物の位置を表示するための処理部である。
位置情報共有処理部75は、撮影対象物の位置情報を、各移動体に搭載された監視カメラ間で共有させるための処理部である。
管理テーブル表示処理部76は、各移動体の監視カメラと撮影対象物とを、マトリクス状のテーブルとして表示するための処理部である。
監視カメラ割り当て処理部77は、各監視カメラと撮影対象物とがマトリクス状に表示されたテーブル上で、各監視カメラの撮影対象物への割り当てと、監視カメラへの動作指示を行うための処理部である。
監視カメラ自動選定処理部78は、一つの撮影対象物に複数の監視カメラが割り当てられた場合に、各監視カメラの撮影条件を比較し、所定の基準により、座標位置の計算に使用する監視カメラを自動選定するための処理部である。
【0032】
また、データベース80には、地図情報81と、地上監視装置60の処理に必要な、その他の情報82が記録される。
【0033】
なお、この処理プログラム部70は専用のハードウエアにより実現されるものであってもよく、またこの処理プログラム部はメモリおよびCPU(中央処理装置)等の汎用の情報処理装置により構成され、この処理部の機能を実現するためのプログラム(図示せず)をメモリにロードして実行することによりその機能を実現させるものであってもよい。また、この地上監視装置60には、周辺機器として入力装置、表示装置等(いずれも表示せず)が接続されているものとする。ここで、入力装置としては、キーボード、マウス等の入力デバイスのことをいう。表示装置とは、CRT(Cathode Ray Tube)や液晶表示装置等のことをいう。
【0034】
[撮影制御装置の構成例]
また、図6は、移動体に搭載される撮影制御装置の構成例を示すブロック図であり、本発明に直接関係する部分について示したものである。図6において、90は撮影制御装置の全体、91は地上監視装置60と無線通信を行うための無線通信装置、92はGPS、93は高度計、94は地磁気を利用して方位を判定する方位センサ、95は撮影制御装置全体を統括制御する制御部、96は撮影制御装置90により動作(カメラワーク)を制御される監視カメラ、100は処理プログラム部を示している。
【0035】
また、処理プログラム部100には、以下の処理部が含まれている。
監視カメラ情報送信処理部101は、監視カメラの位置、高度、撮影方向を含む撮影条件の情報(カメラ制御情報)と、撮影対象物の映像の情報とを地上監視装置60に送信するための処理部である。
撮影対象物指示受信処理部102は、地上監視装置60から、監視カメラ95が追跡監視すべき撮影対象物の位置情報と、追跡監視すべき撮影対象物の指示示情報とを受信するための処理部である。また、地上監視装置60から、監視カメラの動作指示情報を受信するための処理部でもある。
撮影対象物追跡処理部103は、地上監視装置60から指示された撮影対象物を追跡監視するための処理部である。なお、画像追跡には、画像中の輪郭を追跡する輪郭追跡方法など既存の技術を使用する。
監視カメラ動作制御処理部104は。監視カメラ95のカメラワークを自動で制御するための処理部である。
なお、海面からの高さである高度情報の算出にあたっては、原則として飛行体の高度と平均海面の高さとの差分を用いるが、より精度の高い位置計算が必要な場合については験潮データにより補正するようにしてもよい。験潮データとは、海面高さの実測値であり、海上保安庁海洋情報部等で発表しているデータである。
【0036】
以上、本発明の実施の形態について説明したが、図5に示す地上監視装置60内の処理プログラム部70、及び図6に示す撮影制御装置90内の処理プログラム部100の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、図5に示す地上監視装置60内の処理プログラム部70、及び図6に示す撮影制御装置90内の処理プログラム部100で必要な処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
【0037】
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの(伝送媒体ないしは伝送波)、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。
また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0038】
以上、本発明の共同撮影システムの実施の形態について説明したが、本発明は上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0039】
【発明の効果】
以上説明したように、本発明の共同撮影システムにおいては、移動体は、監視カメラの位置、高度、撮影方向の情報と、映像の情報とを地上監視装置に送信すると共に、地上監視装置から指示された撮影対象物を追跡監視するようにし、地上監視装置は、移動体の監視カメラから受信した情報を基に撮影対象物の位置を算出し、地図画面上に表示する。
これにより、移動する撮影対象物を追跡し、地図画面上に位置を特定して表示することができる。また、入り組んだ地形でも、撮影対象物を追跡して撮影することができる。また、撮影対象物の地図座標上での位置情報を共有し、複数の監視カメラで共同して撮影対象物を監視することができる。また、撮影対象物の位置、及び映像の情報を関連する部署にリアルタイムで配信することができる。
【0040】
また、本発明の共同撮影システムは、撮影対象物の位置情報を、各監視カメラ間で共有する。
これにより、視界の悪い場合や、悪天候の場合などでも、最も撮影条件の良い監視カメラを使用して撮影対象物の位置情報を算出し、各監視カメラが共同して撮影対象物を追跡撮影することができる。
【0041】
また、本発明の共同撮影システムは、地上監視装置の表示画面上に、監視カメラと撮影対象物とをマトリクス状のテーブルとして表示し、このマトリクス状のテーブル上で、各監視カメラの割り当て及び動作指示を行うようにする。
これにより、撮影対象物が複数ある場合にも、監視カメラを簡単かつ有効に割り当てることができる。
【0042】
また、本発明の共同撮影システムは、一つの記撮影対象物に複数の監視カメラが割り当てられてられている場合に、各監視カメラの撮影条件を比較確認し、所定の基準により、撮影対象物の座標位置の計算に使用する監視カメラを自動選定する。
これにより、視界の悪い場合や、悪天候の場合などでも、最も撮影条件の良い監視カメラにより撮影対象物の位置情報を算出し、各監視カメラで撮影対象物を効果的に追跡撮影することができる。
【図面の簡単な説明】
【図1】 本発明の共同撮影システムのシステム構成と動作を説明するための図である。
【図2】 撮影方法の流れを説明するための図である。
【図3】 撮影対象物監視画面の画面イメージを示す図である。
【図4】 カメラ割り当て指示画面の画面イメージを示す図である。
【図5】 地上監視装置の構成例を示すブロック図である。
【図6】 撮影制御装置の構成例を示すブロック図である。
【符号の説明】
1、2、3 監視カメラ
4 通信ネットワーク
10 飛行機
11、21、31、90 撮影制御装置
20 ヘリコプタ
30 船舶
40 不審船
41 遭難者A
42 遭難者B
50、60 地上監視装置
51 撮影対象物監視画面
52 地図画面
53 ビューワ
54 カメラ割り当て指示画面
55 撮影対象物管理マトリクステーブル
61 通信用インターフェース
62 無線通信装置
70 処理プログラム部
71 監視カメラ情報受信処理部
72 撮影対象物指示送信処理部
73 位置情報算出処理部
74 地図画面表示処理部
75 位置情報共有処理部
76 管理テーブル表示処理部
77 監視カメラ割り当て処理部
78 監視カメラ自動選定処理部
80 データベース
81 地図情報
91 無線通信装置
92 GPS
93 高度計
94 方位センサ
96 監視カメラ
100 処理プログラム部
101 監視カメラ情報送信処理部
102 撮影対象物指示受信処理部
103 撮影対象物追跡処理部
104 監視カメラ動作制御処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a joint shooting system that links a plurality of surveillance cameras mounted on each mobile body to track and monitor a shooting target as a monitoring target, and in particular, displays a shooting target on a map screen. The present invention relates to a collaborative photographing system capable of tracking confirmation and sharing position information of a photographing object among a plurality of surveillance cameras.
[0002]
[Prior art]
Conventionally, when the position of a monitoring target object is confirmed or tracked, there are the following problems.
It is effective to use surveillance cameras mounted on airplanes and helicopters to search for the location and tracking of ships and victims drifting on the sea. There was no effective system for cooperating and tracking on the screen.
In complicated terrain or when the target object is small, the radar cannot capture the position information of the target object. I couldn't figure it out.
When a suspicious ship was discovered, and tracking and searching activities at sea, a system for sharing information in real time between related departments was not established, and communication of information was often delayed.
[0003]
[Problems to be solved by the invention]
The present invention has been made in view of the above problems, and the present invention displays a shooting target object on a map screen when tracking a shooting target object to be monitored using a plurality of monitoring cameras. It is an object of the present invention to provide a collaborative photographing system that can confirm tracking and share position information of a photographing object among a plurality of surveillance cameras.
[0004]
[Means for Solving the Problems]
The present invention has been made to solve the above-described problems, and the joint photographing system of the present invention was photographed by one or two or more moving objects equipped with a monitoring camera and the monitoring cameras of the respective moving objects. In the joint photographing system including a monitoring device that receives and displays information of a photographing object, the moving body includes a position / orientation information detecting unit for detecting a position, an altitude, and a photographing direction of a mounted monitoring camera, The monitoring camera information transmission means for transmitting the information on the photographing conditions including the position, altitude, and photographing direction of the monitoring camera and the information on the image of the photographing object to the monitoring device, and the monitoring device should be followed and monitored A shooting object instruction receiving means for receiving position information and monitoring instruction information of the shooting object, and a shooting object tracking hand for tracking and monitoring the specified shooting object by the monitoring camera The monitoring device includes a database that holds map information, information on shooting conditions including the position, altitude, and shooting direction of the monitoring camera, and information on the video of the shooting target from each of the moving bodies. On the basis of the information received by the monitoring camera information receiving means, the position information calculating means for calculating the position of the object to be photographed, and the respective mobile objects. Based on the position information of the shooting target object, the shooting target instruction transmitting means for transmitting the position information of the shooting target to be tracked and monitored by the camera and the monitoring instruction information, the position of the shooting target is displayed on the map screen. And a map screen display means for displaying the position.
Thereby, the moving imaging | photography target object can be tracked and a position can be pinpointed and displayed on a map screen. In addition, even on complicated terrain, the object to be photographed can be tracked and photographed. Further, it is possible to share position information on the map coordinates of the photographing object and monitor the photographing object jointly with a plurality of monitoring cameras. In addition, the position of the object to be photographed and the video information can be distributed in real time to related departments.
[0005]
In addition, the joint photographing system of the present invention further includes position information sharing means for sharing the position information of the photographing object between the monitoring cameras of the respective moving bodies.
This makes it possible to calculate the position information of the object to be photographed using the surveillance camera with the best photographing conditions, even when the field of view is bad or in bad weather, and the surveillance cameras jointly track and photograph the object to be photographed. be able to.
[0006]
Further, the joint photographing system of the present invention comprises a management table display means for displaying the monitoring cameras and photographing objects of the respective moving bodies as a matrix table on the display screen of the monitoring device, Surveillance camera assignment means for assigning each surveillance camera to a photographing object and instructing an operation on the table is further provided.
Thereby, even when there are a plurality of shooting objects, the monitoring cameras can be allocated easily and effectively.
[0007]
Further, the joint photographing system of the present invention compares the photographing conditions of each surveillance camera when a plurality of surveillance cameras are assigned to one photographing object, It is further characterized by further comprising a monitoring camera automatic selection means for automatically selecting a monitoring camera to be used for calculating the coordinate position.
This makes it possible to calculate the position information of the object to be photographed by the surveillance camera with the best photographing conditions and effectively track and photograph the object to be photographed by each surveillance camera even in the case of poor visibility or bad weather. .
[0008]
The computer program according to the present invention includes one or more moving bodies on which a monitoring camera is mounted, and a monitoring device that receives and displays information on a subject to be photographed by the monitoring camera of each moving body. Procedures for storing map information in a database in the computer in the monitoring apparatus in the joint shooting system, information on shooting conditions including the position, altitude, and shooting direction of the monitoring camera, and video of the shooting target from each moving body Monitoring camera information reception procedure for receiving the information of the camera, position information calculation procedure for calculating the position of the object to be photographed based on the information received by the monitoring camera information reception procedure, and each of the moving objects In addition, based on the shooting object instruction transmission procedure for transmitting the position information of the shooting object to be tracked and monitored by the monitoring camera and the monitoring instruction information, and the position information of the shooting object Is a program for executing the map screen display procedure for displaying the position of the shooting target on the map screen.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
[Prerequisites for Shooting in the Present Invention]
In the joint photographing system of the present invention, photographing and tracking of a monitoring target object are performed according to the following preconditions.
(1) As a general rule, subjects and objects (vehicles and ships) on the ground or sea are subject to photographing.
There are multiple shooting targets (of course, a single number may be used).
The subject is moving (it may of course be stopped).
(2) Shooting side (About surveillance camera)
In principle, it is assumed to be taken from a surveillance camera mounted on a moving object such as an airplane or helicopter. Also, depending on the situation, shooting from a ship may be performed.
There are a plurality of moving bodies on the photographing side (of course, one may be sufficient). In addition, a plurality of surveillance cameras may be mounted on the body or hull of the moving body on the photographing side.
The moving body on the photographing side moves. Of course, helicopters may be stopped by hovering.
As a general rule, no photographer is on board the ship or on the hull.
[0010]
[Description of overall system configuration and operation]
FIG. 1 is a diagram for explaining the system configuration and operation of the joint photographing system of the present invention. In FIG. 1, a monitoring camera 1 mounted on an airplane 10, a monitoring camera 2 mounted on a helicopter 20, When photographing and tracking a plurality of photographing objects such as the suspicious ship 40 and a distress A41 near the suspicious ship 40 by a plurality of surveillance cameras mounted on a plurality of moving bodies such as the surveillance camera 3 mounted on the ship 30 An example is shown.
[0011]
The surveillance camera 1 mounted on the airplane 10 is a CCD camera, and the photographing operation such as camera work is controlled by the photographing control device 11. For example, control such as start and end of shooting, track up / back (zoom), pan, and append pan is performed. Note that an infrared camera may be used as the monitoring camera 1. In addition, the imaging control device 11 is equipped with a GPS (Global Positioning System), an altimeter, and a direction sensor (or gyroscope) that senses geomagnetism, and information on the position and altitude of the monitoring camera 1 in the airplane 10 and imaging. Direction information, camera control information (zoom size, depression angle, etc.) and captured video information are transmitted to the ground monitoring apparatus 50 by wireless communication (arrow line a). Further, the position information of the object to be monitored and the instruction information of the photographing object are transmitted from the ground monitoring apparatus 50 to the photographing control apparatus 11 (arrow line b).
[0012]
The imaging control device 21 and the monitoring camera 2 in the helicopter 20 and the imaging control device 31 and the monitoring camera 3 in the ship 30 are the same as the imaging control device 11 and the monitoring camera 1 in the airplane 10.
[0013]
[Explanation of shooting method]
For example, when the pilot of the airplane 10 photographs and monitors the suspicious ship 40, it is performed as follows. FIG. 2 shows the flow of the photographing method.
[0014]
(1) The pilot of the airplane 10 performs a simple button operation or the like so that the monitoring camera 1 faces the suspicious ship 40 that is the object to be photographed, and captures the suspicious ship 40 with a wide viewing angle by the monitoring camera 1. (Step S1). Then, the imaging control device 11 of the airplane 10 causes the ground monitoring device 50 to capture the position information, altitude information, direction information, and the imaging of the monitoring camera 1 in addition to the image of the imaging object (suspicious ship 40). Condition information (camera control information) is transmitted wirelessly (step S2).
[0015]
(2) The ground monitoring device 50 receives the position information, altitude information, azimuth information of the monitoring camera 1 of the airplane 10 and information on the shooting conditions of the monitoring camera transmitted from the shooting control device 11 of the airplane 10 (step S3). ) Based on this information, the position of the object to be photographed (suspicious ship 40) is calculated (step S4) and displayed on the map screen (step S5). The position of the shooting target is calculated when the shooting target is captured near the center of the screen in order to reduce the error. In addition, an image of the photographing object (suspicious ship 40) is also displayed.
As for the position calculation method, reference can be made to Japanese Patent Application Laid-Open No. 2001-189888 “Shooting instruction apparatus, photographing instruction method, and recording medium” which is a prior application of the present invention.
[0016]
(3) While viewing the video sent from the surveillance camera 1 of the airplane 10, click on the screen where the subject to be photographed (suspicious ship 40) is shown, and the subject to be photographed (suspicious ship 40). Is instructed to be at the center of the screen (steps S6 and S7).
[0017]
(4) The ground monitoring device 50 registers the photographing object (suspicious ship 40) as a management target on the screen (step S8), and transmits this registration information to the photographing control device 11 of the airplane 10 (step S9). . At this time, when the photographing object is registered, the items on the vertical axis of the photographing object management matrix table described later are automatically generated.
Thereafter, the imaging control device 11 of the airplane 10 starts tracking by controlling the monitoring camera 1 so that the imaging object (suspicious ship 40) is at the center of the screen (step S10).
The image tracking uses existing techniques such as a contour tracking method for tracking a contour in an image. The image tracking can be performed by the imaging control device 11 itself of the airplane 10 or by an instruction from the ground monitoring device 50.
[0018]
(5) Moreover, the ground monitoring apparatus 50 issues an instruction to another monitoring camera. For example, the position information of the photographing object (suspicious ship 40) is transmitted to the photographing control device 21 of the helicopter 20, the surveillance camera 2 is automatically panned, and the photographing object (suspicious ship 40) is initially captured (steps S11 to S13). ).
[0019]
(6) Thereafter, the surveillance camera 1 of the airplane 10 tracks and monitors the suspicious ship 40 and transmits monitoring information to the ground monitoring apparatus 50. The ground monitoring apparatus 50 displays the suspicious ship 40 on the map screen. The video is also displayed (steps S14 and S15). Similarly, the monitoring camera 2 of the helicopter 20 tracks and monitors the suspicious ship 40 and transmits monitoring information to the ground monitoring device 50 (steps S16 and S17).
[0020]
(7) Also, the video information of the victim A41, the position and orientation information of the surveillance camera 3, and the camera control information are transmitted from the imaging control device 31 of the ship 30 to the ground monitoring device 50. The imaging control device 31 of the ship 30 is instructed to monitor and track the victim A41 by the same procedure as that for the ship 40.
[0021]
FIG. 3 is a diagram showing a screen image of the photographing object monitoring screen of the ground monitoring apparatus 50, and FIG. 4 is a diagram showing a screen image of the camera assignment instruction screen.
[0022]
(1) As illustrated in the map screen 52 in the photographing object monitoring screen 51 of FIG. 3, as objects on the map screen 52, the positions of the monitoring camera 1, the monitoring camera 2, the monitoring camera 3, the photographing object (suspicious object) The positions of the ship 40, the distress A41, and the distress B42) are displayed in real time. The map information is registered in advance in a database in the ground monitoring device 50.
[0023]
(2) When shooting is started, the color of the object of the shooting target (suspicious ship 40 and the victim A41) changes on the map screen 52 of FIG. 3, and the camera assignment instruction screen 54 shown in FIG. The items on the horizontal axis of the subject management matrix table 54 are automatically generated and displayed.
[0024]
(3) In addition, the imaging object monitoring screen 51 shown in FIG. 3 is provided with a viewer 53 for displaying a video of the imaging object, and the imaging object is displayed from the video displayed in one of the viewers 53. Recognize and click the mouse on the viewer to register the subject. As a result, the detailed position information of the photographing object is continuously automatically calculated, and the object of the photographing object is displayed on the map screen 52 in real time. Further, the vertical axis item of the photographing object management matrix table 55 in the camera assignment instruction screen 54 of FIG. 4 is automatically generated.
[0025]
(4) Further, on the photographing object management matrix table 55 shown in FIG. 4, a photographing object can be assigned, and control of the assigned surveillance camera (automatic panning or Zoom). In addition, when multiple cameras are assigned to the object to be photographed, the monitoring camera capable of calculating more accurate detailed position information (coordinates) based on the zoom size, the depression angle, etc. Video is automatically selected.
[0026]
[Camera control method for shooting object]
The camera control method for the object to be imaged is performed as follows.
[0027]
(1) Calculation of coordinate position For example, the geographical coordinate position is continuously calculated from the camera control information of the monitoring camera 1 transmitted from the imaging control device 11 of the airplane 10 and the position and orientation information. As for the position calculation method, reference can be made to Japanese Patent Application Laid-Open No. 2001-189888 “Shooting instruction apparatus, photographing instruction method, and recording medium” which is a prior application of the present invention.
[0028]
(2) Sharing of control information of monitoring camera For example, when the shooting condition of the monitoring camera 1 of the airplane 10 is good, that is, a shooting condition that can be sufficiently specified as a shooting target (suspicious ship 40) and whose position is easy to specify. In this case, the surveillance camera 1 is controlled by the image tracking operation of the imaging control device 11 itself of the airplane 10. When the photographing conditions are bad, coordinate information calculated based on information from another monitoring camera, for example, the monitoring camera 2 of the helicopter 20, is received from the ground monitoring device 50, and the monitoring camera 1 is controlled. That is, the coordinate information of the object to be imaged (suspicious ship 40) is calculated using a monitoring camera with better imaging conditions, and the coordinate information is calculated by the imaging control device 11 of the airplane 10 and the imaging control device 21 of the helicopter 20. Share. Of course, it is possible to fix to either.
[0029]
(3) Assignment of monitoring cameras when there are a plurality of shooting objects In principle, one monitoring camera is assigned to one shooting object by clicking a cell on the shooting object management matrix table 55 shown in FIG. Assign (multiple cameras can capture a single object). In addition, it is possible to specify a detailed shooting method such as the zoom size.
[0030]
[Configuration example of ground monitoring device]
FIG. 5 is a block diagram showing a configuration example of the ground monitoring apparatus, and shows only a portion directly related to the present invention. In FIG. 5, 60 is the entire ground monitoring device, 61 is a communication interface for connecting to the monitoring device 56 of the related department via the communication network 4, and 62 is communicating with the imaging control device such as an airplane or helicopter. Wireless communication apparatus 63 for controlling the entire ground monitoring apparatus, 70 a processing program section, and 80 a database.
[0031]
Further, the processing program unit 70 includes the following processing units.
The monitoring camera information reception processing unit 71 includes information on shooting conditions (camera control information) including the position, altitude, and shooting direction of a monitoring camera mounted on a moving body such as an airplane or a helicopter, and information on a video of a shooting target. Is a processing unit for receiving.
The shooting target instruction transmission processing unit 72 is a processing unit for transmitting to each monitoring camera position information of a shooting target to be tracked and monitored and information for instructing monitoring and tracking of the shooting target. It is also a processing unit for performing an operation instruction (for example, zoom change, panning) to the surveillance camera.
The position information calculation processing unit 73 is a processing unit for calculating the position of the object to be imaged (coordinate position on the map) based on information from the monitoring camera.
The map screen display processing unit 74 is a processing unit for displaying the position of the shooting target on the map screen 52 based on the position information of the shooting target.
The position information sharing processing unit 75 is a processing unit for sharing the position information of the object to be photographed between the monitoring cameras mounted on each moving body.
The management table display processing unit 76 is a processing unit for displaying the monitoring camera and the photographing object of each moving body as a matrix table.
The surveillance camera assignment processing unit 77 performs processing for assigning each surveillance camera to the photographic object and instructing the surveillance camera to perform an operation on a table in which each surveillance camera and the photographic subject are displayed in a matrix. Part.
The surveillance camera automatic selection processing unit 78 compares the photographing conditions of each surveillance camera when a plurality of surveillance cameras are assigned to one photographing object, and uses the surveillance camera to calculate the coordinate position based on a predetermined reference. It is a processing part for automatically selecting.
[0032]
Further, the database 80 records map information 81 and other information 82 necessary for processing of the ground monitoring device 60.
[0033]
The processing program unit 70 may be realized by dedicated hardware, and the processing program unit is configured by a general-purpose information processing device such as a memory and a CPU (central processing unit). The function may be realized by loading a program (not shown) for realizing the function of the unit into a memory and executing the program. In addition, it is assumed that an input device, a display device, and the like (none of them are displayed) are connected to the ground monitoring device 60 as peripheral devices. Here, the input device refers to an input device such as a keyboard and a mouse. The display device refers to a CRT (Cathode Ray Tube), a liquid crystal display device, or the like.
[0034]
[Configuration example of shooting control device]
FIG. 6 is a block diagram showing a configuration example of a photographing control apparatus mounted on a moving body, and shows a portion directly related to the present invention. In FIG. 6, 90 is the entire imaging control apparatus, 91 is a wireless communication apparatus for performing wireless communication with the ground monitoring apparatus 60, 92 is a GPS, 93 is an altimeter, and 94 is an azimuth sensor that determines azimuth using geomagnetism. , 95 is a control unit that performs overall control of the entire imaging control apparatus, 96 is a monitoring camera whose operation (camera work) is controlled by the imaging control apparatus 90, and 100 is a processing program unit.
[0035]
The processing program unit 100 includes the following processing units.
The monitoring camera information transmission processing unit 101 transmits processing conditions information (camera control information) including the position, altitude, and shooting direction of the monitoring camera and video information of the shooting target to the ground monitoring device 60. Part.
The imaging object instruction reception processing unit 102 receives, from the ground monitoring device 60, position information of the imaging object to be tracked and monitored by the monitoring camera 95 and instruction information of the imaging object to be tracked and monitored. Part. It is also a processing unit for receiving operation instruction information of the monitoring camera from the ground monitoring device 60.
The imaging target tracking processing unit 103 is a processing unit for tracking and monitoring the imaging target instructed from the ground monitoring device 60. The image tracking uses existing techniques such as a contour tracking method for tracking a contour in an image.
The surveillance camera operation control processing unit 104. It is a processing unit for automatically controlling the camera work of the monitoring camera 95.
In calculating altitude information, which is the height from the sea level, the difference between the altitude of the aircraft and the average sea level is used as a rule. However, if more accurate position calculation is required, the test data should be used. You may make it correct | amend. The test tide data is an actual measurement value of sea level height, and is data published by the Japan Coast Guard Marine Information Department.
[0036]
Although the embodiment of the present invention has been described above, the functions of the processing program unit 70 in the ground monitoring device 60 shown in FIG. 5 and the processing program unit 100 in the imaging control device 90 shown in FIG. 6 are realized. The program is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed, whereby the processing program unit 70 in the ground monitoring apparatus 60 shown in FIG. The processing program unit 100 in the imaging control device 90 shown in FIG. Here, the “computer system” includes an OS and hardware such as peripheral devices.
[0037]
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system.
Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it is intended to include those that hold a program for a certain period of time, such as a volatile memory inside a computer system that becomes a server or a client in that case (transmission medium or transmission wave).
The program may be for realizing a part of the functions described above, and further, a program that can realize the functions described above in combination with a program already recorded in a computer system, a so-called difference file (difference). Program).
[0038]
As mentioned above, although the embodiment of the joint photographing system of the present invention has been described, the present invention is not limited to the above illustrated examples, and various modifications can be made without departing from the gist of the present invention. Of course.
[0039]
【The invention's effect】
As described above, in the joint photographing system of the present invention, the moving body transmits information on the position, altitude, photographing direction, and video information of the monitoring camera to the ground monitoring device and gives instructions from the ground monitoring device. The ground monitoring device calculates the position of the shooting target based on the information received from the monitoring camera of the moving body and displays it on the map screen.
Thereby, the moving imaging | photography target object can be tracked and a position can be pinpointed and displayed on a map screen. In addition, even on complicated terrain, the object to be photographed can be tracked and photographed. Further, it is possible to share position information on the map coordinates of the photographing object and monitor the photographing object jointly with a plurality of monitoring cameras. In addition, the position of the object to be photographed and the video information can be distributed in real time to related departments.
[0040]
Moreover, the joint photographing system of the present invention shares the position information of the photographing target among the surveillance cameras.
This makes it possible to calculate the position information of the object to be photographed using the surveillance camera with the best photographing conditions, even when the field of view is bad or in bad weather, and the surveillance cameras jointly track and photograph the object to be photographed. be able to.
[0041]
Further, the joint photographing system of the present invention displays the monitoring camera and the photographing object as a matrix table on the display screen of the ground monitoring apparatus, and assigns and operates each monitoring camera on the matrix table. Make instructions.
Thereby, even when there are a plurality of shooting objects, the monitoring cameras can be allocated easily and effectively.
[0042]
Further, the joint photographing system of the present invention compares and confirms the photographing conditions of each surveillance camera when a plurality of surveillance cameras are assigned to one photographing subject, and the photographing subject is based on a predetermined standard. Automatically selects a surveillance camera to be used to calculate the coordinate position.
This makes it possible to calculate the position information of the object to be photographed by the surveillance camera with the best photographing conditions and effectively track and photograph the object to be photographed by each surveillance camera even in the case of poor visibility or bad weather. .
[Brief description of the drawings]
FIG. 1 is a diagram for explaining the system configuration and operation of a joint photographing system of the present invention.
FIG. 2 is a diagram for explaining a flow of a photographing method.
FIG. 3 is a diagram showing a screen image of a photographing object monitoring screen.
FIG. 4 is a diagram showing a screen image of a camera assignment instruction screen.
FIG. 5 is a block diagram illustrating a configuration example of a ground monitoring apparatus.
FIG. 6 is a block diagram illustrating a configuration example of an imaging control apparatus.
[Explanation of symbols]
1, 2, 3 Surveillance camera 4 Communication network 10 Airplane 11, 21, 31, 90 Imaging control device 20 Helicopter 30 Ship 40 Suspicious ship 41 Victim A
42 Victim B
50, 60 Ground monitoring device 51 Shooting object monitoring screen 52 Map screen 53 Viewer 54 Camera allocation instruction screen 55 Shooting object management matrix table 61 Communication interface 62 Wireless communication device 70 Processing program unit 71 Monitoring camera information reception processing unit 72 Shooting Object instruction transmission processing unit 73 Position information calculation processing unit 74 Map screen display processing unit 75 Position information sharing processing unit 76 Management table display processing unit 77 Monitoring camera assignment processing unit 78 Monitoring camera automatic selection processing unit 80 Database 81 Map information 91 Wireless Communication device 92 GPS
93 Altimeter 94 Direction Sensor 96 Monitoring Camera 100 Processing Program Unit 101 Monitoring Camera Information Transmission Processing Unit 102 Imaging Object Instruction Reception Processing Unit 103 Imaging Object Tracking Processing Unit 104 Monitoring Camera Operation Control Processing Unit

Claims (3)

監視カメラが搭載された複数の移動体と、前記各移動体の監視カメラで撮影される複数の撮影対象物の情報を受信して表示する監視装置からなる共同撮影システムであって
前記移動体は
搭載した監視カメラの位置、高度、撮影方向を検出する位置方位情報検出手段と、
前記監視カメラの位置、高度、撮影方向を含む撮影条件の情報と、前記撮影対象物の映像の情報とを前記監視装置に送信する監視カメラ情報送信手段と、
前記監視装置から、追跡監視すべき撮影対象物の位置情報と監視指示情報とを受信する撮影対象物指示受信手段と、
前記指示された撮影対象物を、前記監視カメラにより追跡監視する撮影対象物追跡手段と
を具備し、
前記監視装置は
表示手段と、
地図情報を保持するデータベースと、
前記各移動体から、前記撮影条件の情報と、前記撮影対象物の映像の情報とを受信する監視カメラ情報受信手段と、
前記監視カメラ情報受信手段により受信した情報に基づいて、前記撮影対象物の位置情報を算出し、前記各移動体のそれぞれ対して、前記監視カメラが追跡監視すべき撮影対象物の位置情報と監視指示情報とを送信する撮影対象物指示送信手段と、
前記撮影対象物の位置情報を基に、前記表示手段の地図画面上に前記撮影対象物の位置を表示する地図画面表示手段と、
前記表示手段の画面上に、前記各移動体の監視カメラと撮影対象物とを関係付けたマトリクス状テーブルを表示するとともに、前記マトリクス状テーブル上で、各監視カメラの撮影対象物への割り当て及び動作指示を行う監視カメラ割り当て手段と
を具備することを特徴とする共同撮影システム。
A plurality of moving bodies monitoring camera is mounted, said a joint photographic system comprising a monitoring device for receiving and displaying information of a plurality of photographing objects that will be captured by the monitoring camera each mobile,
The moving body is
Position and orientation information detection means for detecting the position, altitude, and shooting direction of the installed surveillance camera;
Position of the monitoring camera, altitude, and information of imaging conditions including an imaging direction, a monitoring camera information transmitting means for transmitting the information of the video of the shooting target to the monitoring apparatus,
A photographing object instruction receiving means for receiving position information and monitoring instruction information of the photographing object to be tracked and monitored from the monitoring device;
The indicated shooting target, comprising a shooting target tracking means that monitors tracked by the surveillance cameras,
The monitoring equipment is,
Display means;
A database that holds map information;
Wherein from each mobile, and the information of the image capturing conditions, the monitor camera information receiving means for receiving the information of the image of the shooting target,
Based on the information received by the monitor camera information receiving unit, it calculates the position information of the shooting target, wherein for each of the mobile bodies, the position information of the monitoring cameras shoot the object to be monitored track A photographing object instruction transmitting means for transmitting the monitoring instruction information;
Map screen display means for displaying the position of the shooting object on the map screen of the display means based on the position information of the shooting object;
On the screen of the display means, a matrix-like table in which the monitoring cameras of the respective moving bodies are associated with the photographing objects is displayed. On the matrix-like table, the assignment of the monitoring cameras to the photographing objects and A joint photographing system, comprising: a surveillance camera assigning unit that performs an operation instruction .
一つの撮影対象物に複数の監視カメラが割り当てられてられている場合に、前記各監視カメラの撮影条件を比較し、所定の基準により、撮影対象物の座標位置の計算に使用する監視カメラを自動選定するための監視カメラ自動選定手段を
さらに具備することを特徴とする請求項1に記載の共同撮影システム。
When a plurality of surveillance cameras are assigned to one photographing object, the photographing conditions of the respective surveillance cameras are compared, and a surveillance camera used for calculating the coordinate position of the photographing object is determined according to a predetermined reference. The joint photographing system according to claim 1, further comprising a monitoring camera automatic selection unit for automatic selection.
監視カメラが搭載された複数の移動体と、
表示手段及び地図情報を保持するデータベースを備え、前記各移動体の監視カメラで撮影される複数の撮影対象物の情報を受信して表示する監視装置からなる共同撮影システムにおいて前記監視装置上で動作するコンピュータプログラムであって、
前記各移動体から、前記撮影条件の情報と、前記撮影対象物の映像の情報とを受信する監視カメラ情報受信処理と、
前記監視カメラ情報受信手段により受信した情報に基づいて、前記撮影対象物の位置情報を算出し、前記各移動体のそれぞれ対して、前記監視カメラが追跡監視すべき撮影対象物の位置情報と監視指示情報とを送信する撮影対象物指示送信処理と、
前記撮影対象物の位置情報を基に、前記表示手段の地図画面上に前記撮影対象物の位置を表示する地図画面表示処理と、
前記表示手段の画面上に、前記各移動体の監視カメラと撮影対象物とを関係付けたマトリクス状テーブルを表示するとともに、前記マトリクス状テーブル上で、各監視カメラの撮影対象物への割り当て及び動作指示を行う監視カメラ割り当て処理と
をコンピュータに行わせることを特徴とするコンピュータプログラム。
A plurality of moving objects equipped with surveillance cameras;
Comprising a database that holds the display unit and the map information, said have you joint imaging system comprising a monitoring device for receiving and displaying the information of the plurality of photographing objects that will be captured by the monitoring camera of each mobile object monitoring device on A computer program that runs on
Wherein from each mobile, and the information of the image capturing conditions, the monitor camera information reception process of receiving the information of the image of the shooting target,
Based on the information received by the monitor camera information receiving unit, it calculates the position information of the shooting target, wherein for each of the mobile bodies, the position information of the monitoring cameras shoot the object to be monitored track A shooting object instruction transmission process for transmitting monitoring instruction information;
A map screen display process for displaying the position of the shooting object on the map screen of the display means based on the position information of the shooting object;
On the screen of the display means, a matrix-like table in which the monitoring cameras of the respective moving bodies are associated with the photographing objects is displayed. On the matrix-like table, the assignment of the monitoring cameras to the photographing objects and A computer program for causing a computer to perform surveillance camera assignment processing for instructing an operation .
JP2002214312A 2002-07-23 2002-07-23 Joint shooting system Expired - Lifetime JP3946593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002214312A JP3946593B2 (en) 2002-07-23 2002-07-23 Joint shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002214312A JP3946593B2 (en) 2002-07-23 2002-07-23 Joint shooting system

Publications (2)

Publication Number Publication Date
JP2004056664A JP2004056664A (en) 2004-02-19
JP3946593B2 true JP3946593B2 (en) 2007-07-18

Family

ID=31936664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002214312A Expired - Lifetime JP3946593B2 (en) 2002-07-23 2002-07-23 Joint shooting system

Country Status (1)

Country Link
JP (1) JP3946593B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104853150A (en) * 2015-02-11 2015-08-19 居锦武 Multi-camera objective cooperatively tracking technology

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253060A (en) * 2004-02-04 2005-09-15 Yokoba Kogyo Kk Monitoring camera apparatus and monitoring camera system
JP4587166B2 (en) * 2004-09-14 2010-11-24 キヤノン株式会社 Moving body tracking system, photographing apparatus, and photographing method
JP4792823B2 (en) * 2005-06-09 2011-10-12 ソニー株式会社 NETWORK SYSTEM, MOBILE DEVICE, ITS CONTROL METHOD, AND COMPUTER PROGRAM
WO2010097921A1 (en) * 2009-02-26 2010-09-02 三菱電機株式会社 Mobile object imaging system, mobile object, ground-based station device, and method for imaging mobile object
JP4547040B1 (en) * 2009-10-27 2010-09-22 パナソニック株式会社 Display image switching device and display image switching method
JP5870484B2 (en) * 2010-12-27 2016-03-01 日本電気株式会社 Disaster prevention radio system and video control method for disaster prevention radio system
JP6140436B2 (en) * 2012-12-13 2017-05-31 セコム株式会社 Shooting system
JP5982273B2 (en) * 2012-12-14 2016-08-31 セコム株式会社 Shooting system
JP6072533B2 (en) * 2012-12-21 2017-02-01 セコム株式会社 Shooting system
JP6182343B2 (en) * 2013-03-29 2017-08-16 綜合警備保障株式会社 Flight control system and flight control method
JP6469962B2 (en) * 2014-04-21 2019-02-13 薫 渡部 Monitoring system and monitoring method
JP6482852B2 (en) * 2014-12-22 2019-03-13 セコム株式会社 Tracking processor
JP6482855B2 (en) * 2014-12-22 2019-03-13 セコム株式会社 Monitoring system
US10748010B2 (en) * 2015-09-01 2020-08-18 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
JP6100868B1 (en) * 2015-11-09 2017-03-22 株式会社プロドローン Unmanned moving object control method and unmanned moving object monitoring device
JP6738059B2 (en) * 2016-07-12 2020-08-12 株式会社自律制御システム研究所 Display device, search system, display method, and program
KR101750390B1 (en) * 2016-10-05 2017-06-23 주식회사 알에프코리아 Apparatus for tracing and monitoring target object in real time, method thereof
US20190361434A1 (en) * 2016-12-22 2019-11-28 Nec Corporation Surveillance system, unmanned flying object, and surveillance method
KR101868821B1 (en) * 2017-04-20 2018-07-20 한국항공우주연구원 Multi-satellite Integrated Scheduling System and Method
EP4009297A4 (en) 2019-08-02 2022-09-14 Sony Group Corporation Information processing device, method, and program
WO2022070808A1 (en) * 2020-10-01 2022-04-07 富士フイルム株式会社 Disaster information processing device, method for operating disaster information processing device, program for operating disaster information processing device, and disaster information processing system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3225434B2 (en) * 1996-04-23 2001-11-05 重之 山口 Video presentation system
JP3569627B2 (en) * 1998-05-15 2004-09-22 三菱電機株式会社 Image interpretation device
JP2001025003A (en) * 1999-07-08 2001-01-26 Canon Inc Camera system and camera control method
JP3809309B2 (en) * 1999-09-27 2006-08-16 キヤノン株式会社 Camera control system, camera control method, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104853150A (en) * 2015-02-11 2015-08-19 居锦武 Multi-camera objective cooperatively tracking technology

Also Published As

Publication number Publication date
JP2004056664A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
JP3946593B2 (en) Joint shooting system
TW201328344A (en) System and method for controlling a unmanned aerial vehicle to capture images of a target location
CN104792313B (en) The mapping control method of unmanned Reconnaissance system, apparatus and system
US11924539B2 (en) Method, control apparatus and control system for remotely controlling an image capture operation of movable device
CN110022444A (en) The panorama photographic method of unmanned flight's machine and the unmanned flight's machine for using it
US20030218675A1 (en) Video picture processing method
CN110706447A (en) Disaster position determination method, disaster position determination device, storage medium, and electronic device
JP6482855B2 (en) Monitoring system
JP2695393B2 (en) Position specifying method and device
JP6482856B2 (en) Monitoring system
JP6496158B2 (en) Change detection system using aerial moving body acquisition information, change detection method using aerial moving body acquisition information, and program thereof
JP3919994B2 (en) Shooting system
CN110267087B (en) Dynamic label adding method, device and system
JP2007241085A (en) Photographed image processing system and photographed image processing device, and photographed image display method
JP2003316259A (en) Photography image processing method and system thereof
CN113329207B (en) Auxiliary tracking method, system and computer storage medium based on aircraft shooting
KR102402949B1 (en) Acquisition method of image information with improved precision
JP2000341672A (en) Remote photographing system and photographing instructing device and photographing device and information display device and remote photographing method
JP2024016765A (en) Processing device, processing program, and processing method
WO2021212499A1 (en) Target calibration method, apparatus, and system, and remote control terminal of movable platform
JP7081198B2 (en) Shooting system and shooting control device
JP6645701B2 (en) Damage location identification system
KR20200124899A (en) Apparatus and method for checking facility
JPH0837615A (en) Mobile object photographing device
JPH0524588A (en) Television camera device for aerial reconnaissance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070411

R150 Certificate of patent or registration of utility model

Ref document number: 3946593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140420

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term