JP2016118995A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2016118995A
JP2016118995A JP2014259398A JP2014259398A JP2016118995A JP 2016118995 A JP2016118995 A JP 2016118995A JP 2014259398 A JP2014259398 A JP 2014259398A JP 2014259398 A JP2014259398 A JP 2014259398A JP 2016118995 A JP2016118995 A JP 2016118995A
Authority
JP
Japan
Prior art keywords
unit
range
angle
monitoring
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014259398A
Other languages
Japanese (ja)
Other versions
JP6482856B2 (en
Inventor
秀行 青木
Hideyuki Aoki
秀行 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014259398A priority Critical patent/JP6482856B2/en
Publication of JP2016118995A publication Critical patent/JP2016118995A/en
Application granted granted Critical
Publication of JP6482856B2 publication Critical patent/JP6482856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image suitable to understand the state of a monitored area to track a target to be tracked.SOLUTION: A monitoring system 1 comprises: a monitoring camera 2 for shooting from the ground; a flight device 3 having a shooting part 31a for shooting from the sky; and a sensor device 4. The sensor device 4 includes: a target calculating unit 43c calculating a target position where a shooting range of the monitoring camera 2 can be shot at an elevation angle different from a shooting elevation angle of the monitoring camera 2; and a flight device controlling unit 43d controlling the shooting part 31a to move the flight device 3 to the target position to shoot the shooting range.SELECTED DRAWING: Figure 1

Description

本発明は、例えば人物、車両などの移動体を監視する監視システムに関する。   The present invention relates to a monitoring system for monitoring a moving object such as a person or a vehicle.

人物、車両などの移動体を監視するシステムとしては、例えば下記特許文献1に開示されるものが知られている。この特許文献1では、システム全体にわたる移動体の追跡及び複数のビデオカメラ毎に分散された情報の統括的管理を効率よく行うことを目的として、複数ビデオカメラ毎に分散的に人物追跡するカメラ内追跡手段と、追跡を行うメイン追跡要素と移動体の特徴量をメイン追跡要素に供給するサブ追跡要素とからなり複数のカメラ内追跡手段間で連携して移動体を追跡するカメラ間追跡手段と、複数のカメラ内追跡手段に亙り移動体を探索する移動体探索手段とを具え、監視領域に分散配置された複数のビデオカメラを連携動作させている。   As a system for monitoring a moving body such as a person or a vehicle, for example, a system disclosed in Patent Document 1 below is known. In this patent document 1, in order to efficiently perform tracking of a moving body over the entire system and comprehensive management of information distributed to a plurality of video cameras, an internal camera that tracks people in a distributed manner for each of the plurality of video cameras. An inter-camera tracking means for tracking a moving body in cooperation with a plurality of in-camera tracking means, comprising a tracking means, and a main tracking element for tracking and a sub-tracking element for supplying a feature quantity of the moving object to the main tracking element; In addition, a plurality of video camera units distributed in the monitoring area are operated in cooperation with a moving body searching unit for searching for a moving body over a plurality of in-camera tracking units.

特開2004−72628号公報JP 2004-72628 A

上述した特許文献1に開示されるシステムでは、複数のビデオカメラが監視領域に分散配置され、各々のビデオカメラが撮影範囲を固定的に撮影する構成なので、ある一つのビデオカメラの撮影範囲について得られる情報としてはそのビデオカメラの撮影方向から撮影した画像情報のみとなる。このため、例えば、そのビデオカメラの撮影方向から死角となる領域については状況を把握することができない。また、ある一つのビデオカメラの画像上に映った対象についてそのカメラの画像情報以外の情報を得ることはできない。上述した特許文献1に開示されるシステムでは、ビデオカメラの撮影範囲が一部重複するように設置することが示されているが、ビデオカメラの撮影範囲が固定的である以上、重複して得られた複数の画像が、お互いに、監視領域の状況を的確に把握するのに補完し合えるような関係になるとは限らない。このため、監視領域の状況を把握するのに適した他の画像を必ずしも得ることができなかった。   In the system disclosed in Patent Document 1 described above, a plurality of video cameras are distributed and arranged in a monitoring area, and each video camera captures a shooting range in a fixed manner. Therefore, the shooting range of a certain video camera is obtained. The only information that can be obtained is image information taken from the shooting direction of the video camera. For this reason, for example, the situation cannot be grasped for an area that becomes a blind spot from the shooting direction of the video camera. Further, information other than the image information of the camera cannot be obtained for an object reflected on the image of a certain video camera. In the system disclosed in Patent Document 1 described above, it is shown that the shooting ranges of the video cameras are partially overlapped. However, since the shooting ranges of the video cameras are fixed, they are obtained in duplicate. The plurality of images thus obtained do not necessarily have a relationship that can complement each other to accurately grasp the status of the monitoring area. For this reason, other images suitable for grasping the situation of the monitoring area cannot always be obtained.

そこで、本発明は上記問題点に鑑みてなされたものであり、監視領域において撮影された画像を補完し、その画像中の状況を把握するのに適した他の画像を得ることができる監視システムを提供することを目的とするものである。   Therefore, the present invention has been made in view of the above problems, and a monitoring system capable of complementing an image captured in a monitoring region and obtaining another image suitable for grasping the situation in the image. Is intended to provide.

上記した目的を達成するために、本発明に係る監視システムは、地上から撮影する監視カメラと、上空から撮影する撮像部を有する飛行装置とを備えた監視システムであって、
前記監視カメラの撮影俯仰角と異なる俯仰角にて当該監視カメラの撮影範囲を撮影できる目標位置を算出する目標算出部と、
前記目標位置に前記飛行装置を移動させて前記監視カメラの撮影範囲を撮影するように前記撮像部を制御する飛行装置制御部と、
を備えたことを特徴とする。
In order to achieve the above object, a monitoring system according to the present invention is a monitoring system including a monitoring camera that captures images from the ground and a flying device that includes an imaging unit that captures images from above.
A target calculation unit that calculates a target position at which the imaging range of the monitoring camera can be imaged at an elevation angle different from the imaging elevation angle of the monitoring camera;
A flying device control unit that controls the imaging unit to move the flying device to the target position and shoot a shooting range of the monitoring camera;
It is provided with.

また、本発明に係る監視システムは、第1の角度範囲を記憶する記憶部を備え、
前記目標算出部は、
前記監視カメラの撮影俯仰角が前記第1の角度範囲か否かを判定する判定部と、
前記判定部にて前記第1の角度範囲でないと判定した場合には前記第1の角度範囲となる俯仰角にて前記監視カメラの撮影範囲を撮影できる目標位置を算出し、前記判定部にて前記第1の角度範囲であると判定した場合には前記第1の角度範囲と異なる俯仰角にて前記監視カメラの撮影範囲を撮影できる目標位置を算出する算出部と、
を備えてもよい。
Moreover, the monitoring system according to the present invention includes a storage unit that stores the first angle range,
The target calculation unit
A determination unit for determining whether or not a shooting elevation angle of the monitoring camera is in the first angle range;
When the determination unit determines that the range is not the first angle range, a target position at which the imaging range of the monitoring camera can be captured at the elevation angle that is the first angle range is calculated. A calculation unit that calculates a target position at which the imaging range of the monitoring camera can be imaged at an elevation angle different from the first angle range when it is determined that the range is the first angle range;
May be provided.

さらに、本発明に係る監視システムは、前記記憶部は、前記第1の角度範囲とは所定角度範囲離れた第2の角度範囲を記憶し、
前記算出部は、前記判定部にて前記第1の角度範囲であると判定した場合には前記第2の角度範囲となる俯仰角にて前記監視カメラの撮影範囲を撮影できる目標位置を算出してもよい。
Furthermore, in the monitoring system according to the present invention, the storage unit stores a second angle range that is separated from the first angle range by a predetermined angle range,
The calculation unit calculates a target position at which the imaging range of the monitoring camera can be imaged at an elevation angle that is the second angle range when the determination unit determines that the range is the first angle range. May be.

また、本発明に係る監視システムは、前記第1の角度範囲を0度から第1の所定角度(ただし、0度<第1の所定角度<45度)までに含まれる範囲としたときには前記第2の角度範囲を第2の所定角度(ただし、45度<第2の所定角度<90度)から90度までに含まれる範囲とし、
又は、前記第1の角度範囲を前記第2の所定角度から90度までに含まれる範囲としたときには第2の所定角度を0度から前記第1の所定角度に含まれる範囲としてもよい。
In the monitoring system according to the present invention, when the first angle range is a range included from 0 degree to a first predetermined angle (where 0 degree <first predetermined angle <45 degrees), An angle range of 2 is a range included from the second predetermined angle (where 45 degrees <second predetermined angle <90 degrees) to 90 degrees,
Alternatively, when the first angle range is a range included from the second predetermined angle to 90 degrees, the second predetermined angle may be a range included from 0 degrees to the first predetermined angle.

本発明の監視システムによれば、監視カメラの撮影俯仰角とは異なる俯仰角にて監視カメラの撮影範囲を撮影できる位置に飛行装置が移動して撮像部にて撮影するように作用する。これにより、監視カメラの撮影俯仰角とは異なる俯仰角にて撮影した画像を取得でき、この飛行装置の撮像部が撮影した画像と監視カメラが撮影した画像とから監視領域の状況を把握するのに適した画像が得られ、監視カメラの撮影範囲の状況についてより多くの情報を得ることができる。   According to the monitoring system of the present invention, the flying device moves to a position where the imaging range of the surveillance camera can be imaged at an elevation angle different from the imaging elevation angle of the surveillance camera, and acts as an imaging unit. As a result, an image taken at an elevation angle different from the elevation angle of the surveillance camera can be acquired, and the situation of the surveillance area can be grasped from the image taken by the imaging unit of the flying device and the image taken by the surveillance camera. An image suitable for the camera is obtained, and more information can be obtained about the situation of the imaging range of the surveillance camera.

また、本発明の監視システムによれば、監視カメラの撮影俯仰角が第1の角度範囲でない場合、飛行装置は第1の角度範囲から監視カメラの撮影範囲を撮影できる目標位置に移動して撮像部にて撮影するように作用する。これに対し、監視カメラの撮影俯仰角が第1の角度範囲である場合、飛行装置は第1の角度範囲とは異なる俯仰角にて監視カメラの撮影範囲を撮影できる目標位置に移動して撮像部にて撮影するように作用する。これにより、監視に際して必要となる撮影俯仰角などを第1の角度範囲として記憶しておけば、必要となる撮影俯仰角の画像を必ず得られるとともに、それとは異なる俯仰角にて撮影した画像も得ることができる。   Further, according to the monitoring system of the present invention, when the imaging elevation angle of the surveillance camera is not the first angle range, the flying device moves from the first angle range to a target position where the imaging range of the surveillance camera can be imaged. It works to shoot at the part. On the other hand, when the imaging elevation angle of the surveillance camera is in the first angle range, the flying device moves to the target position where the imaging range of the surveillance camera can be imaged at an elevation angle different from the first angle range. It works to shoot at the part. Thus, if the imaging elevation angle required for monitoring is stored as the first angle range, an image of the required imaging elevation angle can be obtained without fail, and images taken at different elevation angles can also be obtained. Can be obtained.

さらに、本発明の監視システムによれば、監視カメラの撮影俯仰角が第1の角度範囲である場合、飛行装置は第1の角度範囲とは所定角度範囲離れた第2の角度範囲にて監視カメラの撮影範囲を撮影できる目標位置に移動して撮像部にて撮影するように作用する。これにより、第1の角度範囲の次に取得することが望ましい俯仰角を第2の角度範囲として記憶しておけば、必要となる撮影俯仰角の画像を必ず得られるとともに、その次に取得しておくべき俯仰角にて撮影された画像も得ることができる。   Furthermore, according to the monitoring system of the present invention, when the photographing elevation angle of the monitoring camera is in the first angle range, the flying device monitors in the second angle range that is separated from the first angle range by a predetermined angle range. It moves to the target position where the photographing range of the camera can be photographed, and acts to photograph with the imaging unit. As a result, if the elevation angle desired to be acquired next to the first angle range is stored as the second angle range, an image of the required imaging elevation angle can be obtained without fail, and then acquired. It is also possible to obtain an image taken at an elevation angle that should be kept.

また、本発明の監視システムによれば、監視カメラにて撮影俯仰角が水平方向に近い画像が得られている場合には、飛行装置は撮影俯仰角が鉛直方向に近い画像が得られる目標位置に移動して撮像部にて監視カメラの撮影範囲を撮影するように作用する。また、監視カメラにて撮影俯仰角が鉛直方向に近い画像が得られている場合には、飛行装置は撮影俯仰角が水平方向に近い画像が得られる目標位置に移動して撮像部にて監視カメラの撮影範囲を撮影するように作用する。これにより、水平方向に近い方向から把握できる情報と鉛直方向に近い方向から把握できる情報との双方の情報を得ることができる。   Further, according to the monitoring system of the present invention, when an image with a shooting elevation angle close to the horizontal direction is obtained by the monitoring camera, the flying device can obtain a target position at which an image with a shooting elevation angle close to the vertical direction can be obtained. It moves so that the imaging range of the surveillance camera may be captured by the imaging unit. In addition, when an image with a shooting elevation angle close to the vertical direction is obtained by the monitoring camera, the flying device moves to a target position where an image with an imaging elevation angle close to the horizontal direction is obtained and is monitored by the imaging unit. Acts as if shooting the shooting range of the camera. Thereby, both information that can be grasped from a direction close to the horizontal direction and information that can be grasped from a direction close to the vertical direction can be obtained.

本発明に係る監視システムの全体構成を示す概略ブロック図である。It is a schematic block diagram which shows the whole structure of the monitoring system which concerns on this invention. 地上の水平面を仮想水平面とし、仮想水平面を側面から見たときの監視対象と監視カメラと飛行装置との位置関係を示す図である。It is a figure which shows the positional relationship of the monitoring object, a surveillance camera, and a flight apparatus when a ground horizontal surface is made into a virtual horizontal surface and the virtual horizontal surface is seen from the side. 上空から地上を鉛直方向に見たときの仮想水平面上における監視対象と監視カメラと飛行装置との位置関係を示す図である。It is a figure which shows the positional relationship of the monitoring target, the monitoring camera, and the flight apparatus on the virtual horizontal surface when the ground is viewed in the vertical direction from above. (a),(b)不審者を監視対象としたときの監視カメラと飛行装置の位置関係を示す図である。(A), (b) It is a figure which shows the positional relationship of a surveillance camera and flight apparatus when a suspicious person is made into the monitoring object. (a),(b)混雑を監視対象としたときの監視カメラと飛行装置の位置関係を示す図である。(A), (b) It is a figure which shows the positional relationship of a surveillance camera and flight apparatus when congestion is made into the monitoring object.

以下、本発明を実施するための形態について、添付した図面の図1〜5を参照しながら詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to FIGS. 1 to 5 of the accompanying drawings.

図1に示すように、本発明に係る監視システム1は、監視カメラ2、飛行装置3、追跡処理装置としてのセンタ装置4を備えて構築される。   As shown in FIG. 1, a monitoring system 1 according to the present invention is constructed by including a monitoring camera 2, a flying device 3, and a center device 4 as a tracking processing device.

(監視カメラの構成について)
監視カメラ2は、地上から所定の撮影範囲を撮影する。監視カメラ2は、図1に示すように、カメラ部21、制御部22、通信部23を備えている。
(About surveillance camera configuration)
The surveillance camera 2 captures a predetermined imaging range from the ground. As shown in FIG. 1, the monitoring camera 2 includes a camera unit 21, a control unit 22, and a communication unit 23.

カメラ部21は、所定の撮影範囲を撮影する本体をなし、撮像部21a、方向制御部21b、画像データ生成部21cを有している。   The camera unit 21 forms a main body that captures a predetermined shooting range, and includes an imaging unit 21a, a direction control unit 21b, and an image data generation unit 21c.

撮像部21aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成される。撮像部21aは、監視領域内の所定の撮影範囲を所定時間おきに撮像し、撮像した画像を画像データ生成部21cに順次出力している。   The imaging unit 21a includes an imaging element such as a CCD element or a C-MOS element, an optical component, and the like. The imaging unit 21a captures a predetermined imaging range in the monitoring area at predetermined time intervals, and sequentially outputs the captured images to the image data generation unit 21c.

尚、撮像部21aは、監視カメラ2がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部21cに出力される。   Note that when the monitoring camera 2 is configured as a pan / tilt zoom camera, the imaging unit 21a has a zoom position controlled by the control of the control unit 22 based on a shooting instruction of a control signal from the center device 4. Information on the focal length based on the zoom position is output to the image data generation unit 21c.

方向制御部21bは、監視カメラ2がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部22の制御により、水平方向及び垂直方向の角度が制御される。この水平方向の角度情報、及び俯角又は仰角(俯仰角)としての垂直方向の角度情報は、予め設定された監視カメラ2の撮影方向(水平方向の角度情報及び俯仰角)からの変位角度であり、画像データ生成部21cに出力される。   The direction control unit 21b is necessary when the monitoring camera 2 is configured as a pan / tilt / zoom camera. The direction control unit 21b is controlled in the horizontal direction and the vertical direction under the control of the control unit 22 based on the shooting instruction of the control signal from the center device 4. The angle is controlled. The angle information in the horizontal direction and the angle information in the vertical direction as the depression angle or the elevation angle (elevation angle) are a displacement angle from a preset shooting direction (horizontal angle information and elevation angle) of the monitoring camera 2. And output to the image data generation unit 21c.

画像データ生成部21cは、撮像部21aが撮像した画像に対し、必要に応じて焦点距離や撮影方向を付加した画像データを生成する。また、後述の測位部34にて取得した撮影時における位置情報を必要に応じて付加した画像データを生成する。なお、監視カメラ2がパンチルトズームカメラとして構成される場合には、予め設定された監視カメラ2の撮影方向を上述の変位角度で補正した撮影方向を画像データに付加する。   The image data generation unit 21c generates image data in which a focal length and a shooting direction are added to the image captured by the imaging unit 21a as necessary. Further, image data to which position information at the time of photographing acquired by the positioning unit 34 described later is added as necessary is generated. When the monitoring camera 2 is configured as a pan / tilt / zoom camera, a shooting direction obtained by correcting the previously set shooting direction of the monitoring camera 2 with the above-described displacement angle is added to the image data.

制御部22は、カメラ部21の画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきに通信部23を介してセンタ装置4に送信制御する。また、制御部22は、センタ装置4からの制御信号を通信部23を介して受信したときに、この制御信号の撮影指示に従ってカメラ部21の撮像部21aや方向制御部21bを制御する。   The control unit 22 controls transmission of the image data generated by the image data generation unit 21c of the camera unit 21 to the center device 4 via the communication unit 23 at predetermined frame intervals at predetermined intervals. When the control unit 22 receives a control signal from the center device 4 via the communication unit 23, the control unit 22 controls the imaging unit 21a and the direction control unit 21b of the camera unit 21 in accordance with a shooting instruction of the control signal.

通信部23は、有線又は無線により通信を行うための通信インタフェースであり、制御部22の制御により、通信回線を介してセンタ装置4との間で有線又は無線により通信し、データや信号の送受信を行う。具体的には、画像データ生成部21cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部21aや方向制御部21bを制御するためのセンタ装置4からの制御信号を受信する。   The communication unit 23 is a communication interface for performing wired or wireless communication. Under the control of the control unit 22, the communication unit 23 communicates with the center device 4 via the communication line by wired or wireless, and transmits and receives data and signals. I do. Specifically, the image data generated by the image data generation unit 21c is transmitted to the center device 4 at predetermined intervals with a predetermined frame period. In addition, a control signal is received from the center device 4 for controlling the imaging unit 21a and the direction control unit 21b.

尚、監視カメラ2は、図2に示すように、監視領域の所定箇所に固定して複数設置されるものに限定されない。例えば各種車両に搭載した車載用カメラ、撮像部を有する小型移動飛行ロボットやドローンなどのように監視領域を移動できるものであってもよい。また、監視カメラ2が監視領域内を移動できる場合には、少なくとも1つの監視カメラ2が設けられた構成であってもよい。そして、監視カメラ2が監視領域を移動する場合には、撮影時における監視カメラ2の位置情報が移動に伴って変化するため、GPSからなる測位部を監視カメラ2に備え、地球上での監視カメラ2の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を画像データ生成部21cに出力する。また、監視カメラ2が監視領域を移動する場合は、撮影時における監視カメラ2の撮影方向も移動による姿勢変動によって変化するため、後述する姿勢検出部35と同様の構成を備え、画像データ生成部21cは、これにより得られた姿勢情報により撮影方向を補正する。そして、画像データ生成部21cからは、監視カメラ2の撮影時における位置情報及び撮影時における監視カメラ2の撮影方向も付加した画像データがセンタ装置4に送信される。   As shown in FIG. 2, the monitoring camera 2 is not limited to a camera that is fixedly installed at a predetermined location in the monitoring area. For example, an in-vehicle camera mounted on various vehicles, a small mobile flying robot having an imaging unit, a drone, or the like that can move the monitoring area may be used. Further, when the monitoring camera 2 can move within the monitoring area, a configuration in which at least one monitoring camera 2 is provided may be used. When the surveillance camera 2 moves in the surveillance area, the position information of the surveillance camera 2 at the time of shooting changes with the movement. Therefore, the surveillance camera 2 is provided with a GPS positioning unit, and is monitored on the earth. Position information (latitude, longitude, height) indicating the three-dimensional position (current position) of the camera 2 is output to the image data generation unit 21c. Further, when the monitoring camera 2 moves in the monitoring area, the shooting direction of the monitoring camera 2 at the time of shooting also changes due to the posture change caused by the movement, and thus has the same configuration as the posture detection unit 35 described later, and an image data generation unit 21c corrects the shooting direction based on the posture information obtained thereby. Then, the image data generation unit 21c transmits to the center device 4 image data to which position information at the time of shooting by the monitoring camera 2 and a shooting direction of the monitoring camera 2 at the time of shooting are added.

(飛行装置の構成について)
飛行装置3は、センタ装置4からの制御信号の指示によって移動制御が可能な移動型飛行装置、すなわち、移動型飛行船、小型移動飛行ロボットやドローン、人工衛星などである。又は電源供給及び通信可能な状態で本体がケーブルを介して地上の係留装置と繋がれた係留型飛行装置(例えば係留型飛行船など)であってもよい。さらに、これらの組合せによって構成してもよい。
(About the configuration of the flying device)
The flying device 3 is a mobile flying device capable of moving control according to an instruction of a control signal from the center device 4, that is, a mobile airship, a small mobile flying robot, a drone, an artificial satellite, or the like. Alternatively, it may be a moored flying device (for example, a moored airship) in which the main body is connected to a ground mooring device via a cable in a state where power supply and communication are possible. Furthermore, you may comprise by these combination.

尚、飛行装置3が係留型飛行装置の場合には、監視カメラ2で撮影できない死角領域を包含するように、監視領域の規模に合わせた数だけ設けるのが好ましい。   When the flying device 3 is a moored flying device, it is preferable to provide the number corresponding to the size of the monitoring area so as to include the blind spot area that cannot be captured by the monitoring camera 2.

飛行装置3は、図1に示すように、カメラ部31、推進部32、方向舵33、測位部34、姿勢検出部35、制御部36、無線通信部37を備えている。   As shown in FIG. 1, the flying device 3 includes a camera unit 31, a propulsion unit 32, a rudder 33, a positioning unit 34, an attitude detection unit 35, a control unit 36, and a wireless communication unit 37.

カメラ部31は、飛行装置3の本体に搭載され、主に、上空から監視カメラ2よりも広い撮影範囲で撮影を行っている。カメラ部31は、撮像部31a、方向制御部31b、画像データ生成部31cを有している。   The camera unit 31 is mounted on the main body of the flying device 3 and mainly performs imaging in a wider imaging range than the surveillance camera 2 from above. The camera unit 31 includes an imaging unit 31a, a direction control unit 31b, and an image data generation unit 31c.

撮像部31aは、例えばCCD素子やC−MOS素子などの撮像素子や光学部品などを含んで構成されるものであり、所定の撮影範囲を上空から所定時間おきに撮像し、撮像した画像を画像データ生成部31cに順次出力する。   The imaging unit 31a includes, for example, an imaging element such as a CCD element or a C-MOS element, an optical component, and the like. The imaging unit 31a captures a predetermined imaging range from the sky every predetermined time and images the captured image. The data is sequentially output to the data generation unit 31c.

尚、撮像部31aは、カメラ部31がパンチルトズームカメラとして構成される場合、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、ズーム位置が制御される。このズーム位置に基づく焦点距離の情報は画像データ生成部31cに出力される。   When the camera unit 31 is configured as a pan / tilt zoom camera, the zoom position of the imaging unit 31a is controlled by the control unit 36 based on a shooting instruction of a control signal from the center device 4. Information on the focal length based on the zoom position is output to the image data generation unit 31c.

方向制御部31bは、カメラ部31がパンチルトズームカメラとして構成される場合に必要なものであり、センタ装置4からの制御信号の撮影指示に基づく制御部36の制御により、水平方向及び垂直方向の角度が制御される。この水平方向の角度情報、及び俯角又は仰角(俯仰角)としての垂直方向の角度情報は、予め設定された監視カメラ2の撮影方向(水平方向の角度情報及び俯仰角)からの変位角度であり、画像データ生成部31cに出力される。   The direction control unit 31b is necessary when the camera unit 31 is configured as a pan / tilt / zoom camera. The direction control unit 31b is controlled in the horizontal and vertical directions under the control of the control unit 36 based on the shooting instruction of the control signal from the center device 4. The angle is controlled. The angle information in the horizontal direction and the angle information in the vertical direction as the depression angle or the elevation angle (elevation angle) are a displacement angle from a preset shooting direction (horizontal angle information and elevation angle) of the monitoring camera 2. And output to the image data generation unit 31c.

画像データ生成部31cは、撮像部31aが撮像した画像に対し、撮影時における焦点距離や撮影方向を必要に応じて付加した画像データを生成する。なお、カメラ部31がパンチルトズームカメラとして構成される場合には、予め設定されたカメラ部31の撮影方向を上述の変位角度で補正した撮影方向を画像データに付加する。また、撮影方向は、飛行装置3の姿勢によって変化するので、後述の姿勢検出部35の姿勢情報から撮影方向を補正している。また、後述の測位部34にて取得した撮影時における位置情報を必要に応じて付加した画像データを生成する。   The image data generation unit 31c generates image data in which the focal length and the shooting direction at the time of shooting are added to the image captured by the imaging unit 31a as necessary. When the camera unit 31 is configured as a pan / tilt / zoom camera, a shooting direction obtained by correcting the preset shooting direction of the camera unit 31 with the above-described displacement angle is added to the image data. Further, since the shooting direction changes depending on the attitude of the flying device 3, the shooting direction is corrected from attitude information of the attitude detector 35 described later. Further, image data to which position information at the time of photographing acquired by the positioning unit 34 described later is added as necessary is generated.

推進部32は、エンジンの動力をプロペラに伝達して回転させることにより飛行装置3に推進力を与えるものであり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。   The propulsion unit 32 applies propulsive force to the flying device 3 by transmitting the engine power to the propeller and rotating it, and is controlled by the control unit 36 according to the flight instruction of the control signal from the center device 4.

方向舵33は、飛行装置3の操縦に用いる動翼であり、センタ装置4からの制御信号の飛行指示に従って制御部36により制御される。   The rudder 33 is a moving blade used for maneuvering the flying device 3 and is controlled by the control unit 36 in accordance with a flight instruction of a control signal from the center device 4.

測位部34は、GPS(Global Positioning System )からなり、地球上での飛行装置3の3次元的位置(現在位置)を示す位置情報(緯度、経度、高さ)を制御部36に出力する。この位置情報は画像データ生成部31cへも出力する。   The positioning unit 34 includes a GPS (Global Positioning System), and outputs position information (latitude, longitude, height) indicating the three-dimensional position (current position) of the flying device 3 on the earth to the control unit 36. This position information is also output to the image data generation unit 31c.

姿勢検出部35は、例えばジャイロコンパスとサーボ加速度計を備え、飛行装置3の方位角、ピッチ角、ロール角を計測して飛行装置3の姿勢を検出し、この検出により得られる姿勢情報を制御部36に出力する。この姿勢情報は画像データ生成部31cへも出力する。   The attitude detection unit 35 includes, for example, a gyrocompass and a servo accelerometer, detects the attitude of the flying device 3 by measuring the azimuth angle, pitch angle, and roll angle of the flying device 3, and controls the attitude information obtained by this detection. To the unit 36. This attitude information is also output to the image data generation unit 31c.

制御部36は、カメラ部31の画像データ生成部31cが生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置4に送信するように無線通信部37を制御する。また、制御部36は、飛行制御部36aとカメラ制御部36bを有する。飛行制御部36aは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の飛行指示に従って推進部32や方向舵33を制御する。カメラ制御部36bは、センタ装置4からの制御信号を無線通信部37を介して受信したときに、この制御信号の撮影指示に従ってカメラ部31の撮像部31aや方向制御部31bを制御する。   The control unit 36 controls the wireless communication unit 37 so that the image data generated by the image data generation unit 31c of the camera unit 31 is transmitted to the center device 4 at predetermined intervals at predetermined frame periods. The control unit 36 includes a flight control unit 36a and a camera control unit 36b. When the flight control unit 36a receives a control signal from the center device 4 via the wireless communication unit 37, the flight control unit 36a controls the propulsion unit 32 and the rudder 33 according to the flight instruction of the control signal. When the control signal from the center device 4 is received via the wireless communication unit 37, the camera control unit 36b controls the imaging unit 31a and the direction control unit 31b of the camera unit 31 in accordance with the shooting instruction of the control signal.

無線通信部37は、制御部36の制御により、センタ装置4との間で無線通信し、データや信号の送受信を行う。具体的には、画像データ生成部31cが生成した画像データを所定フレーム周期で所定時間おきにセンタ装置4に送信する。また、撮像部31a、方向制御部31b、推進部32、方向舵33を制御するため、センタ装置4からの制御信号(撮影指示、飛行指示)を受信する。   The wireless communication unit 37 performs wireless communication with the center device 4 and transmits / receives data and signals under the control of the control unit 36. Specifically, the image data generated by the image data generation unit 31c is transmitted to the center device 4 at predetermined time intervals in a predetermined frame period. In addition, in order to control the imaging unit 31a, the direction control unit 31b, the propulsion unit 32, and the rudder 33, a control signal (imaging instruction, flight instruction) is received from the center device 4.

(センタ装置の構成について)
追跡処理装置としてのセンタ装置4は、通信部41、無線通信部42、制御部43、記憶部44、操作部45、表示部46を備えている。
(About the configuration of the center device)
The center device 4 as a tracking processing device includes a communication unit 41, a wireless communication unit 42, a control unit 43, a storage unit 44, an operation unit 45, and a display unit 46.

通信部41は、有線又は無線により通信を行うための通信インタフェースであり、制御部43の制御により、通信回線を介して複数の監視カメラ2との間で相互に通信を行う。具体的には、複数の監視カメラ2から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、制御対象となる監視カメラ2に対し、撮像部21aや方向制御部21bを制御して撮影指示するための制御信号を送信する。   The communication unit 41 is a communication interface for performing wired or wireless communication, and communicates with a plurality of monitoring cameras 2 via a communication line under the control of the control unit 43. Specifically, image data transmitted from the plurality of monitoring cameras 2 at predetermined frame intervals is received. In addition, a control signal for instructing photographing is transmitted to the monitoring camera 2 to be controlled by controlling the imaging unit 21a and the direction control unit 21b.

無線通信部42は、制御部43の制御により、飛行装置3との間で相互に無線通信を行う。具体的には、飛行装置3から所定フレーム周期で所定時間おきに送信される画像データを受信する。また、飛行装置3の撮像部31aや方向制御部31bを制御して撮影指示するための制御信号と、飛行装置3の推進部32や方向舵33を制御して飛行指示するための制御信号を必要に応じて送信する。   The wireless communication unit 42 performs wireless communication with the flying device 3 under the control of the control unit 43. Specifically, the image data transmitted from the flying device 3 at a predetermined frame period and every predetermined time is received. Further, a control signal for instructing shooting by controlling the imaging unit 31a and the direction control unit 31b of the flying device 3, and a control signal for instructing flight by controlling the propulsion unit 32 and the rudder 33 of the flying device 3 are necessary. Send according to.

制御部43は、監視カメラ2の画像を補完する画像を得る補完画像取得処理を実行するための構成として、監視対象検出部43a、取得部43b、目標算出部43c、飛行装置制御部43d、表示制御部43eを備えている。   The control unit 43 includes a monitoring target detection unit 43a, an acquisition unit 43b, a target calculation unit 43c, a flying device control unit 43d, a display as a configuration for executing a complementary image acquisition process for obtaining an image that complements the image of the monitoring camera 2. A control unit 43e is provided.

監視対象検出部43aは、監視カメラ2から所定のフレーム周期で所定時間おきに送信されてくる画像データの画像から監視対象N(例えば人物や車両など)を検出する。この監視対象Nの検出は、従来の画像認識技術を用いればよい。一例を挙げれば、監視対象Nを特定するための複数種類の特徴を抽出し、抽出した特徴を対象特徴(特徴情報)として記憶部44に予め記憶させる。例えば人物が監視対象Nである場合は、顔画像、年齢、性別、髪色、上半身衣服色、下半身衣服色、所持品種別、所持品色、身長、体型などが複数種類の特徴情報などとする。これら複数種類の特徴情報は、識別器や色ヒストグラムを用いた公知の手法によって抽出される。   The monitoring target detection unit 43a detects the monitoring target N (for example, a person or a vehicle) from the image of the image data transmitted from the monitoring camera 2 at a predetermined frame period every predetermined time. A conventional image recognition technique may be used to detect the monitoring target N. For example, a plurality of types of features for specifying the monitoring target N are extracted, and the extracted features are stored in advance in the storage unit 44 as target features (feature information). For example, when the person is the monitoring target N, the face image, age, gender, hair color, upper body clothes color, lower body clothes color, possession type, possession color, height, body type, etc. are the plural types of feature information. . These multiple types of feature information are extracted by a known method using a discriminator or a color histogram.

尚、監視対象Nの特徴情報の入力方法としては、監視員が必要に応じて操作部45を操作して、記憶部44に記憶保存された監視カメラ2の画像から監視対象Nに当たる部分を指定すると、この指定された画像から上述した特徴情報を抽出し、抽出した特徴情報を対象特徴として記憶部44に記憶させる。また、監視員の指定操作に依らず、監視対象Nが予め決まっている場合には、その監視対象Nの特徴情報を対象特徴として記憶部44に記憶させておく。   As a method for inputting the feature information of the monitoring target N, the supervisor operates the operation unit 45 as necessary, and designates a portion corresponding to the monitoring target N from the image of the monitoring camera 2 stored and stored in the storage unit 44. Then, the feature information described above is extracted from the designated image, and the extracted feature information is stored in the storage unit 44 as a target feature. In addition, when the monitoring target N is determined in advance regardless of the designation operation of the monitoring staff, the feature information of the monitoring target N is stored in the storage unit 44 as the target feature.

そして、監視対象Nを追跡する場合には、例えば、複数の監視カメラ2毎に撮影される画像から、上述した対象特徴の抽出手法と同様にして複数種類の特徴情報を抽出し、抽出した特徴情報と対象特徴との対比により監視対象Nを検出する。これら複数種類の特徴情報は、個々の特徴情報について監視対象Nの検出における信頼性を考慮した重み付け係数が設定されている。そして、上述した複数種類の特徴情報を特徴情報の種別ごとに比較して類似度を算出する。続いて、複数種類の特徴情報ごとに算出した類似度に対し、重み付け係数を掛け合わせ、特徴情報の種類毎の類似度に重み付け係数を掛け合わせて全て足し合わせたものを全体類似度とする。そして、予め記憶部44に記憶された監視対象Nと見なせる監視対象検出閾値(例えば類似度90%)と全体類似度とを比較し、全体類似度が監視対象検出閾値を超えていると判定すると、監視対象Nとして検出する。   When tracking the monitoring target N, for example, a plurality of types of feature information are extracted from the images taken for each of the plurality of monitoring cameras 2 in the same manner as the above-described target feature extraction method, and the extracted features are extracted. The monitoring target N is detected by comparing the information with the target feature. In these plural types of feature information, a weighting coefficient is set for each feature information in consideration of reliability in detection of the monitoring target N. Then, the degree of similarity is calculated by comparing the plurality of types of feature information described above for each type of feature information. Subsequently, the similarity calculated for each of the plurality of types of feature information is multiplied by a weighting coefficient, and the similarity for each type of feature information is multiplied by the weighting coefficient to obtain an overall similarity. Then, when the monitoring target detection threshold (for example, similarity 90%) that can be regarded as the monitoring target N stored in advance in the storage unit 44 is compared with the overall similarity, and it is determined that the overall similarity exceeds the monitoring target detection threshold. , Detected as a monitoring target N.

また、監視対象検出部43aは、上記のようにして検出した監視対象Nを所定フレームおきに取得される画像にわたって追跡する。例えば、現在の画像と1フレーム前の画像とのフレーム間差分をとることで画像中における変化領域を抽出し、監視対象Nの位置に相当する変化領域を特定する。そして、次に新たな画像データを取得した際も同様にフレーム間差分を行って変化領域を抽出し、この抽出した変化領域が、前回の監視対象Nに相当する変化領域として特定した変化領域と、その位置、大きさ、形状などの点において同一の物体とみなせるかを判定し、同一とみなせる場合には、その変化領域を今回の監視対象Nに相当する変化領域として特定する。これらの処理を新たな画像データを取得する度に繰り返すことで、監視カメラ2の画像中において監視対象Nを検出して追跡している。   In addition, the monitoring target detection unit 43a tracks the monitoring target N detected as described above over images acquired every predetermined frame. For example, the change area in the image is extracted by taking the inter-frame difference between the current image and the image one frame before, and the change area corresponding to the position of the monitoring target N is specified. Then, when new image data is acquired next, the difference area is similarly extracted to extract the change area, and the extracted change area is the change area specified as the change area corresponding to the previous monitoring target N. Then, it is determined whether the object can be regarded as the same object in terms of its position, size, shape, and the like. By repeating these processes every time new image data is acquired, the monitoring target N is detected and tracked in the image of the monitoring camera 2.

取得部43bは、監視員により操作部45が操作されて、後述する補完画像取得処理の指示がなされると、記憶部44に記憶された監視カメラ情報から監視カメラ2の撮影方向及び撮影範囲Lに関する情報を取得する。   When the operation unit 45 is operated by a monitoring person and an instruction for a complementary image acquisition process to be described later is given by the monitoring member, the acquisition unit 43b acquires the shooting direction and the shooting range L of the monitoring camera 2 from the monitoring camera information stored in the storage unit 44. Get information about.

なお、取得部43bは、監視カメラ2の撮影俯仰角及び撮影範囲Lに関する情報を、監視カメラ2から通信部41を介して受信した画像データに含まれる情報から取得してもよい。   Note that the acquisition unit 43b may acquire information regarding the imaging elevation angle and the imaging range L of the monitoring camera 2 from information included in the image data received from the monitoring camera 2 via the communication unit 41.

目標算出部43cは、監視員により操作部45が操作されて後述する補完画像取得処理の指示がなされたときに、取得部43bが取得した監視カメラ2の撮影俯仰角θ及び撮影範囲Lを元に、監視カメラ2の撮影俯仰角θと異なる俯仰角αにて撮影範囲Lを撮影できる目標位置を算出するもので、判定部43caと算出部43cbを有している。   The target calculation unit 43c is based on the imaging elevation angle θ and the imaging range L of the monitoring camera 2 acquired by the acquisition unit 43b when the operation unit 45 is operated by a monitoring person and an instruction for complementary image acquisition processing described later is given. In addition, it calculates a target position where the imaging range L can be imaged at an elevation angle α different from the imaging elevation angle θ of the surveillance camera 2 and includes a determination unit 43ca and a calculation unit 43cb.

判定部43caは、記憶部44に記憶された後述の角度範囲情報から第1の角度範囲(目標俯仰角範囲)を読み出し、取得部43bが取得した監視カメラ2の撮影俯仰角θが第1の角度範囲に収まっているか否かを判定する。   The determination unit 43ca reads a first angle range (target elevation angle range) from angle range information described later stored in the storage unit 44, and the imaging elevation angle θ of the monitoring camera 2 acquired by the acquisition unit 43b is the first. It is determined whether or not the angle is within the range.

算出部43cbは、取得部43bが取得した監視カメラ2の撮影俯仰角θと異なる俯仰角α(撮像部31aの垂直方向の撮影俯仰角)にて撮影範囲Lを撮影できる目標位置を算出する。さらに説明すると、算出部43cbは、判定部43caにて監視カメラ2の撮影俯仰角θが第1の角度範囲に収まっていないと判定すると、飛行装置3の撮像部31aが第1の角度範囲に収まる撮影俯仰角αにて撮影範囲Lを撮影できる目標位置を算出する。また、算出部43cbは、監視カメラ2の撮影俯仰角θが第1の角度範囲に収まっていると判定すると、飛行装置3の撮像部31aが第1の角度範囲と異なる撮影俯仰角αにて撮影範囲Lを撮影できる目標位置を算出する。   The calculating unit 43cb calculates a target position at which the imaging range L can be imaged at an elevation angle α (an imaging elevation angle in the vertical direction of the imaging unit 31a) different from the imaging elevation angle θ of the monitoring camera 2 acquired by the acquisition unit 43b. More specifically, when the calculation unit 43cb determines that the shooting elevation angle θ of the monitoring camera 2 is not within the first angle range in the determination unit 43ca, the imaging unit 31a of the flying device 3 falls within the first angle range. A target position at which the photographing range L can be photographed at a photographing photographing elevation angle α that falls within the range is calculated. When the calculation unit 43cb determines that the shooting elevation angle θ of the surveillance camera 2 is within the first angle range, the imaging unit 31a of the flying device 3 has a shooting elevation angle α different from the first angle range. A target position where the shooting range L can be shot is calculated.

ここで、目標位置の算出方法について図2及び図3を参照しながら説明する。図2は地上の水平面を仮想水平面Eとし、仮想水平面Eを側面から見たときの監視対象Nと監視カメラ2と飛行装置3との位置関係を示す図である。また、図3は上空から地上を鉛直方向に見たときの仮想水平面E上における監視対象Nと監視カメラ2と飛行装置3との位置関係を示す図である。   Here, a method for calculating the target position will be described with reference to FIGS. FIG. 2 is a diagram illustrating a positional relationship among the monitoring target N, the monitoring camera 2, and the flying device 3 when the ground horizontal plane is a virtual horizontal plane E and the virtual horizontal plane E is viewed from the side. FIG. 3 is a diagram showing a positional relationship among the monitoring target N, the monitoring camera 2, and the flying device 3 on the virtual horizontal plane E when the ground is viewed from above in the vertical direction.

図2において、監視対象Nを追跡する監視カメラ2から飛行装置3の撮像部31aまでの仮想水平面E上の撮影距離(直線距離)をW、監視カメラ2と監視対象Nとの間の仮想水平面E上の直線距離をa、飛行装置3と監視対象Nとの間の仮想水平面E上の直線距離をb、監視対象Nと飛行装置3の撮像部31aとを結ぶ直線と仮想水平面Eとのなす角度をα、仮想水平面Eからの飛行装置3の高度をHとすると、仮想水平面E上の撮影距離Wは、W=a+b、W=a+(H/tanα)で表すことができる。   In FIG. 2, the imaging distance (straight line distance) on the virtual horizontal plane E from the monitoring camera 2 that tracks the monitoring target N to the imaging unit 31a of the flying device 3 is W, and the virtual horizontal plane between the monitoring camera 2 and the monitoring target N The straight line distance on E is a, the straight line distance on the virtual horizontal plane E between the flying device 3 and the monitoring target N is b, the straight line connecting the monitoring target N and the imaging unit 31a of the flying device 3 and the virtual horizontal plane E If the angle formed is α and the altitude of the flying device 3 from the virtual horizontal plane E is H, the shooting distance W on the virtual horizontal plane E can be expressed as W = a + b, W = a + (H / tan α).

そして、図2の仮想水平面E上の監視カメラ2と監視対象Nとの間の直線距離aは、記憶部44に記憶された監視カメラ情報の位置情報と撮影方向と画像中における監視対象Nの位置から算出することができる。また、監視対象Nと飛行装置3の撮像部31aとを結ぶ直線と仮想水平面Eとのなす角度αは、上述した算出部43cbによって第1の角度範囲内に設定される。さらに、仮想水平面Eからの飛行装置3の高度Hは、監視対象Nや周囲の状況に応じて監視員の操作部45の操作により設定される。従って、撮影距離Wを一意に定めることができる。   The linear distance a between the monitoring camera 2 on the virtual horizontal plane E in FIG. 2 and the monitoring target N is the position information of the monitoring camera information stored in the storage unit 44, the shooting direction, and the monitoring target N in the image. It can be calculated from the position. Further, the angle α formed between the straight line connecting the monitoring target N and the imaging unit 31a of the flying device 3 and the virtual horizontal plane E is set within the first angle range by the calculation unit 43cb described above. Further, the altitude H of the flying device 3 from the virtual horizontal plane E is set by the operation of the operation unit 45 of the monitor according to the monitoring target N and the surrounding situation. Accordingly, the shooting distance W can be uniquely determined.

今、図3に示すように、監視対象Nを追跡する監視カメラ2の撮影位置Pを原点(0,0)としたときの基準方位(北)と監視対象Nとのなす角度をφとすると、飛行装置3の移動位置(目標位置)は図3における座標(Wsinφ,Wcosφ)、撮影方向はφ+180°として算出することができる。   As shown in FIG. 3, if the angle between the reference orientation (north) and the monitoring target N when the photographing position P of the monitoring camera 2 that tracks the monitoring target N is the origin (0, 0) and the monitoring target N is φ, The moving position (target position) of the flying device 3 can be calculated as the coordinates (Wsin φ, W cos φ) in FIG. 3, and the shooting direction can be calculated as φ + 180 °.

なお、図2及び図3では、監視対象Nを挟んで監視カメラ2と対向する位置に飛行装置3を移動制御する場合の目標位置の算出について説明したが、算出部43cbは、これとは異なる方向から監視カメラ2の撮影範囲を角度αで撮影できる位置を目標位置として算出してもよい。例えば、監視対象Nを、監視カメラ2と同じ方向から撮影する位置を目標位置として算出してもよい。この場合は、算出部43cbによって設定されたなす角度α、監視員の操作部45の操作により設定された高度Hによって、飛行装置3と監視対象Nとの間の仮想水平面E上の直線距離bを算出し、監視対象Nを原点としたときに座標(bsin(φ+180°),bcos(φ+180°))となる位置を目標位置とし、撮影方向をφとすればよい。また、補完画像取得処理の指示がなされたときの飛行装置3の現在位置において高度を変更することにより監視カメラ2の撮影範囲を角度αで撮影できる位置を目標位置として算出してもよい。この場合は、算出部43cbによって設定されたなす角度α、飛行装置3と監視対象Nとの間の仮想水平面E上の直線距離bから、高度Hを目標位置として算出する。そして、撮影方向は、原点を監視カメラの位置から飛行装置3の位置に変更した場合の監視対象Nの位置を算出し、飛行装置3を原点とした場合の基準方位(北)と監視対象Nのなす角度を求め、これを撮影方向とすればよい。   2 and 3, the calculation of the target position in the case of controlling the movement of the flying device 3 to the position facing the monitoring camera 2 across the monitoring target N has been described, but the calculation unit 43cb is different from this. A position where the photographing range of the monitoring camera 2 can be photographed at an angle α from the direction may be calculated as a target position. For example, a position where the monitoring target N is photographed from the same direction as the monitoring camera 2 may be calculated as a target position. In this case, the straight line distance b on the virtual horizontal plane E between the flying device 3 and the monitoring target N is determined by the angle α set by the calculation unit 43cb and the altitude H set by the operation of the operation unit 45 of the observer. Is calculated, and the position where the coordinates (bsin (φ + 180 °), bcos (φ + 180 °)) are obtained when the monitoring target N is the origin is set as the target position, and the shooting direction may be set as φ. Alternatively, the position at which the imaging range of the monitoring camera 2 can be imaged at the angle α may be calculated as the target position by changing the altitude at the current position of the flying device 3 when the instruction for the complementary image acquisition processing is given. In this case, the altitude H is calculated as the target position from the angle α set by the calculation unit 43cb and the linear distance b on the virtual horizontal plane E between the flying device 3 and the monitoring target N. The shooting direction is calculated by calculating the position of the monitoring target N when the origin is changed from the position of the monitoring camera to the position of the flying device 3, and the reference orientation (north) and the monitoring target N when the flying device 3 is the origin. What is necessary is just to obtain | require the angle which makes | forms, and let this be an imaging direction.

飛行装置制御部43dは、目標算出部43cの算出部43cbが算出した目標位置に飛行装置3を移動制御する。また、飛行装置制御部43dは、目標位置において監視カメラ2の撮影俯仰角θと異なる俯仰角α(撮像部31aの垂直方向の撮影俯仰角)にて撮影範囲Lを撮影するように飛行装置3の高度を制御するとともに飛行装置3又は撮像部31aの方向を制御する。   The flying device control unit 43d controls movement of the flying device 3 to the target position calculated by the calculation unit 43cb of the target calculation unit 43c. In addition, the flying device control unit 43d captures the imaging range L at a target position at an elevation angle α (an imaging elevation angle in the vertical direction of the imaging unit 31a) different from the imaging elevation angle θ of the monitoring camera 2. As well as the direction of the flying device 3 or the imaging unit 31a.

表示制御部43eは、表示部46の表示を制御している。具体的には、通常の監視状態において、監視カメラ2から所定時間おきに送信される画像データに含まれる最新の画像を表示部46に表示している。また、後述する補完画像取得処理では、監視カメラ2と飛行装置3の両方から送信される最新の画像を表示部46に表示している。これにより、監視員は、表示部46に表示された画像をモニタすることにより監視領域の最新状況を知ることができる。   The display control unit 43e controls the display on the display unit 46. Specifically, in the normal monitoring state, the latest image included in the image data transmitted from the monitoring camera 2 every predetermined time is displayed on the display unit 46. Further, in the complementary image acquisition process described later, the latest image transmitted from both the monitoring camera 2 and the flying device 3 is displayed on the display unit 46. Thereby, the monitor can know the latest situation of the monitoring area by monitoring the image displayed on the display unit 46.

記憶部44は、監視カメラ情報、飛行装置情報、角度範囲情報、画像データなどの各種情報を記憶している。各種情報について説明すると、監視カメラ情報は、各監視カメラ2に関する情報であって、各監視カメラ2の位置情報(撮影位置P:緯度、経度、高さ)、撮影方向、撮影範囲L、焦点距離などの情報が含まれ、動的に変化するものは監視カメラ2から受信する画像データに含まれる情報に基づいて逐次更新される。   The storage unit 44 stores various information such as surveillance camera information, flying device information, angle range information, and image data. The various types of information will be described. The monitoring camera information is information relating to each monitoring camera 2, and includes position information (shooting position P: latitude, longitude, height) of each monitoring camera 2, shooting direction, shooting range L, focal length. Such information that is dynamically changed is sequentially updated based on information included in image data received from the monitoring camera 2.

なお、移動可能な監視カメラ2においては、位置情報、撮影方向、撮影範囲、焦点距離が変化するため、受信する画像データに含まれる情報に基づいて制御部43により逐次更新される。具体的には、位置情報と撮影方向、焦点距離は受信した情報をそのまま更新し、撮影範囲は画像データに含まれる位置情報、撮影方向、焦点距離に基づいて算出し、更新する。   In the movable monitoring camera 2, the position information, the shooting direction, the shooting range, and the focal length change, so that the control unit 43 sequentially updates the information based on the information included in the received image data. Specifically, the received information is directly updated for the position information, the shooting direction, and the focal length, and the shooting range is calculated and updated based on the position information, the shooting direction, and the focal length included in the image data.

また、監視領域の所定箇所に固定して設置される監視カメラ2の位置情報に関する情報は、予め記憶部44に監視カメラ情報の一部として記憶しておくことができる。このような監視カメラ2のうち、パンチルトズーム可能な監視カメラ2については、撮影方向、撮影範囲、焦点距離が変化するため、受信する画像データに含まれる情報に基づいて、上記と同様にして制御部43により逐次更新される。   In addition, information related to the position information of the monitoring camera 2 that is fixedly installed at a predetermined location in the monitoring area can be stored in advance in the storage unit 44 as a part of the monitoring camera information. Among such surveillance cameras 2, the surveillance camera 2 capable of pan / tilt / zoom is controlled in the same manner as described above based on the information included in the received image data because the photographing direction, the photographing range, and the focal length change. Updated sequentially by the unit 43.

飛行装置情報は、飛行装置3に関する情報であって、飛行装置3の位置情報(飛行位置又は撮影位置:緯度、経度、高さ)、カメラ部31の撮影方向、撮影範囲、焦点距離などの情報が含まれ、動的に変化するものは飛行装置3から受信する画像データに含まれる情報に基づいて、監視カメラ情報の更新と同様にして制御部43により逐次更新される。   The flying device information is information related to the flying device 3, and includes information on the position of the flying device 3 (flight position or shooting position: latitude, longitude, height), shooting direction of the camera unit 31, shooting range, focal length, and the like. Are dynamically updated based on information included in the image data received from the flying device 3 in the same manner as the monitoring camera information is updated.

角度範囲情報は、図2に示すように、地上の水平面を仮想水平面E(0°)とし、この仮想水平面Eと直交する平面を仮想鉛直面V(90°)としたときに、仮想水平面Eと仮想鉛直面Vとの間の角度範囲であり、第1の角度範囲と第2の角度範囲からなる。   As shown in FIG. 2, the angle range information includes a virtual horizontal plane E when the ground horizontal plane is a virtual horizontal plane E (0 °) and a plane perpendicular to the virtual horizontal plane E is a virtual vertical plane V (90 °). And an imaginary vertical plane V, consisting of a first angle range and a second angle range.

第1の角度範囲は、監視対象Nの監視に必要な必要俯仰角範囲である。具体的には、監視対象Nが例えば不審者である場合は、不審者の顔を捉えやすい水平寄りの角度、例えば仮想水平面Eを含む0〜30°が第1の角度範囲となる。これに対し、監視対象Nが混雑である場合は、地上の水平面上における前後左右の周囲の状況が把握しやすい垂直寄りの角度、例えば仮想鉛直面Vを含む60〜90°が第1の角度範囲となる。   The first angle range is a necessary elevation angle range necessary for monitoring the monitoring target N. Specifically, when the monitoring target N is, for example, a suspicious person, a first angle range is an angle close to the horizontal where the suspicious person's face can be easily captured, for example, 0 to 30 ° including the virtual horizontal plane E. On the other hand, when the monitoring target N is congested, the first angle is an angle closer to the vertical, for example, 60 to 90 ° including the virtual vertical plane V, which makes it easy to grasp the situation around the front, rear, left and right on the horizontal surface It becomes a range.

第2の角度範囲は、第1の角度範囲から所定角度範囲だけ離れた目標俯仰角範囲である。具体的には、監視対象Nが例えば不審者であって、第1の角度範囲が仮想水平面Eを含む0〜30°に設定された場合は、地上の水平面上における前後左右の周囲の状況が把握しやすい垂直寄りの角度、例えば仮想鉛直面Vを含む60〜90°が第2の角度範囲として設定される。これに対し、監視対象Nが例えば混雑であって、第1の角度範囲が仮想鉛直面Vに対して60〜90°とした場合は、不審者の顔を捉えやすい水平寄りの角度、例えば仮想水平面Eを含む0〜30°が第2の角度範囲として設定される。   The second angle range is a target elevation angle range that is separated from the first angle range by a predetermined angle range. Specifically, when the monitoring target N is, for example, a suspicious person and the first angle range is set to 0 to 30 ° including the virtual horizontal plane E, the situation of the surroundings of the front, rear, left, and right on the ground horizontal plane is A vertical angle that is easy to grasp, for example, 60 to 90 ° including the virtual vertical plane V is set as the second angle range. On the other hand, when the monitoring target N is, for example, congested and the first angle range is 60 to 90 ° with respect to the virtual vertical plane V, an angle closer to the horizon, for example, virtual 0 to 30 ° including the horizontal plane E is set as the second angle range.

なお、第1の角度範囲と第2の角度範囲は、互いに角度が重複しない角度範囲に設定されていればよい。例えば第1の角度範囲が仮想水平面Eを含む0〜45°(但し、45°を含まない)に設定された場合は、第2の角度範囲を仮想鉛直面Vを含む45〜90°(但し、45°を含まない)に設定する。逆に、第1の角度範囲が仮想鉛直面Vを含む45〜90°(但し、45°を含まない)に設定された場合は、第2の角度範囲を仮想水平面Eを含む0〜45°(但し、45°を含まない)に設定する。   Note that the first angle range and the second angle range may be set to an angle range in which the angles do not overlap each other. For example, when the first angle range is set to 0 to 45 ° (not including 45 °) including the virtual horizontal plane E, the second angle range is 45 to 90 ° including the virtual vertical plane V (however, , 45 ° is not included). Conversely, when the first angle range is set to 45 to 90 ° (not including 45 °) including the virtual vertical plane V, the second angle range is 0 to 45 ° including the virtual horizontal plane E. (However, 45 ° is not included).

画像データは、各監視カメラ2や飛行装置3から所定のフレーム周期で所定時間おきに送信されるデータであり、監視カメラ2ごと飛行装置3ごとに記憶部44に逐次蓄積される。   The image data is data transmitted from the respective monitoring cameras 2 and the flying devices 3 at predetermined frame intervals every predetermined time, and is sequentially stored in the storage unit 44 for each monitoring device 2 and each flying device 3.

操作部45は、例えばマウス、キーボード、表示部46の表示画面上のソフトキーなどで構成される。操作部45は、後述する補完画像取得処理の開始又は終了の指示、第1角度範囲及び第2角度範囲の設定、監視カメラ2の撮影俯仰角θの設定、高度Hの設定、監視カメラ2の画像に基づく監視対象Nの追跡の指示、監視対象Nの特徴情報の指定、記憶部44に記憶保存された画像から監視対象Nの指定、各監視カメラ2や飛行装置3への指示(撮影指示、飛行指示)、画像データの削除などを行う際に監視員によって操作される。   The operation unit 45 includes, for example, a mouse, a keyboard, and soft keys on the display screen of the display unit 46. The operation unit 45 instructs the start or end of a complementary image acquisition process, which will be described later, sets the first angle range and the second angle range, sets the shooting elevation angle θ of the monitoring camera 2, sets the altitude H, and sets the monitoring camera 2 Instruction of tracking of the monitoring target N based on the image, specification of the characteristic information of the monitoring target N, specification of the monitoring target N from the image stored and stored in the storage unit 44, instructions to each monitoring camera 2 and the flying device 3 (shooting instruction) , Flight instructions), and deletion of image data.

表示部46は、例えば液晶表示器などで構成される。表示部46は、表示制御部43eの制御により、複数の監視カメラ2や飛行装置3から取得した画像データの表示などを行っている。   The display unit 46 is composed of, for example, a liquid crystal display. The display unit 46 displays image data acquired from the plurality of monitoring cameras 2 and the flying device 3 under the control of the display control unit 43e.

次に、上記のように構成される監視システム1の動作として、監視対象Nを追跡する監視カメラ2からの画像を補完する画像を取得するために飛行装置3を移動制御する補完画像取得処理について説明する。   Next, as an operation of the monitoring system 1 configured as described above, a complementary image acquisition process for moving and controlling the flying device 3 in order to acquire an image that complements the image from the monitoring camera 2 that tracks the monitoring target N. explain.

通常は、監視対象検出部43aが、地上から撮影した複数の監視カメラ2からの画像データに基づいて監視対象Nを検出して追跡を行っている。ここで、ある監視カメラ2が監視対象Nを追跡している際に、監視員が操作部45を操作して補完画像取得処理の指示がなされると、飛行装置3を移動制御する補完画像取得処理が開始される。なお、補完画像取得処理は、監視員の操作部45の操作によらず、監視対象検出部43aが監視対象Nを検出すると自動的に開始するようにしてもよい。   Usually, the monitoring target detection unit 43a detects and tracks the monitoring target N based on the image data from the plurality of monitoring cameras 2 taken from the ground. Here, when a monitoring camera 2 is tracking the monitoring target N and the supervisor operates the operation unit 45 and gives an instruction for a complementary image acquisition process, the complementary image acquisition for controlling the movement of the flying device 3 is performed. Processing begins. Note that the complementary image acquisition process may be automatically started when the monitoring target detection unit 43a detects the monitoring target N regardless of the operation of the operation unit 45 by the monitor.

補完画像取得処理では、取得部43bが記憶部44に記憶された監視カメラ情報から監視カメラ2の撮影位置P(緯度、経度、高さ)、撮影方向及び撮影範囲Lに関する情報を取得する。   In the complementary image acquisition process, the acquisition unit 43 b acquires information on the shooting position P (latitude, longitude, height), shooting direction, and shooting range L of the monitoring camera 2 from the monitoring camera information stored in the storage unit 44.

なお、取得部43bは、監視カメラ2の撮影方向及び撮影範囲Lに関する情報は、監視カメラ2から通信部41を介して受信した画像データに含まれる情報から取得することもできる。   The acquisition unit 43b can also acquire information related to the shooting direction and the shooting range L of the monitoring camera 2 from information included in image data received from the monitoring camera 2 via the communication unit 41.

続いて、目標算出部43cの判定部43caは、記憶部44に記憶された角度範囲情報から第1の角度範囲(必要俯仰角範囲)を読み出し、取得部43bが取得した監視カメラ2の撮影方向における撮影俯仰角θが第1の角度範囲に収まっているか否かを判定する。   Subsequently, the determination unit 43ca of the target calculation unit 43c reads the first angle range (necessary elevation angle range) from the angle range information stored in the storage unit 44, and the imaging direction of the monitoring camera 2 acquired by the acquisition unit 43b. It is determined whether or not the shooting angle of elevation θ is within the first angle range.

そして、目標算出部43cの算出部43cbは、判定部43caにて監視カメラ2の撮影俯仰角θが第1の角度範囲に収まっていないと判定すると、飛行装置3の撮像部31aが第1の角度範囲に収まる撮影俯仰角αを設定し、この撮影俯仰角αにて撮影範囲Lを撮影できる目標位置を算出する。また、目標算出部43cの算出部43cbは、監視カメラ2の撮影俯仰角θが第1の角度範囲に収まっていると判定すると、飛行装置3の撮像部31aが第1の角度範囲と異なる撮影俯仰角αを設定し、この撮影俯仰角αにて撮影範囲Lを撮影できる目標位置を算出する。   When the calculation unit 43cb of the target calculation unit 43c determines that the shooting elevation angle θ of the monitoring camera 2 is not within the first angle range by the determination unit 43ca, the imaging unit 31a of the flying device 3 performs the first operation. An imaging elevation angle α that falls within the angle range is set, and a target position at which the imaging range L can be imaged at the imaging elevation angle α is calculated. When the calculation unit 43cb of the target calculation unit 43c determines that the shooting elevation angle θ of the monitoring camera 2 is within the first angle range, the imaging unit 31a of the flying device 3 has a shooting that is different from the first angle range. The elevation angle α is set, and a target position where the imaging range L can be imaged at the imaging elevation angle α is calculated.

そして、飛行装置制御部43dは、目標算出部43cの算出部43cbにて算出した目標位置まで飛行装置3を移動制御する。飛行装置3は、目標位置に到着すると、監視カメラ2の撮影俯仰角θと異なる撮影俯仰角αにて監視カメラ2の撮影範囲Lを含む撮影範囲で撮像部31aが撮影する。   Then, the flying device control unit 43d controls the movement of the flying device 3 to the target position calculated by the calculation unit 43cb of the target calculation unit 43c. When the flying device 3 arrives at the target position, the imaging unit 31a captures an image within the imaging range including the imaging range L of the monitoring camera 2 at an imaging elevation angle α different from the imaging elevation angle θ of the monitoring camera 2.

ここで、図4は不審者を監視対象Nとしたときの監視カメラ2と飛行装置3の位置関係を示している。監視対象Nが不審者の場合には、第1の角度範囲を仮想水平面Eを含む0〜30°に設定し、第2の角度範囲を仮想鉛直面Vを含む60〜90°に設定してそれぞれ記憶部44に記憶させておく。そして、目標算出部43cの判定部43caは、図4(a)に示すように、監視カメラ2の撮影俯仰角θが第1の角度範囲:0〜30°に収まっていると判断すると、目標算出部43cの算出部43cbは、飛行装置3が第2の角度範囲:60〜90°において監視カメラ2の撮影範囲を撮影できる目標位置と撮影方向を設定する。飛行装置制御部43dは、無線通信部42を介して飛行装置3に制御信号を送信し、設定された目標位置において飛行装置3の撮像部31aが設定された撮影方向となるように制御する。つまり、飛行装置3の撮像部31aの撮影俯仰角αが第2の角度範囲:60〜90°に収まるように、制御信号の指示に従って飛行装置3の飛行状態、飛行装置3又は撮像部31aの方向が制御される。   Here, FIG. 4 shows the positional relationship between the monitoring camera 2 and the flying device 3 when the suspicious person is the monitoring target N. When the monitoring target N is a suspicious person, the first angle range is set to 0 to 30 ° including the virtual horizontal plane E, and the second angle range is set to 60 to 90 ° including the virtual vertical plane V. Each is stored in the storage unit 44. Then, when the determination unit 43ca of the target calculation unit 43c determines that the shooting elevation angle θ of the monitoring camera 2 is within the first angle range: 0 to 30 °, as illustrated in FIG. The calculation unit 43cb of the calculation unit 43c sets a target position and a shooting direction at which the flying device 3 can shoot the shooting range of the monitoring camera 2 in the second angle range: 60 to 90 °. The flying device control unit 43d transmits a control signal to the flying device 3 via the wireless communication unit 42, and controls the imaging unit 31a of the flying device 3 to have the set shooting direction at the set target position. That is, according to the instruction | indication of a control signal, the flight state of the flying apparatus 3, the flying apparatus 3 or the imaging part 31a is set so that the imaging elevation angle α of the imaging part 31a of the flying apparatus 3 falls within the second angle range: 60 to 90 °. Direction is controlled.

これに対し、目標算出部43cの判定部43caは、図4(b)に示すように、監視カメラ2の撮影俯仰角θが第1の角度範囲:0〜30°から外れていると判断すると、目標算出部43cの算出部43cbは、飛行装置3が第2の角度範囲:0〜30°において監視カメラ2の撮影範囲を撮影できる目標位置と撮影方向を設定する。飛行装置制御部43dは、無線通信部42を介して飛行装置3に制御信号を送信し、設定された目標位置において飛行装置3の撮像部31aの撮影俯仰角αが設定された撮影方向となるように制御する。つまり、飛行装置3の撮像部31aの撮影俯仰角αが第1の角度範囲:0〜30°に収まるように、制御信号の指示に従って飛行装置3の飛行状態、飛行装置3又は撮像部31aの方向が制御される。   On the other hand, when the determination unit 43ca of the target calculation unit 43c determines that the shooting elevation angle θ of the surveillance camera 2 is out of the first angle range: 0 to 30 °, as shown in FIG. The calculation unit 43cb of the target calculation unit 43c sets a target position and a shooting direction at which the flying device 3 can shoot the shooting range of the monitoring camera 2 in the second angle range: 0 to 30 °. The flying device control unit 43d transmits a control signal to the flying device 3 via the wireless communication unit 42, and the shooting elevation angle α of the imaging unit 31a of the flying device 3 is set to the shooting direction at the set target position. To control. That is, the flight state of the flying device 3, the flying device 3 or the imaging unit 31a according to the instruction of the control signal so that the shooting elevation angle α of the imaging unit 31a of the flying device 3 falls within the first angle range: 0 to 30 °. Direction is controlled.

また、図5は混雑を監視対象としたときの監視カメラ2と飛行装置3の位置関係を示している。監視対象Nが混雑の場合には、第1の角度範囲を仮想鉛直面Vを含む60〜90°に設定し、第2の角度範囲を仮想水平面Eを含む0〜30°に設定してそれぞれ記憶部44に記憶させておく。そして、目標算出部43cの判定部43caは、図5(a)に示すように、監視カメラ2の撮影俯仰角θが第1の角度範囲:60〜90°に収まっていると判断すると、目標算出部43cの算出部43cbは、飛行装置3が第2の角度範囲:0〜30°において監視カメラ2の撮影範囲を撮影できる目標位置と撮影方向を設定する。飛行装置制御部43dは、無線通信部42を介して飛行装置3に制御信号を送信し、設定された目標位置において飛行装置3の撮像部31aの撮影俯仰角αが設定された撮影方向となるように制御する。つまり、飛行装置3の撮像部31aの撮影俯仰角αが第2の角度範囲:0〜30°に収まるように、制御信号の指示に従って飛行装置3の飛行状態、飛行装置3又は撮像部31aの方向が制御される。   FIG. 5 shows the positional relationship between the monitoring camera 2 and the flying device 3 when congestion is a monitoring target. When the monitoring target N is congested, the first angle range is set to 60 to 90 ° including the virtual vertical plane V, and the second angle range is set to 0 to 30 ° including the virtual horizontal plane E, respectively. This is stored in the storage unit 44. Then, when the determination unit 43ca of the target calculation unit 43c determines that the shooting elevation angle θ of the monitoring camera 2 is within the first angle range: 60 to 90 °, as illustrated in FIG. The calculation unit 43cb of the calculation unit 43c sets a target position and a shooting direction at which the flying device 3 can shoot the shooting range of the monitoring camera 2 in the second angle range: 0 to 30 °. The flying device control unit 43d transmits a control signal to the flying device 3 via the wireless communication unit 42, and the shooting elevation angle α of the imaging unit 31a of the flying device 3 is set to the shooting direction at the set target position. To control. That is, the flight state of the flying device 3, the flying device 3 or the imaging unit 31a according to the instruction of the control signal so that the shooting elevation angle α of the imaging unit 31a of the flying device 3 falls within the second angle range: 0 to 30 °. Direction is controlled.

これに対し、目標算出部43cの判定部43caは、図5(b)に示すように、監視カメラ2の撮影俯仰角θが第1の角度範囲:60〜90°から外れていると判断すると、目標算出部43cの算出部43cbは、飛行装置3が第2の角度範囲:60〜90°において監視カメラ2の撮影範囲を撮影できる目標位置と撮影方向を設定する。飛行装置制御部43dは、無線通信部42を介して飛行装置3に制御信号を送信し、設定された目標位置において飛行装置3の撮像部31aの撮影俯仰角αが設定された撮影方向となるように制御する。つまり、飛行装置3の撮像部31aの撮影俯仰角αが第1の角度範囲:60〜90°に収まるように、制御信号の指示に従って飛行装置3の飛行状態、飛行装置3又は撮像部31aの方向が制御される。   On the other hand, when the determination unit 43ca of the target calculation unit 43c determines that the shooting elevation angle θ of the monitoring camera 2 is out of the first angle range: 60 to 90 °, as illustrated in FIG. The calculation unit 43cb of the target calculation unit 43c sets a target position and a shooting direction at which the flying device 3 can shoot the shooting range of the monitoring camera 2 in the second angle range: 60 to 90 °. The flying device control unit 43d transmits a control signal to the flying device 3 via the wireless communication unit 42, and the shooting elevation angle α of the imaging unit 31a of the flying device 3 is set to the shooting direction at the set target position. To control. That is, according to the instruction | indication of a control signal, the flight state of the flying apparatus 3, the flying apparatus 3 or the imaging part 31a of the imaging device 31a of the flying apparatus 3 is set in the first angle range: 60 to 90 °. Direction is controlled.

このように、飛行装置3の撮像部31aが撮影する画像は、監視カメラ2とは異なる俯仰角の方向から撮影したものであり、監視カメラ2からは把握できない情報を多く含んだ画像である。そして、飛行装置3は、撮像部31aが撮影した画像を所定フレーム周期で所定時間おきにセンタ装置4に送信する。センタ装置4は、飛行装置3からの画像を受信し、監視カメラ2からの画像と一緒に表示部46に表示する。これにより、監視員は、監視カメラ2からの画像だけでなく、監視カメラ2からは把握できない情報を含んだ飛行装置3からの画像をモニタし、監視カメラ2の撮影範囲Lの状況についてより多くの情報を得ることができ、監視領域の状況を把握して監視対象Nの監視が行える。   As described above, the image captured by the imaging unit 31 a of the flying device 3 is an image captured from a direction of the elevation angle different from that of the monitoring camera 2, and includes a lot of information that cannot be grasped from the monitoring camera 2. Then, the flying device 3 transmits the image captured by the imaging unit 31a to the center device 4 at a predetermined frame period and every predetermined time. The center device 4 receives the image from the flying device 3 and displays it on the display unit 46 together with the image from the monitoring camera 2. As a result, the monitoring person monitors not only the image from the monitoring camera 2 but also the image from the flying device 3 including information that cannot be grasped from the monitoring camera 2, and more about the situation of the shooting range L of the monitoring camera 2. Can be obtained, and the monitoring target N can be monitored by grasping the status of the monitoring area.

なお、上述した実施の形態においては、算出部43cbが算出する目標位置は、図2〜5上で示した位置そのものとして説明したが、この位置を中心とした誤差範囲を設け、この誤差範囲を目標位置としてよい。   In the above-described embodiment, the target position calculated by the calculation unit 43cb has been described as the position itself shown in FIGS. 2 to 5. However, an error range centered on this position is provided, and this error range is set as the target position. It may be a target position.

以上説明したように、上述した実施の形態による監視システム1によれば、以下に示す効果を奏する。   As described above, the monitoring system 1 according to the above-described embodiment has the following effects.

監視員による操作部45の操作により補完画像取得処理の指示があると、目標算出部43cは、監視カメラ2の撮影俯仰角θと異なる撮影俯仰角αにて撮影範囲Lを撮影できる目標位置を算出する。飛行装置制御部43dは、目標算出部43cが算出した目標位置に飛行装置3を移動させて撮影範囲Lを撮影するように撮像部31aを制御する。かかる構成により、監視カメラ2とは異なる俯仰角にて飛行装置3の撮像部31aが撮影した画像を取得することができる。そして、飛行装置3の撮像部31aが撮影した画像と監視カメラ2が撮影した画像により、監視カメラ2の撮影範囲Lの状況についてより多くの情報を得ることができる。   When a complementary image acquisition process is instructed by an operation of the operation unit 45 by a monitor, the target calculation unit 43c sets a target position at which the imaging range L can be imaged at an imaging elevation angle α different from the imaging elevation angle θ of the surveillance camera 2. calculate. The flying device control unit 43d controls the imaging unit 31a so that the flying device 3 is moved to the target position calculated by the target calculation unit 43c and the shooting range L is shot. With this configuration, it is possible to acquire an image captured by the imaging unit 31a of the flying device 3 at an elevation angle different from that of the monitoring camera 2. And more information about the situation of the imaging range L of the surveillance camera 2 can be obtained from the image taken by the imaging unit 31 a of the flying device 3 and the image taken by the surveillance camera 2.

また、記憶部44には、互いに角度が重複しない角度範囲に設定された第1の角度範囲と第2の角度範囲からなる角度範囲情報が記憶されている。この角度範囲情報は、例えば第1の角度範囲が仮想水平面Eを含む0〜45°(但し、45°を含まない)内に設定された場合は、第2の角度範囲が仮想鉛直面Vを含む45〜90°(但し、45°を含まない)内に設定される。逆に、第1の角度範囲が仮想鉛直面Vを含む45〜90°(但し、45°を含まない)内に設定された場合は、第2の角度範囲が仮想水平面Eを含む0〜45°(但し、45°を含まない)内に設定される。そして、補完画像取得処理時において、飛行装置3は、監視カメラ2の撮影俯仰角θが第1の角度範囲内でなければ、第1の角度範囲内の撮影俯仰角αで撮影できる目標位置に移動して撮像部31aにて撮影する。また、飛行装置3は、監視カメラ2の撮影俯仰角θが第1の角度範囲内であれば、第1の角度範囲と異なる第2の角度範囲内の撮影俯仰角αで撮影できる目標位置に移動して撮像部31aにて撮影する。かかる構成により、監視に際して必要となる撮影俯仰角θを第1の角度範囲内に設定して記憶部44に記憶しておけば、必要な撮影俯仰角θの画像が必ず得られ、それとは異なる俯仰角の画像も得ることができる。しかも、水平方向に近い方向から把握できる情報と鉛直方向に近い方向から把握できる情報との双方の情報が得られるので、監視対象を多角的に把握して監視することができる。   Further, the storage unit 44 stores angle range information including a first angle range and a second angle range that are set to an angle range in which the angles do not overlap each other. For example, when the first angle range is set within the range of 0 to 45 ° (not including 45 °) including the virtual horizontal plane E, the second angle range indicates the virtual vertical plane V. It is set within 45 to 90 ° (not including 45 °). Conversely, when the first angle range is set within 45 to 90 ° (not including 45 °) including the virtual vertical plane V, the second angle range includes 0 to 45 including the virtual horizontal plane E. It is set within the angle (excluding 45 °). Then, at the time of the complementary image acquisition process, the flying device 3 is set at a target position at which the photographing elevation angle θ of the surveillance camera 2 can be photographed at the photographing elevation angle α within the first angle range unless the elevation angle θ is within the first angle range. It moves and images | photographs in the imaging part 31a. Further, if the shooting elevation angle θ of the surveillance camera 2 is within the first angle range, the flying device 3 has a target position at which shooting can be performed at a shooting elevation angle α within a second angle range different from the first angle range. It moves and images | photographs in the imaging part 31a. With this configuration, if the imaging elevation angle θ required for monitoring is set within the first angle range and stored in the storage unit 44, an image of the necessary imaging elevation angle θ can be obtained without fail. An image of the elevation angle can also be obtained. In addition, since both information that can be grasped from the direction close to the horizontal direction and information that can be grasped from the direction close to the vertical direction are obtained, it is possible to grasp and monitor the monitoring target from various angles.

このように、本実施の形態に係る監視システムによれば、監視カメラ2と飛行装置3とを連携させ、互いに異なる俯仰角で監視対象を撮影するので、例えば監視対象が人物であれば、画像中の人物を把握する場合に、どんな人物かを把握しやすい側面画像と、人物の周囲の状況を把握しやすい上方画像とを同時に取得して監視対象を監視することができる。   As described above, according to the monitoring system according to the present embodiment, the monitoring camera 2 and the flying device 3 are linked to capture the monitoring target at different elevation angles. When grasping a person inside, it is possible to simultaneously obtain a side image that makes it easy to grasp what kind of person and an upper image that makes it easy to grasp the situation around the person, and monitor the monitoring target.

以上、本発明に係る監視システムの最良の形態について説明したが、この形態による記述及び図面により本発明が限定されることはない。すなわち、この形態に基づいて当業者等によりなされる他の形態、実施例及び運用技術などはすべて本発明の範疇に含まれることは勿論である。   The best mode of the monitoring system according to the present invention has been described above, but the present invention is not limited by the description and drawings according to this mode. That is, it is a matter of course that all other forms, examples, operation techniques, and the like made by those skilled in the art based on this form are included in the scope of the present invention.

1 監視システム
2 監視カメラ
3 飛行装置
4 センタ装置(追跡処理装置)
21 カメラ部
22 制御部
23 通信部
31 カメラ部
32 推進部
33 方向舵
34 測位部
35 姿勢検出部
36 制御部
37 無線通信部
41 通信部
42 無線通信部
43 制御部
43a 監視対象検出部
43b 取得部
43c 目標算出部
43ca 判定部
43cb 算出部
44 記憶部
45 操作部
46 表示部
D1 監視カメラの撮影方向
D2 飛行装置の撮像部の撮影方向
E 仮想水平面
L 監視カメラの撮影範囲
N 監視対象
P 撮影位置
V 仮想鉛直面
θ 監視カメラの撮影俯仰角
α 飛行装置の撮像部の撮影俯仰角
DESCRIPTION OF SYMBOLS 1 Surveillance system 2 Surveillance camera 3 Flight apparatus 4 Center apparatus (tracking processing apparatus)
21 camera unit 22 control unit 23 communication unit 31 camera unit 32 propulsion unit 33 rudder 34 positioning unit 35 posture detection unit 36 control unit 37 wireless communication unit 41 communication unit 42 wireless communication unit 43 control unit 43a monitoring target detection unit 43b acquisition unit 43c Target calculation unit 43ca Judgment unit 43cb calculation unit 44 Storage unit 45 Operation unit 46 Display unit D1 Shooting direction of the monitoring camera D2 Shooting direction of the imaging unit of the flying device E Virtual horizontal plane L Shooting range of the monitoring camera N Monitoring target P Shooting position V Virtual Vertical plane θ Monitoring elevation angle of the surveillance camera α Imaging elevation angle of the imaging unit of the flying device

Claims (4)

地上から撮影する監視カメラと、上空から撮影する撮像部を有する飛行装置とを備えた監視システムであって、
前記監視カメラの撮影俯仰角と異なる俯仰角にて当該監視カメラの撮影範囲を撮影できる目標位置を算出する目標算出部と、
前記目標位置に前記飛行装置を移動させて前記監視カメラの撮影範囲を撮影するように前記撮像部を制御する飛行装置制御部と、
を備えたことを特徴とする監視システム。
A surveillance system comprising a surveillance camera for photographing from the ground and a flying device having an imaging unit for photographing from the sky,
A target calculation unit that calculates a target position at which the imaging range of the monitoring camera can be imaged at an elevation angle different from the imaging elevation angle of the monitoring camera;
A flying device control unit that controls the imaging unit to move the flying device to the target position and shoot a shooting range of the monitoring camera;
A monitoring system characterized by comprising:
第1の角度範囲を記憶する記憶部を備え、
前記目標算出部は、
前記監視カメラの撮影俯仰角が前記第1の角度範囲か否かを判定する判定部と、
前記判定部にて前記第1の角度範囲でないと判定した場合には前記第1の角度範囲となる俯仰角にて前記監視カメラの撮影範囲を撮影できる目標位置を算出し、前記判定部にて前記第1の角度範囲であると判定した場合には前記第1の角度範囲と異なる俯仰角にて前記監視カメラの撮影範囲を撮影できる目標位置を算出する算出部と、
を備えた請求項1に記載の監視システム。
A storage unit for storing the first angle range;
The target calculation unit
A determination unit for determining whether or not a shooting elevation angle of the monitoring camera is in the first angle range;
When the determination unit determines that the range is not the first angle range, a target position at which the imaging range of the monitoring camera can be captured at the elevation angle that is the first angle range is calculated. A calculation unit that calculates a target position at which the imaging range of the monitoring camera can be imaged at an elevation angle different from the first angle range when it is determined that the range is the first angle range;
The monitoring system according to claim 1, comprising:
前記記憶部は、前記第1の角度範囲とは所定角度範囲離れた第2の角度範囲を記憶し、
前記算出部は、前記判定部にて前記第1の角度範囲であると判定した場合には前記第2の角度範囲となる俯仰角にて前記監視カメラの撮影範囲を撮影できる目標位置を算出する請求項2に記載の監視システム。
The storage unit stores a second angle range that is separated from the first angle range by a predetermined angle range;
The calculation unit calculates a target position at which the imaging range of the monitoring camera can be imaged at an elevation angle that is the second angle range when the determination unit determines that the range is the first angle range. The monitoring system according to claim 2.
前記第1の角度範囲を0度から第1の所定角度(ただし、0度<第1の所定角度<45度)までに含まれる範囲としたときには前記第2の角度範囲を第2の所定角度(ただし、45度<第2の所定角度<90度)から90度までに含まれる範囲とし、
又は、前記第1の角度範囲を前記第2の所定角度から90度までに含まれる範囲としたときには第2の所定角度を0度から前記第1の所定角度に含まれる範囲とした請求項3に記載の監視システム。
When the first angle range is a range included from 0 degree to the first predetermined angle (where 0 degree <first predetermined angle <45 degrees), the second angle range is set to the second predetermined angle. (However, the range included from 45 degrees <second predetermined angle <90 degrees) to 90 degrees,
Alternatively, when the first angle range is a range included from the second predetermined angle to 90 degrees, the second predetermined angle is a range included from 0 degrees to the first predetermined angle. The monitoring system described in.
JP2014259398A 2014-12-22 2014-12-22 Monitoring system Active JP6482856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014259398A JP6482856B2 (en) 2014-12-22 2014-12-22 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014259398A JP6482856B2 (en) 2014-12-22 2014-12-22 Monitoring system

Publications (2)

Publication Number Publication Date
JP2016118995A true JP2016118995A (en) 2016-06-30
JP6482856B2 JP6482856B2 (en) 2019-03-13

Family

ID=56244374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014259398A Active JP6482856B2 (en) 2014-12-22 2014-12-22 Monitoring system

Country Status (1)

Country Link
JP (1) JP6482856B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019179527A (en) * 2018-03-30 2019-10-17 セコム株式会社 Control device
CN110770128A (en) * 2018-06-26 2020-02-07 深圳市大疆创新科技有限公司 Sensor assembly and unmanned aerial vehicle
CN111559515A (en) * 2020-04-28 2020-08-21 中国人民解放军63660部队 Non-access test method for actuating mechanism of stratospheric airship
CN112804481A (en) * 2020-12-29 2021-05-14 杭州海康威视***技术有限公司 Method and device for determining position of monitoring point and computer storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339238A (en) * 2002-05-28 2003-12-02 Satake Corp Method and apparatus for diagnosing crop growth
JP2010250478A (en) * 2009-04-14 2010-11-04 Toyota Motor Corp Driving support device
JP2014104797A (en) * 2012-11-26 2014-06-09 Hitachi-Ge Nuclear Energy Ltd Indoor inspection system
JP2014149621A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Autonomous flying robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339238A (en) * 2002-05-28 2003-12-02 Satake Corp Method and apparatus for diagnosing crop growth
JP2010250478A (en) * 2009-04-14 2010-11-04 Toyota Motor Corp Driving support device
JP2014104797A (en) * 2012-11-26 2014-06-09 Hitachi-Ge Nuclear Energy Ltd Indoor inspection system
JP2014149621A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Autonomous flying robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019179527A (en) * 2018-03-30 2019-10-17 セコム株式会社 Control device
JP7089926B2 (en) 2018-03-30 2022-06-23 セコム株式会社 Control system
CN110770128A (en) * 2018-06-26 2020-02-07 深圳市大疆创新科技有限公司 Sensor assembly and unmanned aerial vehicle
CN111559515A (en) * 2020-04-28 2020-08-21 中国人民解放军63660部队 Non-access test method for actuating mechanism of stratospheric airship
CN111559515B (en) * 2020-04-28 2023-03-03 中国人民解放军63660部队 Non-access test method for actuating mechanism of stratospheric airship
CN112804481A (en) * 2020-12-29 2021-05-14 杭州海康威视***技术有限公司 Method and device for determining position of monitoring point and computer storage medium

Also Published As

Publication number Publication date
JP6482856B2 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
JP5618840B2 (en) Aircraft flight control system
JP5775632B2 (en) Aircraft flight control system
CN108292140B (en) System and method for automatic return voyage
JP5748561B2 (en) Aerial photography imaging method and aerial photography imaging apparatus
JP6482855B2 (en) Monitoring system
JP6482857B2 (en) Monitoring system
JP2006027331A (en) Method for collecting aerial image information by utilizing unmanned flying object
JP2006027448A (en) Aerial photographing method and device using unmanned flying body
KR101880437B1 (en) Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
JP2016177640A (en) Video monitoring system
JP6482856B2 (en) Monitoring system
KR101575954B1 (en) Apparatus for augmented reality using 3d reconstruction and mehhod thereof
JP7153306B2 (en) Detection target localization system
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
CN111247389B (en) Data processing method and device for shooting equipment and image processing equipment
JP2004056664A (en) Cooperative photography system
WO2019230604A1 (en) Inspection system
JP2011095112A (en) Three-dimensional position measuring apparatus, mapping system of flying object, and computer program
KR20200090565A (en) Smart underwater drone system with third party point-of-view camera
CN112703748B (en) Information processing device, information processing method, and program recording medium
JP2011169658A (en) Device and method for pinpointing photographed position
JP2021193538A (en) Information processing device, mobile device, information processing system and method, and program
JP2020082830A (en) Artificial satellite, observation system, and information processing device
JP6681101B2 (en) Inspection system
JP2019211486A (en) Inspection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6482856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250