JP6482854B2 - Image acquisition device - Google Patents

Image acquisition device Download PDF

Info

Publication number
JP6482854B2
JP6482854B2 JP2014259396A JP2014259396A JP6482854B2 JP 6482854 B2 JP6482854 B2 JP 6482854B2 JP 2014259396 A JP2014259396 A JP 2014259396A JP 2014259396 A JP2014259396 A JP 2014259396A JP 6482854 B2 JP6482854 B2 JP 6482854B2
Authority
JP
Japan
Prior art keywords
image
monitoring
unit
definition
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014259396A
Other languages
Japanese (ja)
Other versions
JP2016119629A (en
Inventor
秀行 青木
秀行 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014259396A priority Critical patent/JP6482854B2/en
Publication of JP2016119629A publication Critical patent/JP2016119629A/en
Application granted granted Critical
Publication of JP6482854B2 publication Critical patent/JP6482854B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、飛行装置によって監視領域の監視画像を取得する画像取得装置に係り、特に被撮影者のプライバシーに配慮した画像取得を行なうことができる画像取得装置に関するものである。   The present invention relates to an image acquisition device that acquires a monitoring image of a monitoring area using a flying device, and more particularly to an image acquisition device that can acquire an image in consideration of the privacy of a subject.

特許文献1には、無人ヘリコプターを利用した防災情報収集・配信システムの発明が開示されている。この発明によれば、無人ヘリコプター2にカメラ装置1を搭載するとともに、LAN制御部および無線LANインタフェースを備えることにより、無線LAN3に対するインタフェース機能を実現し、このインタフェース機能によって地上局4と無線LAN3を構築し、被災地Lにおける映像情報、音声情報などの情報を送受信することができる。このように機動力と利便性を有する自律飛行型無人ヘリにより、気象条件の変化や昼夜を問わずに被災地の情報を収集し、危険で人が踏み込めない被災地に関する観測位置、方位、時系列情報を他の地域に配信することができる。   Patent Document 1 discloses an invention of a disaster prevention information collection / distribution system using an unmanned helicopter. According to the present invention, the camera device 1 is mounted on the unmanned helicopter 2, and the LAN control unit and the wireless LAN interface are provided to realize an interface function for the wireless LAN 3. With this interface function, the ground station 4 and the wireless LAN 3 are connected. It is possible to construct and transmit / receive information such as video information and audio information in the affected area L. In this way, the autonomous flight type unmanned helicopter with mobility and convenience collects information on the affected area regardless of changes in weather conditions and day and night, and the observation position, direction, Series information can be distributed to other regions.

特開2007−112315号公報JP 2007-112315 A

特許文献1に開示された防災情報収集・配信システムの発明によれば、無人ヘリコプター2のカメラ装置1で取得した地上の映像情報等を無線LANインタフェース機能により地上局4に配信することができる利便性は有するものの、カメラ装置で撮影された映像に人物が映っている場合には、当該被撮影者のプライバシーには特に配慮はなく、被撮影者の画像を含む地上の映像情報がそのまま配信されてしまうという問題があった。   According to the invention of the disaster prevention information collection / distribution system disclosed in Patent Document 1, it is possible to distribute ground video information acquired by the camera device 1 of the unmanned helicopter 2 to the ground station 4 by the wireless LAN interface function. However, when a person appears in the video shot by the camera device, there is no particular consideration for the privacy of the subject, and the ground video information including the subject's image is distributed as it is. There was a problem that.

本発明は、上述した従来の発明における課題に鑑みてなされたものであり、監視領域を監視する飛行装置によって監視画像を取得する画像取得装置であって、取得される監視画像の精細度を適宜に設定することで監視画像中の被撮影者のプライバシーを保護できるようにした画像取得装置を提供することを目的としている。   The present invention has been made in view of the problems in the above-described conventional invention, and is an image acquisition device that acquires a monitoring image by a flying device that monitors a monitoring area, and appropriately determines the definition of the acquired monitoring image. It is an object of the present invention to provide an image acquisition device that can protect the privacy of a subject in a monitoring image by setting to.

請求項1に記載された画像取得装置は、
監視領域を監視する飛行装置が備えるカメラ部にて前記監視領域の監視画像を取得する画像取得装置において、
前記飛行装置の高度情報を取得する高度取得部と、
前記高度情報が示す前記飛行装置の高度が低いほど前記監視画像を低精細化処理する度合いを強くして出力する低精細化処理部を備える制御部と、
を備えたことを特徴としている。
An image acquisition device according to claim 1 is provided.
In the image acquisition device that acquires the monitoring image of the monitoring area in the camera unit provided in the flying device that monitors the monitoring area,
An altitude acquisition unit for acquiring altitude information of the flying device;
A control unit including a low-definition processing unit that outputs a higher degree of lower-definition processing of the monitoring image as the altitude of the flying device indicated by the altitude information is lower ;
It is characterized by having.

請求項2に記載された画像取得装置は、請求項に記載の画像取得装置において、
前記制御部は、前記低精細化処理した前記監視画像を録画用画像として出力し、前記低精細化処理する前の前記監視画像を表示用画像として出力することを特徴としている。
The image acquisition device according to claim 2 is the image acquisition device according to claim 1 ,
The control unit is characterized in that the monitoring image subjected to the reduction processing is output as a recording image, and the monitoring image before the reduction processing is output as a display image.

請求項に記載された画像取得装置は、請求項1又は2に記載の画像取得装置において、
前記低精細化処理部は、前記監視画像のうち、予め設定された前記監視領域以外の非監視領域に相当する部分を前記低精細化処理することを特徴としている。
The image acquisition device according to claim 3 is the image acquisition device according to claim 1 or 2 ,
The low-definition processing unit performs the low-definition processing on a portion corresponding to a non-monitoring area other than the preset monitoring area in the monitoring image.

請求項に記載された画像取得装置は、請求項1乃至請求項3の何れか一つに記載の画像取得装置において、
前記低精細化処理部は、受信した災害情報に係る災害領域の少なくとも一部が前記監視画像の撮影領域に含まれる場合には、前記監視画像を前記低精細化処理しないことを特徴としている。
The image acquisition device according to claim 4 is the image acquisition device according to any one of claims 1 to 3 ,
The low-definition processing unit does not perform the low-definition processing on the monitoring image when at least a part of the disaster area related to the received disaster information is included in the imaging area of the monitoring image.

請求項1に記載された画像取得装置によれば、プライバシー上の問題が発生しないように飛行装置の高度に応じて監視画像を低精細化する処理を、飛行装置の高度が低いほど監視画像を低精細化処理する度合いを強くする低精細処理部によって実現することができる。従って、飛行装置から撮影した監視領域の監視画像は、飛行装置の高度情報に応じてプライバシーに配慮した所定の精細度で取得されるため、当該監視画像に人物が映り込んでいる場合でも、当該人物の特定はできず、プライバシー上の問題が生じることはない。 According to the image acquisition device described in claim 1, the processing for reducing the monitoring image according to the altitude of the flying device so as not to cause a privacy problem is performed. This can be realized by a low-definition processing unit that increases the degree of low-definition processing. Therefore, since the monitoring image of the monitoring area photographed from the flying device is acquired with a predetermined definition in consideration of privacy according to the altitude information of the flying device, even when a person is reflected in the monitoring image, No person can be identified and no privacy issues arise.

請求項に記載された画像取得装置によれば、低精細化処理した監視画像はプライバシー上の問題がないため録画することができ、低精細化処理する前の比較的精細度の高い監視画像は監視領域の現在の様子を監視するために表示することができる。 According to the image acquisition device described in claim 2 , the monitoring image subjected to the low definition processing can be recorded because there is no privacy problem, and the monitoring image having a relatively high definition before the low definition processing is performed. Can be displayed to monitor the current state of the monitoring area.

請求項に記載された画像取得装置によれば、監視画像の撮影領域に非監視領域が含まれている場合には、監視画像のうち非監視領域に相当する部分だけを低精細化処理するため、監視領域については比較的高い精細度の画像で監視することができる一方、非監視領域に人物が存在して監視画像に映り込んでいる場合でも、当該人物は特定できず、プライバシー上の問題が生じることはない。 According to the image acquisition device of the third aspect , when the non-monitoring area is included in the monitoring image capturing area, only the portion corresponding to the non-monitoring area of the monitoring image is subjected to the low-definition processing. Therefore, the monitoring area can be monitored with a relatively high-definition image, but even if a person exists in the non-monitoring area and is reflected in the monitoring image, the person cannot be identified, There is no problem.

請求項に記載された画像取得装置によれば、受信した災害情報に係る災害領域の少なくとも一部が監視画像の撮影領域に含まれる場合には、監視画像を低精細化処理しない。この場合には、災害領域が含まれる撮影領域の撮影時の精細度を維持した画像が取得できるので、当該監視画像を基にして被害状況の確認等に有用な情報を得ることができる。 According to the image acquisition device of the fourth aspect, when at least a part of the disaster area related to the received disaster information is included in the imaging area of the monitoring image, the monitoring image is not reduced. In this case, since an image maintaining the definition at the time of shooting in the shooting area including the disaster area can be acquired, information useful for confirming the damage situation can be obtained based on the monitoring image.

画像取得装置を含むセンタ装置及び飛行船により構成される実施形態の監視システムの全体構成図である。1 is an overall configuration diagram of a monitoring system according to an embodiment including a center device including an image acquisition device and an airship. 画像取得装置を含むセンタ装置における制御手順を示す動作フロー図である。It is an operation | movement flowchart which shows the control procedure in the center apparatus containing an image acquisition apparatus. 実施形態において撮像部で地上を撮像する際の画角及び距離等と監視画像を構成する画素との関係を説明するための模式図である。It is a schematic diagram for demonstrating the relationship between the angle of view, distance, etc. at the time of imaging the ground with an imaging part in embodiment, and the pixel which comprises a monitoring image. 実施形態において高度情報に応じた精細度で監視画像を出力するために用いられるグラフであって、飛行装置の高度Hと低精細化処理の度合いC0 の関係を示すグラフである。6 is a graph used to output a monitoring image with a resolution according to altitude information in the embodiment, and is a graph showing a relationship between the altitude H of the flying device and the degree C 0 of the low definition processing. 実施形態の監視システムで取得された監視画像において非監視領域のみに低精細化処理を加える画像処理操作を説明するための模式図である。It is a schematic diagram for demonstrating image processing operation which adds a low-definition process only to the non-monitoring area | region in the monitoring image acquired with the monitoring system of embodiment. 他の実施形態において高度情報に応じた低精細な監視画像を出力するために用いられるグラフであって、撮像部の高度Hと撮像部の画角αの関係を示すグラフである。It is a graph used in order to output the low-definition monitoring image according to altitude information in other embodiment, Comprising: It is a graph which shows the relationship between the height H of an imaging part, and the view angle (alpha) of an imaging part.

以下、本発明を実施するための形態について、図1〜図6を参照して説明する。
図1に示すように、本実施形態の監視システム1は、空中にある飛行装置としての飛行船2と、地上にあるセンタ装置3とを有している。飛行船2は、監視すべき領域(以下、監視領域と称する)又はその近傍の上空を飛行しながら当該監視領域を撮影し、監視領域の撮影で得た画像(以下、監視画像と称する)を地上のセンタ装置3に送る。センタ装置3では、必要に応じて監視画像を録画し、表示部23に表示した監視画像を監視員が目視することで監視領域の監視を行なっている。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to FIGS.
As shown in FIG. 1, the monitoring system 1 of this embodiment has an airship 2 as a flying device in the air and a center device 3 on the ground. The airship 2 captures an image (hereinafter referred to as a monitoring image) obtained by photographing the monitoring area while flying over the area to be monitored (hereinafter referred to as a monitoring area) or in the vicinity thereof. Are sent to the center device 3. In the center device 3, a monitoring image is recorded as necessary, and the monitoring area is monitored by the monitoring person viewing the monitoring image displayed on the display unit 23.

この監視システム1は、監視領域を確実に監視するとともに、監視画像に映り込んだ人物のプライバシーを保護するために、飛行装置の高度に応じて所定の精細度の監視画像を出力する制御部において、監視画像が撮影した監視画像を飛行装置の高度に応じて低精細化処理する「低精細化処理部」を備えている。   The monitoring system 1 is a controller that outputs a monitoring image with a predetermined definition according to the altitude of the flying device in order to reliably monitor the monitoring area and protect the privacy of the person reflected in the monitoring image. In addition, a “low-definition processing unit” is provided that performs a low-definition process on the monitoring image taken by the monitoring image according to the altitude of the flying device.

(飛行船2の構成について)
本実施形態の飛行船2は、センタ装置3からの制御信号の指示によって移動制御が可能な移動型飛行船や、電源供給及び相互通信が可能となるように地上の制御設備とケーブルで接続されるとともに地上の係留装置に繋がれた係留型飛行船である。ただし、飛行装置は、前記飛行船2の他、無人飛行機、小型移動飛行ロボット、ドローン、人工衛星、さらにはこれら各種飛行装置の同種又は異種の組合せによって構成してもよい。
(About the structure of the airship 2)
The airship 2 according to the present embodiment is connected to a mobile airship capable of movement control by an instruction of a control signal from the center apparatus 3 and a ground control facility so as to enable power supply and mutual communication. It is a moored airship connected to a mooring device on the ground. However, in addition to the airship 2, the flying device may be constituted by an unmanned airplane, a small mobile flying robot, a drone, an artificial satellite, or the same or different combinations of these various flying devices.

図1に示すように、飛行船2は、カメラ部4、制御部5、推進部6、方向舵7、測位部8、姿勢検出部9、無線通信部10を備えている。   As shown in FIG. 1, the airship 2 includes a camera unit 4, a control unit 5, a propulsion unit 6, a rudder 7, a positioning unit 8, a posture detection unit 9, and a wireless communication unit 10.

カメラ部4は、撮像部11、方向制御部12、画像データ生成部13を有している。
撮像部11は、例えばCCD素子やC−MOS素子等の撮像素子や光学部品などを含んで構成されるものであり、予め定められた監視領域又はセンタ装置3から指示された監視領域を上空から所定時間おき又は連続的に撮影し、取得した監視画像を画像データ生成部13に順次出力している。
The camera unit 4 includes an imaging unit 11, a direction control unit 12, and an image data generation unit 13.
The imaging unit 11 includes, for example, an imaging element such as a CCD element or a C-MOS element, an optical component, and the like, and a predetermined monitoring area or a monitoring area designated by the center device 3 is viewed from above. Images are taken every predetermined time or continuously, and the acquired monitoring images are sequentially output to the image data generation unit 13.

尚、カメラ部4がパンチルトズームカメラである場合には、センタ装置3から送られる撮影指示のための制御信号に基づき、後述する制御部5が制御を行なうことにより、撮像部11のズーム位置が制御される。このズーム位置の焦点距離の情報は、画像データ生成部13に出力される。   When the camera unit 4 is a pan / tilt zoom camera, the control unit 5 (to be described later) performs control based on a control signal for a shooting instruction sent from the center device 3, so that the zoom position of the image pickup unit 11 is set. Be controlled. Information on the focal length of the zoom position is output to the image data generation unit 13.

方向制御部12は、カメラ部4がパンチルトズームカメラである場合に必要な構成であり、センタ装置3から送られる撮影指示のための制御信号に基づき、後述する制御部5が制御を行なうことにより、撮像部11の水平方向及び垂直方向に関する撮影方向が制御される。この水平方向及び垂直方向に関する撮影方向の角度情報は、予め設定されたカメラ部31の撮影方向からの変位角度であり、画像データ生成部13に出力される。   The direction control unit 12 is a configuration necessary when the camera unit 4 is a pan / tilt / zoom camera, and is controlled by the control unit 5 (described later) based on a control signal for a shooting instruction sent from the center device 3. The shooting direction with respect to the horizontal direction and the vertical direction of the imaging unit 11 is controlled. The angle information of the shooting direction regarding the horizontal direction and the vertical direction is a preset displacement angle from the shooting direction of the camera unit 31 and is output to the image data generation unit 13.

画像データ生成部13は、撮像部11が撮影した監視画像に、撮影時における焦点距離や水平方向及び垂直方向に関する角度情報、さらに後述する測位部8からの撮影時の位置情報、及び後述の姿勢制御部9にて得られた撮影時の姿勢情報から補正した撮影方向を必要に応じて付加した画像データを生成している。   The image data generation unit 13 adds to the monitoring image captured by the imaging unit 11 the angle information regarding the focal length and the horizontal and vertical directions at the time of shooting, the position information at the time of shooting from the positioning unit 8 described later, and the posture described later. Image data to which the shooting direction corrected from the posture information at the time of shooting obtained by the control unit 9 is added as necessary is generated.

推進部6は、エンジンの動力をプロペラに伝達して回転させることにより飛行船2に推進力を与えるものであり、センタ装置3から送られる飛行指示のための制御信号に従って後述する制御部5により制御される。   The propulsion unit 6 gives propulsive force to the airship 2 by transmitting the engine power to the propeller and rotating it, and is controlled by the control unit 5 to be described later according to the control signal for the flight instruction sent from the center device 3. Is done.

方向舵7は、飛行船2の操縦に用いる動翼であり、センタ装置3から送られる飛行指示のための制御信号に従って後述する制御部5により制御される。   The rudder 7 is a moving blade used for maneuvering the airship 2, and is controlled by the control unit 5, which will be described later, in accordance with a control signal for flight instructions sent from the center device 3.

測位部8は、GPS(Global Positioning System )からなり、飛行船2に搭載された撮像部11の地球上における3次元的位置(現在位置)を示す位置情報(緯度情報、経度情報、高度情報)を後述する制御部5に出力している。この位置情報は画像データ生成部13へも出力する。   The positioning unit 8 includes a GPS (Global Positioning System), and receives position information (latitude information, longitude information, altitude information) indicating a three-dimensional position (current position) on the earth of the imaging unit 11 mounted on the airship 2. It outputs to the control part 5 mentioned later. This position information is also output to the image data generation unit 13.

姿勢検出部9は、例えばジャイロコンパスとサーボ加速度計を備え、飛行船2の方位角、ピッチ角、ロール角を計測して飛行船2の姿勢を検出し、この検出により得られる姿勢情報を後述する制御部5に出力している。この姿勢情報は画像データ生成部13へも出力する。   The attitude detection unit 9 includes, for example, a gyrocompass and a servo accelerometer, detects the attitude of the airship 2 by measuring the azimuth angle, pitch angle, and roll angle of the airship 2, and controls the attitude information obtained by this detection to be described later. It is output to part 5. This posture information is also output to the image data generation unit 13.

無線通信部10は、後述する制御部5の制御により、センタ装置3との間で相互に無線通信を行い、必要な情報の送受信を行なうことができる。具体的には、画像データ生成部13が生成した画像データを適当なタイミングでセンタ装置3に送信する。また、撮像部11、方向制御部12、推進部6、方向舵7を制御するため、センタ装置3からの制御信号(撮影指示、飛行指示)を受信する。   The wireless communication unit 10 can perform wireless communication with the center apparatus 3 and transmit / receive necessary information under the control of the control unit 5 described later. Specifically, the image data generated by the image data generation unit 13 is transmitted to the center device 3 at an appropriate timing. In addition, in order to control the imaging unit 11, the direction control unit 12, the propulsion unit 6, and the rudder 7, a control signal (shooting instruction, flight instruction) is received from the center device 3.

制御部5は、飛行制御部14とカメラ制御部15を有している。
飛行制御部14は、センタ装置3からの制御信号を無線通信部10を介して受信したときに、この制御信号の飛行指示に従って推進部6や方向舵7を制御する。また、カメラ制御部15は、センタ装置3からの制御信号を無線通信部10を介して受信したときに、この制御信号の撮影指示に従ってカメラ部4の撮像部11や方向制御部12を制御する。さらに制御部5は、カメラ部4の画像データ生成部13が生成した画像データを所定のフレーム周期で所定時間おきにセンタ装置3に送信するように、無線通信部10を制御する。
The control unit 5 includes a flight control unit 14 and a camera control unit 15.
The flight control unit 14 controls the propulsion unit 6 and the rudder 7 according to the flight instruction of the control signal when the control signal from the center device 3 is received via the wireless communication unit 10. Further, when the camera control unit 15 receives a control signal from the center device 3 via the wireless communication unit 10, the camera control unit 15 controls the imaging unit 11 and the direction control unit 12 of the camera unit 4 in accordance with a shooting instruction of the control signal. . Further, the control unit 5 controls the wireless communication unit 10 so that the image data generated by the image data generation unit 13 of the camera unit 4 is transmitted to the center device 3 at predetermined time intervals in a predetermined frame period.

(センタ装置3の構成について)
図1に示すように、センタ装置3は、無線通信部10、制御部21、記憶部22、表示部23、操作部24を備えており、飛行船2から送られる監視画像に対し必要に応じて画像処理を施す画像取得装置としての機能を備えている。画像取得装置としての機能については後に詳述する。
(About the configuration of the center device 3)
As shown in FIG. 1, the center device 3 includes a wireless communication unit 10, a control unit 21, a storage unit 22, a display unit 23, and an operation unit 24, and the monitoring image sent from the airship 2 is necessary as necessary. It has a function as an image acquisition device that performs image processing. The function as an image acquisition device will be described in detail later.

無線通信部20は、後述する制御部21の制御により、飛行船2との間で相互に無線通信を行い、必要な情報の送受信を行なうことができる。具体的には、飛行船2から画像データを受信し、また飛行船2の撮像部11や方向制御部12を制御して撮影指示するための制御信号と、飛行船2の推進部6や方向舵7を制御して飛行指示するための制御信号を必要に応じて飛行船2に送信する。   The wireless communication unit 20 can perform wireless communication with the airship 2 and transmit / receive necessary information under the control of the control unit 21 described later. Specifically, the control signal for receiving image data from the airship 2 and controlling the imaging unit 11 and the direction control unit 12 of the airship 2 to instruct photographing, and the propulsion unit 6 and the rudder 7 of the airship 2 are controlled. Then, a control signal for instructing flight is transmitted to the airship 2 as necessary.

制御部21は、領域比較部25と、高度比較部26と、低精細化処理部27と、災害状態判定部28と、記録制御部29と、表示制御部30を有し、各部を制御している。
領域比較部25は、飛行船2の撮像部11が撮影した撮影領域がどこであるかを特定し、またその特定した撮影領域に非監視領域が含まれるか否かを判定する。具体的には、後述するように、センタ装置3は記憶部22を有しており、この記憶部22には、監視空間情報として三次元地図データ及び監視領域の位置に関するデータが記憶されている。領域比較部25は、まず、飛行船2から送られた画像データに含まれる焦点距離、撮影方向及び位置情報から監視空間情報における撮影領域を特定する。そして、領域比較部25は、特定した撮影領域のデータと、センタ装置3の記憶部22が保有している監視領域に関するデータを用いて比較・判断を行なうことにより、特定した撮影領域に非監視領域が含まれるか否かを判定する。
The control unit 21 includes an area comparison unit 25, an altitude comparison unit 26, a low definition processing unit 27, a disaster state determination unit 28, a recording control unit 29, and a display control unit 30, and controls each unit. ing.
The region comparison unit 25 specifies where the imaging region captured by the imaging unit 11 of the airship 2 is, and determines whether the specified imaging region includes a non-monitoring region. Specifically, as will be described later, the center device 3 includes a storage unit 22, and the storage unit 22 stores three-dimensional map data and data regarding the position of the monitoring region as monitoring space information. . First, the area comparison unit 25 specifies a shooting area in the monitoring space information from the focal length, the shooting direction, and the position information included in the image data sent from the airship 2. Then, the area comparison unit 25 performs non-monitoring on the specified imaging area by performing comparison / determination using data on the specified imaging area and data on the monitoring area held by the storage unit 22 of the center device 3. It is determined whether or not an area is included.

高度取得部26は、飛行船2から送信された画像データに付加された飛行船2の位置情報に含まれる高度情報を取得する。   The altitude acquisition unit 26 acquires altitude information included in the position information of the airship 2 added to the image data transmitted from the airship 2.

低精細化処理部27は、監視画像に映り込んだ人物のプライバシーを保護するために、飛行装置の高度に応じて所定の精細度の監視画像を出力する。飛行船2から送られた監視画像を飛行装置の高度に応じて適切に低精細化処理して出力する機能を備えている。飛行船2から送られた監視画像に人物が存在する場合には、得られた監視画像の精細度によっては人物の特定が可能となり、プライバシーに配慮する必要がある。このため、本監視システム1では、そのような場合に、監視画像の精細度に影響する飛行船2の高度に応じて、低精細化処理部27が監視画像の精細度を低下させる画像処理を行なう。これにより、監視画像中の人物に関してプライバシーの問題が生じる可能性は少ない。低精細化処理部27は、後述する記憶部22の低精細化情報34を参照して低精細化処理を実行する。低精細化処理の詳細については後述する。   The low-definition processing unit 27 outputs a monitoring image with a predetermined definition according to the altitude of the flying device in order to protect the privacy of the person reflected in the monitoring image. A monitoring image sent from the airship 2 is provided with a function of appropriately reducing the resolution according to the altitude of the flying device and outputting it. When a person is present in the monitoring image sent from the airship 2, it is possible to identify the person depending on the definition of the obtained monitoring image, and it is necessary to consider privacy. For this reason, in this monitoring system 1, in such a case, the low-definition processing unit 27 performs image processing for reducing the definition of the monitoring image according to the altitude of the airship 2 that affects the definition of the monitoring image. . Thereby, there is little possibility that a privacy problem will occur with respect to the person in the monitoring image. The low definition processing unit 27 executes the low definition processing with reference to the low definition information 34 in the storage unit 22 described later. Details of the low definition processing will be described later.

災害状態判定部28は、震度や降水量、風速といった災害の強さを示すパラメータ(災害強度)を災害強度閾値として予め記憶部22に記憶し(図示せず)、無線通信部20にて災害強度閾値を上回る災害情報を受信したときに災害の発生を判定する。災害状態判定部28は、災害発生と判定したときに、受信した災害情報に含まれる災害発生地域の情報から、その地域についての災害フラグ(後述)をONとして記憶する。災害状態判定部28は、災害フラグをONにしてから所定期間が経過すると災害フラグをOFFにする。所定期間は、災害情報の災害強度に応じて予め設定された期間である。例えば、災害情報が緊急地震速報である場合、震度3のときには所定期間が1日に設定され、震度6のときには所定期間が1週間に設定される。   The disaster state determination unit 28 stores parameters (disaster intensity) indicating the intensity of the disaster such as seismic intensity, precipitation, and wind speed (disaster intensity) in the storage unit 22 in advance as a disaster intensity threshold (not shown), and the radio communication unit 20 The occurrence of a disaster is determined when disaster information exceeding the intensity threshold is received. When the disaster state determination unit 28 determines that a disaster has occurred, the disaster state determination unit 28 stores a disaster flag (described later) for the region as ON from the information on the disaster occurrence region included in the received disaster information. The disaster state determination unit 28 turns off the disaster flag when a predetermined period has elapsed since the disaster flag was turned on. The predetermined period is a period set in advance according to the disaster intensity of the disaster information. For example, when the disaster information is an earthquake early warning, when the seismic intensity is 3, the predetermined period is set to 1 day, and when the seismic intensity is 6, the predetermined period is set to 1 week.

また、災害状態判定部28は、飛行船2から送られた監視データに含まれる位置情報が、受信した災害情報に係る災害発生地域の一部が含まれるか否かを判定する。具体的には、監視画像の位置情報が災害フラグONとなっている地域に含まれているか否かを判定する。飛行船2から送られた監視画像の撮影領域に災害発生地域の一部が含まれる場合には、飛行船2の高度を考慮して被撮影者のプライバシー保護のために低精細化処理が必要とされる場合であっても、そのような画像処理をすることなく監視画像を表示、記録することを許容する。   The disaster state determination unit 28 determines whether or not the position information included in the monitoring data sent from the airship 2 includes a part of the disaster occurrence area related to the received disaster information. Specifically, it is determined whether or not the position information of the monitoring image is included in an area where the disaster flag is ON. When a part of the disaster occurrence area is included in the imaging area of the monitoring image sent from the airship 2, a low-definition process is required to protect the privacy of the subject in consideration of the altitude of the airship 2. Even in such a case, it is allowed to display and record a monitoring image without performing such image processing.

記録制御部29は、飛行船2から送られ、必要に応じて低精細化処理された監視画像の画像データを記録用画像として後述する記憶部22に出力して記録する。   The recording control unit 29 outputs the image data of the monitoring image sent from the airship 2 and subjected to the low-definition processing as necessary to the storage unit 22 described later as a recording image and records it.

表示制御部30は、本実施形態の監視システム1が監視状態にあり、センタ装置3が表示モードにある場合には、飛行船2から所定時間おきに送信される画像データに含まれる最新の監視画像を、表示用画像として後述する表示部23に出力して表示させる。   When the monitoring system 1 of the present embodiment is in the monitoring state and the center device 3 is in the display mode, the display control unit 30 displays the latest monitoring image included in the image data transmitted from the airship 2 every predetermined time. Is output and displayed as a display image on the display unit 23 described later.

制御部21には操作部24が接続されている。操作部24は、例えばマウス、キーボード、後述する表示部23の表示画面上のソフトキーなどで構成される。操作部24は、後述する表示モードの設定等を行い、又はセンタ装置3と飛行船2の間で情報の送受信等を行なう際に監視員によって操作される。   An operation unit 24 is connected to the control unit 21. The operation unit 24 includes, for example, a mouse, a keyboard, and soft keys on the display screen of the display unit 23 described later. The operation unit 24 is operated by a monitor when setting a display mode, which will be described later, or when transmitting / receiving information between the center apparatus 3 and the airship 2.

制御部21には表示部23が接続されている。表示部23は、例えば液晶表示器などで構成される。表示部23は、記録制御部30の制御により、操作画面の表示、飛行船2から取得した画像データに基づく監視画像の表示などを行なう。   A display unit 23 is connected to the control unit 21. The display unit 23 is composed of, for example, a liquid crystal display. The display unit 23 displays an operation screen and a monitoring image based on image data acquired from the airship 2 under the control of the recording control unit 30.

記憶部22には、監視空間情報31と、モード情報32と、災害フラグ33と、低精細化情報34と、画像データ35が記憶されている。
監視空間情報31は、前述したように、地形・建物・道路等の三次元地図データ及び監視対象である監視領域の位置に関するデータである。
The storage unit 22 stores monitoring space information 31, mode information 32, a disaster flag 33, low definition information 34, and image data 35.
As described above, the monitoring space information 31 is data relating to the position of the monitoring area to be monitored and the three-dimensional map data such as terrain, buildings, and roads.

モード情報32は、センタ装置3に設定されている動作状態(モード)のフラグである。モードとしては、少なくとも、監視画像を表示部23に表示する表示モードがある。表示モードについては、センタ装置3の監視員が操作部24を操作して表示部23に監視画像をライブ表示(ストリーミングなどによるリアルタイム表示)している場合にはモード情報32の表示モードフラグはONとなり、表示部23を消せば表示モードフラグはOFFとなる。   The mode information 32 is an operation state (mode) flag set in the center device 3. As a mode, there is at least a display mode for displaying a monitoring image on the display unit 23. As for the display mode, when the monitor of the center apparatus 3 operates the operation unit 24 to display the monitoring image live on the display unit 23 (real time display by streaming or the like), the display mode flag of the mode information 32 is ON. If the display unit 23 is turned off, the display mode flag is turned off.

災害フラグ33は、災害状態判定部28による上述の判定によりON又はOFFに制御される。   The disaster flag 33 is controlled to be ON or OFF by the above-described determination by the disaster state determination unit 28.

低精細化情報34は、低精細化処理部27が、飛行船2に搭載された撮像部11の高度Hに応じて監視画像を低精細化処理する際に用いる低精細化の度合C0 を定めるためのデータであって、このデータの定め方の詳細は後述するが、例えば図4に示すような形態のグラフで表される。なお、撮像部11の高度Hは、厳密には高度測定部である測位部8の高度であるが、ここでは同一と見なし、以下単に高度Hと称する。また、低精細化の度合C0 は、以下単に低精細化度C0 と称する。 The low-definition information 34 determines the degree C 0 of low-definition used when the low-definition processing unit 27 performs low-definition processing on the monitoring image according to the altitude H of the imaging unit 11 mounted on the airship 2. The details of how to define this data will be described later, but for example, it is represented by a graph of the form shown in FIG. Note that the altitude H of the imaging unit 11 is strictly the altitude of the positioning unit 8 that is an altitude measuring unit, but is considered to be the same here and hereinafter simply referred to as altitude H. In addition, the degree of definition C 0 is hereinafter simply referred to as the degree of definition C 0 .

図4から分かるように、高度Hと低精細化度C0 は反比例の関係にあり、高度Hが相対的に低い場合には低精細化度C0 が大きくなり、監視画像の低精細化の程度を大きくする。逆に、高度Hが相対的に高い場合には低精細化度C0 が小さくなり、監視画像の低精細化の程度は小さくてよい。これは、高度Hが相対的に低い場合には撮影した画像の精細度が相対的に高く、人物等が比較的特定しやすいので低精細化する必要性が大きいが、逆に、高度Hが相対的に高い場合には撮影した画像の精細度が相対的に低く、人物等が比較的特定しにくいのであまり低精細化しなくてもよいからである。 As can be seen from FIG. 4, the altitude H and the low-definition degree C 0 are in an inversely proportional relationship. When the altitude H is relatively low, the low-definition degree C 0 increases and Increase the degree. On the other hand, when the altitude H is relatively high, the degree of definition C 0 becomes small and the degree of definition of the monitoring image may be small. This is because, when the altitude H is relatively low, the captured image has a relatively high definition, and a person or the like is relatively easy to specify. This is because if the image is relatively high, the definition of the photographed image is relatively low, and it is not necessary to reduce the definition so much because a person or the like is relatively difficult to specify.

低精細化処理部27は、上述したような低精細化情報34と、高度取得部26が取得した飛行船2の撮像部11の高度情報とを用いて低精細化の度合C0 を定め、これによって監視画像を低精細化処理する。 The low definition processing unit 27 determines the degree C 0 of the low definition using the low definition information 34 as described above and the altitude information of the imaging unit 11 of the airship 2 acquired by the altitude acquisition unit 26. To reduce the resolution of the monitoring image.

画像データ35は、飛行船2から所定のフレーム周期で所定時間おきに送信される監視画像を含むデータであり、後で監視員による操作によって監視画像を再生して確認できるように逐次蓄積される。   The image data 35 is data including a monitoring image transmitted from the airship 2 every predetermined time in a predetermined frame period, and is sequentially stored so that the monitoring image can be reproduced and confirmed later by an operation by the monitoring person.

(センタ装置3において行なわれる制御手順について)
図2に示すフロー図は、所定のフレーム周期で飛行船2から送信されてくる画像データをセンタ装置3で取得する度に、1フレームの画像データごとにセンタ装置3の制御部21により実行される画像処理等の制御手順である。
(Regarding the control procedure performed in the center device 3)
The flowchart shown in FIG. 2 is executed by the control unit 21 of the center device 3 for each frame of image data every time the center device 3 acquires image data transmitted from the airship 2 at a predetermined frame period. This is a control procedure such as image processing.

図2に示すように、制御部21は、飛行船2から送信されてくる画像データをセンタ装置3が取得すると(S1)、記憶部22のモード情報32のフラグを参照してセンタ装置3が表示モードにあるか否かが判断され(S2)、表示モードである場合(S2、YES)には、表示制御部30は、当該監視画像を表示部23(モニタ)に出力し(S3)、表示モードでない場合(S2、NO)には当該監視画像を表示部23に表示しない。   As shown in FIG. 2, when the center device 3 acquires the image data transmitted from the airship 2 (S1), the control unit 21 refers to the flag of the mode information 32 in the storage unit 22 and displays it. It is determined whether or not it is in the mode (S2), and if it is in the display mode (S2, YES), the display control unit 30 outputs the monitoring image to the display unit 23 (monitor) (S3) and displays it. When the mode is not set (S2, NO), the monitoring image is not displayed on the display unit 23.

次に、災害状態判定部28が災害発生状態を判断する(S4)。より具体的には、災害状態判定部28は、監視データに含まれる位置情報が、受信した災害情報に係る災害発生地域に含まれるか否かを判定して、災害発生地域の少なくとも一部分が監視画像に含まれる場合には(S4、YES)、人命に係わる災害情報の取得がプライバシーへの配慮に優先するため、低精細化処理を行なうことなく、画像データを記憶して(S8)制御を終了する(S9)。   Next, the disaster state determination unit 28 determines the disaster occurrence state (S4). More specifically, the disaster state determination unit 28 determines whether or not the position information included in the monitoring data is included in the disaster occurrence area related to the received disaster information, and monitors at least a part of the disaster occurrence area. If it is included in the image (S4, YES), the acquisition of disaster information related to human life has priority over consideration of privacy, so the image data is stored without performing the reduction processing (S8) and the control is performed. The process ends (S9).

災害発生地域の一部が監視画像の撮影領域に含まれない場合には(S4、NO)、領域比較部25が、飛行船2の撮像部11が撮影した監視画像の撮影領域がどこであるかを特定する(S5)。   When a part of the disaster occurrence area is not included in the monitoring image capturing area (S4, NO), the area comparison unit 25 determines where the monitoring image capturing area captured by the imaging unit 11 of the airship 2 is. Specify (S5).

次に、領域比較部25は、その特定した撮影領域と、記憶部22に保有されている監視領域に関するデータとを比較し(S6)、撮影領域の全域が監視領域内にあるか否か、すなわち撮影領域に非監視領域が含まれるか否かを判定する(S7)。撮影された領域のすべてが監視領域内である場合、すなわち撮影領域に非監視領域が含まれない場合には(S7、NO)、プライバシーの問題は生じないので、低精細化処理を行なうことなく画像データを記憶部22に記憶して(S8)制御を終了する(S9)。   Next, the area comparison unit 25 compares the identified imaging area with the data related to the monitoring area held in the storage unit 22 (S6), and whether the entire imaging area is within the monitoring area, That is, it is determined whether a non-monitoring area is included in the imaging area (S7). When all the photographed areas are within the monitoring area, that is, when the non-monitoring area is not included in the photographing area (S7, NO), there is no privacy problem, and therefore, the low-definition processing is not performed. The image data is stored in the storage unit 22 (S8), and the control is terminated (S9).

撮影領域の少なくとも一部分が監視領域内に含まれない場合、すなわち撮影領域に非監視領域が含まれる場合には(S7、YES)、プライバシーへの配慮が必要となる。その場合、高度取得部26が、飛行船2から送信された画像データに付随する高度情報を取得しているので、低精細化処理部27がこれを参照するとともに(S10)、低精細化情報34をも参照して監視画像の低精細化処理を実行し(S11)、低精細化処理された画像データを記憶部22に記憶して(S8)制御を終了する(S9)。   When at least a part of the shooting area is not included in the monitoring area, that is, when the non-monitoring area is included in the shooting area (S7, YES), consideration for privacy is required. In that case, since the altitude acquisition unit 26 acquires altitude information associated with the image data transmitted from the airship 2, the low definition processing unit 27 refers to this (S 10) and the low definition information 34. , The monitoring image reduction processing is executed (S11), the image data subjected to the reduction processing is stored in the storage unit 22 (S8), and the control is terminated (S9).

なお、監視画像の低精細化処理を実行する際(S11)には、監視画像の全体を低精細化してもよいし、監視画像内の監視領域の精細度はそのままとし、監視画像内の非監視領域の精細度のみを低精細化するものとしてもよい。このようにすれば、監視領域については比較的高い精細度の画像で監視することができる一方、非監視領域に人物が存在して監視画像に映り込んでいる場合でも、当該人物は特定できず、プライバシー上の問題が生じることはない。   Note that when executing the processing for reducing the resolution of the monitoring image (S11), the entire monitoring image may be reduced in definition, the definition of the monitoring area in the monitoring image is kept as it is, and the non-definition in the monitoring image is not changed. Only the definition of the monitoring area may be reduced. In this way, the monitoring area can be monitored with a relatively high-definition image, but even if a person exists in the non-monitoring area and is reflected in the monitoring image, the person cannot be identified. , There will be no privacy issues.

(低精細化情報34の定め方について)
次に、低精細化情報34である高度Hと低精細化度C0 の関係を示すデータの定め方について図3〜図5を参照して説明する。
図3は、飛行船2の撮像部11で地上を撮像する際の画角αと、撮像部11の高度H(cm)と、撮像部11の1画面中に映り込む地上の長手方向の長さW(cm)との関係を示すとともに、この撮像部11で撮影した長手方向の画素数がU(pix)である監視画像の1画素が、長さD(cm)である地上の一部分に対応していることを示す模式図である。
(How to define low definition information 34)
Next, how to determine data indicating the relationship between the altitude H, which is the low definition information 34, and the low definition C 0 will be described with reference to FIGS.
FIG. 3 shows an angle of view α when the imaging unit 11 of the airship 2 images the ground, an altitude H (cm) of the imaging unit 11, and a length in the longitudinal direction of the ground reflected in one screen of the imaging unit 11. In addition to showing the relationship with W (cm), one pixel of the monitoring image in which the number of pixels in the longitudinal direction taken by the imaging unit 11 is U (pix) corresponds to a part of the ground having a length D (cm) It is a schematic diagram which shows having done.

上記関係において、
長手方向の長さW=2H・tan(α/2) …(1)
1画素相当長さD=W/U …(2)
式(1) を式(2) に代入すると、
D=2H・tan(α/2)/U …(3)
ここで、目標とする1画素相当の長さをD’(cm)とすると、
低精細化度C0 =D’/D …(4)
であるから、式(4) に式(3) を代入すると、
0 =D’/[2H・tan(α/2)/U]=[(D’・U)/2tan(α/2)]・(1/H)=β・(1/H)(但しβはD’、U、αにより決まる定数)…(5)
となる。
In the above relationship,
Longitudinal length W = 2H · tan (α / 2) (1)
1 pixel equivalent length D = W / U (2)
Substituting equation (1) into equation (2),
D = 2H · tan (α / 2) / U (3)
Here, if the target length corresponding to one pixel is D ′ (cm),
Low definition C 0 = D '/ D (4)
Therefore, when substituting equation (3) into equation (4),
C 0 = D ′ / [2H · tan (α / 2) / U] = [(D ′ · U) / 2 tan (α / 2)] · (1 / H) = β · (1 / H) (however, β is a constant determined by D ', U, and α) ... (5)
It becomes.

この式(5) の関係をグラフにすると、図4のようになる。すなわち、前述したように、高度Hと低精細化度C0 は反比例の関係にあり、高度Hが相対的に低い場合には取得される監視画像の精細度が相対的に高く、人物等が比較的特定しやすいので、低精細化度C0 を大きくして監視画像の低精細化の程度を大きくする。逆に、高度Hが相対的に高い場合には取得される監視画像の精細度が相対的に低く、人物等が比較的特定されにくいので、低精細化度C0 を小さくして監視画像の低精細化の程度を小さくする。前述したセンタ装置3の制御部21の低精細化処理部27は、上述したような低精細化情報34と、高度取得部26が取得した飛行船2の撮像部11の高度情報とを用いて低精細化の度合C0 を定め、これによって監視画像を低精細化処理する。なお、人物やその人物の身なりを判別できない程度に低精細にしたい場合には、例えば、目標とする1画素相当の長さD’=40とし、画像の画素数をU、画像データに含まれる焦点距離から求めた画角をαとすればよい。また、監視画像に対する低精細化処理は、画面の全体に対して行なってもよいし、次に説明するように必要に応じて画面の一部に対して行なってもよい。 If the relationship of this formula (5) is graphed, it will be as shown in FIG. That is, as described above, the altitude H and the low definition C 0 have an inversely proportional relationship. When the altitude H is relatively low, the resolution of the acquired monitoring image is relatively high. since relatively specific easy to increase the degree of low resolution of the monitoring image by increasing the low-resolution degree C 0. Conversely, altitude H is resolution monitoring image acquired when relatively high is relatively low, since a person or the like is not easily relatively specific, the monitoring image by reducing the low-resolution degree C 0 Reduce the degree of definition. The above-described low definition processing unit 27 of the control unit 21 of the center device 3 uses the low definition information 34 as described above and the altitude information of the imaging unit 11 of the airship 2 acquired by the altitude acquisition unit 26. defining a degree C 0 of resolution, thereby the low-resolution process monitoring image. In addition, when it is desired to make the person and the person's appearance low-definition enough to be discriminated, for example, the target length D ′ = 40 corresponding to one pixel is set, and the number of pixels of the image is included in U and image data. The angle of view obtained from the focal length may be α. Further, the reduction processing for the monitoring image may be performed on the entire screen, or may be performed on a part of the screen as necessary, as described below.

図5は、実施形態の監視システムで取得された監視画像において非監視領域のみに低精細化処理を加える場合の画像処理操作を説明する模式図である。
図5(a)に示すように、監視業務に要求される精細度等を考慮して定められた所定数のピクセル(長手方向のピクセル数U(px))からなる監視画像が得られたとする。図5(b)に示すように、この監視画像から監視領域の画像だけを切り出して元の精細度のままで保存しておく。一方、図5(c)に示すように、監視画像の縦横のピクセル数を低精細化度C0 で除して非監視領域の画像の縦横のピクセル数の情報量を少なくし、さらに図5(d)に示すように、この監視画像の縦横のピクセル数に低精細化度C0 を乗じて画像のピクセル数を元に戻す。そして、図5(e)に示すように、図5(b)に示す保存しておいた監視領域の画像と、図5(d)に示す低精細化処理した非監視領域の画像を組み合わせて合成する。これによって、非監視領域は低精細(図中、「低精細領域」と表示)であるが、監視領域については撮影時そのままの所定の精細度を保持した監視画像が得られる。
FIG. 5 is a schematic diagram for explaining an image processing operation in the case where a low-definition process is applied only to a non-monitoring area in a monitoring image acquired by the monitoring system of the embodiment.
As shown in FIG. 5A, it is assumed that a monitoring image having a predetermined number of pixels (the number of pixels U (px) in the longitudinal direction) determined in consideration of the definition required for monitoring work is obtained. . As shown in FIG. 5B, only the image of the monitoring area is cut out from the monitoring image and stored in the original definition. On the other hand, as shown in FIG. 5C, the information amount of the number of vertical and horizontal pixels of the image in the non-monitoring area is reduced by dividing the number of vertical and horizontal pixels of the monitoring image by the degree of definition C 0 . As shown in (d), the number of pixels of the image is restored to the original by multiplying the number of vertical and horizontal pixels of this monitoring image by the degree of definition C 0 . Then, as shown in FIG. 5 (e), the saved monitoring area image shown in FIG. 5 (b) is combined with the low-definition-processed non-monitoring area image shown in FIG. 5 (d). Synthesize. As a result, although the non-monitoring area is low-definition (displayed as “low-definition area” in the figure), a monitoring image that retains a predetermined definition as it is at the time of shooting is obtained for the monitoring area.

以上説明した実施形態では、撮影された領域のすべてが監視領域内である場合、すなわち撮影領域に非監視領域が含まれない場合には(S7、NO)、プライバシーの問題が生じないので画像データを低精細化処理することなく記憶部22に記憶していた(S8)。また、災害発生状態にある場合、すなわち監視画像が災害発生領域を含んでいる場合には(S4、YES)画像データを低精細化処理することなく記憶部22に記憶していた(S8)。しかしながら、撮影領域に非監視領域が含まれるか否か、また監視画像に災害発生領域が含まれるか否かに係わらず、高度に応じて監視画像を低精細化処理して記憶部22に記憶するものとしてもよい。また、上記実施形態では、表示部23には撮影時の監視画像をそのまま表示していた(S3)。しかしながら、プライバシーへの配慮を重視して、表示する監視画像についても高度に応じて監視画像を低精細化処理して表示部23に表示するものとしてもよい。   In the embodiment described above, when all of the photographed areas are within the monitoring area, that is, when the non-monitoring area is not included in the photographing area (S7, NO), the privacy problem does not occur, so the image data Is stored in the storage unit 22 without performing the reduction processing (S8). Further, when in a disaster occurrence state, that is, when the monitoring image includes a disaster occurrence area (S4, YES), the image data is stored in the storage unit 22 without performing the reduction processing (S8). However, regardless of whether or not the non-monitoring area is included in the shooting area and whether or not the disaster occurrence area is included in the monitoring image, the monitoring image is reduced in resolution according to the altitude and stored in the storage unit 22. It is good also as what to do. In the above embodiment, the monitoring image at the time of photographing is displayed as it is on the display unit 23 (S3). However, with consideration given to privacy, the monitoring image to be displayed may be displayed on the display unit 23 after the resolution of the monitoring image is reduced according to the altitude.

本実施形態の監視システム1は、空中の飛行船2と地上のセンタ装置3を有しており、飛行船2が監視画像を撮影し、この監視画像の低精細化処理はセンタ装置3において行なっていた。しかしながら、このような低精細化の画像処理を実行する機能部分は飛行船2の側に搭載してもよい。この場合、監視画像を記憶する記憶部22のうち、監視空間情報31、モード情報32、災害フラグ33及び低精細化情報34を飛行船2に搭載し、また制御部21のうち、監視画像の低精細化処理の実行又は不実行の判断に必要な領域比較部25、高度取得部26、低精細化処理部27及び災害状態判定部28を飛行船2に搭載してもよく、その場合には、必要な低精細化処理を行なった画像データを飛行船2からセンタ装置3に送信するものとすればよい。   The monitoring system 1 of the present embodiment has an airship 2 in the air and a center device 3 on the ground. The airship 2 takes a monitoring image, and the center device 3 performs a process for reducing the definition of the monitoring image. . However, a functional part that executes such low-definition image processing may be mounted on the airship 2 side. In this case, the monitoring space information 31, the mode information 32, the disaster flag 33, and the low-definition information 34 are mounted on the airship 2 in the storage unit 22 that stores the monitoring image. The area comparison unit 25, altitude acquisition unit 26, low-definition processing unit 27, and disaster state determination unit 28 that are necessary for determining whether or not to perform the refinement process may be mounted on the airship 2, and in that case, What is necessary is just to transmit the image data which performed the required low-definition process from the airship 2 to the center apparatus 3. FIG.

(第2実施形態)
次に、本発明の第2実施形態について、第1実施形態と異なる部分を説明する。
以上説明した第1実施形態では、監視画像に映り込んだ人物のプライバシーを保護するために、飛行装置の高度に応じた低精細の監視画像を出力する低精細化処理部27を設けていた。すなわち、撮像部11で得られた画像データを画像処理し、撮影高度に対応した必要な程度だけ精細度を低下させる等の処理を行なっていた。しかしながら、低精細化された画像を取得する手法についてはこれに限定されない。例えば次に説明するような手法を用いることもできる。すなわち、第2実施形態によれば、制御部21が、飛行船2の高度に応じた所定の低精細度となるようにカメラ部4(又は撮像部11)の画角を変更する制御信号を、飛行船2に対して、無線通信部20を介して出力(送信)する構成を採用することもできる。
(Second Embodiment)
Next, portions of the second embodiment of the present invention that are different from the first embodiment will be described.
In the first embodiment described above, the low-definition processing unit 27 that outputs a low-definition monitoring image corresponding to the altitude of the flying device is provided in order to protect the privacy of the person reflected in the monitoring image. In other words, the image data obtained by the imaging unit 11 is subjected to image processing, and processing such as reducing the definition to a necessary degree corresponding to the photographing altitude is performed. However, the technique for acquiring a low-definition image is not limited to this. For example, the following method can be used. That is, according to the second embodiment, the control unit 21 changes the angle of view of the camera unit 4 (or the imaging unit 11) so as to obtain a predetermined low definition according to the altitude of the airship 2. A configuration of outputting (transmitting) the airship 2 via the wireless communication unit 20 may be employed.

このような第2実施形態は、飛行装置2の高度が低いほど画角αを大きく設定し、より広い監視領域を撮影できるようにすることで達成できる。図6は、このような機能を備えた第2実施形態のカメラ部4(又は撮像部11)における撮像部11の高度Hと撮像部11の画角αの関係を示すグラフである。   Such a second embodiment can be achieved by setting the angle of view α to be larger as the altitude of the flying device 2 is lower so that a wider monitoring area can be imaged. FIG. 6 is a graph showing the relationship between the altitude H of the imaging unit 11 and the angle of view α of the imaging unit 11 in the camera unit 4 (or the imaging unit 11) of the second embodiment having such a function.

図6に示すように、高度Hと画角αは反比例の関係にあり、高度Hが相対的に低い場合には画角αを大きくして写る範囲を大きくし、1画素あたりの長さを相対的に大きくして精細度を所望の程度以下にする。逆に、高度Hが相対的に高い場合には画角αを小さくして写る範囲を小さくし、1画素あたりの長さを相対的に小さくして精細度を所望の程度以下にする。この実施形態によれば、飛行装置に搭載したカメラ部によってプライバシーの問題が発生しない精細度の監視画像を撮影できる。   As shown in FIG. 6, the altitude H and the angle of view α are in an inversely proportional relationship. When the altitude H is relatively low, the angle of view α is increased to increase the range of the image and the length per pixel is increased. Relatively large so that the definition is below a desired level. On the other hand, when the altitude H is relatively high, the field angle α is decreased to reduce the captured area, and the length per pixel is relatively decreased to reduce the definition to a desired level or less. According to this embodiment, it is possible to capture a monitoring image with a resolution that does not cause a privacy problem by the camera unit mounted on the flying device.

1…監視システム
2…飛行船
3…センタ装置
4…カメラ部
5…飛行船の制御部
11…撮像部
23…表示部
25…領域比較部
26…高度取得部
27…低精細化処理部
28…災害状態判定部
29…記録制御部
30…表示制御部
31…記憶部の監視空間情報
34…記憶部の低精細化情報
35…記憶部の画像データ
DESCRIPTION OF SYMBOLS 1 ... Monitoring system 2 ... Airship 3 ... Center apparatus 4 ... Camera part 5 ... Airship control part 11 ... Imaging part 23 ... Display part 25 ... Area | region comparison part 26 ... Altitude acquisition part 27 ... Low definition processing part 28 ... Disaster state Determination unit 29 ... Recording control unit 30 ... Display control unit 31 ... Monitoring space information in the storage unit 34 ... Low definition information in the storage unit 35 ... Image data in the storage unit

Claims (4)

監視領域を監視する飛行装置が備えるカメラ部にて前記監視領域の監視画像を取得する画像取得装置において、
前記飛行装置の高度情報を取得する高度取得部と、
前記高度情報が示す前記飛行装置の高度が低いほど前記監視画像を低精細化処理する度合いを強くして出力する低精細化処理部を備える制御部と、
を備えたことを特徴とする画像取得装置。
In the image acquisition device that acquires the monitoring image of the monitoring area in the camera unit provided in the flying device that monitors the monitoring area,
An altitude acquisition unit for acquiring altitude information of the flying device;
A control unit including a low-definition processing unit that outputs a higher degree of lower-definition processing of the monitoring image as the altitude of the flying device indicated by the altitude information is lower ;
An image acquisition apparatus comprising:
前記制御部は、前記低精細化処理した前記監視画像を録画用画像として出力し、前記低精細化処理する前の前記監視画像を表示用画像として出力することを特徴とする請求項に記載の画像取得装置。 Wherein the control unit, said monitoring image processed low-resolution output as for recording images, wherein said in claim 1, characterized in that outputs the monitor image before processing the low-resolution as the display image Image acquisition device. 前記低精細化処理部は、前記監視画像のうち、予め設定された前記監視領域以外の非監視領域に相当する部分を前記低精細化処理することを特徴とする請求項1又は2に記載の画像取得装置。 The low resolution processing unit of the monitoring image, according to a portion corresponding to a pre-set non-monitored areas other than the monitoring area were to claim 1 or 2, characterized in that treating the low resolution Image acquisition device. 前記低精細化処理部は、受信した災害情報に係る災害領域の少なくとも一部が前記監視画像の撮影領域に含まれる場合には、前記監視画像を前記低精細化処理しないことを特徴とする請求項1乃至請求項3の何れか一つに記載の画像取得装置。 The low-definition processing unit does not perform the low-definition processing on the monitoring image when at least a part of the disaster area related to the received disaster information is included in the imaging area of the monitoring image. The image acquisition device according to any one of claims 1 to 3 .
JP2014259396A 2014-12-22 2014-12-22 Image acquisition device Active JP6482854B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014259396A JP6482854B2 (en) 2014-12-22 2014-12-22 Image acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014259396A JP6482854B2 (en) 2014-12-22 2014-12-22 Image acquisition device

Publications (2)

Publication Number Publication Date
JP2016119629A JP2016119629A (en) 2016-06-30
JP6482854B2 true JP6482854B2 (en) 2019-03-13

Family

ID=56244510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014259396A Active JP6482854B2 (en) 2014-12-22 2014-12-22 Image acquisition device

Country Status (1)

Country Link
JP (1) JP6482854B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6845447B2 (en) * 2017-06-29 2021-03-17 株式会社オプティム Image providing system, method and program
WO2023166575A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Image processing device, disaster aid system, image processing method, and recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5859300B2 (en) * 2011-12-19 2016-02-10 三菱重工業株式会社 Control apparatus, method and program
JP6195457B2 (en) * 2013-03-14 2017-09-13 セコム株式会社 Shooting system
JP2014192784A (en) * 2013-03-28 2014-10-06 Secom Co Ltd Monitoring system
JP6077909B2 (en) * 2013-03-29 2017-02-08 綜合警備保障株式会社 Intrusion detection system and intrusion detection method

Also Published As

Publication number Publication date
JP2016119629A (en) 2016-06-30

Similar Documents

Publication Publication Date Title
US11483518B2 (en) Real-time moving platform management system
CN108139799B (en) System and method for processing image data based on a region of interest (ROI) of a user
US20180102034A1 (en) Fire disaster monitoring method and apparatus
JP6483492B2 (en) Aerial equipment
EP3152900B1 (en) System and method for remote monitoring at least one observation area
JP6482857B2 (en) Monitoring system
JP6482855B2 (en) Monitoring system
JP6482854B2 (en) Image acquisition device
JP6482856B2 (en) Monitoring system
JP2019046149A (en) Crop cultivation support apparatus
JP6482853B2 (en) Image processing device
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
US20210350159A1 (en) Imaging device and imaging system
JP7130409B2 (en) Control device
CN111684784A (en) Image processing method and device
JP2022107601A (en) Crop cultivation support apparatus
Krämer et al. Application of a Remote Controlled Ultralight Air Vehicle (UAV) for Park Management and Visitor Monitoring

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6482854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250