JP6934913B2 - Surveillance systems, image management devices, flying objects, and programs - Google Patents

Surveillance systems, image management devices, flying objects, and programs Download PDF

Info

Publication number
JP6934913B2
JP6934913B2 JP2019101844A JP2019101844A JP6934913B2 JP 6934913 B2 JP6934913 B2 JP 6934913B2 JP 2019101844 A JP2019101844 A JP 2019101844A JP 2019101844 A JP2019101844 A JP 2019101844A JP 6934913 B2 JP6934913 B2 JP 6934913B2
Authority
JP
Japan
Prior art keywords
image
unit
captured
request
flying objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019101844A
Other languages
Japanese (ja)
Other versions
JP2020198477A (en
Inventor
弘道 今井
弘道 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2019101844A priority Critical patent/JP6934913B2/en
Publication of JP2020198477A publication Critical patent/JP2020198477A/en
Application granted granted Critical
Publication of JP6934913B2 publication Critical patent/JP6934913B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視システム、画像管理装置、飛翔体、及びプログラムに関する。 The present invention relates to surveillance systems, image management devices, flying objects, and programs.

カメラ及びフライトレコーダを搭載した無人航空機が知られていた。(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2017−217942号公報
Unmanned aerial vehicles equipped with cameras and flight recorders were known. (See, for example, Patent Document 1).
[Prior art literature]
[Patent Document]
[Patent Document 1] Japanese Unexamined Patent Publication No. 2017-217942

無人航空機によって電波環境に依らずにドローン等の装置を適切に遠隔制御可能にする技術を提供することが望ましい。 It is desirable to provide technology that enables appropriate remote control of devices such as drones by unmanned aerial vehicles regardless of the radio wave environment.

本発明の第1の態様によれば、全方位を撮像する撮像部及び撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置とを備える監視システムが提供される。画像管理装置は、撮像対象を特定する撮像対象特定部を有してよい。画像管理装置は、複数の飛翔体のうちの1又は複数の飛翔体に対して、撮像対象の撮像画像を要求する画像要求を送信する要求送信部を有してよい。画像管理装置は、画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部を有してよい。 According to the first aspect of the present invention, a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits an image captured by the imaging unit to the outside, and a plurality of flying objects transmit the images. A monitoring system including an image management device that acquires and manages captured images is provided. The image management device may have an image pickup target identification unit that specifies an image pickup target. The image management device may have a request transmission unit that transmits an image request for requesting an image to be imaged to one or a plurality of flying objects among the plurality of flying objects. The image management device may have an image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to an image request.

上記要求送信部は、上記撮像対象に関する撮像対象関連情報と時刻情報とを含む上記画像要求を上記複数の飛翔体に送信してよく、上記画像取得部は、上記複数の飛翔体のうち、上記時刻情報によって示される時刻に上記撮像対象を撮像した撮像画像を格納していた飛翔体から、上記撮像画像を取得してよい。上記要求送信部は、上記撮像対象に関する撮像対象関連情報と時刻情報とを含む上記画像要求を上記複数の飛翔体に送信してよく、上記画像取得部は、上記複数の飛翔体のうち、上記時刻情報によって示される時刻に上記撮像対象を撮像可能な飛翔体が上記画像要求に応じて撮像した上記撮像対象の撮像画像を取得してよい。上記画像管理装置は、上記撮像対象の位置に基づいて、上記複数の飛翔体から、上記画像要求を送信する対象の1又は複数の飛翔体を選択する飛翔体選択部を有してよく、上記要求送信部は、上記飛翔体選択部によって選択された1又は複数の飛翔体に対して上記画像要求を送信してよい。上記複数の飛翔体のそれぞれは、複数の無線基地局のいずれかに在圏して、在圏している無線基地局を介して上記画像管理装置と通信してよく、上記飛翔体選択部は、上記撮像対象の位置に基づいて上記複数の無線基地局から選択した無線基地局に在圏している飛翔体を選択してよい。 The request transmission unit may transmit the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects, and the image acquisition unit may transmit the image acquisition unit among the plurality of flying objects. The captured image may be acquired from a flying object that stores the captured image obtained by capturing the captured image at the time indicated by the time information. The request transmission unit may transmit the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects, and the image acquisition unit may transmit the image acquisition unit among the plurality of flying objects. A flying object capable of imaging the imaging target at the time indicated by the time information may acquire the captured image of the imaging target captured in response to the image request. The image management device may have a flying object selection unit that selects one or a plurality of flying objects to which the image request is transmitted from the plurality of flying objects based on the position of the imaging target. The request transmitting unit may transmit the image request to one or more flying objects selected by the flying object selection unit. Each of the plurality of projectiles may be located in one of the plurality of radio base stations and communicate with the image management device via the radio base stations in the service area, and the projectile selection unit may be used. , A flying object existing in a radio base station selected from the plurality of radio base stations may be selected based on the position of the imaging target.

上記画像管理装置は、上記撮像対象の位置情報と上記複数の飛翔体のそれぞれの位置情報とに基づいて、上記複数の飛翔体から上記撮像対象を監視させる1又は複数の飛翔体を選択する飛翔体選択部を有してよく、上記要求送信部は、上記飛翔体選択部によって選択された1又は複数の飛翔体に対して上記画像要求を送信してよく、上記画像取得部は、上記画像要求に応じて上記1又は複数の飛翔体が上記撮像対象を監視しながら撮像した上記撮像対象の撮像画像を取得してよい。上記画像管理装置は、上記撮像対象の周辺状況を取得する周辺状況取得部を有してよく、上記飛翔体選択部は、上記撮像対象の周辺状況にさらに基づいて、上記撮像対象を監視させる上記1又は複数の飛翔体を選択してよい。上記飛翔体選択部は、上記複数の飛翔体のそれぞれが実行しているタスクのタスクレベルにさらに基づいて、上記撮像対象を監視させる1又は複数の飛翔体を選択してよい。 The image management device selects one or a plurality of flying objects to monitor the imaging target from the plurality of flying objects based on the position information of the imaging target and the position information of each of the plurality of flying objects. It may have a body selection unit, the request transmission unit may transmit the image request to one or more flying objects selected by the projectile selection unit, and the image acquisition unit may transmit the image request. Depending on the request, the captured image of the imaging target may be acquired while the one or more flying objects monitor the imaging target. The image management device may have a peripheral situation acquisition unit for acquiring the peripheral situation of the image pickup target, and the flying object selection unit monitors the image pickup target based on the peripheral situation of the image pickup target. One or more projectiles may be selected. The projectile selection unit may select one or a plurality of projectiles to monitor the imaging target based on the task level of the task executed by each of the plurality of projectiles.

上記撮像対象特定部は、上記複数の飛翔体のうちの問題が発生した飛翔体を、上記撮像対象として特定してよい。上記撮像対象特定部は、上記複数の飛翔体のうちの衝突事故が発生した飛翔体を、上記撮像対象として特定してよい。上記画像管理装置は、上記複数の飛翔体のいずれかに問題が発生することを予測する問題予測部を有してよく、上記撮像対象特定部は、上記問題予測部によって問題が発生すると予測された飛翔体を上記撮像対象として特定してよい。上記画像取得部は、上記複数の飛翔体のそれぞれによって断続的に送信される撮像画像を取得してよく、上記問題予測部は、上記画像取得部が断続的に取得する撮像画像にさらに基づいて、上記複数の飛翔体のいずれかに衝突事故が発生することを予測してよい。上記画像管理装置は、上記複数の飛翔体が飛行するエリアの気象に関連する気象関連情報を取得する気象関連情報取得部を有してよく、上記問題予測部は、上記気象関連情報にさらに基づいて、上記複数の飛翔体のいずれかに衝突事故が発生することを予測してよい。 The imaging target specifying unit may specify the flying object in which the problem occurs among the plurality of flying objects as the imaging target. The imaging target specifying unit may specify the flying object in which the collision accident has occurred among the plurality of flying objects as the imaging target. The image management device may have a problem prediction unit that predicts that a problem will occur in any of the plurality of flying objects, and the image pickup target identification unit is predicted to cause a problem by the problem prediction unit. The flying object may be specified as the imaging target. The image acquisition unit may acquire captured images intermittently transmitted by each of the plurality of flying objects, and the problem prediction unit is further based on the captured images intermittently acquired by the image acquisition unit. , It may be predicted that a collision accident will occur in any of the above-mentioned plurality of flying objects. The image management device may have a weather-related information acquisition unit that acquires weather-related information related to the weather in the area where the plurality of flying objects fly, and the problem prediction unit is further based on the weather-related information. Therefore, it may be predicted that a collision accident will occur in any of the above-mentioned plurality of flying objects.

上記飛翔体は、上記飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部と、上記飛翔体の位置情報を取得する位置情報取得部と、上記撮像部によって撮像された撮像画像を格納する画像格納部と、上記飛翔体に対して衝撃が加わったことを検知する衝撃検知部とを有してよく、上記画像送信部は、上記衝撃検知部によって衝撃が検知された場合に、上記衝撃が加わった時刻を含む予め定められた時間範囲内に上記撮像部が撮像した撮像画像に、上記撮像画像を撮像したときの上記飛翔体の位置情報と、上記飛翔体識別情報とを対応付けて外部に無線送信してよい。上記撮像部は、上記飛翔体に搭載された複数のカメラによって撮像された画像を合成することによって上記撮像画像を生成してよい。上記画像送信部は、上記撮像画像に、上記飛翔体が在圏している無線基地局を識別する基地局識別情報を対応付けて外部に無線送信してよい。 The flying object includes an identification information storage unit that stores the flying object identification information that can identify the flying object, a position information acquisition unit that acquires the position information of the flying object, and an image captured by the imaging unit. It may have an image storage unit for storing and an impact detection unit for detecting that an impact has been applied to the flying object, and the image transmission unit may have an impact detection unit when an impact is detected by the impact detection unit. The image captured by the imaging unit within a predetermined time range including the time when the impact is applied corresponds to the position information of the projectile when the captured image is imaged and the projectile identification information. It may be attached and transmitted wirelessly to the outside. The imaging unit may generate the captured image by synthesizing the images captured by a plurality of cameras mounted on the flying object. The image transmission unit may wirelessly transmit the captured image to the outside by associating the base station identification information for identifying the radio base station in which the projectile is located.

本発明の第2の態様によれば、画像管理装置が提供される。画像管理装置は、撮像対象を特定する撮像対象特定部を備えてよい。画像管理装置は、全方位を撮像する撮像部及び撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、撮像対象の撮像画像を要求する画像要求を送信する要求送信部を備えてよい。画像管理装置は、画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部を備えてよい。 According to the second aspect of the present invention, an image management device is provided. The image management device may include an image pickup target identification unit that specifies an image pickup target. The image management device takes an image of one or a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the captured image captured by the imaging unit to the outside. A request transmission unit for transmitting an image request for requesting a captured image of an object may be provided. The image management device may include an image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to an image request.

本発明の第3の態様によれば、コンピュータを、上記画像管理装置として機能させるためのプログラムが提供される。 According to the third aspect of the present invention, a program for making a computer function as the image management device is provided.

本発明の第4の態様によれば、飛翔体が提供される。飛翔体は、飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部を備えてよい。飛翔体は、飛翔体の位置情報を取得する位置情報取得部を備えてよい。飛翔体は、全方位を撮像する撮像部を備えてよい。飛翔体は、撮像部によって撮像された撮像画像を格納する画像格納部を備えてよい。飛翔体は、飛翔体に対して衝撃が加わったことを検知する衝撃検知部を備えてよい。飛翔体は、衝撃検知部によって衝撃が検知された場合に、衝撃が加わった時刻を含む予め定められた時間範囲内に撮像部が撮像した撮像画像に、撮像画像を撮像したときの飛翔体の位置情報と、飛翔体識別情報とを対応付けて外部に無線送信する画像送信部を備えてよい。 According to a fourth aspect of the present invention, a flying object is provided. The flying object may include an identification information storage unit that stores the flying object identification information that can identify the flying object. The flying object may include a position information acquisition unit that acquires the position information of the flying object. The projectile may include an imaging unit that captures images in all directions. The projectile may include an image storage unit that stores an image captured by the image pickup unit. The projectile may include an impact detection unit that detects that an impact has been applied to the projectile. When an impact is detected by the impact detection unit, the projectile is the image of the projectile when the image is captured by the image pickup unit within a predetermined time range including the time when the impact is applied. An image transmission unit that wirelessly transmits the position information and the flying object identification information to the outside may be provided.

本発明の第5の態様によれば、コンピュータを、上記飛翔体として機能させるためのプログラムが提供される。 According to a fifth aspect of the present invention, a program for causing a computer to function as the flying object is provided.

なお、上記の発明の概要は、本発明の必要な特徴のすべてを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. Sub-combinations of these feature groups can also be inventions.

監視システム10の一例を概略的に示す。An example of the monitoring system 10 is shown schematically. 画像管理部400の機能構成の一例を概略的に示す。An example of the functional configuration of the image management unit 400 is shown schematically. 画像管理部400による処理の流れの一例を概略的に示す。An example of the processing flow by the image management unit 400 is shown schematically. 画像管理部400による処理の流れの一例を概略的に示す。An example of the processing flow by the image management unit 400 is shown schematically. 無人航空機100の構成の一例を概略的に示す。An example of the configuration of the unmanned aerial vehicle 100 is shown schematically. 制御装置140の機能構成の一例を概略的に示す。An example of the functional configuration of the control device 140 is schematically shown. 制御装置140による処理の流れの一例を概略的に示す。An example of the processing flow by the control device 140 is schematically shown. 飛翔体管理システム200、画像管理部400又は制御装置140として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。An example of the hardware configuration of the computer 1200 that functions as the flying object management system 200, the image management unit 400, or the control device 140 is schematically shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせのすべてが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the inventions that fall within the scope of the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.

図1は、監視システム10の一例を概略的に示す。本実施形態に係る監視システム10は、全方位を撮像可能な複数の無人航空機100と、複数の無人航空機100によって撮像された撮像画像を取得して管理する飛翔体管理システム200とを備える。無人航空機100は、飛翔体の一例である。無人航空機100は、いわゆるドローンであってよい。 FIG. 1 schematically shows an example of the monitoring system 10. The monitoring system 10 according to the present embodiment includes a plurality of unmanned aerial vehicles 100 capable of capturing images in all directions, and a flying object management system 200 that acquires and manages captured images captured by the plurality of unmanned aerial vehicles 100. The unmanned aerial vehicle 100 is an example of a flying object. The unmanned aerial vehicle 100 may be a so-called drone.

無人航空機100は、全方位を撮像可能な撮像部を備える。図1に示す例では、無人航空機100は、カメラ112及びカメラ114を有する。カメラ112及びカメラ114は撮像部の一例であってよい。 The unmanned aerial vehicle 100 includes an imaging unit capable of capturing images in all directions. In the example shown in FIG. 1, the unmanned aerial vehicle 100 has a camera 112 and a camera 114. The camera 112 and the camera 114 may be an example of an imaging unit.

カメラ112は、無人航空機100の上面側に設置される。カメラ114は、無人航空機100の下面側に設置される。カメラ112及びカメラ114のそれぞれは、全方位を撮像可能なカメラである。カメラ112及びカメラ114は、全方位カメラ、全天球カメラ、及び360度カメラ等と呼ばれる場合がある。 The camera 112 is installed on the upper surface side of the unmanned aerial vehicle 100. The camera 114 is installed on the lower surface side of the unmanned aerial vehicle 100. Each of the camera 112 and the camera 114 is a camera capable of capturing images in all directions. The camera 112 and the camera 114 may be referred to as an omnidirectional camera, an omnidirectional camera, a 360-degree camera, or the like.

無人航空機100は、カメラ112によって撮像された画像とカメラ114によって撮像された画像とを合成した撮像画像を出力可能である。無人航空機100がカメラ112のみを有する場合、無人航空機100の機体の下方が死角になる。また、無人航空機100がカメラ114のみを有する場合、無人航空機100の機体の上方が死角になる。それに対して、カメラ112によって撮像された画像とカメラ114によって撮像された画像とを合成することによって、より死角の少ない撮像画像を出力することができる。 The unmanned aerial vehicle 100 can output a captured image obtained by combining the image captured by the camera 112 and the image captured by the camera 114. When the unmanned aerial vehicle 100 has only the camera 112, the lower part of the unmanned aerial vehicle 100 is a blind spot. Further, when the unmanned aerial vehicle 100 has only the camera 114, the upper part of the unmanned aerial vehicle 100 becomes a blind spot. On the other hand, by synthesizing the image captured by the camera 112 and the image captured by the camera 114, it is possible to output an image captured with less blind spots.

なお、無人航空機100は、カメラ112及びカメラ114の一方のみを備えてもよい。また、無人航空機100は、3つ以上の全方位カメラを備えてもよい。また、無人航空機100は、いわゆる超広角カメラを複数備えて、複数の超広角カメラによって撮像された画像を合成することによって、全方位の撮像画像を取得してもよい。複数の超広角カメラは、例えば、無人航空機100の機体の各場所に埋め込まれる。 The unmanned aerial vehicle 100 may include only one of the camera 112 and the camera 114. Further, the unmanned aerial vehicle 100 may be provided with three or more omnidirectional cameras. Further, the unmanned aerial vehicle 100 may be provided with a plurality of so-called ultra-wide-angle cameras, and may acquire images captured in all directions by synthesizing images captured by the plurality of ultra-wide-angle cameras. The plurality of ultra-wide-angle cameras are embedded in each location of the unmanned aerial vehicle 100, for example.

ここでは、飛翔体が無人航空機100である場合の実施形態を主に説明するが、これに限らない。飛翔体の他の例として、無人航空機100と同様に全方位を撮像可能な空飛ぶ車が挙げられる。 Here, the embodiment when the flying object is the unmanned aerial vehicle 100 will be mainly described, but the present invention is not limited to this. Another example of a flying object is a flying car capable of capturing images in all directions, similar to the unmanned aerial vehicle 100.

従来、自動車に搭載されたドライブレコーダが知られている。ドライブレコーダは、主に衝突事故時の証拠保全用機器として普及している。ドライブレコーダによる証拠保全は映像によるものが一般的であり、その効果の高さはよく知られているところである。しかし、空飛ぶ車やドローンについては、従来の航空機と同様に位置測位機能やフライトログによる証拠保全が一般的である。しかし、空飛ぶ車やドローンは、従来の航空機よりもはるかに低空かつ、第三者又は物件に害が及びかねない空域を移動するため、自動車に準じた映像による証拠保全が重要と考えられる。ただし、空飛ぶ車及びドローンは、3次元空間上を移動するため、自動車と違い映像記録も360度必要となる。 Conventionally, a drive recorder mounted on an automobile is known. Drive recorders are widely used mainly as evidence preservation equipment in the event of a collision. Evidence preservation by a drive recorder is generally done by video, and its effectiveness is well known. However, for flying cars and drones, evidence preservation by positioning functions and flight logs is common, as with conventional aircraft. However, since flying cars and drones move in airspace that is much lower than conventional aircraft and may harm third parties or properties, it is considered important to preserve evidence by images similar to automobiles. However, since flying cars and drones move in three-dimensional space, unlike automobiles, video recording is also required at 360 degrees.

本実施形態に係る無人航空機100は、全方位を撮像可能な撮像部を備え、当該撮像部によって撮像された撮像画像を格納する。特に、無人航空機100は、カメラ112によって撮像された画像とカメラ114によって撮像された画像とを合成した撮像画像を出力可能である。これにより、無人航空機100を中心とした死角の少ない全方位の撮像画像を記録することができ、無人航空機100の証拠保全能力を高めることができる。 The unmanned aerial vehicle 100 according to the present embodiment includes an imaging unit capable of capturing images in all directions, and stores an image captured by the imaging unit. In particular, the unmanned aerial vehicle 100 can output an image captured by combining the image captured by the camera 112 and the image captured by the camera 114. As a result, it is possible to record an omnidirectional image with few blind spots centered on the unmanned aerial vehicle 100, and it is possible to enhance the evidence preservation capability of the unmanned aerial vehicle 100.

飛翔体管理システム200は、無人航空機100の飛行管制を行う飛行管制部300と、無人航空機100によって出力された撮像画像を取得して管理する画像管理部400とを備える。飛翔体管理システム200は、画像管理装置の一例であってよい。 The flying object management system 200 includes a flight control unit 300 that controls the flight of the unmanned aerial vehicle 100, and an image management unit 400 that acquires and manages the captured image output by the unmanned aerial vehicle 100. The projectile management system 200 may be an example of an image management device.

飛翔体管理システム200は、複数の装置によって構成されるシステムであってもよい。例えば、飛行管制部300と画像管理部400とは、それぞれ独立した装置であってよい。この場合、画像管理部400は、画像管理装置の一例であってよい。 The projectile management system 200 may be a system composed of a plurality of devices. For example, the flight control unit 300 and the image management unit 400 may be independent devices. In this case, the image management unit 400 may be an example of the image management device.

飛翔体管理システム200と無人航空機100とは、無線基地局30及びネットワーク20を介して通信する。無人航空機100は、無線基地局30に在圏して、無線基地局30を介して飛翔体管理システム200と通信する。無人航空機100が無線基地局30に在圏するとは、無人航空機100が無線基地局30と無線通信接続を確立することであってよい。 The projectile management system 200 and the unmanned aerial vehicle 100 communicate with each other via the radio base station 30 and the network 20. The unmanned aerial vehicle 100 resides in the radio base station 30 and communicates with the projectile management system 200 via the radio base station 30. The unmanned aerial vehicle 100 being in the radio base station 30 may mean that the unmanned aerial vehicle 100 establishes a radio communication connection with the radio base station 30.

無線基地局30は、任意の移動体通信システムに準拠していてよい。例えば、無線基地局30は、3G(3rd Generation)通信システム、LTE(Long Term Evolution)通信システム、4G(4th Generation)通信システム、及び5G(5th Generation)通信システム以降の移動体通信システムに準拠する。ネットワーク20は、移動体通信システムにおけるコアネットワークを含む。ネットワーク20は、インターネットを含んでもよい。 The radio base station 30 may be compliant with any mobile communication system. For example, the radio base station 30 conforms to a 3G (3rd Generation) communication system, an LTE (Long Term Evolution) communication system, a 4G (4th Generation) communication system, and a mobile communication system after the 5G (5th Generation) communication system. .. The network 20 includes a core network in a mobile communication system. The network 20 may include the Internet.

飛行管制部300は、複数の無人航空機100のそれぞれから断続的に位置情報を受信して、複数の無人航空機100のそれぞれの位置を管理してよい。位置情報は、緯度、経度、及び高度を含んでよい。 The flight control unit 300 may intermittently receive position information from each of the plurality of unmanned aerial vehicles 100 and manage the respective positions of the plurality of unmanned aerial vehicles 100. Location information may include latitude, longitude, and altitude.

無人航空機100は、飛行管制部300に対して無人航空機100の位置情報を断続的に送信してよい。位置情報を断続的に送信するとは、位置情報を定期的に送信することであってよい。また、位置情報を断続的に送信するとは、予め定められたスケジュールに従って位置情報を送信することであってもよい。また、位置情報を断続的に送信するとは、予め定められた条件が満たされる毎に位置情報を送信することであってもよい。無人航空機100は、例えば、無人航空機100の位置が予め定められた距離以上変化したことに応じて位置情報を送信する。 The unmanned aerial vehicle 100 may intermittently transmit the position information of the unmanned aerial vehicle 100 to the flight control center 300. Intermittent transmission of location information may mean periodic transmission of location information. Further, transmitting the position information intermittently may mean transmitting the position information according to a predetermined schedule. Further, transmitting the position information intermittently may mean transmitting the position information every time a predetermined condition is satisfied. The unmanned aerial vehicle 100 transmits position information according to, for example, a change in the position of the unmanned aerial vehicle 100 by a predetermined distance or more.

飛行管制部300は、複数の無人航空機100のそれぞれに対して位置情報の要求を送信し、要求に応じて複数の無人航空機100のそれぞれが送信した位置情報を受信してもよい。 The flight control unit 300 may transmit a position information request to each of the plurality of unmanned aerial vehicles 100, and may receive the position information transmitted by each of the plurality of unmanned aerial vehicles 100 in response to the request.

画像管理部400は、撮像対象を特定し、飛行している複数の無人航空機100のうちの1又は複数の無人航空機100に対して撮像対象の撮像画像を要求する画像要求を送信し、画像要求に応じて1又は複数の無人航空機100の少なくともいずれかが送信した撮像画像を取得する。 The image management unit 400 identifies the imaging target, transmits an image request requesting the captured image of the imaging target to one or a plurality of unmanned aerial vehicles 100 out of the plurality of unmanned aerial vehicles 100 in flight, and requests the image. Acquires captured images transmitted by at least one or more of the unmanned aerial vehicles 100, depending on.

画像管理部400は、例えば、複数の無人航空機100のうちの問題が発生した無人航空機100を撮像対象として特定する。例えば、画像管理部400は、衝突事故を起こした無人航空機100を撮像対象として特定する。 The image management unit 400 identifies, for example, the unmanned aerial vehicle 100 in which the problem has occurred among the plurality of unmanned aerial vehicles 100 as an imaging target. For example, the image management unit 400 identifies the unmanned aerial vehicle 100 that caused the collision accident as an image pickup target.

次に、画像管理部400は、例えば、特定した撮像対象に関連する撮像対象関連情報と時刻情報とを含む画像要求を複数の無人航空機100に対してブロードキャストする。撮像対象関連情報は、例えば、撮像対象の位置情報を含む。また、撮像対象関連情報は、撮像対象を特定可能な情報を含む。例えば、撮像対象が無人航空機100である場合、撮像対象関連情報は、無人航空機100を識別する無人航空機識別情報を含む。時刻情報は、例えば、衝突事故が発生した時刻を示す。 Next, the image management unit 400 broadcasts, for example, an image request including image pickup target-related information and time information related to the specified image pickup target to the plurality of unmanned aerial vehicles 100. The imaging target-related information includes, for example, position information of the imaging target. In addition, the information related to the imaging target includes information that can identify the imaging target. For example, when the imaging target is the unmanned aerial vehicle 100, the imaging target related information includes the unmanned aerial vehicle identification information that identifies the unmanned aerial vehicle 100. The time information indicates, for example, the time when the collision accident occurred.

そして、画像管理部400は、例えば、複数の無人航空機100のうち、時刻情報によって示される時刻に撮像対象を撮像して格納していた無人航空機100から撮像画像を受信する。これにより、衝突事故の客観的な撮像画像を取得することができる。このように、無人航空機100の衝突事故を第三者的視点で知得可能にすることで、その後の損害賠償などの証跡に利用することができる。 Then, the image management unit 400 receives the captured image from, for example, the unmanned aerial vehicle 100 that has captured and stored the imaging target at the time indicated by the time information among the plurality of unmanned aerial vehicles 100. As a result, it is possible to acquire an objective captured image of the collision accident. In this way, by making the collision accident of the unmanned aerial vehicle 100 known from a third-party perspective, it can be used as a trail for subsequent damage compensation.

近年、無人航空機の普及が進んでおり、将来的に、例えば、1kmに100台のような多数の無人航空機が飛行することが想定されている。そのような無人航空機のうちの少なくともいずれか又はすべての無人航空機に、無人航空機100と同様の機能を搭載させることによって、あらゆる場所の画像を取得することが可能になり得る。 In recent years, unmanned aerial vehicles have become widespread, and it is expected that a large number of unmanned aerial vehicles , for example, 100 units per 1 km 2, will fly in the future. By equipping at least one or all of such unmanned aerial vehicles with the same functions as the unmanned aerial vehicle 100, it may be possible to acquire images of any location.

図2は、画像管理部400の機能構成の一例を概略的に示す。画像管理部400は、飛翔体情報取得部402、飛翔体情報格納部404、撮像対象特定部410、要求送信部422、画像取得部424、画像格納部426、飛翔体選択部428、周辺状況取得部430、画像送信部432、及び表示制御部434を備える。なお、画像管理部400がこれらのすべての構成を備えることは必須とは限らない。 FIG. 2 schematically shows an example of the functional configuration of the image management unit 400. The image management unit 400 includes a flying object information acquisition unit 402, a flying object information storage unit 404, an image pickup target identification unit 410, a request transmission unit 422, an image acquisition unit 424, an image storage unit 426, a flying object selection unit 428, and peripheral situation acquisition. A unit 430, an image transmission unit 432, and a display control unit 434 are provided. It is not essential that the image management unit 400 includes all of these configurations.

飛翔体情報取得部402は、無人航空機100に関する飛翔体情報を取得する。飛翔体情報取得部402は、飛行管制部300から、複数の無人航空機100のそれぞれの飛翔体情報を取得してよい。飛翔体情報取得部402は、飛行管制部300によって断続的に送信される飛翔体情報を受信してよい。 The projectile information acquisition unit 402 acquires the projectile information regarding the unmanned aerial vehicle 100. The flying object information acquisition unit 402 may acquire the flying object information of each of the plurality of unmanned aerial vehicles 100 from the flight control unit 300. The flying object information acquisition unit 402 may receive the flying object information intermittently transmitted by the flight control unit 300.

また、飛翔体情報取得部402は、複数の無人航空機100のそれぞれから、飛翔体情報を受信してもよい。飛翔体情報取得部402は、複数の無人航空機100のそれぞれによって断続的に送信される飛翔体情報を受信してよい。 Further, the projectile information acquisition unit 402 may receive the projectile information from each of the plurality of unmanned aerial vehicles 100. The projectile information acquisition unit 402 may receive the projectile information intermittently transmitted by each of the plurality of unmanned aerial vehicles 100.

飛翔体情報格納部404は、飛翔体情報取得部402が取得した飛翔体情報を格納する。飛翔体情報格納部404は、飛翔体情報取得部402が断続的に取得した飛翔体情報を格納してよい。 The flying object information storage unit 404 stores the flying object information acquired by the flying object information acquisition unit 402. The flying object information storage unit 404 may store the flying object information intermittently acquired by the flying object information acquisition unit 402.

飛翔体情報は、無人航空機100の位置情報を含んでよい。飛翔体情報は、無人航空機100の飛行速度を含んでもよい。飛翔体情報は、無人航空機100の飛行方向を含んでもよい。 The projectile information may include the position information of the unmanned aerial vehicle 100. The projectile information may include the flight speed of the unmanned aerial vehicle 100. The projectile information may include the flight direction of the unmanned aerial vehicle 100.

飛翔体情報は、無人航空機100の状態を示す状態情報を含んでもよい。飛翔体情報は、例えば、無人航空機100が有する各構成の状態を示す構成状態情報を含む。飛翔体情報は、例えば、無人航空機100が正常に動作しているか否かを示す動作状態情報を含む。飛翔体情報は、例えば、無人航空機100が、飛行管制部300の制御に従って飛行しているか否かを示す制御状態情報を含む。 The projectile information may include state information indicating the state of the unmanned aerial vehicle 100. The projectile information includes, for example, configuration state information indicating the state of each configuration of the unmanned aerial vehicle 100. The projectile information includes, for example, operating state information indicating whether or not the unmanned aerial vehicle 100 is operating normally. The projectile information includes, for example, control state information indicating whether or not the unmanned aerial vehicle 100 is flying under the control of the flight control unit 300.

撮像対象特定部410は、撮像対象を特定する。撮像対象特定部410は、例えば、複数の無人航空機100のうちの少なくともいずれかを撮像対象として特定する。撮像対象特定部410は、例えば、複数の無人航空機100のうちの問題が発生した無人航空機100を撮像対象として特定する。 The image pickup target identification unit 410 identifies the image pickup target. The imaging target identification unit 410 identifies, for example, at least one of the plurality of unmanned aerial vehicles 100 as an imaging target. The image pickup target identification unit 410 identifies, for example, the unmanned aerial vehicle 100 in which the problem occurs among the plurality of unmanned aerial vehicles 100 as the image pickup target.

例えば、撮像対象特定部410は、衝突事故が発生した無人航空機100を撮像対象として特定する。具体例として、撮像対象特定部410は、無人航空機100同士の衝突事故が発生した場合、衝突した複数の無人航空機100を撮像対象として特定する。また、撮像対象特定部410は、鳥と衝突した無人航空機100を撮像対象として特定してよい。また、撮像対象特定部410は、建物等と衝突した無人航空機100を撮像対象として特定してよい。 For example, the image pickup target identification unit 410 identifies the unmanned aerial vehicle 100 in which the collision accident has occurred as the image pickup target. As a specific example, when a collision accident between unmanned aerial vehicles 100 occurs, the imaging target specifying unit 410 identifies a plurality of collided unmanned aerial vehicles 100 as imaging targets. Further, the imaging target specifying unit 410 may specify the unmanned aerial vehicle 100 that collided with the bird as an imaging target. Further, the image pickup target identification unit 410 may specify the unmanned aerial vehicle 100 that has collided with a building or the like as an image pickup target.

また、例えば、撮像対象特定部410は、故障が発生した無人航空機100を撮像対象として特定する。撮像対象特定部410は、例えば、飛行機能に故障が発生した無人航空機100を撮像対象として特定する。 Further, for example, the image pickup target identification unit 410 identifies the unmanned aerial vehicle 100 in which the failure has occurred as the image pickup target. The image pickup target identification unit 410 identifies, for example, an unmanned aerial vehicle 100 in which a failure has occurred in the flight function as an image pickup target.

撮像対象特定部410は、複数の無人航空機100以外の無人航空機を撮像対象として特定してもよい。撮像対象特定部410は、例えば、不審な無人航空機を撮像対象として特定する。 The image pickup target identification unit 410 may specify an unmanned aerial vehicle other than the plurality of unmanned aerial vehicles 100 as an image pickup target. The imaging target identification unit 410 identifies, for example, a suspicious unmanned aerial vehicle as an imaging target.

撮像対象特定部410は、その他任意の対象を撮像対象として特定してもよい。撮像対象特定部410は、例えば、災害が発生したエリアを撮像対象として特定する。また、撮像対象特定部410は、例えば、火災現場から発生した煙を撮像対象として特定する。 The image pickup target identification unit 410 may specify any other target as an image pickup target. The imaging target identification unit 410 identifies, for example, an area where a disaster has occurred as an imaging target. Further, the image pickup target identification unit 410 identifies, for example, smoke generated from a fire site as an image pickup target.

撮像対象特定部410は、指定受付部411、報告情報受信部412、問題予測部413、及び気象関連情報取得部414を有する。撮像対象特定部410がこれらのすべての構成を有することは必須とは限らない。 The image pickup target identification unit 410 includes a designated reception unit 411, a report information reception unit 412, a problem prediction unit 413, and a weather-related information acquisition unit 414. It is not always essential that the imaging target identification unit 410 has all of these configurations.

指定受付部411は、撮像対象の指定を受け付ける。撮像対象特定部410は、指定受付部411が受け付けた指定に従って、撮像対象を特定してよい。 The designated reception unit 411 receives the designation of the imaging target. The imaging target specifying unit 410 may specify the imaging target according to the designation received by the designated receiving unit 411.

指定受付部411は、操作部を介して、撮像対象の入力を受け付けてよい。指定受付部411は、例えば、飛翔体管理システム200が有する操作部を介して撮像対象の入力を受け付ける。画像管理部400が独立した装置である場合、指定受付部411は、画像管理部400が有する操作部を介して撮像対象の入力を受け付けてもよい。また、指定受付部411は、通信部を介して、他の装置からの撮像対象の送信を受け付けてもよい。指定受付部411は、例えば、飛翔体管理システム200が有する通信部を介して他の装置からの撮像対象の送信を受け付ける。画像管理部400が独立した装置である場合、指定受付部411は、画像管理部400が有する通信部を介して他の装置からの撮像対象の送信を受け付けてもよい。 The designated reception unit 411 may receive the input of the imaging target via the operation unit. The designated reception unit 411 receives, for example, an input to be imaged via an operation unit included in the flying object management system 200. When the image management unit 400 is an independent device, the designated reception unit 411 may receive an input to be imaged via an operation unit included in the image management unit 400. Further, the designated reception unit 411 may receive transmission of an image pickup target from another device via the communication unit. The designated reception unit 411 receives, for example, transmission of an imaging target from another device via a communication unit included in the flying object management system 200. When the image management unit 400 is an independent device, the designated reception unit 411 may accept transmission of an image pickup target from another device via the communication unit included in the image management unit 400.

指定受付部411は、例えば、飛翔体管理システム200の管理者等による撮像対象の指定を受け付ける。管理者等は、例えば、無人航空機100に問題が発生したことを知得した場合に、問題が発生した無人航空機100を撮像対象として指定し得る。 The designated reception unit 411 receives, for example, the designation of the imaging target by the administrator of the flying object management system 200 or the like. For example, when the administrator or the like learns that a problem has occurred in the unmanned aerial vehicle 100, the unmanned aerial vehicle 100 in which the problem has occurred can be designated as an imaging target.

指定受付部411は、さらに時刻情報の指定を受け付けてよい。飛翔体管理システム200の管理者等は、例えば、無人航空機100に問題が発生したことを知得した場合に、問題が発生した時刻を示す時刻情報を指定し得る。 The designated reception unit 411 may further accept the designation of time information. The administrator or the like of the projectile management system 200 may specify time information indicating the time when the problem occurred, for example, when he / she becomes aware that a problem has occurred in the unmanned aerial vehicle 100.

報告情報受信部412は、無人航空機100によって送信された、無人航空機100に問題が発生したことを報告する報告情報を取得する。撮像対象特定部410は、報告情報受信部412が受信した報告情報に従って、撮像対象を特定してよい。 The report information receiving unit 412 acquires the report information transmitted by the unmanned aerial vehicle 100 to report that a problem has occurred in the unmanned aerial vehicle 100. The imaging target specifying unit 410 may specify the imaging target according to the report information received by the report information receiving unit 412.

報告情報は、無人航空機100の無人航空機識別情報を含んでよい。報告情報は、無人航空機100に問題が発生したときの無人航空機100の位置情報を含んでよい。報告情報は、無人航空機100に問題が発生した時刻を示す時刻情報を含んでよい。 The reporting information may include unmanned aerial vehicle identification information for the unmanned aerial vehicle 100. The report information may include the position information of the unmanned aerial vehicle 100 when a problem occurs in the unmanned aerial vehicle 100. The report information may include time information indicating the time when the problem occurred in the unmanned aerial vehicle 100.

報告情報受信部412は、無人航空機100から報告情報を受信してよい。また、報告情報受信部412は、無人航空機100によって飛行管制部300に対して送信された報告情報を、飛行管制部300から受信してもよい。 The report information receiving unit 412 may receive the report information from the unmanned aerial vehicle 100. Further, the report information receiving unit 412 may receive the report information transmitted to the flight control unit 300 by the unmanned aerial vehicle 100 from the flight control unit 300.

無人航空機100は、例えば、衝突事故が発生した場合に、報告情報を飛行管制部300又は画像管理部400に送信する。例えば、無人航空機100は、無人航空機100に対する衝撃を検知する衝撃センサを有し、衝撃センサによって衝撃が検知されたことに応じて、報告情報を飛行管制部300又は画像管理部400に送信する。 The unmanned aerial vehicle 100 transmits, for example, report information to the flight control unit 300 or the image management unit 400 when a collision accident occurs. For example, the unmanned aerial vehicle 100 has an impact sensor that detects an impact on the unmanned aerial vehicle 100, and transmits report information to the flight control unit 300 or the image management unit 400 in response to the impact detected by the impact sensor.

また、無人航空機100は、例えば、故障が発生した場合に、報告情報を飛行管制部300又は画像管理部400に送信する。例えば、無人航空機100は、故障を検知したことに応じて、報告情報を飛行管制部300又は画像管理部400に送信する。 Further, the unmanned aerial vehicle 100 transmits, for example, report information to the flight control unit 300 or the image management unit 400 when a failure occurs. For example, the unmanned aerial vehicle 100 transmits the report information to the flight control unit 300 or the image management unit 400 in response to the detection of the failure.

問題予測部413は、複数の無人航空機100のいずれかに問題が発生することを予測する。撮像対象特定部410は、問題予測部413によって問題が発生すると予測された無人航空機100を撮像対象として特定してよい。問題予測部413は、飛翔体情報格納部404に格納されている飛翔体情報に基づいて、複数の無人航空機100のいずれかに問題が発生することを予測してよい。 The problem prediction unit 413 predicts that a problem will occur in any of the plurality of unmanned aerial vehicles 100. The image pickup target identification unit 410 may specify the unmanned aerial vehicle 100, which is predicted by the problem prediction unit 413 to cause a problem, as an image pickup target. The problem prediction unit 413 may predict that a problem will occur in any of the plurality of unmanned aerial vehicles 100 based on the flying object information stored in the flying object information storage unit 404.

問題予測部413は、例えば、複数の無人航空機100のいずれかに衝突事故が発生することを予測する。問題予測部413は、例えば、複数の無人航空機100のそれぞれの位置、飛行速度、及び飛行方向に基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測する。問題予測部413は、画像取得部424が取得する、複数の無人航空機100のそれぞれによって断続的に送信される撮像画像にさらに基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測してよい。 The problem prediction unit 413 predicts that a collision accident will occur in any of the plurality of unmanned aerial vehicles 100, for example. The problem prediction unit 413 predicts that a collision accident will occur in any of the plurality of unmanned aerial vehicles 100, for example, based on the respective positions, flight speeds, and flight directions of the plurality of unmanned aerial vehicles 100. The problem prediction unit 413 further causes a collision accident in any of the plurality of unmanned aerial vehicles 100 based on the captured images intermittently transmitted by each of the plurality of unmanned aerial vehicles 100 acquired by the image acquisition unit 424. May be predicted.

問題予測部413は、複数の無人航空機100のそれぞれの位置、飛行速度、飛行方向、及び動作状態情報に基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測してもよい。具体例として、問題予測部413は、動作状態情報が正常に動作していないことを示す無人航空機100が、他の無人航空機100に向かって予め定められた飛行速度よりも速い飛行速度で近づいている場合に、これらの無人航空機100に衝突事故が発生すると予測する。 Even if the problem prediction unit 413 predicts that a collision accident will occur in any of the plurality of unmanned aerial vehicles 100 based on the respective positions, flight speeds, flight directions, and operating state information of the plurality of unmanned aerial vehicles 100. good. As a specific example, the problem prediction unit 413 indicates that the unmanned aerial vehicle 100 indicating that the operating state information is not operating normally approaches the other unmanned aerial vehicle 100 at a flight speed faster than a predetermined flight speed. If so, it is predicted that a collision accident will occur in these unmanned aerial vehicles 100.

問題予測部413は、複数の無人航空機100のそれぞれの位置、飛行速度、飛行方向、及び制御状態情報に基づいて、複数の無人航空機100のいずれかに衝突事故が発生することを予測してもよい。具体例として、問題予測部413は、制御状態情報が飛行管制部300の制御に従って飛行していないことを示す無人航空機100が、他の無人航空機100に向かって予め定められた飛行速度よりも速い飛行速度で近づいている場合に、これらの無人航空機100に衝突事故が発生すると予測する。 Even if the problem prediction unit 413 predicts that a collision accident will occur in any of the plurality of unmanned aerial vehicles 100 based on the respective positions, flight speeds, flight directions, and control state information of the plurality of unmanned aerial vehicles 100. good. As a specific example, the problem prediction unit 413 indicates that the unmanned aerial vehicle 100 indicating that the control state information is not flying under the control of the flight control unit 300 is faster than the predetermined flight speed toward the other unmanned aerial vehicle 100. It is predicted that a collision accident will occur in these unmanned aerial vehicles 100 when approaching at a flight speed.

問題予測部413は、例えば、複数の無人航空機100のいずれかに故障が発生することを予測する。問題予測部413は、複数の無人航空機100のそれぞれの装置状態情報に基づいて、複数の無人航空機100のいずれかに故障が発生することを予測してよい。 The problem prediction unit 413 predicts, for example, that a failure will occur in any of the plurality of unmanned aerial vehicles 100. The problem prediction unit 413 may predict that a failure will occur in any of the plurality of unmanned aerial vehicles 100 based on the device state information of each of the plurality of unmanned aerial vehicles 100.

気象関連情報取得部414は、複数の無人航空機100が飛行するエリアの気象に関連する気象関連情報を取得する。気象関連情報取得部414は、例えば、上空の各エリアの気象関連情報を提供するサーバから、ネットワーク20を介して、複数の無人航空機100が飛行するエリアの気象関連情報を受信する。問題予測部413は、気象関連情報にさらに基づいて、複数の無人航空機100のいずれかに問題が発生することを予測してもよい。例えば、問題予測部413は、気象関連情報が暴風を示す場合であって、2機の無人航空機100の間の距離が予め定められた距離よりも短い場合に、当該2機の無人航空機100に衝突事故が発生することを予測する。 The weather-related information acquisition unit 414 acquires weather-related information related to the weather in the area where the plurality of unmanned aerial vehicles 100 fly. The weather-related information acquisition unit 414 receives, for example, weather-related information in an area where a plurality of unmanned aerial vehicles 100 fly from a server that provides weather-related information in each area in the sky via the network 20. The problem prediction unit 413 may predict that a problem will occur in any of the plurality of unmanned aerial vehicles 100 based on the weather-related information. For example, the problem prediction unit 413 tells the two unmanned aerial vehicles 100 when the weather-related information indicates a storm and the distance between the two unmanned aerial vehicles 100 is shorter than a predetermined distance. Predict that a collision will occur.

要求送信部422は、複数の無人航空機100のうちの1又は複数の無人航空機100に対して、撮像対象特定部410によって特定された撮像対象の撮像画像を要求する画像要求を送信する。画像取得部424は、画像要求に応じて1又は複数の無人航空機100の少なくともいずれかが送信した撮像画像を取得する。画像取得部424は、取得した撮像画像を画像格納部426に格納する。 The request transmission unit 422 transmits an image request for requesting the captured image of the imaging target specified by the imaging target identification unit 410 to one or a plurality of unmanned aerial vehicles 100 among the plurality of unmanned aerial vehicles 100. The image acquisition unit 424 acquires an captured image transmitted by at least one or a plurality of unmanned aerial vehicles 100 in response to an image request. The image acquisition unit 424 stores the acquired captured image in the image storage unit 426.

要求送信部422は、例えば、複数の無人航空機100に対して、撮像対象関連情報と、過去の時刻を示す時刻情報とを含む画像要求をブロードキャストする。例えば、撮像対象関連情報は、問題が発生した無人航空機100に関連する情報を含み、時刻情報は、無人航空機100に問題が発生した時刻を示す。 The request transmission unit 422 broadcasts, for example, an image request including imaging target-related information and time information indicating a past time to a plurality of unmanned aerial vehicles 100. For example, the imaging target related information includes information related to the unmanned aerial vehicle 100 in which the problem occurred, and the time information indicates the time when the problem occurred in the unmanned aerial vehicle 100.

画像取得部424は、複数の無人航空機100のうち、時刻情報によって示される時刻に、撮像対象関連情報によって特定される撮像対象を撮像して格納していた無人航空機100から、当該時刻に撮像した撮像対象の撮像画像を取得してよい。これにより、問題が発生したときの無人航空機100の様子を示す撮像画像を取得することができる。 The image acquisition unit 424 took an image at the time indicated by the time information from the unmanned aerial vehicle 100 that had captured and stored the image pickup target specified by the image pickup target related information among the plurality of unmanned aerial vehicles 100. The captured image to be imaged may be acquired. As a result, it is possible to acquire a captured image showing the state of the unmanned aerial vehicle 100 when a problem occurs.

また、画像取得部424は、例えば、複数の無人航空機100のうち、時刻情報によって示される時刻以降に撮像対象を撮像して格納していた無人航空機100から撮像画像を受信する。これにより、問題が発生したとき以降の無人航空機100の様子を示す撮像画像を取得することができる。 Further, the image acquisition unit 424 receives the captured image from, for example, the unmanned aerial vehicle 100 that has captured and stored the imaged object after the time indicated by the time information among the plurality of unmanned aerial vehicles 100. As a result, it is possible to acquire a captured image showing the state of the unmanned aerial vehicle 100 after the problem occurs.

また、要求送信部422は、例えば、複数の無人航空機100に対して、撮像対象関連情報と、未来の時刻を示す時刻情報とを含む画像要求をブロードキャストする。例えば、撮像対象関連情報は、問題予測部413によって問題が発生すると予測された無人航空機100に関連する情報を含み、時刻情報は、問題が発生すると予測された時刻を示す。 Further, the request transmission unit 422 broadcasts, for example, an image request including imaging target-related information and time information indicating a future time to a plurality of unmanned aerial vehicles 100. For example, the imaging target-related information includes information related to the unmanned aerial vehicle 100 predicted to cause a problem by the problem prediction unit 413, and the time information indicates the time when the problem is predicted to occur.

画像取得部424は、複数の無人航空機100のうち、時刻情報によって示される時刻に、撮像対象関連情報によって特定される撮像対象を撮像可能な無人航空機100が画像要求に応じて撮像した撮像対象の撮像画像を取得してよい。これにより、例えば、無人航空機100に問題が発生することが予測された場合に、問題が発生すると予測された時刻の無人航空機100の様子を示す撮像画像を取得することができる。 The image acquisition unit 424 is an image pickup target captured by the unmanned aerial vehicle 100 capable of capturing the image pickup target specified by the image pickup target related information at the time indicated by the time information among the plurality of unmanned aerial vehicles 100 in response to the image request. The captured image may be acquired. Thereby, for example, when it is predicted that a problem will occur in the unmanned aerial vehicle 100, it is possible to acquire an captured image showing the state of the unmanned aerial vehicle 100 at the time when the problem is predicted to occur.

また、画像取得部424は、例えば、複数の無人航空機100のうち、時刻情報によって示される時刻以降に撮像対象を撮像可能な無人航空機100が画像要求に応じて撮像下撮像対象の撮像画像を取得してよい。これにより、例えば、無人航空機100に問題が発生することが予測された場合に、問題が発生すると予測された時刻以降の無人航空機100の様子を示す撮像画像を取得することができる。 Further, in the image acquisition unit 424, for example, among a plurality of unmanned aerial vehicles 100, the unmanned aerial vehicle 100 capable of imaging the imaged object after the time indicated by the time information acquires the captured image of the imaged object under imaging in response to the image request. You can do it. Thereby, for example, when it is predicted that a problem will occur in the unmanned aerial vehicle 100, it is possible to acquire an captured image showing the state of the unmanned aerial vehicle 100 after the time when the problem is predicted to occur.

飛翔体選択部428は、複数の無人航空機100から、画像要求を送信する対象の1又は複数の無人航空機100を選択する。要求送信部422は、飛翔体選択部428によって選択された1又は複数の無人航空機100に対して画像要求を送信するようにしてもよい。 The projectile selection unit 428 selects one or a plurality of unmanned aerial vehicles 100 to which an image request is transmitted from the plurality of unmanned aerial vehicles 100. The request transmission unit 422 may transmit an image request to one or more unmanned aerial vehicles 100 selected by the projectile selection unit 428.

飛翔体選択部428は、例えば、撮像対象の位置に基づいて、複数の無人航空機100から、画像要求を送信する対象の1又は複数の無人航空機100を選択する。例えば、飛翔体選択部428は、撮像対象の位置を撮像可能な範囲を特定し、複数の無人航空機100のうち、特定した範囲内に位置する1又は複数の無人航空機100を選択する。 The projectile selection unit 428 selects one or a plurality of unmanned aerial vehicles 100 to be transmitted an image request from the plurality of unmanned aerial vehicles 100, for example, based on the position of the imaging target. For example, the flying object selection unit 428 specifies a range in which the position to be imaged can be imaged, and selects one or a plurality of unmanned aerial vehicles 100 located within the specified range from the plurality of unmanned aerial vehicles 100.

また、例えば、飛翔体選択部428は、撮像対象の位置に基づいて、複数の無線基地局30から無線基地局30を選択し、選択した無線基地局30に在圏している1又は複数の無人航空機100を、画像要求の送信対象として選択する。画像取得部424は、例えば、カバーエリアが、撮像対象の位置情報によって示される位置を含む無線基地局30を選択し得る。これにより、画像要求を送信する対象の無人航空機100の数を適切に低減することができる。これにより、撮像対象の位置からは遠く離れており撮像対象を撮像できない無人航空機100に対して画像要求を送信することによって、当該無人航空機100に対して不必要な処理負荷が発生してしまうことを防止できる。 Further, for example, the flying object selection unit 428 selects the radio base station 30 from the plurality of radio base stations 30 based on the position of the imaging target, and one or a plurality of radio base stations 30 located in the selected radio base station 30. The unmanned aerial vehicle 100 is selected as the transmission target of the image request. The image acquisition unit 424 may select, for example, the radio base station 30 whose cover area includes a position indicated by the position information of the imaging target. As a result, the number of unmanned aerial vehicles 100 to which the image request is transmitted can be appropriately reduced. As a result, an unnecessary processing load is generated on the unmanned aerial vehicle 100 by transmitting an image request to the unmanned aerial vehicle 100 that is far from the position of the imaging target and cannot image the imaging target. Can be prevented.

飛翔体選択部428は、複数の無人航空機100から、撮像対象を監視させる1又は複数の無人航空機100を選択してもよい。飛翔体選択部428は、例えば、撮像対象の位置情報と、複数の無人航空機100のそれぞれの位置情報とに基づいて、撮像対象を監視させる1又は複数の無人航空機100を選択し得る。 The projectile selection unit 428 may select one or a plurality of unmanned aerial vehicles 100 for monitoring the imaging target from the plurality of unmanned aerial vehicles 100. The projectile selection unit 428 may select one or a plurality of unmanned aerial vehicles 100 to monitor the imaging target based on, for example, the position information of the imaging target and the respective position information of the plurality of unmanned aerial vehicles 100.

要求送信部422は、飛翔体選択部428によって選択された1又は複数の無人航空機100に対して、撮像対象を監視しながら撮像した撮像画像を要求する画像要求を送信してよい。画像取得部424は、当該画像要求に応じて1又は複数の無人航空機100が撮像対象を監視しながら撮像した撮像対象の撮像画像を取得してよい。 The request transmission unit 422 may transmit an image request requesting an captured image captured while monitoring the imaging target to one or more unmanned aerial vehicles 100 selected by the flying object selection unit 428. The image acquisition unit 424 may acquire the captured image of the imaging target captured by one or more unmanned aerial vehicles 100 while monitoring the imaging target in response to the image request.

周辺状況取得部430は、撮像対象の周辺状況を取得する。周辺状況取得部430は、例えば、3次元情報を含む地図情報を予め格納しておき、撮像対象の位置情報と、地図情報とから、撮像対象の周辺状況を取得する。撮像対象の周辺状況は、例えば、撮像対象の周辺に位置する建物等の状況を示す。 The peripheral condition acquisition unit 430 acquires the peripheral condition of the imaging target. For example, the peripheral situation acquisition unit 430 stores map information including three-dimensional information in advance, and acquires the peripheral situation of the imaging target from the position information of the imaging target and the map information. The peripheral situation of the image pickup target indicates, for example, the situation of a building or the like located in the vicinity of the image pickup target.

飛翔体選択部428は、周辺状況取得部430が取得した周辺状況にさらに基づいて、撮像対象を監視させる1又は複数の無人航空機100を選択してよい。飛翔体選択部428は、例えば、撮像対象との間に建物等が存在することによって、撮像対象が死角となってしまう無人航空機100を除外して、撮像対象を監視させる1又は複数の無人航空機100を選択する。 The projectile selection unit 428 may select one or a plurality of unmanned aerial vehicles 100 to monitor the imaging target based on the peripheral conditions acquired by the peripheral condition acquisition unit 430. The projectile selection unit 428 excludes, for example, the unmanned aerial vehicle 100 in which the imaging target becomes a blind spot due to the existence of a building or the like between the imaging target, and one or a plurality of unmanned aerial vehicles that monitor the imaging target. Select 100.

飛翔体選択部428は、複数の無人航空機100のそれぞれが実行しているタスクのタスクレベルにさらに基づいて、撮像対象を監視させる1又は複数の無人航空機100を選択してもよい。飛翔体選択部428は、例えば、複数の無人航空機100のうち、タスクを実行していない又は実行しているタスクのタスクレベルが予め定められたレベルよりも低い無人航空機100から、撮像対象を監視させる1又は複数の無人航空機100を選択する。飛翔体選択部428は、例えば、複数のタスクと、それぞれのタスクのタスクレベルとが登録されたタスクレベル情報を予め格納しておき、当該タスクレベル情報を参照することによって、レベルの高低を判定し得る。 The projectile selection unit 428 may select one or a plurality of unmanned aerial vehicles 100 to monitor the imaging target based on the task level of the task being executed by each of the plurality of unmanned aerial vehicles 100. The projectile selection unit 428 monitors the imaging target from, for example, an unmanned aerial vehicle 100 among a plurality of unmanned aerial vehicles 100, in which the task level of the task that is not executing or is executing is lower than a predetermined level. Select one or more unmanned aerial vehicles 100 to be made. The projectile selection unit 428, for example, stores a plurality of tasks and task level information in which the task levels of the respective tasks are registered in advance, and determines the level by referring to the task level information. Can be done.

画像送信部432は、画像格納部426に格納されている撮像画像を送信する。画像送信部432は、例えば、警察及び保険会社等の外部からの、位置情報、無人航空機識別情報、及び時刻情報等をキーとした要求に基づいて、画像格納部426に格納されている撮像画像を送信する。 The image transmission unit 432 transmits the captured image stored in the image storage unit 426. The image transmission unit 432 is a captured image stored in the image storage unit 426 based on a request from the outside such as police and an insurance company using position information, unmanned aerial vehicle identification information, time information, and the like as keys. To send.

表示制御部434は、画像格納部426に格納されている撮像画像を、画像管理部400が備えるディスプレイ等に表示させるよう制御する。表示制御部434は、例えば、位置情報、無人航空機識別情報、及び時刻情報等をキーとした要求に基づいて、画像格納部426に格納されている撮像画像を表示させる。 The display control unit 434 controls to display the captured image stored in the image storage unit 426 on a display or the like included in the image management unit 400. The display control unit 434 displays the captured image stored in the image storage unit 426 based on a request using, for example, position information, unmanned aerial vehicle identification information, time information, and the like as keys.

図3は、画像管理部400による処理の流れの一例を概略的に示す。ここでは、撮像対象を特定してから、撮像画像を送信するまでの処理の流れの一例について説明する。 FIG. 3 schematically shows an example of the processing flow by the image management unit 400. Here, an example of the processing flow from specifying the imaging target to transmitting the captured image will be described.

ステップ(ステップをSと省略して記載する場合がある。)102では、撮像対象特定部410が撮像対象と時刻情報とを特定する。撮像対象特定部410は、例えば、警察及び保険会社等の外部から指定された、無人航空機100の衝突事故が発生した位置を示す位置情報又は当該無人航空機100の無人航空機識別情報と、事故が発生した時刻とに従って、撮像対象と時刻情報とを特定する。 In step 102 (the step may be abbreviated as S) 102, the imaging target specifying unit 410 identifies the imaging target and the time information. The imaging target identification unit 410 has, for example, position information indicating the position where the collision accident of the unmanned aerial vehicle 100 has occurred or the unmanned aerial vehicle identification information of the unmanned aerial vehicle 100 designated from the outside such as the police and the insurance company, and the accident has occurred. The imaging target and the time information are specified according to the time.

S104では、要求送信部422が、S102において特定された撮像対象の撮像対象関連情報と、時刻情報とを含む画像要求を複数の無人航空機100に対してブロードキャストする。S106では、画像取得部424が、複数の無人航空機100のうちのいずれかが画像要求に応じて送信した撮像画像を受信して、画像格納部426に格納する。 In S104, the request transmission unit 422 broadcasts an image request including the image pickup target-related information of the image pickup target specified in S102 and the time information to the plurality of unmanned aerial vehicles 100. In S106, the image acquisition unit 424 receives the captured image transmitted by any one of the plurality of unmanned aerial vehicles 100 in response to the image request and stores it in the image storage unit 426.

S108では、画像要求をブロードキャストしてから、予め設定された設定時間が経過したか否かを、画像送信部432が判定する。当該設定時間は任意に設定可能であってよく、変更可能であってよい。経過していないと判定した場合、S106に戻り、経過したと判定した場合、S110に進む。S110では、画像送信部432が、S106において画像格納部426に格納された撮像画像を、警察及び保険会社等の外部に対して送信する。 In S108, the image transmission unit 432 determines whether or not a preset set time has elapsed since the image request was broadcast. The set time may be arbitrarily set and may be changeable. If it is determined that the lapse has not passed, the process returns to S106, and if it is determined that the lapse has passed, the process proceeds to S110. In S110, the image transmission unit 432 transmits the captured image stored in the image storage unit 426 in S106 to the outside such as the police and the insurance company.

図4は、画像管理部400による処理の流れの一例を概略的に示す。ここでは、図3と異なる点を主に説明する。 FIG. 4 schematically shows an example of the processing flow by the image management unit 400. Here, the points different from those in FIG. 3 will be mainly described.

S202では、撮像対象特定部410が撮像対象と時刻情報とを特定する。S204では、飛翔体選択部428が、複数の無人航空機100から、画像要求を送信する対象の1又は複数の無人航空機100を選択する。 In S202, the imaging target specifying unit 410 identifies the imaging target and the time information. In S204, the projectile selection unit 428 selects one or a plurality of unmanned aerial vehicles 100 to be transmitted an image request from the plurality of unmanned aerial vehicles 100.

S206では、要求送信部422が、S204において選択された1又は複数の無人航空機100に対して画像要求を送信する。S208では、画像取得部424が、画像要求を送信した1又は複数の無人航空機100のいずれかが画像要求に応じて送信した撮像画像を受信して、画像格納部426に格納する。 In S206, the request transmission unit 422 transmits an image request to one or more unmanned aerial vehicles 100 selected in S204. In S208, the image acquisition unit 424 receives the captured image transmitted by either one or the plurality of unmanned aerial vehicles 100 that transmitted the image request in response to the image request, and stores the captured image in the image storage unit 426.

S210では、画像要求を送信してから、予め設定された設定時間が経過したか否かを、画像送信部432が判定する。経過していないと判定した場合、S208に戻り、経過したと判定した場合、S212に進む。S212では、画像送信部432が、S208において画像格納部426に格納された撮像画像を、警察及び保険会社等の外部に対して送信する。 In S210, the image transmission unit 432 determines whether or not a preset set time has elapsed since the image request was transmitted. If it is determined that the elapse has not occurred, the process returns to S208, and if it is determined that the elapse has passed, the process proceeds to S212. In S212, the image transmission unit 432 transmits the captured image stored in the image storage unit 426 in S208 to the outside such as the police and the insurance company.

図5は、無人航空機100の構成の一例を概略的に示す。無人航空機100は、本体部102、プロペラ104、脚部106、カメラ112、及びカメラ114を備える。 FIG. 5 schematically shows an example of the configuration of the unmanned aerial vehicle 100. The unmanned aerial vehicle 100 includes a main body 102, a propeller 104, legs 106, a camera 112, and a camera 114.

本体部102は、センサ群120、通信装置130、及び制御装置140を有する。センサ群120は、GNSSユニット121、加速度センサ122、ジャイロセンサ123、及び衝突センサ124を含む。 The main body 102 has a sensor group 120, a communication device 130, and a control device 140. The sensor group 120 includes a GNSS unit 121, an acceleration sensor 122, a gyro sensor 123, and a collision sensor 124.

GNSSユニット121は、無人航空機100の位置を特定して、位置情報を出力する。加速度センサ122は、加速度を検出する。ジャイロセンサ123は、角速度を検出する。衝突センサ124は、無人航空機100への衝撃を検出する。 The GNSS unit 121 identifies the position of the unmanned aerial vehicle 100 and outputs the position information. The acceleration sensor 122 detects the acceleration. The gyro sensor 123 detects the angular velocity. The collision sensor 124 detects an impact on the unmanned aerial vehicle 100.

通信装置130は、無線基地局30を介した通信を実行する。通信装置130は、無線基地局30に在圏して、無線基地局30を介して飛翔体管理システム200と通信する。 The communication device 130 executes communication via the radio base station 30. The communication device 130 resides in the radio base station 30 and communicates with the projectile management system 200 via the radio base station 30.

制御装置140は、各種制御を実行する。制御装置140は、センサ群120から出力される情報を用いて、無人航空機100の飛行制御を実行する。また、制御装置140は、通信装置130が飛翔体管理システム200から画像要求を受信した場合に、状況に応じて、カメラ112及びカメラ114によって撮像された撮像画像を、飛翔体管理システム200に対して通信装置130に送信させる。 The control device 140 executes various controls. The control device 140 executes flight control of the unmanned aerial vehicle 100 by using the information output from the sensor group 120. Further, when the communication device 130 receives the image request from the flying object management system 200, the control device 140 sends the captured image captured by the camera 112 and the camera 114 to the flying object management system 200 depending on the situation. Is transmitted to the communication device 130.

図6は、制御装置140の機能構成の一例を概略的に示す。制御装置140は、識別情報格納部142、飛行情報格納部144、センサ情報取得部146、画像取得部148、撮像画像生成部150、撮像画像格納部152、飛行制御部154、画像要求取得部156、画像送信部158、衝撃検知部160、及び報告情報送信部162を備える。なお、制御装置140がこれらのすべての構成を備えることは必須とは限らない。 FIG. 6 schematically shows an example of the functional configuration of the control device 140. The control device 140 includes an identification information storage unit 142, a flight information storage unit 144, a sensor information acquisition unit 146, an image acquisition unit 148, an image capture image generation unit 150, an image capture image storage unit 152, a flight control unit 154, and an image request acquisition unit 156. , An image transmission unit 158, an impact detection unit 160, and a report information transmission unit 162. It is not essential that the control device 140 includes all of these configurations.

識別情報格納部142は、無人航空機100の無人航空機識別情報を格納する。識別情報格納部142は、例えば、無人航空機100の製造時に無人航空機識別情報を格納する。また、識別情報格納部142は、通信装置130が飛翔体管理システム200から受信した無人航空機識別情報を格納する。 The identification information storage unit 142 stores the unmanned aerial vehicle identification information of the unmanned aerial vehicle 100. The identification information storage unit 142 stores the unmanned aerial vehicle identification information at the time of manufacturing the unmanned aerial vehicle 100, for example. Further, the identification information storage unit 142 stores the unmanned aerial vehicle identification information received from the flying object management system 200 by the communication device 130.

飛行情報格納部144は、無人航空機100の飛行に関する飛行情報を格納する。飛行情報は、無人航空機100の飛行予定ルートを含む。飛行情報は、無人航空機100が実行するタスクに関するタスク関連情報を含んでよい。無人航空機100が実行するタスクの例としては、荷物の搬送タスクや、監視対象を監視する監視タスク等が挙げられる。飛行情報格納部144は、通信装置130が飛行管制部300から受信した飛行情報を格納してよい。 The flight information storage unit 144 stores flight information regarding the flight of the unmanned aerial vehicle 100. The flight information includes the planned flight route of the unmanned aerial vehicle 100. The flight information may include task-related information about the tasks performed by the unmanned aerial vehicle 100. Examples of tasks executed by the unmanned aerial vehicle 100 include a cargo transport task, a monitoring task for monitoring a monitored object, and the like. The flight information storage unit 144 may store the flight information received by the communication device 130 from the flight control unit 300.

飛行情報格納部144は、他の無人航空機100に関する情報を格納してよい。飛行情報格納部144は、例えば、他の無人航空機100の位置情報を格納する。また、飛行情報格納部144は、他の無人航空機100の飛行速度及び飛行方向を格納してもよい。飛行情報格納部144は、通信装置130が飛行管制部300から受信した他の無人航空機100の情報を格納してよい。 The flight information storage unit 144 may store information about another unmanned aerial vehicle 100. The flight information storage unit 144 stores, for example, the position information of another unmanned aerial vehicle 100. Further, the flight information storage unit 144 may store the flight speed and flight direction of the other unmanned aerial vehicle 100. The flight information storage unit 144 may store information on another unmanned aerial vehicle 100 received by the communication device 130 from the flight control unit 300.

センサ情報取得部146は、センサ群120によって出力されたセンサ情報を取得する。センサ情報取得部146は、GNSSユニット121によって出力された位置情報を取得してよい。センサ情報取得部146は、加速度センサ122によって出力された加速度を取得してよい。センサ情報取得部146は、ジャイロセンサ123によって出力された角速度を取得してよい。センサ情報取得部146は、衝突センサ124によって出力された、無人航空機100に衝撃が加わったことを示す情報を取得してよい。 The sensor information acquisition unit 146 acquires the sensor information output by the sensor group 120. The sensor information acquisition unit 146 may acquire the position information output by the GNSS unit 121. The sensor information acquisition unit 146 may acquire the acceleration output by the acceleration sensor 122. The sensor information acquisition unit 146 may acquire the angular velocity output by the gyro sensor 123. The sensor information acquisition unit 146 may acquire the information output by the collision sensor 124 indicating that the unmanned aerial vehicle 100 has been impacted.

画像取得部148は、カメラ112及びカメラ114によって撮像された画像を取得する。画像取得部148は、カメラ112及びカメラ114によって撮像された画像と、飛行情報格納部144に格納されている他の無人航空機100の情報とから、画像内の無人航空機100を識別して、画像内の無人航空機100に、当該無人航空機100の無人航空機識別情報を対応付けてよい。 The image acquisition unit 148 acquires the images captured by the camera 112 and the camera 114. The image acquisition unit 148 identifies the unmanned aerial vehicle 100 in the image from the images captured by the camera 112 and the camera 114 and the information of the other unmanned aerial vehicle 100 stored in the flight information storage unit 144, and obtains an image. The unmanned aerial vehicle 100 may be associated with the unmanned aerial vehicle identification information of the unmanned aerial vehicle 100.

撮像画像生成部150は、カメラ112によって撮像された画像と、カメラ114によって撮像された画像とを合成する。撮像画像生成部150は、合成した撮像画像を撮像画像格納部152に格納する。撮像画像格納部152は、撮像画像内の無人航空機100に対して、無人航空機識別情報を対応付けてよい。 The captured image generation unit 150 synthesizes the image captured by the camera 112 and the image captured by the camera 114. The captured image generation unit 150 stores the combined captured image in the captured image storage unit 152. The captured image storage unit 152 may associate the unmanned aerial vehicle identification information with the unmanned aerial vehicle 100 in the captured image.

飛行制御部154は、無人航空機100の飛行を制御する。飛行制御部154は、センサ情報取得部146によって取得されるセンサ情報と、画像取得部148によって取得される画像とを用いて、飛行情報格納部144に格納されている飛行情報が示す飛行予定ルートを飛行するように無人航空機100の飛行を制御してよい。 The flight control unit 154 controls the flight of the unmanned aerial vehicle 100. The flight control unit 154 uses the sensor information acquired by the sensor information acquisition unit 146 and the image acquired by the image acquisition unit 148 to indicate the planned flight route indicated by the flight information stored in the flight information storage unit 144. You may control the flight of the unmanned aircraft 100 to fly.

画像要求取得部156は、画像要求を取得する。画像要求取得部156は、通信装置130が画像管理部400から受信した画像要求を取得する。 The image request acquisition unit 156 acquires an image request. The image request acquisition unit 156 acquires an image request received by the communication device 130 from the image management unit 400.

画像送信部158は、画像要求取得部156が取得した画像要求に基づいて、撮像画像格納部152に格納されている撮像画像を飛翔体管理システム200に送信する。画像送信部158は、例えば、画像要求に含まれる時刻情報が示す時刻に、画像要求に含まれる撮像対象関連情報によって特定される撮像対象を撮像した撮像画像が撮像画像格納部152に格納されている場合に、当該撮像画像を画像管理部400に送信する。 The image transmission unit 158 transmits the captured image stored in the captured image storage unit 152 to the flying object management system 200 based on the image request acquired by the image request acquisition unit 156. In the image transmission unit 158, for example, at the time indicated by the time information included in the image request, the captured image captured by the imaging target specified by the imaging target related information included in the image request is stored in the imaging image storage unit 152. If so, the captured image is transmitted to the image management unit 400.

また、画像送信部158は、例えば、画像要求に含まれる時刻情報が示す時刻に、画像要求に含まれる撮像対象関連情報によって特定される撮像対象を撮像可能である場合に、当該時刻に当該撮像対象を撮像した撮像画像を画像管理部400に送信する。画像送信部158は、例えば、無人航空機100の飛行予定ルートを参照して、時刻情報が示す時刻に、撮像対象を撮像可能な位置に無人航空機100が位置するか否かを判定し、位置すると判定した場合、撮像可能であると判定する。 Further, for example, when the image transmission unit 158 can image an image pickup target specified by the image pickup target-related information included in the image request at the time indicated by the time information included in the image request, the image transmission unit 158 takes the image at that time. The captured image of the target is transmitted to the image management unit 400. For example, the image transmission unit 158 refers to the scheduled flight route of the unmanned aerial vehicle 100, determines whether or not the unmanned aerial vehicle 100 is located at a position where the image pickup target can be imaged at the time indicated by the time information, and determines that the unmanned aerial vehicle 100 is positioned. If it is determined, it is determined that imaging is possible.

画像要求取得部156が、撮像対象を監視して撮像対象の撮像画像を送信することを要求する画像要求を受信した場合、飛行制御部154は、無人航空機100が撮像対象を監視可能な位置にいない場合には、監視可能な位置まで移動させ、撮像対象を撮像可能な範囲を飛行するよう無人航空機100の飛行を制御する。そして、画像送信部158は、撮像画像格納部152に格納される撮像対象を含む撮像画像を飛行管制部300に送信する。 When the image request acquisition unit 156 receives an image request requesting that the image capture target be monitored and the captured image of the image capture target be transmitted, the flight control unit 154 moves the flight control unit 154 to a position where the unmanned aircraft 100 can monitor the image capture target. If not, the unmanned aircraft 100 is moved to a monitorable position and the flight of the unmanned aircraft 100 is controlled so as to fly the image target within a range that can be imaged. Then, the image transmission unit 158 transmits the captured image including the image pickup target stored in the captured image storage unit 152 to the flight control unit 300.

画像要求取得部156が、撮像対象を監視して撮像対象の撮像画像を送信することを要求する画像要求を受信した場合、飛行制御部154は、撮像対象を監視可能であるか否かを判定して、監視可能と判定した場合に、撮像対象の監視を開始してもよい。飛行制御部154は、例えば、無人航空機100がタスクを実行していない場合、無人航空機100が実行している実行タスクのタスクレベルが、撮像対象を撮像する撮像タスクのタスクレベルよりも低い場合に、監視可能と判定する。 When the image request acquisition unit 156 receives an image request requesting that the image capture target be monitored and the captured image of the image capture target be transmitted, the flight control unit 154 determines whether or not the image capture target can be monitored. Then, when it is determined that monitoring is possible, monitoring of the imaging target may be started. For example, when the unmanned aerial vehicle 100 does not execute the task, the flight control unit 154 determines that the task level of the execution task executed by the unmanned aerial vehicle 100 is lower than the task level of the imaging task for imaging the imaging target. , Judge that it can be monitored.

衝撃検知部160は、無人航空機100に衝撃が加わったことを検知する。衝撃検知部160は、センサ情報取得部146から、衝突センサ124によって出力された無人航空機100に衝撃が加わったことを示す情報を受信した場合に、無人航空機100に衝撃が加わったことを検知する。 The impact detection unit 160 detects that an impact has been applied to the unmanned aerial vehicle 100. The impact detection unit 160 detects that an impact has been applied to the unmanned aerial vehicle 100 when it receives information from the sensor information acquisition unit 146 indicating that an impact has been applied to the unmanned aerial vehicle 100 output by the collision sensor 124. ..

報告情報送信部162は、衝撃検知部160によって無人航空機100に衝撃が加わったことが検知された場合に、無人航空機100の無人航空機識別情報を含む報告情報を飛翔体管理システム200に送信する。 When the impact detection unit 160 detects that an impact has been applied to the unmanned aerial vehicle 100, the report information transmission unit 162 transmits report information including the unmanned aerial vehicle identification information of the unmanned aerial vehicle 100 to the flying object management system 200.

画像送信部158は、衝撃検知部160によって無人航空機100に衝撃が加わったことが検知された場合に、衝撃が加わった時刻を含む予め定められた時間範囲内にカメラ112及びカメラ114によって撮像され、撮像画像生成部150によって生成された撮像画像を撮像画像格納部152から読み出し、撮像したときの位置情報と、無人航空機識別情報とを対応付けて外部に無線送信してよい。画像送信部158は、これらを飛行管制部300に対して送信してよい。画像送信部158は、撮像画像に、無人航空機100が在圏している無線基地局30の基地局識別情報を対応付けて送信してもよい。 When the impact detection unit 160 detects that an impact has been applied to the unmanned aerial vehicle 100, the image transmission unit 158 is imaged by the camera 112 and the camera 114 within a predetermined time range including the time when the impact is applied. The captured image generated by the captured image generation unit 150 may be read out from the captured image storage unit 152, and the position information at the time of imaging and the unmanned aerial vehicle identification information may be associated and wirelessly transmitted to the outside. The image transmission unit 158 may transmit these to the flight control unit 300. The image transmission unit 158 may transmit the captured image in association with the base station identification information of the radio base station 30 in which the unmanned aerial vehicle 100 is located.

図7は、制御装置140による処理の流れの一例を概略的に示す。図7は、衝撃検知部160によって無人航空機100に衝撃が加わったことが検知された場合に、制御装置140が実行する処理を示す。 FIG. 7 schematically shows an example of the processing flow by the control device 140. FIG. 7 shows a process executed by the control device 140 when the impact detection unit 160 detects that an impact has been applied to the unmanned aerial vehicle 100.

S302では、衝撃検知部160が衝撃を検知してから予め設定された設定時間が経過したか否かを判定する。当該設定時間は任意に設定可能であってよく、変更可能であってよい。経過したと判定した場合、S304に進む。 In S302, it is determined whether or not a preset set time has elapsed since the impact detection unit 160 detects the impact. The set time may be arbitrarily set and may be changeable. If it is determined that the elapse has passed, the process proceeds to S304.

S304では、画像送信部158が、衝撃前後の予め設定された時間範囲内の撮像画像を撮像画像格納部152から取得する。当該時間範囲は任意に設定可能であってよく、変更可能であってよい。 In S304, the image transmission unit 158 acquires the captured image within the preset time range before and after the impact from the captured image storage unit 152. The time range may be arbitrarily set and may be changeable.

S306では、画像送信部158が、S304において取得した撮像画像に、無人航空機100の無人航空機識別情報を対応付けて、画像管理部400に対して送信する。画像送信部158はS306以降、断続的に撮像画像を画像管理部400に対して送信してもよい。 In S306, the image transmission unit 158 associates the captured image acquired in S304 with the unmanned aerial vehicle identification information of the unmanned aerial vehicle 100 and transmits it to the image management unit 400. The image transmission unit 158 may intermittently transmit the captured image to the image management unit 400 after S306.

図8は、飛翔体管理システム200、画像管理部400、又は制御装置140として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 8 schematically shows an example of a hardware configuration of a computer 1200 that functions as a flying object management system 200, an image management unit 400, or a control device 140. A program installed on the computer 1200 causes the computer 1200 to function as one or more "parts" of the device according to the present embodiment, or causes the computer 1200 to perform an operation associated with the device according to the present embodiment or the one or the like. A plurality of "parts" can be executed and / or a computer 1200 can be made to execute a process according to the present embodiment or a stage of the process. Such a program may be run by the CPU 1212 to cause the computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to this embodiment includes a CPU 1212, a RAM 1214, and a graphic controller 1216, which are connected to each other by a host controller 1210. The computer 1200 also includes an input / output unit such as a communication interface 1222, a storage device 1224, and an IC card drive, which are connected to the host controller 1210 via the input / output controller 1220. The storage device 1224 may be a hard disk drive, a solid state drive, or the like. The computer 1200 also includes a legacy I / O unit such as a ROM 1230 and a keyboard, which are connected to the I / O controller 1220 via an I / O chip 1240.

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphic controller 1216 acquires the image data generated by the CPU 1212 in a frame buffer or the like provided in the RAM 1214 or itself so that the image data is displayed on the display device 1218.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 Communication interface 1222 communicates with other electronic devices via a network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The IC card drive reads the program and data from the IC card and / or writes the program and data to the IC card.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 The ROM 1230 stores in it a boot program or the like executed by the computer 1200 at the time of activation and / or a program depending on the hardware of the computer 1200. The input / output chip 1240 may also connect various input / output units to the input / output controller 1220 via a USB port, a parallel port, a serial port, a keyboard port, a mouse port, and the like.

プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The program is provided by a computer-readable storage medium such as an IC card. The program is read from a computer-readable storage medium, installed in a storage device 1224, RAM 1214, or ROM 1230, which is also an example of a computer-readable storage medium, and executed by the CPU 1212. The information processing described in these programs is read by the computer 1200 and provides a link between the program and the various types of hardware resources described above. The device or method may be configured to implement the operation or processing of information according to the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded in the RAM 1214, and performs communication processing on the communication interface 1222 based on the processing described in the communication program. You may order. Under the control of the CPU 1212, the communication interface 1222 reads the transmission data stored in the transmission buffer area provided in the recording medium such as the RAM 1214, the storage device 1224, or the IC card, and sends the read transmission data to the network. The received data transmitted or received from the network is written in the reception buffer area or the like provided on the recording medium.

また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 Further, the CPU 1212 allows the RAM 1214 to read all or necessary parts of a file or database stored in an external recording medium such as a storage device 1224 or an IC card, and performs various types of processing on the data on the RAM 1214. May be executed. The CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The CPU 1212 describes various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information retrieval described in various parts of the present disclosure with respect to the data read from the RAM 1214. Various types of processing may be performed, including / replacement, etc., and the results are written back to the RAM 1214. Further, the CPU 1212 may search for information in a file, a database, or the like in the recording medium. For example, when a plurality of entries each having an attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 is the first of the plurality of entries. The attribute value of the attribute of is searched for the entry that matches the specified condition, the attribute value of the second attribute stored in the entry is read, and the first attribute that satisfies the predetermined condition is selected. You may get the attribute value of the associated second attribute.

上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The program or software module described above may be stored on a computer 1200 or in a computer-readable storage medium near the computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a dedicated communication network or a server system connected to the Internet can be used as a computer-readable storage medium, whereby the program can be transferred to the computer 1200 via the network. offer.

本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowchart and block diagram of this embodiment may represent a stage of the process in which the operation is performed or a "part" of the device responsible for performing the operation. Specific stages and "parts" are supplied with dedicated circuits, programmable circuits supplied with computer-readable instructions stored on computer-readable storage media, and / or computer-readable instructions stored on computer-readable storage media. It may be implemented by the processor. Dedicated circuits may include digital and / or analog hardware circuits, and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include logical products, logical sums, exclusive logical sums, negative logical products, negative logical sums, and other logical operations, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like. , Flip-flops, registers, and reconfigurable hardware circuits, including memory elements.

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer-readable storage medium may include any tangible device capable of storing instructions executed by the appropriate device, so that the computer-readable storage medium having the instructions stored therein is in a flow chart or block diagram. It will be equipped with a product that contains instructions that can be executed to create means for performing the specified operation. Examples of the computer-readable storage medium may include an electronic storage medium, a magnetic storage medium, an optical storage medium, an electromagnetic storage medium, a semiconductor storage medium, and the like. More specific examples of computer-readable storage media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray® Disc, Memory Stick , Integrated circuit cards and the like may be included.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 Computer-readable instructions are assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state-setting data, or object-oriented programming such as Smalltalk, JAVA®, C ++, etc. Contains either source code or object code written in any combination of one or more programming languages, including languages and traditional procedural programming languages such as the "C" programming language or similar programming languages. good.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions are used to generate means for a general-purpose computer, a special-purpose computer, or the processor of another programmable data processing device, or a programmable circuit, to perform an operation specified in a flowchart or block diagram. General purpose computers, special purpose computers, or other programmable data processing locally or via a wide area network (WAN) such as the local area network (LAN), the Internet, etc., to execute the computer-readable instructions. It may be provided in the processor of the device or in a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers and the like.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that such modified or improved forms may also be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.

10 監視システム、20 ネットワーク、30 無線基地局、100 無人航空機、102 本体部、104 プロペラ、106 脚部、112 カメラ、114 カメラ、120 センサ群、121 GNSSユニット、122 加速度センサ、123 ジャイロセンサ、124 衝突センサ、130 通信装置、140 制御装置、142 識別情報格納部、144 飛行情報格納部、146 センサ情報取得部、148 画像取得部、150 撮像画像生成部、152 撮像画像格納部、154 飛行制御部、156 画像要求取得部、158 画像送信部、160 衝撃検知部、162 報告情報送信部、200 飛翔体管理システム、300 飛行管制部、400 画像管理部、402 飛翔体情報取得部、404 飛翔体情報格納部、410 撮像対象特定部、411 指定受付部、412 報告情報受信部、413 問題予測部、414 気象関連情報取得部、422 要求送信部、424 画像取得部、426 画像格納部、428 飛翔体選択部、430 周辺状況取得部、432 画像送信部、434 表示制御部、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ 10 surveillance system, 20 networks, 30 radio base stations, 100 unmanned aircraft, 102 body, 104 propellers, 106 legs, 112 cameras, 114 cameras, 120 sensor groups, 121 GNSS units, 122 acceleration sensors, 123 gyro sensors, 124 Collision sensor, 130 communication device, 140 control device, 142 identification information storage unit, 144 flight information storage unit, 146 sensor information acquisition unit, 148 image acquisition unit, 150 image capture image generation unit, 152 image capture image storage unit, 154 flight control unit , 156 image request acquisition unit, 158 image transmission unit, 160 impact detection unit, 162 report information transmission unit, 200 flying object management system, 300 flight control unit, 400 image management unit, 402 flying object information acquisition unit, 404 flying object information Storage unit, 410 Imaging target identification unit, 411 Designated reception unit, 412 Report information reception unit, 413 Problem prediction unit, 414 Meteorological information acquisition unit, 422 Request transmission unit, 424 Image acquisition unit, 426 Image storage unit, 428 Flying object Selection unit, 430 peripheral status acquisition unit, 432 image transmission unit, 434 display control unit, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input / output controller, 1222 communication interface, 1224 Storage device, 1230 ROM, 1240 input / output chip

Claims (23)

全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像した撮像画像を格納していた飛翔体から、前記撮像画像を取得する、
監視システム。
A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
It is equipped with an image management device that acquires and manages captured images transmitted by the plurality of flying objects.
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
Wherein the one or more at least one of projectile have a an image acquiring unit that acquires a captured image transmitted in response to the image request,
The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
The image acquisition unit acquires the captured image from the flying object that stores the captured image of the imaging target at the time indicated by the time information among the plurality of flying objects.
Monitoring system.
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有し、
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像可能な飛翔体が前記画像要求に応じて撮像した前記撮像対象の撮像画像を取得する、監視システム。
A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have,
The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
The image acquisition unit acquires an image of the imaging target captured by the flying object capable of imaging the imaging target at the time indicated by the time information among the plurality of flying objects in response to the image request . monitoring system.
前記画像管理装置は、
前記撮像対象の位置に基づいて、前記複数の飛翔体から、前記画像要求を送信する対象の1又は複数の飛翔体を選択する飛翔体選択部
を有し、
前記要求送信部は、前記飛翔体選択部によって選択された1又は複数の飛翔体に対して前記画像要求を送信する、請求項又はに記載の監視システム。
The image management device is
It has a flying object selection unit that selects one or a plurality of flying objects to which the image request is transmitted from the plurality of flying objects based on the position of the imaging target.
The monitoring system according to claim 1 or 2 , wherein the request transmitting unit transmits the image request to one or a plurality of flying objects selected by the flying object selection unit.
前記複数の飛翔体のそれぞれは、複数の無線基地局のいずれかに在圏して、在圏している無線基地局を介して前記画像管理装置と通信し、
前記飛翔体選択部は、前記撮像対象の位置に基づいて前記複数の無線基地局から選択した無線基地局に在圏している飛翔体を選択する、請求項に記載の監視システム。
Each of the plurality of projectiles is located in one of the plurality of radio base stations and communicates with the image management device via the radio base stations in the service area.
The monitoring system according to claim 3 , wherein the flying object selection unit selects a flying object in the radio base station selected from the plurality of radio base stations based on the position of the imaging target.
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記撮像対象の位置情報と前記複数の飛翔体のそれぞれの位置情報とに基づいて、前記複数の飛翔体から前記撮像対象を監視させる1又は複数の飛翔体を選択する飛翔体選択部と、
前記飛翔体選択部によって選択された1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と
前記画像要求に応じて前記1又は複数の飛翔体が前記撮像対象を監視しながら撮像して送信した前記撮像対象の撮像画像を取得する画像取得部と
を備える監視システム。
A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A flying object selection unit that selects one or a plurality of flying objects for monitoring the imaging target from the plurality of flying objects based on the position information of the imaging target and the respective position information of the plurality of flying objects .
A request transmitting unit that transmits an image request requesting an image to be imaged to one or a plurality of flying objects selected by the flying object selection unit, and a request transmitting unit .
An image acquisition unit that acquires an image captured by the imaged object, which is captured and transmitted by the one or more projectiles while monitoring the imaged object in response to the image request.
Monitoring system that includes a.
前記画像管理装置は、
前記撮像対象の周辺状況を取得する周辺状況取得部
を有し、
前記飛翔体選択部は、前記撮像対象の周辺状況にさらに基づいて、前記撮像対象を監視させる前記1又は複数の飛翔体を選択する、請求項に記載の監視システム。
The image management device is
It has a peripheral condition acquisition unit that acquires the peripheral condition of the imaging target.
The monitoring system according to claim 5 , wherein the flying object selection unit selects the one or a plurality of flying objects to monitor the imaging target based on the surrounding conditions of the imaging target.
前記飛翔体選択部は、前記複数の飛翔体のそれぞれが実行しているタスクのタスクレベルにさらに基づいて、前記撮像対象を監視させる1又は複数の飛翔体を選択する、請求項又はに記載の監視システム。 According to claim 5 or 6 , the projectile selection unit selects one or a plurality of projectiles to monitor the imaging target based on the task level of the task executed by each of the plurality of projectiles. Described monitoring system. 全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有し、
前記撮像対象特定部は、前記複数の飛翔体のうちの問題が発生した飛翔体を、前記撮像対象として特定する、監視システム。
A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have,
The imaging target specifying unit, a projectile problems of the plurality of projectile occurs, is identified as the imaging target, monitoring system.
前記撮像対象特定部は、前記複数の飛翔体のうちの衝突事故が発生した飛翔体を、前記撮像対象として特定する、請求項に記載の監視システム。 The monitoring system according to claim 8 , wherein the imaging target specifying unit identifies a flying object in which a collision accident has occurred among the plurality of flying objects as the imaging target. 全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
前記複数の飛翔体のいずれかに問題が発生することを予測する問題予測部と、
前記問題予測部によって問題が発生すると予測された飛翔体を撮像対象として特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有する
監視システム。
A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
A problem prediction unit that predicts that a problem will occur in any of the plurality of projectiles ,
An imaging target specifying unit that identifies a flying object predicted to cause a problem by the problem predicting unit as an imaging target,
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have ,
Monitoring system.
前記画像取得部は、前記複数の飛翔体のそれぞれによって断続的に送信される撮像画像を取得し、
前記問題予測部は、前記画像取得部が断続的に取得する撮像画像にさらに基づいて、前記複数の飛翔体のいずれかに衝突事故が発生することを予測する、請求項10に記載の監視システム。
The image acquisition unit acquires captured images intermittently transmitted by each of the plurality of flying objects.
The monitoring system according to claim 10 , wherein the problem prediction unit predicts that a collision accident will occur in any of the plurality of flying objects based on the captured images intermittently acquired by the image acquisition unit. ..
前記画像管理装置は、
前記複数の飛翔体が飛行するエリアの気象に関連する気象関連情報を取得する気象関連情報取得部
を有し、
前記問題予測部は、前記気象関連情報にさらに基づいて、前記複数の飛翔体のいずれかに衝突事故が発生することを予測する、請求項10又は11に記載の監視システム。
The image management device is
It has a weather-related information acquisition unit that acquires weather-related information related to the weather in the area where the plurality of flying objects fly.
The monitoring system according to claim 10 or 11 , wherein the problem prediction unit predicts that a collision accident will occur in any of the plurality of flying objects based on the weather-related information.
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体と、
前記複数の飛翔体によって送信された撮像画像を取得して管理する画像管理装置と
を備え、
前記画像管理装置は、
撮像対象を特定する撮像対象特定部と、
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて前記1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を有し、
前記飛翔体は、
前記飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部と、
前記飛翔体の位置情報を取得する位置情報取得部と、
前記撮像部によって撮像された撮像画像を格納する画像格納部と、
前記飛翔体に対して衝撃が加わったことを検知する衝撃検知部と
を有し、
前記画像送信部は、前記衝撃検知部によって衝撃が検知された場合に、前記衝撃が加わった時刻を含む予め定められた時間範囲内に前記撮像部が撮像した撮像画像に、前記撮像画像を撮像したときの前記飛翔体の位置情報と、前記飛翔体識別情報とを対応付けて外部に無線送信する、監視システム。
A plurality of flying objects having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
An image management device that acquires and manages captured images transmitted by the plurality of flying objects.
With
The image management device is
An image pickup target identification part that specifies an image pickup target, and
A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
An image acquisition unit that acquires an image captured by at least one of the one or a plurality of flying objects in response to the image request.
Have,
The projectile is
An identification information storage unit that stores the flying object identification information capable of identifying the flying object, and an identification information storage unit.
A position information acquisition unit that acquires the position information of the flying object, and
An image storage unit that stores an image captured by the image pickup unit, and an image storage unit.
It has an impact detection unit that detects that an impact has been applied to the projectile.
When an impact is detected by the impact detection unit, the image transmission unit captures the captured image on the captured image captured by the imaging unit within a predetermined time range including the time when the impact is applied. wherein the position information of the projectile, and wirelessly transmitted to the outside in association with the flying object identification information, monitoring system when the.
前記撮像部は、前記飛翔体に搭載された複数のカメラによって撮像された画像を合成することによって前記撮像画像を生成する、請求項13に記載の監視システム。 The monitoring system according to claim 13 , wherein the imaging unit generates the captured image by synthesizing images captured by a plurality of cameras mounted on the flying object. 前記画像送信部は、前記撮像画像に、前記飛翔体が在圏している無線基地局を識別する基地局識別情報を対応付けて外部に無線送信する、請求項13又は14に記載の監視システム。 The monitoring system according to claim 13 or 14 , wherein the image transmitting unit associates the captured image with base station identification information for identifying the radio base station in which the flying object is located and wirelessly transmits the image to the outside. .. 撮像対象を特定する撮像対象特定部と、
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部と
を備え
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像した撮像画像を格納していた飛翔体から、前記撮像画像を取得する、
画像管理装置。
An image pickup target identification part that specifies an image pickup target, and
Imaging of the imaging target for one or more of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A request transmitter that sends an image request to request an image,
It is provided with an image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request .
The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
The image acquisition unit acquires the captured image from the flying object that stores the captured image of the imaging target at the time indicated by the time information among the plurality of flying objects.
Image management device.
撮像対象を特定する撮像対象特定部と、An image pickup target identification part that specifies an image pickup target, and
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、Imaging of the imaging target for one or more of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A request transmitter that sends an image request to request an image,
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request.
を備え、With
前記要求送信部は、前記撮像対象に関する撮像対象関連情報と時刻情報とを含む前記画像要求を前記複数の飛翔体に送信し、The request transmission unit transmits the image request including the image pickup target-related information and the time information regarding the image pickup target to the plurality of flying objects.
前記画像取得部は、前記複数の飛翔体のうち、前記時刻情報によって示される時刻に前記撮像対象を撮像可能な飛翔体が前記画像要求に応じて撮像した前記撮像対象の撮像画像を取得する、The image acquisition unit acquires an image of the imaging target captured by the flying object capable of imaging the imaging target at the time indicated by the time information among the plurality of flying objects in response to the image request.
画像管理装置。Image management device.
撮像対象を特定する撮像対象特定部と、An image pickup target identification part that specifies an image pickup target, and
前記撮像対象の位置情報と、全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のそれぞれの位置情報とに基づいて、前記複数の飛翔体から前記撮像対象を監視させる1又は複数の飛翔体を選択する飛翔体選択部と、Based on the position information of the imaging target and the position information of each of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A projectile selection unit that selects one or a plurality of projectiles for monitoring the imaging target from the plurality of projectiles, and a projectile selection unit.
前記飛翔体選択部によって選択された1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、A request transmitting unit that transmits an image request requesting an image to be imaged to one or a plurality of flying objects selected by the flying object selection unit, and a request transmitting unit.
前記画像要求に応じて前記1又は複数の飛翔体が前記撮像対象を監視しながら撮像して送信した前記撮像対象の撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by the imaged object, which is captured and transmitted by the one or more projectiles while monitoring the imaged object in response to the image request.
を備える画像管理装置。An image management device including.
撮像対象を特定する撮像対象特定部と、An image pickup target identification part that specifies an image pickup target, and
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、Imaging of the imaging target for one or more of a plurality of flying objects having an imaging unit that images in all directions and an image transmitting unit that wirelessly transmits the image captured by the imaging unit to the outside. A request transmitter that sends an image request to request an image,
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request.
を備え、With
前記撮像対象特定部は、前記複数の飛翔体のうちの問題が発生した飛翔体を、前記撮像対象として特定する、画像管理装置。The imaging target specifying unit is an image management device that identifies a flying object in which a problem has occurred among the plurality of flying objects as the imaging target.
全方位を撮像する撮像部及び前記撮像部によって撮像された撮像画像を外部に無線送信する画像送信部を有する複数の飛翔体のいずれかに問題が発生することを予測する問題予測部と、A problem prediction unit that predicts that a problem will occur in any of a plurality of projectiles having an image pickup unit that images in all directions and an image transmission unit that wirelessly transmits the image captured by the image pickup unit to the outside.
前記問題予測部によって問題が発生すると予測された飛翔体を撮像対象として特定する撮像対象特定部と、An imaging target specifying unit that identifies a flying object predicted to cause a problem by the problem predicting unit as an imaging target,
前記複数の飛翔体のうちの1又は複数の飛翔体に対して、前記撮像対象の撮像画像を要求する画像要求を送信する要求送信部と、A request transmission unit that transmits an image request for requesting an image to be imaged to one or more of the plurality of flying objects.
前記画像要求に応じて1又は複数の飛翔体の少なくともいずれかが送信した撮像画像を取得する画像取得部とAn image acquisition unit that acquires an image captured by at least one or a plurality of projectiles in response to the image request.
を備える画像管理装置。An image management device including.
コンピュータを、請求項16から20のいずれか一項に記載の画像管理装置として機能させるためのプログラム。 A program for causing a computer to function as the image management device according to any one of claims 16 to 20. 飛翔体であって、
前記飛翔体を識別可能な飛翔体識別情報を格納する識別情報格納部と、
前記飛翔体の位置情報を取得する位置情報取得部と、
全方位を撮像する撮像部と、
前記撮像部によって撮像された撮像画像を格納する画像格納部と、
前記飛翔体に対して衝撃が加わったことを検知する衝撃検知部と、
前記衝撃検知部によって衝撃が検知された場合に、前記衝撃が加わった時刻を含む予め定められた時間範囲内に前記撮像部が撮像した撮像画像に、前記撮像画像を撮像したときの前記飛翔体の位置情報と、前記飛翔体識別情報とを対応付けて外部に無線送信する画像送信部と
を備える飛翔体。
It ’s a flying object,
An identification information storage unit that stores the flying object identification information capable of identifying the flying object, and an identification information storage unit.
A position information acquisition unit that acquires the position information of the flying object, and
An imaging unit that captures all directions and
An image storage unit that stores an image captured by the image pickup unit, and an image storage unit.
An impact detection unit that detects that an impact has been applied to the projectile,
When an impact is detected by the impact detection unit, the flying object when the captured image is captured on the captured image captured by the imaging unit within a predetermined time range including the time when the impact is applied. A flying object including an image transmitting unit that wirelessly transmits the position information of the above to the outside in association with the flying object identification information.
コンピュータを、請求項22に記載の飛翔体として機能させるためのプログラム。 A program for causing a computer to function as the projectile according to claim 22.
JP2019101844A 2019-05-30 2019-05-30 Surveillance systems, image management devices, flying objects, and programs Active JP6934913B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019101844A JP6934913B2 (en) 2019-05-30 2019-05-30 Surveillance systems, image management devices, flying objects, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019101844A JP6934913B2 (en) 2019-05-30 2019-05-30 Surveillance systems, image management devices, flying objects, and programs

Publications (2)

Publication Number Publication Date
JP2020198477A JP2020198477A (en) 2020-12-10
JP6934913B2 true JP6934913B2 (en) 2021-09-15

Family

ID=73648191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019101844A Active JP6934913B2 (en) 2019-05-30 2019-05-30 Surveillance systems, image management devices, flying objects, and programs

Country Status (1)

Country Link
JP (1) JP6934913B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008102A1 (en) * 2021-07-29 2023-02-02 富士フイルム株式会社 Imaging control device, imaging system, imaging control method, and imaging control program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017017984A1 (en) * 2015-07-29 2017-02-02 株式会社日立製作所 Moving body identification system and identification method
WO2018034033A1 (en) * 2016-08-16 2018-02-22 本郷飛行機株式会社 Communication control device
JP2018070010A (en) * 2016-10-31 2018-05-10 キヤノンマーケティングジャパン株式会社 Unmanned aircraft controlling system, controlling method and program thereof
JP2018110304A (en) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 Monitoring system, monitoring method, and program
JP7067897B2 (en) * 2017-10-30 2022-05-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Information processing equipment, flight control instruction method, program, and recording medium
JP6521045B1 (en) * 2017-12-26 2019-05-29 東京電力ホールディングス株式会社 Unmanned air vehicle crash notification system, ground station, notification method, and program

Also Published As

Publication number Publication date
JP2020198477A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
US10657660B2 (en) Search assist system, search assist apparatus, and search assist method
US10424204B1 (en) Collision warnings provided by stationary vehicles
EP2780862B1 (en) Mobile and one-touch tasking and visualization of sensor data
US20180276998A1 (en) Method, user terminal, server, and detecting device for monitoring flight of unmanned aerial vehicle
JP7075967B2 (en) Management server, communication equipment, administrator terminal, communication method
CN109284801B (en) Traffic indicator lamp state identification method and device, electronic equipment and storage medium
US9471845B1 (en) Background modeling for imaging surveillance
US20210192864A1 (en) Using dynamic triggers in dangerous situations to view sensor data for autonomous vehicle passengers
JP6934913B2 (en) Surveillance systems, image management devices, flying objects, and programs
JP7187504B2 (en) Control device, program, system, and control method
JP6928023B2 (en) Management equipment, systems, programs and management methods
US11222213B2 (en) Vehicle behavior detection system
US20200074761A1 (en) On-vehicle device, data collection system, and data collection apparatus
KR102479959B1 (en) Artificial intelligence based integrated alert method and object monitoring device
WO2019107047A1 (en) Information processing device
JP7148567B2 (en) System, management device, program, and management method
JP7058296B2 (en) Controls, programs, and systems
WO2023112311A1 (en) Search assistance device, search assistance system, search assistance method, and computer-readable storage medium
JP6903535B2 (en) Information processing device
US11982736B2 (en) Perception sensors based fusion system for vehicle control and method thereof
WO2024013389A1 (en) Methods and systems for object classification and location
JP7319244B2 (en) Control device, program, system and method
JP7295320B1 (en) Information processing device, program, system, and information processing method
US20210375078A1 (en) Automated vehicle body damage detection
US11891176B2 (en) Determination of position sending interval for flying vehicle dependent upon ground surface below vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210824

R150 Certificate of patent or registration of utility model

Ref document number: 6934913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150