JP2018173960A - Information processing system, control method thereof and program - Google Patents

Information processing system, control method thereof and program Download PDF

Info

Publication number
JP2018173960A
JP2018173960A JP2018068613A JP2018068613A JP2018173960A JP 2018173960 A JP2018173960 A JP 2018173960A JP 2018068613 A JP2018068613 A JP 2018068613A JP 2018068613 A JP2018068613 A JP 2018068613A JP 2018173960 A JP2018173960 A JP 2018173960A
Authority
JP
Japan
Prior art keywords
network camera
unmanned airplane
information processing
processing system
photographed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018068613A
Other languages
Japanese (ja)
Inventor
浩 長井
Hiroshi Nagai
浩 長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Publication of JP2018173960A publication Critical patent/JP2018173960A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism capable of reducing photographing of a video, on which an unmanned airplane is reflected, with a network camera.SOLUTION: An image processing system performing flight control of an unmanned aircraft includes control means for controlling the flight of the unmanned aircraft in a manner such that, in a case where the unmanned aircraft flies at a position where the aircraft is photographed by a network camera, the unmanned aircraft flies at a position where the aircraft is not photographed by the network camera.SELECTED DRAWING: Figure 13

Description

本発明は、情報処理システム、及びその制御方法、プログラムに関し、特に、ネットワークカメラで無人飛行機が映り込んだ映像が撮影されることを低減可能にする仕組みに関する。   The present invention relates to an information processing system, a control method therefor, and a program, and more particularly, to a mechanism that makes it possible to reduce shooting of an image of an unmanned airplane taken by a network camera.

従来、人が搭乗していない航空機である無人航空機が存在する。無人航空機は、大型なものから小型なものまで様々であるが、特に近年では遠隔操縦可能な小型の無人航空機(通称:ドローン)が注目されている(以下、小型の無人航空機を単に無人航空機とも称する。)。   Conventionally, there is an unmanned aerial vehicle that is an aircraft on which a person is not on board. Unmanned aerial vehicles vary in size from large to small. In recent years, small unmanned aerial vehicles (commonly called drones) that can be remotely controlled have attracted attention. Called).

無人航空機は、クワッドコプターやマルチコプターとも呼ばれ、複数の回転翼を備えており、この回転翼の回転数を増減させることで、無人航空機の前進・後退・旋回・ホバリング等を行う。   An unmanned aerial vehicle is also called a quadcopter or a multicopter, and includes a plurality of rotor blades. By increasing or decreasing the number of rotations of the rotor blades, the unmanned aircraft advances, retreats, turns, and hovers.

こうした無人航空機は、プロポと呼ばれる遠隔操作端末からの動作指示に応じて動作するほか、モニタや入力装置が一体となった操作卓から制御することも可能である。   Such an unmanned aerial vehicle can be operated in response to an operation instruction from a remote operation terminal called a propo, and can be controlled from a console with an integrated monitor and input device.

特許文献1には、撮影対象物に対して自動で飛行する無人航空機が提案されている。   Patent Document 1 proposes an unmanned aerial vehicle that automatically flies over an object to be photographed.

特開2015‐113100号公報Japanese Patent Laid-Open No. 2015-113100

ところで、従来、例えば、お天気カメラなどのネットワークカメラは、建物の屋上などに固定設置され、その周囲の映像のみしか撮影できず、その周囲の映像のみしか放送することができなかった。   By the way, conventionally, for example, a network camera such as a weather camera is fixedly installed on the rooftop of a building, and only the surrounding video can be taken, and only the surrounding video can be broadcast.

そこで、ドローンにカメラを搭載し、そのカメラで撮影された映像を放送することが考えられる。   Therefore, it is conceivable to install a camera in the drone and broadcast the video taken by the camera.

しかしながら、従来のお天気カメラなどのネットワークカメラで撮影された映像を放送したり、ドローンのカメラで撮影された映像を放送したいすることができるため、ドローンを飛行させているときに、お天気カメラなどのネットワークカメラで周囲を撮影し放送していると、そのネットワークカメラで飛行中のドローンが撮影されてしまい、放送している映像にドローンが映ってしまうおそれがある。   However, it is possible to broadcast images taken with a network camera such as a conventional weather camera or broadcast images taken with a drone camera, so when a drone is flying, such as a weather camera If a network camera captures and broadcasts the surroundings, the drone in flight is captured by the network camera, and the drone may appear in the broadcast video.

また、従来、ユーザが、飛行中のドローンの実物を目視確認していたが、例えば、遠くにドローンが飛んでいくと目視確認し難くなってしまう。   Conventionally, the user visually confirms the actual drone in flight. However, for example, when the drone flies far away, it is difficult to visually confirm the drone.

本発明は、ネットワークカメラで無人飛行機が映り込んだ映像が撮影されることを低減可能にする仕組みを提供することを目的とする。   An object of the present invention is to provide a mechanism that can reduce the shooting of an image of an unmanned airplane reflected by a network camera.

本発明は、無人飛行機の飛行制御を行う情報処理システムであって、前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御する制御手段を備えることを特徴とする。   The present invention is an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is flying at a position photographed by a network camera, the flight is performed at a position not photographed by the network camera. Control means for controlling the flight of the unmanned airplane is provided.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御する制御工程を備えることを特徴とする。   The present invention is also a control method in an information processing system that performs flight control of an unmanned airplane, and when the unmanned airplane is flying in a position photographed by a network camera, a position that is not photographed by the network camera is determined. A control step of controlling the flight of the unmanned airplane to fly is provided.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムを、前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御する制御手段として機能させるためのプログラムである。   Further, the present invention provides an information processing system for performing flight control of an unmanned airplane, so that when the unmanned airplane is flying at a position photographed by a network camera, the information processing system is configured to fly at a position not photographed by the network camera. It is a program for functioning as control means for controlling the flight of an unmanned airplane.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムであって、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように前記無人飛行機の飛行を制御する制御手段を備えることを特徴とする。   Further, the present invention is an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is flying in the vicinity of a position photographed by a network camera, the position photographed by the network camera And control means for controlling the flight of the unmanned airplane so as not to fly in the vicinity of the position.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムであって、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置に前記無人飛行機が飛行してこないように前記無人飛行機の飛行を制御する制御手段を備えることを特徴とする。   Further, the present invention is an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is flying in the vicinity of a position photographed by a network camera, the position photographed by the network camera And a control means for controlling the flight of the unmanned airplane so that the unmanned airplane does not fly.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムであって、前記無人飛行機がネットワークカメラに撮影されている場合には、前記ネットワークカメラに前記無人飛行機が撮影されていることをユーザに知らせるべく通知する通知手段を備えることを特徴とする。   Further, the present invention is an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is photographed by a network camera, the user knows that the unmanned airplane is photographed by the network camera. It is characterized by comprising notifying means for notifying in order to notify.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムであって、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記無人飛行機が前記ネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する通知手段を備えることを特徴とする。   Further, the present invention is an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is flying in the vicinity of a position photographed by a network camera, the unmanned airplane is connected to the network camera. It is characterized by comprising notifying means for notifying the user that the user is flying in the vicinity of the position to be photographed.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように前記無人飛行機の飛行を制御する制御工程を備えることを特徴とする。   The present invention is also a control method in an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is flying in the vicinity of a position photographed by a network camera, the photograph is taken by the network camera. And a control step of controlling the flight of the unmanned airplane so as not to fly in the vicinity of the position.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置に前記無人飛行機が飛行してこないように前記無人飛行機の飛行を制御する制御工程を備えることを特徴とする。   The present invention is also a control method in an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is flying in the vicinity of a position photographed by a network camera, the photograph is taken by the network camera. And a control step of controlling the flight of the unmanned airplane so that the unmanned airplane does not fly at a position where the unmanned airplane is flying.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、前記無人飛行機がネットワークカメラに撮影されている場合には、前記ネットワークカメラに前記無人飛行機が撮影されていることをユーザに知らせるべく通知する通知工程を備えることを特徴とする。   The present invention is also a control method in an information processing system that performs flight control of an unmanned airplane, and when the unmanned airplane is photographed by a network camera, the unmanned airplane is photographed by the network camera. A notification step of notifying the user of this fact.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記無人飛行機が前記ネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する通知工程を備えることを特徴とする。   Further, the present invention is a control method in an information processing system for performing flight control of an unmanned airplane, and when the unmanned airplane is flying in the vicinity of a position photographed by a network camera, the unmanned airplane A notification step of notifying the user that the user is flying in the vicinity of the position photographed by the network camera is provided.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムを、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように前記無人飛行機の飛行を制御する制御手段として機能させるためのプログラムである。   Further, the present invention provides an information processing system for performing flight control of an unmanned airplane, when the unmanned airplane is flying in the vicinity of a position photographed by a network camera, and a position photographed by the network camera, and It is a program for functioning as control means for controlling the flight of the unmanned airplane so as not to fly in the vicinity of the position.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムを、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置に前記無人飛行機が飛行してこないように前記無人飛行機の飛行を制御する制御手段として機能させるためのプログラムである。   Further, the present invention provides an information processing system for performing flight control of an unmanned airplane when the unmanned airplane is flying in the vicinity of a position photographed by a network camera. This is a program for functioning as control means for controlling the flight of the unmanned airplane so that the unmanned airplane does not fly.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムを、前記無人飛行機がネットワークカメラに撮影されている場合には、前記ネットワークカメラに前記無人飛行機が撮影されていることをユーザに知らせるべく通知する通知手段として機能させるためのプログラムである。   In addition, the present invention provides an information processing system for performing flight control of an unmanned airplane that informs a user that the unmanned airplane is being photographed by the network camera when the unmanned airplane is photographed by a network camera. It is a program for functioning as a notification means for notifying as much as possible.

また、本発明は、無人飛行機の飛行制御を行う情報処理システムを、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記無人飛行機が前記ネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する通知手段として機能させるためのプログラムである。   Further, the present invention provides an information processing system that performs flight control of an unmanned airplane. When the unmanned airplane is flying in the vicinity of a position where the unmanned airplane is photographed by a network camera, the unmanned airplane is photographed by the network camera. This is a program for functioning as notification means for notifying the user that the user is flying in the vicinity of a certain position.

本発明によると、ネットワークカメラで無人飛行機が映り込んだ映像が撮影されることを低減可能にすることができる。   According to the present invention, it is possible to reduce shooting of an image in which an unmanned airplane is reflected by a network camera.

本実施形態におけるシステムの構成を示す図の一例である。It is an example of the figure which shows the structure of the system in this embodiment. ドローン106のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a drone 106. FIG. 図1に示した操作端末101、オンエア指示装置102、あるいは、操作端末101、オンエア指示装置102を含む情報処理システム103に適用可能な情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the information processing apparatus applicable to the operation terminal 101 shown in FIG. 1, the on-air instruction | indication apparatus 102, or the information processing system 103 containing the operation terminal 101 and the on-air instruction | indication apparatus 102. 飛行中のドローン106と、ネットワークカメラ104、又は105の側面図の一例を示す図である。It is a figure which shows an example of the side view of drone 106 and network camera 104 or 105 in flight. 地図上に、ネットワークカメラ104、105、飛行中のドローン106のオブジェクトがオーバーレイして表示された地図の一例を示す図である。It is a figure which shows an example of the map by which the objects of the network cameras 104 and 105 and the drone 106 in flight were overlaid and displayed on the map. 地図上に、ネットワークカメラ104、105、飛行中のドローン106のオブジェクトがオーバーレイして表示された地図の一例を示す図である。It is a figure which shows an example of the map by which the objects of the network cameras 104 and 105 and the drone 106 in flight were overlaid and displayed on the map. 地図上に、ネットワークカメラ104、105、飛行中のドローン106のオブジェクトがオーバーレイして表示された地図の一例を示す図である。It is a figure which shows an example of the map by which the objects of the network cameras 104 and 105 and the drone 106 in flight were overlaid and displayed on the map. 地図上に、ネットワークカメラ104、105、飛行中のドローン106のオブジェクトがオーバーレイして表示された地図の一例を示す図である。It is a figure which shows an example of the map by which the objects of the network cameras 104 and 105 and the drone 106 in flight were overlaid and displayed on the map. 地図上に、ネットワークカメラ104、105、飛行中のドローン106のオブジェクトがオーバーレイして表示された地図の一例を示す図である。It is a figure which shows an example of the map by which the objects of the network cameras 104 and 105 and the drone 106 in flight were overlaid and displayed on the map. 図1に示した操作端末101の一例を示す図である。It is a figure which shows an example of the operating terminal 101 shown in FIG. 図1に示したオンエア指示装置102の一例を示す図である。It is a figure which shows an example of the on-air instruction | indication apparatus 102 shown in FIG. パン角度データ1201、チルト角度データ1202、ズーム/画角データ1203の一例を示す図である。6 is a diagram illustrating an example of pan angle data 1201, tilt angle data 1202, and zoom / view angle data 1203. FIG. 情報処理システム103のCPUが実行する処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of processing executed by a CPU of the information processing system 103. 情報処理システム103のCPUが実行する処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of processing executed by a CPU of the information processing system 103. 情報処理システム103のCPUが実行する処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of processing executed by a CPU of the information processing system 103. 地図上に、ネットワークカメラ104、105、飛行中のドローン106のオブジェクト、ドローンから、オンエア中の映像が撮影されているカメラの撮影範囲までの距離がオーバーレイして表示された地図の一例を示す図である。The figure which shows an example of the map by which the distance from the network camera 104,105, the object of the drone 106 in flight, and the imaging | photography range of the camera from which the image | video in on-air is image | photographed is overlaid on the map It is.

以下、図面を参照して、本発明の実施形態を詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments having the configurations described in the claims.

図1は、本実施形態におけるシステムの構成を示す図の一例である。   FIG. 1 is an example of a diagram illustrating a configuration of a system in the present embodiment.

本実施形態のシステムは、ネットワークカメラ104、ネットワークカメラ105、ドローン(飛行体や無人航空機とも言う)106、操作端末101及びオンエア指示装置102を含む情報処理システム103、電波塔の電波送信部107、テレビ108、109を含む。   The system according to this embodiment includes a network camera 104, a network camera 105, a drone (also referred to as a flying object or an unmanned aircraft) 106, an information processing system 103 including an operation terminal 101 and an on-air instruction device 102, a radio wave transmission unit 107 of a radio tower, TVs 108 and 109 are included.

ネットワークカメラ104、105、ドローン106は、それぞれ、操作端末101と相互に通信可能に有線又は無線で接続されている。   The network cameras 104 and 105 and the drone 106 are connected to the operation terminal 101 in a wired or wireless manner so that they can communicate with each other.

また、操作端末101とオンエア指示装置102は、それぞれ相互に通信可能に接続されており、操作端末101とオンエア指示装置102を情報処理システム103とする。操作端末101とオンエア指示装置102は、筐体が一体型であってもよいし、別々の筐体であってもよい。   Further, the operation terminal 101 and the on-air instruction device 102 are connected so as to be able to communicate with each other, and the operation terminal 101 and the on-air instruction device 102 are referred to as an information processing system 103. The operation terminal 101 and the on-air instruction device 102 may be integrated with each other or may be separate cases.

また、オンエア指示装置102は、電波塔の電波送信部107と通信可能に接続されており、オンエアする映像のデータを電波送信部107に配信する機能を備えている。   The on-air instruction device 102 is communicably connected to the radio wave transmission unit 107 of the radio tower, and has a function of distributing video data to be aired to the radio wave transmission unit 107.

情報処理システム103は、本発明の情報処理システムの適用例であり、ドローンなどの無人飛行機の飛行制御を行う。   The information processing system 103 is an application example of the information processing system of the present invention, and performs flight control of an unmanned airplane such as a drone.

また、電波送信部107は、例えば、一般的なテレビに電波で当該映像のデータを配信し、当該データを受信したテレビは、当該データに基づき映像を表示することができる。   For example, the radio wave transmission unit 107 distributes the video data by radio waves to a general television, and the television that has received the data can display the video based on the data.

図1に示すシステムの例では、ネットワークカメラ104、105、ドローン106に搭載されたカメラ271の何れかで撮影された映像のデータを情報処理システム103、電波送信部107を介してテレビ108、109に配信することができる。   In the example of the system illustrated in FIG. 1, video data captured by any one of the network cameras 104 and 105 and the camera 271 mounted on the drone 106 is transmitted to the televisions 108 and 109 via the information processing system 103 and the radio wave transmission unit 107. Can be delivered to.

また、図1では、電波塔の電波送信部107を用いて映像のデータをテレビに配信しているが、インターネット等のネットワークを介して、当該映像のデータをテレビや携帯端末などの端末に送信し、当該端末で当該映像を表示するシステムであってもよい。   In FIG. 1, video data is distributed to the television using the radio wave transmission unit 107 of the radio tower. However, the video data is transmitted to a terminal such as a television or a portable terminal via a network such as the Internet. And the system which displays the said image | video with the said terminal may be sufficient.

ネットワークカメラ104、105は、例えば、ビルの屋上などに設置されるお天気カメラである。図1では、ネットワークカメラを2台、互いに近傍の位置に設置しているが、3台以上の複数のネットワークカメラを設置してもよいし、1台のネットワークカメラを設置してもよい。   The network cameras 104 and 105 are weather cameras installed on the roof of a building, for example. In FIG. 1, two network cameras are installed at positions close to each other, but a plurality of network cameras of three or more may be installed, or one network camera may be installed.

また、ドローン106は、一般的なドローンであり、カメラ271を備えている。   The drone 106 is a general drone and includes a camera 271.

また、操作端末101は、ネットワークカメラ104、105のパン、チルト、ズームの操作指示をユーザにより受け付ける端末である。また、操作端末101は、ドローン106の飛行に係る操作指示をユーザにより受け付ける端末、ドローン106のカメラ271のパン、チルト、ズームの操作指示をユーザにより受け付ける端末としても機能する。   The operation terminal 101 is a terminal that accepts pan, tilt, and zoom operation instructions of the network cameras 104 and 105 by the user. The operation terminal 101 also functions as a terminal that accepts operation instructions relating to the flight of the drone 106 by the user, and a terminal that accepts operation instructions for panning, tilting, and zooming of the camera 271 of the drone 106 by the user.

操作端末101は、ネットワークカメラ104、105、ドローン106、ドローン106のカメラ271を操作する1つの筐体の端末であるが、それぞれの機能をそれぞれの筐体に分けて、ネットワークカメラ104を操作する1つの筐体の端末101A(図10)、ネットワークカメラ105を操作する1つの筐体の端末101B(図10)、ドローン106、ドローン106のカメラ271を操作する1つの筐体の端末101C(図10)としてもよい。その場合、例えば、ユーザAが、ネットワークカメラ104を操作する1つの筐体の端末101A(図10)を操作し、ユーザBが、ネットワークカメラ105を操作する1つの筐体の端末101B(図10)を操作し、ユーザCが、ドローン106、ドローン106のカメラ271を操作する1つの筐体の端末101C(図10)を操作することができる。その際、それぞれ別の位置で操作することも可能である。   The operation terminal 101 is a terminal of one case for operating the network cameras 104 and 105, the drone 106, and the camera 271 of the drone 106, and operates the network camera 104 by dividing each function into each case. A terminal 101A (FIG. 10) in one housing, a terminal 101B (FIG. 10) that operates the network camera 105, a drone 106, and a terminal 101C (FIG. 10) that operates the camera 271 of the drone 106. 10). In that case, for example, the user A operates the terminal 101A (FIG. 10) of one casing that operates the network camera 104, and the terminal 101B (FIG. 10) of one casing that operates the network camera 105 is operated by the user B. ), The user C can operate the terminal 101C (FIG. 10) of one housing that operates the drone 106 and the camera 271 of the drone 106. In that case, it is also possible to operate at different positions.

また、オンエア指示装置102は、オンエアする映像(カメラで撮影されている映像)の選択をユーザから受け付ける装置であり、ユーザにより選択された映像(カメラで撮影されている映像)をオンエアする映像として、電波送信部107に送信する機能を備えている。   The on-air instruction device 102 is a device that accepts a selection of a video to be on-air (video captured by the camera) from the user, and is a video for on-airing the video selected by the user (video captured by the camera). And a function of transmitting to the radio wave transmitting unit 107.

図1では、無人航空機の一例として、ドローン106を用いて説明しているが、ドローンだけではなく、無人飛行機、UAVであってもよい。   In FIG. 1, the drone 106 is used as an example of an unmanned aircraft, but not only a drone but also an unmanned airplane or UAV may be used.

ドローン106は、操作端末101からの操作指示に従って飛行する無人の航空機である。また、ドローン106は、プログラムに従って自動飛行することができる航空機である。   The drone 106 is an unmanned aircraft that flies in accordance with an operation instruction from the operation terminal 101. The drone 106 is an aircraft that can automatically fly according to a program.

ドローン106は、操作端末101からの指示に応じて、複数の回転翼を動作させて飛行する。この回転翼の回転数を増減させることで、無人航空機の前進・後退・旋回・ホバリング等を行う。尚、図1に示すドローン106の回転翼は4枚であるが、これに限らない。3枚であっても、6枚であっても、8枚であってもよい。   The drone 106 flies by operating a plurality of rotor blades in response to an instruction from the operation terminal 101. By increasing or decreasing the rotational speed of the rotor blades, the unmanned aircraft moves forward, backward, turns, hovers, and the like. Although the drone 106 shown in FIG. 1 has four rotating blades, the present invention is not limited to this. There may be three, six, or eight.

ドローン106は、カメラを有し、カメラは、その撮影方向を可変させるため、カメラのレンズの向きを左右に動かすパン、上下に動かすチルト、そして、望遠にしたり広角にしたりするズームの機能を有し、遠隔地から操作(PTZ制御)できるようになっている。   The drone 106 has a camera, and the camera has a pan function for moving the lens direction of the camera to the left and right, a tilt for moving the lens up and down, and a zoom function for making it telephoto and wide-angle in order to change the shooting direction. However, it can be operated from a remote location (PTZ control).

なお、ドローン106は、飛行していないとき(待機時)には、例えば、ネットワークカメラ104、105の近傍で着陸している。   Note that the drone 106 has landed in the vicinity of the network cameras 104 and 105, for example, when it is not flying (standby).

また、操作端末101は、操作部1015を備えている。この操作部は、ドローン106と、ドローン106に搭載されたカメラ271とを操作する部である。   The operation terminal 101 includes an operation unit 1015. This operation unit is a unit that operates the drone 106 and the camera 271 mounted on the drone 106.

また、ドローン106は、GPS受信機を備えており、当該GPS受信機によりGPS衛星からの信号を受信することでドローン106の現在位置(緯度、経度)を特定することができる。   The drone 106 includes a GPS receiver, and a current position (latitude, longitude) of the drone 106 can be specified by receiving a signal from a GPS satellite by the GPS receiver.

操作端末101を操作するユーザは、操作部1015を操作して、ドローン106の飛行方向や、飛行速度の操作を行う。   A user who operates the operation terminal 101 operates the operation unit 1015 to operate the flight direction and the flight speed of the drone 106.

そして、操作端末101は、操作部1015の操作を受け付けると、ドローン106に、当該受け付けた操作内容の通りに飛行するように指示を送信して、ドローン106は、当該指示を受信すると、当該指示の通りに飛行するようにプロペラ213を制御する。このように、操作端末101は、操作部1015で操作された操作指示内容をドローン106に送信して、当該ドローン106の飛行を操作する。   When the operation terminal 101 receives an operation of the operation unit 1015, the operation terminal 101 transmits an instruction to the drone 106 to fly according to the received operation content. When the drone 106 receives the instruction, the operation terminal 101 receives the instruction. The propeller 213 is controlled to fly on the street. As described above, the operation terminal 101 transmits the operation instruction content operated by the operation unit 1015 to the drone 106 and operates the flight of the drone 106.

また、ユーザは、操作部1015を操作して、ドローン106に搭載されたカメラ271のズームイン動作、ズームアウト動作、パン動作の操作を行う。操作端末101は、操作部1015の操作を受け付けると、カメラ271に、当該受け付けた操作内容の通りに動作するように指示を送信して、カメラ271は、当該指示を受信すると、当該指示の通りに動作するようにカメラ271内のレンズ等の各部材を動作して、PTZの調整を行うことができる。このように、操作端末101は、操作部1015で操作された操作指示内容をカメラ271に送信して、カメラ271のレンズのズーム動作、撮影方向のパン動作、チルト動作を操作する。   In addition, the user operates the operation unit 1015 to perform the zoom-in operation, zoom-out operation, and pan operation of the camera 271 mounted on the drone 106. When the operation terminal 101 receives an operation of the operation unit 1015, the operation terminal 101 transmits an instruction to the camera 271 to operate according to the received operation content. When the operation terminal 101 receives the instruction, the operation terminal 101 receives the instruction. It is possible to adjust the PTZ by operating each member such as a lens in the camera 271 so as to operate. As described above, the operation terminal 101 transmits the operation instruction content operated by the operation unit 1015 to the camera 271 to operate the zoom operation of the lens of the camera 271, the pan operation and the tilt operation of the shooting direction.

また、後述する図12等の各種データは、操作端末101のメモリに記憶されており、図13、図14、図15に示すフローチャートに示す各処理は、操作端末101のCPU等の制御手段が実行し実現される。   Further, various types of data such as FIG. 12 to be described later are stored in the memory of the operation terminal 101, and each process shown in the flowcharts shown in FIGS. 13, 14, and 15 is performed by a control unit such as a CPU of the operation terminal 101. Implemented and realized.

図12は、パン角度データ1201、チルト角度データ1202、ズーム/画角データ1203の一例を示す図である。   FIG. 12 is a diagram illustrating an example of pan angle data 1201, tilt angle data 1202, and zoom / view angle data 1203.

次に、図2を用いて、図1に示したドローン106のハードウェア構成について説明する。   Next, the hardware configuration of the drone 106 shown in FIG. 1 will be described with reference to FIG.

図2は、ドローン106のハードウェア構成の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a hardware configuration of the drone 106.

なお、図2に示すドローン106のハードウェア構成は一例であり、用途や目的に応じて様々な構成例がある。   Note that the hardware configuration of the drone 106 illustrated in FIG. 2 is an example, and there are various configuration examples depending on applications and purposes.

フライトコントローラ200は、ドローン106の飛行制御を行うためのマイクロコントローラであり、CPU201、ROM202、RAM203、周辺バスインタフェース204(以下、周辺バスI/F204という。)を備えている。   The flight controller 200 is a microcontroller for performing flight control of the drone 106, and includes a CPU 201, a ROM 202, a RAM 203, and a peripheral bus interface 204 (hereinafter referred to as a peripheral bus I / F 204).

CPU201は、システムバスに接続される各デバイスを統括的に制御する。また、ROM202あるいは周辺バスI/F204に接続される外部メモリ280には、CPU201の制御プログラムであるBIOS(Basic Input/Output System)やオペレーティングシステムプログラムが記憶されている。   The CPU 201 comprehensively controls each device connected to the system bus. The external memory 280 connected to the ROM 202 or the peripheral bus I / F 204 stores a basic input / output system (BIOS) that is a control program of the CPU 201 and an operating system program.

また、外部メモリ280(記憶手段)には、ドローン106の実行する機能を実現するために必要な各種プログラム等が記憶されている。RAM203(記憶手段)は、CPU201の主メモリ、ワークエリア等として機能する。   Further, the external memory 280 (storage means) stores various programs necessary for realizing the function executed by the drone 106. A RAM 203 (storage means) functions as a main memory, work area, and the like for the CPU 201.

CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを読み取り実行することで各種動作を実現するものである。   The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and reading and executing the program.

周辺バスI/F204は、各種周辺デバイスと接続するためのインタフェースである。周辺バスI/F204には、PMU210、無線LAN用BBユニット230、GPSユニット250、センサ260、GCU270、外部メモリ280が接続されている。   The peripheral bus I / F 204 is an interface for connecting to various peripheral devices. A PMU 210, a wireless LAN BB unit 230, a GPS unit 250, a sensor 260, a GCU 270, and an external memory 280 are connected to the peripheral bus I / F 204.

PMU210は、パワーマネジメントユニットであり、ドローン106が備えるバッテリからESC211への電源供給を制御することができる。ESC211は、エレクトロニックスピードコントローラであり、ESC211に接続されるモータ212の回転数を制御することができる。ESC211によってモータ212を回転させることで、モータ212に接続されるプロペラ213(回転翼)を回転させる。   The PMU 210 is a power management unit and can control power supply from the battery included in the drone 106 to the ESC 211. The ESC 211 is an electronic speed controller and can control the rotation speed of the motor 212 connected to the ESC 211. By rotating the motor 212 using the ESC 211, the propeller 213 (rotary blade) connected to the motor 212 is rotated.

なお、ESC211、モータ212、プロペラ213のセットは、プロペラ213の数に応じて複数備えられている。例えば、クアッドコプターであれば、プロペラ213の数は、4枚であるので、このセットが4つ必要となる。   Note that a plurality of sets of ESCs 211, motors 212, and propellers 213 are provided in accordance with the number of propellers 213. For example, in the case of a quadcopter, the number of propellers 213 is four, so four sets are required.

無線LAN用BBユニット230は、無線LANを介して通信を行うためのベースバンドユニットである。無線LAN用BBユニット230は、送信したいデータや信号からベースバンド信号を生成して変復調回路へ送出することができる。更に、受信したベースバンド信号から元のデータや信号を得ることができる。   The wireless LAN BB unit 230 is a baseband unit for performing communication via a wireless LAN. The wireless LAN BB unit 230 can generate a baseband signal from data or signals to be transmitted and send it to the modem circuit. Furthermore, original data and signals can be obtained from the received baseband signal.

また、無線LAN用RFユニット231は、無線LANを介して通信を行うためのRF(Radio Frequency)ユニットである。無線LAN用RFユニット231は、無線LAN用BBユニット230から送出されたベースバンド信号を無線LANの周波数帯に変調してアンテナから送信することができる。更に、無線LANの周波数帯の信号を受信すると、これをベースバンド信号に復調することができる。   The wireless LAN RF unit 231 is an RF (Radio Frequency) unit for performing communication via a wireless LAN. The wireless LAN RF unit 231 can modulate the baseband signal transmitted from the wireless LAN BB unit 230 into the frequency band of the wireless LAN and transmit it from the antenna. Furthermore, when a signal in the wireless LAN frequency band is received, it can be demodulated into a baseband signal.

GPSユニット250は、グローバルポジショニングシステムにより、ドローン106の現在位置を取得することの可能な受信機である。GPSユニット250は、GPS衛星からの信号を受信し、現在位置を推定することができる。   The GPS unit 250 is a receiver that can acquire the current position of the drone 106 by the global positioning system. The GPS unit 250 can receive a signal from a GPS satellite and estimate the current position.

センサ260は、ドローン106の傾き、向き、速度や周りの環境を計測するためのセンサである。ドローン106はセンサ260として、ジャイロセンサ、加速度センサ、気圧センサ、磁気センサ、超音波センサ等を備えている。これらのセンサから取得したデータに基づいて、CPU201がドローン106の姿勢や移動を制御する。   The sensor 260 is a sensor for measuring the inclination, orientation, speed, and surrounding environment of the drone 106. The drone 106 includes a gyro sensor, an acceleration sensor, an atmospheric pressure sensor, a magnetic sensor, an ultrasonic sensor, and the like as the sensor 260. Based on the data acquired from these sensors, the CPU 201 controls the attitude and movement of the drone 106.

GCU270は、ジンバルコントロールユニットであり、カメラ271とジンバル272の動作を制御するためのユニットである。ドローン106が飛行することにより機体に振動が発生したり、機体が不安定になったりするため、カメラ271で撮影した際にブレが発生しないよう、ジンバル272によってドローン106の振動を吸収し水平を維持する。また、ジンバル272によってカメラ271の遠隔操作を行うことも可能である。   The GCU 270 is a gimbal control unit and is a unit for controlling operations of the camera 271 and the gimbal 272. As the drone 106 flies, the airframe vibrates and the airframe becomes unstable, so the gimbal 272 absorbs the vibration of the drone 106 so that no blurring occurs when shooting with the camera 271. maintain. Further, the camera 271 can be remotely operated by the gimbal 272.

ドローン106が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ280に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。   Various programs and the like used for the drone 106 to execute various processes described later are recorded in the external memory 280 and are executed by the CPU 201 by being loaded into the RAM 203 as necessary.

次に、図3を用いて図1に示した操作端末101、オンエア指示装置102、あるいは、操作端末101、オンエア指示装置102を含む情報処理システム103に適用可能な情報処理装置のハードウェア構成について説明する。   Next, the hardware configuration of the information processing apparatus applicable to the operation terminal 101 and the on-air instruction apparatus 102 shown in FIG. 1 or the information processing system 103 including the operation terminal 101 and the on-air instruction apparatus 102 shown in FIG. explain.

図3は、図1に示した操作端末101、オンエア指示装置102、あるいは、操作端末101、オンエア指示装置102を含む情報処理システム103に適用可能な情報処理装置のハードウェア構成の一例を示す図である。   FIG. 3 is a diagram illustrating an example of a hardware configuration of an information processing apparatus applicable to the operation terminal 101 and the on-air instruction apparatus 102 illustrated in FIG. 1 or the information processing system 103 including the operation terminal 101 and the on-air instruction apparatus 102. It is.

図3において、301は、CPUで、システムバス304に接続される各デバイスやコントローラを統括的に制御する。また、ROM302あるいは外部メモリ311には、CPU301の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 3, reference numeral 301 denotes a CPU that comprehensively controls each device and controller connected to the system bus 304. Further, the ROM 302 or the external memory 311 has a BIOS (Basic Input / Output System), an operating system program (hereinafter referred to as OS), which is a control program of the CPU 301, and various types of functions described later that are necessary for realizing functions executed by the PC. Programs and so on are stored.

303は、RAMで、CPU301の主メモリ、ワークエリア等として機能する。CPU301は、処理の実行に際して必要なプログラム等をROM302あるいは外部メモリ311からRAM303にロードして、ロードしたプログラムを実行することで各種動作を実現するものである。   A RAM 303 functions as a main memory, work area, and the like for the CPU 301. The CPU 301 implements various operations by loading a program or the like necessary for execution of processing from the ROM 302 or the external memory 311 to the RAM 303 and executing the loaded program.

また、305は入力コントローラで、キーボード(KB)や各操作を受け付ける操作部309(1005、1010、1015)等のポインティングデバイス等からの入力を制御する。306は、ビデオコントローラで、液晶ディスプレイなどの表示部310への表示を制御する。   An input controller 305 controls input from a keyboard (KB) and a pointing device such as an operation unit 309 (1005, 1010, 1015) that receives each operation. A video controller 306 controls display on the display unit 310 such as a liquid crystal display.

307は、メモリコントローラで、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ311へのアクセスを制御する。   A memory controller 307 is an external storage device (hard disk (HD)), a flexible disk (FD), or a PCMCIA card slot that stores a boot program, various applications, font data, user files, editing files, various data, and the like. Controls access to an external memory 311 such as a CompactFlash (registered trademark) memory connected via an adapter.

308は、通信I/Fコントローラで、ネットワークを介して外部機器と無線又は優先で接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F controller 308 is connected or communicated with an external device wirelessly or preferentially via a network, and executes communication control processing on the network. For example, communication using TCP / IP is possible.

なお、CPU301は、例えばRAM303内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、表示部310上での表示を可能としている。また、CPU301は、表示部310上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 301 enables display on the display unit 310 by executing outline font rasterization processing on a display information area in the RAM 303, for example. In addition, the CPU 301 enables a user instruction with a mouse cursor (not shown) on the display unit 310.

本発明を実現するための後述する各種プログラムは、外部メモリ311に記録されており、必要に応じてRAM303にロードされることによりCPU301によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ311に格納されており、これらについての詳細な説明も後述する。   Various programs to be described later for realizing the present invention are recorded in the external memory 311 and are executed by the CPU 301 by being loaded into the RAM 303 as necessary. Further, a setting file used when executing the above program is also stored in the external memory 311, and a detailed description thereof will be described later.

次に、図4を用いて、ネットワークカメラ104又は105について説明する。   Next, the network camera 104 or 105 will be described with reference to FIG.

図4は、飛行中のドローン106と、ネットワークカメラ104、又は105の側面図の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a side view of the drone 106 and the network camera 104 or 105 in flight.

ネットワークカメラ104、105は、ビルなどの建物401の屋上などに設置されているカメラである。ネットワークカメラ104、105は、カメラ本体402と、レンズ403とを備えており、PTZ調整するための部材も備えている。   Network cameras 104 and 105 are cameras installed on the roof of a building 401 such as a building. The network cameras 104 and 105 include a camera body 402 and a lens 403, and also include a member for PTZ adjustment.

図4に示すネットワークカメラ104、又は105は、図4に示すように、ネットワークカメラ104、又は105の水平(点線)から、例えば、下側に30°、チルト動作を行って停止している。このとき、下側に30°、チルト動作を行って停止しているため、チルト角度は、−30°として表す。   As shown in FIG. 4, the network camera 104 or 105 illustrated in FIG. 4 is stopped by performing a tilt operation, for example, 30 ° downward from the horizontal (dotted line) of the network camera 104 or 105. At this time, the tilt angle is expressed as −30 ° because it is stopped by performing a tilt operation of 30 ° downward.

また、図4に示すネットワークカメラの画角(垂直)は、重力方向側面からみた撮影範囲の画角を示している。   Also, the angle of view (vertical) of the network camera shown in FIG. 4 indicates the angle of view of the shooting range viewed from the side surface in the gravity direction.

また、後述するが、ネットワークカメラ画角(水平)は、重力方向上部又は下部から見た撮影範囲の画角を示している(例えば、図5)。   As will be described later, the network camera angle of view (horizontal) indicates the angle of view of the shooting range viewed from the upper or lower direction of gravity (for example, FIG. 5).

ネットワークカメラの画角(垂直)、画角(水平)は、レンズ403のズーム位置電圧から特定することができる。   The angle of view (vertical) and angle of view (horizontal) of the network camera can be specified from the zoom position voltage of the lens 403.

例えば、ネットワークカメラ、又は操作端末101が、図12のズーム/画角データ1203をメモリなどの記憶手段に記憶しており、ネットワークカメラのレンズ403のズーム位置電圧を取得して、その値が、7.0Vである場合には、図12のズーム/画角データ1203から、当該ネットワークカメラの焦点距離(f)が172mmであり、画角(垂直)が1.8°であり、画角(水平)が3.2°であることを特定し、これらの値を取得することができる。その結果、操作端末101は、ネットワークカメラ、又は操作端末101から、ネットワークカメラの画角(垂直)、画角(水平)の値を取得する。   For example, the network camera or the operation terminal 101 stores the zoom / view angle data 1203 of FIG. 12 in a storage unit such as a memory, acquires the zoom position voltage of the lens 403 of the network camera, and the value is In the case of 7.0 V, from the zoom / view angle data 1203 in FIG. 12, the focal length (f) of the network camera is 172 mm, the view angle (vertical) is 1.8 °, and the view angle ( These values can be obtained by specifying that (horizontal) is 3.2 °. As a result, the operation terminal 101 acquires the angle of view (vertical) and angle of view (horizontal) values of the network camera from the network camera or the operation terminal 101.

また、操作端末101は、チルト角度の値についても、ネットワークカメラから取得することができる。   The operation terminal 101 can also acquire the tilt angle value from the network camera.

図4に示すドローン106は、飛行中であり、ネットワークカメラ104、又は105の撮影範囲から外れていることを示している。   The drone 106 shown in FIG. 4 is in flight and is out of the shooting range of the network camera 104 or 105.

図5〜図9に示す図は、地図上に、ネットワークカメラ104、105、飛行中のドローン106のオブジェクトがオーバーレイして表示された地図の一例を示す図である。   The diagrams shown in FIGS. 5 to 9 are diagrams showing examples of maps in which the objects of the network cameras 104 and 105 and the drone 106 in flight are overlaid on the map.

図5〜図9に示す地図は、重力方向上部から見た地図である。   The map shown in FIGS. 5-9 is a map seen from the gravity direction upper part.

図5では、ネットワークカメラ104が、飛行中のドローン106を撮影しており、ネットワークカメラ105は、飛行中のドローン106を撮影していない様子を示している。   In FIG. 5, the network camera 104 is photographing the drone 106 in flight, and the network camera 105 is not photographing the drone 106 in flight.

また、図5〜図9に示す地図は、後述する操作端末101の地図表示画面1002、1007、1012に表示される地図である。   5 to 9 are maps displayed on map display screens 1002, 1007, and 1012 of the operation terminal 101 to be described later.

操作端末101は、ネットワークカメラ104、及びネットワークカメラ105が設置されている位置情報(緯度、経度)、をメモリなどの記憶手段に記憶しており、その位置情報に基づいて特定される、地図上の位置に、ネットワークカメラ104、105のオブジェクトをオーバーレイして表示している。   The operation terminal 101 stores the location information (latitude, longitude) where the network camera 104 and the network camera 105 are installed in a storage means such as a memory, and is identified on the map. The objects of the network cameras 104 and 105 are overlaid and displayed at the position.

また、操作端末101は、各ネットワークカメラから、パンの角度、チルトの角度、画角(水平)、画角(垂直)の値を取得することができるため、その情報に従って、ネットワークカメラ104、105のオブジェクトの向きをずらして表示したり、各ネットワークカメラの撮影範囲を点線などで識別可能に表示することができる。   In addition, since the operation terminal 101 can acquire the pan angle, tilt angle, angle of view (horizontal), and angle of view (vertical) values from each network camera, the network cameras 104 and 105 according to the information. The object can be displayed with the orientation of the object shifted, and the shooting range of each network camera can be displayed with a dotted line or the like.

例えば、図5に示す地図では、ネットワークカメラ104が設置されている位置に、ネットワークカメラ104のオブジェクトが表示され、ネットワークカメラ104から取得したパンの角度(図5に示すパン角度)だけ、ネットワークカメラ104のオブジェクトの向きを北(0°)から東向きに回転させて表示する。このパン角度と方角の対応関係については、図12のパン角度データ1201で対応付けて記憶されており、このパン角度データ1201に基づいて、ネットワークカメラ104のオブジェクトの向き(カメラの向き)の方角を決めてもよい。   For example, in the map shown in FIG. 5, the object of the network camera 104 is displayed at the position where the network camera 104 is installed, and the network camera is set by the pan angle (the pan angle shown in FIG. 5) acquired from the network camera 104. The object 104 is rotated and displayed from north (0 °) to east. The correspondence between the pan angle and the direction is stored in association with the pan angle data 1201 in FIG. 12, and based on the pan angle data 1201, the direction of the object direction (camera direction) of the network camera 104 is determined. You may decide.

そして、ネットワークカメラ104のオブジェクトの向き(カメラの向き)と、ネットワークカメラ104から取得した画角(水平)の値の角度から、ネットワークカメラ104の撮影範囲を図5の点線のように特定し示すことが出来る。また、ネットワークカメラ105についても、同様である。   Then, from the angle of the object of the network camera 104 (camera direction) and the angle of view (horizontal) value acquired from the network camera 104, the shooting range of the network camera 104 is specified and shown as a dotted line in FIG. I can do it. The same applies to the network camera 105.

そして、操作端末101は、飛行中のドローン106から、ドローン106の現在位置の情報(緯度、経度)を取得することができるため、地図上の、ドローン106の現在位置(緯度、経度)に、ドローン106のオブジェクトをオーバーレイして表示する。   And since the operating terminal 101 can acquire the information (latitude and longitude) of the current position of the drone 106 from the drone 106 in flight, the current position (latitude and longitude) of the drone 106 on the map The object of the drone 106 is overlaid and displayed.

操作端末101は、このように、ネットワークカメラ104、105の撮像範囲を、地図上に表示し、また、地図上に、飛行中のドローン106のオブジェクトをオーバーレイして表示することで、飛行中のドローン106が、ネットワークカメラ104、105の撮像範囲に含まれているかを判定することが可能とする。   In this way, the operation terminal 101 displays the imaging ranges of the network cameras 104 and 105 on the map, and displays the object of the drone 106 in flight on the map, thereby displaying the in-flight state. It is possible to determine whether the drone 106 is included in the imaging range of the network cameras 104 and 105.

本実施形態では、まず、図5に示すように、図5に示す位置にドローン106が飛行しており、そのドローン106をネットワークカメラ104が撮影している。その後、ネットワークカメラ104で撮影さている映像がオンエアの映像として使用することが選択された場合には(オンエア指示を受け付けた場合には)、オンエア指示を受けなかった他のネットワークカメラであるネットワークカメラ105が、ドローン106の位置情報をもとに、ドローン106を撮影するようにパン調整、及び/又はチルト調整、及び/又はズーム調整(PTZ調整)を行い、図6に示すように、ネットワークカメラ105が、ドローン106を撮影するように、操作端末101がネットワークカメラ105に指示を送信する。また、それと共に、図6の601に示す飛行方向に、ドローン106が飛行して、ネットワークカメラの撮影範囲外にでるように、操作端末101がドローン106に対して指示を出す。これにより、図7に示すように、ネットワークカメラ105がドローン106を撮影すると共に、ドローン106が、ネットワークカメラ104の撮影範囲外に出る。   In the present embodiment, first, as shown in FIG. 5, the drone 106 is flying at the position shown in FIG. 5, and the network camera 104 captures the drone 106. Thereafter, when it is selected that an image captured by the network camera 104 is used as an on-air image (when an on-air instruction is received), a network camera that is another network camera that has not received the on-air instruction. 105 performs pan adjustment and / or tilt adjustment and / or zoom adjustment (PTZ adjustment) so as to photograph the drone 106 based on the position information of the drone 106, and as shown in FIG. The operation terminal 101 transmits an instruction to the network camera 105 so that 105 captures the drone 106. At the same time, the operation terminal 101 issues an instruction to the drone 106 so that the drone 106 flies in the flight direction indicated by 601 in FIG. As a result, as shown in FIG. 7, the network camera 105 photographs the drone 106 and the drone 106 goes out of the photographing range of the network camera 104.

その結果、ネットワークカメラ104でドローン106が映り込んだ映像を、オンエアする映像として配信することを低減可能にすることができると共に、ネットワークカメラ105の映像で飛行中のドローン106を確認することができるようになる。ネットワークカメラ105の映像で飛行中のドローン106を確認することができるため、例えば、遠くにドローンが飛んでいっても、ドローンを確認し易くなる。   As a result, it is possible to reduce the distribution of the video on which the drone 106 is reflected by the network camera 104 as an on-air video, and it is possible to confirm the drone 106 in flight with the video from the network camera 105. It becomes like this. Since the drone 106 in flight can be confirmed from the image of the network camera 105, for example, even if the drone is flying far away, it is easy to confirm the drone.

その後、図8に示すように、ドローン106が、オンエアする映像を撮影しているネットワークカメラ104の撮影範囲の方向(飛行方向801)に、飛行して来たら、その撮影範囲内に入れないように、操作端末101がドローン106に対して指示を送信することが出来るようになる。また、図9に示すように、撮影範囲よりも所定角度(画角(水平))だけ広いエリアを警告エリア901として設定し、その警告エリア901内にドローン106が、飛行して来たら、警告エリア901外にドローン106を飛行させるように、操作端末101が、ドローン106に対して指示を送信することもできる。   After that, as shown in FIG. 8, if the drone 106 flies in the shooting range direction (flight direction 801) of the network camera 104 that is shooting an on-air image, it is not allowed to enter the shooting range. In addition, the operation terminal 101 can transmit an instruction to the drone 106. As shown in FIG. 9, an area wider than the shooting range by a predetermined angle (view angle (horizontal)) is set as the warning area 901, and if the drone 106 flies in the warning area 901, a warning is given. The operation terminal 101 can also send an instruction to the drone 106 so that the drone 106 flies outside the area 901.

次に、図10を用いて、図1に示した操作端末101の一例について説明する。   Next, an example of the operation terminal 101 shown in FIG. 1 will be described with reference to FIG.

図10は、図1に示した操作端末101の一例を示す図である。   FIG. 10 is a diagram illustrating an example of the operation terminal 101 illustrated in FIG.

図10に示す操作端末101は、ネットワークカメラ104に関しては、ユーザの操作によりネットワークカメラ104のPTZ調整の指示を受け付ける操作部1005と、ネットワークカメラ104が撮影している映像が表示される表示画面1001と、現在のネットワークカメラ104、105、カメラの向き、撮影範囲、ドローン106が地図上にオーバーレイして表示される地図表示画面1002と、ネットワークカメラ104で撮影されている映像がオンエアしている映像として配信されている場合、又は、ネットワークカメラ104で撮影されている映像をオンエアする指示を受け付けた場合に、その旨をユーザに知らせるべく点灯して表示する表示部1003(例えば、LEDランプ)と、ネットワークカメラ104の撮影範囲にドローン106が含まれている場合に、その旨を警告のアラートとしてユーザに知らせるべく点灯して表示する表示部1004と、を備えている。   As for the network camera 104, the operation terminal 101 shown in FIG. 10 has an operation unit 1005 that receives an instruction for PTZ adjustment of the network camera 104 by a user operation, and a display screen 1001 on which an image captured by the network camera 104 is displayed. A map display screen 1002 in which the current network cameras 104 and 105, the camera orientation, the shooting range, and the drone 106 are overlaid on the map, and the video shot by the network camera 104 is on-air A display unit 1003 (for example, an LED lamp) that is lit and displayed to notify the user when an instruction to turn on the video captured by the network camera 104 is received. Shooting range of network camera 104 And in case it contains drones 106, a display unit 1004 for displaying lit to inform the user to that effect as a warning alert, to.

また、同様に、操作端末101は、ネットワークカメラ105に関しては、ユーザの操作によりネットワークカメラ105のPTZ調整の指示を受け付ける操作部1010と、ネットワークカメラ105が撮影している映像が表示される表示画面1006と、現在のネットワークカメラ104、105、カメラの向き、撮影範囲、ドローン106が地図上にオーバーレイして表示される地図表示画面1007と、ネットワークカメラ105で撮影されている映像がオンエアしている映像として配信されている場合、又は、ネットワークカメラ105で撮影されている映像をオンエアする指示を受け付けた場合に、その旨をユーザに知らせるべく点灯して表示する表示部1008(例えば、LEDランプ)と、ネットワークカメラ105の撮影範囲にドローン106が含まれている場合に、その旨を警告のアラートとしてユーザに知らせるべく点灯して表示する表示部1009と、を備えている。   Similarly, with respect to the network camera 105, the operation terminal 101 displays an operation unit 1010 that receives an instruction for PTZ adjustment of the network camera 105 by a user's operation, and a display screen on which video captured by the network camera 105 is displayed. 1006, a map display screen 1007 in which the current network cameras 104 and 105, the camera orientation, the shooting range, and the drone 106 are overlaid on the map, and the video shot by the network camera 105 are on air. A display unit 1008 (for example, an LED lamp) that is lit and displayed to notify the user when an instruction to air the video taken by the network camera 105 is received when the video is distributed as video. And shooting with network camera 105 If it contains drones 106 in circumference, and a display unit 1009 for displaying lit to inform the user to that effect as a warning alert, the.

また、同様に、操作端末101は、ドローン106に関しては、ユーザの操作により、ドローン106の飛行方向等の飛行に係る指示を受け付けると共に、ドローン106のカメラ271のPTZ調整の指示を受け付ける操作部1015と、カメラ271が撮影している映像が表示される表示画面1011と、現在のネットワークカメラ104、105、カメラの向き、撮影範囲、ドローン106が地図上にオーバーレイして表示される地図表示画面1012と、カメラ271で撮影されている映像がオンエアしている映像として配信されている場合、又は、カメラ271で撮影されている映像をオンエアする指示を受け付けた場合に、その旨をユーザに知らせるべく点灯して表示する表示部1013(例えば、LEDランプ)と、オンエアする映像を撮像しているネットワークカメラ104、又は105(オンエア指示を受けたネットワークカメラ)の撮影範囲にドローン106が含まれている場合に、その旨を警告のアラートとしてユーザに知らせるべく点灯して表示する表示部1014と、を備えている。   Similarly, with respect to the drone 106, the operation terminal 101 receives an instruction related to the flight such as the flight direction of the drone 106 and an operation unit 1015 that accepts an instruction for PTZ adjustment of the camera 271 of the drone 106 by the user's operation. And a display screen 1011 on which the video imaged by the camera 271 is displayed, and a map display screen 1012 on which the current network cameras 104 and 105, the camera orientation, the shooting range, and the drone 106 are overlaid on the map. When the video shot by the camera 271 is distributed as an on-air video, or when an instruction to on-air the video shot by the camera 271 is received, the user is notified of this fact. Display unit 1013 that lights up and displays (for example, an LED lamp), and on-air If the drone 106 is included in the shooting range of the network camera 104 or 105 (the network camera that has received the on-air instruction) that captures the image to be recorded, it is lit to inform the user as a warning alert to that effect. A display unit 1014 for displaying.

次に、図11を用いて、図1に示したオンエア指示装置102の一例について説明する。   Next, an example of the on-air indicating device 102 shown in FIG. 1 will be described with reference to FIG.

図11は、図1に示したオンエア指示装置102の一例を示す図である。   FIG. 11 is a diagram illustrating an example of the on-air indicating device 102 illustrated in FIG. 1.

オンエア指示装置102には、ネットワークカメラ104が撮影している映像を表示する表示画面1101と、当該表示画面1101に表示されている映像をオンエアする映像として配信する指示をユーザにより受け付けるスイッチであるオンエアスイッチ1102と、ネットワークカメラ105が撮影している映像を表示する表示画面1103と、当該表示画面1103に表示されている映像をオンエアする映像として配信する指示をユーザにより受け付けるスイッチであるオンエアスイッチ1104と、カメラ271が撮影している映像を表示する表示画面1105と、当該表示画面1105に表示されている映像をオンエアする映像として配信する指示をユーザにより受け付けるスイッチであるオンエアスイッチ1106と、を備えている。   The on-air instruction device 102 is a switch that receives a display screen 1101 for displaying a video captured by the network camera 104 and an instruction for distributing the video displayed on the display screen 1101 as an on-air video. A switch 1102, a display screen 1103 that displays a video captured by the network camera 105, and an on-air switch 1104 that is a switch that accepts an instruction to distribute the video displayed on the display screen 1103 as an on-air video. A display screen 1105 for displaying video captured by the camera 271 and an on-air switch 1106 that is a switch for accepting an instruction to distribute the video displayed on the display screen 1105 as an on-air video. That.

このように、オンエアスイッチ1102と表示画面1101、オンエアスイッチ1104と表示画面1103、オンエアスイッチ1106と表示画面1105が、それぞれ対応付けられている。   Thus, the on-air switch 1102 and the display screen 1101, the on-air switch 1104 and the display screen 1103, and the on-air switch 1106 and the display screen 1105 are associated with each other.

オンエア指示装置102は、ユーザにより、各オンエアスイッチの何れかのスイッチが押下されると、当該スイッチに対応する表示画面に表示されている映像を、オンエアする映像として電波塔の電波送信部107に配信する機能を備えている。   When one of the on-air switches is pressed by the user, the on-air instruction device 102 converts the video displayed on the display screen corresponding to the switch to the radio wave transmission unit 107 of the radio tower as an on-air video. It has a function to deliver.

次に、図13、図14、図15を用いて、情報処理システム103のCPUが実行する処理の一例について説明する。   Next, an example of processing executed by the CPU of the information processing system 103 will be described with reference to FIGS. 13, 14, and 15.

図13、図14、図15は、情報処理システム103のCPUが実行する処理の一例を示すフローチャートである。   13, 14, and 15 are flowcharts illustrating an example of processing executed by the CPU of the information processing system 103.

以下に、動作モード1、動作モード2、動作モード3、動作モード4について説明するが、ここで説明する動作モード1、動作モード2は、ネットワークカメラ104、105に対する操作端末としての動作モードである。そのため、ネットワークカメラごとに、動作モードが操作端末101で設定され操作端末101で動作する。また、動作モード3、動作モード4は、ドローン106、あるいはカメラ271に対する操作端末としての動作モードである。そのため、ドローン106、あるいはカメラ271に、動作モード3、又は動作モード4が操作端末101で設定され操作端末101で動作する。   The operation mode 1, the operation mode 2, the operation mode 3, and the operation mode 4 will be described below. The operation mode 1 and the operation mode 2 described here are operation modes as operation terminals for the network cameras 104 and 105. . Therefore, for each network camera, the operation mode is set on the operation terminal 101 and operates on the operation terminal 101. The operation mode 3 and the operation mode 4 are operation modes as operation terminals for the drone 106 or the camera 271. Therefore, the operation mode 3 or the operation mode 4 is set on the operation terminal 101 for the drone 106 or the camera 271, and the operation terminal 101 operates.

本実施形態では、各ネットワークカメラ、カメラ271で撮影された各映像のデータを、情報処理システム103が常に受信して、当該各映像のデータのうち、オンエア指示装置102のオンエアスイッチで選択されたいずれか1台のカメラで撮影された映像のデータを電波送信部107に配信するものとする。   In this embodiment, the information processing system 103 always receives the data of each video captured by each network camera and camera 271 and is selected by the on-air switch of the on-air instruction device 102 from the data of each video. It is assumed that video data captured by any one camera is distributed to the radio wave transmission unit 107.

情報処理システム103は、まず、各ネットワークカメラがドローンを追尾撮影しない動作モード1で動作する(S1301)。   First, the information processing system 103 operates in the operation mode 1 in which each network camera does not track the drone (S1301).

そして、情報処理システム103は、ドローン106を飛行させる指示を受け付けたか、又は現在、ドローン106が飛行しているかを判定する(S1302)。   Then, the information processing system 103 determines whether an instruction to fly the drone 106 has been received or whether the drone 106 is currently flying (S1302).

情報処理システム103は、S1302で、ドローン106を飛行させる指示を受け付けた、又は現在、ドローン106が飛行していると判定された場合には(S1302:YES)、処理をステップS1303に移行し、S1302で、ドローン106を飛行させる指示を受け付けていない、又は現在、ドローン106が飛行していないと判定された場合には(S1302:NO)、処理をS1321に移行する。   If the information processing system 103 has received an instruction to fly the drone 106 in S1302 or if it is determined that the drone 106 is currently flying (S1302: YES), the process proceeds to step S1303. If it is determined in S1302 that an instruction to fly the drone 106 has not been received or that the drone 106 is not currently flying (S1302: NO), the process proceeds to S1321.

情報処理システム103は、各ネットワークカメラ(ネットワークカメラ104、ネットワークカメラ105)の何れか1つのネットワークカメラを、飛行中のドローンを追尾撮影する動作モード2で動作させているか否かを判定する(S1303)。   The information processing system 103 determines whether any one of the network cameras (the network camera 104 and the network camera 105) is operated in the operation mode 2 for tracking and shooting the drone in flight (S1303). ).

そして、情報処理システム103は、各ネットワークカメラ(ネットワークカメラ104、ネットワークカメラ105)のうち何れか1つのネットワークカメラが、飛行中のドローンを追尾撮影する動作モード2で動作していないと判定された場合には(S1303:NO)、何れか1つのネットワークカメラが飛行中のドローンを追尾撮影する動作モード2で動作する(S1304)。一方、情報処理システム103は、動作モード2で動作していると判定された場合には(S1303:YES)、処理をS1305に移行する。   Then, the information processing system 103 determines that any one of the network cameras (the network camera 104 and the network camera 105) is not operating in the operation mode 2 for tracking and shooting the drone in flight. In this case (S1303: NO), any one of the network cameras operates in the operation mode 2 for tracking and shooting the drone in flight (S1304). On the other hand, if it is determined that the information processing system 103 is operating in the operation mode 2 (S1303: YES), the process proceeds to S1305.

このようにして、飛行中のドローン106を、何れか1つのネットワークカメラが追尾撮影することができるようになる。   In this way, any one of the network cameras can track the drone 106 in flight.

そして、情報処理システム103は、ドローンが、オンエア指示されたネットワークカメラの撮影範囲に入らないように動作する動作モード4で動作しているか否かを判定し(S1305)、動作モード4で動作していないと判定された場合には(NO)、ドローンをネットワークカメラの撮像範囲に入ってもよい動作モード3で動作する。一方、情報処理システム103は、動作モード4で動作していると判定された場合には(YES)、処理をステップS1307に移行する。   Then, the information processing system 103 determines whether or not the drone is operating in the operation mode 4 that operates so as not to enter the shooting range of the network camera instructed to be on-air (S1305), and operates in the operation mode 4. If it is determined that it is not (NO), the drone operates in the operation mode 3 that may enter the imaging range of the network camera. On the other hand, if it is determined that the information processing system 103 is operating in the operation mode 4 (YES), the process proceeds to step S1307.

情報処理システム103は、ユーザにより、オンエア指示装置102のオンエアスイッチ1102、1104、1106のいずれか1つのスイッチの押下を受け付ける。   The information processing system 103 accepts pressing of any one of the on-air switches 1102, 1104, and 1106 of the on-air instruction device 102 by the user.

そして、情報処理システム103は、ユーザにより、オンエア指示装置102のオンエアスイッチ1102、1104のいずれか1つのスイッチの押下を受け付けたかを判定することで、ネットワークカメラの映像のオンエア指示を受け付けたか否かを判定する(S1307)。   Then, the information processing system 103 determines whether or not the user has received an on-air instruction for the video from the network camera by determining whether or not the user has pressed down any one of the on-air switches 1102 and 1104 of the on-air instruction device 102. Is determined (S1307).

そして、情報処理システム103は、ネットワークカメラの映像のオンエア指示を受け付けたと判定された場合には(S1307:YES)、処理をS1308に移行し、ネットワークカメラの映像のオンエア指示を受け付けていないと判定された場合には(S1307:NO)、処理をS1316に移行する。   If it is determined that the network camera video on-air instruction has been received (S1307: YES), the information processing system 103 proceeds to S1308 and determines that the network camera video on-air instruction has not been received. If so (S1307: NO), the process proceeds to S1316.

情報処理システム103は、S1307で、オンエア指示を受け付けたネットワークカメラが、動作モード2(ネットワークカメラが飛行中のドローンを追尾撮影する動作モード)で動作しているか否かを判定する(S1308)。   In step S1307, the information processing system 103 determines whether the network camera that has received the on-air instruction is operating in operation mode 2 (operation mode in which the network camera tracks the drone in flight) (S1308).

そして、情報処理システム103は、オンエア指示を受け付けたネットワークカメラが、動作モード2で動作していると判定された場合には(S1308:YES)、当該オンエア指示を受け付けたネットワークカメラの動作モード2を解除して(S1309)、動作モード1(オンエア指示を受け付けたネットワークカメラがドローンを追尾撮影しない動作モード)で動作する(S1310)。   When it is determined that the network camera that has received the on-air instruction is operating in the operation mode 2 (S1308: YES), the information processing system 103 operates in the operation mode 2 of the network camera that has received the on-air instruction. Is released (S1309) and operates in operation mode 1 (operation mode in which the network camera that has received the on-air instruction does not track the drone) (S1310).

そして、情報処理システム103は、オンエア指示を受け付けていない他のネットワークカメラを動作モード2で動作する(S1311)。   Then, the information processing system 103 operates another network camera that has not received the on-air instruction in the operation mode 2 (S1311).

S1311の制御手段は、映像判定手段により、放送する指示を受け付けた映像が、ネットワークカメラが撮影している映像であると判定された場合、当該映像を撮影しているネットワークカメラではない他のネットワークカメラで、無人飛行機を追尾撮影する。   When the video determination unit determines that the video for which the broadcast instruction has been received is a video captured by the network camera, the control unit of S1311 is not a network camera that is capturing the video. The camera tracks the unmanned airplane.

また、S1311の制御手段は、無人飛行機を撮影している他のネットワークカメラで撮影している映像を放送する指示を受け付けた場合には、当該他のネットワークカメラで、無人飛行機を撮影しない制御、及び、当該他のネットワークカメラとは異なるネットワークカメラで、無人飛行機を撮影する制御を行う。   In addition, when the control unit in S1311 receives an instruction to broadcast an image captured by another network camera that captures an unmanned airplane, the other network camera does not capture the unmanned airplane. In addition, a network camera different from the other network cameras is used to perform control for photographing an unmanned airplane.

情報処理システム103は、ドローン106が、動作モード3(ドローンがネットワークカメラの撮像範囲に入ってもよい動作モード)で動作しているか否かを判定する(S1312)。情報処理システム103は、ドローン106が、動作モード3で動作していると判定された場合には(S1312:YES)、ドローン106に対して動作している動作モード3を解除して(S1313)、ドローンが、オンエア指示を受け付けたネットワークカメラの撮像範囲に入らないようにする動作モード4で動作させる(S1314)。   The information processing system 103 determines whether or not the drone 106 is operating in the operation mode 3 (an operation mode in which the drone may enter the imaging range of the network camera) (S1312). When it is determined that the drone 106 is operating in the operation mode 3 (S1312: YES), the information processing system 103 cancels the operation mode 3 operating on the drone 106 (S1313). The drone is operated in the operation mode 4 that prevents the drone from entering the imaging range of the network camera that has received the on-air instruction (S1314).

そして、情報処理システム103は、オンエア指示を受け付けたネットワークカメラで撮影された映像をオンエアする映像として電波送信部107に配信し(S1315)、処理をS1302に戻す。   Then, the information processing system 103 distributes the video captured by the network camera that has received the on-air instruction to the radio wave transmitting unit 107 as an on-air video (S1315), and returns the process to S1302.

また、情報処理システム103は、ステップS1308において、オンエア指示を受け付けたネットワークカメラが、動作モード2で動作していないと判定された場合(動作モード1で動作していると判定された場合)には(S1308:NO)、処理をS1312に移行する。   The information processing system 103 also determines in step S1308 that the network camera that has received the on-air instruction is not operating in the operation mode 2 (when it is determined that the network camera is operating in the operation mode 1). (S1308: NO), the process proceeds to S1312.

また、情報処理システム103は、ステップS1312において、ドローン106が、動作モード3で動作していないと判定された場合(動作モード4で動作していると判定された場合)には(S1312:NO)、処理をステップS1315に移行する。   Further, in step S1312, the information processing system 103 determines that the drone 106 is not operating in the operation mode 3 (when it is determined that the drone 106 is operating in the operation mode 4) (S1312: NO). ), The process proceeds to step S1315.

情報処理システム103は、ユーザにより、オンエア指示装置102のオンエアスイッチ1106のスイッチの押下を受け付けたかを判定することで、ドローン106のカメラ271の映像のオンエア指示を受け付けたか否かを判定する(S1316)。   The information processing system 103 determines whether or not the user has received an on-air instruction for the video of the camera 271 of the drone 106 by determining whether or not the user has pressed the switch of the on-air switch 1106 of the on-air instruction device 102 (S1316). ).

そして、情報処理システム103は、ドローン106のカメラ271の映像のオンエア指示を受け付けたと判定された場合には(S1316:YES)、処理をS1317に移行し、一方、ドローン106のカメラ271の映像のオンエア指示を受け付けていないと判定された場合には(S1316:NO)、いずれのオンエアスイッチも押下されていないと判定して、処理をS1302に戻す。   If it is determined that the on-air instruction for the video of the camera 271 of the drone 106 has been received (S1316: YES), the information processing system 103 proceeds to S1317, while the video of the video of the camera 271 of the drone 106 is displayed. If it is determined that an on-air instruction has not been received (S1316: NO), it is determined that no on-air switch has been pressed, and the process returns to S1302.

S1307、S1316は、本発明の放送映像判定手段の適用例であり、放送する指示を受け付けた映像が、無人飛行機が備えるカメラが撮影している映像であるか、ネットワークカメラが撮影している映像であるかを判定する。   S1307 and S1316 are application examples of the broadcast video determination means of the present invention, and the video that has received an instruction to broadcast is a video taken by a camera included in an unmanned airplane or a video taken by a network camera. It is determined whether it is.

情報処理システム103は、ドローン106が、動作モード4で動作しているか否かを判定し(S1317)、ドローン106が、動作モード4で動作していると判定された場合には(YES)、ドローン106の動作モード4(ドローンが、オンエア指示されたネットワークカメラの撮影範囲に入らないように動作する動作モード)を解除し(S1318)、ドローン106を動作モード3(ドローンがネットワークカメラの撮像範囲に入ってもよい動作モード)で動作させる(S1319)。   The information processing system 103 determines whether or not the drone 106 is operating in the operation mode 4 (S1317). If it is determined that the drone 106 is operating in the operation mode 4 (YES), The operation mode 4 of the drone 106 (operation mode in which the drone does not enter the photographing range of the network camera instructed to be on-air) is canceled (S1318), and the drone 106 is operated in operation mode 3 (the imaging range of the network camera of the drone). In an operation mode that may be entered) (S1319).

これにより、オンエア指示されたドローンが、ネットワークカメラの撮像範囲に入ることができるようになる。   As a result, the drone instructed to be on air can enter the imaging range of the network camera.

このように、情報処理システム103は、放送映像判定手段により、放送する指示を受け付けた映像が、無人飛行機が備えるカメラが撮影している映像であると判定された場合には、ネットワークカメラで撮影される撮像範囲内、又はその近傍の位置に、無人飛行機が飛行していると判定される場合であっても、無人飛行機を、ネットワークカメラで撮影される撮像範囲外の位置、又は当該撮像範囲の近傍の位置から離れた位置に、飛行させる制御を行わないように制御する。   In this way, the information processing system 103 shoots with the network camera when the broadcast video determination unit determines that the video for which the broadcast instruction has been received is a video taken by a camera included in the unmanned airplane. Even if it is determined that the unmanned airplane is flying in a position within or near the imaging range, the position outside the imaging range where the unmanned airplane is photographed by the network camera, or the imaging range Control is performed so that the flight control is not performed at a position away from a position in the vicinity of.

すなわち、情報処理システム103は、放送映像判定手段により、放送するための指示を受け付けた映像が、ネットワークカメラが撮影している映像であると判定された場合で、かつ、無人飛行機がネットワークカメラに撮影される位置を飛行している場合には、ネットワークカメラに撮影されない位置を飛行するように無人飛行機の飛行を制御し、一方、放送映像判定手段により、放送するための指示を受け付けた映像が、無人飛行機が備えるカメラが撮影している映像であると判定された場合には、ネットワークカメラに撮影される位置を飛行するように無人飛行機の飛行を制御する。   That is, in the information processing system 103, when the broadcast video determination unit determines that the video for which the instruction for broadcasting has been received is a video shot by the network camera, and the unmanned airplane is the network camera. When flying at a shooting position, the flight of the unmanned airplane is controlled so as to fly at a position not shot by the network camera. If it is determined that the image taken by the camera of the unmanned airplane is a picture taken by the unmanned airplane, the flight of the unmanned airplane is controlled so as to fly at the position photographed by the network camera.

そして、情報処理システム103は、オンエア指示を受け付けたドローンのカメラ271で撮影された映像をオンエアする映像として、電波送信部107に配信(送信)し(S1320)、処理をS1302に戻す。   Then, the information processing system 103 distributes (transmits) the video captured by the drone camera 271 that has received the on-air instruction as an on-air video to the radio wave transmission unit 107 (S1320), and returns the process to S1302.

また、情報処理システム103は、S1302で、ドローン106を飛行させる指示を受け付けていない、又は現在、ドローン106が飛行していないと判定された場合には(S1302:NO)、動作モード2で動作(操作)しているネットワークカメラがあるか否かを判定する(S1321)。そして、情報処理システム103は、動作モード2で動作(操作)しているネットワークカメラがあると判定された場合には(S1321:YES)、動作モード2で動作(操作)しているネットワークカメラを、動作モード1(ネットワークカメラがドローンを追尾撮影しない動作モード)で動作させる(S1322)。
情報処理システム103は、動作モード2で動作(操作)しているネットワークカメラがないと判定された場合(全ての各ネットワークカメラが動作モード1で動作していると判定された場合)には(S1321:NO)、処理をS1307に移行する。
In S1302, the information processing system 103 operates in the operation mode 2 when it is determined that the instruction to fly the drone 106 is not accepted or the drone 106 is not currently flying (S1302: NO). It is determined whether or not there is a network camera being operated (S1321). If it is determined that there is a network camera operating (operating) in the operation mode 2 (S1321: YES), the information processing system 103 selects a network camera operating (operating) in the operation mode 2. The operation is performed in the operation mode 1 (operation mode in which the network camera does not track the drone) (S1322).
When it is determined that there is no network camera operating (operating) in the operation mode 2 (when it is determined that all the network cameras are operating in the operation mode 1), the information processing system 103 ( S1321: NO), the process proceeds to S1307.

このように、S1307で、ネットワークカメラの映像のオンエア指示を受け付けたと判定された場合に、S1314で、ドローンが、オンエア指示を受け付けたネットワークカメラの撮像範囲に入らないようにする動作モード4で動作させるので、ネットワークカメラ104でドローン106が映り込んだ映像を、オンエアする映像として配信することを低減可能にすることができる。   As described above, when it is determined in S1307 that the on-air instruction for the network camera image has been received, in S1314, the drone operates in the operation mode 4 so as not to enter the imaging range of the network camera that has received the on-air instruction. Therefore, it is possible to reduce the distribution of the video on which the drone 106 is reflected by the network camera 104 as an on-air video.

また、情報処理システム103は、S1311で、オンエア指示を受け付けていない他のネットワークカメラを動作モード2(ネットワークカメラが飛行中のドローンを追尾撮影する動作モード)で動作するので、ネットワークカメラ105の映像で飛行中のドローン106を確認することができるようになる。   In S1311, the information processing system 103 operates another network camera that has not received an on-air instruction in the operation mode 2 (an operation mode in which the network camera tracks the drone in flight). It becomes possible to confirm the drone 106 in flight.

次に、図14を用いて、情報処理システム103が、各動作モードで実行する処理について説明する。   Next, processing executed by the information processing system 103 in each operation mode will be described with reference to FIG.

図14は、情報処理システム103が、各動作モードで実行する処理を示すフローチャートの一例である。   FIG. 14 is an example of a flowchart illustrating processing executed by the information processing system 103 in each operation mode.

図14に示す処理は、図13に示す処理と並列で実行されるものとする。   The process shown in FIG. 14 is executed in parallel with the process shown in FIG.

まず、動作モード1での操作端末101の動作処理について説明する。   First, the operation process of the operation terminal 101 in the operation mode 1 will be described.

情報処理システム103は、各ネットワークカメラ(104、105)、ドローン106のカメラ271で撮影された各映像を、それぞれのカメラに対応する、操作端末101の表示画面1001、1006、1011、オンエア指示装置102の表示画面1101、1103、1105に表示する。また、情報処理システム103は、各ネットワークカメラ、ドローンの飛行位置の位置に、それぞれに対応するオブジェクトを地図上にオーバーレイして、操作端末101の地図表示画面1002、1007、1012に表示する(S1401)。   The information processing system 103 includes display images 1001, 1006, 1011, an on-air instruction device of the operation terminal 101 that correspond to the respective cameras captured by the network cameras (104, 105) and the camera 271 of the drone 106. 102 display screens 1101, 1103, 1105. Further, the information processing system 103 overlays objects corresponding to the flight positions of the network cameras and the drone on the map and displays them on the map display screens 1002, 1007, and 1012 of the operation terminal 101 (S1401). ).

S1401の詳細処理は、図15を用いて説明する。   Detailed processing in S1401 will be described with reference to FIG.

図15は、S1401、後述するS1406、S1409、S1412の詳細処理の一例を示すフローチャートである。   FIG. 15 is a flowchart showing an example of detailed processing of S1401, S1406, S1409, and S1412 described later.

次に、図15を用いて、S1401の詳細処理について説明する。   Next, detailed processing of S1401 will be described with reference to FIG.

まず、情報処理システム103は、各ネットワークカメラのパン角度の情報であるパン位置情報、チルト角度であるチルト位置情報、ズーム位置電圧を、各ネットワークカメラから取得する。そして、情報処理システム103は、メモリ等の記憶手段に記憶されているズーム/画角データ1203を参照して、当該ズーム位置電圧に対応する画角(水平)、画角(垂直)の値を取得する(S1501)。   First, the information processing system 103 acquires pan position information, which is information about the pan angle of each network camera, tilt position information, which is a tilt angle, and a zoom position voltage from each network camera. Then, the information processing system 103 refers to the zoom / view angle data 1203 stored in the storage unit such as a memory, and determines the values of the view angle (horizontal) and the view angle (vertical) corresponding to the zoom position voltage. Obtain (S1501).

そして、情報処理システム103は、ドローン106の飛行位置(現在位置)の情報(ドローン106の緯度、経度の情報)を、ドローン106から取得する(S1502)。   Then, the information processing system 103 acquires information on the flight position (current position) of the drone 106 (latitude and longitude information of the drone 106) from the drone 106 (S1502).

また、情報処理システム103は、各ネットワークカメラ(104、105)、ドローン106のカメラ271で撮影された各映像のデータを、それぞれのカメラから取得する(S1503)。   Further, the information processing system 103 acquires data of each video captured by each network camera (104, 105) and the camera 271 of the drone 106 from each camera (S1503).

そして、情報処理システム103は、S1503で取得したデータの各映像を、それぞれのカメラに対応する、操作端末101の表示画面1001、1006、1011、オンエア指示装置102の表示画面1101、1103、1105に表示する(S1504)。   Then, the information processing system 103 displays each image of the data acquired in S1503 on the display screens 1001, 1006, 1011 of the operation terminal 101 and the display screens 1101, 1103, 1105 of the on-air instruction device 102 corresponding to the respective cameras. It is displayed (S1504).

また、情報処理システム103は、ネットワークカメラ104、及びネットワークカメラ105が設置されている位置情報(緯度、経度)をメモリなどの記憶手段に記憶しており、その位置情報に基づいて特定される、地図上の位置に、ネットワークカメラ104、105のオブジェクトをオーバーレイして表示する。   The information processing system 103 stores the network camera 104 and position information (latitude, longitude) where the network camera 105 is installed in a storage unit such as a memory, and is specified based on the position information. The objects of the network cameras 104 and 105 are overlaid and displayed at positions on the map.

また、情報処理システム103は、S1501で取得した、パンの角度、チルトの角度、画角(水平)、画角(垂直)の値に従って、ネットワークカメラ104、105のオブジェクトの向きをずらして表示したり、各ネットワークカメラの撮影範囲を点線などで識別可能に表示する。   Further, the information processing system 103 displays the object of the network cameras 104 and 105 while shifting the direction according to the pan angle, tilt angle, field angle (horizontal), and field angle (vertical) values acquired in step S1501. In addition, the shooting range of each network camera is displayed so that it can be identified by a dotted line.

また、情報処理システム103は、S1502で取得した、飛行中のドローン106の現在位置の情報(緯度、経度)(飛行位置)に示される地図上の位置に、ドローン106のオブジェクトをオーバーレイして表示する(S1505)。そして、処理を戻す。   Further, the information processing system 103 overlays and displays the drone 106 object at the position on the map indicated by the current position information (latitude, longitude) (flight position) of the drone 106 in flight acquired in S1502. (S1505). Then, the process is returned.

S1505は、本発明の表示手段の適用例であり、例えば、図5〜8に示すように、無人飛行機の飛行位置、ネットワークカメラの位置、及びネットワークカメラの撮影範囲を地図上(マップ上)に識別可能に表示する。   S1505 is an application example of the display means of the present invention. For example, as shown in FIGS. 5 to 8, the flight position of the unmanned airplane, the position of the network camera, and the shooting range of the network camera are displayed on the map (on the map). Display identifiable.

また、表示手段は、図5〜8に示す表示画面の地図上に、無人飛行機の飛行位置から、オンエア中の映像が撮影されているネットワークカメラの撮影範囲までの距離を重畳表示することもできる。   The display unit can also superimpose and display the distance from the flight position of the unmanned airplane to the shooting range of the network camera on which the on-air video is shot on the map of the display screen shown in FIGS. .

具体的には、情報処理システム103の算出手段が、無人飛行機の飛行位置、オンエア中の映像が撮影されているネットワークカメラの位置、及びネットワークカメラのパン、チルト、ズームの値(設定値)に従って、無人飛行機の飛行位置から、ネットワークカメラの撮影範囲までの距離を算出することができる。このようにして、算出された距離(値)を、図5〜8に示す表示画面の地図上に表示するようにしてもよい。例えば、無人飛行機を操作する操作端末の表示画面(図5〜8に示す表示画面の地図上)に、「北方向8m先にネットワークカメラの撮影範囲(飛行禁止領域)があります。」などのメッセージを表示してもよい。このように、ドローンから、ネットワークカメラの撮影範囲への方向を表示するようにしてもよい。   Specifically, the calculation means of the information processing system 103 determines the flight position of the unmanned airplane, the position of the network camera where the on-air image is taken, and the network camera pan, tilt, and zoom values (setting values). The distance from the flight position of the unmanned airplane to the shooting range of the network camera can be calculated. Thus, the calculated distance (value) may be displayed on the map of the display screen shown in FIGS. For example, a message such as “There is a network camera shooting range (flying prohibited area) 8 meters ahead in the north direction” on the display screen (on the map of the display screen shown in FIGS. 5 to 8) of the operation terminal that operates the unmanned airplane. May be displayed. In this way, the direction from the drone to the shooting range of the network camera may be displayed.

図16は、図8の地図上に、「北方向8m先にネットワークカメラの撮影範囲(飛行禁止領域)があります。」というメッセージを表示した画面の一例である。   FIG. 16 is an example of a screen displaying a message “There is a network camera shooting range (flying prohibited area) 8 meters ahead in the north direction” on the map of FIG. 8.

次に、図14の、動作モード1での操作端末101の動作処理の説明に戻る。   Next, the description returns to the operation process of the operation terminal 101 in the operation mode 1 in FIG.

情報処理システム103は、オンエアの指示を受けたネットワークカメラの撮像範囲内(又はその近傍)にドローンがいるか(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいるか)を判定する(S1402)。ここで、例えば、S1402では、地図上にネットワークカメラ104、105の撮像範囲が表示されると共に、地図上に、飛行中のドローン106のオブジェクトをオーバーレイして表示するため、オンエアの指示を受けたネットワークカメラの撮像範囲内(又はその近傍)に、ドローン106がオーバーレイして表示されているか否かを判定することで、オンエアの指示を受けたネットワークカメラの撮像範囲内(又はその近傍)にドローンがいるか(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいるか/映り込んでしまうか)を判定する。   The information processing system 103 determines whether there is a drone within (or in the vicinity of) the imaging range of the network camera that has received the on-air instruction (whether the drone is reflected in the network camera that has received the on-air instruction) (S1402). ). Here, for example, in S1402, the imaging range of the network cameras 104 and 105 is displayed on the map, and an on-air instruction is received to overlay and display the object of the drone 106 in flight on the map. By determining whether or not the drone 106 is overlaid and displayed within the imaging range of the network camera (or the vicinity thereof), the drone is within the imaging range (or the vicinity thereof) of the network camera that has received the on-air instruction. It is determined whether there is a drone (whether or not the drone is reflected in the network camera that has received the on-air instruction).

そして、情報処理システム103は、S1402で、オンエアの指示を受けたネットワークカメラの撮像範囲内(又はその近傍)にドローンがいる(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいる)と判定された場合には(YES)、オンエアの指示を受けたネットワークカメラの撮像範囲内(又はその近傍)にドローンがいる(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいる/映り込んでしまう)アラートを、オンエアの指示を受けたネットワークカメラの操作者であるユーザに、通知する(S1403)。ここでは、オンエアの指示を受けたネットワークカメラの操作端末101(操作端末101A、又は操作端末101B)の警告(アラート)の表示部(1004、又は1009)を点灯することで通知する。   In S1402, the information processing system 103 has a drone within (or in the vicinity of) the imaging range of the network camera that has received the on-air instruction (the drone is reflected in the network camera that has received the on-air instruction). If it is determined (YES), there is a drone within (or in the vicinity of) the imaging range of the network camera that has received the on-air instruction (the drone is reflected in the network camera that has received the on-air instruction / An alert that is reflected) is notified to the user who is the operator of the network camera that has received the on-air instruction (S1403). Here, notification is performed by turning on a warning (alert) display unit (1004 or 1009) of the operation terminal 101 (operation terminal 101A or operation terminal 101B) of the network camera that has received the on-air instruction.

このように、S1403は、本発明の通知手段の適用例であり、無人飛行機がネットワークカメラに撮影されている場合には、ネットワークカメラに無人飛行機が撮影されていることをユーザに知らせるべく通知する。   Thus, S1403 is an application example of the notification means of the present invention, and when an unmanned airplane is photographed by a network camera, the network camera is notified to inform the user that the unmanned airplane is photographed. .

また、S1403は、本発明の通知手段の適用例であり、無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、無人飛行機がネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する。   S1403 is an application example of the notification means of the present invention. When an unmanned airplane is flying in the vicinity of the position photographed by the network camera, the vicinity of the position where the unmanned airplane is photographed by the network camera is displayed. Notify the user that they are flying.

情報処理システム103は、S1402で、オンエアの指示を受けたネットワークカメラの撮像範囲内(又はその近傍)にドローンがいない(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいない)と判定された場合には(NO)、処理をステップS1404に移行する。   In S1402, the information processing system 103 determines that there is no drone within (or in the vicinity of) the imaging range of the network camera that has received the on-air instruction (the drone is not reflected in the network camera that has received the on-air instruction). If yes (NO), the process proceeds to step S1404.

情報処理システム103は、動作モード1で動作するネットワークカメラの操作端末(101A、又は101B)の操作部(1005、又は1010)を用いて、ネットワークカメラのPTZ調整の操作指示を受け付ける(S1404)。   The information processing system 103 receives an operation instruction for PTZ adjustment of the network camera using the operation unit (1005 or 1010) of the operation terminal (101A or 101B) of the network camera operating in the operation mode 1 (S1404).

そして、情報処理システム103は、S1404で操作指示を受け付けた内容で、操作を受け付けた操作部のネットワークカメラのPTZ調整を行い、ネットワークカメラの撮影位置、及び撮影範囲を変更する(S1405)。そして、処理をS1401に戻す。   Then, the information processing system 103 performs PTZ adjustment of the network camera of the operation unit that has received the operation with the content of the operation instruction received in S1404, and changes the shooting position and shooting range of the network camera (S1405). Then, the process returns to S1401.

このように、動作モード1で動作するネットワークカメラの操作端末では、当該ネットワークカメラが、ドローンを追尾撮影することは行わずに、ユーザが、任意の操作で、ネットワークカメラのPTZ調整を行うことが出来ると共に、オンエアの指示を受けたネットワークカメラの撮像範囲内にドローンがいる(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいる/映り込んでしまう)場合には、その旨のアラートを、オンエアの指示を受けたネットワークカメラの操作者であるユーザに、通知することができるようになる。   As described above, in the operation terminal of the network camera that operates in the operation mode 1, the network camera does not perform the tracking shooting of the drone, but the user can perform the PTZ adjustment of the network camera by an arbitrary operation. If there is a drone within the imaging range of the network camera that has received the on-air instruction (the drone is reflected in or reflected in the network camera that has received the on-air instruction), an alert to that effect Can be notified to the user who is the operator of the network camera who has received the on-air instruction.

次に、動作モード2での操作端末101の動作処理について説明する。   Next, the operation process of the operation terminal 101 in the operation mode 2 will be described.

動作モード2で動作するネットワークカメラの操作端末101は、飛行するドローン106を自動的に追尾して撮影する追尾撮影を行う。   The operation terminal 101 of the network camera operating in the operation mode 2 performs tracking shooting for automatically tracking and shooting the flying drone 106.

まず、情報処理システム103は、まず、S1401と同様の処理(撮影映像、及び地図の表示処理)を実行する(S1406)。S1406の詳細処理は、図15を用いて、既に説明しているため、ここでは、説明を省略する。   First, the information processing system 103 first executes processing similar to S1401 (photographed video and map display processing) (S1406). Since the detailed processing of S1406 has already been described with reference to FIG. 15, the description thereof is omitted here.

また、情報処理システム103は、動作モード2で動作しているネットワークカメラの操作端末101は、当該ネットワークカメラの撮影範囲内、又は撮影中心付近にドローン106がいるか(当該ネットワークカメラにドローン106が撮影されているか)を判定する(S1407)。ここでは、S1503で取得した、当該ネットワークカメラが撮影された映像を画像解析することで、ネットワークカメラの撮影範囲内、又は撮影中心付近にドローン106がいるか(当該ネットワークカメラにドローン106が撮影されているか)を判定してもよいし、当該ネットワークカメラの設置位置(緯度、経度の情報)、当該ネットワークカメラの、パン角度、チルト角度、各画角と、ドローンの現在の飛行位置とから、当該ネットワークカメラの撮影範囲内、又は撮影中心付近にドローン106がいるか(当該ネットワークカメラにドローン106が撮影されているか)を判定してもよい。   Further, in the information processing system 103, the operation terminal 101 of the network camera operating in the operation mode 2 has a drone 106 within the photographing range of the network camera or near the photographing center (the drone 106 is photographed by the network camera). (S1407). Here, by analyzing the image captured by the network camera acquired in S1503, whether the drone 106 is within the shooting range of the network camera or near the shooting center (the drone 106 is shot by the network camera). From the installation position (latitude and longitude information) of the network camera, the pan angle, tilt angle, each angle of view of the network camera, and the current flight position of the drone. It may be determined whether the drone 106 is in the shooting range of the network camera or near the shooting center (whether the drone 106 is shot by the network camera).

そして、情報処理システム103は、S1407で、当該ネットワークカメラの撮影範囲内、又は撮影中心付近にドローン106がいる(当該ネットワークカメラにドローン106が撮影されている)と判定された場合には(YES)、処理をS1406に戻す。また、当該ネットワークカメラの撮影範囲内、又は撮影中心付近にドローン106がいない(当該ネットワークカメラにドローン106が撮影されていない)と判定された場合には(NO)、ネットワークカメラの撮影範囲内、又は撮影中心位置付近にドローン106がくるように、ネットワークカメラのPTZ調整を自動的に行い、ネットワークカメラの撮影位置、及び撮影範囲を変更する(当該ネットワークカメラにその指示を行う)(S1408)。これにより、情報処理システム103は、当該ネットワークカメラが、飛行しているドローン106を自動的に追尾して撮影するように、PTZ調整の操作指示を当該ネットワークカメラに対して行うことができる。そして、処理をS1406に戻す。   If the information processing system 103 determines in S1407 that the drone 106 is within the shooting range of the network camera or near the shooting center (the drone 106 is shot by the network camera) (YES). ), The process returns to S1406. If it is determined that there is no drone 106 in the shooting range of the network camera or near the shooting center (the drone 106 is not shot in the network camera) (NO), within the shooting range of the network camera, Alternatively, the PTZ adjustment of the network camera is automatically performed so that the drone 106 comes near the shooting center position, and the shooting position and shooting range of the network camera are changed (the network camera is instructed) (S1408). As a result, the information processing system 103 can instruct the network camera to operate the PTZ adjustment so that the network camera automatically tracks and shoots the drone 106 that is flying. Then, the process returns to S1406.

次に、動作モード3での操作端末101の動作処理について説明する。   Next, the operation process of the operation terminal 101 in the operation mode 3 will be described.

動作モード3で動作するドローン106の操作端末101は、ユーザが、任意の操作で、ドローン106の飛行方向等の飛行に係る操作指示や、カメラ271のPTZ調整を行うことができる。このとき、ドローン106は、ネットワークカメラの撮像範囲に入ってもよい。   The operation terminal 101 of the drone 106 operating in the operation mode 3 allows the user to perform operation instructions related to the flight such as the flight direction of the drone 106 and PTZ adjustment of the camera 271 by any operation. At this time, the drone 106 may enter the imaging range of the network camera.

まず、情報処理システム103は、まず、S1401、S1406と同様の処理(撮影映像、及び地図の表示処理)を実行する(S1409)。S1409の詳細処理は、図15を用いて、既に説明しているため、ここでは、説明を省略する。   First, the information processing system 103 first executes processing similar to S1401 and S1406 (photographed video and map display processing) (S1409). Since the detailed processing of S1409 has already been described with reference to FIG. 15, the description thereof is omitted here.

次に、情報処理システム103は、動作モード3で動作するドローン106、カメラ271の操作端末(101C)の操作部(1015)を用いて、ドローン106の飛行に係る操作指示や、カメラ271のPTZ調整の操作指示を受け付ける(S1410)。   Next, the information processing system 103 uses the operation unit (1015) of the operation terminal (101C) of the drone 106 operating in the operation mode 3 and the operation terminal (101C) of the camera 271, and the operation instruction related to the flight of the drone 106 or the PTZ of the camera 271. An adjustment operation instruction is accepted (S1410).

そして、情報処理システム103は、S1410で操作指示を受け付けた内容で、ドローン106の飛行(方向等)の制御を行い、カメラ271のPTZ調整を行う。そして、カメラ271の撮影位置、及び撮影範囲を変更する(S1411)。そして、処理をS1409に戻す。   Then, the information processing system 103 controls the flight (direction, etc.) of the drone 106 and adjusts the PTZ of the camera 271 with the content of the operation instruction received in S1410. Then, the shooting position and shooting range of the camera 271 are changed (S1411). Then, the process returns to S1409.

このように、動作モード3で動作するドローン106、カメラ271の操作端末(101C)では、ドローンをネットワークカメラの撮像範囲に入ることを許容し、ユーザが、任意の操作で、ドローン106の飛行(方向等)の制御を行い、カメラ271のPTZ調整を行うことが出来るようになる。   As described above, the operation terminal (101C) of the drone 106 and the camera 271 operating in the operation mode 3 allows the drone to enter the imaging range of the network camera, and the user can perform the flight ( Direction) and the like, and the PTZ adjustment of the camera 271 can be performed.

次に、動作モード4での操作端末101の動作処理について説明する。   Next, the operation process of the operation terminal 101 in the operation mode 4 will be described.

動作モード4で動作するドローン106の操作端末101は、オンエアの指示を受けたネットワークカメラの撮像範囲内にドローンがいる(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいる)場合に、その旨のアラートを通知して、当該撮像範囲外にドローンに移動させるよう自動又は手動で飛行させる。   The operation terminal 101 of the drone 106 operating in the operation mode 4 has a drone within the imaging range of the network camera that has received the on-air instruction (the drone is reflected in the network camera that has received the on-air instruction). Then, an alert to that effect is notified, and the aircraft is caused to fly automatically or manually so that the drone moves outside the imaging range.

まず、情報処理システム103は、まず、S1401、S1406、S1409と同様の処理(撮影映像、及び地図の表示処理)を実行する(S1412)。S1412の詳細処理は、図15を用いて、既に説明しているため、ここでは、説明を省略する。   First, the information processing system 103 first executes processing similar to S1401, S1406, and S1409 (photographed video and map display processing) (S1412). Since the detailed processing of S1412 has already been described with reference to FIG. 15, description thereof is omitted here.

また、情報処理システム103は、S1402と同様に、オンエアの指示を受けたネットワークカメラの撮像範囲内にドローンがいるか(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいるか)を判定する(S1413)。   Similarly to S1402, the information processing system 103 determines whether there is a drone within the imaging range of the network camera that has received the on-air instruction (whether the drone is reflected in the network camera that has received the on-air instruction). (S1413).

S1413は、本発明の判定手段の適用例であり、ネットワークカメラで撮影される撮像範囲内、又は当該撮像範囲の近傍の位置に、ドローン等の無人飛行機が飛行しているかを判定する。   S1413 is an application example of the determination means of the present invention, and it is determined whether an unmanned airplane such as a drone is flying in an imaging range photographed by a network camera or in a position near the imaging range.

撮像範囲の近傍の位置とは、例えば、図9に示した警告エリア901と撮像範囲との間の位置のことであり、S1413では、この警告エリア901内の位置に、ドローン等の無人飛行機が飛行しているかを判定することもできる。   The position in the vicinity of the imaging range is, for example, a position between the warning area 901 and the imaging range shown in FIG. 9. In S1413, an unmanned airplane such as a drone is located at the position in the warning area 901. You can also determine if you are flying.

S1314で、オンエア指示を受けたネットワークカメラを動作モード4で動作させるため、S1413の判定手段は、複数のネットワークカメラのうち、放送する指示を受け付けた映像を撮影しているネットワークカメラの撮像範囲内、又は当該撮像範囲の近傍の位置に、無人飛行機が飛行しているかを判定する。   In order to operate the network camera that has received the on-air instruction in operation mode 4 in S1314, the determination unit in S1413 is within the imaging range of the network camera that is capturing the video that has received the instruction to broadcast among the plurality of network cameras. Or, it is determined whether an unmanned airplane is flying at a position in the vicinity of the imaging range.

そして、情報処理システム103は、S1413で、オンエアの指示を受けたネットワークカメラの撮像範囲内(又はその近傍)にドローンがいる(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいる)と判定された場合には(YES)、オンエアの指示を受けたネットワークカメラの撮像範囲内にドローンがいる(オンエアの指示を受けたネットワークカメラに、ドローンが映り込んでいる/映り込んでしまう)アラートを、ドローン106の操作端末101Cを操作しているユーザに、通知する(S1414)。ここでは、ドローン106の操作端末101Cの警告(アラート)の表示部(1014)を点灯することで通知する。   In step S <b> 1413, the information processing system 103 has a drone within (or in the vicinity of) the imaging range of the network camera that has received the on-air instruction (the drone is reflected in the network camera that has received the on-air instruction). If it is determined (YES), there is a drone within the imaging range of the network camera that has received the on-air instruction (the drone is reflected / reflected in the network camera that has received the on-air instruction). An alert is notified to the user who is operating the operation terminal 101C of the drone 106 (S1414). Here, notification is made by turning on the warning (alert) display section (1014) of the operation terminal 101C of the drone 106.

ステップS1414は、本発明の通知手段の適用例であり、無人飛行機がネットワークカメラに撮影されている場合には、ネットワークカメラに無人飛行機が撮影されていることをユーザに知らせるべく通知する。また、無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、無人飛行機がネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する。   Step S1414 is an application example of the notification means of the present invention. When an unmanned airplane is photographed by the network camera, the network camera is notified to inform the user that the unmanned airplane is photographed. Further, when the unmanned airplane is flying near the position photographed by the network camera, the user is notified to inform the user that the unmanned airplane is flying near the position photographed by the network camera.

そして、情報処理システム103は、オンエアの指示を受けたネットワークカメラの撮像範囲外にドローンを飛行させる(S1415)。   Then, the information processing system 103 causes the drone to fly out of the imaging range of the network camera that has received the on-air instruction (S1415).

ここでは、自動的に、オンエアの指示を受けたネットワークカメラの撮像範囲外にドローンを飛行させる、又は、ユーザの手動で、オンエアの指示を受けたネットワークカメラの撮像範囲外にドローンを飛行させる方向に対してのみ、ドローンの飛行指示を受け付けるようにする。例えば、オンエアの指示を受けたネットワークカメラの設置位置(緯度、経度の情報)と、ドローンの現在の飛行位置との直線上と直交(交差)する方向にドローンを飛行させることで、オンエアの指示を受けたネットワークカメラの撮像範囲外にドローンを飛行させることができる。   Here, the direction to automatically fly the drone outside the imaging range of the network camera that has received the on-air instruction, or to manually fly the drone outside the imaging range of the network camera that has received the on-air instruction Only for drones to receive flight instructions. For example, by sending a drone in a direction perpendicular to (intersecting) the straight line between the installation position (latitude and longitude information) of the network camera that received the on-air instruction and the current flight position of the drone, the on-air instruction The drone can fly outside the imaging range of the received network camera.

このように、制御手段は、無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、ネットワークカメラに撮影されない位置に向けて飛行するように無人飛行機の飛行方向を制限する。すなわち、ネットワークカメラの撮影範囲の方向への飛行を制限し、他の方向への飛行を制限せずに、当該他の方向に飛行するように制御する。   In this way, when the unmanned airplane is flying at a position photographed by the network camera, the control means limits the flight direction of the unmanned airplane so as to fly toward a position not photographed by the network camera. That is, control is performed so that the flight in the direction of the imaging range of the network camera is restricted, and the flight in the other direction is performed without restricting the flight in the other direction.

S1415は、本発明の制御手段の適用例であり、判定手段により、ネットワークカメラで撮影される撮像範囲内、又はその近傍の位置に、無人飛行機が飛行していると判定された場合には、無人飛行機を、ネットワークカメラで撮影される撮像範囲外の位置、又は当該撮像範囲の近傍の位置から離れた位置に、飛行させるように制御する。   S1415 is an application example of the control means of the present invention, and when the determination means determines that the unmanned airplane is flying in a position within or near the imaging range captured by the network camera, Control is performed so that the unmanned airplane flies to a position outside the imaging range photographed by the network camera or to a position away from a position near the imaging range.

このように、制御手段は、放送映像判定手段により、放送する指示を受け付けた映像が、ネットワークカメラが撮影している映像であると判定された場合で、かつ、判定手段により、ネットワークカメラで撮影される撮像範囲内、又はその近傍の位置に、無人飛行機が飛行していると判定された場合には、無人飛行機を、ネットワークカメラで撮影される撮像範囲外の位置、又は当該撮像範囲の近傍の位置から離れた位置に、飛行させるように制御する。   In this way, the control means is the case where the broadcast video determination means determines that the video for which the broadcast instruction has been received is the video captured by the network camera, and the determination means takes a picture with the network camera. If it is determined that the unmanned airplane is flying in a position within or near the imaging range, the unmanned airplane is positioned outside the imaging range captured by the network camera or in the vicinity of the imaging range. Control to fly to a position away from the position.

このように、本発明の制御手段は、無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、ネットワークカメラに撮影されない位置を飛行するように無人飛行機の飛行を制御する。   Thus, the control means of the present invention controls the flight of the unmanned airplane so as to fly at a position not photographed by the network camera when the unmanned airplane is flying at a position photographed by the network camera.

すなわち、制御手段は、無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、ネットワークカメラに撮影される位置における無人飛行機の飛行を制限する。   That is, the control means limits the flight of the unmanned airplane at the position photographed by the network camera when the unmanned airplane is flying at the position photographed by the network camera.

制御手段は、複数のネットワークカメラのうち、放送するための指示を受け付けた映像を撮影しているネットワークカメラに撮影される位置を無人飛行機が飛行している場合に、ネットワークカメラに撮影されない位置を飛行するように無人飛行機の飛行を制御する。   The control means determines a position that is not photographed by the network camera when the unmanned airplane is flying among the plurality of network cameras. Control the flight of an unmanned airplane to fly.

また、制御手段は、無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように無人飛行機の飛行を制御する。すなわち、制御手段は、図8、図9に示すように、無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、ネットワークカメラに撮影される位置に無人飛行機が飛行してこないように無人飛行機の飛行を制御する。   In addition, when the unmanned airplane is flying in the vicinity of the position photographed by the network camera, the control means can fly the unmanned airplane so as not to fly near the position photographed by the network camera. Control. That is, as shown in FIGS. 8 and 9, when the unmanned airplane is flying in the vicinity of the position photographed by the network camera, the control means will fly the unmanned airplane at the position photographed by the network camera. Control the flight of unmanned airplanes so that you don't get lost.

そして、情報処理システム103は、ユーザが、操作部1015を任意に操作して、ドローン106の飛行方向等の飛行に係る操作指示や、カメラ271のPTZ調整の指示を受け付ける(S1416)。   In the information processing system 103, the user arbitrarily operates the operation unit 1015 to receive an operation instruction related to the flight such as the flight direction of the drone 106 and an instruction for PTZ adjustment of the camera 271 (S <b> 1416).

そして、情報処理システム103は、S1416で操作指示を受け付けた内容で、ドローン106の飛行方向などの指示や、カメラ271のPTZ調整の指示をドローン106、カメラ271に指示し、ドローン106の飛行、カメラ271のPTZ調整を行い、カメラ271の撮影位置、及び撮影範囲を変更する(S1417)。そして、処理をS1412に戻す。   Then, the information processing system 103 instructs the drone 106 and the camera 271 to instruct the drone 106 such as the flight direction of the drone 106 and the PTZ adjustment instruction of the camera 271 according to the contents of the operation instruction received in S1416. The PTZ adjustment of the camera 271 is performed, and the shooting position and shooting range of the camera 271 are changed (S1417). Then, the process returns to S1412.

以上の通り、情報処理システム103は、S1307で、ネットワークカメラの映像のオンエア指示を受け付けたと判定された場合に、S1314で、ドローンが、オンエア指示を受け付けたネットワークカメラの撮像範囲に入らないようにする動作モード4で動作させ、S1413で、オンエア指示を受け付けたネットワークカメラの撮影範囲内にドローンがいると判定された場合に、その旨のアラートを通知し、ドローンを、当該ネットワークカメラの撮像範囲外に飛行させるので、オンエア指示を受け付けたネットワークカメラでドローン106が映り込んだ映像を、オンエアする映像として配信することを低減可能にすることができる。   As described above, when it is determined in S1307 that the on-air instruction for the network camera image has been received, the information processing system 103 prevents the drone from entering the imaging range of the network camera that has received the on-air instruction in S1314. When it is determined in S1413 that there is a drone within the shooting range of the network camera that has received the on-air instruction, an alert to that effect is notified, and the drone is sent to the imaging range of the network camera. Since it is made to fly outside, it is possible to reduce the distribution of the video on which the drone 106 is reflected by the network camera that has received the on-air instruction as a video that is on-air.

また、情報処理システム103は、S1311で、オンエア指示を受け付けていない他のネットワークカメラを動作モード2(当該ネットワークカメラが飛行中のドローンを追尾撮影する動作モード)で動作し、S1408で、当該ネットワークカメラが、飛行しているドローン106を自動的に追尾して撮影するように、PTZ調整の操作指示を当該ネットワークカメラに対して行うので、当該ネットワークカメラの映像で飛行中のドローン106を確認することができるようになる。   In S1311, the information processing system 103 operates another network camera that has not received an on-air instruction in the operation mode 2 (an operation mode in which the network camera tracks the drone in flight), and in S1408, the network Since the camera issues a PTZ adjustment operation instruction to the network camera so that the drone 106 in flight is automatically tracked and photographed, the drone 106 in flight is confirmed from the video of the network camera. Will be able to.

上記の実施形態では、ネットワークカメラ104、ネットワークカメラ105をそれぞれ、地上に設置されたお天気カメラや監視カメラなどのネットワークカメラとして説明したが、例えば、飛行可能なドローン等の無人飛行機に装着されたネットワークカメラであってもよい。その場合、操作端末101は、当該無人飛行機の飛行を操縦する操作端末として機能する。   In the above embodiment, the network camera 104 and the network camera 105 have been described as network cameras such as a weather camera and a surveillance camera installed on the ground. However, for example, a network mounted on an unmanned airplane such as a drone capable of flying It may be a camera. In this case, the operation terminal 101 functions as an operation terminal that controls the flight of the unmanned airplane.

以上、本発明によると、ネットワークカメラで無人飛行機が映り込んだ映像が撮影されることを低減可能にすることができる。   As described above, according to the present invention, it is possible to reduce shooting of an image in which an unmanned airplane is reflected by a network camera.

本発明は、例えば、システム、装置、方法、読み取り実行可能なプログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, readable program, storage medium, or the like, and may be applied to a system including a plurality of devices. Also, the present invention may be applied to an apparatus composed of one device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 操作端末
102 オンエア指示装置
103 情報処理システム
104 ネットワークカメラ(お天気カメラ)
105 ネットワークカメラ(お天気カメラ)
106 ドローン(飛行体)
107 電波塔の電波送信部
108 テレビ
109 テレビ


101 Operation terminal 102 On-air instruction device 103 Information processing system 104 Network camera (weather camera)
105 Network camera (weather camera)
106 drone
107 Radio Tower Transmitter 108 Television 109 Television


Claims (29)

無人飛行機の飛行制御を行う情報処理システムであって、
前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御する制御手段を備えることを特徴とする情報処理システム。
An information processing system that controls flight of an unmanned airplane,
An information processing system comprising: control means for controlling the flight of the unmanned airplane so as to fly at a position not photographed by the network camera when the unmanned airplane is flying at a position photographed by the network camera. system.
前記制御手段は、前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影される位置における前記無人飛行機の飛行を制限することを特徴とする請求項1に記載の情報処理システム。   2. The control unit according to claim 1, wherein when the unmanned airplane is flying at a position photographed by a network camera, the control unit restricts the flight of the unmanned airplane at a position photographed by the network camera. The information processing system described. 前記制御手段は、前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影されない位置に向けて飛行するように前記無人飛行機の飛行方向を制限することを特徴とする請求項1又は2に記載の情報処理システム。   The control means restricts the flight direction of the unmanned airplane to fly toward a position not photographed by the network camera when the unmanned airplane is flying at a position photographed by the network camera. The information processing system according to claim 1 or 2. 前記制御手段は、複数のネットワークカメラのうち、放送するための指示を受け付けた映像を撮影しているネットワークカメラに撮影される位置を無人飛行機が飛行している場合に、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御することを特徴とする請求項1乃至3の何れか1項に記載の情報処理システム。   The control means is not photographed by the network camera when an unmanned airplane is flying at a position photographed by a network camera that is photographing a video that has received an instruction to broadcast among a plurality of network cameras. The information processing system according to any one of claims 1 to 3, wherein the flight of the unmanned airplane is controlled to fly at a position. 放送するための指示を受け付けた映像が、前記無人飛行機が備えるカメラが撮影している映像であるか、前記ネットワークカメラが撮影している映像であるかを判定する放送映像判定手段を更に備え、
前記制御手段は、前記放送映像判定手段により、放送するための指示を受け付けた映像が、前記ネットワークカメラが撮影している映像であると判定された場合で、かつ、前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合には、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御し、一方、前記放送映像判定手段により、放送するための指示を受け付けた映像が、前記無人飛行機が備えるカメラが撮影している映像であると判定された場合には、前記ネットワークカメラに撮影される位置を飛行するように前記無人飛行機の飛行を制御することを特徴とする請求項1乃至4の何れか1項に記載の情報処理システム。
Broadcast video determination means for determining whether the video for which the instruction for broadcasting is received is a video taken by a camera of the unmanned airplane or a video taken by the network camera,
The control means is a case where the broadcast video determination means determines that the video for which an instruction to broadcast is received is a video taken by the network camera, and the unmanned airplane is a network camera. When flying at a position to be photographed, the flight of the unmanned airplane is controlled so as to fly at a position not photographed by the network camera, while an instruction for broadcasting is received by the broadcast video determination means. When it is determined that the captured image is an image captured by a camera included in the unmanned airplane, the flight of the unmanned airplane is controlled to fly at a position captured by the network camera. The information processing system according to any one of claims 1 to 4.
前記制御手段は、前記映像判定手段により、放送するための指示を受け付けた映像が、前記ネットワークカメラが撮影している映像であると判定された場合、当該映像を撮影しているネットワークカメラではない他のネットワークカメラで、前記無人飛行機を撮影するように当該他のネットワークカメラを制御することを特徴とする請求項5に記載に情報処理システム。   When it is determined by the video determination unit that the video for which the instruction for broadcasting is received is a video taken by the network camera, the control unit is not a network camera that is shooting the video. 6. The information processing system according to claim 5, wherein the other network camera is controlled by another network camera so as to photograph the unmanned airplane. 前記制御手段は、前記映像判定手段により、放送するための指示を受け付けた映像が、前記ネットワークカメラが撮影している映像であると判定された場合、当該映像を撮影しているネットワークカメラではない他のネットワークカメラで、前記無人飛行機を追尾撮影するように当該他のネットワークカメラを制御することを特徴とする請求項6に記載に情報処理システム。   When it is determined by the video determination unit that the video for which the instruction for broadcasting is received is a video taken by the network camera, the control unit is not a network camera that is shooting the video. The information processing system according to claim 6, wherein the other network camera is controlled so that the unmanned airplane is tracked with another network camera. 前記制御手段は、前記無人飛行機を撮影している前記他のネットワークカメラで撮影している映像を放送するための指示を受け付けた場合には、当該他のネットワークカメラで、前記無人飛行機を撮影しない制御、及び、当該他のネットワークカメラとは異なるネットワークカメラで、前記無人飛行機を撮影する制御を行うことを特徴とする請求項6又は7に記載の情報処理システム。   When the control unit receives an instruction to broadcast a video shot by the other network camera that is shooting the unmanned airplane, the control unit does not capture the unmanned airplane by the other network camera. The information processing system according to claim 6 or 7, wherein control and control for photographing the unmanned airplane are performed by a network camera different from the other network camera. 前記制御手段は、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように前記無人飛行機の飛行を制御することを特徴とする請求項1乃至8の何れか1項に記載の情報処理システム。   When the unmanned airplane is flying in the vicinity of the position photographed by the network camera, the control means is configured to prevent the unmanned airplane from flying near the position photographed by the network camera and the vicinity of the position. The information processing system according to any one of claims 1 to 8, wherein the flight is controlled. 前記制御手段は、前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置に前記無人飛行機が飛行してこないように前記無人飛行機の飛行を制御することを特徴とする請求項1乃至9の何れか1項に記載の情報処理システム。   When the unmanned airplane is flying in the vicinity of the position photographed by the network camera, the control means is configured to prevent the unmanned airplane from flying to the position photographed by the network camera. The information processing system according to claim 1, wherein the flight is controlled. 前記無人飛行機がネットワークカメラに撮影されている場合には、前記ネットワークカメラに前記無人飛行機が撮影されていることをユーザに知らせるべく通知する通知手段を備えることを特徴とする請求項1乃至10の何れか1項に記載の情報処理システム。   11. The apparatus according to claim 1, further comprising a notification unit that notifies the user that the unmanned airplane is photographed by the network camera when the unmanned airplane is photographed by the network camera. The information processing system according to any one of claims. 前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記無人飛行機が前記ネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する通知手段を備えることを特徴とする請求項1乃至11の何れか1項に記載の情報処理システム。   If the unmanned airplane is flying in the vicinity of the position photographed by the network camera, a notification for notifying the user that the unmanned airplane is flying near the position photographed by the network camera The information processing system according to claim 1, further comprising: means. 前記無人飛行機の飛行位置、前記ネットワークカメラの位置、及び前記ネットワークカメラの撮影範囲をマップ上に識別可能に表示する表示手段を備えることを特徴とする請求項1乃至12の何れか1項に記載の情報処理システム。   13. The display device according to claim 1, further comprising a display unit configured to display a flight position of the unmanned airplane, a position of the network camera, and a shooting range of the network camera in an identifiable manner on a map. Information processing system. 前記表示手段は、前記無人飛行機の飛行位置から、ネットワークカメラの撮影範囲までの距離を表示することを特徴とする請求項1乃至13の何れか1項に記載の情報処理システム。   The information processing system according to any one of claims 1 to 13, wherein the display unit displays a distance from a flight position of the unmanned airplane to a shooting range of a network camera. 前記無人飛行機の飛行位置、前記ネットワークカメラの位置、及び前記ネットワークカメラのパン、チルト、ズームの設定値に従って、前記無人飛行機の飛行位置から、ネットワークカメラの撮影範囲までの距離を算出する算出手段を備えることを特徴とする請求項1乃至14の何れか1項に記載の情報処理システム。   Calculation means for calculating a distance from the flight position of the unmanned airplane to the shooting range of the network camera according to the flight position of the unmanned airplane, the position of the network camera, and the pan, tilt, and zoom setting values of the network camera. The information processing system according to claim 1, comprising: an information processing system according to claim 1. 無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、
前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御する制御工程を備えることを特徴とする制御方法。
A control method in an information processing system for performing flight control of an unmanned airplane,
A control method comprising a control step of controlling the flight of the unmanned airplane so as to fly at a position not photographed by the network camera when the unmanned airplane is flying at a position photographed by the network camera. .
無人飛行機の飛行制御を行う情報処理システムを、
前記無人飛行機がネットワークカメラに撮影される位置を飛行している場合に、前記ネットワークカメラに撮影されない位置を飛行するように前記無人飛行機の飛行を制御する制御手段として機能させるためのプログラム。
An information processing system that controls the flight of unmanned airplanes
When the unmanned airplane is flying at a position photographed by a network camera, a program for causing the unmanned airplane to function as control means for controlling the flight of the unmanned airplane so as to fly at a position not photographed by the network camera.
無人飛行機の飛行制御を行う情報処理システムであって、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように前記無人飛行機の飛行を制御する制御手段を備えることを特徴とする情報処理システム。
An information processing system that controls flight of an unmanned airplane,
When the unmanned airplane is flying in the vicinity of the position photographed by the network camera, the position photographed by the network camera and the control for controlling the flight of the unmanned airplane so as not to fly near the position. An information processing system comprising means.
無人飛行機の飛行制御を行う情報処理システムであって、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置に前記無人飛行機が飛行してこないように前記無人飛行機の飛行を制御する制御手段を備えることを特徴とする情報処理システム。
An information processing system that controls flight of an unmanned airplane,
Control for controlling the flight of the unmanned airplane so that the unmanned airplane does not fly to the position photographed by the network camera when the unmanned airplane is flying near the position photographed by the network camera An information processing system comprising means.
無人飛行機の飛行制御を行う情報処理システムであって、
前記無人飛行機がネットワークカメラに撮影されている場合には、前記ネットワークカメラに前記無人飛行機が撮影されていることをユーザに知らせるべく通知する通知手段を備えることを特徴とする情報処理システム。
An information processing system that controls flight of an unmanned airplane,
An information processing system comprising: notification means for notifying a user that the unmanned airplane is photographed by the network camera when the unmanned airplane is photographed by a network camera.
無人飛行機の飛行制御を行う情報処理システムであって、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記無人飛行機が前記ネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する通知手段を備えることを特徴とする情報処理システム。
An information processing system that controls flight of an unmanned airplane,
If the unmanned airplane is flying in the vicinity of the position photographed by the network camera, a notification for notifying the user that the unmanned airplane is flying near the position photographed by the network camera An information processing system comprising means.
無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように前記無人飛行機の飛行を制御する制御工程を備えることを特徴とする制御方法。
A control method in an information processing system for performing flight control of an unmanned airplane,
When the unmanned airplane is flying in the vicinity of the position photographed by the network camera, the position photographed by the network camera and the control for controlling the flight of the unmanned airplane so as not to fly near the position. A control method comprising a step.
無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置に前記無人飛行機が飛行してこないように前記無人飛行機の飛行を制御する制御工程を備えることを特徴とする制御方法。
A control method in an information processing system for performing flight control of an unmanned airplane,
Control for controlling the flight of the unmanned airplane so that the unmanned airplane does not fly to the position photographed by the network camera when the unmanned airplane is flying near the position photographed by the network camera A control method comprising a step.
無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、
前記無人飛行機がネットワークカメラに撮影されている場合には、前記ネットワークカメラに前記無人飛行機が撮影されていることをユーザに知らせるべく通知する通知工程を備えることを特徴とする制御方法。
A control method in an information processing system for performing flight control of an unmanned airplane,
When the unmanned airplane is photographed by a network camera, the control method further comprises a notification step of notifying the network camera to inform the user that the unmanned airplane is photographed.
無人飛行機の飛行制御を行う情報処理システムにおける制御方法であって、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記無人飛行機が前記ネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する通知工程を備えることを特徴とする制御方法。
A control method in an information processing system for performing flight control of an unmanned airplane,
If the unmanned airplane is flying in the vicinity of the position photographed by the network camera, a notification for notifying the user that the unmanned airplane is flying near the position photographed by the network camera A control method comprising a step.
無人飛行機の飛行制御を行う情報処理システムを、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置、及び当該位置の近傍を飛行しないように前記無人飛行機の飛行を制御する制御手段として機能させるためのプログラム。
An information processing system that controls the flight of unmanned airplanes
When the unmanned airplane is flying in the vicinity of the position photographed by the network camera, the position photographed by the network camera and the control for controlling the flight of the unmanned airplane so as not to fly near the position. Program to function as a means.
無人飛行機の飛行制御を行う情報処理システムを、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記ネットワークカメラに撮影される位置に前記無人飛行機が飛行してこないように前記無人飛行機の飛行を制御する制御手段として機能させるためのプログラム。
An information processing system that controls the flight of unmanned airplanes
Control for controlling the flight of the unmanned airplane so that the unmanned airplane does not fly to the position photographed by the network camera when the unmanned airplane is flying near the position photographed by the network camera Program to function as a means.
無人飛行機の飛行制御を行う情報処理システムを、
前記無人飛行機がネットワークカメラに撮影されている場合には、前記ネットワークカメラに前記無人飛行機が撮影されていることをユーザに知らせるべく通知する通知手段として機能させるためのプログラム。
An information processing system that controls the flight of unmanned airplanes
When the unmanned airplane is photographed by a network camera, a program for causing the network camera to function as notification means for notifying the user that the unmanned airplane is photographed.
無人飛行機の飛行制御を行う情報処理システムを、
前記無人飛行機がネットワークカメラに撮影される位置の近傍を飛行している場合には、前記無人飛行機が前記ネットワークカメラに撮影される位置の近傍を飛行していることをユーザに知らせるべく通知する通知手段として機能させるためのプログラム。
An information processing system that controls the flight of unmanned airplanes
If the unmanned airplane is flying in the vicinity of the position photographed by the network camera, a notification for notifying the user that the unmanned airplane is flying near the position photographed by the network camera Program to function as a means.
JP2018068613A 2017-03-31 2018-03-30 Information processing system, control method thereof and program Pending JP2018173960A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017071972 2017-03-31
JP2017071972 2017-03-31

Publications (1)

Publication Number Publication Date
JP2018173960A true JP2018173960A (en) 2018-11-08

Family

ID=64108700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018068613A Pending JP2018173960A (en) 2017-03-31 2018-03-30 Information processing system, control method thereof and program

Country Status (1)

Country Link
JP (1) JP2018173960A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110401A1 (en) * 2018-11-29 2020-06-04 パナソニックIpマネジメント株式会社 Unmanned aircraft, information processing method, and program
JP2020123218A (en) * 2019-01-31 2020-08-13 株式会社RedDotDroneJapan Photographing method
WO2021024627A1 (en) * 2019-08-08 2021-02-11 ソニー株式会社 Information processing device, mobile body, information processing system, information processing method, and program
US11964402B2 (en) 2021-02-09 2024-04-23 Toyota Jidosha Kabushiki Kaisha Robot control system, robot control method, and control program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110401A1 (en) * 2018-11-29 2020-06-04 パナソニックIpマネジメント株式会社 Unmanned aircraft, information processing method, and program
JP2020123218A (en) * 2019-01-31 2020-08-13 株式会社RedDotDroneJapan Photographing method
JP7274726B2 (en) 2019-01-31 2023-05-17 株式会社RedDotDroneJapan Shooting method
JP2023099556A (en) * 2019-01-31 2023-07-13 株式会社RedDotDroneJapan Imaging method
JP7333129B2 (en) 2019-01-31 2023-08-24 株式会社RedDotDroneJapan Shooting method
US11820488B2 (en) 2019-01-31 2023-11-21 RedDotDroneJapan Co., Ltd. Image capturing method
WO2021024627A1 (en) * 2019-08-08 2021-02-11 ソニー株式会社 Information processing device, mobile body, information processing system, information processing method, and program
US11964402B2 (en) 2021-02-09 2024-04-23 Toyota Jidosha Kabushiki Kaisha Robot control system, robot control method, and control program

Similar Documents

Publication Publication Date Title
JP2018173960A (en) Information processing system, control method thereof and program
JP4763610B2 (en) Video on demand method and apparatus
JP6575476B2 (en) Unmanned aircraft control system, control method thereof, and program
US10440323B2 (en) Facilitating wide view video conferencing through a drone network
JP7017696B2 (en) Information processing equipment, information processing equipment control method, unmanned aerial vehicle, unmanned aerial vehicle control method, and program
JP6781375B2 (en) Unmanned aerial vehicle control system, its control method, and program
JP2018070010A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP2018103936A (en) Unmanned aircraft control system, control method thereof, and program
JP2018092237A (en) Unmanned aircraft control system, and control method and program of the same
JP2019026121A (en) Unmanned aircraft control system, control method therefor, and program
JP2019135605A (en) Video image display device and video image display method
JP2018090012A (en) Unmanned aircraft control system, method for controlling unmanned aircraft control system, and program
JP6555226B2 (en) Unmanned aircraft control system, control method thereof, and program
JP2018179631A (en) Information processor, method for controlling information processor, and program
JP2018142907A (en) Information processing apparatus, control method and program of information processing apparatus
JP2018052474A (en) Unmanned aircraft control system, control method thereof and program
JP2018142246A (en) System, and control method and program thereof
JP2018174441A (en) Unmanned aerial vehicle control system, information processing apparatus, unmanned aerial vehicle, their control methods, and program
JP2003316259A (en) Photography image processing method and system thereof
JP6826294B2 (en) System, its control method, and program
JP2019010942A (en) Information processing system, control method of the same, and program
JP7081198B2 (en) Shooting system and shooting control device
JP2018129577A (en) Imaging system, control method thereof, and program
JP2018070012A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP2018098624A (en) Unmanned aerial vehicle control system, control method of unmanned aerial vehicle control system, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109