JP2019028560A - Mobile platform, image composition method, program and recording medium - Google Patents

Mobile platform, image composition method, program and recording medium Download PDF

Info

Publication number
JP2019028560A
JP2019028560A JP2017144719A JP2017144719A JP2019028560A JP 2019028560 A JP2019028560 A JP 2019028560A JP 2017144719 A JP2017144719 A JP 2017144719A JP 2017144719 A JP2017144719 A JP 2017144719A JP 2019028560 A JP2019028560 A JP 2019028560A
Authority
JP
Japan
Prior art keywords
image
aerial
imaging
control unit
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2017144719A
Other languages
Japanese (ja)
Inventor
斌 陳
Hin Chin
斌 陳
宗耀 瞿
Zongyao Qu
宗耀 瞿
▲哲▼君 陳
Zhe Jun Chen
▲哲▼君 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017144719A priority Critical patent/JP2019028560A/en
Publication of JP2019028560A publication Critical patent/JP2019028560A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To prevent memory leak at the time of composing an aerial photographic image.SOLUTION: A mobile platform for composing an aerial photographic image aerially taken by a flying body comprises a processing unit for performing processing of composition of an aerial photographic image. The processing unit obtains a plurality of first aerial photographic images each having a different image range, obtains a first region surrounding the image region of the plurality of first aerial photographic images, divides the first region into a plurality of partial regions and composes the plurality of first aerial photographic images for each partial region to thereby create a first composite image.SELECTED DRAWING: Figure 9

Description

本開示は、飛行体により空撮された空撮画像を合成するモバイルプラットフォーム、画像合成方法、プログラム、及び記録媒体に関する。   The present disclosure relates to a mobile platform, an image composition method, a program, and a recording medium for composing an aerial image captured by an aircraft.

従来、空撮画像を合成して、広範囲を表現した合成画像を生成することが知られている。例えば、空中写真又は衛星画像が、撮影方向による歪みを解消したうえで一定水平面上に投影されて、正射画像(オルソ画像)が生成される。複数のオルソ画像が合成又は接合されることで、広大な地域を示す1枚のモザイク画像が得られる(特許文献1参照)。   Conventionally, it is known to synthesize aerial images and generate a synthesized image representing a wide range. For example, an aerial photograph or a satellite image is projected on a certain horizontal plane after distortion caused by the photographing direction is eliminated, and an orthographic image (ortho image) is generated. By synthesizing or joining a plurality of ortho images, one mosaic image showing a vast area can be obtained (see Patent Document 1).

特開2011−2892号公報JP2011-2892A

特許文献1に記載された装置では、合成対象の画像の枚数が膨大である場合、画像の合成のために必要なメモリの容量が大きくなる。そのため、画像の合成を行う装置の性能によっては、一度に多数の画像を合成する場合も逐次的に多数の画像を合成する場合も、必要なメモリの容量の確保が困難となり、メモリリークが発生し易くなる。また、一度に多数の画像を合成する場合、最適化処理(例えば位置合わせ、画質合わせ)を十分に行えず、処理精度が劣化することがある。また、逐次的に画像の合成を行う場合、画像合成の計算を逐次行う必要があり、一度に(同時に)画像を合成する場合と比較すると、計算効率が低くなる。   In the apparatus described in Patent Document 1, when the number of images to be combined is enormous, the memory capacity required for combining images increases. For this reason, depending on the performance of the image synthesizing device, it may be difficult to secure the necessary memory capacity, even when synthesizing a large number of images at the same time, or when synthesizing a large number of images sequentially. It becomes easy to do. Further, when a large number of images are combined at one time, optimization processing (for example, alignment and image quality adjustment) cannot be performed sufficiently, and processing accuracy may deteriorate. In addition, when sequentially synthesizing images, it is necessary to sequentially perform image synthesis calculations, and the calculation efficiency is lower than when synthesizing images at once (simultaneously).

一態様において、モバイルプラットフォームは、飛行体により空撮された空撮画像を合成するモバイルプラットフォームであって、空撮画像の合成に関する処理を行う処理部を備え、処理部は、異なる画像範囲を有する複数の第1の空撮画像を取得し、複数の第1の空撮画像の画像範囲を包囲する第1の領域を取得し、第1の領域を複数の部分領域に分割し、部分領域毎に、複数の第1の空撮画像を合成して、第1の合成画像を生成する。   In one aspect, the mobile platform is a mobile platform that synthesizes aerial images captured by the flying object, and includes a processing unit that performs processing related to synthesis of the aerial images, and the processing units have different image ranges. A plurality of first aerial images are obtained, a first region surrounding the image range of the plurality of first aerial images is obtained, the first region is divided into a plurality of partial regions, and each partial region is obtained. In addition, a plurality of first aerial images are combined to generate a first combined image.

処理部は、複数の第1の空撮画像のうち、画像範囲が同一の部分領域と重複する複数の第2の空撮画像を合成して、第1の合成画像を生成してよい。   The processing unit may generate a first combined image by combining a plurality of second aerial images that overlap with a partial region having the same image range among the plurality of first aerial images.

処理部は、複数の第2の空撮画像のうちの一部を、第1の合成画像を生成するための第2の空撮画像から除外し、第1の合成画像を生成してよい。   The processing unit may exclude a part of the plurality of second aerial images from the second aerial image for generating the first synthesized image, and generate the first synthesized image.

処理部は、第2の空撮画像における部分領域と重複する第1の部分を切り出し、切り出された複数の第2の空撮画像における複数の第1の部分を合成して、第1の合成画像を生成してよい。   The processing unit cuts out a first portion that overlaps the partial region in the second aerial image, combines the plurality of first portions in the plurality of second aerial images that have been cut out, and performs the first synthesis An image may be generated.

処理部は、部分領域毎に得られた複数の第1の合成画像を合成して、第2の合成画像を生成してよい。   The processing unit may generate a second composite image by combining a plurality of first composite images obtained for each partial region.

第1の領域における隣り合う複数の部分領域は、重複する部分を有してよい。   A plurality of adjacent partial regions in the first region may have overlapping portions.

第1の合成画像の生成に用いられる第1の記憶部と、生成された第1の合成画像が記録される第2の記憶部と、を更に備えてよい。処理部は、第1の記憶部において第1の部分領域における第1の合成画像を生成し、生成された第1の合成画像を第2の記憶部に送り、第1の合成画像を第2の記憶部に送った後、第1の記憶部において第2の部分領域における第1の合成画像を生成してよい。   You may further provide the 1st memory | storage part used for the production | generation of a 1st synthesized image, and the 2nd memory | storage part by which the produced | generated 1st synthesized image is recorded. The processing unit generates a first composite image in the first partial region in the first storage unit, sends the generated first composite image to the second storage unit, and sends the first composite image to the second storage unit. Then, the first synthesized image in the second partial area may be generated in the first storage unit.

モバイルプラットフォームは、飛行体でよい。飛行体は、撮像部を備えてよい。処理部は、飛行体の飛行を制御し、飛行体の飛行中に、撮像部に空撮させて第1の空撮画像を取得し、第1の合成画像を生成してよい。   The mobile platform may be a flying object. The flying object may include an imaging unit. The processing unit may control the flight of the flying object, cause the imaging unit to take an aerial image during flight of the flying object, obtain a first aerial image, and generate a first synthesized image.

処理部は、飛行体が飛行するための飛行パラメータ及び撮像部により空撮するための撮像パラメータを取得し、飛行パラメータ及び撮像パラメータに基づいて、画像範囲を決定してよい。   The processing unit may acquire a flight parameter for flying the flying object and an imaging parameter for aerial shooting by the imaging unit, and determine an image range based on the flight parameter and the imaging parameter.

処理部は、飛行パラメータ及び撮像パラメータの一部を取得し、飛行パラメータ及び撮像パラメータの一部に基づいて、飛行パラメータ及び撮像パラメータの他の一部を算出してよい。   The processing unit may acquire a part of the flight parameter and the imaging parameter, and calculate another part of the flight parameter and the imaging parameter based on the part of the flight parameter and the imaging parameter.

処理部は、飛行パラメータ及び撮像パラメータの少なくとも一部を、飛行パラメータ及び撮像パラメータを入力する入力装置から取得してよい。   The processing unit may acquire at least part of the flight parameter and the imaging parameter from an input device that inputs the flight parameter and the imaging parameter.

複数の部分領域は、第3の部分領域を含んでよい。処理部は、撮像部により空撮するための複数の空撮位置の情報を取得し、第3の部分領域における撮像部による各空撮位置での空撮が完了した場合、第3の部分領域における第1の合成画像を生成してよい。   The plurality of partial regions may include a third partial region. The processing unit acquires information on a plurality of aerial shooting positions for performing aerial shooting by the imaging unit, and when the aerial shooting at each aerial shooting position by the imaging unit in the third partial region is completed, the third partial region A first composite image may be generated.

一態様において、画像合成方法は、飛行体により空撮された空撮画像を合成するモバイルプラットフォームにおける画像合成方法であって、異なる画像範囲を有する複数の第1の空撮画像を取得するステップと、複数の第1の空撮画像の画像範囲を包囲する第1の領域を取得するステップと、第1の領域を複数の部分領域に分割するステップと、部分領域毎に、複数の第1の空撮画像を合成して、第1の合成画像を生成するステップと、を有する。   In one aspect, the image composition method is an image composition method in a mobile platform for composing an aerial image captured by an aircraft, and acquiring a plurality of first aerial images having different image ranges; Obtaining a first area surrounding the image range of the plurality of first aerial images, dividing the first area into a plurality of partial areas, and a plurality of first areas for each partial area Synthesizing the aerial image and generating a first synthesized image.

第1の合成画像を生成するステップは、複数の第1の空撮画像のうち、画像範囲が同一の部分領域と重複する複数の第2の空撮画像を合成して、第1の合成画像を生成するステップを含んでよい。   The step of generating the first composite image is performed by combining a plurality of second aerial images that overlap with a partial region having the same image range among the plurality of first aerial images. May be included.

第1の合成画像を生成するステップは、複数の第2の空撮画像のうちの一部を、第1の合成画像を生成するための第2の空撮画像から除外し、第1の合成画像を生成するステップを含んでよい。   The step of generating the first composite image excludes a part of the plurality of second aerial images from the second aerial image for generating the first composite image, A step of generating an image may be included.

第1の合成画像を生成するステップは、第2の空撮画像における部分領域と重複する第1の部分を切り出すステップと、切り出された複数の第2の空撮画像における複数の第1の部分を合成して、第1の合成画像を生成するステップと、を含んでよい。   The step of generating the first composite image includes a step of cutting out a first portion that overlaps a partial region in the second aerial image, and a plurality of first portions in the plurality of cut out second aerial images. And generating a first composite image.

画像合成方法は、部分領域毎に得られた複数の第1の合成画像を合成して、第2の合成画像を生成するステップ、を更に含んでよい。   The image synthesis method may further include a step of synthesizing a plurality of first synthesized images obtained for each partial region to generate a second synthesized image.

第1の領域における隣り合う複数の部分領域は、重複する部分を有してよい。   A plurality of adjacent partial regions in the first region may have overlapping portions.

第1の合成画像を生成するステップは、第1の合成画像の生成に用いられる第1の記憶部において、第1の部分領域における第1の合成画像を生成するステップと、生成された第1の合成画像を、第1の合成画像が記録される第2の記憶部に送るステップと、第1の合成画像を第2の記憶部に送った後、第1の記憶部において第2の部分領域における第1の合成画像を生成するステップと、を含んでよい。   The step of generating the first composite image includes the step of generating the first composite image in the first partial region in the first storage unit used for generating the first composite image, and the generated first A step of sending the composite image to the second storage unit in which the first composite image is recorded, and a second part in the first storage unit after sending the first composite image to the second storage unit Generating a first composite image in the region.

モバイルプラットフォームは、飛行体でよい。飛行体は、撮像部を備えてよい。第1の合成画像を生成するステップは、飛行体の飛行中に、撮像部に空撮させて第1の空撮画像を取得し、第1の合成画像を生成するステップ、を含んでよい。   The mobile platform may be a flying object. The flying object may include an imaging unit. The step of generating the first composite image may include the step of causing the imaging unit to take an aerial image to acquire the first aerial image and generating the first composite image during the flight of the flying object.

画像合成方法は、飛行体が飛行するための飛行パラメータ及び撮像部により空撮するための撮像パラメータを取得するステップと、飛行パラメータ及び撮像パラメータに基づいて、画像範囲を決定するステップと、を更に含んでよい。   The image synthesis method further includes the steps of acquiring flight parameters for the flying object to fly and imaging parameters for aerial photography by the imaging unit, and determining an image range based on the flight parameters and the imaging parameters. May include.

飛行パラメータ及び撮像パラメータを取得するステップは、飛行パラメータ及び撮像パラメータの一部を取得するステップと、飛行パラメータ及び撮像パラメータの一部に基づいて、飛行パラメータ及び撮像パラメータの他の一部を算出するステップと、を含んでよい。   The step of acquiring the flight parameter and the imaging parameter is a step of acquiring a part of the flight parameter and the imaging parameter, and calculating another part of the flight parameter and the imaging parameter based on the part of the flight parameter and the imaging parameter. Steps may be included.

飛行パラメータ及び撮像パラメータを取得するステップは、飛行パラメータ及び撮像パラメータの少なくとも一部を、飛行パラメータ及び撮像パラメータを入力する入力装置から取得するステップ、を含んでよい。   Obtaining the flight parameters and imaging parameters may include obtaining at least some of the flight parameters and imaging parameters from an input device that inputs the flight parameters and imaging parameters.

複数の部分領域は、第3の部分領域を含んでよい。第1の合成画像を生成するステップは、撮像部により空撮するための複数の空撮位置の情報を取得するステップと、第3の部分領域における撮像部による各空撮位置での空撮が完了した場合、第3の部分領域における第1の合成画像を生成するステップと、を含んでよい。   The plurality of partial regions may include a third partial region. The step of generating the first composite image includes acquiring a plurality of aerial shooting position information for aerial shooting by the imaging unit, and performing aerial shooting at each aerial shooting position by the imaging unit in the third partial region. If completed, generating a first composite image in the third partial region may be included.

一態様において、プログラムは、飛行体により空撮された空撮画像を合成するモバイルプラットフォームに、異なる画像範囲を有する複数の第1の空撮画像を取得するステップと、複数の第1の空撮画像の画像範囲を包囲する第1の領域を取得するステップと、第1の領域を複数の部分領域に分割するステップと、部分領域毎に、複数の第1の空撮画像を合成して、第1の合成画像を生成するステップと、を実行させるためのプログラムである。   In one aspect, a program acquires a plurality of first aerial images having different image ranges on a mobile platform that synthesizes aerial images captured by an aircraft, and a plurality of first aerial images. Obtaining a first region surrounding the image range of the image; dividing the first region into a plurality of partial regions; and combining the plurality of first aerial images for each partial region; And a step of generating a first composite image.

一態様において、記録媒体は、飛行体により空撮された空撮画像を合成するモバイルプラットフォームに、異なる画像範囲を有する複数の第1の空撮画像を取得するステップと、複数の第1の空撮画像の画像範囲を包囲する第1の領域を取得するステップと、第1の領域を複数の部分領域に分割するステップと、部分領域毎に、複数の第1の空撮画像を合成して、第1の合成画像を生成するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。   In one aspect, the recording medium acquires a plurality of first aerial images having different image ranges on a mobile platform that synthesizes aerial images captured by the aircraft, and a plurality of first aerial images. Acquiring a first region surrounding the image range of the captured image, dividing the first region into a plurality of partial regions, and combining the plurality of first aerial images for each partial region And a step of generating a first composite image. A computer-readable recording medium storing a program for executing the step.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the summary of the invention described above does not enumerate all the features of the present disclosure. In addition, a sub-combination of these feature groups can also be an invention.

第1の実施形態における画像合成システムの第1構成例を示す模式図1 is a schematic diagram illustrating a first configuration example of an image composition system according to a first embodiment. 第1の実施形態における画像合成システムの第2構成例を示す模式図Schematic diagram showing a second configuration example of the image composition system in the first embodiment 第1の実施形態における無人航空機のハードウェア構成の一例を示すブロック図The block diagram which shows an example of the hardware constitutions of the unmanned aircraft in 1st Embodiment 第1の実施形態における端末のハードウェア構成の一例を示すブロック図The block diagram which shows an example of the hardware constitutions of the terminal in 1st Embodiment 包囲領域としての地図領域及び部分領域の一例を示す図The figure which shows an example of the map area and partial area as a surrounding area 包囲領域としての外接矩形領域及び部分領域の一例を示す図The figure which shows an example of the circumscribed rectangular area as a surrounding area, and a partial area 部分領域間でオーバーラップを有する場合の部分領域の一例を示す図The figure which shows an example of the partial area | region in the case of having overlap between partial area | regions 複数の元画像のサイズが異なる場合の元画像とその位置関係の一例を示す図The figure which shows an example of the original image in case the size of several original images differs, and its positional relationship 第1の実施形態における無人航空機による動作例を示すフローチャートThe flowchart which shows the operation example by the unmanned aerial vehicle in 1st Embodiment. 端末による動作例を示すフローチャートFlow chart showing an example of operation by a terminal 第2の実施形態における画像合成システムの構成例を示す模式図Schematic diagram showing a configuration example of an image composition system in the second embodiment 第2の実施形態における無人航空機のハードウェア構成の一例を示すブロック図The block diagram which shows an example of the hardware constitutions of the unmanned aircraft in 2nd Embodiment 飛行パラメータ及び撮像パラメータの具体例を説明するための図The figure for demonstrating the specific example of a flight parameter and an imaging parameter 端末によるパラメータの入力例を示す図Figure showing an example of parameter input by the terminal 第2の実施形態における無人航空機による動作例を示すフローチャートThe flowchart which shows the operation example by the unmanned aircraft in 2nd Embodiment

以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。   Hereinafter, although this indication is explained through an embodiment of the invention, the following embodiment does not limit the invention concerning a claim. Not all combinations of features described in the embodiments are essential for the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract include matters subject to copyright protection. The copyright owner will not object to any number of copies of these documents as they appear in the JPO file or record. However, in other cases, all copyrights are reserved.

以下の実施形態では、モバイルプラットフォームとして、無人航空機(UAV:Unmanned Aerial Vehicle)を主に例示する。無人航空機は、飛行体の一例であり、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」とも表記する。また、モバイルプラットフォームは、無人航空機以外の装置でもよく、例えば端末、PC(Personal Computer)、又はその他の装置でもよい。画像合成方法は、モバイルプラットフォームにおける動作が規定されたものである。記録媒体は、プログラム(例えば、モバイルプラットフォームに各種の処理を実行させるためのプログラム)が記録されたものである。   In the following embodiment, an unmanned aerial vehicle (UAV) is mainly exemplified as a mobile platform. An unmanned aerial vehicle is an example of a flying body and includes an aircraft that moves in the air. In the drawings attached to this specification, the unmanned aerial vehicle is also referred to as “UAV”. The mobile platform may be a device other than an unmanned aerial vehicle, such as a terminal, a PC (Personal Computer), or another device. The image synthesizing method defines the operation on the mobile platform. The recording medium records a program (for example, a program for causing the mobile platform to execute various processes).

(第1の実施形態)
図1は、第1の実施形態における画像合成システム10の第1構成例を示す模式図である。画像合成システム10は、無人航空機100及び端末80を備える。無人航空機100及び端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1Aでは、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。
(First embodiment)
FIG. 1 is a schematic diagram illustrating a first configuration example of an image composition system 10 according to the first embodiment. The image composition system 10 includes an unmanned aircraft 100 and a terminal 80. The unmanned aircraft 100 and the terminal 80 can communicate with each other by wired communication or wireless communication (for example, a wireless LAN (Local Area Network)). FIG. 1A illustrates that the terminal 80 is a mobile terminal (for example, a smartphone or a tablet terminal).

無人航空機100は、ストレージに保持された複数の空撮画像(元画像とも称する)を取得する。無人航空機100は、複数の空撮画像の画像範囲を包囲する包囲領域を算出し、包囲領域を複数の部分領域に分割する。無人航空機100は、部分領域毎に、複数の空撮画像を合成し、合成画像を生成する。なお、空撮は、撮像の一例である。   The unmanned aerial vehicle 100 acquires a plurality of aerial images (also referred to as original images) held in the storage. The unmanned aerial vehicle 100 calculates a surrounding region that surrounds the image range of the plurality of aerial images, and divides the surrounding region into a plurality of partial regions. The unmanned aerial vehicle 100 synthesizes a plurality of aerial images for each partial region, and generates a synthesized image. Note that aerial photography is an example of imaging.

端末80は、無人航空機100による空撮画像の合成を補助するための情報(各種パラメータ)を入力したり提示(例えば、表示、音声出力)したりしてよい。端末80は、空撮画像の合成を希望するユーザに所持され得る。   The terminal 80 may input or present information (for example, display or audio output) for assisting the synthesis of the aerial image by the unmanned aircraft 100. The terminal 80 can be possessed by a user who desires to combine aerial images.

図2は、第1の実施形態における画像合成システム10の第2構成例を示す模式図である。図1Bでは、端末80がPCであることを例示している。図1A及び図1Bのいずれであっても、端末80が有する機能は同じでよい。   FIG. 2 is a schematic diagram illustrating a second configuration example of the image composition system 10 according to the first embodiment. FIG. 1B illustrates that the terminal 80 is a PC. 1A and 1B, the functions of the terminal 80 may be the same.

図3は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。なお、メモリ160は、第1の記憶部の一例である。ストレージ170は、第2の記憶部の一例である。   FIG. 3 is a block diagram illustrating an example of the hardware configuration of the unmanned aerial vehicle 100. The unmanned aerial vehicle 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a storage 170, a gimbal 200, a rotary wing mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, The configuration includes an inertial measurement unit (IMU) 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser measuring device 290. The memory 160 is an example of a first storage unit. The storage 170 is an example of a second storage unit.

UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The UAV control unit 110 is configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), or a digital signal processor (DSP). The UAV control unit 110 performs signal processing for overall control of operations of each unit of the unmanned aircraft 100, data input / output processing with respect to other units, data calculation processing, and data storage processing.

UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。   The UAV control unit 110 controls the flight of the unmanned aircraft 100 according to a program stored in the memory 160.

UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよいUAV制御部110は、超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。   The UAV control unit 110 acquires position information indicating the position of the unmanned aircraft 100. The UAV control unit 110 may acquire position information indicating the latitude, longitude, and altitude at which the unmanned aircraft 100 exists from the GPS receiver 240. The UAV control unit 110 acquires, from the GPS receiver 240, latitude / longitude information indicating the latitude and longitude where the unmanned aircraft 100 exists, and altitude information indicating the altitude where the unmanned aircraft 100 exists from the barometric altimeter 270, as position information. The good UAV control unit 110 may acquire the distance between the ultrasonic radiation point and the ultrasonic reflection point by the ultrasonic sensor 280 as altitude information.

UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。   The UAV control unit 110 may acquire orientation information indicating the orientation of the unmanned aircraft 100 from the magnetic compass 260. The orientation information may be indicated by an orientation corresponding to the orientation of the nose of the unmanned aircraft 100, for example.

UAV制御部110は、撮像部220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。   The UAV control unit 110 may acquire position information indicating a position where the unmanned aircraft 100 should exist when the imaging unit 220 captures an imaging range to be imaged. The UAV control unit 110 may acquire position information indicating the position where the unmanned aircraft 100 should be present from the memory 160. The UAV control unit 110 may acquire position information indicating a position where the unmanned aircraft 100 should exist from another device via the communication interface 150. The UAV control unit 110 may refer to the three-dimensional map database, identify a position where the unmanned aircraft 100 can exist, and acquire the position as position information indicating a position where the unmanned aircraft 100 should exist.

UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得してよい。撮像部220の姿勢情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示してよい。   The UAV control unit 110 may acquire imaging range information indicating the imaging ranges of the imaging unit 220 and the imaging unit 230. The UAV control unit 110 may acquire angle-of-view information indicating the angle of view of the imaging unit 220 and the imaging unit 230 from the imaging unit 220 and the imaging unit 230 as parameters for specifying the imaging range. The UAV control unit 110 may acquire information indicating the imaging direction of the imaging unit 220 and the imaging unit 230 as a parameter for specifying the imaging range. The UAV control unit 110 may acquire posture information indicating the posture state of the imaging unit 220 from the gimbal 200 as information indicating the imaging direction of the imaging unit 220, for example. The posture information of the imaging unit 220 may indicate a rotation angle from the reference rotation angle of the pitch axis and yaw axis of the gimbal 200.

UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。   The UAV control unit 110 may acquire position information indicating a position where the unmanned aircraft 100 exists as a parameter for specifying the imaging range. The UAV control unit 110 defines an imaging range indicating a geographical range captured by the imaging unit 220 based on the angle of view and the imaging direction of the imaging unit 220 and the imaging unit 230, and the position where the unmanned aircraft 100 exists. Imaging range information may be acquired by generating imaging range information.

UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。   The UAV control unit 110 may acquire imaging range information from the memory 160. The UAV control unit 110 may acquire imaging range information via the communication interface 150.

UAV制御部110は、ジンバル200、回転翼機構210、撮像部220及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御してよい。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御してよい。   The UAV control unit 110 controls the gimbal 200, the rotary blade mechanism 210, the imaging unit 220, and the imaging unit 230. The UAV control unit 110 may control the imaging range of the imaging unit 220 by changing the imaging direction or angle of view of the imaging unit 220. The UAV control unit 110 may control the imaging range of the imaging unit 220 supported by the gimbal 200 by controlling the rotation mechanism of the gimbal 200.

撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でもよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。   The imaging range refers to a geographical range captured by the imaging unit 220 or the imaging unit 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in three-dimensional spatial data defined by latitude, longitude, and altitude. The imaging range may be a range in two-dimensional spatial data defined by latitude and longitude. The imaging range may be specified based on the angle of view and imaging direction of the imaging unit 220 or the imaging unit 230, and the position where the unmanned aircraft 100 is present. The image capturing directions of the image capturing unit 220 and the image capturing unit 230 may be defined from an azimuth and a depression angle in which the front surface where the image capturing lenses of the image capturing unit 220 and the image capturing unit 230 are provided is directed. The imaging direction of the imaging unit 220 may be a direction specified from the heading direction of the unmanned aerial vehicle 100 and the posture state of the imaging unit 220 with respect to the gimbal 200. The imaging direction of the imaging unit 230 may be a direction specified from the heading of the unmanned aircraft 100 and the position where the imaging unit 230 is provided.

UAV制御部110は、撮像部220又は撮像部230により撮像された撮像画像(空撮画像)に対して、この空撮画像に関する情報を付加情報(メタデータの一例)として付加してよい。付加情報は、各種パラメータを含んでよい。各種パラメータは、空撮時の無人航空機100の飛行に関するパラメータ(飛行パラメータ)と空撮時の撮像部220又は撮像部230による撮像に関する情報(撮像パラメータ)とを含んでよい。飛行パラメータは、空撮位置情報、空撮経路情報、空撮時刻情報、その他の情報のうち少なくとも1つを含んでよい。撮像パラメータは、空撮画角情報、空撮方向情報、空撮姿勢情報、撮像範囲情報、及び被写体距離情報、のうち少なくとも1つを含んでよい。   The UAV control unit 110 may add information about the aerial image as additional information (an example of metadata) to the captured image (aerial image) captured by the imaging unit 220 or the imaging unit 230. The additional information may include various parameters. The various parameters may include parameters related to the flight of the unmanned aircraft 100 at the time of aerial photography (flight parameters) and information related to imaging by the imaging unit 220 or the imaging unit 230 at the time of aerial imaging (imaging parameters). The flight parameter may include at least one of aerial position information, aerial route information, aerial time information, and other information. The imaging parameters may include at least one of aerial view angle information, aerial shooting direction information, aerial shooting posture information, imaging range information, and subject distance information.

空撮経路情報は、空撮画像が空撮された経路(空撮経路)を示す。空撮経路情報は、空撮時に無人航空機100が飛行した経路の情報であり、空撮位置が連続的に連なる空撮位置の集合により構成されてよい。空撮位置は、GPS受信機240により取得された位置に基づいてよい。空撮時刻情報は、空撮画像が空撮された時刻(空撮時刻)を示す。空撮時刻情報は、UAV制御部110が参照するタイマの時刻情報に基づいてよい。   The aerial shooting route information indicates a route (aerial shooting route) where the aerial image is taken aerial. The aerial shooting route information is information on a route on which the unmanned aircraft 100 flies during aerial shooting, and may be configured by a set of aerial shooting positions in which aerial shooting positions are continuously connected. The aerial shooting position may be based on the position acquired by the GPS receiver 240. The aerial shooting time information indicates the time (aerial shooting time) when the aerial image was taken aerial. The aerial shooting time information may be based on timer time information referred to by the UAV control unit 110.

空撮画角情報は、空撮画像が空撮された際の撮像部220又は撮像部230の画角情報を示す。空撮方向情報は、空撮画像が空撮された際の撮像部220又は撮像部230の撮像方向(空撮方向)を示す。空撮姿勢情報は、空撮画像が空撮された際の撮像部220又は撮像部230の姿勢情報を示す。撮像範囲情報は、空撮画像が空撮された際の撮像部220又は撮像部230の撮像範囲を示す。被写体距離情報は、撮像部220又は撮像部230から被写体までの距離の情報を示す。被写体距離情報は、超音波センサ280又はレーザー測定器290による検出情報に基づいてよい。   The aerial view angle information indicates the view angle information of the imaging unit 220 or the imaging unit 230 when the aerial image is taken aerial. The aerial shooting direction information indicates the imaging direction (aerial shooting direction) of the imaging unit 220 or the imaging unit 230 when the aerial image is aerial. The aerial shooting posture information indicates posture information of the imaging unit 220 or the imaging unit 230 when the aerial image is taken aerial. The imaging range information indicates the imaging range of the imaging unit 220 or the imaging unit 230 when the aerial image is aerial. The subject distance information indicates information on the distance from the imaging unit 220 or the imaging unit 230 to the subject. The subject distance information may be based on information detected by the ultrasonic sensor 280 or the laser measuring device 290.

UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。   The UAV control unit 110 may specify the environment around the unmanned aerial vehicle 100 by analyzing a plurality of images captured by the plurality of imaging units 230. The UAV control unit 110 may control the flight based on the environment around the unmanned aircraft 100, for example, avoiding an obstacle.

UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木等の風景の一部でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。   The UAV control unit 110 may acquire three-dimensional information (three-dimensional information) indicating the three-dimensional shape (three-dimensional shape) of an object that exists around the unmanned aircraft 100. The object may be a part of a landscape such as a building, road, car, or tree. The three-dimensional information is, for example, three-dimensional space data. The UAV control unit 110 may acquire the three-dimensional information by generating the three-dimensional information indicating the three-dimensional shape of the object existing around the unmanned aircraft 100 from each image obtained from the plurality of imaging units 230. The UAV control unit 110 may acquire the three-dimensional information indicating the three-dimensional shape of the object existing around the unmanned aircraft 100 by referring to the three-dimensional map database stored in the memory 160 or the storage 170. The UAV control unit 110 may acquire three-dimensional information related to the three-dimensional shape of an object existing around the unmanned aircraft 100 by referring to a three-dimensional map database managed by a server existing on the network.

UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部220の撮像範囲を制御してよい。UAV制御部110は、撮像部220が備えるズームレンズを制御することで、撮像部220の画角を制御してよい。UAV制御部110は、撮像部220のデジタルズーム機能を利用して、デジタルズームにより、撮像部220の画角を制御してよい。   The UAV control unit 110 controls the flight of the unmanned aircraft 100 by controlling the rotary wing mechanism 210. That is, the UAV control unit 110 controls the position including the latitude, longitude, and altitude of the unmanned aircraft 100 by controlling the rotary wing mechanism 210. The UAV control unit 110 may control the imaging range of the imaging unit 220 by controlling the flight of the unmanned aircraft 100. The UAV control unit 110 may control the angle of view of the imaging unit 220 by controlling a zoom lens included in the imaging unit 220. The UAV control unit 110 may control the angle of view of the imaging unit 220 by digital zoom using the digital zoom function of the imaging unit 220.

撮像部220が無人航空機100に固定され、撮像部220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。あるいは撮像部220がズーム機能を有さず、撮像部220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。   When the imaging unit 220 is fixed to the unmanned aircraft 100 and the imaging unit 220 cannot be moved, the UAV control unit 110 moves the unmanned aircraft 100 to a specific position at a specific date and time to perform desired imaging under a desired environment. The range may be captured by the imaging unit 220. Alternatively, even when the imaging unit 220 does not have a zoom function and the angle of view of the imaging unit 220 cannot be changed, the UAV control unit 110 moves the unmanned aircraft 100 to a specific position at the specified date and time to In this environment, the imaging unit 220 may capture a desired imaging range.

通信インタフェース150は、端末80と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してもよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報を、端末80に送信してよい。   The communication interface 150 communicates with the terminal 80. The communication interface 150 may perform wireless communication using an arbitrary wireless communication method. The communication interface 150 may perform wired communication by an arbitrary wired communication method. The communication interface 150 may transmit an aerial image and additional information regarding the aerial image to the terminal 80.

メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人航空機100から取り外し可能であってもよい。   The memory 160 includes a gimbal 200, a rotating blade mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, an inertial measurement device 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser. A program and the like necessary for controlling the measuring device 290 are stored. The memory 160 may be a computer-readable recording medium, such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one flash memory such as a USB (Universal Serial Bus) memory. Memory 160 may be removable from unmanned aerial vehicle 100.

メモリ160は、作業用メモリとして動作してよい。メモリ160は、部分領域における合成画像の生成に使用されてよい。   The memory 160 may operate as a working memory. The memory 160 may be used for generating a composite image in the partial area.

ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、無人航空機100から取り外し可能であってもよい。   The storage 170 may include at least one of a hard disk drive (HDD), a solid state drive (SSD), an SD card, a USB memory, and other storage. The storage 170 may hold various information and various data. Storage 170 may be removable from unmanned aerial vehicle 100.

ストレージ170は、空撮画像を記録してよい。ストレージ170は、空撮画像を基に生成された部分領域における合成画像や、各部分領域の各合成画像が合成された合成画像、を記録してよい。   The storage 170 may record aerial images. The storage 170 may record a composite image in a partial area generated based on an aerial image and a composite image in which each composite image in each partial area is combined.

ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。   The gimbal 200 may support the imaging unit 220 rotatably about the yaw axis, pitch axis, and roll axis. The gimbal 200 may change the imaging direction of the imaging unit 220 by rotating the imaging unit 220 around at least one of the yaw axis, the pitch axis, and the roll axis.

ヨー軸、ピッチ軸、及びロール軸は、以下のように定められてよい。例えば、水平方向(地面と平行な方向)にロール軸が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸が定められ、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が定められる。   The yaw axis, pitch axis, and roll axis may be determined as follows. For example, assume that the roll axis is defined in the horizontal direction (direction parallel to the ground). In this case, a pitch axis is defined in a direction parallel to the ground and perpendicular to the roll axis, and a yaw axis (see z-axis) is defined in a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでもよいし、その他の数でもよい。また、無人航空機100は、回転翼を有さない固定翼機でもよい。   The rotary blade mechanism 210 includes a plurality of rotary blades and a plurality of drive motors that rotate the plurality of rotary blades. The rotary wing mechanism 210 causes the unmanned aircraft 100 to fly by being controlled by the UAV control unit 110. The number of rotor blades 211 may be four, for example, or any other number. Unmanned aerial vehicle 100 may also be a fixed wing aircraft that does not have rotating wings.

撮像部220は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラでよい。撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データ(例えば空撮画像)は、撮像部220が有するメモリ、又はストレージ170に格納されてよい。   The imaging unit 220 may be an imaging camera that captures an image of a subject included in a desired imaging range (for example, an aerial image, a landscape such as a mountain or a river, a building on the ground). The imaging unit 220 captures a subject in a desired imaging range and generates captured image data. Image data (for example, an aerial image) obtained by imaging by the imaging unit 220 may be stored in a memory included in the imaging unit 220 or the storage 170.

撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラでよい。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えてよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部220で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。   The imaging unit 230 may be a sensing camera that images the surroundings of the unmanned aircraft 100 in order to control the flight of the unmanned aircraft 100. Two imaging units 230 may be provided on the front surface that is the nose of the unmanned aircraft 100. Further, the other two imaging units 230 may be provided on the bottom surface of the unmanned aircraft 100. The two imaging units 230 on the front side may be paired and function as a so-called stereo camera. The two imaging units 230 on the bottom side may also be paired and function as a stereo camera. Based on images captured by the plurality of imaging units 230, three-dimensional space data (three-dimensional shape data) around the unmanned aircraft 100 may be generated. Note that the number of the imaging units 230 included in the unmanned aerial vehicle 100 is not limited to four. The unmanned aerial vehicle 100 may include at least one imaging unit 230. The unmanned aerial vehicle 100 may include at least one imaging unit 230 on each of the nose, tail, side surface, bottom surface, and ceiling surface of the unmanned aircraft 100. The angle of view that can be set by the imaging unit 230 may be wider than the angle of view that can be set by the imaging unit 220. The imaging unit 230 may include a single focus lens or a fisheye lens. The imaging unit 230 captures the surroundings of the unmanned aircraft 100 and generates captured image data. Image data of the imaging unit 230 may be stored in the storage 170.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。   The GPS receiver 240 receives a plurality of signals indicating times and positions (coordinates) of each GPS satellite transmitted from a plurality of navigation satellites (that is, GPS satellites). The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aircraft 100) based on the plurality of received signals. The GPS receiver 240 outputs the position information of the unmanned aircraft 100 to the UAV control unit 110. The calculation of the position information of the GPS receiver 240 may be performed by the UAV control unit 110 instead of the GPS receiver 240. In this case, the UAV control unit 110 receives information indicating the time and the position of each GPS satellite included in a plurality of signals received by the GPS receiver 240.

慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。   Inertial measurement device 250 detects the attitude of unmanned aerial vehicle 100 and outputs the detection result to UAV control unit 110. The inertial measurement device 250 detects, as the attitude of the unmanned aerial vehicle 100, acceleration in the three axial directions of the unmanned aircraft 100 in the front, rear, left, and right directions, and the angular velocity in the three axial directions of the pitch axis, the roll axis, and the yaw axis. It's okay.

磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。   The magnetic compass 260 detects the heading of the unmanned aircraft 100 and outputs the detection result to the UAV control unit 110.

気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。   Barometric altimeter 270 detects the altitude at which unmanned aircraft 100 flies, and outputs the detection result to UAV control unit 110.

超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。   The ultrasonic sensor 280 emits an ultrasonic wave, detects an ultrasonic wave reflected by the ground or an object, and outputs a detection result to the UAV control unit 110. The detection result may indicate a distance from the unmanned aircraft 100 to the ground, that is, an altitude. The detection result may indicate a distance from the unmanned aircraft 100 to an object (subject).

レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。   Laser measuring device 290 irradiates the object with laser light, receives the reflected light reflected by the object, and measures the distance between unmanned aircraft 100 and the object (subject) using the reflected light. As an example, the distance measurement method using laser light may be a time-of-flight method.

図4は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備えてよい。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the terminal 80. The terminal 80 may include a terminal control unit 81, an operation unit 83, a communication unit 85, a memory 87, a display unit 88, and a storage 89.

端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The terminal control unit 81 is configured using, for example, a CPU, MPU, or DSP. The terminal control unit 81 performs signal processing for overall control of operations of each unit of the terminal 80, data input / output processing with other units, data calculation processing, and data storage processing.

端末制御部81は、通信部85を介して、無人航空機100からのデータや空撮画像や情報を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報(例えば各種パラメータ)を取得してよい。端末制御部81は、メモリ87に保持されたデータや空撮画像や情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100へ、データや情報(例えば各種パラメータ)を送信させてよい。端末制御部81は、データや情報(例えば各種パラメータ)や空撮画像や合成画像を表示部88に送り、このデータや情報や空撮画像や合成画像に基づく表示情報を表示部88に表示させてよい。   The terminal control unit 81 may acquire data, aerial images, and information from the unmanned aircraft 100 via the communication unit 85. The terminal control unit 81 may acquire data and information (for example, various parameters) input via the operation unit 83. The terminal control unit 81 may acquire data, aerial images, and information stored in the memory 87. The terminal control unit 81 may transmit data and information (for example, various parameters) to the unmanned aircraft 100 via the communication unit 85. The terminal control unit 81 sends data, information (for example, various parameters), an aerial image, and a composite image to the display unit 88, and causes the display unit 88 to display display information based on the data, information, the aerial image, and the composite image. It's okay.

端末制御部81は、画像合成支援アプリケーションを実行してよい。画像合成支援アプリケーションは、無人航空機100による空撮画像の合成を支援するためのアプリケーションでよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。   The terminal control unit 81 may execute an image composition support application. The image synthesis support application may be an application for supporting the synthesis of aerial images by the unmanned aircraft 100. The terminal control unit 81 may generate various data used in the application.

操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100へ送信されてよい。各種パラメータは、画像合成に関するパラメータ(例えば画像合成の対象となる元画像の枚数、画像合成を行う所定の領域のサイズ、形状、の情報)を含んでよい。   The operation unit 83 receives and acquires data and information input by the user of the terminal 80. The operation unit 83 may include buttons, keys, a touch panel, a microphone, and the like. Here, it is exemplified that the operation unit 83 and the display unit 88 are mainly configured by a touch panel. In this case, the operation unit 83 can accept a touch operation, a tap operation, a drag operation, and the like. The operation unit 83 may accept information on various parameters. The information input by the operation unit 83 may be transmitted to the unmanned aircraft 100. The various parameters may include parameters related to image composition (for example, information on the number of original images to be image-combined and the size and shape of a predetermined area where image composition is performed).

通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してもよい。   The communication unit 85 performs wireless communication with the unmanned aircraft 100 by various wireless communication methods. This wireless communication method of wireless communication may include, for example, communication via a wireless LAN, Bluetooth (registered trademark), or a public wireless line. The communication unit 85 may perform wired communication using an arbitrary wired communication method.

メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。   The memory 87 includes, for example, a ROM that stores a program that defines the operation of the terminal 80 and data of setting values, and a RAM that temporarily stores various information and data used during processing by the terminal control unit 81. It's okay. The memory 87 may include memories other than ROM and RAM. The memory 87 may be provided inside the terminal 80. The memory 87 may be provided so as to be removable from the terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータや空撮画像や合成画像を表示する。表示部88は、画像合成支援アプリケーションの実行に係る各種データや情報を表示してよい。   The display unit 88 is configured using, for example, an LCD (Liquid Crystal Display), and displays various types of information and data, aerial images, and composite images output from the terminal control unit 81. The display unit 88 may display various data and information related to the execution of the image composition support application.

ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100から取得された空撮画像や付加情報を保持してよい。付加情報は、メモリ87に保持されてもよい。ストレージ89は、空撮画像に基づく合成画像を保持してもよい。   The storage 89 stores and holds various data and information. The storage 89 may be an HDD, SSD, SD card, USB memory, or the like. The storage 89 may be provided inside the terminal 80. The storage 89 may be provided so as to be removable from the terminal 80. The storage 89 may hold an aerial image acquired from the unmanned aircraft 100 and additional information. The additional information may be held in the memory 87. The storage 89 may hold a composite image based on the aerial image.

次に、無人航空機100のUAV制御部110が有する画像合成に関する機能について説明する。UAV制御部110は、処理部の一例である。UAV制御部110は、空撮画像の合成に関する処理を行う。   Next, functions relating to image composition that the UAV control unit 110 of the unmanned aerial vehicle 100 has will be described. The UAV control unit 110 is an example of a processing unit. The UAV control unit 110 performs processing related to aerial image synthesis.

UAV制御部110は、ストレージ170に記録された空撮画像を読出し、取得してよい。この空撮画像は、元画像OGとなる。UAV制御部110は、通信インタフェース150を介して元画像OGを受信することで、元画像OGを取得してよい。これらの元画像OGは、過去に空撮された空撮画像でよい。   The UAV control unit 110 may read out and obtain an aerial image recorded in the storage 170. This aerial image becomes the original image OG. The UAV control unit 110 may acquire the original image OG by receiving the original image OG via the communication interface 150. These original images OG may be aerial images taken in the past.

UAV制御部110は、複数の元画像OGを取得する。複数の元画像OGは、それぞれ、元画像OGの画像範囲GH(撮像範囲)が異なる(図5参照等)。画像範囲GHは、元画像OGに映り込んだ地理的な範囲を示してよい。元画像OGが空撮された位置が異なることに起因して、各元画像OGの画像範囲GHが異なってよい。元画像OGが空撮された位置は同じであるが、元画像OGが空撮された空撮方向、空撮高度(例えば無人航空機100の飛行高度)、等が異なることに起因して、各元画像OGの画像範囲GHが異なってよい。元画像OGの画像範囲GHが異なることは、元画像OGのサイズ、元画像OGの向き、元画像OGの形状、等が異なることが含まれてよい。なお、元画像OGは、第1の空撮画像の一例である。   The UAV control unit 110 acquires a plurality of original images OG. Each of the plurality of original images OG has a different image range GH (imaging range) of the original image OG (see FIG. 5 and the like). The image range GH may indicate a geographical range reflected in the original image OG. The image range GH of each original image OG may be different due to the difference in the position where the original image OG is taken in the sky. The position at which the original image OG is aerial is the same, but due to the difference in aerial shooting direction, aerial altitude (for example, flight altitude of the unmanned aircraft 100), etc. The image range GH of the original image OG may be different. Different image ranges GH of the original image OG may include differences in the size of the original image OG, the orientation of the original image OG, the shape of the original image OG, and the like. The original image OG is an example of the first aerial image.

画像範囲GHは、各種の撮像パラメータや飛行パラメータを基に定められてよい。撮像パラメータは、上述した撮像範囲情報を含んでよい。つまり、撮像パラメータは、元画像OGが過去に空撮された際の撮像部220又は撮像部230の画角FOV、空撮方向、撮像部220の姿勢、ジンバル200の回転角度、等の情報を含んでよい。飛行パラメータは、元画像OGが過去に空撮された際の無人航空機100の位置(空撮位置)(例えば緯度、経度、高度)を含んでよい。   The image range GH may be determined based on various imaging parameters and flight parameters. The imaging parameter may include the imaging range information described above. That is, the imaging parameters include information such as the angle of view FOV of the imaging unit 220 or the imaging unit 230 when the original image OG has been taken in the past, the aerial shooting direction, the attitude of the imaging unit 220, the rotation angle of the gimbal 200, and the like. May include. The flight parameters may include the position (aerial position) of the unmanned aircraft 100 when the original image OG was aerial in the past (for example, latitude, longitude, altitude).

過去に空撮された元画像OGに関する撮像パラメータ及び飛行パラメータは、元画像OGに付加された付加情報に含まれていてよい。UAV制御部110は、この付加情報を、ストレージ170から読み出し、取得してよい。UAV制御部110は、この付加情報を、通信インタフェース150を介して受信し、取得してよい。UAV制御部110は、撮像パラメータ及び飛行パラメータの少なくとも1つに基づいて、複数の元画像OGの画像範囲GHを決定してよい。例えば、UAV制御部110は、画角FOV、空撮方向、撮像部220の姿勢、空撮位置(緯度、経度、高度)、等に基づいて、画像範囲GHを算出してよい。   Imaging parameters and flight parameters relating to the original image OG taken in the past may be included in the additional information added to the original image OG. The UAV control unit 110 may read and acquire this additional information from the storage 170. The UAV control unit 110 may receive and acquire this additional information via the communication interface 150. The UAV control unit 110 may determine the image ranges GH of the plurality of original images OG based on at least one of the imaging parameter and the flight parameter. For example, the UAV control unit 110 may calculate the image range GH based on the angle of view FOV, the aerial shooting direction, the attitude of the imaging unit 220, the aerial shooting position (latitude, longitude, altitude), and the like.

これにより、無人航空機100は、空撮済みの元画像OGの付加情報を基に、元画像OGが空撮された地理的な範囲を把握することができる。   Thereby, the unmanned aerial vehicle 100 can grasp the geographical range in which the original image OG is aerial captured based on the additional information of the aerial captured original image OG.

UAV制御部110は、取得された複数の元画像OGの画像範囲GHを包囲する包囲領域D1を算出する。なお、包囲領域D1は、第1の領域の一例である。   The UAV control unit 110 calculates a surrounding area D1 that surrounds the image range GH of the plurality of acquired original images OG. The surrounding area D1 is an example of a first area.

UAV制御部110は、3次元地図データベースに含まれる地図領域D11を、包囲領域D1としてよい。地図領域D11は、取得された複数の元画像OGの画像範囲GHを内部に含む。地図領域D11の外周は、取得された複数の元画像OGに外接してもよいし、外接しなくてもよい。UAV制御部110は、外接矩形領域D12を、包囲領域D1としてよい。外接矩形領域D12は、取得された複数の元画像OGの画像範囲GHを内部に含み、複数の元画像OGの画像範囲GHに外接する矩形状の領域である。   The UAV control unit 110 may set the map area D11 included in the three-dimensional map database as the surrounding area D1. The map area D11 includes an image range GH of the acquired plurality of original images OG inside. The outer periphery of the map area D11 may or may not circumscribe the plurality of acquired original images OG. The UAV control unit 110 may set the circumscribed rectangular area D12 as the surrounding area D1. The circumscribed rectangular area D12 is a rectangular area that includes the acquired image ranges GH of the plurality of original images OG and circumscribes the image ranges GH of the plurality of original images OG.

UAV制御部110は、包囲領域D1を分割し、複数の部分領域pdを生成する。UAV制御部110は、包囲領域D1を二次元平面において一定の等間隔で区分することで、複数の部分領域pdを生成してよい。UAV制御部110は、包囲領域D1を二次元平面において異なる間隔で区分して、複数の部分領域pdを生成してよい。つまり、部分領域pdのサイズは、それぞれ同じでも異なってもよい。この二次元平面は、地面に平行な平面でよい。部分領域pdの形状は、矩形(例えば正方形)でもよいし、矩形でなくてもよい。   The UAV control unit 110 divides the surrounding area D1 and generates a plurality of partial areas pd. The UAV control unit 110 may generate a plurality of partial regions pd by dividing the surrounding region D1 at a constant regular interval in the two-dimensional plane. The UAV control unit 110 may generate a plurality of partial regions pd by dividing the surrounding region D1 at different intervals in the two-dimensional plane. That is, the sizes of the partial regions pd may be the same or different. This two-dimensional plane may be a plane parallel to the ground. The shape of the partial region pd may be a rectangle (for example, a square) or may not be a rectangle.

部分領域pdのサイズは、地図データベースが保持する地図画像の一部を構成するタイル画像のサイズに合わせて決定されてよい。部分領域pdのサイズは、画像合成に用いられるデバイス(例えばメモリ160)のスペック(例えば容量)に基づき、部分領域pdにおける画像合成時にメモリリークが発生しないサイズに決定されてよい。部分領域pdのサイズは、部分領域pdにおける画像合成時の処理時間や処理効率の観点から決定されてよい。   The size of the partial region pd may be determined according to the size of the tile image that constitutes a part of the map image held in the map database. The size of the partial region pd may be determined based on the specification (for example, capacity) of the device (for example, the memory 160) used for image composition so that no memory leak occurs during image composition in the partial region pd. The size of the partial region pd may be determined from the viewpoint of processing time and processing efficiency during image composition in the partial region pd.

UAV制御部110は、部分領域pd毎に、複数の元画像OGを合成し、合成画像SG1を生成してよい。この場合、UAV制御部110は、複数の元画像OGのうち、部分領域pdと重複する画像である重複元画像OOGを、部分領域pdにおける画像合成に使用する。UAV制御部110は、重複元画像OOGが空撮された空撮位置の情報を用いて、合成画像SG1を生成してよい。空撮位置の情報は、元画像OGに関する付加情報に含まれてよい。UAV制御部110は、画像認識により、重複元画像OOGの特徴点を抽出してよい。UAV制御部110は、複数の重複元画像OOGの特徴点同志を対応(マッチング)させて、合成画像SG1を生成してよい。なお、重複元画像OOGは、第2の空撮画像の一例である。合成画像SG1は、第1の合成画像の一例である。   The UAV control unit 110 may combine a plurality of original images OG for each partial region pd to generate a combined image SG1. In this case, the UAV control unit 110 uses the overlapping original image OOG that is an image overlapping the partial region pd among the plurality of original images OG for image synthesis in the partial region pd. The UAV control unit 110 may generate the composite image SG1 using information on the aerial shooting position where the overlapping original image OOG was taken aerial. The information on the aerial shooting position may be included in the additional information regarding the original image OG. The UAV control unit 110 may extract feature points of the overlapping original image OOG by image recognition. The UAV control unit 110 may generate a composite image SG1 by matching (matching) feature points of a plurality of overlapping original images OOG. The overlapping original image OOG is an example of a second aerial image. The composite image SG1 is an example of a first composite image.

UAV制御部110は、部分領域pdと重複する重複元画像OOGの全体を合成して、合成画像SG1を生成してよい。UAV制御部110は、部分領域pdと重複する重複元画像OOGの一部(重複部分)を合成して、合成画像SG1を生成してよい。この場合、UAV制御部110は、部分領域pdと重複元画像OOGとの重複部分を切り出し、切り出された重複部分を合成してよい。重複部分の合成により得られた合成画像SG1は、その画像範囲GHが部分領域pdに含まれることになる。なお、この重複部分は、第1の部分の一例である。   The UAV control unit 110 may combine the entire overlapping original image OOG that overlaps the partial region pd to generate the combined image SG1. The UAV control unit 110 may generate a combined image SG1 by combining a part (overlapping portion) of the overlapping original image OOG that overlaps the partial region pd. In this case, the UAV control unit 110 may cut out an overlapping portion between the partial region pd and the overlapping original image OOG and synthesize the cut out overlapping portion. The combined image SG1 obtained by combining overlapping portions includes the image range GH in the partial region pd. This overlapping portion is an example of the first portion.

これにより、部分領域pdにおける画像合成に使用された重複部分の全てが、部分領域pdの合成画像SG1に寄与することになる。したがって、無人航空機100は、部分領域pdの画像合成において、この部分領域pd以外の画像部分の演算が無くなり、演算効率を向上できる。   Thereby, all the overlapping parts used for the image composition in the partial region pd contribute to the composite image SG1 of the partial region pd. Therefore, the unmanned aerial vehicle 100 eliminates the calculation of the image portion other than the partial region pd in the image composition of the partial region pd, and can improve the calculation efficiency.

UAV制御部110は、部分領域pdと重複する全ての重複元画像OOGを合成して、合成画像SG1を生成してよい。UAV制御部110は、部分領域pdと重複する一部の重複元画像OOGを合成して、合成画像SG1を生成してよい。つまり、UAV制御部110は、画像合成に用いる重複元画像OOGを決定すべく、重複元画像OOGの一部を間引いてもよい。   The UAV control unit 110 may generate a combined image SG1 by combining all the overlapping original images OOG that overlap with the partial region pd. The UAV control unit 110 may generate a combined image SG1 by combining some overlapping original images OOG that overlap with the partial region pd. That is, the UAV control unit 110 may thin out a part of the overlapping original image OOG in order to determine the overlapping original image OOG used for image composition.

例えば、UAV制御部110は、部分領域pdと重複元画像OOGとが重複する面積を算出してよい。UAV制御部110は、算出された面積が所定閾値以下である重複元画像OOGを、画像合成に用いる画像から除外してよい。また、重複する面積の代わりに、重複する割合(重複率)を用いてもよい。つまり、UAV制御部110は、算出された重複率が所定閾値以下(例えば1/10以下)である重複元画像OOGを、画像合成に用いる画像から除外してよい。   For example, the UAV control unit 110 may calculate an area where the partial region pd and the overlapping original image OOG overlap. The UAV control unit 110 may exclude the overlapping original image OOG whose calculated area is equal to or smaller than a predetermined threshold from the image used for image synthesis. Moreover, you may use the ratio (overlap rate) which overlaps instead of the area which overlaps. That is, the UAV control unit 110 may exclude the overlapping original image OOG whose calculated overlapping rate is equal to or less than a predetermined threshold (for example, 1/10 or less) from the image used for image composition.

これにより、無人航空機100は、合成画像SG1に寄与する部分が小さい重複元画像OOGを画像合成の対象から除外するので、画像の合成画像SG1に対する影響力が小さくできる。また、画像合成に用いる画像数が削減されるので、無人航空機100は、画像合成に係る処理負荷を低減できる。   Thereby, the unmanned aerial vehicle 100 excludes the overlapping original image OOG, which has a small portion contributing to the composite image SG1, from the target of image composition, so that the influence of the image on the composite image SG1 can be reduced. Moreover, since the number of images used for image composition is reduced, the unmanned aircraft 100 can reduce the processing load related to image composition.

例えば、端末80において、端末制御部81は、操作部83を介して、重複元画像OOGのうち、画像合成の対象から除外する重複元画像OOGを指定し、指定情報を生成してよい。端末制御部81は、通信部85を介して、指定情報を無人航空機100へ送信してよい。無人航空機100において、UAV制御部110は、通信インタフェース150を介して端末80から指定情報を取得してよい。UAV制御部110は、指定情報により指定された重複元画像OOGを画像合成に用いる画像から除外してよい。   For example, in the terminal 80, the terminal control unit 81 may specify the duplication source image OOG to be excluded from the image synthesis targets among the duplication source images OOG via the operation unit 83, and generate designation information. The terminal control unit 81 may transmit the designation information to the unmanned aircraft 100 via the communication unit 85. In the unmanned aircraft 100, the UAV control unit 110 may acquire designation information from the terminal 80 via the communication interface 150. The UAV control unit 110 may exclude the duplicate original image OOG designated by the designation information from the images used for image composition.

これにより、無人航空機100は、ユーザが画像合成に用いられることを希望しない重複元画像OOGを画像合成の対象から除外でき、部分領域pdにおいて所望の合成画像SG1を生成できる。また、画像合成に用いる画像数が削減されるので、無人航空機100は、画像合成に係る処理負荷を低減できる。   Thereby, the unmanned aerial vehicle 100 can exclude the overlapping original image OOG that the user does not want to use for image composition from the object of image composition, and can generate a desired composite image SG1 in the partial region pd. Moreover, since the number of images used for image composition is reduced, the unmanned aircraft 100 can reduce the processing load related to image composition.

例えば、端末80において、端末制御部81は、操作部83を介して、1つの部分領域pdにおける画像合成に用いる重複元画像OOGの枚数を指定し、指定情報を生成してよい。端末制御部81は、通信部85を介して、指定情報を無人航空機100へ送信してよい。無人航空機100において、UAV制御部110は、通信インタフェース150を介して端末80から指定情報を取得し、指定情報で規定された枚数以下となるように、複数の重複元画像OOGから、画像合成に用いる重複元画像OOGを決定してよい。   For example, in the terminal 80, the terminal control unit 81 may specify the number of overlapping original images OOG used for image synthesis in one partial region pd via the operation unit 83, and generate specification information. The terminal control unit 81 may transmit the designation information to the unmanned aircraft 100 via the communication unit 85. In the unmanned aircraft 100, the UAV control unit 110 acquires designation information from the terminal 80 via the communication interface 150, and performs image synthesis from a plurality of overlapping original images OOG so that the number is equal to or less than the number specified by the designation information. The overlapping original image OOG to be used may be determined.

UAV制御部110は、部分領域pd毎に、合成画像SG1を生成する。UAV制御部110は、包囲領域D1内の各部分領域pdにおける各合成画像SG1を合成し、包囲領域D1における合成画像SG2を生成してよい。つまり、UAV制御部110は、取得された複数の元画像OGの画像範囲全体における合成画像SG2を生成してよい。なお、合成画像SG2は、第2の合成画像の一例である。   The UAV control unit 110 generates a composite image SG1 for each partial region pd. The UAV control unit 110 may combine the composite images SG1 in the partial regions pd in the surrounding region D1 to generate a composite image SG2 in the surrounding region D1. That is, the UAV control unit 110 may generate the composite image SG2 in the entire image range of the acquired plurality of original images OG. The composite image SG2 is an example of a second composite image.

UAV制御部110は、合成画像SG1,SG2を生成する際に、最適化処理を実施してよい。最適化処理は、画像合成の対象となる画像の位置合わせ、画質合わせ(例えば解像度を調整して合わせる)、を含んでよい。画像の位置合わせは、画像合成の対象となる画像の位置情報に基づいてもよいし、画像合成の対象となる画像の特徴点の情報に基づいてもよい。部分領域pdにおいて合成画像SG1が生成される場合には、重複元画像OOGが画像合成の対象となる。包囲領域D1において合成画像SG2が生成される場合には、合成画像SG1が画像合成の対象となる。   The UAV control unit 110 may perform optimization processing when generating the composite images SG1 and SG2. The optimization process may include alignment of an image to be image-combined and alignment of image quality (for example, adjusting and adjusting resolution). The alignment of images may be based on position information of an image to be image-combined, or may be based on feature point information of an image to be image-combined. When the composite image SG1 is generated in the partial region pd, the overlapping original image OOG is the target of image composition. When the composite image SG2 is generated in the surrounding area D1, the composite image SG1 is a target of image composition.

包囲領域D1において、隣り合う部分領域pdは、部分領域pdの外周が互いに接してよい。隣り合う部分領域pdは、少なくとも一部が重複してもよく、つまりオーバーラップしてもよい。   In the surrounding area D1, the adjacent partial areas pd may be in contact with each other at the outer periphery of the partial area pd. The adjacent partial regions pd may overlap at least partially, that is, may overlap.

次に、包囲領域D1、部分領域pd、元画像OGの画像範囲GH、等の具体例について説明する。   Next, specific examples of the surrounding area D1, the partial area pd, the image range GH of the original image OG, and the like will be described.

図5は、包囲領域D1としての地図領域D11及び部分領域pdの一例を示す図である。UAV制御部110は、複数の元画像OGを取得する。図5では、複数の元画像OGが、元画像OGが空撮された空撮位置や元画像OGの画像範囲GHを加味して、二次元平面(例えばxy方向)においてマッピングされている。UAV制御部110は、複数の元画像OGの画像範囲GHのうち、x方向の最大値、x方向の最小値、y方向の最大値、及びy方向の最小値を有する4点を通る矩形状の領域を、外接矩形領域D12として算出してよい。   FIG. 5 is a diagram illustrating an example of the map area D11 and the partial area pd as the surrounding area D1. The UAV control unit 110 acquires a plurality of original images OG. In FIG. 5, a plurality of original images OG are mapped on a two-dimensional plane (for example, in the xy direction) in consideration of an aerial shooting position at which the original image OG was shot and an image range GH of the original image OG. The UAV control unit 110 has a rectangular shape that passes through four points having a maximum value in the x direction, a minimum value in the x direction, a maximum value in the y direction, and a minimum value in the y direction, among the image ranges GH of the plurality of original images OG. May be calculated as the circumscribed rectangular region D12.

図5では、UAV制御部110は、外接矩形領域D12を包囲して、地図領域D11を決定してよい。地図領域D11は、外部の地図データベースが蓄積する地図画像における任意の地理的領域と一致してよい。地図画像は、例えば地図データベースにおいて、複数のタイル画像(地図画像を構成する部分的な画像)が配列されて合成されることで、生成される。UAV制御部110は、地図領域D11を分割し、複数の部分領域pdを生成する。この部分領域pdは、地図画像を作成するために用いられた、タイル画像の領域と一致してよい。   In FIG. 5, the UAV control unit 110 may determine the map area D11 by surrounding the circumscribed rectangular area D12. The map area D11 may coincide with an arbitrary geographical area in the map image stored in the external map database. The map image is generated, for example, by arranging and combining a plurality of tile images (partial images constituting the map image) in a map database. The UAV control unit 110 divides the map area D11 and generates a plurality of partial areas pd. This partial area pd may coincide with the area of the tile image used to create the map image.

UAV制御部110は、外接矩形領域D12に基づいて、地図領域D11を決定してよい。例えば、UAV制御部110は、地図領域D11が外接矩形領域D12を含んで最も小さい矩形の領域となるように、地図領域D11を決定してよい。つまり、UAV制御部110は、外接矩形領域D12の外周を示す矩形の線が、包囲領域D1内における最も外側の外周部に存在する部分領域pdを通るように、包囲領域D1を決定してよい。   The UAV control unit 110 may determine the map area D11 based on the circumscribed rectangular area D12. For example, the UAV control unit 110 may determine the map area D11 so that the map area D11 is the smallest rectangular area including the circumscribed rectangular area D12. That is, the UAV control unit 110 may determine the surrounding area D1 so that the rectangular line indicating the outer periphery of the circumscribed rectangular area D12 passes through the partial area pd existing in the outermost outer peripheral part in the surrounding area D1. .

UAV制御部110は、例えば、取得された複数の元画像OGのうち、部分領域pd1と画像範囲GHが重複する重複元画像OOGを決定する。図5では、部分領域pd1における重複元画像OOGは8個存在する。UAV制御部110は、重複元画像OOGを基に、部分領域pd1の合成画像SG1を生成する。   For example, the UAV control unit 110 determines an overlapping original image OOG in which the partial region pd1 and the image range GH overlap among the acquired plurality of original images OG. In FIG. 5, there are eight overlapping original images OOG in the partial region pd1. The UAV control unit 110 generates a composite image SG1 of the partial region pd1 based on the overlapping original image OOG.

包囲領域D1が地図領域D11とされることで、部分領域pd1がタイル画像の領域に一致する。そのため、無人航空機100は、部分領域pd1の合成画像SG1とタイル画像との比較や分析をし易くできる。また、無人航空機100は、各合成画像SG1が合成された合成画像SG2と、地図画像において合成画像SG2に対応する地理的領域の画像と、の比較や分析をし易くできる。   Since the surrounding area D1 is the map area D11, the partial area pd1 matches the area of the tile image. Therefore, the unmanned aerial vehicle 100 can easily compare and analyze the composite image SG1 of the partial region pd1 and the tile image. In addition, the unmanned aircraft 100 can easily compare and analyze a composite image SG2 obtained by combining the composite images SG1 and an image of a geographical area corresponding to the composite image SG2 in the map image.

図6は、外接矩形領域D12としての包囲領域D1及び部分領域pdの一例を示す図である。図6において、図5と同様の部分については、その説明を省略又は簡略化する。   FIG. 6 is a diagram illustrating an example of the surrounding region D1 and the partial region pd as the circumscribed rectangular region D12. In FIG. 6, the description of the same parts as in FIG. 5 is omitted or simplified.

図6では、UAV制御部110は、地図領域D11を生成しない。つまり、地図画像に基づく領域を加味しない。UAV制御部110は、外接矩形領域D12を分割し、複数の部分領域pdを生成する。この部分領域pdは、地図画像に係るタイル画像の領域とは一致しなくてよい。   In FIG. 6, the UAV control unit 110 does not generate the map area D11. That is, the region based on the map image is not taken into consideration. The UAV control unit 110 divides the circumscribed rectangular area D12 to generate a plurality of partial areas pd. This partial area pd does not have to coincide with the area of the tile image related to the map image.

包囲領域D1が外接矩形領域D12とされることで、無人航空機100は、地図領域D11を不要にでき、外接矩形領域D12から部分領域pdを直接算出可能である。したがって、無人航空機100は、画像合成に係る演算量を低減できる。また、外接矩形領域D12としての包囲領域D1に対する複数の元画像OGの画像範囲GHの割合が、外接矩形領域D12の外側に形成される地図領域D11の場合と比較して大きくなる。そのため、包囲領域D1全体の合成画像である合成画像SG2に寄与する部分領域pdの数が多くなる。したがって、無人航空機100は、合成画像SG2の画像合成の効率を向上できる。   Since the surrounding area D1 is the circumscribed rectangular area D12, the unmanned aircraft 100 can eliminate the map area D11 and can directly calculate the partial area pd from the circumscribed rectangular area D12. Therefore, the unmanned aerial vehicle 100 can reduce the amount of calculation related to image composition. Further, the ratio of the image range GH of the plurality of original images OG to the surrounding region D1 as the circumscribed rectangular region D12 is larger than that in the case of the map region D11 formed outside the circumscribed rectangular region D12. Therefore, the number of partial regions pd contributing to the composite image SG2 that is the composite image of the entire surrounding region D1 increases. Therefore, the unmanned aerial vehicle 100 can improve the efficiency of image composition of the composite image SG2.

図7は、部分領域pd間で重複(オーバーラップ)を有する場合の部分領域pdの一例を示す図である。図7において、図5又は図6と同様の部分については、その説明を省略又は簡略化する。   FIG. 7 is a diagram illustrating an example of the partial region pd when there is an overlap (overlap) between the partial regions pd. In FIG. 7, the description of the same parts as those in FIG. 5 or FIG. 6 is omitted or simplified.

図7では、隣り合う部分領域pd(例えば部分領域pd2,pd3)において、重複部分を有する。例えば、元画像OG1が、部分領域pd2及び部分領域pd3の双方と重複しているので、部分領域pd2,pd3の双方において重複元画像OOGとなる。   In FIG. 7, adjacent partial regions pd (for example, partial regions pd2 and pd3) have overlapping portions. For example, since the original image OG1 overlaps both the partial region pd2 and the partial region pd3, it becomes the overlapping original image OOG in both the partial regions pd2 and pd3.

これにより、無人航空機100は、隣り合う部分領域pd2,pd3における重複元画像OOGの1つに、同一の元画像OG1を使用できる。よって、元画像OG1は、部分領域pd2,pd3の双方における画像合成に寄与する。そのため、無人航空機100は、部分領域pd2,pd3における合成画像SG1の連続性が高くでき、部分領域pd2,pd3の合成画像SG1の繋がりが滑らかになり、合成画像SG2の画質を向上できる。   Thereby, the unmanned aircraft 100 can use the same original image OG1 as one of the overlapping original images OOG in the adjacent partial regions pd2 and pd3. Therefore, the original image OG1 contributes to image synthesis in both the partial regions pd2 and pd3. Therefore, the unmanned aerial vehicle 100 can increase the continuity of the composite image SG1 in the partial regions pd2 and pd3, the connection between the composite images SG1 in the partial regions pd2 and pd3 becomes smooth, and the image quality of the composite image SG2 can be improved.

図8は、複数の元画像のサイズが異なる場合の元画像とその位置関係の一例を示す図である。図8において、図5〜図7と同様の部分については、その説明を省略又は簡略化する。   FIG. 8 is a diagram illustrating an example of an original image and its positional relationship when the sizes of a plurality of original images are different. 8, the description of the same parts as those in FIGS. 5 to 7 is omitted or simplified.

UAV制御部110は、図5〜7に示したように、元画像OGのサイズ、つまり元画像OGの画像範囲GHの大きさが一定であり同じである複数の元画像OGを取得してよい。また、図8に示すように、UAV制御部110は、図8に示したように、元画像のサイズ、つまり元画像OGの画像範囲GHの大きさが一定でなく異なる複数の元画像OGを取得してよい。   As shown in FIGS. 5 to 7, the UAV control unit 110 may acquire a plurality of original images OG having the same size and the same size of the original image OG, that is, the size of the image range GH of the original image OG. . Further, as shown in FIG. 8, the UAV control unit 110, as shown in FIG. 8, selects a plurality of original images OG having different sizes of the original image, that is, the size of the image range GH of the original image OG is different. You may get it.

次に、画像合成時におけるメモリ160及びストレージ170の使用例について説明する。   Next, a usage example of the memory 160 and the storage 170 at the time of image composition will be described.

UAV制御部110は、第1の部分領域pdにおける1つ以上の重複元画像OOGをストレージ170からメモリ160へ読み出す。UAV制御部110は、メモリ160を用いて重複元画像OOGを合成して合成画像SG1を生成し、最適化処理を行う。UAV制御部110は、生成された第1の部分領域pdの合成画像SG1をメモリ160からストレージ170に送り、ストレージ170に記録させる(書き込む)。UAV制御部110は、生成された合成画像SG1をメモリ160から削除する。   The UAV control unit 110 reads one or more overlapping original images OOG in the first partial region pd from the storage 170 to the memory 160. The UAV control unit 110 synthesizes the overlapping original image OOG using the memory 160 to generate a synthesized image SG1, and performs an optimization process. The UAV control unit 110 sends the generated composite image SG1 of the first partial region pd from the memory 160 to the storage 170 and records (writes) it in the storage 170. The UAV control unit 110 deletes the generated composite image SG1 from the memory 160.

続いて、UAV制御部110は、第2の部分領域pdにおける1つ以上の重複元画像OOGをストレージ170からメモリ160へ読み出す。UAV制御部110は、メモリ160を用いて重複元画像OOGを合成して合成画像SG1を生成し、最適化処理を行う。UAV制御部110は、生成された第2の部分領域pdの合成画像SG1をメモリ160からストレージ170に送り、ストレージ170に記録させる(書き込む)。UAV制御部110は、生成された合成画像SG1をメモリ160から削除する。以降、UAV制御部110は、このような処理を、各部分領域pdについて反復して実施してよい。   Subsequently, the UAV control unit 110 reads one or more overlapping original images OOG in the second partial region pd from the storage 170 to the memory 160. The UAV control unit 110 synthesizes the overlapping original image OOG using the memory 160 to generate a synthesized image SG1, and performs an optimization process. The UAV control unit 110 sends the generated composite image SG1 of the second partial region pd from the memory 160 to the storage 170 and records (writes) it in the storage 170. The UAV control unit 110 deletes the generated composite image SG1 from the memory 160. Thereafter, the UAV control unit 110 may repeat such processing for each partial region pd.

したがって、UAV制御部110は、部分領域pdにおける合成画像SG1の合成に必要なメモリ容量を確保すれば済み、包囲領域D1全体における合成画像SG2の合成と比較すると、メモリ160の必要容量を削減でき、メモリリークを抑制できる。   Therefore, the UAV control unit 110 only needs to secure a memory capacity necessary for the synthesis of the composite image SG1 in the partial region pd, and can reduce the required capacity of the memory 160 as compared with the synthesis of the composite image SG2 in the entire surrounding region D1. Memory leak can be suppressed.

また、部分領域pdのサイズが小さい程、重複元画像OOGの枚数が削減され得る。したがって、部分領域pdのサイズが小さい程、画像合成時においてもメモリ160の容量に余裕が生じ、無人航空機100は、メモリリークを更に抑制できる。また、メモリ160の容量に余裕が生じる分、低容量のメモリ160が使用可能となる。   Further, the smaller the size of the partial region pd, the more the number of overlapping original images OOG can be reduced. Therefore, the smaller the size of the partial region pd, the more space is generated in the memory 160 even during image composition, and the unmanned aircraft 100 can further suppress memory leaks. Further, the low-capacity memory 160 can be used as much as the capacity of the memory 160 is increased.

次に、無人航空機100の動作例について説明する。   Next, an operation example of the unmanned aircraft 100 will be described.

図9は、無人航空機100による動作例を示すフローチャートである。   FIG. 9 is a flowchart showing an operation example by the unmanned aerial vehicle 100.

まず、UAV制御部110は、複数の元画像OGを取得する(S101)。UAV制御部110は、複数の元画像OGを、ストレージ170から取得してよい。この元画像OGは、例えば、端末80の操作部83により入力された、ユーザ所望の地理的な範囲に画像範囲が含まれる元画像OGでよい。UAV制御部110は、このユーザ所望の地理的な範囲の情報を、通信インタフェース150を介して端末80から取得してよい。UAV制御部110は、取得された元画像OGに関する付加情報を取得する(S102)。UAV制御部110は、付加情報を、メモリ160又はストレージ170から取得してよい。   First, the UAV control unit 110 acquires a plurality of original images OG (S101). The UAV control unit 110 may acquire a plurality of original images OG from the storage 170. This original image OG may be, for example, an original image OG that is input by the operation unit 83 of the terminal 80 and includes an image range in a geographical range desired by the user. The UAV control unit 110 may acquire information on the geographical range desired by the user from the terminal 80 via the communication interface 150. The UAV control unit 110 acquires additional information related to the acquired original image OG (S102). The UAV control unit 110 may acquire additional information from the memory 160 or the storage 170.

UAV制御部110は、付加情報に基づいて、複数の元画像OGの画像範囲GHを取得する(S103)。UAV制御部110は、複数の元画像OGについて付加情報に含まれる画像範囲GHの情報をそのまま取得してよい。UAV制御部110は、付加情報に含まれる飛行パラメータや撮像パラメータを基に、複数の元画像OGの画像範囲GHを算出してよい。   The UAV control unit 110 acquires image ranges GH of a plurality of original images OG based on the additional information (S103). The UAV control unit 110 may acquire the information of the image range GH included in the additional information for the plurality of original images OG as it is. The UAV control unit 110 may calculate the image ranges GH of the plurality of original images OG based on the flight parameters and the imaging parameters included in the additional information.

UAV制御部110は、複数の元画像OGの画像範囲GHに基づいて、外接矩形領域D12を算出する(S104)。UAV制御部110は、外接矩形領域D12に基づいて、包囲領域D1を決定する(S105)。UAV制御部110は、包囲領域D1を分割し、複数の部分領域pdを算出する(S106)。   The UAV control unit 110 calculates a circumscribed rectangular area D12 based on the image ranges GH of the plurality of original images OG (S104). The UAV control unit 110 determines the surrounding area D1 based on the circumscribed rectangular area D12 (S105). The UAV control unit 110 divides the surrounding area D1 and calculates a plurality of partial areas pd (S106).

UAV制御部110は、取得された複数の元画像OGから、複数の部分領域pdのうちの部分領域pdx(x=a,b,・・・)と重複する1つ以上の重複元画像OOGxを取得する(S107)。なお、UAV制御部110は、複数の重複元画像OOGxの一部を、部分領域pdxにおける画像合成の対象となる画像から除外してよい。   The UAV control unit 110 obtains one or more overlapping original images OOGx that overlap the partial region pdx (x = a, b,...) Of the plurality of partial regions pd from the plurality of acquired original images OG. Obtain (S107). Note that the UAV control unit 110 may exclude a part of the plurality of overlapping original images OOGx from the images to be subjected to image synthesis in the partial region pdx.

UAV制御部110は、取得された重複元画像OOGxを合成し、部分領域pdxにおける合成画像SG1xを生成する(S108)。   The UAV control unit 110 synthesizes the acquired overlapping original image OOGx to generate a synthesized image SG1x in the partial region pdx (S108).

UAV制御部110は、包囲領域D1における部分領域pdxの合成画像SG1xの生成が全て終了したか否かを判定する(S109)。S109において合成画像SG1xの生成が終了していない部分領域pdxが存在する場合、次の部分領域pdxについて、合成画像SG1xを生成するべく、S107に進む。   The UAV control unit 110 determines whether or not the generation of the combined image SG1x of the partial region pdx in the surrounding region D1 has been completed (S109). If there is a partial region pdx for which the generation of the composite image SG1x has not ended in S109, the process proceeds to S107 to generate the composite image SG1x for the next partial region pdx.

S109において全ての部分領域pdxにおける合成画像SG1xの生成が終了した場合、各部分領域pdxにおける各合成画像SG1xを合成し、合成画像SG2を生成する(S110)。   When the generation of the combined image SG1x in all the partial areas pdx is completed in S109, the combined images SG1x in the partial areas pdx are combined to generate a combined image SG2 (S110).

なお、S109及びS110の処理は、省略されてもよい。   Note that the processing of S109 and S110 may be omitted.

画像合成の元となる元画像OGは、いずれかの無人航空機100により空撮され得る。いずれかの無人航空機100は、様々な条件下(例えば、雨天、曇天、強風等の天候)において空撮し、元画像OGを得ることになるので、所望の撮像条件(例えば空撮方向、空撮位置、無人航空機100の姿勢)で空撮することが困難となる場合がある。そのため、所定の範囲の画像を高精度に得るために、画像合成されることが考えられる。   The original image OG that is the basis of image composition can be taken aerial by any unmanned aerial vehicle 100. Any unmanned aerial vehicle 100 takes aerial images under various conditions (for example, weather such as rainy weather, cloudy weather, strong winds, etc.) to obtain an original image OG. It may be difficult to take an aerial shot at the shooting position and the attitude of the unmanned aircraft 100). Therefore, it is conceivable that the images are synthesized in order to obtain an image in a predetermined range with high accuracy.

図9の動作例によれば、無人航空機100は、部分領域pd毎に合成画像SG1を生成する。例えば、無人航空機100は、部分領域pdに重複する重複元画像OOGを基に合成画像SG1を生成する。これにより、無人航空機100は、包囲領域D1内の元画像OGの全てを画像合成に用いる場合と比較すると、部分領域pdにおける画像合成に用いる元画像OGの枚数を削減できる。また、無人航空機100は、ストレージ170からメモリ160へ読み込む元画像OGの枚数も削減できる。したがって、無人航空機100は、メモリ160において実施する画像合成の処理負荷を軽減でき、メモリリークを抑制できる。また、無人航空機100は、画像合成における最適化処理の処理負荷も軽減でき、メモリリークを抑制でき、合成画質の劣化も抑制できる。   According to the operation example of FIG. 9, the unmanned aerial vehicle 100 generates a composite image SG1 for each partial region pd. For example, the unmanned aerial vehicle 100 generates the composite image SG1 based on the overlapping original image OOG that overlaps the partial region pd. Thereby, the unmanned aircraft 100 can reduce the number of original images OG used for image composition in the partial region pd, as compared with the case where all of the original images OG in the surrounding region D1 are used for image composition. The unmanned aerial vehicle 100 can also reduce the number of original images OG read from the storage 170 to the memory 160. Therefore, the unmanned aerial vehicle 100 can reduce the processing load of image synthesis performed in the memory 160 and can suppress memory leak. In addition, the unmanned aircraft 100 can reduce the processing load of optimization processing in image composition, can suppress memory leaks, and can suppress deterioration in composite image quality.

また、無人航空機100は、合成画像SG1を合成して合成画像SG2を生成することで、包囲領域D1全体の合成画像SG2を得ることができる。よって、包囲領域D1において部分領域pdを加味せずに画像合成を行う場合と同じ領域の合成画像SG2を得ることができる。また、合成画像SG2を生成する際には、画像合成の元となる合成画像SG1の枚数は部分領域pdの数と同じである。この数は、包囲領域D1において部分領域pdを加味せずに画像合成を行う場合の画像合成に用いる枚数よりも通常は少なくなる。よって、無人航空機100は、包囲領域D1全体の合成画像SG2を生成可能であるとともに、メモリ160を用いた画像合成の処理負荷を低減でき、メモリリークを抑制できる。   Further, the unmanned aircraft 100 can obtain the composite image SG2 of the entire surrounding region D1 by combining the composite image SG1 and generating the composite image SG2. Therefore, it is possible to obtain a composite image SG2 in the same region as that in the case of performing image composition without taking the partial region pd into consideration in the surrounding region D1. Further, when the composite image SG2 is generated, the number of composite images SG1 that are the basis of image composition is the same as the number of partial regions pd. This number is usually smaller than the number used for image composition when image composition is performed without taking into account the partial region pd in the surrounding region D1. Therefore, the unmanned aircraft 100 can generate the composite image SG2 of the entire surrounding region D1, can reduce the processing load of image synthesis using the memory 160, and can suppress memory leak.

なお、図9では、部分領域pdにおける合成画像SG1が順次生成されることを例示したが、部分領域pdにおける合成画像SG1が並列処理で生成されてもよい。この場合、無人航空機100は、合成画像SG1を順次生成するよりも、合成画像SG1の生成効率を向上でき、合成画像SG1の生成に要する時間を短縮できる。   Although FIG. 9 illustrates that the composite image SG1 in the partial region pd is sequentially generated, the composite image SG1 in the partial region pd may be generated by parallel processing. In this case, the unmanned aircraft 100 can improve the generation efficiency of the composite image SG1 and can shorten the time required to generate the composite image SG1, rather than sequentially generating the composite image SG1.

なお、UAV制御部110は、無人航空機100の飛行中に、過去に空撮されストレージ170に保持された元画像OGを基に、合成画像SG1,SG2を生成してもよい。   Note that the UAV control unit 110 may generate the composite images SG <b> 1 and SG <b> 2 based on the original image OG that was aerial shot in the past and held in the storage 170 during the flight of the unmanned aircraft 100.

本実施形態の画像合成は、端末80により実施されてもよい。この場合、端末80の端末制御部81が、無人航空機100のUAV制御部110が有する画像合成に関する機能と同様の機能を有する。端末制御部81は、処理部の一例である。端末制御部81は、空撮画像の合成に関する処理を行う。なお、端末制御部81による空撮画像の合成に関する処理において、UAV制御部110が行う空撮画像の合成に関する処理と同様の処理については、その説明を省略又は簡略化する。この場合、端末制御部81は、画像合成アプリケーションを実行してよい。画像合成アプリケーションは、空撮画像を合成するためのアプリケーションでよい。   The image composition of this embodiment may be performed by the terminal 80. In this case, the terminal control unit 81 of the terminal 80 has the same function as the function related to image composition that the UAV control unit 110 of the unmanned aircraft 100 has. The terminal control unit 81 is an example of a processing unit. The terminal control unit 81 performs processing related to aerial image synthesis. In the process related to the synthesis of the aerial image by the terminal control unit 81, the description of the same process as the process related to the synthesis of the aerial image performed by the UAV control unit 110 is omitted or simplified. In this case, the terminal control unit 81 may execute an image composition application. The image composition application may be an application for composing an aerial image.

図10は、端末80による動作例を示すフローチャートである。   FIG. 10 is a flowchart showing an operation example by the terminal 80.

まず、端末制御部81は、複数の元画像OGを取得する(S201)。端末制御部81は、複数の元画像OGを、メモリ87又はストレージ89から取得してよい。この元画像OGは、例えば、端末80の操作部83により入力された、ユーザ所望の地理的な範囲に画像範囲が含まれる元画像OGでよい。端末制御部81は、取得された元画像OGに関する付加情報を取得する(S202)。端末制御部81は、付加情報を、メモリ87又はストレージ89から取得してよい。   First, the terminal control unit 81 acquires a plurality of original images OG (S201). The terminal control unit 81 may acquire a plurality of original images OG from the memory 87 or the storage 89. This original image OG may be, for example, an original image OG that is input by the operation unit 83 of the terminal 80 and includes an image range in a geographical range desired by the user. The terminal control unit 81 acquires additional information related to the acquired original image OG (S202). The terminal control unit 81 may acquire additional information from the memory 87 or the storage 89.

端末制御部81は、付加情報に基づいて、複数の元画像OGの画像範囲GHを取得する(S203)。端末制御部81は、複数の元画像OGについて付加情報に含まれる画像範囲GHの情報をそのまま取得してよい。端末制御部81は、付加情報に含まれる飛行パラメータや撮像パラメータを基に、複数の元画像OGの画像範囲GHを算出してよい。   The terminal control unit 81 acquires the image ranges GH of the plurality of original images OG based on the additional information (S203). The terminal control unit 81 may acquire the information of the image range GH included in the additional information for the plurality of original images OG as it is. The terminal control unit 81 may calculate the image ranges GH of the plurality of original images OG based on the flight parameters and imaging parameters included in the additional information.

端末制御部81は、複数の元画像OGの画像範囲GHに基づいて、外接矩形領域D12を算出する(S204)。端末制御部81は、外接矩形領域D12に基づいて、包囲領域D1を決定する(S205)。端末制御部81は、包囲領域D1を分割し、複数の部分領域pdを算出する(S206)。   The terminal control unit 81 calculates a circumscribed rectangular area D12 based on the image ranges GH of the plurality of original images OG (S204). The terminal control unit 81 determines the surrounding area D1 based on the circumscribed rectangular area D12 (S205). The terminal control unit 81 divides the surrounding area D1 and calculates a plurality of partial areas pd (S206).

端末制御部81は、取得された複数の元画像OGのうち、複数の部分領域pdのうちの部分領域pdx(x=a,b,・・・)と重複する1つ以上の重複元画像OOGxを取得する(S207)。なお、端末制御部81は、複数の重複元画像OOGxの一部を、部分領域pdxにおける画像合成の対象となる画像から除外してよい。   The terminal control unit 81 includes one or more overlapping original images OOGx that overlap with the partial areas pdx (x = a, b,...) Of the plurality of partial areas pd among the acquired plurality of original images OG. Is acquired (S207). Note that the terminal control unit 81 may exclude a part of the plurality of overlapping original images OOGx from the images to be subjected to image synthesis in the partial region pdx.

端末制御部81は、取得された重複元画像OOGxを合成し、部分領域pdxにおける合成画像SG1xを生成する(S208)。   The terminal control unit 81 combines the acquired overlapping original images OOGx to generate a combined image SG1x in the partial region pdx (S208).

端末制御部81は、包囲領域D1における部分領域pdxの合成画像SG1xの生成が全て終了したか否かを判定する(S209)。S209において合成画像SG1xの生成が終了していない部分領域pdxが存在する場合、次の部分領域pdxについて、合成画像SG1xを生成するべく、S207に進む。   The terminal control unit 81 determines whether or not the generation of the combined image SG1x of the partial region pdx in the surrounding region D1 has been completed (S209). If there is a partial region pdx for which the generation of the composite image SG1x has not been completed in S209, the process proceeds to S207 to generate the composite image SG1x for the next partial region pdx.

S209において全ての部分領域pdxにおける合成画像SG1xの生成が終了した場合、各部分領域pdxにおける各合成画像SG1xを合成し、合成画像SG2を生成する(S210)。   When the generation of the combined image SG1x in all the partial areas pdx is completed in S209, the combined images SG1x in the partial areas pdx are combined to generate a combined image SG2 (S210).

なお、S209及びS210の処理は、省略されてもよい。   Note that the processing of S209 and S210 may be omitted.

図10の動作例によれば、端末80は、部分領域pd毎に合成画像SG1を生成する。例えば、端末80は、部分領域pdに重複する重複元画像OOGを基に合成画像SG1を生成する。これにより、端末80は、包囲領域D1内の元画像OGの全てを画像合成に用いる場合と比較すると、部分領域pdにおける画像合成に用いる元画像OGの枚数を削減できる。また、端末80は、ストレージ89からメモリ87へ読み込む元画像OGの枚数も削減できる。したがって、端末80は、メモリ87において実施する画像合成の処理負荷を軽減でき、メモリリークを抑制できる。また、端末80は、画像合成における最適化処理の処理負荷も軽減でき、メモリリークを抑制でき、合成画質の劣化も抑制できる。   According to the operation example of FIG. 10, the terminal 80 generates a composite image SG1 for each partial region pd. For example, the terminal 80 generates the composite image SG1 based on the overlapping original image OOG that overlaps the partial region pd. Thereby, the terminal 80 can reduce the number of original images OG used for image composition in the partial region pd, as compared with the case where all of the original images OG in the surrounding region D1 are used for image composition. The terminal 80 can also reduce the number of original images OG read from the storage 89 to the memory 87. Therefore, the terminal 80 can reduce the processing load of image synthesis performed in the memory 87 and can suppress memory leak. Further, the terminal 80 can reduce the processing load of the optimization process in the image composition, can suppress the memory leak, and can suppress the deterioration of the composite image quality.

また、端末80は、合成画像SG1を合成して合成画像SG2を生成することで、包囲領域D1全体の合成画像SG2を得ることができる。よって、包囲領域D1において部分領域pdを加味せずに画像合成を行う場合と同じ領域の合成画像SG2を得ることができる。また、合成画像SG2を生成する際には、画像合成の元となる合成画像SG1の枚数は部分領域pdの数と同じである。この数は、包囲領域D1において部分領域pdを加味せずに画像合成を行う場合の画像合成に用いる枚数よりも通常は少なくなる。よって、端末80は、包囲領域D1全体の合成画像SG2を生成可能であるとともに、メモリ87を用いた画像合成の処理負荷を低減でき、メモリリークを抑制できる。   Further, the terminal 80 can obtain the composite image SG2 of the entire surrounding region D1 by combining the composite image SG1 to generate the composite image SG2. Therefore, it is possible to obtain a composite image SG2 in the same region as that in the case of performing image composition without taking the partial region pd into consideration in the surrounding region D1. Further, when the composite image SG2 is generated, the number of composite images SG1 that are the basis of image composition is the same as the number of partial regions pd. This number is usually smaller than the number used for image composition when image composition is performed without taking into account the partial region pd in the surrounding region D1. Therefore, the terminal 80 can generate the composite image SG2 of the entire surrounding region D1, can reduce the processing load of image synthesis using the memory 87, and can suppress memory leak.

なお、図10では、部分領域pdにおける合成画像SG1が順次生成されることを例示したが、部分領域pdにおける合成画像SG1が並列処理で生成されてもよい。この場合、端末80は、合成画像SG1を順次生成するよりも、合成画像SG1の生成効率を向上でき、合成画像SG1の生成に要する時間を短縮できる。   Note that although FIG. 10 illustrates that the composite image SG1 in the partial region pd is sequentially generated, the composite image SG1 in the partial region pd may be generated by parallel processing. In this case, the terminal 80 can improve the generation efficiency of the composite image SG1 and can reduce the time required to generate the composite image SG1, rather than sequentially generating the composite image SG1.

(第2の実施形態)
第1の実施形態では、無人航空機又は端末が、過去に空撮された空撮画像を基に画像合成を行うことを例示した。第2の実施形態では、無人航空機が、飛行しながら空撮し、空撮画像を基に画像合成することを例示する。なお、第2の実施形態において、第1の実施形態と同様の構成や動作については、説明を省略又は簡略化する。
(Second Embodiment)
In the first embodiment, it is exemplified that the unmanned aircraft or the terminal performs image composition based on the aerial image captured in the past. The second embodiment exemplifies that an unmanned aircraft takes an aerial image while flying and synthesizes an image based on an aerial image. Note that in the second embodiment, the description of the same configuration and operation as in the first embodiment will be omitted or simplified.

図11は、第2の実施形態における画像合成システム10Aの構成例を示す模式図である。画像合成システム10Aは、無人航空機100A及び端末80を備える。無人航空機100A及び端末80は、相互に有線通信又は無線通信(例えば無線LAN)により通信可能である。   FIG. 11 is a schematic diagram illustrating a configuration example of an image composition system 10A according to the second embodiment. The image composition system 10A includes an unmanned aerial vehicle 100A and a terminal 80. The unmanned aircraft 100A and the terminal 80 can communicate with each other by wired communication or wireless communication (for example, wireless LAN).

無人航空機100Aは、所定の空撮経路に従って飛行してよい。無人航空機100Aは、所定の空撮位置において空撮し、空撮画像を得る。無人航空機100Aは、複数の空撮画像の画像範囲を包囲する包囲領域を算出し、包囲領域を複数の部分領域に分割する。無人航空機100Aは、部分領域毎に、複数の空撮画像を合成し、合成画像を生成する。   Unmanned aerial vehicle 100A may fly in accordance with a predetermined aerial route. Unmanned aerial vehicle 100A takes an aerial image at a predetermined aerial image position to obtain an aerial image. Unmanned aerial vehicle 100A calculates a surrounding region that surrounds an image range of a plurality of aerial images, and divides the surrounding region into a plurality of partial regions. Unmanned aerial vehicle 100A combines a plurality of aerial images for each partial region to generate a combined image.

図12は、無人航空機100Aのハードウェア構成の一例を示すブロック図である。無人航空機100Aは、第1の実施形態における無人航空機100と比較すると、UAV制御部110の代わりにUAV制御部110Aを備える。なお、図12の無人航空機100Aにおいて、図3に示した無人航空機100の構成と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。   FIG. 12 is a block diagram illustrating an example of a hardware configuration of the unmanned aircraft 100A. The unmanned aerial vehicle 100 </ b> A includes a UAV control unit 110 </ b> A instead of the UAV control unit 110 as compared with the unmanned aircraft 100 in the first embodiment. In the unmanned aerial vehicle 100A in FIG. 12, the same components as those of the unmanned aircraft 100 shown in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted or simplified.

UAV制御部110Aは、画像合成に関する機能を有する。UAV制御部110Aは、処理部の一例である。なお、第1の実施形態における無人航空機100のUAV制御部110が有する画像合成に関する機能と同様の機能については、その説明を省略又は簡略化する。UAV制御部110Aは、空撮画像の合成に関する処理を実行する。   The UAV control unit 110A has a function related to image composition. The UAV control unit 110A is an example of a processing unit. Note that description of functions similar to the functions related to image composition that the UAV control unit 110 of the unmanned aerial vehicle 100 according to the first embodiment has is omitted or simplified. The UAV control unit 110A executes processing related to the synthesis of the aerial image.

UAV制御部110Aは、空撮経路に従って飛行してよい。UAV制御部110Aは、飛行前に定められた空撮経路の情報をメモリ160やストレージ170から取得してもよいし、飛行中に空撮経路を生成してもよい。   The UAV control unit 110A may fly according to an aerial shooting route. The UAV control unit 110 </ b> A may acquire information on an aerial shooting route determined before the flight from the memory 160 or the storage 170, or may generate an aerial shooting route during the flight.

UAV制御部110Aは、空撮位置において撮像部220又は撮像部230に画像を空撮させ、空撮画像を得てよい。この空撮画像は、画像合成の元となる画像(元画像)となる。UAV制御部110Aは、飛行前に定められた空撮位置の情報をメモリ160やストレージ170から取得してもよいし、飛行中に空撮位置を決定してもよい。   The UAV control unit 110A may cause the imaging unit 220 or the imaging unit 230 to take an aerial image at an aerial shooting position to obtain an aerial image. This aerial image is an image (original image) that is a source of image composition. The UAV control unit 110A may acquire information on the aerial shooting position determined before the flight from the memory 160 or the storage 170, or may determine the aerial shooting position during the flight.

UAV制御部110Aは、撮像部220又は撮像部230により空撮された複数の元画像OGを基に、合成画像SG1を生成してよい。この場合、UAV制御部110Aは、飛行中に、合成画像SG1を生成してよい。合成画像SG1の生成方法は、第1の実施形態と同じでよい。   The UAV control unit 110A may generate the composite image SG1 based on a plurality of original images OG taken by the imaging unit 220 or the imaging unit 230. In this case, the UAV control unit 110A may generate the composite image SG1 during the flight. The method for generating the composite image SG1 may be the same as in the first embodiment.

撮像部220又は撮像部230に空撮させる元画像OGの画像範囲GHは、各種の撮像パラメータや飛行パラメータを基に定められてよい。UAV制御部110Aは、撮像パラメータや飛行パラメータに基づいて、元画像OGの画像範囲GHを決定してよい。撮像パラメータや飛行パラメータは、無人航空機100Aのメモリ160又はストレージ170に保持されていてもよいし、端末80の操作部83により入力され、端末80から取得されてよい。   The image range GH of the original image OG that is imaged by the imaging unit 220 or the imaging unit 230 may be determined based on various imaging parameters and flight parameters. The UAV control unit 110A may determine the image range GH of the original image OG based on the imaging parameter and the flight parameter. The imaging parameter and the flight parameter may be stored in the memory 160 or the storage 170 of the unmanned aircraft 100 </ b> A, or may be input from the operation unit 83 of the terminal 80 and acquired from the terminal 80.

撮像パラメータは、空撮予定の元画像OGが空撮される際の撮像部220又は撮像部230の画角FOV、空撮方向、撮像部220の姿勢、ジンバル200の回転角度、等の情報を含んでよい。飛行パラメータは、空撮予定の元画像OGが空撮される空撮位置(例えば緯度、経度、高度)、空撮位置を通る空撮経路、等の情報を含んでよい。   The imaging parameters include information such as the angle of view FOV of the imaging unit 220 or the imaging unit 230 when the original image OG scheduled for aerial shooting is aerial, the orientation of the imaging unit 220, the orientation of the imaging unit 220, and the rotation angle of the gimbal 200. May include. The flight parameters may include information such as an aerial shooting position (for example, latitude, longitude, altitude) at which the original image OG scheduled to be taken aerial is taken, an aerial shooting route through the aerial shooting position, and the like.

また、撮像パラメータは、空撮予定の元画像OGのサイズ(画像範囲GHの大きさ)、部分領域pdにおける空撮枚数k、等の情報を含んでもよい。元画像OGのサイズは、矩形の部分領域pdの1辺の長さlにより示されてよい。空撮枚数kは、部分領域pdと重複する重複元画像OOGの枚数と一致してよい。撮像パラメータは、空撮位置間隔d、空撮距離L、等の情報を含んでよい。空撮位置間隔dは、隣り合う空撮位置の間隔でよい。空撮距離Lは、撮像部220又は撮像部230から被写体(例えば地面)までの距離でよく、空撮高度で示されてよい。撮像パラメータは、元画像OGの画像範囲GHの重複率or、元画像OGの画像範囲GHの幅w、元画像OGの解像度r、等の情報を含んでよい。重複率orは、例えば、元画像OGの画像範囲GHに対する、隣り合う元画像OGの画像範囲GHが重複する重複部分の割合により示されてよい。元画像OGの画像範囲GHの幅wは、例えば正方形の画像範囲GHの1辺の長さでよい。   The imaging parameters may include information such as the size of the original image OG scheduled for aerial photography (the size of the image range GH) and the number of aerial photographs k in the partial region pd. The size of the original image OG may be indicated by the length l of one side of the rectangular partial region pd. The number of aerial images k may match the number of overlapping original images OOG that overlap with the partial region pd. The imaging parameters may include information such as the aerial shooting position interval d and the aerial shooting distance L. The aerial shooting position interval d may be an interval between adjacent aerial shooting positions. The aerial shooting distance L may be a distance from the imaging unit 220 or the imaging unit 230 to a subject (for example, the ground), and may be indicated by an aerial shooting altitude. The imaging parameter may include information such as the overlapping rate or of the image range GH of the original image OG, the width w of the image range GH of the original image OG, and the resolution r of the original image OG. The overlapping rate or may be indicated, for example, by the ratio of the overlapping portion where the image range GH of the adjacent original image OG overlaps the image range GH of the original image OG. The width w of the image range GH of the original image OG may be, for example, the length of one side of the square image range GH.

なお、解像度rは、固定であっても可変であってもよい。つまり、撮像部220又は撮像部230による元画像OGの空撮時の解像度rは、予め設定されて設定情報がメモリ160等に保持されていてもよいし、UAV制御部110Aにより適宜変更されてもよい。   Note that the resolution r may be fixed or variable. That is, the resolution r at the time of aerial shooting of the original image OG by the imaging unit 220 or the imaging unit 230 may be set in advance and the setting information may be held in the memory 160 or the like, or may be appropriately changed by the UAV control unit 110A. Also good.

UAV制御部110Aは、空撮予定の元画像OGを空撮する無人航空機100Aの飛行パラメータ及び撮像パラメータの全部又は一部を、メモリ160又はストレージ170から読み出し、取得してよい。UAV制御部110は、空撮予定の元画像OGを空撮する無人航空機100の飛行パラメータ及び撮像パラメータの全部又は一部を、通信インタフェース150を介して受信し、取得してよい。例えば、端末80の操作部83を介して入力された飛行パラメータ及び撮像パラメータの全部又は一部が、通信インタフェース150を介して、端末80から取得されてよい。   The UAV control unit 110 </ b> A may read and acquire all or part of the flight parameters and imaging parameters of the unmanned aircraft 100 </ b> A that aerially captures the original image OG scheduled for aerial imaging from the memory 160 or the storage 170. The UAV control unit 110 may receive and acquire all or part of the flight parameters and imaging parameters of the unmanned aircraft 100 that aerially captures the original image OG scheduled for aerial imaging via the communication interface 150. For example, all or part of the flight parameters and imaging parameters input via the operation unit 83 of the terminal 80 may be acquired from the terminal 80 via the communication interface 150.

これにより、無人航空機100は、空撮予定の元画像OGを空撮するための飛行パラメータや撮像パラメータを基に、元画像OGが空撮される地理的な範囲を把握することができる。   Thereby, the unmanned aerial vehicle 100 can grasp the geographical range in which the original image OG is aerial based on the flight parameters and imaging parameters for aerial imaging of the original image OG scheduled for aerial imaging.

UAV制御部110は、未だ空撮されていない空撮予定の飛行パラメータ及び撮像パラメータの少なくとも1つに基づいて、複数の空撮予定の元画像OGの画像範囲GHを算出してよい。そして、UAV制御部110は、複数の空撮予定の元画像OGの画像範囲GHを包囲する包囲領域D1を算出してよい。つまり、UAV制御部110Aは、元画像OGが存在しない段階でも、飛行パラメータや撮像パラメータを基に、複数の元画像OGの画像範囲GHや包囲領域D1を推定できる。   The UAV control unit 110 may calculate the image ranges GH of a plurality of original images OG scheduled for aerial imaging based on at least one of the flight parameters and imaging parameters scheduled for aerial imaging that have not yet been aerialized. Then, the UAV control unit 110 may calculate a surrounding area D1 that surrounds the image range GH of the plurality of original images OG scheduled to be taken aerial. That is, the UAV control unit 110A can estimate the image range GH and the surrounding area D1 of the plurality of original images OG based on the flight parameters and the imaging parameters even when the original image OG does not exist.

また、端末80では、端末制御部81が、操作部83を介して、空撮予定の元画像OGを空撮する無人航空機100Aの飛行パラメータ及び撮像パラメータの一部を入力してよい。端末制御部81は、入力された飛行パラメータ及び撮像パラメータの一部を、通信部85を介して無人航空機100Aへ送信してよい。無人航空機100Aでは、UAV制御部110Aは、通信部85を介して、空撮予定の元画像OGを空撮する無人航空機100Aの飛行パラメータ及び撮像パラメータの一部を受信してよい。UAV制御部110Aは、受信された無人航空機100Aの飛行パラメータ及び撮像パラメータの一部の情報を基に、飛行パラメータ及び撮像パラメータの他の一部の情報を算出してもよい。   In the terminal 80, the terminal control unit 81 may input part of the flight parameters and the imaging parameters of the unmanned aircraft 100 </ b> A that aerially captures the original image OG scheduled for aerial imaging via the operation unit 83. The terminal control unit 81 may transmit part of the input flight parameters and imaging parameters to the unmanned aircraft 100A via the communication unit 85. In the unmanned aircraft 100A, the UAV control unit 110A may receive part of the flight parameters and the imaging parameters of the unmanned aircraft 100A that takes an aerial image of the original image OG scheduled for aerial photography via the communication unit 85. The UAV control unit 110A may calculate other information on the flight parameter and the imaging parameter based on the received information on the flight parameter and the imaging parameter of the unmanned aircraft 100A.

図13は、飛行パラメータ及び撮像パラメータの算出例を説明するための図である。   FIG. 13 is a diagram for explaining an example of calculating flight parameters and imaging parameters.

図13では、例えば、1台の無人航空機100Aが飛行して画像を空撮する場合に、各空撮位置での空撮に係る撮像パラメータ及び飛行パラメータの一部を示している。図13に示すように、無人航空機100は、飛行高度が変化してよく、つまり空撮高度が変化してよい。   In FIG. 13, for example, when one unmanned aircraft 100A flies to take an aerial image, a part of imaging parameters and flight parameters related to aerial imaging at each aerial imaging position are shown. As shown in FIG. 13, the unmanned aircraft 100 may change its flight altitude, that is, its aerial shooting altitude.

飛行パラメータ及び撮像パラメータは、複数のパラメータを有し、それぞれのパラメータは相互に関係している。そのため、UAV制御部110Aは、一部のパラメータが決定されている場合、他の一部のパラメータを算出可能である。   The flight parameter and the imaging parameter have a plurality of parameters, and the parameters are related to each other. Therefore, the UAV control unit 110A can calculate some other parameters when some parameters are determined.

一例として、空撮位置間隔dと、空撮距離Lと、元画像OGを空撮する撮像部220又は撮像部230の画角FOV(Field of View)と、元画像OGの画像範囲GHの重複率orとは、以下の式(1)の関係を有してよい。
d=L*FOV*(1−or) ・・・(1)
なお、「*」は乗算符号を示す。
As an example, overlap between the aerial shooting position interval d, the aerial shooting distance L, the angle of view FOV (Field of View) of the image pickup unit 220 or the image pickup unit 230 for shooting the original image OG, and the image range GH of the original image OG The rate or may have the relationship of the following formula (1).
d = L * FOV * (1-or) (1)
Note that “*” indicates a multiplication code.

また、空撮位置間隔dと、矩形(例えば正方形)の部分領域pdの1辺の長さlと、部分領域pdにおける空撮枚数kとは、以下の式(2)の関係を有してよい。
d=l/k ・・・(2)
The aerial shooting position interval d, the length l of one side of a rectangular (for example, square) partial area pd, and the number of aerial shots k in the partial area pd have the relationship of the following equation (2). Good.
d = 1 / k (2)

また、空撮位置間隔dと、元画像OGの画像範囲GHの重複率orと、元画像OGの画像範囲GHの幅wと、元画像OGの解像度rとは、以下の式(3)の関係を有してよい。
d=r*w*(1−or) ・・・(3)
Further, the aerial shooting position interval d, the overlapping rate or of the image range GH of the original image OG, the width w of the image range GH of the original image OG, and the resolution r of the original image OG are expressed by the following equation (3). You may have a relationship.
d = r * w * (1-or) (3)

端末80の操作部83は、ユーザ操作を受け付け、撮像パラメータ及び飛行パラメータの少なくとも1つを入力してよい。例えば、操作部83は、式(1)〜式(3)に含まれるパラメータの少なくとも一部を入力してよい。無人航空機100Aでは、UAV制御部110Aは、通信インタフェース150を介して、この端末80からパラメータの少なくとも一部を受信してよい。UAV制御部110Aは、端末80から取得した撮像パラメータ及び飛行パラメータの一部を基に、撮像パラメータ及び飛行パラメータの他の一部を算出してよい。例えば、UAV制御部110Aは、端末80から取得した式(1)〜式(3)に含まれるパラメータの一部を基に、式(1)〜式(3)に含まれるパラメータの他の一部の値を算出してよい。UAV制御部110は、算出されたパラメータの他の一部の値を基に、空撮位置や空撮経路を生成したり、無人航空機100の飛行を制御したり、撮像部220又は撮像部230による空撮を制御してよい。   The operation unit 83 of the terminal 80 may accept a user operation and input at least one of an imaging parameter and a flight parameter. For example, the operation unit 83 may input at least a part of parameters included in the expressions (1) to (3). In the unmanned aircraft 100A, the UAV control unit 110A may receive at least a part of the parameters from the terminal 80 via the communication interface 150. The UAV control unit 110A may calculate other part of the imaging parameter and the flight parameter based on the imaging parameter and part of the flight parameter acquired from the terminal 80. For example, the UAV control unit 110A, based on a part of the parameters included in the expressions (1) to (3) acquired from the terminal 80, the other parameters included in the expressions (1) to (3). The value of the part may be calculated. The UAV control unit 110 generates an aerial shooting position and an aerial shooting path based on other values of the calculated parameters, controls the flight of the unmanned aircraft 100, the imaging unit 220 or the imaging unit 230. You may control aerial photography.

例えば、端末80の操作部83が、式(1)における空撮位置間隔d、撮像部220又は撮像部230の画角FOV、重複率orの値を入力してよい。UAV制御部110は、入力された空撮位置間隔d、撮像部220又は撮像部230の画角FOV、重複率orの値を端末から取得し、式(1)を基に、空撮距離Lとしての空撮高度を算出してよい。UAV制御部110は、算出された空撮高度を通過するように、空撮位置を決定してよい。なお、空撮距離L以外のパラメータである空撮位置間隔d、撮像部220又は撮像部230の画角FOV、又は重複率orが、操作部83を介して入力されたパラメータの値に基づいて、算出されてもよい。   For example, the operation unit 83 of the terminal 80 may input the values of the aerial shooting position interval d in Expression (1), the angle of view FOV of the imaging unit 220 or the imaging unit 230, and the overlap rate or. The UAV control unit 110 acquires the input aerial shooting position interval d, the angle of view FOV of the imaging unit 220 or the imaging unit 230, and the value of the overlap rate or from the terminal, and based on the equation (1), the aerial shooting distance L The aerial shooting altitude may be calculated. The UAV control unit 110 may determine the aerial shooting position so as to pass the calculated aerial shooting altitude. Note that the aerial shooting position interval d, which is a parameter other than the aerial shooting distance L, the angle of view FOV of the imaging unit 220 or the imaging unit 230, or the overlap rate or is based on the value of the parameter input via the operation unit 83. , May be calculated.

例えば、端末80の操作部83が、式(2)における矩形の部分領域pdの1辺の長さl、部分領域pdにおける空撮枚数k、の値を入力してよい。UAV制御部110は、入力された矩形の部分領域pdの1辺の長さl、部分領域pdにおける空撮枚数kの値を端末80から取得し、式(2)を基に、空撮位置間隔dを算出してよい。UAV制御部110は、隣り合う空撮位置の間隔が、算出された空撮位置間隔dとなるように、各空撮位置を決定してよい。なお、空撮位置間隔d以外のパラメータである矩形の部分領域pdの1辺の長さl、又は部分領域pdにおける空撮枚数kが、操作部83を介して入力されたパラメータの値に基づいて、算出されてもよい。   For example, the operation unit 83 of the terminal 80 may input the values of the length l of one side of the rectangular partial area pd and the number of aerial images k in the partial area pd in Expression (2). The UAV control unit 110 acquires the length l of one side of the input rectangular partial area pd and the value of the number of aerial images k in the partial area pd from the terminal 80, and based on the equation (2), the aerial shooting position The interval d may be calculated. The UAV control unit 110 may determine each aerial shooting position so that the interval between adjacent aerial shooting positions becomes the calculated aerial shooting position interval d. The length l of one side of the rectangular partial area pd, which is a parameter other than the aerial shooting position interval d, or the number of aerial shots k in the partial area pd is based on the parameter value input via the operation unit 83. Or may be calculated.

例えば、端末80の操作部83が、式(3)における元画像OGの画像範囲GHの重複率or、元画像OGの画像範囲GHの幅w、元画像OGの解像度r、の値を入力してよい。UAV制御部110は、元画像OGの画像範囲GHの重複率or、元画像OGの画像範囲GHの幅w、元画像OGの解像度r、の値を端末80から取得し、式(3)を基に、空撮位置間隔dを算出してよい。UAV制御部110は、隣り合う空撮位置の間隔が、算出された空撮位置間隔dとなるように、各空撮位置を決定してよい。なお、空撮位置間隔d以外のパラメータである元画像OGの画像範囲GHの重複率or、元画像OGの画像範囲GHの幅w、又は元画像OGの解像度rが、操作部83を介して入力されたパラメータの値に基づいて、算出されてもよい。   For example, the operation unit 83 of the terminal 80 inputs values of the overlap ratio or of the image range GH of the original image OG, the width w of the image range GH of the original image OG, and the resolution r of the original image OG in Expression (3). It's okay. The UAV control unit 110 acquires the values of the overlapping rate or of the image range GH of the original image OG, the width w of the image range GH of the original image OG, and the resolution r of the original image OG from the terminal 80, and formula (3) is obtained. Based on this, the aerial shooting position interval d may be calculated. The UAV control unit 110 may determine each aerial shooting position so that the interval between adjacent aerial shooting positions becomes the calculated aerial shooting position interval d. Note that the overlap ratio or of the image range GH of the original image OG, the width w of the image range GH of the original image OG, or the resolution r of the original image OG, which is a parameter other than the aerial shooting position interval d, is set via the operation unit 83. It may be calculated based on the input parameter value.

また、式(1)〜式(3)の少なくとも2つを組み合わせて、UAV制御部110Aが、飛行パラメータや撮像パラメータの少なくとも一部を算出してもよい。例えば、UAV制御部110Aは、操作部83を介して入力された矩形の部分領域pdの1辺の長さl、部分領域pdにおける空撮枚数k、等の値を基に、空撮距離Lとしての空撮高度を決定してもよい。   Further, the UAV control unit 110A may calculate at least a part of the flight parameter and the imaging parameter by combining at least two of the expressions (1) to (3). For example, the UAV control unit 110A determines the aerial shooting distance L based on values such as the length l of one side of the rectangular partial area pd input through the operation unit 83 and the number of aerial shots k in the partial area pd. As the aerial shooting altitude may be determined.

このように、UAV制御部110Aは、端末80により入力された撮像パラメータ及び飛行パラメータの一部の情報を、通信インタフェース150等を介して取得してよい。UAV制御部110Aは、取得された撮像パラメータ及び飛行パラメータの一部の情報を基に、撮像パラメータ及び飛行パラメータの他の一部の情報(例えば空撮位置や空撮経路)を生成してよい。これにより、ユーザがどのような合成画像SG1を生成したいかを反映した入力を端末80の操作部83を介して行うことで、ユーザ所望の合成画像SG1の元となる元画像OGを空撮可能となる。   As described above, the UAV control unit 110A may acquire part of the imaging parameters and the flight parameters input by the terminal 80 via the communication interface 150 or the like. The UAV control unit 110A may generate other information (for example, aerial position and aerial route) of the imaging parameter and the flight parameter based on the acquired information of the imaging parameter and the flight parameter. . Thereby, by performing an input reflecting what kind of composite image SG1 the user wants to generate via the operation unit 83 of the terminal 80, it is possible to take an aerial photograph of the original image OG that is the basis of the user-desired composite image SG1. It becomes.

また、UAV制御部110Aは、無人航空機100Aの飛行中であっても、端末80により入力された撮像パラメータの一部を取得し、この取得された値に基づいて空撮位置や空撮経路を生成してもよい。これにより、無人航空機100Aは、予め定められた空撮位置や空撮経路に従って飛行中でも、撮像パラメータ及び飛行パラメータの他の一部の情報(例えば空撮位置や空撮経路)を変更できる。つまり、無人航空機100Aは、画像合成を考慮した飛行パラメータや撮像パラメータの入力情報に基づいて、無人航空機100Aの飛行や撮像部230による空撮条件(例えば空撮方向、解像度、重複率)をリアルタイムに制御できる。   Further, the UAV control unit 110A acquires a part of the imaging parameters input by the terminal 80 even during the flight of the unmanned aircraft 100A, and determines the aerial shooting position and the aerial shooting route based on the acquired values. It may be generated. Thereby, the unmanned aerial vehicle 100A can change other information (for example, the aerial shooting position and the aerial shooting path) of the imaging parameter and the flight parameter even during the flight according to the predetermined aerial shooting position and the aerial shooting path. That is, the unmanned aerial vehicle 100 </ b> A determines real-time flight conditions of the unmanned aircraft 100 </ b> A and the aerial shooting conditions (for example, aerial shooting direction, resolution, overlap rate) based on the input information of the flight parameters and imaging parameters considering image synthesis. Can be controlled.

図14は、端末80による撮像パラメータや飛行パラメータの入力例を示す図である。
図14では、操作部83に、指FGを用いて、部分領域pdのサイズ、部分領域pdにおける空撮枚数k、空撮高度(空撮距離L)、空撮画角(画角FOV)、空撮方向、が入力され、表示部88に表示されていることを例示している。他のパラメータが入力されてもよい。端末制御部81は、通信部85を介して、入力された撮像パラメータや飛行パラメータを無人航空機100Aへ送信してよい。なお、端末80は、入力装置の一例である。
FIG. 14 is a diagram illustrating an input example of imaging parameters and flight parameters by the terminal 80.
In FIG. 14, the size of the partial region pd, the number of aerial images k in the partial region pd, the aerial shooting altitude (aerial shooting distance L), the aerial shooting angle of view (viewing angle FOV), The aerial shooting direction is input and displayed on the display unit 88. Other parameters may be entered. The terminal control unit 81 may transmit the input imaging parameters and flight parameters to the unmanned aircraft 100A via the communication unit 85. The terminal 80 is an example of an input device.

これにより、無人航空機100Aは、端末80により入力された撮像パラメータや飛行パラメータを取得できる。したがって、ユーザは、撮像パラメータや飛行パラメータを入力することで、撮像パラメータ及び飛行パラメータに基づく飛行条件及び空撮条件を指定可能である。これにより、無人航空機100Aは、ユーザ所望の飛行条件により飛行可能となり、ユーザ所望の空撮条件により空撮可能となる。また、無人航空機100Aは、指定された飛行条件や空撮条件に従って空撮することで、ユーザ所望の地理的な範囲を、元画像OGの画像範囲GHにできる。   Thereby, unmanned aerial vehicle 100A can acquire imaging parameters and flight parameters input from terminal 80. Therefore, the user can designate the flight condition and the aerial shooting condition based on the imaging parameter and the flight parameter by inputting the imaging parameter and the flight parameter. Thereby, the unmanned aerial vehicle 100A can fly under the flight conditions desired by the user, and can take aerial shots under the aerial shooting conditions desired by the user. In addition, the unmanned aircraft 100A can perform aerial shooting in accordance with designated flight conditions and aerial shooting conditions, so that the geographical range desired by the user can be the image range GH of the original image OG.

次に、画像合成システム10Aの動作例について説明する。   Next, an operation example of the image composition system 10A will be described.

図15は、無人航空機100Aによる動作例を示すフローチャートである。   FIG. 15 is a flowchart illustrating an operation example of the unmanned aircraft 100A.

まず、UAV制御部110Aは、飛行パラメータ及び撮像パラメータを取得する(S301)。ここでは、UAV制御部110Aは、メモリ160やストレージ170に保持された飛行パラメータ及び撮像パラメータをそのまま取得してよい。また、UAV制御部110Aは、端末80での操作部83を介した入力情報に基づいて飛行パラメータ及び撮像パラメータの一部を算出することで、飛行パラメータ及び撮像パラメータを取得してよい。   First, the UAV control unit 110A acquires flight parameters and imaging parameters (S301). Here, the UAV control unit 110A may acquire the flight parameters and imaging parameters held in the memory 160 and the storage 170 as they are. In addition, the UAV control unit 110A may acquire the flight parameters and the imaging parameters by calculating part of the flight parameters and the imaging parameters based on the input information via the operation unit 83 in the terminal 80.

UAV制御部110Aは、取得された飛行パラメータ及び撮像パラメータに基づいて、撮像部220又は撮像部230により空撮予定の元画像OGの画像範囲GHを算出する(S302)。UAV制御部110Aは、各空撮位置で空撮予定の複数の元画像OGの画像範囲GHを基に、外接矩形領域D12を算出する(S303)。UAV制御部110Aは、外接矩形領域D12を基に、包囲領域D1を決定する(S304)。UAV制御部110Aは、包囲領域D1を分割し、複数の部分領域pdを算出する(S305)。   The UAV control unit 110A calculates the image range GH of the original image OG scheduled for aerial photography by the imaging unit 220 or the imaging unit 230 based on the acquired flight parameters and imaging parameters (S302). The UAV control unit 110A calculates a circumscribed rectangular area D12 based on the image ranges GH of a plurality of original images OG scheduled for aerial shooting at each aerial shooting position (S303). The UAV control unit 110A determines the surrounding area D1 based on the circumscribed rectangular area D12 (S304). The UAV control unit 110A divides the surrounding area D1 and calculates a plurality of partial areas pd (S305).

UAV制御部110Aは、飛行パラメータに従って無人航空機100Aの飛行を制御し、撮像パラメータに従って空撮位置において空撮する(S306)。   The UAV control unit 110A controls the flight of the unmanned aircraft 100A according to the flight parameters, and performs aerial shooting at the aerial shooting position according to the imaging parameters (S306).

UAV制御部110Aは、複数の部分領域pdのうち、いずれかの部分領域pdx(x=a,b,・・・)における各空撮位置での空撮が完了したかを判定する(S307)。いずれの部分領域pdxにおいても各空撮位置での空撮が完了していない場合、UAV制御部110Aは、引き続き各空撮位置での空撮を継続すべく、S306に進む。なお、部分領域pdxは、第3の部分領域の一例である。   The UAV control unit 110A determines whether the aerial shooting at each aerial shooting position in any partial region pdx (x = a, b,...) Among the plurality of partial regions pd has been completed (S307). . If the aerial shooting at each aerial shooting position is not completed in any partial region pdx, the UAV control unit 110A proceeds to S306 to continue the aerial shooting at each aerial shooting position. The partial region pdx is an example of a third partial region.

いずれかの部分領域pdx(x=a,b,・・・)における各空撮位置での空撮が完了した場合、UAV制御部110Aは、各空撮位置での空撮が完了した部分領域pdxにおいて空撮された複数の元画像OGを基に、合成画像SG1を生成する(S308)。具体的には、UAV制御部110Aは、空撮された複数の元画像OGから、各空撮位置での空撮が完了した部分領域pdxと重複する1つ以上の重複元画像OOGxを取得する。なお、UAV制御部110Aは、複数の重複元画像OOGxの一部を、部分領域pdxにおける画像合成の対象となる画像から除外してよい。UAV制御部110Aは、取得された重複元画像OOGxを合成し、部分領域pdxにおける合成画像SG1xを生成する。   When the aerial shooting at each aerial shooting position in any partial area pdx (x = a, b,...) Is completed, the UAV control unit 110A completes the aerial shooting at each aerial shooting position. A composite image SG1 is generated based on a plurality of original images OG taken aerial in pdx (S308). Specifically, the UAV control unit 110A acquires one or more overlapping original images OOGx that overlap with the partial region pdx that has been aerial shot at each aerial shooting position, from a plurality of aerial shot original images OG. . Note that the UAV control unit 110A may exclude a part of the plurality of overlapping original images OOGx from the images to be subjected to image synthesis in the partial region pdx. The UAV control unit 110A combines the acquired overlapping original images OOGx to generate a combined image SG1x in the partial region pdx.

UAV制御部110Aは、包囲領域D1における各空撮位置での空撮が完了したか否かを判定する(S309)。つまり、UAV制御部110Aは、空撮予定の空撮が全て終了したか否かを判定する。包囲領域D1における各空撮位置での空撮が完了していない場合、UAV制御部110Aは、引き続き各空撮位置での空撮を継続すべく、S306に進む。   The UAV control unit 110A determines whether or not the aerial photography at each aerial photography position in the surrounding area D1 is completed (S309). That is, the UAV control unit 110A determines whether or not the aerial shooting scheduled for aerial shooting has ended. If the aerial shooting at each aerial shooting position in the surrounding area D1 has not been completed, the UAV control unit 110A proceeds to S306 in order to continue the aerial shooting at each aerial shooting position.

包囲領域D1における各空撮位置での空撮が完了した場合、各部分領域pdxにおいて得られた各合成画像SG1を合成し、合成画像SG2を生成する(S310)。なお、S310の処理は、省略されてもよい。   When the aerial shooting at each aerial shooting position in the surrounding area D1 is completed, the synthesized images SG1 obtained in the partial areas pdx are synthesized to generate a synthesized image SG2 (S310). Note that the process of S310 may be omitted.

図15の動作例によれば、無人航空機100Aは、飛行中に画像を空撮して元画像OGを得て、元画像OGを基に、部分領域pd毎に合成画像SG1を生成する。例えば、無人航空機100Aは、部分領域pdに重複する重複元画像OOGを基に合成画像SG1を生成する。これにより、無人航空機100Aは、包囲領域D1内の元画像OGの全てを画像合成に用いる場合と比較すると、部分領域pdにおける画像合成に用いる元画像OGの枚数を削減できる。また、無人航空機100Aは、ストレージ170からメモリ160へ読み込む元画像OGの枚数も削減できる。したがって、無人航空機100Aは、メモリ160において実施する画像合成の処理負荷を軽減でき、メモリリークを抑制できる。また、無人航空機100Aは、画像合成における最適化処理の処理負荷も軽減でき、メモリリークを抑制でき、合成画質の劣化も抑制できる。   According to the operation example of FIG. 15, the unmanned aerial vehicle 100A obtains an original image OG by taking an aerial image during flight, and generates a composite image SG1 for each partial region pd based on the original image OG. For example, the unmanned aircraft 100A generates the composite image SG1 based on the overlapping original image OOG that overlaps the partial region pd. As a result, the unmanned aircraft 100A can reduce the number of original images OG used for image composition in the partial region pd, as compared with the case where all of the original images OG in the surrounding region D1 are used for image composition. In addition, the unmanned aircraft 100A can reduce the number of original images OG read from the storage 170 to the memory 160. Therefore, unmanned aerial vehicle 100A can reduce the processing load of image synthesis performed in memory 160, and can suppress memory leaks. Further, the unmanned aerial vehicle 100A can reduce the processing load of the optimization process in the image composition, can suppress the memory leak, and can suppress the deterioration of the composite image quality.

また、無人航空機100Aは、合成画像SG1を合成して合成画像SG2を生成することで、包囲領域D1全体の合成画像SG2を得ることができる。よって、包囲領域D1において部分領域pdを加味せずに画像合成を行う場合と同じ領域の合成画像SG2を得ることができる。また、合成画像SG2を生成する際には、画像合成の元となる合成画像SG1の枚数は部分領域pdの数と同じである。この数は、包囲領域D1において部分領域pdを加味せずに画像合成を行う場合の画像合成に用いる枚数よりも通常は少なくなる。よって、無人航空機100Aは、包囲領域D1全体の合成画像SG2を生成可能であるとともに、メモリ160を用いた画像合成の処理負荷を低減でき、メモリリークを抑制できる。   The unmanned aerial vehicle 100A can obtain the synthesized image SG2 of the entire surrounding area D1 by synthesizing the synthesized image SG1 to generate the synthesized image SG2. Therefore, it is possible to obtain a composite image SG2 in the same region as that in the case of performing image composition without taking the partial region pd into consideration in the surrounding region D1. Further, when the composite image SG2 is generated, the number of composite images SG1 that are the basis of image composition is the same as the number of partial regions pd. This number is usually smaller than the number used for image composition when image composition is performed without taking into account the partial region pd in the surrounding region D1. Therefore, the unmanned aircraft 100A can generate the composite image SG2 of the entire surrounding area D1, can reduce the processing load of image synthesis using the memory 160, and can suppress memory leak.

また、無人航空機100Aは、飛行中に、部分領域pdにおける合成画像SG1を生成してよい。無人航空機100Aは、飛行中に、合成画像SG1を合成して合成画像SG2を生成してよい。これにより、無人航空機100Aは、空撮された元画像OGを基に、迅速に合成画像SG1や合成画像SG2を生成できる。また、例えば、UAV制御部110Aが、通信インタフェース150を介して端末80に送信することで、端末80の端末制御部81が、通信部85を介して合成画像SG1、SG2を取得でき、表示部88を介して合成画像SG1,SG2を表示できる。よって、ユーザは、空撮直後の元画像OGに基づく合成画像SG1,SG2を、迅速に確認できる。   In addition, the unmanned aircraft 100A may generate the composite image SG1 in the partial region pd during the flight. The unmanned aircraft 100A may generate the composite image SG2 by combining the composite image SG1 during the flight. As a result, the unmanned aircraft 100A can quickly generate the composite image SG1 and the composite image SG2 based on the original image OG taken in the aerial view. In addition, for example, the UAV control unit 110A transmits to the terminal 80 via the communication interface 150, so that the terminal control unit 81 of the terminal 80 can acquire the composite images SG1 and SG2 via the communication unit 85, and the display unit The composite images SG1 and SG2 can be displayed via the display 88. Therefore, the user can quickly confirm the composite images SG1 and SG2 based on the original image OG immediately after the aerial photography.

また、無人航空機100Aは、部分領域pdに含まれる各空撮位置での空撮が完了次第、合成画像SG1を生成することで、包囲領域D1に含まれる各空撮位置での空撮が完了してから合成画像SG1を生成する場合と比較すると、合成画像SG1の生成タイミングを更に早めることができる。したがって、合成画像SG1の生成に係るリアルタイム性が更に向上する。   The unmanned aircraft 100A completes the aerial photography at each aerial photography position included in the surrounding area D1 by generating the composite image SG1 as soon as the aerial photography at each aerial photography position included in the partial area pd is completed. Then, compared with the case where the composite image SG1 is generated, the generation timing of the composite image SG1 can be further advanced. Therefore, the real-time property relating to the generation of the composite image SG1 is further improved.

なお、図15では、空撮方向が重力方向又は重力方向に近く、部分領域pdxに存在する空撮位置で空撮された元画像OGの画像範囲GHは、部分領域pdxと重畳することを想定した。つまり、UAV制御部110Aが、部分領域pdxに含まれる各空撮位置における空撮の完了を基に、部分領域pdxの合成画像SG1を生成することを想定した。この代わりに、元画像OGの画像範囲GHが、その空撮位置が存在する部分領域pdxと重複しない場合、部分領域pdxと画像範囲GHとの位置関係を基に、合成画像SG1を生成してもよい。つまり、UAV制御部110Aが、部分領域pdxに含まれる各画像範囲GHの元画像OGの空撮が完了したことを基に、部分領域pdxの合成画像SG1を生成してもよい。   In FIG. 15, it is assumed that the aerial shooting direction is the gravity direction or close to the gravity direction, and the image range GH of the original image OG taken aerial at the aerial shooting position existing in the partial region pdx is overlapped with the partial region pdx. did. That is, it is assumed that the UAV control unit 110A generates the composite image SG1 of the partial region pdx based on the completion of the aerial shooting at each aerial shooting position included in the partial region pdx. Instead, when the image range GH of the original image OG does not overlap with the partial region pdx in which the aerial shooting position exists, the composite image SG1 is generated based on the positional relationship between the partial region pdx and the image range GH. Also good. That is, the UAV control unit 110A may generate the composite image SG1 of the partial region pdx based on the completion of the aerial photography of the original image OG of each image range GH included in the partial region pdx.

これにより、無人航空機100Aは、空撮予定の空撮方向(撮像パラメータに含まれる空撮方向)が重力方向から傾いていても、部分領域pdxと重複する画像範囲GHの元画像OGが空撮された際に、合成画像SG1を生成できる。よって、無人航空機100Aは、部分領域pdxの合成画像SG1の生成準備が整い次第、迅速に合成画像SG1を生成可能であり、画像合成のリアルタイム性を向上できる。   As a result, the unmanned aircraft 100A allows the original image OG of the image range GH that overlaps the partial region pdx to be aerial shot even if the aerial shooting direction (aerial shooting direction included in the imaging parameters) planned for aerial shooting is tilted from the gravity direction. When this is done, a composite image SG1 can be generated. Therefore, the unmanned aircraft 100A can quickly generate the composite image SG1 as soon as preparation for generating the composite image SG1 of the partial region pdx is completed, and can improve the real-time property of the image synthesis.

以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。   As mentioned above, although this indication was explained using an embodiment, the technical scope of this indication is not limited to the range as described in an embodiment mentioned above. It will be apparent to those skilled in the art that various modifications and improvements can be made to the embodiment described above. It is also apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. ”And the like, and can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. is not.

10,10A 画像合成システム
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100,100A 無人航空機
110,110A UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 ジンバル
210 回転翼機構
220,230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
d 空撮位置間隔
D1 包囲領域
D11 地図領域
D12 外接矩形領域
FOV 画角
GH 画像範囲
L 空撮距離
OG,OG1 元画像
OOG 重複元画像
pd,pd1,pd2,pd3 部分領域
w 画像範囲の幅
10, 10A image composition system 80 terminal 81 terminal control unit 83 operation unit 85 communication unit 87 memory 88 display unit 89 storage 100, 100A unmanned aircraft 110, 110A UAV control unit 150 communication interface 160 memory 170 storage 200 gimbal 210 rotary wing mechanism 220 , 230 Imaging unit 240 GPS receiver 250 Inertial measuring device 260 Magnetic compass 270 Barometric altimeter 280 Ultrasonic sensor 290 Laser measuring device d Aerial position interval D1 Surrounding area D11 Map area D12 circumscribed rectangular area FOV Angle of view GH Image range L Aerial Distance OG, OG1 Original image OOG Overlapping original image pd, pd1, pd2, pd3 Partial area w Image range width

Claims (26)

飛行体により空撮された空撮画像を合成するモバイルプラットフォームであって、
前記空撮画像の合成に関する処理を行う処理部を備え、
前記処理部は、
異なる画像範囲を有する複数の第1の空撮画像を取得し、
複数の前記第1の空撮画像の前記画像範囲を包囲する第1の領域を取得し、
前記第1の領域を複数の部分領域に分割し、
前記部分領域毎に、複数の前記第1の空撮画像を合成して、第1の合成画像を生成する、
モバイルプラットフォーム。
A mobile platform that combines aerial images taken by an aircraft.
A processing unit that performs processing related to the synthesis of the aerial image;
The processor is
Acquiring a plurality of first aerial images having different image ranges;
Obtaining a first region surrounding the image range of a plurality of the first aerial images;
Dividing the first region into a plurality of partial regions;
For each partial region, a plurality of the first aerial images are combined to generate a first combined image.
Mobile platform.
前記処理部は、複数の前記第1の空撮画像のうち、前記画像範囲が同一の前記部分領域と重複する複数の第2の空撮画像を合成して、前記第1の合成画像を生成する、
請求項1に記載のモバイルプラットフォーム。
The processing unit generates a first composite image by combining a plurality of second aerial images that overlap with the partial region having the same image range among the plurality of first aerial images. To
The mobile platform according to claim 1.
前記処理部は、
複数の前記第2の空撮画像のうちの一部を、前記第1の合成画像を生成するための前記第2の空撮画像から除外し、前記第1の合成画像を生成する、
請求項2に記載のモバイルプラットフォーム。
The processor is
Excluding a part of the plurality of second aerial images from the second aerial image for generating the first synthesized image, and generating the first synthesized image;
The mobile platform according to claim 2.
前記処理部は、
前記第2の空撮画像における前記部分領域と重複する第1の部分を切り出し、
切り出された複数の前記第2の空撮画像における複数の前記第1の部分を合成して、前記第1の合成画像を生成する、
請求項2または3に記載のモバイルプラットフォーム。
The processor is
Cutting out a first portion that overlaps the partial region in the second aerial image;
Combining the plurality of first portions in the plurality of cut out second aerial images to generate the first combined image;
The mobile platform according to claim 2 or 3.
前記処理部は、
前記部分領域毎に得られた複数の前記第1の合成画像を合成して、第2の合成画像を生成する、
請求項1〜4のいずれか1項に記載のモバイルプラットフォーム。
The processor is
Combining a plurality of the first composite images obtained for each of the partial regions to generate a second composite image;
The mobile platform according to any one of claims 1 to 4.
前記第1の領域における隣り合う複数の前記部分領域は、重複する部分を有する、
請求項5に記載のモバイルプラットフォーム。
The plurality of adjacent partial regions in the first region have overlapping portions.
The mobile platform according to claim 5.
前記第1の合成画像の生成に用いられる第1の記憶部と、
生成された前記第1の合成画像が記録される第2の記憶部と、を更に備え、
前記処理部は、
前記第1の記憶部において第1の部分領域における前記第1の合成画像を生成し、
生成された前記第1の合成画像を前記第2の記憶部に送り、
前記第1の合成画像を前記第2の記憶部に送った後、前記第1の記憶部において第2の部分領域における前記第1の合成画像を生成する、
請求項1〜6のいずれか1項に記載のモバイルプラットフォーム。
A first storage unit used to generate the first composite image;
A second storage unit in which the generated first composite image is recorded,
The processor is
Generating the first composite image in the first partial region in the first storage unit;
Sending the generated first composite image to the second storage unit;
After sending the first composite image to the second storage unit, the first storage unit generates the first composite image in the second partial area in the first storage unit.
The mobile platform according to claim 1.
前記モバイルプラットフォームは、前記飛行体であり、
前記飛行体は、撮像部を備え、
前記処理部は、
前記飛行体の飛行を制御し、
前記飛行体の飛行中に、前記撮像部に空撮させて前記第1の空撮画像を取得し、前記第1の合成画像を生成する、
請求項1〜7のいずれか1項に記載のモバイルプラットフォーム。
The mobile platform is the aircraft;
The flying object includes an imaging unit,
The processor is
Control the flight of the aircraft,
During the flight of the flying object, the imaging unit is aerial photographed to obtain the first aerial image, and the first composite image is generated.
The mobile platform according to any one of claims 1 to 7.
前記処理部は、
前記飛行体が飛行するための飛行パラメータ及び前記撮像部により空撮するための撮像パラメータを取得し、
前記飛行パラメータ及び前記撮像パラメータに基づいて、前記画像範囲を決定する、
請求項8に記載のモバイルプラットフォーム。
The processor is
Obtaining flight parameters for flying the flying object and imaging parameters for aerial photography by the imaging unit;
Determining the image range based on the flight parameters and the imaging parameters;
The mobile platform according to claim 8.
前記処理部は、
前記飛行パラメータ及び前記撮像パラメータの一部を取得し、
前記飛行パラメータ及び前記撮像パラメータの一部に基づいて、前記飛行パラメータ及び前記撮像パラメータの他の一部を算出する、
請求項9に記載のモバイルプラットフォーム。
The processor is
Obtaining a part of the flight parameters and the imaging parameters;
Calculating other part of the flight parameter and the imaging parameter based on the flight parameter and a part of the imaging parameter;
The mobile platform according to claim 9.
前記処理部は、
前記飛行パラメータ及び前記撮像パラメータの少なくとも一部を、前記飛行パラメータ及び前記撮像パラメータを入力する入力装置から取得する、
請求項9または10に記載のモバイルプラットフォーム。
The processor is
Obtaining at least a part of the flight parameters and the imaging parameters from an input device for inputting the flight parameters and the imaging parameters;
The mobile platform according to claim 9 or 10.
複数の前記部分領域は、第3の部分領域を含み、
前記処理部は、
前記撮像部により空撮するための複数の空撮位置の情報を取得し、
前記第3の部分領域における前記撮像部による各空撮位置での空撮が完了した場合、前記第3の部分領域における前記第1の合成画像を生成する、
請求項8〜11のいずれか1項に記載のモバイルプラットフォーム。
The plurality of partial areas include a third partial area,
The processor is
Acquire information of a plurality of aerial shooting positions for aerial shooting by the imaging unit,
When the aerial shooting at each aerial shooting position by the imaging unit in the third partial region is completed, the first composite image in the third partial region is generated.
The mobile platform according to any one of claims 8 to 11.
飛行体により空撮された空撮画像を合成するモバイルプラットフォームにおける画像合成方法であって、
異なる画像範囲を有する複数の第1の空撮画像を取得するステップと、
複数の前記第1の空撮画像の前記画像範囲を包囲する第1の領域を取得するステップと、
前記第1の領域を複数の部分領域に分割するステップと、
前記部分領域毎に、複数の前記第1の空撮画像を合成して、第1の合成画像を生成するステップと、
を有する画像合成方法。
An image composition method in a mobile platform for composing an aerial image captured by an aircraft,
Obtaining a plurality of first aerial images having different image ranges;
Obtaining a first region surrounding the image range of a plurality of the first aerial images;
Dividing the first region into a plurality of partial regions;
Synthesizing a plurality of the first aerial images for each partial region to generate a first synthesized image;
An image composition method comprising:
前記第1の合成画像を生成するステップは、複数の前記第1の空撮画像のうち、前記画像範囲が同一の前記部分領域と重複する複数の第2の空撮画像を合成して、前記第1の合成画像を生成するステップを含む、
請求項13に記載の画像合成方法。
The step of generating the first composite image combines a plurality of second aerial images that overlap with the partial region having the same image range among the plurality of first aerial images, Generating a first composite image,
The image composition method according to claim 13.
前記第1の合成画像を生成するステップは、複数の前記第2の空撮画像のうちの一部を、前記第1の合成画像を生成するための前記第2の空撮画像から除外し、前記第1の合成画像を生成するステップを含む、
請求項14に記載の画像合成方法。
Generating the first composite image excludes a part of the plurality of second aerial images from the second aerial image for generating the first composite image; Generating the first composite image;
The image composition method according to claim 14.
前記第1の合成画像を生成するステップは、
前記第2の空撮画像における前記部分領域と重複する第1の部分を切り出すステップと、
切り出された複数の前記第2の空撮画像における複数の前記第1の部分を合成して、前記第1の合成画像を生成するステップと、を含む、
請求項14または15に記載の画像合成方法。
The step of generating the first composite image includes:
Cutting out a first portion that overlaps the partial region in the second aerial image;
Combining a plurality of the first portions in the plurality of clipped second aerial images to generate the first composite image,
The image composition method according to claim 14 or 15.
前記部分領域毎に得られた複数の前記第1の合成画像を合成して、第2の合成画像を生成するステップ、を更に含む、
請求項13〜16のいずれか1項に記載の画像合成方法。
Further comprising: synthesizing a plurality of the first synthesized images obtained for each of the partial areas to generate a second synthesized image;
The image composition method according to claim 13.
前記第1の領域における隣り合う複数の前記部分領域は、重複する部分を有する、
請求項17に記載の画像合成方法。
The plurality of adjacent partial regions in the first region have overlapping portions.
The image composition method according to claim 17.
前記第1の合成画像を生成するステップは、
前記第1の合成画像の生成に用いられる第1の記憶部において、第1の部分領域における前記第1の合成画像を生成するステップと、
生成された前記第1の合成画像を、前記第1の合成画像が記録される第2の記憶部に送るステップと、
前記第1の合成画像を前記第2の記憶部に送った後、前記第1の記憶部において第2の部分領域における前記第1の合成画像を生成するステップと、を含む、
請求項13〜18のいずれか1項に記載の画像合成方法。
The step of generating the first composite image includes:
Generating the first composite image in the first partial area in the first storage unit used for generating the first composite image;
Sending the generated first composite image to a second storage unit in which the first composite image is recorded;
Generating the first composite image in the second partial area in the first storage unit after sending the first composite image to the second storage unit;
The image composition method according to any one of claims 13 to 18.
前記モバイルプラットフォームは、前記飛行体であり、
前記飛行体は、撮像部を備え、
前記第1の合成画像を生成するステップは、前記飛行体の飛行中に、前記撮像部に空撮させて前記第1の空撮画像を取得し、前記第1の合成画像を生成するステップ、を含む、
請求項13〜19のいずれか1項に記載の画像合成方法。
The mobile platform is the aircraft;
The flying object includes an imaging unit,
The step of generating the first composite image includes the step of causing the imaging unit to take an aerial image during the flight of the flying object to obtain the first aerial image and generating the first composite image. including,
The image composition method according to any one of claims 13 to 19.
前記飛行体が飛行するための飛行パラメータ及び前記撮像部により空撮するための撮像パラメータを取得するステップと、
前記飛行パラメータ及び前記撮像パラメータに基づいて、前記画像範囲を決定するステップと、を更に含む、
請求項20に記載の画像合成方法。
Obtaining flight parameters for the flying object to fly and imaging parameters for aerial photography by the imaging unit;
Further comprising determining the image range based on the flight parameters and the imaging parameters.
The image composition method according to claim 20.
前記飛行パラメータ及び前記撮像パラメータを取得するステップは、
前記飛行パラメータ及び前記撮像パラメータの一部を取得するステップと、
前記飛行パラメータ及び前記撮像パラメータの一部に基づいて、前記飛行パラメータ及び前記撮像パラメータの他の一部を算出するステップと、を含む、
請求項21に記載の画像合成方法。
Obtaining the flight parameters and the imaging parameters;
Obtaining a part of the flight parameters and the imaging parameters;
Calculating another part of the flight parameter and the imaging parameter based on the flight parameter and a part of the imaging parameter.
The image composition method according to claim 21.
前記飛行パラメータ及び前記撮像パラメータを取得するステップは、前記飛行パラメータ及び前記撮像パラメータの少なくとも一部を、前記飛行パラメータ及び前記撮像パラメータを入力する入力装置から取得するステップ、を含む、
請求項21または22に記載の画像合成方法。
The step of acquiring the flight parameter and the imaging parameter includes the step of acquiring at least a part of the flight parameter and the imaging parameter from an input device that inputs the flight parameter and the imaging parameter.
The image composition method according to claim 21 or 22.
複数の前記部分領域は、第3の部分領域を含み、
前記第1の合成画像を生成するステップは、
前記撮像部により空撮するための複数の空撮位置の情報を取得するステップと、
前記第3の部分領域における前記撮像部による各空撮位置での空撮が完了した場合、前記第3の部分領域における前記第1の合成画像を生成するステップと、を含む、
請求項20〜23のいずれか1項に記載の画像合成方法。
The plurality of partial areas include a third partial area,
The step of generating the first composite image includes:
Acquiring a plurality of aerial shooting position information for aerial shooting by the imaging unit;
Generating the first composite image in the third partial area when aerial shooting at each aerial shooting position by the imaging unit in the third partial area is completed.
The image composition method according to any one of claims 20 to 23.
飛行体により空撮された空撮画像を合成するモバイルプラットフォームに、
異なる画像範囲を有する複数の第1の空撮画像を取得するステップと、
複数の前記第1の空撮画像の前記画像範囲を包囲する第1の領域を取得するステップと、
前記第1の領域を複数の部分領域に分割するステップと、
前記部分領域毎に、複数の前記第1の空撮画像を合成して、第1の合成画像を生成するステップと、
を実行させるためのプログラム。
A mobile platform that synthesizes aerial images captured by flying objects,
Obtaining a plurality of first aerial images having different image ranges;
Obtaining a first region surrounding the image range of a plurality of the first aerial images;
Dividing the first region into a plurality of partial regions;
Synthesizing a plurality of the first aerial images for each partial region to generate a first synthesized image;
A program for running
飛行体により空撮された空撮画像を合成するモバイルプラットフォームに、
異なる画像範囲を有する複数の第1の空撮画像を取得するステップと、
複数の前記第1の空撮画像の前記画像範囲を包囲する第1の領域を取得するステップと、
前記第1の領域を複数の部分領域に分割するステップと、
前記部分領域毎に、複数の前記第1の空撮画像を合成して、第1の合成画像を生成するステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
A mobile platform that synthesizes aerial images captured by flying objects,
Obtaining a plurality of first aerial images having different image ranges;
Obtaining a first region surrounding the image range of a plurality of the first aerial images;
Dividing the first region into a plurality of partial regions;
Synthesizing a plurality of the first aerial images for each partial region to generate a first synthesized image;
The computer-readable recording medium which recorded the program for performing this.
JP2017144719A 2017-07-26 2017-07-26 Mobile platform, image composition method, program and recording medium Ceased JP2019028560A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017144719A JP2019028560A (en) 2017-07-26 2017-07-26 Mobile platform, image composition method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017144719A JP2019028560A (en) 2017-07-26 2017-07-26 Mobile platform, image composition method, program and recording medium

Publications (1)

Publication Number Publication Date
JP2019028560A true JP2019028560A (en) 2019-02-21

Family

ID=65478516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017144719A Ceased JP2019028560A (en) 2017-07-26 2017-07-26 Mobile platform, image composition method, program and recording medium

Country Status (1)

Country Link
JP (1) JP2019028560A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181805A1 (en) 2018-03-22 2019-09-26 キヤノン株式会社 Fixing member, fixing device, and electrophotographic image-forming apparatus
WO2019181796A1 (en) 2018-03-22 2019-09-26 キヤノン株式会社 Fixing member, fixing device, and electrophotographic image-forming apparatus
WO2021117388A1 (en) * 2019-12-09 2021-06-17 富士フイルム株式会社 Mobile unit, control device, and imaging method
CN117470199A (en) * 2023-12-27 2024-01-30 天津云圣智能科技有限责任公司 Swing photography control method and device, storage medium and electronic equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1198492A (en) * 1997-09-19 1999-04-09 Mitsubishi Electric Corp Supervisory system
WO2004113836A1 (en) * 2003-06-20 2004-12-29 Mitsubishi Denki Kabushiki Kaisha Picked-up image display method
JP2011002892A (en) * 2009-06-16 2011-01-06 Asahi Koyo Kk Mosaic image generating method, device and program
JP2014006148A (en) * 2012-06-25 2014-01-16 Topcon Corp Aerial photographing method and aerial photographing system
US20140192193A1 (en) * 2011-06-22 2014-07-10 Sensefly S.A. Method for acquiring images from arbitrary perspectives with uavs equipped with fixed imagers
JP2015215252A (en) * 2014-05-12 2015-12-03 株式会社日立ソリューションズ Satellite image data processing device, satellite image data processing system, and method and program for processing satellite image data
US20170124745A1 (en) * 2014-03-28 2017-05-04 Konica Minolta Laboratory U.S.A., Inc. Method and system of stitching aerial data using information from previous aerial images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1198492A (en) * 1997-09-19 1999-04-09 Mitsubishi Electric Corp Supervisory system
WO2004113836A1 (en) * 2003-06-20 2004-12-29 Mitsubishi Denki Kabushiki Kaisha Picked-up image display method
JP2011002892A (en) * 2009-06-16 2011-01-06 Asahi Koyo Kk Mosaic image generating method, device and program
US20140192193A1 (en) * 2011-06-22 2014-07-10 Sensefly S.A. Method for acquiring images from arbitrary perspectives with uavs equipped with fixed imagers
JP2014006148A (en) * 2012-06-25 2014-01-16 Topcon Corp Aerial photographing method and aerial photographing system
US20170124745A1 (en) * 2014-03-28 2017-05-04 Konica Minolta Laboratory U.S.A., Inc. Method and system of stitching aerial data using information from previous aerial images
JP2015215252A (en) * 2014-05-12 2015-12-03 株式会社日立ソリューションズ Satellite image data processing device, satellite image data processing system, and method and program for processing satellite image data

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181805A1 (en) 2018-03-22 2019-09-26 キヤノン株式会社 Fixing member, fixing device, and electrophotographic image-forming apparatus
WO2019181796A1 (en) 2018-03-22 2019-09-26 キヤノン株式会社 Fixing member, fixing device, and electrophotographic image-forming apparatus
WO2021117388A1 (en) * 2019-12-09 2021-06-17 富士フイルム株式会社 Mobile unit, control device, and imaging method
CN114788256A (en) * 2019-12-09 2022-07-22 富士胶片株式会社 Moving body, control device, and imaging method
JP7444898B2 (en) 2019-12-09 2024-03-06 富士フイルム株式会社 Mobile object, control device, and imaging method
CN117470199A (en) * 2023-12-27 2024-01-30 天津云圣智能科技有限责任公司 Swing photography control method and device, storage medium and electronic equipment
CN117470199B (en) * 2023-12-27 2024-03-15 天津云圣智能科技有限责任公司 Swing photography control method and device, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
JP6962775B2 (en) Information processing equipment, aerial photography route generation method, program, and recording medium
JP6803800B2 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and recording medium
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
JP6878194B2 (en) Mobile platforms, information output methods, programs, and recording media
JP2019028560A (en) Mobile platform, image composition method, program and recording medium
JP6962812B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
JP6675537B1 (en) Flight path generation device, flight path generation method and program, and structure inspection method
CN111344650B (en) Information processing device, flight path generation method, program, and recording medium
US20200217665A1 (en) Mobile platform, image capture path generation method, program, and recording medium
WO2018214401A1 (en) Mobile platform, flying object, support apparatus, portable terminal, method for assisting in photography, program and recording medium
CN111213107B (en) Information processing device, imaging control method, program, and recording medium
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
JP6790206B1 (en) Control devices, control methods, programs, and recording media
WO2020001629A1 (en) Information processing device, flight path generating method, program, and recording medium
WO2020119572A1 (en) Shape inferring device, shape inferring method, program, and recording medium
JP2021148789A (en) Radio wave propagation path maintenance system
CN112313942A (en) Control device for image processing and frame body control
WO2019228337A1 (en) Moving object, image generation method, program, and recording medium
WO2020108290A1 (en) Image generating device, image generating method, program and recording medium
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20211130