JP2019012913A - Imaging system and aircraft - Google Patents

Imaging system and aircraft Download PDF

Info

Publication number
JP2019012913A
JP2019012913A JP2017128173A JP2017128173A JP2019012913A JP 2019012913 A JP2019012913 A JP 2019012913A JP 2017128173 A JP2017128173 A JP 2017128173A JP 2017128173 A JP2017128173 A JP 2017128173A JP 2019012913 A JP2019012913 A JP 2019012913A
Authority
JP
Japan
Prior art keywords
imaging
sound wave
sound
drone
wave output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017128173A
Other languages
Japanese (ja)
Other versions
JP6840441B2 (en
Inventor
茂夫 青柳
Shigeo Aoyanagi
茂夫 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2017128173A priority Critical patent/JP6840441B2/en
Publication of JP2019012913A publication Critical patent/JP2019012913A/en
Application granted granted Critical
Publication of JP6840441B2 publication Critical patent/JP6840441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Data Copying Or Recording (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging system and an aircraft capable of easily synchronizing a plurality of images captured separately without complicating a configuration and processing.SOLUTION: The imaging system includes: a drone 100 on which a video camera 200 is mounted; and a video camera 300 held by an operator A in the hand. The drone 100 includes: a flight control unit 130 for causing the drone 100 to fly around a predetermined object to be captured; a sound wave output unit 122 for outputting sound waves of a predetermined frequency having an output level reachable to the video camera 300; and a video camera 200 that collects sound waves output from the sound wave output unit 122, captures an image of an object to be captured, and records the sound waves together with an image obtained by the capturing.SELECTED DRAWING: Figure 2

Description

本発明は、複数方向から撮像対象物等を同時に撮像するようにした撮像システムおよび飛行体に関する。   The present invention relates to an imaging system and a flying object configured to simultaneously image an imaging target object from a plurality of directions.

従来から、第1および第2の撮像装置のそれぞれにおいて撮像を行って音声データとともに記録し、これら2つの音声データに基づいて時間ずれ情報を算出し、それぞれの撮像画像の再生タイミングをこの時間ずれ情報に基づいて制御することにより、2つの画像を同期させるようにした画像同期システムが知られている(例えば、特許文献1参照。)。   Conventionally, each of the first and second imaging devices captures an image and records it together with audio data, calculates time shift information based on these two audio data, and sets the reproduction timing of each captured image to this time shift. An image synchronization system that synchronizes two images by controlling based on information is known (for example, see Patent Document 1).

特開2008−193561号公報JP 2008-193561 A

ところで、上述した特許文献1では、第1の撮像装置における撮像動作に対応して音声データを記録し、第2の撮像装置における撮像動作に対応して音声データを記録しているが、これらの音声データの発生源についての記載がない。第1および第2の撮像装置のそれぞれには音声再生部と集音部が備わっているため、第1および第2の撮像装置にそれぞれにおいて別々に音声を生成して集音することが考えられるが、その場合には、別々に発生させた音声に基づいて正確に複数の画像の同期を取ることは難しいという問題があった。また、特許文献1の画像同期システムでは、第1および第2の撮像装置のそれぞれに、音声同期検出部や相互に音声データ等を送受信するための通信部などが必要になり、構成や処理が複雑であって、汎用のカメラを用いて1つの被写体を撮像してその画像の同期をとることができないという問題があった。   Incidentally, in Patent Document 1 described above, audio data is recorded corresponding to the imaging operation in the first imaging device and audio data is recorded corresponding to the imaging operation in the second imaging device. There is no description of the source of audio data. Since each of the first and second imaging devices includes an audio reproduction unit and a sound collection unit, it is conceivable that the first and second imaging devices separately generate and collect sounds. In this case, however, there is a problem that it is difficult to accurately synchronize a plurality of images based on separately generated sounds. In addition, in the image synchronization system of Patent Document 1, each of the first and second imaging devices requires an audio synchronization detection unit, a communication unit for transmitting / receiving audio data to / from each other, and the like, and the configuration and processing are limited. There is a problem that it is complicated and it is impossible to take an image of one subject using a general-purpose camera and synchronize the image.

本発明は、このような点に鑑みて創作されたものであり、その目的は、構成が簡素で処理が複雑にならず、別々に撮像された複数の画像の同期を容易にとることができる撮像システムおよび飛行体を提供することにある。   The present invention has been created in view of the above points, and the object thereof is to simplify the configuration and the processing is not complicated, and it is possible to easily synchronize a plurality of images captured separately. It is to provide an imaging system and a flying object.

上述した課題を解決するために、本発明の撮像システムは、第1の撮像手段が搭載された飛行体と、第2の撮像手段を有する撮像装置とを備える。飛行体は、所定の撮像対象物の周辺を飛行体に飛行させる飛行制御手段と、撮像装置に到達可能な出力レベルを有する所定周波数の音波を出力する音波出力手段と、音波出力手段から出力される音波を集音する第1の集音手段と、撮像対象物を撮像し、この撮像によって得られた画像とともに、第1の集音手段によって集音された音波を記録する第1の撮像手段とを備える。また、撮像装置は、音波出力手段から出力される音波を集音する第2の集音手段と、撮像対象物および/または飛行体を撮像し、この撮像によって得られた画像とともに、第2の集音手段によって集音された音波を記録する第2の撮像手段とを備える。   In order to solve the above-described problem, an imaging system according to the present invention includes a flying object on which a first imaging unit is mounted and an imaging apparatus having a second imaging unit. The flying object is output from a flight control unit that causes the flying object to fly around a predetermined imaging target, a sound wave output unit that outputs a sound wave of a predetermined frequency having an output level that can reach the imaging device, and a sound wave output unit. First sound collecting means for picking up sound waves to be picked up, and first image pickup means for picking up an image of an object to be imaged and recording sound waves collected by the first sound collecting means together with an image obtained by the image pickup. With. In addition, the imaging apparatus captures the second sound collecting unit that collects the sound wave output from the sound wave output unit, the imaging target and / or the flying object, and the second image together with the image obtained by the imaging. And a second imaging means for recording the sound wave collected by the sound collecting means.

飛行体に搭載される第1の撮像手段、第1の集音手段や、撮像装置に備わった第2の撮像手段、第2の集音手段は、汎用のビデオカメラを用いて容易に実現することが可能であるため、飛行体に音波出力手段を追加するだけでシステム全体を構築することができ、構成および処理内容を簡素化することが可能となる。また、飛行体の音波出力手段から出力された音波が、飛行体と撮像装置のそれぞれにおいて画像と同時に記録されるため、この音波に合わせて、別々に撮像された複数の画像の同期をとることが容易となる。   The first image pickup means, the first sound collection means, the second image pickup means, and the second sound collection means provided in the image pickup apparatus are easily realized using a general-purpose video camera. Therefore, the entire system can be constructed only by adding the sound wave output means to the flying object, and the configuration and processing contents can be simplified. In addition, since the sound wave output from the sound wave output means of the flying object is recorded simultaneously with the image in each of the flying object and the imaging device, a plurality of images taken separately are synchronized with this sound wave. Becomes easy.

また、上述した音波出力手段から出力される音波には、第1の撮像手段による撮像内容を示す特定情報が含まれていることが望ましい。これにより、飛行体と音波との対応がとりやすくなり、誤った組み合わせで画像の同期をとることを防止することができる。   In addition, it is desirable that the sound wave output from the sound wave output unit described above includes specific information indicating the content captured by the first image capturing unit. Thereby, it becomes easy to take a correspondence with a flying object and a sound wave, and it can prevent taking a picture synchronization with an incorrect combination.

また、上述した特定情報には、飛行体の識別情報、飛行体の位置情報、第1の撮像手段による撮像時刻情報の少なくとも一つが含まれることが望ましい。飛行体と撮像装置との同じ組み合わせで複数の画像を撮像した場合に、それぞれの画像において同期をとることが容易となる。   The specific information described above preferably includes at least one of identification information of the flying object, position information of the flying object, and imaging time information by the first imaging means. When a plurality of images are captured with the same combination of the flying object and the imaging device, it is easy to synchronize the images.

また、上述した音波出力手段から出力される音波は、人の可聴周波数帯域以外の周波数成分が用いられることが望ましい。これにより、撮影時に耳障りな音声が聞こえることを防止することができる。   In addition, it is desirable that the sound wave output from the sound wave output unit described above uses frequency components other than the human audible frequency band. Thereby, it is possible to prevent annoying sound from being heard during shooting.

また、上述した音波出力手段から出力される音波は、人の可聴周波数帯域に含まれる周波数成分が用いられることが望ましい。これにより、画像の同期をとるために出力される音波の有無を利用者が直接耳で確認することができ、音波が出力されない不具合を迅速に把握することができる。   Further, it is desirable that the sound wave output from the sound wave output means described above uses a frequency component included in a human audible frequency band. As a result, the user can directly confirm the presence or absence of sound waves output to synchronize the images with his / her ears, and can quickly grasp the problem that sound waves are not output.

また、本発明の飛行体は、撮像手段が搭載された飛行体であって、所定の撮像対象物の周辺を飛行体に飛行させる飛行制御手段と、撮像装置に到達可能な出力レベルを有する所定周波数の音波を出力する音波出力手段と、音波出力手段から出力される音波を集音する集音手段と、撮像対象物を撮像し、この撮像によって得られた画像とともに、集音手段によって集音された音波を記録する撮像手段とを備えている。   In addition, the flying object of the present invention is a flying object equipped with an imaging means, a flight control means for causing the flying object to fly around a predetermined imaging object, and a predetermined output level that can reach the imaging device. Sound wave output means for outputting sound waves of a frequency, sound collection means for collecting sound waves output from the sound wave output means, and picking up an image of an object to be picked up, together with an image obtained by the image pickup, collecting sound by the sound collection means Imaging means for recording the sound wave.

飛行体に搭載される撮像手段や集音手段は、汎用のビデオカメラを用いて容易に実現することが可能であるため、音波出力手段を追加するだけで飛行体を構成することができ、構成および処理内容を簡素化することが可能となる。また、飛行体の音波出力手段から出力された音波が、飛行体と別のビデオカメラ等のそれぞれにおいて画像と同時に記録されるため、この音波に合わせて、別々に撮像された複数の画像の同期をとることが容易となる。   Since the imaging means and sound collection means mounted on the flying object can be easily realized using a general-purpose video camera, the flying object can be configured simply by adding a sound wave output means. In addition, the processing contents can be simplified. In addition, since the sound wave output from the sound wave output unit of the flying object is recorded simultaneously with the image in each of the video camera and the like different from the flying object, synchronization of a plurality of images captured separately in accordance with this sound wave It becomes easy to take.

一実施形態の撮像システムの概要を示す図である。It is a figure showing an outline of an imaging system of one embodiment. ドローンの構成を示す図である。It is a figure which shows the structure of a drone. ドローンに搭載されたビデオカメラを用いて撮像対象物としての送電線を撮像する動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure which images the power transmission line as an imaging target object using the video camera mounted in the drone. 操作者Aが所持するビデオカメラを用いて、送電線を撮像中のドローンを撮像する動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure which images the drone which is imaging the power transmission line using the video camera which the operator A has. 2つのビデオカメラによる撮像、録音内容を示す図である。It is a figure which shows the imaging and recording content by two video cameras.

以下、本発明を適用した一実施形態の撮像システムについて、図面を参照しながら説明する。   Hereinafter, an imaging system according to an embodiment to which the present invention is applied will be described with reference to the drawings.

図1は、一実施形態の撮像システムの概要を示す図である。図1に示すように、本実施形態の撮像システムは、ビデオカメラ200が搭載された飛行体としてのドローン(無人飛行体)100と、地上の操作者Aが手に持って操作するビデオカメラ300とを含んで構成されている。   FIG. 1 is a diagram illustrating an overview of an imaging system according to an embodiment. As shown in FIG. 1, the imaging system of the present embodiment includes a drone (unmanned aerial vehicle) 100 as a flying body on which a video camera 200 is mounted, and a video camera 300 that the operator A on the ground holds and operates. It is comprised including.

例えば、ドローン100に搭載されたビデオカメラ200は、落雷発生時に撮像対象物としての送電線を撮像し、撮像された画像を解析することにより送電線400の障害の有無を調べるためのものである。また、操作者Aが所持するビデオカメラ300は、送電線を撮像中のビデオカメラ200を含むドローン100を撮像することにより、撮像環境に異常がないことを確認するためのものである。   For example, the video camera 200 mounted on the drone 100 is for examining the presence or absence of a failure in the power transmission line 400 by capturing a power transmission line as an imaging target when a lightning strike occurs and analyzing the captured image. . The video camera 300 possessed by the operator A is for confirming that there is no abnormality in the imaging environment by imaging the drone 100 including the video camera 200 that is imaging the power transmission line.

図2は、ドローン100の構成を示す図である。図2に示すように、ドローン100は、通信部110、飛行指示受信部120、音波出力部122、スピーカ124、飛行制御部130、姿勢制御部140、駆動制御部142、モータ144、ビデオカメラ200を含んで構成されている。   FIG. 2 is a diagram illustrating the configuration of the drone 100. As shown in FIG. 2, the drone 100 includes a communication unit 110, a flight instruction receiving unit 120, a sound wave output unit 122, a speaker 124, a flight control unit 130, an attitude control unit 140, a drive control unit 142, a motor 144, and a video camera 200. It is comprised including.

通信部110は、例えば操作者Bが手に持っているリモコン(リモートコントロール)装置150との間で無線接続を行ってデータの送受信を行う。   The communication unit 110 transmits and receives data by making a wireless connection with, for example, a remote control device 150 held by the operator B.

飛行指示受信部120は、リモコン装置150から無線通信で送られてくる遠隔操作用の各種の指示を通信部110を介して受信する。   The flight instruction receiving unit 120 receives various remote operation instructions sent from the remote control device 150 by wireless communication via the communication unit 110.

音波出力部122は、地上の操作者Aが手に持っているビデオカメラ300に到達可能な出力レベルを有する所定周波数の音波を生成してスピーカ124から出力する。この音波出力部122から出力される音波には、ビデオカメラ200による撮像内容を示す特定情報が含まれている。例えば、この特定情報として、ドローン100の識別情報、ドローン100の位置情報、ビデオカメラ200による撮像時刻情報の少なくとも一つが含まれている。   The sound wave output unit 122 generates sound waves of a predetermined frequency having an output level that can reach the video camera 300 held by the operator A on the ground and outputs the sound wave from the speaker 124. The sound wave output from the sound wave output unit 122 includes specific information indicating the content captured by the video camera 200. For example, the specific information includes at least one of identification information of the drone 100, position information of the drone 100, and imaging time information by the video camera 200.

この音波出力部122は、出力データ生成部122aと変調部122bを有する。出力データ生成部122aは、ドローン100の識別情報、位置情報、ビデオカメラ200による撮像時刻、ドローン100の動作状態等の全部あるいは一部が含まれる出力データを生成する。変調部122bは、この生成された出力データを変調して所定周波数の音波に重畳させてスピーカ124から出力する。スピーカ124から出力される音波は、人の可聴周波数帯域以外の周波数成分を用いる場合と、人の可聴周波数帯域に含まれる周波数成分を用いる場合が考えられる。可聴周波数帯域以外を用いる前者の場合には、撮影時に耳障りな音声が聞こえることを防止することができる。また、可聴周波数帯域を用いる後者の場合には、2つのビデオカメラ200、300のそれぞれ撮像によって得られた画像の同期をとる際に用いられる音波の有無を利用者が直接耳で確認することができ、音波が出力されない不具合を迅速に把握することができる。   The sound wave output unit 122 includes an output data generation unit 122a and a modulation unit 122b. The output data generation unit 122a generates output data including all or part of the identification information of the drone 100, the position information, the imaging time by the video camera 200, the operation state of the drone 100, and the like. The modulation unit 122b modulates the generated output data, superimposes the output data on a sound wave having a predetermined frequency, and outputs the sound wave from the speaker 124. The sound wave output from the speaker 124 may be a case where a frequency component other than the human audible frequency band is used or a case where a frequency component included in the human audible frequency band is used. In the former case using a frequency band other than the audible frequency band, it is possible to prevent annoying sound from being heard at the time of shooting. In the latter case using an audible frequency band, the user can directly confirm with the ear whether or not there is a sound wave used when synchronizing the images obtained by the imaging of the two video cameras 200 and 300, respectively. It is possible to quickly grasp the problem that sound waves are not output.

飛行制御部130は、撮像対象物(図1に示す例では「送電線」)の周囲をドローン100に飛行させるための飛行制御を行う。姿勢制御部140は、GPS受信機やジャイロセンサを含んでおり、ドローン100の位置を検出するとともに姿勢(位置および向き)を制御する。この姿勢制御部140によって検出されたドローン100の位置は、音波出力部122の出力データ生成部122aに送られ、出力データに含まれる「位置情報」として用いられる。   The flight control unit 130 performs flight control for causing the drone 100 to fly around the object to be imaged (“power transmission line” in the example illustrated in FIG. 1). The attitude control unit 140 includes a GPS receiver and a gyro sensor, detects the position of the drone 100, and controls the attitude (position and orientation). The position of the drone 100 detected by the attitude control unit 140 is sent to the output data generation unit 122a of the sound wave output unit 122 and is used as “position information” included in the output data.

駆動制御部142は、複数(例えば4個)のモータ144を駆動してそれぞれに対応する複数のプロペラ(図示せず)を回転させることにより、ドローン100を所定の向きに所定の速度で飛行させる。   The drive control unit 142 drives a plurality of (for example, four) motors 144 and rotates a plurality of propellers (not shown) corresponding to the respective motors 144 to fly the drone 100 in a predetermined direction at a predetermined speed. .

上述したビデオカメラ200が第1の撮像手段、第1の集音手段に、ビデオカメラ300が第2の撮像手段、第2の集音手段に、撮像装置に、飛行制御部130が飛行制御手段に、音波出力部122が音波出力手段にそれぞれ対応する。   The video camera 200 described above is the first imaging means and the first sound collecting means, the video camera 300 is the second imaging means and the second sound collecting means, the imaging device, and the flight control unit 130 is the flight control means. In addition, the sound wave output unit 122 corresponds to a sound wave output unit.

本実施形態の撮像システムはこのような構成を有しており、次に、撮像対象物としての送電線を撮像する動作について説明する。   The imaging system of the present embodiment has such a configuration. Next, an operation for imaging a power transmission line as an imaging target will be described.

図3は、ドローン100に搭載されたビデオカメラ200を用いて撮像対象物としての送電線を撮像する動作手順を示す流れ図である。   FIG. 3 is a flowchart showing an operation procedure for imaging a power transmission line as an imaging object using the video camera 200 mounted on the drone 100.

撮像開始に先立って、操作者Bは、リモコン装置150を操作して、ドローン100の飛行を指示する。ドローン100内の飛行指示受信部120によってこの指示を通信部110を介して受信すると、飛行制御部130は、この指示に応じて撮像対象物としての送電線の撮像位置までドローン100を飛行させる(ステップ100)。なお、操作者Bがリモコン装置150を操作してドローン100を撮像位置まで飛行させる遠隔操作を行う代わりに、撮像位置の情報をドローン100に送り、飛行制御部130の制御によって自律飛行を行った撮像位置までドローン100を移動させるようにしてもよい。   Prior to the start of imaging, the operator B operates the remote controller 150 to instruct the drone 100 to fly. When this instruction is received via the communication unit 110 by the flight instruction receiving unit 120 in the drone 100, the flight control unit 130 causes the drone 100 to fly to the imaging position of the power transmission line as the imaging object in accordance with this instruction ( Step 100). In addition, instead of performing a remote operation in which the operator B operates the remote control device 150 to fly the drone 100 to the imaging position, information on the imaging position is sent to the drone 100, and autonomous flight is performed under the control of the flight control unit 130. The drone 100 may be moved to the imaging position.

次に、操作者Bがリモコン装置150を操作して撮像開始指示をドローン100に送り、飛行指示受信部120がこの撮像開始指示を通信部110を介して受信すると、ビデオカメラ200は、送電線の撮像とともに周囲音の録音を開始する(ステップ102)。なお、本実施形態では、ビデオカメラ200は、市販品を流用することが可能であり、撮像動作と並行して内蔵マイク(マイクロホン)を用いて録音動作が行われるが、外付けのマイクロホンを用いたり、撮像部分と録音部分と撮像・録音結果の記録部分とを別々の部品にて用意してドローン100を組み立てる際にこれらの部品を組み付けるようにしてもよい。   Next, when the operator B operates the remote control device 150 to send an imaging start instruction to the drone 100 and the flight instruction receiving unit 120 receives the imaging start instruction via the communication unit 110, the video camera 200 transmits the power transmission line. Recording of the ambient sound is started with the imaging (step 102). In the present embodiment, a commercially available product can be used for the video camera 200, and a recording operation is performed using a built-in microphone (microphone) in parallel with the imaging operation, but an external microphone is used. Alternatively, the imaging part, the recording part, and the recording part of the imaging / recording result may be prepared as separate parts, and these parts may be assembled when the drone 100 is assembled.

次に、音波出力部122は、所定の音波を出力する(ステップ104)。音波を出力するタイミングとしては、(1)ステップ102における撮像と録音が開始されてから所定時間経過後に出力する、(2)操作者Bによってリモコン装置150が操作されて音波の出力が指示されたときに出力する、(3)所定時間が経過する毎に繰り返し出力する、などが考えられる。   Next, the sound wave output unit 122 outputs a predetermined sound wave (step 104). The timing of outputting the sound wave is (1) output after a predetermined time has elapsed since the start of imaging and recording in step 102. (2) The remote controller 150 is operated by the operator B and the output of the sound wave is instructed. (3) It is possible to repeatedly output every time a predetermined time elapses.

次に、操作者Bがリモコン装置150を操作して撮像終了指示をドローン100に送り、飛行指示受信部120がこの撮像終了指示を通信部110を介して受信すると、ビデオカメラ200は、送電線の撮像と周囲音の録音を終了する(ステップ106)。   Next, when the operator B operates the remote control device 150 to send an imaging end instruction to the drone 100 and the flight instruction receiving unit 120 receives the imaging end instruction via the communication unit 110, the video camera 200 And the recording of the ambient sound are terminated (step 106).

撮像終了後に、操作者Bは、リモコン装置150を操作して、ドローン100の飛行終了を指示する。ドローン100内の飛行指示受信部120によってこの指示を通信部110を介して受信すると、飛行制御部130は、この指示に応じてドローン100を所定の着地位置に着地させて撮像のための一連の飛行を終了する(ステップ108)。なお、ドローン100がビデオカメラ200による撮像、録音動作中に墜落等の異常が発生した場合には、その時点でビデオカメラ200による撮像、録音動作が中断される場合があるため、上述したステップ106、108の動作が実施されないこともある。   After the imaging is finished, the operator B operates the remote controller 150 to instruct the drone 100 to end the flight. When this instruction is received by the flight instruction receiving unit 120 in the drone 100 via the communication unit 110, the flight control unit 130 causes the drone 100 to land at a predetermined landing position in accordance with this instruction and a series of images for imaging. The flight is terminated (step 108). Note that if an abnormality such as a crash occurs during the imaging and recording operation of the drone 100 by the video camera 200, the imaging and recording operation by the video camera 200 may be interrupted at that time, so the above-described step 106 , 108 may not be performed.

図4は、操作者Aが所持するビデオカメラ300を用いて、送電線を撮像中のドローン100を撮像する動作手順を示す流れ図である。   FIG. 4 is a flowchart showing an operation procedure for imaging the drone 100 that is imaging a power transmission line using the video camera 300 possessed by the operator A.

操作者Aは、例えば目視によりドローン100が飛行を開始したことを確認する(ステップ200)。その後、ビデオカメラ300の操作部が操作者Aによって操作されて撮像開始が指示されると、ビデオカメラ300は、送電線を撮像中のドローン100の撮像とともに周囲音の録音を開始する(ステップ202)。ドローン100のスピーカ124から出力された音波は操作者Aまで到達するようにその音量が設定されているため、スピーカ124から出力された音波はビデオカメラ300によって撮像と並行して録音される。   The operator A confirms that the drone 100 has started to fly, for example, by visual observation (step 200). After that, when the operation unit of the video camera 300 is operated by the operator A and the start of imaging is instructed, the video camera 300 starts recording the ambient sound together with the imaging of the drone 100 that is imaging the power transmission line (step 202). ). Since the volume of the sound wave output from the speaker 124 of the drone 100 is set so as to reach the operator A, the sound wave output from the speaker 124 is recorded by the video camera 300 in parallel with the imaging.

次に、操作者Aは、例えば目視によりドローン100が飛行を終了したことを確認する(ステップ204)。その後、ビデオカメラ300の操作部が操作者Aによって操作されて撮像終了が指示されると、ビデオカメラ300は、ドローン100の撮像と周囲音の録音を終了する(ステップ206)。このようにして、ビデオカメラ300による一連の撮像、録音動作が終了する。   Next, the operator A confirms that the drone 100 has finished flying, for example, visually (step 204). Thereafter, when the operation unit of the video camera 300 is operated by the operator A and the end of imaging is instructed, the video camera 300 ends imaging of the drone 100 and recording of ambient sounds (step 206). In this way, a series of imaging and recording operations by the video camera 300 is completed.

図5は、2つのビデオカメラ200、300による撮像、録音内容を示す図である。図5において、「飛行Log」はドローン100のイベント内容(動作状態)を、「UAV(Unmanned aerial vehicle)記録」はドローン100に搭載されたビデオカメラ200の録画内容(撮像、録音内容)を、「地上記録」は操作者Aが手に持って操作するビデオカメラ300の録画内容をそれぞれ示している。   FIG. 5 is a diagram showing the contents of imaging and recording by the two video cameras 200 and 300. In FIG. 5, “Flight Log” is an event content (operation state) of the drone 100, “UAV (Unmanned aerial vehicle) recording” is a content recorded by the video camera 200 (imaging, recording content) mounted on the drone 100, “Ground record” indicates the recorded contents of the video camera 300 that the operator A operates with the hand.

図5に示す例では、ドローン100は、時刻00:40に飛行を開始した後、時刻00:52に撮像位置に到達し、時刻00:53にビデオカメラ200による撮像、録音を開始する。また、時刻00:55にドローン100の搭載バッテリ(図示せず)の電圧低下が検出されると、この検出動作と並行して(同時刻に)、スピーカ124からドローン100の識別情報等を含む音波を所定時間(すべてのデータの出力に要する時間)出力する。例えば、この音波には、バッテリー電圧低下を検出したことと、その検出時刻00:55と、ドローン100の識別情報としての機体番号とを組み合わせたメッセージデータ「00:55にUAV1号機電圧低下」が変調されて含まれている。   In the example shown in FIG. 5, the drone 100 starts flying at time 00:40, then reaches the imaging position at time 00:52, and starts imaging and recording by the video camera 200 at time 00:53. In addition, when a voltage drop of the battery (not shown) of the drone 100 is detected at time 00:55, the identification information of the drone 100 is included from the speaker 124 in parallel with this detection operation (at the same time). A sound wave is output for a predetermined time (time required for outputting all data). For example, in this sound wave, message data “00:55 UAV1 voltage drop” is combined with the detection time 00:55 and the aircraft number as the identification information of the drone 100. Included modulated.

その後、時刻01:12に高度低下を検出後に、時刻01:13に墜落中であることが検出されると、この検出動作と並行して(同時刻に)、スピーカ124からドローン100の識別情報等を含む音波を再度所定時間出力する。例えば、この音波には、ドローン100が墜落中であることを検出したことと、その検出時刻01:13と、ドローン100の識別情報としての機体番号とを組み合わせたメッセージデータが変調されて含まれている。   Thereafter, when it is detected that a crash is occurring at time 01:13 after detecting a drop in altitude at time 01:12, in parallel with this detection operation (at the same time), identification information of the drone 100 from the speaker 124. The sound wave including the above is output again for a predetermined time. For example, the sound wave includes a modulated message data that combines the detection of the drone 100 being crashed, the detection time 01:13, and the aircraft number as identification information of the drone 100. ing.

ドローン100に搭載されたビデオカメラ200では、撮像によって得られる動画像とともに、時刻00:55からスピーカ124から所定時間出力される音波と、時刻01:13からスピーカ124から所定時間出力される音波が記録される。   In the video camera 200 mounted on the drone 100, together with a moving image obtained by imaging, a sound wave output from the speaker 124 for a predetermined time from time 00:55 and a sound wave output from the speaker 124 for a predetermined time from time 01:13. To be recorded.

同様に、操作者Aが手に持っているビデオカメラ300では、撮像によって得られる動画像とともに、時刻00:55からスピーカ124から所定時間出力される音波と、時刻01:13からスピーカ124から所定時間出力される音波が記録される。なお、ビデオカメラ300による撮像開始時刻は、ドローン100に搭載されたビデオカメラ200による撮像開始時刻とは一致しないため、録画開始から最初の音波出力時刻00:55までの時間は異なっている。   Similarly, in the video camera 300 held by the operator A in his / her hand, along with a moving image obtained by imaging, a sound wave output from the speaker 124 for a predetermined time from time 00:55 and a predetermined sound from the speaker 124 from time 01:13. Sound waves output for a time are recorded. In addition, since the imaging start time by the video camera 300 does not coincide with the imaging start time by the video camera 200 mounted on the drone 100, the time from the start of recording to the first sound wave output time 00:55 is different.

このような2種類の記録画像を解析する必要が生じた場合(例えば、ドローン100の墜落の状況を調べる場合)には、それぞれの記録内容に含まれる音波を復調して調べることにより、音波の記録内容や記録開始時点(時刻00:55や時刻01:13)を特定することができ、この記録開始時点を基準にビデオカメラ200、300のそれぞれによって記録された画像の同期をとることが可能となる。   When it is necessary to analyze these two types of recorded images (for example, when investigating the state of crash of the drone 100), the sound waves contained in the respective recorded contents are demodulated and examined. The recording content and the recording start time (time 00:55 or time 01:13) can be specified, and the images recorded by the video cameras 200 and 300 can be synchronized with reference to the recording start time. It becomes.

この同期は、記録画像を解析する解析者が手動操作によって行う場合と、解析装置を用いて自動で行う場合が考えられる。手動操作で行う場合には、一方の記録画像を再生して音波が聞こえてくるタイミング(時刻00:55)に合わせて再生を一時中断する。同様に、他方の記録画像を再生して音波が聞こえてくるタイミングに合わせて再生を一時中断する。その後、これら2種類の記録画像の再生を同時に再開することにより、同期をとった状態での2種類の記録画像の再生が可能となる。自動で行う場合には、手動操作で行う場合と同様の処理を解析装置で行うようにすればよい。   This synchronization can be performed manually by an analyst analyzing a recorded image or automatically using an analysis apparatus. When the manual operation is performed, the reproduction is temporarily interrupted at the timing (time 00:55) when one of the recorded images is reproduced and the sound wave is heard. Similarly, the other recorded image is reproduced and the reproduction is temporarily interrupted at the timing when the sound wave is heard. Thereafter, the two types of recorded images can be reproduced in a synchronized state by simultaneously restarting the reproduction of these two types of recorded images. When performing automatically, the analysis apparatus may perform the same processing as that performed by manual operation.

このように、本実施形態の撮像システムでは、ドローン100に搭載されるビデオカメラ200や、操作者Aが手に持っているビデオカメラ300は、汎用品を用いて容易に実現することが可能であるため、ドローン100に音波出力部122を追加するだけでシステム全体を構築することができ、構成および処理内容を簡素化することが可能となる。また、ドローン100の音波出力部122から出力された音波が、ドローン100のビデオカメラ200と操作者Aが手に持っているビデオカメラ300のそれぞれにおいて画像と同時に記録されるため、この音波に合わせて、別々に撮像されたこれらの画像の同期をとることが容易となる。   As described above, in the imaging system according to the present embodiment, the video camera 200 mounted on the drone 100 and the video camera 300 held by the operator A can be easily realized using general-purpose products. Therefore, the entire system can be constructed simply by adding the sound wave output unit 122 to the drone 100, and the configuration and processing contents can be simplified. In addition, since the sound wave output from the sound wave output unit 122 of the drone 100 is recorded simultaneously with the image in each of the video camera 200 of the drone 100 and the video camera 300 held by the operator A, the sound wave is matched with this sound wave. Thus, it becomes easy to synchronize these images captured separately.

また、ドローン100の音波出力部122から出力する音波には、ビデオカメラ200による撮像内容を示す特定情報、具体的には、ドローン100の識別情報、ドローン100の位置情報、ビデオカメラ200による撮像時刻情報の少なくとも一つが含まれている。これにより、ドローン100と音波との対応がとりやすくなり、誤った組み合わせで画像の同期をとることを防止することができる。また、このような特定情報を音波に含ませることにより、ドローン100に搭載されたビデオカメラ200と操作者Aが手に持つビデオカメラ300の同じ組み合わせで複数の画像(動画)を撮像した場合であっても、それぞれの画像において同期をとることが容易となる。   In addition, the sound wave output from the sound wave output unit 122 of the drone 100 includes specific information indicating the content captured by the video camera 200, specifically the identification information of the drone 100, the position information of the drone 100, and the image capturing time by the video camera 200. Contains at least one piece of information. As a result, the drone 100 and the sound wave can be easily associated with each other, and it is possible to prevent the image from being synchronized with an incorrect combination. In addition, by including such specific information in the sound wave, a plurality of images (moving images) are captured by the same combination of the video camera 200 mounted on the drone 100 and the video camera 300 held by the operator A. Even if it exists, it becomes easy to synchronize in each image.

なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。例えば、上述した実施形態では、ドローン100に搭載された一方のビデオカメラ200で撮像対象物としての送電線を撮像し、操作者Aが手に持った他方のビデオカメラ300でドローン100を撮像したが、ビデオカメラ300によって同じ撮像対象物である送電線を撮像するようにしてもよい。あるいは、複数台のドローンのそれぞれに搭載された複数台のビデオカメラや、複数の操作者のそれぞれが手に持った、あるいは、地面や建物等に固定された1台あるいは複数台のビデオカメラとを任意に組み合わせて、撮像対象物やドローンを撮像するようにしてもよい。その場合には、少なくとも1台のドローンに音波出力部122やスピーカ124を搭載して、1台のドローンから特定情報が含まれる音波を出力すればよい。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation implementation is possible within the range of the summary of this invention. For example, in the above-described embodiment, one video camera 200 mounted on the drone 100 images a power transmission line as an imaging target, and the other video camera 300 held by the operator A captures the drone 100. However, you may make it image the power transmission line which is the same imaging target object with the video camera 300. FIG. Or, multiple video cameras mounted on each of the multiple drones, one or multiple video cameras held in the hands of each of the multiple operators, or fixed to the ground or a building, etc. These may be combined arbitrarily to image an imaging target or a drone. In that case, the sound wave output unit 122 and the speaker 124 may be mounted on at least one drone, and sound waves including specific information may be output from one drone.

また、上述した実施形態では、ドローン100に異常が生じた際に音声出力部122がスピーカ124から特定情報を含む音波を出力するようにしたが、異常発生の有無に関係なく、例えば、ドローン100が所定位置に到達して撮像を開始した直後に(あるいは一定時間経過後や、それ以後一定周期あるいは不定周期であってもよい)音波を出力するようにしてもよい。   In the above-described embodiment, the sound output unit 122 outputs a sound wave including specific information from the speaker 124 when an abnormality occurs in the drone 100. However, for example, the drone 100 regardless of whether or not an abnormality has occurred. The sound wave may be output immediately after reaching a predetermined position and starting imaging (or after a certain period of time or after that, may be a constant period or an indefinite period).

また、上述した実施形態では、ドローン100では、出力データ生成部122aによって生成した出力データを変調部122bによって変調した内容を出力音声に重畳したが、出力する音波に出力データ(特定情報)を重畳させる方法はどのような手法を用いてもよい。例えば、特定情報の内容を読み上げた音声を示すPCMデータを出力データ生成部122aで生成し、このPCMデータをデジタル−アナログ変換してスピーカ124から出力するようにしてもよい。   In the embodiment described above, in the drone 100, the output data generated by the output data generation unit 122a is superimposed on the output sound by modulating the output data generated by the modulation unit 122b, but the output data (specific information) is superimposed on the output sound wave. Any method can be used. For example, PCM data indicating the voice that reads out the content of the specific information may be generated by the output data generation unit 122a, and the PCM data may be digital-analog converted and output from the speaker 124.

上述したように、本発明によれば、飛行体に搭載される第1の撮像手段、第1の集音手段や、撮像装置に備わった第2の撮像手段、第2の集音手段は、汎用のビデオカメラを用いて容易に実現することが可能であるため、飛行体に音波出力手段を追加するだけでシステム全体を構築することができ、構成および処理内容を簡素化することが可能となる。また、飛行体の音波出力手段から出力された音波が、飛行体と撮像装置のそれぞれにおいて画像と同時に記録されるため、この音波に合わせて、別々に撮像された複数の画像の同期をとることが容易となる。   As described above, according to the present invention, the first image pickup means, the first sound collection means, the second image pickup means, and the second sound collection means provided in the image pickup apparatus mounted on the flying object are: Since it can be easily realized using a general-purpose video camera, the entire system can be constructed simply by adding sound wave output means to the flying object, and the configuration and processing contents can be simplified. Become. In addition, since the sound wave output from the sound wave output means of the flying object is recorded simultaneously with the image in each of the flying object and the imaging device, a plurality of images taken separately are synchronized with this sound wave. Becomes easy.

100 ドローン(無人飛行体)
110 通信部
120 飛行指示受信部
122 音波出力部
122a 出力データ生成部
122b 変調部
124 スピーカ
130 飛行制御部
140 姿勢制御部
142 駆動制御部
144 モータ
200、300 ビデオカメラ
400 送電線
100 drone (unmanned aerial vehicle)
DESCRIPTION OF SYMBOLS 110 Communication part 120 Flight instruction | indication receiving part 122 Sound wave output part 122a Output data generation part 122b Modulation part 124 Speaker 130 Flight control part 140 Attitude control part 142 Drive control part 144 Motor 200, 300 Video camera 400 Transmission line

Claims (6)

第1の撮像手段が搭載された飛行体と、第2の撮像手段を有する撮像装置とを備える撮像システムにおいて、
前記飛行体は、
所定の撮像対象物の周辺を前記飛行体に飛行させる飛行制御手段と、
前記撮像装置に到達可能な出力レベルを有する所定周波数の音波を出力する音波出力手段と、
前記音波出力手段から出力される音波を集音する第1の集音手段と、
前記撮像対象物を撮像し、この撮像によって得られた画像とともに、前記第1の集音手段によって集音された音波を記録する前記第1の撮像手段と、を備え、
前記撮像装置は、
前記音波出力手段から出力される音波を集音する第2の集音手段と、
前記撮像対象物および/または前記飛行体を撮像し、この撮像によって得られた画像とともに、前記第2の集音手段によって集音された音波を記録する前記第2の撮像手段と、を備えることを特徴とする撮像システム。
In an imaging system comprising a flying object on which first imaging means is mounted and an imaging device having second imaging means,
The aircraft is
Flight control means for causing the flying object to fly around a predetermined imaging object;
Sound wave output means for outputting sound waves of a predetermined frequency having an output level that can reach the imaging device;
First sound collecting means for collecting sound waves output from the sound wave output means;
The first imaging means for imaging the imaging object and recording the sound wave collected by the first sound collection means together with the image obtained by the imaging;
The imaging device
Second sound collecting means for collecting sound waves output from the sound wave output means;
The second imaging means for imaging the imaging object and / or the flying object, and recording the sound wave collected by the second sound collecting means together with the image obtained by the imaging. An imaging system characterized by the above.
前記音波出力手段から出力される前記音波には、前記第1の撮像手段による撮像内容を示す特定情報が含まれていることを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the sound wave output from the sound wave output unit includes specific information indicating contents captured by the first imaging unit. 前記特定情報には、前記飛行体の識別情報、前記飛行体の位置情報、前記第1の撮像手段による撮像時刻情報の少なくとも一つが含まれることを特徴とする請求項2に記載の撮像システム。   3. The imaging system according to claim 2, wherein the specific information includes at least one of identification information of the flying object, position information of the flying object, and imaging time information by the first imaging unit. 前記音波出力手段から出力される音波は、人の可聴周波数帯域以外の周波数成分が用いられることを特徴とする請求項1〜3のいずれか一項に記載の撮像システム。   The imaging system according to any one of claims 1 to 3, wherein a frequency component other than a human audible frequency band is used for the sound wave output from the sound wave output unit. 前記音波出力手段から出力される音波は、人の可聴周波数帯域に含まれる周波数成分が用いられることを特徴とする請求項1〜3のいずれか一項に記載の撮像システム。   The imaging system according to any one of claims 1 to 3, wherein a frequency component included in a human audible frequency band is used for the sound wave output from the sound wave output unit. 撮像手段が搭載された飛行体であって、
所定の撮像対象物の周辺を前記飛行体に飛行させる飛行制御手段と、
前記撮像装置に到達可能な出力レベルを有する所定周波数の音波を出力する音波出力手段と、
前記音波出力手段から出力される音波を集音する集音手段と、
前記撮像対象物を撮像し、この撮像によって得られた画像とともに、前記集音手段によって集音された音波を記録する前記撮像手段と、
を備えることを特徴とする飛行体。
An aircraft equipped with imaging means,
Flight control means for causing the flying object to fly around a predetermined imaging object;
Sound wave output means for outputting sound waves of a predetermined frequency having an output level that can reach the imaging device;
Sound collection means for collecting sound waves output from the sound wave output means;
The imaging means for imaging the imaging object and recording the sound wave collected by the sound collection means together with the image obtained by the imaging;
A vehicle characterized by comprising:
JP2017128173A 2017-06-30 2017-06-30 Imaging system and flying object Active JP6840441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017128173A JP6840441B2 (en) 2017-06-30 2017-06-30 Imaging system and flying object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017128173A JP6840441B2 (en) 2017-06-30 2017-06-30 Imaging system and flying object

Publications (2)

Publication Number Publication Date
JP2019012913A true JP2019012913A (en) 2019-01-24
JP6840441B2 JP6840441B2 (en) 2021-03-10

Family

ID=65227528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017128173A Active JP6840441B2 (en) 2017-06-30 2017-06-30 Imaging system and flying object

Country Status (1)

Country Link
JP (1) JP6840441B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021059925A (en) * 2019-10-09 2021-04-15 株式会社エイテック Bridge inspection method and bridge inspection system
WO2023067653A1 (en) * 2021-10-18 2023-04-27 日本電信電話株式会社 Aerial vehicle control device, aerial vehicle control method, and aerial vehicle control program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017502568A (en) * 2014-08-29 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle and voice data collection method using unmanned aerial vehicle
JP2017114270A (en) * 2015-12-24 2017-06-29 株式会社ナカヨ Unmanned flying body having specific beacon tracking function, and tracking beacon transmission unit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017502568A (en) * 2014-08-29 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle and voice data collection method using unmanned aerial vehicle
JP2017114270A (en) * 2015-12-24 2017-06-29 株式会社ナカヨ Unmanned flying body having specific beacon tracking function, and tracking beacon transmission unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021059925A (en) * 2019-10-09 2021-04-15 株式会社エイテック Bridge inspection method and bridge inspection system
WO2023067653A1 (en) * 2021-10-18 2023-04-27 日本電信電話株式会社 Aerial vehicle control device, aerial vehicle control method, and aerial vehicle control program

Also Published As

Publication number Publication date
JP6840441B2 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
US20190191805A1 (en) Wearable equipment for substation maintenance mobile inspection and application method thereof
CA2976582C (en) Method and device for remotely inspecting the state of an aircraft engine
JP6340147B2 (en) Imaging system, field angle adjustment method, and field angle adjustment program
KR102287373B1 (en) Apparatus and method for generating alarm
JP6391540B2 (en) Elevator inspection support system
CN108353148A (en) Nolo flight quality testing examining system and nolo flight object detecting method
KR102208254B1 (en) Black box system for unmanned aerial vehicle
JP6840441B2 (en) Imaging system and flying object
CN110313174B (en) Shooting control method and device, control equipment and shooting equipment
CN106231226A (en) Audio-visual synthetic method, Apparatus and system
CN106341602A (en) Panoramic image generation method and apparatus
JP2018070010A (en) Unmanned aircraft controlling system, controlling method and program thereof
CN111251307A (en) Voice acquisition method and device applied to robot and robot
US11467572B2 (en) Moving object operation system, operation signal transmission system, moving object operation method, program, and recording medium
WO2019241970A1 (en) Unmanned aerial vehicle speaker control method and device
JP2001309233A (en) Remote controlling system of photographing apparatus
KR20180039476A (en) Apparatus for obtaining images and method of driving the same
JP5098966B2 (en) Imaging device
JP2019018664A (en) Imaging control system
JP2019043473A (en) Flight device, management device, photographing control method, and photographing control program
WO2017107803A1 (en) Multi-channel graphic image processing system and method for drone
KR101598921B1 (en) System and Method for Taking Pictures beyond Space Scale with Automatical Camera
JP2018037963A (en) Wearable camera system and video recording control method
KR20210071863A (en) System for ai drone platform using a crack diagnosis of plant
JP6945149B2 (en) Call system, call method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210216

R150 Certificate of patent or registration of utility model

Ref document number: 6840441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150