JP2022051976A - 無人航空機、通信方法、およびプログラム - Google Patents

無人航空機、通信方法、およびプログラム Download PDF

Info

Publication number
JP2022051976A
JP2022051976A JP2019023216A JP2019023216A JP2022051976A JP 2022051976 A JP2022051976 A JP 2022051976A JP 2019023216 A JP2019023216 A JP 2019023216A JP 2019023216 A JP2019023216 A JP 2019023216A JP 2022051976 A JP2022051976 A JP 2022051976A
Authority
JP
Japan
Prior art keywords
information
classifier
unmanned aerial
aerial vehicle
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019023216A
Other languages
English (en)
Inventor
象 村越
Taka Murakoshi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2019023216A priority Critical patent/JP2022051976A/ja
Priority to PCT/JP2020/003349 priority patent/WO2020166350A1/ja
Priority to US17/428,984 priority patent/US20220139078A1/en
Publication of JP2022051976A publication Critical patent/JP2022051976A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0091Surveillance aids for monitoring atmospheric conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/25UAVs specially adapted for particular uses or applications for manufacturing or servicing
    • B64U2101/26UAVs specially adapted for particular uses or applications for manufacturing or servicing for manufacturing, inspections or repairs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Atmospheric Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Botany (AREA)
  • Signal Processing (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Automation & Control Theory (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Environmental Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より正確に、識別対象を識別する。【解決手段】通信部は、飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、制御部は、識別器情報を用いて、無人航空機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出する。また、通信部は、抽出された特徴情報をサーバに送信する。本開示に係る技術は、ドローンに適用することができる。【選択図】図2

Description

本開示は、無人航空機、通信方法、およびプログラムに関し、特に、より正確に、識別対象を識別することができるようにする無人航空機、通信方法、およびプログラムに関する。
近年、ドローンに搭載されたカメラで対空標識を撮影した撮影画像を用いて、地形の測量や構造物の点検などが行われている。
撮影画像から対空標識を精度良く検出するために、特許文献1には、対空標識を撮影した撮影画像から、対空標識が写る領域の候補の特徴量を抽出し、抽出された特徴量に基づいて対空標識を識別する技術が開示されている。
国際公開第2018/123607号
近年、ドローンは、汎用的なロボットとして利用されることから、その飛行により対象物をセンシングするコンテキスト(飛行目的や飛行環境など)は様々である。そのため、コンテキストによっては、センシングの対象物を正確に識別できないおそれがあった。
本開示は、このような状況に鑑みてなされたものであり、より正確に、識別対象を識別することができるようにするものである。
本開示の無人航空機は、無人飛行機であって、前記無人飛行機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出する制御部と、抽出された前記特徴情報をサーバに送信する通信部とを備え、前記通信部は、飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、前記制御部は、前記識別器情報を用いて前記センサデータから前記特徴情報を抽出する無人航空機である。
本開示の通信方法は、無人航空機が、飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、前記識別器情報を用いて、前記無人飛行機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出し、抽出された前記特徴情報をサーバに送信する通信方法である。
本開示のプログラムは、コンピュータに、飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、前記識別器情報を用いて、無人航空機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出し、抽出された前記特徴情報をサーバに送信する処理を実行させるためのプログラムである。
本開示においては、飛行のコンテキスト情報に対応した識別器に関する識別器情報が受信され、前記識別器情報を用いて、無人航空機に搭載されたセンサにより取得されたセンサデータから特徴情報が抽出され、抽出された前記特徴情報がサーバに送信される。
本開示に係る技術を適用した測量・点検システムの概要を説明する図である。 ドローンの構成例を示すブロック図である。 クラウドサーバのハードウェアの構成例を示すブロック図である。 クラウドサーバの機能構成例を示すブロック図である。 識別器情報のダウンロードの流れについて説明するフローチャートである。 コンテキスト情報の取得について説明する図である。 飛行計画情報と識別器の送信について説明する図である。 特徴情報の抽出と送信の流れについて説明するフローチャートである。 対空標識の撮影について説明する図である。 特徴情報の送信について説明する図である。 クラウドサーバに送信される情報の情報量について説明する図である。 クラウドサーバの動作について説明するフローチャートである。
以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.測量・点検システムの概要
2.ドローンおよびクラウドサーバの構成
3.識別器情報のダウンロード
4.特徴情報の抽出と送信
5.クラウドサーバの動作
6.その他
<1.測量・点検システムの概要>
図1は、本開示に係る技術(本技術)を適用した測量・点検システムの概要を説明する図である。
図1の測量・点検システムにおいては、UAV(Unmanned Aerial Vehicle)による地形の測量や構造物の点検などが行われる。
図1に示されるように、地上には、対空標識10が設置されている。対空標識10は、人手によって設置されたり、ドローンなどの無人航空機や人が操縦する航空機などの飛行体からばらまくことなどによって設置されたりする。また、ドローンの天面に対空標識10を設置することで、対空標識10そのものが移動するようにしてもよい。
なお、図示はしないが、地形の測量が行われる際には、地上には、複数の対空標識10が設置される。
対空標識10は、所定の図形を印刷した紙やプラスチックなどで構成されてもよいし、所定の形状のプラスチックやゴムなどの平板状の材料を重ねて構成されてもよい。また、対空標識10は、所定の図形を表示するLCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどの表示パネルで構成されてもよいし、レフ板のような、広げて展開する構造を有していてもよい。
対空標識10は、空撮される。図1の測量・点検システムにおいては、ドローン20に、例えばカメラとして構成されるセンサ21が搭載されており、ドローン20を飛行させ、ドローン20に搭載されたセンサ21により、対空標識10の撮影(対空標識10の空撮)が行われる。センサ21は、RGBカメラとして構成される他、赤外線カメラ、マルチスペクトラムカメラ、測距用のステレオカメラ、その他のセンサとして構成されてもよい。また、センサ21は、ドローン20に搭載される他、ドローン20に着脱可能に構成されてもよいし、ドローン20に内蔵されてもよい。
対空標識10の空撮の方法は、ドローン20を用いる方法に限定されるものではない。すなわち、対空標識10の空撮は、ドローン20のような無人航空機を用いる以外にも、例えば、人が搭乗して操縦する飛行体や、人工衛星などを用いて行われてもよい。
センサ21により対空標識10を撮影することにより取得される撮影画像(例えば、静止画像)は、無線通信や有線通信によって、例えば、クラウドサーバ30に送信される。
クラウドサーバ30は、センサ21からの撮影画像に対する画像処理により、撮影画像に写る対空標識10の特徴情報を抽出し、対空標識10を識別する。また、クラウドサーバ30は、センサ21からの撮影画像と、対空標識10の識別結果(特徴情報)を用いて、地上の地形の3次元モデルを作成する。そして、クラウドサーバ30は、作成した3次元モデルから地上の地形の測量を行い、その測量結果を出力する。
クラウドサーバ30が行う処理は、クラウドサーバ30ではなく、ドローン20で行われてもよいし、ドローン20とクラウドサーバ30とで分担して行われてもよい。
ところで、上述したように、ドローン20が、その飛行により対象物をセンシングし、クラウドサーバ30が、ドローン20から送信されてくる撮影画像に基づいてセンシング対象物を識別する場合、撮影画像の送信にかかる時間と、識別の処理にかかる時間により、最終的な結果の出力に遅延が生じてしまう。
そこで、例えば地形の3次元モデルの作成においては、ドローン20に搭載されたセンサ21により取得される撮影画像に写る対空標識10の特徴情報が、ドローン20によって抽出されていれば、クラウドサーバ30での処理量を削減することができる。
また近年、対空標識10の識別に用いられる識別器の性能は、ディープラーニングなどにより向上している。
以上のことから、本技術の測量・点検システムにおいては、ドローン20でのエッジコンピューティングにより、ドローン20が撮影画像から対空標識10の特徴情報を抽出し、クラウドサーバ30に送信することで、クラウドサーバ30での処理量を削減させる。これにより、より少ない遅延で、地形の測量の測量結果を出力することができる。
この際、ドローン20は、クラウドサーバ30から、自機の飛行目的や飛行環境などのコンテキストに適した識別器(学習済モデル)を受信し、撮影画像から対空標識10の特徴情報を抽出する。これにより、より正確に、識別対象である対空標識10が識別されるようになる。
<2.ドローンおよびクラウドサーバの構成>
以下においては、本技術の測量・点検システムを構成するドローン20およびクラウドサーバ30の構成について説明する。
(ドローンの構成)
図2は、図1のドローン20の構成例を示すブロック図である。
ドローン20は、通信部51、制御部52、駆動制御部53、飛行機構54、および記憶部55を備えている。
通信部51は、ネットワークインタフェースなどで構成され、クラウドサーバ30や、ドローン20を操縦するためのコントローラ、その他の任意の装置との間で、無線または有線による通信を行う。ドローン20を操縦するためのコントローラは、送信機やPC(Personal Computer)などにより構成される。例えば、通信部51は、通信相手となる装置と、直接通信を行ってもよいし、Wi-Fi(登録商標)や4G,5Gなどの基地局や中継器を介したネットワーク通信を行ってもよい。
制御部52は、CPU(Central Processing Unit)やメモリなどで構成され、所定のプログラムを実行することにより、通信部51、駆動制御部53、およびセンサ21を制御する。
駆動制御部53は、専用ICやFPGA(Field-Programmable Gate Array)などの回路により構成され、制御部52の制御に従い、飛行機構54の駆動を制御する。
飛行機構54は、ドローン20を飛行させるための機構であり、例えば、モータやプロペラなどから構成される。飛行機構54は、駆動制御部53の制御に従って駆動し、ドローン20を飛行させる。
ドローン20においては、制御部52が、例えば、通信部51で受信されたコントローラからの信号に従い、駆動制御部53を制御することにより、飛行機構54を駆動させる。これにより、ドローン20は、コントローラの操作に従って飛行する。
また、制御部52は、コントローラからの信号に従い、センサ21を制御し、センシングを行わせることで、センサデータを取得する。
記憶部55は、フラッシュメモリなどの不揮発性メモリなどにより構成され、各種の情報を記憶する。例えば、記憶部55は、クラウドサーバ30からダウンロードされた、ドローン20が行う飛行に関する飛行計画を表す飛行計画情報61と、飛行のコンテキスト情報に対応した識別器に関する識別器情報62を記憶(格納)する。飛行のコンテキスト情報の詳細については、後述する。
制御部52は、記憶部55に格納されている飛行計画情報61に基づいて、ドローン20が、飛行計画情報61で表される飛行計画に従った飛行を行うよう、駆動制御部53を制御する。また、制御部52は、記憶部55に格納されている識別器情報62のうち、飛行計画情報61で表される飛行計画に対応した識別器情報62を用いて、ドローン20において取得されたセンサデータから特徴情報を抽出する。具体的には、制御部52は、識別器情報62を用いて、カメラとして構成されるセンサ21による撮影により取得された撮影画像から特徴情報を抽出する。抽出された特徴情報は、通信部51からクラウドサーバ30に送信される。なお、ドローン20において、赤外線カメラや測距用のステレオカメラ、距離センサなどにより取得されたセンサデータから特徴情報が抽出されるようにしてもよい。
(クラウドサーバの構成)
図3は、図1のクラウドサーバ30の情報処理装置としてのハードウェアの構成例を示すブロック図である。
クラウドサーバ30は、CPU72を内蔵しており、CPU72には、バス71を介して、入出力インタフェース80が接続されている。
CPU72は、入出力インタフェース80を介して、ユーザ(オペレータ)などによって、入力部77が操作されることにより指令が入力されると、それに従って、ROM(Read Only Memory)73に格納されているプログラムを実行する。また、CPU72は、ハードディスク75に格納されたプログラムを、RAM(Random Access Memory)34にロードして実行する。
CPU72は、各種の処理を行うことで、クラウドサーバ30を所定の機能を有する装置として機能させる。CPU72は、各種の処理の処理結果を、必要に応じて、例えば、入出力インタフェース80を介して、出力部76から出力させたり、通信部78から送信させたり、ハードディスク75に記録させる。
入力部77は、キーボードや、マウス、マイクロフォンなどで構成される。出力部76は、LCDやスピーカなどで構成される。
CPU72が実行するプログラムは、クラウドサーバ30に内蔵されている記録媒体としてのハードディスク75やROM73、リムーバブル記録媒体81に、あらかじめ記録しておくことができる。
図4は、クラウドサーバ30の機能構成例を示すブロック図である。
図4に示されるように、クラウドサーバ30は、通信部91、選択部92、記憶部93、および処理部94を備えている。
通信部91は、図3の通信部78に対応し、ドローン20との間で、無線または有線による通信を行う。
選択部92は、CPU72がプログラムを実行することにより実現され、記憶部93に記憶されている複数の識別器から、ドローン20が行う飛行のコンテキスト情報に対応した識別器を選択する。コンテキスト情報は、ドローン20から送信されることで、通信部91によって受信されたり、クラウドサーバ30によって直接取得されたりする。
記憶部93は、例えば、図3のハードディスク75などに対応し、複数の飛行計画情報、それらに対応する識別器や識別器情報、ドローン20から送信されてくる、撮影画像から抽出された特徴情報など、各種のデータや情報を記憶(格納)する。記憶部93に格納されたデータや情報は、適宜、処理部94が行う処理に用いられる。
処理部94は、CPU72がプログラムを実行することにより実現され、記憶部93に格納されたデータや情報を用いた処理を行う。
<3.識別器情報のダウンロード>
ここで、図5のフローチャートを参照して、図1の測量・点検システムにおける識別器情報のダウンロードの流れについて説明する。図5の処理は、例えば、ドローン20が飛行を開始する前などに実行される。
ステップS21において、ドローン20は、飛行のコンテキスト情報を取得すると、ドローン20の通信部51は、ステップS22において、取得されたコンテキスト情報を、クラウドサーバ30に送信する。
ドローン20は、ユーザにより入力された情報をコンテキスト情報として取得してもよいし、外部の装置からコンテキスト情報を取得してもよい。
コンテキスト情報には、ドローン20の飛行環境を表す情報と、ドローン20が行う飛行に関する飛行計画を表す情報とが少なくとも含まれる。ドローン20の飛行環境を表す情報には、ドローン20の位置情報、時刻情報、天候情報などが含まれる。また、ドローン20の飛行計画を表す情報には、飛行経路、飛行目的、センシング対象物、および、ドローン20のセンシング飛行に関する時刻情報などが含まれる。
図6に示されるように、ドローン20は、例えば、GPS(Global Positioning System)衛星111から送信されてくるGPS信号を、通信部51が受信することで、飛行環境を表す情報として、自機の緯度および経度を表す位置情報を取得する。
また、ドローン20は、PCにより構成されるコントローラ112から、飛行環境を表す情報として、時刻情報や天候情報を取得する。
時刻情報は、コントローラ112内部の計時部により計時されている現在時刻を表す。時刻情報は、分単位の時刻を表すものでなくともよく、例えば1時間単位などの時間帯を表すものであってもよいし、年月日を表す日付情報を含んでいてもよい。また、時刻情報は、ドローン20内部の計時部から取得されてもよい。
天候情報は、例えば、ユーザによりコントローラ112に対して入力された、飛行現場の天候を表す。天候情報は、飛行現場の風速を表す風速情報や、風向を表す風向情報を含んでいてもよい。また、天候情報は、気象情報を提供する外部装置113から直接、またはコントローラ112を介して取得されてもよい。
飛行計画に含まれる飛行目的には、地上の地形の測量や構造物の点検などのミッション内容が含まれる。構造物の点検には、例えば、地上に設置されたソーラーパネルの損傷の検出、ビルなどの建築物の外壁のひび割れやタイル剥がれの検出などがある。さらに、飛行目的には、農作物の成長状態、疫病や害虫の有無などの状況調査や、物品の輸送などが含まれてもよい。また、飛行計画に含まれるセンシング対象物は、飛行目的に対応した対空標識10、構造物の点検箇所、農作物の成長箇所や疫病箇所、輸送対象の物品などとされる。
飛行計画に含まれる飛行経路は、上述した飛行目的を達成するためにドローン20が飛行する飛行高度や飛行経路(経由地・ウェイポイント)などで表される。また、センシング飛行に関する時刻情報は、センシング飛行の開始予定時刻や終了予定時刻などを表す。
上述した飛行計画を表す情報は、例えば、ユーザによりコントローラ112に対して入力されることで、地上に設置される基地局114を介して、またはその他の装置から直接、コンテキスト情報として、クラウドサーバ30に送信される。また、コンテキスト情報としての飛行計画を表す情報は、あらかじめドローン20内部に設定されていて、ドローン20から、基地局114を介して、クラウドサーバ30に送信されてもよい。
一方、ドローン20が取得した時刻情報や天候情報などの飛行環境を表す情報は、地上に設置される基地局114を介して、コンテキスト情報として、クラウドサーバ30に送信される。
図5のフローチャートに戻り、クラウドサーバ30の通信部91は、ステップS31において、直接コンテキスト情報を取得したり、ステップS32において、ドローン20からのコンテキスト情報を受信する。
その後、クラウドサーバ30の選択部92は、ステップS33において、記憶部93に記憶されている複数の識別器から、クラウドサーバ30が取得したコンテキスト情報(飛行計画)と、ドローン20からのコンテキスト情報(飛行環境)に対応した識別器を選択する。
ステップS34において、クラウドサーバ30の通信部91は、図7に示されるように、コンテキスト情報に含まれる飛行計画を表す飛行計画情報と、その飛行計画に対応して選択された識別器の識別器情報を、基地局114を介してドローン20に送信する。飛行計画情報には、飛行経路、飛行目的、センシング対象物、および、センシング飛行に関する時刻情報などが含まれる。なお、識別器情報は、飛行計画情報に含まれていてもよい。
ステップS23において、ドローン20の通信部51は、クラウドサーバ30からの飛行計画情報と識別器情報を受信する。
その後、ドローン20の制御部52は、ステップS24において、クラウドサーバ30からの飛行計画情報と識別器情報を、記憶部55に格納する。
識別器は、モジュールとパラメータから構成される。モジュールは、識別器そのものを構成し、例えば、飛行目的(地形の測量や構造物の点検などのミッション)などの種別毎に定義される。パラメータは、各種別の識別器に対応して、コンテキスト情報毎に調整されることで最適化されている。
例えば、地形の測量のためのモジュールには、そのときの位置情報や時刻情報、天候情報に最適化されたパラメータが用いられる。また例えば、ソーラーパネルの損傷の検出のためのモジュールには、そのときの位置情報や時刻情報、天候情報のほか、ソーラーパネルの製造元などに最適化されたパラメータが用いられる。
例えば、モジュールは、ソースコードをビルドしたオブジェクトであり、パラメータは、オブジェクトの起動時または起動中にオブジェクトに読み込まれる情報である。また、モジュールは、パラメータのデフォルト値を含んでいてもよい。
識別器情報は、識別器そのものを構成する情報(モジュールやパラメータ)であってもよいし、識別器を特定する情報であってもよい。識別器を特定する情報には、識別器のIDやバージョン情報が含まれてもよい。また、識別器を特定する情報に、飛行目的(地形の測量や構造物の点検などのミッション)に応じた識別器の種別を表す情報が含まれてもよい。
したがって、上述した処理においては、識別器情報として、識別器のパラメータおよびモジュールのいずれか一方がドローン20に送信されてもよいし、それらの両方がドローン20に送信されてもよい。また、識別器情報として、識別器を特定する情報のみが、ドローン20に送信されてもよい。
例えば、ドローン20があらかじめ特定の種別のモジュールを保持している場合には、そのモジュールに対応したパラメータのみがドローン20に送信されるようにする。また、ドローン20があらかじめ複数の種別のモジュールを保持している場合には、モジュールの種別を表す種別情報と、その種別のモジュールに対応したパラメータがドローン20に送信されてもよい。さらに、ドローン20があらかじめモジュールと、そのモジュールに対応したパラメータを保持している場合には、必要とされるモジュールとパラメータを特定する情報のみが、ドローン20に送信されるようにする。
<4.特徴情報の抽出と送信>
次に、図8のフローチャートを参照して、飛行中のドローン20における特徴情報の抽出と送信の流れについて説明する。
ステップS51において、制御部52は、記憶部55に格納されている飛行計画情報を読み出す。
ステップS52において、制御部52は、読み出した飛行計画情報に対応した識別器情報を記憶部55から読み出すことで、特徴情報の抽出に用いる識別器を設定する。
識別器が設定されると、ステップS53において、制御部52は、飛行計画情報に基づいて駆動制御部53を制御することで、ドローン20に、飛行計画情報で表される飛行計画に従った飛行を開始させる。
ステップS54において、飛行中のドローン20に搭載されたセンサ21は、図9に示されるように、地上の撮影(空撮)を行う。センサ21による撮影により取得された撮影画像は、制御部52に供給される。
ステップS55において、制御部52は、設定した識別器を用いて、撮影画像に写る被写体(センシング対象物)を識別することで、撮影画像から特徴情報を抽出する。このように、制御部52は、ドローン20の飛行中に、センサ21を制御することによって、飛行計画に対応した識別器を用いたセンシングを行う。
ステップS56において、制御部52は、識別器によって有意な特徴情報が抽出されたか否かを判定する。
例えば、撮影画像に写るセンシング対象物として対空標識10が識別されることで、対空標識10に関する特徴情報が抽出された場合、有意な特徴情報が抽出されたと判定される。対空標識10に関する特徴情報としては、例えば、対空標識10の位置情報が抽出される。
また、撮影画像に写るセンシング対象物としてソーラーパネルの損傷が識別されることで、ソーラーパネルの損傷に関する特徴情報が抽出された場合、有意な特徴情報が抽出されたと判定されてもよい。
ステップS56において、有意な特徴情報が抽出されたと判定された場合、ステップS57に進む。
ステップS57において、通信部51は、制御部52の制御の下、抽出された特徴情報とともに、その抽出に用いられた識別器に関する情報をクラウドサーバ30へ送信する。識別器に関する情報は、識別器を構成する情報(モジュールやパラメータ)であってもよいし、識別器を特定する情報であってもよい。例えば、図10に示されるように、特徴情報の抽出に用いられた識別器のパラメータ、および、その識別器のモジュールの種別(飛行目的毎の種別)を表す種別情報が、例えばヘッダ情報として特徴情報に付加されて、クラウドサーバ30へ送信される。また、特徴情報の抽出に用いられた識別器に関する情報として、モジュールの種別情報ではなく、モジュール自体が、特徴情報とは別個にクラウドサーバ30へ送信されてもよいし、全ての識別結果がクラウドサーバ30へ送信されてもよい。さらに、特徴情報の抽出に用いられた識別器に関する情報として、識別器のIDやバージョン情報、識別対象となったセンシング対象物に応じた識別器の種類を表す情報が、クラウドサーバ30へ送信されてもよい。
また、特徴情報としては、センシング対象物の位置情報の他、センシング対象物を特定する情報が、撮影画像から抽出されて、クラウドサーバ30へ送信されてもよい。例えば、センシング対象物を特定する情報としては、識別器によって付与されるセンシング対象物のIDや、対空標識10、構造物の点検箇所、農作物の成長箇所や疫病箇所、輸送対象の物品などといったセンシング対象物の種類が抽出されてもよい。また、センシング対象物を特定する情報として、対空標識10の異常の有無、構造物の損傷の種類、農作物の疫病や害虫の有無などといったセンシング対象物の状態が抽出されてもよい。さらに、センシング対象物を特定する情報として、撮影画像においてセンシング対象物のみが写る部分の画像や、センシング対象物を中心とした所定範囲の画像など、センシング対象物の部分画像が抽出されてもよい。
さらに、例えば3次元モデルを用いた地形の測量など、飛行目的によっては、特徴情報や、その抽出に用いられた識別器に関する情報に加え、センシングにより得られたセンシングデータ(例えば撮影画像)自体が、クラウドサーバ30へ送信されてもよい。クラウドサーバ30へ送信されるセンシングデータには、例えば、センシング対象物を撮影した撮影画像の他、その他の範囲を撮影した撮影画像が含まれてもよい。センシングデータは、RGBカメラや赤外線カメラにより取得される特定波長の画像の他、NDVI(Normalized Difference Vegetation Index)などのように、画像が所定の演算により指数化されたデータであってもよい。さらに、地形の測量など構造検出が飛行目的である場合には、センシングデータは、ポイントクラウドデータなどの3次元データのように、デプス情報を含んでいてもよい。
特徴情報などがクラウドサーバ30へ送信された後、ステップS58において、制御部52は、飛行計画情報で表される飛行計画に従った飛行が終了するか否かを判定する。
ステップS58において、飛行計画に従った飛行がまだ終了しないと判定されたか、または、ステップS56において、有意な特徴情報が抽出されていないと判定された場合、ステップS54に戻り、同様の処理が、一定の時間間隔毎に繰り返される。
一方、ステップS58において、飛行計画に従った飛行が終了すると判定された場合、制御部52は、駆動制御部53を制御することで、ドローン20の飛行を終了させる。
以上のようにして、ドローン20は、飛行を開始してから飛行計画に従って飛行している最中、例えば数分おきなどの周期で地上を空撮し、取得された撮影画像から特徴情報を抽出し、クラウドサーバ30に送信する。
以上の処理によれば、飛行計画に従った飛行中に、飛行計画に対応した識別器を用いたセンシングが行われる。すなわち、ドローン20は、飛行計画に適した識別器を用いて、撮影画像から対空標識10の特徴情報を抽出するので、より正確に、識別対象である対空標識10を識別することが可能となる。
例えば、ドローン20を、地上の地形の測量を飛行目的として飛行させた後に、ソーラーパネルの損傷の検出を飛行目的として飛行させた場合であっても、それぞれの飛行目的に適した識別器により、それぞれの飛行目的における識別対象を、正確に識別することができる。
さらに、ドローン20は、自機の飛行環境に適した識別器を用いて、撮影画像から対空標識10の特徴情報を抽出するので、より正確に、識別対象である対空標識10を識別することが可能となる。
例えば、対空標識10への日光の当たり具合によっては、正確に対空標識10を識別できないことがあり、その日光の当たり具合は、ドローン20が飛行する場所や時間帯、天候によって異なる。
そこで、ドローン20が飛行する場所や時間帯、天候を表すコンテキスト情報に対応した識別器を用いることで、日光の当たり具合に影響されることなく、正確に対空標識10を識別することが可能となる。
図11は、クラウドサーバ30に送信される情報の情報量について説明する図である。
例えば、クラウドサーバ30に送信される情報が、対空標識10が写る、5456×3632ピクセルの撮影画像である場合、その情報量は7,300,000byte(7.3MB)となる。但し、その撮影画像において、対空標識10が写る部分(領域)は、20×20ピクセル程度となる。
一方、クラウドサーバ30に送信される情報が、対空標識10が写る撮影画像から特徴情報として抽出された対空標識10の位置情報(xy平面上の対空標識10の座標位置、対空標識10の幅および高さ)である場合、その情報量は32byteとなる。
例えば、飛行目的が、撮影画像そのものをクラウドサーバ30に送信する必要のない飛行目的である場合には、このように、空撮により取得された撮影画像から特徴情報を抽出することで、クラウドサーバ30に送信される情報の情報量を削減させることができる。
なお、コンテキスト情報に、識別器のバージョンに関する情報が含まれていてもよい。例えば、ドローン20が、コンテキスト情報として、地形の測量に対応する識別器の最新バージョンのパラメータを要求する情報をクラウドサーバ30へ送信することで、結果として、対空標識10の識別の精度を向上することができる。
また、飛行中に、撮影画像から抽出された特徴情報がクラウドサーバ30に送信されることに加え、飛行終了後、ドローン20が地上に着陸した状態で、例えば有線通信によって、対空標識10が写る撮影画像がクラウドサーバ30に送信されてもよい。
<5.クラウドサーバの動作>
次に、図12のフローチャートを参照して、ドローン20から特徴情報が送信された後のクラウドサーバ30の動作について説明する。
ステップS71において、通信部91は、ドローン20からの特徴情報を受信し、記憶部93に格納する。
ステップS72において、処理部94は、記憶部93に格納された特徴情報を用いた処理を行う。
例えば、処理部94は、ドローン20からの対空標識10の特徴情報(位置情報)を用いて、地上の地形の3次元モデルを作成する。そして、処理部94は、作成した3次元モデルから地上の地形の測量を行い、通信部91を介して、その測量結果を出力する。
なお、特徴情報のヘッダ情報として付加されている、その特徴情報の抽出に用いられた識別器のパラメータなどの識別器を構成する情報や、モジュール(識別器)の種別情報、識別器のIDやバージョン情報など、特徴情報の抽出に用いられた識別器に関する情報は、識別器の検証に用いられることができる。
具体的には、特徴情報の抽出に用いられたパラメータが最適なパラメータであったか、特徴情報の抽出に用いられたモジュールが正しい種別のモジュールであったか、などが検証される。また、ドローン20への識別器の送信中、通信が途切れるなどして一部のパラメータが送信されなかった場合には、どのパラメータが送信されなかったかが検証されるようにもできる。
これらの検証は、処理部94により実行され、その検証結果がアラートとして外部に出力されるようにしてもよい。さらに、ドローン20からコンテキスト情報が送信されたとき、その検証結果に基づいて、コンテキスト情報に対応した識別器が選択されるようにしてもよい。
また、上述した検証処理以外にも、処理部94が、クラウドサーバ30からドローン20に送信された飛行計画情報に対応する識別器情報と、特徴情報の抽出に用いられた識別器に関する情報とが一致するか否かの比較処理を行うようにしてもよい。
<6.その他>
(変形例)
以上においては、識別器のダウンロードは、ドローン20が飛行を開始する前に実行されるものとしたが、飛行中に実行されるようにしてもよい。これにより、ドローン20は、1回の飛行で異なるミッションを行うことが可能となる。
例えば、ドローン20が、地形の測量のための識別器が設定された状態で飛行を開始し、地形の測量のための空撮が完了したとき、飛行した状態で、そのときの飛行環境に応じた構造物の点検のための識別器をダウンロードする。これにより、1回の飛行で、地形の測量のための空撮と、構造物の点検のための空撮とを連続して行うことが可能となる。
(適用例)
本技術は、ドローンなどの無人航空機以外の移動体に適用することもできる。
例えば、本技術を、自動運転を行う自動車や列車、新交通システムなどの車両に適用してもよい。この場合、車両が、走行環境に適した識別器をダウンロードすることにより、走行中に撮影された画像における他の車両や人、信号などの認識精度を向上させることができる。
また、本技術を、ロボット掃除機に適用してもよい。この場合、ロボット掃除機が、掃除を行う環境に適した識別器をダウンロードすることにより、走行中に撮影された画像における障害物の認識精度を向上させることができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、ネットワークやプログラム記録媒体からインストールされる。
本開示に係る技術の実施の形態は、上述した実施の形態に限定されるものではなく、本開示に係る技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本開示に係る技術は以下のような構成をとることができる。
(1)
無人飛行機であって、
前記無人飛行機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出する制御部と、
抽出された前記特徴情報をサーバに送信する通信部と
を備え、
前記通信部は、飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、
前記制御部は、前記識別器情報を用いて前記センサデータから前記特徴情報を抽出する
無人航空機。
(2)
前記通信部は、
前記コンテキスト情報を前記サーバに送信し、
前記サーバによって前記コンテキスト情報に基づいて選択された前記識別器の前記識別器情報を受信する
(1)に記載の無人航空機。
(3)
前記コンテキスト情報は、前記無人飛行機が行う飛行に関する飛行計画を表す情報、および、前記無人飛行機の飛行環境を表す情報を少なくとも含む
(1)または(2)に記載の無人飛行機。
(4)
前記通信部は、前記飛行計画を表す飛行計画情報を、前記飛行計画に対応した前記識別器情報とともに受信する
(3)に記載の無人飛行機。
(5)
前記制御部は、前記飛行計画に従った飛行中に、前記センサを制御することによって、前記飛行計画に対応した前記識別器を用いたセンシングを行う
(4)に記載の無人飛行機。
(6)
前記飛行環境を表す情報は、前記無人飛行機の位置情報、時刻情報、および天候情報の少なくともいずれかを含む
(3)乃至(5)のいずれかに記載の無人航空機。
(7)
前記位置情報は、緯度および経度を表す
(6)に記載の無人航空機。
(8)
前記天候情報は、風速情報および風向情報を含む
(6)に記載の無人航空機。
(9)
前記飛行計画を表す情報は、飛行経路、飛行目的、センシング対象物、およびセンシング飛行に関する時刻情報の少なくともいずれかを含む
(3)乃至(5)のいずれかに記載の無人航空機。
(10)
前記飛行経路は、ウェイポイントで表される
(9)に記載の無人航空機。
(11)
前記飛行目的は、地形の測量および構造物の点検の少なくともいずれかを含む
(9)に記載の無人航空機。
(12)
前記センシング対象物は、対空標識、ソーラーパネルの損傷箇所、建築物の外壁のひび割れ箇所またはタイル剥がれ箇所の少なくともいずれかを含む
(9)に記載の無人航空機。
(13)
前記センサは、飛行中に撮影を行うカメラとして構成され、
前記制御部は、前記カメラの撮影により取得された撮影画像から前記特徴情報を抽出する
(1)乃至(12)のいずれかに記載の無人航空機。
(14)
前記制御部は、前記特徴情報として、前記撮影画像において識別されたセンシング対象物に関する情報を抽出する
(13)に記載の無人航空機。
(15)
前記特徴情報は、前記センシング対象物の位置情報、および、前記センシング対象物を特定する情報の少なくともいずれか一方を含む
(14)に記載の無人航空機。
(16)
前記通信部は、前記識別器情報として、前記サーバから前記識別器を構成する情報、および、前記識別器を特定する情報の少なくともいずれか一方を受信する
(1)乃至(15)のいずれかに記載の無人航空機。
(17)
前記通信部は、抽出された前記特徴情報とともに、前記特徴情報の抽出に用いられた前記識別器に関する情報を前記サーバに送信する
(16)に記載の無人航空機。
(18)
前記識別器に関する情報は、前記識別器を構成する情報、および、前記識別器を特定する情報の少なくともいずれか一方を含む
(17)に記載の無人航空機。
(19)
無人航空機が、
飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、
前記識別器情報を用いて、前記無人飛行機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出し、
抽出された前記特徴情報をサーバに送信する
通信方法。
(20)
コンピュータに、
飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、
前記識別器情報を用いて、無人航空機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出し、
抽出された前記特徴情報をサーバに送信する
処理を実行させるためのプログラム。
(21)
無人航空機の飛行のコンテキスト情報を受信する通信部と、
前記コンテキスト情報に基づいて、前記コンテキスト情報に対応した識別器を選択する選択部と
を備え、
前記通信部は、選択された前記識別器に関する識別器情報を前記無人航空機に送信する
情報処理装置。
(22)
前記通信部は、前記無人航空機に搭載されたセンサにより取得されたセンサデータから前記識別器情報を用いて抽出された特徴情報を受信し、
受信された前記特徴情報を格納する記憶部をさらに備える
(21)に記載の情報処理装置。
(23)
前記通信部は、抽出された前記特徴情報とともに、前記特徴情報の抽出に用いられた前記識別器に関する情報を前記無人航空機から受信し、
前記記憶部は、受信された前記特徴情報とともに、前記識別器に関する情報を格納する
(22)に記載の情報処理装置。
(24)
前記識別器に関する情報は、前記識別器を構成する情報、および、前記識別器を特定する情報の少なくともいずれかを含む
(23)に記載の情報処理装置。
(25)
前記識別器に関する情報を用いて、前記識別器の検証を行う処理部をさらに備える
(23)または(24)に記載の情報処理装置。
10 対空標識, 20 ドローン, 21 カメラ, 30 クラウドサーバ, 51 通信部, 52 制御部, 53 駆動制御部, 54 飛行機構, 55 記憶部, 61 飛行計画情報, 62 識別器情報, 91 通信部, 92 選択部, 93 記憶部, 94 処理部

Claims (20)

  1. 無人飛行機であって、
    前記無人飛行機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出する制御部と、
    抽出された前記特徴情報をサーバに送信する通信部と
    を備え、
    前記通信部は、飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、
    前記制御部は、前記識別器情報を用いて前記センサデータから前記特徴情報を抽出する
    無人航空機。
  2. 前記通信部は、
    前記コンテキスト情報を前記サーバに送信し、
    前記サーバによって前記コンテキスト情報に基づいて選択された前記識別器の前記識別器情報を受信する
    請求項1に記載の無人航空機。
  3. 前記コンテキスト情報は、前記無人飛行機が行う飛行に関する飛行計画を表す情報、および、前記無人飛行機の飛行環境を表す情報を少なくとも含む
    請求項2に記載の無人飛行機。
  4. 前記通信部は、前記飛行計画を表す飛行計画情報を、前記飛行計画に対応した前記識別器情報とともに受信する
    請求項3に記載の無人飛行機。
  5. 前記制御部は、前記飛行計画に従った飛行中に、前記センサを制御することによって、前記飛行計画に対応した前記識別器を用いたセンシングを行う
    請求項4に記載の無人飛行機。
  6. 前記飛行環境を表す情報は、前記無人飛行機の位置情報、時刻情報、および天候情報の少なくともいずれかを含む
    請求項3に記載の無人航空機。
  7. 前記位置情報は、緯度および経度を表す
    請求項6に記載の無人航空機。
  8. 前記天候情報は、風速情報および風向情報を含む
    請求項6に記載の無人航空機。
  9. 前記飛行計画を表す情報は、飛行経路、飛行目的、センシング対象物、およびセンシング飛行に関する時刻情報の少なくともいずれかを含む
    請求項3に記載の無人航空機。
  10. 前記飛行経路は、ウェイポイントで表される
    請求項9に記載の無人航空機。
  11. 前記飛行目的は、地形の測量および構造物の点検の少なくともいずれかを含む
    請求項9に記載の無人航空機。
  12. 前記センシング対象物は、対空標識、ソーラーパネルの損傷箇所、建築物の外壁のひび割れ箇所またはタイル剥がれ箇所の少なくともいずれかを含む
    請求項9に記載の無人航空機。
  13. 前記センサは、飛行中に撮影を行うカメラとして構成され、
    前記制御部は、前記カメラの撮影により取得された撮影画像から前記特徴情報を抽出する
    請求項1に記載の無人航空機。
  14. 前記制御部は、前記特徴情報として、前記撮影画像において識別されたセンシング対象物に関する情報を抽出する
    請求項13に記載の無人航空機。
  15. 前記特徴情報は、前記センシング対象物の位置情報、および、前記センシング対象物を特定する情報の少なくともいずれか一方を含む
    請求項14に記載の無人航空機。
  16. 前記通信部は、前記識別器情報として、前記サーバから前記識別器を構成する情報、および、前記識別器を特定する情報の少なくともいずれか一方を受信する
    請求項1に記載の無人航空機。
  17. 前記通信部は、抽出された前記特徴情報とともに、前記特徴情報の抽出に用いられた前記識別器に関する情報を前記サーバに送信する
    請求項16に記載の無人航空機。
  18. 前記識別器に関する情報は、前記識別器を構成する情報、および、前記識別器を特定する情報の少なくともいずれか一方を含む
    請求項17に記載の無人航空機。
  19. 無人航空機が、
    飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、
    前記識別器情報を用いて、前記無人飛行機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出し、
    抽出された前記特徴情報をサーバに送信する
    通信方法。
  20. コンピュータに、
    飛行のコンテキスト情報に対応した識別器に関する識別器情報を受信し、
    前記識別器情報を用いて、無人航空機に搭載されたセンサにより取得されたセンサデータから特徴情報を抽出し、
    抽出された前記特徴情報をサーバに送信する
    処理を実行させるためのプログラム。
JP2019023216A 2019-02-13 2019-02-13 無人航空機、通信方法、およびプログラム Pending JP2022051976A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019023216A JP2022051976A (ja) 2019-02-13 2019-02-13 無人航空機、通信方法、およびプログラム
PCT/JP2020/003349 WO2020166350A1 (ja) 2019-02-13 2020-01-30 無人航空機、通信方法、およびプログラム
US17/428,984 US20220139078A1 (en) 2019-02-13 2020-01-30 Unmanned aerial vehicle, communication method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023216A JP2022051976A (ja) 2019-02-13 2019-02-13 無人航空機、通信方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022051976A true JP2022051976A (ja) 2022-04-04

Family

ID=72043989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023216A Pending JP2022051976A (ja) 2019-02-13 2019-02-13 無人航空機、通信方法、およびプログラム

Country Status (3)

Country Link
US (1) US20220139078A1 (ja)
JP (1) JP2022051976A (ja)
WO (1) WO2020166350A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6917516B1 (ja) 2020-12-24 2021-08-11 Kddi株式会社 飛行管理システム及び飛行管理方法
JP7058364B1 (ja) * 2021-05-13 2022-04-21 Kddi株式会社 情報処理装置、情報処理プログラム、情報処理方法及び飛行装置
JP7433495B1 (ja) 2023-03-24 2024-02-19 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833452B2 (ja) * 2016-10-28 2021-02-24 株式会社東芝 巡視点検システム、情報処理装置、巡視点検制御プログラム
US20200115050A1 (en) * 2017-05-18 2020-04-16 Sony Corporation Control device, control method, and program

Also Published As

Publication number Publication date
US20220139078A1 (en) 2022-05-05
WO2020166350A1 (ja) 2020-08-20

Similar Documents

Publication Publication Date Title
US12007761B2 (en) Unmanned aerial vehicle inspection system
US11794890B2 (en) Unmanned aerial vehicle inspection system
US20210064024A1 (en) Scanning environments and tracking unmanned aerial vehicles
US9513635B1 (en) Unmanned aerial vehicle inspection system
US20200301015A1 (en) Systems and methods for localization
WO2020166350A1 (ja) 無人航空機、通信方法、およびプログラム
US20220074744A1 (en) Unmanned Aerial Vehicle Control Point Selection System
US10220964B1 (en) Unmanned aerial vehicle sensor calibration validation before flight
US11905012B2 (en) Determining method of arrangement place, transport system, and information processing device
JPWO2018198313A1 (ja) 無人飛行体のアクションプラン作成システム、方法及びプログラム
CN112146627B (zh) 在无特征表面上使用投影图案的飞行器成像***
KR20220086479A (ko) 항공기 센서 시스템 동기화
TWI771231B (zh) 感測系統、感測資料取得方法及控制裝置
JP7447820B2 (ja) 移動体、通信方法、およびプログラム
JP7213374B1 (ja) 情報処理装置、着陸適否判定方法、及びプログラム
JP7307867B1 (ja) 無人機及び配送システム
Johnson et al. Recent flight test results of active-vision control systems