JP2019045898A - 飛行体制御方法、飛行体、プログラム及び記録媒体 - Google Patents

飛行体制御方法、飛行体、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2019045898A
JP2019045898A JP2017164640A JP2017164640A JP2019045898A JP 2019045898 A JP2019045898 A JP 2019045898A JP 2017164640 A JP2017164640 A JP 2017164640A JP 2017164640 A JP2017164640 A JP 2017164640A JP 2019045898 A JP2019045898 A JP 2019045898A
Authority
JP
Japan
Prior art keywords
work area
area
image information
sample image
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2017164640A
Other languages
English (en)
Inventor
磊 顧
Lei Gu
磊 顧
向偉 王
Xiangwei Wang
向偉 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017164640A priority Critical patent/JP2019045898A/ja
Priority to CN201880015439.8A priority patent/CN110383333A/zh
Priority to PCT/CN2018/098109 priority patent/WO2019042067A1/zh
Publication of JP2019045898A publication Critical patent/JP2019045898A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/16Flying platforms with five or more distinct rotor axes, e.g. octocopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/45UAVs specially adapted for particular uses or applications for releasing liquids or powders in-flight, e.g. crop-dusting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

【課題】飛行体に正確に作業領域を特定させて効率のよい作業を行わせること。【解決手段】飛行体の作業領域を特定するための飛行体制御方法は、前記作業領域のサンプル画像情報を取得するステップと、前記サンプル画像情報との類似度に基づき対象領域における前記作業領域を特定するステップと、を有する。【選択図】図3

Description

本開示は、飛行体が作業を行う作業領域を特定するための飛行体制御方法、飛行体、プログラム及び記録媒体に関する。
空中を飛行する飛行体は、例えば、対象を上空から撮像する空中撮像、地形や地上の建築物等の対象を上空から測定する測量、荷物を目的地まで飛行して運搬する空輸など、様々な分野において利用されている。また、飛行体は、例えば農業分野において、農薬、肥料、水等の散布物を搭載し、農地の作物等の対象に所定の作業領域内に散布物を散布する散布用途にも応用されている。
農業分野に用いる飛行体の例として、例えば特許文献1には、4つの回転翼、スタンド、マスタ制御箱、防風箱、薬剤噴霧箱を含み、回転翼が外部端に取り付けられたX型のスタンドの下部に防風箱を設置し、防風箱の中に薬剤噴霧箱を設置した回転翼無人機が開示されている。
中国実用新案第204297097号明細書
特許文献1に示される無人機を使用して散布物(例えば農薬、肥料、水など)を散布するなどの作業を行うとき、所定の作業領域(例えば農地など)の範囲内で正確に作業を行うことが要求されることが一般的である。散布物が作業領域の外にはみ出てしまうと、人体の健康や環境を害するおそれが生じる(例えば、農薬を農地の隣にある農家に散布してしまった場合など)だけでなく、散布物の浪費にもなってしまう。一方、作業領域の一部に散布物が行き渡らなかった場合も散布の目的を達成できなくなる。
従来は、ユーザが作業領域を目視しながら、送信機などを使用して無人機の飛行を手動で制御して作業を行っていた。ところが、広範囲の作業領域である場合はユーザが長時間無人機の操縦に集中しなければならず、体力的、精神的な負担が大きいだけでなく、作業領域内で正確に作業することが困難である。また、ユーザが無人機に通信可能な端末装置において電子的な地図を参照しながらあらかじめ作業領域を設定し、飛行体は設定された作業領域内の飛行経路をたどりながら作業することも知られている。しかしながら、電子的な地図は随時アップデートされているわけではないため、最新の地形が反映されているとは限らず、仮に地図の位置情報が最新の情報であったとしても、数メートルの誤差が生じることは稀ではない。さらに、日ごろから端末装置の使用に慣れていないユーザにとっては、作業領域の設定方法などを学習すること自体が負担になってしまう。
一態様において、飛行体の作業領域を特定するための飛行体制御方法であって、作業領域のサンプル画像情報を取得するステップと、サンプル画像情報との類似度に基づき対象領域における作業領域を特定するステップと、を有する。
サンプル画像情報は、作業領域内にある基準位置で撮像した画像から取得されてよい。
サンプル画像情報は、作業領域内にある複数の位置においてそれぞれ撮像された複数の画像から選択された一の画像から取得されてよい。
基準位置は、作業領域の境界線から所定距離以上内側の位置にあってよい。
サンプル画像情報には、色の属性に関する情報が含まれてよい。
対象領域における作業領域を特定するステップは、対象領域内に一連の撮像位置を確定するステップと、それぞれの撮像位置において撮像するステップと、撮像された画像の合成画像とサンプル画像情報との類似度に基づき作業領域を特定するステップと、を有してよい。
撮像された画像の合成画像とサンプル画像情報との類似度に基づき作業領域を特定するステップは、撮像位置において撮像するごとに、すでに撮像された複数の画像を合成し、合成された画像とサンプル画像情報との類似度が第1閾値以上である類似領域が閉領域となったときに、その閉領域を作業領域として特定するステップと、を有してよい。
撮像された画像の合成画像とサンプル画像情報との類似度に基づき作業領域を特定するステップは、対象領域の所定範囲を示す情報を取得するステップと、所定範囲内にある撮像位置での撮像画像を合成して得られた画像のうち前記サンプル画像情報との類似度が第1閾値以上である領域を前記作業領域として特定するステップと、を有してよい。
合成された画像のうちサンプル画像情報との類似度が第1閾値以上である領域を作業領域として特定するステップは、合成された画像のうち、サンプル画像情報との類似度が第1閾値以上であり、且つ面積が第2閾値以上である領域を作業領域として特定するステップを有してよい。
一連の撮像位置は、基準位置から始まり且つ螺旋状に広がる経路を構成してよい。
一態様において、作業領域を特定する飛行体であって、処理部を有し、処理部は、作業領域のサンプル画像情報を取得し、サンプル画像情報との類似度に基づき対象領域における作業領域を特定する。
飛行体は、さらに撮像装置を有し、サンプル画像情報は、作業領域内にある基準位置で撮像した画像から取得されてよい。
サンプル画像情報は、作業領域内にある複数の位置においてそれぞれ撮像された複数の画像から選択された一の画像から取得されてよい。
基準位置は、作業領域の境界線から所定距離以上内側の位置にあってよい。
サンプル画像情報には、色の属性に関する情報が含まれてよい。
処理部は、対象領域内に一連の撮像位置を確定し、それぞれの撮像位置において撮像し、撮像された画像の合成画像とサンプル画像情報との類似度に基づき作業領域を特定してよい。
処理部は、撮像位置において撮像するごとに、すでに撮像された複数の画像を合成し、合成された画像とサンプル画像情報との類似度が第1閾値以上である類似領域が閉領域となったときに、その閉領域を作業領域として特定してよい。
処理部は、対象領域の所定範囲を示す情報を取得し、所定範囲内にある撮像位置で撮像した画像を合成して得られた画像のうちサンプル画像情報との類似度が第1閾値以上である領域を作業領域として特定してよい。
処理部は、合成された画像のうち、サンプル画像情報との類似度が第1閾値以上であり、且つ面積が第2閾値以上である領域を作業領域として特定してよい。
一連の撮像位置は、基準位置から始まり且つ螺旋状に広がる経路を構成してよい。
一態様において、作業領域を特定する飛行体に、作業領域のサンプル画像情報を取得するステップと、サンプル画像情報との類似度に基づき対象領域における作業領域を特定するステップと、を実行させるためのプログラムである。
一態様において、作業領域を特定する飛行体に、作業領域のサンプル画像情報を取得するステップと、サンプル画像情報との類似度に基づき対象領域における作業領域を特定するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
無人飛行体の外観の一例を示す図である。 無人飛行体のハードウェア構成の一例を示すブロック図である。 本開示における飛行体制御方法の処理手順の一例を示すフロー図である。 本開示における作業領域の一例を示す模式図である。 本開示における基準位置の一例を示す模式図である。 本開示における作業領域を特定するステップの一例を示すフロー図である。 探索経路を構成する作業領域内の一連の撮像位置を示す模式図である。 一連の撮像位置において撮像した画像範囲を示す模式図である。 作業領域を特定するステップの一実施例を示すフロー図である。 一連の撮像位置で撮像された画像の合成画像を示す模式図である。 一連の撮像位置で撮像された画像の合成画像を示す模式図である。 一連の撮像位置で撮像された画像の合成画像を示す模式図である。 本開示における作業領域の一例を示す模式図である。 作業領域を特定するステップの一実施例を示すフロー図である。 対象領域において設定された所定範囲を示す模式図である。 特定された作業領域を示す模式図である。
以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。
本開示に係る飛行体制御方法は、飛行体の飛行を制御するための情報処理装置における各種の処理(ステップ)が規定されたものである。飛行体は、空中を移動する航空機(例えばドローン、ヘリコプター)を含む。飛行体は、無人飛行体(UAV:Unmanned Aerial Vehicle)であってもよい。飛行体は、所定の作業(例えば農薬、肥料、水等の散布)を行う作業領域(例えば農地)を特定することができる。
本開示に係るプログラムは、情報処理装置に各種の処理(ステップ)を実行させるためのプログラムである。
本開示に係る記録媒体は、プログラム(つまり、情報処理装置に各種の処理(ステップ)を実行させるためのプログラム)が記録されたものである。
以下に示す本開示に係る各実施形態において、飛行体として、無人飛行体(UAV)を例示する。本明細書に添付する図面では、無人飛行体を「UAV」と表記する。以下に示す各実施形態において、飛行体は、農地の作物等の散布対象を含む作業領域を特定する。以下においては、一の飛行体により作業領域を特定した後、同一の飛行体により当該特定された作業領域に対して散布物をほぼ均一にくまなく散布するための飛行経路を設定し、飛行経路に沿って作業を行う場合を例にとって説明するが、本開示はこれに限られない。例えば、一の本開示にかかる探索用飛行体が作業領域を特定した後、特定された作業領域の情報を別の作業用飛行体に伝送し、当該作業用飛行体がその特定された作業範囲で作業を行うようにしてよい。
以下に示す本開示に係る各実施形態において、情報処理装置は、飛行体の内部に設置されている処理部を例にとって説明するが、飛行体と通信可能である独立した遠隔のサーバなどの情報処理装置であってよい。また、飛行体内部に処理部と、飛行体と通信可能である遠隔の情報処理装置がそれぞれ本開示にかかる各種処理(ステップ)の一部を実行してもよい。ここにいう「通信」とは、データ通信全般を含む広い概念であり、ケーブルなどにより有線接続する場合だけでなく、無線通信によって接続する場合も含まれる。また、情報処理装置が飛行体と直接通信する場合だけでなく、記憶媒体を介して間接的に通信を行う場合も含まれる。
図1は、無人飛行体100の外観の一例を示す図である。無人飛行体100は、例えば散布作業の作業領域を特定した後、特定された作業領域内の散布対象に農薬、肥料、水等の散布物の散布作業を行う。無人飛行体100は、UAV本体102と、回転翼機構130と、噴射ノズル200と、タンク210と、撮像装置270と、を含む構成である。無人飛行体100は、例えば、撮像装置270で所定の対象領域を探索して作業領域(例えば農地)を特定した後、作業領域内に飛行経路を設定し、設定された飛行経路に沿って移動し、噴射ノズル200を通じてタンク210に格納されている農薬、肥料、水などを散布することができる。無人飛行体100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。なお、無人飛行体100が作業領域の特定のみを行い、その後別の作業用飛行体により作業を行う場合は、無人飛行体100は噴射ノズル200とタンク210を備えなくてもよい。
無人飛行体100は、複数の回転翼機構(プロペラ)130を備える。無人飛行体100は、例えば8つの回転翼機構130を備える。無人飛行体100は、これら回転翼機構130の回転を制御することにより無人飛行体100を移動させる。ただし、回転翼の数は、8つに限定されない。また、無人飛行体100は、回転翼を有さない固定翼機でよい。
次に、無人飛行体100の構成例について説明する。
図2は、無人飛行体100のハードウェア構成の一例を示すブロック図である。無人飛行体100は、処理部110と、メモリ120と、回転翼機構130と、GPS受信機140と、慣性計測装置150と、磁気コンパス160と、気圧高度計170と、ミリ波レーダ180と、風速風向計190と、噴射ノズル200と、タンク210と、圧力センサ220と、流量センサ230と、ストレージ240と、通信インタフェース250と、バッテリ260と、撮像装置270を含む構成である。
処理部110は、プロセッサ、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。処理部110は、無人飛行体100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。処理部110は、無人飛行体100において飛行の制御に関する処理を実行する機能を有する。
処理部110は、メモリ120又はストレージ240に格納されたプログラム及び飛行経路に関する情報に従って無人飛行体100の飛行を制御する。また、処理部110は、通信インタフェース250を介して遠隔のサーバから受信したデータ及び命令に従って、無人飛行体100を制御する。
処理部110は、回転翼機構130を制御することで、無人飛行体100の飛行を制御する。つまり、処理部110は、回転翼機構130を制御することにより、無人飛行体100の緯度、経度、及び高度を含む位置を制御する。処理部110は、GPS受信機140、慣性計測装置150、磁気コンパス160、気圧高度計170、ミリ波レーダ180のうちの少なくとも一つにより取得される位置情報に基づき、回転翼機構130を制御する。
メモリ120は、記憶部の一例である。メモリ120は、処理部110が回転翼機構130、GPS受信機140、慣性計測装置150、磁気コンパス160、気圧高度計170、ミリ波レーダ180、風速風向計190、噴射ノズル200、タンク210、圧力センサ220、流量センサ230、ストレージ240、及び通信インタフェース250、撮像装置270を制御するのに必要なプログラム等を格納する。メモリ120は、処理部110の処理時に使用される各種の情報やデータを保存する。メモリ120は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ120は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。
回転翼機構130は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータとを有する。回転翼機構130は、回転翼を回転させることにより、特定の方向の気流を生じさせ、無人飛行体100の飛行(上昇、下降、水平移動、旋回、傾斜等)を制御する。
GPS受信機140は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機140は、受信された複数の信号に基づいて、GPS受信機140の位置(つまり、無人飛行体100の位置)を算出する。GPS受信機140は、無人飛行体100の位置情報を処理部110に出力する。なお、GPS受信機140の位置情報の算出は、GPS受信機140の代わりに処理部110により行われてよい。この場合、処理部110には、GPS受信機140が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
慣性計測装置(IMU:Inertial Measurement Unit)150は、無人飛行体100の姿勢を検出し、検出結果を処理部110に出力する。慣性計測装置150は、無人飛行体100の姿勢として、無人飛行体100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。
磁気コンパス160は、無人飛行体100の機首の方位を検出し、検出結果を処理部110に出力する。気圧高度計170は、無人飛行体100が飛行する高度を検出し、検出結果を処理部110に出力する。
ミリ波レーダ180は、ミリ波帯の高周波の電波を送信し、地面や物体により反射された反射波を測定することにより、地面や物体の位置を検出し、検出結果を処理部110に出力する。検出結果は、例えば無人飛行体100から地面までの距離(つまり、高度)を示してよい。検出結果は、例えば無人飛行体100から物体までの距離を示してよい。検出結果は、例えば無人飛行体100により散布作業を行う作業領域の地形を示してよい。
風速風向計190は、無人飛行体100の周囲の風速、風向を検出し、検出結果を処理部110に出力する。検出結果は、無人飛行体100が飛行する作業領域における風速、風向を示してよい。
噴射ノズル200は、農薬、肥料、水等の散布物を導出する管路の端部に設けられ、例えば下方向(鉛直方向)に向けて散布物を噴射する。噴射ノズル200は、複数のノズル(例えば4つ)を有してよい。噴射ノズル200は、処理部110の制御に基づき、噴射のオン/オフ、噴射量及び噴射速度の調整を行う。よって、噴射ノズル200からの散布物は、所定の噴射量、噴射速度で散布対象に向かって散布される。タンク210は、農薬、肥料、水等の散布物を収容する。タンク210は、処理部110の制御に基づき、管路を経由して噴射ノズル200へ散布物を送出する。噴射ノズル200、タンク210は、散布機構の構成の一例に含まれる。
圧力センサ220は、噴射ノズル200から噴射される散布物の圧力を検出し、検出結果を処理部110に出力する。検出結果は、例えば噴射ノズル200からの噴射量又は噴射速度を示してよい。流量センサ230は、噴射ノズル200から噴射される散布物の流量を検出し、検出結果を処理部110に出力する。検出結果は、例えば噴射ノズル200からの噴射量又は噴射速度を示してよい。
ストレージ240は、記憶部の一例である。ストレージ240は、各種データ、情報を蓄積し、保持する。ストレージ240は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、USBメモリ、等でよい。ストレージ240は、無人飛行体100の内部に設けられてよいし、無人飛行体100から取り外し可能に設けられてよい。
通信インタフェース250は、端末50と通信する。通信インタフェース250は、端末50からの飛行経路、散布物等に関する各種の情報を受信する。通信インタフェース250は、端末50からの処理部110に対する各種の命令を受信する。
バッテリ260は、無人飛行体100の各部の駆動源としての機能を有し、無人飛行体100の各部に必要な電源を供給する。
撮像装置270は、所望の撮像範囲に含まれる被写体(例えば上述した農地)を撮像するカメラである。本開示において、撮像装置が無人飛行体100の下部に固定されている例を示すが、ヨー軸、ピッチ軸、及びロール軸を中心に撮像装置270を回転可能に支持するジンバルに取り付けられていてもよい。
以下、本開示における飛行体制御方法の一例について説明する。本開示における飛行体制御方法は、所定の探索対象領域から、作業を行う作業領域を特定する。無人飛行体100は作業する直前に作業領域を特定することにより、正確な作業領域を把握することができ、効率が高い作業を可能にする。
以下、本開示における飛行体制御方法の各ステップが、無人飛行体100に設けられている処理部110で実行される場合を例にとって説明するが、本開示はこれに限らず、一部のステップが無人飛行体100から離れたサーバにより実行されてよい。
図3は、本開示における飛行体制御方法の処理手順(ステップ)の一例を示すフロー図である。図4は、作業領域の一例を示す模式図である。なお、本開示においては、説明の便宜のため、図4に示す作業領域Aを例にとるが、実際の作業領域の面積、形状等はこれに限らないことは明らかである。
図3に示すように、本開示における飛行体制御方法S100は、まず無人飛行体100の作業領域Aのサンプル画像情報を取得する(ステップS110)。ここでいうサンプル画像情報とは、対象領域から作業領域Aである部分と作業領域Aでない部分を識別することに用いることができる作業領域Aの特徴を示すいかなる情報でよく、例えば形状にかかる情報、色の属性にかかる情報のうち少なくとも一つが含まれてよい。色の属性にかかる情報は、例えばRGB情報などの明度、彩度、色相を表す情報であってよい。また、サンプル画像情報は作業領域A内の規則的な色彩パターン(模様)であってよい。例えば、作業領域Aが野菜の農地である場合は、緑色の規則的な模様(色彩パターン)により特定することができる。
サンプル画像情報は、作業領域A内の所定位置で得られた画像から取得することが好ましい。具体例として、無人飛行体100は、図5に示すように、あらかじめ作業領域A内の基準位置P0に設けられたビーコンが発信する位置信号に基づいて基準位置P0の上方まで移動し、基準位置P0において撮像を行い、その撮像画像からRGB情報などのサンプル画像情報を取得してよい。なお、本開示における基準位置P0は、ビーコンによって発信された位置情報により確定する場合に限らず、例えばユーザが無人飛行体100に通信可能な端末装置においてあらかじめ入力した位置情報に基づいて確定してよい。さらに、より正確なサンプル画像情報を取得するために、作業領域A内にある複数の位置においてそれぞれ画像を撮像し、これらの複数の画像からユーザにより選択された一の画像からサンプル画像情報を取得してよい。
ただし、サンプル画像情報の取得方法は上記に限らず、例えば無線通信やインターネットを通じて遠隔のデータベースから取得したり、過去に作業領域Aを特定ないし作業を行った履歴がある場合は、無人飛行体100のメモリ等から過去のサンプル画像情報を取得したりしてよい。
なお、作業領域Aの中央付近からサンプル画像情報を取得する方が、境界線付近からサンプル画像情報を取得するより作業領域Aを正確に反映であるため、基準位置P0は、図5に示すように、作業領域の境界線から所定距離以上内側の位置であることが好ましい。
本開示において、無人飛行体100は、飛行する前にあらかじめユーザにより設定された飛行パラメータにより初期化されていることが好ましい。飛行パラメータには、例えば安全飛行高度(例えば20m)、対象領域の範囲(例えば基準位置P0から半径100m)、飛行速度(例えば5m/s)などが含まれるが、これに限られない。
次に、取得されたサンプル画像情報との類似度に基づき対象領域における作業領域を特定する(ステップS120)。対象領域とは、無人飛行体100が作業領域に属するか否かを判断する領域をいい、ユーザが需要により予めパラメータとして設定することが好ましい。例えば、ユーザはビーコンが置かれている基準位置から半径100mの範囲を対象領域と設定してよい。
上記のように、無人飛行体100が作業領域の特徴を示すサンプル画像情報を取得した後、対象領域を探索し、対象領域の範囲内にあるサンプル画像情報と一定程度(例えば70%)以上類似する部分を作業領域として認識することにより、正確に作業領域を特定することができる。
図6は、本開示における作業領域を特定する処理(ステップS120)の一例を示すフロー図である。まず、無人飛行体100は、図7に示すように、対象領域内に無人飛行体100の飛行経路を構成する一連のウェイポイント(すなわち撮像位置)P0、P1、P2、・・・、Pnを確定する(ステップS121)。これら一連のウェイポイントP0、P1、P2、・・・、Pnは、隣接するウェイポイント同士で撮像される画像が所定の重複率(例えば10%)以上になるような間隔で設けられる。例えば、図8において、P0における撮像範囲はE0であり、P1における撮像範囲はE1であり、P2における撮像範囲はE2である場合に、E0とE1は10%以上の重複率があり、且つE1とE2も10%以上の重複率がある。このように、少なくとも隣接する撮像範囲同士が一定の割合重複することにより、一連のウェイポイントP0、P1、P2、・・・、Pnで撮像した画像を正確に合成(スティッチング)することができる。
このとき、無人飛行体100の飛行高度及び撮像装置に用いるレンズの画角により算出された撮像範囲に基づいてあらかじめすべてのウェイポイントP0、P1、P2、・・・、Pnを確定してもよいが、本開示はこれに限らない。例えば、一のウェイポイントPxに到達した後に撮像範囲が所定の割合重複するように次のウェイポイントPx+1を確定してよい。
一連のウェイポイントP0、P1、P2、・・・、Pnは、サンプル画像情報を取得するための図5における基準位置P0から始まることが好ましい。これにより、無人飛行体100が基準位置P0に移動した後、サンプル画像情報を取得すると同時に一つ目のウェイポイントでの撮像が開始され、効率化を図ることができる。
さらに、一連のウェイポイントP0、P1、P2、・・・、Pnは、図7に示すように、螺旋状に広がる経路を形成することが好ましい。基準位置P0は作業領域Aの中央付近にあるため、無人飛行体100が螺旋状に広がるように探索することにより、迅速且つ正確に作業領域Aの特定を行うことができる。
そして、それぞれのウェイポイントに順次移動して撮像し(ステップS122)、撮像された画像の合成画像と上記のサンプル画像情報との類似度に基づき作業領域を特定する(ステップS123)。以下、その具体的な実施例について説明する。
図9は、無人飛行体100がウェイポイントP0で撮像し、ウェイポイントP1に移動した後、作業領域を特定するステップ(ステップS122)の第1の具体的な実施例S200を示すフロー図である。図9に示すように、無人飛行体100はまずウェイポイントP1で撮像する(ステップS210)。
その後、ウェイポイントP0で撮像した画像と、ウェイポイントP1で撮像した画像を合成する(ステップS220)。合成は無人飛行体100の処理部110で行うことが好ましいが、遠隔にある情報処理装置で行ってもよい。具体的には、無人飛行体100は、通信インタフェース250を通じて遠隔にある情報処理装置に撮像した画像を送信した後、合成された画像を受信してよい。
次に、無人飛行体100は、合成された画像のうち、サンプル画像情報との類似度が第1閾値(例えば70%)以上である領域を類似領域として推定する(ステップS230)。例えば、無人飛行体100は、合成された画像のうち、サンプル画像情報のRGB情報と70%以上類似する領域を類似領域として推定する。推定においては、具体的には、基準位置P0での撮像画像に基づく領域拡張法(Region Growing)などを用いてよい。
次に、ステップS230で推定した類似領域が閉領域であるか否かを判断する(ステップS240)。このとき、ウェイポイントP0は作業領域Aの中央付近にあり、且つウェイポイントP1はウェイポイントP0に隣接しているため、合成画像は図10に示すようにすべての範囲が類似領域となる。そのため、類似領域は閉領域でないと判断され(ステップS240、NO)、次のウェイポイントP2に移動する(ステップS260)。
続いて、無人飛行体100は、ウェイポイントP2で撮像した後(ステップS210)、ウェイポイントP0、P1、P2で撮像した画像を合成(スティッチング)する(ステップS220)。次に、合成された画像のうち、サンプル画像情報との類似度が第1閾値以上である領域を類似領域として推定する(ステップS230)。このように、ウェイポイントPxにおいて撮像するごとに、当該ウェイポイントPxに到達するまでのすべてのウェイポイントP0、P1、P2、・・・、Px−1、Pxにおいて撮像された画像を合成し、類似領域を推定するステップを繰り返す。新しいウェイポイントにおいて撮像した画像が追加される度に、合成画像は大きくなり、図11のように合成画像に類似領域に属さない部分が出てくるようになる。やがて、図12に示すように、類似領域が閉領域になる(ステップS240、YES)。このとき、当該閉領域である類似領域を作業領域Aとして特定し(ステップS250)、処理を終了する。
このように、必ずしもを対象領域内において確定した一連のウェイポイントP0、P1、P2、・・・、Pnのすべてに移動して撮像しなくても、類似領域が閉領域になった段階で、作業領域Aを特定し処理を終了することにより、電力や時間を節約することができ、作業領域の迅速かつ正確な特定が可能となる。
なお、特定された作業領域Aの地理的情報(例えばGPS情報における経度、緯度の範囲)は、各ウェイポイントの位置情報から得ることができる。各ウェイポイントの位置情報は、一連のウェイポイントを確定するとき(すなわち、ステップS121を実行するとき)に、ビーコンから発信された基準位置との相対距離から算出されたものを用いてもよいが、より正確な位置情報を把握するために、好ましくは、無人飛行体100が各ウェイポイントにおいて撮像するごとに、GPS受信機140からそのウェイポイントの位置情報を取得する。
作業領域を特定するステップの第1の具体的な実施例は、基準位置P0が属する閉じた作業領域が特定できた段階で処理を終了するため、一回実行するごとに閉じた領域を一つしか特定できない。ところが、図13のように、複数の閉じた領域A1、A2、A3が存在する場合は、それぞれの閉じた作業領域で上記方法を実行しなければならず、かえって煩雑になってしまう。そこで、本開示は、所定範囲内の複数の閉じた作業領域を一度に特定することができる第2の具体的な実施例を提供する。
以下、本開示における飛行体制御方法の作業領域を特定するステップの第2の具体的な実施例S300を説明する。まず、図14に示すように、無人飛行体100は、あらかじめ対象領域の所定範囲を示す情報を取得する(ステップS310)。対象領域Bの所定範囲は、範囲を示すパラメータにより特定される。例えば、所定範囲は、ビーコンの属する基準位置P0からの半径100メートル以内により特定されてよい。
そして、無人飛行体100は、ウェイポイントP0で撮像する(ステップS320)。その後、基準位置(すなわち、ウェイポイント)P0から100メートル以内にあるすべてのウェイポイントで撮像が完了しているか否かを判断する(ステップS330)。基準位置P0から100メートル以内に、撮像を行っていない他のウェイポイントが存在するため(ステップS330、NO)、無人飛行体100は引き続き次のウェイポイントP1に移動し(ステップS350)、ウェイポイントP1で撮像を行う(ステップS320)。そして、無人飛行体100は、再度基準位置P0から100メートル以内にあるすべてのウェイポイントで撮像が完了しているか否かを判断する(ステップS330)。このように、基準位置P0から半径100メートル以内のすべてのウェイポイントで撮像が完了するまで、移動と撮像を繰り返し行う。
基準位置P0から半径100メートル以内のすべてのウェイポイントで撮像が完了した後(ステップS330、YES)、撮像した画像を合成する。このとき、合成された画像は、図15に示すような、対象領域Bの所定範囲(つまり、基準位置P0から100メートル以内の範囲)全体を含む結果となる。そして、合成された画像のうち、サンプル画像情報との類似度が第1閾値(例えば70%)以上である領域を作業領域として特定する(ステップS360)。これにより、一度に対象領域内にある複数の閉じた領域A1、A2、A3を特定することができる。
本実施例において、それぞれのウェイポイントで撮像するごとに合成を行うこともできるが、すべてのウェイポイントで撮像した後、一括にすべての画像を合成することが好ましい。合成の回数を減らすことにより、処理部110のリソースを節約し、省電力を図ることができる。
また、対象領域Bの所定範囲内のサンプル画像情報との類似度が第1閾値以上である領域をすべて作業領域として特定すると、多くのノイズが含まれてしまう恐れがある。例えば、図15に示す農地A1(100平方メートル)と農地A3(20平方メートル)の近くに小さな草地A2(5平方メートル)が存在し、農地のサンプル画像情報が緑がかった色に対応するRGB情報である場合は、草地A2も作業領域として特定されてしまう恐れがある。このようなノイズが発生するのを回避するため、さらに好ましくは、ステップS360において、合成された画像のうち、サンプル画像情報との類似度が第1閾値(例えば70%)以上であり、且つ面積が第2閾値(例えば10平方メートル)以上である領域を作業領域として特定する。第2閾値は、実際の作業領域とノイズとなりうる領域の面積に基づきあらかじめ設定され、メモリ120またはストレージ240に記録されていてもよい。これにより、図16に示すように、農地A1、農地A3は10平方メートル以上なので作業領域として特定され、草地A2は10平方メートル以下なので作業領域として特定されず、正確に作業領域を特定することができる。
本開示における飛行体制御方法は、作業領域が特定された後に、作業領域内の作業経路を従来の方法により計画し、作業を行ってよい。これにより、ユーザが手動で作業領域を設定しなくても、飛行体が自動的に作業領域を正確に把握することができ、過不足のない効率的な作業を実現できる。
本開示における飛行体制御方法の各処理(ステップ)は、その全部を無人飛行体100の処理部110によって実行させてよいが、これに限らない。例えば、第1の具体的な実施例において画像を合成するステップS230、類似領域を推定するステップS230、第2の具体的な実施例において画像を合成するステップS340、作業領域を特定するステップS360のうち一つまたは複数を遠隔にある情報処理装置(例えばクラウドサーバ)で実行してよい。
また、本開示における飛行体制御方法は、無人飛行体100に各処理(ステップ)を実行させるプログラムにより実現してよい。このプログラムは、メモリ120、ストレージ240又は他の記憶媒体に格納されてよい。
以上、本開示について実施形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
100 無人飛行体(UAV)
102 UAV本体
110 処理部
120 メモリ
130 回転翼機構
140 GPS受信機
150 慣性計測装置
160 磁気コンパス
170 気圧高度計
180 ミリ波レーダ
190 風速風向計
200 噴射ノズル
210 タンク
220 圧力センサ
230 流量センサ
240 ストレージ
250 通信インタフェース
260 バッテリ
270 撮像装置

Claims (22)

  1. 飛行体の作業領域を特定するための飛行体制御方法であって、
    前記作業領域のサンプル画像情報を取得するステップと、
    前記サンプル画像情報との類似度に基づき対象領域における前記作業領域を特定するステップと、を有する、
    飛行体制御方法。
  2. 前記サンプル画像情報は、前記作業領域内にある基準位置で撮像した画像から取得される、
    請求項1に記載の飛行体制御方法。
  3. 前記サンプル画像情報は、前記作業領域内にある複数の位置においてそれぞれ撮像された複数の画像から選択された一の画像から取得される、
    請求項2に記載の飛行体制御方法。
  4. 前記基準位置は、前記作業領域の境界線から所定距離以上内側の位置にある、
    請求項2に記載の飛行体制御方法。
  5. 前記サンプル画像情報には、色の属性に関する情報が含まれる、
    請求項1ないし4のいずれか一項に記載の飛行体制御方法。
  6. 前記対象領域における前記作業領域を特定するステップは、
    前記対象領域内に一連の撮像位置を確定するステップと、
    それぞれの撮像位置において撮像するステップと、
    撮像された画像の合成画像と前記サンプル画像情報との類似度に基づき前記作業領域を特定するステップと、を有する、
    請求項2に記載の飛行体制御方法。
  7. 前記撮像された画像の合成画像と前記サンプル画像情報との類似度に基づき前記作業領域を特定するステップは、
    前記撮像位置において撮像するごとに、すでに撮像された複数の画像を合成し、前記合成された画像と前記サンプル画像情報との類似度が第1閾値以上である類似領域が閉領域となったときに、前記閉領域を前記作業領域として特定するステップと、有する、
    請求項6に記載の飛行体制御方法。
  8. 前記撮像された画像の合成画像と前記サンプル画像情報との類似度に基づき前記作業領域を特定するステップは、
    前記対象領域の所定範囲を示す情報を取得するステップと、
    前記所定範囲内にある撮像位置での撮像画像を合成して得られた画像のうち前記サンプル画像情報との類似度が第1閾値以上である領域を前記作業領域として特定するステップと、を有する、
    請求項6に記載の飛行体制御方法。
  9. 前記合成された画像のうち前記サンプル画像情報との類似度が第1閾値以上である領域を前記作業領域として特定するステップは、
    前記合成された画像のうち、前記サンプル画像情報との類似度が第1閾値以上であり、且つ面積が第2閾値以上である領域を前記作業領域として特定するステップを有する、
    請求項8に記載の飛行体制御方法。
  10. 前記一連の撮像位置は、前記基準位置から始まり且つ螺旋状に広がる経路を構成する、
    請求項6ないし9のいずれか一項に記載の飛行体制御方法。
  11. 作業領域を特定する飛行体であって、処理部を有し、
    前記処理部は、
    前記作業領域のサンプル画像情報を取得し、前記サンプル画像情報との類似度に基づき対象領域における前記作業領域を特定する、
    飛行体。
  12. 前記飛行体は、さらに撮像装置を有し、
    前記サンプル画像情報は、前記作業領域内にある基準位置で撮像した画像から取得される、
    請求項11に記載の飛行体。
  13. 前記サンプル画像情報は、前記作業領域内にある複数の位置においてそれぞれ撮像された複数の画像から選択された一の画像から取得される、
    請求項12に記載の飛行体。
  14. 前記基準位置は、前記作業領域の境界線から所定距離以上内側の位置にある、
    請求項12に記載の飛行体。
  15. 前記サンプル画像情報には、色の属性に関する情報が含まれる、
    請求項11ないし14のいずれか一項に記載の飛行体。
  16. 前記処理部は、前記対象領域内に一連の撮像位置を確定し、それぞれの撮像位置において撮像し、撮像された画像の合成画像と前記サンプル画像情報との類似度に基づき前記作業領域を特定する、
    請求項12に記載の飛行体。
  17. 前記処理部は、前記撮像位置において撮像するごとに、すでに撮像された複数の画像を合成し、前記合成された画像と前記サンプル画像情報との類似度が第1閾値以上である類似領域が閉領域となったときに、前記閉領域を前記作業領域として特定する、
    請求項16に記載の飛行体。
  18. 前記処理部は、前記対象領域の所定範囲を示す情報を取得し、前記所定範囲内にある撮像位置で撮像した画像を合成して得られた画像のうち前記サンプル画像情報との類似度が第1閾値以上である領域を前記作業領域として特定する、
    請求項16に記載の飛行体。
  19. 前記処理部は、前記合成された画像のうち、前記サンプル画像情報との類似度が第1閾値以上であり、且つ面積が第2閾値以上である領域を前記作業領域として特定する、
    請求項18に記載の飛行体。
  20. 前記一連の撮像位置は、前記基準位置から始まり且つ螺旋状に広がる経路を構成する、
    請求項16ないし19のいずれか一項に記載の飛行体。
  21. 作業領域を特定する飛行体に、
    前記作業領域のサンプル画像情報を取得するステップと、
    前記サンプル画像情報との類似度に基づき対象領域における前記作業領域を特定するステップと、を実行させるための、
    プログラム。
  22. 作業領域を特定する飛行体に、
    前記作業領域のサンプル画像情報を取得するステップと、
    前記サンプル画像情報との類似度に基づき対象領域における前記作業領域を特定するステップと、を実行させるためのプログラムを記録したコンピュータ読み取り可能な、
    記録媒体。
JP2017164640A 2017-08-29 2017-08-29 飛行体制御方法、飛行体、プログラム及び記録媒体 Ceased JP2019045898A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017164640A JP2019045898A (ja) 2017-08-29 2017-08-29 飛行体制御方法、飛行体、プログラム及び記録媒体
CN201880015439.8A CN110383333A (zh) 2017-08-29 2018-08-01 飞行体控制方法、飞行体、程序及记录介质
PCT/CN2018/098109 WO2019042067A1 (zh) 2017-08-29 2018-08-01 飞行体控制方法、飞行体、程序及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017164640A JP2019045898A (ja) 2017-08-29 2017-08-29 飛行体制御方法、飛行体、プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2019045898A true JP2019045898A (ja) 2019-03-22

Family

ID=65524863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017164640A Ceased JP2019045898A (ja) 2017-08-29 2017-08-29 飛行体制御方法、飛行体、プログラム及び記録媒体

Country Status (3)

Country Link
JP (1) JP2019045898A (ja)
CN (1) CN110383333A (ja)
WO (1) WO2019042067A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020168900A (ja) * 2019-04-02 2020-10-15 株式会社ネクスドローン 資材散布システムおよび資材散布装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092403A (ja) * 2008-10-10 2010-04-22 Hitachi Automotive Systems Ltd 道路標示認識システム
JP2014044533A (ja) * 2012-08-24 2014-03-13 Yanmar Co Ltd 走行路識別装置
JP2016082441A (ja) * 2014-10-17 2016-05-16 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
US20160327959A1 (en) * 2015-05-04 2016-11-10 International Business Machines Corporation Unmanned Vehicle Movement Path Assignment and Management
JP2017144811A (ja) * 2016-02-16 2017-08-24 株式会社ナイルワークス 無人飛行体による薬剤散布方法、および、プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103235830A (zh) * 2013-05-13 2013-08-07 北京臻迪科技有限公司 一种基于无人机电力巡线方法、装置及无人机
CN103985117A (zh) * 2014-04-28 2014-08-13 上海融军科技有限公司 基于遥感图像的目标捕获与确认方法
CN105354841B (zh) * 2015-10-21 2019-02-01 武汉工程大学 一种快速遥感影像匹配方法及***
US10665115B2 (en) * 2016-01-05 2020-05-26 California Institute Of Technology Controlling unmanned aerial vehicles to avoid obstacle collision
CN106020233B (zh) * 2016-07-08 2023-11-28 聂浩然 无人机植保作业***、用于植保作业的无人机及控制方法
CN106956778A (zh) * 2017-05-23 2017-07-18 广东容祺智能科技有限公司 一种无人机农药喷洒方法及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092403A (ja) * 2008-10-10 2010-04-22 Hitachi Automotive Systems Ltd 道路標示認識システム
JP2014044533A (ja) * 2012-08-24 2014-03-13 Yanmar Co Ltd 走行路識別装置
JP2016082441A (ja) * 2014-10-17 2016-05-16 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
US20160327959A1 (en) * 2015-05-04 2016-11-10 International Business Machines Corporation Unmanned Vehicle Movement Path Assignment and Management
JP2017144811A (ja) * 2016-02-16 2017-08-24 株式会社ナイルワークス 無人飛行体による薬剤散布方法、および、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020168900A (ja) * 2019-04-02 2020-10-15 株式会社ネクスドローン 資材散布システムおよび資材散布装置

Also Published As

Publication number Publication date
CN110383333A (zh) 2019-10-25
WO2019042067A1 (zh) 2019-03-07

Similar Documents

Publication Publication Date Title
JP6962720B2 (ja) 飛行制御方法、情報処理装置、プログラム及び記録媒体
CN108594850B (zh) 基于无人机的航线规划及控制无人机作业的方法、装置
Küng et al. The accuracy of automatic photogrammetric techniques on ultra-light UAV imagery
Rieke et al. High-precision positioning and real-time data processing of UAV-systems
CN105159319B (zh) 一种无人机的喷药方法及无人机
CN109085594A (zh) 一种用于施药导引的无人机机载***及施药导引***
Madawalagama et al. Low cost aerial mapping with consumer-grade drones
CN104320607A (zh) 基于无人机的监控农田作物生长的方法
JP7501878B2 (ja) ドローン作業支援システム及びドローン作業支援方法
JP6138326B1 (ja) 移動体、移動体の制御方法、移動体を制御するプログラム、制御システム、及び情報処理装置
Liu et al. Development of a positioning system using UAV-based computer vision for an airboat navigation in paddy field
CN103885454A (zh) 农用飞行器跟随冠层特征参数飞行的作业方法及装置
JP2018100930A (ja) 位置特定装置、位置特定方法およびプログラム
CN111741897A (zh) 无人机的控制方法、设备、喷洒***、无人机及存储介质
JP6289750B1 (ja) 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム
WO2021159249A1 (zh) 航线规划方法、设备及存储介质
CN110785355A (zh) 一种无人机测试方法、设备及存储介质
CN108007437B (zh) 一种基于多旋翼飞行器测量农田边界与内部障碍的方法
Jensen et al. Low-cost multispectral aerial imaging using autonomous runway-free small flying wing vehicles
WO2019167210A1 (ja) 制御装置、移動体及びプログラム
JP2019045898A (ja) 飛行体制御方法、飛行体、プログラム及び記録媒体
Conte et al. Evaluation of a light-weight LiDAR and a photogrammetric system for unmanned airborne mapping applications
JP2007033258A (ja) 被観測対象物の観測方法及び装置
JP6927943B2 (ja) 情報処理装置、飛行制御方法及び飛行制御システム
Themistocleous The use of UAVs for monitoring land degradation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220927