JP2019027909A - Method for estimating position of target by unmanned mobile body - Google Patents

Method for estimating position of target by unmanned mobile body Download PDF

Info

Publication number
JP2019027909A
JP2019027909A JP2017147312A JP2017147312A JP2019027909A JP 2019027909 A JP2019027909 A JP 2019027909A JP 2017147312 A JP2017147312 A JP 2017147312A JP 2017147312 A JP2017147312 A JP 2017147312A JP 2019027909 A JP2019027909 A JP 2019027909A
Authority
JP
Japan
Prior art keywords
observation
estimating
unmanned
target
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017147312A
Other languages
Japanese (ja)
Inventor
周平 小松
Shuhei Komatsu
周平 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Drone IPLab Inc
Aerial Lab Industries Inc
Original Assignee
Drone IPLab Inc
Aerial Lab Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Drone IPLab Inc, Aerial Lab Industries Inc filed Critical Drone IPLab Inc
Priority to JP2017147312A priority Critical patent/JP2019027909A/en
Publication of JP2019027909A publication Critical patent/JP2019027909A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

To provide a technique for actively estimating the position of a missing person by estimating the distribution of the position of the missing person and updating the distribution every time an observation is obtained.SOLUTION: The method for estimating a position according to the present invention is executed by an unmanned mobile body. The method includes the steps of: temporarily determining the estimated position of a target; observing a signal sent from the target by the unmanned mobile body; updating the estimated position and then determining the next observation place; moving to the observation place after the update and making an observation again. The method repeats the series of above steps to gradually estimate the position of the target.SELECTED DRAWING: Figure 1

Description

本発明は、無人移動体による対象物の位置推定方法に関する。   The present invention relates to a method for estimating a position of an object by an unmanned moving body.

近年はUAV(Unmanned Aerial Vehicle)の発展が目覚ましく、空撮や探索などその用途は多岐にわたる。UAVによりターゲットを探索する研究もいくつかあるが、ドローンの動き方はあらかじめ決められている。   In recent years, the development of UAV (Unmanned Aerial Vehicle) has been remarkable, and its uses such as aerial photography and search are various. There are some studies to search for targets by UAV, but the way the drone moves is predetermined.

また、山や森林における行方不明者を捜索する際に、できるだけ迅速に行方不明者を発見することは重要なことであるが、行方不明者の最後の目撃情報などだけから位置を絞り込み発見することは難しく、最終的にローラー作戦のように網羅的な探索がなされることも珍しくない。   In addition, when searching for missing persons in mountains and forests, it is important to find missing persons as quickly as possible, but to narrow down the position only from the last sighting information etc. of missing persons. It is difficult, and it is not uncommon for an exhaustive search to be finally performed as in the roller operation.

登山者などにあらかじめビーコンを持たせ、行方不明になった場合はそのビーコンからの信号を元に位置推定を行い効率的な探索を行うことを考える。複数のセンサーで信号を観測する、あるいは一つのセンサーで複数回観測を行うことで信号源の位置を検出する手法はいくつかある。それらの手法は大きく分けて二つのグループに分類することができる。   Consider climbing a person who has a beacon in advance, and if he is missing, estimate the position based on the signal from the beacon and perform an efficient search. There are several methods for detecting the position of a signal source by observing signals with a plurality of sensors or performing observations with a single sensor multiple times. These methods can be broadly classified into two groups.

一つは受信した信号の到来方向や、信号源までの距離を計算し、その情報を元に位置検出を行う方法でRange−Based方式と呼ばれるものである。もう一つは受信した信号から信号源までの距離そのものは計算することなく位置検出を行う方法でRange−Free方式と呼ばれるものである。一般的にはRange−Based方式の方が精度は高いが計算コストが高くなり、逆にRange−Free方式は精度は低いが計算コストは低く、ロバストであるという特徴がある。   One is a method called a range-based method in which the arrival direction of a received signal and the distance to the signal source are calculated and the position is detected based on the information. The other is a method that performs position detection without calculating the distance from the received signal to the signal source, and is called a range-free method. In general, the range-based method has higher accuracy but higher calculation cost. Conversely, the range-free method has lower accuracy but lower calculation cost and is robust.

大槻知明.位置推定技術.信学技報(2009)Tomoaki Ohtsuki. Position estimation technology. IEICE Technical Report (2009)

非特許文献1に記載の技術は、観測場所を適切に選択することに関するものはほとんどない。   The technology described in Non-Patent Document 1 has little to do with appropriate selection of observation locations.

そこで、本発明は、Particle Filter を用いて遭難者の位置の分布を推定し、観測を得るごとに分布を更新することで遭難者の位置を能動的に推定する手法を提案する。また、観測する場所を適切に選ぶことにより、少ない観測回数で精度の高い推定を行うことができることを示す。広範囲の情報を迅速にに集めるための技術を提供することを一つの目的とする。   Therefore, the present invention proposes a method for actively estimating the position of the victim by estimating the distribution of the position of the victim using the particle filter and updating the distribution every time the observation is obtained. In addition, we show that it is possible to perform highly accurate estimation with a small number of observations by selecting an appropriate observation location. One object is to provide a technique for quickly collecting a wide range of information.

本発明によれば、無人移動体による対象物の位置推定方法であって、
対象物の推定位置を仮決めするステップと、前記無人移動体によって、対象物から発信される信号を観測するステップと、前記推定位置を更新し更新後に次の観測場所を決定するステップと、更新後の観測場所に移動して再び観測を行うステップと、を繰り返すことによって、前記対象物の位置を漸次的に推定する、
位置推定方法が得られる。
According to the present invention, there is provided a method for estimating the position of an object by an unmanned moving body,
A step of tentatively determining an estimated position of the object; a step of observing a signal transmitted from the object by the unmanned mobile body; a step of updating the estimated position and determining a next observation place after the update; Moving to a later observation location and performing the observation again, and gradually estimating the position of the object,
A position estimation method is obtained.

本発明によれば、広範囲の情報を迅速にに集めることができる。   According to the present invention, a wide range of information can be collected quickly.

本発明の実施の形態による無人飛行体の機能ブロック図である。It is a functional block diagram of the unmanned air vehicle according to the embodiment of the present invention. 管理サーバの機能ブロック図である。It is a functional block diagram of a management server. 本実施の形態による推定方法のシミュレーション結果である。It is a simulation result of the estimation method by this Embodiment.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による無人移動体による対象物の位置推定方法は、以下のような構成を備える。
[項目1]
無人移動体による対象物の位置推定方法であって、
対象物の推定位置を仮決めするステップと、前記無人移動体によって、対象物から発信される信号を観測するステップと、前記推定位置を更新し更新後に次の観測場所を決定するステップと、更新後の観測場所に移動して再び観測を行うステップと、を繰り返すことによって、前記対象物の位置を漸次的に推定する、
位置推定方法。
[項目2]
請求項1に記載の位置推定方法であって、
前記信号を観測するステップはParticle Filterを用い、次の観測場所を決定するステップはActive learningを用いる、
位置推定方法。
The contents of the embodiment of the present invention will be listed and described. A position estimation method for an object by an unmanned moving object according to an embodiment of the present invention has the following configuration.
[Item 1]
A method for estimating the position of an object by an unmanned moving object,
A step of tentatively determining an estimated position of the object; a step of observing a signal transmitted from the object by the unmanned mobile body; a step of updating the estimated position and determining a next observation place after the update; Moving to a later observation location and performing the observation again, and gradually estimating the position of the object,
Position estimation method.
[Item 2]
The position estimation method according to claim 1,
The step of observing the signal uses a particle filter, and the step of determining the next observation location uses active learning.
Position estimation method.

<実施の形態の詳細>
以下、本発明の実施の形態による無人移動体による対象物の位置推定方法を利用した位置推定システムについて、説明する。
<Details of the embodiment>
Hereinafter, a position estimation system using a method for estimating the position of an object by an unmanned moving object according to an embodiment of the present invention will be described.

<概要>
本発明の実施の形態による位置推定システムは、無人飛行体とコンピュータ端末とを用いて実現可能である。
<Overview>
The position estimation system according to the embodiment of the present invention can be realized using an unmanned air vehicle and a computer terminal.

本実施の形態における無人飛行体は、ドローン(Drone)、マルチコプター(Multi Copter)、無人航空機(Unmanned aerial vehicle:UAV)、RPAS(remote piloted aircraft systems)、又はUAS(Unmanned Aircraft Systems)等と称呼されることがある。無人飛行体は、電池、複数のモータ、位置検出部、制御部、ドライバ、記憶装置、無線通信装置、電圧センサ、及び電流センサ等を備えている。これらの構成要素は、所定形状のフレームに搭載されている。無人飛行体に搭載される情報処理装置のハードウェア構成については後述する。なお、これらの飛行のための基本構造については、既知の技術を適宜採用可能である。   The unmanned aerial vehicle in the present embodiment is a drone, a multicopter, an unmanned aerial vehicle (UAV), a RPAS (remote piloted air systems), or a UAS (Amant lands). May be. The unmanned air vehicle includes a battery, a plurality of motors, a position detection unit, a control unit, a driver, a storage device, a wireless communication device, a voltage sensor, a current sensor, and the like. These components are mounted on a frame having a predetermined shape. The hardware configuration of the information processing apparatus mounted on the unmanned air vehicle will be described later. As for the basic structure for these flights, a known technique can be appropriately adopted.

<無人飛行体>
図2に示されるように、無人飛行体1は、情報処理装置100を搭載している。情報処理装置100は、サーバ1と通信を介して情報処理を実行することにより、情報伝達システムの一部を構成する。情報処理装置100は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、出力部14、測位部16、検知部17等を備え、これらはバス15を通じて相互に電気的に接続される。情報処理装置100は、例えばマイクロコンピューター、ASIC(Application Specific Integrated Circuit)で構成されていてもよく、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
<Unmanned flying vehicle>
As shown in FIG. 2, the unmanned air vehicle 1 includes an information processing apparatus 100. The information processing apparatus 100 configures a part of the information transmission system by executing information processing via communication with the server 1. The information processing apparatus 100 includes at least a processor 10, a memory 11, a storage 12, a transmission / reception unit 13, an output unit 14, a positioning unit 16, a detection unit 17, and the like, which are electrically connected to each other through a bus 15. The information processing apparatus 100 may be configured by, for example, a microcomputer, an ASIC (Application Specific Integrated Circuit), or may be logically realized by cloud computing.

プロセッサ10は、情報処理装置100の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な処理等を行う演算装置である。例えばプロセッサ10はCPU及び/又はGPU(Graphical Processing Unit)等であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行することによって、必要な各情報処理を実施する。   The processor 10 is an arithmetic device that controls the operation of the information processing apparatus 100, performs control of data transmission / reception between elements, processing necessary for execution of an application, and the like. For example, the processor 10 is a CPU and / or GPU (Graphical Processing Unit) or the like, and executes each necessary information process by executing a program stored in the storage 12 and expanded in the memory 11.

メモリ11は、RAMなどの揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11はプロセッサ10のワークエリア等として使用され、また、情報処理装置100の起動時に実行されるBIOS、及び各種設定情報等が格納される。ストレージ12には、アプリケーション・プログラム等が格納される。   The memory 11 includes a main memory composed of a volatile storage device such as a RAM and an auxiliary memory composed of a nonvolatile storage device such as a flash memory or an HDD. The memory 11 is used as a work area of the processor 10 and stores a BIOS executed when the information processing apparatus 100 is started up, various setting information, and the like. The storage 12 stores application programs and the like.

送受信部13は、情報処理装置100をネットワーク4に接続し、LPEAネットワークを介して管理サーバ1と通信を行う。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。   The transmission / reception unit 13 connects the information processing apparatus 100 to the network 4 and communicates with the management server 1 via the LPEA network. The transmission / reception unit 13 may include a Bluetooth (registered trademark) and a BLE (Bluetooth Low Energy) short-range communication interface.

入出力部14は、スイッチ類等の情報入力機器、及びディスプレイ等の出力機器である。無人飛行体1は自律飛行を行うものであるが、外部から遠隔で手動又は自動で操作されることとしてもよい。本実施の形態による無人飛行体1は、入力機能としてカメラを備えており、静止画・動画の空撮が可能である。また、収集すべき情報に応じて、赤外線サーモカメラ、X線カメラ、高感度カメラ、暗視カメラ等種々のカメラを備えることとしてもよい。   The input / output unit 14 is an information input device such as switches and an output device such as a display. The unmanned air vehicle 1 performs autonomous flight, but may be operated manually or automatically remotely from the outside. The unmanned aerial vehicle 1 according to the present embodiment includes a camera as an input function, and can take aerial photographs of still images and moving images. In addition, various cameras such as an infrared thermo camera, an X-ray camera, a high sensitivity camera, and a night vision camera may be provided according to information to be collected.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。   The bus 15 is commonly connected to the above-described elements, and transmits, for example, an address signal, a data signal, and various control signals.

測位部16は、無人飛行体1の位置と高度を少なくとも検出する。本実施の形態による測位部26は、例えばGPS(Global Positioning System)検出器であって、無人飛行体1の現在位置の緯度、経度、及び高度を検出する。   The positioning unit 16 detects at least the position and altitude of the unmanned air vehicle 1. The positioning unit 26 according to the present embodiment is, for example, a GPS (Global Positioning System) detector, and detects the latitude, longitude, and altitude of the current position of the unmanned air vehicle 1.

検知部17は、無人飛行体1の外部環境を音声、画像、赤外線等種々のセンサによってセンシングするためのものであり、自立飛行の補助機能を司る。   The detection unit 17 is for sensing the external environment of the unmanned air vehicle 1 with various sensors such as voice, image, infrared, and the like, and manages an auxiliary function of independent flight.

本実施の形態による無人飛行体1は、情報処理装置100の他に、当該無人飛行体1の移動・飛行のための、電源、回転翼に接続されたモータ、情報処理装置100とモータとを中継するドライバを少なくとも更に有している。情報処理装置100は、複数のモータを制御して監視ドローンの飛行制御(上昇、下降、水平移動などの制御)や、無人飛行体1に搭載されているジャイロ(図示せず)を使用して複数のモータを制御することによって姿勢制御をも行う。ドライバは、情報処理装置100からの制御信号に従ってモータを駆動する。例えば、モータは直流モータであり、ドライバは制御信号により指定された電圧をモータに印加する可変電圧電源回路である。なお、無人飛行体100は図示しない他の要素を有していてもよい。   The unmanned air vehicle 1 according to the present embodiment includes, in addition to the information processing device 100, a power source, a motor connected to the rotor, and the information processing device 100 and the motor for moving and flying the unmanned air vehicle 1. At least a relay driver is further included. The information processing apparatus 100 controls a plurality of motors and uses a surveillance drone flight control (control of ascending, descending, horizontal movement, etc.) and a gyro (not shown) mounted on the unmanned air vehicle 1. Attitude control is also performed by controlling a plurality of motors. The driver drives the motor according to a control signal from the information processing apparatus 100. For example, the motor is a DC motor, and the driver is a variable voltage power supply circuit that applies a voltage specified by a control signal to the motor. The unmanned aerial vehicle 100 may have other elements not shown.

<管理サーバ>
図2に示されるように、管理サーバ2は、情報伝達システムを通じてサービスを提供するための情報処理装置であり、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。図2に示されるように、サーバ2は、プロセッサ20、メモリ21、ストレージ22、送受信部23、及び入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。
<Management server>
As shown in FIG. 2, the management server 2 is an information processing apparatus for providing a service through an information transmission system, and may be a general-purpose computer such as a workstation or a personal computer, or cloud computing. It may be logically realized by. As shown in FIG. 2, the server 2 includes a processor 20, a memory 21, a storage 22, a transmission / reception unit 23, an input / output unit 24, and the like, which are electrically connected to each other through a bus 25.

プロセッサ20は、サーバ2全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ20はCPU(Central Processing Unit)であり、ストレージ22に格納されメモリ21に展開されたプログラム等を実行して各情報処理を実施する。   The processor 20 is an arithmetic device that controls the overall operation of the server 2 and performs control of data transmission / reception between elements, information processing necessary for executing an application, and the like. For example, the processor 20 is a CPU (Central Processing Unit), and executes each information process by executing a program stored in the storage 22 and expanded in the memory 21.

メモリ21は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ21は、プロセッサ20のワークエリア等として使用され、また、サーバ2の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。ストレージ22は、アプリケーション・プログラム、及び各無人飛行体1の認証プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベース(後述するロケーションデータ、ルートデータ等)がストレージ22に構築されていてもよい。   The memory 21 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory composed of a nonvolatile storage device such as a flash memory or an HDD (Hard Disc Drive). . The memory 21 is used as a work area of the processor 20 and stores a BIOS (Basic Input / Output System) executed when the server 2 is started up, various setting information, and the like. The storage 22 stores various programs such as an application program and an authentication program for each unmanned air vehicle 1. A database (location data, route data, etc., which will be described later) storing data used for each process may be constructed in the storage 22.

<本発明による方法>
関連研究のRSSIを用いた位置推定では、信号を観測するセンサーの位置についてはセンサーの周囲に格子状に並べるなどの方法がとられている。
<Method according to the invention>
In the position estimation using RSSI in related research, the position of the sensor for observing the signal is arranged in a grid around the sensor.

この方法では一度に観測を行い、得られたデータを用いて位置推定を行うことになる。本発明では、遭難者が所持しているビーコンの信号をUAVに搭載したセンサーで観測をしながら推定を進めることを考えるので、Particle Filterを用いて分布を推定し、観測が得られるごとに更新していくことにする。さらに、本発明では遭難者の位置推定を行うことを考えているため、少ない観測回数で高精度の位置推定を行うことも重要である。このため観測場所を適切に選択する必要がある。   In this method, observation is performed at once and position estimation is performed using the obtained data. In the present invention, since it is considered that the estimation proceeds while observing the beacon signal possessed by the victim with the sensor mounted on the UAV, the distribution is estimated using the Particle Filter, and updated every time the observation is obtained. I will do it. Furthermore, since the present invention considers the position estimation of the victim, it is also important to perform the position estimation with high accuracy with a small number of observations. For this reason, it is necessary to select an observation place appropriately.

本発明においてこの問題を解決するために、機械学習の一つの分野であるActive learningで用いられている方法を適用することを考える。Active learningとは、あるデータに対する正解のラベルを得るのにコストや時間がかかる場合に、できるだけ少ないデータに対する正解ラベルで効率的に学習を行うための学習方法である。本発明においてはParticleFilterとActive learningで用いられる方法を組み合わせることで、効率的かつ高精度な位置推定を実現する方法を提案する。   In order to solve this problem in the present invention, it is considered to apply a method used in Active learning, which is one field of machine learning. Active learning is a learning method for efficiently learning with as few correct labels as possible for data when it takes cost and time to obtain correct labels for certain data. In the present invention, a method is proposed that realizes efficient and highly accurate position estimation by combining the methods used in the ParticleFilter and Active learning.

提案手法では信号を観測して推定位置を更新し、更新後に次の観測場所を決定する。その場所で再び観測を行い、推定位置を更新する、という操作を繰り返し行うことで漸次的に推定を進める。   In the proposed method, the estimated position is updated by observing the signal, and the next observation location is determined after the update. The estimation is gradually advanced by repeating the operation of performing observation again at that place and updating the estimated position.

本発明では遭難者の位置の分布は非ガウスな分布であると考えられるため、単純なカルマンフィルタは使えない。ここでは実装の容易さから、信号源の位置推定にはParticle Filterを用い、次の観測場所の決定にはActive learningで用いられる手法を適用する。   In the present invention, since the distribution of the position of the victim is considered to be a non-Gaussian distribution, a simple Kalman filter cannot be used. Here, for ease of implementation, a particle filter is used to estimate the position of the signal source, and a method used in active learning is applied to determine the next observation location.

本実施形態ではParticle FilterとしてSampling Impor−tance Resamplingアルゴリズムを用いるものとする。つまり観測データを得るたびに各粒子に対して尤度を計算し、尤度に応じてリサンプリングを行うことで粒子の状態を更新し推定を行う。   In this embodiment, it is assumed that a sampling impor-tance resampling algorithm is used as the particle filter. That is, every time observation data is obtained, the likelihood is calculated for each particle, and resampling is performed according to the likelihood to update and estimate the state of the particle.

Active learningは機械学習の一つの分野で、あるデータに対する正解のラベルを得るのにコストや時間がかかる場合に、できるだけ少ないデータに対する正解ラベルで効率的に学習を行うためのアルゴリズムである。Active learningでは次にどのデータを得るべきかを決定するのにはいくつかのアプローチがある。本発明では行方不明者の位置をできるだけ早く推定するために、観測する場所を適切に選び推定を効率的に進める必要があるためActive learningで用いられる手法を参考にする。次節以降で、本発明におけるParticle Filterと、Active learningで用いられる手法の具体的な適用方法をついて述べる。   Active learning is an algorithm for efficiently learning with as few correct labels as possible in data when it takes cost and time to obtain correct labels for certain data in one field of machine learning. In Active learning, there are several approaches to determine what data to get next. In the present invention, in order to estimate the position of the missing person as soon as possible, it is necessary to appropriately select a place to be observed and proceed with the estimation efficiently, so the technique used in Active learning is referred to. In the following sections, specific application methods of the technique used in the particle filter and active learning according to the present invention will be described.

<Range−Based方式に基づく提案手法>
Range−Based方式に基づく提案手法では、Range−Based方式の中でもRSSIを用いて位置検出を行う。ある観測が得られたらParticle Filter各粒子に対して、信号強度の理論値との差に応じて尤度を設定し、リサンプリングを行うことで推定を更新し、次の観測場所を決定する、という操作を繰り返す。以下ではその具体的な更新方法と観測場所の決定方法について述べる。また、今後は理論式(1)中の単位距離d=1として扱う。
<Proposed method based on Range-Based method>
In the proposed method based on the range-based method, position detection is performed using RSSI even in the range-based method. If a certain observation is obtained, the likelihood is set for each particle filter particle according to the difference from the theoretical value of the signal intensity, the estimation is updated by resampling, and the next observation location is determined. Repeat the above operation. The specific update method and the method of determining the observation location are described below. In the future, the unit distance d 0 = 1 in the theoretical formula (1) will be treated.

<分布の更新>
粒子の個数をNとし、(i−1) 番目の観測を受けて、リサンプリングされたあとの粒子を数式1で表す。
さらに粒子の番号を添え字j (j=1, 2,・・・, Np) で表すことにすると、各粒子は、それぞれ粒子の位置、単位距離での信号強度、減衰係数の情報を持ち、数式2で表すことができる。
また、i番目の観測場所を数式3、観測値を数式4とする。
ここで、観測値(数式4)が得られると、観測ノイズが平均0、分散2の正規分布に従うと仮定することで、各粒子に対しての尤度wを以下の数式5により計算することができる。
尤度wが計算できれば、これに従ってリサンプリングすることで、更新された粒子(数式6)を得ることができる。
<Update distribution>
The number of particles and N p, receives the (i-1) th observation represents the particles after being resampled by Equation 1.
Further, if the particle number is represented by a subscript j (j = 1, 2,..., Np), each particle has information on the position of the particle, the signal intensity at a unit distance, and the attenuation coefficient. It can be expressed by Equation 2.
Further, the i-th observation place is represented by Equation 3 and the observation value is represented by Equation 4.
Here, when the observed value (Formula 4) is obtained, the likelihood w for each particle is calculated by the following Formula 5 by assuming that the observed noise follows a normal distribution with mean 0 and variance 2. Can do.
If the likelihood w can be calculated, an updated particle (Formula 6) can be obtained by resampling according to this.

<観測場所の決定>
i番目の観測を受けて、リサンプリングされたあとの粒子(数式6)が得られたとき、次にどの場所で観測すべきかを考える。例えば、ある位置[x, yで観測を行うとする。このとき、各粒子から得られるNp個の観測値の組Rは[x, yに依存し、数式7のように書くことができる。
Np個の観測値R(j=1, 2, ・・・, Np)が同じような値になる位置で観測を行なっても、そのときの観測を受けてリサンプリングした後の分布はリサンプリングする前の分布とあまり変化しない。逆に、できるだけ異なった観測が得られる場所で観測を行なった方が、リサンプリング前後での分布の変化は大きくなる。このような考え方はActivelearningにおいてはuncertainty samplingと呼ばれ、観測場所は以下の数式11に従って決定することができる。
<Determination of observation location>
When the i-th observation is received and the resampled particle (Equation 6) is obtained, the next observation should be considered. For example, suppose that observation is performed at a certain position [x 0 , y 0 ] T. At this time, a set R of Np observation values obtained from each particle depends on [x 0 , y 0 ] T, and can be written as Equation 7.
Even if the observation is performed at a position where Np observation values R j (j = 1, 2,..., Np) have the same value, the distribution after the re-sampling after receiving the observation at that time is re-sampled. It does not change much from the distribution before sampling. Conversely, the distribution changes before and after resampling are larger when observations are made at locations where different observations are possible. Such a concept is called uncertain sampling in Active learning, and the observation location can be determined according to the following Equation 11.

<シミュレーション結果>
Range−Based方式、Range−Free方式に基づく提案手法のそれぞれに対して行なったシミュレーションの結果を示す。Particle Filterにより位置推定が行えていること、Active learningで用いられる手法により、ランダムに観測場所を選択するよりも推定の精度が向上していることを確認した。シミュレーションの問題設定として、Particle Filterの粒子の数は1,000とし、更に、パラメータの初期値及び信号源の位置(x, y)は、数式12の範囲でランダムに選択する。
更に、信号源の定数はP=60.0、κ=2.2に設定する。簡単のため、ビーコン及び受信機は無指向性であるとする。観測には平均0、分散1のガウス白色ノイズをのせる。受信機は信号強度が0dBより小さい信号は観測できないものとし、計算上は全てP=−30として扱う。
<Simulation results>
The result of the simulation performed with respect to each of the proposal method based on a Range-Based system and a Range-Free system is shown. It was confirmed that position estimation was possible with a particle filter, and that the accuracy of estimation was improved by the method used in Active learning rather than randomly selecting an observation location. As a problem setting of the simulation, the number of particles of the particle filter is 1,000, and the initial values of the parameters and the position of the signal source (x t , y t ) are randomly selected within the range of Equation 12.
Further, the signal source constants are set to P 0 = 60.0 and κ = 2.2. For simplicity, beacons and receivers are assumed to be omnidirectional. For observation, Gaussian white noise with an average of 0 and a variance of 1 is placed. It is assumed that the receiver cannot observe a signal with a signal strength of less than 0 dB, and treats all as P = −30 in the calculation.

Range−Based方式に基づく提案手法のシミュレーション結果を以下の表1及び表2(Tab1, Tab2)に示す。表中のδは推定誤差である。
ここでは、各観測回数について100回シミュレーションを行い、その平均値を載せている。観測場所をランダムに選択するよりもuncertainty samplingに従って選択することで、少ない観測回数で高精度の推定を実現できていることが確認できる。また、uncertainty samplingを用いることにより次の観測場所を適切に選択できている様子を図3に示す。図において赤い星印がターゲットの位置、青丸がセンサーの位置、緑の丸が粒子の位置である。図(a)は、ある時刻t=Tでの状態であり、その状態から次の時刻において観測場所をランダムに選択し、観測・リサンプリングを行なった後の状態が図(b)であり、観測場所をuncertainty samplingにより選択し、観測・リサンプリングを行なった後の状態が図(c)である。
The simulation results of the proposed method based on the Range-Based method are shown in Table 1 and Table 2 (Tab1, Tab2) below. Δ in the table is an estimation error.
Here, the simulation is performed 100 times for each number of observations, and the average value is listed. It can be confirmed that high-precision estimation can be realized with a small number of observations by selecting according to uncertainty sampling rather than randomly selecting an observation location. Further, FIG. 3 shows a state in which the next observation location can be appropriately selected by using uncertainity sampling. In the figure, the red star is the target position, the blue circle is the sensor position, and the green circle is the particle position. FIG. (A) is a state at a certain time t = T, and the state after the observation place is randomly selected from the state at the next time and observation / resampling is performed is FIG. (B). FIG. 5C shows the state after the observation location is selected by uncertain sampling and the observation / resampling is performed.

以上説明したように、本発明では、信号源の位置推定を行う際にParticle Filterを用いることで、オンラインで推定を進めることができることを示した。さらに観測場所を決定するときにはActive learningに従って決定することで、少ない観測で効率的に推定を行うことができることも確認し、その有用性も示した。しかし遭難者の位置推定を行う際に最も重要なのは観測回数を減らすことではなく、推定にかかる時間を短くすることである。観測回数を減らすことは推定にかかる時間を短くするために重要なことではあるが、必ずしも推定時間の短縮には繋がらない。観測場所同士が非常に離れているなどの要因で、観測回数自体は少ないが移動に時間がかかる、ということも考えられるためである。そのため、今後の課題として観測場所間の移動時間も考慮に入れたモデルを構築する必要がある。   As described above, in the present invention, it has been shown that the estimation can be performed online by using the Particle Filter when estimating the position of the signal source. Furthermore, when determining the observation location, it was confirmed that it can be estimated efficiently with few observations by deciding according to Active learning, and its usefulness was also shown. However, when estimating the position of a victim, the most important thing is not to reduce the number of observations, but to shorten the estimation time. Reducing the number of observations is important for shortening the estimation time, but does not necessarily lead to a reduction in the estimation time. This is because the observation location itself is small, but it takes time to move due to factors such as the observation locations being very far apart. Therefore, it is necessary to build a model that takes into account the travel time between observation sites as a future issue.

本実施の無人移動体は、飛行するものであったが、例えば、地上を移動するもの、水中を移動するものなど、自立又は手動で移動させることができるものであれば、どのようなものでも適用可能である。   The unmanned moving object of the present embodiment is a thing that flies, but any thing that can be moved independently, such as a thing that moves on the ground or a thing that moves underwater, can be used. Applicable.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

1 無人飛行体
2 管理サーバ
1 Unmanned flying vehicle 2 Management server

Claims (2)

無人移動体による対象物の位置推定方法であって、
対象物の推定位置を仮決めするステップと、前記無人移動体によって、対象物から発信される信号を観測するステップと、前記推定位置を更新し更新後に次の観測場所を決定するステップと、更新後の観測場所に移動して再び観測を行うステップと、を繰り返すことによって、前記対象物の位置を漸次的に推定する、
位置推定方法。
A method for estimating the position of an object by an unmanned moving object,
A step of tentatively determining an estimated position of the object; a step of observing a signal transmitted from the object by the unmanned mobile body; a step of updating the estimated position and determining a next observation place after the update; Moving to a later observation location and performing the observation again, and gradually estimating the position of the object,
Position estimation method.
請求項1に記載の位置推定方法であって、
前記信号を観測するステップはParticle Filterを用い、次の観測場所を決定するステップはActive learningを用いる、
位置推定方法。

The position estimation method according to claim 1,
The step of observing the signal uses a particle filter, and the step of determining the next observation location uses active learning.
Position estimation method.

JP2017147312A 2017-07-31 2017-07-31 Method for estimating position of target by unmanned mobile body Pending JP2019027909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017147312A JP2019027909A (en) 2017-07-31 2017-07-31 Method for estimating position of target by unmanned mobile body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017147312A JP2019027909A (en) 2017-07-31 2017-07-31 Method for estimating position of target by unmanned mobile body

Publications (1)

Publication Number Publication Date
JP2019027909A true JP2019027909A (en) 2019-02-21

Family

ID=65478243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017147312A Pending JP2019027909A (en) 2017-07-31 2017-07-31 Method for estimating position of target by unmanned mobile body

Country Status (1)

Country Link
JP (1) JP2019027909A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186456A (en) * 2019-04-30 2019-08-30 中国科学院深圳先进技术研究院 A kind of method, system, unmanned plane and the storage medium of target positioning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186456A (en) * 2019-04-30 2019-08-30 中国科学院深圳先进技术研究院 A kind of method, system, unmanned plane and the storage medium of target positioning
CN110186456B (en) * 2019-04-30 2023-09-29 中国科学院深圳先进技术研究院 Target positioning method, system, unmanned aerial vehicle and storage medium

Similar Documents

Publication Publication Date Title
EP3158412B1 (en) Sensor fusion using inertial and image sensors
US10126126B2 (en) Autonomous mission action alteration
EP3158293B1 (en) Sensor fusion using inertial and image sensors
CN111033561B (en) System and method for navigating a robotic device using semantic information
US10281911B1 (en) System and method for controlling a remote aerial device for up-close inspection
EP3158411B1 (en) Sensor fusion using inertial and image sensors
CN107209514B (en) Selective processing of sensor data
WO2016187759A1 (en) Sensor fusion using inertial and image sensors
US11798426B2 (en) Autonomous mission action alteration
WO2021081774A1 (en) Parameter optimization method and apparatus, control device, and aircraft
EP3234505A1 (en) Providing constraint to a position
JP2019027909A (en) Method for estimating position of target by unmanned mobile body
TW202202809A (en) Determination device, route determination method, route determination program, route determination system, and flying object device
CN116793340B (en) Unmanned aerial vehicle automatic landing navigation method and device and electronic equipment
JP2020071154A (en) Position estimation device, position estimation method, program, and recording medium