JP6529098B2 - 位置推定装置、位置推定方法、及びプログラム - Google Patents

位置推定装置、位置推定方法、及びプログラム Download PDF

Info

Publication number
JP6529098B2
JP6529098B2 JP2017532281A JP2017532281A JP6529098B2 JP 6529098 B2 JP6529098 B2 JP 6529098B2 JP 2017532281 A JP2017532281 A JP 2017532281A JP 2017532281 A JP2017532281 A JP 2017532281A JP 6529098 B2 JP6529098 B2 JP 6529098B2
Authority
JP
Japan
Prior art keywords
data
map data
surrounding situation
correspondence
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017532281A
Other languages
English (en)
Other versions
JPWO2017022057A1 (ja
Inventor
康行 伊原
康行 伊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2017022057A1 publication Critical patent/JPWO2017022057A1/ja
Application granted granted Critical
Publication of JP6529098B2 publication Critical patent/JP6529098B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、対象の位置を推定するための位置推定装置及び位置推定方法に関し、更には、これらを実現するためのプログラムに関する。
従来から、「ドローン」と呼ばれる無人飛行機(以下、「UAV(Unmanned Aerial Vehicle)」とも表記する。)は、軍事用途、農薬散布といった様々な用途に用いられている。とりわけ、近年においては、バッテリーの小型化及び高出力化により、動力原として電動モータを利用する小型の無人飛行機が開発されている(例えば、非特許文献1及び2参照。)。小型の無人飛行機は、運用が簡単であることから、急速に普及している。
また、無人飛行機は、通常、撮影カメラ、及びGPS(Global Positioning System)受信機を備えており、撮影画像に、GPS受信機によって測定した自機の位置(位置情報)を紐付けることができる。このため、無人飛行機は、例えば、野生動物の生態調査、イベント時のヒトの混雑状況等の調査、交通渋滞の調査、不審者等の監視、災害時のヒトの避難状況の把握といった用途において利用が期待されている。
"無人航空機"、[online]、2015年5月25日、ウィキペディア、[2015年6月1日検索]、インターネット<URL:http://ja.wikipedia.org/wiki/%E7%84%A1%E4%BA%BA%E8%88%AA%E7%A9%BA%E6%A9%9F> "ドローン"、[online]、2015年4月22日、weblio辞書、[2015年6月1日検索]、インターネット<URL:http://www.weblio.jp/content/%E3%83%89%E3%83%AD%E3%83%BC%E3%83%B3>
ところで、無人飛行機によって調査又は監視を行う場合は、調査対象又は監視対象の位置を特定する必要があるが、無人飛行機から出力されるデータは、位置情報が付加された画像データのみである。よって、管理者は、調査対象又は監視対象の絶対的な位置を特定できず、無人飛行機を基準とした相対的な位置しか特定できないため、従来からの無人飛行機では、精度の高い調査及び監視を行うことができないという問題がある。
本発明の目的の一例は、上記問題を解消し、移動体から出力されたデータから対象の絶対的な位置を推定し得る、位置推定装置、位置推定方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における位置推定装置は、周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、対応関係特定部と、
前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、座標算出部と、
特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、絶対位置推定部と、
を備えている、ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における位置推定方法は、
(a)周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、ステップと、
(b)前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、ステップと、
(c)特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、ステップと、
を備えている、ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータに、
(a)周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、ステップと、
(b)前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、ステップと、
(c)特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、ステップと、
を実行させることを特徴とする。
以上のように、本発明によれば、移動体から出力されたデータから対象の絶対的な位置を推定することができる。
図1は、本発明の実施の形態における位置推定装置の概略構成を示す構成図である。 図2は、本発明の実施の形態における位置推定装置の構成を具体的に示すブロック図である。 図3は、本発明の実施の形態において用いられる画像データの一例を示す図である。 図4は、本発明の実施の形態で用いられる環境地図データの一例を示す図である。 図5は、本発明の実施の形態で用いられる広域地図データの一例を示す図である。 図6は、本発明の実施の形態で用いられる環境地図と広域地図との対応関係を示す図である。 図7は、本発明の実施の形態における位置推定装置10の動作を示すフロー図である。 図8は、本発明の実施の形態における位置推定装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
以下、本発明の実施の形態における位置推定装置、位置推定方法、及びプログラムについて、図1〜図8を参照しながら説明する。
[装置構成]
最初に、本発明の実施の形態における位置推定装置の構成について図1を用いて説明する。図1は、本発明の実施の形態における位置推定装置の概略構成を示す構成図である。
図1に示す本実施の形態における位置推定装置10は、移動体20を用いて、ヒト、動物といった対象の位置を推定するための装置である。図1に示すように、位置推定装置10は、対応関係特定部11と、座標算出部12と、絶対位置推定部13とを備えている。
対応関係特定部11は、まず、周辺の状況を検知可能なセンサ22を備えた移動体20から、周辺の状況を特定する周辺状況データを取得する。続いて、対応関係特定部11は、周辺状況データと地図データとを比較して、両者の対応関係を特定する。
座標算出部12は、周辺状況データから、位置推定の対象30を抽出し、抽出した対象30の周辺状況データ上での座標を算出する。絶対位置推定部13は、特定された対応関係と算出された座標とから、地図データ上での対象30の位置を推定する。
以上のように、本実施の形態によれば、移動体20から出力された周辺状況データを用いて、対象30の絶対的な位置を推定することができる。
続いて、図1に加え、図2〜図6を用いて、本実施の形態における位置推定装置10の構成について更に具体的に説明する。図2は、本発明の実施の形態における位置推定装置の構成を具体的に示すブロック図である。また、図2は、移動体の構成についても開示している。
まず、図1に示したように、本実施の形態において用いられる移動体20は、複数のローターを備えるマルチコプター型の無人飛行機であり、いわゆるドローンである。なお、以下の説明においては、「移動体」20を「無人飛行機」20とも表記する。図2に示すように、無人飛行機20は、データ処理部21と、センサ22と、GPS信号受信部23と、推力発生部24と、無線通信部25とを備えている。
無人飛行機20において、無線通信部25は、位置推定装置10との間で無線によるデータ通信を実行している。無線通信部25は、例えば、Wi−Fi通信用の通信デバイスによって実現される。
GPS信号受信部23は、衛星からのGPS(Global Positioning System)信号を受信し、受信したGPS信号に基づいて、現在の位置及び高度を測定する。推力発生部24は、図1の例では、4つ備えられており、それぞれ、推力を発生させるローターとその駆動源となる電動機とを備えている。
データ処理部21は、無人飛行機20が外部から遠隔操縦されているときは、外部からの操作入力に応じて、各推力発生部24の推力を調整し、無人飛行機20の速度、高度、及び進行方向を制御する。
また、データ処理部21は、無人飛行機20が、設定されたルートを飛行するように自動操縦されているときは、GPS信号受信部23によって測定された現在の位置及び高度を、予め設定された飛行ルートと照合する。そして、データ処理部21は、照合結果を確認しながら、無人飛行機20が飛行ルートに沿って飛行するように、各推力発生部24の推力を調整する。
また、無人飛行機20において、センサ22は、無人飛行機20の周辺の状況を検知可能なものであれば良い。センサ22としては、例えば、受光した光に応じて画素信号を出力する撮像素子が挙げられる。また、撮像素子は、通常、レンズ等と組み合わされてカメラを構築することから、実際には、センサ22としては、撮像素子を備えるカメラが用いられる。更に、撮像素子が受光できる波長域は、可視光であっても良いし、赤外光であっても良いことから、カメラは、可視光カメラであっても良いし、赤外線カメラであっても良い。
センサ22としてカメラが用いられる場合は、センサ22は、図3に示すように、画素信号から作成された画像データを、周辺状況データとして出力する。図3は、本発明の実施の形態において用いられる画像データの一例を示す図である。また、本実施の形態では、センサ22であるカメラは、無人飛行機20の底面に下方に向けて設置されている(図1参照)。従って、図3に示すように、画像データで特定される画像は、上方からの画像となる。
また、センサ22の他の例として、周辺に存在する物体までの距離に応じて出力信号の特徴が変化するセンサも挙げられる。この場合、センサ22は、例えば、対象30に光を照射する光源と、対象30で反射された光を受信する受光素子とを備えており、受光素子の出力信号から周辺状況データを生成する。具体的には、センサ22としては、レーザ光線を出射光として用いるレーザレンジファインダ、赤外光を出射光として利用するデプスカメラが挙げられる。
そして、データ処理部21は、センサ22が周辺状況データを出力すると、これを受け取る。また、データ処理部21は、出力された周辺状況特定データを、無線通信部25を介して、位置推定装置10へと送信する。
また、図2に示すように、本実施の形態では、位置推定装置10は、無人飛行機20の外部に設置され、無線通信によって無人飛行機20との間でデータ通信を実行する。位置推定装置10は、上述した対応関係特定部11、座標算出部12、及び絶対位置推定部13に加えて、無線通信部14と、地図データベース15とを備えている。
無線通信部14は、無人飛行機20との間で、無線によるデータ通信を実行する。具体的には、無線通信部14は、無人飛行機20の無線通信部25から送信されてきた周辺状況特定データを受信する。無線通信部13も、例えば、Wi−Fi通信用の通信デバイスによって実現される。また、地図データベース15は、後述する環境地図データと、広域地図データとを格納している。
また、本実施の形態では、対応関係特定部11は、まず、周辺状況データで特定される周辺の環境地図データと周辺状況データとの対応関係(以下「第1の対応関係」と表記する。)を特定する。
具体的には、対応関係特定部11は、まず、地図データベース15から、予め作成された環境地図データを取得する。図4は、本発明の実施の形態で用いられる環境地図データの一例を示す図である。本実施の形態において、環境地図データは、例えば、SLAM(Simultaneous Localization and Mapping)技術を用いて作成される。具体的には、環境地図データは、道路、河川、線路等に沿って無人飛行機20を飛行させ、センサ22によって、これらの外形を抽出しながら、無人飛行機20の位置を特定することによって作成される。
続いて、対応関係特定部11は、周辺状況データ中の複数の箇所、例えば、画像データで特定される画像内の特徴的な複数の箇所を特定し、更に、環境地図データで特定される環境地図において、特定した箇所それぞれに対応する点を特定する。そして、対応関係特定部11は、画像内の各箇所の座標と、環境地図内の特定した点の座標とを対応付け、この座標間の対応付けを第1の対応関係とする。
また、対応関係特定部11は、地図データベース15から、撮影範囲よりも広い範囲をカバーする地図データ(以下「広域地図データ」と表記する。)を抽出し、抽出した広域地図データに周辺状況データを照合する。図5は、本発明の実施の形態で用いられる広域地図データの一例を示す図である。そして、これにより、対応関係特定部11は、周辺状況データと地図データとの対応関係(以下「第2の対応関係」と表記する。)を特定する。
具体的には、対応関係特定部11は、広域地図データで特定される広域地図の複数の部分を取出し、取り出した部分毎に、取り出した部分と画像データ(周辺状況特定データ)で特定される画像との相互情報量を算出する。そして、対応関係特定部11は、最も相互情報量の値が大きくなる部分を、画像に対応している部分(以下「対応部分」と表記する。)と判断し、更に、対応部分において、画像内の特徴的な複数の箇所それぞれに対応する点(対応点)を特定する。そして、対応関係特定部11は、画像内の各箇所の座標と、広域地図内の対応部分における対応点の座標とを対応付け、この座標間の対応付けを第2の対応関係とする。
座標算出部12は、例えば、周辺状況データが画像データであり、位置推定の対象30がヒトである場合は、画像データで特定される画像の中から、ヒトについて登録された局所特徴量をもつ箇所を特定し、この特定した箇所を、対象30として検出する。また、座標算出部12は、検出した対象30の画像における座標を算出する。
絶対位置推定部12は、本実施の形態では、まず、対応関係特定部11によって特定された第1の対応関係と、座標算出部12によって算出された座標と用いて、対象30の環境地図データ上での座標(x、y)を特定する。
続いて、絶対位置推定部12は、第1の対応関係と第2の対応関係とを用いて、環境地図データと広域地図データとのアフィン写像を算出する。更に、絶対位置推定部12は、図6に示すように、対象30の環境地図データ上での座標をアフィン写像に入力することによって、この座標を広域地図データ上での座標(東経X°、北緯Y°)に変換する。そして、絶対位置推定部12は、この変換によって得られた座標(東経X°、北緯Y°)を、広域地図データ上での対象30の位置として推定する。
図6は、本発明の実施の形態で用いられる環境地図と広域地図との対応関係を示す図である。また、図6に示すように、広域地図データ上での対象30位置は、絶対的な位置であり、東経及び北緯で表される。
[装置動作]
次に、本発明の実施の形態における位置推定装置10の動作について図7を用いて説明する。図7は、本発明の実施の形態における位置推定装置10の動作を示すフロー図である。以下の説明においては、適宜図1〜図6を参酌する。また、本実施の形態では、位置推定装置10を動作させることによって、位置推定方法法が実施される。よって、本実施の形態における推定方法の説明は、以下の位置推定装置10の動作説明に代える。
図7に示すように、最初に、位置推定装置10において、対応関係特定部11は、無線通信部14を介して、無人飛行機20から送信されてきた周辺状況データを取得する(ステップA1)。
次に、対応関係特定部11は、地図データベース15から、予め作成された環境地図データを取得し、環境地図データと周辺状況データとの対応関係(第1の対応関係)を特定する(ステップA2)。具体的には、周辺状況データが画像データであるとすると、対応関係特定部11は、画像データで特定される画像内の複数箇所の座標と、環境地図データで特定される環境地図内の対応する点の座標とを対応付け、この座標間の対応付けを第1の対応関係とする。
次に、対応関係特定部11は、地図データベースから、広域地図データを抽出し、抽出した広域地図データに周辺状況データを照合して、周辺状況データと地図データとの対応関係(第2の対応関係)を特定する(ステップA3)。具体的には、周辺状況データが画像データであるとすると、対応関係特定部11は、画像データで特定される画像内の複数箇所の座標と、広域地図内の対応部分における対応点の座標とを対応付け、この座標間の対応付けを第2の対応関係とする。
次に、座標算出部12は、周辺状況データから、位置推定の対象30を抽出し、対象30の周辺状況データ上での座標を算出する(ステップA4)。具体的には、周辺状況データが画像データであるとすると、座標算出部12は、局所特徴量を用いて、画像内の対象30を検出し、検出した対象30の画像における座標を算出する。
次に、絶対位置推定部12は、ステップA2で特定された第1の対応関係と、ステップA4で算出された座標と用いて、対象30の環境地図データ上での座標を特定する(ステップA5)。
次に、絶対位置推定部12は、ステップA2で特定された第1の対応関係と、ステップA3で特定された第2の位置関係とを用いて、環境地図データと広域地図データとのアフィン写像を算出する(ステップA6)。
次に、絶対位置推定部12は、対象30の環境地図データ上での座標をアフィン写像に入力することによって、この座標を広域地図データ上での座標に変換し、得られた座標を、広域地図データ上での対象30の絶対位置として推定する(ステップA7)。
[実施の形態における効果]
以上のように本実施の形態によれば、無人飛行機20から、例えば、位置推定の対象30が映った画像データ等を取得すれば、対象30の絶対的な位置を推定することができる。このため、本実施の形態における位置推定装置10を用いれば、野生動物の生態調査、イベント時のヒトの混雑状況等の調査、交通渋滞の調査、不審者等の監視、災害時のヒトの避難状況の把握といった場面において、精度の高い結果を得ることが可能となる。
[変形例]
また、図1〜図7に示した例では、無人飛行機20は1機であるが、本実施の形態において、無人飛行機20の数は特に限定されるものではない。この場合、無人飛行機20毎に異なる対象の位置が推定されていても良いし、2機以上の無人飛行機20によって、同一の対象の位置が推定されていても良い。特に、後者の場合は、一の無人飛行機20によって対象を検出できなくなっても、他の無人飛行機20によって対象を検出できる場合がある。よって、後者の場合は、対象の追跡が必要な場合に特に有効である。
更に、本実施の形態では、移動体は無人飛行機に限定されるものではない。移動体の他の例としては、車両が挙げられる。この場合もセンサとしては、カメラ、レーザレンジファインダ、デプスカメラが挙げられる。
また、図1〜図7に示した例では、対象30は、ヒトであるが、本実施の形態において、位置推定の対象は、これに限定されるものではない。位置推定の対象30の他の例としては、動物、車両、建物、農地、山林等が挙げられる。また、位置推定の対象30は、物の一部分であっても良い。具体的には、ビル、橋梁、トンネル、ダム等の異常箇所・故障箇所が挙げられる。ビル、橋梁、トンネル、ダム等の異常箇所・故障箇所は、ヒトが近づけないところに存在する可能性があり、これらを対象30とした場合は、インフラの維持管理を効率良く行なうことができる。
[プログラム]
本発明の実施の形態におけるプログラムは、コンピュータに、図7に示すステップA1〜A7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における位置推定装置10と位置推定方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、対応関係特定部11、座標算出部12、絶対位置推定部13として機能し、処理を行なう。
ここで、本実施の形態におけるプログラムを実行することによって、位置推定装置10を実現するコンピュータについて図8を用いて説明する。図8は、本発明の実施の形態における位置推定装置を実現するコンピュータの一例を示すブロック図である。
図8に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記12)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、対応関係特定部と、
前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、座標算出部と、
特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、絶対位置推定部と、
を備えている、ことを特徴とする位置推定装置。
(付記2)
前記対応関係特定部が、前記周辺状況データで特定される周辺の環境地図データと前記周辺状況データとの対応関係を、第1の対応関係として特定し、更に、前記周辺状況データを、撮影範囲よりも広い範囲をカバーする前記地図データに照合することによって、前記周辺状況データと前記地図データとの対応関係を、第2の対応関係として特定し、
前記絶対位置推定部が、
前記第1の対応関係と、前記対象の前記周辺状況データ上での座標とから、前記対象の前記環境地図データ上での座標を特定し、
更に、前記第1の対応関係と前記第2の対応関係とを用いて、前記環境地図データと前記地図データとのアフィン写像を算出し、
そして、算出した前記アフィン写像に、前記環境地図データ上での座標を入力することによって、前記環境地図データ上での座標を前記地図データ上での座標に変換し、
変換によって得られた座標を、前記地図データ上での前記対象の位置として推定する、
付記1に記載の位置推定装置。
(付記3)
前記移動体が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備え、
前記対応関係特定部が、前記周辺状況データとして、前記画素信号から生成された画像データを取得する、
付記1に記載の位置推定装置。
(付記4)
前記移動体が、前記センサとして、周辺に存在する物体までの距離に応じて出力信号の特徴が変化するセンサを備え、
前記対応関係特定部が、前記周辺状況データとして、前記出力信号から生成されたデータを取得する、
付記1に記載の位置推定装置。
(付記5)
(a)周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、ステップと、
(b)前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、ステップと、
(c)特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、ステップと、
を備えている、ことを特徴とする位置推定方法。
(付記6)
前記(a)のステップにおいて、前記周辺状況データで特定される周辺の環境地図データと前記周辺状況データとの対応関係を、第1の対応関係として特定し、更に、前記周辺状況データを、撮影範囲よりも広い範囲をカバーする前記地図データに照合することによって、前記周辺状況データと前記地図データとの対応関係を、第2の対応関係として特定し、
前記(c)のステップにおいて、
前記第1の対応関係と、前記対象の前記周辺状況データ上での座標とから、前記対象の前記環境地図データ上での座標を特定し、
更に、前記第1の対応関係と前記第2の対応関係とを用いて、前記環境地図データと前記地図データとのアフィン写像を算出し、
そして、算出した前記アフィン写像に、前記環境地図データ上での座標を入力することによって、前記環境地図データ上での座標を前記地図データ上での座標に変換し、
変換によって得られた座標を、前記地図データ上での前記対象の位置として推定する、
付記5に記載の位置推定方法。
(付記7)
前記移動体が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備え、
前記(a)のステップにおいて、前記周辺状況データとして、前記画素信号から生成された画像データを取得する、
付記5に記載の位置推定方法。
(付記8)
前記移動体が、前記センサとして、周辺に存在する物体までの距離に応じて出力信号の特徴が変化するセンサを備え、
前記(a)のステップにおいて、前記周辺状況データとして、前記出力信号から生成されたデータを取得する、
付記5に記載の位置推定方法。
(付記9)
コンピュータに、
(a)周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、ステップと、
(b)前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、ステップと、
(c)特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、ステップと、
を実行させる、プログラム。
(付記10)
前記(a)のステップにおいて、前記周辺状況データで特定される周辺の環境地図データと前記周辺状況データとの対応関係を、第1の対応関係として特定し、更に、前記周辺状況データを、撮影範囲よりも広い範囲をカバーする前記地図データに照合することによって、前記周辺状況データと前記地図データとの対応関係を、第2の対応関係として特定し、
前記(c)のステップにおいて、
前記第1の対応関係と、前記対象の前記周辺状況データ上での座標とから、前記対象の前記環境地図データ上での座標を特定し、
更に、前記第1の対応関係と前記第2の対応関係とを用いて、前記環境地図データと前記地図データとのアフィン写像を算出し、
そして、算出した前記アフィン写像に、前記環境地図データ上での座標を入力することによって、前記環境地図データ上での座標を前記地図データ上での座標に変換し、
変換によって得られた座標を、前記地図データ上での前記対象の位置として推定する、
付記9に記載のプログラム
(付記11)
前記移動体が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備え、
前記(a)のステップにおいて、前記周辺状況データとして、前記画素信号から生成された画像データを取得する、
付記9に記載のプログラム
(付記12)
前記移動体が、前記センサとして、周辺に存在する物体までの距離に応じて出力信号の特徴が変化するセンサを備え、
前記(a)のステップにおいて、前記周辺状況データとして、前記出力信号から生成されたデータを取得する、
付記9に記載のプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明によれば、移動体から出力されたデータから対象の絶対的な位置を推定することができる。本発明は、野生動物の生態調査、イベント時のヒトの混雑状況等の調査、交通渋滞の調査、不審者等の監視、災害時のヒトの避難状況の把握といった場面に有効である。
10 位置推定装置
11 対応関係特定部
12 座標算出部
13 絶対位置推定部
14 無線通信部
15 地図データベース
20 無人飛行機
21 データ処理部
22 センサ
23 GPS信号受信部
24 推力発生部
25 無線通信部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (9)

  1. 周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、対応関係特定部と、
    前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、座標算出部と、
    特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、絶対位置推定部と、
    を備え
    前記対応関係特定部が、前記周辺状況データで特定される周辺の環境地図データと前記周辺状況データとの対応関係を、第1の対応関係として特定し、更に、前記周辺状況データを、撮影範囲よりも広い範囲をカバーする前記地図データに照合することによって、前記周辺状況データと前記地図データとの対応関係を、第2の対応関係として特定し、
    前記絶対位置推定部が、
    前記第1の対応関係と、前記対象の前記周辺状況データ上での座標とから、前記対象の前記環境地図データ上での座標を特定し、
    更に、前記第1の対応関係と前記第2の対応関係とを用いて、前記環境地図データと前記地図データとのアフィン写像を算出し、
    そして、算出した前記アフィン写像に、前記環境地図データ上での座標を入力することによって、前記環境地図データ上での座標を前記地図データ上での座標に変換し、
    変換によって得られた座標を、前記地図データ上での前記対象の位置として推定する、
    ことを特徴とする位置推定装置。
  2. 前記移動体が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備え、
    前記対応関係特定部が、前記周辺状況データとして、前記画素信号から生成された画像データを取得する、
    請求項に記載の位置推定装置。
  3. 前記移動体が、前記センサとして、周辺に存在する物体までの距離に応じて出力信号の特徴が変化するセンサを備え、
    前記対応関係特定部が、前記周辺状況データとして、前記出力信号から生成されたデータを取得する、
    請求項に記載の位置推定装置。
  4. (a)周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、ステップと、
    (b)前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、ステップと、
    (c)特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、ステップと、
    を備え
    前記(a)のステップにおいて、前記周辺状況データで特定される周辺の環境地図データと前記周辺状況データとの対応関係を、第1の対応関係として特定し、更に、前記周辺状況データを、撮影範囲よりも広い範囲をカバーする前記地図データに照合することによって、前記周辺状況データと前記地図データとの対応関係を、第2の対応関係として特定し、
    前記(c)のステップにおいて、
    前記第1の対応関係と、前記対象の前記周辺状況データ上での座標とから、前記対象の前記環境地図データ上での座標を特定し、
    更に、前記第1の対応関係と前記第2の対応関係とを用いて、前記環境地図データと前記地図データとのアフィン写像を算出し、
    そして、算出した前記アフィン写像に、前記環境地図データ上での座標を入力することによって、前記環境地図データ上での座標を前記地図データ上での座標に変換し、
    変換によって得られた座標を、前記地図データ上での前記対象の位置として推定する、
    ことを特徴とする位置推定方法。
  5. 前記移動体が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備え、
    前記(a)のステップにおいて、前記周辺状況データとして、前記画素信号から生成された画像データを取得する、
    請求項に記載の位置推定方法。
  6. 前記移動体が、前記センサとして、周辺に存在する物体までの距離に応じて出力信号の特徴が変化するセンサを備え、
    前記(a)のステップにおいて、前記周辺状況データとして、前記出力信号から生成されたデータを取得する、
    請求項に記載の位置推定方法。
  7. コンピュータに、
    (a)周辺の状況を検知可能なセンサを備えた移動体から、前記周辺の状況を特定する周辺状況データを取得し、前記周辺状況データと地図データとを比較して、両者の対応関係を特定する、ステップと、
    (b)前記周辺状況データから、位置推定の対象を抽出し、抽出した前記対象の前記周辺状況データ上での座標を算出する、ステップと、
    (c)特定された前記対応関係と算出された前記座標とから、前記地図データ上での前記対象の位置を推定する、ステップと、
    を実行させ
    前記(a)のステップにおいて、前記周辺状況データで特定される周辺の環境地図データと前記周辺状況データとの対応関係を、第1の対応関係として特定し、更に、前記周辺状況データを、撮影範囲よりも広い範囲をカバーする前記地図データに照合することによって、前記周辺状況データと前記地図データとの対応関係を、第2の対応関係として特定し、
    前記(c)のステップにおいて、
    前記第1の対応関係と、前記対象の前記周辺状況データ上での座標とから、前記対象の前記環境地図データ上での座標を特定し、
    更に、前記第1の対応関係と前記第2の対応関係とを用いて、前記環境地図データと前記地図データとのアフィン写像を算出し、
    そして、算出した前記アフィン写像に、前記環境地図データ上での座標を入力することによって、前記環境地図データ上での座標を前記地図データ上での座標に変換し、
    変換によって得られた座標を、前記地図データ上での前記対象の位置として推定する、
    プログラム。
  8. 前記移動体が、前記センサとして、受光した光に応じて画素信号を出力する撮像素子を備え、
    前記(a)のステップにおいて、前記周辺状況データとして、前記画素信号から生成された画像データを取得する、
    請求項に記載のプログラム。
  9. 前記移動体が、前記センサとして、周辺に存在する物体までの距離に応じて出力信号の特徴が変化するセンサを備え、
    前記(a)のステップにおいて、前記周辺状況データとして、前記出力信号から生成されたデータを取得する、
    請求項に記載のプログラム。
JP2017532281A 2015-08-03 2015-08-03 位置推定装置、位置推定方法、及びプログラム Active JP6529098B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/071981 WO2017022057A1 (ja) 2015-08-03 2015-08-03 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2017022057A1 JPWO2017022057A1 (ja) 2018-05-24
JP6529098B2 true JP6529098B2 (ja) 2019-06-12

Family

ID=57942546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017532281A Active JP6529098B2 (ja) 2015-08-03 2015-08-03 位置推定装置、位置推定方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6529098B2 (ja)
WO (1) WO2017022057A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170213A (ja) 2019-04-01 2020-10-15 株式会社スカイマティクス ドローン作業支援システム及びドローン作業支援方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006281830A (ja) * 2005-03-31 2006-10-19 Yamaha Motor Co Ltd カメラの視点表示システム
TWI438728B (zh) * 2012-04-25 2014-05-21 Hon Hai Prec Ind Co Ltd 交通流量管控系統及方法
US9063544B2 (en) * 2012-09-19 2015-06-23 The Boeing Company Aerial forest inventory system
JP2015131713A (ja) * 2014-01-15 2015-07-23 パイオニア株式会社 管理システム、飛行制御方法、飛行制御プログラム及び記録媒体

Also Published As

Publication number Publication date
JPWO2017022057A1 (ja) 2018-05-24
WO2017022057A1 (ja) 2017-02-09

Similar Documents

Publication Publication Date Title
US10949712B2 (en) Information processing method and information processing device
Wang et al. Detecting and tracking vehicles in traffic by unmanned aerial vehicles
Carrio et al. Drone detection using depth maps
JP6029446B2 (ja) 自律飛行ロボット
US11822341B2 (en) Control device, control method, and mobile object to estimate the mobile object&#39;s self-position
US11725940B2 (en) Unmanned aerial vehicle control point selection system
US10021254B2 (en) Autonomous vehicle cameras used for near real-time imaging
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
JP2012163495A (ja) センサ統合システム及びセンサ統合方法
JP2016173709A (ja) 自律移動ロボット
EP3989034B1 (en) Automatic safe-landing-site selection for unmanned aerial systems
CN112379681A (zh) 无人机避障飞行方法、装置及无人机
US10109074B2 (en) Method and system for inertial measurement having image processing unit for determining at least one parameter associated with at least one feature in consecutive images
US11047690B2 (en) Automated emergency response
JP2016181177A (ja) 自律移動ロボット
Kakillioglu et al. 3D sensor-based UAV localization for bridge inspection
JP6529098B2 (ja) 位置推定装置、位置推定方法、及びプログラム
JP2019075037A (ja) 情報処理装置、情報処理方法、およびプログラム
Figueira et al. MISSION-ORIENTED SENSOR ARRAYS AND UAVs–A CASE STUDY ON ENVIRONMENTAL MONITORING
Baeck et al. Drone based near real-time human detection with geographic localization
Kim et al. Detecting and localizing objects on an unmanned aerial system (uas) integrated with a mobile device
JP2019179529A (ja) 管制装置
KR102515245B1 (ko) 무인 비행체의 분실을 방지하는 방법 및 장치
Chen et al. Person identification system for UAV
US20240140437A1 (en) Object based vehicle localization

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190509

R150 Certificate of patent or registration of utility model

Ref document number: 6529098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150