JPH07200777A - 移動体における位置推定方法 - Google Patents

移動体における位置推定方法

Info

Publication number
JPH07200777A
JPH07200777A JP5335665A JP33566593A JPH07200777A JP H07200777 A JPH07200777 A JP H07200777A JP 5335665 A JP5335665 A JP 5335665A JP 33566593 A JP33566593 A JP 33566593A JP H07200777 A JPH07200777 A JP H07200777A
Authority
JP
Japan
Prior art keywords
region
error
configuration
environment
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5335665A
Other languages
English (en)
Inventor
Haruo Takeda
晴夫 武田
Shinichiro Miyaoka
伸一郎 宮岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5335665A priority Critical patent/JPH07200777A/ja
Publication of JPH07200777A publication Critical patent/JPH07200777A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 予め与えられた環境マップと、環境センサに
よる観測データを基に、高い精度で移動体の推定位置の
最尤推定結果を得ることを可能とする、移動体における
位置推定方法を提供すること。 【構成】 環境マップと、環境センサにより環境内の複
数の方向にそれぞれ最も近い障害物までの距離を計測し
たデータと、同じ領域内では前記光線と障害物との対応
関係が等しくなるように、前記移動体のコンフィギュレ
ーション空間を分割した領域データが与えられたとき、
各領域単位に、前記計測データと環境マップとのマッチ
ング誤差が最小となる領域内誤差最小コンフィギュレー
ションを計算し、これら複数の最小コンフィギュレーシ
ョンの誤差の値のうち最も小さい値に対応する全域的誤
差最小コンフィギュレーションを求めることを特徴とす
る移動体における位置推定方法。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は移動体における位置推定
方法に関し、特に、予め与えられた環境マップと、環境
センサによる計測データを基に自らの位置を推定する、
移動体における位置推定方法に関する。
【0002】
【従来の技術】従来、工場や一般オフィス内での自律型
移動ロボット,一般家庭内での自動移動掃除機,屋外の
自動運転自動車など、環境マップを先見知識とする移動
体のナビゲーションを実現するためには、環境センサに
よる観測データと、予め与えられている環境マップとか
ら、移動体の位置推定を如何に正確に行うかが基本的課
題となる。移動体の環境は、一般に可視グラフ、ボロノ
イ図など計算幾何学的手法(例えば、文献:Herbert E
delsbrunner, “Algorithms in CombinatorialGeome
try”Springer-Verlag, 1987 参照)の容易さなどの理
由から、2次元平面の線分の集合で記述されることが多
い。一方、環境センサは、放射方向に複数の光線を持
ち、各光線に沿って最も近い障害物までの距離を計測す
る距離センサの集合で、通常モデル化できる。このと
き、上述の位置推定問題は、観測距離の組と環境マップ
の線分の集合との誤差が小さくなるような、移動***置
とセンサ方向を求めるパターンマッチング問題に帰着す
る。
【0003】このようなマッチングで、従来、代表的な
方法として、例えば、文献:HaruoTakeda and Jean-
Claude Latombe, “Sensory Uncertainty Field f
orMobile Robot Navigation,”IEEE Internati
onal Conference onRobotics and Automation, Nic
e, France, pp.2465-2472, 1992 に記述されている方
法がある。この方法は、まず、観測点の列から直線を構
成すると考えられる点の部分集合を選び、各部分集合に
最小2乗法を用いて直線を当てはめ、更に、各直線が矛
盾なく環境マップに合致する対応を求めることによって
マッチングを実現する方法である。
【0004】
【発明が解決しようとする課題】点列に直線を当てはめ
る方法としての、上記従来技術に示した最小2乗法は、
直線の法線方向への観測データの誤差が正規分布に従う
場合に、その観測値の同時確率分布を最大とする最尤推
定直線を与える。但し、上述の2ステップからなる従来
技術では、前段のステップで考慮された推定直線と観測
点列の垂直距離誤差の2乗和を、後段のステップにおい
て直線の組と環境マップの線分の組とのマッチングの誤
差に反映することができなかった。また、観測点の列か
ら1本の直線を構成する点の部分集合を選択する処理
に、マッチングの誤差を反映するのが困難であった。こ
のため、得られる移動体の推定位置は、一般に最尤推定
結果とはならず、移動体の正確なナビゲーションに支障
を生じていた。本発明は上記事情に鑑みてなされたもの
で、その目的とするところは、従来の技術における上述
の如き問題を解消し、移動体の推定位置の最尤推定結果
を得ることを可能とする、移動体における位置推定方法
を提供することにある。
【0005】
【課題を解決するための手段】本発明の上記目的は、環
境マップと、環境センサにより環境内の複数の方向にそ
れぞれ最も近い障害物までの距離を計測したデータと、
同じ領域内では前記光線と障害物との対応関係が等しく
なるように、前記移動体のコンフィギュレーション空間
を分割した領域データが与えられたとき、各領域単位
に、前記計測データと環境マップとのマッチング誤差が
最小となる領域内誤差最小コンフィギュレーションを計
算し、これら複数の最小コンフィギュレーションの誤差
の値のうち最も小さい値に対応する全域的誤差最小コン
フィギュレーションを求めることを特徴とする移動体に
おける位置推定方法によって達成される。
【0006】
【作用】本発明に係る移動体における位置推定方法にお
いては、移動体は、環境センサによって環境内の複数の
方向にそれぞれ最も近い障害物までの距離を計測して得
られたデータが与えられると、同じ領域内では光線と障
害物との対応関係が等しくなるように移動体のコンフィ
ギュレーション空間を分割した領域単位に、前記計測デ
ータと仮定した移動体のコンフィギュレーションとか
ら、環境マップとのマッチング誤差を計算して、前記各
領域内で上述のマッチング誤差が最小となる移動体のコ
ンフィギュレーションを探索し、このようにして得られ
た複数の領域内誤差最小値の中で最も小さい値に対応す
るコンフィギュレーションを求める全域的誤差最小コン
フィギュレーションを選択することによって移動***置
を推定する。
【0007】
【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。図1は、本発明に係る移動***置推定環境
の一例を示すものである。図において、1は移動体であ
り、環境のセンサ2を装備している。また、3〜7は環
境内に存在する物体(障害物)、8は目標を示している。
このような環境内で、例えば、移動体1を、物体3〜7
に衝突することなく、また、自らの位置を見失うことな
く目標8まで導く場合などに、与えられたセンサデータ
から、各時点での移動体の位置を正確に推定することが
必須となる。図2は、上述のようなセンサ2を装備した
移動体1の具体的構成例を示すものである。この例で
は、センサ2は、環境内の物体に対して水平平面光線を
放射する光源2aと、このような平面光線が物体上に作
る線Lを観測するためのカメラ2bから成る。
【0008】カメラ2bで撮像される視野Vにおいて、
直線L位置の、視野高さHに対する相対値を観測するこ
とによって、センサ2と物体との絶対距離を計算するこ
とができる。ここで、このような計算を、特定の間隔で
離散化した各方向について行うことによって、放射方向
の距離データの組を得ることができる。なお、環境まで
の距離センサとしては、超音波や赤外線,レーザ光など
による反射波を観測する方法も、実際に多く用いられて
いる。このようなセンサは、通常、移動体の周囲に放射
方向の光軸を向けて配置されるが、その場合には、本発
明に関しては、上述のカメラセンサと全く同じものとし
て、以下、説明を続けることができる。
【0009】図3は、本発明の一実施例に係る移動***
置推定方法の全体のフローチャートである。本実施例は
大きく2つの処理から成る。すなわち、ステップ10か
ら30は環境のマップが与えられたときに行われる前処
理、ステップ40から60は実際にセンサの計測データ
が与えられたときに行われる位置推定処理である。図3
において、まず、ステップ10で、環境マップが移動体
の情報処理手段に入力される。環境マップは、本実施例
では2次元平面における線分の集合とし、例えば、線分
の始点および終点の2次元座標のリストEj=(Ex1j
Ey1j,Ex2j,Ey2j)、但しj=1,2,・・・・,M
(Mは線分の本数)として表現する。データ入力の手段と
しては、キーボードや通信による直接入力や、データベ
ースなど既に定義されているデータの参照によるもの、
画像認識など他のプログラムからの入力など、様々な形
態が考えられる。ステップ20では離散化した環境の位
置と方向が更新される。
【0010】第k番目の位置と方向を、以下、コンフィ
ギュレーション Qk=(xk,yk,θk)(但しk=1,2,・・・・,K) と書く。ここで、Kは環境内の離散化コンフィギュレー
ションの個数であり、離散化の解像度が細かいほど大き
くなる。xkとykはそれぞれ環境におけるx,yの絶対
座標、θkは環境に固定された座標軸を基準とする方向
を表わす。本ステップでは、例えば、kを初期値を1と
して1づつインクリメントする。ステップ21では、処
理の対象とする光線を更新選択する。以下の説明中で
は、第i番目の光線のセンサの基準方向に対する相対方
向を、θi(但しi=1,2,・・・・,N)とする。なお、
Nは光線の本数を表わす。ステップ22では、センサの
各光線がどの線分と最初に交わるかを計算する。
【0011】なお、この処理は、点(xk,yk)を始点と
し、方向θk+tiに伸びる半直線と交わるすべての線分
について、その交点が最も(xk,yk)に近い線分を選択
することによって実現できる。上述のステップ22をす
べての光線について繰り返し、第kコンフィギュレーシ
ョンにおける光線と線分の対応関係を求め、更に、この
処理をすべてのkについて繰り返すことによって、コン
フィギュレーションQkと 光線iに対する可視線分番号
jの関数、すなわち、j=f(k,i)を求めることがで
きる。前処理の最終ステップ30では、このような対応
関係がすべての光線について等しくなるようなコンフィ
ギュレーションを連結し、コンフィギュレーション空
間、すなわち、位置方向の3次元空間を領域分割する。
【0012】後に詳述するように、このとき、各領域上
の任意の2点はQkの近傍を QNk={k’|‖Qk’−Qk‖≦‖(Dx,Dy,Dt)
‖,k’≠k} (但し、Dx,Dy,Dtはそれぞれx,y,θの解像
度、‖‖はベクトルの最大値ノルム(‖(x,y,z)‖
=max(|x|,|y|,|z|)) と定義するとき、このような近傍のみへの移動によって
到達可能なもの) すなわち、各領域が連結であるように分割する。連結領
域ラベリングは画像処理の基本的処理であり、その具体
的アルゴリズムは、例えば、文献:武田晴夫「MR符号
からの画像連結成分ラベリング」電子情報通信学会論文
誌D-II,1993年11月などに記述されている。
【0013】次に、実際のセンサ計測データが与えられ
たときに、上述の領域分割結果を利用して、移動***置
を推定する方法について説明する。ステップ40で処理
対象の光線を更新選択し、ステップ41で距離データを
前述の情報処理手段に獲得する。距離データは、第i番
目の光線の方向で最も近い線分までの距離riで表現す
る。この値には 誤差が含まれている。以下、この距離
データの組と上記線分データとのマッチングの処理を、
上で予め求めた領域単位に行う。具体的には、まず、ス
テップ50で領域の更新を行う。これは、例えば、上記
領域ラベリング結果のラベルの順序に、選択する領域の
ラベル番号を順次更新すればよい。
【0014】次に、ステップ51では、後に詳述するよ
うに、所定の初期コンフィギュレーションから、所定の
手続きによって位置決めの候補となるコンフィギュレー
ションが順次更新される。ステップ52では、更新され
たコンフィギュレーションにおいて上記ステップ22と
同様にして各光線と可視線分の交点を求め、これとステ
ップ40で獲得した観測データとの誤差を求める。誤差
の定義についても、後に詳述する。このように、ステッ
プ51,52をその領域内で誤差が最小値になるまで繰
り返し、領域内で観測データと環境が最もマッチする位
置を求める。この処理を、ラベルを付された全領域につ
いて行い、ステップ60ですべての領域内最小値のうち
最も小さい値を選択し、これに対応する位置データを全
域的最小値としてこのセンサ位置すなわち移動体の位置
と推定する。以上の40から60のステップは、必要に
応じて何回でも繰り返すことができる。
【0015】以上の処理を、更に、詳しく説明する。図
4に、以下の説明で必要となる記号の定義を示す。図に
おいて、Oは環境マップの原点、(x,y)はセンサ位置
を表わす。また、R1からR4はセンサの光線であり、
(x,y)を中心に反時計回りのインデクス1−4が付さ
れている。光線本数Nは、ここでは4である。まず、最
小インデクスを持つ光線R1の方向を センサの基準方向
θと定める。θは環境に定義された 絶対座標系x,y
に関する絶対方向とする。基準光線R1に対する第i光
線Riの相対方向をtiとする。従って、第i光線の絶対
方向はθ+tiとなる。また、環境に存在する第j線分
は、以下の説明の都合上 特に線分を問題にしない場合
には、以下、直線(ρj,αj)として扱う。ここに、ρj
は 原点Oから第j線分に下した垂線の長さ、αjは そ
の垂線の環境に対する方向を表わす。
【0016】初等数学で周知のように、線分端点(Ex
1j,Ey1j)と(Ex2j,Ey2j)の間には、 (Ey2j−Ey1j) sinαj+(Ex2j−Ex1j) cosαj
0 および ρj{(Ey2j−Ey1j) cosαj−(Ex2j−Ex1j) sin
αj}=Ex1jEy2j−Ex2jEy1j なる関係が存在する。次に、ステップ30で行われる位
置(x,y)および方向θの3次元空間の分割について
説明する。図5は、分割された3次元空間を、ある平面
θ=c(cは定数)で切断した 切り口を表わす。本例で
は、環境は太線で示されるE1からE5の5本の線分から
構成される。環境センサは破線で示されるR1からR4
での4本の光線から成る。特に 本図は、θ=0すなわ
ちセンサの基準方向である光線R1の方向が、x軸に一
致する空間の断面を示している。
【0017】例えば、このような姿勢にあるセンサが、
図の円で示される位置に存在する場合には、光線R4
1からは、それぞれ、線分E3、E3、E5、E2が可視
状態となる。この状態を4次元ベクトル(3,3,5,
2)と書くことにする。状態ベクトルが同一となる領域
で、本空間を分割すると、その領域境界は、図中に細い
実線で示されるものとなる。各領域に付された4次元ベ
クトルは、その領域中における上記姿勢のセンサの光線
と線分との対応を示す。例えば、上部の領域(3,3,
3,2)に上記姿勢のセンサが置かれれば、領域内の位
置に係らず、光線R4からR1からは、それぞれ線分
3,E3,E3,E2が可視状態となる。このような分割
は、各線分の端点から各光線方向を反転した方向に半直
線を開始し、これがいずれかの線分にあたるまで伸ばす
ことによって求めることができる。
【0018】このような分割は、実際には上述のよう
に、離散化したコンフィギュレーション空間での上記N
次元状態ベクトルの連結領域をラベリングすることによ
って求める。更に、ステップ30では各領域の代表点と
して、同じラベルを持ち、かつ連結した領域の重心を求
める。ここで、x,yについては平均値、θについては
単位方向ベクトルの総和の方向を重心の座標とする。図
6に、このようにして計算した各領域の重心を示す。こ
こに示す例では、四角形環境の中で始終点座標を乱数に
よって発生し、総計10本の線分から成る環境を作成
し、その中で領域分割を行った結果を示す。図中の各短
ベクトルが重心の位置方向を示す。位置または方向の小
さな動きに対して可視線分の組合せが変化する位置では
ベクトルが密、すなわち、領域が細かく分割される。こ
れらのベクトルは、領域内最小値探索においてステップ
51の位置方向の初期値として利用される。
【0019】次に、ステップ52で行われるマッチング
誤差の計算方法について説明する。コンフィギュレーシ
ョン(x,y,θ)にあるセンサの第i光線が、当該領域
で見る線分の番号をji、センサ誤差がない場合の第i
光線のセンサ計測距離をr0iとすると、 r0i=|{ρjx cosαj−y sinαj}/cos(θ+ti−αj)}| ・・・・(1) となる。これは、一般に2本の直線 x cosα+y sinα=ρ および y−b=(x−a) tanθ の交点が x={ρ−b sinα+a sinα tanθ}/{cosα+sinα tanθ} y={ρ−b sinα−a cosα}tan θ/{cosα+sinα tanθ}+b であるから、点(a,b)と上記交点との距離は |{ρ−a cosα−b sinα}/cos(θ−α)| となることからただちに導くことができる。
【0020】ここで、第i光線のセンサ計測距離をri
とするとき、計測距離と上記真の距離の誤差を と定義する。これは計測距離と真の距離の差を真の距離
で正規化したものの2乗和であり、多くのセンサの特性
に合致したものである。上式に(1)を代入することによ
って、 を得る。ステップ50で領域を与えられることによって
iが一意に決まり、環境マップからαjとρjが決定す
る。
【0021】ステップ51で、位置(x,y)および方向
θが与えられる。従って、ステップ52では、上記pの
値を計算することができる。図7に、誤差の値の分布を
示す。図において、4本の放射線が、真のセンサのコン
フィギュレーションを示す。また、破線はコンフィギュ
レーション空間における領域の境界を示す。濃いグレー
で示される部分が誤差が小さい部分、淡いグレーで示さ
れる部分が誤差が大きい部分を示す。上記pの領域内の
最小値は、ステップ51で位置,方向を、例えば次のよ
うに更新することによって探索する。ステップ50で領
域が与えられると、ステップ30で計算された領域重心
(図6参照)を初期値として、探索を開始する。初期値
(x0,y0,θ0)に対してp(x0,y0,θ0)の値ととも
に、その点での偏微分 k=∂p/∂x| x=x0 および h=∂p/∂y| y=y0 の値を計算する。
【0022】次に、θ=θ0において、2次元ベクトル
(h,k)方向に その領域の境界Qa0および、Qb0を求
める。これは、図8に示すように、その領域において、
各光線が、それぞれの可視線分の端点を通る位置に平行
移動したときの、(x,y)の値(図では線分Ejと光線
Riの組(Ej,Ri)で示される区間で表示)のうち、最
も内側の位置(上記各区間の共通部分でハッチングを施
した区間)を求めることによって得ることができる。こ
こで求めたQaとQbの区間で、(x0,y0)を初期値とす
るベクトル(h,k)方向の1次元の最小値探索を行う。
1次元の関数の最小値探索のアルゴリズムとしては、例
えば、広く知られているBrentの方法(W.Press, B.
Flannery, S.Teukolsky, W.Vetterling,“Numeri
cal Recipes in C” Cambridge University Pres
s, pp.299-302,1988)を利用することができる。
【0023】次に、ここで求めた最小点(x1,y1)に対
して、θ方向の最小値探索を行う。まず、点(x1,y1)
において、θ方向の、その領域の境界QcおよびQdを
求める。これは、図9に示すように、その領域において
各光線がそれぞれの可視線分の端点を通る位置に回転移
動したときの θの値(図では線分Ejと光線Riの組
(Ej,Ri)で示される円周上の区間で表示)のうち、も
っとも内側の位置(上記各区間の共通部分でハッチング
を施した区間)を求めることによって 得ることができ
る。ここで求めたQcとQdの区間で、θ1=θ0を初期
値とするθ方向の1次元の最小値探索を行う。本1次元
探索にも、上と同じアルゴリズムを用いることができ
る。
【0024】以下ステップ51で、(x,y)方向の最小
値探索とθ方向の最小値探索を交互にくり返しながら、
領域内の最小点を求める。ステップ53では、上述の、
引き続く2回の1次元の最小値探索において、いずれの
探索においても初期値から最小値までの移動距離がある
しきい値よりも小さい場合に、最小値に到達したと判定
する。図10に、実際のパターンマッチングの過程の例
を示す。利用した環境は、図6に示すものと全く同じも
のである。(a)は観測距離に誤差が全く含まれない場合
の1例である。 Q0が領域重心(初期値)、Q1が最初の
探索処理結果、QGがマッチング最終結果であり、各1
次元探索結果の(x,y,θ)に観測結果をマッピングし
た4本の光線の状態を、マッチングの途中経過として示
している。
【0025】QGの最終結果における各観測点がそれぞ
れの線分に完全に一致していることが示されている。
(b)は誤差をもつ観測データに対するマッチング結果の
1例を示す。誤差をもつデータは、観測距離に 真の長
さの0.1倍の標準偏差をもつ正規乱数を加えることに
よって生成した。本マッチング結果は、上記(2)の基準
を最小にする最適なものと言える。また、(c)は複数の
結果が存在するケースを示しており、2つの最小点に対
して2つの領域で行われた探索結果が異なる点の同じ最
小値に到達することを示している。(d)は4本の光線が
それぞれ異なる4つの線分に対応するケースを示してい
る。
【0026】上記実施例によれば、光線と線分の対応が
同一であるようなコンフィギュレーションのクラス単位
にマッチングの誤差が最小となるような点を求め、これ
を可能性のあるすべての光線と線分の対応について行っ
て、全域的な最小値を求めるので、各光線の計測誤差の
同時確率分布を最小とする移動***置の最尤推定が可能
となり、精度の高い移動***置推定が実現できる効果が
ある。なお、上記実施例は本発明の一例を示したもので
あり、本発明はこれに限定されるべきものではないこと
は言うまでもないことである。例えば、上述の実施例で
は、コンフィギュレーション空間の分割データを環境マ
ップから自動的に生成したが、これは、環境マップから
手計算によってキーボードから与えても、以下の位置推
定の処理を全く同様に行うことができる。
【0027】また、以上の処理を行う情報処理手段は、
必ずしも移動体上に物理的に装着されている必要はな
く、例えば、無線モデムによって移動体自身とは論理的
に接続された遠隔のコンピュータにあってもよい。更
に、上記実施例においては2次元平面の環境マップと、
3次元の移動体コンフィギュレーションを前提とした
が、これを、3次元空間の環境マップと4次元以上のコ
ンフィギュレーションを前提とする移動体に適用するこ
とも、同様にして可能である。なお、本実施例では、環
境の障害物は線分に限ったが、これを任意の形状の障害
物に拡張することができる。また、以上の実施例では3
次元コンフィギュレーション空間の分割を、離散化して
求めた空間の点のラベルを連結成分ラベリング手法によ
って統合する手続きによって行ったが、これを逆に各線
分の端点から逆光線方向に分割線を発することによっ
て、解析的に求めることもできる。
【0028】また、連結領域であっても、図11に示す
ように領域内極小点を複数生じる場合が存在するので、
領域形状の判定結果に基づいて領域を細分割し、特殊な
状況を解消することができる。また、分割された領域の
代表点、すなわち、前述のステップ50における初期値
は、必ずしも各領域の重心である必要はなく、領域内の
任意の点に設定しても、同様のマッチング結果を得るこ
とができる。従って、領域の代表点は、光線と線分のす
べての対応関係について、そのような各状態を実現可能
なコンフィギュレーションの探索を行うことによって、
より完全な領域分割を行うことができる。また、本実施
例では、マッチングの誤差を式(1)に従って定義した
が、これを通常の最小2乗法で用いられる誤差、すなわ
ち、線分からデータ点までの垂直距離の2乗和で定義し
ても、以下、全く同様にして、この基準での最適なマッ
チング結果を得ることができる。
【0029】また、本実施例では、最小値の探索におい
て、各1次元探索で境界を求めてチェックを行ったが、
探索の終了条件などの設定方法によっては、あらかじめ
境界を求めておくことによって処理を効率化できる場合
もある。更に、本実施例では、ステップ50ではすべて
の領域について探索を行うように領域を更新したが、実
際の移動体のナビゲーションでは過去の位置姿勢の履歴
や、制御コマンド情報を利用して、デッドレコニング手
法や、カルマンフィルタ手法などにより、環境センサ情
報以前に、ある程度の位置方向の情報が得られる場合が
多い。このような場合には、得られた位置方向情報の特
定の周囲のみの領域を探索することによって、計算時間
を大幅に短縮することが可能である。
【0030】
【発明の効果】以上、詳細に説明した如く、本発明によ
れば、移動体の推定位置の最尤推定結果を得ることを可
能とする、移動体における位置推定方法を実現できると
いう顕著な効果を奏するものである。
【図面の簡単な説明】
【図1】本発明に係る移動***置推定環境の一例を示す
図である。
【図2】実施例に係る移動体の具体的構成例を示す図で
ある。
【図3】実施例に係る移動体の位置推定方法の全体フロ
ーチャートである。
【図4】記号の定義を示す図である。
【図5】3次元領域分割の1断面を示す図である。
【図6】領域重心の例を示す図である。
【図7】誤差関数の空間分布を示す図である。
【図8】xy平面における領域境界探索を示す図であ
る。
【図9】t方向への領域境界探索を示す図である。
【図10】パターンマッチング実例を示す図である。
【図11】領域内極小点が複数存在する例を示す図であ
る。
【符号の説明】
1 移動体 2 環境のセンサ 3〜7 環境内に存在する物体(障害物) 8 目標 10 環境マップの入力手段 22 光線と線分の対応計算手段 30 3次元コンフィギュレーション空間分割手段 41距離データの獲得手段 52 マッチング誤差の計算手段 60 最小値選択手段
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05D 1/02 K J G06T 7/60

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 予め与えられた複数の障害物から成る環
    境マップと、光線を用いる環境センサによる計測データ
    とを基に自らの位置を推定する、移動体における位置推
    定方法であって、前記環境マップと、前記環境センサに
    より環境内の複数の方向にそれぞれ最も近い障害物まで
    の距離を計測したデータと、同じ領域内では前記光線と
    障害物との対応関係が等しくなるように、前記移動体の
    コンフィギュレーション空間を分割した領域データが与
    えられたとき、各領域単位に、前記計測データと環境マ
    ップとのマッチング誤差が最小となる領域内誤差最小コ
    ンフィギュレーションを計算し、これら複数の最小コン
    フィギュレーションの誤差の値のうち最も小さい値に対
    応する全域的誤差最小コンフィギュレーションを求める
    ことを特徴とする移動体における位置推定方法。
  2. 【請求項2】 前記環境マップは2次元平面で定義さ
    れ、該環境マップにおいて各障害物は前記2次元平面上
    の線分で表現されており、また、前記コンフィギュレー
    ション空間は前記2次元平面上の位置と方向との3次元
    で定義されており、前記領域データは各領域の代表コン
    フィギュレーションの集合であり、前記領域内誤差最小
    コンフィギュレーションは初期値をその領域の代表コン
    フィギュレーションとして、領域境界を超えないようチ
    ェックしながらマッチング誤差を減少する方向へのコン
    フィギュレーションの更新を繰返すことを特徴とする請
    求項1記載の移動体における位置推定方法。
  3. 【請求項3】 同じ領域内では、前記領域データは前記
    環境マップから計算することを特徴とする請求項1また
    は2記載の移動体の位置推定方法。
JP5335665A 1993-12-28 1993-12-28 移動体における位置推定方法 Pending JPH07200777A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5335665A JPH07200777A (ja) 1993-12-28 1993-12-28 移動体における位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5335665A JPH07200777A (ja) 1993-12-28 1993-12-28 移動体における位置推定方法

Publications (1)

Publication Number Publication Date
JPH07200777A true JPH07200777A (ja) 1995-08-04

Family

ID=18291147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5335665A Pending JPH07200777A (ja) 1993-12-28 1993-12-28 移動体における位置推定方法

Country Status (1)

Country Link
JP (1) JPH07200777A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092647A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 情報呈示システム及びモデル誤差検出システム
KR100866380B1 (ko) * 2007-02-13 2008-11-03 한국과학기술연구원 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법
JP2009190164A (ja) * 2008-02-15 2009-08-27 Korea Inst Of Scinence & Technology 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法
JP2011210183A (ja) * 2010-03-30 2011-10-20 Shimizu Corp 移動***置検出システムおよび方法
KR101240181B1 (ko) * 2008-11-10 2013-03-07 한국전자통신연구원 이동 로봇의 안전경로 생성 방법 및 장치
CN112130166A (zh) * 2020-09-04 2020-12-25 江苏智库智能科技有限公司 基于反光板网络的agv定位方法及装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092647A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 情報呈示システム及びモデル誤差検出システム
KR100866380B1 (ko) * 2007-02-13 2008-11-03 한국과학기술연구원 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법
JP2009190164A (ja) * 2008-02-15 2009-08-27 Korea Inst Of Scinence & Technology 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法
US8024072B2 (en) 2008-02-15 2011-09-20 Korea Institute Of Science And Technology Method for self-localization of robot based on object recognition and environment information around recognized object
KR101240181B1 (ko) * 2008-11-10 2013-03-07 한국전자통신연구원 이동 로봇의 안전경로 생성 방법 및 장치
JP2011210183A (ja) * 2010-03-30 2011-10-20 Shimizu Corp 移動***置検出システムおよび方法
CN112130166A (zh) * 2020-09-04 2020-12-25 江苏智库智能科技有限公司 基于反光板网络的agv定位方法及装置
CN112130166B (zh) * 2020-09-04 2023-11-28 江苏智库智能科技有限公司 基于反光板网络的agv定位方法及装置

Similar Documents

Publication Publication Date Title
Cox Blanche: Position estimation for an autonomous robot vehicle
Olson Probabilistic self-localization for mobile robots
KR101202695B1 (ko) 자율 이동 장치
Drumheller Mobile robot localization using sonar
US6442476B1 (en) Method of tracking and sensing position of objects
US6639553B2 (en) Passive/ranging/tracking processing method for collision avoidance guidance
JP5800613B2 (ja) 移動体の位置・姿勢推定システム
JP5016399B2 (ja) 地図情報作成装置及びそれを備えた自律移動装置
CN109459039A (zh) 一种医药搬运机器人的激光定位导航***及其方法
CN111678516B (zh) 一种基于激光雷达的有界区域快速全局定位方法
Cho et al. Map based indoor robot navigation and localization using laser range finder
Gonzalez et al. A mobile robot iconic position estimator using a radial laser scanner
Johnson et al. 3-D object modeling and recognition for telerobotic manipulation
JPH07200777A (ja) 移動体における位置推定方法
Donoso-Aguirre et al. Mobile robot localization using the Hausdorff distance
D'Orazio et al. Mobile robot position determination using visual landmarks
Reina et al. A two-stage mobile robot localization method by overlapping segment-based maps
Stella et al. Self-location of a mobile robot by estimation of camera parameters
Cupec et al. Global localization based on 3d planar surface segments
Dudek et al. Model-based map construction for robot localization
Bang et al. Sensor-based local homing using omnidirectional range and intensity sensing system for indoor mobile robot navigation
JPH06259131A (ja) 移動ロボットの誘導制御装置
Bixler et al. A sensory input system for autonomous mobile robots
Martínez Mobile robot self-localization by matching successive laser scans via genetic algorithms
El Amin et al. Development of adaptive line tracking breakpoint detection algorithm for room sensing using LiDAR sensor