JP2839281B2 - 移動体の自己定位方法 - Google Patents

移動体の自己定位方法

Info

Publication number
JP2839281B2
JP2839281B2 JP1081029A JP8102989A JP2839281B2 JP 2839281 B2 JP2839281 B2 JP 2839281B2 JP 1081029 A JP1081029 A JP 1081029A JP 8102989 A JP8102989 A JP 8102989A JP 2839281 B2 JP2839281 B2 JP 2839281B2
Authority
JP
Japan
Prior art keywords
marker
markers
self
localization
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1081029A
Other languages
English (en)
Other versions
JPH02259912A (ja
Inventor
弘之 大西
剛 山下
良夫 木下
和彦 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP1081029A priority Critical patent/JP2839281B2/ja
Publication of JPH02259912A publication Critical patent/JPH02259912A/ja
Application granted granted Critical
Publication of JP2839281B2 publication Critical patent/JP2839281B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 発明の目的; (産業上の利用分野) この発明は移動ロボット等の移動体の自己定位方法に
関し、特に出発地及び目的地が与えられたとき、移動体
が内蔵している環境モデルより移動ルートを生成し、視
覚センサからの入力情報と環境モデルとの対応づけによ
り移動体の位置,姿勢を計算するようにした自己定位方
法に関する。
(従来の技術) 地上を動く移動体は、通常車輪の回転やステアリング
角を検出して累積計算することにより、自己の移動距離
や方向の変化を計測している。これはデッドレコニング
と称され、移動体が自己の現在位置を知る上で基本とな
るものであるが、誤差が累積して行くという致命的な問
題を有する。
このため、移動体は何らかの方法で環境を計測して現
在位置を知り、上記デッドレコニングによる計測値を補
正する必要がある。そのための手段としては、環境
(地上)側に移動体のための目印や灯台を設置する方
法、環境に既存している特徴点を目印に利用する方法
がある。しかし、前者の方法では特に目印や灯台を設
置しなければならない煩雑さがあり、後者の方法が望
ましい。
(発明が解決しようとする課題) 後者の方法を採用するためには視覚センサ等によっ
て大量の情報を移動体に入力し、それを処理して位置確
認に必要な情報を抽出する必要がある。このような自己
定位法として、第25回 自動制御連合講演会で発表(昭
和57年11月)された“カルマンフィルタによる移動ロボ
ットの位置推定”(中村達也,上田 実)があるが、偏
差に関する状態方程式と観測方程式とを用いており、こ
の2つの方程式はモデル化されたものであり、現実のも
のとはギャップがあり過ぎて適用は困難である。また、
第4回 日本ロボット学会学術講演会(昭和61年12月15
〜17日)の“単眼自立ロボットのためのある位置決め問
題”(杉原厚吉)は組合せのみに着眼しており、撮像手
段の画像からの抽出については未解決であり、また組合
せの爆発が起こる可能性がある。
この発明は上述のような事情よりなされたものであ
り、この発明の目的は、移動体が移動する環境をコンピ
ュータグラフィックスによるモデルを用いて表現し、移
動体の車輪に取付けたセンサの情報からカメラ視点の位
置,姿勢を拘束してコンピュータグラフィックス手法を
用いて予測情報を生成し、この生成された予測情報を利
用して画像処理を行ない、誤差が累積しないようにした
移動体の自己定位方法を提供することにある。
発明の構成; (課題を解決するための手段) この発明は移動ロボット等の移動体の自己定位方法に
関するもので、この発明の上記目的は、予め障害物の位
置を記憶させた環境モデルファイルを用意し、移動体が
所定距離進んだとき、前記移動体に設けられた移動量検
出手段の出力によりその地点を推定し、その推定地点か
らある誤差範囲の領域を設定し、その領域内の各点から
前記移動体に設けられた撮像手段が捉えるであろう予測
画像を前記環境モデルファイルからコンピュータグラフ
ィックス手法を用いて各々生成し、生成された各予測画
像上で前記環境モデルの障害物の特徴要素であるマーカ
を抽出しマーカの存在する領域を求め、この求められた
領域を前記撮像手段からの入力画像中に当てはめてその
領域からのみ実際のマーカの抽出を行ない、前記環境モ
デルのマーカと抽出されたマーカとを対応づけて自己定
位を行なうことによって達成される。
(作用) 移動ロボットの機能としては、環境において自己の位
置,姿勢を同定する機能が必須となる。ガスレートジャ
イロ、ロータリエンコーダ等のセンサを用いて位置,姿
勢を同定する方法では誤差が累積するため適当な補正が
必要となる。そのために、環境から画像情報を入力し、
何等かの特徴をロボットに内蔵している環境モデルと照
合することにより、自己の位置,姿勢を同定する方法が
有効である。ここにおいて、ロボットが移動する環境と
して、(1)環境は既知であり多面体世界である、
(2)床面は平坦であると仮定し、人工的な環境におい
ては上記仮定(1)及び(2)は実用性を大きく制限す
るものではない。以上の仮定のもとで、この発明ではロ
ボットが移動する環境を多面体で表現し、マーカ(たと
えば垂直エッジ)を自己定位のための標識としている。
この発明では、ロボットが移動する空間についての知
識を環境モデルとして内蔵し、位置,姿勢は3個のマー
カから計算する。ここで、問題となるのは入力画像から
のマーカの抽出と、抽出されたマーカと、環境モデル中
のマーカとの対応づけであるが、この発明ではロボット
に取付けたロータリエンコーダの出力によりカメラ視点
の位置,姿勢をある範囲に拘束することでこれを解決し
ている。つまり、視点の位置,姿勢をある範囲内に拘束
することにより、入力画像中でマーカが存在する領域
(以後、ウインドウとする)をコンピュータグラフィッ
クスの手法で生成し、このウインドウを用いて入力画像
を処理してマーカの抽出を行なう。この場合の特徴とし
てトップダウンの画像処理が挙げられる。ウインドウを
用いることで、ウインドウ内には必ずマーカが1個存在
すると仮定できるので、画像処理をトップダウンで行う
ことが可能となり、マーカの抽出が容易となるのであ
る。他の特徴として簡単な対応づけがあり、ウインドウ
を生成した段階で環境モデルとの対応づけが行われてい
る。各マーカに対するウインドウが重ならない場合に
は、抽出したマーカと環境モデル中のマーカとが一意に
対応する。また、ウインドウが重なる場合には、抽出し
たマーカに対して環境モデル中のマーカが複数個対応す
る。抽出したマーカに対する複数個の対応候補について
は、検証により簡単に誤対応を防止するようになってい
る。
(実施例) この発明では第1図に示すように環境情報の入力手段
として1台のCCDカメラ(イメージセンサ)1を搭載
し、車輪2に取付けたロータリエンコーダによって移動
量を計測でき、自己定位と移動を繰返しながら目的地へ
到達する移動ロボット3を考える。移動ロボット3は環
境からCCDカメラ1を介して第2図に示すような画像情
報を入力する。この場合、移動する床面は平坦で、移動
は第3図に示すようにX,Y方向の並進成分とZ軸回りの
回転成分だけとする。ロボット3が移動する環境は第4
図に示す如く既知であって多面体世界であり、第5図に
示す如く出発地SPから目的地GPまでのルートを自動生成
し、出発地SPにおいてロボット3は定位されている。ロ
ボット3はルート上のサブゴールP1〜P5で自己定位を行
ないながら目的地GPまで進み、障害物4,5,6を避けるよ
うにしてルートを生成する。
尚、障害物とは、環境内に存在している物体のことを
意味する。
ここで、自己定位の基本的な考え方を説明する。簡単
のために第6図に示す如く自己定位と移動を繰返して1
次元空間を出発地Sから目的地Gへ移動するロボットを
想定し、移動中の任意の地点Pと任意の地点Qについて
考える。先ず地点Pで自己定位する。自己定位の誤差に
よりロボットは実際には区間Spに存在している。そし
て、ロボットは地点Pから地点Qへ移動するが、ロボッ
トは地点Pでの自己定位の誤差とロータリエンコーダで
求めた移動量の計測誤差とで、区間Sq′に存在している
可能性が大きい。地点Qで自己定位すると、自己定位の
誤差によりロボットは実際には区間Sqに存在している。
このように地点Qで区間Sq′を設定できれば視点の拘束
(後述する)により区間Sqに自己定位ができ、ロータリ
エンコーダの計測誤差はクリアできる。よって、移動量
の計測誤差が累積することはなく、自己定位の誤差で目
的地Gへ到達できるのである。
次に視点の拘束について説明すると、第3図に示す如
くロボット3の位置,姿勢をX,Y方向の並進成分x,yとZ
軸回りの回転成分θとで(x,y,θ)と表現し、移動量を
X,Y方向の並進成分dx,dyとZ軸回りの回転成分dθとで
(dx,dy,dθ)と表現する。視点の拘束を行うために定
位誤差,計測誤差を次のように定義する。先ずロボット
3がある地点(x,y,θ)で自己定位した結果が(x′,
y′,θ′)であったとき、各成分の定位誤差δx,δy,
δθを次の(1)式で定義する。
そして、ロボット3がある地点から(dx,dy,dθ)だ
け移動してロータリエンコーダから求まる移動量が(d
x′,dy′,dθ′)であったとき、各成分の計測誤差Δx,
Δy,Δθを次の(2)式で定義する。
第7図に示すようにロボット3が地点P(xp,yp,
θ)で自己定位した後に(dx,dy,dθ)だけ移動し、
地点Q(xq,yq)へ到達したとする。地点Pでの自
己定位結果とロータリエンコーダから求まる移動量(d
x′,dy′,dθ′)により、ロボットは次の(3)式に示
す範囲に存在することが、(1),(2)式より導かれ
る。
ここで、 である。
ここにおいて、ロボットは移動前の自己定位結果
(xp′,yp′,θ′)と移動量(dx′,dy′,dθ′)を
常時把握しているため、真の現在地(xq,yq)を
(3)式より制限すること、即ち視点がどの範囲にある
かを予測することができ、これを視点の拘束という。
次に、ウインドウ生成のアルゴリズムについて説明す
る。
先ず視点の位置,姿勢を、移動前の自己定位の結果及
び移動量の計測値から前記(3)式を用いて拘束する。
視点の位置,姿勢を第8図(A)の領域VAに示すように
拘束した後に領域内を離散化し(実際には、例えば円VC
に外接する正方形VAをθも用いて求め、その正方形内
の各点を周辺も含めて離散化する。この離散化される点
の数は一定としているので正方形の大きさが変化すれ
ば、各点のピッチが変わることになる。)、離散化した
各地点で視点VPを設定し、その視点VPで環境がどのよう
に見えるかを計算した予測画像をコンピュータグラフィ
ックスの手法を用いて同図(B)のように各視点VP毎に
生成する。なお、第8図(A)のWは世界(絶対)座標
系を示し、Rはロボット座標系を示している。次に、各
視点VPにおける予測画像中のマーカ(たとえば垂直エッ
ジ)に注目してウインドウを形成する。環境モデルファ
イル中のマーカをL,予測画像上でのマーカをL′とする
と、第8図(B)の予測画像例ではマーカL11′…L14
…L1n′とマーカL21′…L24′…L2n′とが存在し、マー
カL11′…L14′…L1n′によって形成されるウインドウW
1は同図(C)のようになる。マーカL21′…L24′…
L2n′についても同様のウインドウW2(図示せず)を形
成する。各マーカのウインドウが重なった場合には、第
9図に示す如くそれらウインドウを統合した後区間を細
分化して処理する。第9図はマーカL1′によって形成さ
れるウインドウW1と、マーカL2′によって形成されるウ
インドウW2と、マーカL3′によって形成されるウインド
ウW3と、マーカL4′によって形成されるウインドウW
4と、マーカL5′によって形成されるウインドウW5とが
重なり、1つのウインドウWを形成する様子を示してい
る。ウインドウから抽出されたマーカには、環境モデル
中の複数個のマーカを第10図(A)の如く対応表で区間
S1〜S5で対応づける。そして、実画像からのマーカの抽
出順序を決めるためにウインドウのソーティングを行な
う。ソーティング条件は高優先順位順に、イ)しきい値
以上の大きさのマーカ、ロ)視点の位置,姿勢の変化に
対して見え方の変化が大きいマーカ、ハ)距離が近いマ
ーカ、ニ)画像の端にあるマーカとなる。
次にマーカの抽出について説明すると、生成したウイ
ンドウ個々に対して、マーカの抽出個数が所定の値にな
るまで下記の処理を行なう。
先ず第11図(A)の如くスムージングによってウイン
ドウWi内の個々の画素に対してエッジ保存用平滑フィル
タを2回作用させ、ウインドウWi内の個々の画素に対し
てSobel変換(エッジ強調処理)を行ない、Sobel変換の
エッジ強度及びエッジ方向から同図(B)及び(C)の
如く2値化を行なう。2値化の条件は、エッジ方向の場
合には同図(C)のようにエッジ方向がある範囲以内
(たとえば90゜±10゜)を“1"とし、エッジ強度の場合
は同図(B)のようにエッジ強度がしきい値以上である
強度を“1"とする。このようにして第11図(D)の如く
2値化されたウインドウWi内の個々の画素に対して同図
(E)のようなHough変換を行ない、ピーク点PPより同
図(F)で示すような画像上での直線の方程式を求めて
マーカMを抽出する。第10図(A)のような対応付リス
トをもとに、抽出したマーカを環境モデル中のマーカに
同図(1)〜(4)のように対応づける。
一方、ロボットの位置,姿勢は、第12図に示す実画像
から抽出したマーカA′,B′,C′より第13図に示す如く
AB,BC間の角度α,βを計算し、次の(4)式を解くこ
とで求まる。これに関しては後述する。
上述のように計算された位置,姿勢が正しいかどうか
は、その位置,姿勢においてコンピュータグラフィック
ス画像を作成し、コンピュータグラフィックス画像上の
マーカと入力画像から抽出したマーカとが一致するかど
うかを調べれば分る。位置,姿勢の計算に用いたマーカ
A′,B′,C′は、カメラパラメータ、マーカ抽出時の誤
差を持っているため、計算された位置,姿勢は第14図に
示す斜線領域LAとなる。その時、検証されるマーカDが
入力画像上に現れる範囲を計算することができる。よっ
て、マーカDの検証はその範囲内でマーカが検出されて
いるかどうかを調べればよい。ここで、マーカA′,
B′,C′の抽出誤差は予め設定できないため、マーカ
A′,B′,C′の抽出誤差はマーカD′の検証が成功する
か、又は一定の大きさになるまで1画素ずつ広げて行な
う。すなわち、第14図に示すロボットの存在領域(誤差
範囲)LAが広がって行き、かつマーカDの検証範囲も広
がって行くことになる。
このようにして抽出したマーカからロボットの位置,
姿勢の計算に用いる3個のマーカの組合せの全てについ
て上記検証を行ない、その中で誤差範囲を最小とする位
置,姿勢を自己定位の結果とする。
第15図はこの発明の動作例を示しており、第1図に示
す移動ロボット3は第5図に示す如く予め定められてい
る出発地SPから目的地GPまでのルート及びサブゴール
(P1,P2,…)に従って、障害物を避けながら移動し(ス
テップS1)、サブゴール(P1,P2,…)に来たか否かを常
時判定しており(ステップS2)、サブゴールに達したと
きに一旦停止する(ステップS3)。この停止したサブゴ
ールPiでは第16図に示すように、前回のサブゴールP
(i-1)での誤差r(i-1)(i-1)に今回の移動によるロー
タリエンコーダの誤差eiを加えた領域内の各点から見え
るであろう画像をコンピュータグラフィックス手法によ
り作成し、環境モデルのマーカの存在する画像上の範囲
であるウインドウWiを決定する(ステップS4)。次に、
実際の画像において上述の如く求めたマーカ存在領域内
からのみマーカが存在するか否かを判断し、マーカが存
在すれば抽出する(ステップS5)。そして、抽出された
3個以上のマーカが環境モデルのマーカのどれと対応す
るかを逐一調べて最終的な位置及び姿勢を決定し、同時
にそのときの誤差riを記憶して次のサブゴールP
(i-1)に備える(ステップS6)。上記動作を目的地GPま
で繰返すことによってルート上を移動する(ステップS
7)。
次に、第17図のフローチャートを参照して自己定位の
方法を説明する。つまり、第15図のステップS4〜S6の詳
細を説明する。
先ず、前回サブゴールP(i-1)の誤差r(i-1)(i-1)
今回サブゴールPiのロータリエンコーダの誤差eiの2つ
により視点の領域を第16図のVAの如く決定し(ステップ
S10)、領域VA内を第8図(A)に示すように離散化し
て各視点VPを決める(ステップS11)。上記各視点VPに
ついてその視点から見えるであろう予測画像を第8図
(B)のようにコンピュータグラフィクスの手法により
生成し、環境モデルのマーカの存在範囲であるウインド
ウWiを決める(ステップS12)。このとき姿勢誤差θ
(i-1)も考慮し、次にマーカの存在範囲であるウインド
ウが重なり合うか否かを判定し(ステップS13)、重な
り合う場合には各ウインドウを統合し(ステップS1
4)、第10図に示すようなマーカの候補リストを作成す
る(ステップS15)。次に、実際の画像(入力画像)よ
り上記求めたウインドウ範囲からのみマーカを見つけて
抽出し(ステップS16)、抽出したマーカが3個以上有
るか否かを判断し(ステップS17)、2個以下の場合に
は処理不能となって停止する(ステップS18)。
上記ステップS17において抽出したマーカが3個以上
有る場合には、抽出した全マーカより3個のマーカを選
び(ステップS20)、当該3個のマーカを第10図(1)
の最上部(L1′,L2′,L4′)のように環境モデルの候補
リストのマーカと一旦対応づけ(ステップS21)、3個
のマーカの抽出誤差を第14図の領域LAのように仮定する
(ステップS22)。そして、次に第18図に示す如く自己
定位の誤差範囲Q1〜Q8を計算する(ステップS23)。第1
8図における誤差範囲LAの9点Q0〜Q8で表わされ、1≦k≦8として誤差riは次のよう
に求められる。
そして、誤差範囲LA内において検証を行なうマーカが
入力画像中に存在する領域をコンピュータグラフィック
スの手法を用いて計算する(ステップS24)。計算され
た領域内に検証するマーカが存在するか否かを調べ(ス
テップS25)、次に検証率がある割合以上(例えば80%
以上)か否かを判定し(ステップS30)、ある割合より
も小さい場合には抽出誤差Deの画素を広げ(ステップS3
4)、Deが所定値(例えば3)よりも小さければステッ
プS23にリターンする(ステップS35)。また、検証率が
ある割合以上の場合には誤差範囲の面積を計算し(ステ
ップS31)、面積が最小であるか否かを判定し(ステッ
プS32)、最小であれば面積及び誤差riを更新する
(ステップS33)。第19図(A)はDe=1でウインドウw
1にマーカD′が重ならないので検証失敗となる例を示
し、同図(B)もDe=2でウインドウw2にマーカD′が
重らないので検証失敗となる例を示し、同図(C)はDe
=3でウインドウw3にマーカD′が重なり検証が成功し
た例を示している。この場合、検証率は100%となる。
即ち、検証すべき領域が1つしかないときは0%か100
%のいずれかとなる。そして、候補リストのマーカと全
て対応づけが終了したか否かを判定し(ステップS3
6)、終了しておれば更に3個のマーカの選び方が全て
終了したか否かを判定する(ステップS37)。ステップS
36で全て対応づけが終了していない場合はステップS21
にリターンする。
次に、第14図及び第18図で説明した自己定位の誤差範
囲について説明すると、環境モデル20とイメージセンサ
10との実際の関係は第20図のようになっているが、上下
左右が逆になるので反対側位置10Aにイメージセンサ10
があると考えて第21図のような構成を考える。その座標
関係は第22図のようになり、Ocはレンズ中心座標を示し
ている。そして、角度α,βの求め方を以下に説明す
る。イメージセンサ10上の入力画像A′,B′,C′は環境
モデル20のA,B,Cと対応づけられる。画像A′はイメー
ジセンサ10の何画素目に写っているかは分るので、第23
図に示すような画像A′と光軸との距離l1は求まり(画
素間隔は既知)、またレンズの焦点距離fは既知であ
る。従って、α=tan-1(l1/f)で角度αが求ま
り、同様に角度αも求まり、結局α=α−αで角
度αが求まる。同様にして角度βも求まる。一方、第14
図及び第24図に示すように3点A,B,Ocを通る円の中心を
K1とすると、∠RAB=90゜で、線分▲▼の長さは環
境モデル20より求まるので、sinα=▲▼/2r1から
円の半径r1が求まる。環境モデル20よりA,Bの座標は既
知であるので、半径r1が求まれば中心K1の座標(a1,
b1)は求まる。同様にして3点B,C,Ocを通る円の中心K2
の座標(a2,b2)も求まる。従って、前記(4)式から
点Ocの座標(x,y)が求められる。これをQ0とする。
次に、姿勢θ(カメラ光軸とXwのなす角)の求め方に
ついて述べる。第25図に示すように、線分 と光軸のなす角αは既に求められている。一方、A点
の座標は環境モデル20から分っており、点Ocの座標も求
まっているので、線分 と軸Xwのなす各θ′は演算で求められ、姿勢θはθ=
θ′−αとなる。
次に、第19図で説明したようにイメージセンサ10の標
本化の誤差である1画素を考慮する場合について述べ
る。第26図に示すように画像A′,B′をそれぞれ1画素
広げたときの角度αmaxは前回と同様にして求められ、
第27図に示すように画像A′,B′をそれぞれ1画素狭め
たときの角度αminも前回と同様に求められる。同様
に、角度βmaxminも求められる。従って、点O
c(Q0)と同様にして点Q1〜Q8の座標(X,Y,θ)が
(5)式の如く求められる。
ステップS17において、マーカが4つ以上あるときに
は今回使用した3つ以外のマーカが入力画像中に存在す
る領域を計算する。これはQ0(X0,Y0)〜Q8(X8,Y
8)の各点から見える予測画像をコンピュータグラ
フィックス手法で計算し、今回使用した3つ以外のマー
カが存在するウインドウD′を求める。そして、入力画
像のウインドウD′内に実際にマーカが有るかどうかを
調べ、検証率80%以上ならばOKとする。領域が複数ある
とき、例えば5つの領域があってその内の4つ以上の領
域でそれぞれ該当するマーカが有ったときは、4/5×100
=80%となりOKとする。次に、点Q1〜Q8で囲まれる斜線
部面積を計算し、最小ならその面積及び誤差ri
記憶して更新する。もし検証率が80%未満であれば、第
26図に示すようにイメージセンサの画素をもう1つ広げ
てαmaxmaxを求め(α,βより2画素分広げたこと
になる)、同様に第27図に示すようにもう1画素減らし
てαminmin(α,βより2画素分狭めたことにな
る)を求めて、以下同様な処理を行なう。次に対応づけ
の組合せを変えて同様に行ない、全ての対応づけの組合
せを終了すれば、次の組合せの3つのマーカを選んで同
様の処理を行ない、結局Q1〜Q8で成る領域面積が最小と
なるもので自己定位することになる。そのときの誤差
riが次回の誤差の基準となる。
発明の効果; 以上のようにこの発明によれば、マーカが存在しそう
な領域について画像処理を行なうので効率が良く、領域
を区切っているので画像からのマーカの抽出が安定す
る。また、余分な線を抽出するのを防いでいるので、抽
出したマーカと環境モデル中のマーカとの対応づけの効
率が良い。
【図面の簡単な説明】
第1図はこの発明の移動ロボットの外観構成図、第2図
は撮像手段による環境の入力画像の一例を示す図、第3
図はロボットの座標系を説明するための図、第4図はロ
ボットが移動する環境の一例を示す図、第5図は第4図
の環境に対するルート生成の様子を示す図、第6図は自
己定位を説明するための模式図、第7図は視点の拘束を
説明するための図、第8図は視点領域の離散化及びウイ
ンドウの生成を説明するための図、第9図はウインドウ
の合成を説明するための図、第10図は抽出したマーカの
対応づけを示す図、第11図はウインドウよりマーカの抽
出を行なう様子を示すフロー図、第12図は入力画像中の
マーカの例を示す図、第13図はロボットの位置,姿勢の
計算原理を説明するための図、第14図は自己定位の誤差
を説明するための図、第15図はこの発明のロボット移動
の様子を示すフローチャート、第16図はサブゴールで自
己停止しながら移動する様子を示す図、第17図はこの発
明による自己定位の動作例を示すフローチャート、第18
図はロボット位置,姿勢の誤差範囲を説明するための
図、第19図は位置,姿勢についての検証の例を示す図、
第20図〜第25図は位置,姿勢の誤差範囲の計算を説明す
るための図、第26図及び第27図は画像入力範囲の変更を
説明するための図である。 1……CCDカメラ、2……車輪、3……移動ロボット、1
0……イメージセンサ、20……環境モデル。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大西 和彦 兵庫県姫路市下手野1丁目3番1号 グ ローリー工業株式会社内 (56)参考文献 特開 昭60−217413(JP,A) (58)調査した分野(Int.Cl.6,DB名) G05D 1/02 G06F 15/62 380

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】予め障害物の位置を記憶させた環境モデル
    ファイルを用意し、移動体が所定距離進んだとき、前記
    移動体に設けられた移動量検出手段の出力によりその地
    点を推定し、その推定地点からある誤差範囲の領域を設
    定し、その領域内の各点から前記移動体に設けられた撮
    像手段が捉えるであろう予測画像を前記環境モデルファ
    イルからコンピュータグラフィックス手法を用いて各々
    生成し、生成された各予測画像上で前記環境モデルの障
    害物の特徴要素であるマーカを抽出しマーカの存在する
    領域を求め、この求められた領域を前記撮像手段からの
    入力画像中に当てはめてその領域からのみ実際のマーカ
    の抽出を行ない、前記環境モデルのマーカと抽出された
    マーカとを対応づけて自己定位を行なうようにしたこと
    を特徴とする移動体の自己定位方法。
JP1081029A 1989-03-31 1989-03-31 移動体の自己定位方法 Expired - Fee Related JP2839281B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1081029A JP2839281B2 (ja) 1989-03-31 1989-03-31 移動体の自己定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1081029A JP2839281B2 (ja) 1989-03-31 1989-03-31 移動体の自己定位方法

Publications (2)

Publication Number Publication Date
JPH02259912A JPH02259912A (ja) 1990-10-22
JP2839281B2 true JP2839281B2 (ja) 1998-12-16

Family

ID=13735044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1081029A Expired - Fee Related JP2839281B2 (ja) 1989-03-31 1989-03-31 移動体の自己定位方法

Country Status (1)

Country Link
JP (1) JP2839281B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
TW200736870A (en) * 2005-11-04 2007-10-01 Murata Machinery Ltd Control device for movable body
KR101493075B1 (ko) 2008-12-17 2015-02-12 삼성전자 주식회사 이동 로봇의 위치 인식 장치 및 방법

Also Published As

Publication number Publication date
JPH02259912A (ja) 1990-10-22

Similar Documents

Publication Publication Date Title
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
US8024072B2 (en) Method for self-localization of robot based on object recognition and environment information around recognized object
Kim et al. Deep learning-based 3D reconstruction of scaffolds using a robot dog
KR101864949B1 (ko) 이동 로봇을 통한 격자 지도 작성 방법
KR20110011424A (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
JP5016399B2 (ja) 地図情報作成装置及びそれを備えた自律移動装置
Chen et al. An enhanced dynamic Delaunay triangulation-based path planning algorithm for autonomous mobile robot navigation
Kwon et al. Building 3D visual maps of interior space with a new hierarchical sensor fusion architecture
JP2017120551A (ja) 自律走行装置
Kim et al. Autonomous mobile robot localization and mapping for unknown construction environments
Hasegawa et al. Experimental verification of path planning with SLAM
Hu et al. Robot-assisted mobile scanning for automated 3D reconstruction and point cloud semantic segmentation of building interiors
JP2022530246A (ja) 自己位置推定及び環境地図作成の同時実行
CN108180913A (zh) 一种基于3d摄像头的二维码定位***
Fukuda et al. Navigation system based on ceiling landmark recognition for autonomous mobile robot-landmark detection based on fuzzy template matching (ftm)
CN112162551B (zh) 障碍物探测方法、装置、设备及计算机可读介质
JP2839281B2 (ja) 移動体の自己定位方法
Hoang et al. A simplified solution to motion estimation using an omnidirectional camera and a 2-D LRF sensor
JP2839282B2 (ja) 移動体の自己定位方法
Silver et al. Feature extraction for topological mine maps
Hoang et al. Proposal of algorithms for navigation and obstacles avoidance of autonomous mobile robot
Asensio et al. Goal directed reactive robot navigation with relocation using laser and vision
Forkel et al. Combined Road Tracking for Paved Roads and Dirt Roads: Framework and Image Measurements
Takaoka et al. 3D map building for a humanoid robot by using visual odometry
Oshima et al. Automatic planning of laser measurements for a large-scale environment using CPS-SLAM system

Legal Events

Date Code Title Description
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees