JPH10260724A - 通路環境の地図生成方法 - Google Patents

通路環境の地図生成方法

Info

Publication number
JPH10260724A
JPH10260724A JP9085809A JP8580997A JPH10260724A JP H10260724 A JPH10260724 A JP H10260724A JP 9085809 A JP9085809 A JP 9085809A JP 8580997 A JP8580997 A JP 8580997A JP H10260724 A JPH10260724 A JP H10260724A
Authority
JP
Japan
Prior art keywords
mobile robot
line segment
data
grid map
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9085809A
Other languages
English (en)
Inventor
Hidefumi Hida
秀文 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP9085809A priority Critical patent/JPH10260724A/ja
Publication of JPH10260724A publication Critical patent/JPH10260724A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

(57)【要約】 【課題】デッドレコニング法によるロボットの位置と向
きの推定値の誤差が生じた場合でも、誤差の程度が比較
的小さい場合はこれをクリアすることができ、形状計測
の結果に対する線分抽出処理も容易となる方法を提供す
る。 【解決手段】移動ロボットに搭載した走査型のレーザセ
ンサによって直交する位置関係にある壁が存在する通路
環境の形状の計測結果(102) と、デッドレコニング法で
得た前記移動ロボットの位置と向きの推定値(109) か
ら、前記通路環境の形状を概略表現している互いに直交
した壁に対応する線分を抽出することにより前記移動ロ
ボットが必要とする通路環境の地図を生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、走査型のレーザセ
ンサを搭載した移動ロボットによる通路環境の地図生成
をする方法に関するものである。
【0002】
【従来の技術】近年、病院等の屋内通路環境にて自律走
行をしながら、各種の運搬作業を行うサービスロボット
が普及しつつある。前記自律走行とは、ガイドテープ等
によって誘導を必要とせずに、移動ロボットが走行する
ことである。しかし、前記サービスロボットが自律走行
を行うためには、予め作業を行う通路環境の地図を作成
し、サービスロボットに教示する必要がある。ここで、
前記地図とは、通路環境内に存在する壁やその他の障害
物を線分にて表現した情報である。そして、従来、この
地図の作成は人がコンピュータ上で起動する描画ツール
(以下、CADと称する)を利用して、建築図面等の情
報に従い行っている。また、この課題を解決しようとす
る手段として、適切なセンサシステムを搭載した移動ロ
ボットをジョイスティイク等により、地図生成の必要な
通路環境を誘導しつつ、前記センサシステムによって通
路環境内の形状を計測し、この計測の結果得られたデー
タとデッドレコニングの技術を利用して、前記サービス
ロボットが必要とする通路環境の地図生成をする方法が
提案されている(特開平7−110709)。
【0003】
【発明が解決しようとする課題】ところが、特開平7−
110709の方法では、主にデッドレコニング法で得
た移動ロボットの位置と向きの推定値を利用しているた
め、移動ロボットの誘導時に遂次生じる位置と向きの推
定値の誤差が、生成する地図の精度に大きく影響すると
いう問題がある。よって、特開平7−110709の方
法で得られる通路環境の形状計測の結果は、実際の通路
環境の形状とは異なることになる。特に、XYの直交座
標系で表現した2次元の地図上においては直線分になる
はずの真直の壁の形状が、実際の計測結果で曲線とな
り、地図生成のために必要な線分抽出処理が困難とな
る。そこで本発明は、デッドレコニング法によるロボッ
トの位置と向きの推定値の誤差が生じた場合でも、誤差
の程度が比較的小さい場合はこれをクリアすることがで
き、形状計測の結果に対する線分抽出処理も容易となる
方法を提供することを目的とする。
【0004】
【課題を解決するための手段】本発明は、操作者が、走
査型のレーザセンサを搭載した移動ロボットをジョイス
ティック等により、地図生成の必要な屋内通路環境を誘
導しつつ、前記レーザセンサによって前記屋内通路環境
の形状計測をし、この計測結果のデータとデッドレコニ
ング法で得た移動ロボットの位置と向きの推定値を利用
して、前記サービスロボットが必要とする屋内通路環境
の地図生成をする。また、本発明においては、屋内通路
環境に存在する壁は一般的に互いに直交した位置関係に
あることを前提とする。よって、通路環境の形状を概略
表現している壁の情報を互いに直交した線分として抽出
し、この抽出線分による2次元の地図の生成を目的とす
る。以下、本発明における地図生成の方法を図1にてス
テップ毎に説明する。
【0005】(ステップ101)レーザセンサによる1
回目の形状計測は、移動ロボットの向きが、進行方向と
平行して存在する壁とほぼ等しい状態を行う必要があ
る。よって、地図生成を開始する前にロボットの初期位
置、及び向きの設定を適切に行う。ただし、2回目以降
の形状計測は任意の姿勢を行うことができる。
【0006】(ステップ102)レーザセンサによる1
回目の形状計測は、ステップ101の処理を正しく終え
た後に行う。また、2回目以降の形状計測は、ジョイス
ティック等により移動ロボットを次の形状計測位置に案
内し静止させた後に行う。なお、形状計測の結果得るこ
とのできるデータは、レーザセンサの位置と向きを座標
原点として、通路環境内に存在する壁や障害物の表面上
の複数の点座標であり、適切に設けたバッファ内に格納
する。
【0007】(ステップ103)ステップ102の処理
の結果得られたデータは、レーザセンサの位置と向きを
座標原点とした点データの集合であり、いわゆるローカ
ル座標系にで表現されている。よって、以後の処理のた
めに、デッドレコニング法で推定した移動ロボットの前
回の形状計測の状態からの位置と向きの変位を利用し
て、座標変換によりグローバル座標系における形状計測
データ(点データの集合)を求め、結果を適切に設けた
バッファ内に格納する。
【0008】(ステップ104)ステップ103の処理
の結果得られたグローバル座標系における形状計測デー
タに対し、X軸方向とY軸方向で格子状に分割したグリ
ット地図データを作成する。つまり、全ての格納状の領
域に対し、A[j][i](jは1〜n、iは1〜mの
整数)で表現したバッファを確保し、領域A[j]
[i]内には下式の条件を満たす全点データの個数とそ
れぞれの座標値を格納する。 (xmax /m)*(i−1)<x<(xmax /m)*i ∩ (ymax /n)*(j−1)<y<(ymax /n)*j ここで、xmax 、ymax は、それぞれ定義するグリッド
地図データのX軸方向、Y軸方向の最大値である。更
に、格納された全点データの個数が適切に設定した数K
個以上の場合は、各グリット地図データに付属する状態
フラグをオンにし、その他の場合はオフにする。
【0009】(ステップ105)ステップ104の処理
の結果得られたグリッド地図データA[j][i](j
は1〜n、iは1〜mの整数)の中で、格納された点デ
ータがK個以上あり、対象とするグリッド地図データA
[j][i]周辺のグリッド地図データについて下式の
4条件の内少なくとも1つを満たすものは、対象のグリ
ッド地図データに付属する状態フラグをオフにする。こ
の処理は、グリッド地図データ中でX軸方向とY軸方向
の交差を構成する点をデータを含むグリッド地図のデー
タの除去を目的とする。 A[j+1][i]の点データ数≧K∩A[j][i−
1]点データ数≧K A[j+1][i]の点データ数≧K∩A[j][i+
1]点データ数≧K A[j−1][i]の点データ数≧K∩A[j][i−
1]点データ数≧K A[j−1][i]の点データ数≧K∩A[j][i+
1]点データ数≧K
【0010】(ステップ106)ステップ105の処理
の結果を得られた状態フラグがオンのグリッド地図デー
タを対象にしてレベリング処理を行ない、同一の線分の
みを構成する点データを格納しているグリッド地図デー
タの各組み合わせ(以下、これをグリッド地図データ列
と称する)を生成する。
【0011】(ステップ107)ステップ106の処理
の結果得られたグリッド地図のデータ列の中で、各々を
構成するグリッド数が、適切に設定したしきい値よりも
小さいものは、このグリッド地図データ列を以後の線分
抽出処理の対象から除外する。これによって以後の線分
抽出処理の対象となるグリッド地図データ列は比較的長
い線分(以後、これを主線分と称する)を構成すること
ができるものだけとなる。
【0012】(ステップ108)ステップ107の処理
の結果得られる主線分を構成しうる各グリッド地図デー
タ列中の全点データに対して最小自乗近似法を適用し、
1本の直線で近似する。この際、近似処理を行って得ら
れる近似の悪さの評価値(以後、これを最小自乗誤差と
称する)が、予め適切に設定したしきい値よりも小さく
なった場合は、この結果得られる直線を表すパラメータ
(傾きと接片の座標)をそれぞれ適切に儲けたバッファ
内に格納する。また、各主線分の2端点に対応する座標
値を決定するために、直線近似処理の際に利用した点の
データの内、互いに最も距離の離れた2点を抽出し、そ
れぞれの点が近似された直線上で対応する座標を求め
る。そして、この結果得られた2端点の座標値を、対応
する直線を表すパラメータが格納されたバッファ内の適
切な領域に同じく格納する。
【0013】(ステップ109)第N回目の形状計測デ
ータに対するステップ108の処理結果、つまり主線分
を表すパラメータと、第N−1回目の形状計測データに
基ずく主線分の抽出結果を利用して、デッドレコニング
法による移動ロボットの位置と向きの推定値の誤差を求
める。ステップ109の処理過程に関しては、図2のフ
ローチャートのステップ201〜206で詳細に説明す
る。
【0014】(ステップ110)ステップ109の処理
の結果得られたデッドレコニング法による移動ロボット
の位置と向きの推定値の誤差を利用して、推定値の誤差
分が適切に修正されるようグローバル座標系における第
N回目の形状計測データに対して座標変換処理を行な
い、第N−1回目と第N回目の形状計測データを融合し
て再度線分の抽出処理を行う。また上述と同様の座標変
換処理を抽出できた主線分に対しても行い、この結果得
られた修正後の主線分の情報は、適切に設けたバッファ
内に格納しておき、第N+1回目の主線分の抽出処理の
ため利用する。
【0015】(ステップ111)形状計測に利用する移
動ロボット上に搭載したマンマシンインタフェース装置
を利用して、必要に応じ操作者が地図生成処理の終了を
移動ロボットに伝達し、この伝達された内容に応じてロ
ボットが地図生成処理の終了か続行を判断する。
【0016】(ステップ112)第N回目の形状計測デ
ータに対する主線分の抽出処理を終了した後、第N+1
回目の形状計測データを得るために、レーザセンサを搭
載した移動ロボットの通路環境内での位置と向きを更新
する。この更新は、移動ロボットの操作者がジョイステ
ィック等により、適切な場所へ移動ロボットを誘導して
行う。次に、ステップ109の処理過程の詳細を図2の
フローチャート中でステップ201〜206別に説明す
る。
【0017】(ステップ201)第N回目の形状計測デ
ータに対するステップ108の処理の結果得られる各主
線分と、第N−1回目の形状計測データに基ずく主線分
の抽出処理の結果得た主線分間での対応を決定する。対
応を決定する条件は、互いの主線分を表すパラメータで
ある傾きの差と、2端点の中心点のX軸方向、Y軸方
向、何れか一方向の座標値の差が、それぞれ適切に設定
したしきい値よりも小さいこととする。ここで、X軸方
向に延びた主線分間ではY軸方向の距離差を、Y軸方向
に延びた主線分間ではX軸方向の距離差をそれぞれ利用
する。そして、対応決定できた互いの主線分を表すパラ
メータを、適切に設けたバッファ内にそれぞれ格納す
る。
【0018】(ステップ202)ステップ201の処理
の過程で得られる各対応決定できた主線分間での向きの
差を、適切に設けたバッファ内に格納する。
【0019】(ステップ203)ステップ202の処理
の結果得た全ての対応決定できた主線分間での向きの差
の平均値を求め、この値をΔθとして移動ロボットの向
きの推定値の誤差とし、適切に設けたバッファ内に格納
する。
【0020】(ステップ204)ステップ203の処理
の結果得たΔθを利用して、移動ロボットの向きの推定
値の誤差の影響を除去する。つまり、ローカル座標系の
原点回りに、第N回目の主線分の抽出処理で得た全主線
分に対し−Δθの回転の座標変換を行う。
【0021】(ステップ205)ステップ204の処理
の結果得た向きの推定値の誤差を除去した主線分に対
し、対応決定できたX軸方向に延びた主線分間ではY軸
方向の距離を求め、Y軸方向に延びた主線分間ではX軸
方向の距離差を求め、適切に設けたバッファ内にフラグ
等を利用し何れの方向の距離差であるかが分かるように
して格納する。ここで、距離差とは各主線分の2端点の
中心点のX軸方向、或いはY軸方向に座標値間の差のこ
とである。
【0022】(ステップ206)ステップ205の処理
の結果得られた全てのX軸方向の距離差の平均値と、全
てのY軸方向の距離差の平均値を求め、それぞれの結果
をデッドレコニング法による移動ロボットのX軸方向の
推定値の誤差ΔX、或いはY軸方向の推定値の誤差ΔY
として、適切に設けたバッファ内に格納する。上述の方
法で地図生成を行うことにより、デッドレコニング法に
よる移動ロボットの位置と向きの推定値の誤差は遂次ク
リアでき、真直の壁の形状がXYの直交座標系で表現し
た2次元の地図上においては直線分として容易に抽出で
きる。
【0023】
【発明の実施の形態】以下、本発明の具体的実施例を説
明する。図3は、本発明で利用する回転走査型のレーザ
センサを搭載した移動ロボットの外観の例であり、30
1は回転走査型のレーザセンサ、302は地図生成シス
テムの中央制御部、303は移動ロボットにジョイステ
ィックからの命令信号を伝送するためのケーブル、30
4ジョイスティック、305は移動ロボット、306は
エンコーダ付きの駆動輪、307はキャスタを示してい
る。図4は、本発明で利用する回転走査型のレーザセン
サを搭載した移動ロボットのハードウェアのシステム構
成の例であり、401は前記ジョイスティック304、
402は前記ジョイスティック304からの命令信号を
伝送するためのケーブル303、403は前記中央制御
部302に演算部、404、405は前記演算部403
と前記レーザセンサ301のセンサドライバを接続する
バス、406は前記レーザセンサ301のセンサドライ
バ、407は前記レーザセンサ301のセンサヘッド部
からのセンサ信号を前記センサドライバ406に伝送す
るたののケーブル、408は前記レーザセンサのセンサ
ヘッド部、409、411は前記演算部403と前記中
央制御部302の記憶部410を接続するバス、410
は前記中央制御部302の記憶部、412、413は前
記演算部403と前記駆動輪306のモータドライバを
接続するバス、414は前記駆動輪306のモータドラ
イバ、415、416は前記駆動輪306と前記モータ
ドライバ414の間で信号を伝送するケーブル、417
は前記駆動輪を示している。
【0024】図5は本発明の地図生成の方法を適用する
屋内通路環境の例であり、501、502、506、5
07はそれぞれ1枚の壁、503、504、505はそ
れぞれ移動ロボットが前記レーザセンサ301を利用し
て形状計測を行う位置を示している。ただし、形状計測
は503、504、505の順番で行うものとする。前
記503の位置で第1回目の形状計測を行い得たデータ
を横軸X、縦軸Yのローカル座標系にて表した結果が図
6であり、図中の601は前記壁502の計測データ、
602は前記壁501の計測データ、604は前記壁5
07の計測データ、603は前記ローカル座標系の原点
を示している。前記504の位置で第2回目の形状計測
を行ない得たデータを横軸X、縦軸Yのローカル座標系
にて表した結果が図7であり、図中の701は前記壁5
02の計測データ、702は前記壁501の計測デー
タ、704は前記壁506の計測データ、705は前記
壁507の計測データ、703は前記ローカル座標系の
原点を示している。前記505の位置で第3回目の形状
計測を行い得たデータを横軸X、縦軸Yのローカル座標
系にて表した結果が図8であり、図中の801は前記壁
501の計測データ、803は前記壁506の計測デー
タ、802は前記ローカル座標系の原点を示している。
以後の説明を一般的に且つ容易にするために、前記第1
回目の形状計測を行い得たデータの主線分の抽出処理は
正しく終了したものと仮定して、下記では前記第2回目
の形状計測を行ない得たデータの主線分の抽出処理を例
として説明する。 前記ステップ103の処理によって
前記第2回目の形状計測を行い得たデータをグローバル
座標系で表現し直し、前記ステップ104の処理で利用
するグリッド地図データX軸方向のグリッド数を12
(m=12)、Y軸方向のグリッド数を12(y=1
2)として生成されたものに投影した結果が図9であ
り、図中の901はA[1][1]で表現されたグリッ
ド、902はA[12][1]で表現されたグリッド、
903はA[1][12]で表現されたグリッド、90
4はA[12][12]で表現されたグリッド、90
5、906、907、908はそれぞれ前記計測データ
701、702、704、705を座標変換した結果の
データを示している。前記ステップ104の処理で、各
グリッドに格納された点データの数が1個以上(K=
1)の場合に各グリッド地図データに付属する状態フラ
グをオンにするとして、図9中で示された形状計測デー
タのグリッド地図データを生成した結果が図10あり、
図中の1001、1002、1003、1004はそれ
ぞれ前記座標変換後の計測データ905、906、90
7、908を処理した結果、状態フラグがオンになった
グリッドを示している。前記ステップ105の処理で、
グリッド地図データ中でX軸方向とY軸方向の交差を構
成する点データを含むものを除去し、更に、前記ステッ
プ106のラベリング処理の各線分のグリッド地図デー
タ列を生成した結果が図11であり、図中の1102、
1104が前記除去の対象となった点データを格納した
グリッド地図データ、1101、1103、1105、
1106はそれぞれ前記壁502、501、506、5
07に対応する点データのみを構成するグリッド地図デ
ータ列を示している。前記ステップ107の処理で、前
記グリッド地図データ列1101、1103、110
5、1106を各々を構成するグリッド数が3個以下で
あるものは、以後の線分抽出処理の対象から除外すると
して得た結果が図12であり、図中の101、1202
はそれぞれ以後の主線分の抽出処理の対象として残った
グリッド地図データ列である。前記ステップ108の処
理で、前記グリッド地図データ例1201、1202内
の全点データに対して最小自乗近似法による直線近似を
行い、その際得られる最小自乗誤差が適切に設定したし
きい値よりも小さくなり、更に2端点の抽出処理を行い
得た主線分が、それぞれ図13中の1301、1304
で示された線分である。また、図13中の1302、1
303、1305は前記第1回目の形状計測データに対
する主線分の抽出処理を行い得た結果であり、それぞれ
前記壁502、501、507に対応する線分である。
前記ステップ201の処理で、前記主線分1301と1
302が対応決定でき、前記主線分1304と1303
が対応決定できたとして、前記ステップ202、20
3、204の処理で、前記主線分1301、1304を
前記第2回目の形状計測位置504のローカル座標系の
原点回りに回転の座標変換を行い、デッドレコニング法
による移動ロボットの向きの推定値の誤差の影響を除去
した結果が図14である。図中の1401、1402は
それぞれ座標変換前の前記主線分1301、1304の
座標変換後の主線分を示している。前記ズテップ20
5、206の処理で、前記主線分1401と1302の
X軸方向の座標値の差からデッドレコニング法による移
動ロボットのX軸方向の推定値の誤差(ΔX)を求め、
前記主線分1402と1303のY軸方向の座標値の差
からデッドレコニング法による移動ロボットのY軸方向
の推定値の誤差(ΔY)を求め、前記ステップ110に
処理で、前記ΔX、ΔYの値を利用した座標変換処理に
より、図6で示した前記第1回目の形状計測データと、
図7で示した前記第2回目の形状計測データを融合して
得たデータの線分抽出処理で、新たな線分の抽出処理を
行った結果が図15中の主線分1501、1502、1
503である。前記ステップ111の処理で、操作者が
前記ジョイステックを用いて地図生成処理の終了を移動
ロボットに伝えた場合は、これを判断して移動ロボット
は地図生成処理を終了し、操作者が移動ロボットに続行
を伝えた場合は、前記ステップ112の処理で移動ロボ
ットを前記第3回目の形状計測位置505に誘導した
後、上述した線分抽出処理を再度行う。
【0025】
【発明の効果】以上述べたように、本発明によれば、デ
ッドレコニング法によるロボットの位置と向きの推定値
の誤差が生じた場合でも、誤差の程度が比較的小さい場
合はこれをクリアすることができ、形状計測の結果に対
する線分抽出処理も容易となるという効果を奏する。
【図面の簡単な説明】
【図1】本発明のメインフローチャート
【図2】本発明のサブフローチャート
【図3】本発明を実施する移動ロボットの外観の例を示
す図
【図4】本発明を実施する移動ロボットのハードウェア
構成の例を示す図
【図5】本発明を適用する屋内通路環境例を示す図
【図6】本発明の線分抽出のアルゴリズムを説明する図
【図7】本発明の線分抽出のアルゴリズムを説明する図
【図8】本発明の線分抽出のアルゴリズムを説明する図
【図9】本発明の線分抽出のアルゴリズムを説明する図
【図10】本発明の線分抽出のアルゴリズムを説明する
【図11】本発明の線分抽出のアルゴリズムを説明する
【図12】本発明の線分抽出のアルゴリズムを説明する
【図13】本発明の線分抽出のアルゴリズムを説明する
【図14】本発明の線分抽出のアルゴリズムを説明する
【図15】本発明の線分抽出のアルゴリズムを説明する
【符号の説明】
301 レーザセンサ 302 中央制御部 304、401 ジョイスティック 305 移動ロボット 306、417 エンコーダ付駆動輪 307 キャスタ 403 演算部 404、405、409、411、412、413 バ
ス 406 レーザセンサドライバ 303、402、407、415、416 ケーブル 408 レーザセンサヘッド部 410 記憶部 414 モータドライバ

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 移動ロボットに搭載した走査型のレーザ
    センサによって直交する位置関係にある壁が存在する通
    路環境の形状の計測結果と、デッドレコニング法で得た
    前記移動ロボットの位置と向きの推定値から、前記通路
    環境の形状を概略表現している互いに直交した壁に対応
    する線分を抽出することにより前記移動ロボットが必要
    とする通路環境の地図を生成することを特徴とする通路
    環境の地図生成方法。
  2. 【請求項2】 前記走査型のレーザセンサを利用して得
    たレーザセンサの位置と向きを座標原点としたローカル
    座標系での形状計測データを、デッドレコニング法によ
    る移動ロボットの位置と向きの推定値を利用して、座標
    変換処理によりグローバル座標系で表現し直してグリッ
    ト地図データを生成し、 前記グリット地図データ中でX軸方向とY軸方向の交差
    を構成する点データを含むグリッド地図データは除去し
    た後、ラベリング処理によって後述のグリット地図デー
    タ列を生成し、 各グリット地図データ列中ので構成するグリット数が予
    め設定したしきい値よりも小さいものは以後の線分抽出
    処理の対象から除外して、比較的長い線分のみを構成可
    能なグリット地図データ列を抽出し、 残った各グリット地図データ列に含まれる全点データに
    対し、直線による最小自乗誤差近似を行い、評価値であ
    る最小自乗誤差が予め設定したしきい値よりも大きい場
    合は以後の線分抽出処理の対象から除外して、極力信頼
    性の高い直線だけを以後の線分抽出処理で扱い、 直線近似処理の入力として利用した全点データ間での互
    いの距離が最も離れた2端点の近似直線上での対応点を
    求めて線分の2端点とし、この時得られた線分と前回の
    形状計測データを処理して得た線分の位置と向きのマッ
    チング処理の結果から、デッドレコニング法による移動
    ロボットの位置と向きの推定値の誤差を求め、 座標変換処理によって前記誤差の影響を除去して線分を
    抽出する請求項1記載の通路環境の地図生成方法。
JP9085809A 1997-03-19 1997-03-19 通路環境の地図生成方法 Pending JPH10260724A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9085809A JPH10260724A (ja) 1997-03-19 1997-03-19 通路環境の地図生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9085809A JPH10260724A (ja) 1997-03-19 1997-03-19 通路環境の地図生成方法

Publications (1)

Publication Number Publication Date
JPH10260724A true JPH10260724A (ja) 1998-09-29

Family

ID=13869206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9085809A Pending JPH10260724A (ja) 1997-03-19 1997-03-19 通路環境の地図生成方法

Country Status (1)

Country Link
JP (1) JPH10260724A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056752A3 (de) * 2000-02-02 2002-03-21 Siemens Ag Verfahren zum rechnergestützten bearbeiten einer struktur umfassend ein erstes element und ein zweites element, welche zusammengehörig sind
JP2007310866A (ja) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
JP2009515226A (ja) * 2005-12-09 2009-04-09 韓國電子通信研究院 人工標識と地域座標系を用いた移動ロボットの地図の作成方法及び移動方法
JP2009110249A (ja) * 2007-10-30 2009-05-21 Ihi Corp 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
US7660665B2 (en) 2004-11-17 2010-02-09 Hitachi, Ltd. Autonomous mobile equipment and position-of-object and own position detecting system
JP2010061484A (ja) * 2008-09-05 2010-03-18 Hitachi Industrial Equipment Systems Co Ltd 移動体および移動体の位置推定誤り状態からの復帰方法
JP2010511957A (ja) * 2006-12-08 2010-04-15 韓國電子通信研究院 周辺の環境変化に迅速に適応し、環境マップを作成することができる移動体の環境マップ作成装置及びその方法
US7933686B2 (en) 2006-08-18 2011-04-26 Samsung Electronics Co., Ltd. Method of dividing coverage area for robot and device thereof
JP2011129095A (ja) * 2009-12-18 2011-06-30 Korea Electronics Telecommun 自律走行ロボットを利用した地図生成方法、これを利用した最適走行経路算出方法およびこれらを遂行するロボット制御装置
JP2012212412A (ja) * 2010-07-21 2012-11-01 Palo Alto Research Center Inc 検出能に限りのある移動ロボットを用い室内環境の地図を実時間で作成するシステムおよび方法
JP2012533749A (ja) * 2009-07-22 2012-12-27 ファロ テクノロジーズ インコーポレーテッド 周囲を光学的に走査および測定する装置
CN105137998A (zh) * 2015-10-13 2015-12-09 徐金平 一种基于激光扫描仪的自主导航方法
JP2016057236A (ja) * 2014-09-11 2016-04-21 安川情報システム株式会社 自己位置推定システムおよび自己位置推定方法
CN107728615A (zh) * 2017-09-26 2018-02-23 上海思岚科技有限公司 一种自适应区域划分的方法及***
JPWO2017056484A1 (ja) * 2015-09-28 2018-04-19 京セラ株式会社 画像処理装置、ステレオカメラ装置、車両及び画像処理方法
JP2020057307A (ja) * 2018-10-04 2020-04-09 日本電産株式会社 自己位置推定のための地図データを加工する装置および方法、ならびに移動体およびその制御システム
JP2020119081A (ja) * 2019-01-21 2020-08-06 株式会社豊田中央研究所 自律移動装置
CN113573232A (zh) * 2021-07-13 2021-10-29 深圳优地科技有限公司 机器人巷道定位方法、装置、设备及存储介质
JPWO2022070302A1 (ja) * 2020-09-30 2022-04-07

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001056752A3 (de) * 2000-02-02 2002-03-21 Siemens Ag Verfahren zum rechnergestützten bearbeiten einer struktur umfassend ein erstes element und ein zweites element, welche zusammengehörig sind
US7660665B2 (en) 2004-11-17 2010-02-09 Hitachi, Ltd. Autonomous mobile equipment and position-of-object and own position detecting system
JP2009515226A (ja) * 2005-12-09 2009-04-09 韓國電子通信研究院 人工標識と地域座標系を用いた移動ロボットの地図の作成方法及び移動方法
JP2007310866A (ja) * 2006-05-16 2007-11-29 Samsung Electronics Co Ltd 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
US7933686B2 (en) 2006-08-18 2011-04-26 Samsung Electronics Co., Ltd. Method of dividing coverage area for robot and device thereof
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
JP2010511957A (ja) * 2006-12-08 2010-04-15 韓國電子通信研究院 周辺の環境変化に迅速に適応し、環境マップを作成することができる移動体の環境マップ作成装置及びその方法
JP2009110249A (ja) * 2007-10-30 2009-05-21 Ihi Corp 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
JP2010061484A (ja) * 2008-09-05 2010-03-18 Hitachi Industrial Equipment Systems Co Ltd 移動体および移動体の位置推定誤り状態からの復帰方法
JP2012533749A (ja) * 2009-07-22 2012-12-27 ファロ テクノロジーズ インコーポレーテッド 周囲を光学的に走査および測定する装置
JP2011129095A (ja) * 2009-12-18 2011-06-30 Korea Electronics Telecommun 自律走行ロボットを利用した地図生成方法、これを利用した最適走行経路算出方法およびこれらを遂行するロボット制御装置
JP2012212412A (ja) * 2010-07-21 2012-11-01 Palo Alto Research Center Inc 検出能に限りのある移動ロボットを用い室内環境の地図を実時間で作成するシステムおよび方法
JP2016057236A (ja) * 2014-09-11 2016-04-21 安川情報システム株式会社 自己位置推定システムおよび自己位置推定方法
JPWO2017056484A1 (ja) * 2015-09-28 2018-04-19 京セラ株式会社 画像処理装置、ステレオカメラ装置、車両及び画像処理方法
CN105137998A (zh) * 2015-10-13 2015-12-09 徐金平 一种基于激光扫描仪的自主导航方法
CN105137998B (zh) * 2015-10-13 2017-12-08 徐金平 一种基于激光扫描仪的自主导航方法
CN107728615A (zh) * 2017-09-26 2018-02-23 上海思岚科技有限公司 一种自适应区域划分的方法及***
JP2020057307A (ja) * 2018-10-04 2020-04-09 日本電産株式会社 自己位置推定のための地図データを加工する装置および方法、ならびに移動体およびその制御システム
CN111007845A (zh) * 2018-10-04 2020-04-14 日本电产株式会社 地图数据加工装置及其方法、移动体、控制***及其方法
JP2020119081A (ja) * 2019-01-21 2020-08-06 株式会社豊田中央研究所 自律移動装置
JPWO2022070302A1 (ja) * 2020-09-30 2022-04-07
WO2022070302A1 (ja) * 2020-09-30 2022-04-07 Dmg森精機株式会社 自走装置
CN113573232A (zh) * 2021-07-13 2021-10-29 深圳优地科技有限公司 机器人巷道定位方法、装置、设备及存储介质
CN113573232B (zh) * 2021-07-13 2024-04-19 深圳优地科技有限公司 机器人巷道定位方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
JPH10260724A (ja) 通路環境の地図生成方法
CN110260867B (zh) 一种机器人导航中位姿确定、纠正的方法、设备及装置
US20220412770A1 (en) Map construction method for autonomous driving and related apparatus
EP2343615B1 (en) Autonomous movement device
US6694233B1 (en) System for relative vehicle navigation
US8515612B2 (en) Route planning method, route planning device and autonomous mobile device
JP5157803B2 (ja) 自律移動装置
JP5187758B2 (ja) 無人移動体システム
JP5298741B2 (ja) 自律移動装置
JP2007310866A (ja) 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
US20220390950A1 (en) Directed exploration for navigation in dynamic environments
WO2020248210A1 (en) Roadmodel manifold for 2d trajectory planner
JP5187757B2 (ja) 無人移動体システム
JP5947644B2 (ja) 無人移動体システム
JP2007249631A (ja) 折線追従移動ロボットおよび折線追従移動ロボットの制御方法
JP2920352B2 (ja) 移動体の走行制御方法および装置
JP2020024618A (ja) 移動経路取得方法、及び、移動経路取得装置
CN113125795A (zh) 一种障碍物速度检测方法、装置、设备和存储介质
Feng et al. Implementation of dynamic obstacle avoidance on the CMU NavLab
Mansor et al. Path planning in unknown environment with obstacles using virtual window
JP5895682B2 (ja) 障害物検出装置及びそれを備えた移動体
WO2020248209A1 (en) 3d odometry in 6d space with roadmodel 2d manifold
Yamada et al. Vision based obstacle avoidance and target tracking for autonomous mobile robots
US20240061436A1 (en) Moving apparatus and moving apparatus control method
KR102555707B1 (ko) 문자 인식을 통한 격자무늬 추적 로봇의 자율주행의 제어 방법