JP2009205226A - 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 - Google Patents

自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 Download PDF

Info

Publication number
JP2009205226A
JP2009205226A JP2008044058A JP2008044058A JP2009205226A JP 2009205226 A JP2009205226 A JP 2009205226A JP 2008044058 A JP2008044058 A JP 2008044058A JP 2008044058 A JP2008044058 A JP 2008044058A JP 2009205226 A JP2009205226 A JP 2009205226A
Authority
JP
Japan
Prior art keywords
map
measurement
map data
distance
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008044058A
Other languages
English (en)
Other versions
JP4788722B2 (ja
Inventor
Yoshiaki Asahara
佳昭 朝原
Kazuhiro Mima
一博 美馬
Hidenori Yabushita
英典 藪下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41015836&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2009205226(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008044058A priority Critical patent/JP4788722B2/ja
Priority to US12/919,354 priority patent/US9239580B2/en
Priority to EP09713949.7A priority patent/EP2256574B1/en
Priority to PCT/JP2009/051200 priority patent/WO2009107430A1/ja
Publication of JP2009205226A publication Critical patent/JP2009205226A/ja
Application granted granted Critical
Publication of JP4788722B2 publication Critical patent/JP4788722B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】移動ロボットの自己位置推定の精度を向上させる。
【解決手段】ロボット1は、距離センサ11を用いて移動環境内の対象物までの距離を計測する。環境地図記憶部13には、移動環境内の地点を複数の向きから見た場合の各向きに対応する複数の地図データが含まれる環境地図が格納されている。自己位置推定部14は、距離センサ11によって対象物の距離計測が行われたときの計測向きに対応する地図データを複数の地図データの中から選択する。そして、自己位置推定部14は、選択された地図データ及び距離センサ11によって得た距離データに基づいて、ロボット1の自己位置を推定する。
【選択図】図11

Description

本発明は、自律移動ロボットに関し、特に自律移動ロボットの自己位置推定技術及び環境地図の生成技術に関する。
自律移動ロボット(以下、単に移動ロボットと呼ぶ)の自律移動のために、移動ロボットの移動環境を記述した環境地図が使用される場合がある(特許文献1〜3を参照)。環境地図は、移動環境内における移動ロボットの自己位置推定、移動経路の計画などに利用される。環境地図は、例えば、移動ロボットが移動を行う2次元の移動環境を格子状に分割し、格子に囲まれた各々のグリッドセルが移動可能であるか否かを表したグリッド地図として作成される。
環境地図の作成は、例えば、レーザレンジファインダ、ステレオカメラ等の外界の距離情報を取得可能な距離センサを用いて移動環境を計測することにより行なわれる(特許文献1、3及び4を参照)。環境地図は、予め作成されたものを移動ロボットに供給する場合のほか、距離センサを搭載した移動ロボット自身が移動空間を移動しながら作成する場合もある。後者の移動ロボットの自己位置推定と環境地図の構築を同時に行なう技術は、SLAM(Simultaneous Localization and Mapping)と呼ばれる。
例えば、特許文献1に開示された移動ロボットは、センシング原理の異なる複数の距離センサ、例えば超音波センサと赤外線センサを搭載しており、これら複数の距離センサを用いて、移動ロボットが位置する床面からの高さが異なる複数の空間を計測する。そして、特許文献1に開示された移動ロボットは、複数の距離センサによって取得した距離データを元に複数の2次元環境地図を作成し、これら複数の2次元環境地図を重ね合わせて統合した1つの2次元環境地図を生成する。特許文献1に開示された移動ロボットは、統合された2次元環境地図を参照して、障害物を回避する最適な移動経路を探索し、障害物を回避しながら移動を行う。
また、特許文献2には、2次元の移動空間を単位領域に分割するとともに、環境地図をxy面としたときに、各単位領域から見てx方向の障害物までの距離及びy方向の障害物までの距離が各単位領域の情報として記録された移動ロボット用の環境地図が開示されている。特許文献2に開示された移動ロボットは、レンジファインダによって計測した障害物距離を、当該環境地図に記録された障害物距離と照合することによって、移動環境内での自己位置を推定する。
また、特許文献3及び4には、障害物の位置が特定された移動ロボット用の環境地図を2次元グリッド地図として作成する技術が開示されている。具体的に述べると、特許文献3及び4に開示された移動ロボットは、移動ロボットに搭載された距離センサによって移動環境を計測し、計測された距離情報を用いて算出される障害物位置を2次元グリッド地図に投影し、障害物が投影された回数が所定値以上となったセルを障害物が存在する「障害物セル」と判定することによって、障害物位置が特定された環境地図を作成する。
特開2005−310043号公報 特開昭62−58311号公報 特開2006−252346号公報 特開2001−242934号公報
上述した特許文献1、3及び4に開示された環境地図は、移動ロボットに搭載されたレーザレンジファインダ、超音波センサ、赤外線センサ等の距離センサによる計測結果を用いて作成される。しかしながら、これら特許文献1、3及び4並びに特許文献2に開示された環境地図は、どのような方向からレーザ、光線、音波等を照射して計測を行なったかという計測方向に関する情報を有していない。このため、移動ロボットの自己位置推定を正確に行うことができないという問題がある。
一例として、図13(a)に示すように、レーザレンジファインダを搭載した移動ロボット80が、レーザを照射することによって計測点群81を取得し、これらの計測点群81と環境地図とのマッチングによって自己位置推定を行う場合を考える。図13(b)は、移動ロボット80が保持する環境地図800の一例である。環境地図800は、2次元グリッド地図として作成されている。環境地図800を構成する各グリッドセルは、少なくとも移動ロボット80が移動可能であるか否かを示す情報を保持する。以下では、移動ロボット80が移動可能なセルを「移動可能セル」と呼び、移動不可能なセルを「壁セル」と呼ぶ。図13(b)の白抜きのセルが「移動可能セル」を示し、斜線でハッチングされたセルが「壁セル」を示している。
移動ロボット80が、図13(a)の計測点群81と図13(b)の環境地図800とをマッチングした場合、計測点群81は、環境地図800中の壁801及び壁802のいずれとも対応しうる。このため、図13(b)中のA点及びB点の2つが、移動ロボット80の自己位置の候補となり得るため、移動ロボット80は自己位置推定を正確に行えないおそれがある。
なお、特許文献3及び4は、移動環境内の同じ場所を異なるロボット位置から計測した複数の結果を統合して環境地図を作成するものである。しかしながら、特許文献3及び4は、複数回の計測によって障害物と判断された回数をカウントするのみである。つまり、その場所を計測したときに、どの向きからレーザ、光線、音波等を照射して計測を行なったかという「計測向き」に関する情報を環境地図に反映するものではない。
また、特許文献1は、複数の距離センサによって高さの異なる領域に関する複数の環境地図を作成しているが、その後これらを統合して1つの2次元環境地図を作成するものである。したがって、移動ロボットの自己位置推定に利用される環境地図は、複数のセンサのいずれの計測結果を用いて作成されたかを示す情報を有していないし、どの向きからレーザ、光線、音波等を照射して計測を行なったかという「計測向き」に関する情報も有していない。
本発明の第1の態様は、移動環境内を移動する移動ロボットである。当該移動ロボットは、距離センサ、環境地図記憶部及び自己位置推定部を備える。前記距離センサは、前記移動環境内の対象物までの距離を計測する。前記環境地図記憶部は、前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を記憶する。前記自己位置推定部は、前記距離センサによって前記対象物の計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択するとともに、選択された地図データ及び前記距離センサにより得られる前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定する。
本発明の第2の態様は、移動環境内を移動する移動ロボットの自己位置推定方法であり、以下のステップ(a)〜(d)を含む。
前記移動環境内の対象物までの距離を計測するステップ(a)、
前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を参照するステップ(b)、
前記対象物の距離計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択するステップ(c)、及び
選択された地図データ及び前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定するステップ(d)。
本発明の第3の態様は、移動ロボットの移動環境に関する環境地図の生成方法である。当該方法は、以下のステップ(e)〜(g)を含む。
前記移動環境内の地点を複数の計測向きから計測するステップ(e)、
前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成するステップ(f)、
前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶するステップ(g)。
本発明の第4の態様は、移動ロボットの移動環境に関する環境地図の生成装置である。当該生成装置は、(1)前記移動環境内の地点を複数の計測向きから計測した計測結果を入力する手段と、(2)前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成する手段と、(3)前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶する手段とを備える。
本発明の第5の態様は、環境地図のデータ構造である。当該データ構造は、移動ロボットの移動環境内における位置を特定するための座標情報と、前記座標情報により特定される地点を第1の計測向きから見た場合の地図データ及び前記地点を前記第1の計測向きとは異なる第2の計測向きから見た場合の地図データとを備える。
上述した本発明の第1〜第5の態様は、移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を含む。移動ロボットが自己位置推定を行う際には、距離センサによる計測を行ったときの計測向きに応じて、地図データを使い分けるとよい。これにより、移動ロボットの位置する場所からの周囲の見え方に対応した適切な地図データを用いて自己位置推定を行うことができる。このため、距離センサによる計測結果を移動ロボットの位置からは見えない壁とマッチングしてしまうことに起因する自己位置推定の誤りを防止し、自己位置推定の精度を向上させることができる。
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<発明の実施の形態1>
本実施の形態にかかる移動ロボット1(以下、単にロボット1と呼ぶ)の自律移動に関する制御系の構成を図1に示す。図1において、距離センサ11は、ロボット1の移動環境内に存在する対象物までの距離を計測する。具体的には、レーザレンジファインダ、超音波センサ等のアクティブ距離センサによって距離データを取得すればよい。また、距離センサ11は、ステレオカメラにより視差画像を取得して距離計測を行うセンサでもよい。なお、以下の本実施の形態の説明では、距離センサ11がレーザレンジファインダであるとして説明を行う。
地図生成部12は、距離センサ11により取得された距離データを用いて、ロボット1が移動を行なう移動空間に関する環境地図を生成する。地図生成部12により生成された環境地図は、環境地図記憶部13に格納される。本実施の形態では、環境地図は、移動空間を2次元格子状に分割したグリッド地図として作成される。環境地図を構成する各グリッドセルは、少なくともロボット1が移動可能であるか否かを示す情報を保持する。以下では、ロボット1が移動可能なセルを「移動可能セル」と呼び、移動不可能なセルを「壁セル」と呼ぶ。なお、移動不可能なセルをさらに分類してもよく、例えば、ロボット1が位置する場所から見て障害物を介して向こう側に位置し、未観測であるために移動不可能であるセルを「未観測セル」として、観測済みの「壁セル」と分類してもよい。
また、本実施の形態の環境地図は、ロボット1が位置している場所によって移動環境内に存在する対象物の見え方が異なることに鑑みて、グリッド地図上の1つのグリッドセルに関して、複数の計測向きに対応した複数の地図データを保持している。環境地図及びその生成手順の具体例については後述する。
自己位置推定部14は、距離センサ11により取得された距離データ、並びにオドメトリ情報及び環境地図を利用して、移動環境内におけるロボット1の絶対位置を推定する。自己位置推定部14による自己位置推定手順の具体例は後述する。
自律移動部15は、環境地図記憶部13に格納された環境地図を参照し、自律移動制御を実行する。図2は、ロボット1を車輪走行型とした場合の自律移動部15の一例を示すブロック図である。なお、ロボット1が脚歩行型などの車輪走行型以外の移動ロボットであってもよいことは勿論である。
図2において、動作計画部150は、環境地図、自己位置推定部14により決定されたロボット1の自己位置情報などに基づいて、ロボット1の動作内容を決定する。より具体的に述べると、動作計画部150は、ロボット1の移動経路、目標移動速度、目標加速度、及びロボット1が備える関節(不図示)の目標角度軌道等を生成する。
動作制御部151は、動作計画部150により決定された目標移動速度又は目標加速度などの制御目標値と、エンコーダ154によって計測される車輪153の回転量を入力してフィードバック制御を実行し、車輪153を回転駆動するためのトルク制御値を算出する。動作制御部151によって算出されたトルク制御値に従って駆動部152が車輪153を駆動することにより、ロボット1の移動が行なわれる。
続いて以下では、環境地図の生成手順及び環境地図の具体例について、図3〜10を参照して詳しく説明する。図3は、地図生成部12による環境地図の生成手順を示すフローチャートである。ステップS11では、地図生成部12が、距離センサ11により取得された距離データを入力する。ステップS12では、地図生成部12が、エンコーダ154により取得されるオドメトリ情報を入力する。
ステップS13では、地図生成部12が、オドメトリに基づいてロボット位置及び姿勢を算出する。なお、このとき、オドメトリの誤差を補正するために、距離データのスキャンマッチング及び確率推定手法等の公知の手法を用いて、ロボット位置及び姿勢を補正してもよい。
ステップS14では、地図生成部12が、距離データ中の複数の計測点を、距離センサ11のレーザ照射向き毎に分類する。つまり、距離センサ11のレーザ照射向きは、距離センサ11によって移動環境内の対象物を計測する際の計測向きに相当する。そして、分類されたレーザ照射向き毎の計測結果を集計して、占有率地図を作成する。ここで、占有率地図は、環境地図の生成過程で作られるグリッド地図である。占有率地図の各グリッドセルは、距離センサ11から照射されるレーザ光が通過した回数(以下では、レーザ通過回数と呼ぶ)、及び距離センサ11によって対象物が検出された回数(以下では、壁検出回数と呼ぶ)を、レーザ照射方向毎に分類して保持する。
図4に占有率地図の一例を示す。図4の占有率地図100では、レーザ光の照射向き、つまり距離センサ11による計測向きが90度毎に4等分されている。具体的には、地図の上から下向き(以下、−y向きと呼ぶ)、地図の下から上向き(以下、+y向きと呼ぶ)、地図の右から左向き(以下、−x向きと呼ぶ)、及び地図の左から右向き(以下、+x向きと呼ぶ)の4つの向きに分割されている。
図5は、占有率地図100の作成手順を説明するための概念図である。図5に描画されたロボット1は、オドメトリに基づいて特定されたロボット1の位置及び姿勢を表している。また、図5に描画された計測点101は、オドメトリに基づいて特定された距離センサ11による計測点の1つを表している。この場合、計測点101が含まれるグリッドセル102では、+y向きレーザ通過回数が1つカウントアップされ、+y向き壁検出回数も1つカウントアップされる。一方、グリッドセル103を含むレーザ通過経路上のグリッドセルでは、+y向きレーザ通過回数のみが1つカウントアップされる。
図3に戻り説明を続ける。ステップS15では、取得された距離データの全てについて処理が終了したかを判定し、終了していなければ、ステップS11〜S14を繰り返し実行する。
ステップS16では、占有率地図を元に、レーザ照射向き毎の壁地図を生成する。ここで、壁地図とは、各グリッドセルが「移動可能セル」、「壁セル」又は「未観測セル」のいずれであるかを示す情報が、各グリッドセルの値として保持されたグリッド地図である。各グリッドセルが、「移動可能セル」、「壁セル」又は「未観測セル」のいずれであるかは、例えば、2ビットの値により識別すればよい。
図6に壁地図の一例を示す。図6の壁地図200は、+y向き、−y向き、−x向き、及び+x向きの4つの計測向きごとに、「移動可能セル」、「壁セル」又は「未観測セル」のいずれであるかを示す判定値が保持されている。各計測向きの判定値は、占有率地図100における対応する計測向きの集計結果に基づいて決定する。具体的には、占有率地図100の各計測向きの集計結果を用いて、以下に示す評価値Pを算出すればよい。
P=壁検出回数/(壁検出回数+レーザ通過回数)
そして、評価値Pの大きさが所定の閾値を超えたグリッドセルを「壁セル」、所定の閾値以下のセルを「移動可能セル」、レーザ通過回数がゼロのセルを「未観測セル」とすればよい。
ここで、移動環境とこれに対応する壁地図の具体例を説明する。図7は、移動環境の具体例を示している。図7に示す移動環境300の中央部分には、ロボット1が移動不可能である柱301が配置されている。ロボット1が、図7の移動環境300のスタート地点からゴール地点まで移動しながら、ロボット1の前方側180度の範囲に距離センサ11によるレーザ光を照射して距離計測を行うことによって、壁地図を作成する場合を考える。
この場合、柱301の地図上での上側の面301Uは、主として−y向きに照射されたレーザ光によって観測される。また、ロボット1がスタート地点から地図上の右方向に向けて移動するために、上側の面301Uは、+x向きに照射されたレーザ光によっても観測される。また、柱301の地図上での右側の面301Rは、主として−x向きに照射されたレーザ光によって観測され、−y向きのレーザ光によっても観測される。また、柱301の地図上での下側の面301Dは、主として+y向きに照射されたレーザ光によって観測され、−x向きのレーザ光によっても観測される。また、柱301の地図上での左側の面301Lは、主として+x向きに照射されたレーザ光によって観測され、+y向きのレーザ光によっても観測される。
このような観測によって生成される壁地図の具体例を図8(a)〜(d)に示す。図8(a)〜(d)の4枚の壁地図は、−y向き、−x向き、+y向き、及び+x向きの壁地図200U、200R、200D、及び200Lをそれぞれ示している。図8(a)〜(d)において、白抜きのグリッドセル201は、「移動可能セル」を示している。また、右肩下がりの斜線でハッチングされたグリッドセル202は、「壁セル」を示している。また、右肩上がりの斜線でハッチングされたグリッドセル203は、「未観測セル」を示している。
なお、複数の計測向きに対応した地図データを有する環境地図の具体的なデータ構造は特に限定されない。例えば、1つのグリッドセルに関連付けて、4つの計測向きに対応した4つの地図データを保持する場合には、図8(a)〜(d)に示したように、グリッドセルの位置を特定するための座標情報と1つの地図データとが関連付けられた壁地図4枚の組み合わせとして環境地図を生成してもよい。また、環境地図は、図6に示したように、1のグリッドセルの位置を特定するための座標情報に対して4つの計測向きに対応した4つの地図データを関連付けて記憶したデータ構造としてもよい。
図3に戻り説明を続ける。図3の最後のステップS17では、ステップS16で生成された壁地図を元に、レーザ照射向き毎の距離地図を生成する。ここで、距離地図とは、各グリッドセルの値として最寄りの壁セルからの距離情報が保持されたグリッド地図である。
ここで、距離地図の具体例について図9(a)及び(b)を用いて説明する。図9(a)は、壁地図として作成された環境地図を示している。図9(a)において、セル410を含む白抜きのセルは、「移動可能セル」を示し、セル411を含む斜線でハッチングされたセルは、「壁セル」を示している。
一方、図9(b)は、図9(a)の壁地図41を距離地図に変換した例を示している。図9(b)の距離地図42は、各グリッドセルの値として最寄りの壁セルからの距離を保持している。例えば、図9(b)の斜線でハッチングされたグリッドセルは、セル411を含む壁セルに対応しているため、最寄りの壁セルからの距離はゼロである。したがって、壁セルの保持値はゼロである。また、これら壁セルの上下左右のいずれかに隣接するグリッドセルの保持値は1である。その他のセルも同様に、セルピッチ(セルの一辺の長さ)を単位距離として、各グリッドセルの中心から最寄りの壁セルの中心までの距離を表した数値を保持している。
図9(b)に示したような距離地図を予め作成しておくことによって、後述する自己位置推定を行う際に、最寄りの壁セルまでの距離を繰り返し求める演算を効率よく実行できる。環境地図の保持値を読み出すことによって所望の距離値が得られるため、距離の解析的な計算を都度行う必要が無く計算量を削減することができるためである。
距離地図の作成は、例えば、以下に示す手順で行なうことができる。ここでは、最寄りの壁セルまでの距離及び最寄りの壁セル座標が各グリッドセルに保持される距離地図の作成方法について説明する。まず、始めに、距離地図の初期値を設定する。具体的には、壁地図として作成された環境地図の壁セルについて、自身の座標を最寄りの壁セル座標としてセットし、壁距離をゼロにセットする。壁セル以外のセル、例えば、「移動可能セル」及び「未観測セル」等については、十分遠方の座標を壁セル座標の初期値にセットし、壁距離の値も予め定められた最大値にセットする。
次に、図10に示すように、壁地図として作成された環境地図の最外周のグリッドセルを除くグリッドセル501から右方向に1セルずつ走査する。順次走査される各グリッドセルでは、隣接する8個のグリッドセルに保持されている最寄りの壁セル座標(x、y)を用いて走査対象セルの座標から最寄りの壁セルまでの距離を計算する。例えば、グリッドセル501の場合、四角形503で囲まれたグリッドセルC1〜C8が対象となる。8つの隣接セルの保持値を用いて最寄りの壁セルまでの距離を計算した結果、最小となった距離及び最小値を与える壁セル座標を、走査対象セルに関連付けて保存する。このようなグリッドセルの走査を、左上から右下まで順次行い、次に、右下のグリッドセル502から左上のグリッドセル501まで逆順序で走査する。このような手順により、壁地図として作成された環境地図をもとに、距離地図を生成することができる。
続いて以下では、計測向き毎の地図データを有する環境地図を利用した自己位置推定の具体的手順について詳しく説明する。図11は、自己位置推定部14による自己位置推定手順を示すフローチャートである。
ステップS21では、距離センサ11により取得された距離データを入力する。ステップS22では、エンコーダ154により取得されるオドメトリ情報を入力する。ステップS23では、オドメトリ情報を用いてロボット1の移動量を算出する。ステップS24では、ステップS23で得た移動量を前回求めた自己位置に加えた地点及びその近傍に複数のロボット候補位置及び候補姿勢(X、Y,θ)を設定する。
ステップS25及びS26では、複数のロボット候補位置及び候補姿勢の各々について順に環境地図とのマッチングを行い、信頼度パラメータを算出する。具体的には、ステップS25において、距離データ中の計測点毎に、レーザ照射方向に応じた地図データを選択してマッチングを行う。
ステップS25における地図データ選択の具体例について図12を参照して説明する。ロボット1が、図12(a)に示すように移動環境600内に位置している場合、ロボット1から左向きに照射されたレーザ光により得られる計測点群601は、−x向きの地図データとマッチングされる。また、ロボット1の前方に照射されたレーザ光により得られる計測点群602は、+y向きの地図データとマッチングされる。また、ロボット1から右向きに照射されたレーザ光により得られる計測点群603は、+x向きの地図データとマッチングされる。
一方、ロボット1が、図12(b)に示すように、図12(a)と比べて右に約90度回転した姿勢で移動環境600内に位置する場合、計測点と照合される地図データが変化する。すなわち、ロボット1から左向きに照射されたレーザ光により得られる計測点群601は、+y向きの地図データとマッチングされる。また、ロボット1の前方に照射されたレーザ光により得られる計測点群602は、+x向きの地図データとマッチングされる。また、ロボット1から右向きに照射されたレーザ光により得られる計測点群603は、−y向きの地図データとマッチングされる。
図11のステップS26で算出される信頼度パラメータは、距離センサ11による計測点の位置に対応する距離地図内のグリッドセルに保持された"最寄りの壁セルからの距離"を複数の計測点に亘って集計した合計値とすればよい。この場合、最寄りの壁セルからの距離の合計値が小さいほど、距離データと環境地図の一致度が高く、信頼度が高いことを意味する。
ステップS27では、複数の候補位置及び候補姿勢の全てについて信頼度パラメータの算出が終了したかを判定し、終了していなければ、上述したステップS25及びS26を繰り返す。
ステップS28では、複数の候補位置及び候補姿勢の中で最も信頼度が高い、言い換えると、信頼度パラメータとしての"最寄りの壁セルからの距離の合計値"が最も小さい候補位置及び姿勢を、ロボット1の自己位置及び姿勢(X、Y,θ)に決定する。
上述したように、本実施の形態にかかるロボット1は、自己位置推定を行う際に、移動環境内の各地点に関連付けて計測向き毎の複数の地図データが保持された環境地図を用いる。そして、ロボット1は、距離センサ11による計測を行ったときの計測向きに応じて、距離センサ11により取得された距離データとのマッチングに使用する地図データを使い分ける。これにより、ロボット1の位置する場所からの周囲の見え方に対応した適切な地図データを用いて自己位置推定を行うことができる。
<その他の実施の形態>
発明の実施の形態1では、ロボット1自身が環境地図の生成を行うものとして説明した。しかしながら、ロボット1は、外部から供給される環境地図を環境地図記憶部13に格納しておき、これを用いて自己位置推定を行ってもよい。
また、発明の実施の形態1では、距離センサ11による計測向きを90度毎に4等分し、4つの計測向きに対応した4つの地図データを有する環境地図を生成する具体例を示した。しかしながら、環境地図に保持される地図データの計測向きの分割単位が90度に限られないことは勿論である。具体的には、地図データの計測向きの分割単位は、距離センサ11が水平走査を行なう際の計測角度の分解能に比べて粗く設定しておけばよい。これにより、環境地図のデータサイズが過度に大きくなることを避けることができる。また、上述したように、距離センサ11による距離計測結果を集計して環境地図を作成する場合には、各計測向きの角度範囲内に多くの計測点が含まれることになるため、計測向き毎の地図データを精度良く生成するこができる。
また、発明の実施の形態1では、環境地図として距離地図を使用する例を示した。しかしながら、ロボット1は、距離地図を使用せずに、壁地図を用いて自己位置推定を行ってもよい。また、ロボット1が使用する環境地図は、上述した壁地図及び距離地図のほか、移動環境内の各地点の床面からの高さが記憶された地図等の他の地図でもよい。また、発明の実施の形態1では、環境地図が2次元のグリッド地図であるとして説明を行なった。しかしながら、環境地図は、例えば、3次元のグリッド地図でもよい。
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
本発明の実施の形態1にかかる移動ロボットの制御系を示すブロック図である。 自律移動部のブロック図である。 環境地図の生成手順の一例を示すフローチャートである。 占有率地図の一例を示す図である。 占有率地図の生成方法を説明するための概念図である。 計測向き毎の地図データを保持する壁地図の一例を示す図である。 移動環境の一例を示す図である。 計測向き毎の地図データを保持する壁地図の一例を示す図である。 距離地図の一例を示す図である。 距離地図の生成手順を説明するための概念図である。 自己位置推定手順の一例を示すフローチャートである。 自己位置推定手順を説明するための概念図である。 従来の環境地図が有する課題を説明するための図である。
符号の説明
1 移動ロボット
11 距離センサ
12 地図生成部
13 環境地図記憶部
14 自己位置推定部
15 自律移動部

Claims (10)

  1. 移動環境内の対象物までの距離を計測する距離センサと、
    前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を記憶する環境地図記憶部と、
    前記距離センサによって前記対象物の計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択するとともに、選択された地図データ及び前記距離センサにより得られる前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定する自己位置推定部と、
    を備える移動ロボット。
  2. 前記地図データを分類する前記複数の計測向きの分割単位は、前記距離センサの計測角度の分解能に比べて荒く設定されている、請求項1に記載の移動ロボット。
  3. 前記距離センサは、レーザ光を走査して複数の計測点の距離情報を取得するレーザレンジファインダであって、
    前記自己位置推定部は、前記レーザ光の照射方向と、オドメトリを用いて算出した自己位置候補とに基づいて、前記複数の計測点を前記複数の計測向きのいずれかに分類し、前記複数の計測点の各々の前記距離情報を分類された計測向きの前記地図データと照合することで前記自己位置を推定する、請求項1又は2に記載の移動ロボット。
  4. 前記地図データは、前記地点を前記移動ロボットが移動可能であるか否かを示す情報、前記地点から最寄りの障害物までの距離を示す情報、及び前記地点の高さを示す情報のうち少なくとも1つを含む、請求項1乃至3のいずれか1項に記載の環境地図の移動ロボット。
  5. 移動環境内を移動する移動ロボットの自己位置推定方法であって、
    前記移動環境内の対象物までの距離を計測し、
    前記移動環境内の地点を複数の計測向きから見た場合の各計測向きに対応する複数の地図データが含まれる環境地図を参照し、
    前記対象物の距離計測を行った際の計測向きに対応する地図データを前記複数の地図データから選択し、
    選択された地図データ及び前記対象物の距離情報に基づいて当該移動ロボットの自己位置を推定する、
    自己位置推定方法。
  6. 前記地図データを分類する前記複数の計測向きの分割単位は、前記距離センサの計測角度の分解能に比べて荒く設定されている、請求項5に記載の自己位置推定方法。
  7. 移動ロボットの移動環境に関する環境地図の生成方法であって、
    前記移動環境内の地点を複数の計測向きから計測し、
    前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成し、
    前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶する、
    環境地図の生成方法。
  8. 移動ロボットの移動環境に関する環境地図の生成装置であって、
    前記移動環境内の地点を複数の計測向きから計測した計測結果を入力する手段と、
    前記複数の計測向き毎の計測結果に基づいて、前記地点に関する前記複数の計測向き毎の複数の地図データを生成する手段と、
    前記地点の位置を特定するための座標情報と前記複数の地図データとを関連付けて記憶する手段と、
    を備える環境地図の生成装置。
  9. 移動ロボットの移動環境内における位置を特定するための座標情報と、
    前記座標情報により特定される地点を第1の計測向きから見た場合の地図データ及び前記地点を前記第1の計測向きとは異なる第2の計測向きから見た場合の地図データと、
    を備える環境地図のデータ構造。
  10. 前記地図データは、前記地点が移動可能であるか否かを示す情報、前記地点から最寄りの障害物までの距離を示す情報、及び前記地点の高さを示す情報のうち少なくとも1つを含む、請求項9に記載の環境地図のデータ構造。
JP2008044058A 2008-02-26 2008-02-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 Expired - Fee Related JP4788722B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008044058A JP4788722B2 (ja) 2008-02-26 2008-02-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
US12/919,354 US9239580B2 (en) 2008-02-26 2009-01-26 Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map
EP09713949.7A EP2256574B1 (en) 2008-02-26 2009-01-26 Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map generating computer program
PCT/JP2009/051200 WO2009107430A1 (ja) 2008-02-26 2009-01-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008044058A JP4788722B2 (ja) 2008-02-26 2008-02-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造

Publications (2)

Publication Number Publication Date
JP2009205226A true JP2009205226A (ja) 2009-09-10
JP4788722B2 JP4788722B2 (ja) 2011-10-05

Family

ID=41015836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008044058A Expired - Fee Related JP4788722B2 (ja) 2008-02-26 2008-02-26 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造

Country Status (4)

Country Link
US (1) US9239580B2 (ja)
EP (1) EP2256574B1 (ja)
JP (1) JP4788722B2 (ja)
WO (1) WO2009107430A1 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189481A (ja) * 2010-03-16 2011-09-29 Sony Corp 制御装置、制御方法およびプログラム
JP2012173013A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 推定位置評価システム及びプログラム
JP2012194860A (ja) * 2011-03-17 2012-10-11 Murata Mach Ltd 走行車
KR101202108B1 (ko) 2010-06-03 2012-11-15 고려대학교 산학협력단 이동 로봇의 위치 추정 방법
KR101232584B1 (ko) 2011-02-11 2013-02-12 고려대학교 산학협력단 이동 로봇의 제어 장치 및 그 방법
JP2013073250A (ja) * 2011-09-26 2013-04-22 Toyota Motor Corp 自己位置推定装置、方法、及びプログラム
KR20150004568A (ko) * 2013-07-03 2015-01-13 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법
JP2015092348A (ja) * 2010-12-30 2015-05-14 アイロボット コーポレイション 可動式ヒューマンインターフェースロボット
JP2015146091A (ja) * 2014-02-03 2015-08-13 トヨタ自動車株式会社 移動ロボットの自己位置推定方法
JP2015215651A (ja) * 2014-05-08 2015-12-03 株式会社日立製作所 ロボットおよび自己位置推定方法
US9300954B2 (en) 2012-09-21 2016-03-29 Tadano Ltd. Surrounding information-obtaining device for working vehicle
JP2017083663A (ja) * 2015-10-28 2017-05-18 シャープ株式会社 一致性評価装置および一致性評価方法
JP2017090958A (ja) * 2015-11-02 2017-05-25 トヨタ自動車株式会社 環境地図の更新方法
JP2017526083A (ja) * 2014-09-01 2017-09-07 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 位置特定およびマッピングの装置ならびに方法
KR20180109284A (ko) * 2017-03-27 2018-10-08 (주)엔스퀘어 물류 자동화를 위한 자율주행 로봇 및 상기 로봇의 환경인식 및 자기위치 추정 방법
JP2018206038A (ja) * 2017-06-02 2018-12-27 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
JP2019067252A (ja) * 2017-10-03 2019-04-25 株式会社トプコン 経路選定装置、無人航空機、データ処理装置、経路選定処理方法および経路選定処理用プログラム
JP2020055066A (ja) * 2018-10-02 2020-04-09 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
WO2021033574A1 (ja) * 2019-08-21 2021-02-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11313976B2 (en) 2017-09-05 2022-04-26 Toyota Jidosha Kabushiki Kaisha Host vehicle position estimation device

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8626443B2 (en) * 2009-09-18 2014-01-07 Deutsches Zentrum für Luft—und Raumfahrt e.V. Method for creating a map relating to location-related data on the probability of future movement of a person
KR101641237B1 (ko) * 2009-11-20 2016-07-21 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US8265870B1 (en) * 2010-01-20 2012-09-11 Sandia Corporation Real-time method for establishing a detection map for a network of sensors
KR20120043446A (ko) * 2010-10-26 2012-05-04 한국전자통신연구원 차량 및 장애물의 위치 검출 장치 및 그 방법
WO2012160630A1 (ja) * 2011-05-20 2012-11-29 株式会社日立製作所 軌跡補正方法、軌跡補正装置および移動体装置
WO2012166970A1 (en) * 2011-05-31 2012-12-06 John Bean Technologies Corporation Deep lane navigation system for automatic guided vehicles
US20130060461A1 (en) * 2011-09-07 2013-03-07 INRO Technologies Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
DE102012201870A1 (de) 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
CN102681542A (zh) * 2012-03-07 2012-09-19 陶重犇 一种室内多用途移动机器人实验平台
DK2836853T3 (da) * 2012-04-11 2019-08-26 Balyo Indretning og fremgangsmåde til at bestemme referenceelementer i et miljø
US20140102859A1 (en) 2012-10-12 2014-04-17 Mckesson Automation Inc. Apparatuses, systems, and methods for dispensing medications from a central pharmacy to a patient in a healthcare facility
US9150119B2 (en) 2013-03-15 2015-10-06 Aesynt Incorporated Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system
TWM451103U (zh) * 2012-10-30 2013-04-21 Agait Technology Corp 行走裝置
CN103558856A (zh) * 2013-11-21 2014-02-05 东南大学 动态环境下服务动机器人导航方法
US9886036B2 (en) 2014-02-10 2018-02-06 John Bean Technologies Corporation Routing of automated guided vehicles
US9418446B2 (en) * 2014-08-27 2016-08-16 Nokia Technologies Oy Method and apparatus for determining a building location based on a building image
DE102014116882B4 (de) * 2014-11-18 2018-05-24 B. Strautmann & Söhne GmbH u. Co. KG Verfahren zur Entnahme von Futtermitteln aus Fahrsilos
US10822208B2 (en) 2014-12-23 2020-11-03 Manitowoc Crane Companies, Llc Crane 3D workspace spatial techniques for crane operation in proximity of obstacles
US9850109B2 (en) * 2014-12-23 2017-12-26 Manitowoc Crane Companies, Llc Crane 3D workspace spatial techniques for crane operation in proximity of obstacles
CN104615138B (zh) * 2015-01-14 2017-09-08 上海物景智能科技有限公司 一种划分移动机器人室内区域动态覆盖方法及其装置
CN104571113B (zh) * 2015-01-20 2017-07-11 新智认知数据服务有限公司 移动机器人的路径规划方法
CN106537169B (zh) * 2015-01-22 2018-10-30 广州艾若博机器人科技有限公司 基于色块标签的定位与地图构建方法及其装置
JP6411917B2 (ja) * 2015-02-27 2018-10-24 株式会社日立製作所 自己位置推定装置および移動体
US9864371B2 (en) 2015-03-10 2018-01-09 John Bean Technologies Corporation Automated guided vehicle system
JP6594008B2 (ja) * 2015-03-23 2019-10-23 株式会社メガチップス 移動体制御装置、ランドマーク、および、プログラム
CN107924192B (zh) * 2015-07-24 2019-03-19 日产自动车株式会社 自身位置推定装置及自身位置推定方法
CN105137998B (zh) * 2015-10-13 2017-12-08 徐金平 一种基于激光扫描仪的自主导航方法
CN107037806B (zh) * 2016-02-04 2020-11-27 科沃斯机器人股份有限公司 自移动机器人重新定位方法及采用该方法的自移动机器人
WO2017152390A1 (zh) * 2016-03-09 2017-09-14 广州艾若博机器人科技有限公司 地图构建方法、纠正方法及装置
US11020860B2 (en) 2016-06-15 2021-06-01 Irobot Corporation Systems and methods to control an autonomous mobile robot
US9919748B2 (en) * 2016-06-22 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicles with aerodynamic spoiler and retractable sensing systems
US10739142B2 (en) * 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
JP6812271B2 (ja) * 2017-02-27 2021-01-13 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6640779B2 (ja) * 2017-03-21 2020-02-05 株式会社東芝 自律移動装置及び移動制御システム
DE102018002378A1 (de) * 2017-04-21 2018-10-25 Sew-Eurodrive Gmbh & Co Kg Verfahren zum Detektieren beweglicher Objekte in einer Anlage und/oder zur Kollisionsvermeidung in einer Anlage und Anlage zur Durchführung eines solchen Verfahrens
JP6828579B2 (ja) * 2017-04-27 2021-02-10 トヨタ自動車株式会社 環境整備ロボットおよびその制御プログラム
JP6959032B2 (ja) * 2017-05-17 2021-11-02 株式会社Soken 位置推定装置、移動装置
CN109426248A (zh) * 2017-08-25 2019-03-05 科沃斯机器人股份有限公司 自移动机器人及其行走方法、显示障碍物分布的方法
CN109425352A (zh) * 2017-08-25 2019-03-05 科沃斯机器人股份有限公司 自移动机器人路径规划方法
CN109959935B (zh) * 2017-12-14 2020-10-23 北京欣奕华科技有限公司 一种地图建立方法、地图建立装置及机器人
US10612934B2 (en) 2018-01-12 2020-04-07 General Electric Company System and methods for robotic autonomous motion planning and navigation
CN112352272A (zh) * 2018-07-30 2021-02-09 千叶工业大学 地图生成***以及移动体
CN112789019B (zh) * 2018-10-08 2023-07-14 苏州金瑞麒智能科技有限公司 一种轮椅控制方法及***
CN109739255B (zh) * 2018-11-29 2020-11-24 北京航空航天大学 无人机的航行轨迹规划方法、装置及***
WO2020196962A1 (ko) * 2019-03-28 2020-10-01 엘지전자 주식회사 인공 지능 청소기 및 그의 동작 방법
KR102353320B1 (ko) * 2019-04-16 2022-01-19 한국전자기술연구원 지도 생성 장치 및 방법, 이를 이용한 이동 로봇
US11320528B1 (en) 2019-11-20 2022-05-03 Telephonics Corporation Monopulse secondary surveillance radar system
KR102384525B1 (ko) * 2020-07-09 2022-04-08 엘지전자 주식회사 이동로봇의 제어방법
CN112965076B (zh) * 2021-01-28 2024-05-24 上海思岚科技有限公司 一种用于机器人的多雷达定位***及方法
CN113777615B (zh) * 2021-07-19 2024-03-29 派特纳(上海)机器人科技有限公司 室内机器人的定位方法、***及清洁机器人

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6258311A (ja) * 1985-09-09 1987-03-14 Toshiba Corp 自律的移動体
JP2001125640A (ja) * 1999-10-26 2001-05-11 Matsushita Electric Works Ltd 自律移動台車及びその自己位置推定方法
JP2005310043A (ja) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd 移動体の障害物回避方法及び該移動体
JP2006252346A (ja) * 2005-03-11 2006-09-21 Secom Co Ltd 移動ロボット
JP2007078476A (ja) * 2005-09-13 2007-03-29 Toshiba Corp 物***置検出装置、地図作成装置、自律移動装置、物***置検出方法および物***置検出プログラム
JP2008276754A (ja) * 2007-03-30 2008-11-13 Topy Ind Ltd ロボット位置検出システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954962A (en) 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US5006988A (en) 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
DE4408328C2 (de) * 1994-03-11 2002-09-26 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
DE4408982C1 (de) 1994-03-16 1995-05-18 Deutsche Forsch Luft Raumfahrt Autonomes Navigationssystem für einen mobilen Roboter oder Manipulator
DE59701408D1 (de) 1996-07-02 2000-05-11 Siemens Ag Verfahren zur erstellung einer zellular strukturierten umgebungskarte von einer selbstbeweglichen mobilen einheit, welche sich mit hilfe mit auf wellenreflexion basierenden sensoren in der umgebung orientiert
JP4233723B2 (ja) 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
KR100561863B1 (ko) 2004-02-19 2006-03-16 삼성전자주식회사 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치
WO2005098476A1 (en) * 2004-03-29 2005-10-20 Evolution Robotics, Inc. Method and apparatus for position estimation using reflected light sources
US20060058921A1 (en) * 2004-09-13 2006-03-16 Tamao Okamoto Mobile robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6258311A (ja) * 1985-09-09 1987-03-14 Toshiba Corp 自律的移動体
JP2001125640A (ja) * 1999-10-26 2001-05-11 Matsushita Electric Works Ltd 自律移動台車及びその自己位置推定方法
JP2005310043A (ja) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd 移動体の障害物回避方法及び該移動体
JP2006252346A (ja) * 2005-03-11 2006-09-21 Secom Co Ltd 移動ロボット
JP2007078476A (ja) * 2005-09-13 2007-03-29 Toshiba Corp 物***置検出装置、地図作成装置、自律移動装置、物***置検出方法および物***置検出プログラム
JP2008276754A (ja) * 2007-03-30 2008-11-13 Topy Ind Ltd ロボット位置検出システム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189481A (ja) * 2010-03-16 2011-09-29 Sony Corp 制御装置、制御方法およびプログラム
KR101202108B1 (ko) 2010-06-03 2012-11-15 고려대학교 산학협력단 이동 로봇의 위치 추정 방법
JP2015092348A (ja) * 2010-12-30 2015-05-14 アイロボット コーポレイション 可動式ヒューマンインターフェースロボット
KR101232584B1 (ko) 2011-02-11 2013-02-12 고려대학교 산학협력단 이동 로봇의 제어 장치 및 그 방법
JP2012173013A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 推定位置評価システム及びプログラム
JP2012194860A (ja) * 2011-03-17 2012-10-11 Murata Mach Ltd 走行車
JP2013073250A (ja) * 2011-09-26 2013-04-22 Toyota Motor Corp 自己位置推定装置、方法、及びプログラム
US9300954B2 (en) 2012-09-21 2016-03-29 Tadano Ltd. Surrounding information-obtaining device for working vehicle
KR102096398B1 (ko) * 2013-07-03 2020-04-03 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법
KR20150004568A (ko) * 2013-07-03 2015-01-13 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법
JP2015146091A (ja) * 2014-02-03 2015-08-13 トヨタ自動車株式会社 移動ロボットの自己位置推定方法
JP2015215651A (ja) * 2014-05-08 2015-12-03 株式会社日立製作所 ロボットおよび自己位置推定方法
JP2017526083A (ja) * 2014-09-01 2017-09-07 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 位置特定およびマッピングの装置ならびに方法
JP2017083663A (ja) * 2015-10-28 2017-05-18 シャープ株式会社 一致性評価装置および一致性評価方法
JP2017090958A (ja) * 2015-11-02 2017-05-25 トヨタ自動車株式会社 環境地図の更新方法
KR20180109284A (ko) * 2017-03-27 2018-10-08 (주)엔스퀘어 물류 자동화를 위한 자율주행 로봇 및 상기 로봇의 환경인식 및 자기위치 추정 방법
KR101912361B1 (ko) * 2017-03-27 2018-10-26 (주)엔스퀘어 물류 자동화를 위한 자율주행 로봇 및 상기 로봇의 환경인식 및 자기위치 추정 방법
JP7032062B2 (ja) 2017-06-02 2022-03-08 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
JP2018206038A (ja) * 2017-06-02 2018-12-27 株式会社Ihi 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
US11313976B2 (en) 2017-09-05 2022-04-26 Toyota Jidosha Kabushiki Kaisha Host vehicle position estimation device
JP2019067252A (ja) * 2017-10-03 2019-04-25 株式会社トプコン 経路選定装置、無人航空機、データ処理装置、経路選定処理方法および経路選定処理用プログラム
JP7109174B2 (ja) 2017-10-03 2022-07-29 株式会社トプコン 経路選定装置、無人航空機、データ処理装置、経路選定処理方法および経路選定処理用プログラム
JP2020055066A (ja) * 2018-10-02 2020-04-09 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP7275518B2 (ja) 2018-10-02 2023-05-18 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
WO2021033574A1 (ja) * 2019-08-21 2021-02-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
US9239580B2 (en) 2016-01-19
EP2256574A1 (en) 2010-12-01
EP2256574A4 (en) 2011-12-07
US20110010033A1 (en) 2011-01-13
EP2256574B1 (en) 2015-06-17
WO2009107430A1 (ja) 2009-09-03
JP4788722B2 (ja) 2011-10-05

Similar Documents

Publication Publication Date Title
JP4788722B2 (ja) 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
US10962376B2 (en) Adaptive mapping with spatial summaries of sensor data
Zhang et al. Localization and navigation using QR code for mobile robot in indoor environment
US9939529B2 (en) Robot positioning system
WO2020258721A1 (zh) 智能巡航车导航方法及***
US9182763B2 (en) Apparatus and method for generating three-dimensional map using structured light
JP5278283B2 (ja) 自律移動装置及びその制御方法
JP5310285B2 (ja) 自己位置推定装置及び自己位置推定方法
JP5147129B2 (ja) 自律型移動体
JP2009217333A (ja) 移動ロボット及びその動作制御方法
JP6074205B2 (ja) 自律移動体
JP5902275B1 (ja) 自律移動装置
JP2011209845A (ja) 自律移動体、自己位置推定方法、地図情報作成システム
RU2740229C1 (ru) Способ локализации и построения навигационных карт мобильного сервисного робота
WO2017008742A1 (en) Method and device for determining indoor approachable area
JP2018206004A (ja) 自律走行台車の走行制御装置、自律走行台車
US11931900B2 (en) Method of predicting occupancy of unseen areas for path planning, associated device, and network training method
JP5361257B2 (ja) 自律移動装置
JP5212939B2 (ja) 自律移動装置
JP2016091202A (ja) 自己位置推定装置及び自己位置推定装置を備えた移動体
JP2020024618A (ja) 移動経路取得方法、及び、移動経路取得装置
KR102203284B1 (ko) 이동 로봇의 주행 평가 방법
JP7114867B2 (ja) 自律走行システム、これを備えた車両及び自律走行方法
JP2022013243A (ja) 移動体制御装置、地図生成方法、及び地図生成プログラム
Kumar Development of SLAM algorithm for a Pipe Inspection Serpentine Robot

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110704

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140729

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4788722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees