JP3968501B2 - ロボットの自己位置同定システム及び自己位置同定方法 - Google Patents

ロボットの自己位置同定システム及び自己位置同定方法 Download PDF

Info

Publication number
JP3968501B2
JP3968501B2 JP2001365752A JP2001365752A JP3968501B2 JP 3968501 B2 JP3968501 B2 JP 3968501B2 JP 2001365752 A JP2001365752 A JP 2001365752A JP 2001365752 A JP2001365752 A JP 2001365752A JP 3968501 B2 JP3968501 B2 JP 3968501B2
Authority
JP
Japan
Prior art keywords
self
search
observation
robot
landmark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001365752A
Other languages
English (en)
Other versions
JP2003166824A (ja
Inventor
正樹 福地
グットマン ステファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001365752A priority Critical patent/JP3968501B2/ja
Priority to US10/470,456 priority patent/US7263412B2/en
Priority to EP02783642A priority patent/EP1450129A4/en
Priority to PCT/JP2002/012367 priority patent/WO2003046478A1/ja
Publication of JP2003166824A publication Critical patent/JP2003166824A/ja
Application granted granted Critical
Publication of JP3968501B2 publication Critical patent/JP3968501B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、作業空間を自在(無経路)に移動することができるインテリジェントな移動ロボットのための自己位置同定システム及び自己位置同定方法に係り、特に、ロボットのセンサ情報とロボット自身の動作情報に基づいて自己位置を同定するロボットの自己位置同定システム及び自己位置同定方法に関する。
【0002】
さらに詳しくは、本発明は、人工的なランドマークを含む環境において、ランドマークの探索結果を手掛かりに自己位置を同定するロボットの自己位置同定システム及び自己位置同定方法に係り、特に、広い範囲で比較的短い探索時間で探索を行う大域的探索と高精度だが探索時間を要する局所的探索とを併用して自己位置同定を行うロボットの自己位置同定システム及び自己位置同定方法に関する。
【0003】
【従来の技術】
電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置のことを「ロボット」という。ロボットの語源は、スラブ語のROBOTA(奴隷機械)に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
【0004】
最近では、ヒトのような2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間形」若しくは「人間型」のロボット(humanoid robot)を始めとして、各種の脚式移動ロボットに関する研究開発が進展し、実用化への期待も高まってきている。
【0005】
車輪や可動脚などを備えた移動型ロボットの主な用途は、産業活動・生産活動などにおける各種作業の代行や、ユーザとの対話をベースにしてインテリジェントなリアクションを行う人間との共存・共生などを挙げることができる。前者の場合、原子力発電プラントや火力発電プラント、石油化学プラントにおけるメンテナンス作業、製造工場における部品の搬送・組立作業、高層ビルにおける清掃、火災現場その他における救助といったような、人間が容易に踏み込むことができない現場での危険作業・難作業をロボットが代わりに行うことを意味する。また、後者の場合、ロボットは人間と同じ住空間で利用され、自律的な思考及び動作制御を行い、より高度でリアリスティックなコミュニケーションを実現する。
【0006】
ところで、移動ロボットの自己位置同定は、例えばロボットがデリバリなどのサービスを行う上で極めて重要な技術である。何故ならば、目標地点までの道順を間違うことは、仮に回復することができたとしても非効率的であり、障害物との衝突や危険区域への進入などの危険を招来する可能性さえあるからである。
【0007】
ロボットが自己同定を行う代表的な手法の1つとして「ランドマーク(Landmark)」の利用を挙げることができる。ランドマークには、通常、視覚的に識別可能な視認情報がその表面に形成されている。ロボットは、視覚認識されたランドマークからの相対位置情報を基に自己位置を地理的に探索することができる。
【0008】
人工的なランドマークを含む環境における探索若しくは自己位置同定の方式として、例えば、マルコフ・ローカリゼーションや拡張カルマン・フィルタを適用したものが提案されている。
【0009】
マルコフ・ローカリゼーションを用いた探索装置は、環境内の自分の位置を離散的なグリッド上の自己位置確率密度分布として保持し、環境内に設置されているランドマークを観測すると、ランドマークからの相対位置に基づいて自己位置を推定して、自己位置確率密度分布を更新する。また、自身の動作情報を観測すると、その動作情報に基づいて、自己位置確率密度を更新する。そして、各時刻において、自己位置確率密度分布の最も高い値を持つグリッドが、自己位置の推定結果となる。
【0010】
他方、拡張カルマン・フィルタを用いた探索装置は、自己位置を状態変数[x,y,θ]の実測値として保持し、環境内に設置されたランドマークを観測すると、ランドマークからの相対位置に基づいて自己位置を推定する。また、自身の動作情報を観測すると、その動作情報に基づいて、状態量の推定を行う。
【0011】
前者のマルコフ・ローカリゼーションを適用した探索装置は、同定解の精度は粗いが、解の収束速度が速いことを主な特徴とする。よって、本発明者らはこのタイプの探索装置は大域的な探索に適していると思料する。また、マルコフ・ローカリゼーションは、センサのノイズに対してロバストである、すなわちセンサ値にノイズを含んでいても、ほぼ一定の自己位置同定結果を得ることができる。
【0012】
また、後者の拡張カルマン・フィルタを適用した探索装置は、解の収束速度は遅いが、同定解の精度が細かいことを主な特徴とする。よって、本発明者らはこのタイプの探索装置は局所的な探索に適していると思料する。また、拡張カルマン・フィルタは、センサ情報に対してロバストである反面、センサ・ノイズに対するロバスト性が低く、また、再復帰にかかる時間が長い。
【0013】
【発明が解決しようとする課題】
マルコフ・ローカリゼーションを用いた探索装置は、大局的探索装置の性質が強く、解の収束速度は速い。しかしながら、グリッド分割の数の2乗で計算量が増加するため、同定解の精度は離散化されたグリッドの粗さに依存し、一般に精度のよい解は得られない。また、解の精度が悪い場合には、自己位置を正確に知ることができない。このため、目的の場所に正確に行くことができない、目的に場所に到着しているのかどうか判断できない、といった不具合が生ずることがある。
【0014】
一方、拡張カルマン・フィルタを用いた探索装置は、局所的探索装置の性質が強く、同定解の精度は非常によいが、その反面、収束性が悪く、観測情報のノイズに対するロバスト性(頑健性)に欠けている。収束速度が遅い場合には、自己位置同定開始時の初期位置同定に時間がかかるとともに、他の外力によって意図せず位置を動かされた場合(誘拐問題)には、正しい解を得るまでに非常に時間がかかる。
【0015】
本発明の目的は、車輪や可動脚などの移動機構を備えたロボット自身の位置や姿勢を認識しながら行動するロボットにおいて、高精度で高速且つロバストな自己位置同定を行うことができる、優れたロボットの自己位置同定システム及び自己位置同定方法を提供することにある。
【0016】
本発明のさらなる目的は、人工的なランドマークを含む環境において、ランドマークの探索結果を手掛かりに自己位置を好適に同定することができる、優れたロボットの自己位置同定システム及び自己位置同定方法を提供することにある。
【0017】
本発明のさらなる目的は、広い範囲で比較的短い探索時間で探索を行う大域探索と高精度だが探索時間を要する局所的探索とを併用して、高精度で、高速且つロバストな自己位置同定を行うことができる、優れたロボットの自己位置同定システム及び自己位置同定方法を提供することにある。
【0018】
【課題を解決するための手段及び作用】
本発明は、上記課題を参酌してなされたものであり、移動機構を備えて所定の環境内を移動可能なロボットのための自己位置同定システム又は自己位置同定方法であって、
前記環境内に設置されたランドマークを観測する外界観測手段又はステップと、
ロボット自身の動作情報を観測する内界観測手段又はステップと、
外界観測結果及び内界観測結果を基に比較的高速に位置同定解を出力する第1の探索手段又はステップと、
外界観測結果及び内界観測結果を基に比較的細かな精度で位置同定解を出力する第2の探索手段又はステップと、
前記第1の探索手段又はステップの出力結果に応じて前記第2の探索手段又はステップの動作を制御する制御手段又はステップと、
を具備することを特徴とするロボットの自己位置同定システム又は自己位置同定方法である。
【0019】
ここで、前記第1の探索手段又はステップは、マルコフ・ローカリゼーションを適用して、環境内の自分の位置を離散的なグリッド上の自己位置確率密度分布として保持し、前記外界観測手段又はステップによるランドマークの観測結果に応じて該ランドマークからの相対位置に基づいて自己位置を推定して自己位置確率密度分布を更新するとともに、前記内界観測手段又はステップによる自身の動作情報の観測結果に基づいて、自己位置確率密度を更新し、各時刻において自己位置確率密度分布の最も高い値を持つグリッドを自己位置の推定結果として出力するようになっていてもよい。
【0020】
マルコフ・ローカリゼーションを適用した探索は、同定解の精度は粗いが、センサ・ノイズに対してロバストであることや、解の収束速度が速いことを主な特徴とし、大域的な探索に適している。
【0021】
また、前記第2の探索手段又はステップは、前記内界観測手段又はステップによるロボット自身の動作情報と自己位置との関係を規定した状態モデルと、自己位置と前記外界観測手段又はステップによるランドマークの観測情報との関係を規定した観測モデルを備えた拡張カルマン・フィルタを適用して、前記内界観測手段又はステップによるロボット自身の動作情報及び前記外界観測手段又はステップによるランドマークの観測情報を基に自己位置を推定するようになっていてもよい。
【0022】
拡張カルマン・フィルタを適用した探索は、センサ・ノイズに対するロバスト性が低く、解の収束速度は遅いが、センサ情報に対するロバスト性に優れ、同定解の精度が細かいことを主な特徴とし、局所的な探索に適している。
【0023】
また、前記制御手段又はステップは、前記第1の探索手段又はステップの探索結果の妥当性を評価して、該評価が所定の基準を満たさなかったことに応答して前記第2の探索手段又はステップへの少なくとも外界観測情報の入力を制限するようにしてもよい。
【0024】
例えば、前記第1の探索手段又はステップにおいてマルコフ・ローカリゼーションを適用する場合には、前記第1の探索手段又はステップにおいて推定された自己位置において前記外界観測手段又はステップによりランドマークを観測する確率が所定の閾値を上回るかどうかによって、前記外界観測手段又はステップによる外界観測結果の妥当性を評価することができる。
【0025】
例えば、推定された自己位置においてランドマークを観測する確率が閾値を下回る場合には、マルコフ・ローカリゼーションにおいて、センサ・ノイズのために解が充分に収束していないことが予測される。したがって、センサ・ノイズに対するロバスト性がより低い拡張カルマン・フィルタに基づく探索を行っても精度のよい自己位置同定結果が得られるとは考えられない。そこで、該評価が所定の基準を満たさなかったことに応答して前記第2の探索手段又はステップへの少なくとも外界観測情報の入力を制限して、収束速度の遅い拡張カルマン・フィルタに基づく探索をスキップするようにしてもよい。
【0026】
また、前記制御手段又はステップは、前記第2の探索手段又はステップによる探索結果の妥当性を検証して、該評価が所定の基準を満たすことに応答して該探索結果を自己位置同定結果として出力するとともに、該評価が所定の基準を満たさなかったことに応答して前記第2の探索手段又はステップを再初期化するようにしてもよい。
【0027】
例えば、前記第2の探索手段又はステップにおいて拡張カルマン・フィルタを適用する場合には、前記第2の探索手段又はステップによる自己位置の推定結果である確率密度分布を、前記第1の探索手段又はステップによる自己位置の推定結果である確率密度分布と比較して、両者の類似度により妥当性を検証することができる。分布の類似度は、例えばカイ自乗テストを利用することができる。拡張カルマン・フィルタよりもマルコフ・ローカリゼーションの方がセンサ・ノイズに対してロバストであることから、両者の確率密度分布が類似しない場合には、センサ・ノイズに対するロバスト性の低い拡張カルマン・フィルタに基づく探索結果の方が妥当でないと推測される。また、拡張カルマン・フィルタは再復帰にかかる時間が長い。そこで、該評価が所定の基準を満たさなかったことに応答して、前記第2の探索手段又はステップを再初期化するようにしてもよい。
【0028】
また、拡張カルマン・フィルタに基づく探索の方がセンサ情報に対するロバスト性が高いことから、該評価が所定の基準を満たす場合には、前記第2の探索手段又はステップによる自己位置推定結果をシステム全体の探索結果として出力するようにしてもよい。
【0029】
本発明に係る自己位置同定システム又は自己位置同定方法によれば、自己位置同定解の収束速度が優れる大域的探索による精度の粗い同定解にのみ頼るとなく、また、同定解の精度が高いが収束速度が遅い局所的探索を常に稼働しその出力をひたすら待つ必要もない。
【0030】
また、マルコフ・ローカリゼーションのセンサ・ノイズに対するロバスト性を用いて、ランドマークに関する外界観測結果の妥当性や拡張カルマン・フィルタの自己位置推定結果の妥当性を評価して、最終的には、センサ情報に対するロバスト性に優れた拡張カルマン・フィルタによる自己位置推定結果をシステム全体の自己位置同定結果として出力とすることができる。
【0031】
すなわち、本発明によれば、高精度で高速、且つ、ロバストな自己位置同定を実現することができる訳である。
【0032】
なお、前記外界観測手段は、ランドマークを捕捉する画像入力手段及び入力画像を基にランドマーク及び該ランドマークまでの距離を認識する画像認識手段デ構成することができる。
【0033】
あるいは、前記外界観測手段は、ランドマークまでの距離を計測するレンジ・ファインダなどで構成することもできる。
【0034】
また、ランドマークは、視認性の識別情報が表面に形成されている部材で構成することができる。例えば、2色以上に塗り分けられたチューブ状のポールや、2色以上に塗り分けられた平面板などをランドマークとして適用することができる。
【0035】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0036】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態について詳解する。
【0037】
A.移動ロボットの構成
図1には、本発明に実施に供される移動ロボット1の機能構成を模式的に示している。同図に示すように、移動ロボット1は、全体の動作の統括的制御やその他のデータ処理を行う制御ユニット20と、入出力部40と、駆動部50と、電源部60とで構成される。以下、各部について説明する。
【0038】
入出力部40は、入力部として移動ロボット1の目に相当するCCDカメラ15や、耳に相当するマイクロフォン16、頭部や背中などの部位に配設されてユーザの接触を感知するタッチ・センサ18、各足底に配設された肉球スイッチ、あるいは五感に相当するその他の各種のセンサを含む。また、出力部として、口に相当するスピーカ17、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLEDインジケータ(目ランプ)19などを装備している。これら出力部は、脚などによる機械運動パターン以外の形式で移動ロボット1からのユーザ・フィードバックを表現することができる。
【0039】
CCDカメラ15は、例えば、作業空間上の各部位に配設されたランドマークを観測する外界観測手段として機能することができる。勿論、CCDカメラ15以外に(あるいは、これと併せて)、レンジ・ファインダなどを外界観測手段として備えていてもよい。
【0040】
駆動部50は、制御部20が指令する所定の運動パターンに従って移動ロボット1の機械運動を実現する機能ブロックであり、首関節7、尻尾関節8、股関節11A〜11D、膝関節12A〜12Dなどのそれぞれの関節におけるロール、ピッチ、ヨーなど各軸毎に設けられた駆動ユニットで構成される。図示の例では、移動ロボット1はn個の関節自由度を有し、したがって駆動部50はn個の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行うモータ51と、モータ51の回転位置を検出するエンコーダ52と、エンコーダ52の出力に基づいてモータ51の回転位置や回転速度を適応的に制御するドライバ53の組み合わせで構成される。
【0041】
各駆動ユニット毎に配設されたエンコーダ52は、ロボット自身の動作情報を観測する内界観測手段として機能することができる。
【0042】
電源部60は、その字義通り、移動ロボット1内の各電気回路などに対して給電を行う機能モジュールである。本実施形態に係る移動ロボット1は、バッテリを用いた自律駆動式であり、電源部60は、充電バッテリ61と、充電バッテリ61の充放電状態を管理する充放電制御部62とで構成される。
【0043】
充電バッテリ61は、例えば、複数本のニッケル・カドミウム電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。
【0044】
また、充放電制御部62は、バッテリ61の端子電圧や充電/放電電流量、バッテリ61の周囲温度などを測定することでバッテリ61の残存容量を把握し、充電の開始時期や終了時期などを決定するようになっている。充放電制御部62が決定する充電の開始及び終了時期は制御ユニット20に通知され、移動ロボット1が充電オペレーションを開始及び終了するためのトリガとなる。
【0045】
制御ユニット20は、「頭脳」に相当し、例えば移動ロボット1の頭部あるいは胴体部に搭載されている。
【0046】
図2には、制御ユニット20の構成をさらに詳細に図解している。同図に示すように、制御ユニット20は、メイン・コントローラとしてのCPU(Central Processing Unit)21が、メモリその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス27は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。バス27上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU21は、アドレスを指定することによってバス28上の特定の装置と通信することができる。
【0047】
RAM(Random Access Memory)22は、DRAM(Dynamic RAM)などの揮発性メモリで構成された書き込み可能メモリであり、CPU21が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的な保存のために使用される。
【0048】
ROM(Read Only Memory)23は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM23に格納されるプログラム・コードには、移動ロボット1の電源投入時に実行する自己診断テスト・プログラムや、移動ロボット1の動作を規定する動作制御プログラムなどが挙げられる。
【0049】
ロボット1の制御プログラムには、カメラ15やマイクロフォン16などのセンサ入力を処理する「センサ入力処理プログラム」、センサ入力と所定の動作モデルとに基づいて移動ロボット1の行動すなわち運動パターンを生成する「行動命令プログラム」、生成された運動パターンに従って各モータの駆動やスピーカ17の音声出力などを制御する「駆動制御プログラム」、作業空間に配置されている1以上のランドマークを手がかりに自分の地理的な所在を探索する「自己位置同定プログラム」などが含まれる。
【0050】
駆動制御プログラムは、通常の歩行運動や走行運動以外に、「お手」、「お預け」、「お座り」や、「ワンワン」などの動物の鳴き声の発声などエンターティンメント性の高い動作を発現するようにしてもよい。
【0051】
また、自己位置同定プログラムは、CCDカメラ15によって観測されたランドマークなどの外界観測情報やエンコーダ52によって観測されたロボット1自身の動作情報に基づいて、大局的及び局所的な自己位置同定処理を行う。自己位置同定のメカニズムの詳細については後述に譲る。
【0052】
不揮発性メモリ24は、例えばEEPROM(Electrically Erasable and Programmable ROM)のように電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータには、製造番号や暗号鍵などのセキュリティ情報などが挙げられる。
【0053】
インターフェース25は、制御ユニット20外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース25は、例えば、カメラ15やマイクロフォン16、スピーカ17との間でデータ入出力を行う。また、インターフェース25は、駆動部50内の各ドライバ53−1…との間でデータやコマンドの入出力を行う。
【0054】
また、インターフェース25は、RS(Recommended Standard)−232Cなどのシリアル・インターフェース、IEEE(Institute of Electrical and electronics Engineers)1284などのパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small Computer System Interface)インターフェース、メモリ・スティックを受容するメモリ・カード・インターフェース(カード・スロット)などのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行うようにしてもよい。
【0055】
また、インターフェース25の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行うようにしてもよい。
【0056】
さらに、制御ユニット20は、無線通信インターフェース26やネットワーク・インターフェース・カード(NIC)27などを含み、Bluetoothのような近接無線データ通信や、IEEE 802.11bのような無線ネットワーク、あるいはインターネットなどの広域ネットワークを経由して、外部のさまざまなホスト・コンピュータとデータ通信を行うことができる。
【0057】
このような移動ロボット1とホスト・コンピュータ間におけるデータ通信により、遠隔のコンピュータ資源を用いて、移動ロボット1の複雑な動作制御を演算したり、リモート・コントロールすることができる。
【0058】
B.ロボット自己位置同定システム
本実施形態に係る移動ロボット1は、自分が自律的に移動する作業空間の中で現在の自分の所在を探索する自己位置同定システムを備えている。自己位置同定システムは、実際には、制御ユニット20内のCPU21が実行するプログラム・コードによって実現される。
【0059】
本実施形態に係る自己位置同定システムは、作業空間に配置されている1以上のランドマークの観測をベースとしており、ランドマークの観測に関する外界観測結果とロボット1自身の動作情報の観測に関する内界観測結果に基づいて探索処理を行う。すなわち、センサ入力などの外界観測結果sの履歴と、各関節アクチュエータからのエンコーダ出力などの内界観測結果aの履歴を基に、ロボット1の状態すなわち自己位置l(localization)の確からしさ(likelihood)を求める。外界観測結果と内界観測結果の効果を統合的に結合することは極めて困難であるが、再帰的に概算値や確率を推定することは可能である。
【0060】
また、本実施形態に係る自己位置同定システムは、同定解の精度は粗いが解の収束速度が速い「大域的探索」と、解の収束速度は遅いが同定解の精度が細かな「局所的探索」とを併用して構成されている。大域的探索にはマルコフ・ローカリゼーション(Markov Localization)を適用するとともに、局所的探索には拡張カルマン・フィルタ(Extended Kalman Filter)を適用する。
【0061】
マルコフ・ローカリゼーションを用いた探索では、作業空間内の自分の位置を離散的なグリッド上の自己位置確率密度分布として保持し、作業空間内に設置されているランドマークを観測すると、その観測情報sすなわちランドマークからの相対位置に基づいて自己位置を推定して、自己位置確率密度分布を更新する。また、自身の動作情報aを観測すると、その動作情報aに基づいて、自己位置確率密度を更新する。そして、各時刻において、自己位置確率密度分布の最も高い値を持つグリッドが、自己位置の推定結果となる。
【0062】
例えば、2次元的な作業空間上では、略等間隔状にグリッド(x,y)を設け、各グリッドの位置l(localization)毎にロボットが存在する確率p(l)を管理する。この存在確率p(l)は、ロボットの移動(move)すなわち内界観測情報aや、ランドマークの観測すなわち外界観測情報sの入力に応じて更新される。
【0063】
存在確率p(l)は、ロボットの以前の状態すなわち自己位置l'における存在確率p(l')と、以前の状態l'において移動aを行ったときに状態lになるという遷移確率p(l|a,l')に依拠する。すなわち、これまでの各状態l'になる確率p(l')と、状態l'において移動aを行ったときに状態lになるという遷移確率p(l|a,l')の積を加算していく(若しくは積分する)ことによって、現在の状態すなわち自己位置lになるという存在確率p(l)に収束する。したがって、外界観測結果としてのロボットの移動aが観測されたときには、各グリッドでは、下式に従ってロボットの存在確率p(l)を更新することができる。
【0064】
【数1】
Figure 0003968501
【0065】
また、状態すなわち自己位置lにロボットが存在するという存在確率p(l)は、存在確率p(l)とこの状態lにおいてランドマークを観察するという遷移確率p(s|l)に依拠する。したがって、状態lにおいてランドマークの観測すなわち外界観測情報sが入力された場合には、下式に従ってロボットの存在確率p(l)を更新することができる。但し、右辺では、正規化のため、ランドマークを観察するという確率p(s)で除して正規化している。
【0066】
【数2】
Figure 0003968501
【0067】
図3には、マルコフ・ローカリゼーションにより求められた各グリッド上での自己位置確率密度分布を表している。同図では、各グリッドにおける確率密度を濃淡により表現している。最も色が濃いすなわち自己位置確率密度分布の最も高い値を持つグリッドが、自己位置の推定結果となる。
【0068】
マルコフ・ローカリゼーションによる自己位置同定は、センサのノイズに対してロバストであり、同定解の精度は粗いが、解の収束速度が速いことを主な特徴とする。
【0069】
一方、拡張カルマン・フィルタは、自己位置を状態変数[x,y,θ]の実測値として保持し、環境内に設置されたランドマークを観測すると、ランドマークからの相対位置に基づいて自己位置を推定する。また、自身の動作情報を観測すると、その動作情報に基づいて、状態量の推定を行う。
【0070】
図4には、拡張カルマン・フィルタの構成を模式的に示している。同図に示すように、拡張カルマン・フィルタは、ロボット自身の動作情報aと状態すなわち自己位置lとの関係を規定した状態モデルと、自己位置lとランドマークの観測情報sとの関係を規定した観測モデルで構成される。
【0071】
状態モデルは、ロボットが状態すなわち自己位置lにおいて動作aを行った場合における理論的な状態lを与える遷移関数F(l,a)を備えている。実際には理論的な状態lに対してノイズ成分wが重畳されることから、ロボットの状態lは状態モデルにより下式のように収束する。
【0072】
【数3】
Figure 0003968501
【0073】
また、観測モデルは、ロボットが状態すなわち自己位置iにおいて、ある既知の環境Env(例えばランドマークの位置など)に関する観測の理論値sを与える観測関数H(Env,l)を備えている。実際には観測の理論値に対してノイズ成分vが重畳されることから、観測値sは観測モデルにより下式のように収束する。
【0074】
【数4】
Figure 0003968501
【0075】
なお、状態l並びに観測sに重畳されるそれぞれのノイズw及びvは、ここではゼロを中央値とするガウス分布として仮定する。
【0076】
図示のようにロボット自身の動作情報aと自己位置lとの関係を規定した状態モデルと自己位置lとランドマークの観測情報sとの関係を規定した観測モデルを備えた拡張カルマン・フィルタにおいて、動作情報aは内界観測結果として、ランドマークの観測情報sは外界観測結果として、それぞれ既知である。したがって、ロボットの自己位置同定を、ロボットの状態lをロボットの動作情報a及び観測情報sによる推定するという問題に帰着することができる。ここでは、ロボットの動作a、状態l、及び観測sをそれぞれ以下に示すガウス分布として表現することにする。
【0077】
【数5】
Figure 0003968501
【0078】
ある時点でのロボットの状態lがある中央値と共分散を持つガウス分布として推定されているとする。このような場合、ロボットの動作aが観測されたときには、状態lの推定値に関する中央値並びに共分散を下式により更新することができる。
【0079】
【数6】
Figure 0003968501
【0080】
ここで、
【0081】
【数7】
Figure 0003968501
【0082】
とする。
【0083】
同様に、ある時点でのロボットの状態lがある中央値と共分散を持つガウス分布として推定されている場合に、ランドマークの観測情報sが観測されたときには、状態lの推定値に関する中央値並びに共分散を下式により更新することができる。
【0084】
【数8】
Figure 0003968501
【0085】
ここで、
【0086】
【数9】
Figure 0003968501
【0087】
とする。
【0088】
図5には、マルコフ・ローカリゼーションと拡張カルマン・フィルタを併用した、本実施形態に係る自己位置同定システム100の機能構成を模式的に示している。同図に示すように、この自己位置同定システム100は、マルコフ・ローカリゼーション部(ML)101と、拡張カルマン・フィルタ部(EKL)102と、拡張カルマン・フィルタ部103の動作を制御するEKL制御部103とで構成される。
【0089】
マルコフ・ローカリゼーション部101は、作業空間内の自分の位置を離散的なグリッド上の自己位置確率密度分布として保持し、ランドマークの観測に関する外界観測情報sと、ロボット自身の動作に関する内界観測情報aを入力して、自己位置確率密度分布の更新を行う。そして、各時刻において、自己位置確率密度分布の最も高い値を持つグリッドを自己位置の推定結果としてEKL制御部103に出力する。
【0090】
拡張カルマン・フィルタ部102は、ロボット自身の動作情報aと状態すなわち自己位置lとの関係を規定した状態モデルと自己位置lとランドマークの観測情報sとの関係を規定した観測モデルで構成され、ロボットの自己位置同定を、ロボットの状態lをロボットの動作情報a及び観測情報sによる推定するという問題に帰着して、ある時点でのロボットの状態lがある中央値と共分散を持つガウス分布として推定する。そして、ロボットの動作aが観測されたときには、状態lの推定値に関する中央値並びに共分散を上記の式[数6]により更新するとともに、ランドマークの観測情報sが観測されたときには、状態lの推定値に関する中央値並びに共分散を上記の式[数8]により更新する。拡張カルマン・フィルタはセンサ情報に対するロバスト性に優れているので、拡張カルマン・フィルタ部102の推定結果は、システム100全体の出力としている。
【0091】
EKL制御部103は、マルコフ・ローカリゼーション部101の出力結果に応じて拡張カルマン・フィルタ部103の動作を制御する。より具体的には、マルコフ・ローカリゼーション部101の自己位置推定結果に基づいて、ランドマークの観測情報sに関する妥当性を検証する。観測情報sの妥当性は、マルコフ・ローカリゼーション部101において最大の存在確率となるグリッド位置mlpにおいてランドマークを観測する確率p(s|mlp)が所定の閾値パラメータthreshobsを越えたかどうかで判断することができる。
【0092】
グリッド位置mlpにおいてランドマークを観測する確率p(s|mlp)が閾値パラメータthreshobsを下回る場合には、センサ・ノイズに対してロバストなマルコフ・ローカリゼーション部101においてさえ、センサ・ノイズのために同定解が充分に収束していないことが推測される。このような場合、センサ・ノイズに対するロバスト性が低い拡張カルマン・フィルタ部102において自己位置を推定しても、精度のよい解が得られず、むしろ演算時間を浪費するだけである。このため、観測情報sが妥当でないと判断された場合には、切換器104を用いて拡張カルマン・フィルタ部102への外界観測情報sすなわちランドマークの観測情報の入力を遮断して、拡張カルマン・フィルタ部102における自己位置推定値の更新を停止させる。
【0093】
また、EKL制御部103は、拡張カルマン・フィルタ部102の自己位置推定結果の妥当性も検証する。自己位置推定結果の妥当性は、推定された状態lの中央値及び共分散を用いて、マルコフ・ローカリゼーション部101から出力される存在確率p(l)との分布比較テストにより判断することができる。分布比較テストの一例は、カイ自乗テストchi−square−test(ml,ekf)である。
【0094】
分布比較テストによりマルコフ・ローカリゼーション部101と拡張カルマン・フィルタ部102それぞれの確率分布が類似していない場合には、センサ・ノイズに対するロバスト性が低い拡張カルマン・フィルタ部102における自己位置推定値の方が、センサ・ノイズの影響により妥当でないと判断することができる。このような場合、EKL制御部103は拡張カルマン・フィルタ部102の再初期化を行わせる。何故ならば、拡張カルマン・フィルタは再復帰に多大な時間を要するからである。
【0095】
また、図6には、自己位置同定システム100の動作特性をフローチャートの形式で示している。
【0096】
ロボット1の移動に関する内界観測情報aが自己位置同定システム100に入力されると、まずマルコフ・ローカリゼーション部101において、上記の式[数1]を用いて自己位置推定値の更新処理が行われる(ステップS1)。次いで、拡張カルマン・フィルタ部102において、上記の式[数6]を用いて自己位置推定値の更新処理が行われる(ステップS2)。
【0097】
また、ランドマークの観測に関する外界観測情報sが自己位置同定システム100に入力されると、まずマルコフ・ローカリゼーション部101において、上記の式[数2]を用いて、自己位置推定値の更新処理が行われる(ステップS11)。
【0098】
マルコフ・ローカリゼーション部101の出力結果は、EKL制御部103に入力されて、観測情報sの妥当性が検証される(ステップS12)。観測情報sの妥当性は、マルコフ・ローカリゼーション部101において最大の存在確率となるグリッド位置mlpにおいてランドマークを観測する確率p(s|mlp)が所定の閾値パラメータthreshobsを越えたかどうかで判断することができる。
【0099】
グリッド位置mlpにおいてランドマークを観測する確率p(s|mlp)が閾値パラメータthreshobsを下回る場合には、センサ・ノイズに対してロバストなマルコフ・ローカリゼーション部101においてさえ、センサ・ノイズのために同定解が充分に収束していないことが推測される。このような場合、センサ・ノイズに対するロバスト性が低い拡張カルマン・フィルタ部102において自己位置を推定しても、精度のよい解が得られず、むしろ演算時間を浪費するだけである。このため、観測情報sが妥当でないと判断された場合には、切換器104を用いて拡張カルマン・フィルタ部102への外界観測情報sすなわちランドマークの観測情報の入力を遮断して、拡張カルマン・フィルタ部102における自己位置推定値の更新を停止させる。
【0100】
他方、観測情報sを検証した結果、妥当性を満たす、すなわちグリッド位置mlpにおいてランドマークを観測する確率p(s|mlp)が閾値パラメータthreshobsを上回る場合には、さらに拡張カルマン・フィルタ部102において、上記の式[数8]を用いて更新処理が行われる(ステップS13)。
【0101】
拡張カルマン・フィルタ部102による自己位置推定の結果は、EKL制御部103に入力されて、その妥当性が検証される(ステップS14)。拡張カルマン・フィルタ部102による自己位置推定結果の妥当性は、推定された状態lの中央値及び共分散を用いて、マルコフ・ローカリゼーション部101から出力される存在確率p(l)との分布比較テストにより判断することができる。分布比較テストの一例は、カイ自乗テストchi−square−test(ml,ekf)である。
【0102】
分布比較テストによりマルコフ・ローカリゼーション部101と拡張カルマン・フィルタ部102それぞれの確率分布が類似していない場合には、センサ・ノイズに対するロバスト性が低い拡張カルマン・フィルタ部102における自己位置推定値の方が、センサ・ノイズの影響により妥当でないと判断することができる。このような場合、EKL制御部103は拡張カルマン・フィルタ部102の再初期化を行わせる(ステップS15)。何故ならば、拡張カルマン・フィルタは再復帰に多大な時間を要するからである。
【0103】
最後に、マルコフ・ローカリゼーション並びに拡張カルマン・フィルタをそれぞれ単独で適用して自己位置同定を行った場合と、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合の実験例について比較検証する。但し、ここでは、フィールド・サイズ3×2mの作業空間の四方6箇所にランドマークを配置して、総計測時間58分、ランドマーク観測回数(すなわち観測情報sの入力回数)48,636回、ロボット動作ステップ数(すなわち動作情報aの入力回数)8,334ステップとする。
【0104】
図7には、センサ入力回数を横軸に、観測誤差を縦軸にとって、マルコフ・ローカリゼーション並びに拡張カルマン・フィルタをそれぞれ単独で適用して自己位置同定を行った場合と、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合における、センサ情報に対するロバスト性について比較検証している。
【0105】
拡張カルマン・フィルタを単独で適用した場合、及び、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合は、センサ入力回数が減少しても観測誤差はあまり変化しない。これに対して、マルコフ・ローカリゼーションを単独で適用した場合には、センサ入力回数の減少とともに観測誤差は著しく増大する。したがって、拡張カルマン・フィルタはセンサ情報に対するロバスト性が高く、観測回数が少ない場合には、マルコフ・ローカリゼーションよりも拡張カルマン・フィルタの方がより高精度な自己位置同定が可能であることが判る。
【0106】
また、図8には、センサ・ノイズ比を横軸に、観測誤差を縦軸にとって、マルコフ・ローカリゼーション並びに拡張カルマン・フィルタをそれぞれ単独で適用して自己位置同定を行った場合と、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合における、センサ・ノイズに対するロバスト性について比較検証している。
【0107】
マルコフ・ローカリゼーションを単独で適用した場合、及び、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合は、センサ・ノイズが多くなっても観測誤差はあまり変化しない。これに対して、拡張カルマン・フィルタを単独で適用した場合には、センサ・ノイズの増大とともに観測誤差は著しく増大する。したがって、マルコフ・ローカリゼーションはセンサ・ノイズに対するロバスト性が高く、センサ・ノイズが多い場合には、拡張カルマン・フィルタよりもマルコフ・ローカリゼーションの方がより高精度な自己位置同定が可能であることが判る。
【0108】
また、図9には、マルコフ・ローカリゼーション並びに拡張カルマン・フィルタをそれぞれ単独で適用して自己位置同定を行った場合と、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合のそれぞれにおいて、再復帰に必要な時間について比較検証している。
【0109】
マルコフ・ローカリゼーションを単独で適用した場合、及び、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合は、再復帰に必要な時間は比較的短くて済む。これに対し、拡張カルマン・フィルタを単独で適用した場合には、再復帰のためにかなり長い時間を要する。したがって、再復帰が必要なときには、マルコフ・ローカリゼーションを適用することが好ましい。また、拡張カルマン・フィルタにおいては、再復帰するくらいならば、再初期化を行うほうが好ましい。
【0110】
図7〜図9からも判るように、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行う手法は、マルコフ・ローカリゼーション及び拡張カルマン・フィルタの双方のよい性能を継承していると言えよう。
【0111】
[追補]
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0112】
【発明の効果】
以上詳記したように、本発明によれば、車輪や可動脚などの移動機構を備えたロボット自身の位置や姿勢を認識しながら行動するロボットにおいて、高精度で高速且つロバストな自己位置同定を行うことができる、優れたロボットの自己位置同定システム及び自己位置同定方法を提供することができる。
【0113】
また、本発明によれば、人工的なランドマークを含む環境において、ランドマークの探索結果を手掛かりに自己位置を好適に同定することができる、優れたロボットの自己位置同定システム及び自己位置同定方法を提供することができる。
【0114】
また、本発明によれば、広い範囲で比較的短い探索時間で探索を行う大域探索と高精度だが探索時間を要する局所的探索とを併用して、高精度で、高速且つロバストな自己位置同定を行うことができる、優れたロボットの自己位置同定システム及び自己位置同定方法を提供することができる。
【図面の簡単な説明】
【図1】本発明に実施に供される移動ロボット1の機能構成を模式的に示した図である。
【図2】制御ユニット20の構成をさらに詳細に示した図である。
【図3】マルコフ・ローカリゼーションにより求められた各グリッド上での自己位置確率密度分布を表した図である。
【図4】拡張カルマン・フィルタの構成を模式的に示した図である。
【図5】マルコフ・ローカリゼーションと拡張カルマン・フィルタを併用した本実施形態に係る自己位置同定システム100の機能構成を模式的に示した図である。
【図6】自己位置同定システム100の動作特性を示したフローチャートである。
【図7】マルコフ・ローカリゼーション並びに拡張カルマン・フィルタをそれぞれ単独で適用して自己位置同定を行った場合と、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合の比較検証結果を示した図である。
【図8】マルコフ・ローカリゼーション並びに拡張カルマン・フィルタをそれぞれ単独で適用して自己位置同定を行った場合と、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合の比較検証結果を示した図である。
【図9】マルコフ・ローカリゼーション並びに拡張カルマン・フィルタをそれぞれ単独で適用して自己位置同定を行った場合と、本発明に従ってマルコフ・ローカリゼーションと拡張カルマン・フィルタを組み合わせて自己位置同定を行った場合の比較検証結果を示した図である。
【符号の説明】
1…移動ロボット
15…CCDカメラ
16…マイクロフォン
17…スピーカ
18…タッチセンサ
19…LEDインジケータ
20…制御部
21…CPU
22…RAM
23…ROM
24…不揮発メモリ
25…インターフェース
26…無線通信インターフェース
27…ネットワーク・インターフェース・カード
28…バス
29…キーボード
40…入出力部
50…駆動部
51…モータ
52…エンコーダ
53…ドライバ
100…自己位置同定システム
101…マルコフ・ローカリゼーション部
102…拡張カルマン・フィルタ部
103…EKL制御部
104…切換器

Claims (11)

  1. 移動機構を備えて所定の環境内を移動可能なロボットのための自己位置同定システムであって、
    前記環境内に設置されたランドマークを観測する外界観測手段と、
    ロボット自身の動作情報を観測する内界観測手段と、
    マルコフ・ローカリゼーションを適用して、環境内の自分の位置を離散的なグリッド上の自己位置確率密度分布として保持し、前記外界観測手段によるランドマークの観測結果に応じて該ランドマークからの相対位置に基づいて自己位置を推定して自己位置確率密度分布を更新するとともに、前記内界観測手段によるロボット自身の動作情報の観測結果に基づいて、自己位置確率密度を更新し、各時刻において自己位置確率密度分布の最も高い値を持つグリッドを自己位置の推定結果として出力する第1の探索手段と、
    前記内界観測手段によるロボット自身の動作情報と自己位置との関係を規定した状態モデルと、自己位置と前記外界観測手段によるランドマークの観測情報との関係を規定した観測モデルを備えた拡張カルマン・フィルタを適用して、前記内界観測手段によるロボット自身の動作情報及び前記外界観測手段によるランドマークの観測情報を基に自己位置を推定する第2の探索手段と、
    前記第2の探索手段による自己位置の推定結果を前記第1の探索手段による自己位置の推定結果と比較することによりその妥当性を検証して、該評価が所定の基準を満たすことに応答して前記第2の探索手段による自己位置の推定結果を自己位置同定結果として出力するとともに、該評価が所定の基準を満たさなかったことに応答して前記第2の探索手段を再初期化する制御手段と、
    を具備することを特徴とするロボットの自己位置同定システム。
  2. 前記制御手段は、前記第1の探索手段において推定された自己位置において前記外界観測手段によりランドマークを観測する確率を基に前記外界観測手段による外界観測結果の妥当性を評価して、該評価が所定の基準を満たさなかったことに応答して前記第2の探索手段への少なくとも外界観測情報の入力を制限する、
    ことを特徴とする請求項1に記載のロボットの自己位置同定システム。
  3. 前記制御手段は、前記第2の探索手段による探索結果である確率密度分布を、前記第1の探索手段による探索結果である確率密度分布と比較することによってその妥当性を検証して、該評価が所定の基準を満たすことに応答して該探索結果を自己位置同定結果として出力するとともに、該評価が所定の基準を満たさなかったことに応答して前記第2の探索手段を再初期化する、
    ことを特徴とする請求項1に記載のロボットの自己位置同定システム。
  4. 前記制御手段は、前記第1の探索手段と前記第2の探索手段の自己位置推定結果の類似度が低い場合には前記第2の探索手段の出力結果が妥当でないと評価する、
    ことを特徴とする請求項1に記載のロボットの自己位置同定システム。
  5. 前記外界観測手段は、ランドマークを捕捉する画像入力手段及び入力画像を基にランドマーク及び該ランドマークまでの距離を認識する画像認識手段を備える、
    ことを特徴とする請求項1に記載のロボットの自己位置同定システム。
  6. 前記外界観測手段は、ランドマークまでの距離を計測するレンジ・ファインダを備える、
    ことを特徴とする請求項1に記載のロボットの自己位置同定システム。
  7. ランドマークは視認性の識別情報が表面に形成されている、
    ことを特徴とする請求項1に記載のロボットの自己位置同定システム。
  8. 移動機構を備えて所定の環境内を移動可能なロボットのための自己位置同定方法であって、
    前記環境内に設置されたランドマークを観測する外界観測ステップと、
    ロボット自身の動作情報を観測する内界観測ステップと、
    マルコフ・ローカリゼーションを適用して、環境内の自分の位置を離散的なグリッド上の自己位置確率密度分布として保持し、前記外界観測ステップによるランドマークの観測結果に応じて該ランドマークからの相対位置に基づいて自己位置を推定して自己位置確率密度分布を更新するとともに、前記内界観測ステップによる自身の動作情報の観測結果に基づいて、自己位置確率密度を更新し、各時刻において自己位置確率密度分布の最も高い値を持つグリッドを自己位置の推定結果として出力する第1の探索ステップと、
    前記内界観測ステップによるロボット自身の動作情報と自己位置との関係を規定した状態モデルと、自己位置と前記外界観測ステップによるランドマークの観測情報との関係を規定した観測モデルを備えた拡張カルマン・フィルタを適用して、前記内界観測ステップによるロボット自身の動作情報及び前記外界観測ステップによるランドマークの観測情報を基に自己位置を推定する第2の探索ステップと、
    前記第2の探索ステップによる自己位置の推定結果を前記第1の探索ステップによる自己位置の推定結果と比較することによりその妥当性を検証して、該評価が所定の基準を満たすことに応答して前記第2の探索ステップによる自己位置の推定結果を自己位置同定結果として出力するとともに、該評価が所定の基準を満たさなかったことに応答して前記第2の探索ステップを再初期化する制御ステップと、
    を具備することを特徴とするロボットの自己位置同定方法。
  9. 前記制御ステップでは、前記第1の探索ステップにおいて推定された自己位置において前記外界観測ステップによりランドマークを観測する確率を基に前記外界観測ステップによる外界観測結果の妥当性を評価して、該評価が所定の基準を満たさなかったことに応答して前記第2の探索ステップへの少なくとも外界観測情報の入力を制限する、
    ことを特徴とする請求項8に記載のロボットの自己位置同定方法。
  10. 前記制御ステップでは、前記第2の探索ステップによる探索結果である確率密度分布を、前記第1の探索ステップによる探索結果である確率密度分布と比較することによってその妥当性を検証して、該評価が所定の基準を満たすことに応答して該探索結果を自己位置同定結果として出力するとともに、該評価が所定の基準を満たさなかったことに応答して前記第2の探索ステップを再初期化する、
    ことを特徴とする請求項8に記載のロボットの自己位置同定方法。
  11. 前記制御手段は、前記第1の探索ステップと前記第2の探索ステップの自己位置推定結果の類似度が低い場合には前記第2の探索ステップの出力結果が妥当でないと評価する、
    ことを特徴とする請求項8に記載のロボットの自己位置同定方法。
JP2001365752A 2001-11-30 2001-11-30 ロボットの自己位置同定システム及び自己位置同定方法 Expired - Fee Related JP3968501B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2001365752A JP3968501B2 (ja) 2001-11-30 2001-11-30 ロボットの自己位置同定システム及び自己位置同定方法
US10/470,456 US7263412B2 (en) 2001-11-30 2002-11-27 Robot self-position identification system and self-position identification method
EP02783642A EP1450129A4 (en) 2001-11-30 2002-11-27 ROBOT AUTOMATIC POSITION IDENTIFICATION SYSTEM AND IDENTIFICATION METHOD
PCT/JP2002/012367 WO2003046478A1 (fr) 2001-11-30 2002-11-27 Systeme d'identification de position automatique d'un robot et procede d'identification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001365752A JP3968501B2 (ja) 2001-11-30 2001-11-30 ロボットの自己位置同定システム及び自己位置同定方法

Publications (2)

Publication Number Publication Date
JP2003166824A JP2003166824A (ja) 2003-06-13
JP3968501B2 true JP3968501B2 (ja) 2007-08-29

Family

ID=19175740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001365752A Expired - Fee Related JP3968501B2 (ja) 2001-11-30 2001-11-30 ロボットの自己位置同定システム及び自己位置同定方法

Country Status (4)

Country Link
US (1) US7263412B2 (ja)
EP (1) EP1450129A4 (ja)
JP (1) JP3968501B2 (ja)
WO (1) WO2003046478A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101409990B1 (ko) * 2007-09-14 2014-06-23 삼성전자주식회사 로봇의 위치를 계산하기 위한 장치 및 방법

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7373270B2 (en) * 2003-03-26 2008-05-13 Sony Corporation Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
US7188048B2 (en) * 2003-06-25 2007-03-06 Lockheed Martin Corporation Refining stochastic grid filter
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
KR100506097B1 (ko) * 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
JP4479372B2 (ja) * 2004-06-25 2010-06-09 ソニー株式会社 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
US7908040B2 (en) * 2004-07-15 2011-03-15 Raytheon Company System and method for automated search by distributed elements
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
ES2706729T3 (es) * 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
KR100757839B1 (ko) * 2006-04-04 2007-09-11 삼성전자주식회사 제어시스템, 제어시스템을 갖는 이동로봇장치 및 그제어방법
JP4984650B2 (ja) * 2006-05-30 2012-07-25 トヨタ自動車株式会社 移動装置及び移動装置の自己位置推定方法
JP4882575B2 (ja) * 2006-07-27 2012-02-22 トヨタ自動車株式会社 自己位置推定装置
JP2008065562A (ja) * 2006-09-06 2008-03-21 Sony Corp 情報処理装置、および同定処理方法、並びにコンピュータ・プログラム
JP2008185417A (ja) * 2007-01-29 2008-08-14 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2008111692A1 (en) * 2007-03-13 2008-09-18 Research Institute Of Industrial Science & Technology Landmark for position determination of mobile robot and apparatus and method using it
JP4696088B2 (ja) * 2007-03-20 2011-06-08 富士通株式会社 自律移動体および移動方法
KR101415879B1 (ko) 2008-01-04 2014-07-07 삼성전자 주식회사 이동 로봇을 도킹시키는 방법 및 장치
KR101081859B1 (ko) 2008-04-28 2011-11-09 한양대학교 산학협력단 동적 환경에서의 위치 추정 방법 및 그 장치
US20090299929A1 (en) * 2008-05-30 2009-12-03 Robert Kozma Methods of improved learning in simultaneous recurrent neural networks
US8508590B2 (en) * 2010-03-02 2013-08-13 Crown Equipment Limited Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion
US8538577B2 (en) * 2010-03-05 2013-09-17 Crown Equipment Limited Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles
US8400471B2 (en) * 2010-03-08 2013-03-19 Empire Technology Development, Llc Interpretation of constrained objects in augmented reality
KR101251184B1 (ko) * 2010-08-05 2013-04-08 서울대학교산학협력단 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
KR101194576B1 (ko) * 2010-12-16 2012-10-25 삼성중공업 주식회사 풍력 터빈 조립 및 관리 로봇 및 이를 포함하는 풍력 터빈 시스템
WO2012141601A2 (en) 2011-04-11 2012-10-18 Crown Equipment Limited Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner
US8655588B2 (en) 2011-05-26 2014-02-18 Crown Equipment Limited Method and apparatus for providing accurate localization for an industrial vehicle
US8548671B2 (en) 2011-06-06 2013-10-01 Crown Equipment Limited Method and apparatus for automatically calibrating vehicle parameters
US8594923B2 (en) 2011-06-14 2013-11-26 Crown Equipment Limited Method and apparatus for sharing map data associated with automated industrial vehicles
US8589012B2 (en) 2011-06-14 2013-11-19 Crown Equipment Limited Method and apparatus for facilitating map data processing for industrial vehicle navigation
US8799201B2 (en) 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
US20140058634A1 (en) 2012-08-24 2014-02-27 Crown Equipment Limited Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
US9056754B2 (en) 2011-09-07 2015-06-16 Crown Equipment Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
CN102521475A (zh) * 2011-11-01 2012-06-27 河南省电力公司计量中心 一种运动设备的运动轨迹描绘方法
CN102566574B (zh) * 2012-01-20 2014-12-31 北人机器人***(苏州)有限公司 一种基于激光传感的机器人轨迹生成方法及装置
JP6233706B2 (ja) 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
CN104331078B (zh) * 2014-10-31 2017-01-11 东北大学 一种基于位置映射算法的多机器人协作定位方法
JP6187500B2 (ja) * 2015-02-19 2017-08-30 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク
JP6187499B2 (ja) * 2015-02-19 2017-08-30 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク
US10649466B2 (en) * 2015-12-02 2020-05-12 Husqvarna Ab Navigation for a vehicle by implementing two operating modes
US10572802B1 (en) * 2018-11-15 2020-02-25 University Of South Florida Learning state-dependent sensor measurement models for localization
CN110509312B (zh) * 2019-08-29 2021-03-26 炬星科技(深圳)有限公司 机器人配置更新方法、电子设备及计算机可读存储介质
US11577395B2 (en) 2020-02-17 2023-02-14 Toyota Research Institute, Inc. Systems for determining location using robots with deformable sensors
JP7512839B2 (ja) 2020-10-26 2024-07-09 オムロン株式会社 制御装置、ロボット、制御方法、プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06201813A (ja) 1992-12-28 1994-07-22 Hitachi Ltd 移動体の位置評定方法および装置
KR950015327A (ko) 1993-11-16 1995-06-16 배순훈 계단형 소거 헤드 및 그 구동 회로
JP3390237B2 (ja) 1993-12-21 2003-03-24 株式会社日立製作所 プロセス制御方法および装置
ATE185006T1 (de) * 1996-03-06 1999-10-15 Gmd Gmbh Autonomes mobiles robotersystem für sensor- und kartengestützte navigation in einem leitungsnetzwerk
AU2003229008A1 (en) * 2002-05-10 2003-11-11 Honda Giken Kogyo Kabushiki Kaisha Real-time target tracking of an unpredictable target amid unknown obstacles
KR100493159B1 (ko) * 2002-10-01 2005-06-02 삼성전자주식회사 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101409990B1 (ko) * 2007-09-14 2014-06-23 삼성전자주식회사 로봇의 위치를 계산하기 위한 장치 및 방법

Also Published As

Publication number Publication date
WO2003046478A1 (fr) 2003-06-05
EP1450129A1 (en) 2004-08-25
US20040249504A1 (en) 2004-12-09
EP1450129A4 (en) 2005-01-12
JP2003166824A (ja) 2003-06-13
US7263412B2 (en) 2007-08-28

Similar Documents

Publication Publication Date Title
JP3968501B2 (ja) ロボットの自己位置同定システム及び自己位置同定方法
JP3945279B2 (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP4839487B2 (ja) ロボット及びタスク実行システム
US20060064202A1 (en) Environment identification device, environment identification method, and robot device
Duisterhof et al. Sniffy bug: A fully autonomous swarm of gas-seeking nano quadcopters in cluttered environments
ES2675363T3 (es) Procedimiento de construcción de un mapa de probabilidad entre la ausencia y la presencia de obstáculos para un robot autónomo
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
US20040230340A1 (en) Behavior controlling apparatus, behavior control method, behavior control program and mobile robot apparatus
US9987745B1 (en) Execution of robotic tasks
RU2680791C2 (ru) Всенаправленный колесный человекоподобный робот, основанный на контроллере положения и скорости с линейным прогнозированием
KR101121763B1 (ko) 환경 인식 장치 및 방법
US6556892B2 (en) Control device and control method for robot
Zalama et al. Adaptive behavior navigation of a mobile robot
JP2005193331A (ja) ロボット装置及びその情動表出方法
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
Calzado et al. SAMI: interactive, multi-sense robot architecture
Kim et al. Providing services using network-based humanoids in a home environment
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP4505998B2 (ja) 移動ロボット及び移動ロボット間のデータ通信制御方法
JP2020055084A (ja) 制御装置、ロボット、制御方法及びプログラム
JP2001236585A (ja) 移動ロボット及び移動ロボットのための盗難防止方法
WO2020008754A1 (ja) 情報処理装置、最適時間推定方法、自己位置推定方法及びプログラムを記録した記録媒体
Newman et al. Embedded mobile ros platform for slam application with rgb-d cameras
Martínez et al. A proposal of a multi-agent system implementation for the control of an Assistant Personal Robot
Ahern et al. Autonomous robot retrieval system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070521

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees