JP5490911B2 - 移動ロボットの位置認識のための地図生成および更新方法 - Google Patents

移動ロボットの位置認識のための地図生成および更新方法 Download PDF

Info

Publication number
JP5490911B2
JP5490911B2 JP2012536620A JP2012536620A JP5490911B2 JP 5490911 B2 JP5490911 B2 JP 5490911B2 JP 2012536620 A JP2012536620 A JP 2012536620A JP 2012536620 A JP2012536620 A JP 2012536620A JP 5490911 B2 JP5490911 B2 JP 5490911B2
Authority
JP
Japan
Prior art keywords
landmark
mobile robot
registered
image
luminance change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012536620A
Other languages
English (en)
Other versions
JP2013508874A (ja
Inventor
キョンチョル シン
ションジュ パク
ヒゴン イ
ジェヨン イ
ヒョンオ キム
ジェイムス ストニア ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yujin Robot Co Ltd
Original Assignee
Yujin Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yujin Robot Co Ltd filed Critical Yujin Robot Co Ltd
Publication of JP2013508874A publication Critical patent/JP2013508874A/ja
Application granted granted Critical
Publication of JP5490911B2 publication Critical patent/JP5490911B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動ロボットの位置認識のための地図生成および更新方法に関し、より詳しくは、地図生成時に抽出されたランドマークを確率点検後に登録し、地図更新時に既に登録されたランドマークの正確度を分析してレベル調節したり削除したりする移動ロボットの位置認識のための地図生成および更新方法に関する。
最近、ロボット技術の発展に伴い、自ら経路を設定して移動する移動ロボットが活用されている。移動ロボットの代表的な例としては、住宅や建物の内部を掃除する掃除用ロボットや位置を案内する案内ロボットなどを挙げることができる。特に、掃除ロボットの場合には、各種センサと走行手段を備えることにより、走行しながら内部に備えられた真空掃除ユニットを利用して室内床を掃除するが、現在では多数の製品が実際に用いられている。
このような移動ロボットが空間で効果的に位置を判断して移動するために、移動している空間に対する地図を生成し、空間上の自身の位置を認識することが求められている。移動ロボットが周辺空間に対して自ら位置を認識して地図を形成するものを、同時位置認識および地図形成(SLAM:Simultaneous Localization And Mapping)と言う。
SLAM技法のうち、映像基盤のSLAMは、映像から抽出した視覚特徴点を利用して周辺環境に対する地図を生成してロボットの姿勢を推定する。通常、移動ロボットは、ジャイロスコープと駆動モータに備えられたエンコーダを利用して推測航法(dead reckoning)によって走行し、上部に設置されたカメラを利用して映像を分析して地図を生成する。このとき、ジャイロスコープとエンコーダからの走行情報による誤差が発生する場合、カメラから得られた映像情報を活用して累積する誤差が補正される。
今まで、移動ロボットの走行制御方法およびこれによる移動ロボットに対して多様な先行技術が提示されてきたが、次のような問題点が解決されずにいる。
映像から抽出された特徴点に対する記述子(descriptor)によって多様な方式が用いられてきたが、照明変化が大きかったり映像変化が大きかったりする場合には、強靭な性能を示すことができないという問題点が存在していた。また、移動ロボットの走行制御において、入力映像の使用が不可能な環境または移動ロボットの走行制御エラーが発生した場合には、適応的な走行制御技法が提示されることができなかった。さらに、特徴点マッチングにおいて、互いに異なる特徴点であるにもかかわらず、同じ特徴点として誤認識されるという問題が頻繁に発生していた。
本発明は、地図生成時にランドマークを登録する場合、映像から検出されたランドマークを予測ランドマークと比較し、比較誤差が許容範囲以内である信頼度の高いランドマークのみを登録する移動ロボットの地図生成方法を提供することを目的とする。
また、本発明は、地図更新時に既に登録されたランドマークを、これに対応するランドマークを検出して確率マッチングをし、そのマッチング程度に応じて既に登録されたランドマークの品質を調整し、誤登録されたランドマークを除去することができる移動ロボットの地図更新方法を提供することを他の目的とする。
上述した目的を達成するために、本発明の一実施形態に係る移動ロボットの位置認識のための地図生成方法は、移動ロボットが第1位置で得た第1映像からランドマークを検出して仮登録するステップ;前記移動ロボットが第2位置に移動して得た第2映像から対応ランドマークを抽出するステップ;移動情報と前記仮登録ランドマーク情報に基づいて前記第2映像から前記仮登録ランドマークを推定するステップ;および前記仮登録ランドマークと前記推定ランドマークのマッチング誤差を算出し、前記マッチング誤差が既に設定された基準誤差の範囲以内である場合には、前記仮登録ランドマークを本登録するステップ;を含む。
前記本登録ステップでは、前記マッチング誤差が既に設定された基準誤差の範囲を逸脱する場合には、前記第1映像は天井映像ではないと判断し、前記仮登録ランドマークを廃棄することを特徴とする。
前記第1、2映像は移動ロボットの走行対象領域の天井映像を含み、前記天井映像は複数の特徴点を含むことを特徴とする。
前記仮登録ステップは、前記第1映像を複数のサブ映像に分割し、前記複数のサブ映像の輝度変化の大きさと輝度変化の位相を算出して特徴点を検出するステップ、前記サブ映像のそれぞれで検出された複数の特徴点のうちから輝度変化と輝度変化の位相の大きさが最大である特徴点を探し、前記仮登録ランドマークとして設定するステップを含むことを特徴とする。
前記輝度変化の大きさは、前記各サブ映像の水平輝度変化と垂直輝度変化の合計に乗根をとって求めることを特徴とする。
前記輝度変化の位相は、前記各サブ映像の水平輝度変化に対する垂直輝度変化の比にアークタンジェントをとって求めることを特徴とする。
前記第1、2映像は、複数の同じランドマークを含むことを特徴とする。
前記本発明の目的を達成するために、本発明の一実施形態に係る移動ロボットの位置認識のための地図更新方法は、a)第1位置で第1映像を得てランドマークを抽出してランドマークを登録するステップ;b)第2位置で第2映像を得て前記登録ランドマークに対応するランドマークを検出し、これと同時に位置情報を利用して前記登録ランドマークを予測するステップ;c)前記検出ランドマークに対応する前記登録ランドマークの品質を検出するステップ;およびd)確率関数を利用して前記検出ランドマークと前記予測ランドマークのマッチング確率を算出し、前記マッチング確率および前記登録ランドマークの品質に応じて差分的に前記登録ランドマークを更新するステップ;を含む。
前記d)ステップでは、前記マッチング確率が第1基準確率よりも低い場合には、前記検出ランドマークが廃棄されることを特徴とする。
前記c ) ステップでは、前記登録ランドマークの品質が基準品質よりも低い場合には、前記登録ランドマークが誤マッチング(false−positive match)によって登録されたと判断して削除されることを特徴とする。
前記d)ステップでは、前記登録ランドマークの品質が基準品質よりも高い場合には、前記検出ランドマークは廃棄され、前記登録ランドマークの更新には反映しないことを特徴とする。
前記d)ステップでは、前記マッチング確率が第1基準確率よりも高くて第2基準確率よりも低く、前記登録ランドマークの品質が基準品質よりも低い場合には、前記検出ランドマークが廃棄されることを特徴とする。
前記d)ステップでは、前記マッチング確率が第1基準確率よりも高くて第2基準確率よりも低く、前記登録ランドマークの品質が基準品質よりも高い場合には、前記検出ランドマークを受容することを特徴とする。
前記d)ステップでは、前記登録ランドマークの品質等級が現在段階よりも一段階だけ低められることを特徴とする。
前記d)ステップでは、前記マッチング確率が第3基準確率よりも高い場合には、前記検出ランドマークを受容することを特徴とする。
前記d)ステップでは、前記登録ランドマークの品質等級が現在段階よりも一段階だけ上昇することを特徴とする。
前記d ) ステップでは、前記検出ランドマークおよび前記予測ランドマークに基づいて前記登録ランドマークを更新し、前記移動ロボットの位置を補正することを特徴とする。
前記登録ランドマークの品質は、ランドマークの検出頻度、検出エラーに関する履歴、および検出精密度のうちの少なくともいずれか1つによって決定されることを特徴とする。
前記位置情報は、移動ロボットの走行距離、走行方向、走行時間、回転角度、および回転回数を含むことを特徴とする。
前記登録ランドマークは、前記移動ロボットの位置認識のための地図生成方法によって登録されたランドマークであることを特徴とする。
本発明は、地図生成時にランドマークを登録する場合、検出されたランドマークを登録する前に検出されたランドマークの信頼性を確認した後にランドマークとして登録するため、信頼度の高いランドマークのみを登録することができる効果がある。
また、本発明は、地図更新時に既に登録されたランドマークに対応するランドマークを検出して確率マッチングをすることにより、既に登録されたランドマークの品質を調整することができる上に信頼度を高めることができ、誤登録されたランドマークを除去することができる効果がある
図1は本発明の一実施形態が適用される移動ロボットの構成を示す図である。 図2は本発明の一実施形態に係る移動ロボットの位置認識のための地図生成および更新方法のフローチャートである。 図3は本発明の一実施形態に係る移動ロボットの位置認識のための地図生成方法の詳細フローチャートである。 図4は本発明の一実施形態に係る移動ロボットの位置認識のための地図更新方法の詳細フローチャートである。 図5は本実施形態における地域的方向記述子の生成過程を示す図である。 図6は映像のグラデーションを計算するためのウィンドウを例示した図である。 図7は映像パッチの一例(a)および映像パッチのサブ領域に対する地域的方向情報(b)の一例を示す図である。 図8は本実施形態における特徴点抽出および識別子生成過程を示すフローチャートである。 図9は本実施形態における走行制御方法を示すフローチャートである。
以下、本発明の好ましい実施形態について、添付の図面を参照しながら詳しく説明する。まず、各図面の構成要素に参照符号を付与するにおいて、同じ構成要素に対しては、たとえ異なる図面上に表示されていても、可能な限り同じ符号を有するようにしていることに留意しなければならない。また、本発明を説明するにおいて、関連する公知構成または機能に対する具体的な説明が本発明の要旨を不明瞭にすると判断される場合には、その詳細な説明は省略する。さらに、以下で本発明の好ましい実施形態を説明するが、本発明の技術的思想がこれに限定されたり制限されるものではなく、当業者によって変形されて多様に実施されることができることは勿論である。
図1は、本発明の好ましい実施形態が適用される移動ロボットの構成を示すブロック図である。
本発明の好ましい実施形態に係る移動ロボット100は、映像を取得する映像獲得部110、映像獲得部110で得られた映像を処理して映像内の特徴点を抽出して特徴点に対する記述子(descriptor)を生成する映像処理部120、移動ロボット100の移動方向情報と移動距離などをセンシングするセンサ部140、得られた映像に基づいて移動ロボットが移動する空間に対する地図を生成し、得られた映像から抽出した特徴点に関する情報とセンサ部140から得られた走行情報に基づいて移動ロボットの作動を制御する主制御部130、および主制御部130の制御によってロボットを駆動するロボット駆動部1 5 0を含む。
映像獲得部110は、移動ロボットが位置した周辺環境に対する映像を取得する装置であって、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などのようなイメージセンサを含んで構成されることができる。本発明において、映像獲得部110は、上向きに配置されて天井映像を得ることができるように配置されることが好ましい。より好ましくは、映像獲得部110は、魚眼レンズ(fisheye lens)のような広角(wide angle)レンズを備え、広い範囲の天井映像を得ることができるようにする。
映像処理部120は、映像歪曲補正部121、映像品質点検部122、特徴点抽出部123、および記述子生成部124を含む。
映像歪曲補正部121は、映像獲得部110から得られた映像の歪曲を補正する機能を実行する。映像獲得部110が魚眼レンズまたは広角レンズを含む場合、映像獲得部110を通じて得られた映像は歪曲(radial distortion)を含む。
これにより、映像獲得部110は、事前に得られたカメラパラメータを利用して映像の歪曲を除去する。
映像品質点検部122は、得られた映像の可用性を判断する機能を実行する。映像獲得部110に直射光線が照射されたり映像獲得部110がテーブルのような障害物によって隠れたりする場合、映像獲得部110で得られた映像は、移動ロボットの位置認識に用いられるには不適合となることがある。これにより、映像品質点検部122は、得られた映像を点検し、得られた映像が不適合である場合にはこれを排除する機能を実行する。一例として、映像品質点検部122は、得られた映像の明度を基準とし、明度が極めて高かったり低かったりする場合には不適合な映像として処理することができる。得られた映像が排除される場合、主制御部130は、ジャイロスコープ141やエンコーダ142から得られた走行記録情報に基づき、移動ロボット100の移動を制御することができる。
2つの映像を相互比較するステレオマッチング(stereo matching)において、映像間の変異(disparity)をd、焦点距離(focal length)をF、目からの映像までの距離(distance from eyes)をzとし、移動ロボットの実際移動距離をrとするとき、これらの関係は下記の数式1のように与えられる。
映像品質点検部122は、追加的な機能として、映像獲得部110によって得られた映像の明度変化を感知し、移動ロボット100がテーブルのような障害物の下部に移動することを感知することができる。例えば、得られた映像の明度平均および分散を利用し、移動ロボット100の映像獲得部110が障害物によって遮蔽されることを感知する。
もし、移動ロボット100がテーブルの下部に入るようになる場合であれば、映像フレームの明度平均が次第に減少しながら、明度の分散値が大きくなった後に小さくなるはずである。計算量を減少させる方法としては、映像獲得部110で得られた映像を移動ロボット100の進行方向を基準として4等分し、分割された各領域の明度平均値を利用して全体映像に対する平均と分散を求めることにより、移動ロボット100の遮蔽可否を判断することができる。
映像獲得部110によって遮蔽される場合には、映像を基盤とした移動ロボット100の位置制御が不可能になるため、主制御部130はジャイロスコープのような慣性センサ141およびエンコーダ142情報に基づいて移動ロボット100の移動を制御するようにする。
特徴点抽出部123は、映像獲得部110から得られた空間に対する映像から特徴点(feature)を抽出する。特徴点としては、天井のコーナー(corner)、天井に設置されたランプ、または空間の出入口などを挙げることができる。しかし、ランプまたは出入口を利用して特徴点を抽出するためには、計算量が多くなるという短所があるため、主に天井のコーナー部分を特徴点として用いることが好ましい。ただし、本発明において、特徴点抽出部123から抽出される特徴点はコーナーに限定されるものではなく、上述した多くの特徴点だけではなく、空間に存在する多様な客体を特徴点として活用できることは勿論である。
特徴点としてコーナーを抽出する技法を説明すれば、次のとおりとなる。
コーナー抽出技法の一例としては、ハリスコーナー検出法を例示することができるが、Chris Harris and Mike Stephensは、"A Combined Corner and Edge Detector(Proceedings of The Fourth Alvey Vision Conference、Manchester、pp147−151.1988)"において、映像からコーナーを抽出する方法を提示した。Harrisなどの方法は、映像からエッジ(edge)に沿った移動(shift)は特別に差がないが、エッジに垂直となる方向への移動は大きい差を発生させるということと、コーナーではすべての方向への移動が大きい差を発生させるという点に着眼した。
映像のインテンシー(intensity)をI、映像での移動(x、y)による変化をEとするとき、Eは下記の数式2のように与えられる。
前記数式1において、wはイメージウィンドウ(image window)を示す。
前記数式2は数式3のように表現することができ、数式3において、行列Mは映像インテンシーのグラデーション(gradient)を示し、数式4によって求められる。
行列Mの固有値(eigenvalue)を求め、その大きさがそれぞれ一定の大きさ以上であり、その相対的な比が一定の大きさ以下であれば、すべての方向に映像のインテンシー変化が甚だしいと判定することができる。これをコーナーの反応関数(response function)として定義し、数式4のように表現する。
数式5において、R値が0よりも大きくてR値が極大点(local Maxima)となる点をコーナーとして決定することができる。
記述子生成部124は、特徴点抽出部123で抽出された特徴点に対する記述子を生成する機能を実行する。特徴点に対する記述子としては、SIFT(Scale Invariant Feature Transform)またはSURF(Speeded Up Robust Features)などが活用されることができる。SIFT記述子は、特徴点周辺の映像の輝度変化分布などを利用して特徴点を表現する方式である。SURF記述子は、Herbert Bayなどが2006年に提案したものであり、SIFTに比べて記述子の次元を減らして速度を向上させ、Haar Wavelet適用により、単純グラデーションに比べて強靭であるという特徴がある。
主制御部130は、特徴点管理部131、地図管理部132、および走行制御部133を含む。
特徴点管理部131は、新規で得られた特徴点に対する情報を特徴点データベース(図示せず)に登録する機能を実行する一方、得られた映像から抽出された特徴点を特徴点データベースに既に登録された特徴点とマッチングし、一致する特徴点を検出する機能を実行する。特徴点管理部131で実行する特徴点マッチングは、特徴点を表象する記述子間のユークリッド距離(Euclidian Distance)を計算して判別することができる。
地図管理部132は、移動ロボット100の映像獲得部110で得られた映像、移動ロボット100の移動方向と距離などの走行情報、特徴点の位置などに基づき、移動ロボット100が位置した空間に対する地図を生成して更新する機能を実行する。場合によっては、前記空間に対する地図が移動ロボット100に予め提供されることがあるが、この場合には、空間に位置した障害物などの情報と特徴点情報に基づき、地図管理部132は地図を継続して更新するようにできる。
走行制御部133は、移動ロボット100の現在位置および走行情報に基づいて移動ロボット100の走行を制御する機能を実行する。移動ロボット100の走行のための一実施形態として、移動ロボット100は、左輪(図示せず)と右輪(図示せず)を備え、左輪と右輪の駆動のためのロボット駆動部150として左輪駆動モータ(図示せず)と右輪駆動モータ(図示せず)を備えることができる。走行制御部133は、左輪駆動モータと右輪駆動モータそれぞれの回転を制御することにより、移動ロボット100の前進、後進、左折、および右折などの走行が可能になるようにできる。この場合、左輪駆動モータと右輪駆動モータにはそれぞれエンコーダ142が備えられ、左輪駆動モータと右輪駆動モータの駆動情報を得る。
一方、前記走行制御部133は、拡張カルマンフィルタ(EKF:Extended Kalman Filter)を活用し、現在特徴点の位置と移動ロボットの位置に基づいて以後の特徴点の位置と移動ロボットの位置を予測することにより、移動ロボット100の走行を制御するように設計されることができる。
上述した構成において、慣性センサ141は、慣性を感知して移動ロボット100のヘディング(heading)方向を確認できるようにするが、慣性センサ141のセンシング情報とエンコーダ142のセンシング情報は、移動ロボット100の走行情報(odometry)を構成する。もし、慣性センサ141のセンシング情報とエンコーダ142のセンシング情報が正確であれば、移動ロボット100は、これらから得られた走行情報だけで完璧に制御されることができるであろう。しかし、実際環境では、駆動タイヤのスリップ(slip)やセンサ情報のエラーにより、移動ロボット100の実際位置と前記走行情報に基づいて計算された位置が異なることがある。このような誤差は、映像獲得部110によって得られた映像を共に利用すれば補正されることができる。
上述したように、本発明に係る移動ロボット100の記述子生成部124は、映像の特徴点に対する記述子を生成する。
地域的方向記述子は、特徴点周辺のグラデーション(gradient)を通じて地域的方向(local orientation)を導き出し、地域的方向間の関係に基づいて生成されることを特徴とする。
以下、図2〜図4を参照しながら、本発明の実施形態に係る移動ロボットの位置認識のための地図生成および更新方法を詳しく説明する。
図2は、本発明の一実施形態に係る移動ロボットの位置認識のための地図生成および更新方法のフローチャートである。図3は、本発明の一実施形態に係る移動ロボットの位置認識のための地図生成方法の詳細フローチャートである。図4は、本発明の一実施形態に係る移動ロボットの位置認識のための地図更新方法の詳細フローチャートである。
図2〜図4を参照すれば、本発明の実施形態に係る移動ロボットの位置認識のための地図生成および更新方法は、映像獲得部110を通じて走行または掃除対象領域の天井が含まれた周辺映像を少なくとも2フレーム以上を得て(S100)、前記得られたそれぞれの映像から特徴点を抽出し(S200)、前記抽出された特徴点を利用してランドマークを抽出し、抽出されたランドマークは確率検定を通じて登録することによって地図を生成し(S300)、登録されたランドマークは、走行または掃除過程で得られた映像から抽出されたランドマークと登録されたランドマークに対する予測ランドマークとの確率マッチングを通じ、誤認識として登録されたランドマークを削除したりランドマークの信頼度を変更することによって地図を更新する(S400)。
本発明の実施形態に係る移動ロボットの位置認識のための地図生成方法は、移動ロボット100が第1位置で得た第1映像からランドマークを検出して仮登録するステップ(S310、S320)、前記移動ロボットが第2位置に移動して得た第2映像から対応ランドマークを抽出するステップ(S330)、移動情報と前記仮登録ランドマーク情報に基づいて前記第2映像から前記仮登録ランドマークを推定するステップ(S340)、および前記仮登録ランドマークと前記推定ランドマークのマッチング誤差を算出し、前記マッチング誤差が既に設定された基準誤差の範囲以内である場合には、前記仮登録ランドマークを本登録するステップ(S360)を含む。
前記仮登録ステップ(S320)では、前記第1映像を複数のサブ映像に分割し、前記複数のサブ映像の輝度変化の大きさと輝度変化の位相を算出して特徴点を検出し、前記サブ映像のそれぞれで検出された複数の特徴点のうちから輝度変化と輝度変化の位相の大きさが最大である特徴点を探して前記仮登録ランドマークとして設定するようになる。前記特徴点を抽出して極大点としてランドマークを抽出する過程は、本発明の後半で詳しく説明する。
前記本登録ステップ(S360)では、前記マッチング誤差が既に設定された基準誤差の範囲を逸脱する場合には、前記第1映像は天井映像ではないと判断し、前記仮登録ランドマークを廃棄する(S370)。
前記第1、2映像はロボットの走行対象領域の天井映像であって、複数の特徴点を含むことが好ましく、さらに前記第1、2映像は複数の同じランドマークを含むことが好ましい。
本実施形態では、前記輝度変化の大きさは前記各サブ映像の水平輝度変化と垂直輝度変化の合計に乗根をとって求め、前記輝度変化の位相は前記各サブ映像の水平輝度変化に対する垂直輝度変化の比にアークタンジェントをとって求める。
本発明の実施形態に係る移動ロボットの位置認識のための地図更新方法は、a)第1位置で第1映像を得てランドマークを抽出してランドマークを登録し、b)第2位置で第2映像を得て前記登録ランドマークに対応するランドマークを検出し(S410)、これと同時に位置情報を利用して前記登録ランドマークを予測し(S420)c)前記検出ランドマークに対応する前記登録ランドマークの品質を検出し、d)確率関数を利用して前記検出ランドマークと前記予測ランドマークのマッチング確率を算出し(S430)、前記マッチング確率および前記登録ランドマークの品質に応じて差分的に前記登録ランドマークを更新する(S440〜S463)。
図4を参照しながら、本発明の一実施形態に係る移動ロボットの位置認識のための地図更新方法を詳しく説明する。
前記移動ロボット100は、第1位置で第1映像を得てランドマークを抽出してランドマークを登録し、前記第1位置から移動した後、第2位置で第2映像を得る。前記移動ロボット100は、前記第2映像で前記登録ランドマークに対応するランドマークを検出し(S410)、これと同時に移動情報を利用して前記登録ランドマークを予測する(S420)。前記移動ロボット100は、確率関数を利用して、前記検出ランドマークと前記予測ランドマークのマッチング確率を算出する(S430)。
本実施形態語では、確率関数として、上述したり後述したりするガウンシアンフィルタまたはEKF確率関数が適用されたが、カルマンフィルタまたは隠れマルコフモデル(HMM)などの他の確率関数が適用されることも可能である。
前記移動ロボット100は、前記マッチング確率の結果により、前記検出されたランドマークの処理領域を、マッチング確率が最も低い第1領域、マッチング確率が中間程度である第2領域、およびマッチング確率が高い第3領域という3つの領域に分類する(S440、S450)。
前記第1領域は、前記マッチング確率が第1基準確率よりも低い場合に該当するが、この場合には、前記検出ランドマークに対応する登録ランドマークの品質を基準品質と比較する(S441)。
前記比較結果により、前記登録ランドマークの品質が基準品質よりも低い場合には、前記検出ランドマークは前記登録ランドマークの更新に活用されずに廃棄され(S443)、これと同時に、前記登録ランドマークが誤マッチング(false−positive match)によって登録されたと判断して削除される(S444)。しかし、前記登録ランドマークの品質が基準品質よりも高い場合には、前記検出ランドマークは廃棄され(S446)、前記登録ランドマークの更新には反映せず、前記登録ランドマークは保存する。ただし、前記登録ランドマークの品質等級は、現在ステップよりも一ステップ低まるようになる(S445)。
前記第2領域は、前記マッチング確率が第1基準確率よりも高くて第2基準確率より低い場合に該当するが(S450)、この場合にも、前記検出ランドマークに対応する登録ランドマークの品質を基準品質と比較する(S451)。
前記比較結果により、前記登録ランドマークの品質が基準品質よりも低い場合には、前記検出ランドマークは廃棄され(S446)、前記登録ランドマークの更新には反映せず、前記登録ランドマークは保存する。ただし、この場合にも、前記登録ランドマークの品質等級は、現在ステップより一ステップ低まるようになる(S445)。
しかし、前記登録ランドマークの品質が基準品質よりも高い場合には、前記検出ランドマークを受容し(S462)、前記検出されたランドマークに基づいて前記登録ランドマークを更新する(S463)。ただし、この場合にも、前記登録ランドマークの品質等級は、現在ステップよりも一ステップ低まるようになる(S453)。
前記第3領域は、前記マッチング確率が第3基準確率よりも高い場合に該当し、前記検出ランドマークを受容する。この場合には、前記登録ランドマークの品質に係らず、前記検出ランドマークに対応する登録ラドマークと優秀なランドマークに該当するため、前記登録ランドマークの品質等級は現在ステップよりも一ステップ上昇するようになる。
ここで、前記第1基準確率は、前記第2基準確率よりも低い値を有する。
前記移動ロボット100は、前記検出ランドマークおよび前記予測ランドマークに基づいて前記登録ランドマークを更新し、自身の位置を補正するようになる。
前記登録ランドマークの品質は、ランドマークの検出頻度、検出エラーに関する履歴、および検出精密度のうちの少なくともいずれか1つによって決定される。前記位置情報は、移動ロボットの走行距離、走行方向、走行時間、回転角度、および回転回数を含む。
図5は、本発明の実施形態で適用された移動ロボットにおいて、地域的方向記述子の生成過程を示す図である。
映像獲得部110から得られた映像の入力を受け(S510)、映像の各ピクセルに対するグラデーションを計算する(S520)。グラデーション計算は、映像内の各ピクセルに対して図6のようなウィンドウを適用し、水平グラデーション(dx)および垂直グラデーション(dy)を計算することによってなされることができる。水平グラデーション(dx)は、水平ウィンドウの各値をピクセルのインテンシー値に掛けた合計で求めることができ、垂直グラデーション(dy)は、垂直ウィンドウの各値をピクセルのインテンシー値に掛けた合計で求めることができる。
特徴点抽出部123で抽出された特徴点(好ましくはコーナー)の座標の入力を受け(S530)、特徴点を中心とした映像パッチを設定する(S540)。映像パッチを設定するにおいて、一実施形態では9×9ピクセルを特定することができる。ただし、実際実施において、映像パッチの大きさが上述したものに限定されるものではなく、入力映像と適用環境に応じて可変的であることは勿論である。
映像パッチ内の各ピクセルに対するグラデーションを利用し、各ピクセルでグラデーションの位相(phase)と大きさ(magnitude)を計算する(S550)。位相は数式5によって、大きさは数式6によって計算されることができる。数式6と7において、dxは特定ピクセルに対する水平グラデーションであり、dyは特定ピクセルに対する垂直グラデーションである。
次に、映像パッチをさらに小さい領域に再分割し、複数のサブ領域(Sub Region)を生成する(S560)。発明の実施において、9×9映像パッチの場合には、3×3サブ領域に分割し、9つのサブ領域に区分することができる。
それぞれのサブ領域に対し、サブ領域を構成する各ピクセル別の位相に対するヒストグラム(histogram)を作成し、これに対するピーク値による位相を該当するサブ領域の地域的方向として指定する(S570)。図7(a)は映像パッチの一例を示し、(b)は映像パッチのサブ領域に対する地域的方向情報を示す。図7(b)の場合、合計9つの地域的方向情報が抽出されたことを確認することができる。
移動ロボット100の走行制御に適用すれば、次のとおりとなる。
移動ロボット100は、慣性センサ141とエンコーダ142の走行情報に基づいて位置を推定し、リアルタイムで地図を生成する。走行制御部133は、EKFを活用して移動ロボット100の移動方向と移動距離から推定されたマッチング範囲を利用し、映像獲得部110で順に得られる映像間の特徴点マッチングを実行する。走行制御部133のEKFによって予測される範囲内で移動ロボット100の位置および走行を制御するが、映像獲得部110で得られた映像を処理して特徴点を抽出して特徴点に対する記述子を生成し、生成された記述子を利用して特徴点マッチングを実行することによって移動ロボット100の正確な位置を推定し、走行情報(odometry)による移動ロボット100の位置を補正する。
以上の説明による移動ロボット100の走行制御方法を説明すれば、次のとおりとなる。
図8は、本実施形態に係る移動ロボットの位置認識および走行制御方法において、特徴点抽出および識別子生成過程を示すフローチャートである。
映像獲得部110は、移動ロボット100の周辺環境に対する映像を得る(S610)。映像歪曲補正部121は、得られた映像の歪曲を補正する(S620)。映像品質点検部122は、映像品質を点検し(S630)、映像品質が特徴点抽出に適合する場合にのみ、次のステップが実行される。
特徴点抽出部123は入力映像から特徴点を抽出し(S640)、記述子生成部は特徴点に対する記述子を生成した後(S650)、特徴点管理部131は生成された特徴点が新規である場合、これを登録して管理する(S660)。
一方、特徴点抽出部123で抽出された特徴点が核心領域特徴点に該当すると判定される場合、核心領域特徴点に対する記述子を生成し、特徴点管理部131は、核心領域特徴点が新規である場合、これを登録して管理する。
図9は、本実施形態に係る移動ロボットの位置認識および走行制御方法において、走行制御方法を示すフローチャートである。
映像獲得部110で得られた入力映像に対する特徴点を抽出し、これに対する記述子を生成する(S710)。次に、入力映像に対して生成された記述子を利用して、入力映像の特徴点と登録された特徴点とのマッチングを実行する(S720)。
一方、主制御部130は、慣性センサ141およびエンコーダ142から移動ロボット100の走行情報の入力を受ける(S730)。
走行制御部133は、移動ロボット100の走行情報に基づいて移動ロボットの位置を予測し、入力された映像に基づいて移動ロボットの位置を補正して移動ロボットの走行を制御する(S740)
特徴点管理部131は、映像獲得部110で新規で得られた映像から抽出した特徴点と既に登録された特徴点をマッチングして特徴点が一致するかを判断するが、特徴点の誤認識が頻繁に発生する。このような特徴点誤認識を防ぐために、本発明は、上述した地域的方向情報と慣性センサ141を利用した移動ロボット100の走行方向(heading)情報を共に活用する方案を提案する。
以上の説明は、本発明の技術思想を例示的に説明したものに過ぎず、本発明が属する技術分野において通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲内で、多様な修正、変更、および置換が可能であろう。したがって、本発明に開示された実施形態および添付の図面は、本発明の技術思想を限定するためではなく説明するためのものであり、このような実施形態および添付の図面によって本発明の技術思想の範囲が限定されることはない。本発明の保護範囲は、添付の特許請求の範囲によって解釈されなければならず、これと同等な範囲内にあるすべての技術思想は、本発明の権利範囲に含まれると解釈すべきである。

Claims (12)

  1. 移動ロボットが第1位置で得た第1映像からランドマークを検出して仮登録するステップとして、前記第1 映像を複数のサブ映像に分割し、前記複数のサブ映像の輝度変化の大きさと輝度変化の位相を算出して特徴点を検出するステップ、及び、前記サブ映像のそれぞれで検出された複数の特徴点の中から輝度変化と輝度変化の位相の大きさが最大である特徴点を探し、前記仮登録ランドマークとして設定するステップを含み、前記輝度変化の大きさは、前記各サブ映像の水平輝度変化と垂直輝度変化の合計に乗根を取って求め、前記輝度変化の位相は、前記各サブ映像の水平輝度変化に対する垂直輝度変化の比にアークタンジェントをとって求めるステップ
    前記移動ロボットが第2位置に移動して得た第2映像から対応ランドマークを抽出するステップ;
    移動情報と前記仮登録ランドマーク情報に基づいて前記第2映像から前記仮登録ランドマークを推定するステップ;および
    前記仮登録ランドマークと前記推定ランドマークのマッチング誤差を算出し、前記マッチング誤差が既に設定された基準誤差の範囲以内である場合には、前記仮登録ランドマークを本登録するステップ;
    を含む、移動ロボットの位置認識のための地図生成方法。
  2. 前記本登録ステップでは、
    前記マッチング誤差が既に設定された基準誤差の範囲を逸脱する場合には、前記第1映像は天井映像ではないと判断し、前記仮登録ランドマークを廃棄することを特徴とする、請求項1に記載の移動ロボットの位置認識のための地図生成方法。
  3. 前記第1、2映像は移動ロボットの走行対象領域の天井映像を含み、前記天井映像は複数の特徴点を含むことを特徴とする、請求項2に記載の移動ロボットの位置認識のための地図生成方法。
  4. 前記第1、2映像は、複数の同じランドマークを含むことを特徴とする、請求項3に記載の移動ロボットの位置認識のための地図生成方法。
  5. a)第1位置で第1映像を得て、前記第1 映像を複数のサブ映像に分割し、前記複数のサブ映像の輝度変化の大きさと輝度変化の位相を算出し特徴点を検出し、前記サブ映像のそれぞれで検出された複数の特徴点の中から輝度変化と輝度変化の位相の大きさが最大である特徴点でランドマークを抽出してランドマークを登録するステップであり、前記輝度変化の大きさは、前記各サブ映像の水平輝度変化と垂直輝度変化の合計に乗根をとって求め、 前記輝度変化の位相は、前記各サブ映像の水平輝度変化に対する垂直輝度変化の比にアークタンジェントを取って求めるステップ
    b)第2位置で第2映像を得て前記登録ランドマークに対応するランドマークを検出し、これと同時に移動ロボットの走行距離、走行方向、走行時間、回転角度及び、回転回数を含む位置情報を利用して前記登録ランドマークを予測するステップ;
    c)前記検出ランドマークに対応する前記登録ランドマークの品質を検出するステップとし、前記登録ランドマークの品質は、ランドマークの検出頻度、検出エラーに関する履歴及び検出精密度のうちのいずれか1つによって決定されるステップ;および
    d)確率関数を利用して前記検出ランドマークと前記予測ランドマークのマッチング確率を算出し、前記マッチング確率および前記登録ランドマークの品質に応じて差分的に前記登録ランドマークを更新するステップ;
    を含む、移動ロボットの位置認識のための地図更新方法。
  6. 前記d)ステップは、
    前記マッチング確率が第1基準確率よりも低い場合には、前記検出ランドマークを廃棄することを特徴とする、請求項5に記載の移動ロボットの位置認識のための地図更新方法。
  7. 前記c)ステップは、
    前記登録ランドマークの品質が基準品質よりも低い場合には、前記登録ランドマークが誤マッチング(false−positiv ematch)によって登録されたと判断して削除されることを特徴とする、請求項6に記載の移動ロボットの位置認識のための地図更新方法。
  8. 前記d)ステップは、
    前記登録ランドマークの品質が基準品質よりも高い場合には、前記検出ランドマークを廃棄し、前記検出ランドマークを前記登録ランドマークに反映しないことを特徴とする、請求項6に記載のロボットの位置認識のための地図更新方法。
  9. 前記d)ステップは、
    前記マッチング確率が第1基準確率よりも高くて第2基準確率よりも低い場合に、前記登録ランドマークの品質が基準品質よりも低ければ、前記検出ランドマークを廃棄することを特徴とする、請求項5に記載の移動ロボットの位置認識のための地図更新方法。
  10. 前記d)ステップは、
    前記マッチング確率が第1基準確率よりも高くて第2基準確率よりも低く、前記登録ランドマークの品質が基準品質よりも高い場合には、前記検出ランドマークを受容することを特徴とする、請求項5に記載の移動ロボットの位置認識のための地図更新方法。
  11. 前記d)ステップでは、
    前記登録ランドマークの品質等級が現在ステップよりも一ステップ低められることを特徴とする、請求項5に記載の移動ロボットの位置認識のための地図更新方法。
  12. 前記d)ステップは、
    前記マッチング確率が第3基準確率よりも高い場合に、前記検出ランドマークを受容することを特徴とする、請求項5に記載の移動ロボットの位置認識のための地図更新方法。
JP2012536620A 2009-10-30 2009-10-30 移動ロボットの位置認識のための地図生成および更新方法 Expired - Fee Related JP5490911B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2009-0104566 2009-10-30
PCT/KR2009/006366 WO2011052826A1 (ko) 2009-10-30 2009-10-30 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
KR1020090104566A KR101083394B1 (ko) 2009-10-30 2009-10-30 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법

Publications (2)

Publication Number Publication Date
JP2013508874A JP2013508874A (ja) 2013-03-07
JP5490911B2 true JP5490911B2 (ja) 2014-05-14

Family

ID=43922244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012536620A Expired - Fee Related JP5490911B2 (ja) 2009-10-30 2009-10-30 移動ロボットの位置認識のための地図生成および更新方法

Country Status (6)

Country Link
US (1) US8849036B2 (ja)
EP (1) EP2495632B1 (ja)
JP (1) JP5490911B2 (ja)
KR (1) KR101083394B1 (ja)
CN (1) CN102656532B (ja)
WO (1) WO2011052826A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102252888B1 (ko) * 2020-01-03 2021-05-17 포테닛 주식회사 공간 내에서 이송로봇의 위치 검출장치 및 방법

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8930023B2 (en) * 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
KR101524020B1 (ko) * 2009-03-06 2015-05-29 엘지전자 주식회사 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
US9122955B2 (en) * 2010-06-28 2015-09-01 Ramot At Tel-Aviv University Ltd. Method and system of classifying medical images
EP2619742B1 (en) * 2010-09-24 2018-02-28 iRobot Corporation Systems and methods for vslam optimization
KR101311100B1 (ko) * 2011-08-27 2013-09-25 고려대학교 산학협력단 천장 임의 형상 특성 활용 이동 로봇 위치 인식 방법
KR101280392B1 (ko) * 2011-08-29 2013-07-01 연세대학교 산학협력단 Slam 기술 기반 이동 로봇의 지도를 관리하기 위한 장치 및 그 방법
CA2752370C (en) * 2011-09-16 2022-07-12 Mcgill University Segmentation of structures for state determination
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
CN105717924B (zh) 2012-06-08 2018-12-28 艾罗伯特公司 使用差动传感器或视觉测量的地毯偏移估计
KR101893152B1 (ko) * 2012-10-26 2018-08-31 엘지전자 주식회사 로봇 청소기 시스템 및 그 제어방법
US9675226B2 (en) 2012-10-26 2017-06-13 Lg Electronics Inc. Robot cleaner system and control method of the same
US9164844B2 (en) 2013-03-12 2015-10-20 Qualcomm Incorporated Method and apparatus for detecting anomalies within indoor information
ITTO20130202A1 (it) * 2013-03-15 2014-09-16 Torino Politecnico Dispositivo e sistema di scansione tridimensionale, e relativo metodo.
DE102013212605A1 (de) * 2013-06-28 2014-12-31 Robert Bosch Gmbh Verfahren zu einer Arbeitsbereichserfassung zumindest eines Arbeitsbereichs eines autonomen Serviceroboters
KR101511992B1 (ko) * 2013-09-06 2015-04-14 현대모비스(주) 조향 휠 제어 방법 및 이를 위한 위한 시스템
US9427867B2 (en) * 2014-04-02 2016-08-30 The Boeing Company Localization within an environment using sensor fusion
WO2015194864A1 (ko) * 2014-06-17 2015-12-23 (주)유진로봇 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
EP3159126A4 (en) 2014-06-17 2018-05-30 Yujin Robot Co., Ltd. Device and method for recognizing location of mobile robot by means of edge-based readjustment
WO2015194865A1 (ko) 2014-06-17 2015-12-23 (주)유진로봇 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
WO2015194867A1 (ko) * 2014-06-17 2015-12-23 (주)유진로봇 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 2014-06-17 2017-04-10 주식회사 유진로봇 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN104062973B (zh) * 2014-06-23 2016-08-24 西北工业大学 一种基于图像标志物识别的移动机器人slam方法
US9305353B1 (en) 2014-09-23 2016-04-05 Qualcomm Incorporated Landmark based positioning
US10444760B2 (en) * 2014-12-17 2019-10-15 Husqvarna Ab Robotic vehicle learning site boundary
EP3971672A1 (en) * 2014-12-17 2022-03-23 Husqvarna AB Multi-sensor, autonomous robotic vehicle with mapping capability
JP6651295B2 (ja) * 2015-03-23 2020-02-19 株式会社メガチップス 移動体制御装置、プログラムおよび集積回路
CN105302132A (zh) * 2015-08-07 2016-02-03 浙江海洋学院 一种基于行走机器人的分布式视觉定位***及方法
US9940542B2 (en) * 2015-08-11 2018-04-10 Google Llc Managing feature data for environment mapping on an electronic device
JP6849330B2 (ja) * 2015-08-28 2021-03-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
KR102403504B1 (ko) * 2015-11-26 2022-05-31 삼성전자주식회사 이동 로봇 및 그 제어 방법
JP7058067B2 (ja) * 2016-02-16 2022-04-21 東芝ライフスタイル株式会社 自律走行体
JP6280147B2 (ja) * 2016-03-18 2018-02-14 本田技研工業株式会社 無人走行作業車
CN107229274B (zh) * 2016-03-24 2022-06-28 松下电器(美国)知识产权公司 位置指示方法、终端装置、自行式装置以及程序
JP2019520953A (ja) 2016-04-08 2019-07-25 エーアンドケー ロボティクス インコーポレイテッド 手動運転と自律運転とを切り替え可能な自動床洗浄機
CN107357286A (zh) * 2016-05-09 2017-11-17 两只蚂蚁公司 视觉定位导航装置及其方法
KR102372669B1 (ko) 2016-06-08 2022-03-10 삼성전자주식회사 전자 장치, 외부 서버 및 그 제어 방법
CN106646441A (zh) * 2016-11-16 2017-05-10 杭州国辰牵星科技有限公司 结合环境信息的室内移动机器人定位***及方法
CN108398944B (zh) * 2016-12-15 2021-04-06 苏州宝时得电动工具有限公司 自移动设备的作业方法、自移动设备、存储器和服务器
CN110226186B (zh) * 2016-12-26 2023-08-04 宝马股份公司 表示地图元素的方法和装置以及定位的方法和装置
US20180190014A1 (en) * 2017-01-03 2018-07-05 Honeywell International Inc. Collaborative multi sensor system for site exploitation
CN106708053A (zh) * 2017-01-26 2017-05-24 湖南人工智能科技有限公司 一种自主导航的机器人及其自主导航方法
US10929462B2 (en) 2017-02-02 2021-02-23 Futurewei Technologies, Inc. Object recognition in autonomous vehicles
CN107133261A (zh) * 2017-03-22 2017-09-05 新奥特(北京)视频技术有限公司 一种地标信息的录入方法和装置
CN107133260A (zh) * 2017-03-22 2017-09-05 新奥特(北京)视频技术有限公司 一种地标图像的匹配识别方法和装置
CN108733039A (zh) * 2017-04-18 2018-11-02 广东工业大学 一种机器人室内导航定位的方法与装置
US10697779B2 (en) * 2017-04-21 2020-06-30 X Development Llc Landmark placement for localization
KR20180121244A (ko) * 2017-04-28 2018-11-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN107272454A (zh) * 2017-06-19 2017-10-20 中国人民解放军国防科学技术大学 一种基于虚拟现实的实时人机交互方法
CN107263473A (zh) * 2017-06-19 2017-10-20 中国人民解放军国防科学技术大学 一种基于虚拟现实的人机交互方法
CN109507995B (zh) * 2017-09-14 2022-01-04 深圳乐动机器人有限公司 机器人地图的管理***及机器人
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US10422648B2 (en) * 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
US11320828B1 (en) 2018-03-08 2022-05-03 AI Incorporated Robotic cleaner
US11254002B1 (en) 2018-03-19 2022-02-22 AI Incorporated Autonomous robotic device
WO2019194602A1 (ko) * 2018-04-04 2019-10-10 엘지전자 주식회사 위치 보정 기능이 향상된 주행 제어장치 및 이를 이용한 로봇 청소기
US11454981B1 (en) 2018-04-20 2022-09-27 AI Incorporated Versatile mobile robotic device
CN108469826B (zh) * 2018-04-23 2021-06-08 宁波Gqy视讯股份有限公司 一种基于机器人的地图生成方法及***
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
US11340079B1 (en) 2018-05-21 2022-05-24 AI Incorporated Simultaneous collaboration, localization, and mapping
US11548159B1 (en) 2018-05-31 2023-01-10 AI Incorporated Modular robot
CN108481327B (zh) * 2018-05-31 2023-11-07 珠海一微半导体股份有限公司 一种增强视觉的定位装置、定位方法及机器人
GB2574418B (en) * 2018-06-05 2022-08-31 Dyson Technology Ltd A mobile robot and method of controlling a mobile robot illumination system
JP2019212227A (ja) * 2018-06-08 2019-12-12 株式会社ミツバ 制御装置及び制御方法
JPWO2019240208A1 (ja) * 2018-06-13 2021-06-24 Groove X株式会社 ロボットおよびその制御方法、ならびにプログラム
US11199853B1 (en) 2018-07-11 2021-12-14 AI Incorporated Versatile mobile platform
WO2020019221A1 (zh) * 2018-07-26 2020-01-30 深圳前海达闼云端智能科技有限公司 一种自主定位和地图建立方法、装置和机器人
DE102018214694A1 (de) * 2018-08-30 2020-03-05 Continental Automotive Gmbh Lokalisierungsvorrichtung zur visuellen Lokalisierung eines Fahrzeugs
CN109084776B (zh) * 2018-09-03 2021-06-15 广东嘉腾机器人自动化有限公司 一种地标检测方法及装置
CN109637339B (zh) * 2018-11-19 2022-08-09 深圳市海柔创新科技有限公司 地图生成方法、装置、计算机可读存储介质和计算机设备
US11398309B2 (en) * 2018-11-27 2022-07-26 Alarm.Com Incorporated Automated surface sterilization techniques
US20200182623A1 (en) * 2018-12-10 2020-06-11 Zebra Technologies Corporation Method, system and apparatus for dynamic target feature mapping
JP7183085B2 (ja) * 2019-03-14 2022-12-05 株式会社東芝 移動体行動登録装置、移動体行動登録システム、移動体行動登録方法、移動体行動登録プログラム、及び移動体行動決定装置
KR102296908B1 (ko) 2019-03-19 2021-09-02 한국전자통신연구원 특징점 지도 관리방법 및 장치
CN109984691A (zh) * 2019-04-04 2019-07-09 尚科宁家(中国)科技有限公司 一种扫地机器人控制方法
US11817194B2 (en) * 2019-04-30 2023-11-14 Pixart Imaging Inc. Smart control system
US11137770B2 (en) * 2019-04-30 2021-10-05 Pixart Imaging Inc. Sensor registering method and event identifying method of smart detection system
JP7036783B2 (ja) * 2019-10-09 2022-03-15 株式会社 ミックウェア 位置推定システム、位置推定方法、及び位置推定プログラム
CN112650207B (zh) * 2019-10-11 2024-06-14 杭州萤石软件有限公司 机器人的定位校正方法、设备和存储介质
CN114556426A (zh) * 2019-10-16 2022-05-27 维里蒂股份公司 用于将图像特征与不能区分的界标进行匹配的***和方法
JP7283665B2 (ja) * 2019-12-19 2023-05-30 株式会社豊田自動織機 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム
US20210199446A1 (en) * 2019-12-31 2021-07-01 Lyft, Inc. Overhead view image generation
US11037328B1 (en) 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
US11244500B2 (en) 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11288522B2 (en) 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US20210200237A1 (en) * 2019-12-31 2021-07-01 Lyft, Inc. Feature coverage analysis
JP2022041757A (ja) * 2020-09-01 2022-03-11 ソニーグループ株式会社 情報処理装置、ロボット及び情報処理方法
US11797020B1 (en) * 2020-10-16 2023-10-24 Amazon Technologies, Inc. System for autonomous mobile device motion control using image data
CN115701810A (zh) * 2020-12-25 2023-02-14 深圳怪虫机器人有限公司 一种光伏清洁机器人辅助定位的方法
KR20230017060A (ko) * 2021-07-27 2023-02-03 삼성전자주식회사 로봇 및 그 제어 방법
US11511165B1 (en) * 2022-05-30 2022-11-29 Tennibot, Inc. Autonomous tennis assistant systems
CN114982460B (zh) * 2022-06-13 2024-04-30 深圳拓邦股份有限公司 一种割草机位置修正方法和装置
GB2620909A (en) * 2022-07-04 2024-01-31 Opteran Tech Limited Method and system for determining the structure, connectivity and identity of a physical or logical space or attribute thereof

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
US5610815A (en) * 1989-12-11 1997-03-11 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
JPH04227507A (ja) * 1990-07-02 1992-08-17 Nec Corp 移動ロボット用のマップを作成し保持する方法
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
CN1569558A (zh) * 2003-07-22 2005-01-26 中国科学院自动化研究所 基于图像表现特征的移动机器人视觉导航方法
JP4264380B2 (ja) * 2004-04-28 2009-05-13 三菱重工業株式会社 自己位置同定方法及び該装置
US7590589B2 (en) * 2004-09-10 2009-09-15 Hoffberg Steven M Game theoretic prioritization scheme for mobile ad hoc networks permitting hierarchal deference
KR100776215B1 (ko) * 2005-01-25 2007-11-16 삼성전자주식회사 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체
KR100702663B1 (ko) * 2005-08-27 2007-04-02 한국과학기술원 입자 필터 프레임 워크에서 전방향 시각센서 기반 위치추정 및 매핑을 위한 방법
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
KR100669250B1 (ko) * 2005-10-31 2007-01-16 한국전자통신연구원 인공표식 기반의 실시간 위치산출 시스템 및 방법
US8467904B2 (en) * 2005-12-22 2013-06-18 Honda Motor Co., Ltd. Reconstruction, retargetting, tracking, and estimation of pose of articulated systems
JP4148276B2 (ja) * 2006-05-09 2008-09-10 ソニー株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
KR100757937B1 (ko) * 2006-06-30 2007-09-12 삼성전자주식회사 로봇의 위치 추적 및 지도 작성 방법
KR100785784B1 (ko) 2006-07-27 2007-12-13 한국전자통신연구원 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
KR100966875B1 (ko) * 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법
CN101566471B (zh) * 2007-01-18 2011-08-31 上海交通大学 基于地面纹理的智能车视觉全局定位方法
KR100877071B1 (ko) * 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
JP2010238008A (ja) * 2009-03-31 2010-10-21 Fujitsu Ltd 映像特徴抽出装置、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102252888B1 (ko) * 2020-01-03 2021-05-17 포테닛 주식회사 공간 내에서 이송로봇의 위치 검출장치 및 방법

Also Published As

Publication number Publication date
EP2495632A4 (en) 2013-08-07
EP2495632A1 (en) 2012-09-05
KR20110047797A (ko) 2011-05-09
KR101083394B1 (ko) 2011-11-14
US8849036B2 (en) 2014-09-30
WO2011052826A1 (ko) 2011-05-05
CN102656532A (zh) 2012-09-05
CN102656532B (zh) 2015-11-25
EP2495632B1 (en) 2018-09-12
JP2013508874A (ja) 2013-03-07
US20120213443A1 (en) 2012-08-23

Similar Documents

Publication Publication Date Title
JP5490911B2 (ja) 移動ロボットの位置認識のための地図生成および更新方法
KR101618030B1 (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
KR101538775B1 (ko) 전방 영상을 이용한 위치 인식 장치 및 방법
EP2460629B1 (en) Control method for localization and navigation of mobile robot and mobile robot using same
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101152720B1 (ko) 이동 로봇의 슬립 감지 장치 및 방법
US7321386B2 (en) Robust stereo-driven video-based surveillance
CN111611853B (zh) 一种传感信息融合方法、装置及存储介质
KR101503903B1 (ko) 이동 로봇의 지도 구성 장치 및 방법
JP4930046B2 (ja) 路面判別方法および路面判別装置
US8842162B2 (en) Method and system for improving surveillance of PTZ cameras
KR101569919B1 (ko) 차량의 위치 추정 장치 및 방법
KR20180125010A (ko) 이동 로봇 및 이동 로봇의 제어방법
CN112050810B (zh) 一种基于计算机视觉的室内定位导航方法及***
JP2002197444A (ja) 車両の走行路認識装置
JP2006105661A (ja) ステレオ画像による平面推定方法
US20200200545A1 (en) Method and System for Determining Landmarks in an Environment of a Vehicle
JP4042517B2 (ja) 移動体およびその位置検出装置
CN113885046A (zh) 针对低纹理车库的智能网联汽车激光雷达定位***及方法
CN112033390B (zh) 机器人导航纠偏方法、装置、设备和计算机可读存储介质
US20100241343A1 (en) Apparatus and method for recognizing traffic line
JP2005217883A (ja) ステレオ画像を用いた道路平面領域並びに障害物検出方法
US9886761B2 (en) Information processing to display existing position of object on map
KR20200079070A (ko) 동영상에서 근접해오는 차량 검출 시스템 및 그 방법
JPH07105473A (ja) 道路画像の白線認識装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140226

R150 Certificate of patent or registration of utility model

Ref document number: 5490911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees