JP4942733B2 - 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法 - Google Patents

物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法 Download PDF

Info

Publication number
JP4942733B2
JP4942733B2 JP2008335345A JP2008335345A JP4942733B2 JP 4942733 B2 JP4942733 B2 JP 4942733B2 JP 2008335345 A JP2008335345 A JP 2008335345A JP 2008335345 A JP2008335345 A JP 2008335345A JP 4942733 B2 JP4942733 B2 JP 4942733B2
Authority
JP
Japan
Prior art keywords
robot
node
recognized
unit
candidate node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008335345A
Other languages
English (en)
Other versions
JP2009190164A (ja
Inventor
聖 基 朴
蕣 ▲庸▼ 朴
Original Assignee
コリア・インスティテュート・オブ・サイエンス・アンド・テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コリア・インスティテュート・オブ・サイエンス・アンド・テクノロジー filed Critical コリア・インスティテュート・オブ・サイエンス・アンド・テクノロジー
Publication of JP2009190164A publication Critical patent/JP2009190164A/ja
Application granted granted Critical
Publication of JP4942733B2 publication Critical patent/JP4942733B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は移動ロボットが、基準座標が与えられた動作環境内でロボット自ら自身の位置を推定(estimation)する方法に関し、移動ロボットが環境内の個別物体をビジョンセンサにより認識し、認識された物体と認識された物体を含む周辺環境情報を、与えられたマップに基づいて分析して自身の位置を推定する方法に関する。
一般に、産業用ロボットから始まったロボットは、近年は任意の環境でも動作できる知能ロボットの形態へとその応用領域を拡大している。このような知能ロボットとしては、掃除ロボットをはじめ、警備ロボット、危険物探知ロボット、家事ロボット及び教育ロボットなどが挙げられる。このようなロボットが与えられた環境で人間にサービスを提供するためには、ロボット走行技術の確保は必須であり、その中でロボットが自己位置を推定しなければならない自己位置推定(Self−localization)技術は核心的な要素となっている。
このようなロボットの自己位置推定技術は、基本的に地図に基づいて行われるため、ロボットが利用する地図表象(representation)がいかなる方式で構成されているかと、利用するセンサによって多様に変化し得る。近年の技術の展開は、地図(マップ)は通常格子地図のような数値的地図上に位相的(topological)地図を結合して用い、センサは、レーザ及び超音波センサからビジョンセンサにシフトしているが、これはビジョンセンサが距離情報だけでなく、映像に基づいて色相、物体の識別及び人の識別などのような豊富な追加情報を提供することもできることから、その使用が広がっている。
このようなビジョンセンサ基盤の物体認識技術に基づいてロボットの自己位置を推定しようとした従来技術は、以下の通りである。
韓国特許としては、物体にアクティブタグを付けてこれをビジョンセンサで認識し、これにより、物体とロボット間の位置を測定するための特許(下記の特許文献1参照)と、ビジョン基盤の移動ロボットの位置制御システムに関する特許(下記の特許文献2参照)がある。前者はロボットが移動する経路にある物体に人工的タグを付着しなければならないという不便があり、後者はビジョンセンサがロボットに付着されず、環境に付着されて単にロボットのみを認識してその位置を推定する方式であるので、環境によってビジョンセンサが必要になり、多数のビジョンセンサを設置しなければならないという短所があった。
海外特許としては、米国のビジョンセンサにより自己位置推定とマップの実現を同時に行う特許(下記の特許文献3参照)技術が代表的である。しかしながら、この特許技術も環境でビジョンセンサを用いて物体単位で認識を行わず、3次元上の局所的特徴点を抽出してこれに基づいて自己位置を推定することで、後の環境変化の要因に対処できる手段を喪失して基本的にレーザセンサを利用するのと大きく変わらないという短所があった。
そして、公開された論文のうち、本特許と類似した技術は、以下の通りである。
日本のYutaなどが物体認識に基づいて物体中心の位相的地図を構成し、ロボットの位置はそのような物体を1つずつ認識すると同時に、ロボットが動きながら、他の物体を認識してロボットの位置を推定する方法を提示した(下記の非特許文献4参照)。このような方法は、ロボットの自己位置推定方法において局所的位置追跡(local localization tracking)に該当する方法であって、ロボットが任意の位置に突然動かされたり、局所的位置推定に失敗したりするので、新たにロボットの位置を推定しようとする全域的自己位置の推定には適用し難いという問題点があった。
韓国のパク・スンヨンらが室内環境を局所領域中心の位相的地図として表象し、各局所領域に含まれている物体を認識してロボットが位置する局所領域を取得し、その局所領域に定義された局所座標系に対するロボットの位置を計算する方法を提示した。このような方法は、ロボットの位置が認識された物体の3次元情報のみを用いて計算されるので、認識された物体の3次元情報の数が少ない場合には、計算された位置が不正確になり得るという問題点があった。
韓国公開番号10−2006−0102389号 韓国公開番号10−2005−0062713号 米国特許US7015831号 M. Tomoyo and S. Yuta,"Object−based localization and mapping using loop constraints and geometric prior knowledge," International Conference on Robotics and Automation, pp. 862〜867, 2003. S. Park, M. Park, and S.−K. Park, "Vision−based Global Localization for Mobile Robots with an Object Entity−based Hybrid Map," International Conference on Advanced Robotics, pp.761〜766,2007.
本発明は前記事情に鑑みてなされたものであって、その目的は、ロボットの環境認識のための物体と物体を含む環境情報が予め位相学地図形態で3次元情報と共に格納されている状態でビジョンセンサによって環境内の物体認識を行い、物体が認識される場合に、物体と物体を含む環境の3次元情報を用いてロボットの自己位置を推定する方法を提供することにある。
また、本発明の他の目的は、ビジョンセンサによる物体認識時間はロボットの走行中に位置推定に適用し難いという前提の下で、ロボットが環境の個別的物体を認識し、それに基づいて位置を推定するようにしてロボットが停止している位置で全域的位置推定を行うロボットの自己位置推定方法を提供することにある。
前記目的を達成するために、本発明では第1の側面として、ステレオ映像装置で形成されたカメラ部と、ロボット移動経路周囲の地図が格納されたデータベース部と、前記カメラ部で獲得した映像情報を用いて自身の位置を推定する位置演算部とを有するロボットの自己位置推定方法であって、前記カメラ部でロボット周囲の映像を獲得する第1工程と、前記位置演算部で前記カメラ部が獲得した映像内の個別物体を認識し、個別物体の局所特徴点と個別物体を含む周辺環境の局所特徴点のカメラ座標系位置値を生成する第2工程と、前記位置演算部で前記データベース部に格納されている地図及び前記第2工程の結果に基づいてロボットの位置を推定する第3工程とを含むロボットの自己位置推定方法が提示され、
第1の側面において、前記第3工程は、前記データベースに格納された地図から前記第2工程で認識した物体が1つ以上含まれているノードをロボットが位置し得る候補ノードとして選定する候補ノード選定工程と、前記第2工程で生成された位置値を用いて選定された全ての候補ノードに対するロボットの暫定位置を計算する暫定位置計算工程と、計算された暫定位置を初期位置値として選定された全ての候補ノードにパーティクルフィルタリング技法を適用してロボットの位置を推定する位置推定工程を含んでなることを特徴とし、
第1の側面において、前記第3工程は、前記データベースに格納された地図から前記第2工程で認識した物体が1つ以上含まれているノードをロボットが位置し得る候補ノードとして選定する候補ノード選定工程と、前記第2工程で生成された位置値を用いて選定された全ての候補ノードに対するロボットの暫定位置を計算する暫定位置計算工程と、候補ノードの中から最終候補ノードを選択する最終候補ノード選択工程と、最終候補ノードに対するロボットの暫定位置を初期位置値として最終候補ノードにパーティクルフィルタリング技法を適用してロボットの位置を推定する位置推定工程とを含んでなることを特徴とし、
第2の側面として、360°より小さな視野角を有し、ステレオ映像装置で構成されたカメラ部と、前記カメラ部を一定角度ずつ回転させることができる回転装置と、ロボット移動経路周囲の地図を格納しているデータベース部と、前記カメラ部で獲得した映像情報を用いて自身の位置を推定する位置演算部とを有するロボットの自己位置推定方法であって、
前記カメラ部が一定方向のロボット周囲の映像を獲得する第1工程と、前記位置演算部において前記カメラ部が獲得した映像内で認識した物体がない場合には前記回転装置を駆動してカメラを回転させた後、他の方向の映像を獲得する過程を獲得された映像で認識した個別物体が存在するまで繰り返し、認識した個別物体の局所特徴点と個別物体を含む周辺環境の局所特徴点のカメラ座標系位置値を生成する第2工程と、前記位置演算部で前記データベース部に格納された地図から前記認識された物体が1つ以上含まれているノードをロボットが位置し得る候補ノードとして選定する第3工程と、前記位置演算部で候補ノードの優先順位を決定する第4工程と、前記位置演算部で候補ノードに含まれている物体とロボット間の距離及び最優先順位物体を計算する第5工程と、前記位置演算部で前記回転装置を用いてカメラ部を回転させて候補ノードの最優先順位物体を確認する第6工程と、前記位置演算部で前記第6工程で最優先物体が確認されたノードにパーティクルフィルタリング技法を用いてロボットの位置を推定する第7工程とを含むことを特徴とするロボットの自己位置推定方法が提示され、
第2の側面において、前記第6工程は候補ノードの最優先物体が認識できなければ、前記回転装置でカメラ部を回転させて前記第4工程での該当候補ノードのうち、次の優先順位の候補ノードの最優先物体を確認することを特徴とする。
本発明による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法によれば、環境内の個別物体をステレオビジョンセンサにより認識し、それに関する3次元情報だけでなく、その周辺環境の3次元情報を共に用いることで、ロボットの正確な位置を推定できるという効果を奏する。また、任意に位置が変化する物体(例えば、人間、椅子)が多い一般的な環境において更に正確な位置推定を行えるという効果がある。
以下、実施形態を通じて本発明による物体認識及び周辺環境情報に基づいたロボットの自己位置推定システムと方法について更に具体的に説明する。
図1は、本発明による物体認識及び周辺環境情報に基づいて自己位置を推定するロボットの構造図である。
本発明による物体認識及び周辺環境情報に基づいて自己位置を推定するロボットは、図1に示すように、カメラ部100と、ロボット本体200と、ロボット移動部300とを含んで構成される。
前記カメラ部100は、ロボットの位置を推定するための手段であって、ステレオ映像入力装置で構成される。
前記カメラ部100は、一定範囲の視野角を有するカメラを用いてもよく、全方向の視野角を有するカメラを用いてもよい。但し、一定範囲の視野角を有するカメラを用いる場合には、図1に示すように、カメラを一定角度ずつ回転させることができるパン/チルト装置110を追加してカメラを回転させることで、全方向の映像入力を受けることができる。
前記パン/チルト装置110は、水平に左右回転するパンニング(Panning)と、上下にうなずく動作であるティルティング(tilting)が可能な回転装置である。
ロボット本体200は、外部動作を行うための機械アームであるマニピュレータ210が外部に装着され、内部にロボット移動経路周囲の地図が格納されたデータベース部(図示せず)と、前記カメラ部100から入力される映像情報を前記データベース部に格納された地図と照合して物体を認識し、ロボットの自己位置を推定する位置演算部(図示せず)とを含む。
前記データベース部に格納された地図は予め位相学的地図形態に製作され、地図上の各物体の3次元位置及び物体を含む周辺環境の局所特徴点の3次元位置と共に格納される。
ロボット移動部300は、ロボットを移動経路に沿って移動させる構成であって、輪やキャタピラをはじめとしてロボットの本体を移動させることができるあらゆる装置を用いることができる。
図2は、本発明による物体認識及び周辺環境情報に基づいたロボットの自己位置推定方法を示す基本順序図である。
本発明による物体認識及び周辺環境情報に基づいたロボットの自己位置推定方法は、図2に示すように、カメラ部100から映像の入力を受ける映像入力工程S110と、前記映像入力工程S110で入力された映像内の個別物体を認識し、また個別物体の3次元位置及び物体を含む周辺環境の局所特徴点の3次元位置情報を生成する物体認識及び情報抽出工程S120と、ロボットの位置推定手段が前記物体認識及び情報抽出工程S120で抽出された情報を用いて予め登録されている物体基盤の地図に基づいてロボットの位置を推定するロボット位置推定工程S130とを含む。従って、本発明では基本的にまず環境内の個別物体を認識し、これに基づいて物体と物体を含む周辺環境の3次元距離情報を抽出してロボットの位置を推定するといえる。
本発明においては、局所特徴点の集合により物体認識を行うが、カメラ部100を用いて獲得した環境映像から局所特徴点を抽出し、この特徴点と、前記データベース部に格納された物体モデルの局所特徴点とを比較する方法を用いる。
図3は、ロボットが認識した物体410と認識された物体を含む周辺環境400を示す。は、図4に示すように、物体と物体を含む周辺環境の局所特徴点とカメラ部100との間の3次元距離値であり、は、図5に示すように、図4での物体及び物体を含む周辺環境の局所特徴点と環境地図中心座標系との間の3次元距離値であり、との関係は、図6に示す通りである。
Figure 0004942733
Figure 0004942733
前記ロボット位置推定工程S130でロボットの位置を推定するのに用いられる地図は、ロボット本体200のデータベース部に格納された地図であって、図7に示すように、ロボットの走行経路を中心とした位相学的地図である。
図7において、A、B、Cなどがノードに該当し、各ノードは独立した基準座標系を有しており、各ノードを連結するエッジは各ノード座標系の相対的な距離情報を有している。ところが、このような環境地図を考慮すれば、ロボットが物体1つのみを認識してその物体内部の局所特徴点とその物体周辺環境の局所特徴点のみを有してロボットの位置を推定するようになれば、2つ以上の物体に基づいて位置を推定するよりは不正確になってしまうことが分かり、特に、ロボットの回転角度の誤差が大きくならざるを得ないことが分かる。従って、本発明では複数の物体認識に基づいてロボットの位置を推定する。
また、位相学的地図基盤と物体認識中心の位置推定を行う場合、図7に示すように、特定の物体が特定のノードでのみ観測されるのではない。例えば、物体−a、物体−b及び物体−cなどはノード−Lとノード−Nでいずれも観測可能である。
即ち、これは物体が観測されることが、ロボットがどのノードの近傍に存在するかを示すとは限らないため、物体の位置を特定させる基準ノードを決定しなければならないという問題もある。本発明ではこのような位置推定の方法を以下のようなパーティクルフィルタリング(M.Isard and A. Blake, “Condensation l conditional density propagation for visual tracking,” International Journal of Computer Vision 29(1), pp. 5〜28, 1998)技法を適用して解決する。
図8は、パーティクルフィルタリングに基づいた位置推定方法を示す順序図である。
このようなパーティクルフィルタリングに基づいた位置推定方法は、図8に示すように、サンプリング工程S210と、誤差計算工程S220と、重み値計算工程S230と、繰り返し条件確認工程S240と、位置推定工程S250とを含む。
前記サンプリング工程S210は、特定物体が観測されれば、該当物体を観測できる所にロボットが存在すると推定されるので、該当物体を観測できるロボットの位置に対して、これをランダムサンプリングして生成する工程である。
前記サンプリング工程S210で繰り返しステップをt、ランダムサンプルの番号をnとすれば、
・t=1である場合(開始初期)
Figure 0004942733

前記誤差計算工程S220は、前記サンプリング工程S210で生成された位置サンプルにロボットの移動による動作誤差とビジョンセンサの測定誤差及び物体認識のエラーなどにより発生する誤差範囲を下記の式5を用いて適用する工程である。

Figure 0004942733
Figure 0004942733
前記繰り返し条件確認工程S240は、サンプリング工程S210と、誤差計算工程S220と、重み値計算工程S230が一定条件を満たす間に繰り返し行われたかを確認する工程であり、繰り返し条件は均一な一定回数(T)になることもでき、前記式6でサンプルのうちの最も大きな重み値を有するサンプルの重み値がある閾値(例えば、正規化された場合、0.9)以下であるという条件を用いることもでき、また前記2通りの方法をORで組み合わせてT回繰り返したか、最も大きな重み値を有するサンプルの重み値がある閾値(例えば、正規化された場合、0.9)以上であれば、繰り返し実行を停止させることもできる。
前記位置推定工程S250は、サンプルがサンプリング工程S210と誤差計算工程S220と重み値計算工程S230をT回繰り返すようになれば、サンプルが1つの候補位置に収斂するので、重み平均を用いてその位置を下記の式8のように推定する工程である。
Figure 0004942733
図9は、本発明の第1実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す順序図である。
本発明の一実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法は、カメラ部100に装着されるセンサが全方向ステレオビジョンセンサである場合の実施形態であって、図9に示すように、全方向環境イメージ及びステレオ深さ情報獲得工程S310と、物体認識工程S320と、認識された物体が1つ以上存在する候補ノード選定工程S330と、全ての候補ノードに対するロボットの3次元位置計算工程S340と、全ての候補ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S350と、最適ノード及び最適ノードに対するロボットの2次元位置確定工程S360とを含む。
前記全方向環境イメージ及びステレオ深さ情報獲得工程S310は、カメラ部100がロボット周囲の全方向環境映像及びそれに対してステレオビジョンの基盤の下で距離情報を獲得する工程である。
前記物体認識工程S320は、位置演算部が前記全方向環境イメージ及びステレオ深さ情報獲得工程S310で獲得した全方向環境映像から物体及び物体を含む周辺環境の局所特徴点を抽出し、抽出された局所特徴点の3次元位置値(カメラ座標系基準)をステレオ距離情報を用いて求め、ロボット本体200のデータベース部に格納されている物体モデルの局所特徴点と比較して物体を認識する工程である。
前記認識された物体が1つ以上存在する候補ノード選定工程S330は、位置演算部がデータベース部に格納された地図において前記物体認識工程S320で認識された物体が1つ以上含まれているノードをロボットが位置し得る候補ノードとして選定する工程である。
前記全ての候補ノードに対するロボットの3次元位置計算工程S340は、位置演算部が全ての候補ノード座標系に対するロボットの暫定位置を計算し、計算されたロボットの位置を用いてノード近接重み値を計算する工程である。
前記全ての候補ノードに対するロボットの3次元位置計算工程S340で計算されるロボットの暫定位置は、前記式1と式2から求めることができ、マッチされた局所的特徴点が3点以上であれば、最小二乗法を用いて計算を行う。
Figure 0004942733
このように得られた暫定位置は、次の工程のパーティクルフィルタリングによって最終的に正確な位置を推定するための初期位置値として用いられる。
Figure 0004942733
前記ノード近接重み値は、物体存在重み値、物体−環境特徴重み値、及び物体−環境距離重み値を用いて計算される値であり、このうち、物体−環境距離重み値を計算するのに各候補ノードに対するロボットの3次元位置が用いられる。
前記物体存在重み値は、候補ノードに含まれている物体のうち、ロボットが認識した物体と重なる数によって変化する重み値であり、下記の式9により計算される。
Figure 0004942733
前記物体−環境特徴重み値は、候補ノードに格納された物体モデルの局所特徴点とその物体を含む周辺環境から抽出した環境モデルの局所特徴点をロボットが認識した物体とその物体を含む周辺環境の局所的特徴点のマッチング程度(マッチされた局所的特徴点の個数など)による重み値であり、下記の式10により計算される。
Figure 0004942733
前記物体−環境距離重み値は、ロボットが認識した物体及びその物体を含む周辺環境の局所的特徴点の3次元値を候補ノードの同一物体及びその物体を含む周辺環境の局所的特徴点の3次元値で補間(fitting)し、補間された局所的特徴点の3次元値と候補ノードの同一の局所的特徴点の3次元値間の距離差であり、下記の式11により計算される。
Figure 0004942733
前記ノード近接重み値は、ロボットのその候補ノードに対する近接程度を示す重み値であり、前記式9、10、11により計算された物体存在重み値、物体−環境特徴重み値、物体−環境距離重み値を統合して、下記の式12により計算される。
Figure 0004942733
全ての候補ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S350は、位置演算部が前記全ての候補ノードに対するロボットの3次元位置計算工程S340で計算された暫定位置に対して図7に示すパーティクル・フィルタリング・アルゴリズムのうち、サンプリング工程S210と、誤差計算工程S220と、重み値計算工程S230と、繰り返し条件確認工程S240を行い、正確な位置推定に必要な最終重み値を計算する工程である。
Figure 0004942733
Figure 0004942733
そして、ロボットが認識した物体及びその物体を含む環境映像の3次元特徴点を下記の式14を用いて以下の通り候補ノードNに対する値に変換する。
Figure 0004942733
Figure 0004942733
Figure 0004942733

ここで、nはロボットが認識した全ての物体及びその物体を含む周辺環境の局所的特徴点と候補ノードNに存在する物体のうち、ロボットが認識した物体と同一物体及びその物体を含む周辺環境の局所的特徴点の間でマッチされた局所的特徴点の個数である。
前記最適ノード及び最適ノードに対するロボットの2次元位置確定工程S360は、図8に示す位置推定工程S250と同じ工程でサンプルが最も多く収斂されたノードのサンプルのみで前記式8を行ってロボットの位置を推定する工程である。
図10は、本発明の第2実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す順序図である。
本発明の第2実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法は、カメラ部100に装着されるセンサが全方向ステレオビジョンセンサであり、ロボットの属する最終ノードを予め定める場合の実施形態であって、図10に示すように、全方向環境イメージ及びステレオ深さ情報獲得工程S410と、物体認識工程S420と、認識された物体が1つ以上存在する候補ノード選定工程S430と、全ての候補ノードに対するロボットの3次元位置計算工程S440と、最終候補ノード選定工程S450と、最終候補ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S460と、最適ノード及び最適ノードに対するロボットの2次元位置確定工程S470とを含む。
全方向環境イメージ及びステレオ深さ情報獲得工程S410と、物体認識工程S420と、認識された物体が1つ以上存在する候補ノード選定工程S430と、全ての候補ノードに対するロボットの3次元位置計算工程S440は、前記第1実施形態の全方向環境イメージ及びステレオ深さ情報獲得工程S310と、物体認識工程S320と、認識された物体が1つ以上存在する候補ノード選定工程S330と、全ての候補ノードに対するロボットの3次元位置計算工程S340と同一であるので、詳細な説明は省略する。
最終候補ノード選定工程S450は、前記全ての候補ノードに対するロボットの3次元位置計算工程S440で計算されたノード近接重み値が最も大きなノードを最終候補ノードとして選定する工程である。
前記最終候補ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S460は、位置演算部が前記最終候補ノード選定工程S450で選択された最終候補ノードに図8に示すパーティクル・フィルタリング・アルゴリズムのうち、サンプリング工程S210と、誤差計算工程S220と、重み値計算工程S230と繰り返し条件確認工程S240を行い、正確な位置を推定するのに必要な最終重み値を計算する工程である。
前記最適ノード及び最適ノードに対するロボットの2次元位置確定工程S470は、前記最終候補ノード選定工程S450で選択され、前記最終候補ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S460で最終重み値が計算されたノードに前記式8を行ってロボットの位置を推定する工程である。
図11A 及び 図11Bは、本発明の第3実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す順序図である。
本発明の第3実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法は、カメラ部100に装着されるセンサがステレオカメラが360°ではない一定の視野角を有するステレオカメラである場合にロボットの位置推定時間を短縮するために、環境で2つの物体を認識する方法に基づいてロボットの位置を推定する実施形態であって、 図11A 及び 図11Bに示すように、任意の一方向の環境イメージ及びステレオ深さ情報獲得工程S510と、物体認識工程S515と、認識された物体があるかを確認する工程S520と、認識された物体が1つ以上存在する候補ノード選定工程S525と、全ての候補ノードに対するロボットの3次元位置計算工程S530と、候補ノードの優先順位計算工程S535と、候補ノードに含まれている物体のロボットに対する位置計算及び優先順位計算工程S540と、最優先順位候補ノードの最優先順位物体を眺める工程S545と、その方向の環境イメージ及びステレオ深さ情報獲得工程S550と、物体認識工程S555と、認識された物体が最優先順位物体と一致するかを確認する工程S560と、次の優先順位候補ノードの最優先順位物体を眺める工程S562と、最終ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S565と、最終ノードに対するロボットの2次元位置確定工程S570とを含む。
前記任意の一方向の環境イメージ及びステレオ深さ情報獲得工程S510は、カメラ部100が向かっている方向の環境映像及びそれに対してステレオビジョンの基盤の下で距離情報を獲得する工程である。
前記物体認識工程S515は、位置演算部が前記任意の一方向の環境イメージ及びステレオ深さ情報獲得工程S510で獲得した環境映像から物体及び物体を含む周辺環境の局所的特徴点を抽出し、抽出された局所特徴点に対する3次元位置値(カメラ座標系基準)を、ステレオ距離情報を用いて求め、ロボット本体200のデータベース部に格納された物体モデルの局所特徴点と比較して物体を認識する工程である。
前記認識された物体があるかを確認する工程S520は、位置演算部が前記物体認識工程S515で認識された物体があるかを確認し、認識された物体がなければ、パン/チルト装置110を動作してカメラ部100を回転(panning)させて他の方向に向かうようにする工程である。
前記認識された物体が1つ以上存在する候補ノード選定工程S525は、位置演算部が前記データベース部に格納された地図において前記物体認識工程S515で認識された物体が1つ以上含まれているノードをロボットが位置し得る候補ノードとして選定する工程である。
前記全ての候補ノードに対するロボットの3次元位置計算工程S530は、前記全ての候補ノードに対するロボットの3次元位置計算工程S340と同一であるので、詳細な説明は省略する。
前記候補ノードの優先順位計算工程S535は、前記全ての候補ノードに対するロボットの3次元位置計算工程S530で計算されたノード近接重み値の値によってそれぞれノードの優先順位を計算する工程である。
前記候補ノードに含まれている物体のロボットに対する位置計算及び優先順位計算工程S540は、位置演算部が、ロボットが認識した物体を除いて、前記認識された物体が1つ以上存在する候補ノード選定工程S525で選択された候補ノードに含まれている物体のロボットに対する位置を計算して、ロボットの暫定位置から最も近い物体を検証物体として定める工程である。
前記最優先順位候補ノードの最優先順位物体を眺める工程S545は、位置演算部がパン/チルト装置110を動作して前記候補ノードに含まれている物体のロボットに対する位置計算及び優先順位計算工程S540で選択された検証物体があると予測される方向にカメラ部100を回転させる工程である。
前記最優先順位候補ノードの最優先順位物体を眺める工程S545は、位置推定部はパン/チルト装置110を用いてカメラを水平に左右回転するか、上下にうなずく動作を行うことができる。
前記その方向の環境イメージ及びステレオ深さ情報獲得工程S550は、カメラ部100が向かっている方向の環境映像及びそれに対してステレオビジョンの基盤の下で距離情報を獲得する工程である。
前記物体認識工程S555は、位置演算部が前記その方向の環境イメージ及びステレオ深さ情報獲得工程S550で獲得した環境映像から局所的特徴点を抽出し、ロボット本体200のデータベース部に格納された最優先順位物体の物体モデルの局所特徴点と比較して物体を認識する工程である。
前記認識された物体が最優先順位物体と一致するかを確認する工程S560は、位置演算部が前記物体認識工程S555で認識された物体と前記候補ノードに含まれている物体のロボットに対する位置計算及び優先順位計算工程S540で選択された検証物体を比較して一致すれば、その候補ノードを最終ノードとして選定する工程である。
次の優先順位候補ノードの最優先順位物体を眺める工程S562は、位置演算部が前記認識された物体が最優先順位物体と一致するかを確認する工程S560で認識された物体と最優先順位物体が一致しなければ、前記候補ノードの優先順位計算工程S535で現在カメラ部100が向かっているノードの次の順位の優先順位を受けた候補ノードの前記候補ノードに含まれている物体のロボットに対する位置計算及び優先順位計算工程S540で計算された検証物体にカメラ部100を移動させる工程である。
即ち、例えば、候補ノードがA、Bの2つであり、優先順位がA、Bである場合に、最優先順位ノードはAとなる。既に認識された物体を除いたノードAに属する物体がa1、b1、c1であり、物体の優先順位がa1、b1、c1であれば、ロボットはa1があると予測される方向に顔を向け、物体認識を行う。もし、物体a1が認識されない場合、その次の優先順位である候補Bに属する最優先順位物体を見るように顔を向け、物体認識を行うようにする。
前記最終ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S565は、位置演算部が前記認識された物体が最優先順位物体と一致するかを確認する工程S560で選定された最終ノードに図8に示すパーティクル・フィルタリング・アルゴリズムのうち、サンプリング工程S210と、誤差計算工程S220と、重み値計算工程S230と、繰り返し条件確認工程S240を行い、正確な位置を推定するのに必要な最終重み値を計算する工程である。
前記最終ノードに対するロボットの2次元位置確定工程S570は、前記認識された順位が最優先順位物体と一致するかを確認する工程S560で選択され、前記最終ノードにサンプリングしてパーティクル・フィルタリング・アルゴリズムを行う工程S565で最終重み値が計算されたノードに前記式8を行ってロボットの位置を推定する工程である。
以上、添付の図面を参照して本発明の実施形態を説明したが、本発明の属する技術分野において通常の知識を有する者は、本発明がその技術的思想や必須な特徴を変更することなく、他の具体的な形態に実施できるということが理解できる。従って、以上で記述した実施形態は全ての面で例示的なものであり、限定されるものではない。
本発明による物体認識及び周辺環境情報に基づいて自己位置を推定するロボットの構造図である。 本発明による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す基本順序図である。 本発明によるロボットが認識した物体と認識された物体を含む周辺環境概念図である。 本発明によるロボット中心の物体認識及び物***置、認識された物体を含む周辺環境位置概念図である。 本発明による環境中心の物***置及びその物体を含む周辺環境位置概念図である。 本発明によるロボット中心の物体及び認識された物体を含む周辺環境位置と環境中心の物体及びその物体を含む周辺環境位置間の関係図である。 本発明による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法で用いられる位相学的地図を示す例示図である。 パーティクルフィルタリングに基づいた位置推定方法を示す順序図である。 本発明の第1実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す順序図である。 本発明の第2実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す順序図である。 本発明の第3実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す順序図である。 本発明の第3実施形態による物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法を示す順序図である。

Claims (12)

  1. ステレオ映像装置で形成されたカメラ部と、ロボット移動経路周囲の地図、該地図上の個別物体の局所特徴点及び該個別物体を含む周辺環境の局所特徴点が格納されたデータベース部と、前記カメラ部で獲得した映像情報を用いて自身の位置を推定する位置演算部とを有するロボットの自己位置推定方法であって、
    前記カメラ部でロボット周囲の映像を獲得する第1工程と、
    前記位置演算部で前記カメラ部が獲得した映像から局所特徴点を抽出して前記データベース部に格納された局所特徴点と比較することで前記カメラ部が獲得した映像内の個別物体を認識し、該個別物体の局所特徴点のカメラ座標系位置値と該個別物体を含む周辺環境の局所特徴点のカメラ座標系位置値を生成する第2工程と、
    前記位置演算部で前記データベース部に格納されている地図及び前記第2工程の結果に基づいて前記ロボットの位置を推定する第3工程とを含み、
    前記第3工程は、
    前記データベースに格納された地図から前記第2工程で認識した物体が1つ以上含まれているノードを前記ロボットが位置し得る候補ノードとして選定する候補ノード選定工程と、
    前記第2工程で生成された前記位置値を用いて選定された全ての前記候補ノードに対する前記ロボットの暫定位置を計算する暫定位置計算工程と、
    計算された前記暫定位置を初期位置値として選定された全ての前記候補ノードにパーティクルフィルタリング技法を適用して前記ロボットの位置を推定する位置推定工程とを含んでなることを特徴とするロボットの自己位置推定方法。
  2. 前記暫定位置計算工程では下記の式1と式2を用いて前記ロボットの前記暫定位置を計算し、
    前記位置推定工程では最終重み値を計算してパーティクルフィルタリング技法に適用し、サンプルが最も多く収斂されたノードのサンプルのみで下記の式8を行って前記ロボットの位置を推定することを特徴とする請求項に記載のロボットの自己位置推定方法。
    Figure 0004942733
  3. 前記第3工程は、
    前記データベースに格納された地図から前記第2工程で認識した物体が1つ以上含まれているノードを前記ロボットが位置し得る候補ノードとして選定する候補ノード選定工程と、
    前記第2工程で生成された位置値を用いて選定された全ての前記候補ノードに対する前記ロボットの暫定位置を計算する暫定位置計算工程と、
    前記候補ノードの中から最終候補ノードを選択する最終候補ノード選択工程と、
    前記最終候補ノードに対する前記ロボットの暫定位置を初期位置値として前記最終候補ノードにパーティクルフィルタリング技法を適用して前記ロボットの位置を推定する位置推定工程と
    を含んでなることを特徴とする請求項1に記載のロボットの自己位置推定方法。
  4. 前記暫定位置計算工程では下記の式1と式2を用いて前記ロボットの前記暫定位置を計算し、
    前記位置推定工程では最終重み値を計算してパーティクルフィルタリング技法に適用し、下記の式8を行って前記ロボットの位置を推定することを特徴とする請求項に記載のロボットの自己位置推定方法。
    Figure 0004942733
  5. 前記最終候補ノードは、前記候補ノードに対して下記の式12により求められたノード近接重み値のうち最も大きな値を有するノードであることを特徴とする請求項に記載のロボットの自己位置推定方法。
    Figure 0004942733
  6. Figure 0004942733
    (ここで、π(n)は最終重み値であり、nは候補ノードの個数である。)
  7. Figure 0004942733
  8. Figure 0004942733
  9. Figure 0004942733
  10. Figure 0004942733
  11. 360°より小さな視野角を有し、ステレオ映像装置で構成されたカメラ部と、前記カメラ部を一定角度ずつ回転させることができる回転装置と、ロボット移動経路周囲の地図、該地図上の個別物体の局所特徴点及び該個別物体を含む周辺環境の局所特徴点を格納しているデータベース部と、前記カメラ部で獲得した映像情報を用いて自身の位置を推定する位置演算部とを有するロボットの自己位置推定方法であって、
    前記カメラ部が一定方向のロボット周囲の映像を獲得する第1工程と、
    前記位置演算部において前記カメラ部が獲得した映像内で認識した物体がない場合には前記回転装置を駆動してカメラを回転させた後、他の方向の映像を獲得する過程を獲得された映像で局所特徴点を抽出して前記データベース部に格納された局所特徴と比較することで認識した個別物体が存在するまで繰り返し、認識した個別物体の局所特徴点のカメラ座標系位置値と該個別物体を含む周辺環境の局所特徴点のカメラ座標系位置値を生成する第2工程と、
    前記位置演算部で前記データベース部に格納された地図から前記認識された物体が1つ以上含まれているノードを前記ロボットが位置し得る候補ノードとして選定する第3工程と、
    前記位置演算部で前記候補ノードの優先順位を決定する第4工程と、
    前記位置演算部で前記候補ノードに含まれている物体と前記ロボット間の距離及び最優先順位物体を計算する第5工程と、
    前記位置演算部で前記回転装置を用いてカメラ部を回転させて前記候補ノードの最優先順位物体を確認する第6工程と、
    前記位置演算部で前記第6工程で前記最優先物体が確認されたノードにパーティクルフィルタリング技法を用いて前記ロボットの位置を推定する第7工程と
    を含むロボットの自己位置推定方法。
  12. 前記第6工程は、前記候補ノードの最優先物体が認識できなければ、前期回転装置で前記カメラ部を回転させて前記第4工程での該当候補ノードのうち、次の優先順位の候補ノードの最優先物体を確認することを特徴とする請求項11に記載のロボットの自己位置推定方法。
JP2008335345A 2008-02-15 2008-12-26 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法 Active JP4942733B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080013832A KR100926783B1 (ko) 2008-02-15 2008-02-15 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
KR10-2008-0013832 2008-02-15

Publications (2)

Publication Number Publication Date
JP2009190164A JP2009190164A (ja) 2009-08-27
JP4942733B2 true JP4942733B2 (ja) 2012-05-30

Family

ID=40955846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008335345A Active JP4942733B2 (ja) 2008-02-15 2008-12-26 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法

Country Status (3)

Country Link
US (1) US8024072B2 (ja)
JP (1) JP4942733B2 (ja)
KR (1) KR100926783B1 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515257B2 (en) 2007-10-17 2013-08-20 International Business Machines Corporation Automatic announcer voice attenuation in a presentation of a televised sporting event
KR101553522B1 (ko) * 2008-12-29 2015-09-16 삼성전자 주식회사 로봇 및 그 제어 방법
EP2460629B1 (en) * 2009-07-28 2022-06-29 Yujin Robot Co., Ltd. Control method for localization and navigation of mobile robot and mobile robot using same
JP5444952B2 (ja) * 2009-08-28 2014-03-19 富士通株式会社 センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
KR101054520B1 (ko) * 2009-09-02 2011-08-05 한국과학기술원 실내 이동 로봇의 위치 및 방향 인식 방법
KR101157103B1 (ko) * 2009-09-16 2012-06-22 동국대학교 산학협력단 자기 조직화에 기반한 위치 측정 장치, 그 방법 및 기록매체
KR101134316B1 (ko) 2009-10-09 2012-04-13 한양대학교 산학협력단 물체의 공간적 의미정보를 이용한 로봇의 능동적 자기위치 추정 방법
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
JP5218479B2 (ja) * 2010-06-10 2013-06-26 株式会社安川電機 移動体システム
US9286810B2 (en) * 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
KR20120044768A (ko) * 2010-10-28 2012-05-08 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101906329B1 (ko) 2010-12-15 2018-12-07 한국전자통신연구원 카메라 기반의 실내 위치 인식 장치 및 방법
CA2831832C (en) 2011-04-11 2021-06-15 Crown Equipment Limited Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner
JP5609760B2 (ja) * 2011-04-27 2014-10-22 トヨタ自動車株式会社 ロボット、ロボットの動作方法、及びプログラム
US8908923B2 (en) * 2011-05-13 2014-12-09 International Business Machines Corporation Interior location identification
AU2015203030B2 (en) * 2011-08-26 2016-10-20 Crown Equipment Corporation Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
US20140058634A1 (en) 2012-08-24 2014-02-27 Crown Equipment Limited Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
WO2013030929A1 (ja) * 2011-08-29 2013-03-07 株式会社日立製作所 監視装置、監視システム及び監視方法
KR101830379B1 (ko) 2011-09-27 2018-02-21 한국전자통신연구원 환경 정보 기반 공간 인식 방법 및 장치, 공간 인식 시스템
KR101941844B1 (ko) * 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
DE102012201870A1 (de) * 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
WO2015049717A1 (ja) * 2013-10-01 2015-04-09 株式会社日立製作所 移動***置推定装置および移動***置推定方法
US10311731B1 (en) 2014-09-16 2019-06-04 Knightscope, Inc. Autonomous parking monitor
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
US9989969B2 (en) 2015-01-19 2018-06-05 The Regents Of The University Of Michigan Visual localization within LIDAR maps
CN104772748B (zh) * 2015-04-03 2016-11-09 华东师范大学 一种社交机器人
KR102410300B1 (ko) 2015-06-26 2022-06-20 한국전자통신연구원 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법
US10421559B2 (en) * 2015-08-30 2019-09-24 Farzad Soudbakhsh Robotic handling system (RHS)
JP2018504652A (ja) 2015-10-09 2018-02-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 顕著特徴ベースの移動体測位
CN105919517B (zh) * 2016-06-15 2019-04-23 上海未来伙伴机器人有限公司 自动清扫机器人装置
US10055667B2 (en) 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
JP2018028489A (ja) * 2016-08-18 2018-02-22 トヨタ自動車株式会社 位置推定装置、位置推定方法
CN110178157B (zh) * 2016-10-07 2023-07-14 富士胶片株式会社 自身位置估计装置、自身位置估计方法、程序及图像处理装置
KR101866660B1 (ko) * 2016-10-19 2018-06-12 한국과학기술원 동적인 환경에서 배경모델에 기반한 rgb-d 시각 주행 거리 측정 방법 및 장치
KR101982780B1 (ko) * 2016-10-20 2019-05-27 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
CN107065861A (zh) * 2017-02-24 2017-08-18 珠海金萝卜智动科技有限公司 机器人集智能搬运、装卸于一体的方法和装置
KR101912361B1 (ko) * 2017-03-27 2018-10-26 (주)엔스퀘어 물류 자동화를 위한 자율주행 로봇 및 상기 로봇의 환경인식 및 자기위치 추정 방법
KR102318841B1 (ko) * 2017-05-19 2021-10-29 (주)랜도르아키텍쳐 구동형 마킹 시스템, 구동형 마킹 장치의 제어방법 및 컴퓨터 판독 가능한 기록매체
KR101853127B1 (ko) 2017-05-19 2018-04-27 주식회사 랜도르아키텍쳐 구동형 마킹 시스템, 구동형 마킹 장치의 제어방법 및 컴퓨터 판독 가능한 기록매체
KR102350533B1 (ko) * 2017-06-13 2022-01-11 엘지전자 주식회사 비전 정보에 기반한 위치 설정 방법 및 이를 구현하는 로봇
CN108036786B (zh) * 2017-12-01 2021-02-09 安徽优思天成智能科技有限公司 基于辅助线的位姿检测方法、装置和计算机可读存储介质
KR102084059B1 (ko) * 2018-03-08 2020-03-03 삼성중공업 주식회사 용접로봇을 이용한 용접방법
KR102434523B1 (ko) * 2018-04-13 2022-08-22 (주)랜도르아키텍쳐 구동형 마킹 시스템, 구동형 마킹 장치의 제어방법 및 컴퓨터 판독 가능한 기록매체
DE102018109329B4 (de) * 2018-04-19 2019-12-05 Gottfried Wilhelm Leibniz Universität Hannover Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
KR102202244B1 (ko) * 2018-06-29 2021-01-13 (주)디에이치로지스틱스 자율주행유닛을 이용한 물류이송시스템 및 자율주행유닛을 이용한 물류이송방법
CN109085605A (zh) * 2018-08-29 2018-12-25 长春博立电子科技有限公司 全自动探索未知空间并建立地图的方法及***
KR102147210B1 (ko) * 2018-10-22 2020-08-24 엘지전자 주식회사 인공지능 이동 로봇의 제어 방법
KR102181815B1 (ko) * 2018-11-23 2020-11-24 한국전자기술연구원 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법
CN109471443A (zh) * 2018-11-30 2019-03-15 上海物景智能科技有限公司 一种轮式机器人定位方法和轮式机器人
CN109696908B (zh) * 2019-01-18 2022-06-21 南方科技大学 机器人及其航迹设置方法和***
CN109668568A (zh) * 2019-01-25 2019-04-23 天津煋鸟科技有限公司 一种利用环视全景成像进行定位导航的方法
CN112596508B (zh) * 2019-08-29 2022-04-12 美智纵横科技有限责任公司 一种传感器的控制方法、装置及存储介质
KR102272641B1 (ko) * 2019-11-29 2021-07-02 포항공과대학교 산학협력단 물체 인식 장치 및 방법 그리고 이를 포함하는 물체 인식 시스템
CN111422231B (zh) * 2020-03-09 2021-07-02 江苏理工学院 一种车座搭巾安放装置
CN112388601A (zh) * 2020-11-11 2021-02-23 吉林工程技术师范学院 一种便于多种模式调节的教育机器人
CN113095227B (zh) * 2021-04-13 2023-11-07 京东科技信息技术有限公司 一种机器人定位方法、装置、电子设备及存储介质
CN114131599B (zh) * 2021-11-30 2023-08-29 珠海格力电器股份有限公司 一种机器人编程控制方法、装置、存储介质及示教器
KR102431122B1 (ko) 2021-12-30 2022-08-10 주식회사 버넥트 맵 타겟 추적 방법 및 그 시스템
CN115328161B (zh) * 2022-09-15 2024-04-26 安徽工程大学 一种基于k视界蚁群算法的焊接机器人路径规划方法
CN116931583B (zh) * 2023-09-19 2023-12-19 深圳市普渡科技有限公司 移动对象的确定方法和避让方法、装置、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200777A (ja) 1993-12-28 1995-08-04 Hitachi Ltd 移動体における位置推定方法
JP2002296010A (ja) 2001-03-29 2002-10-09 Fujitsu Ltd 画像を用いた自己位置同定方法
DE60336519D1 (de) * 2002-04-26 2011-05-05 Honda Motor Co Ltd Selbstpositionsabschätzvorrichtung für mobile Roboter mit Beinen
JP4100239B2 (ja) * 2003-04-22 2008-06-11 松下電工株式会社 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2005186193A (ja) * 2003-12-25 2005-07-14 Nachi Fujikoshi Corp ロボットのキャリブレーション方法および三次元位置計測方法
JP4564447B2 (ja) * 2004-12-14 2010-10-20 本田技研工業株式会社 自律移動ロボット
JP4243594B2 (ja) 2005-01-31 2009-03-25 パナソニック電工株式会社 清掃ロボット
KR100702663B1 (ko) * 2005-08-27 2007-04-02 한국과학기술원 입자 필터 프레임 워크에서 전방향 시각센서 기반 위치추정 및 매핑을 위한 방법
JP2007316966A (ja) 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP4032125B1 (ja) 2006-07-05 2008-01-16 国立大学法人北陸先端科学技術大学院大学 移動***置推定システム、及び、移動***置推定方法
KR100966875B1 (ko) * 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법

Also Published As

Publication number Publication date
US8024072B2 (en) 2011-09-20
KR100926783B1 (ko) 2009-11-13
KR20090088516A (ko) 2009-08-20
US20090210092A1 (en) 2009-08-20
JP2009190164A (ja) 2009-08-27

Similar Documents

Publication Publication Date Title
JP4942733B2 (ja) 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法
KR100866380B1 (ko) 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법
US9542626B2 (en) Augmenting layer-based object detection with deep convolutional neural networks
JP6705465B2 (ja) 可観測性グリッドベースの自律的環境探索
US11340610B2 (en) Autonomous target following method and device
CN106796434B (zh) 地图生成方法、自身位置推定方法、机器人***和机器人
US9501725B2 (en) Interactive and automatic 3-D object scanning method for the purpose of database creation
JP5380789B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
US9355334B1 (en) Efficient layer-based object recognition
US11703334B2 (en) Mobile robots to generate reference maps for localization
JP5892663B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、及び移動体
JP2017157201A (ja) 人間を中心とした場所認識方法
JP2012064131A (ja) 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
US20140049600A1 (en) Method and system for improving surveillance of ptz cameras
Ahn et al. A practical approach for EKF-SLAM in an indoor environment: fusing ultrasonic sensors and stereo camera
Ye et al. 6-DOF pose estimation of a robotic navigation aid by tracking visual and geometric features
EP2610783B1 (en) Object recognition method using an object descriptor
WO2018207426A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111679661A (zh) 基于深度相机的语义地图构建方法及扫地机器人
WO2017038012A1 (ja) 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
Bai et al. Stereovision based obstacle detection approach for mobile robot navigation
JP2023502239A (ja) 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法
CN111630346A (zh) 基于图像和无线电词语的移动设备的改进定位
Choi et al. Autonomous homing based on laser-camera fusion system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120228

R150 Certificate of patent or registration of utility model

Ref document number: 4942733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250