JP2008250906A - Mobile robot, and self-location correction method and program - Google Patents

Mobile robot, and self-location correction method and program Download PDF

Info

Publication number
JP2008250906A
JP2008250906A JP2007094623A JP2007094623A JP2008250906A JP 2008250906 A JP2008250906 A JP 2008250906A JP 2007094623 A JP2007094623 A JP 2007094623A JP 2007094623 A JP2007094623 A JP 2007094623A JP 2008250906 A JP2008250906 A JP 2008250906A
Authority
JP
Japan
Prior art keywords
point
data
self
environment map
point data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007094623A
Other languages
Japanese (ja)
Inventor
Shinya Izumikawa
真也 泉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2007094623A priority Critical patent/JP2008250906A/en
Publication of JP2008250906A publication Critical patent/JP2008250906A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile robot, capable of accurately estimating a self-location while suppressing increase in computing quantity. <P>SOLUTION: The autonomously movable mobile robot 1 includes a self-location estimation part 16 which estimates the self-location; an environmental map holding part 181 which holds an environmental map showing a movable area of the mobile robot 1 by point group data; a route sensor 17 which detects a movable range around the mobile robot 1; a circumferential environmental information generation part 184 which generates circumferential environmental information showing the detection result by the route sensor 17 by point group data; a retrieval object point limiting part 186 which limits candidates of corresponding point data in the environmental map to point data present in an area with a distance of a threshold predetermined based on predetermined point data in the circumferential environmental information or less; and a location correction part 188 which takes a limited point as corresponding point data to the predetermined point data, and corrects the self-location by a positional slippage between each point data in the environmental map and the corresponding point data in the circumferential environmental information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、自律移動可能な移動ロボット、自己位置補正方法および自己位置補正プログラムに関するものである。   The present invention relates to a mobile robot capable of autonomous movement, a self-position correction method, and a self-position correction program.

従来、ロボットが自律走行を行うためには、自己位置の認識が必要である。車輪型ロボットの場合は、車輪の回転数を計測することによる自己位置推定が一般的に行われている。また、車輪の回転数の計測だけでは走行距離に応じて誤差が蓄積していくため、走行経路上にロボットが自己位置を確認するためのロボット専用ランドマークを設置するなどして、このような蓄積誤差を解消する手法が多く提案されていた。   Conventionally, in order for a robot to travel autonomously, it is necessary to recognize its own position. In the case of a wheel type robot, self-position estimation is generally performed by measuring the number of rotations of the wheel. In addition, since the error accumulates depending on the distance traveled only by measuring the number of rotations of the wheel, a robot-specific landmark for the robot to check its own position is installed on the travel route. Many methods for eliminating the accumulation error have been proposed.

例えば、車輪の回転数と光ファイバジャイロを用いてロボットの自己位置(x、y、θ)を推定する方法が知られている。タイヤスリップなどの蓄積誤差を減少させるため、ロボット専用ランドマークをロボット走行経路上に一定間隔で設置し、ロボットがこれを読み取ることでロボット自己位置推定の精度を保つものである。   For example, a method is known in which the robot's self-position (x, y, θ) is estimated using the rotational speed of a wheel and an optical fiber gyro. In order to reduce accumulation errors such as tire slip, robot-specific landmarks are installed on the robot travel path at regular intervals, and the robot reads this to maintain the accuracy of robot self-position estimation.

しかしながら、上記方法においては、ロボット専用ランドマークの設置や調整に労力がかかる、美観や建物構造の制約により、ロボット専用ランドマークが設置できないなどの問題があった。   However, in the above method, there are problems that it takes effort to install and adjust the landmarks dedicated to the robot, and that the landmarks dedicated to the robot cannot be installed due to aesthetics and restrictions on the building structure.

そのため、近年、走行経路の周囲の壁などを環境地図として事前に記憶しておき、ロボットが走行中にレーザレンジセンサで計測した周囲の距離情報(壁形状)とのマッチング処理を行うことで、ロボットの自己位置を推定する手法が登場した。このマッチング処理は、ICPアルゴリズムを適用することによって、ロボット自律走行への適用が可能となる(例えば、「非特許文献1」参照)。   Therefore, in recent years, by storing the surrounding walls of the travel route in advance as an environmental map and performing matching processing with the surrounding distance information (wall shape) measured by the laser range sensor while the robot is traveling, A method for estimating the robot's self-position has appeared. This matching process can be applied to autonomous robot traveling by applying an ICP algorithm (see, for example, “Non-Patent Document 1”).

また、特許文献1には、ロボット周囲の距離情報を計測し、予め記憶していた環境地図との比較を行うことで自己位置同定を行う方法が開示されている。環境地図はバイナリトリー形式で構成され、計測距離情報から線分情報を抽出し、最尤位置候補を選定する。   Patent Document 1 discloses a method of performing self-position identification by measuring distance information around a robot and comparing it with an environment map stored in advance. The environment map is configured in a binary tree format, extracts line segment information from measurement distance information, and selects a maximum likelihood position candidate.

特開平4−216487号公報JP-A-4-216487 "レーザレンジファインダ搭載移動ロボットによる動的環境の3次元地図生成", 映像情報メディア学会技術報告, Vol.30, No.36, pp.25-30, 浜松, July 2006(中本 琢実, 山下 淳, 金子 透)http://robotics.caltech.edu/~atsushi/paper/E/E078Final.pdf"Generation of a 3D map of a dynamic environment by a mobile robot equipped with a laser rangefinder", Technical Report of the Institute of Image Information and Television Engineers, Vol.30, No.36, pp.25-30, Hamamatsu, July 2006 (Takemi Nakamoto, Akira Yamashita , Toru Kaneko) http://robotics.caltech.edu/~atsushi/paper/E/E078Final.pdf

ロボットが記憶している環境地図は、グローバル座標と呼ばれる二次元の絶対座標上に表され、ロボットが走行する周囲の壁や物体の外形を表す点集合である。ICPアルゴリズムなどでマッチング処理を行う際、同一の特徴を持った点集合同士であれば対応点が一致することによりマッチング精度が向上する。   The environment map stored in the robot is a set of points that are expressed on two-dimensional absolute coordinates called global coordinates, and represent the surrounding walls and the outer shape of the object on which the robot travels. When matching processing is performed using an ICP algorithm or the like, matching accuracy is improved by matching corresponding points in a point set having the same characteristics.

また、ICPアルゴリズムの中で行っている対応点検索処理は、点集合A,Bにおいてユークリッド距離が最小となる組合せを求めるものである。全検索を行った場合、演算量が(点集合Aの要素数)×(点集合Bの要素数)となり、点集合が大きくなるにつれて計算時間が増大する。ICPアルゴリズムの計算時間が増大すると、ロボットの走行スピードや加減速度が大きくなとともに自己位置推定誤差が増大するという問題があった。   Corresponding point search processing performed in the ICP algorithm is to find a combination that minimizes the Euclidean distance in the point sets A and B. When all searches are performed, the calculation amount is (number of elements in point set A) × (number of elements in point set B), and the calculation time increases as the point set increases. When the calculation time of the ICP algorithm increases, there are problems that the traveling speed and acceleration / deceleration of the robot increase and the self-position estimation error increases.

本発明は、上記に鑑みてなされたものであって、演算量の増加を抑えつつ、正確に自己位置を推定することのできる移動ロボット、自己位置補正方法および自己位置補正プログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides a mobile robot, a self-position correction method, and a self-position correction program capable of accurately estimating the self-position while suppressing an increase in the amount of calculation. Objective.

上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、自律移動可能な移動ロボットであって、当該移動ロボットの移動量および移動方向を検知する移動センサと、前記移動センサによる検出結果に基づいて、自己位置を推定する自己位置推定手段と、当該移動ロボットが移動可能な領域を点集合データで示す点環境地図を保持する点環境地図保持手段と、当該移動ロボットの周囲の移動可能な領域を検知する経路センサと、前記経路センサによる検出結果を点集合データで示す周囲環境情報を生成する周囲環境情報生成手段と、前記周囲環境情報中の所定の点データに対応する点データであって、前記点環境地図中の点データである対応点データの候補を、前記点環境地図中の点データのうち前記所定の点データを基準として予め定められた閾値以下の距離の領域に存在する点データに限定する検索対象点限定手段と、前記検索対象点限定手段により限定された点を前記所定の点データに対する対応点データとして、前記点環境地図中の各点データと、前記周囲環境情報中の対応点データとの間の位置ずれ量分前記自己位置推定手段により推定された前記自己位置を補正する位置補正手段とを備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is a mobile robot capable of autonomous movement, a movement sensor for detecting a movement amount and a movement direction of the mobile robot, and the movement Based on the detection result by the sensor, self-position estimating means for estimating the self-position, point environment map holding means for holding a point environment map indicating the area in which the mobile robot can move as point set data, Corresponding to a path sensor for detecting a surrounding movable area, ambient environment information generating means for generating ambient environment information indicating a detection result by the path sensor as point set data, and predetermined point data in the ambient environment information Corresponding point data candidates that are point data in the point environment map, and the predetermined point data among the point data in the point environment map is used as a reference Then, search target point limiting means for limiting to point data existing in an area of a distance below a predetermined threshold, and points limited by the search target point limiting means as corresponding point data for the predetermined point data, Position correction means for correcting the self-position estimated by the self-position estimation means by a positional deviation amount between each point data in the point environment map and corresponding point data in the surrounding environment information. It is characterized by that.

また、請求項2にかかる発明は、請求項1に記載の移動ロボットであって、前記移動ロボットが移動可能な領域を線データで示す線環境地図を保持する線環境地図保持手段と、前記線環境地図保持手段が保持する前記線環境地図から所定の密度の点で示された前記点環境地図を生成する点環境地図生成手段とをさらに備え、前記点環境地図保持手段は、前記点環境地図生成手段により生成された前記点データを保持することを特徴とする。   The invention according to claim 2 is the mobile robot according to claim 1, wherein the line environment map holding means for holding a line environment map indicating the area in which the mobile robot can move with line data, and the line A point environment map generating unit that generates the point environment map indicated by points of a predetermined density from the line environment map held by the environment map holding unit; and the point environment map holding unit includes the point environment map The point data generated by the generation means is stored.

また、請求項3にかかる発明は、請求項1または2に記載の移動ロボットであって、前記周囲環境情報生成手段により生成された前記点集合データの点データの間隔が前記点環境地図保持手段が保持する前記点環境地図中の点集合データの点データの間隔に比べて狭い場合に、前記周囲環境情報中の点データの間隔が前記点環境地図中の点データの間隔になるよう前記点データを間引く周囲環境情報調整手段をさらに備えたことを特徴とする。   The invention according to claim 3 is the mobile robot according to claim 1 or 2, wherein an interval of the point data of the point set data generated by the surrounding environment information generating unit is the point environment map holding unit. When the interval of the point data in the surrounding environment information is narrower than the interval of the point data of the point set data in the point environment map held by the It further comprises ambient environment information adjustment means for thinning out data.

また、請求項4にかかる発明は、請求項1から3のいずれか一項に記載の移動ロボットであって、ICPアルゴリズムを用いて前記検索対象点限定手段により限定された後の前記点環境地図中の各点データと、前記対応点データとの間の位置ずれ量を算出する位置ずれ量算出手段をさらに備え、前記自己位置補正手段は、前記位置ずれ量算出手段により算出された前記位置ずれ量分前記自己位置推定手段により推定された前記自己位置を補正することを特徴とする。   The invention according to claim 4 is the mobile robot according to any one of claims 1 to 3, wherein the point environment map after being limited by the search target point limiting means using an ICP algorithm. A positional deviation amount calculating means for calculating a positional deviation amount between each point data therein and the corresponding point data, wherein the self-position correcting means is configured to calculate the positional deviation calculated by the positional deviation amount calculating means. The self-position estimated by the self-position estimating means is corrected by an amount.

また、請求項5にかかる発明は、自律移動可能な移動ロボットの自己位置補正方法であって、移動センサが当該移動ロボットの移動量および移動方向を検知する第1検知ステップと、前記移動センサによる検出結果に基づいて、自己位置を推定する自己位置推定ステップと、経路センサが当該移動ロボットの周囲の移動可能な領域を検知する第2検知ステップと、前記経路センサによる検出結果を点集合データで示す周囲環境情報を生成する周囲環境情報生成ステップと、前記周囲環境情報中の所定の点データに対応する点データであって、当該移動ロボットが移動可能な領域を点集合データで示す点環境地図を保持する点環境地図保持手段が保持する点環境地図中の点データである対応点データの候補を、前記点環境地図中の点データのうち前記所定の点データを基準として予め定められた閾値以下の距離の領域に存在する点データに限定する検索対象点限定ステップと、前記検索対象点限定ステップにおいて限定された点を前記所定の点データに対する対応点データとして、前記点環境地図中の各点データと、前記周囲環境情報中の対応点データとの間の位置ずれ量分前記自己位置推定ステップにおいて推定された前記自己位置を補正する位置補正ステップとを有することを特徴とする。   The invention according to claim 5 is a self-position correction method for a mobile robot capable of autonomous movement, wherein the movement sensor detects a movement amount and a movement direction of the mobile robot, and the movement sensor Based on the detection result, a self-position estimation step for estimating the self-position, a second detection step for the path sensor to detect a movable area around the mobile robot, and the detection result by the path sensor as point set data A surrounding environment information generating step for generating the surrounding environment information to be indicated, and a point environment map that is point data corresponding to the predetermined point data in the surrounding environment information and that indicates the area in which the mobile robot can move by point set data Corresponding point data candidates that are point data in the point environment map held by the point environment map holding means holding A search target point limiting step for limiting to point data existing in an area having a distance equal to or less than a predetermined threshold with respect to the predetermined point data, and a point limited in the search target point limiting step as the predetermined point data As the corresponding point data for the position, the position for correcting the self-position estimated in the self-position estimation step by the amount of positional deviation between each point data in the point environment map and the corresponding point data in the surrounding environment information And a correction step.

また、請求項6にかかる発明は、自律移動可能な移動ロボットの自己位置補正処理をコンピュータに実行させる自己位置補正プログラムであって、当該移動ロボットの移動量および移動方向を検知する移動センサによる検出結果に基づいて、自己位置を推定する自己位置推定ステップと、当該移動ロボットの周囲の移動可能な領域を検知する経路センサによる検出結果を点集合データで示す周囲環境情報を取得する周囲環境情報取得ステップと、前記周囲環境情報中の所定の点データに対応する点データであって、当該移動ロボットが移動可能な領域を点集合データで示す点環境地図を保持する点環境地図保持手段が保持する点環境地図中の点データである対応点データの候補を、前記点環境地図中の点データのうち前記所定の点データを基準として予め定められた閾値以下の距離の領域に存在する点データに限定する検索対象点限定ステップと、前記検索対象点限定ステップにおいて限定された点を前記所定の点データに対する対応点データとして、前記点環境地図中の各点データと、前記周囲環境情報中の対応点データとの間の位置ずれ量分前記自己位置推定ステップにおいて推定された前記自己位置を補正する位置補正ステップとを有することを特徴とする。   According to a sixth aspect of the present invention, there is provided a self-position correction program for causing a computer to execute a self-position correction process for a mobile robot capable of autonomous movement, wherein the detection is performed by a movement sensor that detects a movement amount and a movement direction of the mobile robot. Based on the result, the self-position estimation step for estimating the self-position, and the surrounding environment information acquisition for obtaining the surrounding environment information indicating the detection result by the path sensor for detecting the movable area around the mobile robot as point set data And a point environment map holding means for holding a point environment map indicating point data corresponding to predetermined point data in the surrounding environment information and indicating a region in which the mobile robot can move by point set data Corresponding point data candidates that are point data in the point environment map are selected based on the predetermined point data among the point data in the point environment map. As a search target point limiting step for limiting to point data existing in an area having a distance equal to or less than a predetermined threshold, and a point limited in the search target point limiting step as corresponding point data for the predetermined point data, A position correction step for correcting the self-position estimated in the self-position estimation step by an amount of positional deviation between each point data in the point environment map and corresponding point data in the surrounding environment information. Features.

本発明によれば、移動センサが、当該移動ロボットの移動量および移動方向を検知し、自己位置推定手段が、移動センサによる検出結果に基づいて、自己位置を推定し、点環境地図保持手段が、当該移動ロボットが移動可能な領域を点集合データで示す点環境地図を保持し、経路センサが、当該移動ロボットの周囲の移動可能な領域を検知し、周囲環境情報生成手段が、経路センサによる検出結果を点集合データで示す周囲環境情報を生成し、検索対象点限定手段が、周囲環境情報中の所定の点データに対応する点データであって、点環境地図中の点データである対応点データの候補を、点環境地図中の点データのうち所定の点データを基準として予め定められた閾値以下の距離の領域に存在する点データに限定し、位置補正手段が、検索対象点限定手段により限定された点を所定の点データに対する対応点データとして、点環境地図中の各点データと、周囲環境情報中の対応点データとの間の位置ずれ量分自己位置推定手段により推定された自己位置を補正するので、演算量の増加を抑えつつ、正確に自己位置を推定することができるという効果を奏する。   According to the present invention, the movement sensor detects the amount and direction of movement of the mobile robot, the self-position estimation means estimates the self-position based on the detection result by the movement sensor, and the point environment map holding means , Holding a point environment map indicating the area in which the mobile robot can move as point set data, the path sensor detecting the movable area around the mobile robot, and the surrounding environment information generating means using the path sensor Ambient environment information indicating detection results as point set data is generated, and the search target point limiting means is point data corresponding to predetermined point data in the ambient environment information and corresponding to point data in the point environment map Point data candidates are limited to point data existing in a distance area equal to or smaller than a predetermined threshold with reference to predetermined point data in the point data in the point environment map. The point limited by the point limiting means is used as the corresponding point data for the predetermined point data, by the self-position estimation means for the amount of positional deviation between each point data in the point environment map and the corresponding point data in the surrounding environment information. Since the estimated self-position is corrected, the self-position can be accurately estimated while suppressing an increase in the amount of calculation.

以下に添付図面を参照して、この発明にかかる移動ロボット、自己位置補正方法および自己位置補正プログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of a mobile robot, a self-position correcting method, and a self-position correcting program according to the present invention will be explained below in detail with reference to the accompanying drawings.

図1は、実施の形態にかかる移動ロボット1の全体構成を示す図である。移動ロボット1は、走行制御部10と、モーター11と、車輪12と、位置推定センサ13と、自己位置推定部16と、LRS(Laser Range Sensor)17と、自己位置補正部18とを備えている。   FIG. 1 is a diagram illustrating an overall configuration of a mobile robot 1 according to an embodiment. The mobile robot 1 includes a travel control unit 10, a motor 11, wheels 12, a position estimation sensor 13, a self-position estimation unit 16, a LRS (Laser Range Sensor) 17, and a self-position correction unit 18. Yes.

走行制御部10は、移動ロボット1の走行を制御する。具体的には、移動の開始および停止の制御、速度制御、車輪12の方向の制御などを行う。モーター11は、走行制御部10の制御にしたがい車輪12を駆動する。位置推定センサ13は、光ファイバジャイロ14と、エンコーダ15とを有している。光ファイバジャイロ14は、移動ロボット1の傾きを検出する。エンコーダ15は、車輪12の回転に応じたパルスを検出する。自己位置推定部16は、光ファイバジャイロ14およびエンコーダ15の検出結果にしたがい移動ロボット1の自己位置(x,y,θ)を推定する。   The travel control unit 10 controls the travel of the mobile robot 1. Specifically, movement start and stop control, speed control, wheel 12 direction control, and the like are performed. The motor 11 drives the wheel 12 under the control of the traveling control unit 10. The position estimation sensor 13 includes an optical fiber gyro 14 and an encoder 15. The optical fiber gyro 14 detects the tilt of the mobile robot 1. The encoder 15 detects a pulse corresponding to the rotation of the wheel 12. The self-position estimation unit 16 estimates the self-position (x, y, θ) of the mobile robot 1 according to the detection results of the optical fiber gyroscope 14 and the encoder 15.

LRS17は、一定の角度間隔でレーザー光を照射し、反射の位相差や時間差などに基づいて壁や障害物の位置を特定する。LRS17は、例えば0.5度間隔でレーザー光を照射する。LRS17は、移動ロボット1の前方を中心とした180度の間を走査し、この間で、0.5度間隔でレーザー光を照射する。また、他の例としては、走査範囲は360度であってもよい。   The LRS 17 irradiates a laser beam at a constant angular interval, and specifies the position of a wall or an obstacle based on a reflection phase difference or a time difference. The LRS 17 irradiates laser light at intervals of 0.5 degrees, for example. The LRS 17 scans between 180 degrees centered on the front of the mobile robot 1 and irradiates laser light at intervals of 0.5 degrees during this period. As another example, the scanning range may be 360 degrees.

自己位置補正部18は、点環境地図を有している。点環境地図とは、移動ロボット1が移動可能な領域を示した地図である。すなわち、点環境地図には、移動ロボット1が移動可能な領域における移動経路の境界線となる壁や障害物が示されている。自己位置補正部18は、この点環境地図とLRS17による測定結果とを比較し、両者の間の位置ずれを算出する。そして、この位置ずれの程度に応じて自己位置を補正する。具体的には、ICP(Iterative Closest Point)アルゴリズムにより点環境地図と測定結果の間のずれを算出する。ICPアルゴリズムについては後述する。   The self-position correcting unit 18 has a point environment map. The point environment map is a map showing an area where the mobile robot 1 can move. That is, the point environment map shows walls and obstacles that are boundaries of the movement path in the area where the mobile robot 1 can move. The self-position correcting unit 18 compares this point environment map with the measurement result by the LRS 17 and calculates a positional deviation between them. Then, the self position is corrected in accordance with the degree of the positional deviation. Specifically, a deviation between the point environment map and the measurement result is calculated by an ICP (Iterative Closest Point) algorithm. The ICP algorithm will be described later.

移動ロボット1が移動する際には、車輪12のスリップなどにより自身が移動していると判断している距離や方向と実際の移動距離や方向との間にずれが生じ、移動し続けることによりこの誤差が蓄積されていく。自己位置補正部18は、上記処理により適当なタイミングでこの誤差を補正する。具体的には、予め定められた時間が経過する毎に自己位置の補正を行う。また、他の例としては、自己位置補正部18は、一定の距離を移動する毎に自己位置の補正を行ってもよい。   When the mobile robot 1 moves, there is a difference between the distance or direction determined to be moving due to slipping of the wheels 12 or the like and the actual moving distance or direction. This error is accumulated. The self-position correcting unit 18 corrects this error at an appropriate timing by the above processing. Specifically, each time a predetermined time elapses, the self-position is corrected. As another example, the self-position correcting unit 18 may correct the self-position every time it moves a certain distance.

図2は、自己位置補正部18の詳細な機能構成を示すブロック図である。自己位置補正部18は、位置情報取得部180と、点環境地図DB181と、点環境地図読出部182と、不要点除去部183と、周囲環境情報取得部184と、周囲環境情報調整部185と、対象点特定部186と、誤差評価関数(E)算出部187と、位置補正部188とを有している。   FIG. 2 is a block diagram showing a detailed functional configuration of the self-position correcting unit 18. The self-position correction unit 18 includes a position information acquisition unit 180, a point environment map DB 181, a point environment map reading unit 182, an unnecessary point removal unit 183, an ambient environment information acquisition unit 184, and an ambient environment information adjustment unit 185. A target point specifying unit 186, an error evaluation function (E) calculating unit 187, and a position correcting unit 188.

位置情報取得部180は、自己位置推定部16により推定された自己位置を示す位置情報を自己位置推定部16から取得する。点環境地図DB181は、点環境地図を格納しており、この点環境地図DB181は、ハードディスクドライブ装置(HDD)やメモリ等の記憶媒体に記憶されている。なお、他の例としては、点環境地図は外部から取得してもよい。図3は、点環境地図を説明するための図である。図3に示すように、点環境地図は、移動ロボットが移動可能な領域を示すデータであり、壁や障害物など上記移動可能な領域の移動通路の境界線を示すデータである。境界線は、例えば10cm間隔など一定密度の点で示された点集合データで示されている。   The position information acquisition unit 180 acquires position information indicating the self position estimated by the self position estimation unit 16 from the self position estimation unit 16. The point environment map DB 181 stores a point environment map, and the point environment map DB 181 is stored in a storage medium such as a hard disk drive (HDD) or a memory. As another example, the point environment map may be acquired from the outside. FIG. 3 is a diagram for explaining a point environment map. As shown in FIG. 3, the point environment map is data indicating an area where the mobile robot can move, and is data indicating a boundary line of the moving path of the movable area such as a wall or an obstacle. The boundary line is indicated by point set data indicated by points having a constant density, such as an interval of 10 cm.

なお、本実施の形態では、環境地図として点集合データで示される点環境地図を用いているがこれに限定されるものではない。例えば、環境地図として線データ集合で示される線環境地図を用いることもでき、この線データを点データに変換するように構成することができる。この場合には、LRS17のレーザビームと、線データの交点を点データとする。   In the present embodiment, a point environment map indicated by point set data is used as the environment map, but the present invention is not limited to this. For example, a line environment map represented by a line data set can be used as the environment map, and the line data can be converted into point data. In this case, the intersection of the laser beam of the LRS 17 and the line data is set as point data.

点環境地図読出部182は、点環境地図DB181から位置情報に示される自己位置周辺の点環境地図を読み出す。図4は、点環境地図読出部182の処理を説明するための図である。点環境地図読出部182は、図4に示すようにLRS17の位置と姿勢(xL,yL,θL)においてLRS17により計測可能な範囲の点環境地図を読み出す。 The point environment map reading unit 182 reads a point environment map around its own location indicated by the position information from the point environment map DB 181. FIG. 4 is a diagram for explaining the processing of the point environment map reading unit 182. The point environment map reading unit 182 reads a point environment map in a range measurable by the LRS 17 in the position and orientation (x L , y L , θ L ) of the LRS 17 as shown in FIG.

図5は、移動ロボット1の位置および姿勢(xR,yR,θR)とLRS17の位置および姿勢(xL,yL,θL)の関係を示す図である。このように、移動ロボット1の位置および姿勢(xR,yR,θR)は、移動ロボット1の中心の座標である。これに対し、LRS17の位置および姿勢(xL,yL,θL)は、LRS17の中心の座標である。そこで、まず位置情報に示される移動ロボット1の位置および姿勢(xR,yR,θR)をLRS17の位置および姿勢(xL,yL,θL)に変換する。 FIG. 5 is a diagram showing the relationship between the position and orientation (x R , y R , θ R ) of the mobile robot 1 and the position and orientation (x L , y L , θ L ) of the LRS 17. Thus, the position and orientation (x R , y R , θ R ) of the mobile robot 1 are the coordinates of the center of the mobile robot 1. On the other hand, the position and orientation (x L , y L , θ L ) of the LRS 17 are the coordinates of the center of the LRS 17. Therefore, first, the position and orientation (x R , y R , θ R ) of the mobile robot 1 indicated in the position information are converted into the position and orientation (x L , y L , θ L ) of the LRS 17.

なお、ここで、(xL,yL,θL)および(xR,yR,θR)は、いずれもグローバル座標系における座標である。ここで、グローバル座標とは、点環境地図の座標系である。すなわち、地図上の所定の位置を原点とする座標系である。 Here, (x L , y L , θ L ) and (x R , y R , θ R ) are all coordinates in the global coordinate system. Here, the global coordinate is a coordinate system of a point environment map. That is, the coordinate system has a predetermined position on the map as the origin.

具体的には、式(1)により、(xR,yR,θR)を(xL,yL,θL)に変換する。ここで、offsetLRSは、(xR,yR,θR)と(xL,yL,θL)の間の距離である。

Figure 2008250906
Specifically, (x R , y R , θ R ) is converted into (x L , y L , θ L ) by the equation (1). Here, offset LRS is a distance between (x R , y R , θ R ) and (x L , y L , θ L ).
Figure 2008250906

さらに、点環境地図読出部182は、(式2)によりLRS17の中心座標(xL,yL)と点環境地図の座標(xm,ym)との間の距離rmおよび角度θmを算出する。

Figure 2008250906
Further, the point environment map reading unit 182 calculates the distance r m and the angle θ m between the center coordinates (x L , y L ) of the LRS 17 and the coordinates (x m , y m ) of the point environment map according to (Equation 2). Is calculated.
Figure 2008250906

点環境地図読出部182は、こうして得られた距離rmおよび角度θmと予め定められた閾値とを比較する。距離rmおよび角度θmがそれぞれ閾値よりも小さい場合には、この点(xm,ym)を点環境地図として読み出す。距離rmおよび角度θmの閾値は、LRS17の計測可能範囲に応じて定めておく。これにより、点環境地図読出部182は、LRS17により計測可能な範囲の点環境地図のみを読み出すことができる。 Point environmental map reading unit 182 compares the predetermined threshold with the distance r m and the angle theta m thus obtained. When the distance r m and the angle θ m are smaller than the threshold values, the point (x m , y m ) is read as a point environment map. The thresholds for the distance r m and the angle θ m are determined in accordance with the measurable range of the LRS 17. Thereby, the point environment map reading unit 182 can read only the point environment map within the range measurable by the LRS 17.

図2の不要点除去部183は、点環境地図読出部182により読み出された点環境地図に含まれる点集合データから不要点を除去する。図6は、不要点除去部183の処理を説明するための図である。移動ロボット1が、図6に示す位置に存在する場合には、移動可能な領域の境界線となる壁領域200がLRS17により検出される。しかし、壁200によりレーザー光が遮断されるので、LRS17は、その奥の壁領域202,204を検出することはできない。このため、壁領域202,204のようないわゆる陰面領域の点環境地図については、LRS17による測定結果との比較を行うことができない。すなわち、後のICPアルゴリズムにおいて不要な点データである。そこで、不要点除去部183は、陰面領域中の点データを点環境地図読出部182が読み出した点環境地図から削除する。   The unnecessary point removing unit 183 in FIG. 2 removes unnecessary points from the point set data included in the point environment map read by the point environment map reading unit 182. FIG. 6 is a diagram for explaining the processing of the unnecessary point removing unit 183. When the mobile robot 1 is present at the position shown in FIG. 6, the wall region 200 that is the boundary line of the movable region is detected by the LRS 17. However, since the laser beam is blocked by the wall 200, the LRS 17 cannot detect the wall regions 202 and 204 in the back. For this reason, the point environment map of the so-called hidden surface area such as the wall areas 202 and 204 cannot be compared with the measurement result by the LRS 17. That is, it is unnecessary point data in the later ICP algorithm. Therefore, the unnecessary point removing unit 183 deletes the point data in the hidden surface area from the point environment map read by the point environment map reading unit 182.

不要点除去部183は、陰面領域の点データを削除する。具体的には、以下1.から6.の処理を行う。
1.点環境地図上の一定間隔の点データを検索する。
2.図7は、グローバル座標系からfs座標系に変換する処理を説明するための図である。(式3)により、点環境地図の点データの座標をグローバル座標系の座標(xm,ym)からfs座標系の座標(xfs,yfs)に変換する。ここで、グローバル座標系とは、点環境地図における所定の位置を原点とする座標系である。fs座標系とは、LRS17の中心を原点とし、移動ロボット1の進行方向、すなわち正面をx軸のプラス方向とする座標系である。

Figure 2008250906
3.点環境地図の隣接する点データの直線式を導出する。隣接する点P1(x1,y1)と、点P2(x2,y2)の間の直線P12は(式4)のように示される。
Figure 2008250906
ここで、係数a1,b1,c1は、(式5)で示される。
Figure 2008250906
4.fs座標系におけるLRS17の各レーザー光の照射方向を示す直線式を算出する。図8は、レーザー光の照射方向を示す直線式を算出する処理を説明するための図である。図8において、点P3は、LRS17の中心位置であり、fs座標系における原点である。点P4は、レーザー光の照射方向上の任意の点である。θpは、fs座標系における原点(x3,y3)とレーザー光の照射方向のなす角である。点P4の座標は、(式6)のように示される。
Figure 2008250906
ここで、rpは、点P3および点P4を結ぶ線分P34の長さである。 The unnecessary point removal unit 183 deletes the point data of the hidden surface area. Specifically, the following 1. To 6. Perform the process.
1. Search point data at regular intervals on the point environment map.
2. FIG. 7 is a diagram for explaining a process of converting from the global coordinate system to the fs coordinate system. By (Expression 3), the coordinates of the point data of the point environment map are converted from the coordinates (x m , y m ) of the global coordinate system to the coordinates (x fs , y fs ) of the fs coordinate system. Here, the global coordinate system is a coordinate system having a predetermined position on the point environment map as an origin. The fs coordinate system is a coordinate system in which the center of the LRS 17 is the origin and the traveling direction of the mobile robot 1, that is, the front is the positive direction of the x axis.
Figure 2008250906
3. Deriving a linear formula of adjacent point data in the point environment map. A straight line P 1 P 2 between the adjacent point P 1 (x 1 , y 1 ) and the point P 2 (x 2 , y 2 ) is expressed as (Equation 4).
Figure 2008250906
Here, the coefficients a 1 , b 1 , and c 1 are expressed by (Equation 5).
Figure 2008250906
4). A linear equation indicating the irradiation direction of each laser beam of the LRS 17 in the fs coordinate system is calculated. FIG. 8 is a diagram for explaining processing for calculating a linear expression indicating the irradiation direction of laser light. In FIG. 8, the point P 3 is the center position of the LRS 17 and the origin in the fs coordinate system. The point P 4 is an arbitrary point on the laser light irradiation direction. θ p is an angle formed by the origin (x3, y3) in the fs coordinate system and the laser beam irradiation direction. The coordinates of the point P 4 are shown as (Equation 6).
Figure 2008250906
Here, r p is the length of the line segment P 3 P 4 connecting the points P 3 and P 4 .

直線P34は、(式7)で表される。ここで、各係数は、(式8)の通りである。

Figure 2008250906
Figure 2008250906
5.図9に示すように、直線P12と直線P34の交点をP0とする。交点P0の座標(x0,y0)を(式9)により算出する。
Figure 2008250906
6.LRS17のすべての走査角度θpについて交点P0と原点P3の距離、すなわち深さ(rp)を(式10)により算出する。
Figure 2008250906
そして、各θpにおいて最小のrpとなるような点Pを出力する。すなわち、各θpにおいて最小のrpとなるような点P以外の点については、すべて陰面の点とみなし除去する。 The straight line P 3 P 4 is expressed by (Expression 7). Here, each coefficient is as (Formula 8).
Figure 2008250906
Figure 2008250906
5. As shown in FIG. 9, the intersection of the straight line P 1 P 2 and the straight line P 3 P 4 is P 0 . The coordinates (x 0 , y 0 ) of the intersection point P 0 are calculated by (Equation 9).
Figure 2008250906
6). The distance between the intersection point P 0 and the origin P 3 , that is, the depth (r p ) is calculated by (Equation 10) for all the scanning angles θ p of the LRS 17.
Figure 2008250906
Then, a point P that outputs the minimum r p at each θ p is output. That is, all the points other than the point P that has the minimum r p at each θ p are regarded as hidden surface points and removed.

すなわち、本実施の形態では、点環境地図の各点の間隔を一例として10cmとしているが、不要点を除去する場合には、上述のように点と点の間は直線(直線P12)で接続されていると仮定し、直線P12とLRSセンサ17のレーザ光(直線P34)の交点P0を計算し、交点P0と原点P3の距離、すなわち深さ(rp)によって隠面の点であるか否かを判別している。言い換えれば、不要点除去処理では、一度、10cm間隔の点の間を直線で接続し関連づけてから不要点除去処理をしている。 That is, in the present embodiment, the interval between the points on the point environment map is 10 cm as an example. However, when unnecessary points are removed, a straight line (straight line P 1 P 2) is used between the points as described above. ) was assumed to be connected, to calculate the intersection point P 0 of the laser beam of the linearly P 1 P 2 and the LRS sensor 17 (line P 3 P 4), the distance of the intersection point P 0 and the origin P 3, i.e. the depth Whether or not the point is a hidden surface is determined by (r p ). In other words, in the unnecessary point removal process, the unnecessary point removal process is performed after connecting and associating the points at intervals of 10 cm with a straight line.

図2の周囲環境情報取得部184は、LRS17の測定結果、すなわち周囲環境情報を取得する。周囲環境情報は、点集合データである。LRS17から取得した周囲環境情報は、グローバル座標系の座標データである。そこで、周囲環境情報取得部184は、周辺環境情報に含まれる各点データをLRS回転中心座標系からグローバル座標系に変換する。LRS回転中心座標系とは、LRS17の中心を原点とし、移動ロボット1の正面をy軸のプラス方向とする座標系である。   The ambient environment information acquisition unit 184 in FIG. 2 acquires the measurement result of the LRS 17, that is, ambient environment information. The ambient environment information is point set data. The ambient environment information acquired from the LRS 17 is global coordinate system coordinate data. Therefore, the surrounding environment information acquisition unit 184 converts each point data included in the surrounding environment information from the LRS rotation center coordinate system to the global coordinate system. The LRS rotation center coordinate system is a coordinate system in which the center of the LRS 17 is the origin and the front of the mobile robot 1 is the positive direction of the y-axis.

具体的には、図10に示すように、まず計測座標系の座標データ(xl,yl)をLRS17の中心を原点とするfs座標系の座標データ(xlfs,ylfs)に変換する。このとき、(式11)を用いる。

Figure 2008250906
さらに、グローバル座標系の座標データ(xgl,ygl)に変換する。このとき、(式12)を用いる。
Figure 2008250906
Specifically, as shown in FIG. 10, first, coordinate data (x 1 , y 1 ) in the measurement coordinate system is converted into coordinate data (x lfs , y lfs ) in the fs coordinate system with the center of the LRS 17 as the origin. . At this time, (Formula 11) is used.
Figure 2008250906
Further, it is converted into coordinate data (x gl , y gl ) in the global coordinate system. At this time, (Formula 12) is used.
Figure 2008250906

図11は、周囲環境情報を説明するための図である。このように、周囲環境情報は、LRS17による一定角度間隔おきに走査されたレーザー光230による検出結果に対応した点集合データである。例えば、図11における移動ロボット1の右側の壁に照射されたレーザー光230a〜230eにより点240a〜240dが得られる。これらの点が点集合データに含まれている。   FIG. 11 is a diagram for explaining the surrounding environment information. As described above, the ambient environment information is point set data corresponding to the detection result of the laser beam 230 scanned at regular angular intervals by the LRS 17. For example, points 240a to 240d are obtained by the laser beams 230a to 230e applied to the right wall of the mobile robot 1 in FIG. These points are included in the point set data.

周囲環境情報調整部185は、周囲環境情報取得部184が取得した周囲環境情報の点集合データのうち所定の点データを間引く。LRS17は、放射線状にレーザー光を照射する。このため、LRS17との距離が近い領域において得られた点においては、各点の間隔が狭く、遠くなるにしたがい、点の間隔が広くなっていく。そこで、点の間隔が狭い部分については、所定間隔で点の数を間引く。例えば、点環境地図が10cm間隔の点データである場合には、周囲環境情報においても、点の間隔が10cmよりも密な領域においては、10cmに近くなるように点を間引く。逆にレーザ光の間隔が広くなる場合、例えば点の間隔が10cm以上で粗な領域においては、LRS17との距離が遠くにある点と判断し、かかる領域の点を不要情報として除去する。   The ambient environment information adjustment unit 185 thins out predetermined point data from the point set data of the ambient environment information acquired by the ambient environment information acquisition unit 184. The LRS 17 emits laser light in a radial pattern. For this reason, at the points obtained in the region where the distance from the LRS 17 is close, the distance between the points becomes narrower, and the distance between the points becomes wider as the distance increases. Therefore, the number of points is thinned out at a predetermined interval for a portion where the interval between the points is narrow. For example, when the point environment map is point data with an interval of 10 cm, in the surrounding environment information, the points are thinned out so as to be close to 10 cm in an area where the point interval is denser than 10 cm. On the other hand, when the interval between the laser beams is wide, for example, in a rough region where the interval between the points is 10 cm or more, it is determined that the distance from the LRS 17 is far, and the points in the region are removed as unnecessary information.

図2の誤差評価関数算出部187は、ICPアルゴリズムにおいて、点環境地図と周囲環境情報の対応点の検索を行う。対応点の検索においては、点環境地図中のすべての点と周囲環境情報中のすべての点を対象とするため、点環境地図中の点の個数に周囲環境情報中の点の個数を乗じた計算量が必要となり、演算負荷が大きい。この検索にかかる演算負荷を低減すべく、対象点特定部186は、周囲環境情報中の所定の点の対応点を検索する際に、点環境地図中のすべての点を対象とするのではなく、対象をより少ない点に限定する。移動ロボット1の移動においては、推定された自己位置と実際の自己位置が大きくずれることはないことがわかっている。そこで、対象点特定部186は、推定された自己位置と実際の自己位置のずれの程度に応じた範囲内の点のみを、対応点を検索する際の対象点とする。   The error evaluation function calculation unit 187 in FIG. 2 searches for a corresponding point between the point environment map and the surrounding environment information in the ICP algorithm. In searching for corresponding points, all points in the point environment map and all points in the surrounding environment information are targeted, so the number of points in the point environment map is multiplied by the number of points in the surrounding environment information. A calculation amount is required, and a calculation load is large. In order to reduce the calculation load for this search, the target point specifying unit 186 does not target all the points in the point environment map when searching for corresponding points of a predetermined point in the surrounding environment information. , Limiting the target to fewer points. In the movement of the mobile robot 1, it is known that the estimated self-position and the actual self-position do not deviate greatly. Accordingly, the target point specifying unit 186 sets only points within a range corresponding to the degree of deviation between the estimated self position and the actual self position as target points when searching for corresponding points.

図12は、対象点特定部186の処理を具体的に説明するための図である。図12において、白丸は点環境地図上の点、黒丸は周囲環境情報中の点を示している。例えば、周囲環境情報中の点300の対応点を点環境地図上の点から検索する場合、図12に示す点環境地図上のすべての点データを検索対象とするのではなく、例えば、点環境地図中の点データのうち、点300を中心としたLRSの照射角度±10度の領域310内に含まれる点データのみを検索対象とする。   FIG. 12 is a diagram for specifically explaining the processing of the target point specifying unit 186. In FIG. 12, white circles indicate points on the point environment map, and black circles indicate points in the surrounding environment information. For example, when searching for corresponding points of the point 300 in the surrounding environment information from the points on the point environment map, not all the point data on the point environment map shown in FIG. Of the point data in the map, only the point data included in the region 310 of the LRS irradiation angle ± 10 degrees centered on the point 300 is set as a search target.

このように、検索対象点を制限することにより、処理の高速化を図ることができる。なお、領域のサイズは、ロボットの位置ずれの精度や、補正タイミング、路面の状態などの条件に応じて設定すればよく、実施の形態に限定されるものではない。   In this way, the processing speed can be increased by limiting the search target points. The size of the region may be set according to conditions such as the accuracy of the positional deviation of the robot, the correction timing, and the road surface condition, and is not limited to the embodiment.

図2の誤差評価関数算出部187は、ICPアルゴリズムを用いて周囲環境情報と点環境地図とを比較する。このとき、対象点特定部186により特定された検索対象点のみを検索対象とする。図13−1から図13−4は、ICPアルゴリズムを説明するための図である。ICPアルゴリズムは、2つの点集合間の距離誤差を最小化するような剛体変換(回転または平行移動)パラメータR,tを求める手法である。ICPアルゴリズムにおいては、図13−1に示す初期状態において、図13−2に示すように第1グループ中の点と第2グループ中の点のうち距離が最小となるような対応点(ペア)を探索する。これをすべての点に対して行う。次に、各対応点における2点間の距離が小さくなるように、図13−3に示すように剛体変換を行う。対応点の探索と剛体変換とを繰り返し、図13−4に示すように2つの点集合が重なり合えば、ICPアルゴリズム終了とする。   The error evaluation function calculation unit 187 in FIG. 2 compares the ambient environment information with the point environment map using the ICP algorithm. At this time, only the search target points specified by the target point specifying unit 186 are set as search targets. FIG. 13A to FIG. 13D are diagrams for explaining the ICP algorithm. The ICP algorithm is a method for obtaining rigid body transformation (rotation or translation) parameters R and t that minimize a distance error between two point sets. In the ICP algorithm, in the initial state shown in FIG. 13A, as shown in FIG. 13B, the corresponding point (pair) that minimizes the distance between the points in the first group and the points in the second group. Explore. This is done for all points. Next, rigid transformation is performed as shown in FIG. 13C so that the distance between the two corresponding points becomes small. The search for corresponding points and the rigid transformation are repeated, and if the two point sets overlap as shown in FIG.

2つの点集合が重なるということは、(式13)に示す誤差評価関数(E)を最小化することに等しい。誤差評価関数算出部187は、誤差評価関数(E)を最小化するようなパラメータR,tをニュートン法などを用いて算出する。

Figure 2008250906
That two point sets overlap is equivalent to minimizing the error evaluation function (E) shown in (Equation 13). The error evaluation function calculation unit 187 calculates parameters R and t that minimize the error evaluation function (E) using a Newton method or the like.
Figure 2008250906

誤差評価関数算出部187は、点環境地図の点集合と周囲環境情報の点集合に対してこのICPアルゴリズムを施すことにより、各対応点間の誤差を最小化するようなパラメータR,tを算出する。位置補正部188は、誤差評価関数算出部187により算出されたパラメータにより、位置情報取得部180が取得した自己位置を補正する。なお、実施の形態にかかる誤差評価関数算出部187は、位置ずれ量算出手段に相当する。   The error evaluation function calculation unit 187 calculates parameters R and t that minimize the error between corresponding points by applying this ICP algorithm to the point set of the point environment map and the point set of the surrounding environment information. To do. The position correction unit 188 corrects the self-position acquired by the position information acquisition unit 180 based on the parameters calculated by the error evaluation function calculation unit 187. The error evaluation function calculation unit 187 according to the embodiment corresponds to a positional deviation amount calculation unit.

図14は、自己位置補正部18による自己位置補正処理を示すフローチャートである。まず、位置情報取得部180は、自己位置推定部16から位置情報を取得する(ステップS100)。次に、点環境地図読出部182は、点環境地図DB181から自己位置周辺の点環境地図を読み出す(ステップS102)。なお、このとき、LRS17の中心位置との距離および角度が予め定められた閾値以下の点環境地図のみを読み出す。次に、不要点除去部183は、点環境地図読出部182のうち不要点を除去する(ステップS104)。具体的には、点環境地図DB181読み出した点環境地図から陰面領域中の点データを除去する。   FIG. 14 is a flowchart showing the self-position correcting process by the self-position correcting unit 18. First, the position information acquisition unit 180 acquires position information from the self-position estimation unit 16 (step S100). Next, the point environment map reading unit 182 reads a point environment map around its own position from the point environment map DB 181 (step S102). At this time, only the point environment map whose distance and angle with the center position of the LRS 17 are equal to or less than a predetermined threshold value is read out. Next, the unnecessary point removing unit 183 removes unnecessary points from the point environment map reading unit 182 (step S104). Specifically, the point data in the hidden surface area is removed from the point environment map read out from the point environment map DB 181.

このように、後のICPアルゴリズムにおける点環境地図と周囲環境情報の比較において比較対象とならない点を予め除去しておくことにより、2つの点集合データにおける対応点を検索する処理の演算量を削減することができる。   In this way, by eliminating points that are not compared in the comparison of the point environment map and the surrounding environment information in the later ICP algorithm, the amount of processing for searching for corresponding points in the two point set data is reduced. can do.

次に、周囲環境情報取得部184は、LRS17から周囲環境情報を取得する(ステップS106)。次に、周囲環境情報調整部185は、周囲環境情報に含まれる点データを調整する(ステップS108)。具体的には、点環境地図の点密度に比べて点データが密な領域については点データを適宜間引く。   Next, the ambient environment information acquisition unit 184 acquires ambient environment information from the LRS 17 (step S106). Next, the ambient environment information adjustment unit 185 adjusts the point data included in the ambient environment information (step S108). Specifically, the point data is appropriately thinned out for an area where the point data is denser than the point density of the point environment map.

点環境地図の点密度に比べて密に点データが存在していた場合、ICPアルゴリズムにおいては、点データが多いことに起因した演算精度の向上よりも、演算量の増加の方が問題となる。そこで、ICPアルゴリズムにおける処理結果に影響の小さい点データを間引く。これにより、ICPアルゴリズムにおける2つの点集合データにおける対応点を検索する処理の演算量を削減することができる。   When point data is present densely compared to the point density of the point environment map, in the ICP algorithm, an increase in the amount of calculation becomes more problematic than an improvement in calculation accuracy due to a large amount of point data. . Therefore, the point data having a small influence on the processing result in the ICP algorithm is thinned out. Thereby, it is possible to reduce the calculation amount of the process of searching for the corresponding points in the two point set data in the ICP algorithm.

次に、対象点特定部186は、ICPアルゴリズムにおいて周囲環境情報中の所定の点に対応する点環境地図中の点、すなわち対応点の検索における検索対象となる点を、点環境地図中の一部の点に限定する(ステップS110)。このように、検索対象となる点を点環境地図中のすべての点ではなく、近傍の点のみに限定することにより、対応点を検索する処理の演算量を削減することができる。   Next, the target point specifying unit 186 selects a point in the point environment map corresponding to a predetermined point in the surrounding environment information in the ICP algorithm, that is, a point to be searched in the search for the corresponding point. It is limited to the point of the part (step S110). In this way, by limiting the points to be searched to not only all the points in the point environment map but only to nearby points, it is possible to reduce the amount of calculation of processing for searching for corresponding points.

次に、誤差評価関数算出部187は、対象点特定部186により限定された点のみを検索対象点として、対応点となる最近傍点を検索する対応点検索処理を行う(ステップS112)。次に、誤差評価関数算出部187は、誤差評価関数(E)がゼロに最も近付くようなパラメータR,tを算出する(ステップS114)。次に、周囲環境情報をパラメータR,tを用いたアフィン変換する(ステップS116)。さらに、対応点の検索と、剛体変換(アフィン変換)を繰り返す。   Next, the error evaluation function calculation unit 187 performs corresponding point search processing for searching for the nearest point as a corresponding point using only the points limited by the target point specifying unit 186 as search target points (step S112). Next, the error evaluation function calculation unit 187 calculates parameters R and t such that the error evaluation function (E) is closest to zero (step S114). Next, the ambient environment information is affine transformed using the parameters R and t (step S116). Further, search for corresponding points and rigid body transformation (affine transformation) are repeated.

誤差評価関数(En)と、その直前に得られた誤差評価関数(En-1)の差分が予め定められた閾値以下である場合には、収束したと判断し(ステップS118,Yes)、このとき得られたパラメータR,tにより、自己位置推定部16により推定された自己位置を補正する(ステップS120)。以上で処理を終了する。一方、差分や誤差関数Eの値が閾値よりも大きい場合には(ステップS118,No)、再びステップS112へ戻る。以上の処理により、自己位置推定部16により推定された自己位置を実際の自己位置に推定することができる。 If the difference between the error evaluation function (E n ) and the error evaluation function (E n-1 ) obtained immediately before is equal to or less than a predetermined threshold value, it is determined that the error has converged (step S118, Yes). The self-position estimated by the self-position estimating unit 16 is corrected by the parameters R and t obtained at this time (step S120). The process ends here. On the other hand, when the value of the difference or the error function E is larger than the threshold (No at Step S118), the process returns to Step S112 again. Through the above processing, the self-position estimated by the self-position estimation unit 16 can be estimated as the actual self-position.

図15は、対応点検索処理(ステップS112)における誤差評価関数算出部187の詳細な処理を示すフローチャートである。まず、点環境地図の点集合Mを読み込む(ステップS200)。次に、周辺点環境地図の点集合、すなわちLRSの点集合Dを読み込む(ステップS202)。次に、LRSの点集合の変数jを1に初期化する(ステップS204)。さらに、観測点djと点環境地図点miの間の全ての最小距離Mindistance[j]の初期値をMaxdistanceとする(ステップS205)。ここで、Maxdistanceは変数の最大値などである。 FIG. 15 is a flowchart showing detailed processing of the error evaluation function calculation unit 187 in the corresponding point search processing (step S112). First, the point set M of the point environment map is read (step S200). Next, the point set of the peripheral point environment map, that is, the LRS point set D is read (step S202). Next, the variable j of the LRS point set is initialized to 1 (step S204). Furthermore, the initial values of all the minimum distance minDistance [j] between the observation point d j and the point environment map points m i and maxDistance (step S205). Here, Max distance is the maximum value of the variable.

さらに、LRSの観測点jに対する点環境地図の点集合の検索範囲をiminからimaxとし、この検索範囲を計算する(ステップS206)。次に、点環境地図の点集合の変数iをiminに初期化する(ステップS208)。次に、LRSの観測点djと、点環境地図点miの間の距離を計算する(ステップS210)。そして、Distance(dj,mi)をdistanceに設定する。 Further, the search range of the point set of the point environment map for the observation point j of the LRS is changed from i min to i max and this search range is calculated (step S206). Next, the variable i of the point set of the point environment map is initialized to i min (step S208). Next, calculate the observation point d j of LRS, the distance between points environmental map points m i (step S210). Then, distance (d j , m i ) is set to distance.

次に、観測点djと点環境地図点miの間の最小距離Mindistance[j]と、distanceとを比較し、最小判別を行う。distanceがMindistance[j]に比べて小さい場合には(ステップS212,Yes)、distanceをMindistance[j]に設定し、iを最小距離点Minpoint[j]に設定する(ステップS214)。distanceがMindistance[j]以上である場合には(ステップS212,No)、ステップS216に進む。 Next, the minimum distance minDistance [j] between the observation point d j and the point environment map points m i, is compared with the distance, performing a minimum determination. When the distance is smaller than the distance [j] (step S212, Yes), the distance is set to the distance [j], and i is set to the minimum distance point Minpoint [j] (step S214). If the distance is equal to or greater than the distance [j] (step S212, No), the process proceeds to step S216.

次に、変数iに「i+1」を設定する(ステップS216)。すなわち、次の点環境地図点を指定する。以上ステップS210からステップS216の処理を点環境地図点のすべてに対して行うまで繰り返す(ステップS218)。   Next, “i + 1” is set to the variable i (step S216). That is, the next point environment map point is designated. The processes from step S210 to step S216 are repeated until all the point environment map points are performed (step S218).

minからimaxまですべての点環境地図点に対してステップS210からステップS216の処理を行うと(ステップS218,Yes)、次に、LRSの観測の変数をjに「j+1」を設定する(ステップS220)。すなわち、次のLRSの観測点を指定する。すべての観測点jに対して、ステップS208からステップS220の処理を行うまで繰り返し(ステップS222)、すべての観測点に対する処理が終了すると(ステップS222,Yes)、対応点検索処理(ステップS112)が完了する。 If the processing from step S210 to step S216 is performed for all point environment map points from i min to i max (step S218, Yes), then the variable of observation of LRS is set to j (j + 1) ( Step S220). That is, the observation point of the next LRS is designated. It repeats until the process of step S208 to step S220 is performed with respect to all the observation points j (step S222), and when the process with respect to all the observation points is completed (step S222, Yes), the corresponding point search process (step S112) is performed. Complete.

図16は、自己位置補正部17および自己位置補正部18のハードウェア構成を示す図である。自己位置補正部17および自己位置補正部18は、ハードウェア構成として、自己位置補正部17および自己位置補正部18における自己位置推定処理および自己位置補正処理を実行するプログラムなどが格納されているROM52と、ROM52内のプログラムに従って自己位置補正部17および自己位置補正部18の各部を制御するCPU51と、自己位置補正部17および自己位置補正部18の制御に必要な種々のデータを記憶するRAM53と、ネットワークに接続して通信を行う通信I/F57と、各部を接続するバス62とを備えている。   FIG. 16 is a diagram illustrating a hardware configuration of the self-position correcting unit 17 and the self-position correcting unit 18. The self-position correction unit 17 and the self-position correction unit 18 have a hardware configuration that includes a ROM 52 in which programs for executing self-position estimation processing and self-position correction processing in the self-position correction unit 17 and the self-position correction unit 18 are stored. A CPU 51 that controls each of the self-position correcting unit 17 and the self-position correcting unit 18 according to a program in the ROM 52, and a RAM 53 that stores various data necessary for controlling the self-position correcting unit 17 and the self-position correcting unit 18. A communication I / F 57 that performs communication by connecting to a network and a bus 62 that connects the respective units are provided.

先に述べた自己位置補正部17および自己位置補正部18におけるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フロッピー(登録商標)ディスク(FD)、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供されてもよい。   The program in the self-position correcting unit 17 and the self-position correcting unit 18 described above is a file in an installable or executable format and is a computer such as a CD-ROM, a floppy (registered trademark) disk (FD), or a DVD. It may be provided by being recorded on a readable recording medium.

この場合には、プログラムは、自己位置補正部17および自己位置補正部18において上記記録媒体から読み出して実行することにより主記憶装置上にロードされ、上記ソフトウェア構成で説明した各部が主記憶装置上に生成されるようになっている。   In this case, the program is loaded on the main storage device by being read from the recording medium and executed by the self-position correction unit 17 and the self-position correction unit 18, and each unit described in the software configuration is stored on the main storage device. To be generated.

また、本実施の形態のプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。   Further, the program of the present embodiment may be configured to be stored by being stored on a computer connected to a network such as the Internet and downloaded via the network.

以上、本発明を実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。   As described above, the present invention has been described using the embodiment, but various changes or improvements can be added to the above embodiment.

図17は、そうした変更例にかかる自己位置補正部19の詳細な機能構成を示すブロック図である。自己位置補正部19の線環境地図DB190は、移動ロボットが移動可能な領域における壁や障害物などの境界線が点集合データで示された点環境地図にかえて移動ロボットが移動可能な領域における壁や障害物などの境界線が線データで示された線環境地図を保持している。この線環境地図DB190は、HDDやメモリ等の記憶媒体に記憶されている。自己位置補正部19は、さらに点環境地図生成部192を有している。点環境地図生成部192は、線環境地図DB190に保持されている線環境地図から予め定められた密度の点で示された点環境地図を生成する。点環境地図読出部182は、この点環境地図から位置情報に示される自己位置周辺の点環境地図を読み出す。   FIG. 17 is a block diagram showing a detailed functional configuration of the self-position correcting unit 19 according to such a modification. The line environment map DB 190 of the self-position correcting unit 19 is arranged in an area where the mobile robot can move in place of the point environment map in which boundaries such as walls and obstacles in the area where the mobile robot can move are indicated by the point set data. It holds a line environment map in which boundary lines such as walls and obstacles are indicated by line data. The line environment map DB 190 is stored in a storage medium such as an HDD or a memory. The self-position correcting unit 19 further includes a point environment map generating unit 192. The point environment map generation unit 192 generates a point environment map indicated by points having a predetermined density from the line environment map held in the line environment map DB 190. The point environment map reading unit 182 reads the point environment map around the self-location indicated by the position information from the point environment map.

なお、読み出した点環境地図からの不要点除去から位置情報修正までの処理(図14のステップS104〜S120)および対応点検索処理(図15の処理)については実施の形態1と同様に行われる。   Note that the processing (steps S104 to S120 in FIG. 14) from the unnecessary point removal to the position information correction from the read point environment map and the corresponding point search processing (processing in FIG. 15) are performed in the same manner as in the first embodiment. .

また、線環境地図DB190に保存されている線環境地図から不要点除去処理を行うように構成してもよい。点環境地図から不要点を除去する場合には、上述のように、一度10cm間隔の点の間を直線で接続し関連づけてから不要点除去処理をしているが、線環境地図の場合も同様に不要点除去を行うことができる。
図18は、線環境地図のを説明するための図である。図18に示すように、線環境地図は、線の始点および終点(点の間隔は任意とする)とこれを関連づけることによって線データが構成されている。このため、不要点除去部183は、図8、9を用いて説明した点環境地図から不要点除去を行う手法と同様に、LRS17のレーザ光(直線P34)と、線データ(直線P12)の交点P0を計算し、交点P0と原点P3の距離、すなわち深さ(rp)によって隠面の線であるか否かを判別している。図19は、不要点除去後の線環境地図の一例を示す説明図である。従って、線環境地図からの不要点除去も可能となる。
Moreover, you may comprise so that an unnecessary point removal process may be performed from the line environment map preserve | saved at line environment map DB190. When removing unnecessary points from the point environment map, as described above, the unnecessary point removal processing is performed after connecting and connecting the points at intervals of 10 cm once with straight lines. In addition, unnecessary points can be removed.
FIG. 18 is a diagram for explaining a line environment map. As shown in FIG. 18, in the line environment map, line data is configured by associating the start point and end point of the line (the interval between the points is arbitrary) with this. For this reason, the unnecessary point removing unit 183 performs the laser light (straight line P 3 P 4 ) of the LRS 17 and the line data (straight line) in the same manner as the method of removing unnecessary points from the point environment map described with reference to FIGS. The intersection point P 0 of P 1 P 2 ) is calculated, and whether or not the line is a hidden surface line is determined by the distance between the intersection point P 0 and the origin P 3 , that is, the depth (r p ). FIG. 19 is an explanatory diagram showing an example of a line environment map after unnecessary points are removed. Therefore, unnecessary points can be removed from the line environment map.

移動ロボット1の全体構成を示す図である。1 is a diagram illustrating an overall configuration of a mobile robot 1. 自己位置補正部18の詳細な機能構成を示すブロック図である。3 is a block diagram showing a detailed functional configuration of a self-position correcting unit 18. FIG. 点環境地図を説明するための図である。It is a figure for demonstrating a point environment map. 点環境地図読出部182の処理を説明するための図である。It is a figure for demonstrating the process of the point environment map reading part. 移動ロボット1の位置および姿勢(xR,yR,θR)とLRS17の位置および姿勢(xL,yL,θL)の関係を示す図である。Position of the mobile robot 1 and the orientation (x R, y R, θ R) and the position of LRS17 and orientation (x L, y L, θ L) is a diagram showing the relationship. 不要点除去部183の処理を説明するための図である。It is a figure for demonstrating the process of the unnecessary point removal part. グローバル座標系からfs座標系に変換する処理を説明するための図である。It is a figure for demonstrating the process which converts into a fs coordinate system from a global coordinate system. レーザー光の照射方向を示す直線式を算出する処理を説明するための図である。It is a figure for demonstrating the process which calculates the linear type which shows the irradiation direction of a laser beam. 直線P12と直線P34の交点P0を示す図である。Is a diagram showing an intersection point P 0 of the straight line P 1 P 2 and the straight line P 3 P 4. 座標変換を説明するための図である。It is a figure for demonstrating coordinate transformation. 周囲環境情報を説明するための図である。It is a figure for demonstrating surrounding environment information. 対象点特定部186の処理を具体的に説明するための図である。It is a figure for demonstrating the process of the target point specific | specification part 186 concretely. ICPアルゴリズムを説明するための図である。It is a figure for demonstrating an ICP algorithm. ICPアルゴリズムを説明するための図である。It is a figure for demonstrating an ICP algorithm. ICPアルゴリズムを説明するための図である。It is a figure for demonstrating an ICP algorithm. ICPアルゴリズムを説明するための図である。It is a figure for demonstrating an ICP algorithm. 自己位置補正部18による自己位置補正処理を示すフローチャートである。4 is a flowchart showing self-position correction processing by a self-position correcting unit 18; 対応点検索処理(ステップS112)における誤差評価関数算出部187の詳細な処理を示すフローチャートである。It is a flowchart which shows the detailed process of the error evaluation function calculation part 187 in a corresponding point search process (step S112). 自己位置補正部18のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of a self-position correcting unit 18. FIG. 自己位置補正部19の詳細な機能構成を示すブロック図である。3 is a block diagram showing a detailed functional configuration of a self-position correcting unit 19. FIG. 線環境地図を説明するための図である。It is a figure for demonstrating a line environment map. 不要点除去後の線環境地図の一例を示す説明図である。It is explanatory drawing which shows an example of the line environment map after unnecessary point removal.

符号の説明Explanation of symbols

1 移動ロボット
10 走行制御部
11 モーター
12 車輪
13 位置推定センサ
14 光ファイバジャイロ
15 エンコーダ
16 自己位置推定部
17 LRS
18 自己位置補正部
51 CPU
52 ROM
53 RAM
57 通信I/F
62 バス
180 位置情報取得部
181 点環境地図DB
182 点環境地図読出部
183 不要点除去部
184 周囲環境情報取得部
185 周囲環境情報調整部
186 対象点特定部
187 誤差評価関数算出部
188 位置補正部
190 線環境地図DB
192 点環境地図生成部
DESCRIPTION OF SYMBOLS 1 Mobile robot 10 Travel control part 11 Motor 12 Wheel 13 Position estimation sensor 14 Optical fiber gyro 15 Encoder 16 Self-position estimation part 17 LRS
18 Self-position correction unit 51 CPU
52 ROM
53 RAM
57 Communication I / F
62 Bus 180 Location information acquisition unit 181 Point environment map DB
182 Point environment map reading unit 183 Unnecessary point removal unit 184 Ambient environment information acquisition unit 185 Ambient environment information adjustment unit 186 Target point specification unit 187 Error evaluation function calculation unit 188 Position correction unit 190 Line environment map DB
192 point environment map generator

Claims (6)

自律移動可能な移動ロボットであって、
当該移動ロボットの移動量および移動方向を検知する移動センサと、
前記移動センサによる検出結果に基づいて、自己位置を推定する自己位置推定手段と、
当該移動ロボットが移動可能な領域を点集合データで示す点環境地図を保持する点環境地図保持手段と、
当該移動ロボットの周囲の移動可能な領域を検知する経路センサと、
前記経路センサによる検出結果を点集合データで示す周囲環境情報を生成する周囲環境情報生成手段と、
前記周囲環境情報中の所定の点データに対応する点データであって、前記点環境地図中の点データである対応点データの候補を、前記点環境地図中の点データのうち前記所定の点データを基準として予め定められた閾値以下の距離の領域に存在する点データに限定する検索対象点限定手段と、
前記検索対象点限定手段により限定された点を前記所定の点データに対する対応点データとして、前記点環境地図中の各点データと、前記周囲環境情報中の対応点データとの間の位置ずれ量分前記自己位置推定手段により推定された前記自己位置を補正する位置補正手段と、
を備えたことを特徴とする移動ロボット。
A mobile robot capable of autonomous movement,
A movement sensor for detecting the amount and direction of movement of the mobile robot;
Self-position estimating means for estimating a self-position based on a detection result by the movement sensor;
Point environment map holding means for holding a point environment map indicating the area in which the mobile robot can move with point set data;
A path sensor for detecting a movable area around the mobile robot;
Ambient environment information generating means for generating ambient environment information indicating the detection result by the route sensor as point set data;
The point data corresponding to the predetermined point data in the surrounding environment information, the corresponding point data candidate being the point data in the point environment map is selected as the predetermined point among the point data in the point environment map. Search target point limiting means for limiting data to point data existing in an area of a distance equal to or smaller than a predetermined threshold with reference to data;
The amount of positional deviation between each point data in the point environment map and the corresponding point data in the surrounding environment information, with the points limited by the search target point limiting means as corresponding point data for the predetermined point data Position correcting means for correcting the self position estimated by the self position estimating means;
A mobile robot characterized by comprising:
前記移動ロボットが移動可能な領域を線データで示す線環境地図を保持する線環境地図保持手段と、
前記線環境地図保持手段が保持する前記線環境地図から所定の密度の点で示された前記点環境地図を生成する点環境地図生成手段と
をさらに備え、
前記点環境地図保持手段は、前記点環境地図生成手段により生成された前記点データを保持することを特徴とする請求項1に記載の移動ロボット。
A line environment map holding means for holding a line environment map indicating the area in which the mobile robot can move with line data;
A point environment map generating means for generating the point environment map indicated by points of a predetermined density from the line environment map held by the line environment map holding means;
The mobile robot according to claim 1, wherein the point environment map holding unit holds the point data generated by the point environment map generation unit.
前記周囲環境情報生成手段により生成された前記点集合データの点データの間隔が、前記点環境地図保持手段が保持する前記点環境地図中の点集合データの点データの間隔に比べて狭い場合に、前記周囲環境情報中の点データの間隔が前記点環境地図中の点データの間隔になるよう前記点データを間引く周囲環境情報調整手段をさらに備えたことを特徴とする請求項1または2に記載の移動ロボット。   When the interval of the point data of the point set data generated by the ambient environment information generating unit is narrower than the interval of the point data of the point set data in the point environment map held by the point environment map holding unit 3. The ambient environment information adjusting means for thinning out the point data so that the interval of the point data in the ambient environment information becomes the interval of the point data in the point environment map. The described mobile robot. ICPアルゴリズム(Iterative Closest Point)を用いて前記検索対象点限定手段により限定された後の前記点環境地図中の各点データと、前記対応点データとの間の位置ずれ量を算出する位置ずれ量算出手段をさらに備え、
前記自己位置補正手段は、前記位置ずれ量算出手段により算出された前記位置ずれ量分前記自己位置推定手段により推定された前記自己位置を補正することを特徴とする請求項1から3のいずれか一項に記載の移動ロボット。
A positional deviation amount for calculating a positional deviation amount between each point data in the point environment map and the corresponding point data after being limited by the search target point limiting means using an ICP algorithm (Iterative Closest Point) A calculation means,
4. The self-position correcting unit corrects the self-position estimated by the self-position estimating unit by the amount of the positional deviation calculated by the positional deviation amount calculating unit. The mobile robot according to one item.
自律移動可能な移動ロボットの自己位置補正方法であって、
移動センサが当該移動ロボットの移動量および移動方向を検知する第1検知ステップと、
前記移動センサによる検出結果に基づいて、自己位置を推定する自己位置推定ステップと、
経路センサが当該移動ロボットの周囲の移動可能な領域を検知する第2検知ステップと、
前記経路センサによる検出結果を点集合データで示す周囲環境情報を生成する周囲環境情報生成ステップと、
前記周囲環境情報中の所定の点データに対応する点データであって、当該移動ロボットが移動可能な領域を点集合データで示す点環境地図を保持する点環境地図保持手段が保持する点環境地図中の点データである対応点データの候補を、前記点環境地図中の点データのうち前記所定の点データを基準として予め定められた閾値以下の距離の領域に存在する点データに限定する検索対象点限定ステップと、
前記検索対象点限定ステップにおいて限定された点を前記所定の点データに対する対応点データとして、前記点環境地図中の各点データと、前記周囲環境情報中の対応点データとの間の位置ずれ量分前記自己位置推定ステップにおいて推定された前記自己位置を補正する位置補正ステップと、
を有することを特徴とする自己位置補正方法。
A self-position correction method for a mobile robot capable of autonomous movement,
A first detection step in which a movement sensor detects a movement amount and a movement direction of the mobile robot;
A self-position estimation step for estimating a self-position based on a detection result by the movement sensor;
A second detection step in which a route sensor detects a movable area around the mobile robot;
Ambient environment information generation step for generating ambient environment information indicating the detection result by the route sensor as point set data;
A point environment map held by a point environment map holding means for holding point environment maps corresponding to predetermined point data in the surrounding environment information and holding a point environment map indicating, as point set data, an area to which the mobile robot can move Search for limiting corresponding point data candidates that are intermediate point data to point data existing in a region of a distance equal to or smaller than a predetermined threshold with respect to the predetermined point data as a reference among the point data in the point environment map A target point limiting step;
The amount of displacement between each point data in the point environment map and the corresponding point data in the surrounding environment information, with the points limited in the search target point limiting step as corresponding point data for the predetermined point data A position correcting step for correcting the self position estimated in the self position estimating step;
A self-position correcting method characterized by comprising:
自律移動可能な移動ロボットの自己位置補正処理をコンピュータに実行させる自己位置補正プログラムであって、
当該移動ロボットの移動量および移動方向を検知する移動センサによる検出結果に基づいて、自己位置を推定する自己位置推定ステップと、
当該移動ロボットの周囲の移動可能な領域を検知する経路センサによる検出結果を点集合データで示す周囲環境情報を取得する周囲環境情報取得ステップと、
前記周囲環境情報中の所定の点データに対応する点データであって、当該移動ロボットが移動可能な領域を点集合データで示す点環境地図を保持する点環境地図保持手段が保持する点環境地図中の点データである対応点データの候補を、前記点環境地図中の点データのうち前記所定の点データを基準として予め定められた閾値以下の距離の領域に存在する点データに限定する検索対象点限定ステップと、
前記検索対象点限定ステップにおいて限定された点を前記所定の点データに対する対応点データとして、前記点環境地図中の各点データと、前記周囲環境情報中の対応点データとの間の位置ずれ量分前記自己位置推定ステップにおいて推定された前記自己位置を補正する位置補正ステップと、
を有することを特徴とする自己位置補正プログラム。
A self-position correction program for causing a computer to execute self-position correction processing of a mobile robot capable of autonomous movement,
A self-position estimation step for estimating a self-position based on a detection result by a movement sensor that detects a movement amount and a movement direction of the mobile robot;
Ambient environment information acquisition step of acquiring ambient environment information indicating a detection result by a path sensor that detects a movable area around the mobile robot as point set data;
A point environment map held by a point environment map holding means for holding point environment maps corresponding to predetermined point data in the surrounding environment information and holding a point environment map indicating, as point set data, an area to which the mobile robot can move Search for limiting corresponding point data candidates that are intermediate point data to point data existing in a region of a distance equal to or smaller than a predetermined threshold with respect to the predetermined point data as a reference among the point data in the point environment map A target point limiting step;
The amount of displacement between each point data in the point environment map and the corresponding point data in the surrounding environment information, with the points limited in the search target point limiting step as corresponding point data for the predetermined point data A position correcting step for correcting the self position estimated in the self position estimating step;
A self-position correction program characterized by comprising:
JP2007094623A 2007-03-30 2007-03-30 Mobile robot, and self-location correction method and program Pending JP2008250906A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007094623A JP2008250906A (en) 2007-03-30 2007-03-30 Mobile robot, and self-location correction method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007094623A JP2008250906A (en) 2007-03-30 2007-03-30 Mobile robot, and self-location correction method and program

Publications (1)

Publication Number Publication Date
JP2008250906A true JP2008250906A (en) 2008-10-16

Family

ID=39975730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007094623A Pending JP2008250906A (en) 2007-03-30 2007-03-30 Mobile robot, and self-location correction method and program

Country Status (1)

Country Link
JP (1) JP2008250906A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Moving robot system and control method therefor
JP2010127849A (en) * 2008-11-28 2010-06-10 Sogo Keibi Hosho Co Ltd Moving body detecting device and method
JP2011134191A (en) * 2009-12-25 2011-07-07 Honda Motor Co Ltd Orientation measuring device, orientation measuring system, orientation measuring method, and orientation measuring program
JP2011204149A (en) * 2010-03-26 2011-10-13 Daihatsu Motor Co Ltd Own vehicle location recognition device
JP2011248648A (en) * 2010-05-27 2011-12-08 Toyota Central R&D Labs Inc Moving body
US8594860B2 (en) 2010-11-01 2013-11-26 Samsung Electronics Co., Ltd. Apparatus and method with mobile relocation
CN103984343A (en) * 2014-05-15 2014-08-13 北京理工大学 Networked cooperative control method for multiple unmanned mobile platforms
JP2014523572A (en) * 2011-06-24 2014-09-11 ウニヴェルシテ・ダンジェ Generating map data
JP2016081327A (en) * 2014-10-17 2016-05-16 村田機械株式会社 Quantity-of-movement estimation system, autonomous moving entity, and quantity-of-movement estimation method
EP3021083A1 (en) 2014-11-12 2016-05-18 Murata Machinery, Ltd. Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
JP2016109650A (en) * 2014-12-10 2016-06-20 株式会社デンソー Position estimation system, position estimation method, and position estimation program
WO2017037753A1 (en) * 2015-08-28 2017-03-09 日産自動車株式会社 Vehicle position estimation device, vehicle position estimation method
JP2017083230A (en) * 2015-10-26 2017-05-18 トヨタ自動車株式会社 Self position estimation method
CN107063305A (en) * 2017-04-10 2017-08-18 江苏东方金钰智能机器人有限公司 With inertial navigation, the method for the hanging trailing wheel odometer error of pressure sensor amendment descending
WO2018020589A1 (en) * 2016-07-26 2018-02-01 日産自動車株式会社 Self-position estimation method and self-position estimation apparatus
WO2018020588A1 (en) * 2016-07-26 2018-02-01 日産自動車株式会社 Self-position estimation method and self-position estimation device
KR20180016567A (en) 2015-07-13 2018-02-14 닛산 지도우샤 가부시키가이샤 Magnetic position estimating apparatus and magnetic position estimating method
JP2018024294A (en) * 2016-08-09 2018-02-15 日産自動車株式会社 Own position estimation method and own position estimation apparatus
KR20180031030A (en) 2015-07-24 2018-03-27 닛산 지도우샤 가부시키가이샤 Magnetic position estimating apparatus and magnetic position estimating method
EP3343173A4 (en) * 2015-08-28 2018-11-07 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
JP2018206038A (en) * 2017-06-02 2018-12-27 株式会社Ihi Point group data processing device, mobile robot, mobile robot system, and point group data processing method
US10260889B2 (en) 2015-05-28 2019-04-16 Nissan Motor Co., Ltd. Position estimation device and position estimation method
KR20190045220A (en) 2016-09-27 2019-05-02 닛산 지도우샤 가부시키가이샤 Magnetic position estimation method and magnetic position estimation apparatus
JP2020125960A (en) * 2019-02-04 2020-08-20 株式会社豊田中央研究所 Moving object position estimating device and moving object position estimating program
CN112549072A (en) * 2019-09-10 2021-03-26 苏州科瓴精密机械科技有限公司 Robot slip detection method
JP2021056017A (en) * 2019-09-27 2021-04-08 沖電気工業株式会社 Synthetic processing apparatus, synthetic processing system and synthetic processing method
US11537140B2 (en) 2017-09-04 2022-12-27 Nidec-Shimpo Corporation Mobile body, location estimation device, and computer program
JP2023022138A (en) * 2017-02-15 2023-02-14 パイオニア株式会社 Optical scanning device and control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63213005A (en) * 1987-03-02 1988-09-05 Hitachi Ltd Guiding method for mobile object
JPH06282798A (en) * 1993-03-30 1994-10-07 Fujitsu Ten Ltd Target searching device and alarm device and automatic tracking device using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63213005A (en) * 1987-03-02 1988-09-05 Hitachi Ltd Guiding method for mobile object
JPH06282798A (en) * 1993-03-30 1994-10-07 Fujitsu Ten Ltd Target searching device and alarm device and automatic tracking device using the same

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Moving robot system and control method therefor
JP2010127849A (en) * 2008-11-28 2010-06-10 Sogo Keibi Hosho Co Ltd Moving body detecting device and method
JP2011134191A (en) * 2009-12-25 2011-07-07 Honda Motor Co Ltd Orientation measuring device, orientation measuring system, orientation measuring method, and orientation measuring program
JP2011204149A (en) * 2010-03-26 2011-10-13 Daihatsu Motor Co Ltd Own vehicle location recognition device
JP2011248648A (en) * 2010-05-27 2011-12-08 Toyota Central R&D Labs Inc Moving body
US8594860B2 (en) 2010-11-01 2013-11-26 Samsung Electronics Co., Ltd. Apparatus and method with mobile relocation
JP2014523572A (en) * 2011-06-24 2014-09-11 ウニヴェルシテ・ダンジェ Generating map data
CN103984343A (en) * 2014-05-15 2014-08-13 北京理工大学 Networked cooperative control method for multiple unmanned mobile platforms
JP2016081327A (en) * 2014-10-17 2016-05-16 村田機械株式会社 Quantity-of-movement estimation system, autonomous moving entity, and quantity-of-movement estimation method
US10119804B2 (en) 2014-11-12 2018-11-06 Murata Machinery, Ltd. Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
EP3021083A1 (en) 2014-11-12 2016-05-18 Murata Machinery, Ltd. Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
JP2016095590A (en) * 2014-11-12 2016-05-26 村田機械株式会社 Movement amount estimation device, autonomous mobile body, and method of estimating movement amount
JP2016109650A (en) * 2014-12-10 2016-06-20 株式会社デンソー Position estimation system, position estimation method, and position estimation program
US10260889B2 (en) 2015-05-28 2019-04-16 Nissan Motor Co., Ltd. Position estimation device and position estimation method
KR20180016567A (en) 2015-07-13 2018-02-14 닛산 지도우샤 가부시키가이샤 Magnetic position estimating apparatus and magnetic position estimating method
US10145693B2 (en) 2015-07-13 2018-12-04 Nissan Motor Co., Ltd. Own-position estimation device and own-position estimation method
CN107924192B (en) * 2015-07-24 2019-03-19 日产自动车株式会社 Self-position estimating device and self-position estimate method
CN107924192A (en) * 2015-07-24 2018-04-17 日产自动车株式会社 Self-position estimating device and self-position presumption method
US10289120B2 (en) 2015-07-24 2019-05-14 Nissan Motor Co., Ltd. Self-position estimation device and self-position estimation method
EP3327532A4 (en) * 2015-07-24 2018-08-15 Nissan Motor Co., Ltd. Host-position estimation device and host-position estimation method
KR20180031030A (en) 2015-07-24 2018-03-27 닛산 지도우샤 가부시키가이샤 Magnetic position estimating apparatus and magnetic position estimating method
US10508923B2 (en) 2015-08-28 2019-12-17 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
CN107923758A (en) * 2015-08-28 2018-04-17 日产自动车株式会社 Vehicle location estimating device, vehicle location presumption method
JPWO2017037753A1 (en) * 2015-08-28 2018-02-22 日産自動車株式会社 Vehicle position estimation device and vehicle position estimation method
US10267640B2 (en) 2015-08-28 2019-04-23 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
EP3343173A4 (en) * 2015-08-28 2018-11-07 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
KR101926322B1 (en) 2015-08-28 2018-12-06 닛산 지도우샤 가부시키가이샤 Vehicle position estimating apparatus, vehicle position estimating method
KR101927038B1 (en) 2015-08-28 2018-12-07 닛산 지도우샤 가부시키가이샤 Vehicle position estimating apparatus, vehicle position estimating method
WO2017037753A1 (en) * 2015-08-28 2017-03-09 日産自動車株式会社 Vehicle position estimation device, vehicle position estimation method
CN107923758B (en) * 2015-08-28 2019-03-01 日产自动车株式会社 Vehicle location estimating device, vehicle location estimate method
JP2017083230A (en) * 2015-10-26 2017-05-18 トヨタ自動車株式会社 Self position estimation method
WO2018020589A1 (en) * 2016-07-26 2018-02-01 日産自動車株式会社 Self-position estimation method and self-position estimation apparatus
US10625746B2 (en) 2016-07-26 2020-04-21 Nissan Motor Co., Ltd. Self-position estimation method and self-position estimation device
CN109477724A (en) * 2016-07-26 2019-03-15 日产自动车株式会社 Self-position estimates method and self-position estimating device
KR20190031544A (en) 2016-07-26 2019-03-26 닛산 지도우샤 가부시키가이샤 Magnetic position estimation method and magnetic position estimation apparatus
JPWO2018020588A1 (en) * 2016-07-26 2019-03-28 日産自動車株式会社 Self-position estimation method and self-position estimation apparatus
JPWO2018020589A1 (en) * 2016-07-26 2019-03-28 日産自動車株式会社 Self-position estimation method and self-position estimation apparatus
CN109564098A (en) * 2016-07-26 2019-04-02 日产自动车株式会社 Self-position estimates method and self-position estimating device
KR20190028528A (en) 2016-07-26 2019-03-18 닛산 지도우샤 가부시키가이샤 Magnetic position estimation method and magnetic position estimation apparatus
CN109564098B (en) * 2016-07-26 2020-07-14 日产自动车株式会社 Self-position estimation method and self-position estimation device
CN109477724B (en) * 2016-07-26 2020-06-30 日产自动车株式会社 Self-position estimation method and self-position estimation device
WO2018020588A1 (en) * 2016-07-26 2018-02-01 日産自動車株式会社 Self-position estimation method and self-position estimation device
US11243080B2 (en) 2016-07-26 2022-02-08 Nissan Motor Co., Ltd. Self-position estimation method and self-position estimation device
EP3492870A4 (en) * 2016-07-26 2019-08-14 Nissan Motor Co., Ltd. Self-position estimation method and self-position estimation device
EP3492871A4 (en) * 2016-07-26 2019-09-04 Nissan Motor Co., Ltd. Self-position estimation method and self-position estimation apparatus
RU2715500C1 (en) * 2016-07-26 2020-02-28 Ниссан Мотор Ко.,Лтд. Method for self-position estimation and self-position estimation device
JP2018024294A (en) * 2016-08-09 2018-02-15 日産自動車株式会社 Own position estimation method and own position estimation apparatus
CN109791408A (en) * 2016-09-27 2019-05-21 日产自动车株式会社 Self-position estimates method and self-position estimating device
KR20190045220A (en) 2016-09-27 2019-05-02 닛산 지도우샤 가부시키가이샤 Magnetic position estimation method and magnetic position estimation apparatus
US11321572B2 (en) 2016-09-27 2022-05-03 Nissan Motor Co., Ltd. Self-position estimation method and self-position estimation device
JP2023022138A (en) * 2017-02-15 2023-02-14 パイオニア株式会社 Optical scanning device and control method
CN107063305A (en) * 2017-04-10 2017-08-18 江苏东方金钰智能机器人有限公司 With inertial navigation, the method for the hanging trailing wheel odometer error of pressure sensor amendment descending
JP2018206038A (en) * 2017-06-02 2018-12-27 株式会社Ihi Point group data processing device, mobile robot, mobile robot system, and point group data processing method
JP7032062B2 (en) 2017-06-02 2022-03-08 株式会社Ihi Point cloud data processing device, mobile robot, mobile robot system, and point cloud data processing method
US11537140B2 (en) 2017-09-04 2022-12-27 Nidec-Shimpo Corporation Mobile body, location estimation device, and computer program
JP2020125960A (en) * 2019-02-04 2020-08-20 株式会社豊田中央研究所 Moving object position estimating device and moving object position estimating program
CN112549072A (en) * 2019-09-10 2021-03-26 苏州科瓴精密机械科技有限公司 Robot slip detection method
JP2021056017A (en) * 2019-09-27 2021-04-08 沖電気工業株式会社 Synthetic processing apparatus, synthetic processing system and synthetic processing method
JP7306192B2 (en) 2019-09-27 2023-07-11 沖電気工業株式会社 Synthesis processing device, synthesis processing system, and synthesis processing method

Similar Documents

Publication Publication Date Title
JP2008250906A (en) Mobile robot, and self-location correction method and program
US9274526B2 (en) Autonomous vehicle and method of estimating self position of autonomous vehicle
JP6760114B2 (en) Information processing equipment, data management equipment, data management systems, methods, and programs
JP2008250905A (en) Mobile robot, self-location correction method and self-location correction program
JP6354556B2 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, POSITION ESTIMATION PROGRAM
KR101619076B1 (en) Method of detecting and tracking moving object for mobile platform
JP6225889B2 (en) Vehicle position estimation apparatus and program
JP2007042095A (en) Method for detecting relative position of mobile unit by comparing scan of environment, mobile unit, computer program and computer readable data carrier
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
KR101775114B1 (en) System and method for simultaneous localization and mapping of mobile robot
KR20170088228A (en) Map building system and its method based on multi-robot localization
KR102547274B1 (en) Moving robot and method for estiating location of moving robot
JP2019537715A (en) Obstacle detection system and method
CN112880694B (en) Method for determining the position of a vehicle
JP2005528707A (en) Feature mapping between data sets
TWI772743B (en) Information processing device and mobile robot
KR102283773B1 (en) System for localization by accummulation of LiDAR scanned data use for a automatic driving car and method therefor
US20230071794A1 (en) Method and system for building lane-level map by using 3D point cloud map
JP2008134743A (en) Self-location recognition method
KR101738751B1 (en) Method and apparatus for localization of mobile robot using indoor magnetic field
JP2017211307A (en) Measuring device, measuring method, and program
JP6913339B2 (en) Movement locus calculation system, control method and program of movement locus calculation system
JP2022016685A (en) Measurement device, method for measurement, and program
JP2007263725A (en) Object determination device, method, and program
WO2018212284A1 (en) Measurement device, measurement method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120417