JP5427662B2 - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP5427662B2 JP5427662B2 JP2010065426A JP2010065426A JP5427662B2 JP 5427662 B2 JP5427662 B2 JP 5427662B2 JP 2010065426 A JP2010065426 A JP 2010065426A JP 2010065426 A JP2010065426 A JP 2010065426A JP 5427662 B2 JP5427662 B2 JP 5427662B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- robot
- map
- history
- route
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
- Control Of Position Or Direction (AREA)
Description
本発明は、ロボットシステムに関し、特に、通行可能領域と進入禁止領域を設定する技術に関する。 The present invention relates to a robot system, and more particularly to a technique for setting a passable area and an entry prohibition area.
ロボットが環境内を効率的に移動するためには、環境内の障害物などの位置を表す地図を保持し、その地図上での自身の位置・姿勢を求める必要がある。
これを実現する方法として、2次元平面をレーザで走査することで環境の幾何形状の計測が可能な距離センサをロボットに搭載し、走査面の高さでの環境の地図を作成して自律移動に用いることが一般的となっている。ただし、この地図は、ある高さでの地図であるため、例えば机などは、地図に反映されているのは脚の位置だけであり、地図からは机の天板部分とロボットの干渉の有無が判断できない、つまりは、通行可能な領域・通行不能な領域が地図上のどこであるかが判断できないことが起こりうる。 これに対応する方法としては、非特許文献1のように、環境中にある、机や設備のモデルを準備して、別途距離センサで作成しておいた地図に追加することで、ロボットが直接認識できない物体形状を地図に反映させ、物体がない領域を通行可能領域とする方法が挙げられる。環境中にある物体の幾何形状が予めわかっている場合に用いられる。
In order for the robot to move efficiently in the environment, it is necessary to hold a map indicating the position of an obstacle or the like in the environment and obtain its position / posture on the map.
To achieve this, the robot is equipped with a distance sensor capable of measuring the geometric shape of the environment by scanning a two-dimensional plane with a laser, creating an environment map at the height of the scanning plane, and moving autonomously. It has become common to use. However, since this map is a map at a certain height, for example, desks, etc., only the position of the legs is reflected in the map, and there is no interference between the top of the desk and the robot from the map Can not be determined, that is, it is not possible to determine where on the map the area that can be passed or the area that cannot be passed. As a method corresponding to this, as in Non-Patent Document 1, a model of a desk or equipment in the environment is prepared and added to a map created by a separate distance sensor, so that the robot directly An example is a method in which an unrecognizable object shape is reflected on a map so that a region without an object can be passed. Used when the geometry of an object in the environment is known in advance.
ロボットが移動する環境中の物体1つ1つの幾何形状の情報がない場合においても、ロボットが通行可能な領域、あるいは通行不能な領域を容易に設定できるロボットシステムの構築を課題とする。 It is an object of the present invention to construct a robot system that can easily set an area where a robot can pass or cannot pass even if there is no information about the geometric shape of each object in the environment where the robot moves.
レーザ距離センサを搭載したロボットを用い、通行可能な範囲の境、例えば壁面などに沿ってロボットを移動させる。この移動の際、距離センサによるセンサデータを記録しておき、これを環境の幾何形状を表す地図とマッチングすることで、環境中をロボットが移動したときの軌跡を求める。この軌跡の各点において、センサによる走査を行った場合に、レーザが地図上の障害物と交わる位置を求め、障害物との交わりが軌跡の内側にある場合は進入禁止領域、そうでない場合は通行可能領域と設定する。 Using a robot equipped with a laser distance sensor, the robot is moved along the boundary of the passable range, such as a wall surface. At the time of this movement, sensor data from the distance sensor is recorded, and this is matched with a map representing the geometric shape of the environment, thereby obtaining a trajectory when the robot moves in the environment. When scanning with a sensor at each point of this locus, the position where the laser intersects the obstacle on the map is obtained, and if the intersection with the obstacle is inside the locus, the entry prohibition area, otherwise Set as a passable area.
本発明の一態様においては、以下の構成を備える。即ち、環境中の障害物までの距離が計測可能な距離センサ部と距離センサデータと地図とを用いて位置・姿勢の推定を行う位置姿勢推定部と、与えられた経路に従って車体制御を行う経路追従制御部と、経路追従制御部の指令に従って動作する移動機構部と、操作者からの指示を受け取るためのリモコン入力取得部からなるロボットであって、位置推定部によって求められたロボット移動時の推定位置・姿勢データをもとに移動した経路の履歴を求める経路履歴生成部と、経路履歴による閉領域と環境地図を用い、閉領域内の障害物の有無を確認することで、閉領域が通行可能領域か進入禁止領域かを判定する通行可能領域・進入禁止領域生成部と、求められた各通行可能領域と進入禁止領域を統合して、地図全体での通行可能領域と進入禁止領域とを地図として求める通行可能領域・進入禁止領域統合部を備える。 One embodiment of the present invention includes the following configuration. In other words, a distance sensor unit that can measure the distance to an obstacle in the environment, a position / orientation estimation unit that estimates position / orientation using distance sensor data and a map, and a route that performs vehicle body control according to a given route A robot including a tracking control unit, a moving mechanism unit that operates according to a command from the path tracking control unit, and a remote control input acquisition unit for receiving an instruction from an operator. By using the route history generator that obtains the history of the route traveled based on the estimated position / posture data and the closed region and environment map based on the route history, the closed region Integrate the obtained passable area / entry prohibited area with the passable area / prohibited area generation part that determines whether it is a passable area or an entry-prohibited area. Comprising a passable area, no entry region integrating unit for obtaining the region as a map.
環境内にある設備などについて、通行可能領域・進入禁止領域の設定の時間や労力を削減する効果がある。 It has the effect of reducing the time and labor required to set the passable / prohibited areas for facilities in the environment.
以下、図面を用いて本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本実施例で想定するシステムの基本的な構成について述べる。通行可能領域・進入禁止領域を設定するロボットシステムの構成は図1のようになる。ロボットは、距離センサ部0001、位置姿勢推定部0002、移動機構制御部0003、移動機構部0004、リモコン入力取得部0005、経路履歴クロージング部0006、通行可能領域・進入禁止領域生成部0007、通行可能領域・進入禁止領域統合部0008、地図データ0009、推定位置・姿勢データ0010、そして生成した通行可能領域・進入禁止領域を保存するデータ領域0011から構成される。この図1においては、すべての機能をロボットに搭載しているが、機能の一部を遠隔の端末など移した構成としてもよい。この図1の一例として図2のロボットを想定し、以下ではこのロボットの構成に沿った説明を行う。 まず、図2のロボット2001の構成について述べる。ロボット2001は、通信線2002、プロセッサ2003、メモリ2004、リモコン2005、レーザ距離センサ2006、移動機構2007、記憶装置2008から構成される。本実施例では、移動機構として、車輪による、全方向移動が可能な移動機構を想定しているが、環境内を移動する効果が得られるのであれば、他の車輪移動機構、船舶、航空機、飛行船、無限軌道を備える車両、脚を備えるロボットなどの移動機構であってもよい。また、本実施例では、環境の幾何形状を計測するセンサとして、水平方向にレーザを走査しながら、照射したレーザ光が障害物から反射して返ってくるまでの時間の計測によってセンサから障害物までの距離を算出することで、2次元水平面における物体の幾何形状を計測するレーザ距離センサを想定する。しかし、この他のセンサとして、例えば、水平方向以外も走査することで物体の3次元の幾何形状を計測するレーザ距離センサ、物体をカメラで撮影した際の画像特徴量を複数野カメラで三角測量することで物体の3次元の幾何形状を計測するステレオカメラなど、幾何形状が計測可能であればそのセンサの方式は問わない。
The basic configuration of the system assumed in this embodiment will be described. The configuration of the robot system for setting the passable area and the entry prohibition area is as shown in FIG. The robot includes a
ロボット2001の記憶装置2008には、プログラムとして、OS2009、全体制御プログラム2010、レーザ距離センサ2006を用いて幾何形状データを取得するレーザ距離センサデータ取得プログラム2011、ユーザによるロボットの操縦のための入力と通行可能領域・進入禁止領域の教示開始・終了の入力を取得するリモコン入力取得プログラム2012、地図データ2018とレーザ距離センサ2006から得られる幾何形状データのマッチングによってロボットの位置と姿勢を求める位置姿勢推定プログラム2013、得られたリモコン入力に従って車体の制御を行うための移動機構制御プログラム2014、教示時に記録された経路の履歴から閉じた領域を生成する経路履歴クロージングプログラム2015、経路の履歴によって閉じられた領域について通行可能か進入禁止かを判定する通行可能領域・進入禁止領域生成プログラム2016、得られた通行可能領域と進入禁止領域を統合して最終的に有効な通行可能領域・進入禁止領域を求める通行可能領域・進入禁止領域統合プログラム2017が格納されている。 また、データとして、ロボットが自律移動する環境内の障害物の幾何形状を記録した地図データ2018、位置姿勢推定プログラム2013で推定した位置・姿勢を記録した推定位置・姿勢データ2019、推定位置・姿勢データをスプライン等で補間することで得られる経路履歴データ2020、ロボットと環境の干渉の有無の確認などに用いるロボットの形状データ2021が格納されている。
The
なお、図2では、プロセッサが、記憶装置のプログラムをメモリにロードし、プログラムを実行することで所定の処理を実現することを想定しているが、これと同等の働きをするのであれば、FPGA(Field Programmable Grid Array)やCPLD(Complex Programmable Logic Device)などのプログラマブルなハードウェアで実現してもよい。また、プログラムやデータは、CD-ROM等の記憶媒体から移してもよいし、ネットワーク経由で他の装置からダウンロードしてもよい。また、以上のハードウェアやソフトウェアは、実施形態に応じて、取捨選択してもよい。以上のハードウェア、ソフトウェアは以下で説明するロボットシステムの処理動作の動作主体として働くものとする。 In FIG. 2, it is assumed that the processor implements a predetermined process by loading a program of the storage device into the memory and executing the program. You may implement | achieve by programmable hardware, such as FPGA (Field Programmable Grid Array) and CPLD (Complex Programmable Logic Device). Further, the program and data may be transferred from a storage medium such as a CD-ROM, or may be downloaded from another device via a network. The above hardware and software may be selected according to the embodiment. It is assumed that the above hardware and software work as the operation subject of the processing operation of the robot system described below.
加えて、ロボットの構成要素については、各要素が有線の通信線にて接続されていることを想定しているが、通信が可能であれば無線であってもよい。また、通信が可能であれば、構成要素のうち、特定の要素のみが物理的に遠隔にあってもよい。 以上のロボット2001の運用例として、図5のように、5002で表される斜線部分に設備や家具、あるいは壁面やドアが配置された環境で、水平に180度の範囲を走査するレーザ距離センサ5004を備えるロボット5003を、5006の矢印で表される各経路に沿って、ユーザがリモコン操縦によってロボットを走らせた際に得られるロボットの推定位置・姿勢より通行可能領域・進入禁止領域を設定する例を想定して処理の流れを説明する。なお、ここでは、ユーザが、図5の各矢印で表される経路毎に、経路の始点にて、リモコンの教示開始ボタンを押し、終点で教示終了ボタンを押すことで、教示のためのロボットの移動中の位置・姿勢が、レーザ距離センサ2006より得られる幾何形状データと地図データ2018とのマッチングによって求められ、2019に記録されているものとする。 通行可能領域・進入禁止領域を求めるための全体の処理の流れを図3に示す。まず、地図データ2018、ロボットの推定位置・姿勢データ2019、ロボットの形状データ2021が読み込まれる。(3001)。また、このとき、ロボットの位置・姿勢データ2019に含まれる座標データは、線分で補間され、経路履歴データ2020として記録される。 続いて、この経路履歴毎にクロージング処理を行う(3002)。ここでのクロージング処理とは、各経路履歴毎に、始点と終点をつなぐ処理である。ロボットの形状データ2021をもとに、始点と終点の距離がロボットのサイズよりも小さいと判明した場合は、ロボットの通過が想定されない1つの領域とみなして、始点と終点とをつなぎ、閉じた領域とする。 経路履歴の始点と終点がロボットのサイズより大きい場合は、クロージングが行われず、閉じてない経路履歴が残ることとなる。このような閉じてない経路履歴がある場合は(3003)、閉じられてない経路履歴を地図上で強調するようにディスプレイ2022に表示し、ユーザに警告する(3011)。ユーザは警告に従い、キーボードやマウスなどの入力機器2023を用い、経路履歴が閉じていない部分について、閉じてよいならば、始点や終点位置を移動させて、距離がロボットサイズ以下となるようにして、クロージングを行う。 また、閉じられた経路履歴について、経路履歴同士で交わる部分があると判定された場合においても(3004)、ユーザへの警告を出す(3011)。この場合も先と同様に警告に従い、交差している部分について、交差をなくすように、入力機器2023を用いて修正する。
In addition, the components of the robot are assumed to be connected by wired communication lines, but may be wireless as long as communication is possible. Further, if communication is possible, only a specific element among the constituent elements may be physically remote. As an example of the operation of the
続いて、各経路履歴毎に通行可能領域・進入禁止領域の判定を行う(3005)。この判定処理の詳細を図4に示す。また、判定処理の例を図6に示す。処理3005の処理開始後、まず、経路履歴に沿ってロボットを走らせながらセンサで計測を行った場合に得られるセンサデータのシミュレーションを行う(4001)。ここでのシミュレーションとは、経路履歴上の各位置・姿勢でセンサによる計測を行うことを想定して、センサより照射されるレーザを模した線分を、センサの計測角度範囲分だけ、センサの光学中心から地図の端までを伸ばしていき、このとき各方向に伸ばされる線分が地図上の障害物と交わる箇所、各経路履歴と交わる箇所を記録することであるとする。
Subsequently, a passable area / entry prohibited area is determined for each route history (3005). Details of this determination processing are shown in FIG. An example of the determination process is shown in FIG. After the
続いて、各経路履歴において、内側の判定を行う(4002)。これは、ある経路履歴について処理4001で得られる線分が、当該経路履歴と交差する回数を用いて判定を行う。ロボット位置も交点とみなして交差回数に含めるとしたときに、ロボット位置から地図の端まで伸ばした線分が経路履歴と交差する回数が奇数回か偶数回かを判定し、偶数回ならば、レーザをなす線分のうち、交わる回数が奇数番目から偶数番目となるまでの範囲を経路履歴の内側と判定し、また交差回数が奇数回ならば、レーザをなす線分のうち、交わる回数が偶数番目から奇数番目となるまでの範囲を経路履歴の内側と判定する。例えば、経路履歴6011についてシミュレーション4001を行った際、センサの位置・姿勢6007でセンサによる一回の走査に含まれるデータとして、線分6005と線分6009が得られたとする。線分6005と経路履歴6011は、点6005と点6004で交差回数2回となる。交差回数が偶数のため、線分の始点6006から交点6004までが内側と判定される。同様に、線分6009と経路履歴6011は、交差回数3回で点6008と6010とで交わる。交差回数が奇数のため、線分の始点6006から交点6008までが外側、6008から6010までが内側と判定される。同様の処理を経路履歴上の各位置姿勢において、センサの計測範囲分、経路履歴一周分行う。
Subsequently, inside determination is performed in each route history (4002). This is determined using the number of times that the line segment obtained in the
続いて、経路履歴の内側にある他の経路履歴の検出を行う(4004)。これは、ある経路履歴について処理4001で得られる線分が、他の経路履歴と交差する回数を用いて判定を行う。交差する回数が奇数回か偶数回かを判定し、奇数回ならば、レーザをなす線分のうち、交わる回数が偶数番目から奇数番目となるまでの範囲を他の経路履歴の内側と判定し、また交差回数が偶数回ならば、レーザをなす線分のうち、交わる回数が奇数番目から偶数番目となるまでの範囲を他の経路履歴の内側と判定する。ここまでで、各経路履歴毎に他の経路履歴を除く内側の領域が求められる。
Subsequently, another route history inside the route history is detected (4004). This is determined using the number of times that the line segment obtained in the
次に、ここまでで求められた経路履歴の内側の領域が、通行可能領域か進入禁止領域かを判定する処理を行う(4003)。この処理は、ある経路履歴について処理4001で得られる線分のうち、他の経路履歴に含まれない範囲の線分と地図上の障害物と交点を検出する。この交点が1つでもあれば、処理4004に進み、経路履歴の内側の領域かつ他の経路履歴を除く範囲が進入禁止領域と設定され(4004)、そうでなければ同領域は通行可能領域として設定される(4005)。例えば、経路履歴6013におけるセンサシミュレーション時に得られる線分6003が得られたとすると、この線分が経路履歴の内側となるのは、点6013から6014までの範囲となる。この範囲の線分は点6001にて地図上の障害物と交わっていることが検出され、経路履歴6013の内側は進入禁止領域として設定される。ここまでで、経路履歴内の他の経路履歴による領域を除く領域が通行可能領域か、進入禁止領域なのかが求められる。 続いて、図6で表される地図全体が一旦進入禁止領域として設定され(3006)、また、経路履歴による領域のうち、通行可能領域と判定された領域と進入禁止領域と判定された領域とが地図上に上書きされる形で順にそれぞれ設定される(3007、3008)。以上により、図6で表された地図の通行可能領域は図7の斜線部、進入禁止領域は図7で斜線部以外の領域のように求められる。 なお、本実施例においては、経路履歴の内側を求めるための前処理として、仮想的なセンサより発した線分と地図上との障害物の交点を求め、これを用いて内側を求めているが、地図上を一方向に走査していく線分と障害物との交点を求め、これを用いて同様の方法により内側を判定してもよい。
Next, a process of determining whether the area inside the route history obtained so far is a passable area or an entry prohibited area is performed (4003). This process detects a line segment in a range not included in the other route history, an obstacle on the map, and an intersection among the line segments obtained in the
実施例1では、ロボットを環境内で走行させ、運用する前の準備として、通行可能領域・進入禁止領域を設定する方法について述べた。以下では、得られた通行可能領域を用い、ロボット運用時における位置推定の異常を検出し、ユーザに警告するシステムの構成について述べる。 In the first embodiment, the method for setting the passable area and the entry prohibition area is described as preparation before the robot travels in the environment and is operated. In the following, the configuration of a system that uses the obtained passable area to detect an abnormality in position estimation during robot operation and warn the user will be described.
プログラムが開始されると、まず、通行可能領域内でのセンサデータシミュレーションが行われる(8001)。ここでのセンサデータシミュレーションとは、地図上のある位置・姿勢でセンサによる計測を行うと仮定して、レーザを模した線分を、センサの計測角度範囲・計測距離範囲分だけ、センサの光学中心から伸ばしていき、線分と地図上の障害物がはじめに交わる位置を求める処理である。この処理を、ロボットが取りうる位置・姿勢のすべてについて行う。 When the program is started, first, sensor data simulation is performed in the passable area (8001). The sensor data simulation here assumes that the sensor measures at a certain position / orientation on the map, and the sensor's optical line is simulated by the sensor's measurement angle range and measurement distance range. It is a process of finding the position where the line segment and the obstacle on the map first meet, extending from the center. This process is performed for all positions and postures that the robot can take.
続いて、予想マッチング割合の算出を行う(8002)。ここでの予想マッチング割合とは、処理8001で求めた、障害物と線分との交点の数が全線分数に占める割合であり、ロボットがある位置姿勢で計測を行いってセンサデータと地図とのマッチングにもとづく位置姿勢推定を行った場合に地図と重なるセンサデータの数がセンサデータ全体の数に占める割合に相当する。この処理を、ロボットが取りうる位置・姿勢毎に求め、テーブルに記録する。
Subsequently, an expected matching ratio is calculated (8002). The predicted matching ratio here is the ratio of the number of intersections between the obstacle and the line segment obtained in the
次に、ロボットを目的地に自律移動させるための準備として、経路計画を行う(8003)。 Next, as a preparation for autonomously moving the robot to the destination, route planning is performed (8003).
続いて、ロボットは、レーザ距離センサを用いて環境の計測を行う(8004)。 Subsequently, the robot measures the environment using the laser distance sensor (8004).
得られたレーザ距離センサによるセンサデータと予め準備しておいた環境の地図とのマッチングによるロボットの位置推定が行われる(8005)。マッチング手法としては、SSD(Sum of Squared Difference)やICP(Iterative Closest Point)など、手法を問わないが、ここではICPの利用を想定し、マッチングにより地図上でのロボットの位置姿勢が求められるものとする。この位置姿勢を合せて推定位置と呼ぶものとする。 The position of the robot is estimated by matching the sensor data obtained by the obtained laser distance sensor with an environment map prepared in advance (8005). As a matching method, any method such as SSD (Sum of Squared Difference) or ICP (Iterative Closest Point) can be used. And The position and orientation are collectively referred to as an estimated position.
次に、得られた推定位置に合せて、センサデータを地図上に配置し、地図に重なるセンサデータの数が、センサデータ数全体に占める割合を実マッチング割合として算出する(8006)。 Next, sensor data is arranged on the map in accordance with the estimated position obtained, and the ratio of the number of sensor data overlapping the map to the total number of sensor data is calculated as an actual matching ratio (8006).
次に、テーブルより、推定位置に最も距離が短く、角度の差が小さい位置姿勢のときの予想マッチング割合を参照し(8007)、実マッチング割合との差の絶対値が、予め定義した許容値より大きいかどうかの判定を行う(8008)。 Next, referring to the table, the expected matching ratio when the estimated position is the shortest distance and the angle difference is the smallest is shown (8007), and the absolute value of the difference from the actual matching ratio is a predefined allowable value. It is determined whether it is larger (8008).
処理8008による判定により、差の絶対値が許容値より大きい場合は、環境変化など、なんらかの異常が生じたとみなし、ユーザに警告を出し(8012)、ロボットを停車させる(8011)。 If the absolute value of the difference is larger than the allowable value as determined by the processing 8008, it is considered that some abnormality such as an environmental change has occurred, a warning is given to the user (8012), and the robot is stopped (8011).
一方、差の絶対値が許容値より小さい場合は、処理を進め、推定位置と目的地との比較により、目的地に到着したと判定された場合(8010)は停車させ(8011)、到着していない場合は目的地に向かう経路に追従するように移動機構を制御する(8009)。 On the other hand, if the absolute value of the difference is smaller than the allowable value, the process proceeds. If it is determined that the destination has arrived by comparison between the estimated position and the destination (8010), the vehicle stops (8011) and arrives. If not, the moving mechanism is controlled so as to follow the route toward the destination (8009).
0001…距離センサ部、0002…位置推定部、0003…移動機構制御部、0004…移動機構部、0005…リモコン入力取得部、0006…経路履歴クロージング部、0007…通行可能領域・進入禁止領域生成部、0008…通行可能領域・進入禁止領域統合部、0009…地図データ、0010…推定位置・姿勢データ、0011…通行可能領域・進入禁止領域データ
DESCRIPTION OF
Claims (3)
位置推定部によって求められたロボット移動時の推定位置・姿勢データをもとに移動した経路の履歴を求める経路履歴生成部と、経路履歴による閉領域と環境地図を用い、閉領域内の障害物の有無を確認することで、閉領域が通行可能領域か進入禁止領域かを判定する通行可能領域・進入禁止領域生成部と、求められた各通行可能領域と進入禁止領域を統合して、地図全体での通行可能領域と進入禁止領域とを地図として求める通行可能領域・進入禁止領域統合部を備えることを特徴とするロボットシステム。 Distance sensor unit that can measure the distance to obstacles in the environment, position / orientation estimation unit that estimates the position / orientation using distance sensor data and map, and path tracking control that performs vehicle body control according to the given route A robot system comprising: a moving unit that operates according to a command from the path following control unit; and a remote control input obtaining unit for receiving an instruction from the operator,
Obstacles in the closed area using the path history generator that obtains the history of the route traveled based on the estimated position / posture data at the time of robot movement obtained by the position estimator, and the closed area and environment map based on the path history By checking the presence / absence of a closed area, it is possible to determine whether the closed area is a passable area or an entry-prohibited area. A robot system comprising a passable area / prohibited area integration unit that obtains a map of a passable area and an entry-prohibited area as a whole.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065426A JP5427662B2 (en) | 2010-03-23 | 2010-03-23 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065426A JP5427662B2 (en) | 2010-03-23 | 2010-03-23 | Robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011198173A JP2011198173A (en) | 2011-10-06 |
JP5427662B2 true JP5427662B2 (en) | 2014-02-26 |
Family
ID=44876258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010065426A Expired - Fee Related JP5427662B2 (en) | 2010-03-23 | 2010-03-23 | Robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5427662B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200125105A1 (en) * | 2017-04-11 | 2020-04-23 | Amicro Semiconductor Co., Ltd. | Method for Creating Grid Map of Intelligent Robot |
CN112556687B (en) * | 2020-12-08 | 2023-04-07 | 广州赛特智能科技有限公司 | Robot starting positioning method, system, electronic equipment and storage medium |
CN114415678B (en) * | 2021-12-31 | 2024-01-16 | 深圳市普渡科技有限公司 | Robot path planning method and device, robot and storage medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63156203A (en) * | 1986-12-19 | 1988-06-29 | Sanyo Electric Co Ltd | Autonomous working vehicle |
JP4415422B2 (en) * | 1999-06-09 | 2010-02-17 | 株式会社豊田自動織機 | Cleaning robot |
JP4042517B2 (en) * | 2002-10-09 | 2008-02-06 | 株式会社日立製作所 | Moving body and position detection device thereof |
JP2004185586A (en) * | 2002-12-04 | 2004-07-02 | Toshitoki Inoue | Self-propelled robot and its control method |
JP2005190089A (en) * | 2003-12-25 | 2005-07-14 | Matsushita Electric Ind Co Ltd | Self-propelled device and program therefor |
JP2008083777A (en) * | 2006-09-26 | 2008-04-10 | Tamagawa Seiki Co Ltd | Method and device for guiding unmanned carrier |
JP5276931B2 (en) * | 2008-09-05 | 2013-08-28 | 株式会社日立産機システム | Method for recovering from moving object and position estimation error state of moving object |
-
2010
- 2010-03-23 JP JP2010065426A patent/JP5427662B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011198173A (en) | 2011-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3410246B1 (en) | Robot obstacle avoidance control system and method, robot, and storage medium | |
JP7355500B2 (en) | Robotic system and method for operating on workpieces | |
JP5216690B2 (en) | Robot management system, robot management terminal, robot management method and program | |
EP3104194B1 (en) | Robot positioning system | |
US8271132B2 (en) | System and method for seamless task-directed autonomy for robots | |
US7801644B2 (en) | Generic robot architecture | |
US8073564B2 (en) | Multi-robot control interface | |
US7668621B2 (en) | Robotic guarded motion system and method | |
US7974738B2 (en) | Robotics virtual rail system and method | |
US7620477B2 (en) | Robotic intelligence kernel | |
US7587260B2 (en) | Autonomous navigation system and method | |
US7584020B2 (en) | Occupancy change detection system and method | |
JP5276931B2 (en) | Method for recovering from moving object and position estimation error state of moving object | |
JP2020532018A (en) | Movement plan for autonomous mobile robots | |
JP2016201095A (en) | Restricting movement of mobile robot | |
JP6074205B2 (en) | Autonomous mobile | |
WO2008005659A2 (en) | Robotic follow system and method | |
JP6348971B2 (en) | Moving body | |
CN115932882A (en) | System for providing 3D detection of an environment through an autonomous robotic vehicle | |
Al-Mutib et al. | Stereo vision SLAM based indoor autonomous mobile robot navigation | |
JP5427662B2 (en) | Robot system | |
Frese et al. | Multi-sensor obstacle tracking for safe human-robot interaction | |
Nakamura et al. | Validation of SLAM without odometry in outdoor environment | |
Lladrovci | Indoor navigation with motion tracking and depth perception sensors | |
Rasmussen et al. | Early phases of humanoid vehicle ingress using depth cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120928 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131202 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5427662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |