JP2003200378A - Robot, method of recognizing shape, shape recognition program and computer readable recording medium recording shape recognition program - Google Patents

Robot, method of recognizing shape, shape recognition program and computer readable recording medium recording shape recognition program

Info

Publication number
JP2003200378A
JP2003200378A JP2001396156A JP2001396156A JP2003200378A JP 2003200378 A JP2003200378 A JP 2003200378A JP 2001396156 A JP2001396156 A JP 2001396156A JP 2001396156 A JP2001396156 A JP 2001396156A JP 2003200378 A JP2003200378 A JP 2003200378A
Authority
JP
Japan
Prior art keywords
shape
distance
distance measuring
robot
leg
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001396156A
Other languages
Japanese (ja)
Inventor
Masakazu Yanase
正和 柳瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2001396156A priority Critical patent/JP2003200378A/en
Publication of JP2003200378A publication Critical patent/JP2003200378A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize the shape of an object effectively. <P>SOLUTION: A robot 30 has legs 1 and 2, which are connected to a controller 3 and joined to each other through a plurality of joints, and distance sensors 4 and 5, which are provided in these legs 1 and 2 and measure the distances to the objects to be measured at a plurality of timing in a specified time interval while the legs 1 and 2 move, and the controller 3 is provided with a shape detection function which detects the shape of the object based on a plurality of the distances measured by these distance sensors 4 and 5. Therefore, the distance to the object in a prescribed direction can be measured at a prescribed time interval while the legs move, and based on the plurality of the distances, the shape of the object is detected. Since the shape of the object is detected based on the distances to a plurality of the points of the object, the quantity of calculation when detecting the shape of the object becomes small, as a result, the shape of the object can be detected for recognition at a high speed. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明はロボット、形状認
識方法、形状認識プログラムおよび形状認識プログラム
を記録したコンピュータ読取り可能な記録媒体に関し、
特に、移動するときの対象物の形状に関する情報を取得
するロボット、形状認識方法、形状認識プログラムおよ
び形状認識プログラムを記録したコンピュータ読取り可
能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot, a shape recognition method, a shape recognition program, and a computer-readable recording medium recording the shape recognition program.
In particular, the present invention relates to a robot that acquires information about the shape of an object when moving, a shape recognition method, a shape recognition program, and a computer-readable recording medium that records the shape recognition program.

【0002】[0002]

【従来の技術】従来の多脚移動ロボットの歩行制御にお
ける環境認識方法として特開平10−62552号公報
および特開平2−212906号公報に開示の技術が挙
げられる。特開平10−62552号公報では、四脚歩
行ロボットの本体上部に距離計測装置を搭載する。歩行
する際に脚平を着きたい位置の状態を知るために、脚平
の大きさ程度の脚平接地点範囲に対する距離を距離計測
装置で計測する。計測距離のばらつきが小さければ接地
予定地はほぼ平らであると判断する。距離計測装置では
計測原理の異なる複数の距離計測部で構成され、これら
の複数の距離計測部が台上に取付けられている。この台
は左右方向に回動するパン軸、上下方向に回動するチル
ト軸を備える。この台を回動することによって脚平接地
点範囲と距離計測装置の計測範囲は合致する。
2. Description of the Related Art As a conventional environment recognition method in walking control of a multi-legged mobile robot, there are techniques disclosed in Japanese Patent Application Laid-Open Nos. 10-62552 and 2-212906. In Japanese Patent Laid-Open No. 10-62552, a distance measuring device is mounted on the upper part of the main body of a four-legged walking robot. In order to know the state of the position where you want to wear the foot when walking, the distance measuring device measures the distance to the foot contact point range about the size of the foot. If the variation in the measured distance is small, it is judged that the planned landing site is almost flat. The distance measuring device is composed of a plurality of distance measuring units having different measurement principles, and these plural distance measuring units are mounted on a table. This table is provided with a pan axis that rotates in the left-right direction and a tilt axis that rotates in the up-down direction. By rotating this platform, the foot contact point range and the measurement range of the distance measuring device match.

【0003】特開平2−212906号公報では、多脚
型移動ロボットの歩行制御を行なう際に、歩行脚先端部
材に設けられた、脚先端部材下面に垂直な検出方向を有
する距離計測部によって脚先裏面と脚の接地面との距離
を検出する。また、搭載されたカメラで進行方向前方の
状況を撮像し、この撮像画像についての画像処理により
前方を認識する。このような距離計測部およびカメラを
用いて検出した情報を利用して、移動経路の把握と移動
とを可能にしている。
In Japanese Patent Laid-Open No. 2-212906, when performing walking control of a multi-legged mobile robot, a leg is measured by a distance measuring unit provided on the walking leg tip member and having a detection direction perpendicular to the lower surface of the leg tip member. The distance between the front and back surfaces and the ground contact surface of the leg is detected. Further, the on-board camera images the situation in the forward direction, and the front is recognized by image processing of the captured image. By using the information detected using such a distance measuring unit and a camera, the movement route can be grasped and moved.

【0004】[0004]

【発明が解決しようとする課題】特開平10−6255
2号公報に開示の環境認識方法では、距離計測装置の計
測範囲と脚平接地点範囲とを合致させるために距離計測
装置を回動させるアクチュエータなどの機構が必要とな
り、小型で安価な距離計測装置を実現することが困難で
ある。またCCD(電荷結合素子)カメラ、赤外線セン
サ、超音波センサなどの計測原理の異なる複数の距離計
測部が必要であるから、制御が複雑となり、装置にかか
るコストは上昇する。
[Patent Document 1] Japanese Patent Application Laid-Open No. 10-6255
The environment recognition method disclosed in Japanese Patent Publication No. 2 requires a mechanism such as an actuator that rotates the distance measuring device in order to match the measurement range of the distance measuring device with the range of the ground contact point on the foot. It is difficult to realize the device. Further, since a plurality of distance measuring units having different measurement principles such as CCD (charge-coupled device) camera, infrared sensor, and ultrasonic sensor are required, the control becomes complicated and the cost of the device increases.

【0005】さらに、距離計測装置を本体上部に取付け
るので、脚平接地面に対する距離計測装置の計測方向の
角度が大きく脚平接地点範囲の細かな凸凹を検出するこ
とが困難である。
Further, since the distance measuring device is attached to the upper portion of the main body, the angle of the distance measuring device in the measuring direction with respect to the foot contact surface is large, and it is difficult to detect fine irregularities in the foot contact point range.

【0006】特開平2−212906号公報に開示の環
境認識方法では、距離計測部が脚先部材の下面に垂直な
方向の状況を検出するために設けられるから脚が接地し
ている場合には脚先先端部材の下面と床面の距離は当然
ゼロである。遊脚状態から接地状態に移行する過程に限
って、つまり脚が床面に接地していない状態から床面に
接地する直前の短期間に限って、床面の形状を検知する
ことが可能である。この方法ではたとえば、接地予定位
置に脚を接地することが非常に困難な床面の状況である
場合には、一度のその脚の動きを中止して再度安全に接
地できる他の接地位置を探索しなければならないから、
結果としてスムーズで安定な歩行を実現することが困難
となる。
In the environment recognition method disclosed in Japanese Unexamined Patent Publication No. 2-212906, the distance measuring unit is provided for detecting the situation in the direction perpendicular to the lower surface of the leg member, so that the leg is grounded. The distance between the bottom surface of the tip member and the floor surface is naturally zero. It is possible to detect the shape of the floor surface only in the process of transitioning from the free leg state to the grounding state, that is, only in the short period immediately before the leg touches the floor surface from the state where the legs are not touching the floor surface. is there. In this method, for example, when it is very difficult to ground the leg at the planned grounding position, the movement of the leg is stopped once, and another grounding position where safe grounding can be performed again is searched. Because I have to
As a result, it becomes difficult to achieve smooth and stable walking.

【0007】また、多脚型移動ロボットは前方の障害物
位置を検出するためにテレビカメラを搭載し床面と脚平
裏面との距離を検出するために距離計測部を搭載してい
る。しかしテレビカメラは他の非接触センサと比較する
と効果であり重量でも勝っている。さらに画像処理を行
なうには莫大な計算量が必要とされ、リアルタイムに環
境を認識することが困難となる。
Further, the multi-legged mobile robot is equipped with a television camera for detecting the position of an obstacle ahead and a distance measuring unit for detecting the distance between the floor surface and the back surface of the foot. However, the TV camera is more effective and weighs more than other non-contact sensors. Furthermore, a huge amount of calculation is required to perform image processing, which makes it difficult to recognize the environment in real time.

【0008】それゆえにこの発明の目的は、効率的に対
象物の形状を検出することができるロボット、形状認識
方法、形状認識プログラムおよび形状認識プログラムを
記録したコンピュータ読取り可能な記録媒体を提供する
ことである。
Therefore, an object of the present invention is to provide a robot capable of efficiently detecting the shape of an object, a shape recognition method, a shape recognition program, and a computer-readable recording medium recording the shape recognition program. Is.

【0009】[0009]

【課題を解決するための手段】この発明のある局面に係
るロボットは、基体と、この基体に接続されて複数の節
を関節で連結した脚部と、この脚部に備えられて脚部が
移動する所定の期間に複数のタイミングで所定の方向に
ある対象物までの距離を計測する測距手段と、この測距
手段により計測された複数の距離に基づき、対象物の形
状を検出する形状検出手段とを備える。
A robot according to an aspect of the present invention comprises a base body, a leg portion connected to the base body and connecting a plurality of joints by joints, and a leg portion provided on the leg portion. Distance measuring means for measuring a distance to an object in a predetermined direction at a plurality of timings during a predetermined moving period, and a shape for detecting the shape of the object based on the plurality of distances measured by the distance measuring means And detection means.

【0010】したがって、ロボットでは、脚部が移動す
る所定の期間に複数のタイミングで所定の方向にある対
象物までの距離が計測され、計測された複数の距離に基
づき、対象物の形状が検出される。
Therefore, in the robot, the distance to the target object in the predetermined direction is measured at a plurality of timings in a predetermined period during which the legs move, and the shape of the target object is detected based on the measured plurality of distances. To be done.

【0011】それゆえに、対象物の複数の点までの距離
に基づき対象物の形状が検出されるので、対象物の形状
を検出する際の計算量が少なくなる。その結果、対象物
の形状を高速に検出して認識できる。
Therefore, since the shape of the object is detected based on the distances to the plurality of points of the object, the amount of calculation for detecting the shape of the object is reduced. As a result, the shape of the object can be detected and recognized at high speed.

【0012】好ましくは、上述のロボットの測距手段
は、脚部が接地する脚平に設置される。したがって、測
距手段が、脚部が接地する脚平に設置されるので、脚部
の自由度を利用して対象物の任意の点までの距離を計測
することができる。
[0012] Preferably, the distance measuring means of the robot described above is installed on a foot with its leg grounded. Therefore, since the distance measuring means is installed on the foot where the legs are in contact with the ground, it is possible to measure the distance to any point on the target object by utilizing the degree of freedom of the legs.

【0013】好ましくは、上述のロボットの測距手段が
計測する所定の方向は、脚平が接地する面と交わる方向
である。したがって、下方に位置する対象物、たとえば
下り段差の対象物までの距離を検出することができる。
Preferably, the predetermined direction measured by the above-mentioned distance measuring means of the robot is a direction in which the foot crosses the ground contact surface. Therefore, it is possible to detect the distance to the target object located below, for example, the target object at the down step.

【0014】好ましくは、上述のロボットの測距手段
は、赤外線を用いて距離を測定する。したがって、赤外
線を用いて距離を測定するので距離を正確に計測するこ
とができる。
Preferably, the distance measuring means of the robot described above measures the distance using infrared rays. Therefore, since the distance is measured using infrared rays, the distance can be measured accurately.

【0015】好ましくは、上述のロボットの形状検出手
段は、所定の基準点を基準にした測距手段の絶対位置を
求める測距位置取得算出手段と、測距手段で計測した距
離と計測した時点における測距手段の絶対位置とに基づ
き、基準点に対する対象物の絶対位置を取得する対象物
位置取得手段を含む。
Preferably, the above-mentioned robot shape detecting means is a distance measuring position acquisition calculating means for obtaining an absolute position of the distance measuring means with reference to a predetermined reference point, and a distance measured by the distance measuring means and a time point when the distance is measured. Object position acquisition means for acquiring the absolute position of the object with respect to the reference point based on the absolute position of the distance measuring means in.

【0016】したがって、対象物までの距離を所定の基
準点を基準にして求めるので、測距手段が移動したとし
ても対象物までの距離を正確に求めることができる。
Therefore, since the distance to the object is obtained with reference to the predetermined reference point, the distance to the object can be accurately obtained even if the distance measuring means moves.

【0017】好ましくは、上述のロボットの形状検出手
段は、対象物の複数の絶対位置を基準点からの距離に応
じて分類し、分類されたグループごとに特徴データを生
成する特徴データ生成手段と、隣り合うグループの特徴
データを比較する比較手段をさらに含む。
Preferably, the above-mentioned robot shape detecting means classifies a plurality of absolute positions of the object according to the distance from the reference point, and characteristic data generating means for generating characteristic data for each classified group. , And further includes comparison means for comparing the characteristic data of adjacent groups.

【0018】したがって、複数の対象物の絶対位置を基
準点からの距離に応じて分類するので、分類するグルー
プの数に応じて対象物の形状を検出する精度を変更する
ことができる。
Therefore, since the absolute positions of the plurality of objects are classified according to the distance from the reference point, the accuracy of detecting the shape of the objects can be changed according to the number of groups to be classified.

【0019】好ましくは、上述のロボットの対象物位置
取得手段は、対象物の絶対位置を進行方向に平行な直線
と接地面に垂直な直線とを含む基準面に投影した点で表
し、特徴データ生成手段は、グループに含まれる対象物
の絶対位置を用いて近似して求めた1次直線の傾きを特
徴データとして生成する。
Preferably, the object position acquisition means of the robot described above represents the absolute position of the object by a point projected onto a reference plane including a straight line parallel to the traveling direction and a straight line perpendicular to the ground plane, and the feature data The generation unit generates, as the characteristic data, the inclination of the linear line obtained by approximation using the absolute positions of the objects included in the group.

【0020】したがって、進行方向に並行な直線と接地
面に垂直な直線とを含む基準面に投影した点を用いて特
徴データを生成するので、処理を単純にすることがで
き、処理速度を速くすることができる。
Therefore, since the characteristic data is generated using the points projected on the reference plane including the straight line parallel to the traveling direction and the straight line perpendicular to the ground plane, the processing can be simplified and the processing speed can be increased. can do.

【0021】好ましくは、上述のロボットでは測距手段
は複数である。したがって、距離検出手段が複数なの
で、求められる絶対位置の数が多くなる。このため、よ
り正確に対象物の計上を検出することができる。
Preferably, the robot has a plurality of distance measuring means. Therefore, since there are a plurality of distance detecting means, the number of absolute positions required increases. Therefore, the accounting of the object can be detected more accurately.

【0022】好ましくは、上述のロボットにおいて測距
手段は複数であり、形状検出手段は、対象物の複数の絶
対位置を複数の測距手段ごとに第1のグループに分類
し、対象物の複数の絶対位置を基準点からの距離に応じ
て第2のグループに分類し、第1のグループおよび第2
のグループそれぞれで近似曲線を求める近似曲線生成手
段と、求められた近似曲線を用いて対象物の面形状を推
定する面形状推定手段とを含む。
Preferably, the above-mentioned robot has a plurality of distance measuring means, and the shape detecting means classifies a plurality of absolute positions of the object into a first group for each of the plurality of distance measuring means, and determines a plurality of the object. The absolute position of the first group and the second group according to the distance from the reference point.
Approximate curve generation means for obtaining an approximate curve in each of the groups, and surface shape estimation means for estimating the surface shape of the object using the obtained approximate curve.

【0023】したがって、前記対象物の複数の絶対位置
が前記複数の測距手段ごとに分類される第1のグループ
と、基準点からの距離に応じて分類される第2のグルー
プそれぞれで近似曲線が求められ、求められた近似曲線
を用いて前記対象物の面形状が推定される。このため、
対象物の形状をより正確に推定することができる。
Therefore, the plurality of absolute positions of the object are approximated by the first group classified by each of the plurality of distance measuring means and the second group classified by the distance from the reference point. Is calculated, and the surface shape of the object is estimated using the calculated approximated curve. For this reason,
The shape of the object can be estimated more accurately.

【0024】この発明の他の局面に係る形状認識方法
は、所定の基準点に対する対象物の複数の絶対位置を取
得するステップと、対象物の複数の絶対位置を、基準点
からの距離に応じて分類し、分類されたグループごとに
特徴データを生成するステップと、隣り合うグループの
特徴データを比較するステップとを含む。
A shape recognition method according to another aspect of the present invention includes a step of acquiring a plurality of absolute positions of an object with respect to a predetermined reference point, and a plurality of absolute positions of the object according to a distance from the reference point. Classification, and generating characteristic data for each classified group, and comparing characteristic data of adjacent groups.

【0025】したがって、対象物の複数の点までの距離
に基づき対象物の形状が検出されるので、対象物の形状
を検出する際に計算量を少なくすることができる。その
結果、対象物の形状を高速に検出することが可能な形状
認識方法を提供することができる。
Therefore, since the shape of the object is detected based on the distances to a plurality of points of the object, it is possible to reduce the amount of calculation when detecting the shape of the object. As a result, it is possible to provide a shape recognition method capable of detecting the shape of an object at high speed.

【0026】この発明のさらなる他の局面に係る形状認
識プログラムは、上述の形状認識方法をコンピュータに
実行させるためのプログラムである。
A shape recognition program according to still another aspect of the present invention is a program for causing a computer to execute the above-described shape recognition method.

【0027】この発明のさらなる他の局面に係るコンピ
ュータ読取り可能な記録媒体は、上述の形状認識プログ
ラムが記録されたものである。
A computer-readable recording medium according to still another aspect of the present invention has the above-mentioned shape recognition program recorded therein.

【0028】形状認識プログラムがコンピュータにより
実行されることにより、または形状認識プログラムが記
録媒体から読出されてコンピュータにより実行されるこ
とにより、対象物の複数の点までの距離に基づき対象物
の形状が検出されるので、対象物の形状を検出する際に
計算量を少なくすることができる。
The shape recognition program is executed by the computer, or the shape recognition program is read from the recording medium and executed by the computer, whereby the shape of the object is determined based on the distances to the plurality of points of the object. Since it is detected, the amount of calculation can be reduced when detecting the shape of the object.

【0029】[0029]

【発明の実施の形態】以下この発明の実施の形態につい
て説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below.

【0030】(実施の形態1)図1において脚型ロボッ
ト30は、制御装置3を有する基体に相当の胴体部と胴
体部に取付けられた右脚1および左脚2とを有する二脚
ロボットである。脚1および2の先端には歩行路面との
接地面としてそれぞれ脚平6および7が取付けられる。
脚平6および7の図中矢印で示される進行方向に向かっ
て先端には進行方向の路面または対象物との距離を計測
する距離センサ4および5がそれぞれ取付けられる。距
離センサ4(5)は発信部4a(5a)と受信部4b
(5b)を有する。
(Embodiment 1) In FIG. 1, a legged robot 30 is a bipedal robot having a body corresponding to a base body having a control device 3 and a right leg 1 and a left leg 2 attached to the body. is there. Legs 6 and 7 are attached to the tips of the legs 1 and 2 as ground contact surfaces with the walking road surface.
Distance sensors 4 and 5 for measuring the distance to the road surface or the object in the traveling direction are attached to the tips of the feet 6 and 7 in the traveling direction indicated by the arrows in the figure. The distance sensor 4 (5) includes a transmitter 4a (5a) and a receiver 4b.
It has (5b).

【0031】脚1および2のそれぞれの関節部8、9、
10、11、12および13のそれぞれには該関節の曲
がりに係る角度を計測するための図示されない角度計測
器が取付けられる。さらに、脚1および2のそれぞれは
6自由度を有している。
The joints 8, 9 of the legs 1 and 2 respectively
An angle measuring device (not shown) for measuring the angle of the bending of the joint is attached to each of 10, 11, 12 and 13. Furthermore, each of legs 1 and 2 has 6 degrees of freedom.

【0032】本実施の形態においては距離センサ4およ
び5ならびにすべての角度計測器の出力を胴体部に取付
けられた制御装置3で処理する。制御装置3はCPU
(中央処理装置)などの演算部、各種プログラムやデー
タなどを記憶するメモリ部、距離センサ4と5およびす
べての角度計測器などのセンサ入力をデジタル入力に変
換するA/D変換器、それらをつなぐバスなどから構成
される。
In the present embodiment, the outputs of the distance sensors 4 and 5 and all the angle measuring devices are processed by the control device 3 attached to the body. The control device 3 is a CPU
(Central processing unit) and the like, memory unit for storing various programs and data, A / D converter for converting the sensor inputs of the distance sensors 4 and 5 and all angle measuring devices into digital inputs, It is composed of connecting buses.

【0033】ここで、脚型ロボット30による環境認識
の方法を図2のフローチャートに従い説明する。図2の
フローチャートに従うプログラムは制御装置3のメモリ
部に予め格納されて、CPUの制御に従い実行される。
Now, a method of environment recognition by the legged robot 30 will be described with reference to the flowchart of FIG. The program according to the flowchart of FIG. 2 is stored in advance in the memory unit of the control device 3 and executed under the control of the CPU.

【0034】ここでは両脚が接地している状態から、片
脚を挙げて遊脚とし、一歩前に踏み出す動作を想定す
る。この動作の始点は脚が遊脚状態から床面に接地した
ときとし、終点は接地状態から一度遊脚状態に移行して
再度接地した時点とする。この動作における片脚、たと
えば脚1の軌跡の一例が図3に示される。図中変数ti
meの値に従う順番で軌跡が示されている。最高点のt
ime=6になるまで距離センサ4は斜め下方向を向い
ており、time=6において水平に戻っている。ま
た、time=6以降では距離センサ4は斜め上方向を
向いており、最終的に脚平6が水平となって床面に接地
する。以後は、この動作において常に接地している脚を
支持脚、途中に遊脚状態となる脚を遊脚と呼ぶこととす
る。
Here, it is assumed that one leg is lifted from the state where both legs are in contact with the ground to make it a free leg and step forward. The starting point of this operation is when the leg touches the floor surface from the free leg state, and the end point is the time point when the leg transits from the grounding state to the free leg state and touches the ground again. An example of the locus of one leg, for example, leg 1 in this operation is shown in FIG. Variable ti in the figure
The loci are shown in the order according to the value of me. Highest point t
The distance sensor 4 is directed obliquely downward until time = 6, and is returned horizontally at time = 6. Further, after time = 6, the distance sensor 4 is directed obliquely upward, and the foot 6 finally becomes horizontal and contacts the floor surface. Hereinafter, in this operation, the leg that is always in contact with the ground will be referred to as a support leg, and the leg that is in a free leg state midway will be referred to as a free leg.

【0035】この動作の過程において遊脚の脚平に取付
けられた距離センサからの出力を利用して進行方向前方
の路面または対象物の形状などの環境が推定されて認識
される。この動作が終了してから再度同一の脚が遊脚と
なった後の、接地予定位置の形状の推定結果を利用して
安定な歩行が実現される。
In the course of this operation, the environment such as the shape of the road surface or the object in front of the traveling direction is estimated and recognized using the output from the distance sensor attached to the foot of the free leg. Stable walking is realized by using the estimation result of the shape of the planned ground contact position after the same leg becomes the free leg after this operation is completed.

【0036】図2のフローチャートにおいてステップ1
からステップ4ではこの動作中のある瞬間におけるロボ
ット30の位置姿勢について考慮する。
Step 1 in the flowchart of FIG.
From step 4 to step 4, the position and orientation of the robot 30 at a certain moment during this operation are considered.

【0037】ステップ1では、この動作中のある瞬間
(たとえば、図3のtime=3)における距離センサ
4の出力が取得される。
In step 1, the output of the distance sensor 4 at a certain moment during this operation (for example, time = 3 in FIG. 3) is acquired.

【0038】ステップ2では両脚(1,2)の全関節
(8、9、10、11、12、13)の基準関節位置か
ら角度変位を、角度計測器によって計測する。角度計測
器としては、たとえばエンコーダなどが想定される。基
準関節位置の情報は制御装置3のメモリ部に記録されて
いる。
In step 2, the angular displacement is measured by the angle measuring device from the reference joint positions of all joints (8, 9, 10, 11, 12, 13) of both legs (1, 2). An encoder or the like is assumed as the angle measuring device. Information on the reference joint position is recorded in the memory unit of the control device 3.

【0039】ステップ3では、支持脚2の脚平7の中心
を原点とする図4の座標系Aにおける、遊脚1の脚平6
に取付けてある距離センサ4の位置および水平面に対す
る脚平6の角度を算出する。その際にステップ2で計測
された全関節の角度変位を利用して距離センサ4の位置
および水平面に対する脚平6の角度を算出する。距離セ
ンサ4の座標系Aにおける位置データPAは以下の数式
(1)で示されるような関節角度θの関数となってい
る。
In step 3, the foot 6 of the free leg 1 in the coordinate system A of FIG. 4 whose origin is the center of the foot 7 of the support leg 2 is used.
The position of the distance sensor 4 attached to and the angle of the foot 6 with respect to the horizontal plane are calculated. At this time, the angular displacements of all joints measured in step 2 are used to calculate the position of the distance sensor 4 and the angle of the foot 6 with respect to the horizontal plane. The position data P A of the distance sensor 4 in the coordinate system A is a function of the joint angle θ as shown in the following mathematical expression (1).

【0040】また、距離センサ4の座標系Aにおける姿
勢rAも以下の数式(2)で示されるように関節角度θ
の関数となっている。姿勢rAを構成する変数θ、φ、
ψはそれぞれロール角、ピッチ角、ヨー角である。ここ
で、以下の数式(3)により座標系Aにおける距離セン
サ4の検出方向ベクトルvAを求めることができる。ベ
クトルvAの単位ベクトルvA0に距離センサ4の出力で
あるセンサからの距離kをスカラ倍することで以下の数
式(4)に示されるように距離センサ4で検出された対
象の座標系Aにおける位置PA′が得られる。数式
(1)〜数式(4)の変数について数式(5)〜数式
(7)が参照される。
Further, the posture r A of the distance sensor 4 in the coordinate system A also has a joint angle θ as shown by the following mathematical expression (2).
Is a function of. Variables θ, φ, which constitute the posture r A ,
ψ is a roll angle, a pitch angle, and a yaw angle, respectively. Here, the detection direction vector v A of the distance sensor 4 in the coordinate system A can be calculated by the following mathematical expression (3). By multiplying the unit vector v A0 of the vector v A by the distance k from the sensor, which is the output of the distance sensor 4, the target coordinate system A detected by the distance sensor 4 as shown in the following mathematical expression (4) The position P A ′ at is obtained. Reference is made to Expressions (5) to (7) for the variables of Expressions (1) to (4).

【0041】 PA=F(θ) …式(1) rA=F′(θ) …式(2) vA=F″(r) …式(3) PA′=kvA0+PA …式(4) PA=(PAx,PAy,PAz),PA′=(PA′x,PA′y,PA′z) … 式(5) rA=(θ,φ,ψ),θ=(θ1,θ2…,θ12) …式(6) vA=(vAx,vAy,vAz),vA0=(vA0x,vA0y,vA0z,) …式 (7) ステップ4では距離センサ4の位置姿勢に基づいてセン
サ出力をこの動作の始点における遊脚1の脚平6の中心
を原点とする図3の座標系Bにプロットする。座標系B
のX軸は進行方向の原点からの距離を示し、Y軸は図3
において紙面に垂直な方向で向きは手前が正であると
し、Z軸は鉛直方向の原点からの距離であるように設定
する。距離センサ4で検出した対象の座標系Bにおける
位置PBは数式(8)と(9)の座標変換によって算出
することができる。ここでBAは座標系Aにおける記述
から座標系Bにおける記述へと変換する同次変換行列で
ある。
P A = F (θ) Formula (1) r A = F ′ (θ) Formula (2) v A = F ″ (r) Formula (3) P A ′ = kv A0 + P A Formula (4) P A = (P A x, P A y, P A z), P A ′ = (P A ′ x, P A ′ y, P A ′ z) Formula (5) r A = ( θ, φ, ψ), θ = (θ 1 , θ 2 ..., θ 12 ) Equation (6) v A = (v A x, v A y, v A z), v A0 = (v A0 x, v A0 y, v A0 z,) Equation (7) In step 4, the sensor output is based on the position and orientation of the distance sensor 4 with the center of the foot 6 of the free leg 1 at the starting point of this operation as the origin. Plot on coordinate system B. Coordinate system B
The X-axis indicates the distance from the origin in the traveling direction, and the Y-axis indicates
In the above, it is assumed that the direction is vertical to the paper surface and the front side is positive, and the Z axis is a distance from the origin in the vertical direction. The position P B of the target in the coordinate system B detected by the distance sensor 4 can be calculated by the coordinate conversion of the mathematical expressions (8) and (9). Here, B T A is a homogeneous transformation matrix that transforms the description in the coordinate system A into the description in the coordinate system B.

【0042】PBBAA′ …式(8) PB=(PBx,PBy,PBz) …式(9) ステップ5では、一歩前に踏み出すというこの動作が完
了したかどうかの判別を行なう。この動作が完了してい
ない場合にはステップ1に移行する。つまり、次の位置
でのデータの取得を行なう。この動作が完了した場合に
はステップ6に移行する。
P B = B T A P A ′ (Equation (8)) P B = (P B x, P B y, P B z) (Equation (9) In step 5, this operation of stepping forward is performed. Determine if it is complete. If this operation is not completed, the process proceeds to step 1. That is, the data is acquired at the next position. When this operation is completed, the process proceeds to step 6.

【0043】図5に、路面形状14に対する脚先からの
距離を検出し、座標系Bにプロットされた点17を示
す。ステップ6では、上述のステップ4にて座標系Bに
プロットされた点17の集合に関して、図1の制御装置
3中のメモリ部に記録されている予め与えられた単位領
域16ごとにこの動作によって得られる領域15を分割
する。ここで、一般にロボットが直線運動をする場合に
はロボットの脚先は進行方向に対して平行に移動し、座
標系AのY軸方向の変位が小さいとして、鉛直であり進
行方向に対して平行な面に上述の座標系Bの点17を投
影する。
FIG. 5 shows a point 17 plotted on the coordinate system B by detecting the distance from the tip of the foot to the road surface shape 14. In step 6, with respect to the set of points 17 plotted in the coordinate system B in step 4 described above, this operation is performed for each unit area 16 given in advance which is recorded in the memory unit in the control device 3 in FIG. The resulting area 15 is divided. Here, in general, when the robot makes a linear motion, the toes of the robot move in parallel to the traveling direction, and assuming that the displacement of the coordinate system A in the Y-axis direction is small, it is vertical and parallel to the traveling direction. The point 17 of the above-mentioned coordinate system B is projected on the plane.

【0044】ステップ7では、ステップ6で鉛直であり
進行方向に対して平行な面に投影された点17の集合ご
とに1次直線に近似する。直線近似を行なう方法として
は最小二乗法などが想定される。
In step 7, each set of points 17 projected on the plane which is vertical in step 6 and parallel to the traveling direction is approximated to a linear line. As a method for performing the linear approximation, the least square method or the like is assumed.

【0045】このような集合ごとに直線近似を行なうこ
とによって、路面や対象物の形状を図5に示すような複
数の線分18に近似できる。実環境における人工的な構
造物には平面的な構造が多くまたサンプル数が少なくて
も近似できるという観点から直線近似は妥当である。サ
ンプル数を多くすると、このような動作において検出さ
れる路面の形状を複雑かつ正確な形状に近似することが
可能となる。
By performing the linear approximation for each such set, the shape of the road surface or the object can be approximated to a plurality of line segments 18 as shown in FIG. The linear approximation is appropriate from the viewpoint that many artificial structures in a real environment have a planar structure and can be approximated even if the number of samples is small. When the number of samples is increased, the shape of the road surface detected in such an operation can be approximated to a complicated and accurate shape.

【0046】ステップ8では、上述のステップ7にて得
られた複数の線分18を比較することにより路面形状の
推定を行なう。路面形状推定の一例が図6のフローチャ
ートで示される。以下に図6のフローチャートに従い路
面形状推定処理について説明する。
In step 8, the road surface shape is estimated by comparing the line segments 18 obtained in step 7 above. An example of road surface shape estimation is shown in the flowchart of FIG. The road surface shape estimation processing will be described below with reference to the flowchart of FIG.

【0047】ステップ11では、上述のステップ7にお
いて得られた複数の線分18について、傾きの絶対値が
制御装置3のメモリ部に予め記録されている基準値より
も大きいかどうかを判別する。この基準値よりも傾きが
大きい場合にはステップ12に移行して路面形状に凸凹
があると推定できる。傾きが正の場合には上りの段差で
あり傾きが負の場合には下りの段差であると推定するこ
とができる。この基準値よりも傾きが小さい場合にはス
テップ14で平地であると判断することができる。
In step 11, it is determined whether or not the absolute value of the inclination of the plurality of line segments 18 obtained in step 7 is larger than the reference value recorded in advance in the memory section of the control device 3. When the inclination is larger than this reference value, it can be estimated that the road surface shape has irregularities in step 12. When the inclination is positive, it can be estimated that it is an uphill step, and when the inclination is negative, it can be estimated as a downhill step. If the inclination is smaller than this reference value, it can be determined in step 14 that the ground is flat.

【0048】ステップ12に続くステップ13では、上
述のステップ7にて得られた複数の線分18の中で、図
7に示すような隣接する2つの領域16にある線分18
について考える。ここで、足先に近い方の領域16にあ
る線分18を線分19、足先に遠い方の領域16にある
線分を線分20とする。線分20の両端点と中点21A
〜21Cのそれぞれから線分19を延長した直線22ま
での距離DA、DBおよびDCを算出し、これらの算出
した結果により凸凹の高さ、深さ、奥行などの情報を得
る。ここで得られた凸凹の高さなどの情報と制御装置3
のメモリ部に予め記録された基準値とを比較して、その
結果により脚式歩行のロボット30が前進することが不
可能であるような障害物の存在を推定する(ステップ1
6)。また、凸凹のある路面であるが、前進することが
可能であると判断する場合もある(ステップ15)。
In step 13 following step 12, among the plurality of line segments 18 obtained in the above step 7, line segments 18 in two adjacent regions 16 as shown in FIG.
think about. Here, the line segment 18 in the area 16 closer to the tip of the foot is referred to as a line segment 19, and the line segment in the area 16 farther from the tip of the foot is referred to as a line segment 20. Both ends of line segment 20 and midpoint 21A
21C, the distances DA, DB and DC from the straight line 22 obtained by extending the line segment 19 are calculated, and information such as the height, depth and depth of the unevenness is obtained from the calculated results. Information such as the height of the unevenness obtained here and the control device 3
Of the obstacles that make it impossible for the legged walking robot 30 to move forward (step 1).
6). In addition, it may be judged that it is possible to move forward even if the road surface is uneven (step 15).

【0049】ここで、距離検出部である距離センサを脚
平の水平面に対して斜め下方向に角度をつけて取付ける
状態が図8に示される。図8に示されるように距離セン
サ4と5を脚平6と7の水平面に対して検出方向が斜め
下方向となるように角度をつけて取付けることで脚平6
と7の水平面に対して平行に取付ける場合よりも、特に
下りの段差の形状を正確に検知することができる。
FIG. 8 shows a state in which the distance sensor, which is the distance detecting section, is attached at an angle obliquely downward to the horizontal plane of the foot. As shown in FIG. 8, the distance sensors 4 and 5 are attached at an angle to the horizontal planes of the feet 6 and 7 so that the detection direction is obliquely downward.
In particular, the shape of the downward step can be detected more accurately than in the case of mounting in parallel with the horizontal planes of 7 and 7.

【0050】また上述した動作中に支持脚がスリップす
るなどの外乱による影響はステップ3で距離センサ4と
5の位置を算出する際に、たとえば脚平6と7にジャイ
ロセンサを取付けて位置情報を補正するようにしてもよ
い。
The influence of the disturbance such as the slip of the support leg during the above-mentioned operation, when calculating the positions of the distance sensors 4 and 5 in step 3, attaches a gyro sensor to the feet 6 and 7, for example. May be corrected.

【0051】さらに、上述の説明では動作が終了してか
ら再度同一の脚が遊脚となった後の接地予定位置の路面
や対象物の形状推定結果を利用するとしたが、数歩先の
路面や対象物の形状を推定した結果を用いて歩行制御を
行なってもよい。
Further, in the above description, it is assumed that the shape estimation result of the road surface or the object at the planned grounding position after the same leg becomes the free leg after the operation is finished is used. Alternatively, the walking control may be performed using the result of estimating the shape of the object.

【0052】以上のように算出された環境に関する情報
のうち、進行方向前方の路面の状況や対象物の状況を推
定することが可能となる。
Of the information on the environment calculated as described above, it is possible to estimate the condition of the road surface ahead of the traveling direction and the condition of the object.

【0053】(実施の形態2)本実施の形態2における
脚型ロボットは、以下に述べる点以外は実施の形態1に
用いた脚型ロボット30と同じである。異なる点は、実
施の形態1にて用いた図1に示す脚型ロボット30では
片脚にそれぞれ距離センサ4(5)を1つずつ取付けて
いたが本実施の形態2における脚型ロボットでは図9に
示されるように各脚に3つずつの距離センサ4−1、4
−2、4−3と5−1、5−2、5−3を取付けている
点にある。
(Second Embodiment) The legged robot according to the second embodiment is the same as the legged robot 30 used in the first embodiment except for the points described below. The different point is that in the legged robot 30 shown in FIG. 1 used in the first embodiment, one distance sensor 4 (5) is attached to each leg, but in the legged robot in the second embodiment, As shown in FIG. 9, three distance sensors 4-1 and 4 are provided for each leg.
-2, 4-3 and 5-1, 5-2, 5-3 are attached.

【0054】図2のフローチャートに示すアルゴリズム
においてステップ1からステップ6までは実施の形態1
と同様である。異なる点は、ステップ6で構成された点
17の集合ごとに面近似を行なう点にある。
In the algorithm shown in the flowchart of FIG. 2, steps 1 to 6 are the same as those in the first embodiment.
Is the same as. The difference is that the surface approximation is performed for each set of points 17 constructed in step 6.

【0055】上述したような複数の距離センサで計測し
て得られる構造物(対象物)の座標系における座標値
は、たとえば図10のようになる。この図10では3つ
の距離センサSS1、SS2およびSS3(図示せず)
を用いた例を示している。距離センサSS1で計測した
構造物の座標は1−1、1−2、1−3、1−4、1−
5、1−6とし、距離センサSS2で計測した構造物の
座標は2−1、2−2、2−3、2−4、2−5、2−
6とし、距離センサSS3で計測した構造物の座標は3
−1、3−2、3−3、3−4、3−5、3−6として
いる。
The coordinate values in the coordinate system of the structure (object) obtained by measuring with the plurality of distance sensors as described above are as shown in FIG. 10, for example. In this FIG. 10, three distance sensors SS1, SS2 and SS3 (not shown)
Shows an example using. The coordinates of the structure measured by the distance sensor SS1 are 1-1, 1-2, 1-3, 1-4, 1-
5, 1-6, the coordinates of the structure measured by the distance sensor SS2 are 2-1, 2-2, 2-3, 2-4, 2-5, 2-.
6 and the coordinate of the structure measured by the distance sensor SS3 is 3
-1, 3-2, 3-3, 3-4, 3-5, 3-6.

【0056】図10を参照して、ステップ6で構成され
る集合について説明する。この集合とは図10のロボッ
トからの距離に従って決められる。図10では、ロボッ
トからの距離はL〜2LのグループA1、ロボットから
の距離が2L〜3LのグループA2、ロボットからの距
離が3L〜4LのグループA3となる。この場合、たと
えば、グループA1には座標1−1、1−2、2−1、
2−2、3−1、3−2が含まれる。
The set formed in step 6 will be described with reference to FIG. This set is determined according to the distance from the robot in FIG. In FIG. 10, the distance from the robot is L to 2L group A1, the distance from the robot is 2L to 3L group A2, and the distance from the robot is 3L to 4L group A3. In this case, for example, for group A1, coordinates 1-1, 1-2, 2-1,
2-2, 3-1, 3-2 are included.

【0057】このように集合を構成した場合の曲線の割
当について説明する。図10では集合としてはグループ
A1、グループA2、グループA3のように分類され
る。このグループごとにX−Z平面にすべての点(グル
ープA1の場合は1−1、1−2、2−1、2−2、3
−1、3−2)を投影する。このX−Z平面においてX
方向とZ方向の点の分散を求めて比較する。
The assignment of curves when the set is constructed in this way will be described. In FIG. 10, the sets are classified as a group A1, a group A2, and a group A3. All points (1-1, 1-2, 2-1, 2-2, 3 in the case of group A1) on the XZ plane for each group.
-1, 3-2) is projected. X in this X-Z plane
Calculate and compare the variances of the points in the Z and Z directions.

【0058】X方向の分散の方がZ方向の分散よりも大
きい場合には、X軸方向にY−Z平面の点に最小二乗法
を用いて曲線を割当てる。特に、図10の場合にはグル
ープA1がこれにあたりX座標が同じ点である点1−1
と点2−1と点3−1をY−Z平面において最小二乗法
を用いて曲線C1に近似する。また同様に点1−2と点
2−2と点3−2をY−Z平面において最小二乗法を用
いて曲線C2に近似する。以上の操作によって2つの曲
線C1とC2を割当てることができる。
When the variance in the X direction is larger than the variance in the Z direction, a curve is assigned to a point on the YZ plane in the X axis direction by using the least squares method. Particularly, in the case of FIG. 10, the group A1 corresponds to this, and the point 1-1 having the same X coordinate is used.
The points 2-1 and 3-1 are approximated to the curve C1 by using the least squares method on the YZ plane. Similarly, the points 1-2, 2-2, and 3-2 are approximated to the curve C2 by using the least square method on the YZ plane. Two curves C1 and C2 can be assigned by the above operation.

【0059】次に割当てられた曲線C1とC2間にY軸
方向にX−Z平面の曲線C3を割当てる。特に図10の
場合にはY座標が同じである点1−1と点1−2をX−
Z平面において最小二乗法を用いて曲線C3に近似す
る。また同様に点2−1と点2−2をX−Z平面におい
て曲線C4に近似し、点3−1と点3−2をX−Z平面
において曲線C5に近似する。以上の操作によって3つ
の曲線C3、C4およびC5を割当てることができる。
Next, a curve C3 on the XZ plane is allocated in the Y-axis direction between the allocated curves C1 and C2. Particularly, in the case of FIG. 10, the points 1-1 and 1-2 having the same Y coordinate are X-
Approximate curve C3 using the least squares method in the Z plane. Similarly, the points 2-1 and 2-2 are approximated to the curve C4 on the XZ plane, and the points 3-1 and 3-2 are approximated to the curve C5 on the XZ plane. By the above operation, the three curves C3, C4 and C5 can be assigned.

【0060】Z方向の分散の方がX方向の分散よりも大
きい場合にはZ軸方向にX−Y平面の点に最小二乗法を
用いて曲線を割当てる。特に、図10の場合にはグルー
プA2が当てはまりZ座標が同じである点1−3と点2
−3と点3−3をX−Y平面において最小二乗法を用い
て曲線C11に近似する。また同様に点1−4と点2−
4と点3−4をX−Y平面において最小二乗法を用いて
曲線C12に近似する。以上の操作によって2つの曲線
C11とC12を割当てることができる。
When the variance in the Z direction is larger than the variance in the X direction, a curve is assigned to points on the XY plane in the Z axis direction by using the least squares method. In particular, in the case of FIG. 10, points 1-3 and 2 where the group A2 applies and the Z coordinates are the same.
-3 and the point 3-3 are approximated to the curve C11 by using the least squares method on the XY plane. Similarly, point 1-4 and point 2-
4 and the point 3-4 are approximated to the curve C12 using the least squares method in the XY plane. Two curves C11 and C12 can be assigned by the above operation.

【0061】次に、割当てられた曲線間にY軸方向にX
−Z平面の曲線を割当てる。特に、図10の場合にはY
座標が同じである点1−3と点1−4をX−Z平面にお
いて最小二乗法を用いて曲線C13に近似する。また同
様に点2−3と点2−4をX−Z平面において曲線C1
4に近似し、点3−3と点3−4をX−Z平面において
曲線C15に近似する。以上の操作によって3つの曲線
C13、C14、C15を割当てることができる。
Next, X is assigned in the Y-axis direction between the assigned curves.
-Assign a curve in the Z plane. Especially in the case of FIG.
The points 1-3 and 1-4 having the same coordinates are approximated to the curve C13 by using the least square method in the XZ plane. Similarly, the points 2-3 and 2-4 are curved on the XZ plane by the curve C1.
4, and the points 3-3 and 3-4 are approximated to the curve C15 in the XZ plane. Three curves C13, C14, and C15 can be assigned by the above operation.

【0062】図10の例ではプロットされている座標点
が規則正しく配されているので、上述したようにして割
当てられる曲線は極めて直線に近似したものとなり、そ
れぞれの交点とプロットされたある点はほぼ一致するけ
れども、実際にはプロットされた点間は誤差が生じるた
めに近似された曲線は、直線とはならず(曲線とな
り)、曲線の交点もプロットされている点とは異なる
(一致しない)。
In the example of FIG. 10, since the plotted coordinate points are arranged regularly, the curve assigned as described above is extremely approximate to a straight line, and each intersection and a plotted point are almost the same. Although they match, the approximated curve does not become a straight line (becomes a curve) because there is an error between the plotted points, and the intersection of the curves is different from the plotted point (does not match). .

【0063】上述のようにして曲線が割当てられること
により図11および図12で示される曲線割当を経て、
これらの4つの曲線で囲まれる領域をそれぞれ面パッチ
することで対象物に関する面を表現する。表現された面
は図13に示される。
By assigning the curves as described above, the curves are assigned as shown in FIGS. 11 and 12,
A surface relating to the object is represented by surface patching each of the areas surrounded by these four curves. The rendered surface is shown in FIG.

【0064】ここで、割当てられた曲線から面を表現す
るための面パッチについて説明する。
Here, a surface patch for expressing a surface from the assigned curve will be described.

【0065】NURBS(Non Uniform Rational B-Spl
ines)曲面によって面パッチが行なわれる。NURBS
は予め与えられた複数の制御点を通るような曲面となる
ものを指す。したがって上述したような曲線割当により
割当てられた曲線で囲まれたそれぞれのメッシュ領域に
ついて面パッチを行なう。曲面の式は[数1]のように
なる。
NURBS (Non Uniform Rational B-Spl)
ines) The surface patch is performed by the curved surface. NURBS
Indicates a curved surface that passes through a plurality of control points given in advance. Therefore, the surface patch is performed for each mesh region surrounded by the curves assigned by the above-described curve assignment. The formula of the curved surface is as shown in [Equation 1].

【0066】[0066]

【数1】 [Equation 1]

【0067】上述した面パッチの手法として処理の負荷
軽減のため、たとえば4つの曲線で囲まれる領域の四隅
のうちの任意の3点を通る平面を割当てるようにしても
よい。上述のように進行方向前方の路面または対象物の
形状を推定する。脚型ロボットが曲線移動を行なう際に
は本実施の形態で示されたような面近似が極めて有効で
ある。
As a method of the above-mentioned surface patch, in order to reduce the processing load, for example, a plane passing through any three points of the four corners of the area surrounded by the four curves may be assigned. As described above, the shape of the road surface or the object ahead of the traveling direction is estimated. When the legged robot moves along a curve, the surface approximation as shown in this embodiment is extremely effective.

【0068】上述の実施の形態に係る脚型ロボットの進
行方向前方および前方下方向の環境を認識することが可
能となる。このため、従来は移動ロボットの前方の環境
を認識するためのカメラと下方向の環境を認識するため
の距離センサの両方を用いて環境を認識する必要があっ
たが、前方の環境を認識するための上述のカメラを必要
としないので画像処理を行なう際の計算量を高速に処理
するための装置が不要となり、脚型ロボットの製造コス
トの削減および脚型ロボットの小型化、軽量化が可能と
なる。
It is possible to recognize the environment in the forward direction and the downward direction in the traveling direction of the legged robot according to the above embodiment. Therefore, conventionally, it was necessary to recognize the environment using both the camera for recognizing the environment in front of the mobile robot and the distance sensor for recognizing the environment in the downward direction. Since the above-mentioned camera is not required, a device for processing the amount of calculation at the time of image processing at high speed is not required, and the manufacturing cost of the legged robot can be reduced, and the legged robot can be made smaller and lighter. Becomes

【0069】また、足先に距離センサ4、5などを取付
けることで、脚の自由度を利用して環境をスキャンする
ことが可能なので、環境をスキャンすることのみを目的
としたアクチュエータが不要となり低コスト、小型化、
軽量化を実現することが可能となる。
Further, by mounting the distance sensors 4, 5 and the like on the feet, it is possible to scan the environment by utilizing the degree of freedom of the legs, so that an actuator only for scanning the environment is unnecessary. Low cost, small size,
It becomes possible to reduce the weight.

【0070】また、上述の距離センサ4、5を進行方向
前方に取付けることで検出したい対象との距離が近くな
るから、対象から遠い場所に配置した場合より正確にデ
ータを検出することができる。また、距離センサを図9
のように複数個取付けることで、進行方向前方の路面ま
たは対象物の3次元的な形状を推定することが容易とな
る。
Since the distance sensors 4 and 5 are attached to the front in the traveling direction, the distance to the object to be detected becomes short, so that the data can be detected more accurately than in the case where the distance sensor is placed far from the object. Also, the distance sensor is shown in FIG.
By mounting a plurality of such as described above, it becomes easy to estimate the three-dimensional shape of the road surface or the object ahead in the traveling direction.

【0071】上述の距離センサとしてたとえば赤外線セ
ンサを用いることで、赤外線センサの発光部から直線的
な方向の対象物までの距離を検出することが可能となる
から、検出値の距離に対する信頼性を向上させることが
できる。
By using, for example, an infrared sensor as the above-mentioned distance sensor, it is possible to detect the distance from the light emitting portion of the infrared sensor to the object in a linear direction. Can be improved.

【0072】また、距離センサ4、5を図8のように脚
平6、7の水平面に対して斜め下方向に角度をつけて取
付けることで、脚平水平面に対して平行に取付ける場合
よりも特に下り段差の形状を正確に検知することができ
る。
Further, as shown in FIG. 8, the distance sensors 4 and 5 are attached at an angle obliquely downward with respect to the horizontal planes of the feet 6 and 7, as compared with the case where the distance sensors 4 and 5 are attached parallel to the horizontal planes of the feet. In particular, the shape of the descending step can be accurately detected.

【0073】脚型ロボットの環境認識のために脚先に取
付けられた絶対座標系における位置が常に変化する距離
センサの出力を、進行方向の路面などと脚先間の距離情
報に処理する手法を有することで、進行方向の路面と脚
先との距離を算出することが可能となる。また進行方向
の路面または対象物の検証を推定する手法を有すること
で、推定結果に応じた路面形状に依存する歩行制御の実
現が可能となり、従来に比較してより安定歩行を実現で
きる。
In order to recognize the environment of the legged robot, a method of processing the output of the distance sensor attached to the tip of the leg whose position in the absolute coordinate system is constantly changing into the distance information between the road surface in the traveling direction and the tip of the leg is described. By having it, it becomes possible to calculate the distance between the road surface and the tip of the foot in the traveling direction. Further, by having a method for estimating the verification of the road surface or the object in the traveling direction, it becomes possible to realize the walking control depending on the road surface shape according to the estimation result, and it is possible to realize more stable walking than the conventional one.

【0074】距離情報取得の方法において絶対座標系に
おける距離センサ4、5の位置および姿勢を算出する方
法を有することで進行方向の路面などと脚先間の距離情
報をより正確に取得することができる。
Since the distance information acquisition method has a method of calculating the position and orientation of the distance sensors 4 and 5 in the absolute coordinate system, the distance information between the road surface in the traveling direction and the toes can be more accurately acquired. it can.

【0075】距離センサ4、5の位置および姿勢を算出
する方法として、両脚(1,2)のすべての関節角度を
利用することで支持脚の脚平中心を基準とした座標系に
おける距離センサの位置および姿勢を算出できる。支持
脚の脚平中心は歩行動作中において最も移動が少ないと
考えられる点であり、たとえば外乱の影響によって移動
した場合には、脚平に予めジャイロセンサと加速度セン
サを取付けておけば、これらの検知結果を利用して補正
することが可能となる。
As a method of calculating the position and orientation of the distance sensors 4 and 5, by utilizing all the joint angles of both legs (1, 2), the distance sensor in the coordinate system with the center of the foot of the supporting leg as a reference is used. The position and orientation can be calculated. The center of the foot of the support leg is considered to be the least moved during walking. For example, if the foot is moved by the influence of a disturbance, if a gyro sensor and an acceleration sensor are attached to the foot beforehand, these The detection result can be used for correction.

【0076】ここで、図5で示したように進行方向の路
面の形状を推定する方法として単位領域16に分割し
て、単位領域16ごとに加工処理を行なうことで対象物
の形状を単位領域16の数に比例して、複雑かつ正確な
形状で表現できる。
Here, as shown in FIG. 5, as a method for estimating the shape of the road surface in the traveling direction, it is divided into unit areas 16 and the processing is performed for each unit area 16 to change the shape of the object into unit areas. It can be expressed in a complicated and accurate shape in proportion to the number of 16.

【0077】また、上述の加工処理において、面近似手
法を用いることで、進行方向前方の路面または対象物の
形状を面で表現することができる。
Further, in the above-mentioned processing, by using the surface approximation method, the shape of the road surface or the object ahead in the traveling direction can be expressed by a surface.

【0078】また、上述の加工処理において2次元平面
に投影することで、3次元空間情報のまま加工処理を行
なうよりも計算に関する負荷を軽減することができる。
Further, by projecting onto the two-dimensional plane in the above-mentioned processing, it is possible to reduce the calculation load as compared with the case where the processing is performed with the three-dimensional spatial information as it is.

【0079】さらに2次元平面に投影して投影面点の直
線近似を用いることで多次元曲線近似を用いた場合と比
較して計算処理の負荷は低減されて処理時間が速くなる
などの効果がある。
Further, by projecting onto a two-dimensional plane and using linear approximation of projection plane points, the load of calculation processing is reduced and the processing time is shortened as compared with the case of using multidimensional curve approximation. is there.

【0080】さらに直線近似手法として最小二乗法を用
いているから、最小二乗法は比較的アルゴリズムの確立
している手法であることに鑑みると、実用化が容易であ
る。
Further, since the least squares method is used as the linear approximation method, the least squares method is easy to put into practical use in view of the fact that the algorithm is relatively well established.

【0081】(実施の形態3)以上説明した路面または
対象物の形状などの認識に関する処理機能を有したシス
テムは、図示されたフローチャートなどに従うプログラ
ムを用いて実現される。本実施の形態では、このプログ
ラムはコンピュータで読取可能な記録媒体に格納され
る。
(Third Embodiment) The system having the processing function relating to the recognition of the shape of the road surface or the object described above is realized by using a program according to the illustrated flowchart. In the present embodiment, this program is stored in a computer-readable recording medium.

【0082】本実施の形態では、この記録媒体として、
図1に示されている制御装置3のCPUなどの演算部で
処理が行なわれるために必要な制御装置3のメモリ部、
たとえばメモリ部のROM(read only memory)のよ
うなそのものがプログラムメディアであってもよいし、
また外部記憶装置として磁気テープ装置およびCD−R
OM駆動装置などのプログラム読取装置が設けられ、そ
こに記録媒体である磁気テープまたはCD−ROMが挿
入されることで読取可能なプログラムメディアであって
もよい。いずれの場合においても、格納されているプロ
グラムはCPUがアクセスして実行させる構成であって
もよいし、あるいはいずれの場合もプログラムが一旦読
出されて、読出されたプログラムは、制御装置3の所定
のプログラム記憶エリアにロードされて、CPUにより
読出されて実行される方式であってもよい。
In this embodiment, the recording medium is
A memory unit of the control device 3 necessary for processing by an arithmetic unit such as a CPU of the control device 3 shown in FIG.
For example, a program medium may be itself such as a ROM (read only memory) of the memory unit,
Also, as an external storage device, a magnetic tape device and a CD-R
The program medium may be a program medium such as an OM driving device, which is readable by inserting a recording medium such as a magnetic tape or a CD-ROM. In either case, the stored program may be configured to be accessed and executed by the CPU, or in any case, the program may be read once and the read program may be stored in a predetermined memory of control device 3. The program may be loaded into the program storage area, read out by the CPU and executed.

【0083】ここで、上述したプログラムメディアはコ
ンピュータ本体と分離可能に構成される記録媒体であ
り、固定的にプログラムを担持する媒体であってよい。
たとえば、磁気テープやカセットテープなどのテープ
系、フレキシブルディスクなどの磁気ディスクやCD−
ROM/MO(Magnetic Optical Disc)/MD(Min
iDisc)/DVD(Digital Versatile Disc)などの
光ディスクのディスク系、ICカード(メモリカードを
含む)/光カードなどのカード系、あるいはマスクRO
M、EPROM(Erasable and Programmable RO
M)、EEPROM(Electrically EPROM)、フラ
ッシュROMなどによる半導体メモリを含めたものであ
ってよい。
Here, the above-mentioned program medium is a recording medium that is separable from the computer body, and may be a medium that carries the program fixedly.
For example, tape systems such as magnetic tapes and cassette tapes, magnetic disks such as flexible disks, and CD-
ROM / MO (Magnetic Optical Disc) / MD (Min
iDisc) / DVD (Digital Versatile Disc) and other optical disc systems, IC cards (including memory cards) / optical cards, etc., or mask RO
M, EPROM (Erasable and Programmable RO
M), an EEPROM (Electrically EPROM), a flash ROM, and other semiconductor memories may be included.

【0084】また、制御装置3はインターネットを含む
各種ネットワークと通信可能な構成が採用されていると
すれば、ネットワークからプログラムがダウンロードさ
れる、いわゆる流動的にプログラムを担持する記録媒体
であってもよい。
Further, assuming that the control device 3 has a structure capable of communicating with various networks including the Internet, even if the program is downloaded from the network, that is, a recording medium carrying the program in a fluid manner. Good.

【0085】なお記録媒体に格納されている内容として
はプログラムに限定されず、データであってもよい。
The content stored in the recording medium is not limited to the program and may be data.

【0086】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

【0087】[0087]

【発明の効果】この発明によれば、対象物の複数の点ま
での距離に基づき対象物の形状が検出されるので、対象
物の形状を検出する際の計算量が少なくなる。その結
果、対象物の形状などの環境を高速に検出して認識でき
る。
According to the present invention, the shape of the object is detected based on the distances to a plurality of points of the object, so that the amount of calculation for detecting the shape of the object is reduced. As a result, the environment such as the shape of the object can be detected and recognized at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1の実施の形態におけるロボットの概略構
成を示す斜視図である。
FIG. 1 is a perspective view showing a schematic configuration of a robot according to a first embodiment.

【図2】 第1の実施の形態におけるロボットで実行さ
れる環境認識処理の流れを示すフローチャートである。
FIG. 2 is a flowchart showing a flow of environment recognition processing executed by the robot according to the first embodiment.

【図3】 第1の実施の形態におけるロボットの脚の軌
跡を座標系Aで示した図である。
FIG. 3 is a diagram showing a trajectory of a leg of the robot in the first embodiment in a coordinate system A.

【図4】 座標系Aを説明するための図である。FIG. 4 is a diagram for explaining a coordinate system A.

【図5】 第1の実施の形態におけるロボットの距離セ
ンサの出力を座標系Bにプロットした一例を示す図であ
る。
FIG. 5 is a diagram showing an example in which an output of a distance sensor of the robot according to the first embodiment is plotted on a coordinate system B.

【図6】 第1の実施の形態におけるロボットで実行さ
れる路面形状認識処理の流れを示すフローチャートであ
る。
FIG. 6 is a flowchart showing a flow of road surface shape recognition processing executed by the robot according to the first embodiment.

【図7】 特徴データを説明するための図である。FIG. 7 is a diagram for explaining characteristic data.

【図8】 第1の実施の形態におけるロボットの距離セ
ンサの取付位置を変更した例を示す図である。
FIG. 8 is a diagram showing an example in which a mounting position of a distance sensor of the robot according to the first embodiment is changed.

【図9】 第2の実施の形態におけるロボットの距離セ
ンサの取付状態を示す図である。
FIG. 9 is a diagram showing a mounting state of a distance sensor of a robot according to a second embodiment.

【図10】 第2の実施の形態におけるセンサで計測し
て得られる構造物の座標系における座標の一例を示す図
である。
FIG. 10 is a diagram showing an example of coordinates in a coordinate system of a structure obtained by measuring with a sensor according to the second embodiment.

【図11】 第2の実施の形態における曲線近似を説明
するための図である。
FIG. 11 is a diagram for explaining curve approximation in the second embodiment.

【図12】 第2の実施の形態における曲線近似を説明
するための図である。
FIG. 12 is a diagram for explaining curve approximation in the second embodiment.

【図13】 第2の実施の形態における面近似を説明す
るための図である。
FIG. 13 is a diagram for explaining surface approximation in the second embodiment.

【符号の説明】[Explanation of symbols]

1 右脚、2 左脚、3 制御装置、4 距離センサ、
4a 発信部、4b受信部、4−1、4−2、4−3
距離センサ、5 距離センサ、5a 発信部、5b 受
信部、5−1、5−2、5−3 距離センサ、6、7
脚平、8、9、10、11、12、13 関節、15
単位動作中に計測される領域、16単位領域、17 座
標系Bにプロットした点、18 直線近似された線分。
1 right leg, 2 left leg, 3 control device, 4 distance sensor,
4a transmitter, 4b receiver, 4-1, 4-2, 4-3
Distance sensor, 5 Distance sensor, 5a Transmitter, 5b Receiver, 5-1, 5-2, 5-3 Distance sensor, 6, 7
Foot, 8, 9, 10, 11, 12, 13 joints, 15
Areas measured during unit operation, 16 unit areas, 17 points plotted on the coordinate system B, 18 line segments approximated by a straight line.

フロントページの続き Fターム(参考) 2F065 AA01 AA06 AA19 AA20 AA53 BB05 DD02 FF15 FF23 FF41 FF65 GG22 JJ05 PP04 PP25 QQ18 QQ25 3C007 CS08 KS07 KS10 KS12 KS36 KV11 KW00 KX12 WA03 WA13 WA24 WB01 5H301 AA01 BB14 CC03 CC06 CC09 DD01 DD16 FF11 FF15 FF21 GG08 HH01 Continued front page    F term (reference) 2F065 AA01 AA06 AA19 AA20 AA53                       BB05 DD02 FF15 FF23 FF41                       FF65 GG22 JJ05 PP04 PP25                       QQ18 QQ25                 3C007 CS08 KS07 KS10 KS12 KS36                       KV11 KW00 KX12 WA03 WA13                       WA24 WB01                 5H301 AA01 BB14 CC03 CC06 CC09                       DD01 DD16 FF11 FF15 FF21                       GG08 HH01

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 基体と、 前記基体に接続され、複数の節を関節で連結した脚部
と、 前記脚部に備えられ、前記脚部が移動する所定の期間に
複数のタイミングで所定の方向にある対象物までの距離
を計測する測距手段と、 前記測距手段により計測された複数の距離に基づき、対
象物の形状を検出する形状検出手段とを備えた、ロボッ
ト。
1. A base, a leg connected to the base and connecting a plurality of joints by joints, a leg provided on the leg, and a predetermined direction at a plurality of timings in a predetermined period during which the leg moves. A robot comprising: a distance measuring unit that measures the distance to the target object; and a shape detecting unit that detects the shape of the target object based on the plurality of distances measured by the distance measuring unit.
【請求項2】 前記測距手段は、前記脚部が接地する脚
平に設置される、請求項1に記載のロボット。
2. The robot according to claim 1, wherein the distance measuring unit is installed on a foot flat on which the legs are grounded.
【請求項3】 前記測距手段が計測する所定の方向は、
前記脚平が接地する面と交わる方向である、請求項2に
記載のロボット。
3. The predetermined direction measured by the distance measuring means is
The robot according to claim 2, wherein the foot is in a direction intersecting with a ground contact surface.
【請求項4】 前記測距手段は、赤外線を用いて距離を
測定する、請求項1に記載のロボット。
4. The robot according to claim 1, wherein the distance measuring unit measures a distance using infrared rays.
【請求項5】 前記形状検出手段は、所定の基準点を基
準にした前記測距手段の絶対位置を求める測距位置取得
算出手段と、 前記測距手段で計測した距離と計測した時点における前
記測距手段の絶対位置とに基づき、前記基準点に対する
対象物の絶対位置を取得する対象物位置取得手段を含
む、請求項1に記載のロボット。
5. The shape detecting means is a distance measuring position obtaining / calculating means for obtaining an absolute position of the distance measuring means based on a predetermined reference point, and the distance measured by the distance measuring means and the time at the time of measurement. The robot according to claim 1, further comprising a target object position acquisition unit that acquires an absolute position of the target object with respect to the reference point based on the absolute position of the distance measuring unit.
【請求項6】 前記形状検出手段は、対象物の複数の絶
対位置を前記基準点からの距離に応じて分類し、分類さ
れたグループごとに特徴データを生成する特徴データ生
成手段と、隣り合うグループの特徴データを比較する比
較手段をさらに含む、請求項5に記載のロボット。
6. The shape detecting means is adjacent to a characteristic data generating means for classifying a plurality of absolute positions of an object according to a distance from the reference point and generating characteristic data for each classified group. The robot according to claim 5, further comprising comparison means for comparing the characteristic data of the groups.
【請求項7】 前記対象物位置取得手段は、対象物の絶
対位置を進行方向に平行な直線と接地面に垂直な直線と
を含む基準面に投影した点で表し、 前記特徴データ生成手段は、前記グループに含まれる対
象物の絶対位置を用いて近似して求めた1次直線の傾き
を前記特徴データとして生成する、請求項6に記載のロ
ボット。
7. The object position acquisition means represents the absolute position of the object by a point projected on a reference plane including a straight line parallel to the traveling direction and a straight line perpendicular to the ground plane, and the characteristic data generation means The robot according to claim 6, wherein the inclination of a linear line obtained by approximation using the absolute positions of the objects included in the group is generated as the characteristic data.
【請求項8】 前記測距手段は複数である、請求項1に
記載のロボット。
8. The robot according to claim 1, wherein the distance measuring means is plural.
【請求項9】 前記測距手段は複数であり、 前記形状検出手段は、対象物の複数の絶対位置を前記複
数の測距手段ごとに第1のグループに分類し、対象物の
複数の絶対位置を前記基準点からの距離に応じて第2の
グループに分類し、第1のグループおよび第2のグルー
プそれぞれで近似曲線を求める近似曲線生成手段と、 前記求められた近似曲線を用いて対象物の面形状を推定
する面形状推定手段とを含む、請求項5に記載のロボッ
ト。
9. A plurality of distance measuring means are provided, and the shape detecting means classifies a plurality of absolute positions of an object into a first group for each of the plurality of distance measuring means, and obtains a plurality of absolute positions of the object. Approximate curve generation means for classifying the position into a second group according to the distance from the reference point and for obtaining an approximate curve in each of the first group and the second group, and an object using the obtained approximate curve The robot according to claim 5, further comprising a surface shape estimation unit that estimates a surface shape of an object.
【請求項10】 所定の基準点に対する対象物の複数の
絶対位置を取得するステップと、 対象物の複数の絶対位置を、前記基準点からの距離に応
じて分類し、分類されたグループごとに特徴データを生
成するステップと、 隣り合うグループの特徴データを比較するステップとを
含む、形状認識方法。
10. A step of acquiring a plurality of absolute positions of an object with respect to a predetermined reference point, a plurality of absolute positions of the object being classified according to a distance from the reference point, and for each classified group. A shape recognition method, comprising: generating feature data; and comparing feature data of adjacent groups.
【請求項11】 所定の基準点に対する対象物の複数の
絶対位置を取得するステップと、 対象物の複数の絶対位置を、前記基準点からの距離に応
じて分類し、分類されたグループごとに特徴データを生
成するステップと、 隣り合うグループの特徴データを比較するステップとを
コンピュータに実行させる、形状認識プログラム。
11. A step of obtaining a plurality of absolute positions of an object with respect to a predetermined reference point, a plurality of absolute positions of the object being classified according to a distance from the reference point, and for each classified group. A shape recognition program that causes a computer to execute a step of generating characteristic data and a step of comparing characteristic data of adjacent groups.
【請求項12】 請求項11に記載の形状認識プログラ
ムを記録したコンピュータ読取り可能な記録媒体。
12. A computer-readable recording medium in which the shape recognition program according to claim 11 is recorded.
JP2001396156A 2001-12-27 2001-12-27 Robot, method of recognizing shape, shape recognition program and computer readable recording medium recording shape recognition program Withdrawn JP2003200378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001396156A JP2003200378A (en) 2001-12-27 2001-12-27 Robot, method of recognizing shape, shape recognition program and computer readable recording medium recording shape recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001396156A JP2003200378A (en) 2001-12-27 2001-12-27 Robot, method of recognizing shape, shape recognition program and computer readable recording medium recording shape recognition program

Publications (1)

Publication Number Publication Date
JP2003200378A true JP2003200378A (en) 2003-07-15

Family

ID=27639540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001396156A Withdrawn JP2003200378A (en) 2001-12-27 2001-12-27 Robot, method of recognizing shape, shape recognition program and computer readable recording medium recording shape recognition program

Country Status (1)

Country Link
JP (1) JP2003200378A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007007800A (en) * 2005-07-01 2007-01-18 Toyota Motor Corp Walking type robot, wheel type robot and absolute azimuth estimating method thereof
JPWO2006064597A1 (en) * 2004-12-14 2008-06-12 本田技研工業株式会社 Legged mobile robot and its control program
JP2008286643A (en) * 2007-05-17 2008-11-27 Honda Motor Co Ltd Sensing method
JP2008298742A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Posture angle detection device, posture angle detecting method, and surface of floor detection device
JP2014163707A (en) * 2013-02-21 2014-09-08 Pasco Corp Road deformation detection device, road deformation detection method and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006064597A1 (en) * 2004-12-14 2008-06-12 本田技研工業株式会社 Legged mobile robot and its control program
US8014896B2 (en) 2004-12-14 2011-09-06 Honda Motor Co., Ltd. Legged mobile robot and control program
JP5053644B2 (en) * 2004-12-14 2012-10-17 本田技研工業株式会社 Legged mobile robot and its control program
JP2007007800A (en) * 2005-07-01 2007-01-18 Toyota Motor Corp Walking type robot, wheel type robot and absolute azimuth estimating method thereof
JP4706357B2 (en) * 2005-07-01 2011-06-22 トヨタ自動車株式会社 Walking robot and its absolute direction estimation method
JP2008286643A (en) * 2007-05-17 2008-11-27 Honda Motor Co Ltd Sensing method
JP2008298742A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Posture angle detection device, posture angle detecting method, and surface of floor detection device
JP2014163707A (en) * 2013-02-21 2014-09-08 Pasco Corp Road deformation detection device, road deformation detection method and program

Similar Documents

Publication Publication Date Title
US8019145B2 (en) Legged locomotion robot
US9239580B2 (en) Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
JP5602392B2 (en) Information processing apparatus, information processing method, and program
US7507948B2 (en) Method of detecting object using structured light and robot using the same
US20090143932A1 (en) Mobile apparatus and control program therefor
US9964956B2 (en) Operating environment information generating device for mobile robot
JP2009244023A (en) Measuring device using line sensor
JP2009136987A (en) Mobile robot and method of correcting floor surface shape data
WO2020129120A1 (en) Information processing device and mobile robot
JP5212939B2 (en) Autonomous mobile device
JP5669195B2 (en) Surface shape measuring device and surface shape measuring method
JP2003200378A (en) Robot, method of recognizing shape, shape recognition program and computer readable recording medium recording shape recognition program
JP2015007639A (en) Information processing apparatus, information processing method and program
JP2009198382A (en) Environment map acquiring device
JP4978938B2 (en) Distance measuring apparatus and method, and computer program
US20240058943A1 (en) Moving apparatus and moving apparatus control method
Kolu et al. A mapping method tolerant to calibration and localization errors based on tilting 2D laser scanner
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
JP7358108B2 (en) Information processing device, information processing method and program
CN114911223A (en) Robot navigation method and device, robot and storage medium
JP7468288B2 (en) CALIBRATION DEVICE AND METHOD FOR AUTOMATIC CALIBRATION SETTING
JP2009042147A (en) Apparatus and method for recognizing object
JPH09257414A (en) Object position detector
US20220415031A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050301