JP2009050936A - Interference determination device and leg wheel type robot - Google Patents

Interference determination device and leg wheel type robot Download PDF

Info

Publication number
JP2009050936A
JP2009050936A JP2007218646A JP2007218646A JP2009050936A JP 2009050936 A JP2009050936 A JP 2009050936A JP 2007218646 A JP2007218646 A JP 2007218646A JP 2007218646 A JP2007218646 A JP 2007218646A JP 2009050936 A JP2009050936 A JP 2009050936A
Authority
JP
Japan
Prior art keywords
leg
scanning
feature point
coordinate system
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007218646A
Other languages
Japanese (ja)
Inventor
Isayuki Sagayama
功幸 嵯峨山
Kazuteru Hida
和輝 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2007218646A priority Critical patent/JP2009050936A/en
Publication of JP2009050936A publication Critical patent/JP2009050936A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interference determination device capable of performing interference determination without causing an actual interference and of suppressing increase in the number of components and weight and suitable for reducing constraint of the interference determination. <P>SOLUTION: This leg wheel type robot 100 is provided with a base body 10; leg parts 12 flexibly connected to the base body 10; drive wheels 20 rotatably provided in the leg parts 12; and an object sensor comprising lasers 28-30 and a camera 32. Characteristics of an obstacle are detected based on measurement results by the object sensor. In a global coordinate Pg, based on a positional relationship between leg shank part planes identified by the posture of the leg wheel type robot 100 and shapes of the base body 10 and leg shank parts and the detected characteristics, it is determined whether or not the obstacle interferes with the leg shank parts. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、障害物との干渉判定を行う装置および段差を乗り越えて移動できる脚車輪型ロボットに係り、特に、実際の干渉を伴うことなく干渉判定を行うことができ、部品点数および重量の増加を抑制し、干渉判定の制約を低減するのに好適な干渉判定装置および脚車輪型ロボットに関する。   The present invention relates to an apparatus for performing interference determination with an obstacle and a leg-wheel type robot that can move over a step, and in particular, can perform interference determination without actual interference, increasing the number of parts and weight. The present invention relates to an interference determination device and a leg-wheel type robot suitable for suppressing the interference and reducing the interference determination constraint.

ロボットの制御においては、ロボットに対して障害物が干渉(衝突)したか否かを判定し、その判定結果に基づいて障害物を回避する制御等の各種の制御を行っている。干渉を判定する技術としては、例えば、特許文献1、2記載の技術が知られている。
特許文献1記載の発明は、減速機を介してモータにより駆動されるロボットにおいて、モータが減速機に出力するトルクからロボットの逆動力学演算で求めた動力学トルクを差し引くことにより、衝突による外力をセンサレスで検出し、外力の検出値があらかじめ設定した所定の閾値より大きければアームが外力を受けたと判断する。
In the control of the robot, it is determined whether or not an obstacle has interfered (collised) with the robot, and various controls such as control for avoiding the obstacle are performed based on the determination result. As a technique for determining interference, for example, techniques described in Patent Documents 1 and 2 are known.
In the invention described in Patent Document 1, in a robot driven by a motor via a speed reducer, an external force due to a collision is obtained by subtracting the dynamic torque obtained by the reverse dynamics calculation of the robot from the torque output from the motor to the speed reducer. Is detected without a sensor, and if the detected value of the external force is greater than a predetermined threshold value, it is determined that the arm has received an external force.

特許文献2記載の発明は、脚部の足平上にマークを付けておき、基体に取り付けられた視覚センサから取得された画像データに基づいて、歩行に対する障害物と脚部の位置関係を把握しながら歩行動作を行う。
特開2006−116650号公報 特開2000−153476号公報
In the invention described in Patent Document 2, a mark is placed on the foot of the leg, and the positional relationship between the obstacle and the leg with respect to walking is grasped based on image data acquired from a visual sensor attached to the base. While walking.
JP 2006-116650 A JP 2000-153476 A

しかしながら、特許文献1記載の発明にあっては、ロボットに対して障害物が実際に干渉しないと干渉したことが判定できないため、障害物を事前に回避する制御を行う上では実用的ではないという問題があった。
また、特許文献2記載の発明にあっては、干渉判定専用のカメラを設ける必要があるため、部品点数および重量が増加するという問題があった。
However, in the invention described in Patent Document 1, since it cannot be determined that an obstacle does not actually interfere with the robot, it is not practical in performing control to avoid the obstacle in advance. There was a problem.
Further, the invention described in Patent Document 2 has a problem that the number of parts and the weight increase because it is necessary to provide a dedicated camera for interference determination.

また、干渉を判定するには、カメラで撮影した画像に脚部と障害物の両方が含まれている必要があるため、干渉の判定に制約があるという問題もあった。例えば、脚部の可動範囲が大きいため下方を広範に撮影しようとすると、ロボットの前方にある障害物を撮影できず、前方の領域について干渉の判定が行えない。逆に、前方を広範に撮影しようとすると、脚部の可動範囲をすべてカバーすることができず、下方および後方の領域について干渉の判定が行えない。   In addition, in order to determine interference, it is necessary to include both legs and obstacles in an image photographed by a camera, so that there is a problem in that interference determination is limited. For example, if the range of movement of the leg is large and an attempt is made to capture a wide area below, an obstacle in front of the robot cannot be imaged and interference cannot be determined for the area in front. Conversely, if an image of the front is to be taken extensively, the entire range of movement of the legs cannot be covered, and interference cannot be determined for the lower and rear regions.

ところで、ロボットの移動機構は、車輪型、クローラ型、脚型またはこれらを組み合わせた機構に分類される。一般に、車輪型ロボットは、平地での移動性は高いが、段差への適応性が低いという問題がある。また、クローラ型ロボットは、不整地に適し、多少の段差であれば乗り越えられるが、積極的な重心移動ができないために急な階段への適応性が低く、平地における移動性が車輪型ロボットより低いという問題があった。また、脚型ロボットは、階段への適応性が最も優れているが、平地での移動性が極端に低いという問題がある。   By the way, the movement mechanism of the robot is classified into a wheel type, a crawler type, a leg type, or a combination of these. In general, a wheel type robot has a problem of high mobility on a flat ground but low adaptability to a step. Crawler type robots are suitable for rough terrain, and can be overcome if there are a few steps. However, because they cannot actively move the center of gravity, they are less adaptable to steep stairs and are more mobile on flat ground than wheel type robots. There was a problem of being low. In addition, the legged robot has the best adaptability to the stairs, but has the problem of extremely low mobility on flat ground.

車輪型、クローラ型および脚型の問題を解決するため、脚型と車輪型を組み合わせた脚車輪型ロボットが提案されている。
脚車輪型ロボットが段差を乗り越える場合、重心を低くするために大きく開脚し、脚部の可動範囲について脚先と段差の干渉を判定しながら、段差を乗り越えるべく脚部を適切に駆動制御することが考えられる。このように、脚部の可動範囲および障害物の監視範囲が広範囲である場合に、特許文献2記載の発明を適用しようとすると、上記制約の問題がより顕著となる。
In order to solve the problems of the wheel type, the crawler type and the leg type, a leg wheel type robot combining the leg type and the wheel type has been proposed.
When a leg-wheel type robot climbs over a step, it opens wide to lower the center of gravity, and appropriately controls the leg to drive over the step while judging the interference between the tip of the leg and the step over the movable range of the leg. It is possible. In this way, when the leg movable range and the obstacle monitoring range are wide, if the invention described in Patent Document 2 is applied, the problem of the restriction becomes more prominent.

そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、実際の干渉を伴うことなく干渉判定を行うことができ、部品点数および重量の増加を抑制し、干渉判定の制約を低減するのに好適な干渉判定装置および脚車輪型ロボットを提供することを目的としている。   Accordingly, the present invention has been made paying attention to such an unsolved problem of the conventional technology, and can perform interference determination without accompanying actual interference, increasing the number of parts and weight. It is an object of the present invention to provide an interference determination device and a leg-wheel type robot suitable for suppressing the interference and reducing the interference determination constraint.

〔発明1〕 上記目的を達成するために、発明1の干渉判定装置は、対象部位について障害物との干渉判定を行う干渉判定装置であって、障害物の特徴点を検出する特徴点検出手段と、前記特徴点および前記対象部位の座標を定める座標系において、前記対象部位またはこれと連動する部位の姿勢および前記対象部位の形状により特定される線、平面または空間であって、前記対象部位の形状に対応する線、前記対象部位の表面に対応する平面または前記対象部位に対応する空間と、前記特徴点検出手段で検出した特徴点との位置関係に基づいて、前記対象部位について障害物との干渉判定を行う干渉判定手段とを備える。   [Invention 1] In order to achieve the above object, an interference determination apparatus according to Invention 1 is an interference determination apparatus that performs interference determination with an obstacle for a target portion, and is a feature point detection unit that detects a feature point of an obstacle. And a line, plane, or space specified by the posture of the target part or a part linked to the target part and the shape of the target part in a coordinate system that defines the coordinates of the feature point and the target part, and the target part Based on the positional relationship between the line corresponding to the shape of the object, the plane corresponding to the surface of the target part or the space corresponding to the target part, and the feature point detected by the feature point detecting means Interference determination means for performing interference determination with.

このような構成であれば、特徴点検出手段により、障害物の特徴点が検出される。そして、干渉判定手段により、特徴点および対象部位の座標を定める座標系において、対象部位の形状に対応する線、対象部位の表面に対応する平面または対象部位に対応する空間と、検出された特徴点との位置関係に基づいて、対象部位について障害物との干渉判定が行われる。この平面等は、対象部位またはこれと連動する部位の姿勢および対象部位の形状により特定される。   With such a configuration, the feature point of the obstacle is detected by the feature point detection means. Then, in the coordinate system for determining the coordinates of the feature point and the target part by the interference determination means, a line corresponding to the shape of the target part, a plane corresponding to the surface of the target part, or a space corresponding to the target part, and the detected feature Based on the positional relationship with the point, interference determination with the obstacle is performed for the target part. This plane or the like is specified by the posture of the target part or a part linked to the target part and the shape of the target part.

したがって、所定の座標系における平面等と特徴点の位置関係に基づいて干渉判定を行うので、実際の干渉を伴う必要はない。また、特許文献2における干渉判定専用のカメラのような専用のセンサを設けなくても、他の用途に用いられるセンサ等を利用することができる。さらに、所定の座標系において対象部位に対応する平面等は姿勢や形状により特定されるため、障害物の特徴点さえ検出できればよく、障害物の監視範囲が対象部位の可動範囲に制約されない。   Therefore, since the interference determination is performed based on the positional relationship between the plane and the like in the predetermined coordinate system and the feature point, it is not necessary to accompany actual interference. Moreover, even if a dedicated sensor such as a camera dedicated to interference determination in Patent Document 2 is not provided, a sensor or the like used for other purposes can be used. Furthermore, since a plane or the like corresponding to the target part in the predetermined coordinate system is specified by the posture or shape, it is only necessary to detect the feature point of the obstacle, and the obstacle monitoring range is not limited to the movable range of the target part.

ここで、特徴点および対象部位の座標を定める座標系としては、特徴点の絶対座標(例えば、接地面を基準とする座標)または相対座標(例えば、干渉判定装置を基準とする座標)を定める座標系、対象部位の絶対座標(例えば、接地面を基準とする座標)または相対座標(例えば、対象部位と連動する部位を基準とする座標)を定める座標系、その他任意の座標系が含まれる。なお、特徴点の座標を定める座標系と、対象部位の座標を定める座標系が異なる場合は、一方の座標系の座標を他方の座標系の座標に変換するか、両方の座標系の座標を、特徴点および対象部位の座標を定める他の座標系の座標に変換すればよい。   Here, as a coordinate system for determining the coordinates of the feature points and the target part, absolute coordinates (for example, coordinates with reference to the ground plane) or relative coordinates (for example, coordinates with reference to the interference determination device) of the feature points are determined. A coordinate system, a coordinate system that defines absolute coordinates (for example, coordinates with reference to the ground plane) or relative coordinates (for example, coordinates with reference to a part linked to the target part), and any other coordinate system are included. . If the coordinate system that defines the coordinates of the feature points is different from the coordinate system that defines the coordinates of the target part, either convert the coordinates of one coordinate system to the coordinates of the other coordinate system, or change the coordinates of both coordinate systems What is necessary is just to convert into the coordinate of another coordinate system which determines the coordinate of a feature point and an object part.

また、対象部位と連動する部位とは、対象部位と連なって動作する部位であって、自身の姿勢から対象部位の姿勢を間接的に特定できるものをいう。
また、干渉判定とは、対象部位に対する障害物の干渉に関する判定をいい、干渉しないことを判定すること、干渉することを判定すること、干渉するか否かを判定すること、干渉の度合いを判定すること、干渉までの度合い(例えば、特徴点と対象部位の間の距離)を判定することが含まれる。以下、発明2の脚車輪型ロボットにおいて同じである。
Moreover, the site | part interlock | cooperating with a target site | part is a site | part which operate | moves in connection with a target site | part, Comprising: The thing which can specify the attitude | position of a target site | part indirectly from own attitude | position.
Interference determination refers to determination regarding interference of an obstacle with respect to a target part, determining that there is no interference, determining whether to interfere, determining whether or not to interfere, and determining the degree of interference Determining the degree of interference (for example, the distance between the feature point and the target part). Hereinafter, the same applies to the leg-wheel type robot of the second aspect.

また、線には、直線、線分、多次曲線、円、楕円その他の曲線が含まれる。以下、発明2の脚車輪型ロボットにおいて同じである。   Lines include straight lines, line segments, multi-order curves, circles, ellipses and other curves. Hereinafter, the same applies to the leg-wheel type robot of the second aspect.

〔発明2〕 一方、上記目的を達成するために、発明2の脚車輪型ロボットは、基体と、前記基体に対して自由度を有して連結された脚部と、前記脚部に回転可能に設けられた車輪と、物体センサとを備え、前記脚部の駆動および前記車輪の回転により移動する脚車輪型ロボットであって、前記物体センサの測定結果に基づいて障害物の特徴点を検出する特徴点検出手段と、前記特徴点および前記対象部位の座標を定める座標系において、当該脚車輪型ロボットの姿勢および前記対象部位の形状により特定される線、平面または空間であって、前記対象部位の形状に対応する線、前記対象部位の表面に対応する平面または前記対象部位に対応する空間と、前記特徴点検出手段で検出した特徴点との位置関係に基づいて、前記対象部位について障害物との干渉判定を行う干渉判定手段とを備える。   [Invention 2] On the other hand, in order to achieve the above object, the leg-wheel type robot of Invention 2 is a base, a leg connected to the base with a degree of freedom, and rotatable to the leg. A leg-wheel type robot having a wheel and an object sensor that are moved by driving the leg and rotating the wheel, and detecting a feature point of an obstacle based on a measurement result of the object sensor In the coordinate system for defining the feature point detection means and the coordinates of the feature point and the target part, a line, a plane, or a space specified by the posture of the leg wheel type robot and the shape of the target part, the target Based on the positional relationship between the line corresponding to the shape of the part, the plane corresponding to the surface of the target part or the space corresponding to the target part, and the feature point detected by the feature point detecting means, the target part And a collision determination unit that performs collision determination of the harm thereof.

このような構成であれば、段差等の障害物のあるところでは、物体センサにより、その測定方向について測定が行われ、特徴点検出手段により、物体センサの測定結果に基づいて障害物の特徴点が検出される。そして、干渉判定手段により、特徴点および対象部位の座標を定める座標系において、対象部位の形状に対応する線、対象部位の表面に対応する平面または対象部位に対応する空間と、検出された特徴点との位置関係に基づいて、対象部位について障害物との干渉判定が行われる。この平面等は、脚車輪型ロボットの姿勢および対象部位の形状により特定される。   With such a configuration, where there is an obstacle such as a step, measurement is performed in the measurement direction by the object sensor, and the feature point of the obstacle is detected based on the measurement result of the object sensor by the feature point detection means. Is detected. Then, in the coordinate system for determining the coordinates of the feature point and the target part by the interference determination means, a line corresponding to the shape of the target part, a plane corresponding to the surface of the target part, or a space corresponding to the target part, and the detected feature Based on the positional relationship with the point, interference determination with the obstacle is performed for the target part. This plane or the like is specified by the posture of the leg wheel type robot and the shape of the target part.

したがって、所定の座標系における平面等と特徴点の位置関係に基づいて干渉判定を行うので、実際の干渉を伴う必要はない。また、特許文献2における干渉判定専用のカメラのような専用のセンサを設けなくても、他の用途に用いられる物体センサを利用することができる。さらに、所定の座標系において対象部位に対応する平面等は姿勢や形状により特定されるため、障害物の特徴点さえ検出できればよく、障害物の監視範囲が対象部位の可動範囲に制約されない。   Therefore, since the interference determination is performed based on the positional relationship between the plane and the like in the predetermined coordinate system and the feature point, it is not necessary to accompany actual interference. In addition, an object sensor used for other purposes can be used without providing a dedicated sensor such as a camera dedicated to interference determination in Patent Document 2. Furthermore, since a plane or the like corresponding to the target part in the predetermined coordinate system is specified by the posture or shape, it is only necessary to detect the feature point of the obstacle, and the obstacle monitoring range is not limited to the movable range of the target part.

また、脚車輪型ロボットにおいては、例えば、物体センサを基体に設け、対象部位に対する障害物の干渉判定を行うことが考えられる。この場合、基体に対して自由度の範囲で脚部が駆動することから、脚車輪型ロボットの姿勢により、対象部位に対する物体センサの位置が変化することとなる。また、物体センサを走査する場合は、対象部位に対する物体センサの向きが変化することとなる。   In a leg wheel type robot, for example, it is conceivable to provide an object sensor on a base and perform interference determination of an obstacle with respect to a target part. In this case, since the leg portion is driven within the range of the degree of freedom with respect to the base body, the position of the object sensor with respect to the target portion changes depending on the posture of the leg wheel type robot. Further, when scanning the object sensor, the direction of the object sensor with respect to the target part changes.

このように、対象部位に対する物体センサの位置や向きが変化する場合は、物体センサの測定結果に基づいて検出される特徴点の座標と、対象部位の座標は、物体センサおよび対象部位の動作の系が異なることからそれぞれ異なる座標系により定められる。しかしながら、座標系が異なる場合は、対象部位に対応する平面等と特徴点の位置関係を直ちには特定することができない。そこで、座標系の変換により平面等と特徴点の座標系を一致させて(すなわち、特徴点および対象部位の座標を定める座標系において)それらの位置関係を特定する必要があるところ、本発明は、脚車輪型ロボットの姿勢および対象部位の形状に基づいてこれを実現することができる。   As described above, when the position and orientation of the object sensor with respect to the target part change, the coordinates of the feature point detected based on the measurement result of the object sensor and the coordinates of the target part are the movements of the object sensor and the target part. Since the systems are different, they are determined by different coordinate systems. However, when the coordinate systems are different, it is not possible to immediately specify the positional relationship between the plane corresponding to the target part and the feature point. Therefore, it is necessary to make the coordinate system of the feature point and the coordinate system of the feature point coincide with each other by conversion of the coordinate system (that is, in the coordinate system that determines the coordinates of the feature point and the target part) and specify the positional relationship between them. This can be realized based on the posture of the leg wheel type robot and the shape of the target part.

したがって、対象部位との位置関係によらず物体センサを設置することができる。
さらに、段差のあるところでは、自由度の範囲で脚部が可動し、段差を乗り越えることができる。したがって、脚型ロボットと同様に段差への適応性が高い。
一方、平地では、車輪走行で移動することができる。したがって、車輪型ロボットと同様に平地での移動性が高い。
Therefore, the object sensor can be installed regardless of the positional relationship with the target part.
Further, where there is a step, the leg can move within a range of degrees of freedom, and the step can be overcome. Therefore, the adaptability to a level difference is high like a legged robot.
On the other hand, on a flat ground, it can move by wheel running. Therefore, the mobility on the flat ground is high like the wheel type robot.

ここで、特徴点および対象部位の座標を定める座標系としては、特徴点の絶対座標(例えば、接地面を基準とする座標)または相対座標(例えば、脚車輪型ロボットを基準とする座標)を定める座標系、対象部位の絶対座標(例えば、接地面を基準とする座標)または相対座標(例えば、脚部を基準とする座標)を定める座標系、その他任意の座標系が含まれる。なお、特徴点の座標を定める座標系と、対象部位の座標を定める座標系が異なる場合は、一方の座標系の座標を他方の座標系の座標に変換するか、両方の座標系の座標を、特徴点および対象部位の座標を定める他の座標系の座標に変換すればよい。
また、脚車輪型ロボットの姿勢には、脚車輪型ロボットの全体の姿勢のほか、脚車輪型ロボットの一部分(例えば、脚部、物体センサ)の姿勢も含まれる。
Here, as a coordinate system for determining the coordinates of the feature point and the target part, the absolute coordinates of the feature point (for example, coordinates with reference to the ground plane) or relative coordinates (for example, coordinates with reference to the leg wheel type robot) are used. A coordinate system to be defined, a coordinate system to define absolute coordinates (for example, coordinates with reference to the ground plane) or relative coordinates (for example, coordinates with reference to the legs), and any other coordinate system are included. If the coordinate system that defines the coordinates of the feature points is different from the coordinate system that defines the coordinates of the target part, either convert the coordinates of one coordinate system to the coordinates of the other coordinate system, or change the coordinates of both coordinate systems What is necessary is just to convert into the coordinate of another coordinate system which determines the coordinate of a feature point and an object part.
Further, the posture of the leg wheel type robot includes the posture of a part of the leg wheel type robot (for example, a leg portion and an object sensor) in addition to the whole posture of the leg wheel type robot.

〔発明3〕 さらに、発明3の脚車輪型ロボットは、発明2の脚車輪型ロボットにおいて、前記干渉判定手段は、前記座標系において、前記対象部位の表面に対応する複数の平面で囲まれる空間に前記特徴点が属するか否かを判定することにより、前記対象部位に対して障害物が干渉するか否かを判定する。   [Invention 3] Furthermore, the leg-wheel robot of Invention 3 is the leg-wheel robot of Invention 2, wherein the interference determination means is a space surrounded by a plurality of planes corresponding to the surface of the target part in the coordinate system. It is determined whether or not an obstacle interferes with the target site by determining whether or not the feature point belongs to.

このような構成であれば、干渉判定手段により、座標系において、対象部位の表面に対応する複数の平面で囲まれる空間に特徴点が属するか否かが判定される。対象部位に対して障害物が干渉した場合は、同空間に特徴点が属し、障害物が干渉していない場合は、同空間に特徴点は属さない。したがって、この判定により、対象部位に対して障害物が干渉するか否かが判定される。   With such a configuration, the interference determination unit determines whether or not the feature point belongs to a space surrounded by a plurality of planes corresponding to the surface of the target part in the coordinate system. When the obstacle interferes with the target part, the feature point belongs to the same space, and when the obstacle does not interfere, the feature point does not belong to the same space. Therefore, this determination determines whether an obstacle interferes with the target part.

〔発明4〕 さらに、発明4の脚車輪型ロボットは、発明3の脚車輪型ロボットにおいて、前記干渉判定手段は、当該脚車輪型ロボットの姿勢および前記対象部位の形状に基づいて、前記対象部位の座標を定める第1座標系の座標を、前記特徴点の座標を定める第2座標系の座標に変換して前記第2座標系における前記複数の平面を特定し、前記第2座標系において、前記複数の平面で囲まれる空間に前記特徴点が属するか否かを判定する。
このような構成であれば、干渉判定手段により、脚車輪型ロボットの姿勢および対象部位の形状に基づいて、第1座標系から第2座標系に座標が変換されて第2座標系における複数の平面が特定され、第2座標系において、複数の平面で囲まれる空間に特徴点が属するか否かが判定される。
[Invention 4] Further, the leg wheel type robot of the invention 4 is the leg wheel type robot of the invention 3, wherein the interference judging means is configured to determine the target part based on the posture of the leg wheel type robot and the shape of the target part. The coordinates of the first coordinate system that determines the coordinates of the feature points are converted into the coordinates of the second coordinate system that determines the coordinates of the feature points to identify the plurality of planes in the second coordinate system, and in the second coordinate system, It is determined whether or not the feature point belongs to a space surrounded by the plurality of planes.
With such a configuration, the interference determination unit converts the coordinates from the first coordinate system to the second coordinate system based on the posture of the leg-wheel robot and the shape of the target part, and a plurality of coordinates in the second coordinate system are obtained. A plane is specified, and it is determined whether or not the feature point belongs to a space surrounded by a plurality of planes in the second coordinate system.

〔発明5〕 さらに、発明5の脚車輪型ロボットは、発明3および4のいずれか1の脚車輪型ロボットにおいて、前記干渉判定手段は、前記特徴点と前記平面上の任意の点を結ぶ直線と、前記平面の法線ベクトルとの内積に基づいて、前記複数の平面で囲まれる空間に前記特徴点が属するか否かを判定する。
このような構成であれば、干渉判定手段により、特徴点と平面上の任意の点を結ぶ直線と、平面の法線ベクトルとの内積に基づいて、複数の平面で囲まれる空間に特徴点が属するか否かが判定される。
[Invention 5] The leg-wheel robot according to Invention 5 is the leg-wheel robot according to any one of Inventions 3 and 4, wherein the interference determination means is a straight line connecting the feature point and an arbitrary point on the plane. And whether the feature point belongs to the space surrounded by the plurality of planes based on the inner product of the normal vector of the plane.
In such a configuration, the feature point is found in a space surrounded by a plurality of planes based on the inner product of a straight line connecting the feature point and an arbitrary point on the plane and the normal vector of the plane by the interference determination unit. It is determined whether or not it belongs.

〔発明6〕 さらに、発明6の脚車輪型ロボットは、発明2ないし5のいずれか1の脚車輪型ロボットにおいて、前記物体センサは、物体上の測定点までの距離を測定する測距センサであり、前記測距センサの測定方向とは異なる第1走査方向に前記測距センサを走査する第1走査手段と、前記測定方向および前記第1走査方向とは異なる第2走査方向に前記測距センサを走査する第2走査手段と、前記第1走査手段および前記第2走査手段の走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得手段とを備え、前記特徴点検出手段は、前記測定結果取得手段で取得した測定結果に基づいて前記特徴点を検出する。
このような構成であれば、第1走査手段により、第1走査方向に測距センサが、第2走査手段により、第2走査方向に測距センサがそれぞれ走査可能となる。したがって、障害物の立体的な形状を把握することができる。そして、測定結果取得手段により、第1走査手段および第2走査手段の走査範囲で測定可能な測定点について測距センサの測定結果が取得され、特徴点検出手段により、取得された測定結果に基づいて特徴点が検出される。
[Invention 6] Further, the leg-wheel type robot of the invention 6 is the leg-wheel type robot according to any one of the inventions 2 to 5, wherein the object sensor is a distance measuring sensor for measuring a distance to a measurement point on the object. A first scanning means for scanning the distance measuring sensor in a first scanning direction different from the measuring direction of the distance measuring sensor; and the distance measuring in a second scanning direction different from the measuring direction and the first scanning direction. A second scanning unit that scans a sensor; and a measurement result acquisition unit that acquires a measurement result of the distance measuring sensor at the measurement point that can be measured in a scanning range of the first scanning unit and the second scanning unit; The feature point detection unit detects the feature point based on the measurement result acquired by the measurement result acquisition unit.
With this configuration, the first scanning unit can scan the distance measuring sensor in the first scanning direction, and the second scanning unit can scan the distance measuring sensor in the second scanning direction. Therefore, the three-dimensional shape of the obstacle can be grasped. Then, the measurement result acquisition means acquires the measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the first scanning means and the second scanning means, and the feature point detection means based on the acquired measurement results Feature points are detected.

ここで、第1走査手段および第2走査手段としては、例えば、次の構成を採用することができる。
(1)回転機構
前記測距センサの測定方向に対して所定角度をなす第1走査軸の回りに前記測距センサを回転させる第1回転手段と、前記測定方向および前記第1走査軸に対して所定角度をなす第2走査軸の回りに前記測距センサを回転させる第2回転手段とからなる構成である。
Here, as the first scanning unit and the second scanning unit, for example, the following configuration can be adopted.
(1) Rotation mechanism First rotation means for rotating the distance measuring sensor around a first scanning axis that forms a predetermined angle with respect to the measurement direction of the distance measuring sensor, and the measurement direction and the first scanning axis. And a second rotating means for rotating the distance measuring sensor around a second scanning axis forming a predetermined angle.

(2)移動機構
前記測距センサの測定方向とは異なる第1走査方向に前記測距センサを移動させる第1移動手段と、前記測定方向および前記第1走査方向とは異なる第2走査方向に前記測距センサを移動させる第2移動手段とからなる構成である。なお、第1移動手段は、前記第1走査方向に延長する経路を含む第1経路に沿って前記測距センサを移動させてもよいし、第2移動手段は、前記第2走査方向に延長する経路を含む第2経路に沿って前記測距センサを移動させてもよい。以下、(3)、(4)においても同様である。
(2) Moving mechanism First moving means for moving the distance measuring sensor in a first scanning direction different from the measuring direction of the distance measuring sensor, and a second scanning direction different from the measuring direction and the first scanning direction. It comprises a second moving means for moving the distance measuring sensor. The first moving unit may move the distance measuring sensor along a first path including a path extending in the first scanning direction, and the second moving unit extends in the second scanning direction. The distance measuring sensor may be moved along a second route including a route to be performed. The same applies to (3) and (4) below.

(3)回転機構と移動機構の組み合わせ
前記測距センサの測定方向に対して所定角度をなす走査軸の回りに前記測距センサを回転させる回転手段と、前記走査軸の軸方向とは異なる走査方向に前記測距センサを移動させる移動手段とからなる構成である。
(3) Combination of rotating mechanism and moving mechanism Rotating means for rotating the distance measuring sensor around a scanning axis forming a predetermined angle with respect to the measuring direction of the distance measuring sensor, and scanning different from the axial direction of the scanning axis And a moving means for moving the distance measuring sensor in the direction.

(4)移動機構と回転機構の組み合わせ
前記測距センサの測定方向とは異なる走査方向に前記測距センサを移動させる移動手段と、前記走査方向に対して所定角度をなす走査軸の回りに前記測距センサを回転させる回転手段とからなる構成である。
(4) A combination of a moving mechanism and a rotating mechanism The moving means for moving the distance measuring sensor in a scanning direction different from the measuring direction of the distance measuring sensor, and the scanning axis about a predetermined angle with respect to the scanning direction It is the structure which consists of a rotation means to rotate a ranging sensor.

〔発明7〕 さらに、発明7の脚車輪型ロボットは、発明6の脚車輪型ロボットにおいて、前記第1走査手段は、前記測定方向に対して所定角度をなす第1走査軸の回りに前記測距センサを回転させる第1回転手段であり、前記第2走査手段は、前記測定方向および前記第1走査軸に対して所定角度をなす第2走査軸の回りに前記測距センサを回転させる第2回転手段であり、前記測定結果取得手段は、前記第1回転手段により前記測距センサを回転させながら前記第1回転手段の所定単位角度ごとに前記測距センサの測定結果を取得する第1走査を、前記第2回転手段により前記測距センサを回転させながら前記第2回転手段の所定単位角度ごとに行う第2走査を行うことにより、前記第1回転手段の所定単位角度ごとおよび前記第2回転手段の所定単位角度ごとの前記測定結果を取得する。   [Invention 7] Further, the leg-wheel type robot of the invention 7 is the leg-wheel type robot of the invention 6, wherein the first scanning means measures the measurement around a first scanning axis that forms a predetermined angle with respect to the measurement direction. A first rotating means for rotating a distance sensor, wherein the second scanning means rotates the distance measuring sensor around a second scanning axis that forms a predetermined angle with respect to the measurement direction and the first scanning axis; The measurement result acquisition means is a first rotation means for acquiring a measurement result of the distance measurement sensor for each predetermined unit angle of the first rotation means while rotating the distance measurement sensor by the first rotation means. By performing a second scan in which scanning is performed for each predetermined unit angle of the second rotating means while rotating the distance measuring sensor by the second rotating means, and for each predetermined unit angle of the first rotating means and the first 2 turns Acquiring the measurement results for each predetermined unit angle stage.

このような構成であれば、第1回転手段により、第1走査軸の回りに測距センサが、第2回転手段により、第2走査軸の回りに測距センサがそれぞれ回転可能となる。したがって、障害物の立体的な形状を把握することができる。そして、測定結果取得手段により、第2走査が行われることにより第1回転手段の所定単位角度ごとおよび第2回転手段の所定単位角度ごとの測定結果が取得される。第2走査では、第2回転手段により測距センサを回転させながら第2回転手段の所定単位角度ごとに第1走査が行われる。第1走査では、第1回転手段により測距センサを回転させながら第1回転手段の所定単位角度ごとに測定結果が取得される。   With such a configuration, the distance measuring sensor can be rotated around the first scanning axis by the first rotating means, and the distance measuring sensor can be rotated around the second scanning axis by the second rotating means. Therefore, the three-dimensional shape of the obstacle can be grasped. Then, the second scanning is performed by the measurement result acquisition unit, whereby measurement results for each predetermined unit angle of the first rotation unit and for each predetermined unit angle of the second rotation unit are acquired. In the second scanning, the first scanning is performed for each predetermined unit angle of the second rotating means while the distance measuring sensor is rotated by the second rotating means. In the first scan, a measurement result is acquired for each predetermined unit angle of the first rotating means while rotating the distance measuring sensor by the first rotating means.

以上説明したように、発明1の干渉判定装置によれば、所定の座標系における平面等と特徴点の位置関係に基づいて干渉判定を行うので、実際の干渉を伴うことなく干渉判定を行うことができるという効果が得られる。また、干渉判定専用のカメラのような専用のセンサを設けなくても、他の用途に用いられるセンサ等を利用することができるので、部品点数および重量の増加を抑制することができるという効果も得られる。さらに、所定の座標系において対象部位に対応する平面等は姿勢や形状により特定されるため、障害物の特徴点さえ検出できればよく、障害物の監視範囲が対象部位の可動範囲に制約されず、干渉判定の制約を低減することができるという効果も得られる。   As described above, according to the interference determination device of the first aspect of the present invention, the interference determination is performed based on the positional relationship between the plane and the like in the predetermined coordinate system and the feature points, so that the interference determination can be performed without actual interference. The effect of being able to be obtained. In addition, even if a dedicated sensor such as a camera dedicated to interference determination is not provided, a sensor used for other purposes can be used, so that an increase in the number of parts and weight can be suppressed. can get. Furthermore, since the plane corresponding to the target part in the predetermined coordinate system is specified by the posture and shape, it is only necessary to detect the feature point of the obstacle, and the monitoring range of the obstacle is not limited to the movable range of the target part, The effect that the restriction | limiting of interference determination can be reduced is also acquired.

一方、発明2の脚車輪型ロボットによれば、所定の座標系における平面等と特徴点の位置関係に基づいて干渉判定を行うので、実際の干渉を伴うことなく干渉判定を行うことができるという効果が得られる。また、干渉判定専用のカメラのような専用のセンサを設けなくても、他の用途に用いられる物体センサを利用することができるので、部品点数および重量の増加を抑制することができるという効果も得られる。さらに、所定の座標系において対象部位に対応する平面等は姿勢や形状により特定されるため、障害物の特徴点さえ検出できればよく、障害物の監視範囲が対象部位の可動範囲に制約されず、干渉判定の制約を低減することができるという効果も得られる。さらに、対象部位との位置関係によらず物体センサを設置することができるので、干渉判定の制約をさらに低減することができるという効果も得られる。   On the other hand, according to the leg-wheel type robot of the second aspect, since the interference determination is performed based on the positional relationship between the plane and the like in the predetermined coordinate system and the feature point, the interference determination can be performed without actual interference. An effect is obtained. In addition, since an object sensor used for other purposes can be used without providing a dedicated sensor such as a dedicated camera for interference determination, there is also an effect that an increase in the number of parts and weight can be suppressed. can get. Furthermore, since the plane corresponding to the target part in the predetermined coordinate system is specified by the posture and shape, it is only necessary to detect the feature point of the obstacle, and the monitoring range of the obstacle is not limited to the movable range of the target part, The effect that the restriction | limiting of interference determination can be reduced is also acquired. Furthermore, since the object sensor can be installed regardless of the positional relationship with the target part, an effect that the restriction of interference determination can be further reduced can be obtained.

さらに、発明3の脚車輪型ロボットによれば、対象部位に対して障害物が干渉するか否かを比較的正確に判定することができるという効果が得られる。
さらに、発明5の脚車輪型ロボットによれば、複数の平面で囲まれる空間に特徴点が属するか否かを比較的容易に判定することができるという効果が得られる。
さらに、発明6の脚車輪型ロボットによれば、障害物の立体的な形状を把握することができ、これに基づいて検出された特徴点により干渉判定を行うことができるので、干渉判定の精度を向上することができるという効果が得られる。
Furthermore, according to the leg-wheel type robot of the invention 3, it is possible to determine relatively accurately whether or not an obstacle interferes with the target part.
Furthermore, according to the leg-wheel type robot of the fifth aspect, it is possible to relatively easily determine whether or not a feature point belongs to a space surrounded by a plurality of planes.
Furthermore, according to the leg-wheel type robot of the invention 6, the three-dimensional shape of the obstacle can be grasped, and the interference determination can be performed based on the feature point detected based on the three-dimensional shape. The effect that can be improved is obtained.

さらに、発明7の脚車輪型ロボットによれば、測距センサを回転させる回転機構を採用したので、移動機構に比して、走査に必要なスペースが小さくてすみ、走査のための機構が簡素となり、しかも高速な走査を実現することができるという効果が得られる。   Furthermore, according to the leg-wheel type robot of the invention 7, since the rotation mechanism for rotating the distance measuring sensor is adopted, the space required for scanning is smaller than that of the moving mechanism, and the mechanism for scanning is simple. In addition, an effect that high-speed scanning can be realized is obtained.

以下、本発明の第1の実施の形態を図面を参照しながら説明する。図1ないし図14は、本発明に係る干渉判定装置および脚車輪型ロボットの第1の実施の形態を示す図である。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. 1 to 14 are diagrams showing a first embodiment of an interference determination device and a leg-wheel type robot according to the present invention.

まず、本発明を適用する脚車輪型ロボット100の構成を説明する。
図1は、脚車輪型ロボット100の正面図である。
図2は、脚車輪型ロボット100の側面図である。
脚車輪型ロボット100は、図1および図2に示すように、基体10と、基体10に連結された4つの脚部12とを有して構成されている。
基体10の前部には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。また、基体10の後部には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。回転関節14は、脚車輪型ロボット100の底面と直交する方向を軸方向として回転する。すなわち、ヨー軸回りに回転する。
First, the configuration of a leg wheel type robot 100 to which the present invention is applied will be described.
FIG. 1 is a front view of a leg wheel type robot 100.
FIG. 2 is a side view of the leg wheel type robot 100.
As shown in FIGS. 1 and 2, the leg-wheel type robot 100 includes a base body 10 and four leg portions 12 coupled to the base body 10.
Two legs 12 are connected to the front portion of the base body 10 via a rotary joint 14 at symmetrical positions. In addition, two legs 12 are connected to the rear part of the base body 10 via a rotary joint 14 at symmetrical positions. The rotary joint 14 rotates with the direction orthogonal to the bottom surface of the leg wheel type robot 100 as an axial direction. That is, it rotates around the yaw axis.

各脚部12には、2つの回転関節16、18が設けられている。回転関節14は、下方を軸方向として回転し、回転関節16、18は、回転関節14が図1の状態であるときは、脚車輪型ロボット100の側面と直交する方向を軸方向として回転する。すなわち、回転関節14が図1の状態であるときは、ピッチ軸回りに回転し、回転関節14が図1の状態から90度回転した状態であるときは、ロール軸回りに回転する。したがって、脚部12は、それぞれ3自由度を有する。   Each leg portion 12 is provided with two rotary joints 16 and 18. The rotary joint 14 rotates with the lower side as the axial direction, and the rotary joints 16 and 18 rotate with the direction orthogonal to the side surface of the leg wheel type robot 100 as the axial direction when the rotary joint 14 is in the state of FIG. . That is, when the rotary joint 14 is in the state of FIG. 1, it rotates about the pitch axis, and when the rotary joint 14 is rotated 90 degrees from the state of FIG. 1, it rotates about the roll axis. Therefore, each leg 12 has three degrees of freedom.

各脚部12の先端には、回転関節16、18と軸方向を同一にして駆動輪20が回転可能に設けられている。
各脚部12の先端には、脚車輪型ロボット100の移動経路上に存在する物体までの距離を測定する前方脚先センサ22と、接地面までの距離を測定する下方脚先センサ24とが設けられている。
A driving wheel 20 is rotatably provided at the tip of each leg 12 with the same axial direction as the rotary joints 16 and 18.
At the tip of each leg 12, a front leg tip sensor 22 for measuring the distance to an object existing on the movement path of the leg wheel type robot 100 and a lower leg tip sensor 24 for measuring the distance to the ground plane are provided. Is provided.

一方、基体10の正面の上部中央には、水平面レーザ光を照射する水平レーザ26が設けられている。また、基体10の正面の中央左右には、垂直面レーザ光を照射する垂直レーザ28、30がそれぞれ設けられている。
基体10の正面の下部中央には、水平面レーザ光および垂直面レーザ光の反射光を含む画像を撮影するカメラ32が設けられている。
On the other hand, a horizontal laser 26 that irradiates a horizontal laser beam is provided in the upper center of the front surface of the substrate 10. In addition, vertical lasers 28 and 30 for irradiating vertical surface laser light are respectively provided on the center left and right of the front surface of the substrate 10.
A camera 32 that captures an image including reflected light of a horizontal plane laser beam and a vertical plane laser beam is provided at the lower center of the front surface of the substrate 10.

水平レーザ26は、カメラ32で水平面レーザ光の反射光を含む画像が撮影できるように下方に所定角度傾けて設けられている。同様に、垂直レーザ28は、カメラ32で垂直面レーザ光の反射光を含む画像が撮影できるように右方に所定角度傾けて設けられ、垂直レーザ30は、左方に所定角度傾けて設けられている。
カメラ32の左右には、障害物を検出する障害物センサ34、36がそれぞれ設けられている。
The horizontal laser 26 is provided so as to be inclined downward by a predetermined angle so that the camera 32 can capture an image including the reflected light of the horizontal laser beam. Similarly, the vertical laser 28 is tilted to the right by a predetermined angle so that the camera 32 can capture an image including reflected light of the vertical plane laser beam, and the vertical laser 30 is tilted to the left by a predetermined angle. ing.
Obstacle sensors 34 and 36 for detecting an obstacle are provided on the left and right of the camera 32, respectively.

図3は、障害物センサ34、36の構成を示す図である。
障害物センサ34、36は、図3(a)に示すように、指向性の低い超音波測距センサを複数アレイ状に配列して構成することができる。また、図3(b)に示すように、指向性の高い赤外線測距センサを複数アレイ状に配列して構成することもできる。アレイ状に配列する構成に限らず、単体で構成してもよい。また、超音波測距センサまたは赤外線測距センサを複数平面上に配列したエリアセンサで構成してもよい。これにより、脚車輪型ロボット100の移動経路上に存在する物体を大まかに検出することができる。
FIG. 3 is a diagram illustrating the configuration of the obstacle sensors 34 and 36.
As shown in FIG. 3A, the obstacle sensors 34 and 36 can be configured by arranging a plurality of ultrasonic ranging sensors having low directivity in an array. Further, as shown in FIG. 3B, a plurality of infrared ranging sensors having high directivity can be arranged in an array. It is not limited to the configuration arranged in an array, and may be configured as a single unit. Moreover, you may comprise with the area sensor which arranged the ultrasonic ranging sensor or the infrared ranging sensor on the several plane. Thereby, the object which exists on the movement path | route of the leg wheel type robot 100 can be detected roughly.

次に、脚車輪型ロボット100の移動制御システムを説明する。
図4は、脚車輪型ロボット100の移動制御システムを示すブロック図である。
各脚部12の回転関節14〜18には、図4に示すように、回転関節14〜18を回転駆動する関節モータ40がそれぞれ設けられている。各関節モータ40には、関節モータ40の回転角度位置を検出するエンコーダ42と、モータ指令信号およびエンコーダ42の出力信号に基づいて関節モータ40の駆動を制御するドライバ44が設けられている。
Next, the movement control system of the leg wheel type robot 100 will be described.
FIG. 4 is a block diagram showing a movement control system of the leg wheel type robot 100.
As shown in FIG. 4, joint motors 40 that rotationally drive the rotary joints 14 to 18 are respectively provided in the rotary joints 14 to 18 of the respective leg portions 12. Each joint motor 40 is provided with an encoder 42 that detects the rotational angle position of the joint motor 40, and a driver 44 that controls the driving of the joint motor 40 based on the motor command signal and the output signal of the encoder 42.

各脚部12の駆動輪20には、駆動輪20を回転駆動する車輪モータ50がそれぞれ設けられている。各車輪モータ50には、車輪モータ50の回転角度位置を検出するエンコーダ52と、モータ指令信号およびエンコーダ52の出力信号に基づいて車輪モータ50の駆動を制御するドライバ54が設けられている。
脚車輪型ロボット100は、さらに、CPU60と、脚車輪型ロボット100の姿勢を検出する3軸姿勢センサ70と、カメラ32の画像信号を処理するビジョンプロセッサ72と、外部のPC等と無線通信を行う無線通信部74と、ビジョンプロセッサ72および無線通信部74とCPU60の入出力を中継するハブ76と、警告音等を出力するスピーカ78とを有して構成されている。
A wheel motor 50 that rotationally drives the drive wheel 20 is provided on the drive wheel 20 of each leg 12. Each wheel motor 50 is provided with an encoder 52 that detects the rotational angle position of the wheel motor 50, and a driver 54 that controls the driving of the wheel motor 50 based on the motor command signal and the output signal of the encoder 52.
The leg wheel type robot 100 further performs wireless communication with the CPU 60, the three-axis attitude sensor 70 that detects the attitude of the leg wheel type robot 100, the vision processor 72 that processes the image signal of the camera 32, and an external PC. The wireless communication unit 74 is configured to include a vision processor 72, a wireless communication unit 74, a hub 76 that relays input / output of the CPU 60, and a speaker 78 that outputs a warning sound or the like.

3軸姿勢センサ70は、ジャイロ若しくは加速度センサ、またはその両方を有し、地軸に対して脚車輪型ロボット100の姿勢の傾きを検出する。
CPU60は、モータ指令出力I/F61を介してドライバ44、54にモータ指令信号を出力し、角度取込I/F62を介してエンコーダ42、52の出力信号を入力する。また、センサ入力I/F63を介して、前方脚先センサ22、下方脚先センサ24、障害物センサ34、36および3軸姿勢センサ70からそれぞれセンサ信号を入力する。また、通信I/F64を介してハブ76と信号の入出力を行い、サウンド出力I/F65を介してスピーカ78に音声信号を出力する。
The triaxial attitude sensor 70 includes a gyroscope or an acceleration sensor, or both, and detects the inclination of the attitude of the leg wheel type robot 100 with respect to the ground axis.
The CPU 60 outputs motor command signals to the drivers 44 and 54 via the motor command output I / F 61 and inputs output signals of the encoders 42 and 52 via the angle fetch I / F 62. In addition, sensor signals are input from the front leg tip sensor 22, the lower leg tip sensor 24, the obstacle sensors 34 and 36, and the triaxial posture sensor 70 via the sensor input I / F 63. Further, signals are input / output to / from the hub 76 via the communication I / F 64, and an audio signal is output to the speaker 78 via the sound output I / F 65.

次に、CPU60で実行される処理を説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、図5のフローチャートに示す昇降制御処理を実行する。
次に、昇降制御処理を説明する。
図5は、昇降制御処理を示すフローチャートである。
Next, processing executed by the CPU 60 will be described.
The CPU 60 activates a control program stored in a predetermined area such as a ROM, and executes the elevation control process shown in the flowchart of FIG. 5 according to the control program.
Next, the elevation control process will be described.
FIG. 5 is a flowchart showing the elevation control process.

昇降制御処理は、脚部12の昇降制御を行う処理であって、CPU60において実行されると、まず、図5に示すように、ステップS100に移行する。
ステップS100では、ビジョンプロセッサ72から画像を取り込み、ステップS102に移行する。
ステップS102では、取り込んだ画像に基づいて光切断法により階段の特徴点を検出する。
The elevation control process is a process for performing the elevation control of the leg portion 12. When the elevation control process is executed by the CPU 60, the process first proceeds to step S100 as shown in FIG.
In step S100, an image is captured from the vision processor 72, and the process proceeds to step S102.
In step S102, feature points of the staircase are detected by a light cutting method based on the captured image.

図6は、光切断法の原理を説明するための図である。
光切断法は、三角測量の原理により計測対象上の座標を求める計測法である。図6に計測座標系を示す。
計測対象上の座標P(x0、y0、z0)は、カメラ32の撮像素子上の任意の座標をPs(xi、yi、zi)とすると、下式(1)により求めることができる。
FIG. 6 is a diagram for explaining the principle of the light cutting method.
The light section method is a measurement method for obtaining coordinates on a measurement object based on the principle of triangulation. FIG. 6 shows the measurement coordinate system.
The coordinates P (x0, y0, z0) on the measurement target can be obtained by the following equation (1), where Ps (xi, yi, zi) is an arbitrary coordinate on the image sensor of the camera 32.

Figure 2009050936
Figure 2009050936

次に、得られた3次元座標から、レーザ光の反射光の不連続点または屈曲点を階段の特徴点として検出する。
図7は、階段にレーザ光を照射した状態およびカメラ32の撮像素子の画像を示す図である。
Next, from the obtained three-dimensional coordinates, a discontinuous point or a bending point of the reflected laser beam is detected as a feature point of the staircase.
FIG. 7 is a diagram illustrating a state in which the staircase is irradiated with laser light and an image of the imaging element of the camera 32.

脚車輪型ロボット100の移動経路上に階段が存在すると、図7(a)左側に示すように、水平レーザ26から照射された水平面レーザ光が階段の蹴込板および床面で反射し、カメラ32により、その反射光を含む階段の画像が撮影される。その画像に対して画像処理を行うと、図7(a)右側に示すように、蹴込板での反射光エッジおよび床面での反射光エッジを検出することができる。そして、そのエッジ画像および上式(1)により得られた3次元座標に基づいて、反射光エッジの不連続点に対応する実座標を算出することができる。   When a stairway is present on the movement path of the leg-wheel type robot 100, as shown on the left side of FIG. 7A, the horizontal laser beam emitted from the horizontal laser 26 is reflected by the kick plate and the floor surface of the staircase, and the camera 32 Thus, an image of the stairs including the reflected light is taken. When image processing is performed on the image, a reflected light edge on the kick plate and a reflected light edge on the floor surface can be detected as shown on the right side of FIG. Based on the edge image and the three-dimensional coordinates obtained by the above equation (1), the actual coordinates corresponding to the discontinuous points of the reflected light edge can be calculated.

また、図7(b)左側に示すように、垂直レーザ28から照射された垂直面レーザ光が階段の蹴込板および踏板で反射し、カメラ32により、その反射光を含む階段の画像が撮影される。その画像に対して画像処理を行うと、図7(b)右側に示すように、蹴込板での反射光エッジおよび踏板での反射光エッジを検出することができる。また、垂直レーザ30についても同様であり、図7(c)右側に示すように、蹴込板での反射光エッジおよび踏板での反射光エッジを検出することができる。そして、それらエッジ画像および上式(1)により得られた3次元座標に基づいて、反射光エッジの屈曲点に対する実座標を算出することができる。   Further, as shown on the left side of FIG. 7B, the vertical plane laser light emitted from the vertical laser 28 is reflected by the stair kick plate and the step board, and the camera 32 captures an image of the stair including the reflected light. The When image processing is performed on the image, a reflected light edge on the kick board and a reflected light edge on the tread board can be detected as shown on the right side of FIG. The same applies to the vertical laser 30. As shown on the right side of FIG. 7C, the reflected light edge on the kick board and the reflected light edge on the tread board can be detected. Based on these edge images and the three-dimensional coordinates obtained by the above equation (1), the actual coordinates for the bent point of the reflected light edge can be calculated.

図8は、階段の昇降時に段鼻部の特徴点を検出する場合を示す図である。
脚車輪型ロボット100が階段を上る場合は、図8(a)に示すように、階段を上る前に、反射光エッジの屈曲点として段鼻部の特徴点を検出することができる。また、階段を下る場合は、図8(b)に示すように、階段を下る前に、反射光エッジの屈曲点として段鼻部の特徴点を検出することができる。
FIG. 8 is a diagram illustrating a case where feature points of the stair nose are detected when the stairs are raised and lowered.
When the leg-wheel type robot 100 climbs the stairs, as shown in FIG. 8A, before climbing the stairs, the characteristic point of the nose can be detected as the bending point of the reflected light edge. Further, when going down the stairs, as shown in FIG. 8 (b), before going down the stairs, it is possible to detect the characteristic point of the nose as the bending point of the reflected light edge.

図5に戻り、次いで、ステップS103に移行して、障害物との干渉の有無を判定する干渉判定処理を実行し、ステップS104に移行して、干渉判定処理の判定結果に基づいて障害物と干渉するか否かを判定し、干渉しないと判定したとき(No)は、ステップS105に移行する。
ステップS105では、検出した特徴点に基づいて階段の幅を算出し、ステップS106に移行して、検出した特徴点に基づいて階段の段鼻部の実座標を算出し、ステップS108に移行する。
Returning to FIG. 5, next, the process proceeds to step S <b> 103, where an interference determination process for determining the presence or absence of interference with the obstacle is executed. The process proceeds to step S <b> 104, and the obstacle determination It is determined whether or not interference occurs, and when it is determined that interference does not occur (No), the process proceeds to step S105.
In step S105, the width of the staircase is calculated based on the detected feature point, the process proceeds to step S106, the actual coordinates of the stair nosing part of the staircase are calculated based on the detected feature point, and the process proceeds to step S108.

ステップS108では、算出した階段の幅および段鼻部の実座標、並びに3軸姿勢センサ70のセンサ信号に基づいて逆運動学計算および重心計算を行い、ステップS110に移行して、ステップS108の計算結果に基づいて脚先(駆動輪20)の着地位置を決定し、ステップS112に移行する。
ステップS112では、前方脚先センサ22および下方脚先センサ24からそれぞれセンサ信号を入力し、ステップS114に移行して、入力した前方脚先センサ22のセンサ信号に基づいて蹴込板までの距離を算出し、ステップS116に移行して、入力した下方脚先センサ24のセンサ信号に基づいて脚先と踏板の位置関係を算出し、ステップS118に移行する。
In step S108, inverse kinematics calculation and centroid calculation are performed based on the calculated stair width and actual coordinates of the nose and the sensor signal of the three-axis posture sensor 70. The process proceeds to step S110, and the calculation result in step S108. The landing position of the leg tip (drive wheel 20) is determined based on the above, and the process proceeds to step S112.
In step S112, sensor signals are input from the front leg tip sensor 22 and the lower leg tip sensor 24, respectively, and the process proceeds to step S114 to calculate the distance to the kick plate based on the input sensor signal of the front leg tip sensor 22. Then, the process proceeds to step S116, where the positional relationship between the leg tip and the tread is calculated based on the input sensor signal of the lower leg tip sensor 24, and the process proceeds to step S118.

ステップS118では、決定した着地位置および算出した両距離に基づいてドライバ44、54へのモータ指令信号を生成し、ステップS120に移行して、生成したモータ指令信号をドライバ44、54に出力し、ステップS122に移行する。
ステップS122では、脚先が踏板に着地したか否かを判定し、脚先が着地したと判定したとき(Yes)は、一連の処理を終了して元の処理に復帰させる。
In step S118, a motor command signal to the drivers 44 and 54 is generated based on the determined landing position and the calculated both distances, the process proceeds to step S120, and the generated motor command signal is output to the drivers 44 and 54. The process proceeds to step S122.
In step S122, it is determined whether or not the leg tip has landed on the tread. If it is determined that the leg tip has landed (Yes), the series of processes is terminated and the process returns to the original process.

一方、ステップS122で、脚先が着地しないと判定したとき(No)は、ステップS112に移行する。
一方、ステップS104で、障害物と干渉すると判定したとき(Yes)は、ステップS124に移行して、干渉を回避する干渉回避処理を実行し、一連の処理を終了して元の処理に復帰させる。
On the other hand, when it is determined in step S122 that the leg tip does not land (No), the process proceeds to step S112.
On the other hand, if it is determined in step S104 that the object interferes with the obstacle (Yes), the process proceeds to step S124, the interference avoidance process for avoiding the interference is executed, the series of processes are terminated, and the original process is restored. .

次に、ステップS103の干渉判定処理を説明する。
脚車輪型ロボット100が階段を昇降する場合は、脚部12のうち回転関節18および駆動輪20が連結するリンク(以下、脚すね部という。)と、階段の段鼻部とが干渉し得る。したがって、干渉判定処理では、脚すね部に対して段鼻部が干渉するか否かを判定する。この判定は、特定の脚部12(例えば、前脚)について行ってもよいし、すべての脚部12について行ってもよい。
Next, the interference determination process in step S103 will be described.
When the leg-wheel type robot 100 moves up and down the stairs, a link (hereinafter referred to as a leg shin portion) connecting the rotary joint 18 and the drive wheel 20 in the leg portion 12 and the stair nosing portion of the stairs may interfere with each other. Therefore, in the interference determination process, it is determined whether or not the nose part interferes with the leg shin part. This determination may be performed for a specific leg 12 (for example, the front leg) or may be performed for all the legs 12.

図9は、グローバル座標系において脚すね部の表面に対応する4つの平面を示す図である。同図(a)は、脚すね部の斜視図であり、同図(b)は、脚すね部の厚さ方向の断面図であり、同図(c)は、脚すね部の伸長方向の断面図である。
段鼻部の特徴点の座標は、特徴点を検出するための物体センサ(本実施の形態では、レーザ26〜30およびカメラ32)からみた脚車輪型ロボット100の外部を基準とするグローバル座標系で定められる。そこで、干渉の判定は、図9(a)に示すように、グローバル座標系において、矩形からなる脚すね部の正面、背面、右側面および左側面の各表面ごとにその表面に対応する平面(以下、脚すね部平面という。)を特定し、図9(b)に示すように、特定した4つの脚すね部平面で囲まれる空間(すなわち、脚すね部の内部領域に対応する空間)に特徴点が属するか否かを判定することにより行う。同空間に特徴点が属すると判定したときは、脚すね部に対して段鼻部が干渉すると判定し、同空間に特徴点が属さないと判定したときは、脚すね部に対して段鼻部が干渉しないと判定する。
FIG. 9 is a diagram showing four planes corresponding to the surface of the leg shin portion in the global coordinate system. The figure (a) is a perspective view of a leg shin part, The figure (b) is sectional drawing of the thickness direction of a leg shin part, The figure (c) is the extension direction of a leg shin part. It is sectional drawing.
The coordinates of the feature points of the nose portion are a global coordinate system based on the outside of the leg-wheel type robot 100 as viewed from an object sensor (in this embodiment, the lasers 26 to 30 and the camera 32) for detecting the feature points. Determined. Therefore, as shown in FIG. 9A, the determination of interference is performed by using a plane corresponding to the front surface, the rear surface, the right side surface, and the left side surface of the rectangular leg shin portion in the global coordinate system (see FIG. 9A). Hereinafter, the leg shin part plane is specified), and as shown in FIG. 9B, a space surrounded by the four specified leg shin part planes (that is, a space corresponding to the inner region of the leg shin part). This is done by determining whether or not a feature point belongs. When it is determined that the feature point belongs to the same space, it is determined that the nose part interferes with the leg shin part. When it is determined that the feature point does not belong to the same space, the nose part is determined with respect to the leg shin part. It is determined that there is no interference.

図10は、段鼻部の特徴点A、脚すね部平面、脚すね部平面上の任意の点Pおよび脚すね部平面の法線ベクトルNを示す図である。
段鼻部の特徴点をA、脚すね平面上の任意の点をP、脚すね部平面の法線ベクトルをNとすると、図10に示すように、特徴点Aと点Pを結ぶ直線PAと、法線ベクトルNとの内積Dは、下式(2)により求めることができる。
FIG. 10 is a diagram showing the characteristic point A of the nose, the leg shin plane, the arbitrary point P on the leg shin plane, and the normal vector N of the leg shin plane.
Assuming that the feature point of the nose is A, an arbitrary point on the leg shin plane is P, and the normal vector of the leg shin plane is N, as shown in FIG. 10, a straight line PA connecting the feature point A and the point P The inner product D with the normal vector N can be obtained by the following equation (2).

Figure 2009050936
Figure 2009050936

D>0のときは、脚すね平面の表側(脚すね部の外側)に特徴点が位置し、D=0のときは、脚すね平面上に特徴点が位置し、D<0のときは、脚すね平面の裏側(脚すね部の内側)に特徴点が位置する。   When D> 0, the feature point is located on the front side of the leg shin plane (outside the leg shin part), when D = 0, the feature point is located on the leg shin plane, and when D <0 The feature point is located on the back side of the leg shin plane (inside the leg shin part).

脚すね部の正面、背面、右側面および左側面に対応する脚すね平面についての内積DをそれぞれD1、D2、D3、D4とすると、D1≧0またはD2≧0またはD3≧0またはD4≧0が成立する場合は、4つの脚すね部平面で囲まれる空間に特徴点Aが属さないので、脚すね部に対して段鼻部が干渉しないと判定する。
なお、4つの脚すね部平面で判定する場合は、脚すね部の底面よりも下方の領域も干渉判定の対象領域としてしまうため、脚すね部が特徴点Aを跨ぐような場合も干渉すると判定してしまう。そこで、より好ましくは、脚すね部の底面に対応する脚すね平面も考慮することである。脚すね部の底面に対応する脚すね平面についての内積DをD5とすると、D1≧0またはD2≧0またはD3≧0またはD4≧0またはD5≧0が成立する場合は、5つの脚すね部平面で囲まれる空間に特徴点Aが属さないので、脚すね部に対して段鼻部が干渉しないと判定することができる。
If the inner products D of the leg shin planes corresponding to the front, back, right side, and left side of the leg shin part are D1, D2, D3, and D4, respectively, D1 ≧ 0 or D2 ≧ 0 or D3 ≧ 0 or D4 ≧ 0. When is established, since the feature point A does not belong to the space surrounded by the four leg shin planes, it is determined that the nosing part does not interfere with the leg shin part.
In addition, when determining with the four leg shin part planes, since the area below the bottom surface of the leg shin part is also the target area for the interference determination, it is determined that interference occurs even when the leg shin part straddles the feature point A. Resulting in. Therefore, more preferably, a leg shin plane corresponding to the bottom surface of the leg shin part is also taken into consideration. If the inner product D for the leg shin plane corresponding to the bottom surface of the leg shin part is D5, if D1≥0 or D2≥0 or D3≥0 or D4≥0 or D5≥0, then five leg shin parts Since the feature point A does not belong to the space surrounded by the plane, it can be determined that the nose part does not interfere with the leg shin part.

同様に、4つの脚すね部平面で判定する場合は、脚すね部の上面よりも上方の領域も干渉判定の対象領域としてしまうため、脚すね部が特徴点Aを潜るような場合も干渉すると判定してしまう。そこで、より好ましくは、脚すね部の上面に対応する脚すね平面も考慮することである。脚すね部の上面に対応する脚すね平面についての内積DをD6とすると、D1≧0またはD2≧0またはD3≧0またはD4≧0またはD6≧0が成立する場合は、5つの脚すね部平面で囲まれる空間に特徴点Aが属さないので、脚すね部に対して段鼻部が干渉しないと判定することができる。   Similarly, when the determination is made using the four leg shin planes, the area above the upper surface of the leg shin is also the target area for the interference determination. I will judge. Therefore, more preferably, a leg shin plane corresponding to the upper surface of the leg shin part is also taken into consideration. When the inner product D for the leg shin plane corresponding to the upper surface of the leg shin part is D6, if D1≥0 or D2≥0 or D3≥0 or D4≥0 or D6≥0, five leg shin parts Since the feature point A does not belong to the space surrounded by the plane, it can be determined that the nose part does not interfere with the leg shin part.

さらに好ましくは、脚すね部の底面および上面に対応する脚すね平面も考慮することである。D1≧0またはD2≧0またはD3≧0またはD4≧0またはD5≧0またはD6≧0が成立する場合は、6つの脚すね部平面で囲まれる空間に特徴点Aが属さないので、脚すね部に対して段鼻部が干渉しないと判定することができる。
次に、グローバル座標系において点Pの座標を求める場合を説明する。
More preferably, the leg shin plane corresponding to the bottom surface and the top surface of the leg shin portion is also taken into consideration. If D1 ≧ 0 or D2 ≧ 0 or D3 ≧ 0 or D4 ≧ 0 or D5 ≧ 0 or D6 ≧ 0, the feature point A does not belong to the space surrounded by the six leg shin planes. It can be determined that the nose part does not interfere with the part.
Next, a case where the coordinates of the point P are obtained in the global coordinate system will be described.

特徴点Aの座標は、グローバル座標系で定められるのに対し、脚すね部の座標は、脚すね部を基準とする相対座標系で定められる。したがって、グローバル座標系における点Pの座標は、脚すね部の座標を定める座標系の座標をグローバル座標系の座標に変換して求める必要がある。
図11は、グローバル座標系および脚車輪型ロボット100の各座標系を示す図である。
The coordinates of the feature point A are determined in the global coordinate system, while the coordinates of the leg shin part are determined in a relative coordinate system based on the leg shin part. Therefore, the coordinates of the point P in the global coordinate system must be obtained by converting the coordinates of the coordinate system that determines the coordinates of the leg shin portion into the coordinates of the global coordinate system.
FIG. 11 is a diagram illustrating a global coordinate system and each coordinate system of the leg-wheel type robot 100.

図11において、Pgは、グローバル座標系、P0は、基体10の底面中心を原点とする座標系、P1は、基体10と右後ろの脚部12との付け根を原点とする座標系、P2は、回転関節14を原点とする座標系、P3は、回転関節16を原点とする座標系、P4は、回転関節18を原点とする座標系である。ここで、座標系P4が脚すね部の座標を定める座標系となる。   In FIG. 11, Pg is a global coordinate system, P0 is a coordinate system with the center of the bottom surface of the base 10 as an origin, P1 is a coordinate system with the base of the base 10 and the right rear leg 12 as an origin, and P2 is , A coordinate system with the rotational joint 14 as the origin, P3 is a coordinate system with the rotational joint 16 as the origin, and P4 is a coordinate system with the rotational joint 18 as the origin. Here, the coordinate system P4 is a coordinate system for determining the coordinates of the leg shin portion.

グローバル座標系Pgおよび座標系P0〜P4は、3軸が互いに直交する直交座標系として定義される。
グローバル座標系Pgは、特徴点Aを検出するための物体センサからみた座標系であって、その原点は、座標系P0の原点から所定距離(A、B、C)離れたところに設定されている。
The global coordinate system Pg and the coordinate systems P0 to P4 are defined as orthogonal coordinate systems in which three axes are orthogonal to each other.
The global coordinate system Pg is a coordinate system viewed from the object sensor for detecting the feature point A, and its origin is set at a predetermined distance (A, B, C) from the origin of the coordinate system P0. Yes.

座標系P0は、基体10の奥行き(前後の長さ)方向をx0軸、基体10の幅(左右の長さ)方向をy0軸、基体10の高さ方向をz0軸とし、x0軸は基体10の後方を、y0軸は基体10の右方を、z0軸は基体10の上方をそれぞれ正の方向とする。原点は、基体10の底面中心となるので、基体10の奥行きをL、基体10の幅をWとすると、(L/2、W/2、0)となる。   In the coordinate system P0, the depth (front / rear length) direction of the base 10 is the x0 axis, the width (left / right length) direction of the base 10 is the y0 axis, and the height direction of the base 10 is the z0 axis. 10, the y0 axis is the right side of the base 10, and the z0 axis is the top of the base 10 in the positive direction. Since the origin is the center of the bottom surface of the substrate 10, if the depth of the substrate 10 is L and the width of the substrate 10 is W, (L / 2, W / 2, 0).

グローバル座標系Pgと座標系P0の関係は、下式(3)の行列で表すことができる。したがって、下式(3)により、グローバル座標系Pgから座標系P0への座標変換を行うことができる。   The relationship between the global coordinate system Pg and the coordinate system P0 can be expressed by a matrix of the following equation (3). Therefore, the coordinate transformation from the global coordinate system Pg to the coordinate system P0 can be performed by the following equation (3).

Figure 2009050936
Figure 2009050936

座標系P1は、x0軸、y0軸、z0軸と同一の方向をx1軸、y2軸、z3軸とし、x1軸は基体10の後方を、y1軸は基体10の右方を、z1軸は基体10の下方をそれぞれ正の方向とする。原点は、基体10と右後ろの脚部12との付け根となるので、(0、0、0)となる。   The coordinate system P1 has the same direction as the x0, y0, and z0 axes as the x1, y2, and z3 axes, where the x1 axis is the rear of the base 10, the y1 axis is to the right of the base 10, and the z1 axis is The downward direction of the base 10 is defined as a positive direction. The origin is (0, 0, 0) because it is the root of the base 10 and the right rear leg 12.

座標系P0、P1の関係は、下式(4)の行列で表すことができる。したがって、下式(4)により、座標系P0から座標系P1への座標変換を行うことができる。   The relationship between the coordinate systems P0 and P1 can be expressed by a matrix of the following equation (4). Therefore, the coordinate transformation from the coordinate system P0 to the coordinate system P1 can be performed by the following equation (4).

Figure 2009050936
Figure 2009050936

座標系P2は、座標系P1に対して回転関節14がθ1回転した座標系であって、z1軸と同一の方向をz2軸、x1軸に対してz2軸回りにθ1回転した方向をx2軸、y1軸に対してz2軸回りにθ1回転した方向をy2軸とし、z2軸は基体10の下方を正の方向とする。   The coordinate system P2 is a coordinate system in which the rotary joint 14 rotates θ1 with respect to the coordinate system P1, and the same direction as the z1 axis is the z2 axis, and the direction rotated θ1 around the z2 axis with respect to the x1 axis is the x2 axis. The direction rotated by θ1 around the z2 axis with respect to the y1 axis is defined as the y2 axis, and the z2 axis is defined as the positive direction below the substrate 10.

座標系P1、P2の関係は、下式(5)の行列で表すことができる。したがって、下式(5)により、座標系P1から座標系P2への座標変換を行うことができる。   The relationship between the coordinate systems P1 and P2 can be expressed by a matrix of the following equation (5). Therefore, the coordinate transformation from the coordinate system P1 to the coordinate system P2 can be performed by the following equation (5).

Figure 2009050936
Figure 2009050936

座標系P3は、座標系P2に対して回転関節16がθ2回転した座標系であって、y2軸と同一の方向をy3軸、x2軸に対してy3軸回りにθ2回転した方向をx3軸、z2軸に対してy3軸回りにθ2回転した方向をz3軸とし、z3軸は、脚部12のうち回転関節14、16が連結するリンクの下方を正の方向とする。   The coordinate system P3 is a coordinate system in which the rotary joint 16 rotates θ2 with respect to the coordinate system P2, and the same direction as the y2 axis is the y3 axis, and the direction rotated θ2 around the y3 axis with respect to the x2 axis is the x3 axis. , The direction rotated θ2 around the y3 axis with respect to the z2 axis is defined as the z3 axis, and the z3 axis is defined as the positive direction below the link of the leg portion 12 to which the rotary joints 14 and 16 are connected.

座標系P2、P3の関係は、下式(6)の行列で表すことができる。したがって、下式(6)により、座標系P2から座標系P3への座標変換を行うことができる。   The relationship between the coordinate systems P2 and P3 can be expressed by a matrix of the following equation (6). Therefore, the coordinate transformation from the coordinate system P2 to the coordinate system P3 can be performed by the following equation (6).

Figure 2009050936
Figure 2009050936

座標系P4は、座標系P3に対して回転関節18がθ3回転した座標系であって、y3軸と同一の方向をy4軸、x3軸に対してy4軸回りにθ3回転した方向をx4軸、z3軸に対してy4軸回りにθ3回転した方向をz4軸とし、z4軸は、脚すね部の下方を正の方向とする。   The coordinate system P4 is a coordinate system in which the rotary joint 18 is rotated by θ3 with respect to the coordinate system P3, and the same direction as the y3 axis is the y4 axis, and the direction rotated θ3 around the y4 axis with respect to the x3 axis is the x4 axis. , The direction rotated θ3 around the y4 axis with respect to the z3 axis is the z4 axis, and the z4 axis is the positive direction below the leg ridge.

座標系P3、P4の関係は、下式(7)の行列で表すことができる。したがって、下式(7)により、座標系P3から座標系P4への座標変換を行うことができる。   The relationship between the coordinate systems P3 and P4 can be expressed by a matrix of the following equation (7). Therefore, the coordinate transformation from the coordinate system P3 to the coordinate system P4 can be performed by the following equation (7).

Figure 2009050936
Figure 2009050936

図12は、座標系P4を示す図である。
座標系P4における点Pの座標は、図12に示すように、脚すね部の奥行きをl、幅をm、伸長方向の長さをnとすると、(l/2、0、0)となる。
FIG. 12 is a diagram showing the coordinate system P4.
As shown in FIG. 12, the coordinates of the point P in the coordinate system P4 is (l / 2, 0, 0), where l is the depth of the leg shin, m is the width, and n is the length in the extension direction. .

したがって、グローバル座標系Pgにおける点Pの座標は、下式(8)により求めることができる。下式(8)のなかで、θ1〜θ3は、脚車輪型ロボット100の姿勢により、lは、脚すね部の形状により、L、Wは、基体10の形状によりそれぞれ特定されるので、グローバル座標系Pgにおける点Pの座標は、脚車輪型ロボット100の姿勢並びに基体10および脚すね部の形状により特定することができる。   Therefore, the coordinates of the point P in the global coordinate system Pg can be obtained by the following equation (8). In the following formula (8), θ1 to θ3 are specified by the posture of the leg wheel type robot 100, l is specified by the shape of the leg shin part, and L and W are specified by the shape of the base body 10, respectively. The coordinates of the point P in the coordinate system Pg can be specified by the posture of the leg wheel type robot 100 and the shapes of the base body 10 and the leg shins.

Figure 2009050936
Figure 2009050936

上式(8)において、4pは、下式(9)により表すことができ、4pのうち(l/2、0、0)は、座標系P4における点Pの座標である。また、Xpのうち(x、y、z)は、グローバル座標系Pgにおける点Pの座標である。 In the above equation (8), 4 X p can be expressed by the following equation (9), and (l / 2, 0, 0) of 4 X p is the coordinates of the point P in the coordinate system P4. In addition, (x, y, z) in X p is the coordinates of the point P in the global coordinate system Pg.

Figure 2009050936
Figure 2009050936

次に、脚すね部平面の法線ベクトルNを求める場合を説明する。
図13は、脚すね部平面および法線ベクトルNを示す図である。
法線ベクトルNは、図13に示すように、グローバル座標系Pgにおいて、脚すね部平面の4つの頂点(脚すね部の表面のうち右上、右下、左上および左下の各角部に対応する点)のうち3つをそれぞれV1、V2、V3とすると、点V3から点V1へのベクトルと、点V2から点V3のベクトルの外積で表すことができるので、下式(10)により求めることができる。
Next, the case of obtaining the normal vector N of the leg shin plane will be described.
FIG. 13 is a diagram showing the leg shin plane and the normal vector N. As shown in FIG.
As shown in FIG. 13, the normal vector N corresponds to the four vertices of the leg shin plane in the global coordinate system Pg (upper right, lower right, upper left and lower left corners of the surface of the leg shin part). If three of the points are V1, V2 and V3, respectively, they can be expressed by the outer product of the vector from the point V3 to the point V1 and the vector from the point V2 to the point V3. Can do.

Figure 2009050936
Figure 2009050936

なお、グローバル座標系Pgにおける点V1の座標は、点Pの場合と同様に、下式(11)により求めることができる。グローバル座標系Pgにおける点V2、V3の座標も同様に求めることができる。   Note that the coordinates of the point V1 in the global coordinate system Pg can be obtained by the following equation (11) as in the case of the point P. The coordinates of the points V2 and V3 in the global coordinate system Pg can be obtained similarly.

Figure 2009050936
Figure 2009050936

図14は、干渉判定処理を示すフローチャートである。
干渉判定処理は、ステップS103において実行されると、まず、図14に示すように、ステップS200に移行する。
FIG. 14 is a flowchart showing the interference determination process.
When the interference determination process is executed in step S103, first, the process proceeds to step S200 as shown in FIG.

ステップS200では、回転関節14〜18の角度θ1〜θ3、基体10の寸法L、Wおよび脚すね部の寸法lに基づいて、上式(8)により、グローバル座標系Pgにおける点Pの座標を算出し、ステップS202に移行する。
ステップS202では、回転関節14〜18の角度θ1〜θ3、基体10の寸法L、Wおよび脚すね部の寸法lに基づいて、上式(11)により、各脚すね部平面ごとにグローバル座標系Pgにおける点V1〜V3の座標を算出し、ステップS204に移行する。
In step S200, the coordinates of the point P in the global coordinate system Pg are calculated by the above equation (8) based on the angles θ1 to θ3 of the rotary joints 14 to 18, the dimensions L and W of the base 10, and the dimension 1 of the leg shin. Then, the process proceeds to step S202.
In step S202, based on the angles θ1 to θ3 of the rotary joints 14 to 18, the dimensions L and W of the base 10, and the dimension 1 of the leg shin part, the global coordinate system is calculated for each leg shin part plane by the above equation (11). The coordinates of the points V1 to V3 in Pg are calculated, and the process proceeds to step S204.

ステップS204では、上式(10)により、各脚すね部平面ごとに法線ベクトルNを算出し、ステップS206に移行して、特徴点Aの座標を取得し、ステップS208に移行して、上式(2)により、特徴点Aと点Pを結ぶ直線PAと、法線ベクトルNとの内積D1〜D4(またはD5、D6)を算出し、ステップS210に移行する。
ステップS210では、D1≧0またはD2≧0またはD3≧0またはD4≧0(またはD5≧0、D6≧0)が成立するか否かを判定することにより4つの脚すね部平面で囲まれる空間に特徴点Aが属するか否かを判定し、同空間に特徴点Aが属さないと判定したとき(No)は、ステップS212に移行する。
In step S204, the normal vector N is calculated for each leg shin plane by the above equation (10), the process proceeds to step S206, the coordinates of the feature point A are acquired, the process proceeds to step S208, and the upper The inner product D1 to D4 (or D5, D6) of the straight line PA connecting the feature point A and the point P and the normal vector N is calculated by the equation (2), and the process proceeds to step S210.
In step S210, it is determined whether D1 ≧ 0 or D2 ≧ 0 or D3 ≧ 0 or D4 ≧ 0 (or D5 ≧ 0, D6 ≧ 0) is satisfied. It is determined whether or not the feature point A belongs, and when it is determined that the feature point A does not belong to the same space (No), the process proceeds to step S212.

ステップS212では、未判定の特徴点Aが存在するか否かを判定し、未判定の特徴点Aが存在しないと判定したとき(No)は、ステップS214に移行して、障害物と干渉しないことを示す値(例えば、「0」)を戻り値として設定し、一連の処理を終了して元の処理に復帰させる。
一方、ステップS212で、未判定の特徴点Aが存在すると判定したとき(Yes)は、ステップS216に移行して、次の特徴点Aの座標を取得し、ステップS208に移行する。
一方、ステップS210で、4つの脚すね部平面で囲まれる空間に特徴点Aが属すると判定したとき(Yes)は、ステップS218に移行して、障害物と干渉することを示す値(例えば、「1」)を戻り値として設定し、一連の処理を終了して元の処理に復帰させる。
In step S212, it is determined whether or not an undetermined feature point A exists, and when it is determined that there is no undetermined feature point A (No), the process proceeds to step S214 and does not interfere with an obstacle. A value indicating this (for example, “0”) is set as a return value, a series of processing is terminated, and the original processing is restored.
On the other hand, when it is determined in step S212 that an undetermined feature point A exists (Yes), the process proceeds to step S216, the coordinates of the next feature point A are acquired, and the process proceeds to step S208.
On the other hand, when it is determined in step S210 that the feature point A belongs to the space surrounded by the four leg shin planes (Yes), the process proceeds to step S218 to indicate a value indicating interference with an obstacle (for example, “1”) is set as a return value, and a series of processing is terminated and the original processing is restored.

次に、本実施の形態の動作を説明する。
脚車輪型ロボット100の移動経路上に階段が存在すると、水平レーザ26から照射された水平面レーザ光、および垂直レーザ28、30から照射された垂直面レーザ光がそれぞれ階段で反射し、カメラ32により、それら反射光を含む画像が撮影される。次いで、ステップS100、S102を経て、カメラ32で撮影された画像が取り込まれ、取り込まれた画像から階段の特徴点が検出される。
Next, the operation of the present embodiment will be described.
If there are stairs on the moving path of the leg-wheel type robot 100, the horizontal plane laser light emitted from the horizontal laser 26 and the vertical plane laser lights emitted from the vertical lasers 28 and 30 are reflected by the stairs, and are reflected by the camera 32. Then, an image including the reflected light is taken. Next, through steps S100 and S102, an image photographed by the camera 32 is captured, and feature points of stairs are detected from the captured image.

次いで、ステップS103を経て、干渉判定処理が実行される。干渉判定処理では、ステップS200〜S210を経て、各脚すね部平面ごとに法線ベクトルNが算出され、特徴点Aと点Pを結ぶ直線PAと、法線ベクトルNとの内積D1〜D4(またはD5、D6)が算出され、内積D1〜D4(またはD5、D6)に基づいて4つの脚すね部平面で囲まれる空間に特徴点Aが属するか否かが判定される。いずれの特徴点Aも同空間に属しないと判定されると、ステップS214、S104を経て、障害物と干渉しないと判定される。非干渉が判定されると、ステップS105〜S110を経て、検出された特徴点に基づいて階段の幅および段鼻部の実座標が算出され、算出された階段の幅および段鼻部の実座標に基づいて脚先の着地位置が決定される。   Next, an interference determination process is executed through step S103. In the interference determination process, the normal vector N is calculated for each leg shin plane through steps S200 to S210, and the inner product D1 to D4 (the straight line PA connecting the feature point A and the point P and the normal vector N) Alternatively, D5, D6) is calculated, and it is determined whether or not the feature point A belongs to the space surrounded by the four leg shin planes based on the inner products D1-D4 (or D5, D6). If it is determined that none of the feature points A belong to the same space, it is determined through steps S214 and S104 that they do not interfere with the obstacle. When non-interference is determined, the width of the staircase and the actual coordinates of the stair nose are calculated based on the detected feature points through steps S105 to S110, and based on the calculated stair width and the actual coordinates of the stair nose. The landing position of the leg tip is determined.

さらに、ステップS112〜S116を経て、脚先センサ22、24からそれぞれセンサ信号が入力され、蹴込板までの距離および脚先と踏板の位置関係が算出される。そして、ステップS118、S120を経て、決定された着地位置および算出された両距離に基づいてモータ指令信号が生成され、生成されたモータ指令信号がドライバ44、54に出力される。これにより、駆動輪20が回転するとともに回転関節14〜18が駆動し、脚車輪型ロボット100が姿勢を適切に保ちつつ階段を乗り越える。また、状況によっては階段を回避、停止する。したがって、脚型ロボットと同様に階段への適応性が高い。   Further, through steps S112 to S116, sensor signals are input from the leg tip sensors 22 and 24, respectively, and the distance to the kick plate and the positional relationship between the leg tip and the tread plate are calculated. Then, through steps S118 and S120, a motor command signal is generated based on the determined landing position and the calculated both distances, and the generated motor command signal is output to the drivers 44 and 54. As a result, the driving wheel 20 rotates and the rotary joints 14 to 18 are driven, and the leg-wheel type robot 100 gets over the stairs while keeping its posture properly. Depending on the situation, the stairs are avoided and stopped. Therefore, the adaptability to the stairs is high like the legged robot.

一方、いずれかの特徴点Aが同空間に属すると判定されると、ステップS218、S104を経て、障害物と干渉すると判定される。干渉が判定されると、ステップS124を経て、干渉回避処理が実行され、干渉が回避される。
一方、平地では、脚車輪型ロボット100は、車輪走行で移動することができる。したがって、車輪型ロボットと同様に平地での移動性が高い。
On the other hand, if it is determined that any feature point A belongs to the same space, it is determined through steps S218 and S104 that it interferes with the obstacle. If interference is determined, an interference avoidance process is performed through step S124, and interference is avoided.
On the other hand, on a flat ground, the leg-wheel type robot 100 can move by wheel running. Therefore, the mobility on the flat ground is high like the wheel type robot.

このようにして、本実施の形態では、レーザ28〜30およびカメラ32からなる物体センサを備え、物体センサの測定結果に基づいて障害物の特徴点を検出し、グローバル座標系Pgにおいて、脚車輪型ロボット100の姿勢並びに基体10および脚すね部の形状により特定される脚すね部平面と、検出した特徴点との位置関係に基づいて、脚すね部に対して障害物が干渉するか否かを判定する。   As described above, in this embodiment, the object sensor including the lasers 28 to 30 and the camera 32 is provided, the feature point of the obstacle is detected based on the measurement result of the object sensor, and the leg wheel is detected in the global coordinate system Pg. Whether or not an obstacle interferes with the leg shin part based on the positional relation between the leg shin plane specified by the posture of the robot 100 and the shapes of the base 10 and the leg shin part and the detected feature point Determine.

これにより、グローバル座標系Pgにおける脚すね部平面と特徴点の位置関係に基づいて干渉の有無を判定するので、実際の干渉を伴うことなく干渉の有無を判定することができる。また、特許文献2における干渉判定専用のカメラのような専用のセンサを設けなくても、本実施の形態のように、他の用途(脚部12の駆動制御等)に用いられる物体センサを利用することができるので、部品点数および重量の増加を抑制することができる。さらに、グローバル座標系Pgにおいて脚すね部平面は姿勢や形状により特定されるため、障害物の特徴点さえ検出できればよく、障害物の監視範囲が脚すね部の可動範囲に制約されず、干渉判定の制約を低減することができる。さらに、脚すね部との位置関係によらず物体センサを設置することができるので、干渉判定の制約をさらに低減することができる。   Thereby, since the presence or absence of interference is determined based on the positional relationship between the leg shin plane and the feature point in the global coordinate system Pg, the presence or absence of interference can be determined without accompanying actual interference. Further, even if a dedicated sensor such as a dedicated camera for interference determination in Patent Document 2 is not provided, an object sensor used for other purposes (such as drive control of the leg portion 12) is used as in the present embodiment. Therefore, the increase in the number of parts and the weight can be suppressed. Furthermore, since the leg shin plane in the global coordinate system Pg is specified by the posture and shape, it is only necessary to detect the feature point of the obstacle. The obstacle monitoring range is not limited by the movable range of the leg shin, and interference determination is performed. Can be reduced. Furthermore, since the object sensor can be installed regardless of the positional relationship with the leg shin portion, it is possible to further reduce the interference determination constraint.

さらに、本実施の形態では、グローバル座標系Pgにおいて、4つの脚すね部平面で囲まれる空間に特徴点が属するか否かを判定することにより、脚すね部に対して障害物が干渉するか否かを判定する。
これにより、脚すね部に対して障害物が干渉するか否かを比較的正確に判定することができる。
Furthermore, in the present embodiment, whether or not an obstacle interferes with the leg shin portion by determining whether or not the feature point belongs to the space surrounded by the four leg shin portion planes in the global coordinate system Pg. Determine whether or not.
Thereby, it can be determined comparatively accurately whether an obstacle interferes with a leg shin part.

さらに、本実施の形態では、特徴点と脚すね部平面上の任意の点を結ぶ直線と、脚すね部平面の法線ベクトルとの内積に基づいて、4つの脚すね部平面で囲まれる空間に特徴点が属するか否かを判定する。
これにより、4つの脚すね部平面で囲まれる空間に特徴点が属するか否かを比較的容易に判定することができる。
Furthermore, in the present embodiment, a space surrounded by four leg shin part planes based on the inner product of a straight line connecting a feature point and an arbitrary point on the leg shin part plane and a normal vector of the leg shin part plane. It is determined whether or not a feature point belongs to.
Thereby, it can be determined relatively easily whether or not the feature point belongs to a space surrounded by the four shin planes.

さらに、本実施の形態では、レーザ26〜30およびカメラ32からなる画像センサと、脚先センサ22、24とを備え、カメラ32で撮影した画像および脚先センサ22、24で測定した距離に基づいて階段を認識し、その認識結果に基づいてモータ40、50を制御する。
これにより、画像センサおよび脚先センサ22、24を用いて未知の階段を認識しながら脚部12の昇降制御を行うので、従来に比して、未知の階段に対して高い適応性を実現することができる。また、人が活動する環境での動作を行えるので、人と一緒に行動する用途に用いられるホームロボット、パーソナルロボット等に好適である。
Further, in the present embodiment, the image sensor including the lasers 26 to 30 and the camera 32 and the leg tip sensors 22 and 24 are provided. Based on the image captured by the camera 32 and the distance measured by the leg tip sensors 22 and 24. The stairs are recognized, and the motors 40 and 50 are controlled based on the recognition result.
Thereby, since the raising / lowering control of the leg part 12 is performed while recognizing an unknown staircase using the image sensor and the leg tip sensors 22 and 24, higher adaptability is realized with respect to the unknown staircase than in the past. be able to. In addition, since it can operate in an environment where people are active, it is suitable for home robots, personal robots, and the like that are used for acting with people.

さらに、本実施の形態では、画像センサを基体10の正面に設け、脚先センサ22、24を脚部12の先端に設けた。
これにより、脚車輪型ロボット100の移動経路上に存在する物体を広い視野で検出することができるとともに、階段昇降時に駆動輪20と階段の距離を精度よく測定することができる。
Further, in the present embodiment, the image sensor is provided on the front surface of the base body 10, and the leg tip sensors 22 and 24 are provided on the distal ends of the leg portions 12.
As a result, it is possible to detect an object existing on the movement path of the leg wheel type robot 100 with a wide field of view, and to accurately measure the distance between the drive wheel 20 and the staircase when moving up and down the stairs.

さらに、本実施の形態では、進行方向に対して所定角度にレーザ光を照射するレーザ26〜30と、レーザ26〜30から所定距離隔てて設けられかつレーザ光の反射光を含む画像を撮像するカメラ32とを備え、カメラ32で撮影した画像に基づいて光切断法により階段を認識する。
これにより、階段の特徴のうち脚部12の昇降制御に有効な特徴を検出することができるので、未知の階段に対してさらに高い適応性を実現することができる。
Further, in the present embodiment, the lasers 26 to 30 that irradiate the laser beam at a predetermined angle with respect to the traveling direction, and an image that is provided at a predetermined distance from the lasers 26 to 30 and includes the reflected light of the laser beam are captured. The camera 32 is provided, and the staircase is recognized by the light cutting method based on the image photographed by the camera 32.
Thereby, since the characteristic effective for the raising / lowering control of the leg part 12 can be detected among the characteristics of the staircase, higher adaptability can be realized for the unknown staircase.

さらに、本実施の形態では、水平レーザ26から照射された水平面レーザ光の反射光の撮影状態に基づいて階段の幅を算出し、垂直レーザ28、30から照射された2つの垂直面レーザ光の反射光の撮影状態に基づいて階段の段鼻部の実座標を算出する。
これにより、階段の特徴のうち脚部12の昇降制御にさらに有効な特徴を検出することができるので、未知の階段に対してさらに高い適応性を実現することができる。
Furthermore, in the present embodiment, the width of the staircase is calculated based on the imaging state of the reflected light of the horizontal plane laser light emitted from the horizontal laser 26, and the two vertical surface laser lights emitted from the vertical lasers 28 and 30 are calculated. The actual coordinates of the stair nosing part of the staircase are calculated based on the reflected light imaging state.
Thereby, since the characteristic more effective for the raising / lowering control of the leg part 12 can be detected among the characteristics of the staircase, higher adaptability can be realized for the unknown staircase.

さらに、本実施の形態では、前方脚先センサ22の測定結果に基づいて階段の蹴込板までの距離を算出し、下方脚先センサ24の測定結果に基づいて駆動輪20と階段の踏板の位置関係を算出する。
これにより、階段の特徴のうち脚部12の昇降制御にさらに有効な特徴を検出することができるので、未知の階段に対してさらに高い適応性を実現することができる。
Further, in the present embodiment, the distance to the stair riser plate is calculated based on the measurement result of the front leg tip sensor 22, and the positions of the drive wheels 20 and the step board of the staircase are calculated based on the measurement result of the lower leg tip sensor 24. Calculate the relationship.
Thereby, since the characteristic more effective for the raising / lowering control of the leg part 12 can be detected among the characteristics of the staircase, higher adaptability can be realized for the unknown staircase.

上記第1の実施の形態において、脚すね部は、発明1ないし4の対象部位に対応し、ステップS102は、発明1または2の特徴点検出手段に対応し、ステップS103は、発明1ないし5の干渉判定手段に対応し、座標系P4は、発明4の第1座標系に対応し、グローバル座標系Pgは、発明4の第2座標系に対応している。
次に、本発明の第2の実施の形態を図面を参照しながら説明する。図15ないし図28は、本発明に係る干渉判定装置および脚車輪型ロボットの第2の実施の形態を示す図である。
In the first embodiment, the leg shanks correspond to the target portions of inventions 1 to 4, step S102 corresponds to the feature point detection means of invention 1 or 2, and step S103 corresponds to inventions 1 to 5. The coordinate system P4 corresponds to the first coordinate system of the fourth invention, and the global coordinate system Pg corresponds to the second coordinate system of the fourth invention.
Next, a second embodiment of the present invention will be described with reference to the drawings. FIGS. 15 to 28 are diagrams showing a second embodiment of the interference determination device and the leg-wheel type robot according to the present invention.

本実施の形態は、上記第1の実施の形態に対して、レーザ28〜30およびカメラ32からなる物体センサに代えて、測距センサを2方向にそれぞれ走査して測定を行う3次元距離測定装置を用いて特徴点を検出する点が異なる。
まず、脚車輪型ロボット100の構成を説明する。
図15は、脚車輪型ロボット100を側面図である。
The present embodiment is a three-dimensional distance measurement in which the distance measurement sensor scans in two directions in place of the object sensor composed of the lasers 28 to 30 and the camera 32, as compared with the first embodiment. The difference is that feature points are detected using an apparatus.
First, the configuration of the leg wheel type robot 100 will be described.
FIG. 15 is a side view of the leg wheel type robot 100.

基体10の正面には、図15に示すように、3次元距離測定装置200が取り付けられている。3次元距離測定装置200の座標系は、基体10の奥行き方向をx軸、基体10の幅方向をy軸、基体10の高さ方向をz軸とし、x軸は基体10の前方を、y軸は基体10の右方を、z軸は基体10の上方をそれぞれ正の方向とする。
次に、3次元距離測定装置200の外観構造を説明する。
As shown in FIG. 15, a three-dimensional distance measuring device 200 is attached to the front surface of the base 10. The coordinate system of the three-dimensional distance measuring apparatus 200 is such that the depth direction of the base body 10 is the x axis, the width direction of the base body 10 is the y axis, and the height direction of the base body 10 is the z axis. The axis is on the right side of the substrate 10, and the z-axis is on the top of the substrate 10 in the positive direction.
Next, the external structure of the three-dimensional distance measuring device 200 will be described.

図16は、3次元距離測定装置200の外観構造を示す図である。同図(a)は、3次元距離測定装置200の正面図(z−y平面)を示す図であり、同図(b)は、3次元距離測定装置200の上面図(x−y平面)である。
3次元距離測定装置200は、図16(a)に示すように、板状の支持部材219と、2次元距離測定装置212と、2次元距離測定装置212を回転駆動するモータ216と、モータ216の回転角度位置を検出するエンコーダ218と、モータ216の駆動力を2次元距離測定装置212に伝達する駆動プーリ220a、従動プーリ220bおよびベルト221とを有して構成されている。
FIG. 16 is a diagram showing an external structure of the three-dimensional distance measuring apparatus 200. The figure (a) is a figure which shows the front view (zy plane) of the three-dimensional distance measuring apparatus 200, and the figure (b) is the top view (xy plane) of the three-dimensional distance measuring apparatus 200. It is.
As shown in FIG. 16A, the three-dimensional distance measuring device 200 includes a plate-like support member 219, a two-dimensional distance measuring device 212, a motor 216 that rotationally drives the two-dimensional distance measuring device 212, and a motor 216. The encoder 218 detects the rotational angle position of the motor 216, and includes a driving pulley 220 a, a driven pulley 220 b, and a belt 221 that transmit the driving force of the motor 216 to the two-dimensional distance measuring device 212.

支持部材219の下面には、モータ216が取り付けられている。モータ216の回転軸(以下、駆動回転軸という。)は、支持部材219を下方から貫通し、支持部材219を挟んで反対側に配置された駆動プーリ220aの軸穴に連結している。
一方、支持部材219の下面であってモータ216から水平方向に所定距離隔てた位置には、2次元距離測定装置212が取り付けられている。2次元距離測定装置212は、回転軸(以下、従動回転軸という。)を有し、従動回転軸が支持部材219を下方から貫通し、支持部材219を挟んで反対側に配置された従動プーリ220bの軸穴に連結している。
A motor 216 is attached to the lower surface of the support member 219. A rotation shaft of the motor 216 (hereinafter referred to as a drive rotation shaft) penetrates the support member 219 from below and is connected to a shaft hole of a drive pulley 220a disposed on the opposite side with the support member 219 interposed therebetween.
On the other hand, a two-dimensional distance measuring device 212 is attached to a position on the lower surface of the support member 219 and a predetermined distance in the horizontal direction from the motor 216. The two-dimensional distance measuring device 212 has a rotation shaft (hereinafter referred to as a driven rotation shaft), and the driven rotation shaft penetrates the support member 219 from below, and is a driven pulley disposed on the opposite side across the support member 219. It is connected to the shaft hole 220b.

駆動プーリ220aおよび従動プーリ220bには、ベルト221が巻き掛けられている。したがって、モータ216により駆動プーリ220aが回転し、駆動プーリ220aに巻き掛けたベルト221により従動プーリ220bが回転することにより、2次元距離測定装置212は、図16(b)に示すように、z軸回りに回転する。
次に、2次元距離測定装置212の制御構造を説明する。
A belt 221 is wound around the driving pulley 220a and the driven pulley 220b. Accordingly, the driving pulley 220a is rotated by the motor 216, and the driven pulley 220b is rotated by the belt 221 wound around the driving pulley 220a, whereby the two-dimensional distance measuring device 212 is changed to z as shown in FIG. Rotate around the axis.
Next, the control structure of the two-dimensional distance measuring device 212 will be described.

図17は、2次元距離測定装置212の制御構造を示すブロック図である。
2次元距離測定装置212は、図17に示すように、測定範囲内に存在する物体上の測定点までの距離を測定する測距センサ212aと、測距センサ212aを回転駆動するモータ212cと、モータ212cの回転角度位置を検出するエンコーダ212dと、指令信号およびエンコーダ212dの出力信号に基づいてモータ212cの駆動を制御するドライバ212bとを有して構成されている。
FIG. 17 is a block diagram showing a control structure of the two-dimensional distance measuring device 212.
As shown in FIG. 17, the two-dimensional distance measuring device 212 includes a distance measuring sensor 212a that measures a distance to a measurement point on an object that exists in the measurement range, a motor 212c that rotates the distance measuring sensor 212a, The encoder 212d is configured to detect the rotational angle position of the motor 212c, and the driver 212b is configured to control the driving of the motor 212c based on the command signal and the output signal of the encoder 212d.

ドライバ212bは、センシングプロセッサ210からの指令信号において設定された走査角度範囲(例えば、−40°〜+40°等の所定の角度範囲)および走査単位角度(例えば、0.36°等の所定の単位角度)に基づいて、モータ212cの回転軸を走査単位角度ずつ回転させる制御を行う。
モータ212cは、測距センサ212aのレーザ出力部(不図示)および受光部(不図示)をy軸回りに回転駆動するように設けられており、ドライバ212bからの制御信号に応じて、自己の回転軸を走査単位角度(Δθ)ずつ回転駆動する。
The driver 212b has a scanning angle range (for example, a predetermined angle range such as −40 ° to + 40 °) and a scanning unit angle (for example, a predetermined unit such as 0.36 °) set in the command signal from the sensing processor 210. Based on the angle, control is performed to rotate the rotation axis of the motor 212c by a scanning unit angle.
The motor 212c is provided so as to rotationally drive a laser output unit (not shown) and a light receiving unit (not shown) of the distance measuring sensor 212a around the y axis, and according to a control signal from the driver 212b, The rotary shaft is driven to rotate by a scanning unit angle (Δθ).

図18は、測距センサ212aの走査範囲を示す図である。
測距センサ212aの走査範囲は、脚車輪型ロボット100が階段の昇降や障害物の回避を行うことを目的としているため、図18に示すように、脚車輪型ロボット100の下方を重点的に走査するように設定されている。なお、3次元距離測定装置200および測距センサ212aの原点位置(回転角度θおよびφが0°の位置)においては、測距センサ212aの測定方向がx軸と一致し、測距センサ212aの回転軸がy軸と一致する。
FIG. 18 is a diagram illustrating a scanning range of the distance measuring sensor 212a.
The scanning range of the distance measuring sensor 212a is intended for the leg-wheel type robot 100 to move up and down the stairs and avoid obstacles. Therefore, as shown in FIG. It is set to scan. Note that at the origin positions of the three-dimensional distance measuring device 200 and the distance measuring sensor 212a (positions where the rotation angles θ and φ are 0 °), the measuring direction of the distance measuring sensor 212a coincides with the x axis, and the distance measuring sensor 212a The rotation axis coincides with the y-axis.

3次元距離測定装置200は、2次元距離測定装置212を回転駆動する回転駆動機構(モータ216、エンコーダ218、駆動プーリ220a、従動プーリ220b、ベルト221および支持部材219)が、図18に示す走査範囲外に設けられているため、図18に示す走査範囲であれば、3次元距離測定装置200を構成する各機構部によって、測距センサ212aのy軸回りの走査が阻害されない。   In the three-dimensional distance measuring device 200, the rotation driving mechanism (motor 216, encoder 218, driving pulley 220a, driven pulley 220b, belt 221 and support member 219) for rotating the two-dimensional distance measuring device 212 is scanned as shown in FIG. Since it is provided outside the range, within the scanning range shown in FIG. 18, scanning around the y-axis of the distance measuring sensor 212 a is not hindered by each mechanism unit constituting the three-dimensional distance measuring apparatus 200.

また、脚車輪型ロボット100の走行経路上の障害物を認識できればよいので、z軸回りの回転駆動による走査範囲も、前方180°までをカバーする必要はなく、2次元距離測定装置212から水平方向に所定距離隔てて配置されたモータ216およびエンコーダ218を走査範囲外とする範囲でも十分である。したがって、2次元距離測定装置212の回転駆動範囲を、モータ216およびエンコーダ218を含まない範囲とする。   Further, since it is only necessary to be able to recognize an obstacle on the travel route of the leg-wheel type robot 100, the scanning range by the rotational drive around the z axis does not need to cover up to 180 ° forward, and the horizontal range from the two-dimensional distance measuring device 212 is not necessary. A range in which the motor 216 and the encoder 218 arranged at a predetermined distance in the direction are out of the scanning range is also sufficient. Therefore, the rotational driving range of the two-dimensional distance measuring device 212 is set to a range not including the motor 216 and the encoder 218.

次に、3次元距離測定装置200の制御構造を説明する。
図19は、3次元距離測定装置200の制御構造を示すブロック図である。
3次元距離測定装置200は、図19に示すように、センシングプロセッサ210と、2次元距離測定装置212と、モータ216と、エンコーダ218と、指令信号およびエンコーダ218の出力信号に基づいてモータ216の駆動を制御するドライバ214とを有して構成されている。
Next, the control structure of the three-dimensional distance measuring apparatus 200 will be described.
FIG. 19 is a block diagram showing a control structure of the three-dimensional distance measuring apparatus 200.
As shown in FIG. 19, the three-dimensional distance measuring device 200 includes a sensing processor 210, a two-dimensional distance measuring device 212, a motor 216, an encoder 218, a command signal, and an output signal of the encoder 218. And a driver 214 for controlling driving.

センシングプロセッサ210は、専用のプログラムを実行し、ドライバ212bに指令信号を与えて測距センサ212aを回転させ、測距センサ212aの走査範囲で測定可能な領域(以下、走査平面という。)内に存在する物体上の測定点までの距離を測定する第1走査処理を実行するとともに、1つの走査平面に対する第1走査処理が終了するごとに、ドライバ214に指令信号を与えて2次元距離測定装置212を回転させる第2走査処理を実行する。   The sensing processor 210 executes a dedicated program, gives a command signal to the driver 212b, rotates the distance measuring sensor 212a, and is within an area that can be measured within the scanning range of the distance measuring sensor 212a (hereinafter referred to as a scanning plane). A two-dimensional distance measuring device that executes a first scanning process for measuring a distance to a measurement point on an existing object and gives a command signal to the driver 214 each time the first scanning process for one scanning plane is completed. A second scanning process for rotating 212 is executed.

さらに、センシングプロセッサ210は、第1走査処理および第2走査処理を経て2次元距離測定装置212で測定した距離の情報(以下、距離情報という。)に基づいて、各走査平面の各測定点の勾配の出現頻度を算出する処理を実行するとともに、算出した出現頻度および各測定点の座標情報に基づいて、各走査平面における物体の1次元の形状(凹凸)および測定範囲内に存在する物体上の面の形状を認識する処理を実行する。   Furthermore, the sensing processor 210 performs the measurement of each measurement point on each scanning plane based on the distance information measured by the two-dimensional distance measuring device 212 through the first scanning process and the second scanning process (hereinafter referred to as distance information). A process for calculating the appearance frequency of the gradient is executed, and based on the calculated appearance frequency and the coordinate information of each measurement point, the one-dimensional shape (unevenness) of the object in each scanning plane and the object existing within the measurement range The process of recognizing the shape of the surface is executed.

次に、3次元距離測定装置200の距離測定の原理を説明する。
図20は、2次元距離測定装置212の距離測定の原理を説明する図である。
2次元距離測定装置212は、測距センサ212aが、モータ212cの回転軸の回転駆動に応じて、y軸回りに走査単位角度ずつ回転し、かつ、回転するごとに、図20に示すように、レーザ出力部からレーザ光を出力するとともに、出力光に対する物体(図20中の障害物)からの反射光を受光部で受光し、各回転角度(走査角度)に応じた距離(図20中の測定距離L(物体と受光部との間の距離))を測定する。
Next, the principle of distance measurement of the three-dimensional distance measuring apparatus 200 will be described.
FIG. 20 is a diagram for explaining the principle of distance measurement of the two-dimensional distance measuring device 212.
As shown in FIG. 20, the two-dimensional distance measuring device 212 is configured so that the distance measuring sensor 212 a rotates by the scanning unit angle around the y axis in accordance with the rotational drive of the rotating shaft of the motor 212 c and rotates each time. In addition to outputting laser light from the laser output unit, reflected light from an object (obstacle in FIG. 20) with respect to the output light is received by the light receiving unit, and a distance (in FIG. 20) corresponding to each rotation angle (scanning angle). Measurement distance L (distance between the object and the light receiving unit)).

図21は、第1走査処理および第2走査処理により走査を行った場合を示す図である。同図(a)は、測距センサ212aをy軸回りに回転させたときの測定距離と回転角度θとの関係を示す図であり、同図(b)は、2次元距離測定装置212をz軸回りに回転させたときの走査平面と回転角度φとの関係を示す図である。
第1走査処理は、例えば、図21(a)に示すように、測距センサ212aをy軸回りに走査単位角度ずつ回転させながら、原点位置に対する各回転角度(図21(a)中のθ1、θ2、θ3)に応じた距離情報(図21(a)中のL(θ1)、L(θ2)、L(θ3))を測定する処理となる。
FIG. 21 is a diagram illustrating a case where scanning is performed by the first scanning process and the second scanning process. FIG. 6A is a diagram showing the relationship between the measurement distance and the rotation angle θ when the distance measuring sensor 212a is rotated about the y axis, and FIG. 4B shows the two-dimensional distance measuring device 212. It is a figure which shows the relationship between the scanning plane when rotating around az axis, and rotation angle (phi).
In the first scanning process, for example, as shown in FIG. 21 (a), each rotation angle (θ in FIG. 21 (a)) is rotated with respect to the origin position while rotating the distance measuring sensor 212a by the scanning unit angle around the y axis. 1 , θ 2 , θ 3 ), and distance information (L (θ 1 ), L (θ 2 ), L (θ 3 ) in FIG. 21A) is measured.

また、第1走査処理における、モータ212cの回転軸の回転中心と、レーザの走査軌道線の両端とを結んで形成される平面が、走査平面(物体が存在しない場合は扇形の平面)となる。
ドライバ214は、センシングプロセッサ210からの指令信号において設定された走査角度範囲および走査単位角度(Δφ)に基づいて、モータ216の回転軸を走査単位角度ずつ回転させる制御を行う。
In the first scanning process, a plane formed by connecting the rotation center of the rotating shaft of the motor 212c and both ends of the scanning trajectory line of the laser is a scanning plane (a fan-shaped plane when no object is present). .
The driver 214 performs control to rotate the rotation axis of the motor 216 by the scanning unit angle based on the scanning angle range and the scanning unit angle (Δφ) set in the command signal from the sensing processor 210.

モータ216は、減速機(不図示)、駆動プーリ220a、従動プーリ220bおよびベルト221を介して、2次元距離測定装置212をz軸回りに回転駆動するように設けられており、ドライバ214からの制御信号に応じて、自己の回転軸を走査単位角度ずつ回転駆動する。これにより、モータ216の回転軸の回転駆動に応じて、駆動プーリ220a、従動プーリ220bおよびベルト221を介して従動回転軸に回転駆動力が伝達され、2次元距離測定装置212がz軸回りに走査単位角度ずつ回転する。   The motor 216 is provided so as to rotationally drive the two-dimensional distance measuring device 212 around the z axis via a speed reducer (not shown), a drive pulley 220a, a driven pulley 220b, and a belt 221. In response to the control signal, it rotates its own rotation axis by scanning unit angle. As a result, the rotational driving force is transmitted to the driven rotating shaft via the driving pulley 220a, the driven pulley 220b, and the belt 221 in accordance with the rotational driving of the rotating shaft of the motor 216, and the two-dimensional distance measuring device 212 is rotated about the z axis. Rotate by scan unit angle.

すなわち、第2走査処理は、図21(b)に示すように、2次元距離測定装置212をz軸回りに走査単位角度ずつ回転させる処理となる。そして、第1走査処理と第2走査処理とを交互に連続して行うことにより、第1走査処理によって形成される走査平面をz軸回りに連続して形成する。
図22は、3次元距離測定装置200の距離の計測例を示す図である。
That is, the second scanning process is a process of rotating the two-dimensional distance measuring device 212 by a scanning unit angle around the z axis as shown in FIG. Then, by performing the first scanning process and the second scanning process alternately and continuously, the scanning plane formed by the first scanning process is continuously formed around the z axis.
FIG. 22 is a diagram illustrating a distance measurement example of the three-dimensional distance measurement apparatus 200.

これにより、例えば、図22に示すように、壁、ついたて、スタンド、棚等の物体の立体的な形状を測定することが可能である。
また、図21(b)に示すように、第2走査処理後の各測定点の距離情報をL(θi,φj)と表記する。ここで、iは、y軸回りの走査角度に応じて各測定点に付与される通し番号であり、jは、z軸回りの走査角度に応じて各測定点に付与される通し番号である。
Thereby, for example, as shown in FIG. 22, it is possible to measure the three-dimensional shape of an object such as a wall, a wall, a stand, or a shelf.
Further, as shown in FIG. 21B, the distance information of each measurement point after the second scanning process is expressed as L (θ i , φ j ). Here, i is a serial number given to each measurement point according to the scanning angle around the y axis, and j is a serial number given to each measurement point according to the scanning angle around the z axis.

次に、3次元距離測定装置200における物体認識処理の流れを説明する。
図23は、3次元距離測定装置200における物体認識処理を示すフローチャートである。
物体認識処理は、CPU60からの指令信号に基づいて、センシングプロセッサ210が、ROM(不図示)に記憶された専用のプログラムを読み出し、読み出したプログラムを実行することで実現される処理であり、処理が開始されると、図23に示すように、まず、ステップS300に移行する。
Next, the flow of object recognition processing in the three-dimensional distance measuring apparatus 200 will be described.
FIG. 23 is a flowchart showing object recognition processing in the three-dimensional distance measuring apparatus 200.
The object recognition process is a process realized by the sensing processor 210 reading a dedicated program stored in a ROM (not shown) based on a command signal from the CPU 60 and executing the read program. As shown in FIG. 23, first, the process proceeds to step S300.

ステップS300では、3次元距離測定装置200において、CPU60からの指令信号に基づいて、測距センサ212aおよび2次元距離測定装置212の走査角度範囲および走査単位角度を設定し、ステップS302に移行する。ここで、CPU60からの指令信号には、走査角度範囲および走査単位角度の情報が含まれている。
ステップS302では、2次元距離測定装置212において、センシングプロセッサ210からの指令信号に応じて、ドライバ212b、モータ212cおよびエンコーダ212dを駆動し、測距センサ212aを、ステップS300で設定されたy軸回りの走査角度範囲内において、同じくステップS300で設定された走査単位角度ずつy軸回りに回転させるとともに、各回転角度に応じた距離情報を測定する処理(第1走査処理)を実行し、ステップS304に移行する。
In step S300, in the three-dimensional distance measuring apparatus 200, the scanning angle range and the scanning unit angle of the distance measuring sensor 212a and the two-dimensional distance measuring apparatus 212 are set based on the command signal from the CPU 60, and the process proceeds to step S302. Here, the command signal from the CPU 60 includes information on the scanning angle range and the scanning unit angle.
In step S302, in the two-dimensional distance measuring device 212, the driver 212b, the motor 212c, and the encoder 212d are driven in response to the command signal from the sensing processor 210, and the distance measuring sensor 212a is rotated about the y axis set in step S300. Within the scanning angle range, a process (first scanning process) is performed in which the scanning unit angle set in step S300 is rotated about the y axis and distance information corresponding to each rotational angle is measured, and step S304 is performed. Migrate to

ステップS304では、センシングプロセッサ210において、ステップS302で測定した距離情報に対して、メディアンフィルタを用いたフィルタリング処理を実行してノイズ成分を除去し、ステップS306に移行する。
ステップS306では、センシングプロセッサ210において、ステップS304でノイズ除去後の回転座標系の距離情報を直交座標系の距離情報に変換し、ステップS308に移行する。
In step S304, the sensing processor 210 performs filtering processing using a median filter on the distance information measured in step S302 to remove noise components, and the process proceeds to step S306.
In step S306, the sensing processor 210 converts the distance information of the rotating coordinate system after noise removal in step S304 into the distance information of the orthogonal coordinate system, and proceeds to step S308.

回転座標系から直交座標系への変換は、第1走査処理による各測定点の座標は、z−x平面上の座標となり、x軸は、第2走査処理によって、z軸回りに走査単位角度ずつ座標位置が変化する。したがって、直交座標系への変換は、z軸回りの各回転角度ごとに行われる。
ステップS308では、センシングプロセッサ210において、ステップS306で直交座標系に変換された距離情報に基づいて、各測定点の勾配を算出してステップS310に移行する。
In the conversion from the rotational coordinate system to the orthogonal coordinate system, the coordinates of each measurement point by the first scanning process are coordinates on the z-x plane, and the x-axis is a scanning unit angle around the z-axis by the second scanning process. The coordinate position changes one by one. Therefore, the conversion to the orthogonal coordinate system is performed for each rotation angle around the z axis.
In step S308, the sensing processor 210 calculates the gradient of each measurement point based on the distance information converted into the orthogonal coordinate system in step S306, and proceeds to step S310.

図24は、勾配の算出例を示す図である。
各測定点の勾配は、各測定点の測定距離と、その前後の所定数の測定点の距離情報とを用いて、図24(a)に示すように、最小二乗法を用いて算出する。
図24(a)に示すように、最小二乗法を用いて、勾配の算出対象の測定点(図24(a)中の白丸)を含む前後所定数の測定点に対する回帰直線を近似し、回帰直線の勾配を、対象の測定点の勾配とする。最小二乗法は、データのばらつきによって受ける影響は少ないが、計算量が比較的多くなる。
FIG. 24 is a diagram illustrating a gradient calculation example.
The gradient of each measurement point is calculated using the least square method, as shown in FIG. 24A, using the measurement distance of each measurement point and the distance information of a predetermined number of measurement points before and after that.
As shown in FIG. 24 (a), a regression line is approximated to a predetermined number of measurement points before and after the measurement points (white circles in FIG. 24 (a)) for which the gradient is to be calculated using the least square method. The slope of the straight line is the slope of the target measurement point. The least squares method is less affected by data variations, but the calculation amount is relatively large.

また、別の方法として、図24(b)に示すように、各測定点に対して、所定数の他の測定点を挟む前後2つの測定点の距離情報の差分値を用いて勾配を算出する。
具体的に、図24(b)に示すように、前後2つの測定点のz軸方向の測定距離の差分値である第1差分値(例えば、注目する測定点のz軸方向の距離をziとすると、zi+2−zi-2)を算出するとともに、前後2つの測定点のx軸方向の測定距離の差分値である第2差分値(例えば、注目する測定点のx軸方向の距離をxiとすると、xi+2−xi-2)を算出し、これら算出結果から、注目する測定点の勾配(第1差分値/第2差分値)を求める。この方法では、データのばらつきによる影響が最小二乗法よりも大きくなるが、計算が、単純な引き算と割り算のみで済むため最小二乗法よりも高速に勾配を算出することができる。
As another method, as shown in FIG. 24 (b), for each measurement point, a gradient is calculated using a difference value of distance information between two measurement points before and after a predetermined number of other measurement points. To do.
Specifically, as shown in FIG. 24B, the first difference value (for example, the distance in the z-axis direction of the measurement point of interest is z If i , z i + 2 −z i− 2 ) is calculated, and the second difference value (for example, the x axis of the measurement point of interest) that is the difference value of the measurement distance between the two measurement points in the x-axis direction is calculated. If the distance in the direction is x i , x i + 2 −x i−2 ) is calculated, and the gradient of the measurement point of interest (first difference value / second difference value) is obtained from these calculation results. In this method, the influence due to data variation is greater than that in the least square method, but since the calculation only requires simple subtraction and division, the gradient can be calculated faster than the least square method.

ステップS310では、センシングプロセッサ210において、ステップS308で算出した勾配に基づいて各勾配の出現頻度を算出し、ステップS312に移行する。
本実施の形態では、勾配ごとの測定点の個数を出現頻度として算出する。
ステップS312では、センシングプロセッサ210において、ステップS310で算出した各勾配の出現頻度に基づいて、出現頻度の判定処理が未処理の勾配の出現頻度を選択し、ステップS314に移行する。
In step S310, the sensing processor 210 calculates the appearance frequency of each gradient based on the gradient calculated in step S308, and proceeds to step S312.
In the present embodiment, the number of measurement points for each gradient is calculated as the appearance frequency.
In step S312, in the sensing processor 210, based on the appearance frequency of each gradient calculated in step S310, the appearance frequency determination process selects the appearance frequency of the unprocessed gradient, and the process proceeds to step S314.

ステップS314では、センシングプロセッサ210において、ステップS312で選択した勾配の出現頻度とあらかじめ設定された閾値とを比較するとともに選択された出現頻度は、閾値以上か否かを判定し、閾値以上と判定された場合(Yes)は、ステップS316に移行し、そうでない場合(No)は、ステップS334に移行する。
ステップS316に移行した場合は、センシングプロセッサ210において、選択した勾配とこの勾配を有する各測定点の座標情報とを対応付けて不図示のRAM等の記録媒体に記録し、ステップS318に移行する。
In step S314, the sensing processor 210 compares the appearance frequency of the gradient selected in step S312 with a preset threshold value, and determines whether the selected appearance frequency is equal to or higher than the threshold value, and is determined to be equal to or higher than the threshold value. If yes (Yes), the process proceeds to step S316; otherwise (No), the process proceeds to step S334.
When the process proceeds to step S316, the sensing processor 210 records the selected gradient and the coordinate information of each measurement point having this gradient in association with each other on a recording medium such as a RAM (not shown), and proceeds to step S318.

ステップS318では、センシングプロセッサ210において、すべての勾配についてステップS314の判定処理が終了したか否かを判定し、終了したと判定された場合(Yes)は、ステップS320に移行し、そうでない場合(No)は、ステップS312に移行する。
ステップS320に移行した場合は、センシングプロセッサ210において、ステップS316で記録した勾配と各測定点の座標情報とに基づいて、連続面(実際は、連続面と走査平面とが交差する線)の有無を判断し、ステップS322に移行する。
In step S318, the sensing processor 210 determines whether or not the determination process in step S314 has been completed for all the gradients. If it is determined that the determination has been completed (Yes), the process proceeds to step S320; No) moves to step S312.
When the process proceeds to step S320, the sensing processor 210 determines whether or not there is a continuous surface (actually, a line where the continuous surface and the scanning plane intersect) based on the gradient recorded in step S316 and the coordinate information of each measurement point. Determination is made, and the process proceeds to step S322.

ここで、連続面の判断は、例えば、所定の勾配範囲に含まれる勾配に対応する各測定点の座標情報に基づいて、測定点の座標が連続しているときに、これらの座標位置と交差する連続面があると判断する。所定の勾配範囲に含まれる勾配に対応する測定点の座標が連続していないときは、連続面がないと判断する。
ステップS322では、センシングプロセッサ210において、ステップS320の判断結果に基づいて連続面があるか否かを判定し、連続面があると判定された場合(Yes)は、ステップS324に移行し、そうでない場合(No)は、ステップS326に移行する。
Here, the determination of the continuous surface is performed by, for example, intersecting these coordinate positions when the coordinates of the measurement points are continuous based on the coordinate information of each measurement point corresponding to the gradient included in the predetermined gradient range. It is determined that there is a continuous surface to perform. When the coordinates of the measurement points corresponding to the gradient included in the predetermined gradient range are not continuous, it is determined that there is no continuous surface.
In step S322, the sensing processor 210 determines whether or not there is a continuous surface based on the determination result in step S320. If it is determined that there is a continuous surface (Yes), the process proceeds to step S324; In the case (No), the process proceeds to step S326.

ステップS324に移行した場合は、センシングプロセッサ210において、連続面に対応する各測定点の測定距離の座標系をセンサ座標系(3次元座標)に変換し、変換後のセンサ座標系の距離情報を勾配の情報と対応付けて、不図示のRAM等の記録媒体に記録し、ステップS326に移行する。
ステップS326では、センシングプロセッサ210において、第2走査処理の走査角度範囲および走査単位角度に対応する、すべての走査平面に対して、連続面の判断処理が終了したか否かを判定し、終了したと判定された場合(Yes)は、ステップS328に移行し、そうでない場合(No)は、ステップS332に移行する。
When the process proceeds to step S324, in the sensing processor 210, the coordinate system of the measurement distance of each measurement point corresponding to the continuous surface is converted into the sensor coordinate system (three-dimensional coordinates), and the distance information of the sensor coordinate system after conversion is converted. The information is recorded on a recording medium such as a RAM (not shown) in association with the gradient information, and the process proceeds to step S326.
In step S326, the sensing processor 210 determines whether or not the continuous surface determination processing has been completed for all the scanning planes corresponding to the scanning angle range and the scanning unit angle of the second scanning processing. If it is determined (Yes), the process proceeds to step S328. If not (No), the process proceeds to step S332.

ステップS328に移行した場合は、センシングプロセッサ210において、ステップS324においてRAM等の記録媒体に記録した連続面と判断された距離情報に基づいて面データを生成し、ステップS330に移行する。
ここで、面データの生成は、例えば、各走査平面間において、連続面と判断された勾配およびその測定点の座標情報とを比較し、座標値と勾配とが近いものを面と判断し、これらの座標情報を対応付けたり、公知の補完法を用いてつなぎ合わせたりすることで行う。
When the process proceeds to step S328, the sensing processor 210 generates surface data based on the distance information determined as the continuous surface recorded in the recording medium such as the RAM in step S324, and the process proceeds to step S330.
Here, the generation of the surface data is performed by, for example, comparing the gradient determined to be a continuous surface and the coordinate information of the measurement point between the respective scanning planes, determining that the coordinate value and the gradient are close to a surface, The coordinate information is associated with each other or connected by using a known complement method.

例えば、勾配が0に近い測定点の連続する座標情報から構成される面データの面は、水平面と判断できるので、そこが歩行可能な面だと判断できる。
ステップS330では、3次元距離測定装置200において、ハブ76および通信I/F64を介して、ステップS328で生成した面データをCPU60に出力して処理を終了する。
For example, since the surface of the surface data composed of the continuous coordinate information of the measurement points whose gradient is close to 0 can be determined as a horizontal surface, it can be determined that the surface can be walked.
In step S330, in the three-dimensional distance measuring apparatus 200, the surface data generated in step S328 is output to the CPU 60 via the hub 76 and the communication I / F 64, and the process ends.

一方、ステップS326において、すべての走査平面に対して連続面の判断処理が終了しておらず、ステップS332に移行した場合は、3次元距離測定装置200において、センシングプロセッサ210からの指令信号に応じて、ドライバ214、モータ216およびエンコーダ218を駆動し、2次元距離測定装置212を、ステップS300で設定されたz軸回りの走査角度範囲内において、同じくステップS300で設定された走査単位角度ずつz軸回りに回転させる処理(第2走査処理)を実行し、ステップS302に移行する。   On the other hand, if the determination process of the continuous plane is not completed for all the scanning planes in step S326 and the process proceeds to step S332, the three-dimensional distance measuring device 200 responds to the command signal from the sensing processor 210. Then, the driver 214, the motor 216, and the encoder 218 are driven, and the two-dimensional distance measuring device 212 is moved z by the scanning unit angle similarly set in step S300 within the scanning angle range around the z-axis set in step S300. A process of rotating around the axis (second scanning process) is executed, and the process proceeds to step S302.

また、ステップS314において、出現頻度が閾値以上ではなく、ステップS334に移行した場合は、センシングプロセッサ210において、ステップS312で選択した勾配に対応する測定点の測定距離を測定ノイズとして除外し、ステップS318に移行する。   In step S314, if the appearance frequency is not equal to or higher than the threshold value and the process proceeds to step S334, the sensing processor 210 excludes the measurement distance of the measurement point corresponding to the gradient selected in step S312 as measurement noise, and step S318. Migrate to

次に、脚車輪型ロボット100の移動制御システムを説明する。
CPU60は、センサ入力I/F63を介して、3次元距離測定装置200、前方脚先センサ22、下方脚先センサ24、障害物センサ34、36および3軸姿勢センサ70からそれぞれセンサ信号を入力する。
次に、CPU60で実行される処理を説明する。
CPU60は、ステップS100、S102に代えて、3次元距離測定装置200を用いた特徴点検出処理を実行する。特徴点検出処理では、3次元距離測定装置200から面データを入力し、そのセンサ座標系における各測定点の座標をグローバル座標系の座標に変換し、変換した測定点のうち面の周縁上の点(段部の境界点)を特徴点として検出する。
Next, the movement control system of the leg wheel type robot 100 will be described.
The CPU 60 inputs sensor signals from the three-dimensional distance measuring device 200, the front leg tip sensor 22, the lower leg tip sensor 24, the obstacle sensors 34 and 36, and the three-axis posture sensor 70 via the sensor input I / F 63, respectively. .
Next, processing executed by the CPU 60 will be described.
The CPU 60 executes a feature point detection process using the three-dimensional distance measuring device 200 instead of steps S100 and S102. In the feature point detection process, surface data is input from the three-dimensional distance measuring device 200, the coordinates of each measurement point in the sensor coordinate system are converted to the coordinates of the global coordinate system, and on the periphery of the surface among the converted measurement points. A point (step boundary) is detected as a feature point.

次に、本実施の形態の動作を説明する。
図25は、測定範囲内に階段がある場合の、第1走査処理による測定結果を示す図である。
まず、3次元距離測定装置200は、CPU60からの指令信号に基づいて、センシングプロセッサ210において走査角度範囲および走査単位角度を設定する(ステップS300)。
Next, the operation of the present embodiment will be described.
FIG. 25 is a diagram illustrating a measurement result by the first scanning process when there is a staircase in the measurement range.
First, the three-dimensional distance measuring apparatus 200 sets a scanning angle range and a scanning unit angle in the sensing processor 210 based on a command signal from the CPU 60 (step S300).

ここで、2次元距離測定装置212は、測距範囲20〜4095[mm]、最大走査角度範囲240°、角度分解能0.36°の2次元レンジセンサであることとする。走査角度範囲が240°であれば、上述した図18に示す走査平面を形成する走査角度範囲と同じとなり、2次元距離測定装置212の上方にある支持部材219、駆動プーリ220a、従動プーリ220bおよびベルト221が走査範囲に含まれないことになる。   Here, it is assumed that the two-dimensional distance measuring device 212 is a two-dimensional range sensor having a distance measurement range of 20 to 4095 [mm], a maximum scanning angle range of 240 °, and an angular resolution of 0.36 °. If the scanning angle range is 240 °, it becomes the same as the scanning angle range that forms the scanning plane shown in FIG. 18 described above, and the support member 219, the driving pulley 220a, the driven pulley 220b, and the driven pulley 220b above the two-dimensional distance measuring device 212 The belt 221 is not included in the scanning range.

また、第1走査処理に対して、走査角度範囲240°および走査単位角度0.36°が設定され、第2走査処理に対して、走査角度範囲−40°〜+40°および走査単位角度10°が設定されたとする(この場合は、走査平面が9つ形成される)。走査角度範囲−40°〜+40°であれば、2次元距離測定装置212から水平方向に所定距離隔てて配置されたモータ216およびエンコーダ218が走査範囲に含まれないことになる。   Further, a scanning angle range of 240 ° and a scanning unit angle of 0.36 ° are set for the first scanning process, and a scanning angle range of −40 ° to + 40 ° and a scanning unit angle of 10 ° are set for the second scanning process. Is set (in this case, nine scanning planes are formed). If the scanning angle range is −40 ° to + 40 °, the motor 216 and the encoder 218 arranged at a predetermined distance in the horizontal direction from the two-dimensional distance measuring device 212 are not included in the scanning range.

センシングプロセッサ210は、まず、第1走査処理に対して設定された走査角度範囲および走査単位角度に基づいて、ドライバ212bに指令信号を出力する。
2次元距離測定装置212は、ドライバ212bにおいて、センシングプロセッサ210からの指令信号およびエンコーダ212dからの出力信号に基づいて、モータ212cの回転軸を回転駆動し、測距センサ212aをy軸回りに走査単位角度Δθ=0.36°ずつ回転するとともに、各回転角度に応じた距離を測定する第1走査処理を実行する(ステップS302)。最初は、z軸回りに対して回転角度φが0°の位置(初期位置)に対する第1走査処理を実行する。また、各距離情報(回転座標系)は、データ列L(θi,φj)として、センシングプロセッサ210へと出力される。
First, the sensing processor 210 outputs a command signal to the driver 212b based on the scanning angle range and the scanning unit angle set for the first scanning process.
In the driver 212b, the two-dimensional distance measuring device 212 rotates the rotation axis of the motor 212c based on the command signal from the sensing processor 210 and the output signal from the encoder 212d, and scans the distance measuring sensor 212a around the y axis. A first scanning process is performed in which the unit angle Δθ = 0.36 ° is rotated and a distance corresponding to each rotation angle is measured (step S302). Initially, the first scanning process is executed for a position (initial position) where the rotation angle φ is 0 ° around the z axis. Each distance information (rotational coordinate system) is output to the sensing processor 210 as a data string L (θ i , φ j ).

なお、y軸回りの走査範囲内には、基体10以外に、2次元距離測定装置212の駆動機構等の走査を阻害する物が一切存在しないため、走査範囲内に存在する物体の正確な距離情報を得ることができる。
そして、1つの走査平面に対する第1走査処理が終了すると、センシングプロセッサ210は、第1走査処理において測定された距離情報に対して、メディアンフィルタを用いたフィルタリング処理を行う(ステップS304)。これにより、測定情報におけるノイズ成分を除去する。
In the scanning range around the y-axis, there is no object other than the substrate 10 that hinders scanning, such as the driving mechanism of the two-dimensional distance measuring device 212, so the accurate distance of an object existing in the scanning range Information can be obtained.
When the first scanning process for one scanning plane is completed, the sensing processor 210 performs a filtering process using a median filter on the distance information measured in the first scanning process (step S304). Thereby, the noise component in the measurement information is removed.

ここで、ノイズ成分除去後の各測定点の測定距離L[mm]は、例えば、図25に示すようになる。図25において、横軸は各走査角度に応じた測定点の番号(第1走査角度番号)であり、縦軸は各走査角度番号の測定点に対する測定距離L[mm]である。
図25に示す例では、脚車輪型ロボット100の歩行経路上に、段差が一定でかつ蹴込板が連続面となっている階段が存在している。
Here, the measurement distance L [mm] of each measurement point after removal of the noise component is, for example, as shown in FIG. In FIG. 25, the horizontal axis is the number of the measurement point corresponding to each scanning angle (first scanning angle number), and the vertical axis is the measurement distance L [mm] to the measurement point of each scanning angle number.
In the example shown in FIG. 25, there are stairs on the walking path of the leg-wheel type robot 100 with a constant step and a continuous kick plate.

次に、センシングプロセッサ210は、フィルタリング処理後の回転座標系の距離情報を直交座標系の距離情報に変換する(ステップS306)。
図26は、図25の各測定点の回転座標系の測定距離を直交座標系の測定距離に変換した場合の測定結果を示す図である。
すなわち、図25に示す各測定点の回転座標系の測定距離を直交座標系の測定距離へと変換することで、図26に示すように、各回転角度に対応するx軸方向の距離[mm]とz軸方向の距離[mm]とで表現される2次元の座標情報となる。図26において、横軸はx軸方向の距離Lx[mm]であり、縦軸はz軸方向の距離Lz[mm]である。
Next, the sensing processor 210 converts the distance information of the rotated coordinate system after the filtering process into the distance information of the orthogonal coordinate system (step S306).
FIG. 26 is a diagram illustrating a measurement result when the measurement distance in the rotational coordinate system of each measurement point in FIG. 25 is converted into the measurement distance in the orthogonal coordinate system.
That is, by converting the measurement distance of the rotational coordinate system of each measurement point shown in FIG. 25 into the measurement distance of the orthogonal coordinate system, as shown in FIG. 26, the distance in the x-axis direction corresponding to each rotation angle [mm] ] And z-axis direction distance [mm]. In FIG. 26, the horizontal axis represents the distance L x [mm] in the x-axis direction, and the vertical axis represents the distance L z [mm] in the z-axis direction.

次に、直交座標系に変換された距離情報に基づいて、各測定点の勾配を算出する(ステップS308)。
図27は、最小二乗法を用いて算出したx方向およびz方向の勾配の一例を示す図である。
Next, the gradient of each measurement point is calculated based on the distance information converted into the orthogonal coordinate system (step S308).
FIG. 27 is a diagram illustrating an example of gradients in the x direction and the z direction calculated using the least square method.

ここでは、最小二乗法を用いて、各測定点の勾配を算出する。ここで、最小二乗法を用いた場合に、図27(a)および(b)に示すように、最小二乗法を適用する複数の測定点に対して、x方向の勾配と、z方向の勾配とが異なる場合がある。そこで、下式(12)および(13)に示すように、x方向およびz方向の勾配を求める2つの直線の方程式を用いて最小二乗法計算を行う。
z=ax・x+bx …(12)
x=az・z+bz …(13)
Here, the gradient of each measurement point is calculated using the least square method. Here, when the least square method is used, as shown in FIGS. 27A and 27B, the gradient in the x direction and the gradient in the z direction are applied to a plurality of measurement points to which the least square method is applied. May be different. Therefore, as shown in the following equations (12) and (13), the least square method calculation is performed using two linear equations for obtaining gradients in the x direction and the z direction.
z = a x · x + b x (12)
x = a z · z + b z (13)

そして、上式(12)におけるaxおよびbxを下式(14)により算出し、上式(13)におけるazおよびbzを下式(15)により算出する。 Then, a x and b x in the above equation (12) are calculated by the following equation (14), and a z and b z in the above equation (13) are calculated by the following equation (15).

Figure 2009050936
Figure 2009050936

xおよびbx、並びにazおよびbzを算出すると、これらの算出結果を代入した、上式(12)および(13)の直線と、最小二乗計算に用いた各測定点との距離を残差hxおよびhzとして算出するとともに、前記各測定点に対する残差hxの二乗和と、残差hzの二乗和とを算出する(下式(16))。 When a x and b x and a z and b z are calculated, the distances between the straight lines of the above equations (12) and (13) and the respective measurement points used for the least square calculation are calculated. While calculating as residuals h x and h z , the sum of squares of residuals h x and the sum of squares of residuals h z for the respective measurement points are calculated (the following equation (16)).

Figure 2009050936
Figure 2009050936

残差hxの二乗和および残差hzの二乗和が算出されると、両者を比較して値の小さい方の直線を、正しい直線として採用し、この直線の勾配に基づいて、算出対象の測定点の勾配を求める。具体的に、残差hxの二乗和の方が小さければ、「a=ax、b=bx」とし、残差hzの二乗和の方が小さければ、「a=1/az、b=1/bz」とする。 When the sum of squares of the residual h x and the square sum of the residuals h z are calculated, the straight line with the smaller value is compared as the correct straight line, and the calculation target is calculated based on the slope of this straight line. The slope of the measurement point is obtained. Specifically, if the square sum of the residual h x is smaller, “a = a x , b = b x ”. If the square sum of the residual h z is smaller, “a = 1 / az”. , B = 1 / b z ”.

上記のようにして、走査平面に対する全測定点の勾配が算出されると、次に、各勾配の出現頻度を算出する(ステップS310)。
図28は、ある走査平面に対する勾配の出現頻度の一例を示す図である。
ここでは、図28に示すような、出現頻度が得られたとする。
図28に示すように、勾配が0近傍の出現頻度が比較的高くなっており、これらの勾配に対応する測定点の座標情報が連続していれば、そこに水平面があると推定することができる。
When the gradients of all the measurement points with respect to the scanning plane are calculated as described above, next, the appearance frequency of each gradient is calculated (step S310).
FIG. 28 is a diagram illustrating an example of the appearance frequency of a gradient with respect to a certain scanning plane.
Here, it is assumed that the appearance frequency as shown in FIG. 28 is obtained.
As shown in FIG. 28, if the frequency of appearance near the gradient is relatively high and the coordinate information of the measurement points corresponding to these gradients is continuous, it can be estimated that there is a horizontal plane there. it can.

出現頻度が算出されると、センシングプロセッサ210は、次に、未判定の勾配の出現頻度を選択し(ステップS312)、その出現頻度が、あらかじめ設定された閾値以上か否かを判定する(ステップS314)。そして、閾値以上であれば(ステップS314の「Yes」の分岐)、勾配と測定点の座標情報とを対応付けてRAM(不図示)に記録する(ステップS316)。一方、閾値未満であれば(ステップS314の「No」の分岐)、測定ノイズとして、測定点の距離情報を除外する(ステップS334)。   When the appearance frequency is calculated, the sensing processor 210 next selects an appearance frequency of an undetermined gradient (step S312), and determines whether the appearance frequency is equal to or higher than a preset threshold value (step S312). S314). If it is equal to or greater than the threshold value ("Yes" branch in step S314), the gradient and the coordinate information of the measurement point are associated and recorded in a RAM (not shown) (step S316). On the other hand, if it is less than the threshold value ("No" branch in step S314), the distance information of the measurement point is excluded as the measurement noise (step S334).

上記の判定処理が、すべての勾配に対して終了すると(ステップS318の「Yes」の分岐)、次に、RAMに記録された、出現頻度が閾値以上の勾配および測定点の座標情報に基づいて、連続面の有無を判断する(ステップS320)。
脚車輪型ロボット100の移動経路上には、段差が一定でかつ蹴込板が連続面となっている階段が存在しているため、階段部分にある水平面等が、勾配0および略0の測定点の連続する座標として現われる。このような場合に、センシングプロセッサ210は、連続面(実際は、面と走査平面との交差線)がある(ステップS322の「Yes」の分岐)と判断する。一方、座標の途中で勾配がいきなり外れた値となったときは、そこで面(実際は、面と走査平面との交差線)が途切れていると判断する。これらの判断結果から、物体の凹凸を認識することが可能である。
When the above determination processing is completed for all the gradients (“Yes” branch in step S318), next, based on the gradient recorded in the RAM and having the appearance frequency equal to or greater than the threshold and the coordinate information of the measurement points. Then, the presence / absence of a continuous surface is determined (step S320).
On the moving path of the leg-wheel type robot 100, there is a staircase having a constant step and a continuous surface of the kick plate. Appears as a series of coordinates. In such a case, the sensing processor 210 determines that there is a continuous plane (actually, a crossing line between the plane and the scanning plane) (the “Yes” branch in step S322). On the other hand, when the gradient suddenly deviates in the middle of the coordinates, it is determined that the surface (actually, the intersection line between the surface and the scanning plane) is interrupted. From these determination results, the unevenness of the object can be recognized.

そして、連続面に対応する直交座標系の測定距離を、センサ座標系(3次元)の測定距離に変換し、RAMに記録する(ステップS324)。
連続面の判断が終了すると、3次元距離測定装置200は、ドライバ214において、センシングプロセッサ210からの指令信号およびエンコーダ218からの出力信号に基づいて、モータ216の回転軸を回転駆動し、2次元距離測定装置212をz軸回りに回転角度10°ずつ回転する第2走査処理を実行する(ステップS332)。第2走査処理によって、2次元距離測定装置212の向きが1つ前の状態に対してz軸回りに10°だけ変化する。そして、2次元距離測定装置212は、この状態で、再び、第1走査処理を実行する(ステップS302)。これにより、z軸回りに10°ずれた位置に新たな走査平面が形成される。
Then, the measurement distance of the orthogonal coordinate system corresponding to the continuous surface is converted into the measurement distance of the sensor coordinate system (three-dimensional) and recorded in the RAM (step S324).
When the determination of the continuous surface is completed, the three-dimensional distance measuring apparatus 200 causes the driver 214 to rotationally drive the rotating shaft of the motor 216 based on the command signal from the sensing processor 210 and the output signal from the encoder 218. A second scanning process is performed in which the distance measuring device 212 is rotated about the z axis by a rotation angle of 10 ° (step S332). By the second scanning process, the direction of the two-dimensional distance measuring device 212 changes by 10 ° around the z axis with respect to the previous state. In this state, the two-dimensional distance measuring device 212 executes the first scanning process again (step S302). Thereby, a new scanning plane is formed at a position shifted by 10 ° around the z-axis.

そして、設定された走査角度範囲(−40°〜+40°)に対して、設定された走査単位角度10°で、2次元距離測定装置212を回転させ、各回転角度φにおいて、第1走査処理を実行する。
ここで、2次元距離測定装置212が基体10の正面に取り付けられているため、基体10が走査範囲内に含まれてしまうが、脚車輪型ロボット100の前方および歩行経路上を含む範囲においては阻害物が一切ないため、脚車輪型ロボット100の歩行制御を行うのに十分な走査範囲が確保できているといえる。
Then, the two-dimensional distance measuring device 212 is rotated at the set scanning unit angle of 10 ° with respect to the set scanning angle range (−40 ° to + 40 °), and the first scanning process is performed at each rotation angle φ. Execute.
Here, since the two-dimensional distance measuring device 212 is attached to the front surface of the base body 10, the base body 10 is included in the scanning range, but in the range including the front of the leg wheel type robot 100 and the walking path. Since there are no obstructions, it can be said that a sufficient scanning range for performing the walking control of the leg-wheel type robot 100 can be secured.

そして、9つの走査平面に対する距離の測定が終了すると(ステップS326の「Yes」の分岐)、次に、RAMに記録された連続面の情報に基づいて面データを生成する(ステップS328)。
面データは、上述したように、z軸回りに連続する各隣り合う走査平面間において、勾配および座標の近い連続面をつなぎ合わせる(対応付ける)ことで生成される。生成した面データは、ハブ76および通信I/F64を介して、CPU60に出力される(ステップS330)。
When the measurement of the distances to the nine scanning planes is completed (“Yes” branch of step S326), surface data is then generated based on the information of the continuous surface recorded in the RAM (step S328).
As described above, the plane data is generated by connecting (corresponding) continuous planes having close gradients and coordinates between adjacent scanning planes that are continuous around the z axis. The generated surface data is output to the CPU 60 via the hub 76 and the communication I / F 64 (step S330).

そして、CPU60により、入力された面データについてセンサ座標系の座標がグローバル座標系の座標に変換され、特徴点が検出される。
また、CPU60により、入力された面データが解析され、特に、勾配が0に近い交差線を有する面がある場合は、それを水平面とみなし、脚車輪型ロボット100が歩行可能な面であると判断される。
Then, the CPU 60 converts the coordinates of the sensor coordinate system into the coordinates of the global coordinate system for the input surface data, and detects the feature points.
Further, the input surface data is analyzed by the CPU 60. In particular, when there is a surface having an intersecting line whose slope is close to 0, the surface is regarded as a horizontal surface and is a surface on which the leg wheel type robot 100 can walk. To be judged.

歩行可能な面であると判断された場合は、面データのグローバル座標系への変換結果と、3軸姿勢センサ70のセンサ信号等とに基づいて脚先の着地位置が決定される。
なお、段差が一定でかつ蹴込板が連続面となる階段を例に挙げたが、段差が一定でない階段、蹴込板が連続面とならない階段、蹴込板の無い階段等に対しても、正確にその面の形状を認識することができるので、脚車輪型ロボット100の階段への適応性を高めることが可能である。
If it is determined that the face is a walkable face, the landing position of the leg tip is determined based on the conversion result of the face data to the global coordinate system, the sensor signal of the triaxial posture sensor 70, and the like.
In addition, although the steps are constant and the staircase where the kick plate is a continuous surface is given as an example, the staircase where the step is not constant, the staircase where the kick plate is not a continuous surface, the staircase without the kick plate, etc. Since the shape of the surface can be recognized, the adaptability of the leg wheel type robot 100 to the stairs can be improved.

このようにして、本実施の形態では、測距センサ212aをy軸回りに回転させるモータ212c等からなるy軸回転機構と、測距センサ212aをz軸回りに回転させるモータ216等からなるz軸回転機構とを備え、y軸回転機構により測距センサ212aを回転させながらy軸回転機構の走査単位角度ごとに測距センサ212aの測定結果を取得する第1走査を、z軸回転機構により測距センサ212aを回転させながらz軸回転機構の走査単位角度ごとに行う第2走査を行うことにより、y軸回転機構の走査単位角度ごとおよびz軸回転機構の走査単位角度ごとの測定結果を取得する。   Thus, in the present embodiment, a z-axis rotation mechanism including a motor 212c and the like that rotates the distance measurement sensor 212a around the y-axis, and a z-axis that includes the motor 216 and the like that rotates the distance measurement sensor 212a around the z-axis. A first scan for obtaining a measurement result of the distance measuring sensor 212a for each scanning unit angle of the y-axis rotating mechanism while rotating the distance measuring sensor 212a by the y-axis rotating mechanism. By performing the second scanning performed for each scanning unit angle of the z-axis rotating mechanism while rotating the distance measuring sensor 212a, the measurement results for each scanning unit angle of the y-axis rotating mechanism and each scanning unit angle of the z-axis rotating mechanism are obtained. get.

これにより、障害物の立体的な形状を把握することができ、これに基づいて検出された特徴点により干渉判定を行うことができるので、干渉判定の精度を向上することができる。また、測距センサ212aを回転させる回転機構を採用したので、移動機構に比して、走査に必要なスペースが小さくてすみ、走査のための機構が簡素となり、しかも高速な走査を実現することができる。   Thereby, the three-dimensional shape of the obstacle can be grasped, and interference determination can be performed based on the feature points detected based on the three-dimensional shape, so that the accuracy of interference determination can be improved. In addition, since a rotation mechanism that rotates the distance measuring sensor 212a is adopted, a space required for scanning is smaller than that of the moving mechanism, the scanning mechanism is simplified, and high-speed scanning is realized. Can do.

さらに、本実施の形態では、モータ216およびエンコーダ218と、2次元距離測定装置212とを水平方向に所定距離隔てて配置し、駆動回転軸の回転駆動力を、駆動プーリ220a、従動プーリ220bおよびベルト221を介して従動回転軸へと伝達し、2次元距離測定装置212をz軸回りに回転駆動する構成とした。
これにより、2次元距離測定装置212の走査角度範囲内には、走査を阻害するものが一切なくなるので、正確な距離情報を得ることができる。また、モータ216およびエンコーダ218と、2次元距離測定装置212とを水平方向に配置したので、3次元距離測定装置200の高さ方向の占有率を低減することができる。
Further, in the present embodiment, the motor 216 and encoder 218 and the two-dimensional distance measuring device 212 are arranged at a predetermined distance in the horizontal direction, and the rotational driving force of the driving rotary shaft is converted to the driving pulley 220a, the driven pulley 220b, and The two-dimensional distance measuring device 212 is driven to rotate around the z axis by transmitting to the driven rotating shaft via the belt 221.
As a result, there is no obstacle to scanning within the scanning angle range of the two-dimensional distance measuring device 212, so that accurate distance information can be obtained. Further, since the motor 216 and the encoder 218 and the two-dimensional distance measuring device 212 are arranged in the horizontal direction, the occupation ratio in the height direction of the three-dimensional distance measuring device 200 can be reduced.

さらに、本実施の形態では、測距センサ212aをy軸回りに走査単位角度ずつ回転させるとともに、各回転角度における距離を測定する第1走査処理を実行し、距離情報に基づいて、各測定点の勾配および勾配の出現頻度を算出することで、走査平面内に存在する物体の凹凸を認識する。
これにより、連続面が存在することを推定することができる。
Further, in the present embodiment, the distance measurement sensor 212a is rotated by the scanning unit angle around the y axis, and the first scanning process for measuring the distance at each rotation angle is executed, and each measurement point is determined based on the distance information. By calculating the gradient and the appearance frequency of the gradient, the unevenness of the object existing in the scanning plane is recognized.
Thereby, it can be estimated that a continuous surface exists.

さらに、本実施の形態では、1つの走査平面に対する第1走査処理が終了するごとに、2次元距離測定装置212をz軸回りに走査単位角度だけ回転させる第2走査処理を実行する。
これにより、複数の走査平面に対して第1走査処理を実行することができるので、測定範囲内に存在する物体上の面の形状を認識することができる。また、面の形状が認識できるので、脚車輪型ロボット100は、未知の障害物に対して高い適応性を実現することができる。また、人が活動する環境での動作を行えるので、人と一緒に行動する用途に用いられるホームロボット、パーソナルロボット等のヒューマンアシストロボットに好適である。
Further, in the present embodiment, every time the first scanning process for one scanning plane is completed, the second scanning process for rotating the two-dimensional distance measuring device 212 by the scanning unit angle around the z axis is executed.
As a result, the first scanning process can be executed on a plurality of scanning planes, so that the shape of the surface on the object existing within the measurement range can be recognized. Further, since the shape of the surface can be recognized, the leg wheel type robot 100 can realize high adaptability to an unknown obstacle. In addition, since it can operate in an environment where people are active, it is suitable for human assist robots such as home robots and personal robots that are used for acting with people.

上記第2の実施の形態において、y軸は、発明7の第1走査軸に対応し、z軸は、発明7の第2走査軸に対応し、y軸回転機構は、発明6若しくは7の第1走査手段、または発明7の第1回転手段に対応し、z軸回転機構は、発明6若しくは7の第2走査手段、または発明7の第2回転手段に対応している。また、ステップS302は、発明6または7の測定結果取得手段に対応している。   In the second embodiment, the y-axis corresponds to the first scanning axis of the invention 7, the z-axis corresponds to the second scanning axis of the invention 7, and the y-axis rotation mechanism is the invention 6 or 7. The z-axis rotating mechanism corresponds to the first scanning means or the first rotating means of the seventh aspect of the invention, and the z-axis rotating mechanism corresponds to the second scanning means of the sixth or seventh aspect of the invention or the second rotating means of the seventh aspect of the invention. Step S302 corresponds to the measurement result acquisition means of the sixth or seventh aspect.

なお、上記第1および第2の実施の形態においては、脚すね部平面と特徴点の位置関係に基づいて干渉の有無を判定するように構成したが、これに限らず、脚すね部の形状に対応する線(直線、線分、多次曲線、円、楕円その他の曲線)と、特徴点との位置関係に基づいて干渉の有無を判定するように構成することもできる。また、脚すね部に対応する空間と、特徴点との位置関係に基づいて干渉の有無を判定するように構成することもできる。   In the first and second embodiments, the configuration is such that the presence or absence of interference is determined based on the positional relationship between the leg shin plane and the feature points. It is also possible to determine whether or not there is interference based on the positional relationship between a line (straight line, line segment, multi-order curve, circle, ellipse, or other curve) corresponding to the feature point. Moreover, it can also comprise so that the presence or absence of interference may be determined based on the positional relationship between the space corresponding to the leg shank and the feature point.

また、上記第1および第2の実施の形態においては、レーザ28〜30およびカメラ32からなる物体センサまたは3次元距離測定装置200を用いて特徴点を検出するように構成したが、これに限らず、他の方式の物体センサを用いて特徴点を検出するように構成することもできる。
また、上記第1および第2の実施の形態においては、物体センサを用いて特徴点を検出するように構成したが、これに限らず、物体センサを用いることなく、あらかじめ測定、計算若しくは定義した特徴点に関する特徴点情報、またはシミュレーション等の計算結果に基づいて特徴点を検出するように構成することもできる。
In the first and second embodiments, the feature point is detected by using the object sensor including the lasers 28 to 30 and the camera 32 or the three-dimensional distance measuring device 200. However, the present invention is not limited to this. Alternatively, the feature point may be detected using another type of object sensor.
In the first and second embodiments, the feature point is detected using the object sensor. However, the present invention is not limited to this, and the measurement, calculation, or definition is performed in advance without using the object sensor. It can also be configured to detect feature points based on feature point information on feature points or calculation results such as simulation.

また、上記第1および第2の実施の形態においては、干渉の有無を判定するように構成したが、これに限らず、干渉しないことのみを判定すること、干渉することのみを判定すること、干渉の度合いを判定すること、干渉までの度合い(例えば、特徴点と脚すね部の間の距離)を判定するように構成することもできる。
また、上記第2の実施の形態においては、エンコーダ218を駆動回転軸に設けて構成としたが、これに限らず、従動回転軸に設けて構成とすることもできる。
Further, in the first and second embodiments, the presence / absence of interference is determined. However, the present invention is not limited to this, and it is determined only that there is no interference, it is determined only that there is interference, It can also be configured to determine the degree of interference and to determine the degree of interference (for example, the distance between the feature point and the leg shin part).
In the second embodiment, the encoder 218 is provided on the drive rotating shaft. However, the present invention is not limited to this, and the encoder 218 may be provided on the driven rotating shaft.

これにより、伝達誤差の影響を受けずに第2走査処理における走査角度を高精度に検出することができる。
また、上記第2の実施の形態においては、駆動プーリ220a、従動プーリ220bおよびベルト221を介して、駆動回転軸の回転駆動力を従動回転軸へと伝達するように構成としたが、これに限らず、複数の歯車を介して、駆動回転軸の回転駆動力を従動回転軸へと伝達するように構成とすることもできる。
Thereby, the scanning angle in the second scanning process can be detected with high accuracy without being affected by the transmission error.
In the second embodiment, the rotational driving force of the driving rotating shaft is transmitted to the driven rotating shaft via the driving pulley 220a, the driven pulley 220b, and the belt 221. Not limited to this, the configuration may be such that the rotational driving force of the drive rotary shaft is transmitted to the driven rotary shaft via a plurality of gears.

また、上記第2の実施の形態においては、第1走査処理における距離情報の取得を離散的(第2走査処理で回転させてから第1走査処理で距離情報を取得)に行う構成としたが、これに限らず、走査角度と測定距離との対応付けを行うことで連続的(第2走査処理で回転させつつ、第1走査処理で距離情報を取得)に行う構成とすることもできる。
また、上記第2の実施の形態においては、CPU60からの指令信号に基づいて、走査角度範囲および走査単位角度を設定するように構成としたが、これに限らず、3次元距離測定装置200にあらかじめ設定しておく構成とすることもできる。
In the second embodiment, the distance information in the first scanning process is acquired discretely (the distance information is acquired in the first scanning process after being rotated in the second scanning process). However, the present invention is not limited to this, and a configuration in which scanning angles and measurement distances are associated with each other continuously (distance information is acquired by the first scanning process while being rotated by the second scanning process) may be employed.
In the second embodiment, the scanning angle range and the scanning unit angle are set based on the command signal from the CPU 60. However, the present invention is not limited to this. It can also be set as a configuration set in advance.

また、上記第2の実施の形態において、3次元距離測定装置200は、測距センサ212aをy軸回りに回転させ、2次元距離測定装置212をz軸回りに回転させる構成としたが、これに限らず、測距センサ212aをz軸回りに回転させ、2次元距離測定装置212をy軸回りに回転させる構成とすることもできる。また、y軸およびz軸回りに限らず、測距センサ212aの測定方向に対して互いに直交する2つの軸であれば、どの方向の軸回りでもよい。さらに、このような回転機構に限らず、測距センサ212aの測定方向とは異なる第1走査方向に測距センサ212aを移動させ、測定方向および第1走査方向とは異なる第2走査方向に測距センサ212aを移動させるように移動機構として構成することもできる。この場合、移動経路の形状としては、直線のほか円弧その他の曲線を採用することができる。回転機構と移動機構の組み合わせることもできる。   In the second embodiment, the three-dimensional distance measuring device 200 is configured to rotate the distance measuring sensor 212a around the y axis and rotate the two-dimensional distance measuring device 212 around the z axis. Not limited to this, the distance measuring sensor 212a may be rotated about the z axis, and the two-dimensional distance measuring device 212 may be rotated about the y axis. Further, not only about the y-axis and the z-axis, but also about any axis in any direction as long as the two axes are orthogonal to the measurement direction of the distance measuring sensor 212a. Further, not limited to such a rotation mechanism, the distance measuring sensor 212a is moved in the first scanning direction different from the measurement direction of the distance measuring sensor 212a, and the measurement is performed in the second scanning direction different from the measurement direction and the first scanning direction. It can also be configured as a moving mechanism to move the distance sensor 212a. In this case, as the shape of the movement path, a circular arc or other curve can be adopted in addition to a straight line. A combination of a rotating mechanism and a moving mechanism can also be used.

また、上記第2の実施の形態においては、図29(a)に示すように、2次元距離測定装置212自身を回転させているが、これに限らず、光学式の測距センサを有する2次元距離測定装置であれば、図29(b)に示すように、測定方向の光軸上に挿入したミラーを回転させてもよい。   In the second embodiment, as shown in FIG. 29 (a), the two-dimensional distance measuring device 212 itself is rotated. However, the present invention is not limited to this, and 2 having an optical distance measuring sensor. In the case of a dimensional distance measuring device, as shown in FIG. 29B, a mirror inserted on the optical axis in the measurement direction may be rotated.

図29は、測距センサの測定方向を変更する場合の構成を示す図である。
また、上記第1および第2の実施の形態においては、脚すね部を判定の対象部位として設定したが、これに限らず、脚車輪型ロボット100の任意の部位を判定の対象部位として設定することができる。
また、上記第1および第2の実施の形態においては、本発明に係る干渉判定装置および脚車輪型ロボットを、階段を乗り越える場合について適用したが、これに限らず、階段以外の段差を乗り越える場合についても同様に適用することができる。
FIG. 29 is a diagram illustrating a configuration when the measurement direction of the distance measuring sensor is changed.
Moreover, in the said 1st and 2nd embodiment, although the leg shin part was set as an object part of judgment, it is not restricted to this but arbitrary parts of leg wheel type robot 100 are set up as an object part of judgment. be able to.
In the first and second embodiments, the interference determination device and the leg-wheel type robot according to the present invention are applied to the case of going over the stairs. The same applies to.

また、上記第1および第2の実施の形態においては、本発明に係る干渉判定装置および脚車輪型ロボットを脚車輪型ロボット100に適用したが、これに限らず、本発明の主旨を逸脱しない範囲で他の場合にも適用可能である。例えば、直動関節で脚構造を実現する脚車輪型ロボットや他の構成のロボット、車両その他の装置に適用することができる。   In the first and second embodiments, the interference determination device and the leg wheel type robot according to the present invention are applied to the leg wheel type robot 100. However, the present invention is not limited to this and does not depart from the gist of the present invention. The scope is applicable to other cases. For example, the present invention can be applied to a leg-wheel type robot that realizes a leg structure with a linear motion joint, a robot having another configuration, a vehicle, and other devices.

脚車輪型ロボット100の正面図である。1 is a front view of a leg wheel type robot 100. FIG. 脚車輪型ロボット100の側面図である。1 is a side view of a leg wheel type robot 100. FIG. 障害物センサ34、36の構成を示す図である。It is a figure which shows the structure of the obstruction sensors 34 and 36. FIG. 脚車輪型ロボット100の移動制御システムを示すブロック図である。2 is a block diagram showing a movement control system of a leg wheel type robot 100. FIG. 昇降制御処理を示すフローチャートである。It is a flowchart which shows a raising / lowering control process. 光切断法の原理を説明するための図である。It is a figure for demonstrating the principle of a light cutting method. 階段にレーザ光を照射した状態およびカメラ32の撮像素子の画像を示す図である。It is a figure which shows the state which irradiated the laser beam to the staircase, and the image of the image pick-up element of the camera. 階段の昇降時に段鼻部の特徴点を検出する場合を示す図である。It is a figure which shows the case where the feature point of a nose part is detected at the time of raising / lowering of stairs. グローバル座標系において脚すね部の表面に対応する4つの平面を示す図である。It is a figure which shows four planes corresponding to the surface of a leg shin part in a global coordinate system. 段鼻部の特徴点A、脚すね部平面、脚すね部平面上の任意の点Pおよび脚すね部平面の法線ベクトルNを示す図である。It is a figure which shows the feature point A of a nose part, a leg shin part plane, the arbitrary points P on a leg shin part plane, and the normal vector N of a leg shin part plane. グローバル座標系および脚車輪型ロボット100の各座標系を示す図である。2 is a diagram illustrating a global coordinate system and each coordinate system of a leg wheel type robot 100. FIG. 座標系P4を示す図である。It is a figure which shows coordinate system P4. 脚すね部平面および法線ベクトルNを示す図である。It is a figure which shows a leg shin part plane and the normal vector N. 干渉判定処理を示すフローチャートである。It is a flowchart which shows an interference determination process. 脚車輪型ロボット100を側面図である。1 is a side view of a leg wheel type robot 100. FIG. 3次元距離測定装置200の外観構造を示す図である。It is a figure which shows the external appearance structure of the three-dimensional distance measuring apparatus 200. FIG. 2次元距離測定装置212の制御構造を示すブロック図である。It is a block diagram which shows the control structure of the two-dimensional distance measuring apparatus 212. 測距センサ212aの走査範囲を示す図である。It is a figure which shows the scanning range of the ranging sensor 212a. 3次元距離測定装置200の制御構造を示すブロック図である。3 is a block diagram showing a control structure of a three-dimensional distance measuring apparatus 200. FIG. 2次元距離測定装置212の距離測定の原理を説明する図である。It is a figure explaining the principle of the distance measurement of the two-dimensional distance measuring device 212. FIG. 第1走査処理および第2走査処理により走査を行った場合を示す図である。It is a figure which shows the case where it scans by the 1st scanning process and the 2nd scanning process. 3次元距離測定装置200の距離の計測例を示す図である。It is a figure which shows the example of a distance measurement of the three-dimensional distance measuring apparatus 200. FIG. 3次元距離測定装置200における物体認識処理を示すフローチャートである。5 is a flowchart showing object recognition processing in the three-dimensional distance measuring apparatus 200. 勾配の算出例を示す図である。It is a figure which shows the example of calculation of a gradient. 測定範囲内に階段がある場合の、第1走査処理による測定結果を示す図である。It is a figure which shows the measurement result by a 1st scanning process in case there exists a stair within a measurement range. 図25の各測定点の回転座標系の測定距離を直交座標系の測定距離に変換した場合の測定結果を示す図である。It is a figure which shows the measurement result at the time of converting the measurement distance of the rotation coordinate system of each measurement point of FIG. 25 into the measurement distance of a rectangular coordinate system. 最小二乗法を用いて算出したx方向およびz方向の勾配の一例を示す図である。It is a figure which shows an example of the gradient of the x direction computed using the least squares method, and az direction. ある走査平面に対する勾配の出現頻度の一例を示す図である。It is a figure which shows an example of the appearance frequency of the gradient with respect to a certain scanning plane. 測距センサの測定方向を変更する場合の構成を示す図である。It is a figure which shows the structure in the case of changing the measurement direction of a ranging sensor.

符号の説明Explanation of symbols

100 脚車輪型ロボット
10 基体
12 脚部
14〜18 回転関節
20 駆動輪
22、24 脚先センサ
26 水平レーザ
28、30 垂直レーザ
32 カメラ
34、36 障害物センサ
40、50 モータ
42、52 エンコーダ
44、54 ドライバ
70 3軸姿勢センサ
200 3次元距離測定装置
210 センシングプロセッサ
212 2次元距離測定装置
212a 測距センサ
212c、216 モータ
212d、218 エンコーダ
212b、214 ドライバ
220a 駆動プーリ
220b 従動プーリ
221 ベルト
DESCRIPTION OF SYMBOLS 100 Leg wheel type robot 10 Base body 12 Legs 14-18 Rotary joint 20 Driving wheel 22, 24 Leg tip sensor 26 Horizontal laser 28, 30 Vertical laser 32 Camera 34, 36 Obstacle sensor 40, 50 Motor 42, 52 Encoder 44, 54 Driver 70 Three-axis attitude sensor 200 Three-dimensional distance measuring device 210 Sensing processor 212 Two-dimensional distance measuring device 212a Distance sensor 212c, 216 Motor 212d, 218 Encoder 212b, 214 Driver 220a Driving pulley 220b Driven pulley 221 Belt

Claims (7)

対象部位について障害物との干渉判定を行う干渉判定装置であって、
障害物の特徴点を検出する特徴点検出手段と、
前記特徴点および前記対象部位の座標を定める座標系において、前記対象部位またはこれと連動する部位の姿勢および前記対象部位の形状により特定される線、平面または空間であって、前記対象部位の形状に対応する線、前記対象部位の表面に対応する平面または前記対象部位に対応する空間と、前記特徴点検出手段で検出した特徴点との位置関係に基づいて、前記対象部位について障害物との干渉判定を行う干渉判定手段とを備えることを特徴とする干渉判定装置。
An interference determination device that performs interference determination with an obstacle for a target part,
Feature point detection means for detecting feature points of obstacles;
In the coordinate system that defines the coordinates of the feature point and the target part, a line, a plane, or a space that is specified by the posture of the target part or a part linked to the target part and the shape of the target part, and the shape of the target part On the basis of the positional relationship between the feature point detected by the feature point detecting means and the plane corresponding to the surface of the target site or the space corresponding to the target site and the feature point detected by the feature point detecting means. An interference determination apparatus comprising: an interference determination unit that performs interference determination.
基体と、前記基体に対して自由度を有して連結された脚部と、前記脚部に回転可能に設けられた車輪と、物体センサとを備え、前記脚部の駆動および前記車輪の回転により移動する脚車輪型ロボットであって、
前記物体センサの測定結果に基づいて障害物の特徴点を検出する特徴点検出手段と、
前記特徴点および前記対象部位の座標を定める座標系において、当該脚車輪型ロボットの姿勢および前記対象部位の形状により特定される線、平面または空間であって、前記対象部位の形状に対応する線、前記対象部位の表面に対応する平面または前記対象部位に対応する空間と、前記特徴点検出手段で検出した特徴点との位置関係に基づいて、前記対象部位について障害物との干渉判定を行う干渉判定手段とを備えることを特徴とする脚車輪型ロボット。
A base, a leg connected to the base with a degree of freedom, a wheel rotatably provided on the leg, and an object sensor, and driving of the leg and rotation of the wheel A leg-wheel robot that moves by
Feature point detecting means for detecting a feature point of an obstacle based on the measurement result of the object sensor;
In the coordinate system that defines the coordinates of the feature point and the target part, a line, a plane, or a space that is specified by the posture of the leg-wheel robot and the shape of the target part, and corresponds to the shape of the target part Then, based on the positional relationship between the plane corresponding to the surface of the target site or the space corresponding to the target site and the feature point detected by the feature point detecting means, the interference determination of the target site with the obstacle is performed. A leg-wheel type robot comprising an interference determination unit.
請求項2において、
前記干渉判定手段は、前記座標系において、前記対象部位の表面に対応する複数の平面で囲まれる空間に前記特徴点が属するか否かを判定することにより、前記対象部位に対して障害物が干渉するか否かを判定することを特徴とする脚車輪型ロボット。
In claim 2,
In the coordinate system, the interference determination unit determines whether the feature point belongs to a space surrounded by a plurality of planes corresponding to the surface of the target part, so that an obstacle exists for the target part. A leg-wheel robot characterized by determining whether or not to interfere.
請求項3において、
前記干渉判定手段は、当該脚車輪型ロボットの姿勢および前記対象部位の形状に基づいて、前記対象部位の座標を定める第1座標系の座標を、前記特徴点の座標を定める第2座標系の座標に変換して前記第2座標系における前記複数の平面を特定し、前記第2座標系において、前記複数の平面で囲まれる空間に前記特徴点が属するか否かを判定することを特徴とする脚車輪型ロボット。
In claim 3,
The interference determination unit is configured to convert the coordinates of the target part based on the posture of the leg-wheel robot and the shape of the target part into the coordinates of the first coordinate system and the coordinates of the feature point. Converting into coordinates to identify the plurality of planes in the second coordinate system, and determining whether or not the feature points belong to a space surrounded by the plurality of planes in the second coordinate system. Leg-wheel type robot.
請求項3および4のいずれか1項において、
前記干渉判定手段は、前記特徴点と前記平面上の任意の点を結ぶ直線と、前記平面の法線ベクトルとの内積に基づいて、前記複数の平面で囲まれる空間に前記特徴点が属するか否かを判定することを特徴とする脚車輪型ロボット。
In any one of Claims 3 and 4,
The interference determination means determines whether the feature point belongs to a space surrounded by the plurality of planes based on an inner product of a straight line connecting the feature point and an arbitrary point on the plane and a normal vector of the plane. A leg-wheel type robot characterized by determining whether or not.
請求項2ないし5のいずれか1項において、
前記物体センサは、物体上の測定点までの距離を測定する測距センサであり、
前記測距センサの測定方向とは異なる第1走査方向に前記測距センサを走査する第1走査手段と、前記測定方向および前記第1走査方向とは異なる第2走査方向に前記測距センサを走査する第2走査手段と、前記第1走査手段および前記第2走査手段の走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得手段とを備え、
前記特徴点検出手段は、前記測定結果取得手段で取得した測定結果に基づいて前記特徴点を検出することを特徴とする脚車輪型ロボット。
In any one of Claims 2 thru | or 5,
The object sensor is a distance measuring sensor that measures a distance to a measurement point on an object,
First scanning means for scanning the distance measuring sensor in a first scanning direction different from the measuring direction of the distance measuring sensor, and the distance measuring sensor in a second scanning direction different from the measuring direction and the first scanning direction. Second scanning means for scanning, and measurement result acquisition means for acquiring measurement results of the distance measuring sensor for the measurement points that can be measured in the scanning ranges of the first scanning means and the second scanning means,
The feature wheel detection unit detects the feature point based on the measurement result acquired by the measurement result acquisition unit.
請求項6において、
前記第1走査手段は、前記測定方向に対して所定角度をなす第1走査軸の回りに前記測距センサを回転させる第1回転手段であり、
前記第2走査手段は、前記測定方向および前記第1走査軸に対して所定角度をなす第2走査軸の回りに前記測距センサを回転させる第2回転手段であり、
前記測定結果取得手段は、前記第1回転手段により前記測距センサを回転させながら前記第1回転手段の所定単位角度ごとに前記測距センサの測定結果を取得する第1走査を、前記第2回転手段により前記測距センサを回転させながら前記第2回転手段の所定単位角度ごとに行う第2走査を行うことにより、前記第1回転手段の所定単位角度ごとおよび前記第2回転手段の所定単位角度ごとの前記測定結果を取得することを特徴とする脚車輪型ロボット。
In claim 6,
The first scanning unit is a first rotating unit that rotates the distance measuring sensor around a first scanning axis that forms a predetermined angle with respect to the measurement direction.
The second scanning unit is a second rotating unit that rotates the distance measuring sensor around a second scanning axis that forms a predetermined angle with respect to the measurement direction and the first scanning axis;
The measurement result acquisition means performs a first scan for acquiring a measurement result of the distance measurement sensor for each predetermined unit angle of the first rotation means while rotating the distance measurement sensor by the first rotation means. By performing the second scan performed at every predetermined unit angle of the second rotating means while rotating the distance measuring sensor by the rotating means, the predetermined unit angle of the first rotating means and the predetermined unit of the second rotating means. A leg-wheel type robot characterized by acquiring the measurement result for each angle.
JP2007218646A 2007-08-24 2007-08-24 Interference determination device and leg wheel type robot Pending JP2009050936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007218646A JP2009050936A (en) 2007-08-24 2007-08-24 Interference determination device and leg wheel type robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007218646A JP2009050936A (en) 2007-08-24 2007-08-24 Interference determination device and leg wheel type robot

Publications (1)

Publication Number Publication Date
JP2009050936A true JP2009050936A (en) 2009-03-12

Family

ID=40502488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007218646A Pending JP2009050936A (en) 2007-08-24 2007-08-24 Interference determination device and leg wheel type robot

Country Status (1)

Country Link
JP (1) JP2009050936A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101090082B1 (en) * 2009-05-29 2011-12-07 한국원자력연구원 System and method for automatic measuring of the stair dimensions using a single camera and a laser
JP2012220227A (en) * 2011-04-05 2012-11-12 Toyota Motor Corp Method and system for recognizing obstacle for moving body
JP2013066996A (en) * 2011-09-07 2013-04-18 Honda Motor Co Ltd Contact state estimating apparatus, and trajectory generation apparatus
JP2013114330A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Environment information obtaining system using unattended traveling body
JP2014100767A (en) * 2012-11-20 2014-06-05 Toshiba Corp Level difference walking control device and method of multileg walking robot
WO2014162360A1 (en) * 2013-04-05 2014-10-09 テルモ株式会社 Sphygmomanometer and blood pressure value computation method
WO2016135861A1 (en) * 2015-02-24 2016-09-01 株式会社日立製作所 Manipulator, motion planning method for manipulator, and control system for manipulator
CN107225556A (en) * 2017-07-01 2017-10-03 徐州乐泰机电科技有限公司 A kind of removable mineral transporter
JP2017198581A (en) * 2016-04-28 2017-11-02 富士通株式会社 Measuring apparatus and measuring system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101090082B1 (en) * 2009-05-29 2011-12-07 한국원자력연구원 System and method for automatic measuring of the stair dimensions using a single camera and a laser
JP2012220227A (en) * 2011-04-05 2012-11-12 Toyota Motor Corp Method and system for recognizing obstacle for moving body
JP2013066996A (en) * 2011-09-07 2013-04-18 Honda Motor Co Ltd Contact state estimating apparatus, and trajectory generation apparatus
JP2013114330A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Environment information obtaining system using unattended traveling body
JP2014100767A (en) * 2012-11-20 2014-06-05 Toshiba Corp Level difference walking control device and method of multileg walking robot
WO2014162360A1 (en) * 2013-04-05 2014-10-09 テルモ株式会社 Sphygmomanometer and blood pressure value computation method
WO2016135861A1 (en) * 2015-02-24 2016-09-01 株式会社日立製作所 Manipulator, motion planning method for manipulator, and control system for manipulator
JPWO2016135861A1 (en) * 2015-02-24 2017-06-22 株式会社日立製作所 Manipulator, manipulator operation planning method, and manipulator control system
JP2017198581A (en) * 2016-04-28 2017-11-02 富士通株式会社 Measuring apparatus and measuring system
CN107225556A (en) * 2017-07-01 2017-10-03 徐州乐泰机电科技有限公司 A kind of removable mineral transporter

Similar Documents

Publication Publication Date Title
JP2009050936A (en) Interference determination device and leg wheel type robot
EP2888603B1 (en) Robot positioning system
JP5510081B2 (en) Obstacle avoidance support device, obstacle avoidance support method, and moving object
JP2009096335A (en) Legged robot
JP4241651B2 (en) Mobile device
JP2009008648A (en) Three-dimensional distance measuring device and caster-type robot
JP6828579B2 (en) Environmental maintenance robot and its control program
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
JP5278283B2 (en) Autonomous mobile device and control method thereof
JP5649298B2 (en) Object detection apparatus and object detection method
JP2011209845A (en) Autonomous mobile body, self-position estimation method and map information creation system
JP2011027598A (en) Environment recognition device and moving body with the same
JP2007190654A (en) Leg-wheel robot
JP6781535B2 (en) Obstacle determination device and obstacle determination method
JP6187499B2 (en) Self-localization method for autonomous mobile robot, autonomous mobile robot, and landmark for self-localization
JP2009006984A (en) Leg wheel type robot
TW202024666A (en) Information processing device and mobile robot
KR100809379B1 (en) Apparatus for extracting of flat region using triangle region orthogonal vector and method therefor
KR101359649B1 (en) obstacle detection sensor
KR102564663B1 (en) Coordinates recognition apparatus of automatic guided vehicle and method thereof
JP2009006466A (en) Leg wheel type robot
JP2010005718A (en) Leg type robot
KR100904769B1 (en) Detecting device of obstacle and method thereof
CN113610910A (en) Obstacle avoidance method for mobile robot
JP2009042146A (en) Apparatus and method for recognizing object