JP6030405B2 - Planar detection device and autonomous mobile device including the same - Google Patents

Planar detection device and autonomous mobile device including the same Download PDF

Info

Publication number
JP6030405B2
JP6030405B2 JP2012235950A JP2012235950A JP6030405B2 JP 6030405 B2 JP6030405 B2 JP 6030405B2 JP 2012235950 A JP2012235950 A JP 2012235950A JP 2012235950 A JP2012235950 A JP 2012235950A JP 6030405 B2 JP6030405 B2 JP 6030405B2
Authority
JP
Japan
Prior art keywords
plane
distance image
axis
distance
projection image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012235950A
Other languages
Japanese (ja)
Other versions
JP2014085940A (en
Inventor
透 花岡
透 花岡
松尾 順向
順向 松尾
光平 松尾
光平 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012235950A priority Critical patent/JP6030405B2/en
Priority to PCT/JP2013/071855 priority patent/WO2014064990A1/en
Publication of JP2014085940A publication Critical patent/JP2014085940A/en
Application granted granted Critical
Publication of JP6030405B2 publication Critical patent/JP6030405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、距離画像から平面を検出する平面検出装置、およびそれを備えた自律移動装置に関する。   The present invention relates to a plane detection device that detects a plane from a distance image, and an autonomous mobile device including the same.

ロボットや無人搬送車といった自律移動装置においては、移動時に前方にある障害物や段差を検出し、衝突や転落を防止する必要がある。このような障害物や段差の検出には、赤外線方式や超音波方式の近接センサ広く用いられていた。   In an autonomous mobile device such as a robot or an automated guided vehicle, it is necessary to detect obstacles and steps ahead and prevent collisions and falls when moving. Infrared or ultrasonic proximity sensors have been widely used for detecting such obstacles and steps.

しかし、赤外線方式や超音波方式の近接センサは、前方の障害物の有無は判別できるが、その詳細な位置や形状までは得られない。したがって、ロボットに取り付けた場合、直近に存在する障害物や段差などの検出はできるものの、進行方向前方の広い範囲の障害物や段差を予め発見して回避しながら移動するような用途には用いることができない。そこで、レーザレンジファインダ(LRF)などの距離センサが、用いられるようになった。   However, an infrared or ultrasonic proximity sensor can determine the presence or absence of a front obstacle, but cannot obtain its detailed position and shape. Therefore, when it is attached to a robot, it can detect obstacles and steps that are present in the immediate vicinity, but it is used for applications that move while finding and avoiding obstacles and steps in a wide range ahead in the direction of travel. I can't. Therefore, distance sensors such as a laser range finder (LRF) have come to be used.

図13は、従来技術におけるレーザレンジファインダ101を備えた自律移動装置100の図であり、図13中の(a)は、従来技術におけるレーザレンジファインダ101を備えた自律移動装置100の外観図を示す図であり、図13中の(b)は、従来技術におけるレーザレンジファインダ101を備えた自律移動装置100が検出できない上方の障害物102、下方の障害物103、および段差104の図である。図13中の(a)に示すように、自律移動装置100は、レーザレンジファインダ101を高さHLRFの位置に備えている。レーザレンジファインダ101は、高さHLRFの位置において、水平方向(図のy軸に垂直な面内)に角度スキャンを行い、障害物、および段差を検出する。 FIG. 13 is a diagram of the autonomous mobile device 100 provided with the laser range finder 101 in the prior art. FIG. 13A is an external view of the autonomous mobile device 100 provided with the laser range finder 101 in the prior art. FIG. 13B is a diagram of the upper obstacle 102, the lower obstacle 103, and the step 104 that cannot be detected by the autonomous mobile device 100 including the laser range finder 101 in the prior art. . As shown to (a) in FIG. 13, the autonomous mobile apparatus 100 is equipped with the laser range finder 101 in the position of height HLRF . The laser range finder 101 performs an angle scan in the horizontal direction (in a plane perpendicular to the y-axis in the drawing) at the position of the height HLRF , and detects an obstacle and a step.

しかし、レーザレンジファインダ101は、計測精度は高いが、計測する高さと異なる位置にある障害物、および段差は検出できないという欠点がある。例えば、図13中の(b)において、レーザレンジファインダ101は、障害物102、障害物103、および段差104を検出することはできない。したがって、障害物102、障害物103、および段差104を検出するために、レーザレンジファインダ101の他に、赤外線方式の近接センサ、超音波方式の近接センサなどを多数配置する必要があり、自律移動装置が煩雑な構造となっていた。   However, although the laser range finder 101 has high measurement accuracy, it has a drawback that it cannot detect obstacles and steps at positions different from the measurement height. For example, in FIG. 13B, the laser range finder 101 cannot detect the obstacle 102, the obstacle 103, and the step 104. Therefore, in order to detect the obstacle 102, the obstacle 103, and the step 104, in addition to the laser range finder 101, it is necessary to arrange a large number of infrared proximity sensors, ultrasonic proximity sensors, etc. The apparatus has a complicated structure.

そこで、障害物、および段差を検出するために、障害物、および段差が含まれる画像を取得し、その画像から平面を検出して、その平面上の障害物、および段差を検出するという手法が提案されている。特許文献1においては、ステレオカメラを用いて、左右画像の微分画像のHough変換結果から道路面を検出し、それを手掛かりに他の車両や歩行者などを検出する。   Therefore, in order to detect an obstacle and a step, there is a method of acquiring an image including the obstacle and the step, detecting a plane from the image, and detecting the obstacle and the step on the plane. Proposed. In Patent Document 1, a road surface is detected from a Hough transform result of a differential image of left and right images using a stereo camera, and other vehicles, pedestrians, and the like are detected using this as a clue.

また、特許文献2においては、TOF(Time Of Flight)方式の距離画像センサによって得られる距離画像データから、RANSAC(RANdom SAmple Consensus)法と呼ばれる計算手法によって平面情報を抽出し、それを手掛かりに歩行者などを検出する。   In Patent Document 2, plane information is extracted by a calculation method called a RANSAC (RANdom Sample Consensus) method from distance image data obtained by a distance image sensor of a TOF (Time Of Flight) method, and walking is performed using the information as a clue. Detect people.

特開2005−24464号公報(2005年1月27日公開)JP 2005-24464 A (published January 27, 2005) 特表2011−530706号公報(2011年12月22日公表)Special table 2011-530706 gazette (announced December 22, 2011)

しかしながら、前記特許文献1に示された方法においては、ステレオカメラが必須である上、道路上の白線や路面端など、平面を検出するための分かりやすい手掛かりが必要となる。例えば、特許文献1にかかる平面検出装置を移動式ロボットに備えた場合、移動式ロボットが走行する路面上に白線や路面端などの分かりやすい手掛かりがない場合には、左右画像の対応関係が得られないため適用できない。   However, in the method disclosed in Patent Document 1, a stereo camera is essential, and easy-to-understand clues for detecting a plane such as a white line on a road and a road surface end are required. For example, when the mobile robot is equipped with the flat surface detection apparatus according to Patent Document 1, if there is no easy-to-understand clue such as a white line or a road surface end on the road surface on which the mobile robot travels, the correspondence relationship between the left and right images is obtained. Not applicable.

また、前記特許文献2に示された方法においては、距離画像データから直接平面情報を抽出できるものの、距離画像データ内に平面とは無関係の情報が多数含まれると、それがノイズとなって平面検出の障害となる。特に、距離画像データ内の大部分が平面以外の情報で占められているような場合には、平面が検出できなくなってしまう。また、平面を特定する際に算出すべきパラメータが多いため、演算時間が増大するという問題がある。   Further, in the method disclosed in Patent Document 2, plane information can be extracted directly from distance image data. However, if a lot of information unrelated to a plane is included in the distance image data, it becomes noise and the plane information is extracted. This is an obstacle to detection. In particular, when most of the distance image data is occupied by information other than the plane, the plane cannot be detected. In addition, since there are many parameters to be calculated when specifying the plane, there is a problem that the calculation time increases.

本発明は、前記の問題点を鑑みてなされたものであり、その目的は、距離画像からその画像内に含まれる平面を、高速かつより確実に検出できる平面検出装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a flat surface detection apparatus that can detect a plane included in the image from a distance image at high speed and more reliably.

前記の課題を解決するために、本発明に係る平面検出装置は、特定の検出対象平面を含む被写体の距離画像データから当該特定の検出対象平面を検出する平面検出装置であって、前記距離画像データを、前記特定の検出対象平面を表す検出対象3次元点群を含む3次元座標データに変換する3次元座標演算手段と、前記3次元座標データを所定の2次元平面に投影して、前記検出対象3次元点群が線形に分布した投影画像データを生成する投影画像生成手段と、前記投影画像データから前記線形の直線を検出する直線検出手段と、前記直線検出手段の検出結果に基づいて、前記特定の検出対象平面の傾きに関する情報を含む平面パラメータを算出する平面パラメータ算出手段と、を備えることを特徴としている。   In order to solve the above-described problem, a flat surface detection device according to the present invention is a flat surface detection device that detects a specific detection target plane from distance image data of a subject including the specific detection target plane, and the distance image Three-dimensional coordinate calculation means for converting data into three-dimensional coordinate data including a detection target three-dimensional point group representing the specific detection target plane, and projecting the three-dimensional coordinate data onto a predetermined two-dimensional plane, Based on the detection result of the projection image generation means for generating the projection image data in which the three-dimensional point cloud to be detected is linearly distributed, the straight line detection means for detecting the linear straight line from the projection image data, and the detection result of the straight line detection means. And plane parameter calculation means for calculating a plane parameter including information on the inclination of the specific detection target plane.

また、前記の課題を解決するために、本発明に係る自律移動装置は、前記平面検出装置と、前記距離画像データを生成する距離画像生成手段と、走行手段と、を備えており、前記平面検出装置を用いて走行路となる平面を検出することを特徴としている。   In order to solve the above-mentioned problem, the autonomous mobile device according to the present invention includes the plane detection device, a distance image generation unit that generates the distance image data, and a travel unit, and the plane The present invention is characterized in that a detection plane is used to detect a plane serving as a travel path.

本発明によれば、距離画像を3次元座標データに変換し、変換した3次元座標データを所定の2次元面(平面)に投影する。そして、投影した画像から直線を検出し、平面を検出する。したがって、距離画像の中に平面検出の手掛かりを必要とせず、また障害物等の平面とは無関係の情報が距離画像に多数含まれていても当該無関係の情報を排除して平面をより確実に検出できるという効果を奏する。   According to the present invention, a distance image is converted into three-dimensional coordinate data, and the converted three-dimensional coordinate data is projected onto a predetermined two-dimensional surface (plane). Then, a straight line is detected from the projected image, and a plane is detected. Therefore, it does not require a clue for plane detection in the distance image, and even if the distance image contains a lot of information irrelevant to the plane, such as obstacles, the irrelevant information is excluded and the plane is more reliably detected. There is an effect that it can be detected.

(a)は、本発明の実施形態1に係る平面検出装置を用いた清掃ロボットの外観図を示す図であり、(b)は、本発明の実施形態1に係る平面検出装置を用いた清掃ロボットの断面図である。(A) is a figure which shows the external view of the cleaning robot using the plane detection apparatus which concerns on Embodiment 1 of this invention, (b) is the cleaning using the plane detection apparatus which concerns on Embodiment 1 of this invention. It is sectional drawing of a robot. 本発明の実施形態1に係る清掃ロボットに具備される距離画像センサの取り付け位置と、距離画像センサの計測範囲を示す図である。It is a figure which shows the attachment position of the distance image sensor with which the cleaning robot which concerns on Embodiment 1 of this invention is equipped, and the measurement range of a distance image sensor. (a)は、本発明の実施形態1に係る清掃ロボットに具備される遠距離用の距離画像センサにより撮影されたRGB画像であり、(b)は、本発明の実施形態1に係る清掃ロボットに具備される遠距離用の距離画像センサにより撮影された距離画像であり、(c)は、本発明の実施形態1に係る清掃ロボットに具備される近距離用の距離画像センサにより撮影されたRGB画像であり、(d)は、本発明の実施形態1に係る清掃ロボットに具備される近距離用の距離画像センサにより撮影された距離画像である。(A) is the RGB image image | photographed by the distance image sensor for long distances with which the cleaning robot which concerns on Embodiment 1 of this invention is equipped, (b) is the cleaning robot which concerns on Embodiment 1 of this invention. Is a distance image photographed by the distance image sensor for long distances provided in FIG. 5, and (c) is photographed by the distance image sensor for short distances provided in the cleaning robot according to Embodiment 1 of the present invention. It is an RGB image, and (d) is a distance image taken by a distance image sensor for short distance provided in the cleaning robot according to the first embodiment of the present invention. 本発明の実施形態1に係る清掃ロボットの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the cleaning robot which concerns on Embodiment 1 of this invention. (a)は、本発明の実施形態1に係る清掃ロボットに具備される近距離用の距離画像センサ基準の3次元座標系を示す図であり、(b)は、本発明の実施形態1に係る清掃ロボットに具備される遠距離用の距離画像センサ基準の3次元座標系を示す図であり、(c)は、本発明の実施形態1に係る清掃ロボット基準の3次元座標系を示す図である。(A) is a figure which shows the three-dimensional coordinate system of the distance image sensor reference | standard for short distances with which the cleaning robot which concerns on Embodiment 1 of this invention is equipped, (b) is Embodiment 1 of this invention. It is a figure which shows the three-dimensional coordinate system of the distance image sensor for long distances with which this cleaning robot is equipped, (c) is a figure which shows the three-dimensional coordinate system of the cleaning robot reference | standard based on Embodiment 1 of this invention. It is. 本発明の実施形態1に係る3次元座標データの例を示す図である。It is a figure which shows the example of the three-dimensional coordinate data which concern on Embodiment 1 of this invention. 本発明の実施形態1に係る図6の3次元座標データをyz平面に投影した投影画像である。It is the projection image which projected the three-dimensional coordinate data of FIG. 6 which concerns on Embodiment 1 of this invention on yz plane. 本発明の実施形態1に係る清掃ロボットの演算装置が処理する手順を示すフローチャートである。It is a flowchart which shows the procedure which the arithmetic unit of the cleaning robot which concerns on Embodiment 1 of this invention processes. (a)は、本発明の実施形態1に係る清掃ロボットに具備される遠距離用の距離画像センサにより撮影された距離画像から生成されたyz平面への投影画像であり、(b)は、(a)のボトム画像であり、(c)は、本発明の実施形態1に係る清掃ロボットに具備される近距離用の距離画像センサにより撮影された距離画像から生成されたyz平面への投影画像であり、(d)は、(c)のボトム画像である。(A) is a projection image on a yz plane generated from a distance image taken by a distance image sensor for long distances provided in the cleaning robot according to the first embodiment of the present invention, and (b) is (A) is a bottom image, and (c) is a projection onto a yz plane generated from a distance image captured by a short-distance distance image sensor provided in the cleaning robot according to the first embodiment of the present invention. (D) is a bottom image of (c). (a)は、本発明の実施形態1に係る清掃ロボットに具備される距離画像センサにより撮影された距離画像から生成された、床面より低い段差が存在する場合のyz平面への投影画像であり、(b)は、(a)のボトム画像である。(A) is the projection image to the yz plane when the level | step difference lower than a floor surface produced | generated from the distance image image | photographed by the distance image sensor with which the cleaning robot which concerns on Embodiment 1 of this invention is equipped. Yes, (b) is the bottom image of (a). 本発明の実施形態2に係る清掃ロボットの演算装置が処理する手順を示すフローチャートである。It is a flowchart which shows the procedure which the arithmetic unit of the cleaning robot which concerns on Embodiment 2 of this invention processes. (a)は、本発明の実施形態2に係る清掃ロボットに具備される距離画像センサにより撮影された距離画像から生成された3次元座標データの例を示す図であり、(b)は、(a)の3次元座標データをyz平面に投影した投影画像であり、(c)は、(a)の3次元座標データをxy平面に投影した投影画像であり、(d)は、(a)の3次元座標データをxy´平面に投影した投影画像である。(A) is a figure which shows the example of the three-dimensional coordinate data produced | generated from the distance image image | photographed by the distance image sensor with which the cleaning robot which concerns on Embodiment 2 of this invention is equipped, (b) is ( (a) is a projection image obtained by projecting the three-dimensional coordinate data onto the yz plane, (c) is a projection image obtained by projecting the three-dimensional coordinate data (a) onto the xy plane, and (d) is a diagram (a). Is a projection image obtained by projecting the three-dimensional coordinate data on the xy ′ plane. (a)は、従来技術におけるレーザレンジファインダを備えた自律移動装置の外観図を示す図であり、(b)は、従来技術におけるレーザレンジファインダを備えた自律移動装置が検出できない上方の障害物、下方の障害物、および段差の図である。(A) is a figure which shows the external view of the autonomous mobile device provided with the laser range finder in a prior art, (b) is the upper obstacle which the autonomous mobile device provided with the laser range finder in a prior art cannot detect It is a figure of a lower obstacle, and a level | step difference.

〔実施形態1〕
以下、本発明の平面検出装置および自律移動装置の一実施形態として、平面検出装置を備えた清掃ロボットを挙げて、これを図1〜図8を用いて説明する。
Embodiment 1
Hereinafter, as an embodiment of the flat surface detection device and the autonomous mobile device of the present invention, a cleaning robot provided with the flat surface detection device will be described, and this will be described with reference to FIGS.

図1は、本実施形態1における清掃ロボット1を示す図であり、図1中の(a)は、この清掃ロボット1の外観図を示す図であり、図1中の(b)は、その清掃ロボット1の筐体11の内部構成を図示した断面図である。本実施形態1における清掃ロボット1は、床面を自律走行しながら清掃を行なう自律走行型の清掃ロボットである。この清掃ロボット1は、距離画像センサが取得した距離画像から平面を検出する平面検出装置を必須構成としている。清掃ロボット1は、平面検出装置によって、平面を検出し、進行方向の障害物、および段差を判別して、これらを避けて走行することができる。   FIG. 1 is a diagram showing a cleaning robot 1 according to the first embodiment. (A) in FIG. 1 is an external view of the cleaning robot 1, and (b) in FIG. 2 is a cross-sectional view illustrating an internal configuration of a housing 11 of the cleaning robot 1. FIG. The cleaning robot 1 according to the first embodiment is an autonomous traveling type cleaning robot that performs cleaning while autonomously traveling on a floor surface. The cleaning robot 1 has an essential configuration of a plane detection device that detects a plane from a distance image acquired by a distance image sensor. The cleaning robot 1 can detect a plane by a plane detection device, determine obstacles and steps in the traveling direction, and can travel while avoiding them.

なお、本発明に係る平面検出装置は、距離画像センサを構成要素として具備してもよいし、本実施形態1において以下で説明するように、清掃ロボット1に距離画像センサおよび平面検出装置が設けられており、当該距離画像センサが取得した距離画像を平面検出装置が入手して平面を検出する態様であってもよい。本実施形態1では、距離画像センサは平面検出装置の構成要素ではなく、平面検出装置の外部構成として距離画像センサが在る態様について説明する。   Note that the flat surface detection apparatus according to the present invention may include a distance image sensor as a component, and the cleaning robot 1 is provided with the distance image sensor and the flat surface detection apparatus as described below in the first embodiment. It is also possible to adopt a mode in which the plane detection device acquires the range image acquired by the range image sensor and detects the plane. In the first embodiment, the distance image sensor is not a constituent element of the flat surface detection device, and an aspect in which the distance image sensor is provided as an external configuration of the flat surface detection device will be described.

(清掃ロボット1の構成)
図1中の(a)において、清掃ロボット1は、窓21が設けられた筐体11と、駆動輪2(走行手段)と、保護部材12とを備えている。筐体11の内部には、後述する種々の制御系および駆動系などが実装されており、駆動輪2が駆動制御されることによって、清掃ロボット1が走行路面を走行し、走行中あるいは走行停止中に走行路面の清掃を行なう。
(Configuration of cleaning robot 1)
In FIG. 1A, the cleaning robot 1 includes a housing 11 provided with a window 21, drive wheels 2 (traveling means), and a protection member 12. Various control systems and drive systems, which will be described later, are mounted inside the housing 11. When the drive wheels 2 are driven and controlled, the cleaning robot 1 travels on the traveling road surface and travels or stops traveling. Clean the road surface during.

清掃ロボット1のより具体的な構成を図1中の(b)を用いて説明する。図1中の(b)において、清掃ロボット1は、窓21が設けられた筐体11の内部に、バッテリ4と、廃液回収ユニット45と、洗浄液吐出ユニット46と、モータ10と、距離画像センサ20(距離画像生成手段)と、演算装置30とを実装している。更に、図1中の(b)において、清掃ロボット1は、筐体11の外部、より具体的には筐体11と走行路面との間に、先に説明した駆動輪2とともに、従輪3と、清掃ブラシ9と、保護部材12とを備えている。以下に各構成について説明するが、本実施形態1の特徴的構成は演算装置30の一部に設けられた平面検出装置60にある。そこで、以下ではこの特徴的構成について重点的に説明する一方、特徴的構成以外の構成については従来周知の構成によって実現することも可能であるため詳細な説明は省略する。   A more specific configuration of the cleaning robot 1 will be described with reference to FIG. 1B, the cleaning robot 1 includes a battery 4, a waste liquid recovery unit 45, a cleaning liquid discharge unit 46, a motor 10, and a distance image sensor inside a casing 11 provided with a window 21. 20 (distance image generating means) and an arithmetic unit 30 are mounted. Further, in (b) of FIG. 1, the cleaning robot 1 is connected to the outside of the housing 11, more specifically between the housing 11 and the traveling road surface, together with the driving wheel 2 described above, The cleaning brush 9 and the protection member 12 are provided. Each configuration will be described below, but the characteristic configuration of the first embodiment resides in the flat surface detection device 60 provided in a part of the arithmetic device 30. Therefore, while the characteristic configuration will be described below in detail, the configuration other than the characteristic configuration can be realized by a conventionally known configuration, and thus detailed description thereof will be omitted.

なお、図1において、清掃ロボット1は、紙面左方向へ前進、紙面右方向へ後退、紙面奥、または手前方向への旋回が可能であるが、以下の説明では、主な進行方向である紙面左方向への移動を単に進行方向と記載することがある。   In FIG. 1, the cleaning robot 1 can move forward in the left direction of the paper, move backward in the right direction of the paper, turn in the rear of the paper surface, or turn in the front direction. Movement in the left direction may be simply referred to as a traveling direction.

駆動輪2は、清掃ロボット1の底部の左右に配置されており、駆動モータ(不図示)により制御されて清掃ロボット1の移動を実現する。従輪3は、清掃ロボット1の底部に回転自在に取り付けられている。駆動輪2および従輪3は、前進、後退、旋回、および停止ができ、これらの組み合わせにより清掃ロボット1の自在な走行を可能としている。   The drive wheels 2 are arranged on the left and right of the bottom of the cleaning robot 1 and are controlled by a drive motor (not shown) to realize the movement of the cleaning robot 1. The follower wheel 3 is rotatably attached to the bottom of the cleaning robot 1. The drive wheel 2 and the slave wheel 3 can move forward, backward, turn, and stop, and the cleaning robot 1 can freely travel by a combination thereof.

バッテリ4は清掃ロボット1に電源を供給する。バッテリ4は、よく知られた降圧回路と整流平滑回路とにより充電され、所定の電圧を出力する。   The battery 4 supplies power to the cleaning robot 1. The battery 4 is charged by a well-known step-down circuit and a rectifying / smoothing circuit, and outputs a predetermined voltage.

洗浄液吐出ユニット46は、洗浄液タンク5と、洗浄液吐出部6とを有している。洗浄液タンク5は、洗浄液を貯留する。また、洗浄液吐出部6は、洗浄液タンク5とパイプにより連結されており、洗浄液タンク5に貯留されている洗浄液を吐出する。   The cleaning liquid discharge unit 46 includes a cleaning liquid tank 5 and a cleaning liquid discharge unit 6. The cleaning liquid tank 5 stores the cleaning liquid. Further, the cleaning liquid discharge unit 6 is connected to the cleaning liquid tank 5 by a pipe, and discharges the cleaning liquid stored in the cleaning liquid tank 5.

廃液回収ユニット45は、廃液タンク7と、吸引口8とを有している。廃液タンク7は、清掃ロボット1が内部に吸い込んだ廃液(塵や埃等を含む)を溜める。清掃ロボット1は、吸引口8から廃液を吸い込み、吸引口8とパイプにより連結されている廃液タンク7に廃液を排出する。   The waste liquid recovery unit 45 has a waste liquid tank 7 and a suction port 8. The waste liquid tank 7 stores the waste liquid (including dust and dirt) sucked into the cleaning robot 1. The cleaning robot 1 sucks the waste liquid from the suction port 8 and discharges the waste liquid to the waste liquid tank 7 connected to the suction port 8 by a pipe.

清掃ブラシ9は、吸引口8の付近に設置され、洗浄液吐出部6から吐出された洗浄を使い清掃する。清掃ブラシ9は、モータ10によって駆動される。   The cleaning brush 9 is installed in the vicinity of the suction port 8 and is cleaned using the cleaning discharged from the cleaning liquid discharge unit 6. The cleaning brush 9 is driven by a motor 10.

保護部材12は、洗浄液の飛散、および異物の巻き込みを防止するために、清掃ロボット1の底部における進行方向前方側に設置されている。   The protection member 12 is installed on the front side in the traveling direction at the bottom of the cleaning robot 1 in order to prevent the cleaning liquid from splashing and foreign matters from getting involved.

距離画像センサ20は、近距離用の距離画像センサ20aと、遠距離用の距離画像センサ20bとを有している。なお、近距離用の距離画像センサ20aと、遠距離用の距離画像センサ20bとに共通する構成について説明する場合には単に距離画像センサ20と記載することがある。   The distance image sensor 20 includes a distance image sensor 20a for a short distance and a distance image sensor 20b for a long distance. It should be noted that the configuration common to the distance image sensor 20a for short distance and the distance image sensor 20b for long distance may be described simply as the distance image sensor 20.

距離画像センサ20は、赤外光投射方式の距離画像センサであり、その内部に赤外光の投射素子を含む投射光学系と、赤外光の撮像素子を含む撮像光学系を有する。所定のパターンを有する赤外光を外部に投影照射し、外部物体からの反射光を撮像素子で撮影することで、撮像光学系の視野範囲内にある物体までの距離を計測することができる。近距離用の距離画像センサ20aと、遠距離用の距離画像センサ20bとは、筐体11の内部に配設されており、赤外光を筐体11の窓21を通じて外部に投射するとともに、窓21を通じて外部から反射光を入射する。   The distance image sensor 20 is an infrared light projection type distance image sensor, and includes a projection optical system including an infrared light projection element and an imaging optical system including an infrared light image sensor. By projecting and irradiating infrared light having a predetermined pattern to the outside and photographing reflected light from the external object with an image sensor, the distance to the object within the field of view of the imaging optical system can be measured. The distance image sensor 20a for short distance and the distance image sensor 20b for long distance are disposed inside the housing 11, projecting infrared light to the outside through the window 21 of the housing 11, and Reflected light is incident from the outside through the window 21.

距離画像センサ20の距離計測結果は、視野範囲に含まれる物体までの距離を画像上の画素のグレースケール値として表現した距離画像(深度画像、デプス画像)として出力される。本実施形態における距離画像センサ20a、および距離画像センサ20bの詳細については、後述する。   The distance measurement result of the distance image sensor 20 is output as a distance image (depth image, depth image) in which the distance to an object included in the visual field range is expressed as a grayscale value of a pixel on the image. Details of the distance image sensor 20a and the distance image sensor 20b in the present embodiment will be described later.

演算装置30は、距離画像センサ20の距離画像を取得して、平面を検出する処理を行う。演算装置30の構成および機能の詳細については、後述する。   The arithmetic device 30 performs a process of acquiring a distance image of the distance image sensor 20 and detecting a plane. Details of the configuration and functions of the arithmetic unit 30 will be described later.

なお、清掃ロボット1には、前記の各構成の他にも、後述する構成も含む。その他にも、手動走行、または自動走行を選択する操作パネル、手動走行時の走行方向を決定する走行スイッチ、および非常時に運転を停止させる非常停止スイッチ等の制御スイッチ50(図4)などを備えることができる。また、清掃ロボット1の形態は、前記のような洗浄液を使用して洗浄するタイプに限定されるものではなく、ファン、集塵室、吸込口などを備えたいわゆる家庭用掃除機のような態様のロボットであってもよい。   The cleaning robot 1 includes configurations described later in addition to the above-described configurations. In addition, an operation panel for selecting manual travel or automatic travel, a travel switch for determining a travel direction during manual travel, and a control switch 50 (FIG. 4) such as an emergency stop switch for stopping operation in an emergency are provided. be able to. Moreover, the form of the cleaning robot 1 is not limited to the type of cleaning using the cleaning liquid as described above, and is an aspect like a so-called home vacuum cleaner provided with a fan, a dust collection chamber, a suction port, and the like. It may be a robot.

本発明に係る自律移動装置は、本実施形態1の清掃ロボット1でいうところの距離画像センサ20と、後述する演算装置30の平面検出装置60とを必須構成としている。そこで、以下では、先述した距離画像センサ20の詳細を説明するとともに、演算装置30の詳細を説明する。   The autonomous mobile device according to the present invention includes a distance image sensor 20 as referred to in the cleaning robot 1 of the first embodiment and a flat surface detection device 60 of the arithmetic device 30 described later as essential components. Therefore, in the following, details of the distance image sensor 20 described above will be described, and details of the arithmetic unit 30 will be described.

(距離画像センサ20の詳細)
図2は、本発明の実施形態1に係る清掃ロボット1の、距離画像センサ20の取り付け位置と、距離画像センサ20の計測範囲を示す図である。距離画像センサ20は、清掃ロボット1の進行方向前面に、清掃対象である床面(走行路面)から垂直に所定の距離離間した高さ位置に取り付けられている。より具体的には、距離画像センサ20の光軸は、進行方向前後に沿って伸びているものの、光軸の一端である撮像素子から進行方向に向かって斜め下向きになるよう、つまり距離画像センサ20は斜め下向きに床面を向いて取り付けられている。本実施形態1においては、近距離用の距離画像センサ20aは、床面からの高さ(床面から撮像素子の設置位置までの高さ)H=740[mm]、床面に対する光軸の角度θ=67.5[deg]となるよう取り付けられている。同様に、遠距離用の距離画像センサ20bは、床面からの高さ(床面から撮像素子の設置位置までの高さ)H=710[mm]、床面に対する光軸の角度θ=22.5[deg]となるよう取り付けられている。
(Details of the distance image sensor 20)
FIG. 2 is a diagram illustrating the attachment position of the distance image sensor 20 and the measurement range of the distance image sensor 20 in the cleaning robot 1 according to the first embodiment of the present invention. The distance image sensor 20 is attached to the front surface in the traveling direction of the cleaning robot 1 at a height position that is vertically separated from the floor surface (traveling road surface) to be cleaned. More specifically, although the optical axis of the distance image sensor 20 extends along the front and back in the traveling direction, the distance image sensor is inclined downward from the image sensor that is one end of the optical axis in the traveling direction, that is, the distance image sensor. 20 is attached to the floor surface obliquely downward. In the first embodiment, the distance image sensor 20a for short distance has a height from the floor (height from the floor to the installation position of the image sensor) H = 740 [mm], and the optical axis with respect to the floor. It is attached so that the angle θ = 67.5 [deg]. Similarly, the distance image sensor 20b for a long distance has a height from the floor surface (height from the floor surface to the installation position of the image sensor) H = 710 [mm], and an angle θ of the optical axis with respect to the floor surface = 22. .5 [deg].

図3中の(a)は、遠距離用の距離画像センサ20bにより撮影されたRGB画像であり、図3中の(b)は、遠距離用の距離画像センサ20bにより撮影された距離画像であり、図3中の(c)は、近距離用の距離画像センサ20aにより撮影されたRGB画像であり、図3中の(d)は、近距離用の距離画像センサ20aにより撮影された距離画像である。RGB画像である図3中の(a)および(c)の視野内にある物体への距離を、近い距離は明るく、遠い距離は暗く表示した距離画像が図3中の(b)および(d)となる。図3中の(b)および(d)が示すように、距離画像センサ20aと距離画像センサ20bとは、取り付けられた位置、および水平面に対する角度が異なるため、平面である床面の角度が異なっている。   3A is an RGB image photographed by the long-distance distance image sensor 20b, and FIG. 3B is a distance image photographed by the long-distance distance image sensor 20b. 3C is an RGB image photographed by the short distance image sensor 20a, and FIG. 3D is a distance photographed by the short distance image sensor 20a. It is an image. The distance images displayed as RGB images in FIGS. 3A and 3C in the field of view in FIGS. 3A and 3C are displayed with the distance images bright in the near distance and dark in the far distance in FIGS. 3B and 3D. ) As (b) and (d) in FIG. 3 show, the distance image sensor 20a and the distance image sensor 20b have different positions at which they are attached and the angle with respect to the horizontal plane, so that the angle of the floor that is a plane is different. ing.

ここで、距離画像センサ20の光軸を床面に対して平行に配置した場合、清掃ロボット1本体の近傍が、距離画像センサの画角から外れてしまう。したがって、清掃ロボット1本体の近距離の広い範囲が、視野外領域となり、計測不能になってしまう。これに対し、進行方向前方の斜め下向きに取り付けると、近傍の視野外領域を小さくできるので、清掃ロボット1本体の比較的近距離まで計測可能となる。   Here, when the optical axis of the distance image sensor 20 is arranged parallel to the floor surface, the vicinity of the main body of the cleaning robot 1 deviates from the angle of view of the distance image sensor. Therefore, a wide range in the short distance of the main body of the cleaning robot 1 becomes an out-of-view area, which makes measurement impossible. On the other hand, if it is attached obliquely downward in front of the traveling direction, the area outside the visual field in the vicinity can be reduced, so that it is possible to measure up to a relatively short distance of the cleaning robot 1 body.

また、床面上に投影した近距離用の距離画像センサ20aの視野範囲は、図2に示すAの台形領域になる。一方、遠距離用の距離画像センサ20bの視野範囲は、図2のAの台形領域になる。このように、水平面に対して異なる角度になるよう取り付けられた複数の距離画像センサ20を併用することにより、清掃ロボット1は、清掃ロボット1の進行方向の近傍から遠方まで、広い計測範囲を持つことが可能となる。 Further, the visual field range of the short-distance distance image sensor 20a projected on the floor surface is a trapezoidal area of A 0 B 0 C 0 D 0 shown in FIG. On the other hand, the visual field range of the distance image sensor 20b for a long distance is a trapezoidal area of A 1 B 1 C 1 D 1 in FIG. Thus, the cleaning robot 1 has a wide measurement range from the vicinity of the traveling direction of the cleaning robot 1 to the distant place by using the plurality of distance image sensors 20 attached at different angles with respect to the horizontal plane. It becomes possible.

なお、距離画像センサ20の配置や個数は本実施形態1の構成に限定されず、例えば距離画像センサ20を1個のみ搭載したり、複数個を水平方向に並べて配置したりすることも可能である。また、本実施形態1において、近距離用の距離画像センサ20aおよび遠距離用の距離画像センサ20bは、同一波長の赤外光源を用いているため、互いの干渉を防ぐ目的で、視野領域AとAとの間に図2に示すようにわずかに隙間を設けている。異なる波長の光源を用いるなどして干渉を防ぐことが可能であれば、2つの視野領域の間に隙間を設けないように近距離用の距離画像センサ20aおよび遠距離用の距離画像センサ20bを設置することも可能である。 The arrangement and the number of the distance image sensors 20 are not limited to the configuration of the first embodiment. For example, only one distance image sensor 20 may be mounted, or a plurality of distance image sensors 20 may be arranged in the horizontal direction. is there. In the first embodiment, the distance image sensor 20a for short distance and the distance image sensor 20b for long distance use the infrared light source having the same wavelength, and therefore the visual field region A is used for the purpose of preventing mutual interference. A slight gap is provided between 0 B 0 C 0 D 0 and A 1 B 1 C 1 D 1 as shown in FIG. If interference can be prevented by using light sources of different wavelengths, the distance image sensor 20a for short distance and the distance image sensor 20b for long distance are provided so as not to provide a gap between the two visual field regions. It is also possible to install.

(清掃ロボット1の走行機能)
図4は、本実施形態1の清掃ロボット1における、走行機能に関連する構成を示すブロック図である。図4に示すように、清掃ロボット1は、先に説明した距離画像センサ20および演算装置30の他に、走行制御部41、清掃制御部42、マップ情報メモリ部43、状態表示部44、ロータリーエンコーダ47、駆動輪モータ48、ジャイロセンサ49、および制御スイッチ50を備えている。
(Running function of cleaning robot 1)
FIG. 4 is a block diagram illustrating a configuration related to the travel function in the cleaning robot 1 of the first embodiment. As shown in FIG. 4, the cleaning robot 1 includes a travel control unit 41, a cleaning control unit 42, a map information memory unit 43, a status display unit 44, a rotary in addition to the distance image sensor 20 and the calculation device 30 described above. An encoder 47, a drive wheel motor 48, a gyro sensor 49, and a control switch 50 are provided.

演算装置30は、距離画像センサ20から距離画像を取得し、取得した距離画像から障害物や段差の位置、大きさ、および形状を抽出する。抽出された障害物、および段差の情報(以下、障害物・段差データと称する)は走行制御部41に出力される。演算装置30の詳細は後述する。   The arithmetic device 30 acquires a distance image from the distance image sensor 20, and extracts the position, size, and shape of an obstacle or a step from the acquired distance image. The extracted obstacles and step information (hereinafter referred to as obstacle / step data) are output to the traveling control unit 41. Details of the arithmetic unit 30 will be described later.

走行制御部41は、駆動輪2に取り付けられたロータリーエンコーダ47、およびジャイロセンサ49の情報に基づき、清掃ロボット1の移動距離、および現在の位置と方向とを把握する。予めマップ情報メモリ部43に保存されたマップ情報、および演算装置30から出力された障害物・段差データに基づき、障害物や段差を回避するように走行経路を決定し、駆動輪モータ48を制御する。また、制御スイッチ50から信号を取得すると、それに応じて非常停止や走行方向の変更など必要な制御を行う。これらの制御に関する情報は状態表示部44に表示され、リアルタイムに更新される。   The traveling control unit 41 grasps the moving distance of the cleaning robot 1 and the current position and direction based on information from the rotary encoder 47 attached to the drive wheel 2 and the gyro sensor 49. Based on the map information stored in advance in the map information memory unit 43 and the obstacle / step data output from the arithmetic unit 30, the travel route is determined so as to avoid the obstacle and the step, and the drive wheel motor 48 is controlled. To do. Further, when a signal is acquired from the control switch 50, necessary control such as an emergency stop or a change in the traveling direction is performed accordingly. Information regarding these controls is displayed on the status display unit 44 and updated in real time.

清掃制御部42は、走行制御部41からのコマンドを受けて、清掃ブラシ9、廃液回収ユニット45、および洗浄液吐出ユニット46の動作開始、および停止の切り替えなど、清掃に関する部分を制御する。   The cleaning control unit 42 receives commands from the travel control unit 41 and controls parts related to cleaning, such as switching the operation start and stop of the cleaning brush 9, the waste liquid recovery unit 45, and the cleaning liquid discharge unit 46.

マップ情報メモリ部43は、清掃ロボット1が清掃する範囲の障害物、および段差などの情報が保存されている。マップ情報メモリ部43に保存されている情報は、走行制御部41により、更新される。   The map information memory unit 43 stores information such as obstacles and steps in a range to be cleaned by the cleaning robot 1. The information stored in the map information memory unit 43 is updated by the travel control unit 41.

状態表示部44は、清掃ロボット1の状態に関する情報を表示する。例えば、手動走行、または自動走行の表示、非常時の運転停止の表示等である。   The state display unit 44 displays information regarding the state of the cleaning robot 1. For example, manual travel or automatic travel display, emergency stop display, and the like.

ロータリーエンコーダ47は、駆動輪2に取り付けられており、回転の変位をデジタル信号として走行制御部41に出力する。ロータリーエンコーダ47の出力により、走行制御部41は、進んだ距離を把握することができる。   The rotary encoder 47 is attached to the drive wheel 2 and outputs a rotational displacement to the travel control unit 41 as a digital signal. Based on the output of the rotary encoder 47, the travel control unit 41 can grasp the distance traveled.

ジャイロセンサ49は、向きの変化を検出し、走行制御部41に出力する。ジャイロセンサ49の出力により、走行制御部41は進行方向を把握することができる。   The gyro sensor 49 detects a change in direction and outputs the change to the traveling control unit 41. From the output of the gyro sensor 49, the traveling control unit 41 can grasp the traveling direction.

(演算装置30の詳細)
図4に示すように、演算装置30は、平面検出装置60、障害物・段差検出部35、およびデータ統合部36を備えている。平面検出装置60は、図4に示すように、3次元座標演算部31(3次元座標演算手段、第2の3次元座標演算手段)と、投影画像生成部32(投影画像生成手段、第2の投影画像生成手段)と、直線検出部33(直線検出手段、第2の直線検出手段)と、平面検出部34(平面パラメータ算出手段、第2の平面パラメータ算出手段)とを有している。
(Details of the arithmetic unit 30)
As illustrated in FIG. 4, the arithmetic device 30 includes a flat surface detection device 60, an obstacle / step detection unit 35, and a data integration unit 36. As shown in FIG. 4, the plane detection device 60 includes a three-dimensional coordinate calculation unit 31 (three-dimensional coordinate calculation unit, second three-dimensional coordinate calculation unit) and a projection image generation unit 32 (projection image generation unit, second Projection image generating means), a straight line detecting section 33 (straight line detecting means, second straight line detecting means), and a plane detecting section 34 (plane parameter calculating means, second plane parameter calculating means). .

・3次元座標演算部31
3次元座標演算部31は、距離画像センサ20から距離画像を取得し、取得した距離画像を3次元座標データに変換する。3次元座標データの座標系の定義を、図5を用いて説明する。
・ 3D coordinate calculation unit 31
The three-dimensional coordinate calculation unit 31 acquires a distance image from the distance image sensor 20 and converts the acquired distance image into three-dimensional coordinate data. The definition of the coordinate system of the three-dimensional coordinate data will be described with reference to FIG.

図5中の(a)は、近距離用の距離画像センサ20a基準の3次元座標系を示す図であり、図5中の(b)は、遠距離用の距離画像センサ20b基準の3次元座標系を示す図であり、図5中の(c)は、清掃ロボット1基準の3次元座標系を示す図である。なお、近距離用または遠距離用の距離画像センサ20a、20b基準の3次元座標系とは、距離画像センサ20の光学中心を原点として、進行方向を向いたときの左右方向をx軸(右向きを正)、上下方向をy軸(上向きを正)、前後方向、即ち距離画像センサ20の光軸方向をz軸(奥行き方向を正)にとる。距離画像センサ20aおよび距離画像センサ20bは取り付け位置、および角度が異なるため、図5中の(a)および(b)に示すように、座標系も互いに異なっている。また、距離画像センサ20基準の座標系で表した距離と、清掃ロボット1本体から床面に沿って計測した距離とも異なる。したがって、清掃ロボット1から対象物までの正確な距離を求めるためには、清掃ロボット1基準(床面基準)の座標系に座標変換して、2つの距離画像センサのデータを統合する必要がある。   (A) in FIG. 5 is a diagram showing a three-dimensional coordinate system based on the distance image sensor 20a for short distance, and (b) in FIG. 5 is a three-dimensional based on the distance image sensor 20b for long distance. It is a figure which shows a coordinate system, (c) in FIG. 5 is a figure which shows the three-dimensional coordinate system of cleaning robot 1 reference | standard. Note that the short-distance or long-distance range image sensors 20a and 20b are based on the three-dimensional coordinate system with the optical center of the distance image sensor 20 as the origin and the left-right direction when facing the traveling direction as the x-axis (rightward direction). The vertical direction is the y-axis (upward is positive), and the front-rear direction, that is, the optical axis direction of the distance image sensor 20 is the z-axis (depth direction is positive). Since the distance image sensor 20a and the distance image sensor 20b have different attachment positions and angles, the coordinate systems are also different from each other as shown in FIGS. 5 (a) and 5 (b). Further, the distance expressed in the coordinate system based on the distance image sensor 20 is different from the distance measured from the main body of the cleaning robot 1 along the floor surface. Therefore, in order to obtain an accurate distance from the cleaning robot 1 to the object, it is necessary to perform coordinate conversion to the coordinate system of the cleaning robot 1 reference (floor surface reference) and integrate the data of the two distance image sensors. .

そこで、図5中の(c)に示すように、距離画像センサ20基準のxyz座標とは別に、清掃ロボット1基準の座標系であるXYZ座標を定義する。進行方向をZ軸、床面の法線方向をY軸、Z軸およびY軸に垂直な方向をX軸(右向きを正)とする。   Therefore, as shown in (c) of FIG. 5, XYZ coordinates that are a coordinate system based on the cleaning robot 1 are defined separately from the xyz coordinates based on the distance image sensor 20. The traveling direction is the Z axis, the normal direction of the floor is the Y axis, and the direction perpendicular to the Z axis and the Y axis is the X axis (rightward is positive).

なお、本実施形態1においては、距離画像センサ20基準のx軸の向きと、清掃ロボット1基準のX軸の向きとが、ほぼ一致している。これは即ち、距離画像センサ20がz軸を中心に回転する方向に傾いて取り付けられてはおらず、床面と画像センサ20との傾きは、x軸を中心に回転する方向の傾きθだけであるということを意味する。もしくは、z軸を中心に回転する方向に傾いていたとしても、傾きθに比べて十分小さく、無視できるということを意味する。   In the first embodiment, the x-axis direction based on the distance image sensor 20 and the X-axis direction based on the cleaning robot 1 substantially coincide with each other. That is, the distance image sensor 20 is not attached to be inclined in the direction of rotation about the z axis, and the inclination between the floor surface and the image sensor 20 is only the inclination θ in the direction of rotation about the x axis. It means that there is. Or, even if it is inclined in the direction of rotation about the z axis, it means that it is sufficiently smaller than the inclination θ and can be ignored.

続いて、3次元座標データに含まれる点の座標を算出する方法について説明する。3次元座標(x,y,z)データのうち、z座標は距離画像に含まれる距離そのものである。x座標、およびy座標は、距離画像センサ20の光学系の焦点距離f、画素ピッチp、光軸と撮像素子中心との画素ズレ量cなどが分かれば、三角測量の原理によりzから計算することが出来る。本実施形態1においては、事前に距離画像センサに対しキャリブレーションを行い、これらのパラメータを求めておく。これにより、距離画像が得られれば、その画像に含まれる全画素において距離画像センサ20基準の3次元座標(x,y,z)データ、即ち3次元点群(Point Cloud)データを得ることができる。   Next, a method for calculating the coordinates of points included in the three-dimensional coordinate data will be described. Among the three-dimensional coordinate (x, y, z) data, the z coordinate is the distance itself included in the distance image. The x-coordinate and y-coordinate are calculated from z based on the principle of triangulation if the focal length f of the optical system of the distance image sensor 20, the pixel pitch p, and the pixel shift amount c between the optical axis and the center of the image sensor are known. I can do it. In the first embodiment, the distance image sensor is calibrated in advance to obtain these parameters. Thus, if a distance image is obtained, three-dimensional coordinate (x, y, z) data based on the distance image sensor 20, that is, three-dimensional point cloud data, can be obtained for all pixels included in the image. it can.

図6は、本実施形態1において、3次元座標データの例を示す図である。前述したように、進行方向に向いて左右方向をx軸、上下方向をy軸、前後方向をz軸にとっている。   FIG. 6 is a diagram illustrating an example of three-dimensional coordinate data in the first embodiment. As described above, in the traveling direction, the left-right direction is the x-axis, the up-down direction is the y-axis, and the front-back direction is the z-axis.

なお、3次元座標演算部31は、前記の座標系以外にも、例えばx軸、y軸、およびz軸のうち、少なくとも一つの軸を中心に回転させた座標系や、原点を変更した座標系など、様々な座標系において、距離画像を3次元座標データに変換可能である。   In addition to the coordinate system described above, the three-dimensional coordinate calculation unit 31 may be a coordinate system rotated around at least one of the x-axis, y-axis, and z-axis, or a coordinate whose origin has been changed. A distance image can be converted into three-dimensional coordinate data in various coordinate systems such as a system.

・投影画像生成部32
投影画像生成部32は、3次元座標データを、2次元面(平面)に投影した投影画像を生成する。例えば、xy平面に投影された投影画像は、全ての画素について、そのx座標とy座標とを抽出したものになる。同様に、yz平面に投影された投影画像は、全ての画素について、そのy座標とz座標とを抽出したものとなり、zx平面に投影された投影画像は、全ての画像について、そのz座標とx座標とを抽出したものとなる。
Projected image generation unit 32
The projection image generation unit 32 generates a projection image obtained by projecting the three-dimensional coordinate data onto a two-dimensional surface (plane). For example, the projection image projected on the xy plane is obtained by extracting the x and y coordinates of all the pixels. Similarly, the projection image projected on the yz plane is obtained by extracting the y-coordinate and the z-coordinate for all pixels, and the projection image projected on the zx plane is the z-coordinate for all images. The x coordinate is extracted.

ここで、投影画像は白(=「1」)/黒(=「0」)の2値の画像であり、その縦横のサイズは、投影時の縮尺に応じて自由に決めることができる。例えば、yz平面への投影画像の条件として、y軸の投影範囲を−1200mm〜+1200mm(オフセット1200mm)、z軸の投影範囲を0mm〜+3200mm(オフセット0mm)、投影時の縮尺を1/10[pixel/mm]とする。この場合、投影画像のサイズは以下のようになる。   Here, the projected image is a binary image of white (= “1”) / black (= “0”), and the vertical and horizontal sizes can be freely determined according to the scale at the time of projection. For example, as a condition of a projected image on the yz plane, the projection range of the y axis is −1200 mm to +1200 mm (offset 1200 mm), the projection range of the z axis is 0 mm to +3200 mm (offset 0 mm), and the scale at the time of projection is 1/10 [ pixel / mm]. In this case, the size of the projected image is as follows.

縦(y軸): (1200−(−1200))/10=240
横(z軸): (3200−0)/10=320
即ち、横320pixel×縦240pixelとなる。
Vertical (y-axis): (1200 − (− 1200)) / 10 = 240
Horizontal (z-axis): (3200-0) / 10 = 320
That is, the horizontal 320 pixels × vertical 240 pixels.

この投影画像サイズは、原画像(距離画像)の画像サイズとは独立に、上記等の縮尺を変えることで自由に変更することができる。投影画像サイズを大きくすると、投影時の分解能が細かくなることで計算の精度が上がるが、その分演算時間が長くなる。このトレードオフによって実際に使用する画像サイズが決定される。   This projected image size can be freely changed by changing the scale as described above, independently of the image size of the original image (distance image). When the projection image size is increased, the resolution at the time of projection becomes finer, so that the accuracy of calculation increases, but the calculation time becomes longer accordingly. This trade-off determines the image size that is actually used.

実際の投影画像の作成は以下のようにして行う。一例として、3次元座標データの一つ、点A(x,y,z)=(500mm,−300mm,2000mm)というデータを、yz平面に投影する場合について、説明する。   The actual projection image is created as follows. As an example, a case where data of one of the three-dimensional coordinate data, that is, point A (x, y, z) = (500 mm, −300 mm, 2000 mm) is projected on the yz plane will be described.

最初に、yz平面に投影された投影画像に含まれる全ての点の画素値を「0」で初期化しておく。   First, the pixel values of all points included in the projection image projected on the yz plane are initialized with “0”.

次に、点Aのy座標、z座標を抽出すると、(y,z)=(−300mm,2000mm)となる。これを上記のyz平面に投影するために、上記の縮尺と投影範囲を考慮して座標を換算すると、
縦(y軸):(−300+1200)/10=90
横(z軸):(2000+0)/10=200
となるので、投影画像上の(y,z)=(90、200)の点に対応することが分かる。従って、yz平面投影画像の(y,z)=(90,200)の点の画素値を「0」から「1」に変更する。
Next, when the y coordinate and the z coordinate of the point A are extracted, (y, z) = (− 300 mm, 2000 mm). In order to project this onto the yz plane, the coordinates are converted in consideration of the scale and the projection range.
Vertical (y-axis): (−300 + 1200) / 10 = 90
Horizontal (z axis): (2000 + 0) / 10 = 200
Therefore, it can be seen that it corresponds to a point of (y, z) = (90, 200) on the projection image. Accordingly, the pixel value of the point (y, z) = (90, 200) in the yz plane projection image is changed from “0” to “1”.

次に、別のデータとして、点B(x,y,z)=(−400mm,900mm,1500mm)が存在したとする。このデータを同様にyz平面に投影すると、(y,z)=(210、150)の点に相当するので、この点の画素値を同様に「0」から「1」に変更する。   Next, it is assumed that point B (x, y, z) = (− 400 mm, 900 mm, 1500 mm) exists as another data. Similarly, when this data is projected onto the yz plane, it corresponds to a point of (y, z) = (210, 150). Therefore, the pixel value at this point is similarly changed from “0” to “1”.

さらに、別のデータとして、点C(x,y,z)=(−200mm,−303mm,1998mm)が存在したとする。このデータを同様にyz平面に投影すると、(y,z)=(90、200)の点に相当する。これは点Aの投影後の座標と同じであり、既にこの点の画素値は「1」になっているため、ここでは何も行わない。これは、3次元座標上の異なる2点AとCとが、yz平面への投影後は同一の点に投影されることを意味する。   Furthermore, it is assumed that the point C (x, y, z) = (− 200 mm, −303 mm, 1998 mm) exists as another data. When this data is similarly projected onto the yz plane, it corresponds to a point of (y, z) = (90, 200). This is the same as the projected coordinate of point A, and the pixel value of this point is already “1”, so nothing is done here. This means that two different points A and C on the three-dimensional coordinates are projected onto the same point after projection onto the yz plane.

以下同様にして、3次元座標データに含まれる点の全てについて、y座標値・z座標値の抽出、yz平面の座標値への換算を行い、該当する座標の画素値の「1」への変更を行う。これにより、3次元座標データに含まれる点が存在する部分のみ「1」となった2値画像の形でyz平面投影画像が得られることになる。   In the same manner, y-coordinate values and z-coordinate values are extracted and converted into coordinate values on the yz plane for all points included in the three-dimensional coordinate data, and the pixel values of the corresponding coordinates are converted to “1”. Make a change. As a result, a yz plane projection image is obtained in the form of a binary image in which only the portion where the point included in the three-dimensional coordinate data exists is “1”.

・直線検出部33
直線検出部33は、投影画像生成部32が生成した投影画像から、直線を検出する。例えば、図7に示す投影画像において、床面を示す直線を検出する場合について説明する。
Linear detection unit 33
The straight line detection unit 33 detects a straight line from the projection image generated by the projection image generation unit 32. For example, a case where a straight line indicating a floor surface is detected in the projection image shown in FIG. 7 will be described.

図7は、図6の3次元座標データをyz平面に投影した投影画像である。図7に示すように、yz平面への投影画像は、全ての画素について、y座標とz座標とを抽出している。また、床面よりも下に物体が存在しない場合、同一のz座標を有する点同士を比較すると、床面を表す点が最も低い、即ちy座標が最も小さい点(以下、ボトム点と称する)であることが分かる。さらに、床面を表す平面が、投影画像では直線になっていることが分かる。   FIG. 7 is a projection image obtained by projecting the three-dimensional coordinate data of FIG. 6 onto the yz plane. As shown in FIG. 7, the y-coordinate and the z-coordinate are extracted from all the pixels in the projection image onto the yz plane. Further, when no object exists below the floor surface, when the points having the same z coordinate are compared, the point representing the floor surface is the lowest, that is, the y coordinate is the smallest (hereinafter referred to as the bottom point). It turns out that it is. Furthermore, it can be seen that the plane representing the floor is a straight line in the projected image.

前述したように、距離画像センサ20は、z軸を中心として回転する向きに傾いて取り付けられていないため、床面と距離画像センサ20との傾き角は、x軸を中心として回転する方向の傾きθに比べて十分小さい。その結果、床面を表す3次元座標データをyz平面へ投影すると、ほぼ一つの直線上に分布する。   As described above, since the distance image sensor 20 is not attached to be inclined in the direction of rotation about the z axis, the inclination angle between the floor surface and the distance image sensor 20 is in the direction of rotation about the x axis. It is sufficiently smaller than the inclination θ. As a result, when the three-dimensional coordinate data representing the floor surface is projected onto the yz plane, it is distributed on almost one straight line.

ボトム点が床面を示すので、直線検出部33は、投影画像に含まれる各画素列を、下から上方向にスキャンして、スキャン方向に沿って最初に見つかった点、即ち最初に「1」となった点のみを残し、他の点を削除する演算を行い、ボトム画像を得る。   Since the bottom point indicates the floor surface, the straight line detection unit 33 scans each pixel row included in the projection image from the bottom to the top and finds the first point along the scan direction, that is, “1” Only the point that becomes “” is left and the other point is deleted to obtain a bottom image.

次に、直線検出部33は、得たボトム画像に対し、直線を検出するフィッティング処理を施し、直線の傾き、および切片等のパラメータを得る。直線検出の結果によっては直線の候補が一本ではなく複数本得られる場合があるが、その場合は予め定められた基準で最も確からしい直線を選出する。   Next, the straight line detection unit 33 performs a fitting process for detecting a straight line on the obtained bottom image, and obtains parameters such as a slope of the straight line and an intercept. Depending on the result of straight line detection, a plurality of straight line candidates may be obtained instead of one. In this case, the most likely straight line is selected based on a predetermined criterion.

直線検出手法(フィッティング処理)には、Hough変換、その改良手法である確率的Hough変換、単純な最小自乗法、およびRANSAC法など任意の処理を適用できる。なお、前記「定められた基準」としては、例えば、最小自乗法やRANSAC法であれば、直線フィッティングを行った際の誤差(残差)が最も小さい直線を、最も確からしい直線として選択することができる。また、Hough変換であれば、その直線を支持する点の数が最も多いものを、最も確からしい直線として選択することができる。これらの処理により、直線の候補が複数存在する場合に、それぞれの手法で最も確からしい直線を抽出することができる。   Arbitrary processing such as Hough transform, stochastic Hough transform, which is an improved method thereof, simple least square method, and RANSAC method can be applied to the straight line detection method (fitting process). For example, in the case of the least square method or the RANSAC method, the straight line having the smallest error (residual) when performing straight line fitting is selected as the most probable straight line. Can do. In the case of the Hough transform, a line having the largest number of points that support the straight line can be selected as the most likely straight line. By these processes, when there are a plurality of straight line candidates, the most likely straight line can be extracted by each method.

以上により、yz平面投影画像上で床面を表す直線の情報を得ることができる。   As described above, it is possible to obtain straight line information representing the floor surface on the yz plane projection image.

・平面検出部34
平面検出部34は、直線検出部33が検出した直線から、3次元座標データ内の平面を検出し、平面の高さ、および角度を算出する。検出された平面は、高さ、および角度という幾何的な情報以外に、例えば平面の方程式:ax+by+cz+d=0といった他の形式によって表現したパラメータを求めても構わない。
-Planar detector 34
The plane detection unit 34 detects a plane in the three-dimensional coordinate data from the straight line detected by the line detection unit 33, and calculates the height and angle of the plane. For the detected plane, in addition to the geometric information such as the height and the angle, parameters expressed by other forms such as a plane equation: ax + by + cz + d = 0 may be obtained.

図6、および図7において平面として検出される床面は、距離画像センサ20の取り付けられた高さ、および角度から、平面検出部34によって検出される平面の高さ、および角度が推測可能である。したがって、検出される高さ、および角度の許容範囲を予め設定し、平面検出部34が検出した平面が許容範囲内にあるかを判定することによって、より確実に床面を検出可能となる。   6 and 7, the height and angle of the plane detected by the plane detector 34 can be estimated from the height and angle at which the distance image sensor 20 is attached. is there. Therefore, it is possible to detect the floor surface more reliably by setting the allowable range of the detected height and angle in advance and determining whether the plane detected by the plane detection unit 34 is within the allowable range.

また、平面検出部34は、検出した床面を、床平面情報として保有する。床平面情報は、平面検出部34が床面を検出すると、随時更新される。こうすることにより、清掃ロボット1の移動に伴って発生する床平面の変動に追随し、常に床平面を把握することが出来る。また、距離画像センサの前を人が横切るなどして床面が一時的に検出できなくなっても、以前に検出した床平面情報を使用することで、床平面検出処理の欠落を防止することができる。   The plane detection unit 34 holds the detected floor surface as floor plane information. The floor plane information is updated as needed when the plane detection unit 34 detects the floor surface. By doing so, it is possible to follow the fluctuation of the floor plane that occurs with the movement of the cleaning robot 1 and always grasp the floor plane. In addition, even if the floor surface cannot be detected temporarily due to a person crossing the distance image sensor, it is possible to prevent missing floor plane detection processing by using previously detected floor plane information. it can.

・障害物・段差検出部35
障害物・段差検出部35は、xyz座標系の3次元座標データをXYZ座標系の3次元座標データに変換する。そして、XYZ座標系において、各点と平面との距離を計算し、検出した平面より高いか低いかを判定する。
・ Obstacle / step detector 35
The obstacle / step detection unit 35 converts the three-dimensional coordinate data in the xyz coordinate system into the three-dimensional coordinate data in the XYZ coordinate system. Then, in the XYZ coordinate system, the distance between each point and the plane is calculated to determine whether it is higher or lower than the detected plane.

・データ統合部36
データ統合部36は、複数の距離画像から検出された複数の障害物、および複数の段差を、一つの障害物・段差データとして統合する。本実施形態においては、距離画像センサ20a、および距離画像センサ20bのそれぞれから取得した距離画像から障害物、および段差が検出されるので、それらの障害物、および段差の情報を一つに統合し、障害物・段差データを作成する。その際、例えば、遠距離用の距離画像センサ20bで検出された障害物Aの前に、近距離用の距離画像センサ20aで検出された別の障害物Bがある場合、距離の近い障害物Bのデータが優先するようにしてデータを統合することもできる。
Data integration unit 36
The data integration unit 36 integrates a plurality of obstacles and a plurality of steps detected from a plurality of distance images as one obstacle / step data. In the present embodiment, since obstacles and steps are detected from the distance images acquired from the distance image sensor 20a and the distance image sensor 20b, information on the obstacles and steps is integrated into one. Create obstacle / step data. At this time, for example, when there is another obstacle B detected by the distance image sensor 20a for short distance before the obstacle A detected by the distance image sensor 20b for long distance, The data can be integrated so that the data of B has priority.

障害物・段差データの形式は、後で走行制御部41が処理しやすいように、任意の形式に変換することができる。データの座標系は、清掃ロボット基準のXYZ座標系のまま出力することもでき、また極座標系(R−θ座標系)に変換することもできる。検出した全ての障害物、および段差をデータ化する手法以外に、データの間引き、または補間を行ったり、清掃ロボット1本体に最も近い障害物、および段差データのみを抽出したりする手法も考えられる。   The format of the obstacle / step data can be converted into an arbitrary format so that the traveling control unit 41 can easily process later. The coordinate system of the data can be output as the cleaning robot reference XYZ coordinate system, or can be converted into a polar coordinate system (R-θ coordinate system). In addition to the method of converting all detected obstacles and steps into data, a method of thinning out or interpolating data or extracting only the obstacles and step data closest to the main body of the cleaning robot 1 can be considered. .

(演算装置30の処理)
以下に、演算装置30の処理フローを纏める。図8は、本発明の実施形態1に係る清掃ロボット1の演算装置30が処理する手順を示すフローチャートである。
(Processing of the arithmetic unit 30)
The processing flow of the arithmetic device 30 is summarized below. FIG. 8 is a flowchart illustrating a procedure performed by the arithmetic device 30 of the cleaning robot 1 according to the first embodiment of the present invention.

まず、3次元座標演算部31が、距離画像センサ20が生成した距離画像を取得する(ステップS101)。本実施形態1においては、近距離用の距離画像センサ20aと、遠距離用の距離画像センサ20bとの2つの距離画像センサ20が取り付けられているので、近距離用の距離画像と、遠距離用の距離画像とを、それぞれの距離画像センサ20から取得する。   First, the three-dimensional coordinate calculation unit 31 acquires a distance image generated by the distance image sensor 20 (step S101). In the first embodiment, since the two distance image sensors 20 of the distance image sensor 20a for short distance and the distance image sensor 20b for long distance are attached, the distance image for short distance and the long distance The distance image for use is acquired from each distance image sensor 20.

次に、3次元座標演算部31が、取得した距離画像を、xyz座標系の3次元座標データに変換する(ステップS102)。変換された3次元座標データから、投影画像生成部32はyz平面に投影された投影画像を生成する(ステップS103)。前述したように、本実施形態1においては、距離画像センサ20は、z軸を中心として回転する向きに傾いて取り付けられていないため、床面と距離画像センサ20とのz軸を中心として回転する方向の傾きは、x軸を中心として回転する方向の傾きに比べて十分に小さい。したがって、3次元座標データにおいて床面を表す平面は、yz平面への投影画像においては一直線上の点群となる。ここで、実際の投影画像を、図9に示す。   Next, the three-dimensional coordinate calculation unit 31 converts the acquired distance image into three-dimensional coordinate data in the xyz coordinate system (step S102). From the converted three-dimensional coordinate data, the projection image generation unit 32 generates a projection image projected on the yz plane (step S103). As described above, in the first embodiment, the distance image sensor 20 is not attached with an inclination in the direction of rotation about the z axis, and thus rotates about the z axis between the floor surface and the distance image sensor 20. The inclination in the direction to be rotated is sufficiently smaller than the inclination in the direction of rotation about the x axis. Accordingly, the plane representing the floor surface in the three-dimensional coordinate data becomes a point group on a straight line in the projection image onto the yz plane. Here, an actual projection image is shown in FIG.

図9中の(a)は、本発明の実施形態1に係る遠距離用の距離画像センサ20bにより撮影された距離画像から生成されたyz平面への投影画像であり、図9中の(b)は、本発明の実施形態1に係る図9中の(a)のボトム画像であり、図9中の(c)は、本発明の実施形態1に係る近距離用の距離画像センサ20aにより撮影された距離画像から生成されたyz平面への投影画像であり、図9中の(d)は、本発明の実施形態1に係る図9中の(c)のボトム画像である。図9中の(a)および(c)において、床面を表す点群61、および点群62は、前述したように、直線になっていることが分かる。   (A) in FIG. 9 is a projection image onto the yz plane generated from the distance image photographed by the distance image sensor 20b for long distance according to the first embodiment of the present invention, and (b) in FIG. ) Is a bottom image of (a) in FIG. 9 according to Embodiment 1 of the present invention, and (c) in FIG. 9 is obtained by the distance image sensor 20a for short distance according to Embodiment 1 of the present invention. FIG. 9D is a projected image on the yz plane generated from the captured distance image, and is a bottom image of FIG. 9C according to Embodiment 1 of the present invention. In (a) and (c) in FIG. 9, it can be seen that the point group 61 and the point group 62 representing the floor surface are straight lines as described above.

続いて、直線検出部33が、投影画像からボトム画像を生成する(ステップS104)。図9(b)、および(d)に示すように、ボトム画像の直線は、床面を表す点群61、および床面を表す点群62と一致している。このボトム画像から、直線検出部33が、直線を検出する(ステップS105)。そして、平面検出部34が、検出された直線から、3次元座標データ内の平面を検出し、当該平面の角度および高さを算出する(ステップS106)。ここで平面の角度とは、z軸に対する角度(傾斜角)である。また、平面の高さとは、床面と距離画像センサ20との間の離間距離である。   Subsequently, the straight line detection unit 33 generates a bottom image from the projection image (step S104). As shown in FIGS. 9B and 9D, the straight line of the bottom image matches the point group 61 representing the floor surface and the point group 62 representing the floor surface. From the bottom image, the straight line detection unit 33 detects a straight line (step S105). Then, the plane detection unit 34 detects a plane in the three-dimensional coordinate data from the detected straight line, and calculates the angle and height of the plane (step S106). Here, the plane angle is an angle (tilt angle) with respect to the z-axis. The plane height is a separation distance between the floor surface and the distance image sensor 20.

算出された平面の角度、および高さは、平面検出部34により、予め設定された角度、および高さの許容範囲内にあるか判定される(ステップS107)。   The calculated plane angle and height are determined by the plane detection unit 34 to be within a preset allowable angle and height range (step S107).

ステップS107において、「角度、および高さが許容範囲内である」と判定された場合(ステップS107:Yes)、検出された平面は床面なので、平面検出部34は床平面情報を更新する(ステップS108)。一方、ステップS107において、「角度、および高さが許容範囲内ではない」と判定された場合(ステップS107:No)、検出された平面は床面ではないので、床平面情報は更新しない(ステップS109)。   If it is determined in step S107 that “the angle and the height are within the allowable range” (step S107: Yes), since the detected plane is the floor surface, the plane detector 34 updates the floor plane information ( Step S108). On the other hand, if it is determined in step S107 that “the angle and the height are not within the allowable range” (step S107: No), the detected plane is not a floor surface, and thus the floor plane information is not updated (step S107). S109).

ステップS108もしくはステップS109の後、障害物・段差検出部35が、xyz座標系からXYZ座標系へと、3次元座標データを変換する(ステップS110)。次に、障害物・段差検出部35が、変換したXYZ座標系の3次元座標データから、各点と平面との距離を計算し、検出した平面より高いか低いかを判定し、障害物および段差を検出する(ステップS111)。当該判定には、閾値tを設け、床平面との距離がtよりも大きければ床よりも高い障害物、もしくは段差、−tよりも小さければ床平面より低い段差と判定する。閾値tは、床平面の凹凸の大きさや、距離画像センサの計測誤差等を考慮して予め設定する。これにより、3次元座標データに含まれる全ての点について、その点が段差に属するか、障害物に属するか、あるいはそれ以外であるかが判定される。そして、各点の座標(X,Y,Z)に、その点が段差に属するか、障害物に属するか、それ以外であるかを表す情報Fが付加され、(X,Y,Z,F)形式に変換される。このようにして得られた段差および障害物に関する情報が、障害物・段差検出部35からデータ統合部36に渡される。   After step S108 or step S109, the obstacle / step detection unit 35 converts the three-dimensional coordinate data from the xyz coordinate system to the XYZ coordinate system (step S110). Next, the obstacle / step detection unit 35 calculates the distance between each point and the plane from the converted three-dimensional coordinate data of the XYZ coordinate system, determines whether the obstacle is higher or lower than the detected plane, A step is detected (step S111). In this determination, a threshold value t is provided, and if the distance from the floor plane is larger than t, the obstacle is higher than the floor or a step, and if it is smaller than -t, the step is lower than the floor plane. The threshold value t is set in advance in consideration of the size of the unevenness of the floor plane, the measurement error of the distance image sensor, and the like. Thereby, it is determined for all points included in the three-dimensional coordinate data whether the point belongs to a step, an obstacle, or the other. Then, information F indicating whether the point belongs to a step, an obstacle, or the other is added to the coordinates (X, Y, Z) of each point, and (X, Y, Z, F). ) Converted to format. Information on the steps and obstacles obtained in this way is passed from the obstacle / step detection unit 35 to the data integration unit 36.

そして、データ統合部36が、障害物・段差検出部35が検出した障害物および段差の情報を統合し、障害物・段差データを作成する(ステップS112)。最後に、データ統合部36は、障害物・段差データを走行制御部41に出力する(ステップS113)。   Then, the data integration unit 36 integrates the obstacle and step information detected by the obstacle / step detection unit 35 and creates obstacle / step data (step S112). Finally, the data integration unit 36 outputs the obstacle / step data to the travel control unit 41 (step S113).

このような手順により、演算装置30は、距離画像から障害物・段差データを高速かつより確実に作成し、走行制御部41に出力する。従って、清掃ロボット1は、障害物、および段差を回避しながら移動することが可能となる。また、複数の距離センサから独立に平面検出を行い、それらのデータを統合することで、さらに広い範囲の障害物、および段差を検出し、それらを回避しながら移動することができる。   By such a procedure, the arithmetic unit 30 creates obstacle / step data from the distance image at high speed and more reliably and outputs it to the traveling control unit 41. Therefore, the cleaning robot 1 can move while avoiding obstacles and steps. Further, by performing plane detection independently from a plurality of distance sensors and integrating the data, it is possible to detect a wider range of obstacles and steps and move while avoiding them.

また、一般的に3次元空間上において、一つの平面を特定するには、3つのパラメータを特定する必要がある。しかし、本実施形態においては、距離画像センサ20が床面に対して、z軸を中心として回転する向きに傾いて取り付けられていないという条件を利用し、高さ方向(y軸方向)と奥行き方向(z軸方向)の傾きのみを求めている。即ち、特定するパラメータの数を2つに限定しているため、3つのパラメータを特定する場合に比べて高速な平面検出が可能となり、自律移動装置においても容易にリアルタイムの床面検出が実現できる。   In general, in order to specify one plane in a three-dimensional space, it is necessary to specify three parameters. However, in the present embodiment, the height direction (y-axis direction) and the depth are utilized by using the condition that the distance image sensor 20 is not attached to the floor surface in a direction that rotates about the z-axis. Only the inclination in the direction (z-axis direction) is obtained. In other words, since the number of parameters to be specified is limited to two, it becomes possible to detect a plane at a higher speed than when three parameters are specified, and real-time floor surface detection can be easily realized even in an autonomous mobile device. .

(段差の検出)
前述した実施形態1においては、床面よりも下に物体が存在しない場合が望ましいが、例えば、床面よりも低い面の段差が存在する場合がある。このような場合における床面の検出方法について、以下に説明する。
(Step detection)
In the first embodiment described above, it is desirable that no object exists below the floor surface, but for example, there may be a level difference on the surface lower than the floor surface. A method for detecting the floor surface in such a case will be described below.

図10中の(a)は、床面より低い段差が存在する場合のyz平面への投影画像であり、図10中の(b)は、図10中の(a)のボトム画像である。図10中の(a)に示すように、yz平面への投影画像において、床面を表す点群61と、段差を表す点群62とが直線になっている。このような場合は、図10中の(b)に示すように、距離画像センサ20の取り付けられた高さ、角度から、予め床面が存在すると予想される範囲を限定し、それを直線検出の際の許容範囲64として設定する。許容範囲64を設定することにより、直線検出部33は、段差を表す点群63ではなく、床面を表す点群61を直線として検出可能となる。   (A) in FIG. 10 is a projection image onto the yz plane when there is a step difference lower than the floor surface, and (b) in FIG. 10 is a bottom image in (a) in FIG. As shown to (a) in FIG. 10, in the projection image to yz plane, the point group 61 showing a floor surface and the point group 62 showing a level | step difference are a straight line. In such a case, as shown in FIG. 10 (b), the range in which the floor surface is expected to be present is limited in advance from the height and angle at which the distance image sensor 20 is attached, and the straight line is detected. In this case, the allowable range 64 is set. By setting the allowable range 64, the straight line detection unit 33 can detect the point group 61 representing the floor as a straight line instead of the point group 63 representing the step.

例えば、遠距離用の距離画像センサ20bが、高さH=710[mm]、角度θ=22.5[deg]に取り付けられているとする。このとき、理論上の床面は、距離画像センサ基準の座標系で、原点から710[mm]の距離に、zx平面とのなす角(奥行き方向の傾き角)22.5[deg]で存在することになる。しかし、取り付け位置は組み立て誤差等により多少変動するため、ステップS106において、算出された床面の高さ、および角度が、前記の値から±数mm、±数degの範囲内にあるかどうかを確認する。確認の結果、範囲内にあれば床面であるとしてこの直線を検出し、範囲内になければ、ステップS105において検出された複数の直線から別の直線を選択し、同様に範囲内にあるかどうかを確認する。   For example, it is assumed that the distance image sensor 20b for a long distance is attached at a height H = 710 [mm] and an angle θ = 22.5 [deg]. At this time, the theoretical floor surface is present in the distance image sensor reference coordinate system at a distance of 710 [mm] from the origin at an angle (tilt angle in the depth direction) 22.5 [deg] with the zx plane. Will do. However, since the mounting position varies somewhat due to assembly errors or the like, in step S106, it is determined whether the calculated floor height and angle are within a range of ± several mm and ± several deg from the above values. Check. As a result of the confirmation, if it is within the range, this straight line is detected as being the floor surface, and if it is not within the range, another straight line is selected from the plurality of straight lines detected in step S105, and whether it is within the range as well. Check if.

このように、検出された平面の高さ、および角度を限定して床面を検出すれば、距離画像内に床面より低い段差が含まれていても、それを除外し、床面を検出することができる。   In this way, if the floor surface is detected by limiting the height and angle of the detected plane, even if the distance image includes a level difference lower than the floor surface, it is excluded and the floor surface is detected. can do.

〔実施形態2〕
本発明の第2の実施形態について、図11〜図12を用いて説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
A second embodiment of the present invention will be described with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

実施形態1においては、床面と距離画像センサ20との傾きのうち、z軸を中心として回転する方向の傾きが、x軸を中心として回転する方向の傾きに比べて十分小さく無視できる場合について説明した。これに対して本実施形態2では、z軸を中心として回転する方向の傾きがx軸を中心として回転する方向の傾きに比べて小さいものの、完全には無視できない場合における平面検出について、以下に説明する。   In the first embodiment, among the inclinations of the floor surface and the distance image sensor 20, the inclination in the direction rotating around the z axis is sufficiently smaller than the inclination in the direction rotating around the x axis and can be ignored. explained. On the other hand, in the second embodiment, plane detection in the case where the inclination in the direction of rotation about the z-axis is smaller than the inclination in the direction of rotation about the x-axis but cannot be completely ignored will be described below. explain.

(演算装置30の処理)
図11は、本実施形態2に係る清掃ロボットに具備される演算装置30が処理する手順を示すフローチャートである。なお、図8のフローチャートと同じステップについては、説明を省略する。また、図12中の(a)は、本実施形態2に係る3次元座標データの例を示す図であり、図12中の(b)は、図12中の(a)の3次元座標データをyz平面に投影した投影画像であり、図12中の(c)は、図12中の(a)の3次元座標データをxy平面に投影した投影画像であり、図12中の(d)は、図12中の(a)の3次元座標データをxy´平面に投影した投影画像である。
(Processing of the arithmetic unit 30)
FIG. 11 is a flowchart illustrating a procedure performed by the arithmetic device 30 included in the cleaning robot according to the second embodiment. The description of the same steps as those in the flowchart of FIG. 8 is omitted. 12A is a diagram illustrating an example of the three-dimensional coordinate data according to the second embodiment, and FIG. 12B is a diagram illustrating the three-dimensional coordinate data of FIG. Is a projection image obtained by projecting the three-dimensional coordinate data of (a) in FIG. 12 onto the xy plane, and (d) in FIG. Is a projection image obtained by projecting the three-dimensional coordinate data (a) in FIG. 12 onto the xy ′ plane.

図11において、ステップS106の処理である、検出した平面のx軸を中心として回転する向きの角度θ、および高さを算出する。しかし、図12中の(b)に示すように、yz平面への投影画像で得られる点群は完全に一直線上には並ばず、幅を有して帯状に分布している。   In FIG. 11, the angle θ and the height of the rotation direction about the x-axis of the detected plane, which is the process of step S <b> 106, are calculated. However, as shown in (b) of FIG. 12, the point cloud obtained by the projection image on the yz plane is not completely aligned on a straight line but is distributed in a band shape with a width.

そこで、xyz座標系を、x軸を中心として回転する方向の傾きθに相当する角度だけ回転させたxy´z´座標を、新たに定義する。例えば、床面がxyz座標系で原点から710[mm]の距離に、zx平面とのなす角(奥行き方向の傾き角)22.5[deg]で存在する場合、y´軸およびz´軸は、y軸およびz軸をそれぞれx軸を中心に22.5[deg]回転させて得られる。このように、3次元座標演算部31は、xyz座標系における3次元座標データを、新たに定義したxy´z´座標系に変換する(ステップS121)。   Therefore, xy′z ′ coordinates obtained by rotating the xyz coordinate system by an angle corresponding to the inclination θ in the direction of rotation about the x axis are newly defined. For example, when the floor surface is present at an angle (inclination angle in the depth direction) 22.5 [deg] with the zx plane at a distance of 710 [mm] from the origin in the xyz coordinate system, the y ′ axis and the z ′ axis Is obtained by rotating the y-axis and the z-axis by 22.5 [deg] around the x-axis, respectively. In this way, the three-dimensional coordinate calculation unit 31 converts the three-dimensional coordinate data in the xyz coordinate system into the newly defined xy′z ′ coordinate system (step S121).

次に、投影画像生成部32は、変換された3次元座標データをxy´平面に投影し、投影画像を生成する(ステップS122)。その後、直線検出部33は、投影画像のボトム画像を生成し(ステップS123)、ボトム画像から直線を検出する(ステップS124)。直線検出部33が検出した直線から、平面検出部34は左右方向の角度を得ることができ(ステップS125)、ステップS106で得たx軸を中心として回転する方向の傾きθと合わせて、角度、および高さが設定範囲内であるか判定する(ステップS107)。以下、実施形態1と同様である。   Next, the projection image generation unit 32 projects the converted three-dimensional coordinate data onto the xy ′ plane to generate a projection image (step S122). Thereafter, the straight line detection unit 33 generates a bottom image of the projection image (step S123), and detects a straight line from the bottom image (step S124). From the straight line detected by the straight line detection unit 33, the plane detection unit 34 can obtain the angle in the left-right direction (step S125), and the angle is combined with the inclination θ in the direction of rotation about the x axis obtained in step S106. And whether the height is within the set range (step S107). Hereinafter, it is the same as that of Embodiment 1.

このような手順により、演算装置30は、z軸を中心に回転する方向への傾きが無視できない場合においても、第1段階としてxyz座標系においてx軸を中心として回転する方向の傾きθを算出する。次に座標系をxy´z´に変換し、xy´平面への投影画像から、第2段階として左右方向の角度を算出する。このような2段階の処理により、より確実に床面を検出することができる。   By such a procedure, the arithmetic unit 30 calculates the inclination θ in the direction of rotation about the x axis in the xyz coordinate system as the first step even when the inclination in the direction of rotation about the z axis cannot be ignored. To do. Next, the coordinate system is converted to xy′z ′, and the angle in the left-right direction is calculated from the projection image on the xy ′ plane as a second step. By such a two-stage process, the floor surface can be detected more reliably.

なお、ステップS121のような座標変換を行わず、投影画像生成部32が元のxyz座標系のままxy平面への投影画像を生成すると、図12中の(c)のような投影画像を得る。図12中の(c)に示すように、この画像では床面を表す点群が一直線上に並んでいない。したがって、例えば、図12中の(c)のA−A´のラインに別の物体が存在し、床面が見えない状態にある場合、ボトム点の集合から直線を抽出したときに、A−A´ラインが床面を表す直線だと誤検出してしまうことになる。一方、最初にx軸を中心として回転する方向の傾きθだけx軸を中心に回転させたxy´z´座標系においては、z´軸が床面とほぼ平行になっているため、xy´平面への投影画像は図12中の(d)に示すように、床面を表す点群がボトム点となり、抽出できる。   If the projection image generation unit 32 generates the projection image on the xy plane while maintaining the original xyz coordinate system without performing the coordinate transformation as in step S121, a projection image as shown in (c) in FIG. 12 is obtained. . As shown in (c) of FIG. 12, in this image, the point group representing the floor surface is not aligned on a straight line. Therefore, for example, when another object exists in the line AA ′ in FIG. 12C and the floor surface is not visible, when a straight line is extracted from the set of bottom points, A− If the A ′ line is a straight line representing the floor, it will be erroneously detected. On the other hand, in the xy′z ′ coordinate system that is first rotated about the x axis by the inclination θ in the direction of rotation about the x axis, the z ′ axis is substantially parallel to the floor surface. As shown in (d) of FIG. 12, the projected image onto the plane can be extracted with the point group representing the floor as the bottom point.

〔まとめ〕
本発明の一態様に係る平面検出装置は、特定の検出対象平面を含む被写体の距離画像データから当該特定の検出対象平面を検出する平面検出装置(平面検出装置60)であって、前記距離画像データを、前記特定の検出対象平面を表す検出対象3次元点群を含む3次元座標データに変換する3次元座標演算手段(3次元座標演算部31)と、前記3次元座標データを所定の2次元平面に投影して、前記検出対象3次元点群が線形に分布した投影画像データを生成する投影画像生成手段(投影画像生成部32)と、前記投影画像データから前記線形の直線を検出する直線検出手段(直線検出部33)と、前記直線検出手段の検出結果に基づいて、前記特定の検出対象平面の傾きに関する情報を含む平面パラメータを算出する平面パラメータ算出手段(平面検出部34)と、を備えることを特徴としている。
[Summary]
A flat surface detection device according to an aspect of the present invention is a flat surface detection device (a flat surface detection device 60) that detects a specific detection target plane from distance image data of a subject including a specific detection target plane, and the distance image Three-dimensional coordinate calculation means (three-dimensional coordinate calculation unit 31) for converting data into three-dimensional coordinate data including a detection target three-dimensional point group representing the specific detection target plane; Projection image generation means (projection image generation unit 32) for generating projection image data in which the three-dimensional point cloud to be detected is linearly distributed by projecting onto a three-dimensional plane, and detecting the linear straight line from the projection image data A plane parameter calculation for calculating a plane parameter including information on the inclination of the specific detection target plane based on a detection result of the line detection unit (line detection unit 33) and the line detection unit. Stage and (planar detector unit 34) is characterized in that it comprises.

前記の構成によれば、平面を含む距離画像データを3次元座標データに変換し、変換した3次元座標データを平面に投影する。そして、投影した画像から直線を検出し、その直線に基づいた平面パラメータを検出する。したがって、距離画像の中に平面検出の手掛かりを必要とせず、また障害物等の平面とは無関係の情報が多数含まれていても、平面をより確実に検出できるという効果を奏する。   According to the above configuration, distance image data including a plane is converted into three-dimensional coordinate data, and the converted three-dimensional coordinate data is projected onto the plane. Then, a straight line is detected from the projected image, and a plane parameter based on the straight line is detected. Therefore, the range image does not require a clue for plane detection, and even if a lot of information unrelated to the plane such as an obstacle is included, the plane can be detected more reliably.

さらに、本発明の一態様に係る平面検出装置(平面検出装置60)は、前記距離画像データにおいて、前記被写体の奥行き方向をz軸として、当該z軸に対して垂直であるx軸およびy軸であって、当該距離画像データの左右方向をx軸、上下方向をy軸としたxyz座標系において、前記投影画像生成手段(投影画像生成部32)は、前記3次元座標データをyz平面に投影した投影画像データを生成し、前記平面パラメータ算出手段(平面検出部34)は、投影画像データから、前記特定の検出対象平面の、前記z軸に対する傾斜角を含む前記平面パラメータを算出することを特徴としている。   Furthermore, the flat surface detection device (flat surface detection device 60) according to one aspect of the present invention uses the depth direction of the subject as the z axis in the distance image data, and the x axis and the y axis perpendicular to the z axis. In the xyz coordinate system in which the horizontal direction of the distance image data is the x axis and the vertical direction is the y axis, the projection image generation means (projection image generation unit 32) sets the three-dimensional coordinate data on the yz plane. Projected projection image data is generated, and the plane parameter calculation means (plane detection unit 34) calculates the plane parameter including an inclination angle of the specific detection target plane with respect to the z axis from the projection image data. It is characterized by.

前記の構成によれば、yz平面に投影した投影画像データから平面を検出できることにより、より高速に平面を検出できるという効果を奏する。   According to the above configuration, since the plane can be detected from the projection image data projected onto the yz plane, there is an effect that the plane can be detected at a higher speed.

さらに、本発明の一態様に係る前記平面パラメータ算出手段は、前記直線が予め定めた範囲内にあるか否かを判別することを特徴としている。   Furthermore, the plane parameter calculation means according to an aspect of the present invention is characterized by determining whether or not the straight line is within a predetermined range.

前記の構成によれば、予め検出する直線の範囲を設定することによって、より確実に対象の平面を検出できるという効果を奏する。   According to the above configuration, there is an effect that the plane of the target can be detected more reliably by setting the range of the straight line to be detected in advance.

さらに、本発明の一態様に係る平面検出装置(平面検出装置60)は、前記xyz座標系を、前記x軸を回転軸として回転させることによってxy´z´座標系に変換して、xy´z´座標系における前記特定の検出対象平面を表す検出対象3次元点群を含む第2の3次元座標データを生成する第2の3次元座標演算手段(3次元座標演算部31)と、前記第2の3次元座標データを、xy´平面に投影して、当該第2の3次元座標データに含まれる前記検出対象3次元点群が線形に分布した第2の投影画像データを生成する第2の投影画像生成手段(投影画像生成部32)と、前記第2の投影画像データから、当該第2の投影画像データに分布する前記線形の第2の直線を検出する第2の直線検出手段と(直線検出部33)、前記第2の直線検出手段の検出結果に基づいて、前記特定の検出対象平面の傾きに関する情報を含む第2の平面パラメータを算出する第2の平面パラメータ算出手段(平面検出部34)と、をさらに備えることを特徴としている。   Furthermore, the flat surface detection apparatus (the flat surface detection apparatus 60) according to an aspect of the present invention converts the xyz coordinate system into an xy′z ′ coordinate system by rotating the x axis about the rotation axis, and xy ′ second 3D coordinate calculation means (3D coordinate calculation unit 31) for generating second 3D coordinate data including a detection target 3D point group representing the specific detection target plane in the z ′ coordinate system; The second three-dimensional coordinate data is projected onto the xy ′ plane to generate second projection image data in which the detection target three-dimensional point group included in the second three-dimensional coordinate data is linearly distributed. Two projection image generation means (projection image generation unit 32) and second straight line detection means for detecting the linear second straight line distributed in the second projection image data from the second projection image data. (Straight line detection unit 33), the second straight line detection 2nd plane parameter calculation means (plane detection part 34) which calculates the 2nd plane parameter containing the information about the inclination of the specific detection object plane based on the detection result of the output means, It is said.

前記の構成によれば、より確実に対象の平面を検出できるという効果を奏する。   According to the above configuration, there is an effect that the target plane can be detected more reliably.

さらに、本発明の一態様に係る自律移動装置(清掃ロボット1)は、平面検出装置(平面検出装置60)と、前記距離画像データを生成する距離画像生成手段(距離画像センサ20)と、走行手段(駆動輪2)と、を備えており、前記平面検出装置を用いて走行路となる平面を検出することを特徴とする自律移動装置。   Furthermore, an autonomous mobile device (cleaning robot 1) according to one aspect of the present invention includes a flat surface detection device (flat surface detection device 60), distance image generation means (distance image sensor 20) that generates the distance image data, and travel. Means (driving wheel 2), and an autonomous mobile device that detects a plane as a traveling path using the plane detection device.

前記の構成によれば、前記自律移動装置は、前記平面検出装置と同様の効果を奏することができる。   According to the said structure, the said autonomous mobile apparatus can have an effect similar to the said plane detection apparatus.

さらに、本発明の一態様に係る自律移動装置(清掃ロボット1)は、前記距離画像生成手段(距離画像センサ20)を複数備え、各距離画像生成手段が生成する距離画像データそれぞれから前記平面パラメータを算出することを特徴としている。   Furthermore, the autonomous mobile device (cleaning robot 1) according to an aspect of the present invention includes a plurality of the distance image generating means (distance image sensor 20), and the plane parameter is calculated from each of the distance image data generated by each distance image generating means. It is characterized by calculating.

前記の構成によれば、より広範囲においてより確実に平面を検出できるという効果を奏する。   According to the above configuration, there is an effect that the plane can be detected more reliably in a wider range.

〔補足説明〕
本発明は前述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
[Supplementary explanation]
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and the embodiments can be obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

(距離画像センサ20について)
前述した実施形態においては、距離画像センサ20は赤外線投射方式を用いたが、ステレオ方式やTOF方式など、他方式の距離画像センサを用いることも可能である。ステレオ方式の場合、ステレオ配置された左右カメラから得られる左右画像に対し、対応点探索などの手法によって視差を計算する。視差の値から三角測量の原理によって対象物までの距離を求めることができる。このようにして得られた距離画像について、前述した実施形態と同様の処理により、平面検出を実現できる。
(About the distance image sensor 20)
In the above-described embodiment, the distance image sensor 20 uses the infrared projection method, but other types of distance image sensors such as a stereo method and a TOF method can also be used. In the case of the stereo system, parallax is calculated by a technique such as corresponding point search for left and right images obtained from stereo left and right cameras. The distance to the object can be obtained from the parallax value by the principle of triangulation. With respect to the distance image obtained in this way, plane detection can be realized by the same processing as in the above-described embodiment.

(検出できる平面)
前述した実施形態においては、床面を検出したが、路面、水面、壁面、および天井面など、他の平面の検出にも用いることができる。
(Detectable plane)
In the embodiment described above, the floor surface is detected, but it can also be used to detect other planes such as a road surface, a water surface, a wall surface, and a ceiling surface.

(自律移動装置)
前述した実施形態においては、自律移動装置として清掃ロボット1について説明したが、例えば工場内の無人搬送機、自動走行車、介護用ロボット、防犯用ロボット、災害救助用ロボット、エンターテインメント用ロボットなど、他の自律移動装置にも適用可能である。
(Autonomous mobile device)
In the embodiment described above, the cleaning robot 1 has been described as an autonomous mobile device. It can also be applied to other autonomous mobile devices.

(平面検出装置)
前述した実施形態においては、平面検出装置60を清掃ロボット1に組み込んで利用したが、平面検出装置60を独立した装置として産業用、民生用、その他用途に用いる他、汎用的な携帯情報端末などの一部に組み込むことも可能である。
(Flat surface detector)
In the above-described embodiment, the flat surface detection device 60 is incorporated in the cleaning robot 1 and used. However, the flat surface detection device 60 is used as an independent device for industrial, consumer, and other purposes, and a general-purpose portable information terminal or the like. It is also possible to incorporate it into a part of

(ソフトウェアによる実現例)
最後に、平面検出装置の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(Example of software implementation)
Finally, each block of the flat panel detector may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip) or in software using a CPU (Central Processing Unit). May be.

後者の場合、平面検出装置は、各機能を実現するプログラムの命令を実行するCPU、前記プログラムを格納したROM(Read Only Memory)、前記プログラムを展開するRAM(Random Access Memory)、前記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、前述した機能を実現するソフトウェアである平面検出装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、前記平面検出装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, the flat panel detector includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types of programs. A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program for a flat panel detector, which is software that realizes the functions described above, is recorded so as to be readable by a computer This can also be achieved by supplying the flat surface detection device and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

前記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include a non-transitory tangible medium such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and a CD-ROM / MO. Discs including optical discs such as / MD / DVD / CD-R, cards such as IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM (registered trademark) / flash ROM Alternatively, logic circuits such as PLD (Programmable Logic Device) and FPGA (Field Programmable Gate Array) can be used.

また、平面検出装置を通信ネットワークと接続可能に構成し、前記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、前記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the flat detection device may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like can be used. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, and ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by radio such as High Data Rate (NFC), Near Field Communication (NFC), Digital Living Network Alliance (DLNA), mobile phone network, satellite line, and digital terrestrial network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、計測対象となる画像データに含まれる床などの平面を検出するための平面検出装置およびそれを用いた自律移動装置に関するものであり、平面検出装置自体を独立した装置として産業用、民生用、その他用途に用いる他、他の装置の一部に組み込んで利用したり、装置の一部または全部を集積回路(ICチップ)化したりして利用することができる。   The present invention relates to a plane detection device for detecting a plane such as a floor included in image data to be measured and an autonomous mobile device using the same, and the plane detection device itself is an independent device for industrial use. In addition to being used for consumer use and other purposes, it can be used by being incorporated into a part of another device, or part or all of the device can be used as an integrated circuit (IC chip).

1 清掃ロボット(自律移動装置)
2 駆動輪(走行手段)
3 従輪
4 バッテリ
5 洗浄液タンク
6 洗浄液吐出部
7 廃液タンク
8 吸引口
9 清掃ブラシ
10 モータ
11 筐体
12 保護部材
20 距離画像センサ(距離画像生成手段)
20a 近距離用の距離画像センサ
20b 遠距離用の距離画像センサ
30 演算装置
31 3次元座標演算部(3次元座標演算手段、第2の3次元座標演算手段)
32 投影画像生成部(投影画像生成手段、第2の投影画像生成手段)
33 直線検出部(直線検出手段、第2の直線検出手段)
34 平面検出部(平面パラメータ算出手段、第2の平面パラメータ算出手段)
35 障害物・段差検出部
36 データ統合部
41 走行制御部
42 清掃制御部
43 マップ情報メモリ部
44 状態表示部
45 廃液回収ユニット
46 洗浄液吐出ユニット
47 ロータリーエンコーダ
48 駆動輪モータ
49 ジャイロセンサ
50 制御スイッチ
60 平面検出装置
1 Cleaning robot (autonomous mobile device)
2 Drive wheels (traveling means)
3 Subordinate wheel 4 Battery 5 Cleaning liquid tank 6 Cleaning liquid discharge part 7 Waste liquid tank 8 Suction port 9 Cleaning brush 10 Motor 11 Housing 12 Protection member 20 Distance image sensor (distance image generation means)
20a Distance image sensor for short distance 20b Distance image sensor for long distance 30 Computing device 31 3D coordinate computing unit (3D coordinate computing means, second 3D coordinate computing means)
32 Projection image generation unit (projection image generation means, second projection image generation means)
33 Straight line detection unit (straight line detection means, second straight line detection means)
34 Plane detector (plane parameter calculation means, second plane parameter calculation means)
35 Obstacle / step detection unit 36 Data integration unit 41 Travel control unit 42 Cleaning control unit 43 Map information memory unit 44 Status display unit 45 Waste liquid recovery unit 46 Cleaning liquid discharge unit 47 Rotary encoder 48 Drive wheel motor 49 Gyro sensor 50 Control switch 60 Planar detector

Claims (4)

特定の検出対象平面を含む被写体の距離画像データから当該特定の検出対象平面を検出する平面検出装置であって、
前記距離画像データを、前記特定の検出対象平面を表す検出対象3次元点群を含む3次元座標データに変換する3次元座標演算手段と、
前記3次元座標データを所定の2次元平面に投影して、前記検出対象3次元点群が線形に分布した投影画像データを生成する投影画像生成手段と、
前記投影画像データから前記線形の直線を検出する直線検出手段と、
前記直線検出手段の検出結果に基づいて、前記特定の検出対象平面の傾きに関する情報を含む平面パラメータを算出する平面パラメータ算出手段と、
を備え、
前記距離画像データにおいて、前記被写体の奥行き方向をz軸として、当該z軸に対して垂直であるx軸およびy軸であって、当該距離画像データの左右方向をx軸、上下方向をy軸としたxyz座標系において、前記投影画像生成手段は、前記3次元座標データをyz平面に投影した投影画像データを生成し、
前記平面パラメータ算出手段は、投影画像データから、前記特定の検出対象平面の、前記z軸に対する傾斜角を含む前記平面パラメータを算出することを特徴とする平面検出装置。
A plane detection device for detecting a specific detection target plane from distance image data of a subject including the specific detection target plane,
Three-dimensional coordinate calculation means for converting the distance image data into three-dimensional coordinate data including a detection target three-dimensional point group representing the specific detection target plane;
Projection image generating means for projecting the three-dimensional coordinate data onto a predetermined two-dimensional plane and generating projection image data in which the detection target three-dimensional point group is linearly distributed;
Straight line detecting means for detecting the linear straight line from the projection image data;
A plane parameter calculating means for calculating a plane parameter including information on the inclination of the specific detection target plane based on the detection result of the straight line detecting means;
With
In the distance image data, the depth direction of the subject is the z-axis, and the x-axis and the y-axis are perpendicular to the z-axis, the left-right direction of the distance image data is the x-axis, and the up-down direction is the y-axis In the xyz coordinate system, the projection image generation unit generates projection image data obtained by projecting the three-dimensional coordinate data onto the yz plane,
The plane parameter calculating means, the projection image data, the specific detection of the target plane, flat surface detector you and calculates the plane parameters including an inclination angle with respect to the z-axis.
前記平面パラメータ算出手段は、前記直線が予め定めた範囲内にあるか否かを判別することを特徴とする請求項1に記載の平面検出装置。 The plane detection apparatus according to claim 1, wherein the plane parameter calculation unit determines whether or not the straight line is within a predetermined range. 前記xyz座標系を、前記x軸を回転軸として回転させることによってxy´z´座標系に変換して、xy´z´座標系における前記特定の検出対象平面を表す検出対象3次元点群を含む第2の3次元座標データを生成する第2の3次元座標演算手段と、
前記第2の3次元座標データを、xy´平面に投影して、当該第2の3次元座標データに含まれる前記検出対象3次元点群が線形に分布した第2の投影画像データを生成する第2の投影画像生成手段と、
前記第2の投影画像データから、当該第2の投影画像データに分布する前記線形の第2の直線を検出する第2の直線検出手段と、
前記第2の直線検出手段の検出結果に基づいて、前記特定の検出対象平面の傾きに関する情報を含む第2の平面パラメータを算出する第2の平面パラメータ算出手段と、
をさらに備えることを特徴とする請求項に記載の平面検出装置。
The xyz coordinate system is converted into an xy′z ′ coordinate system by rotating the x-axis as a rotation axis, and a detection target three-dimensional point group representing the specific detection target plane in the xy′z ′ coordinate system is converted. Second 3D coordinate calculation means for generating second 3D coordinate data including:
The second three-dimensional coordinate data is projected onto the xy ′ plane to generate second projection image data in which the detection target three-dimensional point group included in the second three-dimensional coordinate data is linearly distributed. Second projection image generation means;
Second line detection means for detecting the second linear line distributed in the second projection image data from the second projection image data;
Second plane parameter calculation means for calculating a second plane parameter including information on the inclination of the specific detection target plane based on the detection result of the second straight line detection means;
The flat panel detector according to claim 1 , further comprising:
請求項1からまでの何れか1項に記載の平面検出装置と、
前記距離画像データを生成する距離画像生成手段と、
走行手段と、を備えており、
前記平面検出装置を用いて走行路となる平面を検出することを特徴とする自律移動装置。
The flat surface detection device according to any one of claims 1 to 3 ,
Distance image generation means for generating the distance image data;
Traveling means, and
An autonomous mobile device that detects a plane as a traveling path using the plane detection device.
JP2012235950A 2012-10-25 2012-10-25 Planar detection device and autonomous mobile device including the same Active JP6030405B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012235950A JP6030405B2 (en) 2012-10-25 2012-10-25 Planar detection device and autonomous mobile device including the same
PCT/JP2013/071855 WO2014064990A1 (en) 2012-10-25 2013-08-13 Plane detection device, autonomous locomotion device provided with plane detection device, method for detecting road level difference, device for detecting road level difference, and vehicle provided with device for detecting road level difference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012235950A JP6030405B2 (en) 2012-10-25 2012-10-25 Planar detection device and autonomous mobile device including the same

Publications (2)

Publication Number Publication Date
JP2014085940A JP2014085940A (en) 2014-05-12
JP6030405B2 true JP6030405B2 (en) 2016-11-24

Family

ID=50788924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012235950A Active JP6030405B2 (en) 2012-10-25 2012-10-25 Planar detection device and autonomous mobile device including the same

Country Status (1)

Country Link
JP (1) JP6030405B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016065422A (en) * 2014-09-26 2016-04-28 株式会社日立製作所 Environment recognition device and excavator of using environment recognition device
KR101598385B1 (en) * 2014-11-11 2016-03-02 한양대학교 산학협력단 Autonomous driving method and robot using recognition scene based on straight line information
JP6781535B2 (en) * 2015-07-27 2020-11-04 シャープ株式会社 Obstacle determination device and obstacle determination method
WO2017022079A1 (en) * 2015-08-04 2017-02-09 日産自動車株式会社 Step detection device and step detection method
JP7007078B2 (en) * 2015-10-08 2022-01-24 東芝ライフスタイル株式会社 Vacuum cleaner
JP6705636B2 (en) 2015-10-14 2020-06-03 東芝ライフスタイル株式会社 Vacuum cleaner
JP6649054B2 (en) * 2015-11-19 2020-02-19 アイシン精機株式会社 Moving body
JP6668740B2 (en) * 2015-12-22 2020-03-18 いすゞ自動車株式会社 Road surface estimation device
JP6654999B2 (en) * 2016-12-12 2020-02-26 株式会社Soken Target detection device
JP2018136896A (en) * 2017-02-24 2018-08-30 キヤノン株式会社 Information processor, system, information processing method, and manufacturing method of article
KR102461938B1 (en) * 2017-04-04 2022-10-31 엘지전자 주식회사 Method of identifying obstacle on a driving surface and robot implementing thereof
JP2019188556A (en) * 2018-04-26 2019-10-31 オムロン株式会社 Sensor controller, robot system, sensor control method, and program
KR102155095B1 (en) * 2019-03-26 2020-09-11 엘지전자 주식회사 Robot cleaner
CN111310663A (en) * 2020-02-17 2020-06-19 北京三快在线科技有限公司 Road fence detection method, device, equipment and storage medium
WO2023171611A1 (en) * 2022-03-07 2023-09-14 興和株式会社 Automatic travel robot
CN117731183B (en) * 2024-02-19 2024-05-10 杭州万向职业技术学院 Shield door cleaning robot and cleaning method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4344860B2 (en) * 2004-01-30 2009-10-14 国立大学法人東京工業大学 Road plan area and obstacle detection method using stereo image
JP5567908B2 (en) * 2009-06-24 2014-08-06 キヤノン株式会社 Three-dimensional measuring apparatus, measuring method and program

Also Published As

Publication number Publication date
JP2014085940A (en) 2014-05-12

Similar Documents

Publication Publication Date Title
JP6030405B2 (en) Planar detection device and autonomous mobile device including the same
WO2014064990A1 (en) Plane detection device, autonomous locomotion device provided with plane detection device, method for detecting road level difference, device for detecting road level difference, and vehicle provided with device for detecting road level difference
JP6132659B2 (en) Ambient environment recognition device, autonomous mobile system using the same, and ambient environment recognition method
JP6633568B2 (en) Autonomous coverage robot
CN106489104B (en) System and method for use of optical odometry sensors in a mobile robot
EP3104194B1 (en) Robot positioning system
EP3415281B1 (en) Robot cleaner and method for controlling the same
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
US8679260B2 (en) Methods and systems for movement of an automatic cleaning device using video signal
KR20190131402A (en) Moving Object and Hybrid Sensor with Camera and Lidar
EP3447532A2 (en) Hybrid sensor with camera and lidar, and moving object
US8423225B2 (en) Methods and systems for movement of robotic device using video signal
KR20180080498A (en) Robot for airport and method thereof
KR102056147B1 (en) Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
EP3716210B1 (en) Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device
CN111220148A (en) Mobile robot positioning method, system and device and mobile robot
JP2023083305A (en) Cleaning map display device
KR20200059666A (en) Moving device and method of detecting object thereof
US20210361132A1 (en) Cleaner and method for controlling same
JP2014106638A (en) Moving device and control method
US11960296B2 (en) Method and apparatus for autonomous mobile device
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera
KR20130135652A (en) Mobile robot and method for controlling the same
JP7345132B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
AU2015224421B2 (en) Autonomous coverage robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161020

R150 Certificate of patent or registration of utility model

Ref document number: 6030405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150