JP6756124B2 - Object detection device and object detection program - Google Patents

Object detection device and object detection program Download PDF

Info

Publication number
JP6756124B2
JP6756124B2 JP2016052311A JP2016052311A JP6756124B2 JP 6756124 B2 JP6756124 B2 JP 6756124B2 JP 2016052311 A JP2016052311 A JP 2016052311A JP 2016052311 A JP2016052311 A JP 2016052311A JP 6756124 B2 JP6756124 B2 JP 6756124B2
Authority
JP
Japan
Prior art keywords
dimensional object
estimated
dimensional
cell
pointless
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016052311A
Other languages
Japanese (ja)
Other versions
JP2017166971A (en
Inventor
雅能 寺部
雅能 寺部
敦史 北山
敦史 北山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016052311A priority Critical patent/JP6756124B2/en
Publication of JP2017166971A publication Critical patent/JP2017166971A/en
Application granted granted Critical
Publication of JP6756124B2 publication Critical patent/JP6756124B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出装置および物体検出プログラムに関する。 The present invention relates to an object detection device and an object detection program.

車両が道路を走行する際に前方に存在する立体物をLIDAR(light detection and ranging ,laser imaging detection and ranging ;レーザレーダ)を用いて検出する物体検出装置がある。例えば自動車の車室前面部にレーザレーダを設けて、前方の路面に向けて照射してその反射光により距離を測定している。 There is an object detection device that uses LIDAR (light detection and ranging, laser imaging detection and ranging; laser radar) to detect a three-dimensional object that exists in front of a vehicle when traveling on a road. For example, a laser radar is provided on the front surface of the passenger compartment of an automobile, irradiates the road surface in front of the vehicle, and measures the distance by the reflected light.

自車から前方の様々な方向に向けて測定点までの距離を検出し、距離が等しい測定点が複数存在する場合に、その高さ寸法を算出することで前方の立体物の存在を検出することができる。この場合、立体物の存在は反射光による距離情報により検出しているが、投光先の路面までの距離情報が得られる場合には車両と立体物との間においては立体物の存在が検出されていないことから、路面であると判断することができる。 The distance from the vehicle to the measurement points in various directions ahead is detected, and when there are multiple measurement points with the same distance, the presence of a three-dimensional object in front is detected by calculating the height dimension. be able to. In this case, the existence of the three-dimensional object is detected by the distance information by the reflected light, but when the distance information to the road surface of the light projection destination is obtained, the existence of the three-dimensional object is detected between the vehicle and the three-dimensional object. Since it is not, it can be judged that it is a road surface.

しかし、実際には路上に反射率が低い黒い物体や反射光が投光側に戻らない物体などが存在すると、距離情報が得られていない場合や十分な距離情報の個数が得られていない領域が発生することが想定される。そして、この場合には立体物が存在していても検出できない場合が生じ、立体物が検出されないために路面であると誤判定してしまうおそれがあった。 However, in reality, if there is a black object with low reflectance or an object on the road where the reflected light does not return to the floodlight side, the distance information may not be obtained or a sufficient number of distance information may not be obtained. Is expected to occur. In this case, even if a three-dimensional object exists, it may not be detected, and since the three-dimensional object is not detected, there is a risk that the road surface may be erroneously determined.

特開2013−140515号公報Japanese Unexamined Patent Publication No. 2013-140515

本発明は、上記事情を考慮してなされたもので、その目的は、反射光による距離情報が得られない領域が存在する場合に、この領域が立体物を含むか否かを推定することができるようにした物体検出装置および物体検出プログラムを提供することにある。 The present invention has been made in consideration of the above circumstances, and an object of the present invention is to estimate whether or not this region includes a three-dimensional object when there is a region where distance information due to reflected light cannot be obtained. An object of the present invention is to provide an object detection device and an object detection program.

請求項1に記載の物体検出装置は、自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出部(3)と、前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出部(4)と、前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出部(5)と、前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定部(6)と、路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定部(2d)とを備え、前記立体物判定部(2d)は、前記立体物推定部により推定された推定立体物の高さに応じて推定重みを設定し、前記自車両の移動に伴う前記3次元距離情報から得た前記推定立体物の推定重みを複数回連続して加算した値が増加する場合に前記立体物を検出する。 The object detection device according to claim 1 is divided by a three-dimensional distance detection unit (3) that acquires at least three-dimensional distance information in front of the own vehicle and a bird's-eye view grid based on the viewpoint of the three-dimensional distance detection unit. A three-dimensional object detection unit (4) that detects the presence or absence of a three-dimensional object based on the three-dimensional distance information for each cell, and distance information between the own vehicle and the three-dimensional object when the three-dimensional object exists. When there is a pointless area including a pointless cell having no distance information between the own vehicle and the three-dimensional object, there is a pointless area between the road surface detection unit (5) that detects the pointed cell with the road surface. The three-dimensional object estimation unit (6) that estimates the estimated three-dimensional object with the maximum height T1 that can exist in the following equation (A), and at least the cells of the estimated three-dimensional object are converted into cells of a stationary grid based on the road surface. Then, when the cell of the estimated three-dimensional object estimated by the three-dimensional object estimation unit from the new three-dimensional distance information obtained by the three-dimensional distance detection unit with the movement of the own vehicle is converted into the stationary grid, it is repeated. It is provided with a three-dimensional object determination unit (2d) that detects as a three-dimensional object when it is estimated at the same road surface position, and the three- dimensional object determination unit (2d) is the height of the estimated three-dimensional object estimated by the three-dimensional object estimation unit. The estimated weight is set accordingly, and when the value obtained by continuously adding the estimated weight of the estimated three-dimensional object obtained from the three-dimensional distance information accompanying the movement of the own vehicle increases a plurality of times, the three-dimensional object is added . To detect.

T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。
T1 = T0 ・ (re-r1) / re… (A)
However, T0: the height of the three-dimensional distance detection unit, re: the far point distance of the no point region, and r1: the near point distance of the no point region.

上記構成を採用することにより、3次元距離検出部により自車両の少なくとも前方の3次元距離情報を取得し、取得した3次元距離情報を鳥瞰グリッドで区切ったセル毎にあてはめて、立体物検出部によりセル毎に立体物の有無を検出する。立体物の存在が検出された場合に、路面検出部は、自車両と立体物との間のセルのうち、距離情報が有る有点セルを路面として検出する。また、自車両と立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合には、立体物推定部は、式(A)により無点領域内に存在し得る最大高さT1の推定立体物を推定する。立体物判定部は、静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、自車両の移動に伴い3次元距離検出部により得られる新たな3次元距離情報から立体物推定部により推定された推定立体物のセルを静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出することができる。これにより、3次元距離検出部による3次元距離情報が得られていない無点領域がある場合でも、その無点領域に立体物が存在するか否かを推定することができ、誤判定の発生を低減させることができる。 By adopting the above configuration, the three-dimensional distance detection unit acquires at least three-dimensional distance information in front of the own vehicle, and applies the acquired three-dimensional distance information to each cell divided by a bird's-eye view grid to detect a three-dimensional object. Detects the presence or absence of a three-dimensional object for each cell. When the presence of a three-dimensional object is detected, the road surface detection unit detects a pointed cell having distance information among the cells between the own vehicle and the three-dimensional object as the road surface. Further, when there is a pointless region including a pointless cell having no distance information between the own vehicle and the three-dimensional object, the three-dimensional object estimation unit is the maximum that can exist in the pointless region according to the equation (A). An estimated three-dimensional object with a height T1 is estimated. The three-dimensional object determination unit converts at least the cell of the estimated three-dimensional object into a cell of the stationary grid, and is estimated by the three-dimensional object estimation unit from new three-dimensional distance information obtained by the three-dimensional distance detection unit as the own vehicle moves. When the cell of the estimated three-dimensional object is converted into a stationary grid, it can be detected as a three-dimensional object when it is repeatedly estimated at the same road surface position. As a result, even if there is a pointless area for which the three-dimensional distance information is not obtained by the three-dimensional distance detection unit, it is possible to estimate whether or not a three-dimensional object exists in the pointless area, and an erroneous determination occurs. Can be reduced.

第1実施形態を示す機能ブロック構成図Functional block configuration diagram showing the first embodiment 3次元距離検出部の検知範囲と鳥瞰グリッドを示す(a)立面図および(b)平面図(A) Elevation view and (b) Plan view showing the detection range and bird's-eye view grid of the three-dimensional distance detection unit 鳥瞰グリッドに有点距離情報を示した例を示す図A diagram showing an example showing pointed distance information on a bird's-eye view grid 静止グリッドの配置図Layout of static grid 物体検出処理のフローチャートFlow chart of object detection process 鳥瞰グリッド内における立体物の高さ検出の説明図Explanatory drawing of height detection of three-dimensional object in bird's-eye view grid 鳥瞰グリッドの無点範囲の最大高さを推定する作用説明図Operational diagram for estimating the maximum height of the no-point range of the bird's-eye grid 無点領域の異なる推定立体物の例Examples of estimated three-dimensional objects with different pointless regions 無点領域の幅と推定立体物の高さの説明図Explanatory drawing of width of pointless area and height of estimated three-dimensional object 鳥瞰グリッドの有点距離情報の分布の具体例を示す部分図Partial diagram showing a concrete example of the distribution of pointed distance information in a bird's-eye view grid 鳥瞰グリッドの点数判定結果の具体例を示す部分図Partial view showing a concrete example of the score judgment result of the bird's-eye view grid (a)静止グリッドに鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanation of the action when the bird's-eye view grid is superimposed on the stationary grid, (b) Partial view of the bird's-eye view grid 静止グリッドの点数分布図Scatter plot of static grid (a)静止グリッドに移動後の鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanation of action when the bird's-eye view grid after movement is superimposed on the stationary grid, (b) Partial view of the bird's-eye view grid 静止グリッドに移動後の点数を加算した場合の点数分布図Point distribution plot when the points after moving are added to the static grid 第2実施形態を示す鳥瞰グリッドの点数判定結果の具体例を示す図The figure which shows the specific example of the score determination result of the bird's-eye view grid which shows the 2nd Embodiment 鳥瞰グリッドの無点セル毎の最大高さを推定する作用説明図Explanatory drawing of action to estimate the maximum height of each pointless cell in the bird's-eye view grid (a)静止グリッドに鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanation of the action when the bird's-eye view grid is superimposed on the stationary grid, (b) Partial view of the bird's-eye view grid 静止グリッドの点数分布図Scatter plot of static grid (a)静止グリッドに移動後の鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanation of action when the bird's-eye view grid after movement is superimposed on the stationary grid, (b) Partial view of the bird's-eye view grid 静止グリッドに移動後の点数を加算した場合の点数分布図Point distribution plot when the points after moving are added to the static grid 第3実施形態を示す鳥瞰グリッドの点数判定結果の具体例を示す図The figure which shows the specific example of the score determination result of the bird's-eye view grid which shows the 3rd Embodiment (a)静止グリッドに鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanation of the action when the bird's-eye view grid is superimposed on the stationary grid, (b) Partial view of the bird's-eye view grid 静止グリッドの点数分布図Scatter plot of static grid (a)静止グリッドに移動後の鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanation of action when the bird's-eye view grid after movement is superimposed on the stationary grid, (b) Partial view of the bird's-eye view grid 静止グリッドに移動後の点数を加算した場合の点数分布図Point distribution plot when the points after moving are added to the static grid

(第1実施形態)
以下、本発明の第1実施形態について、図1〜図15を参照して説明する。
図2(a)、(b)物体検出装置1は、例えば車両Aの前面部上部に搭載されるもので、車室内のフロントガラスの内側上部などに設けられる。物体検出装置1は、図1に示すように、制御装置2を主体として3次元距離検出部3、記憶部4および出力部5を備えている。
(First Embodiment)
Hereinafter, the first embodiment of the present invention will be described with reference to FIGS. 1 to 15.
2A and 2B, the object detection device 1 is mounted on, for example, the upper part of the front surface of the vehicle A, and is provided on the inner upper part of the windshield in the vehicle interior. As shown in FIG. 1, the object detection device 1 mainly includes a control device 2 and includes a three-dimensional distance detection unit 3, a storage unit 4, and an output unit 5.

制御装置2は、CPU、ROM、RAMおよびインタフェースなどを備えたもので、車載ECUに組み込まれたものでも良いし、別途設ける構成のもでも良い。制御装置2は、後述する物体検出プログラムに基づいて3次元距離検出部3により検出された距離情報から車両Aの前方に存在する立体物を検出する。図1には、制御装置2の機能による構成を示している。構成要素としては、立体検出部2a、路面検出部2b、立体物推定部2c、立体物判定部2dを備えている。 The control device 2 includes a CPU, ROM, RAM, an interface, and the like, and may be incorporated in an in-vehicle ECU or may be separately provided. The control device 2 detects a three-dimensional object existing in front of the vehicle A from the distance information detected by the three-dimensional distance detection unit 3 based on an object detection program described later. FIG. 1 shows a configuration according to the function of the control device 2. As components, a three-dimensional detection unit 2a, a road surface detection unit 2b, a three-dimensional object estimation unit 2c, and a three-dimensional object determination unit 2d are provided.

3次元距離検出部3は、いわゆるレーザレーダ(LIDAR)と言われるもので、例えば車両Aの前方の様々な方向に向けて測距用のレーザ光を照射して前方の走行範囲の距離を3次元的に検出するものである。記憶部4は、制御装置2内に設けることもできるし、外部に別途設ける構成とすることもできる。記憶部4は、制御装置2により実行される物体検出プログラムが記憶されるとともに、各種の情報が記憶されている。出力部5は、立体物の検出結果を表示するもので、車室内に設けられたディスプレイなどを利用して表示させることができる。 The three-dimensional distance detection unit 3 is a so-called laser radar (LIDAR). For example, the distance of the traveling range in front of the vehicle A is set to 3 by irradiating laser beams for distance measurement in various directions in front of the vehicle A. It is detected dimensionally. The storage unit 4 may be provided inside the control device 2 or may be separately provided outside. The storage unit 4 stores an object detection program executed by the control device 2 and various information. The output unit 5 displays the detection result of a three-dimensional object, and can be displayed by using a display or the like provided in the vehicle interior.

3次元距離検出部3は、図2(a)に示すように、車両Aの前方路面R上にレーザ光を照射する。車両Aの前面直下の位置を原点(O)として近点側から路面R上の距離r1、r2、…、rnのように、照射点Pをほぼ等間隔で遠点側に移動させながら反射光の到達時間を検出して距離を算出している。また、3次元距離検出部3は、図2(b)に示すように、前方r方向を中心として左右に方向を変化させてレーザ光を振って扇型の検出エリアで距離を測定している。 As shown in FIG. 2A, the three-dimensional distance detection unit 3 irradiates the front road surface R of the vehicle A with a laser beam. Reflected light while moving the irradiation points P to the far point side at approximately equal intervals, such as distances r1, r2, ..., Rn from the near point side to the road surface R with the position directly below the front surface of the vehicle A as the origin (O). The arrival time of is detected and the distance is calculated. Further, as shown in FIG. 2B, the three-dimensional distance detecting unit 3 measures the distance in a fan-shaped detection area by changing the direction to the left and right around the front r direction and waving a laser beam. ..

この場合、レーザ光が路面Rに照射される場合には、その路面Rの照射点Pに対応する距離の情報が得られる。一方、路面R上に立体物などの物体が存在する場合には、レーザ光が路面Rに到達する前に立体物に照射され、その反射光を受光して距離を算出するので、路面Rの照射点Pよりも近い位置の距離情報が得られる。 In this case, when the laser beam is applied to the road surface R, information on the distance corresponding to the irradiation point P of the road surface R can be obtained. On the other hand, when an object such as a three-dimensional object exists on the road surface R, the three-dimensional object is irradiated with the laser light before reaching the road surface R, and the reflected light is received to calculate the distance. Distance information at a position closer than the irradiation point P can be obtained.

3次元距離検出部3により得られる距離情報は、図2(b)に示しているように、レーザ光の照射範囲に応じて車両Aに対応して鳥瞰グリッドGで分割した複数のセルGθn(例えば、方向θ:a〜e、距離n:0〜4)に分けて立体物の判定を行う。鳥瞰グリッドGは、車両Aの進行方向を示すr軸に対して、このr軸を含んだ所定角度の範囲を車両Aに近い側から所定距離毎にセルGa0〜Ga4のように区切っている。同様にして、車両Aの進行方向に対してセルGa0〜Ga4の左側の所定角度範囲にセルGb0〜Gb4、さらにその左側にセルGc0〜Gc4を設定するように区切っている。また、車両Aの進行方向に対してセルGa0〜Ga4の右側の所定角度範囲にセルGd0〜Gd4、さらにその右側にセルGe0〜Ge4を設定するように区切っている。 As shown in FIG. 2B, the distance information obtained by the three-dimensional distance detection unit 3 corresponds to the vehicle A according to the irradiation range of the laser beam and is divided by the bird's-eye view grid G into a plurality of cells Gθn ( For example, the three-dimensional object is determined by dividing the direction θ: a to e and the distance n: 0 to 4). The bird's-eye view grid G divides a range of a predetermined angle including the r-axis indicating the traveling direction of the vehicle A into cells Ga0 to Ga4 for each predetermined distance from the side closer to the vehicle A. Similarly, the cells Gb0 to Gb4 are set in a predetermined angle range on the left side of the cells Ga0 to Ga4 with respect to the traveling direction of the vehicle A, and the cells Gc0 to Gc4 are further set on the left side thereof. Further, the cells Gd0 to Gd4 are set in a predetermined angle range on the right side of the cells Ga0 to Ga4 with respect to the traveling direction of the vehicle A, and the cells Ge0 to Ge4 are further set on the right side thereof.

レーザ光の反射により得られる距離情報は、図3に示すように、距離に応じて鳥瞰グリッドGのセルGθnに対応付けられる。図中には対応するセルに距離情報を示す位置を黒丸(ドット)で示している。 As shown in FIG. 3, the distance information obtained by the reflection of the laser beam is associated with the cell Gθn of the bird's-eye view grid G according to the distance. In the figure, the positions indicating the distance information in the corresponding cells are indicated by black circles (dots).

一方、立体物の判定には、図4に示すように、路面Rに対応した直交座標系の静止グリッドSが設定される。静止グリッドSは、路面Rの車両の進行方向と直交する方向をx、進行方向をyとするとき、x方向およびy方向の位置に対応して矩形マトリクス状のセルSxy(例えばS00〜S77までの8×8個のセル)などが設定されている。図4では車両Aの物体検出装置1の位置が静止グリッドS上に示されている。 On the other hand, for the determination of a three-dimensional object, as shown in FIG. 4, a stationary grid S in an orthogonal coordinate system corresponding to the road surface R is set. When the direction orthogonal to the traveling direction of the vehicle on the road surface R is x and the traveling direction is y, the stationary grid S has rectangular matrix-shaped cells Sxy (for example, from S00 to S77) corresponding to the positions in the x direction and the y direction. 8 x 8 cells) and the like are set. In FIG. 4, the position of the object detection device 1 of the vehicle A is shown on the stationary grid S.

次に、物体検出装置1による物体検出処理について、図5を参照して説明する。この物体検出処理のフローチャートは、物体検出プログラムとして記憶部4に記憶されているものである。制御装置2は、物体検出処理を開始するにあたり、記憶部4から物体検出プログラムを読み出す。 Next, the object detection process by the object detection device 1 will be described with reference to FIG. The flowchart of this object detection process is stored in the storage unit 4 as an object detection program. The control device 2 reads the object detection program from the storage unit 4 when starting the object detection process.

制御装置2は、プログラムを開始すると、まずステップS1で静止グリッドS上のデータを初期化し、自車Aの位置に対応して前方の路面Aを含む領域に静止グリッドSを設定する。次に、制御装置2は、ステップS2に進むと、3次元距離検出部3のレーザレーダにより車両Aの前方(鳥瞰グリッドGではr方向;静止グリッドSではy方向)に向けてレーザ光を照射して距離情報を鳥瞰グリッドGの位置に対応して取得する。この場合、制御装置2は、3次元距離検出部3により得られる距離情報の点群情報を取得する。点群情報はレーザ光の照射角度と距離との情報であり、3次元距離検出部3の位置を中心とした極座標の情報である。 When the control device 2 starts the program, the data on the stationary grid S is first initialized in step S1, and the stationary grid S is set in the region including the road surface A ahead corresponding to the position of the own vehicle A. Next, when the control device 2 proceeds to step S2, the laser radar of the three-dimensional distance detection unit 3 irradiates the laser beam toward the front of the vehicle A (r direction in the bird's-eye view grid G; y direction in the stationary grid S). Then, the distance information is acquired corresponding to the position of the bird's-eye view grid G. In this case, the control device 2 acquires the point cloud information of the distance information obtained by the three-dimensional distance detection unit 3. The point cloud information is information on the irradiation angle and distance of the laser beam, and is information on polar coordinates centered on the position of the three-dimensional distance detection unit 3.

制御装置2は、ステップS3で、取得した点群情報を鳥瞰グリッドGにマッピングする。このとき、距離の情報が路面R上での距離よりも短いときには、距離に応じたセルGθnにマッピングする。例えば、図6に示すように、路面R近くの点Paに対して、これよりも遠い位置に対応する点Pbの距離が同じであるとすると、ここにレーザ光を遮って反射させる立体物が存在することが推定できる。 The control device 2 maps the acquired point cloud information to the bird's-eye view grid G in step S3. At this time, when the distance information is shorter than the distance on the road surface R, it is mapped to the cell Gθn according to the distance. For example, as shown in FIG. 6, assuming that the distance of the point Pb corresponding to a position farther than the point Pa near the road surface R is the same, a three-dimensional object that blocks and reflects the laser beam is present here. It can be estimated that it exists.

このときの高さHaが、しきい値として設定される所定以上、例えば5〜10センチ以上あるときには、車両Aが進行すると乗り上げる障害物となる可能性がある。このような場合には、立体物があることが検出できる。このように同じセルGθnに属する距離情報の点Pを図7に示すように、鳥瞰グリッドGの各セルGθnに対応付ける。 When the height Ha at this time is equal to or higher than a predetermined value set as a threshold value, for example, 5 to 10 cm or more, it may become an obstacle to ride on when the vehicle A advances. In such a case, it can be detected that there is a three-dimensional object. As shown in FIG. 7, the point P of the distance information belonging to the same cell Gθn is associated with each cell Gθn of the bird's-eye view grid G.

次に、制御装置2は、ステップS4で、立体物検出処理を行う。ここでは、図6で説明したように、一つのセルGθn内に入る距離情報について、複数の距離情報が存在していてその高さHを算出し、しきい値以上の高さがある場合に立体物の存在を検出する。具体的には、制御装置2は、セルGθn内に複数の距離情報が存在するものについて、そのセルGθn内の距離情報に基づいて測定点の高さを求める。 Next, the control device 2 performs a three-dimensional object detection process in step S4. Here, as described with reference to FIG. 6, for the distance information entering one cell Gθn, when a plurality of distance information exists, the height H is calculated, and the height is equal to or higher than the threshold value. Detects the presence of a three-dimensional object. Specifically, the control device 2 obtains the height of the measurement point based on the distance information in the cell Gθn when a plurality of distance information exists in the cell Gθn.

ここでは、制御装置2は、複数の測定点の高さ情報から、最低の高さの点Paと最高の高さのPbとの間の差を演算して高さHaを求める。制御装置2は、得られた高さHaの値が立体物を判定するしきい値Ho以上である場合に、セルGθn内に立体物が存在することを判定する。続いて、制御装置2は、ステップS5に進み、立体物が検出されたセルGθnに対して、立体物確率の点数として「+1」を設定する。 Here, the control device 2 calculates the difference between the lowest height point Pa and the highest height Pb from the height information of the plurality of measurement points to obtain the height Ha. The control device 2 determines that the three-dimensional object exists in the cell Gθn when the obtained height Ha value is equal to or higher than the threshold value Ho for determining the three-dimensional object. Subsequently, the control device 2 proceeds to step S5 and sets “+1” as the score of the three-dimensional object probability with respect to the cell Gθn in which the three-dimensional object is detected.

次に、制御装置2は、ステップS6で、路面検出処理を行う。具体的には、制御装置2は、自車両Aと立体物が検出されたセルGθnとの間のセルGθ0〜Gθ(n−1)のうち、距離情報が得られているものについて、路面Rが検出されたセルであると判定する。続いて、制御装置2は、ステップS7で、セルGθ0〜Gθ(n−1)のうちの路面として判定したセルについて立体物確率の点数として「−1」を設定する。 Next, the control device 2 performs the road surface detection process in step S6. Specifically, the control device 2 refers to the road surface R of the cells Gθ0 to Gθ (n-1) between the own vehicle A and the cell Gθn in which the three-dimensional object is detected, for which the distance information is obtained. Is determined to be the detected cell. Subsequently, the control device 2 sets “-1” as the score of the three-dimensional object probability for the cell determined as the road surface among the cells Gθ0 to Gθ (n-1) in step S7.

次に、制御装置2は、ステップS8で、距離情報が得られていないセルGθk(k:0≦k<nの整数)について、次のように処理を行う。すなわち、制御装置2は、立体物の存在を検出したセルGθnの方向θについて、立体物の手前のセルGθ0〜Gθ(n−1)のうち、路面と判定されなかったセルつまり距離情報が得られていないセルGθk(k:0≦k<nの整数)について、これを無点領域NPとして認識する。この場合、無点領域NPは1個のセルである場合もあるし、複数個の連続したセルである場合もある。無点領域NPには、その領域中にレーザ光を反射しないか反射率が低い立体物が存在することも考えられる。 Next, in step S8, the control device 2 performs processing on the cell Gθk (integer of k: 0 ≦ k <n) for which distance information has not been obtained, as follows. That is, the control device 2 obtains the cell, that is, the distance information, which is not determined to be the road surface among the cells Gθ0 to Gθ (n-1) in front of the three-dimensional object, with respect to the direction θ of the cell Gθn where the presence of the three-dimensional object is detected. The cell Gθk (an integer of k: 0 ≦ k <n) that is not used is recognized as a pointless region NP. In this case, the pointless region NP may be one cell or a plurality of consecutive cells. In the pointless region NP, it is also conceivable that a three-dimensional object that does not reflect the laser beam or has a low reflectance exists in the region.

そこで、制御装置2は、まず、無点領域NP内において立体物が存在した場合の最も高いものについて推定処理を行う。図7を参照して算出の原理を説明する。無点領域NPの遠点距離をre、近点距離をr1とし、物体検出装置1の高さをT0とすると、無点領域NPに存在加納な最も高い立体物は、近点位置r1に存在した場合であるから、その高さT1は、次式(A)で算出できる。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域NPの遠点距離、r1:無点領域NPの近点距離である。
Therefore, the control device 2 first performs an estimation process on the highest one when a three-dimensional object exists in the pointless region NP. The principle of calculation will be described with reference to FIG. 7. Assuming that the far point distance of the pointless region NP is re, the near point distance is r1, and the height of the object detection device 1 is T0, the tallest three-dimensional object existing in the pointless region NP exists at the near point position r1. Therefore, the height T1 can be calculated by the following equation (A).
T1 = T0 ・ (re-r1) / re… (A)
However, T0: the height of the three-dimensional distance detection unit, re: the far point distance of the pointless area NP, and r1: the near point distance of the pointless area NP.

この場合、上式(A)で推定できるのは、存在しうる最も高い立体物の高さであり、実際にはそれ以下の高さの立体物が存在することもありうる。例えば、図8に示すように、無点領域NPとして、連続した3つのセルGa3〜Ga5がある場合に、セルGa3の近点の位置に最も高いHaの高さの立体物Xaが存在する(a)の場合がある。また、セルGa3〜Ga5にまたがるように低い高さHbの立体物Xbが存在する(b)の場合もある。さらには、2つのセルGa3およびGa4にまたがる高さHcの立体物Xcが存在する(c)の場合もある。 In this case, what can be estimated by the above equation (A) is the height of the highest three-dimensional object that can exist, and in reality, a three-dimensional object having a height lower than that may exist. For example, as shown in FIG. 8, when there are three consecutive cells Ga3 to Ga5 as the pointless region NP, the three-dimensional object Xa having the highest Ha height exists at the position near the cell Ga3 ( There is a case of a). Further, there may be a case (b) in which a three-dimensional object Xb having a low height Hb exists so as to straddle the cells Ga3 to Ga5. Further, there may be a case (c) in which a three-dimensional object Xc having a height of Hc straddling the two cells Ga3 and Ga4 exists.

一方、図9に示すように、存在し得る立体物は奥行きが短い場合には、高さに応じて無点セルの連続個数が決まる。例えば、図9(a)のように高さHaの立体物では、連続する3つの無点セルGa3〜Ga5が発生する。また、図9(b)のように高さHdの立体物では、1個の無点セルGa5が発生する。無点セルが1個の場合には、セルの奥行き寸法によっては最大高さがしきい値よりも小さくなることがあり、立体物として判定しないことがある。 On the other hand, as shown in FIG. 9, when the depth of the three-dimensional object that can exist is short, the continuous number of pointless cells is determined according to the height. For example, in a three-dimensional object having a height Ha as shown in FIG. 9A, three consecutive pointless cells Ga3 to Ga5 are generated. Further, in a three-dimensional object having a height of Hd as shown in FIG. 9B, one pointless cell Ga5 is generated. When there is one pointless cell, the maximum height may be smaller than the threshold value depending on the depth dimension of the cell, and it may not be determined as a three-dimensional object.

以上のことから、制御装置2は、ステップS9で、無点領域の最大高さがしきい値を超える場合にこの無点領域に立体物が存在することを推定し、推定立体物として設定する。続いて、制御装置2は、ステップS10で、推定立体物の存在を推定したセルについて推定重みαを設定する。ここでは、例えば推定立体物の推定重みαとして、0から1の範囲で定められている値を立体物確率として設定する。 From the above, in step S9, the control device 2 estimates that a three-dimensional object exists in the pointless region when the maximum height of the pointless region exceeds the threshold value, and sets it as the estimated three-dimensional object. Subsequently, the control device 2 sets the estimated weight α for the cell in which the existence of the estimated three-dimensional object is estimated in step S10. Here, for example, as the estimated weight α of the estimated three-dimensional object, a value defined in the range of 0 to 1 is set as the three-dimensional object probability.

制御装置2は、次に、ステップS11に進み、極座標系の鳥瞰グリッドGの各セルについて得られた結果を、直交座標系の静止グリッドSのセルに変換する処理を行う。この場合、直接路面Rの位置に対応した静止グリッドSに対応付ける処理をすることもできるし、自車両Aの物体検出装置1の位置を原点とする直交座標系の移動する鳥瞰グリッドを想定して変換処理をすることもできる。 Next, the control device 2 proceeds to step S11 and performs a process of converting the results obtained for each cell of the bird's-eye view grid G of the polar coordinate system into cells of the stationary grid S of the orthogonal coordinate system. In this case, it is possible to perform processing that directly corresponds to the stationary grid S corresponding to the position of the road surface R, or to assume a moving bird's-eye view grid in the Cartesian coordinate system with the position of the object detection device 1 of the own vehicle A as the origin. It is also possible to perform conversion processing.

直交座標系の移動する鳥瞰グリッドに変換する場合には、変換後の直交座標系を路面Rに対応した静止グリッドSに宛てはめる処理をすることで、結果として同じ処理を実施することができる。次に、制御装置2は、静止グリッドS上の各セルSxyに対して、前述のようにして得られた立体物確率の値を加算処理する。 When converting to a moving bird's-eye view grid of the orthogonal coordinate system, the same processing can be performed as a result by applying the converted orthogonal coordinate system to the stationary grid S corresponding to the road surface R. Next, the control device 2 adds the three-dimensional object probability values obtained as described above to each cell Sxy on the stationary grid S.

制御装置2は、ステップS13に進み、自車両Aの位置情報に基づいて静止グリッドSにおける自車両Aの位置を変更設定する。この後、制御装置2は、ステップS2に戻り、上記処理と同様の処理を移動後の位置の点群情報に基づいて行い、以下、ステップS2〜S13を繰り返し実行する。 The control device 2 proceeds to step S13 and changes and sets the position of the own vehicle A on the stationary grid S based on the position information of the own vehicle A. After that, the control device 2 returns to step S2, performs the same process as the above process based on the point cloud information of the position after the movement, and then repeatedly executes steps S2 to S13.

制御装置2は、上記の処理とは別に、立体物の判定処理を行っている。上記の処理を繰り返した結果、静止グリッドSのセルSxyには、立体物確率が加算されていくことで、路面Rに静止している立体物が存在する場合あるいは推定立体物が存在する場合には、そのセルの立体物確率の値が増加していく。これにより、制御装置2は、路面Rに存在する静止した立体物を正確に推定することができる。 The control device 2 performs a three-dimensional object determination process in addition to the above process. As a result of repeating the above processing, the probability of a three-dimensional object is added to the cell Sxy of the stationary grid S, so that when a stationary three-dimensional object exists on the road surface R or when an estimated three-dimensional object exists. The value of the three-dimensional object probability of the cell increases. As a result, the control device 2 can accurately estimate the stationary three-dimensional object existing on the road surface R.

また、他の車両などの移動する立体物が存在する場合には、他の車両の移動とともに立体物が移動するため、立体物確率の値は増加するのではなく、セル間を移動するようになる。さらに、無点領域に立体物が存在していなかった場合には、複数回の加算処理で立体物確率の値が増加することがないため、立体物の存在は判定されない。 In addition, when there is a moving three-dimensional object such as another vehicle, the three-dimensional object moves with the movement of the other vehicle, so the value of the three-dimensional object probability does not increase, but moves between cells. Become. Further, when the three-dimensional object does not exist in the pointless region, the existence of the three-dimensional object is not determined because the value of the three-dimensional object probability does not increase in the multiple addition processes.

次に、図10から図15を参照して具体的な事例を説明する。
図10は鳥瞰グリッドGのうちのr方向(セルGanの列の方向)に対応した8個のセルGa0〜Ga7を示している。前述のように、制御装置2は、図5に示したプログラムのステップS1を経てステップS2で、3次元距離検出部3により取得された測定点Pに対するレーザ光による距離情報を点群情報として取り込んでいる。実際には、図3で示したように、鳥瞰グリッドGのすべてのセルについて点群情報が得られており、制御装置2は、これらのすべてについて以下の処理を実行するが、簡単のために図10に示す8個のセルGa0〜Ga7についての処理で説明する。
Next, a specific example will be described with reference to FIGS. 10 to 15.
FIG. 10 shows eight cells Ga0 to Ga7 corresponding to the r direction (direction of the row of cells Gang) in the bird's-eye view grid G. As described above, the control device 2 takes in the distance information by the laser beam with respect to the measurement point P acquired by the three-dimensional distance detection unit 3 as the point cloud information in step S2 through the step S1 of the program shown in FIG. I'm out. Actually, as shown in FIG. 3, point cloud information is obtained for all cells of the bird's-eye view grid G, and the control device 2 executes the following processing for all of them, but for the sake of simplicity. The processing for the eight cells Ga0 to Ga7 shown in FIG. 10 will be described.

制御装置2は、ステップS3で、点群情報を鳥瞰グリッドGのすべてのセルに対してマッピングしている。図10は、r方向の8個のセルでのマッピングの例である。ここでは、距離情報が得られている有点セルGa0、Ga1、Ga5、Ga6、距離情報が得られていない無点セルGa2〜Ga4、Ga7がある。 In step S3, the control device 2 maps the point cloud information to all the cells of the bird's-eye view grid G. FIG. 10 is an example of mapping with eight cells in the r direction. Here, there are pointed cells Ga0, Ga1, Ga5, Ga6 for which distance information is obtained, and pointless cells Ga2 to Ga4, Ga7 for which distance information is not obtained.

制御装置2は、有点セルGa0、Ga1、Ga5、Ga6のうち、路面Rの照射点Pまでの距離よりも短い距離情報が含まれている有点セルGa6については、ステップS4で立体物検出処理を行って立体物を検出する。制御装置2は、ステップS5で、立体物が含まれた立体物セルGa5に対して立体物確率「+1」を設定する。この結果は、図11に示すように、立体物セルGa6に「+1」を設定するようにマッピングされる。制御装置2は、他の有点セルGa0、Ga1、Ga5についても同様の立体物処理を行うが、路面Rの照射点Pまでの距離とほぼ等しい距離情報である場合には立体物は検出されない。 Of the pointed cells Ga0, Ga1, Ga5, and Ga6, the control device 2 performs a three-dimensional object detection process in step S4 for the pointed cell Ga6 containing distance information shorter than the distance to the irradiation point P of the road surface R. Go and detect a three-dimensional object. In step S5, the control device 2 sets the three-dimensional object probability “+1” for the three-dimensional object cell Ga5 including the three-dimensional object. This result is mapped so as to set "+1" in the three-dimensional object cell Ga6 as shown in FIG. The control device 2 performs the same three-dimensional object processing on the other pointed cells Ga0, Ga1, and Ga5, but the three-dimensional object is not detected when the distance information is substantially equal to the distance to the irradiation point P of the road surface R.

次に、制御装置2は、立体物セルと判定されない有点セルGa0、Ga1、Ga5について、立体物セルGa5と自車両Aとの間に位置することから、ステップS6で路面セルとして検出する。制御装置2は、路面セルGa0、Ga1、Ga5について、ステップS7で、立体物確率として「−1」を設定する。この結果は、図11に示すように、路面セルGa0、Ga1、Ga5に「−1」を設定するようにマッピングされる。 Next, the control device 2 detects the pointed cells Ga0, Ga1, and Ga5 that are not determined to be the three-dimensional object cells as road surface cells in step S6 because they are located between the three-dimensional object cell Ga5 and the own vehicle A. The control device 2 sets “-1” as the three-dimensional object probability in step S7 for the road surface cells Ga0, Ga1, and Ga5. This result is mapped so as to set "-1" to the road surface cells Ga0, Ga1 and Ga5 as shown in FIG.

続いて、制御装置2は、無点セルGa2〜Ga4を含む無点領域NPについて、ステップS8で立体物が存在する場合に最も高い場合の高さT1を推定する処理を行う。この場合には、式(A)の無点領域NPの遠点距離reは、物体検出装置1の位置を原点として無点セルGa4の遠点までの距離となる。無点領域NPの近点距離r1は、無点セルGa2の近点までの距離となる。算出した高さT1がしきい値を超えるときにはこれを推定立体物として設定する。 Subsequently, the control device 2 performs a process of estimating the height T1 of the pointless region NP including the pointless cells Ga2 to Ga4 when the three-dimensional object is present in step S8. In this case, the far point distance re of the pointless region NP of the formula (A) is the distance from the position of the object detection device 1 to the far point of the pointless cell Ga4. The near point distance r1 of the pointless region NP is the distance to the near point of the pointless cell Ga2. When the calculated height T1 exceeds the threshold value, this is set as an estimated three-dimensional object.

制御装置2は、無点領域NPに推定立体物が存在すると判断したときには、無点領域NPの各セルGa2〜Ga4に推定立体物の推定重み設定を行う。この設定処理では、制御装置2は、推定重みαとして、例えば「0.5」を立体物の立体物確率「+1」に乗ずる。この結果、制御装置2は、無点セルGa2〜Ga4に推定立体物の立体物確率「+0.5」を設定する。 When the control device 2 determines that the estimated three-dimensional object exists in the pointless region NP, the control device 2 sets the estimated weight of the estimated three-dimensional object in each cell Ga2 to Ga4 of the pointless region NP. In this setting process, the control device 2 multiplies, for example, "0.5" as the estimated weight α by the three-dimensional object probability "+1" of the three-dimensional object. As a result, the control device 2 sets the three-dimensional object probability “+0.5” of the estimated three-dimensional object in the pointless cells Ga2 to Ga4.

以上の処理を鳥瞰グリッドGの全体について実施することで自車両Aの前方に存在する立体物、路面および推定立体物の情報が得られる。図11では、鳥瞰グリッドGのうち、8個のセルGa0〜Ga7についての結果を示している。なお、立体物が検出されたセルGa6よりも前方の距離情報が得られていない無点セルGa7については、立体物の存在は不明であるから立体物確率として「0」が設定されている。 By carrying out the above processing for the entire bird's-eye view grid G, information on a three-dimensional object, a road surface, and an estimated three-dimensional object existing in front of the own vehicle A can be obtained. FIG. 11 shows the results for eight cells Ga0 to Ga7 in the bird's-eye view grid G. As for the pointless cell Ga7 for which the distance information in front of the cell Ga6 in which the three-dimensional object is detected is not obtained, the existence of the three-dimensional object is unknown, so "0" is set as the three-dimensional object probability.

図12〜図15では、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。ここでは簡単のために、図12(b)に示すように、鳥瞰グリッドGにおいては、有点セルGa4で立体物が検出され、その手前に位置するセルGa0〜Ga3のうち、有点セルGa0、Ga3は路面として検出され、無点セルGa1、Ga2において推定立体物が推定されている場合で説明する。 12 to 15 show specific examples of converting the information detected by the bird's-eye view grid G into the static grid S. Here, for the sake of simplicity, as shown in FIG. 12B, in the bird's-eye view grid G, a three-dimensional object is detected in the pointed cells Ga4, and among the cells Ga0 to Ga3 located in front of the three-dimensional objects, the pointed cells Ga0 and Ga3 Will be described in the case where is detected as a road surface and an estimated three-dimensional object is estimated in the pointless cells Ga1 and Ga2.

図12(b)に示す鳥瞰グリッドGでは、立体物確率として、立体物が検出された有点セルGa4では「+1」、路面が検出された有点セルGa0、Ga3では「−1」、推定立体物が検出された無点セルGa1、Ga2では「+0.5」が設定されている。他のセルについても立体物が検出されたセルに「+1」、路面が検出されたセルに「−1」が設定されている。 In the bird's-eye view grid G shown in FIG. 12B, the probability of the three-dimensional object is "+1" in the pointed cell Ga4 in which the three-dimensional object is detected, "-1" in the pointed cells Ga0 and Ga3 in which the road surface is detected, and the estimated three-dimensional object. In the pointless cells Ga1 and Ga2 in which is detected, "+0.5" is set. For other cells, "+1" is set for the cell in which the three-dimensional object is detected, and "-1" is set for the cell in which the road surface is detected.

制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換する。静止グリッドSの各セルSxyは、初期状態ではすべて「0」に設定されている。これに鳥瞰グリッドGの原点位置である物体検出装置1の位置は、セルS30の位置にある。図12(a)に示すように、静止グリッドS上に鳥瞰グリッドGを重ねると、例えば無点セルGa1がセルS31に、無点セルGa2がセルS32に対応する。制御装置2は、ステップS12で、変換された立体物確率のデータを静止グリッドSに加算し、図13に示すようなデータを得る。 In step S11, the control device 2 converts the cell information of the bird's-eye view grid G into the cell information of the static grid S. Each cell Sxy of the stationary grid S is set to "0" in the initial state. The position of the object detection device 1 which is the origin position of the bird's-eye view grid G is the position of the cell S30. As shown in FIG. 12A, when the bird's-eye view grid G is superimposed on the stationary grid S, for example, the pointless cell Ga1 corresponds to the cell S31 and the pointless cell Ga2 corresponds to the cell S32. In step S12, the control device 2 adds the converted three-dimensional object probability data to the stationary grid S to obtain the data as shown in FIG.

この後、制御装置2は、自車両Aの現在位置情報に基づいて、静止グリッドS上での自車位置をシフトするように処理する。これにより、例えば図14(a)に示すように、自車両Aの物体検出装置1の位置が静止グリッドS上でセルS42に移動していることを認識してシフトさせる。 After that, the control device 2 processes so as to shift the position of the own vehicle on the stationary grid S based on the current position information of the own vehicle A. As a result, for example, as shown in FIG. 14A, the position of the object detection device 1 of the own vehicle A is recognized as being moved to the cell S42 on the stationary grid S and shifted.

以下、上述と同様の処理を繰り返し実行することで、移動先の位置での鳥瞰グリッドGの点群情報が得られ、制御装置2は、その点群情報から、新たな鳥瞰グリッドGの点群情報を得る。図14(b)には、移動先での無点セルの分布状態を示している。ここでは、推定立体物が推定される無点セルGb1、Gc0〜Gc2が検出され、それぞれに立体物確率「+0.5」が設定されている。 Hereinafter, by repeatedly executing the same processing as described above, the point cloud information of the bird's-eye view grid G at the position of the movement destination can be obtained, and the control device 2 can obtain the point cloud information of the new bird's-eye view grid G from the point cloud information. get information. FIG. 14B shows the distribution state of the pointless cells at the destination. Here, the pointless cells Gb1 and Gc0 to Gc2 from which the estimated three-dimensional object is estimated are detected, and the three-dimensional object probability "+0.5" is set for each.

このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図14(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2に対して、静止グリッドSのセルS32、S23、S33に対して立体物確率「+0.5」が設定される。 When the cell information of the bird's-eye view grid G is converted in association with the cell information of the static grid S, it becomes as shown in FIG. 14A. Here, the three-dimensional object probability “+0.5” is set for the cells S32, S23, and S33 of the stationary grid S for the four pointless cells Gb1 and Gc0 to Gc2.

次に、制御装置2は、上記の結果得られた図14に示す静止グリッドSの立体物確率のデータを前述の図13に示した静止グリッドSに加算する。この結果、図15に示すような加算された静止グリッドSが得られる。この図15からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」、セルS32が「+1」、セルS23が「+1.5」、セルS33が「−0.5」となる。 Next, the control device 2 adds the three-dimensional object probability data of the stationary grid S shown in FIG. 14 obtained as a result of the above to the stationary grid S shown in FIG. 13 described above. As a result, the added static grid S as shown in FIG. 15 is obtained. As can be seen from FIG. 15, by adding the three-dimensional object probabilities twice, the cell S31 of the stationary grid S is "+0.5", the cell S32 is "+1", the cell S23 is "+1.5", and the cell S33 is It becomes "-0.5".

この結果、セルS32、S23の立体物確率が高くなっており、推定立体物が立体物である確率が高いということになり、距離情報が得られていない無点セルであっても、立体物の存在を検出することができるようになる。
なお、推定立体物から立体物への判定においては、上記したように鳥瞰グリッドGの点群情報を2回取得して求めることもできるし、3回以上の複数回の取得結果により求めることもできる。
As a result, the probabilities of the three-dimensional objects of the cells S32 and S23 are high, which means that the probability that the estimated three-dimensional object is a three-dimensional object is high. Will be able to detect the existence of.
In the determination from the estimated three-dimensional object to the three-dimensional object, the point cloud information of the bird's-eye view grid G can be acquired twice as described above, or can be obtained based on the acquisition results of three or more times. it can.

このような第1実施形態によれば、制御装置2により、3次元距離検出部3が検出した距離情報に基づいて路面R上の立体物を判定する際に、距離情報が得られない無点セルが有るときは立体物が存在した場合を仮定して最も高い推定立体物の存在を推定して立体物確率を、推定重みα(=0.5)を乗ずることで設定した。これにより、静止グリッドS上で複数回の結果を加算することで、立体物確率が上昇したセルに対して立体物が存在することを判定することができるようになる。 According to such a first embodiment, when the control device 2 determines a three-dimensional object on the road surface R based on the distance information detected by the three-dimensional distance detection unit 3, no distance information can be obtained. When there is a cell, the existence of the highest estimated three-dimensional object is estimated assuming the existence of a three-dimensional object, and the three-dimensional object probability is set by multiplying the estimated weight α (= 0.5). As a result, by adding the results a plurality of times on the stationary grid S, it becomes possible to determine that a three-dimensional object exists for the cell whose probability of the three-dimensional object has increased.

この結果、自車両Aの周囲にレーザレーダにより照射したレーザ光による距離情報が得られない無点セルが存在する場合でも、立体物の存在を推定することができるようになり、路面R上に存在する立体物の推定を適切に行うことができるようになる。 As a result, even if there is a pointless cell around the own vehicle A for which distance information due to the laser beam irradiated by the laser radar cannot be obtained, the existence of a three-dimensional object can be estimated, and the presence of a three-dimensional object can be estimated on the road surface R. It becomes possible to appropriately estimate the existing three-dimensional object.

(第2実施形態)
図16〜図21は第2実施形態を示すもので、以下、第1実施形態と異なる部分について説明する。この実施形態は、無点セルが有る場合の処理方法において検出精度を高めることができるようにしたものである。
(Second Embodiment)
16 to 21 show the second embodiment, and the parts different from the first embodiment will be described below. In this embodiment, the detection accuracy can be improved in the processing method when there is a pointless cell.

図16は、第1実施形態で示した図11に対応するもので、図10と同様に点群情報が得られたときに、この実施形態では、制御装置2は、図5で示した物体検出処理のステップS9、S10での推定立体物に関する処理を次のようにして行う。すなわち、制御装置2は、無点領域NPでの推定立体物の算出過程において、無点セルが連続する場合には、無点セル毎に立体物を推定する。 FIG. 16 corresponds to FIG. 11 shown in the first embodiment, and when the point cloud information is obtained as in FIG. 10, in this embodiment, the control device 2 is the object shown in FIG. The processing related to the estimated three-dimensional object in steps S9 and S10 of the detection process is performed as follows. That is, in the calculation process of the estimated three-dimensional object in the pointless region NP, the control device 2 estimates the three-dimensional object for each pointless cell when the pointless cells are continuous.

図17に示すように、例えば無点領域NPがn個の連続する無点セルからなる場合には、制御装置2は、n個の無点セルのそれぞれについて最も高い立体物を推定する。ここでは、第1実施形態と同様に、無点領域NPの遠点距離をreとしている。また、無点領域NPの最も近い無点セルの近点位置をr1とし、k番目(n≧k>1の整数)の無点セルの近点位置をrkとしている。前述同様に3次元距離検出部3の高さをT0とすると、各無点セル内に存在し得る最も高い立体物は、近点位置rkに存在した場合を想定すると、その高さTkは、次式(B)で算出できる。
Tk=T0・(re−rk)/re …(B)
この場合、式(B)は、最も近い位置の無点セルについては式(A)と同じ式となる。また、遠い位置にある無点セルについては、分子の値すなわち遠点reとの距離の差が小さくなるので、推定立体物の高さTkがしきい値以下になることがある。
As shown in FIG. 17, for example, when the pointless region NP consists of n consecutive pointless cells, the control device 2 estimates the highest three-dimensional object for each of the n pointless cells. Here, as in the first embodiment, the far point distance of the pointless region NP is set to re. Further, the near point position of the closest pointless cell in the no point region NP is r1, and the near point position of the kth (integer of n ≧ k> 1) is rk. As described above, assuming that the height of the three-dimensional distance detection unit 3 is T0, the height Tk is the height Tk, assuming that the highest three-dimensional object that can exist in each pointless cell exists at the near point position rk. It can be calculated by the following formula (B).
Tk = T0 ・ (re-rk) / re… (B)
In this case, the formula (B) is the same as the formula (A) for the pointless cell at the closest position. Further, for a pointless cell located at a distant position, the difference in the distance from the molecular value, that is, the distant point re becomes small, so that the height Tk of the estimated three-dimensional object may be equal to or less than the threshold value.

したがって、例えば図16に示す例では、無点領域NPの3個の無点セルGa2〜Ga4の内、近い側の無点セルGa2、Ga3はしきい値以上となる推定立体物であるので、立体物確率として「0.5」が設定される。一方、無点領域NPの遠い位置の無点セルGa4はしきい値よりも低い推定立体物であるので路面としてみなされ、立体物確率として「−1」が設定される。 Therefore, for example, in the example shown in FIG. 16, among the three pointless cells Ga2 to Ga4 in the pointless region NP, the pointless cells Ga2 and Ga3 on the near side are estimated three-dimensional objects having a threshold value or more. "0.5" is set as the three-dimensional object probability. On the other hand, since the pointless cell Ga4 at a position far from the pointless region NP is an estimated three-dimensional object lower than the threshold value, it is regarded as a road surface, and "-1" is set as the three-dimensional object probability.

図18〜図21では、第1実施形態と同様に、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。図18(b)は、図12(b)と同様の条件で取得された点群情報の分布図であるが、この実施形態では、無点領域NPの2個の無点セルGa1、Ga2のうち、制御装置2によりステップS9での処理で、無点セルGa1で推定立体物が推定され、無点セルGa2で路面が推定された場合で説明する。 18 to 21 show a specific example of converting the information detected by the bird's-eye view grid G into the static grid S, as in the first embodiment. FIG. 18B is a distribution diagram of the point cloud information acquired under the same conditions as in FIG. 12B, but in this embodiment, the two pointless cells Ga1 and Ga2 of the pointless area NP Among these, the case where the estimated three-dimensional object is estimated in the pointless cell Ga1 and the road surface is estimated in the pointless cell Ga2 in the process in step S9 by the control device 2 will be described.

図18(b)に示す鳥瞰グリッドGでは、無点領域NPの2個の無点セルGa1、Ga2のうち、推定立体物が検出された無点セルGa1では「+0.5」が設定され、路面が判定された無点セルGa2では「−1」が設定されている。 In the bird's-eye view grid G shown in FIG. 18B, “+0.5” is set in the pointless cell Ga1 in which the estimated three-dimensional object is detected among the two pointless cells Ga1 and Ga2 in the pointless region NP. In the pointless cell Ga2 where the road surface is determined, "-1" is set.

制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換した後、静止グリッドS上に鳥瞰グリッドGを重ねると、図18(a)に示すようになる。この結果、図19に示すように、無点セルGa1の立体物確率「+0.5」がセルS31に、無点セルGa2の立体物確率「−1」がセルS32に変換されている。 The control device 2 converts the cell information of the bird's-eye view grid G into the cell information of the static grid S in step S11, and then superimposes the bird's-eye view grid G on the static grid S, as shown in FIG. 18A. As a result, as shown in FIG. 19, the three-dimensional object probability "+0.5" of the pointless cell Ga1 is converted to the cell S31, and the three-dimensional object probability "-1" of the pointless cell Ga2 is converted to the cell S32.

この後、制御装置2は、自車両Aの位置をシフトさせてから同様の処理をすることで、移動先の位置での新たな鳥瞰グリッドGの点群情報から、図20(b)に示すような無点セルの分布状態を得る。推定立体物の算出処理を式(B)に従って演算した結果、無点セルGb1、Gc2は路面として判定されたため「−1」が設定され、無点セルGc0、Gc1は推定立体物と判定されたため「+0.5」が設定される。 After that, the control device 2 shifts the position of the own vehicle A and then performs the same processing, so that the point cloud information of the new bird's-eye view grid G at the position of the movement destination is shown in FIG. 20 (b). The distribution state of the pointless cells is obtained. As a result of calculating the estimated three-dimensional object according to the equation (B), since the pointless cells Gb1 and Gc2 were determined as road surfaces, "-1" was set, and the pointless cells Gc0 and Gc1 were determined to be estimated three-dimensional objects. "+0.5" is set.

このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図20(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2のうち、推定立体物が設定された無点セルGc0、Gc1に対して、静止グリッドSのセルS32に対して立体物確率「+0.5」が設定される。 When the cell information of the bird's-eye view grid G is converted in association with the cell information of the static grid S, it becomes as shown in FIG. 20A. Here, of the four pointless cells Gb1 and Gc0 to Gc2, the three-dimensional object probability "+0.5" with respect to the cell S32 of the stationary grid S with respect to the pointless cells Gc0 and Gc1 in which the estimated three-dimensional object is set. "Is set.

次に、制御装置2は、上記の結果得られた図20に示す静止グリッドSの立体物確率のデータを前述の図19に示した静止グリッドSに加算する。この結果、図21に示すような加算された静止グリッドSが得られる。この図21からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」となるが、セルS32は「−0.5」、セルS23は「0」、セルS33は「−2」となる。 Next, the control device 2 adds the three-dimensional object probability data of the stationary grid S shown in FIG. 20 obtained as a result of the above to the stationary grid S shown in FIG. 19 described above. As a result, the added static grid S as shown in FIG. 21 is obtained. As can be seen from FIG. 21, the cell S31 of the stationary grid S becomes "+0.5" by adding the three-dimensional object probabilities twice, but the cell S32 is "-0.5" and the cell S23 is "0". , Cell S33 becomes "-2".

この結果、セルS32の立体物確率が「+0.5」であるから立体物の存在が確認できないが可能性は残った状態である。また、他の無点セルS32、S23、S33は負の立体物確率となることから路面である可能性が高くなっている。 As a result, since the probability of the three-dimensional object in the cell S32 is "+0.5", the existence of the three-dimensional object cannot be confirmed, but the possibility remains. Further, since the other pointless cells S32, S23, and S33 have a negative three-dimensional object probability, there is a high possibility that they are road surfaces.

このような第2実施形態によれば、第1実施形態と同様の作用効果を得る事ができるとともに、制御装置2により、無点領域NPが複数の無点セルからなる場合には、無点セル毎に最も高い推定立体物を算出するようにしたので、さらにセル毎に細かい判定を行うことができるようになる。 According to such a second embodiment, the same action and effect as those of the first embodiment can be obtained, and when the no-point region NP is composed of a plurality of no-point cells by the control device 2, no points are obtained. Since the highest estimated three-dimensional object is calculated for each cell, it becomes possible to make a finer judgment for each cell.

(第3実施形態)
図22〜図26は第3実施形態を示すもので、以下、第2実施形態と異なる部分について説明する。この実施形態は、無点セルの推定立体物について立体物確率の設定の仕方を高さに応じて設定するようにしているものである。
(Third Embodiment)
22 to 26 show the third embodiment, and the parts different from the second embodiment will be described below. In this embodiment, the method of setting the three-dimensional object probability for the estimated three-dimensional object of the pointless cell is set according to the height.

図22は、第2実施形態で示した図16に対応するもので、図10と同様に点群情報が得られたときに、この実施形態では、制御装置2は、図5で示した物体検出処理のステップS9、S10での推定立体物に関する処理を次のようにして行う。すなわち、制御装置2は、無点領域NPでの推定立体物の算出過程において、無点セルが連続する場合には、無点セル毎に立体物を推定する。 FIG. 22 corresponds to FIG. 16 shown in the second embodiment, and when the point cloud information is obtained as in FIG. 10, in this embodiment, the control device 2 is the object shown in FIG. The processing related to the estimated three-dimensional object in steps S9 and S10 of the detection process is performed as follows. That is, in the calculation process of the estimated three-dimensional object in the pointless region NP, the control device 2 estimates the three-dimensional object for each pointless cell when the pointless cells are continuous.

ここでは、制御装置2は、第2実施形態と同様にして式(B)に基いて推定立体物の最も高い値を演算する。この結果、無点領域NP内では、図17にも示したように、物体検出装置1に近い側の無点セルの高さが高く、遠くなる程低くなる。制御装置2は、この推定立体物の高さに応じて、例えば、高いと推定重みαを「0.8」のように大きく設定し、低いと推定重みαを「0.2」のように低く設定している。この結果、制御装置2は、ステップS10で、図22に示すように、各セルに対応して立体物確率が設定される。 Here, the control device 2 calculates the highest value of the estimated three-dimensional object based on the equation (B) in the same manner as in the second embodiment. As a result, in the pointless region NP, as shown in FIG. 17, the height of the pointless cell on the side closer to the object detection device 1 is high, and the height becomes lower as the distance increases. The control device 2 sets the estimated weight α as large as “0.8” when it is high, and sets the estimated weight α as “0.2” when it is low, depending on the height of the estimated three-dimensional object, for example. It is set low. As a result, in step S10, as shown in FIG. 22, the control device 2 sets the three-dimensional object probability corresponding to each cell.

図23〜図26では、第2実施形態と同様に、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。図23(b)は、図18(b)と同様の条件で取得された点群情報の分布図であるが、この実施形態では、制御装置2によりステップS9での処理で、無点領域NPの2個の無点セルGa1、Ga2で推定立体物が推定され、推定重みαが推定立体物の高さに応じて異なるように対応付けられた結果の立体物確率が示されている。ここでは、例えば、無点セルGa1で「+0.5」が設定され、無点セルGa2で「+0.3」が設定された場合で説明する。 23 to 26 show a specific example of converting the information detected by the bird's-eye view grid G into the static grid S, as in the second embodiment. FIG. 23 (b) is a distribution diagram of the point cloud information acquired under the same conditions as in FIG. 18 (b). However, in this embodiment, the control device 2 performs the process in step S9 to create a pointless region NP. The estimated three-dimensional object is estimated by the two pointless cells Ga1 and Ga2, and the probability of the three-dimensional object as a result of associating the estimated weight α so as to be different according to the height of the estimated three-dimensional object is shown. Here, for example, a case where “+0.5” is set in the pointless cell Ga1 and “+0.3” is set in the pointless cell Ga2 will be described.

制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換した後、静止グリッドS上に鳥瞰グリッドGを重ねると、図23(a)に示すようになる。この結果、図24に示すように、無点セルGa1の立体物確率「+0.5」がセルS31に、無点セルGa2の立体物確率「+0.3」がセルS32に変換されている。 The control device 2 converts the cell information of the bird's-eye view grid G into the cell information of the static grid S in step S11, and then superimposes the bird's-eye view grid G on the static grid S, as shown in FIG. 23 (a). As a result, as shown in FIG. 24, the three-dimensional object probability “+0.5” of the pointless cell Ga1 is converted to the cell S31, and the three-dimensional object probability “+0.3” of the pointless cell Ga2 is converted to the cell S32.

この後、制御装置2は、自車両Aの位置をシフトさせてから同様の処理をすることで、移動先の位置での新たな鳥瞰グリッドGの点群情報から、図25(b)に示すような無点セルの分布状態を得る。推定立体物の算出処理を式(B)に従って演算した結果、無点セルGb1、Gc0〜Gc2の全てにおいて推定立体物が検出されている。すなわち、無点セルGb1で「+0.2」、無点セルGb0で「+0.5」、無点セルGc1で「+0.2」、無点セルGc2で「+0.1」が設定される。 After that, the control device 2 shifts the position of the own vehicle A and then performs the same processing, so that the point cloud information of the new bird's-eye view grid G at the position of the movement destination is shown in FIG. 25 (b). The distribution state of the pointless cells is obtained. As a result of calculating the estimated three-dimensional object according to the equation (B), the estimated three-dimensional object is detected in all of the pointless cells Gb1 and Gc0 to Gc2. That is, "+0.2" is set in the pointless cell Gb1, "+0.5" is set in the pointless cell Gb0, "+0.2" is set in the pointless cell Gc1, and "+0.1" is set in the pointless cell Gc2.

このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図25(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2に対して、立体物確率は、静止グリッドSのセルS32に対して「+0.5」、セルS33に対して「+0.2」、セルS23に対して「+0.1」が設定される。 When the cell information of the bird's-eye view grid G is converted in association with the cell information of the static grid S, it becomes as shown in FIG. 25 (a). Here, for the four pointless cells Gb1 and Gc0 to Gc2, the three-dimensional object probabilities are "+0.5" for the cell S32 of the stationary grid S, "+0.2" for the cell S33, and the cell. “+0.1” is set for S23.

次に、制御装置2は、上記の結果得られた図25(a)に示す静止グリッドSの立体物確率のデータを前述の図24に示した静止グリッドSに加算する。この結果、図26に示すような加算された静止グリッドSが得られる。この図26からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」、セルS32が「+0.8」、セルS23が「+1.1」、セルS33が「−0.8」となる。 Next, the control device 2 adds the data of the three-dimensional object probability of the stationary grid S shown in FIG. 25A obtained as a result to the stationary grid S shown in FIG. 24 described above. As a result, the added static grid S as shown in FIG. 26 is obtained. As can be seen from FIG. 26, by adding the three-dimensional object probabilities twice, the cell S31 of the stationary grid S is "+0.5", the cell S32 is "+0.8", the cell S23 is "+1.1", and the cell. S33 becomes "-0.8".

この結果、セルS32とS23で立体物確率が高くなり、立体物が存在する可能性が高くなっている。また、他の無点セルS33は負の立体物確率となることから路面である可能性が高くなっている。 As a result, the probability of the three-dimensional object is high in the cells S32 and S23, and the possibility that the three-dimensional object exists is high. Further, since the other pointless cell S33 has a negative three-dimensional object probability, there is a high possibility that it is a road surface.

このような第3実施形態によれば、第2実施形態と同様の作用効果を得ることができるとともに、制御装置2により、無点領域NPが複数の無点セルから算出される推定立体物の高さに応じて推定重みαを乗じて立体物確率を求めるようにしたので、さらにセル毎に立体物の判定を細かく行うことができるようになる。 According to such a third embodiment, it is possible to obtain the same action and effect as in the second embodiment, and the control device 2 calculates the pointless region NP from the plurality of pointless cells. Since the probability of the three-dimensional object is obtained by multiplying the estimated weight α according to the height, it becomes possible to further finely determine the three-dimensional object for each cell.

(他の実施形態)
なお、本発明は、上述した実施形態のみに限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能であり、例えば、以下のように変形または拡張することができる。
(Other embodiments)
The present invention is not limited to the above-described embodiment, and can be applied to various embodiments without departing from the gist thereof. For example, the present invention can be modified or extended as follows.

上記各実施形態では、鳥瞰グリッドGとして、自車両Aの前方に向けた範囲を設定した場合を示したが、自車両Aの側方や後方などにも向けた範囲を設定することもできる。この場合には、検出方向に対応して複数の3次元距離検出部を設けることができる。 In each of the above embodiments, as the bird's-eye view grid G, a case where a range facing the front of the own vehicle A is set is shown, but a range facing the side or the rear of the own vehicle A can also be set. In this case, a plurality of three-dimensional distance detection units can be provided corresponding to the detection direction.

鳥瞰グリッドGの各セルに対応して立体物確率を検出したものを静止グリッドSに変換する際に、物体検出装置1の位置を静止グリッドSの位置に対応させて行う例を示したが、鳥瞰グリッドGを物体検出装置1の位置を固定した直交座標による直交グリッドを想定し、この直交グリッドに変換した後、これを静止グリッドSの位置に対応して重ねあわせるように処理しても良い。 An example is shown in which the position of the object detection device 1 is made to correspond to the position of the stationary grid S when converting the three-dimensional object probability detected corresponding to each cell of the bird's-eye view grid G to the stationary grid S. The bird's-eye view grid G may be assumed to be an orthogonal grid with orthogonal coordinates in which the position of the object detection device 1 is fixed, converted to this orthogonal grid, and then processed so as to be superimposed corresponding to the position of the stationary grid S. ..

図面中、1は物体検出装置、2は制御装置、2aは立体物検出部、2bは路面検出部、2cは立体物推定部、2dは立体物判定部、3は3次元距離検出部、4は記憶部、5は出力部である。 In the drawing, 1 is an object detection device, 2 is a control device, 2a is a three-dimensional object detection unit, 2b is a road surface detection unit, 2c is a three-dimensional object estimation unit, 2d is a three-dimensional object determination unit, and 3 is a three-dimensional distance detection unit, 4 Is a storage unit, and 5 is an output unit.

Claims (3)

自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出部(3)と、
前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出部(2a)と、
前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出部(2b)と、
前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定部(2c)と、
路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定部(2d)とを備え
前記立体物判定部(2d)は、前記立体物推定部により推定された推定立体物の高さに応じて推定重みを設定し、前記自車両の移動に伴う前記3次元距離情報から得た前記推定立体物の推定重みを複数回連続して加算した値が増加する場合に前記立体物を検出する物体検出装置。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。
A three-dimensional distance detection unit (3) that acquires at least three-dimensional distance information in front of the own vehicle, and
A three-dimensional object detection unit (2a) that detects the presence or absence of a three-dimensional object based on the three-dimensional distance information for each cell divided by a bird's-eye view grid based on the viewpoint of the three-dimensional distance detection unit.
When the three-dimensional object is present, a road surface detection unit (2b) that detects a pointed cell having distance information between the own vehicle and the three-dimensional object as a road surface,
When there is a pointless area including a pointless cell having no distance information between the own vehicle and the three-dimensional object, the estimated three-dimensional object having the maximum height T1 that can exist in the pointless area is calculated by the following equation ( The three-dimensional object estimation unit (2c) estimated by A) and
At least the cell of the estimated three-dimensional object is converted into a cell of the stationary grid with reference to the road surface, and the three-dimensional object estimation unit uses the new three-dimensional distance information obtained by the three-dimensional distance detection unit as the vehicle moves. It is provided with a three-dimensional object determination unit (2d) that detects as a three-dimensional object when the estimated cells of the estimated three-dimensional object are repeatedly estimated at the same road surface position when converted into the stationary grid .
The three-dimensional object determination unit (2d) sets an estimated weight according to the height of the estimated three-dimensional object estimated by the three-dimensional object estimation unit, and obtains the three-dimensional distance information obtained from the movement of the own vehicle. An object detection device that detects a three-dimensional object when the value obtained by continuously adding the estimated weights of the estimated three-dimensional objects increases .
T1 = T0 ・ (re-r1) / re… (A)
However, T0: the height of the three-dimensional distance detection unit, re: the far point distance of the no point region, and r1: the near point distance of the no point region.
請求項1に記載の物体検出装置において、
前記立体物推定部(2c)は、前記無点領域が複数個の連続する無点セルである場合に、前記無点セル毎に存在し得る最大高さTkの推定立体物を次式(B)により推定する物体検出装置。
Tk=T0・(re−rk)/re …(B)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、rk:対象となる無点セルの近点距離である。
In the object detection device according to claim 1,
The three-dimensional object estimation unit (2c) uses the following equation (B) to calculate an estimated three-dimensional object having a maximum height Tk that can exist for each of the pointless cells when the pointless region is a plurality of continuous pointless cells. ) Is an object detection device.
Tk = T0 ・ (re-rk) / re… (B)
However, T0: the height of the three-dimensional distance detection unit, re: the far point distance of the no point region, and rk: the near point distance of the target no point cell.
コンピュータに、
自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出処理、
前記3次元距離検出処理での視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出処理、
前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出処理、
前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定処理、
路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出処理により得られる新たな3次元距離情報から前記立体物推定処理により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定処理を実行させ
前記立体物判定処理では、前記立体物推定処理により推定された推定立体物の高さに応じて推定重みを設定し、前記自車両の移動に伴う前記3次元距離情報から得た前記推定立体物の推定重みを複数回連続して加算した値が増加する場合に前記立体物を検出する物体検出プログラム。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。
On the computer
3D distance detection processing that acquires at least 3D distance information in front of the own vehicle,
Three-dimensional object detection process for detecting the presence or absence of the three-dimensional object on the basis of the three-dimensional distance information for each separated by cell in bird's eye view grid relative to the viewpoint in the three-dimensional distance detecting process,
A road surface detection process for detecting a pointed cell having distance information between the own vehicle and the three-dimensional object as a road surface when the three-dimensional object is present.
When there is a pointless area including a pointless cell having no distance information between the own vehicle and the three-dimensional object, the estimated three-dimensional object having the maximum height T1 that can exist in the pointless area is calculated by the following equation ( Three-dimensional object estimation process estimated by A),
At least the cells of the estimated three-dimensional object are converted into cells of the stationary grid with reference to the road surface, and the three-dimensional object estimation process is performed from the new three-dimensional distance information obtained by the three-dimensional distance detection process as the own vehicle moves. When the estimated cell of the estimated three-dimensional object is converted into the stationary grid, a three-dimensional object determination process for detecting as a three-dimensional object when it is repeatedly estimated at the same road surface position is executed .
In the three-dimensional object determination process, the estimated weight is set according to the height of the estimated three-dimensional object estimated by the three-dimensional object estimation process, and the estimated three-dimensional object obtained from the three-dimensional distance information accompanying the movement of the own vehicle. An object detection program that detects a three-dimensional object when the value obtained by adding the estimated weights of is increased a plurality of times in succession .
T1 = T0 ・ (re-r1) / re… (A)
However, T0: the height of the three-dimensional distance detection unit, re: the far point distance of the no point region, and r1: the near point distance of the no point region.
JP2016052311A 2016-03-16 2016-03-16 Object detection device and object detection program Active JP6756124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016052311A JP6756124B2 (en) 2016-03-16 2016-03-16 Object detection device and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016052311A JP6756124B2 (en) 2016-03-16 2016-03-16 Object detection device and object detection program

Publications (2)

Publication Number Publication Date
JP2017166971A JP2017166971A (en) 2017-09-21
JP6756124B2 true JP6756124B2 (en) 2020-09-16

Family

ID=59913744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052311A Active JP6756124B2 (en) 2016-03-16 2016-03-16 Object detection device and object detection program

Country Status (1)

Country Link
JP (1) JP6756124B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6941226B2 (en) 2018-03-22 2021-09-29 日立Astemo株式会社 Object recognition device
WO2019186641A1 (en) * 2018-03-26 2019-10-03 三菱電機株式会社 Object detection device, vehicle, object detection method, and object detection program
CN110599762A (en) * 2018-06-12 2019-12-20 光宝电子(广州)有限公司 Road condition sensing system and method
KR102144048B1 (en) * 2018-07-11 2020-08-12 경북대학교 산학협력단 Method and device for extracting motion position by applying weights during beam scanning analysis
JP7147651B2 (en) * 2019-03-22 2022-10-05 トヨタ自動車株式会社 Object recognition device and vehicle control system
JP7152355B2 (en) * 2019-05-20 2022-10-12 株式会社Soken Obstacle detection device and obstacle detection method
EP4004584A2 (en) * 2019-07-26 2022-06-01 DEKA Products Limited Partnership System and method for free space estimation
JP7406350B2 (en) * 2019-11-15 2023-12-27 日本信号株式会社 Object detection device and object detection program
CN110850439B (en) * 2020-01-15 2020-04-21 奥特酷智能科技(南京)有限公司 High-precision three-dimensional point cloud map construction method
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
KR20230026130A (en) 2021-08-17 2023-02-24 충북대학교 산학협력단 Single stage 3-Dimension multi-object detecting apparatus and method for autonomous driving

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000146547A (en) * 1998-11-17 2000-05-26 Toyota Central Res & Dev Lab Inc Detector for shape of obstacle for vehicle
JP2000181541A (en) * 1998-12-21 2000-06-30 Komatsu Ltd Self-traveling type vehicle
JP4960599B2 (en) * 2005-03-23 2012-06-27 三井造船株式会社 Collision prevention device and vehicle equipped with collision prevention device
JP4887849B2 (en) * 2006-03-16 2012-02-29 日産自動車株式会社 Vehicle obstacle detection device, road obstacle detection method, and vehicle with road obstacle detection device
JP5531474B2 (en) * 2008-12-12 2014-06-25 株式会社豊田中央研究所 Map generation device, runway estimation device, movable region estimation device, and program
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation

Also Published As

Publication number Publication date
JP2017166971A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6756124B2 (en) Object detection device and object detection program
KR102463720B1 (en) System and Method for creating driving route of vehicle
US10684133B2 (en) Route generator, route generation method, and route generation program
CN104181512B (en) The method and apparatus of the misalignment of radar sensor for seeking vehicle
US11255681B2 (en) Assistance control system
JP6453701B2 (en) Posture estimation device
CN110632617B (en) Laser radar point cloud data processing method and device
US10325163B2 (en) Vehicle vision
CN110674705A (en) Small-sized obstacle detection method and device based on multi-line laser radar
KR102464581B1 (en) Apparatus for processing stereo points of cloud and method thereof
JP2017015409A (en) Road surface detection device, mobile body, road surface detection method, and road surface detection program
JP2019046150A (en) Travel support device
JP6297956B2 (en) Route generator
GB2560619A (en) Object tracking by unsupervised learning
EP3499483A1 (en) Object detection device and vehicle control system comprising object detection device
JP2012123471A (en) Object recognition device
US11400923B2 (en) Information processing device, vehicle control device, and mobile object control method
CN106080397A (en) Self-adaption cruise system and mobile unit
CN114384491B (en) Point cloud processing method and device for laser radar and storage medium
JP7130580B2 (en) Road surface detector
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
JP2018206038A (en) Point group data processing device, mobile robot, mobile robot system, and point group data processing method
US20220137207A1 (en) Systems and methods for radar false track mitigation with camera
JP6631226B2 (en) Own lane information estimation device
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R151 Written notification of patent or utility model registration

Ref document number: 6756124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250