JP2003030792A - Device and method for discriminating type of object - Google Patents

Device and method for discriminating type of object

Info

Publication number
JP2003030792A
JP2003030792A JP2001211707A JP2001211707A JP2003030792A JP 2003030792 A JP2003030792 A JP 2003030792A JP 2001211707 A JP2001211707 A JP 2001211707A JP 2001211707 A JP2001211707 A JP 2001211707A JP 2003030792 A JP2003030792 A JP 2003030792A
Authority
JP
Japan
Prior art keywords
vehicle
detection points
grouped
detected
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001211707A
Other languages
Japanese (ja)
Other versions
JP3649163B2 (en
Inventor
Tomoko Shimomura
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2001211707A priority Critical patent/JP3649163B2/en
Publication of JP2003030792A publication Critical patent/JP2003030792A/en
Application granted granted Critical
Publication of JP3649163B2 publication Critical patent/JP3649163B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely discriminate the type of an object on a road where a vehicle travels and at the periphery, especially, a reflection object installed along a lane. SOLUTION: Detection points whose distances from a self-vehicle differ among a plurality of detection points detected by a scanning laser radar are made to be the objects of grouping. The point strings of the detection points whose distances with the adjacent detection points are not more than a prescribed value are grouped. When the point string of the grouped detection points is not less than prescribed length, or when it is hourly continuously detected, the object shown by the grouped point string is recognized as one gathered object. A plurality of center poles which are continuously arranged in a depth direction to which the self-vehicle 100 travels can be recognized as the block of the center poles.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車両前方に存在す
る物体の種別を判別する物体種別判別装置及び物体種別
判別方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object type discriminating apparatus and an object type discriminating method for discriminating the type of an object existing in front of a vehicle.

【0002】[0002]

【従来の技術】近年、車両が走行する道路上及びその周
囲の物体を認識し、その認識結果に応じて車両のブレー
キアクチュエータやスロットルアクチュエータを駆動す
ることで、車両の走行を自動制御する車両走行自動制御
システムの研究開発が盛んに進められている。このよう
な車両走行自動制御システムでは、車両の走行制御を適
切に行う上で、自車両前方に存在する物体の種別を的確
に判別することが非常に重要であり、従来、このような
物体の種別を判別する装置として、スキャニングレーザ
レーダを用いた物体種別判別装置が一般的に用いられて
いる。
2. Description of the Related Art In recent years, a vehicle traveling system which automatically controls the traveling of the vehicle by recognizing an object on and around a road on which the vehicle is traveling and driving a brake actuator or a throttle actuator of the vehicle in accordance with the recognition result. Research and development of automatic control systems are being actively pursued. In such an automatic vehicle traveling control system, it is very important to accurately determine the type of an object existing in front of the host vehicle in order to appropriately control the traveling of the vehicle. As an apparatus for discriminating the type, an object type discriminating apparatus using a scanning laser radar is generally used.

【0003】このスキャニングレーザレーダを用いた物
体種別判別装置は、通常、自車両前方に向けてパルス状
のレーザ光を出射してこれを走査させ、自車両前方に存
在する物体にて反射された反射レーザ光を複数の検出点
の点列として検出する。そして、検出された複数の検出
点の中から、自車両からの距離が略等しく、互いに近接
した位置にあるものを同一の物体を示す検出点の点列と
してグルーピングする。そして、このグルーピングされ
た検出点の点列の大きさや形状、自車両や他のグルーピ
ングされた検出点の点列との位置関係等から、この検出
点の点列で示される物体の種別を判別するようにしてい
る。
An object type discriminating apparatus using this scanning laser radar normally emits a pulsed laser beam toward the front of the host vehicle, scans the laser beam, and is reflected by an object in front of the host vehicle. The reflected laser light is detected as a point sequence of a plurality of detection points. Then, among a plurality of detected points detected, those having a substantially equal distance from the own vehicle and located close to each other are grouped as a point sequence of detection points indicating the same object. Then, the type of the object indicated by the point sequence of the detection points is determined based on the size and shape of the point sequence of the grouped detection points, the positional relationship between the host vehicle and the point sequence of the other grouped detection points, and the like. I am trying to do it.

【0004】[0004]

【発明が解決しようとする課題】ところで、車両が走行
する道路上には、センターラインを示すキャッツアイと
呼ばれる反射体や、反射面を有するセンターポール等が
設置されている場合がある。これらキャッツアイやセン
ターポールは、通常、車両が走行する奥行き方向に所定
間隔を存して連続して設置されている。
By the way, there are cases where a reflector called a cat's eye indicating a center line, a center pole having a reflecting surface, or the like is installed on a road on which a vehicle travels. These cat's eyes and center poles are normally continuously installed at a predetermined interval in the depth direction in which the vehicle travels.

【0005】これらキャッツアイやセンターポールは、
同一の物体が所定間隔を存して連続して設置されている
ものであるが、上述した物体種別判別装置では、自車両
からの距離が等しい検出点の点列をグルーピングするよ
うにしているので、これらキャッツアイやセンターポー
ルが1つ1つ個別の物体として認識されていた。このた
め、自車両がキャッツアイやセンターポールが設置され
た道路上を走行している間は、これらキャッツアイやセ
ンターポールの認識処理に長時間を要し、ブレーキアク
チュエータやスロットルアクチュエータの駆動制御に悪
影響を与えてしまう場合があった。また、キャッツアイ
やセンターポールを1つ1つ個別の物体として認識する
ようにした場合、他の物体との関係から誤認識が生じる
場合が多く、このような物体の誤認識に起因して適切な
走行制御が阻害されてしまう場合もあった。
These cat's eyes and center poles are
Although the same object is continuously installed with a predetermined interval, in the above-mentioned object type determination device, the point sequences of the detection points having the same distance from the own vehicle are grouped. , The cat's eyes and center poles were recognized as individual objects. Therefore, while the vehicle is traveling on the road where the cat's eye and center pole are installed, it takes a long time to recognize the cat's eye and center pole, and it is necessary to control the drive of the brake actuator and throttle actuator. There were cases where it had an adverse effect. In addition, when the cat's eye and the center pole are individually recognized as individual objects, erroneous recognition often occurs due to the relationship with other objects. In some cases, proper driving control was hindered.

【0006】このような問題に対処するものとして、例
えば、特開平11−45396号公報においては、グル
ーピングされた検出点の点列と他のグルーピングされた
検出点の点列との相対速度を算出し、これらの間で相対
速度が急変する頻度が高い場合に、車両がキャッツアイ
やセンターポールが設置された道路を走行中であると判
断して、これらの影響を排除するようにした手法が開示
されている。
In order to deal with such a problem, for example, in Japanese Patent Laid-Open No. 11-45396, the relative speed between a point sequence of grouped detection points and another point sequence of other grouped detection points is calculated. However, if there is a high frequency of relative speed changes between them, it is judged that the vehicle is traveling on the road where the cat's eye or center pole is installed, and a method is adopted to eliminate these effects. It is disclosed.

【0007】しかしながら、この特開平11−4539
6号公報にて開示される手法では、グルーピングされた
点列間の相対速度が急変する頻度を基準として、この相
対速度が急変する頻度が高い場合にキャッツアイやセン
ターポールが存在するものと判断するので、例えば、対
向車線を多数の車両が走行している場合等、キャッツア
イやセンターポールが設置された道路を走行中と同様
に、相対速度が変化する反射物体が多く存在する状況に
おいては、これらの反射物体をキャッツアイやセンター
ポールと誤認識してしまい、適切な車両の走行制御が行
えない場合がある。
However, this Japanese Patent Laid-Open No. 11-4539
In the method disclosed in Japanese Patent Publication No. 6, it is determined that a cat's eye or a center pole exists when the relative velocity between grouped point sequences changes rapidly, when the relative velocity changes rapidly. Therefore, for example, when many vehicles are traveling in an oncoming lane, as in the case of traveling on a road where cat's eyes and center poles are installed, in a situation where there are many reflective objects whose relative speed changes. In some cases, these reflective objects are erroneously recognized as a cat's eye or a center pole, and appropriate vehicle traveling control cannot be performed.

【0008】本発明は、以上のような従来の実情に鑑み
て創案されたものであって、車両が走行する道路上及び
その周囲の物体の種別、特に、車線に沿って設置された
反射物体を精度良く判別して、適切な車両の走行制御を
実現する物体種別判別装置及び物体種別判別方法を提供
することを目的としている。
The present invention was devised in view of the above conventional circumstances, and is of the type of objects on and around a road on which a vehicle is traveling, in particular, a reflective object installed along a lane. It is an object of the present invention to provide an object type determination device and an object type determination method that accurately determine the vehicle type and realize appropriate vehicle traveling control.

【0009】[0009]

【課題を解決するための手段】請求項1に記載の発明
は、車両に搭載されて車両前方に存在する物体の種別を
判別する物体種別判別装置であって、前記車両前方に送
信波を走査させ、その反射波をもとに前記車両前方に存
在する物体を複数の検出点の点列として検出する物体検
出手段と、前記物体検出手段により検出された複数の検
出点のうちで、前記車両からの距離が互いに異なり、且
つ、隣接する検出点間の距離が所定の値以下の検出点の
点列をグルーピングするグルーピング手段と、前記グル
ーピング手段によりグルーピングされた検出点の点列で
示される物体の種別を判別する判別手段とを備え、前記
判別手段が、前記グルーピング手段によりグルーピング
された検出点の点列の長さが所定の長さ以上の場合、或
いは、前記車両に対して同様の位置関係にある検出点の
点列が前記グルーピング手段により時間的に連続してグ
ルーピングされた場合、これらグルーピングされた検出
点の点列で示される物体を1まとまりの物体として認識
することを特徴とするものである。
According to a first aspect of the present invention, there is provided an object type discriminating apparatus which is mounted on a vehicle and discriminates a type of an object existing in front of the vehicle. The object detection means for detecting an object existing in front of the vehicle as a point sequence of a plurality of detection points based on the reflected wave, and the plurality of detection points detected by the object detection means. From each other, and the distance between adjacent detection points is a grouping means for grouping point sequences of detection points having a predetermined value or less, and an object represented by the point sequence of detection points grouped by the grouping means. Discriminating means for discriminating the type of the point group, the discriminating means, when the length of the point sequence of the detection points grouped by the grouping means is a predetermined length or more, When the point sequences of the detection points having the same positional relationship are continuously grouped in time by the grouping means, the objects indicated by the point sequences of the grouped detection points are recognized as a group of objects. It is characterized by.

【0010】また、請求項2に記載の発明は、請求項1
に記載の物体種別判別装置において、前記グルーピング
手段が、前記物体検出手段により検出された複数の検出
点のうちで、前記車両からの距離が略等しく、且つ、隣
接する検出点間の距離が所定の値以下の検出点の点列も
グルーピングすることを特徴とするものである。
The invention described in claim 2 is the same as claim 1.
In the object type identification device described in the paragraph 1, the grouping means has a plurality of detection points detected by the object detection means, the distance from the vehicle is substantially equal, and the distance between adjacent detection points is predetermined. The feature is that the point sequence of the detection points equal to or less than the value of is also grouped.

【0011】また、請求項3に記載の発明は、請求項1
又は2に記載の物体種別判別装置において、前記車両前
方の画像を撮像する撮像手段と、前記撮像手段により撮
像された画像を処理する画像処理手段とを更に備え、前
記グルーピング手段が、前記画像処理手段により処理さ
れた前記車両前方の画像をもとに、前記物体検出手段に
より検出された複数の検出点の点列をグルーピングする
ことを特徴とするものである。
The invention described in claim 3 is the same as claim 1.
Or the object type determination device according to item 2, further comprising: an image pickup unit that picks up an image in front of the vehicle; and an image processing unit that processes an image picked up by the image pickup unit, wherein the grouping unit is the image processing unit. It is characterized in that a point sequence of a plurality of detection points detected by the object detecting means is grouped based on the image in front of the vehicle processed by the means.

【0012】また、請求項4に記載の発明は、請求項3
に記載の物体種別判別装置において、前記画像処理手段
が、前記撮像手段により撮像された画像を処理して前記
車両前方の車線を検出し、前記グルーピング手段が、前
記画像処理手段により検出された車線に沿う検出点の点
列をグルーピングすることを特徴とするものである。
The invention according to claim 4 is the same as claim 3
In the object type determination device according to the item 1, the image processing unit processes the image captured by the image capturing unit to detect a lane ahead of the vehicle, and the grouping unit detects the lane detected by the image processing unit. A feature is that the point sequence of the detection points along is grouped.

【0013】また、請求項5に記載の発明は、請求項3
又は4に記載の物体種別判別装置において、前記画像処
理手段が、前記車線に沿う検出点の点列が存在する位置
において路面から所定の高さまでに対応する画像上の領
域から縦エッジを検出し、前記判別手段が、前記画像処
理手段により検出された縦エッジが所定の本数以上、或
いは、隣接する縦エッジ間の間隔が所定の値以下である
場合に、前記グルーピング手段によりグルーピングされ
た検出点の点列が示す物体を、前記車線に沿って連続的
に設置された柱状体として認識することを特徴とするも
のである。
The invention described in claim 5 is the same as claim 3
Alternatively, in the object type determining device according to the fourth aspect, the image processing unit detects a vertical edge from an area on the image corresponding to a predetermined height from the road surface at a position where a point sequence of detection points along the lane exists. If the number of vertical edges detected by the image processing means is equal to or more than a predetermined number or the interval between adjacent vertical edges is less than or equal to a predetermined value, the determining means detects the points grouped by the grouping means. The object indicated by the point sequence of is recognized as a columnar body continuously installed along the lane.

【0014】また、請求項6に記載の発明は、請求項5
に記載の物体種別判別装置において、前記判別手段が、
前記画像処理手段により検出された縦エッジが所定の本
数に満たない場合、或いは、隣接する縦エッジ間の間隔
が所定の値を越える場合であって、前記画像処理手段に
より前記車線に沿う直線又は曲線が検出された場合に
は、前記グルーピング手段によりグルーピングされた検
出点の点列が示す物体を、車線に沿って設置された側壁
として認識することを特徴とするものである。
The invention according to claim 6 is the same as claim 5
In the object type discrimination device described in the paragraph 1,
When the number of vertical edges detected by the image processing means is less than a predetermined number, or when the interval between adjacent vertical edges exceeds a predetermined value, a straight line along the lane by the image processing means or When a curved line is detected, the object indicated by the point sequence of the detection points grouped by the grouping means is recognized as a side wall installed along the lane.

【0015】また、請求項7に記載の発明は、請求項1
乃至6の何れかに記載の物体種別判別装置において、前
記車両の車速と操舵角とから前記車両の軌道を算出する
軌道算出手段を更に備え、前記グルーピング手段が、前
記軌道算出手段により算出された前記車両の軌道に沿う
検出点の点列をグルーピングすることを特徴とするもの
である。
The invention described in claim 7 is the same as claim 1
The object type identification device according to any one of claims 1 to 6, further comprising a trajectory calculating means for calculating a trajectory of the vehicle from a vehicle speed and a steering angle of the vehicle, and the grouping means is calculated by the trajectory calculating means. It is characterized in that a point sequence of detection points along the track of the vehicle is grouped.

【0016】また、請求項8に記載の発明は、車両前方
に送信波を走査させ、その反射波をもとに前記車両前方
に存在する物体を複数の検出点の点列として検出し、検
出された複数の検出点のうちで、前記車両からの距離が
互いに異なり、且つ、隣接する検出点間の距離が所定の
値以下の検出点の点列をグルーピングし、このグルーピ
ングされた検出点の点列の長さが所定の長さ以上の場
合、或いは、前記車両に対して同様の位置関係にある検
出点の点列が時間的に連続してグルーピングされた場
合、これらグルーピングされた検出点の点列で示される
物体を1まとまりの物体として認識することを特徴とす
る物体種別判別方法である。
According to the present invention, the transmitted wave is scanned in front of the vehicle, the object existing in front of the vehicle is detected as a point sequence of a plurality of detection points based on the reflected wave, and detection is performed. Among the plurality of detected points, the distance from the vehicle is different from each other, and the distance between the adjacent detecting points is grouped into a point sequence of detecting points having a predetermined value or less. When the length of the point sequence is equal to or greater than a predetermined length, or when the point sequence of the detection points having the same positional relationship with the vehicle is grouped continuously in time, these grouped detection points The object type determination method is characterized by recognizing the object represented by the point sequence of 1 as a group of objects.

【0017】[0017]

【発明の効果】請求項1に係る物体種別判別装置によれ
ば、物体検出手段により検出された複数の検出点のうち
で、当該物体種別判別装置が搭載された車両(自車両)
からの距離が互いに異なり、且つ、隣接する検出点間の
距離が所定の値以下の検出点の点列がグルーピング手段
によってグルーピングされ、このグルーピング手段によ
ってグルーピングされた検出点の点列の長さが所定の長
さ以上の場合や、自車両に対して同様の位置関係にある
検出点の点列がグルーピング手段により時間的に連続し
てグルーピングされた場合に、これらグルーピングされ
た検出点の点列で示される物体が判別手段により1まと
まりの物体として認識されるので、例えば、キャッツア
イやセンターポール等のように、自車両の奥行き方向に
所定間隔を存して連続して設置されている同一の物体を
1まとまりの物体として認識することができ、これらキ
ャッツアイやセンターポール等を他の物体と誤認識する
不都合を有効に抑制して、物体の種別を高精度に判別す
ることができる。
According to the object type discriminating apparatus of the first aspect, the vehicle (own vehicle) in which the object type discriminating apparatus is mounted among the plurality of detection points detected by the object detecting means.
Are different from each other and the distance between adjacent detection points is equal to or smaller than a predetermined value, the point sequence of the detection points is grouped by the grouping means, and the length of the point sequence of the detection points grouped by the grouping means is In the case of a predetermined length or more, or when the point sequence of the detection points having the same positional relationship with the own vehicle is grouped continuously in time by the grouping means, the point sequence of these grouped detection points Since the object indicated by is recognized as a group of objects by the discriminating means, for example, like a cat's eye or a center pole, they are continuously installed at a predetermined interval in the depth direction of the vehicle. Objects can be recognized as a group of objects, effectively suppressing the inconvenience of erroneously recognizing the cat's eye, center pole, etc. as other objects. , It is possible to determine the type of the object with high accuracy.

【0018】また、請求項2に係る物体種別判別装置に
よれば、自車両からの距離が略等しく、且つ、隣接する
検出点間の距離が所定の値以下の検出点の点列もグルー
ピング手段によってグルーピングされるので、より多様
な物体の種別の判別も適切に行うことができる。
Further, according to the object type discriminating apparatus of the second aspect, the point sequence of the detection points whose distances from the own vehicle are substantially equal to each other and the distance between the adjacent detection points is not more than a predetermined value is also grouped. Since the objects are grouped by, it is possible to appropriately determine the types of more diverse objects.

【0019】また、請求項3に係る物体種別判別装置に
よれば、自車両前方の画像をもとに検出点の点列がグル
ーピングされるので、グルーピングをより適切に行っ
て、このグルーピングされた検出点の点列で示される物
体の種別を更に高精度に判別することが可能となる。
Further, according to the object type discriminating apparatus of the third aspect, since the point sequence of the detection points is grouped based on the image in front of the host vehicle, the grouping is performed more appropriately and the grouping is performed. It is possible to more accurately determine the type of object indicated by the point sequence of detection points.

【0020】また、請求項4に係る物体種別判別装置に
よれば、自車両前方の画像から検出された車線に沿う検
出点の点列がグルーピング手段によりグルーピングされ
るので、例えば、キャッツアイやセンターポール等のよ
うに車線に沿って設置される物体の判別を極めて高精度
に行うことができる。
Further, according to the object type discriminating apparatus of the fourth aspect, since the point sequence of the detection points along the lane detected from the image in front of the host vehicle is grouped by the grouping means, for example, the cat's eye or the center. It is possible to discriminate an object such as a pole installed along the lane with extremely high accuracy.

【0021】また、請求項5に係る物体種別判別装置に
よれば、センターポール等のように車線に沿って連続的
に設置された柱状体を精度良く認識することができる。
Further, according to the object type discrimination apparatus of the fifth aspect, it is possible to accurately recognize a columnar body such as a center pole which is continuously installed along the lane.

【0022】また、請求項6に係る物体種別判別装置に
よれば、車線に沿って設置された側壁を精度良く認識す
ることができる。
Further, according to the object type discrimination apparatus of the sixth aspect, it is possible to accurately recognize the side wall installed along the lane.

【0023】また、請求項7に係る物体種別判別装置に
よれば、軌道算出手段により算出された自車両の軌道に
沿う検出点の点列がグルーピング手段によりグルーピン
グされるので、例えば、キャッツアイやセンターポール
等のように車線に沿って設置される物体の判別を極めて
高精度に行うことができる。
Further, according to the object type discriminating apparatus according to the seventh aspect, the point sequence of the detection points along the track of the own vehicle calculated by the track calculating means is grouped by the grouping means. It is possible to discriminate an object installed along the lane such as a center pole with extremely high accuracy.

【0024】また、請求項8に係る物体種別判別方法に
よれば、自車両前方からの反射波をもとに検出された複
数の検出点のうちで、自車両からの距離が互いに異な
り、且つ、隣接する検出点間の距離が所定の値以下の検
出点の点列がグルーピングされ、このグルーピングされ
た検出点の点列の長さが所定の長さ以上の場合や、自車
両に対して同様の位置関係にある検出点の点列が時間的
に連続してグルーピングされた場合に、これらグルーピ
ングされた検出点の点列で示される物体が1まとまりの
物体として認識されるので、例えば、キャッツアイやセ
ンターポール等のように、自車両の奥行き方向に所定間
隔を存して連続して設置されている同一の物体を1まと
まりの物体として認識することができ、これらキャッツ
アイやセンターポール等を他の物体と誤認識する不都合
を有効に抑制して、物体の種別を高精度に判別すること
ができる。
According to the object type discrimination method of the eighth aspect, among the plurality of detection points detected based on the reflected wave from the front of the own vehicle, the distances from the own vehicle are different from each other, and , When the distance between adjacent detection points is a group of detection points with a predetermined value or less and the length of the group of detection points is greater than or equal to a predetermined length, When the point sequences of the detection points having the same positional relationship are grouped continuously in time, the objects indicated by the point sequences of the grouped detection points are recognized as a group of objects. The same object, such as a cat's eye or a center pole, which is continuously installed at a predetermined interval in the depth direction of the vehicle can be recognized as a group of objects. The effectively suppressed recognized disadvantage erroneous with another object, it is possible to determine the type of object with high accuracy and the like.

【0025】[0025]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0026】まず、本発明を適用した物体種別判別装置
の具体的な説明に先立ち、本発明の基本原理について説
明する。
First, the basic principle of the present invention will be described prior to a detailed description of the object type discrimination apparatus to which the present invention is applied.

【0027】本発明は、スキャニングレーザレーダによ
り検出された複数の検出点の中から所定の関係にある検
出点の点列をグルーピングし、このグルーピングされた
各検出点の点列毎に、その検出点の点列で示される物体
の種別を判別するものであり、特に、自車両からの距離
が互いに異なる検出点同士についてもグルーピングの対
象とするようにして、奥行き方向に所定間隔を存して連
続して設置されたセンターポール等の複数の物体を1ま
とまりの物体として認識できるようにしたものである。
According to the present invention, a point sequence of detection points having a predetermined relationship is grouped out of a plurality of detection points detected by a scanning laser radar, and the detection is performed for each point sequence of the grouped detection points. This is for determining the type of the object indicated by the point sequence of points, and in particular, the detection points having different distances from the own vehicle are also targeted for grouping, and there is a predetermined interval in the depth direction. A plurality of objects such as center poles that are continuously installed can be recognized as a group of objects.

【0028】スキャニングレーザレーダは、レーザ光を
出射して自車両前方を路面に水平な方向に二次元的にス
キャニングし、反射レーザ光を受光することによって、
自車両前方に存在する物体をスキャニング面に平行な二
次元の座標上における複数の検出点の点列として検出す
るものである。そして、このスキャニングレーザレーダ
は、以上のような複数の検出点の点列を所定の時間間隔
ΔTで連続的に検出するようにしている。
The scanning laser radar emits a laser beam to two-dimensionally scan the front of the vehicle in a horizontal direction on the road surface and receive a reflected laser beam.
An object existing in front of the host vehicle is detected as a point sequence of a plurality of detection points on a two-dimensional coordinate parallel to the scanning surface. Then, this scanning laser radar is configured to continuously detect the point sequence of the plurality of detection points as described above at a predetermined time interval ΔT.

【0029】このスキャニングレーザレーダにより検出
される検出点は、図1に示すように、自車両100から
の距離及び方位を示す情報を有している。すなわち、こ
の図1に示す例では、検出点Aは自車両100からの
距離がRで自車両100の垂直方向に対する角度がθ
の位置にある点として検出され、検出点Aは自車両
100からの距離がRで自車両100の垂直方向に対
する角度がθの位置にある点として検出され、検出点
は自車両100からの距離がRで自車両100の
垂直方向に対する角度がθの位置にある点として検出
され、検出点A は自車両100からの距離がRで自
車両100の垂直方向に対する角度がθ の位置にある
点として検出される。
Detected by this scanning laser radar
The detected point is, as shown in FIG.
It has information indicating the distance and azimuth. That is, this
In the example shown in FIG.1From the own vehicle 100
Distance is R1And the angle of the host vehicle 100 with respect to the vertical direction is θ.
1Detected as a point at the positionTwoIs my vehicle
Distance from 100 is RTwoIn the vertical direction of the own vehicle 100
Angle is θTwoDetected as a point at the position of
AThreeIs R from the vehicle 100ThreeIn your own vehicle 100
The angle to the vertical is θThreeDetected as a point at the position
Detection point A FourIs R from the vehicle 100FourBy myself
The angle of the vehicle 100 with respect to the vertical direction is θ FourIn the position
Detected as a point.

【0030】本発明では、これらスキャニングレーザレ
ーダにより検出された検出点A〜Aについて、自車
両100からの距離R〜Rが互いに異なる場合で
も、これら検出点A〜Aをグルーピングの対象と
し、隣接する検出点間の距離が所定の値以下の検出点同
士を1つのグループを構成する点列としてグルーピング
するようにしている。ここで、検出点Aとこれに隣接
する検出点Aとの間の距離をα12とし、検出点A
とこれに隣接する検出点Aとの間の距離をα23
し、検出点Aとこれに隣接する検出点Aとの間の距
離をα34とすると、これらα12、α23、α34
それぞれ下記式(1)乃至式(3)より求められる。
[0030] In the present invention, the detection point A 1 to A 4 detected by these scanning laser radar, even when the distance R 1 to R 4 from the vehicle 100 are different from each other, these detection points A 1 to A 4 As a grouping target, detection points whose distance between adjacent detection points is a predetermined value or less are grouped as a series of points forming one group. Here, the distance between the detection point A 1 and the detection point A 2 adjacent thereto is α 12 , and the detection point A 2
If the distance between the detection point A 3 and the adjacent detection point A 3 is α 23, and the distance between the detection point A 3 and the detection point A 4 adjacent thereto is α 34 , these α 12 , α 23 , α 34 is calculated from the following equations (1) to (3), respectively.

【0031】 α12={(Rsinθ−Rsinθ+(Rcosθ−R cosθ1/2 ・・・式1 α23={(Rsinθ−Rsinθ+(Rcosθ−R cosθ1/2 ・・・式2 α34={(Rsinθ−Rsinθ+(Rcosθ−R cosθ1/2 ・・・式3 このとき、α12及びα23が予め設定された所定の値
α以下であり、α がαよりも大きい場合には、
検出点A〜Aが1つのグループを構成する点列とし
てグルーピングされることになる。そして、このように
グルーピングされた検出点A〜Aの点列の長さが所
定の長さ以上の場合、或いは、スキャニングレーザレー
ダで所定の時間間隔ΔT毎に連続して複数の検出点の点
列を検出したときに、自車両100に対して同様の位置
関係において以上のようなグルーピングが繰り返し行わ
れる場合、このグルーピングされた検出点A〜A
点列が、1まとまりの物体を示すものとして認識される
ことになる。
The α 12 = {(R 1 sinθ 1 -R 2 sinθ 2) 2 + (R 1 cosθ 1 -R 2 cosθ 2) 2} 1/2 ··· Formula 1 α 23 = {(R 2 sinθ 2 -R 3 sinθ 3) 2 + ( R 2 cosθ 2 -R 3 cosθ 3) 2} 1/2 ··· formula 2 α 34 = {(R 3 sinθ 3 -R 4 sinθ 4) 2 + (R 3 cosθ 3 −R 4 cos θ 4 ) 2 } 1/2 ... Equation 3 At this time, when α 12 and α 23 are equal to or less than a preset predetermined value α 0 and α 3 4 is larger than α 0 , Is
The detection points A 1 to A 3 are grouped as a point sequence forming one group. Then, when the length of the point sequence of the detection points A 1 to A 3 grouped in this way is equal to or greater than a predetermined length, or in the scanning laser radar, a plurality of detection points are continuously provided at predetermined time intervals ΔT. When the above-described grouping is repeatedly performed on the host vehicle 100 in the same positional relationship when the point sequence of 1 is detected, the point sequence of the grouped detection points A 1 to A 3 is one group. It will be recognized as indicating an object.

【0032】本発明では、以上のような方法により、自
車両100からの距離が異なる奥行き方向に、複数のセ
ンターポール等の物体が所定間隔を存して連続して設置
されている場合に、これらセンターポール等の複数の物
体を1まとまりの物体として認識できるようにしてい
る。
According to the present invention, when a plurality of objects such as center poles are continuously installed at predetermined intervals in the depth direction at different distances from the own vehicle 100 by the above method, A plurality of objects such as the center pole can be recognized as a group of objects.

【0033】前方に先行車両が走行しており、車線に沿
って複数のセンターポールが所定間隔を存して連続して
設置された直線道路上を自車両100が走行する場合、
スキャニングレーザレーダにより自車両100前方の様
子を観察すると、例えば図2に示すような複数の検出点
の点列が検出される。この図2に示す例において、セン
ターポールは、奥行き方向に密に並ぶように設置されて
いるため、スキャニング面に平行な二次元の座標上にお
いて縦に並ぶ点列として検出されることになる。
When the preceding vehicle is traveling ahead and the vehicle 100 is traveling on a straight road in which a plurality of center poles are continuously installed at predetermined intervals along the lane,
When the situation in front of the vehicle 100 is observed by the scanning laser radar, a point sequence of a plurality of detection points as shown in FIG. 2, for example, is detected. In the example shown in FIG. 2, since the center poles are installed so as to be densely arranged in the depth direction, the center poles are detected as a series of points arranged vertically on a two-dimensional coordinate parallel to the scanning surface.

【0034】ここで、以上のように検出された複数の検
出点をグルーピングする場合、従来の方法では、自車両
100からの距離が略等しい検出点同士をグルーピング
の対象としていたので、グルーピングの結果は図3に示
すようになる。すなわち、自車両100前方の先行車両
の左右のリフレクタが1つの物体を示すものとしてグル
ーピングされ、車線に沿って連続して設置された複数の
センターポールが、それぞれ複数の小さな物体を示すも
のとして個別にグルーピングされることになる。
Here, in the case of grouping a plurality of detection points detected as described above, in the conventional method, the detection points having substantially the same distance from the own vehicle 100 are targeted for grouping. Is as shown in FIG. That is, the left and right reflectors of the preceding vehicle in front of the host vehicle 100 are grouped as one object, and the plurality of center poles continuously installed along the lane individually show a plurality of small objects. Will be grouped into.

【0035】このように複数のセンターポールをそれぞ
れ個別にグルーピングするようにした場合、センターポ
ールは奥行き方向に密に並ぶように設置されているた
め、隣接するセンターポール間同士の分離が困難で、個
々のセンターポールを正確に認識することが難しい。ま
た、これら個々のセンターポールを個別の物体として認
識しても、これら個々のセンターポールを時系列的に対
応付けることが困難で、個々のセンターポールの相対速
度(自車両100や先行車両に対する相対速度)が正確
に求められないといった問題が生じる。そして、個々の
センターポールの相対速度が誤って認識されると、これ
らのセンターポールが設置された位置に走行物体がある
ものと誤って判断され、自車両100の走行制御に悪影
響を及ぼすことも想定される。
When a plurality of center poles are individually grouped in this way, since the center poles are installed so as to be densely arranged in the depth direction, it is difficult to separate adjacent center poles from each other. It is difficult to accurately identify each center pole. Further, even if these individual center poles are recognized as individual objects, it is difficult to correlate these individual center poles in time series, and the relative speeds of the individual center poles (relative speed with respect to the own vehicle 100 or the preceding vehicle). ) Is not accurately obtained. If the relative velocities of the individual center poles are erroneously recognized, it may be erroneously determined that there are traveling objects at the positions where these center poles are installed, which may adversely affect the traveling control of the host vehicle 100. is assumed.

【0036】これに対して、本発明においては、自車両
100からの距離が互いに異なる検出点同士についても
グルーピングの対象とし、隣接する検出点間の距離が所
定の値以下の検出点同士を1つのグループを構成する点
列としてグルーピングするようにしているので、図2に
示した複数の検出点をグルーピングすると、グルーピン
グの結果は図4に示すようになる。すなわち、自車両1
00前方の先行車両の左右のリフレクタが1つの物体を
示すものとしてグルーピングされ、車線に沿って連続し
て設置された複数のセンターポールが1つのグループを
構成する点列としてグルーピングされることになる。そ
して、このグルーピングされた検出点の点列が所定の長
さ以上である場合や、時間的に連続して検出される場合
に、これらグルーピングされた検出点の点列で示される
物体が1まとまりの物体、すなわち、車線に沿って連続
して設置された複数のセンターポールの塊として認識さ
れることになる。
On the other hand, in the present invention, the detection points whose distances from the own vehicle 100 are different from each other are also grouped, and the detection points whose distances between the adjacent detection points are equal to or less than a predetermined value are set to one. Since grouping is performed as a point sequence that constitutes one group, when the plurality of detection points shown in FIG. 2 are grouped, the grouping result is as shown in FIG. That is, the own vehicle 1
The left and right reflectors of the preceding vehicle in front of 00 are grouped as indicating one object, and the plurality of center poles continuously installed along the lane are grouped as a series of points forming one group. . Then, when the point sequence of the grouped detection points is equal to or longer than a predetermined length or when the point sequences are detected continuously in time, one object represented by the point sequence of the grouped detection points is collected. Object, that is, as a mass of a plurality of center poles continuously installed along the lane.

【0037】以上のように、本発明においては、奥行き
方向に密に並ぶように設置されているために個々の物体
として正確に検出することが困難な複数のセンターポー
ル等を1つのグループとしてグルーピングして、これら
を1まとまりの物体として認識するようにしているの
で、これらセンターポール等が他の物体と誤認識される
不都合を有効に抑制して、このような物体の誤認識が自
車両100の走行制御に悪影響を及ぼすことを未然に防
止することができる。
As described above, in the present invention, the plurality of center poles, which are difficult to accurately detect as individual objects, are grouped as one group because they are arranged so as to be densely arranged in the depth direction. Since these are recognized as a group of objects, the inconvenience that the center pole and the like are erroneously recognized as other objects is effectively suppressed, and the erroneous recognition of such an object causes the vehicle 100 to be erroneously recognized. It is possible to prevent the traveling control of the vehicle from being adversely affected.

【0038】また、本発明においては、図5に示すよう
に、センターポールが設置されたカーブ路を自車両10
0が走行する場合にも、車線に沿って連続して設置され
た複数のセンターポールを1つのグループを構成する点
列としてグルーピングし、これらグルーピングされた検
出点の点列で示される物体を1まとまりの物体、すなわ
ち、車線に沿って連続して設置された複数のセンターポ
ールの塊として認識することができる。
Further, according to the present invention, as shown in FIG. 5, the vehicle 10 is driven on a curved road where a center pole is installed.
Even when 0 is traveling, a plurality of center poles continuously installed along the lane are grouped as a point sequence forming one group, and the objects indicated by the point sequence of these grouped detection points are set to 1 It can be recognized as a group of objects, that is, as a mass of a plurality of center poles continuously installed along the lane.

【0039】但し、このようなカーブ路においては、セ
ンターポール等がスキャニングレーザレーダのスキャニ
ング面に平行な二次元の座標上において縦に並ぶ点列と
して検出されず、個々の検出点が横方向に若干ずれて検
出されることになるので、先行車両とのオクルージョン
が生じやすい。このため、車線に沿って連続して設置さ
れた複数のセンターポール等が1まとまりの物体として
適切に認識できない場合がある。
However, in such a curved road, the center pole or the like is not detected as a row of dots arranged vertically on a two-dimensional coordinate parallel to the scanning surface of the scanning laser radar, and individual detection points are laterally detected. Since it is detected with a slight deviation, occlusion with the preceding vehicle is likely to occur. For this reason, a plurality of center poles and the like continuously installed along the lane may not be properly recognized as a group of objects.

【0040】そこで、本発明においては、自車両100
前方の画像を撮像してこの画像をもとに自車両100前
方の車線を検出し、スキャニングレーザレーダにより検
出された複数の検出点の中から自車両100前方の車線
に沿う検出点の点列をグルーピングすることが望まし
い。そして、この自車両100前方の車線に沿う検出点
の点列が所定の長さ以上である場合や、時間的に連続し
て検出される場合に、このグルーピングされた検出点の
点列で示される物体を、車線に沿って連続して設置され
た複数のセンターポール等として認識することが望まし
い。
Therefore, in the present invention, the own vehicle 100
A sequence of detection points along the lane in front of the own vehicle 100 is selected from a plurality of detection points detected by the scanning laser radar by capturing an image of the front and detecting the lane in front of the own vehicle 100 based on this image. Grouping is desirable. When the point sequence of the detection points along the lane ahead of the host vehicle 100 is longer than a predetermined length or when the points are continuously detected in time, the point sequence of the grouped detection points is shown. It is desirable to recognize the object as a plurality of center poles or the like that are continuously installed along the lane.

【0041】また、自車両100前方の画像から車線を
検出する代わりに、或いはこれに加えて、自車両100
の車速と操舵角とから自車両100の軌道を算出し、ス
キャニングレーザレーダにより検出された複数の検出点
の中から自車両100の軌道に沿う検出点の点列をグル
ーピングするようにしてもよい。そして、この自車両1
00の軌道に沿う検出点の点列が所定の長さ以上である
場合や、時間的に連続して検出される場合に、このグル
ーピングされた検出点の点列で示される物体を、車線に
沿って連続して設置された複数のセンターポール等とし
て認識するようにしてもよい。
Further, instead of or in addition to detecting the lane from the image in front of the own vehicle 100, the own vehicle 100
The trajectory of the host vehicle 100 may be calculated from the vehicle speed and the steering angle, and the point sequence of the detection points along the trajectory of the host vehicle 100 may be grouped from the plurality of detection points detected by the scanning laser radar. . And this own vehicle 1
When the point sequence of the detection points along the track No. 00 is longer than a predetermined length or when they are detected continuously in time, the object indicated by the group of the detection points of the grouped points is set in the lane. You may make it recognize as several center poles etc. which were continuously installed along.

【0042】以上のように、自車両100前方の車線或
いは自車両100の軌道を求めて、これら自車両100
前方の車線や自車両100の軌道に沿う検出点の点列を
グルーピングするようにすれば、自車両100がカーブ
路を走行中の場合でも、複数のセンターポール等を1ま
とまりの物体として適切に認識することができる。ま
た、自車両100からの距離が互いに異なる検出点同士
についてもグルーピングの対象とした場合には、グルー
ピングの対象が大きくなることに起因して誤ったグルー
ピングが生じる可能性も拡がることになるが、検出点の
点列が自車両100前方の車線や自車両100の軌道に
沿うかどうかをグルーピングの判断基準とすることによ
り、このような誤ったグルーピングを有効に抑制するこ
とができる。
As described above, the lane in front of the host vehicle 100 or the trajectory of the host vehicle 100 is obtained, and the host vehicle 100
By grouping the point sequences of the detection points along the lane in front or the trajectory of the host vehicle 100, even if the host vehicle 100 is traveling on a curved road, a plurality of center poles and the like can be appropriately treated as one group of objects. Can be recognized. Further, when the detection points having different distances from the own vehicle 100 are also targeted for grouping, the possibility of erroneous grouping due to the large target for grouping is increased. Such erroneous grouping can be effectively suppressed by determining whether or not the point sequence of the detection points is along the lane in front of the own vehicle 100 or the track of the own vehicle 100 as a criterion for grouping.

【0043】次に、本発明を適用した物体種別判別装置
の具体的な一例について説明する。
Next, a specific example of the object type discriminating apparatus to which the present invention is applied will be described.

【0044】本発明を適用した物体種別判別装置の概略
構成を図6に示す。この図6に示す物体種別判別装置1
は、自車両100に搭載されて、自車両100前方に存
在する物体の種別を判別するものであり、スキャニング
レーザレーダ2、カメラ3、画像処理部4、グルーピン
グ処理部5及び判別部6を備えて構成される。
FIG. 6 shows a schematic structure of an object type discriminating apparatus to which the present invention is applied. Object type discrimination device 1 shown in FIG.
Is mounted on the host vehicle 100 and determines the type of an object existing in front of the host vehicle 100, and includes a scanning laser radar 2, a camera 3, an image processing unit 4, a grouping processing unit 5, and a determination unit 6. Consists of

【0045】スキャニングレーザレーダ2は、自車両1
00の前方に存在する物体をスキャニング面に平行な二
次元の座標上における複数の検出点の点列として検出す
るものである。そして、このスキャニングレーザレーダ
2は、図7(A)及び図7(B)に示すように、スキャ
ニング中心軸が自車両100の走行方向に沿い、且つ、
スキャニング原点が自車両100の幅方向における中心
に位置するように、自車両100に取り付けられてい
る。以下、このスキャニングレーザレーダ2のスキャニ
ング原点を原点とし、Z軸(自車両100前方の物体ま
での距離を示す。)をスキャニングレーザレーダ2のス
キャニング中心軸方向、X軸(自車両100前方の物体
の横方向における位置を示す。)をスキャニングレーザ
レーダ2のスキャニング中心軸と直交し且つスキャニン
グ面に平行な方向、Y軸(自車両100前方の物体の高
さ位置を示す。)をスキャニングレーザレーダ2のスキ
ャニング面に垂直な方向とした座標系を基準座標系とし
て説明する。
The scanning laser radar 2 is the vehicle 1
The object existing in front of 00 is detected as a point sequence of a plurality of detection points on a two-dimensional coordinate parallel to the scanning surface. In the scanning laser radar 2, as shown in FIGS. 7 (A) and 7 (B), the scanning center axis is along the traveling direction of the host vehicle 100, and
The scanning origin is attached to the host vehicle 100 such that the scanning origin is located at the center of the host vehicle 100 in the width direction. Hereinafter, with the scanning origin of the scanning laser radar 2 as the origin, the Z axis (indicating the distance to the object in front of the host vehicle 100) is the central axis direction of the scanning of the scanning laser radar 2, and the X axis (object in front of the host vehicle 100). Is a position in the lateral direction of the scanning laser radar 2 that is orthogonal to the scanning center axis of the scanning laser radar 2 and parallel to the scanning surface, and the Y axis (indicates the height position of the object in front of the own vehicle 100). A reference coordinate system will be described as a coordinate system in which the direction 2 is perpendicular to the scanning surface.

【0046】カメラ3は、自車両100の前方の画像を
撮像するものである。このカメラ3は、図7(A)及び
図7(B)に示したように、その光軸がスキャニングレ
ーザレーダ2のスキャニング中心軸と同様に自車両10
0の進行方向に沿い、且つ、その原点がスキャニングレ
ーザレーダ2のスキャニング原点と同様に自車両100
の幅方向における中心に位置し、路面に垂直な方向にお
いてスキャニングレーザレーダ2と異なる位置となるよ
うに、自車両100に取り付けられる。
The camera 3 captures an image in front of the vehicle 100. As shown in FIGS. 7 (A) and 7 (B), the camera 3 has an optical axis similar to the scanning center axis of the scanning laser radar 2 and the host vehicle 10.
Along the traveling direction of 0, and its origin is the same as the scanning origin of the scanning laser radar 2
Is attached to the vehicle 100 so that it is located at the center in the width direction of the vehicle and is located at a position different from the scanning laser radar 2 in the direction perpendicular to the road surface.

【0047】なお、以上はスキャニングレーザレーダ2
及びカメラ3の自車両100に対する取り付け方として
理想的な例を説明したが、スキャニングレーザレーダ2
のスキャニング中心軸やカメラ3の光軸が自車両100
の走行方向に沿わない場合や、スキャニングレーザレー
ダ2のスキャニング原点やカメラ3の原点が自車両10
0の幅方向における中心にない場合であっても、これら
スキャニングレーザレーダ2やカメラ3の自車両100
に対する取り付け角度や取り付け位置を幾何学計算時に
考慮するようにすれば、スキャニングレーザレーダ2や
カメラ3が理想的に取り付けられた場合と同様に取り扱
うことができる。
The above is the scanning laser radar 2
Although the ideal example of how to attach the camera 3 to the vehicle 100 has been described, the scanning laser radar 2
The central axis of scanning of the vehicle and the optical axis of the camera 3 are the own vehicle 100.
If the vehicle does not follow the traveling direction of the vehicle, or if the scanning origin of the scanning laser radar 2 or the origin of the camera 3 is the vehicle 10.
Even if it is not at the center in the width direction of 0, the own vehicle 100 of these scanning laser radar 2 and camera 3
If the mounting angle and the mounting position with respect to are taken into consideration in the geometric calculation, the scanning laser radar 2 and the camera 3 can be handled in the same manner as in the case where they are ideally mounted.

【0048】画像処理部4は、カメラ3により撮像され
た画像を処理して、自車両100前方の車線を検出する
ものである。
The image processing section 4 processes the image captured by the camera 3 to detect the lane ahead of the host vehicle 100.

【0049】カメラ3により撮像された自車両100の
前方の画像は、自車両100の走行方向に垂直なX軸及
びY軸を座標軸とした二次元画像である。画像処理部4
は、このカメラ3により撮像された二次元画像から、ま
ず、車線を区切る白線の画像の特徴点を複数点抽出す
る。そして、これら特徴点の位置座標を、Z軸及びX軸
を座標軸とした二次元の座標、すなわち、スキャニング
レーザレーダ2のスキャニング面に平行な二次元の座標
上における位置座標に変換する。
The image in front of the host vehicle 100 captured by the camera 3 is a two-dimensional image having the X and Y axes perpendicular to the traveling direction of the host vehicle 100 as coordinate axes. Image processing unit 4
First, from the two-dimensional image captured by the camera 3, first, a plurality of characteristic points of a white line image that divides the lane are extracted. Then, the position coordinates of these feature points are converted into two-dimensional coordinates with the Z-axis and the X-axis as coordinate axes, that is, the position coordinates on the two-dimensional coordinates parallel to the scanning surface of the scanning laser radar 2.

【0050】次に、画像処理部4は、スキャニングレー
ザレーダ2のスキャニング面に平行な二次元の座標上の
点に変換された複数の特徴点を、最小二乗誤差等の手法
を用いて、これら複数の特徴点の分布に最もマッチング
した関数によりフィッティングして白線の形状を求める
ことで、自車両100前方の車線を検出する。そして、
画像処理部4は検出した車線の情報をグルーピング処理
部5に出力する。なお、車両に搭載されたカメラにより
撮像された画像から車線を検出する手法の詳細は、特開
平10−11580号公報にて開示されている。
Next, the image processing section 4 converts the plurality of characteristic points converted into points on the two-dimensional coordinate parallel to the scanning surface of the scanning laser radar 2 by using a method such as least square error. The lane in front of the host vehicle 100 is detected by finding the shape of the white line by fitting with a function that best matches the distribution of a plurality of feature points. And
The image processing unit 4 outputs the detected lane information to the grouping processing unit 5. The details of the method of detecting the lane from the image captured by the camera mounted on the vehicle are disclosed in Japanese Patent Laid-Open No. 10-11580.

【0051】また、画像処理部4は、カメラ3により撮
像された画像の中で、グルーピング手段5によって車線
に沿う検出点の点列としてグルーピングされた点列が存
在する位置において路面から所定の高さまでに対応する
領域から、縦エッジを検出する処理を行って、その検出
結果を判別部6に供給するようになっているが、この縦
エッジの検出処理については詳細を後述する。
Further, the image processing unit 4 has a predetermined height above the road surface at a position where a point sequence grouped by the grouping means 5 as a sequence of detection points along the lane exists in the image captured by the camera 3. The process of detecting the vertical edge is performed from the area corresponding to that point and the detection result is supplied to the determination unit 6. The details of the process of detecting the vertical edge will be described later.

【0052】グルーピング処理部5は、スキャニングレ
ーザレーダ2により検出された複数の検出点のうちで、
所定の関係にある検出点の点列をグルーピングし、その
グルーピング結果を判別部6に出力するものである。
The grouping processing unit 5 selects one of a plurality of detection points detected by the scanning laser radar 2 from
A group of detection points having a predetermined relationship is grouped, and the grouping result is output to the discriminating unit 6.

【0053】具体的には、このグルーピング処理部5
は、スキャニングレーザレーダ2により検出された複数
の検出点のうちで、まず、図8に示すように、自車両1
00からの距離が略等しく互いに隣接する検出点同士を
1つのグループを構成する点列としてグルーピングす
る。以下、このグルーピング処理を第1のグルーピング
処理という。図8に示す例では、この第1のグルーピン
グ処理により、自車両100の前方を走行する先行車両
の左右のリフレクタが1つの物体を示すものとしてグル
ーピングされることになる。
Specifically, this grouping processing unit 5
Among the plurality of detection points detected by the scanning laser radar 2, first, as shown in FIG.
Detection points that are substantially equal in distance from 00 and are adjacent to each other are grouped as a sequence of points forming one group. Hereinafter, this grouping process is referred to as a first grouping process. In the example shown in FIG. 8, the first grouping process causes the left and right reflectors of the preceding vehicle traveling in front of the host vehicle 100 to be grouped as one object.

【0054】次に、グルーピング処理部5は、図9に示
すように、スキャニングレーザレーダ2により検出され
た複数の検出点のうちで、自車両100からの距離が互
いに異なり、隣接する検出点間の距離が所定の値以下の
検出点同士を1つのグループを構成する点列としてグル
ーピングする。以下、このグルーピング処理を第2のグ
ルーピング処理という。この第2のグルーピング処理
は、画像処理部4により検出された自車両100前方の
車線の情報をもとに行われ、スキャニングレーザレーダ
2により検出された複数の検出点の中から自車両100
前方の車線に沿う検出点の点列がある場合には、これら
の検出点の点列がグルーピングされることになる。図9
に示す例では、この第2のグルーピング処理により、自
車両100前方の車線に沿って奥行き方向に連続して存
在する複数のセンターポールがグルーピングされること
になる。
Next, as shown in FIG. 9, the grouping processing section 5 detects a difference in distance from the host vehicle 100 among a plurality of detection points detected by the scanning laser radar 2, and between adjacent detection points. The detection points whose distances are equal to or less than a predetermined value are grouped as a point sequence forming one group. Hereinafter, this grouping process is referred to as a second grouping process. The second grouping process is performed based on the information on the lane ahead of the host vehicle 100 detected by the image processing unit 4, and the host vehicle 100 is selected from the plurality of detection points detected by the scanning laser radar 2.
If there are point sequences of detection points along the front lane, the point sequences of these detection points are grouped. Figure 9
In the example shown in (1), a plurality of center poles that continuously exist in the depth direction along the lane in front of the host vehicle 100 are grouped by the second grouping process.

【0055】そして、グルーピング処理部5は、以上の
ような第1のグルーピング処理の結果と、第2のグルー
ピング処理の結果とをそれぞれ判別部6に出力する。こ
こで、第1のグルーピング処理の結果としては、例え
ば、グルーピングされた部分の横方向の両端部の座標
(xl,z),(xr,z)と、自車両100からグル
ーピングされた部分までの距離Lとが判別部6に出力さ
れることになる。また、第2のグルーピング処理の結果
としては、例えば、グルーピングされた部分の縦方向
(奥行き方向)の両端部の座標(xc,zc),(x
f,zf)と、自車両100からこれらグルーピングさ
れた部分の縦方向の両端部までの距離L,Lとがそ
れぞれ判別部6に出力されることになる。なお、このグ
ルーピング処理部5におけるグルーピング処理は、スキ
ャニングレーザレーダ2による処理時間間隔と等しい時
間間隔(ΔT)を存して、連続的に行われるようになっ
ている。
Then, the grouping processing section 5 outputs the result of the first grouping processing and the result of the second grouping processing as described above to the discriminating section 6. Here, as a result of the first grouping processing, for example, the coordinates (xl, z), (xr, z) of both end portions in the lateral direction of the grouped portion, and from the own vehicle 100 to the grouped portion. The distance L is output to the determination unit 6. As a result of the second grouping process, for example, the coordinates (xc, zc), (x
f, zf) and the distances L 1 and L 2 from the vehicle 100 to both longitudinal end portions of the grouped portions are output to the determination unit 6, respectively. The grouping processing in the grouping processing unit 5 is performed continuously with a time interval (ΔT) equal to the processing time interval of the scanning laser radar 2.

【0056】ところで、スキャニングレーザレーダ2に
より検出された複数の検出点の連続性及びこれらの点列
が車線に沿うかどうかの判断は、スキャニングレーザレ
ーダ2の検出結果と、画像処理部4により検出された車
線の画像とを同一の座標上で照らし合わせることによっ
て行うことができる。
By the way, the continuity of the plurality of detection points detected by the scanning laser radar 2 and the judgment as to whether or not these point sequences are along the lane are detected by the detection result of the scanning laser radar 2 and the image processing section 4. This can be done by comparing the image of the displayed lane on the same coordinates.

【0057】具体的には、例えばセンターポールが設置
されたカーブ路を自車両100が走行している間に、ス
キャニングレーザレーダ2により複数の検出点が検出さ
れた場合には、まず、図10に示すように、このスキャ
ニングレーザレーダ2の検出結果と画像処理部4により
検出された車線の画像とを同一の座標上に合成する。そ
して、図11に示すように、スキャニングレーザレーダ
2により検出された複数の検出点のうちで、画像処理部
4により検出された車線(白線)に近い位置にある1つ
の検出点Aに着目する。
Specifically, for example, when a plurality of detection points are detected by the scanning laser radar 2 while the vehicle 100 is traveling on a curved road where a center pole is installed, first, as shown in FIG. As shown in, the detection result of the scanning laser radar 2 and the image of the lane detected by the image processing unit 4 are combined on the same coordinates. Then, as shown in FIG. 11, among a plurality of detection points detected by the scanning laser radar 2, attention is paid to one detection point A located at a position near the lane (white line) detected by the image processing unit 4. .

【0058】次に、図12に示すように、この検出点A
から所定の範囲内に存在する周囲の検出点を抽出し、検
出点Aとこれら周囲の検出点とを結ぶ直線をそれぞれ求
める。このようにして求められた直線の中で、画像処理
部4により検出された車線(白線)と略平行な直線があ
る場合には、この直線によって結ばれる検出点Aとその
周囲の検出点とが車線に沿う位置関係にあると判断され
る。
Next, as shown in FIG. 12, this detection point A
The surrounding detection points existing within a predetermined range are extracted from the above, and the straight lines connecting the detection point A and these surrounding detection points are obtained. If there is a straight line substantially parallel to the lane (white line) detected by the image processing unit 4 among the straight lines thus obtained, the detection point A connected by this straight line and the detection points around it Are determined to be in a positional relationship along the lane.

【0059】以上のような処理をスキャニングレーザレ
ーダ2によって検出された全ての検出点に対して行っ
て、図13に示すように、車線に沿う位置関係にある検
出点の組み合わせが連続して多数存在する場合には、こ
れら検出点の点列が車線に沿う点列として認識されるこ
とになる。
The above-described processing is performed on all the detection points detected by the scanning laser radar 2, and as shown in FIG. 13, a large number of combinations of detection points having a positional relationship along the lane are continuously formed. If present, the point sequence of these detection points will be recognized as the point sequence along the lane.

【0060】更に、以上のようにして車線に沿う点列と
して認識された複数の検出点の時間的な連続性を確認す
るため、以上のような処理をスキャニングレーザレーダ
2による処理時間間隔と等しい時間間隔(ΔT)毎に連
続的に行い、同様の位置に車線に沿う点列として認識さ
れる点列が時間的に連続して現れることを確認する。
Further, in order to confirm the temporal continuity of a plurality of detection points recognized as a sequence of points along the lane as described above, the above processing is equal to the processing time interval by the scanning laser radar 2. It is continuously performed at every time interval (ΔT), and it is confirmed that the point sequence recognized as the point sequence along the lane appears at the same position continuously in time.

【0061】以上のような処理によりスキャニングレー
ザレーダ2により検出された複数の検出点の連続性及び
これらの点列が車線に沿うかどうかを判断するようにす
れば、自車両100の前方を走行する先行車両とのオク
ルージョンやノイズ等によって、センターポールを示す
検出点が瞬間的に車線に沿う位置から外れた場合や、先
行車両等の他の物体を示す検出点が車線に沿う位置にて
検出された場合等であっても、誤ったグルーピングを行
うことなく、車線に沿って連続的に設置されたセンター
ポール等の物体を示す検出点のみを適切にグルーピング
することができる。
With the above-described processing, the continuity of the plurality of detection points detected by the scanning laser radar 2 and whether or not these point sequences are along the lane are determined. When the detection point indicating the center pole momentarily deviates from the position along the lane due to occlusion with the preceding vehicle or noise, or the detection point indicating another object such as the preceding vehicle is detected at the position along the lane. Even in the case of being erroneous, it is possible to appropriately group only the detection points indicating an object such as a center pole continuously installed along the lane without performing erroneous grouping.

【0062】また、以上のような方法では、車線に沿う
点列として認識された複数の検出点の時間的な連続性
を、相対速度によらず車線に沿う点列が時間的に連続し
て現れるかどうかによって確認するようにしているの
で、これら検出点によって示される物体が停止物である
かどうかの判断が不要となる。
Further, in the above-described method, the temporal continuity of the plurality of detection points recognized as the point sequence along the lane is determined by determining that the point sequence along the lane is temporally continuous regardless of the relative speed. Since it is confirmed by whether or not it appears, it is not necessary to determine whether or not the object indicated by these detection points is a stationary object.

【0063】判別部6は、グルーピング処理部5により
グルーピングされた検出点の点列で示される物体の種別
を判別するものである。そして、本発明を適用した物体
種別判別装置1においては、この判別部6が、特に、グ
ルーピング処理部5における第2のグルーピング処理に
よってグルーピングされた検出点の点列、すなわち自車
両100が走行する奥行き方向にグルーピングされた検
出点の点列が所定の長さ以上であると判断したとき、或
いは、グルーピング処理部5における第2のグルーピン
グ処理により、自車両100に対して同様の位置関係あ
る検出点の点列が時間的に連続してグルーピングされる
場合に、これらグルーピングされた検出点の点列で示さ
れる物体を1まとまりの物体として認識するようにして
いる。そして、このグルーピングされた検出点の点列
が、画像処理部4により検出された車線に沿って連続す
るものである場合には、この物体を車線に沿って連続し
て設置された複数のセンターポールの塊として認識する
ようにしている。
The discriminating unit 6 discriminates the type of the object indicated by the point sequence of the detection points grouped by the grouping processing unit 5. Then, in the object type determination device 1 to which the present invention is applied, the determination unit 6, in particular, the point sequence of the detection points grouped by the second grouping processing in the grouping processing unit 5, that is, the host vehicle 100 travels. When it is determined that the point sequence of the detection points grouped in the depth direction is equal to or longer than a predetermined length, or by the second grouping processing in the grouping processing unit 5, detection of the same positional relationship with respect to the own vehicle 100 is performed. When the point sequence of points is grouped continuously in time, the object indicated by the point sequence of the detection points that are grouped is recognized as a group of objects. When the point sequence of the grouped detection points is continuous along the lane detected by the image processing unit 4, this object is installed at a plurality of center points continuously arranged along the lane. I try to recognize it as a mass of poles.

【0064】本発明を適用した物体種別判別装置1で
は、以上のように、自車両100が走行する奥行き方向
に連続して設置されたセンターポール等の複数の物体
が、判別手段6によっての複数の物体を1まとまりの物
体として認識され、この1まとまりの物体が車線に沿う
ものとして検出された場合にこの物体をセンターポール
等の塊として認識するようにしているので、これまで正
確に検出することが困難であったセンターポール等を確
実に検出して、このセンターポール等が他の物体と誤認
識される不都合を有効に抑制し、このような物体の誤認
識が自車両100の走行制御に悪影響を及ぼすことを未
然に防止することができる。
In the object type discriminating apparatus 1 to which the present invention is applied, as described above, a plurality of objects such as a center pole which are continuously installed in the depth direction in which the vehicle 100 travels are discriminated by the discriminating means 6. Object is recognized as a group of objects, and when this group of objects is detected as being along a lane, the object is recognized as a lump such as a center pole. It is possible to reliably detect a center pole or the like that was difficult to detect, and effectively suppress the inconvenience that the center pole or the like is erroneously recognized as another object. It is possible to prevent the adverse effect on.

【0065】ところで、スキャニングレーザレーダ2の
検出結果から、車線に沿う検出点の点列が検出された場
合、この検出点の点列で示される物体は、車線に沿って
設置された反射面を有する側壁等である場合も考えられ
る。自車両100の周囲の状況をより的確に判断する上
では、この車線に沿う検出点の点列で示される物体が複
数のセンターポールであるのか、或いは車線に沿った側
壁であるのかの判断も行えるようにした方が望ましい。
By the way, when the point sequence of the detection points along the lane is detected from the detection result of the scanning laser radar 2, the object indicated by the point sequence of the detection points moves on the reflection surface installed along the lane. It may be a side wall or the like. In order to more accurately determine the situation around the host vehicle 100, it is also determined whether the object indicated by the sequence of detection points along the lane is a plurality of center poles or the side wall along the lane. It is desirable to be able to do so.

【0066】そこで、本発明を適用した物体種別判別装
置1においては、上述したように、画像処理部4が、カ
メラ3により撮像された画像の中で、グルーピング手段
5によって車線に沿う検出点の点列としてグルーピング
された点列が存在する位置において路面から所定の高さ
までに対応する領域から縦エッジを検出する処理を行っ
て、その検出結果を判別部6に供給するようになされて
いる。そして、判別部6が、画像処理部4からの検出結
果に応じて、縦エッジが所定の本数以上あるか、或い
は、隣接する縦エッジ間の間隔が所定の値以下であるか
を判断し、画像処理部4からの検出結果がこれらに該当
する場合に、車線に沿う検出点の点列で示される物体が
複数のセンターポールであると判断するようにしてい
る。
Therefore, in the object type discriminating apparatus 1 to which the present invention is applied, as described above, the image processing section 4 detects the detection points along the lane by the grouping means 5 in the image picked up by the camera 3. At a position where a point sequence grouped as a point sequence exists, a process of detecting a vertical edge from a region corresponding to a predetermined height from the road surface is performed, and the detection result is supplied to the determination unit 6. Then, the determination unit 6 determines, according to the detection result from the image processing unit 4, whether the number of vertical edges is a predetermined number or more, or whether the interval between adjacent vertical edges is a predetermined value or less, When the detection result from the image processing unit 4 corresponds to these, it is determined that the object indicated by the sequence of detection points along the lane is a plurality of center poles.

【0067】画像処理部4においてカメラ3により撮像
された画像から縦エッジを検出する際は、センターポー
ルの一部が含まれる領域を対象とすればよい。センター
ポールの高さは様々であるが、路面から1m程度の高さ
までの範囲ではほぼ確実にセンターポールの一部が含ま
れることになるので、縦エッジを検出する画面上の領域
としては、例えば、路面から1m程度の高さまでを対象
とすればよい。
When the image processing unit 4 detects a vertical edge from the image captured by the camera 3, the region including a part of the center pole may be targeted. Although the height of the center pole varies, a part of the center pole is almost certainly included in the range from the road surface to a height of about 1 m. Therefore, as an area on the screen for detecting the vertical edge, for example, The target may be a height of about 1 m from the road surface.

【0068】また、画像処理部4により縦エッジが検出
されなかった場合、或いは、検出された縦エッジの本数
が所定の値に満たない場合、更には隣接する縦エッジ間
の間隔が所定の値を超える場合には、この車線に沿う検
出点の点列で示される物体はセンターポールではないと
判断されることになる。この場合には、画像処理部4
が、縦エッジを検出した領域よりも上方に位置する画像
上の領域から車線に沿う直線又は曲線を検出する処理を
行い、その検出結果を判別部6に供給する。そして、画
像処理部4において車線に沿う直線又は曲線が検出され
た場合には、判別部6において、車線に沿う検出点の点
列で示される物体が車線に沿った側壁であると判断され
ることになる。
If no vertical edge is detected by the image processing unit 4, or if the number of detected vertical edges is less than a predetermined value, the interval between adjacent vertical edges is a predetermined value. When it exceeds, it is determined that the object indicated by the sequence of detection points along the lane is not the center pole. In this case, the image processing unit 4
Performs a process of detecting a straight line or a curved line along the lane from an area on the image located above the area where the vertical edge is detected, and supplies the detection result to the determination unit 6. When the image processing unit 4 detects a straight line or a curved line along the lane, the determination unit 6 determines that the object indicated by the sequence of detection points along the lane is a side wall along the lane. It will be.

【0069】すなわち、車線に沿う検出点の点列で示さ
れる物体が車線に沿った側壁である場合、側壁上端部の
線が車線に沿った線として検出されることになる。この
車線に沿った線は、実際には車線に対して略平行となっ
ているが、画像上で観察すると、車線に対して漸次近付
くようにして画像の端部から消失点に向かう線として認
識される。したがって、画像処理部4において、縦エッ
ジを検出した領域よりも上方に位置する画像上の領域で
以上のような線が検出された場合に、判別部6は車線に
沿う検出点の点列で示される物体を車線に沿った側壁で
あると判断する。
That is, when the object indicated by the sequence of detection points along the lane is the side wall along the lane, the line at the upper end of the side wall is detected as the line along the lane. The line along this lane is actually almost parallel to the lane, but when observed on the image, it is recognized as a line from the edge of the image toward the vanishing point as it gradually approaches the lane. To be done. Therefore, when the image processing unit 4 detects such a line in the area on the image located above the area in which the vertical edge is detected, the determination unit 6 determines the point sequence of the detection points along the lane. Determine that the object shown is a sidewall along the lane.

【0070】以上のように、本発明を適用した物体種別
判別装置1においては、車線に沿う検出点の点列で示さ
れる物体を1まとまりの物体として判断することに加
え、この1まとまりの物体が車線に沿って設置された複
数のセンターポールであるのか、或いは、車線に沿った
側壁であるのかの判別も行うようにしているので、自車
両100の周囲の状況をより的確に判断することがで
き、自車両100の走行制御を更に高精度に行うことが
可能となる。
As described above, in the object type discriminating apparatus 1 to which the present invention is applied, in addition to judging the object indicated by the point sequence of the detection points along the lane as one group of objects, this one group of objects is also detected. Since it is also determined whether the vehicle is a plurality of center poles installed along the lane or a side wall along the lane, it is possible to more accurately determine the situation around the vehicle 100. Therefore, the traveling control of the host vehicle 100 can be performed with higher accuracy.

【0071】なお、以上説明した物体種別判別装置1で
は、カメラ3により自車両100前方の画像を撮像し、
画像処理部4がこの画像を処理して自車両100前方の
車線を検出して、スキャニングレーザレーダ2により検
出された検出点の点列が自車両100前方の車線に沿う
かどうかを物体判別の1つの基準とするようにしている
が、このような車線の検出に代えて、或いはこれに加え
て、自車両100の車速と操舵角とから自車両100の
軌道を算出する手段を設けて、スキャニングレーザレー
ダ2により検出された検出点の点列が自車両100の軌
道に沿うかどうかを物体判別の1つの基準とするように
してもよい。ここで、自車両100の軌道は、車両の運
動方程式により、各時点における自車両100の車速と
操舵角とから各微少時間毎に動く自車両100の向きと
距離とを積分することで求めることができる。
In the object type discrimination device 1 described above, the camera 3 captures an image in front of the vehicle 100,
The image processing unit 4 processes this image to detect the lane in front of the host vehicle 100, and determines whether the point sequence of the detection points detected by the scanning laser radar 2 is along the lane in front of the host vehicle 100. Although one reference is used, instead of or in addition to such lane detection, means for calculating the trajectory of the own vehicle 100 from the vehicle speed and the steering angle of the own vehicle 100 is provided, Alternatively, whether or not the point sequence of the detection points detected by the scanning laser radar 2 is along the trajectory of the host vehicle 100 may be used as one reference for object discrimination. Here, the trajectory of the host vehicle 100 is obtained by integrating the direction and the distance of the host vehicle 100 moving at each minute time from the vehicle speed and the steering angle of the host vehicle 100 at each time point by the equation of motion of the vehicle. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本原理を説明するための図である。FIG. 1 is a diagram for explaining a basic principle of the present invention.

【図2】車線に沿って複数のセンターポールが連続して
設置された直線道路上を走行する際にスキャニングレー
ザレーダにより検出される自車両前方の様子を示す図で
ある。
FIG. 2 is a diagram showing a state in front of the host vehicle detected by a scanning laser radar when traveling on a straight road where a plurality of center poles are continuously installed along a lane.

【図3】図2に示したスキャニングレーザレーダの検出
結果を従来の方法でグルーピングした場合のグルーピン
グ結果を示す図である。
FIG. 3 is a diagram showing a grouping result when the detection result of the scanning laser radar shown in FIG. 2 is grouped by a conventional method.

【図4】図2に示したスキャニングレーザレーダの検出
結果を本発明によりグルーピングした場合のグルーピン
グ結果を示す図である。
FIG. 4 is a diagram showing a grouping result when the detection results of the scanning laser radar shown in FIG. 2 are grouped according to the present invention.

【図5】車線に沿って複数のセンターポールが連続して
設置されたカーブ路を走行する際のスキャニングレーザ
レーダの検出結果を本発明によりグルーピングした場合
のグルーピング結果を示す図である。
FIG. 5 is a diagram showing a grouping result when the detection results of the scanning laser radar when traveling on a curved road where a plurality of center poles are continuously installed along a lane are grouped according to the present invention.

【図6】本発明を適用した物体種別判別装置の一例を示
すブロック構成図である。
FIG. 6 is a block configuration diagram showing an example of an object type determination device to which the present invention has been applied.

【図7】前記物体種別判別装置を構成するスキャニング
レーザレーダ及びカメラの自車両に対する取り付け状態
を説明する図であり、(A)は自車両の側方から見た様
子を模式的に示す図、(B)は自車両の上方から見た様
子を模式的に示す図である。
FIG. 7 is a diagram for explaining a mounting state of a scanning laser radar and a camera that constitute the object type determination device with respect to the host vehicle, FIG. 7A is a diagram schematically showing a state of the host vehicle viewed from the side; (B) is a diagram schematically showing a state of the vehicle viewed from above.

【図8】前記物体種別判別装置のグルーピング処理部に
よる第1のグルーピング処理の結果を示す図である。
FIG. 8 is a diagram showing a result of first grouping processing by a grouping processing unit of the object type determination device.

【図9】前記物体種別判別装置のグルーピング処理部に
より第1のグルーピング処理を行った後に第2のグルー
ピング処理を行った結果を示す図である。
FIG. 9 is a diagram showing a result of performing a second grouping process after performing a first grouping process by a grouping processing unit of the object type determination device.

【図10】前記物体種別判別装置のスキャニングレーザ
レーダにより検出された複数の検出点の連続性及びこれ
らの点列が車線に沿うかどうかの判断手法を説明する図
であり、スキャニングレーザレーダの検出結果と画像処
理部により検出された車線の画像とを同一の座標上に合
成した様子を示す図である。
FIG. 10 is a diagram for explaining the continuity of a plurality of detection points detected by the scanning laser radar of the object type determination device and a method of determining whether or not these point sequences are along a lane. It is a figure which shows a mode that the result and the image of the lane detected by the image processing part were combined on the same coordinate.

【図11】図10に示した複数の検出点の中から車線の
近傍に位置する検出点に着目した様子を示す図である。
11 is a diagram showing a state in which attention is paid to a detection point located near a lane among the plurality of detection points shown in FIG.

【図12】前記車線の近傍に位置する検出点と、この検
出点から所定の範囲内にある周囲の検出点とを直線で結
んだ様子を示す図である。
FIG. 12 is a diagram showing a state in which a detection point located in the vicinity of the lane and a surrounding detection point within a predetermined range from the detection point are connected by a straight line.

【図13】図10に示した複数の検出点の中から車線に
沿う検出点の点列を認識した様子を示す図である。
13 is a diagram showing a state in which a point sequence of detection points along a lane is recognized from among the plurality of detection points shown in FIG.

【符号の説明】 1 物体種別判別装置 2 スキャニングレーザレーダ 3 カメラ 4 画像処理部 5 グルーピング処理部 6 判別部 100 自車両[Explanation of symbols] 1 Object classification device 2 scanning laser radar 3 cameras 4 Image processing section 5 Grouping processing section 6 discriminator 100 own vehicle

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載されて車両前方に存在する物
体の種別を判別する物体種別判別装置であって、 前記車両前方に送信波を走査させ、その反射波をもとに
前記車両前方に存在する物体を複数の検出点の点列とし
て検出する物体検出手段と、 前記物体検出手段により検出された複数の検出点のうち
で、前記車両からの距離が互いに異なり、且つ、隣接す
る検出点間の距離が所定の値以下の検出点の点列をグル
ーピングするグルーピング手段と、 前記グルーピング手段によりグルーピングされた検出点
の点列で示される物体の種別を判別する判別手段とを備
え、 前記判別手段は、前記グルーピング手段によりグルーピ
ングされた検出点の点列の長さが所定の長さ以上の場
合、或いは、前記車両に対して同様の位置関係にある検
出点の点列が前記グルーピング手段により時間的に連続
してグルーピングされた場合、これらグルーピングされ
た検出点の点列で示される物体を1まとまりの物体とし
て認識することを特徴とする物体種別判別装置。
1. An object type discriminating apparatus which is mounted on a vehicle and discriminates a type of an object existing in front of the vehicle, wherein a transmitted wave is scanned forward of the vehicle, and the forward wave of the vehicle is forwarded based on the reflected wave. Object detection means for detecting an existing object as a point sequence of a plurality of detection points, and among the plurality of detection points detected by the object detection means, the distance from the vehicle is different from each other, and adjacent detection points Grouping means for grouping point sequences of detection points with a distance between them being equal to or less than a predetermined value, and discriminating means for discriminating an object type indicated by the point sequence of detection points grouped by the grouping means, When the length of the point sequence of the detection points grouped by the grouping means is a predetermined length or more, or the point sequence of the detection points having the same positional relationship with the vehicle. Wherein if it is grouped sequentially in time by the grouping means, the object type determination apparatus characterized by recognizing an object represented by the point sequence of the grouped detection point as the object of a cohesive.
【請求項2】 前記グルーピング手段は、前記物体検出
手段により検出された複数の検出点のうちで、前記車両
からの距離が略等しく、且つ、隣接する検出点間の距離
が所定の値以下の検出点の点列もグルーピングすること
を特徴とする請求項1に記載の物体種別判別装置。
2. The grouping means has a plurality of detection points detected by the object detection means, the distances from the vehicle are substantially equal to each other, and the distance between adjacent detection points is equal to or less than a predetermined value. The object type determination device according to claim 1, wherein the point sequence of the detection points is also grouped.
【請求項3】 前記車両前方の画像を撮像する撮像手段
と、 前記撮像手段により撮像された画像を処理する画像処理
手段とを更に備え、 前記グルーピング手段は、前記画像処理手段により処理
された前記車両前方の画像をもとに、前記物体検出手段
により検出された複数の検出点の点列をグルーピングす
ることを特徴とする請求項1又は2に記載の物体種別判
別装置。
3. An image pickup means for picking up an image in front of the vehicle, and an image processing means for processing the image picked up by the image pickup means, wherein the grouping means is processed by the image processing means. The object type determination device according to claim 1 or 2, wherein a point sequence of a plurality of detection points detected by the object detection unit is grouped based on an image in front of the vehicle.
【請求項4】 前記画像処理手段は、前記撮像手段によ
り撮像された画像を処理して前記車両前方の車線を検出
し、 前記グルーピング手段は、前記画像処理手段により検出
された車線に沿う検出点の点列をグルーピングすること
を特徴とする請求項3に記載の物体種別判別装置。
4. The image processing means processes the image captured by the imaging means to detect a lane ahead of the vehicle, and the grouping means detects points along the lane detected by the image processing means. The object type determination device according to claim 3, wherein the point sequences of are grouped.
【請求項5】 前記画像処理手段は、前記車線に沿う検
出点の点列が存在する位置において路面から所定の高さ
までに対応する画像上の領域から縦エッジを検出し、 前記判別手段は、前記画像処理手段により検出された縦
エッジが所定の本数以上、或いは、隣接する縦エッジ間
の間隔が所定の値以下である場合に、前記グルーピング
手段によりグルーピングされた検出点の点列が示す物体
を、前記車線に沿って連続的に設置された柱状体として
認識することを特徴とする請求項3又は4に記載の物体
種別判別装置。
5. The image processing means detects a vertical edge from an area on the image corresponding to a predetermined height from a road surface at a position where a sequence of detection points along the lane exists, and the determining means, An object indicated by a point sequence of detection points grouped by the grouping unit when the number of vertical edges detected by the image processing unit is equal to or more than a predetermined number or the interval between adjacent vertical edges is less than a predetermined value. Is recognized as a columnar body that is continuously installed along the lane, and the object type determination device according to claim 3 or 4.
【請求項6】 前記判別手段は、前記画像処理手段によ
り検出された縦エッジが所定の本数に満たない場合、或
いは、隣接する縦エッジ間の間隔が所定の値を越える場
合であって、前記画像処理手段により前記車線に沿う直
線又は曲線が検出された場合には、前記グルーピング手
段によりグルーピングされた検出点の点列が示す物体
を、車線に沿って設置された側壁として認識することを
特徴とする請求項5に記載の物体種別判別装置。
6. The discriminating means, when the number of vertical edges detected by the image processing means is less than a predetermined number or when the interval between adjacent vertical edges exceeds a predetermined value, When a straight line or a curve along the lane is detected by the image processing means, the object indicated by the point sequence of the detection points grouped by the grouping means is recognized as a side wall installed along the lane. The object type determination device according to claim 5.
【請求項7】 前記車両の車速と操舵角とから前記車両
の軌道を算出する軌道算出手段を更に備え、 前記グルーピング手段は、前記軌道算出手段により算出
された前記車両の軌道に沿う検出点の点列をグルーピン
グすることを特徴とする請求項1乃至6の何れかに記載
の物体種別判別装置。
7. A track calculating means for calculating a track of the vehicle from a vehicle speed and a steering angle of the vehicle is further provided, and the grouping means is for detecting points along the track of the vehicle calculated by the track calculating means. 7. The object type identification device according to claim 1, wherein the point sequences are grouped.
【請求項8】 車両前方に送信波を走査させ、その反射
波をもとに前記車両前方に存在する物体を複数の検出点
の点列として検出し、 検出された複数の検出点のうちで、前記車両からの距離
が互いに異なり、且つ、隣接する検出点間の距離が所定
の値以下の検出点の点列をグルーピングし、 前記グルーピングされた検出点の点列の長さが所定の長
さ以上の場合、或いは、前記車両に対して同様の位置関
係にある検出点の点列が時間的に連続してグルーピング
された場合、これらグルーピングされた検出点の点列で
示される物体を1まとまりの物体として認識することを
特徴とする物体種別判別方法。
8. A transmission wave is scanned in front of the vehicle, an object existing in front of the vehicle is detected as a point sequence of a plurality of detection points based on the reflected wave, and the detected point is detected from among the plurality of detected points. , The distances from the vehicle are different from each other, and the point sequences of the detection points in which the distance between the adjacent detection points is a predetermined value or less are grouped, and the length of the point sequence of the grouped detection points is a predetermined length. In the above case, or when the point sequence of the detection points having the same positional relationship with the vehicle is grouped continuously in time, the object indicated by the point sequence of the grouped detection points is set to 1 An object type determination method characterized by recognizing as a group of objects.
JP2001211707A 2001-07-12 2001-07-12 Object type discrimination device and object type discrimination method Expired - Fee Related JP3649163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001211707A JP3649163B2 (en) 2001-07-12 2001-07-12 Object type discrimination device and object type discrimination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001211707A JP3649163B2 (en) 2001-07-12 2001-07-12 Object type discrimination device and object type discrimination method

Publications (2)

Publication Number Publication Date
JP2003030792A true JP2003030792A (en) 2003-01-31
JP3649163B2 JP3649163B2 (en) 2005-05-18

Family

ID=19046972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001211707A Expired - Fee Related JP3649163B2 (en) 2001-07-12 2001-07-12 Object type discrimination device and object type discrimination method

Country Status (1)

Country Link
JP (1) JP3649163B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057339A (en) * 2001-06-07 2003-02-26 Nissan Motor Co Ltd Object detecting device
US7218385B2 (en) 2004-04-28 2007-05-15 Denso Corporation Preceding vehicle recognition apparatus
JP2007233440A (en) * 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
JP2008059323A (en) * 2006-08-31 2008-03-13 Fuji Heavy Ind Ltd Wall detection device
JP2009169618A (en) * 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc Roadside interface detection device
JP2009265798A (en) * 2008-04-23 2009-11-12 Honda Motor Co Ltd Lane marker recognizing apparatus, vehicle, and program for lane marker recognition
JP2010026798A (en) * 2008-07-18 2010-02-04 Honda Motor Co Ltd Vehicle travel safety apparatus
JP2011103099A (en) * 2009-11-12 2011-05-26 Isuzu Motors Ltd Lane indication line detection apparatus
WO2012046118A2 (en) 2010-10-05 2012-04-12 Toyota Jidosha Kabushiki Kaisha Course determination system and driving assist system of vehicle
US8483442B2 (en) 2007-02-16 2013-07-09 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
JP2016043700A (en) * 2014-08-19 2016-04-04 日野自動車株式会社 Travel road edge estimation apparatus
JP2016197046A (en) * 2015-04-03 2016-11-24 日産自動車株式会社 Object detector
JP2018026150A (en) * 2012-03-23 2018-02-15 グーグル エルエルシー Detection of lane marking
JP2019095290A (en) * 2017-11-22 2019-06-20 トヨタ自動車株式会社 Target discriminating device
EP3757513A4 (en) * 2018-02-20 2021-03-17 Mitsubishi Electric Corporation Measurement monitoring apparatus and measurement monitoring program
JP2021128529A (en) * 2020-02-13 2021-09-02 日立Astemo株式会社 Driving assistance device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04248489A (en) * 1991-02-04 1992-09-03 Toyota Motor Corp Preceding car detector for vehicle
JPH07270536A (en) * 1994-03-31 1995-10-20 Omron Corp Equipment and method for discriminating object and vehicle mounting equipment for discriminating object
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
JPH10239436A (en) * 1997-02-21 1998-09-11 Mitsubishi Electric Corp Detector for vehicle-to-vehicle distance
JPH10283477A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JP2000132799A (en) * 1998-10-29 2000-05-12 Mitsubishi Electric Corp Control object selecting device
JP2000215396A (en) * 1999-01-27 2000-08-04 Mitsubishi Motors Corp Vehicle travel controller

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04248489A (en) * 1991-02-04 1992-09-03 Toyota Motor Corp Preceding car detector for vehicle
JPH07270536A (en) * 1994-03-31 1995-10-20 Omron Corp Equipment and method for discriminating object and vehicle mounting equipment for discriminating object
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
JPH10239436A (en) * 1997-02-21 1998-09-11 Mitsubishi Electric Corp Detector for vehicle-to-vehicle distance
JPH10283477A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JP2000132799A (en) * 1998-10-29 2000-05-12 Mitsubishi Electric Corp Control object selecting device
JP2000215396A (en) * 1999-01-27 2000-08-04 Mitsubishi Motors Corp Vehicle travel controller

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057339A (en) * 2001-06-07 2003-02-26 Nissan Motor Co Ltd Object detecting device
US7218385B2 (en) 2004-04-28 2007-05-15 Denso Corporation Preceding vehicle recognition apparatus
JP2007233440A (en) * 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
JP2008059323A (en) * 2006-08-31 2008-03-13 Fuji Heavy Ind Ltd Wall detection device
US8483442B2 (en) 2007-02-16 2013-07-09 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
US8625851B2 (en) 2007-02-16 2014-01-07 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
US8571265B2 (en) 2007-02-16 2013-10-29 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
JP2009169618A (en) * 2008-01-15 2009-07-30 Toyota Central R&D Labs Inc Roadside interface detection device
JP2009265798A (en) * 2008-04-23 2009-11-12 Honda Motor Co Ltd Lane marker recognizing apparatus, vehicle, and program for lane marker recognition
JP2010026798A (en) * 2008-07-18 2010-02-04 Honda Motor Co Ltd Vehicle travel safety apparatus
JP2011103099A (en) * 2009-11-12 2011-05-26 Isuzu Motors Ltd Lane indication line detection apparatus
JP2012079206A (en) * 2010-10-05 2012-04-19 Toyota Motor Corp Travel path determination system for vehicle
WO2012046118A2 (en) 2010-10-05 2012-04-12 Toyota Jidosha Kabushiki Kaisha Course determination system and driving assist system of vehicle
US9208128B2 (en) 2010-10-05 2015-12-08 Toyota Jidosha Kabushiki Kaisha Course determination system and driving assist system of vehicle
JP2018026150A (en) * 2012-03-23 2018-02-15 グーグル エルエルシー Detection of lane marking
JP2016043700A (en) * 2014-08-19 2016-04-04 日野自動車株式会社 Travel road edge estimation apparatus
JP2016197046A (en) * 2015-04-03 2016-11-24 日産自動車株式会社 Object detector
JP2019095290A (en) * 2017-11-22 2019-06-20 トヨタ自動車株式会社 Target discriminating device
EP3757513A4 (en) * 2018-02-20 2021-03-17 Mitsubishi Electric Corporation Measurement monitoring apparatus and measurement monitoring program
JP2021128529A (en) * 2020-02-13 2021-09-02 日立Astemo株式会社 Driving assistance device
JP7385489B2 (en) 2020-02-13 2023-11-22 日立Astemo株式会社 Driving aid device

Also Published As

Publication number Publication date
JP3649163B2 (en) 2005-05-18

Similar Documents

Publication Publication Date Title
US6823261B2 (en) Monitor system of vehicle outside and the method thereof
JP2003030792A (en) Device and method for discriminating type of object
KR101395089B1 (en) System and method for detecting obstacle applying to vehicle
US6859730B2 (en) Monitor system of vehicle outside and method of monitoring same
JP3596314B2 (en) Object edge position measuring device and moving object traffic judging device
US8625850B2 (en) Environment recognition device and environment recognition method
US6834254B2 (en) Monitor system of vehicle outside and the method thereof
JPH10283461A (en) Outer-vehicle monitoring device
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
JP5262907B2 (en) Vehicle traffic detection device
JP2002303671A (en) Object-classification discrimination apparatus
JP2019053490A (en) Target recognition device, target recognition method, and vehicle control system
JP2000266539A (en) Inter-vehicle distance measuring apparatus
JP2001195698A (en) Device for detecting pedestrian
JPH08156723A (en) Vehicle obstruction detecting device
JP4067340B2 (en) Object recognition device and object recognition method
JP3649166B2 (en) Object type discrimination device and object type discrimination method
JP2002334330A (en) Vehicle recognition device
JP3868915B2 (en) Forward monitoring apparatus and method
JP3822417B2 (en) Vehicle periphery monitoring device
JPH07296291A (en) Traveling lane detector for vehicle
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
JP2017007499A (en) Parking support device for vehicle
JP2003308599A (en) Traveling route environment detector
JP4074550B2 (en) Object recognition apparatus and recognition method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees