JP3794041B2 - Vehicle obstacle detection device - Google Patents

Vehicle obstacle detection device Download PDF

Info

Publication number
JP3794041B2
JP3794041B2 JP24627795A JP24627795A JP3794041B2 JP 3794041 B2 JP3794041 B2 JP 3794041B2 JP 24627795 A JP24627795 A JP 24627795A JP 24627795 A JP24627795 A JP 24627795A JP 3794041 B2 JP3794041 B2 JP 3794041B2
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
data
host vehicle
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24627795A
Other languages
Japanese (ja)
Other versions
JPH08161697A (en
Inventor
康典 山本
智彦 足立
歩 土井
透 吉岡
敏弘 石川
憲一 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP24627795A priority Critical patent/JP3794041B2/en
Publication of JPH08161697A publication Critical patent/JPH08161697A/en
Application granted granted Critical
Publication of JP3794041B2 publication Critical patent/JP3794041B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自車両前方に存在する物体を検出する物体検出手段を備え、該物体検出手段によって検出された物体に基づき障害物判断を行う車両の障害物検知装置に関する。
【0002】
【従来の技術】
従来、自車両の操舵角、車速等の車両状態量から自車両が今後走行すると予測される進行路を推定する進行路推定手段を備え、レーダ手段の広範囲の走査で得られる情報の中から、上記進行路推定手段で予測される進行路に沿った領域内の前方物体のみを障害物としてピックアップし、その障害物に自車両が接触する可能性があるか否かを判断するものが知られている。
【0003】
ところが、そのようなものでは、一般に、レーダ手段によって例えば先行車両を認定する場合に、レーダ手段から発信されたレーダ波が先行車両のリフレクタ、ボディ等によって反射され、それが受信されて点(小さい領域)として認識され、そのうちの自車両から最短距離の点を物体(障害物)と判断するようにしているので、進行路が変化すると、障害物判断を行う領域が変化し、それに伴って自車両からの最短距離の点が変動することになる。そのため、結果として、同一の物体(障害物)でありながら、その物体と自車両との相対速度がバラツクという問題がある。また、先行車両のリフレクタ等が汚れている場合には、自車両に近い近距離であれば物体が存在すると判断されても、自車両から離れた遠距離では検出されずに物体であると判断されず、結果として、ある一定の大きさを有する物体(障害物)でありながら、遠距離においては、物体(障害物)全体を検出することができない。
【0004】
また、障害物として先行車両を認識するものとして、例えば特開平3−111785号公報に記載されるように、自車両の前方の所定の角度範囲にわたり送信波を掃引照射し、反射波を検出することにより、前方に存在する物体を検出する掃引型のレーダ手段と、このレーダ手段の結果より物体の横方向の大きさを認識する幅認識手段と、レーダ手段の検出結果から物体の自車両に対する角度を認識する角度認識手段と、幅認識手段及び角度認識手段の認識結果より、自車両の進行方向にほぼ直角で所定範囲内の幅を有する物体を車両と認識する車両認識手段と、を有する先行車両認識装置が知られている。
【0005】
【発明が解決しようとする課題】
ところが、上述した先行車両認識装置は、レーダ手段の検出結果から認識される物体の横方向の大きさ、物体の自車両に対する角度により、自車両の進行方向に略直角で所定範囲内の幅を有する物体を車両と認識するようにしているが、レーダ手段による物体の横方向の大きさ、物体の自車両に対する角度のバラツキが大きく、精度よく認識することが困難である。また、例えば同一速度で走行している2つの先行車両が並列に走行している場合には、それらを1つの物体と誤認識してしまうおそれもある。
【0006】
本発明はかかる点に鑑みてなされたもので、自車両前方に存在する物体(障害物)を精度よく検知することができる障害物検知装置を提供するものである。
【0007】
【課題を解決するための手段】
本発明は、自車両前方に存在する物体の少なくとも相対速度を含む属性を検出する物体検出手段を備え、該物体検出手段によって検出された物体の属性に基づき障害物判断を行う車両の障害物検知装置を前提とするものである。
【0008】
請求項1に係る発明は、上記物体検出手段の出力を受け、自車両から見た物体の少なくとも相対速度を含む属性に基づき該物体が一定時間経過後に移動すると予想される予想領域を設定する予想領域設定手段と、
上記物体検出手段の出力を受け予想領域の周囲又は上記周囲の一部に検索領域を設定する検索領域設定手段と、
上記物体検出手段、予想領域設定手段及び検索領域設定手段の出力を受け、一定時間経過後に物体検出手段によって検出された物体と予想領域及び検索領域との比較により、物体が予想領域に存在するときはその物体が該予想領域に移動したと認定し、物体が検索領域に存在するときは、予想領域から物体までの距離が所定値以下であるときにその物体が該検索領域に移動したと認定する物体認定手段とを備え、
上記物体検出手段は、一定時間内に検出された同一物体についての複数のデータに基づいて物体の大きさを検出し、該物体について上記物体認定手段による認定に必要なデータが得られなくなったときは、その後の所定時間内に該データが再度得られた時に該物体の大きさを検出し直して更新するものであり、
上記物体認定手段は、上記所定時間は上記データが得られないときも上記物体が上記予想領域又は検索領域に存在すると認定する。
【0009】
請求項2に係る発明においては、予想領域設定手段が、自車両から見た物体の少なくとも相対速度と該物体の大きさとを含む属性に基づいて該物体が一定時間経過後に移動すると予想される予想領域を設定するものである。
【0010】
請求項3に係る発明においては、物体認定手段の出力を受け、認定された物体のうち、自車両の障害物となり得る物体を選択して登録する物体登録手段と、該物体登録手段の出力を受け、登録された物体同士のデータを比較して、それらが同一物体に属するか否かを判定する同一判定手段とを備える。
【0011】
請求項4に係る発明においては、物体検出手段は、一定時間内に検出された同一物体についての複数のデータに基づき、平均処理により、物体の大きさを検出するものである。
【0012】
請求項5に係る発明においては、物体検出手段は、一定時間内に検出された同一物体についての複数のデータうち、障害物判断に最も適する最適値を物体をとして検出するものである。
【0013】
請求項6に係る発明においては、物体検出手段は、自車両からの距離に応じて、物体を検出する範囲を変更するものである。
【0014】
請求項7に係る発明においては、物体登録手段は、登録される物体の総数を所定数以下となるように制限するものである。
【0015】
請求項8に係る発明においては、物体登録手段は、障害物となり得るとして選択された物体が所定数を越える場合、障害物判断の必要度の小さい物体から順に除いて、登録される物体の総数を所定数以下となるように制限するものである。
【0016】
請求項9に係る発明においては、物体登録手段は、登録されている物体が物体検出手段によって連続して所定回数検知できなかったときには、登録を抹消するものである。
【0017】
請求項10に係る発明においては、物体登録手段は、自車両前方の所定距離までの範囲と、それを越える範囲とで、物体を障害物として選択する基準を変更するものである。
【0018】
請求項11に係る発明においては、物体を障害物として選択し登録する基準を変更するための自車両前方の距離に関するしきい値が、自車両の速度に基づいて該速度が高いときの方が低いときよりも大きくなるようにされる。
【0019】
請求項12に係る発明においては、物体登録手段は、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体を、それを越える範囲では、進行路の中心線を基準に所定角度の範囲に存在する物体をそれぞれ障害物と認定して登録するものである。
【0020】
請求項13に係る発明においては、物体登録手段は、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体を障害物として選択し、それを越える範囲では、物体の相対速度ベクトルに基づいて障害物を選択するものである。
【0021】
請求項14に係る発明においては、予想領域設定手段は、自車両前方の所定距離までの範囲と、それを越える範囲とで、予想領域の前後方向の長さを変更するものである。
【0022】
請求項15に係る発明においては、物体認定手段は、物体が予想領域及び検索領域外にあると認められるときは、新規な物体であると認定するものである。
【0023】
請求項16に係る発明においては、物体認定手段は、物体が2つの予想領域又は検索領域のいずれにも属すると認められるときは、物体の大きさの小さい側の予想領域又は検索領域に物体が移動したものと判定するものである。
【0024】
請求項17に係る発明においては、同一判定手段は、障害物として登録されている物体が静止物体であるか移動物体であるかによって判定条件を変更するものである。
【0025】
請求項18に係る発明においては、予想領域設定手段は、自車両前方の所定距離までの範囲とそれを越える範囲とで、予想領域の左右方向の大きさを変更するものである。
【0026】
請求項19に係る発明においては、物体登録手段は、登録された物体のデータを一定周期で変更する。
【0027】
請求項20に係る発明においては、物体検出手段は、自車両前方に存在する物体を検出するレーダヘッドユニットを有する。
【0028】
請求項1に係る発明によれば、自車両から見た物体の少なくとも相対速度を含む属性に基づき該物体が一定時間経過後に移動すると予想される予想領域が予想領域設定手段によって設定され、さらに上記予想領域の周囲又は上記周囲の一部に検索領域が検索領域設定手段によって設定され、一定時間経過後に物体検出手段によって検出された物体と予想領域及び検索領域との比較により、物体が予想領域に存在するときはその物体が該予想領域に移動したと認定され、物体が検索領域に存在するときは、予想領域から物体までの距離が所定値以下であるときにその物体が該検索領域に移動したと認定され、物体の認識が確実になされ、障害物判断が精度よく行われる。
【0029】
しかも、物体の認定に必要な当該物体についてのデータが当該領域に存在しなくなったときでも、物体認定手段は所定時間は当該物体が当該領域に存在すると認定し、その登録はキャンセルされず、この所定時間内に当該物体についてのデータが再度得られた時に物体検出手段はその大きさを検出し直して更新し、物体の認定に供する。よって、実際には自車両前方に物体が存在するのに、これを存在しないとして誤ってキャンセルすることを防止することができ、物体の認識が確実になされ、障害物判断が精度よく行われる。
【0030】
請求項2に係る発明によれば、自車両から見た物体の少なくとも相対速度と該物体の大きさとを含む属性に基づいて該物体が一定時間経過後に移動すると予想される予想領域が設定される。
【0031】
請求項3に係る発明によれば、物体認定手段によって認定された物体のうち、自車両の障害物となり得る物体が、物体登録手段によって、選択されて登録され、それから、同一判定手段によって、障害物として選択されて登録された2つの物体同士のデータが比較され、それらが同一の物体に属するか否かが判定される。
【0032】
請求項4に係る発明によれば、物体検出手段によって、一定時間内に検出された同一物体についての複数のデータに基づき、平均処理により、物体の大きさが検出される。
【0033】
請求項5に係る発明によれば、物体検出手段によって、一定時間内に検出された同一物体についての複数のデータうち、障害物検知に最も適する最適値が物体として検出される。
【0034】
請求項6に係る発明によれば、自車両からの距離に応じて、物体検出手段によって物体が検出される範囲が変更される。
【0035】
請求項7に係る発明によれば、物体登録手段によって、障害物として選択されて登録される物体の総数が所定数以下となるように制限される。
【0036】
請求項8に係る発明によれば、物体登録手段によって、障害物となり得るとして選択された物体が所定数を越える場合に、障害物判断の必要度の小さい障害物から順に除かれて、障害物として選択されて登録される物体の総数が所定数以下となるように制限される。
【0037】
請求項9に係る発明によれば、登録されている物体が、物体検出手段によって連続して所定回数検知できなかったときには、登録が抹消される。
【0038】
請求項10に係る発明によれば、物体登録手段によって障害物として選択されて登録される基準が、自車両前方の所定距離までの範囲と、それを越える範囲とで、変更される。
【0039】
請求項11に係る発明によれば、物体を障害物として選択し登録する基準を変更するための自車両前方の距離に関するしきい値が、自車両の速度に基づいて該速度が高いときの方が低いときよりも大きくなるように設定される。
【0040】
請求項12に係る発明によれば、物体登録手段によって、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体が、それを越える範囲では、進行路の中心線を基準に所定角度の範囲に存在する物体がそれぞれ障害物として選択され登録される。
【0041】
請求項13に係る発明によれば、物体登録手段によって、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体が障害物として選択されて登録され、それを越える範囲では、物体の相対速度ベクトルに基づいて物体が障害物として選択されて登録される。
【0042】
請求項14に係る発明によれば、予想領域設定手段によって、自車両前方の所定距離までの範囲と、それを越える範囲とで、予想領域の前後方向の長さが変更される。
【0043】
請求項15に係る発明によれば、物体認定手段によって、物体が予想領域及び検索領域外にあるときは、新規な物体であると判定される。
【0044】
請求項16に係る発明によれば、物体認定手段によって、物体が2つの予想領域又は検索領域のいずれにも属するときは、物体の大きさの小さい側の予想領域又は検索領域に物体が移動したものと判定される。
【0045】
請求項17に係る発明によれば、同一判定手段によって、登録されている物体が、静止物体であるか移動物体であるかによって判定条件が変更される。
【0046】
請求項18に係る発明によれば、自車両前方の所定距離までの範囲と、それを越える範囲とで、予想領域設定手段によって設定される予想領域の左右方向の大きさが変更される。
【0047】
請求項19に係る発明によれば、物体登録手段によって登録されている物体のデータが一定周期で変更(更新)される。
【0048】
請求項20に係る発明によれば、レーダヘッドユニットによって、物体が精度よく検出される。
【0049】
【発明の実施の形態】
以下、本発明の実施形態を図面に沿って詳細に説明する。
【0050】
自動車の全体構成を示す図1において、1は自車両である自動車で、その車体2の前部に、自車両前方に存在する物体(具体的には物体の全部又は一部)を検出するレーダヘッドユニット3が設けられている。このレーダヘッドユニット3は、レーダ波としてのパルスレーザ光を発信部から自車両の前方に向けて発信すると共に、前方に存在する先行車両等の障害物となり得る物体に当たって反射してくる反射波を受信部で受信するように構成されており、自車両から進行路上の物体(障害物)までの距離を計測するものである。また、物体検出手段3は、その発信部から発信する、縦に細く垂直方向に扇状に拡がったパルスレーザ光(ビーム)を水平方向に比較的広角度で走査させるスキャン式のものである。
【0051】
また、4はコントロールユニットで、図2に示すように、レーダヘッドユニット3からの信号と共に、自車両の車速を検出する車速センサ5、ステアリングハンドル6の操舵角を検出する舵角センサ7及び自車両が発生するヨーレートを検出するヨーレートセンサ8からの信号も入力され、それらの信号に基づいて、進行路状態がヘッドアップディスプレイ9に表示され、自車両前方に障害物(物体)を検知すると、警報装置10が作動すると共に、車両制御装置11がブレーキ11aを作動させて各車輪に制動力を自動的に付与するようになっている。
【0052】
上記コントロ−ルユニット4は、図3に示すように、上記レーダヘッドユニット3と、該レーダヘッドユニット3の出力を受け、自車両前方に物体が存在するか否かを決定する物体決定手段21とからなる物体検出手段22を備える。また、物体検出手段22の出力を受け、検出された物体の属性(例えば距離、方位、大きさ、相対速度等)に基づき該物体が一定時間経過後に移動すると予想される予想領域を設定する予想領域設定手段23と、物体検出手段22の出力を受け予想領域の周囲又はその一部に検索領域を設定する検索領域設定手段24と、上記物体検出手段22及び予想領域設定手段23、検索領域設定手段24の出力を受け、一定時間経過後に物体検出手段22によって検出された物体と予想領域及び検索領域との比較により物体の移動を判定し、その移動に基づき物体を認定する物体認定手段25と、該物体認定手段25の出力を受け、認定された物体のうち、自車両の障害物となり得る物体を選択して登録する物体登録手段26と、該物体登録手段26の出力を受け、登録された物体同士の属性を比較して、それらが同一の物体に属するか否かを判定する同一判定手段27とを備える。そして、このようにして、選択され同一判定手段27による処理を経た物体(障害物)に基づき、進行路推定手段28によって推定される進行路について、障害物判定手段29によって障害物判断が行われる。
【0053】
上記物体決定手段21は、一定時間内にレーダヘッドユニット3によって検出された同一物体についての複数のデータに基づき、平均処理により、物体の大きさを精度よく検出(決定)するようになっている。また、一定時間内に検出された同一物体についての複数のデータうち、障害物判断に最も適する最適値(例えば自車両から最短距離のもの)を物体として検出(決定)し、障害物判断の精度を高めるように構成されている。さらに、上記物体決定手段21は、自車両からの距離に応じて、物体を検出する範囲を変更するように構成されている。即ち、自車両から所定距離前方までは自車両中心線を基準に所定幅の範囲で、それを越えると、自車両中心線を基準に所定角度範囲内に存在する物体を検出するようにし、検出する範囲を、障害物となる物体が存在すると考えられる範囲に限定し、物体検出の効率化を図るようになっている。
【0054】
上記予想領域設定手段23は、自車両前方の所定距離までの範囲と、それを越える範囲とで、予想領域の前後方向の大きさ及び左右方向の大きさを変更するように構成されている。即ち、自車両前方の所定距離までの範囲では、それを越える範囲よりも、予想領域の前後方向の大きさ及び左右方向の大きさを大きく設定し、自車両前方の所定距離までの範囲におけるノイズによる影響を低減できるようにしている。
【0055】
上記物体認定手段25は、物体認定の効率化のために、物体が予想領域内に存在すると認められるときは、無条件に物体が予想領域内に移動したと認定し、物体が予想領域及び検索領域外にあると認められるときは、新規な物体であると認定するように構成されている。また。物体認定手段25は、物体が2つの予想領域又は検索領域のいずれにも属すると認められるときには、物体の大きさの小さい側の予想領域又は検索領域に物体が移動したものと認定し、同一判定手段27による判定を精度よく行うために、物体の大きさが無限に大きくなっていくのを防止している。
【0056】
また、上記物体登録手段26は、処理の迅速化のため、障害物として選択され登録される物体の総数を所定数(例えば本実施例では40個)以下となるように制限するようになっており、例えば、障害物となり得るとして選択された物体が所定数を越えて認定された場合には、障害物判断の必要度の小さい障害物から順に除いて、障害物として選択され登録される物体の総数が所定数以下となるように制限されるように構成されている。また、物体登録手段26によって障害物として登録されている物体が、物体検出手段22によって連続して所定回数検知できなかったときには、もはや検知エリアに物体が存在しなくなったと考えられるので、登録を抹消するようになっている。また、上記物体登録手段26は、自車両前方の所定距離までの範囲と、それを越える範囲とで、物体を障害物として選択し登録する基準を変更するように構成されている。例えば自車両前方の所定距離までの範囲では、側方からの飛出し等を考慮して進行路の中心線を基準に所定幅の範囲に存在する物体を、それを越える範囲では、自車両がそこに達するまでに一定の時間を要すること、現在進行路上になくても進行路の方に向かって来る車両等があること等を考慮して進行路の中心線を基準に所定角度の範囲に存在する物体をそれぞれ障害物として選択し登録する。また、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体を障害物として選択して登録し、それを越える範囲では、物体の相対速度ベクトルに基づいて、自車両の方に向かって来る物体のみを障害物として選択して登録するようにしてもよい。尚、物体登録手段26において登録されている物体の属性は、物体認定手段25により認定された結果に基づき、一定周期で変更(更新)され、常に現実の状態に近づけられ、無駄な障害物判断の処理を行わなくてもよいように構成されている。
【0057】
上記同一判定手段27は、進行路上に存在する物体が移動物体である場合には、あまり大きいものが存在するとは考えられないので、登録されている物体が静止物体か移動物体かによって判定条件を変更するように構成されている。
【0058】
上記進行路推定手段28は、車速センサ5及び舵角センサ7によって検出される自車両の車速Vと舵角φに基づいて自車両の進行路を推測するもので、具体的には進行路の曲率半径R1 を、次の式によって算出することによって行う。
【0059】
R1 =(1+A・V2 )・LB ・N/φ
但し、A :スタビリティファクタ
N :ステアリングギヤ比
LB :ホイールベース
【0060】
また、ヨーレートセンサ8によって検出される自車両のヨーレートγと車速Vに基づいて、自車両の進行路を予想することもでき、その場合の進行路の曲率半径R2 は次の式で算出される。
【0061】
R2 =V/γ
【0062】
ところで、高速道路等の曲線部にカントがあるときには、舵角φは実際の自車両の旋回角度と一致せず、この場合、舵角φに基づいて予想される自車両の進行路の曲率半径は、実際の曲率半径より大きくなる。また、自車両が直進走行しているときでも、ステアリングハンドルは左右に微妙に操舵されるのが普通であるから、舵角φに追従して車両の進行路を予想すると、その予想された進行路が実際の進行路と一致しなくなる場合がある。そこで、舵角φが所定値よりも小さいときは、ヨーレートγ及び車速Vから算出される進行路の曲率半径R2 を選択し、舵角φが所定値以上のときには、進行路の曲率半径R1 ,R2 のうち小さい方を選択するのが好ましい。即ち、自車両がカントを有する曲線道路上を旋回するときには、ステアリングハンドルを大きく操舵しなくても、自車両はカントにより旋回運動をすることから、自車両に発生するヨーレートに基づいて、曲率半径R2 を求めることにより自車両の進行路が的確に予想され、また、自車両が急激な旋回走行をするときには、大きな値となる舵角φに対応した曲率半径R1 が選択される一方、自車両が直線走行するときには、ステアリングハンドルはわずかに操作されるが、ヨーレートγは生じないので、このヨーレートγに基づき、直線道路であると予想された曲率半径R2 が選択される。
【0063】
続いて、コントロールユニット4による処理の流れについて説明する。
【0064】
<基本制御>
図4に示すように、スタートすると、まず、レーダヘッドユニット3によって検出された物体についてのデータの前処理が物体決定手段21によって行われる(ステップS1 )。即ち、レーダヘッドユニット3のスキャン角度範囲30°を300の部分に等角度分割し、各角度毎の物体(具体的には物体の全部とは限らず、一部である場合もある)、具体的には距離データ(自車両から、自車両前方に位置する物体までの距離についてのデータ)のうち、自車両から最短距離の物体を、障害物検知に最も適する最適値としてピックアップする。
【0065】
それから、ピックアップされた各物体の属性(大きさ、方位、距離、相対速度等)に基づき、予想領域設定手段23が、一定時間経過後に各物体が移動するであろうと予想される予想領域を設定すると共に、その予想領域の周囲にも物体が移動する可能性があるため、その周囲についても物体の移動がないか否かの検索を行う検索領域を、検索領域設定手段24によって設定する(ステップS2)。
【0066】
予想領域及び検索領域の設定後、物体の属性の判定を行う(ステップS3 )。即ち、物体認定手段25により、一定時間経過後に物体検出手段22によって検出された物体と予想領域及び検索領域との比較により、物体の移動を判定し、その移動に基づき物体を認定し、今回認定(検出)された物体が、物体登録手段によってすでに登録されている物体のいずれかに属するか否かを判定する。
【0067】
その結果に基づいて、不必要な物体(例えば登録はされているが今回検出されなかった物体)の登録が抹消され(ステップS4 )、すでに登録されている、いずれの物体にも属さなかった物体は、新規な物体として新たに登録されることになる(ステップS5 )。
【0068】
そして、登録されている物体の抹消、新規な物体の登録がなされ、確定(登録)された物体に基づいて、一定条件下、障害物検知に用いる物体を選択することで、障害物として登録される物体の総数が所定数以下となるように制限し(ステップS6 )、それに続いて、所定数以下に制限された各物体について、その物体の属性に基づき、障害物となり得る可能性がある物体の属性(大きさ、方位、距離、相対速度等)を変更する(ステップS7 )。
【0069】
このようにして、検出された物体についての一連の処理が終了し、障害物となり得る可能性がある物体が選択され登録されると、選択され登録された物体について、物体同士の属性を順に比較して、それらの物体が同一の物体に属するものであるか否かを判定する同一判定処理を行い(ステップS8 )、所定数以下に制限された物体をグループ化していくつかの物体の塊として把握して、リターンする。
【0070】
このようにすれば、グループ化された物体は1つの物体の塊に属するものであるから、それらの物体の間では相対速度差がないことになり、各物体ごとに判断する場合に比して、誤識別が少なくなり、正確に衝突判定等の障害物判断を行うことができる。
【0071】
<物体までの距離の検出>
図5に示すように、スタートすると、まず、レーダヘッドユニット3のスキャン回数i(i=1,2,3)をリセットして0にする(ステップS11)。即ち、i=0とする。
【0072】
そして、1回スキャンを行うことから、スキャン回数iをインクリメントしてi+1とし(ステップS12)、その後、i=4であるか否かを判定する(ステップS13)。
【0073】
i=4でなければ、レーダヘッドユニット3のスキャン角度範囲30°を300の部分に等角度分割してなる各角度部分ごとの番号j(j=1,…,300)をリセットして0とする(ステップS14)。即ち、j=0とする。
【0074】
それから、角度部分ごとの番号jをイクリメントしてj+1とし(ステップS15)、j=300であるか否かを判定し(ステップS16)、j=300である場合には、すべての角度部分について終了しているので、ステップS12にリターンする一方、j=300でない場合にはステップS17に移行して、i=1であるか否かを判定する。
【0075】
i=1であれば、第1回目のスキャンであるから、第1回目のスキャンの各角度部分に対応する角度データdt(1,j) を、今回入力された、物体についての距離データinp-data(j) とし(ステップS18)、ステップS15にリターンする一方、i=1でなければ、ステップS19に移行して、i=2であるか否かを判定する。i=2であれば、第2回目のスキャンであるから、第2回目のスキャンの各角度部分に対応する角度データdt(2,j) を、今回入力された、物体についての距離データinp-data(j) とし(ステップS20)、ステップS15にリターンする一方、i=2でなければ、第3回目のスキャンであるから、第3回目のスキャンの各角度部分に対応する角度データdt(3,j) を、今回入力された、物体についての距離データinp-data(j) とし(ステップS21)、ステップS15にリターンする。
【0076】
一方、ステップS13の判定において、i=4であれば、リセットによりj=0とし(ステップS22)、それから、各角度部分ごとの番号jをインクリメントしてj+1とし(ステップS23)、j=300であるか否かを判定し(ステップS24)、j=300である場合には、リセットによりi=0とし(ステップS25)、ステップS12にリターンする一方、j=300でない場合にはステップS26に移行して、まず、第2回目のスキャンの角度部分(番号j)の物体についての距離データdt(2,j) が第1回目のスキャンの角度部分(番号j)の物体についての距離データdt(1,j) より小さいか否かを判定し、距離データdt(2,j) が距離データdt(1,j) より小さい場合には、さらに距離データdt(2,j) が第2回目のスキャンの角度部分(番号j)の物体についての距離データdt(3,j) より小さいか否かを判定する(ステップS27)。
【0077】
距離データdt(2,j) が距離データdt(3,j) より小さい場合には、距離データdt(2,j) が最短値であるから、角度部分ごとの距離データdata(j) として距離データdt(2,j) を採用し(ステップS28)、ステップS23にリターンする一方、距離データdt(2,j) が距離データdt(3,j) より小さくない場合には、距離データdt(3,j) が最短値であるから、角度部分ごとの距離データdata(j) として距離データdt(3,j) を採用し(ステップS29)、ステップS23にリターンする。
【0078】
一方、ステップS26の判定において、距離データdt(2,j) が距離データdt(1,j) より小さくない場合にはさらに距離データdt(1,j) が距離データdt(3,j) より小さいか否かを判定する(ステップS30)。距離データdt(1,j) が距離データdt(3,j) より小さい場合には、距離データdt(1,j) が最短値であるから、角度部分ごとの距離データdata(j) として距離データdt(1,j) を採用し(ステップS31)、ステップS23にリターンする一方、距離データdt(1,j) が距離データdt(3,j) より小さくない場合には、距離データdt(3,j) が最短値であるから、角度部分ごとの距離データdata(j) として距離データdt(3,j) を採用し(ステップS32)、ステップS23にリターンする。
【0079】
従って、レーダヘッドユニット3のスキャン角度範囲30°を等角度分割してなる300の角度部分について、それぞれ3回づつ距離データが得られるが、各角度部分ごとに最短値が確定データとして採用されることとなる。
【0080】
<物体の大きさの検出>
図6に示すように、スタートすると、レーダヘッドユニット3のスキャン回数iが5回以下であるか否かを判定し(ステップS36)、5回以下であれば、ステップS37に移行し、次の式により、各角度部分(番号j)についての物体の大きさOB-size(j)を演算し、その後、スキャン回数iをインクリメントしてi+1とし(ステップS38)、リターンする。
【0081】
OB-size(j)=(i−1)/i×OB-size(j)
+1/i×OB-N-size(j)
【0082】
それから、検出回数が5回を越えると、今回検知された物体の大きさOB-N-size(j)が、すでに登録されている物体の大きさOB-size(j)についての所定の範囲内に属するか否かが判定される(ステップS39)。
【0083】
そして、所定の範囲内に属すれば、物体の大きさOB-size(j)を、今回検知された物体の大きさOB-N-size(j)として(ステップS40)、ステップS38を経て、リターンする。一方、所定範囲内に属さなければ、今回検知された物体の大きさOB-N-size(j)が、同一の角度部分(番号j)において平均処理された物体の大きさOB-size(j)よりも大きいか否かが判定され(ステップS41)、大きければ、今回検出された物体の角度データの最小値ang-N-min(j)が、登録されている物体の角度データの最小値ang-min(j)に等しいか否かを判定する(ステップS42)一方、大きくなければ、予想される物体予想位置を修正し(ステップS43)、ステップS40及びステップS38を経て、リターンする。
【0084】
ステップS42の判定で、等しければ、予想される物体予想位置を登録されている角度データの最小値ang-min(j)に合せて修正し(ステップS44)、ステップS40及びステップS38を経て、リターンする。一方、等しくなければ、さらに、今回検出された物体の角度データの最大値ang-N-max(j)が、登録されている物体の角度データの最大値ang-max(j)に等しいか否かを判定する(ステップS45)。そして、今回検出された物体の角度データの最大値ang-N-max(j)が、登録されている物体の角度データの最大値ang-max(j)に等しければ、予想される物体予想位置を登録されている物体の角度データの最大値ang-max(j)に合せて修正する(ステップS46)一方、等しくなければ、予想される物体予想位置に修正し(ステップS47) 、ステップS40及びステップS38を経て、リターンする。
【0085】
尚、図6に示す制御では、検出回数が5回以上になると、物体の大きさが確定し変化しないように取扱っているが、検出回数が所定回数経過するごとに物体の大きさを計算し直して更新することもできる。
【0086】
<物体の予想領域設定>
図7において、スタートすると、先ず、検出された物体の属性に基づき該物体が一定時間経過後に移動すると予想される、物体予想位置を含む物体予想領域を設定する(ステップS51〜S55)。ここで、図8に示すように、登録(確定)されている物体について、自車両から物体基準位置までの距離をOB-dist 、自車両に対する物体基準位置の方位(角度)をOB-ang、物体の左右方向の大きさをOB-size 、物体の前後方向の大きさをOB-div、領域端(角度データ)をOB-min(左側)、OB-max(右側)でそれぞれ表わす。今回検出されると予想される物体の予想位置について、距離はOB-dist-N 、方位はOB-ang-N、前後方向の大きさOB-div-N、予想位置の領域端OB-min-N(左側)、OB-max-N(右側)でそれぞれ表わす。尚、自車両に対する物体の相対速度はr-vel 、自車両に対する物体の相対角速度はa-velでそれぞれ表わす。
【0087】
具体的には、まず、物体予想位置が次の式に基づいて設定される(ステップS51)。
【0088】
OB-dist-N =OB-dist −r-vel×t
OB-ang-N =OB-ang−a-vel ×t
OB-min-N =OB-ang-N−OB-size /2
OB-max-N =OB-ang-N+OB-size /2
OB-div-N =OB-div
【0089】
それから、物体予想位置の基準位置までの距離OB-dist-N が所定距離α1 (しきい値)を越えるか否かを判定し(ステップS52)、その結果に応じて、物体予想位置の周囲に物体予想領域を設定する(図8破線参照)。即ち、距離OB-dist-N が所定距離α1 を越えれば、物体予想領域の前後方向の長さOB-SC-div をa1 とする(ステップS53)一方、越えなければ、物体予想領域の前後方向の長さOB-SC-div をa2 (>a1)とする(ステップS54)。これによって、自車両前方の所定距離α1 を越えない場合は、越える場合よりも、物体予想領域の前後方向の長さOB-SC-div が大きくなるように変更されることとなり、検出される物体についてのデータのばらつき、ノイズの影響を受けないようにして検出精度を高めている。
【0090】
その後、物体予想領域の領域端(左側)OB-SC-min をOB-ang-N−β1 /2に,領域端(右側)OB-SC-max をOB-ang-N+β1 /2に設定して(ステップS55)、物体予想位置の基準位置OB-ang-Nを中心にして角度β1 の拡がりを有するようにされる。
【0091】
それから、今回検出された物体についてのデータの属性の判定を行う(ステップS56)。即ち、今回検出された物体の属性に基づき、各物体がそれぞれすでに登録されているどの物体に属するかの判定を行う(図14及び図15参照)。
【0092】
そして、今回検出された物体についてのデータに基づき、物体予想位置の修正を行う。即ち、各物体に対応する物体番号iを0とし(ステップS57)、それから物体番号iをインクリメントしてi+1とし(ステップS58)、物体番号iが最大物体個数Max-numberに等しいか否かを判定し(ステップS59)、等しければ、そのままリターンする。等しくなければ、物体検索領域の最小角度データMin(dt(i))(物体検索領域の領域端の角度データ)が物体予想位置の最小角度データOB-min-Nよりも小さいか否かを判定する(ステップS60)。
【0093】
物体検索領域の最小角度データMin(dt(i))が物体予想位置の最小角度データOB-min-Nよりも小さければ、Min(dt(i))をOB-min-Nとし(ステップS61)、物体検索領域の最大角度データMax(dt(i))(物体検索領域の領域端の角度データ)よりも物体予想位置の最大角度データOB-max-Nが小さいか否かを判定する(ステップS62)一方、小さくなければ、直ちにステップS62に移行する。
【0094】
ステップS62の判定において、物体検索領域の最大角度データMax(dt(i))よりも物体予想位置の最大角度データOB-max-Nが小さければ、Max(dt(i))をOB-max-Nとし(ステップS63)、ステップS64に移行する一方、小さくなければ、直ちにステップS64に移行する。
【0095】
ステップS64の判定において、物体検索領域の最大前後方向長さMax-div よりも物体予想位置の前後方向長さOB-div-Nが小さければ、Max-div をOB-div-Nとし(ステップS65)、ステップS58に移行する一方、小さくなければ、ステップS65を経ることなく、ステップS58に移行する。
【0096】
ところで、上述した制御において、ステップS52〜ステップS55の処理に代えて、図9に示すように構成することもできる。即ち、ステップS51において物体予想位置を設定した後、自車両と物体との相対速度Vi が所定速度C1 (しきい値)未満であるか否かを判定し(ステップS71)、所定速度C1 未満であれば、物体予想位置の基準位置までの距離OB-dist-N が所定距離α1 (しきい値)を越えるか否かを判定し(ステップS72)、越えれば、物体予想領域の前後方向の長さOB-SC-div を所定値a1 とする(ステップS73)一方、越えなければ、所定値a2 とする(ステップS74)。
【0097】
一方、相対速度Vi が所定速度C1 未満でなければ、ステップS72の処理と同様に、物体予想位置の基準位置までの距離OB-dist-N が所定距離α1 (しきい値)を越えるか否かを判定し(ステップS75)、越えれば、物体予想領域の前後方向の長さOB-SC-div を所定値a3 とする(ステップS76)一方、越えなければ、所定値a4 とする(ステップS77)。このように、物体予想位置の基準位置までの距離OB-dist-N だけでなく、相対速度Vi も考慮して、物体予想領域の前後方向の長さOB-SC-div を変更している。なお、a1 <a2 <a3 <a4 である。
【0098】
ステップS71〜S77の処理の後、物体予想位置の基準位置までの距離OB-dist-N が所定距離C2 (しきい値)未満であるか否かを判定し(ステップS78)、物体予想位置の基準位置までの距離OB-dist-N が所定距離C2 (しきい値)未満であれば、
OB-SC-min =OB-ang-N−β1 /2
OB-SC-max =OB-ang-N+β1 /2
とする(ステップS79)一方、物体予想位置の基準位置までの距離OB-dist-N が所定距離C2 未満でなけば、
OB-SC-min =OB-ang-N−β2 /2
OB-SC-max =OB-ang-N+β2 /2
とし(ステップS80)、ステップ56に移行する。ここで、β1 <β2 である。
【0099】
よって、自車両前方の所定距離までの範囲と、それを越える範囲とで、物体予想領域の左右方向の大きさが変更されていることになる。
【0100】
尚、予想領域の初期値は、次のように設定される(図10参照)。
【0101】
図10において、スタートすると、サンプル回数smp が3回以下であるか否かが判定される(ステップS91)。5回以下であれば、物体予想位置を次の式によって、
OB-dist-N =OB-dist −v0 ・t
OB-ang-N =OB-ang
と設定する(ステップS92)一方、5回を越えれば、物体予想位置を次の式によって、
OB-dist-N =OB-dist −r-vel ・t
OB-ang-N =OB-ang−a-vel ・t
と設定する(ステップS93)。ここで、v0 は自車速である。
【0102】
それから、物体予想位置の領域端OB-min-N,OB-max-N、前後方向長さOB-div-Nを、
OB-min-N=OB-ang-N−(OB-size /2)・α
OB-max-N=OB-ang-N+(OB-size /2)・α
OB-div-N=OB-div
とする(ステップS94)。
【0103】
<物体の検索領域設定>
図11において、スタートすると、まず、次の式により、物体検索領域を設定する(ステップS101 )。なお、物体検索領域は、(物体検索領域)≧(物体予想領域)となるように設定される。ここで、自車両から物体検索領域までの最大距離をOB-K-dist-max 、自車両から物体検索領域までの最小距離をOB-K-dist-min 、物体検索領域の領域端(左側)をOB-K-min、物体検索領域の領域端(右側)をOB-K-maxで表わす。尚、b1 ,b2 ,b3 は定数である。
【0104】
OB-K-dist-max =OB-dist-N +OB-div-N+b1
OB-K-dist-min =OB-dist-N −b3
OB-K-max =OB-ang-N+b2 /2
OB-K-min =OB-ang-N−b2 /2
【0105】
それから、検出された物体についての検知データに基づき、物体の属性を判定する(ステップS102 )。即ち、今回検出された物体が物体検索領域に入るか否かを判定する(図14及び図15参照)。
【0106】
続いて、物体検索領域との関係で物体予想位置を修正する。即ち、物体識別番号iをリセットして0とし(ステップS103 )、それから物体識別番号iをインクリメントしてi+1とし(ステップS104 )、物体識別番号iがmax-number(物体の最大数)に等しいか否かを判定する(ステップS105)。等しければ、リターンする一方、等しくなければ、検索領域の最小角度データMin(dt(i))よりも物体予想位置に最小角度データOB-min-Nが大きいか否かを判定する(ステップS106 )。
【0107】
検索領域の最小角度データMin(dt(i))よりも物体予想位置の最小角度データOB-min-Nが大きければ、Min(dt(j))をOB-min-Nとし(ステップS107 )、それから、検索領域の最大角度データMax(dt(i))よりも物体予想位置の最大角度データOB-max-Nが小さいか否かを判定する(ステップS108 )一方、検索領域の最大角度データMin(dt(i))よりも物体予想位置の最大角度データOB-min-Nが大きくなければ、直ちにステップS108 に移行し、物体検索領域の最大角度データMax(dt(i))よりも物体予想位置の最大角度データOB-max-Nが小さいか否かを判定する。
【0108】
物体検索領域の最大角度データMax(dt(i))よりも物体予想位置の最大角度データOB-max-Nが小さいと、Max(dt(i))をOB-max-Nとし(ステップS109 )、それから、物体検索領域までの最大距離Min(dd(i))よりも物体予想位置までの距離OB-dist-N が大きいか否かを判定する(ステップS110 )一方、物体検索領域の最大角度データMax(dt(i))よりも物体予想位置の最大角度データOB-max-Nが小さくなければ、直ちにステップS110 に移行し、物体検索領域までの最大距離Max(dd(i))よりも物体予想位置までの距離OB-dist-N が大きいか否かを判定する。
【0109】
物体検索領域までの最小距離Min(dd(i))よりも物体予想位置までの距離OB-dist-N が大きければ、Min(dd(i))をOB-dist-N とし(ステップS111 )、それから、物体検索領域までの最大距離Max(dd(i))よりも物体予想位置の前後方向の大きさOB-div-Nが大きいか否かを判定する(ステップS112 )一方、物体検索領域までの最小距離Min(dd(i))よりも物体予想位置までの距離OB-dist-N が大きくなければ、直ちにステップS112 に移行し、物体検索領域までの最大距離Max(dd(i))よりも物体予想位置の前後方向の大きさOB-div-Nが大きいか否かを判定する。
【0110】
物体検索領域までの最大距離Max(dd(i))よりもOB-div-Nが小さければ、Max(dd(i))をOB-div-Nとし(ステップS113 )、ステップS104 にリターンする一方、物体検索領域までの最大距離Max(dd(i))よりも物体予想位置の前後方向の大きさOB-div-Nが小さくなければ、直ちにステップS104 にリターンする。
【0111】
<物体の大きさの再学習・更新について>
図12において、今回のスキャンで物体が検出されると予想される物体予想位置の決定は、先の<物体の予想領域設定>において説明した図7のステップS51と同じく、登録(確定)されている物体の属性に基づいて次の式に基づいて行なう(ステップS301 )。
【0112】
OB-dist-N =OB-dist −r-vel×t
OB-ang-N =OB-ang−a-vel ×t
OB-min-N =OB-ang-N−OB-size /2
OB-max-N =OB-ang-N+OB-size /2
OB-div-N =OB-div
【0113】
次の、上記予想領域の周囲に拡大設定すべき物体検索領域の決定は、先の<物体の検索領域設定>において説明した図11のステップS101 と同じく、次の式に基づいて行なう(ステップS302 )。
【0114】
OB-K-dist-max =OB-dist +OB-div+b1
OB-K-dist-min =OB-dist −b1
OB-K-max =OB-ang+b2 /2
OB-K-min =OB-ang−b2 /2
【0115】
そして、今回検出された各データと上記検索領域とを比較して該検索領域内に当該物体iについてのデータ(OB-dist,OB-ang)が1つでもあるか否かを判定し(ステップS303 )、存在しない場合には、該データが1つも存在しない回数を表わすno.echo i のインクリメントを行なう(ステップS304 )。そして、このno.echo i がその限界値no.echo limit に達すれば、no.echo i を零にリセットして当該物体iの登録をキャンセルするが(ステップS305,306 )、限界値に達するまでは今回の物体iの予想位置に基づいて今回の物体iの位置を決定する(ステップS307 )。つまり、今回の予想位置に物体iが存在すると仮に認定され、該物体iの大きさについては前回の値が用いられる。
【0116】
一方、ステップS303 において検索領域内に物体iのデータが存在すると判定されたときは、その以前のデータ不存在回数no.echo i が零であれば、今回の検出データに基づいて今回の物体iの位置を決定する(ステップS308,309 )。従って、物体の大きさについては前回の値が用いられる。
【0117】
そうして、ステップS308 において、no.echo i =0でない(前回は当該物体iについてのデータが1つも存在しなかった、又は該データ不存在状態が続いていた)ときは、上記検索領域内のデータ数が3以上であるときに物体の大きさが平均処理によって再学習されて更新され、今回の物体iの位置は今回の検出データに基づいて決定される(ステップS310,311,309 )。従って、当該物体iの大きさについては、以後は更新された値が用いられる。この物体の大きさの再学習・更新にあたっては、今回の検出データに基づいて平均処理によって求めた物体iの大きさの値(OB-size,OB-div)に所定の重みづけをして、先に求められていた該物体iの大きさの値との平均をとる(再学習は何回か繰り返すことができる)。
【0118】
従って、物体iの検索領域に該物体iのデータが一時的に得られなくなっても、その物体iの登録は直ちにはキャンセルされず、このデータがない状態が所定回数続いたときに初めてキャンセルされるから、物体iが実際には存在するにも拘らず、その登録がキャンセルされる事態を避けることができる。しかも、検出データが次に得られるようになったときに、該物体iの大きさが再学習・更新されるため、物体の的確な認識に有利になる。
【0119】
上記物体iのデータが得られなくなる原因としては、例えば、自車両と当該物体iとの間を他の物体が横切った場合や、物体iについて検出していた大きさが不正確(過小)であった場合がある。物体iの大きさを実際よりも小さく検出する原因としては、例えば、先行車両(物体i)が遠方にあり、その車体後面のリフレクタによって得られる反射波が少ない場合や、悪路走行による車両のピッチングによって反射波が少なくなった場合がある。
【0120】
先行車両の大きさが実際よりも小さく検出された場合、この検出に基づいて設定される該先行車両の検索領域も小さいものになる。このため、先行車両のデータが車両のピッチング等によって当該検索領域内に得られなくなることがあるものである。しかし、その後に自車両と先行車両との間隔が縮まったり、上記ピッチングが収まってくると、該先行車両のデータが上記検索領域内に現われる。
【0121】
このように検索領域からデータが消えたり現われたりするということは、その物体の相対速度は間違っていないのに、大きさが誤っている、ということである。このため、先に説明したように、当該物体の大きさを再学習・更新するようにしているものである。
【0122】
ここに、上記再学習の条件をデータ数3以上としているのは(ステップS310 参照)、データ数が少ないまま再学習すると誤差が大きくなるためである。また、no.echo i が所定回数になったときに物体iの登録をキャンセルしているのは、そのような状態が長く続いた場合はその物体iが自車両前方からなくなったと判断することができるためである。
【0123】
なお、検索領域に物体iのデータが得られる度にその大きさの再学習・更新を行なうことも考えられるが、そうすると、その演算のためにCPUの能力を高める必要があり、また、検索領域が遠方であれば、偶発的に複数の物体のデータが当該検索領域に入ったときに、それらを合わせた大きな物体と判断される。このため、当該検索領域からデータが一旦消えて再び現われたときに上記再学習・更新を行なうようにしているものである。
【0124】
<物体個数の制限>
図13において、スタートすると、検出された物体の個数が40個以下である否かを判定し(ステップS121 )、40個以下である場合は、物体個数の制限の条件は満たされているので、そのままリターンする一方、物体の個数が40個以下でない場合は、障害物として仮登録される物体の個数を40個以下に制限する必要があるので、ステップS122 に移行し、まず、物体を識別するために付与する物体番号i,kをそれぞれ0とする。よって、i=0,k=0となる(ステップS122 )。
【0125】
それから、物体番号iをインクリメントしてi+1とし(ステップS123 )、物体番号iがn(物体の最大個数)+1に等しいか否かを判定し(ステップS124 )、等しくなければ、距離に関するしきい値L0 を自車速V0 に基づいて設定する(ステップS125 )。すなわち、このしきい値L0 は、例えば自車両前方50mというような固定値を用いてもよいが、この例ではそれを自車速V0 に基づいて図14に示すマップに従って決定している。
【0126】
次に、自車両から物体(物体番号i)までの距離L(i) がL0 以下であるか否かが判定される(ステップS126 )一方、物体番号iがn+1に等しければ、すべての物体についての判断が終了しているので、物体番号iをリセットして0とする(ステップS127 )。
【0127】
そして、自車両から物体(物体番号i)までの距離L(i) がL0 以下であれば、ステップS128 に移行して、距離L(i) での進行路幅(角度で表現)2Δi を
(進行路幅+α)/L(i)
とする。ここで、αは定数である。
【0128】
それから、進行路幅2Δi を設定した後、自車両からの、物体(物体番号i)の方位θi がφ(進行路の中心位置の方位)−Δi より大きいか否かを判定し(ステップS129 )、大きければ、さらに、物体の方位θi がφ+Δi より小さいか否かを判定し(ステップS130 )、小さければ、進行路幅Δi を左右に有する進行路上に物体(物体番号i)が存在するので、INSIDEフラグを1にして(ステップS131 )、ステップS123 にリ−タンする。一方、ステップS129 ,S130 の判定でNOの場合には、ステップS132 に移行して、進行路上に物体は存在しないので、INSIDEフラグを0として、ステップS123 にリターンする。
【0129】
一方、距離L(i) がL0 以下でなければ、相対速度Vi が自車速V0 に等しいか否かを判定し(ステップS132 )、相対速度Vi が自車速V0 に等しければ、INSIDEフラグを0とし(ステップS146 )、相対速度Vi が自車側V0 に等しくなければ、ステップS131 に移行して、INSIDEフラグを1とし、ステップS123 にリターンする。
【0130】
これによって、登録されたすべての物体に対して、距離L(i) =L0 までの進行路上に存在するか否かの判断の結果であるINSIDEフラグが付与されることとなる。
【0131】
また、ステップS127 では物体番号iをリセットしてi=0ととした後、物体番号iをインクリメントしてi+1とし(ステップS133 )、物体番号iがn+1に等しいか否かを判定する(ステップS134 )。
【0132】
そして、i=n+1であれば、すべての物体についての判断が終了しているので、別の物体番号kをインクリメントしてk+1とする(ステップS135 )一方、i=n+1でなければ、INSIDEフラグが0であるか否か判定し(ステップS136 )、INSIDEフラグが0であれば、障害物判断を行う必要のない物体でありそれを除くことができるので、物体総個数nをデクリメントしてn−1とする(ステップS137 )、それから、物体総個数nが40個以下であるか否かを判定し(ステップS138 )、40個以下であれば、物体個数の制限の条件は満たされるので、そのままリターンする。一方、ステップS136 の判定でINSIDEフラグが0でない場合は、ステップS138 の判定で物体総個数nが40個以下でない場合は、ステップS127 にリターンする。
【0133】
ステップS135 で物体番号kをインクリメントしてk+1とした後、物体番号kがn+1に等しいか否かを判定し(ステップS139 )、k=n+1であれば、物体個数の制限の条件を満たすために物体個数を減らす必要があるので、最も遠くに位置する物体1個だけをキャンセルし(ステップS140 )、それから、物体総個数nをデクリメントしてn−1とし(ステップS141 )、物体個数が40個以下であるか否かを判定し(ステップS142 )、40個以下であれば、物体個数の制限の条件を満たすので、そのままリターンする一方、40個以下でなければ、物体個数の制限の条件を満たすまで、最も遠くに位置する物体1個だけをキャンセルする処理を繰返し、ステップS140 にリターンする。
【0134】
一方、物体番号kがn+1でなければ、物体(物体番号k)の中心位置が進行路中心線を基準に所定角度の範囲内にあるか否か、即ち物体の中心位置が所定角度の範囲のTmin (左側)とTmax (右側)との間にあるか否かを判定し(ステップS143 )、それらの間にあればnをデクリメントしてn−1とし(ステップS144 )、物体個数が40個以下であるか否かを判定し(ステップS145 )、40個以下であれば、リターンする。一方、40個以下でなければ、ステップS135 にリターンする。物体の中心位置が、Tmin (左側)とTmax (右側)との間にない場合も、ステップS135 にリターンする。
【0135】
このようにして、自車両前方の距離L0 までは、進行路の中心線を基準に所定幅の範囲に存在する物体を障害物として選択し、距離L0 を越える範囲では、進行路の中心線を基準に所定角度の範囲に存在する物体を障害物として選択し、障害物検知の対象となる物体の個数が40個以下に制限されることとなる。
【0136】
ここで、ステップS125 における距離しきい値L0 の設定において、図14に示すように自車速V0 が高くなるに従ってしきい値L0 が大きく(従って距離が長く)なっているのは次の理由による。
【0137】
まず、物体の障害物としての選択登録が、L0 よりも近距離では進行路の中心線を基準とする所定幅内の狭い範囲(L0 よりも遠距離の場合に比べて狭い範囲)で行なわれるのは、自車両が現在の進行路からその側方へ逸れる可能性は自車両に近い位置では少なく、従って、進行路の側方に存在する物体は自車両に近いものほど障害物となる可能性が少ないからである。そして、自車速V0 が高くなると、自車両から比較的遠い位置でも進行路から側方へ逸れる可能性が少なくなり、該側方に存在する物体は障害物になり難くなるため、上記しきい値L0 を大きくして、より障害物となり易い物体を多く選択登録できるようにしているものである。
【0138】
なお、図14のマップに代えて、自車速V0 と距離しきい値L0 との関係が一次関数(正比例の関係)になっているものや、自車速のV0 の増加に従ってしきい値L0 がステップ状に高くなっていくものを採用してもよい。
【0139】
また、上記例では、ステップ140 において、遠くの物体からキャンセルするようにしているが、自車両との相対速度が小さい物体からキャンセルを実行していくようにしてもよい。相対速度が小さくなるほど当該物体が自車両の障害物となる可能性は少なくなる、と考えられる。
【0140】
また、他のキャンセル基準としては次のものがある。それは、L0 よりも近距離では、物体iのデータ(OB-dist,OB-ang)に基づいて自車両が当該物体iに到達するための旋回半径Rt =OB-dist/{2sin (OB-ang)}を求め、これと自車両の旋回半径Rとの差による必要横加速度a=V0 2 ×|Rt −R|を求め、該横加速度aが基準値a0 以上であるときに、該物体iが障害物となる可能性が少ないとしてキャンセルし、L0 よりも遠距離では、物体iの点と、自車両の進行路上の自車両から距離OB-dist (物体iの距離)離れた点との角度差Δθiを求め、これに物体iの角速度γiを乗じたキャンセル評価量Ci=Δθi×γiを求め、該評価量Ciが基準値C0 よりも大きいときに当該物体iを自車両の障害物になる可能性が少ないとしてキャンセルする、というものである。
【0141】
<検知データの属性の判定>
図15において、スタートすると、判定されていない物体についての検知データがあるか否かが判定され(ステップS151 )、検知データがあれば、その検知データについての距離dist及び方位ang を読み込む(ステップS152 )一方、検知データがなければ、そのままリターンする。
【0142】
検知データの距離dist及び方位ang を読み込んだ後、現在登録されているすべての物体に対して、物体予想位置を含む物体予想領域に入るか否かの判定を行い(ステップS153 )、1つの物体予想領域のみに入る場合には、その物体に属する物体であると判定し(ステップS154 )、複数の物体予想領域に入る場合には、その中で一番小さい物体に属する物体であると判定し(ステップS155 )、リターンする一方、どの物体予想領域にも入らない場合には、現在登録されているすべての物体に対してそれらの物体検索領域に入るか否かの判定を行う(ステップS156 )。尚、ステップS155 において、その中で一番小さい物体に属する物体と判定するとは、例えば、検知データが2つの物体(物体N0.a,b)に仮に属するとされたとすると、それらの横方向の大きさOB-size(a),OB-size(b)を比較し、それらのうちの小さい方の物体に属する、と処理することを意味する。これは、物体の大きさが徐々に大きくなって行くのを防止するためである。
【0143】
1若しくは複数の物体検索領域に入る場合には、入ったすべての物体検索領域の、物体予想領域から検知データまでの距離を算出し(ステップS157 )、続いて、入った物体検索領域が1つであるか否かを判定する(ステップS158 )。1つであれば、さらに、算出された物体予想領域までの距離が設定値以下であるか否かを判定し(ステップS159 )、設定値以下であれば、その物体に属するデータであると判定し(ステップS160 )、リターンする一方、設定値以下でなければ、新規物体のデータであると判定する(ステップS161 )。
【0144】
また、ステップS158 の判定で入った物体検索領域がひとつでなければ、各物体予想領域から検知データまでの距離の一番小さい物体を選択して(ステップS162 )、ステップS159 に移行する。
【0145】
ここで、物体予想領域から検知データまでの距離の一番小さい物体を選択しているのは、距離の一番小さい物体に属するのが最も確からしいと考えられるからである。
【0146】
また、ステップS156 の判定で、どの物体検索領域にも入らない場合には、新規物体のデータであると判定し(ステップS163 )、リターンする。
【0147】
ステップS153 における判定は、具体的には、次のように行われる。
【0148】
図16に示すように、ステップS152 で、あるデータの距離dist、方位ang を読み込んだ後、まず、物体番号iを1とし(ステップS171 )、それから、それの方位ang が物体予想領域の左右方向の領域端OB-min(i) ,OB-max(i) の間にあるか否かを判定する(ステップS172 )。
【0149】
方位ang が物体予想領域の左右方向の領域端OB-min(i) ,OB-max(i) の間にあれば、さらに、距離distが物体予想領域の前後方向の範囲内に入るか否か、即ち物体基準距離OB-dist(i)とそれに前後方向の拡がりOB-divを加えた範囲内に入るか否かの判定を行い(ステップS173 )、入っていれば、この検知データは物体iに仮に属するとし(ステップS174 )、ステップS175 に移行する一方、ステップS172 ,S173 での判定がNOの場合は、直ちにステップS175 に移行する。
【0150】
ステップS175 においては、物体番号iが登録物体個数Iに等しいか否かを判定し、等しければ、ステップS176 に移行し、この検知データの仮に属する物体の個数がいくつ出るか判定する(ステップS177 )一方、等しくなければ、物体番号iをインクリメントしてi+1とし(ステップS178 )、ステップS172 にリターンし、i=Iとなるまでこれを繰り返すことになる。
【0151】
そして、物体の個数が0のときはステップS157 に移行し、物体の個数が1のときはステップS155 に移行し、さらに物体の個数が複数である場合には、ステップS156 に移行する(図15参照)。
【0152】
<物体の属性変更>
図17において、スタートすると、まず、物体番号iをリセットして0とし(ステップS181 )、それから、物体番号iをインクリメントしてi+1とし(ステップS182 )、それから、物体番号iがMax-number(物体最大個数)に等しいか否かを判定する(ステップS183 )。等しければ、そのままリターンする一方、等しくなければ、今回検出された物体(物体番号i)の大きさOB-size-N がOB-size(i)−off-sizeより大きく、かつOB-size(i)+off-sizeより小さいか否かを判定する(ステップS184 )。YESの場合は、物体の領域端(右側)OB-maxを今回検出された物体の領域端(右側)OB-max-N、物体の領域端(左側)OB-minを今回検出された物体の領域端(右側)OB-min-Nとし(ステップS185 )、それから、それらの平均(OB-max+OB-min)/2を物体の方位OB-angとし(ステップS186 )、ステップS183 にリターンする。一方、NOの場合には、物体の大きさOB-size(i)が今回検出された物体の大きさOB-size-N(i)よりも小さいか否かを判定する(ステップS187 )。
【0153】
ステップS187 の判定で、YESの場合には、物体の領域端(左側)OB−min(i)と今回検出された物体の領域端(左側)OB−min-N(i)とが等しいか否かを判定する(ステップS188 )一方、NOの場合には、物体の領域端(右側)OB−max 、物体の領域端(左側)OB-minをそれぞれ、OB-ang-N+OB-size/2 ×α,OB-ang-N−OB-size/2 ×α2 とし(ステップS189 )、ステップS186 に移行する。ここで、α2 は長さを角度に変更するための係数である。
【0154】
ステップS188 の判定で、YESの場合には、OB-max、OB-minをそれぞれ、OB-min-N+OB-size ,OB-min-Nとし(ステップS190 )、ステップS186 に移行する一方、NOの場合には、OB-max(i) とOB-max-N(i) とが等しいか否かを判定する(ステップS191 )。
【0155】
ステップS191 の判定で、YESの場合には、OB-max、OB-minをそれぞれ、OB-max-N,OB-max-N+OB-size とし(ステップS192 )、ステップS186 に移行する一方、NOの場合には、OB-min(i) よりもOB-min-N(i) が小さいか否かを判定する(ステップS193 )。
【0156】
ステップS193 の判定で、YESの場合には、さらに、OB-max(i) よりもOB-max-N(i) が大きいか否かを判定する(ステップS194 )一方、NOの場合には、OB−max 、OB-minをそれぞれ、OB-min-N−OB-size ×α2 ,OB-min-Nとし(ステップS195 )、ステップS186 に移行する。
【0157】
ステップS194 の判定で、YESの場合には、OB-max,OB-minをそれぞれOB-ang-N+OB-size/2 ×α2 ,OB-ang-N−OB-size/2 ×α2 とする(ステップS195 )一方、NOの場合には、OB-max、OB-minをそれぞれ、OB-max-N,OB-max-N+OB-size ×αとし(ステップS196 )、ステップS186 に移行する。
【0158】
<新規物体の登録>
図18において、スタートすると、どこにも属さなかった物体(検知データ、番号i)の距離dist(i) ,角度ang(i)を読み込み(ステップS221 )、次の式に基づき、最小角度データang-min(i)、最大角度データang-max(i)、最短距離データdist-min(i) 、最遠距離データdist-max(i) を演算する(ステップS222 )。
【0159】
ang-min(i) =ang(i)−ang-offset
ang-max(i) =ang(i)+ang-offset
dist-min(i) =dist(i) −dist-offset
dist-max(i) =dist(i) +dist-offset
【0160】
それから、変数jを最小角度データang-min(i)とし(ステップS223 )、それから変数jをインクリメントしてj+1とし(ステップS224 )、物体(検知データ、番号j)についての距離dist(j) が、dist-min(i) とdist-max(i) との間にあるか否かを判定し(ステップS225 )、dist-min(i) とdist-max(i) との間にあれば、この検知データ(番号j)は物体iに属するとし(ステップS226 )、jがang-max(i)+1であるか否かを判定する(ステップS227 )。一方、それらの間になければ、直ちにステップS227 に移行し、変数jがang-max(i)+1であるか否かを判定する。
【0161】
変数jがang-max(i)+1であれば、ang-min(i)からang-max(i)までのすべてのang(i)についての判定が終了したので、次の式に基づき、OB-min,OB-max,OB-ang,OB-dist を設定し(ステップS228 )、リターンする一方、変数がang-max(i)+1でなければ、ステップS224 に戻る。
【0162】
OB-min =Min(ang(i))
OB-max =Max(ang(i))
OB-ang =(OB-min+OB-max)/2
OB-dist =Min(dist(i) )
【0163】
<物体の同一判定>
図19において、スタートすると、2つの物体(物体番号j,i)について同一であるか否かを判定するために、それぞれの物体の属性、具体的には相対速度V(j) ,V(i) 、前後方向の大きさOB-div(j) ,OB-div(i) 、横方向の大きさOB-size(j),OB-size(i)、物体の方位OB-ang(j) ,OB-ang(i) を読み込み(ステップS231 ,S232 )、それから、変数K=1、I=1とする(ステップS233 ,S234 )。
【0164】
それに続いて、同一物体については判断する必要がないので、変数Kと変数Iとが不等であるか否かが判定され(ステップS235 )、それらが不等であれば、重複判断を回避するために、物体(物体番号i)の左右方向の大きさOB-size(i)が物体(物体番号j)の左右方向の大きさOB-size(j)より小さいか否かを判定する(ステップS236 )。
【0165】
物体(物体番号i)の左右方向の大きさOB-size(i)が物体(物体番号j)の左右方向の大きさOB-size(j)より小さければ、ばらつきを制限するために、物体(物体番号i)の前後方向の大きさOB-div(i) と物体(物体番号j)の前後方向の大きさOB-div(j)との差の絶対値が所定値α以下であるか否かを判定する(ステップS237 )。所定値α以下であれば、物体(物体番号i)の方位OB-ang(i) と物体(物体番号j)の方位OB-ang(j) の差の絶対値が所定値β以下であるか否かを判定する(ステップS238 )。所定値β以下であれば、物体(物体番号i)との相対速度V(i) と、物体(物体番号j )との相対速度V(j) との差の絶対値が所定値γ以下であるか否かを判定する(ステップS239 )。所定値γ以下であれば、それらの相対速度V(i) 及びV(j) が共に自車両の車速V0 に不等であるか否か即ち静止物体であるか移動物体であるかを判定する(ステップS240 )。
【0166】
共に車速V0 に不等であれば、移動物体であり、同一物体としての大きさが所定値δ以下であるか否かを判定する(ステップS241 )一方、共に車速V0 に不等でなければ、静止物体であり、同一物体としての大きさが所定値ε(>δ)以下であるか否かを判定する(ステップS242 )。所定値εを所定値δより大きくしているのは、移動物体の場合は車両等で大きさがある程度制限されるが、静止物体の場合はそのような制限がなく、ある程度大きいものも考えられるからである。
【0167】
所定値δ,ε以下であれば、物体(物体番号j)は物体(物体番号i)に属するものとし(ステップS243 )、改めて物体(物体番号i)の属性を登録し、そして物体(物体番号j)の属性を削除する(ステップS244 )。一方、所定値δ,ε以下でなければ、変数IをインクリメントしてI+1とし(ステップS245 )、変数Iがobject-max(物体最大個数)になったか否かを判定する(ステップS246 )。変数Iがobject-maxに等しければ、変数Kに1を加算してK+1とし(ステップS247 )、変数Kがobject-maxになったか否かを判定する(ステップS248 )一方、等しくなければ、ステップS235 にリターンする。そして、変数Kがobject-maxに等しければ、そのままリターンする一方、等しくなければ、ステップS234 にリターンする。
【0168】
尚、ステップS235 〜S242 の判定において、NOである場合には、ステップS245 に移行する。
【0169】
ここで、物体の属性の登録は、例えば図20に示すように行われる。
【0170】
図20において、スタートすると、物体(物体番号i)の領域端(右側)OB-max(i) が物体(物体番号j)の領域端(右側)OB-max(j) よりも大きいか否かを判定し(ステップS201 )、大きくなければ、物体(物体番号i)の領域端(右側)OB-max(i) を物体(物体番号j)の領域端(右側)OB-max(j) とし(ステップS202 )、それから、物体(物体番号i)の領域端(左側)OB-min(i) が物体(物体番号j)の領域端(左側)OB-min(j) より小さいか否かを判定する(ステップS203 )一方、大きければ、直ちにステップS203 に移行して、物体(物体番号i)の領域端(左側)OB-min(i) が物体(物体番号j)の領域端(左側)OB-min(j) より小さいか否かを判定する。
【0171】
物体(物体番号i)の領域端(左側)OB-min(i) が物体(物体番号j)の領域端(左側)OB-min(j) より小さくなければ、物体(物体番号i)の領域端(左側)OB-min(i) を物体(物体番号j)の領域端(左側)OB-min(j) とし(ステップS204 )、今回検出された物体(物体番号i)までの距離OB-dist-N(i)が今回検出された物体(物体番号j)までの距離OB-dist-N(j)より小さいか否かを判定する(ステップS205 )一方、小さければ、直ちにステップS205 に移行し、今回検出された物体(物体番号i)までの距離OB-dist-N(i)を今回検出された物体(物体番号j)までの距離OB-dist-N(j)より小さいか否かを判定する。
【0172】
今回検出された物体(物体番号i)までの距離OB-dist-N(i)が今回検出された物体(物体番号j)までの距離OB-dist-N(j)より小さければ、今回検出された物体(物体番号i)までの距離OB-dist-N(i)を物体(物体番号i)までの距離OB-dist(i)とする(ステップS206 )一方、小さくなければ、今回検出された物体(物体番号j)までの距離OB-dist-N(j)を物体(物体番号i )までの距離OB-dist(i)とし(ステップS207 )、その後、今回検出された物体(物体番号i)の前後方向長さOB-div-N(i) が今回検出された物体(物体番号j)の前後方向長さOB-div-N(j) より小さいか否かを判定する(ステップS208 )。
【0173】
今回検出された物体(物体番号i)の前後方向長さOB-div-N(i) が今回検出された物体(物体番号j)の前後方向長さOB-div-N(j) より小さければ、今回検出された物体(物体番号i)の前後方向長さOB-div-N(i) を物体(物体番号i)の前後方向長さOB-div(i) とする(ステップS209 )一方、今回検出された物体(物体番号i)の前後方向長さOB-div-N(i) が今回検出された物体(物体番号j)の前後方向長さOB-div-N(j) より小さくなければ、今回検出された物体(物体番号j)の前後方向長さOB-div-N(j) を物体(物体番号i)の前後方向長さOB−div(i)とし(ステップS210 )、物体(物体番号i)の左右方向の大きさOB-size(i)を(OB-max(i) −OB-min(j) )×OB-dist(i)×αとする(ステップS211 )。αは定数である。
【0174】
ところで、車両が高速道路を走行している場合には、上記制御を簡略化して、次のように行うこともできる。尚、高速道路を走行しているか否かの判定は、例えば車速が80km/h以上であるか否かにより判定することができる。
【0175】
図21において、スタートすると、2つの物体(物体番号j,i)について物体の属性を読み込み(ステップS251 ,S252 )、それから、変数K=1、I=1とする(ステップS253 ,S254 )。
【0176】
それに続いて、物体(物体番号i)の左右方向の大きさOB-size(i)が物体(物体番号j)の左右方向の大きさOB-size(j)より小さいか否かを判定する(ステップS255 )。
【0177】
物体(物体番号i)の左右方向の大きさOB-size(i)が物体(物体番号j)の左右方向の大きさOB-size(j)より小さければ、OB-ang(i) とOB-ang(j)との差の絶対値が所定値α以下であるか否かを判定する(ステップS256 )。所定値α以下であれば、相対速度V(i) とV(j) との差の絶対値が所定値β以下であるか否かを判定する(ステップS257 )。
【0178】
所定値β以下であれば、物体(物体番号j)は物体(物体番号i)に属するものとし、改めて物体(物体番号i)の属性についてのデータを更新すると共に、物体(物体番号j)の属性についてのデータを抹消する(ステップS258 )。そして、変数IをインクリメントしてI+1とし(ステップS259 )、変数Iがobject-max(物体の最大個数)になったか否かを判定する(ステップS260 )。変数Iがobject-maxに等しければ、変数KをインクリメントしてK+1とし(ステップS261 )、変数Kがobject-maxになったか否かを判定する(ステップS262 )一方、等しくなければ、ステップS255 にリターンする。そして、ステップS262 の判定において、変数Kがobject-maxに等しければ、そのままリターンする一方、等しくなければ、ステップS253 にリターンする。
【0179】
尚、ステップS255 〜S257 の判定において、NOである場合には、ステップS259 に移行する。
【0180】
【発明の効果】
請求項1に係る発明は、上記のように、自車両から見た前方物体の少なくとも相対速度 を含む属性に基づき該物体が一定時間経過後に移動すると予想される予想領域を予想領域設定手段によって設定し、さらに上記予想領域の周囲又は上記周囲の一部に検索領域を検索領域設定手段によって設定し、一定時間経過後に物体検出手段によって検出された物体と予想領域及び検索領域との比較により、物体が予想領域に存在するときはその物体が該予想領域に移動したと認定し、物体が検索領域に存在するときは、予想領域から物体までの距離が所定値以下であるときにその物体が該検索領域に移動したと認定する一方、物体認定手段による物体の認定に必要なデータが得られなくなったときは、物体検出手段はその後の所定時間内に該データが再度得られた時に該物体の大きさを検出し直して更新し、物体認定手段は上記所定時間は上記データが得られないときも上記物体が当該領域に存在すると認定するので、実際には自車両前方に物体が存在するのに、これを存在しないとして誤ってキャンセルすることを防止することができ、物体の認定を迅速かつ正確に行うことができ、それに基づき障害物判断を精度よく行うことが可能となる。
【0181】
請求項2に係る発明は、予想領域設定手段が、自車両から見た物体の少なくとも相対速度と該物体の大きさとを含む属性に基づいて該物体が一定時間経過後に移動すると予想される予想領域を設定するから、物体認定手段による物体の認定が確実になる。
【0182】
請求項3に係る発明は、物体認定手段によって検出された物体のうち、自車両の障害物となり得る物体を物体登録手段によって障害物として選択して登録し、それから同一判定手段によって、登録された物体同士のデータを比較して、それらが同一の障害物に属するか否かを判定するようにしているので、同一の障害物に属する2つの物体を別の障害物であると認識することがなくなり、同一の障害物に属する場合における物体間の相対速度のバラツキをなくすことができる。
【0183】
請求項4に係る発明は、物体検出手段によって、一定時間内に検出された同一物体についての複数のデータに基づき、平均処理により、物体の大きさを検出するようにしているので、的確に物体の大きさを定めることができる。
【0184】
請求項5に係る発明は、物体検出手段によって、一定時間内に検出された同一物体についての複数のデータうち、障害物判断に最も適する最適値を物体として検出するようにしているので、障害物判断を精度よく行うことができる。
【0185】
請求項6に係る発明は、自車両からの距離に応じて、物体検出手段によって物体が検出される範囲(例えば幅)を変更するようにしているので、自車両からの距離に応じて、無駄な物体認識を行う必要がなくなり、障害物判断に必要な物体のみを障害物として検出することができる。
【0186】
請求項7に係る発明は、物体登録手段によって、障害物として選択され登録される物体の総数を所定数以下となるように制限しているので、障害物判断が必要である所定数の障害物(物体)についてのみ障害物判断を行えばよくなり、障害物判断の迅速化を図ることができる。
【0187】
請求項8に係る発明は、障害物となり得る物体が所定数を越えて検出された場合に、物体登録手段によって、障害物判断の必要度の小さい障害物から順に除かれて、障害物として選択され登録される物体の総数を所定数以下となるように制限しているので、障害物判断の必要度の高い障害物については確実に障害物判断がなされることとなり、障害物判断の精度を低下させることなく、障害物判断の迅速化を図ることが可能となる。
【0188】
請求項9に係る発明は、障害物として選択され登録されている物体が、物体検出手段によって連続して所定回数検知できなかったときには、登録を抹消するようにしているので、無駄に障害物判断を行うことがなくなり、障害物判断の効率化が図れる。
【0189】
請求項10に係る発明は、物体登録手段によって障害物として選択されて登録される基準を、自車両前方の所定距離までの範囲と、それを越える範囲とで変更するようにしているので、自車両からの距離に応じて、障害物判断に必要な物体だけを障害物として認定して登録することができる。
【0190】
請求項11に係る発明によれば、物体を障害物として選択し登録する基準を変更するための自車両前方の距離に関するしきい値が、自車両の速度に基づいて該速度が高いときの方が低いときよりも大きくなるように設定されるから、自車両の障害物となり易い物体をより多く選択し登録する上で有利になる。
【0191】
請求項12に係る発明は、物体登録手段によって、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体を、それを越える範囲では、進行路の中心線を基準に所定角度の範囲に存在する物体をそれぞれ障害物として選択し登録するようにしているので、自車両前方の所定距離を越える範囲においては、障害物となる可能性のある物体を広範囲に亘って選択するようになり、障害物となる可能性のある物体を障害物として確実に選択し登録することができる。
【0192】
請求項13に係る発明は、物体登録手段によって、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体を選択し、それを越える範囲では、物体の相対速度ベクトルに基づいて物体を選択するようにしているので、自車両の進行路に侵入するおそれがなく障害物となる可能性のない物体を、障害物判断の対象から除くことができ、障害物判断の迅速化が図れる。
【0193】
請求項14に係る発明は、予想領域設定手段によって、自車両前方の所定距離までの範囲と、それを越える範囲とで、予想領域の前後方向の長さを変更するようにしているので、誤差の入りやすい近距離では予想領域の前後方向の長さを大きく設定することができ、物体移動判断の精度を高めることができる。
【0194】
請求項15に係る発明は、物体認定手段によって、物体が予想領域及び検索領域外にあるときは、新規な物体であると判定するようにしているので、無駄な物体認定の判断を行う必要がなくなり、処理の迅速化が図れる。
【0195】
請求項16に係る発明によれば、物体認定手段によって、物体が2つの予想領域又は検索領域のいずれにも属するときは、物体の大きさの小さい側の予想領域又は検索領域に物体が移動したものと判定するようにしているので、物体が無限に大きくなるのを防止することができる。
【0196】
請求項17に係る発明は、同一判定手段によって、静止物体であるか移動物体であるかによって判定条件を変更するようにしているので、同一の障害物に属するか否かの判断を精度よく行うことができる。
【0197】
請求項18に係る発明は、予想領域設定手段によって、自車両前方の所定距離までの範囲と、それを越える範囲とで、予想領域の左右方向の大きさを変更するようにしているので、自車両前方の距離に応じて、予想領域の左右方向の大きさを最適に決定することができ、例えば誤差の入りやすい近距離では予想領域の前後方向の長さを大きく設定することができ、物体移動判断の精度を高めることが可能となる。
【0198】
請求項19に係る発明は、物体登録手段によって、登録されている物体のデータを一定周期で変更(更新)するようにしているので、常に現実に近い物体(障害物)の属性に基づいて障害物判断を行うことができ、障害物判断の精度の向上が図れる。
【0199】
請求項20に係る発明は、レーダヘッドユニットを用いているので、物体の検出を精度よく行うことができる。
【図面の簡単な説明】
【図1】 自動車の斜視図である。
【図2】 コントロールユニットの説明図である。
【図3】 コントロールユニットについてのブロック図である。
【図4】 コントロールユニットの基本的処理の流れを示すフローチャート図である。
【図5】 物体として最短値を選択するフローチャト図である。
【図6】 物体の大きさを検出する処理の流れを示すフローチャート図である。
【図7】 物体の予想領域設定のフローチャート図である。
【図8】 物体及びそれの一定時間経過後の予想領域の説明図である。
【図9】 物体の予想領域設定の実施例についてのフローチャート図である。
【図10】 物体の属性データの初期値の決定のフローチャート図である。
【図11】 物体の検索領域の設定のフローチャート図である。
【図12】 物***置決定のフローチャート図である。
【図13】 障害物の個数の制限のフローチャート図である。
【図14】 自車速V0 と距離しきい値L0 との関係を示すマップ図
【図15】 障害物の属性判定のフローチャート図である。
【図16】 予想領域に入るか否かの判定のフローチャート図である。
【図17】 物体の属性データ(角度)の変更のフローチャート図である。
【図18】 新規物体の登録のフローチャート図である。
【図19】 障害物の同一判定のフローチャート図である。
【図20】 物体の属性データ(距離、角度、大きさ、ばらつき)の変更のフローチャート図である。
【図21】 障害物の同一判定の変形例のフローチャート図である。
【符号の説明】
1 自動車
3 レーダヘッドユニット
4 コントロールユニット
21 物体検出手段
22 予想領域設定手段
23 検索領域設定手段
24 物体認定手段
25 物体登録手段
26 同一判定手段
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an obstacle detection device for a vehicle that includes an object detection unit that detects an object existing in front of the host vehicle, and that makes an obstacle determination based on the object detected by the object detection unit.
[0002]
[Prior art]
  Conventionally, it is provided with a traveling path estimation means for estimating a traveling path that the host vehicle is predicted to travel from the vehicle state quantity such as the steering angle of the host vehicle, the vehicle speed, and the like. It is known that only the front object in the area along the traveling path predicted by the traveling path estimation means is picked up as an obstacle, and it is judged whether or not there is a possibility that the own vehicle contacts the obstacle. ing.
[0003]
  However, in such a case, in general, when a preceding vehicle is recognized by the radar means, for example, the radar wave transmitted from the radar means is reflected by the reflector, the body, etc. of the preceding vehicle, and is received as a point (small). Area) and the point of the shortest distance from the host vehicle is judged as an object (obstacle). Therefore, when the travel path changes, the area where the obstacle judgment is made changes, and accordingly The point at the shortest distance from the vehicle will fluctuate. Therefore, as a result, there is a problem that the relative speed between the object and the host vehicle varies even though the object is the same (obstacle). In addition, when the reflector of the preceding vehicle is dirty, it is determined that the object is not detected at a long distance away from the own vehicle, even if it is determined that the object is present at a short distance close to the own vehicle. As a result, although the object (obstacle) has a certain size, the entire object (obstacle) cannot be detected at a long distance.
[0004]
  Further, as a method for recognizing a preceding vehicle as an obstacle, for example, as described in JP-A-3-111785, a transmission wave is swept over a predetermined angle range in front of the host vehicle, and a reflected wave is detected. Thus, the sweep type radar means for detecting an object existing in front, the width recognition means for recognizing the lateral size of the object from the result of the radar means, and the detection result of the radar means for the object's own vehicle. An angle recognizing unit for recognizing an angle, and a vehicle recognizing unit for recognizing an object having a width substantially perpendicular to the traveling direction of the host vehicle and having a width within a predetermined range from the recognition result of the width recognizing unit and the angle recognizing unit. A preceding vehicle recognition device is known.
[0005]
[Problems to be solved by the invention]
  However, the preceding vehicle recognition device described above has a width within a predetermined range substantially perpendicular to the traveling direction of the host vehicle, depending on the lateral size of the object recognized from the detection result of the radar means and the angle of the object with respect to the host vehicle. Although the object is recognized as a vehicle, the lateral size of the object by the radar means and the angle variation of the object with respect to the own vehicle are large, and it is difficult to accurately recognize the object. In addition, for example, when two preceding vehicles traveling at the same speed are traveling in parallel, they may be erroneously recognized as one object.
[0006]
  The present invention has been made in view of such a point, and provides an obstacle detection device capable of accurately detecting an object (obstacle) existing in front of the host vehicle.
[0007]
[Means for Solving the Problems]
  The present invention relates to an object existing in front of the host vehicle.Attribute containing at least the relative speed ofAn object detecting means for detecting an object detected by the object detecting meansAttributesIt is based on an obstacle detection device for a vehicle that makes an obstacle determination based on the above.
[0008]
  The invention according to claim 1 receives the output of the object detection means and detects the object viewed from the host vehicle.Attributes containing at least relative speedAn expected area setting means for setting an expected area where the object is expected to move after a predetermined time,
    Around the expected area received the output of the object detection means orAround the aboveSearch area setting means for setting a search area in a part of
    Detected by the object detection means after a lapse of a certain time upon receiving the outputs of the object detection means, the prediction area setting means and the search area setting meansobjectAnd the expected and search areasobjectIs recognized in the predicted area, the object has been moved to the predicted area,objectIs present in the search area,objectObject recognition means for certifying that the object has moved to the search area when the distance to is less than or equal to a predetermined value,
    The object detection means detects the size of an object based on a plurality of data for the same object detected within a predetermined time, and when the data required for recognition by the object recognition means cannot be obtained for the object Is to re-detect and update the size of the object when the data is obtained again within a predetermined time thereafter,
    The object recognition means determines that the object exists in the prediction area or the search area even when the data is not obtained for the predetermined time.
[0009]
  In the invention according to claim 2, the predicted area setting means is the object viewed from the own vehicleAt least relative speedAnd the size of the objectAttributes containing andBased on the above, an expected area where the object is expected to move after a predetermined time has elapsed is set.
[0010]
  In the invention according to claim 3, the output of the object recognition means is received, and among the recognized objects, the object registration means for selecting and registering an object that can be an obstacle of the own vehicle, and the output of the object registration means Receiving and comparing the data of registered objects and determining whether or not they belong to the same object.
[0011]
  In the invention according to claim 4, the object detecting means detects the size of the object by averaging processing based on a plurality of data on the same object detected within a predetermined time.
[0012]
  In the invention according to claim 5, the object detecting means detects the optimum value most suitable for obstacle determination among the plurality of data of the same object detected within a predetermined time as the object.
[0013]
  In the invention which concerns on Claim 6, an object detection means changes the range which detects an object according to the distance from the own vehicle.
[0014]
  In the invention according to claim 7, the object registration means limits the total number of registered objects to be a predetermined number or less.
[0015]
  In the invention according to claim 8, the object registration means removes objects in order of decreasing necessity of obstacle determination in order from the objects with the least necessity for obstacle judgment when the number of objects selected as possible obstacles exceeds a predetermined number. Is limited to a predetermined number or less.
[0016]
  In the invention according to claim 9, the object registration means deletes the registration when the registered object cannot be detected continuously a predetermined number of times by the object detection means.
[0017]
  In the invention according to claim 10, the object registration means changes a reference for selecting an object as an obstacle in a range up to a predetermined distance ahead of the host vehicle and a range exceeding the predetermined distance.
[0018]
  In the invention according to claim 11, when the threshold for the distance ahead of the host vehicle for changing the reference for selecting and registering the object as an obstacle is higher when the speed is higher based on the speed of the host vehicle. It is made larger than when it is low.
[0019]
  In the invention according to claim 12, the object registering means travels an object existing within a predetermined width with respect to the center line of the traveling path in a range up to a predetermined distance ahead of the host vehicle, and proceeds in a range exceeding the predetermined distance. Each object existing within a predetermined angle range with respect to the center line of the road is recognized as an obstacle and registered.
[0020]
  In the invention according to claim 13, the object registration means selects an object existing within a predetermined width as an obstacle with reference to the center line of the traveling path within a range up to a predetermined distance ahead of the host vehicle, In the exceeding range, the obstacle is selected based on the relative velocity vector of the object.
[0021]
  In the invention according to claim 14, the predicted area setting means changes the length of the predicted area in the front-rear direction between a range up to a predetermined distance ahead of the host vehicle and a range exceeding the predetermined distance.
[0022]
  In the invention according to claim 15, the object recognition means recognizes that the object is a new object when it is recognized that the object is outside the prediction region and the search region.
[0023]
  In the invention according to claim 16, when the object recognition means recognizes that the object belongs to either of the two prediction areas or the search area, the object is not in the prediction area or search area on the smaller size side of the object. It is determined that it has moved.
[0024]
  In the invention according to claim 17, the same determination means changes the determination condition depending on whether the object registered as an obstacle is a stationary object or a moving object.
[0025]
  In the invention according to claim 18, the predicted area setting means changes the size of the predicted area in the left-right direction between a range up to a predetermined distance ahead of the host vehicle and a range beyond the range.
[0026]
  In the invention according to claim 19, the object registration means changes the data of the registered object at a constant cycle.
[0027]
  In the invention which concerns on Claim 20, an object detection means has a radar head unit which detects the object which exists in front of the own vehicle.
[0028]
  According to the invention of claim 1, the object viewed from the host vehicleAttributes containing at least relative speedBased on the prediction area, the prediction area where the object is expected to move after a predetermined time has been set by the prediction area setting means, andAround the aboveThe search area is set to a part of the search area by the search area setting means and detected by the object detection means after a lapse of a certain time.objectAnd the expected and search areasobjectIs present in the predicted area, the object has been determined to have moved to the predicted area,objectIs present in the search area,objectWhen the distance to the object is less than or equal to a predetermined value, it is determined that the object has moved to the search area, the object is reliably recognized, and the obstacle determination is performed with high accuracy.
[0029]
  Moreover, even when the data about the object necessary for object recognition does not exist in the area, the object recognition means recognizes that the object exists in the area for a predetermined time, and the registration is not canceled. When data about the object is obtained again within a predetermined time, the object detection means detects and updates the size of the object again, and provides the object for recognition. Therefore, although an object is actually present in front of the host vehicle, it is possible to prevent the object from being erroneously canceled as it does not exist, the object can be reliably recognized, and the obstacle determination can be performed with high accuracy.
[0030]
  According to the invention of claim 2, the object viewed from the host vehicleAt least relative speedAnd the size of the objectAttributes containing andBased on this, an expected area where the object is expected to move after a predetermined time has elapsed is set.
[0031]
  According to the third aspect of the present invention, an object that can be an obstacle of the host vehicle is selected and registered by the object registration unit among the objects that have been recognized by the object recognition unit, and then the obstacle is detected by the same determination unit. Data of two objects selected and registered as objects are compared to determine whether they belong to the same object.
[0032]
  According to the fourth aspect of the present invention, the size of the object is detected by the averaging process based on a plurality of data on the same object detected within a predetermined time by the object detection means.
[0033]
  According to the fifth aspect of the invention, the object detection unit detects the optimum value most suitable for obstacle detection as the object among a plurality of pieces of data for the same object detected within a predetermined time.
[0034]
  According to the invention of claim 6, the range in which the object is detected by the object detection means is changed according to the distance from the host vehicle.
[0035]
  According to the seventh aspect of the invention, the total number of objects selected and registered as obstacles is limited by the object registration means to be equal to or less than a predetermined number.
[0036]
  According to the invention according to claim 8, when the number of objects selected as possible obstacles by the object registration means exceeds a predetermined number, the obstacles are sequentially removed from the obstacles with the least necessity of obstacle judgment. The total number of objects selected and registered as is limited to a predetermined number or less.
[0037]
  According to the ninth aspect of the present invention, the registration is deleted when the registered object cannot be detected continuously a predetermined number of times by the object detecting means.
[0038]
  According to the tenth aspect of the present invention, the reference selected and registered as an obstacle by the object registration means is changed between a range up to a predetermined distance ahead of the host vehicle and a range beyond the range.
[0039]
  According to the eleventh aspect of the present invention, the threshold for the distance ahead of the host vehicle for changing the reference for selecting and registering the object as an obstacle is higher when the speed is higher based on the speed of the host vehicle. It is set to be larger than when it is low.
[0040]
  According to the twelfth aspect of the present invention, in the range up to a predetermined distance in front of the host vehicle by the object registration means, an object existing in a predetermined width range with respect to the center line of the traveling path is in a range exceeding that, Objects existing within a predetermined angle range with respect to the center line of the traveling path are selected and registered as obstacles.
[0041]
  According to the invention of claim 13, the object registration means selects and registers an object that exists in a predetermined width range based on the center line of the traveling path as an obstacle in a range up to a predetermined distance ahead of the host vehicle. In a range beyond that, the object is selected and registered as an obstacle based on the relative velocity vector of the object.
[0042]
  According to the fourteenth aspect of the present invention, the length of the predicted area in the front-rear direction is changed by the predicted area setting means between a range up to a predetermined distance ahead of the host vehicle and a range beyond the predetermined distance.
[0043]
  According to the fifteenth aspect of the present invention, when the object is outside the prediction area and the search area, the object recognition unit determines that the object is a new object.
[0044]
  According to the invention of claim 16, when the object belongs to either of the two prediction areas or the search area, the object is moved to the prediction area or the search area on the smaller size side by the object recognition means. It is determined to be a thing.
[0045]
  According to the invention of claim 17, the determination condition is changed by the same determination means depending on whether the registered object is a stationary object or a moving object.
[0046]
  According to the eighteenth aspect of the present invention, the size of the prediction area set by the prediction area setting means is changed in a range up to a predetermined distance ahead of the host vehicle and a range exceeding the predetermined distance.
[0047]
  According to the nineteenth aspect of the invention, the data of the object registered by the object registration means is changed (updated) at a constant cycle.
[0048]
  According to the twentieth aspect of the present invention, the object is detected with high accuracy by the radar head unit.
[0049]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0050]
  In FIG. 1 showing the overall configuration of an automobile, reference numeral 1 denotes an automobile that is the host vehicle, and a radar that detects an object (specifically, all or a part of the object) existing in front of the host vehicle 2 at the front part of the vehicle body 2. A head unit 3 is provided. The radar head unit 3 transmits a pulsed laser beam as a radar wave toward the front of the host vehicle from the transmitter, and also reflects a reflected wave that hits an object that may be an obstacle such as a preceding vehicle that exists ahead. The receiving unit is configured to receive the signal, and measures the distance from the own vehicle to an object (obstacle) on the traveling path. Further, the object detection means 3 is a scanning type that scans a pulse laser beam (beam) that is transmitted from the transmitting section and that is vertically thin and spreads in a fan shape in the vertical direction at a relatively wide angle in the horizontal direction.
[0051]
  Reference numeral 4 denotes a control unit, as shown in FIG. 2, together with a signal from the radar head unit 3, a vehicle speed sensor 5 for detecting the vehicle speed of the host vehicle, a steering angle sensor 7 for detecting the steering angle of the steering handle 6, and the own vehicle. A signal from the yaw rate sensor 8 that detects the yaw rate generated by the vehicle is also input, and based on those signals, the traveling path state is displayed on the head-up display 9, and when an obstacle (object) is detected in front of the host vehicle, While the alarm device 10 is activated, the vehicle control device 11 activates the brake 11a to automatically apply a braking force to each wheel.
[0052]
  As shown in FIG. 3, the control unit 4 includes the radar head unit 3 and an object determining means 21 that receives the output of the radar head unit 3 and determines whether an object exists in front of the host vehicle. The object detection means 22 which consists of these is provided. Also, an expectation for receiving an output from the object detection means 22 and setting an expected region where the object is expected to move after a lapse of a certain time based on the detected object attributes (for example, distance, azimuth, size, relative speed, etc.) A region setting unit 23; a search region setting unit 24 that receives an output from the object detection unit 22; sets a search region around or a part of the predicted region; the object detection unit 22; the prediction region setting unit 23; An object recognition means 25 for receiving the output of the means 24 and determining the movement of the object by comparing the object detected by the object detection means 22 after a predetermined time with the predicted area and the search area, and certifying the object based on the movement; Receiving the output of the object recognition means 25, among the recognized objects, an object registration means 26 for selecting and registering an object that can be an obstacle of the own vehicle; and the object registration means 26 Receiving the output, by comparing the attributes of the object between the registered, they and a match determination means 27 determines whether or not belonging to the same object. Then, based on the object (obstacle) that has been selected and processed by the same determination means 27 in this way, the obstacle determination means 29 makes an obstacle determination for the travel path estimated by the travel path estimation means 28. .
[0053]
  The object determining means 21 accurately detects (determines) the size of the object by averaging processing based on a plurality of data on the same object detected by the radar head unit 3 within a predetermined time. . In addition, among the multiple data for the same object detected within a certain period of time, the optimum value (for example, the shortest distance from the host vehicle) that is most suitable for obstacle determination is detected (determined) as the object, and the accuracy of the obstacle determination Is configured to enhance. Further, the object determining means 21 is configured to change the range in which the object is detected according to the distance from the host vehicle. In other words, the distance from the host vehicle to a predetermined distance is within a predetermined range with respect to the center line of the host vehicle, and if it exceeds, the object existing within the predetermined angle range is detected with reference to the center line of the host vehicle. The range to be detected is limited to a range in which an object that becomes an obstacle is considered to exist, and the efficiency of object detection is improved.
[0054]
  The predicted area setting means 23 is configured to change the size of the predicted area in the front-rear direction and the size in the left-right direction between a range up to a predetermined distance ahead of the host vehicle and a range beyond the range. That is, in the range up to a predetermined distance in front of the host vehicle, the size of the predicted area in the front-rear direction and the size in the left-right direction is set larger than the range beyond that, and noise in the range up to the predetermined distance in front of the host vehicle is set. It is possible to reduce the influence of.
[0055]
  The object recognition means 25 recognizes that the object has moved into the prediction area unconditionally when it is recognized that the object exists in the prediction area for the purpose of improving the efficiency of the object recognition. When it is recognized that the object is out of the area, it is configured to be recognized as a new object. Also. When the object recognition unit 25 recognizes that the object belongs to either of the two prediction areas or the search area, the object recognition means 25 recognizes that the object has moved to the prediction area or the search area on the smaller side of the object, and determines the same In order to accurately perform the determination by the means 27, the size of the object is prevented from becoming infinitely large.
[0056]
  Further, the object registration means 26 limits the total number of objects selected and registered as obstacles to a predetermined number (for example, 40 in this embodiment) or less for speeding up the processing. For example, when an object selected as a possible obstacle is recognized beyond a predetermined number, an object selected and registered as an obstacle is removed in order from the obstacle with the smallest necessity for obstacle judgment. It is comprised so that it may restrict | limit so that the total number of may become below predetermined number. If the object registered as an obstacle by the object registration means 26 cannot be detected continuously by the object detection means 22 for a predetermined number of times, it is considered that the object no longer exists in the detection area. It is supposed to be. The object registration means 26 is configured to change a reference for selecting and registering an object as an obstacle between a range up to a predetermined distance ahead of the host vehicle and a range beyond the range. For example, in the range up to a predetermined distance in front of the host vehicle, an object existing in a predetermined width range with reference to the center line of the traveling path in consideration of jumping from the side, etc. Considering that it takes a certain amount of time to reach it, and that there are vehicles etc. that are heading toward the traveling path even if they are not currently on the traveling path, etc., within a predetermined angle range based on the center line of the traveling path Each existing object is selected and registered as an obstacle. In the range up to a predetermined distance in front of the host vehicle, an object existing within a predetermined width range is selected and registered as an obstacle with reference to the center line of the traveling path, and in a range exceeding that, the relative velocity vector of the object is selected. Based on the above, it is possible to select and register only an object coming toward the host vehicle as an obstacle. Note that the attribute of the object registered in the object registration unit 26 is changed (updated) at a constant cycle based on the result of the recognition by the object recognition unit 25, and is always brought close to the actual state. This process is not required to be performed.
[0057]
  If the object present on the traveling path is a moving object, it is not considered that the same determining means 27 is a very large object, so the determination condition depends on whether the registered object is a stationary object or a moving object. Is configured to change.
[0058]
  The traveling path estimation means 28 estimates the traveling path of the host vehicle based on the vehicle speed V and the steering angle φ detected by the vehicle speed sensor 5 and the steering angle sensor 7. The curvature radius R1 is calculated by the following equation.
[0059]
              R1 = (1 + A · V2) ・ LB ・ N / φ
              A: Stability factor
                    N: Steering gear ratio
                    LB: Wheelbase
[0060]
  Further, the traveling path of the host vehicle can be predicted based on the yaw rate γ and the vehicle speed V detected by the yaw rate sensor 8, and the curvature radius R2 of the traveling path in that case is calculated by the following equation. .
[0061]
              R2 = V / γ
[0062]
  By the way, when there is a cant on a curved portion of an expressway or the like, the steering angle φ does not coincide with the actual turning angle of the own vehicle, and in this case, the curvature radius of the traveling path of the own vehicle that is expected based on the steering angle φ Is larger than the actual radius of curvature. Even when the host vehicle is traveling straight ahead, the steering handle is usually steered slightly to the left and right. The road may not match the actual path. Therefore, when the steering angle φ is smaller than a predetermined value, the radius of curvature R2 of the traveling path calculated from the yaw rate γ and the vehicle speed V is selected, and when the steering angle φ is equal to or larger than the predetermined value, the radius of curvature R1 of the traveling path is set. It is preferable to select the smaller of R2. In other words, when the host vehicle turns on a curved road having a cant, the host vehicle can turn by the cant even if the steering handle is not largely steered, so that the radius of curvature is based on the yaw rate generated in the host vehicle. By calculating R2, the traveling path of the host vehicle is accurately predicted, and when the host vehicle makes a sharp turn, the radius of curvature R1 corresponding to the steering angle φ, which is a large value, is selected. When the vehicle travels in a straight line, the steering wheel is slightly operated, but the yaw rate γ does not occur. Therefore, based on the yaw rate γ, the curvature radius R2 that is predicted to be a straight road is selected.
[0063]
  Subsequently, the flow of processing by the control unit 4 will be described.
[0064]
<Basic control>
  As shown in FIG. 4, when starting, pre-processing of data on an object detected by the radar head unit 3 is first performed by the object determining means 21 (step S1). In other words, the scan angle range of 30 ° of the radar head unit 3 is divided into 300 equal parts, and an object for each angle (specifically, not all of the object but may be a part thereof), Specifically, among the distance data (data about the distance from the host vehicle to the object positioned in front of the host vehicle), the object at the shortest distance from the host vehicle is picked up as the optimum value most suitable for obstacle detection.
[0065]
  Then, based on the attributes (size, azimuth, distance, relative speed, etc.) of each picked up object, the prediction area setting means 23 sets the prediction area where each object is expected to move after a certain period of time. In addition, since there is a possibility that the object moves around the predicted area, the search area setting unit 24 sets a search area for searching whether there is no movement of the object around the expected area (step) S2).
[0066]
  After setting the prediction area and the search area, the attribute of the object is determined (step S3). That is, the object recognition means 25 determines the movement of the object by comparing the object detected by the object detection means 22 after a predetermined time with the predicted area and the search area, and recognizes the object based on the movement. It is determined whether the (detected) object belongs to any of the objects already registered by the object registration means.
[0067]
  Based on the result, registration of unnecessary objects (for example, registered objects but not detected this time) is deleted (step S4), and objects that have already been registered and do not belong to any object Is newly registered as a new object (step S5).
[0068]
  Then, the registered object is deleted and a new object is registered. Based on the confirmed (registered) object, it is registered as an obstacle by selecting an object to be used for obstacle detection under a certain condition. The total number of objects to be limited to a predetermined number or less (step S6), and subsequently, for each object limited to the predetermined number or less, an object that may be an obstacle based on the attribute of the object Attributes (size, direction, distance, relative speed, etc.) are changed (step S7).
[0069]
  In this way, when a series of processing for the detected object is completed and an object that may be an obstacle is selected and registered, the attributes of the selected and registered objects are sequentially compared. Then, the same determination process for determining whether or not these objects belong to the same object is performed (step S8), and the objects limited to a predetermined number or less are grouped to form a group of several objects. Grasp and return.
[0070]
  In this way, since the grouped objects belong to one object lump, there is no relative speed difference between the objects, compared to the case where each object is judged. Therefore, it is possible to reduce obstacles and accurately perform obstacle judgment such as collision judgment.
[0071]
<Detection of distance to object>
  As shown in FIG. 5, when starting, first, the number of scans i (i = 1, 2, 3) of the radar head unit 3 is reset to 0 (step S11). That is, i = 0.
[0072]
  Since scanning is performed once, the number of scans i is incremented to i + 1 (step S12), and then it is determined whether i = 4 (step S13).
[0073]
  If i = 4, the number j (j = 1,..., 300) for each angle part obtained by dividing the scan angle range 30 ° of the radar head unit 3 into equal parts by 300 is reset to 0. (Step S14). That is, j = 0.
[0074]
  Then, the number j for each angle part is incremented to j + 1 (step S15), and it is determined whether j = 300 (step S16). If j = 300, the process is finished for all angle parts. Therefore, the process returns to step S12. On the other hand, if j = 300 is not satisfied, the process proceeds to step S17 to determine whether i = 1.
[0075]
  If i = 1, since this is the first scan, the angle data dt (1, j) corresponding to each angle part of the first scan is used as the distance data inp− Data (j) is set (step S18), and the process returns to step S15. On the other hand, if i = 1, the process proceeds to step S19 to determine whether i = 2. If i = 2, since this is the second scan, the angle data dt (2, j) corresponding to each angle portion of the second scan is used as the distance data inp− data (j) (step S20) and the process returns to step S15. If i = 2 is not satisfied, the third scan is performed, and therefore the angle data dt (3 corresponding to each angle portion of the third scan is determined. , j) is the distance data inp-data (j) for the object input this time (step S21), and the process returns to step S15.
[0076]
  On the other hand, if i = 4 in the determination in step S13, j = 0 is set by reset (step S22), and then the number j for each angle part is incremented to j + 1 (step S23), and j = 300. It is determined whether or not there is (step S24). If j = 300, i = 0 is reset (step S25), and the process returns to step S12. If j = 300, the process proceeds to step S26. First, the distance data dt (2, j) for the object of the angle part (number j) of the second scan is the distance data dt (2) for the object of the angle part (number j) of the first scan. 1, j) and if the distance data dt (2, j) is smaller than the distance data dt (1, j), the distance data dt (2, j) For the object of the angle part (number j) of the scan Release data dt (3, j) is determined is smaller than or not (step S27).
[0077]
  If the distance data dt (2, j) is smaller than the distance data dt (3, j), the distance data dt (2, j) is the shortest value. If the data dt (2, j) is adopted (step S28) and the process returns to step S23, but the distance data dt (2, j) is not smaller than the distance data dt (3, j), the distance data dt ( Since 3, j) is the shortest value, distance data dt (3, j) is adopted as distance data data (j) for each angle portion (step S29), and the process returns to step S23.
[0078]
  On the other hand, if it is determined in step S26 that the distance data dt (2, j) is not smaller than the distance data dt (1, j), the distance data dt (1, j) is further calculated from the distance data dt (3, j). It is determined whether it is small (step S30). If the distance data dt (1, j) is smaller than the distance data dt (3, j), the distance data dt (1, j) is the shortest value. If the data dt (1, j) is adopted (step S31) and the process returns to step S23, but the distance data dt (1, j) is not smaller than the distance data dt (3, j), the distance data dt ( Since 3, j) is the shortest value, distance data dt (3, j) is adopted as distance data data (j) for each angle portion (step S32), and the process returns to step S23.
[0079]
  Accordingly, distance data is obtained three times for each of 300 angle portions obtained by dividing the scan angle range 30 ° of the radar head unit 3 into equal angles, and the shortest value is adopted as the deterministic data for each angle portion. It will be.
[0080]
<Detection of object size>
  As shown in FIG. 6, when starting, it is determined whether or not the number of scans i of the radar head unit 3 is 5 or less (step S36), and if it is 5 or less, the process proceeds to step S37. The object size OB-size (j) for each angle portion (number j) is calculated from the equation, and then the number of scans i is incremented to i + 1 (step S38), and the process returns.
[0081]
    OB-size (j) = (i−1) / i × OB-size (j)
                                    + 1 / i x OB-N-size (j)
[0082]
  Then, when the number of detections exceeds 5, the detected object size OB-N-size (j) is within a predetermined range for the already registered object size OB-size (j). It is determined whether it belongs to (step S39).
[0083]
  If it belongs within the predetermined range, the object size OB-size (j) is set as the object size OB-N-size (j) detected this time (step S40), and after step S38, Return. On the other hand, if the object size does not belong to the predetermined range, the object size OB-N-size (j) detected this time is averaged over the same angle portion (number j). ) Is determined (step S41), and if it is greater, the minimum value ang-N-min (j) of the detected object angle data is the minimum value of the registered object angle data. It is determined whether or not it is equal to ang-min (j) (step S42). On the other hand, if it is not larger, the predicted object predicted position is corrected (step S43), and the process returns through steps S40 and S38.
[0084]
  If the determination in step S42 is the same, the predicted object predicted position is corrected to the minimum value ang-min (j) of the registered angle data (step S44), and the process returns via steps S40 and S38. To do. On the other hand, if they are not equal, the maximum value ang-N-max (j) of the detected object angle data is equal to the maximum value ang-max (j) of the registered object angle data. Is determined (step S45). If the maximum value ang-N-max (j) of the angle data of the detected object is equal to the maximum value ang-max (j) of the registered object angle data, the predicted object predicted position Is corrected according to the maximum value ang-max (j) of the angle data of the registered object (step S46), but if not equal, it is corrected to an expected object predicted position (step S47), and steps S40 and S40 The process returns after step S38.
[0085]
  In the control shown in FIG. 6, when the number of detections reaches 5 or more, the size of the object is fixed and handled so as not to change, but the size of the object is calculated every time the number of detections passes. You can also update it.
[0086]
<Predicted area of object>
  In FIG. 7, when starting, first, an object prediction region including an object prediction position where the object is expected to move after a lapse of a predetermined time is set based on the attribute of the detected object (steps S51 to S55). Here, as shown in FIG. 8, for the registered (determined) object, the distance from the own vehicle to the object reference position is OB-dist, the azimuth (angle) of the object reference position with respect to the own vehicle is OB-ang, The size of the object in the left-right direction is represented by OB-size, the size of the object in the front-rear direction is represented by OB-div, and the region end (angle data) is represented by OB-min (left side) and OB-max (right side). As for the predicted position of the object that is expected to be detected this time, the distance is OB-dist-N, the direction is OB-ang-N, the size OB-div-N in the front-rear direction, and the region edge OB-min- N (left side) and OB-max-N (right side). The relative velocity of the object with respect to the own vehicle is represented by r-vel, and the relative angular velocity of the object with respect to the own vehicle is represented by a-vel.
[0087]
  Specifically, first, the predicted object position is set based on the following equation (step S51).
[0088]
        OB-dist-N = OB-dist-r-vel × t
        OB-ang-N = OB-ang-a-vel xt
        OB-min-N = OB-ang-N-OB-size / 2
        OB-max-N = OB-ang-N + OB-size / 2
        OB-div-N = OB-div
[0089]
  Then, it is determined whether or not the distance OB-dist-N to the reference position of the predicted object position exceeds a predetermined distance α1 (threshold value) (step S52). An object prediction area is set (see the broken line in FIG. 8). That is, if the distance OB-dist-N exceeds the predetermined distance α1, the length OB-SC-div in the front-rear direction of the object prediction area is set to a1 (step S53). The length OB-SC-div is set to a2 (> a1) (step S54). Accordingly, when the predetermined distance α1 in front of the host vehicle is not exceeded, the length OB-SC-div in the front-rear direction of the object prediction area is changed to be larger than the case where the distance is exceeded, and the detected object The detection accuracy is improved so as not to be affected by variations in data and noise.
[0090]
  After that, set the region end (left side) OB-SC-min to OB-ang-N-β1 / 2 and the region end (right side) OB-SC-max to OB-ang-N + β1 / 2. (Step S55), the reference position OB-ang-N of the predicted object position is set to have a spread of the angle β1.
[0091]
  Then, the data attribute of the object detected this time is determined (step S56). That is, based on the attribute of the object detected this time, it is determined which object each object already belongs to (see FIGS. 14 and 15).
[0092]
  Then, the predicted object position is corrected based on the data about the object detected this time. That is, the object number i corresponding to each object is set to 0 (step S57), and then the object number i is incremented to i + 1 (step S58) to determine whether the object number i is equal to the maximum object number Max-number. (Step S59), if they are equal, the process returns as it is. If they are not equal, it is determined whether or not the minimum angle data Min (dt (i)) of the object search area (angle data at the end of the object search area) is smaller than the minimum angle data OB-min-N of the predicted object position (Step S60).
[0093]
  If the minimum angle data Min (dt (i)) of the object search area is smaller than the minimum angle data OB-min-N of the predicted object position, Min (dt (i)) is set to OB-min-N (step S61). Then, it is determined whether or not the maximum angle data OB-max-N of the predicted object position is smaller than the maximum angle data Max (dt (i)) of the object search region (angle data at the end of the object search region) (step) S62) On the other hand, if not smaller, the process immediately proceeds to step S62.
[0094]
  If the maximum angle data OB-max-N of the predicted object position is smaller than the maximum angle data Max (dt (i)) of the object search area in the determination of step S62, Max (dt (i)) is set to OB-max-. N is set (step S63), and the process proceeds to step S64. If not, the process immediately proceeds to step S64.
[0095]
  If it is determined in step S64 that the length OB-div-N of the object predicted position is smaller than the maximum length Max-div of the object search area, Max-div is set to OB-div-N (step S65). On the other hand, the process proceeds to step S58. If not, the process proceeds to step S58 without passing through step S65.
[0096]
  By the way, in the control mentioned above, it can replace with the process of step S52-step S55, and can also be comprised as shown in FIG. That is, after setting the predicted object position in step S51, it is determined whether or not the relative speed Vi between the host vehicle and the object is less than a predetermined speed C1 (threshold value) (step S71). If there is, it is determined whether or not the distance OB-dist-N to the reference position of the predicted object position exceeds a predetermined distance α1 (threshold value) (step S72). On the other hand, OB-SC-div is set to a predetermined value a1 (step S73), but if not exceeded, it is set to a predetermined value a2 (step S74).
[0097]
  On the other hand, if the relative speed Vi is not less than the predetermined speed C1, whether or not the distance OB-dist-N to the reference position of the predicted object position exceeds the predetermined distance α1 (threshold value) is the same as the process in step S72. (Step S75), if it exceeds, the length OB-SC-div in the front-rear direction of the object prediction area is set to a predetermined value a3 (step S76). If not, the predetermined value a4 is set (step S77). . As described above, the length OB-SC-div in the front-rear direction of the object prediction area is changed in consideration of not only the distance OB-dist-N to the reference position of the object prediction position but also the relative speed Vi. Note that a1 <a2 <a3 <a4.
[0098]
  After the processing of steps S71 to S77, it is determined whether or not the distance OB-dist-N to the reference position of the predicted object position is less than a predetermined distance C2 (threshold value) (step S78). If the distance OB-dist-N to the reference position is less than the predetermined distance C2 (threshold),
        OB-SC-min = OB-ang-N-β1 / 2
        OB-SC-max = OB-ang-N + β1 / 2
(Step S79) On the other hand, if the distance OB-dist-N to the reference position of the predicted object position is not less than the predetermined distance C2,
        OB-SC-min = OB-ang-N-β2 / 2
        OB-SC-max = OB-ang-N + β2 / 2
(Step S80), the process proceeds to Step 56. Here, β1 <β2.
[0099]
  Therefore, the size of the object prediction area in the left-right direction is changed between a range up to a predetermined distance ahead of the host vehicle and a range exceeding the predetermined distance.
[0100]
  The initial value of the prediction area is set as follows (see FIG. 10).
[0101]
  In FIG. 10, when starting, it is determined whether or not the number of sampling times smp is 3 or less (step S91). If it is 5 times or less, the predicted object position is
          OB-dist-N = OB-dist-v0.t
          OB-ang-N = OB-ang
(Step S92) On the other hand, if it exceeds five times, the predicted object position is calculated by the following equation:
        OB-dist-N = OB-dist -r-vel · t
        OB-ang-N = OB-ang-a-vel · t
Is set (step S93). Here, v0 is the host vehicle speed.
[0102]
  Then, the region edges OB-min-N and OB-max-N and the length OB-div-N in the front-rear direction of the predicted object position are
              OB-min-N = OB-ang-N- (OB-size / 2) · α
              OB-max-N = OB-ang-N + (OB-size / 2) .alpha
              OB-div-N = OB-div
(Step S94).
[0103]
<Object search area setting>
  In FIG. 11, when starting, an object search area is first set by the following equation (step S101). The object search area is set such that (object search area) ≧ (object prediction area). Here, the maximum distance from the host vehicle to the object search area is OB-K-dist-max, the minimum distance from the host vehicle to the object search area is OB-K-dist-min, and the end of the object search area (left side) Is represented by OB-K-min, and the region end (right side) of the object retrieval region is represented by OB-K-max. Note that b1, b2, and b3 are constants.
[0104]
        OB-K-dist-max = OB-dist-N + OB-div-N + b1
        OB-K-dist-min = OB-dist-N-b3
        OB-K-max = OB-ang-N + b2 / 2
        OB-K-min = OB-ang-N-b2 / 2
[0105]
  Then, the attribute of the object is determined based on the detection data about the detected object (step S102). That is, it is determined whether or not the object detected this time is in the object search area (see FIGS. 14 and 15).
[0106]
  Subsequently, the predicted object position is corrected in relation to the object search area. That is, the object identification number i is reset to 0 (step S103), then the object identification number i is incremented to i + 1 (step S104), and the object identification number i is equal to max-number (maximum number of objects). It is determined whether or not (step S105). If they are equal, the process returns. If they are not equal, it is determined whether or not the minimum angle data OB-min-N is larger than the minimum angle data Min (dt (i)) in the search area at the predicted object position (step S106). .
[0107]
  If the minimum angle data OB-min-N of the predicted object position is larger than the minimum angle data Min (dt (i)) of the search area, Min (dt (j)) is set to OB-min-N (step S107). Then, it is determined whether or not the maximum angle data OB-max-N of the predicted object position is smaller than the maximum angle data Max (dt (i)) of the search area (step S108), while the maximum angle data Min of the search area is determined. If the maximum angle data OB-min-N of the predicted object position is not larger than (dt (i)), the process immediately proceeds to step S108, and the object prediction is larger than the maximum angle data Max (dt (i)) of the object search area. It is determined whether or not the position maximum angle data OB-max-N is small.
[0108]
  If the maximum angle data OB-max-N of the predicted object position is smaller than the maximum angle data Max (dt (i)) of the object search area, Max (dt (i)) is set to OB-max-N (step S109). Then, it is determined whether or not the distance OB-dist-N to the predicted object position is larger than the maximum distance Min (dd (i)) to the object search area (step S110), while the maximum angle of the object search area is determined. If the maximum angle data OB-max-N of the predicted object position is not smaller than the data Max (dt (i)), the process immediately proceeds to step S110 and is larger than the maximum distance Max (dd (i)) to the object search area. It is determined whether or not the distance OB-dist-N to the predicted object position is large.
[0109]
  If the distance OB-dist-N to the predicted object position is larger than the minimum distance Min (dd (i)) to the object search area, Min (dd (i)) is set to OB-dist-N (step S111). Then, it is determined whether or not the size OB-div-N in the front-rear direction of the predicted object position is larger than the maximum distance Max (dd (i)) to the object search area (step S112). If the distance OB-dist-N to the predicted object position is not larger than the minimum distance Min (dd (i)), the process immediately proceeds to step S112 and the maximum distance Max (dd (i)) to the object search area is determined. Also, it is determined whether the size OB-div-N in the front-rear direction of the predicted object position is large.
[0110]
  If OB-div-N is smaller than the maximum distance Max (dd (i)) to the object search area, Max (dd (i)) is set to OB-div-N (step S113), and the process returns to step S104. If the size OB-div-N in the front-rear direction of the predicted object position is not smaller than the maximum distance Max (dd (i)) to the object search area, the process immediately returns to step S104.
[0111]
<Regarding relearning and updating of object size>
  In FIG. 12, the determination of the predicted object position where the object is expected to be detected in this scan is registered (determined) in the same manner as in step S51 of FIG. Based on the attribute of the existing object, the following equation is used (step S301).
[0112]
        OB-dist-N = OB-dist-r-vel × t
        OB-ang-N = OB-ang-a-vel xt
        OB-min-N = OB-ang-N-OB-size / 2
        OB-max-N = OB-ang-N + OB-size / 2
        OB-div-N = OB-div
[0113]
  Next, the determination of the object search area to be enlarged around the predicted area is performed based on the following equation (step S302), similar to step S101 of FIG. 11 described in the previous <object search area setting>. ).
[0114]
        OB-K-dist-max = OB-dist + OB-div + b1
        OB-K-dist-min = OB-dist-b1
        OB-K-max = OB-ang + b2 / 2
        OB-K-min = OB-ang-b2 / 2
[0115]
  Then, each data detected this time is compared with the search area to determine whether or not there is at least one data (OB-dist, OB-ang) for the object i in the search area (step S303) If there is no data, no.echo indicating the number of times that the data does not existiIs incremented (step S304). And this no.echoiIf the limit value no.echo limit is reached, no.echoiIs reset to zero to cancel registration of the object i (steps S305 and 306), but the position of the current object i is determined based on the predicted position of the current object i until the limit value is reached (step S307). ). That is, it is temporarily recognized that the object i exists at the current predicted position, and the previous value is used for the size of the object i.
[0116]
  On the other hand, when it is determined in step S303 that the data of the object i exists in the search area, the previous data absence number no.echoiIf is zero, the position of the current object i is determined based on the current detection data (steps S308, 309). Therefore, the previous value is used for the size of the object.
[0117]
  Then, in step S308, no.echoiIf it is not = 0 (no previous data for the object i existed or the data nonexistence state continued), when the number of data in the search area is 3 or more, The size is re-learned and updated by the averaging process, and the position of the current object i is determined based on the current detection data (steps S310, 311, 309). Accordingly, the updated value is used for the size of the object i. In the relearning / updating of the size of the object, a predetermined weight is given to the size value (OB-size, OB-div) of the object i obtained by the averaging process based on the detection data of this time, The average value of the size of the object i obtained previously is taken (re-learning can be repeated several times).
[0118]
  Therefore, even if data of the object i cannot be temporarily obtained in the search area of the object i, the registration of the object i is not canceled immediately, and is canceled only when the state without this data continues for a predetermined number of times. Therefore, it is possible to avoid a situation where the registration is canceled even though the object i actually exists. Moreover, since the size of the object i is relearned and updated when detection data is obtained next time, it is advantageous for accurate recognition of the object.
[0119]
  The reason why the data of the object i cannot be obtained is, for example, when another object crosses between the host vehicle and the object i, or the size detected for the object i is inaccurate (too small). There may have been. As a cause of detecting the size of the object i smaller than the actual size, for example, when the preceding vehicle (object i) is far away and the reflected wave obtained by the reflector on the rear surface of the vehicle body is small, The reflected wave may be reduced by pitching.
[0120]
  When the size of the preceding vehicle is detected smaller than the actual size, the preceding vehicle search area set based on this detection is also small. For this reason, the data of the preceding vehicle may not be obtained in the search area due to vehicle pitching or the like. However, when the interval between the host vehicle and the preceding vehicle is reduced thereafter or the pitching is reduced, the data of the preceding vehicle appears in the search area.
[0121]
  The disappearance or appearance of data from the search area in this way means that the relative speed of the object is not wrong but the size is wrong. For this reason, as described above, the size of the object is relearned and updated.
[0122]
  Here, the re-learning condition is set to three or more data (see step S310) because the error increases when re-learning with a small number of data. Also no.echoiThe reason why the registration of the object i is canceled when the predetermined number of times is reached is that if such a state continues for a long time, it can be determined that the object i has disappeared from the front of the host vehicle.
[0123]
  Note that it may be possible to re-learn and update the size of the object i every time the data of the object i is obtained in the search area. However, if this is done, it is necessary to increase the CPU capacity for the calculation. If it is far away, when data of a plurality of objects accidentally enter the search area, it is determined that they are large objects. Therefore, the relearning / updating is performed when data disappears from the search area and appears again.
[0124]
<Limit on number of objects>
  In FIG. 13, when starting, it is determined whether or not the number of detected objects is 40 or less (step S121), and if it is 40 or less, the condition for limiting the number of objects is satisfied. On the other hand, if the number of objects is not 40 or less, it is necessary to limit the number of objects temporarily registered as obstacles to 40 or less. Therefore, the process proceeds to step S122, and first the objects are identified. Therefore, the object numbers i and k to be assigned are set to 0, respectively. Therefore, i = 0 and k = 0 (step S122).
[0125]
  Then, the object number i is incremented to i + 1 (step S123), and it is determined whether the object number i is equal to n (maximum number of objects) +1 (step S124). L0 is set based on the host vehicle speed V0 (step S125). That is, the threshold value L0 may be a fixed value such as 50 m ahead of the host vehicle. In this example, the threshold value L0 is determined according to the map shown in FIG. 14 based on the host vehicle speed V0.
[0126]
  Next, it is determined whether or not the distance L (i) from the host vehicle to the object (object number i) is equal to or less than L0 (step S126). If the object number i is equal to n + 1, all the objects are determined. Therefore, the object number i is reset to 0 (step S127).
[0127]
  If the distance L (i) from the host vehicle to the object (object number i) is equal to or less than L0, the process proceeds to step S128, and the traveling path width (expressed in angle) 2Δi at the distance L (i) is set.
                (Travel path width + α) / L (i)
And Here, α is a constant.
[0128]
  Then, after setting the travel path width 2Δi, it is determined whether or not the direction θi of the object (object number i) from the host vehicle is larger than φ (the direction of the center position of the travel path) −Δi (step S129). If it is larger, it is further determined whether or not the azimuth θi of the object is smaller than φ + Δi (step S130). If smaller, the object (object number i) exists on the traveling path having the traveling path width Δi on the left and right. Set the INSIDE flag to 1 (step S131), and return to step S123. On the other hand, if the determination in steps S129 and S130 is NO, the process proceeds to step S132, and no object exists on the traveling path, so the INSIDE flag is set to 0 and the process returns to step S123.
[0129]
  On the other hand, if the distance L (i) is not less than L0, it is determined whether or not the relative speed Vi is equal to the host vehicle speed V0 (step S132). If the relative speed Vi is equal to the host vehicle speed V0, the INSIDE flag is set to zero. (Step S146) If the relative speed Vi is not equal to the host vehicle side V0, the process proceeds to Step S131, the INSIDE flag is set to 1, and the process returns to Step S123.
[0130]
  As a result, an INSIDE flag that is a result of the determination as to whether or not the object exists on the traveling path up to the distance L (i) = L0 is assigned to all the registered objects.
[0131]
  In step S127, the object number i is reset to i = 0, then the object number i is incremented to i + 1 (step S133), and it is determined whether the object number i is equal to n + 1 (step S134). ).
[0132]
  If i = n + 1, the determination for all objects has been completed, so another object number k is incremented to k + 1 (step S135). On the other hand, if i = n + 1 is not satisfied, the INSIDE flag is set. It is determined whether or not it is 0 (step S136), and if the INSIDE flag is 0, it is an object that does not need to be judged as an obstacle and can be removed, so the total number n of objects is decremented and n− 1 (step S137), and then it is determined whether or not the total number n of objects is 40 or less (step S138). If it is 40 or less, the condition for limiting the number of objects is satisfied, so that Return. On the other hand, if the INSIDE flag is not 0 in the determination in step S136, if the total object number n is not less than 40 in the determination in step S138, the process returns to step S127.
[0133]
  After the object number k is incremented to k + 1 in step S135, it is determined whether or not the object number k is equal to n + 1 (step S139). If k = n + 1, the condition for limiting the number of objects is satisfied. Since it is necessary to reduce the number of objects, only one object located farthest away is canceled (step S140), and then the total number n of objects is decremented to n-1 (step S141), and the number of objects is 40. If it is 40 or less, the condition for limiting the number of objects is satisfied. Therefore, the process returns as it is, but if the number is not 40 or less, the condition for limiting the number of objects is set. Until it is satisfied, the process of canceling only one object located farthest is repeated, and the process returns to step S140.
[0134]
  On the other hand, if the object number k is not n + 1, whether or not the center position of the object (object number k) is within a predetermined angle range with respect to the traveling path center line, that is, the center position of the object is within the predetermined angle range. It is determined whether or not it is between Tmin (left side) and Tmax (right side) (step S143). If it is between them, n is decremented to n-1 (step S144), and the number of objects is 40. It is determined whether or not the number is below (step S145). On the other hand, if it is not less than 40, the process returns to step S135. If the center position of the object is not between Tmin (left side) and Tmax (right side), the process returns to step S135.
[0135]
  In this way, up to a distance L0 ahead of the host vehicle, an object existing within a predetermined width is selected as an obstacle with reference to the center line of the traveling path, and in the range exceeding the distance L0, the center line of the traveling path is selected. An object existing within a range of a predetermined angle as a reference is selected as an obstacle, and the number of objects to be detected by the obstacle is limited to 40 or less.
[0136]
  Here, in setting the distance threshold value L0 in step S125, the threshold value L0 increases (and therefore the distance increases) as the host vehicle speed V0 increases as shown in FIG. 14 for the following reason.
[0137]
  First, selective registration of an object as an obstacle is performed in a narrow range within a predetermined width based on the center line of the traveling path at a shorter distance than L0 (a narrower range than a distance farther than L0). This is because the possibility that the own vehicle will deviate from the current traveling path to the side is less in the position close to the own vehicle, and therefore, the object that is present on the side of the traveling path becomes an obstacle as the object is closer to the own vehicle. This is because there is little nature. When the host vehicle speed V0 increases, the possibility of deviating from the traveling path to the side even at a position relatively far from the host vehicle decreases, and the object existing on the side is less likely to become an obstacle. L0 is increased so that a large number of objects that are likely to become obstacles can be selected and registered.
[0138]
  In place of the map in FIG. 14, the relationship between the host vehicle speed V0 and the distance threshold value L0 is a linear function (a direct proportional relationship), or the threshold value L0 is stepped as the host vehicle speed V0 increases. You may adopt what becomes high in the shape.
[0139]
  In the above example, in step 140, the object is canceled from a distant object. However, the object may be canceled from an object having a low relative speed with the host vehicle. It is considered that the possibility that the object becomes an obstacle of the own vehicle decreases as the relative speed decreases.
[0140]
  Other cancellation criteria include the following. That is, at a shorter distance than L0, the turning radius Rt = OB-dist / {2sin (OB-ang) for the host vehicle to reach the object i based on the data (OB-dist, OB-ang) of the object i. )}, And the required lateral acceleration a = V0 depending on the difference between this and the turning radius R of the host vehicle2X | Rt-R | is obtained, and when the lateral acceleration a is equal to or greater than the reference value a0, the object i is canceled as being less likely to be an obstacle. And a cancellation evaluation amount Ci = Δθi × γi obtained by obtaining an angle difference Δθi from a point OB-dist (distance of the object i) away from the own vehicle on the traveling path of the own vehicle and multiplying this by the angular velocity γi of the object i. When the evaluation amount Ci is larger than the reference value C0, the object i is canceled as being less likely to be an obstacle of the own vehicle.
[0141]
<Determination of detected data attributes>
  In FIG. 15, when starting, it is determined whether there is detection data for an object that has not been determined (step S151), and if there is detection data, the distance dist and azimuth ang for the detection data are read (step S152). On the other hand, if there is no detection data, the process returns.
[0142]
  After reading the distance dist and azimuth ang of the detection data, it is determined whether or not all objects currently registered enter the object prediction area including the object prediction position (step S153). When entering only the predicted area, it is determined that the object belongs to the object (step S154), and when entering a plurality of predicted object areas, it is determined that the object belongs to the smallest object among them. (Step S155) On the other hand, if the process returns, but does not enter any object prediction area, it is determined whether or not all the currently registered objects enter the object search area (Step S156). . In step S155, determining that the object belongs to the smallest object is, for example, that the detection data temporarily belongs to two objects (objects N0.a, b). This means that the sizes OB-size (a) and OB-size (b) are compared, and the processing belongs to the smaller object. This is to prevent the size of the object from gradually increasing.
[0143]
  When entering one or a plurality of object search areas, the distances from the object prediction area to the detection data of all the object search areas entered are calculated (step S157), and then one object search area is entered. It is determined whether or not (step S158). If it is 1, it is further determined whether or not the calculated distance to the predicted object area is equal to or smaller than a set value (step S159). If it is equal to or smaller than the set value, it is determined that the data belongs to the object. If it is not less than the set value (step S160), it is determined that the data is a new object (step S161).
[0144]
  If there is not one object search area entered in the determination in step S158, the object having the shortest distance from each object prediction area to the detection data is selected (step S162), and the process proceeds to step S159.
[0145]
  Here, the reason why the object having the shortest distance from the object prediction region to the detection data is selected is that it is most likely that the object belongs to the object having the shortest distance.
[0146]
  If it is determined in step S156 that no object search area is entered, it is determined that the data is a new object (step S163), and the process returns.
[0147]
  Specifically, the determination in step S153 is performed as follows.
[0148]
  As shown in FIG. 16, after reading the distance dist and azimuth ang of a certain data in step S152, first, the object number i is set to 1 (step S171), and then the azimuth ang is the horizontal direction of the object prediction area. It is determined whether it is between the region ends OB-min (i) and OB-max (i) (step S172).
[0149]
  If the azimuth ang is between the left and right region edges OB-min (i) and OB-max (i) of the object prediction region, whether or not the distance dist falls within the range of the object prediction region in the front-rear direction That is, it is determined whether or not the object reference distance OB-dist (i) and the range OB-div in the front-rear direction are added (step S173). (Step S174), the process proceeds to step S175. On the other hand, if the determination in steps S172, S173 is NO, the process immediately proceeds to step S175.
[0150]
  In step S175, it is determined whether or not the object number i is equal to the registered object number I. If they are equal, the process proceeds to step S176 to determine how many objects are temporarily included in the detection data (step S177). On the other hand, if they are not equal, the object number i is incremented to i + 1 (step S178), the process returns to step S172, and this is repeated until i = I.
[0151]
  When the number of objects is 0, the process proceeds to step S157, when the number of objects is 1, the process proceeds to step S155, and when there are a plurality of objects, the process proceeds to step S156 (FIG. 15). reference).
[0152]
<Change object attributes>
  In FIG. 17, when starting, first, the object number i is reset to 0 (step S181), then the object number i is incremented to i + 1 (step S182), and then the object number i is Max-number (object It is determined whether it is equal to the maximum number) (step S183). If they are equal, the process returns as is. If they are not equal, the size OB-size-N of the object (object number i) detected this time is larger than OB-size (i) -off-size and OB-size (i It is determined whether it is smaller than + off-size (step S184). In the case of YES, the region end (right side) OB-max of the object is the region end (right side) OB-max-N of the object detected this time, and the region end (left side) OB-min of the object is detected this time. The region end (right side) OB-min-N is set (step S185), and the average (OB-max + OB-min) / 2 is set as the object orientation OB-ang (step S186), and the process returns to step S183. On the other hand, in the case of NO, it is determined whether or not the object size OB-size (i) is smaller than the object size OB-size-N (i) detected this time (step S187).
[0153]
  If the determination in step S187 is YES, whether the area end (left side) OB-min (i) of the object is equal to the area end (left side) OB-min-N (i) of the object detected this time is equal. On the other hand, in the case of NO, the area end (right side) OB-max of the object and the area end (left side) OB-min of the object are respectively set to OB-ang-N + OB-size / 2 ×. α, OB-ang-N-OB-size / 2 × α2 (step S189), and the process proceeds to step S186. Here, α2 is a coefficient for changing the length into an angle.
[0154]
  If YES in step S188, OB-max and OB-min are set to OB-min-N + OB-size and OB-min-N, respectively (step S190), and the process proceeds to step S186. In this case, it is determined whether OB-max (i) and OB-max-N (i) are equal (step S191).
[0155]
  If YES in step S191, OB-max and OB-min are set to OB-max-N and OB-max-N + OB-size, respectively (step S192), and the process proceeds to step S186. In this case, it is determined whether OB-min-N (i) is smaller than OB-min (i) (step S193).
[0156]
  If YES in step S193, it is further determined whether OB-max-N (i) is larger than OB-max (i) (step S194). On the other hand, if NO, OB-max and OB-min are set to OB-min-N-OB-size × α2 and OB-min-N, respectively (step S195), and the process proceeds to step S186.
[0157]
  If YES in step S194, OB-max and OB-min are set to OB-ang-N + OB-size / 2 × α2 and OB-ang-N-OB-size / 2 × α2, respectively (step S195) On the other hand, in the case of NO, OB-max and OB-min are set to OB-max-N, OB-max-N + OB-size × α (step S196), and the process proceeds to step S186.
[0158]
<Register new object>
  In FIG. 18, when starting, the distance dist (i) and the angle ang (i) of the object (detection data, number i) that did not belong anywhere are read (step S221), and the minimum angle data ang− is calculated based on the following equation. Min (i), maximum angle data ang-max (i), shortest distance data dist-min (i), and farthest distance data dist-max (i) are calculated (step S222).
[0159]
  ang-min (i) = ang (i) −ang-offset
  ang-max (i) = ang (i) + ang-offset
  dist-min (i) = dist (i) -dist-offset
  dist-max (i) = dist (i) + dist-offset
[0160]
  Then, the variable j is set to the minimum angle data ang-min (i) (step S223), then the variable j is incremented to j + 1 (step S224), and the distance dist (j) about the object (detection data, number j) is determined. , Dist-min (i) and dist-max (i) are determined (step S225), and if between dist-min (i) and dist-max (i) It is assumed that the detection data (number j) belongs to the object i (step S226), and it is determined whether j is ang-max (i) +1 (step S227). On the other hand, if not between them, the process immediately proceeds to step S227, and it is determined whether or not the variable j is ang−max (i) +1.
[0161]
  If the variable j is ang-max (i) +1, the determination for all ang (i) from ang-min (i) to ang-max (i) is completed. -min, OB-max, OB-ang, OB-dist are set (step S228), and the process returns. On the other hand, if the variable is not ang-max (i) +1, the process returns to step S224.
[0162]
  OB-min = Min (ang (i))
  OB-max = Max (ang (i))
  OB-ang = (OB-min + OB-max) / 2
  OB-dist = Min (dist (i))
[0163]
<Identification of objects>
  In FIG. 19, when starting, in order to determine whether or not two objects (object numbers j, i) are the same, the attributes of each object, specifically, relative velocities V (j), V (i ), Size OB-div (j), OB-div (i) in the front-rear direction, size OB-size (j), OB-size (i) in the horizontal direction, direction OB-ang (j) of the object, OB-ang (i) is read (steps S231 and S232), and then variables K = 1 and I = 1 are set (steps S233 and S234).
[0164]
  Subsequently, since it is not necessary to determine the same object, it is determined whether or not the variable K and the variable I are unequal (step S235). If they are unequal, a duplicate determination is avoided. Therefore, it is determined whether the horizontal size OB-size (i) of the object (object number i) is smaller than the horizontal size OB-size (j) of the object (object number j) (step) S236).
[0165]
  If the size OB-size (i) in the left-right direction of the object (object number i) is smaller than the size OB-size (j) in the left-right direction of the object (object number j), the object ( Whether the absolute value of the difference between the size OB-div (i) in the front-rear direction of the object number i) and the size OB-div (j) in the front-rear direction of the object (object number j) is equal to or less than a predetermined value α. Is determined (step S237). If the value is less than or equal to the predetermined value α, is the absolute value of the difference between the direction OB-ang (i) of the object (object number i) and the direction OB-ang (j) of the object (object number j) less than or equal to the predetermined value β? It is determined whether or not (step S238). If it is equal to or less than the predetermined value β, the absolute value of the difference between the relative speed V (i) with respect to the object (object number i) and the relative speed V (j) with respect to the object (object number j) is equal to or less than the predetermined value γ. It is determined whether or not there is (step S239). If it is less than or equal to the predetermined value γ, it is determined whether or not their relative speeds V (i) and V (j) are unequal to the vehicle speed V0 of the host vehicle, that is, whether they are stationary objects or moving objects. (Step S240).
[0166]
  If both are unequal to the vehicle speed V0, it is determined whether the object is a moving object and the size of the same object is equal to or less than a predetermined value δ (step S241). It is determined whether or not the size of the same object is equal to or smaller than a predetermined value ε (> δ) (step S242). The reason why the predetermined value ε is larger than the predetermined value δ is limited to some extent by a vehicle or the like in the case of a moving object, but there is no such limitation in the case of a stationary object, and it may be somewhat large. Because.
[0167]
  If it is less than or equal to the predetermined values δ, ε, the object (object number j) belongs to the object (object number i) (step S243), the attribute of the object (object number i) is registered again, and the object (object number i) The attribute j) is deleted (step S244). On the other hand, if it is not less than the predetermined values δ, ε, the variable I is incremented to I + 1 (step S245), and it is determined whether or not the variable I has reached object-max (maximum number of objects) (step S246). If variable I is equal to object-max, 1 is added to variable K to make K + 1 (step S247), and it is determined whether variable K has reached object-max (step S248). Return to S235. If the variable K is equal to object-max, the process returns as it is. If it is not equal, the process returns to step S234.
[0168]
  If the determination in steps S235 to S242 is NO, the process proceeds to step S245.
[0169]
  Here, the registration of the attribute of the object is performed as shown in FIG. 20, for example.
[0170]
  In FIG. 20, when starting, whether or not the region end (right side) OB-max (i) of the object (object number i) is larger than the region end (right side) OB-max (j) of the object (object number j). (Step S201), if not larger, the region end (right side) OB-max (i) of the object (object number i) is set as the region end (right side) OB-max (j) of the object (object number j). (Step S202), and then whether or not the region end (left side) OB-min (i) of the object (object number i) is smaller than the region end (left side) OB-min (j) of the object (object number j). On the other hand, if it is larger, the process immediately proceeds to step S203, and the region end (left side) OB-min (i) of the object (object number i) is the region end (left side) of the object (object number j). It is judged whether it is smaller than OB-min (j).
[0171]
  If the region end (left side) OB-min (i) of the object (object number i) is not smaller than the region end (left side) OB-min (j) of the object (object number j), the region of the object (object number i) Let the end (left side) OB-min (i) be the region end (left side) OB-min (j) of the object (object number j) (step S204), and the distance OB- to the object (object number i) detected this time It is determined whether or not dist-N (i) is smaller than the distance OB-dist-N (j) to the currently detected object (object number j) (step S205). If smaller, the process immediately proceeds to step S205. Whether the distance OB-dist-N (i) to the object (object number i) detected this time is smaller than the distance OB-dist-N (j) to the object (object number j) detected this time Determine.
[0172]
  If the distance OB-dist-N (i) to the object (object number i) detected this time is smaller than the distance OB-dist-N (j) to the object (object number j) detected this time, it will be detected this time. The distance OB-dist-N (i) to the object (object number i) is set as the distance OB-dist (i) to the object (object number i) (step S206). The distance OB-dist-N (j) to the object (object number j) is set as the distance OB-dist (i) to the object (object number i) (step S207), and then the object (object number i) detected this time ) In the front-rear direction length OB-div-N (i) is smaller than the front-rear direction length OB-div-N (j) of the object (object number j) detected this time (step S208). .
[0173]
  If the length OB-div-N (i) of the object (object number i) detected this time is smaller than the length OB-div-N (j) of the object (object number j) detected this time The front-rear direction length OB-div-N (i) of the object (object number i) detected this time is set as the front-rear direction length OB-div (i) of the object (object number i) (step S209). The longitudinal length OB-div-N (i) of the detected object (object number i) must be smaller than the longitudinal length OB-div-N (j) of the detected object (object number j). For example, the front-rear direction length OB-div-N (j) of the object (object number j) detected this time is set as the front-rear direction length OB-div (i) of the object (object number i) (step S210). The size OB-size (i) in the left-right direction of (object number i) is set to (OB-max (i) -OB-min (j)) × OB-dist (i) × α (step S211). α is a constant.
[0174]
  By the way, when the vehicle is traveling on an expressway, the above control can be simplified and performed as follows. Note that whether or not the vehicle is traveling on a highway can be determined based on whether or not the vehicle speed is 80 km / h or more, for example.
[0175]
  In FIG. 21, when starting, object attributes are read for two objects (object numbers j and i) (steps S251 and S252), and then variables K = 1 and I = 1 are set (steps S253 and S254).
[0176]
  Subsequently, it is determined whether the horizontal size OB-size (i) of the object (object number i) is smaller than the horizontal size OB-size (j) of the object (object number j) ( Step S255).
[0177]
  If the horizontal size OB-size (i) of the object (object number i) is smaller than the horizontal size OB-size (j) of the object (object number j), OB-ang (i) and OB- It is determined whether or not the absolute value of the difference from ang (j) is equal to or smaller than a predetermined value α (step S256). If it is equal to or smaller than the predetermined value α, it is determined whether or not the absolute value of the difference between the relative speeds V (i) and V (j) is equal to or smaller than the predetermined value β (step S257).
[0178]
  If it is equal to or less than the predetermined value β, the object (object number j) belongs to the object (object number i), and the data on the attribute of the object (object number i) is updated again, and the object (object number j) is updated. The data about the attribute is deleted (step S258). Then, the variable I is incremented to I + 1 (step S259), and it is determined whether or not the variable I has reached object-max (maximum number of objects) (step S260). If the variable I is equal to object-max, the variable K is incremented to K + 1 (step S261), and it is determined whether or not the variable K has reached object-max (step S262). Return. If it is determined in step S262 that the variable K is equal to object-max, the process returns as it is. If it is not equal, the process returns to step S253.
[0179]
  If the determination in steps S255 to S257 is NO, the process proceeds to step S259.
[0180]
【The invention's effect】
  In the invention according to claim 1, as described above, the front object viewed from the host vehicleAt least relative speed Attribute containingBased on the prediction area, the prediction area where the object is expected to move after a predetermined time has been set by the prediction area setting means, andAround the aboveThe search area is set to a part of the search area by the search area setting means, and detected by the object detection means after a predetermined timeobjectAnd the expected and search areasobjectIs recognized in the predicted area, the object has been moved to the predicted area,objectIs present in the search area,objectWhen the distance to the search area is equal to or less than a predetermined value, the object has been moved to the search area. On the other hand, when data necessary for object recognition by the object recognition means cannot be obtained, the object detection means When the data is obtained again within a predetermined time, the size of the object is detected and updated again, and the object recognition means recognizes that the object exists in the region even when the data is not obtained for the predetermined time. Therefore, it is possible to prevent the object from being erroneously canceled as it does not exist even though the object actually exists in front of the host vehicle, and the object can be quickly and accurately identified. The object judgment can be performed with high accuracy.
[0181]
  In the invention according to claim 2, the prediction area setting means is configured to detect an object viewed from the own vehicle.At least relative speedAnd the size of the objectAttributes containing andBased on this, an expected region where the object is expected to move after a lapse of a certain time is set, so that the object recognition by the object recognition means is ensured.
[0182]
  In the invention according to claim 3, among objects detected by the object recognition means, an object that can be an obstacle of the host vehicle is selected and registered as an obstacle by the object registration means, and then registered by the same determination means. Since data of objects are compared to determine whether or not they belong to the same obstacle, two objects belonging to the same obstacle can be recognized as different obstacles. It is possible to eliminate variations in relative speed between objects when they belong to the same obstacle.
[0183]
  In the invention according to claim 4, since the size of the object is detected by the averaging process based on a plurality of data about the same object detected within a predetermined time by the object detecting means, the object is accurately detected. Can be determined.
[0184]
  According to the fifth aspect of the present invention, the object detection unit detects the optimum value most suitable for the obstacle determination among the plurality of data of the same object detected within a predetermined time as the object. Judgment can be made with high accuracy.
[0185]
  In the invention according to claim 6, the range (for example, width) in which the object is detected by the object detection unit is changed according to the distance from the host vehicle, and therefore, wasteful according to the distance from the host vehicle. It is no longer necessary to perform object recognition, and only objects necessary for obstacle determination can be detected as obstacles.
[0186]
  The invention according to claim 7 restricts the total number of objects selected and registered as obstacles by the object registration means to be equal to or less than a predetermined number, so that a predetermined number of obstacles that require obstacle judgment are required. Obstacles only need to be determined for (object), and obstacle determination can be speeded up.
[0187]
  In the invention according to claim 8, when a predetermined number of obstacles are detected, the object registration unit removes obstacles in order from the least necessary obstacles and selects them as obstacles. Since the total number of registered objects is limited to a predetermined number or less, obstacles with a high degree of necessity for obstacle judgment will be judged reliably, and the accuracy of obstacle judgment will be improved. It is possible to speed up the obstacle determination without lowering.
[0188]
  According to the ninth aspect of the present invention, when an object selected and registered as an obstacle cannot be detected a predetermined number of times continuously by the object detection means, the registration is deleted, so that the obstacle judgment is uselessly performed. It is possible to improve the efficiency of obstacle determination.
[0189]
  In the invention according to claim 10, the reference selected and registered as an obstacle by the object registration means is changed between a range up to a predetermined distance in front of the host vehicle and a range exceeding it. Depending on the distance from the vehicle, only objects necessary for obstacle determination can be recognized and registered as obstacles.
[0190]
  According to the eleventh aspect of the present invention, the threshold for the distance ahead of the host vehicle for changing the reference for selecting and registering the object as an obstacle is higher when the speed is higher based on the speed of the host vehicle. Therefore, it is advantageous to select and register more objects that are likely to be obstacles to the host vehicle.
[0191]
  According to the twelfth aspect of the present invention, an object existing in a predetermined width range with respect to the center line of the traveling path is determined by the object registration means in the range up to a predetermined distance ahead of the host vehicle, and the traveling path is exceeded in the range exceeding the predetermined distance. Since objects that exist within a predetermined angle range with respect to the center line of the vehicle are selected and registered as obstacles, objects that may become obstacles in a range that exceeds a predetermined distance ahead of the host vehicle Can be selected over a wide range, and an object that may become an obstacle can be reliably selected and registered as an obstacle.
[0192]
  In the invention according to claim 13, the object registration means selects an object existing within a predetermined width range based on the center line of the traveling path in a range up to a predetermined distance in front of the host vehicle, and in a range exceeding it, Since the object is selected based on the relative velocity vector of the object, it is possible to exclude an object that does not have the possibility of entering the traveling path of the host vehicle and that may not become an obstacle from the objects of the obstacle determination. , Obstacle judgment can be speeded up.
[0193]
  In the invention according to claim 14, the prediction area setting means changes the length in the front-rear direction of the prediction area between the range up to a predetermined distance ahead of the host vehicle and the range beyond the predetermined distance. In the short distance where the object is likely to enter, the length of the prediction area in the front-rear direction can be set large, and the accuracy of the object movement determination can be improved.
[0194]
  According to the fifteenth aspect of the present invention, when the object is outside the prediction area and the search area, the object recognition means determines that the object is a new object. This speeds up processing.
[0195]
  According to the invention of claim 16, when the object belongs to either of the two prediction areas or the search area, the object is moved to the prediction area or the search area on the smaller size side by the object recognition means. Since it is determined to be a thing, it is possible to prevent the object from becoming infinitely large.
[0196]
  In the invention according to claim 17, since the determination condition is changed by the same determination means depending on whether the object is a stationary object or a moving object, it is accurately determined whether or not the object belongs to the same obstacle. be able to.
[0197]
  In the invention according to claim 18, the predicted area setting means changes the size of the predicted area in the left-right direction between a range up to a predetermined distance ahead of the host vehicle and a range exceeding the predetermined distance. Depending on the distance in front of the vehicle, the size of the predicted area in the left-right direction can be determined optimally.For example, the length of the predicted area in the front-rear direction can be set large at short distances where errors are likely to occur. It is possible to increase the accuracy of movement determination.
[0198]
  According to the nineteenth aspect of the invention, the object registration means changes (updates) the data of the registered object at a constant period, so that the obstacle is always based on the attribute of the object (obstacle) that is close to reality. Object judgment can be performed, and the accuracy of obstacle judgment can be improved.
[0199]
  The invention according to claim 20 uses the radar head unit, so that the object can be detected with high accuracy.
[Brief description of the drawings]
FIG. 1 is a perspective view of an automobile.
FIG. 2 is an explanatory diagram of a control unit.
FIG. 3 is a block diagram of a control unit.
FIG. 4 is a flowchart showing a flow of basic processing of the control unit.
FIG. 5 is a flowchart for selecting the shortest value as an object.
FIG. 6 is a flowchart showing a flow of processing for detecting the size of an object.
FIG. 7 is a flowchart for setting an expected area of an object.
FIG. 8 is an explanatory diagram of an object and an expected area after the lapse of a certain time.
FIG. 9 is a flowchart of an example of setting an object prediction area.
FIG. 10 is a flowchart for determining an initial value of attribute data of an object.
FIG. 11 is a flowchart for setting an object search area;
FIG. 12 is a flowchart of object position determination.
FIG. 13 is a flowchart of limiting the number of obstacles.
FIG. 14 is a map showing the relationship between the host vehicle speed V0 and the distance threshold L0.
FIG. 15 is a flowchart of obstacle attribute determination.
FIG. 16 is a flowchart for determining whether to enter an expected area;
FIG. 17 is a flowchart of changing object attribute data (angle);
FIG. 18 is a flowchart of registration of a new object.
FIG. 19 is a flowchart of the same determination of an obstacle.
FIG. 20 is a flowchart of changing object attribute data (distance, angle, size, variation);
FIG. 21 is a flowchart of a modification of the same determination of an obstacle.
[Explanation of symbols]
      1 car
      3 Radar head unit
      4 Control unit
    21 Object detection means
    22 Expected area setting means
    23 Search area setting means
    24 Object recognition means
    25 Object registration means
    26 Same determination means

Claims (20)

自車両前方に存在する物体の少なくとも相対速度を含む属性を検出する物体検出手段を備え、該物体検出手段によって検出された物体の属性に基づき障害物判断を行う車両の障害物検知装置であって、
上記物体検出手段の出力を受け、自車両から見た物体の少なくとも相対速度を含む属性に基づき該物体が一定時間経過後に移動すると予想される予想領域を設定する予想領域設定手段と、
上記物体検出手段の出力を受け予想領域の周囲又は上記周囲の一部に検索領域を設定する検索領域設定手段と、
上記物体検出手段、予想領域設定手段及び検索領域設定手段の出力を受け、一定時間経過後に物体検出手段によって検出された物体と予想領域及び検索領域との比較により、物体が予想領域に存在するときはその物体が該予想領域に移動したと認定し、物体が検索領域に存在するときは、予想領域から物体までの距離が所定値以下であるときにその物体が該検索領域に移動したと認定する物体認定手段とを備え、
上記物体検出手段は、一定時間内に検出された同一物体についての複数のデータに基づいて物体の大きさを検出し、該物体について上記物体認定手段による認定に必要なデータが得られなくなったときは、その後の所定時間内に該データが再度得られた時に該物体の大きさを検出し直して更新するものであり、
上記物体認定手段は、上記所定時間は上記データが得られないときも上記物体が上記予想領域又は検索領域に存在すると認定するものであることを特徴とする車両の障害物検知装置。
An obstacle detection device for a vehicle, comprising object detection means for detecting an attribute including at least a relative speed of an object existing in front of the host vehicle, and making an obstacle determination based on the attribute of the object detected by the object detection means. ,
Receiving an output of the object detection means, an expected area setting means for setting an expected area where the object is expected to move after a predetermined time based on an attribute including at least a relative speed of the object viewed from the own vehicle;
Search area setting means for receiving the output of the object detection means and setting a search area around an expected area or a part of the surrounding area;
It said object detecting means, receiving an output of the prediction area setting means and the search area setting unit, by comparing the predicted region and the search region and the object detected by the object detecting means after a predetermined time has elapsed, when an object is present in the prediction area Recognizes that the object has moved to the prediction area, and if the object exists in the search area, the object has been moved to the search area when the distance from the prediction area to the object is less than or equal to a predetermined value. An object recognition means for
The object detection means detects the size of an object based on a plurality of data for the same object detected within a predetermined time, and when the data required for recognition by the object recognition means cannot be obtained for the object Is to re-detect and update the size of the object when the data is obtained again within a predetermined time thereafter,
The vehicle obstacle detection device, wherein the object recognition means recognizes that the object exists in the predicted area or the search area even when the data is not obtained for the predetermined time.
予想領域設定手段が、自車両から見た物体の少なくとも相対速度と該物体の大きさとを含む属性に基づいて該物体が一定時間経過後に移動すると予想される予想領域を設定するものであるところの請求項1記載の車両の障害物検知装置。The prediction area setting means is for setting an prediction area where the object is expected to move after a lapse of a certain time based on an attribute including at least the relative speed of the object viewed from the host vehicle and the size of the object. The obstacle detection device for a vehicle according to claim 1. 物体認定手段の出力を受け、認定された物体のうち、自車両の障害物となり得る物体を選択して登録する物体登録手段と、
該物体登録手段の出力を受け、登録された物体同士のデータを比較して、それらが同一物体に属するか否かを判定する同一判定手段とを備えるところの請求項1又は請求項2記載の車両の障害物検知装置。
An object registration unit that receives an output of the object recognition unit and selects and registers an object that can be an obstacle of the host vehicle among the recognized objects;
3. The same determination unit according to claim 1, further comprising: an identical determination unit that receives an output of the object registration unit, compares data of the registered objects, and determines whether or not they belong to the same object. Vehicle obstacle detection device.
物体検出手段は、一定時間内に検出された同一物体についての複数のデータに基づき、平均処理により、物体の大きさを検出するものであるところの請求項2記載の車両の障害物検知装置。  3. The obstacle detection device for a vehicle according to claim 2, wherein the object detection means detects the size of the object by averaging processing based on a plurality of data about the same object detected within a predetermined time. 物体検出手段は、一定時間内に検出された同一物体についての複数のデータうち、障害物判断に最も適する最適値を物体として検出するものであるところの請求項1記載の車両の障害物検知装置。  2. The vehicle obstacle detection device according to claim 1, wherein the object detection means detects, as an object, an optimum value most suitable for obstacle determination among a plurality of data of the same object detected within a predetermined time. . 物体検出手段は、自車両からの距離に応じて、物体を検出する範囲を変更するものであるところの請求項3記載の車両の障害物検知装置。  4. The vehicle obstacle detection device according to claim 3, wherein the object detection means changes the range in which the object is detected in accordance with the distance from the host vehicle. 物体登録手段は、登録される物体の総数を所定数以下となるように制限するものであるところの請求項3記載の車両の障害物検知装置。  4. The obstacle detection device for a vehicle according to claim 3, wherein the object registration means limits the total number of registered objects to a predetermined number or less. 物体登録手段は、障害物となり得るとして選択された物体が所定数を越える場合、障害物判断の必要度の小さい物体から順に除いて、登録される物体の総数を所定数以下となるように制限するものであるところの請求項7記載の車両の障害物検知装置。  The object registration means restricts the total number of registered objects to be equal to or less than the predetermined number, excluding the objects with the least necessity of obstacle determination, in order, when the number of objects selected as possible obstacles exceeds a predetermined number. The vehicle obstacle detection device according to claim 7, wherein the vehicle obstacle detection device is used. 物体登録手段は、登録されている物体が物体検出手段によって連続して所定回数検知できなかったときには、登録を抹消するものであるところの請求項3記載の車両の障害物検知装置。  4. The obstacle detection device for a vehicle according to claim 3, wherein the object registration means deletes the registration when the registered object cannot be continuously detected a predetermined number of times by the object detection means. 物体登録手段は、自車両前方の所定距離までの範囲と、それを越える範囲とで、物体を障害物として選択する基準を変更するものであるところの請求項3記載の車両の障害物検知装置。  4. The vehicle obstacle detection device according to claim 3, wherein the object registration means changes a reference for selecting an object as an obstacle between a range up to a predetermined distance in front of the host vehicle and a range exceeding the predetermined distance. . 物体を障害物として選択し登録する基準を変更するための自車両前方の距離に関するしきい値を自車両の速度に基づいて該速度が高いときの方が低いときよりも大きくなるようにするところの請求項10記載車両の障害物検知装置。  The threshold for the distance ahead of the host vehicle for changing the criteria for selecting and registering an object as an obstacle is to be larger based on the speed of the host vehicle when the speed is high than when the speed is low. The vehicle obstacle detection device according to claim 10. 物体登録手段は、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体を、それを越える範囲では、進行路の中心線を基準に所定角度の範囲に存在する物体をそれぞれ障害物として選択するものであるところの請求項10又は請求項11記載の車両の障害物検知装置。  The object registration means detects an object existing within a predetermined width with respect to the center line of the traveling path in a range up to a predetermined distance ahead of the host vehicle, and a predetermined angle with respect to the center line of the traveling path in a range beyond that. The vehicle obstacle detection device according to claim 10 or 11, wherein an object existing in the range is selected as an obstacle. 物体登録手段は、自車両前方の所定距離までの範囲では、進行路の中心線を基準に所定幅の範囲に存在する物体を障害物として選択し、それを越える範囲では、物体の相対速度ベクトルに基づいて障害物を選択するものであるところの請求項10又は請求項11記載の車両の障害物検知装置。  The object registration means selects an object existing in a predetermined width range as an obstacle with reference to the center line of the traveling path in a range up to a predetermined distance ahead of the host vehicle, and a relative velocity vector of the object in a range exceeding the predetermined distance. The vehicle obstacle detection device according to claim 10 or 11, wherein an obstacle is selected on the basis of the above. 予想領域設定手段は、自車両前方の所定距離までの範囲と、それを越える範囲とで、予想領域の前後方向の長さを変更するものであるところの請求項1記載の車両の障害物検知装置。  The vehicle obstacle detection according to claim 1, wherein the prediction area setting means changes the length in the front-rear direction of the prediction area between a range up to a predetermined distance in front of the host vehicle and a range exceeding the predetermined distance. apparatus. 物体認定手段は、物体が予想領域及び検索領域外にあると認められるときは、新規な物体であると認定するものであるところの請求項1記載の車両の障害物検知装置。  2. The obstacle detection device for a vehicle according to claim 1, wherein the object recognition means recognizes that the object is a new object when it is recognized that the object is outside the predicted region and the search region. 物体認定手段は、物体が2つの予想領域又は検索領域のいずれにも属すると認められるときは、物体の大きさの小さい側の予想領域又は検索領域に物体が移動したものと判定するものであるところの請求項1記載の車両の障害物検知装置。  The object recognition means determines that the object has moved to the prediction area or the search area on the smaller size side when the object is recognized as belonging to either of the two prediction areas or the search area. However, the obstacle detection device for a vehicle according to claim 1. 同一判定手段は、登録されている物体が静止物体であるか移動物体であるかによって判定条件を変更するものであるところの請求項3記載の車両の障害物検知装置。  The vehicle obstacle detection device according to claim 3, wherein the same determination means changes the determination condition depending on whether the registered object is a stationary object or a moving object. 予想領域設定手段は、自車両前方の所定距離までの範囲とそれを越える範囲とで、予想領域の左右方向の大きさを変更するものであるところの請求項1記載の車両の障害物検知装置。  The vehicle obstacle detection device according to claim 1, wherein the prediction area setting means changes the size of the prediction area in the left-right direction between a range up to a predetermined distance ahead of the host vehicle and a range exceeding the predetermined distance. . 物体登録手段は、登録された物体のデータを一定周期で変更するところの請求項3記載の車両の障害物検知装置。  4. The vehicle obstacle detection device according to claim 3, wherein the object registration means changes the data of the registered object at a constant cycle. 物体検出手段は、自車両前方に存在する物体を検出するレーダヘッドユニットを有するところの請求項1記載の車両の障害物検知装置。  2. The obstacle detection device for a vehicle according to claim 1, wherein the object detection means includes a radar head unit for detecting an object existing in front of the host vehicle.
JP24627795A 1994-10-05 1995-09-25 Vehicle obstacle detection device Expired - Fee Related JP3794041B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24627795A JP3794041B2 (en) 1994-10-05 1995-09-25 Vehicle obstacle detection device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-241289 1994-10-05
JP24128994 1994-10-05
JP24627795A JP3794041B2 (en) 1994-10-05 1995-09-25 Vehicle obstacle detection device

Publications (2)

Publication Number Publication Date
JPH08161697A JPH08161697A (en) 1996-06-21
JP3794041B2 true JP3794041B2 (en) 2006-07-05

Family

ID=26535182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24627795A Expired - Fee Related JP3794041B2 (en) 1994-10-05 1995-09-25 Vehicle obstacle detection device

Country Status (1)

Country Link
JP (1) JP3794041B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3808558B2 (en) * 1995-10-31 2006-08-16 本田技研工業株式会社 Autonomous vehicle
DE10015300B4 (en) * 2000-03-28 2018-04-05 Robert Bosch Gmbh Method and device for controlling the driving speed of a vehicle
JP2003151095A (en) * 2001-11-19 2003-05-23 Nissan Motor Co Ltd Device for recognizing obstruction for vehicle
JP2005067426A (en) * 2003-08-26 2005-03-17 Daihatsu Motor Co Ltd Collision avoidance device
JP4020089B2 (en) 2004-03-03 2007-12-12 日産自動車株式会社 VEHICLE DRIVE OPERATION ASSISTANCE DEVICE AND VEHICLE WITH VEHICLE DRIVE OPERATION ASSISTANCE DEVICE
JP4487672B2 (en) * 2004-07-23 2010-06-23 株式会社デンソー Hazardous area setting device
JP2007223395A (en) * 2006-02-22 2007-09-06 Mazda Motor Corp Obstruction detection device of vehicle
JP5055812B2 (en) * 2006-04-07 2012-10-24 マツダ株式会社 Vehicle obstacle detection device
JP2012066777A (en) * 2010-09-27 2012-04-05 Mazda Motor Corp Yaw rate deviation detection apparatus
KR101247960B1 (en) * 2011-10-18 2013-04-03 메타빌드주식회사 Method for detecting obstacle of multi mode using radar and apparatus thereof
JP5605395B2 (en) * 2012-06-08 2014-10-15 株式会社デンソー Vehicle determination device and program
WO2017203576A1 (en) * 2016-05-23 2017-11-30 三菱電機株式会社 Elevator apparatus

Also Published As

Publication number Publication date
JPH08161697A (en) 1996-06-21

Similar Documents

Publication Publication Date Title
US5689264A (en) Obstacle detecting system for vehicles
US6553283B2 (en) Method and apparatus for recognizing shape of road
EP3929046A1 (en) Vertical parking method
KR100776860B1 (en) Path prediction system and method
US5467283A (en) Obstacle sensing apparatus for vehicles
JP3794041B2 (en) Vehicle obstacle detection device
US6553282B2 (en) Method and apparatus for recognizing shape of road
US6583752B2 (en) Method and apparatus for recognizing object
JP3664127B2 (en) Object detection device
CN112639849A (en) Route selection method and route selection device
JPH1194946A (en) Obstacle recognition device for vehicle
US6380885B2 (en) Obstacle recognition system for vehicle
WO2020235396A1 (en) Obstacle detection device and obstacle detection method
JP3352528B2 (en) Vehicle travel path estimation device
CN114296095A (en) Method, device, vehicle and medium for extracting effective target of automatic driving vehicle
Shimomura et al. An algorithm for distinguishing the types of objects on the road using laser radar and vision
JP3617139B2 (en) Vehicle obstacle detection device
JP3841047B2 (en) Vehicle distance control device
JP4082286B2 (en) Front object position detection device
JP3603345B2 (en) Vehicle obstacle detection device
CN111959515A (en) Forward target selection method, device and system based on visual detection
JP3653862B2 (en) Vehicle curve diameter estimation device and target preceding vehicle detection device
JP3229226B2 (en) Leading vehicle recognition device and recognition method
JP5682302B2 (en) Traveling road estimation device, method and program
JP4069769B2 (en) Road shape recognition device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051031

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20051104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060404

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090421

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100421

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100421

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110421

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120421

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees