JP2853077B2 - Self-driving vehicle - Google Patents

Self-driving vehicle

Info

Publication number
JP2853077B2
JP2853077B2 JP5254896A JP25489693A JP2853077B2 JP 2853077 B2 JP2853077 B2 JP 2853077B2 JP 5254896 A JP5254896 A JP 5254896A JP 25489693 A JP25489693 A JP 25489693A JP 2853077 B2 JP2853077 B2 JP 2853077B2
Authority
JP
Japan
Prior art keywords
vehicle
lane
obstacle
fuzzy
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5254896A
Other languages
Japanese (ja)
Other versions
JPH0781604A (en
Inventor
真之助 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP5254896A priority Critical patent/JP2853077B2/en
Publication of JPH0781604A publication Critical patent/JPH0781604A/en
Application granted granted Critical
Publication of JP2853077B2 publication Critical patent/JP2853077B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は自動走行車両に関し、
より具体的には高速自動車道など複数の車線が存在する
道路環境において、他車を含む走行環境を認識して任意
に車線変更しつつ自動走行できる様にした自動走行車両
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous vehicle.
More specifically, the present invention relates to an automatic traveling vehicle that recognizes a traveling environment including other vehicles in a road environment where a plurality of lanes exist, such as a highway, and enables automatic traveling while arbitrarily changing lanes.

【0002】[0002]

【従来の技術】自動走行技術に関しては従来より種々の
ものが提案されており、例えば特開平2−226310
号公報においては、走行路面の映像画像から抽出された
車線境界線や障害物情報などに基づいてファジィ推論を
行って車両の操舵を制御する技術が提案されている。ま
た本出願人も先に特開平3−158976号公報で自動
走行車両において車線境界線を認識する技術を提案して
いる。
2. Description of the Related Art Various automatic driving techniques have been proposed in the past.
In Japanese Patent Laid-Open Publication No. H11-157, there is proposed a technique for controlling the steering of a vehicle by performing fuzzy inference based on lane boundary lines and obstacle information extracted from a video image of a traveling road surface. The present applicant has also previously proposed a technique for recognizing a lane boundary in an automatic traveling vehicle in Japanese Patent Application Laid-Open No. 3-158976.

【0003】[0003]

【発明が解決しようとする課題】この様に自動走行技術
については今まで様々な技術が提案されているが、複数
の車線(レーン)を有する道路において任意に車線変更
(レーンチェンジ)して自動走行できる様にしたものは
提案されていなかった。この様な技術は、高速自動車道
などを自動走行するときに極めて有益であるが、他車を
含む障害物が存在する道路環境の中で自ら行動を決定し
つつ最適な車線を選択して自動走行するには解決すべき
課題が多い。
As described above, various techniques have been proposed for the automatic driving technique. However, on a road having a plurality of lanes (lanes), the lane change (lane change) is performed arbitrarily. The thing which made it run was not proposed. Such a technique is extremely useful when driving automatically on a highway, etc., but automatically selects the optimal lane while deciding on an action in a road environment where obstacles including other vehicles exist. There are many issues to be solved to drive.

【0004】従って、この発明の目的は上記の課題を解
決し、複数の車線を有すると共に、他車を含む障害物が
存在する道路環境において、最適な車線を選択して安定
して自動走行する様にした自動走行車両を提供すること
にある。
[0004] Accordingly, an object of the present invention is to solve the above-mentioned problems, and to automatically drive stably by selecting an optimal lane in a road environment having a plurality of lanes and obstacles including other vehicles. An object of the present invention is to provide an automatic traveling vehicle as described above.

【0005】更には、複数の車線を有すると共に、他車
を含む障害物が存在する走路環境において最適な車線を
選択すると共に、障害物を回避しつつ前車への追従走行
なども可能とする自動走行車両を提供することを目的と
する。
[0005] Furthermore, while having a plurality of lanes, an optimal lane is selected in a traveling road environment in which obstacles including other vehicles are present, and the vehicle can follow a preceding vehicle while avoiding obstacles. It is an object to provide an autonomous vehicle.

【0006】更には、ファジィ推論を用いると共に、そ
の推論を簡略化して演算量および使用メモリの低減を図
ると共に、デバッグ効率を向上させた自動走行車両を提
供することを目的とする。
It is a further object of the present invention to provide an autonomous vehicle that uses fuzzy inference, simplifies the inference, reduces the amount of computation and memory used, and improves debugging efficiency.

【0007】[0007]

【課題を解決するための手段】上記の目的を解決するた
めに本発明は以下の如く構成した。後述する実施例と対
応させつつ説明すると、請求項1項においては、外界を
認識しつつ自動走行する車両において、車両進行方向に
対して複数の走行可能領域(車線)を認識する認識手段
(CCDカメラ10、画像処理ハードウェア30、画像
処理CPU36,S10)、車両周囲に存在する障害物
(前方車)の少なくとも位置を含む障害物の状態を検出
する障害物状態検出手段(レーダユニット12、レーダ
処理40,画像評価CPU42,S12)、車速および
前記複数の走行可能領域(車線)に対する自車の位置と
方位とを少なくとも含む自車の状態を検出する自車状態
検出手段(S14)、検出値に基づいてファジィ推論を
行って前記複数の走行可能領域(車線)について走行可
能度合い(車線走行可能度合い(自車線、右車線、左車
線))0から1までの値に判定する走行可能度合い判
定手段(S16,S18,S20,S22,S24)
判定された走行可能度合いをスレッシュオルド値と比較
し、比較結果に基づいて前記複数の走行可能領域のいず
れかを選択する選択手段(S26,S100からS11
6)、少なくとも前記検出された自車状態に基づいて自
車の走行軌跡を求める軌跡算出手段(車両センサ14,
16,18、軌跡追従制御CPU46,S28,S3
0)、および選択された走行可能領域を走行すべく少な
くとも前記検出された自車の状態と算出された走行軌跡
とに基づいて車両走行の制御量を算出する制御量算出手
(舵角制御CPU52、車速制御CPU60,S3
2,S34,S36)、を備える如く構成した。請求項
2項においては、少なくとも前記検出された障害物の状
態に基づいて障害物の移動軌跡を求める移動軌跡算出手
段(軌跡追従制御CPU46,S28,S30)を備
え、前記制御量算出手段は、少なくとも前記求めた自車
の軌跡と障害物の移動軌跡とに基づいて前記車両走行の
制御量を算出する(舵角制御CPU52、車速制御CP
U60,S32,S34,S36)如く構成した。請求
項3項にあっては、前記制御量算出手段は、前記選択さ
れた走行可能領域へ自車が移動を開始するまでの時間遅
れを補正する手段(S32)を備える如く構成した。請
求項4項にあっては、前記選択手段は、自車線について
前記判定された走行可能度合 いが前記スレッシュオルド
値を超えるとき、自車線を保持する(S26,S100
からS102)如く構成した。請求項5項にあっては、
外界を認識しつつ自動走行する車両において、少なくと
も車両が走行する走行可能領域(車線)を認識して走行
可能領域の状態を示すパラメータを検出する手段(CC
Dカメラ10、画像処理ハードウェア30、画像処理C
PU36,S10からS20)、少なくとも車両の走行
状態を示すパラメータを検出する手段(車両センサ1
4,16,18レーダユニット12、レーダ処理40,
画像評価CPU42)、前記検出されたパラメータを前
件部に用いてファジィプロダクションルールを設定し、
ファジィ推論(一次推論)を行ってその後件部の重みを
求める第1ファジィ推論手段(S24)、前記後件部を
前件部に用いて第n(n≧2)のファジィプロダクショ
ンルールを設定し、第n(第2)のファジィ推論(二次
推論)を行って第nルールの後件部の重みと重心位置と
から後件部の出力を求める第nファジィ推論手段(S2
4)、および求めた後件部の出力に基づいて車両走行の
制御量を算出する制御量算出手段(軌跡追従制御CPU
46,S28,S30,舵角制御CPU52、車速制御
CPU60,S32,S34,S36)を備える如く構
成した。
In order to solve the above-mentioned object, the present invention is constituted as follows. Pair with the embodiment described later
To explain while response, Oite to one of claims, in a vehicle for automatically travel while recognizing the external world, recognition means for recognizing a plurality of travelable areas (lanes) relative to the vehicle traveling direction
(CCD camera 10, image processing hardware 30, image
Processing CPU 36, S10) , obstacles around the vehicle
Obstacle state detection means (radar unit 12, radar ) for detecting the state of an obstacle including at least the position of the (front vehicle)
Processing 40, image evaluation CPU 42, S12) , own vehicle state detecting means (S14) for detecting the state of the own vehicle including at least the vehicle speed and the position and the azimuth of the own vehicle with respect to the plurality of travelable areas (lanes) ; Fuzzy inference based on the vehicle , the driving degree (the lane driving possibility (own lane, right lane, left car)
)) Is determined to be a value from 0 to 1 (S16, S18, S20, S22, S24) .
Compare the determined travelability with the threshold value
And selecting means (S26, S100 to S11) for selecting any one of the plurality of travelable areas based on the comparison result.
6) trajectory calculating means (vehicle sensor 14, vehicle sensor 14) for determining the trajectory of the vehicle based on at least the detected vehicle state .
16, 18, trajectory tracking control CPU 46, S28, S3
0) and a control amount calculating means (steering angle control CPU 52 ) for calculating a control amount of vehicle travel based on at least the detected state of the own vehicle and the calculated travel locus so as to travel in the selected travelable area. , Vehicle speed control CPU 60, S3
2, S34, S36) . Claim
In paragraph 2, at least the state of the detected obstacle
Trajectory calculator for finding the trajectory of an obstacle based on its state
Steps (trajectory tracking control CPU 46, S28, S30)
The control amount calculating means may include at least the calculated vehicle
Of the vehicle based on the locus of the obstacle and the locus of the obstacle.
Calculate the control amount (steering angle control CPU 52, vehicle speed control CP
U60, S32, S34, S36). Claim
In item 3, the control amount calculating means includes the selected control amount.
Time delay before the vehicle starts moving to the
It is configured to include a means (S32) for correcting this. Contract
In claim 4, the selecting means may select the own lane.
The determined travelable degree bur the threshold Olde
When the value exceeds the value, the own lane is held (S26, S100).
To S102). In claim 5,
In vehicles that automatically travel while recognizing the outside world, at least
Also recognizes the travelable area (lane) where the vehicle is traveling
Means for detecting a parameter indicating the state of the available area (CC
D camera 10, image processing hardware 30, image processing C
PU36, S10 to S20), at least traveling of the vehicle
Means for detecting a parameter indicating the state (vehicle sensor 1)
4, 16, 18 radar unit 12, radar processing 40,
The image evaluation CPU 42)
Set fuzzy production rules using
Fuzzy inference (primary inference)
The first fuzzy inference means to be sought (S24),
N-th (n ≧ 2) fuzzy production
Rules are set, and the n-th (second) fuzzy inference (secondary
Inference) to calculate the weight and the center of gravity of the consequent part of the n-th rule.
N-fuzzy inference means (S2
4) and, based on the determined output of the consequent part,
Control amount calculation means (trajectory tracking control CPU) for calculating the control amount
46, S28, S30, steering angle control CPU 52, vehicle speed control
CPU 60, S32, S34, S36)
Done.

【0008】[0008]

【作用】他車を含む障害物の存在する複数の走行可能領
域を有する道路環境において最適な走行可能領域を選択
しつつ安定に自動走行することができる。尚、ここで走
行可能領域は車線を意味する。
According to the present invention, it is possible to stably and automatically drive while selecting an optimal drivable area in a road environment having a plurality of drivable areas where obstacles including other vehicles exist. Here, the travelable area means a lane.

【0009】[0009]

【実施例】以下、添付図面に即してこの発明の実施例を
説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0010】図1はこの発明に係る自動走行車両を全体
的に示す透視図である。図において、自動走行車両はC
CDカメラ10を1基備える。CCDカメラ10は運転
席上方のルームミラー取り付け位置に固定され、車両進
行方向を単眼視する。符号12はミリ波レーダからなる
レーダユニットを示し、車両前方に取り付けられた2基
の前方レーダ12a、車両側方に取り付けられた3基の
側方レーダ12bおよび車両後方に取り付けられた2基
の後方レーダ(図示せず)の計10基のレーダ群からな
り、反射波を通じて他車などの立体障害物の存在を検出
する。車両室内の中央部付近にはヨーレートセンサ14
が設けられ、車両の鉛直軸(z軸)回りの角加速度を検
出する。更に、車両のドライブシャフト(図示せず)の
付近にはリードスイッチからなる車速センサ16が設け
られ、車両の進行速度を検出すると共に、舵角センサ1
8が車両のステアリングシャフト20の付近に設けられ
てステアリング舵角を検出する。
FIG. 1 is a perspective view showing an entire automatic traveling vehicle according to the present invention. In the figure, the self-driving vehicle is C
One CD camera 10 is provided. The CCD camera 10 is fixed to a rearview mirror mounting position above the driver's seat, and makes a single-eye view of the vehicle traveling direction. Reference numeral 12 denotes a radar unit composed of a millimeter-wave radar, and includes two front radars 12a mounted on the front of the vehicle, three side radars 12b mounted on the side of the vehicle, and two radars mounted on the rear of the vehicle. It is composed of a total of ten radars of a rear radar (not shown), and detects the presence of a three-dimensional obstacle such as another vehicle through reflected waves. A yaw rate sensor 14 is provided near the center of the vehicle interior.
Is provided, and detects angular acceleration about a vertical axis (z-axis) of the vehicle. Further, a vehicle speed sensor 16 composed of a reed switch is provided near a drive shaft (not shown) of the vehicle.
Reference numeral 8 is provided near the steering shaft 20 of the vehicle and detects a steering angle.

【0011】また、該ステアリングシャフト20には舵
角制御モータ22が取り付けられると共に、スロットル
弁(図示せず)にはパルスモータからなるスロットルア
クチュエータ24が取り付けられ、更にブレーキ(図示
せず)にはブレーキ圧力アクチュエータ26(図1で図
示省略)が取り付けられる。この構成において、車両は
算出された舵角制御量に応じて舵角制御されると共に、
スロットル弁が開閉されて車速が調節され、また必要に
応じてブレーキが作動させられて自動走行する。
A steering angle control motor 22 is attached to the steering shaft 20, a throttle actuator 24 composed of a pulse motor is attached to a throttle valve (not shown), and a brake (not shown) is attached to a brake (not shown). A brake pressure actuator 26 (not shown in FIG. 1) is attached. In this configuration, the steering angle of the vehicle is controlled according to the calculated steering angle control amount,
The vehicle speed is adjusted by opening and closing the throttle valve, and the brake is operated as required to automatically drive.

【0012】図2は上記の構成をより詳細に示すブロッ
ク図である。CCDカメラ10の出力は画像処理ハード
ウェア30に送られて必要な処理が行われ、その結果は
バス32を介して共有メモリ34にストアされる。画像
処理CPU36および画像評価CPU38は所定時刻ご
とにストア値を読み出して走行路面の状態を検出する。
レーダユニット12の出力はレーダ処理回路40および
バス32を介して共有メモリ34にストアされる。レー
ダ評価CPU42は所定時刻毎にストア値を読み出して
障害物の位置を座標上で検出する。
FIG. 2 is a block diagram showing the above configuration in more detail. The output of the CCD camera 10 is sent to the image processing hardware 30 to perform necessary processing, and the result is stored in the shared memory 34 via the bus 32. The image processing CPU 36 and the image evaluation CPU 38 read the stored values at predetermined time intervals and detect the state of the traveling road surface.
The output of the radar unit 12 is stored in the shared memory 34 via the radar processing circuit 40 and the bus 32. The radar evaluation CPU 42 reads out the stored value at every predetermined time and detects the position of the obstacle on the coordinates.

【0013】また車速センサ16などの出力は軌跡推定
CPU44に送られて自車両の移動軌跡が推定される。
行動計画意思決定CPU50は前記ストア値から目標経
路を作成する。その目標経路と推定された自車の移動軌
跡は軌跡追従CPU46に送られ、そこで軌跡(目標経
路)追従制御量が決定される。更に、軌跡追従制御CP
U46は、舵角制御量を算出して舵角制御CPU52に
出力する。舵角制御CPU52はPWMコントローラ5
4およびドライバ56を介して前記舵角制御モータ22
を駆動する。尚、モータ駆動量はエンコーダ58を通じ
て検出され、フィードバック制御が行われる。
The outputs of the vehicle speed sensor 16 and the like are sent to a trajectory estimating CPU 44 to estimate the trajectory of the vehicle.
The action plan decision-making CPU 50 creates a target route from the store value. The movement trajectory of the vehicle estimated as the target route is sent to the trajectory tracking CPU 46, where the trajectory (target route) tracking control amount is determined. Further, the trajectory following control CP
U46 calculates the steering angle control amount and outputs it to the steering angle control CPU 52. The steering angle control CPU 52 is a PWM controller 5
The steering angle control motor 22 via the
Drive. Note that the motor drive amount is detected through the encoder 58, and feedback control is performed.

【0014】また行動計画意思決定CPU50はその速
度・追従制御部で後述の様に車体の目標加速度を求め、
車速制御CPU60に送出する。車速制御CPU60は
アクセルパルスモータコントローラ62、ドライバ64
を介してスロットルアクチュエータ24を駆動すると共
に、ブレーキソレノイドコントローラ66およびドライ
バ68を介してブレーキ圧力アクチュエータ26を駆動
する。その駆動量は圧力センサ70を介して検出され、
第2のフィードバック制御が行われる。尚、上記におい
て、図示の簡略化のため、波形整形回路などセンサの処
理回路は省いた。図3は図2ブロック図を機能的に示す
ものである。
The action plan decision-making CPU 50 obtains a target acceleration of the vehicle body by a speed / following control unit as described later.
It is sent to the vehicle speed control CPU 60. The vehicle speed control CPU 60 includes an accelerator pulse motor controller 62, a driver 64
, And drives the brake pressure actuator 26 via the brake solenoid controller 66 and the driver 68. The driving amount is detected via the pressure sensor 70,
The second feedback control is performed. In the above description, a sensor processing circuit such as a waveform shaping circuit is omitted for simplification of the drawing. FIG. 3 functionally shows the block diagram of FIG.

【0015】続いて、図4フロー・チャートを参照して
この自動走行車両の動作を説明する。図4フロー・チャ
ートは、前記した行動計画意思決定CPU50が行う動
作を示す。
Next, the operation of this automatic traveling vehicle will be described with reference to the flowchart of FIG. FIG. 4 is a flowchart showing the operation performed by the action plan decision-making CPU 50 described above.

【0016】先ず、S10において画像評価結果を入力
する。これは前記した画像処理CPU36および画像評
価CPU38の出力を入力して行う。即ち、画像処理C
PU36は図5に示す様な入力画像から道路区分線(車
線境界線。白色または黄色の実線ないし破線で示され
る)を抽出して画像平面座標を求め、それを射影変換し
て実平面座標を求め、各線成分を実平面上の点列データ
として幾何学的関係を付加して出力する。画像評価CP
U38は、それに基づいて後で述べる様に車線幅などの
詳細なデータを出力する。S10においてはこれらを入
力する。
First, an image evaluation result is input in S10. This is performed by inputting the outputs of the image processing CPU 36 and the image evaluation CPU 38 described above. That is, image processing C
The PU 36 extracts road segmentation lines (lane boundary lines; indicated by white or yellow solid lines or broken lines) from the input image as shown in FIG. 5, obtains image plane coordinates, and projects and transforms the image plane coordinates into real plane coordinates. Then, each line component is output as point sequence data on a real plane with a geometric relationship added. Image evaluation CP
U38 outputs detailed data such as lane width based on the data as described later. These are input in S10.

【0017】続いてS12に進んでレーダ評価結果を入
力する。これは前記したレーダ評価CPU42の出力を
入力することで行う。S10およびS12を経ることに
より行動計画意思決定CPU50は図6に示す様な外部
環境情報を得る。
Then, the program proceeds to S12, in which a radar evaluation result is input. This is performed by inputting the output of the radar evaluation CPU 42 described above. After going through S10 and S12, the action plan decision-making CPU 50 obtains external environment information as shown in FIG.

【0018】続いてS14に進んで車線境界線(ないし
車線)と自車との位置関係を求める。画像評価CPU3
8からの車線データは毎時刻同じものが出力されるので
はなく、認識された車線境界線がリアルタイムに出力さ
れる。そこで同一車線境界線および車線には同一の番号
を付して特定し、車線境界線(ないし車線)と自車との
位置関係を対応づける。上記を図7に示す。尚、車線境
界線(ないし車線)の特定については同日付けで提出し
た別出願(特開平7−85257号)に述べてあるの
で、この程度の説明に止める。
Then, the program proceeds to S14, in which the positional relationship between the lane boundary (or lane) and the vehicle is determined. Image evaluation CPU3
The same lane data from 8 is not output every time, but the recognized lane boundary is output in real time. Therefore, the same lane boundary line and the lane are assigned with the same number and specified, and the positional relationship between the lane boundary line (or the lane) and the own vehicle is associated. The above is shown in FIG. The specification of the lane boundary (or lane) is described in a separate application ( Japanese Patent Application Laid-Open No. 7-85257 ) filed on the same date , and thus will not be described.

【0019】続いてS16に進んで車線と障害物との位
置関係を求める。図示は省略するが、これもS14の作
業と同様であり、障害物と車線境界線(ないし車線)と
の位置関係を対応づける作業である。尚、障害物が複数
個存在するときは、番号を付して特定する。
Then, the program proceeds to S16, in which the positional relationship between the lane and the obstacle is determined. Although illustration is omitted, this is also the same as the operation of S14, and is an operation of associating the positional relationship between the obstacle and the lane boundary (or lane). When there are a plurality of obstacles, they are identified by numbers.

【0020】続いてS18に進んで車線の情報を抽出
し、S20に進んで車線内の障害物情報を抽出する。こ
れは続いて行うファジィ推論のために、適宜な処理を行
って特徴および特徴量を求める作業である。
Then, the process proceeds to S18, where lane information is extracted, and the process proceeds to S20, where obstacle information in the lane is extracted. This is an operation for obtaining a feature and a feature amount by performing an appropriate process for the subsequent fuzzy inference.

【0021】より具体的には、車線の情報は入力値の状
態では単なる線分の座標に過ぎないため、図8に示す如
く線形化して車線幅および車線長さをその特徴ないし特
徴量として求める。また障害物情報も入力値の状態では
単なる座標に存在する障害物に過ぎないため、図9に示
す様に各障害物までの距離などの特徴ないし特徴量を抽
出して自車両との関係を求め、最終的に図示の如く、各
障害物までの距離、自車速度と障害物速度の相対速度お
よび目標車速と障害物速度との偏差を求めて特徴量とす
る。
More specifically, since the lane information is merely the coordinates of the line segment in the state of the input value, the lane width and the lane length are obtained as their characteristics or characteristic amounts by linearization as shown in FIG. . Further, since the obstacle information is merely an obstacle existing at the coordinates in the state of the input value, a feature or a feature amount such as a distance to each obstacle is extracted as shown in FIG. Finally, as shown in the figure, the distance to each obstacle, the relative speed between the own vehicle speed and the obstacle speed, and the deviation between the target vehicle speed and the obstacle speed are obtained as feature amounts.

【0022】続いてS22に進んで上記特徴量(推論パ
ラメータ)をファジィ量へ変換する。ファジィ推論での
入力値は基本的に−1から1の値をとるため、入力値を
正規化すると共に、不要な大きな値のために正規化した
情報量のダイナミックレンジが失われない様、その範囲
に止める。実施例の場合には具体的には以下の如く決定
した。 特徴量 ファジィ量 車線長さ 0〜100m 0〜1 車線幅 0〜5m 0〜1 各障害物までの距離 0〜100m 0〜1 自車速度と障害物速度の 相対速度 −100〜100km/h −1〜1 目標車速と障害物速度の 偏差 −100〜100km/h −1〜1
Then, the process proceeds to S22, in which the feature amount (inference parameter) is converted into a fuzzy amount. Since the input value in fuzzy inference basically takes a value from -1 to 1, the input value is normalized so that the dynamic range of the normalized information amount is not lost due to unnecessary large values. Stay in range. In the case of the example, it was specifically determined as follows. Feature amount Fuzzy amount Lane length 0-100m 0-1 Lane width 0-5m 0-1 Distance to each obstacle 0-100m 0-1 Relative speed between own vehicle speed and obstacle speed -100-100km / h- 1-1 Deviation between target vehicle speed and obstacle speed -100 to 100 km / h -1 to 1

【0023】また、併せて、ファジィ集合のメンバーシ
ップ関数(以下「ファジィラベル」と言う)を設定す
る。図10ないし図11に設定したファジィラベルを示
す。実施例においてファジィラベルとして、ZO
(零),PS(少し大きい),PM(大きさが中位),
PB(非常に大きい),NB(非常に小さい),NM
(小ささが中位),N(小さい),Z(零付近),P
(大きい)の9種を用い、特徴量(推論パラメータ)に
より使い分けた。
In addition, a membership function of a fuzzy set (hereinafter, referred to as "fuzzy label") is set. FIGS. 10 and 11 show the set fuzzy labels. In the embodiment, ZO is used as the fuzzy label.
(Zero), PS (slightly larger), PM (medium size),
PB (very large), NB (very small), NM
(Middle is small), N (small), Z (near zero), P
Nine kinds of (large) were used, and they were selectively used depending on feature amounts (inference parameters).

【0024】続いてS24に進んでファジィエキスパー
トシステムにより車線ごとに走行可能度合いを推論す
る。
Then, the process proceeds to S24, in which the fuzzy expert system infers the possible driving degree for each lane.

【0025】それについて説明すると、道路、障害物な
どが複雑に絡み合う環境において車線毎に前方、側方、
後方の様々な状況に応じて最適に判断して行動させるに
は、単なるルールの記述手法では組み合わせが一意に定
まらず、ルールの増大、抜け、矛盾が発生し易い。また
自動運転の感覚と同乗者のドライブ感覚とを違和感なく
調整するのも極めて困難である。この様な状況で最適か
つ同乗者に与える違和感の少ない制御手法には、ファジ
ィ推論を用いるファジィエキスパートシステムが最適と
考えられる。ファジィエキスパートシステムであれば、
多入力、平行同時推論が可能であり、判断パターンも漏
れなく組み合わせることができる上、メンバーシップ関
数を変更するだけで人間のフィーリングにマッチする様
に調整することができるからである。そこで、実施例で
はファジィエキスパートシステムを用いることにした。
To explain this, in an environment where roads, obstacles, and the like are intricately entangled with each other, each lane has a forward, side,
In order to determine and act optimally in accordance with various situations behind, a simple rule description method does not uniquely determine a combination, and rules increase, drop out, and contradiction are likely to occur. It is also extremely difficult to adjust the feeling of automatic driving and the feeling of driving of the passenger without discomfort. In such a situation, a fuzzy expert system using fuzzy inference is considered to be optimal as a control method that is optimal and has little discomfort to the passenger. If it is a fuzzy expert system,
This is because multi-input and parallel simultaneous inference can be performed, judgment patterns can be combined without omission, and adjustment can be made to match human feelings only by changing the membership function. Therefore, in the embodiment, a fuzzy expert system is used.

【0026】ところで、ファジィエキスパートシステム
を用いるとしても、入力条件が多いため、ルール数が膨
大になってしまう。そこで、以下に述べる様な手法を採
用してルール数を削減した。
By the way, even if a fuzzy expert system is used, the number of rules is enormous because of the large number of input conditions. Therefore, the number of rules was reduced by employing the following method.

【0027】図12に実施例でのファジィエキスパート
システムを示す。実施例では、ファジィ推論を一次推論
と二次推論とから構成した。一次推論では、道路の特徴
量から車線走行可能度合いルールを用いて各車線の走行
可能度合いが推論されると共に、障害物の特徴量から2
種の障害物危険判定ルールを用いて障害物走行可能度合
いが推論される。
FIG. 12 shows a fuzzy expert system according to the embodiment. In the embodiment, the fuzzy inference is composed of the primary inference and the secondary inference. In the primary inference, the driving degree of each lane is inferred from the characteristic amount of the road using the lane driving possibility degree rule, and two degrees are calculated from the characteristic amount of the obstacle.
The obstacle traveling degree is inferred by using various kinds of obstacle danger determination rules.

【0028】二次推論では、車線走行可能度合いルール
を通じて推論された走行可能度合いと、2種の障害物危
険判定ルール(障害物危険度合いルールと総称する)を
通じて得られた走行可能度合いから、走行可能判定ルー
ルを用いて各車線の走行可能度合いがトータルに推論さ
れる。
In the second inference, the traveling degree is calculated from the traveling degree inferred through the lane traveling degree rule and the traveling degree obtained through two types of obstacle danger determination rules (collectively referred to as obstacle risk degree rules). Using the possibility determination rule, the degree of travel in each lane is inferred in total.

【0029】尚、特徴量(推論パラメータ)自体は車線
によって相違しないので、同一のルール群を用いて各車
線ごとに推論する。但し、検出する推論パラメータが車
線により相違するので、推論値が車線によって相違する
のは言うまでもない。
Since the feature value (inference parameter) itself does not differ depending on the lane, inference is performed for each lane using the same rule group. However, since the inferred parameter to be detected differs depending on the lane, it goes without saying that the inferred value differs depending on the lane.

【0030】図13ないし図16に、これらの3種の一
次推論用ルールおよび二次推論用の1種のルール群を示
す。図示の如く、それらは全て、前件部が2個のファジ
ィラベルからなる16個のルールより構成される。
FIGS. 13 to 16 show these three types of primary inference rules and one type of rule group for secondary inference. As shown, they are all composed of 16 rules whose antecedent part consists of two fuzzy labels.

【0031】ここで本発明の推論手法(以下「多重推
論」と言う)を説明すると、この多重推論においては図
17に示す如く、一次推論ルールの後件部を二次推論の
前件部として使用する様にした。より具体的には図13
ないし図16および図18に示す如く、一次推論ルール
の後件部について各ファジィラベルのグレード値が最大
となるルールをそれぞれ選択し、そのグレード値(重み
を示す)をそのファジィラベルの代表値として二次推論
ルールの前件部のファジィラベルに当てはめ、二次推論
ルールの最終出力を求めてファジィエキスパートシステ
ムの出力とする様にした。
Here, the inference method of the present invention (hereinafter referred to as "multiple inference") will be described. In this multiple inference, as shown in FIG. 17, the consequent part of the primary inference rule is set as the antecedent part of the secondary inference. I used it. More specifically, FIG.
As shown in FIGS. 16 and 18, a rule that maximizes the grade value of each fuzzy label is selected for the consequent part of the primary inference rule, and the grade value (indicating the weight) is used as a representative value of the fuzzy label. By applying to the fuzzy label in the antecedent part of the secondary inference rule, the final output of the secondary inference rule is obtained and output to the fuzzy expert system.

【0032】即ち、通常のファジィ推論は図19に示す
様に、ルールR1(説明の便宜のため使用ルールがR
1,R2の2個とする)について前件部ファジィラベル
A11,12のメンバーシップ値のうち最小値を選択し
て後件部ファジィラベルB1のグレード値ω1を求め、
ルールR2についても同様の作業を行って後件部ファジ
ィラベルB2のグレード値ω2を求め、定義域上で両者
の和集合B0を求め、その重心y0を求めてルール群R
1,R2の最終出力とする。その結果、図12に示す様
にファジィ推論を連続的に行うとき、通常の手法に従う
と、図20に記載する様にルール数が膨大となる。
That is, in the ordinary fuzzy inference, as shown in FIG. 19, a rule R1 (for convenience of explanation, the rule used is R
1, R2), the minimum value is selected from the membership values of the fuzzy labels A11 and A12 of the antecedent part, and the grade value ω1 of the fuzzy label B1 of the consequent part is obtained.
The same operation is performed on the rule R2 to obtain the grade value ω2 of the fuzzy label B2 of the consequent part, obtain the union B0 of both on the domain, obtain the center of gravity y0, and obtain the rule group R
1, the final output of R2. As a result, when fuzzy inference is continuously performed as shown in FIG. 12, the number of rules becomes enormous as shown in FIG.

【0033】そこで、実施例においては図13などに示
す様に、各ファジィラベルについてグレード値が最大と
なるものを選択し、そのファジィラベルを代表させる様
にした。即ち、図13の場合、ファジィラベルとしてZ
O,PS,PM,PBの4種を使用しているが、後件部
は同一ファジィラベルについて複数個の値を持つ。例え
ば、PMで言えば3個の値を持つ。そしてPMの3個の
値は、同図下部に示す様に大小関係にある。
Therefore, in the embodiment, as shown in FIG. 13 and the like, the label having the maximum grade value for each fuzzy label is selected, and the fuzzy label is represented. That is, in the case of FIG.
Although four types of O, PS, PM, and PB are used, the consequent part has a plurality of values for the same fuzzy label. For example, in PM, there are three values. The three values of PM are in a magnitude relationship as shown in the lower part of FIG.

【0034】ここで、PMの3個の値の大小関係を見る
と、その中で最大のものは、そのファジィラベル(即
ち、PM)で最もルールの満足度が高いのであるから、
グレード値が最大となったものでそのファジィラベルを
代表させることができるとみなすこともできる。そこ
で、この発明においては各ファジィラベルについてグレ
ード値が最大となる値をそれぞれ求め、そのグレード値
を二次推論ルールの前件部の当該ファジィラベルに代入
することとした。
Here, looking at the magnitude relationship between the three values of PM, the largest one among them has the highest rule satisfaction with the fuzzy label (ie, PM).
It can be considered that the fuzzy label can be represented by the one with the highest grade value. Therefore, in the present invention, a value at which the grade value is maximum for each fuzzy label is obtained, and the grade value is substituted for the fuzzy label in the antecedent part of the secondary inference rule.

【0035】グレード値はファジィ推論において重みを
意味するが、換言すれば、一次推論では各ファジィラベ
ルの重みのみ求めて定義域上の最終出力を求めず、二次
推論でその重みを用いて初めて定義域上の最終出力を求
める様にした。図16の末尾に、この様にして求める二
次推論ルールの最終出力の算出を示す。尚、一般に最終
出力は前記の如く後件部メンバーシップ値の和集合の重
心を求めることで行われるが、処理時間がかかるため、
ここではいわゆるシングルトン方式と呼ばれる簡易重心
計算を用いた。
The grade value means a weight in fuzzy inference. In other words, in primary inference, only the weight of each fuzzy label is obtained and the final output on the domain is not obtained. Added the final output on the domain. At the end of FIG. 16, the calculation of the final output of the secondary inference rule obtained in this way is shown. In general, the final output is performed by calculating the center of gravity of the union of the consequent part membership values as described above.
Here, a simple center of gravity calculation called a so-called singleton method is used.

【0036】この結果、図20に示す様に、ルール数を
大幅に低減することができ、その結果、演算量ないし使
用メモリ容量を低減することができ、またデバッグ効率
を向上することができた。
As a result, as shown in FIG. 20, the number of rules can be greatly reduced, and as a result, the amount of calculation or the memory used can be reduced, and the debugging efficiency can be improved. .

【0037】図21は上記したファジィエキスパートシ
ステムの推論で得られる走行可能度合いの出力例を示
す。走行可能度合いは各車線ごとに0〜1までの実数値
で図示の如く決定される。図示例は、自車線を中心に左
右に計3個の車線が存在する道路環境の場合である。出
力は認識される全ての車線に対して行われ、以前の推論
時刻で認識され、当該推論時刻で認識されない車線の出
力値は0となる。
FIG. 21 shows an example of the output of the possible driving degree obtained by the inference of the fuzzy expert system described above. The travelable degree is determined as shown in FIG. The illustrated example is a case of a road environment in which a total of three lanes exist on the left and right around the own lane. The output is performed for all the recognized lanes, and the output value of the lane which is recognized at the previous inference time and which is not recognized at the inference time is zero.

【0038】実施例においては、各車線をこの様に評価
したことから、障害物が各車線の種々の位置に存在し、
しかも時々刻々変動する様な複雑な道路状況を的確に評
価することができた。図12に示す様に、次いでこれに
基づいて車線のいずれかを選択することになるが、その
選択作業も簡易となって円滑に行うことができる。
In the embodiment, since each lane was evaluated in this way, obstacles exist at various positions in each lane.
In addition, it was possible to accurately evaluate complicated road conditions that fluctuated every moment. As shown in FIG. 12, one of the lanes is then selected based on this, and the selection operation can be performed easily and smoothly.

【0039】図4フロー・チャートに戻ると、続いてS
26に進んでその目標車線の決定を行う。尚、これには
ファジィ推論を用いない。
Returning to the flow chart of FIG.
Proceeding to 26, the target lane is determined. This does not use fuzzy inference.

【0040】図22はその選択作業を示すフロー・チャ
ートである。同図の説明に入る前に図23を参照してこ
の選択作業を簡単に説明すると、自車線の走行可能度合
いがスレッシュオルド値以下になるまで、他の車線の走
行可能度合いがそれより大きくても車線変更しない様に
した。またスレッシュオルド値以下となったときは、走
行可能度合いがスレッシュオルド値より大きい車線を選
択すると共に、一旦選択した後は、選択車線の走行可能
度合いがスレッシュオルド値以下となっても、選択車線
と他の車線の走行可能度合いの差が設定値(適宜設定)
を超えない限り、車線変更を行わない様にした。即ち、
ヒステリシスを設けて制御ハンチングが生じない様にし
た。
FIG. 22 is a flow chart showing the selection operation. Prior to the description of FIG. 23, this selection operation will be briefly described with reference to FIG. 23. Until the driving degree of the own lane becomes equal to or less than the threshold value, the driving degree of the other lane is larger. Also did not change lanes. In addition, when the driving lane becomes less than the threshold value, the lane having the driving degree larger than the threshold value is selected. Is the set value (set appropriately)
The lane change will not be performed unless it exceeds. That is,
Hysteresis is provided to prevent control hunting.

【0041】図22を参照して上記を説明すると、先ず
S100で自車線の走行可能度合いがスレッシュオルド
値以下か否か判断し、否定されるときはS102に進ん
で自車線を維持し、S104に進んで目標車線を自車線
と置き換える(但し、この場合には自車線がそのまま自
車線に置き換えられる)。S100で肯定されるときは
S106に進み、右車線の走行可能度合いがスレッシュ
オルド値以上か否か判断する。
Referring to FIG. 22, the above will be described. First, it is determined in S100 whether or not the traveling degree of the own lane is equal to or less than the threshold value. If the answer is NO, the process proceeds to S102 to maintain the own lane, and S104 The target lane is replaced with the own lane (however, in this case, the own lane is replaced with the own lane). When the result in S100 is affirmative, the program proceeds to S106, in which it is determined whether or not the driveability of the right lane is equal to or greater than the threshold value.

【0042】S106で肯定されるときはS108に進
み、そこで自車線の走行可能度合いと右車線の走行可能
度合いの差が、前記した設定値より小さいか否か判断す
る。これは右車線に変更しても走行可能度合いに大差な
い場合には車線を変更する意義が少ないことから、それ
を判定するためである。従って、否定されるときは走行
可能度合いの差が小さくないので、S110に進んで目
標車線を右車線とし、S104に進んで目標車線を自車
線と置き換える。
When the result in S106 is affirmative, the program proceeds to S108, in which it is determined whether or not the difference between the degree of travel in the own lane and the degree of travel in the right lane is smaller than the set value. This is because if there is no significant difference in the degree of running even if the lane is changed to the right lane, it is not meaningful to change the lane. Therefore, when the result is negative, the difference in the degree of possible travel is not small, so the process proceeds to S110 to set the target lane as the right lane, and proceeds to S104 to replace the target lane with the own lane.

【0043】他方、S108で右車線との走行可能度合
いの差が設定値より小さいと判断されるときはS112
に進んで左車線の走行可能度合いがスレッシュオルド値
以上か否か判断する。尚、S106で否定されるときは
右車線についてそれ以上検討する益がないので、直ちに
S112にジャンプする。
On the other hand, if it is determined in S108 that the difference in the degree of possible travel from the right lane is smaller than the set value, the process proceeds to S112.
Then, it is determined whether or not the driving degree of the left lane is equal to or more than the threshold value. If the result in S106 is NO, there is no benefit in considering the right lane anymore, so the process immediately jumps to S112.

【0044】S112で左車線の走行可能度合いがスレ
ッシュオルド値以上ではないと判断されるときは左車線
に変更する意味がないので、S102に進んで自車線を
維持すると共に、S112で肯定されるときはS114
に進み、そこで自車線と左車線の走行可能度合いの差が
設定値より小さいか否か判断し、肯定されるときはS1
02に進んで自車線を維持すると共に、否定されるとき
はS116に進んで左車線を目標車線とする。尚、右車
線から判断する様にしたのは、法令上追越しは右側から
行うことが原則となっているからである。
If it is determined in step S112 that the left lane is not more than the threshold value, there is no point in changing to the left lane. Therefore, the process proceeds to step S102 to maintain the own lane, and the result in step S112 is affirmative. Sometimes S114
Then, it is determined whether or not the difference between the driveability of the own lane and the left lane is smaller than a set value.
Proceeding to 02 and maintaining the own lane, and if not, proceeding to S116 to set the left lane as the target lane. The reason for judging from the right lane is that, in principle, overtaking is performed from the right side.

【0045】図4フロー・チャートに戻ると、続いてS
28に進んで決定された目標車線に対して目標経路を計
画する。
Returning to the flow chart of FIG.
Proceeding to 28, a target route is planned for the determined target lane.

【0046】図24を参照して説明すると、目標車線が
自車線の場合には車線の中央に2.5mおきにx,yの
点を車線上に設定する。ここで、x,yは図25に示す
様な座標上の位置を示す。車線の中央に目標経路を計画
することにより、安全に自動走行することができる。
尚、この実施例において座標のX軸は車両進行方向にと
る。
Referring to FIG. 24, when the target lane is the own lane, x and y points are set on the lane every 2.5 m at the center of the lane. Here, x and y indicate positions on coordinates as shown in FIG. By planning the target route in the center of the lane, it is possible to drive safely and automatically.
In this embodiment, the X axis of the coordinates is set in the vehicle traveling direction.

【0047】また、目標車線が他車線の場合、その車線
の中央に基準線を求め、基準線上に適宜な位置(目標レ
ーンチェンジ、ポイント)(a)を選択し、その位置
(a)から自車位置までの線分(b)を求め、その線分
に対し、2.5mおきにx,yの点を設定する。尚、こ
こで位置(a)は、自車速Vに車線変更(レーンチェン
ジ)予定時間Tを乗じた距離Lで求める。尚、レーンチ
ェンジした後は目標経路が中央基準線に沿って計画され
るのは自車線を走行する場合と同様である。
If the target lane is another lane, a reference line is obtained at the center of the lane, and an appropriate position (target lane change, point) (a) is selected on the reference line, and the vehicle is automatically shifted from the position (a). A line segment (b) up to the vehicle position is obtained, and points x and y are set at intervals of 2.5 m with respect to the line segment. Here, the position (a) is obtained by a distance L obtained by multiplying the vehicle speed V by a scheduled lane change (lane change) time T. After the lane change, the target route is planned along the central reference line in the same manner as when traveling on the own lane.

【0048】更に、位置(a)の付近に障害物が存在す
る場合、接触する可能性があるので、その障害物の位置
から5m減算した位置を目標とし、自車位置までの線分
(b)を求めて同様に処理する。
Further, if there is an obstacle near the position (a), there is a possibility of contact. Therefore, a position obtained by subtracting 5 m from the position of the obstacle is targeted, and a line segment (b) to the own vehicle position is set. ) Is processed in the same manner.

【0049】次いでS30に進んで軌跡推定結果を入力
する。先に図2に関して述べた様に、ヨーレートセンサ
14などの出力から軌跡推定CPU44において自車の
走行軌跡が図25に示す様に推定されて共有メモリ34
にストアされており、このステップではそのストア値を
読み出して自車の現在位置を推定する。
Then, the process proceeds to S30, where the result of the trajectory estimation is input. As described above with reference to FIG. 2, the trajectory of the host vehicle is estimated by the trajectory estimation CPU 44 from the output of the yaw rate sensor 14 and the like as shown in FIG.
In this step, the stored value is read and the current position of the own vehicle is estimated.

【0050】続いてS32に進んで目標経路の遅れ時間
補正を行う。
Then, the program proceeds to S32, in which the delay time of the target route is corrected.

【0051】即ち、S28で目標経路が計画され、それ
に沿って進行すべくS30で自車の走行軌跡を入力した
が、目標車線の決定までにある程度の処理時間を要し、
自車は明らかにその間に移動している。従って、図26
に示す様に、画像入力時と処理時間経過後とでは自車の
位置は相違している筈であり、その移動した位置を考慮
して目標経路を定めないと、目標経路追従制御に誤差が
生じる。従って、このステップで図26に示す様に、自
車の位置を前記座標の原点位置に置く様に座標変更し、
目標経路(点列で示される)を遅れ補正する。
That is, the target route is planned in S28, and the traveling locus of the own vehicle is input in S30 to proceed along the target route. However, it takes a certain amount of processing time to determine the target lane.
The vehicle is clearly moving in the meantime. Therefore, FIG.
As shown in, the position of the own vehicle should be different between when the image is input and after the processing time has elapsed, and if the target route is not determined in consideration of the moved position, an error will occur in the target route following control. Occurs. Therefore, in this step, as shown in FIG. 26, the coordinates are changed so that the position of the own vehicle is located at the origin position of the coordinates,
The target path (indicated by a sequence of points) is corrected for delay.

【0052】続いてS34に進んでファジィコントロー
ルシステムによる目標走行速度(加速度)を算出する。
Then, the program proceeds to S34, in which a target traveling speed (acceleration) by the fuzzy control system is calculated.

【0053】図27はそれを示すブロック図であり、図
28はその中の加速度制御器の詳細を示すブロック図で
ある。また、図29は目標加速度の推論に使用されるフ
ァジィ・メンバーシップ関数を示す。図27においてフ
ァジィ推論器は障害物までの距離、自車速度と障害物速
度の相対速度および自車速度を入力パラメータとしてフ
ァジィ推論を行い、目標加速度を算出する。尚、加速度
は車速の1階差分値で表す。また、ファジィ推論は前述
した多重推論ではなく、従来手法を用いる。
FIG. 27 is a block diagram showing this, and FIG. 28 is a block diagram showing details of the acceleration controller therein. FIG. 29 shows a fuzzy membership function used for inferring the target acceleration. In FIG. 27, the fuzzy inference unit performs fuzzy inference using the distance to the obstacle, the relative speed between the own vehicle speed and the obstacle speed, and the own vehicle speed as input parameters, and calculates a target acceleration. The acceleration is represented by a first-order difference value of the vehicle speed. The fuzzy inference uses a conventional method instead of the multiple inference described above.

【0054】図28に詳細を示す加速度制御器において
は目標加速度と実加速度との偏差を求め、偏差に応じて
スロットル開度ないしブレーキ圧力を目標値にPID制
御する。かかる構成により、前車との距離を所定の値に
保ちつつ目標加速度で自動走行することができ、前車の
動きに応じて加減速ないし停止することができる。
In the acceleration controller shown in detail in FIG. 28, the deviation between the target acceleration and the actual acceleration is obtained, and the throttle opening or the brake pressure is PID controlled to the target value according to the deviation. With this configuration, the vehicle can automatically travel at the target acceleration while keeping the distance to the preceding vehicle at a predetermined value, and can accelerate or decelerate or stop according to the movement of the preceding vehicle.

【0055】最後にS36で図2の軌跡追従制御CPU
46、舵角制御CPU52、車速制御(加速度制御)C
PU60に目標経路、目標速度(加速度)を出力して終
わる。
Finally, in S36, the trajectory tracking control CPU shown in FIG.
46, steering angle control CPU 52, vehicle speed control (acceleration control) C
The target route and the target speed (acceleration) are output to the PU 60, and the processing ends.

【0056】図30ないし図33に上記についての実車
走行テスト結果を示す。図30は定速走行する前走車に
追従走行した場合を示し、所定の離間距離を保ちつつ前
走車に正確に追従している様子が見てとれよう。図31
に、そのときの走行可能度合いを従来手法により推論し
た場合とこの発明で提案する多重推論を用いて推論した
場合を対比して示す。図示の如く、両者の結果にほとん
ど差異がなかった。
FIGS. 30 to 33 show the results of the actual vehicle running test described above. FIG. 30 shows a case in which the vehicle follows the preceding vehicle traveling at a constant speed, and it can be seen that the vehicle follows the preceding vehicle accurately while maintaining a predetermined separation distance. FIG.
Next, a case in which the degree of possible travel at that time is inferred by the conventional method and a case in which it is inferred by using the multiple inference proposed in the present invention will be compared. As shown, there was almost no difference between the results.

【0057】図32も図30と同様のテストデータ図で
前走車に応じて停止した場合を示す。また、図33に、
そのときの走行可能度合い推論を障害物発見ポイントに
ついて従来手法とこの発明で提案する多重推論を用いて
推論した場合を対比して示す。図31と同様に、このテ
スト結果でも両者にほとんど差異がなかった。
FIG. 32 is a test data diagram similar to that of FIG. 30, and shows a case where the vehicle stops in accordance with the preceding vehicle. Also, in FIG.
The driving possibility degree inference at that time is shown in comparison with a case where an obstacle finding point is inferred using the conventional method and the multiple inference proposed in the present invention. As in FIG. 31, there was almost no difference between the two in this test result.

【0058】この実施例は上記の如く車線の走行可能度
合いなる概念を用い、それをファジィ推論を通じて判定
する様にしたので、複数の車線が平行し障害物が点在す
る道路環境においても常に最適な車線を選択して安定に
走行することができる。また、障害物の有無などから車
線ごとの走行可能度合いを推論して車線を選択するの
で、障害物と接触するなどの危険がない。
In this embodiment, the concept of the degree of lane travel is used as described above, and this is determined through fuzzy inference. Therefore, this embodiment is always optimal even in a road environment where a plurality of lanes are parallel and obstacles are scattered. A stable lane can be selected to drive stably. Further, since the lane is selected by inferring the possible driving degree for each lane from the presence or absence of an obstacle, there is no danger of contact with an obstacle.

【0059】更に、ファジィ推論を通じて車線ごとの走
行可能度合いを判断する様にしたので、同乗者のフィー
リングに合った運転制御が可能となると共に、そのファ
ジィ推論においては多重推論を用いたので、演算量およ
びメモリ量を低減でき、デバッグ効率も向上する。
Furthermore, since the degree of possible driving for each lane is determined through fuzzy inference, it is possible to perform driving control suited to the passenger's feeling. In addition, since multiple inference is used in the fuzzy inference, The amount of calculation and the amount of memory can be reduced, and the debugging efficiency can be improved.

【0060】更に、ファジィ推論を通じて車線ごとの走
行可能度合いを判断すると共に、それから目標車線を決
定するに際してスレッシュオルド値との比較から行う様
にしたので、スレッシュオルド値を上下させることによ
っても車線変更の頻度などを調節することができ、道路
環境に応じて一層最適に走行することができる。
Further, since the possible driving degree for each lane is determined through fuzzy inference, and the target lane is determined based on comparison with the threshold value, the lane change can also be performed by raising or lowering the threshold value. Can be adjusted, and the vehicle can run more optimally according to the road environment.

【0061】尚、上記において、ファジィ推論の多重推
論を2段接続としたが、推論パラメータが干渉し合わな
い限り、3段ないしはそれ以上を接続しても良い。
In the above description, the multiple inference of fuzzy inference is connected in two stages, but three or more stages may be connected as long as the inference parameters do not interfere with each other.

【0062】更に、ファジィ推論パラメータとして実施
例で示した他に、車線の曲率、障害物の速度、自車速
度、目標車速など種々のものを用いても良い。また、実
施例では障害物に関して前方に存在するものだけをファ
ジィ推論パラメータとしたが、後方に存在するものにつ
いてもファジィ推論パラメータに使用しても良い。
Further, in addition to the fuzzy inference parameters described in the embodiment, various parameters such as lane curvature, obstacle speed, own vehicle speed, and target vehicle speed may be used. Also, in the embodiment, only the obstacle existing ahead of the obstacle is used as the fuzzy inference parameter, but the obstacle existing behind the obstacle may be used as the fuzzy inference parameter.

【0063】更に、視覚センサを単眼視としたが、両眼
視を用いて前方レーダなどを省略しても良い。
Furthermore, the visual sensor is monocular, but the front radar and the like may be omitted using binocular vision.

【0064】[0064]

【発明の効果】請求項1項にあっては、複数の車線が平
行し、障害物が存在する道路環境においても常に最適な
車線を選択して安定に走行することができる。
According to the first aspect of the present invention, a plurality of lanes are parallel to each other, so that an optimum lane can always be selected and the vehicle can run stably even in a road environment where an obstacle exists.

【0065】請求項2項にあっては、前記した効果に加
えて、障害物を確実に回避しつつ最適な車速を選択して
走行することができる。
According to the second aspect, in addition to the above-described effects, it is possible to select an optimum vehicle speed and travel while reliably avoiding an obstacle.

【0066】請求項3項にあっては、複数の車線が平行
し、障害物が存在する道路環境においても常に最適な車
線を選択することができると共に、選択された車線に向
かう目標軌跡に沿って正確に走行することができる。
According to a third aspect of the present invention, an optimum lane can always be selected even in a road environment where obstacles are present and a plurality of lanes are parallel to each other, and along a target trajectory heading for the selected lane. And can run accurately.

【0067】請求項4項にあっては、複数の車線が平行
し、障害物が存在する道路環境においても常に最適な車
線を選択することができると共に、車線の中央を走行す
ることから、安全に走行することができる。
According to the fourth aspect, since a plurality of lanes are parallel to each other, the optimum lane can always be selected even in a road environment where an obstacle exists, and the vehicle travels in the center of the lane. You can travel.

【0068】請求項5項にあっては、ファジィ推論を用
いて自動走行に必要な制御値を求めることで人間のフィ
ーリングにマッチした制御が容易に可能になると共に、
推論の演算量および使用メモリ容量の低減を図ることが
でき、デバッグ効率の向上も図ることができる。
According to the fifth aspect, the control value required for the automatic driving is obtained by using the fuzzy inference, so that the control matching the feeling of the human can be easily performed.
The amount of calculation for inference and the used memory capacity can be reduced, and the debugging efficiency can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明に係る自動走行車両を全体的に示す説
明透視図である。
FIG. 1 is an explanatory perspective view generally showing an automatic traveling vehicle according to the present invention.

【図2】図1に示すセンサおよびその処理などを詳細に
示すブロック図である。
FIG. 2 is a block diagram showing in detail a sensor and its processing shown in FIG. 1;

【図3】図2ブロック図の構成をより機能的に示す図2
と同様の説明図である。
FIG. 3 is a functional diagram showing the configuration of the block diagram of FIG. 2;
It is explanatory drawing similar to.

【図4】図2ブロック図の行動計画意思決定CPUの動
作で自動走行動作を示すフロー・チャートである。
FIG. 4 is a flowchart showing an automatic driving operation in the operation of the action plan decision-making CPU in the block diagram of FIG. 2;

【図5】図4フロー・チャートの画像評価結果を説明す
る画像処理の説明図である。
FIG. 5 is an explanatory diagram of image processing for explaining an image evaluation result of the flowchart of FIG. 4;

【図6】図4フロー・チャートの画像評価結果およびレ
ーダ評価結果の入力を通じて得られる外部環境情報を示
す説明図である。
FIG. 6 is an explanatory diagram showing external environment information obtained through input of an image evaluation result and a radar evaluation result of the flowchart of FIG. 4;

【図7】図4フロー・チャートの車線境界線と自己位置
(自車)の位置関係を説明する説明図である。
FIG. 7 is an explanatory diagram illustrating a positional relationship between a lane boundary line and a self-position (own vehicle) in the flowchart of FIG. 4;

【図8】図4フロー・チャートの車線の特徴量を示す説
明図である。
FIG. 8 is an explanatory diagram showing a feature amount of a lane in the flow chart of FIG. 4;

【図9】図4フロー・チャートの障害物の特徴量を示す
説明図である。
FIG. 9 is an explanatory diagram showing feature amounts of obstacles in the flowchart of FIG. 4;

【図10】図8の車線の特徴量について設定したメンバ
ーシップ関数(ファジィラベル)を示す説明図である。
FIG. 10 is an explanatory diagram showing a membership function (fuzzy label) set for the feature amount of the lane in FIG. 8;

【図11】図9の障害物の特徴量について設定したメン
バーシップ関数(ファジィラベル)を示す説明図であ
る。
FIG. 11 is an explanatory diagram showing a membership function (fuzzy label) set for the feature amount of the obstacle in FIG. 9;

【図12】図8フロー・チャートのファジィエキスパー
トシステムによる車線ごとの走行可能度合い推論および
推論値により行われる目標車線決定を全体的に示す説明
図である。
FIG. 12 is an explanatory diagram showing the overall inference of the driving possibility for each lane and the determination of the target lane based on the inference value by the fuzzy expert system of the flow chart of FIG. 8;

【図13】図12のファジィエキスパートシステムで使
用される車線走行可能度合いルール群を示す説明図であ
る。
FIG. 13 is an explanatory diagram showing a group of lane feasibility rules used in the fuzzy expert system of FIG. 12;

【図14】図12のファジィエキスパートシステムで使
用される障害物危険判定ルール群を示す説明図である。
FIG. 14 is an explanatory diagram showing an obstacle danger determination rule group used in the fuzzy expert system of FIG. 12;

【図15】図12のファジィエキスパートシステムで使
用される別の障害物危険判定ルール群を示す説明図であ
る。
FIG. 15 is an explanatory diagram showing another obstacle danger determination rule group used in the fuzzy expert system of FIG. 12;

【図16】図12のファジィエキスパートシステムで使
用される二次推論用のトータルの走行可能度合いルール
群を示す説明図である。
FIG. 16 is an explanatory diagram showing a total running possibility degree group for secondary inference used in the fuzzy expert system of FIG. 12;

【図17】この発明で用いる多重推論なる手法を示す説
明図である。
FIG. 17 is an explanatory diagram showing a technique of multiple inference used in the present invention.

【図18】この発明で用いる多重推論なる手法をより具
体的に示す説明図である。
FIG. 18 is an explanatory diagram more specifically showing a technique of multiple inference used in the present invention.

【図19】従来技術によるファジィ推論を示す説明図で
ある。
FIG. 19 is an explanatory diagram showing fuzzy inference according to the related art.

【図20】従来技術によるファジィ推論に比較してこの
発明で用いる多重推論によるルール数の減少度を示す説
明図である。
FIG. 20 is an explanatory diagram showing the degree of reduction in the number of rules by multiple inference used in the present invention as compared with fuzzy inference according to the prior art.

【図21】図4フロー・チャートで推論される走行可能
度合いを示すタイミング・チャートである。
FIG. 21 is a timing chart showing the possible driving degree inferred in the flow chart of FIG. 4;

【図22】図4フロー・チャートの目標車線決定作業を
説明するサブルーチン・フロー・チャートである。
FIG. 22 is a subroutine flowchart illustrating a target lane determining operation in the flowchart of FIG. 4;

【図23】図4フロー・チャートの目標車線決定作業を
説明するタイミング・チャートである。
FIG. 23 is a timing chart for explaining a target lane determining operation in the flow chart of FIG. 4;

【図24】図4フロー・チャートの目標車線に対する目
標経路の計画作業を示す説明図である。
FIG. 24 is an explanatory diagram showing a planning operation of a target route for a target lane in the flowchart of FIG. 4;

【図25】図4フロー・チャートの軌跡推定結果を説明
する説明図である。
FIG. 25 is an explanatory diagram illustrating a trajectory estimation result of the flow chart of FIG. 4;

【図26】図4フロー・チャートの目標経路の遅れ時間
補正作業を示す説明図である。
FIG. 26 is an explanatory diagram showing a delay time correcting operation for a target route in the flow chart of FIG. 4;

【図27】図4フロー・チャートの目標走行速度(加速
度)制御のブロック図である。
FIG. 27 is a block diagram of target traveling speed (acceleration) control in the flowchart of FIG. 4;

【図28】図27の中の加速度制御器の詳細を示すブロ
ック図である。
FIG. 28 is a block diagram showing details of an acceleration controller in FIG. 27;

【図29】図27の制御の目標加速度のファジィ推論で
使用するパラメータである。
FIG. 29 shows parameters used in fuzzy inference of the target acceleration in the control of FIG. 27.

【図30】この発明による自動走行動作で前走車追従走
行のテストデータ図である。
FIG. 30 is a test data diagram of a preceding vehicle following travel in an automatic traveling operation according to the present invention.

【図31】図30のテストで走行可能度合いを従来手法
で推論した場合とこの発明による多重推論で推論した場
合とを対比して示す説明図である。
FIG. 31 is an explanatory diagram showing a comparison between a case in which the driving possibility is inferred by the conventional method in the test of FIG. 30 and a case in which it is inferred by the multiple inference according to the present invention.

【図32】図30と同様の実車走行テストデータ図であ
る。
FIG. 32 is an actual vehicle running test data diagram similar to FIG. 30.

【図33】図32と同様に推論結果を対比的に示す説明
図である。
FIG. 33 is an explanatory diagram showing inference results in comparison with FIG. 32;

【符号の説明】[Explanation of symbols]

10 CCDカメラ 12 レーダユニット 14 ヨーレートセンサ 16 車速センサ 18 舵角センサ 30 画像処理CPU 36 画像評価CPU 42 レーダ評価CPU 44 軌跡推定CPU 46 軌跡追従制御CPU 50 行動計画意思決定CPU 52 舵角制御CPU 60 車速制御(加速度制御)CPU 10 CCD Camera 12 Radar Unit 14 Yaw Rate Sensor 16 Vehicle Speed Sensor 18 Steering Angle Sensor 30 Image Processing CPU 36 Image Evaluation CPU 42 Radar Evaluation CPU 44 Trajectory Estimation CPU 46 Trajectory Tracking Control CPU 50 Action Planning Decision Making CPU 52 Steering Angle Control CPU 60 Vehicle Speed Control (acceleration control) CPU

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI B62D 101:00 113:00 137:00 (58)調査した分野(Int.Cl.6,DB名) B62D 6/00 G05D 1/02 G08G 1/00 G08G 1/16 G05B 13/02──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 6 identification code FI B62D 101: 00 113: 00 137: 00 (58) Field surveyed (Int.Cl. 6 , DB name) B62D 6/00 G05D 1 / 02 G08G 1/00 G08G 1/16 G05B 13/02

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 外界を認識しつつ自動走行する車両にお
いて、 a.車両進行方向に対して複数の走行可能領域を認識す
る認識手段、 b.車両周囲に存在する障害物の少なくとも位置を含む
障害物の状態を検出する障害物状態検出手段、 c.車速および前記複数の走行可能領域に対する自車の
位置と方位とを少なくとも含む自車の状態を検出する自
車状態検出手段、 d.検出値に基づいてファジィ推論を行って前記複数の
走行可能領域について走行可能度合いを0から1までの
値で判定する走行可能度合い判定手段、 e.判定された走行可能度合いをスレッシュオルド値と
比較し、比較結果に基づいて前記複数の走行可能領域の
いずれかを選択する選択手段、 f.少なくとも前記検出された自車状態に基づいて自車
の走行軌跡を求める軌跡算出手段、 および g.選択された走行可能領域を走行すべく少なくとも前
記検出された自車の状態と算出された走行軌跡とに基づ
いて車両走行の制御量を算出する制御量算出手段、 を備えたことを特徴とする自動走行車両。
1. A vehicle that automatically travels while recognizing the outside world, comprising: a. Recognition means for recognizing a plurality of travelable areas in the vehicle traveling direction, b. Obstacle state detection means for detecting a state of an obstacle including at least a position of an obstacle existing around the vehicle; c. Own-vehicle state detection means for detecting a state of the own vehicle including at least a vehicle speed and a position and an azimuth of the own vehicle with respect to the plurality of travelable areas; d. Fuzzy inference is performed on the basis of the detected value, and the degree of feasibility for the plurality of feasible regions is set to a value between 0 and 1.
Traveling possibility degree judging means judging by value , e. The determined travelability is defined as the threshold
Selecting means for comparing and selecting any of the plurality of travelable areas based on the comparison result ; f. Trajectory calculating means for obtaining a running trajectory of the own vehicle based on at least the detected state of the own vehicle; and g. Control amount calculation means for calculating a control amount of vehicle travel based on at least the detected state of the own vehicle and the calculated travel trajectory so as to travel in the selected travelable area. Autonomous vehicles.
【請求項2】h.少なくとも前記検出された障害物の状
態に基づいて障害物の移動軌跡を求める移動軌跡算出手
段、 を備え、前記制御量算出手段は、少なくとも前記求めた
自車の軌跡と障害物の移動軌跡とに基づいて前記車両走
行の制御量を算出することを特徴とする請求項1項記載
の自動走行車両。
2. h. Movement trajectory calculation means for obtaining a movement trajectory of the obstacle based on at least the detected state of the obstacle, wherein the control amount calculation means determines at least the trajectory of the own vehicle and the movement trajectory of the obstacle. The automatic traveling vehicle according to claim 1, wherein the control amount of the vehicle traveling is calculated based on the vehicle traveling amount.
【請求項3】 前記制御量算出手段は、前記選択された
走行可能領域へ自車が移動を開始するまでの時間遅れを
補正する手段を備えることを特徴とする請求項1項また
は2項記載の自動走行車両。
3. The control amount calculating unit according to claim 1, further comprising a unit configured to correct a time delay until the vehicle starts moving to the selected travelable area. Autonomous vehicle.
【請求項4】 前記選択手段は、自車線について前記
された走行可能度合いが前記スレッシュオルド値を超
えるとき、自車線を保持することを特徴とする請求項1
項ないし3項のいずれかに記載の自動走行車両。
Wherein said selecting means, said-format the own lane
The specified travelability exceeds the threshold value
2. The vehicle according to claim 1 , wherein the vehicle keeps its own lane.
Item 4. The automatic traveling vehicle according to any one of Items 3 to 3.
【請求項5】 外界を認識しつつ自動走行する車両にお
いて、 a.少なくとも車両が走行する走行可能領域を認識して
走行可能領域の状態を示すパラメータを検出する手段、 b.少なくとも車両の走行状態を示すパラメータを検出
する手段、 c.前記検出されたパラメータを前件部に用いてファジ
ィプロダクションルールを設定し、ファジィ推論を行っ
てその後件部の重みを求める第1ファジィ推論手段、 d.前記後件部を前件部に用いて第n(n≧2)のファ
ジィプロダクションルールを設定し、第nのファジィ推
論を行って第nルールの後件部の重みと重心位置とから
後件部の出力を求める第nファジィ推論手段、 および e.求めた後件部の出力に基づいて車両走行の制御量を
算出する制御量算出手段、 を備えたことを特徴とする自動走行車両。
5. A vehicle that automatically travels while recognizing the outside world, comprising: a. Means for recognizing at least a travelable area in which the vehicle travels and detecting a parameter indicating a state of the travelable area; b. Means for detecting at least a parameter indicating a running state of the vehicle; c. First fuzzy inference means for setting a fuzzy production rule by using the detected parameters for the antecedent part, performing fuzzy inference, and thereafter obtaining the weight of the affected part; d. The n-th (n ≧ 2) fuzzy production rule is set using the consequent part as the antecedent part, and the n-th fuzzy inference is performed to determine the consequent from the weight and the center of gravity of the consequent part of the n-th rule. N-th fuzzy inference means for determining the output of the part; and e. An automatic traveling vehicle, comprising: control amount calculation means for calculating a control amount of vehicle travel based on the determined output of the consequent part.
JP5254896A 1993-09-17 1993-09-17 Self-driving vehicle Expired - Fee Related JP2853077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5254896A JP2853077B2 (en) 1993-09-17 1993-09-17 Self-driving vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5254896A JP2853077B2 (en) 1993-09-17 1993-09-17 Self-driving vehicle

Publications (2)

Publication Number Publication Date
JPH0781604A JPH0781604A (en) 1995-03-28
JP2853077B2 true JP2853077B2 (en) 1999-02-03

Family

ID=17271353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5254896A Expired - Fee Related JP2853077B2 (en) 1993-09-17 1993-09-17 Self-driving vehicle

Country Status (1)

Country Link
JP (1) JP2853077B2 (en)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3470453B2 (en) * 1995-04-06 2003-11-25 株式会社デンソー Inter-vehicle distance control device
JP3574235B2 (en) * 1995-08-31 2004-10-06 本田技研工業株式会社 Vehicle steering force correction device
DE19546506A1 (en) 1995-12-13 1997-06-19 Daimler Benz Ag Vehicle navigation system and signal processing method for such a navigation system
DE69730570T2 (en) * 1996-10-09 2005-02-03 Honda Giken Kogyo K.K. Automatic steering system for a vehicle
JP2952816B2 (en) 1996-12-17 1999-09-27 本田技研工業株式会社 Automatic vehicle steering system
US6026347A (en) * 1997-05-30 2000-02-15 Raytheon Company Obstacle avoidance processing method for vehicles using an automated highway system
US5959570A (en) * 1997-11-21 1999-09-28 Raytheon Company Automotive forward looking sensor blockage detection system and related techniques
US5929802A (en) * 1997-11-21 1999-07-27 Raytheon Company Automotive forward looking sensor application
JP4019897B2 (en) * 2002-11-06 2007-12-12 日産自動車株式会社 Recommended operation amount generator for vehicles
JP3991843B2 (en) * 2002-11-08 2007-10-17 日産自動車株式会社 Recommended operation amount generator for vehicles
JP4043416B2 (en) * 2003-07-30 2008-02-06 オリンパス株式会社 Safe movement support device
JP4647201B2 (en) 2003-12-05 2011-03-09 富士重工業株式会社 Vehicle travel control device
JP4530827B2 (en) * 2004-12-08 2010-08-25 ダイハツ工業株式会社 Image processing method and image processing apparatus
JP4900133B2 (en) * 2007-08-09 2012-03-21 トヨタ自動車株式会社 Travel control plan evaluation device
JP4985388B2 (en) * 2007-12-25 2012-07-25 トヨタ自動車株式会社 Driving support device and driving support system
JP2010247580A (en) * 2009-04-13 2010-11-04 Toyota Motor Corp Travel supporting device
CN104183150B (en) * 2014-08-15 2016-03-16 山东交通学院 Vehicle-mounted monomer road traffic state discriminating gear and method
CN110114253B (en) * 2016-12-27 2022-09-27 本田技研工业株式会社 Vehicle control device, vehicle control method, and storage medium
TWI613115B (en) * 2017-03-30 2018-02-01 H P B Optoelectronic Co Ltd Vehicle warning system
JP6558393B2 (en) * 2017-04-06 2019-08-14 トヨタ自動車株式会社 Course setting device and course setting method
JP6580087B2 (en) 2017-06-02 2019-09-25 本田技研工業株式会社 Traveling track determination device and automatic driving device
WO2019220717A1 (en) * 2018-05-15 2019-11-21 日立オートモティブシステムズ株式会社 Vehicle control device
JP7000245B2 (en) * 2018-05-17 2022-01-19 トヨタ自動車株式会社 Autonomous driving system
CN109703569B (en) * 2019-02-21 2021-07-27 百度在线网络技术(北京)有限公司 Information processing method, device and storage medium
CN111462493B (en) * 2020-04-10 2021-05-28 北京工业大学 Overtaking situation perception early warning system based on internet of vehicles
CN111645677B (en) * 2020-05-20 2022-09-23 吉林大学 Vehicle braking and steering coordinated control emergency anti-collision system and control method

Also Published As

Publication number Publication date
JPH0781604A (en) 1995-03-28

Similar Documents

Publication Publication Date Title
JP2853077B2 (en) Self-driving vehicle
US11662733B2 (en) Trajectory setting device and trajectory setting method
US10814876B2 (en) Vehicle lane-changing control method, vehicle lane-changing control device and related equipment
CN112477884B (en) Automatic driving control method and device and vehicle
CN105292116B (en) The lane changing path planning algorithm of automatic driving vehicle
EP1400391B1 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
JP6799150B2 (en) Vehicle control device
JP2669031B2 (en) Autonomous vehicles
US20200238980A1 (en) Vehicle control device
US5101351A (en) Autonomous vehicle using fuzzy control
US20200317192A1 (en) Vehicle control device
CN113165648A (en) Control system and control method for planning possible trajectories of a motor vehicle on the basis of sampling
CN112965476B (en) High-speed unmanned vehicle trajectory planning system and method based on multi-window model
EP1407915B1 (en) Vehicle surroundings monitoring system and traveling control system incorporating the monitoring system
US20200391747A1 (en) Vehicle control device
Ben-Messaoud et al. Smooth obstacle avoidance path planning for autonomous vehicles
JPH03113513A (en) Speed-sensitive steering controller for self-traveling vehicle
CN114954632B (en) Vehicle control method, vehicle control system and vehicle
CN114103893A (en) Unmanned vehicle trajectory prediction anti-collision method
JP2024506972A (en) Ways to avoid obstacles
CN111176285A (en) Method and device for planning travel path, vehicle and readable storage medium
JP2845035B2 (en) Operation control device for moving vehicles
JPH064800A (en) Safety traveling controller for vehicle
Waghchoure et al. A Receding Horizon Autopilot for the Two-Lane Highway Automated Driving Application through Synergy between the Robust Behavior Planner and the Advanced Driver Assistance Features
KR102514146B1 (en) Decision-making method of lane change for self-driving vehicles using reinforcement learning in a motorway environment, recording medium thereof

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981006

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071120

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081120

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081120

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091120

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091120

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101120

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees