JP2017030396A - Traveling control device of vehicle - Google Patents

Traveling control device of vehicle Download PDF

Info

Publication number
JP2017030396A
JP2017030396A JP2015149853A JP2015149853A JP2017030396A JP 2017030396 A JP2017030396 A JP 2017030396A JP 2015149853 A JP2015149853 A JP 2015149853A JP 2015149853 A JP2015149853 A JP 2015149853A JP 2017030396 A JP2017030396 A JP 2017030396A
Authority
JP
Japan
Prior art keywords
lane
vehicle
information
lane information
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015149853A
Other languages
Japanese (ja)
Other versions
JP6579699B2 (en
Inventor
松野 浩二
Koji Matsuno
浩二 松野
雅人 溝口
Masato Mizoguchi
雅人 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2015149853A priority Critical patent/JP6579699B2/en
Publication of JP2017030396A publication Critical patent/JP2017030396A/en
Application granted granted Critical
Publication of JP6579699B2 publication Critical patent/JP6579699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately obtain an estimation value by suitably correcting the fluctuation and an error of an observation value without taking into consideration in advance an influence caused by the observation value and an error of the estimation value, to smoothly obtain a variety of pieces of information necessary for steering in a lane, and to perform natural steering control.SOLUTION: A traveling control device of a vehicle detects lane information by making an employment ratio of image information and map information variable according to the reliability of the image information and the map information, and estimates a vehicle behavior which is outputted to an inputted steering angle θH at a two-wheel model of the vehicle. Then, the traveling control device calculates lane information (opposite lane yaw angle Ψovs, in-lane lateral position yovs) with respect to a lane on which the vehicle travels as control lane information by feeding back the lane information by the variable setting according to the reliability of the detected lane information on the basis of the estimated vehicle behavior, and performs steering control.SELECTED DRAWING: Figure 2

Description

本発明は、自動運転の技術を備え、車線に沿って走行自在な車両の走行制御装置に関する。   The present invention relates to a travel control device for a vehicle that is equipped with an automatic driving technique and that can travel along a lane.

近年、車両においては、ドライバの運転を、より快適に安全に行えるように自動運転の技術を利用した様々なものが開発され提案されている。例えば、特開2013−129289号公報(以下、特許文献1)では、複数の観測量(横偏差、道路曲率、ヨー角)の信頼度を、観測量毎に算出し、複数の観測量及び観測量の信頼度をカルマンフィルタで構成した推定モデルに入力して車両の状態量を推定し、推定した車両の状態量に基づいて操舵制御を行う車両用操舵制御装置の技術が開示されている。   In recent years, various types of vehicles using automatic driving technology have been developed and proposed so that drivers can drive more comfortably and safely. For example, in JP 2013-129289 A (hereinafter referred to as Patent Document 1), the reliability of a plurality of observation amounts (lateral deviation, road curvature, yaw angle) is calculated for each observation amount, and the plurality of observation amounts and observations are calculated. A technique of a vehicle steering control device that inputs a reliability of a quantity into an estimation model configured by a Kalman filter to estimate a vehicle state quantity and performs steering control based on the estimated vehicle state quantity is disclosed.

特開2013−129289号公報JP 2013-129289 A

ところで、このような自動運転の技術を利用した走行制御装置においては、検出する車線情報(例えば、カメラからの画像情報、ナビゲーションシステムからの地図情報)の精度が悪化した場合、車線に追従する操舵制御の精度も悪化してしまう。そこで、上述の特許文献1に開示される車両用操舵制御装置のように、各観測量の信頼度を基にカルマンフィルタで構成した推定モデルで操舵制御を行うことで制御精度を維持することが考えられる。しかしながら、上述の特許文献1で開示される操舵制御の技術では、予め観測量と推定値の誤差を考慮して推定モデルを構成しなければならないという課題がある。また、上述の特許文献1で開示される操舵制御の技術では、推定モデルをベースにした制御なので推定モデルで計算しても観測値との誤差が残り、良好な制御精度が得られない虞もある。   By the way, in the travel control device using such automatic driving technology, when the accuracy of the detected lane information (for example, image information from the camera, map information from the navigation system) deteriorates, steering to follow the lane is performed. The accuracy of control will also deteriorate. Therefore, as in the vehicle steering control device disclosed in Patent Document 1 described above, it is conceivable to maintain control accuracy by performing steering control with an estimation model configured with a Kalman filter based on the reliability of each observation amount. It is done. However, the steering control technique disclosed in Patent Document 1 described above has a problem that an estimation model must be configured in consideration of an error between an observation amount and an estimated value. Further, since the steering control technique disclosed in Patent Document 1 described above is based on the estimation model, there is a possibility that an error from the observed value remains even if the estimation model is used for calculation, and that good control accuracy cannot be obtained. is there.

本発明は上記事情に鑑みてなされたもので、予め観測値と推定値の誤差による影響を考慮することなく、観測値の揺らぎや誤差を適切に修正して精度良く推定値を求めることができ、車線を操舵するのに必要な様々な情報をスムーズに求め、自然な操舵制御を実行することが可能となる車両の走行制御装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and it is possible to obtain an estimated value with high accuracy by appropriately correcting fluctuations and errors in the observed value without considering the influence of the error between the observed value and the estimated value in advance. An object of the present invention is to provide a vehicle travel control device that can smoothly obtain various information necessary to steer a lane and execute natural steering control.

本発明の車両の走行制御装置の一態様は、車線情報を検出する車線情報検出手段と、入力値に対して出力される車両パラメータを車両モデルで推定する車両パラメータ推定手段と、上記車両パラメータ推定手段で推定した上記車両パラメータに基づき、上記車線情報をフィードバックして制御用車線情報を算出する制御用車線情報算出手段と、上記制御用車線情報算出手段にフィードバックする上記車線情報を該車線情報の信頼度に応じて可変設定するフィードバック量可変手段と、上記制御用車線情報に基づいて操舵制御を行う操舵制御手段とを備えた。   One aspect of the vehicle travel control apparatus of the present invention is a lane information detection unit that detects lane information, a vehicle parameter estimation unit that estimates a vehicle parameter output with respect to an input value using a vehicle model, and the vehicle parameter estimation Based on the vehicle parameters estimated by the means, the lane information is fed back to calculate control lane information to calculate control lane information, and the lane information to be fed back to the control lane information calculation means is the lane information. Feedback amount variable means for variably setting according to reliability and steering control means for performing steering control based on the control lane information are provided.

本発明による車両の走行制御装置によれば、予め観測値と推定値の誤差による影響を考慮することなく、観測値の揺らぎや誤差を適切に修正して精度良く推定値を求めることができ、車線を操舵するのに必要な様々な情報をスムーズに求め、自然な操舵制御を実行することが可能となる。   According to the vehicle travel control apparatus of the present invention, it is possible to obtain an estimated value with high accuracy by appropriately correcting fluctuations and errors in the observed value without considering the influence of the error between the observed value and the estimated value in advance. Various information necessary for steering the lane can be obtained smoothly, and natural steering control can be executed.

本発明の実施の一形態に係る車両の操舵系の構成説明図である。1 is a configuration explanatory diagram of a vehicle steering system according to an embodiment of the present invention. FIG. 本発明の実施の一形態に係る制御ユニットの機能ブロック図である。It is a functional block diagram of a control unit concerning one embodiment of the present invention. 本発明の実施の一形態に係る走行制御部の構成説明図である。It is composition explanatory drawing of the traveling control part which concerns on one Embodiment of this invention. 本発明の実施の一形態に係る操舵制御プログラムのフローチャートである。It is a flowchart of the steering control program which concerns on one Embodiment of this invention. 本発明の実施の一形態に係る信頼度R1に応じて設定される道路曲率の採用比率の一例の説明図である。It is explanatory drawing of an example of the employment | adoption ratio of the road curvature set according to the reliability R1 which concerns on one Embodiment of this invention. 本発明の実施の一形態に係る信頼度R2に応じて設定される対車線ヨー角の採用比率と対車線ヨー角フィードバックゲインの一例の説明図である。It is explanatory drawing of an example of the employment ratio of an anti-lane yaw angle set according to the reliability R2 which concerns on one Embodiment of this invention, and an anti-lane yaw angle feedback gain. 本発明の実施の一形態に係る信頼度R3に応じて設定される車線内横位置の採用比率と車線内横位置フィードバックゲインの一例の説明図である。It is explanatory drawing of an example of the employment | adoption ratio of the lateral position in a lane set according to the reliability R3 which concerns on one Embodiment of this invention, and a lateral position feedback gain in a lane. 本発明の実施の一形態に係る画像情報を基に得られる車線情報の説明図である。It is explanatory drawing of the lane information obtained based on the image information which concerns on one Embodiment of this invention. 本発明の実施の一形態に係る地図情報を基に得られる車線情報の説明図である。It is explanatory drawing of the lane information obtained based on the map information which concerns on one Embodiment of this invention. 本発明の実施の一形態で取得する車線情報の一例を示し、図10(a)は画像情報と地図情報の信頼度を示し、図10(b)は操舵角を示し、図10(c)は対車線ヨー角を示し、図10(d)は車線内横位置を示す。FIG. 10A shows an example of lane information acquired in the embodiment of the present invention, FIG. 10A shows the reliability of image information and map information, FIG. 10B shows the steering angle, and FIG. Indicates the lane yaw angle, and FIG. 10D shows the lateral position in the lane.

以下、図面に基づいて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1において、符号1は操舵角をドライバ入力と独立して設定自在な電動パワーステアリング装置を示し、この電動パワーステアリング装置1は、ステアリング軸2が、図示しない車体フレームにステアリングコラム3を介して回動自在に支持されており、その一端が運転席側へ延出され、他端がエンジンルーム側へ延出されている。ステアリング軸2の運転席側端部には、ステアリングホイール4が固設され、また、エンジンルーム側へ延出する端部には、ピニオン軸5が連設されている。   In FIG. 1, reference numeral 1 denotes an electric power steering device in which a steering angle can be set independently of a driver input. It is rotatably supported, and one end thereof extends to the driver's seat side and the other end extends to the engine room side. A steering wheel 4 is fixed to an end portion of the steering shaft 2 on the driver's seat side, and a pinion shaft 5 is connected to an end portion extending to the engine room side.

エンジンルームには、車幅方向へ延出するステアリングギヤボックス6が配設されており、このステアリングギヤボックス6にラック軸7が往復移動自在に挿通支持されている。このラック軸7に形成されたラック(図示せず)に、ピニオン軸5に形成されたピニオンが噛合されて、ラックアンドピニオン式のステアリングギヤ機構が形成されている。   A steering gear box 6 extending in the vehicle width direction is disposed in the engine room, and a rack shaft 7 is inserted into and supported by the steering gear box 6 so as to be reciprocally movable. A rack (not shown) formed on the rack shaft 7 is engaged with a pinion formed on the pinion shaft 5 to form a rack and pinion type steering gear mechanism.

また、ラック軸7の左右両端はステアリングギヤボックス6の端部から各々突出されており、その端部に、タイロッド8を介してフロントナックル9が連設されている。このフロントナックル9は、操舵輪としての左右輪10L,10Rを回動自在に支持すると共に、車体フレームに転舵自在に支持されている。従って、ステアリングホイール4を操作し、ステアリング軸2、ピニオン軸5を回転させると、このピニオン軸5の回転によりラック軸7が左右方向へ移動し、その移動によりフロントナックル9がキングピン軸(図示せず)を中心に回動して、左右輪10L,10Rが左右方向へ転舵される。   The left and right ends of the rack shaft 7 protrude from the end of the steering gear box 6, and a front knuckle 9 is connected to the end via a tie rod 8. The front knuckle 9 rotatably supports left and right wheels 10L and 10R as steering wheels and is supported by a vehicle body frame so as to be steerable. Accordingly, when the steering wheel 4 is operated and the steering shaft 2 and the pinion shaft 5 are rotated, the rack shaft 7 is moved in the left-right direction by the rotation of the pinion shaft 5, and the front knuckle 9 is moved by the movement to the kingpin shaft (not shown). And the left and right wheels 10L, 10R are steered in the left-right direction.

また、ピニオン軸5にアシスト伝達機構11を介して、電動パワーステアリングモータ(電動モータ)12が連設されており、この電動モータ12にてステアリングホイール4に加える操舵トルクのアシスト、及び、設定された目標操舵角となるような操舵トルクの付加が行われる。電動モータ12は、後述する制御ユニット20から制御出力値がモータ駆動部21に出力されてモータ駆動部21により駆動される。   Further, an electric power steering motor (electric motor) 12 is connected to the pinion shaft 5 via an assist transmission mechanism 11, and assists and sets the steering torque applied to the steering wheel 4 by the electric motor 12. The steering torque is added so as to achieve the target steering angle. The electric motor 12 is driven by the motor drive unit 21 by outputting a control output value from the control unit 20 described later to the motor drive unit 21.

制御ユニット20には、画像情報を基に車両の前方環境を認識して前方環境情報(車線情報(車線上に存在する立体物情報も含む))を取得する前方環境認識装置31、自車位置情報(緯度・経度、移動方向等)を検出して地図情報上に自車両位置の表示、及び、目的地までの経路誘導を行うナビゲーションシステム32が接続されている。また、車速Vを検出する車速センサ33、操舵角(実舵角)θHを検出する操舵角センサ34、車両のヨーレート(dΨs/dt)を検出する車両挙動検出手段としてのヨーレートセンサ35、操舵トルクTdを検出する操舵トルクセンサ36が接続されている。   The control unit 20 recognizes the front environment of the vehicle based on the image information and acquires the front environment information (lane information (including solid object information existing on the lane)), the vehicle position A navigation system 32 that detects information (latitude / longitude, moving direction, etc.) and displays the position of the vehicle on the map information and guides the route to the destination is connected. Further, a vehicle speed sensor 33 for detecting the vehicle speed V, a steering angle sensor 34 for detecting the steering angle (actual steering angle) θH, a yaw rate sensor 35 as vehicle behavior detecting means for detecting the yaw rate (dΨs / dt) of the vehicle, steering torque A steering torque sensor 36 for detecting Td is connected.

前方環境認識装置31は、車両の外部環境を撮影して画像情報を取得する車室内に設けた固体撮像素子等を備えたカメラ装置(ステレオカメラ、単眼カメラ、カラーカメラ等)(図示せず)で構成されている。   The front environment recognition device 31 is a camera device (stereo camera, monocular camera, color camera, etc.) (not shown) provided with a solid-state imaging device or the like provided in a vehicle interior that captures image information obtained by photographing the external environment of the vehicle. It consists of

前方環境認識装置31は、カメラ装置で撮像した画像情報を基に、例えば、距離情報に対して周知のグルーピング処理を行い、グルーピング処理した距離情報を予め設定しておいた三次元的な道路形状データや立体物データ等と比較することにより、車線区画線データ、道路に沿って存在するガードレール、縁石等の側壁データ、車両(先行車、対向車、並走車、駐車車両)等の立体物データ等を自車両からの相対的な位置(距離、角度)を、速度と共に抽出する。また、車線の雨天状態、雪路状態も画像情報を基に検出し、制御ユニット20に出力する。尚、雨天状態や雪路状態の情報は、他に、車両のワイパーの作動状態や、道路交通情報通信システム(VICS:Vehicle Information and Communication System:登録商標)、車車間通信等により検出されるものであっても良い。また、並走車の情報は、画像情報以外に車車間通信、レーダ装置(レーザレーダ、ミリ波レーダ等)、ソナー等により検出するものであっても良い。   The front environment recognition device 31 performs, for example, a known grouping process on the distance information based on the image information captured by the camera device, and the three-dimensional road shape in which the distance information obtained by the grouping process is set in advance. Three-dimensional objects such as lane marking data, guardrails along the road, side walls such as curbs, vehicles (preceding vehicles, oncoming vehicles, parallel vehicles, parked vehicles) The relative position (distance, angle) from the host vehicle is extracted along with the speed of data and the like. Further, the rainy weather condition and snowy road condition of the lane are also detected based on the image information and output to the control unit 20. In addition, information on rainy conditions and snowy road conditions is also detected by vehicle wiper operating conditions, road information and communication system (VICS), vehicle-to-vehicle communication, etc. It may be. In addition to the image information, the information on the parallel running vehicle may be detected by inter-vehicle communication, a radar device (laser radar, millimeter wave radar, etc.), sonar, or the like.

前方認識装置31における、カメラからの画像情報の処理(車線情報の取得)は、例えば以下のように行われる。図8に示すように、まず、カメラで撮像した自車両の進行方向の1組のステレオ画像対に対し、対応する位置のずれ量から距離情報を求め、距離画像を生成する。   Processing of image information from the camera (acquisition of lane information) in the forward recognition device 31 is performed as follows, for example. As shown in FIG. 8, first, distance information is obtained from a pair of stereo image pairs captured in the traveling direction of the host vehicle in the traveling direction from the corresponding positional shift amount, and a distance image is generated.

白線等の車線区画線の認識では、車線区画線は道路面と比較して高輝度であるという知得に基づき、道路の幅方向の輝度変化を評価して、画像平面における左右の車線区画線の位置を画像平面上で特定する。この車線区画線の実空間上の位置(x,y,z)は、画像平面上の位置(i,j)とこの位置に関して算出された視差とに基づいて、すなわち、距離情報に基づいて、周知の座標変換式より算出される。   In recognition of lane markings such as white lines, the left and right lane markings on the image plane are evaluated based on the knowledge that the lane markings are brighter than the road surface. Is specified on the image plane. The position (x, y, z) of the lane marking in the real space is based on the position (i, j) on the image plane and the parallax calculated with respect to this position, that is, based on the distance information. It is calculated from a known coordinate conversion formula.

自車両の位置を基準に設定された実空間の座標系は、本実施の形態では、例えば、図8に示すように、カメラの中央真下の道路面を原点Oとして、車幅方向をY軸(右方向を「+」)、車高方向をZ軸(上方向を「+」)、車長方向(距離方向)をX軸(前方向を「+」)とする。このとき、X−Y平面(Z=0)は、道路が平坦な場合、道路面と一致する。道路モデルは、道路上の自車両の車線を距離方向に複数区間に分割し、各区間における左右の車線区画線を所定に近似して連結することによって表現される。   In the present embodiment, the coordinate system of the real space set based on the position of the host vehicle is, for example, as shown in FIG. 8, with the road surface directly below the center of the camera as the origin O and the vehicle width direction as the Y axis. (The right direction is “+”), the vehicle height direction is the Z axis (upward direction is “+”), and the vehicle length direction (distance direction) is the X axis (front direction is “+”). At this time, the XY plane (Z = 0) coincides with the road surface when the road is flat. The road model is expressed by dividing the lane of the host vehicle on the road into a plurality of sections in the distance direction, and connecting the left and right lane markings in each section to a predetermined approximation.

前方認識装置31では、取得した左右車線区画線の近似処理を実行する。具体的には、自車両の左側の車線区画線は最小自乗法により、以下の(1)式により近似される。   The forward recognition device 31 executes an approximation process for the acquired left and right lane markings. Specifically, the lane marking on the left side of the host vehicle is approximated by the following equation (1) by the method of least squares.

y=AL・x+BL・x+CL …(1)
また、自車両の右側の車線区画線は最小自乗法により、以下の(2)式により近似される。
y = AL · x 2 + BL · x + CL (1)
Further, the lane marking on the right side of the host vehicle is approximated by the following equation (2) by the method of least squares.

y=AR・x+BR・x+CR …(2)
ここで、上述の(1)式、(2)式における、「AL」と「AR」は、それぞれの曲線における曲率を示し、左側の車線区画線の曲率κlは、2・ALであり、右側の車線区画線の曲率κrは、2・ARである。従って、画像情報に基づく車線の曲率κc(添字「c」は画像情報であることを示す)は、以下の(3)式となる。
y = AR · x 2 + BR · x + CR (2)
In the above equations (1) and (2), “AL” and “AR” indicate the curvature of each curve, the curvature κl of the left lane marking is 2 · AL, The curvature κr of the lane marking is 2 · AR. Accordingly, the curvature κc of the lane based on the image information (subscript “c” indicates image information) is expressed by the following equation (3).

κc=(2・AL+2・AR)/2=AL+AR …(3)
また、(1)式、(2)式における、「BL」と「BR」は、それぞれの曲線の自車両の幅方向における傾きを示し、「CL」と「CR」は、それぞれの曲線の自車両の幅方向における位置を示す。
κc = (2 · AL + 2 · AR) / 2 = AL + AR (3)
In the equations (1) and (2), “BL” and “BR” indicate the inclinations of the respective curves in the width direction of the host vehicle, and “CL” and “CR” indicate the respective curves. The position in the width direction of the vehicle is shown.

更に、前方認識装置31は、画像情報に基づく自車両の対車線ヨー角Ψcを、以下の(4)式により算出し、出力する。   Further, the forward recognition device 31 calculates and outputs the lane yaw angle Ψc of the host vehicle based on the image information by the following equation (4).

Ψc=tan−1((BL+BR)/2) …(4)
また、本発明の実施の形態では、画像情報に基づく対車線横位置ycを車線中央(目標コースとする)からの偏差位置と定義する(図8参照)。
Ψc = tan −1 ((BL + BR) / 2) (4)
Further, in the embodiment of the present invention, the lateral position yc based on the image information is defined as a deviation position from the center of the lane (referred to as a target course) (see FIG. 8).

以上のように、本実施の形態では、前方認識装置31は車線情報検出手段として設けられている。   As described above, in the present embodiment, the front recognition device 31 is provided as lane information detection means.

また、前方環境認識装置31は、例えば、特開2011−73529号公報に開示されるように、カメラにて撮像された画像上のレーンの中で判定された処理領域内に存在する車線区画線(白線)の特徴量が画像上で線上に並ぶ多さによって信頼度を算出する。そして具体的には、エリアの中に理想的な直線実白線がある場合に存在する白線特徴量の多さを1と設定し、まったく特徴量が存在しない場合、もしくは線上に並んでいると判定できない場合に0と判断し、例えば、予め設定しておいた閾値(例えば、0.8)以上の信頼度が算出された場合、前方環境情報(画像情報)の信頼度「高」と判定し、上述の閾値よりも低い信頼度が算出された場合、前方環境情報(画像情報)の信頼度「低」と判定して、この信頼度情報Rcも制御ユニット20に出力する。   Further, the front environment recognition device 31, for example, as disclosed in Japanese Patent Application Laid-Open No. 2011-73529, is a lane marking that exists in a processing area determined in a lane on an image captured by a camera. The reliability is calculated based on the number of feature values of (white line) arranged on the line on the image. Specifically, the number of white line feature quantities existing when there is an ideal straight solid white line in the area is set to 1, and it is determined that there are no feature quantities at all or they are arranged on the line. If it is not possible, it is determined to be 0. For example, when a reliability level equal to or higher than a preset threshold value (for example, 0.8) is calculated, the reliability level of the front environment information (image information) is determined to be “high”. When the reliability lower than the above-described threshold is calculated, it is determined that the reliability of the forward environment information (image information) is “low”, and this reliability information Rc is also output to the control unit 20.

また、ナビゲーションシステム32は、周知のシステムであり、例えば、GPS衛星([Global Positioning System:全地球測位システム]衛星)からの電波信号を受信して車両の位置情報(緯度、経度)を取得し、車速センサから車速を取得し、また、地磁気センサあるいはジャイロセンサ等により、移動方向情報を取得する。そして、ナビゲーションシステム32は、ナビゲーション機能を実現するための経路情報を生成するナビECUと、地図情報(サプライヤデータ、及び、更新されたデータ)を記憶する地図データベースと、例えば液晶ディスプレイ等の表示部(以上、何れも図示せず)を備えて構成される。   The navigation system 32 is a well-known system, for example, receives a radio signal from a GPS satellite ([Global Positioning System] satellite) and acquires vehicle position information (latitude and longitude). The vehicle speed is acquired from the vehicle speed sensor, and the moving direction information is acquired by a geomagnetic sensor or a gyro sensor. The navigation system 32 includes a navigation ECU that generates route information for realizing a navigation function, a map database that stores map information (supplier data and updated data), and a display unit such as a liquid crystal display. (All of which are not shown above).

ナビECUは、利用者によって指定された目的地までの経路情報を地図画像に重ねて表示部に表示させるとともに、検出された車両の位置、速度、走行方向等の情報に基づき、車両の現在位置を表示部上の地図画像に重ねて表示する。また、地図データベースには、ノードデータ、施設データ等の道路地図を構成するのに必要な情報が記憶されている。ノードデータは、図9に示すように、地図画像を構成する道路の位置及び形状に関するものであり、例えば道路の分岐点(交差点)を含む道路上の点(ノード点Pn)の座標(緯度、経度)、当該ノード点Pnが含まれる道路の方向、種別(例えば、高速道路、幹線道路、市道といった情報)、当該ノード点Pnにおける道路のタイプ(直線区間、円弧区間(円弧曲線部)、クロソイド曲線区間(緩和曲線部))及びカーブ曲率κm(或いは、半径:ここで添字「m」は地図情報であることを示す)のデータが含まれる。従って、図9に示すように、車両の現在位置が重ねられた地図上の位置により自車両の走行路が特定され、該自車両の走行路を目標進行路として自車両の位置Po(k)に最も近いノード点Pn(k)の情報により、道路のカーブ曲率κm(或いは、半径)、道路の方向等の走行路情報が取得される。更に、施設データは、各ノード点Pnの付近に存在する施設情報に関するデータを含み、ノードデータ(或いは、当該ノードが存在するリンクデータ)と関連づけて記憶されている。また、ナビゲーションシステム32は、前回の自車位置Po(k-1)と今回の自車位置Po(k)で得られる自車両の進行方向(角度)と、今回の自車両の位置Po(k)に最も近いノード点Pn(k)の道路の方位角との差により、地図情報に基づく車両の対車線ヨー角Ψmを算出し、地図情報に基づく対車線横位置ymと共に出力する。尚、本実施の形態では、対車線横位置ymを車線中央(目標コースとする)からの偏差位置と定義する(図9参照)。このように、ナビゲーションシステム32は、車線情報検出手段として設けられている。また、ナビゲーションシステム32は、GPS衛星からの電波の受信状態、及び地図情報の更新状態を参照して、GPS衛星からの電波の受信状態が良好で地図情報も所定期間以内の地図データである場合には、地図情報の信頼度が「高」いと判定し、どちらか一方の状態が悪化している(GPS衛星からの電波の受信状態が悪化している場合、或いは、地図データが古い場合)場合には、地図情報の信頼度が「低」いと判定し、地図情報の信頼度情報Rmも制御ユニット20に出力する。   The navigation ECU displays the route information to the destination designated by the user on the display unit on the map image and displays the current position of the vehicle based on the detected vehicle position, speed, traveling direction, etc. Is overlaid on the map image on the display. The map database stores information necessary for constructing a road map such as node data and facility data. As shown in FIG. 9, the node data relates to the position and shape of the road constituting the map image. For example, the node data includes coordinates (latitude, latitude) of a point on the road (node point Pn) including a branch point (intersection) of the road. Longitude), the direction of the road including the node point Pn, the type (for example, information such as an expressway, a main road, and a city road), the type of road at the node point Pn (straight section, arc section (arc curve section)), Clothoid curve section (relaxation curve section)) and curve curvature κm (or radius: where subscript “m” indicates map information) are included. Accordingly, as shown in FIG. 9, the travel path of the host vehicle is specified by the position on the map on which the current position of the vehicle is superimposed, and the position Po (k) of the host vehicle is determined using the travel path of the host vehicle as the target travel path. Based on the information of the node point Pn (k) that is closest to the road, the traveling path information such as the curve curvature κm (or radius) of the road and the direction of the road is acquired. Furthermore, the facility data includes data relating to facility information existing in the vicinity of each node point Pn, and is stored in association with node data (or link data where the node exists). The navigation system 32 also determines the traveling direction (angle) of the host vehicle obtained from the previous host vehicle position Po (k-1) and the current host vehicle position Po (k), and the current host vehicle position Po (k ) To calculate the vehicle lane yaw angle Ψm based on the map information, and outputs it together with the vehicle lane lateral position ym based on the map information. In the present embodiment, the on-lane lateral position ym is defined as a deviation position from the center of the lane (referred to as a target course) (see FIG. 9). Thus, the navigation system 32 is provided as lane information detection means. Further, the navigation system 32 refers to the reception state of the radio wave from the GPS satellite and the update state of the map information, and the reception state of the radio wave from the GPS satellite is good and the map information is also map data within a predetermined period. Is determined that the reliability of the map information is “high” and one of the states is deteriorated (when the reception state of the radio wave from the GPS satellite is deteriorated or the map data is old) In this case, it is determined that the reliability of the map information is “low”, and the reliability information Rm of the map information is also output to the control unit 20.

制御ユニット20には、上述の前方環境認識装置31で検出した前方環境情報(車線情報(車線上に存在する立体物情報も含む))、ナビゲーションシステム32で検出した車線情報、車速センサ33で検出した車速V、操舵角センサ34で検出した操舵角θH、ヨーレートセンサ35で検出したヨーレート(dΨs/dt)、操舵トルクセンサ36で検出した操舵トルクTdが入力される。   The control unit 20 includes front environment information (lane information (including three-dimensional object information existing on the lane)) detected by the above-described front environment recognition device 31, lane information detected by the navigation system 32, and a vehicle speed sensor 33. The vehicle speed V, the steering angle θH detected by the steering angle sensor 34, the yaw rate (dΨs / dt) detected by the yaw rate sensor 35, and the steering torque Td detected by the steering torque sensor 36 are input.

そして、制御ユニット20は、上述の各入力値に基づいて、画像情報と地図情報の信頼度に応じて画像情報と地図情報の採用比率を可変して車線情報を検出する。また、入力される操舵角θHに対して出力される車両挙動(ヨーレート(dΨovs/dt)、車体すべり角βovs)を車両の2輪モデルで推定する。そして、推定した車両挙動に基づき、車両が走行する車線に対する車線情報(対車線ヨー角Ψovs、車線内横位置yovs)に、検出した車線情報をその信頼度に応じた可変設定でフィードバックして制御用車線情報として算出し、この制御用車線情報に基づいて操舵制御するようになっている。   Then, the control unit 20 detects the lane information by changing the adoption ratio of the image information and the map information in accordance with the reliability of the image information and the map information based on each input value described above. Further, the vehicle behavior (yaw rate (dΨovs / dt), vehicle slip angle βovs) output with respect to the input steering angle θH is estimated using a two-wheel model of the vehicle. Based on the estimated vehicle behavior, the detected lane information is fed back to the lane information (the lane yaw angle ψovs, the lateral position yovs in the lane) for the lane on which the vehicle travels, with variable settings corresponding to the reliability. The vehicle lane information is calculated, and the steering control is performed based on the control lane information.

このため、図2に示すように、制御ユニット20は、環境検出信頼度設定部41、ヨーレートセンサフィードバックゲイン設定部42、道路曲率入力値算出部43、対車線ヨー角フィードバックゲイン設定部44、対車線ヨー角入力値算出部45、車線内横位置フィードバックゲイン設定部46、車線内横位置入力値算出部47、走行制御部48、操舵制御部49から主要に構成されている。   For this reason, as shown in FIG. 2, the control unit 20 includes an environment detection reliability setting unit 41, a yaw rate sensor feedback gain setting unit 42, a road curvature input value calculation unit 43, an anti-lane yaw angle feedback gain setting unit 44, A lane yaw angle input value calculation unit 45, a lane lateral position feedback gain setting unit 46, a lane lateral position input value calculation unit 47, a travel control unit 48, and a steering control unit 49 are mainly configured.

環境検出信頼度設定部41は、前方環境認識装置31から画像情報の信頼度Rcが入力され、ナビゲーションシステム32から地図情報の信頼度Rmが入力される。そして、例えば、以下のように、それぞれの信頼度の組み合わせに応じて環境検出信頼度R1、R2、R3を設定し、道路曲率入力値算出部43、対車線ヨー角フィードバックゲイン設定部44、対車線ヨー角入力値算出部45、車線内横位置フィードバックゲイン設定部46、車線内横位置入力値算出部47に出力する。
・道路曲率に応じた環境検出信頼度R1は、以下のように設定する。
The environment detection reliability setting unit 41 receives image information reliability Rc from the forward environment recognition device 31 and map information reliability Rm from the navigation system 32. Then, for example, the environment detection reliability R1, R2, R3 is set according to the combination of the respective reliability as follows, the road curvature input value calculation unit 43, the anti-lane yaw angle feedback gain setting unit 44, It outputs to the lane yaw angle input value calculation unit 45, the in-lane lateral position feedback gain setting unit 46, and the in-lane lateral position input value calculation unit 47.
The environment detection reliability R1 corresponding to the road curvature is set as follows.

画像情報の信頼度…「低」、かつ、地図情報の信頼度…「低」のとき0
画像情報の信頼度…「低」、かつ、地図情報の信頼度…「高」のとき10
画像情報の信頼度…「高」、かつ、地図情報の信頼度…「低」のとき20
画像情報の信頼度…「高」、かつ、地図情報の信頼度…「高」のとき30
・対車線ヨー角に応じた環境検出信頼度R2は、以下のように設定する。
Reliability of image information ... "Low" and reliability of map information ... "Low" 0
When the reliability of the image information is "low" and the reliability of the map information is "high" 10
Image information reliability: “High” and map information reliability: “Low” 20
When the reliability of the image information is “high” and the reliability of the map information is “high” 30
The environment detection reliability R2 corresponding to the lane yaw angle is set as follows.

画像情報の信頼度…「低」、かつ、地図情報の信頼度…「低」のとき0
画像情報の信頼度…「低」、かつ、地図情報の信頼度…「高」のとき10
画像情報の信頼度…「高」、かつ、地図情報の信頼度…「低」のとき20
画像情報の信頼度…「高」、かつ、地図情報の信頼度…「高」のとき30
・車線内横位置に応じた環境検出信頼度R3は、以下のように設定する。
Reliability of image information ... "Low" and reliability of map information ... "Low" 0
When the reliability of the image information is "low" and the reliability of the map information is "high" 10
Image information reliability: “High” and map information reliability: “Low” 20
When the reliability of the image information is “high” and the reliability of the map information is “high” 30
-Environment detection reliability R3 according to the lateral position in the lane is set as follows.

画像情報の信頼度…「低」、かつ、地図情報の信頼度…「低」のとき0
画像情報の信頼度…「低」、かつ、地図情報の信頼度…「高」のとき10
画像情報の信頼度…「高」、かつ、地図情報の信頼度…「低」のとき20
画像情報の信頼度…「高」、かつ、地図情報の信頼度…「高」のとき30
尚、本実施の形態では、各画像情報と地図情報の信頼度が同じときの各信頼度が同じ値となるように設定しているが(例えば、画像情報の信頼度…「低」、かつ、地図情報の信頼度…「低」のときは、R1=R2=R3=0)、それぞれ異なる値に設定するような仕様であっても良い。
Reliability of image information ... "Low" and reliability of map information ... "Low" 0
When the reliability of the image information is "low" and the reliability of the map information is "high" 10
Image information reliability: “High” and map information reliability: “Low” 20
When the reliability of the image information is “high” and the reliability of the map information is “high” 30
In this embodiment, each image information and map information are set to have the same reliability when the reliability of the map information is the same (for example, the reliability of the image information is “low”, and When the reliability of the map information is “low”, R1 = R2 = R3 = 0), and different specifications may be used.

ヨーレートセンサフィードバックゲイン設定部42は、操舵角センサ34から操舵角θHが入力され、操舵トルクセンサ36から操舵トルクTdが入力される。そして、例えば、以下の(5)式の操舵トルクTdと操舵角θHの関係が成立しなくなった場合は、本実施形態の車両モデルでの計算では計算誤差が増加すると判定し、ヨーレートセンサフィードバックゲインK1を増大させる(ヨーレートセンサ35で検出したヨーレート(dΨs/dt)からの値のフィードバック制御の影響を強める)信号を走行制御部48に出力する。   The yaw rate sensor feedback gain setting unit 42 receives the steering angle θH from the steering angle sensor 34 and the steering torque Td from the steering torque sensor 36. For example, when the relationship between the steering torque Td and the steering angle θH in the following equation (5) is not established, it is determined that the calculation error increases in the calculation with the vehicle model of the present embodiment, and the yaw rate sensor feedback gain is determined. A signal for increasing K1 (increasing the influence of feedback control of a value from the yaw rate (dΨs / dt) detected by the yaw rate sensor 35) is output to the traveling control unit 48.

K1L≦Td/θH≦K1H …(5)
ここで、K1L、K1Hは、予め実験、計算等により設定しておいた定数である。
K1L ≦ Td / θH ≦ K1H (5)
Here, K1L and K1H are constants set in advance through experiments, calculations, and the like.

このように、ヨーレートセンサフィードバックゲイン設定部42はフィードバック量可変手段として設けられている。   Thus, the yaw rate sensor feedback gain setting unit 42 is provided as a feedback amount varying means.

道路曲率入力値算出部43は、前方環境認識装置31から画像情報による道路曲率κc、車線の雨天状態、雪路状態の検出結果が入力され、ナビゲーションシステム32から地図情報による道路曲率κmが入力され、環境検出信頼度設定部41から道路曲率に応じた環境検出信頼度R1が入力される。   The road curvature input value calculation unit 43 receives the road curvature κc based on the image information, the detection result of the rainy lane condition and the snowy road condition from the front environment recognition device 31, and the road curvature κm based on the map information from the navigation system 32. The environment detection reliability R1 corresponding to the road curvature is input from the environment detection reliability setting unit 41.

そして、まず、道路曲率に応じた環境検出信頼度R1に基づいて、例えば、図5に示すようなテーブルを参照して、画像情報による道路曲率κcの採用比率a1と地図情報による道路曲率κmの採用比率a2を設定する。   First, based on the environment detection reliability R1 according to the road curvature, for example, referring to a table as shown in FIG. 5, the adoption ratio a1 of the road curvature κc based on the image information and the road curvature κm based on the map information The adoption ratio a2 is set.

次いで、設定した画像情報による道路曲率κcの採用比率a1と地図情報による道路曲率κmの採用比率a2について、以下のように補正を行う。   Next, the road curvature κc adoption ratio a1 based on the set image information and the road curvature κm adoption ratio a2 based on the map information are corrected as follows.

雨天路や雪路では画像情報による車線認識の信頼度が低くなるので、画像情報による道路曲率κcの採用比率a1を減算補正し(a1=a1−Δa)、地図情報による道路曲率κmの採用比率a2を増加補正し(a2=a2+Δa)、以下の(6)式により、道路曲率入力値κmcを算出して走行制御部48に出力する。   Since the reliability of lane recognition based on image information is low on rainy roads and snowy roads, the adoption ratio a1 of road curvature κc based on image information is subtracted and corrected (a1 = a1−Δa), and the adoption ratio of road curvature κm based on map information. A2 is corrected to increase (a2 = a2 + Δa), and the road curvature input value κmc is calculated and output to the travel control unit 48 by the following equation (6).

κmc=κc・a1+κm・a2 …(6)
ここで、a1+a2=1である。また、図5からも明らかなように、道路曲率に応じた環境検出信頼度R1が0、すなわち、画像情報の信頼度…「低」、かつ、地図情報の信頼度…「低」のときは、車線情報による道路曲率入力値κmcは信頼性がないため、車両モデルにフィードバック制御することはしない。このように、道路曲率入力値算出部43は、車線情報検出手段、フィードバック量可変手段として設けられている。
κmc = κc · a1 + κm · a2 (6)
Here, a1 + a2 = 1. Further, as is apparent from FIG. 5, when the environment detection reliability R1 corresponding to the road curvature is 0, that is, the reliability of the image information is “low” and the reliability of the map information is “low”. Since the road curvature input value κmc based on the lane information is not reliable, feedback control is not performed on the vehicle model. Thus, the road curvature input value calculation unit 43 is provided as lane information detection means and feedback amount variable means.

対車線ヨー角フィードバックゲイン設定部44は、前方環境認識装置31から並走車情報が入力され、環境検出信頼度設定部41から対車線ヨー角に応じた環境検出信頼度R2が入力される。そして、まず、対車線ヨー角に応じた環境検出信頼度R2に基づいて、例えば、図6に示すようなテーブルを参照して対車線ヨー角フィードバックゲインK2を設定する。   The on-lane yaw angle feedback gain setting unit 44 receives parallel vehicle information from the forward environment recognition device 31 and receives the environment detection reliability R2 corresponding to the on-lane yaw angle from the environment detection reliability setting unit 41. First, based on the environment detection reliability R2 corresponding to the anti-lane yaw angle, for example, an anti-lane yaw angle feedback gain K2 is set with reference to a table as shown in FIG.

次いで、車線に並走車が存在する場合は、本実施の形態の車両モデルで計算されるヨーレート(dΨovs/dt)に外乱が含まれる虞があるため、対車線ヨー角フィードバックゲインK2を増大補正し(車線情報で検出した対車線ヨー角Ψmcのフィードバック制御の影響を強め)、走行制御部48に出力する。このように、対車線ヨー角フィードバックゲイン設定部44は、フィードバック量可変手段として設けられている。   Next, when there are parallel vehicles in the lane, the yaw rate (dΨovs / dt) calculated by the vehicle model of the present embodiment may include disturbance, so the lane yaw angle feedback gain K2 is increased and corrected. (The effect of feedback control of the yaw angle ψmc to the lane detected by the lane information is strengthened) and output to the traveling control unit 48. Thus, the anti-lane yaw angle feedback gain setting unit 44 is provided as a feedback amount varying means.

対車線ヨー角入力値算出部45は、前方環境認識装置31から画像情報による対車線ヨー角Ψc、車線の雨天状態、雪路状態の検出結果が入力され、ナビゲーションシステム32から地図情報による対車線ヨー角Ψmが入力され、環境検出信頼度設定部41から対車線ヨー角に応じた環境検出信頼度R2が入力される。   The on-lane yaw angle input value calculation unit 45 receives the on-lane yaw angle Ψc based on the image information from the front environment recognition device 31 and the detection result of the rainy lane condition and snowy road condition on the lane. The yaw angle Ψm is input, and the environment detection reliability R2 corresponding to the lane yaw angle is input from the environment detection reliability setting unit 41.

そして、まず、対車線ヨー角に応じた環境検出信頼度R2に基づいて、例えば、図6に示すようなテーブルを参照して、画像情報による対車線ヨー角Ψcの採用比率a3と地図情報による対車線ヨー角Ψmの採用比率a4を設定する。   First, based on the environment detection reliability R2 corresponding to the anti-lane yaw angle, for example, with reference to a table as shown in FIG. 6, based on the adoption ratio a3 of the anti-lane yaw angle Ψc based on the image information and the map information The adoption ratio a4 of the anti-lane yaw angle Ψm is set.

次いで、設定した画像情報による対車線ヨー角Ψcの採用比率a3と地図情報による対車線ヨー角Ψmの採用比率a4について、以下のように補正を行う。   Next, the adoption ratio a3 of the anti-lane yaw angle Ψc based on the set image information and the adoption ratio a4 of the anti-lane yaw angle Ψm based on the map information are corrected as follows.

雨天路や雪路では画像情報による車線認識の信頼度が低くなるので、画像情報による対車線ヨー角Ψcの採用比率a3を減算補正し(a3=a3−Δa)、地図情報による対車線ヨー角Ψmの採用比率a4を増加補正し(a4=a4+Δa)、以下の(7)式により、対車線ヨー角入力値Ψmcを算出して走行制御部48に出力する。   Since the reliability of lane recognition based on image information is low on rainy and snowy roads, the adoption rate a3 of the anti-lane yaw angle Ψc based on image information is subtracted and corrected (a3 = a3-Δa), and the anti-lane yaw angle based on map information The adoption rate a4 of Ψm is corrected to increase (a4 = a4 + Δa), and the anti-lane yaw angle input value Ψmc is calculated and output to the travel control unit 48 by the following equation (7).

Ψmc=Ψc・a3+Ψm・a4 …(7)
ここで、a3+a4=1である。また、図6からも明らかなように、対車線ヨー角に応じた環境検出信頼度R2が0、すなわち、画像情報の信頼度…「低」、かつ、地図情報の信頼度…「低」のときは、車線情報による対車線ヨー角入力値Ψmcは信頼性がないため、車両モデルにフィードバック制御することはしない。このように、対車線ヨー角入力値算出部45は、車線情報検出手段、フィードバック量可変手段として設けられている。
Ψmc = Ψc · a3 + Ψm · a4 (7)
Here, a3 + a4 = 1. As is apparent from FIG. 6, the environment detection reliability R2 corresponding to the lane yaw angle is 0, that is, the reliability of the image information is “low” and the reliability of the map information is “low”. In some cases, the input value ψmc to the lane yaw angle based on the lane information is not reliable, and is not feedback controlled to the vehicle model. Thus, the anti-lane yaw angle input value calculation unit 45 is provided as a lane information detection unit and a feedback amount variable unit.

車線内横位置フィードバックゲイン設定部46は、前方環境認識装置31から並走車情報が入力され、環境検出信頼度設定部41から車線内横位置に応じた環境検出信頼度R3が入力される。そして、まず、車線内横位置に応じた環境検出信頼度R3に基づいて、例えば、図7に示すようなテーブルを参照して車線内横位置フィードバックゲインK3を設定する。   The in-lane lateral position feedback gain setting unit 46 receives parallel running vehicle information from the forward environment recognition device 31, and receives the environment detection reliability R3 corresponding to the lateral position in the lane from the environment detection reliability setting unit 41. First, based on the environmental detection reliability R3 corresponding to the lateral position in the lane, for example, the lateral position feedback gain K3 in the lane is set with reference to a table as shown in FIG.

次いで、車線に並走車が存在する場合は、本実施の形態の車両モデルで計算されるヨーレート(dΨovs/dt)に外乱が含まれる虞があるため、車線内横位置フィードバックゲインK3を増大補正し(車線情報で検出した車線内横位置ymcのフィードバック制御の影響を強め)、走行制御部48に出力する。このように、車線内横位置フィードバックゲイン設定部46は、フィードバック量可変手段として設けられている。   Next, when there are parallel vehicles in the lane, the yaw rate (dΨovs / dt) calculated by the vehicle model of the present embodiment may include disturbance, so the lateral position feedback gain K3 in the lane is increased and corrected. (Intensify the influence of feedback control of the lateral position ymc in the lane detected by the lane information) and output to the travel control unit 48. Thus, the in-lane lateral position feedback gain setting unit 46 is provided as a feedback amount varying means.

車線内横位置入力値算出部47は、前方環境認識装置31から画像情報による車線内横位置yc、車線の雨天状態、雪路状態の検出結果が入力され、ナビゲーションシステム32から地図情報による車線内横位置ymが入力され、環境検出信頼度設定部41から車線内横位置に応じた環境検出信頼度R3が入力される。   The in-lane lateral position input value calculating unit 47 receives the detection result of the in-lane lateral position yc, the rainy weather condition of the lane, and the snowy road condition based on the image information from the forward environment recognition device 31, and the in-lane based on the map information from the navigation system 32. The lateral position ym is input, and the environment detection reliability R3 corresponding to the lateral position in the lane is input from the environment detection reliability setting unit 41.

そして、まず、車線内横位置に応じた環境検出信頼度R3に基づいて、例えば、図7に示すようなテーブルを参照して、画像情報による車線内横位置ycの採用比率a5と地図情報による車線内横位置ymの採用比率a6を設定する。   First, based on the environment detection reliability R3 corresponding to the lateral position in the lane, for example, with reference to a table as shown in FIG. 7, the adoption ratio a5 of the lateral position yc in the lane based on the image information and the map information The adoption ratio a6 of the lateral position ym in the lane is set.

次いで、設定した画像情報による車線内横位置ycの採用比率a5と地図情報による車線内横位置ymの採用比率a6について、以下のように補正を行う。   Next, the adoption ratio a5 of the lateral position yc in the lane based on the set image information and the adoption ratio a6 of the lateral position ym in the lane based on the map information are corrected as follows.

雨天路や雪路では画像情報による車線認識の信頼度が低くなるので、画像情報による車線内横位置ycの採用比率a5を減算補正し(a5=a5−Δa)、地図情報による車線内横位置ymの採用比率a6を増加補正し(a6=a6+Δa)、以下の(8)式により、車線内横位置入力値ymcを算出して走行制御部48に出力する。   Since the reliability of lane recognition based on image information is low on rainy and snowy roads, the adoption ratio a5 of the lateral position yc in the lane based on image information is subtracted and corrected (a5 = a5-Δa), and the lateral position in the lane based on map information The ym adoption ratio a6 is corrected to be increased (a6 = a6 + Δa), and the in-lane lateral position input value ymc is calculated according to the following equation (8) and output to the travel control unit 48.

ymc=yc・a5+ym・a6 …(8)
ここで、a5+a6=1である。また、図7からも明らかなように、車線内横位置に応じた環境検出信頼度R3が0、すなわち、画像情報の信頼度…「低」、かつ、地図情報の信頼度…「低」のときは、車線情報による車線内横位置入力値ymcは信頼性がないため、車両モデルにフィードバック制御することはしない。このように、車線内横位置入力値算出部47は、車線情報検出手段、フィードバック量可変手段として設けられている。
ymc = yc · a5 + ym · a6 (8)
Here, a5 + a6 = 1. Further, as is clear from FIG. 7, the environment detection reliability R3 corresponding to the lateral position in the lane is 0, that is, the reliability of the image information is “low” and the reliability of the map information is “low”. At this time, since the lateral position input value ymc in the lane based on the lane information is not reliable, feedback control is not performed on the vehicle model. Thus, the in-lane lateral position input value calculation unit 47 is provided as a lane information detection unit and a feedback amount variable unit.

走行制御部48は、車速センサ33から車速Vが入力され、操舵角センサ34から操舵角θHが入力され、ヨーレートセンサ35からヨーレート(dΨs/dt)が入力される。また、ヨーレートセンサフィードバックゲイン設定部42からヨーレートセンサフィードバックゲインK1が入力され、道路曲率入力値算出部43から道路曲率入力値κmcが入力され、対車線ヨー角フィードバックゲイン設定部44から対車線ヨー角フィードバックゲインK2が入力され、対車線ヨー角入力値算出部45から対車線ヨー角入力値Ψmcが入力され、車線内横位置フィードバックゲイン設定部46から車線内横位置フィードバックゲインK3が入力され、車線内横位置入力値算出部47から車線内横位置入力値ymcが入力される。   The travel control unit 48 receives the vehicle speed V from the vehicle speed sensor 33, the steering angle θH from the steering angle sensor 34, and the yaw rate (dΨs / dt) from the yaw rate sensor 35. Further, the yaw rate sensor feedback gain K1 is input from the yaw rate sensor feedback gain setting unit 42, the road curvature input value κmc is input from the road curvature input value calculation unit 43, and the anti-lane yaw angle feedback gain setting unit 44 inputs the anti-lane yaw angle. The feedback gain K2 is input, the anti-lane yaw angle input value calculation unit 45 inputs the anti-lane yaw angle input value Ψmc, the in-lane horizontal position feedback gain setting unit 46 inputs the in-lane horizontal position feedback gain K3, and the lane The lateral lateral position input value ymc is input from the lateral lateral position input value calculation unit 47.

そして、走行制御部48は、入力される操舵角θHに対して出力される車両のヨーレート(dΨovs/dt)を車両の2輪モデルで推定する。この推定したヨーレート(dΨovs/dt)に基づき、車両が走行する車線に対する車線情報(対車線ヨー角Ψovs、車線内横位置yovs)を算出する。これら推定したヨーレート(dΨovs/dt)、対車線ヨー角Ψovs、車線内横位置yovsに対し、車両の運転状態に応じて設定したヨーレートセンサフィードバックゲインK1、環境検出信頼度R1、R2、R3に応じて設定した対車線ヨー角フィードバックゲインK2、車線内横位置フィードバックゲインK3を用いて、ヨーレート(dΨs/dt)、道路曲率入力値κmc、対車線ヨー角入力値Ψmc、車線内横位置入力値ymcをフィードバックし、制御用の車線情報(対車線ヨー角Ψovs、車線内横位置yovs)を算出して操舵制御部49に出力する。   Then, the traveling control unit 48 estimates the yaw rate (dΨovs / dt) of the vehicle output with respect to the input steering angle θH using a two-wheel model of the vehicle. On the basis of the estimated yaw rate (dΨovs / dt), lane information (the lane yaw angle Ψovs to the lane, the lateral position yovs in the lane) for the lane in which the vehicle travels is calculated. The estimated yaw rate (dΨovs / dt), the lane-to-lane yaw angle Ψovs, the lateral position in the lane yovs, according to the yaw rate sensor feedback gain K1 set according to the driving state of the vehicle, and the environmental detection reliability R1, R2, R3 The yaw rate (dΨs / dt), road curvature input value κmc, anti-lane yaw angle input value Ψmc, in-lane lateral position input value ymc using the in-lane yaw angle feedback gain K2 and in-lane lateral position feedback gain K3 , Lane information for control (to-lane yaw angle ψovs, lateral position yovs in lane) is calculated and output to the steering control unit 49.

このため、走行制御部48は、図3に示すように、車両挙動推定部48a、対車線ヨー角フィードバック制御部48b、車線内横位置フィードバック制御部48cから主要に構成されている。   For this reason, as shown in FIG. 3, the traveling control unit 48 mainly includes a vehicle behavior estimation unit 48a, an anti-lane yaw angle feedback control unit 48b, and an in-lane lateral position feedback control unit 48c.

車両挙動推定部48aは、入力される操舵角θHに対して出力される車両挙動(車両のヨーレート(dΨovs/dt)を推定する2輪モデルで、オブザーバにより構成されている。オブザーバの構成について、以下、説明する。   The vehicle behavior estimation unit 48a is a two-wheel model that estimates a vehicle behavior (vehicle yaw rate (dΨovs / dt)) that is output with respect to the input steering angle θH. The vehicle behavior estimation unit 48a is configured by an observer. This will be described below.

すなわち、車両横方向の並進運動に関する運動方程式は、前後輪のコーナリングフォース(1輪)をCf,Cr、車体質量をM、横加速度をGyとすると、
2・Cf+2・Cr=M・Gy …(9)
となる。
In other words, the equation of motion related to the translational motion in the lateral direction of the vehicle is Cf, Cr as the cornering force (one wheel) of the front and rear wheels, M as the vehicle body mass, and Gy as the lateral acceleration.
2 · Cf + 2 · Cr = M · Gy (9)
It becomes.

一方、重心点まわりの回転運動に関する運動方程式は、重心から前後輪軸までの距離をLf,Lr、車体のヨー慣性モーメントをIz、ヨー角加速度を(dΨ/dt)として、以下の(10)式で示される。 On the other hand, the equation of motion related to the rotational motion around the center of gravity is expressed as follows, assuming that the distance from the center of gravity to the front and rear wheel axes is Lf, Lr, the yaw moment of inertia of the vehicle body is Iz, and the yaw angular acceleration is (d 2 Ψ / dt 2 ) 10)

2・Cf・Lf−2・Cr・Lr=Iz・(dΨ/dt) …(10)
また、車体すべり角をβ、車体すべり角速度を(dβ/dt)とすると、横加速度Gyは、
Gy=V・((dβ/dt)+(dΨ/dt)) …(11)
で表される。ここで、(dΨ/dt)はヨーレートである。
2 · Cf · Lf−2 · Cr · Lr = Iz · (d 2 Ψ / dt 2 ) (10)
When the vehicle slip angle is β and the vehicle slip angular velocity is (dβ / dt), the lateral acceleration Gy is
Gy = V · ((dβ / dt) + (dΨ / dt)) (11)
It is represented by Here, (dΨ / dt) is the yaw rate.

従って、上記(9)式は、以下の(12)式となる。   Therefore, the above equation (9) becomes the following equation (12).

2・Cf+2・Cr=M・V・((dβ/dt)+(dΨ/dt))
…(12)
コーナリングフォースはタイヤの横すべり角に対して1次遅れに近い応答をするが、この応答遅れを無視し、更に、サスペンションの特性をタイヤ特性に取り込んだ等価コーナリングパワを用いて線形化すると以下となる。
2 · Cf + 2 · Cr = M · V · ((dβ / dt) + (dΨ / dt))
(12)
The cornering force responds close to the first-order lag with respect to the tire slip angle, but this response lag is ignored, and the suspension characteristics are linearized using equivalent cornering power incorporating the tire characteristics. .

Cf=Kf・αf …(13)
Cr=Kr・αr …(14)
ここで、Kf,Krは前後輪の等価コーナリングパワ、αf,αrは前後輪の横すべり角である。
Cf = Kf · αf (13)
Cr = Kr · αr (14)
Here, Kf and Kr are equivalent cornering powers of the front and rear wheels, and αf and αr are side slip angles of the front and rear wheels.

等価コーナリングパワKf,Krの中でロールやサスペンションの影響は考慮されているので、この等価コーナリングパワKf,Krを用いて、前後輪の横すべり角αf,αrは、前後輪舵角をδf,δr、ステアリングギヤ比をnとして以下のように簡略化できる。   Since the effects of rolls and suspensions are taken into account in the equivalent cornering powers Kf and Kr, the lateral slip angles αf and αr of the front and rear wheels using the equivalent cornering powers Kf and Kr are set to δf and δr. The steering gear ratio can be reduced to n as follows.

αf=δf−(β+Lf・(dΨ/dt)/V)
=(θH/n)−(β+Lf・(dΨ/dt)/V) …(15)
αr=δr−(β−Lr・(dΨ/dt)/V) …(16)
以上の運動方程式をまとめると、以下の(17)式で示す状態方程式が得られ、図3の車両挙動推定部48aのオブザーバの構成で表現される。このオブザーバにより、入力される操舵角θHに対して生じる車両挙動(ヨーレート(dΨovs/dt)、車体すべり角βovs、横加速度Gyovs)が推定される。

Figure 2017030396
αf = δf− (β + Lf · (dΨ / dt) / V)
= (ΘH / n) − (β + Lf · (dΨ / dt) / V) (15)
αr = δr− (β−Lr · (dΨ / dt) / V) (16)
Summarizing the above equation of motion, the state equation shown in the following equation (17) is obtained, and is expressed by the configuration of the observer of the vehicle behavior estimation unit 48a in FIG. The observer estimates the vehicle behavior (yaw rate (dΨovs / dt), vehicle slip angle βovs, lateral acceleration Gyovs) generated with respect to the input steering angle θH.
Figure 2017030396

従って、車両挙動推定部48aには、車速センサ33から車速Vが入力され、操舵角センサ34から操舵角θHが入力され、ヨーレートセンサ35からヨーレート(dΨs/dt)が入力され、ヨーレートセンサフィードバックゲイン設定部42からヨーレートセンサフィードバックゲインK1が入力される。   Accordingly, the vehicle behavior estimation unit 48a receives the vehicle speed V from the vehicle speed sensor 33, the steering angle θH from the steering angle sensor 34, the yaw rate (dΨs / dt) from the yaw rate sensor 35, and the yaw rate sensor feedback gain. The yaw rate sensor feedback gain K1 is input from the setting unit 42.

そして、車両挙動推定部48aでは、上述の(17)式で算出されるヨーレート(dΨovs/dt)に対し、ヨーレートセンサ35からヨーレート(dΨs/dt)でフィードバック制御を行う。この際、フィードバック量を決定するヨーレートセンサフィードバックゲインK1は、前述の如く、本実施形態の車両モデルでの計算では計算誤差が増加すると判定した場合には、ヨーレートセンサフィードバックゲインK1を増大させる(ヨーレートセンサ35で検出したヨーレート(dΨs/dt)からの値のフィードバック制御の影響を強める)方向に設定されるため、車両挙動推定部48aで算出されるヨーレート(dΨovs/dt)の精度が良好に保たれる。   Then, the vehicle behavior estimation unit 48a performs feedback control with the yaw rate (dΨs / dt) from the yaw rate sensor 35 with respect to the yaw rate (dΨovs / dt) calculated by the above equation (17). At this time, the yaw rate sensor feedback gain K1 for determining the feedback amount increases the yaw rate sensor feedback gain K1 (yaw rate) when it is determined that the calculation error increases in the calculation with the vehicle model of the present embodiment as described above. Since it is set in the direction that increases the influence of feedback control of the value from the yaw rate (dΨs / dt) detected by the sensor 35, the accuracy of the yaw rate (dΨovs / dt) calculated by the vehicle behavior estimation unit 48a is kept good. Be drunk.

尚、車両挙動推定部48aで横加速度Gyovsは、例えば、前述の(11)式により算出される。   The lateral acceleration Gyovs is calculated by the vehicle behavior estimation unit 48a, for example, by the above-described equation (11).

こうして、車両挙動推定部48aで算出したヨーレート(dΨovs/dt)は対車線ヨー角フィードバック制御部48bに出力され、車体すべり角βovsは車線内横位置フィードバック制御部48cに出力される。   Thus, the yaw rate (dΨovs / dt) calculated by the vehicle behavior estimating unit 48a is output to the anti-lane yaw angle feedback control unit 48b, and the vehicle slip angle βovs is output to the in-lane lateral position feedback control unit 48c.

対車線ヨー角フィードバック制御部48bは、車速センサ33から車速Vが入力され、道路曲率入力値算出部43から道路曲率入力値κmcが入力され、対車線ヨー角フィードバックゲイン設定部44から対車線ヨー角フィードバックゲインK2が入力され、対車線ヨー角入力値算出部45から対車線ヨー角入力値Ψmcが入力され、車両挙動推定部48aからヨーレート(dΨovs/dt)が入力される。   The lane yaw angle feedback control unit 48 b receives the vehicle speed V from the vehicle speed sensor 33, receives the road curvature input value κmc from the road curvature input value calculation unit 43, and receives the lane yaw angle feedback gain setting unit 44 from the lane yaw angle feedback gain setting unit 44. The angle feedback gain K2 is input, the anti-lane yaw angle input value calculation unit 45 receives the anti-lane yaw angle input value Ψmc, and the vehicle behavior estimation unit 48a inputs the yaw rate (dΨovs / dt).

そして、対車線ヨー角フィードバック制御部48bは、道路曲率入力値算出部43からの道路曲率入力値κmcに車速Vを乗算して道路曲率入力値κmcに応じたヨーレート(dΨmc/dt)を算出する。ここで、前述したように、道路曲率入力値κmcは、画像情報と地図情報の信頼度に応じて精度良く算出されているので、道路曲率入力値κmcに応じたヨーレート(dΨmc/dt)も精度の良い値が得られる。   Then, the lane yaw angle feedback control unit 48b multiplies the road curvature input value κmc from the road curvature input value calculation unit 43 by the vehicle speed V to calculate a yaw rate (dΨmc / dt) corresponding to the road curvature input value κmc. . Here, as described above, since the road curvature input value κmc is accurately calculated according to the reliability of the image information and the map information, the yaw rate (dΨmc / dt) according to the road curvature input value κmc is also accurate. A good value is obtained.

この道路曲率入力値κmcに応じたヨーレート(dΨmc/dt)と車両挙動推定部48aからのヨーレート(dΨovs/dt)との差分は、車線に対するヨーレートとなり、これの積算によって、対車線ヨー角Ψovsを算出する。   The difference between the yaw rate (dΨmc / dt) corresponding to the road curvature input value κmc and the yaw rate (dΨovs / dt) from the vehicle behavior estimation unit 48a is the yaw rate with respect to the lane. calculate.

対車線ヨー角フィードバック制御部48bでは、上述の如く算出した対車線ヨー角Ψovsについて、対車線ヨー角入力値算出部45からの対車線ヨー角入力値Ψmcでフィードバック制御を行って車線内横位置フィードバック制御部48cに出力する。ここで、前述したように、対車線ヨー角入力値算出部45からの対車線ヨー角入力値Ψmcは、画像情報と地図情報の信頼度に応じて精度良く算出されているので、対車線ヨー角Ψovsも精度の良い値が得られる。   The anti-lane yaw angle feedback control unit 48b performs feedback control on the anti-lane yaw angle Ψovs calculated as described above using the anti-lane yaw angle input value Ψmc from the anti-lane yaw angle input value calculation unit 45 to perform lateral position in the lane. It outputs to the feedback control part 48c. Here, as described above, the anti-lane yaw angle input value Ψmc from the anti-lane yaw angle input value calculation unit 45 is calculated with high accuracy according to the reliability of the image information and the map information. The angle Ψovs can also be obtained with high accuracy.

また、フィードバック量を決定する対車線ヨー角フィードバックゲインK2は、前述の如く、対車線ヨー角の環境検出信頼度R2に応じて設定され、画像情報と地図情報による車線情報が共に低い場合は小さく設定される。また、車線の並走車の存在状態に応じて補正され、車線に並走車が存在する場合は、本実施の形態の車両モデルで計算されるヨーレート(dΨovs/dt)に外乱が含まれる虞があるため、対車線ヨー角フィードバックゲインK2が増大補正される。これにより対車線ヨー角フィードバック制御部48bで算出される対車線ヨー角Ψovsの精度が良好に保たれる。   Further, as described above, the anti-lane yaw angle feedback gain K2 that determines the feedback amount is set according to the environment detection reliability R2 of the anti-lane yaw angle, and is small when the image information and the lane information based on the map information are both low. Is set. Further, if there is a parallel vehicle in the lane, which is corrected according to the presence state of the parallel vehicle in the lane, the yaw rate (dΨovs / dt) calculated by the vehicle model of the present embodiment may include disturbance. Therefore, the anti-lane yaw angle feedback gain K2 is corrected to increase. As a result, the accuracy of the anti-lane yaw angle ψovs calculated by the anti-lane yaw angle feedback control unit 48b is kept good.

車線内横位置フィードバック制御部48cは、車速センサ33から車速Vが入力され、車線内横位置フィードバックゲイン設定部46から車線内横位置フィードバックゲインK3が入力され、車線内横位置入力値算出部47から車線内横位置入力値ymcが入力され、車両挙動推定部48aから車体すべり角βovsが入力され、対車線ヨー角フィードバック制御部48bから対車線ヨー角Ψovsが入力される。   The in-lane lateral position feedback control unit 48c receives the vehicle speed V from the vehicle speed sensor 33, the in-lane lateral position feedback gain setting unit 46 receives the in-lane lateral position feedback gain K3, and the in-lane lateral position input value calculation unit 47. Is input from the vehicle behavior estimation unit 48a, the vehicle slip angle βovs is input from the vehicle behavior estimation unit 48a, and the anti-lane yaw angle ψovs is input from the anti-lane yaw angle feedback control unit 48b.

そして、車線内横位置フィードバック制御部48cは、車体すべり角βovsと対車線ヨー角Ψovsとを加算し、車速Vを乗算して積算し、車線内横位置yovsを算出する。   Then, the in-lane lateral position feedback control unit 48c adds the vehicle body slip angle βovs and the anti-lane yaw angle ψovs, multiplies the vehicle speed V, and calculates the in-lane lateral position yovs.

車線内横位置フィードバック制御部48cでは、この算出した車線内横位置yovsについて、車線内横位置入力値算出部47からの車線内横位置入力値ymcでフィードバック制御を行って出力する。ここで、前述したように、車線内横位置入力値算出部47からの車線内横位置入力値ymcは、画像情報と地図情報の信頼度に応じて精度良く算出されているので、車線内横位置yovsも精度の良い値が得られる。   The in-lane lateral position feedback control unit 48c performs feedback control on the calculated in-lane lateral position yovs using the in-lane lateral position input value ymc from the in-lane lateral position input value calculation unit 47, and outputs it. Here, as described above, the in-lane lateral position input value ymc from the in-lane lateral position input value calculating unit 47 is accurately calculated according to the reliability of the image information and the map information. The position yovs can also be obtained with high accuracy.

また、フィードバック量を決定する車線内横位置フィードバックゲインK3は、前述の如く、車線内横位置に応じた環境検出信頼度R3に応じて設定され、画像情報と地図情報による車線情報が共に低い場合は小さく設定される。また、車線の並走車の存在状態に応じて補正され、車線に並走車が存在する場合は、本実施の形態の車両モデルで計算されるヨーレート(dΨovs/dt)に外乱が含まれる虞があるため、車線内横位置フィードバックゲインK3が増大補正される。これにより車線内横位置フィードバック制御部48cで算出される車線内横位置yovsの精度が良好に保たれる。   Further, as described above, the in-lane lateral position feedback gain K3 for determining the feedback amount is set according to the environment detection reliability R3 corresponding to the in-lane lateral position, and the lane information based on the image information and the map information is low. Is set small. Further, if there is a parallel vehicle in the lane, which is corrected according to the presence state of the parallel vehicle in the lane, the yaw rate (dΨovs / dt) calculated by the vehicle model of the present embodiment may include disturbance. Therefore, the lateral position feedback gain K3 in the lane is corrected to increase. As a result, the accuracy of the in-lane lateral position yovs calculated by the in-lane lateral position feedback control unit 48c is kept good.

このように、走行制御部48は、車両パラメータ推定手段、制御用車線情報算出手段として設けられている。   Thus, the traveling control unit 48 is provided as vehicle parameter estimation means and control lane information calculation means.

操舵制御部49は、走行制御部48を経て、車速V、操舵角θH、ヨーレート(dΨs/dt)、道路曲率入力値κmc、対車線ヨー角入力値Ψmc、車線内横位置入力値ymc、ヨーレート(dΨovs/dt)、車体すべり角βovs、対車線ヨー角Ψovs、車線内横位置yovs等の情報が入力される。   The steering control unit 49 passes through the travel control unit 48, the vehicle speed V, the steering angle θH, the yaw rate (dΨs / dt), the road curvature input value κmc, the anti-lane yaw angle input value Ψmc, the in-lane lateral position input value ymc, and the yaw rate. Information such as (dΨovs / dt), vehicle slip angle βovs, anti-lane yaw angle Ψovs, and lateral position yovs in the lane is input.

そして、例えば、以下の(18)式により、目標操舵角θtを算出してモータ駆動部21に出力する。
θt=Gff・κmc+Gfb・(yovs−yt)+Gfby・(Ψovs−Ψt)…(18)
ここで、Gff、Gfb、Gfbyは予め設定しておいた定数である。また、ytは追従制御する目標コースの車線内横位置の目標値、Ψtは追従制御する目標コースに対する対車線ヨー角の目標値であり、車線中央を目標コースとし、車線と略平行に走行することを目標とするのであれば、本実施の形態による対車線ヨー角Ψovs、車線内横位置yovsの定義であれば、それぞれ0とする。
Then, for example, the target steering angle θt is calculated and output to the motor drive unit 21 by the following equation (18).
θt = Gff · κmc + Gfb · (yovs−yt) + Gfby · (Ψovs−Ψt) (18)
Here, Gff, Gfb, and Gfby are preset constants. Also, yt is the target value of the lateral position in the lane of the target course to be tracked, and Ψt is the target value of the lane yaw angle with respect to the target course to be tracked, and the lane center is the target course, and the vehicle travels substantially parallel to the lane. If this is the goal, the definition of the anti-lane yaw angle ψovs and the in-lane lateral position yovs according to the present embodiment is 0 respectively.

このように、操舵制御部49は操舵制御手段として設けられている。   Thus, the steering control unit 49 is provided as a steering control means.

次に、上述の制御ユニット20で実行される操舵制御を、図4のフローチャートで説明する。   Next, the steering control executed by the control unit 20 will be described with reference to the flowchart of FIG.

まず、ステップ(以下、「S」と略称)101で、環境検出信頼度設定部41は、前方環境認識装置31、ナビゲーションシステム32の信頼度Rc、Rmを読み込む。   First, in step (hereinafter abbreviated as “S”) 101, the environment detection reliability setting unit 41 reads the reliability Rc and Rm of the forward environment recognition device 31 and the navigation system 32.

次いで、S102に進み、環境検出信頼度設定部41は、それぞれの信頼度の組み合わせに応じて環境検出信頼度R1、R2、R3を設定する。   Next, in S102, the environment detection reliability setting unit 41 sets environment detection reliability R1, R2, R3 according to the combination of the respective reliability.

次に、S103に進んで、道路曲率入力値算出部43で画像情報に基づく道路曲率κc、対車線ヨー角入力値算出部45で画像情報に基づく対車線ヨー角Ψc、車線内横位置入力値算出部47で画像情報に基づく車線内横位置ycを読み込む。   Next, proceeding to S103, the road curvature input value calculation unit 43 uses the road curvature κc based on the image information, the anti-lane yaw angle input value calculation unit 45 uses the anti-lane yaw angle Ψc based on the image information, and the in-lane lateral position input value. The calculation unit 47 reads the lateral position yc in the lane based on the image information.

次いで、S104に進み、道路曲率入力値算出部43で地図情報に基づく道路曲率κm、対車線ヨー角入力値算出部45で地図情報に基づく対車線ヨー角Ψm、車線内横位置入力値算出部47で地図情報に基づく車線内横位置ymを読み込む。   Next, in S104, the road curvature input value calculation unit 43 uses the road curvature κm based on the map information, the anti-lane yaw angle input value calculation unit 45 uses the map information based on the map information, and the in-lane lateral position input value calculation unit. In 47, the lateral position ym in the lane based on the map information is read.

次に、S105に進んで、ヨーレートセンサフィードバックゲイン設定部42で、前述の(5)式で示す操舵特性に応じてヨーレートセンサフィードバックゲインK1を設定する。また、対車線ヨー角フィードバックゲイン設定部44で、対車線ヨー角に応じた環境検出信頼度R2に基づいて、例えば、図6に示すようなテーブルを参照して対車線ヨー角フィードバックゲインK2を設定する。更に、車線内横位置フィードバックゲイン設定部46で、車線内横位置に応じた環境検出信頼度R3に基づいて、例えば、図7に示すようなテーブルを参照して車線内横位置フィードバックゲインK3を設定する。   Next, proceeding to S105, the yaw rate sensor feedback gain setting unit 42 sets the yaw rate sensor feedback gain K1 in accordance with the steering characteristic shown by the above-described equation (5). Further, the anti-lane yaw angle feedback gain setting unit 44 sets the anti-lane yaw angle feedback gain K2 with reference to a table as shown in FIG. 6 based on the environment detection reliability R2 corresponding to the anti-lane yaw angle, for example. Set. Further, the in-lane lateral position feedback gain setting unit 46 sets the in-lane lateral position feedback gain K3 based on the environment detection reliability R3 corresponding to the lateral position in the lane with reference to, for example, a table as shown in FIG. Set.

次いで、S106に進み、道路曲率入力値算出部43で、前述の(6)式により、道路曲率入力値κmcを算出し、対車線ヨー角入力値算出部45で、前述の(7)式により、対車線ヨー角入力値Ψmcを算出し、車線内横位置入力値算出部47で、前述の(8)式により、車線内横位置入力値ymcを算出する。   Next, the process proceeds to S106, where the road curvature input value calculation unit 43 calculates the road curvature input value κmc by the above-described equation (6), and the anti-lane yaw angle input value calculation unit 45 calculates the above-described equation (7). The lane yaw angle input value Ψmc is calculated, and the in-lane lateral position input value calculation unit 47 calculates the in-lane lateral position input value ymc by the above-described equation (8).

次に、S107に進み、走行制御部48で制御用の車線情報(対車線ヨー角Ψovs、車線内横位置yovs)を算出する。   In step S107, the travel control unit 48 calculates control lane information (to-lane yaw angle ψovs, in-lane lateral position yovs).

次いで、S108に進んで、操舵制御部49は、例えば、前述の(18)式により、目標操舵角θtを算出してモータ駆動部21に出力する。尚、操舵制御に用いるパラメータは、必要に応じて走行制御部48等から読み込む。   Next, the process proceeds to S108, where the steering control unit 49 calculates the target steering angle θt and outputs the target steering angle θt to the motor drive unit 21 by, for example, the aforementioned equation (18). The parameters used for steering control are read from the travel control unit 48 or the like as necessary.

本発明によりで取得する車線情報の一例を図10のタイムチャートで説明する。   An example of the lane information acquired by the present invention will be described with reference to the time chart of FIG.

図10(a)は、画像情報の信頼度Rcと地図情報の信頼度Rmを示し、本例では、時刻t1までは、画像情報と地図情報の信頼度Rc、Rmは共に、1であり、時刻t1からは、画像情報の信頼度Rcが略0に低下した例となっている。尚、地図情報の信頼度Rmは、引き続き1のままである。   FIG. 10A shows the reliability Rc of the image information and the reliability Rm of the map information. In this example, the reliability Rc and Rm of the image information and the map information are both 1 until time t1. From the time t1, the reliability Rc of the image information is reduced to substantially 0. Note that the reliability Rm of the map information continues to be 1.

このため、時刻t1から採用される車線情報は、地図情報による車線情報の方が採用比率が高められる。   For this reason, as for the lane information adopted from the time t1, the lane information based on the map information has a higher adoption ratio.

従って、図10(c)の対車線ヨー角Ψ、図10(d)の車線内横位置yのタイムチャートに示すように、時刻t1の後、時刻t2になると、画像情報による対車線ヨー角Ψc、画像情報による車線内横位置ycの信号に乱れが表れるが、地図情報による対車線ヨー角Ψm、画像情報による車線内横位置ymの信号には乱れは生じておらず、この地図情報による車線情報の採用比率が高められた精度の良い車線情報によって車両の2輪モデルによるフィードバック制御が行われ、車両の2輪モデルからの対車線ヨー角Ψovs、画像情報による車線内横位置yovsの信号も不自然に変動すること無く精度良く保たれる。   Accordingly, as shown in the time chart of the anti-lane yaw angle Ψ in FIG. 10C and the lateral position y in the in-lane in FIG. 10D, at time t2 after time t1, the anti-lane yaw angle based on the image information is obtained. Disturbance appears in the signal of the lateral position yc in the lane based on Ψc and image information, but no disturbance occurs in the signal of the lateral ym position ym in the lane based on the map information and the lateral information in the lane based on the map information. Feedback control by the two-wheel model of the vehicle is performed by the accurate lane information with an increased lane information adoption ratio, and the signal of the lane yaw angle ψovs to the lane from the two-wheel model of the vehicle and the lateral position yovs in the lane by image information Is kept accurate without fluctuating unnaturally.

このように、本発明の実施の形態によれば、画像情報と地図情報の信頼度に応じて画像情報と地図情報の採用比率を可変して車線情報を検出する。また、入力される操舵角θHに対して出力される車両挙動を車両の2輪モデルで推定する。そして、推定した車両挙動に基づき、車両が走行する車線に対する車線情報(対車線ヨー角Ψovs、車線内横位置yovs)に、検出した車線情報をその信頼度に応じた可変設定でフィードバックして制御用車線情報として算出し、この制御用車線情報に基づいて操舵制御する。   Thus, according to the embodiment of the present invention, the lane information is detected by changing the adoption ratio of the image information and the map information according to the reliability of the image information and the map information. Moreover, the vehicle behavior output with respect to the input steering angle (theta) H is estimated with the two-wheel model of a vehicle. Based on the estimated vehicle behavior, the detected lane information is fed back to the lane information (the lane yaw angle ψovs, the lateral position yovs in the lane) for the lane on which the vehicle travels, with variable settings corresponding to the reliability. The vehicle lane information is calculated, and steering control is performed based on the control lane information.

このため、画像情報と地図情報の状態により適切な採用比率で精度良く設定された入力値が車両の2輪モデルにフィードバックされるので精度の良い制御用車線情報を得ることができる。この際、画像情報と地図情報の採用比率も走行する環境状態(雨天路、雪路)等で適切に補正して可変するので精度の良い制御用車線情報を得ることができる。また、2輪モデルへの車線情報の入力値のフィードバック量も、車線情報の信頼度に応じて可変されるので2輪モデルによるフィードバック制御も良好に保たれる。更に、オブザーバで構成した2輪モデルでのフィードバック制御を行うにあたり、車両の操舵特性から、この2輪モデルでは精度良く車両挙動を推定できないと判断できる場合には、車両挙動の検出値のフィードバック量を強めるように可変するようになっているので、2輪モデルによる誤差を少なくすることができる。また、並走車が存在する場合等、車両の2輪モデルによる推定値に外乱が含まれると推定される場合は、車線情報入力値のフィードバック量を増加させるので精度の良い制御用車線情報を得ることができる。   For this reason, since the input value accurately set at an appropriate adoption ratio according to the state of the image information and the map information is fed back to the two-wheel model of the vehicle, accurate control lane information can be obtained. At this time, since the adoption ratio of the image information and the map information is also appropriately corrected and varied depending on the traveling environment condition (rainy road, snowy road), etc., accurate control lane information can be obtained. In addition, since the feedback amount of the input value of the lane information to the two-wheel model is also variable according to the reliability of the lane information, the feedback control by the two-wheel model is also kept good. Furthermore, when performing feedback control with a two-wheel model configured with an observer, if it can be determined from the steering characteristics of the vehicle that the vehicle behavior cannot be accurately estimated with this two-wheel model, the feedback amount of the detected value of the vehicle behavior Therefore, the error due to the two-wheel model can be reduced. Also, when it is estimated that disturbance is included in the estimated value by the two-wheel model of the vehicle, such as when there is a parallel running vehicle, the feedback amount of the lane information input value is increased, so accurate control lane information is displayed. Can be obtained.

このように、本発明による車両の走行制御装置によれば、予め観測値と推定値の誤差による影響を考慮することなく、観測値の揺らぎや誤差を適切に修正して精度良く推定値を求めることができ、車線を操舵するのに必要な様々な情報をスムーズに求め、自然な操舵制御を実行することが可能となる。   As described above, according to the vehicle travel control apparatus of the present invention, the estimated value is obtained with high accuracy by appropriately correcting the fluctuation or error of the observed value without considering the influence of the error between the observed value and the estimated value in advance. It is possible to obtain various information necessary for steering the lane smoothly and execute natural steering control.

尚、本実施の形態による、環境検出信頼度設定部41における道路曲率に応じた環境検出信頼度R1、対車線ヨー角に応じた環境検出信頼度R2、車線内横位置に応じた環境検出信頼度R3の設定や、図5、図6、図7に示す、a1〜a6、K2、K3の数値はあくまでも一例にすぎず、仕様により異なった値としても良い。   According to the present embodiment, the environment detection reliability R1 according to the road curvature in the environment detection reliability setting unit 41, the environment detection reliability R2 according to the lane yaw angle, and the environment detection reliability according to the lateral position in the lane. The setting of the degree R3 and the numerical values of a1 to a6, K2, and K3 shown in FIGS. 5, 6, and 7 are merely examples, and may be different values depending on the specifications.

また、環境検出信頼度R1、R2、R3の信頼度を0〜30まで、線形に設定して様々な走行環境に対応できるようにしても良い。例えば、トンネル入口付近では、自車付近はトンネル外部であるため見えるが、前方のトンネル内部は暗いためカメラでは見えにくい走行環境となる。換言すれば、R1、R2は地図の信頼度が高くなるが、R3ではカメラ信頼度が高くなる。従って、トンネル入口付近では、R1=11としてa1<a2とし、R2=13としてa3<a4とし、R3=18としてa5>a6とするのである。   Further, the reliability of the environment detection reliability R1, R2, and R3 may be set linearly from 0 to 30 so as to be compatible with various traveling environments. For example, in the vicinity of the entrance of the tunnel, the vicinity of the vehicle is visible because it is outside the tunnel, but the interior of the tunnel ahead is dark, making it difficult to see with a camera. In other words, R1 and R2 have high map reliability, but R3 has high camera reliability. Therefore, near the tunnel entrance, R1 = 11 and a1 <a2, R2 = 13 and a3 <a4, and R3 = 18 and a5> a6.

1 電動パワーステアリング装置
2 ステアリング軸
4 ステアリングホイール
5 ピニオン軸
10L、10R 車輪
12 電動モータ
20 制御ユニット
21 モータ駆動部
31 前方環境認識装置
32 ナビゲーションシステム
33 車速センサ
34 操舵角センサ
35 ヨーレートセンサ(車両挙動検出手段)
36 操舵トルクセンサ
41 環境検出信頼度設定部
42 ヨーレートセンサフィードバックゲイン設定部(フィードバック量可変手段)
43 道路曲率入力値算出部(車線情報検出手段、フィードバック量可変手段)
44 対車線ヨー角フィードバックゲイン設定部(フィードバック量可変手段)
45 対車線ヨー角入力値算出部(車線情報検出手段、フィードバック量可変手段)
46 車線内横位置フィードバックゲイン設定部(フィードバック量可変手段)
47 車線内横位置入力値算出部(車線情報検出手段、フィードバック量可変手段)
48 走行制御部(車両パラメータ推定手段、制御用車線情報算出手段)
48a 車両挙動推定部
48b 対車線ヨー角フィードバック制御部
48c 車線内横位置フィードバック制御部
49 操舵制御部(操舵制御手段)
DESCRIPTION OF SYMBOLS 1 Electric power steering apparatus 2 Steering shaft 4 Steering wheel 5 Pinion shaft 10L, 10R Wheel 12 Electric motor 20 Control unit 21 Motor drive part 31 Front environment recognition apparatus 32 Navigation system 33 Vehicle speed sensor 34 Steering angle sensor 35 Yaw rate sensor (vehicle behavior detection) means)
36 Steering torque sensor 41 Environment detection reliability setting unit 42 Yaw rate sensor feedback gain setting unit (feedback amount variable means)
43 Road curvature input value calculation unit (lane information detection means, feedback amount variable means)
44 On-lane yaw angle feedback gain setting unit (feedback amount variable means)
45 lane yaw angle input value calculation unit (lane information detection means, feedback amount variable means)
46 Lateral position feedback gain setting section in lane (feedback amount variable means)
47 Lateral position input value calculation unit in lane (lane information detection means, feedback amount variable means)
48 Travel control unit (vehicle parameter estimation means, control lane information calculation means)
48a Vehicle behavior estimation unit 48b Lane-to-lane yaw angle feedback control unit 48c Lane lateral position feedback control unit 49 Steering control unit (steering control means)

等価コーナリングパワKf,Krの中でロールやサスペンションの影響は考慮されているので、この等価コーナリングパワKf,Krを用いて、前後輪の横すべり角αf,αrは、前後輪舵角をδf、ステアリングギヤ比をnとして以下のように簡略化できる。 Since the effects of rolls and suspensions are taken into account in the equivalent cornering powers Kf and Kr, the front and rear wheel side slip angles αf and αr are calculated using the equivalent cornering powers Kf and Kr as the front and rear wheel steering angles δf , The tearing gear ratio can be simplified as follows, where n is n.

αf=δf−(β+Lf・(dΨ/dt)/V)
=(θH/n)−(β+Lf・(dΨ/dt)/V) …(15)
αr=−(β−Lr・(dΨ/dt)/V) …(16)
以上の運動方程式をまとめると、以下の(17)式で示す状態方程式が得られ、図3の車両挙動推定部48aのオブザーバの構成で表現される。このオブザーバにより、入力される操舵角θHに対して生じる車両挙動(ヨーレート(dΨovs/dt)、車体すべり角βovs、横加速度Gyovs)が推定される。

Figure 2017030396
αf = δf− (β + Lf · (dΨ / dt) / V)
= (ΘH / n) − (β + Lf · (dΨ / dt) / V) (15)
αr = − (β−Lr · (dΨ / dt) / V) (16)
Summarizing the above equation of motion, the state equation shown in the following equation (17) is obtained, and is expressed by the configuration of the observer of the vehicle behavior estimation unit 48a in FIG. The observer estimates the vehicle behavior (yaw rate (dΨovs / dt), vehicle slip angle βovs, lateral acceleration Gyovs) generated with respect to the input steering angle θH.
Figure 2017030396

Claims (7)

車線情報を検出する車線情報検出手段と、
入力値に対して出力される車両パラメータを車両モデルで推定する車両パラメータ推定手段と、
上記車両パラメータ推定手段で推定した上記車両パラメータに基づき、上記車線情報をフィードバックして制御用車線情報を算出する制御用車線情報算出手段と、
上記制御用車線情報算出手段にフィードバックする上記車線情報を該車線情報の信頼度に応じて可変設定するフィードバック量可変手段と、
上記制御用車線情報に基づいて操舵制御を行う操舵制御手段と、
を備えたことを特徴とする車両の走行制御装置。
Lane information detection means for detecting lane information;
Vehicle parameter estimation means for estimating a vehicle parameter output with respect to an input value by a vehicle model;
Control lane information calculation means for calculating control lane information by feeding back the lane information based on the vehicle parameters estimated by the vehicle parameter estimation means;
Feedback amount variable means for variably setting the lane information to be fed back to the control lane information calculation means according to the reliability of the lane information;
Steering control means for performing steering control based on the control lane information;
A travel control device for a vehicle, comprising:
上記フィードバック量可変手段は、上記車線情報の信頼度が低い場合ほど上記制御用車線情報算出手段でフィードバックする上記車線情報を低く設定することを特徴とする請求項1記載の車両の走行制御装置。   2. The vehicle travel control device according to claim 1, wherein the feedback amount variable means sets the lane information to be fed back by the control lane information calculation means as the reliability of the lane information is lower. 上記車線情報検出手段は、画像情報と地図情報とから上記車線情報を検出するものであって、
上記画像情報の信頼度と上記地図情報の信頼度とに応じて上記画像情報からの車線情報と上記地図情報からの車線情報の採用比率を可変することを特徴とする請求項1又は請求項2記載の車両の走行制御装置。
The lane information detection means detects the lane information from image information and map information,
3. The adoption ratio of the lane information from the image information and the lane information from the map information is varied according to the reliability of the image information and the reliability of the map information. The vehicle travel control apparatus described.
上記車線情報検出手段が、上記車線情報で雨天路や雪路を検出した場合、上記車線情報検出手段は、上記画像情報に基づく車線情報の比率を低下させる一方、上記地図情報に基づく車線情報の比率を増加させることを特徴とする請求項3記載の車両の走行制御装置。   When the lane information detecting means detects a rainy road or a snowy road with the lane information, the lane information detecting means reduces the ratio of the lane information based on the image information, while the lane information detecting means 4. The travel control device for a vehicle according to claim 3, wherein the ratio is increased. 車両挙動を検出する車両挙動検出手段を備え、
上記車両パラメータ推定手段は、少なくとも上記車両挙動の検出値を上記車両モデルにフィードバックして上記車両パラメータを推定するものであって、
上記フィードバック量可変手段は、上記車両挙動の検出値から上記車両モデルの計算誤差が増加すると判断した場合は、上記車両モデルにフィードバックする上記車両挙動の検出値を増加補正することを特徴とする請求項1乃至請求項4の何れか一つに記載の車両の走行制御装置。
Vehicle behavior detection means for detecting the vehicle behavior,
The vehicle parameter estimation means estimates the vehicle parameter by feeding back at least a detection value of the vehicle behavior to the vehicle model,
The feedback amount varying means corrects the detected value of the vehicle behavior to be fed back to the vehicle model when the calculation error of the vehicle model increases from the detected value of the vehicle behavior. The travel control device for a vehicle according to any one of claims 1 to 4.
車両挙動を検出する車両挙動検出手段を備え、
上記車両パラメータ推定手段は、少なくとも上記車両挙動の検出値を上記車両モデルにフィードバックして上記車両パラメータを推定するものであって、
上記車線情報検出手段が、自車両の他に並走車が存在することを検出した場合、上記フィードバック量可変手段は、上記車両パラメータ推定手段にフィードバックする上記車線情報を増大補正することを特徴とする請求項1乃至請求項5の何れか一つに記載の車両の走行制御装置。
Vehicle behavior detection means for detecting the vehicle behavior,
The vehicle parameter estimation means estimates the vehicle parameter by feeding back at least a detection value of the vehicle behavior to the vehicle model,
When the lane information detection means detects that there is a parallel running vehicle in addition to the host vehicle, the feedback amount variable means increases and corrects the lane information fed back to the vehicle parameter estimation means. The vehicle travel control device according to any one of claims 1 to 5.
上記車両挙動検出手段で検出する車両挙動は、車両のヨーレートであることを特徴とする請求項5又は請求項6記載の車両の走行制御装置。   The vehicle travel control device according to claim 5 or 6, wherein the vehicle behavior detected by the vehicle behavior detection means is a yaw rate of the vehicle.
JP2015149853A 2015-07-29 2015-07-29 Vehicle travel control device Active JP6579699B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015149853A JP6579699B2 (en) 2015-07-29 2015-07-29 Vehicle travel control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015149853A JP6579699B2 (en) 2015-07-29 2015-07-29 Vehicle travel control device

Publications (2)

Publication Number Publication Date
JP2017030396A true JP2017030396A (en) 2017-02-09
JP6579699B2 JP6579699B2 (en) 2019-09-25

Family

ID=57986472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015149853A Active JP6579699B2 (en) 2015-07-29 2015-07-29 Vehicle travel control device

Country Status (1)

Country Link
JP (1) JP6579699B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107521496A (en) * 2017-09-08 2017-12-29 吉林大学 A kind of transverse and longitudinal of vehicle coordinates control track follow-up control method
JP2018176939A (en) * 2017-04-11 2018-11-15 三菱電機株式会社 Vehicle steering control device and vehicle steering control method
JP2019159756A (en) * 2018-03-13 2019-09-19 パナソニックIpマネジメント株式会社 Vehicle control device and computer program
JP2022504457A (en) * 2018-10-24 2022-01-13 ウェイモ エルエルシー Autonomous vehicle traffic light detection and lane status recognition
WO2023017625A1 (en) * 2021-08-11 2023-02-16 Hitachi Astemo, Ltd. Drive device, vehicle, and method for automated driving and/or assisted driving
JP7241837B1 (en) 2021-09-29 2023-03-17 三菱電機株式会社 Driving lane recognition device and driving lane recognition method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005178704A (en) * 2003-12-24 2005-07-07 Aisin Seiki Co Ltd Lane running support device for vehicle
JP2006123589A (en) * 2004-10-26 2006-05-18 Honda Motor Co Ltd Vehicular running safety device
JP2007302204A (en) * 2006-05-15 2007-11-22 Toyota Motor Corp Travel control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005178704A (en) * 2003-12-24 2005-07-07 Aisin Seiki Co Ltd Lane running support device for vehicle
JP2006123589A (en) * 2004-10-26 2006-05-18 Honda Motor Co Ltd Vehicular running safety device
JP2007302204A (en) * 2006-05-15 2007-11-22 Toyota Motor Corp Travel control device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018176939A (en) * 2017-04-11 2018-11-15 三菱電機株式会社 Vehicle steering control device and vehicle steering control method
CN107521496A (en) * 2017-09-08 2017-12-29 吉林大学 A kind of transverse and longitudinal of vehicle coordinates control track follow-up control method
JP2019159756A (en) * 2018-03-13 2019-09-19 パナソニックIpマネジメント株式会社 Vehicle control device and computer program
US11377103B2 (en) 2018-03-13 2022-07-05 Panasonic Intellectual Property Management Co., Ltd. Vehicle control device and recording medium
JP7108916B2 (en) 2018-03-13 2022-07-29 パナソニックIpマネジメント株式会社 vehicle controller
JP2022504457A (en) * 2018-10-24 2022-01-13 ウェイモ エルエルシー Autonomous vehicle traffic light detection and lane status recognition
JP7150159B2 (en) 2018-10-24 2022-10-07 ウェイモ エルエルシー Autonomous Vehicle Traffic Light Detection and Lane State Recognition
US11645852B2 (en) 2018-10-24 2023-05-09 Waymo Llc Traffic light detection and lane state recognition for autonomous vehicles
WO2023017625A1 (en) * 2021-08-11 2023-02-16 Hitachi Astemo, Ltd. Drive device, vehicle, and method for automated driving and/or assisted driving
JP7241837B1 (en) 2021-09-29 2023-03-17 三菱電機株式会社 Driving lane recognition device and driving lane recognition method
JP2023049128A (en) * 2021-09-29 2023-04-10 三菱電機株式会社 Travel lane recognition apparatus and travel lane recognition method

Also Published As

Publication number Publication date
JP6579699B2 (en) 2019-09-25

Similar Documents

Publication Publication Date Title
JP6055525B1 (en) Vehicle travel control device
JP6087969B2 (en) Vehicle travel control device
US9586620B2 (en) Travel control apparatus for vehicle
JP6579699B2 (en) Vehicle travel control device
JP6055528B1 (en) Vehicle steering control device
JP6082415B2 (en) Vehicle travel control device
US20180273026A1 (en) Vehicle traveling control apparatus
CN104742959B (en) The track of vehicle keeps control device
CA3074414A1 (en) Method for correcting position error and device for correcting position error in drive-assisted vehicle
JP6831734B2 (en) Vehicle travel control device
US20170240171A1 (en) Method for modifying steering of an automated vehicle for improved passenger comfort
US11505191B2 (en) Vehicle traveling control device
JP6842339B2 (en) Vehicle travel control device
JP6898636B2 (en) Vehicle travel control device
CN116080754B (en) Transverse control method for autonomous driving of vehicle
JP6595867B2 (en) Vehicle automatic operation control device
JP6535561B2 (en) Vehicle travel control device
JP6706166B2 (en) Vehicle running control device
JP6496588B2 (en) Vehicle behavior control device
JP6654962B2 (en) Vehicle steering control device
JP7245069B2 (en) Vehicle travel control device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6579699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250