WO2019043831A1 - 運転支援車両の位置誤差補正方法及び位置誤差補正装置 - Google Patents

運転支援車両の位置誤差補正方法及び位置誤差補正装置 Download PDF

Info

Publication number
WO2019043831A1
WO2019043831A1 PCT/JP2017/031166 JP2017031166W WO2019043831A1 WO 2019043831 A1 WO2019043831 A1 WO 2019043831A1 JP 2017031166 W JP2017031166 W JP 2017031166W WO 2019043831 A1 WO2019043831 A1 WO 2019043831A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
target route
lane
correcting
position error
Prior art date
Application number
PCT/JP2017/031166
Other languages
English (en)
French (fr)
Inventor
孝志 福重
田家 智
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to BR112020004099-1A priority Critical patent/BR112020004099A2/pt
Priority to CA3074413A priority patent/CA3074413A1/en
Priority to RU2020112174A priority patent/RU2741529C1/ru
Priority to CN201780094048.5A priority patent/CN111033593B/zh
Priority to KR1020207006826A priority patent/KR20200030617A/ko
Priority to JP2019538819A priority patent/JP6642772B2/ja
Priority to PCT/JP2017/031166 priority patent/WO2019043831A1/ja
Priority to US16/638,791 priority patent/US11167758B2/en
Priority to EP17923515.5A priority patent/EP3678109B1/en
Priority to MX2020002171A priority patent/MX2020002171A/es
Publication of WO2019043831A1 publication Critical patent/WO2019043831A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0225Failure correction strategy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/20Direction indicator values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/12Lateral speed

Definitions

  • the present disclosure relates to a position error correction method and a position error correction device for a driving support vehicle that corrects an error that occurs between a host vehicle position and a target route during driving support traveling.
  • the present disclosure has been made focusing on the above problem, and it is possible to select whether to give priority to smoothness or not to not protrude according to the scene, and realize more reliable vehicle behavior.
  • the purpose is
  • the present disclosure includes a controller that corrects an error that occurs between the vehicle position and the target route during driving assistance traveling.
  • this position error correction method for a driving assistance vehicle the lane boundary of the lane in which the vehicle travels is detected. The positional relationship between the detected lane boundary and the target route on the map is compared, and if the target route exists within a predetermined distance with respect to the lane boundary, or the target route is opposite to the host vehicle with respect to the lane boundary If present, the target path is corrected by lateral translation.
  • FIG. 1 is an overall system diagram showing an automatic operation control system to which a position error correction method and a position error correction device of Embodiment 1 are applied.
  • FIG. 7 is a perspective view showing a right side recognition camera and a left side recognition camera of the on-vehicle sensors in the first embodiment.
  • FIG. 5 is a perspective view showing a rider provided at left and right positions in front of the vehicle among the on-vehicle sensors in the first embodiment.
  • FIG. 5 is an overall block diagram showing a target path corrector included in the navigation control unit in the first embodiment.
  • FIG. 5 is a detailed block diagram showing a road boundary information integration unit in the target route correction device shown in FIG. 4;
  • FIG. 6 is a detailed block diagram showing an arbitration unit in the road boundary information integration unit shown in FIG.
  • FIG. 5 is a detailed block diagram showing a lateral correction amount calculation unit of the target path correction device shown in FIG. 4; It is operation
  • FIG. 13 is a comparative explanatory view showing the vehicle behavior of the comparative example when entering a narrow lane and the vehicle behavior of Example 1 among the target route correction action.
  • FIG. 13 is a comparative explanatory view showing a vehicle behavior of a comparative example at the time of entering a wide lane and a vehicle behavior of Example 1 among the target route correction action.
  • the position error correction method and the position error correction device use the target route information generated by the navigation control unit, and the automatically driven vehicle (steering / driving / braking is automatically controlled by selection of the automatic driving mode) It applies to an example of a support vehicle.
  • the configuration of the first embodiment will be described as "overall system configuration”, “detailed configuration of navigation control unit”, “overall configuration of target route corrector”, “detailed configuration of road boundary information integration unit”, “horizontal correction amount calculation” It divides into “detailed composition of a part”, and explains.
  • FIG. 1 shows an automatic driving control system to which the position error correction method and the position error correction device of the first embodiment are applied.
  • FIG. 2 shows a right side recognition camera and a left side recognition camera of the on-vehicle sensors
  • FIG. 3 shows riders provided at left and right positions in front of the vehicle of the on-vehicle sensors. The overall system configuration will be described below based on FIGS. 1 to 3.
  • the automatic driving control system includes an on-vehicle sensor 1, an ambient environment recognition unit 2, a navigation control unit 3, an automatic driving control unit 4, and an actuator 5.
  • the surrounding environment recognition unit 2, the navigation control unit 3, and the automatic driving control unit 4 are computers that include arithmetic processing units such as a CPU and execute arithmetic processing.
  • the on-vehicle sensor 1 is a sensor that is mounted on an autonomous driving vehicle and acquires peripheral information of the vehicle. It has a front recognition camera 11, a rear recognition camera 12, a right side recognition camera 13, a left side recognition camera 14, a rider 15, and a radar 16.
  • a vehicle speed sensor, a yaw rate sensor, a winker switch, etc. outside a figure are provided as sensors etc. which acquire information required for automatic driving control other than the circumference information on the self-vehicle.
  • An ambient recognition camera (AVM: around view monitor) is configured by combining the forward recognition camera 11, the backward recognition camera 12, the right side recognition camera 13, and the left side recognition camera 14.
  • AVM around view monitor
  • the object on the road on the vehicle / object on the road outside the vehicle road structure, leading vehicle, following vehicle, oncoming vehicle, oncoming vehicle, surrounding vehicle, pedestrian, bicycle, two-wheeled vehicle
  • Road boundaries, stop lines, pedestrian crossings, road signs (speed limit), etc. are detected.
  • the right side recognition camera 13 is a fisheye camera built in the right side door mirror as shown in FIG. 2 and has a right side white line lateral position detection function.
  • the left side recognition camera 14 is a fisheye camera built in the left side door mirror as shown in FIG. 2 and has a left white line lateral position detection function.
  • the right side white line lateral position means the length from the position of the vehicle width direction center line CL of the vehicle A to the inner end position of the right side white line WR.
  • the left side white line lateral position means the length from the position of the vehicle width direction center line CL of the vehicle A to the inner end position of the left side white line WL.
  • the rider 15 and the radar 16 are disposed at the front end position of the vehicle with the irradiation axis of the output wave directed to the front of the vehicle and receive the reflected wave to detect the presence of an object in front of the vehicle. Detect the distance to the object.
  • a rider / radar is configured by combining two types of distance measurement sensors, the rider 15 and the radar 16, and, for example, a laser radar, a millimeter wave radar, an ultrasonic radar, a laser range finder, etc. can be used. With the rider 15 and the radar 16, the position and objects of the vehicle on the road and objects outside the vehicle (road structures, leading vehicles, following vehicles, oncoming vehicles, oncoming vehicles, pedestrians, bicycles, two-wheelers) etc. Detect the distance of
  • the rider 15 is provided at the front end left and right position of the vehicle A so as to be able to swing downward rightward and downward leftward downward, and detects right curb lateral position detection function and left curb lateral position detection function And.
  • the right side curb lateral position refers to the length from the position of the vehicle width direction center line CL of the vehicle A to the inner end position of the right side curb ER.
  • the left side curb lateral position refers to the length from the position of the vehicle width direction center line CL of the vehicle A to the inner end position of the left side curb EL.
  • the surrounding environment recognition unit 2 inputs image data from each recognition camera 11, 12, 13, 14 and object data from the rider / radar 15, 16.
  • the surrounding environment recognition unit 2 includes a calibration processing unit 21 that generates calibration data of image data and object data, and an object recognition processing unit 22 that performs object recognition processing based on the calibration data.
  • the calibration processing unit 21 estimates parameters of the image data from the recognition cameras 11, 12, 13, 14 and parameters of the object data from the rider / radar 15, 16 and uses the parameters to generate image data or an object. Generate and output calibration data of data. For example, in the case of image data from each of the recognition cameras 11, 12, 13, 14, parameters are used to correct the optical axis and lens distortion.
  • the object recognition processing unit 22 receives the calibration data from the calibration processing unit 21, performs object recognition processing based on the calibration data, and outputs recognition result data.
  • the object recognition processing unit 22 compares, for example, the image data and the object data, and when it is confirmed that the object exists at the position of the object candidate based on the image data, the object recognition processing unit 22 recognizes the presence of the object. Recognize what the object is.
  • the navigation control unit 3 inputs the vehicle position information from the GNSS antenna 31, combines the map data including the road information and the GPS (Global Positioning System) using satellite communication, and searches from the current position to the destination by route search Generate a target route for Then, the generated target route is displayed on the map, and the target route information is output.
  • GPS Global Positioning System
  • GNSS Global Navigation Satellite System: Global Navigation Satellite System
  • GPS Global Positioning System
  • the automatic driving control unit 4 receives the recognition result data from the object recognition processing unit 22 of the surrounding environment recognition unit 2 and the target route information from the navigation control unit 3. Then, based on the input information, a target vehicle speed, a target acceleration and a target deceleration are generated. Furthermore, the drive control command value is calculated from the generated target acceleration, and the calculation result is output to the drive actuator 51. A braking control command value is calculated based on the generated target deceleration, and the calculation result is output to the braking actuator 52. The steering angle control command value is calculated based on the input target route information, and the calculation result is output to the steering angle actuator 53.
  • the actuator 5 has a drive actuator 51, a braking actuator 52, and a steering angle actuator 53.
  • the drive actuator 51 is an actuator that receives a drive control command value from the automatic operation control unit 4 and controls the drive source drive force. That is, in the case of an engine car, an engine actuator is used. In the case of a hybrid vehicle, an engine actuator and a motor actuator are used. In the case of an electric vehicle, a motor actuator is used.
  • the braking actuator 52 is an actuator that receives a braking control command value from the automatic operation control unit 4 and controls the braking force.
  • a hydraulic booster, an electric booster, or the like is used as the brake actuator 52.
  • the steering angle actuator 53 is an actuator that receives a steering angle control command value from the automatic operation control unit 4 and controls the turning angle of the steered wheels.
  • a steering angle control motor or the like is used as the steering angle actuator 53.
  • the navigation control unit 3 includes a GNSS antenna 31, a position information processing unit 32, a destination setting unit 33, a map data storage unit 34, a route search processing unit 35, and a target route correction unit. And a display device 37.
  • the position information processing unit 32 performs detection processing of the latitude / longitude of the stop position of the vehicle and the traveling position of the vehicle based on the satellite communication information input from the GNSS antenna 31.
  • the vehicle position information from the position information processing unit 32 is output to the route search processing unit 35.
  • the destination setting unit 33 performs input setting of the destination of the vehicle by a touch panel operation on the display screen of the display device 37 by the driver or the like.
  • the destination information from the destination setting unit 33 is output to the route search processing unit 35.
  • the map data storage unit 34 is a storage unit of so-called electronic map data in which the latitude and longitude are associated with the map information.
  • the map data has road information associated with each point, and the road information is defined by nodes and links connecting the nodes.
  • the road information includes information specifying the road by the position / area of the road, the road type for each road, the road width for each road, and the shape information of the road.
  • the road information associates and stores information on the position of the intersection, the approach direction of the intersection, the type of the intersection, and other intersections for each identification information of each road link.
  • the road information includes road type, road width, road shape, whether to go straight, whether to advance, whether to overtake (possibility of entering an adjacent lane), speed limit, etc. for each identification information of each road link. Corresponds and stores information on roads in
  • the route search processing unit 35 includes the vehicle position information from the position information processing unit 32, the destination information from the destination setting unit 33, and the road map information (road map data) from the map data storage unit 34. input. Then, a target route is generated by route cost calculation or the like based on the road map information.
  • the target route may be generated using GPS and a map, but instead of using GPS and a map, when a preceding vehicle is present, the traveling route of the preceding vehicle may be used as the target route. In this case, when the positional accuracy of the GPS is low, by using the travel locus as the target route, the parallel movement amount in the target route correction unit 36 described later can be small, and the vehicle behavior can be made smoother.
  • the target path correction unit 36 inputs the recognition result data from the object recognition processing unit 22 and the target path from the route search processing unit 35. Other than the target route, information such as white line lateral distance (left and right), stationary object lateral distance (left and right), curb lateral distance (left and right), usage status of turn signal (winker) by driver, lane change status, vehicle speed etc. Enter Based on the input information, the lane boundary of the lane in which the vehicle travels is detected. Then, the positional relationship between the detected lane boundary and the target route on the map is compared, and if the target route exists within a predetermined distance with respect to the lane boundary, or the target route is with the vehicle relative to the lane boundary If it is on the opposite side, the target path is corrected by lateral translation.
  • the "predetermined distance” is a distance that gives the driver a sense of apprehension when the vehicle approaches the lane boundary, and, for example, about 2 m from the center line of the vehicle's width direction to the lane boundary ( The distance from the side of the vehicle to the lane boundary is approximately 1 m.
  • the target route is corrected by parallel movement in the lateral direction regardless of the distance to the vehicle.
  • the display device 37 inputs the map data information from the map data storage unit 34 and the target route information from the target route corrector 36. Then, the map, the road, the target route, the vehicle position and the destination are displayed on the display screen. That is, the display device 37 provides vehicle position visual information such as where the vehicle is moving on the map during traveling by automatic driving.
  • FIG. 4 shows a target path corrector 36 included in the navigation control unit 3 (controller) in the first embodiment.
  • the overall configuration of the target path correction unit 36 will be described below based on FIG.
  • the target route correction unit 36 sets a navigation error that occurs between the vehicle position and the target route when the vehicle position detected using the navigation information is superimposed on the map information while traveling by automatic driving, Correct by horizontal and parallel movement.
  • the target route correction unit 36 includes a road boundary information integration unit 361 (lane boundary detection unit), a horizontal correction amount calculation unit 362, and a horizontal parallel movement unit 363.
  • the road boundary information integration unit 361 is a white line lateral distance (left and right), a stationary object lateral distance (left and right), a curb lateral distance (left and right), a use condition of a turn indicator (winker) by a driver, a lane change condition, a vehicle speed Enter information such as Then, the lane boundary of the lane in which the host vehicle A travels is detected, and the lateral distance (left and right) between the host vehicle A and the lane boundary is output to the lateral correction amount calculation unit 362.
  • the lateral correction amount calculation unit 362 includes the target route from the route search processing unit 35, the lane boundary lateral distance (left and right) from the road boundary information integration unit 361, the use status of the turn signal by the driver, the lane change status, Input information such as vehicle speed. Then, the positional relationship between the detected lane boundary and the target route on the map is compared, and if the target route exists within a predetermined distance with respect to the lane boundary, or if the target route is the vehicle A with the lane boundary Calculates the lateral correction amount of the target route when it exists on the opposite side.
  • the horizontal parallel movement unit 363 inputs the target path from the route search processing unit 35 and the horizontal correction amount from the horizontal correction amount calculation unit 362. Then, when the horizontal correction amount is calculated, as shown in the lower right frame B of FIG. 4, the target route is corrected by the horizontal parallel displacement by the horizontal correction amount to generate a new target route.
  • the parallel movement correction of the target route when the traveling direction of the host vehicle A and the target route are deviated, the matching between the traveling direction of the host vehicle A and the new target route is enhanced.
  • FIG. 5 shows the road boundary information integration unit 361 of the target route correction unit 36
  • FIG. 6 shows the arbitration unit 361 e of the road boundary information integration unit 361.
  • the detailed configuration of the road boundary information integration unit 361 will be described based on FIGS. 5 and 6.
  • the road boundary information integration unit 361 includes an OR circuit 361a, a selector 361b, a road boundary adjustment unit 361c, an adjustment amount adder 361d, an arbitration unit 361e, and a one side loss complementation unit 361f. And.
  • the selector 361b selects zero (fixed value) as the lateral distance adjustment amount when the driver does not input the use state of the direction indicator by the driver via the OR circuit 361a or the lane change state.
  • a lateral distance adjustment amount that gradually reduces the parallel movement amount of the target route is given. That is, when the target route is moved in parallel in the lateral direction, when the steering operation intervenes by the driver, the parallel movement amount of the target route is gradually decreased, and the steering operation intervention by the driver is determined by the blinker operation by the driver. There is.
  • the road boundary adjustment unit 361c inputs a lateral distance adjustment amount such that the lateral distance increases and the parallel movement correction amount of the target route decreases as the vehicle speed increases.
  • the adjustment amount adder 361 d adds the lateral direction distance adjustment amount from the selector 361 b and the lateral direction distance adjustment amount from the road boundary adjustment unit 361 c, and uses this as the adjustment amount in the arbitration unit 361 e.
  • the arbitration unit 361 e receives the horizontal line lateral distance (left and right), the stationary object lateral direction (left and right), the curb lateral distance (left and right), and the lateral distance adjustment amount from the adjustment amount adder 361 d. Then, the post-mediation road boundary left direction distance and the post-mediation road boundary right direction distance are output. Details of the arbitration unit 361 e will be described later.
  • the one-sided loss time complementation unit 361 f inputs the post-mediation road boundary left direction distance, the post-mediation road boundary right direction distance, and the vehicle speed. Then, when a part of the lateral distance information on one side of the post-mediation road boundary left direction distance and the post-mediation road boundary right direction distance is lost, the lateral distance information on the lost side is complemented by the vehicle speed. Output the boundary lateral distance (left and right).
  • the road is detected within a range of a predetermined distance that changes according to the vehicle speed of the vehicle.
  • a detection value based on the road end closest to the vehicle is used as lane boundary information. This complements the lost lateral distance information.
  • the arbitration unit 361e includes subtractors 361e1, 361e2, 361e3, adders 361e4, 361e5, 361e6, minimum value selector 361e7, maximum value selector 361e8, and final subtractor 361e9. And a final adder 361e10.
  • the subtractor 361e1 and the adder 361e4 of the white line lateral distance are set to zero (fixed value) as the white line lateral direction distance adjustment amount. That is, the "white line” is recognized as the lane end of the target route of the vehicle, and the lateral distance adjustment is not performed.
  • the subtractor 361e2 and the adder 361e5 of the stationary object lateral direction distance have predetermined values (fixed values) as the stationary object lateral direction distance adjustment amount. That is, the "stationary object" is recognized as the road edge on which the vehicle travels, and lateral distance adjustment is performed to acquire lane edge information from the road edge. In other words, when detecting the lane boundary of the lane in which the host vehicle is traveling, if the position of the road end (stationary object) is detected, the inward position of a predetermined width from the detected road end (stationary object) Use as information.
  • the curb lateral distance (left and right) subtractor 361 e 3 and the adder 361 e 6 have predetermined values (fixed values) as the curb lateral distance adjustment amount. That is, “curb” is recognized as the road edge on which the vehicle travels, and lateral distance adjustment is performed to acquire lane edge information from the road edge. In other words, when detecting the lane boundary of the lane in which the vehicle travels, if the position of the road edge (curb) is detected, the inside position of a predetermined width from the detected road edge (curb) is used as lane boundary information use.
  • the minimum value selector 361 e 7 is a white line lateral distance (left) having passed the subtractor 361 e 2, a stationary object lateral direction distance (left) having passed the subtractor 361 e 2, and a curb stone lateral distance (left ), And select the minimum value as the road boundary left direction distance. That is, when detecting the lane boundary of the lane in which the vehicle travels, if both the position of the lane boundary (white line position) and the position of the road end (stationary object position or curb position) are detected, the inner side closer to the vehicle The detected position value is used as lane boundary information.
  • the maximum value selector 361 e 8 is a white line lateral distance (right) passed by the adder 361 e 4, a stationary object lateral distance (right) passed by the adder 361 e 5, and a curb stone lateral distance passed by the adder 361 e 6 (right ), And select the maximum value as the road boundary right direction distance.
  • the final subtractor 361 e 9 subtracts the adjustment amount from the adjustment amount adder 361 d from the road boundary left direction distance from the minimum value selector 361 e 7 to obtain an adjusted road boundary left direction distance.
  • the final adder 361 e 10 adds the adjustment amount from the adjustment amount adder 361 d from the road boundary right direction distance from the maximum value selector 361 e 8 to obtain an adjusted road boundary right direction distance.
  • FIG. 7 shows the lateral correction amount calculation unit 362 of the target path correction unit 36.
  • the detailed configuration of the lateral correction amount calculating unit 362 will be described based on FIG. 7.
  • the lateral correction amount calculator 362 includes a lateral deviation calculator 362a, a positional relationship understanding unit 362b, a lateral correction amount calculator 362c, a change rate maximum value determiner 362d, and a rate limiter 362e. And.
  • the lateral deviation calculation unit 362a receives the target route from the route search processing unit 35, and calculates the lateral deviation Y0 between the target route and the vehicle.
  • the positional relationship understanding unit 362 b inputs the lateral deviation Y 0 from the lateral deviation calculation unit 362 a and the lane boundary lateral distance (left and right) from the road boundary information integration unit 361. Then, the positional relationship between the target route and the lane boundary is understood (understood) by comparing the positional relationship between the target route and the lane edge. At this time, when the target route exists within a predetermined distance with respect to the lane boundary (left) or when the target route exists on the opposite side of the vehicle with respect to the lane boundary (left), the left boundary detection state Output (flag). On the other hand, when the target route exists within a predetermined distance with respect to the lane boundary (right) or when the target route exists on the opposite side of the vehicle with respect to the lane boundary (right), Output the flag).
  • the lateral correction amount calculation unit 362c inputs the left boundary detection situation (flag) and the right boundary detection situation (flag) from the positional relationship understanding unit 362b, and the lane boundary lateral distance (left and right) from the road boundary information integration unit 361. Do. Then, the lateral correction amount of the target route is calculated so that the position of the target route coincides with the position of the vehicle, and the calculation result is output as a lateral correction amount target value.
  • the change rate maximum value determination unit 362d inputs the use condition of the direction indicator by the driver, the lane change condition, the vehicle speed, the left boundary detection condition (flag), and the right boundary detection condition (flag). Then, the lower limit value and the upper limit value of the lateral correction amount change rate (moving speed of the target route) are determined. That is, when the change rate maximum value determination unit 362d corrects the target route by the parallel movement in the horizontal direction, the change rate maximum value determination unit 362d only specifies the moving speed (horizontal correction amount change rate) of the target route parallelly moved in the horizontal direction to a predetermined speed. Rather, it has the function of defining it variably according to the situation. The configuration of the change rate maximum value determination unit 362d will be described in detail later.
  • the rate limiter 362 e receives the horizontal correction amount target value from the change rate maximum value determination unit 362 d and the horizontal correction amount change rate lower limit value and the horizontal correction amount change rate upper limit value from the change rate maximum value determination unit 362 d. Then, the lateral correction amount target value is restricted by the lateral correction amount change rate (the moving speed of the target route) to obtain a lateral correction amount.
  • the change rate maximum value determination unit 362d includes a low vehicle speed change suppression unit 362d1, a first rate switching unit 362d2, a second rate switching unit 362d3, a third rate switching unit 362d4, and a fourth rate switching unit 362d5.
  • a first rate integration unit 362d6 and a second rate integration unit 362d7 are provided.
  • the low vehicle speed change suppressing portion 362d1 inputs the vehicle speed, and determines the vehicle speed corresponding change rate so as to decrease the moving speed of the target route according to the vehicle speed decrease, when the vehicle speed of the own vehicle decreases. Then, when the vehicle stops, the change rate corresponding to the vehicle speed is made zero.
  • the first rate switching unit 362d2 uses the lane change situation as a trigger to select a vehicle speed-compatible change rate in a normal traveling scene without a lane change, and switches the change rate to zero when the lane change situation is input.
  • the third rate switching unit 362d4 uses the right boundary detection state (flag) as a trigger to switch between a large rate (fixed value) and a small rate (fixed value).
  • the fourth rate switching unit 362d5 uses the left boundary detection state (flag) as a trigger to switch between a large rate (fixed value) and a small rate (fixed value).
  • the first rate integration unit 362d6 receives the change rate from the second rate switching unit 362d3 and the change rate from the third rate switching unit 362d4, and calculates the lateral correction amount change rate upper limit value by integrating both change rates. .
  • the second rate integration unit 362d7 receives the change rate from the second rate switching unit 362d3 and the change rate from the fourth rate switching unit 362d5, and calculates the lateral correction amount change rate upper limit value by integrating both change rates. .
  • the change rate maximum value determination unit 362d controls the moving speed (change rate) of the target route listed below.
  • the operation of the first embodiment will be described by dividing it into “target route correction operation”, “vehicle behavior contrast operation at the time of entering a narrow lane,” and “vehicle behavior contrast operation at the time of entering a wide lane”.
  • FIG. 8 shows the target path correction operation performed by the target path correction unit 36 of the navigation control unit 3.
  • the target path correction operation will be described based on FIG.
  • the navigation control unit 3 is provided to correct an error generated between the vehicle position and the target route when the vehicle position detected using the navigation information is superimposed on the map information during automatic driving and traveling.
  • the navigation control unit 3 has a target path corrector 36 that corrects the target path.
  • the target route correction unit 36 includes a road boundary information integration unit 361, a lateral correction amount calculation unit 362, and a lateral parallel movement unit 363.
  • the road boundary information integration unit 361 detects the lane boundary of the lane in which the host vehicle A travels. That is, as shown in FIG. 8, the right side white line WR is detected as a lane boundary by the right side recognition camera 13. The riders 15 and 15 detect the curb ER on the right side road edge and the curb EL on the left side road edge as the road edge. Therefore, in the case shown in FIG. 8, the right lane boundary is located inside the right white line WR, and the left lane boundary is located closer to the vehicle A side from the inside of the curb EL.
  • the lateral correction amount calculation unit 362 the positional relationship between the detected left lane boundary and the right lane boundary and the target route TL on the map is compared.
  • the distance between the target route TL and the left lane boundary is short while the distance between the target route TL and the right lane boundary is sufficiently large. Therefore, based on the determination that the target route TL exists within a predetermined distance from the left lane boundary, the lateral correction amount calculation unit 362 sets the target route TL to the right in FIG. 8 as the lateral correction amount LO of the target route TL. The amount of offset is calculated.
  • FIG. 9 shows the vehicle behavior of the comparative example when entering a narrow lane and the vehicle behavior of Example 1 among the target route correction action.
  • the vehicle behavior contrast action at the time of a narrow lane entry will be described.
  • a navigation example in which the navigation error occurring between the vehicle position and the target route is performed by the self position correction of the vehicle is taken as a comparative example.
  • the vehicle A travels along the traveling line E which is substantially the same as the traveling line D.
  • FIG. 10 shows the vehicle behavior of the comparative example at the time of entering a wide lane and the vehicle behavior of Example 1 among the target route correction functions.
  • the vehicle behavior contrast action at the time of a narrow lane entry will be described.
  • a navigation example in which the navigation error occurring between the vehicle position and the target route is performed by the self position correction of the vehicle is taken as a comparative example.
  • a wide lane entry scene is obtained from a road without left and right white lines WL, WR suddenly with wide lateral widths L2 (> L1) of left and right white lines WL, WR.
  • L2 wide lateral widths
  • the host vehicle A's vehicle A's lateral position is promptly returned to the lane center. Self position correction is made. For this reason, in the case of the comparative example, the vehicle A travels along the traveling line D.
  • the target route is selected.
  • the parallel movement speed for slowly returning to the lane center side makes it possible to make a correction for laterally moving the target path in the lateral direction.
  • the vehicle A travels along the traveling line E ′ in which the vehicle lateral G is suppressed to a small value, unlike the traveling line D.
  • a controller (navigation control unit 3) that corrects an error that occurs between the vehicle position and the target route during driving assistance traveling (during automatic driving traveling).
  • the position error correction method of the driving support vehicle automated driving vehicle
  • the lane boundary of the lane in which the vehicle travels is detected.
  • the positional relationship between the detected lane boundary and the target route on the map is compared, and if the target route exists within a predetermined distance with respect to the lane boundary, or the target route is opposite to the host vehicle with respect to the lane boundary If so, the target path is corrected by lateral translation (FIG. 8). For this reason, it is possible to select whether to give priority to smoothness or to give priority not to protrude according to the scene, and position error correction of a driving support vehicle (automatic driving vehicle) that realizes more reliable vehicle behavior. We can provide a way.
  • the moving speed of the target route to be translated in the lateral direction is defined as a predetermined velocity (FIG. 7). Therefore, in addition to the effects of (1) to (4), the vehicle behavior of the own vehicle can be made smooth by defining the moving speed of the target route to be moved in parallel in the lateral direction to a predetermined speed.
  • a controller (navigation control unit 3) which corrects an error occurring between the vehicle position and the target route during driving assistance traveling (during automatic driving traveling).
  • the controller has a target route correction unit 36 that corrects the target route.
  • the target route correction unit 36 includes a lane boundary detection unit (road boundary information integration unit 361), a lateral correction amount calculation unit 362, and a lateral parallel movement unit 363.
  • the lane boundary detection unit (road boundary information integration unit 361) detects the lane boundary of the lane in which the vehicle travels.
  • the lateral correction amount calculation unit 362 compares the positional relationship between the detected lane boundary and the target route on the map, and if the target route exists within a predetermined distance from the lane boundary, or the target route is at the lane boundary. On the other hand, when the vehicle is on the opposite side, the lateral correction amount of the target route is calculated. When the horizontal correction amount is calculated, the horizontal parallel movement unit 363 corrects the target path by the horizontal parallel movement by the horizontal correction amount (FIG. 4). For this reason, it is possible to select whether to give priority to smoothness or to give priority not to protrude according to the scene, and position error correction of a driving support vehicle (automatic driving vehicle) that realizes more reliable vehicle behavior.
  • An apparatus can be provided.
  • the navigation control unit 3 is used as a controller that generates a target route from the current position of the vehicle to the destination.
  • a controller that generates a target route from the current position of the host vehicle to the destination an example may be taken as an automatic driving control unit.
  • the target route generation function may be divided into two, a part may be divided by the navigation control unit, and the remaining part may be divided by the automatic driving control unit.
  • the first embodiment shows an example in which the position error correction method and the position error correction device of the present disclosure are applied to an automatically driven vehicle in which steering / driving / braking is automatically controlled by selection of the automatic driving mode.
  • the position error correction method and the position error correction device according to the present disclosure may be a driving support vehicle that supports part of driving among steering driving / driving driving / braking driving by a driver.
  • the present invention can be applied to any vehicle that assists the driver in driving by correcting an error that occurs between the vehicle position and the target route.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Navigation (AREA)

Abstract

スムーズさを優先させるか、はみ出さないことを優先させるかをシーンに応じて選択することが可能となり、より安心できる車両挙動を実現すること。 自動運転走行中、誤差を補正するナビゲーション制御ユニット(3)を備える自動運転車両の位置誤差補正装置において、ナビゲーション制御ユニット(3)は、目標経路を補正する目標経路補正器(36)に、道路境界情報統合部(361)と、横補正量算出部(362)と、横並行移動部(363)と、を有する。道路境界情報統合部(361)は、自車が走行する車線の車線境界を検出する。横補正量算出部(362)は、検出した車線境界と地図上における目標経路との位置関係を比較し、目標経路が車線境界に対して所定距離以内に存在する場合、或いは、目標経路が車線境界に対して自車とは反対側に存在する場合、目標経路の横補正量を算出する。横並行移動部(363)は、横補正量が算出されると、目標経路を横補正量だけ横方向の並行移動により補正する。

Description

運転支援車両の位置誤差補正方法及び位置誤差補正装置
 本開示は、運転支援走行中、自車位置と目標経路との間で生じる誤差を補正する運転支援車両の位置誤差補正方法及び位置誤差補正装置に関する。
 従来、自動運転等の走行制御中に、操舵オーバライドを検出し、その後、操舵オーバライド終了を検出した場合、運転者は自車両を白線中央に設定されている走行経路上に戻したと推定する。そして、操舵オーバライドを終了した位置が、車線内と仮定し、GPS/地図ズレ分だけ自車の自己位置を補正する自車位置推定装置が知られている(例えば、特許文献1参照)。
特開2017-13586号公報
 しかしながら、従来装置にあっては、自車の自己位置を補正するので、自己位置情報を用いる全モジュールを考慮した補正のかけ方をしなければならず、車両の挙動に注視した補正を行うことができない。つまり、自車の自己位置を補正することは、常に「はみ出さない・ぶつからない」を優先することになるため、時に不必要に大きな車両挙動を伴った補正を行ってしまい、「スムーズさ」が犠牲になる。
 本開示は、上記問題に着目してなされたもので、スムーズさを優先させるか、はみ出さないことを優先させるかをシーンに応じて選択することが可能となり、より安心できる車両挙動を実現することを目的とする。
 上記目的を達成するため、本開示は、運転支援走行中、自車位置と目標経路との間で生じる誤差を補正するコントローラを備える。
この運転支援車両の位置誤差補正方法において、自車が走行する車線の車線境界を検出する。
検出した車線境界と地図上における目標経路との位置関係を比較し、目標経路が車線境界に対して所定距離以内に存在する場合、或いは、目標経路が車線境界に対して自車とは反対側に存在する場合、目標経路を横方向の並行移動により補正する。
 上記のように、自車の自己位置を補正するのではなく、目標経路を並行移動により補正することで、スムーズさを優先させるか、はみ出さないことを優先させるかをシーンに応じて選択することが可能となり、より安心できる車両挙動を実現することができる。
実施例1の位置誤差補正方法及び位置誤差補正装置が適用された自動運転制御システムを示す全体システム図である。 実施例1において車載センサのうち右側方認識カメラ及び左側方認識カメラを示す斜視図である。 実施例1において車載センサのうち車両前方の左右位置に設けられたライダーを示す斜視図である。 実施例1においてナビゲーション制御ユニットに有する目標経路補正器を示す全体ブロック図である。 図4に示す目標経路補正器のうち道路境界情報統合部を示す詳細ブロック図である。 図5に示す道路境界情報統合部のうち調停部を示す詳細ブロック図である。 図4に示す目標経路補正器のうち横補正量算出部を示す詳細ブロック図である。 ナビゲーション制御ユニットの目標経路補正器で実行される目標経路補正作用を示す作用説明図である。 目標経路補正作用のうち幅狭車線突入時の比較例の車両挙動と実施例1の車両挙動を示す対比説明図である。 目標経路補正作用のうち幅広車線突入時の比較例の車両挙動と実施例1の車両挙動を示す対比説明図である。
 以下、本開示による運転支援車両の位置誤差補正方法及び位置誤差補正装置を実現する最良の実施形態を、図面に示す実施例1に基づいて説明する。
 まず、構成を説明する。
実施例1における位置誤差補正方法及び位置誤差補正装置は、ナビゲーション制御ユニットにて生成される目標経路情報を用い、自動運転モードの選択により操舵/駆動/制動が自動制御される自動運転車両(運転支援車両の一例)に適用したものである。以下、実施例1の構成を、「全体システム構成」、「ナビゲーション制御ユニットの詳細構成」、「目標経路補正器の全体構成」、「道路境界情報統合部の詳細構成」、「横補正量算出部の詳細構成」に分けて説明する。
 [全体システム構成]
図1は、実施例1の位置誤差補正方法及び位置誤差補正装置が適用された自動運転制御システムを示す。図2は、車載センサのうち右側方認識カメラ及び左側方認識カメラを示し、図3は、車載センサのうち車両前方の左右位置に設けられたライダーを示す。以下、図1~図3に基づいて全体システム構成を説明する。
 自動運転制御システムは、図1に示すように、車載センサ1と、周囲環境認識ユニット2と、ナビゲーション制御ユニット3と、自動運転制御ユニット4と、アクチュエータ5と、を備えている。なお、周囲環境認識ユニット2、ナビゲーション制御ユニット3、自動運転制御ユニット4は、CPUなどの演算処理装置を備え、演算処理を実行するコンピュータである。
 車載センサ1は、自動運転車両に搭載され、自車の周辺情報を取得するセンサである。前方認識カメラ11と、後方認識カメラ12と、右側方認識カメラ13と、左側方認識カメラ14と、ライダー15と、レーダー16と、を有する。なお、自車の周辺情報以外の自動運転制御に必要な情報を取得するセンサ類として、図外の車速センサやヨーレートセンサやウインカースイッチなどを有する。
 前方認識カメラ11、後方認識カメラ12、右側方認識カメラ13、左側方認識カメラ14を組み合わせて周囲認識カメラ(AVM:アラウンド・ビュー・モニター)が構成される。この周囲認識カメラでは、自車走行路上物体・自車走行路外物体(道路構造物、先行車、後続車、対向車、周囲車両、歩行者、自転車、二輪車)・自車走行路(道路白線、道路境界、停止線、横断歩道)・道路標識(制限速度)などが検知される。
 右側方認識カメラ13は、図2に示すように、右側ドアミラーに内蔵された魚眼カメラであり、右側白線横位置検出機能を有する。左側方認識カメラ14は、図2に示すように、左側ドアミラーに内蔵された魚眼カメラであり、左側白線横位置検出機能を有する。
なお、右側白線横位置とは、自車Aの車幅方向中心線CLの位置から右側白線WRの内端位置までの長さをいう。左側白線横位置とは、自車Aの車幅方向中心線CLの位置から左側白線WLの内端位置までの長さをいう。
 ライダー15とレーダー16は、自車の前端位置に、出力波の照射軸を車両前方に向けて配置され、反射波を受けることにより自車前方の物体の存在を検知すると共に、自車前方の物体までの距離を検知する。ライダー15とレーダー16という2種類の測距センサを組み合わせてライダー/レーダーが構成され、例えば、レーザーレーダー、ミリ波レーダー、超音波レーダー、レーザーレンジファインダーなどを用いることができる。このライダー15とレーダー16では、自車走行路上物体・自車走行路外物体(道路構造物、先行車、後続車、対向車、周囲車両、歩行者、自転車、二輪車)などの位置と物体までの距離を検知する。
 ここで、ライダー15は、図3に示すように、自車Aの前端左右位置に右斜め下向きと左斜め下向きに首振り可能に設けられ、右側縁石横位置検出機能と左側縁石横位置検出機能とを有する。なお、右側縁石横位置とは、自車Aの車幅方向中心線CLの位置から右側縁石ERの内端位置までの長さをいう。左側縁石横位置とは、自車Aの車幅方向中心線CLの位置から左側縁石ELの内端位置までの長さをいう。
 周囲環境認識ユニット2は、各認識カメラ11,12,13,14からの画像データとライダー/レーダー15,16から物体データとを入力する。この周囲環境認識ユニット2は、画像データと物体データのキャリブレーションデータを生成するキャリブレーション処理部21と、キャリブレーションデータに基づいて物体認識処理を行う物体認識処理部22と、を有する。
 キャリブレーション処理部21は、各認識カメラ11,12,13,14からの画像データのパラメータと、ライダー/レーダー15,16から物体データのパラメータとを推定し、パラメータを使用して画像データや物体データのキャリブレーションデータを生成して出力する。例えば、各認識カメラ11,12,13,14からの画像データの場合、パラメータを使用して光軸やレンズ歪みの補正などを行う。
 物体認識処理部22は、キャリブレーション処理部21からのキャリブレーションデータを入力し、キャリブレーションデータに基づいて物体認識処理を行い、認識結果データを出力する。この物体認識処理部22では、例えば、画像データと物体データとを比較処理し、画像データによる物体候補の位置に物体データにより物体が存在することが確認されると、物体の存在を認識すると共に物体が何であるかを認識する。
 ナビゲーション制御ユニット3は、GNSSアンテナ31からの自車位置情報を入力し、道路情報を含む地図データと衛星通信を利用したGPS(全地球測位システム)を組み合わせ、ルート検索により現在位置から目的地までの目標経路を生成する。そして、生成した目標経路を地図上に表示すると共に、目標経路情報を出力する。
 ここで、「GNSS」は「Global Navigation Satellite System:全地球航法衛星システム」の略称であり、「GPS」は「Global Positioning System」の略称である。なお、ナビゲーション制御ユニット3の詳細構成については後述する。
 自動運転制御ユニット4は、周囲環境認識ユニット2の物体認識処理部22からの認識結果データと、ナビゲーション制御ユニット3からの目標経路情報を入力する。そして、入力情報に基づいて目標車速や目標加速度や目標減速度を生成する。さらに、生成された目標加速度により駆動制御指令値を演算し、演算結果を駆動アクチュエータ51へ出力する。生成された目標減速度により制動制御指令値を演算し、演算結果を制動アクチュエータ52へ出力する。入力された目標経路情報により舵角制御指令値を演算し、演算結果を舵角アクチュエータ53へ出力する。
 アクチュエータ5は、駆動アクチュエータ51と、制動アクチュエータ52と、舵角アクチュエータ53と、を有する。
 駆動アクチュエータ51は、自動運転制御ユニット4から駆動制御指令値を入力し、駆動源駆動力を制御するアクチュエータである。つまり、エンジン車の場合は、エンジンアクチュエータを用いる。ハイブリッド車の場合は、エンジンアクチュエータとモータアクチュエータを用いる。電気自動車の場合、モータアクチュエータを用いる。
 制動アクチュエータ52は、自動運転制御ユニット4から制動制御指令値を入力し、ブレーキ制動力を制御するアクチュエータである。なお、制動アクチュエータ52としては、油圧ブースタや電動ブースタなどを用いる。
 舵角アクチュエータ53は、自動運転制御ユニット4から舵角制御指令値を入力し、操舵輪の転舵角を制御するアクチュエータである。なお、舵角アクチュエータ53としては、舵角制御モータなどを用いる。
 [ナビゲーション制御ユニットの詳細構成]
 目的地を設定し、最適な目標経路を演算し、自動運転用の目標経路を表示するナビゲーション制御ユニット3の詳細構成を、図1に基づいて説明する。
 ナビゲーション制御ユニット3は、図1に示すように、GNSSアンテナ31と、位置情報処理部32と、目的地設定部33と、地図データ記憶部34と、ルート検索処理部35と、目標経路補正器36と、表示デバイス37と、を備えている。
 位置情報処理部32は、GNSSアンテナ31から入力される衛星通信情報に基づいて、自車の停車位置や自車の走行位置の緯度・経度の検出処理を行う。位置情報処理部32からの自車位置情報は、ルート検索処理部35へ出力される。
 目的地設定部33は、ドライバによる表示デバイス37の表示画面へのタッチパネル操作などにより、自車の目的地の入力設定を行う。目的地設定部33からの目的地情報は、ルート検索処理部35へ出力される。
 地図データ記憶部34は、緯度経度と地図情報が対応づけられた、いわゆる電子地図データの記憶部である。地図データには、各地点に対応づけられた道路情報を有し、道路情報は、ノードと、ノード間を接続するリンクにより定義される。道路情報は、道路の位置/領域により道路を特定する情報と、道路ごとの道路種別、道路ごとの道路幅、道路の形状情報とを含む。道路情報は、各道路リンクの識別情報ごとに、交差点の位置、交差点の進入方向、交差点の種別その他の交差点に関する情報を対応づけて記憶する。また、道路情報は、各道路リンクの識別情報ごとに、道路種別、道路幅、道路形状、直進の可否、進行の優先関係、追い越しの可否(隣接レーンへの進入の可否)、制限速度、その他の道路に関する情報を対応づけて記憶する。
 ルート検索処理部35は、位置情報処理部32からの自車位置情報と、目的地設定部33からの目的地情報と、地図データ記憶部34からの道路地図情報(道路地図データ)と、を入力する。そして、道路地図情報に基づいてルートコスト計算などによって目標経路を生成する。なお、目標経路の生成は、GPSと地図を用いて生成しても良いが、GPSと地図を用いる代わりに、先行車が存在するとき、先行車の走行軌跡を目標経路としても良い。この場合、GPSの位置精度が低いとき、走行軌跡を目標経路として用いることで、後述する目標経路補正器36での並行移動量が小さくて済み、よりスムーズな車両挙動にすることができる。
 目標経路補正器36は、物体認識処理部22からの認識結果データと、ルート検索処理部35からの目標経路と、を入力する。目標経路以外に、白線横方向距離(左右)、静止物体横方向距離(左右)、縁石横方向距離(左右)、ドライバによる方向指示器(ウインカ)の使用状況、車線変更状況、車速などの情報を入力する。これらの入力情報に基づいて、自車が走行する車線の車線境界を検出する。そして、検出した車線境界と地図上における目標経路との位置関係を比較し、目標経路が車線境界に対して所定距離以内に存在する場合、或いは、目標経路が車線境界に対して自車とは反対側に存在する場合、目標経路を横方向の並行移動により補正する。
 ここで、「所定距離」とは、自車が車線境界に近づいたとき、ドライバに対して不安感を与える距離をいい、例えば、自車の車幅方向中心線から車線境界までが2m程度(自車の側面から車線境界までが1m程度)の距離とする。なお、目標経路が車線境界に対して自車とは反対側に存在する場合には、自車との距離にかかわらず、目標経路を横方向の並行移動により補正する。
 表示デバイス37は、地図データ記憶部34からの地図データ情報と、目標経路補正器36からの目標経路情報を入力する。そして、表示画面に、地図と道路と目標経路と自車位置と目的地を表示する。つまり、表示デバイス37は、自動運転による走行中、自車が地図上で何処を移動しているかなどの自車位置視覚情報を提供する。
 [目標経路補正器の全体構成]
 図4は、実施例1においてナビゲーション制御ユニット3(コントローラ)に有する目標経路補正器36を示す。以下、図4に基づいて目標経路補正器36の全体構成を説明する。
 目標経路補正器36は、自動運転による走行中、ナビゲーション情報を用いて検出した自車位置を地図情報に重ね合わせたとき、自車位置と目標経路との間で生じるナビゲーション誤差を、目標経路の横並行移動により補正する。この目標経路補正器36は、図4に示すように、道路境界情報統合部361(車線境界検出部)と、横補正量算出部362と、横並行移動部363と、を有する。
 道路境界情報統合部361は、白線横方向距離(左右)、静止物体横方向距離(左右)、縁石横方向距離(左右)、ドライバによる方向指示器(ウインカ)の使用状況、車線変更状況、車速などの情報を入力する。そして、自車Aが走行する車線の車線境界を検出し、自車Aと車線境界横方向距離(左右)を、横補正量算出部362へ出力する。
 横補正量算出部362は、ルート検索処理部35からの目標経路と、道路境界情報統合部361からの車線境界横方向距離(左右)と、ドライバによる方向指示器の使用状況、車線変更状況、車速などの情報を入力する。そして、検出した車線境界と地図上における目標経路との位置関係を比較し、目標経路が車線境界に対して所定距離以内に存在する場合、或いは、目標経路が車線境界に対して自車Aとは反対側に存在する場合、目標経路の横補正量を算出する。
 横並行移動部363は、ルート検索処理部35からの目標経路と、横補正量算出部362からの横補正量と、を入力する。そして、横補正量が算出されると、図4の右下の枠Bに示すように、目標経路を横補正量だけ横方向の並行移動により補正し、新しい目標経路を生成する。この目標経路の並行移動補正により、自車Aの進行方向と目標経路がずれているとき、自車Aの進行方向と新しい目標経路との一致性が高められる。
 [道路境界情報統合部の詳細構成]
 図5は、目標経路補正器36のうち道路境界情報統合部361を示し、図6は、道路境界情報統合部361のうち調停部361eを示す。以下、図5及び図6に基づいて道路境界情報統合部361の詳細構成を説明する。
 道路境界情報統合部361は、図5に示すように、OR回路361aと、選択器361bと、道路境界調整部361cと、調整量加算器361dと、調停部361eと、片側喪失時補完部361fと、を有する。
 選択器361bは、OR回路361aを介してドライバによる方向指示器の使用状況、又は、車線変更状況を入力しないとき、横方向距離調整量としてゼロ(固定値)を選択する。一方、OR回路361aを介してドライバによる方向指示器の使用状況、又は、車線変更状況を入力すると、目標経路の並行移動量を徐々に減少する横方向距離調整量を与える。
つまり、目標経路を横方向に並行移動させるとき、ドライバによりステアリング操作が介入すると、目標経路の並行移動量を徐々に減少するもので、ドライバによるステアリング操作介入を、ドライバによるウインカ操作により判断している。
 道路境界調整部361cは、車速を入力し、車速が高いほど、横方向距離が大きくなって目標経路の並行移動補正量が小さくなるように、横方向距離調整量を与える。
 調整量加算器361dは、選択器361bからの横方向距離調整量と、道路境界調整部361cからの横方向距離調整量とを加算し、これを調停部361eでの調整量とする。
 調停部361eは、白線横方向距離(左右)と、静止物体横方向距離(左右)と、縁石横方向距離(左右)と、調整量加算器361dからの横方向距離調整量を入力する。そして、調停後道路境界左方向距離と調停後道路境界右方向距離を出力する。調停部361eの詳細は後述する。
 片側喪失時補完部361fは、調停後道路境界左方向距離と、調停後道路境界右方向距離と、車速と、を入力する。そして、調停後道路境界左方向距離と調停後道路境界右方向距離のうち、片側の横方向距離情報の一部が喪失したとき、喪失した側の横方向距離情報を車速により補完をし、車線境界横方向距離(左右)を出力する。
 ここで、道路端の形状が道路に並行になっていない場合において横方向距離情報の一部が喪失したとき、自車の車速に応じて変化する所定の距離分の範囲にて検出される道路端のうち、自車に最も近い道路端に基づく検出値を車線境界情報として使用する。これによって、喪失した側の横方向距離情報が補完される。
 調停部361eは、図6に示すように、減算器361e1,361e2,361e3と、加算器361e4, 361e5,361e6と、最小値選択器361e7と、最大値選択器361e8と、最終減算器361e9と、最終加算器361e10と、を有する。
 白線横方向距離(左右)の減算器361e1と加算器361e4は、白線横方向距離調整量としてゼロ(固定値)とする。
つまり、「白線」は、自車の目標経路の車線端と認識し、横方向距離調整を行わない。
 静止物体横方向距離(左右)の減算器361e2と加算器361e5は、静止物体横方向距離調整量として所定値(固定値)とする。
つまり、「静止物体」は、自車が走行する道路端と認識し、道路端から車線端情報を取得するため、横方向距離調整を行う。言い換えると、自車が走行する車線の車線境界を検出する際、道路端(静止物体)の位置が検出されると、検出された道路端(静止物体)から所定幅分の内側位置を車線境界情報として使用する。
 縁石横方向距離(左右)の減算器361e3と加算器361e6は、縁石横方向距離調整量として所定値(固定値)とする。
つまり、「縁石」は、自車が走行する道路端と認識し、道路端から車線端情報を取得するため、横方向距離調整を行う。言い換えると、自車が走行する車線の車線境界を検出する際、道路端(縁石)の位置が検出されると、検出された道路端(縁石)から所定幅分の内側位置を車線境界情報として使用する。
 最小値選択器361e7は、減算器361e2を経過した白線横方向距離(左)と、減算器361e2を経過した静止物体横方向距離(左)と、減算器361e3を経過した縁石横方向距離(左)と、を入力し、最小値を選択して道路境界左方向距離とする。
つまり、自車が走行する車線の車線境界を検出する際、車線境界の位置(白線位置)と道路端の位置(静止物***置又は縁石位置)の両方が検出されると、自車により近い内側位置の検出値が車線境界情報として使用される。
 最大値選択器361e8は、加算器361e4を経過した白線横方向距離(右)と、加算器361e5を経過した静止物体横方向距離(右)と、加算器361e6を経過した縁石横方向距離(右)と、を入力し、最大値を選択して道路境界右方向距離とする。
 最終減算器361e9は、最小値選択器361e7からの道路境界左方向距離から、調整量加算器361dからの調整量を差し引いて調整後道路境界左方向距離とする。
 最終加算器361e10は、最大値選択器361e8からの道路境界右方向距離から、調整量加算器361dからの調整量を加えて調整後道路境界右方向距離とする。
 [横補正量算出部362の詳細構成]
 図7は、目標経路補正器36のうち横補正量算出部362を示す。以下、図7に基づいて横補正量算出部362の詳細構成を説明する。
 横補正量算出部362は、図7に示すように、横偏差算出部362aと、位置関係理解部362bと、横補正量計算部362cと、変化レート最大値決定部362dと、レートリミッタ362eと、を有する。
 横偏差算出部362aは、ルート検索処理部35からの目標経路を入力し、目標経路と自車の横偏差Y0を算出する。
 位置関係理解部362bは、横偏差算出部362aからの横偏差Y0と、道路境界情報統合部361からの車線境界横方向距離(左右)を入力する。そして、目標経路と車線端との位置関係の比較により、目標経路と車線境界との位置関係を理解(把握)する。このとき、目標経路が車線境界(左)に対して所定距離以内に存在する場合、或いは、目標経路が車線境界(左)に対して自車とは反対側に存在する場合、左境界検出状況(フラグ)を出力する。一方、目標経路が車線境界(右)に対して所定距離以内に存在する場合、或いは、目標経路が車線境界(右)に対して自車とは反対側に存在する場合、右境界検出状況(フラグ)を出力する。
 横補正量計算部362cは、位置関係理解部362bからの左境界検出状況(フラグ)及び右境界検出状況(フラグ)と、道路境界情報統合部361からの車線境界横方向距離(左右)を入力する。そして、目標経路の位置と自車の位置が一致するように、目標経路の横補正量を計算し、計算結果を横補正量目標値として出力する。
 変化レート最大値決定部362dは、ドライバによる方向指示器の使用状況と、車線変更状況と、車速と、左境界検出状況(フラグ)と、右境界検出状況(フラグ)とを入力する。そして、横補正量変化レート(目標経路の移動速度)の下限値と上限値を決定する。
つまり、変化レート最大値決定部362dは、目標経路を横方向の並行移動により補正する際、横方向に並行移動させる目標経路の移動速度(横補正量変化レート)を、所定速度に規定するだけではなく、状況に応じて可変に規定する機能を有する。詳しい変化レート最大値決定部362dの構成は、後述する。
 レートリミッタ362eは、変化レート最大値決定部362dからの横補正量目標値と、変化レート最大値決定部362dからの横補正量変化レート下限値及び横補正量変化レート上限値を入力する。そして、横補正量目標値に対して横補正量変化レート(目標経路の移動速度)により制限を加えて横補正量とする。
 変化レート最大値決定部362dは、低車速時変化抑制部362d1と、第1レート切替部362d2と、第2レート切替部362d3と、第3レート切替部362d4と、第4レート切替部362d5と、第1レート積算部362d6と、第2レート積算部362d7と、を有する。
 低車速時変化抑制部362d1は、車速を入力し、自車の車速が低下すると、車速低下に応じて目標経路の移動速度を小さくするように車速対応変化レートを決める。そして、自車が停車すると、車速対応変化レートをゼロにする。
 第1レート切替部362d2は、車線変更状況をトリガーとして、車線変更のない通常走行シーンのとき、車速対応変化レートを選択し、車線変更状況が入力されると、変化レートをゼロに切り替える。
 第2レート切替部362d3は、ドライバによる方向指示器使用状況をトリガーとし、方向指示器不使用のとき、第1レート切替部362d2からの変化レートに切り替え、方向指示器使用状況が入力されると変化レート=∞に切り替える。
 第3レート切替部362d4は、右境界検出状況(フラグ)をトリガーとし、レート大(固定値)とレート小(固定値)を切り替える。
 第4レート切替部362d5は、左境界検出状況(フラグ)をトリガーとし、レート大(固定値)とレート小(固定値)を切り替える。
 第1レート積算部362d6は、第2レート切替部362d3からの変化レートと、第3レート切替部362d4からの変化レートを入力し、両変化レートの積算により横補正量変化レート上限値を算出する。
 第2レート積算部362d7は、第2レート切替部362d3からの変化レートと、第4レート切替部362d5からの変化レートを入力し、両変化レートの積算により横補正量変化レート上限値を算出する。
 この変化レート最大値決定部362dでは、下記に列挙する目標経路の移動速度(変化レート)を制御する。
 (a) 目標経路を横方向に並行移動させるとき、自車が車線変更すると、車線変更中、目標経路の移動速度をゼロとし、並行移動量を保持する(第1レート切替部362d2)。
 (b) 目標経路を横方向に並行移動させるとき、自車の車速が低下すると、車速低下に応じて目標経路の移動速度を小さくする(低車速時変化抑制部362d1)。
 (c) 目標経路を横方向に並行移動させるとき、自車が停車すると、目標経路の移動速度をゼロとし、並行移動量を保持する(低車速時変化抑制部362d1)。
 (d) 目標経路を横方向に並行移動させるとき、自車の近くに左右車線端を検出しないと、左右への目標経路の移動速度を遅くする(第3,第4レート切替部362d4,362d5)。
 (e) 目標経路を横方向に並行移動させるとき、左側のみ自車の近くに車線端を検出すると、左への目標経路の移動速度を遅くし、右への目標経路の移動速度を速くする(第3,第4レート切替部362d4,362d5)。
 (f) 目標経路を横方向に並行移動させるとき、右側のみ自車の近くに車線端を検出すると、左への目標経路の移動速度を速くし、右への目標経路の移動速度を遅くする(第3,第4レート切替部362d4,362d5)。
 (g) 目標経路を横方向に並行移動させるとき、自車の近くに左右車線端を検出すると、左右への目標経路の移動速度を速くする(第3,第4レート切替部362d4,362d5)。
 次に、作用を説明する。
実施例1の作用を、「目標経路補正作用」、「幅狭車線突入時の車両挙動対比作用」、「幅広車線突入時の車両挙動対比作用」に分けて説明する。
 [目標経路補正作用]
 図8は、ナビゲーション制御ユニット3の目標経路補正器36で実行される目標経路補正作用を示す。以下、図8に基づいて目標経路補正作用を説明する。
 実施例1では、自動運転走行中、ナビゲーション情報を用いて検出した自車位置を地図情報に重ね合わせたとき、自車位置と目標経路との間で生じる誤差を補正するナビゲーション制御ユニット3を備える。このナビゲーション制御ユニット3は、目標経路を補正する目標経路補正器36を有する。さらに、目標経路補正器36は、道路境界情報統合部361と、横補正量算出部362と、横並行移動部363と、を有する。
 よって、道路境界情報統合部361において、自車Aが走行する車線の車線境界が検出される。即ち、図8に示すように、右側方認識カメラ13によって、右側白線WRが車線境界として検出される。また、ライダー15,15によって、右側道路端の縁石ERと左側道路端の縁石ELが道路端として検出される。このため、図8に示す場合は、右側車線境界が右側白線WRの内側とされ、左側車線境界が縁石ELの内側からさらに自車A側に近づいた位置とされる。
 次に、横補正量算出部362において、検出した左側車線境界と右側車線境界と地図上における目標経路TLとの位置関係が比較される。図8に示す場合は、目標経路TLと右側車線境界との距離が十分に離れているのに対し、目標経路TLと左側車線境界との距離が近い。このため、目標経路TLが左側車線境界に対して所定距離以内に存在するとの判断に基づき、横補正量算出部362において、目標経路TLの横補正量LOとして、目標経路TLを図8の右側にオフセットさせる量が算出される。
 次に、横並行移動部363において、横補正量算出部362にて横補正量LOが算出されると、目標経路TLを横補正量LOだけ横方向の並行移動により補正することで、新たな目標経路TL’が生成される。このため、自車Aは、現在位置から新たな目標経路TL’に近づくように、ライン・トレース・コントロールLTCにより自動運転走行する。
 このように、自車の自己位置の補正をするのではなく、自車Aが走行レーン内にとどまれるように目標経路LTを並行移動するため、車両の挙動のみ(「スムーズさ」、「はみ出さない・ぶつからない」をシーン別に選択)を考慮した補正を行うことが可能となる。
 [幅狭車線突入時の車両挙動対比作用]
 図9は、目標経路補正作用のうち幅狭車線突入時の比較例の車両挙動と実施例1の車両挙動を示す。以下、図9に基づいて幅狭車線突入時の車両挙動対比作用を説明する。
ここで、自車位置と目標経路との間で生じるナビゲーション誤差を、自車の自己位置補正により行うものを比較例とする。
 幅狭車線突入時とは、図9に示すように、左右の白線WL,WRが無い道路から急に左右の白線WL,WRの横幅L1が狭い幅狭車線突入シーンをいう。幅狭車線突入シーンのとき、比較例の場合、自車Aが、Cの位置に到達してレーンセンタを認識すると、自車Aの横位置を速やかにレーンセンタに戻すように、自車Aの自己位置補正がなされる。このため、比較例の場合、自車Aは走行ラインDに沿って走行することになる。
 これに対し、幅狭車線突入シーンのとき、実施例1の場合、自車Aが、Cの位置に到達して左側白線WLを自車Aと重なる位置に検出すると、目標経路を速やかにレーンセンタ側に戻す並行移動速度により、目標経路を横方向へ並行移動する補正がなされる。このため、実施例1の場合、自車Aは、走行ラインDとほぼ同様である走行ラインEに沿って走行することになる。
 このように、幅狭車線突入時は、「スムーズさ」と「はみ出さない・ぶつからない」のうち、「はみ出さない・ぶつからない」を優先させるべきシーンである。これに対し、実施例1では、幅狭車線突入シーンにおいて、「はみ出さない・ぶつからない」を優先させる並行移動速度が速い目標経路の補正を選択することができる。
 [幅広車線突入時の車両挙動対比作用]
 図10は、目標経路補正作用のうち幅広車線突入時の比較例の車両挙動と実施例1の車両挙動を示す。以下、図10に基づいて幅狭車線突入時の車両挙動対比作用を説明する。
ここで、自車位置と目標経路との間で生じるナビゲーション誤差を、自車の自己位置補正により行うものを比較例とする。
 幅広車線突入時とは、図10に示すように、左右の白線WL,WRが無い道路から急に左右の白線WL,WRの横幅L2(>L1)が広い幅広車線突入シーンをいう。幅広車線突入シーンのとき、比較例の場合、自車Aが、Cの位置に到達してレーンセンタを認識すると、自車Aの横位置を速やかにレーンセンタに戻すように、自車Aの自己位置補正がなされる。このため、比較例の場合、自車Aは走行ラインDに沿って走行することになる。
 これに対し、幅広車線突入シーンのとき、実施例1の場合、自車Aが、Cの位置に到達して左側白線WLを自車Aから所定距離だけ離れた位置に検出すると、目標経路をゆっくりとレーンセンタ側に戻す並行移動速度により、目標経路を横方向へ並行移動する補正がなされる。このため、実施例1の場合、自車Aは、走行ラインDとは異なり、車両横Gが小さく抑えられた走行ラインE’に沿って走行することになる。
 このように、幅広車線突入時は、「スムーズさ」と「はみ出さない・ぶつからない」のうち、「スムーズさ」を優先させるべきシーンである。これに対し、実施例1では、幅広車線突入シーンにおいて、「スムーズさ」を優先させる並行移動速度が遅い目標経路の補正を選択することができる。
 次に、効果を説明する。
実施例1における自動運転車両の位置誤差補正方法及び位置誤差補正装置にあっては、下記に列挙する効果が得られる。
 (1) 運転支援走行中(自動運転走行中)、自車位置と目標経路との間で生じる誤差を補正するコントローラ(ナビゲーション制御ユニット3)を備える。
この運転支援車両(自動運転車両)の位置誤差補正方法において、自車が走行する車線の車線境界を検出する。
検出した車線境界と地図上における目標経路との位置関係を比較し、目標経路が車線境界に対して所定距離以内に存在する場合、或いは、目標経路が車線境界に対して自車とは反対側に存在する場合、目標経路を横方向の並行移動により補正する(図8)。
  このため、スムーズさを優先させるか、はみ出さないことを優先させるかをシーンに応じて選択することが可能となり、より安心できる車両挙動を実現する運転支援車両(自動運転車両)の位置誤差補正方法を提供することができる。
 (2) 自車が走行する車線の車線境界を検出する際、道路端の位置が検出されると、検出された道路端から所定幅分の内側位置を車線境界情報として使用する(図6)。
  このため、(1)の効果に加え、車線境界(白線)がない道路においても、縁石等の道路端を検出できれば、目標経路の横方向並行移動による補正を継続することができる。
 (3) 自車が走行する車線の車線境界を検出する際、車線境界の位置と道路端の位置の両方が検出されると、自車により近い内側位置の検出値を車線境界情報として使用する(図6)。
  このため、(2)の効果に加え、縁石等の道路端がある位置より所定の距離だけ内側に離れて走行でき、ドライバにとってより安心することができる。
 (4) 自車が走行する車線の車線境界を検出する際、自車の車速に応じて変化する所定の距離分の範囲にて検出される道路端のうち、自車に最も近い道路端に基づく検出値を車線境界情報として使用する(図5)。
  このため、(2)又は(3)の効果に加え、道路端の形状が道路に並行になっていない場所においても、目標経路の横方向並行移動による補正を実現することができる。
 (5) 目標経路を横方向の並行移動により補正する際、横方向に並行移動させる目標経路の移動速度を所定速度に規定する(図7)。
  このため、(1)~(4)の効果に加え、横方向に並行移動させる目標経路の移動速度を所定速度に規定することで、自車の車両挙動をスムーズにすることができる。
 (6) 目標経路を横方向の並行移動により補正する際、横方向の並行移動させる目標経路の移動速度を状況に応じて可変に規定する(図7)。
  このため、(5)の効果に加え、「スムーズさ」と、「はみ出さない・ぶつからない」のうち、どちらを優先するかをシーン別に選択することができる。この結果、移動速度を固定速度により与える場合に比べ、より安心できる車両挙動となる。
 (7) 目標経路を横方向に並行移動させるとき、
自車の近くに左右車線端を検出しないと、左右への目標経路の移動速度を遅くする。
左側のみ自車の近くに車線端を検出すると、左への目標経路の移動速度を遅くし、右への目標経路の移動速度を速くする。
右側のみ自車の近くに車線端を検出すると、左への目標経路の移動速度を速くし、右への目標経路の移動速度を遅くする。
自車の近くに左右車線端を検出すると、左右への目標経路の移動速度を速くする(図7)。
  このため、(6)の効果に加え、近くに白線や縁石を検出したときは、白線や縁石から自車が速く離れることで、「はみ出さない・ぶつからない」を優先することができる。近くに白線や縁石を検出しないときは、ゆっくりと自車が横移動することで、「スムーズさ」を優先することができる。
 (8) 目標経路を横方向に並行移動させるとき、自車が車線変更すると、車線変更中、目標経路の移動速度をゼロとし、並行移動量を保持する(図7)。
  このため、(6)又は(7)の効果に加え、目標経路と車線境界が交差してしまうことで、不要な目標経路の補正を防止することができると共に、車線変更完了時にそれまでの目標経路の補正を継続することができる。この結果、車線変更を含め、「スムーズ」、かつ、「はみ出さない・ぶつからない」車両挙動となる。
 (9) 目標経路を横方向に並行移動させるとき、自車の車速が低下すると、車速低下に応じて目標経路の移動速度を小さくする(図7)。
  このため、(6)~(8)の効果に加え、車速低下時に並行移動速度を小さくし、ステアリング角を小さくすることで、ドライバに安心感を与えることができる。なお、車速低下時には、ステアリング角を大きくしないと、同じ横移動速度を確保できない。
 (10) 目標経路を横方向に並行移動させるとき、自車が停車すると、目標経路の移動速度をゼロとし、並行移動量を保持する(図7)。
  このため、(9)の効果に加え、停車時、目標経路の補正に伴ってハンドルが動くことを防ぐことで、ドライバに安心感を与えることができる。
 (11) 目標経路を横方向に並行移動させるとき、ドライバによりステアリング操作が介入すると、目標経路の並行移動量を徐々に減少する(図5)。
  このため、(1)~(10)の効果に加え、ステアリング操作介入時、目標経路と車線端検出結果との位置関係が大きく変化することに対応し、目標経路の並行移動量を徐々に減少することで、不要な目標経路の補正を防止することができる。
 (12) ドライバによるステアリング操作介入を、ドライバによるウインカ操作により判断する(図5)。
  このため、(11)の効果に加え、ステアリング操作前のウインカ操作により判断することで、ドライバによるステアリング操作の介入意志を、明確、かつ、速やかに反映させることができる。
 (13) 運転支援走行中(自動運転走行中)、自車位置と目標経路との間で生じる誤差を補正するコントローラ(ナビゲーション制御ユニット3)を備える。
この運転支援車両(自動運転車両)の位置誤差補正装置において、コントローラ(ナビゲーション制御ユニット3)は、目標経路を補正する目標経路補正器36を有する。さらに、目標経路補正器36は、車線境界検出部(道路境界情報統合部361)と、横補正量算出部362と、横並行移動部363と、を有する。
車線境界検出部(道路境界情報統合部361)は、自車が走行する車線の車線境界を検出する。
横補正量算出部362は、検出した車線境界と地図上における目標経路との位置関係を比較し、目標経路が車線境界に対して所定距離以内に存在する場合、或いは、目標経路が車線境界に対して自車とは反対側に存在する場合、目標経路の横補正量を算出する。
横並行移動部363は、横補正量が算出されると、目標経路を横補正量だけ横方向の並行移動により補正する(図4)。
  このため、スムーズさを優先させるか、はみ出さないことを優先させるかをシーンに応じて選択することが可能となり、より安心できる車両挙動を実現する運転支援車両(自動運転車両)の位置誤差補正装置を提供することができる。
 以上、本開示の運転支援車両の位置誤差補正方法及び位置誤差補正装置を実施例1に基づき説明してきた。しかし、具体的な構成については、この実施例1に限られるものではなく、請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
 実施例1では、自車の現在位置から目的地までの目標経路を生成するコントローラとして、ナビゲーション制御ユニット3を用いる例を示した。しかし、自車の現在位置から目的地までの目標経路を生成するコントローラとしては、自動運転制御ユニットとする例としても良い。さらに、目標経路生成機能を2つに分け、一部をナビゲーション制御ユニットで分担し、残りを自動運転制御ユニットで分担する例としても良い。
 実施例1では、本開示の位置誤差補正方法及び位置誤差補正装置を自動運転モードの選択により操舵/駆動/制動が自動制御される自動運転車両に適用する例を示した。しかし、本開示の位置誤差補正方法及び位置誤差補正装置は、ドライバによる操舵運転/駆動運転/制動運転のうち、一部の運転を支援する運転支援車両であっても良い。要するに、自車位置と目標経路との間で生じる誤差を補正することでドライバの運転支援をする車両であれば適用することができる。

Claims (13)

  1.  運転支援走行中、自車位置と目標経路との間で生じる誤差を補正するコントローラを備える運転支援車両の位置誤差補正方法において、
     自車が走行する車線の車線境界を検出し、
     検出した前記車線境界と地図上における前記目標経路との位置関係を比較し、前記目標経路が前記車線境界に対して所定距離以内に存在する場合、或いは、前記目標経路が前記車線境界に対して自車とは反対側に存在する場合、前記目標経路を横方向の並行移動により補正する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  2.  請求項1に記載された運転支援車両の位置誤差補正方法において、
     前記自車が走行する車線の車線境界を検出する際、道路端の位置が検出されると、検出された道路端から所定幅分の内側位置を車線境界情報として使用する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  3.  請求項2に記載された運転支援車両の位置誤差補正方法において、
     前記自車が走行する車線の車線境界を検出する際、車線境界の位置と道路端の位置の両方が検出されると、自車により近い内側位置の検出値を車線境界情報として使用する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  4.  請求項2又は3に記載された運転支援車両の位置誤差補正方法において、
     前記自車が走行する車線の車線境界を検出する際、自車の車速に応じて変化する所定の距離分の範囲にて検出される道路端のうち、自車に最も近い道路端に基づく検出値を車線境界情報として使用する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  5.  請求項1から4までの何れか一項に記載された運転支援車両の位置誤差補正方法において、
     前記目標経路を横方向の並行移動により補正する際、横方向に並行移動させる前記目標経路の移動速度を所定速度に規定する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  6.  請求項5に記載された運転支援車両の位置誤差補正方法において、
     前記目標経路を横方向の並行移動により補正する際、横方向の並行移動させる前記目標経路の移動速度を状況に応じて可変に規定する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  7.  請求項6に記載された運転支援車両の位置誤差補正方法において、
     前記目標経路を横方向に並行移動させるとき、
     自車の近くに左右車線端を検出しないと、左右への前記目標経路の移動速度を遅くし、
     左側のみ自車の近くに車線端を検出すると、左への前記目標経路の移動速度を遅くし、右への前記目標経路の移動速度を速くし、
     右側のみ自車の近くに車線端を検出すると、左への前記目標経路の移動速度を速くし、右への前記目標経路の移動速度を遅くし、
     自車の近くに左右車線端を検出すると、左右への前記目標経路の移動速度を速くする
     ことを特徴とする運転支援車両の位置誤差補正方法。
  8.  請求項6又は7に記載された運転支援車両の位置誤差補正方法において、
     前記目標経路を横方向に並行移動させるとき、自車が車線変更すると、車線変更中、前記目標経路の移動速度をゼロとし、並行移動量を保持する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  9.  請求項6から8までの何れか一項に記載された運転支援車両の位置誤差補正方法において、
     前記目標経路を横方向に並行移動させるとき、自車の車速が低下すると、車速低下に応じて前記目標経路の移動速度を小さくする
     ことを特徴とする運転支援車両の位置誤差補正方法。
  10.  請求項9に記載された運転支援車両の位置誤差補正方法において、
     前記目標経路を横方向に並行移動させるとき、自車が停車すると、前記目標経路の移動速度をゼロとし、並行移動量を保持する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  11.  請求項1から10までの何れか一項に記載された運転支援車両の位置誤差補正方法において、
     前記目標経路を横方向に並行移動させるとき、ドライバによりステアリング操作が介入すると、前記目標経路の並行移動量を徐々に減少する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  12.  請求項11に記載された運転支援車両の位置誤差補正方法において、
     前記ドライバによるステアリング操作介入を、ドライバによるウインカ操作により判断する
     ことを特徴とする運転支援車両の位置誤差補正方法。
  13.  運転支援走行中、自車位置と目標経路との間で生じる誤差を補正するコントローラを備える運転支援車両の位置誤差補正装置において、
     前記コントローラは、目標経路を補正する目標経路補正器を有し、
     前記目標経路補正器は、
     自車が走行する車線の車線境界を検出する車線境界検出部と、
     検出した前記車線境界と地図上における前記目標経路との位置関係を比較し、前記目標経路が前記車線境界に対して所定距離以内に存在する場合、或いは、前記目標経路が前記車線境界に対して自車とは反対側に存在する場合、前記目標経路の横補正量を算出する横補正量算出部と、
     前記横補正量が算出されると、前記目標経路を前記横補正量だけ横方向の並行移動により補正する横並行移動部と、
     を有することを特徴とする運転支援車両の位置誤差補正装置。
PCT/JP2017/031166 2017-08-30 2017-08-30 運転支援車両の位置誤差補正方法及び位置誤差補正装置 WO2019043831A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
BR112020004099-1A BR112020004099A2 (pt) 2017-08-30 2017-08-30 método de correção de posição e dispositivo de correção de erro de posição para veículos auxiliados por condução
CA3074413A CA3074413A1 (en) 2017-08-30 2017-08-30 Position correction method and position error correction device for drive-assisted vehicle
RU2020112174A RU2741529C1 (ru) 2017-08-30 2017-08-30 Способ коррекции положения и устройство коррекции ошибки положения для транспортного средства с поддержкой вождения
CN201780094048.5A CN111033593B (zh) 2017-08-30 2017-08-30 驾驶辅助车辆的位置误差校正方法及位置误差校正装置
KR1020207006826A KR20200030617A (ko) 2017-08-30 2017-08-30 운전 지원 차량의 위치 오차 보정 방법 및 위치 오차 보정 장치
JP2019538819A JP6642772B2 (ja) 2017-08-30 2017-08-30 運転支援車両の位置誤差補正方法及び位置誤差補正装置
PCT/JP2017/031166 WO2019043831A1 (ja) 2017-08-30 2017-08-30 運転支援車両の位置誤差補正方法及び位置誤差補正装置
US16/638,791 US11167758B2 (en) 2017-08-30 2017-08-30 Vehicle position correction method and vehicle position correction device for drive-assisted vehicle
EP17923515.5A EP3678109B1 (en) 2017-08-30 2017-08-30 Position correction method for driving-assist vehicle and position error correction device
MX2020002171A MX2020002171A (es) 2017-08-30 2017-08-30 Metodo de correccion de posicion y dispositivo de correccion de error de posicion para vehiculo de conduccion asistida.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/031166 WO2019043831A1 (ja) 2017-08-30 2017-08-30 運転支援車両の位置誤差補正方法及び位置誤差補正装置

Publications (1)

Publication Number Publication Date
WO2019043831A1 true WO2019043831A1 (ja) 2019-03-07

Family

ID=65526453

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/031166 WO2019043831A1 (ja) 2017-08-30 2017-08-30 運転支援車両の位置誤差補正方法及び位置誤差補正装置

Country Status (10)

Country Link
US (1) US11167758B2 (ja)
EP (1) EP3678109B1 (ja)
JP (1) JP6642772B2 (ja)
KR (1) KR20200030617A (ja)
CN (1) CN111033593B (ja)
BR (1) BR112020004099A2 (ja)
CA (1) CA3074413A1 (ja)
MX (1) MX2020002171A (ja)
RU (1) RU2741529C1 (ja)
WO (1) WO2019043831A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021020475A (ja) * 2019-07-24 2021-02-18 株式会社Subaru 車両の自動運転支援装置
CN112455435A (zh) * 2019-09-06 2021-03-09 丰田自动车株式会社 驾驶辅助装置
JP2021125054A (ja) * 2020-02-06 2021-08-30 本田技研工業株式会社 周辺認識装置、周辺認識方法、およびプログラム
CN113924225A (zh) * 2019-05-29 2022-01-11 大众汽车股份公司 用于通过机动车辆中的驾驶员辅助***对行驶方向执行修正的方法以及用于此的控制设备

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102055156B1 (ko) * 2018-02-05 2019-12-12 주식회사 만도 적응형 순항 제어 시스템의 제어 장치 및 제어 방법
CN110018632B (zh) * 2018-06-22 2020-10-09 长城汽车股份有限公司 一种车辆变道控制方法和装置
JP7040621B2 (ja) * 2018-09-07 2022-03-23 日産自動車株式会社 車両の走行制御方法及び走行制御装置
US11120277B2 (en) * 2018-10-10 2021-09-14 Denso Corporation Apparatus and method for recognizing road shapes
JP7257814B2 (ja) * 2019-02-21 2023-04-14 日立Astemo株式会社 走行路認識装置
US11243081B2 (en) * 2019-03-29 2022-02-08 Trimble Inc. Slam assisted INS
JP7247849B2 (ja) * 2019-10-11 2023-03-29 トヨタ自動車株式会社 駐車支援装置
US11543263B1 (en) * 2020-09-16 2023-01-03 Zoox, Inc. Map distortion determination
CN114252883B (zh) * 2020-09-24 2022-08-23 北京万集科技股份有限公司 目标检测方法、装置、计算机设备和介质
CN112537298A (zh) * 2020-11-30 2021-03-23 南通路远科技信息有限公司 一种车道的自动生成方法、装置及交通载具
CN112537299A (zh) * 2020-11-30 2021-03-23 南通路远科技信息有限公司 一种基于目标物的车道保持方法、装置及交通载具
CN112896879B (zh) * 2021-02-24 2022-11-18 同济大学 一种用于智能环卫车的环境感知***
US11891059B2 (en) 2021-07-13 2024-02-06 Canoo Technologies Inc. System and methods of integrating vehicle kinematics and dynamics for lateral control feature at autonomous driving
US11891060B2 (en) 2021-07-13 2024-02-06 Canoo Technologies Inc. System and method in lane departure warning with full nonlinear kinematics and curvature
US11845428B2 (en) * 2021-07-13 2023-12-19 Canoo Technologies Inc. System and method for lane departure warning with ego motion and vision
US11840147B2 (en) 2021-07-13 2023-12-12 Canoo Technologies Inc. System and method in data-driven vehicle dynamic modeling for path-planning and control
US11908200B2 (en) 2021-07-13 2024-02-20 Canoo Technologies Inc. System and method in the prediction of target vehicle behavior based on image frame and normalization
US12017661B2 (en) 2021-07-13 2024-06-25 Canoo Technologies Inc. System and method in vehicle path prediction based on full nonlinear kinematics
CN113882201B (zh) * 2021-09-09 2022-07-01 华中科技大学 一种自动驾驶车辆专用车道直线段宽度确定方法
CN113779174B (zh) * 2021-11-05 2022-04-01 华砺智行(武汉)科技有限公司 提高路侧传感器感知精度的方法、***、设备及介质
US20230150494A1 (en) * 2021-11-16 2023-05-18 GM Global Technology Operations LLC System and methods for engagement in hands-off lane centering applications
CN114565904A (zh) * 2022-03-02 2022-05-31 北京百度网讯科技有限公司 确定可行驶区域的方法、装置、设备、介质和车辆
DE102023004401A1 (de) 2022-11-10 2024-05-16 Mercedes-Benz Group AG System und Verfahren zur Lokalisierung der Flugbahn einesEgo-Fahrzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015205635A (ja) * 2014-04-22 2015-11-19 本田技研工業株式会社 走行支援装置
JP2016151864A (ja) * 2015-02-17 2016-08-22 トヨタ自動車株式会社 車線追従制御装置
JP2017013586A (ja) 2015-06-30 2017-01-19 富士重工業株式会社 自車位置推定装置、及びそれを用いた操舵制御装置、並びに自車位置推定方法

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19507957C1 (de) * 1995-03-07 1996-09-12 Daimler Benz Ag Fahrzeug mit optischer Abtasteinrichtung für einen seitlichen Fahrbahnbereich
JP4092308B2 (ja) * 2004-06-02 2008-05-28 トヨタ自動車株式会社 境界線検出装置
DE102005025387A1 (de) * 2004-09-30 2006-05-04 Daimlerchrysler Ag Verfahren und Vorrichtung zur Fahrerwahrnung bzw. zum aktiven Eingreifen in die Fahrdynamik, falls ein Verlassen der Fahrspur droht
US7708493B2 (en) * 2005-08-26 2010-05-04 Searete, Llc Modifiable display marker
JP5162103B2 (ja) 2006-05-15 2013-03-13 トヨタ自動車株式会社 支援制御装置
GB2448470B (en) * 2007-04-20 2012-04-04 Ultra Global Ltd Vehicle guidance system
JP2008286671A (ja) * 2007-05-18 2008-11-27 Alpine Electronics Inc 車載用ナビゲーション装置
EP2242674B1 (de) * 2008-02-20 2012-12-12 Continental Teves AG & Co. oHG Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
US8111147B2 (en) * 2008-05-13 2012-02-07 GM Global Technology Operations LLC Lane departure warning and change assist system utilizing active materials
CN102057253B (zh) * 2008-06-11 2014-06-25 三菱电机株式会社 导航装置
US8428843B2 (en) * 2008-06-20 2013-04-23 GM Global Technology Operations LLC Method to adaptively control vehicle operation using an autonomic vehicle control system
JP5183740B2 (ja) * 2008-07-04 2013-04-17 三菱電機株式会社 地図表示装置
JP5468549B2 (ja) * 2008-10-28 2014-04-09 株式会社アドヴィックス 車両の走行制御装置
US8831876B2 (en) * 2009-12-28 2014-09-09 Clarion Co., Ltd. Navigation device, route guidance method, and program
CN103026173B (zh) * 2010-07-23 2015-07-22 三菱电机株式会社 导航装置
CN103635947B (zh) * 2011-08-31 2015-10-07 日产自动车株式会社 车辆驾驶辅助装置
JP5966965B2 (ja) * 2013-02-19 2016-08-10 株式会社デンソー 車線境界線逸脱抑制装置及び車線境界線逸脱抑制方法
MX345983B (es) * 2013-06-28 2017-03-01 Nissan Motor Dispositivo de control de direccion.
KR101502510B1 (ko) * 2013-11-26 2015-03-13 현대모비스 주식회사 차량의 차선 유지 제어 장치 및 방법
KR101502511B1 (ko) * 2013-11-28 2015-03-13 현대모비스 주식회사 가상 차선 생성 장치와 방법 및 상기 장치를 구비하는 차선 유지 제어 시스템
JP6241341B2 (ja) * 2014-03-20 2017-12-06 アイシン・エィ・ダブリュ株式会社 自動運転支援装置、自動運転支援方法及びプログラム
CN103954275B (zh) * 2014-04-01 2017-02-08 西安交通大学 基于车道线检测和gis地图信息开发的视觉导航方法
JP6130809B2 (ja) 2014-04-25 2017-05-17 本田技研工業株式会社 車線認識装置
KR101551096B1 (ko) * 2014-06-05 2015-09-21 현대자동차주식회사 자율주행차량의 차선변경장치 및 방법
JP6375754B2 (ja) * 2014-07-25 2018-08-22 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
RU2659670C1 (ru) * 2014-08-11 2018-07-03 Ниссан Мотор Ко., Лтд. Устройство и способ управления движением для транспортного средства
CN106604853B (zh) * 2014-08-29 2018-05-29 日产自动车株式会社 行驶控制装置及行驶控制方法
US9499197B2 (en) * 2014-10-15 2016-11-22 Hua-Chuang Automobile Information Technical Center Co., Ltd. System and method for vehicle steering control
JP6086106B2 (ja) * 2014-10-16 2017-03-01 トヨタ自動車株式会社 運転支援装置
JP2016084092A (ja) * 2014-10-28 2016-05-19 富士重工業株式会社 車両の走行制御装置
JP6123812B2 (ja) * 2015-01-29 2017-05-10 トヨタ自動車株式会社 車線追従制御装置
JP6344275B2 (ja) * 2015-03-18 2018-06-20 トヨタ自動車株式会社 車両制御装置
JP6350383B2 (ja) * 2015-05-01 2018-07-04 トヨタ自動車株式会社 車両走行制御装置
WO2016197068A1 (en) * 2015-06-03 2016-12-08 Levant Power Corporation Methods and systems for controlling vehicle body motion and occupant experience
JP6376055B2 (ja) * 2015-06-26 2018-08-22 株式会社デンソー 車線逸脱抑制システム
US9821801B2 (en) * 2015-06-29 2017-11-21 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling semi-autonomous vehicles
JP2017052413A (ja) * 2015-09-09 2017-03-16 株式会社デンソー 車両制御装置
JP6055528B1 (ja) * 2015-09-25 2016-12-27 富士重工業株式会社 車両の操舵制御装置
JP6815724B2 (ja) * 2015-11-04 2021-01-20 トヨタ自動車株式会社 自動運転システム
US9731755B1 (en) * 2016-02-16 2017-08-15 GM Global Technology Operations LLC Preview lateral control for automated driving
JP6246844B2 (ja) * 2016-02-18 2017-12-13 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6308233B2 (ja) * 2016-02-29 2018-04-11 トヨタ自動車株式会社 車両制御装置及び車両制御方法
JP2017165156A (ja) * 2016-03-14 2017-09-21 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6380766B2 (ja) * 2016-03-14 2018-08-29 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
JP2017182521A (ja) * 2016-03-31 2017-10-05 日立オートモティブシステムズ株式会社 車両用走行制御装置
US10384672B1 (en) * 2016-05-11 2019-08-20 Apple Inc. Vehicle stability control system
US9910440B2 (en) * 2016-05-13 2018-03-06 Delphi Technologies, Inc. Escape-path-planning system for an automated vehicle
US10303166B2 (en) * 2016-05-23 2019-05-28 nuTonomy Inc. Supervisory control of vehicles
JP6382887B2 (ja) * 2016-06-03 2018-08-29 本田技研工業株式会社 走行制御装置
JP6583183B2 (ja) * 2016-08-04 2019-10-02 トヨタ自動車株式会社 車両制御装置
JP2018020682A (ja) * 2016-08-04 2018-02-08 トヨタ自動車株式会社 車両制御装置
US20180188031A1 (en) * 2016-08-31 2018-07-05 Faraday&Future Inc. System and method for calibrating vehicle dynamics expectations for autonomous vehicle navigation and localization
WO2018075040A1 (en) * 2016-10-20 2018-04-26 Ford Motor Company Methods and apparatus for presenting lane and vehicle type-specific traffic information on a map
KR101906197B1 (ko) * 2016-11-07 2018-12-05 엘지전자 주식회사 차량 및 그 제어방법
EP3324330A1 (en) * 2016-11-16 2018-05-23 Continental Automotive GmbH Method for determining a course of lanes, driver assistance system, and vehicle
US10518776B2 (en) * 2017-01-18 2019-12-31 Denso International America, Inc. Vehicle system, vehicle controller, and method of controlling vehicle
US10279807B2 (en) * 2017-02-17 2019-05-07 GM Global Technology Operations LLC System and method for predicting a possible lane departure when driving a vehicle autonomously or semi-autonomously, and for taking a remedial action to prevent a lane departure
JP2018136700A (ja) * 2017-02-21 2018-08-30 トヨタ自動車株式会社 車両の制御装置
DE112017007327T5 (de) * 2017-03-27 2019-12-05 Mitsubishi Electric Corporation Fahrzeugpositions-schätzvorrichtung
US10814913B2 (en) * 2017-04-12 2020-10-27 Toyota Jidosha Kabushiki Kaisha Lane change assist apparatus for vehicle
US10710588B2 (en) * 2017-05-23 2020-07-14 Toyota Motor Engineering & Manufacturing North America, Inc. Merging and lane change acceleration prediction energy management
DE102017211600A1 (de) * 2017-07-07 2019-01-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Anzeigen von Spurinformationen in einem Fahrzeug
WO2019043832A1 (ja) * 2017-08-30 2019-03-07 日産自動車株式会社 運転支援車両の走行制御方法及び走行制御装置
BR112020003996A2 (pt) * 2017-08-30 2020-09-01 Nissan Motor Co., Ltd. método para corrigir erro de posição e dispositivo para corrigir erro de posição em veículo de direção assistida
CA3075247A1 (en) * 2017-09-08 2019-03-14 Nissan Motor Co., Ltd. Driving assistance method and driving assistance device
WO2019051834A1 (en) * 2017-09-18 2019-03-21 Baidu.Com Times Technology (Beijing) Co., Ltd. DRIVING GUIDELINES BASED ON DRIVING SCENARIOS FOR PLANNING SELF-CONTAINED VEHICLE TRACKS
JP6939334B2 (ja) * 2017-09-27 2021-09-22 トヨタ自動車株式会社 運転支援装置
EP3569460B1 (en) * 2018-04-11 2024-03-20 Hyundai Motor Company Apparatus and method for controlling driving in vehicle
JP7048398B2 (ja) * 2018-04-13 2022-04-05 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11287814B2 (en) * 2018-08-07 2022-03-29 GM Global Technology Operations LLC Lane change detection system and method for an autonomous vehicle
JP7229710B2 (ja) * 2018-09-26 2023-02-28 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method
US11186282B2 (en) * 2018-12-11 2021-11-30 Alpine Electronics, Inc. Automated lane change system and methods
US20200307589A1 (en) * 2019-03-29 2020-10-01 Chongqing Jinkang New Energy Vehicle, Ltd. Automatic lane merge with tunable merge behaviors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015205635A (ja) * 2014-04-22 2015-11-19 本田技研工業株式会社 走行支援装置
JP2016151864A (ja) * 2015-02-17 2016-08-22 トヨタ自動車株式会社 車線追従制御装置
JP2017013586A (ja) 2015-06-30 2017-01-19 富士重工業株式会社 自車位置推定装置、及びそれを用いた操舵制御装置、並びに自車位置推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3678109A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113924225A (zh) * 2019-05-29 2022-01-11 大众汽车股份公司 用于通过机动车辆中的驾驶员辅助***对行驶方向执行修正的方法以及用于此的控制设备
JP2021020475A (ja) * 2019-07-24 2021-02-18 株式会社Subaru 車両の自動運転支援装置
US11407412B2 (en) * 2019-07-24 2022-08-09 Subaru Corporation Automatic driving assist apparatus for vehicle
JP7303684B2 (ja) 2019-07-24 2023-07-05 株式会社Subaru 車両の自動運転支援装置
CN112455435A (zh) * 2019-09-06 2021-03-09 丰田自动车株式会社 驾驶辅助装置
CN112455435B (zh) * 2019-09-06 2023-09-01 丰田自动车株式会社 驾驶辅助装置
JP2021125054A (ja) * 2020-02-06 2021-08-30 本田技研工業株式会社 周辺認識装置、周辺認識方法、およびプログラム
JP7469896B2 (ja) 2020-02-06 2024-04-17 本田技研工業株式会社 周辺認識装置、周辺認識方法、およびプログラム

Also Published As

Publication number Publication date
US20200377088A1 (en) 2020-12-03
CN111033593B (zh) 2021-04-27
BR112020004099A2 (pt) 2020-09-24
CN111033593A (zh) 2020-04-17
KR20200030617A (ko) 2020-03-20
EP3678109A4 (en) 2020-09-09
US11167758B2 (en) 2021-11-09
MX2020002171A (es) 2020-07-14
JP6642772B2 (ja) 2020-02-12
EP3678109B1 (en) 2023-05-03
CA3074413A1 (en) 2019-03-07
EP3678109A1 (en) 2020-07-08
JPWO2019043831A1 (ja) 2020-05-28
RU2741529C1 (ru) 2021-01-26

Similar Documents

Publication Publication Date Title
JP6642772B2 (ja) 運転支援車両の位置誤差補正方法及び位置誤差補正装置
JP6658978B2 (ja) 運転支援車両の位置誤差補正方法及び位置誤差補正装置
CN111226267B (zh) 驾驶辅助车辆的行驶控制方法及行驶控制装置
WO2018158911A1 (ja) 運転支援方法及び運転支援装置
JP2019020127A (ja) 運転支援車両のルート探索方法及びルート探索装置
JP6673531B2 (ja) 運転支援車両の目標車速生成方法及び目標車速生成装置
JP7173371B2 (ja) 走行支援装置のオーバーライド判定方法、及び走行支援装置
US20230234579A1 (en) Vehicle driving assist device
US11780474B2 (en) Vehicle travel control method and vehicle travel control device
WO2020148561A1 (ja) 運転支援方法及び運転支援装置
WO2023100355A1 (ja) 車両制御方法及び車両制御装置
JP7433708B2 (ja) 車両制御装置
JP2023128845A (ja) 操舵制御方法及び操舵制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17923515

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019538819

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3074413

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20207006826

Country of ref document: KR

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112020004099

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2017923515

Country of ref document: EP

Effective date: 20200330

ENP Entry into the national phase

Ref document number: 112020004099

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20200228