WO2020017179A1 - 車両制御装置および車両制御方法 - Google Patents

車両制御装置および車両制御方法 Download PDF

Info

Publication number
WO2020017179A1
WO2020017179A1 PCT/JP2019/022553 JP2019022553W WO2020017179A1 WO 2020017179 A1 WO2020017179 A1 WO 2020017179A1 JP 2019022553 W JP2019022553 W JP 2019022553W WO 2020017179 A1 WO2020017179 A1 WO 2020017179A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
detection
moving object
condition
mode
Prior art date
Application number
PCT/JP2019/022553
Other languages
English (en)
French (fr)
Inventor
高木 亮
幸一 枡田
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020017179A1 publication Critical patent/WO2020017179A1/ja
Priority to US17/151,493 priority Critical patent/US11878670B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T8/00Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
    • B60T8/17Using electrical or electronic regulation means to control braking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/02Active or adaptive cruise control system; Distance control
    • B60T2201/022Collision avoidance systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/03Brake assistants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2210/00Detection or estimation of road or environment conditions; Detection or estimation of road shapes
    • B60T2210/30Environment conditions or position therewithin
    • B60T2210/32Vehicle surroundings

Definitions

  • the present disclosure relates to a vehicle control device and a vehicle control method.
  • Patent Literature 1 Vehicle control devices that provide driving support using information obtained from communication devices around vehicles through inter-vehicle communication or the like are known.
  • the driving support system described in Patent Literature 1 performs occupant assistance for assisting occupants of a vehicle in accordance with information acquired by inter-vehicle communication and inter-vehicle communication.
  • the mode of occupant support is determined according to information acquired from a communication device around the vehicle, and the actual situation is that the detection accuracy of the autonomous sensor of the own vehicle is not sufficiently considered.
  • the occupant assistance is a preceding vehicle transmission notification
  • the detection accuracy of the autonomous sensor is low, there is a risk that the preceding vehicle may be erroneously detected as having started even though it has not started, and unnecessary notification may be made. is there. Therefore, there has been a demand for a technology capable of executing passenger support in accordance with the detection accuracy of the autonomous sensor.
  • a vehicle control device mounted on a vehicle having an autonomous sensor and a communication unit includes an object detection unit that detects a moving object around the vehicle from detection information of the autonomous sensor, and a detection accuracy determination that determines whether a detection state of the autonomous sensor satisfies a predetermined detection accuracy condition. And an occupant support unit that performs occupant support that is support for the occupant of the vehicle, wherein the object detection unit is detected from detection information received from an external device via the communication unit. It is determined whether or not a moving body and a moving body detected from the detection information of the autonomous sensor satisfy a predetermined moving body condition indicating that the moving body is the same, and the occupant support unit determines the detection accuracy condition.
  • the mode of the passenger support is determined to be the first passenger support mode, and when the detection accuracy condition is not satisfied, and when the moving body condition is not satisfied, the mode of the passenger support is changed.
  • the first It is determined to be the second passenger support aspect that is different from the power of assistance aspect.
  • the vehicle control device of this aspect when the occupant assisting unit does not satisfy the detection accuracy condition and does not satisfy the moving object condition, the occupant assisting unit performs the second assisting operation different from the first occupant assisting mode. Since the occupant support mode is determined, the occupant support can be executed according to the detection accuracy of the autonomous sensor.
  • FIG. 1 is an explanatory diagram showing an outline of a configuration of a vehicle control device.
  • FIG. 2 is a flowchart showing an example of a moving object detection process.
  • FIG. 3 is a flowchart showing an example of the passenger support processing,
  • FIG. 4 is an explanatory diagram illustrating an example of the automatic braking function.
  • the vehicle control device 100 shown in FIG. The passenger support will be described later.
  • the vehicle control device 100 executes automatic driving of the vehicle 10.
  • the driver may drive manually.
  • the vehicle control device 100 controls the control unit 110, the autonomous sensor 120, the own vehicle position sensor 126, the notification unit 140, the communication unit 200, the automatic driving control unit 210, and the driving force control ECU 220 ( Electronic Control Unit), a braking force control ECU 230, a steering control ECU 240, and an on-vehicle network 250.
  • the control unit 110, the communication unit 200, the automatic driving control unit 210, the driving force control ECU 220, the braking force control ECU 230, and the steering control ECU 240 are connected via a vehicle-mounted network 250.
  • the control unit 110 includes an object detection unit 112, a detection accuracy determination unit 114, and a passenger support unit 116.
  • the control unit 110 includes a central processing unit (CPU), a microcomputer configured with a RAM and a ROM, and the like, and realizes the functions of these units by executing a program installed in advance by the microcomputer. However, some or all of the functions of these units may be realized by hardware circuits.
  • the object detection unit 112 detects a moving object around the vehicle 10 using the detection information of the autonomous sensor 120, and determines whether or not the detected moving information is the same as the detection information of the external device received via the communication unit 200.
  • the “moving object” is a predetermined moving object, for example, a pedestrian, a bicycle, a motorcycle, a car, and the like.
  • the detection accuracy determination unit 114 determines whether the detection accuracy of the autonomous sensor 120 is high.
  • the occupant support unit 116 performs the occupant support in accordance with the detection information and the determination content of the detection accuracy determination unit 114.
  • the “passenger support” is support for the occupant of the vehicle 10 and assists driving of the vehicle 10 and issues a warning to a moving body around the vehicle 10.
  • the passenger support for example, adaptive cruise control (Adaptive Cruise Control), an automatic braking function, a blind spot monitor, a lane change assist, a preceding vehicle start notification, a door opening alert, a following vehicle rear-end collision alert, and the like are given.
  • the “automatic braking function” includes a control in which the automatic driving control unit 210 automatically reduces the traveling speed of the vehicle 10 or automatically stops the traveling of the vehicle 10 when there is a risk that the vehicle 10 collides with a moving object, This is a passenger support that warns a passenger of the vehicle 10 with a warning sound.
  • the “blind spot monitor” is configured to, when detecting a moving body in a blind spot behind the vehicle 10 that is difficult to be confirmed by the door mirror when performing a lane change, the notification unit 140 illuminates an indicator in the door mirror, for example. It is a passenger support that warns the driver.
  • the “door opening alert” is a passenger support in which the notification unit 140 warns the passenger by, for example, a warning sound when detecting a moving object moving toward the vehicle 10 when opening the door of the vehicle 10.
  • the “following vehicle collision alert” is a passenger support that detects a following vehicle of the vehicle 10 and, when there is a danger of collision, the notification unit 140 turns on, for example, a hazard lamp to warn the following vehicle. Further, when there is a high possibility that the vehicle will collide with the following vehicle, the tightening of the seat belt may be strengthened and the seat may be moved to an optimal position in preparation for the collision. Passenger assistance is also called driving assistance.
  • the autonomous sensor 120 is a sensor for detecting an object around the vehicle 10 and includes a camera 122 and an object sensor 124.
  • the camera 122 captures an image by capturing the surroundings of the own vehicle. Examples of the camera 122 include a monocular camera and a stereo camera.
  • the object sensor 124 detects a situation around the own vehicle. Examples of the object sensor 124 include an object sensor using a reflected wave such as a lidar (LIDAR: laser radar), a millimeter wave radar, and an ultrasonic sensor.
  • LIDAR lidar
  • the camera 122 and the object sensor 124 are also simply referred to as “sensors”.
  • the autonomous sensor 120 preferably includes a plurality of sensors.
  • the vehicle position sensor 126 detects the current vehicle position of the vehicle 10. Examples of the vehicle position sensor 126 include a global navigation satellite system (Global Navigation Satellite System (s) (GNSS)) and a gyro sensor.
  • GNSS Global Navigation Satellite System
  • the notification unit 140 gives a notification or a warning to a passenger of the vehicle 10 or a moving body around the vehicle 10 in the passenger support.
  • the notification unit 140 can be realized using, for example, a lamp such as an LED, a display device that displays characters and pictures such as a car navigation system, a sound device such as a speaker, a hazard lamp, and the like.
  • the communication unit 200 receives detection information from a device external to the vehicle 10 by vehicle-to-vehicle communication, vehicle-to-vehicle communication, road-to-vehicle communication, or the like.
  • the automatic driving control unit 210 controls the driving force control ECU 220, the braking force control ECU 230, and the steering control ECU 240 to realize an automatic driving function.
  • the driving force control ECU 220 is an electronic control unit that controls an actuator such as a motor that generates driving force for the vehicle.
  • the driving force control ECU 220 controls a power source such as an engine or an electric motor according to the operation amount of an accelerator pedal.
  • the driving force control ECU 220 controls the power source according to the required driving force calculated by the automatic driving control unit 210.
  • the braking force control ECU 230 is an electronic control unit that controls a brake actuator that generates a braking force for the vehicle.
  • the braking force control ECU 230 controls the brake actuator according to the operation amount of the brake pedal.
  • the braking force control ECU 230 controls the brake actuator according to the required braking force calculated by the automatic driving control unit 210.
  • the steering control ECU 240 is an electronic control unit that controls a motor that generates a steering torque of the vehicle.
  • the steering control ECU 240 controls the motor in accordance with the operation of the steering wheel to generate assist torque for the steering operation.
  • the driver can operate the steering wheel with a small amount of force, thereby realizing the steering of the vehicle.
  • the steering control ECU 240 performs steering by controlling the motor in accordance with the required steering angle calculated by the automatic driving control unit 210.
  • the processing for detecting a moving object shown in FIG. 2 is a series of processing for determining the mode of the occupant support in accordance with the detection accuracy of the autonomous sensor 120. This process is a process repeatedly executed by the control unit 110 when the object detection unit 112 detects a moving object from the detection information of the autonomous sensor 120 during the operation of the vehicle control device 100.
  • the detection accuracy determination unit 114 determines whether the detection state of the autonomous sensor 120 satisfies the detection accuracy condition. When this condition is satisfied, it can be determined that the detection accuracy of the autonomous sensor 120 is high.
  • the detection accuracy condition for example, any one or more of the following conditions can be adopted.
  • the detection accuracy condition includes the detection accuracy condition 1.
  • the detection accuracy of the rider as the object sensor 124 is reduced.
  • the weather for example, weather obtained from an external server via the communication unit 200 can be used.
  • raindrops may be detected by image recognition or a rain sensor to determine the weather.
  • the detection accuracy of the camera 122 is reduced due to, for example, backlight caused by headlights of an oncoming vehicle or a decrease in contrast due to a decrease in illuminance.
  • the sunrise time and the sunset time for example, those obtained from an external server via the communication unit 200 can be used.
  • the sunrise time or the sunset time when the illuminance detected by the illuminance sensor that detects the brightness outside the vehicle is equal to or greater than a predetermined threshold, it may be determined that the vehicle is not at night.
  • the detection accuracy of the camera 122 is reduced due to backlight.
  • the position of the sun for example, a position obtained from an external server via the communication unit 200 can be used.
  • the detection range of the autonomous sensor 120 may be a range in which a margin is provided for the specification of each sensor, or may be changed according to the running conditions such as weather and time zone.
  • the detection range of the camera 122 may be considered to be shorter in the nighttime than in the nighttime.
  • the detection range of the object sensor 124 may be considered to be shorter than when it is not.
  • the above detection accuracy conditions 1 to 6 and other detection accuracy conditions can be combined as appropriate to make a detection accuracy condition.
  • the above-described detection accuracy condition 1 is used.
  • the occupant support unit 116 proceeds to step S125, and determines the mode (mode) of the occupant support to be the first occupant support mode.
  • the object detection unit 112 proceeds to step S110, and determines whether the moving object condition is satisfied.
  • the moving object condition is detected from the moving object detected from the detection information of the autonomous sensor (hereinafter, also referred to as “first moving object”) and the detection information received from the external device via the communication unit 200 of the vehicle 10.
  • this condition is satisfied, it can be determined that the detection information of the autonomous sensor 120 is not a false detection.
  • any one or more of the following conditions can be adopted as the moving object condition.
  • ⁇ Moving object condition 1> The difference between the positions of the first moving body and the second moving body is smaller than a predetermined value ⁇ moving body condition 2>
  • the speed difference between the first moving body and the second moving body is smaller than a predetermined value ⁇ moving body condition 3>
  • the difference in acceleration between the first moving body and the second moving body is smaller than a predetermined value ⁇ moving body condition 4>
  • the difference in width between the first moving body and the second moving body is smaller than a predetermined value ⁇ moving body condition 5>
  • the difference in height between the first moving body and the second moving body is smaller than a predetermined value ⁇ moving body condition 6>
  • the difference in depth between the first moving body and the second moving body is smaller than a predetermined value ⁇ moving body condition 7>
  • the types of the first mobile unit and the second mobile unit are the same
  • the moving object condition 7 can be determined, for example, by estimating the type of the moving object by pattern matching.
  • type means distinction between a four-wheeled vehicle, a two-wheeled vehicle, and a pedestrian. Note that a bicycle and a motorcycle may be treated as different types. Also, trucks and passenger cars may be treated as different types. Further, a bicycle moving in the front-back direction of the vehicle 10 and a pedestrian may be treated as the same distinction.
  • the above-mentioned moving object conditions 1 to 7 and other moving object conditions can be appropriately combined to be a moving object condition.
  • the weight of each difference may be weighted using the moving object conditions 1 to 6, and it may be determined that the moving object condition is satisfied when the weighted value is equal to or less than a predetermined threshold.
  • the above-described moving object conditions 1 to 7 are used.
  • the occupant support unit 116 proceeds to step S125, and changes the mode of the occupant support to the first boarding. Is determined to be the person support mode.
  • the moving object condition is not satisfied, that is, if it can be determined that the first moving object and the second moving object are not the same moving object, the occupant support unit 116 proceeds to step S120, and changes the mode of the occupant support.
  • a second passenger support mode different from the first passenger support mode is determined.
  • the second occupant support mode is a mode in which the occupant support is executed at a later timing than the first occupant support mode.
  • the occupant support unit 116 executes occupant support.
  • the occupant assistance processing will be described by taking an automatic brake as an example.
  • step S200 the occupant support unit 116 determines whether the occupant support mode is the first occupant support mode. When the mode of the occupant support is the first occupant support mode, the occupant support unit 116 proceeds to step S210, and determines the threshold value Th at the predicted collision time Tc to be the first value Th1. The collision prediction time Tc will be described later. If the mode of the occupant support is not the first occupant support mode, that is, if the occupant support mode is the second occupant support mode, the occupant support unit 116 proceeds to step S215, and sets the threshold Th in the collision prediction time Tc to the first value. The second value Th2 that is larger than Th1 is determined.
  • step S220 the occupant support unit 116 calculates the predicted collision time Tc.
  • the collision prediction time Tc can be obtained by the following equation (1).
  • Tc ⁇ L / ⁇ V (1)
  • ⁇ L is the distance between the host vehicle VL1 and the mobile unit VL2
  • ⁇ V is the relative speed between the host vehicle VL1 and the mobile unit VL2.
  • the position and the speed of the moving body VL2 may use only the detection information of the autonomous sensor 120, or may use only the detection information received via the communication unit 200. May be used as information obtained by a fusion process for performing integration or combination by weighted averaging or the like according to.
  • step S230 the passenger support unit 116 determines whether the predicted collision time Tc is equal to or less than the threshold Th. If the predicted collision time Tc is equal to or shorter than the threshold Th, the occupant support unit 116 proceeds to step S240 and notifies the braking force control ECU 230 of a command to operate the brake. If the predicted collision time Tc is longer than Th, the occupant support unit 116 returns to the process of step S220. That is, the processing of steps S220 and S230 is repeated until the predicted collision time Tc becomes equal to or less than the threshold Th. Note that, when a predetermined time has elapsed or when the distance between the host vehicle VL1 and the moving body VL2 is longer than the predetermined distance, the occupant support processing may be ended.
  • the vehicle control device 100 of the present embodiment described above when the occupant support unit 116 does not satisfy the detection accuracy condition, and the moving object detected by the autonomous sensor 120 is transmitted via the communication unit 200 If the detection is not detected from the detection information received from the external device, the mode of the occupant support is determined to be the second occupant support mode different from the first occupant support mode. Can be executed. Further, even when there is no communication device around the vehicle 10, if the detection accuracy of the autonomous sensor 120 is high, it is possible to perform various types of passenger support.
  • the occupant support unit 116 may determine the information of the mobile object VL2 used in the occupant support processing according to the detection accuracy of the autonomous sensor 120. For example, when the detection accuracy condition is satisfied, only the detection information of the autonomous sensor 120 may be used, and the detection information received from an external device via the communication unit 200 may not be used. Further, when the detection accuracy condition is not satisfied and when the moving object condition is satisfied, information obtained by performing fusion processing on the detection information of the autonomous sensor 120 and the detection information received via the communication unit 200 may be used. Good. If the detection accuracy condition is not satisfied and the mobile object condition is not satisfied, only the detection information received via the communication unit 200 may be used.
  • the second occupant support mode is configured to execute the occupant support at a later timing than the first occupant support mode.
  • the second occupant support mode may be a mode in which the occupant support is executed to a lower degree than the first occupant support mode. For example, when a warning sound is issued as a passenger support in the second passenger support mode, the warning sound may be set lower than the first passenger support mode, or the duration of the warning sound may be shorter. Further, when the indicator is turned on as the passenger support, the indicator may be turned on with a lower illuminance in the second passenger support mode than in the first passenger support mode.
  • the acceleration / deceleration in the second passenger support mode is made smaller than that in the first passenger support mode, or the first passenger support mode and the second passenger support mode are switched.
  • the upper and lower limits of the inter-vehicle distance and the upper and lower limits of the inter-vehicle time may be changed.
  • the “inter-vehicle time” is a value obtained by dividing the inter-vehicle distance by the speed of the host vehicle VL1.
  • the mode of the passenger support may be different for each function of the passenger support.
  • the occupant assistance unit 116 may determine the second occupant assistance mode according to the detection accuracy of the autonomous sensor 120. For example, when a moving object is detected by only one sensor within the spatial detection range of a plurality of sensors, the moving object is detected only by that sensor within the spatial detection range of a certain sensor. Also, since the possibility of erroneous detection of the moving object is high and the detection accuracy is low, the mode in which the occupant assistance is executed to a lesser degree may be adopted.
  • the object detection unit 112 detects the moving object (first moving object) detected from the detection information of the autonomous sensor 120 and the detection information received from the external device via the communication unit 200 of the vehicle 10. It is determined whether the detected moving object (the second moving object) is the same as the moving object. The object detection unit 112 may further determine whether or not the moving objects detected from the detection information received from the plurality of external devices via the communication unit 200 are the same. The object detection unit 112 determines that the second mobile object is, for example, the mobile object detected by the largest number of external devices in determining whether the first mobile object and the second mobile object are the same. it can.
  • the object detection unit 112 can set the moving object detected by the least number of sensors as the first moving object.
  • the possibility of erroneous detection is lower than when the moving body is moving. Therefore, the moving body detected by the next least sensor is set as the first moving body. Is also good.
  • the automatic driving control unit 210 may determine the mode of the driving control according to the detection accuracy, similarly to the occupant assistance. For example, when the automatic driving control unit 210 does not satisfy the detection accuracy condition and does not satisfy the moving object condition, the timing of performing the brake in the automatic driving is later than when the detection accuracy condition is satisfied. To decide.
  • the present disclosure is not limited to the above-described embodiments, and can be implemented with various configurations without departing from the spirit thereof.
  • the technical features in the embodiments corresponding to the technical features in each embodiment described in the summary of the invention are for solving the above-described problems or for achieving some or all of the above-described effects.
  • replacement and combination can be appropriately performed.
  • the technical features are described as essential in this specification, they can be deleted as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

自律センサ(120)と通信部(200)とを有する車両(10)に搭載される車両制御装置(100)は、自律センサの検知情報から車両周辺の移動体を検知する物体検知部(112)と、自律センサの検知状態が予め定めた検知精度条件を満たすか否か判定する検知精度判定部(114)と、車両の搭乗者に対する搭乗者支援を実行する搭乗者支援部(116)と、を備える。物体検知部は、通信部を介して外部機器から受信した検知情報から検知される移動体と、自律センサの検知情報から検知される移動体とが同一であることを示す予め定められた移動体条件を満たすか否か判定し、搭乗者支援部は、検知精度条件を満たす場合に搭乗者支援の態様を第1搭乗者支援態様に決定し、検知精度条件を満たさない場合で、かつ、移動体条件を満たさない場合に、搭乗者支援の態様を第2搭乗者支援態様に決定する。

Description

車両制御装置および車両制御方法 関連出願の相互参照
 本出願は、2018年7月20日に出願された日本出願番号2018-136492号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両制御装置および車両制御方法に関する。
 車車間通信等により車両周辺の通信機より取得した情報を用いて走行支援を行う車両制御装置が知られている。特許文献1に記載の走行支援システムでは、車車間通信と歩車間通信とで取得した情報に応じて車両の搭乗者を支援する搭乗者支援を行う。
特開2005-9933号公報
 しかし、従来は、車両周辺の通信機より取得した情報に応じて搭乗者支援の態様を決定しており、自車両の自律センサの検知精度について十分に考慮されていないのが実状であった。例えば、搭乗者支援が先行車両発信通知の場合、自律センサの検知精度が低い場合には先行車両が発進していないのに発進したと誤検出する恐れがあり、不必要に通知をする恐れがある。そのため、自律センサの検知精度に応じた搭乗者支援を実行できる技術が望まれていた。
 本開示は、以下の形態として実現することが可能である。
 本開示の一形態によれば、自律センサと通信部とを有する車両に搭載される車両制御装置が提供される。この車両制御装置は、前記自律センサの検知情報から前記車両周辺の移動体を検知する物体検知部と、前記自律センサの検知状態が予め定めた検知精度条件を満たすか否か判定する検知精度判定部と、前記車両の搭乗者に対する支援である搭乗者支援を実行する搭乗者支援部と、を備え、前記物体検知部は、前記通信部を介して外部機器から受信した検知情報から検知される移動体と、前記自律センサの検知情報から検知される移動体とが同一であることを示す予め定められた移動体条件を満たすか否か判定し、前記搭乗者支援部は、前記検知精度条件を満たす場合に前記搭乗者支援の態様を第1搭乗者支援態様に決定し、前記検知精度条件を満たさない場合で、かつ、前記移動体条件を満たさない場合に、前記搭乗者支援の態様を前記第1搭乗者支援態様と異なる第2搭乗者支援態様に決定する。
 この形態の車両制御装置によれば、搭乗者支援部が、検知精度条件を満たさない場合で、かつ、移動体条件を満たさない場合に、搭乗者支援を第1搭乗者支援態様と異なる第2搭乗者支援態様に決定するため、自律センサの検知精度に応じた搭乗者支援を実行できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、車両制御装置の構成の概要を示す説明図であり、 図2は、移動体検知時処理の一例を示したフローチャートであり、 図3は、搭乗者支援処理の一例を示したフローチャートであり、 図4は、自動ブレーキ機能の例を示す説明図である。
A.第1実施形態:
 図1に示す車両制御装置100は、車両10の搭乗者支援を実行する。搭乗者支援については後述する。本実施形態において、車両制御装置100は、車両10の自動運転を実行する。運転手が手動で運転してもよい。本実施形態において、車両制御装置100は、制御部110と、自律センサ120と、自車位置センサ126と、通知部140と、通信部200と、自動運転制御部210と、駆動力制御ECU220(Electronic Control Unit)と、制動力制御ECU230と、操舵制御ECU240と、車載ネットワーク250と、を備える。制御部110と、通信部200と、自動運転制御部210と、駆動力制御ECU220と、制動力制御ECU230と、操舵制御ECU240とは、車載ネットワーク250を介して接続される。
 制御部110は、物体検知部112と、検知精度判定部114と、搭乗者支援部116と、を備える。制御部110は、中央処理装置(CPU)や、RAM、ROMにより構成されたマイクロコンピュータ等からなり、予めインストールされたプログラムをマイクロコンピュータが実行することによって、これらの各部の機能を実現する。ただし、これらの各部の機能の一部又は全部をハードウェア回路で実現してもよい。
 物体検知部112は、自律センサ120の検知情報を用いて車両10の周辺の移動体を検知し、通信部200を介して受信した外部機器の検知情報の移動体と同一か否か判定する。「移動体」とは、移動する予め定めた物体であり、例えば、歩行者や自転車、バイク、自動車等が挙げられる。検知精度判定部114は、自律センサ120の検知精度が高いか否か判定する。搭乗者支援部116は、検知情報や検知精度判定部114の判定内容に応じて、搭乗者支援を実行する。「搭乗者支援」とは、車両10の搭乗者に対する支援であり、車両10の運転の支援や車両10の周囲の移動体に警告を実行する。
 搭乗者支援として、本実施形態では、例えば、アダプティブクルーズコントロール(Adaptive Cruise Control)や自動ブレーキ機能、ブラインドスポットモニタ、レーンチェンジアシスト、先行車両発進通知、ドアオープニングアラート、後続車両追突アラート等が挙げられる。「自動ブレーキ機能」は、車両10が移動体と衝突する危険がある場合に、自動運転制御部210が、車両10の走行速度を自動で減速または車両10の走行を自動で停止する制御や、警告音によって車両10の搭乗者に警告を行う搭乗者支援である。「ブラインドスポットモニタ」は、車線変更を行う際にドアミラーでは確認しにくい車両10後方の死角に移動体を検知した場合に、通知部140が、例えば、ドアミラー内のインジケーターを点灯し、車両10の運転手に警告する搭乗者支援である。「ドアオープニングアラート」は、車両10のドアを開ける際に車両10に向かって移動する移動体を検知した場合に、通知部140が、例えば警告音によって搭乗者に警告する搭乗者支援である。「後続車両追突アラート」は、車両10の後続車両を検知し、衝突の危険がある場合に、通知部140が、例えばハザードランプを点灯し、後続車両に警告する搭乗者支援である。また、後続車両と衝突する可能性が高い場合に、シートベルトの締め付けを強め、衝突に備えてシートを最適な位置に移動してもよい。搭乗者支援は運転支援ともいう。
 自律センサ120は、車両10の周囲の物体を検出するためのセンサであり、カメラ122と物体センサ124とを備える。カメラ122は、自車両の周囲を撮像して画像を取得する。カメラ122としては、例えば、単眼カメラやステレオカメラが挙げられる。物体センサ124は、自車両の周囲の状況を検出する。物体センサ124として、例えば、ライダー(LIDAR:レーザレーダー)、ミリ波レーダー、超音波センサ等の反射波を利用した物体センサが挙げられる。カメラ122や物体センサ124を単に「センサ」ともいう。自律センサ120は、複数のセンサを備えていることが好ましい。
 自車位置センサ126は、現在の車両10の車両位置を検出する。自車位置センサ126として、例えば、汎地球航法衛星システム(Global Navigation Satellite System(s)(GNSS))やジャイロセンサ等が挙げられる。
 通知部140は、搭乗者支援において、車両10の搭乗者や車両10の周囲の移動体に対して、通知や警告をする。通知部140は、例えば、LED等のランプ、カーナビ等文字や絵を映し出す表示装置や、スピーカ等の音声装置、ハザードランプ等を用いて実現することが可能である。
 通信部200は、車車間通信や歩車間通信、路車間通信等により、車両10の外部の機器から検知情報の受信を行う。
 自動運転制御部210は、駆動力制御ECU220と制動力制御ECU230と操舵制御ECU240とを制御して自動運転機能を実現する。
 駆動力制御ECU220は、モータなど車両の駆動力を発生するアクチュエータを制御する電子制御装置である。運転者が手動で運転を行う場合、駆動力制御ECU220は、アクセルペダルの操作量に応じてエンジンや電気モータである動力源を制御する。一方、自動運転を行う場合、駆動力制御ECU220は、自動運転制御部210で演算された要求駆動力に応じて動力源を制御する。
 制動力制御ECU230は、車両の制動力を発生するブレーキアクチュエータを制御する電子制御装置である。運転者が手動で運転を行う場合、制動力制御ECU230は、ブレーキペダルの操作量に応じてブレーキアクチュエータを制御する。一方、自動運転を行う場合、制動力制御ECU230は、自動運転制御部210で演算された要求制動力に応じてブレーキアクチュエータを制御する。
 操舵制御ECU240は、車両の操舵トルクを発生するモータを制御する電子制御装置である。運転者が手動で運転を行う場合、操舵制御ECU240は、ステアリングハンドルの操作に応じてモータを制御して、ステアリング操作に対するアシストトルクを発生させる。これにより、運転者が少量の力でステアリングを操作でき、車両の操舵を実現する。一方、自動運転を行う場合、操舵制御ECU240は、自動運転制御部210で演算された要求操舵角に応じてモータを制御することで操舵を行う。
 図2に示す移動体検知時処理は、自律センサ120の検知精度に応じて搭乗者支援の態様を決定する一連の処理である。この処理は車両制御装置100の動作中、物体検知部112が自律センサ120の検知情報から移動体を検知した場合に、制御部110により繰り返し実行される処理である。
 まず、検知精度判定部114は、ステップS100において、自律センサ120の検知状態が検知精度条件を満たすか否か判定する。この条件を満たす場合、自律センサ120の検知精度が高いと判定できる。検知精度条件として、例えば、以下のような条件のいずれか1つ以上を採用することが可能である。
<検知精度条件1>
自律センサ120の複数のセンサのうちの2つ以上のセンサで移動体が検知できたこと
<検知精度条件2>
悪天候でないこと(具体的には、例えば、雨または雪が降っていないことや霧が出ていないこと)
<検知精度条件3>
夜間でないこと(具体的には、例えば、日出時刻以降で日没時刻以前であること)
<検知精度条件4>
逆光でないこと(具体的には、例えば、太陽が低い位置にある場合に車両10の進行方向が太陽に向いていないこと)
<検知精度条件5>
移動体の全体が自律センサ120の空間的な検知範囲内にあること
<検知精度条件6>
自律センサ120の各センサの検知情報から検知される各移動体が同一であること
 上記の検知精度条件1が成立していない場合、1つのセンサしか移動体を検知していないため、誤検出である可能性が高く、検知精度が低いと推定できる。従って、検知精度条件にはこの検知精度条件1を含むことが好ましい。
 上記の検知精度条件2が成立していない場合、例えば、雨の場合、物体センサ124であるライダーの検知精度が低下する。天候は、例えば、通信部200を介して外部サーバより取得したものを用いることができる。また、画像認識やレインセンサによって雨粒を検出し、天候を判定してもよい。
 上記の検知精度条件3が成立していない場合、例えば、対向車のヘッドライトによる逆光や、照度の低下によるコントラストの低下でカメラ122の検知精度が低下する。日出時刻および日没時刻は、例えば、通信部200を介して外部サーバより取得したものを用いることができる。また、日出時刻や日没時刻を用いる代わりに、車外の明るさを検出する照度センサで検出される照度が予め定めた閾値以上の場合に夜間でないと判定してもよい。
 上記の検知精度条件4が成立していない場合、例えば、太陽が低い位置にある夕方に車両10の進行方向が太陽に向いている場合、逆光によりカメラ122の検知精度が低下する。太陽の位置は、例えば、通信部200を介して外部サーバより取得したものを用いることができる。
 上記の検知精度条件5が成立していない場合、つまり、移動体の一部のみが自律センサ120の空間的な検知範囲内にある場合、検知精度が低いと推定できる。自律センサ120の検知範囲は、各センサの仕様にマージンを持たせた範囲としてもよく、天候や時間帯等の走行状況に応じて変わるようにしてもよい。例えば、夜間の場合には、夜間でない場合よりもカメラ122の検知範囲が短いものと見なしてもよい。また、雨や雪が降っている場合には、そうでない場合よりも物体センサ124の検知範囲が短いものと見なしてもよい。
 上記の検知精度条件6が成立していない場合、誤検出である可能性が高く、検知精度が低いと推定できる。なお、検知された移動体が同一か否かの判定については後述する移動体条件を満たすか否かで判定する。
 また、上記の検知精度条件1~6やその他の検知精度条件を適宜組み合わせて検知精度条件とすることもできる。本実施形態では、上述した検知精度条件1を使用する。
 検知精度条件を満たす場合、つまり自律センサ120の検知精度が高いと判定できる場合、搭乗者支援部116はステップS125に進み、搭乗者支援の態様(モード)を第1搭乗者支援態様に決定する。一方、検知精度条件を満たさない場合、つまり、自律センサ120の検知精度が低いと判定できる場合、物体検知部112はステップS110に進み、移動体条件を満たすか否か判定する。移動体条件とは、自律センサの検知情報から検知される移動体(以下、「第1移動体」とも言う)と、車両10の通信部200を介して外部機器から受信した検知情報から検知される移動体(以下、「第2移動体」とも言う)と、が同一であることを示す予め定められた条件である。この条件を満たす場合、自律センサ120の検知情報が誤検出でないと判定できる。移動体条件として、例えば、以下のような条件のいずれか1つ以上を採用することが可能である。
<移動体条件1>
第1移動体と第2移動体との位置の差が予め定めた値より小さい
<移動体条件2>
第1移動体と第2移動体との速度の差が予め定めた値より小さい
<移動体条件3>
第1移動体と第2移動体との加速度の差が予め定めた値より小さい
<移動体条件4>
第1移動体と第2移動体との幅の差が予め定めた値より小さい
<移動体条件5>
第1移動体と第2移動体との高さの差が予め定めた値より小さい
<移動体条件6>
第1移動体と第2移動体との奥行きの差が予め定めた値より小さい
<移動体条件7>
第1移動体と第2移動体との種別が同一である
 上記の移動体条件7は、例えば、移動体の種別をパターンマッチングにより推定することで、判定できる。本実施形態において「種別」とは、四輪車、二輪車、歩行者の区別を意味する。なお、自転車とバイクとを異なる種別として扱ってもよい。また、トラックと乗用車とを異なる種別として扱ってもよい。また、車両10の前後方向に移動する自転車と歩行者とを同一区別として扱ってもよい。
 また、上記の移動体条件1~7やその他の移動体条件を適宜組み合わせて移動体条件とすることもできる。例えば、移動体条件1~6を使用し、各差の値に重み付けを実施し、重み付け後の値が予め定めた閾値以下の場合に移動体条件を満たすと判定してもよい。本実施形態では、上述した移動体条件1~7を使用する。
 移動体条件を満たす場合、つまり第1移動体と第2移動体とが同一の移動体であると判定できる場合、搭乗者支援部116はステップS125に進み、搭乗者支援の態様を第1搭乗者支援態様に決定する。一方、移動体条件を満たさない場合、つまり、第1移動体と第2移動体とが同一の移動体でないと判定できる場合、搭乗者支援部116はステップS120に進み、搭乗者支援の態様を第1搭乗者支援態様と異なる第2搭乗者支援態様に決定する。本実施形態において、第2搭乗者支援態様は、第1搭乗者支援態様よりも遅いタイミングで搭乗者支援を実行する態様である。最後に、搭乗者支援部116は、ステップS130において、搭乗者支援を実行する。本実施形態において、搭乗者支援処理を自動ブレーキを例として説明する。
 図3に示す搭乗者支援処理(図2、ステップS130)は、まず、ステップS200において、搭乗者支援部116が、搭乗者支援の態様が第1搭乗者支援態様か否か判定する。搭乗者支援の態様が第1搭乗者支援態様の場合、搭乗者支援部116は、ステップS210に進み、衝突予測時間Tcにおける閾値Thを第1の値Th1に決定する。衝突予測時間Tcについては後述する。搭乗者支援の態様が第1搭乗者支援態様でない場合、つまり、第2搭乗者支援態様の場合、搭乗者支援部116は、ステップS215に進み、衝突予測時間Tcにおける閾値Thを第1の値Th1よりも大きい第2の値Th2に決定する。
 続いて、搭乗者支援部116は、ステップS220において、衝突予測時間Tcを算出する。衝突予測時間Tcは次の式(1)で求めることができる。
 Tc = ΔL / ΔV …(1)
図4に示すように、ここでΔLは自車両VL1と移動体VL2との距離であり、ΔVは自車両VL1と移動体VL2との相対速度である。移動体VL2の位置や速度は、自律センサ120の検知情報のみを用いてもよく、通信部200を介して受信した検知情報のみを用いてもよく、これらの単純平均やセンサの種類や検知位置に応じた重み付け平均等による統合や結合を行うフュージョン処理によって求めた情報を用いてもよい。
 続いて、搭乗者支援部116は、ステップS230において、衝突予測時間Tcが閾値Th以下か否か判定する。衝突予測時間Tcが閾値Th以下の場合、搭乗者支援部116は、ステップS240に進み、ブレーキを作動させるよう制動力制御ECU230に指令を通知する。衝突予測時間TcがThより大きい場合、搭乗者支援部116は、ステップS220の処理に戻る。つまり、衝突予測時間Tcが閾値Th以下になるまでステップS220、S230の処理を繰り返す。なお、予め定められた時間が経過した場合や自車両VL1と移動体VL2との距離が予め定めた距離より離れた場合は、搭乗者支援処理を終了してもよい。
 以上で説明した本実施形態の車両制御装置100によれば、搭乗者支援部116が、検知精度条件を満たさない場合で、かつ、自律センサ120で検知された移動体が通信部200を介して外部機器から受信した検知情報より検知されない場合に、搭乗者支援の態様を第1搭乗者支援態様と異なる第2搭乗者支援態様に決定するため、自律センサ120の検知精度に応じた搭乗者支援を実行できる。また、車両10の周辺に通信機が存在しない場合でも、自律センサ120の検知精度が高い場合、各種搭乗者支援を実施可能になる。
B.その他の実施形態:
 上記実施形態において、搭乗者支援部116は、搭乗者支援処理において利用する移動体VL2の情報を、自律センサ120の検知精度に応じて決定してもよい。例えば、検知精度条件を満たす場合、自律センサ120の検知情報のみを用い、通信部200を介して外部機器から受信した検知情報を用いなくてもよい。また、検知精度条件を満たさない場合で、かつ、移動体条件を満たす場合、自律センサ120の検知情報と通信部200を介して受信した検知情報とをフュージョン処理して求めた情報を用いてもよい。また、検知精度条件を満たさない場合で、かつ、移動体条件を満たさない場合、通信部200を介して受信した検知情報のみを用いてもよい。
 また、上記実施形態において、第2搭乗者支援態様は、第1搭乗者支援態様よりも遅いタイミングで搭乗者支援を実行する態様としている。この代わりに、第2搭乗者支援態様は、第1搭乗者支援態様よりも弱い度合いで搭乗者支援を実行する態様としてもよい。例えば、搭乗者支援として警告音によって警告する場合、第2搭乗者支援態様では第1搭乗者支援態様よりも警告音を小さくしたり、警告音を鳴らす時間を短くしてもよい。また、搭乗者支援としてインジケーターを点灯する場合、第2搭乗者支援態様では第1搭乗者支援態様よりも低い照度で点灯してもよい。また、搭乗者支援としてアダプティブクルーズコントロールを実行する場合、第2搭乗者支援態様では第1搭乗者支援態様よりも加減速度を小さくしたり、第1搭乗者支援態様と第2搭乗者支援態様との車間距離の上限および下限や、車間時間の上限および下限を変更してもよい。「車間時間」とは、車間距離を自車両VL1の速度で割った値である。また、搭乗者支援の機能毎に、搭乗者支援態様を異なる態様にしてもよい。
 また、上記実施形態において、搭乗者支援部116は、自律センサ120の検知精度に応じて、第2搭乗者支援態様を決定してもよい。例えば、複数のセンサの空間的な検知範囲内において1つのセンサでのみ移動体が検知された場合には、あるセンサの空間的な検知範囲内においてそのセンサでのみ移動体が検知された場合よりも移動体が誤検出である可能性が高く、検知精度が低いため、より弱い度合いで搭乗者支援を実行する態様としてもよい。
 また、上記実施形態において、物体検知部112は、自律センサ120の検知情報から検知された移動体(第1移動体)と、車両10の通信部200を介して外部機器から受信した検知情報から検知される移動体(第2移動体)と、が同一であるか否か判定している。物体検知部112は、更に、通信部200を介して複数の外部機器から受信した検知情報から検知される各移動体が同一であるか否か判定してもよい。物体検知部112は、第1移動体と第2移動体とが同一であるか否かの判定において、第2移動体を、例えば、最も多くの外部機器で検知された移動体とすることができる。
 また、上記実施形態において、物体検知部112は、検知精度条件6を満たさない場合に、例えば、最も少ないセンサで検知された移動体を第1移動体とすることができる。また、この移動体が移動していない場合、移動体が移動している場合と比べて、誤検知である可能性が低いため、次に少ないセンサで検知された移動体を第1移動体としてもよい。
 また、上記実施形態において、自動運転制御部210は、搭乗者支援と同様に、検知精度に応じて、運転制御の態様を決定してもよい。例えば、自動運転制御部210は、検知精度条件を満たさない場合で、かつ、移動体条件を満たさない場合に、検知精度条件を満たす場合に比べて、自動運転におけるブレーキを実施するタイミングが遅い態様に決定する。
 本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述した課題を解決するために、あるいは上述の効果の一部又は全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜削除することが可能である。

Claims (6)

  1.  自律センサ(120)と通信部(200)とを有する車両(10)に搭載される車両制御装置(100)であって、
     前記自律センサの検知情報から前記車両周辺の移動体を検知する物体検知部(112)と、
     前記自律センサの検知状態が予め定めた検知精度条件を満たすか否か判定する検知精度判定部(114)と、
     前記車両の搭乗者に対する支援である搭乗者支援を実行する搭乗者支援部(116)と、を備え、
     前記物体検知部は、前記通信部を介して外部機器から受信した検知情報から検知される移動体と、前記自律センサの検知情報から検知される移動体とが同一であることを示す予め定められた移動体条件を満たすか否か判定し、
     前記搭乗者支援部は、
      前記検知精度条件を満たす場合に前記搭乗者支援の態様を第1搭乗者支援態様に決定し、
      前記検知精度条件を満たさない場合で、かつ、前記移動体条件を満たさない場合に、前記搭乗者支援の態様を前記第1搭乗者支援態様と異なる第2搭乗者支援態様に決定する、車両制御装置。
  2.  請求項1に記載の車両制御装置であって、
     前記移動体条件は、前記自律センサの検知情報から検知される移動体と前記外部機器の検知情報から検知される移動体との、位置の差と、速度の差と、加速度の差と、幅の差と、高さの差と、奥行きの差と、のうち少なくとも1つが予め定めた値より小さいこと、及び、前記自律センサの検知情報から検知される移動体の種別と前記外部機器の検知情報から検知される移動体の種別とが同一であること、の少なくとも一方を含む、車両制御装置。
  3.  請求項1または請求項2に記載の車両制御装置であって、
     前記第2搭乗者支援態様は、前記第1搭乗者支援態様よりも遅いタイミングで前記搭乗者支援を実行する態様である、車両制御装置。
  4.  請求項1から請求項3のうちいずれか一項に記載の車両制御装置であって、
     前記搭乗者支援は、前記車両の走行を自動で減速または停止する自動ブレーキ機能を含む、車両制御装置。
  5.  請求項1から請求項4のうちいずれか一項に記載の車両制御装置であって、
     前記自律センサは、複数のセンサを含み、
     前記検知精度条件は、前記複数のセンサのうちの2つ以上のセンサで前記移動体が検知されたことを含む、車両制御装置。
  6.  自律センサ(120)と通信部(200)とを有する車両(10)の車両制御方法であって、
     前記自律センサの検知状態が予め定めた検知精度条件を満たすか否か判定し、
     前記通信部を介して外部機器から受信した検知情報から検知される移動体と、前記自律センサの検知情報から検知される移動体とが同一であることを示す予め定められた移動体条件を満たすか否か判定し、
     前記検知精度条件を満たす場合に前記車両の搭乗者に対する支援である搭乗者支援の態様を第1搭乗者支援態様に決定し、
     前記検知精度条件を満たさない場合で、かつ、前記移動体条件を満たさない場合に、前記搭乗者支援の態様を前記第1搭乗者支援態様と異なる第2搭乗者支援態様に決定する、車両制御方法。
PCT/JP2019/022553 2018-07-20 2019-06-06 車両制御装置および車両制御方法 WO2020017179A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/151,493 US11878670B2 (en) 2018-07-20 2021-01-18 Apparatus and method for controlling vehicle to perform occupant assistance according to detection accuracy of autonomous sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018136492A JP7044000B2 (ja) 2018-07-20 2018-07-20 車両制御装置および車両制御方法
JP2018-136492 2018-07-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/151,493 Continuation US11878670B2 (en) 2018-07-20 2021-01-18 Apparatus and method for controlling vehicle to perform occupant assistance according to detection accuracy of autonomous sensor

Publications (1)

Publication Number Publication Date
WO2020017179A1 true WO2020017179A1 (ja) 2020-01-23

Family

ID=69164754

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/022553 WO2020017179A1 (ja) 2018-07-20 2019-06-06 車両制御装置および車両制御方法

Country Status (3)

Country Link
US (1) US11878670B2 (ja)
JP (1) JP7044000B2 (ja)
WO (1) WO2020017179A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244446A1 (ja) * 2021-05-21 2022-11-24 株式会社デンソー 制御装置、制御方法、および制御プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102653404B1 (ko) * 2020-05-08 2024-04-02 주식회사 에이치엘클레무브 차량의 제어 장치 및 제어 방법
US11800085B2 (en) * 2021-07-22 2023-10-24 Argo AI, LLC Motorized mounting device for positioning an optical element within a field-of-view of an optical sensor and method of use

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204151A (ja) * 2010-03-26 2011-10-13 Daihatsu Motor Co Ltd 車車間通信方法および車車間通信装置
JP2016192150A (ja) * 2015-03-31 2016-11-10 トヨタ自動車株式会社 車両走行制御装置
JP2018514016A (ja) * 2015-03-03 2018-05-31 ボルボトラックコーポレーション 車両支援システム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4203852B2 (ja) 2003-06-17 2009-01-07 マツダ株式会社 走行支援システム、車載端末器及び携帯型端末器
JP4193765B2 (ja) * 2004-01-28 2008-12-10 トヨタ自動車株式会社 車両用走行支援装置
JP4483589B2 (ja) * 2005-01-12 2010-06-16 日産自動車株式会社 車両用情報提供装置
WO2008146507A1 (ja) 2007-05-25 2008-12-04 Honda Motor Co., Ltd. 車両用走行支援装置及び走行支援システム
JP5552339B2 (ja) * 2010-03-12 2014-07-16 トヨタ自動車株式会社 車両制御装置
EP2586020B1 (de) * 2010-06-23 2018-05-09 Continental Teves AG & Co. oHG Verfahren und system zur informationsvalidierung
JP5569591B2 (ja) 2010-11-04 2014-08-13 トヨタ自動車株式会社 道路形状推定装置及び道路形状推定方法
DE102013102087A1 (de) * 2013-03-04 2014-09-04 Conti Temic Microelectronic Gmbh Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs
EP2865575B1 (en) * 2013-10-22 2022-08-24 Honda Research Institute Europe GmbH Confidence estimation for predictive driver assistance systems based on plausibility rules
JP6380232B2 (ja) * 2015-05-19 2018-08-29 株式会社デンソー 物体検出装置、及び物体検出方法
WO2017029847A1 (ja) * 2015-08-19 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
DE102016218424B4 (de) * 2015-10-13 2021-11-11 Ford Global Technologies, Llc Fahrerassistenzsystem
JP6964271B2 (ja) * 2016-03-31 2021-11-10 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
US11248925B2 (en) * 2016-07-28 2022-02-15 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented road line detection and display system
JP6839006B2 (ja) * 2017-03-21 2021-03-03 株式会社デンソー 車両の運転支援装置及び運転支援方法
US10466694B1 (en) * 2017-07-11 2019-11-05 Waymo Llc Methods and systems for providing remote assistance based on a tactile event
US10816991B2 (en) * 2017-07-11 2020-10-27 Waymo Llc Methods and systems for providing remote assistance via pre-stored image data
US10761542B1 (en) * 2017-07-11 2020-09-01 Waymo Llc Methods and systems for keeping remote assistance operators alert
US10311728B2 (en) * 2017-08-11 2019-06-04 Here Global B.V. Method and apparatus for providing a confidence-based road event message
DE102017217733A1 (de) * 2017-10-05 2019-04-11 Conti Temic Microelectronic Gmbh Prüfen eines neuronalen Netzes
JP6923458B2 (ja) * 2018-01-22 2021-08-18 日立Astemo株式会社 電子制御装置
US11010612B2 (en) * 2018-02-13 2021-05-18 Sumitomo Electric Industries, Ltd. Information generation device, information generation method, computer program, and in-vehicle device
US11210537B2 (en) * 2018-02-18 2021-12-28 Nvidia Corporation Object detection and detection confidence suitable for autonomous driving
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
JP6970807B2 (ja) * 2018-03-16 2021-11-24 株式会社日立製作所 移動体制御装置
US11099558B2 (en) * 2018-03-27 2021-08-24 Nvidia Corporation Remote operation of vehicles using immersive virtual reality environments
US10997429B2 (en) * 2018-04-11 2021-05-04 Micron Technology, Inc. Determining autonomous vehicle status based on mapping of crowdsourced object data
JP7111510B2 (ja) * 2018-06-01 2022-08-02 フォルシアクラリオン・エレクトロニクス株式会社 状態判定装置、運転支援装置、状態判定方法、及び、運転支援方法
US11299165B2 (en) * 2018-06-27 2022-04-12 Sony Corporation Evaluation device and evaluation method
EP3822945B1 (en) * 2018-07-11 2023-05-31 Nissan Motor Co., Ltd. Driving environment information generation method, driving control method, driving environment information generation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204151A (ja) * 2010-03-26 2011-10-13 Daihatsu Motor Co Ltd 車車間通信方法および車車間通信装置
JP2018514016A (ja) * 2015-03-03 2018-05-31 ボルボトラックコーポレーション 車両支援システム
JP2016192150A (ja) * 2015-03-31 2016-11-10 トヨタ自動車株式会社 車両走行制御装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244446A1 (ja) * 2021-05-21 2022-11-24 株式会社デンソー 制御装置、制御方法、および制御プログラム
JP7355074B2 (ja) 2021-05-21 2023-10-03 株式会社デンソー 制御装置、制御方法、および制御プログラム

Also Published As

Publication number Publication date
JP7044000B2 (ja) 2022-03-30
US20210162962A1 (en) 2021-06-03
JP2020013437A (ja) 2020-01-23
US11878670B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
US10843706B2 (en) Vehicle control apparatus
JP6593607B2 (ja) 車両制御装置
JP2018524730A (ja) 能動的な安全メカニズムの作動を適応させるための前方を走行中の車両の制動灯検出
JP7445028B2 (ja) 車両の制御システム、車両の制御方法、およびプログラム
US11180164B2 (en) Vehicle control apparatus, vehicle, and control method
EP3472014B1 (en) Automatic drive control system and method, and vehicle
CN109564734B (zh) 驾驶辅助装置、驾驶辅助方法、移动体和程序
US20230415735A1 (en) Driving support apparatus, control method of vehicle, and non-transitory computer-readable storage medium
CN103213533A (zh) 汽车转向灯自动控制***以及控制方法
US11878670B2 (en) Apparatus and method for controlling vehicle to perform occupant assistance according to detection accuracy of autonomous sensor
WO2018056104A1 (ja) 車両制御装置、車両制御方法、および移動体
JP2018005808A (ja) 車両の誤発進抑制装置
US20190283772A1 (en) Driving support system and vehicle control method
US11433888B2 (en) Driving support system
US11299163B2 (en) Control system of vehicle, control method of the same, and non-transitory computer-readable storage medium
JP2010076616A (ja) 車間距離制御装置
US20200391653A1 (en) Systems and methods for automatic vehicle tail lights
US11648937B2 (en) Driver assistance device
US20210300307A1 (en) Vehicle and control apparatus thereof
US20200384992A1 (en) Vehicle control apparatus, vehicle, operation method of vehicle control apparatus, and non-transitory computer-readable storage medium
CN112977451A (zh) 行驶辅助***及其控制方法
CN115123207A (zh) 驾驶辅助装置以及车辆
JP7303521B2 (ja) 車両制御装置
CN113511195A (zh) 车辆及其控制装置
JP2018165096A (ja) 接近回避支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19838816

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19838816

Country of ref document: EP

Kind code of ref document: A1