WO2019130552A1 - 車両制御システム、車両制御方法、およびプログラム - Google Patents

車両制御システム、車両制御方法、およびプログラム Download PDF

Info

Publication number
WO2019130552A1
WO2019130552A1 PCT/JP2017/047255 JP2017047255W WO2019130552A1 WO 2019130552 A1 WO2019130552 A1 WO 2019130552A1 JP 2017047255 W JP2017047255 W JP 2017047255W WO 2019130552 A1 WO2019130552 A1 WO 2019130552A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
vehicle
task
unit
driving
Prior art date
Application number
PCT/JP2017/047255
Other languages
English (en)
French (fr)
Inventor
佳史 中村
加治 俊之
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2019561534A priority Critical patent/JPWO2019130552A1/ja
Priority to PCT/JP2017/047255 priority patent/WO2019130552A1/ja
Priority to CN201780097999.8A priority patent/CN111527532A/zh
Priority to US16/957,734 priority patent/US20200331458A1/en
Publication of WO2019130552A1 publication Critical patent/WO2019130552A1/ja
Priority to JP2021198828A priority patent/JP7444844B2/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • B60W60/0055Handover processes from vehicle to occupant only part of driving tasks shifted to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Definitions

  • the present invention relates to a vehicle control system, a vehicle control method, and a program.
  • the present invention has been made in consideration of such circumstances, and it is an object of the present invention to provide a vehicle control system, a vehicle control method, and a program capable of preventing a decrease in the driver's alertness. Do.
  • a recognition unit that recognizes a surrounding condition of a vehicle, and a vehicle control unit that performs driving assistance that controls one or both of steering and acceleration of the vehicle based on the surrounding condition recognized by the recognition unit And an awakening level estimation unit for estimating the awakening degree of the driver riding on the vehicle based on the detection result by the detection unit provided in the vehicle, and the driving support performed by the vehicle control unit.
  • a task determination unit that determines a task required for the driver, and when the driver's awakening degree estimated by the awakening degree estimation unit decreases, the task load required for the driver is increased.
  • a vehicle control system including the task determination unit;
  • the task determination unit increases the number of tasks required of the driver when the task load required of the driver is increased, and the driver is physically active. At least one of adding a task that moves at least a part, increasing the degree of thinking of the task that makes the driver think, and changing to a task with a higher degree of driving relevance are performed.
  • the vehicle control unit switches between the first operation mode and the second operation mode at a predetermined timing to perform the driving support, and in the second operation mode,
  • the driver switches to the first driving mode, and the second driving mode has the driver's degree of freedom as compared to the first driving mode.
  • the driving mode is at least one of a high driving mode, a driving mode in which the load of the task required of the driver is low, and a driving mode in which the level of driving support by the vehicle control unit is high.
  • the task determination unit excludes some of the plurality of tasks required of the driver in the first operation mode Is excluded, and the excluded task is added to the task requested in the second driving mode when the driver's awakening level estimated by the awakening level estimation unit is decreased in the second driving mode.
  • the excluded task is detected by the detection unit, and is characterized by grasping an operator of the vehicle, and monitoring of the periphery of the vehicle by the driver At least one of them is included.
  • the vehicle control unit sets the first operation mode and the second operation mode at predetermined timings according to a change in a traveling scene of the vehicle.
  • the predetermined condition is not satisfied after the driver's awakening degree estimated by the awakening degree estimating unit is lowered in the second driving mode and after switching to the first driving mode, Switching to the second operation mode is limited.
  • the in-vehicle computer recognizes the surrounding condition of the vehicle and performs driving support for controlling one or both of steering and acceleration of the vehicle based on the recognized surrounding condition, and provided in the vehicle
  • the awakening degree of the driver who is in the vehicle is estimated based on the detection result by the detection unit, and the task required for the driver is determined during the execution of the driving support, and the estimated The vehicle control method which makes high the load of the task requested
  • the on-vehicle computer is made to recognize the surrounding situation of the vehicle, and based on the recognized surrounding situation, drive assistance is performed to control one or both of the steering and acceleration / deceleration of the vehicle.
  • the awakening degree of the driver riding in the vehicle is estimated based on the detection result by the detected unit, and the task required for the driver during the execution of the driving support is determined and estimated.
  • the program which makes the load of the task required for the driver high when the driver's awakening degree falls.
  • FIG. 6 is a functional configuration diagram of a first control unit 120, a second control unit 160, and a third control unit 180. It is a flowchart which shows the flow of the one part process performed by the 3rd control part 180.
  • FIG. It is a flowchart (the 1) which shows the flow of the process performed by the request
  • FIG. It is a flowchart (the 2) which shows the flow of the process performed by the request
  • FIG. It is a flowchart (the 4) which shows the flow of the process performed by the request
  • FIG. It is a figure showing an example of functional composition of vehicles system 1A of a 2nd embodiment. It is a figure which shows an example of the hardware constitutions of the automatic driving
  • FIG. 1 is a block diagram of a vehicle system 1 using a vehicle control system according to an embodiment.
  • the vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and a driving source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof.
  • the motor operates using the power generated by the generator connected to the internal combustion engine or the discharge power of the secondary battery or the fuel cell.
  • the vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, and an in-room camera 42.
  • a navigation device 50 an MPU (Map Positioning Unit) 60, a driving operation unit 80, an automatic driving control unit 100, a traveling driving force output device 200, a brake device 210, and a steering device 220.
  • These devices and devices are mutually connected by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network or the like.
  • CAN Controller Area Network
  • serial communication line a wireless communication network or the like.
  • the configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.
  • the camera 10 is, for example, a digital camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • One or more cameras 10 are attached to any part of a vehicle (hereinafter referred to as a host vehicle M) on which the vehicle system 1 is mounted.
  • the camera 10 When imaging the front, the camera 10 is attached to the top of the front windshield, the rear surface of the rearview mirror, or the like.
  • the camera 10 periodically and repeatedly captures the periphery of the vehicle M.
  • the camera 10 may be a stereo camera.
  • the radar device 12 emits radio waves such as millimeter waves around the host vehicle M and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object.
  • radio waves such as millimeter waves around the host vehicle M and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object.
  • One or more of the radar devices 12 are attached to any part of the host vehicle M.
  • the radar device 12 may detect the position and the velocity of the object by a frequency modulated continuous wave (FM-CW) method.
  • FM-CW frequency modulated continuous wave
  • the finder 14 is a light detection and ranging (LIDAR).
  • the finder 14 irradiates light around the host vehicle M and measures scattered light.
  • the finder 14 detects the distance to the object based on the time from light emission to light reception.
  • the light to be irradiated is, for example, pulsed laser light.
  • One or more finders 14 are attached to any part of the host vehicle M.
  • the object recognition device 16 performs sensor fusion processing on the detection result of a part or all of the camera 10, the radar device 12, and the finder 14 to recognize the position, type, speed, etc. of the object.
  • the object recognition device 16 outputs the recognition result to the automatic driving control unit 100.
  • the object recognition device 16 may output the detection results of the camera 10, the radar device 12, and the finder 14 to the automatic driving control unit 100 as it is, as necessary.
  • the communication device 20 communicates with another vehicle around the host vehicle M, for example, using a cellular network, Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wireless It communicates with various server devices via the base station.
  • a cellular network for example, using a cellular network, Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wireless It communicates with various server devices via the base station.
  • the HMI 30 presents various information to the occupant of the host vehicle M, and accepts input operation by the occupant.
  • the HMI 30 includes various display devices, speakers, a buzzer, a touch panel, switches, keys, and the like.
  • the vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, and an azimuth sensor that detects the direction of the host vehicle M.
  • the vehicle sensor 40 may detect the magnitude of the vibration that the traveling vehicle M receives from the road surface.
  • the in-vehicle camera 42 is, for example, a digital camera using a solid-state imaging device such as a CCD or a CMOS.
  • the in-vehicle camera 42 is attached at a position at which the user of the host vehicle M (for example, an occupant seated at the driver's seat, hereinafter referred to as a driver) can be imaged.
  • the in-vehicle camera 42 picks up an area to be picked up at predetermined intervals periodically, and outputs the picked up image to the automatic driving control unit 100.
  • the in-vehicle camera 42 may be a stereo camera.
  • the navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a path determination unit 53, and stores the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Hold
  • the GNSS receiver 51 specifies the position of the host vehicle M based on the signal received from the GNSS satellite. The position of the host vehicle M may be identified or supplemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40.
  • the navigation HMI 52 includes a display device, a speaker, a touch panel, keys and the like. The navigation HMI 52 may be partially or entirely shared with the above-described HMI 30.
  • the route determination unit 53 for example, a route from the position of the host vehicle M specified by the GNSS receiver 51 (or an arbitrary position input) to the destination input by the occupant using the navigation HMI 52 (hereinafter referred to as The route on the map is determined with reference to the first map information 54.
  • the first map information 54 is, for example, information in which a road shape is represented by a link indicating a road and a node connected by the link.
  • the first map information 54 may include road curvature, POI (Point Of Interest) information, and the like.
  • the on-map route determined by the route determination unit 53 is output to the MPU 60.
  • the navigation device 50 may also perform route guidance using the navigation HMI 52 based on the on-map route determined by the route determination unit 53.
  • the navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by a passenger.
  • the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20, and acquire the on-map route returned from the navigation server.
  • the MPU 60 functions as, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory.
  • the recommended lane determination unit 61 divides the route provided from the navigation device 50 into a plurality of blocks (for example, in units of 100 [m] in the traveling direction of the vehicle), and refers to the second map information 62 for each block. Determine the recommended lanes.
  • the recommended lane determination unit 61 determines which lane to travel from the left.
  • the recommended lane determination unit 61 determines the recommended lane so that the host vehicle M can travel on a reasonable route for traveling to a branch destination when a branch point, a junction point, or the like exists in the route.
  • the second map information 62 is map information that is more accurate than the first map information 54.
  • the second map information 62 includes, for example, information on the center of the lane or information on the boundary of the lane. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like.
  • the second map information 62 may be updated as needed by accessing another device using the communication device 20.
  • the driver control unit 80 includes, for example, an accelerator pedal 82, a brake pedal 84, a steering wheel 86, a shift lever, a modified steer, a joystick and other controls.
  • the operating element unit 80 includes an operating element sensor.
  • the operator sensor includes, for example, an accelerator opening sensor 83, a brake sensor 85, a steering sensor 87, and a grip sensor 88.
  • the accelerator opening degree sensor 83, the brake sensor 85, the steering sensor 87, and the grip sensor 88 detect the detection results of the automatic driving control unit 100 or the traveling driving force output device 200, the braking device 210, and the steering device 220. Output to one or both.
  • An accelerator opening sensor 83 detects the amount of operation of the accelerator pedal 82 (accelerator opening).
  • the brake sensor 85 detects the amount of operation of the brake pedal 84.
  • the brake sensor 85 detects the depression amount of the brake pedal based on, for example, a change in the brake pedal or the hydraulic pressure of the master cylinder of the brake device 210.
  • the steering sensor 87 detects the amount of operation of the steering wheel 86.
  • the steering sensor 87 is provided, for example, on a steering shaft, and detects an operation amount of the steering wheel 86 based on the rotation angle of the steering shaft.
  • the steering sensor 87 may detect a steering torque, and may detect an operation amount of the steering wheel 86 based on the detected steering torque.
  • the grip sensor 88 is, for example, a capacitance sensor provided along the circumferential direction of the steering wheel 86.
  • the grip sensor 88 detects that an object is in contact with the area to be detected as a change in capacitance.
  • the accelerator opening degree sensor 83, the brake sensor 85, the steering sensor 87, and the grip sensor 88 each output a detection result to the automatic driving control unit 100.
  • the autonomous driving control unit 100 includes, for example, a first control unit 120, a second control unit 160, and a third control unit 180.
  • the first control unit 120 and the second control unit 160 are mainly control units that perform driving support (including automatic driving) of the host vehicle M.
  • Each of the first control unit 120, the second control unit 160, and the third control unit 180 is realized, for example, when a hardware processor such as a central processing unit (CPU) executes a program (software).
  • a hardware processor such as a central processing unit (CPU) executes a program (software).
  • some or all of these components may be hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. Circuit (including circuitry) or may be realized by cooperation of software and hardware. Details of the automatic driving control unit 100 will be described later.
  • the traveling driving force output device 200 outputs traveling driving force (torque) for the host vehicle M to travel to the driving wheels.
  • the traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU that controls these.
  • the ECU controls the above configuration in accordance with the information input from the second control unit 160 or the information input from the drive operator unit 80.
  • the brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor in accordance with the information input from the second control unit 160 or the information input from the driving operation unit 80 so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 210 may include, as a backup, a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal 84 included in the drive operator unit 80 to the cylinder via the master cylinder.
  • the brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to the information input from the second control unit 160 to transmit the hydraulic pressure of the master cylinder to the cylinder It is also good.
  • the steering device 220 includes, for example, a steering ECU and an electric motor.
  • the electric motor for example, applies a force to the rack and pinion mechanism to change the direction of the steered wheels.
  • the steering ECU drives the electric motor to change the direction of the steered wheels in accordance with the information input from the second control unit 160 or the information input from the drive operator unit 80.
  • FIG. 2 is a functional configuration diagram of the first control unit 120, the second control unit 160, and the third control unit 180.
  • the first control unit 120 and the second control unit 160 control the vehicle M according to the driving mode of the vehicle according to the instruction of the third control unit 180. Details will be described later.
  • the first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140.
  • the first control unit 120 implements, for example, a function by artificial intelligence (AI) and a function by a given model in parallel. For example, in the “identify intersection” function, recognition of an intersection by deep learning etc. and recognition based on predetermined conditions (a signal capable of pattern matching, road marking, etc.) are executed in parallel, and both are performed. It is realized by scoring against and comprehensively evaluating. This ensures the reliability of driving support (including automatic driving).
  • AI artificial intelligence
  • the recognition unit 130 detects the position of an object in the vicinity of the host vehicle M, the state of the velocity, the acceleration, and the like based on information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16. recognize.
  • the position of the object is recognized as, for example, a position on an absolute coordinate with a representative point (such as the center of gravity or the center of the drive axis) of the host vehicle M as an origin, and is used for control.
  • the position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented region.
  • the "state" of an object may include the acceleration and jerk of both objects, or the "action state” (e.g., whether or not a lane change is being made or is being made).
  • the recognition unit 130 recognizes the shape of a curve through which the host vehicle M passes from now on the basis of the captured image of the camera 10.
  • the recognition unit 130 converts the shape of the curve from the captured image of the camera 10 to a real plane, and for example, information indicating the shape of the curve which is expressed using two-dimensional point sequence information or a model equivalent thereto. Output to the action plan generation unit 140.
  • the recognition unit 130 also recognizes, for example, a lane in which the host vehicle M is traveling (traveling lane).
  • the recognition unit 130 may use a pattern of road division lines obtained from the second map information 62 (for example, an array of solid lines and broken lines) and road division lines around the host vehicle M recognized from an image captured by the camera 10
  • the traveling lane is recognized by comparing with the pattern of.
  • the recognition unit 130 may recognize the traveling lane by recognizing a runway boundary (road boundary) including not only road division lines but also road division lines, road shoulders, curbs, median dividers, guard rails and the like. .
  • the position of the host vehicle M acquired from the navigation device 50 or the processing result by the INS may be added.
  • the recognition unit 130 also recognizes a stop line, an obstacle, a red light, a toll booth, and other road events.
  • the recognition unit 130 recognizes the position and orientation of the host vehicle M with respect to the traveling lane when recognizing the traveling lane.
  • the recognition unit 130 is, for example, a deviation of the reference point of the host vehicle M from the center of the lane, and an angle formed by a line connecting the center of the lane in the traveling direction of the host vehicle M It may be recognized as an attitude. Also, instead of this, the recognition unit 130 sets the position of the reference point of the host vehicle M with respect to any one side end (road segment or road boundary) of the travel lane relative to the host vehicle M with respect to the travel lane. It may be recognized as
  • the recognition unit 130 may derive recognition accuracy in the above-described recognition processing, and output the recognition accuracy to the action plan generation unit 140 as recognition accuracy information.
  • the recognition unit 130 generates recognition accuracy information based on the frequency at which a road marking can be recognized in a fixed period.
  • the action plan generation unit 140 basically travels in the recommended lane determined by the recommended lane determination unit 61, and further determines events to be sequentially executed in automatic driving so as to correspond to the surrounding situation of the host vehicle M.
  • Events include, for example, a constant speed traveling event traveling on the same traveling lane at a constant speed, a following traveling event tracking a preceding vehicle, an overtaking event passing a leading vehicle, braking for avoiding approaching with an obstacle and / Or Avoiding events to steer, curve driving events to drive a curve, passing events passing predetermined points such as intersections, pedestrian crossings, crossings, etc., lane change events, merging events, branching events, automatic stop events, automatic driving There is a takeover event for ending and switching to the manual operation.
  • the action plan generation unit 140 generates a target track along which the vehicle M travels in the future, in accordance with the activated event. Details of each functional unit will be described later.
  • the target trajectory includes, for example, a velocity component.
  • the target trajectory is expressed as a sequence of points (track points) to be reached by the vehicle M.
  • the track point is a point to be reached by the vehicle M for every predetermined traveling distance (for example, several [m]) in road distance, and separately, for a predetermined sampling time (for example, about 0 comma [sec]) )
  • Target velocity and target acceleration are generated as part of the target trajectory.
  • the track point may be a position to be reached by the vehicle M at the sampling time for each predetermined sampling time. In this case, information on the target velocity and the target acceleration is expressed by the distance between the track points.
  • the action plan generation unit 140 generates a target trajectory based on, for example, a recommended lane.
  • the recommended lane is set to be convenient to travel along the route to the destination.
  • a predetermined distance may be determined according to the type of event
  • the action plan generation unit 140 activates a passing event, a lane changing event, a branching event, a merging event and the like.
  • an avoidance trajectory is generated so as to avoid the obstacle.
  • the action plan generation unit 140 includes the camera 10, the radar device 12, the finder 14, the object recognition device 16, the vehicle sensor 40, the MPU 60, and the operation sensor (accelerator opening sensor 83, brake sensor 85, steering sensor 87, grip sensor 88) Based on the detection result by etc., the driving mode according to a driving
  • the operation mode includes, for example, a manual operation mode, a first automatic operation mode, a second automatic operation mode, and a third automatic operation mode. In the present embodiment, the mode of the automatic driving is defined as the first to third automatic driving modes for the sake of convenience.
  • the manual operation mode is a mode in which the driver of the host vehicle M manually controls the host vehicle M by operating the accelerator pedal 82, the brake pedal 84, or the steering wheel 86.
  • the first automatic driving mode, the second automatic driving mode, the third automatic It is an operation mode. That is, when these are divided according to the load of the task required of the driver, the first automatic operation mode is the lowest operation mode and the third automatic operation mode is the highest operation mode. That is, the higher-order operation mode has an operation mode in which the degree of freedom of the driver is higher than that in the lower-order operation mode, an operation mode in which the task load required by the driver is low, and an operation mode in which the driving support level is high. It is at least one of them.
  • Tasks required of the driver in the first automatic driving mode are, for example, gripping the steering wheel 86 and monitoring the surroundings of the host vehicle M. To monitor is, for example, directing the line of sight to the traveling direction of the host vehicle M and the periphery thereof.
  • the traveling scene in which the first automatic driving mode is executed includes, for example, a curved road such as a ramp of an expressway, a section near the toll gate, and the like, which have different shapes from straight lines.
  • the task required of the driver in the second automatic driving mode is, for example, monitoring the periphery of the host vehicle M.
  • the traveling scene in which the second automatic driving mode is executed includes, for example, a straight line or a section where the shape of the road is close to a straight line, such as a main line of an expressway.
  • the third automatic driving mode is, for example, a mode in which the automatic driving is performed without requiring any task for the driver of the host vehicle M.
  • the traveling scene in which the third automatic driving mode is executed includes, for example, that the speed of the host vehicle M is equal to or less than a predetermined speed, and the inter-vehicle distance from the leading vehicle is within a predetermined distance.
  • the second control unit 160 controls the travel driving force output device 200, the brake device 210, and the steering device 220 so that the host vehicle M passes the target trajectory generated by the action plan generation unit 140 as scheduled. Control.
  • the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166.
  • the acquisition unit 162 acquires information on the target trajectory (orbit point) generated by the action plan generation unit 140, and stores the information in a memory (not shown).
  • the speed control unit 164 controls the traveling drive power output device 200 or the brake device 210 based on the speed component associated with the target track stored in the memory.
  • the steering control unit 166 controls the steering device 220 according to the degree of bending of the target track stored in the memory.
  • the processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control.
  • the steering control unit 166 combines feedforward control according to the curvature of the road ahead of the host vehicle M and feedback control based on the deviation from the target track.
  • the third control unit 180 includes, for example, an occupant recognition unit 182, an alertness estimation unit 184, a required task determination unit 186, and a switching control unit 188.
  • the occupant recognition unit 182 analyzes the image captured by the in-vehicle camera 42, and recognizes the condition of the occupant based on the analysis result.
  • the occupant recognition unit 182 determines whether the occupant is sleeping or not, or determines whether the occupant is monitoring the periphery of the host vehicle M, based on the analysis result of the image. Do. For example, in a case where the head of the occupant is facing the floor of the host vehicle M continues for a predetermined time, or when the habit of the occupant is continuously closed for a predetermined time or more, the occupant recognition unit 182 , It is determined that the occupant is sleeping.
  • the occupant recognition unit 182 determines an area where the occupant (driver) of the vehicle is looking at, based on the analysis result of the image, and the driver monitors the periphery of the host vehicle M based on the determination result. It is determined whether the For example, the occupant recognition unit 182 detects the combination of the reference point (the non-moving part of the eye) and the moving point (the moving part of the eye) in the driver's eyes from the image using a technique such as template matching.
  • the combination of the reference point and the movement point is, for example, a combination of the inside of the eye and the iris, a combination of the corneal reflection area and the pupil, or the like.
  • the corneal reflection area is a reflection area of infrared light in the cornea when the camera 42 or the like in the vehicle irradiates the driver with infrared light. Then, the occupant recognition unit 182 performs processing such as conversion from an image plane to a real plane based on the position of the movement point with respect to the reference point to derive the direction of the line of sight.
  • the occupant recognition unit 182 determines whether or not the driver is gripping the steering wheel 86 based on the detection result of the gripping sensor 88, and the degree of gripping of the steering wheel 86 by the driver. To determine whether or not the driver is gripping the steering wheel 86 based on the detection result of the gripping sensor 88, and the degree of gripping of the steering wheel 86 by the driver. To determine whether or not the driver is gripping the steering wheel 86 based on the detection result of the gripping sensor 88, and the degree of gripping of the steering wheel 86 by the driver. To determine whether or not the driver is gripping the steering wheel 86 based on the detection result of the gripping sensor 88, and the degree of gripping of the steering wheel 86 by the driver. To determine whether or not the driver is gripping the steering wheel 86 based on the detection result of the gripping sensor 88, and the degree of gripping of the steering wheel 86 by the driver. To determine whether or not the driver is gripping the steering wheel 86 based on the detection result of
  • the awakening level estimation unit 184 is a detection unit (for example, the camera 10, the radar device 12, the finder 14, the object recognition device 16, the vehicle sensor 40, the MPU 60, the accelerator opening sensor 83, etc.) Based on the detection results of the brake sensor 85, the steering sensor 87, the grip sensor 88, the occupant recognition unit 182, and the like, the driver's awakening degree is estimated. For example, the awakening degree estimation unit 184 estimates the awakening degree of the driver based on the recognition result by the occupant recognition unit 182.
  • the arousal level indicates, for example, the degree of arousal in a stepwise manner, and includes a normal state (V1), a slight decrease (V2), a considerable decrease (V3), and the like.
  • the awakening degree estimation unit 184 estimates the awakening degree based on the detection result of the grip sensor 88. For example, when the amount of change in capacitance detected by the grip sensor 88 is equal to or greater than the first threshold, the awakening level estimation unit 184 determines that the occupant is gripping the steering wheel 86, and the awakening level is normal Estimated to be V1. Further, the awakening level estimation unit 184 determines that the steering wheel 86 is in the case where the amount of change in capacitance detected by the grip sensor 88 is less than the predetermined amount first threshold and greater than or equal to the second threshold (second threshold ⁇ first threshold). Is determined not to hold firmly, and it is estimated that the arousal level is slightly reduced. Furthermore, when the amount of change in capacitance detected by the grip sensor 88 is less than the second threshold, the awakening level estimation unit 184 determines that the steering wheel 86 is not gripped at all, and the awakening level is considerably reduced. Estimate that
  • the awakening degree estimation unit 184 estimates the awakening degree based on the recognition result by the occupant recognition unit 182. For example, the awakening level estimation unit 184 is in a state in which the driver of the host vehicle M does not perform a predetermined behavior (for example, a state in which the periphery of the host vehicle M is not monitored or a line of sight is directed to the traveling direction It is estimated that the awakening degree is lower as the duration of the absence state etc. is longer. Further, the awakening degree estimation unit 184 determines that the awakening degree is V2 which is a little lowered when sleeping is likely, and V3 which is considerably lowered when the occupant is in a sleeping state.
  • a predetermined behavior for example, a state in which the periphery of the host vehicle M is not monitored or a line of sight is directed to the traveling direction It is estimated that the awakening degree is lower as the duration of the absence state etc. is longer. Further, the awakening degree estimation unit 184 determines that the awakening degree is V2 which is a little lowered when sleeping is likely, and V
  • the awakening level estimation unit 184 determines the blink speed, the degree of opening of the eyes, the interval between blinks (the open time of the eyes), and the continuation of the blink based on the analysis result of the image captured by the in-vehicle camera 42. Time (duration with eyes closed) etc. may be analyzed using artificial intelligence to estimate the level of drowsiness.
  • the awakening degree estimation unit 184 estimates the awakening degree according to the estimated sleepiness level.
  • the awakening degree may be estimated according to the length of the duration in which the eyes are closed, for example, when the awakening degree estimation unit 184 determines that the time in which the eyes continue to be closed is the third threshold or more Is determined to be V2 in which the awakening degree is slightly reduced, and is determined to be V3 that is considerably reduced if the time during which the eyes are continuously closed is the fourth threshold (the fourth threshold> the third threshold) or more May be
  • the awakening degree estimation unit 184 may estimate the awakening degree according to the execution state of the required task. For example, the awakening degree estimation unit 184 determines that the awakening degree is V2 which is slightly reduced if the required task can not be executed occasionally, and the awakening degree is significantly reduced if the required task is not sufficiently executed. It may be determined that there is V3. Further, the awakening degree estimation unit 184 determines that the awakening degree is V2 which is slightly reduced if the required task can be executed within the time limit, and the awakening degree when the required task can not be executed within the time limit. May be determined to be V3 which is considerably reduced.
  • the awakening degree estimation unit 184 may estimate the awakening degree of the driver based on the traveling scene of the host vehicle M. For example, when the traveling scene of the host vehicle M corresponds to a predetermined traveling scene, the awakening degree estimation unit 184 estimates that the awakening degree of the driver is reduced.
  • a strength (average amplitude) of vibration received by the host vehicle M traveling from the road surface is a reference value
  • the scene etc. which are driving are included.
  • the period may be time or distance (hereinafter the same).
  • the awakening degree estimation unit 184 determines that the awakening degree decreases as the duration of the predetermined traveling scene is longer. By doing this, the awakening level estimation unit 184 can estimate the awakening level according to the degree of driver's fatigue.
  • the required task determination unit 186 determines a task required for the driver (hereinafter, referred to as a required task) when the driving assistance is executed by the automatic driving control unit 100. Further, the required task determination unit 186 may notify the driver of the determined content of the required task using the HMI 30, or may instruct the switching control unit 188 to execute the determined task. For example, when the task is a question, an inquiry, a call, an instruction or the like for the driver, the required task determination unit 186 outputs the content using the HMI 30.
  • the required task includes, for example, the driver gripping the steering wheel 86 (hereinafter task 1), the driver monitoring the periphery of the host vehicle M (hereinafter task 2), and the driver at least one of the body It includes moving a part (hereinafter, task 3), causing the driver to think (hereinafter, task 4), and causing an operation associated with driving (hereinafter, task 5).
  • the task 3 includes, for example, an operation of raising and lowering a shoulder, an operation of raising and lowering an elbow, an operation of opening the mouth widely, an operation of blinking a plurality of times, and an operation of breathing a large deep breath.
  • the task 4 includes questions on occupants, questions on surrounding conditions such as weather and in-vehicle environment, and the like.
  • task 4 may include a plurality of tasks according to the degree of thinking, and the degree of thinking can be achieved by increasing the degree of thinking by increasing the content of the question or by increasing the number of questions.
  • the degree of thinking may be increased by raising the degree of thought or by requiring an answer, or by limiting the time for answering.
  • the task 5 includes, for example, tasks 1 and 2, operating the accelerator pedal 82, operating the brake pedal 84, and the like.
  • the required task determination unit 186 determines a required task based on the operation mode determined by the action plan generation unit 140 or the switching control unit 188. That is, when the required task is different depending on the operation mode, the required task determination unit 186 changes the required task in response to the switching of the operation mode by the action plan generation unit 140 or the switching control unit 188.
  • the required tasks determined by the required task determining unit 186 based on the operation mode will be referred to as a first task group.
  • the task group may be one task or two or more tasks.
  • the required task determination unit 186 increases the load of the required task when the driver's awakening degree estimated by the awakening degree estimation unit 184 is lowered. That is, the required task determination unit 186 changes the content of the required task to a content that increases the load on the driver.
  • the tasks whose load on the driver is high will be referred to as a second task group.
  • the required task determination unit 186 increases the number of tasks included in the required task, adds a task for the driver to move at least a part of the body, and gives the driver a thought. Perform at least one of increasing the degree of thinking of the task to be caused and changing to a task with a high degree of driving relevance.
  • the driver holds the steering wheel 86, monitors the periphery of the host vehicle M, and operates the accelerator pedal 82 and the brake pedal 84 in the "task having a high degree of driving relevance". It contains the required tasks in the mode.
  • the task execution period (period for continuously executing the task) is a temporary measure that does not satisfy the switching condition for switching from the automatic operation mode to the manual operation mode. It is good also as things. For example, when the switching condition is "the driver holding the steering wheel 86 for a period T5 or more", the task execution time is a period shorter than the period T5. After the time period T5 has elapsed, the required task determination unit 186 may exclude the driver from gripping the steering wheel 86 from the required task, and may notify using the HMI 30 that the driver has been excluded from the required task.
  • the switching control unit 188 changes the operation mode determined by the action plan generation unit 140 to an operation mode in which the load of the required task increases. .
  • the switching control unit 188 Switch to the operation mode of.
  • the switching control unit 188 switches to the first automatic driving mode. This increases the load on the driver and causes the driver to execute an operation associated with driving, thereby preventing a decrease in the arousal level.
  • the load of the required task may be increased by changing the content of the required task group determined in advance according to the operation mode by the required task determination unit 186. For example, regardless of the switching or changing of the operation mode by the action plan generation unit 140 or the switching control unit 188, the content of the task group required during execution of the second automatic operation mode is during execution of the first automatic operation mode.
  • the load of the required task may be increased by changing to the contents of the required task group.
  • the required task determination unit 186 determines the lower operation mode as a task required in the upper operation mode.
  • a task excluding some excluded tasks among a plurality of tasks required of the driver is determined as a required task.
  • the required task determining unit 186 sets the excluded task as the required task to be executed in the upper driving mode. to add.
  • the excluded tasks are, for example, task 1, task 2, and the like. The excluded task is determined in advance according to the operation mode.
  • the load of the required task becomes high for the driver regardless of the switching of the driving mode, and the driver is made to execute the operation relevant to the driving, thereby preventing a decrease in the arousal level. While being able to do, it is possible to execute the change of the operation mode which responds to the traveling scene and the like.
  • the action plan generation unit 140 restricts switching to the upper operation mode when the predetermined condition is not satisfied. You may do so.
  • the predetermined condition includes, for example, that the time period T6 has elapsed from when the load of the required task is increased. By this, the period in which the load of the required task is high can be sufficiently continued, so that the driver's arousal level can be prevented from being reduced immediately. In addition, even when the change of the estimated awakening degree frequently occurs, it is possible to prevent the frequent change of the driving mode.
  • FIG. 3 is a flowchart showing the flow of part of the process performed by the third control unit 180. The description of the process of determining the operation mode by the action plan generation unit 140 is omitted.
  • the third control unit 180 determines whether or not driving support has been started (step S11). For example, when the driving mode is switched from the manual driving mode to the first automatic driving mode by the action plan generation unit 140, the third control unit 180 determines that driving support has been started. If it is determined that driving support has been started, the occupant recognition unit 182 analyzes the image captured by the in-vehicle camera 42, recognizes the occupant's state based on the analysis result, and transmits the recognition result to the awakening degree estimation unit 184. It outputs (step S13). Further, the awakening level estimation unit 184 determines the driver's gripping state (including whether or not the driver is gripping the steering wheel 86, the degree of gripping, etc.) based on the detection result of the grip sensor 88 (step S15).
  • the awakening degree estimation unit 184 estimates the awakening degree of the driver based on the recognition result by the occupant recognition unit 182, the determination of the gripping state, and the like (step S17).
  • the required task determination unit 186 determines a required task based on the determination result determined in step S15 and the operation mode being executed (step S19).
  • the third control unit 180 determines whether the driving support has ended (step S21). For example, when the driving mode is switched from the first automatic driving mode to the manual driving mode by the action plan generation unit 140 or the switching control unit 188, the third control unit 180 determines that the driving support is ended. If the driving support has not ended, the third control unit 180 returns to step S13 and repeats the processing.
  • This process is a process corresponding to step S19 of the flowchart of FIG.
  • the processing method by the required task determination unit 186 any one of the processing shown in FIGS. 4 to 6 is set.
  • FIG. 4 is a flowchart (No. 1) showing the flow of processing executed by the required task determination unit 186.
  • the required task determination unit 186 determines a first task group according to the operation mode (step S101).
  • the required task determining unit 186 determines whether the awakening degree of the driver estimated by the awakening degree estimating unit 184 has decreased (step S105). If it is determined that the awakening degree of the driver estimated by the awakening degree estimation unit 184 has not decreased, the required task determination unit 186 does not change the required task.
  • the required task determination unit 186 changes the requested task to the second task group (step S107).
  • the requested task determination unit 186 may change all of the first task group to the second task group when changing the requested task to the second task group, and at least one of the first task group may be changed. You may change a part into a 2nd task group.
  • FIG. 5 is a flowchart (No. 2) showing the flow of processing executed by the required task determination unit 186.
  • the same processing as the processing described in FIG. 4 will be assigned the same reference numerals and detailed explanations thereof will be omitted.
  • the required task determining unit 186 determines whether there is an automatic driving mode lower than the driving mode being executed (step S106). For example, when the first automatic driving mode is being executed, there is no automatic driving mode lower than that, so the required task determining unit 186 changes the requested task to the second task group (step S107).
  • the required task determination unit 186 changes it to the next lower automatic operation mode. It instructs the switching control unit 188 (step S109). Thereby, the switching control unit 188 changes the operation mode to the instructed automatic operation mode. Note that, when a change instruction is issued from the required task determination unit 186, the switching control unit 188 determines a change to an operation mode one hierarchy below the operation mode being executed, and changes the operation mode to the determined operation mode. May be
  • the required task determination unit 186 determines whether or not the action plan generation unit 140 has determined that the operation mode should be switched to the higher-order automatic operation mode (step S111). If it is determined that the operation mode should be switched to the higher-order automatic operation mode, the required task determination unit 186 determines whether or not the period T6 has elapsed since switching to the lower-order automatic operation mode in step S109 (step S113). If it is not determined that the period T6 has elapsed, the required task determining unit 186 outputs information indicating that switching of the operation mode is prohibited to the action plan generating unit 140. By this, the action plan generation unit 140 does not execute switching.
  • the required task determining unit 186 outputs information indicating permission to switch the operation mode to the action plan generating unit 140 (step S115). Thereby, the action plan generation unit 140 executes switching.
  • FIG. 6 is a flowchart (No. 3) showing the flow of processing performed by the required task determination unit 186.
  • the same processing as the processing described in FIG. 4 will be assigned the same reference numerals and detailed explanations thereof will be omitted.
  • the required task determination unit 186 determines whether the operation mode is switched to the higher-order automatic operation mode by the action plan generation unit 140 (step S103). When the operation mode is not switched to the upper-level automatic operation mode, the required task determination unit 186 executes steps S105 and S107.
  • the required task determining unit 186 determines the first task group corresponding to the upper-level automatic operation mode to be switched, and switches the upper-level automatic operation to be switched Excluded tasks determined in advance in association with the mode are excluded from the first task group (step S119).
  • the required task determination unit 186 determines whether the awakening degree of the driver estimated by the awakening degree estimation unit 184 has decreased (step S121). If it is determined that the awakening degree of the driver estimated by the awakening degree estimation unit 184 has not decreased, the required task determination unit 186 does not change the required task. On the other hand, when it is determined that the awakening degree of the driver estimated by the awakening degree estimation unit 184 has decreased, the required task determination unit 186 adds an excluded task to the first task group determined in step S119 (step S123).
  • the required task determining unit 186 may determine tasks with different loads according to the driver's awakening degree. For example, the required task determination unit 186 executes a process as shown in FIG. 7 in place of the processes of step S105 and step S107 described above.
  • FIG. 7 is a flowchart (No. 4) showing the flow of processing executed by the required task determination unit 186.
  • the required task determination unit 186 determines whether the awakening degree of the driver estimated by the awakening degree estimation unit 184 is V3 which is considerably reduced (step S201). When it is V3 in which the driver's awakening degree is considerably lowered, the required task determining unit 186 changes the required task to a third task group whose load is higher than that of the first task group (step S203).
  • the third task group includes, for example, a task 3 in which the driver moves at least a part of the body, a task 5 in which the driver performs an operation associated with driving, and a task with high thinking among the tasks 4.
  • step S201 when the driver's awakening level is not V3 which is considerably reduced, the required task determining unit 186 determines that the driver's awakening level estimated by the awakening level estimation unit 184 is slightly decreased V2. It is determined whether there is any (step S205). When it is V2 in which the driver's awakening degree is slightly lowered, the required task determining unit 186 changes the required task to the fourth task group (step S207).
  • the fourth task group is a task group whose load is higher than that of the first task group and whose load is lower than that of the third task group.
  • the fourth task group includes, for example, tasks of task 4 with a low degree of thought.
  • the task with a low degree of thought in task 4 includes providing information on the driver's preference (only to talk to the driver), asking a question regarding the driver's preference but not requesting an answer, etc. .
  • step S205 if it is determined in step S205 that the awakening degree of the driver is not V2 which is slightly reduced (that is, the awakening degree of the driver is the normal state V1), the required task determining unit 186 does nothing S209). That is, the requested task is not changed.
  • one or both of steering and acceleration / deceleration of the vehicle is controlled based on the recognizing unit 130 that recognizes the surrounding condition of the vehicle and the surrounding condition recognized by the recognizing unit 130.
  • a vehicle control unit a first control unit 120 and a second control unit 160
  • an awakening degree of a driver riding in the vehicle is estimated.
  • the system includes an alert level estimation unit 184, and a required task determination unit 186 that determines a task to be requested to the driver during execution of driving assistance by the vehicle control unit.
  • the driver's alertness is accurately estimated. It can be difficult to do. Even in such a situation, the driver's discomfort can be alleviated by requiring the driver to perform the task with the above-mentioned appropriate content.
  • the second embodiment will be described below.
  • the host vehicle M mainly performs driving assistance by automatic driving.
  • the host vehicle M executes driving support of the host vehicle M different from the automatic driving of the first embodiment.
  • differences from the first embodiment will be mainly described.
  • FIG. 8 is a diagram showing an example of a functional configuration of a vehicle system 1A of the second embodiment.
  • the vehicle system 1A includes, for example, a driving support unit 300 instead of the automatic driving control unit 100. Further, in the vehicle system 1A, the MPU 60 is omitted.
  • the driving support unit 300 includes, for example, a recognition unit 310, a follow-up driving support control unit 320, a lane keeping support control unit 330, a lane change support control unit 340, and a third control unit 350.
  • the functions of the recognition unit 310 and the third control unit 350 are the same as those of the recognition unit 130 and the third control unit 180, respectively, and the description thereof will be omitted.
  • lane maintenance support control performed by lane maintenance support control unit 330 or lane change support control performed by lane change support control unit 340
  • Performing one or more controls is an example of “providing driving assistance”.
  • the load of the task required of the driver of the host vehicle M in the control of the driving support may be hierarchized in descending order.
  • the required task determining unit 186 instructs the switching control unit 188 to switch the driving mode to the manual driving mode.
  • the required task determining unit 186 changes the mode of the driving support to the mode of the lower hierarchy. May increase the load of the required task. This increases the load on the driver and causes the driver to execute an operation associated with driving, thereby preventing a decrease in the arousal level.
  • the follow-up running support control unit 320 performs control to follow surrounding vehicles traveling ahead in the traveling direction of the host vehicle M recognized by the recognition unit 310, for example.
  • the follow-up run support control unit 320 starts follow-up run support control, for example, triggered by the operation of the follow-up run start switch (not shown) by the occupant.
  • the follow-up running support control unit 320 refers to, for example, a surrounding vehicle (for example, a front traveling vehicle) existing within a predetermined distance (for example, about 50 m) ahead of the own vehicle M among the surrounding vehicles recognized by the recognition unit 310.
  • the traveling driving force output device 200 and the brake device 210 are controlled such that the host vehicle M follows the vehicle speed M, and the speed control of the host vehicle M is performed.
  • “Following” means, for example, traveling while maintaining a relative distance (inter-vehicle distance) between the host vehicle M and a preceding vehicle constant. If the recognition unit 310 does not recognize a leading vehicle, the follow-up driving support control unit 320 may simply cause the host vehicle M to travel at the set vehicle speed.
  • the lane keeping support control unit 330 controls the steering device 220 based on the position of the host vehicle M recognized by the recognition unit 310 so as to maintain the lane in which the host vehicle M travels.
  • the lane keeping assist controller 330 starts the lane keeping assist control, for example, triggered by the operation of the lane maintenance start switch (not shown) by the occupant.
  • the lane keeping support control unit 330 controls the steering of the host vehicle M so that the host vehicle M travels in the middle of the traveling lane.
  • the lane keeping support control unit 330 controls the steering device 220, for example, to increase the steering force in the direction of returning to the center position of the traveling lane as the deviation of the reference point of the host vehicle M from the center of the traveling lane increases. Output.
  • the lane keeping support control unit 330 further controls the steering device 220 when the host vehicle M approaches the road division line that partitions the lane, and performs steering so that the host vehicle M returns to the center of the traveling lane.
  • the control may be performed to control the departure from the road.
  • the lane change support control unit 340 can change lanes by controlling the traveling drive power output device 200, the brake device 210, and the steering device 220 regardless of the operation (steering control) of the steering wheel of the occupant.
  • the host vehicle M changes lanes with respect to the adjacent lane determined as
  • the lane change support control unit 340 starts lane change support control, for example, triggered by an operation of a lane change start switch (not shown) by the occupant. For example, when the lane change start switch is operated, control by the lane change support control unit 340 is prioritized.
  • the lane change support control unit 340 derives the distance required to change the lane of the host vehicle M based on the speed of the host vehicle M and the number of seconds required to change the lane.
  • the number of seconds required to change lanes assumes that the distance of lateral movement during lane change is almost constant, and assuming that lane change is performed at an appropriate lateral velocity, the target distance in the lateral direction is It is set based on the distance until the end of traveling.
  • the lane change support control unit 340 sets the end point of the lane change on the center of the traveling lane on the lane to which the lane is to be changed based on the derived distance necessary for the lane change.
  • the lane change support control unit 340 performs lane change support control, for example, with the end point of the lane change as the target position.
  • the third embodiment will be described below.
  • the vehicle system according to the third embodiment is provided with both the function of executing driving assistance mainly by automatic driving described in the first embodiment and the function of executing driving assistance described in the second embodiment.
  • differences from the first and second embodiments will be mainly described.
  • the manual driving mode when the task loads required of the driver of the host vehicle M are arranged in descending order, the manual driving mode, the driving support mode, the first automatic driving mode, the second automatic driving mode, and the third automatic driving mode .
  • the driving support mode includes, for example, the above-described follow-up driving support control, lane maintenance support control, lane change support control, and the like.
  • the required task determining unit 186 switches the automatic driving mode to the driving assistance mode (or, the driving assistance mode is manually driven Switch to the mode to increase the load of the required task. This increases the load on the driver and causes the driver to execute an operation associated with driving, thereby preventing a decrease in the arousal level.
  • the automatic driving control unit 100 (or the driving support unit 300 of the vehicle system 1A) of the vehicle system 1 of the embodiment described above is realized by, for example, a hardware configuration as shown in FIG.
  • FIG. 9 is a diagram showing an example of a hardware configuration of the automatic driving control unit 100 (driving support unit 300) of the embodiment.
  • the control unit includes a communication controller 100-1, a CPU 100-2, a RAM 100-3, a ROM 100-4, a secondary storage device 100-5 such as a flash memory or an HDD, and a drive device 100-6, which are internal buses or dedicated communication lines. Are mutually connected.
  • a portable storage medium such as an optical disk is attached to the drive device 100-6.
  • the program 100-5a stored in the secondary storage device 100-5 is expanded on the RAM 100-3 by a DMA controller (not shown) or the like, and executed by the CPU 100-2, thereby realizing a control unit.
  • the program referred to by the CPU 100-2 may be stored in a portable storage medium attached to the drive device 100-6, or may be downloaded from another device via the network NW.
  • Storage device A hardware processor that executes a program stored in the storage device;
  • the hardware processor executes the program to Recognize the surroundings of the vehicle, Performing driving assistance to control one or both of steering and acceleration / deceleration of the vehicle based on the recognized surrounding situation;
  • Based on a detection result by a detection unit provided in the vehicle an awakening degree of a driver riding in the vehicle is estimated;
  • the task required for the driver is determined; If the estimated awakening degree of the driver is lowered, the task load required for the driver is increased.
  • Vehicle control system A hardware processor that executes a program stored in the storage device.
  • the hardware processor executes the program to Recognize the surroundings of the vehicle, Performing driving assistance to control one or both of steering and acceleration / deceleration of the vehicle based on the recognized surrounding situation;
  • Based on a detection result by a detection unit provided in the vehicle an awakening degree of a driver riding in the vehicle is estimated;
  • the task required for the driver is determined; If the estimated awakening degree of the driver is lowered, the
  • the awakening degree estimation unit 184 may change the determination standard of the awakening degree according to the weather, the traveling time zone, and the like. Specifically, since the driver's eyes are likely to be tired compared to cloudy days on days with strong ultraviolet rays, the threshold for determining that the alertness level is reduced on days with strong ultraviolet rays (travel distance and travel time ) May be smaller than on cloudy days. In addition, since driving at midnight is likely to be sleepier than driving in the daytime, the threshold (running distance or running time) for determining that the awakening degree is reduced at midnight may be smaller than in the daytime. Good.
  • switching to a lower operation mode from the upper operation mode is performed to “change to a task having a high degree of operation relatedness” executed when the required task determination unit 186 increases the load of the required task.
  • the condition is changed to the side where it is easy to switch to the lower operation mode. For example, on the condition that the driver holds the steering wheel 86 continuously for a period T7 or more, if switching from the automatic driving mode to the manual driving mode is set in advance, the length of the period T7 is shortened.
  • the required task determination unit 186 increases the load of the required task, providing the predetermined answer according to the question for the driver may be included.
  • the predetermined answer for example, when the driver asks a favorite music, the music corresponding to the answer is output from a speaker mounted on the vehicle, or when the driver asks a favorite food Providing information on the corresponding restaurant or store from the HMI 30 may be included.
  • the required task determination unit 186 may cause the HMI 30 to output predetermined notification information when the required task is not executed under predetermined conditions.
  • the action plan generation unit 140 or the switching control unit 188 may output predetermined notification information from the HMI 30 when the required task set in each automatic operation mode is not executed under a predetermined condition.
  • the predetermined conditions include, for example, the case where the request task is not being executed continues for a predetermined time or longer, or the case where the request task related to driving is not executed continues for a predetermined time or longer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両制御システムは、車両の周辺状況を認識する認識部(130)と、前記認識部により認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行う車両制御部(120,160)と、前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定する覚醒度推定部(184)と、前記車両制御部による運転支援の実行中において前記運転者に対して要求するタスクを決定するタスク決定部であって、前記覚醒度推定部により推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くする前記タスク決定部(186)と、を備える。

Description

車両制御システム、車両制御方法、およびプログラム
 本発明は、車両制御システム、車両制御方法、およびプログラムに関する。
 近年、車両を自動的に制御することについての研究が進められている。車両が自動的に制御されることにより運転者に対する作業負担が軽減される一方、運転者の眠気が増し、例えば運転者による周辺監視が不十分となる場合がある。従来、人間の眠気レベルを判定し、眠気レベルが閾値を超えた場合に警報等を出力する装置が知られている(特許文献1参照)。
特開2008-206688号
 しかしながら、従来の装置では、眠気レベルの判定精度が高くない場合、運転者が眠くないにも拘わらず警報が頻発する可能性がある。このような状況は、運転者にとって不快であり、商品性を低下させるおそれがあった。また、運転者が装置の使用に関して不信感を抱き、使用を停止するおそれがあった。この場合、運転者の覚醒度の低下を十分に防止することができなかった。
 本発明は、このような事情を考慮してなされたものであり、運転者の覚醒度の低下を防止することができる車両制御システム、車両制御方法、およびプログラムを提供することを目的の一つとする。
(1):車両の周辺状況を認識する認識部と、前記認識部により認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行う車両制御部と、前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定する覚醒度推定部と、前記車両制御部による運転支援の実行中において前記運転者に対して要求するタスクを決定するタスク決定部であって、前記覚醒度推定部により推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くする前記タスク決定部と、を備える車両制御システム。
(2):(1)において、前記タスク決定部は、前記運転者に要求するタスクの負荷を高くする場合、前記運転者に対して要求するタスクの数を増やすこと、前記運転者が体の少なくとも一部を動かすタスクを追加すること、前記運転者に思考させるタスクの思考の程度を高くすること、運転関連度がより高いタスクに変更すること、のうち少なくともいずれか一つを実行する。
(3):(1)または(2)において、前記車両制御部は、第1運転モードと第2運転モードとを所定のタイミングで切り替えて前記運転支援を行うとともに、前記第2運転モードにおいて、前記覚醒度推定部により推定された前記運転者の覚醒度が低下した場合、前記第1運転モードに切り替え、前記第2運転モードは、前記第1運転モードに比べて、前記運転者の自由度が高い運転モード、前記運転者に要求されるタスクの負荷が低い運転モード、前記車両制御部による運転支援のレベルが高い運転モード、のうち少なくともいずれか一つである。
(4):(3)において、前記タスク決定部は、前記第2運転モードにおいて要求されるタスクにおいて、前記第1運転モードにおいて前記運転者に要求される複数のタスクのうち一部の除外タスクを除外し、前記第2運転モードにおいて、前記覚醒度推定部により推定された前記運転者の覚醒度が低下した場合、前記除外タスクを前記第2運転モードにおいて要求されるタスクに追加する。
(5):(4)において、前記除外タスクは、前記検出部により検出されるものであって、前記車両の操作子を把持すること、前記運転者が前記車両の周辺を監視すること、のうち少なくともいずれか一方を含む。
(6):(3)から(5)のうちいずれかにおいて、前記車両制御部は、前記車両の走行場面の変化に応じて、前記第1運転モードと前記第2運転モードとを所定のタイミングで切り替えるとともに、前記第2運転モードにおいて前記覚醒度推定部により推定された前記運転者の覚醒度が低下したことにより前記第1運転モードに切り替えられた後、所定の条件を満たしていない場合、前記第2運転モードへの切り替えを制限する。
(7):車載コンピュータが、車両の周辺状況を認識し、認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行い、前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定し、前記運転支援の実行中において前記運転者に対して要求するタスクを決定し、推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くする、車両制御方法。
(8):車載コンピュータに、車両の周辺状況を認識させ、認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行わせ、前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定させ、前記運転支援の実行中において前記運転者に対して要求するタスクを決定させ、推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くさせる、プログラム。
 (1)~(8)によれば、運転者の覚醒度の低下を防止することができる。
実施形態に係る車両制御システムを利用した車両システム1の構成図である。 第1制御部120、第2制御部160、および第3制御部180の機能構成図である。 第3制御部180により実行される一部の処理の流れを示すフローチャートである。 要求タスク決定部186により実行される処理の流れを示すフローチャート(その1)である。 要求タスク決定部186により実行される処理の流れを示すフローチャート(その2)である。 要求タスク決定部186により実行される処理の流れを示すフローチャート(その3)である。 要求タスク決定部186により実行される処理の流れを示すフローチャート(その4)である。 第2実施形態の車両システム1Aの機能構成の一例を示す図である。 実施形態の自動運転制御ユニット100(運転支援ユニット300)のハードウェア構成の一例を示す図である。
 以下、図面を参照し、本発明の車両制御システム、車両制御方法、およびプログラムの実施形態について説明する。
 <第1実施形態>
 [全体構成]
 図1は、実施形態に係る車両制御システムを利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
 車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、車室内カメラ42と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子ユニット80と、自動運転制御ユニット100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
 カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
 レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
 ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。
 物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御ユニット100に出力する。また、物体認識装置16は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御ユニット100に出力してよい。
 通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
 HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
 車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。車両センサ40は、走行している自車両Mが路面から受ける振動の大きさを検出してもよい。
 車室内カメラ42は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。車室内カメラ42は、自車両Mの利用者(例えば運転席に着座した乗員であり、以下、運転者と記す。)を撮像可能な位置に取り付けられる。車室内カメラ42は、例えば、所定の周期的で撮像対象の領域を撮像し、撮像した画像を自動運転制御ユニット100に出力する。車室内カメラ42は、ステレオカメラであってもよい。
 ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。
 MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
 第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
 運転操作子ユニット80は、例えば、アクセルペダル82、ブレーキペダル84、ステアリングホイール86、シフトレバー、異形ステア、ジョイスティックその他の操作子を含む。また、運転操作子ユニット80は、操作子センサを含む。操作子センサは、例えば、アクセル開度センサ83、ブレーキセンサ85、ステアリングセンサ87、および把持センサ88を含む。アクセル開度センサ83、ブレーキセンサ85、ステアリングセンサ87、および把持センサ88は、その検出結果を、自動運転制御ユニット100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一方または双方に出力する。
 アクセル開度センサ83は、アクセルペダル82の操作量(アクセル開度)を検出する。ブレーキセンサ85は、ブレーキペダル84の操作量を検出する。ブレーキセンサ85は、例えば、ブレーキペダルの変化、またはブレーキ装置210のマスターシリンダの液圧に基づいて、ブレーキペダルの踏込量を検出する。ステアリングセンサ87は、ステアリングホイール86の操作量を検出する。ステアリングセンサ87は、例えば、ステアリングシャフトに設けられ、ステアリングシャフトの回転角に基づいてステアリングホイール86の操作量を検出する。また、ステアリングセンサ87は、操舵トルクを検出し、検出した操舵トルクに基づいて、ステアリングホイール86の操作量を検出してもよい。
 把持センサ88は、例えば、ステアリングホイール86の周方向に沿うように設けられた静電容量センサである。把持センサ88は、検出対象の領域に物体が接触したことを、静電容量の変化として検出する。
 アクセル開度センサ83、ブレーキセンサ85、ステアリングセンサ87、および把持センサ88は、それぞれ検出結果を自動運転制御ユニット100に出力する。
 自動運転制御ユニット100は、例えば、第1制御部120と、第2制御部160と、第3制御部180とを備える。第1制御部120および第2制御部160は、主に自車両Mの運転支援(自動運転を含む)を行う制御部である。第1制御部120、第2制御部160、および第3制御部180とは、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。自動運転制御ユニット100の詳細については後述する。
 走行駆動力出力装置200は、自車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子ユニット80から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子ユニット80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子ユニット80に含まれるブレーキペダル84の操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子ユニット80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 図2は、第1制御部120、第2制御部160、および第3制御部180の機能構成図である。第1制御部120および第2制御部160は、第3制御部180の指示に応じた車両の運転モードによって自車両Mを制御する。詳細については後述する。
 第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人口知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現される。これによって、運転支援(自動運転も含む)の信頼性が担保される。
 認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体両の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、認識部130は、カメラ10の撮像画像に基づいて、自車両Mがこれから通過するカーブの形状を認識する。認識部130は、カーブの形状をカメラ10の撮像画像から実平面に変換し、例えば、二次元の点列情報、或いはこれと同等なモデルを用いて表現した情報を、カーブの形状を示す情報として行動計画生成部140に出力する。
 また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
 認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。また、これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。
 また、認識部130は、上記の認識処理において、認識精度を導出し、認識精度情報として行動計画生成部140に出力してもよい。例えば、認識部130は、一定期間において、道路区画線を認識できた頻度に基づいて、認識精度情報を生成する。
 行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、前走車両を追い越す追い越しイベント、障害物との接近を回避するための制動および/または操舵を行う回避イベント、カーブを走行するカーブ走行イベント、交差点や横断歩道、踏切などの所定のポイントを通過する通過イベント、車線変更イベント、合流イベント、分岐イベント、自動停止イベント、自動運転を終了して手動運転に切り替えるためのテイクオーバイベントなどがある。
 行動計画生成部140は、起動したイベントに応じて、自車両Mが将来走行する目標軌道を生成する。各機能部の詳細については後述する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
 行動計画生成部140は、例えば、推奨車線に基づいて目標軌道が生成する。推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部140は、推奨車線の切り替わり地点の所定距離(イベントの種類に応じて決定されてよい)手前に差し掛かると、通過イベント、車線変更イベント、分岐イベント、合流イベントなどを起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、障害物を回避するような回避軌道が生成される。
 行動計画生成部140は、カメラ10、レーダ装置12、ファインダ14、物体認識装置16、車両センサ40、MPU60、および操作センサ(アクセル開度センサ83、ブレーキセンサ85、ステアリングセンサ87、把持センサ88)等による検出結果に基づいて、走行場面に応じた運転モードを決定し、決定した運転モードに従って自車両Mを制御する。例えば、行動計画生成部140は、上述した検出結果に基づいて走行シーンを判定し、判定結果に応じた運転モードに切り替える。また、行動計画生成部140は、自車両Mの走行速度の変化に応じて、運転モードを切り替えてもよい。運転モードは、例えば、手動運転モード、第1自動運転モード、第2自動運転モード、および第3自動運転モードを含む。なお、本実施形態において、自動運転のモードは、便宜的に第1~3自動運転モードと定義される。
 手動運転モードは、自車両Mの運転者が手動でアクセルペダル82、ブレーキペダル84、またはステアリングホイール86を操作することにより、自車両Mを制御するモードである。
 第1~3自動運転モードを、自動運転が実行されるモードにおいて自車両Mの運転者に求められるタスクの負荷が高い順に並べると、第1自動運転モード、第2自動運転モード、第3自動運転モードである。つまり、これらを運転者に求められるタスクの負荷に応じて階層に分けた場合、第1自動運転モードが最も下位の運転モードであり、第3自動運転モードが最も上位の運転モードである。つまり、上位の運転モードは、下位の運転モードに比べて、運転者の自由度が高い運転モード、運転者に要求されるタスクの負荷が低い運転モード、運転支援のレベルが高い運転モード、のうち少なくともいずれか一つである。
 第1自動運転モードにおいて運転者に要求されるタスクは、例えば、ステアリングホイール86を把持すること、および自車両Mの周辺を監視することである。監視するとは、例えば、自車両Mの進行方向、およびその周辺に視線を向けることである。第1自動運転モードが実行される走行シーンには、例えば、高速道路のランプなどのカーブ路や、料金所付近など道路の形状が単純な直線とは異なる区間等が含まれる。
 第2自動運転モードにおいて運転者に要求されるタスクは、例えば、自車両Mの周辺を監視することである。第2自動運転モードが実行される走行シーンには、例えば、高速道路の本線など道路の形状が直線または直線に近い区間等が含まれる。
 第3自動運転モードは、例えば、自車両Mの運転者に対するタスクを何ら要求することなく、自動運転が実行されるモードである。第3自動運転モードが実行される走行シーンには、例えば、自車両Mの速度が所定速度以下であり、且つ前走車両との車間距離が所定距離以内であること等が含まれる。
 第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
 第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
 第3制御部180は、例えば、乗員認識部182と、覚醒度推定部184と、要求タスク決定部186と、切替制御部188とを備える。
 乗員認識部182は、車室内カメラ42により撮像された画像を解析し、解析結果に基づいて乗員の状態を認識する。乗員認識部182は、画像の解析結果に基づいて、乗員が寝ている状態であるか否かを判定したり、乗員が自車両Mの周辺を監視している状態であるか否かを判定したりする。例えば、乗員の頭が自車両Mの床方向に向いている状態が所定時間継続している場合や、乗員の瞼が所定時間以上継続して閉じている状態である場合、乗員認識部182は、乗員が寝ている状態であると判定される。
 また、乗員認識部182は、画像の解析結果に基づいて、車両の乗員(運転者)が視線を向けている領域を判定し、判定結果に基づいて運転者が自車両Mの周辺を監視しているか否かを判定する。例えば、乗員認識部182は、テンプレートマッチング等の手法を用いて画像から、運転者の目における基準点(目の動かない部分)と動点(目の動く部分)の組み合わせを検出する。基準点と動点との組み合わせは、例えば、目頭と虹彩の組み合わせ、角膜反射領域と瞳孔との組み合わせ等である。角膜反射領域とは、車室内カメラ42等が赤外光を運転者に向けて照射した際の角膜における赤外光の反射領域である。そして、乗員認識部182は、基準点に対する動点の位置に基づいて、画像平面から実平面への変換処理などを行って視線の向きを導出する。
 また、乗員認識部182は、把持センサ88の検出結果に基づいて、運転者がステアリングホイール86を把持している状態であるか否かを判定したり、運転者のステアリングホイール86の把持の程度を判定したりする。
 覚醒度推定部184は、自車両Mに設けられた各種センサ等の検出部(例えば、カメラ10、レーダ装置12、ファインダ14、物体認識装置16、車両センサ40、MPU60、アクセル開度センサ83、ブレーキセンサ85、ステアリングセンサ87、把持センサ88、乗員認識部182等を含む)による検出結果に基づいて、運転者の覚醒度を推定する。例えば、覚醒度推定部184は、乗員認識部182による認識結果に基づいて、運転者の覚醒度を推定する。覚醒度は、例えば、覚醒状態の程度を段階的に示すものであって、通常状態(V1)、やや低下している(V2)、かなり低下している(V3)等が含まれる。
 例えば、覚醒度推定部184は、把持センサ88による検出結果に基づいて、覚醒度を推定する。例えば、覚醒度推定部184は、把持センサ88により検出された静電容量の変化量が第1閾値以上である場合、乗員がステアリングホイール86を把持していると判定し、覚醒度が通常状態V1であると推定する。また、覚醒度推定部184は、把持センサ88により検出された静電容量の変化量が所定量第1閾値未満および第2閾値(第2閾値<第1閾値)以上である場合、ステアリングホイール86をしっかり把持していないと判定し、覚醒度がやや低下していると推定する。さらに、覚醒度推定部184は、把持センサ88により検出された静電容量の変化量が第2閾値未満である場合、ステアリングホイール86を全く把持していないと判定し、覚醒度がかなり低下していると推定する。
 また、覚醒度推定部184は、乗員認識部182による認識結果に基づいて、覚醒度を推定する。例えば、覚醒度推定部184は、自車両Mの運転者が所定の挙動を行っていない状態(例えば自車両Mの周辺の監視を行っていない状態や、視線を進行方向およびその周辺に向けていない状態等)の継続時間が長くなるほど覚醒度が低いと推定する。また、覚醒度推定部184は、寝そうな状態である場合には、やや覚醒度が低下しているV2と判定し、乗員が寝ている状態である場合には、かなり低下しているV3と判定してもよい。また、覚醒度推定部184は、車室内カメラ42により撮像された画像の解析結果に基づいて、まばたきの速度、目の開き具合、まばたきの間隔(目を開いている継続時間)、まばたきの継続時間(目を閉じている継続時間)等を人工知能を用いて分析し、眠気のレベルを推定してもよい。覚醒度推定部184は、推定した眠気のレベルに応じた覚醒度を推定する。また、目を閉じている継続時間の長さに応じて覚醒度を推定してもよく、例えば、覚醒度推定部184は、目を継続して閉じている時間が第3閾値以上である場合はやや覚醒度が低下しているV2と判定し、目を継続して閉じている時間が第4閾値(第4閾値>第3閾値)以上である場合はかなり低下しているV3と判定してもよい。
 また、覚醒度推定部184は、要求タスクの実行状態に応じて、覚醒度を推定してもよい。例えば、覚醒度推定部184は、要求タスクがときどき実行できていない場合は、覚醒度がやや低下しているV2と判定し、要求タスクがかなり実行できていない場合、覚醒度がかなり低下しているV3と判定してもよい。また、覚醒度推定部184は、要求タスクが制限時間以内に実行できた場合は、覚醒度がやや低下しているV2と判定し、要求タスクが制限時間以内に実行できなかった場合、覚醒度がかなり低下しているV3と判定してもよい。
 また、覚醒度推定部184は、自車両Mの走行場面に基づいて、運転者の覚醒度を推定してもよい。例えば、覚醒度推定部184は、自車両Mの走行場面が所定の走行場面に該当する場合、運転者の覚醒度が低下していると推定する。所定の走行場面には、例えば、自車両Mが期間T1以上走行している場面(長時間走行)、走行している自車両Mが路面から受ける振動の強さ(平均振り幅)が基準値X1以上である場面、期間T2内での走行におけるカーブの回数が基準値X2以上である場面、直線道路を期間T3以上走行している場面、渋滞している道路を速度V1以下で期間T4以上走行している場面等が含まれる。期間は、時間であってもよく、距離であってもよい(以下、同じ)。覚醒度推定部184は、所定の走行場面の継続時間が長い程覚醒度が低下していると判定する。こうすることにより、覚醒度推定部184は、運転者の疲労の程度に応じて、覚醒度を推定することができる。
 要求タスク決定部186は、自動運転制御ユニット100により運転支援が実行されている場合、運転者に対して要求するタスク(以下、要求タスクと記す)を決定する。また、要求タスク決定部186は、決定した要求タスクの内容をHMI30を用いて運転者に通知してもよく、切替制御部188に対して決定したタスクの実行を指示してもよい。例えば、要求タスク決定部186は、タスクが運転者に対する質問、問いかけ、呼びかけ、指示等である場合に、その内容をHMI30を用いて出力する。
 要求タスクには、例えば、運転者がステアリングホイール86を把持すること(以下、タスク1)、運転者が自車両Mの周辺を監視すること(以下、タスク2)、運転者が体の少なくとも一部を動かすこと(以下、タスク3)、運転者に思考させること(以下、タスク4)、運転と関連性のある動作をさせること(以下、タスク5)等が含まれる。タスク3には、例えば、肩を上げ下げする動作、肘を上げ下げする動作、口を大きく開ける動作、瞬きを複数回する動作、大きく深呼吸する動作等が含まれる。タスク4には、乗員に関する質問、天候や車内環境などの周辺状況に関する質問等が含まれる。また、タスク4は、思考の程度に応じた複数のタスクを含むものであってもよく、質問の内容を複雑にすることにより思考の程度を高くしたり、質問数を増やすことにより思考の程度を高くしたり、回答を要求することにより思考の程度を高くしたり、回答時間を制限することにより思考の程度を高くしてもよい。タスク5には、例えば、タスク1,2や、アクセルペダル82を操作すること、ブレーキペダル84を操作すること等が含まれる。
 要求タスク決定部186は、行動計画生成部140あるいは切替制御部188により決定された運転モードに基づいて、要求タスクを決定する。つまり、運転モードに応じて要求タスクが異なる場合、要求タスク決定部186は、行動計画生成部140あるいは切替制御部188により運転モードが切り替えられたことに応じて、要求タスクを変更する。以下、運転モードに基づいて要求タスク決定部186により決定される要求タスクを、第1タスク群と記す。タスク群とは、一つのタスクであってもよく、二以上のタスクであってもよい。
 要求タスク決定部186は、覚醒度推定部184により推定された運転者の覚醒度が低下した場合、要求タスクの負荷を高くする。つまり、要求タスク決定部186は、要求タスクの内容を、運転者にとっての負荷が高くなる内容に変更する。運転者にとっての負荷が高くなる内容のタスクを、以下、第2タスク群と記す。
 例えば、要求タスク決定部186は、要求タスクの負荷を高くする場合、要求タスクに含まれるタスクの数を増やすこと、運転者が体の少なくとも一部を動かすタスクを追加すること、運転者に思考させるタスクの思考の程度を高くすること、運転関連度の高いタスクに変更すること、のうち少なくともいずれか一つを実行する。「運転関連度の高いタスク」には、例えば、運転者がステアリングホイール86を把持することや、自車両Mの周辺を監視すること、アクセルペダル82やブレーキペダル84を操作することなどの手動運転モードにおいて要求されるタスクが含まれる。なお、運転関連度の高いタスクに変更する場合、タスクの実行期間(タスクを継続して実行する期間)を、自動運転モードから手動運転モードに切り替えるための切り替え条件を満たさない程度の一時的なものとしてもよい。例えば、切り替え条件が「運転者がステアリングホイール86を期間T5以上把持していること」である場合、タスクの実行時間は期間T5よりも短い期間である。期間T5経過後、要求タスク決定部186は、運転者がステアリングホイール86を把持することを要求タスクから除外し、要求タスクから除外されたことを、HMI30を用いて通知してもよい。
 また、要求タスクの負荷を高くすることは、切替制御部188により運転モードが切り替えられることにより結果としてなされるものであってもよい。
 切替制御部188は、覚醒度推定部184により推定された運転者の覚醒度が低下した場合、行動計画生成部140により決定された運転モードを、要求タスクの負荷が高くなる運転モードに変更する。例えば、自動運転制御ユニット100により上位の運転モードで自車両Mが制御されている状況において、覚醒度推定部184により推定された運転者の覚醒度が低下した場合、切替制御部188は、下位の運転モードに切り替える。例えば、第2自動運転モードの実行中において覚醒度推定部184により推定された運転者の覚醒度が低下した場合、切替制御部188は、第1自動運転モードに切り替える。こうすることにより、運転者にとっての負荷が高くなるとともに、運転と関連性のある動作を運転者に実行させることとなるため、覚醒度の低下を防止することができる。
 また、要求タスクの負荷を高くすることは、運転モードに応じて予め決定されている要求タスク群の内容が要求タスク決定部186により変更されることによりなされてもよい。例えば、行動計画生成部140あるいは切替制御部188による運転モードの切り替えや変更に関係なく、第2自動運転モードの実行中に要求されるタスク群の内容が、第1自動運転モードの実行中に要求されるタスク群の内容に変更されることにより、要求タスクの負荷を高くしてもよい。
 具体的に説明すると、要求タスク決定部186は、行動計画生成部140により例えば下位の運転モードから上位の運転モードに切り替えられる場合、上位の運転モードにおいて要求されるタスクとして、下位の運転モードにおいて運転者に要求される複数のタスクのうち一部の除外タスクを除外したタスクを要求タスクとして決定する。その後、上位の運転モードの実行中において覚醒度推定部184により推定された運転者の覚醒度が低下した場合、要求タスク決定部186は、除外タスクを上位の運転モードにおいて実行される要求タスクに追加する。除外タスクは、例えば、タスク1、タスク2等である。なお、除外タスクは、運転モードに応じて予め決められている。こうすることにより、運転モードの切り替えに関係なく、要求タスクの負荷が運転者にとって高くなるとともに、運転と関連性のある動作を運転者に実行させることとなるため、覚醒度の低下を防止することができるとともに、走行シーン等に応じた運転モードの切り替えを実行することができる。
 また、要求タスクの負荷を高くした後で、運転モードを上位の運転モードに変更する場合、行動計画生成部140は、所定の条件を満たしていない場合、上位の運転モードへの切り替えを制限するようにしてもよい。所定の条件には、例えば、要求タスクの負荷を高くしたときから期間T6が経過したこと等が含まれる。こうすることにより、要求タスクの負荷が高い期間を十分に継続させることができるため、運転者の覚醒度がすぐに低下することを防止することができる。また、推定された覚醒度の変化が頻発する場合であっても、運転モードの変化が頻発することを防止することができる。
 [フローチャート]
 図3は、第3制御部180により実行される一部の処理の流れを示すフローチャートである。なお、行動計画生成部140により運転モードを決定する処理については説明を省略する。
 まず、第3制御部180は、運転支援を開始したか否かを判定する(ステップS11)。例えば、行動計画生成部140により運転モードが手動運転モードから第1自動運転モードに切り替えられた場合、第3制御部180は、運転支援を開始したと判定する。運転支援を開始したと判定した場合、乗員認識部182は、車室内カメラ42により撮像された画像を解析し、解析結果に基づいて乗員の状態を認識し、認識結果を覚醒度推定部184に出力する(ステップS13)。また、覚醒度推定部184は、把持センサ88の検出結果に基づいて、運転者がステアリングホイール86を把持状態(把持している状態か否か、把持の程度等を含む)を判定する(ステップS15)。
 覚醒度推定部184は、乗員認識部182による認識結果や把持状態の判定等に基づいて、運転者の覚醒度を推定する(ステップS17)。要求タスク決定部186は、ステップS15により判定された判定結果と、実行されている運転モードとに基づいて、要求タスクを決定する(ステップS19)。次いで、第3制御部180は、運転支援を終了したか否かを判定する(ステップS21)。例えば、行動計画生成部140又は切替制御部188により運転モードが第1自動運転モードから手動運転モードに切り替えられた場合、第3制御部180は、運転支援を終了したと判定する。運転支援を終了していない場合、第3制御部180は、ステップS13に戻って処理を繰り返す。
 次に、図4~6を参照して、要求タスク決定部186による要求タスクの決定処理について説明する。本処理は、図3のフローチャートのステップS19に対応する処理である。要求タスク決定部186による処理方法としては、図4~6に示す処理のうちのいずれか一つが設定される。
 図4は、要求タスク決定部186により実行される処理の流れを示すフローチャート(その1)である。要求タスク決定部186は、運転モードに応じた第1タスク群を決定する(ステップS101)。要求タスク決定部186は、覚醒度推定部184により推定された運転者の覚醒度が低下したか否かを判定する(ステップS105)。覚醒度推定部184により推定された運転者の覚醒度が低下していないと判定した場合、要求タスク決定部186は、要求タスクを変更しない。
 一方、覚醒度推定部184により推定された運転者の覚醒度が低下したと判定した場合、要求タスク決定部186は、要求するタスクを第2タスク群に変更する(ステップS107)。なお、要求タスク決定部186は、要求するタスクを第2タスク群に変更する場合、第1タスク群の全てを第2タスク群に変更するものであってもよく、第1タスク群の少なくとも一部を第2タスク群に変更するものであってもよい。
 図5は、要求タスク決定部186により実行される処理の流れを示すフローチャート(その2)である。なお、図4に説明する処理と同一の処理については、同じ符号を付して詳細な説明は省略する。ステップS105において運転者の覚醒度が低下したと判定した場合、要求タスク決定部186は、実行中の運転モードよりも下位の自動運転モードがあるか否かを判定する(ステップS106)。例えば、第1自動運転モードを実行中である場合、それよりも下位の自動運転モードがないため、要求タスク決定部186は、要求するタスクを第2タスク群に変更する(ステップS107)。
 一方、第2自動運転モードあるいは第3自動運転モードを実行中である場合、それよりも下位の自動運転モードがあるため、要求タスク決定部186は、一つ下の自動運転モードに変更するよう切替制御部188に指示する(ステップS109)。これにより、切替制御部188は、運転モードを、指示された自動運転モードに変更する。なお、切替制御部188は、要求タスク決定部186から変更指示があった場合、実行中の運転モードよりも一つ階層が下の運転モードへの変更を決定し、決定した運転モードに変更してもよい。
 次いで、要求タスク決定部186は、行動計画生成部140により、運転モードを上位の自動運転モードへ切り替える決定がなされたか否かを判定する(ステップS111)。運転モードを上位の自動運転モードへ切り替える決定がなされた場合、要求タスク決定部186は、ステップS109において下位の自動運転モードに切り替えたときから期間T6が経過したかを判定する(ステップS113)。期間T6が経過したと判定しない場合、要求タスク決定部186は、運転モードの切り替えを禁止することを示す情報を行動計画生成部140に出力する。これにより、行動計画生成部140は切り替えを実行しない。一方、期間T6が経過したと判定しない場合、要求タスク決定部186は、運転モードの切り替えを許可することを示す情報を行動計画生成部140に出力する(ステップS115)。これにより、行動計画生成部140は切り替えを実行する。
 図6は、要求タスク決定部186により実行される処理の流れを示すフローチャート(その3)である。なお、図4に説明する処理と同一の処理については、同じ符号を付して詳細な説明は省略する。要求タスク決定部186は、ステップS101において第1タスク群を決定した後、行動計画生成部140により、運転モードが上位の自動運転モードへ切り替えられるか否かを判定する(ステップS103)。運転モードが上位の自動運転モードへ切り替えられない場合、要求タスク決定部186は、ステップS105,107を実行する。
 一方、ステップS103において運転モードが上位の自動運転モードへ切り替えられる場合、要求タスク決定部186は、切り替えられる上位の自動運転モードに応じた第1タスク群を決定するとともに、切り替えられる上位の自動運転モードに対応付けて予め決められている除外タスクを、第1タスク群から除外する(ステップS119)。次いで、要求タスク決定部186は、覚醒度推定部184により推定された運転者の覚醒度が低下したか否かを判定する(ステップS121)。覚醒度推定部184により推定された運転者の覚醒度が低下していないと判定した場合、要求タスク決定部186は、要求タスクを変更しない。一方、覚醒度推定部184により推定された運転者の覚醒度が低下したと判定した場合、要求タスク決定部186は、ステップS119において決定された第1タスク群に、除外タスクを追加する(ステップS123)。
 また、要求タスク決定部186は、覚醒度推定部184により推定された運転者の覚醒度が低下した場合、運転者の覚醒度に応じて異なる負荷のタスクを決定してもよい。例えば、要求タスク決定部186は、上述したステップS105とステップS107の処理に代えて、図7に示すような処理を実行する。図7は、要求タスク決定部186により実行される処理の流れを示すフローチャート(その4)である。
 要求タスク決定部186は、覚醒度推定部184により推定された運転者の覚醒度がかなり低下しているV3であるか否かを判定する(ステップS201)。運転者の覚醒度がかなり低下しているV3である場合、要求タスク決定部186は、要求タスクを、第1タスク群よりも負荷が高い第3タスク群に変更する(ステップS203)。第3タスク群には、例えば、運転者が体の少なくとも一部を動かすタスク3、運転と関連性のある動作をさせるタスク5、タスク4のうち思考の程度が高いタスク等が含まれる。
 一方、ステップS201において、運転者の覚醒度がかなり低下しているV3でない場合、要求タスク決定部186は、覚醒度推定部184により推定された運転者の覚醒度がやや低下しているV2であるか否かを判定する(ステップS205)。運転者の覚醒度がやや低下しているV2である場合、要求タスク決定部186は、要求タスクを、第4タスク群に変更する(ステップS207)。第4タスク群は、第1タスク群よりも負荷が高く、且つ、第3タスク群よりも負荷が低いタスク群である。第4タスク群には、例えば、タスク4のうち思考の程度が低いタスクが含まれる。タスク4のうち思考の程度が低いタスクには、運転者の嗜好に関する情報の提供(運転者に語りかけるだけ)、運転者の嗜好に関する質問であって回答を要求しない質問をすること等が含まれる。
 一方、ステップS205において、運転者の覚醒度がやや低下しているV2でない場合(つまり、運転者の覚醒度が通常状態V1である場合)、要求タスク決定部186は、何も実施しない(ステップS209)。つまり、要求タスクは変更されない。
 以上説明した第1実施形態によれば、車両の周辺状況を認識する認識部130と、認識部130により認識された周辺状況に基づいて、車両の操舵または加減速のうち一方または双方を制御する運転支援を行う車両制御部(第1制御部120と第2制御部160)と、車両に設けられた検出部による検出結果に基づいて、車両に乗車している運転者の覚醒度を推定する覚醒度推定部184と、車両制御部による運転支援の実行中において運転者に対して要求するタスクを決定する要求タスク決定部186とを備え、要求タスク決定部186が、覚醒度推定部184により推定された運転者の覚醒度が低下した場合、運転者に要求するタスクの負荷を高くすることにより、運転者の覚醒度の低下を防止することができる。
 また、運転者に要求するタスクの内容を、体の一部を動かすもの、コミュニケーションをとるもの、運転に関連性のあるものなど、運転中において無理なく実行することができる程よい内容にすることにより、覚醒度が低下している運転者に要求タスクの実行を依頼するシーンであっても運転者が感じる不快感を軽減することができる。
 また、運転者に要求するタスクの内容を覚醒度に応じて変更することにより、運転者が感じる不快感を軽減することができる。
 また、本実施形態に係る車両システム1のように、自車両Mの運転モードが走行場面に応じて切り替えられるシステムにおいて、運転モードの変更間隔が短くなる場合、運転者の覚醒度を精度よく推定することが困難な場合がある。このような状況であっても、上述したような程よい内容のタスクを運転者に要求することにより、運転者が感じる不快感を軽減することができる。
 <第2実施形態>
 以下、第2実施形態について説明する。第1実施形態では、自車両Mは主に自動運転により運転支援を実行するものとして説明した。第2実施形態では、自車両Mは、第1実施形態の自動運転とは異なる自車両Mの運転支援を実行する。以下、第1実施形態との相違点を中心に説明する。
 図8は、第2実施形態の車両システム1Aの機能構成の一例を示す図である。
 車両システム1Aは、例えば、自動運転制御ユニット100に代えて、運転支援ユニット300を備える。また、車両システム1Aにおいて、MPU60は省略される。
 運転支援ユニット300は、例えば、認識部310と、追従走行支援制御部320と、車線維持支援制御部330と、車線変更支援制御部340と、第3制御部350とを備える。認識部310と第3制御部350は、それぞれ認識部130と第3制御部180と同等の機能のため説明を省略する。
 後述する追従走行支援制御部320により実行される追従走行支援制御、車線維持支援制御部330により実行される車線維持支援制御、または車線変更支援制御部340により実行される車線変更支援制御のうち、一以上の制御を行うことは「運転支援を行う」ことの一例である。これらの運転支援の制御において自車両Mの運転者に求められるタスクの負荷が高い順に階層分けされていてもよい。
 運転支援の実行中において覚醒度推定部184により推定された運転者の覚醒度が低下した場合、要求タスク決定部186は、運転モードを手動運転モードに切り替えるよう切替制御部188に指示することにより、要求タスクの負荷を高くする。なお、自車両Mの運転者に求められるタスクの負荷に応じて運転支援の制御が階層分けされている場合、要求タスク決定部186は、運転支援のモードを下の階層のモードに変更することにより、要求タスクの負荷を高くしてもよい。こうすることにより、運転者にとっての負荷が高くなるとともに、運転と関連性のある動作を運転者に実行させることとなるため、覚醒度の低下を防止することができる。
[追従走行支援制御部320について]
 追従走行支援制御部320は、例えば、認識部310により認識された自車両Mの進行方向の先において走行する周辺車両に追従する制御を行う。追従走行支援制御部320は、例えば、乗員によって不図示の追従走行開始スイッチへの操作がなされたことをトリガとして追従走行支援制御を開始する。追従走行支援制御部320は、例えば、認識部310により認識された周辺車両のうち、自車両Mの前方の所定距離(例えば50[m]程度)以内に存在する周辺車両(前走車両と称する)に自車両Mが追従するように、走行駆動力出力装置200およびブレーキ装置210を制御し、自車両Mの速度制御を行う。「追従する」とは、例えば、自車両Mと前走車両との相対距離(車間距離)を一定に維持して走行することをいう。なお、追従走行支援制御部320は、認識部310により前走車両が認識されていない場合、単に設定車速で自車両Mを走行させてよい。
[車線維持支援制御部330について]
 車線維持支援制御部330は、認識部310により認識された自車両Mの位置に基づいて、自車両Mが走行する車線を維持するように、ステアリング装置220を制御する。車線維持支援制御部330は、例えば、乗員による不図示の車線維持開始スイッチへの操作がなされたことをトリガとして車線維持支援制御を開始する。例えば、車線維持支援制御部330は、走行車線中央を自車両Mが走行するように自車両Mの操舵を制御する。車線維持支援制御部330は、例えば、ステアリング装置220を制御して、走行車線中央からの自車両Mの基準点の乖離が大きくなるほど走行車線中央の位置に復帰する方向に対して大きい操舵力を出力する。
 車線維持支援制御部330は、更に、自車両Mが車線を区画する道路区画線に接近した場合、ステアリング装置220を制御して、自車両Mが走行車線中央側へと復帰するように操舵を制御して路外逸脱抑制制御を行ってもよい。
[車線変更支援制御部340について]
 車線変更支援制御部340は、乗員のステアリングホイールの操作(操舵制御)に依らずに、走行駆動力出力装置200およびブレーキ装置210と、ステアリング装置220とを制御して、車線変更が可能であると判定された隣接車線に対して自車両Mを車線変更させる。車線変更支援制御部340は、例えば、乗員による不図示の車線変更開始スイッチへの操作がなされたことをトリガとして車線変更支援制御を開始する。例えば、車線変更開始スイッチへの操作がなされた場合、車線変更支援制御部340による制御が優先される。
 車線変更支援制御部340は、自車両Mの速度と車線変更に必要な秒数に基づいて、自車両Mの車線変更に必要な距離を導出する。
 車線変更に必要な秒数は、車線変更を行う際の横移動の距離がほぼ一定であると仮定し、適切な横方向速度で車線変更を行ったと仮定した場合に、横方向の目標距離を走行し終えるまでの距離に基づいて設定される。車線変更支援制御部340は、導出した車線変更に必要な距離に基づいて、車線変更先の車線上の走行車線中央上に車線変更の終了地点を設定する。車線変更支援制御部340は、例えば、車線変更の終了地点を目標位置として車線変更支援制御を行う。
 <第3実施形態>
 以下、第3実施形態について説明する。第3実施形態に係る車両システムは、第1実施形態で説明した主に自動運転により運転支援を実行する機能と、第2実施形態で説明した運転支援を実行する機能の両方を備える。以下、第1、2実施形態との相違点を中心に説明する。
 本実施形態において、自車両Mの運転者に求められるタスクの負荷が高い順に並べると、手動運転モード、運転支援モード、第1自動運転モード、第2自動運転モード、第3自動運転モードである。運転支援モードには、例えば、上述の追従走行支援制御、車線維持支援制御、車線変更支援制御等が含まれる。
 運転支援の実行中において覚醒度推定部184により推定された運転者の覚醒度が低下した場合、要求タスク決定部186は、自動運転モードを運転支援モードに切り替える(あるいは、運転支援モードを手動運転モードに切り替える)ことにより、要求タスクの負荷を高くする。こうすることにより、運転者にとっての負荷が高くなるとともに、運転と関連性のある動作を運転者に実行させることとなるため、覚醒度の低下を防止することができる。
 [ハードウェア構成]
 上述した実施形態の車両システム1の自動運転制御ユニット100(または車両システム1Aの運転支援ユニット300)は、例えば、図9に示すようなハードウェアの構成により実現される。図9は、実施形態の自動運転制御ユニット100(運転支援ユニット300)のハードウェア構成の一例を示す図である。
 制御部は、通信コントローラ100-1、CPU100-2、RAM100-3、ROM100-4、フラッシュメモリやHDDなどの二次記憶装置100-5、およびドライブ装置100-6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100-6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置100-5に格納されたプログラム100-5aがDMAコントローラ(不図示)などによってRAM100-3に展開され、CPU100-2によって実行されることで、制御部が実現される。また、CPU100-2が参照するプログラムは、ドライブ装置100-6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。
 上記実施形態は、以下のように表現することができる。
 記憶装置と、
 前記記憶装置に格納されたプログラムを実行するハードウェアプロセッサと、を備え、
 前記ハードウェアプロセッサは、前記プログラムを実行することにより、
 車両の周辺状況を認識し、
 認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行い、
 前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定し、
 前記運転支援の実行中において前記運転者に対して要求するタスクを決定し、
 推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くする、
 車両制御システム。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
 例えば、覚醒度推定部184は、天候や走行している時間帯等に応じて、覚醒度の判定基準を変更してもよい。具体的に説明すると、紫外線の強い日は、曇りの日に比べて、運転者の目が疲れやすいため、紫外線の強い日において覚醒度が低下していると判定する閾値(走行距離や走行時間)を、曇りの日に比べて小さくしてもよい。また、日中の運転よりも深夜の運転の方が眠くなりやすいため、深夜において覚醒度が低下していると判定する閾値(走行距離や走行時間)を、日中に比べて小さくしてもよい。
 要求タスク決定部186が要求タスクの負荷を高くする場合に実行される「運転関連度の高いタスクに変更すること」には、例えば、上位の運転モードから下位の運転モードに切り替えられるための切り替え条件が下位の運転モードに切り替えられやすい側に変更されること等が含まれてもよい。例えば、運転者がステアリングホイール86を把持する状態が期間T7以上継続したことを条件として、自動運転モードから手動運転モードに切り替えることが予め設定されている場合、期間T7の長さを短くする。
 要求タスク決定部186が要求タスクの負荷を高くする場合に、運転者に対する質問に応じた所定の回答を提供することが含まれてもよい。所定の回答には、例えば、運転者に好きな音楽を質問した場合に回答に応じた音楽を車両に搭載されたスピーカから出力することや、運転者に好きな食べ物を質問した場合に回答に応じたレストランや店舗に関する情報をHMI30から提供することが含まれていてもよい。
 要求タスク決定部186は、要求タスクが所定条件下において実行されていない場合、所定の報知情報をHMI30から出力させてもよい。また、行動計画生成部140あるいは切替制御部188は、各自動運転モードにおいて設定されている要求タスクが所定条件下において実行されていない場合、所定の報知情報をHMI30から出力させてもよい。所定条件下には、例えば、要求タスクが実行されていない状況が所定時間以上継続した場合、または、運転に関連性のある要求タスクが実行されていない状況が所定時間以上継続した場合等が含まれる。
1、1A 車両システム
100 自動運転制御ユニット
120 第1制御部
130 認識部
140 行動計画生成部
160 第2制御部
162 取得部
164 速度制御部
166 操舵制御部
180 第3制御部
182 乗員認識部
184 覚醒度推定部
186 要求タスク決定部
188 切替制御部
300 運転支援ユニット
310 認識部
320 追従走行支援制御部
330 車線維持支援制御部
340 車線変更支援制御部
350 第3制御部

Claims (8)

  1.  車両の周辺状況を認識する認識部と、
     前記認識部により認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行う車両制御部と、
     前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定する覚醒度推定部と、
     前記車両制御部による運転支援の実行中において前記運転者に対して要求するタスクを決定するタスク決定部であって、前記覚醒度推定部により推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くする前記タスク決定部と、
     を備える車両制御システム。
  2.  前記タスク決定部は、前記運転者に要求するタスクの負荷を高くする場合、
      前記運転者に対して要求するタスクの数を増やすこと、
      前記運転者が体の少なくとも一部を動かすタスクを追加すること、
      前記運転者に思考させるタスクの思考の程度を高くすること、
      運転関連度がより高いタスクに変更すること、
     のうち少なくともいずれか一つを実行する、
     請求項1に記載の車両制御システム。
  3.  前記車両制御部は、
     第1運転モードと第2運転モードとを所定のタイミングで切り替えて前記運転支援を行うとともに、
     前記第2運転モードにおいて、前記覚醒度推定部により推定された前記運転者の覚醒度が低下した場合、前記第1運転モードに切り替え、
     前記第2運転モードは、前記第1運転モードに比べて、
      前記運転者の自由度が高い運転モード、
      前記運転者に要求されるタスクの負荷が低い運転モード、
      前記車両制御部による運転支援のレベルが高い運転モード、
     のうち少なくともいずれか一つである、
     請求項1または2に記載の車両制御システム。
  4.  前記タスク決定部は、
      前記第2運転モードにおいて要求されるタスクにおいて、前記第1運転モードにおいて前記運転者に要求される複数のタスクのうち一部の除外タスクを除外し、
      前記第2運転モードにおいて、前記覚醒度推定部により推定された前記運転者の覚醒度が低下した場合、前記除外タスクを前記第2運転モードにおいて要求されるタスクに追加する、
     請求項3に記載の車両制御システム。
  5.  前記除外タスクは、
     前記検出部により検出されるものであって、
      前記車両の操作子を把持すること、
      前記運転者が前記車両の周辺を監視すること、
     のうち少なくともいずれか一方を含む、
     請求項4に記載の車両制御システム。
  6.  前記車両制御部は、
     前記車両の走行場面の変化に応じて、前記第1運転モードと前記第2運転モードとを所定のタイミングで切り替えるとともに、
     前記第2運転モードにおいて前記覚醒度推定部により推定された前記運転者の覚醒度が低下したことにより前記第1運転モードに切り替えられた後、所定の条件を満たしていない場合、前記第2運転モードへの切り替えを制限する、
     請求項3から5のうちいずれか一項に記載の車両制御システム。
  7.  車載コンピュータが、
     車両の周辺状況を認識し、
     認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行い、
     前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定し、
     前記運転支援の実行中において前記運転者に対して要求するタスクを決定し、
     推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くする、
     車両制御方法。
  8.  車載コンピュータに、
     車両の周辺状況を認識させ、
     認識された周辺状況に基づいて、前記車両の操舵または加減速のうち一方または双方を制御する運転支援を行わせ、
     前記車両に設けられた検出部による検出結果に基づいて、前記車両に乗車している運転者の覚醒度を推定させ、
     前記運転支援の実行中において前記運転者に対して要求するタスクを決定させ、
     推定された前記運転者の覚醒度が低下した場合、前記運転者に要求するタスクの負荷を高くさせる、
     プログラム。
PCT/JP2017/047255 2017-12-28 2017-12-28 車両制御システム、車両制御方法、およびプログラム WO2019130552A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019561534A JPWO2019130552A1 (ja) 2017-12-28 2017-12-28 車両制御システム、車両制御方法、およびプログラム
PCT/JP2017/047255 WO2019130552A1 (ja) 2017-12-28 2017-12-28 車両制御システム、車両制御方法、およびプログラム
CN201780097999.8A CN111527532A (zh) 2017-12-28 2017-12-28 车辆控制***、车辆控制方法及程序
US16/957,734 US20200331458A1 (en) 2017-12-28 2017-12-28 Vehicle control system, vehicle control method, and storage medium
JP2021198828A JP7444844B2 (ja) 2017-12-28 2021-12-07 車両制御システム、車両制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/047255 WO2019130552A1 (ja) 2017-12-28 2017-12-28 車両制御システム、車両制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2019130552A1 true WO2019130552A1 (ja) 2019-07-04

Family

ID=67066851

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/047255 WO2019130552A1 (ja) 2017-12-28 2017-12-28 車両制御システム、車両制御方法、およびプログラム

Country Status (4)

Country Link
US (1) US20200331458A1 (ja)
JP (2) JPWO2019130552A1 (ja)
CN (1) CN111527532A (ja)
WO (1) WO2019130552A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021095153A1 (ja) * 2019-11-13 2021-05-20
JP2021128535A (ja) * 2020-02-13 2021-09-02 本田技研工業株式会社 運転支援装置および車両
JP7493870B2 (ja) 2022-03-03 2024-06-03 パナソニックオートモーティブシステムズ株式会社 運転支援装置、運転支援方法及び車両

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220063678A1 (en) * 2020-08-27 2022-03-03 Waymo Llc Mode management for autonomous vehicles
JP7466433B2 (ja) * 2020-11-17 2024-04-12 本田技研工業株式会社 運転データ記録装置、運転支援システム、運転データ記録方法、およびプログラム
JP6942236B1 (ja) 2020-12-28 2021-09-29 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US20230036945A1 (en) * 2021-07-23 2023-02-02 GM Global Technology Operations LLC Allocation of non-monitoring periods during automated control of a device
CN114771652A (zh) * 2022-04-15 2022-07-22 江铃汽车股份有限公司 一种自动驾驶转向控制方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528815A (ja) * 2003-06-06 2007-10-18 ボルボ テクノロジー コーポレイション 運転者の行動解釈に基づいて自動車のサブシステムを制御する方法および機構
JP2009031905A (ja) * 2007-07-25 2009-02-12 Nissan Motor Co Ltd 居眠り運転防止装置
JP2017019424A (ja) * 2015-07-13 2017-01-26 日産自動車株式会社 車両運転制御装置及び車両運転制御方法
JP2017027180A (ja) * 2015-07-17 2017-02-02 日産自動車株式会社 車両制御装置及び車両制御方法
WO2017057170A1 (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152524A (ja) * 2008-12-24 2010-07-08 Toyota Motor Corp 運転者状態推定装置および車両
JP6024231B2 (ja) * 2012-06-18 2016-11-09 アイシン精機株式会社 状態判定装置、運転支援システム、状態判定方法及びプログラム
WO2014057308A2 (en) * 2012-10-10 2014-04-17 Freescale Semiconductor, Inc. Method and apparatus for maintaining alertness of an operator of a manually-operated system
EP3002740B1 (en) * 2014-10-03 2019-03-06 Volvo Car Corporation Method and system for avoiding an in-alert driver of a vehicle
JP6310439B2 (ja) * 2015-11-06 2018-04-11 本田技研工業株式会社 接触判定処理装置
JP6620564B2 (ja) * 2016-01-15 2019-12-18 株式会社デンソー 移譲制御装置
JP6508095B2 (ja) * 2016-03-11 2019-05-08 トヨタ自動車株式会社 車両の自動運転制御システム
JP2017197011A (ja) * 2016-04-27 2017-11-02 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6368958B2 (ja) * 2016-05-12 2018-08-08 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US10481602B2 (en) * 2016-10-17 2019-11-19 Steering Solutions Ip Holding Corporation Sensor fusion for autonomous driving transition control

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528815A (ja) * 2003-06-06 2007-10-18 ボルボ テクノロジー コーポレイション 運転者の行動解釈に基づいて自動車のサブシステムを制御する方法および機構
JP2009031905A (ja) * 2007-07-25 2009-02-12 Nissan Motor Co Ltd 居眠り運転防止装置
JP2017019424A (ja) * 2015-07-13 2017-01-26 日産自動車株式会社 車両運転制御装置及び車両運転制御方法
JP2017027180A (ja) * 2015-07-17 2017-02-02 日産自動車株式会社 車両制御装置及び車両制御方法
WO2017057170A1 (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021095153A1 (ja) * 2019-11-13 2021-05-20
JP2021128535A (ja) * 2020-02-13 2021-09-02 本田技研工業株式会社 運転支援装置および車両
US11325616B2 (en) 2020-02-13 2022-05-10 Honda Motor Co., Ltd. Driving assistance apparatus and vehicle
JP7493870B2 (ja) 2022-03-03 2024-06-03 パナソニックオートモーティブシステムズ株式会社 運転支援装置、運転支援方法及び車両

Also Published As

Publication number Publication date
CN111527532A (zh) 2020-08-11
US20200331458A1 (en) 2020-10-22
JPWO2019130552A1 (ja) 2020-10-22
JP7444844B2 (ja) 2024-03-06
JP2022022350A (ja) 2022-02-03

Similar Documents

Publication Publication Date Title
JP7444844B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP6668510B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6961791B2 (ja) 車両制御システム、車両制御方法、およびプログラム
CN110023168B (zh) 车辆控制***、车辆控制方法及车辆控制程序
CN110239549B (zh) 车辆控制装置、车辆控制方法及存储介质
JP6788751B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JPWO2019163121A1 (ja) 車両制御システム、車両制御方法、およびプログラム
US11511738B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7275001B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7112374B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7000202B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP7133337B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7414612B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021068016A (ja) 車両制御装置、車両制御方法、およびプログラム
US20210009148A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6990675B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022142941A (ja) 運転支援装置、運転支援方法及びプログラム
US20230398990A1 (en) Mobile body control device, mobile body control method, and storage medium
JP2024030413A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021068014A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7425133B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7425132B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022152694A (ja) 車両制御装置、車両制御方法、及びプログラム
JP2022142860A (ja) 運転支援装置、運転支援方法及びプログラム
JP2022152869A (ja) 車両制御装置、車両制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17936669

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019561534

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17936669

Country of ref document: EP

Kind code of ref document: A1