WO2019069425A1 - 車両制御装置、車両制御方法、およびプログラム - Google Patents

車両制御装置、車両制御方法、およびプログラム Download PDF

Info

Publication number
WO2019069425A1
WO2019069425A1 PCT/JP2017/036282 JP2017036282W WO2019069425A1 WO 2019069425 A1 WO2019069425 A1 WO 2019069425A1 JP 2017036282 W JP2017036282 W JP 2017036282W WO 2019069425 A1 WO2019069425 A1 WO 2019069425A1
Authority
WO
WIPO (PCT)
Prior art keywords
pedestrian
vehicle
road
width
recognition unit
Prior art date
Application number
PCT/JP2017/036282
Other languages
English (en)
French (fr)
Inventor
雄悟 上田
敦 荒井
優輝 茂木
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to PCT/JP2017/036282 priority Critical patent/WO2019069425A1/ja
Priority to US16/650,395 priority patent/US20200290643A1/en
Priority to CN201780095158.3A priority patent/CN111133489B/zh
Priority to JP2019546482A priority patent/JP6768974B2/ja
Priority to DE112017007906.3T priority patent/DE112017007906T5/de
Publication of WO2019069425A1 publication Critical patent/WO2019069425A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/543Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating other states or conditions of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/547Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for issuing requests to other traffic participants; for confirming to other traffic participants they can proceed, e.g. they can overtake
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0017Planning or execution of driving tasks specially adapted for safety of other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator

Definitions

  • the present invention relates to a vehicle control device, a vehicle control method, and a program.
  • Patent Document 1 Japanese Patent Document 1
  • the notification based on the future behavior in automatic driving of the vehicle is performed unilaterally to the pedestrians and other vehicles in the vicinity, and the vehicles walk unless the pedestrians avoid the roadside. It was not considered about the operation control under the narrow road condition that can not overtake the driver.
  • the present invention has been made in consideration of such circumstances, and provides a vehicle control device, a vehicle control method, and a program capable of performing appropriate driving control based on a narrow road condition. As one of the goals.
  • a road width recognition unit (132) that recognizes the width of the road on which the vehicle (the vehicle M travels), a pedestrian recognition unit (134) that recognizes a pedestrian existing around the vehicle,
  • a driving control unit (136, 138, 142, 144, 160) for causing the vehicle to travel by controlling one or both of steering and acceleration / deceleration of the vehicle without depending on the operation of a vehicle occupant;
  • the width of the road recognized by the road width recognition unit is equal to or less than the predetermined width, the traveling direction of the pedestrians recognized by the pedestrian recognition unit is substantially the same as the vehicle and the priority
  • a driving control unit for causing the vehicle to travel so as to follow a high pedestrian.
  • the driving control unit in (1), of the pedestrians recognized by the pedestrian recognition unit, the driving control unit is a pedestrian whose traveling direction is substantially the same as that of the vehicle and whose priority is high If the vehicle can not overtake the vehicle, the vehicle is run to follow the pedestrian.
  • the pedestrian with high priority is the pedestrian closest to the vehicle.
  • the pedestrian recognition unit recognizes the position of the pedestrian in the width direction of the road on which the vehicle travels, and the operation control unit When the pedestrian recognized by the pedestrian recognition unit is near a predetermined extent or more in one of the width directions of the road, driving control is performed to pass the pedestrian from the other side.
  • the operation control unit passes the pedestrian over the region in the driving control to pass the pedestrian. It is made to pass the vehicle.
  • the driving control unit sets a margin width secured for passing the pedestrian, The driving control is executed to pass the pedestrian by making the margin smaller than the margin when the pedestrian is not looking back.
  • the road width recognition unit recognizes the width of the road on which the vehicle travels, the pedestrian recognition unit recognizes a pedestrian present in the periphery of the vehicle, and the operation control unit detects the occupant of the vehicle
  • the vehicle is made to travel by controlling one or both of steering and acceleration or deceleration of the vehicle regardless of the operation, and the width of the road recognized by the road width recognition unit is equal to or less than a predetermined width, It is a vehicle control method which makes the vehicle travel so as to follow a pedestrian whose traveling direction is substantially the same as the vehicle and of which the pedestrian is recognized by the pedestrian recognition unit.
  • (11) A computer mounted on the vehicle provided with a road width recognition unit that recognizes the width of the road on which the vehicle travels is made to recognize a pedestrian present in the periphery of the vehicle, depending on the operation of the vehicle occupant. Without driving the vehicle by controlling one or both of steering and acceleration of the vehicle and the width of the recognized road is equal to or less than a predetermined width, the traveling among the recognized pedestrians It is a program that makes the vehicle travel so as to follow a pedestrian whose direction is substantially the same as the vehicle and whose priority is high.
  • FIG. 6 is a functional configuration diagram of a first control unit 120, a second control unit 160, and a projection control unit 180. It is a figure for demonstrating the process of the overtaking possibility determination part 136. FIG. It is a figure for demonstrating making the own vehicle M follow one side of running path R1 by the follow-up operation control part 142, and making it follow and run. It is a figure for demonstrating the process of the overtaking operation control part 144. FIG. It is a figure for demonstrating the process of the overtaking driving control part 144 when it is estimated that there exists a walk difficult area
  • FIG. It is a flow chart which shows an example of processing performed by automatic operation control device 100 of an embodiment. It is a figure showing an example of the hardware constitutions of automatic operation control device 100 of an embodiment.
  • the autonomous driving is to make the vehicle travel by controlling one or both of the steering and the speed of the vehicle without depending on the operation of the occupant.
  • the autonomous driving vehicle may be manually operated by an occupant.
  • a traveling driving force output device, a brake device, and a steering device of the vehicle which will be described later, are controlled in accordance with an operation amount of a driving operation member, which will be described later.
  • FIG. 1 is a configuration diagram of a vehicle system 1 using a vehicle control device according to an embodiment.
  • the vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and its driving source is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof.
  • the motor operates using the power generated by the generator connected to the internal combustion engine or the discharge power of the secondary battery or the fuel cell.
  • the vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, and a navigation device 50; An MPU (Map Positioning Unit) 60, a projection unit 70, a drive operator 80, an automatic driving control device (an example of a vehicle control device) 100, a traveling driving force output device 200, a brake device 210, a steering device 220 And These devices and devices are mutually connected by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network or the like.
  • CAN Controller Area Network
  • serial communication line a wireless communication network or the like.
  • the camera 10 is, for example, a digital camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • One or more cameras 10 are attached to any part of a vehicle (hereinafter referred to as a host vehicle M) on which the vehicle system 1 is mounted.
  • the camera 10 When imaging the front, the camera 10 is attached to the top of the front windshield, the rear surface of the rearview mirror, or the like.
  • the camera 10 periodically and repeatedly captures the periphery of the vehicle M.
  • the camera 10 may be a stereo camera.
  • the radar apparatus 12 emits radio waves such as millimeter waves around the host vehicle M, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object.
  • radio waves such as millimeter waves around the host vehicle M
  • the radar device 12 may detect the position and the velocity of the object by a frequency modulated continuous wave (FM-CW) method.
  • FM-CW frequency modulated continuous wave
  • the finder 14 is a light detection and ranging (LIDAR).
  • the finder 14 irradiates light around the host vehicle M and measures scattered light.
  • the finder 14 detects the distance to the object based on the time from light emission to light reception.
  • the light to be irradiated is, for example, pulsed laser light.
  • One or more finders 14 are attached to any part of the host vehicle M.
  • the object recognition device 16 performs sensor fusion processing on the detection result of a part or all of the camera 10, the radar device 12, and the finder 14 to recognize the position, the type, the speed, and the like of the object.
  • the object recognition device 16 outputs the recognition result to the automatic driving control device 100.
  • the object recognition device 16 may output the detection results of the camera 10, the radar device 12, and the finder 14 to the automatic driving control device 100 as it is, as necessary.
  • the communication device 20 communicates with other vehicles around the host vehicle M, for example, using a cellular network, Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like It communicates with various server devices via the base station.
  • a cellular network for example, using a cellular network, Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like It communicates with various server devices via the base station.
  • the HMI 30 presents various information to the occupant of the host vehicle M, and accepts input operation by the occupant.
  • the HMI 30 includes various display devices, speakers, a buzzer, a touch panel, switches (for example, hazard switches), keys, and the like.
  • the vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, and an azimuth sensor that detects the direction of the host vehicle M.
  • the navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a path determination unit 53, and stores the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Hold
  • the GNSS receiver 51 specifies the position of the host vehicle M based on the signal received from the GNSS satellite. The position of the host vehicle M may be identified or supplemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40.
  • the navigation HMI 52 includes a display device, a speaker, a touch panel, keys and the like. The navigation HMI 52 may be partially or entirely shared with the above-described HMI 30.
  • the route determination unit 53 for example, a route from the position of the host vehicle M specified by the GNSS receiver 51 (or an arbitrary position input) to the destination input by the occupant using the navigation HMI 52 (hereinafter referred to as The route on the map is determined with reference to the first map information 54.
  • the first map information 54 is, for example, information in which a road shape is represented by a link indicating a road and a node connected by the link.
  • the first map information 54 may include road curvature, POI (Point Of Interest) information, and the like.
  • the on-map route determined by the route determination unit 53 is output to the MPU 60.
  • the navigation device 50 may also perform route guidance using the navigation HMI 52 based on the on-map route determined by the route determination unit 53.
  • the navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by a passenger.
  • the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20, and acquire the on-map route returned from the navigation server.
  • the MPU 60 functions as, for example, the recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory.
  • the recommended lane determination unit 61 divides the route provided from the navigation device 50 into a plurality of blocks (for example, in units of 100 [m] in the traveling direction of the vehicle), and refers to the second map information 62 for each block. Determine the recommended lanes.
  • the recommended lane determination unit 61 determines which lane to travel from the left.
  • the recommended lane determination unit 61 determines the recommended lane so that the host vehicle M can travel on a reasonable route for traveling to a branch destination when a branch point, a junction point, or the like is present in the route.
  • the second map information 62 is map information that is more accurate than the first map information 54.
  • the second map information 62 includes, for example, information on the center of the lane or information on the boundary of the lane.
  • the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like.
  • the second map information 62 may be updated as needed by accessing another device using the communication device 20.
  • the projection unit 70 is, for example, a projector.
  • the projection unit 70 projects an image on the traveling path of the host vehicle M at a timing instructed by the projection control unit 180.
  • the travel path is an area where the host vehicle M can travel.
  • the traveling path may be a lane divided by road division lines, or may be a road on which there is no road division line such as an alley and on which a vehicle can travel.
  • a sidewalk or the like divided from the roadway by a level difference or a guardrail may not be included in the traveling path.
  • the operating element 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a modified steering wheel, a joystick and other operating elements.
  • a sensor for detecting the amount of operation or the presence or absence of an operation is attached to the driving operation element 80, and the detection result is the automatic driving control device 100 or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to one or both of 220.
  • the automatic driving control apparatus 100 includes, for example, a first control unit 120, a second control unit 160, and a projection control unit 180.
  • Each of the first control unit 120, the second control unit 160, and the projection control unit 180 is realized, for example, when a hardware processor such as a central processing unit (CPU) executes a program (software).
  • a hardware processor such as a central processing unit (CPU) executes a program (software).
  • some or all of these components may be hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. Circuit (including circuitry) or may be realized by cooperation of software and hardware.
  • FIG. 2 is a functional configuration diagram of the first control unit 120, the second control unit 160, and the projection control unit 180.
  • the first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140.
  • the recognition unit 130 includes, for example, a road width recognition unit 132, a pedestrian recognition unit 134, an overtaking possibility determination unit 136, and a walking difficulty area estimation unit 138.
  • the action plan generation unit 140 includes, for example, a follow-up operation control unit 142 and an overtaking operation control unit 144.
  • the combination of the overtaking possibility determination unit 136, the walking difficulty area estimating unit 138, the follow-up operation control unit 142, the overtaking operation control unit 144, and the second control unit 160 is an example of the “operation control unit”.
  • the first control unit 120 implements, for example, a function by artificial intelligence (AI) and a function by a predetermined model in parallel.
  • AI artificial intelligence
  • the function "Recognize intersections" includes recognition of intersections by an image recognition method using deep learning etc. and recognition based on predetermined conditions (such as signals capable of pattern matching, road markings, etc.) It is realized by scoring both and evaluating them comprehensively. This ensures the reliability of automatic driving.
  • the recognition unit 130 detects the position of an object in the vicinity of the host vehicle M, the state of the velocity, the acceleration, and the like based on information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16. recognize.
  • Objects include oncoming vehicles and stationary obstacles.
  • the position of the object is recognized as, for example, a position on an absolute coordinate with the representative point (the center of gravity, the center of the drive axis, etc.) of the host vehicle M as the origin, and used for control.
  • the position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented region.
  • the "state" of an object may include the acceleration or jerk of the object, or "action state” (e.g.
  • the recognition unit 130 recognizes the shape of a curve through which the host vehicle M passes from now on the basis of the captured image of the camera 10.
  • the recognition unit 130 converts the shape of the curve from the captured image of the camera 10 to a real plane, and for example, information indicating the shape of the curve which is expressed using two-dimensional point sequence information or a model equivalent thereto. Output to the action plan generation unit 140.
  • the recognition unit 130 recognizes a lane in which the host vehicle M is traveling (traveling lane).
  • the recognition unit 130 may use a pattern of road division lines obtained from the second map information 62 (for example, an array of solid lines and broken lines) and road division lines around the host vehicle M recognized from an image captured by the camera 10
  • the traveling lane is recognized by comparing with the pattern of.
  • the recognition unit 130 may recognize the traveling lane by recognizing a road boundary (road boundary) including not only road division lines but also road division lines, road shoulders, curbs, median separators, guard rails and the like. .
  • the position of the host vehicle M acquired from the navigation device 50 or the processing result by the INS may be added.
  • the recognition unit 130 also recognizes a stop line, a road sign, a red light, a toll booth, and other road events.
  • the recognition unit 130 recognizes the position and orientation of the host vehicle M with respect to the traveling lane when recognizing the traveling lane.
  • the recognition unit 130 is, for example, a deviation of the reference point of the host vehicle M from the center of the lane, and an angle formed by a line connecting the center of the lane in the traveling direction of the host vehicle M It may be recognized as an attitude. Also, instead of this, the recognition unit 130 sets the position of the reference point of the host vehicle M with respect to any one side end (road segment or road boundary) of the travel lane relative to the host vehicle M with respect to the travel lane. It may be recognized as
  • the recognition unit 130 may derive recognition accuracy in the above-described recognition processing, and output the recognition accuracy to the action plan generation unit 140 as recognition accuracy information.
  • the recognition unit 130 generates recognition accuracy information based on the frequency at which a road marking can be recognized in a fixed period. The functions of the road width recognition unit 132, the pedestrian recognition unit 134, the overtaking permission determination unit 136, and the difficult walking area estimation unit 138 of the recognition unit 130 will be described later.
  • the action plan generation unit 140 travels in the recommended lane determined by the recommended lane determination unit 61 in principle, and is further sequentially executed in automatic driving so as to correspond to the surrounding situation of the host vehicle M.
  • the functions of the follow-up operation control unit 142 and the overtaking operation control unit 144 of the action plan generation unit 140 will be described later.
  • the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166.
  • the acquisition unit 162 acquires information on the target trajectory (orbit point) generated by the action plan generation unit 140, and stores the information in a memory (not shown).
  • the speed control unit 164 controls the traveling drive power output device 200 or the brake device 210 based on the speed component associated with the target track stored in the memory.
  • the steering control unit 166 controls the steering device 220 according to the degree of bending of the target track stored in the memory.
  • the processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control.
  • the steering control unit 166 combines feedforward control according to the curvature of the road ahead of the host vehicle M and feedback control based on the deviation from the target track.
  • the projection control unit 180 uses the projection unit 70 to display an image indicating a target trajectory of the own vehicle M, which is generated by the action plan generation unit 140, the follow-up operation control unit 142, or the overtaking operation control unit 144. Project on the road. Details of the function of the projection control unit 180 will be described later.
  • the traveling driving force output device 200 outputs traveling driving force (torque) for the vehicle to travel to the driving wheels.
  • the traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU that controls these.
  • the ECU controls the above configuration in accordance with the information input from the second control unit 160 or the information input from the drive operator 80.
  • the brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor in accordance with the information input from the second control unit 160 or the information input from the drive operator 80 so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 210 may include, as a backup, a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal included in the drive operator 80 to the cylinder via the master cylinder.
  • the brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to the information input from the second control unit 160 to transmit the hydraulic pressure of the master cylinder to the cylinder It is also good.
  • the steering device 220 includes, for example, a steering ECU and an electric motor.
  • the electric motor for example, applies a force to the rack and pinion mechanism to change the direction of the steered wheels.
  • the steering ECU drives the electric motor to change the direction of the steered wheels in accordance with the information input from the second control unit 160 or the information input from the drive operator 80.
  • the road width recognition unit 132 recognizes the road width of the traveling path on which the vehicle M travels. For example, the road width recognition unit 132 recognizes road division lines on the left and right when viewed from the position of the host vehicle M from the captured image of the camera 10, and recognizes the distance between the recognized left and right division lines as the width of the road. Do. In addition, the road width recognition unit 132 may recognize the width of the road on which the host vehicle M travels by collating the position of the host vehicle M with the first map information 54 or the second map information 62.
  • the pedestrian recognition unit 134 recognizes a pedestrian present in the vicinity of the host vehicle M.
  • the pedestrian recognition unit 134 may operate when the road width recognized by the road width recognition unit 132 is equal to or less than a predetermined width (for example, about 4 m or less).
  • the pedestrian recognition unit 134 operates when the vehicle M is traveling on a road having a narrower width than a national road or a prefectural road, or a road on which a pedestrian is likely to walk. It may be.
  • the pedestrian recognition unit 134 recognizes, for example, the presence of a pedestrian on the traveling road in the traveling direction of the vehicle M (hereinafter referred to as the front) from the captured image of the camera 10. Further, the pedestrian recognition unit 134 recognizes the position, the moving speed, and the moving direction of the pedestrian. The pedestrian recognition unit 134 may also recognize the relative position, relative velocity, and relative movement direction of the pedestrian viewed from the host vehicle M.
  • the overtaking permission determination unit 136 determines whether the own vehicle M can pass the pedestrian or not. judge.
  • FIG. 3 is a diagram for explaining the process of the overtaking possibility determination unit 136.
  • pedestrians P1 to P3 exist in front of the host vehicle M traveling on the traveling path R1.
  • the vehicle M travels at a speed VM in the traveling direction, and the pedestrians P1 and P2 move at speeds V1 and V2 in substantially the same direction as the traveling direction of the vehicle M, respectively.
  • the substantially the same direction includes not only the same direction as the traveling direction of the host vehicle M but also a predetermined error range (for example, about -15 degrees to about 15 degrees).
  • the pedestrian P3 is an opposite pedestrian who walks at the speed V3 in opposition to the host vehicle M.
  • the position and velocity V1 to V3 of the pedestrians P1 to P3 are recognized by the pedestrian recognition unit 134.
  • the overtaking permission determination unit 136 performs overtaking permission determination in order from the pedestrian closest to the host vehicle M. Overtaking permission determination unit 136 sets distance W1L from the position of pedestrian P1 to left end R1L of traveling path R1 and distance W1R from right end RIR to pedestrian P1 present closest to host vehicle M. Calculate Then, on the basis of the vehicle width WM of the host vehicle M and the calculated distances W1L and W1R, the overtaking permission determination unit 136 determines whether or not the host vehicle M can pass by the side of the pedestrian P1.
  • the overtaking permission determination unit 136 determines that judge.
  • the margin width is a width secured for the host vehicle M to pass the side of the pedestrian P1, and is, for example, about 0.3 [m]. Further, the overtaking permission determination unit 136 determines that the host vehicle M can pass the pedestrian M if the width WM ′ is equal to or less than the distances W1L and W1R.
  • the overtaking permission determination unit 136 performs the same process as the above-described overtaking permission determination process for the pedestrian P1 for the pedestrians P2 and P3. In addition, since the pedestrian P3 is an opposite pedestrian, it is predicted that the host vehicle M will be visually recognized immediately and the host vehicle M will be avoided. Therefore, the overtaking determination unit 136 may not perform the overtaking determination process on the pedestrian P3.
  • the overtaking possibility determination unit 136 determines whether the pedestrian P1 closest to the host vehicle M can not be overtaken. Therefore, when it is determined that the pedestrian P1 closest to the host vehicle M can not be overtaken among the plurality of pedestrians recognized by the pedestrian recognition unit 134, the overtaking permission determination unit 136 walks ahead of the pedestrian P1. It may also be determined that the parties P2 and P3 can not pass.
  • the follow-up operation control unit 142 is recognized by the pedestrian recognition unit 134 when the road width of the travel path R1 recognized by the road width recognition unit 132 is equal to or less than a predetermined width (for example, about 3.5 m).
  • the traveling direction of the pedestrians P1 to P3 is substantially the same as the traveling direction of the vehicle M, and the vehicle M travels so as to follow the pedestrian with high priority.
  • a pedestrian with a high priority is, for example, a pedestrian closest to the host vehicle M.
  • the following operation control unit 142 makes the traveling direction substantially the same as that of the own vehicle M, and A target trajectory is generated that follows and follows a nearby pedestrian P1.
  • the pedestrian recognition unit 134 recognizes the relative distance D1 between the host vehicle M and the pedestrian P1.
  • the follow-up operation control unit 142 generates a target trajectory in which the speed VM of the host vehicle M is changed based on the relative distance and the speed V1 of the pedestrian P1.
  • the follow-up operation control unit 142 determines that the speed difference between the traveling speed VM of the host vehicle M and the speed V1 of the pedestrian P1 is within a predetermined speed (eg, about ⁇ 3 [km / h]) and The target trajectory is generated such that the error of the relative distance D1 is within a predetermined distance (for example, about ⁇ 3 [m]). Thereby, the follow-up operation control unit 142 can cause the host vehicle M to follow the pedestrian P1 while maintaining the relative distance to the pedestrian P1 to some extent. As described above, by causing the own vehicle M to follow the pedestrian P1, the presence of the own vehicle M can be noticed by the pedestrian P1 and moved to the roadside.
  • a predetermined speed eg, about ⁇ 3 [km / h]
  • the target trajectory is generated such that the error of the relative distance D1 is within a predetermined distance (for example, about ⁇ 3 [m]).
  • FIG. 4 is a diagram for explaining that the follow-up operation control unit 142 brings the host vehicle M close to one side of the traveling route R1 and causes the vehicle to follow.
  • the control for the pedestrian P1 will be described for convenience of explanation, but when the pedestrian traveling in the substantially same direction ahead of the host vehicle M1 is replaced by another pedestrian, the walk Perform the same process on the
  • the follow-up operation control unit 142 compares the distance W1L from the position of the pedestrian P1 to the left roadside R1L with the distance W1R from the position of the pedestrian P1 to the right roadside R1R, and moves the vehicle M toward the roadside To make it follow and run.
  • the follow-up operation control unit 142 moves the host vehicle M to the right of the traveling path R1 and follows the pedestrian P1.
  • the pedestrian P1 recognizes the presence of the host vehicle M, the pedestrian P1 can easily move to the left side of the travel path R1.
  • the overtaking operation control unit 144 causes the pedestrian P1 from the other side. Generate a target trajectory for overtaking. Having a predetermined distance or more in one of the width directions means, for example, that the position of the pedestrian P1 is within a predetermined distance (for example, about 0.5 [m]) from one road side of the traveling path R1. . The distance from the position of the pedestrian P1 to the road side on the other side of the traveling path R1 is larger than the width WM ′ by being deviated by a predetermined degree or more in one of the width directions.
  • the position of the pedestrian P1 is Even if one side in the width direction of the travel path R1 is not deviated by a predetermined degree or more, a target track for passing the pedestrian P1 may be generated.
  • the pedestrian recognition unit 134 determines whether the pedestrian P1 turns around or not based on the behavior of the head or upper body captured by the captured image of the camera 10. Specifically, the pedestrian recognition unit 134 has feature information (for example, eyes or mouth) of the face of the pedestrian P1 from the captured image of the camera 10 mounted on the host vehicle M traveling following the pedestrian P1. If it can be recognized, it is determined that the pedestrian P1 turns around.
  • feature information for example, eyes or mouth
  • pedestrian recognition unit 134 recognizes the eye of the pedestrian P1 from the captured image
  • the pedestrian recognition unit 134 recognizes the sight line direction based on the positional relationship between the recognized eye and the iris.
  • pedestrian recognition part 134 may judge that pedestrian P1 turned around, when a gaze direction recognized is a direction where self-vehicles M exist.
  • the pedestrian recognition unit 134 estimates the rotation angle of the head from the captured image of the camera 10, and the estimated rotation angle of the head is a predetermined angle (for example, 90 degrees based on the traveling direction of the pedestrian P1). ] Or more), it may be judged that pedestrian P1 turned around. In this case, the pedestrian recognition unit 134 estimates the rotation angle of the head based on the displacement of the position of the feature information (for example, the ear) of the head obtained from the captured image of the camera 10, for example.
  • the pedestrian recognition unit 134 estimates the rotation angle of the upper body of the pedestrian P1 instead of (or in addition to) the rotation angle of the head of the pedestrian P1 and estimates the rotation angle of the upper body, When the angle is equal to or more than a predetermined angle (for example, about 90 degrees), it may be determined that the pedestrian P1 turns around.
  • a predetermined angle for example, about 90 degrees
  • the overtaking permission determination unit 136 determines that the pedestrian P1 can be overtaken.
  • the overtaking operation control unit 144 generates a target trajectory for passing the pedestrian P1 when the overtaking permission determination unit 136 determines that the host vehicle M can pass the pedestrian P1.
  • FIG. 5 is a diagram for explaining the process of the overtaking operation control unit 144.
  • the overtaking operation control unit 144 predicts the position, moving speed, and moving direction of the pedestrian P1 after turning around, and sets the target potential area Pa1 based on the predicted result.
  • the target potential is, for example, an index indicating the degree of possibility that the host vehicle M contacts an object (for example, a pedestrian). Also, the target potential region is set to be lower as it is farther from the object.
  • the overtaking operation control unit 144 moves to the left roadside R1L closer to the roadside among the left roadside R1L and the right roadside R1R so that the pedestrian P1 after turning turns overtakes the host vehicle M. And the position of the pedestrian P1 after a predetermined time is predicted based on the current position of the pedestrian P1, the moving speed, and the moving direction. Then, the overtaking operation control unit 144 generates a target trajectory K1 that passes through a region not in contact with the target potential region Pa1. The follow-up operation by the follow-up operation control unit 142 is performed in parallel until the overtaking operation control along the target track K1 generated by the overtaking operation control unit 144 is executed.
  • the overtaking operation control unit 144 determines whether the distance W1R between the pedestrian P1 and the right road side R1R of the travel path R1 is larger than the width WM '. In addition, when the pedestrian recognition unit 134 recognizes that the pedestrian P1 has turned around, the overtaking driving control unit 144 estimates that the pedestrian can recognize the presence of the own vehicle M, Determination of whether or not the pedestrian P1 can be overtaken by making the margin width to be added to the width WM smaller than the margin width when the pedestrian P1 is not turning around (for example, about 0.15 [m]) You may
  • the overtaking operation control unit 144 When the distance W1R is not equal to or less than the width WM ', the overtaking operation control unit 144 does not execute the overtaking operation along the target track K1, and the following operation by the following operation control unit 142 is continued. Further, when the distance W1R is larger than the width WM ′, the overtaking operation control unit 144 executes the overtaking operation of the host vehicle M along the target track K1.
  • the walking difficulty area estimating unit 138 estimates an area where walking of the pedestrian present on the traveling path R1 is difficult.
  • An area where walking is difficult means that the pedestrian can walk, but it is estimated that walking on the area is highly likely that the shoes or clothes of the pedestrian may get wet or become dirty, or that the pedestrian may fall. It is.
  • the area where walking is difficult is, for example, an area of a puddle, an area where the road surface is frozen, or an area where the road surface is uneven.
  • the walking difficulty area estimating unit 138 estimates the water pooling area, the frozen area, and the uneven area by comparing the luminance information of the road surface of the traveling path R1 with the luminance information of the reference road surface from the captured image of the camera 10. In addition, the walking difficulty area estimating unit 138 acquires the shape of the road surface from the captured image of the camera 10, and it is determined that the pedestrian is difficult to walk when the unevenness degree of the road surface is equal to or higher than a predetermined reference degree. It may be estimated.
  • the passing driving control unit 144 estimates that it is difficult for the pedestrian to walk when a target trajectory for passing the pedestrian is generated and a region where walking of the pedestrian is difficult is estimated on the traveling route R1.
  • a target trajectory is generated such that the vehicle M passes through the area to be
  • FIG. 6 is a diagram for explaining the process of the overtaking operation control unit 144 when it is estimated that there is a walking difficulty area.
  • the area A1 of the water pool is shown on the traveling path R1.
  • the overtaking operation control unit 144 generates a target trajectory K2 for causing the host vehicle M to pass the area A1 and overtaking the pedestrian P1 when the walking difficulty area estimating unit 138 estimates that there is a puddle area A1. .
  • the pedestrian P1 can move to the avoidable area other than the area A1 of the puddle.
  • the projection control unit 180 causes the projection unit 70 to project an image prompting the pedestrian to avoid the host vehicle M on the traveling path R1.
  • the image prompting the pedestrian to avoid the host vehicle M may be, for example, an image indicating a direction in which the pedestrian avoids the host vehicle M, or an image indicating an area in which the host vehicle M travels.
  • FIG. 7 is a diagram for explaining that the projection control unit 180 projects an image showing an area where the pedestrian walks on the traveling path R1.
  • the follow-up operation control unit 142 generates and generates an image IM1 for moving the pedestrian P1 to the left road side R1L when there is no road width overtaking the pedestrian P1 and traveling while following the pedestrian P1.
  • the image IM1 is projected by the projection unit 70 on a predetermined area on the left roadside R1L side of the travel path R1 and in front of the pedestrian P1.
  • the predetermined area in front is an area included in a range that is a few [m] ahead of the current position of the pedestrian P1, and is an area where the pedestrian P1 is easily visible even while walking.
  • the pedestrian position image IM1 may be, for example, an image indicating an area, an image including characters such as a “walking area” or the like, or a combination thereof. By projecting character information such as “walking area”, it is possible to make the pedestrian P1 easily grasp the walking area which is not affected when the host vehicle M passes. Further, by projecting the image IM1 by the projection control unit 180, it is possible to make the pedestrian P1 grasp what position it should move.
  • FIG. 8 is a diagram for explaining that an image showing a region in which the host vehicle M travels is projected by the projection control unit 180 onto the traveling path R1.
  • the projection control unit 180 selects one of the image IM2 indicating the traveling area of the host vehicle M and the image IM3 indicating the target trajectory based on the target trajectory K1 generated by the overtaking operation control unit 144, for example.
  • both are projected onto the traveling path R1 by the projection unit 70.
  • the image IM2 may be, for example, an image indicating an area, an image including characters such as a “vehicle travel area”, or the like, or a combination thereof.
  • the pedestrian P1 can easily grasp the area through which the host vehicle M passes, and it is possible to urge movement to an area outside the vehicle travel area.
  • the projection control unit 180 may change the color or pattern of the images IM1 to IM3 to be projected based on travel conditions such as the weather or the time zone, and even if an animation corresponding to the images IM1 to IM3 is displayed. Good.
  • the pedestrian P1 By projecting the images IM1 to IM3 by the projection control unit 180, the pedestrian P1 can be quickly moved to the roadside along the traveling path R1. If the pedestrian recognition unit 134 recognizes that the pedestrian P1 has avoided after the projection control unit 180 projects at least one of the images IM1 to IM3, the overtaking operation control unit 144 causes the pedestrian P1 to Execute overtaking operation control. For example, after the host vehicle M overtakes the pedestrian P1, the projection control unit 180 ends the projection of the images IM1 to IM3.
  • FIG. 9 is a flowchart showing an example of processing executed by the automatic driving control apparatus 100 according to the embodiment.
  • the process of this flowchart may be repeatedly performed, for example, at a predetermined cycle or at a predetermined timing while the automatic driving of the host vehicle M is being performed.
  • the road width recognition unit 132 recognizes the road width of the travel route R1 of the host vehicle M (step S100).
  • the pedestrian recognition unit 134 recognizes a pedestrian in front of the host vehicle M and present on the traveling route R1 on which the host vehicle M travels (step S102).
  • whether or not the overtaking permission determination unit 136 overtakes the pedestrian based on the road width of the traveling route R1 recognized by the road width recognition unit 132 and the position of the pedestrian recognized by the pedestrian recognition unit 134 It is determined whether or not (step S104). For example, when it is determined that the road width of the travel path R1 is equal to or less than the predetermined width and the pedestrian can not be passed, the pedestrian recognition unit 134 determines whether the pedestrian turns around (step S106).
  • step S104 If it is determined in the process of step S104 that the pedestrian can be overtaken, or if the pedestrian turns around in the process of step S106, the overtaking operation control unit 144 generates a target trajectory for overtaking the pedestrian (step S104). S108). Further, in step S106, when the pedestrian is not turning around, for example, the follow-up operation control unit 142 proceeds in substantially the same direction as the host vehicle M and has high priority (for example, the pedestrian closest to the host vehicle M) A target trajectory for following is generated (step S110). Next, the second control unit 160 executes operation control based on the generated target trajectory (step S112). Thus, the processing of this flowchart is ended.
  • the overtaking operation control unit 144 or the follow-up operation control unit 142 When the target trajectory is generated in the process of step S108 or step S110 described above, the overtaking operation control unit 144 or the follow-up operation control unit 142 generates the target trajectory in consideration of the estimation result by the difficult walking area estimation unit 138. You may Moreover, when performing driving control in the process of step S112 mentioned above, the 2nd control part 160 may make the projection part 70 project the image which urges a pedestrian to avoid the own vehicle M.
  • the width of the recognized road is equal to or less than the predetermined width.
  • the traveling direction is substantially the same as that of the vehicle M, and the pedestrian M avoids the roadside by causing the vehicle M to travel so as to follow the pedestrian with high priority. Otherwise, appropriate driving control can be performed under road conditions such that the vehicle can not pass a pedestrian.
  • FIG. 10 is a diagram illustrating an example of a hardware configuration of the automatic driving control device 100 according to the embodiment.
  • the automatic operation control device 100 includes a communication controller 100-1, a CPU 100-2, a RAM 100-3, a ROM 100-4, a secondary storage device 100-5 such as a flash memory or HDD, and a drive device 100-6, or an internal bus or It is configured to be mutually connected by a dedicated communication line.
  • a portable storage medium such as an optical disk is attached to the drive device 100-6.
  • the program 100-5a stored in the secondary storage device 100-5 is expanded on the RAM 100-3 by a DMA controller (not shown) or the like, and is executed by the CPU 100-2 to execute the first control unit 120 and the second control unit 120.
  • the control unit 160 is realized.
  • the program referred to by the CPU 100-2 may be stored in a portable storage medium attached to the drive device 100-6, or may be downloaded from another device via the network NW.
  • a storage device for storing information;
  • a hardware processor that executes a program stored in the storage device;
  • the hardware processor executes the program to Road width recognition processing that recognizes the width of the road on which the vehicle travels;
  • Pedestrian recognition processing for recognizing a pedestrian existing around the vehicle;
  • a driving control process for controlling one or both of steering and acceleration / deceleration of the vehicle to travel the vehicle regardless of the operation of the occupant of the vehicle, the road recognized by the road width recognition process
  • the traveling direction of the pedestrians recognized by the pedestrian recognition processing is substantially the same as the vehicle and follows the pedestrians with high priority.
  • Operation control processing for causing the vehicle to travel; Is configured to run, Vehicle control device.
  • SYMBOLS 1 ... Vehicle system, 10 ... Camera, 12 ... Radar apparatus, 14 ... Finder, 16 ... Object recognition apparatus, 20 ... Communication apparatus, 30 ... HMI, 32 ... Automatic driving start switch, 40 ... Vehicle sensor, 50 ... Navigation apparatus, DESCRIPTION OF SYMBOLS 60 ... MPU, 70 ... Projection part, 80 ... Driving operator, 100 ... Automatic driving control apparatus, 120 ... 1st control part, 130 ... Recognition part, 132 ... Road width recognition part, 134 ... Pedestrian recognition part, 136 ...
  • Overtaking possibility determination unit 138 walking difficulty area estimation unit 140: action plan generation unit 142: follow-up operation control unit 144: overtaking operation control unit 160: second control unit 180: projection control unit 200: traveling Driving force output device, 210: brake device, 220: steering device, M: own vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車両制御装置において、車両が走行する道路の幅を認識する道路幅認識部と、前記車両の周辺に存在する歩行者を認識する歩行者認識部と、前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させる運転制御部であって、前記道路幅認識部により認識された前記道路の幅が所定幅以下である場合、前記歩行者認識部により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる運転制御部と、を備える。

Description

車両制御装置、車両制御方法、およびプログラム
 本発明は、車両制御装置、車両制御方法、およびプログラムに関する。
 近年、車両を自動的に制御することについて研究が進められている。これに関連して、自動運転における将来の挙動を取得し、取得した将来の挙動を車両の外部に報知する技術が知られている(特許文献1参照)。
特開2017-4471号公報
 しかしながら、従来の技術では、車両の自動運転における将来の挙動に基づく報知を、周辺の歩行者や他車両に対して一方的に行うものであり、歩行者が路側に避けないと、車両が歩行者を追い越せないような道幅の狭い道路状況下での運転制御については考慮されていなかった。
 本発明は、このような事情を考慮してなされたものであり、道幅の狭い道路状況に基づいて、適切な運転制御を行うことができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。
 (1):車両(自車両M)が走行する道路の幅を認識する道路幅認識部(132)と、前記車両の周辺に存在する歩行者を認識する歩行者認識部(134)と、前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させる運転制御部(136、138、142、144、160)であって、前記道路幅認識部により認識された前記道路の幅が所定幅以下である場合、前記歩行者認識部により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる運転制御部と、を備える車両制御装置(100)である。
 (2):(1)において、前記運転制御部は、前記歩行者認識部により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、前記優先度の高い歩行者を追い越すことができない場合に、前記歩行者に追従するように前記車両を走行させるものである。
 (3):(1)または(2)において、前記優先度の高い歩行者とは、前記車両に最も近い歩行者である。
 (4):(1)~(3)のうち何れか一つにおいて、前記歩行者認識部は、前記運転制御部により前記歩行者を追従して前記車両を走行させる制御が開始された後に、前記歩行者が振り向いたことを認識し、前記運転制御部は、前記歩行者認識部により前記歩行者が振り向いたことが認識された場合に、前記歩行者を追い越す運転制御を実行するものである。
 (5):(1)~(4)のうち何れか一つにおいて、前記歩行者認識部は、前記車両が走行する道路の幅方向に関する前記歩行者の位置を認識し、前記運転制御部は、前記歩行者認識部により認識された歩行者が前記道路の幅方向の一方に所定程度以上寄っている場合に、他方から前記歩行者を追い越す運転制御を実行するものである。
 (6):(5)において、前記運転制御部は、前記車両が走行する道路に前記歩行者の歩行が困難な領域が存在する場合に、前記歩行者を追い越す運転制御において、前記領域を前記車両に通過させるものである。
 (7):(6)において、前記運転制御部は、前記歩行者認識部により前記歩行者が振り向いたことが認識された場合に、前記歩行者を追い越すために確保される余裕幅を、前記歩行者が振り向いていない場合の余裕幅よりも小さくして、前記歩行者を追い越す運転制御を実行するものである。
 (8):(1)~(7)のうち何れか一つにおいて、前記車両が走行する道路に像を投影する投影部(70)と、前記歩行者認識部により歩行者が認識された場合に、前記歩行者に避けることを促す像を前記車両が走行する道路に投影させる投影制御部(180)と、を更に備えるものである。
 (9):(8)において、前記運転制御部は、前記投影部により前記歩行者に避けることを促す像が投影された後に、前記歩行者認識部により前記歩行者が避けたことが認識された場合に、前記歩行者を追い越す運転制御を実行するものである。
 (10):道路幅認識部が、車両が走行する道路の幅を認識し、歩行者認識部が、前記車両の周辺に存在する歩行者を認識し、運転制御部が、前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させ、前記道路幅認識部により認識された前記道路の幅が所定幅以下である場合、前記歩行者認識部により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる、車両制御方法である。
 (11):車両が走行する道路の幅を認識する道路幅認識部を備える前記車両に搭載されるコンピュータに、前記車両の周辺に存在する歩行者を認識させ、前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させ、前記認識された道路の幅が所定幅以下である場合、前記認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる、プログラムである。
 (1)~(11)によれば、道幅の狭い道路状況に基づいて、適切な運転制御を行うことができる。
実施形態に係る車両制御装置を利用した車両システム1の構成図である。 第1制御部120、第2制御部160、および投影制御部180の機能構成図である。 追い越し可否判定部136の処理について説明するための図である。 追従運転制御部142により自車両Mを走行路R1の一方に寄せて追従走行させることについて説明するための図である。 追い越し運転制御部144の処理について説明するための図である。 歩行困難領域があると推定された場合の追い越し運転制御部144の処理について説明するための図である。 投影制御部180により歩行者に歩行させる領域を示す画像を走行路R1に投影させることについて説明するための図である。 投影制御部180により自車両Mが走行する領域を示す画像が走行路R1に投影させることについて説明するための図である。 実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
 以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。なお、以下の説明では、自動運転車両を用いて説明する。自動運転とは、乗員の操作に依らずに、車両の操舵または速度のうち一方または双方を制御して車両を走行させることである。また、自動運転車両は、乗員による手動運転が行われてもよい。手動運転では、後述する運転操作子の操作量に応じて、後述する車両の走行駆動力出力装置、ブレーキ装置、およびステアリング装置が制御される。
 [全体構成]
 図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
 車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、投影部70と、運転操作子80と、自動運転制御装置(車両制御装置の一例)100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
 カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
 レーダ装置12は、自車両Mの周辺にミリ波等の電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
 ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。
 物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度等を認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。
 通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
 HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ(例えば、ハザードスイッチ)、キー等を含む。
 車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
 ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。
 MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所等が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
 第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
 投影部70は、例えば、プロジェクタである。投影部70は、投影制御部180により指示されたタイミングで自車両Mの走行路上に像を投影する。走行路とは、自車両Mが走行し得る領域をいう。走行路は、道路区画線で区切られた車線であってもよく、路地等の道路区画線がなく車両が走行できる道路であってもよい。段差やガードレール等で車道と区画された歩道等は、走行路に含まれないものとしてよい。
 運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一方または双方に出力される。
 自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、投影制御部180とを備える。第1制御部120と第2制御部160と投影制御部180とは、それぞれ、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 図2は、第1制御部120、第2制御部160、および投影制御部180の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。認識部130は、例えば、道路幅認識部132と、歩行者認識部134と、追い越し可否判定部136と、歩行困難領域推定部138とを備える。行動計画生成部140は、例えば、追従運転制御部142と、追い越し運転制御部144とを備える。追い越し可否判定部136と、歩行困難領域推定部138と、追従運転制御部142と、追い越し運転制御部144と、第2制御部160とを合わせたものが「運転制御部」の一例である。
 第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等を利用した画像認識手法による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示等がある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現される。これによって、自動運転の信頼性が担保される。
 認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体には、対向車両や静止した障害物が含まれる。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心等)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、認識部130は、カメラ10の撮像画像に基づいて、自車両Mがこれから通過するカーブの形状を認識する。認識部130は、カーブの形状をカメラ10の撮像画像から実平面に変換し、例えば、二次元の点列情報、或いはこれと同等なモデルを用いて表現した情報を、カーブの形状を示す情報として行動計画生成部140に出力する。
 また、認識部130は、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレール等を含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、道路標識、赤信号、料金所、その他の道路事象を認識する。
 認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。また、これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置等を、走行車線に対する自車両Mの相対位置として認識してもよい。
 また、認識部130は、上記の認識処理において、認識精度を導出し、認識精度情報として行動計画生成部140に出力してもよい。例えば、認識部130は、一定期間において、道路区画線を認識できた頻度に基づいて、認識精度情報を生成する。認識部130の道路幅認識部132、歩行者認識部134、追い越し可否判定部136、および歩行困難領域推定部138の機能については、後述する。
 行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自動運転において順次実行される。行動計画生成部140の追従運転制御部142および追い越し運転制御部144の機能については、後述する。
 第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
 投影制御部180は、行動計画生成部140、追従運転制御部142、または追い越し運転制御部144で生成された自車両Mの将来走行する目標軌道を示す画像を、投影部70により自車両Mの走行路に投影させる。投影制御部180の機能の詳細については、後述する。
 走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 [道路幅認識部の機能]
 道路幅認識部132は、自車両Mが走行する走行路の道路幅を認識する。例えば、道路幅認識部132は、カメラ10の撮像画像から自車両Mの位置から見て、左右にある道路区画線を認識し、認識した左右の区画線の間の距離を道路の幅として認識する。また、道路幅認識部132は、自車両Mの位置と、第1地図情報54または第2地図情報62とを照合して、自車両Mが走行する道路の幅を認識してもよい。
 [歩行者認識部の機能]
 歩行者認識部134は、自車両Mの周辺に存在する歩行者を認識する。例えば、歩行者認識部134は、道路幅認識部132により認識された道路幅が、所定幅(例えば、4m[以下]程度)以下である場合に動作するものであってもよい。また、歩行者認識部134は、国道や県道に比して道幅が狭い道路、または道路上を歩行者が歩行する可能性が高い道路を、自車両Mが走行している場合に動作するものであってよい。
 歩行者認識部134は、例えば、カメラ10の撮像画像から自車両Mの進行方向(以下、前方とする)であって、走行路上の歩行者の存在を認識する。また、歩行者認識部134は、歩行者の位置、移動速度、および移動方向を認識する。また、歩行者認識部134は、自車両Mから見た歩行者の相対位置、相対速度、相対移動方向を認識してもよい。
 [追い越し可否判定部の機能]
 追い越し可否判定部136は、歩行者認識部134により認識された歩行者の位置と、自車両Mおよび走行路の形状や大きさ等に基づいて、自車両Mが歩行者を追い越せるか否かを判定する。
 図3は、追い越し可否判定部136の処理について説明するための図である。図3の例では、走行路R1を走行する自車両Mの前方に歩行者P1~P3が存在する。自車両Mは、進行方向に速度VMで走行し、歩行者P1およびP2は、それぞれが自車両Mの進行方向と略同一方向に速度V1およびV2で移動している。略同一方向とは、自車両Mの進行方向と同一の方向だけでなく、所定の誤差範囲(例えば、-15[度]~15[度]程度)を含む。また、歩行者P3は、自車両Mに対向して速度V3で歩行する対向歩行者である。歩行者P1~P3の位置および速度V1~V3は、歩行者認識部134により認識される。
 追い越し可否判定部136は、自車両Mに最も近くに存在する歩行者から順番に追い越し可否判定を行う。追い越し可否判定部136は、自車両Mに最も近くに存在する歩行者P1に対し、歩行者P1の位置から走行路R1の左側端部R1Lまでの距離W1L、および右側端部RIRまでの距離W1Rを算出する。そして、追い越し可否判定部136は、自車両Mの車幅WMと、算出された距離W1LおよびW1Rとに基づいて、自車両Mが歩行者P1の横を通過できるか否かを判定する。
 例えば、追い越し可否判定部136は、車幅WMに所定の余裕幅(マージン)を加えた幅WM’が距離W1LおよびW1Rよりも大きい場合に、自車両Mが歩行者P1を追い越すことができないと判定する。余裕幅とは、自車両Mが歩行者P1の横を通過するために確保される幅であり、例えば、0.3[m]程度)である。また、追い越し可否判定部136は、幅WM’が距離W1LおよびW1R以下である場合に、自車両Mが歩行者Mを追い越すことができると判定する。
 追い越し可否判定部136は、上述した歩行者P1に対する追い越し可否判定処理と同様の処理を歩行者P2およびP3に対しても行う。なお、歩行者P3は、対向歩行者であるため、自車両Mをすぐに視認して、自車両Mを避けることが予測される。したがって、追い越し可否判定部136は、歩行者P3に対して追い越し可否判定処理を行わなくてもよい。
 また、追い越し可否判定部136により自車両Mに最も近い歩行者P1を追い越せないと判定された場合、その先方にいる歩行者P2およびP3も追い越せないことになる。したがって、追い越し可否判定部136は、歩行者認識部134により認識された複数の歩行者のうち、自車両Mから最も近い歩行者P1を追い越せないと判定された場合に、その先に存在する歩行者P2およびP3も追い越せないと判定してもよい。
 [追従運転制御部の機能]
 追従運転制御部142は、道路幅認識部132により認識された走行路R1の道路幅が所定幅(例えば、3.5[m]程度)以下である場合に、歩行者認識部134により認識された歩行者P1~P3のうち、進行方向が自車両Mと略同一方向であり、且つ、優先度の高い歩行者に追従するように自車両Mを走行させる。優先度の高い歩行者とは、例えば、自車両Mに最も近い歩行者である。例えば、追従運転制御部142は、追い越し可否判定部136により自車両Mが歩行者を追い越すことができない状況下で、進行方向が自車両Mと略同一方向であり、且つ、自車両Mに最も近い歩行者P1に追従して走行する目標軌道を生成する。 
 図3の例において、追い越し可否判定部136により歩行者P1を追い越せないと判定された場合、歩行者認識部134は、自車両Mと歩行者P1との相対距離D1を認識する。追従運転制御部142は、相対距離と歩行者P1の速度V1に基づいて、自車両Mの速度VMを変更した目標軌道を生成する。具体的には、追従運転制御部142は、自車両Mの走行速度VMと歩行者P1の速度V1との速度差が所定速度(例えば、±3[km/h]程度)以内であり、且つ、相対距離D1の誤差が所定距離(例えば、±3[m]程度)以内となるように目標軌道を生成する。これにより、追従運転制御部142は、歩行者P1との相対距離をある程度維持したまま、自車両Mを歩行者P1に追従させることができる。このように、自車両Mを歩行者P1に追従させることで、自車両Mの存在を歩行者P1に気付かせて、路側に移動させることができる。
 また、追従運転制御部142は、歩行者P1を追従する場合に、歩行者P1を追い越す側に自車両Mを寄せて歩行者P1を追従してもよい。図4は、追従運転制御部142により自車両Mを走行路R1の一方に寄せて追従走行させることについて説明するための図である。以下の説明では、説明の便宜上、歩行者P1に対する制御について説明するが、自車両M1の先方にいる略同一方向に進行している歩行者が他の歩行者に代わった場合には、その歩行者に対して同様の処理を行うものとする。
 追従運転制御部142は、歩行者P1の位置から左路側R1Lまでの距離W1Lと、歩行者P1の位置から右路側R1Rまでの距離W1Rとを比較し、距離が長い方に路側に自車両Mを寄せて追従走行させる。
 図4の例では、距離W1Lよりも距離W1Rの方が長いため、追従運転制御部142は、走行路R1の右側に自車両Mを寄せて歩行者P1を追従する。これにより、歩行者P1が自車両Mの存在を認識した場合に、走行路R1の左側に移動しやすくさせることができる。
 [追い越し運転制御部の機能]
 追い越し運転制御部144は、歩行者認識部134により認識された歩行者P1の位置が走行路R1の幅方向の一方に所定程度以上寄っていると判定された場合に、他方から歩行者P1を追い越すための目標軌道を生成する。幅方向の一方に所定程度以上寄っているとは、例えば、歩行者P1の位置が、走行路R1の一方の路側から所定距離(例えば、0.5[m]程度)以内であることである。幅方向の一方に所定程度以上寄ることで、歩行者P1の位置から走行路R1の他方側の路側までの距離が、幅WM’よりも大きくなる。
 但し、追い越し運転制御部144は、追従運転制御部142により歩行者P1を追従する運転制御を開始した後に、歩行者P1が自車両Mの方に振り向いた場合には、歩行者P1の位置が走行路R1の幅方向の一方に所定程度以上寄っていなくても、歩行者P1を追い越すための目標軌道を生成してもよい。
 例えば、歩行者認識部134は、カメラ10の撮像画像により撮像された頭部または上体の挙動に基づいて、歩行者P1が振り向いたか否かを判定する。具体的には、歩行者認識部134は、歩行者P1に追従して走行する自車両Mに搭載されたカメラ10の撮像画像から歩行者P1の顔の特徴情報(例えば、目または口)が認識できた場合に、歩行者P1が振り向いたと判定する。
 また、歩行者認識部134は、撮像画像から歩行者P1の目を認識した場合に、認識した目の目頭と虹彩との位置関係により、視線方向を認識する。そして、歩行者認識部134は、認識した視線方向が自車両Mの存在する方向である場合に、歩行者P1が振り向いたと判定してもよい。
 また、歩行者認識部134は、カメラ10の撮像画像から頭部の回転角度を推定し、推定した頭部の回転角度が、歩行者P1の進行方向を基準として所定角度(例えば、90[度]程度)以上である場合に、歩行者P1が振り向いたと判定してもよい。この場合、歩行者認識部134は、例えば、カメラ10の撮像画像から得られる頭部の特徴情報(例えば、耳)の位置の変位に基づいて、頭部の回転角度を推定する。
 また、歩行者認識部134は、歩行者P1の頭部の回転角度に代えて(または、加えて)、歩行者P1の上体の回転角度を推定し、推定した上体の回転角度が、所定角度(例えば、90[度]程度)以上である場合に、歩行者P1が振り向いたと判定してもよい。
 追い越し可否判定部136は、歩行者認識部134により歩行者が振り向いたことが認識された場合に、歩行者P1を追い越すことができると判定する。
 追い越し運転制御部144は、追い越し可否判定部136により自車両Mが歩行者P1を追い越すことができると判定された場合に、歩行者P1を追い越すための目標軌道を生成する。
 図5は、追い越し運転制御部144の処理について説明するための図である。追い越し運転制御部144は、振り向いた後の歩行者P1の位置、移動速度、および移動方向を予測し、予測した結果に基づいて、物標ポテンシャル領域Pa1を設定する。物標ポテンシャルとは、例えば、自車両Mが物体(例えば、歩行者)と接触する可能性の高さを示す指標である。また、物標ポテンシャル領域は、物体から遠くなるほど低くなるように設定される。
 図5の例において、追い越し運転制御部144は、振り向いた後の歩行者P1が自車両Mに追い越させるために、左路側R1Lおよび右路側R1Rのうち、路側に近い左路側R1Lに移動するものと予測し、歩行者P1の現在の位置、移動速度、および移動方向に基づいて、所定時間後の歩行者P1の位置を予測する。そして、追い越し運転制御部144は、物標ポテンシャル領域Pa1に接触しない領域を通過する目標軌道K1を生成する。なお、追い越し運転制御部144により生成された目標軌道K1に沿った追い越し運転制御が実行されるまでの間、追従運転制御部142による追従運転は並行して実行される。
 また、追い越し運転制御部144は、目標軌道K1を生成した後、歩行者P1と走行路R1の右路側R1Rとの距離W1Rが幅WM’よりも大きいか否かを判定する。また、追い越し運転制御部144は、歩行者認識部134により歩行者P1が振り向いたことが認識されている場合には、歩行者が自車両Mの存在を認識できているものと推定し、車幅WMに加算される余裕幅を、歩行者P1が振り向いていない場合の余裕幅よりも小さい幅(例えば、0.15[m]程度)にして、歩行者P1を追い越せるか否かの判定等を行ってもよい。
 追い越し運転制御部144は、距離W1Rが幅WM’以下でない場合、目標軌道K1に沿った追い越し運転を実行せず、追従運転制御部142による追従運転が継続される。また、追い越し運転制御部144は、距離W1Rが幅WM’よりも大きい場合、目標軌道K1に沿って自車両Mの追い越し運転を実行する。
 [歩行困難領域推定部の機能]
 歩行困難領域推定部138は、走行路R1に存在する歩行者の歩行が困難な領域を推定する。歩行が困難な領域とは、歩行者が歩行することはできるが、その領域を歩くことで歩行者の靴や洋服が濡れたり、汚れたり、歩行者が転ぶ可能性が高いと推定される領域である。歩行が困難な領域は、例えば、水溜まりの領域、路面が凍結しているような領域、または、路面が凹凸している領域である。
 歩行困難領域推定部138は、カメラ10の撮像画像から走行路R1の路面の輝度情報と、基準路面の輝度情報とを比較することで、水溜まりや凍結領域、凹凸領域を推定する。また、歩行困難領域推定部138は、カメラ10の撮像画像から路面の形状を取得し、路面の凹凸度合が、予め定められた基準度合以上である場合に、歩行者の歩行が困難であると推定してもよい。
 追い越し運転制御部144は、歩行者を追い越す目標軌道を生成する場合であって、且つ、走行路R1に歩行者の歩行が困難な領域が推定された場合に、歩行者の歩行が困難と推定される領域を自車両Mが通過するような目標軌道を生成する。
 図6は、歩行困難領域があると推定された場合の追い越し運転制御部144の処理について説明するための図である。図6の例では、走行路R1上に水溜まりの領域A1が示されている。追い越し運転制御部144は、歩行困難領域推定部138により水溜まりの領域A1があると推定された場合に、自車両Mに領域A1を通過させて歩行者P1を追い越すための目標軌道K2を生成する。これにより、歩行者P1は、水溜まりの領域A1以外の避けやすい領域に移動することができる。
 [投影制御部の機能]
 投影制御部180は、歩行者認識部134により歩行者が認識された場合に、歩行者に自車両Mを避けることを促す像を、投影部70により走行路R1に投影させる。歩行者に自車両Mを避けることを促す像とは、例えば、歩行者が自車両Mを避ける方向を示す画像でもよく、自車両Mが走行する領域を示す画像でもよい。
 図7は、投影制御部180により歩行者に歩行させる領域を示す画像を走行路R1に投影させることについて説明するための図である。追従運転制御部142は、歩行者P1を追い越す道幅がなく、歩行者P1に追従して走行している場合に、歩行者P1を左路側R1Lに移動させるための画像IM1を生成し、生成した画像IM1を投影部70により走行路R1の左路側R1L側であって、且つ、歩行者P1の前方の所定領域に投影する。前方の所定領域とは、歩行者P1の現在位置から数[m]先の範囲に含まれる領域であり、歩行者P1が歩行中でも視認し易い領域である。
 歩行者の位置画像IM1は、例えば、領域を示す画像でもよく、「歩行エリア」等のような文字を含む画像でもよく、これらの組み合わせでもよい。「歩行エリア」等の文字情報を投影することで、歩行者P1に、自車両Mの通過に際して影響を受けない歩行エリアを容易に把握させることができる。また、投影制御部180により、画像IM1を投影させることで、歩行者P1に、どの位置まで移動すればよいのかを把握させることができる。
 図8は、投影制御部180により自車両Mが走行する領域を示す画像が走行路R1に投影させることについて説明するための図である。図8の例において、投影制御部180は、例えば、追い越し運転制御部144により生成された目標軌道K1に基づいて、自車両Mの走行エリアを示す画像IM2または目標軌道を示す画像IM3のうち一方または双方を、投影部70により走行路R1に投影する。画像IM2は、例えば、領域を示す画像でもよく、「車両走行エリア」等のような文字を含む画像でもよく、これらの組み合わせでもよい。「車両走行エリア」等の文字情報を投影することで、歩行者P1に、自車両Mが通るエリアを容易に把握させることができ、車両走行エリア外の領域に移動を促すことができる。また、投影制御部180は、天候等の走行状況や時間帯に基づいて、投影する画像IM1~IM3の色や模様を変更してもよく、画像IM1~IM3に対応するアニメーションを表示してもよい。
 投影制御部180により画像IM1~IM3を投影させることで、歩行者P1を走行路R1に路側に速やかに移動させることができる。追い越し運転制御部144は、投影制御部180により画像IM1~3のうち少なくとも一つが投影された後に、歩行者認識部134により歩行者P1が避けたことが認識された場合に、歩行者P1を追い越す運転制御を実行する。投影制御部180は、例えば、自車両Mが歩行者P1を追い越した後、画像IM1~IM3の投影を終了する。
 [処理フロー]
 図9は、実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。本フローチャートの処理は、例えば、自車両Mの自動運転が実行中に所定の周期或いは所定のタイミングで繰り返し実行されてよい。
 まず、道路幅認識部132は、自車両Mが走行路R1の道路幅を認識する(ステップS100)。次に、歩行者認識部134は、自車両Mの前方であり、且つ、自車両Mが走行する走行路R1に存在する歩行者を認識する(ステップS102)。次に、追い越し可否判定部136は、道路幅認識部132により認識された走行路R1の道路幅と、歩行者認識部134により認識された歩行者の位置とに基づいて、歩行者を追い越せるか否かを判定する(ステップS104)。例えば、走行路R1の道路幅が所定幅以下であり、歩行者を追い越せないと判定された場合、歩行者認識部134は、歩行者が振り向いたか否かを判定する(ステップS106)。
 ステップS104の処理において、歩行者を追い越せると判定された場合、またはステップS106の処理において、歩行者が振り向いた場合、追い越し運転制御部144は、歩行者を追い越すための目標軌道を生成する(ステップS108)。また、ステップS106において、歩行者が振り向いていない場合、追従運転制御部142は、例えば、自車両Mと略同一方向に進行し、優先度の高い(例えば、自車両Mに最も近い)歩行者に追従するための目標軌道を生成する(ステップS110)。次に、第2制御部160は、生成された目標軌道に基づいて、運転制御を実行する(ステップS112)。これにより、本フローチャートの処理を終了する。
 なお、上述したステップS108またはステップS110の処理において目標軌道を生成する場合に、追い越し運転制御部144または追従運転制御部142は、歩行困難領域推定部138による推定結果を加味して目標軌道を生成してもよい。また、上述したステップS112の処理において運転制御を実行する場合に、第2制御部160は、投影部70により歩行者に自車両Mを避けることを促す像を投影させてもよい。
 上述した実施形態によれば、自車両Mが走行する道路の幅を認識すると共に、自車両Mの周辺に存在する歩行者を認識し、認識された道路の幅が所定幅以下である場合に、認識された歩行者のうち、進行方向が自車両Mと略同一方向であり、且つ、優先度の高い歩行者に追従するように自車両Mを走行させることで、歩行者が路側に避けないと、車両が歩行者を追い越せないような道路状況下で、適切な運転制御を行うことができる。
 [ハードウェア構成]
 上述した実施形態の自動運転制御装置100は、例えば図10に示すようなハードウェアの構成により実現される。図10は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
 自動運転制御装置100は、通信コントローラ100-1、CPU100-2、RAM100-3、ROM100-4、フラッシュメモリやHDD等の二次記憶装置100-5、およびドライブ装置100-6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100-6には、光ディスク等の可搬型記憶媒体が装着される。二次記憶装置100-5に格納されたプログラム100-5aがDMAコントローラ(不図示)等によってRAM100-3に展開され、CPU100-2によって実行されることで、第1制御部120、および第2制御部160が実現される。また、CPU100-2が参照するプログラムは、ドライブ装置100-6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。
 上記実施形態は、以下のように表現することができる。
 情報を記憶する記憶装置と、
 前記記憶装置に格納されたプログラムを実行するハードウェアプロセッサと、を備え、
 前記ハードウェアプロセッサは、前記プログラムを実行することにより、
 車両が走行する道路の幅を認識する道路幅認識処理と、
 前記車両の周辺に存在する歩行者を認識する歩行者認識処理と、
 前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させる運転制御処理であって、前記道路幅認識処理により認識された前記道路の幅が所定幅以下である場合、前記歩行者認識処理により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる運転制御処理と、
 を実行するように構成されている、
 車両制御装置。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
 1…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、32…自動運転開始スイッチ、40…車両センサ、50…ナビゲーション装置、60…MPU、70…投影部、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、132…道路幅認識部、134…歩行者認識部、136…追い越し可否判定部、138…歩行困難領域推定部、140…行動計画生成部、142…追従運転制御部、144…追い越し運転制御部、160…第2制御部、180…投影制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、M…自車両

Claims (11)

  1.  車両が走行する道路の幅を認識する道路幅認識部と、
     前記車両の周辺に存在する歩行者を認識する歩行者認識部と、
     前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させる運転制御部であって、前記道路幅認識部により認識された前記道路の幅が所定幅以下である場合、前記歩行者認識部により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる運転制御部と、
     を備える車両制御装置。
  2.  前記運転制御部は、前記歩行者認識部により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、前記優先度の高い歩行者を追い越すことができない場合に、前記歩行者に追従するように前記車両を走行させる、
     請求項1に記載の車両制御装置。
  3.  前記優先度の高い歩行者とは、前記車両に最も近い歩行者である、
     請求項1または2に記載の車両制御装置。
  4.  前記歩行者認識部は、前記運転制御部により前記歩行者を追従して前記車両を走行させる制御が開始された後に、前記歩行者が振り向いたことを認識し、
     前記運転制御部は、前記歩行者認識部により前記歩行者が振り向いたことが認識された場合に、前記歩行者を追い越す運転制御を実行する、
     請求項1から3のうち何れか1項に記載の車両制御装置。
  5.  前記歩行者認識部は、前記車両が走行する道路の幅方向に関する前記歩行者の位置を認識し、
     前記運転制御部は、前記歩行者認識部により認識された歩行者が前記道路の幅方向の一方に所定程度以上寄っている場合に、他方から前記歩行者を追い越す運転制御を実行する、
     請求項1から4のうち何れか1項に記載の車両制御装置。
  6.  前記運転制御部は、前記車両が走行する道路に前記歩行者の歩行が困難な領域が存在する場合に、前記歩行者を追い越す運転制御において、前記領域を前記車両に通過させる、
     請求項5に記載の車両制御装置。
  7.  前記運転制御部は、前記歩行者認識部により前記歩行者が振り向いたことが認識された場合に、前記歩行者を追い越すために確保される余裕幅を、前記歩行者が振り向いていない場合の余裕幅よりも小さくして、前記歩行者を追い越す運転制御を実行する、
     請求項6に記載の車両制御装置。
  8.  前記車両が走行する道路に像を投影する投影部と、
     前記歩行者認識部により歩行者が認識された場合に、前記歩行者に避けることを促す像を前記車両が走行する道路に投影させる投影制御部と、を更に備える、
     請求項1から7のうち何れか1項に記載の車両制御装置。
  9.  前記運転制御部は、前記投影部により前記歩行者に避けることを促す像が投影された後に、前記歩行者認識部により前記歩行者が避けたことが認識された場合に、前記歩行者を追い越す運転制御を実行する、
     請求項8に記載の車両制御装置。
  10.  道路幅認識部が、車両が走行する道路の幅を認識し、
     歩行者認識部が、前記車両の周辺に存在する歩行者を認識し、
     運転制御部が、前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させ、前記道路幅認識部により認識された前記道路の幅が所定幅以下である場合、前記歩行者認識部により認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる、
     車両制御方法。
  11.  車両が走行する道路の幅を認識する道路幅認識部を備える前記車両に搭載されるコンピュータに、
     前記車両の周辺に存在する歩行者を認識させ、
     前記車両の乗員の操作に依らずに、前記車両の操舵または加減速のうち一方または双方を制御して前記車両を走行させ、
     前記認識された道路の幅が所定幅以下である場合、前記認識された歩行者のうち、進行方向が前記車両と略同一方向であり、且つ、優先度の高い歩行者に追従するように前記車両を走行させる、
     プログラム。
PCT/JP2017/036282 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム WO2019069425A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2017/036282 WO2019069425A1 (ja) 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム
US16/650,395 US20200290643A1 (en) 2017-10-05 2017-10-05 Vehicle control device, vehicle control method, and program
CN201780095158.3A CN111133489B (zh) 2017-10-05 2017-10-05 车辆控制装置、车辆控制方法及存储介质
JP2019546482A JP6768974B2 (ja) 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム
DE112017007906.3T DE112017007906T5 (de) 2017-10-05 2017-10-05 Fahrzeugsteuervorrichtung, fahrzeugsteuerverfahren und programm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/036282 WO2019069425A1 (ja) 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2019069425A1 true WO2019069425A1 (ja) 2019-04-11

Family

ID=65994199

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/036282 WO2019069425A1 (ja) 2017-10-05 2017-10-05 車両制御装置、車両制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US20200290643A1 (ja)
JP (1) JP6768974B2 (ja)
CN (1) CN111133489B (ja)
DE (1) DE112017007906T5 (ja)
WO (1) WO2019069425A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112141097A (zh) * 2019-06-26 2020-12-29 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
JP2021046023A (ja) * 2019-09-17 2021-03-25 株式会社Subaru 自動運転車両における報知装置および報知方法
CN113366400A (zh) * 2019-12-20 2021-09-07 百度时代网络技术(北京)有限公司 自动驾驶车辆的动态成本函数的实现方法
CN113994408A (zh) * 2019-06-14 2022-01-28 索尼集团公司 信息处理装置、信息处理方法和程序

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019089591A1 (en) * 2017-10-30 2019-05-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on human activity
JP7100998B2 (ja) * 2018-03-08 2022-07-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
KR102370976B1 (ko) * 2020-10-29 2022-03-04 한국교통대학교산학협력단 객체 특징점을 이용한 차선 변경 지원 시스템
JP7264142B2 (ja) * 2020-11-02 2023-04-25 トヨタ自動車株式会社 路面種類推定装置および車両制御システム
DE102020214131B3 (de) 2020-11-10 2022-02-10 Volkswagen Aktiengesellschaft Verfahren zum automatisierten Einparken eines Kraftfahrzeugs und Kraftfahrzeug
JP7435483B2 (ja) * 2021-01-12 2024-02-21 トヨタ自動車株式会社 地図生成装置、地図生成方法及び地図生成用コンピュータプログラム
JP2022113949A (ja) * 2021-01-26 2022-08-05 本田技研工業株式会社 移動体制御装置、移動体制御方法、およびプログラム
FR3133813A1 (fr) * 2022-03-23 2023-09-29 Psa Automobiles Sa Méthodes et systèmes de conduite d’un véhicule automobile

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227952A (ja) * 2004-02-12 2005-08-25 Nissan Motor Co Ltd 走行状況アドバイスシステム
JP2009003497A (ja) * 2007-06-19 2009-01-08 Mazda Motor Corp 歩行者検出装置
JP2010198578A (ja) * 2009-02-27 2010-09-09 Toyota Motor Corp 移動軌跡生成装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005231491A (ja) * 2004-02-19 2005-09-02 Honda Motor Co Ltd 追従走行制御装置
JP2006151114A (ja) * 2004-11-26 2006-06-15 Fujitsu Ten Ltd 運転支援装置
JP4944551B2 (ja) * 2006-09-26 2012-06-06 日立オートモティブシステムズ株式会社 走行制御装置、走行制御方法、および、走行制御プログラム
JP2009012602A (ja) * 2007-07-04 2009-01-22 Mazda Motor Corp 車両の運転支援装置
JP4730406B2 (ja) * 2008-07-11 2011-07-20 トヨタ自動車株式会社 走行支援制御装置
DE102008062916A1 (de) * 2008-12-23 2010-06-24 Continental Safety Engineering International Gmbh Verfahren zur Ermittlung einer Kollisionswahrscheinlichkeit eines Fahrzeuges mit einem Lebewesen
JP5696444B2 (ja) * 2009-12-24 2015-04-08 日産自動車株式会社 走行制御装置
JP5810842B2 (ja) * 2011-11-02 2015-11-11 アイシン・エィ・ダブリュ株式会社 レーン案内表示システム、方法およびプログラム
KR101338075B1 (ko) * 2011-12-14 2013-12-06 현대자동차주식회사 레이저 빔을 이용한 보행자 경고방법
JP6142979B2 (ja) * 2012-08-01 2017-06-07 マツダ株式会社 車線維持制御方法及び車線維持制御装置
JP6115043B2 (ja) * 2012-08-28 2017-04-19 三菱自動車工業株式会社 運転支援装置
US9669826B2 (en) * 2012-11-21 2017-06-06 Toyota Jidosha Kabushiki Kaisha Driving-assistance device and driving-assistance method
DE102012024930A1 (de) * 2012-12-20 2014-06-26 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrzeug mit Entfernungsüberwachungseinrichtung
US9254846B2 (en) * 2013-05-03 2016-02-09 Google Inc. Predictive reasoning for controlling speed of a vehicle
JP5802241B2 (ja) * 2013-07-04 2015-10-28 富士重工業株式会社 車両の運転支援制御装置
DE202013006676U1 (de) * 2013-07-25 2014-10-28 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) System zur Warnung vor einer möglichen Kollision einesKraftfahrzeuges mit einem Objekt
JP6496982B2 (ja) * 2014-04-11 2019-04-10 株式会社デンソー 認知支援システム
RU2680216C2 (ru) * 2014-04-14 2019-02-18 Лайсенсиз Аустралазиа Пти Лтд Система для обнаружения и идентификации транспортных средств и комплекс таких систем
EP3187388B1 (en) * 2014-08-28 2019-03-06 Nissan Motor Co., Ltd Travel control device and travel control method
WO2016098238A1 (ja) * 2014-12-19 2016-06-23 株式会社日立製作所 走行制御装置
DE102015201878A1 (de) * 2015-02-04 2016-08-04 Continental Teves Ag & Co. Ohg Halbautomatisierter Spurwechsel
JP6402673B2 (ja) * 2015-04-02 2018-10-10 トヨタ自動車株式会社 運転支援装置
JP2017004471A (ja) * 2015-06-16 2017-01-05 株式会社デンソー 報知システム
CN104960522B (zh) * 2015-06-18 2018-09-21 奇瑞汽车股份有限公司 自动跟车***及其控制方法
CN105015545B (zh) * 2015-07-03 2018-06-26 内蒙古麦酷智能车技术有限公司 一种无人驾驶汽车的自主变道决策方法
CN105216797B (zh) * 2015-08-21 2018-09-21 奇瑞汽车股份有限公司 超车方法及***
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
JP2017134520A (ja) * 2016-01-26 2017-08-03 トヨタ自動車株式会社 車両用衝突回避支援システム
US9849911B2 (en) * 2016-02-26 2017-12-26 GM Global Technology Operations LLC Enhanced vehicle lateral control (lane following/lane keeping/lane changing control) for trailering vehicles
JP6387548B2 (ja) * 2016-03-14 2018-09-12 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
CN105788369B (zh) * 2016-05-31 2019-01-01 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的超车控制方法和装置
CN106740841B (zh) * 2017-02-14 2018-07-10 驭势科技(北京)有限公司 基于动态控制的车道线检测方法、装置及车载设备
JP6974484B2 (ja) * 2017-09-29 2021-12-01 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227952A (ja) * 2004-02-12 2005-08-25 Nissan Motor Co Ltd 走行状況アドバイスシステム
JP2009003497A (ja) * 2007-06-19 2009-01-08 Mazda Motor Corp 歩行者検出装置
JP2010198578A (ja) * 2009-02-27 2010-09-09 Toyota Motor Corp 移動軌跡生成装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113994408A (zh) * 2019-06-14 2022-01-28 索尼集团公司 信息处理装置、信息处理方法和程序
CN112141097A (zh) * 2019-06-26 2020-12-29 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
JP2021003971A (ja) * 2019-06-26 2021-01-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11453398B2 (en) 2019-06-26 2022-09-27 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium
JP7166988B2 (ja) 2019-06-26 2022-11-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN112141097B (zh) * 2019-06-26 2024-02-02 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
JP2021046023A (ja) * 2019-09-17 2021-03-25 株式会社Subaru 自動運転車両における報知装置および報知方法
JP7405542B2 (ja) 2019-09-17 2023-12-26 株式会社Subaru 自動運転車両における報知装置および報知方法
CN113366400A (zh) * 2019-12-20 2021-09-07 百度时代网络技术(北京)有限公司 自动驾驶车辆的动态成本函数的实现方法
JP2022517288A (ja) * 2019-12-20 2022-03-08 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド 自動運転車両の動的コスト関数の実現方法
JP7256812B2 (ja) 2019-12-20 2023-04-12 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド 自動運転車両の動的コスト関数の実現方法
US11724717B2 (en) 2019-12-20 2023-08-15 Baidu Usa Llc Implementation of dynamic cost function of self-driving vehicles

Also Published As

Publication number Publication date
CN111133489A (zh) 2020-05-08
DE112017007906T5 (de) 2020-05-20
CN111133489B (zh) 2022-02-11
US20200290643A1 (en) 2020-09-17
JP6768974B2 (ja) 2020-10-14
JPWO2019069425A1 (ja) 2020-07-30

Similar Documents

Publication Publication Date Title
JP6768974B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US11079762B2 (en) Vehicle control device, vehicle control method, and storage medium
US11170651B2 (en) Vehicle control device, vehicle control method, and storage medium
WO2018138769A1 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
JP6601696B2 (ja) 予測装置、予測方法、およびプログラム
JP2019108103A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7043295B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019048570A (ja) 車両制御装置、車両制御方法、およびプログラム
JP6327424B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6974484B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6788751B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6676025B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6586685B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2019073511A1 (ja) 車両制御装置、車両制御方法、及びプログラム
JPWO2018123019A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2019137189A (ja) 車両制御システム、車両制御方法、およびプログラム
US20190283802A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6705022B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018123346A1 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2019185112A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2020082852A (ja) 車両制御装置、車両制御方法、及びプログラム
JP2019067337A (ja) 車両制御装置、車両制御方法、およびプログラム
WO2019130483A1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019096161A (ja) 車両制御装置、車両制御方法、およびプログラム
JP6648384B2 (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17927975

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019546482

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17927975

Country of ref document: EP

Kind code of ref document: A1