WO2021240885A1 - 電子制御装置 - Google Patents

電子制御装置 Download PDF

Info

Publication number
WO2021240885A1
WO2021240885A1 PCT/JP2021/003607 JP2021003607W WO2021240885A1 WO 2021240885 A1 WO2021240885 A1 WO 2021240885A1 JP 2021003607 W JP2021003607 W JP 2021003607W WO 2021240885 A1 WO2021240885 A1 WO 2021240885A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
information
peripheral
detectable
vehicle
Prior art date
Application number
PCT/JP2021/003607
Other languages
English (en)
French (fr)
Inventor
勇樹 堀田
英弘 豊田
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to US17/926,215 priority Critical patent/US20230182732A1/en
Publication of WO2021240885A1 publication Critical patent/WO2021240885A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • B60W50/045Monitoring control system parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/50Magnetic or electromagnetic sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Definitions

  • the present invention relates to an electronic control device.
  • Patent Document 1 discloses a means for detecting a deterioration in performance due to dirt or failure of an external sensor to suppress a traveling speed or stop safely.
  • the presence or absence of a change in the pixel output value of the camera is used to detect a deterioration in performance due to dirt or failure attached to the camera, and an operation such as a degenerate operation or a safe stop is performed according to the state. Judging the mode.
  • deterioration of the performance of the external sensor can occur not only due to dirt and failure of the sensor itself, but also due to changes in the external environment.
  • a camera or LiDAR Light Detection And Ringing
  • the distance performance that can detect obstacles deteriorates in bad weather such as heavy rain or fog.
  • a millimeter-wave radar which is said to be resistant to bad weather
  • the detection performance of distant obstacles during heavy rain is lower than that during normal times.
  • the state of the external environment changes continuously from moment to moment, and the degree of deterioration in the performance of the external sensor changes continuously accordingly.
  • the operation mode is determined by discretely determining the level of performance deterioration of the external sensor, it is difficult to flexibly control the driving in response to changes in the external environment. Therefore, the operation mode is set on the safer side, and the conditions under which automatic operation can be continued may be more limited than it should be.
  • An object of the present invention is to provide an electronic control device capable of flexibly and safely continuing driving control against deterioration of sensor performance due to changes in the external environment in order to solve the above-mentioned problems in the prior art. ..
  • the electronic control device is mounted on a vehicle, and the sensor detects an environmental element existing around the vehicle based on the detection information of the sensor mounted on the vehicle.
  • the vehicle's vehicle is based on a sensor-detectable area determination unit that determines a sensor-detectable area indicating a possible area, detection information of the sensor, and the sensor-detectable area determined by the sensor-detectable area determination unit. It includes a travel control information generation unit that generates travel control information, and an information output unit that outputs the travel control information generated by the travel control information generation unit.
  • the electronic control device is mounted on a vehicle, and is a region in which environmental elements existing around the vehicle can be detected based on the detection information of the sensor mounted on the vehicle.
  • Vehicle travel control information based on the peripheral detectable area determination unit that determines the peripheral detectable area, the detection information of the sensor, and the peripheral detectable area determined by the peripheral detectable area determination unit. It is provided with a travel control information generation unit for generating the vehicle and an information output unit for outputting the travel control information generated by the travel control information generation unit.
  • an electronic control device capable of flexibly and safely continuing driving control against deterioration of sensor performance due to changes in the external environment.
  • a functional block diagram showing a configuration of a vehicle system including a travel control device according to an embodiment of the present invention.
  • Conceptual diagram of sensor detectable area The figure which shows an example of the sensor detection information The figure which shows an example of the sensor detectable area The figure which shows an example of the peripheral detectable area The figure which shows the correlation of the function realized by the driving control apparatus which concerns on embodiment of this invention.
  • Flow chart explaining the processing of the sensor detectable area determination unit The figure which shows an example of the calculation method of the correlation information of a detection distance and a reliability.
  • the figure which shows an example of the driving environment detection performance requirement information Flow chart explaining the processing of the driving control mode determination unit
  • FIG. 1 is a functional block diagram showing a configuration of a vehicle system 1 including a travel control device 3 according to an embodiment of the present invention.
  • the vehicle system 1 is mounted on the vehicle 2.
  • the vehicle system 1 recognizes the situation of obstacles such as a traveling road and surrounding vehicles in the vicinity of the vehicle 2, and then performs appropriate driving support and traveling control.
  • the vehicle system 1 includes a travel control device 3, an external sensor group 4, a vehicle sensor group 5, a map information management device 6, an actuator group 7, and the like.
  • the travel control device 3, the external sensor group 4, the vehicle sensor group 5, the map information management device 6, and the actuator group 7 are connected to each other by the vehicle-mounted network N.
  • the vehicle 2 may be referred to as a "own vehicle" 2 in order to distinguish it from other vehicles.
  • the travel control device 3 is an ECU (Electronic Control Unit).
  • the travel control device 3 generates travel control information for driving support or automatic driving of the vehicle 2 based on various input information provided from the external world sensor group 4, the vehicle sensor group 5, the map information management device 6, and the like. , Output to the actuator group 7 and the like.
  • the travel control device 3 includes a processing unit 10, a storage unit 30, and a communication unit 40.
  • the processing unit 10 is configured to include, for example, a CPU (Central Processing Unit) which is a central processing unit. However, in addition to the CPU, it may be configured to include GPU (Graphics Processing Unit), FPGA (Field-Programmable Gate Array), ASIC (application specific integrated circuit), etc., or it may be configured by any one of them. good.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA Field-Programmable Gate Array
  • ASIC application specific integrated circuit
  • the processing unit 10 includes an information acquisition unit 11, a sensor detectable area determination unit 12, a peripheral detectable area determination unit 13, a peripheral redundant detectable area determination unit 14, a sensor detection information integration unit 15, and a travel control mode determination unit. It has 16, a travel control information generation unit 17, and an information output unit 18. The processing unit 10 realizes these by executing a predetermined operation program stored in the storage unit 30.
  • the information acquisition unit 11 acquires various information from another device connected to the travel control device 3 via the vehicle-mounted network N and stores it in the storage unit 30. For example, information on observation points around vehicle 2 detected by the outside world sensor group 4 and information on environmental elements such as obstacles, road markings, signs, and signals around vehicle 2 estimated based on the information on observation points are acquired. Then, it is stored in the storage unit 30 as the sensor detection information data group 31 representing the detection information of the outside world sensor group 4. Further, information related to the movement and state of the vehicle 2 detected by the vehicle sensor group 5 and the like is acquired and stored in the storage unit 30 as the vehicle information data group 32. Further, information related to the traveling environment and traveling route of the vehicle 2 is acquired from the map information management device 6 and the like, and stored in the storage unit 30 as the traveling environment data group 33.
  • the sensor detectable area determination unit 12 determines a sensor detectable area indicating the detectable area of the external sensor group 4 based on the sensor detection information data group 31 acquired by the information acquisition unit 11 and stored in the storage unit 30. do. For example, the detectable region of the individual sensor alone included in the external sensor group 4 or the detectable region in the combination of a plurality of the same type individual sensors is determined as the sensor detectable region.
  • the combination (including a single unit) of the target external world sensors that determines the sensor detectable area will be referred to as a “sensor group”.
  • the sensor-detectable area determination unit 12 determines a sensor-detectable area for each sensor group, and stores information on each determined sensor-detectable area in the storage unit 30 as a sensor-detectable area data group 34.
  • the sensor-detectable area means an area in which the sensor group can detect an environmental element with a sufficiently high probability when an environmental element such as an obstacle, a road marking, a sign, or a signal exists in the area. do.
  • the sensor-detectable area is an area where the probability of non-detection of environmental elements by the sensor group is sufficiently low, and environmental elements such as obstacles to be detected by the sensor group in this area are defined. If it is not detected, it can be considered that the environmental element to be detected does not exist in the area.
  • Each sensor constituting the external sensor group 4 often statically defines the sensor detectable region as a product specification, but in reality, the sensor detectable region changes according to the external environment.
  • the sensor detectable area determination unit 12 dynamically estimates the sensor detectable area at that time from the information on the detection position and the detection reliability of the obstacle included in the detection information for each sensor group.
  • the peripheral detectable area determination unit 13 uses the external world sensor group 4 based on the sensor detectable area (sensor detectable area data group 34) of each sensor group determined by the sensor detectable area determination unit 12 to surround the vehicle 2. Determines the peripheral detectable area, which is the area where environmental elements such as obstacles can be detected. As described above, the sensor detectable area determination unit 12 determines the detectable area for each sensor group of the external world sensor group 4 as the sensor detectable area, whereas the peripheral detectable area determination unit 13 determines the external world. Sensor group 4 An area where environmental elements such as obstacles can be detected with a sufficiently high probability when all sensor groups are combined, that is, an area where environmental elements can be detected by at least one sensor group of the external sensor group 4. , Determined as a peripheral detectable area.
  • Peripheral redundancy detectable area determination unit 14 can redundantly detect environmental elements such as obstacles around the vehicle 2 by two or more sensor groups of the external world sensor group 4 based on the sensor detectable area data group 34. Determine the peripheral redundant detectable area, which is the area.
  • the peripheral detectable region determination unit 13 determines the region where the environmental element can be detected by at least one sensor group of the external sensor group 4 as the peripheral detectable region, whereas the peripheral redundant detection is possible.
  • the region determination unit 14 determines a region in which environmental elements can be redundantly detected by two or more sensor groups of the external sensor group 4 as a peripheral redundant detectable region. That is, the peripheral redundant detectable area is an area corresponding to a portion where a plurality of sensor detectable areas overlap in the peripheral detectable area.
  • the peripheral detectable area determination unit 13 and the peripheral redundant detectable area determination unit 14 store the information of the peripheral detectable area and the peripheral redundant detectable area determined by each in the storage unit 30 as the peripheral detectable area data group 35. ..
  • the sensor detection information integration unit 15 relates to environmental elements such as obstacles, road markings, signs, and signals around the vehicle 2 based on the sensor detection information data group 31 acquired by the information acquisition unit 11 and stored in the storage unit 30. Generate integrated detection information.
  • the process performed by the sensor detection information integration unit 15 corresponds to, for example, a function generally called sensor fusion.
  • the integrated detection information generated by the sensor detection information integration unit 15 is stored in the storage unit 30 as the integrated detection information data group 36.
  • the travel control mode determination unit 16 is a system state (failure state, occupant instruction mode, etc.) of the vehicle system 1 and the travel control device 3, performance requirements of the external sensor group 4 required for the driving environment, and a peripheral detectable area determination unit.
  • the travel control mode of the vehicle system 1 in which the vehicle 2 can safely travel is determined based on the states of the peripheral detectable area and the peripheral redundant detectable area determined by 13 and the peripheral redundant detectable area determination unit 14, respectively.
  • the travel control mode information determined by the travel control mode determination unit 16 is stored in the storage unit 30 as a part of the system parameter data group 38.
  • the driving control information generation unit 17 includes peripheral detectable areas and peripheral redundant detectable areas generated by the peripheral detectable area determination unit 13 and peripheral redundant detectable area determination unit 14, respectively, and integration generated by the sensor detection information integration unit 15.
  • the travel control information of the vehicle 2 is generated based on the detection information, the travel control mode determined by the travel control mode determination unit 16, and the like. For example, a track to be traveled by the vehicle 2 is planned based on this information, and a control command value to be output to the actuator group 7 for following the planned track is determined. Then, the travel control information is generated by using the determined planned track and the control command value and the determination result of the travel control mode by the travel control mode determination unit 16.
  • the travel control information generated by the travel control information generation unit 17 is stored in the storage unit 30 as the travel control information data group 37.
  • the information output unit 18 outputs the travel control information generated by the travel control information generation unit 17 to another device connected to the travel control device 3 via the vehicle-mounted network N.
  • the travel control device 3 outputs travel control information including a control command value determined by the travel control information generation unit 17 to the actuator group 7 to control the travel of the vehicle 2.
  • the travel control device 3 outputs travel control information including the travel control mode determined by the travel control mode determination unit 16 to another device so that the vehicle system 1 as a whole can shift to a consistent system mode. ..
  • the storage unit 30 includes, for example, a storage device such as an HDD (Hard Disk Drive), a flash memory, and a ROM (Read Only Memory), and a memory such as a RAM.
  • the storage unit 30 stores a program processed by the processing unit 10, a data group necessary for the processing, and the like. It is also used as a main memory when the processing unit 10 executes a program, for temporarily storing data necessary for program calculation.
  • the sensor detection information data group 31 As information for realizing the function of the travel control device 3, the sensor detection information data group 31, the vehicle information data group 32, the travel environment data group 33, the sensor detectable area data group 34, and the peripheral detectable area
  • the data group 35, the integrated detection information data group 36, the travel control information data group 37, the system parameter data group 38, and the like are stored in the storage unit 30.
  • the sensor detection information data group 31 is a set of data related to the detection information by the external sensor group 4 and its reliability.
  • the detection information is, for example, information on obstacles, road markings, signs, signals, and other environmental elements identified by the external sensor group 4 based on the observation information of the sensing, and the observation information itself (LiDAR point) of the external sensor group 4. Group information, FFT information of millimeter wave radar, camera image, parallax image of stereo camera, etc.).
  • the reliability of the detected information corresponds to the accuracy (existence probability) that the information about the environmental element detected by the sensor and the observation information actually exist, and differs depending on the type of the sensor and the product specifications.
  • the sensor detection information data group 31 is acquired from the outside world sensor group 4 by the information acquisition unit 11 and stored in the storage unit 30.
  • the vehicle information data group 32 is a set of data related to the movement, state, etc. of the vehicle 2.
  • the vehicle information data group 32 contains vehicle information detected by the vehicle sensor group 5 and the like and acquired by the information acquisition unit 11, for example, the position of the vehicle 2, the traveling speed, the steering angle, the accelerator operation amount, and the brake operation. Information such as quantity is included.
  • the driving environment data group 33 is a set of data related to the driving environment of the vehicle 2.
  • the data on the traveling environment is information on the roads around the vehicle 2 including the road on which the vehicle 2 is traveling. This includes, for example, information on the traveling route of the vehicle 2, the road on or around the traveling route, and the shape and attributes (traveling direction, speed limit, traveling regulation, etc.) of the lanes constituting the road. Is done.
  • the sensor-detectable area data group 34 is a set of data related to the sensor-detectable area, which is an area in which environmental elements such as obstacles can be detected in each sensor group of the external sensor group 4. An example of expressing data relating to the sensor detectable area in the sensor detectable area data group 34 will be described later in FIG.
  • the sensor-detectable area data group 34 is generated and stored by the sensor-detectable area determination unit 12 based on the information of the sensor detection information data group 31 acquired by the information acquisition unit 11.
  • the peripheral detectable region data group 35 is a peripheral detectable region that is a region in which environmental elements such as obstacles can be detected using all the sensor groups of the external sensor group 4, and a plurality of sensor groups of the external sensor group 4. It is a set of data related to a peripheral redundant detectable area, which is an area where environmental elements such as obstacles can be detected redundantly by using. Examples of data representations relating to the peripheral detectable area and the peripheral redundant detectable area in the peripheral detectable area data group 35 will be described later in FIGS. 5 and 9.
  • the peripheral detectable area data group 35 is generated and stored by the peripheral detectable area determination unit 13 and the peripheral redundant detectable area determination unit 14 based on the information of the sensor detectable area data group 34.
  • the integrated detection information data group 36 is a set of integrated detection information data related to environmental elements around the vehicle 2 that is integratedly determined based on the detection information of the external sensor group 4.
  • the integrated detection information data group 36 is generated and stored by the sensor detection information integration unit 15 based on the information of the sensor detection information data group 31.
  • the travel control information data group 37 is a data group related to plan information for controlling the travel of the vehicle 2, and includes a planned track of the vehicle 2, a travel control mode, a control command value output to the actuator group 7, and the like. These information in the travel control information data group 37 are generated and stored by the travel control information generation unit 17.
  • the system parameter data group 38 is a set of data related to the system status (travel control mode, failure status, occupant instruction mode, etc.) of the vehicle system 1 and the travel control device 3, and the detection performance requirements required for the travel environment.
  • the communication unit 40 has a communication function with other devices connected via the in-vehicle network N.
  • this communication unit Forty communication functions are used.
  • the communication unit 40 includes, for example, a network card conforming to a communication standard such as IEEE802.3 or CAN (Control Area Network).
  • the communication unit 40 transmits / receives data between the travel control device 3 and other devices in the vehicle system 1 based on various protocols.
  • the communication unit 40 and the processing unit 10 are described separately in the present embodiment, a part of the processing of the communication unit 40 may be executed in the processing unit 10.
  • a hardware device equivalent in communication processing may be located in the communication unit 40, and other device driver groups, communication protocol processing, and the like may be located in the processing unit 10.
  • the external sensor group 4 is a set of devices for detecting the state around the vehicle 2.
  • the external sensor group 4 corresponds to, for example, various sensors such as a camera device, a millimeter wave radar, LiDAR, and sonar.
  • the external sensor group 4 outputs the observation information of the sensing and information on environmental elements such as obstacles, road markings, signs, and signals identified based on the observation information to the travel control device 3 via the vehicle-mounted network N. ..
  • the "obstacle” is, for example, a vehicle other than the vehicle 2, a pedestrian, a falling object on a road, a roadside, or the like.
  • the "road marking” is, for example, a white line, a pedestrian crossing, a stop line, or the like.
  • the vehicle sensor group 5 is an aggregate of devices for detecting various states of the vehicle 2. Each vehicle sensor detects, for example, the position information of the vehicle 2, the traveling speed, the steering angle, the operating amount of the accelerator, the operating amount of the brake, and the like, and outputs the information to the traveling control device 3 via the vehicle-mounted network N.
  • the map information management device 6 is a device that manages and provides digital map information around the vehicle 2 and information on the travel route of the vehicle 2.
  • the map information management device 6 is composed of, for example, a navigation device or the like.
  • the map information management device 6 includes, for example, digital road map data of a predetermined area including the periphery of the vehicle 2, and the vehicle 2 on the map is based on the position information of the vehicle 2 output from the vehicle sensor group 5.
  • the current position of the vehicle 2, that is, the road or lane in which the vehicle 2 is traveling is specified. Further, the map data of the specified current position of the vehicle 2 and its surroundings is output to the traveling control device 3 via the vehicle-mounted network N.
  • the actuator group 7 is a group of devices that control control elements such as steering, brakes, and accelerators that determine the movement of the vehicle.
  • the actuator group 7 controls the movement of the vehicle based on the operation information of the steering wheel, the brake pedal, the accelerator pedal, etc. by the driver and the control command value output from the travel control device 3.
  • FIG. 2 is a conceptual diagram of a sensor-detectable region by the external sensor group 4 mounted on the vehicle 2.
  • FIG. 2 is an example for explaining the sensor detectable region, but in reality, the external sensor group 4 is installed so as to satisfy the detection performance requirement from the automatic driving function of the vehicle system 1.
  • the external sensor 4-1 corresponding to the region 111 is a long-range millimeter-wave radar
  • the external sensor 4-2 corresponding to the region 112 is a camera sensor
  • -6 is composed of a short-range millimeter-wave radar
  • the external sensor 4-7 corresponding to the region 117 is composed of LiDAR.
  • the sensor-detectable areas 111 to 117 are represented by a fan shape centered on the vehicle 2, but in reality, the sensor-detectable area can be represented by an arbitrary shape according to the detection range of each sensor. Is. The size and shape of the sensor-detectable area change according to the external environment.
  • FIG. 3 is a diagram showing an example of sensor detection information stored in the sensor detection information data group 31.
  • the data structure example of the sensor detection information of the above-mentioned outside world sensor 4-1 long-range millimeter-wave radar
  • a data structure example of the sensor detection information of the above-mentioned outside world sensor 4-7 LiDAR
  • the sensor detection information data of the external sensor 4-1 is configured to include the detection time 301-1, the detection ID 302-1, the detection position 303-1, the detection type 304-1 and the existence probability 305-1.
  • the detection time 301-1 is information related to the timing at which the detection information of the entry is detected. This information may be time information, or may be a number indicating which cycle the detection information of the entry corresponds to, in the case of a sensor that is periodically detected by the external sensor 4-1.
  • the detection ID 302-1 is an ID for identifying each detection information entry. This may be set to assign a common ID to the same detection target in the time series, or may be set like a serial number in each cycle.
  • the detection position 303-1 is information regarding the position where the environmental element corresponding to the detection information in the entry exists.
  • polar coordinates expressed by the distance r and the angle ⁇ in the reference coordinate system of the sensor are used, but an orthogonal coordinate system may be used.
  • Detection type 304-1 indicates the type of environmental element indicated by the detection information in the entry. For example, vehicles, pedestrians, white lines, signs, traffic lights, roadsides, unknowns, etc. may be mentioned.
  • the existence probability 305-1 is information indicating the probability that the environmental element corresponding to the detection information of the entry actually exists. For example, in the case of a millimeter wave radar, when the SN ratio decreases, it becomes difficult to distinguish between the reflected wave and noise from the environmental element to be detected, and the possibility of erroneous detection increases.
  • the external sensor 4-1 calculates and sets the existence probability (or an index corresponding thereto) based on the SN ratio and the detection state in the time series in the process of specifying the environmental element.
  • the sensor detection information data of the external sensor 4-7 includes the detection time 301-7, the detection ID 302-7, the detection position 303-7, the SN ratio 304-7, and the like.
  • the detection time 301-7, detection ID 302-7, and detection position 303-7 are equivalent to the above-mentioned detection time 301-1, detection ID 302-1, and detection position 303-1, respectively.
  • the SN ratio 304-7 indicates the SN ratio when the observation information of the entry is observed. Although the SN ratio is illustrated here as information corresponding to the reliability of the observation information, reception strength or the like may be used.
  • FIG. 4 is a diagram showing an example of a sensor-detectable area represented by information stored in the sensor-detectable area data group 34.
  • the sensor-detectable region is determined by the sensor-detectable region determination unit 12 in units of the sensor group of the external sensor group 4.
  • Data as shown in FIG. 4 is generated for each of the sensor detectable regions.
  • a structural example of the data generated for the sensor detectable region by a predetermined sensor group is shown.
  • the performance of each sensor in the external sensor group 4 may differ depending on the angle of the detection target. For example, the performance of a camera-based sensor deteriorates at the boundary of the angle of view. Therefore, in the data of the sensor detectable region, the detectable distance D is preferably calculated according to the detection angle.
  • Graph 350 in FIG. 4 is a visualization of the detectable distance D calculated in the detectable angle range ( ⁇ min to ⁇ max) of a certain sensor.
  • the dashed line 360 shows the envelope of Graph 350, which shows the correlation between the detection angle and the detectable distance in the sensor detectable region by the sensor.
  • the detectable angle range is divided into predetermined angle ranges (m division in FIG. 4), and the detectable distance D in each division range is calculated.
  • Table 351 of FIG. 4 shows an example of a data structure representing a sensorable region corresponding to graph 350.
  • the sensor-detectable area is expressed in the form of the correlation between the detection angle and the detectable distance, but the expression form is not limited to that.
  • the sensor detectable region may be expressed by showing the probability that the sensor can detect an environmental element such as an obstacle at each cell position on a grid map as described later in FIG. That is, the sensor-detectable region may be expressed as a boundary of whether or not the detection target of the sensor can be detected, or may be expressed as the degree of detectability of the detection target of the sensor for a predetermined region.
  • the detectable distance may be calculated according to the type of the environmental element to be detected. Sensors that observe with reflected waves of electromagnetic waves, such as millimeter-wave radar and LiDAR, change the reception intensity and SN ratio depending on the reflectance of the electromagnetic waves of the object. Therefore, the detectable distance may change depending on the type of the object. Therefore, by calculating the detectable distance according to the type of the object, the accuracy of the detectable area can be improved, and the detectable area can be used properly in different applications according to the type of the object.
  • FIG. 5 is a diagram showing an example of a peripheral detectable region represented by information stored in the peripheral detectable region data group 35.
  • the peripheral detectable area data group 35 represents information on the peripheral detectable area, which is an area in which environmental elements such as obstacles can be detected around the vehicle 2 using the external sensor group 4. This is generated by integrating the sensor detectable regions of each sensor group of the external sensor group 4.
  • FIG. 5 is a grid map in which the area around the vehicle 2 is divided into a grid pattern, and the area around the vehicle 2 is represented by the detectability of environmental elements at each cell position.
  • the data showing the grid map as shown in FIG. 5 is stored as the data indicating the peripheral detectable area.
  • a numerical value for example, detectable probability
  • the detectability of each cell is colored. (The higher the detection probability, the lighter the color, and the lower the detection probability, the darker the color).
  • peripheral detectable area data group 35 by the detectability of the environmental element of each cell is shown, but other expression formats, for example, the boundary of the peripheral detectable area is clearly defined, and the boundary thereof is clearly defined.
  • Data indicating the shape of the region may be stored in the peripheral detectable region data group 35.
  • a region in which the detectability of each cell is higher than a predetermined threshold value as described with reference to FIG. 5 is defined as a “peripheral detectable region”, and the shape of the boundary portion is defined as the peripheral detectable region data group 35. It is also possible to express by.
  • the travel control device 3 dynamically determines a sensor-detectable area for each sensor group of the external world sensor group 4 based on the information acquired from the external world sensor group 4 and the like, integrates the information, and around the vehicle 2.
  • the peripheral detection area and the peripheral redundant detection area indicating the area where the presence or absence of an environmental element such as an obstacle can be safely determined by the external sensor group 4 are determined.
  • a driving control mode capable of maintaining safe driving in the road environment is determined, and the vehicle 2 is safely controlled in the driving control mode. Travel control information is generated and output to the actuator group 7.
  • the actuator group 7 controls the traveling of the vehicle 2 by controlling each actuator of the vehicle 2 according to the traveling control information output by the traveling control device 3. As a result, it will continue to operate flexibly and safely in response to sensor performance degradation due to changes in the external environment and performance requirements in the road environment.
  • FIG. 6 is a diagram showing the correlation of the functions realized by the travel control device 3.
  • the information acquisition unit 11 acquires necessary information from another device via the vehicle-mounted network N and stores it in the storage unit 30. Specifically, the sensor detection information data group 31 is acquired from the external sensor group 4, the vehicle information data group 32 is acquired from the vehicle sensor group 5, and the driving environment data group 33 is acquired from the map information management device 6, respectively, and the storage unit 30 is used. It is stored in and handed over to the processing unit in the subsequent stage.
  • the sensor detectable area determination unit 12 determines a detectable area for each sensor group of the external world sensor group 4 based on the sensor detection information data group 31 and the vehicle information data group 32 acquired from the information acquisition unit 11. Then, the data indicating each of the determined detectable areas is stored in the storage unit 30 as the sensor detectable area data group 34, and is passed to the processing unit in the subsequent stage.
  • the peripheral detectable area determination unit 13 and the peripheral redundant detectable area determination unit 14 determine the peripheral detectable area and the peripheral redundant detectable area, respectively, based on the sensor detectable area data group 34 acquired from the sensor detectable area determination unit 12. decide. Then, the data indicating the determined peripheral detectable area and peripheral redundant detectable area is stored in the storage unit 30 as the peripheral detectable area data group 35, and is passed to the processing unit in the subsequent stage.
  • the sensor detection information integration unit 15 integrates the detection information of a plurality of sensor groups in the external world sensor group 4 based on the sensor detection information data group 31 and the vehicle information data group 32 acquired from the information acquisition unit 11. 36 is generated and stored in the storage unit 30. Then, the generated integrated detection information data group 36 is output to the traveling control information generation unit 17.
  • the travel control mode determination unit 16 includes a travel environment data group 33 acquired from the information acquisition unit 11, a peripheral detectable area data group 35 acquired from the peripheral detectable area determination unit 13 and the peripheral redundant detectable area determination unit 14, and a system.
  • the travel control mode of the vehicle 2 is determined based on the system status (failure status, occupant instruction mode, etc.) of the vehicle system 1 and the travel control device 3 stored in the parameter data group 38 and the detection performance requirements required for the travel environment. ..
  • the determination result is stored in the storage unit 30 as a part of the system parameter data group 38, and is output to the travel control information generation unit 17 and the information output unit 18.
  • Information regarding the system parameter data group 38 can be generated by an external device of the travel control device 3 or each processing unit, but is omitted in FIG.
  • the travel control information generation unit 17 includes an integrated detection information data group 36 acquired from the sensor detection information integration unit 15, and a peripheral detectable area data group acquired from the peripheral detectable area determination unit 13 and the peripheral redundant detectable area determination unit 14. 35, based on the judgment result of the driving control mode of the vehicle 2 included in the vehicle information data group 32 acquired from the information acquisition unit 11, the driving environment data group 33, and the system parameter data group 38 acquired from the driving control mode determination unit 16. , The travel control mode of the vehicle 2 is determined, the trajectory of the travel control is planned, and the control command value or the like that follows the trajectory is generated. Then, the travel control information data group 37 including these information is generated, stored in the storage unit 30, and output to the information output unit 18.
  • the information output unit 18 outputs the travel control information of the vehicle 2 based on the travel control information data group 37 acquired from the travel control information generation unit 17. For example, the travel control information including the control command value is output to the actuator group 7, and the travel control information including the current travel control mode is output to another device.
  • FIG. 7 is a flowchart illustrating the processing of the sensor detectable area determination unit 12.
  • the sensor-detectable area determination unit 12 generates sensor-detectable area data for each sensor group by executing the processes S501 to S507 for each sensor group, and stores the sensor-detectable area data group 34 in the storage unit 30 as a sensor-detectable area data group 34. do.
  • the sensor detection information data group 31 and the vehicle information data group 32 are acquired from the storage unit 30.
  • the sensor detection information data group 31 in addition to the latest detection information (detection information (t)) of the external world sensor group 4 acquired by the information acquisition unit 11, the sensor detectable area determination unit 12 handles it in the previous process. It is assumed that the data related to the detected information (detection information (t-1)) is also included.
  • the detection information (t-1) is updated according to the current state of the vehicle 2. Specifically, the state of the environmental element to be detected at the time t is predicted from the detection information (t-1), and the prediction result is based on the vehicle information data group 32, and the prediction result is the coordinates based on the state of the vehicle 2 at the time t. Convert to a system expression.
  • the prediction information obtained from the detection information (t) in S502 and the prediction information from the detection information (t-1) obtained in the previous S502 can be integrated with reference to the vehicle 2. This makes it possible to robustly estimate the state of the detection target by combining time-series information. This corresponds to, for example, processing such as a Kalman filter.
  • the type of the environmental element to be detected in the detection information (t) is determined based on the integration result of the detection information performed in S503.
  • the type of environmental element is information corresponding to the detection type 304-1 of the sensor detection information data group 31 shown in FIG. 3, for example, a vehicle, a pedestrian, a road surface, a white line, a roadside, a signal, an unknown, or the like. Applicable.
  • the processing of S502 to S504 corresponds to the recognition processing using the observation information by the external sensor and the sensor fusion processing of the detection information by the sensor detection information integration unit 15.
  • the sensor detectable area determination unit 12 performs the same processing independently of them, but the information of the detection type 304-1 of the sensor detection information data group 31 to which the equivalent processing is performed is used as it is. You may use it.
  • the observation information is output as the detection information from the outside world sensor as in the outside world sensor 4-7 in FIG. 3, the detection information does not include the information regarding the detection type. Therefore, when performing a process using the type of the detection target as described later, a process of integrating the observation information and determining the type of the detection target is required as the pre-stage process.
  • the sensor detection information integration unit 15 needs to convert the observation information of the sensor into information related to the environmental elements used by the travel control information generation unit 17, and S502 to S504 are executed in the process. Since it is a process, the calculation result of the sensor detection information integration unit 15 may be acquired and used.
  • the correlation information between the detection distance and the reliability is statistically calculated based on the information on the detection position and the reliability included in the detection information.
  • the value of r at the detection position 303-1 corresponds to the detection distance
  • the value of the existence probability 305-1 corresponds to the reliability.
  • the value of the SN ratio 304-7 corresponds to the reliability.
  • the external sensor 4-1 (40.0, 0.95), (50.0, 0.95), (90.0, 0.7) and the like can be obtained as a sample of time-series data of the combination of ⁇ detection distance, reliability ⁇ .
  • the purpose of the correlation information between the detection distance and the reliability is to estimate the detection performance of the external sensor in the current external environment such as weather. Since the external environment does not change abruptly as compared with the detection cycle and the control cycle of the external sensor group 4, it is possible to handle the time series information at a predetermined time as a sample and obtain a statistically sufficient sample.
  • FIG. 8 shows an example of a method of calculating the correlation information between the detection distance and the reliability.
  • Graph 600 in FIG. 8 shows a regression curve 602 for sample 601 of each combination of detection distance and reliability in a normal external environment.
  • Sensors that observe with reflected waves of electromagnetic waves, such as radar and LiDAR, have higher reliability as the detection distance increases because the attenuation of the reflected waves increases.
  • the reliability of camera-based sensors also decreases because the resolution for distant objects decreases. Therefore, in any of the sensors, time-series data whose reliability decreases according to the detection distance can be obtained, and a correlation graph as shown in Graph 600 can be obtained based on the time-series data.
  • Graph 610 of FIG. 8 shows a regression curve 612 for sample 611 of each combination of detection distance and reliability under bad weather such as heavy rain.
  • electromagnetic wave sensors such as radar and LiDAR
  • time-series data can be obtained in which the attenuation rate of reflected waves increases due to the influence of raindrops and water vapor in bad weather, and the reliability of the detection distance decreases compared to normal times. ..
  • Even in camera sensors the farther away you are in bad weather, the poorer the field of view, and the parallax information for calculating the distance based on multiple images and noise on the contour of the object in the recognition process are also the same.
  • the graph 610 has a shape in which the reliability is attenuated at a shorter detection distance as compared with the graph 600.
  • the correlation between the detection distance and the reliability may be statistically processed uniformly for all the detection information of the sensor, but may be classified by a specific index and statistically processed for each classification.
  • some sensors have different performance depending on the detection angle.
  • the detection performance of the camera-based sensor decreases at the boundary of the viewing angle, and the detection performance of the radar and sonar also decreases as the angle becomes wider. Therefore, it is preferable to perform statistical processing of the detection information for each predetermined angle range to determine the relationship between the detection distance and the reliability of the sensor.
  • Some electromagnetic wave sensors are easy to detect and some are difficult to detect because the reflectance of electromagnetic waves differs depending on the object. It is possible to obtain a more accurate correlation between the detection distance and the reliability by performing statistical processing for each type of detection target instead of performing statistical processing in which they are mixed.
  • the sensor detectable region determination unit 12 determines the sensor detectable region data for the sensor group based on the correlation information (S506).
  • the sensor detectable area data is represented as, for example, an aggregate of the detectable distance D for each predetermined classification.
  • the detectable distance D is obtained by obtaining the range of the detection distance in which the reliability can maintain the predetermined threshold value Th or more with respect to the correlation information between the detection distance and the reliability for each predetermined classification obtained in S504. .
  • the detection distance D1 corresponds
  • the detection distance D2 corresponds.
  • the detectable distance D is calculated by calculating the intersection with the threshold value Th after calculating the regression curve showing the correlation between the detection distance and the reliability, but the realization means is not limited to that method.
  • the detectable distance D may be obtained after discretely expressing the correlation between the detection distance and the reliability.
  • the detectable region data does not necessarily have to represent the boundary value of the detectable distance D, and there is no problem as the correlation information itself (regression curve or the like) of the reliability with respect to the detected distance.
  • the sensor detectable area determination unit 12 stores the sensor detectable area data obtained in S505 in the sensor detectable area data group 34, ends the processing of the sensor group, and ends the processing.
  • the following sensor group processes S501 to S507 are executed.
  • the sensor detectable area determination processing ends.
  • the peripheral detectable area determination unit 13 uses the external sensor group 4 around the vehicle 2 based on the sensor detectable area (sensor detectable area data group 34) of each sensor group determined by the sensor detectable area determination unit 12.
  • the peripheral detectable area which is an area where environmental elements such as obstacles can be detected, is determined and stored in the storage unit 30 as the peripheral detectable area data group 35.
  • peripheral redundant detectable region determination unit 14 and based on the sensor detectable region data group 34, environmental elements such as obstacles around the vehicle 2 are used by two or more individual sensors or the sensor group of the external sensor group 4.
  • the peripheral redundant detectable area which is an area that can be redundantly detected, is determined and stored in the storage unit 30 as a part of the peripheral detectable area data group 35.
  • each sensor detectable region of each sensor group of the external sensor group 4 is represented by connecting the detectable distance D of each detection angle.
  • each sensor detectable region is represented by an arbitrary shape such as the region 111 to 117 in FIG. 2, but for example, the peripheral detectable region has a shape such that those shapes are joined (the region in FIG. 9).
  • the peripheral redundant detectable region may be defined as a shape (regions 702 to 704 in FIG. 9) that joins regions in which two or more of these shapes overlap.
  • the detectable area of each sensor group of the external sensor group 4 is expressed as the correlation information between the detection distance and the reliability.
  • the detection reliability of each sensor group at each position around the vehicle 2 can be obtained from this reliability information. You can ask. Therefore, at each position around the vehicle 2, the detection reliability included in the detection information of each sensor group represented by the sensor detectable area data group 34 is stochastically integrated, and the peripheral detectable area and the peripheral redundant detection are possible. It may be an area.
  • the detection reliability can be treated as stochastic information.
  • the detection reliability at the coordinates (X, Y) around the vehicle 2 of the sensor groups 1 to k (k is a natural number of 2 or more) is r1 (X, Y), ..., Rk (X, Y).
  • the detection reliability R at the coordinates (X, Y) of the region can be obtained by, for example, the following mathematical formula.
  • R 1- ⁇ (1-r1 (X, Y)) ⁇ ... ⁇ (1-rk (X, Y)) ⁇
  • the redundancy detection reliability Rr at the coordinates (X, Y) of the peripheral redundancy detectable region can be obtained by, for example, the following mathematical formula.
  • Rr R- ⁇ r1 (X, Y) x ... x (1-rk (X, Y)) ⁇ -...- ⁇ (1-r1 (X, Y) x ... x rk (X, Y) ⁇
  • This represents the probability that the environmental element to be detected can be detected by two or more sensor groups, and is expressed by a grid map or the like in the same manner as the peripheral detectable area.
  • the detection reliability or the redundant detection reliability is defined on the grid map. It may be defined as an expression of each, it may be defined as an area whose reliability is equal to or higher than a predetermined threshold value, or the boundary of the area may be expressed as a shape instead of a grid map.
  • the peripheral detectable area and the peripheral redundant detectable area may be obtained by using only the sensor detectable area data of a predetermined type. , It may be obtained by using any plurality of types of sensor detectable area data. When it is obtained by using a plurality of types, it may be obtained after integrating the sensor detectable area data of a plurality of types for each sensor group, or it may be obtained by integrating the sensor detectable area data for each type. When integrating multiple types of sensor detectable area data for each sensor group, for example, the detectable distance D or the minimum or maximum value of the detection reliability may be taken for integration, or the data may be integrated according to the type. Weighted detection reliability may be calculated and integrated.
  • the peripheral detectable area determination unit 13 and the peripheral redundant detectable area determination unit 14 are based on the relationship between the detection distance and the reliability determined by the sensor detectable area determination unit 12 for each of the sensor groups of the external sensor group 4. As described above, the peripheral detectable area and the peripheral redundant detectable area can be determined respectively.
  • the sensor detection information integration unit 15 generates an integrated detection information data group 36 that integrates detection information of a plurality of external world sensors based on the sensor detection information data group 31 and the vehicle information data group 32 acquired from the information acquisition unit 11. It is stored in the storage unit 30.
  • the sensor detection information integration process corresponds to the sensor fusion process of the detection information. While the above-mentioned peripheral detectable area determination process and peripheral redundant detectable area determination process are aimed at finding the performance limit of the external sensor in the external environment at that time, the sensor detection information integration process is for each external world.
  • the purpose is to integrate the detection information of the sensor and to understand the driving environment around the vehicle 2 with high reliability. For example, integration of detection information for environmental elements such as other vehicles and white lines, and identification of areas shielded by detection targets are performed.
  • the region shielded by the detection target is a region (blind spot region) that is shielded by an obstacle or the like and cannot be detected even though it is originally a region that can be detected by an external sensor.
  • the travel control information generation unit 17 needs to control travel while being aware of not only the environmental elements detected by the external sensor group 4 but also the existence of potential obstacles hidden in the blind spot region of such external sensors. be.
  • the driving control mode determination unit 16 is a system parameter data group including a driving environment data group 33, a peripheral detectable area data group 35, a system state (failure state, occupant instruction mode, etc.) of the vehicle system 1 and the driving control device 3. Based on 38, the travel control mode of the vehicle system 1 is determined. In addition to shifting the vehicle system 1 to an appropriate system state according to the failure state of the vehicle system 1 and the automatic driving instruction from the occupant, the detection performance requirement for the sensor of the driving environment and the peripheral detectable area and the peripheral redundant detectable area The driving control mode is determined based on the limit performance of the actual sensor shown in.
  • FIG. 10 is an example of driving environment detection performance requirement information which is information indicating the detection performance requirement for the sensor of the driving environment.
  • the driving environment detection performance requirement information is a kind of system parameter that determines the behavior of the vehicle system 1, and is assumed to be stored in the system parameter data group 38.
  • the driving environment type condition 801 represents the condition of the road type targeted by the entry, and a highway, a dedicated road (excluding a highway), a general road, etc. are designated.
  • the driving environment condition detail 802 represents a detailed condition regarding the driving environment targeted by the entry, and is expressed by using, for example, a specific road name, road attributes (number of lanes, maximum curvature, presence / absence of road construction, etc.). ..
  • road attributes number of lanes, maximum curvature, presence / absence of road construction, etc.
  • “Expressway A” is shown as an example in which a specific road name is a detailed condition.
  • “*" is a wild card, which means that an arbitrary condition is applied.
  • the performance requirement 803 indicates the detection performance required for the external sensor group 4 in the driving environment condition expressed by the combination of the driving environment type condition 801 and the driving environment detailed condition 802. For example, in FIG. 10, it is represented by a combination of a detection direction (front, rear, side) and a detection distance with respect to the vehicle 2.
  • the specific shape of the region required for each of the front, rear, and side detection directions shall be appropriately defined according to the detection distance.
  • FIG. 11 is a flowchart illustrating the traveling control mode determination process.
  • the travel control mode determination unit 16 determines the travel control mode of the vehicle system 1 by executing the processes of S901 to S907, and performs travel control mode change processing and notification as necessary.
  • the travel control mode determination unit 16 acquires the travel environment data on the travel route from the travel environment data group 33 in S901. Then, in S902, the road information included in the driving environment data is referred to, and the corresponding performance requirement is specified from the driving environment detection performance requirement information shown in FIG. For example, when the vehicle 2 is traveling on an expressway other than the expressway A, the performance requirement 803 is met in the line where the driving environment type condition 801 is "highway” and the driving environment condition detail 802 is "*". The indicated “120 m or more in front and 60 m or more in rear” corresponds to the performance requirement for the external sensor group 4.
  • the travel control mode determination unit 16 acquires a peripheral detectable region or a peripheral redundant detectable region according to the current travel control mode from the peripheral detectable region data group 35.
  • the travel control mode of the vehicle system 1 is defined by, for example, the automatic driving level.
  • the driver is responsible for safe driving when the autonomous driving level is 2 or lower, and the system is responsible for safe driving when the autonomous driving level is 3 or higher. become. Therefore, when the vehicle system 1 operates in the driving control mode of the automatic driving level 3 or higher, it is necessary to form a redundant system configuration in principle in order to deal with the failure or malfunction of the sensor / actuator.
  • the peripheral detectable area data group 35 the peripheral area determined by the peripheral redundant detectable area determination unit 14 is determined. Refer to the redundant detectable area. On the other hand, if the automatic operation level is 2 or less, redundancy is not required. Therefore, in the peripheral detectable area data group 35, the peripheral detectable area determined by the peripheral detectable area determination unit 13 may be referred to.
  • the travel control mode determination unit 16 compares the performance requirement acquired in S902 with the data of the peripheral detectable area or the peripheral redundant detectable area acquired in S903, and determines whether the performance requirement is satisfied. do.
  • the performance requirement for the external sensor group 4 is expressed by the combination of the detection direction and the detectable distance for the vehicle 2, but this is for each detection direction as described above. It is assumed that the shape of the required specific area is appropriately defined according to the detection distance. Therefore, it is possible to convert the performance requirement acquired in S902 into the information of the area and compare it with the data of the peripheral detectable area and the peripheral redundant detectable area.
  • the data of the peripheral detectable area and the peripheral redundant detectable area acquired in S903 can be detected in each detection direction by matching the expression of the performance requirement in the driving environment detection performance requirement information. It may be expressed in the form of distance and compared with the performance requirement acquired in S902.
  • the travel control mode determination unit 16 specifies a travel control mode that satisfies the travel environment performance requirements.
  • a travel control mode that satisfies the travel environment performance requirements.
  • there are three driving control modes for example, a manual driving mode, an automatic driving level 2 mode, and an automatic driving level 3 mode, and it is assumed that the automatic driving level 3 mode is currently selected.
  • the mode may be subdivided by defining the level of the automatic operation function. For example, even in the automatic driving level 2 mode, it is possible to divide the mode into a mode in which the lane change is automatically determined, a mode in which the lane cannot be changed without manual instruction, a mode in which only lane tracking is allowed, and the like.
  • the side performance requirement is not required, so the detection performance requirement is specified for each driving control mode separately from the driving environment, and the detection performance requirement for both the driving environment and the driving control mode is specified. It is also possible to determine an appropriate driving control mode based on whether or not is satisfied. In that case, the detection performance requirement of the driving environment describes the minimum condition for enabling the driving control in the road environment, and the detection performance requirement on the driving control mode side defines the stricter condition. ..
  • the travel control mode is changed in S906.
  • the final travel control mode is determined through mediation between devices for ensuring consistency of the vehicle system 1 as a whole, interaction with the driving vehicle for transferring control to the driver, and the like. Then, in S907, the determined travel control mode is notified to the related functions and peripheral devices, and this process is terminated.
  • the travel control mode determination unit 16 is based on the peripheral detectable area determined by the peripheral detectable area determination unit 13 or the peripheral redundant detectable area determined by the peripheral redundant detectable area determination unit 14, and the vehicle 2 is as described above. It is possible to determine the travel control mode according to the compatible automatic driving level and select the travel control mode to be adopted in the vehicle system 1.
  • the travel control information generation unit 17 implements travel control planning processing for the vehicle 2 so that the vehicle 2 can travel safely and comfortably toward the destination indicated by the travel route of the travel environment data group 33.
  • the vehicle 2 travels safely and comfortably while avoiding obstacles detected by the external sensor group 4 in accordance with the traffic rules represented by the travel environment data group 33 and the integrated detection information data group 36.
  • the basic processing flow is to generate a track and generate a control command value for following the traveling track.
  • a feature of the present invention is that the peripheral detectable region data group 35 is further utilized in generating a safe and comfortable traveling track.
  • FIG. 12 shows an example of a peripheral detectable region that changes according to the external environment.
  • FIG. 1001 on the left of FIG. 12 shows a situation in which the external environment is normal
  • FIG. 1002 on the right shows a situation in which the detection performance of the external sensor group 4 is deteriorated due to bad weather or the like in the external environment.
  • bad weather the detectable distance of the external sensor is shortened, so that the peripheral detectable area is also narrowed.
  • the peripheral detectable area is also narrowed.
  • the driving track is generated in the same way as usual without being aware that the detection performance of the external sensor is deteriorated due to bad weather etc., it may collide with an obstacle or lead to deterioration of riding comfort due to sudden deceleration. There is a risk.
  • the travel control information generation unit 17 generates, for example, a track on which the vehicle 2 travels at a speed that allows the vehicle 2 to safely stop within the range of the peripheral detectable region.
  • the allowable deceleration of the vehicle 2 is ⁇ and the current speed of the vehicle 2 is v
  • the distance from the start of deceleration to the stop of the vehicle 2 is v 2 / 2 ⁇ .
  • the distance from the current position of the vehicle 2 to the intersection with the region having a high latent risk in the traveling route is L
  • FIG. 13 is a diagram showing an example of a method of calculating the target speed according to the peripheral detectable area in normal time and bad weather.
  • the horizontal axis represents the distance on the traveling path
  • the vertical axis represents the speed of the own vehicle 2.
  • 13 (a) is a diagram when calculating the target speed of the straight route 1011 in the normal time of FIG. 12
  • FIG. 13 (b) is a diagram when calculating the target speed of the straight route 1012 in the bad weather of FIG. Corresponds to each.
  • the straight path 1011 of the vehicle 2 intersects with a region outside the peripheral detectable region, that is, a region where the obstacle detection performance by the external sensor group 4 is low.
  • Deceleration start point for the vehicle 2 is stopped in front of the distance L1 is, as shown in FIG. 13 (a), the v 2 / 2.alpha front position from the L1 (deceleration start point position 1201).
  • the deceleration start point in order to satisfy TTB ⁇ T0, the deceleration start point must be T0 ⁇ v ahead of the current position (deceleration start point position 1202).
  • the intersection 1203 between the two is the maximum speed that satisfies the condition. In the example here, since the intersection 1203 exceeds the ideal speed (legal speed, etc.), the target speed is set to the ideal speed.
  • the detection of the external sensor may be blocked by the obstacles.
  • the information of the blind spot region due to the shielding of the obstacle is specified by the sensor detection information integration process performed by the sensor detection information integration unit 15. It is desirable that the travel control information generation unit 17 reflects the influence of the blind spot region in the peripheral detectable region, and then obtains the target speed by the above-mentioned means.
  • the travel control information generation unit 17 has a travel control mode of the vehicle system 1 determined by the travel control mode determination unit 16 by executing the above travel control plan process, and the travel control information generation unit 17 has the above travel control plan process. Based on the control command value determined by carrying out the above, the travel control information for the vehicle 2 is generated. As a result, the detection information of each sensor of the external world sensor group 4 and at least one of the peripheral detectable area determined by the peripheral detectable area determination unit 13 and the peripheral redundant detectable area determined by the peripheral redundant detectable area determination unit 14. The travel control information can be generated based on the above. Therefore, it is possible to perform running control in consideration of the detection performance of the sensor.
  • the detectable region is dynamically calculated by statistically analyzing using the information of the detection position and the detection reliability included in the detection information of the external sensor. This makes it possible to quantify the region of the performance limit of the external sensor that changes depending on the external environment, and it is possible to perform driving control in consideration of the deterioration of the performance of the external sensor.
  • the driving control mode since it is possible to quantify the performance limit of the sensor that changes according to the external environment, it is possible to flexibly set the driving control mode according to the performance limit. For example, by quantitatively comparing the performance requirements of the travel control mode in the travel environment with the performance limit at that time, the travel control mode in which the vehicle system 1 can guarantee the function can be appropriately selected. If the performance limit of the sensor is not quantified, it cannot be properly determined whether or not the performance requirements are satisfied, so the driving control mode must be determined on the safer side. As a result, even if the automatic operation can be continued, the automatic operation is stopped, and the availability as the automatic operation function is lowered. On the other hand, in the present invention, it is possible to continue the function to the maximum while ensuring safety, and there is an effect of improving availability.
  • the present invention has the effect of improving the riding comfort because it is possible to continue running while suppressing the deceleration to an appropriate level while ensuring safety.
  • the travel control device 3 which is an ECU mounted on the vehicle 2, detects environmental elements existing around the vehicle 2 by the external sensor group 4 based on the detection information of the external sensor group 4 mounted on the vehicle 2.
  • the vehicle is based on the sensor-detectable area determination unit 12 that determines the sensor-detectable area indicating the possible area, the detection information of the external sensor group 4, and the sensor-detectable area determined by the sensor-detectable area determination unit 12.
  • a travel control information generation unit 17 that generates travel control information of 2 and an information output unit 18 that outputs travel control information generated by the travel control information generation unit 17 are provided.
  • the detection information of the external world sensor group 4 includes the position information indicating the position of the environmental element and the reliability information for the detection information.
  • the sensor detectable area determination unit 12 determines the relationship between the detection distance and the reliability in the external sensor group 4 based on the position information and the reliability information (S505), and determines the sensor detectable area based on the relationship (S505). S506). Since this is done, the sensor detectable region can be appropriately determined according to the detection performance of the external sensor group 4.
  • the sensor detectable area determination unit 12 determines the relationship between the detection distance and the reliability based on the time-series data of the detection information of the external sensor group 4. Therefore, even if the detection performance of the external sensor group 4 fluctuates due to the influence of the external environment such as the weather and the relationship between the detection distance and the reliability changes accordingly, the change is appropriately reflected.
  • the sensor detectable area can be determined.
  • the sensor detectable area determination unit 12 may determine the range of the detection distance whose reliability is a predetermined threshold value Th or more as the sensor detectable area based on the relationship between the detection distance and the reliability. can. By doing so, it is possible to appropriately determine the sensor detectable region according to the relationship between the detection distance and the reliability of the external sensor group 4.
  • the sensor detectable area determination unit 12 can also determine the relationship between the detection distance and the reliability for each predetermined angle range to determine the sensor detectable area. By doing so, it is possible to appropriately determine the sensor detectable region even for a sensor such as a camera or a radar in which a performance difference occurs depending on the detection angle.
  • the travel control device 3 indicates a peripheral detection area around the vehicle 2 in which environmental elements can be detected by using the plurality of sensors of the external sensor group 4 mounted on the vehicle 2.
  • a peripheral detectable area determination unit 13 for determining a possible area is further provided.
  • the travel control information generation unit 17 generates travel control information based on the detection information of the external sensor group 4 and the peripheral detectable region determined by the peripheral detectable region determination unit 13. Since this is done, it is possible to generate travel control information that realizes a safe and comfortable travel track of the vehicle 2 in consideration of the performance limit of the external sensor group 4.
  • the peripheral detectable area determination unit 13 determines the peripheral detectable area based on the relationship between the detection distance and the reliability determined by the sensor detectable area determination unit 12 for each of the plurality of sensors of the external sensor group 4. decide. Since this is done, when various sensors are mounted on the vehicle 2 as the external sensor group 4, the peripheral detectable region can be appropriately set.
  • the reliability information in the detection information of the external sensor group 4 is stochastic information in which the environmental element to be detected actually exists.
  • Peripheral detection area determination unit 13 probabilistically integrates probabilistic information included in the detection information of each of the plurality of sensors of the external world sensor group 4 for each position in the periphery of the vehicle 2, for example, in the figure.
  • the peripheral detectable region as shown in 5 can be determined.
  • the travel control device 3 indicates an area around the vehicle 2 in which environmental elements can be redundantly detected by at least two or more sensors among the plurality of sensors of the external world sensor group 4 mounted on the vehicle 2.
  • a peripheral redundancy detectable area determination unit 14 for determining a peripheral redundant detectable area is further provided.
  • the travel control information generation unit 17 has at least the detection information of the external sensor group 4, the peripheral detectable area determined by the peripheral detectable area determination unit 13, and the peripheral redundant detectable area determined by the peripheral redundant detectable area determination unit 14. Travel control information is generated based on one and the other. Since this is done, even if a redundant system configuration is required, such as when operating in a driving control mode of automatic driving level 3 or higher, safe and comfortable driving of the vehicle 2 is taken into consideration. It is possible to generate driving control information that realizes a track.
  • the traveling control device 3 is an automatic vehicle 2 can handle based on the peripheral detectable area determined by the peripheral detectable area determination unit 13 or the peripheral redundant detectable area determined by the peripheral redundant detectable area determination unit 14. Further, a travel control mode determination unit 16 for determining a travel control mode according to the operation level is provided. Since this is done, it is possible to appropriately determine the applicable automatic driving level in consideration of the external environment of the vehicle 2 and set the traveling control mode according to the automatic driving level.
  • the external sensor group 4 can be configured to include a sensor that detects an object based on the reflected wave of the irradiated electromagnetic wave, such as a radar or LiDAR.
  • the reliability information included in the detection information of the sensor can be information based on either the reception intensity of the reflected wave or the signal-to-noise ratio. By doing so, the reliability information can be appropriately set by reflecting the probability that the environmental element to be detected by the sensor actually exists.
  • the threshold value Th in FIG. 8 has been described as a fixed value, but it may be dynamically changed according to the system state of the vehicle 2. For example, if the travel control mode of the vehicle 2 selected according to the determination result of the travel control mode determination unit 16 is the automatic driving level 3 or higher and the system needs to take responsibility for safe driving, the safety side determines. Therefore, the threshold value Th may be set high. In this way, the threshold value Th used when the sensor detectable area determination unit 12 determines the sensor detectable area is determined more flexibly based on the determination result of the travel control mode by the travel control mode determination unit 16. It is possible to set the sensor detectable area.
  • each process is described on the assumption that it is executed by the same processing unit 10 and the storage unit 30, but the processing unit 10 and the storage unit 30 are divided into a plurality of parts.
  • Each process may be configured and executed in a plurality of different processing units and storage units. In that case, for example, processing software having the same configuration is installed in each storage unit, and the processing is shared and executed by each processing unit.
  • each process of the travel control device 3 is realized by executing a predetermined operation program using a processor and RAM, it is also possible to realize each process with original hardware as needed.
  • the external sensor group, the vehicle sensor group, and the actuator group are described as individual devices, but it is also possible to realize by combining any two or more of them as necessary. ..

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

車両に搭載される電子制御装置は、前記車両に搭載されるセンサの検出情報に基づき、前記センサが前記車両の周辺に存在する環境要素を検出可能な領域を示すセンサ検出可能領域を決定するセンサ検出可能領域決定部と、前記センサの検出情報と、前記センサ検出可能領域決定部が決定した前記センサ検出可能領域とに基づいて、前記車両の走行制御情報を生成する走行制御情報生成部と、前記走行制御情報生成部が生成した前記走行制御情報を出力する情報出力部と、を備える。

Description

電子制御装置
 本発明は、電子制御装置に関する。
 近年、車両の快適で安全な運転支援や自動運転を実現するため、車両の周辺環境を認識する外界センサの性能低下を検出して、自動運転の機能縮退や安全停止をする技術が提案されている。例えば、特許文献1では、外界センサの汚れや故障による性能低下を検出して、走行速度を抑えたり、安全に停止したりする手段が開示されている。
国際公開第2015/068249号
 特許文献1に記載されている発明では、カメラの画素出力値の変化有無を用いて、カメラに付着した汚れや故障による性能低下を検出し、その状態に応じて縮退運転や安全停止等の運転モードを判断している。
 一方、外界センサの性能低下は、センサ自身の汚れや故障だけでなく、外部環境の変化に応じても発生し得る。例えば、カメラやLiDAR(Light Detection And Ranging)を外界センサとして用いた場合、豪雨や霧等の悪天候下では、障害物を検出可能な距離性能が低下する。また、悪天候に強いと言われるミリ波レーダを外界センサとして用いた場合でも、豪雨時における遠方の障害物の検知性能は、通常時よりも低下することが知られている。このように、外部環境要因によって外界センサの性能低下が発生するような場合、特許文献1に開示されている手法では外界センサの性能低下を検出できない。
 また、外部環境の状態は連続的に時々刻々変化するものであり、これに応じて外界センサの性能低下の度合も連続的に変化する。しかしながら、特許文献1のように、外界センサの性能低下のレベルを離散的に判断して運転モードを決定する場合、外部環境の変化に応じた柔軟な走行制御が難しい。そのため、より安全側に運転モードを設定することになり、自動運転を継続できる条件が本来よりも制限される可能性がある。
 本発明は、上記のような従来技術における課題を解決するために、外部環境の変化によるセンサの性能低下に対して、柔軟かつ安全に走行制御を継続可能な電子制御装置の提供を目的とする。
 本発明の第1の態様による電子制御装置は、車両に搭載されるものであって、前記車両に搭載されるセンサの検出情報に基づき、前記センサが前記車両の周辺に存在する環境要素を検出可能な領域を示すセンサ検出可能領域を決定するセンサ検出可能領域決定部と、前記センサの検出情報と、前記センサ検出可能領域決定部が決定した前記センサ検出可能領域とに基づいて、前記車両の走行制御情報を生成する走行制御情報生成部と、前記走行制御情報生成部が生成した前記走行制御情報を出力する情報出力部と、を備える。
 本発明の第2の態様による電子制御装置は、車両に搭載されるものであって、前記車両に搭載されるセンサの検出情報に基づき、前記車両の周辺に存在する環境要素を検出可能な領域を示す周辺検出可能領域を決定する周辺検出可能領域決定部と、前記センサの検出情報と、前記周辺検出可能領域決定部が決定した前記周辺検出可能領域とに基づいて、前記車両の走行制御情報を生成する走行制御情報生成部と、前記走行制御情報生成部が生成した前記走行制御情報を出力する情報出力部と、を備える。
 本発明によれば、外部環境の変化に拠るセンサの性能低下に対して、柔軟かつ安全に走行制御を継続可能な電子制御装置を提供することができる。
本発明の実施の形態に係る走行制御装置を含む車両システムの構成を示す機能ブロック図 センサ検出可能領域の概念図 センサ検出情報の一例を示す図 センサ検出可能領域の一例を示す図 周辺検出可能領域の一例を示す図 本発明の実施の形態に係る走行制御装置が実現する機能の相関関係を示す図 センサ検出可能領域決定部の処理を説明するフローチャート 検出距離と信頼度の相関情報の算出方法の一例を示す図 周辺検出可能領域と周辺冗長検出可能領域の一例を示す図 走行環境検出性能要求情報の一例を示す図 走行制御モード判断部の処理を説明するフローチャート 外部環境に応じて変化する周辺検出可能領域の例を示す図 周辺検出可能領域に応じた目標速度の算出方法の一例を示す図
 以下、図面を参照して、本発明の実施形態について説明する。
(システム構成)
 図1は、本発明の実施の形態に係る走行制御装置3を含む車両システム1の構成を示す機能ブロック図である。車両システム1は、車両2に搭載される。車両システム1は、車両2の周辺における走行道路や周辺車両等の障害物の状況を認識した上で、適切な運転支援や走行制御を行う。図1に示すように、車両システム1は、走行制御装置3、外界センサ群4、車両センサ群5、地図情報管理装置6、アクチュエータ群7等を含んで構成される。走行制御装置3、外界センサ群4、車両センサ群5、地図情報管理装置6、アクチュエータ群7は、車載ネットワークNにより互いに接続される。なお以下では、車両2を他の車両と区別するために「自車両」2と呼ぶこともある。
 走行制御装置3は、ECU(Electronic Control Unit)である。走行制御装置3は、外界センサ群4、車両センサ群5、地図情報管理装置6等から提供される各種入力情報に基づいて、車両2の運転支援または自動運転のための走行制御情報を生成し、アクチュエータ群7等に出力する。走行制御装置3は、処理部10と、記憶部30と、通信部40と、を有する。
 処理部10は、たとえば、中央演算処理装置であるCPU(Central Processing Unit)を含んで構成される。ただし、CPUに加えて、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(application specific integrated circuit)等を含んで構成されてもよいし、いずれか1つにより構成されてもよい。
 処理部10はその機能として、情報取得部11、センサ検出可能領域決定部12、周辺検出可能領域決定部13、周辺冗長検出可能領域決定部14、センサ検出情報統合部15、走行制御モード判断部16、走行制御情報生成部17、および情報出力部18を有する。処理部10は、記憶部30に格納されている所定の動作プログラムを実行することで、これらを実現する。
 情報取得部11は、走行制御装置3に接続された他装置から車載ネットワークNを介して各種情報を取得し、記憶部30に格納する。例えば、外界センサ群4が検出した車両2周辺の観測点に関する情報や、観測点に関する情報に基づいて推定された車両2周辺の障害物、路面標示、標識、信号等の環境要素に関する情報を取得し、外界センサ群4の検出情報を表すセンサ検出情報データ群31として記憶部30に格納する。また、車両センサ群5等が検出した車両2の動きや状態等に関連する情報を取得し、車両情報データ群32として記憶部30に格納する。また、地図情報管理装置6等から車両2の走行環境や走行経路に関連する情報を取得し、走行環境データ群33として記憶部30に格納する。
 センサ検出可能領域決定部12は、情報取得部11により取得されて記憶部30に格納されたセンサ検出情報データ群31に基づいて、外界センサ群4の検出可能領域を示すセンサ検出可能領域を決定する。例えば、外界センサ群4に含まれる個別センサ単体での検出可能領域、または複数の同種個別センサの組合せにおける検出可能領域を、センサ検出可能領域として決定する。以降では、センサ検出可能領域を決定する対象の外界センサの組合せ(単体含む)を「センサグループ」と呼ぶこととする。センサ検出可能領域決定部12は、センサグループ毎にセンサ検出可能領域を決定し、決定した各センサ検出可能領域の情報を、センサ検出可能領域データ群34として記憶部30に格納する。
 センサ検出可能領域とは、当該領域内に障害物、路面標示、標識、信号等の環境要素が存在していた場合に、当該センサグループが十分に高い確率でその環境要素を検出できる領域を意味する。換言すれば、センサ検出可能領域とは、当該センサグループによる環境要素の不検知が発生する確率が十分に低い領域であり、この領域で当該センサグループが検出対象とする障害物等の環境要素を検出しなかった場合は、当該領域内には検出対象の環境要素が存在しないとみなすことができる。外界センサ群4を構成するそれぞれのセンサは、製品仕様としてセンサ検出可能領域を静的に定義していることが多いが、実際には外部環境に応じてセンサ検出可能領域は変化する。センサ検出可能領域決定部12は、センサグループ毎の検出情報に含まれる障害物の検出位置や検出信頼度の情報から、その時点でのセンサ検出可能領域を動的に推定する。
 周辺検出可能領域決定部13は、センサ検出可能領域決定部12が決定した各センサグループのセンサ検出可能領域(センサ検出可能領域データ群34)に基づき、外界センサ群4を用いて車両2の周囲で障害物等の環境要素を検出可能な領域である周辺検出可能領域を決定する。前述のように、センサ検出可能領域決定部12が、外界センサ群4のセンサグループ毎の検出可能領域をセンサ検出可能領域として決定していたのに対し、周辺検出可能領域決定部13は、外界センサ群4すべてのセンサグループを組み合わせた場合に十分に高い確率で障害物等の環境要素を検出可能な領域、すなわち、外界センサ群4の少なくとも1つのセンサグループにより環境要素を検出可能な領域を、周辺検出可能領域として決定する。
 周辺冗長検出可能領域決定部14は、センサ検出可能領域データ群34に基づき、外界センサ群4の2つ以上のセンサグループにより車両2の周辺で障害物等の環境要素を冗長的に検出可能な領域である周辺冗長検出可能領域を決定する。前述のように、周辺検出可能領域決定部13が、外界センサ群4の少なくとも1つのセンサグループにより環境要素を検出可能な領域を周辺検出可能領域として決定していたのに対し、周辺冗長検出可能領域決定部14は、外界センサ群4の2つ以上のセンサグループにより環境要素を冗長的に検出可能な領域を、周辺冗長検出可能領域として決定する。すなわち、周辺冗長検出可能領域とは、周辺検出可能領域において複数のセンサ検出可能領域が重複している部分に相当する領域である。
 周辺検出可能領域決定部13および周辺冗長検出可能領域決定部14は、それぞれが決定した周辺検出可能領域と周辺冗長検出可能領域の情報を、周辺検出可能領域データ群35として記憶部30に格納する。
 センサ検出情報統合部15は、情報取得部11により取得されて記憶部30に格納されたセンサ検出情報データ群31に基づき、車両2周辺における障害物や路面標示、標識、信号等の環境要素に関する統合検出情報を生成する。センサ検出情報統合部15が行う処理は、例えば、センサフュージョンと一般的に呼ばれる機能に相当する。センサ検出情報統合部15により生成された統合検出情報は、統合検出情報データ群36として記憶部30に格納される。
 走行制御モード判断部16は、車両システム1や走行制御装置3のシステム状態(故障状態、乗員の指示モード等)や、走行環境に求められる外界センサ群4の性能要件、周辺検出可能領域決定部13や周辺冗長検出可能領域決定部14によりそれぞれ決定された周辺検出可能領域や周辺冗長検出可能領域の状態等に基づき、車両2が安全に走行可能な車両システム1の走行制御モードを判断する。走行制御モード判断部16により判断された走行制御モードの情報は、システムパラメータデータ群38の一部として記憶部30に格納される。
 走行制御情報生成部17は、周辺検出可能領域決定部13や周辺冗長検出可能領域決定部14がそれぞれ生成した周辺検出可能領域および周辺冗長検出可能領域や、センサ検出情報統合部15が生成した統合検出情報、走行制御モード判断部16が判断した走行制御モード等に基づき、車両2の走行制御情報を生成する。例えば、これらの情報に基づいて車両2が走行すべき軌道を計画し、その計画軌道を追従するためのアクチュエータ群7に出力する制御指令値を決定する。そして、決定した計画軌道および制御指令値と、走行制御モード判断部16による走行制御モードの判断結果とを用いて、走行制御情報を生成する。走行制御情報生成部17が生成した走行制御情報は、走行制御情報データ群37として記憶部30に記憶される。
 情報出力部18は、走行制御装置3に接続された他装置に対して車載ネットワークNを介して、走行制御情報生成部17が生成した走行制御情報を出力する。例えば、走行制御装置3は、走行制御情報生成部17が決定した制御指令値を含む走行制御情報をアクチュエータ群7に出力し、車両2の走行を制御する。また、たとえば、走行制御装置3は、走行制御モード判断部16が判断した走行制御モードを含む走行制御情報を他装置に出力して、車両システム1全体として整合したシステムモードに移行できるようにする。
 記憶部30は、たとえば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置や、RAMなどのメモリを含んで構成される。記憶部30は、処理部10が処理するプログラムや、その処理に必要なデータ群等が格納される。また、処理部10がプログラムを実行する際の主記憶として、一時的にプログラムの演算に必要なデータを格納する用途にも利用される。本実施形態では、走行制御装置3の機能を実現するための情報として、センサ検出情報データ群31、車両情報データ群32、走行環境データ群33、センサ検出可能領域データ群34、周辺検出可能領域データ群35、統合検出情報データ群36、走行制御情報データ群37、システムパラメータデータ群38等が記憶部30に格納される。
 センサ検出情報データ群31とは、外界センサ群4による検出情報やその信頼度に関するデータの集合である。検出情報とは、例えば、外界センサ群4がそのセンシングの観測情報に基づき特定した障害物や路面標示、標識、信号等の環境要素に関する情報や、外界センサ群4の観測情報そのもの(LiDARの点群情報、ミリ波レーダのFFT情報、カメラ画像、ステレオカメラの視差画像等)である。検出情報の信頼度とは、当該センサが検出した環境要素に関する情報、観測情報が実在する確度(存在確率)に相当し、センサの種類や製品仕様に応じて異なる。例えば、LiDARやミリ波レーダのように反射波で観測するようなセンサであればその受信強度や信号対雑音比(SN比)を用いて表現してもよいし、時系列でどれだけ連続して観測できたかに応じて算出されたものでもよいし、検出情報の確度に関する指標であれば何でもよい。センサ検出情報データ群31におけるセンサ検出情報のデータ表現例は、図3において後述する。センサ検出情報データ群31は、情報取得部11によって外界センサ群4から取得され、記憶部30に格納される。
 車両情報データ群32とは、車両2の動きや状態等に関するデータの集合である。車両情報データ群32には、車両センサ群5等が検出して情報取得部11により取得された車両情報として、例えば、車両2の位置、走行速度、操舵角、アクセルの操作量、ブレーキの操作量等の情報が含まれる。
 走行環境データ群33とは、車両2の走行環境に関するデータの集合である。走行環境に関するデータとは、車両2が走行している道路を含む車両2周辺の道路に関する情報である。これには例えば、車両2の走行経路や、その走行経路上または車両2周辺の道路や、その道路を構成する車線の形状や属性(進行方向、制限速度、走行規制等)に関する情報等が含まれる。
 センサ検出可能領域データ群34とは、外界センサ群4のセンサグループ毎における障害物等の環境要素を検出可能な領域であるセンサ検出可能領域に関するデータの集合である。センサ検出可能領域データ群34におけるセンサ検出可能領域に関するデータの表現例は、図4において後述する。センサ検出可能領域データ群34は、情報取得部11により取得されたセンサ検出情報データ群31の情報に基づき、センサ検出可能領域決定部12によって生成、格納される。
 周辺検出可能領域データ群35とは、外界センサ群4のすべてのセンサグループを用いて障害物等の環境要素を検出可能な領域である周辺検出可能領域や、外界センサ群4の複数のセンサグループを用いて障害物等の環境要素を冗長的に検出可能な領域である周辺冗長検出可能領域に関するデータの集合である。周辺検出可能領域データ群35における周辺検出可能領域や周辺冗長検出可能領域に関するデータの表現例は、図5、図9において後述する。周辺検出可能領域データ群35は、センサ検出可能領域データ群34の情報に基づき、周辺検出可能領域決定部13および周辺冗長検出可能領域決定部14によって生成、格納される。
 統合検出情報データ群36とは、外界センサ群4の検出情報に基づき統合的に判断された、車両2周辺における環境要素に関する統合検出情報のデータの集合である。統合検出情報データ群36は、センサ検出情報データ群31の情報に基づき、センサ検出情報統合部15によって生成、格納される。
 走行制御情報データ群37とは、車両2の走行を制御するための計画情報に関するデータ群であり、車両2の計画軌道や走行制御モード、アクチュエータ群7に出力する制御指令値等が含まれる。走行制御情報データ群37におけるこれらの情報は、走行制御情報生成部17によって生成、格納される。
 システムパラメータデータ群38とは、車両システム1や走行制御装置3のシステム状態(走行制御モード、故障状態、乗員の指示モード等)や走行環境に求められる検出性能要求等に関するデータの集合である。
 通信部40は、車載ネットワークNを介して接続された他の装置との通信機能を有する。情報取得部11が他の装置から車載ネットワークNを介して各種情報を取得する際や、情報出力部18が車載ネットワークNを介して他の装置へ各種情報を出力する際には、この通信部40の通信機能が利用される。通信部40は、たとえば、IEEE802.3又はCAN(Controller Area Network)等の通信規格に準拠したネットワークカード等を含んで構成される。通信部40は、車両システム1において走行制御装置3と他の装置との間で、各種プロトコルに基づきデータの送受信を行う。
 なお、本実施形態では、通信部40と処理部10とを分けて記載しているが、処理部10の中で通信部40の処理の一部が実行されてもよい。たとえば、通信処理におけるハードウェアデバイス相当が通信部40に位置し、それ以外のデバイスドライバ群や通信プロトコル処理等は、処理部10の中に位置するように構成してもよい。
 外界センサ群4は、車両2の周辺の状態を検出する装置の集合体である。外界センサ群4はたとえば、カメラ装置、ミリ波レーダ、LiDAR、ソナー等の各種センサが該当する。外界センサ群4は、そのセンシングの観測情報や、その観測情報に基づき特定した障害物、路面標示、標識、信号等の環境要素に関する情報を、車載ネットワークNを介して走行制御装置3に出力する。「障害物」とは、例えば、車両2以外の車両である他車両や、歩行者、道路への落下物、路端等である。「路面標示」とは、例えば、白線や横断歩道、停止線等である。
 車両センサ群5は、車両2の各種状態を検出する装置の集合体である。各車両センサは、たとえば、車両2の位置情報、走行速度、操舵角、アクセルの操作量、ブレーキの操作量等を検出し、車載ネットワークNを介して走行制御装置3に出力する。
 地図情報管理装置6は、車両2周辺のデジタル地図情報や車両2の走行経路に関する情報を管理及び提供する装置である。地図情報管理装置6は、例えば、ナビゲーション装置等により構成される。地図情報管理装置6は、例えば、車両2の周辺を含む所定地域のデジタル道路地図データを備えており、車両センサ群5から出力される車両2の位置情報等に基づき、地図上での車両2の現在位置、すなわち車両2が走行中の道路や車線を特定するように構成されている。また、特定した車両2の現在位置やその周辺の地図データを、車載ネットワークNを介して走行制御装置3に出力する。
 アクチュエータ群7は、車両の動きを決定する操舵、ブレーキ、アクセル等の制御要素を制御する装置群である。アクチュエータ群7は、運転者によるハンドル、ブレーキペダル、アクセルペダル等の操作情報や走行制御装置3から出力される制御指令値に基づいて、車両の動きを制御する。
(センサ検出可能領域)
 図2は、車両2に搭載される外界センサ群4によるセンサ検出可能領域の概念図である。図2は、センサ検出可能領域を説明するための一例だが、実際には、外界センサ群4は車両システム1の自動運転機能からの検出性能要求を満たすように設置される。
 図2の例では、車両2には6つのセンサ(外界センサ4-1~4-7)が設置されており、それぞれのおおまかなセンサ検出可能領域が、領域111~117で示されている。例えば、領域111に対応する外界センサ4-1は長距離用ミリ波レーダ、領域112に対応する外界センサ4-2はカメラ系センサ、領域113~116にそれぞれ対応する外界センサ4-3~4-6は短距離用ミリ波レーダ、領域117に対応する外界センサ4-7はLiDAR、で構成される。ここでは簡単のため、センサ検出可能領域111~117を車両2を中心とする扇形で表現しているが、実際には各センサの検出範囲に応じた任意の形状でセンサ検出可能領域を表現可能である。なお、センサ検出可能領域の大きさや形状は、外部環境に応じて変化する。
(センサ検出情報)
 図3は、センサ検出情報データ群31に格納されるセンサ検出情報の一例を示す図である。ここでは、外界センサが観測情報に基づき特定した環境要素に関する情報を出力する場合のデータ構造例として、前述の外界センサ4-1(長距離用ミリ波レーダ)のセンサ検出情報のデータ構造例を、外界センサが観測情報を出力する場合のデータ構造例として、前述の外界センサ4-7(LiDAR)のセンサ検出情報のデータ構造例を、それぞれ示している。
 外界センサ4-1のセンサ検出情報データは、検出時刻301-1、検出ID302-1、検出位置303-1、検出種別304-1、存在確率305-1等を含んで構成される。
 検出時刻301-1は、当該エントリの検出情報を検出したタイミングに関する情報である。この情報は時刻情報でもよいし、外界センサ4-1が周期的に検出するセンサである場合は、当該エントリの検出情報がどの周期に該当するかを示す番号でもよい。
 検出ID302-1は、各検出情報エントリを識別するためのIDである。これは、時系列において同一の検出対象物に共通のIDを割り当てるように設定されていてもよいし、毎周期で通し番号のように設定されていてもよい。
 検出位置303-1は、当該エントリにおける検出情報に対応する環境要素が存在する位置に関する情報である。図3では、当該センサの基準座標系における距離rと角度θで表現される極座標を用いているが、直交座標系を用いてもよい。
 検出種別304-1は、当該エントリにおける検出情報が示す環境要素の種別を示している。例えば、車両、歩行者、白線、標識、信号、路端、不明等が挙げられる。
 存在確率305-1は、当該エントリの検出情報に対応する環境要素がどれぐらいの確率で実在するかを示す情報である。例えば、ミリ波レーダの場合、SN比が低下すると検出対象の環境要素からの反射波と雑音との区別が難しくなり、誤検知する可能性が高くなる。外界センサ4-1は、環境要素を特定する処理の中で、SN比や時系列での検出状態に基づき、存在確率(あるいはそれに相当する指標)を算出、設定する。
 外界センサ4-7のセンサ検出情報データは、検出時刻301-7、検出ID302-7、検出位置303-7、SN比304-7等を含んで構成される。
 検出時刻301-7、検出ID302-7、検出位置303-7は、上述した検出時刻301-1、検出ID302-1、検出位置303-1とそれぞれ同等である。
 SN比304-7は、当該エントリの観測情報を観測したときのSN比を示している。なお、ここでは観測情報の信頼度に相当する情報として、SN比を例示したが、受信強度等を用いてもよい。
(センサ検出可能領域)
 図4は、センサ検出可能領域データ群34に格納される情報が表すセンサ検出可能領域の一例を示す図である。センサ検出可能領域は、センサ検出可能領域決定部12において外界センサ群4のセンサグループの単位で決定される。このセンサ検出可能領域のそれぞれに対して、図4のようなデータが生成される。ここでは、所定のセンサグループによるセンサ検出可能領域に対して生成されるデータの構造例を示している。
 外界センサ群4の各センサは、検出対象の角度によって性能差が発生することがある。例えば、カメラ系のセンサは画角の境界部では性能が落ちる。そのため、センサ検出可能領域のデータでは、好ましくは、検出角度に応じて検出可能距離Dが算出される。
 図4のグラフ350は、あるセンサの検出可能角度範囲(θmin~θmax)において算出された検出可能距離Dを可視化したものである。破線360はグラフ350の包絡線を示しており、これが、当該センサによるセンサ検出可能領域での検出角度と検出可能距離の相関を示している。実際には、検出可能角度範囲を所定の角度範囲毎に分割して(図4ではm分割)、それぞれの分割範囲における検出可能距離Dが算出される。図4の表351は、グラフ350に対応するセンサ可能領域を表すデータ構造の一例を示している。
 なお、ここでは、検出角度と検出可能距離の相関という形式でセンサ検出可能領域を表現したが、表現形態はそれに限定しない。図5で後述するようなグリッドマップ上で、各セル位置において当該センサが障害物等の環境要素を検出可能な確率を示すことにより、センサ検出可能領域を表現してもよい。つまり、センサ検出可能領域は、当該センサによる検出対象の検出可否の境界として表現してもよいし、所定の領域に対する当該センサの検出対象の検出可能度合として表現してもよい。
 また、ここでは角度範囲毎に検出可能距離を算出したデータの例を示しているが、さらに好ましくは、検出対象の環境要素の種類に応じて検出可能距離を算出してもよい。ミリ波レーダやLiDARのように電磁波の反射波で観測するセンサは、対象物の電磁波の反射率によって受信強度やSN比が変化する。そのため、対象物の種類に応じて検出可能距離が変わってくることがある。そこで、対象物の種類に応じて検出可能距離を算出することによって、検出可能領域の精度が向上するとともに、対象物の種類に応じて異なる用途において検出可能領域を使い分けることができる。
(周辺検出可能領域)
 図5は、周辺検出可能領域データ群35に格納される情報が表す周辺検出可能領域の一例を示す図である。
 周辺検出可能領域データ群35は、外界センサ群4を用いて車両2の周辺で障害物等の環境要素を検出可能な領域である周辺検出可能領域の情報を表す。これは、外界センサ群4の各センサグループのセンサ検出可能領域を統合することで生成される。図5は、車両2周辺の領域を格子状に分割して表現したグリッドマップにおいて、各セル位置における環境要素の検出可能度合で周辺検出可能領域を表現したものである。周辺検出可能領域データ群35では、例えば図5のようなグリッドマップを示すデータが、周辺検出可能領域を示すデータとして格納される。なお実際には、各セルにおける環境要素の検出可能度合を示す数値(例えば、検出可能確率)が周辺検出可能領域データ群35に格納されているが、図5では各セルの検出可能度合を色の濃淡(検出確率が高いほど色が薄く、低くなると色が濃い)で表現している。
 なお、ここでは各セルの環境要素の検出可能度合により周辺検出可能領域データ群35を表現する例を示したが、その他の表現形式、例えば周辺検出可能領域の境界を明確に定義して、その領域の形状を示すデータを周辺検出可能領域データ群35に格納してもよい。この場合、例えば、図5で説明したような各セルの検出可能度合が所定の閾値よりも高い領域を「周辺検出可能領域」として定義し、その境界部の形状を周辺検出可能領域データ群35により表現することも可能である。
(システム動作)
 図6~図13を用いて、車両システム1の動作を説明する。走行制御装置3は、外界センサ群4等から取得した情報に基づいて、外界センサ群4のセンサグループ毎にセンサ検出可能領域を動的に決定し、それらの情報を統合して車両2周辺において外界センサ群4で障害物等の環境要素の有無を安全に判断可能な領域を示す周辺検出可能領域や周辺冗長検出可能領域を決定する。そして、外界センサ群4の検出情報と各種検出可能領域に基づき、当該道路環境において安全な運転を維持可能な走行制御モードを決定するとともに、同走行制御モードにおいて車両2を安全に制御するための走行制御情報を生成し、アクチュエータ群7に出力する。アクチュエータ群7は、走行制御装置3が出力する走行制御情報に従い、車両2の各アクチュエータを制御することにより、車両2の走行制御が実現される。これにより、外部環境の変化に拠るセンサの性能低下や道路環境の性能要求に対して柔軟に安全な自動運転を継続する。
 図6は走行制御装置3が実現する機能の相関関係を示す図である。
 情報取得部11は、車載ネットワークNを介して他の装置から必要な情報を取得し、記憶部30に格納する。具体的には、外界センサ群4からセンサ検出情報データ群31を、車両センサ群5から車両情報データ群32を、地図情報管理装置6から走行環境データ群33を、それぞれ取得し、記憶部30に格納して後段の処理部に受け渡す。
 センサ検出可能領域決定部12は、情報取得部11から取得したセンサ検出情報データ群31と車両情報データ群32に基づき、外界センサ群4のセンサグループ毎に検出可能領域を決定する。そして、決定した各検出可能領域を示すデータをセンサ検出可能領域データ群34として記憶部30に格納し、後段の処理部に受け渡す。
 周辺検出可能領域決定部13及び周辺冗長検出可能領域決定部14は、センサ検出可能領域決定部12から取得したセンサ検出可能領域データ群34に基づき、それぞれ周辺検出可能領域と周辺冗長検出可能領域を決定する。そして、決定した周辺検出可能領域と周辺冗長検出可能領域を示すデータを周辺検出可能領域データ群35として記憶部30に格納し、後段の処理部に受け渡す。
 センサ検出情報統合部15は、情報取得部11から取得したセンサ検出情報データ群31と車両情報データ群32に基づき、外界センサ群4における複数のセンサグループの検出情報を統合した統合検出情報データ群36を生成し、記憶部30に格納する。そして、生成した統合検出情報データ群36を走行制御情報生成部17に出力する。
 走行制御モード判断部16は、情報取得部11から取得した走行環境データ群33や、周辺検出可能領域決定部13と周辺冗長検出可能領域決定部14から取得した周辺検出可能領域データ群35、システムパラメータデータ群38に格納された車両システム1や走行制御装置3のシステム状態(故障状態、乗員の指示モード等)や走行環境に求められる検出性能要件に基づき、車両2の走行制御モードを判断する。そして、その判断結果をシステムパラメータデータ群38の一部として記憶部30に格納し、走行制御情報生成部17と情報出力部18に出力する。なお、システムパラメータデータ群38に関する情報は、走行制御装置3の外部装置や各処理部により生成され得るものであるが、図6上では省略している。
 走行制御情報生成部17は、センサ検出情報統合部15から取得した統合検出情報データ群36や、周辺検出可能領域決定部13と周辺冗長検出可能領域決定部14から取得した周辺検出可能領域データ群35、情報取得部11から取得した車両情報データ群32と走行環境データ群33、走行制御モード判断部16から取得したシステムパラメータデータ群38に含まれる車両2の走行制御モードの判断結果等に基づき、車両2の走行制御モードを決定して走行制御の軌道を計画し、同軌道を追従する制御指令値等を生成する。そして、これらの情報を含む走行制御情報データ群37を生成し、記憶部30に格納するとともに、情報出力部18に出力する。
 情報出力部18は、走行制御情報生成部17から取得した走行制御情報データ群37に基づき、車両2の走行制御情報を出力する。例えば、制御指令値を含む走行制御情報をアクチュエータ群7に出力したり、現在の走行制御モードを含む走行制御情報を他装置へ出力したりする。
(センサ検出可能領域決定処理)
 図7は、センサ検出可能領域決定部12の処理を説明するフローチャートである。センサ検出可能領域決定部12は、センサグループ毎にS501~S507の処理を実行することで、各センサグループのセンサ検出可能領域データを生成し、センサ検出可能領域データ群34として記憶部30に格納する。
 まず、S501において、センサ検出情報データ群31と車両情報データ群32を記憶部30から取得する。なお、センサ検出情報データ群31には、情報取得部11が取得した外界センサ群4の最新の検出情報(検出情報(t))に加え、センサ検出可能領域決定部12が前回の処理で扱った検出情報に関連するデータ(検出情報(t-1))も含まれているものとする。
 続いてS502において、検出情報(t-1)を現在の車両2の状態に合わせて更新する。具体的には、検出情報(t-1)から時刻tにおける検出対象の環境要素の状態を予測するとともに、車両情報データ群32に基づき、その予測結果を時刻tの車両2の状態に基づく座標系での表現に変換する。これによりS503において、S502で検出情報(t)から得られた予測情報と、前回のS502で得られた検出情報(t-1)からの予測情報とを、車両2を基準に統合することが可能となり、時系列の情報を組み合わせてロバストに検出対象の状態を推定することができる。これは例えば、カルマンフィルタ等の処理に該当する。
 S504では、S503で行った検出情報の統合結果に基づき、検出情報(t)の検出対象である環境要素の種別を判定する。環境要素の種別とは、図3に示したセンサ検出情報データ群31の検出種別304-1に相当する情報であり、例えば、車両、歩行者、路面、白線、路端、信号、不明等が該当する。
 S502~S504の処理は、外界センサによる観測情報を用いた認識処理や、センサ検出情報統合部15による検出情報のセンサフュージョン処理に相当する。ここでは、センサ検出可能領域決定部12がそれらと独立して同等の処理を行うように記述したが、同等の処理が施されたセンサ検出情報データ群31の検出種別304-1の情報をそのまま利用してもよい。一方、図3の外界センサ4-7のように、外界センサから検出情報として観測情報が出力されるような場合は、その検出情報には検出種別に関する情報は含まれていない。そのため、後述するように検出対象の種別を用いた処理を行う場合、観測情報を統合して検出対象の種別を判定する処理が前段処理として必要となる。例えば、LiDARの観測点の情報(点群情報)が検出情報である場合が該当する。ただし、この場合においても、センサ検出情報統合部15が当該センサの観測情報を走行制御情報生成部17が利用する環境要素に関する情報に変換する必要があり、S502~S504はその過程で実行される処理であるため、センサ検出情報統合部15の演算結果を取得して利用してもよい。
 続いてS505において、検出情報に含まれる検出位置と信頼度に関する情報に基づき、検出距離と信頼度の相関情報を統計的に算出する。例えば、外界センサ群4のうち、図3の外界センサ4-1の場合は、検出位置303-1のrの値が検出距離に該当し、存在確率305-1の値が信頼度に該当する。また、図3の外界センサ4-7の場合は、検出位置303-7のrの値が検出距離に該当し、SN比304-7の値が信頼度に該当する。例えば、外界センサ4-1では、{検出距離、信頼度}の組合せの時系列データのサンプルとして、(40.0, 0.95)、(50.0, 0.95)、(90.0, 0.7)等が得られる。検出距離と信頼度の相関情報は、天候等の現在の外部環境における当該外界センサの検出性能を推定することが目的である。外部環境は外界センサ群4の検出周期や制御周期と比較して急激に変化しないので、所定時間の時系列情報をサンプルとして扱え、統計的に十分なサンプルを得ることが可能である。
 図8は、検出距離と信頼度の相関情報の算出方法の一例を示したものである。図8のグラフ600は、通常時の外部環境における検出距離と信頼度の各組合せのサンプル601に対する回帰曲線602を示している。レーダやLiDARのような電磁波の反射波で観測するセンサは、検出距離が長くなると反射波の減衰が大きくなるため、信頼度は低下していく。また、カメラ系のセンサも、遠方の対象物に対する解像度は落ちるため、やはり信頼度は低下していく。そのため、いずれのセンサにおいても、検出距離に応じて信頼度が低下するような時系列データが得られ、それに基づいてグラフ600のような相関グラフを得ることができる。
 図8のグラフ610は、例えば豪雨のような悪天候下における検出距離と信頼度の各組合せのサンプル611に対する回帰曲線612を示している。レーダやLiDARのような電磁波系のセンサでは、悪天候下では雨滴や水蒸気等の影響により反射波の減衰率が高まり、検出距離に対する信頼度が通常時と比較して低下する時系列データが得られる。カメラ系のセンサにおいても、悪天候下では遠方に行くほど視界不良となり、複数画像に基づき距離を算出するための視差情報や、認識処理の上での対象物の輪郭にノイズが載り、やはり同様の結果を示す。そのため、グラフ610は、グラフ600と比較して、より短い検出距離において信頼度が減衰するような形状となる。
 検出距離と信頼度の相関は、当該センサのすべての検出情報に対して一様に統計処理してもよいが、特定の指標で分類して、分類毎に統計処理してもよい。例えば、センサに拠っては、検出角度によって性能差が発生するものがある。カメラ系センサは、視野角の境界部分は検出性能が下がるし、レーダやソナーにおいても広角になるほど検出性能は低下する。そのため、所定の角度範囲毎に検出情報の統計処理を行って当該センサの検出距離と信頼度の関係性を決定することが好ましい。また、センサに拠っては、検出対象の種別に応じて性能差が発生するものがある。電磁波系のセンサでは、対象物に応じて電磁波の反射率が異なることにより、検出しやすいものとしにくいものがある。それらを混在して統計処理するのではなく、検出対象の種別毎に統計処理をすることで、より精度高く検出距離と信頼度の相関を得ることが可能である。
 図7のS505が終了すると、センサ検出可能領域決定部12は、その相関情報に基づき、当該センサグループに対するセンサ検出可能領域データを決定する(S506)。センサ検出可能領域データは、図4に示したように、例えば、所定の分類毎の検出可能距離Dの集合体として表現される。検出可能距離Dは、S504で得られた所定の分類毎の検出距離と信頼度の相関情報に対して、信頼度が所定の閾値Th以上を維持可能な検出距離の範囲を求めることで得られる。例えば、図8のグラフ600においては検出距離D1が、グラフ610においては検出距離D2が、それぞれ該当する。
 なお、ここでは、検出距離と信頼度の相関を示す回帰曲線を算出した上で閾値Thとの交点を求めて検出可能距離Dを算出したが、実現手段はその方式に限らない。図4のグラフ350のように、検出距離と信頼度の相関を離散的に表現した上で検出可能距離Dを求めてもよい。また、検出可能領域データは、必ずしも検出可能距離Dという境界値の表現である必要はなく、検出距離に対する信頼度の相関情報そのもの(回帰曲線等)としても問題はない。
 図7のS506が終了すると、センサ検出可能領域決定部12は、センサ検出可能領域データ群34に、S505で得られたセンサ検出可能領域データを格納し、当該センサグループの処理を終了して、次のセンサグループの処理S501~S507を実行する。すべてのセンサグループの処理が完了すると、センサ検出可能領域決定処理は終了する。
(周辺検出可能領域決定処理及び周辺冗長検出可能領域決定処理)
 周辺検出可能領域決定部13は、センサ検出可能領域決定部12が決定した各センサグループのセンサ検出可能領域(センサ検出可能領域データ群34)に基づき、車両2の周辺で外界センサ群4を用いて障害物等の環境要素を検出可能な領域である周辺検出可能領域を決定し、周辺検出可能領域データ群35として記憶部30に格納する。
 周辺冗長検出可能領域決定部14の処理も同様で、センサ検出可能領域データ群34に基づき、外界センサ群4の2つ以上の個別センサもしくはセンサグループにより車両2の周辺で障害物等の環境要素を冗長的に検出可能な領域である周辺冗長検出可能領域を決定し、周辺検出可能領域データ群35の一部として記憶部30に格納する。
 周辺検出可能領域及び周辺冗長検出可能領域の決定手法としては、センサ検出可能領域データ群34の表現形態に応じて様々なものが考えられる。例えば、外界センサ群4の各センサグループの検出可能領域が、各検出角度の検出可能距離Dを結んで表現されているものとする。その場合、図2の領域111~領域117のような任意の形状で各センサ検出可能領域が表現されるが、例えば、周辺検出可能領域はそれらの形状を接合するような形状(図9の領域701)、周辺冗長検出可能領域はそれらの2つ以上の形状が重なっている領域を接合するような形状(図9の領域702~704)として、それぞれ定義してよい。
 また例えば、外界センサ群4の各センサグループの検出可能領域が、検出距離と信頼度の相関情報として表現されているものとする。その場合、各センサグループの検出可能領域において、各極座標(検出角度、検出距離)における信頼度情報が存在するため、この信頼度情報から車両2周辺の各位置における各センサグループの検出信頼度を求めることができる。そこで、車両2周辺の各位置において、センサ検出可能領域データ群34が表す各センサグループの検出情報に含まれる検出信頼度を確率論的に統合したものを、周辺検出可能領域や周辺冗長検出可能領域としてよい。なお、検出信頼度は、確率的情報として扱えるものとする。
 センサグループ1~k(kは2以上の自然数)の車両2周辺の座標(X,Y)における検出信頼度をr1(X,Y),…,rk(X,Y)とすると、周辺検出可能領域の座標(X,Y)における検出信頼度Rは、例えば以下の数式で求められる。
 R=1-{(1-r1(X,Y))×…×(1-rk(X,Y))}
 これは1つ以上のセンサグループにより検出対象の環境要素を検出可能な確率を表している。これをグリッドマップ上に表現した場合は、図5の周辺検出可能領域データ群35のような表現になる。
 また同様にして、周辺冗長検出可能領域の座標(X,Y)における冗長検出信頼度Rrは、例えば以下の数式で求められる。
 Rr=R-{r1(X,Y)×…×(1-rk(X,Y))}-…-{(1-r1(X,Y)×…×rk(X,Y)}
 これは2つ以上のセンサグループにより検出対象の環境要素を検出可能な確率を表しており、周辺検出可能領域と同様にしてグリッドマップ等により表現される。
 なお、上記のようにして算出される検出信頼度Rや冗長検出信頼度Rrを用いて周辺検出可能領域もしくは周辺冗長検出可能領域を定義する場合、グリッドマップ上で検出信頼度もしくは冗長検出信頼度を表現したものとしてそれぞれ定義してもよいし、その信頼度が所定の閾値以上となる領域として定義してもよいし、グリッドマップではなくその領域の境界を形状として表現してもよい。
 また、センサ検出可能領域データが、環境要素の種別毎に定義されている場合は、所定種別のセンサ検出可能領域データだけを用いて周辺検出可能領域と周辺冗長検出可能領域を求めてもよいし、任意の複数の種別のセンサ検出可能領域データを用いて求めてもよい。複数種別を用いて求める場合は、センサグループ毎に複数種別のセンサ検出可能領域データを統合してから求めても良いし、種別毎にセンサ検出可能領域データを統合して求めてもよい。センサグループ毎に複数種別のセンサ検出可能領域データを統合する場合は、例えば、検出可能距離Dもしくは検出信頼度の最小値もしくは最大値を取るようにして統合してもよいし、種別に応じて重み付けした検出信頼度を算出して統合してもよい。
 周辺検出可能領域決定部13および周辺冗長検出可能領域決定部14は、センサ検出可能領域決定部12が外界センサ群4のセンサグループのそれぞれに対して決定した検出距離と信頼度の関係性に基づき、上記のようにして周辺検出可能領域と周辺冗長検出可能領域をそれぞれ決定することができる。
(センサ検出情報統合処理)
 センサ検出情報統合部15は、情報取得部11から取得したセンサ検出情報データ群31と車両情報データ群32に基づき、複数の外界センサの検出情報を統合した統合検出情報データ群36を生成し、記憶部30に格納する。
 センサ検出情報統合処理は、検出情報のセンサフュージョン処理に相当する。前述の周辺検出可能領域決定処理や周辺冗長検出可能領域決定処理は、その時点での外部環境における外界センサの性能限界を求めることを目的としているのに対し、センサ検出情報統合処理は、各外界センサの検出情報を統合して車両2周辺の走行環境を高信頼に理解することを目的としている。例えば、他車両、白線等の環境要素を対象とした検出情報の統合や、検出対象に遮蔽された領域の特定を行う。検出対象に遮蔽された領域とは、本来であれば外界センサにより検出可能な領域であるにもかかわらず障害物等に遮蔽されて検出不能となっている領域(死角領域)である。走行制御情報生成部17では、外界センサ群4によって検出された環境要素だけでなく、そのような外界センサの死角領域に潜む潜在的な障害物の存在も意識して、走行を制御する必要がある。
(走行制御モード判断処理)
 図10、図11を用いて走行制御モード判断部16の処理を説明する。走行制御モード判断部16は、走行環境データ群33や周辺検出可能領域データ群35、車両システム1や走行制御装置3のシステム状態(故障状態、乗員の指示モード等)等を含むシステムパラメータデータ群38に基づき、車両システム1の走行制御モードを判断する。車両システム1の故障状態や乗員からの自動運転指示に従い、車両システム1を適切なシステム状態に移行させることに加え、走行環境のセンサに対する検出性能要求と、周辺検出可能領域や周辺冗長検出可能領域に示される実際のセンサの限界性能に基づき、走行制御モードを判断する。
 図10は、走行環境のセンサに対する検出性能要求を示す情報である走行環境検出性能要求情報の例である。なお、走行環境検出性能要求情報は、車両システム1の振舞いを決定するシステムパラメータの一種であり、システムパラメータデータ群38に格納されている想定である。
 走行環境種別条件801は、当該エントリが対象とする道路種別の条件を表し、高速道、専用道(高速道除く)、一般道などが指定される。
 走行環境条件詳細802は、当該エントリが対象とする走行環境に関する詳細条件を表し、例えば、具体的な道路名、道路属性(車線数、最大曲率、道路工事有無等)等を用いて表現される。図10では、具体的な道路名を詳細条件とする一例として「高速道A」が示されている。なお、「*」はワイルドカードであり、任意の条件が適用されることを意味する。
 性能要件803は、走行環境種別条件801と走行環境詳細条件802の組合せで表現される走行環境条件において、外界センサ群4に要求される検出性能を示す。例えば、図10では、車両2に対する検出方向(前方、後方、側方)と検出距離の組合せで表現されている。なお、前方、後方、側方の各検出方向に対して要求される具体的な領域の形状については、検出距離に応じて適切に定義されているものとする。
 図11は、走行制御モード判断処理を説明するフローチャートである。走行制御モード判断部16は、S901~S907の処理を実行することで、車両システム1の走行制御モードを判断し、必要に応じて走行制御モードの変更処理及び通知を行う。
 走行制御モード判断部16は、S901において、走行環境データ群33から走行経路上の走行環境データを取得する。そしてS902において、当該走行環境データに含まれる道路情報を参照し、図10に示した走行環境検出性能要求情報から該当する性能要件を特定する。例えば、車両2が高速道Aではない高速道を走行中の場合は、走行環境種別条件801が「高速道」であり、走行環境条件詳細802が「*」である行において、性能要件803に示されている「前方120m以上かつ後方60m以上」が、外界センサ群4に対する性能要件に該当する。
 続いてS903において、走行制御モード判断部16は、周辺検出可能領域データ群35から現在の走行制御モードに応じた周辺検出可能領域または周辺冗長検出可能領域を取得する。車両システム1の走行制御モードは、例えば、自動運転レベルで規定される。SAE(Society of Automotive Engineers)のJ3016の規格によれば、自動運転レベル2以下の場合は運転者が安全運転に対する責任を持ち、自動運転レベル3以上の場合はシステムが安全運転に対する責任を持つことになる。そのため、車両システム1が自動運転レベル3以上の走行制御モードで動作する場合は、センサ/アクチュエータの故障や誤動作に対応するため、原則として冗長化されたシステム構成を組む必要がある。したがって、現在の走行制御モードが自動運転レベル3以上の場合は、冗長性を以て性能要件を満たす必要があるため、周辺検出可能領域データ群35において、周辺冗長検出可能領域決定部14が決定した周辺冗長検出可能領域を参照する。一方、自動運転レベル2以下であれば、冗長性は不要であるため、周辺検出可能領域データ群35において、周辺検出可能領域決定部13が決定した周辺検出可能領域を参照すればよい。
 次にS904で、走行制御モード判断部16は、S902で取得した性能要件とS903で取得した周辺検出可能領域または周辺冗長検出可能領域のデータを比較して、性能要件が満たされているかを判断する。図10の例では、性能要件803において、車両2に対する検出方向と検出可能距離の組合せで外界センサ群4に対する性能要件が表現されているが、これは前述のように、各検出方向に対して要求される具体的な領域の形状が検出距離に応じて適切に定義されている想定である。そのため、S902で取得した性能要件を領域の情報に変換して、周辺検出可能領域や周辺冗長検出可能領域のデータと比較することが可能である。なお、これとは反対に、S903で取得した周辺検出可能領域や周辺冗長検出可能領域のデータの方を、走行環境検出性能要求情報における性能要件の表現に適合させて、検出方向毎の検出可能距離という形式で表現し、S902で取得した性能要件と比較するようにしてもよい。
 比較の結果、性能要件で示される領域が周辺検出可能領域または周辺冗長検出可能領域の範囲に収まっている場合、これは外界センサ群4が現在の走行制御モードに対する性能要件を満たしていることを意味するので、走行制御モードを変更せずに走行制御モード判断処理を終了する(S904でNo)。一方、収まらない場合は、外界センサ群4が現在の走行制御モードに対する性能要件を満たしていないと判定し、S905に進む(S904でYes)。
 S905では、走行制御モード判断部16は、走行環境性能要件を満たす走行制御モードを特定する。ここでは、例えば手動運転モード、自動運転レベル2モード、自動運転レベル3モードの3つの走行制御モードが存在すると仮定し、現在は自動運転レベル3モードが選択されているものとする。この場合、S904で自動運転レベル3モードの性能要件を満たしていないことが判明すると、次に自動運転レベル2モードの性能要件を満たしているかどうかを判断する。もしも、満たしている場合は、自動運転レベル2モードが選択される。それでも性能要件を満たすことができない場合は、手動運転モードが選択される。S905では、このように上位の走行制御モードから下位の走行制御モードの順に、S902で取得した性能要件を満たすか否かが判定され、性能要件を満たすと判定された走行制御モードが選択される。
 なお、ここでは説明のため、自動運転レベルを例に説明したが、自動運転機能のレベルを定義してモードを細分化してもよい。例えば、自動運転レベル2モードでも、自動で車線変更を判断するモードと、手動で指示しないと車線変更できないモード、車線追従しか許さないモード等に分割することも可能である。例えば、車線追従のみの場合は、側方の性能要件は不要となるので、走行環境とは別に走行制御モード毎に検出性能要件を規定して、走行環境と走行制御モードの両方の検出性能要件が満たしているかどうかに基づいて、適切な走行制御モードを判断することも可能である。その場合は、走行環境の検出性能要件では、その道路環境で走行制御を有効にする最小限の条件を記載し、走行制御モード側の検出性能要件でより厳しい条件を規定するような形態になる。
 S905で走行制御モードが選択されると、S906において走行制御モードの変更処理を行う。車両システム1全体として整合性を担保するための装置間の調停や、運転者に制御を移すための運転車とのインタラクション等を通じて、最終的な走行制御モードが決定される。そしてS907において、決定された走行制御モードを関係する機能や周辺装置に通知して、本処理を終了する。
 走行制御モード判断部16は、周辺検出可能領域決定部13が決定した周辺検出可能領域または周辺冗長検出可能領域決定部14が決定した周辺冗長検出可能領域に基づき、上記のようにして車両2が対応可能な自動運転レベルに応じた走行制御モードを判断し、車両システム1において採用する走行制御モードを選択することができる。
(走行制御計画処理)
 走行制御情報生成部17は、車両2が走行環境データ群33の走行経路に示される目的地に向かって安全で快適に走行できるように、車両2に対する走行制御計画処理を実施する。この走行制御計画処理では、走行環境データ群33や統合検出情報データ群36が表す交通ルールに沿って、外界センサ群4で検出された障害物を回避しながら、安全で快適な車両2の走行軌道を生成し、その走行軌道を追従するための制御指令値を生成するのが基本的な処理の流れである。本発明において特徴的なのは、安全で快適な走行軌道を生成する上で、さらに周辺検出可能領域データ群35を活用する点である。
 外界センサ群4の性能限界は、外部環境に応じて変化する。図12は、外部環境に応じて変化する周辺検出可能領域の例を示している。図12の左図1001は外部環境が通常時の状況を、右図1002は外部環境が悪天候時等により外界センサ群4の検出性能が劣化している状況を、それぞれ示している。悪天候時は、外界センサの検出可能距離が短くなるので、周辺検出可能領域も狭くなる。周辺検出可能領域を超えた位置では、検出情報がなかったとしても、外界センサ群4で障害物を検出できていないだけの可能性がある。悪天候などにより外界センサの検出性能が劣化していることを意識しないで、通常時と同様に走行軌道を生成してしまうと、障害物に追突したり、急減速による乗り心地悪化につながったりする危険性がある。
 そこで、走行制御情報生成部17では、例えば、車両2が周辺検出可能領域の範囲で安全に停止できるような速度で走行する軌道を生成するようにする。車両2において許容できる減速度をα、車両2の現在の速度をvとすると、車両2が減速を開始してから停止するまでの距離はv/2αである。走行経路において車両2の現在位置から潜在危険度が高い領域と交わる箇所までの距離をLとすると、少なくともL>v/2αを満たすように車両2の速度を制御する必要がある。ただし、これでは当該条件を満たさなくなった時点で急減速がかかってしまうため、実際には当該条件を満たさなくなる前に、緩やかに減速しておくことが望ましい。例えば、車両2が当該条件を満たさなくなる地点に到達するまでの時間TTB(Time To Braking)を指標として導入し、これに基づいて車両2の速度を調整する方式が挙げられる。なお、TTBは(L-v/2α)/vで算出可能である。急減速を回避するために、例えば、TTBが所定値以下になった場合に緩やかに減速(<α)をかけるようにしてもよいし、TTBが所定値以上となるように速度を制御してもよい。
 図13は通常時と悪天候時における周辺検出可能領域に応じた目標速度の算出方法の一例を示した図である。図13(a)、(b)では、横軸が走行経路上の距離、縦軸が自車両2の速度をそれぞれ表している。図13(a)が図12の通常時における直進経路1011の目標速度を算出する際の図、図13(b)が図12の悪天候時における直進経路1012の目標速度を算出する際の図、にそれぞれ相当する。
 通常時は、図12の左図1001における距離L1で、車両2の直進経路1011が周辺検出可能領域の外側の領域、すなわち外界センサ群4による障害物の検出性能が低い領域と交わっている。車両2がこの距離L1の手前で停止するための減速開始点は、図13(a)に示すように、L1からv/2α手前の位置となる(減速開始点位置1201)。それに対し、TTB≧T0を満たすためには、減速開始点が現在位置からT0・v前方にないといけない(減速開始点位置1202)。この両者の交点1203が、条件を満たす最高速度となる。ここでの例では、理想的な速度(法定速度等)に対して交点1203が上回っているので、目標速度は理想的な速度に設定することとなる。
 一方、悪天候時は、図12の右図1002に示すように、車両2の直進経路1012が周辺検出可能領域の外側の領域、すなわち外界センサ群4による障害物の検出性能が低い領域と交わるまでの距離L2が、通常時の距離L1よりも短くなるため(L2<L1)、図13(b)に示すように、条件を満たす交点が理想的な速度よりも低くなる。これは、車両2が通常時よりも減速して走行する必要があることを意味しており、悪天候などより前方が視界不良時に、安全のため人が減速して走行することに相当する。
 なお、ここでは障害物が存在しない想定で説明したが、実際には障害物により外界センサの検出が遮蔽されてしまう場合がある。障害物の遮蔽による死角領域の情報は、前述のように、センサ検出情報統合部15が行うセンサ検出情報統合処理によって特定される。走行制御情報生成部17は、その死角領域による影響を周辺検出可能領域に反映した上で、上述した手段で目標速度を求めることが望ましい。
(走行制御情報生成処理)
 走行制御情報生成部17は、走行制御モード判断部16が上記の走行制御計画処理を実施することで決定した車両システム1の走行制御モードと、走行制御情報生成部17が上記の走行制御計画処理を実施することで決定した制御指令値とに基づき、車両2に対する走行制御情報を生成する。これにより、外界センサ群4の各センサの検出情報と、周辺検出可能領域決定部13が決定した周辺検出可能領域および周辺冗長検出可能領域決定部14が決定した周辺冗長検出可能領域の少なくとも一方とに基づいて、走行制御情報を生成することができる。したがって、センサの検出性能を十分に考慮した走行制御を行うことが可能となる。
 上記実施形態に拠れば、外界センサの検出情報に含まれる検出位置と検出信頼度の情報を用いて統計的に分析することにより、検出可能領域を動的に算出している。これにより、外部環境によって変化する外界センサの性能限界の領域を定量化可能となり、外界センサの性能低下を意識した走行制御を行うことが可能となる。
 上記実施形態に拠れば、外部環境に応じて変化するセンサの性能限界を定量化することが可能となるため、その性能限界に応じた柔軟な走行制御モードの設定が可能である。例えば、走行環境における走行制御モードの性能要件を、その時点の性能限界と定量比較することにより、車両システム1が機能を担保できる走行制御モードを適切に選択することができる。センサの性能限界が定量化されていない場合、性能要件を満足しているかどうかを適切に判定できないため、より安全側に走行制御モードを判断せざるを得ない。それにより、本来であれば自動運転を継続できるような場合でも、自動運転を停止させることになり、自動運転機能としての可用性が低下する。それに対し、本発明では安全性を担保しつつ、最大限に機能を継続することが可能であり、可用性が向上する効果がある。
 上記実施形態に拠れば、外部環境に応じて変化するセンサの性能限界を定量化することが可能となるため、その性能限界に応じた安全な走行制御計画が可能となる。外界センサ群4で障害物を高信頼に検出可能な領域の範囲内で安全に停止できるような速度で走行するように制御することで、悪天候などの視界不良時において安全な速度で走行することが可能となる。センサの性能限界が定量化されていない場合、安全な走行速度を適切に判断することができないため、より安全側に速度を落として走行せざるを得ない。それにより、過度に減速した走行となり、乗員に与える乗り心地が悪化するという問題がある。それに対し、本発明では、安全性を担保しつつ、適切な減速に抑えて走行を継続可能であるため、乗り心地が改善されるという効果がある。
 以上説明した本発明の一実施形態によれば、以下の作用効果を奏する。
(1)車両2に搭載されるECUである走行制御装置3は、車両2に搭載される外界センサ群4の検出情報に基づき、外界センサ群4が車両2の周辺に存在する環境要素を検出可能な領域を示すセンサ検出可能領域を決定するセンサ検出可能領域決定部12と、外界センサ群4の検出情報と、センサ検出可能領域決定部12が決定したセンサ検出可能領域とに基づいて、車両2の走行制御情報を生成する走行制御情報生成部17と、走行制御情報生成部17が生成した走行制御情報を出力する情報出力部18とを備える。このようにしたので、外部環境の変化によるセンサの性能低下に対して、柔軟かつ安全に走行制御を継続可能なECUを提供することができる。
(2)外界センサ群4の検出情報は、環境要素の位置を表す位置情報と、当該検出情報に対する信頼度情報とを含む。センサ検出可能領域決定部12は、位置情報と信頼度情報に基づき外界センサ群4における検出距離と信頼度の関係性を決定し(S505)、その関係性に基づきセンサ検出可能領域を決定する(S506)。このようにしたので、外界センサ群4の検出性能に応じたセンサ検出可能領域を適切に決定することができる。
(3)センサ検出可能領域決定部12は、S505において、外界センサ群4の検出情報の時系列データに基づいて検出距離と信頼度の関係性を決定する。このようにしたので、天候等の外部環境の影響により外界センサ群4の検出性能が変動し、これに応じて検出距離と信頼度の関係性が変化する場合でも、その変化を適切に反映してセンサ検出可能領域を決定することができる。
(4)センサ検出可能領域決定部12は、S506において、検出距離と信頼度の関係性に基づき、信頼度が所定の閾値Th以上の検出距離の範囲を、センサ検出可能領域と決定することができる。このようにすれば、外界センサ群4の検出距離と信頼度の関係性に応じたセンサ検出可能領域を適切に決定することができる。
(5)また、センサ検出可能領域決定部12は、所定の角度範囲毎に検出距離と信頼度の関係性を決定して、センサ検出可能領域を決定することもできる。このようにすれば、例えばカメラやレーダのように検出角度によって性能差が発生するセンサについても、センサ検出可能領域を適切に決定することができる。
(6)走行制御装置3は、車両2に搭載される外界センサ群4の複数のセンサに対して、当該複数のセンサを用いて車両2の周辺で環境要素を検出可能な領域を示す周辺検出可能領域を決定する周辺検出可能領域決定部13をさらに備える。走行制御情報生成部17は、外界センサ群4の検出情報と、周辺検出可能領域決定部13が決定した周辺検出可能領域とに基づいて、走行制御情報を生成する。このようにしたので、外界センサ群4の性能限界を考慮して、安全で快適な車両2の走行軌道を実現する走行制御情報を生成することができる。
(7)周辺検出可能領域決定部13は、センサ検出可能領域決定部12が外界センサ群4の複数のセンサそれぞれに対して決定した検出距離と信頼度の関係性に基づき、周辺検出可能領域を決定する。このようにしたので、外界センサ群4として様々なセンサが車両2に搭載される場合に、周辺検出可能領域を適切に設定することができる。
(8)外界センサ群4の検出情報における信頼度情報とは、検出対象の環境要素が実在する確率的情報である。周辺検出可能領域決定部13は、車両2の周辺における各位置に対して、外界センサ群4の複数のセンサそれぞれの検出情報に含まれる確率的情報を確率論的に統合することにより、例えば図5に示したような周辺検出可能領域を決定することができる。このように、車両2の周辺においてセンサ検出可能領域をきめ細かく設定することで、より一層安全で快適な車両2の走行軌道を実現可能な走行制御情報を生成することができる。
(9)走行制御装置3は、車両2に搭載される外界センサ群4の複数のセンサのうち少なくとも2つ以上のセンサにより、車両2の周辺で環境要素を冗長的に検出可能な領域を示す周辺冗長検出可能領域を決定する、周辺冗長検出可能領域決定部14をさらに備える。走行制御情報生成部17は、外界センサ群4の検出情報と、周辺検出可能領域決定部13が決定した周辺検出可能領域および周辺冗長検出可能領域決定部14が決定した周辺冗長検出可能領域の少なくとも一方とに基づいて、走行制御情報を生成する。このようにしたので、例えば自動運転レベル3以上の走行制御モードで動作する場合のように、冗長化されたシステム構成が必要となる場合でも、これを考慮して安全で快適な車両2の走行軌道を実現する走行制御情報を生成することができる。
(10)走行制御装置3は、周辺検出可能領域決定部13が決定した周辺検出可能領域または周辺冗長検出可能領域決定部14が決定した周辺冗長検出可能領域に基づき、車両2が対応可能な自動運転レベルに応じた走行制御モードを判断する走行制御モード判断部16をさらに備える。このようにしたので、車両2の外部環境を考慮して適用可能な自動運転レベルを適切に判断し、その自動運転レベルに応じた走行制御モードを設定することができる。
(11)外界センサ群4は、例えばレーダやLiDARのように、照射した電磁波の反射波に基づき物体を検出するセンサを含んで構成することができる。この場合、当該センサの検出情報に含まれる信頼度情報は、反射波の受信強度または信号対雑音比のいずれかに基づく情報とすることができる。このようにすれば、当該センサの検出対象である環境要素が実在する確率を反映して、信頼度情報を適切に設定することができる。
 なお、以上で説明した実施形態は一例であり、本発明はこれに限られない。すなわち、様々な応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
 例えば、上記実施形態では、図8の閾値Thは固定値として説明したが、車両2のシステム状態に応じて動的に変更してもよい。例えば、走行制御モード判断部16の判断結果に応じて選択された車両2の走行制御モードが自動運転レベル3以上であり、システムが安全運転に対する責任を負う必要がある場合は安全側に判断した方がよいため、閾値Thを高く設定してもよい。このように、走行制御モード判断部16による走行制御モードの判断結果に基づいて、センサ検出可能領域決定部12がセンサ検出可能領域を決定する際に用いる閾値Thを決定することで、より柔軟にセンサ検出可能領域を設定することが可能となる。
 例えば、上記実施形態では、走行制御装置3において、各処理は、同一の処理部10及び記憶部30で実行される想定で記載しているが、処理部10や記憶部30を複数に分けて構成し、各処理が複数の異なる処理部及び記憶部で実行されてもよい。その場合は、例えば、同様の構成を持つ処理ソフトウェアがそれぞれの記憶部に搭載され、それぞれの処理部で分担して当該処理を実行する形になる。
 また、走行制御装置3の各処理を、プロセッサとRAMを用いて、所定の動作プログラムを実行することで実現しているが、必要に応じて独自のハードウェアで実現することも可能である。また、上記の実施形態では、外界センサ群、車両センサ群、アクチュエータ群を個別の装置として記載しているが、必要に応じて任意のいずれか2つ以上を組合せて実現することも可能である。
 また、図面には、実施形態を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
 1:車両システム、2:車両、3:走行制御装置、4:外界センサ群、5:車両センサ群、6:地図情報管理装置、7:アクチュエータ群、10:処理部、11:情報取得部、12:センサ検出可能領域決定部、13:周辺検出可能領域決定部、14:周辺冗長検出可能領域決定部、15:センサ検出情報統合部、16:走行制御モード判断部、17:走行制御情報生成部、18:情報出力部、30:記憶部、31:センサ検出情報データ群、32:車両情報データ群、33:走行環境データ群、34:センサ検出可能領域データ群、35:周辺検出可能領域データ群、36:統合検出情報データ群、37:走行制御情報データ群、38:システムパラメータデータ群、40:通信部

Claims (13)

  1.  車両に搭載される電子制御装置であって、
     前記車両に搭載されるセンサの検出情報に基づき、前記センサが前記車両の周辺に存在する環境要素を検出可能な領域を示すセンサ検出可能領域を決定するセンサ検出可能領域決定部と、
     前記センサの検出情報と、前記センサ検出可能領域決定部が決定した前記センサ検出可能領域とに基づいて、前記車両の走行制御情報を生成する走行制御情報生成部と、
     前記走行制御情報生成部が生成した前記走行制御情報を出力する情報出力部と、
    を備える電子制御装置。
  2.  請求項1に記載の電子制御装置であって、
     前記検出情報は、前記環境要素の位置を表す位置情報と、当該検出情報に対する信頼度情報とを含み、
     前記センサ検出可能領域決定部は、前記位置情報と前記信頼度情報に基づき前記センサにおける検出距離と信頼度の関係性を決定し、その関係性に基づき前記センサ検出可能領域を決定する電子制御装置。
  3.  請求項2に記載の電子制御装置であって、
     前記センサ検出可能領域決定部は、前記検出情報の時系列データに基づいて前記関係性を決定する電子制御装置。
  4.  請求項2に記載の電子制御装置であって、
     前記センサ検出可能領域決定部は、前記関係性に基づき、前記信頼度が所定の閾値以上の前記検出距離の範囲を、前記センサ検出可能領域と決定する電子制御装置。
  5.  請求項4に記載の電子制御装置であって、
     前記車両が行う自動運転走行の内容に応じた走行制御モードを判断する走行制御モード判断部をさらに備え、
     前記閾値は、前記走行制御モード判断部による前記走行制御モードの判断結果に基づいて決定される電子制御装置。
  6.  請求項2に記載の電子制御装置であって、
     前記センサ検出可能領域決定部は、所定の角度範囲毎に前記関係性を決定して、前記センサ検出可能領域を決定する電子制御装置。
  7.  請求項2に記載の電子制御装置であって、
     前記車両に搭載される複数のセンサに対して、前記複数のセンサを用いて前記車両の周辺で前記環境要素を検出可能な領域を示す周辺検出可能領域を決定する周辺検出可能領域決定部をさらに備え、
     前記走行制御情報生成部は、前記センサの検出情報と、前記周辺検出可能領域決定部が決定した前記周辺検出可能領域とに基づいて、前記走行制御情報を生成する電子制御装置。
  8.  請求項7に記載の電子制御装置であって、
     前記周辺検出可能領域決定部は、前記センサ検出可能領域決定部が前記複数のセンサそれぞれに対して決定した前記関係性に基づき、前記周辺検出可能領域を決定する電子制御装置。
  9.  請求項8に記載の電子制御装置であって、
     前記信頼度情報とは、前記環境要素が実在する確率的情報であり、
     前記周辺検出可能領域決定部は、前記車両の周辺における各位置に対して、前記複数のセンサそれぞれの前記検出情報に含まれる前記確率的情報を確率論的に統合することにより、前記周辺検出可能領域を決定する電子制御装置。
  10.  請求項7に記載の電子制御装置であって、
     前記複数のセンサのうち少なくとも2つ以上のセンサにより前記車両の周辺で前記環境要素を冗長的に検出可能な領域を示す周辺冗長検出可能領域を決定する周辺冗長検出可能領域決定部をさらに備え、
     前記走行制御情報生成部は、前記センサの検出情報と、前記周辺検出可能領域決定部が決定した前記周辺検出可能領域および前記周辺冗長検出可能領域決定部が決定した前記周辺冗長検出可能領域の少なくとも一方とに基づいて、前記走行制御情報を生成する電子制御装置。
  11.  請求項10に記載の電子制御装置であって、
     前記周辺検出可能領域決定部が決定した前記周辺検出可能領域または前記周辺冗長検出可能領域決定部が決定した前記周辺冗長検出可能領域に基づき、前記車両が対応可能な自動運転レベルに応じた走行制御モードを判断する走行制御モード判断部をさらに備える電子制御装置。
  12.  請求項2に記載の電子制御装置であって、
     前記センサとは、照射した電磁波の反射波に基づき物体を検出するセンサであって、
     前記信頼度情報とは、前記反射波の受信強度または信号対雑音比のいずれかに基づく情報である電子制御装置。
  13.  車両に搭載される電子制御装置であって、
     前記車両に搭載されるセンサの検出情報に基づき、前記車両の周辺に存在する環境要素を検出可能な領域を示す周辺検出可能領域を決定する周辺検出可能領域決定部と、
     前記センサの検出情報と、前記周辺検出可能領域決定部が決定した前記周辺検出可能領域とに基づいて、前記車両の走行制御情報を生成する走行制御情報生成部と、
     前記走行制御情報生成部が生成した前記走行制御情報を出力する情報出力部と、
    を備える電子制御装置。
PCT/JP2021/003607 2020-05-29 2021-02-01 電子制御装置 WO2021240885A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/926,215 US20230182732A1 (en) 2020-05-29 2021-02-01 Electronic control device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-095104 2020-05-29
JP2020095104A JP7397759B2 (ja) 2020-05-29 2020-05-29 電子制御装置

Publications (1)

Publication Number Publication Date
WO2021240885A1 true WO2021240885A1 (ja) 2021-12-02

Family

ID=78744222

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/003607 WO2021240885A1 (ja) 2020-05-29 2021-02-01 電子制御装置

Country Status (3)

Country Link
US (1) US20230182732A1 (ja)
JP (1) JP7397759B2 (ja)
WO (1) WO2021240885A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12027041B1 (en) * 2023-03-19 2024-07-02 Kamran Barelli Systems and methods for detecting stop sign vehicle compliance

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109030A (ja) * 1997-10-01 1999-04-23 Fujitsu Ten Ltd 車載用レーダ装置
JP2001159680A (ja) * 1999-10-13 2001-06-12 Robert Bosch Gmbh 対象検出方法及びその装置
JP2016206773A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP2019142246A (ja) * 2018-02-15 2019-08-29 本田技研工業株式会社 車両制御装置
JP2019185246A (ja) * 2018-04-05 2019-10-24 三菱電機株式会社 自動運転制御システム
WO2020105408A1 (ja) * 2018-11-19 2020-05-28 日立オートモティブシステムズ株式会社 車両制御装置及び車両制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11109030A (ja) * 1997-10-01 1999-04-23 Fujitsu Ten Ltd 車載用レーダ装置
JP2001159680A (ja) * 1999-10-13 2001-06-12 Robert Bosch Gmbh 対象検出方法及びその装置
JP2016206773A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP2019142246A (ja) * 2018-02-15 2019-08-29 本田技研工業株式会社 車両制御装置
JP2019185246A (ja) * 2018-04-05 2019-10-24 三菱電機株式会社 自動運転制御システム
WO2020105408A1 (ja) * 2018-11-19 2020-05-28 日立オートモティブシステムズ株式会社 車両制御装置及び車両制御方法

Also Published As

Publication number Publication date
JP7397759B2 (ja) 2023-12-13
US20230182732A1 (en) 2023-06-15
JP2021187324A (ja) 2021-12-13

Similar Documents

Publication Publication Date Title
RU2671446C1 (ru) Система автономного вождения и транспортное средство автономного вождения
US11256260B2 (en) Generating trajectories for autonomous vehicles
CN111382768A (zh) 多传感器数据融合方法和装置
JP6800575B2 (ja) 自己の乗り物のドライバを支援する方法およびシステム
JP6468261B2 (ja) 自動運転システム
US11242040B2 (en) Emergency braking for autonomous vehicles
US20150344031A1 (en) Method for assisting a driver in driving a vehicle, a driver assistance system, a computer software program product and vehicle
US20080249706A1 (en) Method for the anticipated ascertainment of a bend on a portion of road, and associated system
US20200074851A1 (en) Control device and control method
JP6919056B2 (ja) 走行制御装置、走行制御方法およびプログラム
JP7145815B2 (ja) 電子制御装置
US10967867B2 (en) Method and apparatus for efficiently providing occupancy information on the surroundings of a vehicle
JP7207256B2 (ja) 車両制御システム
JP2020056917A (ja) 地図情報システム
JP2021047644A (ja) 電子制御装置
JP6765357B2 (ja) 走行制御装置、走行制御方法およびプログラム
JP7379033B2 (ja) 運転支援方法及び運転支援装置
CN115042782A (zh) 一种车辆巡航控制方法、***、设备及介质
US20230080281A1 (en) Precautionary observation zone for vehicle routing
WO2021240885A1 (ja) 電子制御装置
WO2023213200A1 (zh) 一种会车方法及相关装置
WO2023145490A1 (ja) 運転システムの設計方法及び運転システム
WO2023145491A1 (ja) 運転システムの評価方法及び記憶媒体
JP2020060674A (ja) 地図情報システム
JP7431697B2 (ja) 車両の走行制御装置及び車両の走行制御システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21813202

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21813202

Country of ref document: EP

Kind code of ref document: A1