WO2023026553A1 - 交通流シミュレーションシステムおよび交通流シミュレーション方法 - Google Patents

交通流シミュレーションシステムおよび交通流シミュレーション方法 Download PDF

Info

Publication number
WO2023026553A1
WO2023026553A1 PCT/JP2022/012929 JP2022012929W WO2023026553A1 WO 2023026553 A1 WO2023026553 A1 WO 2023026553A1 JP 2022012929 W JP2022012929 W JP 2022012929W WO 2023026553 A1 WO2023026553 A1 WO 2023026553A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
simulated
state
vehicle
driver state
Prior art date
Application number
PCT/JP2022/012929
Other languages
English (en)
French (fr)
Inventor
貴洋 石川
Original Assignee
株式会社J-QuAD DYNAMICS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社J-QuAD DYNAMICS filed Critical 株式会社J-QuAD DYNAMICS
Publication of WO2023026553A1 publication Critical patent/WO2023026553A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Definitions

  • the technology for improving the accuracy of the traffic flow simulation in particular, the technology for improving the accuracy of the traffic flow simulation.
  • Patent Document 1 discloses a system that simulates traffic flow in consideration of the driver's reaction to the driving support device.
  • the system disclosed in Patent Document 1 includes a driver reaction setting device in order to consider how the driver reacted to the driving assistance device.
  • the driver reaction setting device has the distribution of the operation behavior that the driver reacts with the activation of the information provision function and the operation support function of the driving support device measured in advance by a driving simulator, etc., and uses it to perform the Monte Carlo simulation. Execute.
  • Patent Document 1 describes simulating the reaction of the driver after issuing an alarm. However, it does not describe under what circumstances the alarm should be generated. Even if the environment in which the vehicle is running and the driving conditions of the vehicle, such as the speed of the vehicle, are the same, the warning timing should be different depending on the driver's condition.
  • a driver's condition detection device for detecting the driver's condition is provided, and the driver's condition is sequentially detected by the driver's condition detection device. There is a need to. For this reason, it is preferable to also simulate the driver state detection device in order to accurately simulate the traffic flow.
  • the system disclosed in Patent Literature 1 does not simulate the driver state detection device, so the accuracy of simulating the traffic flow is not sufficient.
  • the present disclosure has been made based on this situation, and its purpose is to provide a traffic flow simulation system and a traffic flow simulation method that can accurately simulate traffic flow.
  • One disclosure related to a traffic flow simulation system for achieving the above object is a traffic environment setting unit that sets a simulated traffic environment in the virtual space; a traffic flow simulation unit that moves a simulated moving object that is included in at least a simulated vehicle in a simulated traffic environment; a driver state simulation unit that sequentially determines the state of the simulated driver driving the simulated vehicle; A driver state detection device simulation that sequentially determines the state of the simulated driver detected by the driver state detection device based on the real driver state, which is the state of the simulated driver determined by the driver state simulation unit, and the detection characteristics of the driver state detection device.
  • a traffic flow simulation system comprising: a vehicle device simulation unit that sequentially determines the operation of a simulated vehicle device mounted on a simulated vehicle based on the detected driver state, which is the state of the simulated driver determined by the driver state detection device simulation unit. be.
  • This traffic flow simulation system includes a driver state detection device simulation unit that simulates a driver state detection device.
  • a driver state simulation section for sequentially determining the state of the simulated driver is provided so that the driver state detection device simulation section can simulate the driver state detection device.
  • the driver state detection device simulation unit uses the actual driver state, which is the state of the simulated driver determined by the driver state simulation unit, and the detection characteristics of the driver state detection device to obtain the state of the simulated driver detected by the driver state detection device ( ie, the detected driver state) can be determined sequentially.
  • the vehicle device simulation unit can sequentially determine the operation of the simulated vehicle device mounted on the simulated vehicle based on the detected driver state.
  • the traffic flow simulation system can determine the operation of the simulated vehicle device based on the detected driver conditions, thereby determining the movement of the simulated vehicle carrying the simulated vehicle device and the traffic flow including the simulated vehicle. can be simulated with high accuracy.
  • the traffic flow simulation method is Set a simulated traffic environment in the virtual space, In a simulated traffic environment, move a simulated moving object that includes at least a simulated vehicle; Sequentially determining a real driver state, which is the state of the simulated driver driving the simulated vehicle, sequentially determining a detected driver state, which is the state of the simulated driver detected by the driver state detection device, based on the actual driver state and the detection characteristics of the driver state detection device; A traffic flow simulation method for sequentially determining the operation of a simulated vehicle device mounted on a simulated vehicle based on detected driver conditions.
  • FIG. 2 is a diagram showing a detailed configuration of a vehicle device simulation unit 20;
  • FIG. 4 is a diagram showing detection characteristic parameters for driver's face orientation;
  • FIG. 10 is a diagram showing detection characteristic parameters with respect to drowsiness level;
  • FIG. 2 is a diagram exemplifying an outline of processing executed by the traffic flow simulation system 1;
  • FIG. The figure which illustrates the temporal change of the face direction of a simulated driver.
  • FIG. 1 is a diagram showing the configuration of a traffic flow simulation system 1 according to an embodiment.
  • the traffic flow simulation system 1 is a system that sets various conditions and simulates the flow of moving objects located on roads in the real world.
  • the traffic flow simulation system 1 can be realized by a configuration including one computer or a plurality of computers.
  • the traffic flow simulation system 1 includes a traffic environment setting section 10 , a vehicle device simulation section 20 , a traffic flow simulation section 30 , a traffic condition recording section 40 , a support effect calculation section 50 and a driver reaction setting section 60 .
  • Each of these units is a function realized by a computer executing a simulation program stored in a predetermined storage medium.
  • the traffic environment setting unit 10 sets the traffic environment in the virtual space.
  • the traffic environment set in the virtual space is hereinafter referred to as a simulated traffic environment.
  • the traffic environment includes roads and surrounding environments. Specific examples of the traffic environment include road structure, road surface conditions, structures outside the road, traffic volume, environmental illuminance, rain, humidity, wind, lighting, and noise.
  • the traffic environment setting unit 10 sets a simulated traffic environment according to the input operation performed by the operator on the input device. In addition, the traffic environment setting unit 10 may acquire data for part or all of the setting of the simulated traffic environment from another device.
  • the simulated traffic environment can include the environment inside the vehicle (hereinafter referred to as the simulated vehicle) traveling on the road included in the simulated traffic environment.
  • the environment in the simulated vehicle can also include sound levels in the vehicle cabin, such as from conversations.
  • the environment in the simulated vehicle can also include the level of visual stimuli in the vehicle cabin that can be felt by the driver.
  • Visual stimuli in the passenger compartment that can be felt by the driver are caused, for example, by changes in the posture of the passenger's arm or torso.
  • the vehicle device simulation unit 20 is a part that simulates a vehicle device mounted on a vehicle in the real world, and sequentially determines the operation of the simulated vehicle device mounted on the simulated vehicle.
  • a simulated vehicle device includes a mechanical configuration and an electrical configuration.
  • FIG. 2 shows a detailed configuration of the vehicle device simulation section 20.
  • the vehicle device simulation unit 20 includes a driver state detection device simulation unit 21 , an HMI simulation unit 22 , a vehicle control device simulation unit 23 , and an outside notification device simulation unit 24 .
  • the driver state detection device simulation unit 21 simulates a driver state detection device.
  • a driver state detection device is a device that detects the state of a driver in the real world.
  • the driver state detection device can include any one or more of a camera that photographs the driver, a sensor that observes the driver with radio waves, and a sensor that detects the biological information of the driver by contacting the body surface of the driver.
  • the driver state detection device includes a camera imaging section that captures an image of the area around the headrest of the driver's seat, and an illumination section that irradiates the area around the headrest of the driver's seat with light.
  • the driver state detection device captures an image of the area around the driver's face illuminated by light with a camera imaging unit while the driver is seated in the driver's seat, and analyzes the face image of the driver included in the captured image. Monitor driver status.
  • the degree of eyelid drooping, the degree of pupil opening, the direction of the line of sight, the speed of movement of the line of sight, the direction of the face, the three-dimensional position of the face, the degree of change in facial expression, etc. Fatigue, caution level, irritated feeling, etc. are determined, and based on the determination results, it is determined whether the driver is in a proper driving state suitable for driving or in an unsuitable driving state. Furthermore, it determines whether the driver is dozing off, loses posture, leaves the driver's seat, or the like, and determines whether the driver is in an inoperable state in which the driver cannot continue driving.
  • the driver state detection device may be a ToF (Time of Flight) sensor, a millimeter wave sensor, an ultrasonic sensor, or the like, and may be configured to detect the driver state such as the proper driving state, unsuitable driving state, or inoperable state.
  • the driver state detection device is a sensor that detects the driver's biological information with millimeter waves installed in a place away from the driver, a sensor that detects the driver's biological information by contacting the driver's body surface, etc. , RR interval, pulse rate, breathing rate, etc., drowsiness, fatigue level, stress level, tachyarrhythmia, bradyarrhythmia, heart failure, etc. are determined, and the driver drives based on the determination results. It may be configured to determine whether the vehicle is in an appropriate driving state suitable for driving, an unsuitable driving state unsuitable for driving, or an inoperable state in which driving cannot be continued.
  • ToF Time of Flight
  • the driver state detection device can include a sensor that detects vehicle signals. This is because the extent to which the driver recognizes the state around the vehicle can be estimated from the vehicle behavior that can be estimated from the vehicle signal.
  • a steering sensor, a steering touch sensor, and a steering torque sensor are examples of sensors for detecting vehicle signals included in the driver state detection device. The signals detected by these sensors are vehicle signals related to the driver's steering operation.
  • Another example of a sensor for detecting vehicle signals included in the driver state detection device is an accelerator pedal sensor and a brake pedal sensor. The signals detected by these sensors are vehicle signals related to pedal operation.
  • the driver state detection device simulation unit 21 sequentially determines the driver state detected by the driver state detection device when the driver state is the simulated driver state determined by the driver state simulation unit 31 .
  • the driver state determined by the driver state simulation unit 31 is referred to as the actual driver state
  • the driver state sequentially determined by the driver state detection device simulation unit 21 is referred to as the detected driver state. Even in the real world, it is not always possible for the driver state detection device to correctly detect the state of the driver. Therefore, the actual driver state and the detected driver state may differ.
  • the actual driver state can be set to various driving unsuitable states and driving impossible states, which will be described in detail later.
  • the driver state detection device simulation unit 21 simulates whether the driver state detection device can detect these various driving unsuitable states and drivable states.
  • the driver state detection device simulation unit 21 simulates the driver state detection device using parameters indicating the detection characteristics of the driver state detection device (hereinafter referred to as detection characteristic parameters).
  • the driver state includes the face direction of the driver.
  • FIG. 3 shows the detection characteristic parameters for the face direction of the driver. In FIG. 3, the correct detection rate is determined for each 15-degree or 30-degree range of the driver's face direction.
  • the detection characteristic parameters change depending on the settings of the driver detection device. Therefore, the detection characteristic parameters are preferably prepared for each different setting of the driver detection device.
  • a specific example of setting the driver detection device will be described. For example, if the driver detection device includes a camera and image analysis software for analyzing an image captured by the camera, there are the installation position of the camera, angle of view, resolution, software specifications, and the like.
  • the actual driver state and the detected driver state may differ. Therefore, a situation may occur in which the actual driver state is inattentive, but the detected driver state is not inattentive.
  • the driver state has a drowsiness level.
  • FIG. 4 shows detection characteristic parameters for drowsiness levels.
  • drowsiness levels are divided into six levels of D1 to D5 and S, and a correct detection rate is determined for each drowsiness level.
  • D1 "not at all sleepy”
  • D2 "slightly sleepy”
  • D3 “sleepy”
  • D4 very sleepy
  • D5 extremeely sleepy
  • S “dozing off” be.
  • the drowsiness level is not limited to six stages.
  • each sleepiness level shown in FIG. 4 may be further subdivided, such as sleepiness levels 0.1 and 0.2.
  • Drowsiness level can be estimated from the driver's facial expression. Similar to the case of looking aside, situations may arise where the actual driver state is dozing off, but the detected driver state is not dozing off.
  • the driver state detection device detects a driver state that changes with time, such as face orientation and drowsiness level, in other words, a dynamic driver state.
  • the dynamic driver state detection performance of the driver state detection device is affected by the static state of the driver.
  • a static driver state is, for example, the presence or absence of facial clothing.
  • the presence or absence of face coverings may affect the detection performance of the driver's face direction and the detection performance of the drowsiness level estimated from the facial expression. Therefore, detection characteristic parameters can be set for each static driver state.
  • the detection characteristic parameters shown in FIGS. 3 and 4 may be set separately for those with and without face coverings. Face wear includes masks, glasses, sunglasses, hats, and the like. In addition, even if there is no face-wearing, there is a possibility that the state of illumination of the driver's face may affect the detection result of the driver's state by the driver's state detection device. Therefore, the detection characteristic parameters shown in FIGS. 3 and 4 may be set for each light irradiation state on the driver's face. The illumination state of light on the driver's face can be expressed as unevenly distributed direct light, night, tunnel, and the like.
  • the vertical axis is the positive detection rate.
  • the detection characteristic parameter may be other than the one that determines the correct detection rate. For example, it may determine the time until detection.
  • the traffic flow simulation system 1 can determine the detected driver state in consideration of the performance of the driver detection device, it is possible to simulate the difference in the behavior of the simulated driver due to the difference in the timing at which the simulated driver is warned.
  • the driver state detection device simulation unit 21 uses the actual driver states sequentially determined by the driver state simulation unit 31 as input values, and determines the detected driver states sequentially (that is, in time series).
  • Detected driver conditions may include undrivable conditions, undrivable conditions, acceptable drivable conditions, and the like.
  • Detected driver states can also include specific driver states, such as dozing off, drowsy, looking aside, and the like.
  • a state of drowsiness in other words, a state of reduced arousal
  • a state of looking aside a state of closed eyes, and a state of poor posture are examples of states unsuitable for driving.
  • a dozing state is an example of an inability to drive state.
  • An inoperable condition can also include a dead man condition.
  • a dead man state is a state in which the driver is unconscious or dead.
  • the HMI simulation unit 22 simulates the operation of the HMI (Human Machine Interface) mounted on the simulated vehicle.
  • HMI is an information transmission device.
  • the HMI may include one or both of a device for communicating information from the driver to the vehicle and a device for communicating information from the vehicle to the driver.
  • Devices for communicating information from the driver to the vehicle may include switches and/or microphones.
  • Devices that transmit information from the vehicle to the driver can include one or more devices that transmit vibrations to the driver through displays, speakers, seats, steering, and the like. There may be more than one display and speaker.
  • the HMI includes a driver warning device that warns the driver.
  • a driver warning device is a device that determines whether to warn a driver based on driver conditions.
  • the driver warning device warns the driver when the driver's condition becomes unsuitable for driving.
  • a warning is meant to give a stimulus to the driver.
  • the stimuli are one or more combinations of acoustic, visual, tactile, and somatosensory stimuli.
  • the HMI includes multiple driver alert devices that work on different sensory organs of the driver.
  • the HMI simulation unit 22 simulates these multiple driver warning devices.
  • Sound stimulation is to output an alarm sound from the speaker.
  • the visual stimulus is to have the display show an alarm. If the vehicle has multiple displays, the alert can be displayed on one or more of the multiple displays.
  • Haptic stimulation is the use of steering wheels, seats, and seat belts to provide tactile stimulation to the driver.
  • Somatosensory stimulation is vehicle behavior control intended to warn the driver, such as slow deceleration or slow lateral movement to the lane center. Somatosensory stimulation is distinguished from tactile stimulation, which stimulates the driver with parts that are in contact with the driver.
  • the strength of the stimulus given to the driver by the driver warning device can be changed to multiple types of strength.
  • the strength of the stimulation can be adjusted by adjusting the volume and pitch of the sound.
  • stimulus intensity can be adjusted by brightness, display range size, color, and the like.
  • tactile stimulation the strength of stimulation can be adjusted by the magnitude of vibration, the vibration period, and the like.
  • somatosensory stimulation the strength of the stimulation can be adjusted by the acceleration caused to the vehicle, the moving direction of the vehicle, and the like.
  • the strength of the stimulus can also be called the warning strength.
  • the HMI simulation unit 22 simulates a driver warning device capable of issuing warnings with multiple types of warning intensities.
  • the driver warning device may warn the driver when the vehicle is about to collide with an obstacle. That is, the driver alert system may alert the driver without the presence of a driver condition detector. However, when the driver continues to look aside, the host vehicle is likely to come into contact with an obstacle in many cases. Therefore, the presence of the driver state detection device makes it more likely that the driver warning device will give an early warning to the driver.
  • a lane departure warning device can also be included as a driver warning device.
  • a lane departure warning system can also warn a driver without a driver condition detection system.
  • the driver state detection device may simulate an early warning operation when the driver's posture is inappropriate for driving.
  • the HMI simulation unit 22 simulates a plurality of driver warning devices and determines to warn the simulated driver
  • the HMI simulation unit 22 selects the driver warning device to be simulated from among the plurality of driver warning devices based on the detected driver state. to decide.
  • the operator can set which driver warning device is to be activated when the detected driver state is detected. For example, a setting for providing a visual stimulus to the simulated driver when the detected driver state is drowsiness level D3 is compared with a setting for providing an auditory stimulus to the simulated driver when the detected driver state is also at drowsiness level D3. In this way, it is possible to confirm the difference in the reaction of the simulated driver depending on the type of stimulus.
  • the HMI simulation unit 22 simulates a driver warning device capable of issuing warnings with multiple types of warning strengths, and when it is determined to warn the simulated driver, the simulated warning strength is determined based on the detected driver state. Specifically, the operator can set which level of warning should be used in the detected driver state. By setting a plurality of warning strengths different from each other for the same detected driver state and simulating, it is possible to confirm the difference in reaction of the simulated driver due to the difference in warning strength. Note that the HMI simulation unit 22 may simulate a plurality of driver warning devices that can issue warnings with a plurality of types of warning intensities.
  • the vehicle control device simulation unit 23 simulates the vehicle control device mounted on the vehicle.
  • a vehicle control device means a device that controls the behavior of a vehicle.
  • the vehicle control device simulation unit 23 successively determines the operation of the vehicle control device when the vehicle control device is mounted on the simulated vehicle.
  • the vehicle control device can include a device for accelerating and decelerating the vehicle and a device for controlling the steering of the vehicle.
  • the vehicle control device can include driving assistance devices and automatic driving devices. Examples of driving support devices include a collision damage mitigation braking device, an inter-vehicle distance control device, and a lane departure prevention device.
  • the driving assistance device can include an emergency stop control device that makes an emergency stop of the vehicle instead of the driver when the driver becomes unable to drive.
  • the vehicle control device simulation unit 23 can include a function of simulating this driving support device.
  • a signal indicating the detected driver state sequentially determined by the driver state detection device simulation unit 21 is input to the portion that simulates the driving support device.
  • the vehicle control device simulation unit 23 determines the content of driving support control based on the detected driver state. For example, even if the actual driver state is unsuitable for driving or incapable of driving, the vehicle control system simulation unit 23 does not execute driving support control unless the detected driver state is unsuitable for driving or incapable of driving.
  • the vehicle control device simulation unit 23 When the detected driver state is an unsuitable driving state, the vehicle control device simulation unit 23 performs the operation that the vehicle control device executes when the driver state detection device detects that the driver is in an unsuitable driving state in the real world. Simulate. For example, the vehicle control device simulation unit 23 can simulate a state in which the collision damage mitigation braking device is activated early and a state in which a brake pressurization instruction is output early.
  • drowsiness level which is the detected driver state
  • drowsiness level which is the actual driver state (that is, close to wakefulness)
  • driving assistance control is a warning to the driver. Even if the actual driver state is at a drowsiness level that warns the driver, if the detected driver state continues to be at a drowsiness level that does not warn the driver, the warning to the driver will be delayed.
  • the outside notification device simulation unit 24 simulates the outside notification device installed in the vehicle.
  • the vehicle exterior notification device is a device that notifies a moving object, particularly a vehicle in the vicinity, that exists around the vehicle in which the vehicle device is mounted.
  • the vehicle exterior notification device simulation unit 24 successively determines the operation of the vehicle exterior notification device when the vehicle exterior notification device is mounted on the simulated vehicle.
  • the vehicle exterior notification device includes a lighting device and a horn. Therefore, the outside notification device simulation section 24 includes a lighting device simulation section 25 and a horn simulation section 26 .
  • a wireless communication device may be included as the vehicle exterior notification device.
  • the wireless communication device is, for example, a vehicle-to-vehicle communication device or a communication device that communicates with a center.
  • the lighting device simulation unit 25 simulates the operation of the lighting device when one or more of the specific lighting devices described above are mounted on the simulated vehicle.
  • a horn can also be called a horn.
  • the horn simulation unit 26 simulates the operation of the horn when the horn is mounted on the simulated vehicle.
  • the outside notification device is activated when the vehicle makes an emergency stop.
  • the lighting device blinks. Therefore, the vehicle exterior notification device simulation unit 24 simulates a state in which the vehicle exterior notification device mounted on the simulated vehicle operates when the simulated vehicle is stopped in an emergency.
  • the vehicle exterior notification device simulation unit 24 simulates a situation in which the vehicle exterior notification device mounted on the simulated vehicle operates when the simulated traffic situation matches the situation in which the vehicle exterior notification device is used in the real world. Simulate.
  • the outside notification device is used when a vehicle enters an intersection where visibility is limited to the left and right.
  • the driver may honk the horn.
  • the traffic flow simulation unit 30 sets a simulated moving object that moves in a simulated traffic environment.
  • the simulated moving object includes at least a simulated vehicle that simulates a vehicle in the real world, and may include a simulated moving object that simulates a moving object other than a vehicle, such as a simulated pedestrian.
  • Various characteristics related to movement can be set for the simulated moving object.
  • the traffic flow simulation unit 30 causes the simulated moving bodies set in the simulated traffic environment to move based on the characteristics set for each simulated moving body.
  • a simulated driver who drives the simulated vehicle can be set for at least part of the simulated vehicle.
  • the driver state simulation unit 31 is a portion that simulates the state of the driver.
  • the driver state simulation unit 31 successively determines the state of the simulated driver driving the simulated vehicle.
  • the driver state simulation unit 31 sequentially determines the state of the simulated driver using parameters that affect the state of the driver detected by the driver state detection device and specify the state of the driver (hereinafter referred to as driver state identification parameters). .
  • driver state identification parameters parameters that affect the state of the driver detected by the driver state detection device and specify the state of the driver.
  • a driver state specific parameter defines the actual driver state.
  • Driver state identification parameters include, for example, the three-dimensional position of the simulated driver's face, the orientation of the face, the degree of eye opening and closing, the direction of the line of sight, the degree of opening and closing the mouth, the three-dimensional position of the torso, the direction of the torso, the three-dimensional position of the shoulder, and the three-dimensional position of the elbow.
  • a dimensional position and a three-dimensional position of a hand can be exemplified.
  • the driver state simulation unit 31 simulates the state of the simulated driver using one or more types of driver state specifying parameters.
  • the driver state simulation unit 31 can define the posture of the simulated driver using the driver state identification parameters.
  • Various postures inappropriate for driving may be defined as the posture of the simulated driver.
  • An inappropriate driving posture is an example of an inappropriate driving state.
  • Inappropriate postures for driving include tilting the backrest of the seat, sitting cross-legged, grabbing something in the back seat, and holding a smartphone, food, drink, or cigarette in your hand.
  • the driver state specifying parameters can include not only parameters specifying the external form of the simulated driver, but also parameters specifying the internal state of the simulated driver.
  • One example of a parameter that identifies the inner state of a simulated driver is sleepiness level.
  • the driver state-specific parameters may include the simulated driver's drinking level and drug dependence level.
  • the driver state simulation unit 31 has a characteristic distribution for determining at least some driver state specifying parameters.
  • FIG. 5 exemplifies the occurrence probability distribution of face orientation.
  • FIG. 5 also shows an example of a forward viewing range.
  • the forward view is defined as a face angle range of -30 degrees to 30 degrees.
  • Inattentive behavior is determined when the time ratio of the face direction angle outside this range in the inattentive behavior determination time (eg, 2 seconds) is equal to or greater than a certain ratio (eg, 70%).
  • the driver state simulation unit 31 determines the facial orientation of the simulated driver by executing a Monte Carlo simulation using this occurrence probability distribution.
  • the driver state simulation unit 31 can similarly determine the orientation and position of other parts of the simulated driver.
  • restrictions on the possible positions of other parts are also set for one of the mutually related parts.
  • the driver state simulation unit 31 sequentially determines the actual driver state while also using each database set by the driver reaction setting unit 60.
  • the driver reaction setting section 60 sets various settings that define how the driver reacts to the conditions that the driver perceives. This is because the state of the driver changes depending on the reaction of the driver.
  • the traffic flow simulation unit 30 determines the behavior of the simulated vehicle based on the driving operation of the simulated driver.
  • the traffic flow simulation unit 30 simulates various vehicle behavior distributions under various traffic environments, such as the collision margin time with respect to the preceding vehicle, the inter-vehicle time, the vehicle speed, and the braking start time distribution when the brake lights of the preceding vehicle are turned on.
  • a database storing vehicle behavior distribution under conditions is provided.
  • the traffic flow simulation unit 30 includes a database that stores behavior distributions of simulated moving bodies other than simulated vehicles under various traffic environments.
  • the traffic flow simulation unit 30 successively determines the behavior of the simulated moving object by Monte Carlo simulation based on various distributions.
  • the traffic flow simulation unit 30 determines the behavior of a plurality of simulated moving objects by time.
  • the traffic flow is the temporal change in the behavior of multiple simulated moving objects. Traffic flow can also be referred to as traffic conditions.
  • the traffic condition recording unit 40 stores part or all of the traffic flow determined by the traffic flow simulation unit 30 in a predetermined storage unit.
  • the traffic flow simulation unit 30 can reproduce traffic flow using the files stored by the traffic condition recording unit 40 .
  • the support effect calculation unit 50 compares the case where some or all of the driving support devices provided in the vehicle control device simulation unit 23 are present and the case where the driving support devices are not provided, and calculates the effect of the driving support by the driving support devices. calculate.
  • the driver reaction setting unit 60 is a part that sets various setting values that determine how the driver reacts to the state perceived by the driver.
  • the driver reaction setting unit 60 includes a recognition time distribution DB 61, a judgment time distribution DB 62, and an operation time distribution DB 63.
  • DB is an abbreviation for database.
  • the driver reaction setting section 60 further includes an avoidance action reaction time distribution DB 64 , an avoidance action selection ratio distribution DB 65 and an annoyance level distribution DB 66 .
  • the recognition time distribution DB 61 is a database that stores the distribution of the time required for the driver to recognize the situation after the situation where driving operation is required.
  • the judgment time distribution DB 62 is a database that stores the distribution of the time required from when the driver recognizes that a driving operation is required until when it is determined that the driving operation is to be performed.
  • the operation time distribution DB 63 is a database that stores the distribution of the time required from when the driver decides to perform the driving operation to when he actually performs the driving operation.
  • the recognition time, judgment time, and operation time vary depending on the driver's condition. Therefore, the recognition time distribution DB 61, the judgment time distribution DB 62, and the operation time distribution DB 63 have a plurality of time distributions corresponding to the driver states determined by the driver state detection device simulation unit 21. FIG.
  • FIG. 6 shows examples of recognition time distribution, judgment time distribution, and operation time distribution.
  • FIG. 6 shows the recognition time distribution, judgment time distribution, and operation time distribution corresponding to the three states of normal, looking aside, and dozing off as detected driver states.
  • the detected driver state “normal” is a state in which the driver is driving in a correct posture while checking the surroundings such as the front.
  • the recognition time distribution, judgment time distribution, and operation time distribution are all normal distributions.
  • the distribution is not limited to the normal distribution, and can be appropriately set based on experiments or the like.
  • the cognitive time distribution, judgment time distribution, and operation time distribution shift to later times than when the detected driver state is normal. Furthermore, the recognition time distribution, judgment time distribution, and operation time distribution shift to later times when the detected driver state is dozing than when the detected driver state is looking aside.
  • the three recognition time distributions, the three judgment time distributions, and the three operation time distributions have the same shape. However, each time distribution can be individually set based on experiments or the like.
  • the avoidance action reaction time distribution DB 64 is a database that indicates the reaction time until the driver takes an avoidance action when the driving support device issues a warning to the driver, in terms of probability for each of a plurality of reaction time periods T.
  • FIG. 7 shows an example of the avoidance action reaction time distribution DB 64.
  • the avoidance behavior reaction time distribution DB 64 includes output items and setting items.
  • the output items are set with multiple reaction time zones T and the probability of "overlooked” which is another output item.
  • “Missed” means that the reaction time is greater than or equal to a predetermined time too late to take evasive action.
  • “Overlooked” is a state in which the driver does not react to the warning, ie, does not act. “Missing” includes the case where the driver cannot perceive the warning and the case where the driver cannot react to the warning.
  • a setting item is an item that affects the output item, and is an item that can be set by the operator.
  • the setting items can include characteristics of the driving support device.
  • the driving assistance device here is a driver warning device.
  • the contents that can be set as the characteristics of the driving support device can be sound stimulation, visual stimulation, tactile stimulation, somatosensory stimulation, and combinations thereof.
  • the degree of stimulation may be set. In the case of sound stimulation, the degree of stimulation is the loudness of the volume.
  • the loudness of the warning sound perceived by the driver is affected by the loudness of sounds other than the warning sound.
  • the louder the noise the smaller the volume of the warning sound perceived by the driver. Therefore, the magnitude of the sound stimulation may be set as a relative magnitude to the surrounding noise.
  • the magnitude of sound stimulation may be an absolute value, and the magnitude of noise may be set separately from the magnitude of sound stimulation.
  • the noise includes the noise inside the vehicle and the noise outside the vehicle.
  • the noise in the vehicle includes conversations of passengers, music output by the vehicle audio system, and the like.
  • the visual stimulus may also allow setting the position of the display to display the alert.
  • the setting items can also include the characteristics of the driver.
  • Driver characteristics may include the driver's age, gender, or both.
  • the age itself may be set, or the age may be set.
  • the setting items can also include the actual driver state and the detected driver state. By including the actual driver state and the detected driver state in the setting items, it is possible to simulate the reaction time zone T when the drowsiness level, which is the detected driver state, is lower than the drowsiness level, which is the actual driver state.
  • the avoidance behavior selection ratio distribution DB 65 is a database that indicates the behavior that the driver selects to avoid contact with an obstacle in terms of probability.
  • FIG. 8 shows an example of the avoidance action selection ratio distribution DB 65.
  • the avoidance action selection ratio distribution DB 65 includes output items and setting items. The probability of selection of the output item is set for each type of avoidance action that the driver may select and execute (that is, output).
  • the setting items can include the characteristics of the driving support device, the actual driver state, and the detected driver state. If the actual driver state and the detected driver state are at the same drowsiness level, it is possible to give the driver a warning corresponding to the actual driver state. However, if the drowsiness level, which is the detected driver state, is lower than the drowsiness level, which is the actual driver state (that is, close to wakefulness), the degree of stimulation given to the driver will be insufficient. For this reason and other reasons, two items, the actual driver state and the detected driver state, can be set as setting items.
  • the setting items shown in FIG. 8 are an example.
  • the deviation between the actual driver state and the detected driver state is affected by the detection performance of the driver state detection device. Therefore, the characteristics of the driver state detection device may be set instead of the actual driver state and the detected driver state. Examples of characteristics of the driver state detection device include high detection performance, low detection performance, and no driver state detection device. Of course, the detection performance of the driver state detection device may be expressed numerically. Also, the characteristics of the driver state detection device may be indicated by the presence or absence of a specific detection device and the specific detection performance of the detection device.
  • the annoyance level distribution DB 66 stores each of the annoyances felt by the driver due to warnings from the simulated driving assistance device for each condition of the characteristics of the driving assistance device simulated by the vehicle device simulation unit 20 and the characteristics of the driver. It stores the probabilities for the levels of .
  • the characteristics of the driving support device in the annoyance level distribution DB 66 include the level of frequency of warnings issued per unit time.
  • FIG. 9 is an example of an outline of processing executed by the traffic flow simulation system 1.
  • the traffic environment setting unit 10 sets the simulated traffic environment according to the operation of the operator.
  • the simulated traffic environment can also be set to change dynamically.
  • the traffic environment setting unit 10 may also set the presence or absence of a face-mounted object and the type of face-mounted object for one or more simulated drivers.
  • the driver state simulation unit 31 simulates the state of the simulated driver. Simulating the state of the simulated driver is to determine the actual driver state. The actual driver state is determined using the driver state specific parameter.
  • the states of the simulated driver simulated by the process of S1 include, for example, motion fluctuation, posture collapse, looking aside, changes in face direction and line of sight for safety confirmation, dozing off, and the like. Poor posture may occur when the driver suddenly becomes unwell.
  • the side view includes side view for viewing the side of the vehicle, side view for viewing the interior of the vehicle (for example, center display), and the like.
  • the states of these simulated drivers are defined by time-series changes in the face position, face orientation, eye open/closed degree, line-of-sight direction, and the like, which are identified by driver state identification parameters.
  • the driver state detection device simulation unit 21 simulates the process in which the driver state detection device detects the state of the simulated driver simulated in S1 (that is, the actual driver state), and determines the detected driver state.
  • the sensed driver condition is determined using sensing characteristic parameters that indicate the sensing characteristics of the driver condition sensing device.
  • the processing of S2 it is possible to determine whether the detected driver state is an unsuitable driving state, an undrivable state, or an appropriate driving state. If the actual driver state is a large face orientation that exceeds the detection limit of the driver state detection device, the detected driver state of undetectable face orientation can be included. In addition, when the simulated driver is wearing facial clothing, or depending on the state of light irradiation on the simulated driver's face, the driver state detection device detects one or both of the facial orientation and facial expression of the simulated driver. A detection driver state may also be determined that cannot detect . Since the detected characteristic parameter has a probability distribution, there are multiple types of detected driver states that can be determined for the same actual driver state.
  • the HMI simulation unit 22 simulates the operation of the HMI. For example, if the detected driver state determined in S2 is looking aside or dozing off, it is possible to simulate the operation of a driver warning device, which is one of the HMIs, to output a warning to the simulated driver.
  • the vehicle control device simulation unit 23 simulates the operation of the vehicle control device. Through the processing of S4, the position and behavior of the simulated vehicle in the virtual space are successively updated. For example, if the detected driver state determined in S2 is an unsuitable driving state, the operation of the emergency stop control device is simulated, and the simulated vehicle is brought to an emergency stop.
  • the driver state simulation unit 31 determines how the simulated driver in the detected driver state determined in S2 reacts to the operation of the HMI simulated in S3 and S4 and the operation of the vehicle control device. Simulate.
  • the detected driver state determined in S2 indicates that the posture of the simulated driver is inappropriate for driving, and the driver warning device warns the simulated driver in S4, how will the posture of the simulated driver change? to imitate
  • the change in posture of the simulated driver is also determined including the probability calculation. If the simulated driver is holding an object in his/her hand and is in an inappropriate driving posture, the probability of the change in posture may be calculated differently according to the type of the object held by the simulated driver. For example, the posture change probability may be calculated by distinguishing between objects that can be thrown, such as smartphones, and objects that cannot be thrown, such as cigarettes and drinks.
  • the driver state simulation unit 31 also uses various databases set by the driver reaction setting unit 60. For example, as shown in FIG. 6, if the detected driver state is looking aside or dozing off, the recognition, judgment, and reaction times will be delayed compared to when the detected driver state is the normal state.
  • avoidance action reaction time distribution DB 64 when the simulated driver is given an alarm, it determines whether the simulated driver reacts or misses the warning, and determines the reaction time zone T in the event of reacting. can. For example, if the actual driver state is looking aside while looking at a billboard on the right front, and in S3 the driver warning device determines to display a warning on the center display of the simulated vehicle, the line-of-sight direction of the detected driver state is not the direction in which the warning is displayed. Therefore, avoidance behavior of the simulated driver determined using the avoidance behavior reaction time distribution DB 64 is highly likely to be overlooked. Even when there is a lot of noise, such as when the conversation in the vehicle is loud, the avoidance action of the simulated driver determined using the avoidance action reaction time distribution DB 64 is more likely to be overlooked.
  • avoidance action selection ratio distribution DB 65 shown in FIG. 8 it is possible to determine which avoidance action to select when the simulated driver selects the avoidance action.
  • the outside notification device simulation unit 24 simulates the operation of the outside notification device. For example, if the detected driver state determined in S2 is the inoperable state, the lighting device simulation unit 25 simulates the operation of blinking the lighting device. Also, in the real world, it may be necessary to honk the horn when the vehicle enters an intersection with no left or right visibility. Therefore, when the simulated vehicle enters an intersection with no visibility on the left and right sides, the horn simulation unit 26 may simulate the operation of sounding the horn.
  • the traffic flow simulation unit 30 simulates traffic flow based on the position and behavior of the simulated vehicle determined at S4 and the operation of the outside notification device of the simulated vehicle simulated at S6.
  • the position and behavior of a simulated vehicle affects the positions and behaviors of simulated moving objects around the simulated vehicle. Further, even when the outside notification device of the simulated vehicle is activated, the simulated moving objects around the simulated vehicle may be affected by the activation of the outside notification device.
  • the process returns to S1.
  • FIG. 10 An operation example in the case of warning against looking aside will be described with reference to FIG. 10 .
  • the upper graph shows the change over time of the face orientation angle, which is the actual driver state.
  • the middle graph shows the time change of the face direction angle, which is the detected driver state.
  • the lower graph superimposes the detected driver state in the middle row and the change over time of the detected driver state when the simulated driver is warned.
  • the face angle which is the actual driver state
  • the face angle is below -30 degrees.
  • the face angle falls below -30 degrees at time t1
  • the face angle remains below -30 degrees from time t1 to time t5. From time t1 to time t5, for example, 2.5 seconds.
  • this degree of change in face angle continues for this degree of time.
  • the detected driver state has not yet fallen below -30 degrees at time t1.
  • the actual driver state and the detected driver state are thus different. Since the detected driver state is simulated using the detected characteristic parameters shown in FIG. 3, even if the actual driver state is the same, the detected driver state changes for each trial. In the example of FIG. 5, the face angle, which is the detected driver state, becomes -30 degrees or less at time t2.
  • Time t3 is the time when the inattentiveness determination time has elapsed from time t2 and the HMI simulation unit 22 has issued a warning to the simulated driver.
  • the face direction of the simulated driver moves toward 0 degrees due to the warning, and returns to -30 degrees at time t4. If the driver is not warned, the simulated driver's face orientation returns to -30 degrees at time t5, so the effect of the warning can be simulated.
  • Example of dozing off An operation example when it is determined that the simulated driver is dozing off will be described.
  • the actual driver state always matches the detected driver state.
  • a driver state detection device in the real world judges the drowsiness level from the face image at the drowsiness judgment time. Assuming that the drowsiness determination time is 5 seconds and there are 30 frames per second, 150 frames of face images are used.
  • the face image determined to have a drowsiness level equal to or higher than the warning reference level (eg, drowsiness level D4) is equal to or higher than the dozing judgment ratio threshold value (eg, 70%), the driver is dozing off and an alarm is issued. to decide.
  • the warning reference level eg, drowsiness level D4
  • the dozing judgment ratio threshold value eg, 70%
  • This traffic flow simulation system 1 simulates the drowsiness level determined by a driver state detection device in the real world by probability calculation using the actual driver state regarding the face and detection characteristic parameters.
  • the actual driver state related to the face is sequentially identified by the driver state simulation unit 31, and includes the face direction, the degree of eye opening and closing, the degree of opening and closing of the mouth, and the like.
  • the detection characteristic parameters are determined by the driver state detection device simulation section 21 .
  • the HMI simulation unit 22 does not determine to warn the simulated driver even at time t12.
  • Time t14 is the time when the drowsiness determination time has elapsed from time t13. After time t13, the sleepiness level continues to be 3 or higher. Therefore, at time t14, the HMI simulation unit 22 determines that the simulated driver is dozing off, and warns the simulated driver.
  • the traffic flow simulation system 1 of the present embodiment includes the driver state detection device simulation section 21 that simulates the driver state detection device. Further, a driver state simulation unit 31 is provided for sequentially determining the state of the simulated driver so that the driver state detection device simulation unit 21 can simulate the driver state detection device.
  • the driver state detection device simulation unit 21 can sequentially determine the detected driver state by using the actual driver state, which is the state of the simulated driver determined by the driver state simulation unit 31, and the detection characteristics of the driver state detection device.
  • the vehicle device simulation unit 20 can sequentially determine the operation of the simulated vehicle device mounted on the simulated vehicle based on the detected driver state.
  • the traffic flow simulation system 1 can determine the operation of the simulated vehicle device based on the detected driver state, the movement of the simulated vehicle on which the simulated vehicle device is mounted and the traffic flow including the simulated vehicle can be determined.
  • the flow can be simulated with high accuracy.
  • the vehicle device simulation section 20 includes an HMI simulation section 22 that simulates the operation of the HMI mounted on the simulated vehicle. Since the HMI simulation unit 22 simulates the operation of the HMI based on the detected driver state, the HMI can operate not only when the detected driver state is the same as the actual driver state, but also when the detected driver state is different from the actual driver state. can also be simulated.
  • the HMI simulation unit 22 determines whether to warn the simulated driver based on the detected driver state. Therefore, as a result of the detected driver state being closer to normal than the actual driver state, it is possible to simulate a state in which the degree of warning is insufficient.
  • the HMI simulation unit 22 can simulate a plurality of driver warning devices that stimulate different sensory organs of the driver. Then, when it is determined to warn the simulated driver, the simulated driver warning device can be determined from among the plurality of driver warning devices based on the detected driver state. This makes it possible to confirm the difference in reaction of the simulated driver depending on the type of stimulus.
  • the HMI simulation unit 22 can simulate a driver warning device that warns the driver with multiple types of warning intensities. Then, when it is determined to warn the simulated driver, the simulated warning intensity can be determined based on the detected driver condition. Thereby, it is possible to confirm the difference in reaction of the simulated driver due to the difference in warning intensity.
  • the detected driver state detected by the driver state detection device simulation unit 21 includes an appropriate driving state, an unsuitable driving state, and an inoperable state. Therefore, the behavior of the simulated vehicle can be simulated for each of these three types of detected driver states.
  • the vehicle device simulation unit 20 includes a vehicle control device simulation unit 23 that simulates a vehicle control device. Since the vehicle control system simulation unit 23 simulates the operation of the vehicle control system based on the detected driver state, it is possible to simulate the operation of the vehicle control system when the detected driver state differs from the actual driver state.
  • the vehicle control device simulation unit 23 simulates the operation of executing emergency driving support control when the detected driver state becomes an inoperable state.
  • the vehicle control device simulation unit 23 does not execute emergency driving support control unless the detected driver state is an inoperable state even if the actual driver state is an inoperable state. Therefore, it is possible to simulate a traffic flow when the driver detection device cannot detect an inoperable state.
  • the vehicle control device simulation unit 23 may also simulate the operation of executing emergency driving support control when the detected driver state is unsuitable for driving.
  • the vehicle device simulation unit 20 includes the vehicle exterior notification device simulation unit 24 that simulates the vehicle exterior notification device. Therefore, it is possible to simulate how the surrounding simulated mobile object moves.
  • the outside notification device simulation unit 24 simulates a state in which the outside notification device notifies the outside of the vehicle of information indicating that emergency driving support control is to be executed when the detected driver state becomes an inoperable state. can be done. As a result, when the simulated vehicle executes emergency driving support control, it is possible to accurately simulate how the surrounding simulated moving bodies move.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

仮想空間に模擬交通環境を設定する交通環境設定部(10)と、模擬交通環境において、模擬車両が少なくとも含まれている模擬移動体を移動させる交通流シミュレーション部(30)と、模擬車両を運転する模擬ドライバの状態を逐次決定するドライバ状態シミュレーション部(31)と、ドライバ状態検出装置が検出する模擬ドライバの状態を、ドライバ状態シミュレーション部(31)が決定した模擬ドライバの状態である実ドライバ状態と、ドライバ状態検出装置の検出特性とに基づいて逐次決定するドライバ状態検出装置シミュレーション部(21)と、ドライバ状態検出装置シミュレーション部(21)が決定した模擬ドライバの状態である検出ドライバ状態に基づいて、模擬車両に搭載された模擬車両装置の作動を逐次決定する車両装置シミュレーション部(20)とを備える。

Description

交通流シミュレーションシステムおよび交通流シミュレーション方法 関連出願への相互参照
 本出願は、2021年8月23日に出願された日本特許出願番号2021-135817号に基づくもので、ここにその記載内容が参照により組み入れられる。
 交通流シミュレーションシステムおよび交通流シミュレーション方法に関し、特に、交通流のシミュレーション精度を向上させる技術に関する。
 特許文献1には、運転支援装置に対するドライバの反応を考慮して交通流を模擬するシステムが開示されている。特許文献1に開示されているシステムは、運転支援装置に対してドライバがどのように反応したかを考慮するために、ドライバ反応設定装置を備える。ドライバ反応設定装置は、事前にドライビングシミュレータ等により計測した運転支援装置の情報提供機能および操作支援機能の発動に伴ってドライバが反応する操作挙動の分布を有し、それを利用してモンテカルロシミュレーションを実行する。
特開2009-169912号公報
 特許文献1には、警報を発した後のドライバの反応を模擬することは記載されている。しかし、どのような状況で警報を発生させるかは記載されていない。車両が走行している環境および車両の速度など車両の走行状態が同じでも、ドライバの状態によっては警報するタイミングが異なるべきである。
 車両に搭載される実際の運転支援装置が、ドライバの状態によって警報するタイミングを異ならせるには、ドライバの状態を検出するドライバ状態検出装置を備え、ドライバ状態検出装置によりドライバの状態を逐次、検出する必要がある。この理由などにより、精度よく交通流を模擬するには、ドライバ状態検出装置も模擬することが好ましい。特許文献1に開示されたシステムでは、ドライバ状態検出装置を模擬していないので、交通流を模擬する精度が十分ではない。
 本開示は、この事情に基づいて成されたものであり、その目的とするところは、精度よく交通流を模擬できる交通流シミュレーションシステムおよび交通流シミュレーション方法を提供することにある。
 上記目的を達成するための交通流シミュレーションシステムに係る1つの開示は、
 仮想空間に模擬交通環境を設定する交通環境設定部と、
 模擬交通環境において、模擬車両が少なくとも含んでいる模擬移動体を移動させる交通流シミュレーション部と、
 模擬車両を運転する模擬ドライバの状態を逐次決定するドライバ状態シミュレーション部と、
 ドライバ状態検出装置が検出する模擬ドライバの状態を、ドライバ状態シミュレーション部が決定した模擬ドライバの状態である実ドライバ状態と、ドライバ状態検出装置の検出特性とに基づいて逐次決定するドライバ状態検出装置シミュレーション部と、
 ドライバ状態検出装置シミュレーション部が決定した模擬ドライバの状態である検出ドライバ状態に基づいて、模擬車両に搭載された模擬車両装置の作動を逐次決定する車両装置シミュレーション部と、を備える交通流シミュレーションシステムである。
 この交通流シミュレーションシステムは、ドライバ状態検出装置を模擬するドライバ状態検出装置シミュレーション部を備える。また、このドライバ状態検出装置シミュレーション部がドライバ状態検出装置を模擬できるように、模擬ドライバの状態を逐次決定するドライバ状態シミュレーション部を備える。ドライバ状態検出装置シミュレーション部は、ドライバ状態シミュレーション部が決定した模擬ドライバの状態である実ドライバ状態とドライバ状態検出装置の検出特性とを用いることで、ドライバ状態検出装置が検出する模擬ドライバの状態(すなわち検出ドライバ状態)を逐次決定できる。
 検出ドライバ状態が決定できるので、車両装置シミュレーション部は、検出ドライバ状態に基づいて、模擬車両に搭載された模擬車両装置の作動を逐次決定できる。このように、この交通流シミュレーションシステムは、検出ドライバ状態に基づいて模擬車両装置の作動を決定できることから、模擬車両装置を搭載している模擬車両の移動、および、模擬車両を含んでいる交通流を精度よく模擬できる。
 上記目的を達成するための交通流シミュレーション方法に係る1つの開示は、上記交通流シミュレーションシステムが実行する交通流シミュレーション方法である。すなわち、その交通流シミュレーション方法は、
 仮想空間に模擬交通環境を設定し、
 模擬交通環境において、模擬車両が少なくとも含んでいる模擬移動体を移動させ、
 模擬車両を運転する模擬ドライバの状態である実ドライバ状態を逐次決定し、
 ドライバ状態検出装置が検出する模擬ドライバの状態である検出ドライバ状態を、実ドライバ状態と、ドライバ状態検出装置の検出特性とに基づいて逐次決定し、
 検出ドライバ状態に基づいて、模擬車両に搭載された模擬車両装置の作動を逐次決定する、交通流シミュレーション方法である。
実施形態の交通流シミュレーションシステム1の構成を示す図。 車両装置シミュレーション部20の詳細構成を示す図。 ドライバの顔向きに対する検出特性パラメータを示す図。 眠気レベルに対する検出特性パラメータを示す図。 顔向きの生起確率分布を例示する図。 認知時間分布、判断時間分布、操作時間分布を例示する図。 回避行動反応時間分布DB64を例示する図。 回避行動選択割合分布DB65を例示する図。 交通流シミュレーションシステム1が実行する処理の概要を例示する図。 模擬ドライバの顔向きの時間変化を例示する図。 模擬ドライバの眠気レベルの時間変化を例示する図。
 以下、実施形態を図面に基づいて説明する。図1は、実施形態の交通流シミュレーションシステム1の構成を示す図である。交通流シミュレーションシステム1は、種々の条件を設定して、現実世界の道路に位置する移動体の流れを模擬するシステムである。交通流シミュレーションシステム1は、1台あるいは複数台のコンピュータを備えた構成により実現できる。
 <全体構成>
 交通流シミュレーションシステム1は、交通環境設定部10、車両装置シミュレーション部20、交通流シミュレーション部30、交通状況記録部40、支援効果算出部50、ドライバ反応設定部60を備える。これら各部は、コンピュータが所定の記憶媒体に記憶されているシミュレーションプログラムを実行することで実現する機能である。
 交通環境設定部10は、仮想空間に交通環境を設定する。以下、仮想空間に設定した交通環境を模擬交通環境とする。交通環境は、道路およびその周辺の環境を含む。交通環境の具体例は、道路構造、路面状況、道路外建造物、交通量、環境照度、雨、湿度、風、照明、騒音などである。交通環境設定部10は、操作者が入力装置に対してする入力操作に従い、模擬交通環境を設定する。また、交通環境設定部10は、模擬交通環境の設定の一部または全部を、他の装置からデータを取得してもよい。
 模擬交通環境には、模擬交通環境に含まれている道路を走行する車両(以下、模擬車両)内の環境を含ませることができる。模擬車両内の環境には、会話などによる車室内の音のレベルを含ませることもできる。また、模擬車両内の環境には、ドライバが感じることができる車室内の視覚刺激のレベルを含ませることもできる。ドライバが感じることができる車室内の視覚刺激は、たとえば、同乗者の腕または胴体の姿勢変化によって生じる。現実世界の交通環境は、動的に変化するものもある。したがって、交通環境設定部10は、少なくとも一部の模擬交通環境を、動的に変化させてもよい。
 車両装置シミュレーション部20は、現実世界の車両に搭載されている車両装置を模擬する部分であり、模擬車両に搭載されている模擬車両装置の作動を逐次決定する。模擬車両装置には、機械的構成と電気的構成とが含まれる。
 <車両装置シミュレーション部20の詳細構成>
 図2に、車両装置シミュレーション部20の詳細構成を示す。車両装置シミュレーション部20は、ドライバ状態検出装置シミュレーション部21、HMIシミュレーション部22、車両制御装置シミュレーション部23、車外通知装置シミュレーション部24を備えている。
 ドライバ状態検出装置シミュレーション部21は、ドライバ状態検出装置を模擬する。ドライバ状態検出装置は現実世界においてドライバの状態を検出する装置である。ドライバ状態検出装置には、ドライバを撮影するカメラ、ドライバを電波により観察するセンサ、ドライバの体表面に接触してドライバの生体情報を検出するセンサのいずれか1つ以上を含ませることができる。
 ドライバ状態検出装置の一例を、より詳しく説明する。ドライバ状態検出装置は、ドライバ席のヘッドレスト周辺を撮像するカメラ撮像部と、ドライバ席のヘッドレスト周辺に光を照射する照明部とを備える。ドライバ状態検出装置は、ドライバがドライバ席に着座している状態で、光が照射されたドライバの顔周辺をカメラ撮像部により撮像し、その撮像した画像に含まれるドライバの顔画像を解析してドライバの状態を監視する。ドライバ状態検出装置は、顔画像から瞼の下がり度合、瞳孔の開き度合い、視線方向、視線の移動速度、顔向き、顔の3次元位置、表情の変化度合い等に基づいて脇見、閉眼、眠気、疲労、注意レベル、イライラ感情等を判定し、その判定結果により、ドライバが運転に適する運転適正状態であるか、適さない運転不適状態であるかを判定する。さらに、居眠りや姿勢崩れ、ドライバ席からの離席等を判定し、その判定結果によりドライバが運転を継続できない運転不能状態であるかを判定する。
 ドライバ状態検出装置は、ToF(Time of Flight)センサ、ミリ波センサ、超音波センサ等で、上記の運転適正状態、運転不適状態、運転不能状態といったドライバ状態を検知する構成とすることもできる。また、ドライバ状態検出装置は、ドライバから離れた場所に設置されたミリ波でドライバの生体情報を検出するセンサ、ドライバの体表面に接触してドライバの生体情報を検出するセンサ等で、心拍数、R-R間隔、脈拍数、呼吸数等の変化度合いを基づいて、眠気、疲労レベル、ストレスレベル、頻脈性不整脈、徐脈性不整脈、心不全などを判定し、その判定結果によりドライバが運転に適する運転適正状態であるか、運転に適さない運転不適状態であるか、運転を継続できない運転不能状態であるかを判定する構成となっていることもある。
 また、ドライバ状態検出装置には、車両信号を検出するセンサを含ませることもできる。車両信号から推定できる車両挙動からドライバが車両周辺の状態を認識している程度を推定できるからである。ドライバ状態検出装置に含まれる車両信号を検出するセンサの例としては、ステアリング操舵センサ、ステアリングタッチセンサ、ステアリングトルクセンサがある。これらのセンサが検出する信号は、ドライバのステアリング操作に関わる車両信号である。ドライバ状態検出装置に含まれる車両信号を検出するセンサの別の例としては、アクセルペダルセンサ、ブレーキペダルセンサがある。これらのセンサが検出する信号は、ペダル操作に関わる車両信号である。
 ドライバ状態検出装置シミュレーション部21は、ドライバの状態が、ドライバ状態シミュレーション部31が決定した模擬ドライバの状態である場合に、ドライバ状態検出装置が検出するドライバ状態を逐次決定する。以下では、ドライバ状態シミュレーション部31が決定したドライバの状態を実ドライバ状態とし、ドライバ状態検出装置シミュレーション部21が逐次決定するドライバの状態を検出ドライバ状態とする。現実世界でもドライバの状態を、ドライバ状態検出装置が正しく検出できるとは限らない。したがって、実ドライバ状態と検出ドライバ状態は異なることがある。
 実ドライバ状態は、後に詳しく説明する種々の運転不適状態、運転不能状態を設定できる。ドライバ状態検出装置シミュレーション部21は、それら種々の運転不適状態、運転不能状態を、ドライバ状態検出装置が検出できるかを模擬する。
 ドライバ状態検出装置シミュレーション部21は、ドライバ状態検出装置の検出特性を示すパラメータ(以下、検出特性パラメータ)を使い、ドライバ状態検出装置を模擬する。ドライバ状態にはドライバの顔向きがある。ドライバの顔向きに対する検出特性パラメータを図3に示す。図3では、ドライバの顔向きの15度あるいは30度範囲ごとに正検知率が定められている。
 検出特性パラメータは、ドライバ検出装置の設定によって変化する。したがって、検出特性パラメータは、ドライバ検出装置の設定が異なるごとに用意されることが好ましい。ドライバ検出装置の設定の具体例を説明する。たとえば、ドライバ検出装置がカメラとカメラが撮像した画像を解析する画像解析ソフトウェアを含むものであれば、カメラの設置位置、画角、解像度、ソフトウェア仕様などがある。
 前述のように、実ドライバ状態と検出ドライバ状態は異なることがある。よって、実ドライバ状態は脇見であるが、検出ドライバ状態は脇見にはなっていないという状況も生じる。
 ドライバ状態には眠気レベルがある。眠気レベルに対する検出特性パラメータを図4に示す。図4では、眠気レベルが、D1~D5とSの6段階に分けられており、各眠気レベルに対して正検知率が定められている。D1は「全く眠くなさそう」、D2は「やや眠そう」、D3は「眠そう」、D4は「かなり眠そう」、D5は「非常に眠そう」、Sは「居眠りしていそう」である。なお、眠気レベルは、6段階に限られない。たとえば、眠気レベル0.1、0.2などのように、図4に示す各眠気レベル間をさらに細分化してもよい。眠気レベルは、ドライバの顔表情から推定することができる。脇見の場合と同様に、実ドライバ状態は居眠りであるが、検出ドライバ状態は居眠りにはなっていないという状況も生じる。
 ドライバ状態検出装置がドライバの顔向きを正しく検出できるかどうかは、顔向き以外のドライバの状態にも依存することがある。ドライバ状態検出装置は、顔向き、眠気レベルなど、時間変化のあるドライバ状態、換言すれば、動的なドライバ状態を検出する。ドライバ状態検出装置が、動的なドライバ状態を検出する検出性能は、ドライバの静的な状態の影響を受ける。
 静的なドライバ状態は、たとえば、顔着用物の有無である。顔着用物の有無により、ドライバの顔向きの検出性能、顔表情から推定する眠気レベルの検出性能が影響を受ける可能性がある。そこで、検出特性パラメータは、静的なドライバ状態別に設定することができる。
 たとえば、図3、図4に示す検出特性パラメータを、顔着用物ありと顔着用物なしに分けて設定してもよい。顔着用物は、マスク、メガネ、サングラス、帽子などである。また、顔着用物がなくても、ドライバの顔への光の照射状態も、ドライバ状態検出装置によるドライバ状態の検出結果に影響する可能性がある。そこで、ドライバの顔への光の照射状態別に図3、図4に示す検出特性パラメータを設定してもよい。ドライバの顔への光の照射状態は、偏在直射、夜、トンネルなどとして表現することができる。
 図3、図4に示す検出特性パラメータは、縦軸が正検知率である。しかし、検出特性パラメータは正検知率を定めるもの以外でもよい。たとえば、検出までの時間を定めるものでもよい。
 現実世界において、ドライバが脇見あるいは居眠りしている場合、早期にドライバに警報したほうが、ドライバが慌てて運転操作をする可能性が低減する。早期にドライバに警報できるかどうかは、ドライバ状態検出装置の性能に依存する。
 交通流シミュレーションシステム1は、ドライバ検出装置の性能を考慮して検出ドライバ状態を決定できるので、模擬ドライバに警報するタイミングの違いによる模擬ドライバの挙動の違いも模擬できる。
 ドライバ状態検出装置シミュレーション部21は、ドライバ状態シミュレーション部31が逐次決定する実ドライバ状態を入力値とし、検出ドライバ状態を逐次(すなわち時系列的に)決定する。検出ドライバ状態には、運転不適状態、運転不能状態、運転適正状態などを含ませることができる。また、検出ドライバ状態には、具体的なドライバの状態、たとえば、居眠り状態、眠気がある状態、脇見状態などを含ませることもできる。眠気がある状態(換言すれば覚醒低下状態)、脇見状態、閉眼状態、姿勢崩れ状態は、運転不適状態の一例である。居眠り状態は運転不能状態の一例である。運転不能状態には、デッドマン状態を含ませることもできる。デッドマン状態とは、ドライバが意識不明の状態または死亡している状態である。
 HMIシミュレーション部22は、模擬車両に搭載されたHMI(Human Machine Interface)の作動を模擬する。HMIは情報伝達装置である。HMIには、ドライバから車両へ情報を伝達する装置と、車両からドライバへ情報を伝達する装置の一方または両方を含ませることができる。ドライバから車両へ情報を伝達する装置には、スイッチおよびマイクの一方または両方を含ませることができる。
 車両からドライバへ情報を伝達する装置には、ディスプレイ、スピーカ、シートおよびステアリングなどを通じて振動をドライバに伝達する装置の1つ以上を含ませることができる。ディスプレイおよびスピーカは、2つ以上であってもよい。
 HMIには、ドライバに対して警報を与えるドライバ警報装置が含まれる。ドライバ警報装置は、ドライバ状態に基づいてドライバに警報するかどうかを決定する装置である。ドライバ警報装置は、ドライバ状態が運転不適状態になった場合に、ドライバに警報を与える。警報は、ドライバに刺激を与えることを意味する。刺激は、音刺激、視覚刺激、触覚刺激、体性感覚刺激の1つまたは複数の組み合わせである。複数種類の刺激の組み合わせをドライバに与える場合、HMIには、ドライバの互いに異なる感覚器に働きかける複数のドライバ警報装置が含まれる。HMIシミュレーション部22は、それら複数のドライバ警報装置を模擬する。
 音刺激は、スピーカから警報音を出力させることである。視覚刺激は、ディスプレイに警報を表示させることである。車両に複数のディスプレイがある場合には、複数のディスプレイのうちの1つ以上に警報を表示させることができる。触覚刺激は、ステアリングホイール、シート、シートベルトを使い、ドライバが触覚で知覚する刺激を与えることである。体性感覚刺激は、ドライバへの警報を目的とした車両挙動制御であり、緩い減速あるいは車線中央への緩い横移動である。体性感覚刺激は、ドライバに接している部品によりドライバに刺激を与える触覚刺激とは区別される。
 ドライバ警報装置がドライバに与える刺激の強さは、複数種類の強さに変化させることができる。音刺激の場合、刺激の強さは音量、音の高さなどにより調整できる。視覚刺激の場合、刺激の強さは、明るさ、表示範囲の大きさ、色などにより調整できる。触覚刺激の場合、刺激の強さは、振動の大きさ、振動周期などにより調整できる。体性感覚刺激の場合、刺激の強さは、車両に生じさせる加速度、車両の移動方向などにより調整できる。刺激の強さは、警報強度と言うこともできる。HMIシミュレーション部22は、複数種類の警報強度で警報できるドライバ警報装置を模擬する。
 ドライバ警報装置は、自車両が障害物に接触しそうになった場合に、ドライバに警報を与えるようにしてもよい。つまり、ドライバ警報装置は、ドライバ状態検出装置がなくても、ドライバに警報を与えることがある。ただし、ドライバが脇見などをしている状態が継続することにより、自車両が障害物に接触しそうになることが多い。そのため、ドライバ状態検出装置があるほうが、ドライバ警報装置は、早期にドライバに警報することが多くなる。
 ドライバ警報装置として、車線逸脱警報装置を含ませることもできる。車線逸脱警報装置も、ドライバ状態検出装置がなくても、ドライバに警報を与えることができる。ただし、ドライバ状態検出装置が、ドライバの姿勢が運転に不適切な姿勢である場合に、早期に警報する作動を模擬するようにしてもよい。
 HMIシミュレーション部22は、複数のドライバ警報装置を模擬する場合であって、模擬ドライバへ警報すると決定した場合には、複数のドライバ警報装置のうちから、模擬するドライバ警報装置を検出ドライバ状態に基づいて決定する。具体的にどのような検出ドライバ状態のときにどのドライバ警報装置を作動させるかは操作者が設定できる。たとえば、検出ドライバ状態が眠気レベルD3の場合に視覚刺激を模擬ドライバに与える設定と、同じく検出ドライバ状態が眠気レベルD3の場合に、聴覚刺激を模擬ドライバに与える設定とを比較する。このようにして、刺激の種類による模擬ドライバの反応の違いを確認することができる。
 HMIシミュレーション部22は、複数種類の警報強度で警報できるドライバ警報装置を模擬する場合であって、模擬ドライバに警報すると決定した場合、検出ドライバ状態に基づいて模擬する警報強度を決定する。具体的にどのような検出ドライバ状態のときに、どの警報強度とするかは操作者が設定できる。同じ検出ドライバ状態に対して、互いに異なる複数の警報強度をそれぞれ設定して模擬することで、警報強度の違いによる模擬ドライバの反応の違いを確認することができる。なお、HMIシミュレーション部22は、それぞれのドライバ警報装置が複数種類の警報強度で警報できる複数のドライバ警報装置を模擬してもよい。
 車両制御装置シミュレーション部23は、車両に搭載されている車両制御装置を模擬する。車両制御装置は、車両の挙動を制御する装置を意味する。車両制御装置シミュレーション部23は、車両制御装置が模擬車両に搭載された場合の、その車両制御装置の作動を逐次決定する。車両制御装置には、車両を加減速させる装置、車両の操舵を制御する装置を含ませることができる。さらに、車両制御装置には、運転支援装置および自動運転装置を含ませることができる。運転支援装置として、衝突被害軽減ブレーキ装置、車間距離制御装置、車線逸脱防止装置を例示できる。また、運転支援装置には、ドライバが運転不能状態になった場合に、ドライバに代わり車両を緊急停止させる緊急停止制御装置を含ませることができる。
 車両制御装置シミュレーション部23には、この運転支援装置を模擬する機能を含ませることができる。運転支援装置を模擬する部分には、ドライバ状態検出装置シミュレーション部21が逐次決定する検出ドライバ状態を示す信号が入力される。
 車両制御装置シミュレーション部23は、検出ドライバ状態に基づいて、運転支援制御の内容を決定する。たとえば、実ドライバ状態が運転不適状態あるいは運転不能状態であったとしても、検出ドライバ状態が運転不適状態でも運転不能状態でもなければ、車両制御装置シミュレーション部23は運転支援制御を実行しない。
 検出ドライバ状態が運転不適状態である場合に、車両制御装置シミュレーション部23は、現実世界において、ドライバが運転不適状態であることをドライバ状態検出装置が検出した場合に車両制御装置が実行する作動を模擬する。たとえば、車両制御装置シミュレーション部23は、衝突被害軽減ブレーキ装置を早期に作動させる状態、ブレーキ与圧指示を早期に出力する状態を模擬することができる。
 検出ドライバ状態である眠気レベルが実ドライバ状態である眠気レベルよりも低い(すなわち覚醒に近い)場合には、実ドライバ状態を基準に考えると、不十分な運転支援制御を実行されることになる。運転支援制御の一例には、ドライバへの警報がある。実ドライバ状態がドライバに警報をする眠気レベルであっても、検出ドライバ状態がドライバに警報をしない眠気レベルである状態が続くと、ドライバへの警報が遅れることになる。
 車外通知装置シミュレーション部24は、車両に搭載されている車外通知装置を模擬する。車外通知装置は、車両装置が搭載されている車両の周辺に存在する移動体、特に周辺車両に対して通知を行う装置である。車外通知装置シミュレーション部24は、車外通知装置が模擬車両に搭載された場合の、その車外通知装置の作動を逐次決定する。車外通知装置は、灯火装置とクラクションとを含む。そのため、車外通知装置シミュレーション部24は、灯火装置シミュレーション部25とクラクションシミュレーション部26とを備えている。なお、灯火装置とクラクションの他に、車外通知装置として、無線通信装置を含ませてもよい。無線通信装置は、たとえば、車車間通信装置、センタと通信する通信装置である。
 灯火装置の具体例には、前照灯、方向指示灯、車幅灯、尾灯、後退灯、制動灯が含まれる。灯火装置シミュレーション部25は、上述した具体的な灯火装置の1種類以上が模擬車両に搭載された場合の、その灯火装置の作動を模擬する。クラクションは、警音器と言うこともできる。クラクションシミュレーション部26は、クラクションが模擬車両に搭載された場合の、そのクラクションの作動を模擬する。
 車外通知装置は、車両が緊急停止する場合に作動する。現実世界において車両が緊急停止する場合には、灯火装置が点滅する。したがって、車外通知装置シミュレーション部24は、模擬車両が緊急停止する場合に、模擬車両に搭載された車外通知装置が作動する状態を模擬する。
 他にも、車外通知装置シミュレーション部24は、模擬している交通状況が現実世界において車外通知装置が使用される状況と合致した場合に、模擬車両に搭載された車外通知装置が作動する状況を模擬する。現実世界において車外通知装置が使用される状況としては、左右の見通しのきかない交差点に車両が入る場合がある。現実世界において、車両が、左右の見通しのきかない交差点に入る場合、ドライバがクラクションを鳴らす操作をすることがある。
 説明を図1に戻す。交通流シミュレーション部30は、模擬交通環境を移動する模擬移動体を設定する。模擬移動体には、現実世界の車両を模擬した模擬車両が少なくとも含まれ、模擬歩行者など、車両以外の移動体を模擬した模擬移動体が含まれていてもよい。模擬移動体には移動に関する種々の特性を設定できる。交通流シミュレーション部30は、模擬交通環境に設定した模擬移動体を、各模擬移動体に設定した特性に基づいて移動させる。
 また、模擬車両の少なくとも一部には、模擬車両を運転する模擬ドライバを設定できる。ドライバ状態シミュレーション部31はドライバの状態を模擬する部分である。ドライバ状態シミュレーション部31は、模擬車両を運転する模擬ドライバの状態を逐次決定する。ドライバ状態シミュレーション部31は、ドライバ状態検出装置が検出するドライバの状態に影響を与え、かつ、ドライバの状態を特定するパラメータ(以下、ドライバ状態特定パラメータ)を使い、模擬ドライバの状態を逐次決定する。ドライバ状態特定パラメータにより、実ドライバ状態が定義される。
 ドライバ状態特定パラメータとして、たとえば、模擬ドライバの顔の3次元位置、顔向き、開閉眼度合い、視線方向、開閉口度合い、胴体の3次元位置、胴体の向き、肩の3次元位置、肘の3次元位置、手の3次元位置を例示できる。ドライバ状態シミュレーション部31は、1種類以上のドライバ状態特定パラメータを使い、模擬ドライバの状態を模擬する。
 ドライバ状態シミュレーション部31は、ドライバ状態特定パラメータを使い、模擬ドライバの姿勢を定義できる。模擬ドライバの姿勢として、運転に不適切な種々の姿勢を定義できるようにしてもよい。運転に不適切な姿勢は運転不適状態の一例である。運転に不適切な姿勢としては、たとえば、シートの背もたれ部を大きく倒す、胡座をかく、後席のものを掴む、手にスマートフォン、飲食物、タバコなどを持つなどがある。
 ドライバ状態特定パラメータには、模擬ドライバの外面の形態を特定するパラメータだけではなく、模擬ドライバの内面の状態を特定するパラメータを含ませることができる。模擬ドライバの内面の状態を特定するパラメータの一例は、眠気レベルである。さらに、ドライバ状態特定パラメータに、模擬ドライバの飲酒レベル、薬物依存レベルを含ませることもできる。
 ドライバ状態シミュレーション部31は、少なくとも一部のドライバ状態特定パラメータを決定するための特性分布を持つ。図5に顔向きの生起確率分布を例示する。また、図5には、前方視とする範囲の一例も示している。図5では、顔向き角度が-30度から30度の範囲を前方視としている。脇見判定時間(たとえば2秒)において顔向き角度がこの範囲外にある時間比率が一定比率(たとえば70%)以上であれば脇見とする。
 ドライバ状態シミュレーション部31は、この生起確率分布を用いて、モンテカルロシミュレーションを実行することで、模擬ドライバの顔向きを決定する。ドライバ状態シミュレーション部31は、模擬ドライバのその他の部位についても、同様にして、向きや位置を決定できる。もちろん、肘と手など、位置が相互に関連する複数の部位については、相互に関連する部位の1つに対して、他の部位が取り得る位置の制約も設定しておく。
 ドライバ状態シミュレーション部31は、ドライバ反応設定部60が設定している各データベースも用いつつ、実ドライバ状態を逐次決定する。ドライバ反応設定部60は、ドライバが知覚する状態に対してドライバがどのように反応するかを定める種々の設定値を設定する。ドライバの反応により、ドライバの状態は変化するからである。
 交通流シミュレーション部30は、模擬ドライバが運転している模擬車両については、模擬ドライバの運転操作に基づき模擬車両の挙動を決定する。交通流シミュレーション部30は、様々な交通環境下での車両挙動分布、たとえば、先行車に対する衝突余裕時間、車間時間、車速、先行車の制動灯が点灯した場合の制動開始時間分布など、種々の条件における車両挙動分布を格納したデータベースを備える。交通流シミュレーション部30は、模擬車両以外の模擬移動体についても、種々の交通環境下での挙動分布を格納したデータベースを備える。交通流シミュレーション部30は、種々の分布をもとにモンテカルロシミュレーションにより、模擬移動体の挙動を逐次決定する。交通流シミュレーション部30は、複数の模擬移動体の挙動を時間別に決定する。複数の模擬移動体の挙動の時間変化が交通流である。交通流は交通状況と言うこともできる。
 交通状況記録部40は、交通流シミュレーション部30が決定した交通流の一部または全部を所定の記憶部に記憶する。交通流シミュレーション部30は、交通状況記録部40が記憶したファイルによって交通流を再現できる。
 支援効果算出部50は、車両制御装置シミュレーション部23が備える運転支援装置の一部または全部がある場合と、その運転支援装置がない場合とを比較して、運転支援装置による運転支援の効果を算出する。
 ドライバ反応設定部60は、ドライバが知覚する状態に対してドライバがどのように反応するかを定める種々の設定値を設定する部分である。ドライバ反応設定部60には、認知時間分布DB61、判断時間分布DB62、操作時間分布DB63を備えている。なお、DBはデータベースの略である。ドライバ反応設定部60は、さらに、回避行動反応時間分布DB64、回避行動選択割合分布DB65、煩わしさレベル分布DB66も備えている。
 認知時間分布DB61は、運転操作をする必要がある状況になってから、ドライバがその状況を認知するまでに要する時間の分布を格納したデータベースである。判断時間分布DB62は、ドライバが、運転操作をする必要がある状況であることを認知してから、運転操作をすると判断するまでに要する時間の分布を格納したデータベースである。操作時間分布DB63は、ドライバが、運転操作をすると判断してから、実際に運転操作をするまでに要する時間の分布を格納したデータベースである。認知時間、判断時間、操作時間は、ドライバの状態により変動する。そのため、認知時間分布DB61、判断時間分布DB62、操作時間分布DB63は、ドライバ状態検出装置シミュレーション部21が決定したドライバ状態に対応して、複数の時間分布を持つ。
 図6に、認知時間分布、判断時間分布、操作時間分布を例示する。図6には、検出ドライバ状態が、通常、脇見、居眠りの3つの状態である場合にそれぞれ対応した認知時間分布、判断時間分布、操作時間分布を示している。検出ドライバ状態「通常」は、ドライバが、正しい姿勢で前方など周囲の確認を行いつつ運転している状態である。
 図6に示す例では、認知時間分布、判断時間分布、操作時間分布は、いずれも正規分布である。ただし、分布は、正規分布に限られず、実験等に基づいて適宜設定することができる。
 検出ドライバ状態が通常である場合よりも、脇見である場合のほうが、認知時間分布、判断時間分布、操作時間分布は遅い時間にシフトする。さらに、検出ドライバ状態が脇見である場合よりも、居眠りである場合のほうが、認知時間分布、判断時間分布、操作時間分布は遅い時間にシフトする。なお、図6に示す例では、3つの認知時間分布、3つの判断時間分布、3つの操作時間分布は、同じ形状になっている。しかし、各時間分布は、実験等に基づいて個別に設定可能である。
 回避行動反応時間分布DB64は、運転支援装置がドライバに対して警報を発した場合に、ドライバが回避行動をとるまでの反応時間を、複数の反応時間帯Tごとに確率で示すデータベースである。図7に、回避行動反応時間分布DB64の一例を示す。回避行動反応時間分布DB64は、出力項目と設定項目とを備える。
 出力項目は、複数の反応時間帯Tと、もう一つの出力項目である「見逃し」に対して確率が設定されている。「見逃し」は反応時間が、回避行動をとるのには遅すぎる所定時間以上であることを意味する。「見逃し」は、警報に対してドライバが反応しない、すなわち行動しない状態である。「見逃し」には、ドライバが警報を認知できない場合と、ドライバが警報に対して反応できない場合とが含まれる。
 設定項目は、出力項目に影響する項目であって、操作者が設定可能な項目である。設定項目には、運転支援装置の特性を含ませることができる。ここでの運転支援装置は、ドライバ警報装置である。運転支援装置の特性として設定できる内容は音刺激、視覚刺激、触覚刺激、体性感覚刺激およびそれらの組み合わせとすることができる。また、これらの刺激の程度を設定できるようにしてもよい。音刺激であれば、刺激の程度は音量の大きさである。ドライバが知覚する警報音の大きさは、警報音以外の音の大きさの影響を受ける。騒音が大きいほどドライバが知覚する警報音の大きさは小さくなる。そこで、音刺激の大きさは周囲の騒音に対する相対的な大きさとして設定してもよい。また、音刺激の大きさは絶対値とし、音刺激の大きさとは別に、騒音の大きさを設定できるようにしてもよい。騒音には、車内の騒音と車外の騒音がある。車内の騒音には、乗員の会話、車載オーディオ装置が出力する音楽などがある。また、視覚刺激は、警報を表示するディスプレイの位置を設定できるようにしてもよい。
 設定項目には、ドライバの特性も含ませることができる。ドライバの特性は、ドライバの年齢、性別の一方または両方を含ませることができる。年齢を設定する場合、年齢そのものを設定してもよいし、年代を設定してもよい。設定項目には、実ドライバ状態と検出ドライバ状態も含ませることができる。設定項目に、実ドライバ状態と検出ドライバ状態とを含ませることで、検出ドライバ状態である眠気レベルが実ドライバ状態である眠気レベルよりも低い場合の反応時間帯Tなどを模擬できる。
 回避行動選択割合分布DB65は、ドライバが障害物との接触を回避するために選択する行動を確率で示すデータベースである。図8に、回避行動選択割合分布DB65の一例を示す。回避行動選択割合分布DB65は、出力項目と設定項目とを備える。出力項目は、ドライバが選択して実行する(すなわち出力する)可能性がある回避行動の種類別に、選択する確率が設定されている。
 設定項目には、回避行動反応時間分布DB64と同様、運転支援装置の特性、実ドライバ状態、検出ドライバ状態を含ませることができる。実ドライバ状態と検出ドライバ状態が同じ眠気レベルであれば、実ドライバ状態に応じた警報をドライバに与えることができる。しかし、検出ドライバ状態である眠気レベルが実ドライバ状態である眠気レベルよりも低い(すなわち覚醒に近い)場合には、ドライバに与える刺激の程度が不足することになる。この理由などにより、設定項目に、実ドライバ状態と検出ドライバ状態の2つの項目が設定できるようになっている。
 検出ドライバ状態が、実ドライバ状態と比較して、ドライバの状態が正常に近い状態になっているほど、警報のレベルが低くなり、また、警報のタイミングが遅くなる可能性がある。そのため、検出ドライバ状態が、実ドライバ状態と比較して、ドライバの状態が正常に近い状態になっているほど、ドライバが回避行動をする時点での緊急性が高くなる可能性がある。そこで、出力項目は、検出ドライバ状態が、実ドライバ状態と比較して、ドライバの状態が正常に近い状態になっているほど、緊急性が高い回避行動を選択する比率を高くする。
 図8に示した設定項目は一例である。実ドライバ状態と検出ドライバ状態との乖離は、ドライバ状態検出装置の検出性能の影響を受ける。そこで、実ドライバ状態と検出ドライバ状態に代えて、ドライバ状態検出装置の特性を設定してもよい。ドライバ状態検出装置の特性の例として、検出性能が高い、検出性能が低い、ドライバ状態検出装置なしを例示できる。もちろん、ドライバ状態検出装置の検出性能を数値で示してもよい。また、ドライバ状態検出装置の特性を、具体的な検出装置の有無、具体的な検出装置の検出性能により示してもよい。
 煩わしさレベル分布DB66は、車両装置シミュレーション部20により模擬される運転支援装置の特性および運転者の特性の各々の条件に対して、模擬される運転支援装置による警報によってドライバが感じる煩わしさの各々のレベルについての確率を記憶したものである。煩わしさレベル分布DB66における運転支援装置の特性は、上述したものの他に、単位時間当たりの警報の発生頻度のレベルがある。
 <交通流シミュレーション方法>
 交通流シミュレーション方法の一例は、交通流シミュレーションシステム1が図9に示す処理を実行することである。図9は、交通流シミュレーションシステム1が実行する処理の概要の一例である。図9に示す処理を実行する前に、交通環境設定部10は、操作者の操作に従い、模擬交通環境を設定する。なお、模擬交通環境は、動的に変化するように設定することもできる。また、交通環境設定部10は、1人以上の模擬ドライバに対して顔装着物の有無、および、顔装着物の種類を設定してもよい。
 S1では、ドライバ状態シミュレーション部31が、模擬ドライバの状態を模擬する。模擬ドライバの状態を模擬することは、実ドライバ状態を決定することである。実ドライバ状態は、ドライバ状態特定パラメータを用いて定める。S1の処理により模擬される模擬ドライバの状態としては、たとえば、動作揺らぎ、姿勢崩れ、脇見、安全確認のための顔向きおよび視線変化、居眠りなどがある。姿勢崩れは、ドライバに突発的な体調異常が生じたときに起きることがある。脇見には、車両側方を見る脇見、車室内(たとえばセンターディスプレイ)を見る脇見などがある。これらの模擬ドライバの状態は、ドライバ状態特定パラメータにより特定される顔位置、顔向き、開閉眼度合い、視線方向などの時系列変化により定義される。
 S2では、ドライバ状態検出装置シミュレーション部21が、S1で模擬した模擬ドライバの状態(すなわち実ドライバ状態)をドライバ状態検出装置が検出する処理を模擬し、検出ドライバ状態を決定する。検出ドライバ状態は、ドライバ状態検出装置の検出特性を示す検出特性パラメータを用いて決定する。
 S2の処理により、検出ドライバ状態が、運転不適状態、運転不能状態、運転適正状態のいずれであるかを決定することができる。実ドライバ状態が、ドライバ状態検出装置の検出限界を超える大きな顔向きである場合には、顔向き検出不能という検出ドライバ状態を含ませることができる。また、模擬ドライバが、顔着用物を着用している場合、あるいは、模擬ドライバの顔への光の照射状態により、ドライバ状態検出装置が、模擬ドライバの顔向き、および、顔表情の一方または両方を検出できないという検出ドライバ状態が決定されることもある。検出特性パラメータは確率分布を持つので、同じ実ドライバ状態に対して、決定される可能性がある検出ドライバ状態は複数種類ある。
 S3では、HMIシミュレーション部22がHMIの作動を模擬する。たとえば、S2で決定した検出ドライバ状態が、脇見、居眠りである場合、HMIの1つであるドライバ警報装置が模擬ドライバに対して警報を出力する作動を模擬することができる。
 S4では、車両制御装置シミュレーション部23が車両制御装置の作動を模擬する。このS4の処理により、仮想空間における模擬車両の位置および挙動が逐次、更新される。たとえば、S2で決定した検出ドライバ状態が、運転不適状態である場合、緊急停止制御装置の作動を模擬し、模擬車両を緊急停止させる。
 S5では、ドライバ状態シミュレーション部31が、S3およびS4で模擬したHMIの作動と車両制御装置の作動とに対して、S2で決定した検出ドライバ状態になっている模擬ドライバがどのように反応するかを模擬する。
 たとえば、S2で決定した検出ドライバ状態が、模擬ドライバの姿勢が運転に不適切な姿勢であって、S4でドライバ警報装置が模擬ドライバに警報した場合に、模擬ドライバの姿勢がどのように変化するかを模擬する。模擬ドライバの姿勢の変化も確率計算を含めて決定する。模擬ドライバの姿勢の変化は、模擬ドライバが手に物を持っているという運転不適切姿勢である場合、持っている物の種類に応じて異なる姿勢変化を確率計算してもよい。たとえば、スマートフォンなど、放り投げられる物と、タバコおよび飲み物など、放り投げられない物とを区別して姿勢変化を確率計算してもよい。
 S5では、ドライバ状態シミュレーション部31は、ドライバ反応設定部60が設定している各種のデータベースも用いる。たとえば、図6に示したように、検出ドライバ状態が脇見あるいは居眠りであれば、検出ドライバ状態が、通常状態である場合に比較して、認知、判断、反応時間が遅れることになる。
 また、図7に示す回避行動反応時間分布DB64を用いて、模擬ドライバに対して警報が与えられた場合に、模擬ドライバが反応するか見逃すか、および、反応する場合の反応時間帯Tを決定できる。たとえば、実ドライバ状態が右前方の看板を見ている脇見状態であり、S3において、ドライバ警報装置が模擬車両のセンターディスプレイに警報を表示する作動を決定した場合には、検出ドライバ状態の視線方向は警報が表示されている方向ではない。したがって、回避行動反応時間分布DB64を使って決定する模擬ドライバの回避行動は、見逃しになる可能性が高い。車室内の会話がうるさいなど、騒音が大きい場合にも、回避行動反応時間分布DB64を使って決定する模擬ドライバの回避行動は、見逃しになる可能性が高くなる。
 また、図8に示す回避行動選択割合分布DB65を用いて、模擬ドライバが回避行動を選択する場合に、どの回避行動を選択するかを決定できる。
 S6では、車外通知装置シミュレーション部24が、車外通知装置の作動を模擬する。たとえば、S2で決定した検出ドライバ状態が運転不能状態であれば、灯火装置シミュレーション部25が、灯火装置を点滅させる作動を模擬する。また、現実世界において、車両が、左右の見通しのきかない交差点に入る場合、クラクションを鳴らすことが必要となっていることがある。そこで、模擬車両が、左右の見通しのきかない交差点に入る場合、クラクションシミュレーション部26が、クラクションを鳴らす作動を模擬してもよい。
 S7では、交通流シミュレーション部30が、S4で決定した模擬車両の位置および挙動と、S6で模擬した模擬車両の車外通知装置の作動とに基づいて、交通流を模擬する。ある模擬車両の位置および挙動は、その模擬車両の周囲の模擬移動体の位置および挙動に影響する。また、模擬車両の車外通知装置が作動した場合にも、その模擬車両の周囲の模擬移動体は、車外通知装置が作動したことの影響を受けることがある。S7の処理が終了したら、S1に戻る。
 <脇見の場合の作動例>
 図10を用いて、脇見に対して警告する場合の作動例を説明する。図10において、上段のグラフは、実ドライバ状態である顔向き角度の時間変化を示す。中段のグラフは、検出ドライバ状態である顔向き角度の時間変化を示す。下段のグラフは、中段の検出ドライバ状態と、模擬ドライバに対して警告がされた場合の検出ドライバ状態の時間変化とを重ねて示している。
 図10の例では、上段のグラフに示すように、時刻t1で、実ドライバ状態である顔向き角度は-30度を下回っている。図5に示したように、顔向き角度が-30度を下回る場合、前方視ではない。実ドライバ状態では、時刻t1で顔向き角度が-30度を下回り、時刻t1から時刻t5まで、顔向き角度が-30度を下回った状態が継続する。時刻t1から時刻t5まで、たとえば、2.5秒とする。ナビゲーション装置のディスプレイを注視している場合などに、この程度の顔向き角度変化が、この程度の時間継続することが考えられる。
 実ドライバ状態とは異なり、検出ドライバ状態は、時刻t1では、まだ-30度以下になっていない。図5の例では、このように、実ドライバ状態と検出ドライバ状態とが相違する。検出ドライバ状態は、図3に示した検出特性パラメータを用いて模擬するので、実ドライバ状態が同じであっても、検出ドライバ状態はトライアル毎に変化する。図5の例では、検出ドライバ状態である顔向き角度は、時刻t2で-30度以下になる。
 時刻t3は、時刻t2から脇見判定時間が経過し、HMIシミュレーション部22が模擬ドライバに対して警報を与えた時刻である。下段のグラフに示すように、模擬ドライバの顔向きは、警報により0度方向に向かい、時刻t4で-30度まで戻っている。ドライバに警報しない場合は、模擬ドライバの顔向きが-30度に戻る時刻は時刻t5であるので、警報による効果を模擬できている。
 この図10の例とは異なり、模擬ドライバの顔向きが-60度よりも大きく、かつ、警報が、ドライバの正面方向にあるディスプレイに表示する警報であるとするシミュレーションも可能である。この場合、警報をしても、模擬ドライバは警報に気づかずに、模擬ドライバの顔向きが前方視に戻るまでの時間が遅くなる。
 <居眠りの作動例>
 次に、図11を用いて、模擬ドライバが居眠りをしていると判断する場合の作動例を説明する。図11の例では、実ドライバ状態と検出ドライバ状態が常に一致している。現実世界のドライバ状態検出装置は、眠気レベルを、眠気判断時間の顔画像から判断する。眠気判断時間が5秒であり1秒間に30フレームあるとすると、150フレームの顔画像を用いることになる。用いる顔画像の中で、眠気レベルが警報基準レベル(たとえば眠気レベルD4)以上と決定した顔画像が居眠り判断比率閾値(たとえば70%)以上であれば、ドライバは居眠りをしているので警報すると判断する。
 この交通流シミュレーションシステム1は、顔に関する実ドライバ状態と検出特性パラメータとを用いた確率計算により、現実世界のドライバ状態検出装置が判断する眠気レベルを模擬する。顔に関する実ドライバ状態は、ドライバ状態シミュレーション部31が逐次特定するものであり、顔向き、開閉眼度合い、開閉口度合いなどである。検出特性パラメータは、ドライバ状態検出装置シミュレーション部21が定める。
 時刻t10から、模擬ドライバの眠気レベルは上昇していき、時刻t11において、眠気レベルが警報する基準となる眠気レベル3を超える。しかし、時刻t12で再び眠気レベルは3よりも小さくなる。時刻t11から時刻t12までの時間は、眠気判断時間よりも短いとすると、時刻t12でも、HMIシミュレーション部22は模擬ドライバに警報するとは判断しない。
 時刻t13で再び眠気レベルは3以上となる。時刻t14は、時刻t13から眠気判断時間が経過した時刻である。時刻t13以降、眠気レベルが3以上の状態が継続している。したがって、時刻t14で、HMIシミュレーション部22は、模擬ドライバは居眠りであると判断し、模擬ドライバに対して警報する。
 <実施形態のまとめ>
 以上、説明した本実施形態の交通流シミュレーションシステム1は、ドライバ状態検出装置を模擬するドライバ状態検出装置シミュレーション部21を備える。また、ドライバ状態検出装置シミュレーション部21がドライバ状態検出装置を模擬できるように、模擬ドライバの状態を逐次決定するドライバ状態シミュレーション部31を備える。ドライバ状態検出装置シミュレーション部21は、ドライバ状態シミュレーション部31が決定した模擬ドライバの状態である実ドライバ状態とドライバ状態検出装置の検出特性とを用いることで検出ドライバ状態を逐次決定できる。
 検出ドライバ状態が決定できるので、車両装置シミュレーション部20は、検出ドライバ状態に基づいて、模擬車両に搭載された模擬車両装置の作動を逐次決定できる。このように、この交通流シミュレーションシステム1は、検出ドライバ状態に基づいて模擬車両装置の作動を決定できることから、模擬車両装置を搭載している模擬車両の移動、および、模擬車両を含んでいる交通流を精度よく模擬できる。
 車両装置シミュレーション部20は、模擬車両に搭載されたHMIの作動を模擬するHMIシミュレーション部22を備えている。HMIシミュレーション部22は、検出ドライバ状態に基づいてHMIの作動を模擬するので、検出ドライバ状態が実ドライバ状態と同じである場合だけでなく、検出ドライバ状態が実ドライバ状態と異なる場合のHMIの作動も模擬できる。
 HMIシミュレーション部22は、模擬ドライバへ警報するかどうかを、検出ドライバ状態に基づいて決定する。したがって、検出ドライバ状態が実ドライバ状態よりも正常に近い結果、警報の程度が不十分である状態を模擬することもできる。
 また、HMIシミュレーション部22は、ドライバの互いに異なる感覚器に刺激を与える複数のドライバ警報装置を模擬できるようになっている。そして、模擬ドライバへ警報すると決定した場合に、複数のドライバ警報装置のうちから、模擬するドライバ警報装置を検出ドライバ状態に基づいて決定することができる。これにより、刺激の種類による模擬ドライバの反応の違いを確認することができる。
 また、HMIシミュレーション部22は、複数種類の警報強度でドライバに対して警報するドライバ警報装置を模擬できるようになっている。そして、模擬ドライバへ警報すると決定した場合に、模擬する警報強度を検出ドライバ状態に基づいて決定することができる。これにより、警報強度の違いによる模擬ドライバの反応の違いを確認することができる。
 ドライバ状態検出装置シミュレーション部21が検出する検出ドライバ状態に、運転適正状態、運転不適状態、運転不能状態が含まれる。したがって、検出ドライバ状態が、これら3種類の状態である場合について、それぞれ、模擬車両の挙動を模擬できる。
 車両装置シミュレーション部20は、車両制御装置を模擬する車両制御装置シミュレーション部23を備えている。車両制御装置シミュレーション部23は、検出ドライバ状態に基づいて車両制御装置の作動を模擬するので、検出ドライバ状態が実ドライバ状態と異なる場合の車両制御装置の作動も模擬できる。
 車両制御装置シミュレーション部23は、検出ドライバ状態が運転不能状態になった場合に緊急時の運転支援制御を実行する作動を模擬する。車両制御装置シミュレーション部23は、実ドライバ状態が運転不能状態であっても、検出ドライバ状態が運転不能状態でなければ、緊急時の運転支援制御を実行しない。したがって、運転不能状態をドライバ検出装置が検出できなかった場合の交通流を模擬することができる。
 なお、運転不能状態だけでなく、車両制御装置シミュレーション部23は、検出ドライバ状態が運転不適状態になった場合にも、緊急時の運転支援制御を実行する作動を模擬してもよい。
 車両装置シミュレーション部20は、車外通知装置を模擬する車外通知装置シミュレーション部24を備えているので、模擬車両が、自らの挙動を制御する場合の交通流を模擬できるだけでなく、模擬車両からの通知により、周囲の模擬移動体がどのように移動するかも模擬できる。
 車外通知装置シミュレーション部24は、検出ドライバ状態が運転不能状態になった場合に、緊急時の運転支援制御を実行することを意味する情報を、車外通知装置が車外に通知する状態を模擬することができる。これにより、模擬車両が緊急時の運転支援制御を実行する場合に、周囲の模擬移動体がどのように移動するかを精度よく模擬できる。
 以上、実施形態を説明したが、開示した技術は上述の実施形態に限定されるものではなく、要旨を逸脱しない範囲内で種々変更して実施できる。

Claims (12)

  1.  仮想空間に模擬交通環境を設定する交通環境設定部(10)と、
     前記模擬交通環境において、模擬車両が少なくとも含まれる模擬移動体を移動させる交通流シミュレーション部(30)と、
     前記模擬車両を運転する模擬ドライバの状態を逐次決定するドライバ状態シミュレーション部(31)と、
     ドライバ状態検出装置が検出する前記模擬ドライバの状態を、前記ドライバ状態シミュレーション部が決定した前記模擬ドライバの状態である実ドライバ状態と、前記ドライバ状態検出装置の検出特性とに基づいて逐次決定するドライバ状態検出装置シミュレーション部(21)と、
     前記ドライバ状態検出装置シミュレーション部が決定した前記模擬ドライバの状態である検出ドライバ状態に基づいて、前記模擬車両に搭載された模擬車両装置の作動を逐次決定する車両装置シミュレーション部(20)と、を備える交通流シミュレーションシステム。
  2.  前記車両装置シミュレーション部に、ドライバと車両との間で情報伝達する情報伝達装置を模擬するHMIシミュレーション部(22)が含まれる、請求項1に記載の交通流シミュレーションシステム。
  3.  前記HMIシミュレーション部は、前記検出ドライバ状態に基づいて前記模擬ドライバへ警報するかどうかを決定することで、前記ドライバへ警報する装置を模擬する機能を含む、請求項2に記載の交通流シミュレーションシステム。
  4.  前記HMIシミュレーション部は、前記ドライバの互いに異なる感覚器に働きかける複数のドライバ警報装置を模擬できるようになっており、前記模擬ドライバへ警報すると決定した場合に、複数の前記ドライバ警報装置のうちから、模擬する前記ドライバ警報装置を前記検出ドライバ状態に基づいて決定する、請求項3に記載の交通流シミュレーションシステム。
  5.  前記HMIシミュレーション部は、複数種類の警報強度で前記ドライバに対して警報するドライバ警報装置を模擬できるようになっており、前記模擬ドライバへ警報すると決定した場合に、模擬する前記警報強度を前記検出ドライバ状態に基づいて決定する、請求項3または4に記載の交通流シミュレーションシステム。
  6.  前記ドライバ状態検出装置シミュレーション部が検出する前記検出ドライバ状態に、運転適正状態、運転不適状態、運転不能状態が含まれる、請求項1~5のいずれか1項に記載の交通流シミュレーションシステム。
  7.  前記車両装置シミュレーション部は、車両の挙動を制御する車両制御装置を模擬する車両制御装置シミュレーション部(23)を含む、請求項1~6のいずれか1項に記載の交通流シミュレーションシステム。
  8.  前記車両制御装置シミュレーション部は、前記検出ドライバ状態が運転不適状態または運転不能状態になった場合に緊急時の運転支援制御を実行することで、緊急時の運転支援制御を模擬する機能を含む、請求項7に記載の交通流シミュレーションシステム。
  9.  前記車両装置シミュレーション部は、車両に搭載されている車外通知装置を模擬する車外通知装置シミュレーション部(24)を含む、請求項1~8のいずれか1項に記載の交通流シミュレーションシステム。
  10.  前記車両装置シミュレーション部は、車両の挙動を制御する車両制御装置を模擬する車両制御装置シミュレーション部(23)を含み、
     車両制御装置シミュレーション部は、前記検出ドライバ状態が運転不能状態になった場合に、緊急時の運転支援制御を実行することで、緊急時の運転支援制御を模擬する機能を含み、
     前記車外通知装置シミュレーション部は、前記検出ドライバ状態が運転不能状態になった場合に、緊急時の運転支援制御を実行することを意味する情報を車外に通知する、請求項9に記載の交通流シミュレーションシステム。
  11.  仮想空間に模擬交通環境を設定し、
     前記模擬交通環境において、模擬車両が少なくとも含んでいる模擬移動体を移動させ(S7)、
     前記模擬車両を運転する模擬ドライバの状態である実ドライバ状態を逐次決定し(S1、S5)、
     ドライバ状態検出装置が検出する前記模擬ドライバの状態である検出ドライバ状態を、前記実ドライバ状態と、前記ドライバ状態検出装置の検出特性とに基づいて逐次決定し(S2)、
     前記検出ドライバ状態に基づいて、前記模擬車両に搭載された模擬車両装置の作動を逐次決定する(S4、S6)、交通流シミュレーション方法。
  12.  少なくとも1つのコンピュータと、
     前記少なくとも1つのコンピュータに実行されるプログラムを記録した少なくとも1つの記録媒体と、を備え、
     前記プログラムは、前記コンピュータに実行されることで、該コンピュータに、
     仮想空間に模擬交通環境を設定させ、
     前記模擬交通環境において、模擬車両が少なくとも含んでいる模擬移動体を移動させ、
     前記模擬車両を運転する模擬ドライバの状態を逐次決定させ、
     ドライバ状態検出装置が検出する前記模擬ドライバの状態を、決定された前記模擬ドライバの状態である実ドライバ状態と、前記ドライバ状態検出装置の検出特性とに基づいて逐次決定させ、
     決定した前記模擬ドライバの状態である検出ドライバ状態に基づいて、前記模擬車両に搭載された模擬車両装置の作動を逐次決定させる、交通流シミュレーションシステム。
PCT/JP2022/012929 2021-08-23 2022-03-21 交通流シミュレーションシステムおよび交通流シミュレーション方法 WO2023026553A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-135817 2021-08-23
JP2021135817A JP2023030595A (ja) 2021-08-23 2021-08-23 交通流シミュレーションシステムおよび交通流シミュレーション方法

Publications (1)

Publication Number Publication Date
WO2023026553A1 true WO2023026553A1 (ja) 2023-03-02

Family

ID=85322674

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012929 WO2023026553A1 (ja) 2021-08-23 2022-03-21 交通流シミュレーションシステムおよび交通流シミュレーション方法

Country Status (2)

Country Link
JP (1) JP2023030595A (ja)
WO (1) WO2023026553A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093341A (ja) * 2007-10-05 2009-04-30 Toyota Central R&D Labs Inc 認知再現装置及びプログラム並びに交通流シミュレーション装置及びプログラム
JP2014174447A (ja) * 2013-03-12 2014-09-22 Japan Automobile Research Institute 車両用危険場面再現装置、およびその使用方法
JP2019016213A (ja) * 2017-07-07 2019-01-31 矢崎エナジーシステム株式会社 車載機、処理装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093341A (ja) * 2007-10-05 2009-04-30 Toyota Central R&D Labs Inc 認知再現装置及びプログラム並びに交通流シミュレーション装置及びプログラム
JP2014174447A (ja) * 2013-03-12 2014-09-22 Japan Automobile Research Institute 車両用危険場面再現装置、およびその使用方法
JP2019016213A (ja) * 2017-07-07 2019-01-31 矢崎エナジーシステム株式会社 車載機、処理装置およびプログラム

Also Published As

Publication number Publication date
JP2023030595A (ja) 2023-03-08

Similar Documents

Publication Publication Date Title
US10875536B2 (en) Coordinated vehicle response system and method for driver behavior
CN108205731B (zh) 情境评估车辆***
US11377094B2 (en) System and method for responding to driver behavior
US9007198B2 (en) Adaptive Actuator interface for active driver warning
US20200216095A1 (en) Vehicle driving assistance apparatus
WO2014149657A1 (en) Coordinated vehicle response system and method for driver behavior
JP2013089250A (ja) 運転者の状態を評価及び通信するための車両システム及び方法
JP2007528815A (ja) 運転者の行動解釈に基づいて自動車のサブシステムを制御する方法および機構
US11447140B2 (en) Cognitive tunneling mitigation device for driving
JP2017526034A (ja) 急迫の危険に際してサウンドステージを用いて運転者の覚醒度の欠如を示す自動車用検知システム
EP1914106A2 (en) An attention management system and method
WO2023026553A1 (ja) 交通流シミュレーションシステムおよび交通流シミュレーション方法
Fitch Driver comprehension of integrated collision avoidance system alerts presented through a haptic driver seat
JP7372381B2 (ja) 交通安全支援システム
JP7422177B2 (ja) 交通安全支援システム
WO2020195168A1 (ja) 漫然状態判定装置および漫然状態判定方法
JP2023151648A (ja) 交通安全支援システム
JP2023151647A (ja) 交通安全支援システム
JP2023151645A (ja) 交通安全支援システム
JP2023151659A (ja) 交通安全支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22860851

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE