WO2024062573A1 - 運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法 - Google Patents

運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法 Download PDF

Info

Publication number
WO2024062573A1
WO2024062573A1 PCT/JP2022/035245 JP2022035245W WO2024062573A1 WO 2024062573 A1 WO2024062573 A1 WO 2024062573A1 JP 2022035245 W JP2022035245 W JP 2022035245W WO 2024062573 A1 WO2024062573 A1 WO 2024062573A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
behavior
sound effect
output
vehicle
Prior art date
Application number
PCT/JP2022/035245
Other languages
English (en)
French (fr)
Inventor
美香 鈴木
瑠一 澄川
英行 高尾
Original Assignee
株式会社Subaru
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Subaru filed Critical 株式会社Subaru
Priority to PCT/JP2022/035245 priority Critical patent/WO2024062573A1/ja
Publication of WO2024062573A1 publication Critical patent/WO2024062573A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/12Limiting control by the driver depending on vehicle state, e.g. interlocking means for the control input for preventing unsafe operation

Definitions

  • the present disclosure relates to a driving support system, a vehicle, a recording medium recording a computer program, and a driving support method.
  • the technical level of vehicle operation varies depending on the driver.
  • the technical level of driving operations affects ride comfort and traffic safety.
  • various devices have been proposed that determine the driving operation of a vehicle and notify the driver of the determination result of the driving operation, and devices that provide advice.
  • Patent Document 1 the driving operation state is determined accurately, the driver can know information about the comprehensive evaluation of the driving operation state in the current driving, and the driving operation state in the next driving is improved.
  • Driving support devices have been proposed that are capable of improving driving performance.
  • such a driving support device determines whether the driving state is supple or swaying based on the amount of change in acceleration and jerk, and criteria set using a vibration model. It has a configuration that comprehensively evaluates the driving operation state during the current driving while determining whether or not the vehicle is running.
  • Patent Document 1 only evaluates a series of driving operations performed while driving, and does not appropriately guide the driver's driving behavior.
  • This disclosure has been made in consideration of the above problems, and the purpose of this disclosure is to provide a driving assistance system that can stimulate the driver's hearing to more effectively guide the driver's driving behavior without performing complicated processing.
  • a driving assistance system that assists a driver who drives a vehicle, one or more processors; and one or more memories communicatively coupled to the one or more processors;
  • the processor executing a data acquisition process for acquiring data indicating a behavior of the vehicle as behavior data while the vehicle is traveling at least in a predetermined section; a sound effect output control process for outputting a sound effect according to a behavior stability obtained from the behavior data in the predetermined section after the vehicle has passed through the predetermined section, and for executing control for stimulating the sense of hearing of the driver;
  • the data acquisition process and the sound effect output control process are repeatedly executed while changing the output conditions of the sound effects, and when the results of the repeatedly executed data acquisition process and sound effect output control process satisfy preset setting conditions, a specific process is executed to specify the output conditions corresponding to the results as optimal output conditions.
  • a vehicle is a vehicle equipped with a driving support device that supports driving of the vehicle.
  • the driving support device includes: Executing a data acquisition process for acquiring data indicating the behavior of the vehicle as behavior data while the vehicle is traveling at least in a predetermined section; After passing through the predetermined section, perform a sound effect output control process that executes control to output a sound effect according to the behavioral stability obtained from the behavior data in the predetermined section; The data acquisition process and the sound effect output control process are repeatedly executed while changing the output conditions of the sound effect, and the results of the repeatedly executed data acquisition process and the sound effect output control process are set in advance.
  • the configuration is such that when the setting conditions are met, a specific process is executed to specify the output condition corresponding to the result as the optimal output condition.
  • a recording medium that records a computer program is a recording medium that records a computer program that is applied to a driving support system that supports driving of a vehicle.
  • the computer executing a data acquisition process for acquiring data indicating the behavior of the vehicle as behavior data while the vehicle is traveling at least in a predetermined section; After passing through the predetermined section, perform a sound effect output control process that executes control to output a sound effect according to the behavior stability obtained from the behavior data in the predetermined section;
  • the data acquisition process and the sound effect output control process are repeatedly executed while changing the output conditions of the sound effect, and the results of the repeatedly executed data acquisition process and the sound effect output control process are set in advance.
  • the present invention is configured to execute a specific process for specifying the output condition corresponding to the result as the optimum output condition when the setting conditions are provided.
  • a driving support method includes: Executing a data acquisition process for acquiring data indicating the behavior of the vehicle as behavior data while the vehicle is traveling at least in a predetermined section; After passing through the predetermined section, perform a sound effect output control process that executes control to output a sound effect according to the behavioral stability obtained from the behavior data in the predetermined section; The data acquisition process and the sound effect output control process are repeatedly executed while changing the output conditions of the sound effect, and the results of the repeatedly executed data acquisition process and the sound effect output control process are set in advance.
  • the present invention has a configuration that, when a set condition is provided, a specific process is executed to specify the output condition corresponding to the result as the optimal output condition.
  • the driving support system and the like of the present disclosure can guide the driver's driving behavior more effectively and without complicated processing by stimulating the driver's auditory senses.
  • FIG. 1 is an example of a system configuration diagram showing the configuration of a driving support network system for a vehicle according to a first embodiment of the present disclosure.
  • 1 is a schematic diagram showing a configuration example of a vehicle equipped with an information processing system according to a first embodiment
  • FIG. 1 is a block diagram showing an example of the configuration of an information processing system according to a first embodiment. It is a block diagram showing an example of composition of a management server concerning a 1st embodiment.
  • FIG. 3 is a diagram for explaining sound effect optimization output condition specifying processing according to the first embodiment.
  • 4 is an example of driver data stored in a driver data storage unit of the first embodiment. It is an example of group data stored in the driver data storage unit of the first embodiment.
  • FIG. 6 is a diagram for explaining sound effect output control processing including setting processing of sound effect output control data for behavior analysis, which is executed by the data analysis unit of the first embodiment.
  • FIG. 3 is a diagram for explaining output condition specifying processing including resetting sound effect output control data for behavior analysis, which is executed by the data analysis unit of the first embodiment.
  • 7 is a flowchart showing the operation of sound effect optimization output condition specifying processing executed by the management server of the first embodiment. 7 is a flowchart showing the operation of sound effect optimization output condition specifying processing executed by the management server of the first embodiment.
  • 5 is a flowchart showing operations on the vehicle 1 side regarding sound effect optimization output condition specifying processing executed by the information processing system of the first embodiment.
  • FIG. 13 is a diagram for explaining a sound effect optimization output condition specifying process according to a second embodiment of the present disclosure.
  • FIG. 12 is a flowchart showing the operation of sound effect optimization output condition specifying processing executed by the management server of the second embodiment.
  • 12 is a flowchart showing the operation of sound effect optimization output condition specifying processing executed by the management server of the second embodiment.
  • the embodiments of the present disclosure include: In driving support systems that support drivers driving vehicles, comprising one or more processors and one or more memories communicably connected to the one or more processors, The processor, Executing a data acquisition process for acquiring data indicating the behavior of the vehicle as behavior data while the vehicle is traveling at least in a predetermined section; After passing the predetermined section, output a sound effect according to the behavioral stability obtained from the behavior data in the predetermined section, and execute a sound effect output control process to perform control to stimulate the auditory sense of the driver. death, The data acquisition process and the sound effect output control process are repeatedly executed while changing the output conditions of the sound effect, and the results of the repeatedly executed data acquisition process and the sound effect output control process are set in advance.
  • the configuration is such that when the setting conditions are met, a specific process is executed to specify the output condition corresponding to the result as the optimal output condition.
  • the embodiments of the present disclosure describe a driving support device installed in a vehicle that executes each of the above processes, a recording medium that records a computer program for executing each of the above processes, or a driving support device that executes each of the above processes. This can also be achieved by using a driving support method.
  • the driving assistance system etc. disclosed herein can automatically identify optimal sound effect output conditions for a driver that will increase behavior stability, such as the sound effect output timing, type of sound, or tone. Therefore, by simply providing the driver with the automatically identified sound effect output conditions, the driving assistance system etc. disclosed herein can accurately stimulate the driver's hearing so as to increase behavior stability. As a result, the driving assistance system etc. disclosed herein can more effectively induce driving behavior for the driver to stabilize the vehicle's behavior, without executing complicated processing.
  • predetermined sections are, for example, sections divided by predetermined travel distances, sections divided by predetermined travel times, sections divided by reference points such as intersections with traffic lights, etc. Indicates a distance section or a time section to be passed.
  • Vehicle behavior refers to the movement (operation) of the vehicle, such as stopping, accelerating, decelerating, constant velocity, and rotating behavior of the vehicle, based on, for example, the driver's steering operation, accelerator operation, or brake operation.
  • Behavior stability refers to the degree of operational change (state change) in the behavior of the vehicle, and a high behavioral stability indicates that the operational change in the vehicle behavior is small or smooth.
  • Sound effect output control processing refers to, for example, when a cloud-based driving support system is implemented using a server that executes various processes, the sound effect output control process is performed in the vehicle by providing and setting the output conditions. The control process for output is shown.
  • sound effect output control processing refers to, for example, when a standalone driving support system is realized using an information processing device installed in a vehicle, sound effects are output directly into the vehicle. This shows the output control itself when
  • the "output conditions” include, for example, the output timing of the sound effect, the number of outputs, the tone color (interval (pitch), intensity, number of notes), volume, or tempo.
  • the sound effects include, for example, medal winning sounds, applause sounds, fireworks sounds, or chords made up of multiple sounds with different pitches or tones.
  • the sound effect is preferably a sound that can stabilize the behavior of the vehicle, or that can make the driver feel a sense of accomplishment or comfort as the stability of the vehicle behavior increases.
  • the sound effect may be a sound that gives a negative impression to the driver as the stability of the vehicle's behavior is lower.
  • the sound effects of this embodiment change depending on the above output conditions.
  • the "setting conditions” include, for example, conditions for increasing or decreasing behavioral stability, and include conditions based on stability indicators such as angular velocity, jerk, angular velocity, or angular acceleration of the vehicle.
  • the embodiment of the present disclosure is The processor, Executing an information acquisition process to acquire information on driver characteristics indicating characteristics of the driver;
  • the identifying process may include identifying the optimum output condition for a given driver characteristic.
  • the driving support system and the like of the present disclosure can generate sound effects according to individual ability differences, such as a difference in reaction speed to a novice driver and an experienced driver, or a difference in learning ability of driving skills based on sound effects. output conditions can be automatically specified.
  • driver characteristics refers to driving characteristics intended by a driver when driving a vehicle, or characteristics related to the ability of the driver to use when driving.
  • the driving characteristics include driving characteristics realized by the driver's accelerator, brake, or steering.
  • Characteristics related to ability include differences in reaction speed to sounds, differences in driving learning ability, and the like.
  • the "information acquisition process” indicates acquiring information on the accelerator, brake, or steering of the vehicle.
  • the embodiment of the present disclosure includes: The processor, Executing an information acquisition process to acquire information about the driving environment of the vehicle, As the identification process, the optimal output condition may be identified for the predetermined driving environment.
  • the driving support system and the like of the present disclosure can automatically specify output conditions for sound effects that can stabilize the behavior of the vehicle depending on the driving environment.
  • the driving environment refers to the traffic environment, such as an environment with many pedestrians and bicycles, the presence of oncoming vehicles or obstacles, an environment with a high traffic volume or a high risk of accidents, the school route during school hours, the shape of the road, etc. It shows the road environment, such as road width, and the weather (sunny weather, rain, and snow).
  • “information acquisition processing” includes processing for acquiring vehicle position information, the area in which the vehicle is traveling, time information, or the surrounding situation of the vehicle, in place of the above-mentioned information regarding the driving environment. It will be done.
  • the output conditions may include at least one of conditions regarding output timing, number of times, tone, volume, length, and tempo of the sound effect.
  • the driving support system and the like of the present disclosure can automatically specify the output conditions of the sound effect, such as the output timing, number of outputs, tone, volume, length, or tempo of the sound effect.
  • length indicates the playback time length
  • tempo indicates the length of playback time required when a single sequence is played (output) when the sound effect consists of a sequence of multiple sounds. indicates the length of time.
  • the embodiment of the present disclosure includes: The processor, If the specific processing results in a result of the repeatedly executed data acquisition processing and sound effect output control processing meeting a preset setting condition, stopping the sound effect output control processing and the data acquisition processing; output condition fixing control processing for controlling to stimulate the auditory sense of the driver by fixing the output conditions of the sound effects to the optimal output conditions identified when the sound effect output control processing and the data acquisition processing are stopped; Run as, When the behavior data is acquired based on the output condition fixed control process, and the behavior stability obtained by the acquired behavior data satisfies a given special output condition, the specific process is restarted. It may have a configuration.
  • the driving support system and the like of the present disclosure can reset the optimized output conditions when it seems possible to set further optimal output conditions, so the output conditions for sound effects can be updated at any time. be able to. Therefore, the driving support system of the present disclosure can always maintain sound effect output conditions that provide optimum vehicle stability for the driver during driving support.
  • the "first specific output condition" includes, for example, that there is no change in behavior stability, or that the change has become smaller than a predetermined value.
  • the fact that there is no change in behavior stability means that the behavior stability has reached the limit value
  • the fact that the change is smaller than a predetermined value means that the behavior stability has reached the limit value. Show that you have reached it.
  • the "second specific output condition" includes additional vehicle behavior, such as when the behavior stability of the reference data is higher than the behavior stability of the vehicle compared to the behavior stability reference data provided externally. Includes conditions that could potentially improve the stability of
  • the embodiment of the present disclosure is The processor, When the specific process is resumed, a setting condition different from the setting condition before the restart may be used.
  • the driving assistance system disclosed herein can maintain the output conditions for sound effects that always provide optimal vehicle stability for the driver.
  • the embodiment of the present disclosure includes: The processor, If the number of the behavior data acquired by the data acquisition process is insufficient, control for acquiring additional behavior data or correcting the behavior stability obtained from the already acquired behavior data. Processing may be executed.
  • the driving support system of the present disclosure can supplement the number of data by performing additional acquisition or correction even when the number of drivers for which behavior data is collected is small, such as one driver. can do. Therefore, the driving support system of the present disclosure can set optimal output conditions for sound effects even when the number of drivers is small.
  • FIG. 1 is a system configuration diagram showing the configuration of a driving support network system S for a vehicle 1 according to the present embodiment.
  • FIG. 1 shows only the vehicle 1 (including the information processing system 10) used by some drivers. That is, in the actual driving support network system S, there are more vehicles 1 than shown in FIG.
  • the driving support network system S of this embodiment collects data indicating the behavior of each vehicle 1 (hereinafter referred to as "behavior data") obtained in response to driving operations based on auditory stimulation to a plurality of drivers. .
  • the driving support network system S is a system for identifying optimal output conditions for sound effects that stabilize the behavior of the vehicle 1 (hereinafter referred to as “optimized output conditions”) based on the collected behavior data. be. That is, the driving support network system S of the present embodiment performs a specific process (hereinafter referred to as "sound effect optimization") that specifies the optimal output conditions for sound effects that stabilize the behavior of the vehicle 1 based on auditory stimulation to a plurality of drivers. It has a configuration that executes the "output condition specifying process").
  • the driving support network system S of this embodiment provides driving support to the driver in conjunction with an information processing system 10 installed in a vehicle 1 that is a driving support target, and each information processing system 10. It consists of a management server 20 for
  • the vehicle 1 is not particularly limited as long as it is a four-wheeled vehicle, a motorcycle, or any other vehicle that can be driven by a driver, and is an object that can move at a predetermined moving speed.
  • the information processing system 10 is a device installed in each vehicle 1, and is connected to the management server 20 via a network such as the Internet or a public line network.
  • the information processing system 10 has a configuration in which wireless and wired communication lines are established via the management server 20 and the base station BS to transmit and receive various data.
  • the information processing system 10 is a system that works in conjunction with the management server 20 and executes processing on the vehicle 1 side of sound effect optimization output condition specifying processing.
  • the information processing system 10 receives sound effect output condition data (hereinafter referred to as “output condition data”) set in the management server 20, and performs predetermined output conditions based on the received output conditions. It has a configuration that outputs sound effects.
  • the information processing system 10 also collects data on the behavior of the vehicle 1 based on the driver's driving (hereinafter referred to as “behavior data”) while outputting the sound effects, and provides the collected behavior data to the management server 20. It has a configuration that
  • the management server 20 is a device that is communicably connected to the information processing system 10 installed in each vehicle 1 via a network using cloud computing technology.
  • the management server 20 of this embodiment may be composed of one server (device, processor) or may be composed of a plurality of servers (devices, processors).
  • the management server 20 has various databases (storage devices and memories in a broad sense) in which various types of information used for driving support for each driver, including sound effect optimization output condition specifying processing, are stored.
  • the management server 20 of this embodiment is a database (storage device, memory in a broad sense) connected via a network, or another server that manages a database (storage device, memory, in a broad sense), for example.
  • Equipment (not shown) may also be accessed.
  • the management server 20 works in conjunction with the information processing system 10 of each vehicle 1, and provides effect management, including data provision and control to the information processing system 10, in order to more effectively provide driving support to the driver based on auditory stimulation. It has a configuration that executes each process in the sound optimization output condition specifying process.
  • the management server 20 provides each information processing system 10 with each output condition while changing the output condition of the sound effect that the driver is made to hear, and the information processing system 10 of each vehicle 1 outputs the sound effect to the plurality of drivers for each output condition. It has a configuration that acquires behavioral data. Furthermore, the management server 20 automatically identifies optimization output conditions for sound effects that increase the behavioral stability of the vehicle 1 for the driver targeted for driving support, based on the acquired behavior data of each vehicle 1 for each output condition. It has a configuration that Further, the management server 20 is configured to provide the identified optimization output conditions to the information processing system 10 of the vehicle 1 in order to output a predetermined sound effect in the vehicle 1 driven by the driver. .
  • sound effects of this embodiment include, for example, a medal winning sound, a clapping sound, a fireworks sound, or a chord made up of a plurality of sounds having different pitches or tones.
  • sound effect output conditions include, for example, sound effect output timing, number of outputs, tone (pitch (pitch), intensity, number of notes), volume, length, or tempo. Conditions for output or a combination of two or more of these are included.
  • FIG. 2 is a schematic diagram showing a configuration example of a vehicle 1 equipped with the information processing system 10 of this embodiment.
  • the vehicle 1 transmits the drive torque output from the drive power source 9 that generates the drive torque of the vehicle to a left front wheel 3LF, a right front wheel 3RF, a left rear wheel 3LR, and a right rear wheel 3RR (hereinafter, particularly, If no distinction is required, the vehicle is configured as a four-wheel drive vehicle that transmits power to the "wheels 3" (generally referred to as "wheels 3").
  • the driving force source 9 may be an internal combustion engine such as a gasoline engine or a diesel engine, or may be a driving motor, or may include both an internal combustion engine and a driving motor.
  • the vehicle 1 may be, for example, an electric vehicle equipped with two drive motors, a front wheel drive motor and a rear wheel drive motor, and may be an electric vehicle equipped with a drive motor corresponding to each wheel 3. It may be.
  • the vehicle 1 when the vehicle 1 is an electric vehicle or a hybrid electric vehicle, the vehicle 1 includes a secondary battery that stores power to be supplied to the drive motor, a motor that generates power to be charged to the battery, a fuel cell, etc. A generator will be installed.
  • the vehicle 1 includes a driving force source 9, an electric steering device 43, and a brake fluid pressure control unit 2 as devices used to control the operation of the vehicle 1.
  • the driving force source 9 outputs a driving torque that is transmitted to the front wheel drive shaft 5F and the rear wheel drive shaft 5R via a transmission (not shown), a front wheel differential mechanism 7F, and a rear wheel differential mechanism 7R.
  • the drive of the driving force source 9 and the transmission is controlled by a vehicle control device 40 that includes one or more electronic control units (ECUs).
  • ECUs electronice control units
  • An electric steering device 43 is provided on the front wheel drive shaft 5F.
  • the electric steering device 43 includes an electric motor and a gear mechanism (not shown), and is controlled by the vehicle control device 40 to adjust the steering angles of the front left wheel 3LF and the front right wheel 3RF.
  • the vehicle control device 40 controls the electric steering device 43 based on the steering angle of the steering wheel 41 by the driver during manual driving.
  • the electric steering device 43 may be a hydraulic power steering device.
  • the brake system of the vehicle 1 is configured as a hydraulic brake system.
  • the brake fluid pressure control unit 2 includes brake calipers 21LF, 21RF, 21LR, and 21RR provided on the front, rear, left, and right drive wheels 3LF, 3RF, 3LR, and 3RR, respectively (hereinafter referred to as "brake caliper 21" if no particular distinction is required). ) to generate braking force.
  • Driving of the brake fluid pressure control unit 2 is controlled by a vehicle control device 40.
  • the brake fluid pressure control unit 2 is used together with regenerative braking by a drive motor.
  • the vehicle control device 40 includes a driving force source 9 that outputs the driving torque of the vehicle 1, an electric steering device 43 that controls the steering angle of the steering wheel 41 or the steered wheels, and a brake fluid pressure control unit 2 that controls the braking force of the vehicle 1. includes one or more electronic control devices for controlling the driving of the motor.
  • the vehicle control device 40 may have a function of controlling the drive of a transmission that changes the speed of the output output from the driving force source 9 and transmits the same to the wheels 3.
  • the vehicle control device 40 acquires information on the amount of operation by the driver, and controls the steering angle of the driving force source 9, the steering wheel 41, or the steered wheels that outputs the driving torque of the vehicle 1.
  • the electric steering device 43 controls the driving of the brake fluid pressure control unit 2 that controls the braking force of the vehicle 1.
  • FIG. 3 is a block diagram showing an example of the configuration of the information processing system 10 according to the present embodiment.
  • the information processing system 10 works in conjunction with the management server 20 to acquire data indicating the behavior of the vehicle 1 while the vehicle 1 is running, and to generate sounds to stimulate the driver's hearing and stabilize the behavior of the vehicle 1. Execute the process to output the . Furthermore, since the behavior of the vehicle 1 mainly reflects the driver's steering operation state, accelerator operation state, and brake operation state, the information processing system 10 allows the driver to evaluate the driver's own driving operation state. It has a configuration that allows for real-time and intuitive recognition.
  • the information processing system 10 also includes a vehicle behavior measurement device 11, a vehicle surrounding situation detection device 13, a weather information detection device 15, a vehicle position information detection device 17, a sound output device 19, and an information processing A device 100 is provided.
  • the vehicle behavior measurement device 11, the vehicle surrounding situation detection device 13, the weather information detection device 15, the vehicle position information detection device 17, and the sound output device 19 are connected via a communication bus such as a dedicated line or CAN (Controller Area Network). , are communicably connected to the information processing device 100.
  • a communication bus such as a dedicated line or CAN (Controller Area Network).
  • the information processing system 10 of the present embodiment has a configuration that works in conjunction with a navigation system (not shown) installed in the vehicle 1, or a navigation system including the vehicle position information detection device 17.
  • a navigation system not shown
  • the device has the following functions, it is not limited to this.
  • the vehicle behavior measuring device 11 is a device that measures data indicating the behavior of the vehicle 1.
  • the vehicle behavior measuring device 11 includes, for example, at least one of a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor.
  • the vehicle speed sensor detects the rotation speed of the drive shaft of the vehicle 1.
  • the acceleration sensor detects at least longitudinal acceleration, which is acceleration in the longitudinal direction of the vehicle body, and lateral acceleration, which is acceleration in the vehicle width direction. Further, the acceleration sensor may detect vertical acceleration, which is acceleration in the height direction of the vehicle body.
  • the angular velocity sensor measures the rate of change in the rotation angle around the axis in the vehicle longitudinal direction (roll angle), the rotation angle around the axis in the vehicle width direction (pitch angle), and the rotation angle around the axis in the vehicle height direction (yaw angle). Detect. Furthermore, the angular velocity sensor may be a yaw rate sensor that detects the rate of change in the yaw angle.
  • the vehicle behavior measurement device 11 detects data that changes due to driving operations such as steering operation, accelerator operation, and brake operation by the driver as behavior data of the corresponding vehicle 1, and outputs the detected behavior data to the information processing device 100. do.
  • the vehicle behavior measurement device 11 may include a sensor capable of measuring data that reflects the behavior of the vehicle 1.
  • the vehicle surrounding situation detection device 13 is a device that detects information about the surrounding situation of the vehicle 1.
  • the vehicle surrounding situation detection device 13 is configured to include at least one of a stereo camera, a monocular camera, a LiDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging), and a radar sensor.
  • the vehicle surrounding situation detection device 13 includes a pair of left and right front camera cameras 13LF and 13RF and a LiDAR 13S.
  • the vehicle surrounding situation detection device 13 detects objects around the vehicle 1 such as other vehicles, bicycles, pedestrians, road signs, and other obstacles based on the acquired data, and also detects objects around the vehicle 1 such as other vehicles, bicycles, pedestrians, road signs, and other obstacles. Calculate the distance, relative speed, and relative position. Furthermore, the vehicle surrounding situation detection device 13 detects information on the surrounding situation of the vehicle 1 such as road width (hereinafter referred to as "surrounding situation information”) based on the acquired data. Furthermore, the vehicle surrounding situation detection device 13 outputs the detected surrounding situation information to the information processing device 100.
  • surrounding situation information information on the surrounding situation of the vehicle 1 such as road width
  • the vehicle surrounding situation detection device 13 may include a device capable of detecting information about the surrounding situation of the vehicle 1 in addition to a stereo camera, a monocular camera, LiDAR, and a radar sensor.
  • the weather information detection device 15 is a device that detects information regarding the weather in the area where the vehicle 1 is traveling.
  • the weather information detection device 15 is configured to include at least one of a stereo camera, a monocular camera, a rain sensor, an anemometer, and an acceleration sensor.
  • the weather information detection device 15 detects rainfall, snowfall, snowfall, and frozen road surfaces based on image data from a stereo camera or a monocular camera. Furthermore, the weather information detection device 15 estimates the amount of rainfall based on the detection data of the rain sensor. Furthermore, the weather information detection device 15 detects wind speed and wind direction based on the detection data of the anemometer. Furthermore, the weather information detection device 15 estimates the wind speed and wind direction based on the sensor signal of the acceleration sensor. The weather information detection device 15 then outputs the detected weather information (hereinafter referred to as “weather situation information”) to the information processing device 100.
  • weather situation information hereinafter referred to as “weather situation information”.
  • the weather information detection device 15 may include a device capable of detecting information regarding the weather in the area where the vehicle 1 is traveling.
  • the weather information detection device 15 may also receive information from an external system, such as telematics, and obtain information regarding the weather in the driving area (hereinafter referred to as "weather reception information"). . In this case, the weather information detection device 15 outputs the detected weather reception information to the information processing device 100.
  • the vehicle position information detection device 17 receives a positioning signal transmitted from a GNSS (Global Navigation Satellite System) such as a GPS (Global Positioning System), and measures the position of the vehicle 1 . Then, the vehicle position information detection device 17 outputs information on the measured position of the vehicle 1 (including information on latitude, longitude, and time) to the information processing device 100 as position information.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the vehicle position information detection device 17 of this embodiment may function as part of a navigation system (not shown) that assists the driver and guides the vehicle 1 to a destination.
  • the vehicle position information detection device 17 refers to map data of the navigation system (not shown) based on the measured position of the vehicle 1, identifies the current position of the vehicle, and outputs it to the information processing device 100 as position information.
  • the vehicle position information detection device 17 may receive a positioning signal transmitted from another system such as a quasi-zenith satellite system instead of or in conjunction with GNSS, and measure the position of the vehicle 1. good.
  • the sound output device 19 is a device that outputs sounds that can be recognized by the driver, and the output of the sound output device 19 is controlled by the information processing device 100.
  • the sound output device 19 has a playback unit that plays back sound effect data stored in the information processing device 100 or sound effect data provided from the management server 20.
  • the sound output device 19 also has components for outputting sounds to stimulate the driver's hearing inside the vehicle 1, such as a D/A converter that converts a digital signal of the played back sound effect into an analog signal, an amplifier that amplifies the analog signal, and a speaker.
  • the sound output device 19 includes four speakers 31LF, 31RF, 31LR, and 31RR provided on the front, rear, left, and right sides of the vehicle 1. Furthermore, the sound output device 19 may include a speaker provided in the vehicle 1, or may be a speaker dedicated to the information processing system 10.
  • the information processing device 100 has a processor such as one or more CPUs, and works in conjunction with the management server 20 to execute a computer program to collect behavioral data when performing driving assistance based on auditory stimulation for the driver. collection and provision of sound effects, and output control of sound effects.
  • the information processing device 100 is configured to be able to acquire various data or information output from the vehicle behavior measurement device 11, the vehicle surrounding situation detection device 13, the weather information detection device 15, and the vehicle position information detection device 17. .
  • the information processing device 100 includes a processing section 110, an operation input section 120, a storage section 140, an information storage medium 150, and a communication section 170. Note that a configuration may be adopted in which some of these are omitted. Part or all of the information processing device 100 may be configured with something that can be updated, such as firmware, or may be a program module or the like that is executed by a command from a CPU or the like.
  • the processing unit 110 performs various processes of this embodiment by reading and executing an application program (hereinafter also referred to as an "application") stored in the information storage medium 150.
  • an application hereinafter also referred to as an "application”
  • the type of application stored in the information storage medium 150 is arbitrary.
  • the processing unit 110 of the present embodiment reads programs and data stored in the information storage medium 150, temporarily stores the read programs and data in the storage unit 140, and processes the programs and data based on the programs and data. You may do so.
  • the processing unit 110 performs various processes using the main storage unit in the storage unit 140 as a work area.
  • the functions of the processing unit 110 are realized by hardware such as various processors (CPU, DSP, etc.) and application programs.
  • the processing section 110 includes a communication control section 111, an input reception processing section 112, a data processing section 113, an output control section 114, or a timer management section 119. Note that a configuration may be adopted in which some of these are omitted.
  • the communication control unit 111 performs processing for transmitting and receiving data with the management server 20.
  • the communication control unit 111 receives data transmitted from the management server 20 and performs control processing such as storing the received data in the storage unit 140 and transmitting various data to the management server 20. etc.
  • the input reception processing unit 112 recognizes input information input by the user from the operation input unit 120 and outputs the recognized information to the data processing unit 113.
  • the data processing unit 113 provides the management server 20 with the input information recognized by the input reception processing unit 112.
  • the data processing unit 113 also receives behavior data, surrounding situation information, weather detection information, or weather information output from the vehicle behavior measurement device 11, the vehicle surrounding situation detection device 13, the weather information detection device 15, and the vehicle position information detection device 17. information (hereinafter collectively referred to as "weather information") or location information.
  • the data processing unit 113 provides the acquired behavior data and each piece of information to the output control unit 114 or the management server 20.
  • the output control unit 114 acquires control data for outputting sound effects provided from the management server 20 (hereinafter referred to as "sound effect output control data"), or the sound effect output control data and sound effect data. . Further, the output control unit 114 controls the sound output device based on the sound effect output control data provided from the management server 20 or based on the sound effect output control data and the sound effect data provided from the management server 20. Controls 19.
  • the timer management unit 119 has a function of measuring from the current date and time or a predetermined timing, and outputs the current time and measurement results when the predetermined timing arrives.
  • the operation input unit 120 is a device used when given information is input by the driver, and has a configuration for outputting information input by the driver (hereinafter referred to as “input information”) to the processing unit 110. have.
  • the operation input unit 120 includes a detection unit (not shown) that detects input information (input signals) from the driver, and inputs input using a lever, button, dial type operation device, microphone, touch panel type display, keyboard, mouse, or gesture. It consists of a camera, etc. for receiving images.
  • the detection section 122 constitutes a voice recognition device that receives input from the voice of a passenger such as a driver.
  • the detection unit configures an image recognition device that receives input of a gesture captured by the camera.
  • the operation input unit 120 receives information regarding attributes of the driver as input information.
  • the information related to the driver's attributes is information related to the driver's driving skills, such as at least one of the driver's age, the number of years that have passed since obtaining a driver's license, the frequency of driving, the number of years that have passed since the last time the driver drove, etc. including.
  • the information regarding the driver's attributes may include other information that allows estimation of the driver's driving skills.
  • This information may be input in the form of a questionnaire in which the driver or the like answers questions presented by the information processing device 100. Furthermore, data obtained by determining or accumulating these information in advance may be input as this information.
  • the operation input unit 120 may receive information on a desired sound as a sound effect as input information.
  • the operation input unit 120 works in conjunction with the processing unit 110 to select a sound (musical instrument sound or various sound effects) desired by the driver etc. from among tones or types of sounds stored in advance in the storage unit 140 etc. It may be configured so that it can be done.
  • the selected sound data includes sound effect data stored in advance in the storage unit 140 and sound effect data provided from the management server 20.
  • the storage unit 140 serves as a work area for the processing unit 110 and the like, and its functions are realized by hardware such as RAM (VRAM).
  • the storage unit 140 of this embodiment includes a main storage unit 141 used as a work area, and a data storage unit 142 that stores computer programs, table data, reference data, sound data, etc. used when executing each process. and, including.
  • the computer program is a program for causing a processor to execute various operations that should be executed by the information processing apparatus 100. Further, the computer program may be recorded on a recording medium built into the information processing apparatus 100 or any recording medium that can be externally attached to the information processing apparatus 100.
  • the information storage medium 150 is readable by a computer, and stores various applications, an OS (operating system), and various data including IDs corresponding to each information processing system 10. You can leave it there.
  • the information storage medium 150 includes an application for making the computer function as each part of the present embodiment (an application for causing the computer to execute the processing of each part), an ID for communicating with each information processing system 10, and the like. be remembered.
  • the information storage medium 150 is a magnetic medium such as a hard disk, a floppy disk, and a magnetic tape, an optical recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), and a Blu-ray (registered trademark).
  • a CD-ROM Compact Disk Read Only Memory
  • DVD Digital Versatile Disk
  • Blu-ray registered trademark
  • Media magnetic optical media such as floptical disks, storage elements such as RAM and ROM, flash memories such as USB (Universal Serial Bus) memory and SSD (Solid State Drive), and other media capable of storing programs. It's fine.
  • the communication unit 170 performs various controls for communicating with the outside (for example, the management server 20), and its functions are performed by hardware such as various processors or communication ASICs, computer programs, etc. configured.
  • FIG. 4 is a block diagram showing an example of the configuration of the management server 20 according to this embodiment.
  • the management server 20 has one or more processors such as a CPU, and executes a sound effect optimization output condition specifying process in conjunction with each information processing system 10 by executing a computer program.
  • the management server 20 of this embodiment acquires and analyzes behavior data of the vehicle 1 based on the auditory stimulation of each driver, and specifies output conditions for sound effects with high behavioral stability of each driver as optimized output conditions. do. Then, the management server 20 provides the optimized sound effect output control data to the information processing system 10 of the corresponding vehicle 1 as data for controlling the output of sound effects by the information processing system 10 according to the specified optimization output condition. do.
  • the management server 20 may be configured with something that can be updated, such as firmware, or may be a program module or the like that is executed by a command from a CPU or the like.
  • the computer program is a computer program for causing a processor to execute various operations to be executed by the management server 20.
  • the computer program executed by the processor may be recorded on a recording medium that functions as a storage unit (memory) 240 provided in the management server 20, or may be recorded on a recording medium built into the management server 20 or externally stored in the management server 20. It may be recorded on any attachable recording medium.
  • recording media for recording computer programs include hard disks, magnetic media such as floppy disks and magnetic tapes, CD-ROMs (Compact Disk Read Only Memory), DVDs (Digital Versatile Disks), and Blu-ray (registered trademark).
  • Can store optical recording media such as, magnetic optical media such as floptical disks, storage elements such as RAM and ROM, flash memories such as USB (Universal Serial Bus) memory and SSD (Solid State Drive), and other programs. It can be any medium.
  • the management server 20 includes a processing section 210, a storage section 240, an information storage medium 250, and a communication section 270.
  • the processing section 210 includes a communication control section 211 , a data acquisition section 212 , a data analysis section 213 , a data provision processing section 214 , or a timer management section 219 . Note that a configuration may be adopted in which some of these are omitted.
  • the communication control unit 211 performs processing to transmit and receive data to and from each information processing system 10.
  • the communication control unit 211 performs control processing such as receiving data transmitted from each information processing system 10 and storing the received data in the storage unit 240, and transmitting various types of data to the information processing system 10 of each vehicle 1.
  • the data acquisition unit 212 acquires behavior data from the information processing system 10 of each vehicle 1 and outputs it to the data analysis unit 213.
  • the data analysis unit 213 provides data for analyzing the behavior of the vehicle 1 of each driver to be provided to the information processing system 10, and includes sound effect output control in which output conditions for sound effects to be output into the vehicle 1 are determined in advance. data (hereinafter referred to as "behavior analysis sound effect output control data").
  • the data acquisition unit 212 may specify the type of sound effect to be output into the vehicle 1 when setting the behavior analysis sound effect output control data.
  • the data provision processing unit 214 provides the behavior analysis sound effect output control data set by the data analysis unit 213 to the information processing system 10 of each vehicle 1 via the communication unit 270 under the control of the communication control unit 211. do.
  • the timer management unit 219 has a function of measuring from the current date and time or a predetermined timing, and outputs the current time and measurement results when the predetermined timing arrives or when a predetermined request is received. do.
  • the storage unit 240 serves as a work area for the processing unit 210 and the like, and its functions are realized by hardware such as RAM (VRAM).
  • the storage unit 240 of this embodiment includes a main storage unit 241 used as a work area, a data storage unit 242 that stores computer programs, table data, and reference data used when executing each process, and a driver storage unit 242.
  • the computer program is a program for causing a processor to execute various operations to be executed by the management server 20. Further, the computer program may be recorded on a recording medium built into the management server 20 or any recording medium that can be externally attached to the management server 20.
  • the information storage medium 250 is readable by a computer, and stores various applications, an OS (operating system), and various data including IDs corresponding to each information processing system 10. You can leave it there.
  • the information storage medium 250 includes an application for making the computer function as each part of the present embodiment (an application for causing the computer to execute the processing of each part), an ID for communicating with each information processing system 10, and the like. be remembered.
  • the information storage medium 250 is a magnetic medium such as a hard disk, a floppy disk, and a magnetic tape, an optical recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), and a Blu-ray (registered trademark).
  • Media magnetic optical media such as floptical disks, storage elements such as RAM and ROM, flash memories such as USB (Universal Serial Bus) memory and SSD (Solid State Drive), and other media capable of storing programs. It's fine.
  • the communication unit 270 performs various controls for communicating with the outside (for example, each information processing system 10), and its functions are performed by hardware such as various processors or communication ASICs, and computer programs. It is composed of etc.
  • FIG. 5 is a diagram for explaining the sound effect optimization output condition specifying process of this embodiment.
  • the management server 20 of this embodiment has a configuration that executes the following process as sound effect optimization output condition specifying process.
  • the management server 20 executes a behavior data acquisition process of acquiring behavior data of each vehicle 1 from each vehicle 1 while the vehicle 1 is traveling at least in a predetermined section.
  • the management server 20 performs a sound effect output function that executes control to cause the vehicle 1 to output, after passing a predetermined section, a sound effect according to the behavior stability obtained from the behavior data of the vehicle 1 in the predetermined section. Execute control processing.
  • the management server 20 repeatedly executes the behavior data acquisition process and the sound effect output control process while changing the sound effect output conditions, and when the results obtained by these processes meet the preset setting conditions, , executes a specifying process for specifying the output condition corresponding to the result as the optimized output condition.
  • the management server 20 of this embodiment selects a plurality of groups composed of one or more drivers grouped in advance as a premise for the behavior data acquisition process and the sound effect output control process. Then, the management server 20 sets behavior analysis sound effect output control data (hereinafter referred to as "behavior analysis reference data") with different output conditions for sound effects in the vehicle 1 for each selected group, and sets each , is provided to the information processing system 10 of each vehicle 1.
  • behavior analysis sound effect output control data hereinafter referred to as "behavior analysis reference data”
  • the management server 20 of the present embodiment sets at least one of the sound effect output timing, the number of outputs, the tone, the volume, the length, and the tempo as the sound effect output conditions of the present embodiment, as described above. Use either condition. Then, the management server 20 executes the behavior data acquisition process and the sound effect output control process while changing these output conditions or a combination thereof, and identifies the provisional optimal output conditions for the sound effects as a result of the process. A process (hereinafter referred to as "output condition specifying process”) is executed. Finally, when the management server 20 is equipped with setting conditions (hereinafter referred to as "behavior stabilization conditions") in which provisional optimal output conditions that result in the processing result are set in advance, the management server 20 Identify the optimal output conditions as optimized output conditions.
  • setting conditions hereinafter referred to as “behavior stabilization conditions”
  • the management server 20 stores each behavior data collected based on behavior analysis sound effect output control data including behavior analysis reference data after passing through a predetermined section. Execute the behavior data acquisition process. As shown in FIG. 5, upon acquiring each behavior data, the management server 20 sets new behavior analysis sound effect output control data with different output conditions for each group based on the acquired behavior data of each group. Then, as shown in FIG. 5, the management server 20 provides the set behavior analysis sound effect output control data to the information processing system 10 of each vehicle 1 as sound effect output control processing, and also provides each behavior data The behavior data acquisition process is executed to acquire the behavior data, and these processes are repeated.
  • the management server 20 performs the output condition specifying process by comparing the behavioral stability of each group obtained from the behavioral data and specifying the provisional optimal output condition for the sound effect.
  • a group in which the output condition is set is identified as a specific group.
  • the management server 20 uses the processing results obtained by repeatedly executing the behavior data acquisition process and the sound effect output control process (for example, output conditions for sound effects of a specific group) to determine the predetermined behavior.
  • a determination process is executed to determine whether or not a stabilizing condition is satisfied.
  • the management server 20 determines the output conditions specified as the provisional optimal output conditions (for example, the output conditions for the sound effects of a specific group). ) is specified as the sound effect optimization output condition.
  • the management server 20 of the present embodiment repeatedly executes the sound effect output control process while changing the sound effect output conditions for each group and the behavior data acquisition process based thereon, and executes the output condition specifying process. , has a configuration that ultimately specifies the optimal sound effect output conditions.
  • each information processing system 10 for example, after passing through a predetermined section for behavior analysis (hereinafter referred to as a "behavior analysis section"), reproduces a message while driving in the behavior analysis section.
  • Behavior data indicating vehicle behavior based on sound effects is collected and provided to the management server 20.
  • the management server 20 transmits the control data in which the optimization output conditions are defined (hereinafter referred to as "optimized sound effect output control data") as information.
  • the information processing system 10 applies an effect based on the optimized sound effect output control data in a section desired by the driver or a section where stable behavior is essential (hereinafter also referred to as “applicable section").
  • the sound data is reproduced and a predetermined sound effect is output into the vehicle 1.
  • the management server 20 of this embodiment or the driving assistance network system S including it can automatically identify the optimal output conditions for sound effects to stimulate the auditory senses of the driver being assisted, if it can collect actual vehicle behavior data based on the driver's driving operations.
  • the management server 20 of the present embodiment or the driving support network system S including the same can collect data regarding the actual behavior of the vehicle in response to the driver's auditory stimulation, the behavior stability of the driver to be supported can be improved. It is possible to accurately specify the output condition of the sound effect that increases the sound effect.
  • the management server 20 of the present embodiment or the driving support network system S including the same is configured to determine the optimal output conditions for the driver, such as the optimal output timing, type of sound, or tone of the sound effect that increases behavioral stability. can be automatically identified.
  • the management server 20 of the present embodiment or the driving support network system S including the same can provide the driver with a high behavioral stability by simply providing the automatically identified sound effect output conditions to the driver. It is possible to accurately stimulate the auditory sense of the person.
  • FIGS. 6 and 7 are examples of driver data stored in the driver data storage section 243 of this embodiment
  • FIG. 7 is an example of group data stored in the driver data storage section 243 of this embodiment.
  • the driver data storage unit 243 stores data related to each driver (hereinafter referred to as “driver data”) and data related to each group (hereinafter referred to as “group data”).
  • the driver data includes attribute information, a vehicle ID for identifying each vehicle 1 driven by each driver, and a vehicle installed in the vehicle 1 in association with a driver ID for identifying each driver.
  • a system ID for identifying the information processing system 10 to be used is included.
  • the group data is data related to groups selected in advance in order to analyze the behavior of each driver's vehicle 1, and is data for specifying the drivers belonging to each group for each group.
  • the group data includes, for each group, the driver ID belonging to each group, as shown in FIG.
  • the group data of this embodiment may include the vehicle ID of the vehicle 1, the system ID of the information processing system 10, or a combination thereof instead of or in addition to the driver ID.
  • each group may be grouped in advance using an arbitrary method such as random, but the groups must meet essential conditions regarding the travel of the vehicle 1, such as the same travel section, the same travel distance, or the same travel time. It is preferable to group the drivers who drive the vehicle 1.
  • the output control unit 114 In order to provide behavior data of each vehicle 1 to the management server 20, the output control unit 114 generates behavior analysis sound effect output control data (behavior analysis reference data described below) with different sound effect output conditions in the behavior analysis section. ), performs sound effect output control.
  • the output control unit 114 acquires sound effect output control data for behavior analysis with different sound effect output conditions via the communication unit 170, and outputs sound effect output control data for behavior analysis with different sound effect output conditions.
  • the sound effect output control data is stored in the storage unit 140. Further, when the output control unit 114 detects the start point or start timing of the behavior analysis section, the output control unit 114 plays predetermined sound effect data based on the stored behavior analysis sound effect output control data, and the sound output device 19 output a sound effect. When the output control unit 114 detects the end point or end timing of the behavior analysis section, it stops playing the sound effect data based on the behavior analysis sound effect output control data.
  • the output control unit 114 detects passage of the start point and end point of the behavior analysis section based on the position information acquired from the vehicle position information detection device 17.
  • the output control unit 114 is configured based on, for example, the current time output from the timer management unit 119, the known situation information output from the vehicle surrounding situation detection device 13, or the weather information output from the weather information detection device 15.
  • the behavior analysis section may also be detected.
  • the output control unit 114 may detect the behavior analysis section based on a combination of two or more of position information, current time, well-known situation information, and weather information, for example.
  • the data processing unit 113 collects behavior data output from the vehicle behavior measurement device 11 at each predetermined timing. Further, under the control of the communication control unit 111, the data processing unit 113 transmits each collected behavior data to the management server 20 as a behavior data group via the communication unit 170.
  • the data processing unit 113 analyzes the behavior of the vehicle 1 in behavior analysis sections, such as sections divided by predetermined travel distances, sections divided by predetermined travel times, and sections divided by reference points such as intersections equipped with traffic lights. While the vehicle is running, each behavior data is collected at predetermined timings. Further, the data processing unit 113 collects the values of acceleration, angular velocity, jerk, or angular acceleration, or two or more values thereof, as behavior data at each predetermined timing.
  • the data processing unit 113 may transmit a group of collected behavioral data arranged in chronological order to the management server 20, or may sequentially transmit the collected behavioral data to the management server 20. .
  • the data processing unit 113 attaches the driver ID stored in the storage unit 140 and adds the driver ID for each type of behavior analysis sound effect output control data (hereinafter referred to as “data type”), or It is preferable to send the behavior data group to the management server 20 with a data type ID attached thereto.
  • one or more behavior data may be collected and transmitted to the management server 20 for each vehicle 1 and for each behavior analysis section.
  • the data processing unit 113 collects a plurality of behavior data and transmits the collected behavior data to the management server 20.
  • the output control unit 114 executes sound effect output control based on the optimized sound effect output control data in an applicable section such as a driver's desired section.
  • the output control unit 114 obtains optimized sound effect output control data via the communication unit 170 under the control of the communication control unit 111 and stores the obtained optimized sound effect output control data in the storage unit 140. . Further, when the output control unit 114 detects the start point or start timing of the applicable section, it reproduces predetermined sound effect data based on the stored optimized sound effect output control data, and outputs the effect from the sound output device 19. Output sound. When the output control unit 114 detects the end point or end timing of the applicable section, it stops playing the sound effect data based on the optimized sound effect output control data.
  • the data analysis unit 213 sets the sound effect output control data, which differs for each selected group and has predetermined output conditions, as the reference data for behavior analysis.
  • the data analysis unit 213 randomly or by a predetermined algorithm or the like divides a plurality of drivers who are traveling in a predetermined section into a plurality of groups, and stores the driver IDs of the drivers belonging to each group in the driver data storage unit 243.
  • the data acquisition unit 212 sets, for each group, behavior analysis reference data that specifies the output conditions of sound effects, such as the output timing of sound effects, according to an algorithm that can identify optimized output conditions based on behavior data.
  • the data analysis unit 213 selects the earliest timing from the start of behavior analysis, the latest timing from the start of the behavior analysis, and a timing in between. (median value) is used as standard data for behavior analysis. In this case, if the data is divided into three groups, the data analysis unit 213 outputs the sound effect 1 second, 3 seconds, or 5 seconds after the start of behavior analysis such as the start of driving. Set behavior analysis sound effect output control data with different output timings.
  • the number of groups is preferably three or more.
  • the optimization output conditions are specified using a two-sentence search, but other search algorithms such as a linear search using predetermined output conditions may be used.
  • Behavior data acquisition process Next, behavior data acquisition process based on behavior analysis reference data or behavior analysis sound effect output control data executed by the data acquisition unit 212 of this embodiment. I will explain about it.
  • the data acquisition unit 212 acquires the behavior data collected by the information processing system 10 of each vehicle 1 based on the behavior analysis reference data via the communication unit 270, Each acquired behavior data is output to the data analysis unit 213.
  • the data acquisition unit 212 collects data collected by the information processing system 10 mounted on each vehicle 1 while the vehicle 1 is traveling in the behavior analysis section, and collects data for each vehicle 1 in the behavior analysis section. Behavior data indicating the behavior is acquired from each information processing system 10. That is, when the output of sound effects is controlled based on the behavior analysis reference data assigned to each driver in the behavior analysis section, the data acquisition unit 212 collects one or more sound effects collected for each vehicle 1 for each group. Obtain behavioral data for each.
  • the data acquisition unit 212 of this embodiment may acquire one or more behavior data for each vehicle 1 and for each behavior analysis section, but in order to reflect the appropriate behavior of each vehicle 1, Preferably, a plurality of pieces of behavioral data are acquired. However, in the following, unless otherwise specified, "behavior data” will be explained as “one or more pieces of behavior data.”
  • the data acquisition unit 212 collects the behavior collected by the information processing system 10 of each vehicle 1 based on the sound effect output control data for behavior analysis, in the same way as the reference data for behavior analysis. The data are respectively acquired via the communication unit 270. The data acquisition unit 212 then outputs each acquired behavior data to the data analysis unit 213.
  • FIG. 8 is a diagram for explaining sound effect output control processing including setting processing of sound effect output control data for behavior analysis, which is executed by the data analysis unit 213 of this embodiment.
  • the data analysis unit 213 calculates the values (data values) of vehicle speed, acceleration (longitudinal acceleration, lateral acceleration, vertical acceleration) or angular velocity (angular velocity of yaw angle, roll angle, pitch angle) indicated by each behavior data. Based on this, an index value of behavior stability in each vehicle 1 is calculated.
  • the data analysis unit 213 executes at least one of smoothing processing, absolute value conversion processing, and differentiation processing on the vehicle speed, acceleration, or angular velocity, and generates a value indicating the magnitude of the behavior of the vehicle 1. Calculate. For example, the data analysis unit 213 executes smoothing processing, absolute value conversion processing, and differentiation processing on data values of vehicle speed, acceleration, or angular velocity, and calculates the absolute value of acceleration, the jerk of the absolute value of acceleration (jerk), etc. :Jerk) or the jerk (angular acceleration) of the absolute value of the angular velocity. However, the data analysis unit 213 may directly use the calculated acceleration, angular velocity, jerk, or absolute value of the angular acceleration as the index value.
  • the data analysis unit 213 may calculate one index value using a plurality of data values among acceleration, angular velocity, jerk, or the absolute value of angular acceleration.
  • the data analysis unit 213 replaces the data values of the individual behavior data to be used with the same index (for example, a value from 0 to 100), and uses the average value of the values obtained by replacing all the data values to be used with the same index as an index. May be used as a value.
  • the data analysis unit 213 individually calculates at least one of longitudinal acceleration, lateral acceleration, and vertical acceleration regarding acceleration and jerk. Furthermore, the data analysis unit 213 individually calculates at least one of the yaw angle, roll angle, and pitch angle regarding the angular velocity and angular acceleration. In particular, the index value calculated by the data analysis unit 213 becomes a larger value as the behavior of the vehicle 1 is larger, and becomes a smaller value as the behavior is smaller.
  • the data analysis unit 213 calculates a representative value for each driver from the index values of each behavior stability calculated from a plurality of behavior data. For example, the data analysis unit 213 may set the maximum value among the plurality of index values as the representative value, or may set a statistical value such as an average value as the representative value. Further, after calculating the behavioral stability index value of each driver, the data analysis unit 213 calculates the behavioral stability index value of each group based on the behavioral stability index value of each driver for each group. For example, the data analysis unit 213 calculates the average value of the index values of each driver for each group as the index value of the behavioral stability of each group.
  • the data analysis unit 213 calculates the behavioral stability index value for each group, and then determines, from among the behavioral stability index values of each group, a group having an index value that satisfies a predetermined condition as a specific group.
  • the data analysis unit 213 specifies the output conditions of the sound effects set for the specific group as provisional optimization output conditions, and creates a new behavior analysis condition based on the specified provisional optimization output conditions.
  • Set sound effect output control data That is, the data analysis unit 213 generates sound effect output control data for behavior analysis in which provisional optimized output conditions and output conditions determined based on the provisional optimized output conditions are defined for each group. Set.
  • the data analysis unit 213 generates sound effect output control data for behavior analysis that is newly set based on the provisional optimization output conditions and the output conditions when the reference data for behavior analysis is set. Determine the output conditions. Furthermore, as the newly determined output conditions, the data analysis unit 213 determines the output conditions for a group that is "one" smaller than the group for which the behavior analysis reference data was set. For example, if the standard data for behavior analysis is set for three groups, the data analysis unit 213 determines the output condition of one group from among them as the provisional sound effect output condition, In addition, output conditions for the two groups are newly determined.
  • the data analysis unit 213 uses the provisional output conditions as the center to determine the earliest settable timing and the earliest possible timing. Set the slow timing as a new output condition. In this case, the data analysis unit 213 sets two behavior analysis sound effect output control data having new output conditions together with behavior analysis sound effect output control data having a provisional output condition.
  • the data analysis unit 213 determines the group B "after 3 seconds" as the specific group, and determines the output conditions set for the group B as the provisional optimized output conditions. Furthermore, the data analysis unit 213 sets the output conditions for the two groups (specifically, A and C) based on the binary search algorithm, with the output condition of group B "after 3 seconds" as a reference. That is, the data analysis unit 213 sets the output timing of the sound effect from the start of the behavior analysis section to groups A and C, respectively, with the earliest settable timing "2 seconds later” and the latest settable timing "2 seconds later". The output timing is determined to be 4 seconds later. After determining the sound effect output conditions for each group at the next timing, the data analysis unit 213 sets behavior analysis sound effect output control data for acquiring behavior data based on the determined output conditions. .
  • the data provision processing unit 214 outputs each behavior analysis sound effect output control data including new output condition data under the control of the communication control unit 211, similar to the behavior analysis standard data. , and is provided to the corresponding information processing system 10 via the communication unit 270.
  • the data provision processing unit 214 provides each behavior analysis sound effect output control data to the corresponding information processing system 10 as sound effect output control processing, and provides each information processing system 10 with behavior analysis sound effect output control data. Control the output of sound effects according to output control data.
  • the data provision processing unit 214 uses the behavior analysis sound effect output control data that has already been provided for the corresponding information processing system 10.
  • the output of sound effects may be controlled according to the sound output control data.
  • FIG. 9 is a diagram for explaining output condition specifying processing including resetting sound effect output control data for behavior analysis, which is executed by the data analysis unit 213 of this embodiment.
  • the data analysis unit 213 acquires the behavior data from each vehicle 1, the data analysis unit 213 performs An index value of behavior stability in the vehicle 1 is calculated. Then, the data analysis unit 213 calculates the behavior stability index value of each group based on the behavior stability index value of each vehicle 1 calculated as described above, and calculates the behavior stability index value of each group. Based on the values, a specific group of index values indicating optimal behavior stability is identified from among the plurality of groups.
  • the data analysis unit 213 determines the predetermined behavior based on an index value indicating the behavioral stability of the specific group or a result such as the number of repeated executions (hereinafter referred to as "repeated execution result"). A determination process is executed to determine whether the stabilization condition is satisfied. At this time, if the repeated execution result has a predetermined behavior stabilization condition, the data analysis unit 213 specifies the output condition of the sound effect set for the specific group as the optimized output condition. Execute output condition specific processing.
  • the data analysis unit 213 determines that the difference in index value between the smallest group and other groups is within a predetermined range as a behavior stabilization condition
  • the data analysis unit 213 The output condition of the group with the minimum index value is specified as the optimized output condition.
  • the data analysis unit 213 determines whether the difference in index value between the smallest group and other groups is less than 10%, or where no significant difference is found in the statistical test. (so-called error range), it is determined that it is within a predetermined range.
  • FIG. 9 shows that when the output timing of the sound effect is 3 seconds, 2 seconds, or 4 seconds for each of groups A, B, and C, group C "4 seconds later" is a specific group.
  • FIG. 9 shows an example in which the behavior stability index value of group C satisfies a predetermined behavior stabilization condition, and the sound effect output condition set for group C is specified as the optimized output condition. That is, in the example of FIG. 9, the index value of group C, which is a specific group, is the smallest index value, and the difference between this index value and the index values of the other groups A and B (output timing "3 seconds later" and "2 seconds later") is within a predetermined range (e.g., less than 10%).
  • a predetermined range e.g., less than 10%
  • the data analysis unit 213 sets the The output conditions for the sound effects thus determined are determined as provisional optimized output conditions.
  • the data analysis unit 213 newly sets sound effect output for behavior analysis based on the provisional optimization output conditions and the output conditions when the reference data for behavior analysis is set. Newly determine output conditions for control data.
  • the data analysis unit 213 sets the output condition of the specific group as the provisional optimized output condition.
  • the data analysis unit 213 determines the output conditions for the two groups based on a search algorithm such as a binary search algorithm, using the output condition of the specific group "4 seconds later" as a reference. In this case, the data analysis unit 213 determines output timings for sound effects 3.5 seconds and 4.5 seconds after the start of the behavior analysis section as output conditions other than the provisional optimized output conditions.
  • the data analysis unit 213 After determining the output condition of the sound effect at the next timing of each group, the data analysis unit 213 generates sound effect output control data for behavior analysis to obtain behavior data based on the determined output condition. Set. Furthermore, in this case, the data provision processing unit 214 provides the newly set behavioral analysis sound effect output control data to the corresponding vehicle 1 as sound effect output control processing.
  • FIGS. 10 and 11 are flowcharts showing the operation of the sound effect optimization output condition specifying process executed by the management server 20 of this embodiment.
  • the data analysis unit 213 determines a predetermined behavior analysis standard for each group. Each data is set (step S102).
  • the data provision processing unit 214 applies the behavior analysis reference data of each set group to each information processing system 10 of the corresponding vehicle 1 based on the group data stored in the driver data storage unit 243. Transmit (step S103).
  • the data provision processing unit 214 may set a group to randomly transmit the standard data for behavior analysis, or set a group to transmit the standard data for behavior analysis according to rules predetermined by an application or the like. You may.
  • the data acquisition unit 212 starts acquiring the behavior data transmitted from each information processing system 10 (step S104).
  • the data acquisition unit 212 may receive all behavior data of a predetermined section for each information processing system 10 at once, or may receive each collected behavior data.
  • the data acquisition unit 104 determines whether or not the behavior data after passing through the predetermined section has been received from all the information processing systems 10 belonging to each group (step S105). At this time, if the data acquisition unit 204 determines that the behavior data after passing the predetermined section has been received from all the drivers belonging to each group, the data acquisition unit 204 moves to the process of step S107, If it is determined that the message has not been received, the process waits for a predetermined time (step S106) and executes the process of step S105 again.
  • the data analysis unit 213 calculates an index value indicating the behavior stability of each vehicle 1 for each group based on the acquired behavior data, and identifies a group having an index value indicating the optimal behavior stability from among the multiple groups as a specific group (step S107).
  • the data analysis unit 213 determines the sound effect output conditions set for the specific group as provisional sound effect optimization output conditions, and based on the determined provisional sound effect optimization output conditions. Output conditions for sound effects for the next behavior stability analysis are determined (step S108).
  • the data analysis unit 213 sets new behavior analysis sound effect output control data for each group based on each output condition determined in the process of step S108, including the provisional sound effect optimization output condition. (Step S109).
  • the data provision processing unit 214 transmits the behavior analysis sound effect output control data of each set group to the information processing system 10 of the corresponding vehicle 1 based on the group data stored in the driver data storage unit 243. (Step S110). Note that, similarly to step S103, the data provision processing unit 214 may randomly set a group to which sound effect output control data for behavior analysis is transmitted, or perform behavior analysis according to rules predetermined by an application or the like. It is also possible to set a group to which the sound effect output control data for use is transmitted.
  • the data acquisition unit 212 starts acquiring the behavior data transmitted from each information processing system 10, similarly to step S104 (step S111).
  • step S112 determines whether behavior data after passing through a predetermined section has been received from all drivers belonging to each group. At this time, if the data acquisition unit 204 determines that the behavior data after passing the predetermined section has been received from all the drivers belonging to each group, the data acquisition unit 204 moves to the process of step S114 and does not receive the behavior data. If it is determined that there is not, the process of step S112 is executed again after waiting for a predetermined time (step S113).
  • step S107 the data analysis unit 213 calculates the index value of the behavior stability of each vehicle 1 for each group based on the acquired behavior data, and selects a specific group from among the plurality of groups. Specify (step S114).
  • the data analysis unit 213 determines whether the index value indicating the behavior stability of the specific group satisfies a predetermined behavior stabilization condition (step S115). At this time, if the data analysis unit 213 determines that the index value indicating the behavior stability of the specific group satisfies the behavior stabilization condition, the data analysis unit 213 moves to the process of step S116, and the index value indicates the behavior stabilization condition. If it is determined that the condition is not met, the process moves to step S108.
  • the data analysis unit 213 executes an output condition specifying process to specify the output condition of the sound effect set in the specific group as the optimized output condition (step S116), and ends this operation.
  • the data provision processing unit 214 causes the corresponding information processing system 10 to output sound effects based on the optimized output conditions specified in the process of step S116. Sends optimized sound effect output control data for control.
  • the information processing system 10 of a predetermined driver upon receiving the optimized sound effect output control data transmitted from the management server 20, the information processing system 10 of a predetermined driver performs an effect based on the received optimized sound effect output control data while driving in the applicable section. The sound data is reproduced and a predetermined sound effect is output into the vehicle 1.
  • FIG. 12 is a flowchart showing the operation on the vehicle 1 side regarding the sound effect optimization output condition specifying process executed by the information processing system 10 of this embodiment.
  • the output control unit 114 when the output control unit 114 receives behavior analysis sound effect output control data including behavior analysis reference data transmitted from the management server 20 (step S201), the output control unit 114 stores it in the storage unit 140 and controls the output of the sound effect. Waits for execution (step S202).
  • step S203 when the output control unit 114 detects the start point or start timing of the behavior analysis section (step S203), the output control unit 114 outputs predetermined sound effect data based on the behavior analysis sound effect output control data stored in the storage unit 140. starts playing (step S204). Note that, when the output control unit 114 starts playing back the sound effect data, it causes the sound output device 19 to output the sound effect according to the output conditions while the sound effect data is being played back.
  • the data processing unit 113 instructs the vehicle behavior measurement device 11 to start detecting behavior data, and starts collecting the behavior data (step S205). Note that when the vehicle behavior measurement device 11 is instructed to start detecting behavior data, it detects the behavior data at predetermined timings until it is instructed to stop collecting the behavior data, and the detected behavior data is stored. The data is output to the data processing unit 113.
  • Step S206 when the output control unit 114 detects the end point or end timing of the behavior analysis section during playback of the sound effect data (step S206), it stops the playback of the sound effect data based on the sound effect output control data for behavior analysis. (Step S207).
  • the data processing unit 113 instructs the vehicle behavior measurement device 11 to end the detection of behavior data, stops collecting the behavior data (step S208), and, under the control of the communication control unit 111, starts the communication unit 170.
  • the behavior data collected via the management server 20 is transmitted to the management server 20 (step S209), and this operation is ended.
  • each process related to the sound effect optimization output condition specifying process executed by the management server 20 may be executed by the information processing system 10 installed in the vehicle 1.
  • the information processing system 10 performs one of a process of setting sound effect output control data for behavior analysis including standard data for behavior analysis, a process of acquiring behavior data, a process of controlling sound effect output, and a process of specifying output conditions. It may have a configuration that executes some or all of the processing.
  • the information processing system 10 uses the management server 20 when acquiring behavior data from another information processing system 10 or when providing sound effect output control data for behavior analysis to another information processing system 10. Data transmission/reception is executed with other information processing systems 10 via the computer. However, the information processing system 10 may directly connect a communication line to another information processing system 10 via a network to directly transmit and receive data.
  • the information processing device 100 included in the information processing system 10 executes a process of directly controlling the sound output device 19 based on the sound effect output control data for behavior analysis as the sound effect output control process.
  • Modification 2 Sound effect optimization output condition specification process based on driver characteristics
  • a sound effect optimization output condition specification process based on driver characteristics will be described. do.
  • the management server 20 of this embodiment may perform sound effect optimization output condition specifying processing for predetermined driver characteristics. That is, the management server 20 executes an information acquisition process to acquire information on specific driver characteristics (hereinafter referred to as "driver characteristic information") from each information processing system 10 or the driver data storage unit 243. Then, the management server 20 may specify a provisional optimized output condition and a final optimized output condition for a specific driver characteristic as the sound effect output condition specifying process.
  • driver characteristic information information on specific driver characteristics
  • the driver characteristics refer to driving characteristics intended by the driver when driving the vehicle 1, or characteristics related to the ability of the driver to use when driving (hereinafter referred to as "ability characteristics").
  • driving characteristics include driving characteristics realized by the driver's accelerator, brake, or steering, and ability characteristics include differences in reaction speed to sound and differences in driving learning ability. etc. are included.
  • this modified example can automatically identify optimal output conditions according to the driving skill levels of beginners and experienced drivers, or individual ability differences such as differences in reaction speed to sound effects or differences in learning ability for driving skills corresponding to sound effects.
  • driver characteristic information is acquired before executing the output condition specifying process, and based on the driver characteristic information, it is determined in advance according to the driver characteristic (vehicle 1) for which behavior data is to be collected. It is preferable that the selection of groups has been carried out. However, as in the above embodiment, the groups are divided in advance, behavior data is acquired in association with the driver characteristics, and sound effects are optimized and output using only the behavior data of the corresponding driver characteristics in each group. Conditions may be specified.
  • the predetermined driver characteristics may be characteristics specified in advance by an application or the like, or may be composed of two or more characteristics.
  • the predetermined driver characteristics may be characteristics of a driver that provides optimized output conditions for sound effects, or characteristics determined by selection of the driver.
  • the data acquisition unit 212 acquires the level of driving proficiency determined from the information processing system 10 of the vehicle 1 based on the driver's questionnaire responses, a test based on sound effects, the history of driving operations of the vehicle 1, or the sound effects. An information acquisition process is executed to acquire the level of learning ability for driving skills corresponding to reaction speed or sound effects as driver characteristic information.
  • the data acquisition unit 212 retrieves from the driver data storage unit 243 the pre-stored driving proficiency level of each driver, the reaction speed to sound effects, or the learning ability for driving skills according to the sound effects, based on the driver characteristics. It may be obtained as information.
  • the data acquisition unit 212 acquires from the information processing system 10 the answers to a questionnaire for the driver, the results of a test based on sound effects, or the history of driving operations, and determines the driver characteristics based on the acquired answers. Identifying is also included in obtaining driver characteristics.
  • the data acquisition unit 212 identifies the driver characteristics of each driver based on the answers to a questionnaire in which drivers and the like respond to questions presented by the information processing system 10.
  • the data acquisition unit 212 also determines the level of the driver's driving skills based on the number of years that have passed since obtaining a driver's license, the frequency of driving in the past year, driving time or mileage, and the number of days that have passed since the last time the driver drove. You may judge.
  • the data acquisition unit 212 refers to the history of the driver's driving operations, and based on the stability of the driver's behavior, such as the cumulative value of acceleration or jerk, the number of times the threshold has been exceeded, and the number of corrective operations.
  • the level of driving skill may also be specified.
  • the data analysis unit 213 determines the type of driver characteristic that specifies the optimized output condition of the sound effect based on the input operation instruction and the like as well as the instruction to execute the sound effect optimization output condition specifying process.
  • the data analysis unit 213 divides the plurality of drivers into groups based on the determined driver characteristics, and selects groups for acquiring behavior data having common driver characteristics and different sound effect output conditions.
  • the data analysis unit 213 executes, for each group, processing for setting standard data for behavior analysis and sound effect output control data for behavior analysis, and processing for controlling sound effect output based on these data, while adjusting the determined driver characteristics.
  • Output condition specifying processing is executed to specify a corresponding provisional sound effect output condition. Then, when the repeated execution result such as the behavior stability of a specific group has a behavior stabilization condition, the data analysis unit 213 specifies the output condition corresponding to the repeated execution result as the optimization output condition of the sound effect. .
  • the data acquisition unit 212 acquires each behavior data collected based on behavior analysis sound effect output control data including behavior analysis reference data.
  • Modification 3 Sound effect optimization output condition identification process based on the driving environment
  • a modification of the present embodiment which is a sound effect optimization output condition identification process based on the driving environment of the vehicle 1. The process will be explained.
  • the management server 20 of this embodiment may perform sound effect optimization output condition specifying processing for a predetermined driving environment. That is, the management server 20 executes an information acquisition process to acquire driving environment information (hereinafter referred to as "driving environment information") from each information processing system 10, and performs a predetermined sound effect optimization output condition specifying process. Optimized output conditions may be specified for the driving environment.
  • driving environment information hereinafter referred to as "driving environment information”
  • Optimized output conditions may be specified for the driving environment.
  • the driving environment refers to the traffic environment, such as an environment with many pedestrians and bicycles, the presence of oncoming vehicles or obstacles, an environment with heavy traffic or a high risk of accidents, the school route during school hours, the shape of the road, etc. It shows the road environment, such as road width, and the weather (sunny weather, rain, and snow).
  • the management server 20 of this modification can automatically specify sound effect output conditions that can stabilize the behavior of the vehicle depending on the driving environment.
  • the driving environment for specifying the optimization output conditions for the sound effects is predetermined in accordance with the driver's instructions or the app's instructions. Therefore, in this modification, similarly to the present embodiment, behavior data of drivers who have traveled in the same driving environment as the set driving environment is extracted from among the drivers selected in advance for each group, and It is preferable to specify optimization output conditions for sound effects based on the extracted behavior data.
  • the predetermined driving environment may be composed of two or more driving environments.
  • the predetermined driving environment may be a driving environment that is likely to be driven in the future by a driver who provides optimized output conditions for sound effects, or may be a driving environment that is determined by the driver's selection.
  • the data acquisition unit 212 acquires driving environment information along with behavior data from the information processing system 10 of the vehicle 1, and labels the acquired behavior data for each group according to a predetermined type of driving environment.
  • the data acquisition unit 212 acquires surrounding situation information indicating the surrounding situation of the vehicle 1 such as the road width, or weather information (weather situation information or weather reception) such as the presence or absence of rain, the amount of rainfall, or the wind situation. information) as driving environment information. Further, the data acquisition unit 212 refers to a map from the information processing system 10 of the vehicle 1, such as an area with many pedestrians and bicycles, or an area with a high traffic volume, and determines whether the current position is in an area where there are many pedestrians or bicycles, etc. Obtain location information including information indicating the environment of the area inside.
  • the data acquisition unit 212 outputs the labeled driving environment types to the data analysis unit 213 for each group.
  • the data acquisition unit 212 may acquire behavior data on which the driving environment has already been labeled from the information processing system 10.
  • the information processing device 100 of the information processing system 10 labels the collected behavior data according to the predetermined type of driving environment, according to the type of the predetermined driving environment.
  • the data acquisition unit 212 may acquire behavior data that has been labeled with the type of driving environment in advance from the information processing system 10.
  • the information processing system 10 performs labeling of the type of driving environment when collecting the behavior data.
  • each behavior data has driving environment type information that indicates the type of the labeled driving environment.
  • the data analysis unit 213 determines the type of driving environment for specifying the optimization output condition of the sound effect based on the input operation instruction and the like as well as the instruction to execute the specific process. Similarly to the first embodiment, the data analysis unit 213 works in conjunction with the data acquisition unit 212, and performs processing for setting reference data for behavior analysis and sound effect output control data for behavior analysis for each selected group, and Sound effect output control processing is executed based on these. In particular, the data analysis unit 213 executes a process of setting sound effect output control data for behavior analysis, and a process of controlling sound effect output based on these, based on the behavior data labeled in the determined driving environment.
  • the data analysis unit 213 repeats the behavior data acquisition process in the data acquisition unit 212, the behavior analysis sound effect output control data setting process, and the sound effect output control process based on the data, thereby responding to the determined driving environment. Execute specific processing to specify provisional output conditions for sound effects. Then, when the repeated execution result such as the behavior stability of a specific group has a behavior stabilization condition, the data analysis unit 213 specifies the output condition corresponding to the repeated execution result as the optimization output condition of the sound effect. .
  • the management server 20 of the present embodiment executes sound effect output control based on the optimized sound effect output control data, the management server 20 provides behavior stability that is higher in behavior stability than the behavior stability obtained by the output condition.
  • the output condition specifying process may be restarted when a high degree of occurrence is detected.
  • the management server 20 stops the behavior data acquisition process and the like when the processing result (i.e., the output conditions of a specific group of sound effects) of the repeatedly executed behavior data acquisition process and the like by the sound effect optimization output condition identification process meets a preset behavior stabilization condition.
  • the management server 20 also executes an output condition fixing control process, which is a control for fixing the sound effect output conditions to the optimal output conditions (i.e., the sound effect optimization output conditions) identified when the behavior data acquisition process and the like are stopped, to stimulate the driver's hearing.
  • the management server 20 acquires behavior data based on the output condition fixing control process, and resumes the sound effect optimization output condition identification process when the behavior stability obtained by the acquired behavior data meets a given first special output condition.
  • the data analysis unit 213 when the data analysis unit 213 identifies the sound effect optimization output conditions, the data analysis unit 213 performs output condition fixing control processing on sound effect output control data (optimized sound effect output control data) based on the optimized output conditions.
  • the data is provided to the information processing system 10 of the vehicle 1.
  • the data acquisition unit 212 acquires the latest behavior stability of the vehicle 1 from a database (not shown), etc., and stores it in the driver data storage unit 243. Then, the data analysis unit 213 calculates an index value indicating the behavior stability of the vehicle 1 from the behavior data based on the sound effect optimization output conditions acquired from the information processing system 10, and uses the calculated index value and the acquired latest behavior. Compare with stability. Then, the data analysis unit 213 performs a sound effect optimization output condition specifying process when the first special output condition is that the latest behavior stability is a value with higher behavior stability than the calculated index value. resume.
  • the latest behavioral stability of vehicle 1 the one obtained by the sound effect optimization output condition specifying process executed at a timing different from the timing at which the index value to be compared is calculated, such as the latest timing, is used.
  • the latest behavior stability of vehicle 1 is obtained by sound effect optimization output condition specifying processing performed on a vehicle or group different from the vehicle or group to which the comparison target index value was calculated. You may use the one provided.
  • the output condition specifying process including the behavior data acquisition process and the resetting of the behavior analysis sound effect output control data is repeatedly executed.
  • the behavior data acquisition process and the output condition specifying process including resetting of the behavior analysis sound effect output control data in this case are the same as those in the above embodiment, so the description thereof will be omitted.
  • the sound effect optimization output condition specifying process may be restarted based on an instruction from an application or an operation instruction from a driver or the like.
  • the data analysis unit 213 determines when a predetermined period of time has passed since the storage date and time of the stored optimized output conditions, when the driver characteristics have changed, or when the driving environment has changed. etc., restarts the sound effect optimization output condition identification process.
  • the management server 20 of the present embodiment is configured to detect a decrease in behavior stability based on the sound effect optimization output condition while executing sound effect output control based on the optimized sound effect output control data. , the output condition specifying process may be restarted.
  • the management server 20 determines that the behavior stability based on the sound effect optimization output condition has decreased, and resumes the sound effect optimization output condition identification process.
  • the data analysis unit 213 when the data analysis unit 213 restarts the sound effect optimization output condition specifying process, similar to the above-described modification, the data analysis unit 213 performs the output condition fixed control process to generate sound effect output control data ( Optimized sound effect output control data) is provided to the information processing system 10 of the target vehicle 1.
  • the data acquisition unit 212 stores the behavior stability based on the sound effect optimization output conditions in the driver data storage unit 243. Then, the data analysis unit 213 calculates an index value indicating the behavior stability of the vehicle 1 based on the behavior data acquired from the information processing system 10, and compares the calculated index value with the stored behavior stability. do. Then, the data analysis unit 213 restarts the output condition specifying process when the second special output condition is satisfied that the calculated index value has a lower behavior stability than the stored behavior stability. .
  • the output condition specifying process including the behavior data acquisition process and the resetting of the behavior analysis sound effect output control data is repeatedly executed.
  • the behavior data acquisition process and the output condition specifying process including resetting of the behavior analysis sound effect output control data in this case are the same as those in the above embodiment, so the description thereof will be omitted.
  • the optimized output conditions for sound effects are provided to a specific driver, but they may also be shared among multiple drivers including other drivers. good.
  • an index value indicating the behavioral stability of a specific group is used as the result of repeated execution in the output condition specifying process, but the number of times of the output condition specifying process may be used.
  • the stabilization condition is satisfied when the behavior stability converges to a specific value by repeatedly executing the behavior data acquisition process, etc., and the output condition at that time is the optimized output condition.
  • the output condition at that time is the optimized output condition.
  • FIG. 13 is a diagram for explaining the sound effect optimization output condition specification process of this embodiment.
  • the driving support network system S of this embodiment is characterized in that it executes an optimization condition specifying process that specifies the optimum output conditions for sound effects only based on behavior data of a specific driver. That is, instead of specifying the optimization output conditions for sound effects based on the behavior data of a plurality of drivers as in the first embodiment, the driving support network system S of the present embodiment specifies only the behavior data of the individual drivers. This is a system that identifies optimal output conditions for sound effects based on the following. Note that the management server 20 of this embodiment has a configuration that executes processing related to such feature points.
  • the management server 20 of this embodiment as shown in FIG. A behavior data acquisition process is executed to acquire each behavior data collected based on the behavior data.
  • the management server 20 executes behavior data acquisition processing after passing through a predetermined section.
  • the management server 20 when acquiring each behavior data, the management server 20 generates new behavior analysis sound effect output control data with different output conditions for each data type based on the acquired behavior data of each data type. Set.
  • the management server 20 further provides the set behavior analysis sound effect output control data to the information processing system 10 of the specific vehicle 1 as sound effect output control processing, and A behavior data acquisition process is executed to acquire behavior data, and these processes are repeated.
  • the management server 20 compares the behavioral stability of each data type obtained from the behavioral data and specifies the provisional optimal output condition for the sound effect. , identify the data type for which the output condition is set. Then, as shown in FIG. 13, the management server 20 executes a determination process to determine whether the output condition of the sound effect of the specific data type satisfies a predetermined behavior stabilization condition. At this time, if the provisional optimal output condition for the specific data type includes the behavior stabilization condition in the determination process, the management server 20 specifies the output condition as the sound effect optimization output condition.
  • the management server 20 repeatedly executes the sound effect output control process while changing the sound effect output conditions and data type, and the behavior data acquisition process based thereon, and executes the output condition specifying process. , has a configuration that ultimately specifies the optimal sound effect output conditions.
  • each information processing system 10 collects behavior data indicating the behavior of the vehicle based on the sound effects played while driving in the behavior analysis section after passing through the behavior analysis section, and sends the collected behavior data to the management server 20. Provided to.
  • the management server 20 provides the information processing system 10 with optimized sound effect output control data, as shown in FIG. Then, as shown in FIG. 13, the information processing system 10 reproduces the sound effect data based on the optimized sound effect output control data in the applicable section, and outputs a predetermined sound effect into the vehicle 1.
  • the management server 20 of the present embodiment or the driving support network system S including the same can determine the optimal output timing, type of sound, or , it is possible to automatically identify the optimal driver output conditions such as tone color.
  • the driving support system of this embodiment can accurately stimulate the driver's auditory sense so as to increase behavioral stability.
  • the driving support network system S of this embodiment has the same configuration as the first embodiment except for the above-mentioned features, so the same members are denoted by the same reference numerals. Therefore, the explanation will be omitted.
  • the information processing system 10 of this embodiment has the same configuration and operation as the first embodiment except for the use of a plurality of different behavioral analysis sound effect output control data, so the description thereof will be omitted.
  • the management server 20 of this embodiment repeatedly executes data acquisition processing including the setting of sound effect output control data for behavior analysis and sound effect output control processing for individual drivers, and Execute output condition specification processing to specify provisional output conditions.
  • the data analysis unit 213 outputs a plurality of sound effects for behavior analysis, which is data in which predetermined sound effect output conditions are defined, and each output condition is different. Set the control data as reference data for behavior analysis.
  • the data provision processing unit 214 provides behavior analysis reference data with different output conditions to the information processing system 10 installed in the vehicle 1 driven by the same driver.
  • the data acquisition unit 212 then acquires the behavior data collected based on the respective behavior analysis reference data as a data acquisition process.
  • the data analysis unit 213 calculates an index value of behavior stability based on each behavior data, and creates a behavior analysis index having a new output condition based on the index value calculated for each type of behavior analysis reference data. Set sound effect output control data.
  • the data provision processing unit 214 provides sound effect output control data for behavior analysis including data of new output conditions to the information processing system 10 of the same driver as sound effect output control processing. That is, the data provision processing unit 214 provides the information processing system 10 with behavior analysis sound effect output control data, thereby causing the information processing system 10 to output sound effects based on each behavior analysis sound effect output control data. Control the output.
  • the data provision processing unit 214 uses the behavior analysis sound effect output control data that has already been provided.
  • the output of sound effects may be controlled according to the output control data.
  • the data provision processing unit 214 uses the data already provided to the information processing system 10.
  • the output of the sound effects may be controlled according to the behavior analysis sound effect output control data.
  • the information processing system 10 When collecting behavior data based on a plurality of sound effect output control data for behavior analysis having different output conditions, including standard data for behavior analysis, the information processing system 10 changes the timing of collection and sets the data for behavior analysis. Executes sound effect output control based on sound effect output control data. Further, when collecting behavior data, the information processing system 10 acquires the behavior data with an ID or a name for identifying the used behavior analysis sound effect output control data.
  • the data analysis unit 213 may control the information processing system 10 to execute a process for acquiring additional behavior data.
  • the data analysis unit 213 of the present embodiment performs processing to additionally acquire behavior data if the number of behavior data is insufficient when specifying the provisional output conditions for sound effects. May be executed.
  • the data analysis unit 213 detects the number of behavior data for each type of reference data for behavior analysis. Furthermore, the data analysis unit 213 determines whether or not the number of behavior data satisfies a predetermined numerical condition for each type of dynamic analysis reference data. For example, the data analysis unit 213 determines whether the number of behavior data for each type of behavior analysis reference data is equal to or greater than a certain number.
  • the data analysis unit 213 determines that the number of behavior data does not satisfy the numerical condition in at least any type of sound effect output control data for behavior analysis. Instructs additional collection of behavior data of the type of sound effect output control data for behavior analysis. Furthermore, for the type of sound effect output control data for behavior analysis that has the above numerical conditions, the data analysis unit 213 can set the sound effect output control data for behavior analysis without additionally calling, as described above. Execute.
  • the information processing system 10 When an instruction to collect additional behavior data is received, the information processing system 10 performs additional collection of behavior data for the corresponding type of sound effect output control data for behavior analysis.
  • the data analysis unit 213 determines that the number of behavior data does not satisfy the above numerical conditions in at least one of the types of sound effect output control data for behavior analysis, the data analysis unit 213 determines that A process for correcting the behavioral stability obtained from the behavioral data may be executed.
  • the data analysis unit 213 will respond to the labeling for the type of behavior analysis sound effect output control data with a small number of data.
  • Each behavior data or the behavior stability obtained from each behavior data can be corrected.
  • the data analysis unit 213 sets the behavior stability value to be higher than the behavior data on a sunny day. to correct.
  • FIG. 14 and Fig. 15 are flowcharts showing the operation of the sound effect optimization output condition specification process executed by the management server 20 of this embodiment.
  • This operation is an operation that is executed only for one driver (that is, a specific driver) and the information processing system 10 installed in the vehicle 1 driven by the driver.
  • a specific driver has started driving the corresponding vehicle 1, and while driving in a predetermined section, the information processing system It is assumed that the output is controlled by 10.
  • the data analysis unit 213 when the data analysis unit 213 receives an instruction for sound effect optimization output condition specifying processing such as an operation instruction for a specific driver or an instruction from an application (step S301), the data analysis unit 213 performs a predetermined number of behavior analyzes to be provided to the specific driver.
  • the reference data for each is set (step S302).
  • the data provision processing unit 214 transmits each set behavioral analysis reference data to the information processing system 10 of the vehicle 1 driven by the specific driver (step S303).
  • the data provision processing unit 214 may transmit the behavior analysis reference data to the information processing system 10 of the vehicle 1 driven by another driver, or may send the behavior analysis reference data to the information processing system 10 of the vehicle 1 driven by another driver.
  • the information processing system 10 may be configured to transmit the reference data.
  • the data acquisition unit 212 starts acquiring the behavior data transmitted from the information processing system 10 (step S304).
  • the data acquisition unit 212 may receive all of the behavior data for a given section at once for each behavior analysis reference data, or may receive each behavior data individually.
  • the data acquisition unit 104 determines whether all behavior data after passing through a predetermined section based on each behavior analysis reference data has been received (step S305). At this time, if the data acquisition unit 204 determines that all behavior data after passing through the predetermined section based on each behavior analysis reference data has been received, the process proceeds to step S307. Further, if the data acquisition unit 204 determines that all the behavior data has not been received, it waits for a predetermined time (step S306) and executes the process of step S305 again.
  • the data acquisition unit 104 determines whether the number of acquired behavior data is the required number for each behavior analysis reference data (step S307). At this time, if the data acquisition unit 104 determines that the number of behavioral data is greater than or equal to the required number, the process proceeds to step S308, and the data acquisition unit 104 proceeds to step S308 to determine that the number of behavioral data is less than or equal to the required number. If it is determined that this is the case, the process moves to step S304.
  • the data acquisition unit 104 may simply determine whether the number of acquired behavior data is greater than or equal to the required number of data.
  • the data acquisition unit 104 also selects valid behavior data that can be used for stability analysis based on labeling information of the driving environment (i.e., labeling information) or driver characteristic information, and selects valid behavior data that can be used for stability analysis. It may be determined whether the number of data is greater than or equal to the required number of data.
  • the data acquisition unit 104 selects behavior data under a special environment, such as behavior data during rain or behavior data in an environment with many pedestrians or bicycles, as invalid behavior data.
  • the data analysis unit 213 calculates an index value indicating the behavior stability of the vehicle 1 for each type of behavior analysis reference data (i.e., data type) based on the acquired behavior data, and A data type having an optimal behavior stability index value is identified from among them (step S308).
  • the data analysis unit 213 determines the sound effect output condition set in the specific standard data as a provisional sound effect optimization output condition, and applies the sound effect output condition to the determined provisional sound effect optimization output condition. Based on this, output conditions for sound effects for the next analysis of behavioral stability are determined (step S309). Note that the data analysis unit 213 determines an output condition that is "1" less than the above-mentioned predetermined number. Specifically, the data analysis unit 213 determines output conditions for a plurality of sound effects, excluding the provisional optimized output conditions for sound effects.
  • the data analysis unit 213 generates new behavior analysis sound effects that are "1" less than the predetermined number, based on each output condition determined in the process of step S308, including the provisional sound effect optimization output conditions.
  • Each output control data is set (step S310).
  • the data provision processing unit 214 transmits the set behavioral analysis sound effect output control data to each of the information processing systems 10 of the corresponding vehicle 1 (step S311).
  • the data acquisition unit 212 starts acquiring the behavior data transmitted from each information processing system 10, similarly to step S304 (step S312).
  • the data acquisition unit 104 determines whether all behavior data after passing through a predetermined section based on each behavior analysis reference data has been received (step S313). At this time, if the data acquisition unit 204 determines that all behavior data after passing through the predetermined section based on each behavior analysis sound effect output control data has been received, the data acquisition unit 204 moves to the process of step S314. Furthermore, if it is determined that all the behavior data has not been received, the data acquisition unit 204 executes the process of step S312 again after a predetermined time has elapsed (step S314).
  • the data acquisition unit 104 determines whether the number of acquired behavior data is the required number for each behavior analysis reference data (step S315). At this time, if the data acquisition unit 104 determines that the number of behavior data is greater than or equal to the required number of data, the process proceeds to step S316, and the data acquisition unit 104 proceeds to step S316, and determines that the number of behavior data is less than or equal to the required number of data. If it is determined that this is the case, the process moves to step S302.
  • step S316 the data analysis unit 213 calculates an index value indicating the behavioral stability of the vehicle 1 for each data type based on the acquired behavior data to identify a specific data type.
  • the data analysis unit 213 determines whether the index value indicating the behavior stability of the specific data type satisfies a predetermined behavior stabilization condition (step S317). At this time, if the data analysis unit 213 determines that the behavior stability index value of the specific data type satisfies the behavior stabilization condition, the data analysis unit 213 moves to the process of step S318. Further, when the data analysis unit 213 determines that the index value does not satisfy the behavior stabilization condition, the data analysis unit 213 moves to the process of step S309.
  • the data analysis unit 213 specifies the sound effect output condition set in the specific behavior analysis sound effect output control data as the optimized output condition (step S318), and ends this operation.
  • the data provision processing unit 214 when performing driving assistance based on predetermined auditory stimulation of the driver, causes the corresponding information processing system 10 to output sound effects based on the optimized output conditions specified in the process of step S318. Sends optimized sound effect output control data for control.
  • the information processing system 10 of a predetermined driver upon receiving the optimized sound effect output control data transmitted from the management server 20, the information processing system 10 of a predetermined driver performs an effect based on the received optimized sound effect output control data while driving in the applicable section. The sound data is reproduced and a predetermined sound effect is output into the vehicle 1.
  • Embodiments of the present disclosure include configurations that are substantially the same as those described in the above embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objectives and effects). Further, the embodiments of the present disclosure include configurations in which non-essential parts of the configurations described in the above embodiments are replaced. Further, the embodiments of the present disclosure include configurations that have the same effects or can achieve the same objectives as the configurations described in the above embodiments. Furthermore, the embodiments of the present disclosure include configurations in which known techniques are added to the configurations described in the above embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

ドライバの聴覚を刺激することによって当該ドライバの運転行動の誘導をより効果的に、かつ、煩雑な処理を実行することなく、実現することが可能な運転支援システムなどを提供することにある。管理サーバ20は、車両1内に出力する効果音の出力条件を変更しながら繰り返して効果音に基づくドライバの挙動データを取得する挙動データ取得処理及び当該効果音の車両内1へ出力する効果音出力制御処理を実行し、これらの処理によって得られた結果が予め設定された設定条件を具備した場合に、当該結果に対応する出力条件を最適化出力条件として特定する特定処理を実行する。

Description

運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法
 本開示は、運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法に関する。
 車両の運転操作の技術レベルは、ドライバ(運転者)によってさまざまである。運転操作の技術レベルは、乗り心地や交通安全に影響する。これに対して、車両の運転操作を判定し、ドライバに対して運転操作の判定結果を通知する装置、及び、アドバイスを提示する装置が種々提案されている。
 例えば、特許文献1には、運転操作状態を精度よく判定するとともに、ドライバが、今回の運転における運転操作状態の総合評価についての情報を知ることができるようにし、次回の運転における運転操作の技術向上を図れるようにした運転支援装置が提案されている。
 具体的に、このような運転支援装置は、加速度の変化量及び躍度と、振動モデルを用いて設定された判定基準と、に基づいて、しなやかな運転状態であるか、ゆれる運転状態であるかを判定しつつ、今回の運転における運転操作状態を総合評価する構成を有している。
特開2010-224762号公報
 しかしながら、特許文献1に記載の運転支援装置であっては、運転中において実行された一連の運転操作を評価するだけであり、ドライバにおける運転行動を適切に誘導するまでに至っていない。
 本開示は、上記問題に鑑みてなされたものであり、本開示の目的とするところは、ドライバの聴覚を刺激することによって当該ドライバの運転行動の誘導をより効果的に、かつ、煩雑な処理を実行することなく、実現することが可能な運転支援システムなどを提供することにある。
 上記課題を解決するために、本開示の第1の態様に係る運転支援システムは、車両を運転するドライバを支援する運転支援システムにおいて、
 一つ又は複数のプロセッサと、前記一つ又は複数のプロセッサと通信可能に接続された一つ又は複数のメモリと、を備え、
 前記プロセッサが、
  前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行し、
  前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力し、前記ドライバの聴覚を刺激するための制御を実行する効果音出力制御処理を実行し、
  前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行する、構成を有している。
 また、上記課題を解決するために、本開示の第2の態様に係る車両は、車両の運転を支援する運転支援装置を搭載した車両において、
 前記運転支援装置が、
  前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行し、
  前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力するための制御を実行する効果音出力制御処理を実行し、
  前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行する、構成を有している。
 また、上記課題を解決するために、本開示の第3の態様に係るコンピュータプログラムを記録した記録媒体は、車両の運転を支援する運転支援システムに適用されるコンピュータプログラムを記録した記録媒体であって、
 コンピュータに、
  前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行させ、
  前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力するための制御を実行する効果音出力制御処理を実行させ、
  前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行させる、構成を有している。
 また、上記課題を解決するために、本開示の第4の態様に係る運転支援方法は、車両の運転を支援する運転支援方法において、
  前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行し、
  前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力するための制御を実行する効果音出力制御処理を実行し、
  前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行する、ことを含む、構成を有している。
 本開示の運転支援システムなどは、上記構成により、ドライバの聴覚を刺激することによって、ドライバに対する運転行動の誘導をより効果的に、かつ、煩雑な処理をすることなく、実行することができる。
本開示の第1実施形態に係る車両に対する運転支援用ネットワークシステムの構成を示すシステム構成図の一例である。 第1実施形態に係る情報処理システムを搭載した車両の構成例を示す模式図である。 第1実施形態に係る情報処理システムの構成の一例を示すブロック図である。 第1実施形態に係る管理サーバの構成の一例を示すブロック図である。 第1実施形態の効果音最適化出力条件特定処理について説明するための図である。 第1実施形態のドライバデータ記憶部に記憶されるドライバデータの一例である。 第1実施形態のドライバデータ記憶部に記憶されるグループデータの一例である。 第1実施形態のデータ解析部によって実行される挙動解析用効果音出力制御データの設定処理を含む効果音出力制御処理について説明するための図である。 第1実施形態のデータ解析部によって実行される挙動解析用効果音出力制御データの再設定を含む出力条件特定処理について説明するための図である。 第1実施形態の管理サーバによって実行される効果音最適化出力条件特定処理の動作を示すフローチャートである。 第1実施形態の管理サーバによって実行される効果音最適化出力条件特定処理の動作を示すフローチャートである。 第1実施形態の情報処理システムによって実行される効果音最適化出力条件特定処理に関する車両1側の動作を示すフローチャートである。 本開示の第2実施形態の効果音最適化出力条件特定処理について説明するための図である。 第2実施形態の管理サーバによって実行される効果音最適化出力条件特定処理の動作を示すフローチャートである。 第2実施形態の管理サーバによって実行される効果音最適化出力条件特定処理の動作を示すフローチャートである。
[A]本開示の実施形態の特徴
 (1)本開示の実施の形態は、
 車両を運転するドライバを支援する運転支援システムにおいて、
 一つ又は複数のプロセッサと、前記一つ又は複数のプロセッサと通信可能に接続された一つ又は複数のメモリと、を備え、
 前記プロセッサが、
  前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行し、
  前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力し、前記ドライバの聴覚を刺激するための制御を実行する効果音出力制御処理を実行し、
  前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行する、構成を有している。
 なお、本開示の実施形態は、上記の各処理を実行する車両に搭載された運転支援装置、上記の各処理を実行するためのコンピュータプログラムを記録した記録媒体、又は、上記の各処理を実行する運転支援方法によっても実現可能である。
 この構成により、本開示の運転支援システムなどは、効果音の出力タイミング、音の種類、または、音色などの挙動安定度が高くなるドライバの最適な効果音の出力条件を自動的に特定することができる。したがって、本開示の運転支援システムなどは、自動的に特定した効果音の出力条件を単にドライバに提供すれば、挙動安定度が高くなるように、当該ドライバの聴覚を的確に刺激することができる。この結果、本開示の運転支援システムなどは、ドライバに対する車両の挙動を安定させるための運転行動の誘導をより効果的に、かつ、煩雑な処理を実行することなく、実現することができる。
 なお、「所定の区間」とは、例えば、所定の走行距離ごとに区切られる区間、所定の走行時間により区切られる区間、信号機が設けられた交差点などの基準地点ごとに区切られる区間など、車両が通過する距離的な区間又は時間的な区間を示す。
 「車両の挙動」とは、例えば、ドライバによるステアリング操作、アクセル操作、又は、ブレーキ操作に基づく、車両の停止、加速、減速、等速及び回転挙動などの車両の動き(動作)を示す。「挙動安定度」とは、車両の挙動における動作変化(状態変化)の度合を示し、挙動安定度が高くなるとは車両の挙動における動作変化が少ないこと又はスムーズなことを示す。
 「効果音出力制御処理」とは、例えば、各種の処理を実行するサーバを用いてクラウド的に運転支援システムが実現される場合には、当該出力条件の提供や設定などの車両において効果音を出力させるための制御処理を示す。また、「効果音出力制御処理」とは、例えば、車両に搭載された情報処理装置を用いてスタンドアローン的に運転支援システムが実現される場合には、車両内に直接的に効果音を出力する際の出力制御そのものを示す。
 「出力条件」には、例えば、効果音の出力タイミング、出力回数、音色(音程(音高)、強さ、音の数)、音量、又は、テンポなどが含まれる。
 効果音には、例えば、メダル獲得音、拍手音、花火音、又は、音の高さ若しくは音色が異なる複数の音から構成される和音などが含まれる。特に、効果音は、車両の挙動を安定させること、又は、車両の挙動の安定度が高いほどドライバに達成感若しくは心地よさを感じさせることが可能な音が好ましい。ただし、効果音は、車両の挙動の安定度が低いほどドライバがネガティブな印象を感じる音であってもよい。また、本実施形態の効果音は、上記の出力条件に応じて変化する。
 「設定条件」には、例えば、挙動安定度を高くする条件、又は、低くする条件が含まれ、車両の角速度、加加速度、角速度又は角加速度などの安定指標に基づく条件などが含まれる。
 (2)また、本開示の実施の形態は、
 前記プロセッサが、
  前記ドライバの特性を示すドライバ特性の情報を取得する情報取得処理を実行し、
  前記特定処理として、所定の前記ドライバ特性について、前記最適な出力条件を特定してもよい。
 この構成により、本開示の運転支援システムなどは、例えば、初心者と熟練のドライバ、又は、効果音に対する反応速度差若しくは効果音に基づく運転技能の学習能力差などの個人能力差に応じて効果音の出力条件を自動的に特定することができる。
 なお、「ドライバ特性」とは、車両を運転するときのドライバの意図する運転特性、又は、当該ドライバの運転時に用いる能力に関する特性を示す。特に、運転特性には、ドライバによるアクセル、ブレーキ、又は、操舵などにより実現される運転の特性が含まれる。能力に関する特性には、音に対する反応速度の差、及び、運転に対する学習能力の差などが含まれる。また、「情報取得処理」としては、車両のアクセル、ブレーキ又は操舵の情報を取得することを示す。
 (3)また、本開示の実施の形態は、
 前記プロセッサが、
  前記車両の走行環境の情報を取得する情報取得処理を実行し、
  前記特定処理として、所定の前記走行環境について、前記最適な出力条件を特定してもよい。
 この構成により、本開示の運転支援システムなどは、走行環境に応じて車両の挙動を安定化することが可能な効果音の出力条件を自動的に特定することができる。
 なお、走行環境とは、歩行者や自転車が多い環境、対向車や障害物の有無、交通量が多い環境又は事故の危険度が高い環境など交通環境、通学時間帯の通学路、道路形状又は道路幅の広狭などの道路環境、及び、天候(晴天、降雨及び降雪)を示す。また、「情報取得処理」としては、上記の走行環境に関する情報に代えて、車両の位置情報、当該車両が走行中の領域、時刻の情報、又は、車両の周囲の状況を取得する処理が含まれる。
 (4)また、本開示の実施の形態は、
 前記プロセッサが、
 前記出力条件には、前記効果音の出力タイミング、出力回数、音色、音量、長さ及びテンポの少なくともいずれかの条件が含まれてもよい。
 この構成により、本開示の運転支援システムなどは、効果音の出力タイミング、出力回数、音色、音量、長さ又はテンポなどの効果音の出力条件を自動的に特定することができる。
 なお、「長さ」は、再生時間長を示し、「テンポ」とは、効果音が複数の音のシーケンスで構成されている場合に、単一のシーケンスが再生(出力)される際に必要な時間長を示す。
 (5)また、本開示の実施の形態は、
 前記プロセッサが、
  前記特定処理によって、前記繰り返し実行されたデータ取得処理及び効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、前記効果音出力制御処理及び前記データ取得処理を停止し、
  前記効果音出力制御処理及び前記データ取得処理を停止した際に特定された最適な出力条件に前記効果音の出力条件を固定して前記ドライバの聴覚を刺激するための制御を出力条件固定制御処理として実行し、
  前記出力条件固定制御処理に基づいて前記挙動データを取得し、かつ、当該取得した挙動データによって得られた前記挙動安定度が、所与の特別出力条件を具備した場合に、前記特定処理を再開する、構成を有していてもよい。
 この構成により、本開示の運転支援システムなどは、更なる最適な出力条件が設定できそうな場合に当該最適化出力条件の再設定を行うことができるので、効果音の出力条件を随時更新することができる。したがって、本開示の運転支援システムなどは、運転支援にあたり、常にドライバにとって最適な車両の安定性をもたらす効果音の出力条件を維持することができる。
 なお、「第1特定出力条件」には、例えば、挙動安定度の変化が無くなったこと、又は、当該変化が予め定められた値より小さくなったことを含む。ここで、挙動安定度の変化が無くなったこととは、挙動安定度が限界値に達したことを示し、当該変化が予め定められた値より小さくなったこととは、当該限界値の周辺に到達したことを示す。
 「第2特定出力条件」には、例えば、外部から提供された挙動安定度の基準データと比較して当該基準データの挙動安定度が、車両の挙動安定度よりも高いなど、さらなる車両の挙動の安定性が向上する可能性が生じた条件が含まれる。
 (6)また、本開示の実施の形態は、
 前記プロセッサが、
  前記特定処理が再開された場合に、再開前の前記設定条件と異なる設定条件を用いてもよい。
 この構成により、本開示の運転支援システムなどは、ドライバにとって常に最適な車両の安定性をもたらす効果音の出力条件を維持することができる。
 (7)また、本開示の実施の形態は、
 前記プロセッサが、
  前記データ取得処理によって取得された前記挙動データの数が不足している場合には、前記挙動データを追加取得するための制御、又は、既に取得された挙動データから得られる挙動安定度を補正する処理を実行してもよい。
 この構成により、本開示の運転支援システムなどは、例えば、1のドライバなど挙動データの収集を行うドライバ数が少ない場合であっても、追加取得、又は、補正を実行し、そのデータ数を補完することができる。したがって、本開示の運転支援システムは、ドライバ数が少ない場合であっても、効果音の最適な出力条件を設定することができる。
[B]本開示の実施形態の詳細
 以下、添付図面を参照しながら、本開示の好適な実施形態の詳細について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する
[B1]第1実施形態
[B1.1]運転支援用ネットワークシステム
 まず、図1を用いて第1実施形態の車両1に対する運転支援用ネットワークシステムSの概要について説明する。なお、図1は、本実施形態の車両1に対する運転支援用ネットワークシステムSの構成を示すシステム構成図である。
 また、図が煩雑になることを防止するために、図1においては、一部のドライバ(運転者)によって利用される車両1(情報処理システム10を含む。)のみを示している。すなわち、実際の運転支援用ネットワークシステムSにおいては、図1に示しているよりも多数の車両1が存在している。
 本実施形態の運転支援用ネットワークシステムSは、複数のドライバへの聴覚刺激に基づく運転操作に応じて得られた各車両1の挙動を示すデータ(以下、「挙動データ」という。)を収集する。そして、運転支援用ネットワークシステムSは、収集した挙動データに基づいて、車両1の挙動を安定させる効果音の最適な出力条件(以下、「最適化出力条件」という)を特定するためのシステムである。すなわち、本実施形態の運転支援用ネットワークシステムSは、複数のドライバへの聴覚刺激に基づく、車両1の挙動を安定させる効果音の最適な出力条件を特定する特定処理(以下、「効果音最適化出力条件特定処理」という。)を実行する構成を有している。
 本実施形態の運転支援用ネットワークシステムSは、図1に示すように、運転支援対象の車両1に搭載される情報処理システム10と、各情報処理システム10と連動してドライバに対する運転支援を行うための管理サーバ20と、から構成される。
 なお、車両1は、四輪自動車又は自動二輪車その他のドライバによって運転可能な車両であって、所定の移動速度で移動し得る物体であれば特に限定されるものではない。
 情報処理システム10は、各車両1にそれぞれ搭載される装置であって、インターネットや公衆回線網などのネットワークを介して管理サーバ20に接続される。特に、情報処理システム10は、管理サーバ20と基地局BSを介して無線及び有線の通信回線を確立して各種のデータの送受信を行う構成を有している。また、情報処理システム10は、管理サーバ20と連動し、効果音最適化出力条件特定処理の車両1側の処理を実行するシステムである。
 具体的には、情報処理システム10は、管理サーバ20において設定された効果音の出力条件のデータ(以下、「出力条件データ」という。)を受信し、受信した出力条件に基づいて、所定の効果音を出力する構成を有している。また、情報処理システム10は、効果音の出力中に、ドライバの運転に基づく車両1の挙動のデータ(以下、「挙動データ」という。)を収集し、収集した挙動データを管理サーバ20に提供する構成を有している。
 管理サーバ20は、ネットワークを介し、クラウドコンピューティングの技術により各車両1に搭載された情報処理システム10と通信可能に接続された装置である。本実施形態の管理サーバ20は、1つのサーバ(装置、プロセッサ)で構成されていてもよいし、複数のサーバ(装置、プロセッサ)で構成されていてもよい。管理サーバ20は、効果音最適化出力条件特定処理を含む、各ドライバの運転支援に用いる各種の情報が記憶される各種のデータベース(広義には記憶装置、メモリ)を有している。
 なお、本実施形態の管理サーバ20は、ネットワークを介して接続されたデータベース(広義には記憶装置、メモリ)、又は、例えば、データベース(広義には、記憶装置、メモリ)を管理する他のサーバ装置(図示しない)にアクセスしてもよい。
 管理サーバ20は、各車両1の情報処理システム10と連動し、聴覚刺激に基づくドライバに対する運転支援をより効果的に実行するために、情報処理システム10へのデータの提供や制御を含む、効果音最適化出力条件特定処理における各処理を実行する構成を有している。
 特に、管理サーバ20は、ドライバへ聴取させる効果音の出力条件を変更しながら、各出力条件を各情報処理システム10に提供し、各車両1の情報処理システム10から各出力条件に対する複数のドライバの挙動データを取得する構成を有している。また、管理サーバ20は、取得した各出力条件の各車両1の挙動データに基づいて、運転支援対象のドライバにおいて車両1の挙動安定度が高くなる効果音の最適化出力条件を自動的に特定する構成を有している。さらに、管理サーバ20は、ドライバが運転する車両1内において所定の効果音を出力するために、特定した最適化出力条件を該当する車両1の情報処理システム10に提供する構成を有している。
 なお、本実施形態の効果音には、例えば、メダル獲得音、拍手音、花火音、又は、音の高さ若しくは音色が異なる複数の音から構成される和音などが含まれる。また、効果音の出力条件には、例えば、効果音の出力タイミング、出力回数、音色(音程(音高)、強さ、音の数)、音量、長さ、若しくは、テンポなどの効果音を出力するための条件、又は、これらの2以上の組み合わせが含まれる。
[B1.2]車両
 次に、図2を用いて本実施形態の車両の全体構成の一例を説明する。なお、図2は、本実施形態の情報処理システム10を搭載した車両1の構成例を示す模式図である。
 車両1は、図2に示すように、車両の駆動トルクを生成する駆動力源9から出力される駆動トルクを左前輪3LF、右前輪3RF、左後輪3LR及び右後輪3RR(以下、特に区別を要しない場合には「車輪3」と総称する)に伝達する四輪駆動車として構成されている。駆動力源9は、ガソリンエンジンやディーゼルエンジン等の内燃機関であってもよく、駆動用モータであってもよく、内燃機関及び駆動用モータをともに備えていてもよい。
 なお、車両1は、例えば、前輪駆動用モータ及び後輪駆動用モータの二つの駆動用モータを備えた電気自動車であってもよく、それぞれの車輪3に対応する駆動用モータを備えた電気自動車であってもよい。また、車両1が電気自動車やハイブリッド電気自動車の場合、車両1には、駆動用モータへ供給される電力を蓄積する二次電池や、バッテリに充電される電力を発電するモータや燃料電池等の発電機が搭載される。
 車両1は、車両1の運転制御に用いられる機器として、駆動力源9、電動ステアリング装置43及びブレーキ液圧制御ユニット2を備えている。駆動力源9は、図示しない変速機や前輪差動機構7F及び後輪差動機構7Rを介して前輪駆動軸5F及び後輪駆動軸5Rに伝達される駆動トルクを出力する。駆動力源9や変速機の駆動は、一つ又は複数の電子制御装置(ECU:Electronic Control Unit)を含んで構成された車両制御装置40により制御される。
 前輪駆動軸5Fには、電動ステアリング装置43が設けられている。電動ステアリング装置43は、図示しない電動モータやギヤ機構を含み、車両制御装置40により制御されることによって左前輪3LF及び右前輪3RFの操舵角を調節する。車両制御装置40は、手動運転中において、ドライバによるステアリングホイール41の操舵角に基づいて電動ステアリング装置43を制御する。なお、電動ステアリング装置43は、油圧式のパワーステアリング装置であってもよい。
 車両1のブレーキシステムは、油圧式のブレーキシステムとして構成されている。ブレーキ液圧制御ユニット2は、それぞれ前後左右の駆動輪3LF,3RF,3LR,3RRに設けられたブレーキキャリパ21LF,21RF,21LR,21RR(以下、特に区別を要しない場合には「ブレーキキャリパ21」と総称する)に供給する油圧を調節し、制動力を発生させる。ブレーキ液圧制御ユニット2の駆動は、車両制御装置40により制御される。車両1が電気自動車あるいはハイブリッド電気自動車の場合、ブレーキ液圧制御ユニット2は、駆動用モータによる回生ブレーキと併用される。
 車両制御装置40は、車両1の駆動トルクを出力する駆動力源9、ステアリングホイール41又は操舵輪の操舵角を制御する電動ステアリング装置43、車両1の制動力を制御するブレーキ液圧制御ユニット2の駆動を制御する一つ又は複数の電子制御装置を含む。車両制御装置40は、駆動力源9から出力された出力を変速して車輪3へ伝達する変速機の駆動を制御する機能を備えていてもよい。車両制御装置40は、車両1の手動運転時において、ドライバの運転による操作量の情報を取得し、車両1の駆動トルクを出力する駆動力源9、ステアリングホイール41又は操舵輪の操舵角を制御する電動ステアリング装置43、車両1の制動力を制御するブレーキ液圧制御ユニット2の駆動を制御する。
[B1.3]情報処理システム
 次に、図3を用いて本実施形態の車両1に搭載された情報処理システム10の構成の一例を説明する。なお、図3は、本実施形態に係る情報処理システム10の構成の一例を示すブロック図である。
(情報処理システムの概要)
情報処理システム10は、管理サーバ20と連動しつつ、車両1の走行中に、車両1の挙動を示すデータを取得するとともに、ドライバの聴覚を刺激して車両1の挙動を安定させるための音を出力する処理を実行する。また、車両1の挙動には、主にドライバのステアリング操作状態、アクセル操作状態及びブレーキ操作状態が反映されるため、情報処理システム10は、ドライバに、当該ドライバ自身の運転操作状態の評価を、リアルタイムに、かつ、直感的に認識させることが可能な構成を有している。
 また、情報処理システム10は、図3に示すように、車体挙動計測装置11、車両周囲状況検出装置13、天候情報検出装置15、車両位置情報検出装置17、音出力装置19、及び、情報処理装置100を備えている。車体挙動計測装置11、車両周囲状況検出装置13、天候情報検出装置15、車両位置情報検出装置17、及び、音出力装置19は、専用線又はCAN(Controller Area Network)等の通信バスを介して、情報処理装置100と通信可能に接続されている。
 なお、本実施形態の情報処理システム10は、車両1に搭載されているナビゲーションシステム(図示せず)と連動する構成を有していること、又は、車両位置情報検出装置17を含めてナビゲーションシステムの機能を有していることが好ましいが、この限りではない。
(車体挙動計測装置)
 車体挙動計測装置11は、車両1の挙動を示すデータを計測する装置である。車体挙動計測装置11は、例えば車速センサ、加速度センサ及び角速度センサのうちの少なくともいずれか一つを含む。
 例えば、車速センサは、車両1の駆動軸の回転速度を検出する。加速度センサは、少なくとも車体前後方向の加速度である前後加速度及び車幅方向の加速度である横加速度を検出する。また、加速度センサは、車体高さ方向の加速度である上下加速度を検出してもよい。角速度センサは、車体前後方向の軸回り回転角(ロール角)、車幅方向の軸回りの回転角(ピッチ角)及び車体高さ方向の軸回りの回転角(ヨー角)のそれぞれの変化速度を検出する。また、角速度センサは、ヨー角の変化速度を検出するヨーレートセンサであってもよい。
 また、車体挙動計測装置11は、ドライバによるステアリング操作、アクセル操作、ブレーキ操作などの運転操作によって変化するデータを該当する車両1の挙動データとして検出し、検出した挙動データを情報処理装置100に出力する。
 なお、車体挙動計測装置11には、車速センサ、加速度センサ及び角速度センサ以外に、車両1の挙動が反映されるデータを計測可能なセンサが含まれてもよい。
(車両周囲状況検出装置)
 車両周囲状況検出装置13は、車両1の周囲の状況の情報を検出する装置である。例えば、車両周囲状況検出装置13は、ステレオカメラ、単眼カメラ、LiDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)及びレーダセンサのうちの少なくともいずれか一つを含んで構成される。なお、図1に示した車両1の例では、車両周囲状況検出装置13として、左右一対の前方撮影カメラ13LF,13RF及びLiDAR13Sが備えられている。
 具体的には、車両周囲状況検出装置13は、取得したデータに基づいて、他車両、自転車、歩行者、道路標識、その他障害物等の車両1の周囲の物体を検出するとともに、これらの物体までの距離や相対速度、相対位置を算出する。また、車両周囲状況検出装置13は、取得したデータに基づいて、道路幅等の車両1の周囲の状況の情報(以下、「周囲状況情報」という。)を検出する。さらに、車両周囲状況検出装置13は、検出された周囲状況情報を情報処理装置100に出力する。
 なお、車両周囲状況検出装置13は、ステレオカメラ、単眼カメラ、LiDAR、レーダセンサ以外に、車両1の周囲の状況の情報を検出可能な機器を含んでいてもよい。
(天候情報検出装置)
 天候情報検出装置15は、車両1の走行エリアの天候に関する情報を検出する装置である。例えば、天候情報検出装置15は、ステレオカメラ、単眼カメラ、レインセンサ、風圧計、加速度センサのうちの少なくとも一つを含んで構成される。
 そして、天候情報検出装置15は、ステレオカメラあるいは単眼カメラの撮像データに基づいて、降雨、降雪、積雪、路面凍結を検出する。また、天候情報検出装置15は、レインセンサの検出データに基づいて降雨量を推定する。さらに、天候情報検出装置15は、風圧計の検出データに基づいて風速及び風向きを検出する。またさらに、天候情報検出装置15は、加速度センサのセンサ信号に基づいて、風速及び風向きを推定する。そして、天候情報検出装置15は、検出されたこれらの天候に関する情報(以下、「天候状況情報」という。)を情報処理装置100に出力する。
 なお、天候情報検出装置15は、ステレオカメラ、単眼カメラ、レインセンサ、風圧計、加速度センサ以外に、車両1の走行エリアの天候に関する情報を検出可能な機器を含んでいてもよい。また、天候情報検出装置15は、テレマティックス等に例示される外部システムからの情報を受信して、走行エリアの天候に関する情報(以下、「天候受信情報」という。)を取得してもよい。この場合には、天候情報検出装置15は、検出された天候受信情報を情報処理装置100に出力する。
(車両位置情報検出装置)
 車両位置情報検出装置17は、GPS(Global Positioning System)に代表されるGNSS(Global Navigation Satellite System)から送信される測位信号を受信し、車両1の位置を計測する。そして、車両位置情報検出装置17は、計測された車両1の位置の情報(緯度、経度及び時刻の情報を含む。)を位置情報として情報処理装置100に出力する。
 本実施形態の車両位置情報検出装置17は、ドライバの運転支援をし、車両1を目的地まで誘導するナビゲーションシステム(図示せず)の一部として機能してもよい。この場合には、車両位置情報検出装置17は、計測した車両1の位置に基づいてナビゲーションシステム(図示せず)の地図データを参照し、車両の現在の位置を特定して位置情報として情報処理装置100に出力する。
 なお、車両位置情報検出装置17は、GNSSの代わりに、あるいは、GNSSと併せて、準天頂衛星システム等の他のシステムから送信される測位信号を受信し、車両1の位置を計測してもよい。
(音出力装置)
 音出力装置19は、ドライバに認識可能な音を出力する装置であり、音出力装置19の出力は、情報処理装置100によって制御される。特に、音出力装置19は、情報処理装置100に記憶されている効果音データ又は管理サーバ20から提供された効果音データを再生する再生部を有している。また、音出力装置19は、再生部の他に、再生された効果音のデジタル信号をアナログ信号に変換するD/A変換器、アナログ信号を増幅する増幅器及びスピーカなどのドライバに対して聴覚を刺激するための音を車両1内に出力するための構成を有している。
 なお、音出力装置19は、図2に示した車両1では、車両1の前後左右に備えられた四つのスピーカ31LF,31RF,31LR,31RRを有している。また、音出力装置19は、車両1に備えられたスピーカを有していてもよいし、情報処理システム10専用のスピーカであってもよい。
(情報処理装置)
 情報処理装置100は、一つ又は複数のCPU等のプロセッサを有し、管理サーバ20と連動しつつ、コンピュータプログラムを実行することによって、ドライバに対する聴覚刺激に基づく運転支援を実行する際の挙動データの収集及び提供と、効果音の出力制御と、を実行する。
 特に、情報処理装置100は、車体挙動計測装置11、車両周囲状況検出装置13、天候情報検出装置15及び車両位置情報検出装置17から出力された各種のデータ又は情報を取得可能に構成されている。
 また、情報処理装置100は、図3に示すように、処理部110、操作入力部120、記憶部140、情報記憶媒体150、及び、通信部170を有している。なお、これらの一部を省略する構成としてもよい。情報処理装置100の一部又は全部は、ファームウェア等の更新可能なもので構成されてもよく、また、CPU等からの指令によって実行されるプログラムモジュール等であってもよい。
 処理部110は、情報記憶媒体150に格納されるアプリケーションプログラム(以下、「アプリ」ともいう。)を読み出して実行することによって本実施形態の種々の処理を行う。なお、情報記憶媒体150に記憶させておくアプリの種別については、任意である。また、本実施形態の処理部110が、情報記憶媒体150に格納されているプログラムやデータを読み出し、読み出したプログラムやデータを一時的に記憶部140に格納し、そのプログラムやデータに基づいて処理を行ってもよい。
 特に、処理部110は、記憶部140内の主記憶部をワーク領域として各種処理を行う。そして、処理部110の機能は各種プロセッサ(CPU、DSP等)などのハードウェアや、アプリケーションプログラムにより実現する。具体的には、処理部110は、通信制御部111、入力受付処理部112、データ処理部113、出力制御部114、又は、タイマ管理部119から構成される。なお、これらの一部を省略する構成としてもよい。
 通信制御部111は、管理サーバ20とデータを送受信する処理を行う。特に、通信制御部111は、管理サーバ20から送信されたデータを受信し、当該受信したデータを記憶部140に記憶する処理、及び、各種のデータを管理サーバ20に送信する処理などの制御処理などを実行する。
 入力受付処理部112は、ユーザによって操作入力部120から入力された入力情報を認識し、認識した情報をデータ処理部113に出力する。
 データ処理部113は、入力受付処理部112によって認識された入力情報を管理サーバ20に提供する。
 また、データ処理部113は、車体挙動計測装置11、車両周囲状況検出装置13、天候情報検出装置15及び車両位置情報検出装置17から出力された挙動データ、周囲状況情報、天候検出情報若しくは天候受信情報(以下、まとめて「天候情報」ともいう。)、又は、位置情報を取得する。データ処理部113は、取得した挙動データ及び各情報を、出力制御部114又は管理サーバ20に提供する。
 出力制御部114は、管理サーバ20から提供された効果音を出力するための制御データ(以下、「効果音出力制御データ」という)、又は、当該効果音出力制御データ及び効果音データを取得する。また、出力制御部114は、管理サーバ20から提供された効果音出力制御データに基づいて、又は、当該効果音出力制御データ及び管理サーバ20から提供された効果音データに基づいて、音出力装置19を制御する。
 タイマ管理部119は、現在日時や所定のタイミングからの計測を行う機能を有しており、所定のタイミングが到来した場合に、現在時刻や計測結果を出力する。
 操作入力部120は、ドライバによって所与の情報が入力される際に用いられる機器であり、ドライバによって入力された情報(以下、「入力情報」という。)を処理部110に出力するための構成を有している。
 例えば、操作入力部120は、ドライバの入力情報(入力信号)を検出する検出部(図示しない)を備え、レバー、ボタン、ダイヤル式操作機器、マイクロホン、タッチパネル型ディスプレイ、キーボード、マウス又はジェスチャにより入力を受け付けるためのカメラなどによって構成される。特に、検出部122は、操作入力部120がマイクロホンによって構成されている場合には、ドライバなどの乗員の音声により入力を受け付ける音声認識装置を構成する。また、検出部は、操作入力部120がカメラによって構成されている場合には、カメラが撮像したジェスチャの入力を受け付ける画像認識装置を構成する。
 操作入力部120は、入力情報として、ドライバの属性に関する情報を受け付ける。ドライバの属性に関する情報は、ドライバの運転技能に関連する情報であり、例えば、ドライバの年齢、免許取得後経過年数、運転頻度、直前に運転した後の経過年数等のうちの少なくともいずれかの情報を含む。
 なお、ドライバの属性に関する情報としては、ドライバの運転技能を推定可能な他の情報が含まれていてもよい。これらの情報は、情報処理装置100から提示される質問に対してドライバ等が回答するアンケートの形式で入力されてもよい。また、これらの情報として、予めこれらの情報を判定あるいは蓄積したデータが入力されてもよい。
 操作入力部120は、入力情報として、効果音として希望する音の情報を受け付けてもよい。例えば、操作入力部120は、処理部110と連動し、記憶部140などに予め記憶された音色あるいは音の種類の中から、ドライバ等が希望する音(楽器音や各種の効果音)を選択することができるように構成されていてもよい。選択される音のデータとしては、記憶部140に予め記憶された効果音データ、及び、管理サーバ20から提供された効果音データが含まれる。
 記憶部140は、処理部110などのワーク領域となるもので、その機能はRAM(VRAM)などのハードウェアにより実現される。本実施形態の記憶部140は、ワーク領域として使用される主記憶部141と、各処理を実行する際に用いられるコンピュータプログラム、テーブルデータ、基準データ又は音データなどが記憶されるデータ記憶部142と、を含む。
 なお、これらの一部を省略する構成としてもよい。また、コンピュータプログラムは、情報処理装置100が実行すべき各種の動作をプロセッサに実行させるためのプログラムである。また、コンピュータプログラムは、情報処理装置100に内蔵された記録媒体又は情報処理装置100に外付け可能な任意の記録媒体に記録されていてもよい。
 情報記憶媒体150は、コンピュータにより読み取り可能であり、この情報記憶媒体150には各種のアプリ、OS(オペレーティングシステム)の他に、各情報処理システム10に対応するIDを含む各種のデータが記憶されていてもよい。
 すなわち、情報記憶媒体150には、本実施形態の各部としてコンピュータを機能させるためのアプリ(各部の処理をコンピュータに実行させるためのアプリ)及び各情報処理システム10と通信を行うためのIDなどが記憶される。
 例えば、情報記憶媒体150は、ハードディスク、フロッピーディスク及び磁気テープ等の磁気媒体、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、及びBlu-ray(登録商標)等の光記録媒体、フロプティカルディスク等の磁気光媒体、RAM及びROM等の記憶素子、並びにUSB(Universal Serial Bus)メモリ及びSSD(Solid State Drive)等のフラッシュメモリ、その他のプログラムを格納可能な媒体であってよい。
 通信部170は、外部(例えば、管理サーバ20)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、コンピュータプログラムなどによって構成される。
[B1.4]管理サーバ
 次に、図4を用いて本実施形態の管理サーバ20の構成の一例を説明する。なお、図4は、本実施形態に係る管理サーバ20の構成の一例を示すブロック図である。
 管理サーバ20は、一つ又は複数のCPU等のプロセッサを有し、コンピュータプログラムを実行することによって、各情報処理システム10と連動しつつ、効果音最適化出力条件特定処理を実行する。
 特に、本実施形態の管理サーバ20は、各ドライバの聴覚刺激に基づく車両1の挙動データを取得して解析し、各ドライバの挙動安定度の高い効果音の出力条件を最適化出力条件として特定する。そして、管理サーバ20は、特定した最適化出力条件によって情報処理システム10による効果音の出力を制御するためのデータとして、最適化効果音出力制御データを該当する車両1の情報処理システム10に提供する。
 なお、管理サーバ20の一部又は全部は、ファームウェア等の更新可能なもので構成されてもよく、また、CPU等からの指令によって実行されるプログラムモジュール等であってもよい。また、コンピュータプログラムは、管理サーバ20が実行すべき各種の動作をプロセッサに実行させるためのコンピュータプログラムである。プロセッサにより実行されるコンピュータプログラムは、管理サーバ20に備えられた記憶部(メモリ)240として機能する記録媒体に記録されていてもよく、管理サーバ20に内蔵された記録媒体又は管理サーバ20に外付け可能な任意の記録媒体に記録されていてもよい。
 例えば、コンピュータプログラムを記録する記録媒体としては、ハードディスク、フロッピーディスク及び磁気テープ等の磁気媒体、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、及びBlu-ray(登録商標)等の光記録媒体、フロプティカルディスク等の磁気光媒体、RAM及びROM等の記憶素子、並びにUSB(Universal Serial Bus)メモリ及びSSD(Solid State Drive)等のフラッシュメモリ、その他のプログラムを格納可能な媒体であってよい。
 管理サーバ20は、図4に示すように、処理部210、記憶部240、情報記憶媒体250、及び通信部270を有している。処理部210は、通信制御部211、データ取得部212、データ解析部213、データ提供処理部214、又は、タイマ管理部219から構成される。なお、これらの一部を省略する構成としてもよい。
 通信制御部211は、各情報処理システム10とデータを送受信する処理を行う。特に、通信制御部211は、各情報処理システム10から送信されたデータを受信し、当該受信したデータを記憶部240に記憶する処理、及び、各種のデータを各車両1の情報処理システム10に送信する処理などの制御処理などを実行する。
 データ取得部212は、各車両1の情報処理システム10から挙動データを取得し、データ解析部213に出力する。
 データ解析部213は、情報処理システム10に提供する各ドライバの車両1の挙動を解析するためのデータであって、車両1内に出力する効果音の出力条件が予め定められた効果音出力制御データ(以下、「挙動解析用効果音出力制御データ」という。)を設定する。
 なお、データ取得部212は、挙動解析用効果音出力制御データを設定する際に、車両1内に出力するための効果音の種別を特定してもよい。
 データ提供処理部214は、データ解析部213によって設定された挙動解析用効果音出力制御データを、通信制御部211の制御の下、通信部270を介して各車両1の情報処理システム10に提供する。
 タイマ管理部219は、現在日時や所定のタイミングからの計測を行う機能を有しており、所定のタイミングが到来した場合、又は、所定の要求を受信した場合に、現在時刻や計測結果を出力する。
 記憶部240は、処理部210などのワーク領域となるもので、その機能はRAM(VRAM)などのハードウェアにより実現される。本実施形態の記憶部240は、ワーク領域として使用される主記憶部241と、各処理を実行する際に用いられるコンピュータプログラム、テーブルデータ及ぶ基準データが記憶されるデータ記憶部242と、ドライバのデータが記憶されるドライバデータ記憶部243と、を含む。
 なお、これらの一部を省略する構成としてもよい。また、コンピュータプログラムは、管理サーバ20が実行すべき各種の動作をプロセッサに実行させるためのプログラムである。また、コンピュータプログラムは、管理サーバ20に内蔵された記録媒体又は管理サーバ20に外付け可能な任意の記録媒体に記録されていてもよい。
 情報記憶媒体250は、コンピュータにより読み取り可能であり、この情報記憶媒体250には各種のアプリ、OS(オペレーティングシステム)の他に、各情報処理システム10に対応するIDを含む各種のデータが記憶されていてもよい。
 すなわち、情報記憶媒体250には、本実施形態の各部としてコンピュータを機能させるためのアプリ(各部の処理をコンピュータに実行させるためのアプリ)及び各情報処理システム10と通信を行うためのIDなどが記憶される。
 例えば、情報記憶媒体250は、ハードディスク、フロッピーディスク及び磁気テープ等の磁気媒体、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、及びBlu-ray(登録商標)等の光記録媒体、フロプティカルディスク等の磁気光媒体、RAM及びROM等の記憶素子、並びにUSB(Universal Serial Bus)メモリ及びSSD(Solid State Drive)等のフラッシュメモリ、その他のプログラムを格納可能な媒体であってよい。
 通信部270は、外部(例えば、各情報処理システム10)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、コンピュータプログラムなどによって構成されている。
[B1.5]本実施形態の効果音最適化出力条件特定処理
[B1.5.1]概要
 次に、図5を用いて本実施形態の聴覚刺激に基づくドライバへの運転支援において、効果音の最適化出力条件を特定する効果音最適化出力条件特定処理について説明する。なお、図5は、本実施形態の効果音最適化出力条件特定処理について説明するための図である。
 本実施形態の管理サーバ20は、効果音最適化出力条件特定処理として、以下の処理を実行する構成を有している。管理サーバ20は、各車両1が少なくとも所定の区間を走行中に当該各車両1の挙動データを当該各車両1から取得する挙動データ取得処理を実行する。管理サーバ20は、所定の区間の通過後に、当該所定の区間における車両1の挙動データから得られる挙動安定度に応じた効果音を、車両1内に出力させための制御を実行する効果音出力制御処理を実行する。管理サーバ20は、効果音の出力条件を変更しながら繰り返して挙動データ取得処理及び効果音出力制御処理を実行し、これらの処理によって得られた結果が予め設定された設定条件を具備した場合に、当該結果に対応する出力条件を最適化出力条件として特定する特定処理を実行する。
 特に、本実施形態の管理サーバ20は、挙動データ取得処理及び効果音出力制御処理の前提として、予めグループ化された1以上のドライバから構成される複数のグループを選定する。そして、管理サーバ20は、当該選定したグループごとに車両1内の効果音の出力条件が異なる挙動解析用効果音出力制御データ(以下、「挙動解析用基準データ」という。)を設定し、それぞれ、各車両1の情報処理システム10に提供する。
 また、本実施形態の管理サーバ20は、本実施形態の効果音の出力条件として、上述のように、効果音の出力タイミング、出力回数、音色、音量、長さ、及び、テンポのうち、少なくともいずれかの条件を用いる。そして、管理サーバ20は、これらの出力条件又はその組み合わせを変更しながら挙動データ取得処理及び効果音出力制御処理を実行し、その処理結果として、効果音の暫定的な最適な出力条件を特定する処理(以下、「出力条件特定処理」という。)を実行する。最終的に、管理サーバ20は、当該処理結果となる暫定的な最適な出力条件が予め設定された設定条件(以下、「挙動安定化条件」という。)を具備した場合に、当該暫定的な最適な出力条件を最適化出力条件として特定する。
 具体的には、管理サーバ20は、図5に示すように、挙動解析用基準データを含む挙動解析用効果音出力制御データに基づいて収集された各挙動データを、所定の区間の通過後に、取得する挙動データ取得処理を実行する。管理サーバ20は、図5に示すように、各挙動データを取得すると、取得した各グループの挙動データに基づいてグループごとに出力条件が異なる新規な挙動解析用効果音出力制御データを設定する。そして、管理サーバ20は、図5に示すように、効果音出力制御処理として、設定された挙動解析用効果音出力制御データを各車両1の情報処理システム10に提供し、かつ、各挙動データを取得する挙動データ取得処理を実行し、繰り返しこれらの処理を繰り返す。
 また、管理サーバ20は、図5に示すように、出力条件特定処理としては、挙動データから得られる各グループの挙動安定度を比較して効果音の暫定的な最適な出力条件を特定し、当該出力条件が設定されたグループを特定グループとして特定する。管理サーバ20は、図5に示すように、挙動データ取得処理及び効果音出力制御処理を繰り返し実行して得られた処理結果(例えば、特定グループの効果音の出力条件)が予め定められた挙動安定化条件を具備するか否かを判定する判定処理を実行する。このとき、管理サーバ20は、判定処理において、実行結果が挙動安定化条件を具備した場合に、暫定的な最適な出力条件として特定されている出力条件(例えば、特定グループの効果音の出力条件)を効果音最適化出力条件として特定する。
 このように、本実施形態の管理サーバ20は、グループごとに効果音の出力条件を変更しながら繰り返し効果音出力制御処理及びそれに基づく挙動データ取得処理を実行しつつ、出力条件特定処理を実行し、最終的に効果音最適出力条件を特定する構成を有している。
 なお、各情報処理システム10は、図5に示すように、例えば、挙動解析するための所定の区間(以下、「挙動解析区間」という。)の通過後に、挙動解析区間の走行中に再生した効果音に基づく車両の挙動を示す挙動データを収集して管理サーバ20に提供する。
 また、管理サーバ20は、上述のように効果音最適化出力条件が特定されると、最適化出力条件が規定された制御データ(以下、「最適化効果音出力制御データ」という。)を情報処理システム10に提供する。そして、情報処理システム10は、ドライバの希望の区間、又は、挙動の安定が必須な区間などの区間(以下、「適用区間」ともいう。)において、最適化効果音出力制御データに基づいて効果音データを再生し、所定の効果音を車両1内に出力する。
 この構成により、本実施形態の管理サーバ20又はそれを含む運転支援用ネットワークシステムSは、ドライバの運転操作に基づく実際の車両の挙動データを収集することができれば、自動的に支援対象のドライバの聴覚刺激を行うための効果音の最適な出力条件を特定することができる。
 また、本実施形態の管理サーバ20又はそれを含む運転支援用ネットワークシステムSは、ドライバの聴覚刺激に対する実際の車両の挙動についてのデータを収集することができるので、支援対象のドライバの挙動安定度が高くなる効果音の出力条件を的確に特定することができる。
 すなわち、本実施形態の管理サーバ20又はそれを含む運転支援用ネットワークシステムSは、挙動安定度が高くなる効果音の最適な出力タイミング、音の種類、または、音色などのドライバの最適な出力条件を自動的に特定することができる。
 そして、本実施形態の管理サーバ20又はそれを含む運転支援用ネットワークシステムSは、自動的に特定した効果音の出力条件を単にドライバに提供すれば、挙動安定度が高くなるように、当該ドライバの聴覚を的確に刺激することができる。
[B1.5.2]ドライバデータ及びグループデータ
 次に、図6及び図7を用いて本実施形態の効果音最適化出力条件特定処理に用いるドライバデータ及びグループデータについて説明する。なお、図6は、本実施形態のドライバデータ記憶部243に記憶されるドライバデータの一例であり、図7は、本実施形態のドライバデータ記憶部243に記憶されるグループデータの一例である。
 ドライバデータ記憶部243には、各ドライバに関するデータ(以下、「ドライバデータ」という。)と、各グループに関するデータ(以下、「グループデータ」という)と、が記憶されている。
 ドライバデータには、図6に示すように、各ドライバを識別するためのドライバIDに対応付けて、属性情報、各ドライバが運転する各車両1を識別するための車両ID、当該車両1に搭載される情報処理システム10を識別するためのシステムIDなどが含まれる。
 グループデータは、各ドライバの車両1の挙動を解析するために、予め選定されたグループに関するデータであって、グループごとに、各グループに属するドライバを特定するためのデータである。具体的には、グループデータには、図7に示すように、グループごとに、各グループに属するドライバIDが含まれる。
 なお、本実施形態のグループデータには、ドライバIDに代えて、又は、当該ドライバIDとともに、車両1の車両ID、情報処理システム10のシステムID、又は、これらの組み合わせが含まれていてもよい。また、各グループは、ランダムなど任意の手法によって予めグループ化されていてもよいが、同一の走行区間、同一の走行距離、又は、同一の走行時間など、車両1の走行に関して必須の条件を満たした車両1を運転するドライバに対してグループ分けすることが好ましい。
[B1.5.3]情報処理システムの効果音最適化出力条件特定処理に関する各処理
 次に、本実施形態の効果音最適化出力条件特定処理に関連し、情報処理システム10によって実行される各処理について説明する。
(挙動解析用効果音出力制御データに基づく効果音の出力制御)
 出力制御部114は、管理サーバ20に各車両1の挙動データを提供するために、挙動解析区間において、効果音の出力条件が異なる挙動解析用効果音出力制御データ(後述の挙動解析用基準データを含む。)ごとに、効果音の出力制御を実行する。
 具体的には、出力制御部114は、通信制御部111の制御の下、通信部170を介して効果音の出力条件の異なる挙動解析用効果音出力制御データをそれぞれ取得し、取得した挙動解析用効果音出力制御データを記憶部140に記憶する。また、出力制御部114は、挙動解析区間の開始地点又は開始タイミングを検出すると、記憶されている挙動解析用効果音出力制御データに基づいて、所定の効果音データを再生し、音出力装置19から効果音を出力させる。そして、出力制御部114は、挙動解析区間の終了地点又は終了タイミングを検出すると、挙動解析用効果音出力制御データに基づく効果音データの再生を停止する。
 例えば、出力制御部114は、車両位置情報検出装置17から取得した位置情報に基づいて、挙動解析区間の開始地点及び終了地点の通過を検出する。なお、出力制御部114は、例えば、タイマ管理部119から出力された現在時刻、車両周囲状況検出装置13から出力された周知状況情報、又は、天候情報検出装置15から出力された天候情報に基づいて、挙動解析区間を検出してもよい。また、出力制御部114は、例えば、位置情報、現在時刻、周知状況情報、天候情報のうち2以上の組み合わせに基づいて、挙動解析区間を検出してもよい。
(挙動データの収集及び管理サーバへの送信)
 データ処理部113は、挙動解析用効果音出力制御データに基づいて効果音が再生されると、車体挙動計測装置11から出力された予め定められたタイミングごとの挙動データを収集する。また、データ処理部113は、通信制御部111の制御の下、通信部170を介して、収集した各挙動データを挙動データ群として管理サーバ20に送信する。
 特に、データ処理部113は、所定の走行距離ごとに区切られる区間、所定の走行時間により区切られる区間、信号機が設けられた交差点などの基準地点ごとに区切られる区間など、挙動解析区間の車両1の走行中に、予め定められたタイミングごとの各挙動データを収集する。また、データ処理部113は、予め定められたタイミングごとに、挙動データとして、加速度、角速度、加加速度若しくは角加速度の値、又は、これらのうち2以上の値を収集する。
 なお、データ処理部113は、収集した各挙動データを時系列に配列させた一群のデータを管理サーバ20に送信してもよいし、収集した挙動データを逐次管理サーバ20に送信してもよい。この場合において、データ処理部113は、記憶部140に記憶されているドライバIDを付しつつ、挙動解析用効果音出力制御データの種別(以下、「データ種別」という。)ごとに、又は、データ種別IDを付して、挙動データ群を管理サーバ20に送信することが好ましい。
 また、本実施形態においては、車両1ごと、及び、挙動解析区間ごとに、1以上の挙動データを収集して管理サーバ20に送信すればよい。ただし、データ処理部113は、各車両1の適切な挙動を反映するためには、複数の挙動データを収集して管理サーバ20に送信することが好ましい。
(最適化効果音出力制御データに基づく効果音の出力制御)
 出力制御部114は、ドライバの希望の区間などの適用区間において、最適化効果音出力制御データに基づく効果音の出力制御を実行する。
 特に、出力制御部114は、通信制御部111の制御の下、通信部170を介して最適化効果音出力制御データを取得し、取得した最適化効果音出力制御データを記憶部140に記憶する。また、出力制御部114は、適用区間の開始地点又は開始タイミングを検出すると、記憶されている最適化効果音出力制御データに基づいて、所定の効果音データを再生し、音出力装置19から効果音を出力させる。出力制御部114は、適用区間の終了地点又は終了タイミングを検出すると、最適化効果音出力制御データに基づく効果音データの再生を停止する。
[B1.5.4]管理サーバにおける効果音最適化出力条件特定処理の各処理
[B1.5.4.1]挙動解析用基準データの設定処理
 次に、本実施形態のデータ取得処理及び効果音出力制御処理が実行される前にデータ解析部213によって実行される挙動解析用基準データの設定処理について説明する。
 データ解析部213は、選定されたグループごとに異なり、かつ、予め定められた出力条件を有する効果音出力制御データを挙動解析用基準データとして設定する。
 特に、データ解析部213は、ランダムに又は所定のアルゴリズムなどによって、所定の区間を走行する複数のドライバを複数のグループにグループ分けし、ドライバデータ記憶部243にグループごとに、各グループに属するドライバのドライバIDを記憶する。また、データ取得部212は、挙動データに基づいて最適化出力条件を特定可能なアルゴリズムに従って、効果音の出力タイミングなどの効果音の出力条件を規定する挙動解析用基準データを、グループごとに、設定する。
 例えば、データ解析部213は、最適化出力条件を特定するために二文探索を利用する場合には、挙動解析開始から最も早いタイミング、当該挙動解析開始から最も遅いタイミング、及び、その中間のタイミング(中央値)が規定された挙動解析用基準データを用いる。また、この場合であって、3つのグループにグループ分けされている場合には、データ解析部213は、運転開始などの挙動解析開始から効果音を1秒後、3秒後又は5秒後に出力する出力タイミングが異なる挙動解析用効果音出力制御データをそれぞれ設定する。
 なお、本実施形態においては、上述したように、所定の効果音の出力条件における挙動データを取得するために、3つのグループを例に説明しているが、2グループ以上が選定されていれば、本実施形態の聴覚刺激に基づく運転支援に関する処理に適用することが可能である。ただし、的確な車両1の挙動の傾向を解析するためには、3グループ以上のグループ数が好ましい。
 また、本実施形態においては、二文探索を用いて最適化出力条件を特定しているが、予め定められた出力条件を用いた線形探索などの他の探索アルゴリズムを用いてもよい。
[B1.5.4.2]挙動データ取得処理
 次に、本実施形態のデータ取得部212によって実行される挙動解析用基準データ、又は、挙動解析用効果音出力制御データに基づく挙動データ取得処理について説明する。
(挙動解析用基準データに基づく挙動データ取得処理)
 データ取得部212は、通信制御部211の制御の下、挙動解析用基準データに基づいて各車両1の情報処理システム10によって収集された挙動データを、それぞれ、通信部270を介して取得し、取得した各挙動データをデータ解析部213に出力する。
 具体的には、データ取得部212は、各車両1に搭載された情報処理システム10によって、車両1ごとに挙動解析区間の走行中に収集されたデータであって、挙動解析区間の各車両1の挙動を示す挙動データを、各情報処理システム10からそれぞれ取得する。すなわち、データ取得部212は、挙動解析区間においてドライバごとに割り当てられた挙動解析用基準データに基づいて効果音が出力制御されている場合に、グループごとに、各車両1において収集された1以上の挙動データをそれぞれ取得する。
 なお、本実施形態のデータ取得部212は、車両1ごと、及び、挙動解析区間ごとに、1以上の挙動データを取得すればよいが、各車両1の適切な挙動を反映するためには、複数の挙動データを取得することが好ましい。ただし、以下においては、特に、言及しないかぎり、「挙動データ」は、「1又は複数の挙動データ」であるとして説明する。
(挙動解析用効果音出力制御データに基づく挙動データ取得処理)
 データ取得部212は、通信制御部211の制御の下、挙動解析用基準データのときと同様に、挙動解析用効果音出力制御データに基づいて各車両1の情報処理システム10によって収集された挙動データを、それぞれ、通信部270を介して取得する。そして、データ取得部212は、取得した各挙動データをデータ解析部213に出力する。
[B1.5.4.3]挙動解析用効果音出力制御データの設定処理を含む効果音出力制御処理
 次に、図8を用いて本実施形態のデータ解析部213によって実行される挙動解析用効果音出力制御データの設定処理を含む効果音出力制御処理について説明する。なお、図8は、本実施形態のデータ解析部213によって実行される挙動解析用効果音出力制御データの設定処理を含む効果音出力制御処理について説明するための図である。
(挙動解析用効果音出力制御データの設定処理)
 データ解析部213は、上述のように、挙動解析用基準データに基づく各挙動データが各車両1からそれぞれ取得されると、各車両1における各挙動データに基づいて、それぞれの車両1における挙動安定度を示す指標値(以下、「挙動安定度の指標値」という。)を算出する。そして、データ解析部213は、グループごとに各車両1の挙動安定度の指標値を算出し、グループの中から最適な挙動安定度を示す指標値のグループを特定グループとして特定する。また、データ解析部213は、特定グループに設定された効果音の出力条件を暫定的な効果音の最適化出力条件として決定し、決定した暫定的な効果音の最適化出力条件に基づいて、新たな挙動解析用効果音出力制御データを設定する。
 具体的には、データ解析部213は、各挙動データによって示される車速、加速度(前後加速度、横加速度、上下加速度)又は角速度(ヨー角、ロール角、ピッチ角の角速度)の値(データ値)に基づいて、各車両1における挙動安定度の指標値を算出する。
 特に、データ解析部213は、車速、加速度又は角速度に対して、平滑化処理、絶対値変換処理又は微分処理のうちの少なくともいずれかの処理を実行し、車両1の挙動の大きさを示す値を算出する。例えば、データ解析部213は、車速、加速度又は角速度のデータ値に対して平滑化処理、絶対値変換処理及び微分処理を実行して、加速度の絶対値、加速度の絶対値の躍度(加加速度:ジャーク)又は角速度の絶対値の躍度(角加速度)を算出する。ただし、データ解析部213は、算出した加速度、角速度、加加速度又は角加速度の絶対値をそのまま指標値としてもよい。なお、加加速度又は角加速度の絶対値を指標値とすれば、走行路の軌道や他車両の加減速の影響による車速、加速度又は角速度の変化の影響が低減され、ドライバの運転操作状態に起因する車両1の挙動の変化をより精度よく評価することができる。
 また、データ解析部213は、加速度、角速度、加加速度又は角加速度の絶対値のうちの複数のデータ値を用いて一つの指標値を算出してもよい。データ解析部213は、使用する個々の挙動データのデータ値を同一の指標(例えば、0~100の値)に置き換え、使用するすべてのデータ値を同一の指標に置換した値の平均値を指標値としてもよい。
 なお、データ解析部213は、加速度及び加加速度について、前後加速度、横加速度、上下加速度のうちの少なくとも一つについてそれぞれ個別に算出する。また、データ解析部213は、角速度及び角加速度について、ヨー角、ロール角、ピッチ角のうちの少なくとも一つについてそれぞれ個別に算出する。特に、データ解析部213により算出される指標値は、車両1の挙動が大きいほど大きい値となる一方、挙動が小さいほど小さい値となる。
 データ解析部213は、ドライバごとに、複数の挙動データから算出された各挙動安定度の指標値から代表値を算出する。例えば、データ解析部213は、複数の指標値の中から最大値を、代表値として、設定してもよいし、平均値などの統計的な値を、代表値として、設定してもよい。また、データ解析部213は、各ドライバの挙動安定度の指標値を算出すると、グループごとの各ドライバの挙動安定度の指標値に基づいて、各グループの挙動安定度の指標値を算出する。例えば、データ解析部213は、グループごとの各ドライバの指標値の平均値を各グループの挙動安定度の指標値として算出する。
 データ解析部213は、各グループの挙動安定度の指標値を算出すると、各グループの挙動安定度の指標値の中から、予め定められた条件を有する指標値を有するグループを特定グループと決定する。
 また、データ解析部213は、特定グループに設定されている効果音の出力条件を暫定的な最適化出力条件として特定し、特定した暫定的な最適化出力条件に基づいて、新たな挙動解析用効果音出力制御データを設定する。すなわち、データ解析部213は、グループごとに、暫定的な最適化出力条件と、当該暫定的な最適化出力条件に基づいて決定した出力条件と、が規定された挙動解析用効果音出力制御データを設定する。
 具体的には、データ解析部213は、暫定的な最適化出力条件と、挙動解析用基準データを設定した際の出力条件と、に基づいて、新たに設定する挙動解析用効果音出力制御データの出力条件を決定する。また、データ解析部213は、新たに決定する出力条件としては、挙動解析用基準データを設定した際のグループから「1つ」少ないグループに対する出力条件を決定する。例えば、データ解析部213は、挙動解析用基準データが3つのグループに対して設定されている場合には、その中から1のグループの出力条件を暫定的な効果音の出力条件として決定し、かつ、2つのグループに対する出力条件を新たに決定する。
 特に、探索アルゴリズムとして二分探索を用いる場合であって、異なる出力タイミングの出力条件を設定するには、データ解析部213は、当該暫定的な出力条件を中心に、設定可能な最も早いタイミングと最も遅いタイミングを新たな出力条件として設定する。この場合に、データ解析部213は、暫定的な出力条件を有する挙動解析用効果音出力制御データとともに、新たな出力条件を有する2つの挙動解析用効果音出力制御データを設定する。
 例えば、図8に示すように、上述のように、挙動解析区間の開始からの効果音の出力タイミング「1秒後」、「3秒後」又は「5秒後」が設定されている挙動解析用基準データが3つのグループA、B及びCに設定されている場合を想定する。また、この場合において、「3秒後」のグループBの挙動安定度の指標値が一番小さいものとする。
 この場合には、データ解析部213は、「3秒後」のグループBを特定グループとして決定し、当該グループBに設定された出力条件を暫定的な最適化出力条件として決定する。また、データ解析部213は、「3秒後」のグループBの出力条件を基準に、二分探索アルゴリズムに基づいて、2つのグループ(具体的には、AとC)における出力条件を設定する。すなわち、データ解析部213は、それぞれグループA及びCに、挙動解析区間の開始からの効果音の出力タイミングが設定可能な最も早いタイミングである「2秒後」、及び、最も遅いタイミングである「4秒後」となる出力タイミングを決定する。そして、データ解析部213は、各グループの次のタイミングにおける効果音の出力条件を決定すると、当該決定した出力条件に基づいて挙動データを取得するための挙動解析用効果音出力制御データを設定する。
(効果音出力制御処理)
 データ提供処理部214は、効果音出力制御処理として、挙動解析用基準データと同様に、新たな出力条件のデータを含む各挙動解析用効果音出力制御データを、通信制御部211の制御の下、通信部270を介して該当する情報処理システム10に提供する。
 すなわち、データ提供処理部214は、効果音出力制御処理として、各挙動解析用効果音出力制御データをそれぞれ該当する情報処理システム10に提供し、当該各情報処理システム10に、挙動解析用効果音出力制御データに従って効果音の出力を制御させる。
 なお、暫定的な最適化出力条件を有する挙動解析用効果音出力制御データについては、変更がないため、データ提供処理部214は、該当する情報処理システム10については既に提供された挙動解析用効果音出力制御データに従って効果音の出力を制御させてもよい。
[B1.5.4.4]挙動解析用効果音出力制御データの再設定を含む出力条件特定処理
 次に、図9を用いて本実施形態のデータ解析部213によって実行される挙動解析用効果音出力制御データの再設定を含む出力条件特定処理について説明する。なお、図9は、本実施形態のデータ解析部213によって実行される挙動解析用効果音出力制御データの再設定を含む出力条件特定処理について説明するための図である。
 データ解析部213は、挙動解析用基準データによって収集された挙動データに基づいて新たな挙動解析用効果音出力制御データを設定する場合と同様に、各車両1から挙動データを取得すると、それぞれの車両1における挙動安定度の指標値を算出する。そして、データ解析部213は、上記のように算出された各車両1の挙動安定度の指標値に基づいて、各グループの挙動安定度の指標値を算出し、各グループの挙動安定度の指標値に基づいて、複数のグループの中から最適な挙動安定度を示す指標値の特定グループを特定する。
 また、データ解析部213は、特定グループを特定すると、特定グループの挙動安定度を示す指標値、又は、繰り返し実行回数などの結果(以下、「繰り返し実行結果」という。)が予め定められた挙動安定化条件を具備しているか否かを判定する判定処理を実行する。このとき、データ解析部213は、繰り返し実行結果が予め定められた挙動安定化条件を具備している場合には、当該特定グループに設定された効果音の出力条件を最適化出力条件として特定する出力条件特定処理実行する。
 例えば、データ解析部213は、図9に示すように、挙動安定化条件として、最小のグループと他のグループとの指標値の差が予め定められた範囲内であると判定した場合に、当該指標値が最小のグループの出力条件を最適化出力条件として特定する。特に、本実施形態においては、データ解析部213は、判定処理として、最小のグループと他のグループとの指標値の差が、10%未満、又は、統計的検定において有意差が見られない範囲(いわゆる誤差の範囲)内などの場合に、予め定められた範囲内であると判定する。
 なお、図9には、効果音の出力タイミングが3秒後、2秒後又は4秒後の各グループA、B及びC場合において、「4秒後」のグループCが特定グループであることが示されている。特に、図9に、グループCの挙動安定度の指標値が予め定められた挙動安定化条件を具備したとして、当該グループCに設定されている効果音の出力条件が最適化出力条件として特定された場合の例が示されている。すなわち、図9の例においては、特定グループであるグループCの指標値が最小の指標値であって、当該指標値と、他のグループA及びB(出力タイミング「3秒後」及び「2秒後」)の指標値と、の差が所定の範囲内(例えば、10%未満)である。
 一方、データ解析部213は、特定グループの挙動安定度を示す指標値などの繰り返し実行結果が予め定められた挙動安定化条件を具備していない場合には、上記と同様に、特定グループに設定された効果音の出力条件を暫定的な最適化出力条件として決定する。また、データ解析部213は、上記と同様に、暫定的な最適化出力条件と、挙動解析用基準データを設定した際の出力条件と、に基づいて、新たに設定する挙動解析用効果音出力制御データの出力条件を新たに決定する。
 上記の例において、特定グループ(出力タイミングが「4秒後」)の指標値と他のグループ(出力タイミングが「3秒後」及び「2秒後」)の指標値との差が所定の範囲内でない場合には、データ解析部213は、特定グループの出力条件を暫定的な最適化出力条件として設定する。また、この場合には、データ解析部213は、「4秒後」の特定グループの出力条件を基準に、二分探索アルゴリズムなどの探索アルゴリズムに基づいて、2つのグループにおける出力条件を決定する。なお、この場合には、データ解析部213は、暫定的な最適化出力条件以外の出力条件として、挙動解析区間の開始からの効果音の出力タイミングが3.5秒後及び4.5秒後となる出力タイミングを決定する。
 データ解析部213は、上記と同様に、各グループの次のタイミングにおける効果音の出力条件を決定すると、当該決定した出力条件に基づいて挙動データを取得するための挙動解析用効果音出力制御データを設定する。また、この場合には、データ提供処理部214は、効果音出力制御処理として、新たに設定した挙動解析用効果音出力制御データを該当する車両1に提供する。
[B1.6]本実施形態の動作
[B1.6.1]管理サーバの動作
 次に、図10及び図11を用いて本実施形態の管理サーバ20によって実行される効果音最適化出力条件特定処理の動作について説明する。なお、図10及び図11は、本実施形態の管理サーバ20によって実行される効果音最適化出力条件特定処理の動作を示すフローチャートである。
 本動作においては、予めグループ化された1以上のドライバから構成される複数のグループが既に選定され、各グループに属する各ドライバIDがドライバデータ記憶部243にすでに記憶されているものとする。
 また、本動作においては、特定のドライバによって該当する車両1の運転が開始されているものとし、所定の区間の走行中に、聴覚刺激を行う場合に予め定められた効果音が情報処理システム10によって出力制御されるものとする。
 まず、データ解析部213は、特定のドライバの操作指示又はアプリからの指示など効果音最適化出力条件特定処理の実行指示を受信すると(ステップS101)、予め定められた各グループにおける挙動解析用基準データをそれぞれ設定する(ステップS102)。
 次いで、データ提供処理部214は、ドライバデータ記憶部243に記憶されているグループデータに基づいて、設定された各グループの挙動解析用基準データを、該当する車両1の情報処理システム10のそれぞれに送信する(ステップS103)。なお、データ提供処理部214は、ランダムに挙動解析用基準データを送信するグループを設定してもよいし、アプリなどによって予め定められた規則に沿って挙動解析用基準データを送信するグループを設定してもよい。
 次いで、データ取得部212は、各情報処理システム10から送信された挙動データの取得を開始する(ステップS104)。特に、データ取得部212は、情報処理システム10ごとに所定の区間の全ての挙動データを一度に受信してもよいし、収集した挙動データごとに受信してもよい。
 次いで、データ取得部104は、各グループに属する全ての情報処理システム10から所定の区間通過後における挙動データを受信したか否かを判定する(ステップS105)。このとき、データ取得部204は、各グループに属する全てのドライバから所定の区間通過後における挙動データを受信したと判定した場合には、ステップS107の処理に移行し、当該全てのドライバから挙動データを受信していないと判定した場合には、所定の時間の待機をし(ステップS106)再度ステップS105の処理を実行する。
 次いで、データ解析部213は、取得した挙動データに基づいて、グループごとにそれぞれの車両1における挙動安定度を示す指標値を算出しつつ、複数のグループの中から最適な挙動安定度を示す指標値のグループを特定グループとして特定する(ステップS107)。
 次いで、データ解析部213は、特定グループに設定された効果音の出力条件を暫定的な効果音の最適化出力条件として決定し、当該決定した暫定的な効果音の最適化出力条件に基づいて次の挙動安定度を解析するための効果音の出力条件を決定する(ステップS108)。
 次いで、データ解析部213は、暫定的な効果音の最適化出力条件を含むステップS108の処理において決定した各出力条件に基づいて、各グループの新たな挙動解析用効果音出力制御データをそれぞれ設定する(ステップS109)。
 次いで、データ提供処理部214は、ドライバデータ記憶部243に記憶されているグループデータに基づいて、設定された各グループの挙動解析用効果音出力制御データを、該当する車両1の情報処理システム10のそれぞれに送信する(ステップS110)。なお、ステップS103と同様に、データ提供処理部214は、ランダムに挙動解析用効果音出力制御データを送信するグループを設定してもよいし、アプリなどによって予め定められた規則に沿って挙動解析用効果音出力制御データを送信するグループを設定してもよい。
 次いで、データ取得部212は、ステップS104と同様に、各情報処理システム10から送信された挙動データの取得を開始する(ステップS111)。
 次いで、データ取得部104は、ステップS105の処理にと同様に、各グループに属する全てのドライバから所定の区間通過後における挙動データを受信したか否かを判定する(ステップS112)。このとき、データ取得部204は、各グループに属する全てのドライバから所定の区間通過後における挙動データを受信したと判定した場合には、ステップS114の処理に移行し、当該挙動データを受信していないと判定した場合には、所定の時間の待機をした後に(ステップS113)再度ステップS112の処理を実行する。
 次いで、データ解析部213は、ステップS107と同様に、取得した挙動データに基づいて、グループごとにそれぞれの車両1における挙動安定度の指標値を算出しつつ、複数のグループの中から特定グループを特定する(ステップS114)。
 次いで、データ解析部213は、特定グループの挙動安定度を示す指標値が予め定められた挙動安定化条件を具備しているか否かを判定する(ステップS115)。このとき、データ解析部213は、特定グループの挙動安定度を示す指標値が挙動安定化条件を具備していると判定した場合には、ステップS116の処理に移行し、指標値が挙動安定化条件を具備していないと判定した場合にはステップS108の処理に移行する。
 次いで、データ解析部213は、特定グループに設定された効果音の出力条件を最適化出力条件として特定する出力条件特定処理実行し(ステップS116)、本動作を終了させる。
 なお、データ提供処理部214は、所定のドライバの聴覚刺激に基づく運転支援を行う際に、該当する情報処理システム10に、ステップS116の処理によって特定した最適化出力条件に基づく効果音の出力製制御を行うための最適化効果音出力制御データを送信する。
 また、所定のドライバの情報処理システム10は、管理サーバ20から送信された最適化効果音出力制御データを受信すると、適用区間の走行中に、受信した最適化効果音出力制御データに基づいて効果音データを再生し、所定の効果音を車両1内に出力する。
[B1.6.2]情報処理システムの動作
 次に、図12を用いて本実施形態の情報処理システム10によって実行される効果音最適化出力条件特定処理に関する車両1側の動作について説明する。なお、図12は、本実施形態の情報処理システム10によって実行される効果音最適化出力条件特定処理に関する車両1側の動作を示すフローチャートである。
 本動作においては、特定のドライバによって該当する車両1の運転が開始されているものとし、所定の区間の走行中に、聴覚刺激を行う場合に予め定められた効果音が情報処理システム10によって出力制御されるものとする。
 まず、出力制御部114は、管理サーバ20から送信された挙動解析用基準データを含む挙動解析用効果音出力制御データを受信すると(ステップS201)、記憶部140に記憶して効果音の出力制御の実行を待機する(ステップS202)。
 次いで、出力制御部114は、挙動解析区間の開始地点又は開始タイミングを検出すると(ステップS203)、記憶部140に記憶されている挙動解析用効果音出力制御データに基づいて、所定の効果音データの再生を開始する(ステップS204)。なお、出力制御部114は、効果音データの再生を開始すると、効果音データの再生中、出力条件に応じて音出力装置19から効果音を出力させる。
 次いで、データ処理部113は、車体挙動計測装置11によって挙動データの検出開始を指示し、当該挙動データの収集を開始する(ステップS205)。なお、車体挙動計測装置11は、挙動データの検出開始を指示されると、挙動データの収集の停止が指示されるまで、予め定められたタイミングごとに挙動データを検出し、検出した挙動データをデータ処理部113に出力する。
 次いで、出力制御部114は、効果音データの再生中、挙動解析区間の終了地点又は終了タイミングを検出すると(ステップS206)、挙動解析用効果音出力制御データに基づく効果音データの再生を停止する(ステップS207)。
 次いで、データ処理部113は、車体挙動計測装置11によって挙動データの検出の終了を指示し、当該挙動データの収集を停止し(ステップS208)、通信制御部111の制御の下、通信部170を介して収集した挙動データを管理サーバ20に送信して(ステップS209)本動作を終了させる。
[B1.7]
[B1.7.1]変形例1:効果音最適化出力条件特定処理の一部又は全部の実施
 次に、本実施形態の変形例であって、効果音最適化出力条件特定処理に関する処理の一部又は全部の実施する場合の例について説明する。
 本実施形態において、管理サーバ20によって実行される効果音最適化出力条件特定処理に関する各処理の一部又は全部が、車両1に搭載される情報処理システム10によって実行されてもよい。具体的には、情報処理システム10は、挙動解析用基準データを含む挙動解析用効果音出力制御データを設定する処理、挙動データ取得処理、効果音出力制御処理及び出力条件特定処理のうち、一部又は全部の処理を実行する構成を有していてもよい。
 特に、情報処理システム10は、他の情報処理システム10から挙動データを取得する場合、又は、挙動解析用効果音出力制御データを他の情報処理システム10に提供する場合には、管理サーバ20を介して他の情報処理システム10とデータ送受信を実行する。ただし、情報処理システム10は、他の情報処理システム10とネットワークを介して直接的に通信回線を接続し、直接データの送受信を実行してもよい。
 また、効果音出力制御処理が情報処理システム10において実行される場合には、情報処理システム10に含まれる情報処理装置100は、効果音出力制御処理として、挙動解析用効果音出力制御データに基づいて音出力装置19を直接制御する処理を実行する。
[B1.7.2]変形例2:ドライバ特性に基づく効果音最適化出力条件特定処理
 次に、本実施形態の変形例であって、ドライバ特性に基づく効果音最適化出力条件特定処理について説明する。
(ドライバ特性に基づく効果音最適化出力条件特定処理の概要)
 本実施形態の管理サーバ20は、所定のドライバ特性について、効果音最適化出力条件特定処理を実行してもよい。すなわち、管理サーバ20は、各情報処理システム10又はドライバデータ記憶部243から、特定のドライバ特性の情報(以下、「ドライバ特性情報」という。)を取得する情報取得処理を実行する。そして、管理サーバ20は、効果音の出力条件特定処理として、特定のドライバ特性について、暫定的な最適化出力条件、及び、最終的な最適化出力条件を特定してもよい。
 特に、ドライバ特性とは、車両1を運転するときのドライバの意図する運転特性、又は、当該ドライバの運転時に用いる能力に関する特性(以下、「能力特性」という。)を示す。また、たとえば、運転特性には、ドライバによるアクセル、ブレーキ、又は、操舵などにより実現される運転の特性が含まれ、能力特性には、音に対する反応速度の差、及び、運転に対する学習能力の差などが含まれる。
 このような構成により、本変形例では、初心者と熟練のドライバの運転の熟練度合い、又は、効果音に対する反応速度差若しくは効果音に応じた運転技能に対する学習能力差などの個人能力差に応じて、最適な出力条件を自動的に特定することができる。
 なお、本変形例においては、出力条件特定処理を実行する前にドライバ特性情報が取得され、当該ドライバ特性情報に基づいて、事前に、挙動データの収集を実行するドライバ特性(車両1)に応じたグループの選定が実行されていることが好ましい。ただし、上記の実施形態のように、予めグループ分けをしておき、ドライバ特性に対応付けて挙動データが取得され、各グループにおける該当するドライバ特性の挙動データのみを用いて効果音の最適化出力条件が特定されてもよい。
 また、所定のドライバ特性としては、アプリなどによって予め特定された特性であってもよく、2以上の特性から構成されるものであってもよい。所定のドライバ特性としては、効果音の最適化出力条件を提供するドライバの特性であってもよいし、当該ドライバの選択によって定まる特性であってもよい。
(ドライバ特性情報の情報取得処理)
 データ取得部212は、車両1の情報処理システム10からドライバに対するアンケートの回答、効果音に基づくテスト、又は、車両1の運転操作の履歴などによって決定された運転の熟練度合い、又は、効果音に対する反応速度若しくは効果音に応じた運転技能に対する学習能力のレベルを、ドライバ特性情報として、取得する情報取得処理を実行する。
 なお、データ取得部212は、ドライバデータ記憶部243から、予め記憶されている各ドライバの運転の熟練度合い、又は、効果音に対する反応速度若しくは効果音に応じた運転技能に対する学習能力を、ドライバ特性情報として、取得してもよい。
 また、データ取得部212おいて、情報処理システム10からドライバに対するアンケートの回答、効果音に基づくテストの結果、又は、運転操作の履歴を取得して、当該取得した回答などに基づいてドライバ特性を特定することも、ドライバ特性の取得に含まれる。
 例えば、データ取得部212は、情報処理システム10から提示される質問に対してドライバ等が回答するアンケートの回答に基づいて、各ドライバのドライバ特性を特定する。また、データ取得部212は、運転免許取得後の経過年数、過去1年間での運転頻度、運転時間又は走行距離、最後に運転してからの経過日数に基づいてドライバの運転操作技能のレベルを判定してもよい。さらに、データ取得部212は、ドライバの運転操作の履歴を参照し、加速度又は加加速度の累積値、閾値を超えた回数、修正操作を行った回数等の挙動の安定度に基づいて当該ドライバの運転操作技能のレベルを特定してもよい。
(ドライバ特性に基づく出力条件特定処理)
 データ解析部213は、効果音最適化出力条件特定処理の実行指示とともに、入力された操作指示などに基づいて、効果音の最適化出力条件を特定するドライバ特性の種別を決定する。データ解析部213は、決定したドライバ特性に基づいて、複数のドライバをグループ分けし、ドライバ特性が共通で、効果音の出力条件の異なる挙動データを取得するためのグループを選定する。また、データ解析部213は、グループごとに、挙動解析用基準データ及び挙動解析用効果音出力制御データの設定処理、並びに、これらに基づく効果音出力制御処理を実行しつつ、決定したドライバ特性に対応した暫定的な効果音の出力条件を特定する出力条件特定処理を実行する。そして、データ解析部213は、特定グループの挙動安定度などの繰り返し実行結果が挙動安定化条件を具備した場合に、当該繰り返し実行結果に対応する出力条件を効果音の最適化出力条件として特定する。
 なお、データ取得部212は、上記の実施形態と同様に、挙動解析用基準データを含む挙動解析用効果音出力制御データに基づいて収集された各挙動データを取得する。
[B1.7.3]変形例3:走行環境に基づく効果音最適化出力条件特定処理
 次に、本実施形態の変形例であって、車両1の走行環境に基づく効果音最適化出力条件特定処理について説明する。
(車両の走行環境に基づく効果音最適化出力条件特定処理の概要)
 本実施形態の管理サーバ20は、所定の走行環境について、効果音最適化出力条件特定処理を実行してもよい。すなわち、管理サーバ20は、各情報処理システム10から、走行環境の情報(以下、「走行環境情報」という。)を取得する情報取得処理を実行し、効果音最適化出力条件特定処理として、所定の走行環境について最適化出力条件を特定してもよい。
 特に、走行環境とは、歩行者や自転車が多い環境、対向車や障害物の有無、交通量が多い環境又は事故の危険度が高い環境など交通環境、通学時間帯の通学路、道路形状又は道路幅の広狭などの道路環境、及び、天候(晴天、降雨及び降雪)を示す。
 このような構成により、本変形例の管理サーバ20は、走行環境に応じて車両の挙動を安定化することが可能な効果音の出力条件を自動的に特定することができる。
 なお、本変形例においては、ドライバの指示又はアプリの指示に従って、効果音の最適化出力条件を特定する走行環境が予め定められていることが好ましい。このため、本変形例においては、本実施形態に同様に、予め各グループに選定されたドライバの中から、設定された走行環境と同一の走行環境によって走行したドライバの挙動データを抽出し、当該抽出した挙動データに基づいて、効果音の最適化出力条件を特定することが好ましい。
 また、所定の走行環境としては、2以上の走行環境から構成されるものであってもよい。所定の走行環境としては、効果音の最適化出力条件を提供するドライバによってこれから走行される可能性の高い走行環境であってもよいし、当該ドライバの選択によって定まる走行環境であってもよい。
(走行環境情報の情報取得処理及び挙動データのデータ取得処理)
 データ取得部212は、車両1の情報処理システム10から、挙動データとともに、走行環境情報を取得し、グループごとに、取得した挙動データを予め定められた走行環境の種別によってラベリングする。
 具体的には、データ取得部212は、道路幅などの車両1の周囲の状況を示す周囲状況情報、又は、降雨の有無、降雨量若しくは風の状況などの天候情報(天候状況情報若しくは天候受信情報)を走行環境情報として取得する。また、データ取得部212は、車両1の情報処理システム10から歩行者や自転車が多いエリア若しくは交通量が多いエリアなど地図を参照し、現在位置が歩行者や自転車が多いエリアなどの現在の走行中のエリアの環境を示す情報を含む位置情報を取得する。
 また、データ取得部212は、グループごとに、取得した挙動データをラベリングすると、グループごとに、ラベリングした各種の走行環境の種別を付してデータ解析部213に出力する。なお、データ取得部212は、情報処理システム10からすでに走行環境がラベリングされた挙動データを取得してもよい。この場合には、情報処理システム10の情報処理装置100は、予め定められた走行環境の種別に応じて、収集している挙動データを予め定められた走行環境の種別によってラベリングする。
 さらに、データ取得部212は、情報処理システム10から、予め走行環境の種別がラベリングされた挙動データを取得してもよい。この場合には、情報処理システム10は、挙動データの収集時に走行環境の種別のラベリングを実行する。また、この場合には、各挙動データは、ラベリングされた走行環境の種別を示す走行環境種別情報を有している。
(走行環境に基づく効果音最適化出力条件特定処理)
 データ解析部213は、特定処理の実行指示とともに、入力された操作指示などに基づいて、効果音の最適化出力条件を特定する走行環境の種別を決定する。データ解析部213は、第1実施形態と同様に、データ取得部212と連動し、選定したグループごとに、挙動解析用基準データ、及び、挙動解析用効果音出力制御データの設定処理、並びに、これらに基づく効果音出力制御処理を実行する。特に、データ解析部213は、決定された走行環境にラベリングされた挙動データに基づいて、挙動解析用効果音出力制御データの設定処理、及び、これらに基づく効果音出力制御処理を実行する。
 また、データ解析部213は、データ取得部212における挙動データ取得処理とともに、挙動解析用効果音出力制御データの設定処理及びこれらに基づく効果音出力制御処理を繰り返し、決定された走行環境に対応する効果音の暫定的な出力条件を特定する特定処理を実行する。そして、データ解析部213は、特定グループの挙動安定度などの繰り返し実行結果が挙動安定化条件を具備した場合に、当該繰り返し実行結果に対応する出力条件を効果音の最適化出力条件として特定する。
[B1.7.4]変形例4:効果音最適化出力条件特定処理の再開
 次に、本実施形態の変形例であって、効果音最適化出力条件特定処理の再開について説明する。
(より良い挙動安定度が得られた場合)
 本実施形態の管理サーバ20は、最適化効果音出力制御データに基づく効果音の出力制御を実行している際に、当該出力条件によって得られる挙動安定度より、挙動の安定性が高い挙動安定度が高い検出された場合に、出力条件特定処理を再開してもよい。
 すなわち、管理サーバ20は、効果音最適化出力条件特定処理によって、繰り返し実行された挙動データ取得処理などの処理結果(すなわち、特定グループの効果音の出力条件)が予め設定された挙動安定化条件を具備した場合に、挙動データ取得処理などを停止する。また、管理サーバ20は、挙動データ取得処理などを停止した際に特定された最適な出力条件(すなわち、効果音最適化出力条件)に効果音の出力条件を固定してドライバの聴覚を刺激するための制御を出力条件固定制御処理として実行する。そして、管理サーバ20は、出力条件固定制御処理に基づいて挙動データを取得し、かつ、当該取得した挙動データによって得られた挙動安定度が、所与の第1特別出力条件を具備した場合に、効果音最適化出力条件特定処理を再開する。
 具体的には、データ解析部213は、効果音最適化出力条件を特定すると、出力条件固定制御処理として、最適化出力条件に基づく効果音出力制御データ(最適化効果音出力制御データ)を対象の車両1の情報処理システム10に提供する。
 また、データ取得部212は、図示しないデータベースなどから最新の車両1の挙動安定度を取得してドライバデータ記憶部243に記憶する。そして、データ解析部213は、情報処理システム10から取得した効果音最適化出力条件に基づく挙動データから車両1の挙動安定度を示す指標値を算出し、算出した指標値と取得した最新の挙動安定度とを比較する。そして、データ解析部213は、最新の挙動安定度が算出した指標値よりも挙動の安定性が高い値であると第1特別出力条件を具備した場合に、効果音最適化出力条件特定処理を再開する。
 例えば、最新の車両1の挙動安定度としては、最新のタイミングなど、比較対象の指標値を算出したタイミングとは異なるタイミングで実行された効果音最適化出力条件特定処理によって得られたものを用いる。また、例えば、最新の車両1の挙動安定度としては、比較対象の指標値を算出した車両や車両を振り分けたグループとは異なる車両やグループで実行された効果音最適化出力条件特定処理によって得られたものを用いてもよい。
 なお、効果音最適化出力条件特定処理が再開されると、挙動データ取得処理及び挙動解析用効果音出力制御データの再設定を含む出力条件特定処理が繰り返し実行される。特に、この場合における挙動データ取得処理及び挙動解析用効果音出力制御データの再設定を含む出力条件特定処理は、上記の実施形態と同様であるため、その説明を省略する。ただし、この場合において、再開前の挙動安定化条件とは異なる条件を用いることが好ましい。
 また、本変形例においては、上記とは異なり、アプリからの指示に基づいて、又は、ドライバなどの操作指示に基づいて効果音最適化出力条件特定処理が再開されてもよい。例えば、この場合には、データ解析部213は、記憶されている最適化出力条件の記憶日時から予め定められた期間が経過したとき、ドライバ特性が変わったとき、又は、走行環境が変わったときなどに効果音最適化出力条件特定処理を再開する。
(効果音最適化出力条件に基づく挙動安定度が低下した場合)
 本実施形態の管理サーバ20は、最適化効果音出力制御データに基づく効果音の出力制御を実行している際に、効果音最適化出力条件に基づく挙動安定度の低下が検出された場合に、出力条件特定処理を再開してもよい。
 特に、管理サーバ20は、出力条件固定制御処理に基づいて収集された挙動データによって得られた挙動安定度が、所与の第2特別出力条件を具備した場合に、当該効果音最適化出力条件に基づく挙動安定度が低下したとして効果音最適化出力条件特定処理を再開する。
 具体的には、データ解析部213は、上述の変形例と同様に、効果音最適化出力条件特定処理を再開すると、出力条件固定制御処理として、最適化出力条件に基づく効果音出力制御データ(最適化効果音出力制御データ)を対象の車両1の情報処理システム10に提供する。
 また、データ取得部212は、効果音最適化出力条件に基づく挙動安定度をドライバデータ記憶部243に記憶する。そして、データ解析部213は、情報処理システム10から取得した挙動データに基づいて、車両1の挙動安定度を示す指標値を算出し、算出した指標値と記憶されている挙動安定度とを比較する。そして、データ解析部213は、算出した指標値が記憶されている挙動安定度よりも挙動の安定性が低い値であると第2特別出力条件を具備した場合に、出力条件特定処理を再開する。
 なお、効果音最適化出力条件特定処理が再開されると、挙動データ取得処理及び挙動解析用効果音出力制御データの再設定を含む出力条件特定処理が繰り返し実行される。特に、この場合における挙動データ取得処理及び挙動解析用効果音出力制御データの再設定を含む出力条件特定処理は、上記の実施形態と同様であるため、その説明を省略する。ただし、この場合において、再開前の挙動安定化条件とは異なる条件を用いることが好ましい。
[B1.7.5]その他変形例
 本実施形態においては、効果音の最適化出力条件については、特定のドライバに提供しているが、他のドライバも含めて複数のドライバにおいて共有してもよい。
 本実施形態においては、出力条件特定処理において繰り返し実行結果として、特定グループの挙動安定度を示す指標値を用いているが、出力条件特定処理の回数であってもよい。
 また、本実施形態においては、挙動データ取得処理などを繰り返し実行することによって、挙動安定度が特定の値に収束することをもって安定化条件を具備するとし、そのときの出力条件が最適化出力条件として特定されてもよい。この場合には、特定の出力条件に収束するだけでなく、その際に特定される特定グループが複数回入れ替わることが検出された場合に、当該収束されたことを検出してもよい。
[B2]第2実施形態
[B2.1]運転支援用ネットワークシステム
 次に、図13を用いて本実施形態の運転支援用ネットワークシステムS及び本実施形態の効果音最適化出力条件特定処理の概要について説明する。なお、図13は、本実施形態の効果音最適化出力条件特定処理について説明するための図である。
 本実施形態の運転支援用ネットワークシステムSは、特定のドライバの挙動データのみによって効果音の最適化出力条件を特定する最適化条件特定処理を実行する点に特徴がある。すなわち、本実施形態の運転支援用ネットワークシステムSは、第1実施形態の複数のドライバの挙動データに基づいて効果音の最適化出力条件を特定する点に代えて、ドライバ個人の挙動データのみに基づいて効果音の最適化出力条件を特定するシステムである。なお、本実施形態の管理サーバ20は、このような特徴点に係る処理を実行する構成を有している。
 特に、本実施形態の管理サーバ20は、図13に示すように、1の特定の車両1において、挙動解析用基準データを含む挙動解析用効果音出力制御データの種別(すなわち、データ種別)ごとに基づいて収集された各挙動データを取得する挙動データ取得処理を実行する。例えば、管理サーバ20は、図13に示すように、所定の区間の通過後に、挙動データ取得処理を実行する。また、管理サーバ20は、図13に示すように、各挙動データを取得すると、取得した各データ種別の挙動データに基づいてデータ種別ごとに出力条件が異なる新規な挙動解析用効果音出力制御データを設定する。そして、管理サーバ20は、図13に示すように、効果音出力制御処理として、さらに設定された挙動解析用効果音出力制御データを特定の車両1の情報処理システム10に提供し、かつ、各挙動データを取得する挙動データ取得処理を実行し、繰り返しこれらの処理を繰り返す。
 さらに、管理サーバ20は、図13に示すように、出力条件特定処理としては、挙動データから得られる各データ種別の挙動安定度を比較して効果音の暫定的な最適な出力条件を特定し、当該出力条件が設定されたデータ種別を特定する。そして、管理サーバ20は、図13に示すように、特定のデータ種別の効果音の出力条件が予め定められた挙動安定化条件を具備するか否かを判定する判定処理を実行する。このとき、管理サーバ20は、判定処理において特定のデータ種別の暫定的な最適な出力条件が挙動安定化条件を具備した場合に、当該出力条件を効果音最適化出力条件として特定する。
 管理サーバ20は、第1実施形態と同様に、効果音の出力条件及びデータ種別を変更しながら繰り返し効果音出力制御処理及びそれに基づく挙動データ取得処理を実行しつつ、出力条件特定処理を実行し、最終的に効果音最適出力条件を特定する構成を有している。
 なお、各情報処理システム10は、図13に示すように、挙動解析区間の通過後に、挙動解析区間の走行中に再生した効果音に基づく車両の挙動を示す挙動データを収集して管理サーバ20に提供する。
 また、管理サーバ20は、上述のように効果音最適化出力条件が特定されると、図13に示すように、最適化効果音出力制御データを情報処理システム10に提供する。そして、情報処理システム10は、図13に示すように、適用区間において、最適化効果音出力制御データに基づいて効果音データを再生し、所定の効果音を車両1内に出力する。
 この構成により、本実施形態の管理サーバ20又はそれを含む運転支援用ネットワークシステムSは、第1実施形態と同様に、挙動安定度が高くなる効果音の最適な出力タイミング、音の種類、または、音色などのドライバの最適な出力条件を自動的に特定することができる。
 そして、本実施形態の運転支援システムは、自動的に特定した効果音の出力条件を単にドライバに提供すれば、挙動安定度が高くなるように、当該ドライバの聴覚を的確に刺激することができる。
 なお、本実施形態の運転支援用ネットワークシステムSは、上記の特徴点以外の構成においては、第1実施形態と同様な構成を有しているため、同一の部材については同一の符号を付してその説明を省略する。また、以下の項目については、主に、第1実施形態と相違する相違点について説明する。特に、本実施形態の情報処理システム10においては、複数の異なる挙動解析用効果音出力制御データを用いる以外については、第1実施形態と同様な構成及び動作であるため、その説明を省略する。
[B2.2]データ取得処理及び効果音出力制御処理
 次に、本実施形態の管理サーバ20によって実行される処理であって、挙動解析用効果音出力制御データの設定を含むデータ取得処理及び効果音出力制御処理について説明する。
(データ取得処理及び効果音出力制御処理)
 本実施形態の管理サーバ20は、第1実施形態と異なり、ドライバ個人に対して、挙動解析用効果音出力制御データの設定を含むデータ取得処理及び効果音出力制御処理を繰り返し実行し、効果音の暫定的な出力条件を特定する出力条件特定処理を実行する。
 具体的には、データ解析部213は、第1実施形態と同様に、予め定められた効果音の出力条件が規定されたデータであって、各出力条件が異なる複数の挙動解析用効果音出力制御データを挙動解析用基準データとして設定する。
 その一方、データ提供処理部214は、出力条件が異なる挙動解析用基準データを、それぞれ、同一のドライバが運転する車両1に搭載された情報処理システム10に提供する。そして、データ取得部212は、それぞれの挙動解析用基準データに基づいて収集された挙動データをデータ取得処理として取得する。
 また、データ解析部213は、各挙動データに基づく挙動安定度の指標値を算出し、挙動解析用基準データの種別ごとに算出された指標値に基づいて、新たな出力条件を有する挙動解析用効果音出力制御データを設定する。
 そして、データ提供処理部214は、効果音出力制御処理として、新たな出力条件のデータを含む挙動解析用効果音出力制御データを同一のドライバの情報処理システム10に提供する。すなわち、データ提供処理部214は、挙動解析用効果音出力制御データを情報処理システム10に提供することによって、当該情報処理システム10に、各挙動解析用効果音出力制御データに基づいて効果音の出力を制御させる。
 なお、第1実施形態と同様に、暫定的な最適化出力条件を有する挙動解析用効果音出力制御データについては変更がないため、データ提供処理部214は、既に提供された挙動解析用効果音出力制御データに従って効果音の出力を制御させてもよい。
 また、第1実施形態と同様に、暫定的な最適化出力条件を有する挙動解析用効果音出力制御データについて変更しない場合には、データ提供処理部214は、情報処理システム10に既に提供された挙動解析用効果音出力制御データに従って効果音の出力を制御させてもよい。
(情報処理システムにおける処理)
 情報処理システム10は、挙動解析用基準データを含む、出力条件が異なる複数の挙動解析用効果音出力制御データに基づいて挙動データを収集する場合には、収集するタイミングを変えて、挙動解析用効果音出力制御データに基づく効果音の出力制御を実行する。また、情報処理システム10は、挙動データを収集する際には、利用した挙動解析用効果音出力制御データの識別上などのID、又は、名称が付された状態で挙動データに取得する。
(挙動データのデータ数が不足の場合)
 データ解析部213は、データ取得処理によって取得された挙動データの数が不足している場合には、情報処理システム10に、挙動データを追加取得するための処理の実行制御をしてもよい。
 特に、ドライバ個人から、効果音を異なる複数の出力制御条件に基づく挙動データを取得する場合には、複数のドライバから取得する場合に比べて短時間で十分な数のデータ数を確保することが難しい。このため、挙動データの数が不足すると、ドライバが車両1の挙動を安定させるための効果音の最適化出力条件を的確に特定することができなくなる場合も多く、その結果、効果音を用いて運転支援を行ったとしても、車両1の挙動を十分に安定させることができなくなる。
 そこで、本実施形態のデータ解析部213は、効果音の暫定的な出力条件を特定する際に、挙動データのデータ数が不足している場合には、挙動データを追加取得するための処理を実行してもよい。
 具体的には、データ解析部213は、挙動解析用効果音出力制御データを設定する場合に、挙動解析用基準データの種別ごとの挙動データのデータ数を検出する。また、データ解析部213は、動解析用基準データの種別ごとに、挙動データのデータ数について所定の数値条件を具備しているか否かを判定する。例えば、データ解析部213は、挙動解析用基準データの種別ごとの挙動データのデータ数が一定数以上であるか否かを判定する。
 このとき、データ解析部213は、少なくとも何れかの挙動解析用効果音出力制御データの種別において、挙動データの数が数値条件を具備していないと判定した場合には、情報処理システム10に該当する挙動解析用効果音出力制御データの種別の挙動データの追加収集を指示する。また、データ解析部213は、上記の数値条件を具備した挙動解析用効果音出力制御データの種別については、上記のように、追加招集することなく、挙動解析用効果音出力制御データの設定を実行する。
 なお、情報処理システム10は、挙動データの追加収集が指示された場合には、該当する挙動解析用効果音出力制御データの種別に対して挙動データの追加収集を実行する。
 一方、データ解析部213は、少なくともいずれかの挙動解析用効果音出力制御データの種別において、挙動データのデータ数が上記の数値条件を具備していないと判定した場合には、既に取得された挙動データから得られる挙動安定度を補正する処理を実行してもよい。
 この場合には、各挙動データが走行環境の種別に基づくラベリングがされていれば、データ解析部213は、データ数が少ない挙動解析用効果音出力制御データの種別に対しては、ラベリングに応じて各挙動データ又は当該各挙動データから得られた挙動安定度を補正することができる。
 例えば、データ解析部213は、降雨中の車両1の挙動が晴天時の車両の挙動よりも挙動安定度が低い場合が多いので、晴天時の挙動データよりも挙動安定度の値を高い方に補正する。
[B2.3]本実施形態の動作(管理サーバの動作)
 次に、図14及び図15を用いて本実施形態の管理サーバ20によって実行される効果音最適化出力条件特定処理の動作について説明する。なお、図14及び図15は、本実施形態の管理サーバ20によって実行される効果音最適化出力条件特定処理の動作を示すフローチャートである。
 本動作においては、1のドライバ(すなわち、特定のドライバ)及び当該ドライバが運転する車両1に搭載された情報処理システム10に対してのみ実行される動作である。また、本動作においては、特定のドライバによって該当する車両1の運転が開始されているものとし、その所定の区間の走行中に、聴覚刺激を行う場合に予め定められた効果音が情報処理システム10によって出力制御されるものとする。
 まず、データ解析部213は、特定のドライバの操作指示又はアプリからの指示など効果音最適化出力条件特定処理の指示を受信すると(ステップS301)、当該特定のドライバに提供する所定数の挙動解析用基準データをそれぞれ設定する(ステップS302)。
 次いで、データ提供処理部214は、設定された各挙動解析用基準データを、特定のドライバが運転する車両1の情報処理システム10に送信する(ステップS303)。なお、データ提供処理部214は、他のドライバが運転する車両1の情報処理システム10に挙動解析用基準データを送信してもよいし、アプリなどによって予め定められた規則に沿って挙動解析用基準データを送信する情報処理システム10を設定してもよい。
 次いで、データ取得部212は、情報処理システム10から送信された挙動データの取得を開始する(ステップS304)。特に、データ取得部212は、挙動解析用基準データごとに、所定の区間の全ての挙動データ群を一度に受信してもよいし、各挙動データをそれぞれ受信してもよい。
 次いで、データ取得部104は、各挙動解析用基準データのそれぞれに基づく所定の区間通過後における全ての挙動データを受信したか否かを判定する(ステップS305)。このとき、データ取得部204は、各挙動解析用基準データのそれぞれに基づく所定の区間通過後における全ての挙動データを受信したと判定した場合には、ステップS307の処理に移行する。また、データ取得部204は、全ての挙動データを受信していないと判定した場合には、所定の時間待機をし(ステップS306)再度ステップS305の処理を実行する。
 次いで、データ取得部104は、挙動解析用基準データごとに、取得した挙動データのデータ数が必要なデータ数であるか否かを判断する(ステップS307)。このとき、データ取得部104は、挙動データのデータ数が必要なデータ数以上であると判定した場合には、ステップS308の処理に移行し、挙動データのデータ数が必要なデータ数以下であると判定した場合には、ステップS304の処理に移行する。
 なお、データ取得部104は、単に挙動データの取得した数が必要なデータ数以上であるか否かを判断してもよい。また、データ取得部104は、走行環境のラベリングの情報(すなわち、ラベリング情報)又はドライバ特性情報に基づいて安定度の解析に用いることが可能な有効な挙動データを選別し、選別した有効の挙動データのデータ数が必要なデータ数以上であるか否かを判断してもよい。特に、データ取得部104は、降雨時における挙動データ、又は、歩行者若しくは自転車が多い環境の挙動データなどの特殊環境下の挙動データを無効な挙動データとして選別する。
 次いで、データ解析部213は、取得した挙動データに基づいて、挙動解析用基準データの種別(すなわち、データ種別)ごとに車両1の挙動安定度を示す指標値を算出し、複数のデータ種別の中から最適な挙動安定度の指標値を有するデータ種別を特定する(ステップS308)。
 次いで、データ解析部213は、特定の基準データに設定された効果音の出力条件を暫定的な効果音の最適化出力条件として決定し、当該決定した暫定的な効果音の最適化出力条件に基づいて次の挙動安定度を解析するための効果音の出力条件を決定する(ステップS309)。なお、データ解析部213は、上記の所定数から「1」少ない出力条件を決定する。具体的には、データ解析部213は、暫定的な効果音の最適化出力条件を除き、複数の効果音の出力条件を決定する。
 次いで、データ解析部213は、暫定的な効果音の最適化出力条件を含むステップS308の処理において決定した各出力条件に基づいて、上記の所定数から「1」少ない新たな挙動解析用効果音出力制御データをそれぞれ設定する(ステップS310)。
 次いで、データ提供処理部214は、設定された挙動解析用効果音出力制御データを、該当する車両1の情報処理システム10のそれぞれに送信する(ステップS311)。
 次いで、データ取得部212は、ステップS304と同様に、各情報処理システム10から送信された挙動データの取得を開始する(ステップS312)。
 次いで、データ取得部104は、ステップS305の処理と同様に、各挙動解析用基準データのそれぞれに基づく所定の区間通過後における全ての挙動データを受信したか否かを判定する(ステップS313)。このとき、データ取得部204は、各挙動解析用効果音出力制御データのそれぞれに基づく所定の区間通過後における全ての挙動データを受信したと判定した場合には、ステップS314の処理に移行する。また、データ取得部204は、当該全ての挙動データを受信していないと判定した場合には、予め定められた時間の経過後に(ステップS314)再度ステップS312の処理を実行する。
 次いで、データ取得部104は、挙動解析用基準データごとに、取得した挙動データのデータ数が必要なデータ数であるか否かを判断する(ステップS315)。このとき、データ取得部104は、挙動データのデータ数が必要なデータ数以上であると判定した場合には、ステップS316の処理に移行し、挙動データのデータ数が必要なデータ数以下であると判定した場合には、ステップS302の処理に移行する。
 次いで、データ解析部213は、ステップS308と同様に、取得した挙動データに基づいて、データ種別ごとに車両1における挙動安定度を示す指標値を算出して特定のデータ種別を特定する(ステップS316)。
 次いで、データ解析部213は、特定のデータ種別の挙動安定度を示す指標値が予め定められた挙動安定化条件を具備しているか否かを判定する(ステップS317)。このとき、データ解析部213は、特定のデータ種別の挙動安定度の指標値が挙動安定化条件を具備していると判定した場合には、ステップS318の処理に移行する。また、データ解析部213は、当該指標値が挙動安定化条件を具備していないと判定した場合にはステップS309の処理に移行する。
 次いで、データ解析部213は、特定の挙動解析用効果音出力制御データに設定された効果音の出力条件を最適化出力条件として特定し(ステップS318)、本動作を終了させる。
 なお、データ提供処理部214は、所定のドライバの聴覚刺激に基づく運転支援を行う際に、該当する情報処理システム10に、ステップS318の処理によって特定した最適化出力条件に基づく効果音の出力製制御を行うための最適化効果音出力制御データを送信する。
 また、所定のドライバの情報処理システム10は、管理サーバ20から送信された最適化効果音出力制御データを受信すると、適用区間の走行中に、受信した最適化効果音出力制御データに基づいて効果音データを再生し、所定の効果音を車両1内に出力する。
[B2.4]変形例
 本実施系形態においては、第1実施形態と同様に、各種の変形例に適用することができる。したがって、各変形例についてはその説明を省略する。
[C]その他
 本開示の実施形態は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
 本開示の実施形態は、上記の実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本開示の実施形態は、上記の実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本開示の実施形態は、上記の実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本開示の実施形態は、上記の実施形態で説明した構成に公知技術を付加した構成を含む。
 上記のように、本開示の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本開示の実施形態の範囲に含まれるものとする。
S    :運転支援用ネットワークシステム
1    :車両
10   :情報処理システム
11   :車体挙動計測装置
13   :車両周囲状況検出装置
15   :天候情報検出装置
17   :車両位置情報検出装置
19   :音出力装置
20   :管理サーバ
40   :車両制御装置
100  :情報処理装置
104  :データ取得部
110  :処理部
111  :通信制御部
112  :入力受付処理部
113  :データ処理部
114  :出力制御部
119  :タイマ管理部
120  :操作入力部
122  :検出部
140  :記憶部
141  :主記憶部
142  :データ記憶部
150  :情報記憶媒体
170  :通信部
204  :データ取得部
210  :処理部
211  :通信制御部
212  :データ取得部
213  :データ解析部
214  :データ提供処理部
219  :タイマ管理部
240  :記憶部
241  :主記憶部
242  :データ記憶部
243  :ドライバデータ記憶部
250  :情報記憶媒体
270  :通信部
 

 

Claims (10)

  1.  車両を運転するドライバを支援する運転支援システムにおいて、
     一つ又は複数のプロセッサと、前記一つ又は複数のプロセッサと通信可能に接続された一つ又は複数のメモリと、を備え、
     前記プロセッサが、
      前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行し、
      前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力し、前記ドライバの聴覚を刺激するための制御を実行する効果音出力制御処理を実行し、
      前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行する、運転支援システム。
  2.  前記プロセッサが、
      前記ドライバの特性を示すドライバ特性の情報を取得する情報取得処理を実行し、
      前記特定処理として、所定の前記ドライバ特性について、前記最適な出力条件を特定する、請求項1に記載の運転支援システム。
  3.  前記プロセッサが、
      前記車両の走行環境の情報を取得する情報取得処理を実行し、
      前記特定処理として、所定の前記走行環境について、前記最適な出力条件を特定する、請求項1に記載の運転支援システム。
  4.  前記プロセッサが、
     前記出力条件には、前記効果音の出力タイミング、出力回数、音色、音量、長さ及びテンポの少なくともいずれかの条件が含まれる、請求項1に記載の運転支援システム。
  5.  前記プロセッサが、
      前記特定処理によって、前記繰り返し実行されたデータ取得処理及び効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、前記効果音出力制御処理及び前記データ取得処理を停止し、
      前記効果音出力制御処理及び前記データ取得処理を停止した際に特定された最適な出力条件に前記効果音の出力条件を固定して前記ドライバの聴覚を刺激するための制御を出力条件固定制御処理として実行し、
      前記出力条件固定制御処理に基づいて前記挙動データを取得し、かつ、当該取得した挙動データによって得られた前記挙動安定度が、所与の特別出力条件を具備した場合に、前記特定処理を再開する、請求項1に記載の運転支援システム。
  6.  前記プロセッサが、
      前記特定処理が再開された場合に、再開前の前記設定条件とは異なる設定条件を用いる、請求項5に記載の運転支援システム。
  7.  前記プロセッサが、
      前記データ取得処理によって取得された前記挙動データの数が不足している場合には、前記挙動データを追加取得するための制御、又は、既に取得された挙動データから得られる挙動安定度を補正する処理を実行する、請求項1に記載の運転支援システム。
  8.  車両の運転を支援する運転支援装置を搭載した車両において、
     前記運転支援装置が、
      前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行し、
      前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力し、前記ドライバの聴覚を刺激するための制御を実行する効果音出力制御処理を実行し、
      前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行する、車両。
  9.  車両の運転を支援する運転支援システムに適用されるコンピュータプログラムを記録した記録媒体であって、
     コンピュータに、
      前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得するデータ取得処理を実行させ、
      前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力し、前記ドライバの聴覚を刺激するための制御を実行する効果音出力制御処理を実行させ、
      前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行させる、コンピュータプログラムを記録した記録媒体。
  10.  車両の運転を支援する運転支援方法において、
      前記車両が少なくとも所定の区間を走行中に前記車両の挙動を示すデータを挙動データとして取得し、
      前記所定の区間の通過後に当該所定の区間における前記挙動データから得られる挙動安定度に応じた効果音を出力し、前記ドライバの聴覚を刺激するための制御を実行する効果音出力制御処理を実行し、
      前記効果音の出力条件を変更しながら繰り返して前記データ取得処理及び前記効果音出力制御処理を実行し、当該繰り返し実行された前記データ取得処理及び前記効果音出力制御処理の結果が予め設定された設定条件を具備した場合に、当該結果に対応する前記出力条件を、最適な出力条件として、特定する特定処理を実行する、ことを含む運転支援方法。
     

     
PCT/JP2022/035245 2022-09-21 2022-09-21 運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法 WO2024062573A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/035245 WO2024062573A1 (ja) 2022-09-21 2022-09-21 運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/035245 WO2024062573A1 (ja) 2022-09-21 2022-09-21 運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法

Publications (1)

Publication Number Publication Date
WO2024062573A1 true WO2024062573A1 (ja) 2024-03-28

Family

ID=90453999

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/035245 WO2024062573A1 (ja) 2022-09-21 2022-09-21 運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法

Country Status (1)

Country Link
WO (1) WO2024062573A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277256A (ja) * 2005-03-29 2006-10-12 Yokohama Rubber Co Ltd:The 運転技量評価装置、運転負担効率報知装置、運転技量評価方法、および運転負担効率報知方法
JP2022054982A (ja) * 2020-09-28 2022-04-07 株式会社Subaru 運転支援装置
JP2022055705A (ja) * 2020-09-29 2022-04-08 株式会社Subaru 運転支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277256A (ja) * 2005-03-29 2006-10-12 Yokohama Rubber Co Ltd:The 運転技量評価装置、運転負担効率報知装置、運転技量評価方法、および運転負担効率報知方法
JP2022054982A (ja) * 2020-09-28 2022-04-07 株式会社Subaru 運転支援装置
JP2022055705A (ja) * 2020-09-29 2022-04-08 株式会社Subaru 運転支援装置

Similar Documents

Publication Publication Date Title
JP7000638B2 (ja) 車両制御方法、装置、コンピュータ機器及び記憶媒体
US11568492B2 (en) Information processing apparatus, information processing method, program, and system
KR102225006B1 (ko) 차량 제동 에너지 회수 방법 및 장치
JP5375805B2 (ja) 運転支援システム及び運転支援管理センター
CN106233355B (zh) 驾驶辅助装置及驾驶辅助方法
US8452505B2 (en) Notification apparatus
JP2019527813A (ja) 自律走行車の交通予測における予測軌跡の評価フレームワーク
JP5434912B2 (ja) 運転状態判定方法、運転状態判定システム及びプログラム
CN108885836A (zh) 驾驶辅助方法和利用该驾驶辅助方法的驾驶辅助装置、自动驾驶控制装置、车辆、驾驶辅助***以及程序
US20120029803A1 (en) Fuel-consumption projecting apparatus, fuel-consumption projecting method, fuel-consumption projecting program, and recording medium
JP2009293996A (ja) 運転者疲労度推定装置、運転者疲労度推定方法
EP3659889B1 (en) Predetermined calibration table-based vehicle throttle/brake assist system for level 2 autonomous vehicle
US20120029766A1 (en) Driving support device, driving support method, and driving support program
EP3659884A2 (en) Predetermined calibration table-based method for operating an autonomous driving vehicle
JP2018106490A (ja) 自動運転装置
JP2010221962A (ja) 運転行動推定装置
JP2024040209A (ja) 遠隔支援システム及び遠隔支援方法
WO2024062573A1 (ja) 運転支援システム、車両、コンピュータプログラムを記録した記録媒体及び運転支援方法
JP5086438B2 (ja) 省燃費運転評価装置及び省燃費運転評価方法等
JP4985319B2 (ja) 走行支援装置
JP4789367B2 (ja) 運転心理判定装置及び運転心理判定方法、並びに運転支援装置及び運転支援方法
JP2013200158A (ja) 速度情報生成装置、速度情報生成方法及び速度情報生成用プログラム
WO2023084664A1 (ja) 運転技能評価システム、情報処理装置、車両及びコンピュータプログラム並びにコンピュータプログラムを記録した記録媒体
CN113963545A (zh) 基于全网通和物联网的低速车智能驾驶交互***
JP7005571B2 (ja) 所定の負荷較正テーブルによる自動運転車両の車両負荷の確定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22959537

Country of ref document: EP

Kind code of ref document: A1