WO2020170781A1 - 運転支援システム及び運転支援方法 - Google Patents

運転支援システム及び運転支援方法 Download PDF

Info

Publication number
WO2020170781A1
WO2020170781A1 PCT/JP2020/003888 JP2020003888W WO2020170781A1 WO 2020170781 A1 WO2020170781 A1 WO 2020170781A1 JP 2020003888 W JP2020003888 W JP 2020003888W WO 2020170781 A1 WO2020170781 A1 WO 2020170781A1
Authority
WO
WIPO (PCT)
Prior art keywords
message
driving
traveling environment
message corresponding
voice
Prior art date
Application number
PCT/JP2020/003888
Other languages
English (en)
French (fr)
Inventor
弘文 長須賀
大知 尾白
栗山 裕之
佐藤 公則
雄飛 篠原
Original Assignee
株式会社日立物流
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立物流 filed Critical 株式会社日立物流
Priority to CN202080012963.7A priority Critical patent/CN113396449B/zh
Priority to US17/431,362 priority patent/US20220135051A1/en
Publication of WO2020170781A1 publication Critical patent/WO2020170781A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • B60K35/265Voice
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • B60W2050/0091Priority selection of control inputs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • the present invention relates to a technology that supports driving a vehicle.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-242242 discloses that a driving support device according to an embodiment executes a driving support control according to a recognition processing unit that recognizes a situation around a vehicle and a situation around the vehicle recognized by the recognition processing unit.
  • a driving support processing unit a display processing unit that displays a change in the surrounding environment of the vehicle on the display unit when the surrounding environment of the vehicle changes, and a detection processing unit that detects information regarding the line of sight of the driver of the vehicle.
  • a first notification is output to notify the driver that the situation around the vehicle has changed using a notification unit other than the display unit, and the first notification is output.
  • the notification unit is used to notify the driver again that the surrounding environment of the vehicle has changed.
  • an output processing unit that outputs a second notification for notification.”
  • Patent Document 1 Japanese Patent Laid-Open No. 2017-68673
  • Different types of information may be provided to the driver to assist in driving the vehicle.
  • the different types of information are, for example, information about the traveling environment of the vehicle and information about the characteristics of the driver.
  • the former example is information provided regardless of who the driver is, such as road shape, weather and traffic conditions, while the latter example is information such as information related to the driving characteristics of the driver.
  • This is information that can be provided or not provided and the provided content depending on who the person is.
  • the timings at which the plurality of types of information are provided overlap it may be necessary to prioritize one of them.
  • the above Patent Document 1 does not describe provision of different types of information.
  • a typical example of the invention disclosed in the present application is a driving support system including a processor, a storage device, and an output device, wherein the storage device is Holding traveling environment information indicating a traveling environment of the vehicle and driving characteristic information indicating a driving characteristic of the driver of the vehicle, the processor corresponds to the traveling environment of the vehicle based on the traveling environment information. A message is generated, a message corresponding to the driving characteristic of the driver of the vehicle is generated based on the driving characteristic information, and the output device has a message corresponding to the traveling environment and a message corresponding to the driving characteristic. And are output in different modes.
  • FIG. 1 is a block diagram showing an example of the configuration of a driving support system 100 according to an embodiment of the present invention.
  • the driving support system 100 includes an instruction center 101, a network 102, and one or more driving support devices 103 mounted on one or more vehicles 104.
  • the one or more vehicles 104 may be vehicles such as trucks managed by a transportation company or the like, and the instruction center 101 may be a center for the transportation company or the like to manage the operation of the trucks or the like.
  • the vehicle 104 may be a vehicle used in a passenger business such as a bus or a taxi, and the instruction center 101 may be an operation management center such as a business office.
  • FIG. 2 is a block diagram showing an example of the configuration of the instruction center 101 according to the embodiment of this invention.
  • the instruction center 101 of this embodiment is a computer system having a communication interface 201, a processor 202, a main storage device 203, and an auxiliary storage device 204 that are connected to each other.
  • the communication interface 201 is connected to the network 102 and communicates with each driving support device 103.
  • the processor 202 realizes various functions by executing a program stored in the main storage device 203.
  • the main storage device 203 is a semiconductor storage device such as a DRAM
  • the auxiliary storage device 204 is a storage device having a relatively large capacity such as a hard disk drive or a flash memory.
  • a program executed by the processor 202, data referred to by the processor 202, and the like are stored in these storage devices.
  • the main storage device 203 stores the control unit 205
  • the auxiliary storage device 204 stores position information 206, weather information 207, and traffic information 208.
  • the control unit 205 is a program for realizing the function of the instruction center 101.
  • the control unit 205 is referred to by the processor 202 by being stored in the auxiliary storage device 204 side and by storing at least a part thereof in the main storage device 203 as necessary. Such an aspect may be adopted.
  • the position information 206 is information indicating the position of each vehicle 104.
  • the weather information 207 is information indicating the weather of each place.
  • the traffic information 208 is, for example, information indicating traffic conditions such as road congestion and traffic restrictions. At least a part of the position information 206, the weather information 207, and the traffic information 208 may be stored in the main storage device 203 as needed.
  • the functions of the instruction center 101 realized by the control unit 205 are as follows, for example. That is, the instruction center 101 collects the position of each vehicle 104 via the network 102 and stores it as the position information 206. Then, the instruction center 101 extracts the weather and traffic conditions in the area including the position of each vehicle 104 from the weather information 207 and the traffic information 208, respectively, and generates an instruction for each vehicle 104 based on the extracted information. The instruction may be transmitted to each vehicle 104 via. Alternatively, the instruction center 101 may transmit the weather information and the traffic condition information themselves extracted from the weather information 207 and the traffic information 208 to each vehicle 104.
  • FIG. 3 is a block diagram showing an example of the configuration of the driving support device 103 according to the embodiment of this invention.
  • the driving support device 103 includes a communication interface 301, a processor 302, an input device 303, a voice output device 304, an image output device 305, a position sensor 306, a main storage device 307, and an auxiliary storage device 308 that are mutually connected. It is a computer system that has.
  • the communication interface 301 is connected to the network 102 and communicates with the instruction center 101.
  • the processor 302 realizes various functions by executing a program stored in the main storage device 307.
  • the main storage device 307 is a semiconductor storage device such as a DRAM
  • the auxiliary storage device 308 is a relatively large-capacity storage device such as a hard disk drive or a flash memory.
  • a program executed by the processor 302, data referred to by the processor 302, and the like are stored in these storage devices.
  • the main storage device 307 has a message transmission unit 309 corresponding to the traveling environment, a traveling environment message queue 310, a message transmission unit 311 corresponding to driving characteristics, a driving characteristic message queue 312, and a voice generation unit. 313, a voice output unit 314, a priority definition file 315, and an overtime definition file 316 are stored, and the auxiliary storage device 308 stores a traveling environment database (DB) 317, a map database 318, a message database 319, and a driving characteristic database 320. .
  • DB traveling environment database
  • the driving environment database 317, the map database 318, the message database 319, and the driving characteristic database 320 are held inside the driving support device 103, but these are stored outside the driving support device 103. It may be held in a storage device or a computer.
  • the message transmission unit 309 corresponding to the driving environment, the message transmission unit 311 corresponding to driving characteristics, the voice generation unit 313, and the voice output unit 314 are programs for realizing the functions of the driving support device 103. These programs may be stored in the auxiliary storage device 308, at least a part of which may be stored in the main storage device 307 as needed, and may be referred to by the processor 302.
  • the message queue 310 for the traveling environment and the message queue 312 for the driving characteristic each include a message record (described later) including a message generated by the message transmitting unit 309 corresponding to the traveling environment and the message transmitting unit 311 corresponding to the driving characteristic, respectively. Are stored in the order in which they were generated and output in that order.
  • the priority definition file 315 holds a priority definition flag (described later) indicating which of the message corresponding to the driving environment and the message corresponding to the driving characteristics is prioritized.
  • the excess time definition file 316 holds the excess time, which is a condition for deleting old messages without outputting them.
  • the traveling environment database 317 stores information indicating the traveling environment of each vehicle 104.
  • the information indicating the traveling environment may include, for example, the shape of the road around the location of each vehicle 104, the topography, the weather and traffic conditions acquired from the instruction center 101, and the like.
  • running time daytime, nighttime, etc.
  • running time and seasonal information such as the degree of glare due to the morning sun and sunset, and information such as poor visibility due to dust, this may be included.
  • the map database 318 stores at least map information of an area including the location and destination of each vehicle 104.
  • the map database 318 may include road sign information such as legal speed and stop points attached to the map.
  • the message database 319 stores messages generated by the message transmission unit 309 corresponding to the driving environment and the message transmission unit 311 corresponding to the driving characteristics. For example, a large number of messages are stored in advance in the message database 319, and the message transmission unit 309 corresponding to the driving environment and the message transmission unit 311 corresponding to the driving characteristic are selected by selecting an appropriate message from them. May be generated.
  • the driving characteristic database 320 stores information indicating the driving characteristics of the driver of each vehicle 104.
  • the driver's driving characteristics are information indicating a tendency peculiar to the driver, for example, that the speed tends to be increased or the inter-vehicle distance tends to be shortened.
  • the input device 303 is a device that receives an input from a user of the driving support device 103 (for example, a driver of a vehicle 104 equipped with the driving support device 103 or a fellow passenger thereof), and for example, a microphone for voice input, a button, or It may be a touch panel or the like.
  • the audio output device 304 is a device that outputs audio information to the user, and may include, for example, a speaker and an amplifier for driving the speaker.
  • the image output device 305 is a device that outputs image information to the user, and may include, for example, a liquid crystal display.
  • the position sensor 306 is, for example, a GPS (Global Positioning System) terminal, and measures the position of the driving support device 103 (that is, the vehicle 104 in which it is mounted).
  • the driving support device 103 may periodically transmit the position measured by the position sensor 306 to the instruction center 101, for example.
  • the instruction center 101 holds the position received from the driving support device 103 of each vehicle 104 as the position information 206.
  • the driving support device 103 may further include an arbitrary type of sensor such as a camera that captures an image of the surroundings of the vehicle 104, and information from a similar sensor installed in the vehicle 104 may be transmitted via the network 102. You may receive it.
  • FIG. 4 is a functional block diagram showing an example of the configuration of the driving support device 103 according to the embodiment of this invention.
  • the message transmission unit 309 corresponding to the traveling environment, the message transmission unit 311 corresponding to the driving characteristics, the voice generation unit 313, and the voice output unit 314 are the programs stored in the main storage device 307 by the processor 302.
  • the function realized by executing is shown. In the following description, the processing executed by each of these units is actually executed by the processor 302 controlling each unit of the driving support device 103 as necessary according to a program stored in the main storage device 307.
  • the message transmission unit 309 corresponding to the driving environment and the message transmission unit 311 corresponding to the driving characteristics generate a message to be output.
  • the generated message is stored in the traveling environment message queue 310 and the driving characteristic message queue 312.
  • the voice generation unit 313 generates voice to read the generated message, and the voice output unit 314 outputs the voice.
  • FIG. 5 is an explanatory diagram showing an example of a message record held by the driving support device 103 according to the embodiment of this invention.
  • the message record 500 of this embodiment includes a message identifier 501, a time stamp 502, and a message 503.
  • the message 503 is a message generated by the message transmission unit 309 corresponding to the traveling environment or the message transmission unit 311 corresponding to the driving characteristic.
  • the message identifier 501 indicates whether the message 503 is a message corresponding to a driving environment or a message corresponding to driving characteristics, that is, a message transmission unit 309 corresponding to a driving environment or a message transmission unit corresponding to a driving characteristic. It is shown by which of 311 it was generated. For example, the values “0” and “1” of the message identifier 501 indicate the message corresponding to the traveling environment and the message corresponding to the driving characteristic, respectively, of the message 503.
  • the time stamp 502 indicates the time when the message 503 was generated.
  • the message record 500 with the value of the message identifier 501 being “0” is stored in the traveling environment message queue 310, and the message record 500 having the value of the message identifier 501 being “1” is stored in the driving characteristic message queue 312. ..
  • a plurality of message records 500 may be stored in the traveling environment message queue 310 and the driving characteristic message queue 312, respectively.
  • FIG. 6 is an explanatory diagram showing an example of the priority definition flag held by the driving support device 103 according to the embodiment of this invention.
  • the priority definition flag 600 of this embodiment is included in the priority definition file 315.
  • the value "0" of the priority definition flag 600 indicates that the message corresponding to the driving environment is prioritized, and the value "0" of the priority definition flag 600 indicates that the message corresponding to the driving characteristic is prioritized. ..
  • the value of the priority definition flag 600 is preset by, for example, the administrator of the instruction center 101 or the user of the driving support device 103. For example, a high priority can be set for a message of a type determined to have high importance. Further, the value of the priority definition flag 600 may be different for each driving support device 103. For example, the administrator of the instruction center 101 sets, in the priority definition flag 600, a value indicating that the message corresponding to the driving characteristic is prioritized for the driving support device 103 used by the driver whose driving proficiency is low. May be.
  • the administrator of the instruction center 101 for the driving support device 103 of the vehicle 104 scheduled to travel in a poor environment, has a priority definition of a value indicating that a message corresponding to the travel environment is prioritized.
  • the flag 600 may be set.
  • the priority definition flag 600 set in this way by preferentially outputting a high-priority type message, important information can be reliably transmitted to the user.
  • FIG. 7 is a flowchart showing an example of processing of the message transmission unit 309 corresponding to the traveling environment of the driving support device 103 according to the embodiment of this invention.
  • the message transmission unit 309 corresponding to the driving environment creates a message corresponding to the driving environment, and substitutes the created message into the new message record 500 (step 701).
  • the creation of this message can be performed by an arbitrary method such as a known technique, and thus detailed description thereof will be omitted.
  • the transmission unit 309 of the message corresponding to the traveling environment based on the current location of the vehicle 104 detected by the position sensor 306 and the route from the current location to the destination, information on the traveling environment of the current location or a point to pass through. May be retrieved from the traveling environment database 317, a message corresponding to the traveling environment may be acquired from the message database 319, and the message may be substituted into the message record 500.
  • information about the shape of the terrain or the road such as a steep uphill slope, a steep downhill slope, or a sharp curve in the traveling direction may be acquired.
  • Information about traffic conditions such as traffic congestion or traffic restrictions may be acquired, and information about weather such as rainfall or snowfall may be acquired.
  • a message may be acquired based on past road information at points where accidents, falling objects, jumps, and the like occur frequently.
  • a message for prompting the headlights to be turned on or for calling attention to the speed limit and road sign information may be acquired.
  • the message transmission unit 309 corresponding to the traveling environment may generate a message for notifying the obtained information, and further, a message regarding the driving of the vehicle 104 corresponding to the information (for example, attention to the front or speed control). Etc.) may be generated.
  • the message transmitting unit 309 corresponding to the traveling environment substitutes a value (“0” in the present embodiment) indicating that the message is a message corresponding to the traveling environment into the message identifier 501 of the message record 500. (Step 702).
  • the message transmission unit 309 corresponding to the traveling environment substitutes the time when the message was created into the time stamp 502 of the message record 500 (step 703).
  • the message transmission unit 309 corresponding to the traveling environment enqueues the message record 500 at the end of the traveling environment message queue 310 (step 704).
  • the message transmission unit 309 corresponding to the traveling environment defines the difference between the value of the time stamp 502 and the current time in the excess time definition file 316 from all the message records 500 of the traveling environment message queue 310.
  • the message record 500 that has passed the time is extracted (step 705).
  • the message transmission unit 309 corresponding to the traveling environment determines whether at least one message record 500 is extracted in step 705 (step 706), and if extracted (step 706: YES), the message record concerned. 500 is deleted from the traveling environment message queue 310 (step 707). On the other hand, if no message record 500 is extracted in step 705 (step 706: NO), step 707 is not executed.
  • the old message record 500 is deleted by executing the above steps 705 to 707. This prevents the output of old messages that no longer need to be printed.
  • the determination as to whether or not to delete a message is made based on the elapsed time since the message was created as described above, but this is an example of the criteria for deleting a message (deletion condition) And other criteria may be used. For example, when the message 503 included in a certain message record 500 is associated with a specific point such as a sharp curve or traffic regulation, the message record 500 is still output after the vehicle 104 passes through the corresponding point. If the message record 500 remains without being deleted, the message record 500 may be deleted. Alternatively, the weather message record 500 may be deleted if the weather forecast changes before it is output.
  • the message transmission unit 309 corresponding to the traveling environment determines whether the priority definition flag 600 has a value (“0” in this embodiment) indicating that the message corresponding to the traveling environment is prioritized (step). 708).
  • the priority definition flag 600 has a value indicating that the message corresponding to the traveling environment is prioritized (step 708: YES)
  • the message transmission unit 309 corresponding to the traveling environment is stored in the traveling environment message queue 310. All message records 500 are output to the voice generation unit 313 in the order in which they are enqueued, and those message records 500 are deleted from the traveling environment message queue 310 (step 709).
  • the message transmission unit 309 corresponding to the traveling environment indicates that the message at the head of the traveling environment message queue 310
  • the message record 500 is output to the voice generation unit 313, the message record 500 is deleted from the traveling environment message queue 310 (step 710), and a predetermined time is waited (step 711). Accordingly, when a plurality of message records 500 are stored in the traveling environment message queue 310, the next message record 500 is not output for the predetermined time.
  • the priority definition flag 600 is not a value indicating that the message corresponding to the driving environment is prioritized, which means that the message corresponding to the driving characteristic is prioritized.
  • the message transmission unit 311 corresponding to the driving characteristic can output the message corresponding to the driving characteristic.
  • a plurality of message records are stored in the driving characteristic-oriented message queue 312, all of them are output (see step 809 in FIG. 8 described later).
  • the message corresponding to the driving characteristic is preferentially output. As a result, it is possible to prevent the important message from failing to be output, for example, when many messages are generated in a short time.
  • the message transmission unit 309 corresponding to the traveling environment waits for a predetermined time in step 711, and then determines whether all the message records 500 in the traveling environment message queue 310 have been output (step 712). If there is a message record 500 that has not been output yet (step 712: NO), the process returns to step 710.
  • step 709 When all the message records 500 are output in step 709 and when it is determined that all the message records 500 are output in step 712 (step 712: YES), the message transmission unit 309 corresponding to the traveling environment performs the processing. finish.
  • FIG. 8 is a flowchart showing an example of processing of the message transmission unit 311 corresponding to the driving characteristics of the driving support device 103 according to the embodiment of this invention.
  • the message transmission unit 311 corresponding to the driving characteristic creates a message corresponding to the driving characteristic, and substitutes the created message into a new message record 500 (step 801).
  • the creation of this message can be performed by an arbitrary method such as a known technique, and thus detailed description thereof will be omitted.
  • the message transmission unit 311 corresponding to the driving characteristic acquires information indicating the driving characteristic of the driver of the vehicle 104 from the driving characteristic database 320, acquires the message corresponding to the driving characteristic from the message database 319, It may be substituted in the message record 500.
  • the transmission unit 311 of the message corresponding to the driving characteristic is searched for from the traveling environment database 317 based on the current position of the vehicle 104 detected by the position sensor 306 and the route from the current position to the destination. You may utilize the information of the driving environment of the point which passes from now on.
  • the message transmission unit 311 corresponding to the driving characteristic may generate a message that calls attention to reduce the speed.
  • a message that calls attention may be generated by predicting a time zone in which concentration is reduced or fatigue is accumulated as the driving time elapses.
  • a message for notifying the next travel route or a message for prompting acquisition of a break may be generated for each time or each base.
  • the message transmission unit 311 corresponding to the driving characteristic substitutes a value (“1” in this embodiment) indicating that the message is a message corresponding to the driving characteristic into the message identifier 501 of the message record 500. (Step 802).
  • the message transmission unit 311 corresponding to the driving characteristic substitutes the time when the message was created into the time stamp 502 of the message record 500 (step 803).
  • the message transmission unit 311 corresponding to the driving characteristic enqueues the message record 500 at the end of the driving characteristic-oriented message queue 312 (step 804).
  • the message transmission unit 311 corresponding to the driving characteristic defines the difference between the value of the time stamp 502 and the current time in the excess time definition file 316 from all the message records 500 of the driving characteristic message queue 312.
  • the message record 500 that has exceeded the time is extracted (step 805).
  • the message transmission unit 311 corresponding to the driving characteristic determines whether or not at least one message record 500 is extracted in step 805 (step 806), and if extracted (step 806: YES), the message record. 500 is deleted from the message queue 312 for driving characteristics (step 807). On the other hand, if no message record 500 is extracted in step 805 (step 806: NO), step 807 is not executed.
  • the old message record 500 is deleted by executing the above steps 805 to 807. This prevents the output of old messages that no longer need to be printed.
  • the message that does not need to be output may be extracted based on a criterion other than the elapsed time, as in the case of deleting the message record 500 from the traveling environment message queue 310.
  • the message transmission unit 311 corresponding to the driving characteristic determines whether or not the priority definition flag 600 has a value (“1” in this embodiment) indicating that the message corresponding to the driving characteristic is prioritized (step). 808).
  • the priority definition flag 600 has a value indicating that the message corresponding to the driving characteristic is prioritized (step 808: YES)
  • the message transmission unit 311 corresponding to the driving characteristic is stored in the driving characteristic message queue 312. All message records 500 are output to the voice generation unit 313 in the order in which they are enqueued, and those message records 500 are deleted from the driving characteristic message queue 312 (step 809).
  • the message transmission unit 311 corresponding to the driving characteristic indicates that the message at the top of the driving characteristic-oriented message queue 312
  • the message record 500 is output to the voice generation unit 313, the message record 500 is deleted from the message queue 312 for driving characteristics (step 810), and a predetermined time is waited (step 811).
  • the next message record 500 is not output for the predetermined time.
  • the priority definition flag 600 is not a value indicating that the message corresponding to the driving characteristic is prioritized in step 808, which means that the message corresponding to the driving environment is prioritized.
  • the message transmission unit 311 corresponding to the driving characteristic is waiting in step 811, the message transmission unit 309 corresponding to the traveling environment can output the message corresponding to the traveling environment.
  • the message corresponding to the traveling environment is preferentially output.
  • the message transmission unit 311 corresponding to the driving characteristic waits for a predetermined time in step 811, and then determines whether all the message records 500 in the driving characteristic message queue 312 have been output (step 812). If there is a message record 500 that has not been output yet (step 812: NO), the process returns to step 810.
  • step 809 When all the message records 500 are output in step 809 and when it is determined that all the message records 500 are output in step 812 (step 812: YES), the message transmission unit 311 corresponding to the driving characteristic performs the process. finish.
  • FIG. 9 is a flowchart showing an example of processing of the voice generation unit 313 of the driving support device 103 according to the embodiment of this invention.
  • the voice generation unit 313 When the voice generation unit 313 receives the message record 500 output from the message transmission unit 309 corresponding to the driving environment or the message transmission unit 311 corresponding to the driving characteristics, the message identifier 501 of the message record 500 is “0”. Is determined (step 901).
  • the message 503 of the message record 500 is a message corresponding to the traveling environment.
  • the voice generation unit 313 requests the output of the message with a female voice (step 902).
  • the voice generation unit 313 may generate voice data for reading the message 503 with a female voice and output the voice data to the voice output unit 314.
  • the voice output unit 314 uses the voice data to cause the voice output device 304 to output a voice that reads the message 503 with a female voice.
  • the message 503 of the message record 500 is a message corresponding to the driving characteristic.
  • the voice generation unit 313 requests the output of the message with a male voice (step 903).
  • the voice generation unit 313 may generate voice data for reading the message 503 with a male voice and output the voice data to the voice output unit 314.
  • the voice output unit 314 uses the voice data to cause the voice output device 304 to output a voice that reads the message 503 with a male voice.
  • generating a voice read out by a female voice for a message corresponding to a driving environment and generating a voice read out by a male voice for a message corresponding to driving characteristics is to output those messages in different modes.
  • each message may be output by another method, and does not mean that the gender difference is essential.
  • the difference in mode includes the difference in the person who speaks the voice of the message, the difference in the frequency of the voice of the message, the difference in the tone of the voice of the message, the difference in the voice added to the message, and the vibration added to the message.
  • the difference may be at least one of the above.
  • the voice generation unit 313 may generate a voice that reads out both the message corresponding to the driving environment and the message corresponding to the driving characteristics in a male (or female) voice. At that time, the tone of the read voice may be changed according to the type of message. For example, the voice generation unit 313 may generate a voice that reads a message corresponding to the traveling environment in a quiet voice, and may generate a voice that reads a message corresponding to the driving characteristic in a strong voice. Further, a message recorded in advance from the driver's family may be generated.
  • the voice output unit 314 may additionally output an alarm sound, or when the driving support device 103 has a vibrator or the like (not shown). Vibration or the like due to this may be added and output.
  • the mode of outputting such a message may be determined based on the priority of the message, not on the type of the message (that is, whether it corresponds to the driving environment or the driving characteristics). For example, when the priority definition flag 600 is a value indicating that the message corresponding to the traveling environment is prioritized, the voice generation unit 313 generates a voice that reads out the message corresponding to the traveling environment with a male voice, and drives the vehicle. You may generate the audio
  • the image output device 305 may output the message as a character image.
  • the image output device 305 determines the display mode, for example, the color, the size, the font, or the type of the character, depending on the type of the message (that is, whether it corresponds to the driving environment or the driving characteristic).
  • the symbols, photographs, figures, etc. displayed incidentally may be changed.
  • the user for example, the vehicle 104 Driver
  • the user can receive and utilize those messages without confusion.
  • the priority according to the type of the message and controlling the output of the message accordingly, it is possible to surely convey the important message to the user even when a large number of messages are output in a short time.
  • the instruction center 101 holds the weather information 207 and the traffic information 208 and transmits them to the driving support device 103 as necessary, but the instruction center 101 sends these information to the network 102. May be obtained from an external server (for example, a weather information server, a traffic information server, etc., both not shown) connected to the.
  • the driving support device 103 may acquire necessary information from those external servers via the network 102 without using the instruction center 101. As a result, the latest information can be used as the traveling environment information.
  • the message transmission unit 309 corresponding to the driving environment, the message transmission unit 311 corresponding to the driving characteristics, and the voice generation unit 313 are provided in the driving support device 103 which is a part of the driving support system 100. Although the example in which it is provided is shown, these may be provided in another part in the driving assistance system 100. For example, at least a part of them may be provided in the instruction center 101. In that case, the traveling environment database 317, the map database 318, the message database 319, and the driving characteristic database 320 are also held in the instruction center 101. For example, the instruction center 101 may transmit the generated voice data to the driving support device 103, and the voice output unit 314 of the driving support device 103 may output a voice based on the voice data to the voice output device 304.
  • the driving support device 103 allows the user (for example, driving the vehicle 104 to drive). Output of a message to a person) is less likely to be affected by congestion of the network 102.
  • the information stored in the traveling environment database 317 and the information stored in the driving characteristic database 320 of the present embodiment are examples of information that supports two or more types of driving, and the driving support device 103 drives other than the above. You may hold the information which supports.
  • the driving support device 103 has a message transmission unit corresponding to each type of information, similarly to the message transmission unit 309 corresponding to the traveling environment and the message transmission unit 311 corresponding to the driving characteristic, They generate messages corresponding to each type of information.
  • one of the information that supports two or more types of driving may be information obtained from the sensor when the vehicle 104 has a sensor such as a camera that captures an image of the surroundings.
  • the other one may be information provided from the instruction center 101 or another external server.
  • the information provided by the instruction center 101 and the information provided by other external servers may be treated as different types of information.
  • the message transmission unit corresponding to each type of information generates a message corresponding to each type of information.
  • the voice generation unit 313 outputs voice data for outputting messages corresponding to respective types of information in different modes (for example, voice data uttered by a voice of a person having a different gender for each type of information, or (For example, data uttered in different voices) is generated, and the voice output unit 314 outputs voice based on the voice data.
  • each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them with, for example, an integrated circuit.
  • the above-described respective configurations, functions and the like may be realized by software by a processor interpreting and executing a program for realizing each function.
  • Information such as programs, tables, and files that implement each function is stored in non-volatile semiconductor memory, hard disk drives, storage devices such as SSD (Solid State Drive), or computer-readable non-readable such as IC cards, SD cards, and DVDs. It can be stored on a temporary data storage medium.
  • control lines and information lines are shown to be necessary for explanation, and not all control lines and information lines are shown on the product. In reality, it may be considered that almost all the configurations are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Analytical Chemistry (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

プロセッサと、記憶装置と、出力装置と、を有する運転支援システムであって、記憶装置は、車両の走行環境を示す走行環境情報と、車両の運転者の運転特性を示す運転特性情報と、を保持し、プロセッサは、走行環境情報に基づいて、車両の走行環境に対応したメッセージを生成し、運転特性情報に基づいて、車両の運転者の運転特性に対応したメッセージを生成し、出力装置は、走行環境に対応したメッセージと、運転特性に対応したメッセージとを、相違する態様で出力する。

Description

運転支援システム及び運転支援方法 参照による取り込み
 本出願は、平成31年(2019年)2月18日に出願された日本出願である特願2019-026229の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、車両の運転を支援する技術に関する。
 自動車等の車両の運転を支援する技術として、例えば特開2017-68673(特許文献1)がある。特許文献1には、「実施形態による運転支援装置は、車両の周囲の状況を認識する認識処理部と、認識処理部によって認識された前記車両の周囲の状況に応じて運転支援制御を実行する運転支援処理部と、車両の周囲の状況が変化した場合に、車両の周囲の状況の変化を表示部に表示する表示処理部と、車両の運転者の視線に関する情報を検出する検出処理部と、認識状況が変化した場合に、表示部とは別の通知部を用いて、車両の周囲の状況が変化したことを運転者に通知する第1の通知を出力し、第1の通知を出力した後、検出処理部による検出結果に基づき、運転者の視線が表示部に向いていることが検出されない場合に、通知部を用いて、車両の周囲の状況が変化したことを運転者に再度通知する第2の通知を出力する出力処理部とを備える。」と記載されている。
  特許文献1:特開2017-68673号公報
 車両の運転を支援するために、運転者に異なる種類の情報が提供される場合がある。異なる種類の情報とは、例えば、車両の走行環境に関する情報と、運転者の特性に関する情報である。前者の例は、道路の形状、天候及び交通状況など、運転者が誰であるかにかかわらず提供される情報であり、後者の例は、運転者の運転の特性に関連する情報など、運転者が誰であるかによって提供の有無及び提供される内容が変わり得る情報である。このような情報を種類の区別が容易な形態で運転者に提供することが望ましい場合がある。また、このような複数の種類の情報が提供されるタイミングが重なった場合、いずれかを優先する処理が必要となる場合がある。しかし、上記の特許文献1には、異なる種類の情報の提供については記載されていない。
 上記課題の少なくとも一つを解決するために、本願において開示される発明の代表的な一例は、プロセッサと、記憶装置と、出力装置と、を有する運転支援システムであって、前記記憶装置は、車両の走行環境を示す走行環境情報と、前記車両の運転者の運転特性を示す運転特性情報と、を保持し、前記プロセッサは、前記走行環境情報に基づいて、前記車両の走行環境に対応したメッセージを生成し、前記運転特性情報に基づいて、前記車両の運転者の運転特性に対応したメッセージを生成し、前記出力装置は、前記走行環境に対応したメッセージと、前記運転特性に対応したメッセージとを、相違する態様で出力することを特徴とする。
 本発明の一態様によれば、運転者が運転操作中に提供されたメッセージがいずれの種類のメッセージであるかを容易に判別することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例の運転支援システムの構成の一例を示すブロック図である。 本発明の実施例の指示センタの構成の一例を示すブロック図である。 本発明の実施例の運転支援装置の構成の一例を示すブロック図である。 本発明の実施例の運転支援装置の構成の一例を示す機能ブロック図である。 本発明の実施例の運転支援装置が保持するメッセージレコードの一例を示す説明図である。 本発明の実施例の運転支援装置が保持するプライオリティ定義フラグの一例を示す説明図である。 本発明の実施例の運転支援装置の走行環境に対応したメッセージの送信部の処理の一例を示すフローチャートである。 本発明の実施例の運転支援装置の運転特性に対応したメッセージの送信部の処理の一例を示すフローチャートである。 本発明の実施例の運転支援装置の音声生成部の処理の一例を示すフローチャートである。
 以下、本発明の実施例を図面に基づいて説明する。
 図1は、本発明の実施例の運転支援システム100の構成の一例を示すブロック図である。
 本実施例の運転支援システム100は、指示センタ101、ネットワーク102、及び、一つ以上の車両104に搭載された一つ以上の運転支援装置103を有する。例えば、一つ以上の車両104は、運送会社等が管理するトラック等の車両であり、指示センタ101は当該運送会社等がトラック等の運行を管理するためのセンタであってもよい。あるいは車両104は、バス又はタクシー等の旅客業で使用される車両であり、指示センタ101は営業所等の運行管理センタであってもよい。
 図2は、本発明の実施例の指示センタ101の構成の一例を示すブロック図である。
 本実施例の指示センタ101は、相互に接続された通信インターフェース201、プロセッサ202、主記憶装置203及び補助記憶装置204を有する計算機システムである。
 通信インターフェース201は、ネットワーク102に接続され、各運転支援装置103との通信を行う。
 プロセッサ202は、主記憶装置203に格納されたプログラムを実行することによって種々の機能を実現する。主記憶装置203は、例えばDRAM等の半導体記憶装置であり、補助記憶装置204は、例えばハードディスクドライブ又はフラッシュメモリ等の比較的大容量の記憶装置である。これらの記憶装置には、プロセッサ202によって実行されるプログラム及びプロセッサ202が参照するデータ等が格納される。
 図2の例では、主記憶装置203に制御部205が格納され、補助記憶装置204に位置情報206、天候情報207及び交通情報208が格納される。制御部205は、指示センタ101の機能を実現するためのプログラムである。無論、図2の例に限らず、制御部205は、補助記憶装置204側に格納され、必要に応じてその少なくとも一部が主記憶装置203に格納されることで、プロセッサ202によって参照されるような態様であってもよい。
 位置情報206は、各車両104の位置を示す情報である。天候情報207は、各地の天候を示す情報である。交通情報208は、例えば道路の混雑状況及び交通規制の有無等の交通状況を示す情報である。位置情報206、天候情報207及び交通情報208の少なくとも一部が必要に応じて主記憶装置203に格納されてもよい。
 制御部205によって実現される指示センタ101の機能は、例えば次の通りである。すなわち、指示センタ101は、ネットワーク102を介して各車両104の位置を収集して位置情報206として格納する。そして、指示センタ101は、各車両104の位置を含む地域における天候及び交通状況をそれぞれ天候情報207及び交通情報208から抽出し、抽出した情報に基づいて各車両104に対する指示を生成し、ネットワーク102を介してその指示を各車両104に送信してもよい。あるいは、指示センタ101は、天候情報207及び交通情報208から抽出した天候の情報及び交通状況の情報そのものを各車両104に送信してもよい。
 図3は、本発明の実施例の運転支援装置103の構成の一例を示すブロック図である。
 本実施例の運転支援装置103は、相互に接続された通信インターフェース301、プロセッサ302、入力装置303、音声出力装置304、画像出力装置305、位置センサ306、主記憶装置307及び補助記憶装置308を有する計算機システムである。
 通信インターフェース301は、ネットワーク102に接続され、指示センタ101との通信を行う。
 プロセッサ302は、主記憶装置307に格納されたプログラムを実行することによって種々の機能を実現する。主記憶装置307は、例えばDRAM等の半導体記憶装置であり、補助記憶装置308は、例えばハードディスクドライブ又はフラッシュメモリ等の比較的大容量の記憶装置である。これらの記憶装置には、プロセッサ302によって実行されるプログラム及びプロセッサ302が参照するデータ等が格納される。
 図3の例では、主記憶装置307に走行環境に対応したメッセージの送信部309、走行環境向けメッセージキュー310、運転特性に対応したメッセージの送信部311、運転特性向けメッセージキュー312、音声生成部313、音声出力部314、プライオリティ定義ファイル315及び超過時間定義ファイル316が格納され、補助記憶装置308に走行環境データベース(DB)317、地図データベース318、メッセージデータベース319及び運転特性データベース320が格納される。なお、図3の例では走行環境データベース317、地図データベース318、メッセージデータベース319及び運転特性データベース320が運転支援装置103の内部に保持されているが、これらは運転支援装置103に接続された外部の記憶装置又は計算機等に保持されてもよい。
 走行環境に対応したメッセージの送信部309、運転特性に対応したメッセージの送信部311、音声生成部313及び音声出力部314は、運転支援装置103の機能を実現するためのプログラムである。これらのプログラムは、補助記憶装置308に格納され、必要に応じてその少なくとも一部が主記憶装置307に格納され、プロセッサ302によって参照されてもよい。
 走行環境向けメッセージキュー310及び運転特性向けメッセージキュー312は、それぞれ、走行環境に対応したメッセージの送信部309及び運転特性に対応したメッセージの送信部311によって生成されたメッセージを含むメッセージレコード(後述)を生成された順に保持し、その順に出力する。
 プライオリティ定義ファイル315は、走行環境に対応したメッセージと運転特性に対応したメッセージとのどちらを優先するかを示すプライオリティ定義フラグ(後述)を保持する。超過時間定義ファイル316は、古いメッセージを出力せずに削除するための条件である超過時間を保持する。
 走行環境データベース317には、各車両104の走行環境を示す情報が格納される。走行環境を示す情報は、例えば、各車両104の所在地周辺の道路の形状、地形、指示センタ101から取得した天候及び交通状況等を含んでもよい。あるいは、走行時間(日中・夜間など)、朝日や夕日によるまぶしさの程度といった走行時間や季節的な情報に加え、埃による視界不良などの情報があればこれを含んでもよい。
 地図データベース318には、少なくとも各車両104の所在地及び目的地を含む地域の地図情報が格納される。そのほか、地図データベース318は、地図に付属する法定速度や一時停止地点などの道路標識情報を含んでも良い。
 メッセージデータベース319には、走行環境に対応したメッセージの送信部309及び運転特性に対応したメッセージの送信部311によって生成されるメッセージが格納される。例えば、メッセージデータベース319に多数のメッセージが予め格納されており、走行環境に対応したメッセージの送信部309及び運転特性に対応したメッセージの送信部311は、それらから適切なものを選択することによってメッセージを生成してもよい。
 運転特性データベース320には、各車両104の運転者の運転に関する特性を示す情報が格納される。運転者の運転に関する特性とは、例えば、スピードを上げがちである、又は、車間距離が短くなりがちである、といった、当該運転者に固有の傾向を示す情報である。
 入力装置303は、運転支援装置103のユーザ(例えば当該運転支援装置103を搭載した車両104の運転者又はその同乗者)からの入力を受け付ける装置であり、例えば、音声入力用のマイク、ボタン又はタッチパネル等であってもよい。音声出力装置304は、ユーザに対して音声情報を出力する装置であり、例えばスピーカ及びそれを駆動するための増幅器等を含んでもよい。画像出力装置305は、ユーザに対して画像情報を出力する装置であり、例えば液晶ディスプレイ等を含んでもよい。
 位置センサ306は、例えばGPS(Global Positioning System)端末であり、運転支援装置103の(すなわちそれが搭載された車両104の)位置を計測する。運転支援装置103は、例えば、定期的に位置センサ306が計測した位置を指示センタ101に送信してもよい。その場合、指示センタ101は、各車両104の運転支援装置103から受信した位置を位置情報206として保持する。また、運転支援装置103は、車両104の周囲を撮影するカメラ等の任意の種類のセンサをさらに有してもよいし、車両104に設置された同様のセンサからの情報をネットワーク102を介して受信してもよい。
 図4は、本発明の実施例の運転支援装置103の構成の一例を示す機能ブロック図である。
 図4では、走行環境に対応したメッセージの送信部309、運転特性に対応したメッセージの送信部311、音声生成部313及び音声出力部314は、プロセッサ302が主記憶装置307に格納されたプログラムを実行することによって実現される機能を示している。以下の説明においてこれらの各部が実行する処理は、実際にはプロセッサ302が主記憶装置307に格納されたプログラムに従って必要に応じて運転支援装置103の各部を制御することによって実行される。
 図4に示すように、走行環境に対応したメッセージの送信部309及び運転特性に対応したメッセージの送信部311が出力されるべきメッセージを生成する。生成されたメッセージは、走行環境向けメッセージキュー310及び運転特性向けメッセージキュー312に格納される。音声生成部313は、生成されたメッセージを読み上げる音声を生成し、音声出力部314が音声を出力する。
 図5は、本発明の実施例の運転支援装置103が保持するメッセージレコードの一例を示す説明図である。
 本実施例のメッセージレコード500は、メッセージ識別子501、タイムスタンプ502及びメッセージ503を含む。メッセージ503は、走行環境に対応したメッセージの送信部309又は運転特性に対応したメッセージの送信部311によって生成されたメッセージである。メッセージ識別子501は、当該メッセージ503が走行環境に対応したメッセージ又は運転特性に対応したメッセージのいずれであるか、すなわち、走行環境に対応したメッセージの送信部309又は運転特性に対応したメッセージの送信部311のいずれによって生成されたものであるかを示す。例えば、メッセージ識別子501の値「0」及び「1」は、それぞれ、当該メッセージ503が走行環境に対応したメッセージ及び運転特性に対応したメッセージを示す。タイムスタンプ502は、当該メッセージ503が生成された時刻を示す。
 メッセージ識別子501の値が「0」であるメッセージレコード500が走行環境向けメッセージキュー310に、メッセージ識別子501の値が「1」であるメッセージレコード500が運転特性向けメッセージキュー312に、それぞれ格納される。走行環境向けメッセージキュー310及び運転特性向けメッセージキュー312には、それぞれ複数のメッセージレコード500が格納される場合がある。
 図6は、本発明の実施例の運転支援装置103が保持するプライオリティ定義フラグの一例を示す説明図である。
 本実施例のプライオリティ定義フラグ600は、プライオリティ定義ファイル315に含まれる。プライオリティ定義フラグ600の値「0」は、走行環境に対応したメッセージが優先されることを、プライオリティ定義フラグ600の値「0」は、運転特性に対応したメッセージが優先されることを、それぞれ示す。
 プライオリティ定義フラグ600の値は、例えば指示センタ101の管理者によって、又は運転支援装置103のユーザによって、予め設定される。例えば、重要性が高いと判断された種類のメッセージについて、高い優先度を設定することができる。また、プライオリティ定義フラグ600の値は、運転支援装置103ごとに異なってもよい。例えば、指示センタ101の管理者は、運転の習熟度が低い運転者が使用する運転支援装置103については、運転特性に対応したメッセージが優先されることを示す値をプライオリティ定義フラグ600に設定してもよい。あるいは、指示センタ101の管理者は、劣悪な環境下を走行することが予定されている車両104の運転支援装置103については、走行環境に対応したメッセージが優先されることを示す値をプライオリティ定義フラグ600に設定してもよい。
 後述するように、このようにして設定されたプライオリティ定義フラグ600に従って、優先度の高い種類のメッセージを優先的に出力することによって、重要な情報を確実にユーザに伝えることができる。
 図7は、本発明の実施例の運転支援装置103の走行環境に対応したメッセージの送信部309の処理の一例を示すフローチャートである。
 最初に、走行環境に対応したメッセージの送信部309は、走行環境に対応したメッセージを作成して、作成したメッセージを新しいメッセージレコード500に代入する(ステップ701)。このメッセージの作成は、公知の技術など、任意の方法で行うことができるため、詳細な説明は省略する。
 例えば、走行環境に対応したメッセージの送信部309は、位置センサ306によって検出された車両104の現在地と、現在地から目的地までの経路とに基づいて、現在地またはこれから通過する地点の走行環境の情報を走行環境データベース317から検索し、その走行環境に対応するメッセージをメッセージデータベース319から取得して、それをメッセージレコード500に代入してもよい。
 具体的には、例えば、走行環境の情報として、進行方向に急な上り坂、急な下り坂又は急なカーブがあるといった、地形又は道路の形に関する情報が取得されてもよいし、進行方向に渋滞が発生している又は交通規制が行われているといった交通状況に関する情報が取得されてもよいし、降雨又は降雪が予想されるといった天候に関する情報が取得されてもよい。あるいは、過去の道路情報をもとに、事故、落下物、飛び出しなどの多発するような地点においては、かかるメッセージが取得されるようにしてもよい。あるいは、夜間の場合にはヘッドライトの点灯を促したり、制限速度や道路標識情報に関して注意喚起したりするようなメッセージを取得するようにしてもよい。走行環境に対応したメッセージの送信部309は、取得した情報を通知するためのメッセージを生成してもよいし、さらに、その情報に対応して車両104の運転に関する注意(例えば前方注意又は速度抑制など)を喚起するためのメッセージを生成してもよい。
 次に、走行環境に対応したメッセージの送信部309は、メッセージレコード500のメッセージ識別子501に、当該メッセージが走行環境に対応したメッセージであることを示す値(本実施例では「0」)を代入する(ステップ702)。
 次に、走行環境に対応したメッセージの送信部309は、メッセージレコード500のタイムスタンプ502に、当該メッセージを作成した時刻を代入する(ステップ703)。
 次に、走行環境に対応したメッセージの送信部309は、当該メッセージレコード500を走行環境向けメッセージキュー310の末尾にエンキューする(ステップ704)。
 次に、走行環境に対応したメッセージの送信部309は、走行環境向けメッセージキュー310の全てのメッセージレコード500から、タイムスタンプ502の値と現在時刻との差分が超過時間定義ファイル316に定義された時間を超えたメッセージレコード500を抽出する(ステップ705)。
 次に、走行環境に対応したメッセージの送信部309は、ステップ705において少なくとも一つのメッセージレコード500が抽出されたかを判定し(ステップ706)、抽出された場合(ステップ706:YES)、当該メッセージレコード500を走行環境向けメッセージキュー310から削除する(ステップ707)。一方、ステップ705においてメッセージレコード500が一つも抽出されなかった場合(ステップ706:NO)、ステップ707は実行されない。
 上記のステップ705からステップ707を実行することによって、古いメッセージレコード500が削除される。これによって、もはや出力する必要がなくなった古いメッセージの出力が防止される。
 なお、本実施例では上記のようにメッセージを削除するか否かの判断をメッセージが作成されてからの経過時間に基づいて行っているが、これはメッセージの削除の基準(削除条件)の一例であり、別の基準を用いてもよい。例えば、あるメッセージレコード500に含まれるメッセージ503が、急カーブ又は交通規制など、特定の地点に対応付けられている場合において、対応する地点を車両104が通過した後もまだ当該メッセージレコード500が出力されずに残っている場合には、当該メッセージレコード500を削除してもよい。あるいは、天候に関するメッセージレコード500については、それが出力される前に天候の予想が変化した場合に削除してもよい。
 このように、出力する必要があると判断されて生成されたメッセージであっても、その後の状況の変化によって出力する必要がないと判断が変更された場合には、そのメッセージを削除することで、不要なメッセージの出力による運転者の混乱を防止することができる。
 次に、走行環境に対応したメッセージの送信部309は、プライオリティ定義フラグ600が走行環境に対応したメッセージを優先することを示す値(本実施例では「0」)であるかを判定する(ステップ708)。プライオリティ定義フラグ600が走行環境に対応したメッセージを優先することを示す値である場合(ステップ708:YES)、走行環境に対応したメッセージの送信部309は、走行環境向けメッセージキュー310に格納された全てのメッセージレコード500を、エンキューされた順に全て音声生成部313に出力し、それらのメッセージレコード500を走行環境向けメッセージキュー310から削除する(ステップ709)。
 一方、プライオリティ定義フラグ600が走行環境に対応したメッセージを優先することを示す値でない場合(ステップ708:NO)、走行環境に対応したメッセージの送信部309は、走行環境向けメッセージキュー310の先頭のメッセージレコード500を音声生成部313に出力し、そのメッセージレコード500を走行環境向けメッセージキュー310から削除し(ステップ710)、所定の時間待機する(ステップ711)。これによって、走行環境向けメッセージキュー310に複数のメッセージレコード500が格納されている場合、次のメッセージレコード500は当該所定の時間出力されない。
 本実施例では、ステップ708においてプライオリティ定義フラグ600が走行環境に対応したメッセージを優先することを示す値でないと判定されたことは、運転特性に対応したメッセージが優先されることを意味する。この場合、ステップ711において走行環境に対応したメッセージの送信部309が待機している間に、運転特性に対応したメッセージの送信部311が運転特性に対応したメッセージを出力することができる。このとき、運転特性向けメッセージキュー312に複数のメッセージレコードが格納されている場合には、それらが全て出力される(後述する図8のステップ809参照)。これによって、プライオリティ定義フラグ600による定義に従って、運転特性に対応したメッセージが優先的に出力される。その結果、例えば短時間に多数のメッセージが生成された場合などに、重要なメッセージの出力に失敗することが防止される。
 走行環境に対応したメッセージの送信部309は、ステップ711で所定の時間待機した後、走行環境向けメッセージキュー310の全てのメッセージレコード500を出力したかを判定する(ステップ712)。まだ出力していないメッセージレコード500がある場合(ステップ712:NO)、処理はステップ710に戻る。
 ステップ709で全てのメッセージレコード500を出力した場合、及び、ステップ712で全てのメッセージレコード500を出力したと判定した場合(ステップ712:YES)、走行環境に対応したメッセージの送信部309は処理を終了する。
 図8は、本発明の実施例の運転支援装置103の運転特性に対応したメッセージの送信部311の処理の一例を示すフローチャートである。
 最初に、運転特性に対応したメッセージの送信部311は、運転特性に対応したメッセージを作成して、作成したメッセージを新しいメッセージレコード500に代入する(ステップ801)。このメッセージの作成は、公知の技術など、任意の方法で行うことができるため、詳細な説明は省略する。
 例えば、運転特性に対応したメッセージの送信部311は、運転特性データベース320から車両104の運転者の運転特性を示す情報を取得し、その運転特性に対応するメッセージをメッセージデータベース319から取得して、それをメッセージレコード500に代入してもよい。このとき、運転特性に対応したメッセージの送信部311は、位置センサ306によって検出された車両104の現在地と、現在地から目的地までの経路とに基づいて走行環境データベース317から検索された、現在地またはこれから通過する地点の走行環境の情報を利用してもよい。
 具体的には、例えば、運転特性データベース320から車両104の運転者の運転特性として車両104の速度を上げる傾向があるという情報が得られた場合において、車両104の位置及び目的地までの経路から進行方向に急カーブ又は長い下り坂等があることが特定された場合、運転特性に対応したメッセージの送信部311は、速度を抑えるように注意喚起するメッセージを生成してもよい。あるいは、運転時間の経過に従い集中力の低下や疲労の蓄積が生じる時間帯を予測し、注意喚起するメッセージを生成してもよい。更には、その日の運行計画に合わせて、時間あるいは拠点ごとに次の走行ルートを知らせるメッセージや、休憩の取得を促すようなメッセージを生成してもよい。
 次に、運転特性に対応したメッセージの送信部311は、メッセージレコード500のメッセージ識別子501に、当該メッセージが運転特性に対応したメッセージであることを示す値(本実施例では「1」)を代入する(ステップ802)。
 次に、運転特性に対応したメッセージの送信部311は、メッセージレコード500のタイムスタンプ502に、当該メッセージを作成した時刻を代入する(ステップ803)。
 次に、運転特性に対応したメッセージの送信部311は、当該メッセージレコード500を運転特性向けメッセージキュー312の末尾にエンキューする(ステップ804)。
 次に、運転特性に対応したメッセージの送信部311は、運転特性向けメッセージキュー312の全てのメッセージレコード500から、タイムスタンプ502の値と現在時刻との差分が超過時間定義ファイル316に定義された時間を超えたメッセージレコード500を抽出する(ステップ805)。
 次に、運転特性に対応したメッセージの送信部311は、ステップ805において少なくとも一つのメッセージレコード500が抽出されたかを判定し(ステップ806)、抽出された場合(ステップ806:YES)、当該メッセージレコード500を運転特性向けメッセージキュー312から削除する(ステップ807)。一方、ステップ805においてメッセージレコード500が一つも抽出されなかった場合(ステップ806:NO)、ステップ807は実行されない。
 上記のステップ805からステップ807を実行することによって、古いメッセージレコード500が削除される。これによって、もはや出力する必要がなくなった古いメッセージの出力が防止される。
 なお、経過時間以外の基準に基づいて出力する必要がないメッセージを抽出してもよいことは、走行環境向けメッセージキュー310からのメッセージレコード500の削除の場合と同様である。
 次に、運転特性に対応したメッセージの送信部311は、プライオリティ定義フラグ600が運転特性に対応したメッセージを優先することを示す値(本実施例では「1」)であるかを判定する(ステップ808)。プライオリティ定義フラグ600が運転特性に対応したメッセージを優先することを示す値である場合(ステップ808:YES)、運転特性に対応したメッセージの送信部311は、運転特性向けメッセージキュー312に格納された全てのメッセージレコード500を、エンキューされた順に全て音声生成部313に出力し、それらのメッセージレコード500を運転特性向けメッセージキュー312から削除する(ステップ809)。
 一方、プライオリティ定義フラグ600が運転特性に対応したメッセージを優先することを示す値でない場合(ステップ808:NO)、運転特性に対応したメッセージの送信部311は、運転特性向けメッセージキュー312の先頭のメッセージレコード500を音声生成部313に出力し、そのメッセージレコード500を運転特性向けメッセージキュー312から削除し(ステップ810)、所定の時間待機する(ステップ811)。これによって、運転特性向けメッセージキュー312に複数のメッセージレコード500が格納されている場合、次のメッセージレコード500は当該所定の時間出力されない。
 本実施例では、ステップ808においてプライオリティ定義フラグ600が運転特性に対応したメッセージを優先することを示す値でないと判定されたことは、走行環境に対応したメッセージが優先されることを意味する。この場合、ステップ811において運転特性に対応したメッセージの送信部311が待機している間に、走行環境に対応したメッセージの送信部309が走行環境に対応したメッセージを出力することができる。このとき、運転特性向けメッセージキュー312に複数のメッセージレコードが格納されている場合には、それらが全て出力される(図7のステップ709)。これによって、プライオリティ定義フラグ600の定義に従って、走行環境に対応したメッセージが優先的に出力される。その結果、例えば短時間に多数のメッセージが生成された場合などに、重要なメッセージの出力に失敗することが防止される。
 運転特性に対応したメッセージの送信部311は、ステップ811で所定の時間待機した後、運転特性向けメッセージキュー312の全てのメッセージレコード500を出力したかを判定する(ステップ812)。まだ出力していないメッセージレコード500がある場合(ステップ812:NO)、処理はステップ810に戻る。
 ステップ809で全てのメッセージレコード500を出力した場合、及び、ステップ812で全てのメッセージレコード500を出力したと判定した場合(ステップ812:YES)、運転特性に対応したメッセージの送信部311は処理を終了する。
 図9は、本発明の実施例の運転支援装置103の音声生成部313の処理の一例を示すフローチャートである。
 音声生成部313は、走行環境に対応したメッセージの送信部309又は運転特性に対応したメッセージの送信部311から出力されたメッセージレコード500を受け取ると、そのメッセージレコード500のメッセージ識別子501が「0」であるかを判定する(ステップ901)。
 メッセージ識別子501が「0」である場合(ステップ901:YES)、当該メッセージレコード500のメッセージ503は、走行環境に対応したメッセージである。この場合、音声生成部313は、女性の声でのメッセージの出力を依頼する(ステップ902)。具体的には、音声生成部313は、当該メッセージ503を女性の声で読み上げる音声データを生成して、それを音声出力部314に出力してもよい。音声出力部314は、当該音声データを使用して、当該メッセージ503を女性の声で読み上げる音声を音声出力装置304に出力させる。
 一方、メッセージ識別子501が「0」でない(すなわち「1」である)場合(ステップ901:NO)、当該メッセージレコード500のメッセージ503は、運転特性に対応したメッセージである。この場合、音声生成部313は、男性の声でのメッセージの出力を依頼する(ステップ903)。具体的には、音声生成部313は、当該メッセージ503を男性の声で読み上げる音声データを生成して、それを音声出力部314に出力してもよい。音声出力部314は、当該音声データを使用して、当該メッセージ503を男性の声で読み上げる音声を音声出力装置304に出力させる。
 なお、走行環境に対応したメッセージについては女性の声で読み上げる音声を生成し、運転特性に対応したメッセージについては男性の声で読み上げる音声を生成するのは、それらのメッセージを相違する態様で出力する方法の一例であり、別の方法でそれぞれのメッセージを出力すればよく、男女の相違が必須であることを意味するものではない。例えば、態様の相違は、メッセージの音声を発声する人物の相違、メッセージの音声の周波数の相違、メッセージの音声の調子の相違、メッセージに付加された音声の相違、及び、メッセージに付加された振動の相違の少なくともいずれかであってもよい。
 具体的には、例えば、音声生成部313は、走行環境に対応したメッセージと運転特性に対応したメッセージの両方を男性(又は女性)の声で読み上げる音声を生成してもよい。そのときに、読み上げる声の調子をメッセージの種類に応じて変更してもよい。例えば、音声生成部313は、走行環境に対応したメッセージを平静な調子の声で読み上げる音声を生成し、運転特性に対応したメッセージを強い調子の声で読み上げる音声を生成してもよい。更には、予め記録しておいた運転者の家族からのメッセージを生成するようにしてもよい。
 あるいは、一方の種類のメッセージを出力するときに、音声出力部314が警報音を追加して出力してもよいし、運転支援装置103がバイブレータ等(図示省略)を有している場合にはそれによる振動等を追加して出力してもよい。
 また、このようなメッセージを出力する態様を、メッセージの種類(すなわちそれが走行環境に対応するものか運転特性に対応するものか)ではなく、メッセージの優先度に基づいて決定してもよい。例えば、プライオリティ定義フラグ600が、走行環境に対応したメッセージを優先することを示す値である場合には、音声生成部313は走行環境に対応したメッセージを男性の声で読み上げる音声を生成し、運転特性に対応したメッセージを女性の声で読み上げる音声を生成してもよい。
 また、上記の実施例ではメッセージを音声として出力する例を示したが、画像出力装置305がメッセージを文字画像として出力してもよい。このとき、画像出力装置305は、メッセージの種類(すなわちそれが走行環境に対応するものか運転特性に対応するものか)に応じて、表示の態様、例えば文字の色、大きさ、書体、又は、付随的に表示する記号、写真若しくは図形等を変更してもよい。
 以上の本発明の実施例によれば、複数の種類のメッセージが混在して出力される場合であっても、出力されるメッセージの種類によって出力の態様を変更することによって、ユーザ(例えば車両104の運転者)が混乱せずにそれらのメッセージを受け取り、活用することができる。また、メッセージの種類に応じて優先度を設定し、それに従ってメッセージの出力を制御することで、多数のメッセージが短時間に出力される場合でも重要なメッセージを確実にユーザに伝えることができる。
 なお、上記の実施例では、指示センタ101が天候情報207及び交通情報208を保持し、必要に応じてそれらを運転支援装置103に送信しているが、指示センタ101はこれらの情報をネットワーク102に接続された外部のサーバ(例えば天候情報サーバ及び交通情報サーバ等、いずれも図示省略)から取得してもよい。あるいは、運転支援装置103が、指示センタ101を介さずに、ネットワーク102を介してそれらの外部のサーバから必要な情報を取得してもよい。これによって、最新の情報を走行環境情報として利用することができる。
 また、上記の実施例では、走行環境に対応したメッセージの送信部309、運転特性に対応したメッセージの送信部311及び音声生成部313が、運転支援システム100の一部である運転支援装置103に設けられる例を示したが、これらは運転支援システム100内の別の部分に設けられてもよい。例えばこれらの少なくとも一部が指示センタ101内に設けられてもよい。その場合、走行環境データベース317、地図データベース318、メッセージデータベース319及び運転特性データベース320も指示センタ101内に保持される。例えば、指示センタ101は、生成した音声データを運転支援装置103に送信し、運転支援装置103の音声出力部314が音声出力装置304に当該音声データに基づく音声を出力してもよい。
 ただし、走行環境に対応したメッセージの送信部309、運転特性に対応したメッセージの送信部311及び音声生成部313が運転支援装置103にあることによって、運転支援装置103からユーザ(例えば車両104の運転者)に対するメッセージの出力がネットワーク102の混雑等の影響を受けにくくなる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されるものではない。
 例えば、本実施例の走行環境データベース317に格納された情報及び運転特性データベース320に格納された情報は、2種類以上の運転を支援する情報の例であり、運転支援装置103は上記以外の運転を支援する情報を保持してもよい。その場合、運転支援装置103は、走行環境に対応したメッセージの送信部309及び運転特性に対応したメッセージの送信部311と同様に、それぞれの種類の情報に対応したメッセージの送信部を有し、それらがそれぞれの種類の情報に対応したメッセージを生成する。
 例えば、2種類以上の運転を支援する情報の一つは、例えば、車両104が周囲を撮影するカメラ等のセンサを有している場合に、そのセンサから得られた情報であってもよいし、別の一つは、指示センタ101又はその他の外部のサーバから提供された情報であってもよい。また、その例において、指示センタ101から提供された情報とその他の外部のサーバから提供された情報とが別の種類の情報として扱われてもよい。
 それぞれの種類の情報に対応するメッセージの送信部は、それぞれの種類の情報に対応するメッセージを生成する。音声生成部313は、それぞれの種類の情報に対応するメッセージを、相違する態様で出力するための音声データ(例えば、情報の種類ごとに、性別の異なる人物の声で発声する音声データ、又は、調子の異なる声で発声するデータなど)を生成し、音声出力部314が音声データに基づいて音声を出力する。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
 また、制御線及び情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。

Claims (15)

  1.  プロセッサと、記憶装置と、出力装置と、を有する運転支援システムであって、
     前記記憶装置は、車両の走行環境を示す走行環境情報と、前記車両の運転者の運転特性を示す運転特性情報と、を保持し、
     前記プロセッサは、
     前記走行環境情報に基づいて、前記車両の走行環境に対応したメッセージを生成し、
     前記運転特性情報に基づいて、前記車両の運転者の運転特性に対応したメッセージを生成し、
     前記出力装置は、前記走行環境に対応したメッセージと、前記運転特性に対応したメッセージとを、相違する態様で出力することを特徴とする運転支援システム。
  2.  請求項1に記載の運転支援システムであって、
     前記態様の相違は、メッセージの音声を発声する人物の相違、メッセージの音声の周波数の相違、メッセージの音声の調子の相違、メッセージに付加された音声の相違、及び、メッセージに付加された振動の相違の少なくともいずれかであることを特徴とする運転支援システム。
  3.  請求項2に記載の運転支援システムであって、
     前記プロセッサは、
     前記走行環境に対応したメッセージを、男性又は女性の一方の声による音声メッセージとして生成し、
     前記運転特性に対応したメッセージを、男性又は女性の他方の声による音声メッセージとして生成し、
     前記出力装置は、前記プロセッサによって生成された男性又は女性の声による音声メッセージを出力することによって、前記走行環境に対応したメッセージと、前記運転特性に対応したメッセージとを、相違する態様で出力することを特徴とする運転支援システム。
  4.  請求項1に記載の運転支援システムであって、
     前記記憶装置は、前記走行環境に対応したメッセージと前記運転特性に対応したメッセージとのいずれの優先度が高いかを示す優先度情報を保持し、
     前記プロセッサは、前記走行環境に対応したメッセージと前記運転特性に対応したメッセージとの両方を生成した場合、前記優先度情報に従って、優先度が高いメッセージを優先的に前記出力装置に出力させることを特徴とする運転支援システム。
  5.  請求項4に記載の運転支援システムであって、
     前記プロセッサは、
     前記走行環境に対応したメッセージを生成すると、それを前記記憶装置内の走行環境向けメッセージキューに格納し、
     前記走行環境向けメッセージキューに一つ以上の前記走行環境に対応したメッセージが格納されており、かつ、前記走行環境に対応したメッセージの優先度が高い場合、前記走行環境向けメッセージキューに格納された全ての前記走行環境に対応したメッセージを前記出力装置に出力させ、
     前記走行環境向けメッセージキューに一つ以上の前記走行環境に対応したメッセージが格納されており、かつ、前記走行環境に対応したメッセージの優先度が高い場合、前記走行環境向けメッセージキューに格納された最初の前記走行環境に対応したメッセージを前記出力装置に出力させた後、所定の時間、次の前記走行環境に対応したメッセージを前記出力装置に出力させず、
     前記運転特性に対応したメッセージを生成すると、それを前記記憶装置内の運転特性向けメッセージキューに格納し、
     前記運転特性向けメッセージキューに一つ以上の前記運転特性に対応したメッセージが格納されており、かつ、前記運転特性に対応したメッセージの優先度が高い場合、前記運転特性向けメッセージキューに格納された全ての前記運転特性に対応したメッセージを前記出力装置に出力させ、
     前記運転特性向けメッセージキューに一つ以上の前記運転特性に対応したメッセージが格納されており、かつ、前記運転特性に対応したメッセージの優先度が高い場合、前記運転特性向けメッセージキューに格納された最初の前記運転特性に対応したメッセージを前記出力装置に出力させた後、所定の時間、次の前記運転特性に対応したメッセージを前記出力装置に出力させないことを特徴とする運転支援システム。
  6.  請求項5に記載の運転支援システムであって、
     前記プロセッサは、前記走行環境向けメッセージキューに格納された前記走行環境に対応したメッセージ及び前記運転特性向けメッセージキューに格納された前記運転特性に対応したメッセージのうち、所定の削除条件を満たしたメッセージを削除することを特徴とする運転支援システム。
  7.  請求項1に記載の運転支援システムであって、
     ネットワークに接続される通信インターフェースをさらに有し、
     前記運転支援システムは前記車両に搭載され、
     前記走行環境情報は、前記ネットワークを介して取得した天候及び交通状況の少なくとも一方に関する情報を含むことを特徴とする運転支援システム。
  8.  プロセッサと、記憶装置と、出力装置と、を有する運転支援システムであって、
     前記記憶装置は、2種類以上の運転を支援する情報を保持し、
     前記プロセッサは、前記2種類以上の運転を支援する情報の各々に対応したメッセージを生成し、
     前記出力装置は、前記2種類以上の運転を支援する情報の各々に対応したメッセージを、前記情報の種類ごとに、相違する態様で出力することを特徴とする運転支援システム。
  9.  プロセッサと、記憶装置と、出力装置と、を有する運転支援システムが実行する運転支援方法であって、
     前記記憶装置は、車両の走行環境を示す走行環境情報と、前記車両の運転者の運転特性を示す運転特性情報と、を保持し、
     前記運転支援方法は、
     前記プロセッサが、前記走行環境情報に基づいて、前記車両の走行環境に対応したメッセージを生成する第1手順と、
     前記プロセッサが、前記運転特性情報に基づいて、前記車両の運転者の運転特性に対応したメッセージを生成する第2手順と、
     前記出力装置が、前記走行環境に対応したメッセージと、前記運転特性に対応したメッセージとを、相違する態様で出力する第3手順と、を含むことを特徴とする運転支援方法。
  10.  請求項9に記載の運転支援方法であって、
     前記態様の相違は、メッセージの音声を発声する人物の相違、メッセージの音声の周波数の相違、メッセージの音声の調子の相違、メッセージに付加された音声の相違、及び、メッセージに付加された振動の相違の少なくともいずれかであることを特徴とする運転支援方法。
  11.  請求項10に記載の運転支援方法であって、
     前記第1手順において、前記プロセッサは、前記走行環境に対応したメッセージを、男性又は女性の一方の声による音声メッセージとして生成し、
     前記第2手順において、前記プロセッサは、前記運転特性に対応したメッセージを、男性又は女性の他方の声による音声メッセージとして生成し、
     前記第3手順において、前記出力装置は、前記プロセッサによって生成された男性又は女性の声による音声メッセージを出力することを特徴とする運転支援方法。
  12.  請求項9に記載の運転支援方法であって、
     前記記憶装置は、前記走行環境に対応したメッセージと前記運転特性に対応したメッセージとのいずれの優先度が高いかを示す優先度情報を保持し、
     前記第1手順及び前記第2手順において、前記プロセッサは、前記走行環境に対応したメッセージと前記運転特性に対応したメッセージとの両方を生成した場合、前記優先度情報に従って、優先度が高いメッセージを優先的に前記出力装置に出力させることを特徴とする運転支援方法。
  13.  請求項12に記載の運転支援方法であって、
     前記第1手順において、前記プロセッサは、
     前記走行環境に対応したメッセージを生成すると、それを前記記憶装置内の走行環境向けメッセージキューに格納し、
     前記走行環境向けメッセージキューに一つ以上の前記走行環境に対応したメッセージが格納されており、かつ、前記走行環境に対応したメッセージの優先度が高い場合、前記走行環境向けメッセージキューに格納された全ての前記走行環境に対応したメッセージを前記出力装置に出力させ、
     前記走行環境向けメッセージキューに一つ以上の前記走行環境に対応したメッセージが格納されており、かつ、前記走行環境に対応したメッセージの優先度が高い場合、前記走行環境向けメッセージキューに格納された最初の前記走行環境に対応したメッセージを前記出力装置に出力させた後、所定の時間、次の前記走行環境に対応したメッセージを前記出力装置に出力させず、
     前記第2手順において、前記プロセッサは、
     前記運転特性に対応したメッセージを生成すると、それを前記記憶装置内の運転特性向けメッセージキューに格納し、
     前記運転特性向けメッセージキューに一つ以上の前記運転特性に対応したメッセージが格納されており、かつ、前記運転特性に対応したメッセージの優先度が高い場合、前記運転特性向けメッセージキューに格納された全ての前記運転特性に対応したメッセージを前記出力装置に出力させ、
     前記運転特性向けメッセージキューに一つ以上の前記運転特性に対応したメッセージが格納されており、かつ、前記運転特性に対応したメッセージの優先度が高い場合、前記運転特性向けメッセージキューに格納された最初の前記運転特性に対応したメッセージを前記出力装置に出力させた後、所定の時間、次の前記運転特性に対応したメッセージを前記出力装置に出力させないことを特徴とする運転支援方法。
  14.  請求項13に記載の運転支援方法であって、
     前記第1手順及び前記第2手順において、前記プロセッサは、前記走行環境向けメッセージキューに格納された前記走行環境に対応したメッセージ及び前記運転特性向けメッセージキューに格納された前記運転特性に対応したメッセージのうち、所定の削除条件を満たしたメッセージを削除することを特徴とする運転支援方法。
  15.  請求項9に記載の運転支援方法であって、
     前記運転支援システムは、
     ネットワークに接続される通信インターフェースをさらに有し、
     前記車両に搭載され、
     前記走行環境情報は、前記ネットワークを介して取得した天候又は交通状況の少なくとも一方に関する情報を含むことを特徴とする運転支援方法。
PCT/JP2020/003888 2019-02-18 2020-02-03 運転支援システム及び運転支援方法 WO2020170781A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080012963.7A CN113396449B (zh) 2019-02-18 2020-02-03 辅助驾驶***及辅助驾驶方法
US17/431,362 US20220135051A1 (en) 2019-02-18 2020-02-03 Driving assistance system and driving assistance method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019026229A JP7149874B2 (ja) 2019-02-18 2019-02-18 運転支援システム及び運転支援方法
JP2019-026229 2019-02-18

Publications (1)

Publication Number Publication Date
WO2020170781A1 true WO2020170781A1 (ja) 2020-08-27

Family

ID=72144693

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/003888 WO2020170781A1 (ja) 2019-02-18 2020-02-03 運転支援システム及び運転支援方法

Country Status (4)

Country Link
US (1) US20220135051A1 (ja)
JP (1) JP7149874B2 (ja)
CN (1) CN113396449B (ja)
WO (1) WO2020170781A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240194181A1 (en) * 2021-03-31 2024-06-13 Pioneer Corporation Non-transitory computer readable storage medium, information processing method, and application device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH098752A (ja) * 1995-06-26 1997-01-10 Matsushita Electric Ind Co Ltd 多重情報受信装置及びナビゲーション装置
JPH10104006A (ja) * 1996-09-30 1998-04-24 Mazda Motor Corp ナビゲーション装置
JP2002213986A (ja) * 2001-01-15 2002-07-31 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2003097954A (ja) * 2001-09-27 2003-04-03 Pioneer Electronic Corp ナビゲーション装置及びナビゲーション方法
JP2008143520A (ja) * 2007-12-17 2008-06-26 Fujitsu Ten Ltd 車載用表示装置
JP2010067234A (ja) * 2008-09-12 2010-03-25 Fujitsu Ten Ltd 運転支援装置および運転支援プログラム
JP2016022769A (ja) * 2014-07-16 2016-02-08 株式会社デンソー 車両用制御装置
JP2017049943A (ja) * 2015-09-04 2017-03-09 株式会社ユピテル 装置及びプログラム
JP2018055296A (ja) * 2016-09-28 2018-04-05 損害保険ジャパン日本興亜株式会社 情報処理装置、情報処理方法および情報処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6208932B1 (en) * 1996-09-30 2001-03-27 Mazda Motor Corporation Navigation apparatus
JP4076632B2 (ja) * 1998-08-25 2008-04-16 富士通テン株式会社 車載用表示装置
US6492901B1 (en) * 2000-05-10 2002-12-10 Westinghouse Electric Company Llc Alarm management system
KR20060040013A (ko) * 2004-11-04 2006-05-10 엘지전자 주식회사 네비게이션 시스템에서 주행경로를 음성으로 안내하는 방법
JP5681611B2 (ja) * 2011-11-09 2015-03-11 株式会社日立製作所 ナビゲーションシステム、ナビゲーション装置、方法及びサーバ
US9031781B2 (en) * 2013-05-09 2015-05-12 Telenav, Inc. Navigation system with priority notification mechanism
JP6411017B2 (ja) * 2013-09-27 2018-10-24 クラリオン株式会社 サーバ、及び、情報処理方法
JP6223581B2 (ja) * 2014-08-06 2017-11-01 三菱電機株式会社 警告通知システム、警告通知方法及びプログラム
JP6558735B2 (ja) * 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
CN107176161B (zh) * 2016-03-10 2021-11-23 松下电器(美国)知识产权公司 识别结果提示装置、识别结果提示方法以及自主移动体
US10900800B2 (en) * 2017-04-18 2021-01-26 Garmin Switzerland Gmbh Mobile application interface device for vehicle navigation assistance
US10461710B1 (en) * 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH098752A (ja) * 1995-06-26 1997-01-10 Matsushita Electric Ind Co Ltd 多重情報受信装置及びナビゲーション装置
JPH10104006A (ja) * 1996-09-30 1998-04-24 Mazda Motor Corp ナビゲーション装置
JP2002213986A (ja) * 2001-01-15 2002-07-31 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2003097954A (ja) * 2001-09-27 2003-04-03 Pioneer Electronic Corp ナビゲーション装置及びナビゲーション方法
JP2008143520A (ja) * 2007-12-17 2008-06-26 Fujitsu Ten Ltd 車載用表示装置
JP2010067234A (ja) * 2008-09-12 2010-03-25 Fujitsu Ten Ltd 運転支援装置および運転支援プログラム
JP2016022769A (ja) * 2014-07-16 2016-02-08 株式会社デンソー 車両用制御装置
JP2017049943A (ja) * 2015-09-04 2017-03-09 株式会社ユピテル 装置及びプログラム
JP2018055296A (ja) * 2016-09-28 2018-04-05 損害保険ジャパン日本興亜株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
CN113396449A (zh) 2021-09-14
JP7149874B2 (ja) 2022-10-07
US20220135051A1 (en) 2022-05-05
JP2020135258A (ja) 2020-08-31
CN113396449B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN107250729B (zh) 信息处理***、车载装置、及终端装置
CA2813529C (en) Vehicle navigation system and method
US10458809B2 (en) Cognitive parking guidance
JP6279287B2 (ja) 情報処理装置、プログラム及び交通情報の報知方法
EP2487461B1 (en) Vehicle navigation device and method
JP4957999B2 (ja) 電子メール受信装置及び電子メール送受信システム
CN106128138B (zh) 用于提供基于驾驶状况的资讯的方法和***
US10983987B2 (en) Navigation system with update mechanism and method of operation thereof
WO2020170781A1 (ja) 運転支援システム及び運転支援方法
JP4998321B2 (ja) 情報提供システムおよび車載器
JP6977569B2 (ja) 運転支援装置及び運転支援方法
JP2002507808A (ja) ナビゲーションシステム
JP2010092438A (ja) 車載装置および情報通知方法
JP6021331B2 (ja) カーナビゲーションシステム、カーナビゲーション方法、経路探索装置、プログラム、及び記録媒体
JP4443147B2 (ja) 広告配信システム
JP2004133543A (ja) クライアント/サーバ型車両情報通信システムのサーバ、車両のクライアント端末、及びこれらを用いるクライアント/サーバ型車両情報通信システム
WO2017122507A1 (ja) 通知制御装置、通知制御方法及び通知制御プログラム
WO2004008072A1 (ja) 車載用情報提供装置、車載用情報提供装置用プログラム、及び車載用情報提供装置用記録媒体
CN118089776B (zh) 一种待收件领取提示方法、装置和车辆
JP2017019349A (ja) 車載機器、情報システムおよび出力制御方法
JP6872052B2 (ja) 情報処理装置および情報処理方法
JP2004535574A (ja) デジタル道路地図上の属性に関するデータを出力する方法およびその装置
JP3972750B2 (ja) 運転支援装置
JP2018124097A (ja) 車載装置、情報提供方法、情報提供システム
US20230367453A1 (en) Information processing device and menu display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20760138

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20760138

Country of ref document: EP

Kind code of ref document: A1