WO2019087337A1 - 走行支援装置、走行支援システム、及び走行支援方法 - Google Patents

走行支援装置、走行支援システム、及び走行支援方法 Download PDF

Info

Publication number
WO2019087337A1
WO2019087337A1 PCT/JP2017/039594 JP2017039594W WO2019087337A1 WO 2019087337 A1 WO2019087337 A1 WO 2019087337A1 JP 2017039594 W JP2017039594 W JP 2017039594W WO 2019087337 A1 WO2019087337 A1 WO 2019087337A1
Authority
WO
WIPO (PCT)
Prior art keywords
point
information
oversight
unit
intersection
Prior art date
Application number
PCT/JP2017/039594
Other languages
English (en)
French (fr)
Inventor
博彬 柴田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2019550079A priority Critical patent/JP6903151B2/ja
Priority to PCT/JP2017/039594 priority patent/WO2019087337A1/ja
Publication of WO2019087337A1 publication Critical patent/WO2019087337A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a travel support device, a travel support system, and a travel support method for supporting the travel of a vehicle.
  • the travel information providing device calculates a gaze frequency at which the driver's gaze direction coincides with the gaze required direction to be checked safely during driving, based on the gaze frequency.
  • the notification level of the information to be notified to the driver is determined.
  • the travel information providing device considers a visual field range that can be viewed at a high resolution close to the visual acuity measured by a visual acuity test and a visual field range that can grasp the shape of a rough object. Then, the visibility is calculated, and the notification level of the information to be notified to the driver is determined based on the visibility.
  • Patent 2929927 gazette Patent No. 5171629
  • the gaze target is abstract like "right rear direction” or “room mirror direction”, and the gaze required direction is the same for all drivers. There was a problem called. In addition, there is a problem that information is not presented to the driver when there is no gaze object around the vehicle.
  • the present invention has been made to solve the problems as described above, and it is an object of the present invention to present a point to be preferentially viewed by each driver.
  • the travel support apparatus includes the vehicle position acquisition unit for acquiring position information of the vehicle, and the visual point storage unit for storing information of a visual recognition point representing a point to be visually recognized by the driver at the intersection.
  • a visual point detection unit for acquiring information of a visual recognition point at an intersection where the vehicle travels based on position information acquired by the acquisition unit, a visual line detection unit for detecting visual line information of a driver of the vehicle, and detection by the visual line detection unit
  • a collection unit and an information presentation unit that presents the oversight points collected by the oversight point collection unit when the vehicle travels at an intersection.
  • the visual point when there is an overlooked visual point at an intersection where the driver has traveled in the past, the visual point is presented as a overlooked point at the time of the next traveling. It is possible to show the point where it should be.
  • FIG. 1 is a block diagram showing a configuration example of a driving support device according to a first embodiment.
  • FIG. 7 is a diagram showing an example of a positional relationship between an intersection and a visual recognition point in the first embodiment.
  • 5 is a flowchart showing an example of collection of oversighted points in the driving support apparatus according to the first embodiment.
  • 5 is a flowchart showing an example of presentation of an oversight point in the driving support apparatus according to the first embodiment.
  • FIG. 7 is a block diagram showing an example of configuration of a driving support system according to a second embodiment. It is a flowchart which shows the example of a collection of the oversight point in the driving assistance system which concerns on Embodiment 2.
  • FIG. 1 is a block diagram showing a configuration example of a driving support device according to a first embodiment.
  • FIG. 7 is a diagram showing an example of a positional relationship between an intersection and a visual recognition point in the first embodiment.
  • 5 is a flowchart showing an example of collection of oversighted points
  • FIG. 13 is a block diagram showing an example of configuration of a driving support system according to a third embodiment.
  • FIG. 17 is a diagram showing an example of information given to information of an oversighted point in the driving assistance apparatus in accordance with the third embodiment.
  • FIG. 17 is a diagram showing an example of a positional relationship between an intersection and a visual recognition point in a fourth embodiment.
  • FIG. 18 is a diagram for explaining an example of overlooked points classified based on the presence or absence of a visual recognition in the fourth embodiment.
  • FIG. 21 is a diagram showing an example of a positional relationship between an intersection and a visual recognition point in the fifth embodiment.
  • FIG. 18 is a diagram for explaining an example of overlooked points classified based on the order of visual recognition in the fifth embodiment. It is a figure explaining the shape of the intersection in Embodiment 6.
  • FIG. FIG. 21 is a block diagram showing an example of configuration of a driving support system according to a seventh embodiment.
  • FIG. 16A and FIG. 16B are diagrams showing an example of a hardware configuration of the driving support apparatus according to each embodiment.
  • FIG. 17A and FIG. 17B are diagrams showing an example of the hardware configuration of the server apparatus according to each embodiment.
  • FIG. 1 is a block diagram showing a configuration example of a driving support device 10 according to a first embodiment.
  • the travel support device 10 is mounted on a vehicle.
  • the travel support device 10 is connected to the navigation device 1 mounted on the same vehicle.
  • the driving support device 10 includes a vehicle position acquisition unit 11, a sight point storage unit 12, a sight point acquisition unit 13, a sight line detection unit 14, an oversight point collection unit 15, an oversight point storage unit 16, an information presentation unit 17, and a control unit 18. Equipped with The sight point storage unit 12 and the oversight point storage unit 16 may be included in the travel support device 10 or may be included in devices other than the travel support device 10.
  • the vehicle position acquisition unit 11 acquires position information of the vehicle and outputs the position information to the control unit 18.
  • the vehicle position acquisition unit 11 may calculate position information using, for example, a GPS signal received by a GPS (Global Positioning System) receiver, may acquire position information from a mobile base station, or wireless
  • the position information may be acquired from an access point of a LAN (Local Area Network).
  • the visual point storage unit 12 stores, for each intersection, information of a visual point indicating a point that the driver should visually recognize at the intersection.
  • FIG. 2 is a diagram showing an example of the positional relationship between the intersection 101 and the visual points 111 to 115 in the first embodiment.
  • sight points 111 to 115 when the vehicle 100 turns right at the intersection 101 are indicated by asterisks (*).
  • FIG. 2 is an example of the visual recognition spot at the time of right turn, and the visual recognition spot at the time of left turn and the number of points differ.
  • the number of sight points and the number of spots may be different depending on the shape of the intersection 101, for example, the number of lanes, the road width, or the presence or absence of the right turn lane.
  • the sighted point storage unit 12 may store position information of an intersection and information indicating a sighted point, or even store map information including position information of an intersection and information indicating a sighted point. Good.
  • the visual point acquisition unit 13 acquires position information of the vehicle from the vehicle position acquisition unit 11 via the control unit 18.
  • the sight point acquisition unit 13 acquires information on the sight point at the intersection where the vehicle travels based on the position information of the vehicle from the sight point storage unit 12 and outputs the acquired information on the sight point to the control unit 18.
  • the line-of-sight detection unit 14 detects the line-of-sight direction of the driver of the vehicle or whether the vehicle is in focus or the like, and outputs line-of-sight information indicating the line-of-sight direction or the like to the control unit 18.
  • the gaze detection unit 14 includes, for example, a camera, and processes an image of a driver captured by the camera to detect a gaze direction and the like.
  • the overlook point collection unit 15 acquires line-of-sight information from the line-of-sight detection unit 14 via the control unit 18, and acquires information of a visual recognition point from the visual recognition point acquisition unit 13.
  • the oversight point collection unit 15 determines whether or not the driver has visually recognized the sight point when traveling the intersection, based on the driver's gaze direction, the time when the focus is achieved, and the like.
  • the oversight point collection unit 15 collects all the one or more sighting points at the intersection as a sighting point when the driver overlooks at least one sight point of the one or more sighting points at the intersection.
  • the oversight point collection unit 15 causes the oversight point storage unit 16 to store information on the oversight points at this intersection.
  • the oversight point storage unit 16 stores, for each intersection, the information on the oversight points collected by the oversight point collection unit 15.
  • the information presentation unit 17 acquires position information from the vehicle position acquisition unit 11 via the control unit 18.
  • the information presentation unit 17 refers to the oversight point storage unit 16 to acquire information on the oversight points at the intersection that matches the position information.
  • the information presentation unit 17 outputs the information of the overlooked point to the navigation device 1 via the control unit 18.
  • the control unit 18 controls transmission and reception of information among the vehicle position acquisition unit 11, the sight point acquisition unit 13, the sight line detection unit 14, the oversight point collection unit 15, the information presentation unit 17, and the navigation device 1.
  • the navigation device 1 presents the driver with the information of the overlooked point received from the driving support device 10.
  • the information presentation part 17 of the driving assistance device 10 in FIG. 1 is a structure which performs information presentation using the navigation apparatus 1, an instrument panel, a head-up display, a vehicle-mounted terminal, a voice output device, or a road surface irradiation apparatus
  • the configuration may be such that the information is presented using the like. The method of presenting the information of the overlooked point will be described later.
  • FIG. 3 is a flowchart showing an example of collection of overlooked points in the driving support device 10 according to the first embodiment.
  • the travel support device 10 repeats the operation shown in the flowchart of FIG. 3 while the vehicle 100 is traveling.
  • the description of the operation of the control unit 18 is omitted in FIG. 3 and FIG. 4 described later.
  • step ST11 the vehicle position acquisition unit 11 acquires position information of the vehicle.
  • step ST12 the sighted point acquisition unit 13 refers to the position information of the intersection stored in the sighted point storage unit 12, and based on the position information of the vehicle acquired by the vehicle position acquisition unit 11, the vehicle It is determined whether it is approaching. If the vehicle is approaching an intersection (step ST12 “YES”), the sighted point acquisition unit 13 proceeds to step ST13, and otherwise returns to step ST11 (step ST12 “NO”). In addition to the position information of the vehicle, the sighted point acquisition unit 13 may estimate an intersection at which the vehicle is approaching using information such as a planned travel route or traveling history set in the navigation device 1. .
  • step ST13 the sighted point acquisition unit 13 acquires, from the sighted point storage unit 12, the information on the sighted point at the intersection where the vehicle is approaching.
  • step ST14 the sight line detection unit 14 detects the sight line information of the driver of the vehicle.
  • step ST15 the oversight point collection unit 15 detects the intersection of the driver based on the driver's line-of-sight information detected by the line-of-sight detection unit 14 and the information on the intersection visual point acquired by the visual point acquisition unit 13. It is determined whether or not the visual point has been visually recognized when traveling on the road. If there is one or more sighting points that the driver did not see among the one or more sighting points at the intersection (step ST15 “YES”), the overlooked spot collection unit 15 proceeds to step ST16 and the driver is all If the user visually recognizes the visual recognition point of (step ST15 “NO”), the operation shown in the flowchart of FIG. 3 is ended.
  • step ST16 when there are one or more sighting points that the driver did not see among the one or more sighting points at the intersection, the oversight point collecting unit 15 sets all sighting points at this intersection as a sighting point collect.
  • the oversight point collection unit 15 stores the position information of the intersection and the information of the oversight point in the oversight point storage unit 16.
  • FIG. 4 is a flowchart showing an example of presentation of an oversight point in the driving support device 10 according to the first embodiment. While the vehicle 100 is traveling, the driving assistance apparatus 10 repeats the operation shown in the flowchart of FIG. 4 in parallel with repeating the operation shown in the flowchart of FIG. 3.
  • step ST21 the vehicle position acquisition unit 11 acquires position information of the vehicle.
  • the information presenting unit 17 refers to the position information of the intersection stored in the oversight point storage unit 16 and based on the position information of the vehicle acquired by the vehicle position acquiring unit 11, the vehicle approaches the intersection It is determined whether the If the vehicle is approaching an intersection (step ST22 “YES”), the information presentation unit 17 proceeds to step ST23, and otherwise returns to step ST21 (step ST22 “NO”). Note that the information presentation unit 17 may estimate an intersection at which the vehicle is approaching, using information such as a planned travel route or traveling history set in the navigation device 1 in addition to position information of the vehicle.
  • step ST23 the information presenting unit 17 acquires, from the oversight point storage unit 16, information on oversight points at the intersection where the vehicle is approaching.
  • step ST24 the information presenting unit 17 outputs the information of the overlooked spot acquired from the overlooked spot storage unit 16 to the navigation device 1, and causes the navigation device 1 to start presenting the overlooked spot.
  • step ST25 the information presentation unit 17 instructs the sighted point acquisition unit 13 to determine whether or not the overlooked point is visually recognized.
  • the visual point acquisition unit 13 that has received this instruction acquires, from the visual line detection unit 14, the visual line information of the driver when traveling on the intersection.
  • the sighted point acquisition unit 13 is based on the driver's line of sight information detected by the sight line detection unit 14 and the information on the overlooked point of the intersection acquired from the overlooked point storage unit 16 by the information presentation unit 17. It is determined whether or not all the overlooked points have been visually recognized when traveling at the intersection. Further, based on the position information of the vehicle acquired by the vehicle position acquisition unit 11, the sighted point acquisition unit 13 determines whether the vehicle has finished traveling at the intersection. When the driver visually recognizes all overlooked points at the intersection, and when the vehicle has finished traveling the intersection (step ST 25 “YES”), the visual point acquisition unit 13 proceeds to step ST 26, and in the other cases ( Step ST25 “NO”) Return to step ST25.
  • step ST26 the information presentation unit 17 instructs the navigation device 1 to end the presentation of the oversight point.
  • the information presentation part 17 may complete
  • the presentation of points may be ended.
  • the navigation device 1 displays the information of the overlooked point on the display according to the instruction from the control unit 18. For example, as shown in FIG. 2, the navigation device 1 displays a screen in which a figure such as a star mark indicating a missed spot is superimposed on an intersection on a map. Also, for example, the navigation device 1 may display the direction of the oversight point on the display. In addition, the navigation device 1 may output, from the speaker, a voice that explains an overlooked point such as “front right”. In addition, the navigation device 1 may prompt the driver to visually recognize an overlooked point by outputting a notification sound from the speaker.
  • the information presenting unit 17 causes the display of the navigation device 1 to display a screen representing the oversight point, but the method of presenting the oversight point is not limited to this.
  • the information presentation unit 17 may cause the display of the instrument panel to display a screen representing an overlooked point.
  • the information presenting unit 17 may cause the head-up display to project a figure or the like representing the oversight point so that a figure or the like representing the oversight point overlaps the actual landscape.
  • the information presentation unit 17 may cause the on-vehicle terminal other than the navigation device 1, the instrument panel, and the head-up display to present an oversight point.
  • the information presentation unit 17 may emit light emitted from the road surface irradiation device installed outside the vehicle to the road surface corresponding to the oversight point at the intersection.
  • the information presentation unit 17 may cause a voice output device installed in the vehicle or brought into the vehicle to output a voice or notification sound that explains the oversight point.
  • the information presentation unit 17 causes the driver to output voice or notification sound from the voice output device close to the overlooked point toward the driver.
  • the direction of the oversight point may be intuitively understood.
  • the driving support apparatus 10 includes the vehicle position acquisition unit 11, the sight point acquisition unit 13, the sight line detection unit 14, the oversight point collection unit 15, and the information presentation unit 17.
  • the vehicle position acquisition unit 11 acquires position information of a vehicle on which the travel support device 10 is mounted.
  • the visual point acquisition unit 13 is based on the position information acquired by the vehicle position acquisition unit 11 from the visual point storage unit 12 that stores information of a visual recognition point representing a point to be visually recognized by the driver at an intersection. Acquires information on the sighting point at a traveling intersection.
  • the gaze detection unit 14 detects gaze information of the driver of the vehicle.
  • the oversight point collection unit 15 overlooks when the driver travels an intersection based on the driver's line-of-sight information detected by the line-of-sight detection unit 14 and the information on the intersection visual point acquired by the visual point acquisition unit 13 Determine the point of view and collect as an oversight point.
  • the information presentation unit 17 presents the oversight points collected by the oversight point collection unit 15 when the vehicle travels at the intersection.
  • the driving support device 10 gives priority to visual recognition for each driver in order to present the visual spot as the overlooked spot at the next traveling. It is possible to show the point to be done.
  • the information presentation unit 17 uses the at least one of the navigation device 1, the instrument panel, the head-up display, the on-vehicle terminal, the voice output device, or the road surface illumination device Present the oversight points already collected by 15.
  • the driving support apparatus 10 can present the overlooked spot to the driver in an easy-to-understand manner at the next traveling when there is an overlooked visual spot at the intersection where the driver traveled in the past.
  • the information presentation part 17 uses a road surface irradiation apparatus, the point which a driver
  • FIG. 5 is a block diagram showing a configuration example of a driving support system according to a second embodiment.
  • the driving support system according to the second embodiment includes a driving support device 10 mounted on a vehicle and a server device 50 built outside the vehicle.
  • a driving support device 10 mounted on a vehicle and a server device 50 built outside the vehicle.
  • the present invention is not limited to this, and it is mounted in a plurality of vehicles.
  • a plurality of driving support devices 10 are connected.
  • the travel support device 10 includes a vehicle position acquisition unit 11, a sight point acquisition unit 13, a sight line detection unit 14, an oversight point collection unit 15, an information presentation unit 17, a control unit 18, and a communication unit 19.
  • the communication unit 19 communicates with the server device 50 via a wireless LAN or a mobile communication network such as 3G or 4G.
  • the visual point acquisition unit 13 acquires information on a visual point from the visual point storage unit 52 of the server device 50 via the control unit 18 and the communication unit 19.
  • the oversight point collection unit 15 of the second embodiment stores the collected oversight point information in the oversight point storage unit 56 of the server device 50 via the control unit 18 and the communication unit 19.
  • the server device 50 includes a sight point storage unit 52, an oversight point storage unit 56, a control unit 58, and a communication unit 59.
  • the visual point storage unit 52 stores, for each intersection, information on a visual point indicating a point that the driver should visually recognize at the intersection.
  • the oversight point storage unit 56 stores information of oversight points for each intersection.
  • the control unit 58 controls exchange of information among the sight point storage unit 52, the oversight point storage unit 56, and the communication unit 59.
  • the communication unit 59 communicates with the driving support apparatus 10 via a wireless LAN or a mobile communication network such as 3G or 4G.
  • FIG. 6 is a flowchart showing an example of collection of oversighted points in the driving support system according to the second embodiment. Steps ST11, ST14, and ST15 in FIG. 6 are the same as steps ST11, ST14, and ST15 in FIG.
  • step ST12A the sighted point acquisition unit 13 refers to the map information held by the navigation device 1 via the control unit 18, and based on the vehicle position information acquired by the vehicle position acquisition unit 11, Determines whether the vehicle is approaching an intersection. If the vehicle is approaching an intersection (step ST12A “YES”), the sighted point acquisition unit 13 proceeds to step ST13A, and otherwise returns to step ST11 (step ST12A “NO”). As in the first embodiment, in addition to the position information of the vehicle, the sighted point acquisition unit 13 uses the information such as the planned travel route or the travel history set in the navigation device 1 so that the vehicle approaches. You may guess an intersection.
  • step ST13A the sighted point acquisition unit 13 transmits a transmission request for requesting transmission of information on the sighted point at the intersection where the vehicle is approaching, from the communication unit 19 to the server device 50 via the control unit 18.
  • the control unit 58 acquires, from the visible point storage unit 52, information on the visible point at the intersection where the vehicle is approaching.
  • the information of the visual recognition point acquired by the control unit 58 is transmitted from the communication unit 59 to the travel support device 10, received by the communication unit 19, and passed to the visual recognition point acquisition unit 13 via the control unit 18.
  • step ST16A when there are one or more sighting points that the driver did not see among the one or more sighting points at the intersection, the oversight point collecting unit 15 sets all sighting points at this intersection as a sighting point collect.
  • the oversight point collection unit 15 transmits the position information of the intersection and the information of the oversight point from the communication unit 19 to the server device 50 via the control unit 18.
  • the control unit 58 stores the position information of the intersection and the information of the oversight point in the oversight point storage unit 56.
  • FIG. 7 is a flowchart showing an example of presentation of an oversight point in the driving support system according to the second embodiment. Steps ST21, ST24, ST25, and ST26 in FIG. 7 are the same as steps ST21, ST24, ST25, and ST26 in FIG.
  • step ST22A the information presentation unit 17 refers to the map information held by the navigation device 1 via the control unit 18, and based on the position information of the vehicle acquired by the vehicle position acquisition unit 11, the vehicle Determine whether you are approaching an intersection. If the vehicle is approaching an intersection (step ST22A “YES”), the information presentation unit 17 proceeds to step ST23A, and otherwise returns to step ST21 (step ST22A “NO”). In addition to the position information of the vehicle, the information presenting unit 17 approaches the vehicle using information such as a planned travel route or travel history set in the navigation device 1 as in the first embodiment. You may guess the intersection.
  • the information presenting unit 17 transmits a transmission request for requesting transmission of information on an oversighted point at an intersection where a vehicle is approaching, from the communication unit 19 to the server device 50 via the control unit 18.
  • the control unit 58 refers to the position information stored in the oversight point storage unit 56, and overlooks at the intersection where the vehicle is approaching. Information on the point is acquired from the oversight point storage unit 56.
  • the information of the visual recognition point acquired by the control unit 58 is transmitted from the communication unit 59 to the travel support device 10, received by the communication unit 19, and passed to the information presentation unit 17 via the control unit 18.
  • the information presentation unit 17 of the driving support device 10 causes the navigation device 1 to perform presentation using the information of the overlooked point acquired from the server device 50.
  • the driving support system includes the driving support device 10 and the server device 50.
  • the server device 50 includes a communication unit 59 and an oversight point storage unit 56.
  • the communication unit 59 receives from the driving support apparatus 10 the oversight points collected by the driving support apparatus 10.
  • the oversight point storage unit 56 classifies and stores the oversight points received from the driving assistance device 10 based on predetermined conditions.
  • the driving support device 10 includes the communication unit 19 that receives the oversight points stored in the oversight point storage unit 56 of the server device 50 from the server device 50. And the information presentation part 17 of the driving assistance device 10 presents the overlooked point received from the server apparatus 50, when a vehicle drive
  • the driving support apparatus 10 can present the visual spot as a overlooked spot at the next traveling.
  • the travel support device 10 travels at an intersection where a driver has not traveled in the past. It is possible to present easily overlooked points by referring to information on overlooked points of other drivers.
  • FIG. 8 is a block diagram showing a configuration example of a driving support system according to a third embodiment.
  • the oversight points are classified based on at least one of the driver's condition, driving skill, gender, and age.
  • the driving support device 10 includes a driver state determination unit 20.
  • the driver state determination unit 20 determines the state of the driver while the vehicle is traveling. For example, based on the sight line information detected by the sight line detection unit 14, the driver state determination unit 20 determines whether the driver is in a normal state, in a state of looking aside or in a state of dozing. Determine if distracted or not.
  • the driver state determination unit 20 outputs information on the determined driver state to the control unit 18.
  • the driver operates, for example, an input device (not shown) to input at least one of driving skill, gender, and age into the control unit 18 of the driving support device 10.
  • the overlook point collection unit 15 acquires, via the control unit 18, at least one information of the driver's driving skill, gender, or age, which is input from an input device or the like (not shown).
  • the navigation device 1 may be used as the input device.
  • the collection example of the oversight points in the driving support system of the third embodiment is basically the same as the operation of the flowchart shown in FIG. 6 of the second embodiment.
  • the operations of the third embodiment only operations different from those of the second embodiment will be extracted and described.
  • FIG. 9 is a diagram showing an example of the information given to the information of the overlooked point in the driving support device 10 according to the third embodiment.
  • the oversight point collection unit 15 adds at least one of driver status, driving skill, gender, and age to the position information of the intersection and the information of the oversight point, and the control unit 18 and the communication unit 19 To the server device 50 via.
  • the control unit 58 of the server device 50 receives at least one of the driver's state, the driving skill, the gender, and the age from the oversight point collecting unit 15 of the driving support apparatus 10 via the communication unit 59. Receive location information of intersections and information of oversighted points. The control unit 58 classifies the information of the oversight point at the intersection based on at least one of the driver state, the driving skill, the gender, and the age added to the information of the oversight point, and stores the oversight point It makes part 56 memorize.
  • the presentation example of the oversight point in the driving support system of the third embodiment is basically the same as the operation of the flowchart shown in FIG. 7 of the second embodiment.
  • the operations of the third embodiment only operations different from those of the second embodiment will be extracted and described.
  • step ST23A shown in the flowchart of FIG. 7 the information presentation unit 17 of the driving assistance apparatus 10 sends a transmission request for requesting transmission of information on an overlooked point at an intersection where the vehicle is approaching via the control unit 18
  • the communication unit 19 transmits the data to the server device 50.
  • the information presentation unit 17 acquires at least one of the driver's condition, the driving skill, the gender, and the age via the control unit 18 and includes the information in the transmission request.
  • the control unit 58 acquires information on the oversight point at the intersection where the vehicle is approaching from the oversight point storage unit 56. Furthermore, among the information on the oversight points acquired from the oversight point storage unit 56, the control unit 58 matches information corresponding to at least one of the driver state, the driving skill, the gender, and the age included in the transmission request. Select the given oversight point information. In addition, the control unit 58 is an overlooked spot to which information matching the information on the driver's condition, the driving skill, the gender, and the age included in the transmission request is added among the information on the overlooked spot acquired from the overlooked spot storage unit 56. Of the driver's condition, the driving skill, the gender, and the age included in the transmission request may be selected. The control unit 58 transmits information on the selected oversight point to the driving assistance apparatus 10 via the control unit 58 and the communication unit 59.
  • the oversight points stored in the oversight point storage unit 56 of the third embodiment are classified based on at least one of the driver's state, driving skill, gender, and age.
  • the driving support device 10 has the same driver attributes such as the driver's condition, driving skill, gender, or age. Give priority to information on missed spots in This makes it possible to present a more accurate oversight point, that is, an oversight point that is likely to be overlooked by the driver of the vehicle.
  • the oversight point collection unit 15 may not collect oversight points when the driver is in a non-normal state.
  • the information presenting unit 17 may not present the oversight points collected when the driver is in an unusual state.
  • the information on the oversight points stored in the oversight point storage unit 56 of the server device 50 is classified based on at least one of the driver state, the driving skill, the gender, and the age.
  • the information of the overlooked point stored in the overlooked point storage unit 16 of the driving support device 10 according to the first embodiment is classified based on at least one of the driver state, the driving skill, the gender, or the age. It may be done.
  • the configuration of the driving support system according to the fourth embodiment is the same as the configuration shown in FIG. 5 of the second embodiment in the drawings, so FIG. 5 will be used hereinafter.
  • the oversight points are classified based on whether or not the driver visually recognizes the sight point when traveling at an intersection.
  • FIG. 10 is a diagram showing an example of the positional relationship between the intersection 101 and the sight points 121 to 125 in the fourth embodiment.
  • the visual point 121 is a star (*)
  • the visual point 122 is a circle (O)
  • the visual point 123 is a double circle (A)
  • the visual point 124 is a square ( ⁇ )
  • the visual point 125 is It is indicated by a triangle (().
  • the collection example of the oversight points in the driving support system of the fourth embodiment is basically the same as the operation of the flowchart shown in FIG. 6 of the second embodiment.
  • the operations of the fourth embodiment only operations different from those of the second embodiment will be extracted and described.
  • FIG. 11 is a diagram for explaining an example of overlooked points classified based on the presence or absence of visual recognition in the fourth embodiment.
  • the oversight point collection unit 15 transmits the position information of the intersection and the information indicating the presence or absence of visual recognition for each oversight point to the server device 50 via the control unit 18 and the communication unit 19.
  • the control unit 58 of the server device 50 receives, from the oversight point collection unit 15 of the travel support device 10 via the communication unit 59, the position information of the intersection and information indicating the presence or absence of visibility for each oversight point.
  • the control unit 58 classifies the information of the oversight point at the intersection based on the presence or absence of the visual recognition as shown in FIG. 11 and stores the information in the oversight point storage unit 56.
  • the presentation example of the oversight point in the driving support system of the fourth embodiment is basically the same as the operation of the flowchart shown in FIG. 7 of the second embodiment.
  • the operations of the fourth embodiment only operations different from the operations of the second embodiment will be extracted and described.
  • step ST23A shown in the flowchart of FIG. 7 when the communication unit 59 of the server device 50 receives a transmission request from the driving assistance apparatus 10, the control unit 58 determines whether or not the vehicle is approaching for each overlooked point at an intersection Is obtained from the oversight point storage unit 56. The control unit 58 transmits the acquired information indicating the presence or absence of visual recognition for each overlooked point to the driving assistance device 10 via the control unit 58 and the communication unit 59.
  • the information presenting unit 17 distinguishes and presents the display modes of the already overlooked overlooked point and the unobserved overlooked point based on the information indicating the presence or absence of visibility for each overlooked point received from the driving support device 10.
  • the navigation device 1 displays these sight points 121 to 125 as oversight points, for example, so as to emphasize the unviewed sight points 123 over the sight points 121, 122, 124, and 125 already viewed in FIG. indicate.
  • the navigation device 1 makes the color or the size of the unrecognized visual point 123 more prominent than the visual points 121, 122, 124, and 125 which have already been visually recognized.
  • the navigation apparatus 1 may emphasize by outputting the audio
  • the oversight points stored in the oversight point storage unit 56 of the fourth embodiment are classified based on whether or not the driver visually recognizes the visual recognition point when traveling at the intersection. Since information is stored in the oversight point storage unit 56 including the presence / absence of visual recognition as well as whether there is simply an oversight, the driving support apparatus 10 can pinpoint a point overlooked when presenting an oversight point with pinpoint it can.
  • the information on the oversight points stored in the oversight point storage unit 56 of the server device 50 is classified based on the presence or absence of visual recognition at the time of intersection traveling, but the present invention is not limited thereto.
  • the information of the oversight points stored in the oversight point storage unit 16 of the travel support device 10 according to the first embodiment may be classified by the oversight point collection unit 15 based on the presence or absence of visibility during intersection travel.
  • the information on the oversight points stored in the oversight point storage unit 56 or the oversight point storage unit 16 is at least one of driver status, driving skill, gender, and age, in addition to the visual presence or absence at intersection traveling. It may be classified based on
  • Embodiment 5 The configuration of the driving support system according to the fifth embodiment is the same as the configuration shown in FIG. 5 of the second embodiment in the drawings, so FIG. 5 will be used hereinafter.
  • an oversight point is configured to be classified based on the order in which one or more sighting points at the intersection are visually recognized when the driver travels the intersection.
  • FIG. 12 is a diagram showing an example of the positional relationship between the intersection 101 and the sight points 131 to 135 in the fifth embodiment.
  • the sight points 131 to 135 at the intersection 101 shown in FIG. 12 are stored in the sight point storage unit 52 of the server device 50 together with the order to be visually recognized when the driver travels the intersection.
  • the order to be visually recognized is the order of the visual point 131, the visual point 132, the visual point 135, the visual point 133, and the visual point 134.
  • the collection example of the oversight points in the driving support system of the fifth embodiment is basically the same as the operation of the flowchart shown in FIG. 6 of the second embodiment.
  • the operations of the fifth embodiment only operations different from those of the second embodiment will be extracted and described.
  • step ST15 shown in the flowchart of FIG. 6 the oversight point collection unit 15 determines the sight points in the order in which the driver should visually check based on the information indicating the turn to be seen of the sight points of the intersection acquired in step ST13A. It is determined whether or not it has been viewed.
  • the oversight point collection unit 15 detects one or more sight points that the driver did not see among the one or more sight points at the intersection, or when all sight points were viewed but the order was wrong (step
  • the process proceeds to step ST16A, and when the driver visually recognizes all the sight points in the order to be visually recognized (step ST15 “NO”), the operation shown in the flowchart of FIG. 3 is ended.
  • step ST16A the oversight point collection unit 15 of the driving support device 10 recognizes one or more sight points that the driver did not see among the one or more sight points at the intersection, or see all the sight points If you make a mistake, collect all sighting points at the intersection as overlooked points.
  • the oversight point collection unit 15 classifies the sight spot that the driver has visually recognized as a sight spot that has already been sighted, and classifies the sight spot that the driver did not visually recognize as a sight blind spot.
  • the oversight point collection unit 15 passes the control unit 18 and the communication unit 19 via the control unit 18 and the communication unit 19 with the position information of the intersection, the information indicating the presence or absence of visual recognition for each overlooked point, and the information indicating the actual visually recognized visual point Then, it transmits to the server device 50.
  • the control unit 58 of the server device 50 receives from the oversight point collection unit 15 of the travel support device 10 via the communication unit 59 the position information of the intersection, the information indicating the presence or absence of visibility for each oversight point, and the overlooked spot already viewed And information indicating the order in which they were actually viewed.
  • the control unit 58 classifies the information of the overlooked point at the intersection based on the order of visual recognition stored in the visible point storage unit 52, and stores the information in the overlooked point storage unit 56.
  • FIG. 13 is a diagram for explaining an example of overlooked points classified based on the order of visual recognition in the fifth embodiment. For example, it is assumed that the driver visually recognizes the visual point 131 first, visually recognizes the visual point 132 second, visually recognizes the visual point 135 third, and visually recognizes a point other than the visual point 133 fourth. Do.
  • the visual point storage unit 52 stores the visual point 131, the visual point 132, the visual point 135, the visual point 133, and the visual point 134 as the order of visual recognition.
  • the control unit 58 selects the visual point 131 of the visual order "(1)”, the visual points 131 and 132 of the visual order "(1) ⁇ (2)", and the visual order "(1) ⁇ (2)
  • the visual recognition points 131, 132, and 135 of “ ⁇ (3)” are classified as visual recognition completed.
  • the control unit 58 sets the visual points 131, 132, 135, and 133 of visual order "(1)-> (2)-> (3)-> (4)” and the visual order "(1)-> (2)-> ( 3) ⁇ (4) ⁇ (5) ”are classified as unviewed points 131, 132, 135, 133, and 134.
  • the presentation example of the oversight point in the driving support system of the fifth embodiment is basically the same as the operation of the flowchart shown in FIG. 7 of the second embodiment. In the following, among the operations of the fifth embodiment, only the operations different from the operations of the second embodiment will be extracted and described.
  • step ST23A shown in the flowchart of FIG. 7 when the communication unit 59 of the server device 50 receives a transmission request from the driving assistance apparatus 10, the control unit 58 refers to the oversight point storage unit 56 and the vehicle approaches. Generate information that indicates the order in which the oversight points should be viewed at an intersection. The control unit 58 transmits the generated information indicating the order of visual recognition of the oversight points to the driving support device 10 via the control unit 58 and the communication unit 59.
  • the information presenting unit 17 instructs the navigation device 1 to present the order in which the oversight points should be visually confirmed, based on the information indicating the visual order of the overlook points received from the driving support apparatus 10. Further, the information presentation unit 17 instructs the navigation device 1 to end the presentation when all the sight points are visually recognized in the order that the driver should visually recognize. For example, in FIG. 12, the navigation device 1 displays the visual point 131, the visual point 132, the visual point 133, the visual point 134, and the visual point 135 on the display in this order. In addition, for example, the navigation device 1 may display numbers indicating the order to be visually recognized at the positions of the visual point 131, the visual point 132, the visual point 133, the visual point 134, and the visual point 135. In addition, the navigation device 1 may output, from the speaker, a voice for advising the order of visual recognition to the driver who has visually recognized all the visual sight points but misjudged the visual order.
  • the oversight points stored in the oversight point storage unit 56 of the fifth embodiment are classified based on the order in which one or more sight points at the intersection are visually recognized when the driver travels the intersection. Ru. Since information is stored in the oversight point storage unit 56 including not only the oversight but also the order of visual recognition, the driving support apparatus 10 instructs the order for visual recognition when presenting the oversight points it can.
  • the information on the oversight points stored in the oversight point storage unit 56 of the server device 50 is classified based on the order the driver visually recognizes at the time of intersection traveling, but is limited thereto is not.
  • information on overlooked points stored in the overlooked point storage unit 16 of the travel support device 10 according to the first embodiment may be classified based on the order in which the overlooked point collection unit 15 visually identified.
  • the information of the oversight points stored in the oversight point storage unit 56 or the oversight point storage unit 16 is added to the order visually recognized by the driver at the time of intersection traveling, and the visual presence or absence at the intersection traveling, driver status, driving skill, gender Or may be classified based on at least one piece of information of age.
  • the configuration of the driving support system according to the sixth embodiment is the same as the configuration shown in FIG. 5 of the second embodiment in the drawings, so FIG. 5 will be used hereinafter.
  • the oversight points are classified based on the shape of the intersection.
  • FIG. 14 is a diagram for explaining the shape of the intersection in the sixth embodiment.
  • the intersections are classified based on at least one of the number of one-sided lanes, the road width, the presence or absence of a center line, and the presence or absence of a right turn lane as shown in FIG.
  • the intersections may be classified based on shapes other than the shape illustrated in FIG.
  • the oversight point storage unit 56 in the second to fifth embodiments is configured to store information on the oversight points for each intersection, but the oversight point storage unit 56 in the sixth embodiment is for the oversight points for each shape of the intersection. Information is stored.
  • the visual recognition point storage unit 52 in the sixth embodiment may be configured to store information of the visual recognition point for each shape of the intersection.
  • the collection example of the oversight points in the driving support system of the sixth embodiment is basically the same as the operation of the flowchart shown in FIG. 6 of the second embodiment.
  • the operations of the sixth embodiment only operations different from those of the second embodiment will be extracted and described.
  • step ST13A shown in the flowchart of FIG. 6 the sight point acquisition unit 13 sends a transmission request for requesting transmission of information on the sight point at the intersection where the vehicle is approaching from the communication unit 19 via the control unit 18. Transmit to server device 50.
  • the control unit 58 determines the information on the sighting point at the intersection having the same shape or the most suitable shape as the intersection where the vehicle is approaching. It is acquired from the storage unit 52.
  • the information of the visual recognition point acquired by the control unit 58 is transmitted from the communication unit 59 to the travel support device 10, received by the communication unit 19, and passed to the visual recognition point acquisition unit 13 via the control unit 18.
  • step ST16A the control unit 58 of the server device 50 receives the position information of the intersection and the information of the oversight point from the oversight point collection unit 15 of the travel support device 10 via the communication unit 59.
  • the control unit 58 classifies the information of the oversight points at the intersection based on the shape of the intersection, and stores the information in the oversight point storage unit 56.
  • the presentation example of the oversight point in the driving support system of the sixth embodiment is basically the same as the operation of the flowchart shown in FIG. 7 of the second embodiment.
  • the operations of the sixth embodiment only operations different from the operations of the second embodiment will be extracted and described.
  • step ST23A shown in the flowchart of FIG. 7 when the communication unit 59 of the server device 50 receives a transmission request from the driving assistance apparatus 10, the control unit 58 refers to the oversight point storage unit 56 and the vehicle approaches. Acquire information on missed spots at intersections that have the same or the most suitable shape as the intersection. The control unit 58 transmits the acquired information of the oversight point to the driving assistance apparatus 10 via the control unit 58 and the communication unit 59.
  • the oversight points stored in the oversight point storage unit 56 of the sixth embodiment are classified based on the shape of the intersection. According to this configuration, when there is no information on an overlooked point at a certain intersection, the driving support apparatus 10 can present the driver with reference to the information on the overlooked point at the intersection of the same or most suitable shape.
  • the information on the oversight points stored in the oversight point storage unit 56 of the server device 50 is classified based on the shape of the intersection, but the present invention is not limited to this.
  • the information of the oversight points stored in the oversight point storage unit 16 of the travel support device 10 according to the first embodiment may be classified by the oversight point collection unit 15 based on the shape of the intersection.
  • the information of the oversight points stored in the oversight point storage unit 56 or the oversight point storage unit 16 is, in addition to the shape of the intersection, the order visually recognized by the driver at the intersection traveling, the visual presence or absence at the intersection traveling, the driver status, It may be classified based on at least one of driving skill, gender, and age.
  • the visible spot storage unit 12 of the first embodiment or the visible spot storage unit 52 of the second to fifth embodiments may have a configuration in which information of the visible spot is stored for each shape of the intersection.
  • FIG. 15 is a block diagram showing a configuration example of a driving support system according to a seventh embodiment.
  • the travel support device 10 includes a vehicle information acquisition unit 21.
  • the vehicle information acquisition unit 21 acquires vehicle information on a vehicle on which the travel support device 10 is mounted from a vehicle or an input device (not shown) and stores the information.
  • the vehicle information includes, for example, information such as a vehicle type or a first year registration year.
  • the collection example of the oversight points in the driving support system of the seventh embodiment is basically the same as the operation of the flowchart shown in FIG. 6 of the second embodiment.
  • the operations of the seventh embodiment only operations different from those of the second embodiment will be extracted and described.
  • step ST16A shown in the flowchart of FIG. 6 the vehicle information acquisition unit 21 of the driving assistance apparatus 10 acquires vehicle information.
  • the oversight point collection unit 15 adds vehicle information to the position information of the intersection and the information of the oversight point, and transmits the vehicle information to the server device 50 via the control unit 18 and the communication unit 19.
  • the control unit 58 of the server device 50 receives, from the oversight point collection unit 15 of the travel support device 10 via the communication unit 59, the position information of the intersection to which the vehicle information is added and the information of the oversight point.
  • the control unit 58 classifies the information of the oversight point at the intersection based on the vehicle information attached to the information of the oversight point, and stores the information in the oversight point storage unit 56.
  • the presentation example of the oversight point in the driving support system of the seventh embodiment is basically the same as the operation of the flowchart shown in FIG. 7 of the second embodiment.
  • the operations of the seventh embodiment only operations different from those of the second embodiment will be extracted and described.
  • step ST23A shown in the flowchart of FIG. 7 the information presentation unit 17 of the driving assistance apparatus 10 sends a transmission request for requesting transmission of information on an overlooked point at an intersection where the vehicle is approaching via the control unit 18
  • the communication unit 19 transmits the data to the server device 50.
  • the information presentation unit 17 acquires vehicle information from the vehicle information acquisition unit 21 via the control unit 18 and includes the information in the transmission request.
  • the control unit 58 acquires information on the oversight point at the intersection where the vehicle is approaching from the oversight point storage unit 56. Furthermore, the control unit 58 selects information on the overlooked spot to which the vehicle information matching the vehicle information included in the transmission request is added among the information on the overlooked spot acquired from the overlooked spot storage unit 56. The control unit 58 transmits information on the selected oversight point to the driving assistance apparatus 10 via the control unit 58 and the communication unit 59.
  • the oversight points stored in the oversight point storage unit 56 of the seventh embodiment are classified based on the information on the vehicle on which the travel support device 10 is mounted.
  • the dead angle differs depending on the type of pillar or the like depending on the vehicle type.
  • the travel support device 10 can present a point that is easy to overlook for each type of vehicle.
  • the information on the oversight points stored in the oversight point storage unit 56 of the server device 50 is classified based on the vehicle information, but the present invention is not limited to this.
  • the information on the oversight points stored in the oversight point storage unit 56 includes the shape of the intersection, the order visually recognized by the driver when traveling at the intersection, the visual presence or absence during traveling at the intersection, the driver's condition, driving skill, gender, Or it may be classified based on at least one information of age.
  • FIG. 16A and FIG. 16B are diagrams showing an example of the hardware configuration of the travel support device 10 according to each embodiment.
  • the gaze detection unit 14 in the driving support device 10 is a camera 1004 or the like.
  • the communication unit 19 in the driving support device 10 is a wireless communication device 1000.
  • the sight point storage unit 12 and the oversight point storage unit 16 in the driving support device 10 are the memory 1002.
  • each function of the vehicle position acquisition unit 11, the sight point acquisition unit 13, the oversight point collection unit 15, the information presentation unit 17, the control unit 18, the driver state determination unit 20, and the vehicle information acquisition unit 21 in the driving support device 10. Is realized by the processing circuit. That is, the driving support device 10 includes a processing circuit for realizing the above-described functions.
  • the processing circuit may be the processing circuit 1001 as dedicated hardware or may be the processor 1003 that executes a program stored in the memory 1002.
  • the processing circuit 1001 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit). ), FPGA (Field Programmable Gate Array), or a combination thereof.
  • the functions of the vehicle position acquisition unit 11, the sight point acquisition unit 13, the oversight point collection unit 15, the information presentation unit 17, the control unit 18, the driver condition determination unit 20, and the vehicle information acquisition unit 21 are realized by a plurality of processing circuits 1001.
  • the functions of the respective units may be integrated and realized by one processing circuit 1001.
  • each function of the vehicle information acquisition unit 21 is realized by software, firmware, or a combination of software and firmware.
  • Software or firmware is written as a program and stored in the memory 1002.
  • the processor 1003 implements the functions of the respective units by reading and executing the program stored in the memory 1002. That is, the driving support device 10 includes a memory 1002 for storing a program which, when executed by the processor 1003, results in the steps shown in the flowcharts of FIGS.
  • this program is a procedure or method of the vehicle position acquisition unit 11, the sight point acquisition unit 13, the oversight point collection unit 15, the information presentation unit 17, the control unit 18, the driver state determination unit 20, and the vehicle information acquisition unit 21. Can be said to cause a computer to execute
  • the vehicle position acquisition unit 11 the sight point acquisition unit 13, the oversight point collection unit 15, the information presentation unit 17, the control unit 18, the driver state determination unit 20, and the vehicle information acquisition unit 21 are described. It may be realized by dedicated hardware and a part may be realized by software or firmware. As described above, the processing circuit in the driving support device 10 can realize each of the functions described above by hardware, software, firmware, or a combination thereof.
  • FIG. 17A and FIG. 17B are diagrams showing an example of a hardware configuration of the server device 50 according to each embodiment.
  • the communication unit 59 in the server device 50 is a wireless communication device 5000.
  • the sight point storage unit 52 and the oversight point storage unit 56 in the server device 50 are the memory 5002.
  • the control unit 58 in the server device 50 is realized by a processing circuit. That is, the server device 50 includes a processing circuit for realizing the above functions.
  • the processing circuit may be a processing circuit 5001 as dedicated hardware, or may be a processor 5003 that executes a program stored in the memory 5002.
  • the processing circuit 5001 may be, for example, a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or the like.
  • the processing circuit is the processor 5003, the function of the control unit 58 is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 5002.
  • the processor 5003 implements the functions of the respective units by reading and executing the program stored in the memory 5002. That is, the server device 50 includes a memory 5002 for storing a program which, when executed by the processor 5003, causes the steps shown in the flowcharts of FIGS. 3 and 4 to be executed. Further, it can be said that this program causes a computer to execute the procedure or method of the control unit 58.
  • the processors 1003 and 5003 refer to a central processing unit (CPU), a processing device, an arithmetic device, a microprocessor, a microcomputer, or the like.
  • the memory 1002 and 522 is a nonvolatile or volatile semiconductor memory such as a random access memory (RAM), a read only memory (ROM), an erasable programmable ROM (EPROM), a flash memory, or a solid state drive (SSD). It may be a magnetic disk such as a hard disk or a flexible disk, or an optical disk such as a CD (Compact Disc) or a DVD (Digital Versatile Disc).
  • the driving support apparatus supports the traveling of the vehicle because, when there is an overlooked visual point at an intersection where the driver has traveled in the past, the visual point is presented as a overlooked point at the next traveling. It is suitable for use in a travel support device or the like.
  • SYMBOLS 1 navigation apparatus 10 driving assistance apparatus, 11 vehicle position acquisition part, 12, 52 visual recognition point memory

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

視認地点記憶部(12)は、交差点において運転者が視認すべき地点を表す視認地点の情報を記憶している視認地点取得部(13)から、車両位置取得部(11)により取得された位置情報に基づいて車両が走行する交差点における視認地点の情報を取得する。見落とし地点収集部(15)は、視線検出部(14)により検出された運転者の視線情報と視認地点取得部(13)により取得された交差点の視認地点の情報とに基づいて運転者が交差点を走行したときに見落とした視認地点を判定し、見落とし地点として収集する。情報提示部(17)は、見落とし地点収集部(15)により収集済みの見落とし地点を、車両が交差点を走行する場合に提示する。

Description

走行支援装置、走行支援システム、及び走行支援方法
 この発明は、車両の走行を支援する走行支援装置、走行支援システム、及び走行支援方法に関するものである。
 従来、安全運転のために必要な注視箇所を運転者が視認しているか否かを確認し、視認していない場合に報知する装置が提案されている。
 例えば、特許文献1に係る走行情報提供装置は、運転者の注視方向と、運転者が運転中に安全確認すべき注視必要方向とが一致する注視頻度を算出して、この注視頻度に基づいて運転者に報知すべき情報の報知レベルを決定する。
 例えば、特許文献2に係る走行情報提供装置は、視力検査で測定する視力に近い高い解像度で見ることが可能な視野範囲と、大まかな物の形を把握することが可能な視野範囲とを考慮して視認度を算出し、この視認度に基づいて運転者に報知すべき情報の報知レベルを決定する。
特許2929927号公報 特許5171629号公報
 特許文献1及び特許文献2に係る発明は、注視対象が「右後ろ方向」又は「ルームミラー方向」のように抽象的であり、かつ、注視必要方向がどの運転者に対しても同じであるという課題があった。また、車両周辺に注視対象物が存在しない場合、運転者に情報を提示しないという課題があった。
 この発明は、上記のような課題を解決するためになされたもので、運転者ごとに優先して視認すべき地点を提示することを目的とする。
 この発明に係る走行支援装置は、車両の位置情報を取得する車両位置取得部と、交差点において運転者が視認すべき地点を表す視認地点の情報を記憶している視認地点記憶部から、車両位置取得部により取得された位置情報に基づいて車両が走行する交差点における視認地点の情報を取得する視認地点取得部と、車両の運転者の視線情報を検出する視線検出部と、視線検出部により検出された運転者の視線情報と視認地点取得部により取得された交差点の視認地点の情報とに基づいて運転者が交差点を走行したときに見落とした視認地点を判定し、見落とし地点として収集する見落とし地点収集部と、見落とし地点収集部により収集済みの見落とし地点を、車両が交差点を走行する場合に提示する情報提示部とを備えるものである。
 この発明によれば、運転者が過去に走行した交差点において視認地点の見落としがあった場合、次回走行時にその視認地点を見落とし地点として提示するようにしたので、運転者ごとに優先して視認すべき地点を提示することができる。
実施の形態1に係る走行支援装置の構成例を示すブロック図である。 実施の形態1において交差点と視認地点との位置関係の一例を示す図である。 実施の形態1に係る走行支援装置における見落とし地点の収集例を示すフローチャートである。 実施の形態1に係る走行支援装置における見落とし地点の提示例を示すフローチャートである。 実施の形態2に係る走行支援システムの構成例を示すブロック図である。 実施の形態2に係る走行支援システムにおける見落とし地点の収集例を示すフローチャートである。 実施の形態2に係る走行支援システムにおける見落とし地点の提示例を示すフローチャートである。 実施の形態3に係る走行支援システムの構成例を示すブロック図である。 実施の形態3に係る走行支援装置において、見落とし地点の情報に付与される情報の例を示す図である。 実施の形態4において交差点と視認地点との位置関係の一例を示す図である。 実施の形態4において視認有無に基づいて分類された見落とし地点の例を説明する図である。 実施の形態5において交差点と視認地点との位置関係の一例を示す図である。 実施の形態5において視認すべき順番に基づいて分類された見落とし地点の例を説明する図である。 実施の形態6における交差点の形状を説明する図である。 実施の形態7に係る走行支援システムの構成例を示すブロック図である。 図16A及び図16Bは、各実施の形態に係る走行支援装置のハードウェア構成例を示す図である。 図17A及び図17Bは、各実施の形態に係るサーバ装置のハードウェア構成例を示す図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る走行支援装置10の構成例を示すブロック図である。走行支援装置10は、車両に搭載される。また、走行支援装置10は、同じ車両に搭載されたナビゲーション装置1に接続される。
 走行支援装置10は、車両位置取得部11、視認地点記憶部12、視認地点取得部13、視線検出部14、見落とし地点収集部15、見落とし地点記憶部16、情報提示部17、及び制御部18を備える。なお、視認地点記憶部12及び見落とし地点記憶部16は、走行支援装置10が備えてもよいし、走行支援装置10以外の装置が備えてもよい。
 車両位置取得部11は、車両の位置情報を取得し、位置情報を制御部18へ出力する。車両位置取得部11は、例えば、GPS(Global Positioning System)受信機が受信したGPS信号を用いて位置情報を算出してもよいし、移動基地局から位置情報を取得してもよいし、無線LAN(Local Area Network)のアクセスポイントから位置情報を取得してもよい。
 視認地点記憶部12は、交差点において運転者が視認すべき地点を表す視認地点の情報を、交差点ごとに記憶している。図2は、実施の形態1において交差点101と視認地点111~115との位置関係の一例を示す図である。図2において、車両100が交差点101を右折する際の視認地点111~115は、星印(☆)で示される。実施の形態1では、車両100の運転者が右折時に視認地点111~115のうちの少なくとも1つを視認しなかった場合、視認地点111~115の全てが見落とし地点となる。なお、図2は右折時の視認地点の一例であり、左折時の視認地点及び地点数は異なる。また、交差点101の形状、例えば車線数、道路幅、又は右折レーンの有無に応じて、視認地点及び地点数は異なってもよい。また、視認地点記憶部12は、交差点の位置情報と視認地点を示す情報とを記憶していてもよいし、交差点の位置情報を含む地図情報と視認地点を示す情報とを記憶していてもよい。
 視認地点取得部13は、制御部18を経由して、車両位置取得部11から車両の位置情報を取得する。視認地点取得部13は、車両の位置情報に基づいて車両が走行する交差点における視認地点の情報を、視認地点記憶部12から取得し、取得した視認地点の情報を制御部18へ出力する。
 視線検出部14は、車両の運転者の視線方向、又は焦点が合ったか否か等を検出し、視線方向等を示す視線情報を制御部18へ出力する。視線検出部14は、例えばカメラを備え、このカメラが撮像した運転者の画像を処理して視線方向等を検出する。
 見落とし地点収集部15は、制御部18を経由して、視線検出部14から視線情報を取得すると共に、視認地点取得部13から視認地点の情報を取得する。見落とし地点収集部15は、運転者の視線方向、又は焦点が合った時間等に基づいて、運転者が交差点を走行する際に視認地点を視認したか否かを判定する。見落とし地点収集部15は、運転者が交差点における1つ以上の視認地点のうちの少なくとも1つの視認地点を見落とした場合に、この交差点における1つ以上の視認地点すべてを見落とし地点として収集する。見落とし地点収集部15は、この交差点における見落とし地点の情報を、見落とし地点記憶部16に記憶させる。
 見落とし地点記憶部16は、見落とし地点収集部15により収集された見落とし地点の情報を、交差点ごとに記憶する。
 情報提示部17は、制御部18を経由して、車両位置取得部11から位置情報を取得する。情報提示部17は、見落とし地点記憶部16を参照して位置情報と合う交差点における見落とし地点の情報を取得する。情報提示部17は、見落とし地点の情報を、制御部18を経由してナビゲーション装置1へ出力する。
 制御部18は、車両位置取得部11、視認地点取得部13、視線検出部14、見落とし地点収集部15、情報提示部17、及びナビゲーション装置1の間での情報の授受を制御する。
 ナビゲーション装置1は、走行支援装置10から受け取った見落とし地点の情報を、運転者に提示する。なお、図1における走行支援装置10の情報提示部17は、ナビゲーション装置1を用いて情報提示を行う構成であるが、インストルメントパネル、ヘッドアップディスプレイ、車載端末、音声出力装置、又は路面照射装置等を用いて情報提示を行う構成であってもよい。見落とし地点の情報の提示方法は後述する。
 次に、図2を参照して、走行支援装置10の動作を説明する。
 図3は、実施の形態1に係る走行支援装置10における見落とし地点の収集例を示すフローチャートである。走行支援装置10は、車両100の走行中、図3のフローチャートに示される動作を繰り返す。なお、図3及び後述する図4において、制御部18の動作説明を省略する。
 ステップST11において、車両位置取得部11は、車両の位置情報を取得する。
 ステップST12において、視認地点取得部13は、視認地点記憶部12に記憶されている交差点の位置情報を参照し、車両位置取得部11により取得された車両の位置情報に基づいて、車両が交差点に接近しているか否かを判定する。視認地点取得部13は、車両が交差点に接近している場合(ステップST12“YES”)、ステップST13へ進み、それ以外の場合(ステップST12“NO”)、ステップST11へ戻る。なお、視認地点取得部13は、車両の位置情報に加え、ナビゲーション装置1に設定されている走行予定経路又は走行履歴等の情報を用いて、車両が接近している交差点を推測してもよい。
 ステップST13において、視認地点取得部13は、車両が接近している交差点における視認地点の情報を、視認地点記憶部12から取得する。
 ステップST14において、視線検出部14は、車両の運転者の視線情報を検出する。
 ステップST15において、見落とし地点収集部15は、視線検出部14により検出された運転者の視線情報と、視認地点取得部13により取得された交差点の視認地点の情報とに基づいて、運転者が交差点を走行する際に視認地点を視認したか否かを判定する。見落とし地点収集部15は、交差点における1つ以上の視認地点のうち、運転者が視認しなかった視認地点が1つ以上ある場合(ステップST15“YES”)、ステップST16へ進み、運転者がすべての視認地点を視認した場合(ステップST15“NO”)、図3のフローチャートに示される動作を終了する。
 ステップST16において、見落とし地点収集部15は、交差点における1つ以上の視認地点のうち、運転者が視認しなかった視認地点が1つ以上ある場合、この交差点における全ての視認地点を、見落とし地点として収集する。見落とし地点収集部15は、交差点の位置情報と見落とし地点の情報とを、見落とし地点記憶部16に記憶させる。
 図4は、実施の形態1に係る走行支援装置10における見落とし地点の提示例を示すフローチャートである。走行支援装置10は、車両100の走行中、図3のフローチャートに示される動作を繰り返すのと並行して、図4のフローチャートに示される動作を繰り返す。
 ステップST21において、車両位置取得部11は、車両の位置情報を取得する。
 ステップST22において、情報提示部17は、見落とし地点記憶部16に記憶されている交差点の位置情報を参照し、車両位置取得部11により取得された車両の位置情報に基づいて、車両が交差点に接近しているか否かを判定する。情報提示部17は、車両が交差点に接近している場合(ステップST22“YES”)、ステップST23へ進み、それ以外の場合(ステップST22“NO”)、ステップST21へ戻る。なお、情報提示部17は、車両の位置情報に加え、ナビゲーション装置1に設定されている走行予定経路又は走行履歴等の情報を用いて、車両が接近している交差点を推測してもよい。
 ステップST23において、情報提示部17は、車両が接近している交差点における見落とし地点の情報を、見落とし地点記憶部16から取得する。
 ステップST24において、情報提示部17は、見落とし地点記憶部16から取得した見落とし地点の情報をナビゲーション装置1へ出力し、ナビゲーション装置1に見落とし地点の提示を開始させる。
 ステップST25において、情報提示部17は、見落とし地点の視認有無の判定を、視認地点取得部13に指示する。この指示を受けた視認地点取得部13は、交差点を走行する際の運転者の視線情報を、視線検出部14から取得する。また、視認地点取得部13は、視線検出部14により検出された運転者の視線情報と、情報提示部17により見落とし地点記憶部16から取得した交差点の見落とし地点の情報とに基づいて、運転者が交差点を走行する際に全ての見落とし地点を視認したか否かを判定する。また、視認地点取得部13は、車両位置取得部11により取得された車両の位置情報に基づいて、車両が交差点を走行し終えたか否かを判定する。視認地点取得部13は、運転者が交差点における全ての見落とし地点を視認した場合、かつ、車両が交差点を走行し終えた場合(ステップST25“YES”)、ステップST26へ進み、それ以外の場合(ステップST25“NO”)、ステップST25へ戻る。
 ステップST26において、情報提示部17は、ナビゲーション装置1に指示し、見落とし地点の提示を終了させる。なお、情報提示部17は、運転者が全ての見落とし地点を視認した場合に全ての見落とし地点の提示を終了させてもよいし、運転者が見落とし地点を1つ視認するごとに視認済みの見落とし地点の提示を終了させてもよい。
 次に、見落とし地点の提示方法の例を説明する。
 例えば、ナビゲーション装置1は、制御部18からの指示に従い、見落とし地点の情報をディスプレイに表示する。ナビゲーション装置1は、例えば、図2に示されるように地図上の交差点に見落とし地点を示す星印等の図形を重畳させた画面を表示する。また、例えば、ナビゲーション装置1は、見落とし地点の方向をディスプレイに表示してもよい。また、ナビゲーション装置1は、「右斜め前」等の見落とし地点を説明する音声をスピーカから出力させてもよい。また、ナビゲーション装置1は、通知音をスピーカから出力することによって、見落とし地点の視認を運転者に促してもよい。
 なお、上記例では、情報提示部17が、ナビゲーション装置1のディスプレイに、見落とし地点を表す画面を表示させるが、見落とし地点の提示方法はこれに限定されない。例えば、情報提示部17は、インストルメントパネルのディスプレイに、見落とし地点を表す画面を表示させてもよい。また、情報提示部17は、ヘッドアップディスプレイに見落とし地点を表す図形等を投影させることによって、実際の景色に見落とし地点を表す図形等が重なって見えるようにしてもよい。また、情報提示部17は、ナビゲーション装置1、インストルメントパネル、及びヘッドアップディスプレイ以外の車載端末に、見落とし地点を提示させてもよい。また、情報提示部17は、車両の外側に設置された路面照射装置が発する光を、交差点における見落とし地点に相当する路面に対して照射させてもよい。
 また、情報提示部17は、車両に搭載された、又は車両に持ち込まれた音声出力装置に、見落とし地点を説明する音声または通知音を出力させてもよい。なお、指向性のある音声出力装置が車室内に複数存在する場合、情報提示部17は、見落とし地点に近い音声出力装置から運転者へ向けて音声または通知音を出力させることによって、運転者に見落とし地点の方向を直感的に理解させてもよい。
 以上のように、実施の形態1に係る走行支援装置10は、車両位置取得部11と、視認地点取得部13と、視線検出部14と、見落とし地点収集部15と、情報提示部17とを備える。車両位置取得部11は、走行支援装置10が搭載された車両の位置情報を取得する。視認地点取得部13は、交差点において運転者が視認すべき地点を表す視認地点の情報を記憶している視認地点記憶部12から、車両位置取得部11により取得された位置情報に基づいて車両が走行する交差点における視認地点の情報を取得する。視線検出部14は、車両の運転者の視線情報を検出する。見落とし地点収集部15は、視線検出部14により検出された運転者の視線情報と視認地点取得部13により取得された交差点の視認地点の情報とに基づいて運転者が交差点を走行したときに見落とした視認地点を判定し、見落とし地点として収集する。情報提示部17は、見落とし地点収集部15により収集済みの見落とし地点を、車両が交差点を走行する場合に提示する。このように、走行支援装置10は、運転者が過去に走行した交差点において視認地点の見落としがあった場合、次回走行時にその視認地点を見落とし地点として提示するため、運転者ごとに優先して視認すべき地点を提示することができる。
 また、実施の形態1の情報提示部17は、ナビゲーション装置1、インストルメントパネル、ヘッドアップディスプレイ、車載端末、音声出力装置、又は路面照射装置のうちの少なくとも1つを用いて、見落とし地点収集部15により収集済みの見落とし地点を提示する。この構成により、走行支援装置10は、運転者が過去に走行した交差点において視認地点の見落としがあった場合、次回走行時に見落とし地点を、運転者に対して分かりやすく提示することができる。また、情報提示部17が路面照射装置を用いる場合、運転者が見落としやすい地点を、運転者だけでなく、歩行者等の交差点を横断する交通参加者に対しても提示することができる。運転者が視認していない地点が照射されるため、交通参加者は、その車両により注意を向けること、及び照射された地点を避けて通行することで危険回避することが可能である。
実施の形態2.
 図5は、実施の形態2に係る走行支援システムの構成例を示すブロック図である。図5において図1と同一又は相当する部分は、同一の符号を付し説明を省略する。実施の形態2に係る走行支援システムは、車両に搭載された走行支援装置10と、車外に構築されたサーバ装置50とを含む。なお、図5では、1つのサーバ装置50に対して、1台の車両に搭載された1つの走行支援装置10が接続されているが、これに限定されず、複数台の車両に搭載された複数の走行支援装置10が接続される。
 走行支援装置10は、車両位置取得部11、視認地点取得部13、視線検出部14、見落とし地点収集部15、情報提示部17、制御部18、及び通信部19を備える。通信部19は、無線LAN、又は、3G若しくは4G等の移動通信網を経由して、サーバ装置50と通信する。実施の形態2の視認地点取得部13は、制御部18及び通信部19を経由して、サーバ装置50の視認地点記憶部52から視認地点の情報を取得する。また、実施の形態2の見落とし地点収集部15は、収集した見落とし地点の情報を、制御部18及び通信部19を経由して、サーバ装置50の見落とし地点記憶部56に記憶させる。
 サーバ装置50は、視認地点記憶部52、見落とし地点記憶部56、制御部58、及び通信部59を備える。視認地点記憶部52は、交差点において運転者が視認すべき地点を表す視認地点の情報を、交差点ごとに記憶している。見落とし地点記憶部56は、見落とし地点の情報を、交差点ごとに記憶している。制御部58は、視認地点記憶部52、見落とし地点記憶部56、及び通信部59の間での情報の授受を制御する。通信部59は、無線LAN、又は、3G若しくは4G等の移動通信網を経由して、走行支援装置10と通信する。
 図6は、実施の形態2に係る走行支援システムにおける見落とし地点の収集例を示すフローチャートである。図6のステップST11,ST14,ST15は、図3のステップST11,ST14,ST15と同じ動作であるため、説明を省略する。
 ステップST12Aにおいて、視認地点取得部13は、制御部18を経由してナビゲーション装置1が保有している地図情報を参照し、車両位置取得部11により取得された車両の位置情報に基づいて、車両が交差点に接近しているか否かを判定する。視認地点取得部13は、車両が交差点に接近している場合(ステップST12A“YES”)、ステップST13Aへ進み、それ以外の場合(ステップST12A“NO”)、ステップST11へ戻る。なお、実施の形態1と同様に、視認地点取得部13は、車両の位置情報に加え、ナビゲーション装置1に設定されている走行予定経路又は走行履歴等の情報を用いて、車両が接近している交差点を推測してもよい。
 ステップST13Aにおいて、視認地点取得部13は、車両が接近している交差点における視認地点の情報の送信を要求する送信要求を、制御部18を経由して通信部19からサーバ装置50へ送信する。サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、車両が接近している交差点における視認地点の情報を、視認地点記憶部52から取得する。制御部58により取得された視認地点の情報は、通信部59から走行支援装置10へ送信され、通信部19により受信され、制御部18を経由して視認地点取得部13へ渡る。
 ステップST16Aにおいて、見落とし地点収集部15は、交差点における1つ以上の視認地点のうち、運転者が視認しなかった視認地点が1つ以上ある場合、この交差点における全ての視認地点を、見落とし地点として収集する。見落とし地点収集部15は、交差点の位置情報と見落とし地点の情報とを、制御部18を経由して通信部19からサーバ装置50へ送信する。サーバ装置50の通信部59が走行支援装置10からの情報を受信すると、制御部58は、交差点の位置情報と見落とし地点の情報とを、見落とし地点記憶部56に記憶させる。
 図7は、実施の形態2に係る走行支援システムにおける見落とし地点の提示例を示すフローチャートである。図7のステップST21,ST24,ST25,ST26は、図4のステップST21,ST24,ST25,ST26と同じ動作であるため、説明を省略する。
 ステップST22Aにおいて、情報提示部17は、制御部18を経由してナビゲーション装置1が保有している地図情報を参照し、車両位置取得部11により取得された車両の位置情報に基づいて、車両が交差点に接近しているか否かを判定する。情報提示部17は、車両が交差点に接近している場合(ステップST22A“YES”)、ステップST23Aへ進み、それ以外の場合(ステップST22A“NO”)、ステップST21へ戻る。なお、実施の形態1と同様に、情報提示部17は、車両の位置情報に加え、ナビゲーション装置1に設定されている走行予定経路又は走行履歴等の情報を用いて、車両が接近している交差点を推測してもよい。
 ステップST23Aにおいて、情報提示部17は、車両が接近している交差点における見落とし地点の情報の送信を要求する送信要求を、制御部18を経由して通信部19からサーバ装置50へ送信する。サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、見落とし地点記憶部56に記憶されている位置情報を参照し、車両が接近している交差点における見落とし地点の情報を、見落とし地点記憶部56から取得する。制御部58により取得された視認地点の情報は、通信部59から走行支援装置10へ送信され、通信部19により受信され、制御部18を経由して情報提示部17へ渡る。走行支援装置10の情報提示部17は、サーバ装置50から取得した見落とし地点の情報を用いて、ナビゲーション装置1に提示を行わせる。
 以上のように、実施の形態2に係る走行支援システムは、走行支援装置10とサーバ装置50とを備える。サーバ装置50は、通信部59と見落とし地点記憶部56とを備える。通信部59は、走行支援装置10により収集された見落とし地点を、走行支援装置10から受信する。見落とし地点記憶部56は、走行支援装置10から受信した見落とし地点を予め定められた条件に基づいて分類して記憶する。走行支援装置10は、サーバ装置50の見落とし地点記憶部56に記憶されている見落とし地点を、サーバ装置50から受信する通信部19を備える。そして、走行支援装置10の情報提示部17は、サーバ装置50から受信した見落とし地点を、車両が交差点を走行する場合に提示する。この構成により、走行支援装置10は、ある運転者が過去に走行した交差点において視認地点の見落としがあった場合、次回走行時にその視認地点を見落とし地点として提示することができる。また、サーバ装置50が、複数の走行支援装置10により収集された見落とし地点の情報を管理するため、走行支援装置10は、ある運転者が過去に走行したことのない交差点を走行する場合に、他の運転者の見落とし地点の情報を参考にして見落としやすい地点を提示することができる。
実施の形態3.
 図8は、実施の形態3に係る走行支援システムの構成例を示すブロック図である。図8において図5と同一又は相当する部分は、同一の符号を付し説明を省略する。実施の形態3において、見落とし地点は、運転者の状態、運転技能、性別、又は年齢のうちの少なくとも1つに基づいて分類される構成である。
 走行支援装置10は、運転者状態判定部20を備える。運転者状態判定部20は、車両走行中の運転者の状態を判定する。運転者状態判定部20は、例えば、視線検出部14により検出される視線情報に基づいて、運転者が通常の状態か、脇見運転をしている状態か、居眠り運転をしている状態か、注意散漫な状態か等を判定する。運転者状態判定部20は、判定した運転者状態の情報を、制御部18へ出力する。
 運転者は、図示しない入力装置等を操作して、例えば、運転技能、性別、又は年齢のうちの少なくとも1つの情報を走行支援装置10の制御部18に入力する。見落とし地点収集部15は、図示しない入力装置等から入力された運転者の運転技能、性別、又は年齢のうちの少なくとも1つの情報を、制御部18を経由して取得する。なお、ナビゲーション装置1が上記入力装置として用いられてもよい。
 次に、実施の形態3に係る走行支援システムの動作を説明する。
 実施の形態3の走行支援システムにおける見落とし地点の収集例は、実施の形態2の図6に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態3の動作のうち、実施の形態2とは異なる動作のみ抜粋して説明する。
 図6のフローチャートに示されるステップST16Aにおいて、走行支援装置10の見落とし地点収集部15は、制御部18を経由して、運転者状態判定部20から運転者状態の情報を取得する。また、見落とし地点収集部15は、図示しない入力装置等から入力された運転者の運転技能、性別、又は年齢のうちの少なくとも1つの情報を、制御部18を経由して取得する。図9は、実施の形態3に係る走行支援装置10において、見落とし地点の情報に付与される情報の例を示す図である。見落とし地点収集部15は、交差点の位置情報と見落とし地点の情報とに対して、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報を付与し、制御部18及び通信部19を経由してサーバ装置50へ送信する。
 サーバ装置50の制御部58は、通信部59を経由して走行支援装置10の見落とし地点収集部15から、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報が付与された交差点の位置情報及び見落とし地点の情報を受け取る。制御部58は、交差点における見落とし地点の情報を、この見落とし地点の情報に付与されている運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に基づいて分類し、見落とし地点記憶部56に記憶させる。
 実施の形態3の走行支援システムにおける見落とし地点の提示例は、実施の形態2の図7に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態3の動作のうち、実施の形態2とは異なる動作のみ抜粋して説明する。
 図7のフローチャートに示されるステップST23Aにおいて、走行支援装置10の情報提示部17は、車両が接近している交差点における見落とし地点の情報の送信を要求する送信要求を、制御部18を経由して通信部19からサーバ装置50へ送信する。その際、情報提示部17は、制御部18を経由して、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報を取得し、送信要求に含める。
 サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、車両が接近している交差点における見落とし地点の情報を、見落とし地点記憶部56から取得する。さらに、制御部58は、見落とし地点記憶部56から取得した見落とし地点の情報のうち、送信要求に含まれる運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に一致する情報が付与された見落とし地点の情報を選択する。なお、制御部58は、見落とし地点記憶部56から取得した見落とし地点の情報のうち、送信要求に含まれる運転者状態、運転技能、性別、及び年齢の情報に一致する情報が付与された見落とし地点の情報を選択してもよいし、送信要求に含まれる運転者状態、運転技能、性別、及び年齢の情報と最も適合する情報が付与された見落とし地点の情報を選択してもよい。制御部58は、選択した見落とし地点の情報を、制御部58及び通信部59を経由して走行支援装置10へ送信する。
 以上のように、実施の形態3の見落とし地点記憶部56に記憶される見落とし地点は、運転者の状態、運転技能、性別、又は年齢のうちの少なくとも1つに基づいて分類される。車両が接近している交差点に対して見落とし地点の情報がサーバ装置50に数多く存在する場合、走行支援装置10は、運転者状態、運転技能、性別、又は年齢のように運転者の属性が同一の見落とし地点の情報を優先して提示する。これにより、より精度の高い見落とし地点、つまり車両の運転者にとって見落とす可能性の高い見落とし地点を提示することができる。
 なお、実施の形態3において、見落とし地点収集部15は、運転者が通常ではない状態のときに見落とし地点を収集しないようにしてもよい。あるいは、情報提示部17は、運転者が通常ではない状態のときに収集された見落とし地点を提示しないようにしてもよい。これらの構成により、走行支援装置10は、運転者が交差点を走行するときの本来の見落とし地点のみを扱うことができる。
 なお、実施の形態3では、サーバ装置50の見落とし地点記憶部56に記憶される見落とし地点の情報が、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に基づいて分類されたが、これに限定されるものではない。例えば、実施の形態1に係る走行支援装置10の見落とし地点記憶部16に記憶される見落とし地点の情報が、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に基づいて分類されてもよい。
実施の形態4.
 実施の形態4に係る走行支援システムの構成は、実施の形態2の図5に示した構成と図面上は同一であるため、以下では図5を援用する。実施の形態4において、見落とし地点は、運転者が交差点を走行する場合に視認地点を視認したか否かに基づいて分類される構成である。
 図10は、実施の形態4において交差点101と視認地点121~125との位置関係の一例を示す図である。図示例では、視認地点121は星印(☆)、視認地点122は丸印(〇)、視認地点123は二重丸印(◎)、視認地点124は四角印(□)、視認地点125は三角印(△)で示される。
 次に、実施の形態4に係る走行支援システムの動作を説明する。
 実施の形態4の走行支援システムにおける見落とし地点の収集例は、実施の形態2の図6に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態4の動作のうち、実施の形態2とは異なる動作のみ抜粋して説明する。
 図6のフローチャートに示されるステップST16Aにおいて、走行支援装置10の見落とし地点収集部15は、交差点における1つ以上の視認地点のうち、運転者が視認しなかった視認地点が1つ以上ある場合、この交差点における全ての視認地点を、見落とし地点として収集する。その際、見落とし地点収集部15は、運転者が視認した視認地点を視認済みの見落とし地点に分類し、運転者が視認しなかった視認地点を未視認の見落とし地点に分類する。図11は、実施の形態4において視認有無に基づいて分類された見落とし地点の例を説明する図である。見落とし地点収集部15は、交差点の位置情報と見落とし地点ごとの視認有無を示す情報とを、制御部18及び通信部19を経由してサーバ装置50へ送信する。
 サーバ装置50の制御部58は、通信部59を経由して走行支援装置10の見落とし地点収集部15から、交差点の位置情報と見落とし地点ごとの視認有無を示す情報とを受け取る。制御部58は、交差点における見落とし地点の情報を、図11のように視認有無に基づいて分類し、見落とし地点記憶部56に記憶させる。
 実施の形態4の走行支援システムにおける見落とし地点の提示例は、実施の形態2の図7に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態4の動作のうち、実施の形態2の動作とは異なる動作のみ抜粋して説明する。
 図7のフローチャートに示されるステップST23Aにおいて、サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、車両が接近している交差点における見落とし地点ごとの視認有無を示す情報を、見落とし地点記憶部56から取得する。制御部58は、取得した見落とし地点ごとの視認有無を示す情報を、制御部58及び通信部59を経由して走行支援装置10へ送信する。
 ステップST24において、情報提示部17は、走行支援装置10から受信した見落とし地点ごとの視認有無を示す情報に基づいて、視認済みの見落とし地点と未視認の見落とし地点との表示態様を区別して提示するよう、ナビゲーション装置1に指示する。ナビゲーション装置1は、例えば、図10において視認済みの視認地点121,122,124,125よりも、未視認の視認地点123を強調するように、これらの視認地点121~125を見落とし地点としてディスプレイに表示する。ナビゲーション装置1は、例えば、未視認の視認地点123の色又は大きさを、視認済みの視認地点121,122,124,125よりも目立つ態様にする。また、ナビゲーション装置1は、未視認の視認地点123を説明する音声をスピーカから出力させることによって強調してもよい。
 以上のように、実施の形態4の見落とし地点記憶部56に記憶される見落とし地点は、運転者が交差点を走行したときに視認地点を視認したか否かに基づいて分類される。単に見落としがあったかだけでなく、視認有無を含めて見落とし地点記憶部56に情報が記憶されるため、走行支援装置10は、見落とし地点を提示する際に見落とした地点をピンポイントで指示することができる。
 なお、実施の形態4では、サーバ装置50の見落とし地点記憶部56に記憶される見落とし地点の情報が、交差点走行時の視認有無に基づいて分類されたが、これに限定されるものではない。例えば、実施の形態1に係る走行支援装置10の見落とし地点記憶部16に記憶される見落とし地点の情報が、見落とし地点収集部15によって交差点走行時の視認有無に基づいて分類されてもよい。
 さらに、見落とし地点記憶部56又は見落とし地点記憶部16に記憶される見落とし地点の情報は、交差点走行時の視認有無に加え、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に基づいて分類されてもよい。
実施の形態5.
 実施の形態5に係る走行支援システムの構成は、実施の形態2の図5に示した構成と図面上は同一であるため、以下では図5を援用する。実施の形態5において、見落とし地点は、運転者が交差点を走行する場合に当該交差点における1つ以上の視認地点を視認した順番に基づいて分類される構成である。
 図12は、実施の形態5において交差点101と視認地点131~135との位置関係の一例を示す図である。図12に示される交差点101における視認地点131~135は、運転者が交差点を走行する場合に視認すべき順番と共に、サーバ装置50の視認地点記憶部52に記憶されている。図示例では、視認すべき順番は、視認地点131、視認地点132、視認地点135、視認地点133、視認地点134の順番である。
 次に、実施の形態5に係る走行支援システムの動作を説明する。
 実施の形態5の走行支援システムにおける見落とし地点の収集例は、実施の形態2の図6に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態5の動作のうち、実施の形態2とは異なる動作のみ抜粋して説明する。
 図6のフローチャートに示されるステップST15において、見落とし地点収集部15は、ステップST13Aで取得した交差点の視認地点の視認すべき順番を示す情報に基づいて、運転者が視認すべき順番で視認地点を視認したか否かを判定する。見落とし地点収集部15は、交差点における1つ以上の視認地点のうち、運転者が視認しなかった視認地点が1つ以上ある場合、又は全ての視認地点を視認したが順番を間違えた場合(ステップST15“YES”)、ステップST16Aへ進み、運転者がすべての視認地点を視認すべき順番で視認した場合(ステップST15“NO”)、図3のフローチャートに示される動作を終了する。
 ステップST16Aにおいて、走行支援装置10の見落とし地点収集部15は、交差点における1つ以上の視認地点のうち、運転者が視認しなかった視認地点が1つ以上ある場合、又は全ての視認地点を視認したが順番を間違えた場合、交差点における全ての視認地点を、見落とし地点として収集する。その際、見落とし地点収集部15は、運転者が視認した視認地点を視認済みの見落とし地点に分類し、運転者が視認しなかった視認地点を未視認の見落とし地点に分類する。見落とし地点収集部15は、交差点の位置情報と、見落とし地点ごとの視認有無を示す情報と、視認済みの見落とし地点について実際に視認した順番を示す情報とを、制御部18及び通信部19を経由してサーバ装置50へ送信する。
 サーバ装置50の制御部58は、通信部59を経由して走行支援装置10の見落とし地点収集部15から、交差点の位置情報と、見落とし地点ごとの視認有無を示す情報と、視認済みの見落とし地点について実際に視認した順番を示す情報とを受け取る。制御部58は、交差点における見落とし地点の情報を、視認地点記憶部52に記憶されている視認すべき順番に基づいて分類し、見落とし地点記憶部56に記憶させる。
 図13は、実施の形態5において視認すべき順番に基づいて分類された見落とし地点の例を説明する図である。例えば、運転者が1番目に視認地点131を視認し、2番目に視認地点132を視認し、3番目に視認地点135を視認し、4番目に視認地点133以外の地点を視認した場合を想定する。視認地点記憶部52には、視認すべき順番として、視認地点131、視認地点132、視認地点135、視認地点133、視認地点134の順番が記憶されているものとする。この場合、制御部58は、視認順「(1)」の視認地点131と、視認順「(1)→(2)」の視認地点131,132と、視認順「(1)→(2)→(3)」の視認地点131,132,135とを、視認済みと分類する。一方、制御部58は、視認順「(1)→(2)→(3)→(4)」の視認地点131,132,135,133と、視認順「(1)→(2)→(3)→(4)→(5)」の視認地点131,132,135,133,134とを、未視認と分類する。
 実施の形態5の走行支援システムにおける見落とし地点の提示例は、実施の形態2の図7に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態5の動作のうち、実施の形態2の動作とは異なる動作のみ抜粋して説明する。
 図7のフローチャートに示されるステップST23Aにおいて、サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、見落とし地点記憶部56を参照し、車両が接近している交差点における見落とし地点の視認すべき順番を示す情報を生成する。制御部58は、生成した見落とし地点の視認すべき順番を示す情報を、制御部58及び通信部59を経由して走行支援装置10へ送信する。
 ステップST24において、情報提示部17は、走行支援装置10から受信した見落とし地点の視認すべき順番を示す情報に基づいて、見落とし地点の視認すべき順番を提示するよう、ナビゲーション装置1に指示する。また、情報提示部17は、運転者が視認すべき順番で全ての視認地点を視認した場合、ナビゲーション装置1に指示して提示を終了させる。ナビゲーション装置1は、例えば、図12において視認地点131、視認地点132、視認地点133、視認地点134、視認地点135をこの順番でディスプレイに表示する。また、例えば、ナビゲーション装置1は、視認地点131、視認地点132、視認地点133、視認地点134、視認地点135の位置に視認すべき順番を示す数字を表示してもよい。また、ナビゲーション装置1は、全ての視認地点を視認したが視認する順番を間違えた運転者に対して、視認すべき順番をアドバイスする音声をスピーカから出力させてもよい。
 以上のように、実施の形態5の見落とし地点記憶部56に記憶される見落とし地点は、運転者が交差点を走行したときに当該交差点における1つ以上の視認地点を視認した順番に基づいて分類される。単に見落としがあったかだけでなく、視認した順番までを含めて見落とし地点記憶部56に情報が記憶されるため、走行支援装置10は、見落とし地点を提示する際に視認すべき順番を指示することができる。
 なお、実施の形態5では、サーバ装置50の見落とし地点記憶部56に記憶される見落とし地点の情報が、交差点走行時に運転者が視認した順番に基づいて分類されたが、これに限定されるものではない。例えば、実施の形態1に係る走行支援装置10の見落とし地点記憶部16に記憶される見落とし地点の情報が、見落とし地点収集部15によって視認した順番に基づいて分類されてもよい。
 さらに、見落とし地点記憶部56又は見落とし地点記憶部16に記憶される見落とし地点の情報は、交差点走行時に運転者が視認した順番に加え、交差点走行時の視認有無、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に基づいて分類されてもよい。
実施の形態6.
 実施の形態6に係る走行支援システムの構成は、実施の形態2の図5に示した構成と図面上は同一であるため、以下では図5を援用する。実施の形態6において、見落とし地点は、交差点の形状に基づいて分類される構成である。
 図14は、実施の形態6における交差点の形状を説明する図である。交差点は、図14に示されるように片側車線数、道路幅、センターラインの有無、又は右折レーンの有無のうちの少なくとも1つに基づいて分類される。なお、交差点は、図14に例示される形状以外の形状に基づいて分類されてもよい。
 実施の形態2~5における見落とし地点記憶部56は、交差点ごとに見落とし地点の情報を記憶する構成であったが、実施の形態6における見落とし地点記憶部56は、交差点の形状ごとに見落とし地点の情報を記憶する構成である。
 なお、実施の形態6における視認地点記憶部52も、交差点の形状ごとに視認地点の情報を記憶する構成であってもよい。
 次に、実施の形態6に係る走行支援システムの動作を説明する。
 実施の形態6の走行支援システムにおける見落とし地点の収集例は、実施の形態2の図6に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態6の動作のうち、実施の形態2とは異なる動作のみ抜粋して説明する。
 図6のフローチャートに示されるステップST13Aにおいて、視認地点取得部13は、車両が接近している交差点における視認地点の情報の送信を要求する送信要求を、制御部18を経由して通信部19からサーバ装置50へ送信する。サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、車両が接近している交差点と同じ又は最も適合する形状の交差点における視認地点の情報を、視認地点記憶部52から取得する。制御部58により取得された視認地点の情報は、通信部59から走行支援装置10へ送信され、通信部19により受信され、制御部18を経由して視認地点取得部13へ渡る。
 ステップST16Aにおいて、サーバ装置50の制御部58は、通信部59を経由して走行支援装置10の見落とし地点収集部15から、交差点の位置情報及び見落とし地点の情報を受け取る。制御部58は、交差点における見落とし地点の情報を、交差点の形状に基づいて分類し、見落とし地点記憶部56に記憶させる。
 実施の形態6の走行支援システムにおける見落とし地点の提示例は、実施の形態2の図7に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態6の動作のうち、実施の形態2の動作とは異なる動作のみ抜粋して説明する。
 図7のフローチャートに示されるステップST23Aにおいて、サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、見落とし地点記憶部56を参照し、車両が接近している交差点と同じ又は最も適合する形状の交差点における見落とし地点の情報を取得する。制御部58は、取得した見落とし地点の情報を、制御部58及び通信部59を経由して走行支援装置10へ送信する。
 以上のように、実施の形態6の見落とし地点記憶部56に記憶される見落とし地点は、交差点の形状に基づいて分類される。この構成により、ある交差点において見落とし地点の情報が存在しない場合に、走行支援装置10は、同じ又は最も適合する形状の交差点における見落とし地点の情報を参照して運転者に提示することができる。
 なお、実施の形態6では、サーバ装置50の見落とし地点記憶部56に記憶される見落とし地点の情報が、交差点の形状に基づいて分類されたが、これに限定されるものではない。例えば、実施の形態1に係る走行支援装置10の見落とし地点記憶部16に記憶される見落とし地点の情報が、見落とし地点収集部15によって交差点の形状に基づいて分類されてもよい。
 さらに、見落とし地点記憶部56又は見落とし地点記憶部16に記憶される見落とし地点の情報は、交差点の形状に加え、交差点走行時に運転者が視認した順番、交差点走行時の視認有無、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に基づいて分類されてもよい。
 また、実施の形態1の視認地点記憶部12又は実施の形態2~5の視認地点記憶部52は、交差点の形状ごとに視認地点の情報が記憶されている構成であってもよい。
実施の形態7.
 図15は、実施の形態7に係る走行支援システムの構成例を示すブロック図である。図15において図5と同一又は相当する部分は、同一の符号を付し説明を省略する。
 走行支援装置10は、車両情報取得部21を備える。車両情報取得部21は、走行支援装置10が搭載された車両に関する車両情報を、車両から又は図示しない入力装置等から取得し、記憶する。車両情報は、例えば、車種または初年度登録年式等の情報を含む。
 次に、実施の形態7に係る走行支援システムの動作を説明する。
 実施の形態7の走行支援システムにおける見落とし地点の収集例は、実施の形態2の図6に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態7の動作のうち、実施の形態2とは異なる動作のみ抜粋して説明する。
 図6のフローチャートに示されるステップST16Aにおいて、走行支援装置10の車両情報取得部21は、車両情報を取得する。見落とし地点収集部15は、交差点の位置情報と見落とし地点の情報とに対して、車両情報を付与し、制御部18及び通信部19を経由してサーバ装置50へ送信する。
 サーバ装置50の制御部58は、通信部59を経由して走行支援装置10の見落とし地点収集部15から、車両情報が付与された交差点の位置情報及び見落とし地点の情報を受け取る。制御部58は、交差点における見落とし地点の情報を、この見落とし地点の情報に付与されている車両情報に基づいて分類し、見落とし地点記憶部56に記憶させる。
 実施の形態7の走行支援システムにおける見落とし地点の提示例は、実施の形態2の図7に示されるフローチャートの動作と基本的には同じである。以下では、実施の形態7の動作のうち、実施の形態2とは異なる動作のみ抜粋して説明する。
 図7のフローチャートに示されるステップST23Aにおいて、走行支援装置10の情報提示部17は、車両が接近している交差点における見落とし地点の情報の送信を要求する送信要求を、制御部18を経由して通信部19からサーバ装置50へ送信する。その際、情報提示部17は、制御部18を経由して車両情報取得部21から車両情報を取得し、送信要求に含める。
 サーバ装置50の通信部59が走行支援装置10からの送信要求を受信すると、制御部58は、車両が接近している交差点における見落とし地点の情報を、見落とし地点記憶部56から取得する。さらに、制御部58は、見落とし地点記憶部56から取得した見落とし地点の情報のうち、送信要求に含まれる車両情報に一致する車両情報が付与された見落とし地点の情報を選択する。制御部58は、選択した見落とし地点の情報を、制御部58及び通信部59を経由して走行支援装置10へ送信する。
 以上のように、実施の形態7の見落とし地点記憶部56に記憶される見落とし地点は、走行支援装置10が搭載された車両に関する情報に基づいて分類される。例えば、車種ごとに、ピラーの形状等が異なることによって死角が異なる。その場合に、走行支援装置10は、車両の種類ごとに見落としやすい地点を提示することができる。
 なお、実施の形態7では、サーバ装置50の見落とし地点記憶部56に記憶される見落とし地点の情報が、車両情報に基づいて分類されたが、これに限定されるものではない。見落とし地点記憶部56に記憶される見落とし地点の情報は、車両情報に加え、交差点の形状、交差点走行時に運転者が視認した順番、交差点走行時の視認有無、運転者状態、運転技能、性別、又は年齢のうちの少なくとも1つの情報に基づいて分類されてもよい。
 最後に、各実施の形態に係る走行支援装置10及びサーバ装置50のハードウェア構成を説明する。
 図16Aおよび図16Bは、各実施の形態に係る走行支援装置10のハードウェア構成例を示す図である。走行支援装置10における視線検出部14は、カメラ1004等である。走行支援装置10における通信部19は、無線通信装置1000である。走行支援装置10における視認地点記憶部12及び見落とし地点記憶部16は、メモリ1002である。また、走行支援装置10における車両位置取得部11、視認地点取得部13、見落とし地点収集部15、情報提示部17、制御部18、運転者状態判定部20、及び車両情報取得部21の各機能は、処理回路により実現される。即ち、走行支援装置10は、上記各機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路1001であってもよいし、メモリ1002に格納されるプログラムを実行するプロセッサ1003であってもよい。
 図16Aに示されるように、処理回路が専用のハードウェアである場合、処理回路1001は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。車両位置取得部11、視認地点取得部13、見落とし地点収集部15、情報提示部17、制御部18、運転者状態判定部20、及び車両情報取得部21の機能を複数の処理回路1001で実現してもよいし、各部の機能をまとめて1つの処理回路1001で実現してもよい。
 図16Bに示されるように、処理回路がプロセッサ1003である場合、車両位置取得部11、視認地点取得部13、見落とし地点収集部15、情報提示部17、制御部18、運転者状態判定部20、及び車両情報取得部21の各機能はソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ1002に格納される。プロセッサ1003は、メモリ1002に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、走行支援装置10は、プロセッサ1003により実行されるときに、図3及び図4等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ1002を備える。また、このプログラムは、車両位置取得部11、視認地点取得部13、見落とし地点収集部15、情報提示部17、制御部18、運転者状態判定部20、及び車両情報取得部21の手順又は方法をコンピュータに実行させるものであるとも言える。
 なお、車両位置取得部11、視認地点取得部13、見落とし地点収集部15、情報提示部17、制御部18、運転者状態判定部20、及び車両情報取得部21の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、走行支援装置10における処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。
 図17Aおよび図17Bは、各実施の形態に係るサーバ装置50のハードウェア構成例を示す図である。サーバ装置50における通信部59は、無線通信装置5000である。サーバ装置50における視認地点記憶部52及び見落とし地点記憶部56は、メモリ5002である。サーバ装置50における制御部58は、処理回路により実現される。即ち、サーバ装置50は、上記各機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路5001であってもよいし、メモリ5002に格納されるプログラムを実行するプロセッサ5003であってもよい。
 図17Aに示されるように、処理回路が専用のハードウェアである場合、処理回路5001は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又はこれらを組み合わせたものが該当する。
 図17Bに示されるように、処理回路がプロセッサ5003である場合、制御部58の機能はソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ5002に格納される。プロセッサ5003は、メモリ5002に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、サーバ装置50は、プロセッサ5003により実行されるときに、図3及び図4等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ5002を備える。また、このプログラムは、制御部58の手順又は方法をコンピュータに実行させるものであるとも言える。
 ここで、プロセッサ1003,5003とは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、又はマイクロコンピュータ等のことである。
 メモリ1002,5002は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、又はSSD(Solid State Drive)等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスク又はフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の光ディスクであってもよい。
 なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能である。
 この発明に係る走行支援装置は、運転者が過去に走行した交差点において視認地点の見落としがあった場合、次回走行時にその視認地点を見落とし地点として提示するようにしたので、車両の走行を支援する走行支援装置等に用いるのに適している。
 1 ナビゲーション装置、10 走行支援装置、11 車両位置取得部、12,52 視認地点記憶部、13 視認地点取得部、14 視線検出部、15 見落とし地点収集部、16,56 見落とし地点記憶部、17 情報提示部、18,58 制御部、19,59 通信部、20 運転者状態判定部、21 車両情報取得部、50 サーバ装置、60 運転者状態記憶部、100 車両、101 交差点、111~115,121~125,131~135 視認地点、1000,5000 無線通信装置、1001,5001 処理回路、1002,5002 メモリ、1003,5003 プロセッサ。

Claims (9)

  1.  車両の位置情報を取得する車両位置取得部と、
     交差点において運転者が視認すべき地点を表す視認地点の情報を記憶している視認地点記憶部から、前記車両位置取得部により取得された位置情報に基づいて前記車両が走行する交差点における視認地点の情報を取得する視認地点取得部と、
     前記車両の運転者の視線情報を検出する視線検出部と、
     前記視線検出部により検出された前記運転者の視線情報と前記視認地点取得部により取得された前記交差点の視認地点の情報とに基づいて前記運転者が前記交差点を走行したときに見落とした視認地点を判定し、見落とし地点として収集する見落とし地点収集部と、
     前記見落とし地点収集部により収集済みの前記見落とし地点を、前記車両が交差点を走行する場合に提示する情報提示部とを備える走行支援装置。
  2.  前記情報提示部は、ナビゲーション装置、インストルメントパネル、ヘッドアップディスプレイ、車載端末、音声出力装置、又は路面照射装置のうちの少なくとも1つを用いて、前記見落とし地点収集部により収集済みの見落とし地点を提示することを特徴とする請求項1記載の走行支援装置。
  3.  車両に搭載された請求項1記載の走行支援装置と、
     前記走行支援装置と通信するサーバ装置とを備え、
     前記サーバ装置は、
     前記走行支援装置により収集された見落とし地点を、前記走行支援装置から受信する通信部と、
     前記走行支援装置から受信した見落とし地点を予め定められた条件に基づいて分類して記憶する見落とし地点記憶部とを備え、
     前記走行支援装置は、
     前記サーバ装置の前記見落とし地点記憶部に記憶されている見落とし地点を、前記サーバ装置から受信する通信部を備え、
     前記情報提示部は、前記サーバ装置から受信した見落とし地点を、前記車両が交差点を走行する場合に提示することを特徴とする走行支援システム。
  4.  前記見落とし地点記憶部に記憶される見落とし地点は、運転者の状態、運転技能、性別、又は年齢のうちの少なくとも1つに基づいて分類されることを特徴とする請求項3記載の走行支援システム。
  5.  前記見落とし地点記憶部に記憶される見落とし地点は、運転者が交差点を走行したときに視認地点を視認したか否かに基づいて分類されることを特徴とする請求項3記載の走行支援システム。
  6.  前記見落とし地点記憶部に記憶される見落とし地点は、運転者が交差点を走行したときに当該交差点における1つ以上の視認地点を視認した順番に基づいて分類されることを特徴とする請求項3記載の走行支援システム。
  7.  前記見落とし地点記憶部に記憶される見落とし地点は、交差点の形状に基づいて分類されることを特徴とする請求項3記載の走行支援システム。
  8.  前記見落とし地点記憶部に記憶される見落とし地点は、前記走行支援装置が搭載された車両に関する情報に基づいて分類されることを特徴とする請求項3記載の走行支援システム。
  9.  車両位置取得部が、車両の位置情報を取得するステップと、
     視認地点取得部が、交差点において運転者が視認すべき地点を表す視認地点の情報を記憶している視認地点記憶部から、前記車両位置取得部により取得された位置情報に基づいて前記車両が走行する交差点における視認地点の情報を取得するステップと、
     視線検出部が、前記車両の運転者の視線情報を検出するステップと、
     見落とし地点収集部が、前記視線検出部により検出された前記運転者の視線情報と前記視認地点取得部により取得された前記交差点の視認地点の情報とに基づいて前記運転者が前記交差点を走行したときに見落とした視認地点を判定し、見落とし地点として収集するステップと、
     情報提示部が、前記見落とし地点収集部により収集済みの前記見落とし地点を、前記車両が交差点を走行する場合に提示するステップとを備える走行支援方法。
PCT/JP2017/039594 2017-11-01 2017-11-01 走行支援装置、走行支援システム、及び走行支援方法 WO2019087337A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019550079A JP6903151B2 (ja) 2017-11-01 2017-11-01 走行支援装置、走行支援システム、及び走行支援方法
PCT/JP2017/039594 WO2019087337A1 (ja) 2017-11-01 2017-11-01 走行支援装置、走行支援システム、及び走行支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/039594 WO2019087337A1 (ja) 2017-11-01 2017-11-01 走行支援装置、走行支援システム、及び走行支援方法

Publications (1)

Publication Number Publication Date
WO2019087337A1 true WO2019087337A1 (ja) 2019-05-09

Family

ID=66332954

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/039594 WO2019087337A1 (ja) 2017-11-01 2017-11-01 走行支援装置、走行支援システム、及び走行支援方法

Country Status (2)

Country Link
JP (1) JP6903151B2 (ja)
WO (1) WO2019087337A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275057A (ja) * 1999-03-24 2000-10-06 Denso Corp 車両誘導装置
JP2007133692A (ja) * 2005-11-10 2007-05-31 Toyota Motor Corp 運転行動評価装置
JP2008040977A (ja) * 2006-08-09 2008-02-21 Denso Corp 車両用情報提供装置
JP2008158791A (ja) * 2006-12-22 2008-07-10 Aisin Aw Co Ltd 運転支援システム
JP2009075767A (ja) * 2007-09-19 2009-04-09 Aisin Seiki Co Ltd 運転支援装置及び運転支援方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006069298A (ja) * 2004-08-31 2006-03-16 Nissan Motor Co Ltd 車両用歩行者報知装置及び歩行者報知方法
JP2006185410A (ja) * 2004-12-02 2006-07-13 Nissan Motor Co Ltd 夜間移動体報知装置及び夜間移動体報知方法
JP2015185075A (ja) * 2014-03-26 2015-10-22 株式会社デンソー 街灯システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275057A (ja) * 1999-03-24 2000-10-06 Denso Corp 車両誘導装置
JP2007133692A (ja) * 2005-11-10 2007-05-31 Toyota Motor Corp 運転行動評価装置
JP2008040977A (ja) * 2006-08-09 2008-02-21 Denso Corp 車両用情報提供装置
JP2008158791A (ja) * 2006-12-22 2008-07-10 Aisin Aw Co Ltd 運転支援システム
JP2009075767A (ja) * 2007-09-19 2009-04-09 Aisin Seiki Co Ltd 運転支援装置及び運転支援方法

Also Published As

Publication number Publication date
JPWO2019087337A1 (ja) 2020-04-02
JP6903151B2 (ja) 2021-07-14

Similar Documents

Publication Publication Date Title
US10733462B2 (en) Travel assistance device and computer program
CN108349503B (zh) 驾驶辅助装置
JP4293917B2 (ja) ナビゲーション装置及び交差点案内方法
JP5017242B2 (ja) 視覚支援装置
JPWO2017022047A1 (ja) 表示制御装置、表示装置及び表示制御方法
JP2008280026A (ja) 運転支援装置
US20200062173A1 (en) Notification control apparatus and method for controlling notification
JP2007102691A (ja) 車両用視界支援装置
JP2009117971A (ja) 車両周辺監視装置
JP4797849B2 (ja) 運転支援画像表示システム及び車載装置
JP2013018406A (ja) 駐車枠の認識装置、駐車枠の認識方法、及び、プログラム
CN107111741B (zh) 用于具有摄像机的机动车的方法,设备和***
CN110462699B (zh) 车辆用显示控制装置以及车辆用显示单元
EP1669722A1 (en) Vehicle-mounted communication device
JP4957589B2 (ja) 障害物警告装置、障害物警告方法及びコンピュータプログラム
US20200031227A1 (en) Display control apparatus and method for controlling display
JP2019010919A (ja) 走行支援装置及びコンピュータプログラム
JP6435798B2 (ja) 車両情報案内システム、車両情報案内方法及びコンピュータプログラム
WO2019087337A1 (ja) 走行支援装置、走行支援システム、及び走行支援方法
JP2005241653A (ja) ナビゲーションシステムのユーザを目的地誘導するための方法及びナビゲーションシステム
JP5231595B2 (ja) ナビゲーション装置
JP6785956B2 (ja) 表示制御装置及び表示制御方法
JP6939147B2 (ja) 走行情報案内装置及びコンピュータプログラム
JP2016197474A (ja) 運転支援装置および運転支援方法
WO2005098361A1 (ja) 情報提示装置および当該情報の提示制御に用いられる情報提示プログラム等

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17930233

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019550079

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17930233

Country of ref document: EP

Kind code of ref document: A1